JP2020043418A - Periphery monitoring device - Google Patents
Periphery monitoring device Download PDFInfo
- Publication number
- JP2020043418A JP2020043418A JP2018167856A JP2018167856A JP2020043418A JP 2020043418 A JP2020043418 A JP 2020043418A JP 2018167856 A JP2018167856 A JP 2018167856A JP 2018167856 A JP2018167856 A JP 2018167856A JP 2020043418 A JP2020043418 A JP 2020043418A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- parking area
- virtual viewpoint
- target parking
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012806 monitoring device Methods 0.000 title claims abstract description 32
- 230000002093 peripheral effect Effects 0.000 claims description 25
- 238000012545 processing Methods 0.000 description 65
- 238000012544 monitoring process Methods 0.000 description 32
- 238000003384 imaging method Methods 0.000 description 31
- 238000013459 approach Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000000446 fuel Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
本発明の実施形態は、周辺監視装置に関する。 Embodiments of the present invention relate to a periphery monitoring device.
従来、車両に設けられた複数の撮像部(カメラ)により車両周囲の状況をそれぞれ異なる方向で撮像し、撮像した複数の画像に画像処理(例えば視点変換処理)を施して合成画像を生成する技術が知られている。このように生成される合成画像に対して、例えば、車両の走行状態に応じて視点を変化させたり、表示領域を変化させたりすることにより、運転者が車両周辺の監視を行いやすくなるような画像を提供する画像表示装置が提案されている。 2. Description of the Related Art Conventionally, a technique of capturing a situation around a vehicle in different directions by a plurality of image capturing units (cameras) provided in a vehicle and performing image processing (for example, viewpoint conversion processing) on the captured images to generate a composite image. It has been known. For example, by changing the viewpoint or the display area according to the running state of the vehicle with respect to the synthesized image generated in this manner, the driver can easily monitor the vicinity of the vehicle. An image display device for providing an image has been proposed.
運転者が表示装置を視認して周囲の状況を確認したい場面として、例えば、目的の駐車領域(駐車枠)に自車を駐車させるような場合がある。このような場合に、表示される画像としては、例えば目標駐車領域や自車の位置が確認し易い画像であったり、周辺の画像の歪み等が少ない視認し易い画像であったりすることが望ましい。このように、目標駐車領域や自車の位置が常時確認できような歪みの少ない画像が提供できれば、表示装置に表示される画像を用いた周辺監視の精度向上ができるとともに、ストレスなく監視作業を行うことが可能になり有意義である。 As a scene where the driver wants to check the surroundings by visually recognizing the display device, for example, there is a case where the driver parks the vehicle in a target parking area (parking frame). In such a case, it is desirable that the image to be displayed is, for example, an image in which the target parking area or the position of the own vehicle can be easily confirmed, or an image in which the distortion or the like of the surrounding image is easy to visually recognize. . In this way, if an image with less distortion can be provided so that the target parking area and the position of the own vehicle can always be confirmed, it is possible to improve the accuracy of monitoring the periphery using the image displayed on the display device and to perform monitoring work without stress. It can be done and is meaningful.
本発明の実施形態にかかる周辺監視装置は、例えば、車両の周辺を撮像した撮像画像データを取得する画像取得部と、上記車両を誘導する目標駐車領域を取得する目標取得部と、上記車両を上記目標駐車領域に誘導する際に、上記車両の上空に設定される仮想視点の位置を連続的に上記車両の移動状況に応じて直上に向けて移動させながら、上記撮像画像データに基づく上記目標駐車領域の少なくとも一部と上記車両の少なくとも一部との両方が表示領域に含まれ続けるような仮想視点画像を生成する画像生成部と、上記仮想視点画像を表示装置に出力する出力部と、を含む。この構成によれば、例えば、仮想視点の位置が変化しても駐車支援による走行中に注目させたい、例えば、目標駐車領域と車両との相対位置関係を、常時認識させ易くなる。そして、最終的に目標駐車領域に移動すると車両を直上付近から見下ろすような画像の表示が可能になる。また、仮想視点が目標駐車領域に常に向けられるため歪みが少ない画像が提供できる。その結果、目標駐車領域が遠方に存在する場合には、目標駐車領域の周辺の確認がし易く、目標駐車領域が接近した場合には、車両の周囲の確認がし易くなり、周辺監視の精度向上に寄与できるとともに、低ストレスの監視作業を行わせ易くなる。 A surroundings monitoring device according to an embodiment of the present invention includes, for example, an image acquisition unit that acquires captured image data of the periphery of a vehicle, a target acquisition unit that acquires a target parking area for guiding the vehicle, When guiding to the target parking area, the target based on the captured image data is moved while the position of the virtual viewpoint set above the vehicle is continuously moved directly upward according to the moving state of the vehicle. An image generation unit that generates a virtual viewpoint image such that both at least a part of the parking area and at least a part of the vehicle continue to be included in the display area, and an output unit that outputs the virtual viewpoint image to a display device, including. According to this configuration, for example, even when the position of the virtual viewpoint changes, it is easy to always recognize the relative positional relationship between the target parking area and the vehicle that the driver wants to pay attention to while driving with parking assistance. Then, when the vehicle finally moves to the target parking area, it becomes possible to display an image that looks down the vehicle from immediately above. Further, since the virtual viewpoint is always directed to the target parking area, an image with less distortion can be provided. As a result, when the target parking area is far away, it is easy to check the surroundings of the target parking area, and when the target parking area approaches, it is easy to check the surroundings of the vehicle. This contributes to improvement and makes it easier to perform low-stress monitoring work.
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記車両の直上に設定される車両中心位置と上記目標駐車領域とを結ぶ第1仮想視線ラインの長さと、上記車両中心位置と上記仮想視点の位置とを結ぶ第2仮想視線ラインの長さとの比を一定に保ちながら上記車両の移動状況に応じて上記仮想視点の位置を移動させながら上記仮想視点画像を生成するようにしてもよい。この構成によれば、例えば、車両が目標駐車領域に近づくのに連れて、車両が上々に拡大表示される、いわゆる「ズームイン」表示が容易にできる。その結果、車両の周囲の確認がし易くなり、周辺監視の精度をより向上することができる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, a length of a first virtual line of sight connecting the vehicle center position set immediately above the vehicle and the target parking area, The virtual viewpoint image is generated while moving the position of the virtual viewpoint according to the moving state of the vehicle while maintaining a constant ratio of a length of a second virtual line of sight line connecting the position and the position of the virtual viewpoint. It may be. According to this configuration, for example, as the vehicle approaches the target parking area, a so-called “zoom-in” display in which the vehicle is magnified and displayed in an excellent manner can be easily performed. As a result, it is easy to confirm the surroundings of the vehicle, and the accuracy of surrounding monitoring can be further improved.
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記車両を覆う仮想曲面と、上記目標駐車領域と上記車両の直上に設定される車両中心位置とを通る仮想視線ラインが上記車両を挟んで上記目標駐車領域と逆側で交差する位置に設定する上記仮想視点の位置を上記車両の移動状況に応じて移動させながら上記仮想視点画像を生成するようにしてもよい。この構成によれば、例えば、仮想視点の位置が移動しても車両(自車)は、ほぼ同じ大きさで表示され続けられる。その結果、仮想視点画像の表示内容が滑らかに変化し不自然な表示が行われることが軽減され、視認し易い画像を提供することが可能になり、より低ストレスの監視作業を行わせ易くなる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, a virtual curved line that covers the vehicle, a virtual line of sight passing through the target parking area and a vehicle center position set immediately above the vehicle. The virtual viewpoint image may be generated while moving the position of the virtual viewpoint set at a position that intersects the target parking area on the opposite side across the vehicle in accordance with the moving state of the vehicle. According to this configuration, for example, even when the position of the virtual viewpoint moves, the vehicle (own vehicle) is continuously displayed in substantially the same size. As a result, the display content of the virtual viewpoint image is smoothly changed and unnatural display is reduced, an image that is easy to recognize can be provided, and monitoring work with lower stress can be performed more easily. .
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点の位置から上記目標駐車領域を臨む場合の注視点の位置を、上記目標駐車領域の領域中心位置に対して上記車両から遠ざかる方向に所定量移動させた位置とするようにしてもよい。この構成によれば、例えば、車両が目標駐車領域に対してオーバランした場合でも、仮想視点の位置が車両の進行方向から逆方向に向いてしまう可能性、つまり、仮想視点画像が180°回転してしまう可能性を軽減することが可能で、駐車終盤で違和感のある画像が表示されてしまうことを抑制できる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention, for example, the position of the gazing point when facing the target parking area from the position of the virtual viewpoint, with respect to the area center position of the target parking area The position may be moved by a predetermined amount in a direction away from the vehicle. According to this configuration, for example, even when the vehicle overruns the target parking area, the position of the virtual viewpoint may be in the opposite direction from the traveling direction of the vehicle, that is, the virtual viewpoint image is rotated by 180 °. It is possible to reduce the possibility that the image will be displayed, and it is possible to suppress the display of an uncomfortable image at the end of parking.
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点の位置の移動状況に応じて、上記仮想視点画像の視野角を変更してもよい。この構成によれば、例えば、車両に対して近距離(車両周辺)の監視に重点を置きたい場合の表示や、車両に対して遠距離を含めた全体の監視に重点を置きたい場合の表示等の切り替えが可能になり、監視バリエーションの向上ができる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention may change a viewing angle of the virtual viewpoint image according to, for example, a moving state of the position of the virtual viewpoint. According to this configuration, for example, a display when emphasis is placed on monitoring of a vehicle at a short distance (around the vehicle) or a display when emphasis is placed on monitoring the entire vehicle including a long distance with respect to the vehicle And the like can be switched, and monitoring variations can be improved.
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点画像における上記目標駐車領域に対応する位置に、上記目標駐車領域を示す駐車枠画像と上記目標駐車領域に上記車両が移動した状況を示す仮想車両とのうち少なくとも一方を示す指標を重畳表示するようにしてもよい。この構成によれば、例えば、目標駐車領域の位置確認や、接近程度の確認等を行わせ易くすることができる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, at a position corresponding to the target parking area in the virtual viewpoint image, a parking frame image indicating the target parking area and the target parking area. An index indicating at least one of a virtual vehicle indicating a state in which the vehicle has moved may be superimposed and displayed. According to this configuration, for example, it is possible to easily confirm the position of the target parking area, the degree of approach, and the like.
本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点画像における上記車両と上記指標とを異なる表示態様で表示するようにしてもよい。この構成によれば、例えば、目標駐車領域の位置確認や、接近程度の確認等をより行わせ易くすることができる。 The image generation unit of the periphery monitoring device according to the embodiment of the present invention may display, for example, the vehicle and the index in the virtual viewpoint image in different display modes. According to this configuration, for example, it is possible to make it easier to confirm the position of the target parking area, confirm the degree of approach, and the like.
以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。 Hereinafter, exemplary embodiments of the present invention will be disclosed. The configurations of the embodiments described below, and the actions, results, and effects provided by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and can obtain at least one of various effects based on the basic configuration and derivative effects. .
図1に例示されるように、本実施形態において、周辺監視装置(周辺監視システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。また、車両1の駆動方式としては、四つある車輪3すべてに駆動力を伝え、四輪すべてを駆動輪として用いる四輪駆動車両とすることができるし、前輪駆動方式や後輪駆動方式でもよい。車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。
As illustrated in FIG. 1, in the present embodiment, a
車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。
The vehicle body 2 forms a
また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等により操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。
Further, a
また、車室2a内には、図3に例示されるように、表示装置8とは別の表示装置12が設けられている。表示装置12は、例えば、ダッシュボード24の計器盤部25(図1参照)に設けられ、計器盤部25の略中央で、速度表示部と回転数表示部との間に位置されうる。表示装置12の画面の大きさは、表示装置8の画面の大きさよりも小さくてもよい。この表示装置12には、例えば車両1の周辺監視や駐車支援機能等の種々の機能が動作している場合に補助的な情報として、インジケータやマーク、文字情報等により制御状態を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。
Further, a
また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図3に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。
Further, as exemplified in FIGS. 1 and 2, the
また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面や路面に付された停止線や駐車枠線、区画線等の非立体物、および車両1の周辺に存在する物体(例えば、壁、樹木、人間、自転車、車両等の立体的な物体、接近物等を「障害物」と称する場合もある)を留意対象として逐次撮影可能で、撮像画像データとして出力することもできる。
Further, as illustrated in FIG. 2, the vehicle body 2 is provided with, for example, four
撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパやフロントグリル等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側のドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想視点画像を生成したりする。なお、各撮像部15が撮像する撮像画像データ(画像)には、互いに重複する重複領域が設けられ、画像を繋ぎ合わせるときに欠落領域が生じないようにしている。
The
図1、図2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a〜16dと、八つの測距部17a〜17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器、超音波ソナーとも称されうる。本実施形態において、測距部16,17は、車両1の車高方向において低い位置、例えば前後のバンパに設けられる。そして、ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。
As illustrated in FIGS. 1 and 2, the vehicle body 2 is provided with a plurality of
また、図3に例示されるように、周辺監視システム100(周辺監視装置)では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、駆動システム23等が、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク26を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18、駆動システム23等を制御することができる。また、ECU14は、車内ネットワーク26を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16,17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。
As illustrated in FIG. 3, in the peripheral monitoring system 100 (peripheral monitoring device), in addition to the
ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理の演算処理および制御を実行することができる。また、CPU14aは、撮像部15で得られた広角画像の撮像画像データ(湾曲した画像のデータ)に演算処理や画像処理を施し歪みを補正する歪み補正処理を実行したり、撮像部15が撮像した撮像画像データに基づき、車両1を示す自車アイコンを例えば中心位置に表示する仮想視点画像(周辺画像)を作成して、表示装置8に表示させたりすることができる。CPU14aは、生成する仮想視点画像を、仮想視点の位置を車両1の直上に向かって移動させながら生成することができる。また、CPU14aは、撮像部15から提供される撮像画像データから車両1の周辺の路面に示された区画線等を識別して駐車支援(走行支援)を実行することができる。例えば、CPU14aは、区画(例えば、駐車区画線等)を検出(抽出)して、車両1が移動可能な目標領域(例えば、目標駐車領域)を設定したり、その目標領域に車両1を誘導するための誘導経路を取得したり、車両1を完全自動、半自動、手動(例えば音声による操作ガイド)により目標領域に誘導する誘導制御(支援制御)を実行することができる。
The
CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。
The
ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。CPU14aはブレーキセンサ18bの検出結果に基づき算出した制動力の大きさと、車両1の現在の車速とから制動距離を算出することができる。
The
舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、例えば駐車支援を実行する際の自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。
The
アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。
The
シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。
The
車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、各車輪3に配置され、各車輪3で検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。CPU14aは、各車輪速センサ22のセンサ値に基づいて車両1の車速を算出する場合、四輪のうち最も小さなセンサ値の車輪3の速度に基づき車両1の車速を決定し、各種制御を実行する。また、CPU14aは、四輪の中で他の車輪3に比べてセンサ値が大きな車輪3が存在する場合、例えば、他の車輪3に比べて単位期間(単位時間や単位距離)の回転数が所定数以上多い車輪3が存在する場合、その車輪3はスリップ状態(空転状態)であると見なし、各種制御を実行する。なお、車輪速センサ22は、図示を省略したブレーキシステム18に設けられている場合もある。その場合、CPU14aは、車輪速センサ22の検出結果をブレーキシステム18を介して取得してもよい。
The
駆動システム23は、駆動源としての内燃機関(エンジン)システムやモータシステムである。駆動システム23は、アクセルセンサ20により検出された運転者(利用者)の要求操作量(例えばアクセルペダルの踏み込み量)にしたがいエンジンの燃料噴射量や吸気量の制御やモータの出力値を制御する。また、運転者の操作に拘わらず、車両1の走行状態に応じて、操舵システム13やブレーキシステム18の制御と協働してエンジンやモータの出力値を制御しうる。
The
なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。 The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are merely examples, and can be set (changed) in various ways.
本実施形態のCPU14aは、撮像部15が撮像した撮像画像データ(画像)に視点変換処理や透視投影処理等の画像処理を施すことにより、撮像部15が撮像する際の視点とは異なる仮想視点から見たような仮想視点画像を生成して表示装置8に表示させる。例えば、車両1を目標駐車領域に誘導する駐車支援を実行する場合に、車両1の周辺状況を運転者(利用者)に認識させやすい画像を提供する。具体的には、車両1の上空に設定される仮想視点の位置を連続的に車両の移動状況に応じて車両1の直上に向けて移動させる。このとき、撮像画像データに基づく目標駐車領域の少なくとも一部と車両1の少なくとも一部との両方が仮想視点画像の表示領域に含まれ続けるようにする。
The
図4は、ECU14に含まれるCPU14aにおいて、本実施形態の画像処理および車両1を移動させるための駐車支援を実現するための構成の例示的なブロック図である。なお、CPU14aにおいて、本実施形態の画像処理および駐車支援を実行する以外の構成は図示を省略している。CPU14aは、上述したような駐車支援処理を実行するとともに、仮想視点画像の生成を実行するための各種モジュールを備える。各種モジュールは、CPU14aがROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される。例えば、CPU14aは、図4に示されるように、駐車支援部30、周辺監視部32等を備える。
FIG. 4 is an exemplary block diagram of a configuration for realizing image processing and parking assistance for moving the
駐車支援部30は、指定された目標駐車領域(駐車枠、駐車位置、目標領域)に、完全自動走行、半自動走行、手動走行のうちいずれかの走行方法によって車両1を誘導する。駐車支援部30は、駐車支援を実行するためのモジュールとして、例えば、目標駐車領域設定部30a、経路取得部30b、誘導制御部30c等を含む。
The
目標駐車領域設定部30aは、撮像部15が撮像した撮像画像データに基づき、車両1を移動可能な目標駐車領域を設定する。例えば、目標駐車領域設定部30aは、車両1が低速(例えば、車速=5km/h以下)で走行している場合にも、前述したように撮像部15a〜15dから車両1の周囲を撮像した撮像画像データおよび測距部16,17から車両1の周囲に関する測距データを逐次取得する。そして、目標駐車領域設定部30aは、取得した撮像画像データや測距データと、車両1の車幅や車長に基づき、車両1が収まりうる空間である目標駐車領域候補を車両1の周囲で探索する。目標駐車領域設定部30aは、目標駐車領域候補が複数箇所で探索できた場合、それらを表示装置8に提示し、運転者に希望する目標駐車領域を選択させる。また、目標駐車領域候補が一箇所の場合は、その位置を表示装置8に提示する。また、目標駐車領域設定部30aは、車両1の周囲の状況(例えば、駐車場入口からの距離や周囲の駐車状況、建物がある場合には建物の入口からの距離等)に基づき、複数の目標駐車領域候補の中から推奨する目標駐車領域を提示するようにしてもよい。この場合、目標駐車領域設定部30aは、外部の情報センタから車両1が現在存在する位置の情報(例えば、駐車場情報等)を取得して、推奨する目標駐車領域を選択するようにしてもよい。
The target parking
経路取得部30bは、車両1の現在位置と目標駐車領域設定部30aにより設定された目標駐車領域とに基づき、例えば、切返し回数が最小で車両1を現在の位置から目標駐車領域まで誘導できる誘導経路を取得する。誘導経路は、経路取得部30bで演算して取得してもよいし、車両1の位置と目標駐車領域の位置とを外部の処理装置(例えば、駐車場の管理装置等)に送信し、そこで演算された誘導経路を経路取得部30bで受信することで取得するようにしてもよい。なお、誘導経路の算出は周知の技術が利用可能であり、詳細な説明は省略する。
Based on the current position of the
誘導制御部30cは、車両1の誘導開始を要求する操作信号を操作入力部10等を介して取得した場合、経路取得部30bが取得した誘導経路にしたがい車両1を目標駐車領域に誘導する。例えば、完全自動走行で誘導する場合には、誘導制御部30cは、操舵システム13、ブレーキシステム18、駆動システム23等を制御する。また、例えば、操舵のみを自動制御する半自動走行の場合、運転者に操作させるアクセルペダルやブレーキペダル等の操作量や操作タイミングを表示装置8や表示装置12に表示させたり、音声出力装置9から出力させたりする。同様に、手動走行させる場合には、ステアリングホイールの転舵方向や転舵量、アクセルペダルやブレーキペダルの操作量や操作タイミング等を表示装置8や表示装置12に表示させたり、音声出力装置9から出力させたりする。
When the
周辺監視部32は、駐車支援部30により駐車支援が実行される場合に、表示装置8に表示される画像としての仮想視点画像を生成する。ここで、仮想視点画像とは、撮像部15が撮像した当該撮像部15を視点とする画像に対して視点変換処理等を施して視点の位置を仮想的な位置、例えば、図5や図6等に例示するように車両1の上空に移動させて、車両1を上空から見下ろしながら撮像した場合に得られるような画像である。このような仮想視点画像を生成するために、周辺監視部32は、画像取得部34、目標取得部36、画像生成部38、出力部40等のモジュールを含む。
The
画像取得部34は、目標駐車領域が設定された後、車両1の誘導開始前および開始後において、車両1の周辺を撮像した撮像画像データを各撮像部15a〜15dから逐次取得する。
After the target parking area is set, before and after the guidance of the
目標取得部36は、目標駐車領域設定部30aが設定して目標駐車領域を取得するとともに、例えば、車両1(自車)の現在の位置を基準とする座標系における目標駐車領域の座標および車両1に対する回転角を取得する。この場合、車両1の現在の位置は、例えば、車両1の車幅方向の長さおよび車長方向の長さで規定される中央位置(基準位置)で定義することができる。また、別の実施形態では、車両1の後輪軸の車幅方向の中央位置を車両1の基準位置として定義してもよい。また、目標駐車領域の座標は、例えば、目標駐車領域の幅方向の長さおよび奥行き方向で規定される中央位置で定義することができる。すなわち、車両1の基準位置が車両1の車幅方向の長さおよび車長方向の長さで規定されている場合、その基準位置を目標駐車領域の座標に移動させるとともに、回転調整を行うことにより、車両1を目標駐車領域の中央に誘導しバランスよく収めることができる。また、車両1の基準位置が後輪軸の中央位置で定義されている場合、目標駐車領域の座標を、車両1が目標駐車領域に収まった場合に車両1の後輪軸の中央位置と一致する位置としてもよい。なお、目標取得部36は、車両1が駐車支援中に移動している間、車両1の現在の位置(移動位置)を基準とする目標駐車領域の座標位置および車両1に対する回転角を逐次取得する。つまり、車両1と目標駐車領域との相対位置関係を逐次取得する。
The
画像生成部38は、仮想視点画像を生成するために、例えば、注視点・視点処理部38a、視野設定部38b、行列式演算部38c、描画処理部38d、重畳処理部38e、指標処理部38f等のモジュールを含む。
The
注視点・視点処理部38aは、例えば、図5に例示されるように、車両1の位置と目標駐車領域Pの位置とに基づき、注視点位置42と仮想視点位置44を設定する。図5において、注視点・視点処理部38aは、まず、車両1の直上(例えば、地上高2m)に設定される車両中心位置Sと目標駐車領域P(注視点位置42)とを結ぶ第1仮想視線ラインL1を設定する。このときの第1仮想視線ラインL1の長さを例えば、「1」とする。そして、注視点・視点処理部38aは、第1仮想視線ラインL1を例えば、「N」倍するとともに車両中心位置Sに対して目標駐車領域Pとは反対側に180°反転させて、車両中心位置Sを通る第2仮想視線ラインL2を設定し、当該第2仮想視線ラインL2における車両中心位置Sとは逆側の端部を仮想視点位置44とする。注視点・視点処理部38aは、目標駐車領域Pに対する車両1の移動状況に応じて、常に車両中心位置Sと目標駐車領域Pとを結ぶ第1仮想視線ラインL1の長さと、車両中心位置Sと仮想視点位置44の位置とを結ぶ第2仮想視線ラインL2の長さとの比を一定に保つように仮想視点位置44を設定する。例えば、車両1に対し遠方に存在する目標駐車領域Paの注視点位置42aと車両中心位置Sを挟んで設定される仮想視点位置44aとの関係は、第1仮想視線ラインL1a:第2仮想視線ラインL2a=1:Nになる。同様に、車両1が移動して、当該車両1と目標駐車領域Pbとが接近した場合、注視点位置42bと車両中心位置Sを挟んで設定される仮想視点位置44bとの関係は、第1仮想視線ラインL1b:第2仮想視線ラインL2b=1:Nになる。
The gazing point /
このように、第1仮想視線ラインL1と第2仮想視線ラインL2の関係が、常に1:Nになるように仮想視点位置44を設定することにより、目標駐車領域Pに車両1が接近するのに連れて、仮想視点位置44が徐々に車両1に近づくことになる。つまり、 徐々に車両1の周辺が拡大される(ズームアップ)されるような画像に変換する仮想視点位置44の設定ができる。例えば、車両1から目標駐車領域Pが遠い場合は、目標駐車領域Pを、車両1を挟んで遠くから臨み、遠方の目標駐車領域Pを含むその周辺を広域的に表示して全体状況を把握しやすい画像を生成するような仮想視点位置44の設定ができる。また、目標駐車領域Pに車両1が接近するのに連れて、目標駐車領域Pを、車両1を挟んでより近い位置から臨み、接近した目標駐車領域Pを含む車両1の周辺の状況を狭域的に表示して、車両1の周囲の距離感を認識させやすい画像(拡大された画像)を生成するような仮想視点位置44の設定ができる。その結果、車両1と目標駐車領域Pとの相対位置関係に応じた周囲状況を確認し易い仮想視点画像の提供が可能になり、周辺監視の精度をより向上することができる。なお、図5では、第1仮想視線ラインL1と第2仮想視線ラインL2との比を「1:N」とする例を示したが、車両1が移動する場合に、第1仮想視線ラインL1と第2仮想視線ラインL2との比が一定に保たれれば、比は適宜変更してもよく、同様の効果を得ることができる。
In this way, by setting the
また、他の実施形態として、注視点・視点処理部38aは仮想視点位置44を図6に示すように、車両1を覆う仮想曲面Eを用いて設定することができる。図6において、注視点・視点処理部38aは、まず、車両1を中心とする所定半径(例えば、半径=8m)の仮想曲面Eを設定する。そして、注視点・視点処理部38aは、車両中心位置Sと目標駐車領域P(注視点位置42)とを結ぶ仮想視線ラインLを設定し、仮想視線ラインLの延長線が車両1を挟んで目標駐車領域Pと逆側で仮想曲面Eと交差する位置を仮想視点位置44とする。したがって、仮想視点位置44は、車両1が目標駐車領域Pに向かって移動して相対位置関係が変化する場合でも、常に仮想曲面E上に設定されることになる。例えば、車両1に対し遠方に存在する目標駐車領域Paの注視点位置42aと車両中心位置Sを結ぶ仮想視線ラインLaが、車両中心位置Sを挟んで注視点位置42aから遠い側(反対側)で仮想曲面Eと交差する位置に仮想視点位置44aが設定される。同様に、車両1が移動して、当該車両1と目標駐車領域Pbとが接近した場合、目標駐車領域Pbの注視点位置42bと車両中心位置Sを結ぶ仮想視線ラインLbが、車両中心位置Sを挟んで注視点位置42bから遠い側(反対側)で仮想曲面Eと交差する位置に仮想視点位置44bが設定される。
In another embodiment, the gazing point /
このように、仮想視点位置44が常に仮想曲面E上で設定されることにより目標駐車領域Pに車両1が接近する場合でも仮想視点位置44から車両1を臨む距離はほぼ一定に保たれる。つまり、仮想視点画像上で表示される車両1の大きさがほぼ一定に保たれる。その結果、仮想視点画像上で車両1の大きさが変化することが少なく表示内容が滑らかに変化し、視認し易い仮想視点画像を提供可能になり、より低ストレスの監視作業を行わせ易くなる。
Since the
なお、注視点・視点処理部38aは、図5に示す処理で仮想視点位置44を設定するか図6で示す処理で仮想視点位置44を設定するかを予め選択可能である。したがって、注視点・視点処理部38aは選択されない処理機能を予め省略するようにしてもよい。
The gaze point /
また、注視点・視点処理部38aは、目標駐車領域Pの注視点位置42を設定する際に、図7に示すように、目標駐車領域Pの領域中心位置Psに対して車両1から遠ざかる方向に所定量(例えば、0.5m)移動させた位置とする、オフセット処理を実行してもよい。例えば、領域中心位置Psに注視点位置42を設定した場合、車両1が目標駐車領域Pに収まり、駐車支援が完了または完了に近い状態になった場合、車両1の直上から目標駐車領域Pを臨むようになり、車両1を中心とする狭い範囲の表示となる。一方、駐車支援が完了または完了に近い状態の場合、運転者は車両1の進行方向における前方の状況に着目した場合がある。例えば、車両1を目標駐車領域Pに駐車した場合に進行方向の空きスペース等を確認したい場合がある。そこで、上述したように、注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、駐車支援が完了した時点でも、仮想視点位置44は、車両1を斜め上空から臨むことになり、車両1の進行方向をより広範囲で表示可能となる。その結果、進行方向の空きスペース等を十分に確認させる仮想視点画像を生成することが可能になる。
When setting the
また、本実施形態のように、車両中心位置Sを挟んで目標駐車領域Pの逆側に仮想視点位置44を設定する場合、車両1が目標駐車領域Pに対してオーバランした場合、仮想視点位置44が車両中心位置Sを超えて進行方向側に設定されることになる。その結果、仮想視点位置44が車両中心位置Sを超えた時点で視線方向がそれまでと逆になる。例えば、今まで車両1の後方から車両1の前方側を臨むような仮想視点画像が、車両1の前方から車両1の後方側を臨むような仮想視点画像に急に変わって、不自然な画像切り替えが発生し、運転者等の利用者に違和感を与えてしまう場合がある。上述したように、注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、駐車支援が完了した時点でも、仮想視点位置44が車両中心位置Sを超えないようにすることができる。その結果、上述したような画像が急に切り替わる(反転してしまう)不都合を防止することができる。図7に示すように、車両1が前進して目標駐車領域Pに接近する場合も車両1が後退して目標駐車領域Pに接近する場合も同様である。なお、注視点・視点処理部38aが実施するオフセット処理は、目標駐車領域Pにおける注視点位置42の位置を変更するにみで、駐車支援において車両1の基準位置を誘導する目標座標を変更するものではない。
When the
視野設定部38bは、仮想視点位置44から注視点位置42を見た場合の視野を設定する。例えば、車両1と目標駐車領域Pとの位置関係に拘わらず、または、位置関係に応じて視野を設定することができる。視野を変化させることにより、仮想視点画像の狭域表示や広域表示の設定が可能になり、運転者の視認範囲の変更要求や詳細表示要求等にスムーズに対応することができる。
The visual
行列式演算部38cは、撮像部15から取得される撮像画像データを仮想視点画像として描画する際に、仮想視点位置44から注視点位置42を見た場合の空間の座標を求めるための行列式(視線行列式)を算出する。例えば、撮像画像データ上の座標を仮想視点画像上の座標に変換したり、仮想視点画像上で車両1を示すポリゴン(自車アイコン)の座標を変換したりするための視線行列式を算出する。また、行列式演算部38cは、仮想視点画像を表示する表示装置8の表示領域に合わせた二次元空間の座標に画像データを変換するための行列式である、透視投影行列式を算出する。なお、透視投影行列式を算出する際に、視野設定部38bで設定する視野の変更を考慮して行列式を算出してもよい。そして、行列式演算部38cは、視線行列式と透視投影行列式とに基づき、変換行列式を算出する。変換行列式を用いることにより、例えば、各撮像部15で撮像した画像(撮像画像データ)を、車両1を中心とする3Dモデル(例えば、底面を円として、周縁が立ち上がったお椀形状のモデル)へ投影した仮想視点画像を生成することができる。この他、行列式演算部38cは、指標処理部38fにより指定される指標(例えば、目標駐車領域Pに車両1が到達した状態をイメージさせる仮想車両(ゴースト)の表示位置や表示姿勢を仮想視点位置44の移動にしたがって変化させるための行列式(並進回転行列式)等を算出する。
The
描画処理部38dは、注視点・視点処理部38aが算出した変換行列式を用いて、撮像部15が撮像した撮像画像データの座標変換を行い、現在の仮想視点位置44の位置から見た車両1の周辺を示す仮想視点画像を描画する。
The
ところで、図2で示されるように撮像部15は、例えば、車両1の外周に配置されている。したがって、撮像部15が撮像する撮像画像データには、車両1の一部(バンパーの一部やドアの一部等)しか含まれない。そのため、撮像部15が撮像した撮像画像データの座標を、変換行列式を用いて変換しても仮想視点画像上に車両1に対する画像は表示できない。そこで、指標処理部38fは、車両1を示す自車アイコンデータをROM14b等の記憶部から読み出す。そして、重畳処理部38eは、自車アイコンデータに対して注視点・視点処理部38aで算出した変換行列式を適用し、現在の仮想視点位置44の位置から見た自車アイコンを描画処理部38dが描画した車両1の周辺を示す仮想視点画像に重畳する。
By the way, as shown in FIG. 2, the
指標処理部38fは、前述したように、仮想視点画像上に表示する自車アイコンの他、目標駐車領域Pに車両1が到達した状態をイメージさせる仮想車両(ゴースト)の画像、目標駐車領域Pを明示するための駐車枠画像等を指標として管理する。指標処理部38fは、各指標の選択を行う指標選択部38f1および、選択した指標の表示態様を変更する表示態様変更部38f2等の詳細モジュールを含む。
As described above, the
指標選択部38f1は、利用者の操作入力部10等を用いた操作により、車両1を示す自車アイコンとして、車両1の形状を再現したアイコンを選択してもよいし、簡易的な形状の自車アイコンを選択してもよい。車両1の形状を再現したアイコンを用いる場合、車両1を実際に見下ろしているような見栄えのよい仮想視点画像を提供することができる。一方、簡易的な形状の自車アイコンを用いる場合、仮想視点位置44の変更に追従して表示姿勢が変化する自車アイコンの表示処理のための演算負荷を軽減することができる。また、利用者の操作入力部10等を用いた操作により、仮想車両(ゴースト)や駐車枠等の指標を表示することが要求された場合、指標選択部38f1は、要求された指標の選択を行う。また、この場合も、実際の形状を再現した指標や簡易形状の指標を選択できるようにしてもよい。なお、仮想車両を表示するデータは、自車アイコンのデータを流用してもよいし、個別のデータを準備してもよい。
The index selecting unit 38f1 may select an icon that reproduces the shape of the
表示態様変更部38f2は、複数の指標を仮想視点画像上に重畳表示する場合、各指標の識別性が向上するように、表示態様を変更することができる。例えば、自車アイコンと仮想車両(ゴースト)を同時に表示する場合、両者を識別できるように、それぞれの表示色を異ならせる。例えば、自車アイコンを車両1の実際の色に合わせた表示色とし、仮想車両の表示色を色相環で反対の色にすることで識別性を向上させることができる。また、表示態様変更部38f2は、自車アイコンと仮想車両(目標駐車領域P)との距離に応じて、例えば、仮想車両の表示色の濃さを変化させてもよい。例えば、遠い場合には仮想車両の表示色を濃くし、自車アイコンと仮想車両とが近づくのに連れて仮想車両の表示色を薄くする。また、表示態様変更部38f2は、仮想車両の透過度を変化させてもよい。また、表示態様変更部38f2は、自車アイコンと仮想車両とのうちいずれか一方を点滅表示することにより識別性を向上させるようにしてもよい。なお、複数の指標の識別ができるような表示態様であれば、他の表示態様を採用してもよい。
When a plurality of indices are superimposed and displayed on the virtual viewpoint image, the display mode changing unit 38f2 can change the display mode so that the discriminability of each index is improved. For example, when the own vehicle icon and the virtual vehicle (ghost) are displayed at the same time, their display colors are different so that they can be identified. For example, discrimination can be improved by setting the own vehicle icon to a display color that matches the actual color of the
出力部40は、画像生成部38で生成された仮想視点画像を表示制御部14dに逐次出力し、表示装置8に表示させる。
The
なお、図4に示すモジュール構成は一例であり、同様な処理ができれば、機能の分割や統合は適宜可能である。 Note that the module configuration shown in FIG. 4 is an example, and if the same processing can be performed, division or integration of functions can be appropriately performed.
図8〜図10は、表示装置8に表示される仮想視点画像46の一例を示すもので、車両1が目標駐車領域Pに向かい後退しながら移動する様子を示す模式図である。また、仮想視点位置44は図6で示したように、仮想曲面E上を移動する例を示している。したがって、目標駐車領域Pに対して仮想視点位置44は車両1を挟んで車両1のフロント側に設定されて、仮想視点位置44は、仮想曲面E上を車両中心位置S(車両1)の直上に向かって移動することになる。
8 to 10 show an example of the
図8は、目標駐車領域Pに対して車両1がまだ遠い位置に存在する場合を示す仮想視点画像46である。この場合、車両1を示す自車アイコン48a(自車指標)は、目標駐車領域Pを示す駐車枠指標48bから遠いため、駐車枠指標48bの一部は、仮想視点画像46の表示範囲外(撮像部15の撮像画像データ外で、画面上黒塗りされた部分)に位置している。この場合、駐車枠指標48bは、表示範囲外の部分を非表示とされてもよい。また、図8の場合、仮想視点画像46上で車両1(自車アイコン48a)から遠方で湾曲して表示される実際の駐車枠線に対して、目標駐車領域Pの位置をより明確にするための駐車枠指標48bは形状の整った矩形で表示される例を示している。他の実施形態では、変換行列式を用いて駐車枠指標48bを変形して、実際の表示枠線に近い状態で表示されるようにしてもよい。
FIG. 8 is a
図9は、目標駐車領域Pの一部に車両1が進入した状態を示す仮想視点画像46である。この場合、車両1の前後方向の向きが、目標駐車領域Pの奥行き方向に近づいてきことにより、車両中心位置Sに近づいた仮想視点位置44から見た実際の駐車枠線と矩形の駐車枠指標48bとが概ね一致するように、仮想視点画像46上で表示されるようになる。
FIG. 9 is a
図10は、目標駐車領域Pに車両1が完全に進入して駐車支援が終了した状態を示す仮想視点画像46である。この場合、図7で説明したように、注視点・視点処理部38aが注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、車両1の進行方向(この場合、車両1の後方)が十分に仮想視点画像46に表示され、車両1の後方のスペースの確認をより行い易くすることができる。また、駐車支援の完了またはその直前で仮想視点画像46が180°回転するような(視線の向きが逆になるような)不都合を生じることが防止される。
FIG. 10 is a
図8〜図10のいずれの図においても、仮想視点画像46には、目標駐車領域Pの少なくとも一部と車両1の少なくとも一部との両方が表示され続けられる。その結果、駐車支援による走行中に注目させたい、目標駐車領域Pと車両1との相対位置関係を、常時認識させ易くなる。また、仮想視点位置44が目標駐車領域Pに常に向けられるため不自然な歪みが少ない画像が提供できる。その結果、目標駐車領域Pが遠方に存在する場合には、目標駐車領域Pの周辺の確認がし易く、目標駐車領域Pが接近した場合には、車両の周囲の確認や距離感の把握がし易くなり、周辺監視の精度向上に寄与できるとともに、低ストレスの監視作業を行わせ易くなる。
In any of FIGS. 8 to 10, at least a part of the target parking area P and at least a part of the
なお、図8〜図10では、図示を省略しているが、表示装置8に仮想視点画像46が表示される場合、現在の状況を説明するメッセージや必要な操作を行うスイッチ類等のユーザインターフェースが重畳表示されてもよい。
Although not shown in FIGS. 8 to 10, when the
以上にように構成される周辺監視装置による仮想視点画像46の表示処理の流れの一例を図11のフローチャートを用いて説明する。なお、駐車支援のための車両1の誘導は、完全自動走行で行ってもよいし、半自動走行で行ってよいし、手動走行で行ってもよい。
An example of the flow of the display processing of the
目標駐車領域設定部30aおよび画像取得部34は、車両1の電源がONされている場合、走行の有無に拘わらず、常時、各撮像部15から撮像画像データ(周辺画像)を取得する(S100)。また、目標駐車領域設定部30aは、目標駐車領域設定部30aで取得した撮像画像データおよび測距部16,17から取得した測距データに基づき、車両1の周辺における周辺物体情報(周辺物体の有無および周辺物体が存在する場合は周辺物体存までの距離等)を取得する(S102)。周辺監視部32は、操作入力部10等を介して周辺監視(駐車支援)の要求操作が行われたか否か監視し(S104)、要求操作が行われていない場合(S104のNo)、一旦このフローを終了し、要求操作の入力を待つ。
When the power of the
S104において、周辺監視(駐車支援)の要求操作が行われた場合(S104のYes)、目標取得部36は、目標駐車領域設定部30aで設定された目標駐車領域Pを取得する(S106)。そして、目標取得部36は、車両1(自車)の現在の位置を基準とする座標系における目標駐車領域Pの座標および車両1に対する目標駐車領域Pの回転角を取得する(S108)。回転角は、仮想車両や駐車枠指標等を重畳表示する場合に用いることができる。
In S104, when a request operation for periphery monitoring (parking support) is performed (Yes in S104), the
続いて、注視点・視点処理部38aは、目標取得部36が取得した目標駐車領域Pの注視点位置42を目標駐車領域Pの領域中心位置Psに対して車両1から遠ざかる方向に所定量移動させた位置とするオフセット処理が実行済みか否かを確認する(S110)。オフセット処理がまだ実行されていない場合(S110のNo)、注視点・視点処理部38aは、注視点位置42を、領域中心位置Psに対して車両1から遠ざかる方向に所定量移動させた位置とする(S112)。また、オフセット処理が実行済みの場合(S110のYes)、注視点・視点処理部38aは、S112の処理をスキップする。なお、オフセット処理は、仮想視点位置44が車両1の直上付近に到達するまでに実行されればよく、図8や図9の表示段階では、注視点位置42を領域中心位置Psに設定して処理実施してもよい。最初の段階で、注視点位置42をオフセットしておくことにより、仮想視点画像46の表示中に視線が急に変化する等を防止できる。
Subsequently, the gazing point /
そして、注視点・視点処理部38aは、車両1の直上に設定される車両中心位置Sと目標駐車領域Pの注視点位置42とを結ぶ仮想視線ラインLを設定し(S114)、仮想視点位置44を決定する(S116)。
Then, the gazing point /
注視点位置42および仮想視点位置44が設定されると、行列式演算部38cは、視線行列式の算出(S118)、透視投影行列式の算出(S120)を実行し、視線行列式および透視投影行列式に基づき、仮想視点画像46を表示するための座標変換式である変換行列式を算出する(S122)。
When the
描画処理部38dは、行列式演算部38cが算出した変換行列式を用いて、3Dモデル上に仮想視点画像46を描画する(S124)。続いて、指標選択部38f1は、車両1に対応する自車アイコン48aを選択し、変換行列式を用いて現在の仮想視点位置44で車両1を見た場合の自車アイコン48aを示すように座標変換を実施し、自車アイコン48aを仮想視点画像46上に重畳する(S126)。また、運転者等が、仮想車両や駐車枠指標48b等の指標の表示を操作入力部10等を介して要求している場合(S128のYes)、指標選択部38f1は、要求されている指標を選択するともに、指標を仮想視点画像46上に重畳する(S130)。また、表示態様変更部38f2は、重畳表示する指標の表示態様を、例えば、目標駐車領域Pと車両1との相対距離等に応じて変更する。なお、指標の表示画要求されていない場合(S128のNo)、S130の処理はスキップされる。
The
そして、出力部40は、画像生成部38で生成された、自車アイコン48a(車両1)の少なくとも一部および目標駐車領域P(駐車枠指標48b)の少なくとも一部の両方が含まれる、仮想視点位置44から見た場合の仮想視点画像46(合成画像)を示すデータを表示制御部14dに出力し(S132)、現在の車両1の位置における仮想視点画像46を表示装置8に表示させる。そして、周辺監視部32は、車両1が目標駐車領域Pに到達したと判定した場合(S134のYes)、車両1は目標駐車領域Pに所定の姿勢で収まり、周辺監視が必要な駐車支援が終了したと判定し、このフローを一旦終了する。一方、車両1が目標駐車領域Pに到達していないと判定した場合(S134のNo)、S108に移行し、前回の表示処理から移動した現在の車両1の位置を基準として、目標駐車領域Pの座標および回転角を取得し、S108移行の処理を繰り返して、表示装置8に表示する仮想視点画像46(合成画像)を更新して、動画として表示する。
The
なお、図8〜図10では、後退走行のみで車両1が目標駐車領域Pに到達する例を示した。別の実施形態では、誘導経路によっては、切返し等のために車両1が一時的に前進走行を行う場合がある。例えば、シフトセンサ21からの検出信号に基づき、走行方向の変更が検出された場合、視野設定部38bは、一時的に視野を広げて、切返しによる到達位置(再び走行方向が切り替えられる位置)が仮想視点画像46の表示範囲に含まれるようにしてもよい。この場合、車両1の周囲状況をより適切に把握させることができるとともに、運転者の安心感を向上させることができる。前進走行で駐車支援が実行される場合も同様であり、同様の効果を得ることができる。
FIGS. 8 to 10 show an example in which the
本実施形態のCPU14aで実行される周辺監視処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
The program for the peripheral monitoring process executed by the
さらに、周辺監視処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される周辺監視処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。 Further, the peripheral monitoring processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the peripheral monitoring processing program executed in the present embodiment may be provided or distributed via a network such as the Internet.
本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment and the modification of the present invention have been described, the embodiment and the modification are presented as examples and are not intended to limit the scope of the invention. These new embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.
1…車両、8…表示装置、14…ECU、14a…CPU、15,15a,15b,15c,15d…撮像部、30…駐車支援部、30a…目標駐車領域設定部、30b…経路取得部、30c…誘導制御部、32…周辺監視部、34…画像取得部、36…目標取得部、38…画像生成部、38a…注視点・視点処理部、38b…視野設定部、38c…行列式演算部、38d…描画処理部、38e…重畳処理部、38f…指標処理部、38f1…指標選択部、38f2…表示態様変更部、40…出力部、42,42a,42b…注視点位置、44,44a,44b…仮想視点位置、46…仮想視点画像、48a…自車アイコン、48b…駐車枠指標、E…仮想曲面、L…仮想視線ライン、L1…第1仮想視線ライン、L2…第2仮想視線ライン、100…周辺監視システム。
DESCRIPTION OF
Claims (7)
前記車両を誘導する目標駐車領域を取得する目標取得部と、
前記車両を前記目標駐車領域に誘導する際に、前記車両の上空に設定される仮想視点の位置を連続的に前記車両の移動状況に応じて直上に向けて移動させながら、前記撮像画像データに基づく前記目標駐車領域の少なくとも一部と前記車両の少なくとも一部との両方が表示領域に含まれ続けるような仮想視点画像を生成する画像生成部と、
前記仮想視点画像を表示装置に出力する出力部と、
を含む、周辺監視装置。 An image acquisition unit that acquires captured image data of an area around the vehicle,
A target acquisition unit that acquires a target parking area for guiding the vehicle,
When guiding the vehicle to the target parking area, while continuously moving the position of the virtual viewpoint set above the vehicle directly upward in accordance with the moving situation of the vehicle, the captured image data An image generation unit that generates a virtual viewpoint image such that both at least a part of the target parking area based on the vehicle and at least a part of the vehicle continue to be included in a display area;
An output unit that outputs the virtual viewpoint image to a display device,
A peripheral monitoring device, including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167856A JP2020043418A (en) | 2018-09-07 | 2018-09-07 | Periphery monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018167856A JP2020043418A (en) | 2018-09-07 | 2018-09-07 | Periphery monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020043418A true JP2020043418A (en) | 2020-03-19 |
Family
ID=69798835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018167856A Pending JP2020043418A (en) | 2018-09-07 | 2018-09-07 | Periphery monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020043418A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022181281A (en) * | 2021-05-26 | 2022-12-08 | トヨタ自動車株式会社 | Parking support device |
US12088951B2 (en) | 2021-03-24 | 2024-09-10 | Honda Motor Co., Ltd. | Image display system |
-
2018
- 2018-09-07 JP JP2018167856A patent/JP2020043418A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12088951B2 (en) | 2021-03-24 | 2024-09-10 | Honda Motor Co., Ltd. | Image display system |
JP2022181281A (en) * | 2021-05-26 | 2022-12-08 | トヨタ自動車株式会社 | Parking support device |
US11735049B2 (en) | 2021-05-26 | 2023-08-22 | Toyota Jidosha Kabushiki Kaisha | Park assist system |
JP7375792B2 (en) | 2021-05-26 | 2023-11-08 | トヨタ自動車株式会社 | parking assist device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6806156B2 (en) | Peripheral monitoring device | |
JP6897340B2 (en) | Peripheral monitoring device | |
JP6156486B2 (en) | Perimeter monitoring apparatus and program | |
JP7069548B2 (en) | Peripheral monitoring device | |
JP6281289B2 (en) | Perimeter monitoring apparatus and program | |
CN107925746B (en) | Peripheral monitoring device | |
JP2020043400A (en) | Periphery monitoring device | |
WO2018070298A1 (en) | Display control apparatus | |
JP6760122B2 (en) | Peripheral monitoring device | |
JP2020120327A (en) | Peripheral display control device | |
CN112492262A (en) | Image processing apparatus | |
JP2014004930A (en) | Parking support device, parking support method, and parking support program | |
US11475676B2 (en) | Periphery monitoring device | |
JP2017094922A (en) | Periphery monitoring device | |
WO2018061261A1 (en) | Display control device | |
JP2020043418A (en) | Periphery monitoring device | |
JP2014004931A (en) | Parking support device, parking support method, and parking support program | |
JP6977318B2 (en) | Peripheral display device | |
JP6610140B2 (en) | Perimeter monitoring device | |
JP5691339B2 (en) | Driving assistance device | |
JP6953915B2 (en) | Peripheral monitoring device | |
JP6606956B2 (en) | Perimeter monitoring device | |
JP2024009685A (en) | Parking support device | |
JP2017211814A (en) | Parking support device |