JP2020043418A - Periphery monitoring device - Google Patents

Periphery monitoring device Download PDF

Info

Publication number
JP2020043418A
JP2020043418A JP2018167856A JP2018167856A JP2020043418A JP 2020043418 A JP2020043418 A JP 2020043418A JP 2018167856 A JP2018167856 A JP 2018167856A JP 2018167856 A JP2018167856 A JP 2018167856A JP 2020043418 A JP2020043418 A JP 2020043418A
Authority
JP
Japan
Prior art keywords
vehicle
parking area
virtual viewpoint
target parking
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018167856A
Other languages
Japanese (ja)
Inventor
誠 平田
Makoto Hirata
誠 平田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2018167856A priority Critical patent/JP2020043418A/en
Publication of JP2020043418A publication Critical patent/JP2020043418A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

To provide a periphery monitoring device capable of displaying images with little distortion so that a driver can always check a target parking area and the position of own vehicle when parking own vehicle in the target parking area.SOLUTION: The periphery monitoring device includes: an image acquisition part that acquires pick-up image data of the periphery of a vehicle; a target acquisition part that acquires a target parking area for guiding the vehicle; and an image generation part that is configured so as to, when guiding the vehicle to the target parking area, generate a virtual viewpoint image in which at least part of the parking area and at least part of the vehicle based on pick-up image data are continuously being included in the display area while continuously moving the position of the virtual viewpoint which is set above the vehicle toward the top according to the moving condition of the vehicle; and an output part that outputs the virtual viewpoint image on the display device.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、周辺監視装置に関する。   Embodiments of the present invention relate to a periphery monitoring device.

従来、車両に設けられた複数の撮像部(カメラ)により車両周囲の状況をそれぞれ異なる方向で撮像し、撮像した複数の画像に画像処理(例えば視点変換処理)を施して合成画像を生成する技術が知られている。このように生成される合成画像に対して、例えば、車両の走行状態に応じて視点を変化させたり、表示領域を変化させたりすることにより、運転者が車両周辺の監視を行いやすくなるような画像を提供する画像表示装置が提案されている。   2. Description of the Related Art Conventionally, a technique of capturing a situation around a vehicle in different directions by a plurality of image capturing units (cameras) provided in a vehicle and performing image processing (for example, viewpoint conversion processing) on the captured images to generate a composite image. It has been known. For example, by changing the viewpoint or the display area according to the running state of the vehicle with respect to the synthesized image generated in this manner, the driver can easily monitor the vicinity of the vehicle. An image display device for providing an image has been proposed.

特許第3300334号公報Japanese Patent No. 3300334 特許第5321267号公報Japanese Patent No. 53212267

運転者が表示装置を視認して周囲の状況を確認したい場面として、例えば、目的の駐車領域(駐車枠)に自車を駐車させるような場合がある。このような場合に、表示される画像としては、例えば目標駐車領域や自車の位置が確認し易い画像であったり、周辺の画像の歪み等が少ない視認し易い画像であったりすることが望ましい。このように、目標駐車領域や自車の位置が常時確認できような歪みの少ない画像が提供できれば、表示装置に表示される画像を用いた周辺監視の精度向上ができるとともに、ストレスなく監視作業を行うことが可能になり有意義である。   As a scene where the driver wants to check the surroundings by visually recognizing the display device, for example, there is a case where the driver parks the vehicle in a target parking area (parking frame). In such a case, it is desirable that the image to be displayed is, for example, an image in which the target parking area or the position of the own vehicle can be easily confirmed, or an image in which the distortion or the like of the surrounding image is easy to visually recognize. . In this way, if an image with less distortion can be provided so that the target parking area and the position of the own vehicle can always be confirmed, it is possible to improve the accuracy of monitoring the periphery using the image displayed on the display device and to perform monitoring work without stress. It can be done and is meaningful.

本発明の実施形態にかかる周辺監視装置は、例えば、車両の周辺を撮像した撮像画像データを取得する画像取得部と、上記車両を誘導する目標駐車領域を取得する目標取得部と、上記車両を上記目標駐車領域に誘導する際に、上記車両の上空に設定される仮想視点の位置を連続的に上記車両の移動状況に応じて直上に向けて移動させながら、上記撮像画像データに基づく上記目標駐車領域の少なくとも一部と上記車両の少なくとも一部との両方が表示領域に含まれ続けるような仮想視点画像を生成する画像生成部と、上記仮想視点画像を表示装置に出力する出力部と、を含む。この構成によれば、例えば、仮想視点の位置が変化しても駐車支援による走行中に注目させたい、例えば、目標駐車領域と車両との相対位置関係を、常時認識させ易くなる。そして、最終的に目標駐車領域に移動すると車両を直上付近から見下ろすような画像の表示が可能になる。また、仮想視点が目標駐車領域に常に向けられるため歪みが少ない画像が提供できる。その結果、目標駐車領域が遠方に存在する場合には、目標駐車領域の周辺の確認がし易く、目標駐車領域が接近した場合には、車両の周囲の確認がし易くなり、周辺監視の精度向上に寄与できるとともに、低ストレスの監視作業を行わせ易くなる。   A surroundings monitoring device according to an embodiment of the present invention includes, for example, an image acquisition unit that acquires captured image data of the periphery of a vehicle, a target acquisition unit that acquires a target parking area for guiding the vehicle, When guiding to the target parking area, the target based on the captured image data is moved while the position of the virtual viewpoint set above the vehicle is continuously moved directly upward according to the moving state of the vehicle. An image generation unit that generates a virtual viewpoint image such that both at least a part of the parking area and at least a part of the vehicle continue to be included in the display area, and an output unit that outputs the virtual viewpoint image to a display device, including. According to this configuration, for example, even when the position of the virtual viewpoint changes, it is easy to always recognize the relative positional relationship between the target parking area and the vehicle that the driver wants to pay attention to while driving with parking assistance. Then, when the vehicle finally moves to the target parking area, it becomes possible to display an image that looks down the vehicle from immediately above. Further, since the virtual viewpoint is always directed to the target parking area, an image with less distortion can be provided. As a result, when the target parking area is far away, it is easy to check the surroundings of the target parking area, and when the target parking area approaches, it is easy to check the surroundings of the vehicle. This contributes to improvement and makes it easier to perform low-stress monitoring work.

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記車両の直上に設定される車両中心位置と上記目標駐車領域とを結ぶ第1仮想視線ラインの長さと、上記車両中心位置と上記仮想視点の位置とを結ぶ第2仮想視線ラインの長さとの比を一定に保ちながら上記車両の移動状況に応じて上記仮想視点の位置を移動させながら上記仮想視点画像を生成するようにしてもよい。この構成によれば、例えば、車両が目標駐車領域に近づくのに連れて、車両が上々に拡大表示される、いわゆる「ズームイン」表示が容易にできる。その結果、車両の周囲の確認がし易くなり、周辺監視の精度をより向上することができる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, a length of a first virtual line of sight connecting the vehicle center position set immediately above the vehicle and the target parking area, The virtual viewpoint image is generated while moving the position of the virtual viewpoint according to the moving state of the vehicle while maintaining a constant ratio of a length of a second virtual line of sight line connecting the position and the position of the virtual viewpoint. It may be. According to this configuration, for example, as the vehicle approaches the target parking area, a so-called “zoom-in” display in which the vehicle is magnified and displayed in an excellent manner can be easily performed. As a result, it is easy to confirm the surroundings of the vehicle, and the accuracy of surrounding monitoring can be further improved.

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記車両を覆う仮想曲面と、上記目標駐車領域と上記車両の直上に設定される車両中心位置とを通る仮想視線ラインが上記車両を挟んで上記目標駐車領域と逆側で交差する位置に設定する上記仮想視点の位置を上記車両の移動状況に応じて移動させながら上記仮想視点画像を生成するようにしてもよい。この構成によれば、例えば、仮想視点の位置が移動しても車両(自車)は、ほぼ同じ大きさで表示され続けられる。その結果、仮想視点画像の表示内容が滑らかに変化し不自然な表示が行われることが軽減され、視認し易い画像を提供することが可能になり、より低ストレスの監視作業を行わせ易くなる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, a virtual curved line that covers the vehicle, a virtual line of sight passing through the target parking area and a vehicle center position set immediately above the vehicle. The virtual viewpoint image may be generated while moving the position of the virtual viewpoint set at a position that intersects the target parking area on the opposite side across the vehicle in accordance with the moving state of the vehicle. According to this configuration, for example, even when the position of the virtual viewpoint moves, the vehicle (own vehicle) is continuously displayed in substantially the same size. As a result, the display content of the virtual viewpoint image is smoothly changed and unnatural display is reduced, an image that is easy to recognize can be provided, and monitoring work with lower stress can be performed more easily. .

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点の位置から上記目標駐車領域を臨む場合の注視点の位置を、上記目標駐車領域の領域中心位置に対して上記車両から遠ざかる方向に所定量移動させた位置とするようにしてもよい。この構成によれば、例えば、車両が目標駐車領域に対してオーバランした場合でも、仮想視点の位置が車両の進行方向から逆方向に向いてしまう可能性、つまり、仮想視点画像が180°回転してしまう可能性を軽減することが可能で、駐車終盤で違和感のある画像が表示されてしまうことを抑制できる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention, for example, the position of the gazing point when facing the target parking area from the position of the virtual viewpoint, with respect to the area center position of the target parking area The position may be moved by a predetermined amount in a direction away from the vehicle. According to this configuration, for example, even when the vehicle overruns the target parking area, the position of the virtual viewpoint may be in the opposite direction from the traveling direction of the vehicle, that is, the virtual viewpoint image is rotated by 180 °. It is possible to reduce the possibility that the image will be displayed, and it is possible to suppress the display of an uncomfortable image at the end of parking.

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点の位置の移動状況に応じて、上記仮想視点画像の視野角を変更してもよい。この構成によれば、例えば、車両に対して近距離(車両周辺)の監視に重点を置きたい場合の表示や、車両に対して遠距離を含めた全体の監視に重点を置きたい場合の表示等の切り替えが可能になり、監視バリエーションの向上ができる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention may change a viewing angle of the virtual viewpoint image according to, for example, a moving state of the position of the virtual viewpoint. According to this configuration, for example, a display when emphasis is placed on monitoring of a vehicle at a short distance (around the vehicle) or a display when emphasis is placed on monitoring the entire vehicle including a long distance with respect to the vehicle And the like can be switched, and monitoring variations can be improved.

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点画像における上記目標駐車領域に対応する位置に、上記目標駐車領域を示す駐車枠画像と上記目標駐車領域に上記車両が移動した状況を示す仮想車両とのうち少なくとも一方を示す指標を重畳表示するようにしてもよい。この構成によれば、例えば、目標駐車領域の位置確認や、接近程度の確認等を行わせ易くすることができる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention includes, for example, at a position corresponding to the target parking area in the virtual viewpoint image, a parking frame image indicating the target parking area and the target parking area. An index indicating at least one of a virtual vehicle indicating a state in which the vehicle has moved may be superimposed and displayed. According to this configuration, for example, it is possible to easily confirm the position of the target parking area, the degree of approach, and the like.

本発明の実施形態にかかる周辺監視装置の上記画像生成部は、例えば、上記仮想視点画像における上記車両と上記指標とを異なる表示態様で表示するようにしてもよい。この構成によれば、例えば、目標駐車領域の位置確認や、接近程度の確認等をより行わせ易くすることができる。   The image generation unit of the periphery monitoring device according to the embodiment of the present invention may display, for example, the vehicle and the index in the virtual viewpoint image in different display modes. According to this configuration, for example, it is possible to make it easier to confirm the position of the target parking area, confirm the degree of approach, and the like.

図1は、実施形態の周辺監視装置を搭載する車両の車室の一部が透視された状態が示された例示的な斜視図である。FIG. 1 is an exemplary perspective view showing a state in which a part of a vehicle compartment of a vehicle equipped with the periphery monitoring device of the embodiment is seen through. 図2は、実施形態の周辺監視装置を搭載する車両の例示的な平面図である。FIG. 2 is an exemplary plan view of a vehicle equipped with the periphery monitoring device of the embodiment. 図3は、実施形態の周辺監視装置を含む周辺監視システムの構成の例示的なブロック図である。FIG. 3 is an exemplary block diagram of a configuration of a peripheral monitoring system including the peripheral monitoring device of the embodiment. 図4は、周辺監視システムのCPUで実現される周辺監視部を中心とする構成を例示的に示すブロック図である。FIG. 4 is a block diagram exemplarily showing a configuration centered on a peripheral monitoring unit realized by a CPU of the peripheral monitoring system. 図5は、実施形態の周辺監視装置による仮想視点の位置を、第1仮想視線ラインの長さと第2仮想視線ラインの長さとの比を一定に保ちながら移動させる場合を説明する例示的な模式図である。FIG. 5 is an exemplary schematic diagram illustrating a case where the position of the virtual viewpoint by the periphery monitoring device of the embodiment is moved while maintaining the ratio between the length of the first virtual line of sight and the length of the second virtual line of sight constant. FIG. 図6は、実施形態の周辺監視装置による仮想視点の位置を、車両を覆う仮想曲面上で移動させる場合を説明する例示的な模式図である。FIG. 6 is an exemplary schematic diagram illustrating a case where the position of the virtual viewpoint by the periphery monitoring device of the embodiment is moved on a virtual curved surface that covers the vehicle. 図7は、実施形態にかかる周辺監視装置における注視点の位置を車両から遠ざかる方向に所定量移動させる場合を説明する例示的な模式図である。FIG. 7 is an exemplary schematic diagram illustrating a case where the position of the gazing point in the periphery monitoring device according to the embodiment is moved by a predetermined amount in a direction away from the vehicle. 図8は、実施形態にかかる周辺監視装置により表示される仮想視点画像の例示的な模式図であり、仮想視点の位置が移動序盤の位置である場合を示す図である。FIG. 8 is an exemplary schematic diagram of a virtual viewpoint image displayed by the periphery monitoring device according to the embodiment, and is a diagram illustrating a case where the position of the virtual viewpoint is a position at the beginning of movement. 図9は、実施形態にかかる周辺監視装置により表示される仮想視点画像の例示的な模式図であり、仮想視点の位置が移動中盤の位置である場合を示す図である。FIG. 9 is an exemplary schematic diagram of a virtual viewpoint image displayed by the periphery monitoring device according to the embodiment, and is a diagram illustrating a case where the position of the virtual viewpoint is the position of a moving midfield. 図10は、実施形態にかかる周辺監視装置により表示される仮想視点画像の例示的な模式図であり、仮想視点の位置が移動終盤の位置である場合を示す図である。FIG. 10 is an exemplary schematic diagram of a virtual viewpoint image displayed by the periphery monitoring device according to the embodiment, and is a diagram illustrating a case where the position of the virtual viewpoint is a position at the end of movement. 図11は、実施形態にかかる周辺監視装置による仮想視点画像の表示処理の流れを例示的に説明するフローチャートである。FIG. 11 is a flowchart exemplarily illustrating a flow of a virtual viewpoint image display process performed by the periphery monitoring device according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention will be disclosed. The configurations of the embodiments described below, and the actions, results, and effects provided by the configurations are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and can obtain at least one of various effects based on the basic configuration and derivative effects. .

図1に例示されるように、本実施形態において、周辺監視装置(周辺監視システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。また、車両1の駆動方式としては、四つある車輪3すべてに駆動力を伝え、四輪すべてを駆動輪として用いる四輪駆動車両とすることができるし、前輪駆動方式や後輪駆動方式でもよい。車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   As illustrated in FIG. 1, in the present embodiment, a vehicle 1 equipped with a peripheral monitoring device (peripheral monitoring system) is, for example, an automobile that uses an internal combustion engine (not shown) as a driving source, that is, an internal combustion engine automobile. Alternatively, the vehicle may be a vehicle using an electric motor (not shown) as a driving source, that is, an electric vehicle, a fuel cell vehicle, or the like. Further, a hybrid vehicle using both of them as drive sources may be used, or a vehicle provided with another drive source may be used. Further, the vehicle 1 can be mounted with various transmissions, and can be mounted with various devices required for driving the internal combustion engine and the electric motor, such as systems and components. In addition, the driving method of the vehicle 1 may be a four-wheel drive vehicle that transmits driving force to all four wheels 3 and uses all four wheels as drive wheels, or may be a front-wheel drive system or a rear-wheel drive system. Good. The type, number, layout, and the like of the devices related to the driving of the wheels 3 can be variously set.

車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。   The vehicle body 2 forms a vehicle compartment 2a in which an occupant (not shown) rides. A steering unit 4, an acceleration operation unit 5, a braking operation unit 6, a shift operation unit 7, and the like are provided in the vehicle interior 2a in a state of facing a driver's seat 2b as an occupant. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24, the acceleration operation unit 5 is, for example, an accelerator pedal positioned below the driver's feet, and the braking operation unit 6 is, for example, a driver's The shift pedal 7 is, for example, a shift lever projecting from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the shift operation unit 7, and the like are not limited to these.

また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等により操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   Further, a display device 8 as a display output unit and an audio output device 9 as an audio output unit are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display), an OELD (organic electroluminescent display), or the like. The audio output device 9 is, for example, a speaker. The display device 8 is covered with, for example, a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. Further, the occupant can execute the operation input by operating the operation input unit 10 by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, on the monitor device 11 located at the center of the dashboard 24 in the vehicle width direction, that is, in the left-right direction. The monitor device 11 can include an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. An audio output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and audio is output from the audio output device 9 of the monitor device 11 and another audio output device. be able to. Note that the monitor device 11 can also be used, for example, as a navigation system or an audio system.

また、車室2a内には、図3に例示されるように、表示装置8とは別の表示装置12が設けられている。表示装置12は、例えば、ダッシュボード24の計器盤部25(図1参照)に設けられ、計器盤部25の略中央で、速度表示部と回転数表示部との間に位置されうる。表示装置12の画面の大きさは、表示装置8の画面の大きさよりも小さくてもよい。この表示装置12には、例えば車両1の周辺監視や駐車支援機能等の種々の機能が動作している場合に補助的な情報として、インジケータやマーク、文字情報等により制御状態を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。   Further, a display device 12 different from the display device 8 is provided in the passenger compartment 2a, as illustrated in FIG. The display device 12 is provided, for example, on an instrument panel section 25 (see FIG. 1) of the dashboard 24, and can be positioned substantially at the center of the instrument panel section 25 between the speed display section and the rotation speed display section. The size of the screen of the display device 12 may be smaller than the size of the screen of the display device 8. The display device 12 displays an image indicating a control state by an indicator, a mark, character information, or the like as auxiliary information when various functions such as a periphery monitoring of the vehicle 1 and a parking assist function are operating. Can be done. The amount of information displayed on the display device 12 may be smaller than the amount of information displayed on the display device 8. The display device 12 is, for example, an LCD, an OELD, or the like. The information displayed on the display device 12 may be displayed on the display device 8.

また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図3に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。   Further, as exemplified in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and has two left and right front wheels 3F and two left and right rear wheels 3R. Each of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 3, the vehicle 1 has a steering system 13 that steers at least two wheels 3. The steering system 13 has an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate the actuator 13a. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. Further, the torque sensor 13b detects, for example, a torque given to the steering unit 4 by the driver.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面や路面に付された停止線や駐車枠線、区画線等の非立体物、および車両1の周辺に存在する物体(例えば、壁、樹木、人間、自転車、車両等の立体的な物体、接近物等を「障害物」と称する場合もある)を留意対象として逐次撮影可能で、撮像画像データとして出力することもできる。   Further, as illustrated in FIG. 2, the vehicle body 2 is provided with, for example, four imaging units 15 a to 15 d as the plurality of imaging units 15. The imaging unit 15 is, for example, a digital camera having a built-in imaging device such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate. Each of the imaging units 15 has a wide-angle lens or a fisheye lens, and can capture, for example, a range of 140 ° to 220 ° in the horizontal direction. The optical axis of the imaging unit 15 may be set obliquely downward. Therefore, the imaging unit 15 may be a non-solid object such as a road surface on which the vehicle 1 can move, a stop line, a parking frame line, a lane line attached to the road surface, and an object existing around the vehicle 1 (for example, a wall, a tree, or the like). (Three-dimensional objects such as humans, bicycles, and vehicles, approaching objects, and the like may be referred to as “obstacles.”) It is possible to sequentially capture images with attention to them and output them as captured image data.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパやフロントグリル等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側のドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた撮像画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想視点画像を生成したりする。なお、各撮像部15が撮像する撮像画像データ(画像)には、互いに重複する重複領域が設けられ、画像を繋ぎ合わせるときに欠落領域が生じないようにしている。   The imaging unit 15a is located, for example, at the rear end 2e of the vehicle body 2, and is provided on a wall below the rear window of the door 2h of the rear hatch. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and is provided on the right door mirror 2g. The imaging unit 15c is located, for example, at the front side of the vehicle body 2, that is, at the front end 2c in the front-rear direction of the vehicle, and is provided on a front bumper, a front grill, and the like. The imaging unit 15d is located, for example, on the left side of the vehicle body 2, that is, on the left end 2d in the vehicle width direction, and is provided on the left side door mirror 2g. The ECU 14 performs arithmetic processing and image processing based on the captured image data obtained by the plurality of imaging units 15 to generate an image with a wider viewing angle, and generates a virtual viewpoint image of the vehicle 1 viewed from above. Or It should be noted that the captured image data (image) captured by each imaging unit 15 is provided with an overlapping area that overlaps each other, so that a missing area does not occur when the images are joined.

図1、図2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a〜16dと、八つの測距部17a〜17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器、超音波ソナーとも称されうる。本実施形態において、測距部16,17は、車両1の車高方向において低い位置、例えば前後のバンパに設けられる。そして、ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。   As illustrated in FIGS. 1 and 2, the vehicle body 2 is provided with a plurality of distance measuring units 16 and 17, for example, four distance measuring units 16 a to 16 d and eight distance measuring units 17 a to 17 h. ing. The distance measuring units 16 and 17 are, for example, sonars that emit ultrasonic waves and capture reflected waves. The sonar can also be called a sonar sensor, an ultrasonic detector, or an ultrasonic sonar. In the present embodiment, the distance measuring units 16 and 17 are provided at lower positions in the vehicle height direction of the vehicle 1, for example, at front and rear bumpers. Then, the ECU 14 can measure the presence or absence of an object such as an obstacle located around the vehicle 1 and the distance to the object based on the detection results of the distance measurement units 16 and 17. That is, the distance measurement units 16 and 17 are examples of a detection unit that detects an object. The distance measuring unit 17 can be used, for example, to detect a relatively short distance object, and the distance measuring unit 16 can be used, for example, to detect a relatively long distance object farther than the distance measuring unit 17. The distance measuring unit 17 can be used, for example, for detecting objects in front and behind the vehicle 1, and the distance measuring unit 16 can be used for detecting an object on the side of the vehicle 1.

また、図3に例示されるように、周辺監視システム100(周辺監視装置)では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、駆動システム23等が、電気通信回線としての車内ネットワーク26を介して電気的に接続されている。車内ネットワーク26は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク26を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18、駆動システム23等を制御することができる。また、ECU14は、車内ネットワーク26を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16,17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。   As illustrated in FIG. 3, in the peripheral monitoring system 100 (peripheral monitoring device), in addition to the ECU 14, the monitoring device 11, the steering system 13, the distance measuring units 16 and 17, a brake system 18, a steering angle sensor 19, an accelerator sensor 20, a shift sensor 21, a wheel speed sensor 22, a drive system 23 and the like are electrically connected via an in-vehicle network 26 as an electric communication line. The in-vehicle network 26 is configured as, for example, a CAN (controller area network). The ECU 14 can control the steering system 13, the brake system 18, the drive system 23, and the like by sending a control signal through the in-vehicle network 26. Further, the ECU 14 detects detection results of the torque sensor 13b, the brake sensor 18b, the steering angle sensor 19, the distance measuring units 16, 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 26, An operation signal or the like of the operation input unit 10 or the like can be received.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理の演算処理および制御を実行することができる。また、CPU14aは、撮像部15で得られた広角画像の撮像画像データ(湾曲した画像のデータ)に演算処理や画像処理を施し歪みを補正する歪み補正処理を実行したり、撮像部15が撮像した撮像画像データに基づき、車両1を示す自車アイコンを例えば中心位置に表示する仮想視点画像(周辺画像)を作成して、表示装置8に表示させたりすることができる。CPU14aは、生成する仮想視点画像を、仮想視点の位置を車両1の直上に向かって移動させながら生成することができる。また、CPU14aは、撮像部15から提供される撮像画像データから車両1の周辺の路面に示された区画線等を識別して駐車支援(走行支援)を実行することができる。例えば、CPU14aは、区画(例えば、駐車区画線等)を検出(抽出)して、車両1が移動可能な目標領域(例えば、目標駐車領域)を設定したり、その目標領域に車両1を誘導するための誘導経路を取得したり、車両1を完全自動、半自動、手動(例えば音声による操作ガイド)により目標領域に誘導する誘導制御(支援制御)を実行することができる。   The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, a voice control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing. The CPU 14a can execute, for example, arithmetic processing and control of image processing related to images displayed on the display devices 8 and 12. Further, the CPU 14a performs a distortion correction process of performing arithmetic processing and image processing on the captured image data (curved image data) of the wide-angle image obtained by the imaging unit 15 to correct distortion, or the imaging unit 15 Based on the captured image data, a virtual viewpoint image (peripheral image) that displays the own vehicle icon indicating the vehicle 1 at, for example, the center position can be created and displayed on the display device 8. The CPU 14a can generate the virtual viewpoint image to be generated while moving the position of the virtual viewpoint toward right above the vehicle 1. Further, the CPU 14a can execute parking assistance (driving assistance) by identifying lane markings and the like shown on a road surface around the vehicle 1 from the captured image data provided by the imaging unit 15. For example, the CPU 14a detects (extracts) a section (for example, a parking section line) and sets a target area (for example, a target parking area) in which the vehicle 1 can move, or guides the vehicle 1 to the target area. For example, a guidance control (support control) for guiding the vehicle 1 to a target area by fully automatic, semi-automatic, or manual (for example, an operation guide by voice) can be executed.

CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The CPU 14a reads a program installed and stored in a non-volatile storage device such as the ROM 14b, and can execute arithmetic processing according to the program. The RAM 14c temporarily stores various data used in the calculation by the CPU 14a. In addition, the display control unit 14d mainly performs, for example, synthesis of image data displayed on the display device 8 in the arithmetic processing performed by the ECU 14. In addition, the voice control unit 14 e mainly performs processing of voice data output from the voice output device 9 in the arithmetic processing in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the power of the ECU 14 is turned off. Note that the CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may be configured to use another logical operation processor, a logical circuit, or the like, such as a DSP (digital signal processor), instead of the CPU 14a. Further, a hard disk drive (HDD) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。CPU14aはブレーキセンサ18bの検出結果に基づき算出した制動力の大きさと、車両1の現在の車速とから制動距離を算出することができる。   The brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses lock of the brake, an electronic stability control (ESC) that suppresses a side slip of the vehicle 1 at the time of cornering, and increases the braking force ( Electric brake system for executing brake assist), BBW (brake by wire) and the like. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator 18a. In addition, the brake system 18 can execute various controls by detecting a lock of a brake, an idling of the wheel 3, a sign of a skid, or the like based on a rotation difference between the left and right wheels 3 and the like. The brake sensor 18b is, for example, a sensor that detects the position of the movable part of the braking operation unit 6. The brake sensor 18b can detect the position of a brake pedal as a movable part. The brake sensor 18b includes a displacement sensor. The CPU 14a can calculate the braking distance from the magnitude of the braking force calculated based on the detection result of the brake sensor 18b and the current vehicle speed of the vehicle 1.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、例えば駐車支援を実行する際の自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。   The steering angle sensor 19 is, for example, a sensor that detects a steering amount of the steering unit 4 such as a steering wheel. The steering angle sensor 19 is configured using, for example, a Hall element. The ECU 14 obtains, from the steering angle sensor 19, the amount of steering of the steering unit 4 by the driver, the amount of steering of each wheel 3 at the time of automatic steering when executing parking assistance, and executes various controls. The steering angle sensor 19 detects a rotation angle of a rotating part included in the steering section 4. The steering angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。   The accelerator sensor 20 is, for example, a sensor that detects the position of the movable part of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。   The shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7. The shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable unit. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、各車輪3に配置され、各車輪3で検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。CPU14aは、各車輪速センサ22のセンサ値に基づいて車両1の車速を算出する場合、四輪のうち最も小さなセンサ値の車輪3の速度に基づき車両1の車速を決定し、各種制御を実行する。また、CPU14aは、四輪の中で他の車輪3に比べてセンサ値が大きな車輪3が存在する場合、例えば、他の車輪3に比べて単位期間(単位時間や単位距離)の回転数が所定数以上多い車輪3が存在する場合、その車輪3はスリップ状態(空転状態)であると見なし、各種制御を実行する。なお、車輪速センサ22は、図示を省略したブレーキシステム18に設けられている場合もある。その場合、CPU14aは、車輪速センサ22の検出結果をブレーキシステム18を介して取得してもよい。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 is disposed on each wheel 3 and outputs a wheel speed pulse number indicating the number of rotations detected by each wheel 3 as a sensor value. The wheel speed sensor 22 can be configured using, for example, a Hall element. The ECU 14 calculates the amount of movement of the vehicle 1 and the like based on the sensor values acquired from the wheel speed sensors 22 and executes various controls. When calculating the vehicle speed of the vehicle 1 based on the sensor value of each wheel speed sensor 22, the CPU 14a determines the vehicle speed of the vehicle 1 based on the speed of the wheel 3 having the smallest sensor value among the four wheels, and executes various controls. I do. In addition, when there is a wheel 3 having a larger sensor value than the other wheels 3 among the four wheels, the CPU 14a determines, for example, that the number of rotations in a unit period (unit time or unit distance) is larger than that of the other wheels 3. When there are more wheels 3 than a predetermined number, the wheels 3 are regarded as being in a slip state (idling state), and various controls are executed. Note that the wheel speed sensor 22 may be provided in the brake system 18 not shown. In that case, the CPU 14a may acquire the detection result of the wheel speed sensor 22 via the brake system 18.

駆動システム23は、駆動源としての内燃機関(エンジン)システムやモータシステムである。駆動システム23は、アクセルセンサ20により検出された運転者(利用者)の要求操作量(例えばアクセルペダルの踏み込み量)にしたがいエンジンの燃料噴射量や吸気量の制御やモータの出力値を制御する。また、運転者の操作に拘わらず、車両1の走行状態に応じて、操舵システム13やブレーキシステム18の制御と協働してエンジンやモータの出力値を制御しうる。   The drive system 23 is an internal combustion engine (engine) system or a motor system as a drive source. The drive system 23 controls the fuel injection amount and intake air amount of the engine and the output value of the motor according to the required operation amount (for example, the depression amount of an accelerator pedal) of the driver (user) detected by the accelerator sensor 20. . Further, the output values of the engine and the motor can be controlled in cooperation with the control of the steering system 13 and the brake system 18 in accordance with the traveling state of the vehicle 1 irrespective of the operation of the driver.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are merely examples, and can be set (changed) in various ways.

本実施形態のCPU14aは、撮像部15が撮像した撮像画像データ(画像)に視点変換処理や透視投影処理等の画像処理を施すことにより、撮像部15が撮像する際の視点とは異なる仮想視点から見たような仮想視点画像を生成して表示装置8に表示させる。例えば、車両1を目標駐車領域に誘導する駐車支援を実行する場合に、車両1の周辺状況を運転者(利用者)に認識させやすい画像を提供する。具体的には、車両1の上空に設定される仮想視点の位置を連続的に車両の移動状況に応じて車両1の直上に向けて移動させる。このとき、撮像画像データに基づく目標駐車領域の少なくとも一部と車両1の少なくとも一部との両方が仮想視点画像の表示領域に含まれ続けるようにする。   The CPU 14a according to the present embodiment performs image processing such as viewpoint conversion processing and perspective projection processing on the captured image data (image) captured by the imaging unit 15 so that a virtual viewpoint different from the viewpoint when the imaging unit 15 captures an image. A virtual viewpoint image as viewed from is generated and displayed on the display device 8. For example, when performing parking assistance for guiding the vehicle 1 to the target parking area, an image is provided that makes it easy for the driver (user) to recognize the surrounding situation of the vehicle 1. Specifically, the position of the virtual viewpoint set above the vehicle 1 is continuously moved directly above the vehicle 1 in accordance with the moving state of the vehicle. At this time, both at least a part of the target parking area based on the captured image data and at least a part of the vehicle 1 are kept included in the display area of the virtual viewpoint image.

図4は、ECU14に含まれるCPU14aにおいて、本実施形態の画像処理および車両1を移動させるための駐車支援を実現するための構成の例示的なブロック図である。なお、CPU14aにおいて、本実施形態の画像処理および駐車支援を実行する以外の構成は図示を省略している。CPU14aは、上述したような駐車支援処理を実行するとともに、仮想視点画像の生成を実行するための各種モジュールを備える。各種モジュールは、CPU14aがROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現される。例えば、CPU14aは、図4に示されるように、駐車支援部30、周辺監視部32等を備える。   FIG. 4 is an exemplary block diagram of a configuration for realizing image processing and parking assistance for moving the vehicle 1 according to the present embodiment in the CPU 14a included in the ECU 14. The configuration of the CPU 14a other than executing the image processing and the parking support of the present embodiment is omitted. The CPU 14a includes various modules for executing the parking support processing as described above and generating a virtual viewpoint image. The various modules are realized by the CPU 14a reading a program installed and stored in a storage device such as the ROM 14b and executing the program. For example, as shown in FIG. 4, the CPU 14a includes a parking support unit 30, a peripheral monitoring unit 32, and the like.

駐車支援部30は、指定された目標駐車領域(駐車枠、駐車位置、目標領域)に、完全自動走行、半自動走行、手動走行のうちいずれかの走行方法によって車両1を誘導する。駐車支援部30は、駐車支援を実行するためのモジュールとして、例えば、目標駐車領域設定部30a、経路取得部30b、誘導制御部30c等を含む。   The parking support unit 30 guides the vehicle 1 to a designated target parking area (parking frame, parking position, target area) by any one of a fully automatic travel, a semi-automatic travel, and a manual travel. The parking support unit 30 includes, for example, a target parking area setting unit 30a, a route acquisition unit 30b, a guidance control unit 30c, and the like as modules for performing parking support.

目標駐車領域設定部30aは、撮像部15が撮像した撮像画像データに基づき、車両1を移動可能な目標駐車領域を設定する。例えば、目標駐車領域設定部30aは、車両1が低速(例えば、車速=5km/h以下)で走行している場合にも、前述したように撮像部15a〜15dから車両1の周囲を撮像した撮像画像データおよび測距部16,17から車両1の周囲に関する測距データを逐次取得する。そして、目標駐車領域設定部30aは、取得した撮像画像データや測距データと、車両1の車幅や車長に基づき、車両1が収まりうる空間である目標駐車領域候補を車両1の周囲で探索する。目標駐車領域設定部30aは、目標駐車領域候補が複数箇所で探索できた場合、それらを表示装置8に提示し、運転者に希望する目標駐車領域を選択させる。また、目標駐車領域候補が一箇所の場合は、その位置を表示装置8に提示する。また、目標駐車領域設定部30aは、車両1の周囲の状況(例えば、駐車場入口からの距離や周囲の駐車状況、建物がある場合には建物の入口からの距離等)に基づき、複数の目標駐車領域候補の中から推奨する目標駐車領域を提示するようにしてもよい。この場合、目標駐車領域設定部30aは、外部の情報センタから車両1が現在存在する位置の情報(例えば、駐車場情報等)を取得して、推奨する目標駐車領域を選択するようにしてもよい。   The target parking area setting unit 30a sets a target parking area in which the vehicle 1 can move based on the captured image data captured by the imaging unit 15. For example, even when the vehicle 1 is traveling at a low speed (for example, a vehicle speed of 5 km / h or less), the target parking area setting unit 30a captures an image of the periphery of the vehicle 1 from the imaging units 15a to 15d as described above. Distance measurement data on the periphery of the vehicle 1 is sequentially acquired from the captured image data and the distance measurement units 16 and 17. Then, the target parking area setting unit 30a determines a target parking area candidate, which is a space in which the vehicle 1 can be accommodated, around the vehicle 1 based on the acquired captured image data and the ranging data, and the width and length of the vehicle 1. Explore. The target parking area setting unit 30a, when the target parking area candidates can be searched at a plurality of locations, presents them on the display device 8, and allows the driver to select a desired target parking area. If there is only one target parking area candidate, the position is presented on the display device 8. In addition, the target parking area setting unit 30a determines a plurality of conditions based on the surroundings of the vehicle 1 (for example, the distance from the entrance of the parking lot, the surrounding parking situation, and the distance from the entrance of the building if there is a building). A recommended target parking area may be presented from among the target parking area candidates. In this case, the target parking area setting unit 30a may obtain information on the position where the vehicle 1 is currently located (for example, parking lot information) from an external information center and select a recommended target parking area. Good.

経路取得部30bは、車両1の現在位置と目標駐車領域設定部30aにより設定された目標駐車領域とに基づき、例えば、切返し回数が最小で車両1を現在の位置から目標駐車領域まで誘導できる誘導経路を取得する。誘導経路は、経路取得部30bで演算して取得してもよいし、車両1の位置と目標駐車領域の位置とを外部の処理装置(例えば、駐車場の管理装置等)に送信し、そこで演算された誘導経路を経路取得部30bで受信することで取得するようにしてもよい。なお、誘導経路の算出は周知の技術が利用可能であり、詳細な説明は省略する。   Based on the current position of the vehicle 1 and the target parking area set by the target parking area setting section 30a, the route acquisition section 30b guides the vehicle 1 from the current position to the target parking area with a minimum number of turns, for example. Get the route. The guidance route may be calculated and acquired by the route acquisition unit 30b, or the position of the vehicle 1 and the position of the target parking area are transmitted to an external processing device (for example, a parking lot management device or the like). The calculated guidance route may be acquired by receiving the route in the route acquisition unit 30b. A known technique can be used for calculating the guidance route, and a detailed description thereof will be omitted.

誘導制御部30cは、車両1の誘導開始を要求する操作信号を操作入力部10等を介して取得した場合、経路取得部30bが取得した誘導経路にしたがい車両1を目標駐車領域に誘導する。例えば、完全自動走行で誘導する場合には、誘導制御部30cは、操舵システム13、ブレーキシステム18、駆動システム23等を制御する。また、例えば、操舵のみを自動制御する半自動走行の場合、運転者に操作させるアクセルペダルやブレーキペダル等の操作量や操作タイミングを表示装置8や表示装置12に表示させたり、音声出力装置9から出力させたりする。同様に、手動走行させる場合には、ステアリングホイールの転舵方向や転舵量、アクセルペダルやブレーキペダルの操作量や操作タイミング等を表示装置8や表示装置12に表示させたり、音声出力装置9から出力させたりする。   When the guidance control unit 30c acquires an operation signal requesting the start of guidance of the vehicle 1 via the operation input unit 10 or the like, the guidance control unit 30c guides the vehicle 1 to the target parking area according to the guidance route acquired by the route acquisition unit 30b. For example, when performing guidance by fully automatic traveling, the guidance control unit 30c controls the steering system 13, the brake system 18, the drive system 23, and the like. In addition, for example, in the case of semi-automatic traveling in which only steering is automatically controlled, the operation amount and operation timing of an accelerator pedal, a brake pedal, and the like to be operated by the driver are displayed on the display device 8 and the display device 12, and from the audio output device 9. Output. Similarly, when the vehicle is driven manually, the steering direction and the steering amount of the steering wheel, the operation amount and operation timing of the accelerator pedal and the brake pedal are displayed on the display device 8 and the display device 12, and the audio output device 9 is operated. Or output from

周辺監視部32は、駐車支援部30により駐車支援が実行される場合に、表示装置8に表示される画像としての仮想視点画像を生成する。ここで、仮想視点画像とは、撮像部15が撮像した当該撮像部15を視点とする画像に対して視点変換処理等を施して視点の位置を仮想的な位置、例えば、図5や図6等に例示するように車両1の上空に移動させて、車両1を上空から見下ろしながら撮像した場合に得られるような画像である。このような仮想視点画像を生成するために、周辺監視部32は、画像取得部34、目標取得部36、画像生成部38、出力部40等のモジュールを含む。   The periphery monitoring unit 32 generates a virtual viewpoint image as an image displayed on the display device 8 when parking assistance is performed by the parking assistance unit 30. Here, the virtual viewpoint image is a virtual position obtained by performing a viewpoint conversion process or the like on an image captured by the imaging unit 15 and having the viewpoint as the viewpoint, for example, as shown in FIGS. For example, the image is obtained when the vehicle 1 is moved over the vehicle 1 and imaged while looking down at the vehicle 1 from above. In order to generate such a virtual viewpoint image, the periphery monitoring unit 32 includes modules such as an image acquisition unit 34, a target acquisition unit 36, an image generation unit 38, and an output unit 40.

画像取得部34は、目標駐車領域が設定された後、車両1の誘導開始前および開始後において、車両1の周辺を撮像した撮像画像データを各撮像部15a〜15dから逐次取得する。   After the target parking area is set, before and after the guidance of the vehicle 1 is started, the image acquisition unit 34 sequentially acquires captured image data of the periphery of the vehicle 1 from each of the imaging units 15a to 15d.

目標取得部36は、目標駐車領域設定部30aが設定して目標駐車領域を取得するとともに、例えば、車両1(自車)の現在の位置を基準とする座標系における目標駐車領域の座標および車両1に対する回転角を取得する。この場合、車両1の現在の位置は、例えば、車両1の車幅方向の長さおよび車長方向の長さで規定される中央位置(基準位置)で定義することができる。また、別の実施形態では、車両1の後輪軸の車幅方向の中央位置を車両1の基準位置として定義してもよい。また、目標駐車領域の座標は、例えば、目標駐車領域の幅方向の長さおよび奥行き方向で規定される中央位置で定義することができる。すなわち、車両1の基準位置が車両1の車幅方向の長さおよび車長方向の長さで規定されている場合、その基準位置を目標駐車領域の座標に移動させるとともに、回転調整を行うことにより、車両1を目標駐車領域の中央に誘導しバランスよく収めることができる。また、車両1の基準位置が後輪軸の中央位置で定義されている場合、目標駐車領域の座標を、車両1が目標駐車領域に収まった場合に車両1の後輪軸の中央位置と一致する位置としてもよい。なお、目標取得部36は、車両1が駐車支援中に移動している間、車両1の現在の位置(移動位置)を基準とする目標駐車領域の座標位置および車両1に対する回転角を逐次取得する。つまり、車両1と目標駐車領域との相対位置関係を逐次取得する。   The target acquisition unit 36 acquires the target parking area set by the target parking area setting unit 30a and, for example, coordinates of the target parking area in the coordinate system based on the current position of the vehicle 1 (own vehicle) and the vehicle. Obtain the rotation angle for 1 In this case, the current position of the vehicle 1 can be defined by, for example, a center position (reference position) defined by the length of the vehicle 1 in the vehicle width direction and the length in the vehicle length direction. In another embodiment, the center position of the rear wheel axle of the vehicle 1 in the vehicle width direction may be defined as the reference position of the vehicle 1. In addition, the coordinates of the target parking area can be defined by, for example, a center position defined by the width direction length and the depth direction of the target parking area. That is, when the reference position of the vehicle 1 is defined by the length in the vehicle width direction and the length in the vehicle length direction of the vehicle 1, the reference position is moved to the coordinates of the target parking area and the rotation is adjusted. As a result, the vehicle 1 can be guided to the center of the target parking area and housed in a well-balanced manner. Further, when the reference position of the vehicle 1 is defined by the center position of the rear wheel axle, the coordinates of the target parking area are set to positions that match the center position of the rear wheel axle of the vehicle 1 when the vehicle 1 is within the target parking area. It may be. Note that the target acquisition unit 36 sequentially acquires the coordinate position of the target parking area based on the current position (movement position) of the vehicle 1 and the rotation angle with respect to the vehicle 1 while the vehicle 1 is moving during parking assistance. I do. That is, the relative positional relationship between the vehicle 1 and the target parking area is sequentially acquired.

画像生成部38は、仮想視点画像を生成するために、例えば、注視点・視点処理部38a、視野設定部38b、行列式演算部38c、描画処理部38d、重畳処理部38e、指標処理部38f等のモジュールを含む。   The image generation unit 38 generates, for example, a gazing point / viewpoint processing unit 38a, a visual field setting unit 38b, a determinant calculation unit 38c, a drawing processing unit 38d, a superimposition processing unit 38e, and an index processing unit 38f in order to generate a virtual viewpoint image. And so on.

注視点・視点処理部38aは、例えば、図5に例示されるように、車両1の位置と目標駐車領域Pの位置とに基づき、注視点位置42と仮想視点位置44を設定する。図5において、注視点・視点処理部38aは、まず、車両1の直上(例えば、地上高2m)に設定される車両中心位置Sと目標駐車領域P(注視点位置42)とを結ぶ第1仮想視線ラインL1を設定する。このときの第1仮想視線ラインL1の長さを例えば、「1」とする。そして、注視点・視点処理部38aは、第1仮想視線ラインL1を例えば、「N」倍するとともに車両中心位置Sに対して目標駐車領域Pとは反対側に180°反転させて、車両中心位置Sを通る第2仮想視線ラインL2を設定し、当該第2仮想視線ラインL2における車両中心位置Sとは逆側の端部を仮想視点位置44とする。注視点・視点処理部38aは、目標駐車領域Pに対する車両1の移動状況に応じて、常に車両中心位置Sと目標駐車領域Pとを結ぶ第1仮想視線ラインL1の長さと、車両中心位置Sと仮想視点位置44の位置とを結ぶ第2仮想視線ラインL2の長さとの比を一定に保つように仮想視点位置44を設定する。例えば、車両1に対し遠方に存在する目標駐車領域Paの注視点位置42aと車両中心位置Sを挟んで設定される仮想視点位置44aとの関係は、第1仮想視線ラインL1a:第2仮想視線ラインL2a=1:Nになる。同様に、車両1が移動して、当該車両1と目標駐車領域Pbとが接近した場合、注視点位置42bと車両中心位置Sを挟んで設定される仮想視点位置44bとの関係は、第1仮想視線ラインL1b:第2仮想視線ラインL2b=1:Nになる。   The gazing point / viewpoint processing unit 38a sets the gazing point position 42 and the virtual viewpoint position 44 based on the position of the vehicle 1 and the position of the target parking area P, for example, as illustrated in FIG. In FIG. 5, the gazing point / viewpoint processing unit 38a firstly connects the vehicle center position S set immediately above the vehicle 1 (for example, 2 m above the ground) to the target parking area P (gazing point position 42). The virtual line of sight L1 is set. At this time, the length of the first virtual line of sight L1 is, for example, “1”. Then, the gazing point / viewpoint processing unit 38a multiplies the first virtual line of sight L1 by, for example, “N”, and inverts the vehicle center position S by 180 ° to the opposite side to the target parking area P, thereby changing the vehicle center. A second virtual line of sight L2 passing through the position S is set, and an end of the second virtual line of sight L2 opposite to the vehicle center position S is defined as a virtual viewpoint position 44. The gazing point / viewpoint processing unit 38a always determines the length of the first virtual line-of-sight line L1 connecting the vehicle center position S and the target parking area P, and the vehicle center position S, according to the moving situation of the vehicle 1 with respect to the target parking area P. The virtual viewpoint position 44 is set such that the ratio of the length of the second virtual line of sight L2 connecting the position of the virtual viewpoint position 44 and the position of the virtual viewpoint position 44 is kept constant. For example, the relationship between the gazing point position 42a of the target parking area Pa that is distant from the vehicle 1 and the virtual viewpoint position 44a set across the vehicle center position S is represented by a first virtual line of sight L1a: a second virtual line of sight. Line L2a = 1: N. Similarly, when the vehicle 1 moves and the vehicle 1 approaches the target parking area Pb, the relationship between the gazing point position 42b and the virtual viewpoint position 44b set across the vehicle center position S is the first. Virtual line of sight L1b: Second virtual line of sight L2b = 1: N.

このように、第1仮想視線ラインL1と第2仮想視線ラインL2の関係が、常に1:Nになるように仮想視点位置44を設定することにより、目標駐車領域Pに車両1が接近するのに連れて、仮想視点位置44が徐々に車両1に近づくことになる。つまり、 徐々に車両1の周辺が拡大される(ズームアップ)されるような画像に変換する仮想視点位置44の設定ができる。例えば、車両1から目標駐車領域Pが遠い場合は、目標駐車領域Pを、車両1を挟んで遠くから臨み、遠方の目標駐車領域Pを含むその周辺を広域的に表示して全体状況を把握しやすい画像を生成するような仮想視点位置44の設定ができる。また、目標駐車領域Pに車両1が接近するのに連れて、目標駐車領域Pを、車両1を挟んでより近い位置から臨み、接近した目標駐車領域Pを含む車両1の周辺の状況を狭域的に表示して、車両1の周囲の距離感を認識させやすい画像(拡大された画像)を生成するような仮想視点位置44の設定ができる。その結果、車両1と目標駐車領域Pとの相対位置関係に応じた周囲状況を確認し易い仮想視点画像の提供が可能になり、周辺監視の精度をより向上することができる。なお、図5では、第1仮想視線ラインL1と第2仮想視線ラインL2との比を「1:N」とする例を示したが、車両1が移動する場合に、第1仮想視線ラインL1と第2仮想視線ラインL2との比が一定に保たれれば、比は適宜変更してもよく、同様の効果を得ることができる。   In this way, by setting the virtual viewpoint position 44 so that the relationship between the first virtual line of sight L1 and the second virtual line of sight L2 is always 1: N, the vehicle 1 approaches the target parking area P. , The virtual viewpoint position 44 gradually approaches the vehicle 1. In other words, it is possible to set the virtual viewpoint position 44 for converting into an image in which the periphery of the vehicle 1 is gradually enlarged (zoomed up). For example, when the target parking area P is far from the vehicle 1, the target parking area P is viewed from a distance across the vehicle 1, and the surrounding area including the distant target parking area P is displayed in a wide area to grasp the overall situation. The virtual viewpoint position 44 can be set so as to generate an easy-to-use image. Further, as the vehicle 1 approaches the target parking area P, the target parking area P is viewed from a position closer to the vehicle 1, and the situation around the vehicle 1 including the approached target parking area P is narrowed. The virtual viewpoint position 44 can be set so as to generate an image (enlarged image) that is displayed regionally and allows the user to easily recognize the sense of distance around the vehicle 1. As a result, it is possible to provide a virtual viewpoint image in which it is easy to confirm the surrounding situation according to the relative positional relationship between the vehicle 1 and the target parking area P, and it is possible to further improve the accuracy of surrounding monitoring. Although FIG. 5 illustrates an example in which the ratio between the first virtual line of sight L1 and the second virtual line of sight L2 is “1: N”, when the vehicle 1 moves, the first virtual line of sight L1 As long as the ratio between and the second virtual line of sight L2 is kept constant, the ratio may be changed as appropriate, and the same effect can be obtained.

また、他の実施形態として、注視点・視点処理部38aは仮想視点位置44を図6に示すように、車両1を覆う仮想曲面Eを用いて設定することができる。図6において、注視点・視点処理部38aは、まず、車両1を中心とする所定半径(例えば、半径=8m)の仮想曲面Eを設定する。そして、注視点・視点処理部38aは、車両中心位置Sと目標駐車領域P(注視点位置42)とを結ぶ仮想視線ラインLを設定し、仮想視線ラインLの延長線が車両1を挟んで目標駐車領域Pと逆側で仮想曲面Eと交差する位置を仮想視点位置44とする。したがって、仮想視点位置44は、車両1が目標駐車領域Pに向かって移動して相対位置関係が変化する場合でも、常に仮想曲面E上に設定されることになる。例えば、車両1に対し遠方に存在する目標駐車領域Paの注視点位置42aと車両中心位置Sを結ぶ仮想視線ラインLaが、車両中心位置Sを挟んで注視点位置42aから遠い側(反対側)で仮想曲面Eと交差する位置に仮想視点位置44aが設定される。同様に、車両1が移動して、当該車両1と目標駐車領域Pbとが接近した場合、目標駐車領域Pbの注視点位置42bと車両中心位置Sを結ぶ仮想視線ラインLbが、車両中心位置Sを挟んで注視点位置42bから遠い側(反対側)で仮想曲面Eと交差する位置に仮想視点位置44bが設定される。   In another embodiment, the gazing point / viewpoint processing unit 38a can set the virtual viewpoint position 44 using a virtual curved surface E that covers the vehicle 1 as shown in FIG. In FIG. 6, the gazing point / viewpoint processing unit 38a first sets a virtual curved surface E having a predetermined radius (for example, radius = 8 m) around the vehicle 1. The gazing point / viewpoint processing unit 38a sets a virtual line of sight L connecting the vehicle center position S and the target parking area P (point of sight 42), and an extension of the virtual line of sight L sandwiches the vehicle 1. A position that intersects the virtual curved surface E on the opposite side of the target parking area P is defined as a virtual viewpoint position 44. Therefore, the virtual viewpoint position 44 is always set on the virtual curved surface E even when the vehicle 1 moves toward the target parking area P and the relative positional relationship changes. For example, a virtual line-of-sight line La connecting the gazing point position 42a of the target parking area Pa distant from the vehicle 1 and the vehicle center position S is farther from the gazing point position 42a across the vehicle center position S (opposite side). A virtual viewpoint position 44a is set at a position intersecting with the virtual curved surface E. Similarly, when the vehicle 1 moves and the vehicle 1 approaches the target parking area Pb, the virtual line-of-sight line Lb connecting the gazing point position 42b of the target parking area Pb and the vehicle center position S becomes the vehicle center position S The virtual viewpoint position 44b is set at a position that intersects the virtual curved surface E on the side (opposite side) far from the gazing point position 42b with respect to.

このように、仮想視点位置44が常に仮想曲面E上で設定されることにより目標駐車領域Pに車両1が接近する場合でも仮想視点位置44から車両1を臨む距離はほぼ一定に保たれる。つまり、仮想視点画像上で表示される車両1の大きさがほぼ一定に保たれる。その結果、仮想視点画像上で車両1の大きさが変化することが少なく表示内容が滑らかに変化し、視認し易い仮想視点画像を提供可能になり、より低ストレスの監視作業を行わせ易くなる。   Since the virtual viewpoint position 44 is always set on the virtual curved surface E, even when the vehicle 1 approaches the target parking area P, the distance at which the vehicle 1 faces the virtual viewpoint position 44 is kept substantially constant. That is, the size of the vehicle 1 displayed on the virtual viewpoint image is kept substantially constant. As a result, the size of the vehicle 1 does not change much on the virtual viewpoint image, the display content changes smoothly, and it is possible to provide a virtual viewpoint image that is easy to recognize, and it is easier to perform a monitoring operation with lower stress. .

なお、注視点・視点処理部38aは、図5に示す処理で仮想視点位置44を設定するか図6で示す処理で仮想視点位置44を設定するかを予め選択可能である。したがって、注視点・視点処理部38aは選択されない処理機能を予め省略するようにしてもよい。   The gaze point / viewpoint processing unit 38a can select in advance whether to set the virtual viewpoint position 44 in the process shown in FIG. 5 or the virtual viewpoint position 44 in the process shown in FIG. Therefore, the gazing point / viewpoint processing unit 38a may omit processing functions that are not selected in advance.

また、注視点・視点処理部38aは、目標駐車領域Pの注視点位置42を設定する際に、図7に示すように、目標駐車領域Pの領域中心位置Psに対して車両1から遠ざかる方向に所定量(例えば、0.5m)移動させた位置とする、オフセット処理を実行してもよい。例えば、領域中心位置Psに注視点位置42を設定した場合、車両1が目標駐車領域Pに収まり、駐車支援が完了または完了に近い状態になった場合、車両1の直上から目標駐車領域Pを臨むようになり、車両1を中心とする狭い範囲の表示となる。一方、駐車支援が完了または完了に近い状態の場合、運転者は車両1の進行方向における前方の状況に着目した場合がある。例えば、車両1を目標駐車領域Pに駐車した場合に進行方向の空きスペース等を確認したい場合がある。そこで、上述したように、注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、駐車支援が完了した時点でも、仮想視点位置44は、車両1を斜め上空から臨むことになり、車両1の進行方向をより広範囲で表示可能となる。その結果、進行方向の空きスペース等を十分に確認させる仮想視点画像を生成することが可能になる。   When setting the gazing point position 42 of the target parking area P, the gazing point / viewpoint processing unit 38a moves away from the vehicle 1 with respect to the area center position Ps of the target parking area P as shown in FIG. An offset process may be executed to set the position to a position moved by a predetermined amount (for example, 0.5 m). For example, when the gazing point position 42 is set at the area center position Ps, when the vehicle 1 fits in the target parking area P and the parking assistance is completed or almost completed, the target parking area P is set from directly above the vehicle 1. As a result, a display in a narrow range centering on the vehicle 1 is displayed. On the other hand, when the parking assistance is completed or almost completed, the driver may pay attention to a situation in front of the vehicle 1 in the traveling direction. For example, when the vehicle 1 is parked in the target parking area P, there may be a case where the user wants to check an empty space in the traveling direction. Therefore, as described above, by setting the gazing point position 42 to be offset in a direction away from the vehicle 1, the virtual viewpoint position 44 faces the vehicle 1 obliquely from the sky even when the parking assistance is completed. Thus, the traveling direction of the vehicle 1 can be displayed in a wider range. As a result, it is possible to generate a virtual viewpoint image that allows sufficient confirmation of an empty space or the like in the traveling direction.

また、本実施形態のように、車両中心位置Sを挟んで目標駐車領域Pの逆側に仮想視点位置44を設定する場合、車両1が目標駐車領域Pに対してオーバランした場合、仮想視点位置44が車両中心位置Sを超えて進行方向側に設定されることになる。その結果、仮想視点位置44が車両中心位置Sを超えた時点で視線方向がそれまでと逆になる。例えば、今まで車両1の後方から車両1の前方側を臨むような仮想視点画像が、車両1の前方から車両1の後方側を臨むような仮想視点画像に急に変わって、不自然な画像切り替えが発生し、運転者等の利用者に違和感を与えてしまう場合がある。上述したように、注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、駐車支援が完了した時点でも、仮想視点位置44が車両中心位置Sを超えないようにすることができる。その結果、上述したような画像が急に切り替わる(反転してしまう)不都合を防止することができる。図7に示すように、車両1が前進して目標駐車領域Pに接近する場合も車両1が後退して目標駐車領域Pに接近する場合も同様である。なお、注視点・視点処理部38aが実施するオフセット処理は、目標駐車領域Pにおける注視点位置42の位置を変更するにみで、駐車支援において車両1の基準位置を誘導する目標座標を変更するものではない。   When the virtual viewpoint position 44 is set on the opposite side of the target parking area P across the vehicle center position S as in the present embodiment, when the vehicle 1 overruns the target parking area P, the virtual viewpoint position 44 is set on the traveling direction side beyond the vehicle center position S. As a result, when the virtual viewpoint position 44 exceeds the vehicle center position S, the viewing direction is reversed. For example, an unnatural image in which a virtual viewpoint image that faces the front side of the vehicle 1 from behind the vehicle 1 suddenly changes to a virtual viewpoint image that faces the rear side of the vehicle 1 from the front of the vehicle 1. Switching may occur, giving a user such as a driver an uncomfortable feeling. As described above, by setting the gazing point position 42 to be offset in the direction away from the vehicle 1, it is possible to prevent the virtual viewpoint position 44 from exceeding the vehicle center position S even when parking assistance is completed. . As a result, it is possible to prevent such an inconvenience that the image is suddenly switched (reversed). As shown in FIG. 7, the same applies to the case where the vehicle 1 moves forward and approaches the target parking area P, and the case where the vehicle 1 moves backward and approaches the target parking area P. Note that the offset processing performed by the gazing point / viewpoint processing unit 38a changes target coordinates for guiding the reference position of the vehicle 1 in parking assistance by changing the position of the gazing point position 42 in the target parking area P. Not something.

視野設定部38bは、仮想視点位置44から注視点位置42を見た場合の視野を設定する。例えば、車両1と目標駐車領域Pとの位置関係に拘わらず、または、位置関係に応じて視野を設定することができる。視野を変化させることにより、仮想視点画像の狭域表示や広域表示の設定が可能になり、運転者の視認範囲の変更要求や詳細表示要求等にスムーズに対応することができる。   The visual field setting unit 38b sets a visual field when the gazing point position 42 is viewed from the virtual viewpoint position 44. For example, the field of view can be set regardless of the positional relationship between the vehicle 1 and the target parking area P, or according to the positional relationship. By changing the field of view, it is possible to set a narrow area display or a wide area display of the virtual viewpoint image, and it is possible to smoothly respond to a driver's request for changing the visible range or a request for detailed display.

行列式演算部38cは、撮像部15から取得される撮像画像データを仮想視点画像として描画する際に、仮想視点位置44から注視点位置42を見た場合の空間の座標を求めるための行列式(視線行列式)を算出する。例えば、撮像画像データ上の座標を仮想視点画像上の座標に変換したり、仮想視点画像上で車両1を示すポリゴン(自車アイコン)の座標を変換したりするための視線行列式を算出する。また、行列式演算部38cは、仮想視点画像を表示する表示装置8の表示領域に合わせた二次元空間の座標に画像データを変換するための行列式である、透視投影行列式を算出する。なお、透視投影行列式を算出する際に、視野設定部38bで設定する視野の変更を考慮して行列式を算出してもよい。そして、行列式演算部38cは、視線行列式と透視投影行列式とに基づき、変換行列式を算出する。変換行列式を用いることにより、例えば、各撮像部15で撮像した画像(撮像画像データ)を、車両1を中心とする3Dモデル(例えば、底面を円として、周縁が立ち上がったお椀形状のモデル)へ投影した仮想視点画像を生成することができる。この他、行列式演算部38cは、指標処理部38fにより指定される指標(例えば、目標駐車領域Pに車両1が到達した状態をイメージさせる仮想車両(ゴースト)の表示位置や表示姿勢を仮想視点位置44の移動にしたがって変化させるための行列式(並進回転行列式)等を算出する。   The determinant operation unit 38c is used to determine the coordinates of the space when the gazing point position 42 is viewed from the virtual viewpoint position 44 when the captured image data acquired from the imaging unit 15 is drawn as a virtual viewpoint image. (Line-of-sight determinant) is calculated. For example, a line-of-sight determinant for converting coordinates on the captured image data to coordinates on the virtual viewpoint image or converting coordinates of a polygon (own vehicle icon) indicating the vehicle 1 on the virtual viewpoint image is calculated. . In addition, the determinant calculation unit 38c calculates a perspective projection determinant, which is a determinant for converting image data into coordinates in a two-dimensional space that matches the display area of the display device 8 that displays the virtual viewpoint image. When calculating the perspective projection determinant, the determinant may be calculated in consideration of a change in the visual field set by the visual field setting unit 38b. Then, the determinant calculation unit 38c calculates a conversion determinant based on the line-of-sight determinant and the perspective projection determinant. By using the transformation determinant, for example, an image (captured image data) captured by each image capturing unit 15 is converted into a 3D model centered on the vehicle 1 (for example, a bowl-shaped model in which the bottom is a circle and the periphery rises). A virtual viewpoint image projected to the virtual camera can be generated. In addition, the determinant calculation unit 38c determines the display position and display posture of a virtual vehicle (ghost) that images the state in which the vehicle 1 has reached the target parking area P by using an index specified by the index processing unit 38f. A determinant (translation rotation determinant) or the like for changing according to the movement of the position 44 is calculated.

描画処理部38dは、注視点・視点処理部38aが算出した変換行列式を用いて、撮像部15が撮像した撮像画像データの座標変換を行い、現在の仮想視点位置44の位置から見た車両1の周辺を示す仮想視点画像を描画する。   The drawing processing unit 38d performs coordinate conversion of the image data captured by the imaging unit 15 using the conversion determinant calculated by the gazing point / viewpoint processing unit 38a, and the vehicle viewed from the current virtual viewpoint position 44. A virtual viewpoint image showing the periphery of No. 1 is drawn.

ところで、図2で示されるように撮像部15は、例えば、車両1の外周に配置されている。したがって、撮像部15が撮像する撮像画像データには、車両1の一部(バンパーの一部やドアの一部等)しか含まれない。そのため、撮像部15が撮像した撮像画像データの座標を、変換行列式を用いて変換しても仮想視点画像上に車両1に対する画像は表示できない。そこで、指標処理部38fは、車両1を示す自車アイコンデータをROM14b等の記憶部から読み出す。そして、重畳処理部38eは、自車アイコンデータに対して注視点・視点処理部38aで算出した変換行列式を適用し、現在の仮想視点位置44の位置から見た自車アイコンを描画処理部38dが描画した車両1の周辺を示す仮想視点画像に重畳する。   By the way, as shown in FIG. 2, the imaging unit 15 is arranged, for example, on the outer periphery of the vehicle 1. Therefore, the captured image data captured by the imaging unit 15 includes only a part of the vehicle 1 (a part of a bumper, a part of a door, and the like). Therefore, the image of the vehicle 1 cannot be displayed on the virtual viewpoint image even if the coordinates of the captured image data captured by the imaging unit 15 are converted using the conversion determinant. Therefore, the index processing unit 38f reads the own vehicle icon data indicating the vehicle 1 from a storage unit such as the ROM 14b. Then, the superimposition processing unit 38e applies the transformation determinant calculated by the gazing point / viewpoint processing unit 38a to the own vehicle icon data, and draws the own vehicle icon viewed from the current virtual viewpoint position 44 in the drawing processing unit. 38d is superimposed on the virtual viewpoint image showing the periphery of the vehicle 1 drawn by 38d.

指標処理部38fは、前述したように、仮想視点画像上に表示する自車アイコンの他、目標駐車領域Pに車両1が到達した状態をイメージさせる仮想車両(ゴースト)の画像、目標駐車領域Pを明示するための駐車枠画像等を指標として管理する。指標処理部38fは、各指標の選択を行う指標選択部38f1および、選択した指標の表示態様を変更する表示態様変更部38f2等の詳細モジュールを含む。   As described above, the index processing unit 38f includes, in addition to the own vehicle icon displayed on the virtual viewpoint image, an image of a virtual vehicle (ghost) that makes the vehicle 1 reach the target parking area P, the target parking area P Is managed as an index using a parking frame image or the like for specifying the information. The index processing unit 38f includes detailed modules such as an index selecting unit 38f1 for selecting each index and a display mode changing unit 38f2 for changing the display mode of the selected index.

指標選択部38f1は、利用者の操作入力部10等を用いた操作により、車両1を示す自車アイコンとして、車両1の形状を再現したアイコンを選択してもよいし、簡易的な形状の自車アイコンを選択してもよい。車両1の形状を再現したアイコンを用いる場合、車両1を実際に見下ろしているような見栄えのよい仮想視点画像を提供することができる。一方、簡易的な形状の自車アイコンを用いる場合、仮想視点位置44の変更に追従して表示姿勢が変化する自車アイコンの表示処理のための演算負荷を軽減することができる。また、利用者の操作入力部10等を用いた操作により、仮想車両(ゴースト)や駐車枠等の指標を表示することが要求された場合、指標選択部38f1は、要求された指標の選択を行う。また、この場合も、実際の形状を再現した指標や簡易形状の指標を選択できるようにしてもよい。なお、仮想車両を表示するデータは、自車アイコンのデータを流用してもよいし、個別のデータを準備してもよい。   The index selecting unit 38f1 may select an icon that reproduces the shape of the vehicle 1 as an own-vehicle icon indicating the vehicle 1 by an operation performed by the user using the operation input unit 10 or the like. The own vehicle icon may be selected. When an icon that reproduces the shape of the vehicle 1 is used, a good-looking virtual viewpoint image can be provided as if the vehicle 1 is actually looking down. On the other hand, when the own-vehicle icon having a simple shape is used, it is possible to reduce the calculation load for the display processing of the own-vehicle icon whose display posture changes following the change of the virtual viewpoint position 44. Further, when a user is requested to display an index such as a virtual vehicle (ghost) or a parking frame by an operation using the operation input unit 10 or the like, the index selection unit 38f1 selects the requested index. Do. Also in this case, an index reproducing an actual shape or an index of a simple shape may be made selectable. As the data for displaying the virtual vehicle, data of the own vehicle icon may be used, or individual data may be prepared.

表示態様変更部38f2は、複数の指標を仮想視点画像上に重畳表示する場合、各指標の識別性が向上するように、表示態様を変更することができる。例えば、自車アイコンと仮想車両(ゴースト)を同時に表示する場合、両者を識別できるように、それぞれの表示色を異ならせる。例えば、自車アイコンを車両1の実際の色に合わせた表示色とし、仮想車両の表示色を色相環で反対の色にすることで識別性を向上させることができる。また、表示態様変更部38f2は、自車アイコンと仮想車両(目標駐車領域P)との距離に応じて、例えば、仮想車両の表示色の濃さを変化させてもよい。例えば、遠い場合には仮想車両の表示色を濃くし、自車アイコンと仮想車両とが近づくのに連れて仮想車両の表示色を薄くする。また、表示態様変更部38f2は、仮想車両の透過度を変化させてもよい。また、表示態様変更部38f2は、自車アイコンと仮想車両とのうちいずれか一方を点滅表示することにより識別性を向上させるようにしてもよい。なお、複数の指標の識別ができるような表示態様であれば、他の表示態様を採用してもよい。   When a plurality of indices are superimposed and displayed on the virtual viewpoint image, the display mode changing unit 38f2 can change the display mode so that the discriminability of each index is improved. For example, when the own vehicle icon and the virtual vehicle (ghost) are displayed at the same time, their display colors are different so that they can be identified. For example, discrimination can be improved by setting the own vehicle icon to a display color that matches the actual color of the vehicle 1 and changing the display color of the virtual vehicle to the opposite color in the hue circle. In addition, the display mode changing unit 38f2 may change, for example, the depth of the display color of the virtual vehicle according to the distance between the own vehicle icon and the virtual vehicle (the target parking area P). For example, when the vehicle is far away, the display color of the virtual vehicle is made darker, and as the own vehicle icon and the virtual vehicle approach, the display color of the virtual vehicle is made lighter. The display mode changing unit 38f2 may change the transmittance of the virtual vehicle. In addition, the display mode changing unit 38f2 may improve the discriminability by blinking one of the vehicle icon and the virtual vehicle. Note that another display mode may be adopted as long as the display mode allows a plurality of indices to be identified.

出力部40は、画像生成部38で生成された仮想視点画像を表示制御部14dに逐次出力し、表示装置8に表示させる。   The output unit 40 sequentially outputs the virtual viewpoint images generated by the image generation unit 38 to the display control unit 14d, and causes the display device 8 to display the virtual viewpoint images.

なお、図4に示すモジュール構成は一例であり、同様な処理ができれば、機能の分割や統合は適宜可能である。   Note that the module configuration shown in FIG. 4 is an example, and if the same processing can be performed, division or integration of functions can be appropriately performed.

図8〜図10は、表示装置8に表示される仮想視点画像46の一例を示すもので、車両1が目標駐車領域Pに向かい後退しながら移動する様子を示す模式図である。また、仮想視点位置44は図6で示したように、仮想曲面E上を移動する例を示している。したがって、目標駐車領域Pに対して仮想視点位置44は車両1を挟んで車両1のフロント側に設定されて、仮想視点位置44は、仮想曲面E上を車両中心位置S(車両1)の直上に向かって移動することになる。   8 to 10 show an example of the virtual viewpoint image 46 displayed on the display device 8, and are schematic diagrams showing a state in which the vehicle 1 moves while moving backward toward the target parking area P. The virtual viewpoint position 44 shows an example of moving on the virtual curved surface E as shown in FIG. Therefore, the virtual viewpoint position 44 is set on the front side of the vehicle 1 with respect to the target parking area P with the vehicle 1 interposed therebetween, and the virtual viewpoint position 44 is directly above the vehicle center position S (vehicle 1) on the virtual curved surface E. Will move towards.

図8は、目標駐車領域Pに対して車両1がまだ遠い位置に存在する場合を示す仮想視点画像46である。この場合、車両1を示す自車アイコン48a(自車指標)は、目標駐車領域Pを示す駐車枠指標48bから遠いため、駐車枠指標48bの一部は、仮想視点画像46の表示範囲外(撮像部15の撮像画像データ外で、画面上黒塗りされた部分)に位置している。この場合、駐車枠指標48bは、表示範囲外の部分を非表示とされてもよい。また、図8の場合、仮想視点画像46上で車両1(自車アイコン48a)から遠方で湾曲して表示される実際の駐車枠線に対して、目標駐車領域Pの位置をより明確にするための駐車枠指標48bは形状の整った矩形で表示される例を示している。他の実施形態では、変換行列式を用いて駐車枠指標48bを変形して、実際の表示枠線に近い状態で表示されるようにしてもよい。   FIG. 8 is a virtual viewpoint image 46 showing a case where the vehicle 1 is still far from the target parking area P. In this case, since the own vehicle icon 48a (own vehicle index) indicating the vehicle 1 is far from the parking frame index 48b indicating the target parking area P, a part of the parking frame index 48b is outside the display range of the virtual viewpoint image 46 ( It is located in a portion (black portion on the screen) outside the image data of the imaging unit 15. In this case, the portion of the parking frame index 48b outside the display range may be hidden. In the case of FIG. 8, the position of the target parking area P is further clarified with respect to an actual parking frame line that is curved and displayed at a distance from the vehicle 1 (own vehicle icon 48a) on the virtual viewpoint image 46. Frame index 48b is displayed as a well-formed rectangle. In another embodiment, the parking frame index 48b may be modified using a transformation determinant to be displayed in a state close to the actual display frame line.

図9は、目標駐車領域Pの一部に車両1が進入した状態を示す仮想視点画像46である。この場合、車両1の前後方向の向きが、目標駐車領域Pの奥行き方向に近づいてきことにより、車両中心位置Sに近づいた仮想視点位置44から見た実際の駐車枠線と矩形の駐車枠指標48bとが概ね一致するように、仮想視点画像46上で表示されるようになる。   FIG. 9 is a virtual viewpoint image 46 showing a state where the vehicle 1 has entered a part of the target parking area P. In this case, since the front-rear direction of the vehicle 1 approaches the depth direction of the target parking area P, the actual parking frame line and the rectangular parking frame index viewed from the virtual viewpoint position 44 approaching the vehicle center position S. 48b is displayed on the virtual viewpoint image 46 so as to substantially coincide with 48b.

図10は、目標駐車領域Pに車両1が完全に進入して駐車支援が終了した状態を示す仮想視点画像46である。この場合、図7で説明したように、注視点・視点処理部38aが注視点位置42を車両1から遠ざかる方向にオフセットして設定することにより、車両1の進行方向(この場合、車両1の後方)が十分に仮想視点画像46に表示され、車両1の後方のスペースの確認をより行い易くすることができる。また、駐車支援の完了またはその直前で仮想視点画像46が180°回転するような(視線の向きが逆になるような)不都合を生じることが防止される。   FIG. 10 is a virtual viewpoint image 46 showing a state in which the vehicle 1 has completely entered the target parking area P and parking assistance has ended. In this case, as described with reference to FIG. 7, the gazing point / viewing point processing unit 38a sets the gazing point position 42 to be offset in a direction away from the vehicle 1 so that the traveling direction of the vehicle 1 (in this case, the vehicle 1 (Behind) is sufficiently displayed in the virtual viewpoint image 46, so that the space behind the vehicle 1 can be more easily confirmed. Further, it is possible to prevent a problem that the virtual viewpoint image 46 is rotated by 180 ° (the direction of the line of sight is reversed) immediately before or immediately after the completion of the parking support.

図8〜図10のいずれの図においても、仮想視点画像46には、目標駐車領域Pの少なくとも一部と車両1の少なくとも一部との両方が表示され続けられる。その結果、駐車支援による走行中に注目させたい、目標駐車領域Pと車両1との相対位置関係を、常時認識させ易くなる。また、仮想視点位置44が目標駐車領域Pに常に向けられるため不自然な歪みが少ない画像が提供できる。その結果、目標駐車領域Pが遠方に存在する場合には、目標駐車領域Pの周辺の確認がし易く、目標駐車領域Pが接近した場合には、車両の周囲の確認や距離感の把握がし易くなり、周辺監視の精度向上に寄与できるとともに、低ストレスの監視作業を行わせ易くなる。   In any of FIGS. 8 to 10, at least a part of the target parking area P and at least a part of the vehicle 1 are continuously displayed on the virtual viewpoint image 46. As a result, it is easy to always recognize the relative positional relationship between the target parking area P and the vehicle 1 that the driver wants to pay attention to while traveling with parking assistance. In addition, since the virtual viewpoint position 44 is always directed to the target parking area P, an image with less unnatural distortion can be provided. As a result, when the target parking area P exists far away, it is easy to check the surroundings of the target parking area P, and when the target parking area P approaches, it is possible to check the surroundings of the vehicle and grasp the sense of distance. This can contribute to the improvement of the accuracy of the peripheral monitoring, and also facilitates the monitoring operation with low stress.

なお、図8〜図10では、図示を省略しているが、表示装置8に仮想視点画像46が表示される場合、現在の状況を説明するメッセージや必要な操作を行うスイッチ類等のユーザインターフェースが重畳表示されてもよい。   Although not shown in FIGS. 8 to 10, when the virtual viewpoint image 46 is displayed on the display device 8, a user interface such as a message explaining the current situation and switches for performing necessary operations is provided. May be superimposed.

以上にように構成される周辺監視装置による仮想視点画像46の表示処理の流れの一例を図11のフローチャートを用いて説明する。なお、駐車支援のための車両1の誘導は、完全自動走行で行ってもよいし、半自動走行で行ってよいし、手動走行で行ってもよい。   An example of the flow of the display processing of the virtual viewpoint image 46 by the peripheral monitoring device configured as described above will be described with reference to the flowchart in FIG. In addition, guidance of the vehicle 1 for parking assistance may be performed by fully automatic driving, semiautomatic driving, or manual driving.

目標駐車領域設定部30aおよび画像取得部34は、車両1の電源がONされている場合、走行の有無に拘わらず、常時、各撮像部15から撮像画像データ(周辺画像)を取得する(S100)。また、目標駐車領域設定部30aは、目標駐車領域設定部30aで取得した撮像画像データおよび測距部16,17から取得した測距データに基づき、車両1の周辺における周辺物体情報(周辺物体の有無および周辺物体が存在する場合は周辺物体存までの距離等)を取得する(S102)。周辺監視部32は、操作入力部10等を介して周辺監視(駐車支援)の要求操作が行われたか否か監視し(S104)、要求操作が行われていない場合(S104のNo)、一旦このフローを終了し、要求操作の入力を待つ。   When the power of the vehicle 1 is turned on, the target parking area setting unit 30a and the image acquisition unit 34 always acquire captured image data (peripheral images) from each imaging unit 15 regardless of whether or not the vehicle 1 is traveling (S100). ). In addition, the target parking area setting unit 30a, based on the captured image data acquired by the target parking area setting unit 30a and the distance measurement data acquired by the distance measurement units 16 and 17, obtains information about the peripheral objects around the vehicle 1 (the peripheral object information). The presence / absence and, if there is a surrounding object, the distance to the surrounding object, etc.) are acquired (S102). The peripheral monitoring unit 32 monitors whether a request for peripheral monitoring (parking support) has been performed via the operation input unit 10 or the like (S104). If the request operation has not been performed (No in S104), the peripheral monitoring unit 32 temporarily stops. This flow is terminated, and input of a request operation is waited.

S104において、周辺監視(駐車支援)の要求操作が行われた場合(S104のYes)、目標取得部36は、目標駐車領域設定部30aで設定された目標駐車領域Pを取得する(S106)。そして、目標取得部36は、車両1(自車)の現在の位置を基準とする座標系における目標駐車領域Pの座標および車両1に対する目標駐車領域Pの回転角を取得する(S108)。回転角は、仮想車両や駐車枠指標等を重畳表示する場合に用いることができる。   In S104, when a request operation for periphery monitoring (parking support) is performed (Yes in S104), the target acquisition unit 36 acquires the target parking area P set by the target parking area setting unit 30a (S106). Then, the target acquisition unit 36 acquires the coordinates of the target parking area P in the coordinate system based on the current position of the vehicle 1 (own vehicle) and the rotation angle of the target parking area P with respect to the vehicle 1 (S108). The rotation angle can be used when superimposing and displaying a virtual vehicle, a parking frame index, and the like.

続いて、注視点・視点処理部38aは、目標取得部36が取得した目標駐車領域Pの注視点位置42を目標駐車領域Pの領域中心位置Psに対して車両1から遠ざかる方向に所定量移動させた位置とするオフセット処理が実行済みか否かを確認する(S110)。オフセット処理がまだ実行されていない場合(S110のNo)、注視点・視点処理部38aは、注視点位置42を、領域中心位置Psに対して車両1から遠ざかる方向に所定量移動させた位置とする(S112)。また、オフセット処理が実行済みの場合(S110のYes)、注視点・視点処理部38aは、S112の処理をスキップする。なお、オフセット処理は、仮想視点位置44が車両1の直上付近に到達するまでに実行されればよく、図8や図9の表示段階では、注視点位置42を領域中心位置Psに設定して処理実施してもよい。最初の段階で、注視点位置42をオフセットしておくことにより、仮想視点画像46の表示中に視線が急に変化する等を防止できる。   Subsequently, the gazing point / viewpoint processing unit 38a moves the gazing point position 42 of the target parking area P acquired by the target acquiring unit 36 by a predetermined amount in a direction away from the vehicle 1 with respect to the area center position Ps of the target parking area P. It is confirmed whether or not the offset processing for the position where the position has been performed has been executed (S110). If the offset process has not been executed yet (No in S110), the gazing point / viewpoint processing unit 38a determines whether the gazing point position 42 has been moved by a predetermined amount in the direction away from the vehicle 1 with respect to the area center position Ps. (S112). If the offset processing has been executed (Yes in S110), the gazing point / viewpoint processing unit 38a skips the processing in S112. Note that the offset processing may be performed until the virtual viewpoint position 44 reaches a position immediately above the vehicle 1. In the display stage of FIGS. 8 and 9, the gazing point position 42 is set to the region center position Ps. Processing may be performed. By offsetting the gazing point position 42 in the initial stage, it is possible to prevent a sudden change in the line of sight while the virtual viewpoint image 46 is being displayed.

そして、注視点・視点処理部38aは、車両1の直上に設定される車両中心位置Sと目標駐車領域Pの注視点位置42とを結ぶ仮想視線ラインLを設定し(S114)、仮想視点位置44を決定する(S116)。   Then, the gazing point / viewpoint processing unit 38a sets a virtual line of sight L connecting the vehicle center position S set immediately above the vehicle 1 and the gazing point position 42 of the target parking area P (S114). 44 is determined (S116).

注視点位置42および仮想視点位置44が設定されると、行列式演算部38cは、視線行列式の算出(S118)、透視投影行列式の算出(S120)を実行し、視線行列式および透視投影行列式に基づき、仮想視点画像46を表示するための座標変換式である変換行列式を算出する(S122)。   When the gazing point position 42 and the virtual viewpoint position 44 are set, the determinant calculation unit 38c executes the calculation of the line-of-sight determinant (S118), the calculation of the perspective projection determinant (S120), and performs the line-of-sight determinant and the perspective projection. Based on the determinant, a transformation determinant that is a coordinate transformation formula for displaying the virtual viewpoint image 46 is calculated (S122).

描画処理部38dは、行列式演算部38cが算出した変換行列式を用いて、3Dモデル上に仮想視点画像46を描画する(S124)。続いて、指標選択部38f1は、車両1に対応する自車アイコン48aを選択し、変換行列式を用いて現在の仮想視点位置44で車両1を見た場合の自車アイコン48aを示すように座標変換を実施し、自車アイコン48aを仮想視点画像46上に重畳する(S126)。また、運転者等が、仮想車両や駐車枠指標48b等の指標の表示を操作入力部10等を介して要求している場合(S128のYes)、指標選択部38f1は、要求されている指標を選択するともに、指標を仮想視点画像46上に重畳する(S130)。また、表示態様変更部38f2は、重畳表示する指標の表示態様を、例えば、目標駐車領域Pと車両1との相対距離等に応じて変更する。なお、指標の表示画要求されていない場合(S128のNo)、S130の処理はスキップされる。   The drawing processing unit 38d draws the virtual viewpoint image 46 on the 3D model using the conversion determinant calculated by the determinant calculation unit 38c (S124). Subsequently, the index selecting unit 38f1 selects the own vehicle icon 48a corresponding to the vehicle 1 and displays the own vehicle icon 48a when the vehicle 1 is viewed at the current virtual viewpoint position 44 using the conversion determinant. The coordinate conversion is performed, and the own vehicle icon 48a is superimposed on the virtual viewpoint image 46 (S126). In addition, when the driver or the like requests the display of the index such as the virtual vehicle or the parking frame index 48b through the operation input unit 10 or the like (Yes in S128), the index selection unit 38f1 sets the requested index. Is selected, and the index is superimposed on the virtual viewpoint image 46 (S130). Further, the display mode changing unit 38f2 changes the display mode of the index to be superimposed and displayed according to, for example, the relative distance between the target parking area P and the vehicle 1. When the display image of the index is not requested (No in S128), the process of S130 is skipped.

そして、出力部40は、画像生成部38で生成された、自車アイコン48a(車両1)の少なくとも一部および目標駐車領域P(駐車枠指標48b)の少なくとも一部の両方が含まれる、仮想視点位置44から見た場合の仮想視点画像46(合成画像)を示すデータを表示制御部14dに出力し(S132)、現在の車両1の位置における仮想視点画像46を表示装置8に表示させる。そして、周辺監視部32は、車両1が目標駐車領域Pに到達したと判定した場合(S134のYes)、車両1は目標駐車領域Pに所定の姿勢で収まり、周辺監視が必要な駐車支援が終了したと判定し、このフローを一旦終了する。一方、車両1が目標駐車領域Pに到達していないと判定した場合(S134のNo)、S108に移行し、前回の表示処理から移動した現在の車両1の位置を基準として、目標駐車領域Pの座標および回転角を取得し、S108移行の処理を繰り返して、表示装置8に表示する仮想視点画像46(合成画像)を更新して、動画として表示する。   The output unit 40 includes a virtual virtual machine that includes at least a part of the own vehicle icon 48a (vehicle 1) and at least a part of the target parking area P (parking frame index 48b) generated by the image generating unit 38. Data indicating the virtual viewpoint image 46 (synthesized image) when viewed from the viewpoint position 44 is output to the display control unit 14d (S132), and the display device 8 displays the virtual viewpoint image 46 at the current position of the vehicle 1. When the surrounding monitoring unit 32 determines that the vehicle 1 has arrived at the target parking area P (Yes in S134), the vehicle 1 fits in the target parking area P in a predetermined posture, and parking assistance requiring surrounding monitoring is performed. It is determined that the process has been completed, and this flow is temporarily terminated. On the other hand, when it is determined that the vehicle 1 has not reached the target parking area P (No in S134), the process proceeds to S108, and based on the current position of the vehicle 1 moved from the previous display processing, the target parking area P is determined. , And the process of S108 is repeated to update the virtual viewpoint image 46 (synthesized image) displayed on the display device 8 and display it as a moving image.

なお、図8〜図10では、後退走行のみで車両1が目標駐車領域Pに到達する例を示した。別の実施形態では、誘導経路によっては、切返し等のために車両1が一時的に前進走行を行う場合がある。例えば、シフトセンサ21からの検出信号に基づき、走行方向の変更が検出された場合、視野設定部38bは、一時的に視野を広げて、切返しによる到達位置(再び走行方向が切り替えられる位置)が仮想視点画像46の表示範囲に含まれるようにしてもよい。この場合、車両1の周囲状況をより適切に把握させることができるとともに、運転者の安心感を向上させることができる。前進走行で駐車支援が実行される場合も同様であり、同様の効果を得ることができる。   FIGS. 8 to 10 show an example in which the vehicle 1 reaches the target parking area P only by reversing. In another embodiment, depending on the guidance route, the vehicle 1 may temporarily move forward for turning back or the like. For example, when a change in the traveling direction is detected based on a detection signal from the shift sensor 21, the visual field setting unit 38b temporarily widens the visual field and changes the arrival position by switching back (the position at which the traveling direction is switched again). The virtual viewpoint image 46 may be included in the display range. In this case, the surrounding situation of the vehicle 1 can be more appropriately grasped, and the driver's sense of security can be improved. The same applies to the case where parking assistance is performed in forward running, and the same effect can be obtained.

本実施形態のCPU14aで実行される周辺監視処理のためのプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。   The program for the peripheral monitoring process executed by the CPU 14a according to the present embodiment is a file in an installable format or an executable format in a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). It may be configured such that it is recorded on a computer-readable recording medium and provided.

さらに、周辺監視処理プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態で実行される周辺監視処理プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。   Further, the peripheral monitoring processing program may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network. Further, the peripheral monitoring processing program executed in the present embodiment may be provided or distributed via a network such as the Internet.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiment and the modification of the present invention have been described, the embodiment and the modification are presented as examples and are not intended to limit the scope of the invention. These new embodiments can be implemented in other various forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and their equivalents.

1…車両、8…表示装置、14…ECU、14a…CPU、15,15a,15b,15c,15d…撮像部、30…駐車支援部、30a…目標駐車領域設定部、30b…経路取得部、30c…誘導制御部、32…周辺監視部、34…画像取得部、36…目標取得部、38…画像生成部、38a…注視点・視点処理部、38b…視野設定部、38c…行列式演算部、38d…描画処理部、38e…重畳処理部、38f…指標処理部、38f1…指標選択部、38f2…表示態様変更部、40…出力部、42,42a,42b…注視点位置、44,44a,44b…仮想視点位置、46…仮想視点画像、48a…自車アイコン、48b…駐車枠指標、E…仮想曲面、L…仮想視線ライン、L1…第1仮想視線ライン、L2…第2仮想視線ライン、100…周辺監視システム。   DESCRIPTION OF SYMBOLS 1 ... vehicle, 8 ... display apparatus, 14 ... ECU, 14a ... CPU, 15, 15a, 15b, 15c, 15d ... imaging part, 30 ... parking assistance part, 30a ... target parking area setting part, 30b ... route acquisition part, 30c: guidance control unit, 32: peripheral monitoring unit, 34: image acquisition unit, 36: target acquisition unit, 38: image generation unit, 38a: gazing point / viewpoint processing unit, 38b: visual field setting unit, 38c: determinant calculation Unit, 38d: drawing processing unit, 38e: superimposition processing unit, 38f: index processing unit, 38f1: index selection unit, 38f2: display mode changing unit, 40: output unit, 42, 42a, 42b: fixation point position, 44, 44a, 44b: virtual viewpoint position, 46: virtual viewpoint image, 48a: own vehicle icon, 48b: parking frame index, E: virtual curved surface, L: virtual line of sight, L1: first virtual line of sight, L2: second virtual Line of sight 100 ... periphery monitoring system.

Claims (7)

車両の周辺を撮像した撮像画像データを取得する画像取得部と、
前記車両を誘導する目標駐車領域を取得する目標取得部と、
前記車両を前記目標駐車領域に誘導する際に、前記車両の上空に設定される仮想視点の位置を連続的に前記車両の移動状況に応じて直上に向けて移動させながら、前記撮像画像データに基づく前記目標駐車領域の少なくとも一部と前記車両の少なくとも一部との両方が表示領域に含まれ続けるような仮想視点画像を生成する画像生成部と、
前記仮想視点画像を表示装置に出力する出力部と、
を含む、周辺監視装置。
An image acquisition unit that acquires captured image data of an area around the vehicle,
A target acquisition unit that acquires a target parking area for guiding the vehicle,
When guiding the vehicle to the target parking area, while continuously moving the position of the virtual viewpoint set above the vehicle directly upward in accordance with the moving situation of the vehicle, the captured image data An image generation unit that generates a virtual viewpoint image such that both at least a part of the target parking area based on the vehicle and at least a part of the vehicle continue to be included in a display area;
An output unit that outputs the virtual viewpoint image to a display device,
A peripheral monitoring device, including:
前記画像生成部は、前記車両の直上に設定される車両中心位置と前記目標駐車領域とを結ぶ第1仮想視線ラインの長さと、前記車両中心位置と前記仮想視点の位置とを結ぶ第2仮想視線ラインの長さとの比を一定に保ちながら前記車両の移動状況に応じて前記仮想視点の位置を移動させながら前記仮想視点画像を生成する、請求項1に記載の周辺監視装置。   The image generation unit is configured to determine a length of a first virtual line of sight connecting a vehicle center position set immediately above the vehicle and the target parking area, and a second virtual line connecting the vehicle center position and the position of the virtual viewpoint. The surroundings monitoring device according to claim 1, wherein the virtual viewpoint image is generated while moving the position of the virtual viewpoint in accordance with a moving state of the vehicle while keeping a ratio with a line of sight line length constant. 前記画像生成部は、前記車両を覆う仮想曲面と、前記目標駐車領域と前記車両の直上に設定される車両中心位置とを通る仮想視線ラインが前記車両を挟んで前記目標駐車領域と逆側で交差する位置に設定する前記仮想視点の位置を前記車両の移動状況に応じて移動させながら前記仮想視点画像を生成する、請求項1に記載の周辺監視装置。   The image generation unit is configured such that a virtual curved line that covers the vehicle, a virtual line of sight passing through the target parking area and a vehicle center position set immediately above the vehicle is on the opposite side of the target parking area across the vehicle. The surroundings monitoring device according to claim 1, wherein the virtual viewpoint image is generated while moving the position of the virtual viewpoint set at the intersection position according to a moving state of the vehicle. 前記画像生成部は、前記仮想視点の位置から前記目標駐車領域を臨む場合の注視点の位置を、前記目標駐車領域の領域中心位置に対し前記車両から遠ざかる方向に所定量移動させた位置とする、請求項1から請求項3のいずれか1項に記載の周辺監視装置。   The image generation unit sets a position of a gazing point when facing the target parking area from the position of the virtual viewpoint by a predetermined distance in a direction away from the vehicle with respect to an area center position of the target parking area. The peripheral monitoring device according to any one of claims 1 to 3. 前記画像生成部は、前記仮想視点の位置の移動状況に応じて、前記仮想視点画像の視野角を変更する、請求項1から請求項4のいずれか1項に記載の周辺監視装置。   The surroundings monitoring device according to any one of claims 1 to 4, wherein the image generation unit changes a viewing angle of the virtual viewpoint image according to a movement state of the position of the virtual viewpoint. 前記画像生成部は、前記仮想視点画像における前記目標駐車領域に対応する位置に、前記目標駐車領域を示す駐車枠画像と前記目標駐車領域に前記車両が移動した状況を示す仮想車両とのうち少なくとも一方を示す指標を重畳表示する、請求項1から請求項5のいずれか1項に記載の周辺監視装置。   The image generation unit is a position corresponding to the target parking area in the virtual viewpoint image, at least a parking frame image indicating the target parking area and a virtual vehicle indicating a situation in which the vehicle has moved to the target parking area. The peripheral monitoring device according to any one of claims 1 to 5, wherein an index indicating one is superimposed and displayed. 前記画像生成部は、前記仮想視点画像における前記車両と前記指標とを異なる表示態様で表示する、請求項6に記載の周辺監視装置。   The surroundings monitoring device according to claim 6, wherein the image generation unit displays the vehicle and the index in the virtual viewpoint image in different display modes.
JP2018167856A 2018-09-07 2018-09-07 Periphery monitoring device Pending JP2020043418A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018167856A JP2020043418A (en) 2018-09-07 2018-09-07 Periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018167856A JP2020043418A (en) 2018-09-07 2018-09-07 Periphery monitoring device

Publications (1)

Publication Number Publication Date
JP2020043418A true JP2020043418A (en) 2020-03-19

Family

ID=69798835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018167856A Pending JP2020043418A (en) 2018-09-07 2018-09-07 Periphery monitoring device

Country Status (1)

Country Link
JP (1) JP2020043418A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022181281A (en) * 2021-05-26 2022-12-08 トヨタ自動車株式会社 Parking support device
US12088951B2 (en) 2021-03-24 2024-09-10 Honda Motor Co., Ltd. Image display system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12088951B2 (en) 2021-03-24 2024-09-10 Honda Motor Co., Ltd. Image display system
JP2022181281A (en) * 2021-05-26 2022-12-08 トヨタ自動車株式会社 Parking support device
US11735049B2 (en) 2021-05-26 2023-08-22 Toyota Jidosha Kabushiki Kaisha Park assist system
JP7375792B2 (en) 2021-05-26 2023-11-08 トヨタ自動車株式会社 parking assist device

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
JP6897340B2 (en) Peripheral monitoring device
JP6156486B2 (en) Perimeter monitoring apparatus and program
JP7069548B2 (en) Peripheral monitoring device
JP6281289B2 (en) Perimeter monitoring apparatus and program
CN107925746B (en) Peripheral monitoring device
JP2020043400A (en) Periphery monitoring device
WO2018070298A1 (en) Display control apparatus
JP6760122B2 (en) Peripheral monitoring device
JP2020120327A (en) Peripheral display control device
CN112492262A (en) Image processing apparatus
JP2014004930A (en) Parking support device, parking support method, and parking support program
US11475676B2 (en) Periphery monitoring device
JP2017094922A (en) Periphery monitoring device
WO2018061261A1 (en) Display control device
JP2020043418A (en) Periphery monitoring device
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP6977318B2 (en) Peripheral display device
JP6610140B2 (en) Perimeter monitoring device
JP5691339B2 (en) Driving assistance device
JP6953915B2 (en) Peripheral monitoring device
JP6606956B2 (en) Perimeter monitoring device
JP2024009685A (en) Parking support device
JP2017211814A (en) Parking support device