JP2017094922A - Periphery monitoring device - Google Patents

Periphery monitoring device Download PDF

Info

Publication number
JP2017094922A
JP2017094922A JP2015228958A JP2015228958A JP2017094922A JP 2017094922 A JP2017094922 A JP 2017094922A JP 2015228958 A JP2015228958 A JP 2015228958A JP 2015228958 A JP2015228958 A JP 2015228958A JP 2017094922 A JP2017094922 A JP 2017094922A
Authority
JP
Japan
Prior art keywords
image
image data
vehicle
display
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015228958A
Other languages
Japanese (ja)
Inventor
友之 中村
Tomoyuki Nakamura
友之 中村
優 田中
Masaru Tanaka
優 田中
博之 山▲崎▼
Hiroyuki Yamazaki
博之 山▲崎▼
▲高▼柳 渉
渉 ▲高▼柳
Wataru Takayanagi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2015228958A priority Critical patent/JP2017094922A/en
Publication of JP2017094922A publication Critical patent/JP2017094922A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a periphery monitoring device which can provide a peripheral image in a state similar to usual visible sensation of a user.SOLUTION: A periphery monitoring device comprises: an image acquisition part which acquires picked-up image data outputted from an imaging part which is provided on a vehicle and picks up an image of a periphery of the vehicle; a display unit which is provided in a cabin of the vehicle and displays an image; and a control part which acquires first sight line image data which faces on one first lateral region with at least the vehicle as a reference based on the picked-up image data, and second sight line image data which faces on the other second lateral region with the vehicle as a reference, causes the display unit to display an image based on the first sight line image data, and thereafter, to display an image based on the second sight line image data instead of the image based on said first sight line image data.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、周辺監視装置に関する。   Embodiments described herein relate generally to a periphery monitoring device.

従来、車載カメラで撮像した車両の周辺映像を車室内に配置された表示装置に表示する技術が知られている。例えば、自車の走行路から交差点で交差する他の走行路に進入する場合に、他の走行路の状況を表示装置に表示する技術が知られている。このような周辺画像を表示する場合、より多くの情報が認識できるように、表示装置の表示領域を複数に分割して、種々の方向を撮影した画像を同時に表示したり、広角レンズや魚眼レンズを用いたカメラで撮影した広角画像を表示したり、それに歪み補正を施したりして表示していた。   2. Description of the Related Art Conventionally, a technique for displaying a peripheral image of a vehicle imaged by an in-vehicle camera on a display device arranged in the vehicle interior is known. For example, a technique for displaying the status of another traveling path on a display device when entering the other traveling path intersecting at an intersection from the traveling path of the own vehicle is known. When displaying such a peripheral image, the display area of the display device is divided into a plurality of areas so that more information can be recognized, and images taken in various directions are displayed at the same time, or a wide-angle lens or fish-eye lens is used. A wide-angle image taken with the camera used was displayed or displayed with distortion correction.

特開2013−136258号公報JP 2013-136258 A

しかしながら、上述したような表示領域を複数に分割した表示や広角画像を用いた表示は、ユーザ(運転者)が普段目視(視認)している現実世界の風景とは異なるため、その表示方式に慣れる必要がある。また、表示領域が分割されることで個々の方向の表示面積が小さくなったり、種々の方向の画像がマトリックス状に配置されたりして、現実とは異なる見え方となるため、注目すべき情報を見落とす可能性が高くなる場合があるという問題があった。   However, a display obtained by dividing a display area as described above or a display using a wide-angle image is different from a real-world landscape that a user (driver) usually sees (views). You need to get used to it. In addition, the display area is divided to reduce the display area in each direction, and images in various directions are arranged in a matrix, making it look different from the actual situation. There is a problem that there is a possibility that the possibility of oversight is high.

そこで、本発明の課題の一つは、ユーザの普段の視認感覚に近い状態で周辺映像を表示装置上で提供できる周辺監視装置を提供することである。   Accordingly, one of the objects of the present invention is to provide a periphery monitoring device that can provide a peripheral image on a display device in a state close to a user's usual visual sense.

本発明の実施形態にかかる周辺監視装置は、例えば、車両に設けられて当該車両の周辺を撮像する撮像部から出力された撮像画像データを取得する画像取得部と、上記車両の車室内に設けられ画像を表示する表示装置と、上記撮像画像データに基づき少なくとも上記車両を基準に一方の第1側方領域を臨む第1視線画像データと上記車両を基準に他方の第2側方領域を臨む第2視線画像データを取得し、上記表示装置に上記第1視線画像データに基づく画像を表示させた後に当該第1視線画像データに基づく画像に代えて上記第2視線画像データに基づく画像を表示する制御部と、を備える。この構成によれば、例えば、一般的によく行われる「左右確認」をしているような画像表示が提供できるので、ユーザに受け入れられやすい。また、第1側方領域(例えば車両の右側方領域)の画像と第2側方領域(例えば車両の左側方領域)の画像が別々のタイミングで表示されるので、限られた表示領域で個々の画像を最大限大きく表示できる。その結果、注目すべき情報を見落とす可能性が低減できる。   The periphery monitoring device according to the embodiment of the present invention is provided in, for example, an image acquisition unit that is provided in a vehicle and acquires captured image data output from an imaging unit that captures the periphery of the vehicle, and the vehicle interior of the vehicle. A display device that displays the image, first visual line image data that faces one first side area based on at least the vehicle based on the captured image data, and the other second side area that faces the first vehicle. After obtaining the second line-of-sight image data and displaying the image based on the first line-of-sight image data on the display device, the image based on the second line-of-sight image data is displayed instead of the image based on the first line-of-sight image data A control unit. According to this configuration, for example, it is possible to provide an image display that performs “right / left confirmation” that is generally performed, and thus it is easily accepted by the user. In addition, since the image of the first side area (for example, the right side area of the vehicle) and the image of the second side area (for example, the left side area of the vehicle) are displayed at different timings, the images are individually displayed in a limited display area. Can be displayed as large as possible. As a result, the possibility of missing noticeable information can be reduced.

また、上記周辺監視装置において、例えば、上記撮像画像データは、上記車両の進行方向を含む広角画像のデータであり、上記制御部は、上記撮像画像データを上記車両の進行方向における車両先端位置から上記第1側方領域を臨む平面画像に変換して上記第1視線画像データを取得するとともに、上記第2側方領域を臨む平面画像に変換して上位第2視線画像データを取得する画像変換部を含んでもよい。この構成によれば、例えば、表示装置に表示される画像は、ユーザが車両の例えば前端部(後端部)に立って左右を視認したときと同様な情報が得られる画像の表示ができる。この場合、運転席が存在する位置(ユーザが側方を実際に見渡せる位置)まで車両を進めなくても、第1側方領域や第2側方領域の確認が現実と同様な状態で確認できる表示態様を提供できる。また、画像取得部によって、車両の進行方向を含む広範囲の画像データが効率的に取得される。また、画像変換部が例えば歪みが含まれる可能性のある広角画像から歪みの少ない視線画像に変換するため、表示内容をより認識させやすい第1視線画像データ及び第2視線画像データが提供できる。   In the periphery monitoring device, for example, the captured image data is wide-angle image data including the traveling direction of the vehicle, and the control unit extracts the captured image data from a vehicle front end position in the traveling direction of the vehicle. Image conversion for obtaining the first line-of-sight image data by converting to a plane image facing the first side area and for obtaining the upper second line-of-sight image data by converting to a plane image facing the second side area Part may be included. According to this configuration, for example, the image displayed on the display device can display an image that provides the same information as when the user stands at the front end (rear end) of the vehicle and visually recognizes the left and right. In this case, the confirmation of the first side region and the second side region can be confirmed in a state similar to the actual state without having to advance the vehicle to a position where the driver's seat exists (a position where the user can actually look around the side). A display mode can be provided. In addition, a wide range of image data including the traveling direction of the vehicle is efficiently acquired by the image acquisition unit. In addition, since the image conversion unit converts, for example, a wide-angle image that may contain distortion into a line-of-sight image with less distortion, the first line-of-sight image data and the second line-of-sight image data that make it easier to recognize the display content can be provided.

また、上記周辺監視装置の上記制御部は、例えば、上記第1視線画像データに基づく画像の表示から上記第2視線画像データに基づく画像の表示へ遷移させる間に上記車両の進行方向を含む正面領域を臨む第3視線画像データに基づく画像を表示するようにしてもよい。この構成によれば、例えば、第1視線画像データに基づく画像と第2視線画像データに基づく画像との間にユーザ自身が現実に視認できる正面領域を示す第3視線画像データに基づく画像が介在するので、表示されている画像の遷移状況、すなわちこれから表示される画像が第1視線画像データに基づく画像なのか第2視線画像データに基づく画像なのかを識別させやすくすることができる。   Further, the control unit of the periphery monitoring device includes, for example, a front surface including a traveling direction of the vehicle during a transition from an image display based on the first line-of-sight image data to an image display based on the second line-of-sight image data. An image based on the third line-of-sight image data facing the area may be displayed. According to this configuration, for example, an image based on the third line-of-sight image data indicating a front area that the user can actually visually recognize is interposed between the image based on the first line-of-sight image data and the image based on the second line-of-sight image data. Therefore, it is possible to easily identify the transition state of the displayed image, that is, whether the image to be displayed is an image based on the first visual line image data or an image based on the second visual line image data.

また、上記周辺監視装置の上記制御部は、例えば、上記第1視線画像データに基づく画像の表示期間及び上記第2視線画像データに基づく画像の表示期間より上記第3視線画像データに基づく画像の表示期間を短くするようにしてもよい。この構成によれば、例えば、ユーザ自身では視認し難い(画像を介してしか視認できない)第1視線画像データに基づく画像の内容や第2視線画像データに基づく画像の内容の確認時間を長く確保することができる。その結果、注目すべき情報を見落とす可能性が低減できる。また、第3視線画像データに基づく画像の表示期間は、第1視線画像データに基づく画像や第2視線画像データに基づく画像の表示期間より短いので、第3視線画像データに基づく画像の内容に気をとられてしまう可能性が低減できて、第1視線画像データに基づく画像や第2視線画像データに基づく画像により集中させやすくすることができる。   In addition, the control unit of the periphery monitoring device may, for example, display an image based on the third line-of-sight image data from an image display period based on the first line-of-sight image data and an image display period based on the second line-of-sight image data. The display period may be shortened. According to this configuration, for example, it is difficult for the user himself to visually recognize (only visible via the image), and a long confirmation time for the content of the image based on the first visual line image data and the content of the image based on the second visual line image data is secured. can do. As a result, the possibility of missing noticeable information can be reduced. In addition, the image display period based on the third line-of-sight image data is shorter than the image display period based on the first line-of-sight image data and the image based on the second line-of-sight image data. The possibility of being distracted can be reduced, and the image can be more easily concentrated by the image based on the first line-of-sight image data or the image based on the second line-of-sight image data.

また、上記周辺監視装置の上記画像取得部は、例えば、車両に設けられて当該車両の周辺の移動物体を検出する物体検出部から出力された物体画像データをさらに取得し、上記制御部は、上記撮像画像データに基づく画像に上記物体画像データに基づく画像を重畳して上記移動物体の存在を報知するようにしてもよい。この構成によれば、例えば、第1側方領域や第2側方領域に存在する移動物体、例えば歩行者や他の車両の存在をユーザにより認識させやすくすることができる。   In addition, the image acquisition unit of the periphery monitoring device further acquires object image data output from an object detection unit that is provided in a vehicle and detects a moving object around the vehicle, for example. The presence of the moving object may be notified by superimposing an image based on the object image data on an image based on the captured image data. According to this configuration, for example, the presence of a moving object such as a pedestrian or another vehicle existing in the first lateral region or the second lateral region can be easily recognized by the user.

また、上記周辺監視装置の上記制御部は、例えば、上記第1視線画像データに基づく画像の表示、上記第2視線画像データに基づく画像の表示に続き、再度上記第1視線画像データに基づく画像の表示を行うようにしてもよい。この構成によれば、例えば、一般的によく行われる、右左右の確認操作により近い表示となり、ユーザの安心感をより向上させることができるとともに、確認精度をより向上させることができる。   Further, the control unit of the periphery monitoring device, for example, displays an image based on the first line-of-sight image data, displays an image based on the second line-of-sight image data, and then again displays an image based on the first line-of-sight image data. May be displayed. According to this configuration, for example, the display is closer to the right and left confirmation operations that are generally performed, and the user's sense of security can be further improved, and the confirmation accuracy can be further improved.

図1は、実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the periphery monitoring device according to the embodiment is mounted is seen through. 図2は、実施形態にかかる周辺監視装置を搭載する車両の一例が示された平面図である。FIG. 2 is a plan view illustrating an example of a vehicle on which the periphery monitoring device according to the embodiment is mounted. 図3は、実施形態にかかる周辺監視装置を搭載する車両のダッシュボードの一例であり、車両後方からの視野での図である。FIG. 3 is an example of a dashboard of a vehicle on which the periphery monitoring device according to the embodiment is mounted, and is a diagram in a view from the rear of the vehicle. 図4は、実施形態にかかる周辺監視装置を含む画像制御システムの一例が示されたブロック図である。FIG. 4 is a block diagram illustrating an example of an image control system including the periphery monitoring device according to the embodiment. 図5は、実施形態にかかる周辺監視装置のECU内に実現される画像を表示するための制御部の構成の一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of a configuration of a control unit for displaying an image realized in the ECU of the periphery monitoring device according to the embodiment. 図6は、実施形態にかかる周辺監視装置の表示装置に表示される表示画像の遷移の一例を説明する説明図である。FIG. 6 is an explanatory diagram illustrating an example of transition of a display image displayed on the display device of the periphery monitoring device according to the embodiment. 図7は、実施形態にかかる周辺監視装置の表示処理の一例を説明するフローチャートである。FIG. 7 is a flowchart illustrating an example of display processing of the periphery monitoring device according to the embodiment. 図8は、実施形態にかかる周辺監視装置の表示装置に表示される画像例を示した説明図である。FIG. 8 is an explanatory diagram illustrating an example of an image displayed on the display device of the periphery monitoring device according to the embodiment. 図9は、実施形態にかかる周辺監視装置の表示装置に表示される別の画像例を示した説明図である。FIG. 9 is an explanatory diagram illustrating another image example displayed on the display device of the periphery monitoring device according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration of the embodiment shown below and the operations, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

本実施形態において、周辺監視装置(周辺監視システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   In the present embodiment, the vehicle 1 equipped with the periphery monitoring device (perimeter monitoring system) may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an electric motor (not shown). It may be a vehicle as a drive source, that is, an electric vehicle, a fuel cell vehicle, or the like. Moreover, the hybrid vehicle which uses both of them as a drive source may be sufficient, and the vehicle provided with the other drive source may be sufficient. Further, the vehicle 1 can be mounted with various transmissions, and various devices necessary for driving the internal combustion engine and the electric motor, such as systems and components, can be mounted. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。   As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2 a in which a passenger (not shown) gets. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet, and the braking operation unit 6 is, for example, a driver's foot It is a brake pedal located under the foot, and the speed change operation unit 7 is, for example, a shift lever protruding from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7 and the like are not limited to these.

また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   In addition, a display device 8 as a display output unit and a sound output device 9 as a sound output unit are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 9 is, for example, a speaker. The display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. In addition, the occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 that is located in the vehicle width direction of the dashboard 24, that is, the central portion in the left-right direction. The monitor device 11 can have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. Further, a sound output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and sound is output from the sound output device 9 of the monitor device 11 and other sound output devices. be able to. Note that the monitor device 11 can be used also as, for example, a navigation system or an audio system.

また、車室2a内には、表示装置8とは別の表示装置12が設けられている。図3に例示されるように、表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8a(図3)の大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。   Further, a display device 12 different from the display device 8 is provided in the passenger compartment 2a. As illustrated in FIG. 3, for example, the display device 12 is provided in the instrument panel unit 25 of the dashboard 24, and between the speed display unit 25 a and the rotation speed display unit 25 b at the approximate center of the instrument panel unit 25. Is located. The size of the screen 12a of the display device 12 is smaller than the size of the screen 8a (FIG. 3) of the display device 8. The display device 12 can display an image mainly showing information related to parking assistance of the vehicle 1. The amount of information displayed on the display device 12 may be smaller than the amount of information displayed on the display device 8. The display device 12 is, for example, an LCD or an OELD. Information displayed on the display device 12 may be displayed on the display device 8.

また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図4に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。   As illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and includes two left and right front wheels 3 </ b> F and two right and left rear wheels 3 </ b> R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 4, the vehicle 1 includes a steering system 13 that steers at least two wheels 3. The steering system 13 includes an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate the actuator 13a. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The steering system 13 adds torque, that is, assist torque to the steering unit 4 by the actuator 13a to supplement the steering force, or steers the wheel 3 by the actuator 13a. In this case, the actuator 13a may steer one wheel 3 or may steer a plurality of wheels 3. Moreover, the torque sensor 13b detects the torque which a driver | operator gives to the steering part 4, for example.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域、その周辺の物体(障害物、人間、自転車、車両等)を含む車両1の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。   Further, as illustrated in FIG. 2, for example, four imaging units 15 a to 15 d are provided in the vehicle body 2 as the plurality of imaging units 15. The imaging unit 15 is a digital camera including an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate. The imaging unit 15 has a wide-angle lens or a fish-eye lens, respectively, and can capture a range of, for example, 140 ° to 220 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set obliquely downward. Therefore, the imaging unit 15 sequentially determines the external environment around the vehicle 1 including the road surface on which the vehicle 1 can move, the area in which the vehicle 1 can be parked, and surrounding objects (obstacles, people, bicycles, vehicles, etc.). A photograph is taken and output as captured image data.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパ等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。また、ECU14は、撮像部15で得られた広角画像のデータに演算処理や画像処理を実行し、特定の領域を切り出した画像を生成したり、特定の領域のみを示す画像データを生成したりする。また、ECU14は、撮像画像データを撮像部15が撮像した視点とは異なる仮想視点から撮像したような仮想画像データに変換することができる。例えば、車両1を上空から俯瞰したような俯瞰画像を示す仮想画像データに変換することができる。また、ECU14は、撮像部15が取得した撮像画像データの視線方向とは異なる視線方向の視線画像データに変換することができる。例えば、視線を車両1の正面に向けたときの視線画像データや視線を側方に向けたときの視線画像データに変換することができる。ECU14は、取得した画像データを表示装置8に表示することで、例えば、車両1の右側方や左側方の安全確認や車両1を俯瞰してその周囲の安全確認を実行できるような周辺監視情報を提供する。   The imaging unit 15a is located, for example, at the rear end 2e of the vehicle body 2, and is provided on a wall portion below the rear trunk door 2h. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g. The imaging unit 15c is located, for example, at the end 2c on the front side of the vehicle body 2, that is, the front side in the vehicle front-rear direction, and is provided on a front bumper or the like. The imaging unit 15d is located, for example, at the left end 2d of the vehicle body 2, that is, the left end 2d in the vehicle width direction, and is provided in the door mirror 2g as a left protruding portion. The ECU 14 performs arithmetic processing and image processing based on the image data obtained by the plurality of imaging units 15, generates an image with a wider viewing angle, or creates a virtual overhead view image when the vehicle 1 is viewed from above. Can be generated. Further, the ECU 14 performs arithmetic processing and image processing on the wide-angle image data obtained by the imaging unit 15 to generate an image obtained by cutting out a specific area, or generate image data indicating only the specific area. To do. Further, the ECU 14 can convert the captured image data into virtual image data captured from a virtual viewpoint different from the viewpoint captured by the imaging unit 15. For example, it can be converted into virtual image data indicating an overhead image as if the vehicle 1 is overhead. In addition, the ECU 14 can convert the line-of-sight image data with a line-of-sight direction different from the line-of-sight direction of the captured image data acquired by the imaging unit 15. For example, it is possible to convert to line-of-sight image data when the line of sight is directed to the front of the vehicle 1 or line-of-sight image data when the line of sight is directed to the side. The ECU 14 displays the acquired image data on the display device 8, for example, surrounding monitoring information that allows the vehicle 1 to perform a safety check on the right side or the left side of the vehicle 1 or perform a safety check on its surroundings by overlooking the vehicle 1. I will provide a.

なお、ECU14は、撮像部15から提供される撮像画像データから車両1の周辺の路面に示された区画線等を識別し、区画線等に示された駐車区画を検出(抽出)して、駐車支援を実行することもできる。   The ECU 14 identifies the lane markings and the like indicated on the road surface around the vehicle 1 from the captured image data provided from the imaging unit 15, detects (extracts) the parking lane indicated by the lane markings, and the like. Parking assistance can also be implemented.

図1、図2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a〜16dと、八つの測距部17a〜17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器、超音波ソナーとも称されうる。測距部16は、本実施形態において、例えば車両1を駐車する際に、車両1と並ぶ第一の障害物(隣接車両)や駐車するためのスペースの奥側に存在する第二の障害物(例えば、縁石や段差、壁、フェンス等)を検出し、その障害物までの距離を測定することができる。また、測距部17は、例えば車両1に対して障害物(物体)が所定距離を超えて接近した場合、その接近する障害物(物体)を検出し、その障害物までの距離を測定することができる。特に、車両1の後方両側に配置された測距部17a,17dは、車両1が後退しながら縦列駐車のスペースに進入する場合の車両1の後方コーナ部と第一の障害物(隣接車両)との距離や、進入後さらに後方コーナ部と第二の障害物(壁等)との距離を測定するセンサ(クリアランスソナー)として機能する。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、車両1に周囲に存在する物体(静止物体や移動物体)を検出する物体検出部の一例である。静止物体としては、駐車車両、壁、縁石、街路樹等であり、移動物体としては、走行車両、自転車、歩行者、動物等である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。測距部17は、物体(障害物)が所定の距離まで接近したことを検出する接近センサとして機能しうる。   As illustrated in FIGS. 1 and 2, the vehicle body 2 includes, for example, four distance measuring sections 16 a to 16 d and eight distance measuring sections 17 a to 17 h as the plurality of distance measuring sections 16 and 17. ing. The distance measuring units 16 and 17 are, for example, sonar that emits ultrasonic waves and captures the reflected waves. The sonar may also be referred to as a sonar sensor, an ultrasonic detector, or an ultrasonic sonar. In the present embodiment, for example, when the vehicle 1 is parked, the distance measuring unit 16 is a first obstacle (adjacent vehicle) aligned with the vehicle 1 or a second obstacle existing on the far side of the space for parking. (For example, curbs, steps, walls, fences, etc.) can be detected and the distance to the obstacle can be measured. For example, when an obstacle (object) approaches the vehicle 1 beyond a predetermined distance, the distance measuring unit 17 detects the approaching obstacle (object) and measures the distance to the obstacle. be able to. In particular, the distance measuring units 17a and 17d disposed on both sides of the rear of the vehicle 1 include the rear corner portion of the vehicle 1 and the first obstacle (adjacent vehicle) when the vehicle 1 enters the parallel parking space while moving backward. And a sensor (clearance sonar) that measures the distance between the rear corner and the second obstacle (such as a wall) after entering. The ECU 14 can measure the presence or absence of an object such as an obstacle located around the vehicle 1 and the distance to the object based on the detection results of the distance measuring units 16 and 17. That is, the distance measuring units 16 and 17 are an example of an object detecting unit that detects an object (a stationary object or a moving object) existing around the vehicle 1. The stationary objects are parked vehicles, walls, curbs, street trees, and the like, and the moving objects are traveling vehicles, bicycles, pedestrians, animals, and the like. The distance measuring unit 17 can be used, for example, for detecting an object at a relatively short distance, and the distance measuring unit 16 can be used for detecting an object at a relatively long distance farther than the distance measuring unit 17, for example. The distance measuring unit 17 can be used, for example, for detecting an object in front of and behind the vehicle 1, and the distance measuring unit 16 can be used for detecting an object on the side of the vehicle 1. The distance measuring unit 17 can function as an proximity sensor that detects that an object (obstacle) has approached a predetermined distance.

ECU14は、測距部16や測距部17で取得した情報に基づき、車両1の周囲に存在する物体の外形形状を示す画像の生成も可能である。つまり、ECU14が撮像画像データから種々の画像データを生成(変換)する際に、測距部16や測距部17で取得した情報を用いて、変換後の画像データを補間して、車両1の周囲の状況をより明確(詳細)に示すデータを生成することができる。例えば、より立体感を有する画像を形成することができる。また、測距部16,17で取得した情報(超音波による撮像画像データ)に基づき、形状認識を行い、静止物体や移動物体の種類を識別してユーザに提供するようにしてもよい。例えば、接近するものが何であるかをユーザに通知して、より注意を喚起するようにすることができる。なお、測距部16,17としてレーザスキャナを用いてもよい。この場合、より詳細にデータを取得可能で、物体の外形形状の精度向上に寄与することができる。例えば、視点変換や視線変換を行う場合、本来の物体の形状が歪んだり、一部欠落したりする場合がある。このような場合、レーザスキャナで取得した詳細なデータを用いることにより、歪みを軽減したり、欠落を補間して物体の三次元形状をより正確に再現することができる。   The ECU 14 can also generate an image showing the outer shape of an object existing around the vehicle 1 based on information acquired by the distance measuring unit 16 or the distance measuring unit 17. That is, when the ECU 14 generates (converts) various image data from the captured image data, the information acquired by the distance measurement unit 16 or the distance measurement unit 17 is used to interpolate the converted image data, and the vehicle 1 It is possible to generate data that more clearly (details) indicate the situation around the. For example, an image having a more stereoscopic effect can be formed. Further, shape recognition may be performed on the basis of information acquired by the distance measuring units 16 and 17 (captured image data using ultrasonic waves), and the types of stationary objects and moving objects may be identified and provided to the user. For example, the user can be notified of what is approaching and be more alert. A laser scanner may be used as the distance measuring units 16 and 17. In this case, data can be acquired in more detail, which can contribute to improving the accuracy of the outer shape of the object. For example, when performing viewpoint conversion or line-of-sight conversion, the shape of the original object may be distorted or partially lost. In such a case, by using the detailed data acquired by the laser scanner, it is possible to reduce the distortion or to more accurately reproduce the three-dimensional shape of the object by interpolating the lack.

また、図4に例示されるように、周辺監視システム100(周辺監視装置)では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。   Further, as exemplified in FIG. 4, in the periphery monitoring system 100 (perimeter monitoring device), in addition to the ECU 14, the monitor device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, an accelerator sensor 20, a shift sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured as a CAN (controller area network), for example. The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring unit 16, the distance measuring unit 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23. Results, operation signals from the operation input unit 10 and the like can be received.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理や、車両1の移動目標位置(駐車目標位置、目標位置)の決定、車両1の誘導経路(誘導経路、駐車経路、駐車誘導経路)の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing. The CPU 14a, for example, performs image processing related to the images displayed on the display devices 8 and 12, determination of the movement target position (parking target position, target position) of the vehicle 1, and guidance route (guidance route, parking route) of the vehicle 1. , Parking guidance route), determination of presence / absence of interference with an object, automatic control of the vehicle 1, and cancellation of automatic control, etc., can be executed. The CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b, and execute arithmetic processing according to the program. The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. In addition, the display control unit 14 d mainly executes synthesis of image data displayed on the display device 8 among the arithmetic processing in the ECU 14. In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit that can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Further, an HDD (hard disk drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。   The brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses brake locking, an anti-slip device (ESC: electronic stability control) that suppresses side slip of the vehicle 1 during cornering, and enhances braking force ( Electric brake system that executes brake assist, BBW (brake by wire), etc. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator 18a. The brake system 18 can execute various controls by detecting brake lock, idle rotation of the wheels 3, signs of skidding, and the like from the difference in rotation between the left and right wheels 3. The brake sensor 18b is a sensor that detects the position of the movable part of the braking operation unit 6, for example. The brake sensor 18b can detect the position of a brake pedal as a movable part. The brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。   The steering angle sensor 19 is, for example, a sensor that detects the steering amount of the steering unit 4 such as a steering wheel. The rudder angle sensor 19 is configured using, for example, a hall element. The ECU 14 obtains the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19 and executes various controls. The rudder angle sensor 19 detects the rotation angle of the rotating part included in the steering unit 4. The rudder angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。   The accelerator sensor 20 is, for example, a sensor that detects the position of the movable part of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。   The shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7. The shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable part. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs a wheel speed pulse number indicating the detected rotation speed as a sensor value. The wheel speed sensor 22 may be configured using, for example, a hall element. The ECU 14 calculates the amount of movement of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22 and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

周辺監視システムを実現するECU14は、一例として、撮像部15が撮像した撮像画像データに基づき車両1を基準に一方の第1側方領域(例えば、車両1を基準に右方向の領域)を臨む第1視線画像データを取得し表示装置8に表示する。同様に、ECU14は、撮像部15が撮像した撮像画像データに基づき車両1を基準に他方の第2側方領域(例えば、車両1を基準に左方向の領域)を臨む第2視線画像データを取得し表示装置8に表示する。このとき、ECU14は、表示装置8に第1視線画像データに基づく画像を表示させた後に当該第1視線画像データに基づく画像に代えて第2視線画像データに基づく画像を表示する。ECU14は、例えば、交差点に車両1を進入させる際にユーザがよく行う右側方の安全確認及びそれに続く左側方の安全確認を行う動作を表示装置8上に各側方画像を表示することにより実現している。なお、ECU14は、ユーザが左右確認を行うときのように、「右」、「左」、「右」のように、再度右確認を行うような表示を行ってもよい。   As an example, the ECU 14 that realizes the periphery monitoring system faces one first side region (for example, a region in the right direction with reference to the vehicle 1) based on the captured image data captured by the imaging unit 15. The first line-of-sight image data is acquired and displayed on the display device 8. Similarly, the ECU 14 generates second line-of-sight image data that faces the other second side region (for example, a region in the left direction with reference to the vehicle 1) based on the captured image data captured by the imaging unit 15. It is acquired and displayed on the display device 8. At this time, the ECU 14 displays an image based on the second line-of-sight image data instead of the image based on the first line-of-sight image data after causing the display device 8 to display an image based on the first line-of-sight image data. ECU14 implement | achieves the operation | movement which performs the safety check of the right side which a user often performs when approaching the vehicle 1 to an intersection, and the subsequent left side safety check, for example by displaying each side image on the display apparatus 8. doing. Note that the ECU 14 may perform a display such as “right”, “left”, and “right” so that the right confirmation is performed again, such as when the user confirms the left and right.

例えば、車両1が現在の走行路から当該走行路と交差する道路との交差点に進入する場合や駐車している状態から走行路に進入する場合を考える。この場合、ユーザ(運転者)は、車両1のフロント部分を少しずつ交差点や道路に進入させながら運転席に着座した姿勢のまま前傾姿勢をとり、左右方向の確認をしようとすることがある。一方、本実施形態の車両1の場合、前述したように、車両前後方向の前方側の端部2cに撮像部15cを備える。そして、この撮像部15cは、水平方向には例えば140°〜220°の範囲を撮影することができる。つまり、少なくとも車両1の前方側の端部2cが交差点等に進入すれば、ユーザが交差点より手前の位置(交差点の左右方向が見えない位置)にいる場合でも撮像部15cは、第1側方領域(例えば右側方領域)及び第2側方領域(例えば左側方領域)の情報を撮像することができる。そして、ECU14は、取得した撮像画像データに基づき、右側方領域の画像を表示装置8に表示し、それに続いて(代えて)左側方領域の画像を表示装置8に表示することで、ユーザの着座姿勢を変えさせることなく、前進進入する道路の左右確認を表示装置8の画面上で行わせることができる。なお、車両前後方向の後方側の端部2eに配置された撮像部15aが撮像する撮像画像データを用いることにより、車両1を後退走行させながら交差点に進入させる場合でも左右側方の画像を表示装置8に表示することができる。つまり、ユーザの着座姿勢を変えさせることなく、後退進入する道路の左右確認を表示装置8の画面上で行わせることができる。   For example, consider a case where the vehicle 1 enters an intersection with a road intersecting with the current road from the current road or when entering the road from a parked state. In this case, the user (driver) may try to check the right and left direction by taking a forward leaning posture while sitting in the driver's seat while gradually approaching the front portion of the vehicle 1 into the intersection or road. . On the other hand, in the case of the vehicle 1 according to the present embodiment, as described above, the imaging unit 15c is provided at the front end 2c in the vehicle front-rear direction. And this imaging part 15c can image | photograph the range of 140 degrees-220 degrees, for example in a horizontal direction. That is, if at least the end 2c on the front side of the vehicle 1 enters an intersection or the like, the imaging unit 15c can be connected to the first side even when the user is in a position before the intersection (a position where the left and right directions of the intersection cannot be seen). Information on a region (for example, a right side region) and a second side region (for example, a left side region) can be captured. Then, the ECU 14 displays an image of the right side region on the display device 8 based on the acquired captured image data, and subsequently (instead of) displaying an image of the left side region on the display device 8, thereby Without changing the seating posture, it is possible to check the right and left of the road to be moved forward on the screen of the display device 8. By using the captured image data captured by the imaging unit 15a disposed at the rear end 2e in the vehicle front-rear direction, left and right side images are displayed even when the vehicle 1 is traveling backward while entering the intersection. It can be displayed on the device 8. That is, it is possible to check the right and left of the road to be moved backward on the screen of the display device 8 without changing the seating posture of the user.

ECU14に含まれるCPU14aは、上述したような左右確認用の第1視線画像データ及び第2視線画像データに基づく画像表示の提供を実現するために、図5に示されるように画像取得部30、操作受付部32、データ制御部34(制御部)等を含む。データ制御部34は、例えば画像変換部36を含む。画像取得部30、操作受付部32、データ制御部34、画像変換部36は、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現可能である。   The CPU 14a included in the ECU 14 includes an image acquisition unit 30 as shown in FIG. 5 in order to provide image display based on the first and second line-of-sight image data for left-right confirmation as described above. An operation receiving unit 32, a data control unit 34 (control unit), and the like are included. The data control unit 34 includes, for example, an image conversion unit 36. The image acquisition unit 30, the operation reception unit 32, the data control unit 34, and the image conversion unit 36 can be realized by reading a program installed and stored in a storage device such as the ROM 14b and executing it.

画像取得部30は、車両1に設けられて当該車両1の周辺を撮像する撮像部15から出力された撮像画像データを表示制御部14dを介して取得する。なお、表示制御部14dは、撮像部15で撮像した撮像画像データをそのままの状態で表示装置8や表示装置12に出力してもよい。この場合、操作部14g等の入力装置を用いてユーザに希望する表示内容を選択させるようにしてもよい。つまり、表示制御部14dは、操作部14gの操作により選択された画像を選択的に表示する。例えば撮像部15aで撮像した車両1の後方画像を表示させたり、撮像部15dで撮像した左側方画像を表示させたりすることができる。   The image acquisition unit 30 acquires captured image data output from the imaging unit 15 provided in the vehicle 1 and imaging the periphery of the vehicle 1 via the display control unit 14d. The display control unit 14d may output the captured image data captured by the imaging unit 15 to the display device 8 or the display device 12 as it is. In this case, the display contents desired by the user may be selected using an input device such as the operation unit 14g. That is, the display control unit 14d selectively displays an image selected by the operation of the operation unit 14g. For example, a rear image of the vehicle 1 captured by the imaging unit 15a can be displayed, or a left side image captured by the imaging unit 15d can be displayed.

操作受付部32は、操作入力部10や操作部14gの操作入力による信号を取得する。操作部14gは、例えば、押しボタンやトグルスイッチ、ロータリスイッチ等であり、ユーザによる第1側方領域(例えば右側方領域)や第2側方領域(例えば左側方領域)を示す周辺監視画像(左右確認画像)の表示の要求やキャンセル、その他各種設定を行うことができる。また、操作受付部32は、図示しないイグニッションスイッチのON信号を受け付け、そのON信号を契機に周辺監視画像(左右確認画像)の表示要求を取得したと見なしてもよい。例えば、ユーザが車両1に乗り込み、イグニッションスイッチをONした場合に、車両1を発進させるのに先立ち、車両1の周囲の状況をユーザに通知するように左右確認画像を自動的に表示するようにしてもよい。また、操作受付部32は、別の発進を示す信号を受け付けてもよい。例えば、操作受付部32は、変速操作部7の「Dレンジ」への移動や「Rレンジ」への移動、パーキングブレーキのOFF操作等を示す信号を受け付けてもよい。これらの信号も車両1を発進させるときの意志を示す信号となりうるので、ユーザが車両1を発進させるのに先立ち、車両1の周囲の状況をユーザに通知するように左右確認画像を自動的に表示するようにしてもよい。   The operation receiving unit 32 acquires a signal generated by an operation input from the operation input unit 10 or the operation unit 14g. The operation unit 14g is, for example, a push button, a toggle switch, a rotary switch, or the like, and a peripheral monitoring image (a left side region, for example) indicating a first side region (for example, a right side region) or a second side region (for example, a left side region) by the user. (Right / left confirmation image) display request, cancellation, and other various settings can be made. Further, the operation receiving unit 32 may receive an ON signal of an ignition switch (not shown), and may be regarded as having acquired a display request for a peripheral monitoring image (left / right confirmation image) triggered by the ON signal. For example, when the user gets into the vehicle 1 and turns on the ignition switch, the left and right confirmation image is automatically displayed to notify the user of the situation around the vehicle 1 before starting the vehicle 1. May be. Moreover, the operation reception part 32 may receive the signal which shows another start. For example, the operation reception unit 32 may receive a signal indicating movement of the shift operation unit 7 to the “D range”, movement to the “R range”, a parking brake OFF operation, or the like. Since these signals can also be signals indicating the intention to start the vehicle 1, before the user starts the vehicle 1, the left and right confirmation images are automatically displayed so as to notify the user of the situation around the vehicle 1. You may make it display.

データ制御部34に含まれる画像変換部36は、画像取得部30が取得した撮像画像データをユーザが左右確認を行う場合に見る光景と同様な内容の画像に変換する。例えば、車両1が前進走行により交差点に進入する場合を考える。この場合、撮像部15cが撮像した撮像画像データが用いられる。前述したように、撮像部15cは、広角レンズまたは魚眼レンズを搭載しているので、水平方向には例えば190°の範囲を撮影して、広角画像のデータを取得することができる。つまり、車両1の進行方向(例えば前方)を含む広範囲の画像データを効率的に取得できる。撮像部15cが撮像した撮像画像データは、広範囲の情報を含むが、画像の周縁部分が大きく歪み、表示装置8に表示した場合に現実世界とは雰囲気の異なる内容が表示される。また、撮像部15cの視線方向(光軸方向)は、車両1の正面方向を向いているので、撮像部15cが撮像した撮像画像データにおける第1側方領域(右側方領域)や第2側方領域(左側方領域)の画像は、斜視したような画像になる。その結果、不慣れなユーザにとって、特に右側方領域や左側方領域の画像内容の理解が難しい場合がある。そこで、画像変換部36は、撮像画像データに基づく画像の視点変換処理及び視線変換処理を行うとともに歪み補正処理を行う。また、ユーザが車両1の前端部に立ち右側方に目を向けた場合に視認できる範囲に対応する画像になるようにトリミング処理を行い第1視線画像データに変換する。画像変換部36は、同様な処理を行いユーザが車両1の前端部に立ち左側方に目を向けた場合に視認できる範囲に対応する第2視線画像データに変換する。視点変換処理や視線変換処理は、周知の種々の処理手法で実行することができる。一例として、画像変換部36は、撮像部15cにより撮像された車両1の右側方領域、左側方領域、前方領域を含む撮像画像データに、例えばROM14b等に保持されたマッピングテーブルの変換情報を適用して変換画像データを生成する。例えば、画像変換部36は、撮像画像データを車両1の進行方向における車両先端位置から第1側方領域を臨む平面画像(第1平面画像データと称する場合もある)を生成して第1視線画像データとする。同様に、第2側方領域を臨む平面画像(第2平面画像データと称する場合もある)を生成する。   The image conversion unit 36 included in the data control unit 34 converts the captured image data acquired by the image acquisition unit 30 into an image having the same content as a sight to be seen when the user performs left / right confirmation. For example, consider a case where the vehicle 1 enters an intersection by traveling forward. In this case, captured image data captured by the imaging unit 15c is used. As described above, since the imaging unit 15c is equipped with a wide-angle lens or a fish-eye lens, it is possible to acquire a wide-angle image data by photographing a range of, for example, 190 ° in the horizontal direction. That is, a wide range of image data including the traveling direction (for example, forward) of the vehicle 1 can be efficiently acquired. The captured image data captured by the imaging unit 15 c includes a wide range of information, but the peripheral portion of the image is greatly distorted, and when displayed on the display device 8, content different from the real world is displayed. In addition, since the line-of-sight direction (optical axis direction) of the imaging unit 15c faces the front direction of the vehicle 1, the first side region (right side region) or the second side in the captured image data captured by the imaging unit 15c. The image in the side area (left side area) is a perspective image. As a result, it may be difficult for an unfamiliar user to understand the image contents of the right side region and the left side region. Therefore, the image conversion unit 36 performs an image viewpoint conversion process and a line-of-sight conversion process based on the captured image data, and performs a distortion correction process. In addition, the trimming process is performed so that an image corresponding to a range that can be visually recognized when the user stands at the front end of the vehicle 1 and looks to the right side is converted into first line-of-sight image data. The image conversion unit 36 performs the same processing and converts it into second line-of-sight image data corresponding to a range that can be visually recognized when the user stands at the front end of the vehicle 1 and looks to the left side. The viewpoint conversion process and the line-of-sight conversion process can be executed by various known processing methods. As an example, the image conversion unit 36 applies the conversion information of the mapping table held in, for example, the ROM 14b to the captured image data including the right side region, the left side region, and the front region of the vehicle 1 captured by the imaging unit 15c. Thus, converted image data is generated. For example, the image conversion unit 36 generates a planar image (sometimes referred to as first planar image data) that faces the first lateral region from the vehicle front end position in the traveling direction of the vehicle 1 as the captured image data and generates the first line of sight. Let it be image data. Similarly, a planar image (sometimes referred to as second planar image data) facing the second side region is generated.

本実施形態の場合、ROM14bは、例えば、車両1のフロント左コーナ部の近傍にユーザが立ち、車両1の右側方側を臨んだ場合に視認できる内容を表示できる第1視線画像データ(第1平面画像データ)が撮像画像データから生成できるようなマッピングテーブルを予め保持している。同様に、車両1のフロント右コーナ部の近傍にユーザが立ち、車両1の左側方側を臨んだ場合に視認できる内容を表示できる第2視線画像データ(第2平面画像データ)が撮像画像データから生成できるようなマッピングテーブルを予め保持している。なお、ECU14は、第1視線画像データ(第1平面画像データ)による画像の表示を実行した後、これに代えて第2視線画像データ(第2平面画像データ)による画像の表示を実行するが、この切り替えは、第1視線画像データによる画像の表示後、直ちに第2視線画像データによる画像の表示に切り替えるようにしてもよい。また、第1視線画像データに基づく画像の表示から第2視線画像データに基づく画像の表示へ切り替える間に車両1の進行方向を含む正面領域を臨む第3視線画像データに基づく画像を表示するようにしてもよい。つまり、ECU14は、第1視線画像データに基づく画像の表示から第2視線画像データに基づく画像の表示へ徐々に遷移させながら表示の切り替えを行うようにしてもよい。この場合、ROM14bは、例えば、車両1のフロント中央部の近傍にユーザが立ち、車両1の前方を臨んだ場合に視認できる内容を表示できる第3視線画像データが撮像画像データから生成できるようなマッピングテーブルを予め保持している。なお、マッピングテーブルの変換情報は、視線方向ごとに準備することが望ましい。この場合、第3視線画像データによる画像を含む遷移表示を行う場合、連続性のあるスムーズな動画で表示されることが望ましい。そのため、マッピングテーブルの変換情報は、視線方向が例えばA°変化するごと視線画像データが生成できるように準備される。なお、マッピングテーブルの変換情報の数を増やせば、生成される視線画像データの数(フレーム数)は増加して滑らかな動画が作成できるが、CPU14aの処理負荷が増加する傾向がある。逆に、マッピングテーブルの変換情報の数を少なくすれば生成される視線画像データの数も減少し遷移画像(動画)の品質が低下する場合があるが、CPU14aの処理負荷は軽減可能となる。したがって、要求される画像(実質的な動画)の品質に応じて、マッピングテーブルの変換情報の数を決定することができる。なお、マッピングテーブルの変換情報の数を少なくする場合は、動画を作成する際に前後の視線画像データに基づく補間処理を行い動画の修正(コマ落ち補正)を行うようにしてもよい。以下の説明では、ECU14は、第1視線画像データに基づく画像の表示と第2視線画像データに基づく画像の表示との間に第3視線画像データによる画像の表示を挟み、徐々に視線方向を遷移させながら表示の切り替えを行う場合を示す。   In the case of the present embodiment, the ROM 14b is configured to display, for example, first line-of-sight image data (first) that can be displayed when the user stands near the front left corner of the vehicle 1 and faces the right side of the vehicle 1. A mapping table that can be generated from captured image data is stored in advance. Similarly, the second line-of-sight image data (second plane image data) that can be displayed when the user stands near the front right corner of the vehicle 1 and faces the left side of the vehicle 1 is captured image data. A mapping table that can be generated from is stored in advance. The ECU 14 executes image display using the first line-of-sight image data (first plane image data), and then executes image display using the second line-of-sight image data (second plane image data) instead. This switching may be performed immediately after the display of the image based on the first line-of-sight image data, to the display of the image based on the second line-of-sight image data. Further, an image based on the third line-of-sight image data facing the front area including the traveling direction of the vehicle 1 is displayed while switching from the image display based on the first line-of-sight image data to the image display based on the second line-of-sight image data. It may be. That is, the ECU 14 may switch display while gradually transitioning from displaying an image based on the first line-of-sight image data to displaying an image based on the second line-of-sight image data. In this case, for example, the ROM 14b can generate third line-of-sight image data that can display contents visible when the user stands near the front center of the vehicle 1 and faces the front of the vehicle 1 from the captured image data. A mapping table is held in advance. Note that the conversion information of the mapping table is preferably prepared for each line-of-sight direction. In this case, when a transition display including an image based on the third line-of-sight image data is performed, it is desirable that the display is a continuous and smooth moving image. Therefore, the conversion information of the mapping table is prepared so that the line-of-sight image data can be generated every time the line-of-sight direction changes by, for example, A °. Note that if the number of pieces of conversion information in the mapping table is increased, the number of line-of-sight image data to be generated (number of frames) can be increased to create a smooth moving image, but the processing load on the CPU 14a tends to increase. Conversely, if the number of pieces of conversion information in the mapping table is reduced, the number of line-of-sight image data generated may be reduced and the quality of the transition image (moving image) may be reduced, but the processing load on the CPU 14a can be reduced. Therefore, the number of conversion information in the mapping table can be determined according to the quality of the required image (substantial moving image). When the number of pieces of conversion information in the mapping table is reduced, when moving images are created, interpolation processing based on previous and next line-of-sight image data may be performed to correct the moving images (frame drop correction). In the following description, the ECU 14 sandwiches the display of the image based on the third visual line image data between the display of the image based on the first visual line image data and the display of the image based on the second visual line image data, and gradually changes the visual line direction. The case where the display is switched while transitioning is shown.

データ制御部34は、画像変換部36が生成した複数の視線画像データを、視線方向が車両1の右から左または左から右へ移動しているような動画になるように配列し、表示制御部14dに供給して表示装置8に表示させる。図6は、表示装置8に表示される左右確認のための動画を簡易的にコマ送り形式で示した表示例である。なお、図6は、説明のために、車両1の左右斜め前方に例えば立方体の物体40,42(障害物)が存在する模式的な場面を示している。   The data control unit 34 arranges the plurality of line-of-sight image data generated by the image conversion unit 36 such that the line-of-sight direction is moving from right to left or from left to right of the vehicle 1, and display control is performed. It is supplied to the part 14d and displayed on the display device 8. FIG. 6 is a display example in which a moving image for left / right confirmation displayed on the display device 8 is simply shown in a frame advance format. For the sake of explanation, FIG. 6 shows a schematic scene in which, for example, cubic objects 40 and 42 (obstacles) exist diagonally forward from the left and right of the vehicle 1.

ECU14は、表示装置8に、まず、俯瞰状態で車両1の全体及びその周囲全体を表示する(画面P1〜画面P3)。この画像は、撮像部15a〜15dで得られる撮像画像データに周知の視点変換処理及び歪み補正処理を施すことにより得ることができる。このような俯瞰画像を表示することで、車両1の周囲の状況の大まかな概要をユーザに提示することができる。また、この俯瞰画像の表示は左右確認のための画像表示がこれから開始されることをユーザに通知するための開始デモ(画面P1〜画面P4)として利用することができる。なお、撮像部15a〜15dの撮像画像データでは、俯瞰画像に表示する車両1の外形の全てに関する情報は取得できない。そのため、俯瞰画像で利用する車両1の外形データは、予めROM14bやSSD14fに記憶しておくことが望ましい。   The ECU 14 first displays the entire vehicle 1 and its entire periphery in a bird's-eye view on the display device 8 (screen P1 to screen P3). This image can be obtained by performing known viewpoint conversion processing and distortion correction processing on the captured image data obtained by the imaging units 15a to 15d. By displaying such a bird's-eye view image, a rough outline of the situation around the vehicle 1 can be presented to the user. Further, the display of the bird's-eye view image can be used as a start demonstration (screen P1 to screen P4) for notifying the user that an image display for left / right confirmation will be started. In addition, the information regarding all the external shapes of the vehicle 1 displayed on a bird's-eye view image cannot be acquired in the captured image data of the imaging units 15a to 15d. Therefore, it is desirable to store the external data of the vehicle 1 used in the overhead image in advance in the ROM 14b or the SSD 14f.

続いて、ECU14は、第3視線画像データに基づく車両1の正面領域の画像を表示した後(画面P4)、第1側方領域の表示、つまり車両1の右側方の拡大表示(右方向の状況確認画像)を行う(画面P5〜画面P7)。この画像は、撮像部15cで得られる撮像画像データに周知の視点変換処理及び視線変換処理を施すとともに歪み補正処理を施すことで得ることができる。つまり、ユーザが車両1の前端部に立って正面から右方向を向いて周囲状況の確認を行う場合と同様な情報を表示装置8に表示することができる。この場合、表示領域は、主として車両1の右側方に限定されるため、表示装置8に車両1の左右及び正面の情報を一度に表示する場合に比べて、右側方の情報を拡大表示可能となり、右側方に関するより詳細な情報をユーザに提供できるとともに、表示内容に集中させることができる。また、正面領域から第1側方領域(右側方領域)へ遷移することを示す動画表示を行うことにより、ユーザに現在どちらの方向の画像が表示されようとしているかを認識させやすくすることができる。なお、本実施形態の場合、第1側方領域の表示を行う場合、仮想視点位置を車両1の左フロントコーナ付近に設定している。このような位置に仮想視点位置の設定を行うことにより、第1側方領域の表示範囲内に、車両1の右側方領域及び撮像部15cが配置された位置より左側の前方領域も併せて表示可能となり、右側方限定表示による拡大表示倍率をほとんど低下させることなく、より多くの情報、特に、ユーザが目視では確認し難いフロントバンパに接近した位置の情報をユーザに提供することができる。例えば、フロントバンパの直近に猫等の小動物が存在していた場合や、子供等が屈んでいた場合等でもその状況を容易にユーザに認識させることができる。なお、ECU14は、第1側方領域の画像を表示する場合、視線がほぼ真横を向いたとき(例えば画面P6)の状態で視線方向が変化しない視線固定画像を表示してもよい。この視線固定画像の表示期間は適宜設定可能であるが、数秒(例えば2秒)とすることができる。視線固定画像を表示することにより、車両1の右側方領域及び正面領域の一部の周辺状況の確認を詳細に行わせることができる。なお、この視線固定画像の表示中でも、第1視線画像データの更新が行われる。例えば、物体(他車両や歩行者等)が移動する状態がリアルタイムで表示装置8に表示される。また、視線固定画像は動画に比べ視線の移動を伴わないので、表示内容の確認が容易であるとともに、眼精疲労の軽減にも寄与できる。   Subsequently, the ECU 14 displays an image of the front area of the vehicle 1 based on the third line-of-sight image data (screen P4), and then displays the first side area, that is, an enlarged display on the right side of the vehicle 1 (rightward direction). (Status confirmation image) is performed (screen P5 to screen P7). This image can be obtained by performing well-known viewpoint conversion processing and line-of-sight conversion processing and distortion correction processing on the captured image data obtained by the imaging unit 15c. That is, it is possible to display the same information on the display device 8 as when the user stands at the front end of the vehicle 1 and turns to the right from the front to check the surrounding situation. In this case, since the display area is mainly limited to the right side of the vehicle 1, information on the right side can be enlarged and displayed as compared with the case where the left and right and front information of the vehicle 1 is displayed on the display device 8 at a time. More detailed information on the right side can be provided to the user, and the display content can be concentrated. Further, by performing a moving image display indicating a transition from the front area to the first side area (right side area), it is possible to make it easier for the user to recognize which direction the image is currently being displayed. . In the present embodiment, the virtual viewpoint position is set near the left front corner of the vehicle 1 when displaying the first side area. By setting the virtual viewpoint position at such a position, the right side area of the vehicle 1 and the front area on the left side of the position where the imaging unit 15c is arranged are also displayed within the display range of the first side area. Thus, it is possible to provide the user with more information, in particular, information on the position close to the front bumper that is difficult for the user to visually confirm without substantially reducing the enlargement display magnification by the right-side limited display. For example, even when a small animal such as a cat is present in the immediate vicinity of the front bumper or when a child or the like is bent, the situation can be easily recognized by the user. In addition, when displaying the image of the first lateral region, the ECU 14 may display a fixed line-of-sight image in which the line-of-sight direction does not change in a state where the line-of-sight is almost right side (for example, the screen P6). The display period of the line-of-sight fixed image can be set as appropriate, but can be set to several seconds (for example, 2 seconds). By displaying the fixed line-of-sight image, it is possible to confirm in detail the surrounding conditions of a part of the right side area and the front area of the vehicle 1. Note that the first line-of-sight image data is updated even during the display of the line-of-sight fixed image. For example, a state in which an object (another vehicle, a pedestrian, or the like) moves is displayed on the display device 8 in real time. In addition, since the line-of-sight fixed image does not move the line of sight compared to the moving image, it is easy to confirm the display content and it can contribute to the reduction of eye strain.

ところで、ユーザ(運転者)は、目視により正面領域(少なくとも車両1の前方数m先以降)をフロントウインドウ越しに確認することができる。そのため前方領域の内容(第3視線画像データの表示内容)を表示装置8に表示する画像で認識させる優先順位は、ユーザが直接目視し難い車両先端部から見た場合の側方領域の内容(第1視線画像データの表示内容、第2視線画像データの表示内容)に比べて低いと考えられる。そこで、本実施形態においては、ECU14は、第1視線画像データに基づく画像の表示期間及び第2視線画像データに基づく画像の表示期間より第3視線画像データに基づく画像の表示期間を短くしている。つまり、正面領域から右側方領域に至るまでの画像の遷移速度(動画表示速度)を右側方領域の表示を行う画面P5〜画面P7の画像遷移速度より早くしている。つまり、画面P4〜画面P5までが早送り表示となり、画面P5〜画面P6に至る期間及び画面P6の視線固定画像の表示を経て、画面P6〜画面P7に至る期間が第1速度より遅い遷移速度である第2速度(例えばスロー表示)で表示される。そして、表示場面が第3視線画像データを用いた表示範囲に達した場合(画面P7以降)に、第2速度より早い第1速度で画面P8〜画面P9までの動画表示を実行する。そして、画面P9〜画面P10に至る期間及び画面P10の視線固定画像の表示を経て、画面P10〜画面P11に至る期間が第1速度より遅い画像の遷移速度である第2速度(例えばスロー表示)で表示される。つまり、ECU14(データ制御部34)は、表示装置8に表示する車両1の側方領域の状況(表示内容)を十分詳細に認識させるために、側方領域の画像を視線固定画像を含めてゆっくりとした動画で表示する。一方、ユーザがフロントウインドウ越しに目視できる内容に対応する前方領域に関しては、側方領域の種類(右側方領域か左側方領域か)の確認や左右の側方領域の画像表示が連続的に行われるように見せるために利用することができる。このような、表示領域ごとに画像の遷移速度を変化させることにより、ユーザが実際に左右確認を行うときの動作、例えば、正面から首を右に回し右側方を確認した後、首を左に回し左側方を確認するという現実動作に近い表示を表示装置8上で行うことができる。その結果、表示装置8に表示された内容で周辺状況の確認を行うことに不慣れなユーザにも受け入れられやすい表示が実現できる。また、一連の動画表示の間で認識優先度の低い表示期間に関して早送り表示を行うことで表示装置8を目視するユーザの負担(疲労)の軽減ができる。その結果、逆に視線固定画像やゆっくりと表示されている部分の表示に集中させやすくなり、表示内容の認識度の向上に寄与できる。   By the way, the user (driver) can visually check the front area (at least a few meters ahead of the vehicle 1) through the front window. Therefore, the priority order for recognizing the contents of the front area (the display contents of the third line-of-sight image data) in the image displayed on the display device 8 is the contents of the side area when viewed from the front end of the vehicle, which is difficult for the user to see directly ( The display content of the first line-of-sight image data and the display content of the second line-of-sight image data are considered to be low. Therefore, in the present embodiment, the ECU 14 shortens the image display period based on the third line-of-sight image data from the image display period based on the first line-of-sight image data and the image display period based on the second line-of-sight image data. Yes. That is, the transition speed (moving picture display speed) of the image from the front area to the right area is made faster than the image transition speeds of the screens P5 to P7 that display the right area. That is, the screen P4 to the screen P5 are fast-forward display, the period from the screen P5 to the screen P6 and the period from the screen P6 to the screen P7 through the display of the fixed line-of-sight image on the screen P6 are slower than the first speed. It is displayed at a certain second speed (for example, slow display). When the display scene reaches the display range using the third line-of-sight image data (after the screen P7), the moving image display from the screen P8 to the screen P9 is executed at the first speed faster than the second speed. A second speed (for example, slow display) that is a transition speed of an image that is slower than the first speed through the period from the screen P9 to the screen P10 and the display of the fixed line-of-sight image on the screen P10. Is displayed. That is, the ECU 14 (data control unit 34) includes the image of the side area including the line-of-sight fixed image in order to recognize the situation (display contents) of the side area of the vehicle 1 displayed on the display device 8 in sufficient detail. Display a slow video. On the other hand, for the front area corresponding to the contents that the user can see through the front window, the type of the side area (right side area or left side area) is confirmed and the image display of the left and right side areas is continuously performed. Can be used to make it look like By changing the transition speed of the image for each display area, the operation when the user actually confirms left and right, for example, turning the neck from the front to the right and confirming the right side, then the neck to the left A display close to the actual operation of checking the left side by turning can be performed on the display device 8. As a result, it is possible to realize a display that can be easily accepted by a user who is not accustomed to confirming the surrounding situation with the content displayed on the display device 8. Further, by performing fast-forward display for a display period with a low recognition priority between a series of moving image displays, it is possible to reduce a burden (fatigue) on the user who views the display device 8. As a result, conversely, it becomes easier to concentrate on the display of the fixed line-of-sight image and the slowly displayed portion, which can contribute to an improvement in the degree of recognition of the display content.

なお、別の実施形態では、画面P4〜画面P6までを第1速度で動画表示を行い、画面P6で視線固定画像を表示した後、画面P6〜画面P7に至る期間を第2速度(例えばスロー表示)で表示するようにしてもよい。つまり、正面から右側方の端部まで首を早く振り、そこからゆっくりと右側方の状況確認を行いながら左方向を向くというユーザの動作を再現するように表示制御を行ってもよい。同様に、画面P7〜画面P10までを第1速度で動画表示を行い、画面P10で視線固定画像を表示した後、画面P10〜画面P11に至る期間を第2速度(例えばスロー表示)で表示するようにしてもよい。つまり、右側方領域の確認後に正面を経て左側方の端部まで首を早く振り、そこからゆっくりと左側方の状況確認を行いながら右方向を向くというユーザの動作を再現するように表示制御を行ってもよい。   In another embodiment, the moving image is displayed from the screen P4 to the screen P6 at the first speed, the fixed line-of-sight image is displayed on the screen P6, and the period from the screen P6 to the screen P7 is set to the second speed (for example, the slow speed). Display). That is, the display control may be performed so as to reproduce the user's action of swinging the neck quickly from the front to the right end and then turning to the left while slowly checking the right side situation. Similarly, the moving images are displayed from the screen P7 to the screen P10 at the first speed, the fixed line-of-sight image is displayed on the screen P10, and then the period from the screen P10 to the screen P11 is displayed at the second speed (for example, slow display). You may do it. In other words, after confirming the right side area, display control is performed so as to reproduce the user's action of swinging the neck quickly through the front to the left end and then turning right while slowly checking the situation on the left side. You may go.

なお、図6の例の場合、ECU14は、第1視線画像データに基づく画像の表示(第1側方領域の表示、右側方領域の表示、画面P5〜画面P7の表示)、第2視線画像データに基づく画像の表示(第2側方領域の表示、左側方領域の表示,画面P9〜画面P11の表示)に続き、画面P12を経て再度第1視線画像データに基づく画像の表示(第1側方領域の表示、右側方領域の表示、画面P13〜画面P15の表示)を行う。このような表示を行うことで、例えば、一般的によくユーザが行う、「右」、「左」、「右」の順の確認動作により近い表示が実現可能となり、ユーザの安心感をより向上させることができるとともに、側方領域の確認精度をより向上させることができる。   In the case of the example in FIG. 6, the ECU 14 displays an image based on the first line-of-sight image data (displays the first side area, displays the right side area, and displays the screens P5 to P7), the second line-of-sight image. Following the display of the image based on the data (display of the second side area, display of the left side area, display of the screens P9 to P11), the display of the image based on the first line-of-sight image data (first display) is performed again via the screen P12. Display of the side area, display of the right side area, and display of screens P13 to P15). By performing such a display, for example, a display closer to the confirmation operation in order of “right”, “left”, and “right”, which is generally performed by the user, can be realized, and the user's sense of security is further improved. In addition, it is possible to further improve the accuracy of confirmation of the side region.

ECU14は、「右」、「左」、「右」の順の確認動作に対応する表示か完了したら、画像遷移速度を第1速度に設定し、正面領域の表示から車両1の俯瞰表示に遷移させる終了デモ(画面P16〜画面P18)を表示して、一連の側方監視(周辺監視)のための表示が終了したことをユーザに通知する。   When the display corresponding to the confirmation operation in the order of “right”, “left”, and “right” is completed, the ECU 14 sets the image transition speed to the first speed, and transitions from the front area display to the overhead view display of the vehicle 1. An end demo (screen P16 to screen P18) to be displayed is displayed to notify the user that the display for a series of side monitoring (peripheral monitoring) has ended.

このような周辺監視システム100によれば、ユーザが一般的によく行う「左右確認」を再現するような画像表示が提供できる。その結果、表示装置8を用いた周辺監視画像をユーザに受け入れられやすい態様で提供できる。また、第1側方領域(例えば車両1の右側方)の画像と第2側方領域(例えば車両1の左側方)の画像が別々に表示されるので、表示装置8の限られた表示領域で個々の画像を最大限大きく表示できる。その結果、注目すべき情報を見落とす可能性を低減させることができる。   According to such a periphery monitoring system 100, it is possible to provide an image display that reproduces “right / left confirmation” that is generally performed by a user. As a result, it is possible to provide a peripheral monitoring image using the display device 8 in a manner that is easily received by the user. In addition, since the image of the first side region (for example, the right side of the vehicle 1) and the image of the second side region (for example, the left side of the vehicle 1) are displayed separately, the limited display region of the display device 8 Can display individual images as large as possible. As a result, the possibility of overlooking noticeable information can be reduced.

なお、図6に示す例では、車両1のフロント側の撮像部15cが撮像した撮像画像データを用いて、車両1のフロント側にユーザが立ち左右側方を確認したときと同様な画像を表示する例を示した。別の実施形態では、車両1のリア側の撮像部15aが撮像した撮像画像データを用いて、車両1のリア側にユーザが立ち左右側方を確認したときと同様な画像を表示してもよい。例えば、車両1が後退走行で駐車領域から出庫する場合や、後退走行で路地からその路地と交差する走行路に進入する場合等に有効な側方領域の画像の提供ができる。この場合、ユーザは、運転席で通常の着座姿勢のまま表示装置8の確認が可能で姿勢を捻る必要がないためユーザの負担軽減効果が大きい。   In the example illustrated in FIG. 6, the same image as when the user stands on the front side of the vehicle 1 and confirms the left and right sides is displayed using the captured image data captured by the imaging unit 15 c on the front side of the vehicle 1. An example to do. In another embodiment, even when a user stands on the rear side of the vehicle 1 and confirms the left and right sides using the captured image data captured by the rear imaging unit 15a of the vehicle 1, the same image is displayed. Good. For example, it is possible to provide an image of the side area that is effective when the vehicle 1 leaves the parking area during backward traveling or when the vehicle 1 enters the traveling road intersecting with the alley from backward traveling. In this case, since the user can check the display device 8 while keeping the normal sitting posture in the driver's seat and does not need to twist the posture, the user's burden reduction effect is great.

上述のような表示を行う周辺監視システム100の動作を図7のフローチャートを用いて説明する。なお、図7のフローチャートは、主として「右」、「左」、「右」の順に側方領域の画像を表示する例である。   The operation of the periphery monitoring system 100 that performs the display as described above will be described with reference to the flowchart of FIG. Note that the flowchart of FIG. 7 is an example in which the images of the side areas are mainly displayed in the order of “right”, “left”, and “right”.

CPU14a(ECU14)は、まず、側方領域画像の表示要求があるか否かを判定する(S100)。例えば、CPU14aは、操作入力部10や操作部14gを用いた入力操作によりユーザからの側方領域画像の表示要求があるか否か確認する。この場合、車両1の進行方向をユーザに入力させ、側方領域の表示に利用する撮像画像データ(撮像部15)を決定する(手動表示モード)。また、別の実施形態では、例えば、駐車支援システムを備えている場合、駐車したときの姿勢をECU14が記憶することができる。つまり、前進走行で出庫するか後退走行で出庫するかの情報が予め取得可能である。したがって、ECU14は、利用する撮像画像データ(撮像部15)を駐車支援時の情報に基づいて決定してもよい。また、ECU14は、変速操作部7の操作状態情報を利用してもよい。例えば、変速操作部7が「Pレンジ」の場合、前進走行で発進または交差点に進入しようとしていると見なすことができる。また、「Rレンジ」の場合、後退走行で発進または交差点に進入しようとしていると見なすことができる。また、低速で交差点に進入しようとしている場合、ナビゲーションシステムから車両1の位置や進行方向の情報を取得してもよい。そして、ECU14は、車両1が所定速度以下(例えば、5km/h以下)で走行し、交差点に進入しようとしている場合に、表示要求があったと見なし、車両1の進行方向に応じて利用する撮像画像データ(撮像部15)を決定するようにしてもよい(自動表示モード)。この他、表示要求は音声認識装置を用いて入力させるようにしてもよい。なお、撮像部15a〜15d及び測距部16,17は常時周囲状況を示す情報の取得を行っていてもよいし、必要な部分(方向)の情報を取得するようにしてもよい。   The CPU 14a (ECU 14) first determines whether or not there is a display request for the side region image (S100). For example, the CPU 14a checks whether or not there is a display request for the side area image from the user by an input operation using the operation input unit 10 or the operation unit 14g. In this case, the traveling direction of the vehicle 1 is input by the user, and the captured image data (imaging unit 15) used for displaying the side region is determined (manual display mode). In another embodiment, for example, when a parking assistance system is provided, the ECU 14 can store the attitude when the vehicle is parked. That is, it is possible to acquire in advance information on whether to go out in forward travel or to go out in reverse travel. Therefore, the ECU 14 may determine the captured image data to be used (imaging unit 15) based on information at the time of parking assistance. Further, the ECU 14 may use operation state information of the speed change operation unit 7. For example, when the speed change operation unit 7 is in the “P range”, it can be considered that the vehicle is going to start or enter an intersection in forward travel. In the case of the “R range”, it can be considered that the vehicle is going to start or enter an intersection in reverse travel. Moreover, when it is going to approach an intersection at low speed, you may acquire the information of the position and the advancing direction of the vehicle 1 from a navigation system. Then, the ECU 14 considers that there is a display request when the vehicle 1 travels at a predetermined speed or less (for example, 5 km / h or less) and is about to enter an intersection, and imaging that is used according to the traveling direction of the vehicle 1 Image data (imaging unit 15) may be determined (automatic display mode). In addition, the display request may be input using a voice recognition device. Note that the imaging units 15a to 15d and the distance measuring units 16 and 17 may always acquire information indicating a surrounding situation, or may acquire information on a necessary portion (direction).

CPU14aは、「表示要求なし」と判定した場合(S100のNo)、このフローを一旦終了する。一方、CPU14aが「表示要求あり」と判定した場合(S100のYes)、画像取得部30は、表示制御部14dを介して各撮像部15a〜15dが撮像した車両1の周辺の撮像画像データ(現在画像)を取得する(S102)。そして、画像変換部36は、取得された撮像画像データをROM14bが記憶するマッピングテーブルの変換情報を用いて、各視線方向の視線画像データ(俯瞰画像データも含む)を生成(変換)する(S104)。   When determining that “no display request” (No in S100), the CPU 14a temporarily ends this flow. On the other hand, when the CPU 14a determines that “display request is present” (Yes in S100), the image acquisition unit 30 captures captured image data around the vehicle 1 captured by the imaging units 15a to 15d via the display control unit 14d ( Current image) is acquired (S102). Then, the image conversion unit 36 generates (converts) the line-of-sight image data (including the overhead image data) in each line-of-sight direction using the conversion information of the mapping table stored in the ROM 14b for the acquired captured image data (S104). ).

データ制御部34は、後述する側方領域の再表示要求を操作受付部32が受け付けたか否かを確認する(S106)。そして、再表示要求が受け付けられていない場合(S106のNo)、データ制御部34は、表示要求のあったフロント側またはリア側の側方領域画像の表示が開始されることを示す開始デモの表示を開始する(S108)。図6の場合、画面P1〜画面P3がデモ画面の遷移を説明する図である。なお、図7のフローチャートは、ユーザが車両1のフロント側に立った場合に確認できる側方領域に相当する画像を表示する例を示す。図6の場合、開始デモの画像は、車両1の俯瞰状態から、車両1の後方に仮想視点位置が移動するとともに、ユーザの視線高さへ降下するように遷移する例を示している。このような俯瞰画像を表示することにより、デモ画像の表示中に車両1の周囲の大雑把な状況把握をユーザにさせることができる。なお、デモ画像は、このような俯瞰画像に限らず、例えば、画面P1〜画面P3のような俯瞰画像の表示を省略し、メッセージにより側方領域画像の表示を開始する旨をユーザに伝えるようにしてもよい。   The data control unit 34 confirms whether or not the operation receiving unit 32 has received a request for redisplaying a side area described later (S106). When the re-display request is not accepted (No in S106), the data control unit 34 starts the demonstration that indicates that the display of the front-side or rear-side side area image requested to be displayed is started. Display is started (S108). In the case of FIG. 6, screens P <b> 1 to P <b> 3 are diagrams for explaining the transition of the demo screen. 7 shows an example in which an image corresponding to a side area that can be confirmed when the user stands on the front side of the vehicle 1 is displayed. In the case of FIG. 6, the start demonstration image shows an example in which the virtual viewpoint position moves from the bird's-eye view state of the vehicle 1 to the rear of the vehicle 1 and descends to the user's line-of-sight height. By displaying such a bird's-eye view image, it is possible to make the user grasp the rough situation around the vehicle 1 while displaying the demo image. The demo image is not limited to such a bird's-eye view image. For example, the display of the bird's-eye view images such as the screens P1 to P3 is omitted, and the user is informed that the display of the side region image is started by a message. It may be.

デモ画像の表示が進み、第3視線画像データに基づく正面画像(画面P4、正面領域)が表示済みの場合(S110のYes)、データ制御部34は、第1速度で表示画像を右画像(第1視線画像データによる第1側方領域の画像)へ遷移させる(S112)。つまり、ユーザが車両1のフロントバンパの位置で首を右に回したような状態を再現する遷移画像(動画)の表示を実行する(画面P4〜画面P6)。そして、右側方の終端位置の画像(画面P6)で遷移画像を所定期間だけ(例えば、2秒)停止させて視線固定画像を表示する(S114)。視線固定画像を表示することにより画面P6の内容をユーザに詳細に確認させることができる。また、画面P6は、右側方領域に限定した表示になるので、右側方領域を拡大表示可能となり、表示装置8の限られた表示面積で右側方領域の画像内容の確認を詳細にユーザに行わせることができる。なお、S110で、まだ正面領域の画像表示が行われていない場合(S110のNo)、データ制御部34は、まだ開始デモが完了していないと判定し、S108に戻り、開始デモ用の俯瞰画像データを用いた表示を継続する。なお、デモ画像の遷移速度は、第1速度でもよいし、第1速度より遅い速度でもよい。   When the display of the demo image proceeds and the front image (screen P4, front region) based on the third line-of-sight image data has been displayed (Yes in S110), the data control unit 34 converts the display image to the right image (first image at the first speed). A transition is made to an image of the first lateral region based on the first line-of-sight image data (S112). That is, a transition image (moving image) that reproduces a state in which the user turns the neck to the right at the position of the front bumper of the vehicle 1 is displayed (screen P4 to screen P6). Then, the transition image is stopped for a predetermined period (for example, 2 seconds) in the image at the terminal position on the right side (screen P6), and the fixed line-of-sight image is displayed (S114). By displaying the fixed line-of-sight image, the content of the screen P6 can be confirmed in detail by the user. Further, since the screen P6 is limited to the right side area, the right side area can be enlarged and the image content of the right side area can be confirmed in detail by the user with the limited display area of the display device 8. Can be made. If the front area image display has not yet been performed in S110 (No in S110), the data control unit 34 determines that the start demonstration has not been completed yet, returns to S108, and overlooks the start demonstration. Continue to display using image data. The transition speed of the demo image may be the first speed or a speed slower than the first speed.

所定期間(例えば、2秒)の視線固定画像(画面P6)の表示が完了した場合、データ制御部34は、遷移速度が第1速度より遅い第2速度で視線方向が正面方向に徐々に移動するように、視線方向が異なる複数の第1視線画像データを順次表示する(S116)。つまり、データ制御部34は、第2速度で動画表示を行う(画面P6〜画面P7)。この場合も画像の遷移速度は、正面領域から右側方領域に遷移する場合に比べて遅いため、ユーザに遷移している間の画像内容の確認を容易かつ詳細に行わせることができるとともに、確認時の負担(視点移動にともなう眼精疲労等)を軽減させることができる。   When the display of the fixed line-of-sight image (screen P6) for a predetermined period (for example, 2 seconds) is completed, the data control unit 34 gradually moves the line-of-sight direction to the front direction at a second speed that is lower than the first speed. In this manner, a plurality of first line-of-sight image data having different line-of-sight directions are sequentially displayed (S116). That is, the data control unit 34 displays a moving image at the second speed (screen P6 to screen P7). In this case as well, the transition speed of the image is slower than the transition from the front area to the right area, so that the user can easily and in detail confirm the image contents while transitioning. It is possible to reduce the time burden (eye strain associated with movement of the viewpoint, etc.).

続いて、データ制御部34は、遷移画像が正面領域の画像(正面画像領域)に到達したか否か確認する(S118)。つまり、第3視線画像データの表示範囲にまだ遷移していない場合(S118のNo)、S116に戻り、第2速度での第1視線画像データの遷移表示を継続する。一方、遷移画像が正面領域の画像(正面画像領域)に到達した場合(S118のYes)、データ制御部34は、遷移速度を第1速度に切り替え、第3視線画像データを用いた正面領域の画像及び左画像(第2視線画像データによる第2側方領域の画像)へ遷移させる(S120)。つまり、ユーザが車両1のフロントバンパの位置で首を左に回したような状態を再現する遷移画像(動画)の表示を実行する(画面P7〜画面P10)。そして、左側方の終端位置の画像(画面P10)で遷移画像を所定期間だけ(例えば、2秒)停止させて視線固定画像を表示する(S122)。左側方領域においても視線固定画像を表示することにより画面P10の内容をユーザに詳細かつ容易に確認させることができる。また、画面P10は、左側方領域に限定した表示になるので、左側方領域を拡大表示可能となり、表示装置8の限られた表示面積で左側方領域の画像内容の詳細な確認をユーザに行わせることができる。   Subsequently, the data control unit 34 checks whether or not the transition image has reached the image of the front area (front image area) (S118). That is, when the transition to the display range of the third visual line image data has not yet been made (No in S118), the process returns to S116, and the transition display of the first visual line image data at the second speed is continued. On the other hand, when the transition image reaches the image of the front area (front image area) (Yes in S118), the data control unit 34 switches the transition speed to the first speed, and changes the front area using the third line-of-sight image data. Transition to the image and the left image (the image of the second lateral region based on the second line-of-sight image data) (S120). That is, a transition image (moving image) that reproduces a state in which the user turns the neck to the left at the position of the front bumper of the vehicle 1 is executed (screen P7 to screen P10). Then, the transition image is stopped for a predetermined period (for example, 2 seconds) in the image at the terminal position on the left side (screen P10), and the fixed line-of-sight image is displayed (S122). By displaying the fixed line-of-sight image also in the left side region, the user can confirm the contents of the screen P10 in detail and easily. Further, since the screen P10 is displayed limited to the left side area, the left side area can be enlarged and the user can check the image contents of the left side area in detail with the limited display area of the display device 8. Can be made.

所定期間(例えば、2秒)の視線固定画像(画面P10)の表示が完了した場合、データ制御部34は、左側方に視線を遷移させる場合と同様に、遷移速度が第1速度より遅い第2速度で視線方向が徐々に正面方向に移動するように、視線方向が異なる複数の第2視線画像データを順次表示する(S124)。つまり、データ制御部34は、第2速度での動画表示を行う(画面P10〜画面P11)。この場合も画像の遷移速度は、正面領域から左側方領域に遷移する場合に比べて遅いため、ユーザに遷移している間の画像内容の確認を容易かつ詳細に行わせることができるとともに、確認時の負担(視点移動にともなう眼精疲労等)を軽減させることができる。   When the display of the fixed line-of-sight image (screen P10) for a predetermined period (for example, 2 seconds) is completed, the data control unit 34 determines that the transition speed is lower than the first speed as in the case where the line of sight is shifted to the left side. A plurality of second line-of-sight image data with different line-of-sight directions are sequentially displayed so that the line-of-sight direction gradually moves in the front direction at two speeds (S124). That is, the data control unit 34 performs moving image display at the second speed (screen P10 to screen P11). In this case as well, the transition speed of the image is slower than the transition from the front area to the left area, so that the user can easily confirm the details of the image during the transition and confirm the details. It is possible to reduce the time burden (eye strain associated with movement of the viewpoint, etc.).

続いて、データ制御部34は、再度右側方領域の画像を表示させるための処理を実行する。つまり、遷移画像が正面領域の画像(正面画像領域)に到達したか否か確認する(S126)。そして、第3視線画像データの表示範囲にまだ遷移していない場合(S126のNo)、S124に戻り、第2速度での第2視線画像データの遷移表示を継続する。一方、遷移画像が正面領域の画像(正面画像領域)に到達した場合(S126のYes)、データ制御部34は、遷移速度を第1速度に切り替え、第3視線画像データを用いた正面領域の画像及び右画像(第1視線画像データによる第1側方領域の画像)へ遷移させる(S128)。つまり、ユーザが車両1のフロントバンパの位置で首を右に回したような状態を再現する遷移画像(動画)の表示を実行する(画面P11〜画面P14)。そして、右側方の終端位置の画像(画面P14)で遷移画像を所定期間だけ(例えば、2秒)停止させて視線固定画像を表示する(S130)。再度右側方領域において視線固定画像を表示することにより、画面P14の内容をユーザに詳細に確認させることができるとともに、最初に確認した右側方領域の状況を再確認させることが可能になり、ユーザの安心感を向上させることができるとともに、より信頼性の高い車両1の周辺状況を示す情報が提供できる。   Subsequently, the data control unit 34 executes processing for displaying the image of the right side area again. That is, it is confirmed whether or not the transition image has reached the image of the front area (front image area) (S126). If the transition has not yet been made to the display range of the third visual line image data (No in S126), the process returns to S124, and the transition display of the second visual line image data at the second speed is continued. On the other hand, when the transition image reaches the image of the front area (front image area) (Yes in S126), the data control unit 34 switches the transition speed to the first speed and the front area using the third line-of-sight image data. Transition to the image and the right image (image of the first lateral region based on the first line-of-sight image data) (S128). That is, a transition image (moving image) that reproduces a state in which the user turns the neck to the right at the position of the front bumper of the vehicle 1 is displayed (screen P11 to screen P14). Then, the transition image is stopped for a predetermined period (for example, 2 seconds) in the right end position image (screen P14), and the fixed line-of-sight image is displayed (S130). By displaying the fixed line-of-sight image in the right side area again, it is possible to make the user confirm the details of the screen P14 in detail and also to reconfirm the status of the right side area that was first confirmed. As well as more reliable information about the surroundings of the vehicle 1 can be provided.

2回目に表示する右側方領域の画像は、その時点で新たに撮像部15cが取得した撮像画像データに基づく第1視線画像データを用いて表示してもよい。また、別の実施例においては、1回目に表示した右側方領域の画像を再度表示するようにしてもよい。第1視線画像データや第2視線画像データを用いた側方画像は、前述したように拡大表示されているので、遠方までの情報を提供できる。例えば、遠方から接近する車両等の物体を早い段階でユーザに認識させることができる。つまり、1回目の右側方領域の画像と左側方領域の表示を経た2回目の右側方領域の画像の表示内容との間には、大きな差異が生じないと考えられる。そのため、1回目の右側方領域の表示を再確認用の画像として表示することも可能である。この場合、CPU14aにおける画像処理の負担が軽減できるというメリットがある。   The image of the right side area displayed for the second time may be displayed using the first line-of-sight image data based on the captured image data newly acquired by the imaging unit 15c at that time. In another embodiment, the image of the right-side area displayed for the first time may be displayed again. Since the side images using the first line-of-sight image data and the second line-of-sight image data are enlarged and displayed as described above, it is possible to provide information up to a distance. For example, the user can recognize an object such as a vehicle approaching from a distance at an early stage. That is, it is considered that there is no significant difference between the first right side image and the display content of the second right side image after the left side display. Therefore, it is also possible to display the first display of the right side area as an image for reconfirmation. In this case, there is an advantage that the image processing burden on the CPU 14a can be reduced.

データ制御部34は、2回目の右側方領域の画像(画面P14)の表示を所定期間(例えば、2秒)実行して視線固定画像の表示を完了させたら、遷移速度が第1速度より遅い第2速度で視線方向が徐々に正面方向に移動するように、視線方向が異なる複数の第2視線画像データを順次表示する(S132)。つまり、データ制御部34は、第2速度で動画表示を行う(画面P14〜画面P15)。この場合も画像の遷移速度は、正面領域から右側方領域に遷移する場合に比べて遅いため、ユーザに遷移している間の画像内容の確認を容易に行わせることができるとともに、確認時の負担(視点移動にともなう眼精疲労等)を軽減させることができる。   When the data control unit 34 executes the second display of the right-side image (screen P14) for a predetermined period (for example, 2 seconds) to complete the display of the fixed gaze image, the transition speed is slower than the first speed. A plurality of second line-of-sight image data having different line-of-sight directions are sequentially displayed so that the line-of-sight direction gradually moves in the front direction at the second speed (S132). That is, the data control unit 34 displays a moving image at the second speed (screen P14 to screen P15). Also in this case, the transition speed of the image is slower than the transition from the front area to the right area, so that the user can easily confirm the image contents while transitioning, and at the time of confirmation It is possible to reduce the burden (eye strain associated with the movement of the viewpoint).

続いて、データ制御部34は、側方領域の再表示要求があるか否か確認する(S134)。例えば、ユーザによる操作入力部10や操作部14gの操作が行われず、側方領域画像の再表示の要求が入力されていない場合(S134のNo)、データ制御部34は、第3視線画像データによる正面領域の画像(画面P16)で遷移画像の表示を停止させる(S136)。そして、側方領域画像の表示が終了されることを示す終了デモを表示する(S138)。つまり、ユーザの視線高さの正面領域の画像である画面P16から車両1を俯瞰する俯瞰画像へ表示内容を切り替え(画面P17、画面P18)、一連の側方領域を確認するための画像表示処理を終了する。   Subsequently, the data control unit 34 checks whether or not there is a request for redisplaying the side area (S134). For example, when the user does not operate the operation input unit 10 or the operation unit 14g and the request for redisplaying the side region image is not input (No in S134), the data control unit 34 displays the third line-of-sight image data. The display of the transition image is stopped on the image (screen P16) of the front area by (S136). Then, an end demonstration indicating that the display of the side area image is ended is displayed (S138). That is, the display content is switched from the screen P16 that is an image of the front area of the user's line-of-sight height to an overhead image that overlooks the vehicle 1 (screen P17, screen P18), and image display processing for confirming a series of side areas. Exit.

一方、S134において、ユーザによる操作入力部10や操作部14gの操作による側方領域画像の再表示の要求が入力されたことを操作受付部32が受け付けた場合(S134のYes)、S102の処理に移行する。つまり、再度周辺の撮像画像データの取得を行い、各視線方向の視線画像データを生成(変換)する(S104)。この場合、俯瞰画像データの生成を省略してもよい。S134において、再表示要求が成されているので、S106の処理では、再表示要求中となり(S106のYes)、S118の処理に移行して、それ以降の処理を実行する。つまり、再度、第2視線画像データにより第2側方領域(左側方領域)の画像を表示し、さらに、第1視線画像データによる第1側方領域(右側方領域)の画像を表示して左右の状況を確認するための処理を継続する。例えば、ユーザは、交通量の多い走行路に出る場合、安全な発進ができるまで左右の確認を繰り返すことがある。本実施形態の周辺監視システム100によれは、このような、継続した再確認動作も再現する表示ができる。その結果、よりユーザの確認動作に近い表示が実現できる。   On the other hand, in S134, when the operation accepting unit 32 accepts that a request for redisplaying the side area image by the operation of the operation input unit 10 or the operation unit 14g by the user is input (Yes in S134), the process of S102 Migrate to That is, the peripheral captured image data is acquired again, and line-of-sight image data in each line-of-sight direction is generated (converted) (S104). In this case, the generation of the overhead image data may be omitted. In S134, since a redisplay request has been made, in the process of S106, a redisplay request is in progress (Yes in S106), the process proceeds to S118, and the subsequent processes are executed. That is, an image of the second lateral region (left side region) is displayed again using the second line-of-sight image data, and an image of the first lateral region (right side region) based on the first line-of-sight image data is displayed again. Continue the process to check the left and right situation. For example, when a user goes out on a travel route with a large amount of traffic, the user may repeatedly check the left and right until a safe start can be made. According to the periphery monitoring system 100 of the present embodiment, such a display that reproduces the continuous reconfirmation operation can be performed. As a result, a display closer to the user's confirmation operation can be realized.

なお、再表示の要求は運転操作姿勢のまま行える方が望ましいので、例えば、ステアリングホイールに再表示要求用のスイッチを設けたり、音声認識システムにより再表示の要求を受け付けるようにしてもよい。また、側方領域の表示内容によっては、左側方領域の視線固定画像や右側方領域の視線固定画像の表示期間を変化させたい場合がある。例えば、交通量が多い場合には、標準的な視線固定画像の表示期間である例えば2秒を越えて視線固定画像を表示させて、交通量の変化を確認できるようにしてもよい。逆に、交通量が少なく瞬時に側方領域の状況が把握できるような場合には、標準的な視線固定画像の表示期間である例えば2秒より表示期間を短縮して、逆方向の側方領域の表示を迅速に行えるようにしてもよい。このように視線固定画像の表示期間を変更可能とすることにより、ユーザが普段行っている左右確認動作により近い表示を実現することができる。なお、この視線固定画像の表示期間の調整も運転操作姿勢のまま行える方が望ましいので、例えば、ステアリングホイールに設けた再表示要求用のスイッチや音声認識システムにより変更設定ができるようにしてもよい。同様に、画面P6〜画面P7に画像を遷移させる場合の第2速度も側方領域の表示内容によって変化できるようにしてもよい。例えば、側方領域の画像に注目すべき物体が存在しないとユーザが判断した場合には、他方の側方領域の表示に早く遷移できるようにしてもよい。逆に詳細に側方領域の確認がしたい場合には、遷移速度を遅くできるようにしてもよい。また、遷移途中で視線固定できるようにしてもよい。例えば、遷移途中で注目物体を発見した場合には、その視線方向で、視線固定画像を表示できるようにしてもよい。また、視線固定画像を表示中にその画像上の任意の位置を中心に拡大表示できるようにしてもよい。このように、視線固定画像の表示タイミングの選択や表示期間の長さや画像の遷移速度の調整を可能にすることで、ユーザが自身で車両1の周囲状況の確認を行う場合により近い状態の画像表示が可能になり、表示装置8を用いた側方領域の認識性の向上に寄与することができる。   Since it is desirable that the redisplay request can be made in the driving operation posture, for example, a redisplay request switch may be provided on the steering wheel, or a redisplay request may be received by a voice recognition system. Further, depending on the display contents of the side area, it may be desired to change the display period of the fixed line-of-sight image in the left-side area or the fixed line-of-sight image in the right side area. For example, when there is a large amount of traffic, the fixed line of sight image may be displayed over, for example, 2 seconds, which is the standard display period of the fixed line of sight image, so that the change in traffic volume can be confirmed. Conversely, when the traffic volume is low and the situation in the side area can be grasped instantaneously, the display period is shortened from the standard gaze-fixed image display period, for example, 2 seconds, and the lateral direction in the reverse direction The area may be displayed quickly. In this way, by making it possible to change the display period of the line-of-sight fixed image, it is possible to realize a display that is closer to the left / right confirmation operation that the user normally performs. In addition, since it is desirable that the display period of the line-of-sight fixed image can be adjusted in the driving operation posture, for example, the change setting may be made by a re-display request switch provided on the steering wheel or a voice recognition system. . Similarly, the second speed when the image is transitioned from the screen P6 to the screen P7 may be changed according to the display content of the side area. For example, when the user determines that there is no object to be noted in the image of the side area, the display may be made quickly to display the other side area. Conversely, when it is desired to confirm the side area in detail, the transition speed may be slowed down. Further, the line of sight may be fixed during the transition. For example, when a target object is found during the transition, a fixed gaze image may be displayed in the gaze direction. Further, while displaying the fixed line-of-sight image, it may be possible to display the enlarged image around an arbitrary position on the image. In this way, by enabling the selection of the display timing of the line-of-sight fixed image, the adjustment of the length of the display period, and the transition speed of the image, the image in a state closer to the case where the user himself checks the surrounding situation of the vehicle 1 Display becomes possible, and it can contribute to the improvement of the recognition of the side area using the display device 8.

図8、図9は、表示装置8に表示される画像の表示例である。図8は、右側方領域に静止物体(例えば自車両である車両1)のみが存在する場合であり、図9は、左側方領域に静止物体(例えば自車両である車両1)に加え、移動物体44(例えば、歩行者)が存在する場合である。本実施形態の周辺監視システム100の場合、超音波を利用する測距部16,17を備えている。したがって、測距部16,17は前述したように移動物体44の検出やその外形等を検出する物体検出部として機能する。そこで、画像取得部30は、測距部16,17から提供される情報に基づき、車両1の周辺の移動物体44を示す物体画像データを取得できる。そして、データ制御部34は、撮像部15c等が撮像した撮像画像データに基づく画像に物体画像データに基づく画像を重畳する。さらに、移動物体44を強調表示するための強調枠46で移動物体44を囲み、その存在をユーザに報知するようにしてもよい。強調枠46は、移動物体44の移動に追従するように表示して、常時ユーザに注意を喚起するようにすることが望ましい。また、CPU14aは、移動物体44及び強調枠46の表示に併せて、音声制御部14eを介して注意喚起の音声メッセージを出力するようにしてもよい。例えば、「左方向から移動物体が接近中です。注意してください。」等の音声メッセージを出力してもよい。また、測距部16,17から取得した物体画像データにパターン認識処理を施して具体的に、移動物体の種類を提供してもよい。例えば、「車両が接近中です」とか、「歩行者が接近中です」と等の音声メッセージを出力してもよい。このように、移動物体44や強調枠46表示及び音声メッセージ等の提供を行うことにより、ユーザに対し注意喚起をより確実に行うことができる。なお、移動物体44の表示は、その存在を示すためのアイコンやキャラクタの表示でもよく、同様の効果を得ることができる。また、強調枠46は、移動物体44のみならず、静止物体に適用してもよい。例えば、駐車車両や街路樹、路面設置物等を強調してもよい。この場合、パターン認識処理により静止物体の種類を識別して、強調枠46を重畳する否か、つまり、特に注意を喚起するものと、そうでないものとを区別して表示してもよい。   8 and 9 are display examples of images displayed on the display device 8. FIG. 8 shows a case where only a stationary object (for example, the vehicle 1 that is the own vehicle) exists in the right side region, and FIG. 9 shows a movement in addition to a stationary object (for example, the vehicle 1 that is the own vehicle) in the left side region. This is a case where an object 44 (for example, a pedestrian) exists. In the case of the periphery monitoring system 100 according to the present embodiment, distance measuring units 16 and 17 using ultrasonic waves are provided. Therefore, the distance measuring units 16 and 17 function as an object detecting unit for detecting the moving object 44 and its outer shape as described above. Therefore, the image acquisition unit 30 can acquire object image data indicating the moving object 44 around the vehicle 1 based on the information provided from the distance measurement units 16 and 17. Then, the data control unit 34 superimposes an image based on the object image data on an image based on the captured image data captured by the imaging unit 15c and the like. Further, the moving object 44 may be surrounded by an emphasis frame 46 for highlighting the moving object 44, and the presence of the moving object 44 may be notified to the user. It is desirable that the highlight frame 46 be displayed so as to follow the movement of the moving object 44 so as to always alert the user. In addition, the CPU 14a may output a warning voice message via the voice control unit 14e in conjunction with the display of the moving object 44 and the highlight frame 46. For example, a voice message such as “A moving object is approaching from the left. Please be careful.” May be output. In addition, the object image data acquired from the distance measuring units 16 and 17 may be subjected to pattern recognition processing to specifically provide the type of moving object. For example, a voice message such as “a vehicle is approaching” or “a pedestrian is approaching” may be output. Thus, by providing the moving object 44, the highlight frame 46 display, the voice message, and the like, the user can be alerted more reliably. Note that the display of the moving object 44 may be an icon or a character for indicating its presence, and the same effect can be obtained. The emphasis frame 46 may be applied not only to the moving object 44 but also to a stationary object. For example, you may emphasize a parked vehicle, a roadside tree, a road surface installation thing, etc. In this case, the type of the stationary object may be identified by the pattern recognition process, and whether or not the emphasis frame 46 is superimposed, that is, what particularly calls attention and what is not so may be displayed separately.

なお、上述した実施形態では、側方領域画像の表示を「右」、「左」、「右」の順で表示する例を示したが、「左」、「右」、「左」の順で表示してもよい。また、これらの順序は操作入力部10や操作部14gを用いて選択できるようにしてもよい。このように表示順序を選択可能とすることで、ユーザの好み(癖)に応じた画像表示が可能になり、ユーザに受け入れられやすい表示ができる。   In the above-described embodiment, an example is shown in which the display of the side region images is displayed in the order of “right”, “left”, and “right”, but the order of “left”, “right”, and “left” is shown. May be displayed. These orders may be selected using the operation input unit 10 or the operation unit 14g. By making the display order selectable in this way, it is possible to display an image according to the user's preference (癖), and a display that can be easily accepted by the user.

また、図6に示す表示例では、例えば画面P6の視線固定画像の表示を行った後、遅い遷移速度(第2速度)で第1側方領域内で視線方向を徐々に正面領域に移動させる例を示した。別の実施形態においては、画面P6の視線固定画像の表示の行った後、直ちに速い遷移速度(第1速度)で逆方向の側方領域、つまりP10の視線固定画像の表示を行うようにしてもよい。この場合、図6に示すように視線方向を第2速度で遷移させる場合より側方領域の表示範囲が狭くなる場合があるが、側方領域の内容の確認は視線が固定された状態で行わせることができるので、ユーザの負担の軽減や表示内容の見落とし低減をさらに行うことができる。なお、上述したように視線方向を第2速度で遷移させる場合より側方領域の表示範囲が狭くなることが懸念される場合は、視線固定画像を表示する際の拡大率を調整することにより、表示範囲が狭くなる不都合を解消することができる。   In the display example shown in FIG. 6, for example, after displaying the fixed line-of-sight image on the screen P <b> 6, the line-of-sight direction is gradually moved to the front area in the first lateral area at a slow transition speed (second speed). An example is shown. In another embodiment, after displaying the fixed line-of-sight image on the screen P6, immediately in the reverse side area, that is, displaying the fixed line-of-sight image of P10 at a fast transition speed (first speed). Also good. In this case, as shown in FIG. 6, the display range of the side area may be narrower than when the line-of-sight direction is changed at the second speed, but the content of the side area is checked with the line of sight fixed. Therefore, it is possible to further reduce the burden on the user and reduce oversight of display contents. In addition, when there is a concern that the display range of the side area becomes narrower than the case where the line-of-sight direction is changed at the second speed as described above, by adjusting the enlargement ratio when displaying the line-of-sight fixed image, The inconvenience that the display range becomes narrow can be solved.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although embodiments and modifications of the present invention have been described, these embodiments and modifications are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…車両、2…車体、8…表示装置、14…ECU、14a…CPU、14b…ROM、14d…表示制御部、14g…操作部、15,15a,15b,15c,15d…撮像部、30…画像取得部、32…操作受付部、34…データ制御部、36…画像変換部、40,42…物体、44…移動物体、46…強調枠、100…周辺監視システム(周辺監視装置)。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Vehicle body, 8 ... Display apparatus, 14 ... ECU, 14a ... CPU, 14b ... ROM, 14d ... Display control part, 14g ... Operation part, 15, 15a, 15b, 15c, 15d ... Imaging part, 30 DESCRIPTION OF SYMBOLS ... Image acquisition part, 32 ... Operation reception part, 34 ... Data control part, 36 ... Image conversion part, 40, 42 ... Object, 44 ... Moving object, 46 ... Emphasis frame, 100 ... Perimeter monitoring system (perimeter monitoring apparatus).

Claims (6)

車両に設けられて当該車両の周辺を撮像する撮像部から出力された撮像画像データを取得する画像取得部と、
前記車両の車室内に設けられ画像を表示する表示装置と、
前記撮像画像データに基づき少なくとも前記車両を基準に一方の第1側方領域を臨む第1視線画像データと前記車両を基準に他方の第2側方領域を臨む第2視線画像データを取得し、前記表示装置に前記第1視線画像データに基づく画像を表示させた後に当該第1視線画像データに基づく画像に代えて前記第2視線画像データに基づく画像を表示する制御部と、
を備える周辺監視装置。
An image acquisition unit that is provided in a vehicle and acquires captured image data output from an imaging unit that images the periphery of the vehicle;
A display device provided in a vehicle interior of the vehicle for displaying an image;
Based on the captured image data, obtain at least first line-of-sight image data that faces one first side area with respect to the vehicle and second line-of-sight image data that faces the other second side area with respect to the vehicle, A control unit for displaying an image based on the second visual line image data instead of an image based on the first visual line image data after displaying an image based on the first visual line image data on the display device;
A peripheral monitoring device comprising:
前記撮像画像データは、前記車両の進行方向を含む広角画像のデータであり、
前記制御部は、前記撮像画像データを前記車両の進行方向における車両先端位置から前記第1側方領域を臨む平面画像に変換して前記第1視線画像データを取得するとともに、前記第2側方領域を臨む平面画像に変換して前記第2視線画像データを取得する画像変換部を含む請求項1に記載の周辺監視装置。
The captured image data is wide-angle image data including the traveling direction of the vehicle,
The control unit obtains the first line-of-sight image data by converting the captured image data from a vehicle tip position in a traveling direction of the vehicle to a planar image facing the first side region, and the second side image data. The periphery monitoring device according to claim 1, further comprising an image conversion unit that converts the image into a planar image that faces an area and acquires the second line-of-sight image data.
前記制御部は、前記第1視線画像データに基づく画像の表示から前記第2視線画像データに基づく画像の表示へ遷移させる間に前記車両の進行方向を含む正面領域を臨む第3視線画像データに基づく画像を表示する請求項1または請求項2に記載の周辺監視装置。   The control unit converts the third line-of-sight image data facing the front area including the traveling direction of the vehicle during the transition from the image display based on the first line-of-sight image data to the image display based on the second line-of-sight image data. The periphery monitoring apparatus according to claim 1 or 2, wherein an image based on the display is displayed. 前記制御部は、前記第1視線画像データに基づく画像の表示期間及び前記第2視線画像データに基づく画像の表示期間より前記第3視線画像データに基づく画像の表示期間を短くする請求項3に記載の周辺監視装置。   The control unit shortens an image display period based on the third line-of-sight image data from an image display period based on the first line-of-sight image data and an image display period based on the second line-of-sight image data. The peripheral monitoring device described. 前記画像取得部は、車両に設けられて当該車両の周辺の移動物体を検出する物体検出部から出力された物体画像データをさらに取得し、
前記制御部は、前記撮像画像データに基づく画像に前記物体画像データに基づく画像を重畳して前記移動物体の存在を報知する請求項1から請求項4のいずれか1項に記載の周辺監視装置。
The image acquisition unit further acquires object image data output from an object detection unit that is provided in a vehicle and detects a moving object around the vehicle,
The periphery monitoring device according to any one of claims 1 to 4, wherein the control unit reports the presence of the moving object by superimposing an image based on the object image data on an image based on the captured image data. .
前記制御部は、前記第1視線画像データに基づく画像の表示、前記第2視線画像データに基づく画像の表示に続き、再度前記第1視線画像データに基づく画像の表示を行う請求項1から請求項5のいずれか1項に記載の周辺監視装置。   The control unit performs display of an image based on the first line-of-sight image data again, following display of an image based on the first line-of-sight image data and display of an image based on the second line-of-sight image data. Item 6. The periphery monitoring device according to any one of items 5 to 6.
JP2015228958A 2015-11-24 2015-11-24 Periphery monitoring device Pending JP2017094922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015228958A JP2017094922A (en) 2015-11-24 2015-11-24 Periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015228958A JP2017094922A (en) 2015-11-24 2015-11-24 Periphery monitoring device

Publications (1)

Publication Number Publication Date
JP2017094922A true JP2017094922A (en) 2017-06-01

Family

ID=58804574

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015228958A Pending JP2017094922A (en) 2015-11-24 2015-11-24 Periphery monitoring device

Country Status (1)

Country Link
JP (1) JP2017094922A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019142428A (en) * 2018-02-23 2019-08-29 マツダ株式会社 Vehicular control device
JP2019175035A (en) * 2018-03-28 2019-10-10 クラリオン株式会社 Automatic driving control device
JP2020203575A (en) * 2019-06-17 2020-12-24 株式会社デンソーテン On-vehicle display device and on-vehicle display method
JP2021028201A (en) * 2019-08-09 2021-02-25 株式会社デンソー Drive assisting device
WO2021065735A1 (en) * 2019-10-02 2021-04-08 株式会社デンソー Display control device and display control program
JP2021059323A (en) * 2019-10-02 2021-04-15 株式会社デンソー Display controller and display control program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019142428A (en) * 2018-02-23 2019-08-29 マツダ株式会社 Vehicular control device
JP6997962B2 (en) 2018-02-23 2022-01-18 マツダ株式会社 Vehicle control device
JP2019175035A (en) * 2018-03-28 2019-10-10 クラリオン株式会社 Automatic driving control device
JP2020203575A (en) * 2019-06-17 2020-12-24 株式会社デンソーテン On-vehicle display device and on-vehicle display method
JP7303035B2 (en) 2019-06-17 2023-07-04 株式会社デンソーテン In-vehicle display device and in-vehicle display method
JP2021028201A (en) * 2019-08-09 2021-02-25 株式会社デンソー Drive assisting device
WO2021065735A1 (en) * 2019-10-02 2021-04-08 株式会社デンソー Display control device and display control program
JP2021059323A (en) * 2019-10-02 2021-04-15 株式会社デンソー Display controller and display control program

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
JP6897340B2 (en) Peripheral monitoring device
JP6507626B2 (en) Vehicle perimeter monitoring device
JP6281289B2 (en) Perimeter monitoring apparatus and program
JP2017094922A (en) Periphery monitoring device
CN107925746B (en) Peripheral monitoring device
JP2016097896A (en) Image display control device
WO2018070298A1 (en) Display control apparatus
US11620834B2 (en) Periphery monitoring device
JP2018144526A (en) Periphery monitoring device
JP2020120327A (en) Peripheral display control device
WO2018150642A1 (en) Surroundings monitoring device
EP3792868A1 (en) Image processing device
WO2019073938A1 (en) Parking assistance device
JP6876236B2 (en) Display control device
JP2019054420A (en) Image processing system
CN109314770B (en) Peripheral monitoring device
JP2022023870A (en) Display control device
JP7009785B2 (en) Peripheral monitoring device
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP6610140B2 (en) Perimeter monitoring device
JP6977318B2 (en) Peripheral display device
JP6953915B2 (en) Peripheral monitoring device
JP6606956B2 (en) Perimeter monitoring device
JP2019036831A (en) Periphery monitoring device