JP6610140B2 - Perimeter monitoring device - Google Patents

Perimeter monitoring device Download PDF

Info

Publication number
JP6610140B2
JP6610140B2 JP2015195075A JP2015195075A JP6610140B2 JP 6610140 B2 JP6610140 B2 JP 6610140B2 JP 2015195075 A JP2015195075 A JP 2015195075A JP 2015195075 A JP2015195075 A JP 2015195075A JP 6610140 B2 JP6610140 B2 JP 6610140B2
Authority
JP
Japan
Prior art keywords
vehicle
image data
virtual
display
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015195075A
Other languages
Japanese (ja)
Other versions
JP2017065572A (en
Inventor
博之 山▲崎▼
優 田中
友之 中村
渉 ▲高▼柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2015195075A priority Critical patent/JP6610140B2/en
Publication of JP2017065572A publication Critical patent/JP2017065572A/en
Application granted granted Critical
Publication of JP6610140B2 publication Critical patent/JP6610140B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)

Description

本発明の実施形態は、周辺監視装置に関する。   Embodiments described herein relate generally to a periphery monitoring device.

従来、車載カメラで撮像した車両の周辺映像に視点変換処理を施して車室内に配置された表示装置に表示する技術が知られている。このような視点変換処理が施された映像は、例えば連続表示することで、利用者が車両の周囲を移動しているように映像を見せることが可能である。その結果、車両の周囲状況を利用者に理解し易く状態で映像を表示できる表示技術が知られている。   2. Description of the Related Art Conventionally, a technique for performing viewpoint conversion processing on a peripheral image of a vehicle imaged by an in-vehicle camera and displaying the image on a display device arranged in a vehicle interior is known. The video subjected to such viewpoint conversion processing is displayed continuously, for example, so that the video can be shown as if the user is moving around the vehicle. As a result, there is known a display technology capable of displaying an image in a state in which a user can easily understand the situation around the vehicle.

特許第5627253号明細書Japanese Patent No. 5627253 特許第5047650号明細書Japanese Patent No. 5047750

しかしながら、車両の周囲状況を連続表示(動画)として表示する場合、表示装置を目視するユーザ(利用者、運転者)は、表示画面内で動体物を目視しているのに近い状態となる。その結果、連続表示(動画)によって提供される情報の細部を見落とす確率が高くなる場合がある。また、動体物を目で追う状態に近くなるため疲労感の増加を招いてしまう場合がある。   However, when displaying the surrounding situation of the vehicle as a continuous display (moving image), a user (user, driver) viewing the display device is close to viewing a moving object on the display screen. As a result, the probability of overlooking details of information provided by continuous display (moving images) may increase. Moreover, since it becomes close to the state in which a moving object is chased with eyes, an increase in fatigue may be caused.

そこで、本発明の課題の一つは、ユーザの負担を軽減しつつ、車両の周囲状況をより把握し易い状態で表示することができる周辺監視装置を提供することである。   Then, one of the subjects of this invention is providing the periphery monitoring apparatus which can display in the state which is easy to grasp | ascertain the surrounding condition of a vehicle, reducing a user's burden.

本発明の実施形態にかかる周辺監視装置は、例えば、車両に設けられて当該車両の周辺を撮像する撮像部から出力された撮像画像データを取得する画像取得部と、上記撮像画像データを、上記撮像部が撮像した視点とは異なる仮想視点から撮像したような仮想画像データに変換する画像変換部と、上記仮想視点が上記車両を中心に移動するように上記仮想画像データを上記車両の車室内に設けられた表示装置に順次表示する制御部と、を備え、上記画像変換部は、上記仮想視点が少なくとも上記車両の周囲のうち側面を含む第1領域を移動する場合の上記車両までの第1視線距離が上記第1領域と異なる第2領域を移動する場合の上記車両までの第2視線距離よりも短くなるように上記仮想画像データを変換し、上記制御部は、上記仮想視点が、上記第1領域を通過するように上記仮想画像データを順次表示する第1遷移期間と、上記第2領域を通過するように上記仮想画像データを順次表示する第2遷移期間とで上記仮想画像データを表示する際の遷移速度を異ならせる。この構成によれば、例えば、第1視線距離により仮想視点からの視線距離を短くすることにより仮想画像データで表示される情報量を少なくすることができる。一方、第2視線距離により仮想視点からの視線距離を長くすることにより表示される情報量を多くすることができる。情報量の多い表示と少ない表示を行うことにより、表示にメリハリが付き情報量の多い部分に着目させやすくすることができるとともに、情報量の少ない部分を設けることによりその部分の目視を省略させ易くなり、ユーザの目視の負担を軽減することができる。また、遷移速度が遅い領域を目視する場合は、遷移速度が早い領域を目視する場合より表示内容の把握がし易くなる。また遷移速度の遅い部分では、その表示内容を確認するためのユーザの負担が軽減できる。また、遷移速度が速い部分では、その表示内容の確認を省略させやすくなり、ユーザの負担が軽減できる。 Surroundings monitoring apparatus according to an embodiment of the present invention, for example, an image acquisition unit that acquires a captured image data output from the imaging unit provided in the vehicle to image the surrounding of the vehicle, on the Symbol captured image data, An image conversion unit that converts virtual image data captured from a virtual viewpoint that is different from the viewpoint captured by the imaging unit, and the virtual image data is transferred to the vehicle of the vehicle so that the virtual viewpoint moves around the vehicle. A controller that sequentially displays the image on a display device provided in the room, wherein the image conversion unit is connected to the vehicle when the virtual viewpoint moves in a first region including at least a side surface of the periphery of the vehicle. first sight distance converts the virtual image data so as to be shorter than the second sight line distances to the vehicle when moving the second area different from the first region, wherein the control unit, the virtual viewpoint , Above the first transition period for sequentially displaying the virtual image data so as to pass over the Symbol first region, a second transition period for sequentially displaying the virtual image data so as to pass over the SL second region The transition speed when displaying the virtual image data is varied. According to this configuration, for example, the amount of information displayed as virtual image data can be reduced by shortening the visual distance from the virtual viewpoint by the first visual distance. On the other hand, the amount of information displayed can be increased by increasing the line-of-sight distance from the virtual viewpoint with the second line-of-sight distance. By performing display with a large amount of information and display with a small amount of information, it is easy to focus attention on the portion with a large amount of information attached to the display, and it is easy to omit visual inspection of the portion by providing a portion with a small amount of information Thus, the visual burden on the user can be reduced. Further, when viewing a region with a low transition speed , it is easier to grasp the display content than when viewing a region with a high transition speed. Further, in the portion where the transition speed is slow, the burden on the user for confirming the display content can be reduced. In addition, in a portion where the transition speed is high, it is easy to omit confirmation of the display content, and the burden on the user can be reduced.

また、上記周辺監視装置において、例えば、上記第2領域は上記車両のコーナ部を臨む領域であり、上記第1領域は隣接する上記第2領域に挟まれた領域であってもよい。この構成によれば、例えば、第2領域を表示することにより、車両のコーナ部に連なる車両の側面部やフロント部(またはリア部)まで見渡すことができる。その結果、第2領域の確認を行うだけで車両の周囲状況の把握が容易にできる。   In the periphery monitoring device, for example, the second area may be an area facing the corner portion of the vehicle, and the first area may be an area sandwiched between the adjacent second areas. According to this configuration, for example, by displaying the second region, it is possible to overlook the side surface portion and the front portion (or the rear portion) of the vehicle connected to the corner portion of the vehicle. As a result, it is possible to easily grasp the surrounding situation of the vehicle simply by checking the second region.

また、上記周辺監視装置の上記制御部は、例えば、上記第2遷移期間の第2遷移速度が上記第1遷移期間の第1遷移速度より遅くなるように上記仮想画像データを表示してもよい。この構成によれば、例えば、仮想視点が第2領域を通過するように仮想画像データを順次表示する第2遷移期間の遷移速度が、仮想視点が第1領域を通過するように仮想画像データを順次表示する第1遷移期間の遷移速度より遅いので、第2領域に対応する表示内容の確認を容易かつ軽負担で行わせることができる。   Further, the control unit of the periphery monitoring device may display the virtual image data so that, for example, the second transition speed in the second transition period is slower than the first transition speed in the first transition period. . According to this configuration, for example, the transition speed of the second transition period in which the virtual image data is sequentially displayed so that the virtual viewpoint passes through the second area is the virtual image data so that the virtual viewpoint passes through the first area. Since it is slower than the transition speed of the first transition period that sequentially displays, it is possible to easily confirm the display content corresponding to the second region with a light burden.

また、上記周辺監視装置の上記画像変換部は、例えば、上記仮想視点の画角を変更可能であってもよい。この構成によれば、例えば、仮想視点の画角を狭くすることにより仮想画像データで表示される表示内容を限定的にすることができるので、表示内容の細部に着目させやすい表示ができる。逆に仮想視点の画角を広くすることにより、表示範囲が広範囲となり車両の周囲状況についてより多くの情報を提供することができる。   In addition, the image conversion unit of the periphery monitoring device may be capable of changing the angle of view of the virtual viewpoint, for example. According to this configuration, for example, the display content displayed as virtual image data can be limited by narrowing the angle of view of the virtual viewpoint, so that it is possible to display information that makes it easy to focus on the details of the display content. Conversely, by widening the angle of view of the virtual viewpoint, the display range becomes wide, and more information about the surrounding conditions of the vehicle can be provided.

また、上記周辺監視装置において、例えば、さらに、上記車両の周囲に存在する物体の有無を検出する物体検出部を備え、上記画像変換部は、上記物体が検出された場合、上記物体と上記車両との間に上記仮想視点の移動軌跡が存在するように上記仮想画像データを変換するようにしてもよい。この構成によれば、例えば、車両と仮想視点との間に物体が存在していた場合、仮想画像データにより示される画面上で、その物体が占める表示面積が大きくなってしまう場合がある。その結果、仮想画像データの表示内容が乏しくなってしまう場合がある。このような場合、物体と車両との間に仮想視点の移動軌跡が存在するようにすることで、物体の影響を受けることなく車両の表示、つまり車両周囲の表示が可能になる。なお、物体と車両との間に仮想視点の移動軌跡が存在するようにすると、物体は表示されなくなるが、仮想視点が物体の正面以外の位置にある場合に、その物体が仮想視点の画角に入り込む可能性が高くなるので、物体を見落とす可能性は低い。   The periphery monitoring device further includes, for example, an object detection unit that detects the presence or absence of an object existing around the vehicle, and the image conversion unit detects the object and the vehicle when the object is detected. The virtual image data may be converted so that the movement locus of the virtual viewpoint exists between the two. According to this configuration, for example, when an object is present between the vehicle and the virtual viewpoint, the display area occupied by the object may increase on the screen indicated by the virtual image data. As a result, the display content of virtual image data may become scarce. In such a case, by causing the movement locus of the virtual viewpoint to exist between the object and the vehicle, it is possible to display the vehicle without being influenced by the object, that is, display around the vehicle. Note that if there is a movement path of the virtual viewpoint between the object and the vehicle, the object will not be displayed, but if the virtual viewpoint is at a position other than the front of the object, the angle of view of the virtual viewpoint Since there is a high possibility of entering, the possibility of overlooking the object is low.

図1は、実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the periphery monitoring device according to the embodiment is mounted is seen through. 図2は、実施形態にかかる周辺監視装置を搭載する車両の一例が示された平面図である。FIG. 2 is a plan view illustrating an example of a vehicle on which the periphery monitoring device according to the embodiment is mounted. 図3は、実施形態にかかる周辺監視装置を搭載する車両のダッシュボードの一例であり、車両後方からの視野での図である。FIG. 3 is an example of a dashboard of a vehicle on which the periphery monitoring device according to the embodiment is mounted, and is a diagram in a view from the rear of the vehicle. 図4は、実施形態にかかる周辺監視装置を含む画像制御システムの一例が示されたブロック図である。FIG. 4 is a block diagram illustrating an example of an image control system including the periphery monitoring device according to the embodiment. 図5は、実施形態にかかる周辺監視装置のECU内に実現される視点変換画像を表示するための制御部の構成の一例を示すブロック図である。FIG. 5 is a block diagram illustrating an example of a configuration of a control unit for displaying a viewpoint conversion image realized in the ECU of the periphery monitoring device according to the embodiment. 図6は、実施形態にかかる周辺監視装置の仮想視点の移動軌跡の一例とそのときの遷移速度の一例を説明する説明図である。FIG. 6 is an explanatory diagram for explaining an example of the movement path of the virtual viewpoint of the periphery monitoring device according to the embodiment and an example of the transition speed at that time. 図7は、実施形態にかかる周辺監視装置の表示処理の一例を説明するフローチャートである。FIG. 7 is a flowchart illustrating an example of display processing of the periphery monitoring device according to the embodiment. 図8は、実施形態にかかる周辺監視装置の表示装置に表示される画像例をコマ送りで示した説明図である。FIG. 8 is an explanatory diagram illustrating an example of an image displayed on the display device of the periphery monitoring device according to the embodiment by frame advance. 図9は、実施形態にかかる周辺監視装置における仮想視点の画角が変更可能であることを説明するための説明図である。FIG. 9 is an explanatory diagram for explaining that the angle of view of the virtual viewpoint can be changed in the periphery monitoring device according to the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration of the embodiment shown below and the operations, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

本実施形態において、周辺監視装置を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   In the present embodiment, the vehicle 1 equipped with the periphery monitoring device may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an automobile using an electric motor (not shown) as a drive source. That is, it may be an electric vehicle or a fuel cell vehicle. Moreover, the hybrid vehicle which uses both of them as a drive source may be sufficient, and the vehicle provided with the other drive source may be sufficient. Further, the vehicle 1 can be mounted with various transmissions, and various devices necessary for driving the internal combustion engine and the electric motor, such as systems and components, can be mounted. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4や、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。   As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2 a in which a passenger (not shown) gets. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet, and the braking operation unit 6 is, for example, a driver's foot It is a brake pedal located under the foot, and the speed change operation unit 7 is, for example, a shift lever protruding from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7 and the like are not limited to these.

また、車室2a内には、表示出力部としての表示装置8や、音声出力部としての音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   In addition, a display device 8 as a display output unit and a sound output device 9 as a sound output unit are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 9 is, for example, a speaker. The display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. In addition, the occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 that is located in the vehicle width direction of the dashboard 24, that is, the central portion in the left-right direction. The monitor device 11 can have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. Further, a sound output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and sound is output from the sound output device 9 of the monitor device 11 and other sound output devices. be able to. Note that the monitor device 11 can be used also as, for example, a navigation system or an audio system.

また、車室2a内には、表示装置8とは別の表示装置12が設けられている。図3に例示されるように、表示装置12は、例えば、ダッシュボード24の計器盤部25に設けられ、計器盤部25の略中央で、速度表示部25aと回転数表示部25bとの間に位置されている。表示装置12の画面12aの大きさは、表示装置8の画面8a(図3)の大きさよりも小さい。この表示装置12には、主として車両1の駐車支援に関する情報を示す画像が表示されうる。表示装置12で表示される情報量は、表示装置8で表示される情報量より少なくてもよい。表示装置12は、例えば、LCDや、OELD等である。なお、表示装置8に、表示装置12で表示される情報が表示されてもよい。   Further, a display device 12 different from the display device 8 is provided in the passenger compartment 2a. As illustrated in FIG. 3, for example, the display device 12 is provided in the instrument panel unit 25 of the dashboard 24, and between the speed display unit 25 a and the rotation speed display unit 25 b at the approximate center of the instrument panel unit 25. Is located. The size of the screen 12a of the display device 12 is smaller than the size of the screen 8a (FIG. 3) of the display device 8. The display device 12 can display an image mainly showing information related to parking assistance of the vehicle 1. The amount of information displayed on the display device 12 may be smaller than the amount of information displayed on the display device 8. The display device 12 is, for example, an LCD or an OELD. Information displayed on the display device 12 may be displayed on the display device 8.

また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図4に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、アクチュエータ13aと、トルクセンサ13bとを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータ13aを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータ13aによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータ13aによって車輪3を転舵したりする。この場合、アクチュエータ13aは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。   As illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and includes two left and right front wheels 3 </ b> F and two right and left rear wheels 3 </ b> R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 4, the vehicle 1 includes a steering system 13 that steers at least two wheels 3. The steering system 13 includes an actuator 13a and a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate the actuator 13a. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The steering system 13 adds torque, that is, assist torque to the steering unit 4 by the actuator 13a to supplement the steering force, or steers the wheel 3 by the actuator 13a. In this case, the actuator 13a may steer one wheel 3 or may steer a plurality of wheels 3. Moreover, the torque sensor 13b detects the torque which a driver | operator gives to the steering part 4, for example.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜190°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている。よって、撮像部15は、車両1が移動可能な路面や車両1が駐車可能な領域を含む車両1の周辺の外部の環境を逐次撮影し、撮像画像データとして出力する。   Further, as illustrated in FIG. 2, for example, four imaging units 15 a to 15 d are provided in the vehicle body 2 as the plurality of imaging units 15. The imaging unit 15 is a digital camera including an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate. The imaging unit 15 has a wide-angle lens or a fish-eye lens, respectively, and can capture a range of, for example, 140 ° to 190 ° in the horizontal direction. The optical axis of the imaging unit 15 is set obliquely downward. Therefore, the imaging unit 15 sequentially captures an external environment around the vehicle 1 including a road surface on which the vehicle 1 is movable and an area in which the vehicle 1 can be parked, and outputs the captured image data.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リヤトランクのドア2hの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパー等に設けられている。撮像部15dは、例えば、車体2の左側、すなわち車幅方向の左側の端部2dに位置され、左側の突出部としてのドアミラー2gに設けられている。ECU14は、複数の撮像部15で得られた画像データに基づいて演算処理や画像処理を実行し、より広い視野角の画像を生成したり、車両1を上方から見た仮想的な俯瞰画像を生成したりすることができる。   The imaging unit 15a is located, for example, at the rear end 2e of the vehicle body 2, and is provided on a wall portion below the rear trunk door 2h. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g. The imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, on the end 2c on the front side in the vehicle longitudinal direction, and is provided on a front bumper or the like. The imaging unit 15d is located, for example, at the left end 2d of the vehicle body 2, that is, the left end 2d in the vehicle width direction, and is provided in the door mirror 2g as a left protruding portion. The ECU 14 performs arithmetic processing and image processing based on the image data obtained by the plurality of imaging units 15, generates an image with a wider viewing angle, or creates a virtual overhead view image when the vehicle 1 is viewed from above. Can be generated.

また、ECU14は、撮像部15から提供される撮像画像データを、撮像部15が撮像した視点とは異なる仮想視点から撮像したような仮想画像データに変換することができる。例えば、ECU14は、仮想視点が車両1に臨む撮像方向となるように仮想画像データを変換する。このように変換した複数の仮想画像データを表示装置8に順次表示することで、ユーザ(運転者、利用者)が乗り込んでいる車両1を中心に、例えば周囲遠方より当該車両1を臨むような画像(実質的な動画)を表示させることができる。仮想画像データの表示の詳細については後述する。また、ECU14は、撮像部15から提供される撮像画像データから車両1の周辺の路面に示された区画線等を識別し、区画線等に示された駐車区画を検出(抽出)して、駐車支援を実行することもできる。   Further, the ECU 14 can convert the captured image data provided from the imaging unit 15 into virtual image data captured from a virtual viewpoint different from the viewpoint captured by the imaging unit 15. For example, the ECU 14 converts the virtual image data so that the virtual viewpoint is the imaging direction facing the vehicle 1. By sequentially displaying the plurality of virtual image data thus converted on the display device 8, the vehicle 1 faces the vehicle 1 from a distance, for example, around the vehicle 1 on which the user (driver or user) is riding. An image (substantial moving image) can be displayed. Details of the display of the virtual image data will be described later. Further, the ECU 14 identifies the lane markings and the like indicated on the road surface around the vehicle 1 from the captured image data provided from the imaging unit 15, detects (extracts) the parking lot indicated by the lane markings, Parking assistance can also be implemented.

また、図1、図2に例示されるように、車体2には、複数の測距部16,17として、例えば四つの測距部16a〜16dと、八つの測距部17a〜17hとが設けられている。測距部16,17は、例えば、超音波を発射してその反射波を捉えるソナーである。ソナーは、ソナーセンサ、あるいは超音波探知器、超音波ソナーとも称されうる。測距部16は、本実施形態において、車両1を駐車する際に、車両1と並ぶ第一の障害物(隣接車両)や駐車するためのスペースの奥側に存在する第二の障害物(例えば、縁石や段差、壁、フェンス等)を検出し、その障害物までの距離を測定することができる。また、測距部17は、車両1に対して障害物(物体)が所定距離を超えて接近した場合、接近する障害物(物体)を検出し、その障害物までの距離を測定することができる。特に、車両1の後方両側に配置された測距部17a,17dは、車両1が後退しながら縦列駐車のスペースに進入する場合の車両1の後方コーナ部と第一の障害物(隣接車両)との距離や、進入後さらに後方コーナ部と第二の障害物(壁等)との距離を測定するセンサ(クリアランスソナー)として機能する。ECU14は、測距部16,17の検出結果により、車両1の周囲に位置された障害物等の物体の有無や当該物体までの距離を測定することができる。すなわち、測距部16,17は、物体を検出する検出部の一例である。なお、測距部17は、例えば、比較的近距離の物体の検出に用いられ、測距部16は、例えば、測距部17よりも遠い比較的長距離の物体の検出に用いられうる。また、測距部17は、例えば、車両1の前方および後方の物体の検出に用いられ、測距部16は、車両1の側方の物体の検出に用いられうる。測距部17は、物体(障害物)が所定の距離まで接近したことを検出する接近センサとして機能しうる。   As illustrated in FIGS. 1 and 2, the vehicle body 2 includes, for example, four distance measuring units 16 a to 16 d and eight distance measuring units 17 a to 17 h as a plurality of distance measuring units 16 and 17. Is provided. The distance measuring units 16 and 17 are, for example, sonar that emits ultrasonic waves and captures the reflected waves. The sonar may also be referred to as a sonar sensor, an ultrasonic detector, or an ultrasonic sonar. In the present embodiment, when the vehicle 1 is parked, the distance measuring unit 16 has a first obstacle (adjacent vehicle) aligned with the vehicle 1 and a second obstacle ( For example, a curb, a step, a wall, a fence, etc.) can be detected and the distance to the obstacle can be measured. In addition, when the obstacle (object) approaches the vehicle 1 beyond a predetermined distance, the distance measuring unit 17 can detect the approaching object (object) and measure the distance to the obstacle. it can. In particular, the distance measuring units 17a and 17d disposed on both sides of the rear of the vehicle 1 include the rear corner portion of the vehicle 1 and the first obstacle (adjacent vehicle) when the vehicle 1 enters the parallel parking space while moving backward. And a sensor (clearance sonar) that measures the distance between the rear corner and the second obstacle (such as a wall) after entering. The ECU 14 can measure the presence or absence of an object such as an obstacle located around the vehicle 1 and the distance to the object based on the detection results of the distance measuring units 16 and 17. That is, the distance measuring units 16 and 17 are examples of a detecting unit that detects an object. The distance measuring unit 17 can be used, for example, for detecting an object at a relatively short distance, and the distance measuring unit 16 can be used for detecting an object at a relatively long distance farther than the distance measuring unit 17, for example. The distance measuring unit 17 can be used, for example, for detecting an object in front of and behind the vehicle 1, and the distance measuring unit 16 can be used for detecting an object on the side of the vehicle 1. The distance measuring unit 17 can function as an proximity sensor that detects that an object (obstacle) has approached a predetermined distance.

なお、ECU14は、測距部16や測距部17で取得した情報に基づき、車両1の周囲に存在する物体の外形形状を示す画像の生成も可能である。つまり、ECU14が撮像画像データから仮想画像データを変換する際に、測距部16や測距部17で取得した情報を用いて、仮想画像データを補完して、車両1の周囲の状況をより明確(詳細)に示すデータを生成することができる。例えば、より立体感を有する画像を形成することができる。なお、測距部16,17としてレーザスキャナを用いてもよい。この場合、より詳細にデータを取得可能で、物体の外形形状の精度向上に寄与することができる。例えば、視点変換を行う場合、本来の物体の形状が歪んだり、一部欠落したりする場合がある。このような場合、レーザスキャナで取得した詳細なデータを用いることにより、歪みを軽減したり、欠落を補完して物体の三次元形状をより正確に再現することができる。   The ECU 14 can also generate an image showing the outer shape of an object existing around the vehicle 1 based on the information acquired by the distance measuring unit 16 or the distance measuring unit 17. That is, when the ECU 14 converts the virtual image data from the captured image data, the virtual image data is supplemented using the information acquired by the distance measuring unit 16 or the distance measuring unit 17, and the situation around the vehicle 1 is further improved. Clearly (detailed) data can be generated. For example, an image having a more stereoscopic effect can be formed. A laser scanner may be used as the distance measuring units 16 and 17. In this case, data can be acquired in more detail, which can contribute to improving the accuracy of the outer shape of the object. For example, when performing viewpoint conversion, the shape of the original object may be distorted or partially lost. In such a case, by using the detailed data acquired by the laser scanner, it is possible to reduce the distortion or to compensate for the lack and more accurately reproduce the three-dimensional shape of the object.

また、図4に例示されるように、周辺監視システム100(周辺監視装置)では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。   Further, as exemplified in FIG. 4, in the periphery monitoring system 100 (perimeter monitoring device), in addition to the ECU 14, the monitor device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, an accelerator sensor 20, a shift sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured as a CAN (controller area network), for example. The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring unit 16, the distance measuring unit 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23. Results, operation signals from the operation input unit 10 and the like can be received.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、例えば、表示装置8,12で表示される画像に関連した画像処理や、車両1の移動目標位置(駐車目標位置、目標位置)の決定、車両1の誘導経路(誘導経路、駐車経路、駐車誘導経路)の演算、物体との干渉の有無の判断、車両1の自動制御、自動制御の解除等の、各種の演算処理および制御を実行することができる。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行することができる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、表示装置8で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing. The CPU 14a, for example, performs image processing related to the images displayed on the display devices 8 and 12, determination of the movement target position (parking target position, target position) of the vehicle 1, and guidance route (guidance route, parking route) of the vehicle 1. , Parking guidance route), determination of presence / absence of interference with an object, automatic control of the vehicle 1, and cancellation of automatic control, etc., can be executed. The CPU 14a can read a program installed and stored in a non-volatile storage device such as the ROM 14b, and execute arithmetic processing according to the program. The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. In addition, the display control unit 14 d mainly executes synthesis of image data displayed on the display device 8 among the arithmetic processing in the ECU 14. In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit that can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Further, an HDD (hard disk drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータ18aを介して、車輪3ひいては車両1に制動力を与える。また、ブレーキシステム18は、左右の車輪3の回転差などからブレーキのロックや、車輪3の空回り、横滑りの兆候等を検出して、各種制御を実行することができる。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。   The brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses brake locking, an anti-slip device (ESC: electronic stability control) that suppresses side slip of the vehicle 1 during cornering, and enhances braking force ( Electric brake system that executes brake assist, BBW (brake by wire), etc. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator 18a. The brake system 18 can execute various controls by detecting brake lock, idle rotation of the wheels 3, signs of skidding, and the like from the difference in rotation between the left and right wheels 3. The brake sensor 18b is a sensor that detects the position of the movable part of the braking operation unit 6, for example. The brake sensor 18b can detect the position of a brake pedal as a movable part. The brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。   The steering angle sensor 19 is, for example, a sensor that detects the steering amount of the steering unit 4 such as a steering wheel. The rudder angle sensor 19 is configured using, for example, a hall element. The ECU 14 obtains the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19 and executes various controls. The rudder angle sensor 19 detects the rotation angle of the rotating part included in the steering unit 4. The rudder angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。   The accelerator sensor 20 is, for example, a sensor that detects the position of the movable part of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。   The shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7. The shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable part. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs a wheel speed pulse number indicating the detected rotation speed as a sensor value. The wheel speed sensor 22 may be configured using, for example, a hall element. The ECU 14 calculates the amount of movement of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22 and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

ECU14は、周辺監視システムを実現する。一例として、ECU14は、車両1を中心として当該車両1を遠方から見たような画像(視点変換画像、仮想画像データ)を生成する。そして、この視点変換画像を順次表示することで、仮想視点が車両1の周囲を周回するような実質的な動画表示を行うことができる。なお、視点変換画像(仮想画像データ)の仮想視点の路面からの高さは、例えば車両1に標準的な体格のユーザが着座した場合の視線高さ(例えば140cm)とすることができる。そして、ECU14は、仮想視点が車両1の周囲を周回するように視点変換画像(仮想画像データ)を表示する場合に、その表示速度(遷移速度)を変化させることにより、車両1の周囲状況をユーザに認識させやすくしている。具体的な遷移速度の変化態様やその効果は後述する。   ECU14 implement | achieves a periphery monitoring system. As an example, the ECU 14 generates an image (viewpoint conversion image, virtual image data) as if the vehicle 1 was viewed from a distance with the vehicle 1 as the center. Then, by sequentially displaying the viewpoint conversion images, it is possible to perform a substantial moving image display in which the virtual viewpoint circulates around the vehicle 1. Note that the height of the viewpoint-converted image (virtual image data) from the road surface of the virtual viewpoint can be, for example, the line-of-sight height (for example, 140 cm) when a user with a standard physique is seated on the vehicle 1. The ECU 14 changes the display speed (transition speed) of the viewpoint conversion image (virtual image data) so that the virtual viewpoint circulates around the vehicle 1, thereby changing the surrounding situation of the vehicle 1. Make it easy for users to recognize. Specific changes in transition speed and effects thereof will be described later.

ECU14に含まれるCPU14aは、上述したような視点変換画像の実質的な動画表示を実現するために、図5に示されるように画像取得部30、画像変換部32、操作受付部34、データ制御部36(制御部)等を含む。そして、CPU14aは、例えば、撮像部15で得られた撮像画像データを用いた画像処理を実行する。画像取得部30、画像変換部32、操作受付部34、データ制御部36は、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現可能である。   As shown in FIG. 5, the CPU 14 a included in the ECU 14 implements an image acquisition unit 30, an image conversion unit 32, an operation reception unit 34, data control, as shown in FIG. Part 36 (control part) and the like. Then, for example, the CPU 14a executes image processing using the captured image data obtained by the imaging unit 15. The image acquisition unit 30, the image conversion unit 32, the operation reception unit 34, and the data control unit 36 can be realized by reading a program installed and stored in a storage device such as the ROM 14b and executing it.

画像取得部30は、車両1に設けられて当該車両1の周辺を撮像する撮像部15から出力された撮像画像データを表示制御部14dを介して取得する。なお、表示制御部14dは、撮像部15で撮像した撮像画像データをそのままの状態で表示装置8や表示装置12に出力してもよい。この場合、操作部14g等の入力装置を用いてユーザに希望する表示内容を選択させるようにしてもよい。つまり、表示制御部14dは、操作部14gの操作により選択された画像を選択的に表示する。例えば撮像部15aで撮像した車両1の後方画像を表示させたり、撮像部15dで撮像した左側方画像を表示させたりすることができる。   The image acquisition unit 30 acquires captured image data output from the imaging unit 15 provided in the vehicle 1 and imaging the periphery of the vehicle 1 via the display control unit 14d. The display control unit 14d may output the captured image data captured by the imaging unit 15 to the display device 8 or the display device 12 as it is. In this case, the display contents desired by the user may be selected using an input device such as the operation unit 14g. That is, the display control unit 14d selectively displays an image selected by the operation of the operation unit 14g. For example, a rear image of the vehicle 1 captured by the imaging unit 15a can be displayed, or a left side image captured by the imaging unit 15d can be displayed.

画像変換部32は、画像取得部30が取得した撮像画像データを撮像部15が撮像した視点とは異なる仮想視点、例えば車両1を遠方から臨む撮像方向となる複数の仮想視点から撮像したような画像表示が可能な仮想画像データに変換する。仮想視点による仮想画像データの変換は、周知の種々の処理手法で実行することができる。一例として、画像変換部32は、撮像部15により撮像された車両1の外部の環境を表した撮像画像データと、例えばROM14b等に保持されたマッピングテーブルの変換情報とに基づいて、車両1の外部周囲環境を車両1から離間して当該車両1を臨む視点位置から見た場合の仮想画像データ(視点変換画像)を生成(変換)する。本実施形態の場合、ROM14bは、例えば、車両1から数m(例えば2m)離間した位置で、車両1に標準的な体格のユーザが着座した場合の視線高さ(例えば140cm)を通る軌道(移動軌跡)から車両1を臨む仮想視点が移動した場合に表示される映像を合成できる仮想画像データが撮像画像データから生成できるような変換情報(マッピングテーブル)を複数種類予め保持している。なお、マッピングテーブルの変換情報は、仮想視点の位置ごとに準備することが望ましい。また、本実施形態の場合、視点変換画像は、連続性のあるスムーズな動画で表示されることが望ましい。そのため、マッピングテーブルの変換情報は、仮想視点が例えばA°移動するごと仮想画像データを生成できるように準備される。なお、マッピングテーブルの変換情報の数を増やせば、生成される仮想画像データの数(フレーム数)は増加して滑らかな動画が作成できるが、CPU14aの処理負荷が増加する傾向がある。逆に、マッピングテーブルの変換情報の数を少なくすれば生成される仮想画像データの数も減少し動画品質が低下する場合があるが、CPU14aの処理負荷は軽減可能となる。したがって、要求される視点変換画像(実質的な動画)の品質に応じて、マッピングテーブルの変換情報の数を決定することができる。なお、マッピングテーブルの変換情報の数を少なくする場合、動画を作成する際に前後の仮想画像データに基づく補完処理等を行い動画の修正(コマ落ち補正)を行うようにしてもよい。   The image conversion unit 32 captures the captured image data acquired by the image acquisition unit 30 from a virtual viewpoint different from the viewpoint captured by the imaging unit 15, for example, a plurality of virtual viewpoints that are in the imaging direction facing the vehicle 1 from a distance. Convert to virtual image data that can be displayed. The conversion of virtual image data from the virtual viewpoint can be executed by various known processing methods. As an example, the image conversion unit 32 is based on the captured image data representing the environment outside the vehicle 1 captured by the imaging unit 15 and the conversion information of the mapping table held in the ROM 14b or the like, for example. Virtual image data (viewpoint conversion image) is generated (converted) when the external ambient environment is viewed from a viewpoint position facing the vehicle 1 away from the vehicle 1. In the case of the present embodiment, the ROM 14b is, for example, a trajectory (for example, 140 cm) passing through a line-of-sight height (for example, 140 cm) when a user with a standard physique is seated on the vehicle 1 at a position several m (for example, 2 m) from the vehicle 1 A plurality of types of conversion information (mapping table) that can generate from the captured image data virtual image data that can be displayed when a virtual viewpoint facing the vehicle 1 moves from the movement trajectory) is stored in advance. Note that the conversion information of the mapping table is preferably prepared for each position of the virtual viewpoint. In the case of this embodiment, it is desirable that the viewpoint conversion image is displayed as a continuous and smooth moving image. Therefore, the conversion information of the mapping table is prepared so that virtual image data can be generated whenever the virtual viewpoint moves, for example, by A °. If the number of pieces of conversion information in the mapping table is increased, the number of generated virtual image data (number of frames) can be increased to create a smooth moving image, but the processing load on the CPU 14a tends to increase. Conversely, if the number of pieces of conversion information in the mapping table is reduced, the number of generated virtual image data may be reduced and the moving image quality may be reduced, but the processing load on the CPU 14a can be reduced. Therefore, the number of pieces of conversion information in the mapping table can be determined according to the required quality of the viewpoint conversion image (substantial moving image). Note that when the number of pieces of conversion information in the mapping table is reduced, the moving image may be corrected (frame drop correction) by performing a complementing process based on the virtual image data before and after the moving image is created.

操作受付部34は、操作部14gの操作入力による信号を取得する。操作部14gは、例えば、押しボタンやトグルスイッチ、ロータリスイッチ等であり、ユーザによる視点変換画像の表示の要求やキャンセル、その他各種設定を行うことができる。また、操作受付部34は、図示しないイグニッションスイッチのON信号を受け付け、そのON信号を契機に視点変換画像の表示要求を取得したと見なしてもよい。例えば、ユーザが車両1に乗り込み、イグニッションスイッチをONした場合に、車両1を発進させるのに先立ち、車両1の周囲の状況をユーザに通知するように視点変換画像を自動的に表示するようにしてもよい。また、操作受付部34は、駐車操作を行ったことを示す信号を受け付けてもよい。例えば、操作受付部34は、変速操作部7の「Pレンジ」への移動や、パーキングブレーキのON操作等を示す信号を受け付けてもよい。そして、ユーザが車両1を停車させて車外に出るのに先立ち、車両1の周囲の状況をユーザに通知するように視点変換画像を自動的に表示するようにしてもよい。   The operation reception unit 34 acquires a signal generated by an operation input from the operation unit 14g. The operation unit 14g is, for example, a push button, a toggle switch, a rotary switch, or the like, and can make a request for display of the viewpoint conversion image, cancellation, and other various settings. Further, the operation receiving unit 34 may receive an ON signal of an ignition switch (not shown), and may be regarded as having acquired a viewpoint conversion image display request triggered by the ON signal. For example, when the user gets into the vehicle 1 and turns on the ignition switch, the viewpoint conversion image is automatically displayed so as to notify the user of the situation around the vehicle 1 before starting the vehicle 1. May be. Moreover, the operation reception part 34 may receive the signal which shows having performed parking operation. For example, the operation receiving unit 34 may receive a signal indicating movement of the speed change operating unit 7 to the “P range”, an ON operation of a parking brake, or the like. Then, prior to the user stopping the vehicle 1 and going outside the vehicle, the viewpoint conversion image may be automatically displayed so as to notify the user of the situation around the vehicle 1.

データ制御部36は、画像変換部32が生成した複数の仮想画像データを、仮想視点が車両1の周囲を移動しているような動画になるように配列し、表示制御部14dに供給して表示装置8に表示させる。データ制御部36は、図6に示すように、仮想視点38が、移動軌跡40上に定められた表示開始位置S(デモ開始位置)から移動を開始するように仮想画像データを順次表示する。移動軌跡40は、主として車両1の周囲に設定された複数の第1領域と複数の第2領域を含み、仮想視点38が車両1の周囲を周回すように設定される。例えば、第2領域は車両1のコーナ部を臨む領域であり、第1領域は隣接する第2領域に挟まれた領域である。具体的には、図6に示すように、第2領域は4つ設定される。つまり、車両1の右フロントコーナ部r1を臨む第2領域R1、左フロントコーナ部r2を臨む第2領域R2、車両1の左リアコーナ部r3を臨む第2領域R3、車両1の右リアコーナ部r4を臨む第2領域R4である。また、第1領域は4つ設定される。つまり、車両1のフロント部q1を臨み第2領域R1,R2に挟まれた第1領域Q1、車両1の左サイド部q2を臨み第2領域R2,R3に挟まれた第1領域Q2、車両1のリア部q3を臨み第2領域R3,R4に挟まれた第1領域Q3、車両1の右サイド部q4を臨み第2領域R4,R1に挟まれた第1領域Q4である。なお、図6の場合、移動軌跡40は、一例として仮想視点38が少なくとも車両1のサイド部(側面)を臨む第1領域Q2,Q4を移動する場合の車両1までの第1視線距離L1とする場合、第2領域R1,R2,R3,R4を移動する場合の車両1までの第2視線距離L2よりも短くなるように設定している。なお、第1視線距離L1、第2視線距離L2の設定に関する詳細は後述する。   The data control unit 36 arranges the plurality of virtual image data generated by the image conversion unit 32 such that the virtual viewpoint is moving around the vehicle 1 and supplies the moving image to the display control unit 14d. It is displayed on the display device 8. As shown in FIG. 6, the data control unit 36 sequentially displays the virtual image data so that the virtual viewpoint 38 starts moving from the display start position S (demonstration start position) determined on the movement locus 40. The movement track 40 mainly includes a plurality of first areas and a plurality of second areas set around the vehicle 1, and is set so that the virtual viewpoint 38 circulates around the vehicle 1. For example, the second region is a region facing the corner portion of the vehicle 1, and the first region is a region sandwiched between adjacent second regions. Specifically, as shown in FIG. 6, four second areas are set. That is, the second region R1 facing the right front corner portion r1 of the vehicle 1, the second region R2 facing the left front corner portion r2, the second region R3 facing the left rear corner portion r3 of the vehicle 1, and the right rear corner portion r4 of the vehicle 1. Is the second region R4. Four first areas are set. That is, the first region Q1 that faces the front portion q1 of the vehicle 1 and is sandwiched between the second regions R1 and R2, the first region Q2 that faces the left side portion q2 of the vehicle 1 and is sandwiched between the second regions R2 and R3, the vehicle A first region Q3 that faces one rear portion q3 and is sandwiched between second regions R3 and R4, and a first region Q4 that faces the right side portion q4 of the vehicle 1 and is sandwiched between second regions R4 and R1. In the case of FIG. 6, the movement locus 40 is, for example, the first line-of-sight distance L1 to the vehicle 1 when the virtual viewpoint 38 moves in the first regions Q2 and Q4 facing at least the side part (side surface) of the vehicle 1. In this case, the distance is set to be shorter than the second line-of-sight distance L2 to the vehicle 1 when moving in the second region R1, R2, R3, R4. Details regarding the setting of the first line-of-sight distance L1 and the second line-of-sight distance L2 will be described later.

ROM14bは、仮想視点38が移動軌跡40上に存在し、その位置で車両1を撮像したように見えるように撮像画像データを仮想画像データに変換可能なマッピングテーブルの変換情報を記憶している。そして、データ制御部36は、それぞれの仮想視点38で撮像したように見える仮想画像データを順次表示することにより、車両1を臨みながらその周囲を周回した場合に見えるような画像を表示装置8に表示する。   The ROM 14b stores conversion information of a mapping table capable of converting captured image data into virtual image data so that the virtual viewpoint 38 exists on the movement locus 40 and the vehicle 1 appears to be captured at that position. Then, the data control unit 36 sequentially displays virtual image data that appears to be captured at the respective virtual viewpoints 38, so that an image that can be seen when the vehicle 1 circulates around the vehicle 1 is displayed on the display device 8. indicate.

ところで、図6に示すような移動軌跡40を仮想視点38が移動するような仮想画像データを順次表示して動画としてユーザに提供する場合、ユーザがその動画を目視する場合、最初から最後まで表示画面内で動体物を見ているのに近い状態となる。その結果、注意散漫になりやすく、連続表示(動画)によって提供される情報の細部を見落とす確率が高くなることがある。また、動体物を目で追う状態に近くなるため疲労感の増加を招いてしまう場合がある。そこで、データ制御部36は、仮想視点38が第1領域Q1,Q2,Q3,Q4を通過するように仮想画像データを順次表示する第1遷移期間と、仮想視点38が第1領域Q1,Q2,Q3,Q4とは異なる第2領域R1,R2,R3,R4を通過するように仮想画像データを順次表示する第2遷移期間とで仮想画像データの表示速度(遷移速度)を異ならせている。つまり、仮想画像データの再生(表示)の速度を変化させている。具体的には、データ制御部36は、第2領域R1に対応する第2遷移期間b(j)、第2領域R2に対応する第2遷移期間d、第2領域R3に対応する第2遷移期間f、第2領域R4に対応する第2遷移期間hにおいて、仮想画像データを低速の第2遷移速度で再生する。この場合、低速再生は、間欠的な再生や一時停止を含む再生を含んでもよい。一方、データ制御部36は、第1領域Q1に対応する第1遷移期間c、第1領域Q2に対応する第1遷移期間e、第1領域Q3に対応する第1遷移期間g、第1領域Q4に対応する第1遷移期間iにおいて、仮想画像データを第2遷移速度より早い第1遷移速度で再生する。図6においては、第1遷移速度と第2遷移速度の大きさの違いを表現するために、第1遷移速度は矢印1つで表現し、第2遷移速度は矢印3つで表現している。例えば、標準的な動画再生速度を「1」とした場合、第2領域R1〜R4に対応する車両1のコーナ部周辺を表示する場合の仮想画像データの再生速度は、例えば0.3倍速とすることができる。また、第1領域Q1〜Q4に対応する車両1のフロント部、サイド部、リア部周辺を表示する場合の仮想画像データの再生速度は、例えば4倍速とすることができる。なお、後述するデモ遷移速度は2倍速とすることができる。なお、第1遷移速度と第2遷移速度の大きさの違いは任意に設定することができるが、第1遷移速度と第2遷移速度とが明らかに異なることがユーザに認識できる程度に速度差を設けることが望ましい。   By the way, when virtual image data such that the virtual viewpoint 38 moves is sequentially displayed as a moving trajectory 40 as shown in FIG. 6 and provided to the user as a moving image, when the user views the moving image, it is displayed from the beginning to the end. It is almost like watching a moving object on the screen. As a result, it is easy to be distracted, and there is a high probability of overlooking details of information provided by continuous display (moving images). Moreover, since it becomes close to the state in which a moving object is chased with eyes, an increase in fatigue may be caused. Therefore, the data control unit 36 has a first transition period in which virtual image data is sequentially displayed so that the virtual viewpoint 38 passes through the first areas Q1, Q2, Q3, and Q4, and the virtual viewpoint 38 has the first areas Q1, Q2. , Q3, and Q4, the display speed (transition speed) of the virtual image data is made different in the second transition period in which the virtual image data is sequentially displayed so as to pass through the second regions R1, R2, R3, and R4. . That is, the reproduction (display) speed of the virtual image data is changed. Specifically, the data control unit 36 includes a second transition period b (j) corresponding to the second region R1, a second transition period d corresponding to the second region R2, and a second transition corresponding to the second region R3. In the second transition period h corresponding to the period f and the second region R4, the virtual image data is reproduced at a low second transition speed. In this case, the low speed reproduction may include reproduction including intermittent reproduction and pause. Meanwhile, the data control unit 36 includes a first transition period c corresponding to the first region Q1, a first transition period e corresponding to the first region Q2, a first transition period g corresponding to the first region Q3, and a first region. In the first transition period i corresponding to Q4, the virtual image data is reproduced at the first transition speed that is faster than the second transition speed. In FIG. 6, in order to express the difference in magnitude between the first transition speed and the second transition speed, the first transition speed is represented by one arrow, and the second transition speed is represented by three arrows. . For example, when the standard moving image playback speed is “1”, the playback speed of the virtual image data when displaying the periphery of the corner portion of the vehicle 1 corresponding to the second regions R1 to R4 is, for example, 0.3 times the speed. can do. Moreover, the reproduction speed of the virtual image data when displaying the front part, side part, and rear part periphery of the vehicle 1 corresponding to the first regions Q1 to Q4 can be set to, for example, quadruple speed. The demo transition speed described later can be set to double speed. The difference in magnitude between the first transition speed and the second transition speed can be arbitrarily set, but the speed difference is such that the user can recognize that the first transition speed and the second transition speed are clearly different. It is desirable to provide.

このように、車両1のコーナ部(第2領域)を表示するときの第2遷移速度を他の部分を表示するときの第1遷移速度より遅くすることにより、第2領域の表示内容をユーザに認識させ易く、また注意をより引きつけ易くすることができる。逆に、第1領域を表示するときの第1遷移速度を第2遷移速度より早くすることにより、第1領域の表示内容に必要以上の注意が注がれることを抑制することができる。このように、表示内容の注目度に強弱を設けることにより、ユーザが常時表示内容に集中することを軽減し、疲労感の増加を抑制することに寄与できる。また、ユーザが常時表示内容に集中しないようにすることにより、第2領域の表示内容に集中させ易くなり、第2領域の細部に注意を払わせ易くなる。なお、第2領域を表示する仮想画像データの内容には、車両1のコーナ部周辺の情報に加え、コーナ部に隣接する2つの第1領域に含まれる車両1の周辺情報が含まれる。例えば、第2領域R1を示す仮想画像データには、右フロントコーナ部r1の周辺情報を中心として、フロント部q1の周辺情報および右サイド部q4の周辺情報が含まれる。同様に、第2領域R2を示す仮想画像データには、左フロントコーナ部r2の周辺情報を中心として、フロント部q1の周辺情報および左サイド部q2の周辺情報が含まれる。以下同様に、第2領域R3,R4を示す仮想画像データについても、コーナ部を中心に隣接する情報が含まれる。つまり、第2領域R1,R2,R3,R4の表示内容を確認すことで、車両1の周囲全体の状況をユーザに認識させることができる。このように、第2領域R1,R2,R3,R4を示す仮想画像データを低速の第2遷移速度で表示することで、その表示内容を詳細に認識させるようにできる。さらに、第1領域Q1,Q2,Q3,Q4を示す仮想画像データを高速の第1遷移速度で表示することで、表示内容が過度に注視されることを抑制して、表示内容の認識負荷を軽減することができる。例えば表示内容の目視を無意識のうちに省略するように導き易く、眼精疲労の軽減に寄与できる。また、仮想画像データの一部を高速の第1遷移速度で表示することで、車両1の全周の状況把握に要する時間(仮想画像データの表示時間)を短縮することができる。つまり、迅速な周囲状況の確認に寄与できる。   As described above, the display content of the second area is set to the user by making the second transition speed when displaying the corner portion (second area) of the vehicle 1 slower than the first transition speed when displaying other portions. Can be easily recognized and attract attention more easily. Conversely, by setting the first transition speed when displaying the first area to be faster than the second transition speed, it is possible to prevent the display content of the first area from being paid more than necessary. In this way, by providing the degree of attention to the display content, it is possible to reduce the concentration of the user on the display content at all times and to suppress an increase in fatigue. In addition, by not concentrating the user on the display contents at all times, it becomes easier to concentrate on the display contents of the second area and to pay attention to the details of the second area. Note that the content of the virtual image data displaying the second area includes the peripheral information of the vehicle 1 included in the two first areas adjacent to the corner portion in addition to the information around the corner portion of the vehicle 1. For example, the virtual image data indicating the second region R1 includes the peripheral information of the front part q1 and the peripheral information of the right side part q4 with the peripheral information of the right front corner part r1 as the center. Similarly, the virtual image data indicating the second region R2 includes the peripheral information of the front part q1 and the peripheral information of the left side part q2 with the peripheral information of the left front corner part r2 as the center. Similarly, the virtual image data indicating the second regions R3 and R4 includes information adjacent to the corner portion. That is, by confirming the display contents of the second regions R1, R2, R3, and R4, the user can recognize the overall situation around the vehicle 1. As described above, by displaying the virtual image data indicating the second regions R1, R2, R3, and R4 at the low second transition speed, the display contents can be recognized in detail. Further, by displaying the virtual image data indicating the first regions Q1, Q2, Q3, and Q4 at a high first transition speed, it is possible to suppress the display content from being excessively watched and to reduce the recognition load of the display content. Can be reduced. For example, it is easy to guide the display contents so as to be omitted unconsciously, which can contribute to the reduction of eye strain. Further, by displaying a part of the virtual image data at the high first transition speed, it is possible to shorten the time required for grasping the situation of the entire circumference of the vehicle 1 (display time of virtual image data). That is, it can contribute to quick confirmation of the surrounding situation.

なお、上述したように、車両1の全周囲の状況を把握させるためには、第2領域のみを表示するようにしてもよい。ただし、第2領域を間欠的に表示装置8に表示した場合、車両1の何処のコーナ部に対応する画像が表示されているのかユーザが判断し難くなる場合がある。一方、図6に示すように、第2領域に加え第1領域を表示して車両1の全周囲を表示することにより、表示の連続性が向上し、第1領域を挟んで表示される第2領域が車両1のどの部分であるかがユーザに認識され易くすることができる。   As described above, only the second area may be displayed in order to grasp the situation around the entire vehicle 1. However, when the second region is intermittently displayed on the display device 8, it may be difficult for the user to determine which corner portion of the vehicle 1 is displayed. On the other hand, as shown in FIG. 6, by displaying the first area in addition to the second area and displaying the entire periphery of the vehicle 1, the display continuity is improved, and the first area displayed across the first area is displayed. It can be made easier for the user to recognize which part of the vehicle 1 the two regions are.

また、図6に示すように、移動軌跡40において、仮想視点38が第1領域Q2,Q4を移動する場合の第1視線距離L1を、第2領域R1,R2,R3,R4を移動する場合の第2視線距離L2よりも短くすることにより、第1領域を表示する場合、第2領域を表示する場合より、表示に明確な変化(躍動感)を付けることができる。つまり、車両1までの視点距離が短くなることにより、仮想画像データより表示される画像が拡大(ズームイン)される。その結果、表示内容が簡略化され、ユーザの注目度を低下させることができる。また、第2領域が表示される場合、仮想視点38が遅い遷移速度で車両1の表面にほぼ沿った方向に移動するので、表示内容の変化が比較的少ない。一方、第1領域が表示される場合、仮想視点38が早い遷移速度で車両1の表面に対して接離する方向に移動するので、表示内容の変化が第2領域の表示に比べて大きくなる。つまり、第2領域の表示と第1領域の表示にメリハリを付けることができる。その結果、遅い遷移速度で表示される第2領域の表示をさらに際立たせることができる。   In addition, as shown in FIG. 6, in the movement locus 40, when the virtual viewpoint 38 moves in the first regions Q2 and Q4, the first line-of-sight distance L1 is moved in the second regions R1, R2, R3, and R4. By making the distance shorter than the second line-of-sight distance L2, when the first area is displayed, it is possible to give a clearer change (dynamic feeling) to the display than when the second area is displayed. That is, when the viewpoint distance to the vehicle 1 is shortened, the image displayed from the virtual image data is enlarged (zoomed in). As a result, the display content is simplified and the degree of attention of the user can be reduced. When the second region is displayed, the virtual viewpoint 38 moves in a direction substantially along the surface of the vehicle 1 at a slow transition speed, so that the display content changes relatively little. On the other hand, when the first area is displayed, the virtual viewpoint 38 moves toward and away from the surface of the vehicle 1 at a fast transition speed, so that the change in display content becomes larger than the display in the second area. . That is, the display of the second area and the display of the first area can be sharpened. As a result, the display of the second area displayed at a slow transition speed can be further emphasized.

ところで、仮想画像データは、車両1に搭載された撮像部15で撮像された撮像画像データに基づき生成されているため、撮像画像データには自車(車両1)は一部しか存在しない場合がある。例えば、撮像画像データには、バンパの一部やドアの一部しか映り込んでいない場合がある。その結果、撮像画像データに基づいて生成する仮想画像データには車両1の全体像は反映されない場合がある。そこで、データ制御部36は、例えばROM14bやSSD14fに予め記憶しておいた自車(車両1)の車両外形データを仮想画像データに重畳して、表示装置8に表示する視点変換画像に車両1が存在するようにして表示するようにしている。その結果、車両1(自車)の周囲に存在する物体と車両1との位置関係をより容易でユーザに理解させやすい表示ができる。なお、仮想視点38の移動に対応して車両1の見え方も刻々と変化するので、車両外形データはマッピングテーブルの変換情報の数に対応して準備しておくことが望ましい。   By the way, since the virtual image data is generated based on the captured image data captured by the imaging unit 15 mounted on the vehicle 1, there may be a case where only a part of the own vehicle (vehicle 1) exists in the captured image data. is there. For example, the captured image data may include only a part of the bumper and a part of the door. As a result, the entire image of the vehicle 1 may not be reflected in the virtual image data generated based on the captured image data. Therefore, the data control unit 36 superimposes the vehicle outer shape data of the host vehicle (vehicle 1) stored in advance in, for example, the ROM 14b or the SSD 14f on the virtual image data, and displays the vehicle 1 on the viewpoint conversion image displayed on the display device 8. Is displayed to exist. As a result, it is possible to display the positional relationship between the vehicle 1 and the object existing around the vehicle 1 (own vehicle) more easily and easily for the user to understand. Since the appearance of the vehicle 1 changes every moment corresponding to the movement of the virtual viewpoint 38, it is desirable to prepare the vehicle outer shape data corresponding to the number of conversion information in the mapping table.

車両外形データは、実際の車両1の撮影データを用いて作成してもよいし、アニメーションでもよい。また、車両外形データは、車両1を半透明や線図で表現したものを用いてもよい。車両外形データを半透明や線図で表現する場合、車両の奥側に存在する物体の存在や形状、大きさ等も把握させやすくすることができる。一方、車両外形データを実体表現で表示した場合、現実世界(現実空間)との乖離を少なくできるので、ユーザに受け入れられ易い画像を提供することができる。   The vehicle outer shape data may be created using actual shooting data of the vehicle 1 or may be an animation. Moreover, you may use the vehicle external shape data which expressed the vehicle 1 by translucency or a diagram. When the vehicle outer shape data is expressed by a semi-transparency or a diagram, it is possible to easily grasp the presence, shape, size, etc. of an object existing on the back side of the vehicle. On the other hand, when the vehicle outer shape data is displayed in a substance expression, the deviation from the real world (real space) can be reduced, so that an image that can be easily accepted by the user can be provided.

このように構成される周辺監視システム100の動作を図7のフローチャートを用いて以下に説明する。CPU14a(ECU14)は、まず、視点変換画像の表示要求があるか否かを判定する(S100)。例えば、CPU14aは、イグニッションスイッチの操作状態を確認し、イグニッションスイッチがONされた場合は、車両1は発進準備中であると判定できる。つまり、発進前の周囲状況の確認が望ましいので、CPU14aは表示要求ありと判定する。また、変速操作部7が「Pレンジ」に移行した場合、車両1は駐車準備中であると判定できる。つまり、車外に出る前に周囲状況の確認が望ましいので、CPU14aは表示要求ありと判定する。この場合、イグニッションスイッチの操作や変速操作部7の操作に伴い視点変換画像は自動表示モードで表示されることになる。また、別の実施形態では、操作部14g等を介してユーザが視点変換画像の表示を要求した場合、CPU14aは表示要求ありと判定する。この場合、視点変換画像は手動表示モードで表示されることになる。   The operation of the periphery monitoring system 100 configured as described above will be described below with reference to the flowchart of FIG. The CPU 14a (ECU 14) first determines whether or not there is a request to display a viewpoint-converted image (S100). For example, the CPU 14a confirms the operation state of the ignition switch. When the ignition switch is turned on, the CPU 1 can determine that the vehicle 1 is preparing to start. That is, since it is desirable to check the surrounding situation before the start, the CPU 14a determines that there is a display request. Further, when the shift operation unit 7 shifts to the “P range”, it can be determined that the vehicle 1 is preparing for parking. That is, since it is desirable to check the surroundings before leaving the vehicle, the CPU 14a determines that there is a display request. In this case, the viewpoint conversion image is displayed in the automatic display mode in accordance with the operation of the ignition switch or the operation of the speed change operation unit 7. In another embodiment, when the user requests display of a viewpoint conversion image via the operation unit 14g or the like, the CPU 14a determines that there is a display request. In this case, the viewpoint conversion image is displayed in the manual display mode.

CPU14aは、「表示要求なし」と判定した場合(S100のNo)、このフローを一旦終了する。一方、CPU14aは、「表示要求あり」と判定した場合(S100のYes)、画像取得部30は、表示制御部14dを介して各撮像部15a〜15dが撮像した車両1の周辺の撮像画像データ(現在画像)を取得する(S102)。そして、画像変換部32は、取得された撮像画像データをROM14bが記憶するマッピングテーブルの変換情報を用いて、仮想画像データを生成(変換)する(S104)。   When determining that “no display request” (No in S100), the CPU 14a temporarily ends this flow. On the other hand, if the CPU 14a determines that “there is a display request” (Yes in S100), the image acquisition unit 30 captures captured image data around the vehicle 1 captured by the imaging units 15a to 15d via the display control unit 14d. (Current image) is acquired (S102). Then, the image conversion unit 32 generates (converts) virtual image data using the conversion information of the mapping table in which the acquired captured image data is stored in the ROM 14b (S104).

続いて、データ制御部36は、視点変換画像の表示が開始されることを示す開始デモの表示を開始する(S106)。図8は、視点変換画像の表示の遷移を説明する説明図である。図8は、視点変換画像の表示内容の遷移を理解しやすくするために表示装置8に表示される仮想画像データによる画像を複数並べて図示しているが、実際は、一連の動画として表示装置8に表示される。   Subsequently, the data control unit 36 starts displaying a start demonstration indicating that display of the viewpoint conversion image is started (S106). FIG. 8 is an explanatory diagram for explaining the transition of the display of the viewpoint conversion image. FIG. 8 shows a plurality of images based on virtual image data displayed on the display device 8 in order to make it easy to understand the transition of the display content of the viewpoint-converted image. Is displayed.

開始デモは、図8において、画像P1〜画像P3である。画像P1では、車両1の俯瞰画像が表示される。この場合、撮像部15で取得した撮像画像データに基づき、車両1の周囲の状況(前景)が表示され、ROM14b等に記憶された車両1の外形画像が重畳表示されることになる。そして、第2領域R1を表示するための視線の高さに移行するために、俯瞰画像を表示するための仮想視点38が徐々に降下するような仮想画像データが順次表示される(画像P2、画像P3)。なお、このデモ画像を表示する際のデモ遷移速度は、例えば、第1遷移速度と第2遷移速度の間の速度とすることができる。図6の場合、矢印2つで表現している。また、図6の場合、表示開始位置Sの仮想画像データ(画像P1に対応)の表示が始まり、デモ遷移期間aをデモ遷移速度で仮想視点38が移動するように仮想画像データ(画像P2,P3に対応)の表示を行う。   The start demonstration is an image P1 to an image P3 in FIG. In the image P1, an overhead image of the vehicle 1 is displayed. In this case, based on the captured image data acquired by the imaging unit 15, the situation (foreground) around the vehicle 1 is displayed, and the outline image of the vehicle 1 stored in the ROM 14b or the like is superimposed and displayed. Then, in order to shift to the height of the line of sight for displaying the second region R1, virtual image data in which the virtual viewpoint 38 for displaying the overhead image gradually descends is sequentially displayed (image P2, Image P3). Note that the demo transition speed when displaying the demo image can be set to a speed between the first transition speed and the second transition speed, for example. In the case of FIG. 6, it is expressed by two arrows. In the case of FIG. 6, the display of the virtual image data (corresponding to the image P1) at the display start position S starts, and the virtual image data (image P2, P2) is moved so that the virtual viewpoint 38 moves at the demo transition speed in the demo transition period a. (Corresponding to P3) is displayed.

データ制御部36は、デモ画像が設定した視点高さの仮想画像データの表示に到達したか判定する(S108のNo)。データ制御部36は、表示する仮想画像データが、例えば地上高140cmの仮想視点38に対応するデータであると判定した場合(S108のYes)、仮想画像データの周回表示を開始する(S110)。データ制御部36は、第2領域R1に対応する仮想画像データの表示が開始された否かを判定し(S112のNo)、第2領域の仮想画像データの表示が開始されたと判定した場合(S112のYes)、第2領域R1に対応する仮想画像データの表示を第2遷移速度で行う(S114)。この場合、画像P4(図8参照)のような車両1の右フロントコーナ部r1(図6参照)に望む画像を表示する仮想画像データを示すための仮想視点38が移動軌跡40に沿って第2遷移速度で第2遷移期間bを移動する。前述したように、第2領域では、第1領域に比べて遅い第2遷移速度で仮想視点38が移動する。つまり、車両1の右フロントコーナ部r1の周辺状況をゆっくりと表示していく。その結果、右フロントコーナ部r1の周辺状況の詳細をユーザに認識させやすい表示ができる。また、この場合、画像P4に示されるように、仮想画像データには、右フロントコーナ部r1の周辺情報を中心として、フロント部q1の周辺情報および右サイド部q4の周辺情報が含まれる。したがって、ユーザは、表示装置8に表示されるゆっくりと表示される画像(動画)によって、車両1の右フロントコーナ部r1、フロント部q1および右サイド部q4の周辺情報を容易かつ詳細に認識することができる。   The data control unit 36 determines whether the display of virtual image data at the viewpoint height set by the demo image has been reached (No in S108). If the data control unit 36 determines that the virtual image data to be displayed is, for example, data corresponding to the virtual viewpoint 38 having a ground height of 140 cm (Yes in S108), the data control unit 36 starts circular display of the virtual image data (S110). The data control unit 36 determines whether or not display of virtual image data corresponding to the second region R1 has started (No in S112), and determines that display of virtual image data in the second region has started ( In S112, the virtual image data corresponding to the second region R1 is displayed at the second transition speed (S114). In this case, a virtual viewpoint 38 for indicating virtual image data for displaying a desired image on the right front corner portion r1 (see FIG. 6) of the vehicle 1 such as the image P4 (see FIG. 8) is moved along the movement locus 40. The second transition period b is moved at two transition speeds. As described above, in the second area, the virtual viewpoint 38 moves at a second transition speed that is slower than that of the first area. That is, the surrounding situation of the right front corner portion r1 of the vehicle 1 is slowly displayed. As a result, it is possible to display the details of the surrounding situation of the right front corner portion r1 so that the user can easily recognize the details. In this case, as shown in the image P4, the virtual image data includes the peripheral information of the front part q1 and the peripheral information of the right side part q4 with the peripheral information of the right front corner part r1 as the center. Therefore, the user easily and in detail recognizes the peripheral information of the right front corner portion r1, the front portion q1, and the right side portion q4 of the vehicle 1 from the slowly displayed image (moving image) displayed on the display device 8. be able to.

続いて、データ制御部36は、第1領域の仮想画像データの表示に移行したか判定する(S116)。第1領域Q1に対応する仮想画像データの表示が始まっていない場合(S116のNo)、データ制御部36は、第2遷移速度での仮想画像データの表示を継続する。一方、データ制御部36は、第1領域Q1に対応する仮想画像データの表示が始まったと判定した場合(S116のYes)、仮想画像データの表示を第1遷移速度で行う(S118)。この場合、画像P5(図8参照)のような車両1のフロント部q1(図6参照)を臨む画像を表示する仮想画像データを示すための仮想視点38が移動軌跡40に沿って第1遷移速度で第1遷移期間cを移動する。前述したように、第1領域では、第2領域に比べて早い第1遷移速度で仮想視点38が移動する。つまり、車両1のフロント部の周辺の表示は画像早送り状態で表示される。その結果、フロント部の周辺状況の詳細はユーザに認識されにくくなる。つまり、ユーザは、右フロントコーナ部r1に続くフロント部q1が表示されていることは認識できるものの、その詳細は意識することなく見飛ばし易くなる。つまり、第1領域Q1の表示期間中は、表示に注視する可能性を低くしてユーザの疲労感の緩和に寄与することができる。   Subsequently, the data control unit 36 determines whether the display has shifted to the display of the virtual image data in the first area (S116). When the display of the virtual image data corresponding to the first region Q1 has not started (No in S116), the data control unit 36 continues to display the virtual image data at the second transition speed. On the other hand, when it is determined that the display of the virtual image data corresponding to the first area Q1 has started (Yes in S116), the data control unit 36 displays the virtual image data at the first transition speed (S118). In this case, the virtual viewpoint 38 for indicating the virtual image data for displaying the image facing the front portion q1 (see FIG. 6) of the vehicle 1 such as the image P5 (see FIG. 8) changes along the movement locus 40 in the first transition. The first transition period c is moved at a speed. As described above, in the first area, the virtual viewpoint 38 moves at a first transition speed that is faster than that in the second area. That is, the display around the front portion of the vehicle 1 is displayed in the fast-forward image state. As a result, the details of the surroundings of the front part are not easily recognized by the user. That is, although the user can recognize that the front part q1 following the right front corner part r1 is displayed, it is easy to skip the details without being aware of it. That is, during the display period of the first region Q1, it is possible to reduce the possibility of gazing at the display and contribute to alleviating the user's fatigue.

次に、データ制御部36は、仮想画像データによる車両1の周回表示が完了したか否か判定する(S120)。仮想画像データによる車両1の周回表示が完了していない場合(S120のNo)、つまり、4つのコーナ部の表示を完了していない場合、S112に移行し、第2領域R2に対応する仮想画像データの表示が開始された否かを判定し、S112からの処理を再度行う。データ制御部36は、第2領域R2の仮想画像データの表示が開始されたと判定した場合(S112のYes)、仮想画像データの表示を第2遷移速度で行う(S114)。この場合、画像P6(図8参照)のような車両1の左フロントコーナ部r2(図6参照)を臨む画像を表示する仮想画像データを示すための仮想視点38が移動軌跡40に沿って第2遷移速度で第2遷移期間dを移動する。その結果、左フロントコーナ部r2の周辺状況をゆっくりと表示することになる。続いて、第1領域Q2に対応する仮想画像データの表示が始まったと判定した場合(S116のYes)、仮想画像データの表示を第1遷移速度で行う(S118)。この場合、画像P7〜画像P9(図8参照)に示すように車両1の左サイド部q2(図6参照)を臨む画像を表示する仮想画像データを示すための仮想視点38が移動軌跡40に沿って第1遷移速度で第1遷移期間eを移動する。前述したように、仮想視点38は、第1遷移期間eの移動中にこれまでの第2視線距離L2からそれより短い第1視線距離L1に変化する。その結果、仮想画像データによって表示される第1領域Q2の画像は、車両1の左サイド部q2に臨むとともに、左サイド部q2に向かう高速の第1遷移速度でズームインするように表示される(画像P7〜画像P8)。画像P8では、車両1の左ドアが拡大表示されたような画像が表示される。その後、データ制御部36は、次に表示する第2領域R3の画像P10に向けて第2視線距離L2になるようにズームアウトする仮想画像データの表示を行う(画像P9)。   Next, the data control unit 36 determines whether or not the circular display of the vehicle 1 using the virtual image data is completed (S120). When the circular display of the vehicle 1 by the virtual image data is not completed (No in S120), that is, when the display of the four corner portions is not completed, the process proceeds to S112, and the virtual image corresponding to the second region R2 It is determined whether or not data display is started, and the processing from S112 is performed again. When it is determined that the display of the virtual image data in the second region R2 has started (Yes in S112), the data control unit 36 displays the virtual image data at the second transition speed (S114). In this case, a virtual viewpoint 38 for indicating virtual image data for displaying an image facing the left front corner portion r2 (see FIG. 6) of the vehicle 1 such as the image P6 (see FIG. 8) is moved along the movement locus 40. The second transition period d is moved at two transition speeds. As a result, the situation around the left front corner r2 is slowly displayed. Subsequently, when it is determined that the display of the virtual image data corresponding to the first region Q2 has started (Yes in S116), the display of the virtual image data is performed at the first transition speed (S118). In this case, as shown in the images P7 to P9 (see FIG. 8), the virtual viewpoint 38 for indicating the virtual image data for displaying the image facing the left side portion q2 (see FIG. 6) of the vehicle 1 is the movement locus 40. The first transition period e is moved along the first transition speed along the first transition period e. As described above, the virtual viewpoint 38 changes from the previous second line-of-sight distance L2 to the first line-of-sight distance L1 shorter than that during the movement of the first transition period e. As a result, the image of the first area Q2 displayed by the virtual image data is displayed so as to zoom in at the high-speed first transition speed toward the left side part q2 while facing the left side part q2 of the vehicle 1 ( Image P7 to Image P8). In the image P8, an image as if the left door of the vehicle 1 is enlarged is displayed. Thereafter, the data control unit 36 displays virtual image data that is zoomed out so as to be the second visual line distance L2 toward the image P10 of the second region R3 to be displayed next (image P9).

この時点で、周回表示は完了していないので(S120のNo)、データ制御部36は、再度S112に戻りS112からの処理を実行する。つまり、第2領域R3が示される第2遷移期間fを移動する仮想視点38を第2遷移速度で移動させたように仮想画像データの表示を行う(画像P10)。続いて、第1領域Q3が示される第1遷移期間gを移動する仮想視点38を第1遷移速度で移動させたように仮想画像データの表示を行う(画像P11)。さらに、第2領域R4が示される第2遷移期間hを移動する仮想視点38を第2遷移速度で移動させたように仮想画像データの表示を行う(画像P12)。続いて、第1領域Q4が示される第1遷移期間iを移動する仮想視点38を第1遷移速度で移動させたように仮想画像データの表示を行う(画像P11)。同様に、第2領域R4が示される第2遷移期間hを移動する仮想視点38を第2遷移速度で移動させたように仮想画像データの表示を行う(画像P12)。そして、第1領域Q4が示される第1遷移期間iを移動する仮想視点38を第1遷移速度で移動させたように仮想画像データの表示を行う(画像P13、画像P14、画像P15)。   At this time, since the circular display is not completed (No in S120), the data control unit 36 returns to S112 again and executes the processes from S112. That is, the virtual image data is displayed as if the virtual viewpoint 38 moving in the second transition period f in which the second region R3 is indicated is moved at the second transition speed (image P10). Subsequently, the virtual image data is displayed as if the virtual viewpoint 38 moving in the first transition period g in which the first region Q3 is indicated is moved at the first transition speed (image P11). Further, the virtual image data is displayed as if the virtual viewpoint 38 moving in the second transition period h in which the second region R4 is indicated is moved at the second transition speed (image P12). Subsequently, the virtual image data is displayed as if the virtual viewpoint 38 moving in the first transition period i in which the first region Q4 is indicated is moved at the first transition speed (image P11). Similarly, the virtual image data is displayed as if the virtual viewpoint 38 moving in the second transition period h in which the second region R4 is indicated is moved at the second transition speed (image P12). Then, the virtual image data is displayed as if the virtual viewpoint 38 moving in the first transition period i in which the first region Q4 is indicated is moved at the first transition speed (image P13, image P14, image P15).

データ制御部36は、周回表示が完了したと判定した場合(S120のYes)、終了デモの表示を行う(S122)。終了デモは、仮想視点38を開始デモとは逆に表示開始位置Sと同じ高さの表示終了位置Eに戻すように仮想画像データを表示するものである。つまり、俯瞰画像を表示するための仮想視点38が徐々に上昇する(画像P3、画像P2)。仮想視点38の周回移動は、第1領域Q4で完了することになるが、本実施形態の場合、終了デモに、初回に表示した第2領域R1の表示を含め、その表示の後に仮想視点38を上昇する例を示している。つまり、終了デモは、仮想視点38が第2遷移期間j(開始デモ直後の第2遷移期間bと同じでも異なってもよい)を移動するような仮想画像データの表示を行う(画像P4)。続いて、データ制御部36は仮想視点38がデモ遷移期間kを移動するような仮想画像データの表示を行う(画像P3、画像P2、画像P1)。この場合のデモ遷移速度は、例えば、第1遷移速度と第2遷移速度の間の速度とすることができる。この場合、デモ遷移速度は、矢印2つで表現している。上述したように、終了デモに、最初に表示した第2領域R1を表示することにより、周回表示の終わりをユーザに認識させやすくすることができるとともに仮想視点38の上昇が唐突に始まる違和感を軽減することができる。なお、図6の説明では、終了デモに第2領域R1の全領域の表示を含めたが、第2領域R1の表示の一部でもよい。別の実施形態では、第1領域Q4の最後で仮想画像データの表示を所定期間静止させた後、仮想視点38がデモ遷移期間kを移動するように仮想画像データを表示してもよい。また、別の実施形態では、第1領域Q4の終盤で仮想視点38の移動速度が遅くなるように仮想画像データの表示を行い、第2領域R1の表示を行うことなく、仮想視点38がデモ遷移期間kをデモ遷移速度で移動するような仮想画像データを表示してもよい。つまり、周回終了後の画像P4の表示(第2領域R1に対応する仮想画像データの表示)を省略してもよい。   When it is determined that the circular display is completed (Yes in S120), the data control unit 36 displays an end demonstration (S122). In the end demo, virtual image data is displayed so that the virtual viewpoint 38 is returned to the display end position E having the same height as the display start position S, contrary to the start demo. That is, the virtual viewpoint 38 for displaying the bird's-eye view image gradually rises (image P3, image P2). The circular movement of the virtual viewpoint 38 is completed in the first area Q4. However, in the present embodiment, the display of the second area R1 displayed for the first time is included in the end demonstration, and the virtual viewpoint 38 is displayed after the display. An example of rising is shown. In other words, the end demo displays virtual image data such that the virtual viewpoint 38 moves in the second transition period j (which may be the same as or different from the second transition period b immediately after the start demo) (image P4). Subsequently, the data control unit 36 displays virtual image data such that the virtual viewpoint 38 moves in the demo transition period k (image P3, image P2, and image P1). The demo transition speed in this case can be set to a speed between the first transition speed and the second transition speed, for example. In this case, the demo transition speed is represented by two arrows. As described above, by displaying the second region R1 that is displayed first in the end demonstration, it is possible to make the user easily recognize the end of the circular display and to reduce the sense of discomfort that the virtual viewpoint 38 starts to rise suddenly. can do. In the description of FIG. 6, the display of the entire area of the second area R1 is included in the end demo, but a part of the display of the second area R1 may be used. In another embodiment, the virtual image data may be displayed so that the virtual viewpoint 38 moves in the demo transition period k after the display of the virtual image data is stopped for a predetermined period at the end of the first region Q4. In another embodiment, virtual image data is displayed so that the moving speed of the virtual viewpoint 38 becomes slow at the end of the first area Q4, and the virtual viewpoint 38 is demoed without displaying the second area R1. Virtual image data that moves in the transition period k at the demo transition speed may be displayed. That is, the display of the image P4 after the circulation (display of the virtual image data corresponding to the second region R1) may be omitted.

そして、データ制御部36は、終了デモの表示が完了したか否かの判定を行い(S124のNo)、終了デモが完了した場合(S124のYes)、一連の処理を終了する。この場合、CPU14aは「視点変換画像の表示を終了します」等のメッセージの出力を行ってもよい。   Then, the data control unit 36 determines whether or not the display of the end demo is completed (No in S124), and when the end demo is completed (Yes in S124), the series of processing ends. In this case, the CPU 14a may output a message such as “End display of viewpoint-converted image”.

このように車両1を臨む第2領域の表示を速度が遅い第2遷移速度で表示し、第1領域の表示を速度が早い第1遷移速度で表示することにより、ユーザの負担を軽減しつつ、車両1の周囲状況をより把握し易い状態の連続表示(動画)を提供することができる。   In this way, the display of the second area facing the vehicle 1 is displayed at the second transition speed with a low speed, and the display of the first area is displayed at the first transition speed with a high speed, thereby reducing the burden on the user. In addition, it is possible to provide a continuous display (moving image) in a state where it is easier to grasp the surrounding situation of the vehicle 1.

なお、上述した実施形態の仮想視点38は、車両1のサイド部(側面)を臨む第1領域Q2,Q4を移動する場合に、車両1までの距離が短い第1視線距離L1となる場合を示した。別の実施形態では、図6に点線で示すように、第1視線距離L1より長い第2視線距離L2のまま仮想視点38が車両1のサイド部(側面)を臨む第1領域Q5,Q6を移動するようにしてもよい。仮想視点38が車両1のサイド部(側面)を臨む第1領域Q5,Q6を移動する場合、仮想画像データにより示される画像において車両1のサイド部が比較的認識し易く表示される。その結果、ユーザの注目度は、仮想視点38が第1領域Q2,Q4を移動する場合に比べて高くなり、サイド部を目視している場合の疲労感が増加してしまう場合がある。ただし、現在車両1のどの部分を表示しているかの認識がし易くなるというメリットがある。   The virtual viewpoint 38 of the above-described embodiment is a case where the distance to the vehicle 1 is the first line-of-sight distance L1 when moving in the first regions Q2 and Q4 facing the side portions (side surfaces) of the vehicle 1. Indicated. In another embodiment, as indicated by a dotted line in FIG. 6, the first regions Q5 and Q6 in which the virtual viewpoint 38 faces the side portion (side surface) of the vehicle 1 with the second line-of-sight distance L2 being longer than the first line-of-sight distance L1. You may make it move. When the virtual viewpoint 38 moves in the first regions Q5 and Q6 facing the side portion (side surface) of the vehicle 1, the side portion of the vehicle 1 is displayed relatively easily in the image indicated by the virtual image data. As a result, the degree of attention of the user is higher than when the virtual viewpoint 38 moves in the first regions Q2 and Q4, and there may be an increase in fatigue when viewing the side portion. However, there is an advantage that it is easy to recognize which part of the vehicle 1 is currently displayed.

ところで、車両1に接近した位置に物体(障害物)が存在する場合がある。そして、この物体を含む撮像画像データを予め設定した仮想視点38に基づき仮想画像データに変換した場合、その物体が仮想視点38と車両1との間に存在する場合がある。この場合、仮想画像データにより表示される表示領域の大部分が物体によって埋められてしまう場合がある。CPU14aは物体を検出した場合、物体の存在する位置に応じて、画像変換部32が仮想画像データを変換する場合の仮想視点38の画角を変更するようにしてもよい。例えば、図9に示すように、仮想視点38の画角を広くすることにより(画角=α)、仮想画像データで表示できる表示範囲が広くなり車両1の周囲状況についてより多くの情報を表示画像に含めることができる。逆に、仮想視点38の画角を狭くすることにより(画角=β)、仮想画像データで表示される情報が絞られて車両1の周囲状況の細部に着目させやすい表示ができる。   By the way, an object (obstacle) may exist at a position approaching the vehicle 1. When the captured image data including the object is converted into virtual image data based on the preset virtual viewpoint 38, the object may exist between the virtual viewpoint 38 and the vehicle 1. In this case, a large part of the display area displayed by the virtual image data may be filled with the object. When detecting an object, the CPU 14a may change the angle of view of the virtual viewpoint 38 when the image conversion unit 32 converts the virtual image data according to the position where the object exists. For example, as shown in FIG. 9, by widening the angle of view of the virtual viewpoint 38 (view angle = α), the display range that can be displayed with the virtual image data becomes wider, and more information about the surrounding situation of the vehicle 1 is displayed. Can be included in the image. Conversely, by narrowing the angle of view of the virtual viewpoint 38 (view angle = β), the information displayed in the virtual image data is narrowed down, and a display that makes it easy to focus on the details of the surrounding situation of the vehicle 1 can be achieved.

また、前述したように車両1は、周囲に存在する物体の有無を検出する物体検出部として、例えば測距部16、測距部17等を備える。したがって、画像変換部32は、物体が検出された場合、その物体と車両1との間に仮想視点38の移動軌跡が存在するように仮想画像データを変換するようにしてもよい。前述したように、車両1と仮想視点38との間に物体が存在していた場合、仮想画像データで示される画面上で、その物体が占める表示面積が大きくなってしまう場合がある。その結果、仮想画像データに含まれる情報料が少なくなり(物体の情報だけになり)車両1の周囲状況の表示が不十分になる場合がある。このような場合、物体と車両1との間に仮想視点38の移動軌跡が存在するように仮想画像データを変換することで、物体の影響を受けることなく車両1の表示、つまり車両周囲に表示が可能になる。なお、物体と車両1との間に仮想視点38の移動軌跡が存在するようにすると、物体は表示されなくなるが、仮想視点38が物体の正面以外の位置にある場合に、その物体が仮想視点38の画角に入り込む可能性が高いので、物体を見落とす可能性は低い。   Further, as described above, the vehicle 1 includes, for example, the distance measuring unit 16, the distance measuring unit 17, and the like as an object detecting unit that detects the presence or absence of an object existing in the vicinity. Therefore, when an object is detected, the image conversion unit 32 may convert the virtual image data so that the movement locus of the virtual viewpoint 38 exists between the object and the vehicle 1. As described above, when an object is present between the vehicle 1 and the virtual viewpoint 38, the display area occupied by the object may increase on the screen indicated by the virtual image data. As a result, the information fee included in the virtual image data is reduced (only object information is provided), and the surrounding situation of the vehicle 1 may be insufficiently displayed. In such a case, by converting the virtual image data so that the movement locus of the virtual viewpoint 38 exists between the object and the vehicle 1, the vehicle 1 is displayed without being influenced by the object, that is, displayed around the vehicle. Is possible. If the movement locus of the virtual viewpoint 38 exists between the object and the vehicle 1, the object is not displayed. However, when the virtual viewpoint 38 is at a position other than the front of the object, the object Since there is a high possibility of entering the angle of view of 38, the possibility of overlooking an object is low.

上述した実施形態では、撮像部15が撮像した現在画像(リアルタイム画像)により仮想画像データを生成する例を示したが、撮像画像データを一時的にRAM14c等に保存して仮想画像データをタイミングを遅らせて生成するようにしてもよい。この場合、表示のリアルタイム性は僅かに低下する場合があるが、処理速度の遅いCPU14aの利用も可能になり、周辺監視装置のコスト削減に寄与できる。また、撮像部15で撮像してRAM14c等に保存しておいた過去画像を用いて、本実施形態で示した視点変換画像を表示するようにしてもよい。この場合、現在の車両1の周囲のみならず、移動してきた領域(現在の車両1の位置から離れた位置)の状況(過去の状況)の把握も可能になり、周辺監視装置の利用機会を増やすことができる。   In the embodiment described above, an example in which virtual image data is generated from the current image (real-time image) captured by the imaging unit 15 has been shown. However, the captured image data is temporarily stored in the RAM 14c or the like, and the virtual image data is timed. You may make it produce | generate with delay. In this case, although the real-time property of the display may be slightly lowered, the CPU 14a having a low processing speed can be used, which can contribute to the cost reduction of the peripheral monitoring device. Further, the viewpoint conversion image shown in the present embodiment may be displayed using a past image captured by the imaging unit 15 and stored in the RAM 14c or the like. In this case, not only the surroundings of the current vehicle 1 but also the situation (the past situation) of the area that has moved (a position away from the current position of the vehicle 1) can be grasped, and an opportunity to use the periphery monitoring device can be obtained. Can be increased.

上述した実施形態では、ユーザが乗り込んでいる車両1を中心に、例えば周囲遠方より当該車両1を臨むような画像を表示するように、仮想視点38を設定した例を示したが、仮想視点38を車両1の車内で設定し、車内から車外を臨むようにしてもよい。この場合、ユーザが車両1のシートに着座した姿勢で見える車両1の周囲状況を表示装置8に表示することができる。この場合、仮想視点38は、車内に設定した例えば円形の移動軌跡上を移動してもよいし、車内で仮想視点38を一点で回転するようにして視点方向のみが移動するようにしてもよい。この場合、仮想画像データ上に重畳される車両1の外形は、半透明や線図で表現され、車両1の周囲の状況が車両1の重畳画像によって遮られないようにすることが望ましい。この場合も第1領域と第2領域とで仮想画像データの表示の遷移速度を異ならせる(コーナ部に臨むときに遅くする)ことにより、上述した実施形態と同様の効果を得ることができる。   In the embodiment described above, an example in which the virtual viewpoint 38 is set so as to display, for example, an image that faces the vehicle 1 from a distance away from the surroundings of the vehicle 1 on which the user is getting is shown. May be set in the vehicle 1 so as to face the outside of the vehicle. In this case, the surrounding state of the vehicle 1 that can be seen in the posture in which the user is seated on the seat of the vehicle 1 can be displayed on the display device 8. In this case, the virtual viewpoint 38 may move, for example, on a circular movement trajectory set in the vehicle, or the virtual viewpoint 38 may be rotated only at one point in the vehicle so that only the viewpoint direction moves. . In this case, it is desirable that the outer shape of the vehicle 1 superimposed on the virtual image data is represented by translucency or a diagram so that the situation around the vehicle 1 is not obstructed by the superimposed image of the vehicle 1. Also in this case, the same effect as that of the above-described embodiment can be obtained by making the transition speed of the display of the virtual image data different between the first area and the second area (lowering when facing the corner portion).

また、本実施形態では、仮想視点38の移動軌跡の高さを車両1に標準的な体格のユーザが着座した場合の視線高さ(例えば140cm)とする場合を一例として示したが、移動軌跡の高さは適宜変更可能である。例えば、俯瞰画像を表示してもよく、第1領域と第2領域とで仮想画像データの表示の遷移速度を異ならせる(コーナ部に臨むときに遅くする)ことにより、上述した実施形態と同様の効果を得ることができる。また、車両1の周囲に物体が存在し、仮想画像データに変換した場合、その物体が表示画面を埋めてしまい車両1の周囲状況の表示が不十分になるような場合、移動軌跡の高さを高くすることにより、物体が遮る部分が変化して、車両1の表示が可能になり、車両1の周囲状況の表示を改善しユーザに認識させることができる。   Further, in the present embodiment, the case where the height of the movement locus of the virtual viewpoint 38 is set as the line-of-sight height (for example, 140 cm) when a user with a standard physique is seated on the vehicle 1 is shown as an example. The height of can be changed as appropriate. For example, a bird's-eye view image may be displayed, and the transition speed of display of virtual image data is made different between the first area and the second area (slower when approaching the corner portion), as in the above-described embodiment. The effect of can be obtained. In addition, when an object exists around the vehicle 1 and is converted into virtual image data, the height of the movement trajectory is increased when the object fills the display screen and the surrounding situation of the vehicle 1 is insufficiently displayed. By raising the value, the portion that is blocked by the object changes, and the display of the vehicle 1 becomes possible, and the display of the surrounding situation of the vehicle 1 can be improved and the user can recognize it.

本発明の実施形態及び変形例を説明したが、これらの実施形態及び変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although embodiments and modifications of the present invention have been described, these embodiments and modifications are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…車両、2…車体、8…表示装置、14…ECU、14a…CPU、14b…ROM、14d…表示制御部、14g…操作部、15,15a,15b,15c,15d…撮像部、30…画像取得部、32…画像変換部、34…操作受付部、36…データ制御部、38…仮想視点、40…移動軌跡、100…周辺監視システム(周辺監視装置)、Q1,Q2,Q3,Q4…第1領域、R1,R2,R3,R4…第2領域。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Vehicle body, 8 ... Display apparatus, 14 ... ECU, 14a ... CPU, 14b ... ROM, 14d ... Display control part, 14g ... Operation part, 15, 15a, 15b, 15c, 15d ... Imaging part, 30 DESCRIPTION OF SYMBOLS ... Image acquisition part, 32 ... Image conversion part, 34 ... Operation reception part, 36 ... Data control part, 38 ... Virtual viewpoint, 40 ... Movement locus, 100 ... Perimeter monitoring system (periphery monitoring apparatus), Q1, Q2, Q3 Q4 ... 1st area | region, R1, R2, R3, R4 ... 2nd area | region.

Claims (5)

車両に設けられて当該車両の周辺を撮像する撮像部から出力された撮像画像データを取得する画像取得部と、
記撮像画像データを、前記撮像部が撮像した視点とは異なる仮想視点から撮像したような仮想画像データに変換する画像変換部と、
前記仮想視点が前記車両を中心に移動するように前記仮想画像データを前記車両の車室内に設けられた表示装置に順次表示する制御部と、
を備え、
前記画像変換部は、前記仮想視点が少なくとも前記車両の周囲のうち側面を含む第1領域を移動する場合の前記車両までの第1視線距離が前記第1領域と異なる第2領域を移動する場合の前記車両までの第2視線距離よりも短くなるように前記仮想画像データを変換し、
前記制御部は、前記仮想視点が、前記第1領域を通過するように前記仮想画像データを順次表示する第1遷移期間と、前記第2領域を通過するように前記仮想画像データを順次表示する第2遷移期間とで前記仮想画像データを表示する際の遷移速度を異ならせる周辺監視装置。
An image acquisition unit that is provided in a vehicle and acquires captured image data output from an imaging unit that images the periphery of the vehicle;
The pre-Symbol captured image data, an image converting unit that converts the virtual image data as captured from different virtual viewpoints from the viewpoint which the imaging unit has captured,
A control unit for sequentially displaying the virtual image data on a display device provided in a vehicle interior of the vehicle so that the virtual viewpoint moves around the vehicle;
With
In the case where the image conversion unit moves in a second region where the first line-of-sight distance to the vehicle is different from the first region when the virtual viewpoint moves in a first region including at least a side surface of the periphery of the vehicle. Converting the virtual image data to be shorter than the second line-of-sight distance to the vehicle,
Wherein the control unit, the virtual viewpoint, and a pre-Symbol first transition period for sequentially displaying the virtual image data so as to pass through the first region, the virtual image data so as to pass through the pre-Symbol second region successively A periphery monitoring device that changes a transition speed when displaying the virtual image data in a second transition period to be displayed.
前記第2領域は前記車両のコーナ部を臨む領域であり、前記第1領域は隣接する前記第2領域に挟まれた領域である請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the second region is a region facing a corner portion of the vehicle, and the first region is a region sandwiched between the adjacent second regions. 前記制御部は、前記第2遷移期間の第2遷移速度が前記第1遷移期間の第1遷移速度より遅くなるように前記仮想画像データを表示する請求項1または請求項2に記載の周辺監視装置。   The periphery monitoring according to claim 1, wherein the control unit displays the virtual image data so that a second transition speed of the second transition period is slower than a first transition speed of the first transition period. apparatus. 前記画像変換部は、前記仮想視点の画角を変更可能である請求項1から請求項3のいずれか1項に記載の周辺監視装置。   The periphery monitoring device according to any one of claims 1 to 3, wherein the image conversion unit is capable of changing a field angle of the virtual viewpoint. さらに、前記車両の周囲に存在する物体の有無を検出する物体検出部を備え、
前記画像変換部は、前記物体が検出された場合、前記物体と前記車両との間に前記仮想視点の移動軌跡が存在するように前記仮想画像データを変換する請求項1から請求項4のいずれか1項に記載の周辺監視装置。
Furthermore, an object detection unit that detects the presence or absence of an object present around the vehicle,
5. The image conversion unit according to claim 1, wherein, when the object is detected, the image conversion unit converts the virtual image data so that a movement locus of the virtual viewpoint exists between the object and the vehicle. The perimeter monitoring device according to claim 1.
JP2015195075A 2015-09-30 2015-09-30 Perimeter monitoring device Expired - Fee Related JP6610140B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015195075A JP6610140B2 (en) 2015-09-30 2015-09-30 Perimeter monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015195075A JP6610140B2 (en) 2015-09-30 2015-09-30 Perimeter monitoring device

Publications (2)

Publication Number Publication Date
JP2017065572A JP2017065572A (en) 2017-04-06
JP6610140B2 true JP6610140B2 (en) 2019-11-27

Family

ID=58491409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015195075A Expired - Fee Related JP6610140B2 (en) 2015-09-30 2015-09-30 Perimeter monitoring device

Country Status (1)

Country Link
JP (1) JP6610140B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6962036B2 (en) * 2017-07-07 2021-11-05 株式会社アイシン Peripheral monitoring device
JP7000980B2 (en) * 2018-05-08 2022-01-19 トヨタ自動車株式会社 Parking support device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341572A (en) * 2003-05-12 2004-12-02 Namco Ltd Image generation system, program, and information storage medium
JP5439890B2 (en) * 2009-03-25 2014-03-12 富士通株式会社 Image processing method, image processing apparatus, and program
JP6105244B2 (en) * 2012-09-28 2017-03-29 富士通テン株式会社 Image processing apparatus and image processing system
JP6257978B2 (en) * 2013-09-19 2018-01-10 株式会社デンソーテン Image generation apparatus, image display system, and image generation method

Also Published As

Publication number Publication date
JP2017065572A (en) 2017-04-06

Similar Documents

Publication Publication Date Title
JP6806156B2 (en) Peripheral monitoring device
US9216765B2 (en) Parking assist apparatus, parking assist method and program thereof
CN107925746B (en) Peripheral monitoring device
US11472339B2 (en) Vehicle periphery display device
US20160075377A1 (en) Parking assist system, parking assist method and parking assist control program
US10055994B2 (en) Parking assistance device
JP6760122B2 (en) Peripheral monitoring device
US11620834B2 (en) Periphery monitoring device
JP2020120327A (en) Peripheral display control device
JP6613774B2 (en) Perimeter monitoring device
CN110997409B (en) Peripheral monitoring device
JP5991112B2 (en) Parking assistance device, control method, and program
JP2017094922A (en) Periphery monitoring device
JP2014004930A (en) Parking support device, parking support method, and parking support program
JP2019054420A (en) Image processing system
CN110959289B (en) Peripheral monitoring device
JP7283514B2 (en) display controller
JP6642307B2 (en) Perimeter monitoring device
JP6610140B2 (en) Perimeter monitoring device
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP6977318B2 (en) Peripheral display device
JP2020043418A (en) Periphery monitoring device
JP7130923B2 (en) display controller
JP6965563B2 (en) Peripheral monitoring device
JP6606956B2 (en) Perimeter monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180809

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191014

R151 Written notification of patent or utility model registration

Ref document number: 6610140

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees