JP2019014397A - Periphery monitoring device - Google Patents

Periphery monitoring device Download PDF

Info

Publication number
JP2019014397A
JP2019014397A JP2017133813A JP2017133813A JP2019014397A JP 2019014397 A JP2019014397 A JP 2019014397A JP 2017133813 A JP2017133813 A JP 2017133813A JP 2017133813 A JP2017133813 A JP 2017133813A JP 2019014397 A JP2019014397 A JP 2019014397A
Authority
JP
Japan
Prior art keywords
vehicle
image
display
display image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017133813A
Other languages
Japanese (ja)
Other versions
JP6962035B2 (en
Inventor
渡邊 一矢
Kazuya Watanabe
一矢 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017133813A priority Critical patent/JP6962035B2/en
Publication of JP2019014397A publication Critical patent/JP2019014397A/en
Application granted granted Critical
Publication of JP6962035B2 publication Critical patent/JP6962035B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a periphery monitoring device that can reduce burdens which are applied to an occupant of a vehicle when displaying a first image on a display part.SOLUTION: A periphery monitoring device according to one embodiment, as one example, comprises: a generation part that generates a first image, in which a gazing point fixed into a virtual space having images of a vehicle provided in spaces surrounding the vehicle is viewed from a virtual viewpoint inputted through an operation input part, on the basis of photographed images obtained by photographing the circumference of the vehicle by a photographing part mounted on the vehicle; and an output part that outputs on a display part the first image generated by the generation part.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、周辺監視装置に関する。   Embodiments described herein relate generally to a periphery monitoring device.

撮像部によって車両の周囲を撮像して得られる撮像画像に基づいて、車両の周囲の三次元の画像でありかつ車両の周囲の注視点を仮想視点から見た表示用画像を生成し、当該生成した表示用画像を表示部に表示させる技術が開発されている。   Based on the captured image obtained by imaging the surroundings of the vehicle by the imaging unit, a display image that is a three-dimensional image around the vehicle and that looks at the gazing point around the vehicle from a virtual viewpoint is generated, and the generation A technique for displaying the displayed image on the display unit has been developed.

国際公開第2014/156220号International Publication No. 2014/156220

しかしながら、表示用画像を表示部に表示させる際に、注視点および仮想視点の両方をユーザが設定する場合、注視点および仮想視点の設定によるユーザの負担が大きくなる。   However, when the user sets both the gazing point and the virtual viewpoint when displaying the display image on the display unit, the burden on the user due to the setting of the gazing point and the virtual viewpoint increases.

実施形態の周辺監視装置は、一例として、車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像に基づいて、車両の周囲の空間に車両画像を設けた仮想空間内の固定された注視点を、操作入力部を介して入力された仮想視点から見た第1画像を生成する生成部と、生成部により生成される第1画像を表示部に出力する出力部と、を備える。よって、一例として、第1画像を表示部に表示させる際の車両の乗員にかかる負担を軽減できる。   As an example, the periphery monitoring device of the embodiment is fixed in a virtual space in which a vehicle image is provided in a space around the vehicle based on a captured image obtained by imaging the periphery of the vehicle by an imaging unit mounted on the vehicle. A generation unit that generates a first image of the gazing point that is viewed from a virtual viewpoint input via the operation input unit; and an output unit that outputs the first image generated by the generation unit to the display unit. Prepare. Therefore, as an example, it is possible to reduce the burden on the vehicle occupant when the first image is displayed on the display unit.

また、周辺監視装置は、一例として、生成部は、車両画像から予め設定された距離離れた位置を注視点とする。よって、一例として、車両の乗員から見て死角になる位置に注視点を予め設定しておくことにより、車両の乗員が操作入力部を介して注視点を入力しなくても、車両の死角になる位置の画像を表示部を介して確認することができる。   Further, as an example, in the periphery monitoring device, the generation unit sets a gaze point at a position away from a vehicle image by a preset distance. Therefore, as an example, by setting the gazing point in advance at a position that becomes a blind spot as seen from the vehicle occupant, the vehicle occupant can set the blind spot of the vehicle without inputting the gazing point via the operation input unit. It is possible to confirm an image at a position via the display unit.

また、周辺監視装置は、一例として、生成部は、車両の移動に対応させた車両画像の移動に伴って、注視点を移動させる。よって、一例として、第1画像を表示部に表示させる際の車両の乗員にかかる負担を軽減できる。   For example, in the periphery monitoring device, the generation unit moves the gazing point with the movement of the vehicle image corresponding to the movement of the vehicle. Therefore, as an example, it is possible to reduce the burden on the vehicle occupant when the first image is displayed on the display unit.

また、周辺監視装置は、一例として、生成部は、仮想視点を入力可能とする操作画像を含む第1画像を生成し、操作画像を用いて新たな仮想視点が入力された場合、新たな仮想視点から注視点を見た第1画像を生成し直す。よって、一例として、第1画像を表示部に表示させる際の車両の乗員にかかる負担をより軽減できる。   For example, in the periphery monitoring device, the generation unit generates a first image including an operation image that allows a virtual viewpoint to be input, and when a new virtual viewpoint is input using the operation image, a new virtual viewpoint is input. Regenerate the first image that looks at the gazing point from the viewpoint. Therefore, as an example, the burden on the vehicle occupant when the first image is displayed on the display unit can be further reduced.

また、周辺監視装置は、一例として、車両画像は、車両の三次元の画像である。よって、一例として、第1画像に含まれる車両画像とその周囲の立体物との位置関係をより分かり易くすることができる。   Moreover, as for an example of the periphery monitoring device, the vehicle image is a three-dimensional image of the vehicle. Therefore, as an example, the positional relationship between the vehicle image included in the first image and the surrounding three-dimensional object can be made easier to understand.

図1は、本実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the periphery monitoring device according to the present embodiment is mounted is seen through. 図2は、本実施形態にかかる車両の一例の平面図である。FIG. 2 is a plan view of an example of a vehicle according to the present embodiment. 図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration of the vehicle according to the present embodiment. 図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a functional configuration of the ECU included in the vehicle according to the present embodiment. 図5は、本実施形態にかかる車両による表示用画像の表示処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a flow of display processing of the display image by the vehicle according to the present embodiment. 図6は、本実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a camera image model used for generating a display image by the vehicle according to the present embodiment. 図7は、本実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。FIG. 7 is a diagram for explaining an example of a camera image model used for generating a display image by the vehicle according to the present embodiment. 図8は、本実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルおよび車両画像の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of a camera image model and a vehicle image used for generating a display image by the vehicle according to the present embodiment. 図9は、本実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルおよび車両画像の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of a camera image model and a vehicle image used for generating a display image by the vehicle according to the present embodiment. 図10は、本実施形態にかかる車両において生成される表示用画像の一例を示す図である。FIG. 10 is a diagram illustrating an example of a display image generated in the vehicle according to the present embodiment. 図11は、本実施形態にかかる車両において生成される表示用画像の一例を示す図である。FIG. 11 is a diagram illustrating an example of a display image generated in the vehicle according to the present embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によって実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも1つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration of the embodiment shown below and the operations, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained.

本実施形態にかかる周辺監視装置(周辺監視システム)を搭載する車両は、内燃機関(エンジン)を駆動源とする自動車(内燃機関自動車)であっても良いし、電動機(モータ)を駆動源とする自動車(電気自動車、燃料電池自動車等)であっても良いし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であっても良い。また、車両は、種々の変速装置、内燃機関や電動機の駆動に必要な種々の装置(システム、部品等)を搭載可能である。また、車両における車輪の駆動に関わる装置の方式、個数、レイアウト等は、種々に設定可能である。   The vehicle equipped with the periphery monitoring device (perimeter monitoring system) according to the present embodiment may be an automobile (internal combustion engine automobile) using an internal combustion engine (engine) as a drive source, or an electric motor (motor) as a drive source. The vehicle may be a vehicle (electric vehicle, fuel cell vehicle, etc.), or a vehicle (hybrid vehicle) using both of them as drive sources. The vehicle can be mounted with various devices (systems, components, etc.) necessary for driving various transmissions, internal combustion engines, and electric motors. In addition, the method, number, layout, and the like of devices related to driving of wheels in a vehicle can be variously set.

図1は、本実施形態にかかる周辺監視装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。図1に示すように、車両1は、車体2と、操舵部4と、加速操作部5と、制動操作部6と、変速操作部7と、モニタ装置11と、を備える。車体2は、乗員が乗車する車室2aを有する。車室2a内には、乗員としての運転手が座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールである。加速操作部5は、例えば、運転手の足下に位置されたアクセルペダルである。制動操作部6は、例えば、運転手の足下に位置されたブレーキペダルである。変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。   FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the periphery monitoring device according to the present embodiment is mounted is seen through. As shown in FIG. 1, the vehicle 1 includes a vehicle body 2, a steering unit 4, an acceleration operation unit 5, a braking operation unit 6, a speed change operation unit 7, and a monitor device 11. The vehicle body 2 has a passenger compartment 2a in which an occupant rides. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a transmission operation section 7 and the like are provided in a state where a driver as an occupant faces the seat 2b. The steering unit 4 is, for example, a steering wheel that protrudes from the dashboard 24. The acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's foot. The braking operation unit 6 is, for example, a brake pedal that is positioned under the driver's feet. The shift operation unit 7 is, for example, a shift lever that protrudes from the center console.

モニタ装置11は、例えば、ダッシュボード24の車幅方向(すなわち、左右方向)の中央部に設けられる。モニタ装置11は、例えば、ナビゲーションシステムまたはオーディオシステム等の機能を有していても良い。モニタ装置11は、表示装置8、音声出力装置9、および操作入力部10を有する。また、モニタ装置11は、スイッチ、ダイヤル、ジョイスティック、および押しボタン等の各種の操作入力部を有しても良い。   The monitor device 11 is provided, for example, at the center of the dashboard 24 in the vehicle width direction (that is, the left-right direction). The monitor device 11 may have a function such as a navigation system or an audio system, for example. The monitor device 11 includes a display device 8, an audio output device 9, and an operation input unit 10. The monitor device 11 may also include various operation input units such as switches, dials, joysticks, and push buttons.

表示装置8は、LCD(Liquid Crystal Display)やOELD(Organic Electroluminescent Display)等で構成され、画像データに基づいて各種画像を表示可能である。音声出力装置9は、スピーカ等で構成され、音声データに基づいて各種音声を出力する。音声出力装置9は、車室2a内において、モニタ装置11以外の異なる位置に設けられていても良い。   The display device 8 includes an LCD (Liquid Crystal Display), an OELD (Organic Electroluminescent Display), and the like, and can display various images based on image data. The audio output device 9 is configured by a speaker or the like, and outputs various sounds based on audio data. The sound output device 9 may be provided in a different position other than the monitor device 11 in the passenger compartment 2a.

操作入力部10は、タッチパネル等で構成され、乗員による各種情報の入力を可能とする。また、操作入力部10は、表示装置8の表示画面に設けられ、表示装置8に表示される画像を透過可能である。これにより、操作入力部10は、表示装置8の表示画面に表示される画像を乗員に視認させることを可能とする。操作入力部10は、表示装置8の表示画面上における乗員のタッチ操作を検出することによって、乗員による各種情報の入力を受け付ける。   The operation input unit 10 is configured with a touch panel or the like, and allows various information to be input by an occupant. The operation input unit 10 is provided on the display screen of the display device 8 and can transmit an image displayed on the display device 8. Thereby, the operation input unit 10 enables an occupant to visually recognize an image displayed on the display screen of the display device 8. The operation input unit 10 receives an input of various information by the occupant by detecting the occupant's touch operation on the display screen of the display device 8.

図2は、本実施形態にかかる車両の一例の平面図である。図1および図2に示すように、車両1は、四輪自動車等であり、左右2つの前輪3Fと、左右2つの後輪3Rと、を有する。4つの車輪3の全てまたは一部が、転舵可能である。   FIG. 2 is a plan view of an example of a vehicle according to the present embodiment. As shown in FIGS. 1 and 2, the vehicle 1 is a four-wheeled vehicle or the like, and has two left and right front wheels 3 </ b> F and two right and left rear wheels 3 </ b> R. All or some of the four wheels 3 can be steered.

車両1は、複数の撮像部15を搭載する。本実施形態では、車両1は、例えば、4つの撮像部15a〜15dを搭載する。撮像部15は、CCD(Charge Coupled Device)またはCIS(CMOS Image Sensor)等の撮像素子を有するデジタルカメラである。撮像部15は、所定のフレームレートで車両1の周囲を撮像可能である。そして、撮像部15は、車両1の周囲を撮像して得られた撮像画像を出力する。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には、例えば、140°〜220°の範囲を撮像可能である。また、撮像部15の光軸は、斜め下方に向けて設定されている場合もある。   The vehicle 1 is equipped with a plurality of imaging units 15. In the present embodiment, the vehicle 1 includes, for example, four imaging units 15a to 15d. The imaging unit 15 is a digital camera having an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can capture the surroundings of the vehicle 1 at a predetermined frame rate. Then, the imaging unit 15 outputs a captured image obtained by imaging the periphery of the vehicle 1. The imaging unit 15 has a wide-angle lens or a fisheye lens, respectively, and can image a range of, for example, 140 ° to 220 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set obliquely downward.

具体的には、撮像部15aは、例えば、車体2の後側の端部2eに位置し、リアハッチのドア2hのリアウィンドウの下方の壁部に設けられている。そして、撮像部15aは、車両1の周囲のうち、当該車両1の後方の領域を撮像可能である。撮像部15bは、例えば、車体2の右側の端部2fに位置し、右側のドアミラー2gに設けられている。そして、撮像部15bは、車両1の周囲のうち、当該車両の側方の領域を撮像可能である。撮像部15cは、例えば、車体2の前側、すなわち、車両1の前後方向の前方側の端部2cに位置し、フロントバンパやフロントグリル等に設けられている。そして、撮像部15cは、車両1の周囲のうち、当該車両1の前方の領域を撮像可能である。撮像部15dは、例えば、車体2の左側、すなわち、車幅方向の左側の端部2dに位置し、左側のドアミラー2gに設けられている。そして、撮像部15dは、車両1の周囲のうち、当該車両1の側方の領域を撮像可能である。   Specifically, the imaging unit 15a is located at, for example, the rear end 2e of the vehicle body 2, and is provided on a wall portion below the rear window of the rear hatch door 2h. And the imaging part 15a can image the area | region of the back of the said vehicle 1 among the circumference | surroundings of the vehicle 1. FIG. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and is provided on the right door mirror 2g. And the imaging part 15b can image the area | region of the side of the said vehicle among the circumference | surroundings of the vehicle 1. FIG. The imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, on the front end 2c in the front-rear direction of the vehicle 1, and is provided on a front bumper, a front grill, or the like. And the imaging part 15c can image the area | region ahead of the said vehicle 1 among the circumference | surroundings of the vehicle 1. FIG. The imaging unit 15d is located, for example, on the left side of the vehicle body 2, that is, on the left end 2d in the vehicle width direction, and is provided on the left door mirror 2g. Then, the imaging unit 15 d can capture an area on the side of the vehicle 1 in the periphery of the vehicle 1.

図3は、本実施形態にかかる車両の機能構成の一例を示すブロック図である。図3に示すように、車両1は、操舵システム13と、ブレーキシステム18と、舵角センサ19と、アクセルセンサ20と、シフトセンサ21と、車輪速センサ22と、車内ネットワーク23と、ECU(Electronic Control Unit)14と、を備える。モニタ装置11、操舵システム13、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、およびECU14が、電気通信回線である車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、CAN(Controller Area Network)等により構成される。   FIG. 3 is a block diagram illustrating an example of a functional configuration of the vehicle according to the present embodiment. As shown in FIG. 3, the vehicle 1 includes a steering system 13, a brake system 18, a steering angle sensor 19, an accelerator sensor 20, a shift sensor 21, a wheel speed sensor 22, an in-vehicle network 23, an ECU ( Electronic Control Unit) 14. The monitor device 11, the steering system 13, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the ECU 14 are electrically connected via an in-vehicle network 23 that is an electric communication line. ing. The in-vehicle network 23 is configured by a CAN (Controller Area Network) or the like.

操舵システム13は、電動パワーステアリングシステムやSBW(Steer By Wire)システム等である。操舵システム13は、アクチュエータ13aおよびトルクセンサ13bを有する。そして、操舵システム13は、ECU14等によって電気的に制御され、アクチュエータ13aを動作させて、操舵部4に対して、トルクを付加して操舵力を補うことによって、車輪3を転舵する。トルクセンサ13bは、運転者が操舵部4に与えるトルクを検出し、その検出結果をECU14に送信する。   The steering system 13 is an electric power steering system, an SBW (Steer By Wire) system, or the like. The steering system 13 includes an actuator 13a and a torque sensor 13b. And the steering system 13 is electrically controlled by ECU14 grade | etc., Operates the actuator 13a, adds the torque with respect to the steering part 4, and steers the wheel 3 by supplementing a steering force. The torque sensor 13 b detects the torque that the driver gives to the steering unit 4 and transmits the detection result to the ECU 14.

ブレーキシステム18は、車両1のブレーキのロックを制御するABS(Anti-lock Brake System)、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:Electronic Stability Control)、ブレーキ力を増強させてブレーキをアシストする電動ブレーキシステム、およびBBW(Brake By Wire)を含む。ブレーキシステム18は、アクチュエータ18aおよびブレーキセンサ18bを有する。ブレーキシステム18は、ECU14等によって電気的に制御され、アクチュエータ18aを介して、車輪3に制動力を付与する。ブレーキシステム18は、左右の車輪3の回転差等から、ブレーキのロック、車輪3の空回り、および横滑りの兆候等を検出して、ブレーキのロック、車輪3の空回り、および横滑りを抑制する制御を実行する。ブレーキセンサ18bは、制動操作部6の可動部としてのブレーキペダルの位置を検出する変位センサであり、ブレーキペダルの位置の検出結果をECU14に送信する。   The brake system 18 includes an ABS (Anti-lock Brake System) that controls the locking of the brake of the vehicle 1, a skid prevention device (ESC: Electronic Stability Control) that suppresses the skidding of the vehicle 1 during cornering, and increases the braking force. Includes an electric brake system that assists brakes and BBW (Brake By Wire). The brake system 18 includes an actuator 18a and a brake sensor 18b. The brake system 18 is electrically controlled by the ECU 14 or the like, and applies a braking force to the wheel 3 via the actuator 18a. The brake system 18 detects the lock of the brake, the idle rotation of the wheel 3, and the sign of the skid from the rotation difference of the left and right wheels 3, and performs control for suppressing the brake lock, the idling of the wheel 3, and the skid. Run. The brake sensor 18b is a displacement sensor that detects a position of a brake pedal as a movable part of the braking operation unit 6, and transmits a detection result of the position of the brake pedal to the ECU 14.

舵角センサ19は、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。本実施形態では、舵角センサ19は、ホール素子等で構成され、操舵部4の回転部分の回転角度を操舵量として検出し、その検出結果をECU14に送信する。アクセルセンサ20は、加速操作部5の可動部としてのアクセルペダルの位置を検出する変位センサであり、その検出結果をECU14に送信する。   The steering angle sensor 19 is a sensor that detects a steering amount of the steering unit 4 such as a steering wheel. In the present embodiment, the rudder angle sensor 19 is configured by a hall element or the like, detects the rotation angle of the rotating portion of the steering unit 4 as a steering amount, and transmits the detection result to the ECU 14. The accelerator sensor 20 is a displacement sensor that detects the position of an accelerator pedal as a movable part of the acceleration operation unit 5, and transmits the detection result to the ECU 14.

シフトセンサ21は、変速操作部7の可動部(バー、アーム、ボタン等)の位置を検出するセンサであり、その検出結果をECU14に送信する。車輪速センサ22は、ホール素子等を有し、車輪3の回転量や単位時間当たりの車輪3の回転数を検出するセンサであり、その検出結果をECU14に送信する。   The shift sensor 21 is a sensor that detects the position of the movable part (bar, arm, button, etc.) of the speed change operation part 7, and transmits the detection result to the ECU 14. The wheel speed sensor 22 has a Hall element and the like, and is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations of the wheel 3 per unit time, and transmits the detection result to the ECU 14.

ECU14は、撮像部15により車両1の周囲を撮像して得られる撮像画像に基づいて、仮想視点から、車両1の周囲の注視点を見た三次元の画像を生成し、当該生成した三次元の画像を表示装置8に表示させる。ECU14は、コンピュータ等で構成され、ハードウェアとソフトウェアが協働することにより、車両1の制御全般を司る。具体的には、ECU14は、CPU(Central Processing Unit)14a、ROM(Read Only Memory)14b、RAM(Random Access Memory)14c、表示制御部14d、音声制御部14e、およびSSD(Solid State Drive)14fを備える。CPU14a、ROM14b、およびRAM14cは、同一の回路基板内に設けられていても良い。   The ECU 14 generates a three-dimensional image in which the gazing point around the vehicle 1 is viewed from the virtual viewpoint based on the captured image obtained by imaging the surroundings of the vehicle 1 by the imaging unit 15, and the generated three-dimensional Are displayed on the display device 8. The ECU 14 is configured by a computer or the like, and governs overall control of the vehicle 1 by cooperation of hardware and software. Specifically, the ECU 14 includes a CPU (Central Processing Unit) 14a, a ROM (Read Only Memory) 14b, a RAM (Random Access Memory) 14c, a display control unit 14d, an audio control unit 14e, and an SSD (Solid State Drive) 14f. Is provided. The CPU 14a, ROM 14b, and RAM 14c may be provided on the same circuit board.

CPU14aは、ROM14b等の不揮発性の記憶装置に記憶されたプログラムを読み出し、当該プログラムに従って各種の演算処理を実行する。例えば、CPU14aは、表示装置8に表示させる画像データに対する画像処理、車両1の周囲に存在する障害物までの距離の算出等を実行する。   The CPU 14a reads a program stored in a nonvolatile storage device such as the ROM 14b, and executes various arithmetic processes according to the program. For example, the CPU 14a executes image processing on image data to be displayed on the display device 8, calculation of a distance to an obstacle existing around the vehicle 1, and the like.

ROM14bは、各種プログラムおよび当該プログラムの実行に必要なパラメータ等を記憶する。RAM14cは、CPU14aでの演算で用いられる各種データを一時的に記憶する。表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15から取得してCPU14aへ出力する画像データに対する画像処理、CPU14aから取得した画像データを表示装置8に表示させる表示用の画像データへの変換等を実行する。音声制御部14eは、ECU14での演算処理のうち、主として、CPU14aから取得して音声出力装置9に出力させる音声の処理を実行する。SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもCPU14aから取得したデータを記憶し続ける。   The ROM 14b stores various programs and parameters necessary for executing the programs. The RAM 14c temporarily stores various data used in the calculation by the CPU 14a. The display control unit 14d mainly performs image processing on image data acquired from the imaging unit 15 and output to the CPU 14a, and an image for display that causes the display device 8 to display the image data acquired from the CPU 14a. Perform conversion to data. The voice control unit 14e mainly executes a voice process acquired from the CPU 14a and output to the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit and continues to store data acquired from the CPU 14a even when the ECU 14 is powered off.

図4は、本実施形態にかかる車両が有するECUの機能構成の一例を示すブロック図である。図4に示すように、ECU14は、表示用画像生成部401および表示用画像出力部402を備える。例えば、回路基板に搭載されたCPU14a等のプロセッサが、ROM14bまたはSSD14f等の記憶媒体内に格納された周辺監視用のプログラムを実行することにより、ECU14は、表示用画像生成部401および表示用画像出力部402の機能を実現する。表示用画像生成部401および表示用画像出力部402の一部または全部を回路等のハードウェアによって構成しても良い。   FIG. 4 is a block diagram illustrating an example of a functional configuration of the ECU included in the vehicle according to the present embodiment. As shown in FIG. 4, the ECU 14 includes a display image generation unit 401 and a display image output unit 402. For example, when a processor such as the CPU 14a mounted on the circuit board executes a peripheral monitoring program stored in a storage medium such as the ROM 14b or the SSD 14f, the ECU 14 causes the display image generation unit 401 and the display image to be displayed. The function of the output unit 402 is realized. Part or all of the display image generation unit 401 and the display image output unit 402 may be configured by hardware such as a circuit.

表示用画像生成部401は、撮像部15から、ある時刻(以下、過去時刻と言う)の車両1の位置(以下、過去位置と言う)における当該車両1の周囲を撮像部15によって撮像して得られる撮像画像を取得する。次いで、表示用画像生成部401は、取得した撮像画像に基づいて、車両1と当該車両1の周囲に存在する障害物との位置関係を視認可能とする表示用画像を生成する。   The display image generation unit 401 uses the imaging unit 15 to image the surroundings of the vehicle 1 at a position (hereinafter referred to as past position) of the vehicle 1 at a certain time (hereinafter referred to as past time) from the imaging unit 15. Obtained captured images are acquired. Next, the display image generation unit 401 generates a display image that makes it possible to visually recognize the positional relationship between the vehicle 1 and an obstacle existing around the vehicle 1 based on the acquired captured image.

具体的には、表示用画像生成部401は、取得した撮像画像に基づいて、車両1の周囲の仮想空間内の注視点を、操作入力部10を介して入力された仮想視点から見た画像を表示用画像として生成する。ここで、仮想空間は、過去位置における車両1の周囲の空間であり、かつ当該空間内における、過去時刻より後の時刻(例えば、現在時刻)の車両1の位置(例えば、現在位置)に対して、車両画像を設けた空間である。車両画像は、仮想空間を透視可能な三次元の車両1の画像である。本実施形態では、表示用画像生成部401は、仮想空間を透視可能な車両画像を当該仮想空間内に配置しているが、仮想空間を透視できない車両画像を当該仮想空間に配置しても良い。   Specifically, the display image generation unit 401 is an image obtained by viewing a gazing point in a virtual space around the vehicle 1 from a virtual viewpoint input via the operation input unit 10 based on the acquired captured image. Is generated as a display image. Here, the virtual space is a space around the vehicle 1 at the past position, and the position (for example, the current position) of the vehicle 1 at a time later than the past time (for example, the current time) in the space. This is a space where vehicle images are provided. The vehicle image is an image of the three-dimensional vehicle 1 that can be seen through the virtual space. In the present embodiment, the display image generation unit 401 arranges a vehicle image that can be seen through the virtual space in the virtual space, but may arrange a vehicle image that cannot be seen through the virtual space in the virtual space. .

本実施形態では、表示用画像生成部401は、取得した撮像画像を、過去位置における車両1の周囲の三次元の面(以下、カメラ画モデルと言う)に対して貼り付け、当該カメラ画モデルを含む空間を、過去位置における車両1の周囲の空間として生成する。次いで、表示用画像生成部401は、生成した空間内の車両1の現在位置に対して、車両画像を配置した空間を仮想空間として生成する。その後、表示用画像生成部401は、生成した仮想空間内の固定された注視点を、操作入力部10を介して入力された仮想視点から見た画像を表示用画像として生成する。   In the present embodiment, the display image generation unit 401 pastes the acquired captured image on a three-dimensional surface (hereinafter referred to as a camera image model) around the vehicle 1 at a past position, and the camera image model. Is generated as a space around the vehicle 1 at the past position. Next, the display image generation unit 401 generates a space in which the vehicle image is arranged as a virtual space with respect to the current position of the vehicle 1 in the generated space. Thereafter, the display image generation unit 401 generates, as a display image, an image of the fixed gazing point in the generated virtual space viewed from the virtual viewpoint input via the operation input unit 10.

また、本実施形態では、表示用画像生成部401は、操作入力部10を介して新たな仮想視点が入力される度に、仮想空間内の固定された注視点を新たな仮想視点から見た表示用画像を生成し直す。表示用画像出力部402は、表示用画像生成部401により生成される表示用画像を、表示装置8に出力する。これにより、車両1の周囲の注視点を仮想視点から見た表示用画像を表示装置8に表示させる際に、車両1の乗員が仮想視点のみを指示するだけで、表示用画像が表示されるので、表示用画像を表示装置8に表示させる際の車両1の乗員にかかる負担を軽減できる。   In the present embodiment, the display image generation unit 401 views the fixed gazing point in the virtual space from the new virtual viewpoint every time a new virtual viewpoint is input via the operation input unit 10. Regenerate the display image. The display image output unit 402 outputs the display image generated by the display image generation unit 401 to the display device 8. As a result, when the display device 8 displays the display image in which the gazing point around the vehicle 1 is viewed from the virtual viewpoint, the display image is displayed only by the occupant of the vehicle 1 indicating only the virtual viewpoint. Therefore, it is possible to reduce the burden on the occupant of the vehicle 1 when the display image is displayed on the display device 8.

次に、図5を用いて、本実施形態にかかる車両1による表示用画像の表示処理の流れの一例について説明する。図5は、本実施形態にかかる車両による表示用画像の表示処理の流れの一例を示すフローチャートである。   Next, an example of the flow of the display processing of the display image by the vehicle 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of a flow of display processing of the display image by the vehicle according to the present embodiment.

本実施形態では、表示用画像生成部401は、車輪速センサ22による車輪3の回転数の検出結果に基づいて、車両1の車速が所定の車速以下となったか否かを判断する(ステップS501)。ここで、所定の車速は、予め設定された車速であり、例えば、人が歩く速度と同じ位の極低速、または10km/hである。そして、車両1の車速が所定の車速以下となったと判断した場合(ステップS501:Yes)、表示用画像生成部401は、撮像部15により取得された撮像画像のうち、過去位置における車両1の周囲を撮像部15によって撮像して得られた撮像画像を取得する(ステップS502)。例えば、表示用画像生成部401は、現在時刻より予め設定された時間(例えば、数秒)前の過去時刻の車両1の過去位置(若しくは、車両1の現在位置よりも予め設定された距離(例えば、2m)手前の過去位置)における車両1の周囲を撮像部15により撮像して得られた撮像画像を取得する。また、本実施形態では、表示用画像生成部401は、現在位置における車両1の床下に対応する画像を含む撮像画像を取得する。これにより、現在位置における車両1の床下の画像を含む表示用画像が生成可能となるので、現在位置における車両1の床下の状況を表示装置8を介して確認できる。   In the present embodiment, the display image generation unit 401 determines whether or not the vehicle speed of the vehicle 1 has become equal to or lower than a predetermined vehicle speed based on the detection result of the rotation speed of the wheel 3 by the wheel speed sensor 22 (step S501). ). Here, the predetermined vehicle speed is a vehicle speed set in advance, and is, for example, an extremely low speed equivalent to the speed at which a person walks, or 10 km / h. And when it is judged that the vehicle speed of the vehicle 1 became below the predetermined vehicle speed (step S501: Yes), the image generation part 401 for a display is the image of the vehicle 1 in the past position among the captured images acquired by the imaging part 15. A captured image obtained by imaging the surroundings by the imaging unit 15 is acquired (step S502). For example, the display image generation unit 401 may display the past position of the vehicle 1 at a past time (for example, several seconds) before the current time (or a distance set in advance from the current position of the vehicle 1 (for example, 2m) A captured image obtained by imaging the surroundings of the vehicle 1 at a previous position) by the imaging unit 15 is acquired. In the present embodiment, the display image generation unit 401 acquires a captured image including an image corresponding to the floor under the vehicle 1 at the current position. As a result, a display image including an image under the floor of the vehicle 1 at the current position can be generated, so that the situation under the floor of the vehicle 1 at the current position can be confirmed via the display device 8.

本実施形態では、表示用画像生成部401は、過去位置における車両1の周囲を撮像部15により撮像して得られる撮像画像に基づいて、表示用画像を生成しているが、撮像部15により車両1の周囲を撮像して得られる撮像画像に基づいて、表示用画像を生成するものであれば良い。例えば、表示用画像生成部401は、現在位置における車両1の周囲を撮像部15により撮像して得られる撮像画像に基づいて、表示用画像を生成しても良い。   In the present embodiment, the display image generation unit 401 generates a display image based on a captured image obtained by imaging the surroundings of the vehicle 1 at a past position by the imaging unit 15. What is necessary is just to produce | generate the image for a display based on the captured image obtained by imaging the circumference | surroundings of the vehicle 1. FIG. For example, the display image generation unit 401 may generate a display image based on a captured image obtained by imaging the surroundings of the vehicle 1 at the current position by the imaging unit 15.

次に、表示用画像生成部401は、取得した撮像画像に基づいて、仮想空間内の固定された注視点を、操作入力部10を介して入力された仮想視点から見た表示用画像を生成する(ステップS503)。本実施形態では、表示用画像生成部401は、取得した撮像画像をカメラ画モデルに貼り付ける。そして、表示用画像生成部401は、当該カメラ画モデルを含み、かつ現在位置に対して車両画像を配置した空間を、仮想空間とする。また、本実施形態では、表示用画像生成部401は、1つの撮像部15により車両1の周囲を撮像して得られる撮像画像をカメラ画モデルに貼り付ける。これにより、複数の撮像部15により車両1の周囲を撮像して得られる複数の撮像画像をカメラ画モデルに貼り付ける場合と異なり、カメラ画モデルに貼り付ける撮像画像につなぎ目が生じることを防止できるので、車両1とその周囲の障害物との位置関係をより確認し易くすることができる。本実施形態では、表示用画像生成部401は、1つの撮像部15の撮像画像に基づいて表示用画像を生成しているが、複数の撮像部15により車両1の周囲を撮像して得られる複数の撮像画像を、カメラ画モデルに貼り付け、当該カメラ画モデルを含む空間を仮想空間としても良い。   Next, the display image generation unit 401 generates a display image in which a fixed gazing point in the virtual space is viewed from the virtual viewpoint input via the operation input unit 10 based on the acquired captured image. (Step S503). In the present embodiment, the display image generation unit 401 pastes the acquired captured image on the camera image model. Then, the display image generation unit 401 defines a space including the camera image model and in which the vehicle image is arranged with respect to the current position as a virtual space. In the present embodiment, the display image generation unit 401 pastes a captured image obtained by capturing an image of the surroundings of the vehicle 1 with a single image capturing unit 15 to the camera image model. Thereby, unlike the case where a plurality of captured images obtained by imaging the periphery of the vehicle 1 by the plurality of imaging units 15 are pasted on the camera image model, it is possible to prevent the joint image from being generated on the captured image pasted on the camera image model. Therefore, it is possible to make it easier to confirm the positional relationship between the vehicle 1 and the surrounding obstacles. In the present embodiment, the display image generation unit 401 generates a display image based on the captured image of one imaging unit 15, but is obtained by imaging the surroundings of the vehicle 1 with the plurality of imaging units 15. A plurality of captured images may be pasted on a camera image model, and a space including the camera image model may be used as a virtual space.

表示用画像出力部402は、表示用画像生成部401により生成された表示用画像を表示装置8に出力して、表示装置8に対して表示用画像を表示させる(ステップS504)。その後、表示用画像生成部401は、シフトセンサ21によるシフトレンジの検出結果に基づいて、車両1が停車したか否かを判断する(ステップS505)。シフトセンサ21により検出されたシフトレンジがパーキングレンジではなく、車両1が停車していないと判断した場合(ステップS505:No)、表示用画像生成部401は、車輪速センサ22による車輪3の回転数の検出結果に基づいて、車両1の車速が所定の車速以下であるか否かを判断する(ステップS506)。車両1が停車していないと判断し、かつ車両1の車速が所定の車速以下である場合(ステップS506:Yes)、表示用画像生成部401は、操作入力部10を介して、新たな仮想視点が入力されたか否かを判断する(ステップS508)。新たな仮想視点が入力されずに、予め設定された時間経過した場合(ステップS508:No)、表示用画像出力部402は、表示装置8に対する表示用画像の出力を停止して、表示装置8に対する表示用画像の表示を終了させる(ステップS507)。   The display image output unit 402 outputs the display image generated by the display image generation unit 401 to the display device 8, and causes the display device 8 to display the display image (step S504). Thereafter, the display image generation unit 401 determines whether the vehicle 1 has stopped based on the detection result of the shift range by the shift sensor 21 (step S505). When it is determined that the shift range detected by the shift sensor 21 is not the parking range and the vehicle 1 is not stopped (step S505: No), the display image generating unit 401 rotates the wheel 3 by the wheel speed sensor 22. Based on the detection results of the number, it is determined whether or not the vehicle speed of the vehicle 1 is equal to or lower than a predetermined vehicle speed (step S506). When it is determined that the vehicle 1 is not stopped and the vehicle speed of the vehicle 1 is equal to or lower than the predetermined vehicle speed (step S506: Yes), the display image generation unit 401 uses the operation input unit 10 to create a new virtual It is determined whether or not a viewpoint has been input (step S508). When a preset time has elapsed without a new virtual viewpoint being input (step S508: No), the display image output unit 402 stops outputting the display image to the display device 8, and the display device 8 The display of the display image for is terminated (step S507).

新たな仮想視点が入力された場合(ステップS508:Yes)、表示用画像生成部401は、仮想空間内における固定された注視点を新たな仮想視点から見た表示用画像を生成し直す(ステップS503)。そして、表示用画像出力部402は、表示用画像生成部401により生成された表示用画像を表示装置8に出力して、表示装置8に対して当該生成された表示用画像を表示させる(ステップS504)。これにより、車両1が停車したと判断するまでの間、車両1の乗員が操作入力部10を介して仮想視点を入力するだけで、様々な角度から注視点を見た画像を容易に表示させることができる。   When a new virtual viewpoint is input (step S508: Yes), the display image generation unit 401 regenerates a display image in which a fixed gazing point in the virtual space is viewed from the new virtual viewpoint (step S508). S503). Then, the display image output unit 402 outputs the display image generated by the display image generation unit 401 to the display device 8, and causes the display device 8 to display the generated display image (step). S504). Thereby, until it is determined that the vehicle 1 has stopped, an occupant of the vehicle 1 simply inputs a virtual viewpoint via the operation input unit 10 and easily displays images of the gazing point from various angles. be able to.

一方、シフトセンサ21により検出されたシフトレンジがパーキングレンジであり、車両1が停車したと判断した場合(ステップS505:Yes)および車両1の車速が所定の車速より速い場合(ステップS506:No)、表示用画像出力部402は、表示装置8に対する表示用画像の出力を停止して、表示装置8に対する表示用画像の表示を終了させる(ステップS507)。本実施形態では、表示用画像生成部401は、ステップS505において、シフトセンサ21によるシフトレンジの検出結果に基づいて、車両1が停車したか否かを判断しているが、これに限定するものではなく、車輪速センサ22による車輪3の回転数の検出結果に基づいて、車両1が停車したか否かを判断しても良い。具体的には、表示用画像生成部401は、車輪速センサ22により車輪3の回転数が0になったまま予め設定された時間(例えば、3秒)経過した場合に、車両1が停車したと判断しても良い。   On the other hand, when it is determined that the shift range detected by the shift sensor 21 is the parking range and the vehicle 1 has stopped (step S505: Yes), and when the vehicle speed of the vehicle 1 is higher than the predetermined vehicle speed (step S506: No). The display image output unit 402 stops outputting the display image to the display device 8 and ends the display of the display image on the display device 8 (step S507). In the present embodiment, the display image generation unit 401 determines whether or not the vehicle 1 is stopped based on the detection result of the shift range by the shift sensor 21 in step S505, but the present invention is not limited to this. Instead, it may be determined whether or not the vehicle 1 is stopped based on the detection result of the rotation speed of the wheel 3 by the wheel speed sensor 22. Specifically, the display image generation unit 401 stops the vehicle 1 when a preset time (for example, 3 seconds) has elapsed while the rotation speed of the wheel 3 remains 0 by the wheel speed sensor 22. You may judge.

次に、図6〜9を用いて、本実施形態にかかる車両1による表示用画像の生成処理の一例について説明する。図6および図7は、本実施形態にかかる車両による表示用画像の生成に用いるカメラ画モデルの一例を説明するための図である。図6および図7において、車両1のタイヤの接地面(路面)と平行な1つの方向をZ方向とし、車両1のタイヤの接地面と平行かつZ方向と直交する方向をX方向とし、接地面に対して垂直な方向をY方向とする。図8および図9は、本実施形態にかかる車両における表示用画像の生成に用いるカメラ画モデルおよび車両画像の一例を説明するための図である。   Next, an example of display image generation processing by the vehicle 1 according to the present embodiment will be described with reference to FIGS. 6 and 7 are views for explaining an example of a camera image model used for generating a display image by the vehicle according to the present embodiment. 6 and 7, one direction parallel to the ground contact surface (road surface) of the tire of the vehicle 1 is defined as the Z direction, and a direction parallel to the ground contact surface of the tire of the vehicle 1 and perpendicular to the Z direction is defined as the X direction. A direction perpendicular to the ground is defined as a Y direction. FIG. 8 and FIG. 9 are diagrams for explaining an example of a camera image model and a vehicle image used for generating a display image in the vehicle according to the present embodiment.

図6および図7に示すように、表示用画像生成部401は、第1面S1と第2面S2とを含むカメラ画モデルSを生成する。ここで、第1面S1は、車両1が存在する路面に対応する平坦な面である。例えば、第1面S1は、楕円形の平坦な面である。第2面S2は、第1面S1を基準として、第1面S1の外側(外縁)に連続して設けられ、かつ当該第1面S1から離れるに従って、Y方向に徐々に立ち上がる面である。例えば、第2面S2は、第1面S1の外側から、Y方向に楕円状または放物線状に立ち上がる面である。すなわち、表示用画像生成部401は、椀型または円筒状の三次元の面をカメラ画モデルSとして生成する。   As shown in FIGS. 6 and 7, the display image generation unit 401 generates a camera image model S including a first surface S1 and a second surface S2. Here, the first surface S1 is a flat surface corresponding to the road surface on which the vehicle 1 is present. For example, the first surface S1 is an elliptical flat surface. The second surface S2 is a surface that is continuously provided on the outer side (outer edge) of the first surface S1 with respect to the first surface S1, and that gradually rises in the Y direction as the distance from the first surface S1 increases. For example, the second surface S2 is a surface that rises in an elliptical shape or a parabolic shape in the Y direction from the outside of the first surface S1. That is, the display image generation unit 401 generates a saddle-shaped or cylindrical three-dimensional surface as the camera image model S.

本実施形態では、表示用画像生成部401は、平坦な第1面S1と、曲面の第2面S2と、を有する三次元の貼付面をカメラ画モデルSとして生成しているが、三次元の貼付面をカメラ画モデルSとして生成するものであれば、これに限定するものではない。例えば、表示用画像生成部401は、平坦な第1面S1と、当該第1面S1の外側から当該第1面S1に対して垂直にまたは徐々に立ち上がる平坦な面の第2面S2と、を有する三次元の貼付面をカメラ画モデルSとして生成しても良い。   In the present embodiment, the display image generation unit 401 generates a three-dimensional pasting surface having a flat first surface S1 and a curved second surface S2 as the camera image model S. As long as the sticking surface is generated as the camera image model S, the present invention is not limited to this. For example, the display image generation unit 401 includes a flat first surface S1, a second surface S2 of a flat surface that rises perpendicularly or gradually from the outside of the first surface S1 to the first surface S1, A three-dimensional affixing surface having a may be generated as the camera image model S.

次に、表示用画像生成部401は、過去位置P1において車両1の周囲を撮像部15によって撮像して得られた撮像画像を、カメラ画モデルSに対して貼り付ける。本実施形態では、表示用画像生成部401は、過去位置P1を原点するワールド座標系で表されるカメラ画モデルS内の点(以下、貼付点と言う)の座標(以下、三次元座標と言う)と、当該三次元座標の貼付点に貼り付ける、撮像画像内の点(以下、カメラ画点と言う)の座標(以下、カメラ画座標と言う)と、を対応付ける座標テーブルを予め作成する。そして、表示用画像生成部401は、撮像画像内のカメラ画点を、座標テーブルにおいて当該カメラ画点のカメラ画座標と対応付けられる三次元座標の貼付点に貼り付ける。本実施形態では、表示用画像生成部401は、車両1の内燃機関または電動機がスタートされる度に、当該座標テーブルを作成する。   Next, the display image generation unit 401 pastes a captured image obtained by imaging the periphery of the vehicle 1 by the imaging unit 15 at the past position P1 to the camera image model S. In the present embodiment, the display image generation unit 401 includes coordinates (hereinafter referred to as three-dimensional coordinates) of points (hereinafter referred to as paste points) in the camera image model S represented by the world coordinate system with the past position P1 as the origin. And a coordinate table for associating the coordinates (hereinafter referred to as camera image coordinates) of the points in the captured image (hereinafter referred to as camera image points) to be pasted to the paste points of the three-dimensional coordinates. . Then, the display image generation unit 401 pastes the camera image point in the captured image to the attachment point of the three-dimensional coordinate associated with the camera image coordinate of the camera image point in the coordinate table. In the present embodiment, the display image generation unit 401 creates the coordinate table every time the internal combustion engine or electric motor of the vehicle 1 is started.

その後、表示用画像生成部401は、撮像画像を貼り付けたカメラ画モデルSを、過去位置P1における車両1の周囲の空間に配置する。さらに、表示用画像生成部401は、図8、および図9に示すように、当該空間内における車両1の現在位置P2に対して車両画像CGを配置した空間を仮想空間Aとして生成する。仮想空間Aを生成すると、表示用画像生成部401は、図6、図8、および図9に示すように、当該仮想空間Aにおいて車両1の現在位置P2に設けられた車両画像CGの前端から、第1面S1に対して垂直に下した点を注視点P3に設定する。   Thereafter, the display image generation unit 401 arranges the camera image model S with the captured image pasted in the space around the vehicle 1 at the past position P1. Furthermore, the display image generation unit 401 generates, as a virtual space A, a space in which the vehicle image CG is arranged with respect to the current position P2 of the vehicle 1 in the space, as shown in FIGS. When the virtual space A is generated, the display image generation unit 401 starts from the front end of the vehicle image CG provided at the current position P2 of the vehicle 1 in the virtual space A, as shown in FIGS. 6, 8, and 9. A point dropped perpendicularly to the first surface S1 is set as the gazing point P3.

また、表示用画像生成部401は、図6に示すように、仮想空間A内において車両画像CGから予め設定された距離(例えば、実空間における1〜2mに対応する距離)離れた位置に注視点P3を設定しても良い。これにより、車両1の乗員から見て死角になる位置に注視点P3を予め設定しておくことにより、車両1の乗員が操作入力部10を介して注視点P3を入力しなくても、車両1の死角になる位置の画像を表示装置8を介して確認することができる。   Further, as shown in FIG. 6, the display image generation unit 401 is placed in a position away from the vehicle image CG in the virtual space A by a preset distance (for example, a distance corresponding to 1 to 2 m in the real space). The viewpoint P3 may be set. As a result, the gazing point P3 is set in advance at a position that becomes a blind spot when viewed from the occupant of the vehicle 1, so that the vehicle 1 can be operated even if the occupant of the vehicle 1 does not input the gazing point P3 via the operation input unit 10. The image at the position of 1 blind spot can be confirmed via the display device 8.

次いで、表示用画像生成部401は、図8および図9に示すように、操作入力部10から入力された仮想視点P4から注視点P3を見た表示用画像を生成する。これにより、車両1の現在位置P2の床下の画像を含む表示用画像を生成可能とする。また、表示用画像に含まれる車両画像CGとその周囲の立体物との位置関係をより分かり易くすることができる。例えば、表示用画像生成部401は、図8に示すように、仮想空間A内における注視点P3を、車両画像CGの運転席の上方に存在する仮想視点P4から見た画像を表示用画像として生成する。または、表示用画像生成部401は、図9に示すように、仮想空間A内における注視点P3を、車両画像CGの上方かつ車両画像CGの周囲のうち車両画像CGから見て右側に存在する仮想視点P4から見た画像を表示用画像として生成する。   Next, as shown in FIGS. 8 and 9, the display image generation unit 401 generates a display image in which the gazing point P3 is viewed from the virtual viewpoint P4 input from the operation input unit 10. As a result, a display image including an image under the floor of the current position P2 of the vehicle 1 can be generated. In addition, the positional relationship between the vehicle image CG included in the display image and the surrounding three-dimensional object can be made easier to understand. For example, as illustrated in FIG. 8, the display image generation unit 401 uses, as a display image, an image obtained by viewing the gazing point P3 in the virtual space A from the virtual viewpoint P4 that exists above the driver seat of the vehicle image CG. Generate. Alternatively, as shown in FIG. 9, the display image generation unit 401 has the gazing point P3 in the virtual space A above the vehicle image CG and on the right side when viewed from the vehicle image CG in the periphery of the vehicle image CG. An image viewed from the virtual viewpoint P4 is generated as a display image.

本実施形態では、表示用画像生成部401は、車両1の三次元のモデル画像を車両画像CGとして、仮想空間A内に配置するものとするが、車両1の二次元のモデル画像を車両画像CGとして、仮想空間A内に配置しても良い。また、本実施形態では、表示用画像生成部401は、仮想空間Aが車両画像CGを介して透視できるように、車両画像CGの透過度を調整した上で、当該車両画像CGを、仮想空間A内に配置する。その際、表示用画像生成部401は、車両画像CGのうち、タイヤの画像TG以外の画像の透過度を、タイヤの画像TGの透過度より高くする。これにより、車両画像CGに含まれるタイヤの画像TGから、仮想空間A内における車両画像CGの位置を容易に把握可能とする。   In the present embodiment, the display image generation unit 401 arranges the three-dimensional model image of the vehicle 1 in the virtual space A as the vehicle image CG, but the two-dimensional model image of the vehicle 1 is the vehicle image. You may arrange | position in the virtual space A as CG. In the present embodiment, the display image generation unit 401 adjusts the transparency of the vehicle image CG so that the virtual space A can be seen through the vehicle image CG, and then displays the vehicle image CG in the virtual space. Place in A. At that time, the display image generation unit 401 makes the transmittance of the vehicle image CG other than the tire image TG higher than the transmittance of the tire image TG. Thereby, the position of the vehicle image CG in the virtual space A can be easily grasped from the tire image TG included in the vehicle image CG.

また、過去位置P1における車両1の周囲(例えば、車両1の前方)を広角のカメラ(例えば、画角が180°のカメラ)により撮像して取得した撮像画像が貼り付けられたカメラ画モデルSを含む仮想空間Aの画像をそのまま表示装置8に表示させた場合、撮像画像に含まれる車両1の画像(例えば、車両1のフロントバンパの画像)が表示用画像に映り込んでしまい、車両1の乗員が、違和感を覚えることがある。これに対して、本実施形態では、表示用画像生成部401は、車両1の過去位置P1から、車両1の外側に向かって、隙間を空けて、カメラ画モデルSを設けることにより、撮像画像に含まれる車両1の画像が表示用画像に映り込むことを防止できるので、車両1の乗員が違和感を覚えることを防止できる。また、本実施形態では、表示用画像生成部401は、車両1の現在位置P2の移動に伴って(言い換えると、車両1の移動に対応させた車両画像CGの移動に伴って)、注視点P3を移動させる。これにより、車両1の現在位置P2が移動した場合に、車両1の乗員が操作入力部10を介して注視点P3を入力する必要が無いので、表示用画像を表示装置8に表示させる際の車両1の乗員にかかる負担を軽減できる。   In addition, a camera image model S to which a captured image obtained by imaging the periphery of the vehicle 1 at the past position P1 (for example, the front of the vehicle 1) with a wide-angle camera (for example, a camera having an angle of view of 180 °) is pasted. When the image of the virtual space A including the image is displayed on the display device 8 as it is, the image of the vehicle 1 (for example, the image of the front bumper of the vehicle 1) included in the captured image is reflected in the display image. May feel uncomfortable. On the other hand, in the present embodiment, the display image generation unit 401 provides a camera image model S with a gap from the past position P1 of the vehicle 1 toward the outside of the vehicle 1, thereby capturing a captured image. Since the image of the vehicle 1 included in the image can be prevented from being reflected in the display image, the passenger of the vehicle 1 can be prevented from feeling uncomfortable. Further, in the present embodiment, the display image generating unit 401 moves along with the movement of the current position P2 of the vehicle 1 (in other words, with the movement of the vehicle image CG corresponding to the movement of the vehicle 1). Move P3. As a result, when the current position P2 of the vehicle 1 moves, there is no need for the occupant of the vehicle 1 to input the gazing point P3 via the operation input unit 10, so that the display image can be displayed on the display device 8. The burden on the passenger of the vehicle 1 can be reduced.

次に、図10および図11を用いて、本実施形態にかかる車両1において生成される表示用画像の一例について説明する。図10および図11は、本実施形態にかかる車両において生成される表示用画像の一例を示す図である。   Next, an example of a display image generated in the vehicle 1 according to the present embodiment will be described with reference to FIGS. 10 and 11. 10 and 11 are diagrams illustrating an example of a display image generated in the vehicle according to the present embodiment.

表示用画像生成部401は、図10に示すように、仮想空間内の固定された注視点P3を、車両画像CGから見て右側に存在する仮想視点P4から見た表示用画像G1を生成する。その際、表示用画像生成部401は、図10に示すように、表示用画像G1内における注視点P3の位置が、当該表示用画像G1内の中心に位置するように、表示用画像G1を生成する。そして、表示用画像出力部402は、生成された表示用画像G1を表示装置8に表示させる。その際、表示用画像生成部401は、表示用画像G1に対して、仮想視点P4を入力可能とするGUI(Graphical User Interface)である操作画像SG1〜SG4を含める。ここで、操作画像SG1は、車両画像CGの前方への仮想視点P4の移動を指示可能とするGUIである。操作画像SG2は、車両画像CGから見て右方向への仮想視点P4の移動を指示可能とするGUIである。操作画像SG3は、車両画像CGの後方への仮想視点P4の移動を指示可能とするGUIである。操作画像SG4は、車両画像CGから見て左方向への仮想視点P4の移動を指示可能とするGUIである。   As shown in FIG. 10, the display image generation unit 401 generates a display image G1 when the fixed gazing point P3 in the virtual space is viewed from the virtual viewpoint P4 existing on the right side when viewed from the vehicle image CG. . At that time, as shown in FIG. 10, the display image generation unit 401 displays the display image G1 so that the position of the gazing point P3 in the display image G1 is positioned at the center in the display image G1. Generate. Then, the display image output unit 402 causes the display device 8 to display the generated display image G1. At this time, the display image generation unit 401 includes operation images SG1 to SG4 that are GUIs (Graphical User Interfaces) that allow the virtual viewpoint P4 to be input to the display image G1. Here, the operation image SG1 is a GUI that allows an instruction to move the virtual viewpoint P4 forward of the vehicle image CG. The operation image SG2 is a GUI that can instruct the movement of the virtual viewpoint P4 in the right direction when viewed from the vehicle image CG. The operation image SG3 is a GUI that allows an instruction to move the virtual viewpoint P4 to the rear of the vehicle image CG. The operation image SG4 is a GUI that can instruct the movement of the virtual viewpoint P4 in the left direction as viewed from the vehicle image CG.

その後、表示用画像生成部401は、操作入力部10によって、操作画像SG3がタッチ操作されたことが検出された場合、図11に示すように、仮想空間内の固定された注視点P3を、後方に移動した仮想視点P4から見た表示用画像G2を生成する。これにより、操作画像にタッチ操作するだけで、仮想視点P4を入力できるので、表示用画像を表示装置8に表示させる際の車両1の乗員にかかる負担をより軽減できる。そして、表示用画像出力部402は、生成された表示用画像G2を表示装置8に表示させる。その場合も、表示画像生成部401は、表示用画像G2に対して、操作画像SG1〜SG4を含める。ここでは、操作画像SG1〜SG4を用いて仮想視点P4を入力するものとしたが、操作入力部10を用いて仮想視点P4を入力するものであれば、これに限定するものではない。例えば、表示用画像生成部401は、表示装置8の画面上におけるフリック入力を操作入力部10によって検出し、検出したフリック入力に応じて移動した仮想視点P4を、入力された仮想視点P4としても良い。   Thereafter, when the operation input unit 10 detects that the operation image SG3 is touch-operated, the display image generation unit 401 displays a fixed gazing point P3 in the virtual space as illustrated in FIG. A display image G2 viewed from the virtual viewpoint P4 moved rearward is generated. Thereby, since the virtual viewpoint P4 can be input simply by touching the operation image, the burden on the passenger of the vehicle 1 when the display image is displayed on the display device 8 can be further reduced. Then, the display image output unit 402 causes the display device 8 to display the generated display image G2. Also in this case, the display image generation unit 401 includes the operation images SG1 to SG4 with respect to the display image G2. Here, the virtual viewpoint P4 is input using the operation images SG1 to SG4. However, the present invention is not limited to this as long as the virtual viewpoint P4 is input using the operation input unit 10. For example, the display image generation unit 401 uses the operation input unit 10 to detect a flick input on the screen of the display device 8, and the virtual viewpoint P4 that has moved according to the detected flick input may be used as the input virtual viewpoint P4. good.

このように、本実施形態にかかる車両1によれば、車両1の周囲の注視点を仮想視点から見た表示用画像を表示装置8に表示させる際に、車両1の乗員が操作入力部10を介して、仮想視点のみを入力するだけで、表示用画像が表示されるので、表示用画像を表示装置8に表示させる際の車両1の乗員にかかる負担を軽減できる。   As described above, according to the vehicle 1 according to the present embodiment, when the display image in which the gazing point around the vehicle 1 is viewed from the virtual viewpoint is displayed on the display device 8, the passenger of the vehicle 1 operates the operation input unit 10. Since the display image is displayed simply by inputting only the virtual viewpoint, the burden on the occupant of the vehicle 1 when the display image is displayed on the display device 8 can be reduced.

1…車両、8…表示装置、14…ECU、15…撮像部、14a…CPU、14b…ROM、14c…RAM、14d…表示制御部、14f…SSD、401…表示用画像生成部、402…表示用画像出力部。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 8 ... Display apparatus, 14 ... ECU, 15 ... Imaging part, 14a ... CPU, 14b ... ROM, 14c ... RAM, 14d ... Display control part, 14f ... SSD, 401 ... Display image generation part, 402 ... Display image output unit.

Claims (5)

車両が搭載する撮像部により当該車両の周囲を撮像して得られる撮像画像に基づいて、前記車両の周囲の空間に車両画像を設けた仮想空間内の固定された注視点を、操作入力部を介して入力された仮想視点から見た第1画像を生成する生成部と、
前記生成部により生成される前記第1画像を表示部に出力する出力部と、
を備える周辺監視装置。
Based on a captured image obtained by imaging the surroundings of the vehicle by an imaging unit mounted on the vehicle, an operation input unit is used to display a fixed gazing point in a virtual space in which a vehicle image is provided in the space around the vehicle. A generation unit for generating a first image viewed from a virtual viewpoint input via
An output unit that outputs the first image generated by the generation unit to a display unit;
A peripheral monitoring device comprising:
前記生成部は、前記車両画像から予め設定された距離離れた位置を前記注視点とする請求項1に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the generation unit uses a position away from a predetermined distance from the vehicle image as the gazing point. 前記生成部は、前記車両の移動に対応させた前記車両画像の移動に伴って、前記注視点を移動させる請求項1または2に記載の周辺監視装置。   The periphery monitoring device according to claim 1, wherein the generation unit moves the gazing point in accordance with the movement of the vehicle image corresponding to the movement of the vehicle. 前記生成部は、前記仮想視点を入力可能とする操作画像を含む前記第1画像を生成し、前記操作画像を用いて新たな前記仮想視点が入力された場合、前記新たな仮想視点から前記注視点を見た前記第1画像を生成し直す請求項1から3のいずれか一に記載の周辺監視装置。   The generation unit generates the first image including an operation image that allows the virtual viewpoint to be input, and when the new virtual viewpoint is input using the operation image, the generation unit starts from the new virtual viewpoint. The periphery monitoring device according to claim 1, wherein the first image viewed from a viewpoint is regenerated. 前記車両画像は、前記車両の三次元の画像である請求項1から4のいずれか一に記載の周辺監視装置。   The periphery monitoring device according to any one of claims 1 to 4, wherein the vehicle image is a three-dimensional image of the vehicle.
JP2017133813A 2017-07-07 2017-07-07 Peripheral monitoring device Active JP6962035B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017133813A JP6962035B2 (en) 2017-07-07 2017-07-07 Peripheral monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133813A JP6962035B2 (en) 2017-07-07 2017-07-07 Peripheral monitoring device

Publications (2)

Publication Number Publication Date
JP2019014397A true JP2019014397A (en) 2019-01-31
JP6962035B2 JP6962035B2 (en) 2021-11-05

Family

ID=65356888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133813A Active JP6962035B2 (en) 2017-07-07 2017-07-07 Peripheral monitoring device

Country Status (1)

Country Link
JP (1) JP6962035B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11830409B2 (en) 2021-02-17 2023-11-28 Denso Corporation Peripheral image display device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274814A (en) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd Image generation device and image display system
JP2013191969A (en) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd Image processor, image display system, display device, image processing method and program
JP2014067120A (en) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
US20150097954A1 (en) * 2013-10-08 2015-04-09 Hyundai Motor Company Method and apparatus for acquiring image for vehicle
JP2015076062A (en) * 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
DE102015217258A1 (en) * 2015-09-10 2017-03-16 Robert Bosch Gmbh Method and device for representing a vehicle environment of a vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274814A (en) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd Image generation device and image display system
JP2013191969A (en) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd Image processor, image display system, display device, image processing method and program
JP2014067120A (en) * 2012-09-25 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system and image generation method
US20150097954A1 (en) * 2013-10-08 2015-04-09 Hyundai Motor Company Method and apparatus for acquiring image for vehicle
JP2015076062A (en) * 2013-10-11 2015-04-20 富士通テン株式会社 Image display device, image display system, image display method, and program
DE102015217258A1 (en) * 2015-09-10 2017-03-16 Robert Bosch Gmbh Method and device for representing a vehicle environment of a vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11830409B2 (en) 2021-02-17 2023-11-28 Denso Corporation Peripheral image display device

Also Published As

Publication number Publication date
JP6962035B2 (en) 2021-11-05

Similar Documents

Publication Publication Date Title
JP6067634B2 (en) Parking assistance device and route determination method
JP7222254B2 (en) Peripheral display controller
JP7151293B2 (en) Vehicle peripheral display device
JP6962036B2 (en) Peripheral monitoring device
US20190244324A1 (en) Display control apparatus
US10970812B2 (en) Image processing device
JP6876236B2 (en) Display control device
US10540807B2 (en) Image processing device
JP7009785B2 (en) Peripheral monitoring device
JP6962035B2 (en) Peripheral monitoring device
JP7056034B2 (en) Peripheral monitoring device
JP6930202B2 (en) Display control device
JP2019036832A (en) Periphery monitoring device
JP7259914B2 (en) Perimeter monitoring device
JP6965563B2 (en) Peripheral monitoring device
JP2018191061A (en) Periphery monitoring device
JP2018186387A (en) Display controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6962035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150