JP2018186387A - Display controller - Google Patents

Display controller Download PDF

Info

Publication number
JP2018186387A
JP2018186387A JP2017086916A JP2017086916A JP2018186387A JP 2018186387 A JP2018186387 A JP 2018186387A JP 2017086916 A JP2017086916 A JP 2017086916A JP 2017086916 A JP2017086916 A JP 2017086916A JP 2018186387 A JP2018186387 A JP 2018186387A
Authority
JP
Japan
Prior art keywords
vehicle
image data
imaging
display
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017086916A
Other languages
Japanese (ja)
Inventor
哲也 丸岡
Tetsuya Maruoka
哲也 丸岡
渡邊 一矢
Kazuya Watanabe
一矢 渡邊
孝之 中所
Takayuki Nakadokoro
孝之 中所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017086916A priority Critical patent/JP2018186387A/en
Publication of JP2018186387A publication Critical patent/JP2018186387A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To shorten confirmation time in the vicinity of a vehicle.SOLUTION: A display controller of an embodiment includes: an acquisition part for acquiring a plurality of captured image data from a plurality of imaging parts for imaging the vicinity of a vehicle; a generation part which, from the captured image data acquired by the acquisition part, generates the image data including an imaging region where the outside is imaged from at least two surfaces opposite to each other, out of surfaces representing the periphery of the vehicle, and a region where the vehicle exists; and a display processing part for displaying so that the imaging region and the region where the vehicle exists move in the direction perpendicular to the direction connecting two surfaces when switching display of the imaging data generated by the generation part with passage of time.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、表示制御装置に関する。   Embodiments described herein relate generally to a display control apparatus.

従来から、車両の周辺に設けられた複数の撮像部によって、車両の周辺を撮像し、撮像された複数の撮像画像データを合成し、合成された画像データを表示することで、車両の周囲を運転者に認識させる技術がある。   Conventionally, a plurality of imaging units provided around the vehicle image the periphery of the vehicle, combine the plurality of captured image data, and display the combined image data. There is technology to make the driver recognize.

特開2011−66763号公報JP 2011-66763 A

ところで、車両の周辺全てを表示部に表示すると、車両の周囲について細かい状況まで把握するのが難しい。そこで、車両の周囲を周回するようにアニメーション表示する技術が提案されている。   By the way, if the entire periphery of the vehicle is displayed on the display unit, it is difficult to grasp the detailed situation around the vehicle. Therefore, a technique for displaying an animation so as to go around the vehicle has been proposed.

しかしながら、車両の周囲を周回するように表示を行う場合、運転者が車両の周囲を確認するためには一周するまで見ている必要があり、時間を要するという問題がある。   However, when the display is performed so as to go around the vehicle, in order to check the surroundings of the vehicle, the driver needs to watch until it makes a round, and there is a problem that it takes time.

本発明の一実施形態は、上記に鑑みてなされたものであって、車両の周囲を確認するまでの時間を短縮可能な表示制御装置を提供する。   One embodiment of the present invention has been made in view of the above, and provides a display control device capable of shortening the time required to confirm the surroundings of a vehicle.

実施形態の表示制御装置は、一例として、車両の周辺を撮像する複数の撮像部から複数の撮像画像データを取得する取得部と、車両の周囲を表す面のうち、対向する少なくとも2つの面から外側を撮像した撮像領域と、車両が存在している領域と、を含めた画像データを、取得部が取得した撮像画像データから生成する生成部と、時間の経過と共に、生成部により生成された画像データの表示を切り替えていく場合に、撮像領域及び車両が存在している領域が、2つの面を結んだ方向と垂直方向に移動していくよう表示する表示処理部と、を備える。よって、車両の周辺を全て表示するまでの時間が短縮できるので、運転手による迅速な車両の周辺の確認を実現できる。   As an example, the display control apparatus according to the embodiment includes an acquisition unit that acquires a plurality of captured image data from a plurality of imaging units that capture the periphery of the vehicle, and at least two opposing surfaces among the surfaces that represent the periphery of the vehicle. Generated by the generation unit with the passage of time, a generation unit that generates image data including the imaging region obtained by imaging the outside and the region where the vehicle exists, from the captured image data acquired by the acquisition unit A display processing unit configured to display the imaging region and the region where the vehicle exists so as to move in a direction perpendicular to a direction connecting the two surfaces when the display of the image data is switched. Therefore, since the time until all the surroundings of the vehicle are displayed can be shortened, the driver can quickly confirm the surroundings of the vehicle.

実施形態の表示制御装置は、一例として、車両が存在する位置を基準とした3次元仮想空間内の仮想投影面に、撮像領域として複数の撮像画像データを投影させると共に、仮想投影面に、車両が存在している領域を設定する3次元処理部をさらに備え、生成部は、視点を固定した上で、2つの面を結んだ方向と垂直方向に注視点を移動させる毎に、仮想投影面から、撮像領域と車両が存在している領域と、を含めた画像データを生成し、表示処理部は、生成部により生成された画像データを表示していくことで、撮像領域及び車両が存在している領域が、2つの面を結んだ方向と垂直方向に移動するよう表示する。よって、車両の周辺を全て表示するまでの時間が短縮できるので、運転手による迅速な車両の周辺の確認を実現できる。   As an example, the display control apparatus according to the embodiment projects a plurality of captured image data as an imaging region onto a virtual projection plane in a three-dimensional virtual space based on a position where the vehicle is present, and the vehicle is projected onto the virtual projection plane. Each time the gazing point is moved in the direction perpendicular to the direction connecting the two surfaces with the viewpoint fixed, the virtual projection plane is further provided. Then, the image data including the imaging region and the region where the vehicle exists is generated, and the display processing unit displays the image data generated by the generation unit, so that the imaging region and the vehicle exist. The displayed area is displayed so as to move in a direction perpendicular to the direction connecting the two surfaces. Therefore, since the time until all the surroundings of the vehicle are displayed can be shortened, the driver can quickly confirm the surroundings of the vehicle.

実施形態の表示制御装置は、一例として、車両が存在する位置を基準とした3次元仮想空間内の仮想投影面に、撮像領域として複数の撮像画像データを投影させると共に、仮想投影面に、車両が存在している領域を設定する3次元処理部をさらに備え、生成部は、2つの面を結んだ方向と垂直方向に、視点及び注視点を移動させる毎に、仮想投影面から、撮像領域と車両が存在している領域と、を含めた画像データを生成し、表示処理部は、生成部により生成された画像データを表示していくことで、撮像領域及び車両が存在している領域が、2つの面を結んだ方向と垂直方向に移動するよう表示する。よって、車両の周辺を全て表示するまでの時間が短縮できるので、運転手による迅速な車両の周辺の確認を実現できる。   As an example, the display control apparatus according to the embodiment projects a plurality of captured image data as an imaging region onto a virtual projection plane in a three-dimensional virtual space based on a position where the vehicle is present, and the vehicle is projected onto the virtual projection plane. Each time the viewpoint and the gazing point are moved in a direction perpendicular to the direction connecting the two planes, the generation unit starts from the virtual projection plane. And the region where the vehicle exists, and the display processing unit displays the image data generated by the generation unit, so that the imaging region and the region where the vehicle exists Is displayed so as to move in the direction perpendicular to the direction connecting the two surfaces. Therefore, since the time until all the surroundings of the vehicle are displayed can be shortened, the driver can quickly confirm the surroundings of the vehicle.

図1は、実施形態にかかる表示制御装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the display control device according to the embodiment is mounted is seen through. 図2は、実施形態にかかる表示制御装置を搭載する車両の一例が示された平面図(鳥瞰図)である。FIG. 2 is a plan view (bird's eye view) illustrating an example of a vehicle on which the display control device according to the embodiment is mounted. 図3は、実施形態にかかる表示制御装置を有する表示制御システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of a display control system including the display control device according to the embodiment. 図4は、実施形態にかかる表示制御装置としてのECUの機能的構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of the ECU as the display control apparatus according to the embodiment. 図5は、実施形態にかかる表示制御システムにおける撮像画像データの仮想投影面への投影を示す例示的かつ模式的な説明図である。FIG. 5 is an exemplary schematic diagram illustrating projection of captured image data onto a virtual projection plane in the display control system according to the embodiment. 図6は、実施形態にかかる表示制御システムにおける車両と仮想投影面とを示す模式的かつ例示的な側面図である。FIG. 6 is a schematic and exemplary side view showing a vehicle and a virtual projection plane in the display control system according to the embodiment. 図7は、実施形態にかかる、視点を固定した上での、注視点の移動を例示した図である。FIG. 7 is a diagram illustrating movement of a gazing point after fixing the viewpoint according to the embodiment. 図8は、実施形態にかかる、視点を固定した上での、注視点の移動を例示した図である。FIG. 8 is a diagram illustrating movement of a gazing point after fixing the viewpoint according to the embodiment. 図9は、実施形態にかかる表示処理部により表示される視点画像データの変化を例示した図である。FIG. 9 is a diagram illustrating changes in viewpoint image data displayed by the display processing unit according to the embodiment. 図10は、実施形態にかかる表示制御システムにおける表示処理の手順を示すフローチャートである。FIG. 10 is a flowchart illustrating a procedure of display processing in the display control system according to the embodiment. 図11は、変形例における、視点及び注視点の移動を例示した図である。FIG. 11 is a diagram illustrating movement of the viewpoint and the gazing point in the modification.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration of the embodiment shown below and the operations, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

本実施形態において、表示制御装置(表示制御システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。駆動方式としては、四つある車輪3すべてに駆動力を伝え、四輪すべてを駆動輪として用いる四輪駆動車両とすることができる。車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。また、駆動方式も四輪駆動方式に限定されず、例えば、前輪駆動方式や後輪駆動方式でもよい。   In the present embodiment, the vehicle 1 equipped with a display control device (display control system) may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an electric motor (not shown). It may be a vehicle as a drive source, that is, an electric vehicle, a fuel cell vehicle, or the like. Moreover, the hybrid vehicle which uses both of them as a drive source may be sufficient, and the vehicle provided with the other drive source may be sufficient. Further, the vehicle 1 can be mounted with various transmissions, and various devices necessary for driving the internal combustion engine and the electric motor, such as systems and components, can be mounted. As a driving system, a driving force can be transmitted to all four wheels 3 and all four wheels can be used as driving wheels. Various methods, numbers, layouts, and the like of devices related to driving of the wheel 3 can be set. Further, the driving method is not limited to the four-wheel driving method, and may be a front wheel driving method or a rear wheel driving method, for example.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード24から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。   As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2 a in which a passenger (not shown) gets. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 24, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet, and the braking operation unit 6 is, for example, a driver's foot It is a brake pedal located under the foot, and the speed change operation unit 7 is, for example, a shift lever protruding from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7 and the like are not limited to these.

また、車室2a内には、表示装置8や、音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード24の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   A display device 8 and an audio output device 9 are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 9 is, for example, a speaker. The display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. In addition, the occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 that is located in the vehicle width direction of the dashboard 24, that is, the central portion in the left-right direction. The monitor device 11 can have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. Further, a sound output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and sound is output from the sound output device 9 of the monitor device 11 and other sound output devices. be able to. Note that the monitor device 11 can be used also as, for example, a navigation system or an audio system.

また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図3に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、トルクセンサ13bを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータによって車輪3を転舵したりする。この場合、アクチュエータは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。   As illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and includes two left and right front wheels 3 </ b> F and two right and left rear wheels 3 </ b> R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 3, the vehicle 1 includes a steering system 13 that steers at least two wheels 3. The steering system 13 has a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate an actuator. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The steering system 13 supplements the steering force by adding torque, that is, assist torque to the steering unit 4 by the actuator, or steers the wheel 3 by the actuator. In this case, the actuator may steer one wheel 3 or may steer a plurality of wheels 3. Moreover, the torque sensor 13b detects the torque which a driver | operator gives to the steering part 4, for example.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮像することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面やその周辺の物体(障害物、岩、窪み、水たまり、轍等)を含む車両1の周辺の外部環境を逐次撮像し、撮像画像データとして出力する。   Further, as illustrated in FIG. 2, for example, four imaging units 15 a to 15 d are provided in the vehicle body 2 as the plurality of imaging units 15. The imaging unit 15 is a digital camera including an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate. The imaging unit 15 has a wide-angle lens or a fisheye lens, respectively, and can image a range of, for example, 140 ° to 220 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set obliquely downward. Therefore, the imaging unit 15 sequentially captures the external environment around the vehicle 1 including the road surface on which the vehicle 1 is movable and surrounding objects (obstacles, rocks, depressions, puddles, dredging, etc.), and takes the captured image data. Output.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパやフロントグリル等に設けられている。撮像部15dは、例えば、車体2の左側の端部2dに位置され、左側のドアミラー2gに設けられている。   The imaging unit 15a is located at, for example, the rear end 2e of the vehicle body 2, and is provided on a wall portion below the rear window of the rear hatch door 2h. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g. The imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, the front end 2c in the vehicle front-rear direction, and is provided on a front bumper, a front grill, or the like. The imaging unit 15d is located, for example, at the left end 2d of the vehicle body 2 and is provided on the left door mirror 2g.

また、図3に例示されるように、表示制御システム100(表示制御装置)では、ECU14や、モニタ装置11、操舵システム13等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。   As illustrated in FIG. 3, in the display control system 100 (display control device), in addition to the ECU 14, the monitor device 11, the steering system 13, etc., the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift A sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured as a CAN (controller area network), for example. The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. The ECU 14 also detects the detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the accelerator sensor 20, the shift sensor 21, and the wheel speed sensor 22 through the in-vehicle network 23, and operation signals from the operation input unit 10 and the like. You can receive, etc.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理を実行する。例えば、CPU14aは、撮像部15が撮像した撮像画像データに演算処理や画像処理を実行して、車両1の予測進路上に、注意すべき特定領域が存在するか否かを検出したり、注意すべき特定領域の存在を例えば、車両1の進行推定方向を示す進路指標(予測進路線)の表示態様を変化させることでユーザ(運転者や搭乗者)に報知したりする。   The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing. The CPU 14a reads a program stored (installed) in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. For example, the CPU 14a executes image processing related to an image displayed on the display device 8. For example, the CPU 14a performs arithmetic processing or image processing on the captured image data captured by the imaging unit 15 to detect whether or not there is a specific region to be noted on the predicted course of the vehicle 1, For example, the user (driver or passenger) is notified of the presence of a specific region by changing the display mode of a course indicator (predicted course line) indicating the estimated travel direction of the vehicle 1.

RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた撮像画像データを用いた画像処理や、表示装置8で表示される画像データの画像処理(一例としては画像合成)等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合であってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されることができる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、周辺監視用のECU14とは別に設けられてもよい。   The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. The display control unit 14d mainly performs image processing using the captured image data obtained by the imaging unit 15 and image processing of image data displayed on the display device 8 (as an example) in the arithmetic processing performed by the ECU 14. Executes image composition). In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Further, an HDD (hard disk drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the peripheral monitoring ECU 14.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータを介して、車輪3ひいては車両1に制動力を与える。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。   The brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses brake locking, an anti-slip device (ESC: electronic stability control) that suppresses side slip of the vehicle 1 during cornering, and enhances braking force ( Electric brake system that executes brake assist, BBW (brake by wire), etc. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator. The brake sensor 18b is a sensor that detects the position of the movable part of the braking operation unit 6, for example. The brake sensor 18b can detect the position of a brake pedal as a movable part. The brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。   The steering angle sensor 19 is, for example, a sensor that detects the steering amount of the steering unit 4 such as a steering wheel. The rudder angle sensor 19 is configured using, for example, a hall element. The ECU 14 obtains the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19 and executes various controls. The rudder angle sensor 19 detects the rotation angle of the rotating part included in the steering unit 4. The rudder angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。   The accelerator sensor 20 is, for example, a sensor that detects the position of the movable part of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。   The shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7. The shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable part. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs a wheel speed pulse number indicating the detected rotation speed as a sensor value. The wheel speed sensor 22 may be configured using, for example, a hall element. The ECU 14 calculates the amount of movement of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22 and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

ECU14に含まれるCPU14aは、上述したように撮像画像データに基づいた車両1周辺の環境を表示する。この機能を実現するために、ECU14は、図4に示すような種々のモジュールを含んでいる。ECU14は、例えば、取得部401と、画像合成部402と、3次元処理部403と、視点画像生成部404と、表示処理部405と、を含んでいる。これらのモジュールは、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現可能である。   The CPU 14a included in the ECU 14 displays the environment around the vehicle 1 based on the captured image data as described above. In order to realize this function, the ECU 14 includes various modules as shown in FIG. The ECU 14 includes, for example, an acquisition unit 401, an image composition unit 402, a three-dimensional processing unit 403, a viewpoint image generation unit 404, and a display processing unit 405. These modules can be realized by reading a program installed and stored in a storage device such as the ROM 14b and executing it.

また、SSD14fには、例えば、車両1の形状を平面的に表した車両形状データを記憶している。車両形状データは、車輪3を含んだ車両1の輪郭と共に、車両1の内装の形状も保持している。   The SSD 14f stores, for example, vehicle shape data that represents the shape of the vehicle 1 in a plane. The vehicle shape data holds the shape of the interior of the vehicle 1 as well as the contour of the vehicle 1 including the wheels 3.

取得部401は、車両1の周囲を表示するために必要な情報を取得する。例えば、取得部401は、車両1の周辺を撮像する複数の撮像部15から、複数の撮像画像データを取得する。   The acquisition unit 401 acquires information necessary for displaying the surroundings of the vehicle 1. For example, the acquisition unit 401 acquires a plurality of captured image data from the plurality of imaging units 15 that capture the periphery of the vehicle 1.

また、取得部401は、操作入力部10を介して、運転者が行った操作を表した操作データを取得する。操作データとしては、例えば、表示装置8に表示された画面の表示開始操作や、表示装置8に表示された画面についての視点の変更操作等が考えられる。   The acquisition unit 401 acquires operation data representing an operation performed by the driver via the operation input unit 10. As the operation data, for example, a display start operation of the screen displayed on the display device 8 or a viewpoint change operation for the screen displayed on the display device 8 can be considered.

画像合成部402は、取得部401で取得された複数の撮像画像のデータ、すなわち、複数の撮像部15で撮影された複数の撮像画像のデータを、それらの境界部分を合成することで繋ぎ、一つの撮像画像のデータを生成する。   The image composition unit 402 connects the data of a plurality of captured images acquired by the acquisition unit 401, that is, the data of the plurality of captured images captured by the plurality of image capturing units 15 by combining their boundary portions, Data of one captured image is generated.

3次元処理部403は、仮想投影部411と、領域設定部412と、を備え、車両1が存在する位置を基準とした3次元仮想空間内の仮想投影面に、画像合成部402により合成された撮像画像データを投影させると共に、仮想投影面に、車両1が存在している領域を設定する。これにより、取得部401が取得した複数の撮像画像データが仮想投影面に投影されたことになる。   The three-dimensional processing unit 403 includes a virtual projection unit 411 and an area setting unit 412, and is synthesized by the image synthesis unit 402 on a virtual projection plane in a three-dimensional virtual space with reference to the position where the vehicle 1 exists. The captured image data is projected, and an area where the vehicle 1 exists is set on the virtual projection plane. As a result, a plurality of captured image data acquired by the acquisition unit 401 is projected onto the virtual projection plane.

仮想投影部411は、車両1が存在する位置を基準として定められた、車両1の周囲を取り囲む仮想投影面に、撮像画像データを投影した、仮想投影画像のデータを生成する。図5は、表示制御システム100における撮像画像Icの仮想投影面Spへの投影を示す例示的かつ模式的な説明図である。図5の例では、仮想投影面Spは、地面Grに沿った底面Spgと、底面Spgすなわち地面Grから立ち上がった側面Spsと、を有している。地面Grは、車両1の上下方向Zと直交する水平面であり、車輪3の接地面でもある。底面Spgは、略円形の平坦面であり、車両1を基準とする水平面である。側面Spsは、底面Spgと接した曲面である。図5に示されるように、側面Spsの、車両1の中心Gcを通り車両1の垂直な仮想断面の形状は、例えば、楕円状あるいは放物線状である。側面Spsは、例えば、車両1の中心Gcを通り車両1の上下方向(Z方向)に沿う中心線CL周りの回転面として構成され、車両1の周囲を取り囲んでいる。仮想投影部411は、撮像画像Icを、仮想投影面Spに投影した仮想投影画像Ipを算出する。撮像画像Icを地面Grに投影すると、撮像部15から遠ざかるにつれて像が長くなり、出力画像中で実際の長さよりも長く映る場合がある。図5からわかるように、地面Gr(底面Spg)から立ち上がった側面Spsへ投影された仮想投影画像Ipは、地面Grに投影された場合に比べて、像が短くなり、出力画像中で実際の長さよりも長く映るのが抑制される。なお、本実施形態においては、撮像部15では、車両1が存在している領域501を撮像することはできない。   The virtual projection unit 411 generates virtual projection image data obtained by projecting the captured image data on a virtual projection plane surrounding the periphery of the vehicle 1, which is determined based on the position where the vehicle 1 exists. FIG. 5 is an exemplary schematic diagram illustrating projection of the captured image Ic onto the virtual projection plane Sp in the display control system 100. In the example of FIG. 5, the virtual projection plane Sp has a bottom surface Spg along the ground Gr and a side surface Sps rising from the bottom surface Spg, that is, the ground Gr. The ground Gr is a horizontal plane orthogonal to the vertical direction Z of the vehicle 1 and is also a ground contact surface of the wheel 3. The bottom surface Spg is a substantially circular flat surface and is a horizontal surface with the vehicle 1 as a reference. The side surface Sps is a curved surface in contact with the bottom surface Spg. As shown in FIG. 5, the shape of the virtual cross section of the side surface Sps passing through the center Gc of the vehicle 1 and perpendicular to the vehicle 1 is, for example, an ellipse or a parabola. The side surface Sps is configured as, for example, a rotating surface around the center line CL along the vertical direction (Z direction) of the vehicle 1 through the center Gc of the vehicle 1 and surrounds the periphery of the vehicle 1. The virtual projection unit 411 calculates a virtual projection image Ip obtained by projecting the captured image Ic onto the virtual projection plane Sp. When the captured image Ic is projected onto the ground Gr, the image becomes longer as the distance from the imaging unit 15 increases, and may appear longer than the actual length in the output image. As can be seen from FIG. 5, the virtual projection image Ip projected onto the side surface Sps rising from the ground Gr (bottom surface Spg) is shorter than that projected onto the ground Gr. It is suppressed that the image is projected longer than the length. In the present embodiment, the imaging unit 15 cannot capture an area 501 where the vehicle 1 exists.

そこで、領域設定部412が、領域501を、車両1が存在する領域として設定し、当該領域501に対して、2次元の車両形状データを重畳する。   Therefore, the region setting unit 412 sets the region 501 as a region where the vehicle 1 exists, and superimposes two-dimensional vehicle shape data on the region 501.

視点画像生成部404は、仮想投影面Spに投影された仮想投影画像Ip及び車両形状データを、所定の仮想視点から見た、視点画像データを生成する。図6は、表示制御システム100における車両1と仮想投影面Sp(Sp0)とを示す模式的かつ例示的な側面図である。図6に示されるように、視点画像生成部404は、仮想投影面Spに投影された仮想投影画像Ip(図6には不図示)及び車両形状データ601を、所定の視点Epから斜め下方を見た視点画像データ(図6には不図示)に変換する。視点Epは、車両1の天井近傍且つ車両1の中心に設定される。なお、図6に示される車体2は、説明のために表したものであって、視点画像データには含まれない。   The viewpoint image generation unit 404 generates viewpoint image data obtained by viewing the virtual projection image Ip and vehicle shape data projected onto the virtual projection plane Sp from a predetermined virtual viewpoint. FIG. 6 is a schematic and exemplary side view showing the vehicle 1 and the virtual projection plane Sp (Sp0) in the display control system 100. FIG. As shown in FIG. 6, the viewpoint image generation unit 404 displays a virtual projection image Ip (not shown in FIG. 6) and vehicle shape data 601 projected on the virtual projection plane Sp obliquely downward from a predetermined viewpoint Ep. It is converted into viewed viewpoint image data (not shown in FIG. 6). The viewpoint Ep is set near the ceiling of the vehicle 1 and at the center of the vehicle 1. Note that the vehicle body 2 shown in FIG. 6 is shown for explanation, and is not included in the viewpoint image data.

このように、本実施形態の視点画像生成部404は、視点及び注視点を設定することで、仮想投影面Spに投影された仮想投影画像Ip及び車両形状データ601から、車両1の周囲を表す面のうち、対向する少なくとも2つの側面(左側面及び右側面)から外側を撮像した撮像領域と、車両1が存在している領域501の一部と、を含めた視点画像データを生成する。   As described above, the viewpoint image generation unit 404 of the present embodiment represents the surroundings of the vehicle 1 from the virtual projection image Ip and the vehicle shape data 601 projected on the virtual projection plane Sp by setting the viewpoint and the gazing point. The viewpoint image data including an imaging region in which the outside is imaged from at least two opposite side surfaces (the left side surface and the right side surface) and a part of the region 501 where the vehicle 1 exists is generated.

車両1の周囲を表す面は、例えば、車両1の外面である、車両1の外装表面や、車両1のボディの表面が考えられる。本実施形態においては、車両1の外装表面である、左側面と右側面の各々から外側を撮影した例について説明する。しかしながら、本実施形態は、対向する少なくとも2つの面を、左側面と右側面に制限するものではなく、例えば、前面と後面であってもよい。つまり、従来、前面、後面、右側面、又は左側面の各々から外側を表示していたため、車両1の周囲を確認するのに時間を要していた。これに対して、本実施形態においては、対向する少なくとも2つの面から外側を一度に表示することで、確認できる範囲が広くなったため、確認に要する時間を短縮できる。   The surface representing the periphery of the vehicle 1 may be, for example, the exterior surface of the vehicle 1 or the body surface of the vehicle 1 that is the outer surface of the vehicle 1. In the present embodiment, an example in which the outside is photographed from each of the left side surface and the right side surface, which are exterior surfaces of the vehicle 1, will be described. However, this embodiment does not limit at least two opposing surfaces to the left side surface and the right side surface, and may be, for example, the front surface and the rear surface. That is, conventionally, since the outside is displayed from each of the front surface, the rear surface, the right side surface, and the left side surface, it takes time to check the periphery of the vehicle 1. On the other hand, in the present embodiment, the range that can be confirmed is widened by displaying the outside from at least two opposing faces at a time, so that the time required for confirmation can be shortened.

次に視点画像データの生成に用いられる、視点Ep及び注視点について説明する。図7及び図8は、視点を固定した上での、注視点の移動を例示した図である。図7に示される例は、車体2の側面方向における、注視点の移動を例示した図であり、図8に示される例は、車体2の上面方向からの、注視点の移動を例示した図である。   Next, the viewpoint Ep and the gaze point used for generating viewpoint image data will be described. 7 and 8 are diagrams illustrating the movement of the gazing point after fixing the viewpoint. The example illustrated in FIG. 7 is a diagram illustrating the movement of the gazing point in the side surface direction of the vehicle body 2, and the example illustrated in FIG. 8 is a diagram illustrating the movement of the gazing point from the upper surface direction of the vehicle body 2. It is.

図7及び図8に示されるように、本実施形態の視点画像生成部404は、視点Epを固定した上で、車両1の後ろ方向711に注視点を移動させる毎に、仮想投影面Spに投影された仮想投影画像Ip及び車両形状データ601から、撮像領域と、車両1が存在している領域501の一部と、を含めた視点画像データを生成する。   As shown in FIGS. 7 and 8, the viewpoint image generation unit 404 of the present embodiment fixes the viewpoint Ep and moves it to the virtual projection plane Sp every time the gazing point is moved in the backward direction 711 of the vehicle 1. From the projected virtual projection image Ip and the vehicle shape data 601, viewpoint image data including an imaging region and a part of the region 501 where the vehicle 1 exists is generated.

図7に示される例では、注視点は、後ろ方向711、換言すれば、座標701から座標702を介して座標703まで移動していく。そして、視点画像生成部404は、注視点を後ろ方向711に移動させる毎に、視点画像データを生成する。   In the example shown in FIG. 7, the gazing point moves in the backward direction 711, in other words, from the coordinate 701 to the coordinate 703 via the coordinate 702. The viewpoint image generation unit 404 generates viewpoint image data every time the gazing point is moved in the backward direction 711.

つまり、本実施形態においては、少なくとも、車両1の左側面及び右側面から外側を撮像した撮像領域を一度に表示するため、当該左側面と右側面とを結ぶ方向と垂直となる、後ろ方向711及び前方向712に表示を切り替えていくことで、車両1の周辺全てが表示できる。   In other words, in the present embodiment, at least the imaging region obtained by imaging the outside from the left side surface and the right side surface of the vehicle 1 is displayed at a time, and therefore, the rear direction 711 is perpendicular to the direction connecting the left side surface and the right side surface. By switching the display in the forward direction 712, the entire periphery of the vehicle 1 can be displayed.

その後、注視点は、前方向712、換言すれば、座標703から座標702を介して座標701まで移動していく。そして、視点画像生成部404は、注視点を前方向712に移動させる毎に、視点画像データを生成する。   Thereafter, the gazing point moves in the forward direction 712, in other words, from the coordinate 703 to the coordinate 701 via the coordinate 702. The viewpoint image generation unit 404 generates viewpoint image data every time the gazing point is moved in the forward direction 712.

従来、運転者に車両の周囲の状況を認識させるために、撮像部15が周回していくように、車両の周囲を表示する技術は存在していた。しかしながら、例えば、車両の前方向から右回りに、車両の周囲の表示をしていく場合、車両の前方向、車両の右方向、車両の後方向、車両の左方向の順に表示されることになる。この場合、運転者が車両の周囲の状況を一通り把握するまで時間を要していた。当該例では、車両の周囲の状況が右方向から表示されていくため、車両の左側の状況を認識するまで時間を要した。   Conventionally, there has been a technique for displaying the surroundings of the vehicle so that the imaging unit 15 circulates in order to make the driver recognize the situation around the vehicle. However, for example, when displaying the surroundings of the vehicle clockwise from the front direction of the vehicle, the display is performed in the order of the front direction of the vehicle, the right direction of the vehicle, the rear direction of the vehicle, and the left direction of the vehicle. Become. In this case, it takes time for the driver to grasp the situation around the vehicle. In this example, since the situation around the vehicle is displayed from the right direction, it takes time to recognize the situation on the left side of the vehicle.

これに対して、本実施形態の視点画像生成部404は、撮像部が車両1の周囲を周回するように複数の視点画像データを生成するのではなく、表示される領域を、振り子のように移動させる、換言すれば、注視点を直線方向に移動させるように複数の視点画像データを生成することとした。これにより、車両1の周囲の状況を全て表示するまでの時間を短縮できる。   On the other hand, the viewpoint image generation unit 404 of the present embodiment does not generate a plurality of viewpoint image data so that the imaging unit circulates around the vehicle 1, but displays the displayed area like a pendulum. In other words, a plurality of viewpoint image data are generated so as to move the gazing point in a straight line direction. Thereby, the time until all the conditions around the vehicle 1 are displayed can be shortened.

図4に戻り、本実施形態の表示処理部405は、時間の経過と共に、視点画像生成部404により生成された視点画像データの表示を切り替えていく。表示処理部405が、表示を切り替えることで、撮像領域及び車両1が存在している領域が、後ろ方向又は前方向(車両1の接地面と平行であり、且つ、右側面及び左側面を結んだ方向と垂直方向)に移動していくよう表示する。   Returning to FIG. 4, the display processing unit 405 of the present embodiment switches the display of the viewpoint image data generated by the viewpoint image generation unit 404 as time passes. The display processing unit 405 switches the display so that the imaging region and the region where the vehicle 1 exists are backward or forward (parallel to the ground contact surface of the vehicle 1 and connect the right side surface and the left side surface. Display to move in the vertical direction).

図9は、表示処理部405により表示される視点画像データの変化を例示した図である。図9に示される視点画像データ901〜906は、視点画像生成部404によって生成されたものであって、固定された視点Epと注視点の移動とに基づいて、表示される領域が変化した画像群とする。   FIG. 9 is a diagram illustrating changes in viewpoint image data displayed by the display processing unit 405. The viewpoint image data 901 to 906 shown in FIG. 9 is generated by the viewpoint image generation unit 404, and is an image in which the displayed area is changed based on the fixed viewpoint Ep and the movement of the gazing point. A group.

視点画像データ901では、領域911は、撮像部15cで撮像された撮像画像データから合成され、領域912は、撮像部15dで撮像された撮像画像データから合成され、領域913は、撮像部15bで撮像された撮像画像データから合成されている。領域914は、領域設定部412により、2次元の車両形状データが重畳されている。領域914においては、車両形状データの車輪931、932に表されたトレッドパターンによって、現在の車両1の進行方向を認識することができる。   In the viewpoint image data 901, the area 911 is synthesized from the captured image data captured by the imaging unit 15c, the area 912 is synthesized from the captured image data captured by the imaging unit 15d, and the area 913 is synthesized by the imaging unit 15b. It is synthesized from the captured image data. In the area 914, two-dimensional vehicle shape data is superimposed by the area setting unit 412. In the region 914, the current traveling direction of the vehicle 1 can be recognized by the tread pattern represented on the wheels 931 and 932 of the vehicle shape data.

また、領域912、913に対して、透過した車両1の形状を重畳表示しても良い。図9に示す例では、透過した車輪3の形状データ921、922、923、924を重畳表示することとした。これにより、運転者は、車輪3と周囲の位置関係を認識することができる。   Further, the shape of the transmitted vehicle 1 may be superimposed on the areas 912 and 913. In the example illustrated in FIG. 9, the shape data 921, 922, 923, and 924 of the transmitted wheel 3 is displayed in a superimposed manner. Thereby, the driver | operator can recognize the positional relationship of the wheel 3 and the circumference | surroundings.

図9に示される例では、領域913より領域912を広くしている。これにより、運転者は、運転席と反対側の状況を確認できる。なお、領域913、及び領域912のうちどちらを広く設定するかは、実施態様に応じて定められる。   In the example shown in FIG. 9, the region 912 is made wider than the region 913. Thereby, the driver | operator can confirm the condition on the opposite side to a driver's seat. Note that which of the region 913 and the region 912 is set wider is determined according to the embodiment.

視点画像データ902は、視点画像データ901から、車両1の後方に移動させた注視点に基づいて、視点画像生成部404により生成された画像データとする。   The viewpoint image data 902 is image data generated by the viewpoint image generation unit 404 from the viewpoint image data 901 based on the gazing point moved to the rear of the vehicle 1.

同様に、視点画像データ903〜906は、前に表示されていた視点画像データから、車両の後方に移動させた注視点に基づいて、視点画像生成部404により生成された画像データとする。視点画像データ901〜視点画像データ906は、表示装置8に表示される際に、必ず車両1の車輪の一部が含まれるような縮小・拡大率で生成された画像データとする。これにより、運転者が視点画像データを参照した際に、視点画像データに写っている車輪から、車両1の進行方向、及び表示されている位置を特定できる。   Similarly, the viewpoint image data 903 to 906 are image data generated by the viewpoint image generation unit 404 based on the gazing point moved to the rear of the vehicle from the previously displayed viewpoint image data. The viewpoint image data 901 to viewpoint image data 906 are image data generated at a reduction / enlargement ratio that always includes some of the wheels of the vehicle 1 when displayed on the display device 8. Thereby, when the driver refers to the viewpoint image data, the traveling direction of the vehicle 1 and the displayed position can be specified from the wheels shown in the viewpoint image data.

視点画像データ906では、領域915は、撮像部15aで撮像された撮像画像データから合成されている。領域912、913は、視点画像データ901と同様に、撮像部15d、15bで撮像された撮像画像データから合成されている。   In the viewpoint image data 906, the area 915 is synthesized from the captured image data captured by the imaging unit 15a. Similar to the viewpoint image data 901, the regions 912 and 913 are synthesized from the captured image data captured by the imaging units 15d and 15b.

視点画像データ901〜視点画像データ906までの表示が、図7の後ろ方向711に従った表示に相当する。本実施形態においては、視点画像データ901〜視点画像データ906までの表示で、車両1の周囲の状況が全て表示されるため、運転者は車両の周囲の状況をすぐに把握できる。   The display from the viewpoint image data 901 to the viewpoint image data 906 corresponds to the display according to the backward direction 711 in FIG. In this embodiment, since all the surrounding conditions of the vehicle 1 are displayed in the display from the viewpoint image data 901 to the viewpoint image data 906, the driver can immediately grasp the surrounding conditions of the vehicle.

その後、前方向(後ろ方向711と反対方向)712に従った表示として、視点画像データ906、視点画像データ905、視点画像データ904、視点画像データ903、視点画像データ902、視点画像データ901の順に表示される。なお、当該表示については、説明を省略する。   Thereafter, as display according to the forward direction (the reverse direction to the backward direction 711) 712, viewpoint image data 906, viewpoint image data 905, viewpoint image data 904, viewpoint image data 903, viewpoint image data 902, and viewpoint image data 901 are sequentially displayed. Is displayed. Note that description of the display is omitted.

次に、本実施形態の表示制御システム100(ECU14)における表示処理について説明する。図10は、本実施形態の表示制御システム100における上述した処理の手順を示すフローチャートである。   Next, display processing in the display control system 100 (ECU 14) of the present embodiment will be described. FIG. 10 is a flowchart showing a procedure of the above-described processing in the display control system 100 of the present embodiment.

まず、ECU14の取得部401は、操作入力部10から、表示操作を受け付けた旨の情報を取得する(S1001)。当該情報を取得したことで、表示するための処理が開始される。   First, the acquisition unit 401 of the ECU 14 acquires information indicating that a display operation has been received from the operation input unit 10 (S1001). By acquiring the information, a process for displaying is started.

次に、取得部401は、四つの撮像部15a〜15dから、車両1の周囲を撮像した撮像画像データを取得する(S1002)。   Next, the acquisition part 401 acquires the captured image data which imaged the circumference | surroundings of the vehicle 1 from the four imaging parts 15a-15d (S1002).

そして、画像合成部402が、S1002で取得した複数の撮像画像データを合成し、一つの撮像画像データを生成する(S1003)。   Then, the image composition unit 402 synthesizes a plurality of captured image data acquired in S1002 to generate one captured image data (S1003).

3次元処理部403は、合成した撮像画像データを3次元上の仮想投影面に投影すると共に、当該3次元の仮想投影面に、車両1が存在している領域を設定する(S1004)。本実施形態では、当該設定として、2次元の車両形状データを重畳する。   The three-dimensional processing unit 403 projects the combined captured image data on a three-dimensional virtual projection plane, and sets an area where the vehicle 1 exists on the three-dimensional virtual projection plane (S1004). In this embodiment, two-dimensional vehicle shape data is superimposed as the setting.

そして、視点画像生成部404は、視点Epを固定した上で、車両1の後ろ方向(又は前方向)に注視点を移動させる毎に、仮想投影面から、車両1から外側を撮像した撮像領域と、車両が存在している領域と、を含めた視点画像データを生成する(S1005)。   Then, the viewpoint image generation unit 404 fixes the viewpoint Ep and captures the outside from the vehicle 1 from the virtual projection plane every time the gazing point is moved in the backward direction (or forward direction) of the vehicle 1. And viewpoint image data including the region where the vehicle exists (S1005).

表示処理部405は、視点画像生成部404により生成された視点画像データを表示する(S1006)。   The display processing unit 405 displays the viewpoint image data generated by the viewpoint image generation unit 404 (S1006).

そして、表示処理部405は、視点画像データの表示を終了するか否かを判定する(S1007)。表示を終了するか否かは、例えば、運転者から表示の停止操作を受け付けたか否か、又は、図7の後ろ方向711及び前方向712に従った注視点の移動が終了したか否かに基づいて判定する。   Then, the display processing unit 405 determines whether to end the display of the viewpoint image data (S1007). Whether or not to end the display is, for example, whether or not a display stop operation has been received from the driver, or whether or not the movement of the gazing point according to the rear direction 711 and the front direction 712 in FIG. 7 has ended. Judgment based on.

表示処理部405が表示を終了しないと判定した場合(S1007:No)、S1005から開始され、視点画像生成部404は、表示された視点画像データから、車両1の後ろ方向(又は前方向)に注視点を移動させた視点画像データを生成していくことになる。   When the display processing unit 405 determines not to end the display (S1007: No), the process starts from S1005, and the viewpoint image generation unit 404 starts from the displayed viewpoint image data in the backward direction (or forward direction) of the vehicle 1. The viewpoint image data in which the gazing point is moved is generated.

一方、表示処理部405が表示を終了すると判定した場合(S1007:Yes)、視点画像データの表示を終了する。この後、表示処理部405は、車両1の周囲を示した俯瞰画像データ等の表示を行っても良い。   On the other hand, when the display processing unit 405 determines to end the display (S1007: Yes), the display of the viewpoint image data is ended. Thereafter, the display processing unit 405 may display overhead image data or the like showing the surroundings of the vehicle 1.

(変形例)
上述した実施形態においては、視点Epを固定する例について説明した。しかしながら、視点Epを固定する手法に制限するものではなく、注視点の移動と共に、視点を移動させても良い。そこで、変形例では、注視点及び視点を移動させる例について説明する。なお、表示制御システムの構成は、実施形態と同様として、説明を省略する。
(Modification)
In the embodiment described above, the example in which the viewpoint Ep is fixed has been described. However, the method is not limited to the method of fixing the viewpoint Ep, and the viewpoint may be moved together with the movement of the gazing point. Therefore, in the modification, an example in which the gazing point and the viewpoint are moved will be described. Note that the configuration of the display control system is the same as that of the embodiment, and a description thereof is omitted.

図11は、変形例における、視点及び注視点の移動を例示した図である。図11に示される例は、車体2の側面方向における、注視点及び視点の移動を例示した図である。図11に示される例では、上述した実施形態と同様に、後ろ方向1111に注視点を移動させた後、前方向1112に注視点を移動させるが、その際に視点を移動させる点で、上述した実施形態とは異なる。   FIG. 11 is a diagram illustrating movement of the viewpoint and the gazing point in the modification. The example shown in FIG. 11 is a diagram illustrating the point of sight and the movement of the viewpoint in the side surface direction of the vehicle body 2. In the example shown in FIG. 11, as in the above-described embodiment, after moving the gazing point in the backward direction 1111, the gazing point is moved in the forward direction 1112. Different from the embodiment described above.

図11に示されるように、本変形例においては、注視点1101から注視点1102まで移動する間は、視点Ep1は固定されている。そして注視点1102から注視点1103まで移動する間に、視点Ep1、Ep2、Ep3、Ep4、Ep5、Ep6の順に移動する。その後、視点Ep6が固定された状態で、注視点1103から注視点1104まで移動する。   As shown in FIG. 11, in this modification, the viewpoint Ep <b> 1 is fixed while moving from the gazing point 1101 to the gazing point 1102. Then, while moving from the gazing point 1102 to the gazing point 1103, the movement is performed in the order of the viewpoints Ep1, Ep2, Ep3, Ep4, Ep5, and Ep6. Thereafter, the camera moves from the gazing point 1103 to the gazing point 1104 with the viewpoint Ep6 fixed.

このように、視点画像生成部404は、車両1の前方向又は後ろ方向(車両1の接地面と平行の方向であって、車両1の右側面と左側面とを結んだ方向と垂直方向)に、視点及び注視点を移動させる毎に、3次元処理部403が生成した仮想投影面から、撮像領域と車両が存在している領域と、を含んだ視点画像データを生成する。   As described above, the viewpoint image generation unit 404 is forward or rearward of the vehicle 1 (a direction parallel to the ground contact surface of the vehicle 1 and perpendicular to a direction connecting the right side surface and the left side surface of the vehicle 1). Each time the viewpoint and the gazing point are moved, viewpoint image data including the imaging area and the area where the vehicle exists is generated from the virtual projection plane generated by the three-dimensional processing unit 403.

そして、表示処理部405は、視点画像生成部404に生成された視点画像データを表示していくことで、撮像領域及び車両1が存在している領域が、車両1の前方向又は後ろ方向に移動するよう表示することになる。   Then, the display processing unit 405 displays the viewpoint image data generated in the viewpoint image generation unit 404 so that the imaging region and the region where the vehicle 1 exists are in the front direction or the rear direction of the vehicle 1. It will be displayed to move.

本変形例では、上述した処理を行うことで実施形態と同様の効果を得ることができる。   In this modification, the same effect as that of the embodiment can be obtained by performing the above-described processing.

上述した実施形態及び変形例においては、車両1の右側面及び左側面から外側が表された撮像領域と車両形状データ(車両1の存在する領域)とを表示すると共に、当該撮像領域及び車両形状データを、車両1の前方向又は後ろ方向に移動するように表示する例について説明した。しかしながら、実施形態及び変形例は、このような表示手法に制限するものではない。例えば、車両1の前面及び後面から外側が表された撮像領域と車両形状データとを表示すると共に、当該撮像領域及び車両形状データを、車両1の右方向又は左方向に移動するように表示しても良い。   In the embodiment and the modification described above, the imaging region and the vehicle shape data (the region where the vehicle 1 exists) whose outside is represented from the right side surface and the left side surface of the vehicle 1 are displayed, and the imaging region and the vehicle shape are displayed. The example in which the data is displayed so as to move in the forward direction or the backward direction of the vehicle 1 has been described. However, the embodiment and the modification are not limited to such a display method. For example, the imaging region and the vehicle shape data that are represented from the front and rear surfaces of the vehicle 1 are displayed, and the imaging region and the vehicle shape data are displayed so as to move rightward or leftward of the vehicle 1. May be.

このように、車両1の周囲を表す面のうち、対向する少なくとも2つの面から外側を撮影した撮像領域を、当該2つの面を結んだ方向と垂直方向に移動するよう表示するのであれば良い。当該処理を行うことで、運転者が車両の周辺を確認する時間を短縮できる。   As described above, it is only necessary to display an imaging region obtained by photographing the outside from at least two opposing surfaces among the surfaces representing the periphery of the vehicle 1 so as to move in a direction perpendicular to the direction connecting the two surfaces. . By performing the process, the time for the driver to check the vicinity of the vehicle can be shortened.

上述した実施形態及び変形例においては視点画像データにおいて、車両が存在する領域に、車両形状データを重畳する例について説明したが、車両形状データを重畳する手法に制限するものではない。例えば、なにも表示しなくても良いし、他の画像データを表示しても良い。   In the embodiment and the modification described above, the example in which the vehicle shape data is superimposed on the area where the vehicle exists in the viewpoint image data has been described. However, the method is not limited to the method of superimposing the vehicle shape data. For example, nothing may be displayed or other image data may be displayed.

上述した実施形態及び変形例においては、表示制御システムが上述した構成で、視点画像データを表示することで、運転者は、車両の周辺を全て表示するまでの時間が短縮できるので、迅速な車両の周辺の確認を実現できる。   In the embodiment and the modification described above, the display control system displays the viewpoint image data with the above-described configuration, so that the driver can shorten the time until the entire periphery of the vehicle is displayed. Confirmation of the periphery of the can be realized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…車両、14…ECU、100…表示制御システム、401…取得部、402…画像合成部、403…3次元処理部、404…視点画像生成部、405…表示処理部、411…仮想投影部、412…領域設定部。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 14 ... ECU, 100 ... Display control system, 401 ... Acquisition part, 402 ... Image composition part, 403 ... Three-dimensional processing part, 404 ... Viewpoint image generation part, 405 ... Display processing part, 411 ... Virtual projection part 412... Area setting unit.

Claims (3)

車両の周辺を撮像する複数の撮像部から複数の撮像画像データを取得する取得部と、
前記車両の周囲を表す面のうち、対向する少なくとも2つの面から外側を撮像した撮像領域と、前記車両が存在している領域と、を含めた画像データを、前記取得部が取得した前記撮像画像データから生成する生成部と、
時間の経過と共に、前記生成部により生成された前記画像データの表示を切り替えていく場合に、前記撮像領域及び前記車両が存在している領域が、前記2つの面を結んだ方向と垂直方向に移動していくよう表示する表示処理部と、
を備える表示制御装置。
An acquisition unit that acquires a plurality of captured image data from a plurality of imaging units that capture the periphery of the vehicle;
The imaging in which the acquisition unit has acquired image data including an imaging area in which the outside is captured from at least two opposing faces among the surfaces representing the periphery of the vehicle and an area in which the vehicle is present A generating unit that generates image data;
When the display of the image data generated by the generation unit is switched over time, the imaging region and the region where the vehicle exists are in a direction perpendicular to the direction connecting the two surfaces. A display processing unit for displaying to move,
A display control device.
前記車両が存在する位置を基準とした3次元仮想空間内の仮想投影面に、前記撮像領域として前記複数の撮像画像データを投影させると共に、前記仮想投影面に、前記車両が存在している領域を設定する3次元処理部をさらに備え、
前記生成部は、視点を固定した上で、前記2つの面を結んだ方向と垂直方向に注視点を移動させる毎に、前記仮想投影面から、前記撮像領域と前記車両が存在している領域と、を含めた前記画像データを生成し、
前記表示処理部は、前記生成部により生成された前記画像データを表示していくことで、前記撮像領域及び前記車両が存在している領域が、前記2つの面を結んだ方向と垂直方向に移動するよう表示する、
請求項1に記載の表示制御装置。
An area in which the plurality of captured image data is projected as the imaging area onto a virtual projection plane in a three-dimensional virtual space based on a position where the vehicle exists, and the vehicle exists on the virtual projection plane A three-dimensional processing unit for setting
An area where the imaging area and the vehicle exist from the virtual projection plane each time the generation unit moves the gazing point in a direction perpendicular to a direction connecting the two surfaces with the viewpoint fixed. And generating the image data including
The display processing unit displays the image data generated by the generation unit so that the imaging region and the region where the vehicle exists are in a direction perpendicular to the direction connecting the two surfaces. Display to move,
The display control apparatus according to claim 1.
前記車両が存在する位置を基準とした3次元仮想空間内の仮想投影面に、前記撮像領域として前記複数の撮像画像データを投影させると共に、前記仮想投影面に、前記車両が存在している領域を設定する3次元処理部をさらに備え、
前記生成部は、前記2つの面を結んだ方向と垂直方向に、視点及び注視点を移動させる毎に、前記仮想投影面から、前記撮像領域と前記車両が存在している領域と、を含めた前記画像データを生成し、
前記表示処理部は、前記生成部により生成された前記画像データを表示していくことで、前記撮像領域及び前記車両が存在している領域が、前記2つの面を結んだ方向と垂直方向に移動するよう表示する、
請求項1に記載の表示制御装置。
An area in which the plurality of captured image data is projected as the imaging area onto a virtual projection plane in a three-dimensional virtual space based on a position where the vehicle exists, and the vehicle exists on the virtual projection plane A three-dimensional processing unit for setting
The generation unit includes, from the virtual projection plane, the imaging region and the region where the vehicle exists each time the viewpoint and the gazing point are moved in a direction perpendicular to the direction connecting the two surfaces. Generating the image data,
The display processing unit displays the image data generated by the generation unit so that the imaging region and the region where the vehicle exists are in a direction perpendicular to the direction connecting the two surfaces. Display to move,
The display control apparatus according to claim 1.
JP2017086916A 2017-04-26 2017-04-26 Display controller Pending JP2018186387A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017086916A JP2018186387A (en) 2017-04-26 2017-04-26 Display controller

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086916A JP2018186387A (en) 2017-04-26 2017-04-26 Display controller

Publications (1)

Publication Number Publication Date
JP2018186387A true JP2018186387A (en) 2018-11-22

Family

ID=64355308

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086916A Pending JP2018186387A (en) 2017-04-26 2017-04-26 Display controller

Country Status (1)

Country Link
JP (1) JP2018186387A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010205078A (en) * 2009-03-04 2010-09-16 Denso Corp Parking support device
JP2014036326A (en) * 2012-08-08 2014-02-24 Honda Motor Co Ltd Bird's eye image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004336613A (en) * 2003-05-12 2004-11-25 Denso Corp Vehicle surroundings display device and vehicle surroundings display program
JP2009093485A (en) * 2007-10-10 2009-04-30 Nippon Soken Inc Image forming unit and image forming program
JP2010205078A (en) * 2009-03-04 2010-09-16 Denso Corp Parking support device
JP2014036326A (en) * 2012-08-08 2014-02-24 Honda Motor Co Ltd Bird's eye image display device

Similar Documents

Publication Publication Date Title
JP7222254B2 (en) Peripheral display controller
JP2014069722A (en) Parking support system, parking support method, and program
JP6760122B2 (en) Peripheral monitoring device
CN110997409B (en) Peripheral monitoring device
WO2018070298A1 (en) Display control apparatus
JP2018036444A (en) Display control device
JP2019054420A (en) Image processing system
WO2018061261A1 (en) Display control device
JP2014004930A (en) Parking support device, parking support method, and parking support program
JP7283514B2 (en) display controller
US11475676B2 (en) Periphery monitoring device
JP2014004931A (en) Parking support device, parking support method, and parking support program
US20200140011A1 (en) Parking assistance apparatus
JP2020053819A (en) Imaging system, imaging apparatus, and signal processing apparatus
CN111034188B (en) Peripheral monitoring device
JP6930202B2 (en) Display control device
JP7130923B2 (en) display controller
JP2018186387A (en) Display controller
JP7259914B2 (en) Perimeter monitoring device
JP6965563B2 (en) Peripheral monitoring device
JP2018191061A (en) Periphery monitoring device
JP2017069846A (en) Display control device
JP6601097B2 (en) Display control device
JP2017211814A (en) Parking support device
JP2019068326A (en) Periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210720