JP2018186432A - Display controller - Google Patents

Display controller Download PDF

Info

Publication number
JP2018186432A
JP2018186432A JP2017087966A JP2017087966A JP2018186432A JP 2018186432 A JP2018186432 A JP 2018186432A JP 2017087966 A JP2017087966 A JP 2017087966A JP 2017087966 A JP2017087966 A JP 2017087966A JP 2018186432 A JP2018186432 A JP 2018186432A
Authority
JP
Japan
Prior art keywords
vehicle
image data
display
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017087966A
Other languages
Japanese (ja)
Other versions
JP6930202B2 (en
Inventor
哲也 丸岡
Tetsuya Maruoka
哲也 丸岡
渡邊 一矢
Kazuya Watanabe
一矢 渡邊
孝之 中所
Takayuki Nakadokoro
孝之 中所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2017087966A priority Critical patent/JP6930202B2/en
Publication of JP2018186432A publication Critical patent/JP2018186432A/en
Application granted granted Critical
Publication of JP6930202B2 publication Critical patent/JP6930202B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an intuitive operation.SOLUTION: A display controller of an embodiment includes: as an example, an acquisition part for acquiring a plurality of captured image data from a plurality of imaging parts for capturing an image around a vehicle; a display processing part which displays a three-dimensional shape model representing the vehicle in a first display region and displays the peripheral image data representing the vicinity of the vehicle based on the captured image data acquired by the acquisition part according to the direction of the vehicle of the three-dimensional shape mode displayed in the first display region; and an operation receiving part for receiving operation for changing the direction of the three-dimensional shape model displayed in the first display region displayed by the display processing part. The display processing part switches the peripheral image data displayed in the second display region according to the operation for changing the direction received by the operation receiving part.SELECTED DRAWING: Figure 4

Description

本発明の実施形態は、表示制御装置に関する。   Embodiments described herein relate generally to a display control apparatus.

従来から、車両の周辺に設けられた複数の撮像部によって、車両の周辺を撮像し、撮像された複数の撮像画像データを合成し、合成された撮像画像データを表示することで、車両の周囲を運転者に認識させる技術がある。   Conventionally, a plurality of imaging units provided around the vehicle image the periphery of the vehicle, synthesize the plurality of captured image data, and display the synthesized captured image data. There is a technology that makes the driver recognize.

その際に、視点を変更させるための表示データ(例えばカメラアイコン)を画像データに重畳し、当該表示データの押下などの操作を受け付けることで、表示される車両の周囲を切り替える技術がある。   At that time, there is a technique of switching the periphery of the vehicle to be displayed by superimposing display data (for example, a camera icon) for changing the viewpoint on the image data and receiving an operation such as pressing the display data.

国際公開第2013/053590号International Publication No. 2013/053590

しかしながら、従来技術においては、表示データの押下等では、どのような切り替えが行われたのか把握しにくい場合も多いため、直感的な表示の切り替え操作の実現が望まれていた。   However, in the prior art, it is often difficult to grasp what kind of switching has been performed by pressing the display data, and thus it has been desired to realize an intuitive display switching operation.

実施形態の表示制御装置は、一例として、車両の周辺を撮像する複数の撮像部から複数の撮像画像データを取得する取得部と、車両を表す3次元形状モデルを第1の表示領域に表示し、第1の表示領域に表示されている3次元形状モデルの車両の向きに応じて、取得部が取得した撮像画像データに基づいた車両の周辺を表した周辺画像データを、第2の表示領域に表示する表示処理部と、表示処理部により第1の表示領域に表示されている3次元形状モデルの向きを変更する操作を受け付ける操作受付部と、を備え、表示処理部は、操作受付部が受け付けた向きを変更する操作に応じて、第2の表示領域に表示される周辺画像データを切り替える。よって、一例として、第1の表示領域に表示された3次元形状モデルの向きの変更に連動して、第2の表示領域に表示される周辺画像データの表示を切り替えるため、直感的な操作を実現できる。   As an example, the display control device of the embodiment displays an acquisition unit that acquires a plurality of captured image data from a plurality of imaging units that capture the periphery of the vehicle, and a three-dimensional shape model representing the vehicle in the first display area. Peripheral image data representing the periphery of the vehicle based on the captured image data acquired by the acquisition unit according to the orientation of the vehicle of the three-dimensional shape model displayed in the first display region is displayed in the second display region. And a display processing unit that receives an operation for changing the orientation of the three-dimensional shape model displayed in the first display area by the display processing unit. The peripheral image data displayed in the second display area is switched in accordance with the operation of changing the orientation accepted by the user. Therefore, as an example, in order to switch the display of the peripheral image data displayed in the second display area in conjunction with the change of the orientation of the three-dimensional shape model displayed in the first display area, an intuitive operation is performed. realizable.

また、実施形態の表示制御装置は、一例として、取得部は、さらに、車両の傾きを示した傾き情報を取得し、表示処理部は、さらに、第1の表示領域に傾き情報に対応した傾きで車両の3次元形状モデルと、当該傾きの度合いを表した目盛り情報と、を表示すると共に、操作受付部が受け付けた向きを変更する操作に応じて、向きに対応して回転させた目盛り情報が表示される位置を変更する。よって、一例として、第1の表示領域に車両の傾きが表示されるため、車両の周辺の状況をより詳細に認識できる。   In the display control apparatus of the embodiment, for example, the acquisition unit further acquires inclination information indicating the inclination of the vehicle, and the display processing unit further includes an inclination corresponding to the inclination information in the first display area. In addition to displaying the three-dimensional model of the vehicle and the scale information indicating the degree of the inclination, the scale information rotated according to the direction according to the operation of changing the direction received by the operation receiving unit Change the position where is displayed. Therefore, as an example, since the inclination of the vehicle is displayed in the first display area, the situation around the vehicle can be recognized in more detail.

また、実施形態の表示制御装置は、一例として、撮像画像データが投影された、3次元仮想空間内の仮想投影面から、当該3次元仮想空間内に設定された視点及び注視点を基準に第1の周辺画像データを生成する生成部を備え、操作受付部は、3次元形状モデルの向きとして、ヨー方向の角度を変更する操作を受け付け、生成部は、3次元仮想空間内に設けられた車両の位置を基準として、視点及び注視点をヨー方向に回転させた第2の周辺画像データを生成し、表示処理部は、操作受付部が受け付けたヨー方向の角度を変更する操作に応じて、生成部に生成された第2の周辺画像データに切り替える。よって、一例として、車両を基準としてヨー方向で角度を切り替えた周辺画像データの表示を容易に実現できるので、直感的な操作を実現できる。   In addition, as an example, the display control apparatus according to the embodiment is configured so that, based on a viewpoint and a gazing point set in the three-dimensional virtual space, from a virtual projection plane in the three-dimensional virtual space on which the captured image data is projected. A generation unit that generates one peripheral image data, the operation reception unit receives an operation to change the angle of the yaw direction as the direction of the three-dimensional shape model, and the generation unit is provided in the three-dimensional virtual space Based on the position of the vehicle, the second peripheral image data is generated by rotating the viewpoint and the gazing point in the yaw direction, and the display processing unit responds to the operation for changing the angle in the yaw direction received by the operation receiving unit. The second peripheral image data generated by the generation unit is switched to. Therefore, as an example, since it is possible to easily display the peripheral image data in which the angle is switched in the yaw direction with respect to the vehicle, an intuitive operation can be realized.

また、実施形態の表示制御装置は、一例として、撮像画像データが投影された、3次元仮想空間内の仮想投影面から、当該3次元仮想空間内に設定された視点及び注視点を基準に第1の周辺画像データを生成する生成部を備え、操作受付部は、3次元形状モデルの向きとして、ピッチ方向の角度を変更する操作を受け付け、生成部は、3次元仮想空間内の仮想投影面から、前回生成した第1の周辺画像データと比べて、視点を上方向に移動させた第2の周辺画像データを生成し、表示処理部は、操作受付部が受け付けたピッチ方向の角度を変更する操作に応じて、生成部に生成された第2の周辺画像データに切り替える。よって、一例として、車両を基準としてピッチ方向で角度を切り替えた周辺画像データの表示を容易に実現できるので、直感的な操作を実現できる。   In addition, as an example, the display control apparatus according to the embodiment is configured so that, based on a viewpoint and a gazing point set in the three-dimensional virtual space, from a virtual projection plane in the three-dimensional virtual space on which the captured image data is projected. A generation unit that generates one peripheral image data, the operation reception unit receives an operation of changing an angle in the pitch direction as the direction of the three-dimensional shape model, and the generation unit is a virtual projection plane in the three-dimensional virtual space From the first peripheral image data generated last time, second peripheral image data whose viewpoint is moved upward is generated, and the display processing unit changes the angle in the pitch direction received by the operation reception unit. In accordance with the operation to be performed, the second peripheral image data generated by the generation unit is switched. Therefore, as an example, since it is possible to easily display the peripheral image data in which the angle is switched in the pitch direction with reference to the vehicle, an intuitive operation can be realized.

また、実施形態の表示制御装置は、一例として、操作受付部は、さらに、第2の表示領域に表示された画像の拡大又は縮小操作を受け付け、表示処理部は、操作受付部が受け付けた画像の拡大又は縮小操作に応じて、第2の表示領域に表示される周辺画像データを切り替える。よって、一例として、拡大又は縮小操作に応じた周辺画像データの表示を容易に実現できるので、操作性の向上を実現できる。   In the display control apparatus according to the embodiment, for example, the operation receiving unit further receives an enlargement or reduction operation of the image displayed in the second display area, and the display processing unit receives the image received by the operation receiving unit. The peripheral image data displayed in the second display area is switched according to the enlargement or reduction operation. Therefore, as an example, display of peripheral image data corresponding to an enlargement or reduction operation can be easily realized, so that operability can be improved.

また、実施形態の表示制御装置は、一例として、表示処理部は、操作受付部が画像の拡大又は縮小操作を受け付けた場合に、第1の表示領域に表示されている、車両を表す3次元形状モデル上における拡大又は縮小の基準となった位置に所定の表示情報を表す。よって、一例として、第1の表示領域を参照することで、拡大された位置を認識できるので、操作性の向上を実現できる。   In addition, as an example, the display control device according to the embodiment has a display processing unit that is a three-dimensional vehicle that is displayed in the first display area when the operation receiving unit receives an image enlargement or reduction operation. Predetermined display information is expressed at a position on the shape model which is a reference for enlargement or reduction. Therefore, as an example, since the enlarged position can be recognized by referring to the first display area, the operability can be improved.

図1は、実施形態にかかる表示制御装置を搭載する車両の車室の一部が透視された状態の一例が示された斜視図である。FIG. 1 is a perspective view illustrating an example of a state in which a part of a passenger compartment of a vehicle on which the display control device according to the embodiment is mounted is seen through. 図2は、実施形態にかかる表示制御装置を搭載する車両の一例が示された平面図(鳥瞰図)である。FIG. 2 is a plan view (bird's eye view) illustrating an example of a vehicle on which the display control device according to the embodiment is mounted. 図3は、実施形態にかかる表示制御装置を有する表示制御システムの構成の一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of a configuration of a display control system including the display control device according to the embodiment. 図4は、実施形態にかかる表示制御装置としてのECUの機能的構成を示すブロック図である。FIG. 4 is a block diagram illustrating a functional configuration of the ECU as the display control apparatus according to the embodiment. 図5は、実施形態にかかる表示制御システムにおける撮影画像の仮想投影面への投影を示す例示的かつ模式的な説明図である。FIG. 5 is an exemplary schematic diagram illustrating projection of a captured image onto a virtual projection plane in the display control system according to the embodiment. 図6は、実施形態にかかる表示制御システムにおける車両形状モデルと仮想投影面とを示す模式的かつ例示的な側面図である。FIG. 6 is a schematic and exemplary side view showing a vehicle shape model and a virtual projection plane in the display control system according to the embodiment. 図7は、実施形態にかかる表示処理部により表示される表示画面例を示した図である。FIG. 7 is a diagram illustrating an example of a display screen displayed by the display processing unit according to the embodiment. 図8は、実施形態の表示アイコンを例示した図である。FIG. 8 is a diagram illustrating a display icon of the embodiment. 図9は、実施形態の表示アイコンを例示した図である。FIG. 9 is a diagram illustrating display icons according to the embodiment. 図10は、実施形態の第1の表示領域に表示された表示アイコンに対する、右方向のスワイプ操作を受け付けた場合の画面の変化を例示した図である。FIG. 10 is a diagram illustrating a screen change when a right swipe operation is accepted for the display icon displayed in the first display area of the embodiment. 図11は、実施形態の第1の表示領域に表示された表示アイコンに対する、下方向のスワイプ操作を受け付けた場合の画面の変化を例示した図である。FIG. 11 is a diagram illustrating an example of a screen change when a downward swipe operation is received for the display icon displayed in the first display area of the embodiment. 図12は、実施形態の表示処理部が表示する第1の表示領域の表示態様の変化を例示した図である。FIG. 12 is a diagram exemplifying a change in the display mode of the first display area displayed by the display processing unit of the embodiment. 図13は、実施形態の表示処理部が表示する第1の表示領域の表示態様の変化を例示した図である。FIG. 13 is a diagram illustrating a change in the display mode of the first display area displayed by the display processing unit of the embodiment. 図14は、実施形態の取得部が車両の左右方向の傾き情報(ロール角)“30°”を取得した場合に表示される画面例を示した図である。FIG. 14 is a diagram illustrating an example of a screen that is displayed when the acquisition unit of the embodiment acquires inclination information (roll angle) “30 °” in the left-right direction of the vehicle. 図15は、実施形態の操作受付部が下方向へのスワイプ操作を受け付けた場合に表示される画面例を示した図である。FIG. 15 is a diagram illustrating an example of a screen displayed when the operation reception unit according to the embodiment receives a downward swipe operation. 図16は、実施形態の操作受付部が、第2の表示領域に表示された周辺画像の拡大操作を受け付ける前に表示する画面例を示した図である。FIG. 16 is a diagram illustrating an example of a screen displayed before the operation receiving unit of the embodiment receives an enlargement operation of the peripheral image displayed in the second display area. 図17は、実施形態の操作受付部が、第2の表示領域に表示された周辺画像の拡大操作を受け付けた場合に表示する画面例を示した図である。FIG. 17 is a diagram illustrating an example of a screen displayed when the operation receiving unit of the embodiment receives an enlargement operation of the peripheral image displayed in the second display area. 図18は、実施形態の操作受付部が、第2の表示領域に表示された周辺画像の拡大操作を受け付けた場合に表示する画面例を示した図である。FIG. 18 is a diagram illustrating an example of a screen displayed when the operation reception unit of the embodiment receives an enlargement operation of the peripheral image displayed in the second display area. 図19は、実施形態の表示制御システムにおける表示処理の手順を示すフローチャートである。FIG. 19 is a flowchart illustrating a procedure of display processing in the display control system of the embodiment.

以下、本発明の例示的な実施形態が開示される。以下に示される実施形態の構成、ならびに当該構成によってもたらされる作用、結果、および効果は、一例である。本発明は、以下の実施形態に開示される構成以外によっても実現可能であるとともに、基本的な構成に基づく種々の効果や、派生的な効果のうち、少なくとも一つを得ることが可能である。   Hereinafter, exemplary embodiments of the present invention are disclosed. The configuration of the embodiment shown below and the operations, results, and effects brought about by the configuration are examples. The present invention can be realized by configurations other than those disclosed in the following embodiments, and at least one of various effects based on the basic configuration and derivative effects can be obtained. .

本実施形態において、表示制御装置(表示制御システム)を搭載する車両1は、例えば、不図示の内燃機関を駆動源とする自動車、すなわち内燃機関自動車であってもよいし、不図示の電動機を駆動源とする自動車、すなわち電気自動車や燃料電池自動車等であってもよい。また、それらの双方を駆動源とするハイブリッド自動車であってもよいし、他の駆動源を備えた自動車であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置、例えばシステムや部品等を搭載することができる。駆動方式としては、四つある車輪3すべてに駆動力を伝え、4輪すべてを駆動輪として用いる四輪駆動車両とすることができる。車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。また、駆動方式も四輪駆動方式に限定されず、例えば、前輪駆動方式や後輪駆動方式でもよい。   In the present embodiment, the vehicle 1 equipped with a display control device (display control system) may be, for example, an automobile using an internal combustion engine (not shown) as a drive source, that is, an internal combustion engine automobile, or an electric motor (not shown). It may be a vehicle as a drive source, that is, an electric vehicle, a fuel cell vehicle, or the like. Moreover, the hybrid vehicle which uses both of them as a drive source may be sufficient, and the vehicle provided with the other drive source may be sufficient. Further, the vehicle 1 can be mounted with various transmissions, and various devices necessary for driving the internal combustion engine and the electric motor, such as systems and components, can be mounted. As a drive system, it is possible to provide a four-wheel drive vehicle in which a drive force is transmitted to all four wheels 3 and all four wheels are used as drive wheels. Various methods, numbers, layouts, and the like of devices related to driving of the wheel 3 can be set. Further, the driving method is not limited to the four-wheel driving method, and may be a front wheel driving method or a rear wheel driving method, for example.

図1に例示されるように、車体2は、不図示の乗員が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4や、加速操作部5、制動操作部6、変速操作部7等が設けられている。操舵部4は、例えば、ダッシュボード25から突出したステアリングホイールであり、加速操作部5は、例えば、運転者の足下に位置されたアクセルペダルであり、制動操作部6は、例えば、運転者の足下に位置されたブレーキペダルであり、変速操作部7は、例えば、センターコンソールから突出したシフトレバーである。なお、操舵部4、加速操作部5、制動操作部6、変速操作部7等は、これらには限定されない。   As illustrated in FIG. 1, the vehicle body 2 constitutes a passenger compartment 2 a in which a passenger (not shown) gets. In the passenger compartment 2a, a steering section 4, an acceleration operation section 5, a braking operation section 6, a shift operation section 7 and the like are provided in a state facing the driver's seat 2b as a passenger. The steering unit 4 is, for example, a steering wheel protruding from the dashboard 25, the acceleration operation unit 5 is, for example, an accelerator pedal positioned under the driver's feet, and the braking operation unit 6 is, for example, a driver's It is a brake pedal located under the foot, and the speed change operation unit 7 is, for example, a shift lever protruding from the center console. The steering unit 4, the acceleration operation unit 5, the braking operation unit 6, the speed change operation unit 7 and the like are not limited to these.

また、車室2a内には、表示装置8や、音声出力装置9が設けられている。表示装置8は、例えば、LCD(liquid crystal display)や、OELD(organic electroluminescent display)等である。音声出力装置9は、例えば、スピーカである。また、表示装置8は、例えば、タッチパネル等、透明な操作入力部10で覆われている。乗員は、操作入力部10を介して表示装置8の表示画面に表示される画像を視認することができる。また、乗員は、表示装置8の表示画面に表示される画像に対応した位置で手指等で操作入力部10を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。これら表示装置8や、音声出力装置9、操作入力部10等は、例えば、ダッシュボード25の車幅方向すなわち左右方向の中央部に位置されたモニタ装置11に設けられている。モニタ装置11は、スイッチや、ダイヤル、ジョイスティック、押しボタン等の不図示の操作入力部を有することができる。また、モニタ装置11とは異なる車室2a内の他の位置に不図示の音声出力装置を設けることができるし、モニタ装置11の音声出力装置9と他の音声出力装置から、音声を出力することができる。なお、モニタ装置11は、例えば、ナビゲーションシステムやオーディオシステムと兼用されうる。   A display device 8 and an audio output device 9 are provided in the passenger compartment 2a. The display device 8 is, for example, an LCD (liquid crystal display) or an OELD (organic electroluminescent display). The audio output device 9 is, for example, a speaker. The display device 8 is covered with a transparent operation input unit 10 such as a touch panel. The occupant can visually recognize an image displayed on the display screen of the display device 8 via the operation input unit 10. In addition, the occupant can execute an operation input by touching, pushing, or moving the operation input unit 10 with a finger or the like at a position corresponding to the image displayed on the display screen of the display device 8. . The display device 8, the audio output device 9, the operation input unit 10, and the like are provided, for example, in the monitor device 11 that is located in the vehicle width direction of the dashboard 25, that is, in the center in the left-right direction. The monitor device 11 can have an operation input unit (not shown) such as a switch, a dial, a joystick, and a push button. Further, a sound output device (not shown) can be provided at another position in the passenger compartment 2a different from the monitor device 11, and sound is output from the sound output device 9 of the monitor device 11 and other sound output devices. be able to. Note that the monitor device 11 can be used also as, for example, a navigation system or an audio system.

また、図1、図2に例示されるように、車両1は、例えば、四輪自動車であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。これら四つの車輪3は、いずれも転舵可能に構成されうる。図3に例示されるように、車両1は、少なくとも二つの車輪3を操舵する操舵システム13を有している。操舵システム13は、トルクセンサ13bを有する。操舵システム13は、ECU14(electronic control unit)等によって電気的に制御されて、アクチュエータを動作させる。操舵システム13は、例えば、電動パワーステアリングシステムや、SBW(steer by wire)システム等である。操舵システム13は、アクチュエータによって操舵部4にトルク、すなわちアシストトルクを付加して操舵力を補ったり、アクチュエータによって車輪3を転舵したりする。この場合、アクチュエータは、一つの車輪3を転舵してもよいし、複数の車輪3を転舵してもよい。また、トルクセンサ13bは、例えば、運転者が操舵部4に与えるトルクを検出する。   As illustrated in FIGS. 1 and 2, the vehicle 1 is, for example, a four-wheeled vehicle, and includes two left and right front wheels 3 </ b> F and two right and left rear wheels 3 </ b> R. All of these four wheels 3 can be configured to be steerable. As illustrated in FIG. 3, the vehicle 1 includes a steering system 13 that steers at least two wheels 3. The steering system 13 has a torque sensor 13b. The steering system 13 is electrically controlled by an ECU 14 (electronic control unit) or the like to operate an actuator. The steering system 13 is, for example, an electric power steering system, an SBW (steer by wire) system, or the like. The steering system 13 supplements the steering force by adding torque, that is, assist torque to the steering unit 4 by the actuator, or steers the wheel 3 by the actuator. In this case, the actuator may steer one wheel 3 or may steer a plurality of wheels 3. Moreover, the torque sensor 13b detects the torque which a driver | operator gives to the steering part 4, for example.

また、図2に例示されるように、車体2には、複数の撮像部15として、例えば四つの撮像部15a〜15dが設けられている。撮像部15は、例えば、CCD(charge coupled device)やCIS(CMOS image sensor)等の撮像素子を内蔵するデジタルカメラである。撮像部15は、所定のフレームレートで動画データ(撮像画像データ)を出力することができる。撮像部15は、それぞれ、広角レンズまたは魚眼レンズを有し、水平方向には例えば140°〜220°の範囲を撮影することができる。また、撮像部15の光軸は斜め下方に向けて設定されている場合もある。よって、撮像部15は、車両1が移動可能な路面やその周辺の物体(障害物、岩、窪み、水たまり、轍等)を含む車両1の周辺の外部環境を逐次撮影し、撮像画像データとして出力する。   Further, as illustrated in FIG. 2, for example, four imaging units 15 a to 15 d are provided in the vehicle body 2 as the plurality of imaging units 15. The imaging unit 15 is a digital camera including an imaging element such as a charge coupled device (CCD) or a CMOS image sensor (CIS). The imaging unit 15 can output moving image data (captured image data) at a predetermined frame rate. The imaging unit 15 has a wide-angle lens or a fish-eye lens, respectively, and can capture a range of, for example, 140 ° to 220 ° in the horizontal direction. Further, the optical axis of the imaging unit 15 may be set obliquely downward. Accordingly, the imaging unit 15 sequentially captures the external environment around the vehicle 1 including the road surface on which the vehicle 1 is movable and surrounding objects (obstacles, rocks, dents, puddles, dredging, etc.), and as captured image data. Output.

撮像部15aは、例えば、車体2の後側の端部2eに位置され、リアハッチのドア2hのリアウインドウの下方の壁部に設けられている。撮像部15bは、例えば、車体2の右側の端部2fに位置され、右側のドアミラー2gに設けられている。撮像部15cは、例えば、車体2の前側、すなわち車両前後方向の前方側の端部2cに位置され、フロントバンパやフロントグリル等に設けられている。撮像部15dは、例えば、車体2の左側の端部2dに位置され、左側のドアミラー2gに設けられている。   The imaging unit 15a is located at, for example, the rear end 2e of the vehicle body 2, and is provided on a wall portion below the rear window of the rear hatch door 2h. The imaging unit 15b is located, for example, at the right end 2f of the vehicle body 2 and provided on the right door mirror 2g. The imaging unit 15c is located, for example, on the front side of the vehicle body 2, that is, the front end 2c in the vehicle front-rear direction, and is provided on a front bumper, a front grill, or the like. The imaging unit 15d is located, for example, at the left end 2d of the vehicle body 2 and is provided on the left door mirror 2g.

また、図3に例示されるように、表示制御システム100(表示制御装置)では、ECU14や、モニタ装置11、操舵システム13等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ24等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(controller area network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22、加速度センサ24の検出結果や、操作入力部10等の操作信号等を、受け取ることができる。   As illustrated in FIG. 3, in the display control system 100 (display control device), in addition to the ECU 14, the monitor device 11, the steering system 13, etc., the brake system 18, the steering angle sensor 19, the accelerator sensor 20, the shift A sensor 21, a wheel speed sensor 22, an acceleration sensor 24, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured as a CAN (controller area network), for example. The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. The ECU 14 also detects the detection results of the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the acceleration sensor 24 via the in-vehicle network 23, and the operation input unit 10. An operation signal such as can be received.

ECU14は、例えば、CPU14a(central processing unit)や、ROM14b(read only memory)、RAM14c(random access memory)、表示制御部14d、音声制御部14e、SSD14f(solid state drive、フラッシュメモリ)等を有している。CPU14aは、ROM14b等の不揮発性の記憶装置に記憶された(インストールされた)プログラムを読み出し、当該プログラムに従って演算処理を実行する。CPU14aは、例えば、表示装置8で表示される画像に関連した画像処理を実行する。例えば、CPU14aは、撮像部15が撮像した撮像画像データに演算処理や画像処理を実行して、車両1の予測進路上に、注意すべき特定領域が存在するか否かを検出したり、注意すべき特定領域の存在を例えば、車両1の進行推定方向を示す進路指標(予測進路線)の表示態様を変化させることでユーザ(運転者や搭乗者)に報知したりする。   The ECU 14 includes, for example, a CPU 14a (central processing unit), a ROM 14b (read only memory), a RAM 14c (random access memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (solid state drive, flash memory), and the like. ing. The CPU 14a reads a program stored (installed) in a non-volatile storage device such as the ROM 14b, and executes arithmetic processing according to the program. For example, the CPU 14a executes image processing related to an image displayed on the display device 8. For example, the CPU 14a performs arithmetic processing or image processing on the captured image data captured by the imaging unit 15 to detect whether or not there is a specific region to be noted on the predicted course of the vehicle 1, For example, the user (driver or passenger) is notified of the presence of a specific region by changing the display mode of a course indicator (predicted course line) indicating the estimated travel direction of the vehicle 1.

RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた撮像画像データを用いた画像処理や、表示装置8で表示される画像データの画像処理(一例としては画像合成)等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置9で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合であってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されることができる。また、ECU14は、CPU14aに替えて、DSP(digital signal processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(hard disk drive)が設けられてもよいし、SSD14fやHDDは、周辺監視用のECU14とは別に設けられてもよい。   The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. The display control unit 14d mainly performs image processing using the captured image data obtained by the imaging unit 15 and image processing of image data displayed on the display device 8 (as an example) in the arithmetic processing performed by the ECU 14. Executes image composition). In addition, the voice control unit 14 e mainly executes processing of voice data output from the voice output device 9 among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit, and can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (digital signal processor) or a logic circuit is used instead of the CPU 14a. Further, an HDD (hard disk drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the peripheral monitoring ECU 14.

ブレーキシステム18は、例えば、ブレーキのロックを抑制するABS(anti-lock brake system)や、コーナリング時の車両1の横滑りを抑制する横滑り防止装置(ESC:electronic stability control)、ブレーキ力を増強させる(ブレーキアシストを実行する)電動ブレーキシステム、BBW(brake by wire)等である。ブレーキシステム18は、アクチュエータを介して、車輪3ひいては車両1に制動力を与える。ブレーキセンサ18bは、例えば、制動操作部6の可動部の位置を検出するセンサである。ブレーキセンサ18bは、可動部としてのブレーキペダルの位置を検出することができる。ブレーキセンサ18bは、変位センサを含む。   The brake system 18 includes, for example, an anti-lock brake system (ABS) that suppresses brake locking, an anti-slip device (ESC: electronic stability control) that suppresses side slip of the vehicle 1 during cornering, and enhances braking force ( Electric brake system that executes brake assist, BBW (brake by wire), etc. The brake system 18 applies a braking force to the wheels 3 and thus to the vehicle 1 via the actuator. The brake sensor 18b is a sensor that detects the position of the movable part of the braking operation unit 6, for example. The brake sensor 18b can detect the position of a brake pedal as a movable part. The brake sensor 18b includes a displacement sensor.

舵角センサ19は、例えば、ステアリングホイール等の操舵部4の操舵量を検出するセンサである。舵角センサ19は、例えば、ホール素子などを用いて構成される。ECU14は、運転者による操舵部4の操舵量や、自動操舵時の各車輪3の操舵量等を、舵角センサ19から取得して各種制御を実行する。なお、舵角センサ19は、操舵部4に含まれる回転部分の回転角度を検出する。舵角センサ19は、角度センサの一例である。   The steering angle sensor 19 is, for example, a sensor that detects the steering amount of the steering unit 4 such as a steering wheel. The rudder angle sensor 19 is configured using, for example, a hall element. The ECU 14 obtains the steering amount of the steering unit 4 by the driver, the steering amount of each wheel 3 during automatic steering, and the like from the steering angle sensor 19 and executes various controls. The rudder angle sensor 19 detects the rotation angle of the rotating part included in the steering unit 4. The rudder angle sensor 19 is an example of an angle sensor.

アクセルセンサ20は、例えば、加速操作部5の可動部の位置を検出するセンサである。アクセルセンサ20は、可動部としてのアクセルペダルの位置を検出することができる。アクセルセンサ20は、変位センサを含む。   The accelerator sensor 20 is, for example, a sensor that detects the position of the movable part of the acceleration operation unit 5. The accelerator sensor 20 can detect the position of an accelerator pedal as a movable part. The accelerator sensor 20 includes a displacement sensor.

シフトセンサ21は、例えば、変速操作部7の可動部の位置を検出するセンサである。シフトセンサ21は、可動部としての、レバーや、アーム、ボタン等の位置を検出することができる。シフトセンサ21は、変位センサを含んでもよいし、スイッチとして構成されてもよい。   The shift sensor 21 is, for example, a sensor that detects the position of the movable part of the speed change operation unit 7. The shift sensor 21 can detect the position of a lever, arm, button, or the like as a movable part. The shift sensor 21 may include a displacement sensor or may be configured as a switch.

車輪速センサ22は、車輪3の回転量や単位時間当たりの回転数を検出するセンサである。車輪速センサ22は、検出した回転数を示す車輪速パルス数をセンサ値として出力する。車輪速センサ22は、例えば、ホール素子などを用いて構成されうる。ECU14は、車輪速センサ22から取得したセンサ値に基づいて車両1の移動量などを演算し、各種制御を実行する。なお、車輪速センサ22は、ブレーキシステム18に設けられている場合もある。その場合、ECU14は、車輪速センサ22の検出結果をブレーキシステム18を介して取得する。   The wheel speed sensor 22 is a sensor that detects the amount of rotation of the wheel 3 and the number of rotations per unit time. The wheel speed sensor 22 outputs a wheel speed pulse number indicating the detected rotation speed as a sensor value. The wheel speed sensor 22 may be configured using, for example, a hall element. The ECU 14 calculates the amount of movement of the vehicle 1 based on the sensor value acquired from the wheel speed sensor 22 and executes various controls. Note that the wheel speed sensor 22 may be provided in the brake system 18. In that case, the ECU 14 acquires the detection result of the wheel speed sensor 22 via the brake system 18.

加速度センサ24は、例えば車両1に設けられている。ECU14は、加速度センサ24からの信号に基づき、車両1の前後方向の傾き(ピッチ角)や左右方向の傾き(ロール角)を算出する。ピッチ角は、車両1の左右軸周りの傾きを示した角度であり、水平な面(地面、路面)上に車両1が存在する場合に、ピッチ角が0°となる。また、ロール角は、車両1の前後軸周りの傾きを示した角度であり、水平な面(地面、路面)上に車両1が存在する場合に、ロール角が0°となる。つまり、車両1が、水平な路面に存在するか否か、傾斜面(上り勾配の路面または下り勾配の路面)に存在するか否か等が検出できる。なお、車両1がESCを搭載する場合、ESCに従来から搭載されている加速度センサ24を用いる。なお、本実施形態は、加速度センサ24を制限するものではなく、車両1の前後左右方向の加速度を検出可能なセンサであればよい。   The acceleration sensor 24 is provided in the vehicle 1, for example. Based on the signal from the acceleration sensor 24, the ECU 14 calculates the front-rear direction inclination (pitch angle) and the left-right direction inclination (roll angle) of the vehicle 1. The pitch angle is an angle indicating the inclination of the vehicle 1 around the left and right axis, and the pitch angle is 0 ° when the vehicle 1 is present on a horizontal surface (ground, road surface). Further, the roll angle is an angle indicating the inclination around the longitudinal axis of the vehicle 1, and when the vehicle 1 is present on a horizontal surface (ground, road surface), the roll angle is 0 °. That is, it is possible to detect whether the vehicle 1 is present on a horizontal road surface, whether it is present on an inclined surface (an uphill road surface or a downhill road surface), and the like. In addition, when the vehicle 1 mounts ESC, the acceleration sensor 24 conventionally mounted in ESC is used. In the present embodiment, the acceleration sensor 24 is not limited, and any sensor that can detect the acceleration in the front-rear and left-right directions of the vehicle 1 may be used.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

ECU14に含まれるCPU14aは、上述したように撮像画像データに基づいた車両1周辺の環境を表示する。この機能を実現するために、ECU14は、図4に示すような種々のモジュールを含んでいる。ECU14のSSD14fは、例えば3次元形状モデル記憶部401を備えている。さらに、ECU14は、例えば、操作受付部402と、取得部403と、画像合成部404と、3次元処理部405と、周辺画像生成部406と、表示処理部407と、を含んでいる。これらのモジュールは、ROM14b等の記憶装置にインストールされ記憶されたプログラムを読み出し、それを実行することで実現可能である。   The CPU 14a included in the ECU 14 displays the environment around the vehicle 1 based on the captured image data as described above. In order to realize this function, the ECU 14 includes various modules as shown in FIG. The SSD 14f of the ECU 14 includes a three-dimensional shape model storage unit 401, for example. Further, the ECU 14 includes, for example, an operation reception unit 402, an acquisition unit 403, an image composition unit 404, a three-dimensional processing unit 405, a peripheral image generation unit 406, and a display processing unit 407. These modules can be realized by reading a program installed and stored in a storage device such as the ROM 14b and executing it.

SSD14fの3次元形状モデル記憶部401には、例えば、車両1の3次元形状を表した3次元の車両形状モデルを記憶している。   In the three-dimensional shape model storage unit 401 of the SSD 14f, for example, a three-dimensional vehicle shape model representing the three-dimensional shape of the vehicle 1 is stored.

操作受付部402は、操作入力部10の操作入力による信号を取得する。操作入力部10は、表示装置8の表示画面に設けられたタッチパネル等であって、操作受付部402は、操作入力部10に対して行われた操作を認識できる。認識可能な操作としては、タップ、フリック、スワイプ等の操作が考えられる。   The operation reception unit 402 acquires a signal generated by an operation input from the operation input unit 10. The operation input unit 10 is a touch panel or the like provided on the display screen of the display device 8, and the operation reception unit 402 can recognize an operation performed on the operation input unit 10. Recognizable operations include operations such as tapping, flicking, and swiping.

取得部403は、車両1の周囲を表示するために必要な情報を取得する。例えば、取得部403は、車両1の周辺を撮像する複数の撮像部15から、複数の撮像画像データを取得する。   The acquisition unit 403 acquires information necessary for displaying the surroundings of the vehicle 1. For example, the acquisition unit 403 acquires a plurality of captured image data from the plurality of imaging units 15 that capture the periphery of the vehicle 1.

また、取得部403は、加速度センサ24からの信号に基づいた算出で、車両1の前後方向の傾き情報(ピッチ角)や左右方向の傾き情報(ロール角)を取得する。   Further, the acquisition unit 403 acquires the tilt information (pitch angle) in the front-rear direction and the tilt information (roll angle) in the left-right direction of the vehicle 1 by calculation based on the signal from the acceleration sensor 24.

画像合成部404は、取得部403で取得された複数の撮像画像のデータ、すなわち、複数の撮像部15で撮影された複数の撮像画像のデータを、それらの境界部分を合成することで繋ぎ、一つの撮像画像のデータを生成する。   The image composition unit 404 connects the data of the plurality of captured images acquired by the acquisition unit 403, that is, the data of the plurality of captured images captured by the plurality of image capturing units 15 by combining their boundary portions, Data of one captured image is generated.

3次元処理部405は、車両1が存在する位置を基準とした3次元仮想空間内の仮想投影面に、画像合成部404により合成された撮像画像データを投影させる。   The three-dimensional processing unit 405 projects the captured image data synthesized by the image synthesizing unit 404 onto a virtual projection plane in the three-dimensional virtual space with the position where the vehicle 1 is present as a reference.

3次元処理部405は、車両1が存在する位置を基準として定められた、車両1の周囲を取り囲む仮想投影面に、撮像画像データを投影した、仮想投影画像のデータを生成する。図5は、表示制御システム100における撮影画像Icの仮想投影面Spへの投影を示す例示的かつ模式的な説明図である。図5の例では、仮想投影面Spは、地面Grに沿った底面Spgと、底面Spgすなわち地面Grから立ち上がった側面Spsと、を有している。地面Grは、車両1の上下方向Zと直交する水平面であり、タイヤの接地面でもある。底面Spgは、略円形の平坦面であり、車両1を基準とする水平面である。側面Spsは、底面Spgと接した曲面である。図5に示されるように、側面Spsの、車両1の中心Gcを通り車両1の垂直な仮想断面の形状は、例えば、楕円状あるいは放物線状である。側面Spsは、例えば、車両1の中心Gcを通り車両1の上下方向に沿う中心線CL周りの回転面として構成され、車両1の周囲を取り囲んでいる。3次元処理部405は、撮影画像Icを、仮想投影面Spに投影した仮想投影画像Ipを算出する。撮影画像Icを地面Grに投影すると、撮像部15から遠ざかるにつれて像が長くなり、出力画像中で実際の長さよりも長く映る場合がある。図5からわかるように、地面Gr(底面Spg)から立ち上がった側面Spsへ投影された仮想投影画像Ipは、地面Grに投影された場合に比べて、像が短くなり、出力画像中で実際の長さよりも長く映るのが抑制される。   The three-dimensional processing unit 405 generates virtual projection image data obtained by projecting captured image data on a virtual projection plane surrounding the periphery of the vehicle 1, which is determined based on the position where the vehicle 1 exists. FIG. 5 is an exemplary schematic diagram illustrating projection of the captured image Ic onto the virtual projection plane Sp in the display control system 100. In the example of FIG. 5, the virtual projection plane Sp has a bottom surface Spg along the ground Gr and a side surface Sps rising from the bottom surface Spg, that is, the ground Gr. The ground Gr is a horizontal plane orthogonal to the vertical direction Z of the vehicle 1 and is also a tire contact surface. The bottom surface Spg is a substantially circular flat surface and is a horizontal surface with the vehicle 1 as a reference. The side surface Sps is a curved surface in contact with the bottom surface Spg. As shown in FIG. 5, the shape of the virtual cross section of the side surface Sps passing through the center Gc of the vehicle 1 and perpendicular to the vehicle 1 is, for example, an ellipse or a parabola. The side surface Sps is configured as, for example, a rotating surface around the center line CL that passes through the center Gc of the vehicle 1 and extends in the vertical direction of the vehicle 1, and surrounds the periphery of the vehicle 1. The three-dimensional processing unit 405 calculates a virtual projection image Ip obtained by projecting the captured image Ic onto the virtual projection plane Sp. When the captured image Ic is projected onto the ground Gr, the image becomes longer as the distance from the imaging unit 15 increases, and may appear longer than the actual length in the output image. As can be seen from FIG. 5, the virtual projection image Ip projected onto the side surface Sps rising from the ground Gr (bottom surface Spg) is shorter than that projected onto the ground Gr. It is suppressed that the image is projected longer than the length.

また、3次元処理部405は、3次元仮想空間の領域501に、3次元形状モデル記憶部401に記憶されている、車両形状モデルを配置する。3次元処理部405は、領域501に配置する車両形状モデルに、所定の透過率を設定する。これにより、3次元仮想空間において、車両形状モデルを介して、反対側の仮想投影画像Ipを視認できる。   The three-dimensional processing unit 405 arranges the vehicle shape model stored in the three-dimensional shape model storage unit 401 in the region 501 of the three-dimensional virtual space. The three-dimensional processing unit 405 sets a predetermined transmittance for the vehicle shape model arranged in the region 501. Thereby, the virtual projection image Ip on the opposite side can be visually recognized through the vehicle shape model in the three-dimensional virtual space.

周辺画像生成部406は、撮像画像データが投影された、3次元仮想空間内の仮想投影面Spに投影された仮想投影画像Ip及び車両形状モデルから、当該3次元仮想空間内に設定された視点及び注視点を基準に周辺画像データを生成する。   The peripheral image generation unit 406 generates a viewpoint set in the three-dimensional virtual space from the virtual projection image Ip and the vehicle shape model projected on the virtual projection plane Sp in the three-dimensional virtual space on which the captured image data is projected. The peripheral image data is generated based on the gazing point.

図6は、表示制御システム100における車両形状モデル601と仮想投影面Sp(Sp0)とを示す模式的かつ例示的な側面図である。図6に示される例では、周辺画像生成部406は、仮想投影面Spに投影された仮想投影画像Ip(図6には不図示)を、仮想の視点Epから仮想の注視点Enを見た周辺画像データ(図6には不図示)に変換する。図6に示される例では、視点Epは、車両形状モデル601の後方に設定され、注視点Enは、車両形状モデル601を介して、車両形状モデル601の前方に設定される。   FIG. 6 is a schematic and exemplary side view showing the vehicle shape model 601 and the virtual projection plane Sp (Sp0) in the display control system 100. In the example illustrated in FIG. 6, the peripheral image generation unit 406 looks at the virtual gazing point En from the virtual viewpoint Ep on the virtual projection image Ip (not illustrated in FIG. 6) projected on the virtual projection plane Sp. It is converted into peripheral image data (not shown in FIG. 6). In the example shown in FIG. 6, the viewpoint Ep is set behind the vehicle shape model 601, and the gazing point En is set in front of the vehicle shape model 601 via the vehicle shape model 601.

このように、本実施形態の周辺画像生成部406は、3次元仮想空間内の仮想投影面から、3次元仮想空間内に設定された視点Ep及び注視点Enを基準に、車両形状モデルを介して、車両1の進行方向の周囲の状況が表された撮像領域を含む周辺画像データを生成する。   As described above, the peripheral image generation unit 406 according to the present embodiment uses the vehicle shape model from the virtual projection plane in the three-dimensional virtual space on the basis of the viewpoint Ep and the gazing point En set in the three-dimensional virtual space. Thus, peripheral image data including an imaging region in which a situation around the vehicle 1 in the traveling direction is represented is generated.

本実施形態の表示処理部407は、車両1を表す3次元形状モデルを含む表示アイコンを第1の表示領域に表示し、表示装置8の第1の表示領域に表示されている3次元形状モデルの車両1の向きに応じて、周辺画像生成部406により生成された周辺画像データを、表示装置8の第2の表示領域に表示する。第1の表示領域に表示される表示アイコンは、3次元仮想空間内に設定された視点Ep及び注視点Enに基づいて配置される。   The display processing unit 407 of the present embodiment displays a display icon including a three-dimensional shape model representing the vehicle 1 in the first display area, and the three-dimensional shape model displayed in the first display area of the display device 8. The peripheral image data generated by the peripheral image generation unit 406 is displayed in the second display area of the display device 8 in accordance with the direction of the vehicle 1. The display icons displayed in the first display area are arranged based on the viewpoint Ep and the gazing point En set in the three-dimensional virtual space.

図7は、表示処理部407により表示される表示画面例を示した図である。図7に示される表示画面例では、第1の表示領域701に操作用の表示アイコンが表示され、第2の表示領域702には、周辺画像データを表示する。第2の表示領域702の周辺画像データに表示されている車両形状モデル703は、所定の透過率が設定されているため、車両形状モデル703を介して、車両1の進行方向の周辺の状況が表示される。また“−”ボタン704及び“+”ボタン705は、第2の表示領域702に表示される周辺画像データについて拡大、縮小を行うためのアイコンとする。なお、“−”ボタン704及び“+”ボタン705を半透明にしてもよい。これにより、“−”ボタン704及び“+”ボタン705が重畳されている部分の状況を把握できる。   FIG. 7 is a diagram illustrating an example of a display screen displayed by the display processing unit 407. In the display screen example shown in FIG. 7, a display icon for operation is displayed in the first display area 701, and peripheral image data is displayed in the second display area 702. Since the vehicle shape model 703 displayed in the peripheral image data of the second display area 702 has a predetermined transmittance, the situation in the vicinity of the traveling direction of the vehicle 1 is determined via the vehicle shape model 703. Is displayed. The “−” button 704 and the “+” button 705 are icons for enlarging and reducing the peripheral image data displayed in the second display area 702. The “−” button 704 and the “+” button 705 may be translucent. Accordingly, it is possible to grasp the situation of the portion where the “−” button 704 and the “+” button 705 are superimposed.

第1の表示領域701に表示される表示アイコンは、車両1の3次元の車両形状モデルと、車両1の傾き角を表すための目盛り情報が表示される。表示アイコンとして示される車両形状モデルの向きは、第2の表示領域702に表示される車両形状モデル703と連動している。つまり、本実施形態においては、操作受付部402が、表示アイコンに表示される車両形状モデルの向きを変更する操作を受け付けた場合に、表示処理部407が、第2の表示領域702に表示される車両形状モデル703の向き及び表示される周辺の状況を切り替える。次に、第1の表示領域701に表示される表示アイコンについて説明する。   The display icon displayed in the first display area 701 displays a three-dimensional vehicle shape model of the vehicle 1 and scale information for representing the tilt angle of the vehicle 1. The orientation of the vehicle shape model shown as the display icon is linked to the vehicle shape model 703 displayed in the second display area 702. That is, in the present embodiment, when the operation receiving unit 402 receives an operation for changing the orientation of the vehicle shape model displayed on the display icon, the display processing unit 407 is displayed in the second display area 702. The direction of the vehicle shape model 703 to be displayed and the surrounding situation to be displayed are switched. Next, display icons displayed in the first display area 701 will be described.

図8及び図9は、本実施形態の表示アイコンを例示した図である。図8に示される例は、表示アイコンとして表示される、車両1の3次元形状モデルを後方から参照した場合の図とし、図9に示される例は、表示アイコンとして表示される、車両1の3次元形状モデルを左側面から参照した場合の図とする。なお、表示アイコンとして表示される、車両1の3次元形状モデルは、3次元形状モデル記憶部401から読み出したものとする。   8 and 9 are diagrams illustrating display icons of the present embodiment. The example shown in FIG. 8 is a view when the three-dimensional shape model of the vehicle 1 displayed as a display icon is referred from the rear, and the example shown in FIG. 9 is the display of the vehicle 1 displayed as a display icon. It is assumed that the three-dimensional shape model is referenced from the left side. Note that the three-dimensional shape model of the vehicle 1 displayed as the display icon is read from the three-dimensional shape model storage unit 401.

図8及び図9に示されるように、表示アイコンは、車両1の3次元形状モデルの他に、3次元形状モデルの垂直方向を表すための円盤801と、3次元形状モデルの水平方向を表すための円盤802と、が表されている。   As shown in FIGS. 8 and 9, the display icon represents a disk 801 for representing the vertical direction of the three-dimensional shape model, in addition to the three-dimensional shape model of the vehicle 1, and the horizontal direction of the three-dimensional shape model. A disk 802 is shown.

さらには、表示アイコンの周囲には、車両1の傾き情報を表すための領域811〜822が、円周上に配置されている。本実施形態の領域811〜822には、図7に表されるように、傾きを示す数値として“90”、“60”、“30”、“0”、“−30”、“−60”、“−90”、“−60”、“−30”、“0”、“30”、“60”が設定される。本実施形態においては、当該領域811〜822に示される数値と、3次元形状モデル及び円盤801、802の位置とで、車両1の現在の傾きを表現できる。   Furthermore, areas 811 to 822 for representing the tilt information of the vehicle 1 are arranged on the circumference around the display icon. In the regions 811 to 822 of the present embodiment, as shown in FIG. 7, “90”, “60”, “30”, “0”, “−30”, “−60” are numerical values indicating the inclination. , “−90”, “−60”, “−30”, “0”, “30”, and “60” are set. In the present embodiment, the current inclination of the vehicle 1 can be expressed by the numerical values shown in the regions 811 to 822 and the positions of the three-dimensional shape model and the disks 801 and 802.

本実施形態の表示アイコンは、円盤801、802の中心点を基準に回転可能に表示される。本実施形態の操作受付部402は、第1の表示領域701に表示されている車両1の3次元形状モデルの向きを変更する操作を受け付ける。本実施形態では、スワイプ操作を、当該表示アイコンの向きを変更する(換言すれば、3次元形状モデルを回転させる)操作として受け付ける。   The display icon of the present embodiment is displayed so as to be rotatable with respect to the center point of the disks 801 and 802. The operation accepting unit 402 according to the present embodiment accepts an operation for changing the orientation of the three-dimensional shape model of the vehicle 1 displayed in the first display area 701. In the present embodiment, the swipe operation is accepted as an operation for changing the direction of the display icon (in other words, rotating the three-dimensional shape model).

本実施形態では、操作受付部402が、表示アイコンを介して、左右方向のスワイプ操作を受け付けた場合に、車両1の3次元形状モデルについて、ヨー方向の角度(向き)を変更する操作として受け付ける。一方、操作受付部402が、表示アイコンを介して、上下方向のスワイプ操作を受け付けた場合に、車両1の3次元形状モデルについて、ピッチ方向の角度(向き)を変更する操作として受け付ける。   In the present embodiment, when the operation receiving unit 402 receives a swipe operation in the left-right direction via the display icon, the operation receiving unit 402 receives an operation for changing the angle (orientation) in the yaw direction for the three-dimensional shape model of the vehicle 1. . On the other hand, when the operation reception unit 402 receives a swipe operation in the vertical direction via the display icon, the operation reception unit 402 receives the operation of changing the angle (orientation) in the pitch direction for the three-dimensional model of the vehicle 1.

そして、表示処理部407は、操作受付部402が受け付けた向きを変更する操作に応じて、第2の表示領域に表示される周辺画像データを切り替える。なお、切り替えられる周辺画像データについては後述する。   Then, the display processing unit 407 switches the peripheral image data displayed in the second display area in accordance with the operation for changing the orientation received by the operation receiving unit 402. The peripheral image data to be switched will be described later.

図10は、本実施形態の第1の表示領域701に表示された表示アイコンに対する、右方向のスワイプ操作を受け付けた場合の画面の変化を例示した図である。図10に表されるように、画像1011は、車両1の3次元形状モデルを、車両の後側が正面になるように表示された例とする。図10に示される例では、領域811〜822、及び領域1001〜領域1005を、傾きを表す目盛り情報を重畳する領域とする。なお、目盛り情報として示される数値は、上述した数値と同様として説明を省略する。   FIG. 10 is a diagram exemplifying a change in the screen when a right swipe operation is accepted for the display icon displayed in the first display area 701 of the present embodiment. As illustrated in FIG. 10, the image 1011 is an example in which the three-dimensional shape model of the vehicle 1 is displayed so that the rear side of the vehicle is the front. In the example illustrated in FIG. 10, the regions 811 to 822 and the regions 1001 to 1005 are regions on which scale information representing inclination is superimposed. In addition, the numerical value shown as scale information is the same as the numerical value mentioned above, and description is abbreviate | omitted.

なお、領域811〜822、及び領域1001〜領域1005に表示される目盛り情報のうち、3次元形状モデルや円盤801、802上に重なるように配置される目盛り情報(例えば、画像1011における領域1001〜領域1005に表示される目盛り情報)は、視認性を向上させるために、表示を省略しても良い。   Of the scale information displayed in the areas 811 to 822 and the areas 1001 to 1005, the scale information arranged to overlap the three-dimensional shape model or the disks 801 and 802 (for example, the areas 1001 to 1001 in the image 1011). The scale information displayed in the area 1005) may be omitted in order to improve visibility.

操作受付部402が、運転者又は搭乗者の指1050による、表示装置8に表示された第1の表示領域701に対して右方向のスワイプ操作を受け付けた場合に、表示処理部407は、第1の表示領域701に表示される画像を、画像1011、画像1012、画像1013の順に切り替えていく。当該切り替えに応じて、表示処理部407は、第1の表示領域701に表示される、周辺画像データを切り替える。例えば、画像1013が表示された場合に、表示処理部407は、第2の表示領域702にも、車両1の3次元形状モデルの左側面が正面になるように配置された周辺画像データを表示する。なお、画像1013においては、領域812〜816に表示される目盛り情報は、表示を省略してもよい。   When the operation reception unit 402 receives a right swipe operation on the first display area 701 displayed on the display device 8 by the driver's or passenger's finger 1050, the display processing unit 407 The images displayed in one display area 701 are switched in the order of image 1011, image 1012, and image 1013. In response to the switching, the display processing unit 407 switches the peripheral image data displayed in the first display area 701. For example, when the image 1013 is displayed, the display processing unit 407 displays peripheral image data arranged in the second display area 702 so that the left side surface of the three-dimensional shape model of the vehicle 1 is in front. To do. In the image 1013, display of the scale information displayed in the areas 812 to 816 may be omitted.

そして、周辺画像生成部406は、右方向又は左方向のスワイプ操作の後に表示された第1の表示領域701内の車両1の3次元形状モデルの向きと、周辺画像データ内の車両1の3次元形状モデルの向きが同じになるように、3次元仮想空間内で、当該3次元仮想空間内に設けられた車両1の位置を基準として、視点及び注視点をヨー方向に回転させた周辺画像データを生成する。   Then, the peripheral image generation unit 406 displays the orientation of the three-dimensional shape model of the vehicle 1 in the first display area 701 displayed after the right or left swipe operation, and 3 of the vehicle 1 in the peripheral image data. A peripheral image obtained by rotating the viewpoint and the gazing point in the yaw direction in the three-dimensional virtual space with reference to the position of the vehicle 1 provided in the three-dimensional virtual space so that the directions of the three-dimensional shape model are the same. Generate data.

そして、表示処理部407は、操作受付部402が受け付けたヨー方向の角度を変更する操作に応じて、周辺画像生成部406に生成された周辺画像データに切り替える。   Then, the display processing unit 407 switches to the peripheral image data generated by the peripheral image generation unit 406 in accordance with the operation for changing the angle in the yaw direction received by the operation reception unit 402.

図11は、本実施形態の第1の表示領域701に表示された表示アイコンに対する、下方向のスワイプ操作を受け付けた場合の画面の変化を例示した図である。図11に表されるように、画像1111は、車両1の3次元形状モデルを、車両1の後側が正面になるように表示された例とする。   FIG. 11 is a diagram illustrating a screen change when a downward swipe operation is accepted for the display icon displayed in the first display area 701 of the present embodiment. As shown in FIG. 11, the image 1111 is an example in which the three-dimensional shape model of the vehicle 1 is displayed so that the rear side of the vehicle 1 is the front.

操作受付部402が、運転者又は搭乗者の指1150による、表示装置8に表示された第1の表示領域701に対して下方向のスワイプ操作を受け付けた場合に、表示処理部407は、画像1111、画像1112、画像1113の順に表示を切り替えていく。当該切り替えに応じて、表示処理部407は、第1の表示領域701に表示される、周辺画像データを切り替えていく。例えば、画像1113が表示された場合に、表示処理部407は、第2の表示領域702にも、車両1の3次元形状モデルの上面が正面になるように配置された周辺画像データを表示する。   When the operation reception unit 402 receives a downward swipe operation on the first display area 701 displayed on the display device 8 with the driver's or passenger's finger 1150, the display processing unit 407 displays an image. The display is switched in the order of 1111, image 1112, and image 1113. In response to the switching, the display processing unit 407 switches the peripheral image data displayed in the first display area 701. For example, when the image 1113 is displayed, the display processing unit 407 displays the peripheral image data arranged so that the top surface of the three-dimensional shape model of the vehicle 1 is in front also in the second display area 702. .

そして、周辺画像生成部406は、上方向又は下方向のスワイプ操作の後に表示された第1の表示領域701内の車両1の3次元形状モデルの向きと、周辺画像データ内の車両1の3次元形状モデルの向きが同じになるように、前回生成した周辺画像データと比べて、3次元仮想空間内で、当該3次元仮想空間内に設けられた車両1の位置を基準として、少なくとも視点を上方向又は下方向に移動させた周辺画像データを生成する。なお、注視点は固定しても良いし、視点と同様に移動させても良い。   Then, the peripheral image generation unit 406 displays the orientation of the three-dimensional shape model of the vehicle 1 in the first display area 701 displayed after the upward or downward swipe operation, and 3 of the vehicle 1 in the peripheral image data. Compared to the previously generated peripheral image data so that the direction of the three-dimensional shape model is the same, at least the viewpoint is determined in the three-dimensional virtual space with reference to the position of the vehicle 1 provided in the three-dimensional virtual space. Peripheral image data moved upward or downward is generated. Note that the gazing point may be fixed, or may be moved in the same manner as the viewpoint.

そして、表示処理部407は、操作受付部402が受け付けたピッチ方向の角度を変更する操作に応じて、周辺画像生成部406に生成された周辺画像データに切り替える。   Then, the display processing unit 407 switches to the peripheral image data generated by the peripheral image generation unit 406 according to the operation of changing the pitch direction angle received by the operation reception unit 402.

また、本実施形態は、取得部403が取得した、車両1の前後方向の傾き情報(ピッチ角)や左右方向の傾き情報(ロール角)に応じて、第1の表示領域701に表示される、車両1の3次元形状モデルの表示態様を変更する。   Further, in the present embodiment, the information is displayed in the first display area 701 according to the tilt information (pitch angle) in the front-rear direction and the tilt information (roll angle) in the left-right direction acquired by the acquisition unit 403. The display mode of the three-dimensional shape model of the vehicle 1 is changed.

図12は、本実施形態の表示処理部407が表示する第1の表示領域701の表示態様の変化を例示した図である。図12に示される例では、画像1211は、取得部403が取得した、車両1の前後方向の傾き(ピッチ角)が“0°”の場合とする。画像1212は、取得部403が取得した、車両1の前後方向の傾き(ピッチ角)が“30°”の場合とする。画像1211においては、3次元形状モデル1201が水平状態(ピッチ角“0°”)で表示されている。また、円盤802も水平状態のため、円盤802の端部が領域1003に重なるように配置されている。   FIG. 12 is a diagram illustrating a change in the display mode of the first display area 701 displayed by the display processing unit 407 of the present embodiment. In the example shown in FIG. 12, the image 1211 is a case where the front-rear direction inclination (pitch angle) of the vehicle 1 acquired by the acquisition unit 403 is “0 °”. The image 1212 is obtained when the inclination (pitch angle) in the front-rear direction of the vehicle 1 acquired by the acquisition unit 403 is “30 °”. In the image 1211, the three-dimensional shape model 1201 is displayed in a horizontal state (pitch angle “0 °”). Since the disk 802 is also in a horizontal state, the end of the disk 802 is disposed so as to overlap the region 1003.

画像1212においては、3次元形状モデル1202が前後方向に傾いた状態(ピッチ角“30°”)で表示されている。円盤802も3次元形状モデル1202と共に傾くため、円盤802の端部が領域1004に重なるように配置されている。   In the image 1212, the three-dimensional shape model 1202 is displayed in a state of being inclined in the front-rear direction (pitch angle “30 °”). Since the disk 802 is also tilted together with the three-dimensional shape model 1202, the end of the disk 802 is disposed so as to overlap the region 1004.

図13は、本実施形態の表示処理部407が表示する第1の表示領域701の表示態様の変化を例示した図である。図13に示される例では、画像1311は、取得部403が取得した、車両1の左右方向の傾き(ロール角)が“0°”の場合とする。画像1312は、取得部403が取得した、車両1の左右方向の傾き(ロール角)が“30°”の場合とする。画像1311においては、3次元形状モデル1301が水平状態(ロール角“0°”)で表示されている。また、円盤802も水平状態のため、円盤802の端部が領域820、814に重なるように配置されている。   FIG. 13 is a diagram illustrating a change in the display mode of the first display area 701 displayed by the display processing unit 407 of the present embodiment. In the example illustrated in FIG. 13, the image 1311 is a case where the horizontal inclination (roll angle) of the vehicle 1 acquired by the acquisition unit 403 is “0 °”. The image 1312 is a case where the horizontal inclination (roll angle) of the vehicle 1 acquired by the acquisition unit 403 is “30 °”. In the image 1311, the three-dimensional shape model 1301 is displayed in a horizontal state (roll angle “0 °”). Since the disk 802 is also in a horizontal state, the end of the disk 802 is disposed so as to overlap the regions 820 and 814.

画像1312においては、3次元形状モデル1301が左右方向に傾いた状態(ロール角“30°”)で表示されている。円盤801、802も3次元形状モデル1302と共に傾くため、円盤802の端部が領域819、813に重なるように配置されている。   In the image 1312, the three-dimensional shape model 1301 is displayed in a state inclined in the left-right direction (roll angle “30 °”). Since the disks 801 and 802 are also tilted together with the three-dimensional shape model 1302, the ends of the disks 802 are arranged so as to overlap the regions 819 and 813.

そして、表示処理部407は、第1の表示領域701に傾き情報に対応した傾きで車両1の3次元形状モデルと、傾きの度合いを表した目盛り情報と、を表示する。また、操作受付部402が向きを変更する操作を受け付けた場合には、表示処理部407は、受け付けた向きを変更する操作に応じて、第1の表示領域701に表示される3次元形状モデルを回転させると共に、当該向きに対応して目盛り情報が表示される位置を変更する。目盛り情報で変更される位置は、図10、図11と同様として説明を省略する。   Then, the display processing unit 407 displays the three-dimensional shape model of the vehicle 1 and the scale information representing the degree of inclination in the first display area 701 with an inclination corresponding to the inclination information. When the operation accepting unit 402 accepts an operation for changing the orientation, the display processing unit 407 displays the three-dimensional shape model displayed in the first display area 701 in accordance with the operation for changing the accepted orientation. And the position where the scale information is displayed is changed corresponding to the direction. The position changed by the scale information is the same as in FIG. 10 and FIG.

図14は、取得部403が車両1の左右方向の傾き情報(ロール角)“30°”を取得した場合に表示される画面例を示した図である。図14に示される例では、第1の表示領域1401には、取得部403が取得した車両1の左右方向の傾き情報(ロール角)に応じた3次元形状モデルが表示される。一方、第2の表示領域1402は、第1の表示領域1401と同様の視点及び注視点が設定された周辺画像データが表示される。しかしながら、撮像画像データを傾き情報(ロール角)“30°”に応じた回転補正を行わない。このため、3次元形状モデルが水平状態であり、傾き情報(ロール角)“30°”だけ傾いた車両1で撮像された周辺画像データが表示される。   FIG. 14 is a diagram illustrating an example of a screen that is displayed when the acquisition unit 403 acquires tilt information (roll angle) “30 °” in the left-right direction of the vehicle 1. In the example illustrated in FIG. 14, the first display area 1401 displays a three-dimensional shape model corresponding to the left-right direction tilt information (roll angle) of the vehicle 1 acquired by the acquisition unit 403. On the other hand, the second display area 1402 displays peripheral image data in which the same viewpoint and gazing point as the first display area 1401 are set. However, rotation correction according to the tilt information (roll angle) “30 °” is not performed on the captured image data. Therefore, the peripheral image data captured by the vehicle 1 in which the three-dimensional shape model is in a horizontal state and is tilted by the tilt information (roll angle) “30 °” is displayed.

図15は、操作受付部402が下方向へのスワイプ操作を受け付けた場合に表示される画面例を示した図である。図15に示される例では、第1の表示領域1501には、操作受付部402が受け付けたスワイプ操作に応じて車両1をピッチ方向に回転させた3次元形状モデルが表示される。一方、第2の表示領域1502は、第1の表示領域1501と3次元形状モデルが同様の表示態様になるように、視点及び注視点が設定された周辺画像データが表示される。   FIG. 15 is a diagram illustrating an example of a screen displayed when the operation reception unit 402 receives a downward swipe operation. In the example shown in FIG. 15, the first display area 1501 displays a three-dimensional shape model in which the vehicle 1 is rotated in the pitch direction according to the swipe operation accepted by the operation accepting unit 402. On the other hand, the second display area 1502 displays peripheral image data in which a viewpoint and a gazing point are set so that the first display area 1501 and the three-dimensional shape model have the same display mode.

さらに、本実施形態の操作受付部402は、第2の表示領域に表示された周辺画像データの拡大又は縮小操作を受け付ける。本実施形態においては、第2の表示領域に表示された“−”ボタン又は“+”ボタンの押下を受け付けた場合に、表示処理部407は、操作受付部402が受け付けた拡大操作(“+”ボタンの押下)又は縮小操作(“−”ボタン)に応じて、第2の表示領域に表示される周辺画像データを切り替える。   Furthermore, the operation reception unit 402 according to the present embodiment receives an enlargement or reduction operation of the peripheral image data displayed in the second display area. In the present embodiment, when the pressing of the “−” button or the “+” button displayed in the second display area is received, the display processing unit 407 performs an enlargement operation (“+” received by the operation receiving unit 402. The peripheral image data displayed in the second display area is switched in response to a “button press” or a reduction operation (“−” button).

本実施形態においては、拡大操作を受け付けた場合に、周辺画像生成部406が、前回生成した周辺画像データと比べて、視点を注視点に近づけた周辺画像データを生成する。これにより前回生成した周辺画像データと比べて、3次元形状モデルや周辺の状況が拡大された周辺画像データを生成できる。   In this embodiment, when an enlargement operation is received, the peripheral image generation unit 406 generates peripheral image data in which the viewpoint is closer to the gazing point than the previously generated peripheral image data. Accordingly, it is possible to generate the peripheral image data in which the three-dimensional shape model and the surrounding situation are enlarged as compared with the peripheral image data generated last time.

一方、縮小操作を受け付けた場合に、周辺画像生成部406が、前回生成した周辺画像データと比べて、視点を注視点から遠ざけた周辺画像データを生成する。これにより前回生成した周辺画像データと比べて、3次元形状モデルや周辺の状況が縮小された周辺画像データを生成できる。   On the other hand, when a reduction operation is received, the peripheral image generation unit 406 generates peripheral image data with the viewpoint farther from the gazing point than the previously generated peripheral image data. Accordingly, it is possible to generate the peripheral image data in which the three-dimensional shape model and the surrounding situation are reduced as compared with the peripheral image data generated last time.

図16〜18は、本実施形態の操作受付部402が、第2の表示領域に表示された周辺画像データの拡大又は縮小操作を受け付けた場合に表示する画面例を示した図である。図16は、拡大操作を受け付ける前の画面例を示している。図16に示される例において、操作受付部402が、運転者又は搭乗者から、第2の表示領域1602の“+”ボタン1611の押下を受け付けた場合に、図17が表示される。なお、“−”ボタン1612の押下を受け付けた場合には、第2の表示領域1602に縮小された周辺画像データが表示される。なお、第1の表示領域1601の説明については省略する。   16 to 18 are diagrams illustrating screen examples displayed when the operation receiving unit 402 according to the present embodiment receives an operation for enlarging or reducing the surrounding image data displayed in the second display area. FIG. 16 shows an example of a screen before accepting an enlargement operation. In the example illustrated in FIG. 16, when the operation reception unit 402 receives a press of the “+” button 1611 in the second display area 1602 from the driver or the passenger, FIG. 17 is displayed. Note that when the “-” button 1612 is pressed, the reduced peripheral image data is displayed in the second display area 1602. Note that description of the first display area 1601 is omitted.

図17は、拡大操作を一回受け付けた後の画面例を示している。図17に示される例では、表示処理部407は、第2の表示領域1702に、拡大された周辺画像データを表示する。また、表示処理部407は、第1の表示領域1701の車両1の3次元形状モデル上における拡大の基準となった位置に、マーク1713を表示する。これにより、運転者又は搭乗者fは、拡大された周辺画像データが、どの位置を表示しているのか認識できる。なお、本実施形態では、拡大の基準となった位置にマーク1713を表示する例について説明するが、縮小操作を受け付けた場合も同様に、表示処理部407は、縮小の基準となった位置にマークを表示する。   FIG. 17 shows an example of a screen after receiving an enlargement operation once. In the example illustrated in FIG. 17, the display processing unit 407 displays the enlarged peripheral image data in the second display area 1702. In addition, the display processing unit 407 displays a mark 1713 at a position that is a reference for enlargement on the three-dimensional shape model of the vehicle 1 in the first display area 1701. As a result, the driver or the passenger f can recognize which position is displayed in the enlarged peripheral image data. In the present embodiment, an example in which the mark 1713 is displayed at a position that has become a reference for enlargement will be described. Similarly, when a reduction operation is received, the display processing unit 407 is positioned at a position that has become a reference for reduction. Display the mark.

図17に示される例において、操作受付部402が、運転者又は搭乗者から、第2の表示領域1702の“+”ボタン1711の押下を受け付けた場合に、図18が表示される。   In the example illustrated in FIG. 17, when the operation reception unit 402 receives a press of the “+” button 1711 in the second display area 1702 from the driver or the passenger, FIG. 18 is displayed.

図18は、拡大操作を二回受け付けた後の画面例を示している。図18に示される例では、表示処理部407は、第2の表示領域1802に、さらに拡大された周辺画像データを表示する。また、表示処理部407は、第1の表示領域1801の車両1の3次元形状モデル上に、拡大の基準となった位置に、マーク1813を表示する。図18に示される例では、拡大操作を繰り返したことで、3次元形状モデルを介して、車両1の反対側に存在する障害物1821がどのような形状なのか把握することが可能となった。   FIG. 18 shows an example of the screen after receiving the enlargement operation twice. In the example illustrated in FIG. 18, the display processing unit 407 displays the further enlarged peripheral image data in the second display area 1802. In addition, the display processing unit 407 displays a mark 1813 on the three-dimensional shape model of the vehicle 1 in the first display area 1801 at a position that is a reference for enlargement. In the example shown in FIG. 18, by repeating the enlargement operation, it is possible to grasp the shape of the obstacle 1821 existing on the opposite side of the vehicle 1 through the three-dimensional shape model. .

図18に示される例では、“+”ボタン1811や“−”ボタン1812の押下を受け付けることで、さらに拡大又は縮小された周辺画像データの表示が可能となる。   In the example shown in FIG. 18, by receiving a press of a “+” button 1811 or a “−” button 1812, it is possible to display further enlarged or reduced peripheral image data.

次に、本実施形態の表示制御システム(ECU14)における表示処理について説明する。図19は、本実施形態の表示制御システムにおける上述した処理の手順を示すフローチャートである。   Next, display processing in the display control system (ECU 14) of the present embodiment will be described. FIG. 19 is a flowchart showing a procedure of the above-described processing in the display control system of the present embodiment.

まず、ECU14の取得部403は、加速度センサ24からの信号に基づいて、車両1の前後方向の傾き情報(ピッチ角)や左右方向の傾き情報(ロール角)を取得する(S1901)。   First, the acquisition unit 403 of the ECU 14 acquires the tilt information (pitch angle) in the front-rear direction and the tilt information (roll angle) in the left-right direction of the vehicle 1 based on the signal from the acceleration sensor 24 (S1901).

次に、取得部403は、四つの撮像部15a〜15dから、車両1の周囲を撮像した撮像画像データを取得する(S1902)。   Next, the acquisition unit 403 acquires captured image data obtained by imaging the periphery of the vehicle 1 from the four imaging units 15a to 15d (S1902).

そして、画像合成部404が、S1902で取得した複数の撮像画像データを合成し、一つの撮像画像データを生成する(S1903)。   Then, the image composition unit 404 synthesizes the plurality of captured image data acquired in S1902 to generate one captured image data (S1903).

3次元処理部405は、合成した撮像画像データを、3次元仮想空間の仮想投影面に投影する(S1904)。その際に、当該3次元仮想空間に、所定の透過率が設定された車両1の3次元形状モデルも配置する。   The three-dimensional processing unit 405 projects the combined captured image data on the virtual projection plane in the three-dimensional virtual space (S1904). At that time, a three-dimensional shape model of the vehicle 1 in which a predetermined transmittance is set is also arranged in the three-dimensional virtual space.

そして、周辺画像生成部406は、予め定められた視点及び注視点に基づいて、車両1の3次元形状モデルを介して、仮想投影面に投影された撮像画像データが表された周辺画像データを生成する(S1905)。   Then, the peripheral image generation unit 406 generates peripheral image data representing the captured image data projected on the virtual projection plane via the three-dimensional shape model of the vehicle 1 based on the predetermined viewpoint and the gazing point. Generate (S1905).

表示処理部407は、取得部403が取得した傾き情報に応じて傾けた車両1の3次元形状モデルを第1の表示領域に表示し、周辺画像データを第2の表示領域に表示する(S1906)。   The display processing unit 407 displays the three-dimensional shape model of the vehicle 1 tilted according to the tilt information acquired by the acquiring unit 403 in the first display area, and displays the peripheral image data in the second display area (S1906). ).

そして、操作受付部402が、第1の表示領域に表示された3次元形状モデルの向きを変更する操作(例えばスワイプ操作)を受け付けたか否かを判定する(S1907)。   Then, it is determined whether the operation reception unit 402 has received an operation (for example, a swipe operation) for changing the orientation of the three-dimensional shape model displayed in the first display area (S1907).

操作受付部402が向きを変更する操作(例えばスワイプ操作)を受け付けたと判定した場合(S1907:Yes)、周辺画像生成部406は、操作を受け付けた向きに対応する、視点及び注視点に基づいて、車両1の3次元形状モデルを介して、仮想投影面に投影された撮像画像データが表された周辺画像データを生成する(S1908)。   When it is determined that the operation reception unit 402 has received an operation for changing the direction (for example, a swipe operation) (S1907: Yes), the peripheral image generation unit 406 is based on the viewpoint and the gaze point corresponding to the direction in which the operation is received. Then, peripheral image data representing the captured image data projected on the virtual projection plane is generated through the three-dimensional shape model of the vehicle 1 (S1908).

表示処理部407は、変更された向きの車両1の3次元形状モデルを第1の表示領域に表示し、当該向きに対応するものとしてS1908で生成された、周辺画像データを第2の表示領域に表示する(S1909)。その後、再びS1907から処理を行う。   The display processing unit 407 displays the three-dimensional shape model of the vehicle 1 in the changed orientation in the first display area, and displays the peripheral image data generated in S1908 as corresponding to the orientation in the second display area. (S1909). Thereafter, the processing is again performed from S1907.

一方、操作受付部402が向きを変更する操作(例えばスワイプ操作)を受け付けなかった場合(S1907:No)、S1906の表示を継続するものとして、処理を終了する。   On the other hand, if the operation accepting unit 402 does not accept an operation for changing the direction (for example, a swipe operation) (S1907: No), the display ends in S1906 and the process ends.

上述した実施形態においては、表示制御システムが上述した構成で、第1の表示領域に対する操作と連動して、第2の表示領域に表示される、車両1の3次元形状モデル及び周辺の状況が切り替わるので、直感的な表示の切り替え操作を提供できる。   In the above-described embodiment, the display control system has the above-described configuration, and the three-dimensional shape model of the vehicle 1 and the surrounding situation displayed in the second display area in conjunction with the operation on the first display area. Since switching is performed, an intuitive display switching operation can be provided.

また上述した実施形態においては、第1の表示領域の表示アイコンと共に、車両1の傾きを示す目盛り情報を表示するため、車両1の傾きを認識できる。   In the embodiment described above, the scale information indicating the inclination of the vehicle 1 is displayed together with the display icon of the first display area, so that the inclination of the vehicle 1 can be recognized.

また、上述した実施形態においては、拡大操作や縮小操作を受け付けた場合に、周辺画像データの表示を切り替えることで、視認性を向上させることができる。   In the embodiment described above, visibility can be improved by switching the display of the peripheral image data when an enlargement operation or a reduction operation is accepted.

また、上述した実施形態においては、第2の表示領域には、視点を切り替えるためのアイコン等を表示しないため、当該アイコン等が重畳された部分の状況が認識できないという状況を抑止できる。   In the above-described embodiment, since an icon for switching the viewpoint is not displayed in the second display area, it is possible to suppress a situation in which the situation of the portion where the icon is superimposed cannot be recognized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1…車両、14…ECU、100…表示制御システム、401…3次元形状モデル記憶部、402…操作受付部、403…取得部、404…画像合成部、405…3次元処理部、406…周辺画像生成部、407…表示処理部。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 14 ... ECU, 100 ... Display control system, 401 ... Three-dimensional shape model memory | storage part, 402 ... Operation reception part, 403 ... Acquisition part, 404 ... Image composition part, 405 ... Three-dimensional processing part, 406 ... Periphery Image generation unit, 407... Display processing unit.

Claims (6)

車両の周辺を撮像する複数の撮像部から複数の撮像画像データを取得する取得部と、
車両を表す3次元形状モデルを第1の表示領域に表示し、前記第1の表示領域に表示されている前記3次元形状モデルの車両の向きに応じて、前記取得部が取得した撮像画像データに基づいた前記車両の周辺を表した周辺画像データを、第2の表示領域に表示する表示処理部と、
前記表示処理部により前記第1の表示領域に表示されている前記3次元形状モデルの向きを変更する操作を受け付ける操作受付部と、を備え、
前記表示処理部は、前記操作受付部が受け付けた前記向きを変更する操作に応じて、前記第2の表示領域に表示される前記周辺画像データを切り替える、
表示制御装置。
An acquisition unit that acquires a plurality of captured image data from a plurality of imaging units that capture the periphery of the vehicle;
Captured image data acquired by the acquisition unit according to the orientation of the vehicle of the three-dimensional shape model displayed in the first display region, displaying a three-dimensional shape model representing the vehicle in the first display region A display processing unit for displaying peripheral image data representing the periphery of the vehicle based on the second display area;
An operation receiving unit that receives an operation of changing the orientation of the three-dimensional shape model displayed in the first display area by the display processing unit;
The display processing unit switches the peripheral image data displayed in the second display area according to an operation of changing the orientation received by the operation receiving unit.
Display control device.
前記取得部は、さらに、前記車両の傾きを示した傾き情報を取得し、
前記表示処理部は、さらに、前記傾き情報に対応した傾きで前記車両の3次元形状モデルと、当該傾きの度合いを表した目盛り情報と、を前記第1の表示領域に表示すると共に、前記操作受付部が受け付けた前記向きを変更する操作に応じて、前記向きに対応して回転させた前記目盛り情報が表示される位置を変更する、
請求項1に記載の表示制御装置。
The acquisition unit further acquires inclination information indicating the inclination of the vehicle,
The display processing unit further displays, in the first display area, a three-dimensional shape model of the vehicle with a tilt corresponding to the tilt information, and scale information representing the degree of the tilt, in the first display area. In response to an operation to change the orientation received by the reception unit, the position where the scale information rotated according to the orientation is displayed is changed.
The display control apparatus according to claim 1.
前記撮像画像データが投影された、3次元仮想空間内の仮想投影面から、当該3次元仮想空間内に設定された視点及び注視点を基準に第1の周辺画像データを生成する生成部を備え、
前記操作受付部は、前記3次元形状モデルの向きとして、ヨー方向の角度を変更する操作を受け付け、
前記生成部は、前記3次元仮想空間内に設けられた車両の位置を基準として、前記視点及び前記注視点を前記ヨー方向に回転させた第2の周辺画像データを生成し、
前記表示処理部は、前記操作受付部が受け付けた前記ヨー方向の角度を変更する操作に応じて、前記生成部に生成された前記第2の周辺画像データに切り替える、
請求項1又は2に記載の表示制御装置。
A generating unit configured to generate first peripheral image data based on a viewpoint and a gazing point set in the three-dimensional virtual space from a virtual projection plane in the three-dimensional virtual space on which the captured image data is projected; ,
The operation accepting unit accepts an operation to change the angle of the yaw direction as the direction of the three-dimensional shape model,
The generating unit generates second peripheral image data in which the viewpoint and the gazing point are rotated in the yaw direction with reference to a position of a vehicle provided in the three-dimensional virtual space;
The display processing unit switches to the second peripheral image data generated by the generation unit according to an operation of changing the angle of the yaw direction received by the operation reception unit.
The display control apparatus according to claim 1 or 2.
前記撮像画像データが投影された、3次元仮想空間内の仮想投影面から、当該3次元仮想空間内に設定された視点及び注視点を基準に第1の周辺画像データを生成する生成部を備え、
前記操作受付部は、前記3次元形状モデルの向きとして、ピッチ方向の角度を変更する操作を受け付け、
前記生成部は、前記3次元仮想空間内の仮想投影面から、前回生成した第1の周辺画像データと比べて、前記視点を上方向に移動させた第2の周辺画像データを生成し、
前記表示処理部は、前記操作受付部が受け付けた前記ピッチ方向の角度を変更する操作に応じて、前記生成部に生成された前記第2の周辺画像データに切り替える、
請求項1又は2に記載の表示制御装置。
A generating unit configured to generate first peripheral image data based on a viewpoint and a gazing point set in the three-dimensional virtual space from a virtual projection plane in the three-dimensional virtual space on which the captured image data is projected; ,
The operation receiving unit receives an operation of changing an angle in the pitch direction as the direction of the three-dimensional shape model,
The generation unit generates second peripheral image data in which the viewpoint is moved upward compared to the first peripheral image data generated last time from the virtual projection plane in the three-dimensional virtual space,
The display processing unit switches to the second peripheral image data generated by the generation unit in accordance with an operation of changing the angle in the pitch direction received by the operation reception unit.
The display control apparatus according to claim 1 or 2.
前記操作受付部は、さらに、前記第2の表示領域に表示された画像の拡大又は縮小操作を受け付け、
前記表示処理部は、前記操作受付部が受け付けた前記画像の拡大又は縮小操作に応じて、前記第2の表示領域に表示される前記周辺画像データを切り替える、
請求項1又は2に記載の表示制御装置。
The operation accepting unit further accepts an enlargement or reduction operation of the image displayed in the second display area,
The display processing unit switches the peripheral image data displayed in the second display area in accordance with an enlargement or reduction operation of the image received by the operation reception unit.
The display control apparatus according to claim 1 or 2.
前記表示処理部は、前記操作受付部が前記画像の拡大又は縮小操作を受け付けた場合に、前記第1の表示領域に表示されている、前記車両を表す前記3次元形状モデル上における拡大又は縮小の基準となった位置に所定の表示情報を表す、
請求項5に記載の表示制御装置。
The display processing unit enlarges or reduces on the three-dimensional shape model representing the vehicle displayed in the first display area when the operation accepting unit accepts an enlargement or reduction operation of the image. Predetermined display information is displayed at the reference position of
The display control apparatus according to claim 5.
JP2017087966A 2017-04-27 2017-04-27 Display control device Active JP6930202B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087966A JP6930202B2 (en) 2017-04-27 2017-04-27 Display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087966A JP6930202B2 (en) 2017-04-27 2017-04-27 Display control device

Publications (2)

Publication Number Publication Date
JP2018186432A true JP2018186432A (en) 2018-11-22
JP6930202B2 JP6930202B2 (en) 2021-09-01

Family

ID=64355090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087966A Active JP6930202B2 (en) 2017-04-27 2017-04-27 Display control device

Country Status (1)

Country Link
JP (1) JP6930202B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086452A (en) * 2019-11-28 2021-06-03 富士通株式会社 Display control method, display control program and display control device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011151446A (en) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd Image processing apparatus, system, and method
JP2013191969A (en) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd Image processor, image display system, display device, image processing method and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011151446A (en) * 2010-01-19 2011-08-04 Fujitsu Ten Ltd Image processing apparatus, system, and method
JP2013191969A (en) * 2012-03-13 2013-09-26 Fujitsu Ten Ltd Image processor, image display system, display device, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021086452A (en) * 2019-11-28 2021-06-03 富士通株式会社 Display control method, display control program and display control device
JP7259717B2 (en) 2019-11-28 2023-04-18 富士通株式会社 Display control method, display control program and display control device

Also Published As

Publication number Publication date
JP6930202B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
JP6067634B2 (en) Parking assistance device and route determination method
JP7222254B2 (en) Peripheral display controller
WO2018070298A1 (en) Display control apparatus
CN110997409B (en) Peripheral monitoring device
JP6876236B2 (en) Display control device
JP2019054420A (en) Image processing system
US11669230B2 (en) Display control device
US20200081608A1 (en) Display control device
US11475676B2 (en) Periphery monitoring device
JP2020042370A (en) Display controller
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP6977318B2 (en) Peripheral display device
JP6930202B2 (en) Display control device
US11091096B2 (en) Periphery monitoring device
JP6962035B2 (en) Peripheral monitoring device
JP6965563B2 (en) Peripheral monitoring device
JP7259914B2 (en) Perimeter monitoring device
JP6601097B2 (en) Display control device
JP2018186387A (en) Display controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210204

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210726

R150 Certificate of patent or registration of utility model

Ref document number: 6930202

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150