JP2021154887A - Display controller, display control method and program - Google Patents

Display controller, display control method and program Download PDF

Info

Publication number
JP2021154887A
JP2021154887A JP2020057308A JP2020057308A JP2021154887A JP 2021154887 A JP2021154887 A JP 2021154887A JP 2020057308 A JP2020057308 A JP 2020057308A JP 2020057308 A JP2020057308 A JP 2020057308A JP 2021154887 A JP2021154887 A JP 2021154887A
Authority
JP
Japan
Prior art keywords
image data
display
image
vehicle
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020057308A
Other languages
Japanese (ja)
Other versions
JP7459608B2 (en
Inventor
信行 松川
Nobuyuki Matsukawa
信行 松川
正樹 後藤
Masaki Goto
正樹 後藤
剛 渡辺
Takeshi Watanabe
剛 渡辺
勝 川▲崎▼
Masaru Kawasaki
勝 川▲崎▼
武 茨木
Takeshi Ibaraki
武 茨木
渉 片瀬
Wataru Katase
渉 片瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2020057308A priority Critical patent/JP7459608B2/en
Priority to PCT/JP2020/037984 priority patent/WO2021192373A1/en
Priority to EP20928004.9A priority patent/EP4131944A4/en
Publication of JP2021154887A publication Critical patent/JP2021154887A/en
Priority to US17/898,403 priority patent/US20220408062A1/en
Application granted granted Critical
Publication of JP7459608B2 publication Critical patent/JP7459608B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a display controller which satisfactorily displays an image photographed by a camera, and so on.SOLUTION: A display controller 10 comprises: a photographed data acquisition part 11 which acquires photographed data that is generated in such a manner that a camera photographs landscape outside a vehicle; an operation state detection part 12 which detects an operation state of the vehicle; an extraction image data generation part 13 which generates extraction image data from the photographed data by a field angle set according to the operation state; a size allocation part 14 which allocates an image size of a display image corresponding to each extraction image data according to the total image size of a display 92 in response to detecting the operation state; a display image data generation part 15 which generates display image data for each of a plurality of extraction image data according to the allocated image size; and an output part 16 which outputs display image data corresponding to each of the plurality of extraction image data to the display 92.SELECTED DRAWING: Figure 1

Description

本発明は表示制御装置、表示制御方法およびプログラムに関する。 The present invention relates to a display control device, a display control method and a program.

車両の外部の風景を車載カメラにより撮影し、撮影した画像を車内のモニタに表示するシステムが普及している。また車載カメラにより撮影した画像を運転の支援に繋げるための提案が行われている。 A system that captures the scenery outside the vehicle with an in-vehicle camera and displays the captured image on a monitor inside the vehicle has become widespread. In addition, proposals have been made to connect images taken by an in-vehicle camera to support driving.

例えば、特許文献1に記載のシステムは、車体の後方および側方域の画像をモニタ画面の2つの部分に異なる圧縮率で表示させるとともに、その圧縮率を車両情報に応じて変化させる。 For example, the system described in Patent Document 1 displays images of the rear and side regions of a vehicle body on two parts of a monitor screen at different compression rates, and changes the compression rates according to vehicle information.

特開2016−048839号公報Japanese Unexamined Patent Publication No. 2016-048839

上記システムにより表示される画像は画像自体の情報量が増えた訳ではない。一方、車両の動作状態に応じて所望の領域にかかる画像の情報量を増やし、かつ車両のユーザがそれを容易に確認したいという要求がある。しかしながら、表示領域を拡大することはできない。 The image displayed by the above system does not mean that the amount of information of the image itself has increased. On the other hand, there is a demand that the amount of information of the image applied to a desired area is increased according to the operating state of the vehicle, and the user of the vehicle wants to easily confirm it. However, the display area cannot be enlarged.

本発明は、このような課題を解決するためになされたものであって、カメラが撮影した画像を好適に表示する表示制御装置等を提供するものである。 The present invention has been made to solve such a problem, and provides a display control device or the like that preferably displays an image taken by a camera.

本発明にかかる表示制御装置は、撮影データ取得部と、動作状態検出部と、抽出画像データ生成部と、サイズ割当部と、表示画像データ生成部と、出力部とを備える。撮影データ取得部は、カメラが車両の外部の風景を撮影して生成した撮影データを取得する。動作状態検出部は、車両の動作状態を検出する。抽出画像データ生成部は、動作状態に応じて設定された画角により撮影データから抽出画像データを生成する。サイズ割当部は、動作状態が検出されたことに応じて、抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てる。表示画像データ生成部は、複数の抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する。出力部は、複数の抽出画像データの各々に対応する表示画像データを表示部に出力する。 The display control device according to the present invention includes a shooting data acquisition unit, an operation state detection unit, an extracted image data generation unit, a size allocation unit, a display image data generation unit, and an output unit. The shooting data acquisition unit acquires shooting data generated by the camera shooting the scenery outside the vehicle. The operating state detection unit detects the operating state of the vehicle. The extracted image data generation unit generates the extracted image data from the captured data according to the angle of view set according to the operating state. The size allocation unit allocates the image size of the display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state. The display image data generation unit generates display image data according to the assigned image size for each of the plurality of extracted image data. The output unit outputs display image data corresponding to each of the plurality of extracted image data to the display unit.

本発明にかかる表示制御方法は、撮影データ取得ステップと、動作状態検出ステップと、抽出画像データ生成ステップと、サイズ割当ステップと、表示画像データ生成ステップと、出力ステップとを備える。撮影データ取得ステップは、カメラが車両の外部の風景を撮影して生成した撮影データを取得する。動作状態検出ステップは、車両の動作状態を検出する。抽出画像データ生成ステップは、動作状態に応じて設定された画角により撮影データから抽出画像データを生成する。サイズ割当ステップは、動作状態が検出されたことに応じて、抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てる。表示画像データ生成ステップは、複数の抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する。出力ステップは、複数の抽出画像データの各々に対応する表示画像データを表示部に出力する。 The display control method according to the present invention includes a shooting data acquisition step, an operating state detection step, an extracted image data generation step, a size allocation step, a display image data generation step, and an output step. In the shooting data acquisition step, the shooting data generated by shooting the scenery outside the vehicle is acquired. The operating state detection step detects the operating state of the vehicle. The extracted image data generation step generates the extracted image data from the captured data with the angle of view set according to the operating state. The size allocation step allocates the image size of the display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state. The display image data generation step generates display image data according to the assigned image size for each of the plurality of extracted image data. The output step outputs display image data corresponding to each of the plurality of extracted image data to the display unit.

本発明にかかるプログラムは、コンピュータに表示制御方法を実行させるものであって、上記表示制御方法は、撮影データ取得ステップと、動作状態検出ステップと、抽出画像データ生成ステップと、サイズ割当ステップと、表示画像データ生成ステップと、出力ステップとを備える。撮影データ取得ステップは、カメラが車両の外部の風景を撮影して生成した撮影データを取得する。動作状態検出ステップは、車両の動作状態を検出する。抽出画像データ生成ステップは、動作状態に応じて設定された画角により撮影データから抽出画像データを生成する。サイズ割当ステップは、動作状態が検出されたことに応じて、抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てる。表示画像データ生成ステップは、複数の抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する。出力ステップは、複数の抽出画像データの各々に対応する表示画像データを表示部に出力する。 The program according to the present invention causes a computer to execute a display control method, and the display control method includes a shooting data acquisition step, an operation state detection step, an extracted image data generation step, a size allocation step, and the like. It includes a display image data generation step and an output step. In the shooting data acquisition step, the shooting data generated by shooting the scenery outside the vehicle is acquired. The operating state detection step detects the operating state of the vehicle. The extracted image data generation step generates the extracted image data from the captured data with the angle of view set according to the operating state. The size allocation step allocates the image size of the display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state. The display image data generation step generates display image data according to the assigned image size for each of the plurality of extracted image data. The output step outputs display image data corresponding to each of the plurality of extracted image data to the display unit.

本発明によれば、カメラが撮影した画像を好適に表示させる表示制御装置等を提供することができる。 According to the present invention, it is possible to provide a display control device or the like that suitably displays an image taken by a camera.

実施の形態1にかかる表示システムのブロック図である。It is a block diagram of the display system which concerns on Embodiment 1. FIG. 実施の形態1にかかる表示制御装置を搭載した車両におけるカメラの撮影範囲を示す上面図である。FIG. 5 is a top view showing a shooting range of a camera in a vehicle equipped with the display control device according to the first embodiment. 実施の形態1にかかる表示制御装置のフローチャートである。It is a flowchart of the display control device which concerns on Embodiment 1. FIG. 実施の形態1にかかる左カメラが撮影した画像の第1の例を示す図である。It is a figure which shows the 1st example of the image taken by the left camera which concerns on Embodiment 1. FIG. 実施の形態1にかかる表示部に表示される表示画像の第1の例を示す図である。It is a figure which shows the 1st example of the display image displayed on the display part which concerns on Embodiment 1. FIG. 実施の形態1にかかる左カメラが撮影した画像の第2の例を示す図である。It is a figure which shows the 2nd example of the image taken by the left camera which concerns on Embodiment 1. FIG. 実施の形態1にかかる表示部に表示される表示画像の第2の例を示す図である。It is a figure which shows the 2nd example of the display image displayed on the display part which concerns on Embodiment 1. FIG. 実施の形態1の第1変形例にかかる表示部に表示される表示画像の第2の例を示す図である。It is a figure which shows the 2nd example of the display image displayed on the display part which concerns on the 1st modification of Embodiment 1. FIG. 実施の形態1の第2変形例にかかる表示部に表示される表示画像の例を示す図である。It is a figure which shows the example of the display image displayed on the display part which concerns on the 2nd modification of Embodiment 1. FIG. 実施の形態2にかかる表示制御装置を搭載した車両におけるカメラの撮影範囲を示す上面図である。It is a top view which shows the photographing range of the camera in the vehicle equipped with the display control device which concerns on Embodiment 2. FIG. 実施の形態2にかかる表示制御装置のフローチャートである。It is a flowchart of the display control device which concerns on Embodiment 2. FIG. 実施の形態3にかかる表示システムのブロック図である。It is a block diagram of the display system which concerns on Embodiment 3. FIG. 実施の形態3にかかる表示部に表示される表示画像の例を示す図である。It is a figure which shows the example of the display image displayed on the display part which concerns on Embodiment 3. FIG. 実施の形態4にかかる表示システムのブロック図である。It is a block diagram of the display system which concerns on Embodiment 4. FIG. 実施の形態4にかかる表示制御装置のフローチャートである。It is a flowchart of the display control device which concerns on Embodiment 4. FIG.

以下、発明の実施の形態を通じて本発明を説明するが、特許請求の範囲にかかる発明を以下の実施形態に限定するものではない。また、実施形態で説明する構成の全てが課題を解決するための手段として必須であるとは限らない。説明の明確化のため、以下の記載および図面は、適宜、省略、および簡略化がなされている。なお、各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。 Hereinafter, the present invention will be described through embodiments of the invention, but the inventions in the claims are not limited to the following embodiments. Moreover, not all of the configurations described in the embodiments are indispensable as means for solving the problem. For the sake of clarity, the following description and drawings have been omitted and simplified as appropriate. In each drawing, the same elements are designated by the same reference numerals, and duplicate explanations are omitted as necessary.

<実施の形態1>
図1を参照して実施の形態1にかかる表示システム1の構成について説明する。図1は、実施の形態1にかかる表示システム1のブロック図である。表示システム1は、車両の外部の風景に関連する情報を、車両の運転者等のユーザに対して表示により報知するシステムである。表示システム1は、表示制御装置10と、カメラ91と、表示部92とを備える。表示制御装置10、カメラ91および表示部92は、車両に搭載されている。
<Embodiment 1>
The configuration of the display system 1 according to the first embodiment will be described with reference to FIG. FIG. 1 is a block diagram of the display system 1 according to the first embodiment. The display system 1 is a system that notifies a user such as a driver of a vehicle of information related to the scenery outside the vehicle by display. The display system 1 includes a display control device 10, a camera 91, and a display unit 92. The display control device 10, the camera 91, and the display unit 92 are mounted on the vehicle.

カメラ91は、車両の任意の位置に搭載され、車両の外部の風景を撮影して、撮影した画像のデータである撮影データを生成するカメラである。カメラ91は、表示制御装置10に通信可能に接続される。カメラ91は、例えば毎秒30フレーム(30fps)の撮影データを生成し、生成した撮影データを30分の1秒ごとに表示制御装置10に供給する。撮影データは、例えば、H.264もしくはH.265等の方式を用いて生成されてもよい。 The camera 91 is a camera mounted at an arbitrary position of the vehicle, photographs the scenery outside the vehicle, and generates photographing data which is the data of the photographed image. The camera 91 is communicably connected to the display control device 10. The camera 91 generates, for example, 30 frames per second (30 fps) of shooting data, and supplies the generated shooting data to the display control device 10 every 1 / 30th of a second. The shooting data is, for example, H. 264 or H. It may be generated using a method such as 265.

カメラ91は、複数のカメラを有してもよい。本実施の形態1におけるカメラ91は、左カメラ91A、右カメラ91Bおよび後カメラ91Cを含む。左カメラ91A、右カメラ91Bおよび後カメラ91Cは、それぞれが対物レンズ、撮像素子およびA−D(Analog to Digital)変換素子等を有する撮像装置である。本実施の形態1では左カメラ91A、右カメラ91Bおよび後カメラ91Cはそれぞれ、互いに種別の異なる撮影データを生成する。すなわち左カメラ91A、右カメラ91Bおよび後カメラ91Cはそれぞれ、車両の左側、右側および後ろ側の風景に関連する撮影データを生成する。そして左カメラ91A、右カメラ91Bおよび後カメラ91Cは、生成した撮影データを表示制御装置10に供給する。 The camera 91 may have a plurality of cameras. The camera 91 in the first embodiment includes a left camera 91A, a right camera 91B, and a rear camera 91C. The left camera 91A, the right camera 91B, and the rear camera 91C are image pickup devices each having an objective lens, an image pickup element, an AD (Analog to Digital) conversion element, and the like. In the first embodiment, the left camera 91A, the right camera 91B, and the rear camera 91C each generate different types of shooting data. That is, the left camera 91A, the right camera 91B, and the rear camera 91C generate shooting data related to the landscapes on the left, right, and rear sides of the vehicle, respectively. Then, the left camera 91A, the right camera 91B, and the rear camera 91C supply the generated shooting data to the display control device 10.

表示部92は、車両のユーザに情報を提示できるように設置された表示部であって、例えば液晶パネルまたは有機EL(Electro Luminescence)パネル等の表示部を含む。表示部92は、ダッシュボード等、ユーザが表示部分を視認できる位置に設置される。表示部92は、表示制御装置10に通信可能に接続される。表示部92は、表示制御装置10から画像データを受け取り、受け取った画像データにかかる画像を表示部分に表示する。 The display unit 92 is a display unit installed so that information can be presented to the user of the vehicle, and includes, for example, a display unit such as a liquid crystal panel or an organic EL (Electro Luminescence) panel. The display unit 92 is installed at a position such as a dashboard where the user can visually recognize the display portion. The display unit 92 is communicably connected to the display control device 10. The display unit 92 receives the image data from the display control device 10 and displays the image related to the received image data on the display portion.

表示制御装置10は、車両の外部の風景に関連する情報を、表示部92に表示させるコンピュータ等である。表示制御装置10は、例えばCPU(Central Processing Unit)やMCU(Micro Controller Unit)などの演算装置を有している。また表示制御装置10は、上記演算装置に加えて、フラッシュメモリもしくはDRAM(Dynamic Random Access Memory)のような不揮発性もしくは揮発性のメモリ、およびその他の電気回路により構成された制御基板を少なくとも有している。表示制御装置10は、これらの演算装置などにプログラムが組み込まれており、ソフトウェアまたはハードウェアの組み合わせにより以下に示す機能を実現する。 The display control device 10 is a computer or the like that displays information related to the scenery outside the vehicle on the display unit 92. The display control device 10 has, for example, an arithmetic unit such as a CPU (Central Processing Unit) or an MCU (Micro Controller Unit). Further, the display control device 10 has at least a control board composed of a flash memory or a non-volatile or volatile memory such as a DRAM (Dynamic Random Access Memory), and other electric circuits in addition to the above arithmetic unit. ing. The display control device 10 has a program incorporated in these arithmetic units and the like, and realizes the functions shown below by combining software or hardware.

表示制御装置10は、カメラ91が撮影した画像にかかる画像データを処理し、処理した所定の画像データを、表示部92に出力する。表示制御装置10は、撮影データ取得部11と、動作状態検出部12と、抽出画像データ生成部13と、サイズ割当部14と、表示画像データ生成部15と、出力部16とを有する。なお、表示制御装置10が有するこれらの要素は、通信バスにより通信可能に接続されている。 The display control device 10 processes the image data related to the image captured by the camera 91, and outputs the processed predetermined image data to the display unit 92. The display control device 10 includes a shooting data acquisition unit 11, an operation state detection unit 12, an extracted image data generation unit 13, a size allocation unit 14, a display image data generation unit 15, and an output unit 16. These elements of the display control device 10 are communicably connected by a communication bus.

撮影データ取得部11は、カメラ91が車両の外部の風景を撮影して生成した撮影データを取得する。本実施の形態1で撮影データ取得部11は、カメラ91から互いに種別の異なる複数の撮影データを取得する。撮影データ取得部11は、取得した撮影データを、通信バスを介して抽出画像データ生成部13に供給する。 The shooting data acquisition unit 11 acquires shooting data generated by the camera 91 taking a picture of the scenery outside the vehicle. In the first embodiment, the shooting data acquisition unit 11 acquires a plurality of shooting data of different types from the camera 91. The shooting data acquisition unit 11 supplies the acquired shooting data to the extracted image data generation unit 13 via the communication bus.

動作状態検出部12は、車両の動作状態を検出し、動作状態に応じた動作状態情報を生成する。ここで、「車両の動作状態」とは、車両の移動に関する動作の状態をいう。たとえば、本実施の形態1において、車両の動作状態は、車両の移動方向の変更を含み、動作状態情報は、車両の移動方向の変更を示す移動方向変更情報を含む。移動方向変更情報は、車両が変更すると予測される移動方向(予測移動方向)を示す予測移動方向情報を含む。なお、予測移動方向は、車両90が現に変更している移動方向を含んでよい。たとえば動作状態検出部12は、GNSS(Global Navigation Satellite System)などの衛星測位システムから自車両の位置を測位するための測位情報を受信する測位情報受信部(不図示)に接続され、測位情報受信部から取得した位置情報の変化から、車両の動作状態を検出してもよい。また動作状態検出部12は、測位情報受信部から取得した位置情報と地図情報とに基づいて車両の予測移動方向を推定することで動作状態を検出してよい。 The operation state detection unit 12 detects the operation state of the vehicle and generates the operation state information according to the operation state. Here, the "operating state of the vehicle" means a state of operation related to the movement of the vehicle. For example, in the first embodiment, the operating state of the vehicle includes a change in the moving direction of the vehicle, and the operating state information includes the moving direction change information indicating the change in the moving direction of the vehicle. The movement direction change information includes the predicted movement direction information indicating the movement direction (predicted movement direction) in which the vehicle is predicted to change. The predicted movement direction may include the movement direction actually changed by the vehicle 90. For example, the operation state detection unit 12 is connected to a positioning information receiving unit (not shown) that receives positioning information for positioning the position of the own vehicle from a satellite positioning system such as GNSS (Global Navigation Satellite System), and receives the positioning information. The operating state of the vehicle may be detected from the change in the position information acquired from the unit. Further, the operating state detecting unit 12 may detect the operating state by estimating the predicted moving direction of the vehicle based on the position information and the map information acquired from the positioning information receiving unit.

動作状態検出部12は、上述のように生成した動作状態情報を、抽出画像データ生成部13およびサイズ割当部14に供給する。 The operation state detection unit 12 supplies the operation state information generated as described above to the extracted image data generation unit 13 and the size allocation unit 14.

抽出画像データ生成部13は、撮影データ取得部11から撮影データを受け取る。また抽出画像データ生成部13は、動作状態検出部12から動作状態情報を受け取り、受け取った動作状態情報から、抽出画像を生成するための画角を決定する。より具体的には、本実施の形態1にかかる抽出画像データ生成部13は、車両の移動方向の変更に応じて画角を設定する。例えば、抽出画像データ生成部13は、車両の移動方向の変更が検出されたことに応じて、予測移動方向に関連する撮影データから抽出される領域の画像(抽出画像)の画角を第1画角から、第1画角よりも広い第2画角に設定変更する。本実施の形態1で第1画角は、予め設定された初期の画角の大きさである。なおこのとき、抽出画像データ生成部13は、予測移動方向と異なる方向に関連する撮影データから抽出される抽出画像の画角については、引き続き画角を第1画角に設定してよい。 The extracted image data generation unit 13 receives the shooting data from the shooting data acquisition unit 11. Further, the extracted image data generation unit 13 receives the operation state information from the operation state detection unit 12, and determines the angle of view for generating the extracted image from the received operation state information. More specifically, the extracted image data generation unit 13 according to the first embodiment sets the angle of view according to the change in the moving direction of the vehicle. For example, the extracted image data generation unit 13 first sets the angle of view of the image (extracted image) of the region extracted from the shooting data related to the predicted moving direction in response to the detection of the change in the moving direction of the vehicle. Change the setting from the angle of view to the second angle of view, which is wider than the first angle of view. In the first embodiment, the first angle of view is a preset size of the initial angle of view. At this time, the extracted image data generation unit 13 may continue to set the angle of view of the extracted image extracted from the photographing data related to the direction different from the predicted moving direction to the first angle of view.

抽出画像データ生成部13は、撮影データの各々に対して、上述のように決定した画角の画像を、その撮影データから抽出し、抽出画像にかかる抽出画像データを生成する。このように、抽出画像データ生成部13は、撮影データの各々に対して、動作状態に応じて設定された画角によりその撮影データにかかる画像から抽出画像データを生成する。抽出画像データ生成部13は、生成した抽出画像データを、表示画像データ生成部15に供給する。 The extracted image data generation unit 13 extracts an image having an angle of view determined as described above for each of the captured data from the captured data, and generates the extracted image data related to the extracted image. In this way, the extracted image data generation unit 13 generates the extracted image data from the image related to the photographed data at the angle of view set according to the operating state for each of the photographed data. The extracted image data generation unit 13 supplies the generated extracted image data to the display image data generation unit 15.

サイズ割当部14は、動作状態が検出されたことに応じて、表示部92の総画像サイズから、複数の抽出画像データの各々に対応する表示画像の画像サイズを割り当てる。ここで表示画像は、表示部92の表示部分に表示される画像である。「表示部92の総画像サイズ」とは、表示部92の表示部分上に表示することができる表示画像の画像サイズの合計である。なお「表示部92の総画像サイズ」は、表示画像が表示部92の表示部分全体ではなく表示部分内の定められた領域に表示される場合には、当該領域の画像サイズの合計を意味する。各表示画像には、対応する画像サイズが割り当てられる。なお各表示画像は矩形形状を有してよい。この場合各表示画像の画像サイズは、幅方向の長さに対応する幅方向の画素数と、高さ方向の長さに対応する高さ方向の画素数との積で表されてよい。
サイズ割当部14は、複数の抽出画像データの各々に対応する表示画像の画像サイズに関する情報を、表示画像データ生成部15に供給する。
The size allocating unit 14 allocates the image size of the display image corresponding to each of the plurality of extracted image data from the total image size of the display unit 92 according to the detection of the operating state. Here, the display image is an image displayed on the display portion of the display unit 92. The "total image size of the display unit 92" is the total image size of the display images that can be displayed on the display portion of the display unit 92. The "total image size of the display unit 92" means the total image size of the area when the display image is displayed in a predetermined area in the display portion instead of the entire display portion of the display unit 92. .. Each display image is assigned a corresponding image size. Each display image may have a rectangular shape. In this case, the image size of each display image may be represented by the product of the number of pixels in the width direction corresponding to the length in the width direction and the number of pixels in the height direction corresponding to the length in the height direction.
The size allocation unit 14 supplies the display image data generation unit 15 with information regarding the image size of the display image corresponding to each of the plurality of extracted image data.

表示画像データ生成部15は、抽出画像データ生成部13から複数の抽出画像データを受け取り、サイズ割当部14から複数の抽出画像データの各々に対応する画像サイズを受け取る。表示画像データ生成部15は、複数の抽出画像データの各々に対して、割り当てられた画像サイズを有する表示画像の表示画像データを生成する。表示画像データは、表示部92に出力するデータであり、たとえばビットマップ形式またはベクタ形式等のデータ形式を有する。すなわち、表示画像データ生成部15は、抽出画像からその抽出画像に対応する画像サイズを有するように画素値を変換させた表示画像にかかる表示画像データを生成する。表示画像データ生成部15が抽出画像に対して行う変換処理は、画像の拡大、縮小、伸張、圧縮、ノイズ除去、色調補正等の変換処理を含む。表示画像データ生成部15は、生成した複数の表示画像を、出力部16に供給する。 The display image data generation unit 15 receives a plurality of extracted image data from the extracted image data generation unit 13, and receives an image size corresponding to each of the plurality of extracted image data from the size allocation unit 14. The display image data generation unit 15 generates display image data of a display image having an assigned image size for each of the plurality of extracted image data. The display image data is data to be output to the display unit 92, and has a data format such as a bitmap format or a vector format. That is, the display image data generation unit 15 generates display image data related to the display image obtained by converting the pixel values from the extracted image so as to have an image size corresponding to the extracted image. The conversion process performed on the extracted image by the display image data generation unit 15 includes conversion processing such as enlargement / reduction, decompression, compression, noise removal, and color tone correction of the image. The display image data generation unit 15 supplies the generated plurality of display images to the output unit 16.

なお、表示画像データ生成部15が行うこれらの処理の具体的な手法は、既に当業者に知られているものである。そのため、ここでの詳述は省略するが、例えば画像を拡大または縮小する手法の具体的な態様として、画像の伸長または圧縮がある。画像の拡大または縮小は、所定の画素と周囲の画素との間隔を変更し、その間の画素を補間する。また、画像を伸張するとは、画像を所定の一方向に沿って引き伸ばすことを意味する。この場合、引き伸ばす方向の画素について、画素同士の間隔を拡げ、その間の画素を補間する。また、画像を圧縮するとは、画像を所定の一方向に沿って縮めることを意味する。この場合、縮める方向の画素について、画素同士の間隔を狭め、適宜画素を補間する。 Specific methods of these processes performed by the display image data generation unit 15 are already known to those skilled in the art. Therefore, although detailed description is omitted here, for example, as a specific embodiment of the method of enlarging or reducing an image, there is stretching or compression of an image. Enlarging or reducing an image changes the distance between a predetermined pixel and surrounding pixels, and interpolates the pixels in between. Further, stretching the image means stretching the image along a predetermined direction. In this case, for the pixels in the stretching direction, the distance between the pixels is widened, and the pixels in between are interpolated. Also, compressing an image means shrinking the image along a predetermined direction. In this case, for the pixels in the shrinking direction, the distance between the pixels is narrowed and the pixels are interpolated as appropriate.

出力部16は、表示制御装置10と表示部92とを通信可能に接続するためのインタフェースである。出力部16は、複数の抽出画像データの各々に対応する表示画像データを表示部92に出力する。 The output unit 16 is an interface for communicably connecting the display control device 10 and the display unit 92. The output unit 16 outputs the display image data corresponding to each of the plurality of extracted image data to the display unit 92.

次に、図2を参照して、車両におけるカメラの撮影範囲の例について説明する。図2は、実施の形態1にかかる表示制御装置を搭載した車両におけるカメラの撮影範囲を示す上面図である。図2に示した車両90は、自動車であって、移動体としての一実施態様である。 Next, an example of the shooting range of the camera in the vehicle will be described with reference to FIG. FIG. 2 is a top view showing a shooting range of a camera in a vehicle equipped with the display control device according to the first embodiment. The vehicle 90 shown in FIG. 2 is an automobile, which is an embodiment as a moving body.

車両90は、図1において説明した左カメラ91A、右カメラ91Bおよび後カメラ91Cの3つのカメラを有している。左カメラ91Aは、車両90の左面に設置されており、車両90の左側の風景を撮影する。左カメラ91Aは、二点鎖線により示された水平方向の撮影画角A10が180度である。すなわち左カメラ91Aが撮影する画像は、車両90の左側における画角180度の風景が含まれる。右カメラ91Bは、車両90の右面に設置されており、車両90の右側の風景を撮影する。右カメラ91Bは、水平方向の撮影画角B10が180度である。同様に、後カメラ91Cは、車両90の背面に設置されており、車両90の後側の風景を撮影する。後カメラ91Cは、水平方向の撮影画角C10が180度である。なお、以降の説明において、水平方向の画角または水平画角を、単に「画角」と称する場合がある。 The vehicle 90 has three cameras, a left camera 91A, a right camera 91B, and a rear camera 91C described in FIG. The left camera 91A is installed on the left side of the vehicle 90 and photographs the scenery on the left side of the vehicle 90. The left camera 91A has a shooting angle of view A10 in the horizontal direction indicated by the alternate long and short dash line is 180 degrees. That is, the image taken by the left camera 91A includes a landscape with an angle of view of 180 degrees on the left side of the vehicle 90. The right camera 91B is installed on the right side of the vehicle 90 and photographs the scenery on the right side of the vehicle 90. The right camera 91B has a horizontal shooting angle of view B10 of 180 degrees. Similarly, the rear camera 91C is installed on the back surface of the vehicle 90 and photographs the scenery behind the vehicle 90. The rear camera 91C has a horizontal shooting angle of view C10 of 180 degrees. In the following description, the horizontal angle of view or the horizontal angle of view may be simply referred to as "angle of view".

左カメラ91Aから車両90の左後方へ放射状に延びる実線は、左カメラ91Aの撮影画像から抽出される抽出画像の画角A11および画角A11より広い画角A12を示している。例えば、抽出画像データ生成部13は、車両90が進行方向に直進し続ける場合には画角を第1画角である画角A11に設定し、左方向への移動方向の変更が検出されたことに応じて画角を第2画角である画角A12に設定変更する。 The solid line extending radially from the left camera 91A to the left rear of the vehicle 90 indicates the angle of view A11 of the extracted image extracted from the image captured by the left camera 91A and the angle of view A12 wider than the angle of view A11. For example, the extracted image data generation unit 13 sets the angle of view to the angle of view A11, which is the first angle of view, when the vehicle 90 continues to move straight in the traveling direction, and the change in the moving direction to the left is detected. The setting of the angle of view is changed to the angle of view A12, which is the second angle of view.

また、右カメラ91Bから車両90の右後方へ放射状に延びる実線は、右カメラ91Bの撮影画像から抽出される抽出画像の画角B11および画角B11より広い画角B12を示している。なお、画角B11は画角A11と等しい大きさを有し、画角B12は、画角A12と等しい大きさを有してよい。例えば、抽出画像データ生成部13は、車両が進行方向に直進し続ける場合は画角を第1画角である画角B11に設定し、右方向への移動方向の変更が検出されたことに応じて画角を第2画角である画角B12に設定変更する。 The solid line extending radially from the right camera 91B to the right rear of the vehicle 90 indicates the angle of view B11 of the extracted image extracted from the captured image of the right camera 91B and the angle of view B12 wider than the angle of view B11. The angle of view B11 may have the same size as the angle of view A11, and the angle of view B12 may have the same size as the angle of view A12. For example, the extracted image data generation unit 13 sets the angle of view to the angle of view B11, which is the first angle of view, when the vehicle continues to move straight in the traveling direction, and the change in the moving direction to the right is detected. The angle of view is changed to the second angle of view B12 accordingly.

そして抽出画像データ生成部13は、互いに異なる方向側の風景の撮影画像の各々から、設定された画角にかかる抽出画像の抽出画像データを生成する。ここでこれらの抽出画像データは、車両90に対して第1方向(ここでは左)側の風景に関連する抽出画像の第1抽出画像データと、車両90に対して第2方向(ここでは右)側の風景に関連する抽出画像の第2抽出画像データとを有する。
なお上述の通り、抽出画像データ生成部13は、移動方向の変更を検出したことに応じて、予測移動方向側の風景に関連する抽出画像の画角を設定変更し、その抽出画像の抽出画像データを生成する。
Then, the extracted image data generation unit 13 generates the extracted image data of the extracted image related to the set angle of view from each of the photographed images of the landscapes on the different directions. Here, these extracted image data are the first extracted image data of the extracted image related to the landscape on the first direction (here, left) side with respect to the vehicle 90, and the second direction (here, right here) with respect to the vehicle 90. ) Has a second extracted image data of the extracted image related to the landscape on the side.
As described above, the extracted image data generation unit 13 sets and changes the angle of view of the extracted image related to the landscape on the predicted moving direction side in response to the detection of the change in the moving direction, and the extracted image of the extracted image. Generate data.

なお図2に示すように、後カメラ91Cから車両90の後方へ放射状に延びる実線は、後カメラ91Cの撮影画像から抽出される抽出画像の画角C11を示している。 As shown in FIG. 2, the solid line extending radially from the rear camera 91C to the rear of the vehicle 90 indicates the angle of view C11 of the extracted image extracted from the captured image of the rear camera 91C.

次に、図3を参照して表示制御装置10が行う処理について説明する。図3は、実施の形態1にかかる表示制御装置10のフローチャートである。図3に示すフローチャートは、表示制御装置10が、図2に示した車両90の左側および右側の風景に関連する表示画像をそれぞれ表示部92の表示部分に表示する場合(すなわち、2画面表示の場合)の処理の一例を示す。図3に示すフローチャートは、例えば車両90の主システムが起動することにより開始される。なお初期において抽出画像の画角は、いずれも第1画角で設定されているものとする。 Next, the process performed by the display control device 10 will be described with reference to FIG. FIG. 3 is a flowchart of the display control device 10 according to the first embodiment. The flowchart shown in FIG. 3 shows a case where the display control device 10 displays display images related to the landscapes on the left and right sides of the vehicle 90 shown in FIG. 2 on the display portion of the display unit 92 (that is, a two-screen display). Case) is shown as an example of processing. The flowchart shown in FIG. 3 is started, for example, by activating the main system of the vehicle 90. It is assumed that the angle of view of the extracted image is set at the first angle of view at the initial stage.

まずステップS10において、表示制御装置10の撮影データ取得部11は、左カメラ91Aおよび右カメラ91Bのそれぞれから撮影データを取得する。ここで左カメラ91Aから取得した撮影データは、車両90の第1方向側の風景に関連する撮影データであり、右カメラ91Bから取得した撮影データは、車両90の第2方向側の風景に関連する撮影データである。
次にステップS11において、表示制御装置10の動作状態検出部12は、車両90の動作状態として、車両90の移動方向の変更を検出したか否かを判定する。動作状態検出部12は、移動方向の変更を検出したと判断した場合(ステップS11:Yes)、予測移動方向情報を含む移動方向変更情報を生成する。そして動作状態検出部12は、移動方向変更情報を抽出画像データ生成部13およびサイズ割当部14に供給し、処理をステップS12に進める。一方、動作状態検出部12は、移動方向の変更を検出したと判断しない場合(ステップS11:No)、処理をステップS14に進める。
First, in step S10, the shooting data acquisition unit 11 of the display control device 10 acquires shooting data from each of the left camera 91A and the right camera 91B. Here, the shooting data acquired from the left camera 91A is the shooting data related to the scenery on the first direction side of the vehicle 90, and the shooting data acquired from the right camera 91B is related to the scenery on the second direction side of the vehicle 90. It is the shooting data to be performed.
Next, in step S11, the operation state detection unit 12 of the display control device 10 determines whether or not a change in the moving direction of the vehicle 90 has been detected as the operation state of the vehicle 90. When the operation state detection unit 12 determines that the change in the movement direction has been detected (step S11: Yes), the operation state detection unit 12 generates the movement direction change information including the predicted movement direction information. Then, the operation state detection unit 12 supplies the movement direction change information to the extraction image data generation unit 13 and the size allocation unit 14, and proceeds to the process in step S12. On the other hand, when the operation state detection unit 12 does not determine that the change in the moving direction has been detected (step S11: No), the process proceeds to step S14.

ステップS12において、抽出画像データ生成部13は、移動方向変更情報に含まれる予測移動方向情報に基づいて、予測移動方向側の風景に関連する撮影データから抽出される抽出画像の画角を第1画角から第2画角に設定変更する。抽出画像データ生成部13はまた、予測移動方向と異なる方向に関連する撮影データから抽出される抽出画像の画角を引き続き第1画角に設定する。そして抽出画像データ生成部13は、処理をS14に進める。 In step S12, the extracted image data generation unit 13 first sets the angle of view of the extracted image extracted from the shooting data related to the landscape on the predicted moving direction side based on the predicted moving direction information included in the moving direction change information. Change the setting from the angle of view to the second angle of view. The extracted image data generation unit 13 also continuously sets the angle of view of the extracted image extracted from the photographing data related to the direction different from the predicted moving direction to the first angle of view. Then, the extracted image data generation unit 13 advances the processing to S14.

ステップS14において、抽出画像データ生成部13は、撮影データの種別に対応して抽出画像に設定された画角を用いて、その撮影データから抽出画像データを生成する。すなわち、移動方向の変更が検出され、その予測移動方向が第1方向である場合、抽出画像データ生成部13は、左カメラ91Aからの撮影データから、画角A11より広い画角A12にかかる抽出画像の第1抽出画像データを生成する。またこの場合、抽出画像データ生成部13は、右カメラ91Bからの撮影データから、画角B11にかかる抽出画像の第2抽出画像データを生成する。一方、移動方向の変更が検出されず、予測移動方向が取得されない場合、抽出画像データ生成部13は、左カメラ91Aからの撮影データから、画角A11にかかる抽出画像の第1抽出画像データを生成する。またこの場合、抽出画像データ生成部13は、右カメラ91Bからの撮影データから、画角B11にかかる抽出画像の第2抽出画像データを生成する。 In step S14, the extracted image data generation unit 13 generates the extracted image data from the photographed data by using the angle of view set for the extracted image according to the type of the photographed data. That is, when a change in the moving direction is detected and the predicted moving direction is the first direction, the extracted image data generation unit 13 extracts the image taken from the left camera 91A over the angle of view A12 wider than the angle of view A11. The first extracted image data of the image is generated. Further, in this case, the extracted image data generation unit 13 generates the second extracted image data of the extracted image related to the angle of view B11 from the captured data from the right camera 91B. On the other hand, when the change in the moving direction is not detected and the predicted moving direction is not acquired, the extracted image data generation unit 13 obtains the first extracted image data of the extracted image related to the angle of view A11 from the captured data from the left camera 91A. Generate. Further, in this case, the extracted image data generation unit 13 generates the second extracted image data of the extracted image related to the angle of view B11 from the captured data from the right camera 91B.

ステップS15において、抽出画像データ生成部13は、全ての抽出画像データを生成したか否かを判定する。本実施の形態1では、抽出画像データ生成部13は、2つの抽出画像データを生成したか否かを判定する。抽出画像データ生成部13は、全ての抽出画像データを生成したと判定した場合(ステップS15:Yes)処理をステップS16に進める。一方抽出画像データ生成部13は、そうでない場合(ステップS15:No)処理をステップS14に戻す。そして抽出画像データ生成部13は、生成した全ての抽出画像データを表示画像データ生成部15に供給する。 In step S15, the extracted image data generation unit 13 determines whether or not all the extracted image data have been generated. In the first embodiment, the extracted image data generation unit 13 determines whether or not two extracted image data have been generated. When the extracted image data generation unit 13 determines that all the extracted image data has been generated (step S15: Yes), the process proceeds to step S16. On the other hand, the extracted image data generation unit 13 returns the process to step S14 if this is not the case (step S15: No). Then, the extracted image data generation unit 13 supplies all the generated extracted image data to the display image data generation unit 15.

ステップS16において、サイズ割当部14は、移動方向変更情報に含まれる予測移動方向情報の予測移動方向に応じて、複数の抽出画像データの各々に対して、各々の抽出画像に対応する表示画像の画像サイズを割り当てる。このときサイズ割当部14は、予測移動方向が第1方向であることに応じて、第1抽出画像データに対応する表示画像に含まれる画素数が、第2抽出画像データに対応する表示画像に含まれる画素数よりも多くなるように、画像サイズを割り当てる。本実施の形態1ではサイズ割当部14は、予測移動方向が第1方向であることに応じて、第1抽出画像データに対応する第1表示画像の横方向の幅である1次方向の長さが、第2抽出画像データに対応する第2表示画像の1次方向の長さよりも大きくなるように、画像サイズを割り当てる。ここで、第1および第2表示画像はそれぞれ、第1および第2抽出画像データの抽出画像に対応する表示画像である。なお1次方向は、幅方向または高さ方向であり、本実施の形態1では、幅方向である。また本実施の形態1で1次方向の長さは、幅方向の一辺である幅の長さであり、幅の画素数に対応する。サイズ割当部14は、複数の抽出画像データの各々に対応する表示画像の画像サイズに関する情報を、表示画像データ生成部15に供給する。 In step S16, the size allocation unit 14 has, for each of the plurality of extracted image data, the display image corresponding to each extracted image according to the predicted moving direction of the predicted moving direction information included in the moving direction change information. Assign an image size. At this time, the size allocation unit 14 sets the number of pixels included in the display image corresponding to the first extracted image data to the display image corresponding to the second extracted image data according to the predicted moving direction being the first direction. The image size is assigned so that it is larger than the number of pixels included. In the first embodiment, the size allocation unit 14 has a length in the primary direction which is the width in the horizontal direction of the first display image corresponding to the first extracted image data according to the predicted movement direction being the first direction. The image size is assigned so that the length of the second display image corresponding to the second extracted image data is larger than the length in the primary direction. Here, the first and second display images are display images corresponding to the extracted images of the first and second extracted image data, respectively. The primary direction is the width direction or the height direction, and in the first embodiment, it is the width direction. Further, in the first embodiment, the length in the primary direction is the length of the width which is one side in the width direction, and corresponds to the number of pixels in the width. The size allocation unit 14 supplies the display image data generation unit 15 with information regarding the image size of the display image corresponding to each of the plurality of extracted image data.

次にステップS17において、表示画像データ生成部15は、複数の抽出画像データの各々に対して、対応する画像サイズを有する表示画像の表示画像データを生成する。
具体的には表示画像データ生成部15は、第1抽出画像データにかかる抽出画像に対しては、画素の変換処理を行わないで第1表示画像の第1表示画像データを生成する。一方、表示画像データ生成部15は、第2抽出画像データにかかる抽出画像に対しては、画像を圧縮して第2表示画像の第2表示画像データを生成する。
そして表示画像データ生成部15は、生成した複数の表示画像データを出力部16に供給する。
Next, in step S17, the display image data generation unit 15 generates display image data of a display image having a corresponding image size for each of the plurality of extracted image data.
Specifically, the display image data generation unit 15 generates the first display image data of the first display image without performing pixel conversion processing on the extracted image related to the first extracted image data. On the other hand, the display image data generation unit 15 compresses the image for the extracted image related to the second extracted image data and generates the second display image data of the second display image.
Then, the display image data generation unit 15 supplies the generated plurality of display image data to the output unit 16.

次にステップS18において、表示制御装置10の出力部16は、表示画像データ生成部15から受け取った複数の表示画像データの各々を、表示部92に出力する。 Next, in step S18, the output unit 16 of the display control device 10 outputs each of the plurality of display image data received from the display image data generation unit 15 to the display unit 92.

次にステップS19において、表示制御装置10は、一連の処理を終了させるか否かを判定する。一連の処理を終了させる場合とは、例えばシステムが停止される場合や、運転者の操作により処理を終了させる場合などである。表示制御装置10は、一連の処理を終了させると判定しない場合(ステップS19:No)、処理をステップS10に戻す。表示制御装置10は、一連の処理を終了させると判定した場合(ステップS19:Yes)、処理を終了させる。 Next, in step S19, the display control device 10 determines whether or not to end a series of processes. The case of terminating a series of processes is, for example, a case where the system is stopped or a case where the process is terminated by the operation of the driver. When the display control device 10 does not determine that the series of processes is completed (step S19: No), the display control device 10 returns the processes to step S10. When the display control device 10 determines that the series of processes is to be completed (step S19: Yes), the display control device 10 ends the processes.

上述の処理により、表示制御装置10は、車両90の移動方向の変更に応じて抽出画像の画角を設定する。なお、上述の説明は、予測移動方向が第1方向である場合を一例として示したが、当然ながら上述の処理は、予測移動方向が第2方向である場合における処理にも適用される。 By the above processing, the display control device 10 sets the angle of view of the extracted image according to the change in the moving direction of the vehicle 90. In the above description, the case where the predicted movement direction is the first direction is shown as an example, but of course, the above processing is also applied to the case where the predicted movement direction is the second direction.

次に、図4を参照して、左カメラ91Aが撮影する画像の例について説明する。図4は、実施の形態1にかかる左カメラ91Aが撮影した画像の第1の例を示す図である。ここで第1の例は、車両90が進行方向に直進し続ける場合、すなわち移動方向の変更が検出されなかった場合の例である。図4に示す画像P10は、左カメラ91Aが車両90の左側(つまり、第1方向側)の風景を撮影したものである。画像P10の紙面右側は車両90の左前方の風景であり、画像P10の紙面左側は車両90の左後方の風景である。画像P10の紙面右側にはトラックおよび二輪車が撮影されている。すなわち車両90の左前方には、トラックおよび二輪車が存在している。また画像P10の紙面左側には他車両H1、他車両H2および他車両H3が撮影されている。すなわち車両90の左後方には、他車両H1〜H3が存在している。なお、画像P10は画角180度という広角で撮影された画像のため、所定の歪曲収差を有している。そのため画像P10に含まれる画像は歪んだ状態で表示されている。 Next, an example of an image taken by the left camera 91A will be described with reference to FIG. FIG. 4 is a diagram showing a first example of an image taken by the left camera 91A according to the first embodiment. Here, the first example is an example in which the vehicle 90 continues to travel straight in the traveling direction, that is, a change in the moving direction is not detected. In the image P10 shown in FIG. 4, the left camera 91A captures the landscape on the left side (that is, the first direction side) of the vehicle 90. The right side of the page of the image P10 is the landscape of the left front of the vehicle 90, and the left side of the page of the image P10 is the landscape of the left rear of the vehicle 90. A truck and a motorcycle are photographed on the right side of the page of image P10. That is, a truck and a two-wheeled vehicle exist in front of the left side of the vehicle 90. Further, another vehicle H1, another vehicle H2, and another vehicle H3 are photographed on the left side of the page of the image P10. That is, other vehicles H1 to H3 exist behind the left rear of the vehicle 90. Since the image P10 is an image taken at a wide angle of view of 180 degrees, it has a predetermined distortion. Therefore, the image included in the image P10 is displayed in a distorted state.

図4に示す画像P10の紙面左側には、抽出画像の外縁T11が太い二点鎖線により示されている。すなわち抽出画像は、外縁T11により囲まれた領域である。ここで、外縁T11は、上述の画角A11にかかる抽出画像を示している。抽出画像データ生成部13は、移動方向の変更が検出されなかったことから画角を画角A11に設定し、外縁T11により示す領域を抽出することで、図4に示す撮影データから第1抽出画像データを生成する。外縁T11により囲まれた領域には、他車両H1および他車両H2が含まれる。よって、抽出画像には他車両H1および他車両H2が含まれる。なお、図4に示す外縁T11は、画像P10が有する歪曲収差に対応するように歪んでいる。 On the left side of the paper surface of the image P10 shown in FIG. 4, the outer edge T11 of the extracted image is indicated by a thick alternate long and short dash line. That is, the extracted image is a region surrounded by the outer edge T11. Here, the outer edge T11 shows an extracted image relating to the above-mentioned angle of view A11. Since the change in the moving direction was not detected, the extracted image data generation unit 13 sets the angle of view to the angle of view A11 and extracts the region indicated by the outer edge T11 to extract the first extraction from the captured data shown in FIG. Generate image data. The area surrounded by the outer edge T11 includes another vehicle H1 and another vehicle H2. Therefore, the extracted image includes the other vehicle H1 and the other vehicle H2. The outer edge T11 shown in FIG. 4 is distorted so as to correspond to the distortion aberration of the image P10.

なお、右カメラ91Bについても左カメラ91Aの場合と同様に、移動方向の変更が検出されない場合に、抽出画像データ生成部13は画角B11にかかる抽出画像の第2抽出画像データを生成する。 As for the right camera 91B, as in the case of the left camera 91A, when the change in the moving direction is not detected, the extracted image data generation unit 13 generates the second extracted image data of the extracted image related to the angle of view B11.

そしてサイズ割当部14は、第1および第2抽出画像データの各々について、後述する表示画像の画像サイズを割り当てる。そして表示画像データ生成部15は、外縁が矩形になり、且つ、割り当てられた表示画像の画像サイズになるように抽出画像を変換処理する。 Then, the size allocation unit 14 allocates the image size of the display image described later for each of the first and second extracted image data. Then, the display image data generation unit 15 converts the extracted image so that the outer edge becomes rectangular and the image size of the assigned display image is obtained.

次に、図5を参照して、表示部92が表示する表示画像の例について説明する。図5は、実施の形態1にかかる表示部92に表示される表示画像の第1の例を示す図である。図5には、表示画像P100が示されている。表示画像P100は、第1表示画像P11、および第2表示画像P13を含む。 Next, an example of a display image displayed by the display unit 92 will be described with reference to FIG. FIG. 5 is a diagram showing a first example of a display image displayed on the display unit 92 according to the first embodiment. FIG. 5 shows the display image P100. The display image P100 includes a first display image P11 and a second display image P13.

第1表示画像P11は、左カメラ91Aの撮影データから生成した画像である。第2表示画像P13は、右カメラ91Bの撮影データから生成した画像である。すなわち表示画像P100は、左カメラ91Aおよび右カメラ91Bが生成したそれぞれの撮影データを抽出画像データ生成部13が適宜抽出し、さらに表示画像データ生成部15が表示画像として変換処理したものが並べて表示されている。 The first display image P11 is an image generated from the shooting data of the left camera 91A. The second display image P13 is an image generated from the shooting data of the right camera 91B. That is, in the display image P100, the captured data generated by the left camera 91A and the right camera 91B are appropriately extracted by the extraction image data generation unit 13, and further converted by the display image data generation unit 15 as display images and displayed side by side. Has been done.

図5に示す第1表示画像P11は、図4に示す外縁T11により抽出された第1抽出画像データから生成されたものである。そのため、第1表示画像P11には、他車両H1および他車両H2が含まれる。
また第2表示画像P13は、第2抽出画像データから生成されたものであり、第2表示画像P13には、他車両H4が含まれる。
The first display image P11 shown in FIG. 5 is generated from the first extracted image data extracted by the outer edge T11 shown in FIG. Therefore, the first display image P11 includes another vehicle H1 and another vehicle H2.
The second display image P13 is generated from the second extracted image data, and the second display image P13 includes another vehicle H4.

ここで表示画像P100は、幅Wを有する。そして第1表示画像P11は、表示画像P100のうち、幅W11の領域に表示される。また第2表示画像P13は、表示画像P100のうち、幅W13の領域に表示される。なお本図に示すように、幅W11および幅W13の長さの合計は幅Wの長さに等しい。幅W11および幅W13は、互いに等しい長さを有してよい。
本図に示すように、幅W11および幅W13の長さはそれぞれ、歪曲収差を有する抽出画像の第1および第2抽出画像データから、実質的に歪みのない画像として第1表示画像P11および第2表示画像P13が生成されるように予め定められてよい。
Here, the display image P100 has a width W. Then, the first display image P11 is displayed in the area of the width W11 in the display image P100. Further, the second display image P13 is displayed in the area of the width W13 in the display image P100. As shown in this figure, the total length of the width W11 and the width W13 is equal to the length of the width W. The width W11 and the width W13 may have equal lengths to each other.
As shown in this figure, the lengths of the width W11 and the width W13 are the first display images P11 and the first display image P11 and the first display image P11 and the second as substantially distortion-free images from the first and second extracted image data of the extracted image having distortion, respectively. 2 It may be predetermined that the display image P13 is generated.

第1の例において、サイズ割当部14は、第1抽出画像データに対して幅W11の長さに対応する第1画像サイズを、第2抽出画像データに対して幅W13の長さに対応する第2画像サイズを割り当てる。そして表示画像データ生成部15は、当該画像サイズに基づいて実質的に歪みのない状態の第1表示画像P11および第2表示画像P13を生成している。 In the first example, the size allocation unit 14 corresponds to the first image size corresponding to the length of the width W11 with respect to the first extracted image data and the length of the width W13 with respect to the second extracted image data. Allocate a second image size. Then, the display image data generation unit 15 generates the first display image P11 and the second display image P13 in a state where there is substantially no distortion based on the image size.

次に、図6を参照して、カメラが撮影する画像の別の例について説明する。図6は、実施の形態1にかかる左カメラ91Aが撮影した画像の第2の例を示す図である。ここで第2の例は、移動方向の変更が検出され、予測移動方向が左方向(つまり、第1方向)である場合の例である。図6に示す画像P10は、図4に示す画像と同様に、左カメラ91Aが車両90の左側の風景を撮影したものである。図6に示す画像P10は、抽出画像にかかる外縁T12が、図4に示す外縁T11と異なる。 Next, another example of the image captured by the camera will be described with reference to FIG. FIG. 6 is a diagram showing a second example of an image taken by the left camera 91A according to the first embodiment. Here, the second example is an example in which a change in the moving direction is detected and the predicted moving direction is the left direction (that is, the first direction). The image P10 shown in FIG. 6 is a photograph of the landscape on the left side of the vehicle 90 by the left camera 91A, similarly to the image shown in FIG. In the image P10 shown in FIG. 6, the outer edge T12 of the extracted image is different from the outer edge T11 shown in FIG.

図6に示す画像P10の紙面左側には、外縁T12が太い二点鎖線により示されている。外縁T12は、上述の画角A12にかかる抽出画像を示している。抽出画像データ生成部13は、図6に示す撮影データから第1抽出画像データを生成するにあたり、予測移動方向が左方向であることから画角を画角A12に設定し、外縁T12により示す領域を抽出する。画角A12は画角A11より広い。そのため外縁T12により囲まれた領域には、他車両H1、他車両H2に加えて他車両H3が含まれる。よって、抽出画像には他車両H1〜H3が含まれる。 On the left side of the paper surface of the image P10 shown in FIG. 6, the outer edge T12 is indicated by a thick alternate long and short dash line. The outer edge T12 shows an extracted image relating to the above-mentioned angle of view A12. When generating the first extracted image data from the captured data shown in FIG. 6, the extracted image data generation unit 13 sets the angle of view to the angle of view A12 because the predicted moving direction is the left direction, and the area indicated by the outer edge T12. Is extracted. The angle of view A12 is wider than the angle of view A11. Therefore, the region surrounded by the outer edge T12 includes the other vehicle H1 and the other vehicle H2 as well as the other vehicle H3. Therefore, the extracted image includes other vehicles H1 to H3.

一方、右カメラ91Bについては、第1の例と同様に、抽出画像データ生成部13は画角B11にかかる抽出画像の第2抽出画像データを生成する。 On the other hand, for the right camera 91B, the extracted image data generation unit 13 generates the second extracted image data of the extracted image pertaining to the angle of view B11, as in the first example.

そしてサイズ割当部14は、第1および第2抽出画像データの各々について、後述する表示画像の画像サイズを割り当てる。そして表示画像データ生成部15は、外縁が矩形になり、且つ、割り当てられた表示画像の画像サイズになるように抽出画像を変換処理する。 Then, the size allocation unit 14 allocates the image size of the display image described later for each of the first and second extracted image data. Then, the display image data generation unit 15 converts the extracted image so that the outer edge becomes rectangular and the image size of the assigned display image is obtained.

次に、図7を参照して、表示部92が表示する表示画像の例について説明する。図7は、実施の形態1にかかる表示部92に表示される表示画像の第2の例を示す図である。図7には、表示画像P101が示されている。表示画像P101は、第1表示画像P11および第2表示画像P13に代えて、第1表示画像P14および第2表示画像P16を有している点で、図5に示した画像P100と異なる。以下に、画像P100と異なる点について主に説明する。 Next, an example of a display image displayed by the display unit 92 will be described with reference to FIG. 7. FIG. 7 is a diagram showing a second example of a display image displayed on the display unit 92 according to the first embodiment. FIG. 7 shows the display image P101. The display image P101 is different from the image P100 shown in FIG. 5 in that it has the first display image P14 and the second display image P16 in place of the first display image P11 and the second display image P13. The points different from the image P100 will be mainly described below.

図7に示す第1表示画像P14は、図6に示す外縁T12により抽出された第1抽出画像データから生成されたものである。そのため、第1表示画像P14には、他車両H1、他車両H2に加えて、他車両H3が含まれる。 The first display image P14 shown in FIG. 7 is generated from the first extracted image data extracted by the outer edge T12 shown in FIG. Therefore, the first display image P14 includes the other vehicle H3 in addition to the other vehicle H1 and the other vehicle H2.

ここで第1表示画像P14が表示されている領域の幅W14は、図5に示した第1表示画像P11の幅W11よりも長い。つまりサイズ割当部14は、予測移動方向に関連し、第1の例と比べて広い画角にかかる抽出画像の第1抽出画像データの第1表示画像P14に対して、第1表示画像P14が実質的に歪みのない画像となるように幅W14の長さを決定する。 Here, the width W14 of the area where the first display image P14 is displayed is longer than the width W11 of the first display image P11 shown in FIG. That is, in the size allocation unit 14, the first display image P14 is related to the first display image P14 of the first extracted image data of the extracted image which is related to the predicted movement direction and has a wider angle of view than the first example. The length of the width W14 is determined so that the image is substantially distortion-free.

一方、第2表示画像P16は、第1の例と同様の画角B11にかかる外縁により抽出された抽出画像から生成される。第2表示画像P16には、第1の例と同様に、他車両H4が含まれる。
ここで第2表示画像P16が表示されている領域の幅W16は、第1表示画像P14が表示されている領域の幅W14よりも短い。なお本図において幅W14と幅W16の長さの合計は、図5に示す幅W11および幅W13の長さの合計、つまり幅Wの長さと等しい。つまりサイズ割当部14は、予測移動方向と異なる方向に関連する第2抽出画像データの第2表示画像P16に対して、幅Wの長さから第1表示画像P14に対応する幅W14の長さを差し引いた長さを、幅W16の長さとして割り当てる。
On the other hand, the second display image P16 is generated from the extracted image extracted by the outer edge having the same angle of view B11 as in the first example. The second display image P16 includes another vehicle H4 as in the first example.
Here, the width W16 of the area where the second display image P16 is displayed is shorter than the width W14 of the area where the first display image P14 is displayed. In this figure, the total length of the width W14 and the width W16 is equal to the total length of the width W11 and the width W13 shown in FIG. 5, that is, the length of the width W. That is, the size allocation unit 14 has a width W 14 corresponding to the first display image P14 from the width W with respect to the second display image P16 of the second extracted image data related to the direction different from the predicted movement direction. Is assigned as the length of the width W16.

すなわちサイズ割当部14は、予測移動方向に関連する表示画像の画像サイズを決定し、予測移動方向と異なる方向に関連する表示画像の画像サイズを、総画像サイズと決定された画像サイズとの間の差分に基づいて割り当てる。 That is, the size allocation unit 14 determines the image size of the display image related to the predicted moving direction, and sets the image size of the displayed image related to the direction different from the predicted moving direction between the total image size and the determined image size. Allocate based on the difference between.

なお第2表示画像P16が表示されている領域の幅W16は、図5に示した第2表示画像P13の幅W13よりも短い。そのため、第2表示画像P13と第2表示画像P16とを比較すると、第2表示画像P16は幅方向が相対的に圧縮されている。 The width W16 of the area where the second display image P16 is displayed is shorter than the width W13 of the second display image P13 shown in FIG. Therefore, when the second display image P13 and the second display image P16 are compared, the width direction of the second display image P16 is relatively compressed.

このように実施形態1にかかる表示制御装置10は、動作状態に応じて設定された画角により複数の抽出画像データを生成する。これにより、表示部分の面積を拡大することなく、ユーザが確認したい場所の広い範囲の情報を表示することが容易となる。また表示制御装置10は、動作状態に基づいて、複数の抽出画像データの各々に対して、画像サイズを割り当てる。したがって表示部分の面積を拡大することなく、動作状態に応じてより重要な場所の情報は相対的に大きく表示され、ユーザが確認したい場所の情報をさらに容易に確認することができる。このように実施形態1にかかる表示制御装置10は、カメラが撮影した画像を好適に表示させることで、好適にユーザの運転支援を行うことが出来る。 As described above, the display control device 10 according to the first embodiment generates a plurality of extracted image data with the angle of view set according to the operating state. This makes it easy to display information in a wide range of places that the user wants to confirm without enlarging the area of the display portion. Further, the display control device 10 allocates an image size to each of the plurality of extracted image data based on the operating state. Therefore, without enlarging the area of the display portion, the information of the more important place is displayed relatively large according to the operating state, and the information of the place that the user wants to confirm can be confirmed more easily. As described above, the display control device 10 according to the first embodiment can preferably support the driving of the user by appropriately displaying the image captured by the camera.

<実施の形態1の第1変形例>
なお実施の形態1では、表示制御装置10は、予測移動方向と異なる方向に関連する抽出画像の画角を第1画角に設定し、第1画角にかかる抽出画像の表示画像を表示部92に表示させた。しかしこれに代えて、表示制御装置10は、移動方向の変更が検出されたことに応じて、予測移動方向と異なる方向に関連する抽出画像の画角を予測移動方向に関連する抽出画像の画角と同様に、第2画角に設定変更してよい。
<First Modified Example of Embodiment 1>
In the first embodiment, the display control device 10 sets the angle of view of the extracted image related to the direction different from the predicted moving direction to the first angle of view, and displays the display image of the extracted image related to the first angle of view. It was displayed on 92. However, instead of this, the display control device 10 sets the angle of view of the extracted image related to the direction different from the predicted moving direction to the image of the extracted image related to the predicted moving direction in response to the detection of the change in the moving direction. As with the corner, the setting may be changed to the second angle of view.

つまり、図3に示すステップS12において、抽出画像データ生成部13は、予測移動方向に関わらず、抽出画像の画角を第2画角に設定する。
そして図3に示すステップS14において、抽出画像データ生成部13は、移動方向の変更が検出された場合、画角A12にかかる抽出画像の第1抽出画像データを生成する。またこの場合、抽出画像データ生成部13は、画角B12にかかる抽出画像の第2抽出画像データを生成する。一方、移動方向の変更が検出されなかった場合、抽出画像データ生成部13は、画角A11にかかる抽出画像の第1抽出画像データを生成する。またこの場合、抽出画像データ生成部13は、画角B11にかかる抽出画像の第2抽出画像データを生成する。
That is, in step S12 shown in FIG. 3, the extracted image data generation unit 13 sets the angle of view of the extracted image to the second angle of view regardless of the predicted moving direction.
Then, in step S14 shown in FIG. 3, when the change in the moving direction is detected, the extracted image data generation unit 13 generates the first extracted image data of the extracted image related to the angle of view A12. Further, in this case, the extracted image data generation unit 13 generates the second extracted image data of the extracted image applied to the angle of view B12. On the other hand, when the change in the moving direction is not detected, the extracted image data generation unit 13 generates the first extracted image data of the extracted image related to the angle of view A11. Further, in this case, the extracted image data generation unit 13 generates the second extracted image data of the extracted image related to the angle of view B11.

このような変形例にかかる表示部92に表示される表示画像について、図8を用いて説明する。図8は、実施の形態1の第1変形例にかかる表示部92に表示される表示画像の第2の例を示す図である。
図8には、表示画像P102が示されている。表示画像P102は、第2表示画像P16に代えて、第2表示画像P18を有している点で、図7に示した画像P101と異なる。以下に、画像P101と異なる点について主に説明する。
A display image displayed on the display unit 92 according to such a modification will be described with reference to FIG. FIG. 8 is a diagram showing a second example of a display image displayed on the display unit 92 according to the first modification of the first embodiment.
FIG. 8 shows the display image P102. The display image P102 is different from the image P101 shown in FIG. 7 in that the display image P102 has the second display image P18 instead of the second display image P16. The points different from the image P101 will be mainly described below.

第2表示画像P18が表示されている領域の幅W18は、第1表示画像P14が表示されている領域の幅W14よりも短い。なお本図において幅W14と幅W18の長さの合計は、図7に示す幅W14および幅W16の長さの合計、つまり幅Wの長さと等しい。つまりサイズ割当部14は、第2表示画像P16の場合と同様に、予測移動方向と異なる方向に関連する第2抽出画像データの第2表示画像P18に対して、幅Wの長さから第1表示画像P14に対応する幅W14の長さを差し引いた長さを、幅W18の長さとして割り当てる。
なお第2表示画像P18が表示されている領域の幅W18の長さは、図7に示した第2表示画像P16の幅W16の長さと等しい。ここで第2表示画像P18は、画角B11より広い画角B12にかかる外縁により抽出された抽出画像から生成され、第2表示画像P18には、第2表示画像P16に含まれる他車両H4に加えて、他車両H5が含まれる。そのため、第2表示画像P16と第2表示画像P18とを比較すると、第2表示画像P18は幅方向が相対的に圧縮されている。
The width W18 of the area where the second display image P18 is displayed is shorter than the width W14 of the area where the first display image P14 is displayed. In this figure, the total length of the width W14 and the width W18 is equal to the total length of the width W14 and the width W16 shown in FIG. 7, that is, the length of the width W. That is, the size allocation unit 14 is the first from the length of the width W with respect to the second display image P18 of the second extracted image data related to the direction different from the predicted movement direction, as in the case of the second display image P16. The length obtained by subtracting the length of the width W14 corresponding to the display image P14 is assigned as the length of the width W18.
The length of the width W18 of the area where the second display image P18 is displayed is equal to the length of the width W16 of the second display image P16 shown in FIG. 7. Here, the second display image P18 is generated from the extracted image extracted by the outer edge of the angle of view B12 wider than the angle of view B11, and the second display image P18 includes the other vehicle H4 included in the second display image P16. In addition, another vehicle H5 is included. Therefore, when the second display image P16 and the second display image P18 are compared, the width direction of the second display image P18 is relatively compressed.

<実施の形態1の第2変形例>
実施の形態1では、2画面表示の場合を例に説明した。しかしこれに限らず、表示制御装置10が、図2に示した車両90の左側および右側の風景に関連する表示画像に加えて、後ろ側の風景に関連する表示画像を、表示部92の表示部分に表示してよい。すなわち第2変形例は、3画面表示の場合の例である。
<Second variant of Embodiment 1>
In the first embodiment, the case of two-screen display has been described as an example. However, not limited to this, the display control device 10 displays the display image related to the landscape on the rear side in addition to the display image related to the landscape on the left side and the right side of the vehicle 90 shown in FIG. It may be displayed on the part. That is, the second modification is an example in the case of three-screen display.

この場合、抽出画像データ生成部13が生成する抽出画像データは、第1および第2抽出画像データに加えて、車両に対して第3方向(ここでは後ろ)側の風景に関連する第3抽出画像データをさらに有する。 In this case, the extracted image data generated by the extracted image data generation unit 13 is, in addition to the first and second extracted image data, a third extraction related to the landscape on the third direction (here, behind) side with respect to the vehicle. It has more image data.

このとき図3に示すステップは以下のように変更される。
まずステップS10に代えて、表示制御装置10の撮影データ取得部11は、左カメラ91A、右カメラ91Bおよび後カメラ91Cのそれぞれから撮影データを取得する。
At this time, the steps shown in FIG. 3 are changed as follows.
First, instead of step S10, the shooting data acquisition unit 11 of the display control device 10 acquires shooting data from each of the left camera 91A, the right camera 91B, and the rear camera 91C.

図3に示すステップS12に代えて、抽出画像データ生成部13は、予測移動方向情報に基づいて、予測移動方向側の風景に関連する抽出画像の画角を第1画角から第2画角に設定変更する。また抽出画像データ生成部13は、予測移動方向と反対方向に関連する抽出画像の画角を引き続き第1画角に設定する。また抽出画像データ生成部13は、後ろ側に関連する抽出画像の画角を引き続きC11に設定する。そして抽出画像データ生成部13は、処理をS14に進める。 Instead of step S12 shown in FIG. 3, the extracted image data generation unit 13 sets the angle of view of the extracted image related to the landscape on the predicted moving direction side from the first angle of view to the second angle of view based on the predicted moving direction information. Change the setting to. Further, the extracted image data generation unit 13 continues to set the angle of view of the extracted image related to the direction opposite to the predicted moving direction to the first angle of view. Further, the extracted image data generation unit 13 continues to set the angle of view of the extracted image related to the rear side to C11. Then, the extracted image data generation unit 13 advances the processing to S14.

またステップS14に加えて、抽出画像データ生成部13は設定された画角C11にかかる抽出画像の第3抽出画像データを生成する。 Further, in addition to step S14, the extracted image data generation unit 13 generates the third extracted image data of the extracted image related to the set angle of view C11.

またステップS15に代えて、抽出画像データ生成部13は、3つの抽出画像データを生成したか否かを判定する。抽出画像データ生成部13は、全ての抽出画像データを生成したと判定した場合、処理をステップS16に進める。一方抽出画像データ生成部13は、そうでない場合、処理をステップS14に戻す。そして抽出画像データ生成部13は、生成した3つの抽出画像データを表示画像データ生成部15に供給する。 Further, instead of step S15, the extracted image data generation unit 13 determines whether or not three extracted image data have been generated. When the extracted image data generation unit 13 determines that all the extracted image data has been generated, the process proceeds to step S16. On the other hand, the extracted image data generation unit 13 returns the process to step S14 if this is not the case. Then, the extracted image data generation unit 13 supplies the three generated extracted image data to the display image data generation unit 15.

そしてステップS16に代えて、サイズ割当部14は、予測移動方向が第1方向であることに応じて、第1抽出画像データに対応する表示画像に含まれる画素数が、第2抽出画像データおよび第3抽出画像データのいずれに対応する表示画像に含まれる画素数よりも多くなるように、画像サイズを割り当てる。 Then, instead of step S16, in the size allocation unit 14, the number of pixels included in the display image corresponding to the first extracted image data is the number of pixels included in the second extracted image data and the second extracted image data, depending on the predicted movement direction being the first direction. The image size is assigned so as to be larger than the number of pixels included in the display image corresponding to any of the third extracted image data.

次に3画面表示の場合の表示部92に表示される表示画像について、図9を用いて説明する。図9は、実施の形態1の第2変形例にかかる表示部92に表示される表示画像の例を示す図である。図9(a)は、移動方向の変更が検出されなかった第1の例に対応し、図9(b)および(c)は、移動方向の変更が検出された第2の例に対応する。なお、図5および7に対応する部分については、同一の符号を付して説明を省略する。 Next, the display image displayed on the display unit 92 in the case of the three-screen display will be described with reference to FIG. FIG. 9 is a diagram showing an example of a display image displayed on the display unit 92 according to the second modification of the first embodiment. 9 (a) corresponds to the first example in which the change in the moving direction was not detected, and FIGS. 9 (b) and 9 (c) correspond to the second example in which the change in the moving direction was detected. .. The parts corresponding to FIGS. 5 and 7 are designated by the same reference numerals and the description thereof will be omitted.

図9(a)〜(c)には、表示画像P103〜105が示されている。なお表示画像P103〜105の幅方向の長さは、いずれもW’である。 Display images P103 to 105 are shown in FIGS. 9A to 9C. The lengths of the displayed images P103 to 105 in the width direction are all W'.

図9(a)に示すように、表示画像P103は、第1表示画像P11および第2表示画像P13に加えて、第3表示画像P12を含む。
第3表示画像P12は、表示画像P103のうち幅方向の長さがW12である領域に表示される。なお本図に示すようにW11、W12およびW13の大きさの合計はW’である。W11、W12およびW13は、互いに等しい大きさを有してよい。
As shown in FIG. 9A, the display image P103 includes a third display image P12 in addition to the first display image P11 and the second display image P13.
The third display image P12 is displayed in the area of the display image P103 whose length in the width direction is W12. As shown in this figure, the total size of W11, W12 and W13 is W'. W11, W12 and W13 may have the same size as each other.

第1の例において、サイズ割当部14は、第1抽出画像データに対して幅W11の長さを、第2抽出画像データに対して幅W13の長さを、第3抽出画像データに対して幅W12の長さを割り当てる。そして表示画像データ生成部15は、当該長さに対応する画像サイズに基づいて実質的に歪みのない状態の第1表示画像P11、第2表示画像P13および第3表示画像P12を生成する。 In the first example, the size allocation unit 14 sets the length of the width W11 with respect to the first extracted image data, the length of the width W13 with respect to the second extracted image data, and the length of the width W13 with respect to the third extracted image data. Allocate the length of width W12. Then, the display image data generation unit 15 generates the first display image P11, the second display image P13, and the third display image P12 in a state where there is substantially no distortion based on the image size corresponding to the length.

図9(b)に示すように表示画像P104は、第1表示画像P14および第2表示画像P16に加えて、図9(a)と同様の長さの幅W12を有する第3表示画像P12を含む。 As shown in FIG. 9B, the display image P104 includes a third display image P12 having a width W12 similar to that in FIG. 9A in addition to the first display image P14 and the second display image P16. include.

サイズ割当部14は、予測移動方向と反対方向に関連する第2表示画像P16については、第1の例と比較して第2表示画像の幅方向が相対的に圧縮されるように幅W16の長さを割り当てる(幅W16の長さ<幅W13の長さ)。一方サイズ割当部14は、それ以外の後ろ側に関連する第3表示画像P12については、第1の例と同様に幅W12の長さを割り当てる。このようにサイズ割当部14は、抽出画像データの種別に応じて、対応する幅方向の長さを割り当ててよい。 The size allocation unit 14 has a width W16 so that the width direction of the second display image P16, which is related to the direction opposite to the predicted movement direction, is relatively compressed as compared with the first example. Assign a length (length of width W16 <length of width W13). On the other hand, the size allocating unit 14 allocates the length of the width W12 for the other third display image P12 related to the rear side as in the first example. In this way, the size allocation unit 14 may allocate the corresponding length in the width direction according to the type of the extracted image data.

これにより、実施の形態1と同様の効果を得つつ、車両90のユーザが車両90の後方側の状況も確認することができる。 As a result, the user of the vehicle 90 can confirm the situation on the rear side of the vehicle 90 while obtaining the same effect as that of the first embodiment.

なおサイズ割当部14は、第2の例において、車両90の後方の他車両H6の移動速度に応じて、第3表示画像に対して、第1の例における幅方向の長さと異なる幅方向の長さを割り当ててよい。たとえばサイズ割当部14は、第2の例において、車両90の後方の他車両H6の移動速度が所定閾値未満である場合に、第3表示画像の幅方向の長さが第1の例よりも小さくなるように、幅方向の長さを割り当ててよい。 In the second example, the size allocation unit 14 has a width direction different from the length in the width direction in the first example with respect to the third display image according to the moving speed of the other vehicle H6 behind the vehicle 90. You may assign a length. For example, in the second example, when the moving speed of the other vehicle H6 behind the vehicle 90 is less than a predetermined threshold value, the size allocation unit 14 has a length in the width direction of the third display image more than that of the first example. The length in the width direction may be assigned so as to be smaller.

図9(c)に示すように表示画像P105は、図9(a)の第2表示画像P13および第3表示画像P12に代えて、幅W19を有する第2表示画像P19と、幅W18を有する第3表示画像P18とを含む。第3表示画像P18の幅W18は、第3表示画像P12の幅W12よりも短い。これにより第2表示画像P19の幅W19は、図9(b)に示す第2表示画像P16の幅W16よりも長くなる。 As shown in FIG. 9C, the display image P105 has a second display image P19 having a width W19 and a width W18 instead of the second display image P13 and the third display image P12 in FIG. 9A. The third display image P18 is included. The width W18 of the third display image P18 is shorter than the width W12 of the third display image P12. As a result, the width W19 of the second display image P19 becomes longer than the width W16 of the second display image P16 shown in FIG. 9B.

これにより、第2表示画像P19は、第2表示画像P13に対する幅方向の圧縮率が、第2表示画像P16に比べて小さくなる。つまり第2表示画像P19は、第2表示画像P16に比べて画像の歪みが軽減される。したがって、実施の形態1と同様の効果を得つつ、車両のユーザが車両の予測移動方向と反対側の状況も容易に確認することができる。 As a result, the compressibility of the second display image P19 in the width direction with respect to the second display image P13 is smaller than that of the second display image P16. That is, the distortion of the image of the second display image P19 is reduced as compared with that of the second display image P16. Therefore, the user of the vehicle can easily confirm the situation on the opposite side of the predicted movement direction of the vehicle while obtaining the same effect as that of the first embodiment.

<実施の形態2>
次に図10〜11を用いて、本発明の実施の形態2について説明する。実施の形態2は、抽出画像の画角の大きさが予測移動方向に加えて車両90の移動速度に基づいて設定され、表示画像の画像サイズが画角の大きさに基づいて割り当てられることに特徴を有する。本実施の形態2の表示制御装置20は、実施の形態1の表示制御装置10と基本的に同様の構成および機能を有する。以下実施の形態1との相違点を中心に説明する。
<Embodiment 2>
Next, a second embodiment of the present invention will be described with reference to FIGS. 10 to 11. In the second embodiment, the size of the angle of view of the extracted image is set based on the moving speed of the vehicle 90 in addition to the predicted moving direction, and the image size of the displayed image is assigned based on the size of the angle of view. It has characteristics. The display control device 20 of the second embodiment has basically the same configuration and function as the display control device 10 of the first embodiment. Hereinafter, the differences from the first embodiment will be mainly described.

本実施の形態2で車両の動作状態は、車両の移動方向の変更に加えて車両の移動速度を含む。動作状態検出部12は、例えば、撮影データ取得部11が取得する撮影データにかかる画像を解析し、解析した画像に含まれる物体の位置の変化から、車両の動作状態を検出してよい。 In the second embodiment, the operating state of the vehicle includes the moving speed of the vehicle in addition to the change of the moving direction of the vehicle. The operating state detection unit 12 may analyze, for example, an image related to the photographing data acquired by the photographing data acquisition unit 11 and detect the operating state of the vehicle from the change in the position of the object included in the analyzed image.

なお、動作状態検出部12は、例えば加速度センサ(不図示)に接続し、加速度センサから取得した加速度の変化から、車両の動作状態を検出してもよい。また動作状態検出部12は、測位情報受信部から取得した位置情報の変化から、車両の動作状態を検出してもよい。 The operating state detection unit 12 may be connected to, for example, an acceleration sensor (not shown) and detect the operating state of the vehicle from the change in acceleration acquired from the acceleration sensor. Further, the operation state detection unit 12 may detect the operation state of the vehicle from the change of the position information acquired from the positioning information receiving unit.

本実施の形態2にかかる抽出画像データ生成部13は、車両の移動方向の変更に加えて、車両の移動速度に応じて画角を設定する。そして抽出画像データ生成部13は、予測移動方向および移動速度に基づいて設定された画角にかかる抽出画像の抽出画像データを生成する。 The extracted image data generation unit 13 according to the second embodiment sets the angle of view according to the moving speed of the vehicle in addition to changing the moving direction of the vehicle. Then, the extracted image data generation unit 13 generates the extracted image data of the extracted image applied to the angle of view set based on the predicted moving direction and the moving speed.

また本実施の形態2にかかるサイズ割当部14は、上述のように生成された複数の抽出画像データの各々に対応する表示画像の画像サイズを割り当てる。 Further, the size allocating unit 14 according to the second embodiment allocates the image size of the display image corresponding to each of the plurality of extracted image data generated as described above.

ここで実施の形態2の画角について、図10を用いて説明する。図10は、実施の形態2にかかる表示制御装置20を搭載した車両90におけるカメラ91の撮影範囲を示す上面図である。図10に示した車両90の上面図は、左カメラ91Aの画角A13と、右カメラ91Bの画角B13とをさらに有する点が、図2と異なる。 Here, the angle of view of the second embodiment will be described with reference to FIG. FIG. 10 is a top view showing a shooting range of the camera 91 in the vehicle 90 equipped with the display control device 20 according to the second embodiment. The top view of the vehicle 90 shown in FIG. 10 is different from FIG. 2 in that the left camera 91A has an angle of view A13 and the right camera 91B has an angle of view B13.

図10において、左カメラ91Aから車両90の左後方へ放射状に延びる実線は、左カメラ91Aの撮影画像から抽出される抽出画像の画角A11、画角A11より広い画角A12および画角A12より広い画角A13を示している。 In FIG. 10, the solid line extending radially from the left camera 91A to the left rear of the vehicle 90 is from the angle of view A11 of the extracted image extracted from the image captured by the left camera 91A, the angle of view A12 wider than the angle of view A11, and the angle of view A12. It shows a wide angle of view A13.

図10において、右カメラ91Bから車両90の右後方へ放射状に延びる実線は、右カメラ91Bの撮影画像から抽出される抽出画像の画角B11、画角B11より広い画角B12および画角B12より広い画角B13を示している。 In FIG. 10, the solid line extending radially from the right camera 91B to the right rear of the vehicle 90 is from the angle of view B11 of the extracted image extracted from the image captured by the right camera 91B, the angle of view B12 wider than the angle of view B11, and the angle of view B12. It shows a wide angle of view B13.

例えば、抽出画像データ生成部13は、車両90が進行方向に直進し続ける場合、抽出画像にかかる画角を画角A11に設定する。例えば、抽出画像データ生成部13は、車両90の移動方向の変更が検出され、予測移動方向が第1方向であり、かつ移動速度が第1速度の場合には抽出画像にかかる画角を画角A12に設定する。抽出画像データ生成部13は、車両90の移動方向の変更が検出され、予測移動方向が第1方向であり、かつ移動速度が第1速度より遅い第2速度の場合には抽出画像にかかる画角を画角A13に設定する。 For example, the extracted image data generation unit 13 sets the angle of view of the extracted image to the angle of view A11 when the vehicle 90 continues to travel straight in the traveling direction. For example, the extracted image data generation unit 13 determines the angle of view of the extracted image when the change in the moving direction of the vehicle 90 is detected, the predicted moving direction is the first direction, and the moving speed is the first speed. Set to angle A12. The extracted image data generation unit 13 detects a change in the moving direction of the vehicle 90, and when the predicted moving direction is the first direction and the moving speed is the second speed slower than the first speed, the image applied to the extracted image. The angle is set to the angle of view A13.

なお予測移動方向が第2方向である場合、画角A11を画角B11に、画角A12を画角B12に、画角A13を画角B13に読み替える。 When the predicted movement direction is the second direction, the angle of view A11 is read as the angle of view B11, the angle of view A12 is read as the angle of view B12, and the angle of view A13 is read as the angle of view B13.

次に図11を参照して、実施の形態2にかかる表示制御装置20が実行する処理について説明する。図11は、実施の形態2にかかる表示制御装置20のフローチャートである。図11に示すステップは、図3に示すステップS12およびステップS16に代えて、ステップS20〜26を有する。なお図3に示すステップと同様のステップについては、同一の記号を付して説明を適宜省略する。 Next, with reference to FIG. 11, the process executed by the display control device 20 according to the second embodiment will be described. FIG. 11 is a flowchart of the display control device 20 according to the second embodiment. The step shown in FIG. 11 has steps S20 to 26 instead of steps S12 and S16 shown in FIG. The same steps as those shown in FIG. 3 are designated by the same symbols and the description thereof will be omitted as appropriate.

ステップS20において、動作状態検出部12は、車両90の移動方向の変更を検出し、予測移動方向情報を取得したことに応じて(ステップS11:Yes)、車両の移動速度に関する移動速度情報を取得する。動作状態検出部12は、予測移動方向情報および移動速度情報を抽出画像データ生成部13に供給する。 In step S20, the operating state detection unit 12 detects the change in the moving direction of the vehicle 90 and acquires the moving speed information regarding the moving speed of the vehicle in response to the acquisition of the predicted moving direction information (step S11: Yes). do. The operation state detection unit 12 supplies the predicted moving direction information and the moving speed information to the extracted image data generation unit 13.

そしてステップS22において抽出画像データ生成部13は、予測移動方向情報および移動速度情報に基づいて、互いに種別が異なる複数の抽出画像の各々の画角の大きさを設定する。 Then, in step S22, the extracted image data generation unit 13 sets the size of each angle of view of the plurality of extracted images of different types based on the predicted moving direction information and the moving speed information.

次にステップS24において、抽出画像データ生成部13は、複数の抽出画像の各々に設定された画角を用いて、複数の抽出画像の各々に対応する抽出画像データを生成する。このとき予測移動方向が第1方向であり、かつ移動速度が所定閾値以上である場合、抽出画像データ生成部13は、画角A12にかかる抽出画像の第1抽出画像データと、画角B11にかかる抽出画像の第2抽出画像データとを生成する。また予測移動方向が第1方向であり、かつ移動速度が所定閾値未満である場合、抽出画像データ生成部13は、画角A13にかかる抽出画像の第1抽出画像データと、画角B11にかかる抽出画像の第2抽出画像データとを生成する。一方、移動方向の変更が検出されず、予測移動方向が取得されない場合、抽出画像データ生成部13は、画角A11にかかる抽出画像の第1抽出画像データと、画角B11にかかる抽出画像の第2抽出画像データとを生成する。そして抽出画像データ生成部13は、生成した複数の抽出画像データを表示画像データ生成部15に供給する。 Next, in step S24, the extracted image data generation unit 13 generates the extracted image data corresponding to each of the plurality of extracted images by using the angle of view set for each of the plurality of extracted images. At this time, when the predicted moving direction is the first direction and the moving speed is equal to or higher than a predetermined threshold value, the extracted image data generation unit 13 sets the first extracted image data of the extracted image on the angle of view A12 and the angle of view B11. The second extracted image data of the extracted image is generated. When the predicted moving direction is the first direction and the moving speed is less than a predetermined threshold value, the extracted image data generation unit 13 covers the first extracted image data of the extracted image at the angle of view A13 and the angle of view B11. The second extracted image data of the extracted image is generated. On the other hand, when the change in the moving direction is not detected and the predicted moving direction is not acquired, the extracted image data generation unit 13 determines the first extracted image data of the extracted image related to the angle of view A11 and the extracted image related to the angle of view B11. The second extracted image data is generated. Then, the extracted image data generation unit 13 supplies the generated plurality of extracted image data to the display image data generation unit 15.

次にステップS26において、サイズ割当部14は、複数の抽出画像データの各々に対して、設定された画角の大きさに応じて表示画像の画像サイズを割り当てる。このときサイズ割当部14は、予測移動方向に関連する第1抽出画像データに対応する画角の大きさに基づいて、第1表示画像の第1画像サイズを割り当て、総画像サイズと第1画像サイズとの間の差分に基づいて、第2表示画像の第2画像サイズを割り当ててよい。すなわちサイズ割当部14は、第1抽出画像データに対応する画角の大きさに基づいて、第2抽出画像データに対応する表示画像の画像サイズを決定してよい。サイズ割当部14は、複数の抽出画像データの各々に対応する表示画像の画像サイズに関する情報を、表示画像データ生成部15に供給し、処理をステップS17に進める。 Next, in step S26, the size allocating unit 14 allocates the image size of the display image to each of the plurality of extracted image data according to the size of the set angle of view. At this time, the size allocation unit 14 allocates the first image size of the first display image based on the size of the angle of view corresponding to the first extracted image data related to the predicted movement direction, and assigns the total image size and the first image. A second image size of the second display image may be assigned based on the difference from the size. That is, the size allocation unit 14 may determine the image size of the display image corresponding to the second extracted image data based on the size of the angle of view corresponding to the first extracted image data. The size allocation unit 14 supplies information on the image size of the display image corresponding to each of the plurality of extracted image data to the display image data generation unit 15, and proceeds to the process in step S17.

このように実施の形態2にかかる表示制御装置20は、複数の抽出画像データの各々に対して予測移動方向および移動速度に基づいて設定された画角の大きさに基づいて画像サイズを割り当て、当該画像サイズの表示画像を表示させる。したがって、車両90が移動方向の変更ポイントに近づいて移動速度を落とした場合に、表示部分の面積を拡大することなく、車両90のユーザが確認したい場所のより広い範囲の情報をより容易に確認することができる。したがって実施形態2にかかる表示制御装置20は、カメラが撮影した画像を好適に表示させることで、より好適にユーザの運転支援を行うことが出来る。 As described above, the display control device 20 according to the second embodiment allocates an image size to each of the plurality of extracted image data based on the size of the angle of view set based on the predicted moving direction and the moving speed. A display image of the image size is displayed. Therefore, when the vehicle 90 approaches the change point of the movement direction and slows down the movement speed, it is easier to confirm a wider range of information of the place where the user of the vehicle 90 wants to confirm without expanding the area of the display portion. can do. Therefore, the display control device 20 according to the second embodiment can more preferably support the driving of the user by appropriately displaying the image taken by the camera.

<実施の形態3>
次に、実施の形態3について説明する。実施の形態3は、表示制御装置が指標画像データを表示部92に表示させることに特徴を有する。図12は、実施の形態3にかかる表示システム3のブロック図である。実施の形態3は、表示システム3が表示制御装置20に代えて表示制御装置30を備える点で実施の形態2と異なる。表示制御装置30は、表示制御装置20の構成に加えて指標画像データ生成部17を有している。
<Embodiment 3>
Next, the third embodiment will be described. The third embodiment is characterized in that the display control device displays the index image data on the display unit 92. FIG. 12 is a block diagram of the display system 3 according to the third embodiment. The third embodiment is different from the second embodiment in that the display system 3 includes the display control device 30 instead of the display control device 20. The display control device 30 has an index image data generation unit 17 in addition to the configuration of the display control device 20.

指標画像データ生成部17は、表示画像データ生成部15が生成する表示画像の歪み状態を取得し、取得した歪み状態に応じた指標画像を生成する。「指標画像データ」は、表示画像データに含まれる表示画像の歪んでいる状態を示す「指標画像」のデータである。指標画像は、例えば表示画像データ生成部15が歪みのない画像を生成した場合の画像と比較できるように構成される。
指標画像データ生成部17は生成した指標画像データを出力部16に供給し、出力部16が、指標画像データを各表示画像とともに表示部92に出力する。
The index image data generation unit 17 acquires the distortion state of the display image generated by the display image data generation unit 15, and generates an index image according to the acquired distortion state. The "index image data" is data of the "index image" indicating a distorted state of the display image included in the display image data. The index image is configured so that it can be compared with, for example, an image when the display image data generation unit 15 generates an image without distortion.
The index image data generation unit 17 supplies the generated index image data to the output unit 16, and the output unit 16 outputs the index image data together with each display image to the display unit 92.

図13を参照して、指標画像の具体例について説明する。図13は、実施の形態3にかかる表示部92に表示される表示画像の例を示す図である。図13に示す画像P106は、図7に示した画像P101に、指標画像を重畳させたものである。第1表示画像P14の上部には指標画像G14が重畳されている。第2表示画像P16の上部には指標画像G16が重畳されている。なお、指標画像G14およびG16がそれぞれの画像の上部に配置されていることにより、表示制御装置30は、指標画像が他車両や道路などの表示を妨げることを抑制している。 A specific example of the index image will be described with reference to FIG. FIG. 13 is a diagram showing an example of a display image displayed on the display unit 92 according to the third embodiment. The image P106 shown in FIG. 13 is obtained by superimposing an index image on the image P101 shown in FIG. 7. The index image G14 is superimposed on the upper part of the first display image P14. The index image G16 is superimposed on the upper part of the second display image P16. By arranging the index images G14 and G16 at the upper part of each image, the display control device 30 suppresses the index image from interfering with the display of other vehicles, roads, and the like.

指標画像G14は円形形状を有する。これは、指標画像G14にかかる第1表示画像P14は歪みを有していないことを意味する。一方、指標画像G16は、高さ方向が相対的に長く、幅方向が相対的に短い縦長の楕円形をしている。またこの大円の高さ方向の長さは、指標画像G14と同じである。すなわち指標画像G16は、指標画像G14よりも相対的に幅方向が圧縮された形状となっている。これは、指標画像G16にかかる第2表示画像P16が相対的に幅方向に圧縮されたものであることを示している。このような表示により、ユーザは、指標画像を視認した場合に、当該指標画像にかかる表示画像がどのように歪んでいるかを直感的に理解できる。 The index image G14 has a circular shape. This means that the first display image P14 related to the index image G14 has no distortion. On the other hand, the index image G16 has a vertically long ellipse having a relatively long height direction and a relatively short width direction. The length of this great circle in the height direction is the same as that of the index image G14. That is, the index image G16 has a shape in which the width direction is relatively compressed as compared with the index image G14. This indicates that the second display image P16 related to the index image G16 is relatively compressed in the width direction. With such a display, the user can intuitively understand how the display image related to the index image is distorted when the index image is visually recognized.

以上、実施の形態3について説明したが、指標画像は実際の歪みに予め設定された設定された係数をかけることにより、表示画像の歪みと同じ傾向の歪みであって、歪みの度合いが異なるものであっても良い。これにより表示制御装置30は、ユーザがより直感的に歪み状態を理解するように、指標画像データを生成できる。また上述の例では、指標画像が表示画像に重畳されていたが、指標画像は、表示画像内に重畳されていなくてもよい。例えば表示画像が表示部92の画像サイズより小さく、その他の表示領域が存在する場合には、指標画像は、その他の表示領域に表示されていてもよい。また本実施の形態3では、2画面表示を例にして説明したが、表示制御装置30は、3画面表示でも同様に指標画像を表示画像に重畳してもよい。 Although the third embodiment has been described above, the index image has the same tendency as the distortion of the displayed image by multiplying the actual distortion by a preset coefficient, but the degree of distortion is different. It may be. As a result, the display control device 30 can generate index image data so that the user can more intuitively understand the distortion state. Further, in the above example, the index image is superimposed on the display image, but the index image may not be superimposed on the display image. For example, when the display image is smaller than the image size of the display unit 92 and there is another display area, the index image may be displayed in the other display area. Further, in the third embodiment, the two-screen display has been described as an example, but the display control device 30 may similarly superimpose the index image on the display image in the three-screen display.

以上、実施の形態3について説明した。実施の形態3にかかる表示制御装置30は、画像の幅方向を圧縮して表示するとともに、表示画像が圧縮されて歪んだ状態であることを示す指標画像を表示する。よって、実施の形態3によれば、カメラが撮影した画像を好適に表示する表示制御装置等を提供することができる。 The third embodiment has been described above. The display control device 30 according to the third embodiment compresses and displays the width direction of the image, and also displays an index image indicating that the displayed image is in a compressed and distorted state. Therefore, according to the third embodiment, it is possible to provide a display control device or the like that preferably displays an image taken by the camera.

<実施の形態4>
次に、実施の形態4について説明する。実施の形態4は、表示制御装置が車両情報に基づいて車両の動作状態を検出することに特徴を有する。図14は、実施の形態4にかかる表示システム4のブロック図である。表示システム4は、表示制御装置30に代えて表示制御装置40を備える点で表示システム3と異なる。
表示制御装置40は、表示制御装置30の構成に加えて、車両情報取得部18を有する。また表示制御装置40はCAN(Controller Area Network)などの車内通信バスを介して車両90のECU93(ECU=Electronic Control Unit)に接続している。
<Embodiment 4>
Next, the fourth embodiment will be described. The fourth embodiment is characterized in that the display control device detects the operating state of the vehicle based on the vehicle information. FIG. 14 is a block diagram of the display system 4 according to the fourth embodiment. The display system 4 differs from the display system 3 in that the display control device 40 is provided in place of the display control device 30.
The display control device 40 has a vehicle information acquisition unit 18 in addition to the configuration of the display control device 30. Further, the display control device 40 is connected to the ECU 93 (ECU = Electronic Control Unit) of the vehicle 90 via an in-vehicle communication bus such as CAN (Controller Area Network).

車両情報取得部18は、車両90が有するECU93と、車内通信バスであるCANを介して通信可能に接続し、ECU93から車両情報を取得する。車両情報とは、車両の運転状態に関する車両情報であって、例えばアクセル開度、ハンドル操舵角、方向指示器の動作状態、シフトレバーの位置等である。また車両情報は、動作状態と車両90の移動速度と組み合わせでもよい。車両情報取得部18は、取得した車両情報を、動作状態検出部12に供給する。 The vehicle information acquisition unit 18 is communicably connected to the ECU 93 of the vehicle 90 via the CAN, which is an in-vehicle communication bus, and acquires vehicle information from the ECU 93. The vehicle information is vehicle information related to the driving state of the vehicle, such as the accelerator opening degree, the steering angle of the steering wheel, the operating state of the direction indicator, the position of the shift lever, and the like. Further, the vehicle information may be a combination of the operating state and the moving speed of the vehicle 90. The vehicle information acquisition unit 18 supplies the acquired vehicle information to the operation state detection unit 12.

動作状態検出部12は、車両情報取得部18から車両情報を受け取り、受け取った車両情報に基づいて動作状態を検出する。例えば、車両情報取得部18から左を示す方向指示器(以降、左方向指示器と称する)がオン状態である場合に、動作状態検出部12は車両90の左側への移動方向の変更を検出する。また例えば、左方向指示器がオン状態であって、且つ、車両の移動速度が50キロメートル毎時等の巡航速度である場合には、動作状態検出部12は車両90が左側へ車線変更することを検出する。また例えば、左方向指示器がオン状態であって、且つ、車両の移動速度が10キロメートル毎時程度である場合には、動作状態検出部12は車両90が左側へ左折する可能性が高いことを検出する。動作状態検出部12は、上述のように車両90の動作状態を検出して、検出した動作状態から動作状態情報を生成する。そして動作状態検出部12は、生成した動作状態情報を抽出画像データ生成部13に供給する。 The operation state detection unit 12 receives vehicle information from the vehicle information acquisition unit 18, and detects the operation state based on the received vehicle information. For example, when the direction indicator indicating the left from the vehicle information acquisition unit 18 (hereinafter referred to as the left direction indicator) is in the ON state, the operation state detection unit 12 detects a change in the moving direction of the vehicle 90 to the left side. do. Further, for example, when the left turn signal is on and the moving speed of the vehicle is a cruising speed such as 50 km / h, the operation state detection unit 12 determines that the vehicle 90 changes lanes to the left. To detect. Further, for example, when the left turn signal is on and the moving speed of the vehicle is about 10 km / h, the operation state detection unit 12 indicates that the vehicle 90 is likely to turn left to the left. To detect. The operation state detection unit 12 detects the operation state of the vehicle 90 as described above, and generates the operation state information from the detected operation state. Then, the operation state detection unit 12 supplies the generated operation state information to the extracted image data generation unit 13.

次に図15を参照して、実施の形態4にかかる表示制御装置40が実行する処理について説明する。図15は、実施の形態4にかかる表示制御装置40のフローチャートである。図15に示すステップは、図11に示すステップS11に代えて、ステップS40と、ステップS42とを有する。なお図11に示すステップと同様のステップについては、同一の記号を付して説明を適宜省略する。 Next, with reference to FIG. 15, the process executed by the display control device 40 according to the fourth embodiment will be described. FIG. 15 is a flowchart of the display control device 40 according to the fourth embodiment. The step shown in FIG. 15 has a step S40 and a step S42 instead of the step S11 shown in FIG. The same steps as those shown in FIG. 11 are designated by the same symbols and the description thereof will be omitted as appropriate.

ステップS40において、表示制御装置10の動作状態検出部12は、車両90の動作状態として、車両90の方向指示器がオンか否かを判断する。動作状態検出部12は車両90の方向指示器がオンであると判断した場合(ステップS40:Yes)、予測移動方向情報を生成する。そして動作状態検出部12は、予測移動方向情報を抽出画像データ生成部13およびサイズ割当部14に供給し、処理をステップS20に進める。一方、動作状態検出部12は、車両90の方向指示器がオンであると判断しない場合(ステップS40:No)、処理をステップS24に進める。 In step S40, the operation state detection unit 12 of the display control device 10 determines whether or not the direction indicator of the vehicle 90 is on as the operation state of the vehicle 90. When the operation state detection unit 12 determines that the direction indicator of the vehicle 90 is on (step S40: Yes), the operation state detection unit 12 generates the predicted movement direction information. Then, the operation state detection unit 12 supplies the predicted movement direction information to the extraction image data generation unit 13 and the size allocation unit 14, and proceeds to the process in step S20. On the other hand, when the operation state detection unit 12 does not determine that the direction indicator of the vehicle 90 is on (step S40: No), the process proceeds to step S24.

ステップS42において、指標画像データ生成部17は、複数の表示画像の各々に対して指標画像データを生成する。そして指標画像データ生成部17は、出力部16に指標画像データを供給する。なおステップS18においては、出力部16は、複数の表示画像データの各々と、これに対応する指標画像データとを表示部92に出力する。 In step S42, the index image data generation unit 17 generates index image data for each of the plurality of display images. Then, the index image data generation unit 17 supplies the index image data to the output unit 16. In step S18, the output unit 16 outputs each of the plurality of display image data and the corresponding index image data to the display unit 92.

なお、実施の形態4にかかる表示制御装置40は、指標画像データ生成部17を有していなくてもよい。動作状態検出部12は、ECU93から取得する車両情報に加えて、加速度センサから取得した加速度の変化や衛星測位システムから取得した自車両の位置情報の変化を利用してもよい。 The display control device 40 according to the fourth embodiment does not have to have the index image data generation unit 17. In addition to the vehicle information acquired from the ECU 93, the operation state detection unit 12 may use the change in acceleration acquired from the acceleration sensor and the change in the position information of the own vehicle acquired from the satellite positioning system.

以上、実施の形態4について説明した。実施の形態4にかかる表示制御装置40は、車両90の運転状態に応じて、抽出画像の画角を設定できる。そして実施の形態4にかかる表示制御装置40は、画像の幅方向を圧縮して表示するとともに、表示画像が圧縮されて歪んだ状態であることを示す指標画像を表示する。よって、実施の形態4によれば、カメラが撮影した画像を好適に表示する表示制御装置等を提供することができる。 The fourth embodiment has been described above. The display control device 40 according to the fourth embodiment can set the angle of view of the extracted image according to the driving state of the vehicle 90. Then, the display control device 40 according to the fourth embodiment compresses and displays the width direction of the image, and displays an index image indicating that the displayed image is in a compressed and distorted state. Therefore, according to the fourth embodiment, it is possible to provide a display control device or the like that preferably displays an image taken by the camera.

なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。 The above-mentioned programs can be stored and supplied to a computer using various types of non-transitory computer-readable media. Non-transient computer-readable media include various types of tangible recording media. Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg, magneto-optical disks), CD-ROMs (Read Only Memory) CD-Rs, CDs. -R / W, including semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)). The program may also be supplied to the computer by various types of temporary computer-readable media. Examples of temporary computer-readable media include electrical, optical, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 The present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit.

1,3,4 表示システム
10,20,30,40 表示制御装置
11 撮影データ取得部
12 動作状態検出部
13 抽出画像データ生成部
14 サイズ割当部
15 表示画像データ生成部
16 出力部
17 指標画像データ生成部
18 車両情報取得部
90 車両
91 カメラ
91A 左カメラ
91B 右カメラ
91C 後カメラ
92 表示部
93 ECU
1,3,4 Display system 10, 20, 30, 40 Display control device 11 Shooting data acquisition unit 12 Operating state detection unit 13 Extracted image data generation unit 14 Size allocation unit 15 Display image data generation unit 16 Output unit 17 Index image data Generation unit 18 Vehicle information acquisition unit 90 Vehicle 91 Camera 91A Left camera 91B Right camera 91C Rear camera 92 Display unit 93 ECU

Claims (7)

カメラが車両の外部の風景を撮影して生成した撮影データを取得する撮影データ取得部と、
前記車両の動作状態を検出する動作状態検出部と、
前記動作状態に応じて設定された画角により前記撮影データから抽出画像データを生成する抽出画像データ生成部と、
前記動作状態が検出されたことに応じて、前記抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てるサイズ割当部と、
複数の前記抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する表示画像データ生成部と、
複数の前記抽出画像データの各々に対応する前記表示画像データを前記表示部に出力する出力部と、を備える
表示制御装置。
A shooting data acquisition unit that acquires shooting data generated by the camera shooting the scenery outside the vehicle,
An operating state detection unit that detects the operating state of the vehicle, and
An extracted image data generation unit that generates extracted image data from the shooting data according to the angle of view set according to the operating state, and
A size allocation unit that allocates an image size of a display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state, and a size allocation unit.
A display image data generation unit that generates display image data according to the assigned image size for each of the plurality of extracted image data, and a display image data generation unit.
A display control device including an output unit that outputs the display image data corresponding to each of the plurality of extracted image data to the display unit.
複数の前記抽出画像データは、第1抽出画像データと、第2抽出画像データとを有し、
前記サイズ割当部は、前記第1抽出画像データに対応する画角の大きさに基づいて、前記第2抽出画像データに対応する表示画像の画像サイズを決定する
請求項1に記載の表示制御装置。
The plurality of extracted image data includes a first extracted image data and a second extracted image data.
The display control device according to claim 1, wherein the size allocation unit determines the image size of the display image corresponding to the second extracted image data based on the size of the angle of view corresponding to the first extracted image data. ..
前記車両の運転状態に関する車両情報を取得する車両情報取得部をさらに備え、
前記動作状態検出部は、前記車両情報に基づいて前記動作状態を検出する
請求項1または2に記載の表示制御装置。
A vehicle information acquisition unit for acquiring vehicle information regarding the driving state of the vehicle is further provided.
The display control device according to claim 1 or 2, wherein the operating state detecting unit detects the operating state based on the vehicle information.
複数の前記抽出画像データは、前記車両に対して第1方向側の風景に関連する第1抽出画像データと、前記車両に対して第2方向側の風景に関連する第2抽出画像データとを有し、
前記動作状態は、前記車両の移動方向の変更を含み、
前記サイズ割当部は、変更される前記移動方向が前記第1方向であることに応じて、前記第1抽出画像データに対応する表示画像の1次方向の長さが、前記第2抽出画像データに対応する表示画像の前記1次方向の長さよりも大きくなるように、画像サイズを割り当てる
請求項1から3のいずれか一項に記載の表示制御装置。
The plurality of extracted image data includes a first extracted image data related to the landscape on the first direction side with respect to the vehicle and a second extracted image data related to the landscape on the second direction side with respect to the vehicle. Have and
The operating state includes a change in the moving direction of the vehicle.
In the size allocation unit, the length of the display image corresponding to the first extracted image data in the primary direction is the length of the second extracted image data according to the movement direction to be changed being the first direction. The display control device according to any one of claims 1 to 3, wherein an image size is assigned so as to be larger than the length of the display image corresponding to the above in the primary direction.
前記表示画像の歪みを表すための指標画像データを生成する指標画像データ生成部をさらに備え、
前記出力部は、前記指標画像データを前記表示部に出力する
請求項1から4のいずれか一項に記載の表示制御装置。
An index image data generation unit for generating index image data for expressing the distortion of the display image is further provided.
The display control device according to any one of claims 1 to 4, wherein the output unit outputs the index image data to the display unit.
カメラが車両の外部の風景を撮影して生成した撮影データを取得する撮影データ取得ステップと、
前記車両の動作状態を検出する動作状態検出ステップと、
前記動作状態に応じて設定された画角により前記撮影データから抽出画像データを生成する抽出画像データ生成ステップと、
前記動作状態が検出されたことに応じて、前記抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てるサイズ割当ステップと、
複数の前記抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する表示画像データ生成ステップと、
複数の前記抽出画像データの各々に対応する前記表示画像データを前記表示部に出力する出力ステップと、を備える
表示制御方法。
The shooting data acquisition step to acquire the shooting data generated by the camera shooting the scenery outside the vehicle,
An operating state detection step for detecting the operating state of the vehicle, and
An extracted image data generation step of generating extracted image data from the shooting data with an angle of view set according to the operating state, and
A size allocation step of allocating the image size of the display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state, and
A display image data generation step for generating display image data according to the assigned image size for each of the plurality of extracted image data, and a display image data generation step.
A display control method comprising an output step of outputting the display image data corresponding to each of the plurality of extracted image data to the display unit.
カメラが車両の外部の風景を撮影して生成した撮影データを取得する撮影データ取得ステップと、
前記車両の動作状態を検出する動作状態検出ステップと、
前記動作状態に応じて設定された画角により前記撮影データから抽出画像データを生成する抽出画像データ生成ステップと、
前記動作状態が検出されたことに応じて、前記抽出画像データの各々に対応する表示画像の画像サイズを表示部の総画像サイズに合わせて割り当てるサイズ割当ステップと、
複数の前記抽出画像データの各々に対して、割り当てられた画像サイズに合わせた表示画像データを生成する表示画像データ生成ステップと、
複数の前記抽出画像データの各々に対応する前記表示画像データを前記表示部に出力する出力ステップと、を備える
表示制御方法を、コンピュータに実行させる
プログラム。
The shooting data acquisition step to acquire the shooting data generated by the camera shooting the scenery outside the vehicle,
An operating state detection step for detecting the operating state of the vehicle, and
An extracted image data generation step of generating extracted image data from the shooting data with an angle of view set according to the operating state, and
A size allocation step of allocating the image size of the display image corresponding to each of the extracted image data according to the total image size of the display unit according to the detection of the operation state, and
A display image data generation step for generating display image data according to the assigned image size for each of the plurality of extracted image data, and a display image data generation step.
A program that causes a computer to execute a display control method including an output step of outputting the display image data corresponding to each of the plurality of extracted image data to the display unit.
JP2020057308A 2020-03-27 2020-03-27 Display control device, display control method and program Active JP7459608B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020057308A JP7459608B2 (en) 2020-03-27 2020-03-27 Display control device, display control method and program
PCT/JP2020/037984 WO2021192373A1 (en) 2020-03-27 2020-10-07 Display control device, display control method, and program
EP20928004.9A EP4131944A4 (en) 2020-03-27 2020-10-07 Display control device, display control method, and program
US17/898,403 US20220408062A1 (en) 2020-03-27 2022-08-29 Display control apparatus, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020057308A JP7459608B2 (en) 2020-03-27 2020-03-27 Display control device, display control method and program

Publications (2)

Publication Number Publication Date
JP2021154887A true JP2021154887A (en) 2021-10-07
JP7459608B2 JP7459608B2 (en) 2024-04-02

Family

ID=77916804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020057308A Active JP7459608B2 (en) 2020-03-27 2020-03-27 Display control device, display control method and program

Country Status (1)

Country Link
JP (1) JP7459608B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005223524A (en) * 2004-02-04 2005-08-18 Nissan Motor Co Ltd Supervisory apparatus for surrounding of vehicle
JP2013005032A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc On-vehicle camera posture detection device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005223524A (en) * 2004-02-04 2005-08-18 Nissan Motor Co Ltd Supervisory apparatus for surrounding of vehicle
JP2013005032A (en) * 2011-06-13 2013-01-07 Alpine Electronics Inc On-vehicle camera posture detection device

Also Published As

Publication number Publication date
JP7459608B2 (en) 2024-04-02

Similar Documents

Publication Publication Date Title
KR101389884B1 (en) Dynamic image processing method and system for processing vehicular image
JP2019503007A (en) 3D rendering for surround views using predefined viewpoint lookup tables
JP2009017020A (en) Image processor and method for generating display image
JP5404932B2 (en) Method and apparatus for visually displaying combined video data and interval data of traffic conditions
US10897600B1 (en) Sensor fusion based perceptually enhanced surround view
KR102140526B1 (en) Device for around view
TWI505203B (en) Image processing method and image processing apparatus for generating vehicular image
JP7342024B2 (en) Imaging device, control method, and program
JP4791222B2 (en) Display control device
JP5126549B2 (en) Driving support device, driving support method, and driving support program
US20220408062A1 (en) Display control apparatus, display control method, and program
JP2007266703A5 (en)
JP7029350B2 (en) Image processing device and image processing method
JP2021154887A (en) Display controller, display control method and program
WO2016121406A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus, and image processing method
KR20100019605A (en) Rear camera display system
JP7459607B2 (en) Display control device, display control method and program
JP7141817B2 (en) Image processing device
US20200058107A1 (en) Apparatus for processing image blurring and method thereof
JP2019125894A (en) On-vehicle image processing device
JP7183562B2 (en) Image processing device
JP2008146436A (en) Vehicle peripheral image display device and its display method
KR101750161B1 (en) System and method for managing image patch with region of interest
KR101267887B1 (en) Method for image processing of black box for vehicles
JP2008219504A (en) Imaging display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459608

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150