JP2019092094A - Image generation device, display system, and program - Google Patents

Image generation device, display system, and program Download PDF

Info

Publication number
JP2019092094A
JP2019092094A JP2017220716A JP2017220716A JP2019092094A JP 2019092094 A JP2019092094 A JP 2019092094A JP 2017220716 A JP2017220716 A JP 2017220716A JP 2017220716 A JP2017220716 A JP 2017220716A JP 2019092094 A JP2019092094 A JP 2019092094A
Authority
JP
Japan
Prior art keywords
image
color
image generation
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220716A
Other languages
Japanese (ja)
Other versions
JP6806040B2 (en
Inventor
宇田 尚典
Naonori Uda
尚典 宇田
良行 赤井
Yoshiyuki Akai
良行 赤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017220716A priority Critical patent/JP6806040B2/en
Publication of JP2019092094A publication Critical patent/JP2019092094A/en
Application granted granted Critical
Publication of JP6806040B2 publication Critical patent/JP6806040B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image generation device, a display system, and a program which can obtain an image changing in accordance with a peripheral environment of a moving body.SOLUTION: The image generation device includes: an information generation unit (a parameter generation unit) that generates environment information (an example of a complexity parameter) indicating a degree of change in a peripheral environment of a moving body; and an image generation unit that controls an image processing according to the environment information and generates an image that changes according to the environment information.SELECTED DRAWING: Figure 1

Description

本発明は、画像生成装置、表示システム、及びプログラムに関する。   The present invention relates to an image generation device, a display system, and a program.

特許文献1には、入力される機械調の原画像を絵画調画像に変換する絵画調画像への変換プログラムであって、前記原画像と、該原画像に目的とする絵の感じがでるように所定の濃淡パターンで作成されたフィルタ画像とを合成する合成ステップを有する、ことを特徴とする絵画調画像への変換プログラムが開示されている。   Patent Document 1 is a program for converting a mechanical original image to be input into a pictorial image, and is characterized in that the original image and the intended picture of the original image are felt. There is disclosed a conversion program to a pictorial image, characterized in that it has a synthesizing step of synthesizing with a filter image created with a predetermined gray scale pattern.

特許文献2には、プロセッサと、プログラム及びデータが格納された記憶手段と、画像出力手段とを備え、該データは、カメラで撮像された被写体画像と、スクリーントーンとを含み、該プログラムが該プロセッサに対し、該被写体画像を漫画調に変換させる画像処理装置において、該プログラムは該プロセッサに対し、(a)該被写体画像をグレースケール画像に変換させ、(b)該グレースケール画像を第1の閾値で2値化させたマスクを生成させ、該スクリーントーンの、該マスクの白画素の位置に対応した画素からなるスクリーントーン切抜画像を生成させ、(c)該グレースケール画像を、該第1の閾値より小さい第2の閾値で2値化させて2値画像を生成させ、(d)該グレースケール画像のエッジ画像を反転させた輪郭線画像を生成させ、(e)該スクリーントーン切抜画像と該2値画像と該輪郭線画像とを積合成させた第1合成画像を生成させ、該第1合成画像の一部又は全部を含む画像を漫画調画像として該画像出力手段に供給させることを特徴とする画像処理装置が開示されている。   Patent Document 2 includes a processor, storage means in which programs and data are stored, and image output means, and the data includes a subject image taken by a camera and a screen tone, and the program In an image processing apparatus for converting a subject image into cartoonishness with respect to a processor, the program causes the processor to (a) convert the subject image into a gray scale image, and (b) to convert the gray scale image into a first image. (B) generating a screen tone cutout image of pixels of the screen tone corresponding to the positions of the white pixels of the screen tone; An outline image obtained by binarizing with a second threshold smaller than a threshold of 1 to generate a binary image, and (d) inverting the edge image of the gray scale image (E) generating a first composite image in which the screen tone cutout image, the binary image, and the outline image are product-synthesized, and generating an image including a part or all of the first composite image An image processing apparatus is disclosed that is supplied to the image output unit as a toned image.

特許文献3には、被写体を撮影して得られる連写画像群や動画を構成する動画構成画像群の中からユーザによって任意に選択された合成に用いられる合成用画像群のデータが記憶される合成用画像群記憶手段と、前記合成用画像群の中から被写体の動作開始の画像、動作中の画像、動作終了の画像を抽出する画像抽出手段と、前記画像抽出手段が抽出した複数の画像を合成する抽出画像合成手段と、画像を表示する表示手段および前記抽出画像合成手段によって合成された合成抽出画像を表示させる表示制御手段と、ユーザによって前記合成抽出画像内における所定の矩形領域を選択するのに用いられる矩形領域入力手段と、ユーザが選択した矩形領域を印刷用紙のサイズに合った矩形領域に調整する矩形領域調整手段と、前記合成用画像群内の画像における前記矩形領域調整手段によって調整された矩形領域内を合成する矩形領域合成手段と、前記矩形領域合成手段が合成して得られる矩形領域合成画像を絵画調に変換する絵画調変換手段と、前記絵画調変換手段によって生成された絵画調画像を前記印刷用紙に印刷する印刷手段と、を備えることを特徴とする画像処理装置が開示されている。   Patent Document 3 stores data of a group of images for combination used for combination arbitrarily selected by the user from a group of continuously shot images obtained by photographing an object and a group of moving image constituting images forming a moving image. Image combining means for combining, image extracting means for extracting an image of start of operation of the subject, image in action, image of ending of action from the image group for combining, and a plurality of images extracted by the image extracting means Extracted image combining means for combining images, display means for displaying images, display control means for displaying a combined extracted image combined by the extracted image combining means, and a user selecting a predetermined rectangular area in the combined extracted image by the user A rectangular area input unit used for image processing; a rectangular area adjustment unit for adjusting a rectangular area selected by the user to a rectangular area matching the size of the printing paper; Rectangular area synthesizing means for synthesizing the inside of the rectangular area adjusted by the rectangular area adjusting means in the image, pictorial tone conversion means for converting the rectangular area synthetic image obtained by synthesizing the rectangular area synthesizing means into a pictorial tone; An image processing apparatus is disclosed, comprising: printing means for printing the pictorial image generated by the pictorial conversion means on the printing paper.

特許文献4には、オリジナル画像の画調変換を行う画調変換方法であって、前記画像の少なくとも一部に、流体の動きのように表現する画像変換処理を行うことを特徴とする画調変換方法が開示されている。   Patent Document 4 relates to a method of converting the style of an original image, wherein at least a part of the image is subjected to an image conversion process that expresses the movement of a fluid. A conversion method is disclosed.

特開2002−298136号公報JP 2002-298136 A 特開2014−102596号公報JP, 2014-102596, A 特開2012−129669号公報JP 2012-129669 A 特開2013−191114号公報JP, 2013-191114, A

従来の画像処理装置等は、移動体の周辺環境を反映した画像に関するものではない。   The conventional image processing apparatus or the like does not relate to an image reflecting the surrounding environment of a moving object.

本発明の目的は、移動体の周辺環境に応じて変化する画像を得ることができる、画像生成装置、表示システム、及びプログラムを提供することにある。   An object of the present invention is to provide an image generation device, a display system, and a program that can obtain an image that changes in accordance with the surrounding environment of a mobile body.

上記目的を達成するために、本発明の画像生成装置は、移動体の周辺環境の変化の度合いを表す環境情報を生成する情報生成部と、前記環境情報に応じて画像処理を制御して画像を生成する画像生成部と、を備えた画像生成装置である。   In order to achieve the above object, an image generation apparatus according to the present invention is an image generation unit that generates environment information that indicates the degree of change in the surrounding environment of a mobile object, and controls image processing according to the environment information. And an image generation unit that generates the image generation unit.

本発明の表示システムは、本発明の画像生成装置と、前記画像生成装置から送信された前記画像に基づく情報を表示する表示装置と、を備えた表示システムである。   A display system of the present invention is a display system provided with the image generation device of the present invention and a display device for displaying information based on the image transmitted from the image generation device.

本発明のプログラムは、コンピュータを、移動体の周辺環境の変化の度合いを表す環境情報を生成する情報生成部、前記環境情報に応じて画像処理を制御して画像を生成する画像生成部、として機能させるためのプログラムである。   A program according to the present invention includes a computer as an information generation unit that generates environment information that indicates the degree of change in the surrounding environment of a mobile object, and an image generation unit that controls image processing according to the environment information to generate an image. It is a program to make it work.

本発明によれば、移動体の周辺環境に応じて変化する画像を得ることができる、画像生成装置、表示システム、及びプログラムを提供することができる。   According to the present invention, it is possible to provide an image generation device, a display system, and a program that can obtain an image that changes in accordance with the surrounding environment of a moving object.

本発明の実施の形態に係る画像生成装置の構成の概略を示すブロック図である。It is a block diagram showing an outline of composition of an image generation device concerning an embodiment of the invention. 撮影部で撮影された画像を示す。(A)は複雑さパラメータ1を得るための画像の正面図、(B)は複雑さパラメータ2を得るための画像の正面図、(C)は図5(B)で分割した画像コマを特定する番号の配列図である。The image taken by the imaging unit is shown. (A) is a front view of the image for obtaining the complexity parameter 1, (B) is a front view of the image for obtaining the complexity parameter 2, (C) is an image frame divided in FIG. 5 (B) It is a sequence diagram of the number. 速度-複雑さパラメータ特性図である。It is a speed- complexity parameter characteristic view. 撮影部で撮影された画像を示し、複雑さパラメータ4を得るための画像の正面図である。FIG. 10 is a front view of an image for obtaining a complexity parameter 4 showing an image taken by the imaging unit. 第1の実施の形態に係る画像生成装置の電気的構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of an electrical configuration of an image generation apparatus according to a first embodiment. 第1の実施の形態に係る画像生成装置の動作の概略を示す模式図である。It is a schematic diagram which shows the outline | summary of operation | movement of the image generation apparatus which concerns on 1st Embodiment. 第1の実施の形態に係る情報処理部の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of an information processor concerning a 1st embodiment. 第1の実施の形態に係る情報処理部の構成の具体例を示すブロック図である。It is a block diagram which shows the specific example of a structure of the information processing part which concerns on 1st Embodiment. 第1の実施の形態に係る「画像生成処理」を実行するプログラムの流れを示すフローチャートである。It is a flow chart which shows a flow of a program which performs "image generation processing" concerning a 1st embodiment. 図9の「エフェクト処理」を実行するプログラムの流れを示すフローチャートである。It is a flowchart which shows the flow of the program which performs "the effect process" of FIG. 画像処理を説明するための図である。(A)は撮影されたカメラ映像、(B)は輪郭線画像、(C)は輪郭線の濃度が薄く変更された輪郭線画像、(D)は背景画像、(E)は合成画像を示す。It is a figure for explaining image processing. (A) shows a captured camera image, (B) shows an outline image, (C) shows an outline image in which the density of the outline is lightly changed, (D) shows a background image, and (E) shows a composite image . 画像処理を説明するための図である。(A)は撮影されたカメラ映像、(B)は輪郭線画像、(C)は輪郭線の濃度が濃く変更された輪郭線画像、(D)は背景画像、(E)は合成画像を示す。It is a figure for explaining image processing. (A) shows a captured camera image, (B) shows an outline image, (C) shows an outline image in which the density of the outline is changed to a high density, (D) shows a background image, and (E) shows a composite image . 第2の実施の形態で生成されるグラデーション画像の一例を示す図である。It is a figure which shows an example of the gradation image produced | generated in 2nd Embodiment. 第2の実施の形態に係る画像生成装置の動作の概略を示す模式図である。It is a schematic diagram which shows the outline | summary of operation | movement of the image generation apparatus which concerns on 2nd Embodiment. 第2の実施の形態に係る情報処理部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the information processing part which concerns on 2nd Embodiment. 第2の実施の形態に係る「画像生成処理」を実行するプログラムの流れを示すフローチャートである。It is a flow chart which shows a flow of a program which performs "image generation processing" concerning a 2nd embodiment. (A)〜(D)は、カメラ映像に対応するグラデーション画像の具体例1を示す図である。(A)-(D) are figures which show the example 1 of the gradation image corresponding to a camera imaging | video. 第3の実施の形態で動画像の生成に用いる図形の一例を示す図である。It is a figure which shows an example of the figure used for production | generation of a moving image in 3rd Embodiment. 図形の移動経路の一例を示す図である。It is a figure which shows an example of the movement path | route of a figure. 図形の移動経路の他の一例を示す図である。It is a figure which shows another example of the movement path | route of a figure. 第3の実施の形態に係る画像生成装置の動作の概略を示す模式図である。It is a schematic diagram which shows the outline | summary of operation | movement of the image generation apparatus which concerns on 3rd Embodiment. 第3の実施の形態に係る情報処理部の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the information processing part which concerns on 3rd Embodiment. 第4の実施の形態に係る表示システムの構成の一例を示すブロック図である。It is a block diagram showing an example of composition of a display system concerning a 4th embodiment. 第4の実施の形態に係る表示装置の一例を示す模式図である。It is a schematic diagram which shows an example of the display apparatus which concerns on 4th Embodiment. 第4の実施の形態に係る表示装置の他の一例を示す模式図である。It is a schematic diagram which shows another example of the display apparatus which concerns on 4th Embodiment. (A)〜(D)は、カメラ映像に対応するグラデーション画像の具体例2を示す図である。(A)-(D) are figures which show the example 2 of the gradation image corresponding to a camera imaging | video.

以下、図面を参照して本発明の実施の形態の一例を詳細に説明する。   Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.

<発明の概要>
本明細書では、本発明に係る画像生成装置を、「移動体」の一例である車両に搭載された画像生成装置に適用した例について説明する。図1は本発明の実施の形態に係る画像生成装置の構成の概略を示すブロック図である。
<Overview of the Invention>
In this specification, an example in which the image generation device according to the present invention is applied to an image generation device mounted on a vehicle which is an example of a “moving object” will be described. FIG. 1 is a block diagram showing an outline of a configuration of an image generation apparatus according to an embodiment of the present invention.

画像生成装置10は、複雑さパラメータを生成するパラメータ生成部12と、複雑さパラメータに応じて変化する画像を生成する画像生成部14とを備えている。ここで「複雑さパラメータ」とは、車両の周辺環境の変化の度合いを表す「環境情報」の一例である。車両の周辺環境の変化の度合いが大きいほど、車両の周辺環境は「複雑」である。複雑さパラメータの種類や取得方法については後述する。   The image generation apparatus 10 includes a parameter generation unit 12 that generates a complexity parameter, and an image generation unit 14 that generates an image that changes according to the complexity parameter. Here, the “complexity parameter” is an example of “environment information” that represents the degree of change in the surrounding environment of the vehicle. The greater the degree of change in the surrounding environment of the vehicle, the more complex the surrounding environment of the vehicle. The types of complexity parameters and the method of acquisition will be described later.

パラメータ生成部12は、車両に設置された環境検出センサから、車両の周辺環境の状況に応じた状況情報を取得する。パラメータ生成部12は、取得された状況情報に応じた複雑さパラメータを生成する。環境検出センサとしては、カメラ等の画像センサ、光センサ、放射温度計等の温度センサ、GPSを含むカーナビゲーション・システム等の位置センサなどがある。本実施の形態では、画像生成装置10が、車両の周辺を撮影する撮影部(カメラ)を備える例について説明する。   The parameter generation unit 12 acquires situation information according to the situation of the surrounding environment of the vehicle from the environment detection sensor installed in the vehicle. The parameter generation unit 12 generates a complexity parameter according to the acquired situation information. Examples of the environment detection sensor include an image sensor such as a camera, a light sensor, a temperature sensor such as a radiation thermometer, and a position sensor such as a car navigation system including a GPS. In the present embodiment, an example will be described in which the image generation device 10 includes an imaging unit (camera) that images the periphery of a vehicle.

画像生成部14は、複雑さパラメータに応じて画像処理を制御して、複雑さパラメータに応じて変化する画像を生成し、画像データを出力する。複雑さパラメータに応じて画像処理が制御される。例えば、画像生成部14は、複雑さパラメータに応じてカメラ映像に掛けるエフェクトを制御して、新たな画像を生成してもよい。また、例えば、画像生成部14は、図形を移動させて動画像を生成する際に、複雑さパラメータに応じて図形の色や動きを制御して、新たな画像を生成してもよい。   The image generation unit 14 controls image processing in accordance with the complexity parameter, generates an image that changes in accordance with the complexity parameter, and outputs image data. Image processing is controlled according to the complexity parameter. For example, the image generation unit 14 may generate a new image by controlling an effect applied to the camera image according to the complexity parameter. In addition, for example, when generating a moving image by moving a graphic, the image generation unit 14 may generate a new image by controlling the color or the movement of the graphic in accordance with the complexity parameter.

<複雑さパラメータ>
次に、複雑さパラメータの種類及び取得方法について説明する。
上記の通り、撮影部(カメラ)は、車両の走行中または停車中に車両の周辺の画像を撮影する。複雑さパラメータは、撮影された車両の周辺の画像から生成される。以下では、複数の複雑さパラメータ(複雑さパラメータ1〜4)について説明する。本実施の形態では、複雑さパラメータ4を用いる例について説明するが、他の複雑さパラメータを用いてもよく、複数の複雑さパラメータを2以上組合せて用いてもよい。
<Complexity parameter>
Next, types of complexity parameters and acquisition methods will be described.
As described above, the imaging unit (camera) captures an image of the periphery of the vehicle while the vehicle is traveling or stopping. The complexity parameters are generated from images of the surroundings of the taken vehicle. Hereinafter, a plurality of complexity parameters (complexity parameters 1 to 4) will be described. In the present embodiment, an example in which the complexity parameter 4 is used will be described, but other complexity parameters may be used, and a plurality of complexity parameters may be used in combination.

図2は撮影部で撮影された画像を表す図である。図2(A)は複雑さパラメータ1を得るための画像の正面図、図2(B)は複雑さパラメータ2を得るための画像の正面図、図2(C)は図2(B)で分割した画像コマを特定する番号の配列図である。   FIG. 2 is a diagram showing an image captured by the imaging unit. 2 (A) is a front view of an image for obtaining complexity parameter 1, FIG. 2 (B) is a front view of an image for obtaining complexity parameter 2, and FIG. 2 (C) is FIG. 2 (B). It is an arrangement | sequence figure of the number which specifies the divided | segmented image frame.

(複雑さパラメータ1)
複雑さパラメータ1は、画像全体の変化の度合いを監視する情報である。複雑さパラメータ1の生成に際し、基本処理として生成した白黒データを取得し(図2(A)参照)、時間的に前後する画像情報の差(の絶対値)を演算し(差分演算)、車両の走行(移動)に応じて、当該差分演算を数十回(例えば、60回程度)繰り返したときの平均値を演算する。この複雑さパラメータ1によって、車両の周辺環境のうち撮影部の視野内全体の変化を認識することができる。
(Complexity parameter 1)
The complexity parameter 1 is information for monitoring the degree of change of the entire image. When generating the complexity parameter 1, the black and white data generated as basic processing is acquired (see FIG. 2A), and the difference (absolute value) of the image information preceding and succeeding in time is calculated (difference calculation). In accordance with the traveling (movement), the average value when the difference calculation is repeated several tens of times (for example, about 60 times) is calculated. By this complexity parameter 1, it is possible to recognize a change in the entire field of view of the imaging unit in the peripheral environment of the vehicle.

(複雑さパラメータ2)
複雑さパラメータ2は、画像の左右端の変化の度合いを重点的に監視する情報である。ここで「左右」とは、車両の走行方向に対し「右側」「左側」という意味である。複雑さパラメータ2の生成に際し、基本処理として生成した白黒データ(絶対値)を取得し、取得した白黒データの画像を複数の画像コマに分割する。例えば、図2(C)に示される如く、横9×縦5に分割し、各画像コマに対して、左上から右下にかけて番号を付与する。
(Complexity parameter 2)
The complexity parameter 2 is information for focusing on the degree of change of the left and right ends of the image. Here, "left and right" means "right" and "left" with respect to the traveling direction of the vehicle. When generating the complexity parameter 2, black and white data (absolute value) generated as basic processing is acquired, and the acquired black and white data image is divided into a plurality of image frames. For example, as shown in FIG. 2C, the image is divided into 9 × 5 and each image frame is numbered from upper left to lower right.

分割した画像コマの中から、画像の左右端に相当する画像コマである、図2(B)のNo.21とNo.26との差の絶対値の平均値、及びNo.25とNo.30との差の絶対値の平均値を抽出する。そして、No.21とNo.26との差の絶対値の平均値、及びNo.25とNo.30との差の絶対値の平均値とを演算し(平均値演算)、車両の走行(移動)に応じて、当該平均値演算を数十回(例えば、40回程度)繰り返したときの平均値を演算する。この複雑さパラメータ2によって、車両の周辺環境のうち特に車両の側方の変化を認識することができる。   Among the divided image frames, the image frames corresponding to the left and right ends of the image, No. 1 in FIG. 21 and No. The average value of the absolute value of the difference with No. No. 25 and No. Extract the average value of the absolute value of the difference from 30. And No. 21 and No. The average value of the absolute value of the difference with No. 26, and No. No. 25 and No. The average of the absolute value of the difference with 30 is calculated (average value calculation), and the average value calculation is repeated several dozen times (for example, about 40 times) according to the travel (movement) of the vehicle. Calculate the value. This complexity parameter 2 makes it possible to recognize changes in the side of the vehicle, in particular in the environment around the vehicle.

(複雑さパラメータ3)
複雑さパラメータ3は、車両の近傍に存在する障害物の有無を監視する情報である。図3は速度-複雑さパラメータ特性図である。図3に示す特性曲線は、上記の複雑さパラメータ2と速度との関係を表す。以下では、「複雑さパラメータ2の特性曲線」という。複雑さパラメータ3の生成に際し、複雑さパラメータ2の特性曲線に対し基準線A(図3参照)を設定する。
(Complexity parameter 3)
The complexity parameter 3 is information for monitoring the presence or absence of an obstacle existing in the vicinity of the vehicle. FIG. 3 is a speed-complexity parameter characteristic diagram. The characteristic curve shown in FIG. 3 represents the relationship between the above-mentioned complexity parameter 2 and the speed. Hereinafter, it is referred to as “characteristic curve of complexity parameter 2”. When generating the complexity parameter 3, a reference line A (see FIG. 3) is set for the characteristic curve of the complexity parameter 2.

ここで、複雑さパラメータ2が速度に対して直線的に変化する成分を含むと仮定する。図3に示す基準線Aは、直線的に変化する成分を表す。複雑さパラメータ2の特性曲線Cと基準線Aとの差分(図3の斜線領域D参照)が、複雑さパラメータ3である。同様に、複雑さパラメータ1の特性曲線に対して基準線を設定して、複雑さパラメータ2の特性曲線と基準線Aの差分を求め、複雑さパラメータ3を生成してもよい。複雑さパラメータ1の特性曲線と基準線との差分と、複雑さパラメータ2の特性曲線と基準線との差分とを比較して、差分が大きい方を複雑さパラメータ3としてもよい。   Here, it is assumed that the complexity parameter 2 includes a component that varies linearly with the velocity. The reference line A shown in FIG. 3 represents a linearly changing component. The difference between the characteristic curve C of complexity parameter 2 and the reference line A (see shaded area D in FIG. 3) is complexity parameter 3. Similarly, a reference line may be set for the characteristic curve of complexity parameter 1, and the difference between the characteristic curve of complexity parameter 2 and reference line A may be determined to generate complexity parameter 3. The difference between the characteristic curve of complexity parameter 1 and the reference line may be compared with the difference between the characteristic curve of complexity parameter 2 and the reference line, and the larger difference may be used as the complexity parameter 3.

例えば、車両が障害物の少ない道路を走行しているときは、実際の速度−複雑さパラメータ特性曲線は、特性曲線Bとなり、前記基準線Aを超える要素はない。   For example, when the vehicle is traveling on a road with few obstacles, the actual velocity-complexity parameter characteristic curve is the characteristic curve B, and there is no element beyond the reference line A.

一方、障害物の多い道路を走行しているときは、速度−複雑さパラメータ1、2特性曲線は、特性曲線Cとなり、前記基準線Aを超える要素が存在する(図3の斜線領域D参照)。この斜線領域Dが発生する状況としては、車両が駐車場の敷地内である、道路が狭くかつ電信柱や自動販売機が道路側に突出して設置される、及び、人通りが多い場合等が挙げられる。   On the other hand, when traveling on a road with many obstacles, the speed-complexity parameter 1 and 2 characteristic curve is the characteristic curve C, and there is an element exceeding the reference line A (see shaded area D in FIG. 3). ). As a situation where this hatched area D occurs, the vehicle is in the site of the parking lot, the road is narrow, the telegraph pole and the vending machine are installed protruding to the road side, and there are many people passing by, etc. It can be mentioned.

(複雑さパラメータ4)
複雑さパラメータ4は、画像の中央部の変化の度合いを重点的に監視する情報である。ここで「中央部」とは、画像を車両の高さ方向に三分割した場合の中央部分である。図4は撮影部で撮影された画像を示し、複雑さパラメータ4を得るための画像の正面図である。
(Complexity parameter 4)
The complexity parameter 4 is information for focusing on the degree of change in the central part of the image. Here, the “central portion” is a central portion when the image is divided into three in the height direction of the vehicle. FIG. 4 shows an image captured by the imaging unit, and is a front view of the image for obtaining the complexity parameter 4.

複雑さパラメータ4の生成に際し、基本処理として生成した白黒データ(絶対値)を取得し、取得した白黒データの画像を高さ方向に複数の領域に分割する。例えば、図7に示される如く、横1×縦3に分割する。   When generating the complexity parameter 4, black and white data (absolute value) generated as basic processing is acquired, and the acquired black and white data image is divided into a plurality of areas in the height direction. For example, as shown in FIG. 7, it is divided into 1 × 3.

分割した領域の中から、中央領域の画像に対し、時間的に前後する画像情報の差(の絶対値)を演算し(差分演算)、車両の走行(移動)に応じて、当該差分演算を数十回(例えば、60回程度)繰り返したときの平均値を演算する。この複雑さパラメータ4によって、車両の周辺環境のうち特に車両前方中央の変化を認識することができる。   From the divided regions, the difference (absolute value) of the difference in image information that temporally precedes and follows in the image of the central region is calculated (difference calculation), and the difference calculation is performed according to the travel (movement) of the vehicle. The average value when it is repeated several dozen times (for example, about 60 times) is calculated. This complexity parameter 4 makes it possible to recognize, among other things, changes in the front center of the vehicle in the surroundings of the vehicle.

<第1の実施の形態>
第1の実施の形態に係る画像生成装置について説明する。画像生成装置の電気的構成、動作、機能構成の各々について説明する。電気的構成は各実施の形態について共通の構成である。画像生成装置の動作及び機能構成は、実施の形態毎に特定される。
First Embodiment
An image generation apparatus according to the first embodiment will be described. Each of the electrical configuration, operation, and functional configuration of the image generation apparatus will be described. The electrical configuration is common to each embodiment. The operation and functional configuration of the image generation apparatus are specified for each embodiment.

(電気的構成)
まず、画像生成装置の電気的構成について説明する。
図5は本発明の実施の形態に係る画像生成装置の電気的構成の一例を示すブロック図である。図5に示すように、画像生成装置10は、図1に示す「画像生成部14」の機能を実行する情報処理部30を備えている。情報処理部30は、各種演算を行うコンピュータとして構成されている。情報処理部30は、CPU(中央処理装置; Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性のメモリ30D、及び入出力部(I/O)30Eを備えている。
(Electrical configuration)
First, the electrical configuration of the image generation apparatus will be described.
FIG. 5 is a block diagram showing an example of the electrical configuration of the image generation apparatus according to the embodiment of the present invention. As shown in FIG. 5, the image generation apparatus 10 includes an information processing unit 30 that executes the function of the “image generation unit 14” shown in FIG. 1. The information processing unit 30 is configured as a computer that performs various calculations. The information processing unit 30 includes a central processing unit (CPU) 30A, a read only memory (ROM) 30B, a random access memory (RAM) 30C, a non-volatile memory 30D, and an input / output unit (I / O) 30E. Is equipped.

CPU30A、ROM30B、RAM30C、メモリ30D、及びI/O30Eの各々は、バス30Fを介して接続されている。CPU30Aは、例えばROM30Bに記憶されたプログラムを読み出し、RAM30Cをワークエリアとして使用してプログラムを実行する。また、I/O30Eには、撮影部20、操作部32、表示部34、通信部36、記憶部38、画像出力部40、及び音楽出力部42が接続されている。   The CPU 30A, the ROM 30B, the RAM 30C, the memory 30D, and the I / O 30E are each connected via a bus 30F. For example, the CPU 30A reads a program stored in the ROM 30B and executes the program using the RAM 30C as a work area. Further, to the I / O 30E, a photographing unit 20, an operation unit 32, a display unit 34, a communication unit 36, a storage unit 38, an image output unit 40, and a music output unit 42 are connected.

撮影部20は、車両に設置されたカメラ等の撮影装置で構成されている。撮影部20は、可視画像を取得する。撮影部20は、可視画像に加えて、赤外画像や距離画像を取得してもよい。撮影部20は、例えば、車両の走行中に車両の前方や側方の景色を撮影する。撮影部20は、撮影した画像の画像データを情報処理部30に出力する。   The imaging unit 20 is configured by an imaging device such as a camera installed in a vehicle. The imaging unit 20 acquires a visible image. The imaging unit 20 may acquire an infrared image or a distance image in addition to the visible image. The imaging unit 20 captures, for example, a landscape in front of or in the side of the vehicle while the vehicle is traveling. The photographing unit 20 outputs the image data of the photographed image to the information processing unit 30.

操作部32は、スイッチ、ボタン等を備え、搭乗者からの操作を受け付ける。表示部34は、ディスプレイ等を備え、搭乗者に各種情報を表示する。タッチパネル等、操作部32及び表示部34の機能を兼ね備える構成として、搭乗者からの操作を受け付けると共に、搭乗者に各種情報を表示するようにしてもよい。   The operation unit 32 includes a switch, a button, and the like, and receives an operation from a passenger. The display unit 34 includes a display and the like, and displays various information to the passenger. As a configuration having both functions of the operation unit 32 and the display unit 34, such as a touch panel, an operation from the passenger may be received, and various information may be displayed to the passenger.

通信部36は、有線又は無線の通信回線を介して外部装置と通信を行うためのインターフェースである。例えば、LAN(Local Area Network)、インターネット等のネットワークに接続されたコンピュータ等の外部装置と通信を行うためのインターフェースとして機能する。記憶部38は、ハードディスク等の外部記憶装置である。   The communication unit 36 is an interface for communicating with an external device via a wired or wireless communication line. For example, it functions as an interface for communicating with an external device such as a computer connected to a network such as a LAN (Local Area Network) or the Internet. The storage unit 38 is an external storage device such as a hard disk.

画像出力部40は、情報処理部30で生成された画像を表示する、投影する等して画像を出力する。画像出力部40は、例えば、搭乗者の周辺視野内など車両内の搭乗者から見える位置に、画像を投影する。   The image output unit 40 outputs an image by displaying or projecting the image generated by the information processing unit 30. The image output unit 40 projects an image at a position viewed by the passenger in the vehicle, for example, in the peripheral vision of the passenger.

音楽出力部42は、音楽情報に基づいて音楽を出力する。音楽出力部42は、例えば、画像出力部40から出力される画像の色に応じた音楽を出力する。後述する通り、「赤」は温かい感覚を誘起し、「青」は涼しい感覚を誘起する等、画像の色に応じた感覚を誘起する。温かい感覚を誘起する色の画像の場合は、暖炉の音など、温かそうな効果音を併せて出力してもよい。涼しげな感覚を誘起する色の画像の場合は、水やカエルの音など、涼しげな効果音を併せて出力してもよい。   The music output unit 42 outputs music based on the music information. The music output unit 42 outputs, for example, music according to the color of the image output from the image output unit 40. As will be described later, "red" induces a warm sensation, and "blue" induces a cool sensation, etc., and induces a sensation according to the color of the image. In the case of a color image that induces a warm sensation, a warm sound effect such as the sound of a fireplace may be output together. In the case of a color image that induces a cool sensation, cool sound effects such as water and frog sounds may be output together.

本実施の形態では、後述する「画像生成処理」を実行するためのプログラムが、ROM30Bに記憶されている。なお、プログラムの記憶領域はROM30Bには限定されない。各種プログラムは、メモリ30Dや記憶部38等の他の記憶装置に記憶されていてもよく、通信部36を介して外部装置から取得してもよい。   In the present embodiment, a program for executing an "image generation process" described later is stored in the ROM 30B. The storage area of the program is not limited to the ROM 30B. The various programs may be stored in other storage devices such as the memory 30D and the storage unit 38, or may be acquired from an external device via the communication unit 36.

また、情報処理部30には、各種ドライブが接続されていてもよい。各種ドライブは、CD−ROM、USB(Universal Serial Bus)メモリなどのコンピュータ読み取り可能な可搬性の記録媒体からデータを読み込んだり、記録媒体に対してデータを書き込んだりする装置である。各種ドライブを備える場合には、可搬性の記録媒体にプログラムを記録しておいて、これを対応するドライブで読み込んで実行してもよい。   In addition, various drives may be connected to the information processing unit 30. The various drives are devices that read data from a computer-readable portable recording medium such as a CD-ROM or a USB (Universal Serial Bus) memory, or write data to the recording medium. When various drives are provided, the program may be recorded on a portable recording medium and read and executed by the corresponding drive.

(動作の概略)
次に、画像生成装置の動作について説明する。
図6は第1の実施の形態に係る画像生成装置の動作の概略を示す模式図である。図6に示すように、第1の実施の形態では、車両の周辺を撮影したカメラ映像から、複雑さパラメータを生成する。カメラ映像に対し、生成された複雑さパラメータに応じた度合いのエフェクトを掛けて、新たな画像を生成する。
(Outline of operation)
Next, the operation of the image generation apparatus will be described.
FIG. 6 is a schematic view showing an outline of the operation of the image generation apparatus according to the first embodiment. As shown in FIG. 6, in the first embodiment, a complexity parameter is generated from a camera image obtained by photographing the periphery of a vehicle. The camera image is subjected to an effect according to the generated complexity parameter to generate a new image.

第1の実施の形態では、車両に搭乗して走行するという日常の行為により、新たな画像が自動的に作成される。著作権フリーの画像が無尽蔵に作成される。作成された画像は、服やカバンやノート等の媒体に印刷出力される等、二次利用も可能である。   In the first embodiment, a new image is automatically created by the daily act of getting on the vehicle and traveling. Copyright-free images are created endlessly. The created image can also be secondarily used, for example, printed out on a medium such as clothes, bags, and notebooks.

画像にエフェクトを掛けることで、絵画調や漫画調等、画調を変換できることは知られている。本実施の形態では、カメラ映像に対し、複雑さパラメータに応じた度合いのエフェクトを掛けることにより、搭乗者が遭遇した場面に応じた「劇的さ」を表す、新たな画像が生成される。   It is known that, by applying an effect to an image, it is possible to convert the style, such as a painting style or a cartoon style. In this embodiment, by applying an effect according to the complexity parameter to the camera image, a new image representing “dramatic” according to the scene encountered by the passenger is generated.

(画像生成装置の構成)
次に、画像生成装置の機能構成について説明する。
図7は第1の実施の形態に係る情報処理部の構成の一例を示すブロック図である。図7に示すように、情報処理部30は、メモリ50、パラメータ生成部52、及び画像処理部54を備えている。撮影部20により撮影された車両の周辺の画像を「第1画像」とし、その画像データを「第1画像データ」とする。
(Configuration of image generation apparatus)
Next, the functional configuration of the image generation apparatus will be described.
FIG. 7 is a block diagram showing an example of the configuration of the information processing unit according to the first embodiment. As shown in FIG. 7, the information processing unit 30 includes a memory 50, a parameter generation unit 52, and an image processing unit 54. An image around the vehicle captured by the imaging unit 20 is referred to as “first image”, and the image data is referred to as “first image data”.

撮影部20から取得された第1画像データは、メモリ50に記憶される。パラメータ生成部52は、第1画像データをメモリ50から取得し、第1画像データから複雑さパラメータ4を生成する。画像処理部54は、第1画像データをメモリ50から取得する。   The first image data acquired from the imaging unit 20 is stored in the memory 50. The parameter generation unit 52 acquires the first image data from the memory 50, and generates the complexity parameter 4 from the first image data. The image processing unit 54 acquires the first image data from the memory 50.

画像処理部54は、第1画像を画像処理して第2画像を生成する。第1画像に対し、複雑さパラメータに応じた度合いのエフェクトを掛けて、第2画像を生成する。第2画像の画像データを「第2画像データ」とする。情報処理部30は、第2画像データを出力する。   The image processing unit 54 performs image processing on the first image to generate a second image. The first image is subjected to an effect according to the complexity parameter to generate a second image. The image data of the second image is referred to as "second image data". The information processing unit 30 outputs the second image data.

次に、画像生成装置の構成の具体例について説明する。
図8は第1の実施の形態に係る情報処理部の機能構成の具体例を示すブロック図である。図7に示す情報処理部30と同様に、情報処理部30は、メモリ50、パラメータ生成部52、及び画像処理部54を備えている。画像処理部54は、輪郭抽出部56、輪郭色/濃度変更部58、画像合成部60、及び背景抽出部62を備えている。具体例では、画像処理部54が行う画像処理の手順について説明する。
Next, a specific example of the configuration of the image generation apparatus will be described.
FIG. 8 is a block diagram showing a specific example of the functional configuration of the information processing unit according to the first embodiment. Similar to the information processing unit 30 illustrated in FIG. 7, the information processing unit 30 includes a memory 50, a parameter generation unit 52, and an image processing unit 54. The image processing unit 54 includes an outline extraction unit 56, an outline color / density change unit 58, an image combining unit 60, and a background extraction unit 62. In the specific example, the procedure of the image processing performed by the image processing unit 54 will be described.

輪郭抽出部56は、カメラ映像である第1画像をグレースケール化し、白黒で表現されたグレースケール画像を生成する。輪郭抽出部56は、グレースケール画像から輪郭線画像を生成する。例えば、グレースケール画像に対しエッジ検出を行い、エッジ検出の結果を二値化してエッジ画像を生成する。エッジ画像の白黒を反転させて、第1輪郭線画像を生成する。   The contour extraction unit 56 grayscales the first image, which is a camera image, and generates a grayscale image represented in black and white. The outline extraction unit 56 generates an outline image from the gray scale image. For example, edge detection is performed on a grayscale image, and the result of the edge detection is binarized to generate an edge image. The black and white of the edge image is inverted to generate a first contour image.

輪郭色/濃度変更部58は、複雑さパラメータ4に応じて、第1輪郭線画像の輪郭線の色を設定する。輪郭線の色が変化することで、情報処理部30で生成される第2画像に変化が与えられる。   The outline color / density change unit 58 sets the color of the outline of the first outline image according to the complexity parameter 4. By changing the color of the outline, a change is given to the second image generated by the information processing unit 30.

輪郭色/濃度変更部58は、複雑さパラメータ4に応じて第1輪郭線画像の輪郭線の濃度を変更し、第2輪郭線画像を生成する。複雑さパラメータの値が大きくなるほど、車両の周辺環境の変化の度合いが大きくなる。したがって、複雑さパラメータの値が大きいほど、輪郭線の濃度を濃くする。輪郭線の濃度は、輪郭線を太くすると濃くなる。   The outline color / density changing unit 58 changes the density of the outline of the first outline image according to the complexity parameter 4 to generate a second outline image. The greater the value of the complexity parameter, the greater the degree of change in the surrounding environment of the vehicle. Therefore, the greater the value of the complexity parameter, the denser the contour. The density of the outline becomes thicker as the outline becomes thicker.

背景抽出部62は、カメラ映像である第1画像から背景画像を分離する。例えば、撮影時間が前後する複数の画像を合成することで、動いている物体が消えて背景画像が分離される。ここで「動いている物体」とは、撮影部の視野内に出現したり、視野内から消えたりする物体のことである。画像合成部60は、背景画像と第2輪郭線画像とを合成して合成画像(第2画像)を生成する。例えば、画素毎に、背景画像の画素値と、第2輪郭線画像の画素値との和を求める。   The background extraction unit 62 separates the background image from the first image which is a camera image. For example, by combining a plurality of images whose imaging times are before and after, a moving object disappears and a background image is separated. Here, "moving object" refers to an object that appears in the field of view of the imaging unit or disappears in the field of view. The image combining unit 60 combines the background image and the second outline image to generate a combined image (second image). For example, for each pixel, the sum of the pixel value of the background image and the pixel value of the second contour image is obtained.

輪郭抽出部56、輪郭色/濃度変更部58、画像合成部60、及び背景抽出部62の各部の機能は、画像にエフェクトを掛けるエフェクタにより実行される。輪郭線抽出を行うエフェクタとしては、「SKETCHER」などが挙げられる。輪郭線の色や濃度を変更するエフェクタとしては、「2TONER」などが挙げられる。背景画像を抽出するエフェクタとしては、「SLIDER」などが挙げられる。「SLIDER」は、ディレイを掛けた複数の画像を重ねることにより、動いている物体を消す。   The functions of the contour extraction unit 56, the contour color / density change unit 58, the image combining unit 60, and the background extraction unit 62 are executed by an effector that applies an effect to the image. As an effector which performs outline extraction, "SKETCHER" etc. are mentioned. Examples of the effector that changes the color and density of the outline include "2TONER". As an effector which extracts a background image, "SLIDER" etc. are mentioned. "SLIDER" erases a moving object by superimposing a plurality of delayed images.

上記の例では、画像全体にエフェクトを掛け、エフェクトを掛ける度合いを制御しているが、画像の一部分にエフェクトを掛け、エフェクトを掛ける部分領域の大きさを制御してもよい。   In the above example, the effect is applied to the entire image to control the degree of application, but a part of the image may be applied to the effect to control the size of the partial area to which the effect is applied.

(プログラム)
次に、「画像生成処理」を実行するプログラムについて説明する。
図9は第1の実施の形態に係る「画像生成処理」を実行するプログラムの流れを示すフローチャートである。図10は図9の「エフェクト処理」を実行するプログラムの流れを示すフローチャートである。「画像生成処理」及び「エフェクト処理」は、処理の実行を開始する指示があると、画像生成装置10のCPU30Aにより実行される。
(program)
Next, a program for executing the “image generation process” will be described.
FIG. 9 is a flow chart showing the flow of a program for executing the “image generation process” according to the first embodiment. FIG. 10 is a flowchart showing the flow of a program for executing the “effect process” of FIG. The “image generation process” and the “effect process” are executed by the CPU 30A of the image generation apparatus 10 when an instruction to start the execution of the process is issued.

まず、ステップ100で、メモリに記憶された第1画像データを取得する。次に、ステップ102で、第1画像データから複雑さパラメータ4を生成する。次に、ステップ104で、第1画像に対し「エフェクト処理」を行って、第2画像を生成する。次に、ステップ106で、第2画像に応じた第2画像データを出力して、ルーチンを終了する。   First, in step 100, the first image data stored in the memory is acquired. Next, at step 102, a complexity parameter 4 is generated from the first image data. Next, in step 104, “effect processing” is performed on the first image to generate a second image. Next, at step 106, the second image data corresponding to the second image is output, and the routine is ended.

エフェクト処理では、まず、ステップ200で、第1画像の輪郭線を抽出した第1輪郭画像を生成する。次に、ステップ202で、第1輪郭画像の輪郭線の色及び濃度の少なくとも一方を、複雑さパラメータ4に応じて変更する。第1輪郭画像から、第2輪郭画像が生成される。次に、ステップ204で、第1画像から背景画像を分離する。次に、ステップ206で、第2輪郭画像と背景画像とを合成して、ルーチンを終了する。   In the effect processing, first, at step 200, a first outline image is generated by extracting the outline of the first image. Next, at step 202, at least one of the color and the density of the outline of the first outline image is changed according to the complexity parameter 4. A second contour image is generated from the first contour image. Next, in step 204, the background image is separated from the first image. Next, in step 206, the second contour image and the background image are synthesized, and the routine is ended.

(画像処理)
図11(A)〜(E)は画像処理の手順を説明するための図である。図11(A)は撮影されたカメラ映像、図11(B)は第1輪郭線画像、図11(C)は輪郭線の濃度が薄く変更された第2輪郭線画像、図11(D)は背景画像、図11(E)は合成画像を示す。
(Image processing)
FIGS. 11A to 11E are diagrams for explaining the procedure of image processing. 11 (A) is a photographed camera image, FIG. 11 (B) is a first outline image, FIG. 11 (C) is a second outline image in which the density of the outline is lightly changed, FIG. 11 (D) Shows a background image, and FIG. 11E shows a composite image.

図11(A)に示すカメラ映像(第1画像)は、車両の周辺環境にあまり変化がない状況で撮影された画像である。車両の周辺環境の変化が少ない場合は、複雑さパラメータ4が小さくなる。複雑さパラメータ4が小さくなると、図11(C)に示すように、第2輪郭線画像では輪郭線の濃度が薄くなる。   The camera image (first image) shown in FIG. 11A is an image taken in a situation where there is not much change in the environment around the vehicle. If the change in the surrounding environment of the vehicle is small, the complexity parameter 4 becomes smaller. As the complexity parameter 4 decreases, as shown in FIG. 11C, in the second contour image, the density of the contour decreases.

一方、カメラ映像(第1画像)から背景画像が分離された結果、図11(D)に示す背景画像では、側方の建物等が無くなっている。図11(D)に示す背景画像に図11(C)に示す第2輪郭線画像が合成されて、図11(E)に示す合成画像(第2画像)が生成される。   On the other hand, as a result of the background image being separated from the camera image (first image), the building and the like on the side are eliminated in the background image shown in FIG. The second outline image shown in FIG. 11C is synthesized with the background image shown in FIG. 11D to generate a synthesized image (second image) shown in FIG.

図12(A)〜(E)は画像処理の手順を説明するための図である。図12(A)は撮影されたカメラ映像、図12(B)は第1輪郭線画像、図12(C)は輪郭線の濃度が濃く変更された第2輪郭線画像、図12(D)は背景画像、図12(E)は合成画像を示す。   12A to 12E are diagrams for explaining the procedure of the image processing. 12 (A) is a captured camera image, FIG. 12 (B) is a first outline image, FIG. 12 (C) is a second outline image in which the density of the outline is changed to be dark, FIG. 12 (D) Shows a background image, and FIG. 12 (E) shows a composite image.

図12(A)に示すカメラ映像(第1画像)は、車両の周辺環境に木が沢山ある等、車両の周辺環境に変化が多い状況で撮影された画像である。車両の周辺環境の変化が多い場合は、複雑さが増した状態であり、複雑さパラメータ4が大きくなる。複雑さパラメータ4が大きくなると、図12(C)に示すように、第2輪郭線画像では輪郭線の濃度が濃くなる。輪郭線の色は、例えば、木の色(緑)等、第1画像を代表する色とする。   The camera image (first image) shown in FIG. 12A is an image captured in a situation where there are many changes in the surrounding environment of the vehicle, such as many trees in the surrounding environment of the vehicle. When there are many changes in the surrounding environment of the vehicle, the complexity is increased, and the complexity parameter 4 is increased. As the complexity parameter 4 increases, as shown in FIG. 12 (C), the density of the outline becomes dense in the second outline image. The color of the outline is, for example, a color representative of the first image, such as the color of a tree (green).

一方、カメラ映像(第1画像)から背景画像が分離された結果、図12(D)に示す背景画像では、具体的な木の形が無くなっている。図12(D)に示す背景画像に図12(C)に示す第2輪郭線画像が合成されて、図12(E)に示す合成画像(第2画像)が生成される。第2画像では、緑色の輪郭線がはっきり見えている。   On the other hand, as a result of the background image being separated from the camera image (first image), the specific tree shape disappears in the background image shown in FIG. 12 (D). The second outline image shown in FIG. 12C is synthesized with the background image shown in FIG. 12D to generate a synthesized image (second image) shown in FIG. In the second image, the green outline is clearly visible.

複雑さパラメータ4に応じて輪郭線の濃度を変更することで、車両の周辺環境の変化に応じて第2画像が変化する。変化が乏しいところから、カーブして複雑な場所に来たときなどは、輪郭がどんどん現れてきて、第2画像の鑑賞者に「劇的な」感じを与えることができる。車両の周辺環境の変化に応じて映像に抑揚がつく。劇的に変わる映像が、鑑賞者に特別な場所に来た感じを与え、車両の運転という日常の行為に対して付加価値を付与する。   By changing the density of the outline according to the complexity parameter 4, the second image changes according to the change of the surrounding environment of the vehicle. Contours appear more and more, giving a "dramatic" feel to the viewer of the second image, when there is little change, and when a curved and complex place is reached. According to the change in the surrounding environment of the vehicle, the image is toned. The dramatically changing image gives the viewer a feeling of coming to a special place and adds value to the everyday activities of driving a vehicle.

<第2の実施の形態>
第2の実施の形態では、車両の周辺を撮影したカメラ映像から、複雑さパラメータ4を生成する点は、第1の実施の形態と同様である。第2の実施の形態では、生成された複雑さパラメータ4に応じた速度で、帯状の図形を一方向に移動させてグラデーション画像(動画像)を生成する。このとき、第1画像から色情報を抽出し、抽出された色情報に応じて帯状の図形の色を変化させる。
Second Embodiment
The second embodiment is the same as the first embodiment in that the complexity parameter 4 is generated from a camera image obtained by photographing the periphery of a vehicle. In the second embodiment, a band-like figure is moved in one direction at a speed according to the generated complexity parameter 4 to generate a gradation image (moving image). At this time, color information is extracted from the first image, and the color of the strip-shaped figure is changed according to the extracted color information.

第2の実施の形態でも、車両に搭乗して走行するという日常の行為により、新たな画像が自動的に作成される。著作権フリーの画像が無尽蔵に作成される。作成された画像は、二次利用も可能である。   Also in the second embodiment, a new image is automatically created by the daily action of getting on the vehicle and traveling. Copyright-free images are created endlessly. The created image can also be used secondarily.

第2の実施の形態でも、撮影部20により撮影された車両の周辺の画像を「第1画像」とし、その画像データを「第1画像データ」とする。また、情報処理部30で生成される動画像を「グラデーション画像」と称する。   Also in the second embodiment, an image around the vehicle captured by the imaging unit 20 is referred to as a “first image”, and the image data thereof is referred to as “first image data”. Also, a moving image generated by the information processing unit 30 is referred to as a “gradation image”.

(グラデーション画像)
ここで、グラデーション画像について説明する。
図13は第2実施の形態で生成されるグラデーション画像の一例を示す図である。グラデーション画像は、帯状の図形(以下、「帯」という。)82が、画面80の一端から他端まで移動することにより生成される。図示した例では、帯82は、画面80の上端に出現し、画面80の上端から下端まで矢印方向に移動して、画面80の下端に到達すると消える。
(Gradation image)
Here, the gradation image will be described.
FIG. 13 is a view showing an example of a gradation image generated in the second embodiment. The gradation image is generated by moving a strip-shaped graphic (hereinafter referred to as a “strip”) 82 from one end of the screen 80 to the other end. In the illustrated example, the band 82 appears at the upper end of the screen 80, moves in the arrow direction from the upper end to the lower end of the screen 80, and disappears when the lower end of the screen 80 is reached.

例えば、画面80の各隅の座標を、上左端(0,0)、上右端(448,0)、下左端(0,469)、下右端(448,469)とする。帯82の各隅の座標を、上左端(0,y)、上右端(448,y)、下左端(0,y+20)、下右端(448,y+20)とする。帯82の長さは「449(=469-20)」であり、帯82の幅は「20」である。   For example, the coordinates of each corner of the screen 80 are the upper left end (0, 0), the upper right end (448, 0), the lower left end (0, 469), and the lower right end (448, 469). The coordinates of each corner of the band 82 are the upper left end (0, y), the upper right end (448, y), the lower left end (0, y + 20), and the lower right end (448, y + 20). The length of the band 82 is "449 (= 469-20)", and the width of the band 82 is "20".

上記の通り、帯82の位置座標は「y」の値で表される。図示した例では、yの値は、0から449まで変化する。例えば、帯82の位置座標を、カウンタのカウント値に応じて変化させてもよい。カウント値は、カウンタに信号が1つ入るたびに1つ増える。カウンタに信号を入れる間隔を、遅延装置等を用いて複雑さパラメータ4に応じて変化させる。帯82の移動速度が、複雑さパラメータ4に応じて変化する。   As described above, the position coordinates of the band 82 are represented by the value of "y". In the illustrated example, the value of y varies from 0 to 449. For example, the position coordinates of the band 82 may be changed according to the count value of the counter. The count value is incremented by one each time a signal is input to the counter. The interval at which the signal is applied to the counter is changed according to the complexity parameter 4 using a delay device or the like. The moving speed of the band 82 changes according to the complexity parameter 4.

複雑さパラメータ4が大きい(周辺環境に変化が大きい)場合は、カウンタに入る信号の間隔を短くして、帯82の移動速度を速くする。複雑さパラメータ4が小さい(周辺環境に変化が小さい)場合は、カウンタに入る信号の間隔を長くして、帯82の移動速度を遅くする。   If the complexity parameter 4 is large (a change in the surrounding environment is large), the interval between signals entering the counter is shortened to speed up the moving speed of the band 82. If the complexity parameter 4 is small (the change in the surrounding environment is small), the interval between signals entering the counter is increased to slow the moving speed of the band 82.

帯82の色は、車両の周辺を撮影したカメラ映像(第1画像)から抽出された色とする。帯82の色は、第1画像の全部または一部を代表する代表色としてもよい。例えば、第1画像を車両の高さ方向に三分割し、中央部分から代表色を抽出する。第1画像の上部には空が写り込み空の色が中心になり、下部には道路やボンネットが写り込みこれらの色が中心になる。第1画像の中央部分の色を用いた方が、車両の周辺環境の変化が色に反映され易い。   The color of the band 82 is a color extracted from a camera image (first image) obtained by photographing the periphery of the vehicle. The color of the band 82 may be a representative color that represents all or part of the first image. For example, the first image is divided into three in the height direction of the vehicle, and the representative color is extracted from the central portion. The sky is reflected at the top of the first image and the color of the sky is at the center, and the color of the road and bonnet is at the bottom of the first image. When the color of the central portion of the first image is used, the change in the surrounding environment of the vehicle is more easily reflected in the color.

本実施の形態では、中央部分から代表色を抽出する。第1画像の中央部分の各画素の画素値を、RGB各色に分けると、RGB各色の比率が求められる。得られた比率でRGB各色を混合した色を、第1画像の中央部分の代表色とする。得られた代表色が、カメラ映像(第1画像)から求めた、車両の周辺環境を表す色である。車両の周辺環境が変化すると、帯82の色もそれに応じて変化する。   In the present embodiment, representative colors are extracted from the central portion. When the pixel value of each pixel in the central portion of the first image is divided into each color of RGB, the ratio of each color of RGB can be obtained. A color obtained by mixing the RGB colors at the obtained ratio is set as a representative color of the central portion of the first image. The obtained representative color is a color representing the environment around the vehicle, which is obtained from the camera image (first image). As the surrounding environment of the vehicle changes, the color of the band 82 also changes accordingly.

また、帯82の色は、代表色を「差し色」で補正した補正色としてもよい。第1画像の中央部分には様々な色がある。各画素の画素値のばらつきが大きいほど、代表色は灰色に近くなる。帯82の色を明るくするために、差し色を用いて代表色を補正してもよい。   In addition, the color of the band 82 may be a corrected color obtained by correcting the representative color with the “separating color”. There are various colors in the central part of the first image. The greater the variation in pixel value of each pixel, the closer the representative color is to gray. In order to make the color of the band 82 brighter, the representative color may be corrected using the alternative color.

差し色は、赤、だいだい、黄色、緑、水色、青、紫の7色である。第1画像の中央部分から抽出した代表色において色成分が一番多い色を、その代表色に対する「差し色」と特定する。そして、第1画像の中央部分の代表色と、特定された「差し色」とを混ぜた補正色を、帯82の色とする。   The color to be added is seven colors of red, yellow, green, light blue, blue and purple. The color having the largest number of color components in the representative color extracted from the central portion of the first image is specified as the “supplementary color” for the representative color. Then, the correction color in which the representative color of the central portion of the first image and the specified “foreground color” are mixed is set as the color of the band 82.

車両の周辺環境を表す色の帯82を、複雑さパラメータ4に応じた移動速度で、画面80の上端から下端まで移動させることにより、グラデーション画像が生成される。車両の周辺環境が、帯82の色と動きで表される。   A gradation image is generated by moving the color band 82 representing the environment around the vehicle from the upper end to the lower end of the screen 80 at a moving speed according to the complexity parameter 4. The surrounding environment of the vehicle is represented by the color and movement of the band 82.

グラデーション画像は、例えば、いわゆるアンビエント照明(環境照明)として車両内に投影される。グラデーション画像は、車両内の床や側方下側など、搭乗者が正面を向いている場合には「周辺視野」となる部分に投影される。車両内の床とは、運転席、助手席、後部座席の下の床の部分である。車両内の側方下側とは、ドア下側等である。   Gradation images are, for example, projected into the vehicle as so-called ambient lighting (ambient lighting). The gradation image is projected to a portion such as a floor or a side lower side in the vehicle, which is a "peripheral view" when the passenger is facing the front. The floor in the vehicle is a portion of the floor under the driver's seat, the passenger's seat, and the rear seat. The side lower side in a vehicle is a door lower side etc.

車両の周辺環境に応じて色が変化する画像を車両内に投影することにより、車両の外部と内部とを色で結びつけ、搭乗者の意識を車両の周辺環境に向けさせる。例えば、黄緑のグラデーション画像が投影されると、田んぼの稲穂などに目が行き易くなる。このようにして、搭乗者が周辺環境に気付くように仕向けている。   By projecting an image whose color changes in accordance with the surrounding environment of the vehicle into the vehicle, the outside and the inside of the vehicle are connected by colors, and the awareness of the passenger is directed to the surrounding environment of the vehicle. For example, when a yellowish-green gradation image is projected, it becomes easy to look at rice fields such as rice fields. In this way, passengers are sent to notice the surrounding environment.

画面全体の色が大きく変わるとちらつきを感じる。ちらつきは運転の妨げにもなる。グラデーション画像なら、画面の一部の色が徐々に変わるのでちらつきを感じない。グラデーション画像は、車両の周辺環境に応じて変化するので、車両で移動しているイメージを持たせる助けになる。また、グラデーション画像によれば、揺らいでいる感じがでるし、飽きさせない効果がある。   I feel flicker when the color of the whole screen changes a lot. Flickering also interferes with driving. If it is a gradation image, the color of part of the screen will gradually change and you will not feel the flicker. The gradation image changes in accordance with the surrounding environment of the vehicle, and thus helps to provide an image moving by the vehicle. In addition, according to the gradation image, there is an effect that the user feels shaking and does not get bored.

上記の例では、差し色は、車両の周辺環境を表す代表色に応じて変化するが、差し色を特定色に固定してもよい。例えば、温かい感覚を誘起する場合は差し色を「赤」とし、涼しい感覚を誘起する場合は差し色を「青」とする。特定色を基調とするグラデーション画像により、心理効果を利用して特定の感覚を誘起する。   In the above example, the color to be changed changes in accordance with the representative color representing the surrounding environment of the vehicle, but the color to be changed may be fixed to a specific color. For example, in the case of inducing a warm sensation, the opposite color is "red", and in the case of inducing a cool sensation, the opposite color is "blue". A gradation image based on a specific color induces a specific sensation using psychological effects.

夏、車両内が非常に暑くなっている場合に、車両に乗り込んでしばらくは、涼しい感覚を誘起する「青」を基調としたグラデーション画像を車両内に投影して搭乗者を向かえる。水やカエルの音など、涼しげな効果音を併せて出力してもよい。逆に、冬は、温かい感覚を誘起する「赤」を基調としたグラデーション画像を車両内に投影して搭乗者を向かえる。冬の場合は、暖炉の音など、温かそうな効果音を併せて出力してもよい。   In summer, when the inside of the vehicle is very hot, the driver gets into the vehicle and for a while, a gradation image based on "blue" which induces a cool feeling is projected on the inside of the vehicle to face the passenger. You may also output cool sound effects such as water and frog sounds. On the contrary, in winter, a gradation image based on "red" which induces a warm feeling is projected on the inside of the vehicle to face the passenger. In winter, warm sound effects such as the sound of a fireplace may be output together.

(動作の概略)
次に、画像生成装置の動作について説明する。
図14は第2の実施の形態に係る画像生成装置の動作の概略を示す模式図である。図14に示すように、第2の実施の形態では、車両の周辺を撮影したカメラ映像(第1画像)から、複雑さパラメータを生成する。移動させる図形の形状(帯の長さや幅)、移動経路の初期値、及び移動速度の初期値等を設定する。
(Outline of operation)
Next, the operation of the image generation apparatus will be described.
FIG. 14 is a schematic view showing an outline of the operation of the image generation apparatus according to the second embodiment. As shown in FIG. 14, in the second embodiment, a complexity parameter is generated from a camera image (first image) obtained by imaging the periphery of a vehicle. The shape of the figure to be moved (the length and width of the band), the initial value of the movement path, and the initial value of the movement speed are set.

第1画像から色情報を抽出し、抽出された色情報を帯の色として設定する。上記の通り、帯の色は、代表色または補正色に設定される。代表色または補正色の帯を、生成された複雑さパラメータ4に応じた速度で移動させて、第1画像とは別に「グラデーション画像」を生成する。ここでは、図形の移動速度を変えることを「エフェクト」と称する。   Color information is extracted from the first image, and the extracted color information is set as the color of the band. As described above, the color of the band is set to the representative color or the correction color. A band of the representative color or the correction color is moved at a speed according to the generated complexity parameter 4 to generate a "gradation image" separately from the first image. Here, changing the moving speed of the figure is referred to as "effect".

第2の実施の形態では、帯状の図形が複雑さパラメータ4に応じた移動速度で移動するように、画像処理を制御する。これにより、車両の周辺環境の変化に応じたグラデーション画像が生成される。車両の周辺環境の変化が大きいほど、図形の移動速度が速くなり、グラデーションが粗くなる。カメラ映像より抽象化されたグラデーション画像により、車両の周辺環境の雰囲気が表現される。   In the second embodiment, image processing is controlled so that the strip-shaped figure moves at a moving speed according to the complexity parameter 4. Thereby, a gradation image according to the change of the surrounding environment of the vehicle is generated. The greater the change in the surrounding environment of the vehicle, the faster the moving speed of the figure, and the coarser the gradation. The gradation image abstracted from the camera image expresses the atmosphere of the environment around the vehicle.

グラデーション画像は車両内に投影されるが、搭乗者が見てもちらつきを感じない。グラデーション画像が、車両の周辺環境を表す色で構成されることにより、搭乗者に周辺環境を意識させる。グラデーション画像は、車両の周辺環境に応じて変化するので、車両で移動しているイメージを持たせる助けになる。   The gradation image is projected into the vehicle, but the rider does not notice flicker when viewed. The gradation image is made up of colors representing the surrounding environment of the vehicle, thereby making the passenger aware of the surrounding environment. The gradation image changes in accordance with the surrounding environment of the vehicle, and thus helps to provide an image moving by the vehicle.

(画像生成装置の構成)
次に、画像生成装置の機能構成について説明する。
図15は第2の実施の形態に係る情報処理部の構成の一例を示すブロック図である。図15に示すように、情報処理部30は、メモリ50、パラメータ生成部52、動き制御部64、色情報抽出部66、色設定部68、及び動画像生成部70を備えている。撮影部20から取得された第1画像データは、メモリ50に記憶される。パラメータ生成部52は、第1画像データをメモリ50から取得し、第1画像データから複雑さパラメータを生成する。
(Configuration of image generation apparatus)
Next, the functional configuration of the image generation apparatus will be described.
FIG. 15 is a block diagram showing an example of the configuration of an information processing unit according to the second embodiment. As shown in FIG. 15, the information processing unit 30 includes a memory 50, a parameter generation unit 52, a motion control unit 64, a color information extraction unit 66, a color setting unit 68, and a moving image generation unit 70. The first image data acquired from the imaging unit 20 is stored in the memory 50. The parameter generation unit 52 acquires the first image data from the memory 50, and generates a complexity parameter from the first image data.

動画像生成部70は、帯の形状(長さや幅)、移動経路の初期値、及び移動速度の初期値等を設定する。色情報抽出部66は、第1画像の中央部分から代表色を抽出する。また、必要に応じて、代表色を「差し色」で補正して補正色を求める。色設定部68は、帯の色を、代表色または補正色に設定する。   The moving image generation unit 70 sets the shape (length and width) of the band, the initial value of the movement path, and the initial value of the movement speed. The color information extraction unit 66 extracts a representative color from the central portion of the first image. In addition, if necessary, the representative color is corrected by the "separating color" to obtain a corrected color. The color setting unit 68 sets the color of the band to the representative color or the correction color.

動き制御部64は、複雑さパラメータ4に応じた移動速度を求める。動き制御部64は、動画像生成部70によりグラデーション画像を生成する際に、色設定部68により設定された色の帯が、複雑さパラメータ4に応じた移動速度で移動するように、動画像生成部70を制御する。動画像生成部70は、グラデーション画像を生成する。情報処理部30は、グラデーション画像を表す画像データを出力する。   The motion control unit 64 obtains a moving speed according to the complexity parameter 4. When the motion control unit 64 generates the gradation image by the moving image generation unit 70, the moving image is moved so that the color band set by the color setting unit 68 moves at a moving speed according to the complexity parameter 4 The generation unit 70 is controlled. The moving image generator 70 generates a gradation image. The information processing unit 30 outputs image data representing a gradation image.

(プログラム)
次に、「画像生成処理」を実行するプログラムについて説明する。
図16は第2の実施の形態に係る「画像生成処理」を実行するプログラムの流れを示すフローチャートである。「画像生成処理」は、画像生成を開始する指示があると、画像生成装置10のCPU30Aにより実行される。
(program)
Next, a program for executing the “image generation process” will be described.
FIG. 16 is a flowchart showing the flow of a program for executing the “image generation process” according to the second embodiment. The “image generation process” is executed by the CPU 30A of the image generation apparatus 10 when an instruction to start image generation is issued.

まず、ステップ300で、メモリに記憶された第1画像データを取得する。次に、ステップ302で、第1画像データから色情報を抽出する。次に、ステップ304で、抽出された色情報から、帯の色を設定する。帯の色は、代表色または補正色に設定される。   First, in step 300, the first image data stored in the memory is acquired. Next, in step 302, color information is extracted from the first image data. Next, in step 304, the color of the band is set from the extracted color information. The color of the band is set to the representative color or the correction color.

次に、ステップ306で、帯の移動を開始するか否かを判断する。前の帯が画面の下端に到達して消えると、次の帯が画面の上端に出現して移動を開始する。帯の移動を開始するまで、ステップ306の判断を繰り返し行う。帯の移動を開始する場合は、ステップ308に進み、ステップ308で、最新の第1画像データを取得する。   Next, in step 306, it is determined whether to start moving the band. When the previous band reaches the bottom of the screen and disappears, the next band appears at the top of the screen and starts moving. The determination in step 306 is repeated until the movement of the band is started. If the movement of the band is to be started, the process proceeds to step 308, and at step 308, the latest first image data is acquired.

次に、ステップ310で、最新の第1画像データから複雑さパラメータ4を生成する。次に、ステップ312で、複雑さパラメータ4から、帯の移動速度を算出する。次に、ステップ314で、算出された移動速度で帯が下方に移動するように、動画生成部を制御する。   Next, at step 310, the complexity parameter 4 is generated from the latest first image data. Next, at step 312, from the complexity parameter 4, the moving speed of the band is calculated. Next, in step 314, the moving image generation unit is controlled so that the band moves downward at the calculated moving speed.

次に、ステップ316で、帯の移動が終了したか否かを判断する。帯の移動が終了した場合は、ステップ318に進む。帯の移動が終了していない場合は、ステップ308に戻って、ステップ308からステップ316までの手順を繰り返し行う。逐次、最新の第1画像データを取得して、複雑さパラメータ4を生成し、複雑さパラメータ4に応じた移動速度を算出して、算出された移動速度で帯を移動させる。   Next, in step 316, it is determined whether or not the movement of the band is completed. If the movement of the band is completed, the process proceeds to step 318. If the movement of the band has not ended, the process returns to step 308, and the procedure from step 308 to step 316 is repeated. The latest first image data is sequentially acquired, a complexity parameter 4 is generated, a moving speed according to the complexity parameter 4 is calculated, and the band is moved at the calculated moving speed.

次に、ステップ318で、画像生成が終了したか否かを判断する。画像生成が終了した場合は、ルーチンを終了する。画像生成が終了していない場合は、ステップ300に戻って、ステップ300からステップ318までの手順を繰り返し行う。逐次、帯の色が設定され、設定された色の新しい帯が出現し、画面の上端から下端まで移動する。   Next, in step 318, it is determined whether the image generation has ended. If the image generation is completed, the routine ends. If the image generation has not been completed, the process returns to step 300 and the procedure from step 300 to step 318 is repeated. Sequentially, the color of the band is set, a new band of the set color appears, and it moves from the top to the bottom of the screen.

(具体例1)
次に、グラデーション画像の具体例1について説明する。図17(A)〜(D)の各々は、カメラ映像に対応するグラデーション画像の具体例1を示す図である。左側がカメラ映像であり、右側が対応するグラデーション画像である。車両の周辺環境の変化が大きいほど、図形の移動速度が速くなり、グラデーションが粗くなる。
(Specific example 1)
Next, specific example 1 of the gradation image will be described. Each of FIGS. 17A to 17D is a view showing a first specific example of the gradation image corresponding to the camera image. The left side is a camera image, and the right side is a corresponding gradation image. The greater the change in the surrounding environment of the vehicle, the faster the moving speed of the figure, and the coarser the gradation.

図17(A)に示すカメラ映像に対し、図17(A)に示すグラデーション画像が得られる。この例での車両の周辺環境の変化を「中」程度とし、グラデーションの密度を「中」程度とする。   A gradation image shown in FIG. 17A is obtained for the camera image shown in FIG. The change in the surrounding environment of the vehicle in this example is "medium", and the density of gradation is "medium".

図17(B)に示すカメラ映像では、トンネルで同じ周囲環境が続くので、図17(A)に示すカメラ映像に比べて、車両の周辺環境の変化は少ない。車両の周辺環境の変化が少ないと、帯がゆっくりと移動する。このため、図17(B)に示すグラデーション画像では、図17(A)に示すグラデーション画像よりもグラデーションが細かくなる。   In the camera image shown in FIG. 17 (B), the same surrounding environment continues in the tunnel, so there is less change in the environment around the vehicle than the camera image shown in FIG. 17 (A). The band moves slowly when there is little change in the surrounding environment of the vehicle. Therefore, in the gradation image shown in FIG. 17 (B), the gradation becomes finer than the gradation image shown in FIG. 17 (A).

図17(C)に示すカメラ映像では、車両の周辺に障壁があり、図17(A)に示すカメラ映像に比べて、車両の周辺環境の変化が大きい。車両の周辺環境の変化が大きいと、帯が速く移動する。このため、図17(C)に示すグラデーション画像では、図17(A)に示すグラデーション画像よりもグラデーションが粗くなる。   In the camera image shown in FIG. 17C, there is a barrier around the vehicle, and the change in the surrounding environment of the vehicle is larger than that of the camera image shown in FIG. When the change in the surrounding environment of the vehicle is large, the band moves fast. For this reason, in the gradation image shown in FIG. 17 (C), the gradation becomes rougher than that of the gradation image shown in FIG. 17 (A).

図17(D)に示すカメラ映像では、左側は変化しないが、右側が絶えず変化するので、図17(A)に示すカメラ映像と同様に、車両の周辺環境の変化は中程度になる。このため、図17(D)に示すグラデーション画像では、図17(A)に示すグラデーション画像と同様に、グラデーションの密度は中程度となる。   In the camera image shown in FIG. 17 (D), the left side does not change, but the right side changes constantly, so the change in the surrounding environment of the vehicle becomes moderate as in the camera image shown in FIG. 17 (A). For this reason, in the gradation image shown in FIG. 17 (D), the density of gradation is medium as in the case of the gradation image shown in FIG. 17 (A).

(具体例2)
次に、グラデーション画像の具体例2について説明する。この例では、色の心理効果を利用して、暑い時に涼しく、寒い時に温かく感じさせる。図26(A)〜(D)の各々は、カメラ映像に対応するグラデーション画像の具体例2を示す図である。左側がカメラ映像であり、右側が対応するグラデーション画像である。
(Specific example 2)
Next, specific example 2 of the gradation image will be described. In this example, the psychological effect of color is used to make it feel cool when it is hot and warm when it is cold. Each of FIGS. 26A to 26D is a view showing a second specific example of the gradation image corresponding to the camera image. The left side is a camera image, and the right side is a corresponding gradation image.

図26(A)に示すカメラ映像では、車両が移動状態から停止状態に入ったため、車両の周辺環境が大きく変化する。車両の周辺環境の変化が大きいと、帯がゆっくりと移動する。このため、図26(A)に示すグラデーション画像では、グラデーションが粗くなる。   In the camera image shown in FIG. 26A, since the vehicle enters the stop state from the moving state, the environment around the vehicle changes significantly. The band moves slowly when the surrounding environment of the vehicle changes significantly. Therefore, in the gradation image shown in FIG. 26A, the gradation becomes rough.

図26(B)及び図26(C)に示すカメラ映像では、車両の周辺環境の変化が単調である。車両の周辺環境の変化が少ないと、帯の移動速度が速くなる。このため、図26(B)及び図26(C)に示すグラデーション画像では、グラデーションが細かくなる。   In the camera images shown in FIGS. 26 (B) and 26 (C), the change in the surrounding environment of the vehicle is monotonous. The less the change in the environment around the vehicle, the faster the band will move. Therefore, in the gradation image shown in FIG. 26 (B) and FIG. 26 (C), the gradation becomes finer.

図26(D)に示すカメラ映像では、車両の周辺環境がやや複雑である。このため、図26(D)に示すグラデーション画像では、グラデーションが粗くなる。   In the camera image shown in FIG. 26 (D), the surrounding environment of the vehicle is somewhat complicated. Therefore, in the gradation image shown in FIG. 26D, the gradation becomes rough.

また、図26(A)〜(D)のグラデーション画像では、特定の色を基調として、温かい、涼しい等の感覚や、水や炎のイメージを色で表現している。青色や赤色のグラデーションとなっており、色の持つイメージ効果がある。   Further, in the gradation images of FIG. 26A to FIG. 26D, the sense of warm or cool and the image of water or flame are expressed by colors based on a specific color. It has a blue and red gradation, and has an image effect with color.

温かい、涼しい等の特定の感覚を誘導する特定色のグラデーション画像は、特定の感覚を誘導する外に、搭乗者の足元に表示されると、グラデーション画像の揺れる動きが、水が揺れているイメージや炎がちろちろ揺らいでいるイメージと重なり、より効果的に感じる。   The gradation image of a specific color, which induces a specific sensation such as warm or cool, induces a specific sensation, and when it is displayed at the foot of the passenger, the swaying movement of the gradation image causes the water to shake. It feels more effective by overlapping with the image that is swaying with fire and flames.

図26(A)及び(B)は、水のイメージを青色で表す。車両内の床や側面が青色になり涼しく感じる。涼やかな音と合わせると効果的である。図26(C)及び(D)は、火のイメージを青色で表す。車両内の床や側面が赤色になり温かく感じる。火や熱風の音と合わせると効果的である。   Figures 26 (A) and (B) represent the image of water in blue. The floor and sides in the vehicle become blue and feel cool. It is effective to combine it with a cool sound. 26 (C) and (D) represent the image of fire in blue. The floor and sides in the vehicle turn red and feel warm. It is effective to combine it with the sound of fire and hot air.

<第3の実施の形態>
第3の実施の形態では、車両の周辺を撮影したカメラ映像から、複雑さパラメータ4を生成する点は、第1の実施の形態と同様である。第3の実施の形態では、生成された複雑さパラメータ4に応じた速度で、予め定めた形状の図形を移動させて新たな動画像を生成する。図形の形状は「帯状」に限定されない。図形の色も任意に設定される。ここでは、図形の移動速度を変えることを「エフェクト」と称する。
Third Embodiment
The third embodiment is the same as the first embodiment in that the complexity parameter 4 is generated from a camera image obtained by photographing the periphery of a vehicle. In the third embodiment, a graphic of a predetermined shape is moved at a speed according to the generated complexity parameter 4 to generate a new moving image. The shape of the figure is not limited to "strip". The color of the figure is also set arbitrarily. Here, changing the moving speed of the figure is referred to as "effect".

第3の実施の形態でも、車両に搭乗して走行するという日常の行為により、新たな動画像が自動的に作成される。著作権フリーの画像が無尽蔵に作成される。作成された画像は、二次利用も可能である。   Also in the third embodiment, a new moving image is automatically created by the daily action of getting on the vehicle and traveling. Copyright-free images are created endlessly. The created image can also be used secondarily.

第3の実施の形態でも、撮影部20により撮影された車両の周辺の画像を「第1画像」とし、その画像データを「第1画像データ」とする。また、情報処理部30で生成される動画像を「図形移動画像」と称する。   Also in the third embodiment, an image around the vehicle taken by the imaging unit 20 is referred to as a “first image”, and the image data is referred to as “first image data”. In addition, a moving image generated by the information processing unit 30 is referred to as a “graphic movement image”.

(図形移動画像)
第3の実施の形態では、予め定めた形状の図形を、予め定めた移動経路に沿って移動させて図形移動画像を生成する。予め定めた移動経路としては、閉じた移動経路を設定する。図形は移動経路に沿って繰り返し移動する。移動経路を含む平面を回転させてもよい。なお、移動経路は任意に設定することができる。以下では、図形の形状と動きについて説明する。また、具体的な図形を「オブジェクト」と称する。
(Figure moving image)
In the third embodiment, a figure of a predetermined shape is moved along a predetermined movement path to generate a figure movement image. A closed movement route is set as the predetermined movement route. The figure repeatedly moves along the movement path. The plane including the movement path may be rotated. The movement route can be set arbitrarily. The following describes the shape and movement of the figure. Moreover, a specific figure is called an "object."

オブジェクトの形状と、移動経路の初期値と、移動速度の初期値とを設定する。仮想空間内において、予め定めた形状のオブジェクトを、予め定めた移動速度で、予め定めた移動経路に沿って繰り返し移動させたときの様子を表す動画像を生成する。   The shape of the object, the initial value of the movement path, and the initial value of the movement speed are set. In the virtual space, a moving image is generated that represents a situation in which an object of a predetermined shape is repeatedly moved along a predetermined movement path at a predetermined movement speed.

図18は第3の実施の形態で動画像の生成に用いる図形(オブジェクト)の一例を示す図である。図示した例では、環状の複数のオブジェクト71が図示されているが、オブジェクト71の個数は1つでもよい。オブジェクト71の形状は、特に制限は無く、多角形状、帯状等の二次元形状でもよく、柱状、錐状等の三次元形状でもよい。   FIG. 18 is a view showing an example of a figure (object) used to generate a moving image in the third embodiment. In the illustrated example, a plurality of annular objects 71 are illustrated, but the number of objects 71 may be one. The shape of the object 71 is not particularly limited, and may be a two-dimensional shape such as a polygonal shape or a strip shape, or may be a three-dimensional shape such as a columnar shape or a conical shape.

オブジェクト71の形状は、見る方向によって形状が異なるものが好ましい。例えば、円柱とかトーラスとか、上から見た図と横から見た図が変わる形状が望ましい。複雑さパラメータに応じてオブジェクトを移動させる際に、オブジェクトの移動経路を有する面の角度が変わることにより、違った形状に見えるようになる。   The shape of the object 71 is preferably different depending on the viewing direction. For example, a cylinder, a torus, or a shape that changes between a top view and a side view is desirable. When the object is moved according to the complexity parameter, the angle of the surface having the movement path of the object changes so that it looks different.

図19は図形の移動経路の一例を示す図である。図20は図形の移動経路の他の一例を示す図である。例えば、図19、図20の移動経路の例では、オブジェクト71は、地点(1)から地点(2)、地点(2)から地点(3)、地点(3)から地点(4)、地点(4)から地点(1)へと移動する。オブジェクト71は、複雑さパラメータ4に応じた速度で移動する。   FIG. 19 is a view showing an example of a movement path of a figure. FIG. 20 is a view showing another example of the movement path of the figure. For example, in the example of the movement route of FIG. 19, FIG. 20, the object 71 is a point (1) to a point (2), a point (2) to a point (3), a point (3) to a point (4), a point (4). Move from point 4) to point (1). The object 71 moves at a speed according to the complexity parameter 4.

また、オブジェクト71のサイズを、複雑さパラメータ4に応じて変更してもよい。例えば、複雑さパラメータ4の値が大きいほど、オブジェクトが大きくなるように、オブジェクト71のサイズを変更する。   Also, the size of the object 71 may be changed according to the complexity parameter 4. For example, the size of the object 71 is changed so that the larger the value of the complexity parameter 4, the larger the object.

また、オブジェクト71の色は、第2実施の形態と同様に、第1画像の全部または一部を代表する代表色、または、代表色を差し色で補正した補正色としてもよい。差し色は、温かい場合は「赤」、涼しい場合は「青」というように、特定の感覚を誘導する特定色としてもよい。   Further, as in the second embodiment, the color of the object 71 may be a representative color that represents all or part of the first image, or a corrected color obtained by correcting the representative color with a substitute color. The color to be changed may be a specific color that induces a specific sense, such as “red” for warm and “blue” for cool.

(画像生成装置)
次に、第3の実施の形態に係る画像生成装置について説明する。
図21は第3の実施の形態に係る画像生成装置の動作の概略を示す模式図である。図21に示すように、第3の実施の形態では、車両の周辺を撮影したカメラ映像から、複雑さパラメータ4を生成する。図形の形状、移動経路の初期値、及び移動速度の初期値等を設定する。予め定めた形状の図形を、生成された複雑さパラメータ4に応じた速度で移動させて、カメラ映像とは別に「図形移動画像」を生成する。ここでは、図形の移動速度を変えることを「エフェクト」と称する。
(Image generation device)
Next, an image generation apparatus according to the third embodiment will be described.
FIG. 21 is a schematic view showing an outline of the operation of the image generation apparatus according to the third embodiment. As shown in FIG. 21, in the third embodiment, a complexity parameter 4 is generated from a camera image obtained by photographing the periphery of a vehicle. The shape of the figure, the initial value of the movement path, and the initial value of the movement speed are set. A figure of a predetermined shape is moved at a speed according to the generated complexity parameter 4 to generate a "figure movement image" separately from the camera image. Here, changing the moving speed of the figure is referred to as "effect".

図22は第3の実施の形態に係る情報処理部の構成の一例を示すブロック図である。図22に示すように、情報処理部30は、メモリ50、パラメータ生成部52、動き制御部64、及び動画像生成部70を備えている。撮影部20から取得された第1画像データは、メモリ50に記憶される。パラメータ生成部52は、第1画像データをメモリ50から取得し、第1画像データから複雑さパラメータ4を生成する。   FIG. 22 is a block diagram showing an example of the configuration of an information processing unit according to the third embodiment. As shown in FIG. 22, the information processing unit 30 includes a memory 50, a parameter generation unit 52, a motion control unit 64, and a moving image generation unit 70. The first image data acquired from the imaging unit 20 is stored in the memory 50. The parameter generation unit 52 acquires the first image data from the memory 50, and generates the complexity parameter 4 from the first image data.

動画像生成部70は、オブジェクトの形状と、移動経路の初期値と、移動速度の初期値とを設定する。動き制御部64は、複雑さパラメータ4に応じた移動速度を求める。動き制御部64は、動画像生成部70により動画像を生成する際に、得られた移動速度でオブジェクトが移動するように、動画像生成部70を制御する。動画像生成部70は、図形移動画像を生成する。情報処理部30は、図形移動画像を表す画像データを出力する。   The moving image generation unit 70 sets the shape of the object, the initial value of the movement route, and the initial value of the movement speed. The motion control unit 64 obtains a moving speed according to the complexity parameter 4. The motion control unit 64 controls the moving image generation unit 70 so that the object moves at the obtained moving speed when the moving image generation unit 70 generates a moving image. The moving image generation unit 70 generates a figure movement image. The information processing unit 30 outputs image data representing a figure movement image.

第3の実施の形態では、オブジェクトが複雑さパラメータ4に応じた移動速度で移動するように、画像処理を制御する。これにより、車両の周辺環境の変化に応じた図形移動画像が生成される。カメラ映像より抽象化された図形移動画像により、車両の周辺環境の雰囲気が表現される。   In the third embodiment, image processing is controlled so that the object moves at a moving speed according to the complexity parameter 4. Thereby, the figure movement image according to the change of the surrounding environment of a vehicle is produced | generated. The atmosphere of the surrounding environment of the vehicle is expressed by the figure movement image abstracted from the camera image.

図形移動画像は、グラデーション画像と同様に、車両内に投影されるが、搭乗者が見てもちらつきを感じない。また、図形移動画像は、車両の周辺環境に応じて変化するので、車両で移動しているイメージを持たせる助けになる。   Similar to the gradation image, the figure movement image is projected into the vehicle, but the rider does not notice flicker when viewed. In addition, since the graphic movement image changes in accordance with the surrounding environment of the vehicle, it helps to give an image of the movement by the vehicle.

<第4の実施の形態>
第4の実施の形態は、表示システムに係る実施の形態である。
図23は第4の実施の形態に係る表示システムの構成の一例を示すブロック図である。図23に示すように、表示システム100は、画像生成装置10と表示装置90とを備えている。表示装置90は、例えば自宅等の画像生成装置10とは離れた場所に配置されている。表示装置90は、例えば、搭乗者Aの自宅等に配置される。画像生成装置10は、撮影部20、情報処理部30、及び通信部36を備えている。表示装置90は、通信部92、表示制御部94、及び表示部96を備えている。
Fourth Embodiment
The fourth embodiment is an embodiment according to a display system.
FIG. 23 is a block diagram showing an example of the configuration of a display system according to the fourth embodiment. As shown in FIG. 23, the display system 100 includes an image generation device 10 and a display device 90. The display device 90 is disposed, for example, at a place away from the image generation device 10 such as a home. The display device 90 is disposed, for example, at the home of the passenger A or the like. The image generation device 10 includes a photographing unit 20, an information processing unit 30, and a communication unit 36. The display device 90 includes a communication unit 92, a display control unit 94, and a display unit 96.

画像生成装置10の構成は、第2の実施の形態または第3の実施の形態に係る画像生成装置と同じ構成としてもよい。情報処理部30は、撮影部20から第1画像データを取得し、第1画像データから複雑さパラメータ4を生成する。情報処理部30は、複雑さパラメータ4に応じて変化し、車両の周辺環境を表す「環境画像」を生成する。通信部36は、環境画像の画像データを表示装置90に送信する。   The configuration of the image generation device 10 may be the same as that of the image generation device according to the second embodiment or the third embodiment. The information processing unit 30 acquires the first image data from the imaging unit 20, and generates the complexity parameter 4 from the first image data. The information processing unit 30 changes according to the complexity parameter 4 and generates an “environmental image” representing the surrounding environment of the vehicle. The communication unit 36 transmits the image data of the environmental image to the display device 90.

画像生成装置10の構成を、第2の実施の形態に係る画像生成装置と同じ構成とした場合は、帯を移動させて生成したグラデーション画像が「環境画像」である。画像生成装置10の構成を、第3の実施の形態に係る画像生成装置と同じ構成とした場合は、予め定めた形状の図形を移動させて生成した図形移動画像が「環境画像」である。   When the configuration of the image generation device 10 is the same as that of the image generation device according to the second embodiment, the gradation image generated by moving the band is the “environmental image”. When the configuration of the image generation apparatus 10 is the same as that of the image generation apparatus according to the third embodiment, a graphic movement image generated by moving a graphic having a predetermined shape is an “environmental image”.

表示装置90の表示部96は、表示制御部94により制御されて画像を表示する。通信部36は、有線又は無線の通信回線を介して外部装置と通信を行うためのインターフェースである。通信部36は、画像生成装置10から、環境画像の画像データを受信する。表示制御部94は、環境画像が表示部96に表示されるように、表示部96を制御する。表示部96には、車両の周辺環境を表す環境画像が表示される。   The display unit 96 of the display device 90 is controlled by the display control unit 94 to display an image. The communication unit 36 is an interface for communicating with an external device via a wired or wireless communication line. The communication unit 36 receives image data of an environmental image from the image generation device 10. The display control unit 94 controls the display unit 96 so that the environment image is displayed on the display unit 96. On the display unit 96, an environment image representing the environment around the vehicle is displayed.

画像生成装置10が搭載される車両の搭乗者Aは、撮影部20で撮影される車両の周辺環境の映像(第1画像)と同じ映像を見ている。離れた場所に居る他者Bには、表示装置90の表示部96に表示される環境画像を見ている。   The passenger A of the vehicle on which the image generation device 10 is mounted sees the same video as the video (first image) of the environment around the vehicle captured by the imaging unit 20. The other person B who is at a distant place sees the environment image displayed on the display unit 96 of the display device 90.

表示装置90の表示部96に環境画像が表示されることで、離れた場所に居る他者Bには、搭乗者Aが搭乗している車両の周辺環境の様子がなんとなく伝わる。環境画像における色や動きにより、他者Bに伝わる。他者Bは、車両や搭乗者Aの状態を推測できる。   The environment image is displayed on the display unit 96 of the display device 90, so that the state of the environment around the vehicle on which the passenger A is riding is transmitted to the other person B who is at a distant place. It is transmitted to the other person B by the color and movement in the environment image. The other person B can infer the state of the vehicle or the passenger A.

抽象化した環境画像を表示する方が、第1画像をそのまま表示するより、車両の周辺環境の様子が他者Bに伝わり易い。抽象化することで、意識して見る煩わしさが低減される。また、抽象化することで、搭乗者Aやカメラ映像に写り込んだ第三者のプライバシーが保護される。   It is easier to convey the situation of the surrounding environment of the vehicle to the other person B when displaying the abstracted environmental image than displaying the first image as it is. Abstraction reduces the burden of looking at it consciously. In addition, abstraction makes it possible to protect the privacy of the passenger A and the third party reflected in the camera image.

図24は第4の実施の形態に係る表示装置の一例を示す模式図である。図25は第4の実施の形態に係る表示装置の他の一例を示す模式図である。図24及び図25では、表示装置90が、照明オブジェである。照明オブジェは、環境画像に基づいて照明の色や明るさを変化させて、環境画像に基づく情報を表示する。   FIG. 24 is a schematic view showing an example of a display device according to the fourth embodiment. FIG. 25 is a schematic view showing another example of the display device according to the fourth embodiment. In FIG. 24 and FIG. 25, the display device 90 is a lighting object. The lighting object changes the color and brightness of lighting based on the environmental image to display information based on the environmental image.

車両の周辺環境の色と動きを、家にいる他者Bが見ている照明オブジェに無線で飛ばしたイメージである。車内と同様、めまぐるしく色が変わることがないので、注意をひきつけないが、何となく存在と動きを感じることができる。抽象化した表示が、相手を想像したりする効果につながる。   It is an image in which the color and movement of the surrounding environment of the vehicle are wirelessly transmitted to the lighting object seen by the other person B at home. As in a car, the color does not change rapidly, so it does not attract attention, but you can feel its presence and movement somehow. The abstracted display leads to the effect of imagining the other party.

<変形例>
なお、上記実施の形態で説明した画像生成装置、表示システム、及びプログラムの構成は一例であり、本発明の主旨を逸脱しない範囲内においてその構成を変更してもよいことは言うまでもない。
<Modification>
The configurations of the image generation apparatus, the display system, and the program described in the above embodiments are merely examples, and it goes without saying that the configurations may be changed without departing from the scope of the present invention.

上記の実施の形態では、グラデーション画像や図形移動画像を車両内に投影する例について説明したが、発光素子や電光掲示板を用いて表示してもよい。   Although the above-mentioned embodiment explained the example which projects a gradation picture and a graphics movement picture on the inside of vehicles, it may display using a light emitting element or an electric bulletin board.

上記の実施の形態では、複雑さパラメータ4を用いる例について説明したが、複雑さパラメータ4に代えて、複雑さパラメータ1から3の何れかを用いてもよい。   In the above embodiment, the example using the complexity parameter 4 has been described, but instead of the complexity parameter 4, any of the complexity parameters 1 to 3 may be used.

上記の実施の形態では、画像の色に応じた効果音を併せて出力する例について説明したが、エフェクトの効果に応じた効果音を出力してもよく、複雑さパラメータから音楽情報を生成してもよい。例えば、「MIDI信号変換用のソフトウエア」を用いて、複雑さパラメータに応じたMIDIのノート信号を生成し、「MIDI信号から音楽情報を生成するソフトウエア」を用いて、ノート信号から音楽情報を生成する。図5に示す音楽出力部42により、生成された音楽情報に応じた音楽が演奏される。   In the above embodiment, an example has been described in which the sound effects corresponding to the color of the image are output together. However, the sound effects may be output according to the effect of the effect, and music information is generated from the complexity parameter May be For example, MIDI note signals are generated according to the complexity parameter using "software for MIDI signal conversion", and music information is generated from the note signals using "software for generating music information from MIDI signals" Generate The music output unit 42 shown in FIG. 5 plays music corresponding to the generated music information.

ここで、MIDI(Musical Instrument Digital Interface)とは、音楽情報をデジタル信号で通信するための国際規格である。MIDI信号とは、MIDI規格の情報であり、標準的なMIDIファイル形式(SMF:Standard MIDI File Format)の情報である。「MIDI信号変換用のソフトウエア」では、音の基本振動数を「ノートナンバー」、音圧レベルを「ベロシティレベル」、音色を「楽器名を表すナンバー」、時間変化を「ノートオン/ノートオフ」を表すデータに各々変換している。   Here, MIDI (Musical Instrument Digital Interface) is an international standard for communicating music information by digital signals. The MIDI signal is information of the MIDI standard, and is information of a standard MIDI file format (SMF). In "MIDI signal conversion software", the basic frequency of sound is "note number", sound pressure level is "velocity level", timbre is "number representing instrument name", and time change is "note on / note off" Are each converted to data representing "."

10 画像生成装置
12 パラメータ生成部
14 画像生成部
20 撮影部
30 情報処理部
32 操作部
34 表示部
36 通信部
38 記憶部
40 画像出力部
42 音楽出力部
50 メモリ
52 パラメータ生成部
54 画像処理部
56 輪郭抽出部
58 濃度変更部
60 画像合成部
62 背景抽出部
64 動き制御部
66 色情報抽出部
68 色設定部
70 動画像生成部
71 オブジェクト
80 画面
82 帯
90 表示装置
92 通信部
94 表示制御部
96 表示部
100 表示システム
DESCRIPTION OF REFERENCE NUMERALS 10 image generation device 12 parameter generation unit 14 image generation unit 20 imaging unit 30 information processing unit 32 operation unit 34 display unit 36 communication unit 38 storage unit 40 image output unit 42 music output unit 50 memory 52 parameter generation unit 54 image processing unit 56 Outline extraction unit 58 Density changing unit 60 Image combining unit 62 Background extraction unit 64 Motion control unit 66 Color information extraction unit 68 Color setting unit 70 Moving image generation unit 71 Object 80 Screen 82 Band 90 Display 92 Communication unit 94 Display control unit 96 Display unit 100 Display system

Claims (11)

移動体の周辺環境の変化の度合いを表す環境情報を生成する情報生成部と、
前記環境情報に応じて画像処理を制御して画像を生成する画像生成部と、
を備えた画像生成装置。
An information generation unit that generates environment information that indicates the degree of change in the surrounding environment of the mobile object;
An image generation unit configured to generate an image by controlling image processing according to the environment information;
An image generation device equipped with
前記画像生成部が、移動体の周辺を撮影した第1画像を画像処理して第2画像を生成する、
請求項1に記載の画像生成装置。
The image generation unit performs image processing on a first image obtained by photographing the periphery of a moving object to generate a second image.
The image generation apparatus according to claim 1.
前記画像処理では、
前記第1画像の輪郭線を抽出した第1輪郭線画像を生成し、
前記第1画像の背景部分を抽出した背景画像を生成し、
前記第1輪郭線画像の輪郭線の濃度を前記環境情報に応じて変化させた第2輪郭線画像を生成し、
前記第2輪郭線画像と前記背景画像とを合成して第2画像を生成する、
請求項2に記載の画像生成装置。
In the image processing,
Generating a first contour image in which the contours of the first image are extracted;
Generating a background image by extracting a background portion of the first image;
Generating a second outline image in which the density of the outline of the first outline image is changed according to the environment information;
Combining the second outline image and the background image to generate a second image;
The image generation apparatus according to claim 2.
前記環境情報により表される前記移動体の周辺環境の変化の度合いが大きいほど、輪郭線の濃度を濃くする、
請求項3に記載の画像生成装置。
As the degree of change of the surrounding environment of the mobile object represented by the environment information is larger, the density of the outline is increased.
The image generation apparatus according to claim 3.
前記画像生成部が、予め定めた形状の図形が前記環境情報に応じた速度で移動する動画像を生成する、
請求項1に記載の画像生成装置。
The image generation unit generates a moving image in which a graphic of a predetermined shape moves at a speed according to the environment information.
The image generation apparatus according to claim 1.
前記動画像は、帯状の図形が予め定めた方向に移動する動画像である、
請求項5に記載の画像生成装置。
The moving image is a moving image in which a strip-shaped figure moves in a predetermined direction.
The image generation apparatus according to claim 5.
前記環境情報により表される前記移動体の周辺環境の変化の度合いが大きいほど、前記図形の移動速度を速くする、
請求項5または請求項6に記載の画像生成装置。
The moving speed of the figure is made faster as the degree of change of the surrounding environment of the moving body represented by the environment information is larger.
An image generation apparatus according to claim 5 or 6.
移動体の周辺を撮影した第1画像の各画素値の全部または一部を代表する代表色の色情報を抽出する色抽出部を更に備え、
前記画像生成部が、前記図形の色を前記代表色とする、
請求項5から請求項7までのいずれか1項に記載の画像生成装置。
A color extraction unit for extracting color information of a representative color representing all or a part of each pixel value of the first image obtained by photographing the periphery of the mobile object;
The image generation unit sets the color of the figure as the representative color.
The image generation apparatus according to any one of claims 5 to 7.
前記代表色は、前記第1画像を移動体の高さ方向に三分割した場合の、中央部分の各画素値の代表値である、
請求項8に記載の画像生成装置。
The representative color is a representative value of each pixel value of the central portion when the first image is divided into three in the height direction of the moving body.
The image generation apparatus according to claim 8.
請求項1から請求項9までに記載の画像生成装置と、
前記画像生成装置から送信された前記画像に基づく情報を表示する表示装置と、
を備えた表示システム。
An image generation apparatus according to any one of claims 1 to 9;
A display device for displaying information based on the image transmitted from the image generation device;
Display system equipped with
コンピュータを、
移動体の周辺環境の変化の度合いを表す環境情報を生成する情報生成部、
前記環境情報に応じて画像処理を制御して画像を生成する画像生成部、
として機能させるためのプログラム。
Computer,
An information generation unit that generates environment information that indicates the degree of change in the surrounding environment of the mobile object;
An image generation unit that generates an image by controlling image processing according to the environment information;
Program to function as.
JP2017220716A 2017-11-16 2017-11-16 Image generators, display systems, and programs Active JP6806040B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220716A JP6806040B2 (en) 2017-11-16 2017-11-16 Image generators, display systems, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220716A JP6806040B2 (en) 2017-11-16 2017-11-16 Image generators, display systems, and programs

Publications (2)

Publication Number Publication Date
JP2019092094A true JP2019092094A (en) 2019-06-13
JP6806040B2 JP6806040B2 (en) 2021-01-06

Family

ID=66836749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220716A Active JP6806040B2 (en) 2017-11-16 2017-11-16 Image generators, display systems, and programs

Country Status (1)

Country Link
JP (1) JP6806040B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132328A (en) * 2020-02-20 2021-09-09 株式会社エクサウィザーズ Information processing method, information processing device, and computer program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110159A (en) * 2003-10-02 2005-04-21 Seiko Epson Corp Generation of decorative image
JP2010173492A (en) * 2009-01-29 2010-08-12 Nissan Motor Co Ltd Vehicle speed transmission device and vehicle speed transmitting method
JP2010272001A (en) * 2009-05-22 2010-12-02 Canon Inc Display control device, display control method, and program
JP2012051678A (en) * 2010-08-31 2012-03-15 Sumitomo Heavy Ind Ltd Visibility assisting system
JP2012195793A (en) * 2011-03-17 2012-10-11 Clarion Co Ltd Vehicle periphery monitoring device
JP2016192128A (en) * 2015-03-31 2016-11-10 トヨタ自動車株式会社 Information providing apparatus and information providing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005110159A (en) * 2003-10-02 2005-04-21 Seiko Epson Corp Generation of decorative image
JP2010173492A (en) * 2009-01-29 2010-08-12 Nissan Motor Co Ltd Vehicle speed transmission device and vehicle speed transmitting method
JP2010272001A (en) * 2009-05-22 2010-12-02 Canon Inc Display control device, display control method, and program
JP2012051678A (en) * 2010-08-31 2012-03-15 Sumitomo Heavy Ind Ltd Visibility assisting system
JP2012195793A (en) * 2011-03-17 2012-10-11 Clarion Co Ltd Vehicle periphery monitoring device
JP2016192128A (en) * 2015-03-31 2016-11-10 トヨタ自動車株式会社 Information providing apparatus and information providing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132328A (en) * 2020-02-20 2021-09-09 株式会社エクサウィザーズ Information processing method, information processing device, and computer program

Also Published As

Publication number Publication date
JP6806040B2 (en) 2021-01-06

Similar Documents

Publication Publication Date Title
JP6965914B2 (en) Video generator, its method, program
US10922865B2 (en) Information processing apparatus, information processing method, and program
JP5397373B2 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING METHOD
US8860847B2 (en) Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image
CN103544441B (en) Mobile video generation device
JP2002163670A (en) Device for presenting combined sense of reality and its controlling method
CN104284119A (en) Apparatus, system and method for projecting images onto predefined portions of objects
US10748341B2 (en) Terminal device, system, program and method for compositing a real-space image of a player into a virtual space
US10792567B2 (en) Terminal device, system, program, and method
TWI464705B (en) A method for generating a composite image
KR20160003614A (en) Method For Producting Virtual Stereo Studio Image In Real-Time Virtual Stereo Studio System
JP4466963B2 (en) Vehicle front image display apparatus and method
US11941729B2 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
JP2004227332A (en) Information display method
JP6806040B2 (en) Image generators, display systems, and programs
JP2019047296A (en) Display device, display method, control program, and electronic mirror system
WO2019012314A1 (en) Method of displaying a wide-format augmented reality object
WO2020122084A1 (en) Image processing device, image processing method, and image processing system
KR101177793B1 (en) Stereoscopic virtual experience apparatus and method
WO2021172037A1 (en) Image processing device, image processing method, program, and image presentation system
JP6134414B2 (en) Image processing apparatus, image processing method, and program
WO2021171982A1 (en) Image processing device, three-dimensional model generating method, learning method, and program
JP7318265B2 (en) Image generation device and image generation method
JP7147336B2 (en) Projection method and projection system
JP5916365B2 (en) Video transmission system, video transmission method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6806040

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150