JP2002271783A - Image processing unit, image signal generating method, image processing program and information recording medium - Google Patents

Image processing unit, image signal generating method, image processing program and information recording medium

Info

Publication number
JP2002271783A
JP2002271783A JP2001383836A JP2001383836A JP2002271783A JP 2002271783 A JP2002271783 A JP 2002271783A JP 2001383836 A JP2001383836 A JP 2001383836A JP 2001383836 A JP2001383836 A JP 2001383836A JP 2002271783 A JP2002271783 A JP 2002271783A
Authority
JP
Japan
Prior art keywords
image
layer
motion
signal
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001383836A
Other languages
Japanese (ja)
Other versions
JP2002271783A5 (en
JP3823818B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yuji Okumura
裕二 奥村
Tetsushi Kokubo
哲志 小久保
Daisuke Kikuchi
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001383836A priority Critical patent/JP3823818B2/en
Publication of JP2002271783A publication Critical patent/JP2002271783A/en
Publication of JP2002271783A5 publication Critical patent/JP2002271783A5/ja
Application granted granted Critical
Publication of JP3823818B2 publication Critical patent/JP3823818B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that uses an image signal of a reference moving image so as to generate an image signal of a surrounding moving image corresponding to the reference moving image at the same that as that of the image signal of the reference moving image. SOLUTION: A block 20 calculates a motion by each motion detection area set to an image and area of the reference moving image by using a reference image signal SDc that satisfies binding conditions with respect to a motion of an image in radial directions around a prescribed position and a signal SDcd delayed by one frame. A block 22 calculates a moving amount LV of each layer and layer identification information LS that denotes to which layer a motion detection area belongs. A block 24 moves a signal of each layer from a delay section 26 by the moving amount LV by each layer, and extracts the reference moving image by the moving amount LV from a position corresponding to the motion detection area and adds the extracted image to the signal. Pasting the sum signals from a remote scene layer to a near scene layer generates a moving image signal. Applying conversion processing in response to the direction of a projected face of a side face moving image is applied to the signal to generate side face moving image signals SDL, SDR.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は画像処理装置と画
像信号生成方法と画像処理プログラム及び情報記録媒体
に関する。詳しくは、複数フレームの入力画像信号を用
いて、この入力画像信号に基づく画像内における例えば
画像端部領域の動きを検出し、この検出した動きと複数
フレームの入力画像信号に基づいて、注目フレームと同
一時間であると共に、注目フレームの画像と画角の異な
る周辺動画像の画像信号を生成するものである。
The present invention relates to an image processing apparatus, an image signal generating method, an image processing program, and an information recording medium. More specifically, the input image signal of a plurality of frames is used to detect the movement of, for example, an image end region in an image based on the input image signal, and a frame of interest is detected based on the detected movement and the input image signal of the plurality of frames. And generates an image signal of a peripheral moving image having a different angle of view from the image of the frame of interest.

【0002】[0002]

【従来の技術】近年、臨場感を高めた画像表示を行うた
めに多画面表示システムや曲面ディスプレイ、広画角デ
ィスプレイ、ヘッドマウントディスプレイ等が実用化さ
れている。
2. Description of the Related Art In recent years, a multi-screen display system, a curved display, a wide-angle display, a head-mounted display, and the like have been put to practical use in order to display images with enhanced realism.

【0003】ここで、上述のようなディスプレイを用い
て臨場感を高めた画像表示を行うためには、例えばコン
ピュータグラフィックスで3次元の仮想空間を構築する
ことが行われている。また、多数のビデオカメラを用い
たり広角レンズをビデオカメラに取り付けて広範囲な空
間を撮影し、この撮影画像を多面ディスプレイやヘッド
マウントディスプレイなどの平面あるいは曲面に変換し
て表示することも行われている。
Here, in order to display an image with enhanced realism using the above-described display, a three-dimensional virtual space is constructed by, for example, computer graphics. In addition, a large number of video cameras are used, or a wide-angle lens is attached to the video camera to photograph a wide area, and this photographed image is converted into a flat or curved surface such as a multi-surface display or a head-mounted display and displayed. I have.

【0004】[0004]

【発明が解決しようとする課題】ところで、このように
多面ディスプレイや広画角ディスプレイ等を用いて臨場
感を高めた動画像表示を行う場合、コンピュータグラフ
ィックスで3次元の仮想空間を構築するためには、高速
なコンピュータ装置を用いて演算処理を行う必要がある
ため、多大なコストと時間が必要となると共に、実写画
像に比べて臨場感や現実感が少ない画像となってしま
う。
In the case of displaying a moving image with enhanced realism using a multi-screen display or a wide-angle display as described above, it is necessary to construct a three-dimensional virtual space using computer graphics. Requires a high-speed computer to perform arithmetic processing, which requires a great deal of cost and time, and results in an image with less realism and realism than a real image.

【0005】また、実写画像を用いる場合には、広範囲
な空間を提示するためには、提示する範囲を全て隙間無
く撮影する必要があり、多数のビデオカメラや特殊レン
ズを備えたビデオカメラ等、大がかりな画像取込装置が
必要となり、多額のコストが必要となる。
[0005] In addition, in the case of using real images, in order to present a wide range of space, it is necessary to take a picture of the entire presented range without any gap, and many video cameras and video cameras having special lenses are used. A large-scale image capturing device is required, and a large cost is required.

【0006】さらに、一般的なビデオカメラで撮影され
た画像ソースが既に存在するときには、同じシーンを複
数のビデオカメラで撮り直さなければ、広範囲の画像を
提示することができない。
Furthermore, when an image source shot by a general video camera already exists, a wide range of images cannot be presented unless the same scene is retaken by a plurality of video cameras.

【0007】そこで、この発明では、基準となる動画像
の画像信号を用いて、この動画像と同一時間であると共
に、この動画像に対応した周辺動画像を生成できる画像
処理装置と画像信号生成方法および情報伝送記録媒体を
提供するものである。
Therefore, the present invention provides an image processing apparatus and an image signal generation apparatus that can generate a peripheral moving image at the same time as the moving image and corresponding to the moving image by using an image signal of the moving image as a reference. A method and an information transmission recording medium are provided.

【0008】[0008]

【課題を解決するための手段】この発明に係る画像処理
装置は、複数フレームの入力画像信号を用いて特定の平
面上に形成した画像内における所定領域の動きを検出す
る動き検出手段と、動き検出手段で検出された動きに基
づいて、所定領域を分類して分類結果を示す情報を生成
するレイヤ化処理手段と、分類情報と複数フレームの入
力画像信号に基づいて、入力画像信号中の注目フレーム
と同一時間であると共に、注目フレームの画像と画角の
異なる周辺画像の画像信号を生成する周辺画像信号生成
手段とを有するものである。
SUMMARY OF THE INVENTION An image processing apparatus according to the present invention comprises a motion detecting means for detecting a motion of a predetermined area in an image formed on a specific plane by using input image signals of a plurality of frames; A layering processing unit configured to classify a predetermined area based on the motion detected by the detection unit to generate information indicating a classification result; and a target unit in the input image signal based on the classification information and the input image signals of a plurality of frames. And peripheral image signal generating means for generating an image signal of a peripheral image having the same time as that of the frame and having a different angle of view from the image of the frame of interest.

【0009】また、画像処理装置は、少なくとも1つの
拘束条件を満たす動きを生ずる基準動画像の画像信号を
用いて、拘束条件を利用することにより基準動画像の画
面毎に画面内の画像端部領域の動きを検出する動き検出
手段と、動き検出手段で検出された動きに基づいて、前
記所定領域のレイヤを決定してレイヤ情報を生成するレ
イヤ化処理手段と、レイヤ化処理手段で生成されたレイ
ヤ情報と画像端部領域の画像信号を用いると共に、画面
順序に応じた信号処理を行い、基準動画像と同一時間で
あると共に、基準動画像に対応した周辺動画像の画像信
号を生成する周辺画像生成手段とを備えるものである。
In addition, the image processing apparatus uses an image signal of a reference moving image which generates a motion satisfying at least one constraint condition, and utilizes the constraint condition to provide an image edge in the screen for each screen of the reference moving image. A motion detection unit that detects a motion of the region, a layering processing unit that determines a layer of the predetermined region based on the motion detected by the motion detection unit and generates layer information, Using the layer information and the image signal of the image end area, performing signal processing according to the screen order to generate an image signal of the peripheral moving image at the same time as the reference moving image and corresponding to the reference moving image Peripheral image generating means.

【0010】この発明に係る画像信号生成方法は、複数
フレームの入力画像信号を用いて特定の平面上に形成し
た画像内における所定領域の動きを検出するものとし、
検出された動きに基づいて、所定領域を分類して分類結
果を示す情報を生成するものとし、分類情報と複数フレ
ームの入力画像信号に基づいて、入力画像信号中の注目
フレームと同一時間であると共に、注目フレームの画像
と画角の異なる周辺画像の画像信号を生成するものであ
る。
An image signal generating method according to the present invention detects movement of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames,
Based on the detected motion, a predetermined area is classified and information indicating a classification result is generated. Based on the classification information and the input image signals of a plurality of frames, the time is the same as that of a target frame in the input image signal. At the same time, it generates an image signal of a peripheral image having a different angle of view from the image of the frame of interest.

【0011】また、画像信号生成方法は、少なくとも1
つの拘束条件を満たす動きを生ずる基準動画像を用い
て、拘束条件を利用することにより基準動画像の画面毎
に画像端部領域の動きを検出するものとし、検出された
動きに基づき、画像端部領域の画像信号を用いると共に
画面順序に応じた信号処理を行い、基準動画像と同一時
間であると共に、基準動画像に対応した周辺動画像の画
像信号を生成するものである。
The image signal generating method includes at least one
The motion of the image edge region is detected for each screen of the reference moving image by using the constraint condition using the reference motion image that generates the motion satisfying the two constraint conditions, and the image edge is determined based on the detected motion. The image signal of the peripheral area is generated by using the image signal of the partial area and performing signal processing according to the screen order, and at the same time as the reference moving image and corresponding to the reference moving image.

【0012】この発明に係る画像処理プログラムは、コ
ンピュータに、複数フレームの入力画像信号を用いて特
定の平面上に形成した画像内における所定領域の動きを
検出する処理と、検出された動きに基づいて、所定領域
を分類して分類結果を示す情報を生成する処理と、分類
情報と複数フレームの入力画像信号に基づいて、入力画
像信号中の注目フレームと同一時間であると共に、注目
フレームの画像と画角の異なる周辺画像の画像信号を生
成する処理とを実行させるものである。
[0012] An image processing program according to the present invention provides a computer with a process for detecting a motion of a predetermined region in an image formed on a specific plane using a plurality of frames of input image signals, and a process for detecting the motion based on the detected motion. Processing for classifying a predetermined area to generate information indicating a classification result; and, based on the classification information and the input image signals of a plurality of frames, at the same time as the frame of interest in the input image signal and the image of the frame of interest. And a process of generating image signals of peripheral images having different angles of view.

【0013】また、画像処理プログラムは、コンピュー
タに、少なくとも1つの拘束条件を満たす動きを生ずる
基準動画像を用いて、拘束条件を利用することにより基
準動画像の画面毎に画像端部領域の動きを検出する第1
の処理と、検出された動きに基づき、画像端部領域の画
像信号を用いると共に画面順序に応じた信号処理を行
い、基準動画像と同一時間であると共に、基準動画像に
対応した周辺動画像の画像信号を生成する第2の処理と
を含む処理を実行させるものである。
Further, the image processing program causes the computer to use a reference moving image which generates a movement satisfying at least one constraint condition, and to use the constraint condition to change the movement of the image end region for each screen of the reference moving image. First to detect
Based on the detected motion, the image signal of the image edge region is used and the signal processing is performed according to the screen order, and the same time as the reference moving image and the peripheral moving image corresponding to the reference moving image And a second process of generating the image signal of the above.

【0014】この発明に係る情報記録媒体は、コンピュ
ータに、複数フレームの入力画像信号を用いて特定の平
面上に形成した画像内における所定領域の動きを検出す
る処理と、検出された動きに基づいて、所定領域を分類
して分類結果を示す情報を生成する処理と、分類情報と
複数フレームの入力画像信号に基づいて、入力画像信号
中の注目フレームと同一時間であると共に、注目フレー
ムの画像と画角の異なる周辺画像の画像信号を生成する
処理とを実行させるプログラムをコンピュータ読み取り
可能に記録したものである。
An information recording medium according to the present invention provides a computer with a process for detecting a motion of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames, and a process for detecting the motion based on the detected motion. Processing for classifying a predetermined area to generate information indicating a classification result; and, based on the classification information and the input image signals of a plurality of frames, at the same time as the frame of interest in the input image signal and the image of the frame of interest. And a program for executing a process of generating an image signal of a peripheral image having a different angle of view.

【0015】また、情報記録媒体は、コンピュータに、
少なくとも1つの拘束条件を満たす動きを生ずる基準動
画像を用いて、拘束条件を利用することにより基準動画
像の画面毎に画像端部領域の動きを検出する第1の処理
と、検出された動きに基づき、画像端部領域の画像信号
を用いると共に画面順序に応じた信号処理を行い、基準
動画像と同一時間であると共に、基準動画像に対応した
周辺動画像の画像信号を生成する第2の処理とを含む処
理を実行させるプログラムをコンピュータ読み取り可能
に記録したものである。
[0015] Further, the information recording medium is a computer.
A first process of detecting a motion of an image end region for each screen of the reference moving image by using the constraint condition using a reference moving image which generates a motion satisfying at least one constraint condition; Based on the image signal, performs signal processing according to the screen order while using the image signal of the image end area, and generates an image signal of the peripheral moving image at the same time as the reference moving image and corresponding to the reference moving image. And a computer-readable recording program for executing the processing including the above processing.

【0016】この発明においては、例えば画像の動きが
所定位置を中心とした放射方向である拘束条件を満たす
動きを生ずる基準動画像に対して、この基準動画像の画
像端部領域に複数の動き検出領域が設定されて、この動
き検出領域の画像が所定位置を中心としてズームされな
がら前画面の画像との誤差値が算出されて、この算出さ
れた誤差値が最小となる位置を検出することで、動き検
出領域の動きが判別される。
In the present invention, for example, a plurality of motions are added to an image end region of the reference moving image with respect to a reference moving image in which the motion of the image satisfies a constraint condition that is a radial direction around a predetermined position. A detection area is set, an error value from the image of the previous screen is calculated while the image of the motion detection area is zoomed around a predetermined position, and a position where the calculated error value is minimum is detected. Thus, the motion of the motion detection area is determined.

【0017】この動きの検出結果に基づき、画像端部領
域がレイヤ分けされて、レイヤ毎に移動量が設定され
て、レイヤ分けされた画像端部領域の画像が、対応する
レイヤの移動量に応じて基準動画像から画像の抽出が行
われて、移動量の少ないレイヤから移動量の大きいレイ
ヤへと順に貼り付けられる。また、既に貼り付けが行わ
れた各レイヤの画像はレイヤ毎に設定された移動量に応
じて移動されて、移動後の画像に抽出した画像を加えて
からレイヤ単位で画像の貼り付けが行われる。
Based on the detection result of the motion, the image end region is divided into layers, the amount of movement is set for each layer, and the image of the layered image end region is set to the amount of movement of the corresponding layer. Accordingly, an image is extracted from the reference moving image, and the images are pasted in order from a layer having a small moving amount to a layer having a large moving amount. The image of each layer that has already been pasted is moved according to the amount of movement set for each layer, and the extracted image is added to the moved image, and then the image is pasted in layers. Will be

【0018】ここで、レイヤ単位での貼り付け処理によ
って画像に隙間部分を生じたときには、隙間部分の後方
側に位置する画像をレイヤの移動方向に延長して隙間領
域の画像の画像信号が生成される。さらに、レイヤ単位
で貼り付けられた画像の画像信号に対して、周辺動画像
の投影面の向きに応じた信号変換処理が行われる。
Here, when a gap is generated in the image by the pasting process in units of layers, the image located behind the gap is extended in the moving direction of the layer to generate an image signal of the image of the gap. Is done. Further, a signal conversion process is performed on the image signal of the image pasted on a layer basis according to the direction of the projection plane of the peripheral moving image.

【0019】[0019]

【発明の実施の形態】以下、図を参照しながら、この発
明の実施の一形態について説明する。図1は、この発明
に係る画像処理装置を用いた表示システムの全体構成を
示している。この表示システムでは、例えば3つのスク
リーンをユーザの前面及び両側面に配置して、各スクリ
ーン10L,10C,10Rに対応したプロジェクタ12
L,12C,12Rから画像を投影することにより、広範
囲の画像の提示が行われる。このプロジェクタ12L,
12C,12Rは画像処理装置15A(15B,15C)
と接続されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows the overall configuration of a display system using an image processing device according to the present invention. In this display system, for example, three screens are arranged on the front and both sides of the user, and the projectors 12 corresponding to the screens 10L, 10C, and 10R are provided.
By projecting images from L, 12C, and 12R, a wide range of images is presented. This projector 12L,
12C and 12R are image processing devices 15A (15B and 15C)
Is connected to

【0020】この画像処理装置15A(15B,15
C)では、複数フレームの入力画像信号を用いて特定の
平面上に形成した画像内における所定領域の動きを検出
して、この検出された動きに基づいて、所定領域を分類
して分類結果を示す情報を生成する。さらに、分類情報
と複数フレームの入力画像信号に基づいて、入力画像信
号中の注目フレームと同一時間であると共に、注目フレ
ームの画像と画角の異なる周辺画像の画像信号を生成す
る。
The image processing device 15A (15B, 15B)
In C), a motion of a predetermined area in an image formed on a specific plane is detected using input image signals of a plurality of frames, and the predetermined area is classified based on the detected motion, and a classification result is obtained. Generate the information shown. Further, based on the classification information and the input image signals of a plurality of frames, an image signal of the peripheral image having the same time as the target frame in the input image signal and having a different angle of view from the image of the target frame is generated.

【0021】画像処理装置15Aには、移動しながら撮
影した画像信号、例えば車載カメラで前方を撮影した動
画像の画像信号SDCが入力される。画像処理装置15
Aは、この入力された画像信号SDCを後述する側面動
画像の周辺画像信号SDL,SDRの生成に要する時間だ
け遅延させたのち画像信号SDC’としてプロジェクタ
12Cに供給する。プロジェクタ12Cは、画像信号SD
C’に基づく正面動画像UCを、図2に示すように正面に
位置するスクリーン10Cに投影する。また、画像処理
装置15Aは、基準動画像である正面動画像UCの画像
信号SDCに基づいて、この正面動画像UCに対応した側
面動画像、すなわち車載カメラの視野範囲(画角範囲)
に隣接した周辺領域の動画像、例えば左右の側面動画像
の周辺画像信号SDL,SDRを生成する。プロジェクタ
12Lには、生成した左側面動画像ULの周辺画像信号S
DLが入力されて、この周辺画像信号SDLに基づき左側
面動画像ULを左側に位置するスクリーン10Lに投影す
る。プロジェクタ12Lには、生成した右側面動画像UR
の周辺画像信号SDRを入力して、この周辺画像信号S
DRに基づき右側面動画像URを右側に位置するスクリー
ン10Rに投影する。
The image processing device 15A receives an image signal captured while moving, for example, an image signal SDC of a moving image captured forward by a vehicle-mounted camera. Image processing device 15
A delays the input image signal SDC by the time required to generate peripheral image signals SDL and SDR of a side moving image, which will be described later, and then supplies the image signal SDC 'to the projector 12C. The projector 12C has an image signal SD
A front moving image UC based on C ′ is projected on a screen 10C located in the front as shown in FIG. Further, based on the image signal SDC of the front moving image UC, which is a reference moving image, the image processing device 15A performs a side moving image corresponding to the front moving image UC, that is, a visual field range (view angle range) of the vehicle-mounted camera.
, Generates peripheral image signals SDL and SDR of a moving image of a peripheral region adjacent to the image, for example, left and right side moving images. The peripheral image signal S of the generated left side moving image UL is supplied to the projector 12L.
DL is input, and the left side moving image UL is projected on the screen 10L located on the left side based on the peripheral image signal SDL. The generated right side moving image UR is displayed on the projector 12L.
Is input to the peripheral image signal SDR.
The right side moving image UR is projected on the screen 10R located on the right side based on DR.

【0022】図3は、第1の実施の形態である画像処理
装置15Aの構成を示している。画像信号SDCは、画
像処理装置15Aの遅延部16と動き検出ブロック20
及び周辺画像信号生成ブロック24に供給される。動き
検出ブロック20は、動画像の画像端部領域、例えば正
面動画像UCの両側端側に図4に示すように複数の動き
検出領域ARを設定して、各動き検出領域ARでの画像の
動き量MVを算出してレイヤ化処理ブロック22に供給
する。この動き量MVは、この動き検出領域の画像信号
SDCと1フレーム前の画像信号SDdに基づいて算出さ
れる。
FIG. 3 shows the configuration of an image processing apparatus 15A according to the first embodiment. The image signal SDC is transmitted to the delay unit 16 and the motion detection block 20 of the image processing device 15A.
And the peripheral image signal generation block 24. The motion detection block 20 sets a plurality of motion detection areas AR as shown in FIG. 4 at the image end area of the moving image, for example, on both side ends of the front moving image UC, and sets the image in each motion detection area AR. The motion amount MV is calculated and supplied to the layering processing block 22. The motion amount MV is calculated based on the image signal SDC of the motion detection area and the image signal SDd one frame before.

【0023】レイヤ化処理ブロック22は、各動き検出
領域が離れた被写体を撮影した遠景画像の領域(遠景レ
イヤ)であるか、近接した被写体を撮影した近景画像の
領域(近景レイヤ)であるか、又は、遠景画像と近景画
像との間に位置する中景画像の領域(中景レイヤ)であ
るかを動き量MVに基づいて判別する。さらに、判別結
果に基づき各動き検出領域が遠景,中景,近景のいずれ
のレイヤに属するかを示すレイヤ識別情報LSを生成し
て周辺画像信号生成ブロック24に供給する。また、レ
イヤに含まれる動き検出領域の動き量を用いて算出した
統計情報に基づきレイヤ毎のレイヤ移動量LVをフレー
ム毎に算出して、このレイヤ移動量LVを周辺画像信号
生成ブロック24に供給する。
The layering processing block 22 determines whether each motion detection region is a region of a distant view image of a distant subject (a distant view layer) or a region of a near view image of a close subject (a near view layer). Alternatively, it is determined based on the motion amount MV whether or not the area is a middle view image area (middle view layer) located between the distant view image and the close view image. Further, based on the determination result, layer identification information LS indicating whether each motion detection area belongs to a distant view, a middle view, or a near view layer is generated and supplied to the peripheral image signal generation block 24. Further, a layer movement amount LV for each layer is calculated for each frame based on statistical information calculated using the movement amount of the motion detection area included in the layer, and the layer movement amount LV is supplied to the peripheral image signal generation block 24. I do.

【0024】周辺画像信号生成ブロック24は、動き検
出領域に対応して画像端部領域に設定したそれぞれの位
置から、動き検出領域の該当するレイヤのレイヤ移動量
LVだけ正面動画像を抽出する。また、周辺画像信号生
成ブロック24は、この抽出した画像を移動量の少ない
遠景のレイヤから移動量の大きい近景のレイヤへと順に
重ね合わせることで画像合成を行ったのち、側面動画像
の投影面の向きに応じた変換処理を行い、正面動画像と
同一時間の側面動画像の周辺画像信号SDL,SDRを生
成して出力する。
The peripheral image signal generation block 24 extracts a front moving image from each position set in the image end area corresponding to the motion detection area by the layer moving amount LV of the layer corresponding to the motion detection area. Further, the peripheral image signal generation block 24 performs image synthesis by superimposing the extracted images in order from a distant view layer with a small moving amount to a near view layer with a large moving amount, and then performs a projection plane of the side moving image. , And generates and outputs peripheral image signals SDL and SDR of the side moving image at the same time as the front moving image.

【0025】また、レイヤ毎の側面動画像の画像信号S
EL,SERを遅延部26に供給することで、1フレーム
遅延させてから周辺画像信号生成ブロック24に供給す
る。ここで、周辺画像信号生成ブロック24は、1フレ
ーム遅延された側面動画像の画像信号SELd,SERdに
基づく画像を、レイヤ毎に設定された移動量に応じてレ
イヤ毎に移動させる。また、周辺画像信号生成ブロック
24は、移動後の画像に正面動画像から抽出した画像を
加えてからレイヤ単位で重ね合わせることで画像の合成
を行い、側面動画像の周辺画像信号SDL,SDRを生成
する。
The image signal S of the side moving image for each layer
By supplying EL and SER to the delay unit 26, the signals are delayed by one frame and then supplied to the peripheral image signal generation block 24. Here, the peripheral image signal generation block 24 moves the image based on the image signals SELd and SERd of the side moving image delayed by one frame for each layer according to the moving amount set for each layer. The peripheral image signal generation block 24 synthesizes images by adding an image extracted from the front moving image to the moved image and superimposing the images on a layer-by-layer basis to generate peripheral image signals SDL and SDR of the side moving image. Generate.

【0026】さらに、遠景,中景,近景の画像を順に重
ね合わせた画像を作成するときに、レイヤ移動量の違い
によって、画像の無い隙間部分が生じた場合、周辺画像
信号生成ブロック24は、この隙間部分を補間処理によ
って補うことで、隙間部分の無い側面動画像の周辺画像
信号SDL,SDRを生成する。
Further, when an image in which a distant view, a middle view, and a near view are superimposed in order to create an image, if there is a gap portion without an image due to a difference in the amount of layer movement, the peripheral image signal generation block 24 By supplementing the gap by interpolation processing, peripheral image signals SDL and SDR of the side moving image without the gap are generated.

【0027】次に、各ブロックの構成及び動作について
図を用いて詳細に説明する。なお、以下の説明では右側
の側面動画像についてのみ説明するものとし、左側の側
面動画像の生成については説明を省略する。
Next, the configuration and operation of each block will be described in detail with reference to the drawings. In the following description, only the right side moving image will be described, and description of generation of the left side moving image will be omitted.

【0028】動き検出ブロック20は、上述したように
画像の動き量MVを動き検出領域毎に判別する。ここ
で、上述したように車載カメラで前方を撮影すること
で、一点(以下「画像基準位置」という)CPからあた
かも画像が涌き出てくるように見える場合、動き検出ブ
ロック20は、正面動画像の動き方向が一点から放射方
向であるという拘束条件を加えて動き量の判別を行う。
この場合、図5Aに示す時刻Tの正面動画像は、例えば
1フレーム時間が経過した後の時刻T’では、図5Bに
示すように、画像基準位置CPを中心として時刻Tの正
面動画像をズーム動作させた画像とほぼ等しくなる。こ
のため、画像発生位置から動き検出領域の中心までの距
離がズーム動作での拡大率に比例すると考えられる。そ
こで、動き検出ブロック20は、図5Cに示すように、
画像基準位置CPを中心とした拡大率Zを設定して動き
検出領域を(1/Z)に縮小させて、この縮小された領
域と1フレーム前の画像における対応位置の画像信号と
の誤差和を算出して、この誤差和が最小値となる拡大率
Zを検出することにより、動き領域毎の動き量を算出す
る。
The motion detection block 20 determines the motion amount MV of the image for each motion detection area as described above. Here, as described above, if the image appears to come out from one point (hereinafter referred to as “image reference position”) CP by photographing the front with the onboard camera, the motion detection block 20 The amount of motion is determined by adding a constraint that the direction of motion is a radial direction from one point.
In this case, the front moving image at time T shown in FIG. 5A is, for example, at time T ′ after one frame time has elapsed, as shown in FIG. 5B, the front moving image at time T centered on the image reference position CP. This is almost the same as the zoomed image. Therefore, it is considered that the distance from the image generation position to the center of the motion detection area is proportional to the enlargement ratio in the zoom operation. Therefore, the motion detection block 20 performs, as shown in FIG.
A motion detection area is reduced to (1 / Z) by setting an enlargement factor Z centered on the image reference position CP, and the error sum of the reduced area and an image signal of a corresponding position in the image one frame before is set. Is calculated, and the amount of motion for each motion area is calculated by detecting an enlargement factor Z at which the sum of the errors becomes a minimum value.

【0029】ここで、縮小処理を行ったとき、領域内の
画素の座標値は整数値とならない画素が生ずる。一方、
縮小処理が行われていない1フレーム前の画像は、領域
内の画素の座標値が整数値である。このため、縮小され
た画像に対しては線形補間を行って、座標値が整数値と
なる位置の信号レベルを算出する。例えば、図6に示す
ようにKa×Ka画素の動き検出領域を(1/Z)倍とし
たことにより領域サイズがKb×Kb画素のサイズとなっ
たときには、線形補間を行ってKa×Ka画素の信号レベ
ルを用いて画素数を「Kb×Kb」とした信号レベルを算
出する。この算出された信号レベルを用いて誤差和を算
出することにより、精度良く動き量を判別できる。
Here, when the reduction processing is performed, there are pixels in which the coordinate values of the pixels in the area do not become integer values. on the other hand,
In the image one frame before the reduction process has not been performed, the coordinate values of the pixels in the region are integer values. Therefore, linear interpolation is performed on the reduced image to calculate a signal level at a position where the coordinate value is an integer value. For example, as shown in FIG. 6, when the motion detection area of Ka × Ka pixels is multiplied by (1 / Z) times and the area size becomes the size of Kb × Kb pixels, linear interpolation is performed to perform Ka × Ka pixel Is calculated by using the signal level of (1), where the number of pixels is “Kb × Kb”. By calculating the error sum using the calculated signal level, the motion amount can be determined with high accuracy.

【0030】図7は動き検出ブロック20の構成を示し
ており、画像信号SDcはサイズ変更部201に供給さ
れると共に1フレーム前の画像信号SDcdは誤差和算出
部202に供給される。サイズ変更部201は、正面動
画像の右側端部分を例えば16×16画素サイズ単位で
区分して複数の動き検出領域を設定する。なお、以下の
説明では、1つの動き検出領域に対する各部の動作を示
すものとする。
FIG. 7 shows the structure of the motion detection block 20. The image signal SDc is supplied to the size changing unit 201, and the image signal SDcd one frame before is supplied to the error sum calculation unit 202. The size changing unit 201 sets a plurality of motion detection areas by dividing the right end portion of the front moving image in units of, for example, 16 × 16 pixels. In the following description, the operation of each unit for one motion detection area will be described.

【0031】このサイズ変更部201は、拡大率設定部
205から供給された拡大率Zを用いることにより、画
像基準位置CPを中心として(1/Z)倍した動き検出
領域の画像信号SDzを生成して誤差和算出部202に
供給する。また、画像信号SDzを誤差和算出部202
に供給する際には、画像基準位置CPを中心として(1
/Z)倍したことにより移動された動き検出領域の中心
の座標値Pzも誤差和算出部202に供給する。なお、
画像信号SDzは、図6で説明したように補間処理によ
って画素位置毎の信号レベルに変換した信号である。
The size changing unit 201 generates an image signal SDz of the motion detection area multiplied by (1 / Z) around the image reference position CP by using the enlargement ratio Z supplied from the enlargement ratio setting unit 205. Then, it is supplied to the error sum calculation unit 202. Further, the image signal SDz is converted to an error sum calculation unit 202.
At the center of the image reference position CP (1
/ Z), the coordinate value Pz of the center of the motion detection area moved by the multiplication is also supplied to the error sum calculation unit 202. In addition,
The image signal SDz is a signal converted to a signal level for each pixel position by the interpolation processing as described with reference to FIG.

【0032】誤差和算出部202は、1フレーム前の画
像信号SDdから、サイズ変更部201によって示され
た座標値Pzを基準として、(1/Z)倍した動き検出
領域と対応する領域の画像信号を選択する。この選択し
た信号と(1/Z)倍した動き検出領域の画像信号SD
zを用いて、画素毎の誤差を算出すると共に加算するこ
とで誤差和ETを算出して比較部203に通知する。
The error sum calculator 202 calculates the image of the area corresponding to the motion detection area multiplied by (1 / Z) with respect to the coordinate value Pz indicated by the size changer 201 from the image signal SDd one frame before. Select a signal. The image signal SD of the motion detection area multiplied by (1 / Z) times the selected signal.
An error sum ET is calculated by calculating and adding an error for each pixel using z, and the result is notified to the comparing unit 203.

【0033】比較部203は、誤差和最小値ETLと誤
差和算出部202で算出された誤差和ETとを比較す
る。ここで誤差和最小値ETLが設定されていないとき
には、最初に算出された誤差和ETを誤差和最小値ET
Lとして設定する。また、誤差和最小値ETLは算出され
る誤差和よりも大きい値に予め設定しておくものとして
も良い。誤差和最小値ETLと誤差和ETとの比較の結
果、誤差和ETが誤差和最小値ETLよりも小さいとき
には、この誤差和ETを新たな誤差和最小値ETLとし
て設定すると共に、誤差和最小値ETLが更新されたこ
とを示す更新信号CHをデータ格納部204に通知す
る。また、比較部203は、誤差和ETと誤差和最小値
ETLとの比較が完了したことを示す信号CEを拡大率
設定部205に通知する。
The comparison unit 203 compares the error sum minimum value ETL with the error sum ET calculated by the error sum calculation unit 202. Here, when the error sum minimum value ETL is not set, the error sum ET calculated first is replaced with the error sum minimum value ET.
Set as L. Further, the error sum minimum value ETL may be set in advance to a value larger than the calculated error sum. When the error sum ET is smaller than the error sum minimum value ETL as a result of the comparison between the error sum minimum value ETL and the error sum ET, the error sum ET is set as a new error sum minimum value ETL and the error sum minimum value is set. An update signal CH indicating that the ETL has been updated is notified to the data storage unit 204. Further, the comparison unit 203 notifies the enlargement ratio setting unit 205 of a signal CE indicating that the comparison between the error sum ET and the minimum error value ETL has been completed.

【0034】データ格納部204には、拡大率設定部2
05から拡大率Zが通知されており、誤差和最小値ET
Lが更新されたことが更新信号CHで示されたときに
は、通知された拡大率Zを記憶する。また、既に拡大率
が記憶されているときには、記憶されている拡大率を通
知された拡大率Zで更新する。また、拡大率設定部20
5から拡大率の変更処理の完了を示す信号CHZが供給
されたときには、記憶している拡大率Zを動き量MVと
してレイヤ化処理ブロック22に供給する。
The data storage unit 204 has an enlargement ratio setting unit 2
The enlargement ratio Z is notified from 05, and the error sum minimum value ET
When the update signal CH indicates that L has been updated, the notified enlargement factor Z is stored. When the enlargement ratio is already stored, the stored enlargement ratio is updated with the notified enlargement ratio Z. The enlargement ratio setting unit 20
When the signal CHZ indicating the completion of the change processing of the enlargement ratio is supplied from 5, the stored enlargement ratio Z is supplied to the layering processing block 22 as the motion amount MV.

【0035】拡大率設定部205は、拡大率の下限値と
上限値を予め設定し(例えば下限値=1.0,上限値=
1.1)、最初に下限値を拡大率Zとしてサイズ変更部
201とデータ格納部204に通知する。その後、比較
部203から誤差和ETと誤差和最小値ETLの比較が
完了したことを示す信号CEが供給される毎に、拡大率
Zを所定量だけ順次増加させて(例えば0.005のス
テップで増加させて)、サイズ変更部201とデータ格
納部204に通知する。その後、拡大率Zが上限値に達
したとき、拡大率設定部205は、拡大率の変更処理の
完了を示す信号CHZをデータ格納部204に通知す
る。
The enlargement ratio setting unit 205 sets a lower limit value and an upper limit value of the enlargement ratio in advance (for example, lower limit = 1.0, upper limit =
1.1) First, the lower limit value is notified to the size changing unit 201 and the data storage unit 204 as the enlargement factor Z. Thereafter, each time a signal CE indicating that the comparison between the error sum ET and the error sum minimum value ETL is completed is supplied from the comparing unit 203, the enlargement factor Z is sequentially increased by a predetermined amount (for example, a step of 0.005). ), And notifies the size change unit 201 and the data storage unit 204. Thereafter, when the enlargement ratio Z reaches the upper limit, the enlargement ratio setting unit 205 notifies the data storage unit 204 of a signal CHZ indicating the completion of the enlargement ratio change processing.

【0036】このように、拡大率設定部205で順次拡
大率を増加させることで動き検出領域の画像を順次縮小
すると共に、この縮小された領域の画像と1フレーム前
の画像と比較して、誤差の最も少なくなるときの拡大率
をデータ格納部204に記憶させることで、サイズ変更
部201での拡大率の変更処理が終了したときに、この
動き検出領域の動き量MVをデータ格納部204からレ
イヤ化処理ブロック22に供給することができる。
As described above, the image of the motion detection area is sequentially reduced by sequentially increasing the enlargement rate by the enlargement rate setting unit 205, and the image of the reduced area is compared with the image of one frame before. By storing the enlargement ratio when the error is minimized in the data storage unit 204, when the change processing of the enlargement ratio by the size change unit 201 is completed, the motion amount MV of the motion detection area is stored in the data storage unit 204. To the layering processing block 22.

【0037】また、設定された全ての動き検出領域につ
いても、拡大率設定部205によって設定された拡大率
Zを用いて同様な処理を行う。拡大率設定部205での
拡大率の変更処理が終了したときには、図8の矢印の長
さで示すように、各動き検出領域ARの動き量MVが判
別されて、それぞれの動き検出領域の動き量MVをデー
タ格納部204からレイヤ化処理ブロック22に通知す
ることができる。
The same processing is performed for all the set motion detection areas using the enlargement ratio Z set by the enlargement ratio setting unit 205. When the enlargement ratio setting process by the enlargement ratio setting unit 205 is completed, the motion amount MV of each motion detection area AR is determined as indicated by the length of the arrow in FIG. The amount MV can be notified from the data storage unit 204 to the layering processing block 22.

【0038】レイヤ化処理ブロック22は、閾値を設定
して動き量と比較することにより、各動き検出領域が複
数レイヤのいずれに属するかを判別して、画像端部領域
を複数のレイヤに分類する。ここで、遠景の画像は動き
量が小さく、近景の画像は動き量が大きくなる。このた
め、レイヤ化処理ブロック22は、閾値を設定して動き
量と比較することにより、各動き検出領域が例えば遠
景,中景,近景のいずれにレイヤに属するかを判別でき
る。
The layering processing block 22 determines which of the plurality of layers each motion detection area belongs to by setting a threshold value and comparing it with the amount of motion, and classifies the image end area into a plurality of layers. I do. Here, a distant view image has a small amount of motion, and a near view image has a large amount of motion. For this reason, the layering processing block 22 can determine whether each motion detection area belongs to a layer, for example, a distant view, a middle view, or a near view by setting a threshold value and comparing the motion amount with the motion amount.

【0039】図9はレイヤ化処理ブロック22の構成を
示している。動き検出ブロック20から供給された動き
量MVは、統計情報算出部221とレイヤ移動量算出部
225に供給される。統計情報算出部221は、供給さ
れた領域毎の動き量に基づく統計情報MS、例えば動き
量の平均値と最大値と最小値、あるいは動き量をクラス
分けして求めた度数分布等を求めてレイヤ分割閾値設定
部222に供給する。
FIG. 9 shows the configuration of the layering processing block 22. The motion amount MV supplied from the motion detection block 20 is supplied to the statistical information calculation unit 221 and the layer movement amount calculation unit 225. The statistical information calculation unit 221 obtains statistical information MS based on the supplied motion amount for each region, for example, an average value, a maximum value, and a minimum value of the motion amount, or a frequency distribution obtained by classifying the motion amount. This is supplied to the layer division threshold value setting unit 222.

【0040】レイヤ分割閾値設定部222は、統計情報
算出部221で求めた統計情報MSに基づいて閾値Th
を設定して、レイヤ判定部223と遅延部224に供給
する。また、レイヤ分割閾値設定部222には、遅延部
224で1フレーム遅延した閾値である、1フレーム前
の閾値Thdが供給されており、統計情報算出部221
で求めた統計情報MSに基づき1フレーム前の閾値Th
dの修正を行って新たな閾値Thを設定する。
The layer division threshold value setting section 222 determines a threshold value Th based on the statistical information MS obtained by the statistical information calculating section 221.
Is supplied to the layer determination unit 223 and the delay unit 224. Further, the threshold value Thd one frame before, which is the threshold value delayed by one frame by the delay unit 224, is supplied to the layer division threshold value setting unit 222.
Threshold value Th one frame before based on the statistical information MS obtained in
A new threshold value Th is set by correcting d.

【0041】ここで、統計情報MSとして動き量の最大
値と最小値が示されたとき、閾値をn個設定する場合に
は、動き量の出現範囲である最大値と最小値の範囲を
(n−1)等分して閾値を設定する。例えば図10Aに
示すように、最大値MVmaxから最小値MVminまでの範
囲を3等分して境界値を閾値Th-1,Th-2に設定す
る。あるいは、平均値MVavgも用いて式(1)と式
(2)に基づき閾値Th-1,Th-2を設定する。
Here, when the maximum value and the minimum value of the amount of motion are indicated as the statistical information MS, when n thresholds are set, the range of the maximum value and the minimum value, which is the appearance range of the amount of motion, is set to ( n-1) Divide equally and set a threshold. For example, as shown in FIG. 10A, the range from the maximum value MVmax to the minimum value MVmin is divided into three equal parts, and the boundary values are set to the threshold values Th-1 and Th-2. Alternatively, the threshold values Th-1 and Th-2 are set based on Expressions (1) and (2) using the average value MVavg.

【0042】[0042]

【数1】 (Equation 1)

【0043】また、1フレーム前の閾値が供給されてい
るときには、この閾値を統計情報算出部221で求めた
統計情報に基づいて補正することにより新たな閾値を算
出する。例えば、1フレーム前の閾値を「Thd-1」,
「Thd-2」としたとき、式(3)と式(4)を用いて
閾値Th-1,Th-2を算出する。なお「α」と「β」は
係数である。
When the threshold value of the previous frame is supplied, a new threshold value is calculated by correcting the threshold value based on the statistical information obtained by the statistical information calculation unit 221. For example, the threshold of one frame before is “Thd−1”,
When “Thd−2” is set, thresholds Th−1 and Th−2 are calculated using Expressions (3) and (4). “Α” and “β” are coefficients.

【0044】[0044]

【数2】 (Equation 2)

【0045】また、図10Bに示すようなヒストグラム
が統計情報として示されたときには、極小となる動き量
を判別して、判別された極小となる動き量に基づいて閾
値Th-1,Th-2を設定することもできる。さらに、ヒ
ストグラムに基づいて既に設定されている閾値Thd-
1,Thd-2を、上述の場合と同様にして統計情報算出部
221で求めた統計情報に基づいて補正して新たな閾値
Th-1,Th-2を求めるものとしても良い。このよう
に、レイヤ分割閾値設定部222で設定された閾値は、
レイヤ判定部223に供給される。
When the histogram as shown in FIG. 10B is displayed as statistical information, the minimum amount of movement is determined, and the threshold values Th-1 and Th-2 are determined based on the determined minimum amount of movement. Can also be set. Further, the threshold value Thd- already set based on the histogram
1, Thd-2 may be corrected based on the statistical information obtained by the statistical information calculation unit 221 in the same manner as described above to obtain new threshold values Th-1 and Th-2. As described above, the threshold value set by the layer division threshold value setting unit 222 is
The information is supplied to the layer determination unit 223.

【0046】レイヤ判定部223は、各動き検出領域の
動き量MVとレイヤ分割閾値設定部で設定された閾値T
hとを比較して、画像端部領域がいずれのレイヤに属し
ているかを決定する。また、この結果を示すレイヤ識別
情報LSを生成してレイヤ移動量算出部225と周辺画
像信号生成ブロック24に供給する。レイヤ移動量算出
部225は、レイヤに含まれる動き検出領域の動き量に
基づき平均値をレイヤ毎に算出して、レイヤ移動量LV
として周辺画像信号生成ブロック24に供給する。
The layer determination section 223 calculates the amount of motion MV of each motion detection area and the threshold T set by the layer division threshold setting section.
By comparing with h, it is determined which layer the image end region belongs to. Further, it generates layer identification information LS indicating the result and supplies it to the layer movement amount calculation unit 225 and the peripheral image signal generation block 24. The layer movement amount calculation unit 225 calculates an average value for each layer based on the movement amount of the motion detection area included in the layer, and calculates the layer movement amount LV.
To the peripheral image signal generation block 24.

【0047】ところで、動き検出領域が例えば青空の一
部であるような場合、動き検出ブロック20は、この動
き検出領域を縮小して誤差和を算出しても拡大率に係ら
ず誤差和が略一定となって動き量を精度良く判別できな
いおそれがある。このため、動き量MVを判別できない
とき、動き検出ブロック20は、動き検出領域内の画像
の色を示す情報をレイヤ化処理ブロック22に供給す
る。また、レイヤ化処理ブロック22は、色を示す情報
を利用して、レイヤ分割を行う。例えば動き量を算出で
きない動き検出領域において、この領域内の画像の色が
青空の色であるときには、この領域を遠景レイヤに割り
当てることでレイヤ識別情報LSを生成する。
When the motion detection area is, for example, a part of the blue sky, the motion detection block 20 calculates the sum of the errors by reducing the motion detection area, and the error sum is substantially independent of the enlargement ratio. There is a possibility that the amount of movement becomes constant and cannot be accurately determined. Therefore, when the motion amount MV cannot be determined, the motion detection block 20 supplies information indicating the color of the image in the motion detection area to the layering processing block 22. Further, the layering processing block 22 performs layer division using information indicating a color. For example, in a motion detection area where the amount of motion cannot be calculated, when the color of the image in this area is the color of the blue sky, the area is assigned to a distant view layer to generate the layer identification information LS.

【0048】次に、周辺画像信号生成ブロック24は、
レイヤ識別情報LSとレイヤ移動量LVに基づき、レイ
ヤ分けされた画像端部領域から対応するレイヤ移動量分
だけ画像を抽出する。また、周辺画像信号生成ブロック
24は、既に生成されている1フレーム前の側面動画像
をレイヤ毎に移動させたのち、レイヤ移動量分だけ抽出
された画像をレイヤ毎に重ね合わせることで画像合成を
行い側面動画像を生成する。さらに、正面動画像の投影
面と右側面動画像の投影面では向きが異なる。このた
め、周辺画像信号生成ブロック24は、生成した側面動
画像を投影面に応じた画像に変換処理することで、スク
リーンに投影する側面動画像の画像信号を生成して出力
する。
Next, the peripheral image signal generation block 24
Based on the layer identification information LS and the layer moving amount LV, an image is extracted from the layered image end region by the corresponding layer moving amount. Further, the peripheral image signal generation block 24 performs image synthesis by moving the already generated one-frame-side side moving image for each layer, and then superimposing an image extracted by the layer moving amount for each layer. To generate a side moving image. Further, the directions are different between the projection plane of the front moving image and the projection plane of the right side moving image. For this reason, the peripheral image signal generation block 24 generates and outputs an image signal of the side moving image to be projected on the screen by converting the generated side moving image into an image corresponding to the projection plane.

【0049】図11は、周辺画像信号生成ブロック24
の構成を示している。この周辺画像信号生成ブロック2
4は、レイヤ化処理ブロック22で正面動画像の画像端
部領域を遠景と中景と近景の3つのレイヤに分割した場
合の構成である。
FIG. 11 shows the peripheral image signal generation block 24.
Is shown. This peripheral image signal generation block 2
Reference numeral 4 denotes a configuration in a case where the image end region of the front moving image is divided into three layers of a distant view, a middle view, and a near view by the layering processing block 22.

【0050】レイヤ化処理ブロック22で生成されたレ
イヤ識別情報LS及びレイヤ移動量LVは、信号抽出部
241に供給される。この信号抽出部241は、正面動
画像の画像信号SDCに基づき、正面動画像の画像端部
領域からレイヤ毎にレイヤ移動量分だけ画像信号を抽出
する。例えば図12Aに示すように、動き検出領域の位
置毎に、正面動画像の右側端から動き検出領域のレイヤ
に応じたレイヤ移動量分だけ画像UEを抽出する。ここ
で、動き検出領域が遠景レイヤと判別されているときに
は、この動き検出領域と対応する位置で正面動画像の右
側端から遠景レイヤのレイヤ移動量に対応した画素数分
の信号が抽出される。また、中景レイヤや近景レイヤと
判別されたときには、中景レイヤや近景レイヤのレイヤ
移動量に対応した画素数の信号が正面動画像の右側端か
ら抽出される。この抽出した各レイヤの画像を重ね合わ
ることで画像合成を行うものとすれば、図12Bに示す
ように右側面動画像URを生成できる。
The layer identification information LS and the layer moving amount LV generated in the layering processing block 22 are supplied to the signal extracting unit 241. The signal extraction unit 241 extracts an image signal by an amount corresponding to a layer movement amount for each layer from an image end area of the front moving image based on the image signal SDC of the front moving image. For example, as shown in FIG. 12A, for each position of the motion detection area, the image UE is extracted from the right end of the front moving image by a layer moving amount corresponding to the layer of the motion detection area. Here, when the motion detection area is determined to be a distant view layer, signals corresponding to the number of pixels corresponding to the layer movement amount of the distant view layer are extracted from the right end of the front moving image at a position corresponding to the motion detection area. . Further, when it is determined that the image is a middle view layer or a near view layer, a signal of the number of pixels corresponding to the layer movement amount of the middle view layer or the close view layer is extracted from the right end of the front moving image. If the image composition is performed by superimposing the extracted images of the respective layers, a right side moving image UR can be generated as shown in FIG. 12B.

【0051】このように、信号抽出部241によって抽
出された遠景レイヤの画像信号SR-fは加算部242に
供給される。また、抽出された中景レイヤの画像信号S
R-mは加算部243に供給されると共に、抽出された近
景レイヤの画像信号SR-nは加算部244に供給され
る。
As described above, the image signal SR-f of the distant view layer extracted by the signal extracting unit 241 is supplied to the adding unit 242. Further, the extracted image signal S of the middle ground layer
Rm is supplied to the addition unit 243, and the extracted near-view layer image signal SR-n is supplied to the addition unit 244.

【0052】画像シフト部245には、レイヤ化処理ブ
ロック22からレイヤ移動量が通知されると共に、遅延
部26から1フレーム前のレイヤ毎の画像信号SERd-
f,SERd-m,SERd-nが供給される。この画像シフト
部245は、画像信号SERd-fに基づく遠景レイヤの画
像を遠景レイヤのレイヤ移動量分だけ移動させた画像信
号SRd-fを生成して加算部242に供給する。同様に、
画像シフト部245は、画像信号SERd-mに基づく中景
レイヤの画像を中景レイヤのレイヤ移動量分だけ移動さ
せた画像信号SRd-mを生成して加算部243に供給する
と共に、画像信号SERd-nに基づく近景レイヤの画像を
近景レイヤのレイヤ移動量分だけ移動させた画像信号S
Rd-nを生成して加算部244に供給する。
The image shift unit 245 is notified of the amount of layer movement from the layering processing block 22, and the image signal SERd− for each layer one frame before from the delay unit 26.
f, SERd-m and SERd-n are supplied. The image shift unit 245 generates an image signal SRd-f obtained by moving the image of the distant view layer based on the image signal SERd-f by the distance of the distant view layer, and supplies the image signal SRd-f to the adder 242. Similarly,
The image shift unit 245 generates an image signal SRd-m obtained by moving the image of the middle ground layer based on the image signal SERd-m by the moving amount of the middle ground layer, and supplies the generated image signal SRd-m to the addition unit 243. Image signal S obtained by moving the image of the foreground layer based on SERd-n by the amount of the layer movement of the foreground layer
Rd-n is generated and supplied to the adder 244.

【0053】加算部242は、画像信号SR-fと画像信
号SRd-fとの加算信号SRA-fを生成して補間部246に
供給する。同様に、加算部243は、画像信号SR-mと
画像信号SRd-mとの加算信号SRA-mを生成して補間部2
46に供給すると共に、加算部244は、画像信号SR-
nと画像信号SRd-nとの加算信号SRA-nを生成して補間
部246に供給する。
The addition section 242 generates an addition signal SRA-f of the image signal SR-f and the image signal SRd-f, and supplies the addition signal SRA-f to the interpolation section 246. Similarly, the addition unit 243 generates an addition signal SRA-m of the image signal SR-m and the image signal SRd-m, and
46, and the adder 244 outputs the image signal SR-
An addition signal SRA-n of n and the image signal SRd-n is generated and supplied to the interpolation unit 246.

【0054】ここで、例えば画像信号SERd-f,SERd
-m,SERd-nを重ね合わせることにより生成した右側面
動画像URが図12Cに示すものであるときには、画像
シフト部245によってレイヤ毎に、それぞれのレイヤ
移動量MR1,MR2だけ画像が移動されるので、画像信
号SRd-f,SRd-m,SRd-nを重ね合わせることにより生
成した右側面動画像URは図12Dに示すものとなる。
さらに、加算部242,243,244によって画像信
号SRと画像信号SRdが加算されるので、加算信号SRA-
f,SRA-m,SRA-nを重ね合わせることにより画像UEが
合成されて、右側面動画像URは図12Eに示すものと
なり、図12Cに対して1フレーム期間経過後の右側面
動画像を生成できる。またこのとき、画像シフト部24
5によってレイヤ毎に、それぞれのレイヤ移動量だけ画
像が移動されると共に、正面動画像の右側端からは、レ
イヤ毎に、それぞれのレイヤ移動量分だけ画像が抽出さ
れるので、移動された画像分だけ正面動画像から画像が
重ね合わせられることとなり、各レイヤは画像が移動さ
れても連続した画像となる。
Here, for example, the image signals SERd-f, SERd
When the right side moving image UR generated by superimposing -m and SERd-n is as shown in FIG. 12C, the image is shifted by the layer shift amounts MR1 and MR2 for each layer by the image shift unit 245. Therefore, the right side moving image UR generated by superimposing the image signals SRd-f, SRd-m, and SRd-n is as shown in FIG. 12D.
Further, since the image signals SR and SRd are added by the adders 242, 243, 244, the addition signal SRA-
f, SRA-m, and SRA-n are superimposed to synthesize an image UE, and the right-side moving image UR is as shown in FIG. 12E. The right-side moving image after one frame period elapses with respect to FIG. Can be generated. At this time, the image shift unit 24
5, the image is moved by the layer moving amount for each layer, and the image is extracted from the right end of the front moving image by the layer moving amount for each layer. Images are superimposed on the front moving image by an amount corresponding to each other, and each layer becomes a continuous image even if the image is moved.

【0055】補間部246は、加算部242,243,
244から供給された加算信号に基づき、移動量の少な
いレイヤの画像から順に重ね合わせることで画像合成を
行うとき、レイヤの移動量の差によって画像の無い隙間
部分が生じているか否かを判別して、隙間部分が生じて
いるときには、この隙間領域の画像を補間によって生成
する。例えば建物等の動きのない被写体を車載カメラで
撮影したときには、遠景レイヤの移動量は小さく近景レ
イヤの移動量は大きくなる。このため、画像シフト部2
45によって右側面動画像の遠景画像と中景画像と近景
画像を各レイヤ移動量分だけ移動した場合、例えば図1
3Aに示す右側面動画像おいて、中景レイヤの画像UR2
と近景レイヤ画像UR2が隣接しており、近景レイヤのレ
イヤ移動量と中景レイヤの移動量が異なるときには、レ
イヤ毎に画像を移動させると図13Bに示すように画像
の無い隙間領域UNが生じてしまう場合がある。なお隙
間領域は、画像を重ね合わせた箇所にその旨を示すフラ
グを立てる等の方法を用いると判別できる。
The interpolation unit 246 includes addition units 242, 243,
Based on the addition signal supplied from the H.244, when the images are synthesized by superimposing the images of the layers having the smaller moving amounts in order, it is determined whether or not a gap portion having no image occurs due to the difference in the moving amount of the layers. When a gap is generated, an image of the gap is generated by interpolation. For example, when a stationary object such as a building is photographed by an in-vehicle camera, the moving amount of the distant view layer is small and the moving amount of the near view layer is large. Therefore, the image shift unit 2
When the distant view image, the middle view image, and the near view image of the right side moving image are moved by each layer moving amount by 45, for example, FIG.
In the right side moving image shown in FIG.
When the foreground layer image UR2 and the foreground layer image UR2 are adjacent to each other and the amount of movement of the foreground layer is different from the amount of movement of the middle view layer, when the image is moved for each layer, a gap region UN without an image is generated as shown in FIG. 13B. In some cases. The gap area can be determined by using a method such as setting a flag indicating the fact at the position where the images are overlapped.

【0056】このため、補間部246は、隙間領域の周
辺画素を利用して補間を行い、この隙間領域の画像を創
り出して重ね合わせる。例えば図13Cに示すように隙
間領域の後方側に位置する画像をレイヤの移動方向であ
る隙間領域側に伸長させることにより隙間領域を補間す
る。このように、補間処理を行うことで、右側面動画像
に隙間領域のない右側面動画像の画像信号を生成でき
る。また、後方側に位置する画像をレイヤの移動方向側
に伸長させて補間を行うことにより、動き量の大きい画
像が移動中に尾を引くように長くなってしまうことも防
止できる。また、隙間領域側に周辺画像をシフトさせる
ものとしても良い。さらに、補間部246は、周辺の画
像信号を用いて距離の重み付け平均、すなわち隙間領域
に接する隣接領域内の画素の重み付け平均により、複数
の画素を作成して隙間領域を埋めることで補間処理を行
うものとしても良い。
For this reason, the interpolating unit 246 performs interpolation using the peripheral pixels of the gap area, creates an image of the gap area, and superimposes the image. For example, as shown in FIG. 13C, the gap area is interpolated by extending the image located on the rear side of the gap area to the gap area side, which is the moving direction of the layer. As described above, by performing the interpolation processing, it is possible to generate an image signal of the right side moving image without a gap area in the right side moving image. In addition, by performing interpolation by extending the image located on the rear side in the direction of movement of the layer, it is possible to prevent an image with a large amount of movement from becoming long in a trailing manner during movement. Further, the peripheral image may be shifted to the gap region side. Further, the interpolation unit 246 performs interpolation processing by creating a plurality of pixels and filling the gap area by weighted average of distances using peripheral image signals, that is, weighted average of pixels in adjacent areas that are in contact with the gap area. It is good to do.

【0057】この補間部246による補間処理後の加算
信号SRA-fは、画像信号SER-fとして中景合成部24
7に供給されると共に遅延部26に供給される。同様
に、中景レイヤの加算信号SRA-mは、画像信号SER-m
として中景合成部247と遅延部26に供給されると共
に、近景レイヤの加算信号SRA-nは、画像信号SER-n
として近景合成部248と遅延部26に供給される。
The addition signal SRA-f after the interpolation processing by the interpolation section 246 is converted into an image signal SER-f by the middle-view synthesis section 24.
7 and to the delay unit 26. Similarly, the added signal SRA-m of the middle-ground layer is the image signal SER-m
Is supplied to the middle view synthesis section 247 and the delay section 26, and the sum signal SRA-n of the foreground layer is converted to the image signal SER-n
Is supplied to the foreground composition unit 248 and the delay unit 26.

【0058】中景合成部247は、画像信号SER-fと
画像信号SER-mを用いて、遠景レイヤの画像に中景レ
イヤの画像を重ね合わせた画像信号SER-fmを生成して
近景合成部248に供給する。
Using the image signal SER-f and the image signal SER-m, the middle view synthesis section 247 generates an image signal SER-fm in which the middle view layer image is superimposed on the far view layer image to produce the near view synthesis. To the unit 248.

【0059】近景合成部248は、画像信号SER-fmと
画像信号SER-nを用いて、遠景画像に中景画像を重ね
合わせた画像に対して更に近景画像を重ね合わせること
で画像合成を行い右側面動画像の画像信号SFRとして
画像変換部249に供給する。
The foreground composition unit 248 performs image composition by superimposing a foreground image on an image obtained by superimposing a middle image on a distant image using the image signal SER-fm and the image signal SER-n. It is supplied to the image conversion unit 249 as an image signal SFR of the right side moving image.

【0060】画像変換部249は、近景合成部248か
ら供給された右側面動画像の画像信号SERを画像投影
用の周辺画像信号SDRに変換する。ここで、近景合成
部248から供給された画像信号SFRに基づく画像
は、上述したように1フレーム前の画像をレイヤ移動量
に応じて移動させると共に、正面動画像UCからレイヤ
移動量分だけ抽出して、この移動された画像に抽出した
画像を重ね合わせた画像である。このため、図14Aの
実線で示す画像UR’となり、破線で示すような画像基
準位置CPから湧き出してくるような画像とならない。
また、図14Bに示すように、右側面動画像を投影する
スクリーン10Rと正面動画像を投影するスクリーン1
0Cの投影面は同一の向きでない。このため、画像変換
部249は、画像信号SFRに基づく画像UR’を画像基
準位置CPから湧き出してくるような右側面動画像UR
とする画像変換処理を行う。
The image conversion unit 249 converts the image signal SER of the right side moving image supplied from the foreground composition unit 248 into a peripheral image signal SDR for image projection. Here, the image based on the image signal SFR supplied from the foreground composition unit 248 moves the image one frame before according to the layer moving amount as described above, and extracts only the layer moving amount from the front moving image UC. The extracted image is superimposed on the moved image. Therefore, the image UR 'is indicated by a solid line in FIG. 14A, and is not an image that springs out from the image reference position CP as indicated by a broken line.
Further, as shown in FIG. 14B, a screen 10R for projecting a right side moving image and a screen 1R for projecting a front moving image.
The 0C projection planes are not in the same orientation. Therefore, the image conversion unit 249 generates the image UR 'based on the image signal SFR from the image reference position CP.
Is performed.

【0061】すなわち、画像変換部249は、画像変換
処理として、スクリーン10Rに投影した右側面動画像
に対応した画像基準位置CPRからの距離に比例して画
像信号SFRに基づく画像を垂直方向に拡大する。また
水平方向については、画像の動きが画像基準位置CPR
からの距離に比例するように拡大する。
That is, the image conversion section 249 enlarges the image based on the image signal SFR in the vertical direction in proportion to the distance from the image reference position CPR corresponding to the right side moving image projected on the screen 10R as image conversion processing. I do. In the horizontal direction, the movement of the image is the image reference position CPR.
It expands in proportion to the distance from.

【0062】ここで、図14Cに示すように、右側面動
画像の前端から画像基準位置CPRまでの長さを
「L」、右側面動画像の水平方向の長さを「A」、更に
正面動画像の投影面と右側面動画像の投影面とがなす角
度θsに基づく比例定数γを設定すると、図14Dに示
すように、画像信号SFRに基づく画像の位置(x,
y)と、この位置に対応する画像変換後の位置(X,
Y)の関係は近似的に式(5)(6)で示すことができ
る。なお、長さ「L」「A」及び比例定数γは、側面動
画像を生成する前に予め設定する。
Here, as shown in FIG. 14C, the length from the front end of the right side moving image to the image reference position CPR is "L", the horizontal length of the right side moving image is "A", and When a proportionality constant γ based on the angle θs between the projection plane of the moving image and the projection plane of the right-side moving image is set, as shown in FIG. 14D, the position (x,
y) and a position (X,
The relationship of Y) can be approximately expressed by Expressions (5) and (6). The lengths “L” and “A” and the proportionality constant γ are set in advance before generating the side moving image.

【0063】[0063]

【数3】 (Equation 3)

【0064】このため、画像変換後の位置(X,Y)の
信号として、式(5)(6)に基づき算出した画像信号
SFRに基づく画像上の位置(x,y)の信号を抽出す
れば、画像変換された周辺画像信号SDRを容易に生成
できる。また、左側面動画像の周辺画像信号SDLも同
様にして生成することができる。このため、プロジェク
タ12Rは、この周辺画像信号SDRを用いて右側面動画
像をスクリーン10Rに投影することで、図14Eに示
すように、より臨場感の高い右側面動画像を投影でき
る。また、プロジェクタ12Lは、この周辺画像信号S
DLを用いて左側面動画像をスクリーン10Lに投影する
ことで、より臨場感の高い左側面動画像を投影できる。
さらに、プロジェクタ12Cは、周辺画像信号SDL、S
DRの生成に要する時間だけ、画像信号SDCを遅延させ
た画像信号である画像信号SDC’に基づいてスクリー
ン10Cに正面動画像を投影すれば、正面動画像の画像
信号SDCを用いるだけで、リアルタイムに正面動画像
と良好な左右の側面動画像を投影することができる。上
述の説明では、側面動画像を生成するものとしたが、上
面側や底面側の動画像も同様にしてリアルタイムで表示
できる。なお、上述の第1の実施の形態や後述する第2
および第3の実施の形態におけるレイヤ分け,閾値設
定,動き検出領域の数やサイズ及び位置等は例示的なも
のであって限定的なものでない。例えば、動き検出領域
の動きの求め方では、ブロックマッチング方法等を用い
ることもできる。但し、前進画像や後退画像のズーム率
によっては本手法が望ましい。また、レイヤ分けにおけ
る閾値算出は、動き情報(動き量・方向)に基づいて適
宜レイヤを決定することができれば、どのような手法で
も良い。
For this reason, the signal at the position (x, y) on the image based on the image signal SFR calculated based on the equations (5) and (6) is extracted as the signal at the position (X, Y) after the image conversion. For example, it is possible to easily generate an image-converted peripheral image signal SDR. Further, the peripheral image signal SDL of the left side moving image can be similarly generated. Therefore, the projector 12R projects the right-side moving image on the screen 10R by using the peripheral image signal SDR, so as to be able to project a more realistic right-side moving image as shown in FIG. 14E. Further, the projector 12L outputs the peripheral image signal S
By projecting the left side moving image on the screen 10L using the DL, it is possible to project a more realistic left side moving image.
Further, the projector 12C outputs the peripheral image signals SDL, S
By projecting the front moving image on the screen 10C based on the image signal SDC 'which is an image signal obtained by delaying the image signal SDC by the time required for generating the DR, the real-time image signal can be obtained only by using the image signal SDC of the front moving image. , A front moving image and a good left and right side moving image can be projected. In the above description, the side moving image is generated. However, the moving image on the upper surface side or the bottom surface side can be displayed in real time in the same manner. Note that the above-described first embodiment and a second
In addition, the layer division, the threshold setting, the number, the size, the position, and the like of the motion detection areas in the third embodiment are illustrative and not restrictive. For example, a block matching method or the like can be used to determine the motion of the motion detection area. However, this method is desirable depending on the zoom ratio of the forward image or the backward image. In addition, the threshold calculation in the layer division may be performed by any method as long as the layer can be appropriately determined based on the motion information (the motion amount / direction).

【0065】さらに、上述の各ブロックで行われる処理
はハードウェアだけでなくソフトウェアで実現するもの
としても良い。この場合の構成を図15に示す。
Further, the processing performed in each block described above may be realized not only by hardware but also by software. FIG. 15 shows the configuration in this case.

【0066】コンピュータ30は、図15に示すように
CPU(Central Processing Unit)301を内蔵してお
り、このCPU301にはバス320を介してROM3
02,RAM303,ハード・ディスク・ドライブ30
4,入出力インタフェース305が接続されている。さ
らに、入出力インタフェース305には入力部311や
記録媒体ドライブ312,通信部313,画像入出力部
314が接続されている。
The computer 30 incorporates a CPU (Central Processing Unit) 301 as shown in FIG.
02, RAM 303, hard disk drive 30
4, the input / output interface 305 is connected. Further, an input unit 311, a recording medium drive 312, a communication unit 313, and an image input / output unit 314 are connected to the input / output interface 305.

【0067】外部装置から命令が入力されたり、キーボ
ードやマウス等の操作入力手段あるいはマイク等の音声
入力手段等を用いて構成された入力部311から、命令
が入力されると、この命令が入出力インタフェース30
5を介してCPU301に供給される。
When a command is input from an external device or from an input unit 311 configured using operation input means such as a keyboard or a mouse or voice input means such as a microphone, the command is input. Output interface 30
5 is supplied to the CPU 301.

【0068】CPU301は、ROM302やRAM3
03あるいはハード・ディスク・ドライブ304に記憶
されているプログラムを実行して、供給された命令に応
じた処理を行う。さらに、ROM302やRAM303
あるいはハード・ディスク・ドライブ304には、上述
の画像処理装置と同様な処理をコンピュータ30で実行
させるための画像処理プログラムを予め記憶させて、周
辺画像である側面動画像の生成を行う。
The CPU 301 includes a ROM 302 and a RAM 3
03 or a program stored in the hard disk drive 304 to execute a process according to the supplied instruction. Furthermore, a ROM 302 and a RAM 303
Alternatively, the hard disk drive 304 previously stores an image processing program for causing the computer 30 to execute the same processing as the above-described image processing apparatus, and generates a side moving image as a peripheral image.

【0069】図16は、第1の実施の形態における画像
処理プログラムの全体構成を示すフローチャートであ
る。図において、ステップST1では動き検出処理を行
い、画像の動き量を検出する。次にステップST2では
レイヤ化処理で画像がいずれのレイヤに属するを示すレ
イヤ情報を生成すると共に、レイヤ毎の動き量を算出す
る。ステップST3では周辺画像生成処理を行い、レイ
ヤ情報とレイヤ毎の動き量に基づき周辺画像を合成す
る。
FIG. 16 is a flowchart showing the overall configuration of the image processing program according to the first embodiment. In the figure, in step ST1, a motion detection process is performed to detect a motion amount of an image. Next, in step ST2, layer information indicating which layer the image belongs to is generated by the layering process, and the amount of motion for each layer is calculated. In step ST3, a peripheral image generation process is performed, and a peripheral image is synthesized based on the layer information and the amount of motion for each layer.

【0070】図17は、図16のステップST1の動き
量検出処理を示すフローチャートである。ステップST
11では、正面動画像に対して動き検出領域を設定して
ステップST12に進む。ステップST12では、動き
検出領域の画像を縮小して誤差和を算出してステップS
T13に進む。ステップST13では既に算出されてい
る誤差和を比較して誤差和が少なくなる動き量を検出し
てステップST14に進む。ステップST14では、予
め設定された範囲内の画像サイズでステップST12,
ST13の処理が完了したか否かを判別して、完了して
いないときにはステップST11に戻り、完了したとき
にはステップST15に進む。ステップST15では、
誤差和が最も少なくなる動き量を動き検出領域の動き量
とする。
FIG. 17 is a flowchart showing the motion amount detection processing in step ST1 of FIG. Step ST
At 11, a motion detection area is set for the front moving image, and the process proceeds to step ST12. In step ST12, the image of the motion detection area is reduced to calculate the sum of errors, and
Proceed to T13. In step ST13, the calculated sum of errors is compared to detect a motion amount in which the sum of errors is reduced, and the process proceeds to step ST14. In step ST14, image sizes within a preset range are set in step ST12,
It is determined whether or not the processing in ST13 has been completed. If the processing has not been completed, the process returns to step ST11, and if completed, the process proceeds to step ST15. In step ST15,
The amount of motion that minimizes the error sum is defined as the amount of motion in the motion detection area.

【0071】図18は、図16のステップST2のレイ
ヤ化処理を示すフローチャートである。ステップST2
1では、ステップST1の動き量検出処理で検出された
動き量を用いて統計情報、例えば平均値を算出してステ
ップST22に進む。ステップST22では、統計情報
に基づき、画像を例えば遠景,中景,近景にレイヤ分け
するための閾値を設定する。ステップST23では設定
された閾値と動き量を比較して、動き検出領域がいずれ
のレイヤに属するかを示すレイヤ情報を生成する。ステ
ップST24では、レイヤに含まれる動き検出領域の動
き量に基づきレイヤ毎の動き量を算出する。
FIG. 18 is a flowchart showing the layering process in step ST2 of FIG. Step ST2
In step 1, statistical information, for example, an average value is calculated using the motion amount detected in the motion amount detection processing in step ST1, and the process proceeds to step ST22. In step ST22, based on the statistical information, a threshold is set for layering the image into, for example, a distant view, a middle view, and a near view. In step ST23, the set threshold value and the motion amount are compared to generate layer information indicating to which layer the motion detection area belongs. In step ST24, the motion amount for each layer is calculated based on the motion amount of the motion detection area included in the layer.

【0072】図19は、図16のステップST3の周辺
画像生成処理を示すフローチャートである。ステップS
T31では、レイヤ化処理で生成されたレイヤ毎の動き
量とレイヤ情報に基づき、正面動画像からレイヤ毎に画
像を抽出する。ステップST32では、抽出した各レイ
ヤの画像を所定の位置に合成を生成する。ステップST
33では、画像の合成を行ったときに画像の無い部分が
生じて、この部分の画像を補う補間処理か必要か否かを
判別する。ここで、画像の無い部分が生じるときにはス
テップST34に進み、画像の無い部分が生じていない
ときにはステップST35に進む。ステップST34で
は補間処理を行いステップST35に進む。例えば、画
像の無い部分の周辺の画像を伸長して補間する。ステッ
プST35では、合成された画像を投影するスクリーン
の向きに合わせて幾何変換処理を行い、この幾何変換が
行われた画像の画像信号をステップST36で周辺画像
の画像信号として出力する。
FIG. 19 is a flowchart showing the peripheral image generation processing of step ST3 in FIG. Step S
At T31, an image is extracted for each layer from the front moving image based on the amount of motion and the layer information for each layer generated in the layering process. In step ST32, the image of each extracted layer is synthesized at a predetermined position. Step ST
At 33, it is determined whether or not there is an imageless portion when the images are combined, and it is necessary to perform interpolation processing to supplement the image of this portion. Here, when a portion having no image occurs, the process proceeds to step ST34, and when a portion having no image occurs, the process proceeds to step ST35. In step ST34, an interpolation process is performed, and the process proceeds to step ST35. For example, an image around a portion having no image is expanded and interpolated. In step ST35, a geometric transformation process is performed in accordance with the orientation of the screen on which the synthesized image is projected, and the image signal of the image subjected to the geometric transformation is output as an image signal of the peripheral image in step ST36.

【0073】このような画像処理プログラムは、磁気や
光を利用したリムーバブル記録媒体や半導体素子等を用
いて構成されたリムーバブルの情報記録伝送媒体、例え
ばフロッピー(R)ディスクやCD−ROM等の光ディ
スク、MOディスク等の光磁気ディスク、テープカート
リッジ、あるいは半導体メモリ等に記録するものとして
も良い。この場合、これらのリムーバブル情報記録伝送
媒体を記録媒体ドライブ312に装着して画像処理プロ
グラムを読み出し、読み出したプログラムを入出力イン
タフェース305やバス320を介してROM302や
ハード・ディスク・ドライブ304等に記憶させること
によりインストールしても良い。
Such an image processing program is a removable information recording / transmission medium constituted by using a removable recording medium utilizing magnetism or light, a semiconductor element, or the like, for example, an optical disk such as a floppy (R) disk or CD-ROM. Or a magneto-optical disk such as an MO disk, a tape cartridge, or a semiconductor memory. In this case, the removable information recording transmission medium is mounted on the recording medium drive 312 to read the image processing program, and the read program is stored in the ROM 302, the hard disk drive 304, or the like via the input / output interface 305 or the bus 320. It may be installed by making it.

【0074】さらに、情報記録伝送媒体は、画像処理プ
ログラムを伝送する有線や無線の伝送路、たとえばLA
Nやインターネット等のネットワーク、あるいは衛星放
送波や地上放送波等も含まれる。この場合、情報記録伝
送媒体は通信部313と接続されて、情報記録伝送媒体
を介して伝送された画像処理プログラムは、通信部31
3や入出力インタフェース305およびバス320を介
してROM302やハード・ディスク・ドライブ304
等に記憶されて画像処理プログラムのインストールが行
われる。
Further, the information recording transmission medium is a wired or wireless transmission path for transmitting an image processing program, for example, an LA.
Network such as N and the Internet, or satellite broadcast waves and terrestrial broadcast waves are also included. In this case, the information recording transmission medium is connected to the communication unit 313, and the image processing program transmitted via the information recording transmission medium is transmitted to the communication unit 31.
ROM 302 or a hard disk drive 304 via an input / output interface 3, an input / output interface 305 and a bus 320.
And the like, and the image processing program is installed.

【0075】ここで、画像処理プログラムの実行中に正
面動画像の画像信号が画像入出力部314に入力される
と、上述の画像処理ブロックでの処理を行い、正面動画
像の画像信号に基づき側面動画像の画像信号を生成す
る。この生成された側面動画像の画像信号を、画像入出
力部314から出力してプロジェクタ12L,12Rに供
給することにより、図2に示す画像表示を行うことがで
きる。
Here, when the image signal of the front moving image is input to the image input / output unit 314 during the execution of the image processing program, the processing in the above-described image processing block is performed, and based on the image signal of the front moving image. An image signal of the side moving image is generated. The image signal shown in FIG. 2 can be displayed by outputting the generated image signal of the side moving image from the image input / output unit 314 and supplying it to the projectors 12L and 12R.

【0076】このように、上述の実施の形態によれば、
1つの車載カメラなどによる撮影によって得られた少な
くとも1つの拘束条件を満たす動きの画像信号SDCを
入力するだけで、この画像信号SDCに基づく動画像に
存在しない周辺画像をリアルタイムで提示できるので、
臨場感の高い多方向の画像提示が可能となる。
As described above, according to the above-described embodiment,
By simply inputting an image signal SDC of a motion that satisfies at least one constraint condition obtained by photographing with one vehicle-mounted camera or the like, a peripheral image that does not exist in a moving image based on the image signal SDC can be presented in real time.
Multi-directional image presentation with a high sense of reality can be realized.

【0077】また、元々無い部分の画像を入力画像に基
づいて創り出すため、無い部分の画像を得るために多数
のカメラや特殊なカメラを用いる必要がなく、低コスト
であると共に表示範囲が広く奥行感のある画像を得るこ
とができる。
Further, since an image of an originally nonexistent portion is created based on an input image, it is not necessary to use a large number of cameras or special cameras to obtain an image of an originally nonexistent portion. An image with a feeling can be obtained.

【0078】さらに、実写画像を用いて画像を創り出す
ので、よりリアルな画像提示が可能となり、コンピュー
タグラフィクスで仮想空間を創るように3次元空間を再
構築するものでないので、非常に簡単な処理で入力画像
と異なる投影面の画像を得ることができる。
Furthermore, since an image is created using a real image, it is possible to present a more realistic image. Since the three-dimensional space is not reconstructed as if a virtual space is created by computer graphics, very simple processing can be performed. An image on a projection plane different from the input image can be obtained.

【0079】また、現存する莫大な画像ソースに対して
も、それが少なくとも1つの拘束条件を満たす動きの画
像であれば、上述の処理を行うことで、両側面や上下面
の画像を入力された画像と同時に提示することができ、
より臨場感が高く、広範囲な映像を表現することができ
る。
Further, even for an enormous existing image source, if it is a motion image satisfying at least one constraint condition, the above-described processing is performed to input images on both side surfaces and upper and lower surfaces. Images can be presented at the same time
It is more realistic and can express a wide range of images.

【0080】ところで、上述の画像処理装置15Aは、
正面動画像の動き方向が一点から放射方向であるという
拘束条件を加えることで、正面動画像と左側面動画像と
右側面動画像を入力された画像信号SDCに基づいてリ
アルタイムに表示するものとした。しかし、蓄積されて
自由に読み出し可能な画像信号SDCを用いるものとす
れば、上述のような拘束条件を加えることなく、画像信
号SDCに基づいて正面動画像と左側面動画像と右側面
動画像を表示させることができる。
By the way, the above-mentioned image processing device 15A
By adding a constraint that the moving direction of the front moving image is a radial direction from one point, the front moving image, the left side moving image, and the right side moving image are displayed in real time based on the input image signal SDC. did. However, if the stored and freely readable image signal SDC is used, the front moving image, the left side moving image, and the right side moving image based on the image signal SDC can be used without adding the above-described constraint condition. Can be displayed.

【0081】このような処理を行う画像処理装置15B
は、この蓄積されている例えば車載カメラ等で撮影した
正面動画像の画像信号SDCをプロジェクタ12Cに供給
して、画像信号SDCに基づく正面動画像を図2に示す
正面に位置するスクリーン10Cに表示させる。また、
画像処理装置15Bは、蓄積されている正面動画像の画
像信号SDCに基づき、車載カメラの視野範囲に含まれ
ていない画角の周辺画像を示す画像信号、例えば正面動
画像と連続する左右の側面動画像を示す画像信号である
周辺画像信号SDL,SDRを生成するための中間画像情
報を生成して蓄積させる。スクリーン10Cで正面動画
像を表示する際には、蓄積させた中間画像情報を用いて
正面動画像と連続する側面動画像の周辺画像信号SD
L,SDRを生成して、周辺画像信号SDLをプロジェク
タ12Lに供給すると共に周辺画像信号SDRをプロジェ
クタ12Rに供給する。このため、左側に位置するスク
リーン10Lに正面動画像と連続性を有する左側面動画
像が表示されると共に、右側に位置するスクリーン10
Rに正面動画像と連続性を有する右側面動画像が表示さ
れて、広画角の画像提示を行うことができる。なお、画
像信号SDCや中間画像情報の蓄積は画像処理装置15
Bで行っても良く、外部記憶手段に蓄積させるものとし
ても良い。
The image processing apparatus 15B for performing such processing
Supplies the stored image signal SDC of the front moving image captured by, for example, an in-vehicle camera to the projector 12C, and displays the front moving image based on the image signal SDC on the screen 10C located at the front shown in FIG. Let it. Also,
The image processing device 15B generates an image signal indicating a peripheral image at an angle of view that is not included in the visual field range of the vehicle-mounted camera based on the accumulated image signal SDC of the front moving image, for example, left and right side surfaces that are continuous with the front moving image. Intermediate image information for generating peripheral image signals SDL and SDR, which are image signals indicating a moving image, is generated and stored. When the front moving image is displayed on the screen 10C, the peripheral image signal SD of the side moving image continuous with the front moving image using the accumulated intermediate image information.
L and SDR are generated, and the peripheral image signal SDL is supplied to the projector 12L and the peripheral image signal SDR is supplied to the projector 12R. For this reason, the left side moving image having continuity with the front moving image is displayed on the screen 10L located on the left side, and the screen 10L located on the right side is displayed.
A right side moving image having continuity with the front moving image is displayed on R, and an image with a wide angle of view can be presented. The storage of the image signal SDC and the intermediate image information is performed by the image processing device 15.
B, or may be stored in external storage means.

【0082】次に、この発明の第2の実施の形態とし
て、画像処理装置15Bで画像信号SDCや中間画像情
報を蓄積する場合について説明する。図20は、画像処
理装置15Bの概略構成を示している。この画像処理装
置15Bは、蓄積された画像信号SDCを用いて正面動
画像と左側面動画像と右側面動画像を表示できるもので
ある。画像信号SDCは、蓄積部50の正面動画像信号
蓄積領域51に蓄積されており、動き検出ブロック40
の遅延部41と動き検出部42およびレイヤ化処理ブロ
ック45の情報生成部47に供給されるものである。
Next, as a second embodiment of the present invention, a case where the image processing device 15B stores the image signal SDC and the intermediate image information will be described. FIG. 20 shows a schematic configuration of the image processing device 15B. The image processing device 15B can display a front moving image, a left moving image, and a right moving image using the stored image signal SDC. The image signal SDC is stored in the front moving image signal storage area 51 of the storage unit 50, and the motion detection block 40
Are supplied to the delay unit 41, the motion detection unit 42, and the information generation unit 47 of the layering processing block 45.

【0083】遅延部41は、画像信号SDCを1フレー
ム遅延させて画像信号SDCaとして動き検出部42に供
給する。動き検出部42は、正面動画像の側端側に、図
21の破線で示すように区切られた複数の動き検出領域
を設定して、この動き検出領域の注目フレームの画像信
号SDCと1フレーム前の画像信号SDCaとの比較を動
き検出領域毎に行い、画像の動きを示す動きベクトルM
VEを動き検出領域毎に判別してレイヤ化処理ブロック
45のレイヤ分類部46に供給する。
The delay section 41 delays the image signal SDC by one frame and supplies it to the motion detecting section 42 as the image signal SDCa. The motion detection unit 42 sets a plurality of motion detection areas divided as indicated by broken lines in FIG. 21 on the side end side of the front moving image, and sets the image signal SDC of the frame of interest in the motion detection area and one frame. A comparison with the previous image signal SDCa is performed for each motion detection area, and a motion vector M indicating the motion of the image is calculated.
VE is determined for each motion detection area and supplied to the layer classification unit 46 of the layering processing block 45.

【0084】レイヤ分類部46は、各動き検出領域の動
きベクトルMVEに基づいて正面動画像の動きパターン
を判定して、中間画像情報を生成する際のレイヤ設定を
行う。例えば、レイヤ分類部46は、離れた被写体を撮
影した遠景画像のレイヤ,近接した被写体を撮影した近
景画像のレイヤ,遠景画像と近景画像との間に位置する
中景画像のレイヤ、およびこれらのレイヤとは異なるレ
イヤをどのように設けるかを判別してレイヤ設定を行
う。ここで、車載カメラで正面動画像を撮影したときの
正面動画像は、一方向に直進する場合、正面動画像を順
次ズームインした画像となる。また、車が後退している
ときには、正面動画像を順次ズームアウトした画像とな
る。さらに、追越し車両が撮影されたときには、ズーム
イン画像に追い越し車両がズームアウト画像として表示
されることとなる。また、右折や左折をしたときには、
例えば正面動画像の上部側が水平方向に移動されると共
に下部側はズームイン画像となる。このため、レイヤ分
類部46は、各動き検出領域の動きベクトルMVEに基
づいて正面動画像の動きパターンを判定して、判定した
動きパターンに基づいてレイヤ設定を行うものとする。
例えば、一方向に直進する動きパターンでと判別された
ときには、遠景,中景,近景の各画像のレイヤを生成
し、右折や左折の動きパターンであると判別されたとき
には、遠景,中景,近景の各画像のレイヤだけでなく水
平方向に移動される画像が含まれるレイヤも作成する。
また、追越し車両がある動きパターンのときには、遠
景,中景,近景の各画像のレイヤだけでなくズームアウ
ト画像が含まれるレイヤも作成するようにレイヤ設定を
行う。
The layer classification unit 46 determines the motion pattern of the front moving image based on the motion vector MVE of each motion detection area, and performs layer setting when generating intermediate image information. For example, the layer classification unit 46 includes a layer of a distant view image of a distant subject, a layer of a near view image of a close subject, a layer of a middle view image located between the distant view image and the near view image, and a layer of the middle view image. The layer setting is performed by determining how to provide a layer different from the layer. Here, the front moving image obtained when the front moving image is captured by the vehicle-mounted camera is an image obtained by sequentially zooming in on the front moving image when traveling straight in one direction. Further, when the car is moving backward, the front moving image is sequentially zoomed out. Further, when the overtaking vehicle is photographed, the overtaking vehicle is displayed as a zoom-out image on the zoom-in image. Also, when you make a right or left turn,
For example, the upper side of the front moving image is moved in the horizontal direction, and the lower side is a zoomed-in image. For this reason, it is assumed that the layer classification unit 46 determines the motion pattern of the front moving image based on the motion vector MVE of each motion detection area, and performs layer setting based on the determined motion pattern.
For example, when it is determined that the pattern is a motion pattern that goes straight in one direction, a layer of each image of a distant view, a middle view, and a near view is generated, and when it is determined that the motion pattern is a right turn or left turn, a distant view, a middle view, A layer including an image that is moved in the horizontal direction as well as a layer of each image in the foreground is created.
Further, when the passing vehicle has a certain motion pattern, the layer setting is performed so as to create not only the layers of the distant view, the middle view, and the near view but also the layers including the zoom-out image.

【0085】また、レイヤ分類部46は、動き検出部4
2から供給された動きベクトルMVEに基づき、正面動
画像の側端側に設定された各動き検出領域がいずれのレ
イヤに属するかレイヤ分類を行う。このレイヤ分類は、
動きパターンに応じて設定されたレイヤを用いて行う。
例えば、レイヤ分類部46は、遠景,中景,近景の3つ
のレイヤ分けすると共に、水平方向に移動される画像が
含まれるレイヤやズームアウト画像が含まれるレイヤが
生成されているときには、これらのレイヤも含めてレイ
ヤ分類を行う。このレイヤ分類によって、レイヤ分類部
46は、いずれの動き検出領域がいずれのレイヤに属す
るかを示すレイヤ分類情報LBを生成すると共に、この
生成したレイヤ分類情報LBを情報生成部47に供給す
る。
The layer classifying section 46 includes the motion detecting section 4
Based on the motion vector MVE supplied from 2, layer classification is performed on which layer each motion detection area set on the side end of the front moving image belongs. This layer classification
This is performed using a layer set according to the motion pattern.
For example, the layer classifying unit 46 classifies the three layers into a distant view, a middle view, and a near view, and when a layer including an image moved in the horizontal direction or a layer including a zoom-out image is generated, Layer classification is performed including layers. By this layer classification, the layer classification unit 46 generates layer classification information LB indicating which motion detection area belongs to which layer, and supplies the generated layer classification information LB to the information generation unit 47.

【0086】情報生成部47は、レイヤ分類部46から
のレイヤ分類情報LBに基づき正面動画像に設定された
各動き検出領域をレイヤ分けして、この動き検出領域の
画像信号をレイヤ毎にフレーム順に用いることでレイヤ
毎の中間画像信号を生成する。さらに、レイヤ分けされ
た動き検出領域の動きベクトルMVEの動き量に基づき
レイヤ毎に動き量の平均値を算出する。この情報生成部
47で生成された中間画像信号GYvおよび算出したレ
イヤ毎の動き量(平均値)MYvは、中間画像情報とし
て蓄積部50の中間画像情報蓄積領域52に蓄積され
る。
The information generating section 47 classifies each motion detection area set in the front moving image based on the layer classification information LB from the layer classification section 46, and divides the image signal of this motion detection area into frames for each layer. An intermediate image signal for each layer is generated by using the layers in order. Further, an average value of the motion amount is calculated for each layer based on the motion amount of the motion vector MVE of the motion detection area divided into layers. The intermediate image signal GYv generated by the information generation unit 47 and the calculated motion amount (average value) MYv for each layer are stored in the intermediate image information storage area 52 of the storage unit 50 as the intermediate image information.

【0087】スクリーン10C,10R,10Lで画像を
表示する場合、プロジェクタ12Cは、蓄積されている
画像信号SDCに基づく画像をスクリーン10Cに表示す
る。また、画像処理装置15Bは、蓄積部50に接続さ
れた周辺画像信号生成ブロック60からの読出制御信号
RCによって、中間画像情報蓄積領域52に蓄積されて
いる中間画像情報の読み出しを行い、レイヤ毎の動き量
MYvに応じた分だけ各レイヤの中間画像信号GYvを順
次使用して、遠景,中景,近景の順に各レイヤの画像を
重ね合わせることで画像合成を行う。さらに遠景,中
景,近景の3つのレイヤに属しないレイヤが設けられて
いるときには、これらのレイヤの画像合成処理等も行
い、周辺画像信号SDL,SDRを生成する。また、画像
処理装置15Bは、この周辺画像信号SDLを正面動画
像の画像信号SDCに対応させたタイミングでプロジェ
クタ12Lに供給すると共に、周辺画像信号SDRを正面
動画像の画像信号SDCに対応させたタイミングでプロ
ジェクタ12Rに供給する。プロジェクタ12Lは、正面
動画像と連続した左側面動画像をスクリーン10Lに表
示する。またプロジェクタ13Rは、正面動画像と連続
した右側面動画像をスクリーン10Rに表示する。
When displaying an image on the screens 10C, 10R and 10L, the projector 12C displays an image based on the stored image signal SDC on the screen 10C. Further, the image processing device 15B reads the intermediate image information stored in the intermediate image information storage area 52 by the read control signal RC from the peripheral image signal generation block 60 connected to the storage unit 50, and The image synthesis is performed by sequentially using the intermediate image signals GYv of the respective layers by an amount corresponding to the motion amount MYv of the respective layers, and superimposing the images of the respective layers in the order of distant view, middle view, and near view. Further, when layers that do not belong to the three layers of the distant view, the middle view, and the near view are provided, the image synthesis processing of these layers is also performed to generate the peripheral image signals SDL and SDR. Further, the image processing device 15B supplies the peripheral image signal SDL to the projector 12L at a timing corresponding to the image signal SDC of the front moving image, and also causes the peripheral image signal SDR to correspond to the image signal SDC of the front moving image. The timing is supplied to the projector 12R. The projector 12L displays a left-side moving image continuous with the front moving image on the screen 10L. Further, the projector 13R displays a right side moving image continuous with the front moving image on the screen 10R.

【0088】次に、動き検出ブロック40を構成する各
部について詳細に説明する。なお、説明を簡単とするた
め、以下の説明では右側面についてのみ説明するものと
し、左側面についての説明は省略する。
Next, each component of the motion detection block 40 will be described in detail. For the sake of simplicity, in the following description, only the right side will be described, and description of the left side will be omitted.

【0089】動き検出ブロック40は、上述したように
動きベクトルMVEを動き検出領域毎に判別する。ここ
で、正面動画像に画像の移動中心がある場合、すなわち
車載カメラで前方を撮影して正面動画像としたとき、図
5Aに示す時刻Tの画像は、例えば1フレーム時間が経
過した後の時刻T’で図5Bに示すものとなり、画像基
準位置CPを中心としたズームイン動作画像と略等しく
なる。
The motion detection block 40 determines the motion vector MVE for each motion detection area as described above. Here, when the front moving image has a moving center of the image, that is, when the front moving image is obtained by photographing the front with the onboard camera, the image at the time T shown in FIG. At time T ′, the image shown in FIG. 5B is obtained, which is substantially equal to the zoom-in operation image centered on the image reference position CP.

【0090】ここで、図5Cに示すように、拡大率Zを
設定して注目フレームの動き検出領域を(1/Z)に縮
小すると共に、この縮小された動き検出領域の位置を移
動しながら1フレーム前の画像信号との誤差和を算出す
る。さらに拡大率Zを変化させて、同様に位置を移動し
ながら誤差和を算出する。このようにして誤差和が最小
値となる位置を検出することで注目フレーム毎に各動き
検出領域の動きベクトルMVEを判別できる。また、誤
差和が最小値となるときの拡大率Zを動き量とする。
Here, as shown in FIG. 5C, the enlargement ratio Z is set to reduce the motion detection area of the frame of interest to (1 / Z), and the position of the reduced motion detection area is moved. The sum of the error with the image signal one frame before is calculated. Further, by changing the enlargement factor Z, the sum of errors is calculated while moving the position in the same manner. By detecting the position where the sum of the errors becomes the minimum value in this manner, the motion vector MVE of each motion detection area can be determined for each frame of interest. Further, the enlargement ratio Z when the sum of the errors becomes a minimum value is defined as a motion amount.

【0091】ところで、縮小処理を行ったときには、領
域内の画素の座標値が整数値とならない画素が生ずる。
一方、縮小処理が行われていない1フレーム前の画像で
は、領域内の画素の座標値が整数値である。このため、
縮小された画像に対しては線形補間を行って、座標値が
整数値となる位置の信号レベルを算出する。例えば、上
述の図6に示すようにKa×Ka画素の画像に対して(1
/Z)に縮小処理を行ったことにより画像のサイズがK
b×Kb画素のサイズとなったときには、線形補間を行っ
てKa×Ka画素の信号を用いて画素数を「Kb×Kb」と
した画像の信号レベルを算出する。この算出された信号
レベルと、縮小された画像と対応する位置の1フレーム
前の信号レベルの誤差和を算出することにより、精度良
く動き量を判別できる。
By the way, when the reduction processing is performed, there are pixels in which the coordinate values of the pixels in the area do not become integer values.
On the other hand, in the image one frame before the reduction process has not been performed, the coordinate values of the pixels in the region are integer values. For this reason,
Linear interpolation is performed on the reduced image to calculate a signal level at a position where the coordinate value becomes an integer value. For example, as shown in FIG. 6 described above, for an image of Ka × Ka pixels (1
/ Z) reduces the image size to K
When the size becomes b × Kb pixels, linear interpolation is performed to calculate the signal level of the image with the number of pixels being “Kb × Kb” using the signals of Ka × Ka pixels. By calculating the error sum of the calculated signal level and the signal level one frame before the position corresponding to the reduced image, the motion amount can be determined with high accuracy.

【0092】画像基準位置CPが明らかでないとき、図
22に示すように動き検出領域ARaの中心が位置Pa1か
ら位置Pa2とされたときに誤差和が最小値となり、動き
検出領域ARbの中心が位置Pb1から位置Pb2とされたと
きに誤差和が最小値となる場合には、動き検出領域ARa
の動きベクトルMVEのベクトル方向と動き検出領域A
Rbの動きベクトルのベクトル方向が交差する点を検出す
ることで画像基準位置CPを検出できる。
When the image reference position CP is not clear, as shown in FIG. 22, when the center of the motion detection area ARa is shifted from the position Pa1 to the position Pa2, the sum of the errors becomes the minimum value, and the center of the motion detection area ARb is shifted to the position. If the sum of the errors becomes the minimum value when the position is shifted from Pb1 to the position Pb2, the motion detection area ARa
Vector direction of motion vector MVE and motion detection area A
The image reference position CP can be detected by detecting a point where the vector direction of the motion vector of Rb intersects.

【0093】また、右折時や左折時には、正面動画像の
例えば上部側画像が水平移動することとなる。このた
め、画像基準位置CPを中心としてズームイン動作を行
っても誤差和の最小値が検出されない場合には、動き検
出領域の画像を横方向に移動させて誤差和の最小値を判
別する。またこのとき、誤差和が最小値となるまでの動
き検出領域の移動量を動きベクトルMVEの動き量とし
て設定することができる。
At the time of right turn or left turn, for example, the upper image of the front moving image moves horizontally. Therefore, when the minimum value of the error sum is not detected even when the zoom-in operation is performed around the image reference position CP, the image of the motion detection area is moved in the horizontal direction to determine the minimum value of the error sum. At this time, the amount of movement of the motion detection area until the sum of the errors becomes the minimum value can be set as the amount of motion of the motion vector MVE.

【0094】次に、後退時にはあたかも画像が画像基準
位置CPに吸い込まれてしまうように見えることから、
後退時の画像は画像基準位置CPを中心としたズームア
ウト動作画像と略等しくなる。このため、拡大率Zを
「1」以下とする。すなわち、後退時には画像の動きが
前進時とは逆となることから、前フレームの側端側に複
数の動き検出領域を設定して、各動き検出領域を(1/
Z)に縮小すると共に、この縮小された領域の位置を移
動しながら注目フレームの画像との誤差和を算出する。
あるいは、注目フレームの各動き検出領域を(1/Z)
に縮小すると共に、この縮小された領域の位置を移動し
ながら1フレーム後の画像との誤差和を算出する。さら
に拡大率Zを変化させて、同様に位置を移動しながら誤
差和を算出する。このようにして誤差和が最小値となる
位置を検出することで後退時の動きベクトルMVEも判
別できる。
Next, at the time of retreat, it looks as if the image is sucked into the image reference position CP.
The image at the time of retreat is substantially equal to the zoom-out operation image centered on the image reference position CP. For this reason, the enlargement factor Z is set to “1” or less. That is, since the motion of the image at the time of backward movement is opposite to that at the time of forward movement, a plurality of motion detection areas are set on the side end of the previous frame, and
Z), and the sum of the error with the image of the frame of interest is calculated while moving the position of the reduced area.
Alternatively, each motion detection area of the frame of interest is (1 / Z)
And, while moving the position of the reduced area, calculate the error sum with the image one frame later. Further, by changing the enlargement factor Z, the sum of errors is calculated while moving the position in the same manner. By detecting the position where the sum of the errors becomes the minimum value in this manner, the motion vector MVE at the time of retreat can also be determined.

【0095】以上のようにして動きベクトルMVEの判
別を行うと、遠景の画像は動きが少ないため動きベクト
ルMVEの動き量は小さくなり、近景の画像は動きが多
いため動きベクトルMVEの動き量は大きくなる。
When the motion vector MVE is discriminated as described above, the amount of motion of the motion vector MVE becomes small because the image of the distant view has little motion, and the amount of motion of the motion vector MVE is small because the image of the near view has much motion. growing.

【0096】図23は、動き検出部42の構成を示して
おり、画像信号SDCはサイズ変換部421に供給され
ると共に、遅延部41から供給された画像信号SDCaは
誤差和算出部422に供給される。サイズ変換部421
は、正面動画像の側端部分を複数の動き検出領域、例え
ば16×16画素サイズの単位で複数の動き検出領域に
分割して動き検出領域を設定する。さらに、サイズ変換
部421は、後述する探索制御部425から供給された
拡大率Zを用いて、動き検出領域の画像を(1/Z)倍
した画像信号FEzを生成すると共に、画像基準位置C
Pを基準として動き検出領域の画像を(1/Z)倍した
ことにより変換された座標値Qzを設定して、この画像
信号FEzと座標値Qzを誤差和算出部422に供給す
る。なお、画像信号FEzは、上述の図6に示すように
補間処理によって座標値を整数値に変換したときの信号
であり、座標値Qzは補間処理によって座標値を整数値
に変換したときの座標値、すなわち図6における「Kb
×Kb」の画素位置である。
FIG. 23 shows the structure of the motion detecting section 42. The image signal SDC is supplied to the size converting section 421, and the image signal SDCa supplied from the delay section 41 is supplied to the error sum calculating section 422. Is done. Size conversion unit 421
Sets the motion detection area by dividing a side end portion of the front moving image into a plurality of motion detection areas, for example, a plurality of motion detection areas in units of 16 × 16 pixels. Further, the size conversion unit 421 generates an image signal FEz obtained by multiplying the image of the motion detection area by (1 / Z) using the enlargement ratio Z supplied from the search control unit 425 described later, and also generates the image reference position C
The coordinate value Qz converted by multiplying the image of the motion detection area by (1 / Z) based on P is set, and the image signal FEz and the coordinate value Qz are supplied to the error sum calculation unit 422. Note that the image signal FEz is a signal when the coordinate value is converted into an integer value by the interpolation process as shown in FIG. 6 described above, and the coordinate value Qz is the coordinate when the coordinate value is converted into the integer value by the interpolation process. The value, that is, “Kb
× Kb ”.

【0097】誤差和算出部422は、サイズ変換部42
1からの座標値Qzで示された位置の信号を画像信号S
DCaから選択する共に、この選択された信号と画像信号
FEzとの誤差和を算出して比較部423に通知する。
The error sum calculation section 422 is provided by the size conversion section 42
The signal at the position indicated by the coordinate value Qz from 1 is converted into an image signal S
While selecting from DCa, the sum of the error between the selected signal and the image signal FEz is calculated and notified to the comparing unit 423.

【0098】比較部423は、誤差和最小値と誤差和算
出部422で算出された誤差和とを比較する。ここで誤
差和最小値が設定されていないとき、比較部423は、
最初に算出された誤差和を誤差和最小値として設定す
る。算出された誤差和が誤差和最小値よりも小さいと
き、比較部423は、この誤差和を新たな誤差和最小値
として設定すると共に、誤差和最小値が更新されたこと
をデータ格納部424に通知する。また、比較部423
は、誤差和最小値と誤差和算出部422で算出された誤
差和との比較が完了したことを信号ESによって探索制
御部425に通知する。なお、誤差和最小値は算出され
る誤差和よりも大きい値に予め設定しておくものとして
も良い。
The comparing section 423 compares the minimum value of the error sum with the error sum calculated by the error sum calculating section 422. Here, when the error sum minimum value is not set, the comparing unit 423
The error sum calculated first is set as the error sum minimum value. When the calculated error sum is smaller than the error sum minimum value, the comparing unit 423 sets the error sum as a new error sum minimum value, and notifies the data storage unit 424 that the error sum minimum value has been updated. Notice. Also, the comparison unit 423
Notifies the search control unit 425 by a signal ES that the comparison between the minimum error sum and the error sum calculated by the error sum calculation unit 422 is completed. Note that the error sum minimum value may be set in advance to a value larger than the calculated error sum.

【0099】データ格納部424は、比較部423から
誤差和最小値が更新されたことが通知されたとき、探索
制御部425から通知された拡大率Zを記憶する。ま
た、既に拡大率を記憶されているとき、データ格納部4
24は、記憶されている拡大率を通知された拡大率Zで
更新する。また、探索制御部425から拡大率の変更処
理の完了が信号ERによって通知されたとき、データ格
納部424は、記憶している拡大率を動き量とすると共
に画像基準位置方向をベクトル方向とした動きベクトル
MVEをレイヤ分類部46に供給する。
Data storage unit 424 stores enlargement factor Z notified by search control unit 425 when comparison unit 423 notifies that the minimum error sum has been updated. When the enlargement ratio is already stored, the data storage unit 4
24 updates the stored enlargement ratio with the notified enlargement ratio Z. When the search control unit 425 notifies the completion of the change processing of the enlargement ratio by the signal ER, the data storage unit 424 sets the stored enlargement ratio as the motion amount and sets the image reference position direction as the vector direction. The motion vector MVE is supplied to the layer classification unit 46.

【0100】探索制御部425は、拡大率の下限値が
「1」に設定されていると共に、上限値も予め設定され
ており、最初に下限値を拡大率Zとしてサイズ変換部4
21とデータ格納部424に通知する。その後、比較部
423から誤差和最小値と誤差和算出部422で算出さ
れた誤差和との比較が完了したことが通知される毎に、
拡大率Zを順次増加してサイズ変換部421とデータ格
納部424に通知する。その後、拡大率Zが上限値に達
したとき、探索制御部425は、拡大率の変更処理の完
了をデータ格納部424に通知する。
The search control unit 425 sets the lower limit value of the enlargement ratio to “1” and also sets the upper limit value in advance.
21 and the data storage unit 424. Thereafter, each time the comparison unit 423 notifies that the comparison between the minimum sum of errors and the sum of errors calculated by the sum of errors calculation unit 422 is completed,
The enlargement ratio Z is sequentially increased and notified to the size conversion unit 421 and the data storage unit 424. Thereafter, when the enlargement ratio Z reaches the upper limit, the search control unit 425 notifies the data storage unit 424 of the completion of the enlargement ratio change processing.

【0101】また、比較部423で得られた誤差和最小
値が小さくないとき、すなわち正面動画像の側端部分と
等しい画像を検出できないとき、探索制御部425は、
拡大率Zを「1」としてサイズ変換部421に通知し
て、動き検出領域の画像信号FEzを誤差和算出部42
2に供給させる。また、制御信号RPを誤差和算出部4
22に供給して、画像信号FEzの動き検出領域を水平
方向に所定量移動させた位置の信号を画像信号SDCaか
ら選択させる。その後、制御信号RPによって画像信号
SDCaから選択する位置を水平方向に移動させて誤差和
最小値を判別することにより、水平方向に移動させる画
像の動きベクトルMVEも求めることができる。さら
に、図示せずも1フレーム後の信号を誤差和算出部42
2に供給したり、1フレーム前の画像に動き検出領域を
設定して注目フレームの画像の信号を誤差和算出部42
2に供給することで、画像基準位置CPに吸い込まれる
ような画像の動き量も判別できる。
When the minimum error sum obtained by the comparison unit 423 is not small, that is, when an image equal to the side edge of the front moving image cannot be detected, the search control unit 425
The enlargement factor Z is notified to the size conversion unit 421 as "1", and the image signal FEz of the motion detection area is calculated by the error sum calculation unit 42.
2 to be supplied. Further, the control signal RP is output to the error sum
The signal at the position where the motion detection area of the image signal FEz is moved by a predetermined amount in the horizontal direction is selected from the image signal SDCa. Thereafter, by moving the position selected from the image signal SDCa in the horizontal direction by the control signal RP and determining the minimum value of the error sum, the motion vector MVE of the image to be moved in the horizontal direction can also be obtained. Further, although not shown, the signal after one frame is calculated by the error sum calculation unit 42.
2 or a motion detection area is set in the image one frame before, and the signal of the image of the frame of interest is calculated by the error sum calculation unit 42.
2, the amount of motion of the image sucked into the image reference position CP can also be determined.

【0102】このように、探索方向を画像基準位置CP
の方向や水平方向に移動させて、動き検出領域の画像と
誤差和が最小となる他のフレームの画像位置を検出する
ことで、動き検出領域の画像が右折や左折したときの画
像、前を横切る車や人等の画像、あるいは追越し車両等
の画像であっても正しく動きベクトルMVEを求めるこ
とができる。
As described above, the search direction is set to the image reference position CP.
And the horizontal direction to detect the position of the image in the motion detection area and the image position of the other frame that minimizes the error sum. The motion vector MVE can be correctly obtained even for an image of a car or a person crossing or an image of a passing vehicle.

【0103】レイヤ分類部46は、各動き検出領域の動
きベクトルMVEに基づき正面動画像がどのような動き
パターンの画像であるかを判別すると共に、判別した動
きパターンに基づいてレイヤを設定して、いずれの領域
がいずれのレイヤに属するするかを示すレイヤ分類情報
LBを情報生成部47に供給する。
The layer classification unit 46 determines what kind of motion pattern the front moving image is based on the motion vector MVE of each motion detection area, and sets a layer based on the determined motion pattern. , And supplies layer classification information LB indicating which region belongs to which layer to the information generation unit 47.

【0104】図24は、レイヤ分類部46の構成を示し
ている。レイヤ分類部46の動きパターン判定部461
は、動き検出部42から供給された各動き検出領域の動
きベクトルMVEをフレーム単位で蓄積すると共に、蓄
積された動きベクトルMVEに基づき動きパターンを判
別する。
FIG. 24 shows the configuration of the layer classification section 46. Motion pattern determination unit 461 of layer classification unit 46
Accumulates the motion vector MVE of each motion detection area supplied from the motion detection unit 42 in frame units, and determines a motion pattern based on the accumulated motion vector MVE.

【0105】ここで、動きパターン判定部461は、各
動き検出領域の動きベクトルMVEのベクトル方向が、
画像基準位置CPから放射方向とされて、全て画像が画
像基準位置CPから沸き出すズームイン動作方向である
か否かを判別して、全て画像が画像基準位置CPから沸
き出すズームイン動作方向であるときには直進動作と判
別する。例えば、図25Aの矢印で示すように動きベク
トルMVEのベクトル方向が画像基準位置CPから放射
方向とされているときには直進動作と判別する。
Here, the motion pattern determination unit 461 determines that the vector direction of the motion vector MVE in each motion detection area is
When the image is in the radial direction from the image reference position CP, it is determined whether or not all images are in the zoom-in operation direction in which the image boils from the image reference position CP. It is determined that the vehicle is moving straight. For example, when the vector direction of the motion vector MVE is set to the radial direction from the image reference position CP as indicated by the arrow in FIG.

【0106】次に、動きパターン判定部461は、直進
動作と判別しないとき、各動き検出領域の動きベクトル
MVEのベクトル方向が放射方向とは逆方向であり、全
て画像が画像基準位置CPに吸い込まれるズームアウト
動作方向であるか否かを判別する。ここで、全て画像が
画像基準位置CPに吸い込まれるズームアウト動作方向
であるときには後退動作と判別する。例えば、図25B
の矢印で示すように画像基準位置CPの方向とされて、
全て画像が画像基準位置CPに吸い込まれるズームアウ
ト動作方向であることを検出したときには後退動作と判
別する。
Next, when the motion pattern judging section 461 does not judge that the motion is the straight-ahead motion, the vector direction of the motion vector MVE in each motion detection area is opposite to the radial direction, and all the images are sucked into the image reference position CP. It is determined whether or not the zoom-out operation direction is to be performed. Here, when all the images are in the zoom-out operation direction in which the images are sucked into the image reference position CP, it is determined that the operation is the backward operation. For example, FIG.
The direction of the image reference position CP as shown by the arrow of
When it is detected that all the images are in the zoom-out operation direction sucked into the image reference position CP, it is determined to be the retreat operation.

【0107】また、動きパターン判定部461は、直進
動作および後退動作と判別しないとき、一部のみがズー
ムアウト動作方向であるか否かを判別して、一部のみが
ズームアウト動作方向であるときには、追越し車両があ
ると判別する。例えば、図25Cに示すように左右両側
端部の動き検出領域の動きがズームイン動作方向である
と共に、一部のみがズームアウト動作方向であることを
検出したときには追越し車両があると判別する。さら
に、直進動作,後退動作および追越し車両があるものと
判別しないとき、正面動画像の上部側の動き検出領域
で、図25Dに示すように動きベクトルMVEのベクト
ル方向が水平方向とされているときには、ベクトル方向
に応じて右折あるいは左折動作と判別する。また動き検
出領域の一部で、図25Eに示すように動きベクトルM
VEのベクトル方向が水平方向であるときには、横切り
動作であると判別する。このようにして判別した動きパ
ターンMPをレイヤ確定部462に通知する。なお、動
きパターンとしては、上述のパターンだけでなく、動き
の停止や後退しながら右折や左折を行うパターン等も考
えられる。
When the movement pattern determination section 461 does not determine the straight-forward operation or the backward movement, it determines whether only a part is in the zoom-out operation direction and only a part is in the zoom-out operation direction. Sometimes, it is determined that there is an overtaking vehicle. For example, as shown in FIG. 25C, when it is detected that the motions in the motion detection areas on both left and right end portions are in the zoom-in operation direction and only a part is in the zoom-out operation direction, it is determined that there is an overtaking vehicle. Furthermore, when it is not determined that there is a straight-ahead operation, a reverse operation, and an overtaking vehicle, when the vector direction of the motion vector MVE is horizontal in the upper motion detection region of the front moving image as shown in FIG. 25D. Is determined to be a right or left turn operation according to the vector direction. Also, as shown in FIG. 25E, a motion vector M
When the vector direction of the VE is the horizontal direction, it is determined that the traversing operation is performed. The motion pattern MP determined in this way is notified to the layer determination unit 462. In addition, as a motion pattern, not only the above-mentioned pattern, but also a pattern in which a right turn or a left turn is performed while stopping or retreating the motion can be considered.

【0108】レイヤ確定部462は、動きパターン判定
部461で判別された動きパターンMPに基づき、判別
された動きパターンが所定のフレーム数以上連続したか
否かを判別する。ここで、レイヤ確定部462は、動き
パターンが所定のフレーム数以上連続したとき、判別さ
れた動きパターンに応じたレイヤパターン情報LPを生
成して分類部463に通知する。
The layer determination section 462 determines whether or not the determined motion pattern continues for a predetermined number of frames or more based on the motion pattern MP determined by the motion pattern determination section 461. Here, when the motion pattern continues for a predetermined number of frames or more, the layer determination unit 462 generates layer pattern information LP corresponding to the determined motion pattern and notifies the classification unit 463 of the layer pattern information LP.

【0109】ここで、レイヤ確定部462は、前進動作
のように全画面が拡大する動きパターンであることを連
続して所定のフレーム数以上判別したとき、例えば遠
景,中景,近景のレイヤの作成を指示するレイヤパター
ン情報LPを生成して分類部463に通知する。また、
レイヤ確定部462は、右折あるいは左折動作のように
上部が水平方向に移動する動きパターンであることを連
続して所定のフレーム数以上判別したとき、遠景,中
景,近景のレイヤだけでなく水平方向に移動する画像が
含まれるレイヤの作成を指示するレイヤパターン情報L
Pを生成して分類部463に通知する。また、追越し車
両や後退時のように時間と共に縮小する画像が含まれて
いる動きパターンであることを連続して所定のフレーム
数以上連続して判別したとき、遠景,中景,近景のレイ
ヤだけでなく縮小する画像が含まれる後退レイヤの作成
を指示するレイヤパターン情報LPを生成する。また、
横切り物体のように、一部が水平方向に移動する動きパ
ターンであることを連続して所定のフレーム数以上判別
したとき、水平方向に移動する画像が含まれるレイヤの
作成を指示するレイヤパターン情報LPを生成する。こ
のように、判別された動きパターンが所定のフレーム数
以上連続したときに、判別された動きパターンMPに応
じたレイヤパターン情報LPが生成されるので、動きパ
ターンが誤って判別されたフレームが生じても、正しい
動きパターンに応じたレイヤパターン情報LPを生成で
きる。
Here, when the layer determination unit 462 determines continuously that the motion pattern is such that the entire screen is enlarged, such as a forward motion, by a predetermined number of frames or more, for example, the layer of the distant view, middle view, and near view is determined. It generates layer pattern information LP for instructing creation and notifies the classifying unit 463 of it. Also,
When the layer determination unit 462 determines that the movement pattern in which the upper part moves in the horizontal direction, such as a right turn or left turn operation, is continuously determined by a predetermined number of frames or more, the layer determination unit 462 determines not only the distant, middle, and near layers but also the horizontal Layer pattern information L instructing creation of a layer including an image moving in the direction
P is generated and notified to the classification unit 463. Further, when it is determined that the motion pattern includes an image that shrinks with time, such as a passing vehicle or a retreat, continuously for a predetermined number of frames or more, only a distant view, a middle view, and a near view layer are determined. Instead, it generates layer pattern information LP for instructing the creation of a backward layer including an image to be reduced. Also,
Layer pattern information that instructs creation of a layer including an image that moves in the horizontal direction when it is continuously determined that a part of the pattern is a movement pattern that moves in the horizontal direction, such as a crossing object, in a predetermined number of frames. Generate LP. As described above, when the determined motion pattern continues for a predetermined number of frames or more, the layer pattern information LP corresponding to the determined motion pattern MP is generated. However, the layer pattern information LP corresponding to the correct motion pattern can be generated.

【0110】閾値設定部464は、所定時間範囲(例え
ば注目フレームの前後30フレーム分)の動きベクトル
MVEを用いて、ベクトル方向が画像基準位置CPから
放射方向とされている動きベクトルMVEの動き量の平
均値Vavgや最大値Vmax,最小値Vminを求めると共
に、この平均値Vavgや最大値Vmax,最小値Vminに基
づき、レイヤパターン情報LPで示されたレイヤに分類
するための閾値Thを設定して分類部463に供給す
る。
The threshold value setting section 464 uses the motion vector MVE in a predetermined time range (for example, 30 frames before and after the frame of interest), and calculates the motion amount of the motion vector MVE whose vector direction is the radial direction from the image reference position CP. The average value Vavg, the maximum value Vmax, and the minimum value Vmin are obtained, and the threshold value Th for classifying into the layer indicated by the layer pattern information LP is set based on the average value Vavg, the maximum value Vmax, and the minimum value Vmin. And supplies it to the classification unit 463.

【0111】例えばレイヤパターン情報LPによって遠
景,中景,近景のレイヤに分けることが示された場合、
閾値設定部464は、遠景レイヤと中景レイヤとの区分
位置を示す閾値Th-1を上述の式(1)に基づいて算出
する。また中景レイヤと近景レイヤの区分位置を示す閾
値Th-2を上述の式(2)に基づいて算出する。
For example, when the layer pattern information LP indicates that the image is to be divided into distant, middle, and near views,
The threshold value setting unit 464 calculates the threshold value Th-1 indicating the division position between the distant view layer and the middle view layer based on the above equation (1). Further, the threshold value Th-2 indicating the division position between the middle view layer and the near view layer is calculated based on the above-described equation (2).

【0112】この閾値の設定は、上述の図10に示す場
合と同様に、動き量のヒストグラムを求めて、このヒス
トグラムの極小値を利用して閾値Th-1,Th-2を求め
るものとしても良い。このように、閾値Thは、動き量
の分布に応じて動的に変化されるので、画像が1つのレ
イヤだけに分類されてしまうことがなく、動き量の分布
に応じて良好にレイヤ分類を行うことができる。
The setting of the threshold value may be similar to the case shown in FIG. 10 described above, in which a histogram of the amount of motion is obtained, and the threshold values Th-1 and Th-2 are obtained by using the minimum value of the histogram. good. As described above, since the threshold value Th is dynamically changed according to the distribution of the motion amount, the image is not classified into only one layer, and the layer classification can be appropriately performed according to the distribution of the motion amount. It can be carried out.

【0113】分類部463は、閾値設定部464からの
閾値Thと動きベクトルMVEの動き量に基づいて、各
フレームの各動き検出領域がレイヤパターン情報LPで
作成が指示されたレイヤのいずれに属するかを判別して
レイヤ分類を行う。また、分類部463は、水平方向に
移動する動き検出領域やズームアウト動作方向の動き検
出領域を、それぞれ対応するレイヤに割当てる。この分
類部463での注目フレームの各動き検出領域のレイヤ
分類が完了したとき、分類部463はレイヤ分類の結果
を示すレイヤ分類情報LAを生成して分類補正部465
に供給する。
The classification section 463 determines which motion detection area of each frame belongs to any of the layers instructed to be created by the layer pattern information LP based on the threshold value Th from the threshold value setting section 464 and the motion amount of the motion vector MVE. And layer classification is performed. In addition, the classification unit 463 assigns a motion detection area moving in the horizontal direction and a motion detection area in the zoom-out operation direction to the corresponding layers. When the classification unit 463 completes the layer classification of each motion detection area of the frame of interest, the classification unit 463 generates layer classification information LA indicating the result of the layer classification, and generates the classification correction unit 465.
To supply.

【0114】分類部463は、例えば遠景,中景,近景
の3つのレイヤを作成する際には、動き検出部42から
の動きベクトルMVEを用いて、動き検出領域毎に前m
フレーム分と後nフレーム分の動き量の平均値を算出す
る。例えば、正面動画像の右側端部に設けた動き検出領
域において、動きベクトルMVEの動き量が時間の経過
と共に図26Aに示すように変化したとき(図の数字は
動き量を示すものとする)、分類部463は、Fpフレ
ームでの動き検出領域AR1に対して、Fpフレームでの
動き検出領域AR1の動き量と、Fp-1〜Fp-mフレーム
の動き検出領域AR1の動き量と、Fp+1〜Fp+nフレー
ムの動き検出領域AR1の動き量を用いて、動き量の平均
値を算出する。さらに、動き検出領域AR1の動き量とし
て算出された平均値と、上述のようにして設定された閾
値Th-1,Th-2を比較することで、このFpフレーム
での動き検出領域AR1が遠景,中景,近景のいずれのレ
イヤに属するかを判別する。このように、分類部463
は、注目フレームの動き検出領域AR1について、前フレ
ームや後フレームの動き量も用いて動き量の平均値を算
出して、この平均値を用いて動き検出領域AR1のレイヤ
分けを行うので、動き検出領域AR1の動き量に誤りが生
じても、この動き検出領域AR1のレイヤ分類することが
できる。また、被写体の大きさの差や被写体までの距離
の差によってフレーム毎の動き量の変動が生じても、こ
れらの変動の影響を防止できる。さらに、分類部463
は、他の領域や他のフレームに対しても同様に処理する
ことで、図26Bに示すように各動き検出領域を遠景,
中景,近景のいずれかのレイヤに分類して、レイヤ分類
情報LAを分類補正部465に通知する。なお図26B
において、クロスハッチで示す動き検出領域は近景、斜
線で示す動き検出領域は中景、他の動き検出領域は遠景
として分類されたことを示している。
When creating three layers, for example, a distant view, a middle view, and a near view, the classifying section 463 uses the motion vector MVE from the motion detecting section 42 to generate a previous image for each motion detecting area.
The average value of the motion amounts for the frame and the subsequent n frames is calculated. For example, when the motion amount of the motion vector MVE changes as time elapses in the motion detection area provided at the right end of the front moving image as shown in FIG. 26A (the numbers in the diagram indicate the motion amount). The classification unit 463 calculates the motion amount of the motion detection region AR1 in the Fp frame, the motion amount of the motion detection region AR1 in the Fp-1 to Fp-m frames, and the motion amount of the motion detection region AR1 in the Fp frame. The average value of the motion amount is calculated using the motion amount of the motion detection area AR1 in the +1 to Fp + n frames. Further, by comparing the average value calculated as the amount of motion of the motion detection area AR1 with the threshold values Th-1 and Th-2 set as described above, the motion detection area AR1 in this Fp frame is displayed in a distant view. , Middle view or near view. Thus, the classification unit 463
Calculates the average value of the motion amount of the motion detection region AR1 of the frame of interest using the motion amount of the previous frame and the subsequent frame, and performs the layering of the motion detection region AR1 using the average value. Even if an error occurs in the motion amount of the detection area AR1, the layer of the motion detection area AR1 can be classified. Further, even if the movement amount of each frame changes due to the difference in the size of the subject or the difference in the distance to the subject, the influence of these changes can be prevented. Further, the classification unit 463
Performs the same processing on other areas and other frames, so that each motion detection area is set to a distant view, as shown in FIG. 26B.
The image is classified into one of the middle view and near view layers, and the layer classification information LA is notified to the classification correction unit 465. FIG. 26B
In FIG. 7, the motion detection area indicated by the cross hatch indicates that the image is classified as a near view, the hatched motion detection area indicates a middle view, and the other motion detection areas indicate a distant view.

【0115】分類補正部465は、各動き検出領域のレ
イヤ分類情報LAを参照して、同じレイヤに属する領域
の連結数が所定の数よりも少ない領域は周囲に合わせた
レイヤに補正する。例えば図26Bにおいて、Fp+4フ
レームの領域AR4-gやFp-2フレームの領域AR6-hは、
同じレイヤに属する領域が連結していない。このため、
分類補正部465は、これらの領域を図26Cに示すよ
うに周囲に合わせた領域に補正して、いずれの領域がい
ずれのレイヤとされているかを示すレイヤ分類情報LB
を、情報生成部47に供給する。
The classification correction section 465 corrects an area in which the number of connected areas belonging to the same layer is smaller than a predetermined number by referring to the layer classification information LA of each motion detection area to a layer adapted to the surrounding area. For example, in FIG. 26B, the area AR4-g of the Fp + 4 frame and the area AR6-h of the Fp-2 frame are
Regions belonging to the same layer are not connected. For this reason,
The classifying and correcting unit 465 corrects these areas into areas that match the surroundings as shown in FIG. 26C, and layer classification information LB indicating which area is which layer.
Is supplied to the information generation unit 47.

【0116】また、追越し車両があるときには、レイヤ
は、上述の遠景,中景,近景だけでなく、図26Dに示
すように追い越し車両の画像が含まれる後退レイヤも生
成される。ここで、追越し車両は、遠景や中景および近
景の画像とは動きベクトルMVEのベクトル方向が逆で
あることから、後退レイヤの時間軸方向は、他のレイヤ
とは方向を逆として生成する。
When there is an overtaking vehicle, not only the distant, middle, and near views described above, but also a retreat layer including an image of the overtaking vehicle is generated as shown in FIG. 26D. Here, since the overtaking vehicle has a motion vector MVE whose vector direction is opposite to that of the images of the distant view, the middle view and the near view, the time axis direction of the backward layer is generated with the direction opposite to the other layers.

【0117】図27は情報生成部47の構成を示してい
る。レイヤ分類部46から供給されたレイヤ分類情報L
Bは、動き量平均値算出部471と中間画像信号生成部
472に供給される。
FIG. 27 shows the configuration of the information generating section 47. Layer classification information L supplied from the layer classification unit 46
B is supplied to the motion amount average value calculation unit 471 and the intermediate image signal generation unit 472.

【0118】動き量平均値算出部471は、各動き検出
領域の動き量を用いて、レイヤ毎の動き量の平均値をフ
レーム毎に算出する。例えばFeフレームにおいて、遠
景レイヤとされた動き検出領域がny個であるとき、動
き量平均値算出部471は、このny個の動き検出領域
の動き量を用いて平均値を算出して中間画像信号生成部
472に供給すると共に、この算出した動き量MYvを
中間画像情報として蓄積部50の中間画像情報蓄積領域
52に記憶させる。
The motion amount average value calculation section 471 calculates the average value of the motion amount for each layer for each frame using the motion amount of each motion detection area. For example, in the Fe frame, when the number of motion detection areas determined to be a distant view layer is ny, the motion amount average value calculation unit 471 calculates an average value using the motion amounts of the ny motion detection regions, and calculates an intermediate image. The calculated motion amount MYv is supplied to the signal generation unit 472 and stored in the intermediate image information storage area 52 of the storage unit 50 as the intermediate image information.

【0119】中間画像信号生成部472は、レイヤ分類
部46から供給されたレイヤ分類情報LBに基づき、側
端部から動き量平均値算出部471で算出された動き量
MYvに応じてレイヤ毎に画像信号SDCを抽出してレイ
ヤ毎の中間画像信号GFvを生成して、中間画像信号補
間部473に供給する。
The intermediate image signal generating section 472 performs, on the basis of the layer classification information LB supplied from the layer classification section 46, a layer-by-layer basis from the side end in accordance with the motion amount MYv calculated by the motion average value calculating section 471. The image signal SDC is extracted, an intermediate image signal GFv for each layer is generated, and supplied to the intermediate image signal interpolation unit 473.

【0120】中間画像信号補間部473は、各レイヤの
動き量MYvに応じた信号量分の画像信号SDCを側端部
から読み出して中間画像信号を生成する。例えば中間画
像信号に基づく画像は、図28に示すものとなる。な
お、図28Aは遠景レイヤの中間画像信号に基づく画
像、図28Bは中景レイヤの中間画像信号に基づく画
像、図28Cは近景レイヤの中間画像信号に基づく画像
を示しており、斜線で塗りつぶした部分は画像の無い領
域である。
The intermediate image signal interpolating section 473 reads the image signal SDC corresponding to the signal amount corresponding to the motion amount MYv of each layer from the side end to generate an intermediate image signal. For example, an image based on the intermediate image signal is as shown in FIG. 28A shows an image based on the intermediate image signal of the distant view layer, FIG. 28B shows an image based on the intermediate image signal of the middle view layer, and FIG. 28C shows an image based on the intermediate image signal of the near view layer, which is hatched. The part is an area without an image.

【0121】この中間画像信号補間部473は、動き量
MYvの異なる各レイヤの画像を遠景,中景,近景の順
に重ね合わせることで画像合成を行ったときに、画像の
無い領域が生ずることがないように中間画像信号GFv
の補正を行い、補正された信号を中間画像信号GYvと
して中間画像情報蓄積領域52に記憶させる。この中間
画像信号の補正は、手前のレイヤに対して全てを補間す
ると、奥のレイヤが隠れてしまうこととなる。したがっ
て、中間画像信号補間部473は、最も奥のレイヤに対
しては隙間全部を補間するものとし、中間に位置するレ
イヤではこのレイヤよりも手前のレイヤに属する領域に
よって生成された隙間に対してのみ、水平方向に隣接す
る信号を用いた補間処理を行い、画像の無い隙間領域の
画像信号を作り出して中間画像信号に重ね合わせる。例
えば、中間に位置するレイヤが図28Bの中景レイヤ
で、手前のレイヤが図28Cの近景レイヤの場合、隙間
とは、中景レイヤの中の木や車の領域である。このよう
に補間処理を行うことで、中間画像信号GFvに基づい
た図28Aに示された画像は、画像の無い部分(斜線で
塗りつぶした領域)が水平方向に隣接する信号を用いて
補間されて、図29Aに示される画像となる。同様に、
中間画像信号GFvに基づいた図28Bに示される画像
は、図29Bに示されるように補正された画像となる。
なお、例えば図28Cに示す近景レイヤが最も手前に位
置するレイヤであるとき、最も手前に位置するレイヤで
は、画像の無い領域が生じないので、最も手前に位置す
るレイヤに対する補間処理は不要となる。そのため、図
29Cに示す近景レイヤは図28Cと等しいものであ
る。
The intermediate image signal interpolating unit 473 may generate an area without an image when performing image synthesis by superimposing images of respective layers having different motion amounts MYv in the order of distant view, middle view, and near view. So that there is no intermediate image signal GFv
And the corrected signal is stored in the intermediate image information storage area 52 as an intermediate image signal GYv. In this correction of the intermediate image signal, if all the layers are interpolated with respect to the near layer, the deep layer will be hidden. Therefore, the intermediate image signal interpolating unit 473 interpolates the entire gap for the innermost layer, and for the gap located at the intermediate layer, the gap generated by the region belonging to the layer before this layer. Only in this case, an interpolation process using signals adjacent in the horizontal direction is performed to generate an image signal in a gap region where no image exists, and the image signal is superimposed on the intermediate image signal. For example, when the middle layer is the middle view layer in FIG. 28B and the near layer is the near view layer in FIG. 28C, the gap is an area of a tree or a car in the middle view layer. By performing the interpolation processing in this manner, the image shown in FIG. 28A based on the intermediate image signal GFv is obtained by interpolating a portion having no image (a region shaded with oblique lines) using a signal adjacent in the horizontal direction. , The image shown in FIG. 29A. Similarly,
The image shown in FIG. 28B based on the intermediate image signal GFv is a corrected image as shown in FIG. 29B.
Note that, for example, when the foreground layer shown in FIG. 28C is the foremost layer, no area without an image is generated in the foreground layer, so that the interpolation processing for the foreground layer is unnecessary. . Therefore, the foreground layer shown in FIG. 29C is the same as that in FIG. 28C.

【0122】蓄積部50の中間画像情報蓄積領域52
は、レイヤ化処理ブロック45で生成されたレイヤ毎の
動き量MYvとレイヤ毎の中間画像信号GYvとをフレー
ム毎に関係付けて、中間画像情報として記憶する。ここ
で、中間画像情報蓄積領域52に記憶された遠景レイヤ
の中間画像信号は、動き量が少ないため図29Aに示す
ように画像信号の信号量は少なくなる。また近景レイヤ
の中間画像信号では、動き量が大きいため図29Cに示
すように信号量も多くなる。また中景レイヤでは図29
Bに示すように遠景と中景の中間である信号量となる。
なお、後退レイヤでは、動き方向が逆であることから後
退レイヤの中間画像信号では、図29A〜図29Cとは
フレーム方向が逆となる。
The intermediate image information storage area 52 of the storage unit 50
Stores, as the intermediate image information, a relation between the motion amount MYv for each layer generated by the layering processing block 45 and the intermediate image signal GYv for each layer for each frame. Here, since the intermediate image signal of the distant view layer stored in the intermediate image information storage area 52 has a small amount of motion, the signal amount of the image signal is small as shown in FIG. 29A. Further, in the intermediate image signal of the foreground layer, since the amount of motion is large, the amount of signal also increases as shown in FIG. 29C. In the middle view layer, FIG.
As shown in B, the signal amount is between the distant view and the middle view.
In the backward layer, since the motion direction is opposite, the frame direction of the intermediate image signal of the backward layer is opposite to that of FIGS. 29A to 29C.

【0123】この中間画像情報蓄積領域52は、レイヤ
パターン情報LPに基づいて水平移動レイヤを作成する
ものと指示されたとき、動きベクトルの方向が水平方向
とされている動き検出領域の画像信号を、この水平移動
レイヤの中間画像信号に設定する。ここで、水平方向に
移動する画像は、正面動画像から外に移動する画像と中
に入り込む画像が生じる。例えば、右折時には、正面動
画像の右側端部から画像が入り込み左側端部から画像が
出ていく。このため、外に移動する画像の水平移動レイ
ヤは遠景レイヤ等と時間軸方向を等しくする。また、中
に入り込む画像の水平移動レイヤは後退レイヤと同様
に、遠景レイヤ等とは時間軸方向を逆方向とする。
The intermediate image information storage area 52, when instructed to create a horizontal movement layer based on the layer pattern information LP, stores the image signal of the motion detection area in which the direction of the motion vector is horizontal. Is set to the intermediate image signal of this horizontal movement layer. Here, the image moving in the horizontal direction includes an image moving outward from the front moving image and an image moving inside. For example, when making a right turn, an image enters from the right end of the front moving image and exits from the left end. For this reason, the horizontal movement layer of the image moving outside is set to have the same time axis direction as the distant view layer and the like. Further, the horizontal movement layer of the image that enters the inside is the same as the backward layer in the direction of the time axis that is opposite to that of the distant view layer or the like.

【0124】このようにして、中間画像情報蓄積領域5
2は、遠景,中景,近景の各レイヤの中間画像信号と後
退レイヤや水平移動レイヤの中間画像信号を動き量に応
じて生成して記憶する。また、各レイヤの動き量も上述
のように合わせて記憶する。
In this manner, the intermediate image information storage area 5
Reference numeral 2 generates and stores intermediate image signals of the distant, middle, and near layers and intermediate image signals of the backward layer and the horizontally moving layer according to the amount of motion. Further, the amount of motion of each layer is also stored as described above.

【0125】次に、蓄積部50の中間画像情報蓄積領域
52に記憶された中間画像情報を用いて右側面の画像の
周辺画像信号SDRを生成する場合について説明する。
Next, a case where the peripheral image signal SDR of the right side image is generated using the intermediate image information stored in the intermediate image information storage area 52 of the storage section 50 will be described.

【0126】周辺画像信号SDRを生成する場合、周辺
画像信号生成ブロック60は、中間画像情報蓄積領域5
2から中間画像情報として記憶されている動き量MYv
を読み出して、レイヤ毎の中間画像信号GYvの信号読
み出し量を動き量MYvに基づいて決定する。さらに、
この動き量MYvに応じた信号量の中間画像信号をレイ
ヤ毎に使用して、遠景レイヤ,中景レイヤ、近景レイヤ
の順に重ね合わせることで画像合成を行う。また、遠
景,中景,近景のレイヤとは異なるレイヤが設けられて
いるときには、このレイヤの画像合成処理も行い、周辺
画像信号SDRを生成できる。この生成した周辺画像信
号SDRを正面動画像の画像信号SDCの出力タイミング
に合わせてプロジェクタ12Rに供給することで、正面
動画像だけでなく右側面の画像も連続的に表示させるこ
とができる。
When generating the peripheral image signal SDR, the peripheral image signal generating block 60
2 to the motion amount MYv stored as intermediate image information
And the signal readout amount of the intermediate image signal GYv for each layer is determined based on the movement amount MYv. further,
Image synthesis is performed by superimposing in the order of a distant view layer, a middle view layer, and a near view layer using an intermediate image signal of a signal amount corresponding to the motion amount MYv for each layer. Further, when a layer different from the distant, middle, and near view layers is provided, the image synthesis processing of this layer is also performed, and the peripheral image signal SDR can be generated. By supplying the generated peripheral image signal SDR to the projector 12R in accordance with the output timing of the image signal SDC of the front moving image, not only the front moving image but also the image on the right side can be continuously displayed.

【0127】図30は、中間画像情報蓄積領域52に記
憶されている中間画像情報を読み出して周辺画像信号を
生成する周辺画像信号生成ブロック60の構成を示して
いる。周辺画像信号生成ブロック60の画像生成制御部
61は、中間画像情報蓄積領域52に中間画像情報とし
て記憶されているレイヤ毎の動き量MYvをフレーム順
に読み出して、この読み出した動き量MYvに基づきレ
イヤ毎の中間画像信号の読み出し量を判別する。また、
画像生成制御部61は、判別した読み出し量に基づい
て、中間画像情報蓄積領域52から中間画像信号GYv
をレイヤ毎に読み出して、信号抽出部62に設けられて
いるレイヤ毎の合成部621-1〜621-5に供給する。
FIG. 30 shows the configuration of a peripheral image signal generation block 60 for reading out intermediate image information stored in the intermediate image information storage area 52 and generating a peripheral image signal. The image generation control unit 61 of the peripheral image signal generation block 60 reads out the motion amount MYv for each layer stored as intermediate image information in the intermediate image information storage area 52 in frame order, and based on the read motion amount MYv, The readout amount of the intermediate image signal for each is determined. Also,
The image generation control unit 61 reads the intermediate image signal GYv from the intermediate image information storage area 52 based on the determined read amount.
Is read out for each layer and supplied to the composing units 621-1 to 621-5 for each layer provided in the signal extracting unit 62.

【0128】ここで、右左折時に水平方向に移動する水
平移動レイヤの中間画像信号は合成部621-1に供給す
る。また、遠景レイヤの中間画像信号は合成部621-2
に供給すると共に、中景レイヤの中間画像信号および近
景レイヤの中間画像信号は合成部621-3,621-4に
供給する。さらに追越し車両の画像が含まれる後退レイ
ヤの中間画像信号は合成部621-5に供給する。
Here, the intermediate image signal of the horizontal moving layer that moves in the horizontal direction when turning right and left is supplied to the synthesizing unit 621-1. The intermediate image signal of the distant view layer is supplied to the synthesizing unit 621-2.
And the intermediate image signal of the middle view layer and the intermediate image signal of the near view layer are supplied to the combining units 621-3 and 621-4. Further, the intermediate image signal of the backward layer including the image of the overtaking vehicle is supplied to the combining unit 621-5.

【0129】合成部621-1には、後述する画像シフト
部623-1が接続されており、この合成部621-1は、
画像シフト部623-1から供給された画像信号に、中間
画像情報蓄積領域52から読み出した対応するレイヤの
画像信号を重ね合わせることで画像合成を行う。この合
成部621-1によって画像合成が行われて得られた水平
移動レイヤの画像信号は、遅延部622-1と画像信号生
成部44の遠景合成部641に供給される。
An image shift unit 623-1 described later is connected to the synthesizing unit 621-1.
Image synthesis is performed by superimposing the image signal of the corresponding layer read from the intermediate image information storage area 52 on the image signal supplied from the image shift unit 623-1. The image signal of the horizontal movement layer obtained by performing the image synthesis by the synthesis unit 621-1 is supplied to the delay unit 622-1 and the distant view synthesis unit 641 of the image signal generation unit 44.

【0130】遅延部622-1は、合成部621-1から供
給された画像信号を1フレーム分だけ遅延させて画像シ
フト部623-1に供給する。画像シフト部623-1は、
遅延部622-1から供給された画像信号に基づく画像
を、画像生成制御部61から供給された水平移動レイヤ
の動き量MYvに基づいて水平方向に移動させる。さら
にこの水平方向に移動させた画像の画像信号を合成部6
21-1に供給する。合成部621-1は、この水平方向に
移動された画像に対して、中間画像情報蓄積領域52か
ら各レイヤの動き量MYv分だけ読み出した中間画像信
号GYvに基づく画像を重ね合わせることで画像合成を
行い、順次画像が移動する画像信号を生成する。
The delay section 622-1 delays the image signal supplied from the synthesizing section 621-1 by one frame and supplies the delayed image signal to the image shift section 623-1. The image shift unit 623-1 is
The image based on the image signal supplied from the delay unit 622-1 is moved in the horizontal direction based on the motion amount MYv of the horizontal movement layer supplied from the image generation control unit 61. Further, the image signal of the image moved in the horizontal direction is
21-1. The synthesizing unit 621-1 superimposes an image based on the intermediate image signal GYv read by the motion amount MYv of each layer from the intermediate image information storage area 52 on the image moved in the horizontal direction. Is performed to generate an image signal in which the image sequentially moves.

【0131】同様に、遅延部622-2〜622-5は1フ
レーム分遅延された画像信号を生成すると共に、画像シ
フト部623-2〜623-5は、この1フレーム分遅延さ
れた画像信号を画像生成制御部61から供給された各レ
イヤの動き量MYvに基づいて水平方向に移動させる。
さらに、合成部621-2〜621-5は、この水平方向に
移動された画像に対して、中間画像情報蓄積領域52か
ら各レイヤの動き量分だけ読み出した中間画像信号GY
vに基づく画像を重ね合わせることで画像合成を行い、
順次画像が移動する画像信号をレイヤ毎に生成する。
Similarly, delay sections 622-2 to 622-5 generate image signals delayed by one frame, and image shift sections 623-2 to 623-5 generate image signals delayed by one frame. Is moved in the horizontal direction based on the motion amount MYv of each layer supplied from the image generation control unit 61.
Further, the synthesizing units 621-2 to 621-5 output the intermediate image signal GY read from the intermediate image information storage area 52 by the amount of movement of each layer for the image moved in the horizontal direction.
Image synthesis is performed by superimposing images based on v,
An image signal in which an image sequentially moves is generated for each layer.

【0132】また、中間画像信号は、正面動画像信号か
ら読み出した信号であるので、この中間画像信号に基づ
く画像は、スクリーン10Cと同じ面上の画像となる。
しかし、周辺画像を表示するスクリーン10Rは正面の
スクリーン10Cに対して傾きを持って設けられてい
る。このため、遠景,中景,近景レイヤや後退レイヤの
ように、動きベクトルの方向が画像基準位置CPの方向
あるいは逆方向であるレイヤの画像信号を用いて、各レ
イヤの画像を重ね合わせることで画像合成を行い周辺画
像信号SDRを生成して画像表示を行うものとすると、
スクリーン10Rに表示される画像は、スクリーン10C
に対するスクリーン10Rの傾きによって正しい形状と
ならない。このため、動きベクトルの方向が画像基準位
置CPの方向あるいは逆方向であるレイヤの画像信号
は、射影変換部63の各変換部631〜634に供給し
て、この各レイヤの画像をスクリーン10L,10Rに表
示したときに、動きベクトルMVEのベクトル方向に画
像が正しく移動するように射影変換を行う。また、水平
移動レイヤの画像は、動きベクトルMVEのベクトル方
向が水平方向であるため、遠景,中景,近景レイヤ,後
退レイヤのような射影変換は行わないものとする。
Since the intermediate image signal is a signal read from the front moving image signal, an image based on this intermediate image signal is an image on the same plane as the screen 10C.
However, the screen 10R for displaying the peripheral image is provided to be inclined with respect to the front screen 10C. For this reason, the image of each layer is superimposed by using an image signal of a layer such as a distant view, a middle view, a near view layer, or a backward layer in which the direction of the motion vector is the direction of the image reference position CP or the reverse direction. Assuming that the image is synthesized and the peripheral image signal SDR is generated and the image is displayed,
The image displayed on the screen 10R is the screen 10C.
The shape may not be correct due to the inclination of the screen 10R with respect to. For this reason, the image signal of the layer in which the direction of the motion vector is the direction of the image reference position CP or the opposite direction is supplied to each of the conversion units 631 to 634 of the projection conversion unit 63, and the image of each layer is displayed on the screen 10L, When the image is displayed on 10R, projective transformation is performed so that the image moves correctly in the vector direction of the motion vector MVE. In the image of the horizontal movement layer, since the vector direction of the motion vector MVE is the horizontal direction, projective transformation such as a distant view, a middle view, a near view layer, and a backward layer is not performed.

【0133】射影変換部63の変換部631〜634
は、合成部621-2〜621-5から供給された画像信号
に対して、画像がスクリーン10Rの向きに対応した形
状となるように射影変換を行う。ここで、正面動画像か
ら画像を順次読み出すと、読み出した画像の表示面10
CRとスクリーン10Rは、上述の図14Aおよび図14
Bに示すように同一面でないため、正面動画像から読み
出した画像をスクリーン10Rに表示したときには、表
示面10CRの画像をそのままスクリーン10Rの面上に
投射したものとなり、正しい形状とならない。
Conversion units 631 to 634 of projection conversion unit 63
Performs projective transformation on the image signals supplied from the combining units 621-2 to 621-5 so that the image has a shape corresponding to the direction of the screen 10R. Here, when the images are sequentially read from the front moving image, the display surface 10 of the read image is displayed.
The CR and the screen 10R are the same as those shown in FIGS.
As shown in B, when the image read from the front moving image is displayed on the screen 10R, the image on the display surface 10CR is directly projected onto the surface of the screen 10R, and does not have a correct shape.

【0134】このため、変換部631〜634は、画像
の垂直方向に対してズームインあるいはズームアウトの
中心Czmから距離に比例した拡大率で拡大すると共に、
画像の水平方向に対してその速度がズームインあるいは
ズームアウトの中心Czmからの距離に比例するような拡
大率で拡大する射影変換を行う。この処理は、上述した
ように、正面画面端からそのまま読み出した画像の位置
(x,y)と右側面動画像上に正しく画像表示できるよ
うに変換処理した後の位置(X,Y)が、垂直方向につ
いては上述の式(5)の関係となり、水平方向について
は上述の式(4)の関係となる。このため、図14Dに
示すように、スクリーン10R上の(X,Y)の画像信
号は、式(5),式(6)を満たす位置(x,y)の信
号を用いることで、図14Eに示すようにスクリーン1
0R上に正しく右側面動画像を表示できる。
For this reason, the conversion units 631 to 634 enlarge the image in the vertical direction at a magnification ratio proportional to the distance from the center Czm of zooming in or zooming out.
Projection transformation is performed to enlarge the image in the horizontal direction at an enlargement factor such that the speed is proportional to the distance from the center Czm of zooming in or out. In this processing, as described above, the position (x, y) of the image read directly from the front screen edge and the position (X, Y) after the conversion processing so that the image can be displayed correctly on the right-side moving image are: For the vertical direction, the above equation (5) is used, and for the horizontal direction, the above equation (4) is used. For this reason, as shown in FIG. 14D, the (X, Y) image signal on the screen 10R is obtained by using the signal at the position (x, y) satisfying Expressions (5) and (6), as shown in FIG. Screen 1 as shown
The right side moving image can be displayed correctly on 0R.

【0135】この変換部631で得られた射影変換後の
遠景レイヤの画像信号は、画像信号合成部64の遠景合
成部641に供給される。また、変換部632で得られ
た射影変換後の中景レイヤの画像信号は中景合成部64
2に供給されると共に、変換部633で得られた射影変
換後の近景レイヤの画像信号は近景合成部643に供給
される。さらに、変換部634で得られた後退レイヤの
画像信号は縮小画合成部644に供給される。
The image signal of the distant view layer after the projective conversion obtained by the conversion section 631 is supplied to the distant view synthesis section 641 of the image signal synthesis section 64. Further, the image signal of the middle ground layer after the projective conversion obtained by the conversion unit 632 is
2 and the image signal of the foreground layer after the projective transformation obtained by the transformation unit 633 is supplied to the foreground composition unit 643. Further, the image signal of the backward layer obtained by the conversion unit 634 is supplied to the reduced image synthesis unit 644.

【0136】遠景合成部641は、合成部621と変換
部631から供給された画像信号に基づいて、水平移動
レイヤの画像に遠景レイヤの画像を重ね合わることで画
像合成を行い画像信号を生成して中景合成部642に供
給する。
The distant view synthesizing unit 641 generates an image signal by superimposing the image of the distant view layer on the image of the horizontal moving layer based on the image signal supplied from the synthesizing unit 621 and the converting unit 631. And supplies it to the middle view synthesis section 642.

【0137】中景合成部642は、変換部632と遠景
合成部641から供給された画像信号に基づいて、遠景
レイヤの画像が重ね合わされた画像に中景レイヤの画像
を重ね合わせることで画像合成を行い画像信号を生成し
て近景合成部643に供給する。
The middle scene combining section 642 superimposes the image of the middle scene layer on the image in which the image of the far scene layer is superimposed based on the image signal supplied from the conversion section 632 and the far scene combining section 641. To generate an image signal and supply it to the foreground composition unit 643.

【0138】近景合成部643は、変換部633と中景
合成部642から供給された画像信号に基づいて、中景
レイヤの画像が重ね合わされた画像に近景レイヤの画像
を重ね合わせることで画像合成を行い画像信号を生成し
て縮小画合成部644に供給する。
The foreground composition section 643 superimposes the image of the foreground layer on the image on which the image of the middle layer is superimposed, based on the image signal supplied from the conversion section 633 and the intermediate scene composition section 642. To generate an image signal and supply it to the reduced image synthesizing unit 644.

【0139】縮小画合成部644は、変換部634と近
景合成部643から供給された画像信号に基づいて、近
景レイヤの画像が重ね合わされた画像に、時間と共に画
像が縮小する後退レイヤの画像を重ね合わせることで画
像合成を行い画像信号を生成する。この縮小画合成部6
44で生成された画像信号は、水平移動レイヤから縮小
レイヤまでの各レイヤを重ね合わせる画像合成が行われ
た側面動画像の画像信号となる。
[0139] Based on the image signals supplied from the conversion unit 634 and the foreground composition unit 643, the reduced image composition unit 644 adds the image of the retreat layer whose image is reduced with time to the image on which the image of the foreground layer is superimposed. Image superimposition is performed by superimposing to generate an image signal. This reduced image synthesizing unit 6
The image signal generated in 44 is an image signal of a side moving image on which image synthesis in which layers from the horizontal movement layer to the reduction layer are superimposed is performed.

【0140】このため、周辺画像信号生成ブロック60
は、縮小画合成部644で生成された画像信号を周辺画
像信号SDRとしてプロジェクタ12Rに供給すること
で、プロジェクタ12Rによって正面動画像と連続した
右側面の画像をスクリーン10Rに表示することができ
る。
Therefore, the peripheral image signal generation block 60
Supplies the image signal generated by the reduced image synthesizing unit 644 to the projector 12R as a peripheral image signal SDR, so that the projector 12R can display an image on the right side continuous with the front moving image on the screen 10R.

【0141】また、中間画像情報蓄積領域52に記憶さ
れた中間画像信号に対して、画像の無い部分を補間する
処理が行われていないとき、あるいは縮小画合成部64
4で生成された画像信号に画像の無い部分が生ずると
き、図示せずも画像信号合成部64に補間部を設けて、
補間部は画像の無い部分と隣接する領域でどのようなレ
イヤの画像が重ね合わされたかを判別して、奥行きの深
いレイヤの画像を用いて補間処理を行うものとする。例
えば、中景レイヤと近景レイヤの画像が重ね合わされて
いる領域と水平方向に隣接する部分で画像の無い部分が
生じてとき、補間部は、奥行きの深い中景レイヤの画像
を用いて補間処理を行うことで、画像の欠落のない良好
な周辺画像信号SDRを生成できる。
When the intermediate image signal stored in the intermediate image information storage area 52 has not been subjected to the process of interpolating the non-image portion, or the reduced image synthesizing unit 64
When an imageless portion occurs in the image signal generated in step 4, an interpolation unit is provided in the image signal combining unit 64, not shown,
It is assumed that the interpolation unit determines what layer image has been superimposed in a region adjacent to a portion having no image, and performs an interpolation process using the image of the deep layer. For example, when there is no image in a portion horizontally adjacent to a region where the images of the middle view layer and the near view layer are superimposed, the interpolation unit performs the interpolation process using the image of the middle view layer having a large depth. , It is possible to generate a good peripheral image signal SDR without image loss.

【0142】また、周辺画像信号生成ブロック60は、
周辺画像信号SDRと同様にして周辺画像信号SDLを生
成してプロジェクタ12Lに供給することで、プロジェ
クタ12Lによって正面動画像と連続した左側面の画像
をスクリーン10Lに表示することができる。
The peripheral image signal generation block 60
By generating the peripheral image signal SDL and supplying the generated peripheral image signal SDL to the projector 12L in the same manner as the peripheral image signal SDR, an image on the left side continuous with the front moving image can be displayed on the screen 10L by the projector 12L.

【0143】さらに、蓄積部50は、中間画像情報を蓄
積するものであり、この中間画像情報は動き量とレイヤ
毎の中間画像信号である。このため、蓄積部50に蓄積
する情報量は、周辺画像の画像信号を蓄積する場合に比
べて少なくなる。また、画像処理装置15Bは、大容量
の記録媒体等を用いることなく広画角での画像表示を行
うことができる。
Further, the storage section 50 stores intermediate image information, and the intermediate image information is a motion amount and an intermediate image signal for each layer. For this reason, the amount of information stored in the storage unit 50 is smaller than that in the case where the image signal of the peripheral image is stored. Further, the image processing device 15B can perform image display at a wide angle of view without using a large-capacity recording medium or the like.

【0144】さらに、上述の各ブロックで行われる処理
はソフトウェアで実現するものとしても良い。この場合
の構成は上述の図15と同様であり説明は省略する。
Further, the processing performed in each block described above may be realized by software. The configuration in this case is the same as that in FIG. 15 described above, and the description is omitted.

【0145】図31は、第2の実施の形態における画像
処理プログラムの全体構成を示すフローチャートであ
る。図において、ステップST41では動き検出処理を
行い、画像の動きベクトルを検出する。次にステップS
T42では中間画像情報生成処理で動きベクトルに基づ
きレイヤ毎、例えば遠景レイヤ,中景レイヤ,近景レイ
ヤ毎の画像情報と各レイヤの動き量を示す中間画像情報
を生成する。ステップST43では、周辺画像生成処理
を行い、中間画像情報に基づき周辺画像を合成する。
FIG. 31 is a flowchart showing the overall configuration of an image processing program according to the second embodiment. In the figure, in step ST41, a motion detection process is performed to detect a motion vector of an image. Next, step S
In T42, intermediate image information generation processing generates image information for each layer, for example, a distant view layer, a middle view layer, and a close view layer, based on the motion vector, and intermediate image information indicating the motion amount of each layer. In step ST43, a peripheral image generation process is performed, and a peripheral image is synthesized based on the intermediate image information.

【0146】図32は、図31のステップST41の動
き検出処理を示すフローチャートである。ステップST
51では、正面動画像に対して動き検出領域を設定して
ステップST52に進む。ステップST52では、動き
検出領域の画像の縮小や位置の変更を行い誤差和を算出
しステップST53に進む。ステップST53では既に
算出されている誤差和を比較して誤差和が少なくなる画
像位置を検出してステップST54に進む。ステップS
T54では、予め設定された画像サイズや位置の範囲内
での検討が完了したか否かを判別して、完了していない
ときにはステップST51に戻り、完了したときにはス
テップST55に進む。ステップST55では、誤差和
が最も少なくなる画像位置に基づき動き検出領域の動き
を示す動きベクトルを決定する。
FIG. 32 is a flowchart showing the motion detection processing in step ST41 of FIG. Step ST
At 51, a motion detection area is set for the front moving image, and the process proceeds to step ST52. In step ST52, the image of the motion detection area is reduced or the position is changed to calculate an error sum, and the process proceeds to step ST53. In step ST53, the calculated error sum is compared to detect an image position where the error sum is reduced, and the process proceeds to step ST54. Step S
At T54, it is determined whether or not the examination within the preset image size and position range has been completed. If not, the process returns to step ST51, and if completed, the process proceeds to step ST55. In step ST55, a motion vector indicating the motion of the motion detection area is determined based on the image position where the error sum is minimized.

【0147】図33は、図31のステップST42の中
間画像情報生成処理を示すフローチャートである。ステ
ップST61では、ステップST41の動き検出処理で
検出された動きベクトルに基づき動きパターン、例えば
直進動作であるか後退動作であるかあるいは右折や左折
動作等のいずれの動きパターンであるかを判別して、ど
のようなレイヤを設けるかを示すレイヤパターン情報を
生成する。ステップST62では、判別された動きパタ
ーンは、画面全体が拡大動きであるか否かを判別する。
ここで拡大動きであるときにはステップST63に進
み、拡大動きでないときにはステップST65に進む。
ステップST63では、動きベクトルの動き量を用いて
統計情報、例えば平均値を算出してステップST64に
進む。ステップST64では、統計情報に基づき、画像
を例えば遠景,中景,近景にレイヤ分けするための閾値
を設定する。ステップST65では設定された閾値と動
き量を比較して、動き検出領域がいずれのレイヤに属す
るかを示すレイヤ情報を生成する。また、画面全体が拡
大動きでないときには、動き検出領域を動きパターンに
応じたレイヤとしてレイヤ情報を生成する。
FIG. 33 is a flowchart showing the intermediate image information generation processing of step ST42 in FIG. In step ST61, it is determined based on the motion vector detected in the motion detection processing in step ST41 whether the motion pattern is, for example, a straight-line operation, a backward operation, or a right-turn or left-turn operation. , And generates layer pattern information indicating what layer is provided. In step ST62, it is determined whether or not the determined motion pattern is an enlarged motion of the entire screen.
Here, when the movement is the enlargement movement, the process proceeds to step ST63, and when the movement is not the enlargement movement, the process proceeds to step ST65.
In step ST63, statistical information, for example, an average value is calculated using the motion amount of the motion vector, and the process proceeds to step ST64. In step ST64, based on the statistical information, a threshold value for layering the image into, for example, a distant view, a middle view, and a near view is set. In step ST65, the set threshold value and the amount of motion are compared to generate layer information indicating to which layer the motion detection area belongs. When the entire screen is not an enlarged motion, layer information is generated with the motion detection area as a layer according to the motion pattern.

【0148】ステップST66では、レイヤに含まれる
動き検出領域の動き量に基づきレイヤ毎の動き量を算出
する。ステップST67ではレイヤ情報とレイヤ毎の動
き量に基づき、正面動画像からレイヤ毎に画像を抽出し
て中間画像を生成する。ステップST68では、中間画
像で孤立領域があるか否かを判別して、孤立領域がある
ときにはステップST69に進み孤立領域がないときに
はステップST70に進む。ステップST69では、補
間処理を行い孤立領域を除去してステップST70に進
む。ステップST70では孤立領域の無いレイヤ毎の中
間画像とレイヤ毎の動き量を中間画像情報を生成する。
In step ST66, the motion amount for each layer is calculated based on the motion amount of the motion detection area included in the layer. In step ST67, based on the layer information and the amount of motion for each layer, an image is extracted for each layer from the front moving image to generate an intermediate image. In step ST68, it is determined whether or not there is an isolated region in the intermediate image. If there is an isolated region, the process proceeds to step ST69. If there is no isolated region, the process proceeds to step ST70. In step ST69, interpolation processing is performed to remove an isolated region, and the process proceeds to step ST70. In step ST70, an intermediate image for each layer without an isolated area and the amount of motion for each layer are generated as intermediate image information.

【0149】図34は、図31のステップST43の周
辺画像生成処理を示すフローチャートである。ステップ
ST81では、中間画像情報で示されたレイヤ毎の動き
量に基づいて、各レイヤ毎の中間画像からレイヤ毎に画
像を抽出する。ステップST82では、抽出した各レイ
ヤの画像を所定の位置に合成を生成する。ステップST
83では、画像の合成を行ったときに画像の無い部分が
生じて、この部分の画像を補う補間処理か必要か否かを
判別する。ここで、画像の無い部分が生じるときにはス
テップST84に進み、画像の無い部分が生じていない
ときにはステップST85に進む。ステップST84で
は補間処理を行いステップST85に進む。例えば、画
像の無い部分の周辺の画像を伸長して補間する。ステッ
プST85では、合成された画像を投影するスクリーン
の向きに合わせて幾何変換処理を行い、この幾何変換が
行われた画像の画像信号をステップST86で周辺画像
の画像信号として出力する。
FIG. 34 is a flowchart showing the peripheral image generation processing of step ST43 in FIG. In step ST81, an image is extracted for each layer from the intermediate image for each layer based on the motion amount for each layer indicated by the intermediate image information. In step ST82, the image of each extracted layer is synthesized at a predetermined position. Step ST
At 83, it is determined whether or not there is an imageless portion when the images are combined, and whether or not interpolation processing to supplement the image of this portion is necessary. Here, when there is a portion without an image, the process proceeds to step ST84, and when there is no portion without an image, the process proceeds to step ST85. In step ST84, an interpolation process is performed, and the process proceeds to step ST85. For example, an image around a portion having no image is expanded and interpolated. In step ST85, a geometric transformation process is performed according to the orientation of the screen on which the synthesized image is projected, and the image signal of the image subjected to the geometric transformation is output as an image signal of the peripheral image in step ST86.

【0150】このような画像処理プログラムは、上述し
たようにリムーバブルの情報記録伝送媒体に記録した
り、情報記録伝送媒体を介して伝送するものとしても良
い。
As described above, such an image processing program may be recorded on a removable information recording / transmission medium or transmitted via an information recording / transmission medium.

【0151】また、上述の第2の実施の形態において、
画像処理プログラムが実行されて中間画像情報の生成が
行われたときには、この中間画像情報が例えばハード・
ディスク・ドライブ304あるいは記録媒体ドライブ3
12に装着された記録媒体に記録される。さらに、周辺
画像の画像信号の出力が要求されたときには、中間画像
情報が読み出されて左右側面動画像の周辺画像信号SD
L,SDRが生成されると共に、この周辺画像信号SD
L,SDRが正面動画像の画像信号SDCとタイミングを
合わせて出力される。このため、正面と左右のスクリー
ンを用いて、広画角の連続した画像を表示することがで
きる。
In the above-described second embodiment,
When the image processing program is executed to generate the intermediate image information, the intermediate image information
Disk drive 304 or recording medium drive 3
12 is recorded on a recording medium attached to the recording medium 12. Further, when the output of the image signal of the peripheral image is requested, the intermediate image information is read out and the peripheral image signal SD of the left and right side moving image is read.
L and SDR are generated, and the peripheral image signal SD
L and SDR are output in synchronization with the image signal SDC of the front moving image. For this reason, a continuous image with a wide angle of view can be displayed using the front and left and right screens.

【0152】ところで、上述の第2の実施の形態は、正
面動画像の側端側に設けた動き検出領域の動きベクトル
MVEに基づいて、遠景,中景,近景等の画像のレイヤ
分けや動き量の判別等を行い、中間画像情報を生成して
中間画像情報蓄積領域52に記憶させると共に、周辺画
像を表示させる際には、中間画像情報蓄積領域52に蓄
積されている中間画像情報を用いて、各レイヤの動き量
MYvに応じて中間画像信号GYvを読み出して画像の重
ね合わせを行うことで周辺画像信号を生成するものとし
た。しかし、周辺画像信号は、動きベクトルMVEを用
いることなく生成することもできる。
By the way, in the second embodiment described above, based on the motion vector MVE of the motion detection area provided on the side end side of the front moving image, layering and moving of images such as distant, middle, and near views are performed. The amount of intermediate image information is determined, the intermediate image information is generated and stored in the intermediate image information storage area 52, and the peripheral image is displayed using the intermediate image information stored in the intermediate image information storage area 52. Thus, the peripheral image signal is generated by reading out the intermediate image signal GYv in accordance with the motion amount MYv of each layer and superimposing the images. However, the peripheral image signal can be generated without using the motion vector MVE.

【0153】次にこの発明の第3の実施の形態の画像処
理装置について説明する。この画像処理装置15Cは、
動きベクトルMVEを用いることなく周辺画像信号を生
成するものである。
Next, an image processing apparatus according to a third embodiment of the present invention will be described. This image processing device 15C
The peripheral image signal is generated without using the motion vector MVE.

【0154】画像処理装置15Cは、幾何変換によって
正面動画像に基づき側面方向の射影画像を生成し、この
射影画像を積分処理して積分画像を生成すると共に、こ
の積分画像を用いて画像のレイヤ分けを行い、レイヤ毎
の動き量MYsやレイヤ毎の中間画像信号を生成して、
中間画像情報として中間画像情報蓄積領域52に記憶さ
せる。
The image processing device 15C generates a projected image in the lateral direction based on the front moving image by geometric transformation, performs an integration process on the projected image to generate an integrated image, and uses the integrated image to generate a layer of an image. By performing the division, a motion amount MYs for each layer and an intermediate image signal for each layer are generated,
It is stored in the intermediate image information storage area 52 as intermediate image information.

【0155】図35は、画像処理装置15Cの構成を示
している。正面動画像の画像信号SDCは、幾何変換部
71に供給される。幾何変換部71は、正面動画像の画
像信号SDCを用いて正面動画像を進行方向の面である
射影面に表示した画像の射影画像信号SDPを幾何変換
処理によって生成する。この幾何変換部71によって生
成された射影画像信号SDPは、動き検出ブロック72
の動き判別画像生成部73と積分画像生成部74および
レイヤ化処理ブロック80の情報生成部82に供給され
る。
FIG. 35 shows the configuration of the image processing device 15C. The image signal SDC of the front moving image is supplied to the geometric conversion unit 71. The geometric transformation unit 71 generates a projected image signal SDP of an image in which the front moving image is displayed on the projection plane, which is a plane in the traveling direction, by using the image signal SDC of the front moving image by a geometric transformation process. The projected image signal SDP generated by the geometric transformation unit 71 is
Are supplied to the motion discrimination image generation unit 73, the integral image generation unit 74, and the information generation unit 82 of the layering processing block 80.

【0156】動き判別画像生成部73は、幾何変換部7
1より供給された射影画像信号SDPを用いて、フレー
ム毎に正面動画像と接する端部側から所定範囲の射影画
像信号SDPを抽出して順次重ね合わせることで画像合
成を行うことにより動き判別画像信号SMDを生成す
る。この動き判別画像信号SMDは、動き判別部75に
供給される。
The motion discrimination image generation unit 73
By using the projected image signal SDP supplied from No. 1 and extracting a projected image signal SDP of a predetermined range from an end portion in contact with the front moving image for each frame and sequentially superimposing the images, the image synthesis is performed to perform the motion discrimination image. Generate a signal SMD. The motion determining image signal SMD is supplied to the motion determining unit 75.

【0157】積分画像生成部74は、水平方向に位置を
ずらしながらmsフレーム分の射影画像信号SDPを足し
込んで平均化することにより1つの積分画像信号を生成
する。また、ns個の異なる位置のずらし量でns個の積
分画像信号を生成する。この積分画像生成部74で生成
したns個の積分画像信号SAは動き判別部75に供給
される。
The integrated image generating section 74 generates one integrated image signal by adding and averaging the projected image signals SDP for ms frames while shifting the position in the horizontal direction. In addition, ns integrated image signals are generated with the shift amounts of ns different positions. The ns integrated image signals SA generated by the integrated image generating unit 74 are supplied to the motion determining unit 75.

【0158】動き判別部75は、ns個の積分画像信号
SAと動き判別画像信号SMDとを比較し、そして、動
き判別画像信号SMDに基づく画像とマッチングする積
分画像信号SAに基づく画像を検出する。さらに動き判
別部75は、その検出結果に基づき注目フレームの所定
位置の動き量を判別する。ここで、積分画像は、位置の
ずらし量と画像の移動量が一致したときに、この被写体
が画像として現れるものである。また、積分画像は、ず
らし量を異なるものとしてns個だけ生成されているの
で、ns個の移動量の異なる画像を積分画像信号SAに
よって示すものとなる。このため、動き判別部75は、
ns個の積分画像信号SAと動き判別画像信号SMDと
の相関を判別して、この判別結果に基づき、動き判別画
像を構成する被写体の移動量すなわち注目フレームの所
定位置の動き量を判別する。ここで、被写体の画像が遠
景であるとき、移動量は小さい。また、被写体の画像が
近景であるとき、移動量は大きい。すなわち、この移動
量は被写体の画像の奥行きを示すものである。このよう
にして、動き判別部75は、射影画像の各位置の動き量
を判別すると共に、判別結果を示す動き量情報MFを生
成してレイヤ化処理ブロック80のレイヤ分類部81と
情報生成部82に供給する。
The motion discriminating section 75 compares the ns integrated image signals SA with the motion discriminated image signal SMD, and detects an image based on the integrated image signal SA matching with an image based on the motion discriminated image signal SMD. . Further, the motion determining unit 75 determines the amount of motion at a predetermined position of the frame of interest based on the detection result. Here, the integrated image is an image in which this subject appears as an image when the amount of position shift matches the amount of image movement. Also, since only ns integrated images are generated with different shift amounts, the integrated image signal SA indicates ns images with different moving amounts. For this reason, the motion determining unit 75
The correlation between the ns integrated image signals SA and the motion discrimination image signal SMD is discriminated, and based on the discrimination result, the movement amount of the subject constituting the motion discrimination image, that is, the movement amount of a predetermined position of the frame of interest is discriminated. Here, when the image of the subject is a distant view, the moving amount is small. Also, when the image of the subject is in the foreground, the movement amount is large. That is, this movement amount indicates the depth of the image of the subject. In this manner, the motion determining unit 75 determines the amount of motion at each position of the projected image, generates the amount of motion information MF indicating the determination result, and generates the amount of motion information MF indicating the determination result. 82.

【0159】レイヤ分類部81は、供給された動き量情
報MFに基づき、注目フレームの所定位置が複数レイヤ
のいずれに属するかを示すレイヤ分類情報LBを生成し
て情報生成部82に供給する。
The layer classification section 81 generates layer classification information LB indicating which of the plurality of layers the predetermined position of the frame of interest belongs to, based on the supplied motion amount information MF, and supplies it to the information generation section 82.

【0160】情報生成部82は、各レイヤにおいて、フ
レーム毎に前後のフレームの移動量を用いて平均値を求
めて、各レイヤの該当フレームの動き量MYsとして蓄
積部50の中間画像情報蓄積領域52に供給する。ま
た、情報生成部82は、求めたレイヤ毎の動き量MYs
と、レイヤ分類部81から供給されたレイヤ分類情報L
Bに基づき、幾何変換部71より供給された画像信号S
DPをレイヤ毎に分類して中間画像信号GFsを生成す
る。すなわち、情報生成部82は、動き量分だけ画像信
号を水平方向に読み出して該当するレイヤ毎に順次重ね
合わせることで画像合成を行うことにより、図28と同
様なレイヤ毎の中間画像信号GFsを生成する。
The information generating section 82 calculates an average value for each layer using the moving amount of the preceding and succeeding frames for each frame, and obtains the average image information storing area of the storing section 50 as the moving amount MYs of the corresponding frame of each layer. 52. Further, the information generation unit 82 calculates the motion amount MYs for each layer obtained.
And the layer classification information L supplied from the layer classification unit 81
B, the image signal S supplied from the geometric transformation unit 71.
DP is classified for each layer to generate an intermediate image signal GFs. In other words, the information generation unit 82 performs image synthesis by reading image signals in the horizontal direction by the amount of motion and superimposing the image signals sequentially for each corresponding layer, thereby generating an intermediate image signal GFs for each layer similar to FIG. Generate.

【0161】また、遠景レイヤや中景レイヤおよび近景
レイヤの画像の動き方向を基準としたとき、後退レイヤ
の動き方向は逆方向となる。このため、情報生成部82
は、動き量の絶対値分だけ正面動画像と接する端部側か
ら射影面画像信号を読み込み左右反転を行って重ね合わ
せることで画像合成を行うことで、後退レイヤの中間画
像信号を生成する。
When the moving directions of the images of the distant view layer, the middle view layer, and the near view layer are set as references, the moving direction of the backward layer is reverse. Therefore, the information generation unit 82
Generates an intermediate image signal of the backward layer by reading the projection plane image signal from the end side in contact with the front moving image by the absolute value of the motion amount, performing left-right inversion and superimposing the images, and performing image synthesis.

【0162】さらに、情報生成部82は、作成したレイ
ヤ毎の中間画像信号GFsに対して、画像の無い領域が
生じないように補間処理を行って画像の無い部分の埋め
込みを行う。この情報生成部82で補間処理を行うこと
により得られたレイヤ毎の中間画像信号GYsは、各レ
イヤの動き量MYsと関係付けられて中間画像情報とし
て中間画像情報蓄積領域52に記憶される。
Further, the information generating section 82 performs an interpolation process on the created intermediate image signal GFs for each layer so as not to generate a region without an image, and embeds a portion without an image. The intermediate image signal GYs for each layer obtained by performing the interpolation processing in the information generation unit 82 is stored in the intermediate image information storage area 52 as intermediate image information in association with the motion amount MYs of each layer.

【0163】周辺画像信号生成ブロック60は、中間画
像情報を中間画像情報蓄積領域52から読み出して、上
述と同様に処理することで、右側面動画像の周辺画像信
号を生成できる。
The peripheral image signal generation block 60 can generate the peripheral image signal of the right side moving image by reading the intermediate image information from the intermediate image information storage area 52 and processing it in the same manner as described above.

【0164】次に各ブロック等について詳細に説明す
る。図36は幾何変換部71での幾何変換処理を説明す
るための図である。この図36において、位置Oは正面
動画像UCの撮影位置である。理想的には、撮影位置と
視聴者の位置は同じとするのが良い。ここでは、撮影位
置と視聴者の位置は同じと考える。幾何変換部71は、
正面動画像の位置pの画像を進行方向と平行な射影面F
I上の位置qに射影して、正面動画像に基づいて射影画
像UIを生成する。ここで、射影面上の進行方向の位置
xbと正面動画像上の水平位置Xbの関係は、式(7)に
示すものとなる。また、射影面上の高さ方向の位置yb
と正面動画像上の垂直位置Ybの関係は、式(8)に示
すものとなる。
Next, each block will be described in detail. FIG. 36 is a diagram for describing the geometric transformation processing in the geometric transformation unit 71. In FIG. 36, a position O is a photographing position of the front moving image UC. Ideally, the photographing position and the viewer position should be the same. Here, it is assumed that the photographing position and the viewer position are the same. The geometric conversion unit 71
The image at the position p of the front moving image is projected onto the projection plane F parallel to the traveling direction.
The projection image UI is projected on the position q on I, and a projection image UI is generated based on the front moving image. Here, the relationship between the position xb in the traveling direction on the projection plane and the horizontal position Xb on the front moving image is as shown in Expression (7). Also, the position yb in the height direction on the projection plane
And the vertical position Yb on the front moving image is as shown in Expression (8).

【0165】[0165]

【数4】 (Equation 4)

【0166】なお、式(7)(8)において、「θg」
は正面動画像の水平画角を半分とした角度を示してお
り、正面動画像を撮影したカメラの水平画角が明らかで
あるときには、この水平画角の半分の角度を「θg」と
する。また、カメラの水平画角が明らかでないときに
は、使用したレンズの焦点距離に応じて予め設定された
値を用いるものとする。「d」は正面動画像の水平方向
の長さ(画枠の水平方向の長さ)を1/2にした値であ
る。
Note that in equations (7) and (8), “θg”
Indicates an angle obtained by halving the horizontal angle of view of the front moving image. When the horizontal angle of view of the camera that has captured the front moving image is clear, the angle of half of this horizontal angle of view is referred to as “θg”. If the horizontal angle of view of the camera is not clear, a value set in advance according to the focal length of the used lens is used. “D” is a value obtained by halving the horizontal length of the front moving image (the horizontal length of the image frame).

【0167】このように式(7)(8)を用いること
で、幾何変換部71は、正面動画像の各フレームの画像
信号に基づいて左右の射影画像の画像信号をフレーム単
位で生成できる。また、入力画像が車載前進系の正面動
画像の場合、左右の射影画像は側方画像となっており、
この射影画像の動き量は車速に比例する。また、この射
影画像の動き量は奥行きに反比例するものである。その
ため、射影画像が遠景の画像であって奥行きが大きいと
き、動き量は小さくなる。また、射影画像が近景の画像
であって奥行きが小さいとき、動き量は大きくなる。射
影画像の大きさは、後の各処理に対して十分な大きさが
あれば良い。例えば、提示する周辺画像と同じ大きさが
良い。
By using the equations (7) and (8), the geometric transformation unit 71 can generate the image signals of the left and right projected images on a frame basis based on the image signals of each frame of the front moving image. In addition, when the input image is a front moving image of an in-vehicle forward system, the left and right projected images are side images,
The motion amount of the projected image is proportional to the vehicle speed. The amount of movement of the projected image is inversely proportional to the depth. Therefore, when the projected image is a distant view image and has a large depth, the motion amount is small. Also, when the projected image is a close-up image and the depth is small, the amount of motion increases. The size of the projected image only needs to be large enough for each subsequent process. For example, the size is preferably the same as that of the peripheral image to be presented.

【0168】図37は、動き判別画像生成部73の動作
を説明するための図である。動き判別画像生成部73
は、図37Aに示すように、フレーム毎に射影面画像の
正面動画像側端部(右側射影面画像では右側端部)から
水平方向に所定画素数wa(例えば4画素)の幅で画像
信号を切り出すと共に、この切り出した画像信号を図3
7Bに示すようにフレーム順に所定フレーム分だけ重ね
合わせることで画像合成を行い動き判別画像Upの動き
判別画像信号SMDを生成する。なお、動き判別画像U
pは、被写体の動き量が水平方向にwa画素/フレーム
で、画像信号の切り出し画素数waと等しいとき(図3
7では家)、被写体の画像は不連続点を有しない連続し
た画像となる。画像信号の切り出しよりも動きの遅い被
写体(図37では山)の画像は、繰り返し切り出される
部分が生じるため切り出された画像信号の繋ぎ部分で画
像の不連続を生じる。また、画像信号の切り出しよりも
動きの速い被写体の画像(図37では木)は、動きが速
いために切り出されない部分が生じて繋ぎ部分で画像の
不連続を生じる。
FIG. 37 is a diagram for explaining the operation of the motion discrimination image generation unit 73. Motion determination image generation unit 73
As shown in FIG. 37A, the image signal has a width of a predetermined number of pixels wa (for example, 4 pixels) in the horizontal direction from the front moving image side end (the right end in the right projection plane image) of the projection plane image for each frame. And the extracted image signal is shown in FIG.
As shown in FIG. 7B, image synthesis is performed by overlapping by a predetermined frame in the frame order, and a motion discrimination image signal SMD of the motion discrimination image Up is generated. The motion discrimination image U
p is when the amount of movement of the subject is wa pixels / frame in the horizontal direction and is equal to the number wa of cutout pixels of the image signal (FIG. 3).
7, the image of the subject is a continuous image having no discontinuity. An image of a subject (mountain in FIG. 37) whose movement is slower than the extraction of the image signal has a portion that is repeatedly extracted, so that a discontinuity of the image occurs at a connection portion of the extracted image signals. In addition, in an image of a subject (a tree in FIG. 37) that moves faster than the clipping of the image signal, a portion that is not clipped occurs because the movement is fast, and discontinuity of the image occurs at a joint portion.

【0169】積分画像生成部74は、動き判別画像の各
画素の動き量を判別するために用いる積分画像信号SA
を生成する。ここで図38を用いて動き量の判別動作の
原理について説明する。例えば右方向に移動する被写体
Jaと被写体Jaの2倍の速度で右方向に移動する被写体
Jbを撮影すると、撮影画像は図38Aに示すものとな
る。ここで、最初のフレームF1に対して次のフレーム
F2の画像を被写体Jaの移動方向とは逆方向で被写体J
aの画素量dxだけシフトさせる。また、次のフレーム
F3の画像も同様に、フレームF2に対して被写体Jaの
移動方向とは逆方向で被写体Jaの画素量dxだけシフ
トさせる。このように、各フレーム間で一定量ずつシフ
トした各フレームの画像を加算して平均化した平均値画
像Umを用いると、被写体Jaの位置が一定であると共に
被写体Jbの位置は移動するので、被写体Jbの画像信号
の信号レベルは被写体Jaに比べて小さいものとなり、
図38Cに示すように平均値画像Umによって被写体Ja
のみを抽出できる。
The integral image generating section 74 integrates the integral image signal SA used to determine the motion amount of each pixel of the motion discrimination image.
Generate Here, the principle of the motion amount determination operation will be described with reference to FIG. For example, if the subject Ja moving rightward and the subject Jb moving rightward at twice the speed of the subject Ja are photographed, the photographed image is as shown in FIG. 38A. Here, the image of the next frame F2 is moved from the first frame F1 in the direction opposite to the moving direction of the subject Ja.
Shift by the pixel amount dx of a. Similarly, the image of the next frame F3 is shifted relative to the frame F2 by the pixel amount dx of the subject Ja in the direction opposite to the moving direction of the subject Ja. As described above, when the average value image Um obtained by adding and averaging the images of the respective frames shifted by a fixed amount between the respective frames is used, the position of the subject Jb is constant and the position of the subject Jb is moved. The signal level of the image signal of the subject Jb is smaller than that of the subject Ja,
As shown in FIG. 38C, the subject Ja is represented by the average value image Um.
Only can be extracted.

【0170】また、図38Dに示すように、各フレーム
の画像のずらし量を2倍(2dx)として平均値画像U
mを生成したとき、被写体Jbの位置は一定となると共に
被写体Jaの位置は移動するので、図38Eに示すよう
に平均値画像Umによって被写体Jbのみを抽出できる。
As shown in FIG. 38D, the shift amount of the image of each frame is doubled (2dx) and the average value image U
When m is generated, the position of the subject Jb becomes constant and the position of the subject Ja moves, so that only the subject Jb can be extracted from the average image Um as shown in FIG. 38E.

【0171】このように、各フレームの画像を所定量だ
け移動させて加算して平均化することにより得られた平
均値画像を生成すると共に、この各フレームの画像のず
らし量を変えて複数の平均値画像を生成する。そうする
と、いずれの平均値画像で被写体が正しく表示されたか
を判別することで、1つの画像に動き量の異なる被写体
が含まれていても、平均値画像を用いて各被写体の動き
量を判別できる。ここで、積分画像生成部74は、動き
判別画像生成部73と同様に、複数の平均値画像に基づ
いてフレーム毎に水平方向に所定画素数の画像信号を切
り出して積分画像を生成すると共に、この積分画像と動
き判別画像を比較して、動き判別画像を構成する被写体
と等しい画像がいずれの積分画像に現れたかを判別し
て、各フレームの所定位置の動き量を判別する。
As described above, the average value image obtained by moving the image of each frame by a predetermined amount, adding and averaging is generated, and a plurality of images are obtained by changing the shift amount of the image of each frame. Generate an average image. Then, by determining which average value image shows the subject correctly, even if one image includes subjects having different amounts of motion, the amount of motion of each subject can be determined using the average value image. . Here, similarly to the motion discriminating image generating unit 73, the integrated image generating unit 74 cuts out an image signal of a predetermined number of pixels in the horizontal direction for each frame based on the plurality of average images, and generates an integrated image. The integrated image and the motion discrimination image are compared to determine which integrated image has an image equal to the subject constituting the motion discrimination image, and the motion amount at a predetermined position in each frame is determined.

【0172】図39は、積分画像生成部74の構成を示
す図である。幾何変換部71から供給された射影画像信
号SDPは積分画像生成部74の加算処理部741-1〜
741-nsに供給される。
FIG. 39 is a diagram showing the configuration of the integral image generating section 74. The projection image signal SDP supplied from the geometric transformation unit 71 is added to the addition processing units 741-1 to 741-1 of the integral image generation unit 74.
741-ns.

【0173】加算処理部741-1は、予め設定された画
素数SH-1だけ前フレームよりも水平方向に移動させた
射影面画像信号を、msフレーム分(例えば10フレー
ム分)加算して加算信号を順次算出する。さらに、加算
処理部741-1は、この加算信号を1/m倍して平均値
画像の画像信号を領域選択部742-1に供給する。
The addition processing unit 741-1 adds the projecting plane image signal, which has been shifted in the horizontal direction from the previous frame by a predetermined number of pixels SH-1, for the number of ms frames (for example, 10 frames) and adds the added image. The signals are calculated sequentially. Further, the addition processing unit 741-1 multiplies the added signal by 1 / m and supplies the image signal of the average image to the area selection unit 742-1.

【0174】領域選択部742-1は、供給された平均値
画像の画像信号よりフレーム毎に正面動画像側端部(右
側射影面画像では右側端部)より水平方向に所定画素数
分wbの画像信号を切り出して、この切り出した画像信
号を順次重ね合わせることにより積分画像信号SA-1と
して動き判別部75に出力する。この領域選択部742
-1から出力された積分画像信号SA-1は、予め設定され
た画素数SH-1の動き量の被写体を示した画像信号とな
る。
The area selecting section 742-1 outputs a predetermined number of pixels wb in the horizontal direction from the front moving image side end (the right end in the right projection plane image) for each frame from the supplied average value image signal. The image signal is cut out, and the cut-out image signal is sequentially superimposed and output to the motion determining unit 75 as an integrated image signal SA-1. This area selection unit 742
The integrated image signal SA-1 output from -1 is an image signal indicating a subject having a motion amount of a predetermined number of pixels SH-1.

【0175】加算処理部741-2〜741-nsも加算処
理部741-1と同様に、予め設定された画素数SH-2〜
SH-nsだけ前フレームよりも水平方向に移動させた射
影面画像信号を、msフレーム分加算して加算信号を順
次算出して、この加算信号を1/m倍して平均化したの
ち領域選択部742-2〜742-nsに供給する。さら
に、領域選択部742-2〜742-nsは、供給された画
像信号より所定画素数分wbの信号を切り出して順次重
ね合わせて積分画像信号として動き判別部75に出力す
る。この領域選択部742-2〜742-nsから出力され
た積分画像信号SA-2〜SA-nsは、それぞれ予め設定
された画素数SH-2〜SH-3の動き量の被写体を示した
画像信号となる。
Similarly to addition processing section 741-1, addition processing sections 741-2 to 741-ns also have a preset number of pixels SH-2 to
A projection plane image signal shifted in the horizontal direction from the previous frame by SH-ns is added for ms frames, an addition signal is sequentially calculated, the added signal is multiplied by 1 / m, averaged, and area selection is performed. To the units 742-2 to 742-ns. Further, the region selecting units 742-2 to 742-ns cut out signals of the predetermined number of pixels wb from the supplied image signals, superimpose them sequentially, and output the resultant to the motion determining unit 75 as an integrated image signal. The integrated image signals SA-2 to SA-ns output from the area selection units 742-2 to 742-ns are images indicating the subject having the motion amount of the predetermined number of pixels SH-2 to SH-3, respectively. Signal.

【0176】ここで、動き判別画像生成部73と積分画
像生成部74の領域選択部742で切り出す画素数を等
しいものとすると(wa=wb)、動き判別画像と積分
画像における被写体の位置の整合性をとることができ
る。
Here, assuming that the number of pixels to be cut out by the area discriminating section 742 of the motion discriminating image generating section 73 and that of the integral image generating section 74 are equal (wa = wb), the matching of the position of the subject between the motion discriminating image and the integral image is performed. Sex can be taken.

【0177】図40は積分画像生成部74の動作を示す
図である。積分画像生成部74は、画像ずらし量を画素
数SH-rとしたとき、図40Aに示すようにフレーム毎
に画像を画素数SH-r(<wb)だけ移動して足し込
む。このとき、足し込んだ画像は、図40Bに示すよう
に山の画像を示すものとなる。また、画像ずらし量を画
素数SH-rよりも多い画素数SH-s(=wb)としたと
き、図40Cに示すようにフレーム毎に画像を画素数S
H-sだけ移動して足し込む。このとき、足し込んだ画像
は、図40Dに示すように山よりも動き量の大きい家の
画像を示すものとなる。また、画像ずらし量を画素数S
H-sよりも多い画素数SH-t(>wb)としたとき、図
40Eに示すようにフレーム毎に画像を画素数SH-tだ
け移動して足し込む。このとき、足し込んだ画像は、図
40Fに示すように山よりも動き量の大きい家の画像を
示すものとなる。
FIG. 40 is a diagram showing the operation of the integral image generating section 74. When the image shift amount is the number of pixels SH-r, the integrated image generation unit 74 moves and adds the image by the number of pixels SH-r (<wb) for each frame as shown in FIG. 40A. At this time, the added image shows a mountain image as shown in FIG. 40B. When the image shift amount is set to the number of pixels SH-s (= wb) larger than the number of pixels SH-r, as shown in FIG.
Move by H-s and add. At this time, the added image indicates an image of a house having a larger motion amount than the mountain as shown in FIG. 40D. Further, the image shift amount is represented by the number of pixels S.
When the number of pixels SH-t (> wb) is larger than H-s, the image is moved and added by the number of pixels SH-t for each frame as shown in FIG. 40E. At this time, the added image shows an image of a house having a larger motion amount than the mountain as shown in FIG. 40F.

【0178】ここで、積分画像生成部74は、動き判別
画像生成部73で動き判別画像を生成する際に最初に切
り出しを行ったフレームFaを基準として切り出しを開
始すると共に、動き判別画像と等しい切り出し量(wa
=wb)で同じフレーム数だけ画像の切り出しを行い積
分画像を生成する。このとき、積分画像と動き判別画像
は、水平方向の画像の長さが等しくなると共に被写体の
位相が積分画像と動き判別画像とで一致する。
Here, the integral image generating section 74 starts clipping based on the frame Fa that was first clipped when the motion discriminating image generating section 73 generates the motion discriminating image, and is equal to the motion discriminating image. Cutout amount (wa
= Wb), an image is cut out by the same number of frames to generate an integral image. At this time, the integral image and the motion determination image have the same horizontal image length, and the phase of the subject matches between the integration image and the motion determination image.

【0179】また、動き判別画像は、切り出し量と動き
量が等しくないとき被写体が不連続な形状となるが、積
分画像も同様に、画素数SH-rが画素数wbよりも少な
いときには、画像の切り出しが重なりを持って行われ
る。このため、積分画像Ub-rは図40Gに示すよう
に、動き量に応じた不連続な画像となる。また、画素数
SH-sが画素数wbと等しいとき、積分画像Ub-sは図
40Hのように動き量に応じた連続した画像となる。さ
らに、画素数SH-tが画素数wbよりも多いときには画
像の切り出しで欠落部分が生じて、積分画像Ub-tは図
40Jのように動き量に応じた不連続な画像となる。こ
のため、次に述べる動き判別部75は、動き判別画像と
積分画像のマッチングを行い、マッチングすると判別さ
れた積分画像の画像ずらし量である画素数SHに基づい
て、被写体の動き量を判別する。
In the motion discrimination image, the subject has a discontinuous shape when the cutout amount and the motion amount are not equal. Similarly, when the number of pixels SH-r is smaller than the number of pixels wb, the image becomes inconsistent. Is performed with overlap. For this reason, the integral image Ub-r becomes a discontinuous image according to the amount of motion as shown in FIG. 40G. When the number of pixels SH-s is equal to the number of pixels wb, the integrated image Ub-s is a continuous image according to the amount of motion as shown in FIG. 40H. Further, when the number of pixels SH-t is larger than the number of pixels wb, a missing portion is generated in the cutout of the image, and the integrated image Ub-t becomes a discontinuous image according to the motion amount as shown in FIG. 40J. For this reason, the motion determination unit 75 described below performs matching between the motion determination image and the integrated image, and determines the motion amount of the subject based on the number of pixels SH that is the image shift amount of the integrated image determined to be matched. .

【0180】動き判別部75は、動き判別画像の各画素
と各画像ずらし量の積分画像との相関値を求めて、この
相関値に基づき、動き判別画像の各画素がいずれの積分
画像と等しいか判別して、判別結果に基づき動き判別画
像の各画素の動き量を判別する。
The motion discriminating section 75 obtains a correlation value between each pixel of the motion discrimination image and the integrated image of each image shift amount, and based on the correlation value, each pixel of the motion discrimination image is equal to any of the integrated images. Then, the amount of motion of each pixel of the motion determination image is determined based on the determination result.

【0181】相関値の算出では、画像Aの画素と画像B
との相関値を算出する際に、画像Aの注目画素(相関値
を算出する画素)を中心とした所定範囲を設定して、こ
の所定範囲の画像信号を用いて注目画素の相関値を求め
る。例えば注目画素を中心としてx方向に±mvc画素、
y方向に±nvc画素の矩形状範囲(注目画素を中心とし
た例えば水平31画素,垂直5画素の矩形状範囲)を設
定し、式(9)に基づいて相関値VCを算出する。
In the calculation of the correlation value, the pixels of the image A and the image B
When calculating the correlation value with, a predetermined range centering on the target pixel (pixel for calculating the correlation value) of the image A is set, and the correlation value of the target pixel is obtained using the image signal in the predetermined range. . For example, ± mvc pixels in the x direction with respect to the pixel of interest,
A rectangular range of ± nvc pixels (for example, a rectangular range of 31 horizontal pixels and 5 vertical pixels centering on the target pixel) is set in the y direction, and the correlation value VC is calculated based on Expression (9).

【0182】[0182]

【数5】 (Equation 5)

【0183】なお、式(9)において、画像Aの矩形状
範囲内における各画素の信号レベルをDAi(i=1〜
(mvc×nvc))、画像Bの矩形状範囲内における各画素
の信号レベルをDBi(i=1〜(mvc×nvc))とし、
矩形状範囲内における各画素の信号レベルの平均値をD
Aav,DBavとする。
In equation (9), the signal level of each pixel within the rectangular range of image A is represented by DAi (i = 1 to 1).
(mvc × nvc)), the signal level of each pixel within the rectangular range of the image B is set to DBi (i = 1 to (mvc × nvc)),
The average value of the signal level of each pixel within the rectangular range is D
Aav and DBav.

【0184】例えば、動き判別部75は、式(9)に基
づいて図41Aに示す動き判別画像における山の画像が
図41Bに示す積分画像とマッチングするものと判別し
たとき、この山の画像を構成する各画素の動き量が画素
数SH-rに対応した動き量であると判別する。また、図
41Aに示す動き判別画像におけるの家の画像が図41
Cに示す積分画像とマッチングするものと判別したと
き、この家の画像を構成する各画素の動き量が画素数S
H-sに対応した動き量であると判別する。さらに、図4
1Aに示す動き判別画像おける木の画像が図41Dに示
す積分画像とマッチングするものと判別したとき、この
木の画像を構成する各画素の動き量が画素数SH-tに対
応した動き量であると判別する。このように動き判別部
75は、各画素に対して動き量を判別すると共に、この
判別結果を示す動き量情報MFを生成してレイヤ分類部
81と情報生成部82に供給する。
For example, when the motion judging section 75 judges that the image of the mountain in the motion image shown in FIG. 41A matches the integral image shown in FIG. 41B based on the equation (9), the image of this mountain is judged. It is determined that the motion amount of each of the constituent pixels is a motion amount corresponding to the pixel number SH-r. The image of the house in the motion determination image shown in FIG.
When it is determined that the image matches the integral image shown in FIG.
It is determined that the motion amount corresponds to H-s. Further, FIG.
When it is determined that the tree image in the motion discrimination image shown in FIG. 1A matches the integral image shown in FIG. 41D, the motion amount of each pixel forming the tree image is a motion amount corresponding to the number of pixels SH-t. It is determined that there is. As described above, the motion determining unit 75 determines the amount of motion for each pixel, generates motion amount information MF indicating the result of the determination, and supplies the generated information to the layer classifying unit 81 and the information generating unit 82.

【0185】なお、図示せずも、積分画像生成部74
は、画像のずらし方向を図41B,図41C,図41D
とは逆方向も含むように設定(例えば画像のずらし量S
Hを48画素〜−24画素に設定)することで、木や家
や山の画像に対して逆方向に移動する追越し車両等の画
像を抽出できる。また、動き方向が遠景レイヤ等とは逆
方向の画像の動き量を判別するため、図42Aに示すよ
うに、各フレームの画像より画像の切り出しを行い、こ
の画像を左右反転してから重ね合わせることにより図4
2Bに示す動き判別画像Upを生成する。この場合、図
42Bに示す動き判別画像Upでは、追越し車両のよう
に動き方向が逆方向の画像が、遠景や中景および近景レ
イヤと同様な向きで正しく表示される。なお図42Cは
画像の左右反転を行わないで重ね合わせた場合の動き判
別画像Upである。このように、画像のずらし方向を逆
方向とした積分画像の画像信号と、切り出した画像を反
転させて重ね合わせることにより生成された動き判別画
像の画像信号SMDを、基準となるフレームから順次比
較することで、逆方向に移動する被写体の動き量を判別
できる。
Although not shown, the integral image generating section 74
Indicates the direction in which the image is shifted, as shown in FIGS. 41B, 41C, and 41D.
(For example, the image shift amount S
By setting H to 48 pixels to -24 pixels), an image of a passing vehicle or the like moving in the opposite direction to an image of a tree, a house, or a mountain can be extracted. Further, in order to determine the amount of movement of an image whose movement direction is opposite to that of the distant view layer or the like, as shown in FIG. 42A, an image is cut out from the image of each frame, and the images are horizontally inverted and then superimposed. FIG. 4
The motion discrimination image Up shown in FIG. 2B is generated. In this case, in the motion discrimination image Up shown in FIG. 42B, an image in which the motion direction is reverse, such as a passing vehicle, is correctly displayed in the same direction as the distant, middle, and near view layers. FIG. 42C shows a motion discrimination image Up in a case where the images are superimposed without performing left-right inversion. As described above, the image signal of the integral image in which the image is shifted in the reverse direction and the image signal SMD of the motion discrimination image generated by inverting and superimposing the cut out image are sequentially compared from the reference frame. By doing so, the amount of movement of the subject moving in the opposite direction can be determined.

【0186】レイヤ分類部81は、動き量情報MFに基
づいて動き判別画像の各画素を奥行き方向にレイヤ化す
る。例えば、奥行きを予め遠景,中景,近景の3層と逆
方向の動きを持つ層の4層にレイヤ化するものとして、
各画素がいずれのレイヤに属するかレイヤ分類を行う。
The layer classifying section 81 layers each pixel of the motion discrimination image in the depth direction based on the motion amount information MF. For example, assuming that the depth is previously layered into four layers of three layers of distant, middle, and near views and a layer having movement in the opposite direction,
Layer classification is performed on which layer each pixel belongs to.

【0187】このレイヤ分類部81は、上述の閾値設定
部464と同様にして閾値を設定すると共に、この閾値
と各画素の動き量を比較して、各画素がいずれのレイヤ
に属するか判別して各画素に対応するレイヤ分類情報L
Bを生成する。この生成されたレイヤ分類情報LBは情
報生成部82に供給される。
The layer classification unit 81 sets a threshold value in the same manner as the above-described threshold value setting unit 464, and compares this threshold value with the amount of motion of each pixel to determine which layer each pixel belongs to. The layer classification information L corresponding to each pixel
Generate B. The generated layer classification information LB is supplied to the information generation unit 82.

【0188】図43は、情報生成部82の構成を示して
いる。情報生成部82の動き量平均値算出部821は、
動き判別部75からの動き量情報MFとレイヤ分類部8
1から供給されたレイヤ分類情報LBに基づき、それぞ
れのレイヤにおいて、注目フレーム毎に前後nzフレー
ムの動き量の平均値を求め、そのレイヤの注目フレーム
の速度とする。この算出した各レイヤのフレーム毎の動
き量MYsは、中間画像信号生成部822に供給される
と共に中間画像情報蓄積領域52に記憶される。
FIG. 43 shows the structure of the information generating unit 82. The motion amount average value calculation unit 821 of the information generation unit 82
The motion amount information MF from the motion determining unit 75 and the layer classifying unit 8
On the basis of the layer classification information LB supplied from No. 1, the average value of the amount of motion of the preceding and succeeding nz frames is obtained for each frame of interest in each layer, and is set as the speed of the frame of interest in that layer. The calculated motion amount MYs for each frame of each layer is supplied to the intermediate image signal generation unit 822 and stored in the intermediate image information storage area 52.

【0189】中間画像信号生成部822は、レイヤ分類
情報LBに基づき、射影画像の画像信号SDPから動き
量平均値算出部821で算出された動き量MYsに応じ
てレイヤ毎に信号を抽出して、レイヤ毎の中間画像信号
GFsを生成する。この中間画像信号GFsは、中間画像
信号補間部823に供給される。このとき、遠景レイヤ
の動き量は小さく近景レイヤの動き量は大きいので上述
の図28と同様に、遠景レイヤの中間画像は水平方向の
長さが短く、近景レイヤの中間画像では長くなる。ま
た、後退レイヤでは動きが逆方向であるので、中間画像
信号生成部822は、動き量の絶対値分だけ側面動画像
から画像を読み込み左右反転して重ね合わせていくこと
で、後退レイヤの中間画像を作成する。
The intermediate image signal generator 822 extracts a signal for each layer from the image signal SDP of the projected image according to the motion amount MYs calculated by the motion average value calculator 821 based on the layer classification information LB. , Generates an intermediate image signal GFs for each layer. This intermediate image signal GFs is supplied to the intermediate image signal interpolation unit 823. At this time, since the motion amount of the distant view layer is small and the motion amount of the foreground layer is large, the intermediate image of the distant view layer is short in the horizontal direction and long in the intermediate image of the foreground layer, as in FIG. In addition, since the movement is in the reverse direction in the backward layer, the intermediate image signal generation unit 822 reads the image from the side moving image by the absolute value of the amount of movement and inverts left and right to superimpose, so that the intermediate layer in the backward layer Create an image.

【0190】中間画像信号補間部823は、中間画像信
号補間部473と同様に、動き量MYsの異なる各レイ
ヤの画像を遠景,中景,近景の順に重ね合わせることで
画像合成を行っても、動き量の違いにかかわらず画像の
ない領域が生ずることがないように中間画像信号GFs
の補正を行い、補正された信号を中間画像信号GYsと
して中間画像情報蓄積領域52に記憶させる。
Similarly to the intermediate image signal interpolating unit 473, the intermediate image signal interpolating unit 823 performs image synthesis by superimposing images of layers having different motion amounts MYs in the order of distant view, middle view, and near view. The intermediate image signal GFs is used so that an imageless area does not occur regardless of the difference in the amount of motion.
, And the corrected signal is stored in the intermediate image information storage area 52 as the intermediate image signal GYs.

【0191】また、中間画像信号補間部823は、追越
し車両等の後退レイヤがあるとき、この後退レイヤが近
景レイヤの手前のレイヤであるので補間処理を行わない
ものとする。また、右左折時に遠景に現れる建物等を示
す水平移動レイヤが設けられているときには、遠景レイ
ヤと同様に補間処理を行う。なお、後退レイヤや水平移
動レイヤの被写体の判別は、右側射影画像と左側射影画
像の動き判別画像の動き方向に基づいて図25の場合と
同様に動きパターンを判別して、判別された動きパター
ンに基づいて判別できる。例えば左側画像の画面上部と
右側画像の画面上部での動きが異なる方向を示している
ときには右折あるいは左折動作中であることを判別でき
る。また、左側画像と右側画像の画面上部の動きが同じ
方向を示しており、これらとは逆方向の動きである被写
体は、後退レイヤと判別できる。
Further, when there is a backward layer such as a passing vehicle, the intermediate image signal interpolation unit 823 does not perform the interpolation processing because this backward layer is a layer before the foreground layer. When a horizontal movement layer indicating a building or the like appearing in a distant view when turning left or right is provided, interpolation processing is performed in the same manner as in the distant view layer. It should be noted that the subject of the backward layer or the horizontally moving layer is determined by determining the motion pattern based on the motion direction of the right-projected image and the left-projected image in the same manner as in FIG. Can be determined based on the For example, when the movement of the upper part of the screen of the left image and the upper part of the screen of the right image indicate different directions, it is possible to determine that the vehicle is turning right or left. In addition, the movement of the upper part of the screen of the left image and the movement of the upper part of the screen of the right image indicate the same direction.

【0192】次に、各レイヤの中間画像情報を用いて周
辺画像を生成する動作について説明する。この周辺画像
の生成は、上述の周辺画像信号生成ブロック60と同様
にして、周辺画像信号を生成できる。すなわち、各レイ
ヤの画像をその動き量分だけ読み出すと共に、遠景レイ
ヤ、中景レイヤ、近景レイヤの順に重ね合わせることで
画像合成を行う。また水平移動レイヤや後退レイヤが設
定されているときにも周辺画像信号生成ブロック60と
同様にして、周辺画像信号を生成できる。
Next, an operation of generating a peripheral image using the intermediate image information of each layer will be described. This peripheral image can be generated in the same manner as the above-described peripheral image signal generation block 60. That is, the image of each layer is read by the amount of the motion, and the images are synthesized by superimposing the distant view layer, the middle view layer, and the close view layer in this order. Also, when the horizontal movement layer and the backward layer are set, the peripheral image signal can be generated in the same manner as in the peripheral image signal generation block 60.

【0193】また、画像の合成では、例えば周辺画像と
して右側面動画像を生成するときには、各レイヤの同一
フレーム部分が、生成する右側面動画像の左端で重なる
ように重ね合わせることで画像合成を行う。また、最初
に正面動画像を変換して得た射影画像の右端と、生成し
た側面動画像の左端が等しくなるようにする。その後、
レイヤ毎に、レイヤ毎の動き量に基づいて画像を移動さ
せて、この移動された画像に次の画像をレイヤ毎に重ね
合わせることで画像合成を行い、図44に示すように射
影面画像UIと連続する側面の画像URIを生成すること
ができる。
In the image synthesis, for example, when a right-side moving image is generated as a peripheral image, the same frame portion of each layer is overlapped so as to overlap at the left end of the right-side moving image to be generated. Do. Also, the right end of the projected image obtained by first converting the front moving image and the left end of the generated side moving image are made equal. afterwards,
For each layer, an image is moved based on the amount of motion for each layer, and the next image is superimposed on the moved image for each layer to perform image synthesis. As shown in FIG. Can be generated.

【0194】ところで、中間画像情報を用いてレイヤ毎
の中間画像を重ね合わせて生成された画像は、図45に
示すように射影面FIと等しい面上の画像である。一方
周辺画像が表示されるスクリーン10Rは、射影面FI
とは傾きを持って設置されている。このため、各レイヤ
の画像を重ね合わせることで画像合成を行ってスクリー
ン10Rに表示させたとき、画像が正しい形状で移動す
るように画像の変換処理を行う。
By the way, the image generated by superimposing the intermediate images for each layer using the intermediate image information is an image on the plane equal to the projection plane FI as shown in FIG. On the other hand, the screen 10R on which the peripheral image is displayed is the projection plane FI.
Is installed with an inclination. For this reason, when the images of the respective layers are superimposed on each other and the images are synthesized and displayed on the screen 10R, the image conversion processing is performed so that the images move in a correct shape.

【0195】ここで、図45に示すように、正面動画像
UCの水平方向の長さの1/2を距離dとし、正面動画
像の撮影位置である位置Oが、スクリーン10Rの中心
からの法線上となるようにスクリーン10Rを傾けて設
置した場合を考える。この場合、スクリーン10R上の
位置(Xc,Yc)の画像信号は、式(10)(11)に
基づいて算出された変換前の画像URI上の位置(xc,
yc)の画像信号を抽出すれば、射影変換後の右側面動
画像の周辺画像信号SDRを容易に生成できる。また、
この周辺画像信号SDRを用いてスクリーン10Rに右側
面動画像を表示させることで、臨場感の高い右側面動画
像を表示できる。
Here, as shown in FIG. 45, a half of the horizontal length of the front moving image UC is defined as a distance d, and the position O, which is the photographing position of the front moving image, is positioned from the center of the screen 10R. Consider a case where the screen 10R is installed at an angle so as to be on the normal line. In this case, the image signal at the position (Xc, Yc) on the screen 10R is calculated based on the position (xc, Yc) on the image URI before conversion calculated based on the equations (10) and (11).
By extracting the image signal yc), the peripheral image signal SDR of the right-side moving image after the projective transformation can be easily generated. Also,
By displaying the right-side moving image on the screen 10R using the peripheral image signal SDR, it is possible to display the right-side moving image with high sense of realism.

【0196】[0196]

【数6】 (Equation 6)

【0197】なお、周辺画像信号SDLも周辺画像信号
SDRと同様にして生成できることは勿論である。
It is needless to say that the peripheral image signal SDL can be generated in the same manner as the peripheral image signal SDR.

【0198】さらに、上述の各ブロックで行われる処理
はハードウェアだけでなくソフトウェアで実現するもの
としても良い。この場合は、上述の図15に示す構成と
する。
Further, the processing performed in each block described above may be realized not only by hardware but also by software. In this case, the configuration shown in FIG. 15 is used.

【0199】図46は、第3の実施の形態における画像
処理プログラムの全体構成を示すフローチャートであ
る。図において、ステップST91では動き検出処理を
行い、射影面画像を生成して、射影面画像の画素毎の動
き量を検出する。次にステップST92では動き量に基
づき画素のレイヤ分けを行い、各レイヤの動き量を示す
中間画像情報を生成する。ステップST93では、周辺
画像生成処理を行い、中間画像情報に基づき周辺画像を
合成する。
FIG. 46 is a flowchart showing the overall configuration of the image processing program according to the third embodiment. In the figure, in step ST91, a motion detection process is performed to generate a projection plane image, and the amount of movement of each pixel of the projection plane image is detected. Next, in step ST92, pixels are divided into layers based on the amount of motion, and intermediate image information indicating the amount of motion of each layer is generated. In step ST93, a peripheral image generation process is performed, and a peripheral image is synthesized based on the intermediate image information.

【0200】図47は、図46のステップST91の動
き検出処理を示すフローチャートである。ステップST
101では、幾何変換よって正面動画像に基づいて側面
の射影画像を作成する。ステップST102では、射影
画像に基づいて動き量毎の積分画像を作成すると共に、
射影画像からの画像の切り出しを行って切出画像を作成
する。ステップST103では、動き量毎の積分画像と
切出画像のマッチングを行う。ステップST104で
は、マッチングの結果に基づき最も相関値の高い積分画
像を検出することで画素毎の動き量を決定する。
FIG. 47 is a flowchart showing the motion detection processing in step ST91 of FIG. Step ST
In 101, a projected image of a side surface is created based on a front moving image by geometric transformation. In step ST102, an integrated image for each motion amount is created based on the projected image,
The cut-out image is created by cutting out the image from the projected image. In step ST103, matching between the integrated image and the cut-out image for each motion amount is performed. In step ST104, the amount of motion for each pixel is determined by detecting the integrated image having the highest correlation value based on the result of the matching.

【0201】図48は、図46のステップST92の中
間画像情報生成処理を示すフローチャートである。ステ
ップST111では、ステップST101の動き検出処
理で検出された画素の動き量に基づき、動き量の統計量
を算出する。ステップST112では、統計量に基づき
レイヤ分けを行うための閾値を設定する。ステップST
113では、設定された閾値と動き量を比較して、射影
画像の各画素がいずれのレイヤに属するかを示すレイヤ
分類情報を生成する。ステップST114では、レイヤ
に含まれる画素の動き量に基づきレイヤ毎の動き量を算
出する。ステップST115ではレイヤ分類情報とレイ
ヤ毎の動き量に基づき、射影画像からレイヤ毎に画像を
抽出して中間画像を生成する。ステップST116で
は、中間画像で孤立領域があるか否かを判別して、孤立
領域があるときにはステップST117に進み孤立領域
がないときにはステップST118に進む。ステップS
T117では、補間処理を行い孤立領域を除去してステ
ップST118に進む。ステップST118では孤立領
域の無いレイヤ毎の中間画像とレイヤ毎の動き量を中間
画像情報を生成する。
FIG. 48 is a flowchart showing the intermediate image information generation processing of step ST92 in FIG. In step ST111, the statistic of the motion amount is calculated based on the motion amount of the pixel detected in the motion detection process in step ST101. In step ST112, a threshold for performing layer division based on the statistics is set. Step ST
In 113, the set threshold value and the amount of motion are compared to generate layer classification information indicating to which layer each pixel of the projected image belongs. In step ST114, the motion amount for each layer is calculated based on the motion amount of the pixels included in the layer. In step ST115, based on the layer classification information and the amount of motion for each layer, an image is extracted for each layer from the projected image to generate an intermediate image. In step ST116, it is determined whether or not there is an isolated region in the intermediate image. If there is an isolated region, the process proceeds to step ST117. If there is no isolated region, the process proceeds to step ST118. Step S
In T117, an interpolation process is performed to remove an isolated region, and the process proceeds to Step ST118. In step ST118, an intermediate image for each layer without an isolated region and the amount of motion for each layer are generated as intermediate image information.

【0202】図49は、図46のステップST93の周
辺画像生成処理を示すフローチャートである。ステップ
ST121では、中間画像情報で示されたレイヤ毎の動
き量に基づいて、各レイヤ毎の中間画像を用いてレイヤ
毎に画像を抽出する。ステップST122では、抽出し
た各レイヤの画像を所定の位置に合成を生成する。ステ
ップST123では、画像の合成を行ったときに画像の
無い部分が生じて、この部分の画像を補う補間処理か必
要か否かを判別する。ここで、画像の無い部分が生じる
ときにはステップST124に進み、画像の無い部分が
生じていないときにはステップST125に進む。ステ
ップST124では補間処理を行いステップST125
に進む。例えば、画像の無い部分の周辺の画像を伸長し
て補間する。ステップST125では、合成された画像
が射影面と等しい面上の画像であるので画像を投影する
スクリーンの向きに合わせて画像変換処理を行い、この
画像変換が行われた画像信号をステップST126で周
辺画像の画像信号として出力する。
FIG. 49 is a flowchart showing the peripheral image generation processing in step ST93 of FIG. In step ST121, an image is extracted for each layer using the intermediate image for each layer based on the motion amount for each layer indicated by the intermediate image information. In step ST122, the image of each extracted layer is synthesized at a predetermined position. In step ST123, a portion without an image is generated when the images are combined, and it is determined whether or not an interpolation process for supplementing the image in this portion is necessary. Here, when there is a portion having no image, the process proceeds to step ST124, and when there is no portion having no image, the process proceeds to step ST125. In step ST124, interpolation processing is performed, and step ST125 is performed.
Proceed to. For example, an image around a portion having no image is expanded and interpolated. In step ST125, since the synthesized image is an image on the same plane as the projection plane, an image conversion process is performed in accordance with the direction of the screen on which the image is projected. Output as an image signal of the image.

【0203】このような画像処理プログラムは、上述し
たようにリムーバブルの情報記録伝送媒体に記録した
り、情報記録伝送媒体を介して伝送するものとしても良
い。
[0203] Such an image processing program may be recorded on a removable information recording transmission medium as described above, or transmitted via an information recording transmission medium.

【0204】また、上述の第3の実施の形態において、
画像処理プログラムが実行されて中間画像情報の生成が
行われたときには、この中間画像情報が例えばハード・
ディスク・ドライブ304あるいは記録媒体ドライブ3
12に装着された記録媒体に記録される。さらに、周辺
画像の画像信号の出力が要求されたときには、中間画像
情報が読み出されて左右側面動画像の周辺画像信号SD
L,SDRが生成されると共に、この周辺画像信号SD
L,SDRが正面動画像の画像信号SDCとタイミングを
合わせて出力される。このため、正面と左右のスクリー
ンを用いて、広画角の連続した画像を表示することがで
きる。
In the third embodiment described above,
When the image processing program is executed to generate the intermediate image information, the intermediate image information
Disk drive 304 or recording medium drive 3
12 is recorded on a recording medium attached to the recording medium 12. Further, when the output of the image signal of the peripheral image is requested, the intermediate image information is read out and the peripheral image signal SD of the left and right side moving image is read.
L and SDR are generated, and the peripheral image signal SD
L and SDR are output in synchronization with the image signal SDC of the front moving image. For this reason, a continuous image with a wide angle of view can be displayed using the front and left and right screens.

【0205】なお、上述の各実施の形態は、車載カメラ
で得られた画像信号を用いて周辺画像の画像信号を生成
する場合について説明したが、画像信号は動く船の上か
ら撮影した風景動画像や人が歩きながら撮影した動画像
の画像信号を用いるものとしても、同様に処理すること
で周辺画像の画像信号を生成できる。
In each of the above-described embodiments, the case where an image signal of a peripheral image is generated using an image signal obtained by a vehicle-mounted camera has been described. An image signal of a peripheral image can be generated by performing similar processing even when an image or an image signal of a moving image captured while a person is walking is used.

【0206】このように、上述の第1〜第3の実施の形
態によれば、正面動画像の動きを判別して、この判別さ
れた動きに基づいて異方向の周辺画像を生成できる。こ
のため、ビデオカメラ等で撮影された正面動画像に基づ
き同時系列で異方向の動画像を生成できるので、臨場感
が高く広画角である多画面の画像提示ができる。
As described above, according to the above-described first to third embodiments, the movement of the front moving image can be determined, and a peripheral image in a different direction can be generated based on the determined movement. For this reason, since moving images in different directions can be generated in a simultaneous sequence based on a front moving image captured by a video camera or the like, a multi-screen image with a high sense of reality and a wide angle of view can be presented.

【0207】また、1つの入力画像に基づき異方向の画
像を生成できるので、複数のビデオカメラや広角レンズ
を用いたカメラ等を用いる必要がなく、撮影を容易に行
うことができる。
Further, since an image in a different direction can be generated based on one input image, it is not necessary to use a plurality of video cameras or cameras using a wide-angle lens, and the photographing can be easily performed.

【0208】さらに、実写画像を用いて異方向の画像を
生成するものであるため、コンピュータグラフィックス
による3次元仮想空間の画像よりもリアルで臨場感の高
い画像を表示させることができると共に、奥行きを2次
元平面の階層として表現するため、3次元の演算処理が
不要となり、信号処理も容易である。
Further, since an image in a different direction is generated by using a real image, an image that is more realistic and more realistic than an image in a three-dimensional virtual space by computer graphics can be displayed, and the depth can be increased. Is expressed as a two-dimensional plane hierarchy, three-dimensional arithmetic processing is not required, and signal processing is easy.

【0209】また、画像処理装置やコンピュータは、入
力画像信号として蓄積されている信号を用いることで、
時間の経過と共に正面動画像内に入り込む画像を、正面
動画像で表示される前に周辺画像で表示することができ
る。このようにリアルタイムの画像信号を用いたときに
は表示することができない画像を周辺画像として表示す
ることができるので、より現実的で臨場感の高い広画角
の画像表示を行うことができる。また、既に存在してい
る莫大な画像ソースをこの発明の画像処理装置や画像信
号生成方法を実行するコンピュータに入力することで、
これらの画像を臨場感が高く広画角で楽しむこともでき
る。
Further, the image processing apparatus and the computer use the signal stored as the input image signal,
An image that enters the front moving image with the passage of time can be displayed as a peripheral image before being displayed as the front moving image. As described above, since an image that cannot be displayed when a real-time image signal is used can be displayed as a peripheral image, a more realistic and realistic image display with a wide angle of view can be performed. Also, by inputting a huge image source that already exists into a computer that executes the image processing apparatus and the image signal generation method of the present invention,
These images can be enjoyed with high realism and a wide angle of view.

【0210】なお、上述の実施の形態は、正面動画像の
側端部に複数の動き検出領域を設けて動き検出領域毎に
動きベクトルを求めたり、射影画像を用いて動き判別画
像を生成して積分画像と比較することにより、注目フレ
ームの所定位置の動きを判別して中間画像情報を生成
し、この中間画像情報を利用して周辺画像信号を生成し
たが、動き検出は、注目フレームの所定位置の動きを判
別できるものであれば良いことは勿論である。
In the above-described embodiment, a plurality of motion detection areas are provided at the side end of the front moving image to obtain a motion vector for each motion detection area, or a motion discrimination image is generated using a projected image. By comparing with the integral image, the motion of the predetermined position of the frame of interest is determined to generate intermediate image information, and the peripheral image signal is generated using the intermediate image information. It is needless to say that the motion at the predetermined position can be determined.

【0211】[0211]

【発明の効果】この発明によれば、複数フレームの入力
画像信号を用いて、この入力画像信号に基づく画像内に
おける所定領域の動きを検出し、この検出した動きと複
数フレームの入力画像信号に基づいて、注目フレームと
同一時間であると共に、注目フレームの画像と画角の異
なる周辺動画像の画像信号が生成される。このため、多
数のカメラや特殊なカメラを用いることなく、表示範囲
が広く奥行感のある画像を低コストで得ることができ
る。
According to the present invention, the motion of a predetermined area in an image based on the input image signal is detected using the input image signal of the plurality of frames, and the detected motion and the input image signal of the plurality of frames are detected. Based on this, an image signal of a peripheral moving image having the same time as the target frame and having a different angle of view from the image of the target frame is generated. Therefore, an image having a wide display range and a sense of depth can be obtained at low cost without using a large number of cameras or special cameras.

【0212】また、画像端部領域に複数の動き検出領域
が設定されて、動き検出領域毎に動きが検出されるの
で、入力画像信号に基づく基準動画像に遠景や近景等の
被写体が含まれていても、それぞれの被写体の動きを検
出できる。さらに、画像の動きが所定位置を中心とした
放射方向であるとの拘束条件を満たすときには、所定位
置を中心として画像をズームさせながら前画面の画像と
の誤差値を算出することで動きを容易に判別できる。
Further, since a plurality of motion detection areas are set in the image end area and motion is detected for each motion detection area, the reference moving image based on the input image signal includes a subject such as a distant view or a near view. , The movement of each subject can be detected. Further, when the constraint condition that the motion of the image is in the radial direction about the predetermined position is satisfied, the motion is easily calculated by calculating an error value from the image of the previous screen while zooming the image around the predetermined position. Can be determined.

【0213】また、動きの検出結果に基づき、画像端部
領域がレイヤ分けされてレイヤ毎に画面順序に応じた信
号処理が行われるので、基準動画像に遠景や近景等の被
写体が含まれていても、それぞれの被写体に応じた信号
処理が行われて奥行感のある正しい周辺動画像の画像信
号を生成できる。
Further, based on the detection result of the motion, the image end region is divided into layers, and signal processing is performed according to the screen order for each layer. Therefore, the reference moving image includes a subject such as a distant view or a near view. However, it is possible to generate an image signal of a correct peripheral moving image with a sense of depth by performing signal processing according to each subject.

【0214】さらに、レイヤ毎の画像を貼り付けたとき
に隙間領域が生じたときには、隙間部分の画像の画像信
号が補間処理によって生成されるので、良好な側面動画
像の画像信号を生成できる。また、周辺動画像の投影面
の向きに応じた信号変換処理が行われることから、奥行
感のある周辺動画像をリアルに表示できる。
Further, when a gap region occurs when the image of each layer is pasted, the image signal of the image of the gap portion is generated by the interpolation processing, so that a good image signal of the side moving image can be generated. Further, since the signal conversion process is performed according to the direction of the projection plane of the peripheral moving image, a peripheral moving image having a sense of depth can be displayed realistically.

【図面の簡単な説明】[Brief description of the drawings]

【図1】表示システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a display system.

【図2】画像投影状態を示す図である。FIG. 2 is a diagram showing an image projection state.

【図3】第1の実施の形態の画像処理装置の構成を示す
図である。
FIG. 3 is a diagram illustrating a configuration of an image processing apparatus according to the first embodiment.

【図4】動き検出領域の設定を説明するための図であ
る。
FIG. 4 is a diagram for explaining setting of a motion detection area.

【図5】動き量の算出方法を説明するための図である。FIG. 5 is a diagram for explaining a method of calculating a motion amount.

【図6】ズーム時の領域サイズの変化を示す図である。FIG. 6 is a diagram illustrating a change in an area size during zooming.

【図7】動き量算出ブロックの構成を示す図である。FIG. 7 is a diagram illustrating a configuration of a motion amount calculation block.

【図8】各動き検出領域の動き量を示す図である。FIG. 8 is a diagram illustrating a motion amount of each motion detection area.

【図9】レイヤ化処理ブロックの構成を示す図である。FIG. 9 is a diagram showing a configuration of a layering processing block.

【図10】閾値の設定を説明するための図である。FIG. 10 is a diagram for explaining setting of a threshold.

【図11】周辺画像信号生成ブロックの構成を示す図で
ある。
FIG. 11 is a diagram illustrating a configuration of a peripheral image signal generation block.

【図12】右側面動画像の生成動作を説明するための図
である。
FIG. 12 is a diagram illustrating an operation of generating a right side moving image.

【図13】隙間領域の発生と補間処理を説明するための
図である。
FIG. 13 is a diagram for explaining generation of a gap area and interpolation processing.

【図14】画像変換処理を説明するための図である。FIG. 14 is a diagram illustrating an image conversion process.

【図15】コンピュータを用いた構成を示す図である。FIG. 15 is a diagram showing a configuration using a computer.

【図16】第1の実施の形態における画像処理プログラ
ムの全体構成を示すフローチャートである。
FIG. 16 is a flowchart illustrating an overall configuration of an image processing program according to the first embodiment.

【図17】第1の実施の形態での動き検出を示すフロー
チャートである。
FIG. 17 is a flowchart illustrating motion detection according to the first embodiment.

【図18】第1の実施の形態でのレイヤ化処理を示すフ
ローチャートである。
FIG. 18 is a flowchart illustrating a layering process according to the first embodiment.

【図19】第1の実施の形態での周辺画像信号生成を示
すフローチャートである。
FIG. 19 is a flowchart illustrating generation of a peripheral image signal according to the first embodiment.

【図20】第2の実施の形態の画像処理装置の構成を示
す図である。
FIG. 20 is a diagram illustrating a configuration of an image processing apparatus according to a second embodiment.

【図21】各動き検出領域の動きベクトルを示す図であ
る。
FIG. 21 is a diagram showing a motion vector of each motion detection area.

【図22】画像基準位置の判別方法を示す図である。FIG. 22 is a diagram illustrating a method of determining an image reference position.

【図23】動き検出部の構成を示す図である。FIG. 23 is a diagram illustrating a configuration of a motion detection unit.

【図24】レイヤ分類部の構成を示す図である。FIG. 24 is a diagram illustrating a configuration of a layer classification unit.

【図25】ベクトル方向と動きパターンの関係を説明す
るための図である。
FIG. 25 is a diagram for explaining a relationship between a vector direction and a motion pattern.

【図26】レイヤ分類情報の生成動作を説明するための
図である。
FIG. 26 is a diagram illustrating an operation of generating layer classification information.

【図27】情報生成部の構成を示す図である。FIG. 27 is a diagram illustrating a configuration of an information generation unit.

【図28】レイヤ毎の中間画像を示す図である。FIG. 28 is a diagram showing an intermediate image for each layer.

【図29】補間処理後のレイヤ毎の中間画像を示す図で
ある。
FIG. 29 is a diagram showing an intermediate image for each layer after the interpolation processing.

【図30】周辺画像信号生成ブロックの構成を示す図で
ある。
FIG. 30 is a diagram illustrating a configuration of a peripheral image signal generation block.

【図31】第2の実施の形態における画像処理プログラ
ムの全体構成を示すフローチャートである。
FIG. 31 is a flowchart illustrating an overall configuration of an image processing program according to the second embodiment.

【図32】第2の実施の形態での動き検出を示すフロー
チャートである。
FIG. 32 is a flowchart illustrating motion detection according to the second embodiment.

【図33】第2の実施の形態でのレイヤ化処理を示すフ
ローチャートである。
FIG. 33 is a flowchart illustrating a layering process according to the second embodiment.

【図34】第2の実施の形態での周辺画像信号生成を示
すフローチャートである。
FIG. 34 is a flowchart showing peripheral image signal generation according to the second embodiment.

【図35】第3の実施の形態の画像処理装置の構成を示
す図である。
FIG. 35 is a diagram illustrating a configuration of an image processing apparatus according to a third embodiment.

【図36】幾何変換処理を説明するための図である。FIG. 36 is a diagram for describing a geometric conversion process.

【図37】動き判別画像生成部の動作を説明するための
図である。
FIG. 37 is a diagram for explaining the operation of the motion determination image generation unit.

【図38】動き量の判別動作の原理を説明するための図
である。
FIG. 38 is a diagram for explaining the principle of the motion amount determination operation.

【図39】積分画像生成部の構成を示す図である。FIG. 39 is a diagram illustrating a configuration of an integral image generation unit.

【図40】積分画像生成部の動作を説明するための図で
ある。
FIG. 40 is a diagram for explaining the operation of the integral image generation unit.

【図41】動き量判別部の動作を説明するための図であ
る。
FIG. 41 is a diagram illustrating the operation of a motion amount determination unit.

【図42】後退レイヤの動き判別画像の生成動作を説明
するための図である。
FIG. 42 is a diagram for describing an operation of generating a motion discrimination image of a backward layer.

【図43】情報生成部の構成を示す図である。FIG. 43 is a diagram illustrating a configuration of an information generation unit.

【図44】射影面画像と生成した側面動画像を示す図で
ある。
FIG. 44 is a diagram showing a projection plane image and a generated side moving image.

【図45】画像変換処理を説明するための図である。FIG. 45 is a diagram for describing image conversion processing.

【図46】第3の実施の形態における画像処理プログラ
ムの全体構成を示すフローチャートである。
FIG. 46 is a flowchart illustrating an overall configuration of an image processing program according to the third embodiment.

【図47】第3の実施の形態での動き検出処理を示すフ
ローチャートである。
FIG. 47 is a flowchart illustrating a motion detection process according to the third embodiment.

【図48】第3の実施の形態でのレイヤ化処理を示すフ
ローチャートである。
FIG. 48 is a flowchart illustrating a layering process according to the third embodiment.

【図49】第3の実施の形態での周辺画像信号生成を示
すフローチャートである。
FIG. 49 is a flowchart illustrating peripheral image signal generation according to the third embodiment.

【符号の説明】[Explanation of symbols]

10L,10C,10R・・・スクリーン、12L,12
C,12R・・・プロジェクタ、15A,15B,15C
・・・画像処理装置、16,26,41,224、62
2-1〜622-5・・・遅延部、20,40・・・動き量
算出ブロック、22,45,80・・・レイヤ分割処理
ブロック、24,60,72・・・周辺画像信号生成ブ
ロック、30・・・コンピュータ、42・・・動き検出
部、44・・・画像信号生成部、46・・・レイヤ分類
部、47・・・情報生成部、50・・・蓄積部、51・
・・正面動画像信号蓄積領域、52・・・中間画像情報
蓄積領域、61・・・画像生成制御部、62・・・信号
抽出部、63・・・射影変換部、64・・・画像信号合
成部、71・・・幾何変換部、73・・・判別画像生成
部、74・・・積分画像生成部、75・・・動き判別
部、81・・・レイヤ分類部、82・・・情報生成部、
201・・・サイズ変更部、202,422・・・誤差
和算出部、203,423・・・比較部、204,42
4・・・データ格納部、205・・・拡大率設定部、2
21・・・統計情報算出部、222・・・レイヤ分割閾
値設定部、223・・・レイヤ判定部、225・・・レ
イヤ移動量算出部、241・・・信号抽出部、242,
243,244・・・加算部、245・・・画像シフト
部、246・・・補間部、247・・・中景貼り付け
部、248・・・近景貼り付け部、249・・・画像変
換部、421・・・サイズ変換部、425・・・探索制
御部、461・・・パターン判定部、462・・・レイ
ヤ確定部、463・・・分類部、464・・・閾値設定
部、465・・・分類補正部、471,821・・・動
き量平均値算出部、472,822・・・中間画像信号
生成部、473,823・・・中間画像信号補間部、6
21-1〜621-5・・・合成部、623-1〜623-5・
・・画像シフト部、631〜634・・・変換部、64
1・・・遠景合成部、642・・・中景合成部、643
・・・近景合成部、644・・・縮小画合成部、741
-1〜741-ns・・・加算処理部、742-1〜742-ns
・・・領域選択部
10L, 10C, 10R ... screen, 12L, 12
C, 12R ... projector, 15A, 15B, 15C
... Image processing devices, 16, 26, 41, 224, and 62
2-1 to 622-5: delay unit, 20, 40: motion amount calculation block, 22, 45, 80: layer division processing block, 24, 60, 72 ... peripheral image signal generation block , 30 ... computer, 42 ... movement detector, 44 ... image signal generator, 46 ... layer classifier, 47 ... information generator, 50 ... accumulator, 51 ...
..Front moving image signal storage area, 52 ... intermediate image information storage area, 61 ... image generation control section, 62 ... signal extraction section, 63 ... projection conversion section, 64 ... image signal Synthesizing unit, 71: Geometric conversion unit, 73: Discrimination image generation unit, 74: Integration image generation unit, 75: Motion judgment unit, 81: Layer classification unit, 82: Information Generator,
201: size changing unit, 202, 422: error sum calculating unit, 203, 423: comparing unit, 204, 42
4 data storage unit, 205 enlargement ratio setting unit, 2
21: statistical information calculation unit, 222: layer division threshold setting unit, 223: layer determination unit, 225: layer movement amount calculation unit, 241: signal extraction unit, 242
243, 244 addition section, 245 image shift section, 246 interpolation section, 247 middle view pasting section, 248 near view pasting section, 249 image conversion section , 421: size conversion unit, 425: search control unit, 461: pattern determination unit, 462: layer determination unit, 463: classification unit, 464: threshold setting unit, 465 ··· Classification correction unit, 471,821 ··· Motion amount average value calculation unit, 472,822 ··· Intermediate image signal generation unit, 473,823 ··· Intermediate image signal interpolation unit, 6
21-1 to 621-5 ... Synthesis unit, 623-1 to 623-5
..Image shift section, 631-634... Conversion section, 64
1 ... distant view synthesis section, 642 ... middle view synthesis section, 643
... foreground composition unit, 644 ... reduced image composition unit, 741
-1 to 741-ns ... Addition processing unit, 742-1 to 742-ns
... Area selection unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 菊地 大介 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5C023 AA10 AA16 AA38 BA04 BA11 CA03 EA03 EA05 5C054 AA01 AA05 CA04 CC02 EA05 FC01 FC04 FC13 FE17 HA17 HA26 5L096 AA06 CA02 DA01 EA03 GA08 HA04  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Tetsushi Kokubo 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Daisuke Kikuchi 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Sony Corporation F term (reference) 5C023 AA10 AA16 AA38 BA04 BA11 CA03 EA03 EA05 5C054 AA01 AA05 CA04 CC02 EA05 FC01 FC04 FC13 FE17 HA17 HA26 5L096 AA06 CA02 DA01 EA03 GA08 HA04

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 複数フレームの入力画像信号を用いて特
定の平面上に形成した画像内における所定領域の動きを
検出する動き検出手段と、 前記動き検出手段で検出された動きに基づいて、前記所
定領域を分類して分類結果を示す情報を生成するレイヤ
化処理手段と、 前記分類情報と前記複数フレームの入力画像信号に基づ
いて、前記入力画像信号中の注目フレームと同一時間で
あると共に、前記注目フレームの画像と画角の異なる周
辺画像の画像信号を生成する周辺画像信号生成手段とを
有することを特徴とする画像処理装置。
1. A motion detecting means for detecting a motion of a predetermined area in an image formed on a specific plane using an input image signal of a plurality of frames, and based on the motion detected by the motion detecting means, Layering processing means for classifying a predetermined area to generate information indicating a classification result, based on the classification information and the input image signals of the plurality of frames, and at the same time as the frame of interest in the input image signal, An image processing apparatus comprising: a peripheral image signal generating unit configured to generate an image signal of a peripheral image having a different angle of view from the image of the frame of interest.
【請求項2】 前記入力画像信号に基づく画像と前記特
定の平面上に形成した画像は、同一平面上の画像である
ことを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the image based on the input image signal and the image formed on the specific plane are images on the same plane.
【請求項3】 少なくとも1つの拘束条件を満たす動き
を生ずる基準動画像の画像信号を用いて、前記拘束条件
を利用することにより前記基準動画像の画面毎に画面内
の画像端部領域の動きを検出する動き検出手段と、 前記動き検出手段で検出された動きに基づいて、前記所
定領域のレイヤを決定してレイヤ情報を生成するレイヤ
化処理手段と、 前記レイヤ化処理手段で生成されたレイヤ情報と前記画
像端部領域の画像信号を用いると共に、画面順序に応じ
た信号処理を行い、前記基準動画像と同一時間であると
共に、前記基準動画像に対応した周辺動画像の画像信号
を生成する周辺画像生成手段とを備えることを特徴とす
る画像処理装置。
3. A motion of an image edge region in a screen of the reference moving image for each screen of the reference moving image by using an image signal of a reference moving image that generates a motion satisfying at least one constraint condition. A layering processing unit that determines a layer of the predetermined area based on the motion detected by the motion detecting unit and generates layer information; Using the layer information and the image signal of the image end area, performing signal processing according to the screen order, and at the same time as the reference moving image, and the image signal of the peripheral moving image corresponding to the reference moving image An image processing apparatus comprising: a peripheral image generating unit configured to generate a peripheral image.
【請求項4】 前記動き検出手段では、前記画像端部領
域に複数の動き検出領域を設定して、前記動き検出領域
毎に動きを検出することを特徴とする請求項3記載の画
像処理装置。
4. The image processing apparatus according to claim 3, wherein the motion detection means sets a plurality of motion detection areas in the image end area and detects a motion for each of the motion detection areas. .
【請求項5】 前記1つの拘束条件は、前記画像の動き
が所定位置を中心とした放射方向であることを特徴とす
る請求項4記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the one constraint condition is that the movement of the image is a radial direction centered on a predetermined position.
【請求項6】 前記動き検出手段では、前記所定位置を
中心として前記動き検出領域の画像をズームさせながら
前画面の画像との誤差値を算出して、該算出された誤差
値に基づいて動きを判別することを特徴とする請求項5
記載の画像処理装置。
6. The motion detection means calculates an error value with respect to an image of a previous screen while zooming the image of the motion detection area around the predetermined position, and performs a motion based on the calculated error value. 6. The method according to claim 5, wherein
The image processing apparatus according to any one of the preceding claims.
【請求項7】 前記周辺画像生成手段では、前記動き検
出手段の検出結果に基づき、前記画像端部領域をレイヤ
分けするものとして、レイヤ毎に画面順序に応じた信号
処理を行うことにより周辺動画像の画像信号を生成する
ことを特徴とする請求項3記載の画像処理装置。
7. The peripheral image generating means performs signal processing in accordance with a screen order for each layer, based on a detection result of the motion detecting means, wherein the edge area of the image is divided into layers. The image processing apparatus according to claim 3, wherein the image processing apparatus generates an image signal of the image.
【請求項8】 前記周辺画像生成手段では、前記動き検
出手段の検出結果に基づいて前記レイヤ毎に移動量を設
定し、前記レイヤ分けされた画像端部領域の画像を、対
応するレイヤの前記移動量に応じて抽出し、該抽出した
画像をレイヤ単位で貼り付ける信号処理を行うことを特
徴とする請求項7記載の画像処理装置。
8. The peripheral image generating means sets a moving amount for each layer based on a detection result of the motion detecting means, and converts an image of the layered image end area into a corresponding layer. 8. The image processing apparatus according to claim 7, wherein signal processing is performed to extract the image according to the amount of movement and to paste the extracted image on a layer basis.
【請求項9】 前記周辺画像生成手段では、前記レイヤ
単位の貼り付け処理として、移動量の少ないレイヤから
移動量の大きいレイヤへと順に貼り付けを行うことを特
徴とする請求項8記載の画像処理装置。
9. The image according to claim 8, wherein the peripheral image generating means performs the pasting in order from the layer having a small moving amount to the layer having a large moving amount, as the pasting process for each layer. Processing equipment.
【請求項10】 前記周辺画像生成手段では、既に貼り
付けが行われた各レイヤの画像を前記レイヤ毎に設定さ
れた移動量に応じて移動させると共に、移動後の画像に
前記抽出した画像を加えてから前記レイヤ単位で貼り付
ける処理を画面順に行うことを特徴とする請求項8記載
の画像処理装置。
10. The peripheral image generating means moves an image of each layer that has been pasted according to a moving amount set for each layer, and adds the extracted image to the moved image. 9. The image processing apparatus according to claim 8, wherein, after the addition, the process of pasting in units of layers is performed in a screen order.
【請求項11】 前記周辺画像生成手段では、前記レイ
ヤ単位での貼り付け処理によって画像に隙間部分を生じ
たときには、隙間部分の画像の画像信号を補間処理によ
って生成することを特徴とする請求項8記載の画像処理
装置。
11. The image processing apparatus according to claim 1, wherein the peripheral image generating means generates an image signal of the image of the gap portion by an interpolation process when a gap portion is generated in the image by the pasting process in the layer unit. 9. The image processing apparatus according to 8.
【請求項12】 前記周辺画像生成手段では、前記補間
処理として、前記隙間部分の後方側に位置する画像をレ
イヤ移動方向に延長して前記隙間領域の画像の画像信号
を生成することを特徴とする請求項11記載の画像処理
装置。
12. The peripheral image generating means, as the interpolation processing, generates an image signal of an image of the gap area by extending an image located behind the gap portion in a layer moving direction. The image processing apparatus according to claim 11, wherein:
【請求項13】 前記周辺画像生成手段では、前記抽出
した画像をレイヤ単位で貼り付ける信号処理を行うこと
により得られた信号に対して、前記周辺動画像の投影面
の向きに応じた信号変換処理を行うことを特徴とする請
求項8記載の画像処理装置。
13. The peripheral image generating means converts a signal obtained by performing signal processing for pasting the extracted image on a layer basis according to a direction of a projection plane of the peripheral moving image. The image processing apparatus according to claim 8, wherein the processing is performed.
【請求項14】 複数フレームの入力画像信号を用いて
特定の平面上に形成した画像内における所定領域の動き
を検出するものとし、 前記検出された動きに基づいて、前記所定領域を分類し
て分類結果を示す情報を生成するものとし、 前記分類情報と前記複数フレームの入力画像信号に基づ
いて、前記入力画像信号中の注目フレームと同一時間で
あると共に、前記注目フレームの画像と画角の異なる周
辺画像の画像信号を生成することを特徴とする画像信号
生成方法。
14. A motion of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames is detected, and the predetermined area is classified based on the detected motion. Based on the classification information and the input image signal of the plurality of frames, information indicating the classification result is generated, and at the same time as the frame of interest in the input image signal, and the image of the frame of interest and the angle of view An image signal generation method characterized by generating image signals of different peripheral images.
【請求項15】 前記入力画像信号に基づく画像と前記
特定の平面上に形成した画像は、同一平面上の画像であ
ることを特徴とする請求項14記載の画像信号生成方
法。
15. The image signal generating method according to claim 14, wherein the image based on the input image signal and the image formed on the specific plane are images on the same plane.
【請求項16】 少なくとも1つの拘束条件を満たす動
きを生ずる基準動画像を用いて、前記拘束条件を利用す
ることにより前記基準動画像の画面毎に画像端部領域の
動きを検出するものとし、 検出された動きに基づき、前記画像端部領域の画像信号
を用いると共に画面順序に応じた信号処理を行い、前記
基準動画像と同一時間であると共に、前記基準動画像に
対応した周辺動画像の画像信号を生成することを特徴と
する画像信号生成方法。
16. Using a reference moving image that generates a movement satisfying at least one constraint condition, a motion of an image end region is detected for each screen of the reference moving image by using the constraint condition; Based on the detected motion, signal processing is performed according to the screen order while using the image signal of the image end area, and at the same time as the reference moving image, and of the peripheral moving image corresponding to the reference moving image. An image signal generation method characterized by generating an image signal.
【請求項17】 前記画像端部領域に複数の動き検出領
域を設定して、前記動き検出領域毎に動きを検出するこ
とを特徴とする請求項16記載の画像信号生成方法。
17. The image signal generation method according to claim 16, wherein a plurality of motion detection areas are set in the image end area, and motion is detected for each of the motion detection areas.
【請求項18】 前記1つの拘束条件は、前記画像の動
きが所定位置を中心とした放射方向であることを特徴と
する請求項17記載の画像信号生成方法。
18. The image signal generating method according to claim 17, wherein the one constraint condition is that the movement of the image is a radial direction centering on a predetermined position.
【請求項19】 前記所定位置を中心として前記動き検
出領域の画像をズームさせながら前画面の画像との誤差
値を算出して、該算出された誤差値に基づいて動きを判
別することを特徴とする請求項18記載の画像信号生成
方法。
19. An image processing apparatus according to claim 19, further comprising: calculating an error value with respect to an image of a previous screen while zooming the image of the motion detection area around the predetermined position, and determining a motion based on the calculated error value. 19. The image signal generating method according to claim 18, wherein
【請求項20】 前記動きの検出結果に基づき、前記画
像端部領域をレイヤ分けするものとして、レイヤ毎に画
面順序に応じた信号処理を行うことにより周辺動画像の
画像信号を生成することを特徴とする請求項16記載の
画像信号生成方法。
20. A method for generating an image signal of a peripheral moving image by performing signal processing in accordance with a screen order for each layer, wherein the image end region is divided into layers based on the motion detection result. 17. The image signal generating method according to claim 16, wherein:
【請求項21】 前記動きの検出結果に基づいて前記レ
イヤ毎に移動量を設定し、前記レイヤ分けされた画像端
部領域の画像を、対応するレイヤの前記移動量に応じて
画像を抽出し、該抽出した画像をレイヤ単位で貼り付け
る信号処理を行うことを特徴とする請求項20記載の画
像信号生成方法。
21. A moving amount is set for each of the layers based on the detection result of the motion, and an image of the layered image end region is extracted according to the moving amount of a corresponding layer. 21. The image signal generation method according to claim 20, wherein signal processing for pasting the extracted image in layers is performed.
【請求項22】 前記レイヤ単位の貼り付け処理とし
て、移動量の少ないレイヤから移動量の大きいレイヤへ
と順に貼り付けを行うことを特徴とする請求項21記載
の画像信号生成方法。
22. The image signal generation method according to claim 21, wherein, in the layer-by-layer pasting processing, pasting is performed in order from a layer having a small moving amount to a layer having a large moving amount.
【請求項23】 既に貼り付けが行われた各レイヤの画
像を前記レイヤ毎に設定された移動量に応じて移動させ
ると共に、移動後の画像に前記抽出した画像を加えてか
ら前記レイヤ単位で貼り付ける信号処理を画面順に行う
ことを特徴とする請求項21記載の画像信号生成方法。
23. The image of each layer that has already been pasted is moved in accordance with the amount of movement set for each layer, and the extracted image is added to the image after the movement, and then, in units of layers. 22. The image signal generation method according to claim 21, wherein the signal processing for pasting is performed in the order of screens.
【請求項24】 前記レイヤ単位での貼り付け処理によ
って画像に隙間部分を生じたときには、前記隙間部分の
画像の画像信号を補間処理によって生成することを特徴
とする請求項21記載の画像信号生成方法。
24. The image signal generation method according to claim 21, wherein when a gap portion is generated in the image by the layer-by-layer pasting process, an image signal of the image of the gap portion is generated by an interpolation process. Method.
【請求項25】 前記補間処理として、前記隙間部分の
奥側に位置する画像をレイヤの移動方向に延長して前記
隙間領域の画像の画像信号を生成することを特徴とする
請求項24記載の画像信号生成方法。
25. The image processing apparatus according to claim 24, wherein, as said interpolation processing, an image signal of an image of said gap region is generated by extending an image located on the back side of said gap portion in a moving direction of a layer. Image signal generation method.
【請求項26】 前記抽出した画像をレイヤ単位で貼り
付ける信号処理を行うことにより得られた信号に対し
て、前記周辺動画像の投影面の向きに応じた信号変換処
理を行うことを特徴とする請求項21記載の画像信号生
成方法。
26. A signal conversion process according to a direction of a projection plane of the peripheral moving image is performed on a signal obtained by performing a signal process of pasting the extracted image on a layer basis. The image signal generation method according to claim 21, wherein
【請求項27】 コンピュータに、 複数フレームの入力画像信号を用いて特定の平面上に形
成した画像内における所定領域の動きを検出する処理
と、 前記検出された動きに基づいて、前記所定領域を分類し
て分類結果を示す情報を生成する処理と、 前記分類情報と前記複数フレームの入力画像信号に基づ
いて、前記入力画像信号中の注目フレームと同一時間で
あると共に、前記注目フレームの画像と画角の異なる周
辺画像の画像信号を生成する処理とを実行させることを
特徴とする画像処理プログラム。
27. A computer, comprising: a process for detecting a motion of a predetermined region in an image formed on a specific plane using input image signals of a plurality of frames; and a process for detecting the predetermined region based on the detected motion. Classifying and generating information indicating a classification result, based on the classification information and the input image signals of the plurality of frames, at the same time as the frame of interest in the input image signal, and the image of the frame of interest Generating an image signal of a peripheral image having a different angle of view.
【請求項28】 コンピュータに、 少なくとも1つの拘束条件を満たす動きを生ずる基準動
画像を用いて、前記拘束条件を利用することにより前記
基準動画像の画面毎に画像端部領域の動きを検出する第
1の処理と、 検出された動きに基づき、前記画像端部領域の画像信号
を用いると共に画面順序に応じた信号処理を行い、前記
基準動画像と同一時間であると共に、前記基準動画像に
対応した周辺動画像の画像信号を生成する第2の処理と
を含む処理を実行させることを特徴とする画像処理プロ
グラム。
28. A computer, comprising: detecting a motion of an image edge region for each screen of the reference moving image by using the reference moving image which generates a motion satisfying at least one constraint condition and utilizing the constraint condition; A first process, based on the detected motion, using the image signal of the image edge region and performing signal processing according to the screen order, and at the same time as the reference moving image, And a second process for generating an image signal of a corresponding peripheral moving image.
【請求項29】 前記第1の処理は、前記画像端部領域
に複数の動き検出領域を設定する第1のステップと、前
記動き検出領域毎に動きを検出させる第2のステップと
を有することを特徴とする請求項28記載の画像処理プ
ログラム。
29. The first processing includes a first step of setting a plurality of motion detection areas in the image end area, and a second step of detecting a motion for each of the motion detection areas. 29. The image processing program according to claim 28, wherein:
【請求項30】 前記第1の処理では、前記1つの拘束
条件として、前記画像の動きが所定位置を中心とした放
射方向であるものとすることを特徴とする請求項29記
載の画像処理プログラム。
30. The image processing program according to claim 29, wherein in the first processing, the one constraint condition is that the movement of the image is in a radial direction about a predetermined position. .
【請求項31】 前記第2のステップは、前記所定位置
を中心として前記動き検出領域の画像をズームさせなが
ら前画面の画像との誤差値を算出する第3のステップ
と、該算出された誤差値に基づいて動きを判別する第4
のステップとを有することを特徴とする請求項30記載
の画像処理プログラム。
31. A second step of calculating an error value from an image of a previous screen while zooming the image of the motion detection area around the predetermined position, and calculating the calculated error. 4th to determine movement based on value
31. The image processing program according to claim 30, further comprising the steps of:
【請求項32】 前記第2の処理は、前記第1の処理で
の検出結果に基づき、前記画像端部領域をレイヤ分けす
る第5のステップと、レイヤ毎に画面順序に応じた信号
処理を行うことにより周辺動画像の画像信号を生成する
第6のステップとを有することを特徴とする請求項28
記載の画像処理プログラム。
32. The second processing includes a fifth step of dividing the image end region into layers based on a detection result in the first processing, and a signal processing according to a screen order for each layer. Performing a step of generating an image signal of a peripheral moving image.
Image processing program as described.
【請求項33】 前記第6のステップは、前記動きの検
出結果に基づいて前記レイヤ毎に移動量を設定する第7
のステップと、前記レイヤ分けされた画像端部領域の画
像を、対応するレイヤの前記移動量に応じて画像を抽出
する第8のステップと、前記第8のステップで抽出した
画像をレイヤ単位で貼り付ける第9のステップを有する
ことを特徴とする請求項32記載の画像処理プログラ
ム。
33. The sixth step, wherein a moving amount is set for each of the layers based on the detection result of the movement.
A step of extracting an image of the layered image end region according to the amount of movement of a corresponding layer, and an image extracted in the eighth step in units of layers. 33. The image processing program according to claim 32, further comprising a ninth step of pasting.
【請求項34】 前記第9のステップでは、移動量の少
ないレイヤから移動量の大きいレイヤへと順に画像の貼
り付けを行うことを特徴とする請求項33記載の画像処
理プログラム。
34. The image processing program according to claim 33, wherein in the ninth step, images are pasted in order from a layer having a small moving amount to a layer having a large moving amount.
【請求項35】 前記第6のステップは、既に貼り付け
が行われた各レイヤの画像を前記7のステップで設定さ
れた前記レイヤ毎の移動量に応じて移動させる第10の
ステップを有し、 前記第9のステップでは、移動後の画像に前記抽出した
画像を加えてから前記レイヤ単位で貼り付ける処理を画
面順に行うことを特徴とする請求項33記載の画像処理
プログラム。
35. The sixth step includes a tenth step of moving an image of each layer that has already been pasted according to the amount of movement of each layer set in the seventh step. 34. The computer-readable storage medium according to claim 33, wherein in the ninth step, a process of adding the extracted image to the image after the movement and pasting the image in units of layers is performed in screen order.
【請求項36】 前記第6のステップは、前記第9のス
テップによって前記レイヤ単位での貼り付けが行われた
画像に隙間部分を生じたとき、前記隙間部分の画像の画
像信号を補間処理によって生成する第11のステップを
有することを特徴とする請求項34記載の画像処理プロ
グラム。
36. In the sixth step, when a gap is formed in the image pasted in the layer unit in the ninth step, an image signal of the image of the gap is interpolated by interpolation processing. The image processing program according to claim 34, further comprising an eleventh step of generating.
【請求項37】 前記第11のステップでは、補間処理
として、前記隙間部分の後方側に位置する画像をレイヤ
の移動方向に延長して前記隙間領域の画像の画像信号を
生成することを特徴とする請求項36記載の画像処理プ
ログラム。
37. In the eleventh step, an image signal of an image of the gap area is generated by extending an image located on the rear side of the gap portion in a moving direction of a layer as an interpolation process. The image processing program according to claim 36, wherein
【請求項38】 前記第6のステップは、前記第9のス
テップによって、レイヤ単位で貼り付けが行われた画像
信号に対して、前記周辺動画像の投影面の向きに応じた
信号変換処理を行う第12のステップを有することを特
徴とする請求項33記載の画像処理プログラム。
38. A signal conversion process according to a direction of a projection plane of the peripheral moving image on the image signal pasted on a layer basis in the ninth step. The image processing program according to claim 33, further comprising a twelfth step of performing.
【請求項39】 コンピュータに、 複数フレームの入力画像信号を用いて特定の平面上に形
成した画像内における所定領域の動きを検出する処理
と、 前記検出された動きに基づいて、前記所定領域を分類し
て分類結果を示す情報を生成する処理と、 前記分類情報と前記複数フレームの入力画像信号に基づ
いて、前記入力画像信号中の注目フレームと同一時間で
あると共に、前記注目フレームの画像と画角の異なる周
辺画像の画像信号を生成する処理とを実行させるプログ
ラムをコンピュータ読み取り可能に記録したことを特徴
とする情報記録媒体。
39. A computer, comprising: a process for detecting a motion of a predetermined area in an image formed on a specific plane using input image signals of a plurality of frames; and detecting the predetermined area based on the detected motion. A process of classifying and generating information indicating a classification result, based on the classification information and the input image signals of the plurality of frames, at the same time as the frame of interest in the input image signal, and an image of the frame of interest. An information recording medium, wherein a program for executing a process of generating image signals of peripheral images having different angles of view is recorded in a computer-readable manner.
【請求項40】 コンピュータに、 少なくとも1つの拘束条件を満たす動きを生ずる基準動
画像を用いて、前記拘束条件を利用することにより前記
基準動画像の画面毎に画像端部領域の動きを検出する第
1の処理と、 検出された動きに基づき、前記画像端部領域の画像信号
を用いると共に画面順序に応じた信号処理を行い、前記
基準動画像と同一時間であると共に、前記基準動画像に
対応した周辺動画像の画像信号を生成する第2の処理と
を含む処理を実行させるプログラムをコンピュータ読み
取り可能に記録したことを特徴とする情報記録媒体。
40. A computer detects a movement of an image end area for each screen of the reference moving image by using a reference moving image which generates a movement satisfying at least one constraint condition and utilizing the constraint condition. A first process, based on the detected motion, using the image signal of the image edge region and performing signal processing according to the screen order, and at the same time as the reference moving image, An information recording medium, wherein a program for executing a process including a second process of generating an image signal of a corresponding peripheral moving image is recorded in a computer-readable manner.
JP2001383836A 2000-12-15 2001-12-17 Image processing apparatus, image signal generation method, image processing program, and information recording medium Expired - Fee Related JP3823818B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001383836A JP3823818B2 (en) 2000-12-15 2001-12-17 Image processing apparatus, image signal generation method, image processing program, and information recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000382369 2000-12-15
JP2000-382369 2000-12-15
JP2001383836A JP3823818B2 (en) 2000-12-15 2001-12-17 Image processing apparatus, image signal generation method, image processing program, and information recording medium

Publications (3)

Publication Number Publication Date
JP2002271783A true JP2002271783A (en) 2002-09-20
JP2002271783A5 JP2002271783A5 (en) 2005-07-28
JP3823818B2 JP3823818B2 (en) 2006-09-20

Family

ID=26605932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001383836A Expired - Fee Related JP3823818B2 (en) 2000-12-15 2001-12-17 Image processing apparatus, image signal generation method, image processing program, and information recording medium

Country Status (1)

Country Link
JP (1) JP3823818B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200198654A1 (en) * 2017-06-20 2020-06-25 Zf Friedrichshafen Ag Method, device, and computer program for the operation of a vehicle operation system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200198654A1 (en) * 2017-06-20 2020-06-25 Zf Friedrichshafen Ag Method, device, and computer program for the operation of a vehicle operation system
US11458985B2 (en) * 2017-06-20 2022-10-04 Zf Friedrichshafen Ag Method, device, and computer program for the operation of a vehicle operation system

Also Published As

Publication number Publication date
JP3823818B2 (en) 2006-09-20

Similar Documents

Publication Publication Date Title
EP1762979B1 (en) Layered image based rendering
US11967162B2 (en) Method and apparatus for 3-D auto tagging
US10893250B2 (en) Free-viewpoint photorealistic view synthesis from casually captured video
JP6561216B2 (en) Generating intermediate views using optical flow
US7006124B2 (en) Generalized panoramic mosaic
US7778491B2 (en) Oblique image stitching
US20210312702A1 (en) Damage detection from multi-view visual data
US20080106593A1 (en) System and process for synthesizing location-referenced panoramic images and video
JP4474743B2 (en) 3D image generating apparatus, 3D image generating method, and program recording medium
JP2022523478A (en) Damage detection from multi-view visual data
JP2018110375A (en) Display device, program, and display method
US20120013616A1 (en) Computer graphics video synthesizing device and method, and display device
US11252398B2 (en) Creating cinematic video from multi-view capture data
JP5225313B2 (en) Image generating apparatus, image generating method, and program
JP2001022936A (en) Device for generating three-dimensional shape
JP2018109946A (en) Display device, program, and method for display
CN113296721A (en) Display method, display device and multi-screen linkage system
JP3823818B2 (en) Image processing apparatus, image signal generation method, image processing program, and information recording medium
JP4599775B2 (en) Image processing apparatus, image processing method, image processing program, and information recording medium
JP2004310686A (en) Image processing method and device
JP2005174024A (en) Image forming apparatus and method
JP7296735B2 (en) Image processing device, image processing method and program
JPH09231408A (en) Moving image compositing device
JP3849481B2 (en) Signal processing method, signal processing apparatus, and signal processing program
JP4924131B2 (en) Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041217

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R151 Written notification of patent or utility model registration

Ref document number: 3823818

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090707

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees