JP2003052055A - Picture processor, picture signal generating method, picture processing program and information recording medium - Google Patents

Picture processor, picture signal generating method, picture processing program and information recording medium

Info

Publication number
JP2003052055A
JP2003052055A JP2001238208A JP2001238208A JP2003052055A JP 2003052055 A JP2003052055 A JP 2003052055A JP 2001238208 A JP2001238208 A JP 2001238208A JP 2001238208 A JP2001238208 A JP 2001238208A JP 2003052055 A JP2003052055 A JP 2003052055A
Authority
JP
Japan
Prior art keywords
image
image signal
layer
signal
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001238208A
Other languages
Japanese (ja)
Other versions
JP4599775B2 (en
JP2003052055A5 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yuji Okumura
裕二 奥村
Tetsushi Kokubo
哲志 小久保
Daisuke Kikuchi
大介 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2001238208A priority Critical patent/JP4599775B2/en
Application filed by Sony Corp filed Critical Sony Corp
Priority to EP06025769A priority patent/EP1762979B1/en
Priority to DE60144450T priority patent/DE60144450D1/en
Priority to PCT/JP2001/011049 priority patent/WO2002049368A1/en
Priority to DE60144490T priority patent/DE60144490D1/en
Priority to KR1020027010547A priority patent/KR100859615B1/en
Priority to US10/203,707 priority patent/US7146023B2/en
Priority to DE60135885T priority patent/DE60135885D1/en
Priority to EP06025781A priority patent/EP1762980B1/en
Priority to EP01271016A priority patent/EP1347656B1/en
Publication of JP2003052055A publication Critical patent/JP2003052055A/en
Priority to US11/584,907 priority patent/US7343027B2/en
Publication of JP2003052055A5 publication Critical patent/JP2003052055A5/ja
Application granted granted Critical
Publication of JP4599775B2 publication Critical patent/JP4599775B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily display a wide-angle picture with a high feeling of being at an actual spot. SOLUTION: A motion detection block 20 detects the motion in an interested frame at a specified position, using a plurality of frames of information picture signals SDC. An intermediate picture information generating block 25 generates intermediate picture information, based on the motion detected by the detecting block 20 and the plurality of frames of input picture signals. A surrounding picture signal generating block 40 generates surrounding picture signals SDL, SDR e.g. at the left and right sides not existing in the interested frame, based on the intermediate picture information, and outputs them in the same timing as that of the input picture signals SDC. Thus, the left and right side pictures continuing the picture based on the input picture signals SDC can be displayed with the surrounding picture signals SDL, SDR to display a wide-angle picture with a high feeling of being at an actual spot.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は画像処理装置と画
像信号生成方法と画像処理プログラム及び情報記録媒体
に関する。詳しくは、複数フレームの入力画像信号を用
いて、注目フレームの所定位置の動きを検出するものと
し、検出された動きと複数フレームの入力画像信号に基
づいて中間画像情報を生成し、この生成された中間画像
情報に基づいて、注目フレームに存在しない画角の周辺
画像信号を生成するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, an image signal generating method, an image processing program and an information recording medium. More specifically, it is assumed that the motion of the target frame at a predetermined position is detected using the input image signals of a plurality of frames, the intermediate image information is generated based on the detected motion and the input image signals of the plurality of frames, and the generated intermediate image information is generated. Based on the intermediate image information, a peripheral image signal having an angle of view that does not exist in the frame of interest is generated.

【0002】[0002]

【従来の技術】近年、臨場感を高めた画像表示を行うた
めに多画面表示システムや曲面ディスプレイ、広画角デ
ィスプレイ、ヘッドマウントディスプレイ等が実用化さ
れている。
2. Description of the Related Art In recent years, a multi-screen display system, a curved display, a wide-angle display, a head-mounted display and the like have been put into practical use in order to display an image with a high sense of presence.

【0003】ここで、上述のようなディスプレイを用い
て臨場感を高めた画像表示を行うためには、例えばコン
ピュータグラフィックスで3次元の仮想空間を構築する
ことが行われている。また、多数のビデオカメラを用い
たり広角レンズをビデオカメラに取り付けて広範囲な空
間を撮影し、この撮影画像を多面ディスプレイやヘッド
マウントディスプレイなどの平面あるいは曲面に変換し
て表示することも行われている。
Here, in order to display an image with a high sense of presence using the above-mentioned display, for example, a three-dimensional virtual space is constructed by computer graphics. In addition, a large number of video cameras are used or a wide-angle lens is attached to the video cameras to photograph a wide space, and the photographed images are converted into a flat surface or a curved surface such as a multi-faced display or a head mounted display for display. There is.

【0004】[0004]

【発明が解決しようとする課題】ところで、このように
多面ディスプレイや広画角ディスプレイ等を用いて臨場
感を高めた画像表示を行う場合、コンピュータグラフィ
ックスで3次元の仮想空間を構築するためには、高速な
コンピュータ装置を用いて演算処理を行う必要があるた
め、多大なコストと時間が必要となると共に、実写画像
に比べて臨場感や現実感が少ない画像となってしまう。
By the way, in order to construct a three-dimensional virtual space by computer graphics when displaying an image with a high sense of realism using such a multi-faced display or a wide-angle display, etc. Requires processing at high speed using a high-speed computer device, which requires a large amount of cost and time, and results in an image with less realism and reality than a real image.

【0005】また、実写画像を用いる場合には、広範囲
な空間を提示するためには、提示する範囲を全て隙間無
く撮影する必要があり、多数のビデオカメラや特殊レン
ズを備えたビデオカメラ等、大がかりな画像取込装置が
必要となり、多額のコストが必要となる。
Further, in the case of using a real image, in order to present a wide space, it is necessary to photograph the entire presented range without any gaps, such as a large number of video cameras and video cameras equipped with special lenses. A large-scale image capturing device is required, and a large amount of cost is required.

【0006】さらに、一般的なビデオカメラで撮影され
た画像ソースが既に存在するときには、同じシーンを複
数のビデオカメラで撮り直さなければ、広画角な画像を
提示することができない。
Furthermore, when an image source shot by a general video camera already exists, a wide-angle image cannot be presented unless the same scene is shot again by a plurality of video cameras.

【0007】そこで、この発明では、複数のビデオカメ
ラや特殊レンズを用いたビデオカメラを用いることな
く、広画角な画像を容易に提示できる画像処理装置と画
像信号生成方法と画像処理プログラム及び情報記録媒体
を提供するものである。
Therefore, according to the present invention, an image processing apparatus, an image signal generating method, an image processing program, and information which can easily present an image with a wide angle of view without using a plurality of video cameras or a video camera using a special lens are provided. A recording medium is provided.

【0008】[0008]

【課題を解決するための手段】この発明に係る画像処理
装置は、複数フレームの入力画像信号を用いて、前記入
力画像信号における注目フレームの所定位置の動きを検
出する動き検出手段と、前記動き検出手段で検出された
動きと前記複数フレームの入力画像信号に基づいて中間
画像情報を生成する中間画像情報生成手段と、前記中間
画像情報生成手段で生成された中間画像情報に基づい
て、前記注目フレームに存在しない画角の周辺画像信号
を生成する周辺画像信号生成手段とを備えるものであ
る。
SUMMARY OF THE INVENTION An image processing apparatus according to the present invention uses a plurality of frames of input image signals to detect a motion at a predetermined position of a frame of interest in the input image signals, and the motion detecting unit. The intermediate image information generating means for generating intermediate image information based on the motion detected by the detecting means and the input image signals of the plurality of frames, and the attention based on the intermediate image information generated by the intermediate image information generating means. And a peripheral image signal generating means for generating a peripheral image signal having an angle of view that does not exist in the frame.

【0009】また画像処理方法は、複数フレームの入力
画像信号を用いて、前記入力画像信号における注目フレ
ームの所定位置の動きを検出するものとし、検出された
動きと前記複数フレームの入力画像信号に基づいて中間
画像情報を生成し、生成された前記中間画像情報に基づ
いて、前記注目フレームに存在しない画角の周辺画像信
号を生成するものである。
Further, the image processing method uses the input image signals of a plurality of frames to detect the movement of the target frame at a predetermined position in the input image signal, and detects the detected movement and the input image signals of the plurality of frames. Intermediate image information is generated based on the generated intermediate image information, and a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the generated intermediate image information.

【0010】また、画像処理プログラムは、画像信号を
処理するコンピュータに、複数フレームの入力画像信号
を用いて、前記入力画像信号における注目フレームの所
定位置の動きを検出する動き検出手順と、前記動き検出
手順で検出された動きと前記複数フレームの入力画像信
号に基づいて中間画像情報を生成する中間画像情報生成
手順と、前記中間画像情報生成手順で生成された中間画
像情報に基づいて、前記注目フレームに存在しない画角
の周辺画像信号を生成する周辺画像信号生成手順を実行
させるものである。
Further, the image processing program causes a computer for processing the image signal to use a plurality of frames of the input image signal to detect a motion at a predetermined position of a frame of interest in the input image signal, and the motion detecting procedure. The intermediate image information generation procedure for generating intermediate image information based on the motion detected in the detection procedure and the input image signals of the plurality of frames, and the intermediate image information generated in the intermediate image information generation procedure based on the attention A peripheral image signal generation procedure for generating a peripheral image signal having an angle of view that does not exist in the frame is executed.

【0011】さらに、情報記録媒体は、コンピュータ
に、複数フレームの入力画像信号を用いて、前記入力画
像信号における注目フレームの所定位置の動きを検出す
る動き検出手順と、前記動き検出手順で検出された動き
と前記複数フレームの入力画像信号に基づいて中間画像
情報を生成する中間画像情報生成手順と、前記中間画像
情報生成手順で生成された中間画像情報に基づいて、前
記注目フレームに存在しない画角の周辺画像信号を生成
する周辺画像信号生成手順を実行させるためのプログラ
ムを記録したものである。
Further, the information recording medium is detected by the motion detection procedure, in which the computer uses the input image signals of a plurality of frames to detect the movement of the target frame in the input image signal at a predetermined position, and the motion detection procedure. Based on the intermediate motion information and the intermediate image information generated by the intermediate image information generation procedure and the intermediate image information generation procedure for generating the intermediate image information based on the motion and the input image signals of the plurality of frames. A program for executing a peripheral image signal generation procedure for generating a peripheral image signal of a corner is recorded.

【0012】この発明においては、蓄積されている入力
画像信号を用いて、注目フレームの所定位置の画像と、
この注目フレームに対する前フレームあるいは後フレー
ムの画像との相関を検出して、注目フレームの所定位置
と相関が最も高い画像の位置から、所定位置の画像の動
き方向と動き量が検出される。この検出された動き方向
に基づいて動きパターンの検出が行われて、検出結果に
応じて奥行きを示す複数のレイヤが設定される。また検
出された動き量に基づいて所定位置をレイヤ分類する際
に用いる閾値が設定される。この閾値を用いてレイヤ分
類が行われて、所定位置のレイヤ分類結果と入力画像信
号と所定位置の動きに基づき、レイヤ毎の動き量とレイ
ヤ毎の画像信号が中間画像情報として生成される。
In the present invention, an image at a predetermined position of the frame of interest is used by using the accumulated input image signal,
By detecting the correlation between the frame of interest and the image of the previous frame or the subsequent frame, the moving direction and the amount of motion of the image at the predetermined position are detected from the position of the image having the highest correlation with the predetermined position of the frame of interest. A motion pattern is detected based on the detected motion direction, and a plurality of layers indicating the depth are set according to the detection result. In addition, a threshold used when classifying a predetermined position into layers is set based on the detected motion amount. Layer classification is performed using this threshold value, and a motion amount for each layer and an image signal for each layer are generated as intermediate image information based on the layer classification result at a predetermined position, the input image signal, and the motion at the predetermined position.

【0013】また、入力画像信号に基づく画像を所定面
に射影した射影画像の画像信号を生成して、射影画像の
画像信号を用いて射影画像の所定領域の画像信号をフレ
ーム毎に抽出して動き判別画像の画像信号が生成され
る。さらに、射影画像の位置をフレーム毎にずらした画
像信号を用いて所定フレーム分の平均値画像信号を順次
生成して、この平均値画像信号からフレーム毎に画像信
号を抽出して積分画像の画像信号が生成される。この積
分画像の画像信号は、射影画像のずらし量を変えること
で複数生成される。さらに、動き判別画像の画像信号と
複数の積分画像の画像信号との相関が検出されて、最も
相関が高いとされた積分画像の画像信号を生成したとき
のずらし量から、動き判別画像の所定位置の動き量が判
別される。この動き量から所定位置のレイヤ分類が行わ
れて、動き量とレイヤ毎の画像信号が中間画像情報とさ
れる。
Further, an image signal of a projected image is generated by projecting an image based on the input image signal onto a predetermined surface, and the image signal of the predetermined region of the projected image is extracted for each frame using the image signal of the projected image. An image signal of the motion determination image is generated. Further, an average value image signal for a predetermined frame is sequentially generated by using an image signal in which the position of the projected image is shifted for each frame, and the image signal is extracted for each frame from the average value image signal to obtain an image of the integrated image. A signal is generated. A plurality of image signals of this integral image are generated by changing the shift amount of the projected image. Further, the correlation between the image signal of the motion determination image and the image signals of the plurality of integrated images is detected, and the predetermined amount of the motion determination image is determined based on the shift amount when the image signal of the integrated image having the highest correlation is generated. The amount of position movement is determined. Layer classification at a predetermined position is performed based on the motion amount, and the motion amount and the image signal for each layer are used as intermediate image information.

【0014】レイヤ毎の画像信号を生成する際に、レイ
ヤ毎の画像信号に基づく画像を所定の順序で張り合わせ
たときに画像が無くなる領域が生じているときには、画
像の無くなる領域の周辺領域の画像信号を用いて補間処
理が行われる。
When generating an image signal for each layer, when an image disappears region when the images based on the image signal for each layer are combined in a predetermined order, an image of a peripheral region of the image disappearing region is generated. Interpolation processing is performed using the signal.

【0015】周辺画像の画像信号を出力する場合には、
中間画像情報が読み出されて、レイヤ毎の動き量に基づ
きレイヤ毎に画像信号が読み出されて所定のレイヤ順序
で貼り付けられる。また貼り付けに用いられた画像信号
はレイヤ毎に動き量に応じて移動されて、この移動され
た信号に新たな画像信号がレイヤ毎に貼り付けられる。
この所定のレイヤ順序で貼り付けられた画像信号は、注
目フレームに存在しない画角の周辺画像を示す画像信号
として入力画像信号に対応して出力される。
When outputting the image signal of the peripheral image,
The intermediate image information is read out, the image signal is read out for each layer based on the amount of movement of each layer, and the image signals are pasted in a predetermined layer order. The image signal used for pasting is moved for each layer according to the amount of movement, and a new image signal is pasted for each layer to the moved signal.
The image signal pasted in the predetermined layer order is output as an image signal indicating a peripheral image having an angle of view that does not exist in the frame of interest in association with the input image signal.

【0016】また、レイヤ毎の画像信号を所定のレイヤ
順序で貼り付けた画像信号に画像の無い領域がある場合
は、画像の無い領域の周辺領域の画像信号を用いて補間
処理が行われて、画像信号が無い領域の画像信号が作成
される。さらに、入力画像信号に基づく画像の画像表示
面と前記周辺画像の画像表示面との位置関係に応じてレ
イヤ毎に貼り付けが行われた画像信号に対しての射影変
換、あるいはレイヤ毎に貼り付けが行われた画像信号を
さらに所定のレイヤ順序で貼り付けた画像信号に対して
の射影変換が行われる。
If the image signal obtained by pasting the image signals for each layer in a predetermined layer order has an image-free area, interpolation processing is performed using the image signals in the peripheral area of the image-free area. , An image signal of a region without an image signal is created. Further, the projective conversion is performed on the image signal pasted for each layer according to the positional relationship between the image display surface of the image based on the input image signal and the image display surface of the peripheral image, or the pasting is performed for each layer. Projection conversion is performed on the image signal obtained by further attaching the attached image signal in a predetermined layer order.

【0017】[0017]

【発明の実施の形態】以下、図を参照しながら、この発
明の実施の一形態について説明する。図1は、この発明
に係る画像処理装置を用いた表示システムの全体構成を
示している。この表示システムでは、例えば3つのスク
リーンをユーザの前面および両側面に配置して、各スク
リーン10L,10C,10Rに対応したプロジェクタ1
2L,12C,12Rから画像を投影する。このプロジェ
クタ12L,12C,12Rは画像処理装置15と接続さ
れている。
DETAILED DESCRIPTION OF THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows the overall configuration of a display system using an image processing device according to the present invention. In this display system, for example, three screens are arranged on the front surface and both side surfaces of the user, and the projector 1 corresponding to each screen 10L, 10C, 10R is provided.
Images are projected from 2L, 12C, and 12R. The projectors 12L, 12C and 12R are connected to the image processing device 15.

【0018】画像処理装置15には、撮影した画像信
号、例えば車載カメラ等で撮影した正面画像の画像信号
SDCが蓄積されている。画像処理装置15では、この
蓄積している画像信号SDCをプロジェクタ12Cに供給
して、図2に示すように画像信号SDCに基づく正面画
像を正面に位置するスクリーン10Cに表示させる。ま
た、画像処理装置15では、蓄積している正面画像の画
像信号SDCから、車載カメラの視野範囲に含まれてい
ない画角の周辺画像を示す画像信号、例えば正面画像と
連続する左右の側面画像を示す画像信号である周辺画像
信号SDL,SDRを生成するための中間画像情報を生成
して蓄積する。スクリーン10Cで正面画像を表示する
際には、蓄積している中間画像情報を用いて正面画像と
連続する周辺画像の周辺画像信号SDL,SDRを生成し
て、周辺画像信号SDLをプロジェクタ12Lに供給する
と共に周辺画像信号SDRをプロジェクタ12Rに供給す
る。このため、左側に位置するスクリーン10Lに正面
画像と連続性を有する左側面画像が表示されると共に、
右側に位置するスクリーン10Rに正面画像と連続性を
有する右側面画像が表示されて、広画角の画像提示を行
うことができる。
The image processing device 15 stores a captured image signal, for example, an image signal SDC of a front image captured by an in-vehicle camera or the like. The image processing device 15 supplies the accumulated image signal SDC to the projector 12C to display a front image based on the image signal SDC on the screen 10C located in the front as shown in FIG. Further, in the image processing device 15, from the accumulated image signal SDC of the front image, an image signal indicating a peripheral image having an angle of view not included in the field of view of the vehicle-mounted camera, for example, left and right side images continuous with the front image. The intermediate image information for generating the peripheral image signals SDL and SDR, which are image signals indicating, are generated and accumulated. When displaying the front image on the screen 10C, the peripheral image signals SDL and SDR of the peripheral image continuous with the front image are generated by using the accumulated intermediate image information, and the peripheral image signal SDL is supplied to the projector 12L. At the same time, the peripheral image signal SDR is supplied to the projector 12R. Therefore, the left side image having continuity with the front image is displayed on the screen 10L located on the left side, and
A right side image having continuity with the front image is displayed on the screen 10R located on the right side, and an image with a wide angle of view can be presented.

【0019】図3は、画像処理装置15の構成の概略を
示している。蓄積部30の正面画像信号蓄積領域31に
蓄積されている画像信号SDCは、動き検出ブロック2
0の1フレーム遅延処理部21と動き検出処理部22お
よび中間画像情報生成ブロック25の情報生成処理部2
7に供給される。
FIG. 3 schematically shows the structure of the image processing apparatus 15. The image signal SDC accumulated in the front image signal accumulating area 31 of the accumulating section 30 is the motion detection block 2
1-frame delay processing unit 21 of 0, motion detection processing unit 22, and information generation processing unit 2 of intermediate image information generation block 25
7 is supplied.

【0020】1フレーム遅延処理部21では、画像信号
SDCを1フレーム遅延させて画像信号SDCaとして動
き検出処理部22に供給する。動き検出処理部22で
は、正面画像の側端側に、図4の破線で示すように区切
られた複数の検出領域を設定して、この検出領域の注目
フレームの画像信号SDCと1フレーム前の画像信号S
DCaとの比較を検出領域毎に行い、画像の動きを示す動
きベクトルMVを検出領域毎に判別して中間画像情報生
成ブロック25のレイヤ分類部26に供給する。
The 1-frame delay processing section 21 delays the image signal SDC by 1 frame and supplies it to the motion detection processing section 22 as an image signal SDCa. The motion detection processing unit 22 sets a plurality of detection areas on the side edge side of the front image, which are divided as shown by the broken lines in FIG. 4, and the image signal SDC of the frame of interest in this detection area and one frame before are detected. Image signal S
Comparison with DCa is performed for each detection area, and the motion vector MV indicating the movement of the image is determined for each detection area and supplied to the layer classification unit 26 of the intermediate image information generation block 25.

【0021】レイヤ分類部26では、各検出領域の動き
ベクトルMVから正面画像の動きパターンを判定して、
中間画像情報の生成する際に、例えば離れた被写体を撮
影した遠景画像のレイヤ,近接した被写体を撮影した近
景画像のレイヤ,遠景画像と近景画像との間に位置する
中景画像のレイヤ、およびこれらのレイヤとは異なるレ
イヤをどのように設けるものとするかを判別してレイヤ
設定を行う。例えば、車載カメラで正面画像を撮影する
場合、一方向に直進する場合には、正面画像を順次ズー
ムインした画像となる。また、車が後退しているときに
は、正面画像を順次ズームアウトした画像となる。さら
に、追越し車両が撮影されたときには、ズームイン画像
に追い越し車両がズームアウト画像として表示されるこ
ととなる。また、右折や左折をしたときには、例えば正
面画像の上部側が水平方向に移動されると共に下部側は
ズームイン画像となる。このため、各検出領域の動きベ
クトルMVから正面画像の動きパターンを判定して、判
定した動きパターンに基づいてレイヤ設定を行うものと
する。例えば、一方向に直進する動きパターンでと判別
されたときには、遠景,中景,近景の各画像のレイヤを
生成し、右折や左折の動きパターンであると判別された
ときには、遠景,中景,近景の各画像のレイヤだけでな
く水平方向に移動される画像が含まれるレイヤも作成す
る。また、追越し車両がある動きパターンのときには、
遠景,中景,近景の各画像のレイヤだけでなくズームア
ウト画像が含まれるレイヤも作成するようにレイヤ設定
を行う。
The layer classification unit 26 determines the motion pattern of the front image from the motion vector MV of each detection area,
When generating the intermediate image information, for example, a distant view image layer of a distant subject, a near view image layer of a close subject, a middle view image layer located between the distant view image and the near view image, and The layer setting is performed by discriminating how to provide a layer different from these layers. For example, when a front image is taken by a vehicle-mounted camera and the vehicle goes straight in one direction, the front image is an image that is sequentially zoomed in. Further, when the vehicle is moving backward, the front image is sequentially zoomed out. Furthermore, when an overtaking vehicle is photographed, the overtaking vehicle is displayed as a zoomed-out image in the zoomed-in image. Further, when a right turn or a left turn is made, for example, the upper side of the front image is horizontally moved and the lower side becomes a zoomed-in image. Therefore, it is assumed that the motion pattern of the front image is determined from the motion vector MV of each detection area, and layer setting is performed based on the determined motion pattern. For example, when it is determined that the motion pattern goes straight in one direction, layers of each image of the distant view, the middle view, and the near view are generated, and when it is determined that the motion pattern is a right turn or a left turn, the distant view, the middle view, and the Not only the layer of each image in the foreground but also the layer containing the image to be moved in the horizontal direction is created. Also, when there is a motion pattern of an overtaking vehicle,
Layer settings are made so that not only the distant view, middle view, and near view images, but also the layers that include zoomed-out images are created.

【0022】また、レイヤ分類部26では、動き検出処
理部22から供給された動きベクトルMVに基づき、正
面画像の側端側に設定された各検出領域がいずれのレイ
ヤに属するかレイヤ分類を行う。このレイヤ分類では、
動きパターンに応じて設定されたレイヤを用いたレイヤ
分類を行う。例えば、遠景,中景,近景の3つのレイヤ
分けすると共に、水平方向に移動される画像が含まれる
レイヤやズームアウト画像が含まれるレイヤが生成され
ているときには、これらのレイヤも含めてレイヤ分類を
行う。このレイヤ分類によって、いずれの検出領域がい
ずれのレイヤに属するかを示すレイヤ分類情報LBを生
成すると共に、この生成されたレイヤ分類情報LBは情
報生成処理部27に供給される。
Further, the layer classification unit 26 classifies, based on the motion vector MV supplied from the motion detection processing unit 22, to which layer each detection region set on the side edge side of the front image belongs. . In this layer classification,
Layer classification is performed using layers set according to motion patterns. For example, when a layer including an image that is moved in the horizontal direction and a layer that includes a zoomed-out image are generated, the layers are divided into three layers, that is, a distant view, a middle view, and a near view. I do. By this layer classification, layer classification information LB indicating which detection region belongs to which layer is generated, and the generated layer classification information LB is supplied to the information generation processing unit 27.

【0023】情報生成処理部27では、レイヤ分類部2
6からのレイヤ分類情報LBに基づき正面画像に設定さ
れた各検出領域をレイヤ分けして、この検出領域の画像
信号をレイヤ毎にフレーム順に用いることでレイヤ毎の
中間画像信号を生成する。さらに、レイヤ分けされた検
出領域の動きベクトルMVの動き量からレイヤ毎に動き
量の平均値を算出する。この情報生成処理部27で生成
された中間画像信号GYvおよび算出したレイヤ毎の動
き量(平均値)MYvは、中間画像情報として蓄積部3
0の中間画像情報蓄積領域32に蓄積される。
In the information generation processing unit 27, the layer classification unit 2
Based on the layer classification information LB from 6, the detection regions set in the front image are divided into layers, and the image signals of the detection regions are used in the frame order for each layer to generate an intermediate image signal for each layer. Further, the average value of the motion amount is calculated for each layer from the motion amount of the motion vector MV of the detection area divided into layers. The intermediate image signal GYv generated by the information generation processing unit 27 and the calculated motion amount (average value) MYv for each layer are stored in the storage unit 3 as intermediate image information.
It is stored in the intermediate image information storage area 32 of 0.

【0024】スクリーン10C,10R,10Lで画像を
表示する場合には、蓄積されている画像信号SDCを読
み出して、この画像信号SDCに基づく画像をスクリー
ン10Cで表示する。また、蓄積部30に接続された周
辺画像信号生成ブロック40からの読出制御信号RCに
よって、中間画像情報蓄積領域32に蓄積されている中
間画像情報の読み出しを行い、レイヤ毎の動き量MYv
に応じた分だけ各レイヤの中間画像信号GYvを順次使
用して、遠景,中景,近景の順に各レイヤの画像を貼り
付ける。さらに遠景,中景,近景の3つのレイヤに属し
ないレイヤが設けられているときには、これらのレイヤ
の画像貼り付け処理等も行い、周辺画像信号SDL,S
DRを生成する。この周辺画像信号SDLを正面画像の画
像信号SDCに対応させたタイミングでプロジェクタ1
2Lに供給することで、正面画像に連続させて左側面画
像をスクリーン10Lに表示できると共に、周辺画像信
号SDRを正面画像の画像信号SDCに対応させたタイミ
ングでプロジェクタ12Rに供給することで、正面画像
に連続させて右側面画像をスクリーン10Rに表示でき
る。
When displaying an image on the screens 10C, 10R and 10L, the stored image signal SDC is read out and the image based on the image signal SDC is displayed on the screen 10C. The intermediate image information stored in the intermediate image information storage area 32 is read by the read control signal RC from the peripheral image signal generation block 40 connected to the storage unit 30, and the motion amount MYv for each layer is read.
By using the intermediate image signal GYv of each layer in accordance with the above, the images of each layer are pasted in the order of distant view, middle view, and near view. Further, when a layer that does not belong to the three layers of the distant view, the middle view, and the near view is provided, image pasting processing of these layers is also performed, and the peripheral image signals SDL, S
Generate DR. At this timing, the peripheral image signal SDL corresponds to the image signal SDC of the front image.
By supplying 2 L to the front side image, the left side image can be continuously displayed on the screen 10 L, and by supplying the peripheral image signal SDR to the projector 12R at a timing corresponding to the image signal SDC of the front image, The right side image can be displayed on the screen 10R continuously with the image.

【0025】次に、動き検出ブロック20を構成する各
部について詳細に説明する。なお、説明を簡単とするた
め、以下の説明では右側面についてのみ説明するものと
し、左側面についての説明は省略する。
Next, each part of the motion detection block 20 will be described in detail. For the sake of simplicity, only the right side surface will be described below, and the left side surface will not be described.

【0026】動き検出ブロック20では、上述したよう
に動きベクトルMVを検出領域毎に判別する。ここで、
正面画像に画像の移動中心がある場合、すなわち車載カ
メラで前方を撮影して正面画像としたとき、図5Aに示
す時刻Tの画像は、例えば1フレーム時間が経過した後
の時刻T’で図5Bに示すものとなり、あたかも画像が
涌き出てくるように見える位置CP(以下「画像基準位
置」という)を中心としたズームイン動作画像と略等し
くなる。
The motion detection block 20 determines the motion vector MV for each detection area as described above. here,
When the front image has a center of movement of the image, that is, when the front image is captured by a vehicle-mounted camera, the image at time T shown in FIG. 5A is displayed at time T ′ after one frame time has elapsed, for example. 5B, which is substantially the same as the zoom-in operation image centered on the position CP (hereinafter referred to as “image reference position”) as if the image appeared to come out.

【0027】ここで、図5Cに示すように、拡大率Zを
設定して注目フレームの検出領域を(1/Z)に縮小す
ると共に、この縮小された検出領域の位置を移動しなが
ら1フレーム前の画像信号との誤差和を算出する。さら
に拡大率Zを変化させて、同様に位置を移動しながら誤
差和を算出する。このようにして誤差和が最小値となる
位置を検出することで注目フレーム毎に各検出領域の動
きベクトルMVを判別できる。また、誤差和が最小値と
なるときの拡大率Zを動き量とする。
Here, as shown in FIG. 5C, the enlargement ratio Z is set to reduce the detection area of the target frame to (1 / Z), and one frame is moved while moving the position of the reduced detection area. The error sum with the previous image signal is calculated. Further, the magnification rate Z is changed, and the error sum is calculated while moving the position similarly. In this way, by detecting the position where the error sum has the minimum value, the motion vector MV of each detection region can be determined for each frame of interest. Further, the enlargement ratio Z when the error sum is the minimum value is the amount of movement.

【0028】ところで、縮小処理を行ったときには、領
域内の画素の座標値が整数値とならない画素が生ずる。
一方、縮小処理が行われていない1フレーム前の画像で
は、領域内の画素の座標値が整数値である。このため、
縮小された画像に対しては線形補間を行って、座標値が
整数値となる位置の信号レベルを算出する。例えば、図
6に示すようにKa×Ka画素の画像に対して(1/Z)
に縮小処理を行ったことにより画像のサイズがKb×Kb
画素のサイズとなったときには、線形補間を行ってKa
×Ka画素の信号から画素数を「Kb×Kb」とした画像
の信号レベルを算出する。この算出された信号レベル
と、縮小された画像と対応する位置の1フレーム前の信
号レベルの誤差和を算出することにより、精度良く動き
量を判別できる。
By the way, when the reduction processing is performed, some pixels do not have an integer coordinate value of the pixels in the area.
On the other hand, in the image one frame before which the reduction processing has not been performed, the coordinate values of the pixels in the region are integer values. For this reason,
Linear interpolation is performed on the reduced image to calculate the signal level at the position where the coordinate value is an integer value. For example, as shown in FIG. 6, for an image of Ka × Ka pixels (1 / Z)
Image size is Kb x Kb
When the pixel size is reached, linear interpolation is performed and Ka
From the signal of the × Ka pixel, the signal level of the image in which the number of pixels is “Kb × Kb” is calculated. By calculating the error sum of the calculated signal level and the signal level one frame before at the position corresponding to the reduced image, the motion amount can be accurately determined.

【0029】画像基準位置CPが明らかでないとき、図
7に示すように検出領域ARaの中心が位置Pa1から位置
Pa2とされたときに誤差和が最小値となり、検出領域A
Rbの中心が位置Pb1から位置Pb2とされたときに誤差和
が最小値となる場合には、検出領域ARaの動きベクトル
MVの方向と検出領域ARbの動きベクトルの方向が交差
する点を検出することで画像基準位置CPを検出でき
る。
When the image reference position CP is not clear, the error sum becomes the minimum value when the center of the detection area ARa is changed from the position Pa1 to the position Pa2 as shown in FIG.
When the error sum has the minimum value when the center of Rb is changed from the position Pb1 to the position Pb2, a point where the direction of the motion vector MV of the detection area ARa and the direction of the motion vector of the detection area ARb intersect is detected. As a result, the image reference position CP can be detected.

【0030】また、右折時や左折時には、正面画像の例
えば上部側画像が水平移動することとなる。このため、
画像基準位置CPを中心としてズームイン動作を行って
も誤差和の最小値が検出されない場合には、検出領域の
画像を横方向に移動させて誤差和の最小値を判別する。
またこのとき、誤差和が最小値となるまでの検出領域の
移動量を動きベクトルMVの動き量として設定すること
ができる。
When making a right turn or a left turn, for example, the upper image of the front image moves horizontally. For this reason,
When the minimum value of the error sum is not detected even when the zoom-in operation is performed centering on the image reference position CP, the image in the detection area is moved in the horizontal direction to determine the minimum value of the error sum.
At this time, the movement amount of the detection area until the error sum reaches the minimum value can be set as the movement amount of the motion vector MV.

【0031】次に、後退時にはあたかも画像が画像基準
位置CPに吸い込まれてしまうように見えることから、
後退時の画像は画像基準位置CPを中心としたズームア
ウト動作画像と略等しくなる。このため、拡大率Zを
「1」以下とする。すなわち、後退時には画像の動きが
前進時とは逆となることから、前フレームの側端側に複
数の検出領域を設定して、各検出領域を(1/Z)に縮
小すると共に、この縮小された領域の位置を移動しなが
ら注目フレームの画像との誤差和を算出する。あるい
は、注目フレームの各検出領域を(1/Z)に縮小する
と共に、この縮小された領域の位置を移動しながら1フ
レーム後の画像との誤差和を算出する。さらに拡大率Z
を変化させて、同様に位置を移動しながら誤差和を算出
する。このようにして誤差和が最小値となる位置を検出
することで後退時の動きベクトルMVも判別できる。
Next, since the image seems to be sucked into the image reference position CP when retreating,
The image at the time of retreat becomes substantially the same as the zoom-out operation image centered on the image reference position CP. Therefore, the enlargement ratio Z is set to "1" or less. That is, when moving backward, the movement of the image is opposite to that when moving forward. Therefore, a plurality of detection areas are set on the side edge side of the previous frame, and each detection area is reduced to (1 / Z). The error sum with the image of the frame of interest is calculated while moving the position of the designated area. Alternatively, each detection area of the frame of interest is reduced to (1 / Z), and the error sum with the image one frame after is calculated while moving the position of this reduced area. Further magnification Z
Is calculated, and the error sum is calculated while moving the position in the same manner. In this way, the motion vector MV at the time of backward movement can also be determined by detecting the position where the error sum is the minimum value.

【0032】以上のようにして動きベクトルMVの判別
を行うと、遠景の画像は動きが少ないことから動きベク
トルMVの動き量は小さくなり、近景の画像は動きが多
いことから動きベクトルMVの動き量は大きくなる。
When the motion vector MV is discriminated as described above, the amount of motion of the motion vector MV is small because the image in the distant view has little motion, and the motion amount of the motion vector MV is small in the image in the near view. The amount will increase.

【0033】図8は、動き検出処理部22の構成を示し
ており、画像信号SDCはサイズ変換処理部221に供
給されると共に、1フレーム遅延処理部21から供給さ
れた画像信号SDCaは誤差和算出部222に供給され
る。サイズ変換処理部221では、正面画像の側端部分
を複数の検出領域、例えば16×16画素サイズの単位
で複数の検出領域に分割して検出領域を設定する。さら
に、サイズ変換処理部221には、後述する探索制御部
225から拡大率Zが設定されて、検出領域の画像を
(1/Z)倍した画像信号FEzと、画像基準位置CP
を基準として検出領域の画像を(1/Z)倍したことに
より変換された座標値Pzを誤差和算出部222に供給
する。なお、画像信号FEzは、上述の図6に示すよう
に補間処理によって座標値を整数値に変換したときの信
号であり、座標値Pzは補間処理によって座標値を整数
値に変換したときの座標値、すなわち図6における「K
b×Kb」の画素位置である。
FIG. 8 shows the configuration of the motion detection processing section 22. The image signal SDC is supplied to the size conversion processing section 221, and the image signal SDCa supplied from the 1-frame delay processing section 21 is the sum of errors. It is supplied to the calculation unit 222. The size conversion processing unit 221 divides the side edge portion of the front image into a plurality of detection areas, for example, a plurality of detection areas in units of 16 × 16 pixels and sets the detection areas. Further, in the size conversion processing unit 221, the enlargement ratio Z is set from the search control unit 225 described later, and the image signal FEz obtained by multiplying the image of the detection area by (1 / Z) and the image reference position CP.
The coordinate value Pz converted by multiplying the image of the detection area by (1 / Z) is supplied to the error sum calculation unit 222. The image signal FEz is a signal when the coordinate value is converted into an integer value by the interpolation process as shown in FIG. 6, and the coordinate value Pz is the coordinate when the coordinate value is converted into the integer value by the interpolation process. Value, that is, "K" in FIG.
The pixel position is “b × Kb”.

【0034】誤差和算出部222では、サイズ変換処理
部221からの座標値Pzで示された位置の信号を画像
信号SDCaから選択する共に、この選択された信号と画
像信号FEzとの誤差和を算出して比較処理部223に
通知する。
The error sum calculation unit 222 selects the signal at the position indicated by the coordinate value Pz from the size conversion processing unit 221 from the image signal SDCa, and calculates the error sum between the selected signal and the image signal FEz. It is calculated and notified to the comparison processing unit 223.

【0035】比較処理部223では、誤差和最小値と誤
差和算出部222で算出された誤差和とを比較する。こ
こで誤差和最小値が設定されていないときには、最初に
算出された誤差和を誤差和最小値として設定する。この
算出された誤差和が誤差和最小値よりも小さいときに
は、この誤差和を新たな誤差和最小値として設定すると
共に、誤差和最小値が更新されたことをデータ保持部2
24に通知する。また、誤差和最小値と誤差和算出部2
22で算出された誤差和との比較が完了したことを信号
ESによって探索制御部225に通知する。なお、誤差
和最小値は算出される誤差和よりも大きい値に予め設定
しておくものとしても良い。
The comparison processing unit 223 compares the minimum error sum value with the error sum calculated by the error sum calculation unit 222. If the error sum minimum value is not set here, the error sum calculated first is set as the error sum minimum value. When the calculated error sum is smaller than the error sum minimum value, this data error sum is set as a new error sum minimum value, and the data holding unit 2 indicates that the error sum minimum value has been updated.
Notify 24. In addition, the minimum error sum and the error sum calculation unit 2
The search control unit 225 is notified by the signal ES that the comparison with the error sum calculated in step 22 has been completed. The minimum error sum value may be set in advance to a value larger than the calculated error sum.

【0036】データ保持部224には、探索制御部22
5から拡大率Zが通知されており、誤差和最小値が更新
されたことが通知されたときには、通知された拡大率Z
を記憶する。また、既に拡大率が記憶されているときに
は、記憶されている拡大率を通知された拡大率Zで更新
する。また、探索制御部225から拡大率の変更処理の
完了が信号ETによって通知されたときには、記憶して
いる拡大率を動き量とすると共に画像基準位置方向をベ
クトル方向とした動きベクトルMVをレイヤ分類部26
に供給する。
The data holding unit 224 includes a search control unit 22.
When the enlargement ratio Z is notified from 5 and it is notified that the minimum error sum is updated, the notified enlargement ratio Z
Memorize If the enlargement ratio has already been stored, the stored enlargement ratio is updated with the notified enlargement ratio Z. Further, when the search control unit 225 notifies the completion of the change processing of the enlargement ratio by the signal ET, the stored enlargement ratio is used as the motion amount and the motion vector MV having the image reference position direction as the vector direction is classified into layers. Part 26
Supply to.

【0037】探索制御部225では、拡大率の下限値が
「1」に設定されていると共に、上限値も予め設定され
ており、最初に下限値を拡大率Zとしてサイズ変換処理
部221とデータ保持部224に通知する。その後、比
較処理部223から誤差和最小値と誤差和算出部222
で算出された誤差和との比較が完了したことが通知され
る毎に、拡大率Zを順次増加してサイズ変換処理部22
1とデータ保持部224に通知する。その後、拡大率Z
が上限値に達したときには拡大率の変更処理の完了をデ
ータ保持部224に通知する。
In the search control unit 225, the lower limit value of the enlargement ratio is set to "1" and the upper limit value is also preset. First, the lower limit value is set as the enlargement ratio Z and the size conversion processing unit 221 and the data are set. Notify the holding unit 224. After that, the comparison processing unit 223 outputs the error sum minimum value and the error sum calculation unit 222.
Each time it is notified that the comparison with the error sum calculated in step 1 is completed, the enlargement factor Z is sequentially increased to increase the size conversion processing unit 22.
1 and the data holding unit 224. After that, the enlargement ratio Z
When reaches the upper limit, the data holding unit 224 is notified of the completion of the enlargement ratio changing process.

【0038】また、比較処理部223で得られた誤差和
最小値が小さくないとき、すなわち正面画像の側端部分
と等しい画像を検出できないとき、探索制御部225で
は、拡大率Zを「1」としてサイズ変換処理部221に
通知して、検出領域の画像信号FEzを誤差和算出部2
22に供給させる。また、制御信号RPを誤差和算出部
222に供給して、画像信号FEzの検出領域を水平方
向に所定量移動させた位置の信号を画像信号SDCaから
選択させる。その後、制御信号RPによって画像信号S
DCaから選択する位置を水平方向に移動させて誤差和最
小値を判別することにより、水平方向に移動させる画像
の動きベクトルMVも求めることができる。さらに、図
示せずも1フレーム後の信号を誤差和算出部222に供
給したり、1フレーム前の画像に検出領域を設定して注
目フレームの画像の信号を誤差和算出部222に供給す
ることで、画像基準位置CPに吸い込まれるような画像
の動き量も判別できる。
When the minimum error sum obtained by the comparison processing unit 223 is not small, that is, when an image equal to the side edge portion of the front image cannot be detected, the search control unit 225 sets the enlargement ratio Z to "1". To the size conversion processing unit 221, and the image signal FEz in the detection area is calculated as the error sum calculation unit 2
22. Further, the control signal RP is supplied to the error sum calculation unit 222, and the signal at the position where the detection area of the image signal FEz is moved by a predetermined amount in the horizontal direction is selected from the image signal SDCa. Then, the image signal S is generated by the control signal RP.
By moving the position selected from DCa in the horizontal direction and determining the error sum minimum value, the motion vector MV of the image to be moved in the horizontal direction can also be obtained. Further, although not shown, a signal after one frame is supplied to the error sum calculation unit 222, or a detection region is set in the image one frame before and the signal of the image of the target frame is supplied to the error sum calculation unit 222. Thus, the amount of movement of the image that is sucked into the image reference position CP can also be determined.

【0039】このように、探索方向を画像基準位置CP
の方向や水平方向に移動させて、検出領域の画像と誤差
和が最小となる他のフレームの画像位置を検出すること
で、検出領域の画像が右折や左折したときの画像、前を
横切る車や人等の画像、あるいは追越し車両等の画像で
あっても正しく動きベクトルMVを求めることができ
る。
In this way, the search direction is set to the image reference position CP.
Direction or the horizontal direction to detect the image position of the image in the detection area and the image of another frame where the error sum is the minimum. The motion vector MV can be correctly obtained even for an image of a person, a person, or an overtaking vehicle.

【0040】レイヤ分類部26では、各検出領域の動き
ベクトルMVから正面画像がどのような動きパターンの
画像であるかを判別すると共に、判別した動きパターン
に基づいてレイヤを設定して、いずれの領域がいずれの
レイヤに属するするかを示すレイヤ分類情報LBを情報
生成処理部27に供給する。
The layer classification unit 26 determines from the motion vector MV of each detection region what kind of motion pattern the front image is, and sets a layer based on the determined motion pattern to determine which one. The layer classification information LB indicating which layer the area belongs to is supplied to the information generation processing unit 27.

【0041】図9は、レイヤ分類部26の構成を示して
いる。レイヤ分類部26の動きパターン判定部261で
は、動き検出処理部22から供給された各検出領域の動
きベクトルMVをフレーム単位で蓄積すると共に、蓄積
された動きベクトルMVに基づき動きパターンを判別す
る。
FIG. 9 shows the structure of the layer classification unit 26. The motion pattern determination unit 261 of the layer classification unit 26 accumulates the motion vector MV of each detection region supplied from the motion detection processing unit 22 on a frame-by-frame basis, and determines the motion pattern based on the accumulated motion vector MV.

【0042】ここで、各検出領域の動きベクトルMVの
方向が、画像基準位置CPから放射方向とされて、全て
画像が画像基準位置CPから沸き出すズームイン動作方
向であるか否かを判別して、全て画像が画像基準位置C
Pから沸き出すズームイン動作方向であるときには直進
動作と判別する。例えば、図10Aの矢印で示すように
動きベクトルMVのベクトル方向が画像基準位置CPか
ら放射方向とされているときには直進動作と判別する。
Here, it is discriminated whether or not the direction of the motion vector MV of each detection area is the radial direction from the image reference position CP and all images are zoom-in operation directions that boil out from the image reference position CP. , All images are image reference position C
When it is the zoom-in operation direction that comes out of P, it is determined to be a straight-ahead operation. For example, when the vector direction of the motion vector MV is the radial direction from the image reference position CP as shown by the arrow in FIG.

【0043】次に、直進動作と判別されないときには、
各検出領域の動きベクトルMVの方向が放射方向とは逆
方向であり、全て画像が画像基準位置CPに吸い込まれ
るズームアウト動作方向であるか否かを判別して、全て
画像が画像基準位置CPに吸い込まれるズームアウト動
作方向であるときには後退動作と判別する。例えば、図
10Bの矢印で示すように画像基準位置CPの方向とさ
れて、全て画像が画像基準位置CPに吸い込まれるズー
ムアウト動作方向であることを検出したときには後退動
作と判別する。
Next, when it is not determined that the vehicle is going straight,
It is determined whether or not the direction of the motion vector MV of each detection area is the direction opposite to the radial direction, and all the images are in the zoom-out operation direction in which the images are sucked into the image reference position CP. When it is the zoom-out operation direction that is sucked in, it is determined to be the backward operation. For example, when it is set to the direction of the image reference position CP as indicated by the arrow in FIG. 10B and it is detected that all the images are in the zoom-out operation direction in which the image is sucked into the image reference position CP, it is determined to be the backward movement.

【0044】また、直進動作および後退動作と判別され
ないときには、一部のみがズームアウト動作方向である
か否かを判別して、一部のみがズームアウト動作方向で
あるときには、追越し車両があると判別する。例えば、
図10Cに示すように左右両側端部の検出領域の動きが
ズームイン動作方向であると共に、一部のみがズームア
ウト動作方向であることを検出したときには追越し車両
があると判別する。さらに、直進動作,後退動作および
追越し車両があるものと判別されないとき、正面画像の
上部側の検出領域で、図10Dに示すように動きベクト
ルMVのベクトル方向が水平方向とされているときに
は、ベクトル方向に応じて右折あるいは左折動作と判別
する。また検出領域の一部で、図10Eに示すように動
きベクトルMVのベクトル方向が水平方向であるときに
は、横切り動作であると判別する。このようにして判別
した動きパターンMPをレイヤ作成判定部262に通知
する。
When it is not determined that the vehicle is going straight or backward, it is determined whether only a part is in the zoom-out operation direction. When only part is in the zoom-out operation direction, there is an overtaking vehicle. Determine. For example,
As shown in FIG. 10C, it is determined that there is an overtaking vehicle when it is detected that the movements of the detection regions at the left and right ends are in the zoom-in operation direction and only part of the movement is in the zoom-out operation direction. Further, when it is not determined that there is a straight ahead motion, a backward motion, and an overtaking vehicle, in the detection area on the upper side of the front image, when the vector direction of the motion vector MV is horizontal as shown in FIG. A right turn or a left turn operation is determined depending on the direction. Further, in a part of the detection area, when the motion vector MV has a horizontal vector direction as shown in FIG. The motion pattern MP determined in this way is notified to the layer creation determination unit 262.

【0045】レイヤ作成判定部262では、動きパター
ン判定部261で判別された動きパターンMPに基づ
き、判別された動きパターンが所定のフレーム数以上連
続したか否かを判別する。ここで、動きパターンが所定
のフレーム数以上連続したとき判別された動きパターン
に応じたレイヤパターン情報LPを生成する。
The layer creation determination unit 262 determines whether or not the determined motion pattern has continued for a predetermined number of frames or more based on the motion pattern MP determined by the motion pattern determination unit 261. Here, the layer pattern information LP corresponding to the motion pattern determined when the motion pattern continues for a predetermined number of frames or more is generated.

【0046】ここで、前進動作のように全画面が拡大す
る動きパターンであることが連続して所定のフレーム数
以上判別されたときには、例えば遠景,中景,近景のレ
イヤの作成を指示するレイヤパターン情報LPを生成し
て分類処理部263に通知する。また、右折あるいは左
折動作のように上部が水平方向に移動する動きパターン
であることが連続して所定のフレーム数以上判別された
ときには、遠景,中景,近景のレイヤだけでなく水平方
向に移動する画像が含まれるレイヤの作成を指示するレ
イヤパターン情報LPを生成して分類処理部263に通
知する。また、追越し車両や後退時のように時間と共に
縮小する画像が含まれている動きパターンであることが
連続して所定のフレーム数以上連続して判別されたとき
には、遠景,中景,近景のレイヤだけでなく縮小する画
像が含まれる後退レイヤの作成を指示するレイヤパター
ン情報LPを生成する。また、横切り物体のように、一
部が水平方向に移動する動きパターンであることが連続
して所定のフレーム数以上判別されたときには、水平方
向に移動する画像が含まれるレイヤの作成を指示するレ
イヤパターン情報LPを生成する。このように、判別さ
れた動きパターンが所定のフレーム数以上連続したとき
に、判別された動きパターンMPに応じたレイヤパター
ン情報LPが生成されるので、動きパターンが誤って判
別されたフレームが生じても、正しい動きパターンに応
じたレイヤパターン情報LPを生成できる。
Here, when it is continuously determined that the motion pattern is such that the entire screen is enlarged like a forward motion for a predetermined number of frames or more, for example, a layer for instructing the formation of a distant view, middle view, and near view layer. The pattern information LP is generated and notified to the classification processing unit 263. Also, when it is continuously determined that the upper part is a motion pattern in which the upper part moves in the horizontal direction such as a right turn or a left turn, a predetermined number of frames or more are continuously detected, the horizontal pattern is moved not only in the distant view, middle view, and near view layers. The layer pattern information LP instructing the generation of the layer including the image to be generated is generated and notified to the classification processing unit 263. Further, when it is continuously determined that the motion pattern includes an image that shrinks with time such as an overtaking vehicle or when reversing, the distant view, middle view, and near view layers are continuously identified. Not only that, the layer pattern information LP for instructing the creation of the receding layer including the image to be reduced is generated. Also, when it is continuously determined that a part of the movement pattern is a horizontal movement pattern, such as a transverse object, for a predetermined number of frames or more, an instruction to create a layer including an image that moves in the horizontal direction is issued. The layer pattern information LP is generated. In this way, when the determined motion pattern continues for a predetermined number of frames or more, the layer pattern information LP corresponding to the determined motion pattern MP is generated, so that a frame in which the motion pattern is erroneously determined occurs. However, the layer pattern information LP according to the correct motion pattern can be generated.

【0047】閾値設定部264では、所定時間範囲(例
えば注目フレームの前後30フレーム分)の動きベクト
ルMVを用いて、ベクトル方向が画像基準位置CPから
放射方向とされている動きベクトルMVの動き量の平均
値Vavgや最大値Vmax,最小値Vminを求めると共に、
この平均値Vavgや最大値Vmax,最小値Vminに基づ
き、レイヤパターン情報LPで示されたレイヤに分類す
るための閾値Thを設定して分類処理部263に供給す
る。
The threshold setting unit 264 uses the motion vector MV in a predetermined time range (for example, 30 frames before and after the frame of interest) to calculate the motion amount of the motion vector MV whose vector direction is the radial direction from the image reference position CP. Of the average value Vavg, the maximum value Vmax, and the minimum value Vmin of
Based on the average value Vavg, the maximum value Vmax, and the minimum value Vmin, a threshold value Th for classifying into the layer indicated by the layer pattern information LP is set and supplied to the classification processing unit 263.

【0048】例えばレイヤパターン情報LPによって遠
景,中景,近景のレイヤに分けることが示された場合、
遠景レイヤと中景レイヤとの区分位置を示す閾値Th1を
式(1)に基づいて算出する。また中景レイヤと近景レ
イヤの区分位置を示す閾値Th2を式(2)に基づいて算
出する。
For example, when it is indicated by the layer pattern information LP that the layers are divided into the distant view, the middle view, and the near view,
A threshold Th1 indicating the division position between the distant view layer and the middle view layer is calculated based on the equation (1). Further, the threshold Th2 indicating the division position of the middle view layer and the near view layer is calculated based on the equation (2).

【0049】[0049]

【数1】 [Equation 1]

【0050】この閾値の設定では、図11に示すように
動き量のヒストグラムを求めて、このヒストグラムの極
小値を利用して閾値Th1,Th2を求めるものとしても良
い。このように、動き量の分布に応じて閾値Thが動的
に変化されるので、画像が1つのレイヤだけに分類され
てしまうことがなく、動き量の分布に応じて良好にレイ
ヤ分類を行うことができる。
In setting the threshold value, a histogram of the amount of movement may be obtained as shown in FIG. 11, and the minimum value of the histogram may be used to obtain the threshold values Th1 and Th2. In this way, the threshold value Th is dynamically changed according to the distribution of the motion amount, so that the image is not classified into only one layer, and the layer is favorably classified according to the distribution of the motion amount. be able to.

【0051】分類処理部263では、閾値設定部264
からの閾値Thと動きベクトルMVの動き量に基づい
て、各フレームの各検出領域がレイヤパターン情報LP
で作成が指示されたレイヤのいずれに属するかを判別し
てレイヤ分類を行う。また、水平方向に移動する検出領
域やズームアウト動作方向の検出領域は、それぞれ対応
するレイヤへの割当てを行う。この分類処理部263で
注目フレームの各検出領域のレイヤ分類が完了したとき
には、このレイヤ分類の結果を示すレイヤ分類情報LA
を分類補正部265に供給する。
In the classification processing unit 263, the threshold setting unit 264
Based on the threshold value Th and the motion amount of the motion vector MV, each detection region of each frame has the layer pattern information LP.
The layer classification is performed by discriminating to which of the layers the creation of which is instructed. Further, the detection area that moves in the horizontal direction and the detection area in the zoom-out operation direction are assigned to the corresponding layers. When the classification processing unit 263 completes the layer classification of each detection area of the frame of interest, the layer classification information LA indicating the result of the layer classification.
Is supplied to the classification correction unit 265.

【0052】ここで、分類処理部263では、遠景,中
景,近景の3つのレイヤを作成する際には、動き検出処
理部22からの動きベクトルMVを用いて、検出領域毎
に前mフレーム分と後nフレーム分の動き量の平均値を
算出する。例えば、正面画像の右側端部に設けた検出領
域において、動きベクトルMVの動き量が時間の経過と
共に図12Aに示すように変化したとき(図の数字は動
き量を示すものとする)には、Fpフレームでの検出領
域AR1に対して、Fpフレームでの検出領域AR1の動き
量と、Fp-1〜Fp-mフレームの検出領域AR1の動き量
と、Fp+1〜Fp+nフレームの検出領域AR1の動き量か
ら、動き量の平均値を算出する。さらに、検出領域AR1
の動き量として算出された平均値と、上述のようにして
設定された閾値Th1,Th2を比較することで、このFp
フレームでの検出領域AR1が遠景,中景,近景のいずれ
のレイヤに属するかを判別する。このように、注目フレ
ームの検出領域AR1について、前フレームや後フレーム
の動き量も用いて動き量の平均値を算出して、この平均
値を用いて検出領域AR1のレイヤ分けを行うので、検出
領域AR1の動き量に誤りが生じても、この検出領域AR1
のレイヤ分類することができると共に、被写体の大きさ
の差や被写体までの距離の差によってフレーム毎の動き
量の変動が生じても、これらの変動の影響を防止でき
る。また、他の領域や他のフレームに対しても同様に処
理することで、図12Bに示すように各検出領域を遠
景,中景,近景のいずれかのレイヤに分類して、レイヤ
分類情報LAを分類補正部265に通知する。なお図1
2Bにおいて、クロスハッチで示す検出領域は近景、斜
線で示す検出領域は中景、他の検出領域は遠景として分
類されたことを示している。
Here, when the classification processing unit 263 creates three layers of the distant view, the middle view, and the near view, the motion vector MV from the motion detection processing unit 22 is used to detect the previous m frames for each detection region. Minute and the amount of movement of the subsequent n frames is calculated. For example, when the motion amount of the motion vector MV changes over time as shown in FIG. 12A in the detection area provided at the right end portion of the front image (the numbers in the figure indicate the motion amount). , The amount of motion of the detection region AR1 in the Fp frame, the amount of motion of the detection region AR1 in the Fp-1 to Fp-m frames, and the amount of motion in the Fp + 1 to Fp + n frames with respect to the detection region AR1 in the Fp frame. An average value of the movement amount is calculated from the movement amount of the detection area AR1. Furthermore, the detection area AR1
By comparing the average value calculated as the amount of movement of Fp with the thresholds Th1 and Th2 set as described above, this Fp
It is determined whether the detection area AR1 in the frame belongs to the distant view, the middle view, or the near view. In this way, for the detection area AR1 of the target frame, the average value of the movement amount is calculated using the movement amounts of the previous frame and the subsequent frame, and the detection area AR1 is layered using this average value. Even if an error occurs in the movement amount of the area AR1, this detection area AR1
The layers can be classified, and even if the amount of movement of each frame varies due to the difference in the size of the subject or the difference in the distance to the subject, the influence of these variations can be prevented. Further, by performing similar processing on other areas and other frames, each detection area is classified into any of the distant view, middle view, and near view layers as shown in FIG. 12B, and the layer classification information LA To the classification correction unit 265. Figure 1
In FIG. 2B, the detection area indicated by the cross hatch is classified as the near view, the detection area indicated by the diagonal lines is classified as the middle view, and the other detection areas are classified as the distant view.

【0053】分類補正部265では、各検出領域のレイ
ヤ分類情報LAを参照して、同じレイヤに属する領域の
連結数が所定の数よりも少ない領域は周囲に合わせたレ
イヤに補正する。例えば図12Bでは、Fp+4フレーム
の領域AR4-gやFp-2フレームの領域AR6-hでは、同じ
レイヤに属する領域が連結していないので、これらの領
域を図12Cに示すように周囲に合わせた領域に補正し
て、いずれの領域がいずれのレイヤとされているかを示
すレイヤ分類情報LBを、情報生成処理部27に供給す
る。
The classification correction unit 265 refers to the layer classification information LA of each detection area, and corrects an area belonging to the same layer where the number of connected areas is smaller than a predetermined number to a layer matched with the surrounding area. For example, in FIG. 12B, in the area AR4-g of the Fp + 4 frame and the area AR6-h of the Fp-2 frame, since the areas belonging to the same layer are not connected, these areas are surrounded as shown in FIG. 12C. The layer classification information LB that corrects the combined area and indicates which area is set as which layer is supplied to the information generation processing unit 27.

【0054】また、追越し車両があるときには、上述の
遠景,中景,近景だけでなく、図12Dに示すように追
い越し車両の画像が含まれる後退レイヤが生成される。
ここで、追越し車両は、遠景や中景および近景の画像と
は動きベクトルMVの方向が逆であることから、後退レ
イヤの時間軸方向は、他のレイヤとは方向を逆として生
成する。
When there is an overtaking vehicle, not only the above-mentioned distant view, middle view, and near view, but also a retreat layer including an image of the overtaking vehicle is generated as shown in FIG. 12D.
Here, since the passing vehicle has the direction of the motion vector MV that is opposite to that of the images of the distant view, the middle view, and the near view, the time axis direction of the backward layer is generated with the direction opposite to that of the other layers.

【0055】図13は情報生成処理部27の構成を示し
ている。レイヤ分類部26から供給されたレイヤ分類情
報LBは、動き量平均値算出部271と画像読み込み部
272に供給される。
FIG. 13 shows the configuration of the information generation processing unit 27. The layer classification information LB supplied from the layer classification unit 26 is supplied to the motion amount average value calculation unit 271 and the image reading unit 272.

【0056】動き量平均値算出部271では、各検出領
域の動き量を用いて、レイヤ毎の動き量の平均値をフレ
ーム毎に算出する。例えばFeフレームのときに、遠景
レイヤとされた検出領域がny個であるときには、この
ny個の検出領域の動き量を用いて平均値を算出して画
像読み込み部272に供給すると共に、この算出した動
き量MYvを中間画像情報として蓄積部30の中間画像
情報蓄積領域32に記憶させる。
The motion amount average value calculation unit 271 calculates the average value of the motion amount for each layer for each frame using the motion amount of each detection area. For example, in the case of the Fe frame, when there are ny detection areas as distant view layers, an average value is calculated using the movement amounts of the ny detection areas and the average value is supplied to the image reading unit 272, and this calculation is performed. The calculated motion amount MYv is stored in the intermediate image information storage area 32 of the storage unit 30 as intermediate image information.

【0057】画像読み込み部272では、レイヤ分類部
26から供給されたレイヤ分類情報LBに基づき、側端
部から動き量平均値算出部271で算出された動き量M
Yvに応じてレイヤ毎に画像信号SDCを抽出してレイヤ
毎の中間画像信号GFvを生成して、中間画像信号補間
部273に供給する。
In the image reading unit 272, based on the layer classification information LB supplied from the layer classification unit 26, the motion amount M calculated by the motion amount average value calculation unit 271 from the side end portion.
The image signal SDC is extracted for each layer according to Yv to generate an intermediate image signal GFv for each layer, and the intermediate image signal GFv is supplied to the intermediate image signal interpolation unit 273.

【0058】ここで、各レイヤの動き量MYvに応じた
信号量だけ画像信号SDCを側端部から読み出して中間
画像信号を生成すると、例えば中間画像信号に基づく画
像は図14に示すものとなる。なお、図14Aは遠景レ
イヤの中間画像信号に基づく画像、図14Bは中景レイ
ヤの中間画像信号に基づく画像、図14Cは近景レイヤ
の中間画像信号に基づく画像を示している。
Here, when the image signal SDC is read from the side edge portion by the signal amount corresponding to the movement amount MYv of each layer to generate an intermediate image signal, for example, an image based on the intermediate image signal is as shown in FIG. . 14A shows an image based on the intermediate image signal of the distant view layer, FIG. 14B shows an image based on the intermediate image signal of the middle view layer, and FIG. 14C shows an image based on the intermediate image signal of the near view layer.

【0059】中間画像信号補間部273では、動き量M
Yvの異なる各レイヤの画像を遠景,中景,近景の順に
貼り付けても、画像のないアンカバード(Uncovered)領
域が生ずることがないように中間画像信号GFvの補正
を行い、補正された信号を中間画像信号GYvとして中
間画像情報蓄積領域32に記憶させる。この中間画像信
号の補正では、手前のレイヤに対して全てを補間する
と、奥のレイヤが隠れてしまうこととなる。したがっ
て、最も奥のレイヤに対しては隙間全部を補間するもの
とし、中間に位置するレイヤではこのレイヤよりも手前
のレイヤに属する領域によって生成された隙間に対して
のみ、水平方向に隣接する信号を用いた補間処理を行
い、画像の無い隙間領域の画像信号を作り出して中間画
像信号に貼り付ける。このように補間処理を行うこと
で、図14Aに示す中間画像信号GFvに基づく画像
は、画像の無い部分(斜線で塗りつぶした領域)が水平
方向に隣接する信号を用いて補間されて、図15Aに示
すような画像となる。同様に、図14Bに示す中間画像
信号GFvに基づく画像は図15Bに示すように補正さ
れた画像となる。なお、最も手前に位置するレイヤが例
えば図14Cに示す近景レイヤであるものとしたとき、
最も手前に位置するレイヤではアンカバード領域が生じ
ないので、補間処理は不要となり、図15Cに示す近景
レイヤは図14Cと等しいものである。
In the intermediate image signal interpolating unit 273, the motion amount M
Even if the images of the layers with different Yv are pasted in the order of the distant view, the middle view, and the near view, the intermediate image signal GFv is corrected so that an uncovered area without an image does not occur. Is stored in the intermediate image information storage area 32 as the intermediate image signal GYv. In this correction of the intermediate image signal, if all of the layers in the front are interpolated, the layers in the back will be hidden. Therefore, for the innermost layer, the entire gap is interpolated, and for the layer located in the middle, only signals that are horizontally adjacent to the gap created by the region belonging to the layer before this layer. Interpolation processing is performed to generate an image signal of a gap area where there is no image and paste it to the intermediate image signal. By performing the interpolation process in this manner, the image based on the intermediate image signal GFv shown in FIG. 14A is interpolated using signals in which the image-less portion (the shaded area) is horizontally adjacent, and the image shown in FIG. The image is as shown in. Similarly, the image based on the intermediate image signal GFv shown in FIG. 14B becomes an image corrected as shown in FIG. 15B. When the layer located closest to the foreground is, for example, the near view layer shown in FIG. 14C,
Since the uncovered area does not occur in the layer located closest to the foreground, interpolation processing is unnecessary, and the near view layer shown in FIG. 15C is the same as that in FIG. 14C.

【0060】蓄積部30の中間画像情報蓄積領域32に
は、中間画像情報生成ブロック25で生成されたレイヤ
毎の動き量MYvとレイヤ毎の中間画像信号GYvをフレ
ーム毎に関係付けて、中間画像情報として記憶される。
ここで、中間画像情報蓄積領域32に記憶された遠景レ
イヤの中間画像信号は、動き量が少ないことから図15
Aに示すように画像信号の信号量は少なくなる。また近
景レイヤの中間画像信号では、動き量が大きいことから
図15Cに示すように信号量も多くなる。また中景レイ
ヤでは図15Bに示すように遠景と中景の中間である信
号量となる。なお、後退レイヤでは、動き方向が逆であ
ることから後退レイヤの中間画像信号では、図15A〜
図15Cとはフレーム方向が逆となる。
In the intermediate image information storage area 32 of the storage section 30, the motion amount MYv for each layer generated in the intermediate image information generation block 25 and the intermediate image signal GYv for each layer are associated with each other for each frame, It is stored as information.
Here, since the amount of motion of the intermediate image signal of the distant view layer stored in the intermediate image information storage area 32 is small, FIG.
As shown in A, the signal amount of the image signal decreases. In addition, the intermediate image signal of the near view layer has a large amount of motion and thus has a large amount of signal as shown in FIG. 15C. In the middle view layer, the signal amount is between the distant view and the middle view, as shown in FIG. 15B. It should be noted that, in the backward layer, the movement directions are opposite, so that in the intermediate image signal of the backward layer, FIG.
The frame direction is opposite to that in FIG. 15C.

【0061】レイヤパターン情報LPに基づいて水平移
動レイヤを作成するものと指示されたときには、動きベ
クトルの方向が水平方向とされている検出領域の画像信
号を、この水平移動レイヤの中間画像信号に設定する。
ここで、水平方向に移動する画像では、正面画像から外
に移動する画像と中に入り込む画像が生じる。例えば、
右折時には、正面画像の右側端部から画像が入り込み左
側端部から画像が出ていく。このため、外に移動する画
像の水平移動レイヤは遠景レイヤ等と時間軸方向を等し
くすると共に、中に入り込む画像の水平移動レイヤは後
退レイヤと同様に、遠景レイヤ等とは時間軸方向を逆方
向とする。
When it is instructed to create a horizontal movement layer based on the layer pattern information LP, the image signal of the detection area in which the direction of the motion vector is the horizontal direction is used as the intermediate image signal of this horizontal movement layer. Set.
Here, in an image that moves in the horizontal direction, an image that moves outward from the front image and an image that enters the front image occur. For example,
When making a right turn, the image enters from the right end of the front image and the image exits from the left end. Therefore, the horizontal movement layer of the image moving outward has the same time axis direction as that of the distant view layer, and the horizontal movement layer of the image moving inward has the same time axis direction as that of the backward view layer. Direction.

【0062】このようにして、中間画像情報蓄積領域3
2には、遠景,中景,近景の各レイヤの中間画像信号と
後退レイヤや水平移動レイヤの中間画像信号が動き量に
応じて生成されて記憶される。また、各レイヤの動き量
も上述のように合わせて記憶される。
In this way, the intermediate image information storage area 3
In 2, the intermediate image signals of the distant view, middle view, and near view layers and the intermediate image signals of the backward layer and the horizontal movement layer are generated and stored according to the amount of motion. Further, the amount of movement of each layer is also stored together as described above.

【0063】次に、蓄積部30の中間画像情報蓄積領域
32に記憶された中間画像情報を用いて右側面の画像の
周辺画像信号SDRを生成する場合について説明する。
このように、周辺画像信号SDRを生成する場合、中間
画像情報蓄積領域32から中間画像情報として記憶され
ている動き量MYvを読み出して、レイヤ毎の中間画像
信号GYvの信号読み出し量を動き量MYvに基づいて決
定する。さらに、この動き量MYvに応じた信号量の中
間画像信号をレイヤ毎に使用して、遠景レイヤ,中景レ
イヤ、近景レイヤの順に貼り付ける。また、遠景,中
景,近景のレイヤとは異なるレイヤが設けられていると
きには、このレイヤの画像の貼り付け処理も行い、周辺
画像信号SDRを生成できる。この生成した周辺画像信
号SDRを正面画像の画像信号SDCの出力タイミングに
合わせてプロジェクタ12Rに供給することで、正面画
像だけでなく右側面の画像も連続的に表示させることが
できる。
Next, a case will be described in which the peripheral image signal SDR of the image on the right side surface is generated using the intermediate image information stored in the intermediate image information storage area 32 of the storage section 30.
As described above, when the peripheral image signal SDR is generated, the motion amount MYv stored as the intermediate image information is read from the intermediate image information storage area 32, and the signal read amount of the intermediate image signal GYv for each layer is set as the motion amount MYv. Based on. Further, an intermediate image signal having a signal amount corresponding to the motion amount MYv is used for each layer, and the distant view layer, the middle view layer, and the near view layer are pasted in this order. Further, when a layer different from the distant view, middle view, and near view layers is provided, the image pasting process of this layer can also be performed to generate the peripheral image signal SDR. By supplying the generated peripheral image signal SDR to the projector 12R in synchronization with the output timing of the image signal SDC of the front image, not only the front image but also the right side image can be continuously displayed.

【0064】図16は、中間画像情報蓄積領域32に記
憶されている中間画像情報を読み出して周辺画像信号を
生成する周辺画像信号生成ブロック40の構成を示して
いる。周辺画像信号生成ブロック40の画像生成制御部
41では、中間画像情報蓄積領域32に中間画像情報と
して記憶されているレイヤ毎の動き量MYvをフレーム
順に読み出して、この読み出した動き量MYvに基づき
レイヤ毎の中間画像信号の読み出し量を判別する。この
画像生成制御部41で判別された読み出し量に基づい
て、中間画像情報蓄積領域32から中間画像信号GYv
をレイヤ毎に読み出して、レイヤ画像生成処理部42に
設けられているレイヤ毎の貼り付け部421-1〜421
-5に供給する。
FIG. 16 shows the configuration of a peripheral image signal generation block 40 which reads the intermediate image information stored in the intermediate image information storage area 32 and generates a peripheral image signal. In the image generation control unit 41 of the peripheral image signal generation block 40, the motion amount MYv for each layer stored as the intermediate image information in the intermediate image information storage area 32 is read in the frame order, and the layer is read based on the read motion amount MYv. The read amount of the intermediate image signal for each is determined. Based on the read amount determined by the image generation control unit 41, the intermediate image information GYv is read from the intermediate image information storage area 32.
Is read for each layer, and the pasting units 421-1 to 421 for each layer provided in the layer image generation processing unit 42 are read.
-Supply to 5.

【0065】ここで、右左折時に水平方向に移動する水
平移動レイヤの中間画像信号は貼り付け部421-1に供
給する。また、遠景レイヤの中間画像信号は貼り付け部
421-2に供給すると共に、中景レイヤの中間画像信号
および近景レイヤの中間画像信号は貼り付け部421-
3,421-4に供給する。さらに追越し車両の画像が含
まれる後退レイヤの中間画像信号は貼り付け部421-5
に供給する。
Here, the intermediate image signal of the horizontal moving layer which moves in the horizontal direction when turning right or left is supplied to the pasting unit 421-1. The intermediate image signal of the distant view layer is supplied to the pasting unit 421-2, and the intermediate image signal of the middle view layer and the intermediate image signal of the near view layer are pasted to the pasting unit 421-.
Supply to 3,421-4. Further, the intermediate image signal of the backward layer including the image of the overtaking vehicle is attached to the pasting unit 421-5.
Supply to.

【0066】貼り付け部421-1には、後述する画像シ
フト部423-1が接続されており、画像シフト部423
-1から供給された画像信号に、中間画像情報蓄積領域3
2から読み出した対応するレイヤの画像信号を貼り付け
る。この貼り付け部421-1によって画像の貼り付けが
行われて得られた水平移動レイヤの画像信号は、1フレ
ーム遅延部422-1と画像信号生成部44の遠景貼り付
け部441に供給される。
An image shift unit 423-1 to be described later is connected to the pasting unit 421-1, and the image shift unit 423 is connected.
-1 to the image signal supplied from the intermediate image information storage area 3
The image signal of the corresponding layer read from 2 is pasted. The image signal of the horizontal movement layer obtained by pasting the image by the pasting unit 421-1 is supplied to the one-frame delay unit 422-1 and the distant view pasting unit 441 of the image signal generation unit 44. .

【0067】1フレーム遅延部422-1では、貼り付け
部421-1から供給された画像信号を1フレーム分だけ
遅延させて画像シフト部423-1に供給する。画像シフ
ト部423-1では、1フレーム遅延部422-1から供給
された画像信号に基づく画像を、画像生成制御部41か
ら供給された水平移動レイヤの動き量MYvに基づいて
水平方向に移動させる。さらにこの水平方向に移動させ
た画像の画像信号を貼り付け部421-1に供給する。
The one-frame delay section 422-1 delays the image signal supplied from the pasting section 421-1 by one frame and supplies the delayed image signal to the image shift section 423-1. The image shift unit 423-1 moves the image based on the image signal supplied from the 1-frame delay unit 422-1 in the horizontal direction based on the movement amount MYv of the horizontal movement layer supplied from the image generation control unit 41. . Further, the image signal of the image moved in the horizontal direction is supplied to the pasting unit 421-1.

【0068】このように1フレーム分遅延された画像信
号に基づく画像を、画像生成制御部41から供給された
動き量MYvに基づいて水平方向に移動させると共に、
この水平方向に移動された画像に中間画像情報蓄積領域
32から動き量MYv分だけ読み出した水平移動レイヤ
の中間画像信号GYvを貼り付けることで、移動する画
像の画像信号を生成できる。
The image based on the image signal delayed by one frame as described above is moved in the horizontal direction based on the movement amount MYv supplied from the image generation control unit 41, and
The image signal of the moving image can be generated by pasting the intermediate image signal GYv of the horizontal moving layer read by the amount of movement MYv from the intermediate image information storage area 32 to the image moved in the horizontal direction.

【0069】同様に、1フレーム遅延部422-2〜42
2-5で1フレーム分遅延された画像信号に基づく画像
を、画像シフト部423-2〜423-5で画像生成制御部
41から供給された各レイヤの動き量MYvに基づいて
水平方向に移動させると共に、この水平方向に移動され
た画像に対して、中間画像情報蓄積領域32から各レイ
ヤの動き量分だけ読み出した中間画像信号GYvを貼り
付け部421-2〜421-5に供給して、この読み出した
中間画像信号GYvに基づく画像を貼り付けることで、
順次画像が移動する画像信号をレイヤ毎に生成できる。
Similarly, 1-frame delay units 422-2 to 42
The image based on the image signal delayed by one frame at 2-5 is moved in the horizontal direction based on the motion amount MYv of each layer supplied from the image generation control unit 41 at the image shift units 423-2 to 423-5. At the same time, the intermediate image signal GYv read from the intermediate image information storage area 32 by the amount of movement of each layer is supplied to the pasting units 421-2 to 421-5 with respect to the horizontally moved image. By pasting the image based on the read intermediate image signal GYv,
An image signal in which images sequentially move can be generated for each layer.

【0070】また、中間画像信号は、正面画像信号から
読み出した信号であることから、この中間画像信号に基
づく画像は、スクリーン10Cと同じ面上の画像とな
る。しかし、周辺画像を表示するスクリーン10Rは正
面のスクリーン10Cに対して傾きを持って設けられて
いる。このため、遠景,中景,近景レイヤや後退レイヤ
のように、動きベクトルの方向が画像基準位置CPの方
向あるいは逆方向であるレイヤの画像信号を用いて、各
レイヤの画像の貼り付けを行い周辺画像信号SDRを生
成して画像表示を行うものとすると、スクリーン10R
に表示される画像は、スクリーン10Cに対するスクリ
ーン10Rの傾きによって正しい形状とならない。この
ため、動きベクトルの方向が画像基準位置CPの方向あ
るいは逆方向であるレイヤの画像信号は、射影変換部4
3の各変換処理部431〜434に供給して、この各レ
イヤの画像をスクリーン10L,10Rに表示したとき
に、動きベクトルMVのベクトル方向に画像が正しく移
動するように射影変換を行う。また、水平移動レイヤの
画像は、動きベクトルMVの方向が水平方向であること
から、遠景,中景,近景レイヤ,後退レイヤのような射
影変換は行わないものとする。
Since the intermediate image signal is a signal read from the front image signal, the image based on this intermediate image signal is an image on the same surface as the screen 10C. However, the screen 10R for displaying the peripheral image is provided so as to be inclined with respect to the screen 10C on the front side. Therefore, the image of each layer is pasted using the image signal of the layer in which the direction of the motion vector is the direction of the image reference position CP or the opposite direction, such as the distant view, middle view, near view layer, and backward layer. If the peripheral image signal SDR is generated and an image is displayed, the screen 10R is displayed.
The image displayed at is not in the correct shape due to the inclination of the screen 10R with respect to the screen 10C. Therefore, the image signal of the layer in which the direction of the motion vector is the direction of the image reference position CP or the opposite direction is the projective transformation unit 4
3 is supplied to the respective conversion processing units 431 to 434, and when the image of each layer is displayed on the screens 10L and 10R, the projective conversion is performed so that the image correctly moves in the vector direction of the motion vector MV. Further, since the direction of the motion vector MV is the horizontal direction, the image of the horizontal movement layer is not subjected to projective transformation like the distant view, middle view, near view layer, and backward layer.

【0071】射影変換部43の変換処理部431〜43
4では、貼り付け部421-2〜421-5から供給された
画像信号に対して、画像がスクリーン10Rの向きに対
応した形状となるように射影変換を行う。ここで、正面
画像から画像信号を順次読み出すと、読み出した画像の
表示面10CRとスクリーン10Rは、図17Aおよび図
17Bに示すように同一面でないことから、正面画像か
ら読み出した画像をスクリーン10Rに表示したときに
は、表示面10CRの画像をそのままスクリーン10Rの
面上に投射したものとなり、正しい形状とならない。
Conversion processing units 431 to 43 of the projective conversion unit 43
In 4, the projective transformation is performed on the image signals supplied from the pasting units 421-2 to 421-5 so that the image has a shape corresponding to the orientation of the screen 10R. Here, when the image signals are sequentially read from the front image, the display surface 10CR and the screen 10R of the read image are not on the same surface as shown in FIGS. 17A and 17B, so the image read from the front image is displayed on the screen 10R. When displayed, the image on the display surface 10CR is projected as it is on the surface of the screen 10R, and the shape is not correct.

【0072】このため、射影変換を行って、垂直方向は
画像のズームインあるいはズームアウトの中心Czmから
距離に比例した拡大率で拡大すると共に、水平方向はそ
の速度がズームインあるいはズームアウトの中心Czmか
らの距離に比例するような拡大率で拡大する。
Therefore, the projective transformation is performed so that the vertical direction is expanded from the center Czm of zoom-in or zoom-out of the image at an expansion ratio proportional to the distance, and the speed is horizontally changed from the center Czm of zoom-in or zoom-out in the horizontal direction. The magnification is such that it is proportional to the distance.

【0073】ここで、図17Cに示すように、右側面画
像の画面前端から中心Czmまでの長さをL、右側面画像
の周辺方向の長さをA、正面画像と右側面画像とが成す
角度「θs」に基づいた比例定数をαとすると、正面画
面端からそのまま読み出した画像の位置(xa,ya)と
右側面画像上に正しく画像表示できるように変換処理し
た後の位置(Xa,Ya)は、垂直方向については式
(3)の関係となり、水平方向については式(4)の関
係となる。このため、図17Dに示すように、スクリー
ン10R上の(Xa,Ya)の画像信号は、式(3),式
(4)を満たす位置(xa,ya)の信号を用いること
で、図17Eに示すようにスクリーン10R上に正しく
右側面画像を表示できる。
Here, as shown in FIG. 17C, the length from the screen front edge of the right side image to the center Czm is L, the length in the peripheral direction of the right side image is A, and the front side image and the right side image are formed. Assuming that the proportional constant based on the angle “θs” is α, the position (xa, ya) of the image directly read from the front screen edge and the position (Xa, after conversion processing so that the image can be correctly displayed on the right side image. Ya) has the relationship of Expression (3) in the vertical direction and the relationship of Expression (4) in the horizontal direction. Therefore, as shown in FIG. 17D, as the image signal of (Xa, Ya) on the screen 10R, by using the signal of the position (xa, ya) that satisfies the equations (3) and (4), the image signal of FIG. The right side image can be correctly displayed on the screen 10R as shown in FIG.

【0074】[0074]

【数2】 [Equation 2]

【0075】この変換処理部431で得られた射影変換
後の遠景レイヤの画像信号は、画像信号生成部44の遠
景貼り付け部441に供給される。また、変換処理部4
32で得られた射影変換後の中景レイヤの画像信号は中
景貼り付け部442に供給されると共に、変換処理部4
33で得られた射影変換後の近景レイヤの画像信号は近
景貼り付け部443に供給される。さらに、変換処理部
434で得られた後退レイヤの画像信号は縮小貼り付け
部444に供給される。
The image signal of the distant view layer after the projective conversion obtained by the conversion processing unit 431 is supplied to the distant view pasting unit 441 of the image signal generation unit 44. Also, the conversion processing unit 4
The image signal of the middle-view layer after projective conversion obtained in 32 is supplied to the middle-view pasting unit 442 and the conversion processing unit 4
The image signal of the near view layer after the projective transformation obtained in 33 is supplied to the near view pasting unit 443. Furthermore, the image signal of the receding layer obtained by the conversion processing unit 434 is supplied to the reduction and pasting unit 444.

【0076】遠景貼り付け部441では、貼り付け部4
21と変換処理部431から供給された画像信号に基づ
いて、水平移動レイヤの画像に遠景レイヤの画像を貼り
付けた画像信号を生成して中景貼り付け部442に供給
する。
In the distant view pasting unit 441, the pasting unit 4
21 and the image signal supplied from the conversion processing unit 431, an image signal in which the image of the distant view layer is pasted on the image of the horizontal movement layer is generated and supplied to the middle-view pasting unit 442.

【0077】中景貼り付け部442では、変換処理部4
32と遠景貼り付け部441から供給された画像信号に
基づいて、遠景レイヤの画像が貼り付けた画像に中景レ
イヤの画像を貼り付けた画像信号を生成して近景貼り付
け部443に供給する。
In the middle ground pasting unit 442, the conversion processing unit 4
32 and the image signal supplied from the distant view pasting unit 441, an image signal in which the image in the middle view layer is pasted to the image in which the image in the distant view layer is pasted is generated and supplied to the near view pasting unit 443. .

【0078】近景貼り付け部443では、変換処理部4
33と中景貼り付け部442から供給された画像信号に
基づいて、中景レイヤの画像が貼り付けた画像に近景レ
イヤの画像を貼り付けた画像信号を生成して縮小貼り付
け部444に供給する。
In the near-view pasting section 443, the conversion processing section 4
33 and the image signal supplied from the middle ground pasting unit 442, an image signal in which the image in the middle ground layer is pasted to the image in which the image in the middle ground layer is pasted is generated and supplied to the reduction pasting unit 444. To do.

【0079】縮小貼り付け部444では、変換処理部4
34と近景貼り付け部443から供給された画像信号に
基づいて、近景レイヤの画像が貼り付けた画像に、時間
と共に画像が縮小する後退レイヤの画像を貼り付けた画
像信号を生成する。この縮小貼り付け部444で生成さ
れた画像信号は、水平移動レイヤから縮小レイヤまでの
各レイヤが貼り付けられた側面画像の画像信号となる。
In the reduction pasting unit 444, the conversion processing unit 4
34 and the image signal supplied from the near-field pasting unit 443, an image signal in which the image in the near-field layer is pasted with the image in the receding layer whose image shrinks with time is generated. The image signal generated by the reduction and pasting unit 444 becomes the image signal of the side image to which each layer from the horizontal movement layer to the reduction layer is pasted.

【0080】このため、縮小貼り付け部444で生成さ
れた画像信号を周辺画像信号SDRとしてプロジェクタ
12Rに供給することで、正面画像と連続した右側面の
画像をスクリーン10Rに表示することができる。
Therefore, by supplying the image signal generated by the reduction and pasting unit 444 to the projector 12R as the peripheral image signal SDR, the image on the right side which is continuous with the front image can be displayed on the screen 10R.

【0081】また、中間画像情報記憶領域32に記憶さ
れた中間画像信号に対して、画像の無い部分を補間する
処理が行われていないとき、あるいは縮小貼り付け部4
44で生成された画像信号に画像の無い部分が生ずると
きには、前補間処理部を設けて、画像の無い部分と隣接
する領域でどのようなレイヤの画像が貼り合わされたを
判別して、奥行きの深いレイヤの画像を用いて補間処理
を行う。例えば、中景レイヤと近景レイヤの画像が貼り
合わされている領域と水平方向に隣接する部分で画像の
無い部分が生じてときには、奥行きの深い中景レイヤの
画像を用いて補間処理を行うことで、画像の欠落のない
良好な周辺画像信号SDRを生成できる。
When the intermediate image signal stored in the intermediate image information storage area 32 is not subjected to the process of interpolating a portion having no image, or the reduction paste unit 4
When an image-free portion is generated in the image signal generated at 44, a pre-interpolation processing unit is provided to determine what layer image is combined in an area adjacent to the image-free portion, and Interpolation processing is performed using an image of a deep layer. For example, when there is no image in a part that is horizontally adjacent to the region where the images of the middle-view layer and the foreground layer are pasted together, interpolation processing can be performed using the image of the deep-view middle-layer. A good peripheral image signal SDR without image loss can be generated.

【0082】また、周辺画像信号SDRと同様にして周
辺画像信号SDLを生成してプロジェクタ12Lに供給す
ることで、正面画像と連続した左側面の画像をスクリー
ン10Lに表示することができる。
Further, by generating the peripheral image signal SDL in the same manner as the peripheral image signal SDR and supplying the same to the projector 12L, the image on the left side surface which is continuous with the front image can be displayed on the screen 10L.

【0083】さらに、蓄積部30には、中間画像情報を
蓄積するものであり、この中間画像情報は動き量とレイ
ヤ毎の中間画像信号であることから、周辺画像の画像信
号を蓄積する場合に比べて情報量を少なくできる。この
ため、大容量の記録媒体等を用いることなく広画角での
画像表示を行うことができる。
Further, the storage unit 30 stores intermediate image information. Since this intermediate image information is an amount of motion and an intermediate image signal for each layer, when storing image signals of peripheral images. The amount of information can be reduced in comparison. Therefore, it is possible to display an image in a wide angle of view without using a large capacity recording medium or the like.

【0084】ところで、上述の実施の形態では、正面画
像の側端側に設けた検出領域の動きベクトルMVから、
遠景,中景,近景等の画像のレイヤ分けや動き量の判別
等を行い、中間画像情報を生成して中間画像情報蓄積領
域32に記憶させると共に、周辺画像を表示させる際に
は、中間画像情報蓄積領域32に蓄積されている中間画
像情報を用いて、各レイヤの動き量MYvに応じて中間
画像信号GYvを読み出して画像の貼り付けを行うこと
で周辺画像信号を生成するものとしたが、周辺画像信号
は動きベクトルMVを用いることなく生成することもで
きる。次に第2の実施の形態として、動きベクトルMV
を用いることなく周辺画像信号を生成できる画像信号処
理装置について説明する。
By the way, in the above-mentioned embodiment, from the motion vector MV of the detection area provided on the side edge side of the front image,
Layering images such as distant view, middle view, and near view and determining the amount of motion are performed to generate intermediate image information and store it in the intermediate image information storage area 32. Using the intermediate image information accumulated in the information accumulation area 32, the intermediate image signal GYv is read according to the motion amount MYv of each layer and the peripheral image signal is generated by pasting the image. The peripheral image signal can also be generated without using the motion vector MV. Next, as a second embodiment, the motion vector MV
An image signal processing device capable of generating a peripheral image signal without using the will be described.

【0085】この第2の実施の形態の画像信号処理装置
55では、幾何変換によって正面画像から側面方向の射
影画像を生成し、この射影画像を積分処理して積分画像
を生成すると共に、この積分画像から画像のレイヤ分け
を行い、レイヤ毎の動き量MYsやレイヤ毎の中間画像
信号を生成して、中間画像情報として中間画像情報蓄積
領域32に記憶させるものである。
In the image signal processing apparatus 55 of the second embodiment, a projection image in the lateral direction is generated from the front image by geometric transformation, and the projection image is subjected to integration processing to generate an integral image and the integration is performed. An image is divided into layers from images, a motion amount MYs for each layer and an intermediate image signal for each layer are generated and stored in the intermediate image information storage area 32 as intermediate image information.

【0086】図18は、画像処理装置55の構成を示し
ている。正面画像の画像信号SDCは、幾何変換部61
に供給される。幾何変換部61では、正面画像の画像信
号SDCを用いて正面画像を進行方向の面である射影面
に表示した画像の射影画像信号SDPを幾何変換処理に
よって生成する。この幾何変換部61によって生成され
た射影画像信号SDPは、動き検出ブロック62の動き
判別画像生成処理部63と積分画像生成処理部64およ
び中間画像情報生成ブロック70の情報生成処理部72
に供給される。
FIG. 18 shows the structure of the image processing apparatus 55. The image signal SDC of the front image is sent to the geometric conversion unit 61.
Is supplied to. The geometric transformation unit 61 uses the image signal SDC of the front image to generate a projection image signal SDP of the image in which the front image is displayed on the projection plane that is the plane in the traveling direction by the geometric transformation process. The projected image signal SDP generated by the geometrical conversion unit 61 includes a motion determination image generation processing unit 63 of the motion detection block 62, an integral image generation processing unit 64, and an information generation processing unit 72 of the intermediate image information generation block 70.
Is supplied to.

【0087】動き判別画像生成処理部63では、幾何変
換部61より供給された射影画像信号SDPから、フレ
ーム毎に正面画像と接する端部側から所定範囲の射影画
像信号SDPを抽出して順次貼り付けることにより動き
判別画像信号SMDを生成する。この動き判別画像信号
SMDは、動き量判別部65に供給される。
The motion discrimination image generation processing unit 63 extracts the projection image signal SDP within a predetermined range from the end portion in contact with the front image for each frame from the projection image signal SDP supplied from the geometric conversion unit 61 and sequentially pastes it. The motion discrimination image signal SMD is generated by the attachment. This motion determination image signal SMD is supplied to the motion amount determination unit 65.

【0088】積分画像生成処理部64では、水平方向に
位置をずらしながらmsフレーム分の射影画像信号SDP
を足し込んで平均化することにより1つの積分画像信号
を生成する。また、位置のずらし量をns個の異なる値
としてns個の積分画像信号を生成する。この積分画像
生成処理部64で生成したns個の積分画像信号SAは
動き量判別部65に供給される。
The integral image generation processing unit 64 shifts the position in the horizontal direction while projecting the image signal SDP for ms frames.
Is added and averaged to generate one integrated image signal. Also, ns integrated image signals are generated with the position shift amount being ns different values. The ns integrated image signals SA generated by the integrated image generation processing unit 64 are supplied to the motion amount determination unit 65.

【0089】動き量判別部65では、ns個の積分画像
信号SAと動き判別画像信号SMDとを比較して、動き
判別画像信号SMDに基づく画像とマッチングする積分
画像信号SAに基づく画像を検出して、検出結果に基づ
き注目フレームの所定位置の動き量を判別する。ここ
で、積分画像では、位置のずらし量と画像の移動量が一
致したときに、この被写体が積分画像に現れることとな
る。また、ずらし量を異なるものとしてns個の積分画
像が生成されていることから、ns個の移動量の異なる
画像が積分画像信号SAによって示されるものとなる。
このため、ns個の積分画像信号SAと動き判別画像信
号SMDとの相関を判別して、この判別結果に基づき、
動き判別画像を構成する被写体の移動量すなわち注目フ
レームの所定位置の動き量を判別できる。ここで、被写
体の画像が遠景であるときには移動量が小さく、被写体
の画像が近景であるときには移動量が大きいことから、
この移動量は被写体の画像の奥行きを示すものである。
このようにして、動き量判別部65で射影画像の各位置
の動き量を判別すると、判別結果を示す動き量情報MF
を生成して中間画像情報生成ブロック70のレイヤ分類
部71と情報生成処理部72に供給する。
The motion amount determining section 65 compares the ns integrated image signals SA with the motion determining image signal SMD to detect an image based on the integrated image signal SA that matches the image based on the motion determining image signal SMD. Then, the amount of movement of the target frame at a predetermined position is determined based on the detection result. Here, in the integral image, when the position shift amount and the image movement amount match, this subject appears in the integral image. Further, since ns integrated images are generated with different shift amounts, ns images with different movement amounts are indicated by the integrated image signal SA.
Therefore, the correlation between the ns integrated image signals SA and the motion determination image signal SMD is determined, and based on this determination result,
It is possible to determine the amount of movement of the subject forming the movement determination image, that is, the amount of movement of the target frame at a predetermined position. Here, since the movement amount is small when the image of the subject is a distant view, and the movement amount is large when the image of the subject is a close view,
This amount of movement indicates the depth of the image of the subject.
In this way, when the motion amount determining unit 65 determines the motion amount at each position of the projected image, the motion amount information MF indicating the determination result.
Is generated and supplied to the layer classification unit 71 and the information generation processing unit 72 of the intermediate image information generation block 70.

【0090】レイヤ分類部71では、供給された動き量
情報MFに基づき、注目フレームの所定位置が複数レイ
ヤのいずれに属するかを示すレイヤ分類情報LBを生成
して情報生成処理部72に供給する。
The layer classification unit 71 generates layer classification information LB indicating which of a plurality of layers the predetermined position of the frame of interest belongs to, based on the supplied motion amount information MF, and supplies it to the information generation processing unit 72. .

【0091】情報生成処理部72では、各レイヤにおい
て、フレーム毎に前後のフレームの移動量を用いて平均
値を求めて、各レイヤの該当フレームの動き量MYsと
して蓄積部30の中間画像情報蓄積領域32に供給す
る。また、求めたレイヤ毎の動き量MYsと、レイヤ分
類部71から供給されたレイヤ分類情報LBに基づき、
幾何変換部61より供給された画像信号SDPをレイヤ
毎に分類して中間画像信号GFsを生成する。すなわ
ち、動き量分だけ画像信号を水平方向に読み出して該当
するレイヤ毎に順次貼り付けることにより、図14と同
様なレイヤ毎の中間画像信号GFsを生成する。
In the information generation processing unit 72, the average value is calculated for each frame using the movement amount of the preceding and following frames for each frame, and the intermediate image information accumulation of the accumulation unit 30 is performed as the movement amount MYs of the corresponding frame of each layer. Supply to the area 32. Further, based on the obtained motion amount MYs for each layer and the layer classification information LB supplied from the layer classification unit 71,
The image signal SDP supplied from the geometric conversion unit 61 is classified for each layer to generate an intermediate image signal GFs. That is, the image signals are read out in the horizontal direction by an amount corresponding to the amount of movement and are sequentially attached to the corresponding layers to generate the intermediate image signal GFs for each layer similar to FIG.

【0092】また、遠景レイヤや中景レイヤおよび近景
レイヤの画像の動き方向を基準とすると、後退レイヤで
は動き方向が逆方向となる。このため、動き量の絶対値
分だけ正面画像と接する端部側から射影面画像信号を読
み込み左右反転を行って貼り付けることで、後退レイヤ
の中間画像信号を生成できる。
Further, when the moving directions of the images of the distant view layer, the middle view layer and the near view layer are used as the reference, the moving direction is opposite in the backward layer. Therefore, an intermediate image signal of the receding layer can be generated by reading the projective plane image signal from the end side which is in contact with the front image by the absolute value of the movement amount and performing horizontal reversal and pasting.

【0093】さらに、作成したレイヤ毎の中間画像信号
GFsに対して、画像の無いアンカバード領域が生じな
いように補間処理を行って画像の無い部分の埋め込みを
行う。この情報生成処理部72で補間処理を行うことに
より得られたレイヤ毎の中間画像信号GYsは、各レイ
ヤの動き量MYsと関係付けられて中間画像情報として
中間画像情報蓄積領域32に記憶される。
Further, interpolation processing is performed on the created intermediate image signal GFs for each layer so that an uncovered area without an image does not occur, and a portion without an image is embedded. The intermediate image signal GYs for each layer obtained by performing the interpolation processing in the information generation processing unit 72 is associated with the motion amount MYs of each layer and stored in the intermediate image information storage area 32 as intermediate image information. .

【0094】このようにして生成された中間画像情報を
中間画像情報蓄積領域32から読み出して、上述の周辺
画像信号生成ブロック40と同様に処理することで、右
側面画像の周辺画像信号を生成できる。
The peripheral image signal of the right side image can be generated by reading the intermediate image information thus generated from the intermediate image information storage area 32 and processing it in the same manner as in the peripheral image signal generation block 40 described above. .

【0095】次に各ブロック等について詳細に説明す
る。図19は幾何変換部61での幾何変換処理を説明す
るための図である。この図19において、位置Oは正面
画像の撮影位置である。幾何変換部61では、正面画像
の位置pの画像を進行方向と平行な面上の位置qに射影
して、正面画像から射影画像を生成する。ここで、射影
面上の進行方向の位置xbと正面画像上の水平位置Xbの
関係は、式(5)に示すものとなる。また、射影面上の
高さ方向の位置ybと正面画像上の垂直位置Ybの関係
は、式(6)に示すものとなる。
Next, each block will be described in detail. FIG. 19 is a diagram for explaining the geometric conversion processing in the geometric conversion unit 61. In FIG. 19, the position O is the shooting position of the front image. The geometric transformation unit 61 projects the image at the position p of the front image onto the position q on a plane parallel to the traveling direction, and generates a projected image from the front image. Here, the relationship between the position xb in the traveling direction on the projection plane and the horizontal position Xb on the front image is as shown in Expression (5). Further, the relationship between the position yb in the height direction on the projection plane and the vertical position Yb on the front image is as shown in Expression (6).

【0096】[0096]

【数3】 [Equation 3]

【0097】なお、式(5)(6)において、「θg」
は正面画像の水平画角を半分とした角度を示しており、
正面画像を撮影したカメラの水平画角が明らかであると
きには、この水平画角の半分の角度を「θg」とする。
また、カメラの水平画角が明らかでないときには、使用
したレンズの焦点距離に応じて予め設定された値を用い
るものとする。「d」は正面画像の水平方向の長さ(画
枠の水平方向の長さ)を1/2にした値である。
In the equations (5) and (6), "θg"
Indicates the angle at which the horizontal angle of view of the front image is halved,
When the horizontal angle of view of the camera that has photographed the front image is clear, the half angle of this horizontal angle of view is set to “θg”.
When the horizontal angle of view of the camera is not clear, a value preset according to the focal length of the lens used is used. “D” is a value obtained by halving the horizontal length of the front image (horizontal length of the image frame).

【0098】このように式(5)(6)を用いること
で、正面画像の各フレームの画像信号から左右の射影画
像の画像信号をフレーム単位で生成することができる。
また、入力画像が車載前進系の正面画像の場合、左右の
射影画像は側方画像となっており、この射影画像の動き
量は車速に比例する。また、この射影画像の動き量は奥
行きに反比例するものであり、射影画像が遠景の画像で
あって奥行きが大きいときには動き量が小さくなると共
に、射影画像が近景の画像であって奥行きが小さいとき
には動き量が大きくなる。
By using the equations (5) and (6) as described above, the image signals of the left and right projected images can be generated in frame units from the image signal of each frame of the front image.
When the input image is the front image of the vehicle-mounted forward system, the left and right projected images are lateral images, and the amount of movement of these projected images is proportional to the vehicle speed. In addition, the amount of movement of the projected image is inversely proportional to the depth, and when the projected image is a distant view image with a large depth, the amount of movement is small, and when the projected image is a close view image with a small depth. The amount of movement increases.

【0099】図20は、動き判別画像生成処理部63の
動作を説明するための図である。動き判別画像生成処理
部63では、図20Aに示すように、フレーム毎に射影
面画像の正面画像側端部(右側射影面画像では右側端
部)から水平方向に所定画素数wa(例えば4画素)の
幅で画像信号を切り出すと共に、この切り出した画像信
号を図20Bに示すようにフレーム順に所定フレーム分
だけ貼り付けることで動き判別画像の画像信号SMDを
生成する。なお、動き判別画像では、被写体の動き量が
水平方向にwa画素/フレームで、画像信号の切り出し
画素数waと等しいとき(図20では家)、被写体の画
像は不連続点を有しない連続した画像となる。画像信号
の切り出しよりも動きの遅い被写体(図20では山)の
画像では、繰り返し切り出される部分が生じるため切り
出された画像信号の繋ぎ部分で画像の不連続を生じる。
また、画像信号の切り出しよりも動きの速い被写体の画
像(図20では木)では、動きが速いために切り出され
ない部分が生じて繋ぎ部分で画像の不連続を生じる。
FIG. 20 is a diagram for explaining the operation of the motion discrimination image generation processing unit 63. In the motion determination image generation processing unit 63, as shown in FIG. 20A, a predetermined number of pixels wa (for example, 4 pixels) are horizontally set from the front image side end of the projection plane image (the right end in the right projection plane image) for each frame. 20B, the image signal SMD of the motion determination image is generated by cutting out the image signal with the width of) and pasting the cut out image signal for a predetermined number of frames in the frame order as shown in FIG. 20B. In the motion determination image, when the amount of movement of the subject is wa pixels / frame in the horizontal direction and is equal to the number of cut-out pixels wa of the image signal (house in FIG. 20), the subject image is continuous without discontinuity points. It becomes an image. In an image of a subject (mountain in FIG. 20) whose movement is slower than the cutout of the image signal, a portion that is repeatedly cut out occurs, and thus a discontinuity of the image occurs at a connection portion of the cutout image signals.
Further, in the image of a subject (tree in FIG. 20) that moves faster than the cutout of the image signal, a portion that is not cutout occurs because the movement is fast, and image discontinuity occurs at the connecting portion.

【0100】積分画像生成処理部64では、動き判別画
像の各画素の動き量を判別するために用いる積分画像信
号SAを生成する。ここで図21を用いて積分画像につ
いて説明する。例えば右方向に移動する被写体Jaと被
写体Jaの2倍の速度で右方向に移動する被写体Jbを撮
影すると、撮影画像は図21Aに示すものとなる。ここ
で、最初のフレームF1に対して次のフレームF2の画像
を被写体Jaの移動方向とは逆方向で被写体Jaの画素量
dxだけシフトさせる。また、次のフレームF3の画像
も同様に、フレームF2に対して被写体Jaの移動方向と
は逆方向で被写体Jaの画素量dxだけシフトさせる。
このように、シフトした各フレームの画像を加算して平
均化した画像を積分画像とすると、被写体Jaの位置が
一定であると共に被写体Jbの位置は移動することか
ら、被写体Jbの画像信号の信号レベルは被写体Jaに比
べて小さいものとなり、図21Cに示すように積分画像
によって被写体Jaのみを抽出できる。
The integral image generation processing section 64 generates an integral image signal SA used for discriminating the motion amount of each pixel of the motion discrimination image. Here, the integral image will be described with reference to FIG. For example, when a subject Ja moving to the right and a subject Jb moving to the right at twice the speed of the subject Ja are photographed, the photographed image is as shown in FIG. 21A. Here, the image of the next frame F2 is shifted with respect to the first frame F1 by the pixel amount dx of the subject Ja in the direction opposite to the moving direction of the subject Ja. Similarly, the image of the next frame F3 is also shifted with respect to the frame F2 by the pixel amount dx of the subject Ja in the direction opposite to the moving direction of the subject Ja.
In this way, if an image obtained by adding up and averaging the shifted images of each frame is used as an integral image, the position of the subject Ja is constant and the position of the subject Jb moves, so that the signal of the image signal of the subject Jb is obtained. The level becomes smaller than that of the subject Ja, and only the subject Ja can be extracted by the integrated image as shown in FIG. 21C.

【0101】また、図21Dに示すように、各フレーム
の画像のずらし量を2倍(2dx)として積分画像を生
成したときには、被写体Jbの位置が一定となると共に
被写体Jaの位置が移動することから、図21Eに示す
ように積分画像によって被写体Jbのみを抽出できる。
As shown in FIG. 21D, when the integrated image is generated by doubling (2dx) the image shift amount of each frame, the position of the subject Jb becomes constant and the position of the subject Ja moves. Therefore, as shown in FIG. 21E, only the subject Jb can be extracted by the integral image.

【0102】このように、各フレームの画像を所定量だ
け移動させて加算して平均化することにより積分画像を
形成すると共に、この各フレームの画像のずらし量を変
えて複数の積分画像を生成すれば、いずれの積分画像で
被写体が正しく表示されたかを判別することで、1つの
画像に動き量の異なる被写体が含まれていても、積分画
像を用いて各被写体の動き量を判別できる。すなわち、
各フレームの画像を構成する被写体の動き量が判別でき
るので、注目フレームの所定位置の動き量を判別でき
る。
As described above, the image of each frame is moved by a predetermined amount, added and averaged to form an integral image, and a plurality of integral images are generated by changing the shift amount of the image of each frame. Then, by determining in which integral image the subject is correctly displayed, the amount of movement of each subject can be determined using the integral image even if one image includes subjects having different amounts of movement. That is,
Since the amount of motion of the subject forming the image of each frame can be determined, the amount of motion of the target frame at a predetermined position can be determined.

【0103】図22は、積分画像生成処理部64の構成
を示す図である。幾何変換部61から供給された射影画
像信号SDPは積分画像生成処理部64の演算処理部6
41-1〜641-nsに供給される。
FIG. 22 is a diagram showing the structure of the integral image generation processing unit 64. The projection image signal SDP supplied from the geometric conversion unit 61 is calculated by the calculation processing unit 6 of the integral image generation processing unit 64.
41-1 to 641-ns.

【0104】演算処理部641-1では、予め設定された
画素数SH-1だけ前フレームよりも水平方向に移動させ
た射影面画像信号を、msフレーム分(例えば10フレ
ーム分)加算して加算信号を順次算出する。さらに、こ
の加算信号を1/m倍して平均化した信号を画素切り出
し部642-1に供給する。
In the arithmetic processing unit 641-1, the projection plane image signal moved horizontally by a preset number of pixels SH-1 from the previous frame is added by adding ms frames (for example, 10 frames). The signals are calculated sequentially. Further, a signal obtained by multiplying this addition signal by 1 / m and averaging is supplied to the pixel cutout unit 642-1.

【0105】画素切り出し部642-1では、供給された
画像信号からフレーム毎に正面画像側端部(右側射影面
画像では右側端部)より水平方向に所定画素数分wbの
画像信号を切り出して、この切り出した画像信号を順次
貼り付けることにより積分画像信号SA-1として出力す
る。この画像切り出し部642-1から出力された積分画
像信号SA-1は、予め設定された画素数SH-1の動き量
の被写体を示した画像信号となる。
In the pixel cutout unit 642-1, an image signal of a predetermined number of pixels wb is horizontally cut out from the supplied image signal for each frame from the front image side end (the right end in the right projection plane image). Then, the cut-out image signals are sequentially pasted and output as an integrated image signal SA-1. The integrated image signal SA-1 output from the image cutout unit 642-1 becomes an image signal indicating a subject having a motion amount of a preset number of pixels SH-1.

【0106】演算処理部641-2〜641-nsも演算処
理部641-1と同様に、予め設定された画素数SH-2〜
SH-nsだけ前フレームよりも水平方向に移動させた射
影面画像信号を、msフレーム分加算して加算信号を順
次算出して、この加算信号を1/m倍して平均化したの
ち画素切り出し部642-2〜642-nsに供給する。さ
らに、画素切り出し部642-2〜642-nsでは、所定
画素数分wbの画像信号を切り出して順次貼り付けて積
分画像信号として出力する。この画素切り出し部642
-2〜642-nsから出力された積分画像信号SA-2〜S
A-nsは、それぞれ予め設定された画素数SH-2〜SH-
3の動き量の被写体を示した画像信号となる。
Similar to the arithmetic processing unit 641-1, the arithmetic processing units 641-2 to 641-ns also have a preset number of pixels SH-2 to
Projection plane image signals that have been moved in the horizontal direction by SH-ns more than the previous frame are added for ms frames to sequentially calculate addition signals, and the addition signals are multiplied by 1 / m to be averaged and then pixel cutout is performed. And supply to the units 642-2 to 642-ns. Furthermore, the pixel cutout units 642-2 to 642-ns cut out image signals of wb for a predetermined number of pixels, sequentially paste them, and output them as integrated image signals. This pixel cutout unit 642
-2 to 642-ns output integrated image signals SA-2 to S
A-ns is a preset number of pixels SH-2 to SH-
The image signal shows a subject having a movement amount of 3.

【0107】動き判別画像生成処理部63と積分画像生
成処理部64の画素切り出し部642で切り出す画素数
を等しいものとすると(wa=wb)、動き判別画像と
積分画像における被写体の位置の整合性をとることがで
きる。
Assuming that the number of pixels cut out by the motion discriminating image generation processing unit 63 and the pixel clipping unit 642 of the integral image generating processing unit 64 are equal (wa = wb), the consistency of the position of the subject in the motion discriminating image and the integral image Can be taken.

【0108】図23は積分画像生成処理部64の動作を
示す図である。画像ずらし量を画素数SH-rとしたとき
には、図23Aに示すようにフレーム毎に画像が画素数
SH-r(<wb)だけ移動されて足し込まれて、図23
Bに示すように山の画像が抽出される。画像ずらし量を
画素数SH-rよりも多い画素数SH-s(=wb)とした
ときには、図23Cに示すようにフレーム毎に画像が画
素数SH-sだけ移動されて足し込まれて、図23Dに示
すように山よりも動き量の大きい家の画像が抽出され
る。また、画像ずらし量を画素数SH-sよりも多い画素
数SH-t(>wb)としたときには、図23Eに示すよ
うにフレーム毎に画像が画素数SH-tだけ移動されて足
し込まれて、図23Fに示すように山よりも動き量の大
きい家の画像が抽出される。
FIG. 23 is a diagram showing the operation of the integral image generation processing unit 64. When the image shift amount is the number of pixels SH-r, the image is moved and added by the number of pixels SH-r (<wb) for each frame as shown in FIG. 23A.
As shown in B, the mountain image is extracted. When the image shift amount is set to the pixel number SH-s (= wb) larger than the pixel number SH-r, the image is moved and added by the pixel number SH-s for each frame as shown in FIG. 23C. As shown in FIG. 23D, an image of a house having a larger amount of movement than a mountain is extracted. Further, when the image shift amount is set to the pixel number SH-t (> wb) larger than the pixel number SH-s, the image is moved and added by the pixel number SH-t for each frame as shown in FIG. 23E. As a result, as shown in FIG. 23F, an image of a house having a larger amount of movement than the mountain is extracted.

【0109】ここで、動き判別画像生成部63で動き判
別画像を生成する際に最初に切り出しを行ったフレーム
Faを基準として切り出しを開始すると共に、動き判別
画像と等しい切り出し量(wa=wb)で同じフレーム
数だけ画像の切り出しを行い積分画像を生成すると、積
分画像と動き判別画像は水平方向の画像の長さが等しく
なると共に、被写体の位相が積分画像と動き判別画像と
で一致する。
Here, when the motion discriminant image generator 63 generates a motion discriminant image, the frame Fa, which was first clipped, is used as a reference for starting the segmentation, and a segment amount (wa = wb) equal to the motion discriminant image. When the images are cut out for the same number of frames to generate an integral image, the integral image and the motion discriminating image have the same horizontal image length, and the phase of the subject matches between the integral image and the motion discriminating image.

【0110】また、動き判別画像では、切り出し量と動
き量が等しくないときには被写体が不連続が形状となる
が、積分画像の場合も同様に、画素数SH-rが画素数w
bよりも少ないときには、画像の切り出しが重なりを持
って行われることから図23Gに示すように、動き量に
応じた不連続な画像となる。また、画素数SH-sが画
素数wbと等しいときには、図23Hのように動き量に
応じた連続した画像となる。さらに、画素数SH-tが画
素数wbよりも多いときには、画像の切り出しで欠落部
分が生じて図23Jのように、動き量に応じた不連続な
画像となる。このため、次に述べる動き量判別部65で
動き判別画像と積分画像のマッチングを行い、マッチン
グすると判別された積分画像の画像ずらし量である画素
数SHに基づいて、被写体の動き量を判別することがで
きる。
Further, in the motion discriminating image, when the clipping amount and the motion amount are not equal, the object has a discontinuous shape, but also in the case of the integral image, similarly, the pixel number SH-r is the pixel number w.
When the number is smaller than b, the images are cut out with an overlap, so that the images become discontinuous according to the amount of movement, as shown in FIG. 23G. Further, when the number of pixels SH-s is equal to the number of pixels wb, the images are continuous according to the amount of movement as shown in FIG. 23H. Further, when the number of pixels SH-t is larger than the number of pixels wb, a cutout portion of the image causes a missing portion, resulting in a discontinuous image corresponding to the amount of movement as shown in FIG. 23J. Therefore, the motion amount determining unit 65 described below performs matching between the motion determination image and the integral image, and determines the amount of movement of the subject based on the number of pixels SH, which is the image shift amount of the integral image determined to match. be able to.

【0111】動き量判別部65では、動き判別画像の各
画素と積分画像との相関値を求めて、この相関値に基づ
き、動き判別画像の各画素がいずれの積分画像と等しい
か判別することで、動き判別画像の各画素の動き量を判
別する。
The motion discriminating unit 65 obtains a correlation value between each pixel of the motion discriminating image and the integral image, and discriminates which integral image each pixel of the motion discriminating image is based on the correlation value. Then, the amount of movement of each pixel of the movement determination image is determined.

【0112】相関値の算出では、画像Aの画素と画像B
との相関値を算出する際に、画像Aの注目画素(相関値
を算出する画素)を中心とした所定範囲を設定して、こ
の所定範囲の画像信号を用いて注目画素の相関値を求め
る。例えば注目画素を中心としてx方向に±mvc画素、
y方向に±nvc画素の矩形状範囲(注目画素を中心とし
た例えば水平31画素,垂直5画素の矩形状範囲)を設
定し、式(7)に基づいて相関値VCを算出する。
In calculating the correlation value, the pixels of the image A and the image B are
When calculating the correlation value with the pixel A, a predetermined range around the pixel of interest (pixel for which the correlation value is calculated) of the image A is set, and the correlation value of the pixel of interest is obtained using the image signal of this predetermined range. . For example, ± mvc pixels in the x direction centering on the pixel of interest,
A rectangular range of ± n vc pixels (for example, a rectangular range of 31 pixels in the horizontal direction and 5 pixels in the vertical direction around the pixel of interest) is set in the y direction, and the correlation value VC is calculated based on the equation (7).

【0113】[0113]

【数4】 [Equation 4]

【0114】なお、式(7)において、画像Aの矩形状
範囲内における各画素の信号レベルをDAi(i=1〜
(mvc×nvc))、画像Bの矩形状範囲内における各画素
の信号レベルをDBi(i=1〜(mvc×nvc))とし、
矩形状範囲内における各画素の信号レベルの平均値をD
Aav,DBavとする。
In the equation (7), the signal level of each pixel in the rectangular range of the image A is DAi (i = 1 to 1).
(mvc × nvc)), the signal level of each pixel in the rectangular area of image B is DBi (i = 1 to (mvc × nvc)),
D is the average value of the signal level of each pixel in the rectangular range
Aav and DBav.

【0115】例えば、式(7)に基づいて図24Aに示
す動き判別画像における山の画像が図24Bに示す積分
画像とマッチングするものと判別されたときには、この
山の画像を構成する各画素の動き量が画素数SH-rに対
応した動き量であると判別できる。また、図24Aに示
す動き判別画像におけるの家の画像が図24Cに示す積
分画像とマッチングするものと判別されたときには、こ
の家の画像を構成する各画素の動き量が画素数SH-sに
対応した動き量であることを判別できる。さらに、図2
4Aに示す動き判別画像おける木の画像が図24Dに示
す積分画像とマッチングするものと判別されたときに
は、この木の画像を構成する各画素の動き量が画素数S
H-tに対応した動き量であることを判別できる。このよ
うにして、動き量判別部65で各画素に対して動き量を
判別したときには、この判別結果を示す動き量情報MF
をレイヤ分類部71と情報生成処理部72に供給する。
For example, when it is determined based on the equation (7) that the mountain image in the motion determination image shown in FIG. 24A matches the integral image shown in FIG. 24B, each pixel forming the mountain image is determined. It can be determined that the motion amount is a motion amount corresponding to the number of pixels SH-r. Further, when it is determined that the house image in the motion determination image shown in FIG. 24A matches the integral image shown in FIG. 24C, the amount of movement of each pixel forming the image of the house becomes the number of pixels SH-s. It can be determined that the amount of movement corresponds. Furthermore, FIG.
When it is determined that the tree image in the motion determination image shown in FIG. 4A matches the integral image shown in FIG. 24D, the amount of movement of each pixel forming the image of this tree is the number of pixels S.
It can be determined that the amount of movement corresponds to H-t. In this way, when the motion amount determination unit 65 determines the motion amount for each pixel, the motion amount information MF indicating the determination result.
Is supplied to the layer classification unit 71 and the information generation processing unit 72.

【0116】なお、図示せずも、積分画像生成処理部6
4では、画像のずらし方向を図23A,図23C,図2
3Eとは逆方向も含むように設定(例えば画像のずらし
量SHを48画素〜−24画素に設定)すれば、木や家
や山の画像に対して逆方向に移動する追越し車両等の画
像を抽出できる。また、動き方向が遠景レイヤ等とは逆
方向の画像の動き量を判別するため、図25Aに示すよ
うに、各フレームの画像から画像の切り出しを行い、こ
の画像を左右反転してから貼り付けることにより図25
Bに示す動き判別画像を生成する。この場合、図25B
に示す動き判別画像では、追越し車両のように動き方向
が逆方向の画像が、遠景や中景および近景レイヤと同様
な向きで正しく表示される。なお図25Cは画像の左右
反転を行わないで貼り付けた場合の動き判別画像であ
る。このため、画像のずらし方向を逆方向とした積分画
像の画像信号と、切り出した画像を反転させて貼り付け
ることにより生成された動き判別画像の画像信号を、基
準となるフレームから順次比較することで、逆方向に移
動する被写体の動き量を判別できる。
Although not shown, the integral image generation processing unit 6
In FIG. 4, the image shifting directions are shown in FIGS. 23A, 23C, and 2.
If it is set so as to include the direction opposite to 3E (for example, the image shift amount SH is set to 48 pixels to -24 pixels), an image of an overtaking vehicle that moves in the opposite direction with respect to an image of a tree, a house, or a mountain is displayed. Can be extracted. Further, in order to determine the amount of movement of the image in the direction opposite to the direction of the distant view layer, as shown in FIG. 25A, the image of each frame is cut out, the image is horizontally flipped, and then pasted. Fig. 25
The motion determination image shown in B is generated. In this case, FIG.
In the motion determination image shown in (1), an image in which the moving direction is the reverse direction, such as an overtaking vehicle, is correctly displayed in the same direction as the distant view, middle view, and near view layers. Note that FIG. 25C is a motion determination image when the image is pasted without being horizontally reversed. Therefore, the image signal of the integral image in which the image shift direction is the reverse direction and the image signal of the motion determination image generated by inverting and pasting the cut out image are sequentially compared from the reference frame. Thus, the amount of movement of the subject moving in the opposite direction can be determined.

【0117】レイヤ分類部71では、動き量情報MFに
基づいて動き判別画像の各画素を奥行き方向にレイヤ化
する。例えば、奥行きを予め遠景,中景,近景の3層と
逆方向の動きを持つ層の4層にレイヤ化するものとし
て、各画素がいずれのレイヤに属するかレイヤ分類を行
う。
The layer classification unit 71 layers each pixel of the motion discrimination image in the depth direction based on the motion amount information MF. For example, assuming that the depth is layered in advance into three layers of a distant view, a middle view, and a near view and four layers of a layer having a movement in the opposite direction, layer classification is performed to determine which layer each pixel belongs to.

【0118】このレイヤ分類では、上述の閾値設定部2
64と同様にして閾値を設定すると共に、この閾値と各
画素の動き量を比較して、各画素がいずれのレイヤに属
するか判別してレイヤ分類情報LBを生成する。この生
成されたレイヤ分類情報LBは情報生成処理部72に供
給される。
In this layer classification, the above-mentioned threshold setting unit 2
Similar to 64, a threshold value is set, and the threshold value is compared with the motion amount of each pixel to determine which layer each pixel belongs to and generate the layer classification information LB. The generated layer classification information LB is supplied to the information generation processing unit 72.

【0119】図26は、情報生成処理部72の構成を示
している。情報生成処理部72の動き量平均値算出部7
21では、動き量判別部65からの動き量情報MFとレ
イヤ分類部71から供給されたレイヤ分類情報LBに基
づき、それぞれのレイヤにおいて、注目フレーム毎に前
後nzフレームの動き量の平均値を求め、そのレイヤの
注目フレームの速度とする。この算出した各レイヤのフ
レーム毎の動き量MYsは、画像読み込み部722に供
給されると共に中間画像情報蓄積領域32に記憶され
る。
FIG. 26 shows the structure of the information generation processing section 72. Motion amount average value calculation unit 7 of the information generation processing unit 72
In 21, based on the motion amount information MF from the motion amount determining unit 65 and the layer classification information LB supplied from the layer classifying unit 71, the average value of the motion amounts of the preceding and following nz frames is calculated for each frame in each layer. , The speed of the frame of interest of the layer. The calculated motion amount MYs for each frame of each layer is supplied to the image reading unit 722 and stored in the intermediate image information storage area 32.

【0120】画像読み込み部722では、レイヤ分類情
報LBに基づき、射影画像の画像信号SDPから動き量
平均値算出部721で算出された動き量MYsに応じて
レイヤ毎に信号を抽出して、レイヤ毎の中間画像信号G
Fsを生成する。この中間画像信号GFsは、中間画像信
号補間部723に供給される。このとき、遠景レイヤの
動き量は小さく近景レイヤの動き量は大きいことから上
述の図14と同様に、遠景レイヤの中間画像は水平方向
の長さが短く、近景レイヤの中間画像では長くなる。ま
た、後退レイヤでは動きが逆方向であることから、動き
量の絶対値分だけ側面画像から画像を読み込み左右反転
して貼り付けていくことで、後退レイヤの中間画像を作
成する。
The image reading unit 722 extracts a signal for each layer from the image signal SDP of the projected image according to the motion amount MYs calculated by the motion amount average value calculation unit 721 based on the layer classification information LB, Intermediate image signal G for each
Generate Fs. The intermediate image signal GFs is supplied to the intermediate image signal interpolation unit 723. At this time, since the amount of motion of the distant view layer is small and the amount of motion of the near view layer is large, the intermediate image of the distant view layer has a short horizontal length, and the intermediate image of the near view layer has a long length, as in FIG. 14 described above. Further, since the movement is in the opposite direction in the backward layer, the intermediate image of the backward layer is created by reading the images from the side image by the absolute value of the amount of movement and reversing and sticking the images.

【0121】中間画像信号補間部723は、中間画像信
号補間部273と同様に、動き量MYsの異なる各レイ
ヤの画像を遠景,中景,近景の順に貼り付けても、動き
量の違いかかわらず画像のないアンカバード(Uncovere
d)領域が生ずることがないように中間画像信号GFsの
補正を行い、補正された信号を中間画像信号GYsとし
て中間画像情報蓄積領域32に記憶させる。
Similar to the intermediate image signal interpolating unit 273, the intermediate image signal interpolating unit 723 pastes the images of the respective layers having different motion amounts MYs in the order of distant view, middle view, and near view, regardless of the difference in motion amount. Uncovered without images
d) The intermediate image signal GFs is corrected so that no area is generated, and the corrected signal is stored in the intermediate image information storage area 32 as the intermediate image signal GYs.

【0122】また、追越し車両等の後退レイヤがあると
きには、近景レイヤの手前のレイヤであることから補間
処理を行わないものとする。また、右左折時に遠景に現
れる建物等を示す水平移動レイヤが設けられているとき
には、遠景レイヤと同様に補間処理を行う。なお、後退
レイヤや水平移動レイヤの被写体の判別は、右側射影画
像と左側射影画像の動き判別画像の動き方向に基づいて
図10の場合と同様に動きパターンを判別して、判別さ
れた動きパターンから判別できる。例えば左側画像の画
面上部と右側画像の画面上部での動きが異なる方向を示
しているときには右折あるいは左折動作中であることを
判別できる。また、左側画像と右側画像の画面上部の動
きが同じ方向を示しており、これらとは逆方向の動きで
ある被写体は、後退レイヤと判別できる。
When there is a backward layer such as an overtaking vehicle, the interpolation processing is not performed because it is a layer before the near view layer. When a horizontally moving layer indicating a building or the like that appears in the distant view when turning right or left is provided, the interpolation process is performed in the same manner as the distant view layer. It should be noted that in the determination of the subject in the backward layer or the horizontal movement layer, the motion pattern is determined based on the movement direction of the motion determination image of the right projection image and the left projection image in the same manner as in FIG. 10, and the determined motion pattern is determined. It can be determined from. For example, it is possible to determine that a right turn or a left turn is being performed when the left image and the right image have different movements in the upper part of the screen. Further, the left image and the right image show the same direction of movement of the upper part of the screen, and a subject whose movement is in the opposite direction can be discriminated as a backward layer.

【0123】次に、各レイヤの中間画像情報を用いて周
辺画像を生成する動作について説明する。この周辺画像
の生成では、上述の周辺画像信号生成ブロック40と同
様にして、周辺画像信号を生成できる。すなわち、各レ
イヤの画像をその動き量分だけ読み出すと共に、遠景レ
イヤ、中景レイヤ、近景レイヤの順に貼り付ける。また
水平移動レイヤや後退レイヤが設定されているときにも
周辺画像信号生成ブロック40と同様にして、周辺画像
信号を生成できる。
Next, the operation of generating a peripheral image using the intermediate image information of each layer will be described. In generating the peripheral image, the peripheral image signal can be generated in the same manner as the above-described peripheral image signal generation block 40. That is, the image of each layer is read out by the amount of movement, and the distant view layer, the middle view layer, and the near view layer are attached in this order. Further, even when the horizontal movement layer or the backward layer is set, the peripheral image signal can be generated in the same manner as the peripheral image signal generation block 40.

【0124】また、画像の貼り付けでは、例えば周辺画
像として右側面画像を生成するときには、各レイヤの同
一フレーム部分が、生成する右側面画像の左端で重なる
ように貼り付ける。また、最初に正面画像から変換した
射影画像の右端と、生成した側面画像の左端が等しくな
るようにする。その後、レイヤ毎に、レイヤ毎の動き量
に基づいて画像を移動させて、この移動された画像に次
の画像をレイヤ毎に貼り付けることで、図27に示すよ
うに射影面画像と連続する側面画像を生成することがで
きる。
In addition, in image pasting, for example, when a right side image is generated as a peripheral image, the same frame portion of each layer is pasted so as to overlap at the left end of the generated right side image. Also, the right end of the projected image converted from the front image first and the left end of the generated side image are made equal. After that, the image is moved for each layer based on the amount of movement of each layer, and the next image is pasted to this moved image for each layer, so as to be continuous with the projection plane image as shown in FIG. 27. A side image can be generated.

【0125】ところで、中間画像情報を用いてレイヤ毎
の中間画像を貼り付けて生成された画像は、図28に示
すように射影面と等しい面上の画像である。一方周辺画
像が表示されるスクリーン10Rは、射影面とは傾きを
持って設置されている。このため、各レイヤの画像を貼
り付けてスクリーン10Rに表示させたとき、画像が正
しい形状で移動するように画像の変換処理を行う。
By the way, the image generated by pasting the intermediate image for each layer using the intermediate image information is an image on the same plane as the projection plane as shown in FIG. On the other hand, the screen 10R on which the peripheral image is displayed is installed with an inclination with respect to the projection plane. Therefore, when the image of each layer is pasted and displayed on the screen 10R, the image conversion process is performed so that the image moves in a correct shape.

【0126】ここで、図28に示すように、正面画像の
水平方向の長さの1/2を距離d、正面画像の撮影位置
である位置Oが、スクリーン10Rの中心からの法線上
となるようにスクリーン10Rを傾けて設置した場合、
スクリーン10R上の位置(Xc,Yc)の画像信号は、
式(8)(9)に基づいて算出された変換前の画像位置
(xc,yc)の画像信号を抽出すれば、射影変換後の右
側面画像の周辺画像信号SDRを容易に生成できる。ま
た、この画像信号SDRを用いてスクリーン10Rに右側
面動画像を表示させることで、臨場感の高い右側面画像
を表示できる。
Here, as shown in FIG. 28, 1/2 of the horizontal length of the front image is the distance d, and the position O which is the photographing position of the front image is on the normal line from the center of the screen 10R. When the screen 10R is tilted like this,
The image signal at the position (Xc, Yc) on the screen 10R is
By extracting the image signal at the image position (xc, yc) before conversion calculated based on the equations (8) and (9), the peripheral image signal SDR of the right side image after projective conversion can be easily generated. Also, by displaying the right side moving image on the screen 10R using this image signal SDR, the right side image having a high sense of presence can be displayed.

【0127】[0127]

【数5】 [Equation 5]

【0128】なお、周辺画像信号SDLも周辺画像SDR
と同様にして生成できることは勿論である。
The peripheral image signal SDL is also the peripheral image SDR.
Of course, it can be generated in the same manner as.

【0129】さらに、上述の各処理ブロックで行われる
処理はハードウェアだけでなくソフトウェアで実現する
ものとしても良い。この場合の構成を図29に示す。
Further, the processing performed in each processing block described above may be realized not only by hardware but also by software. The structure in this case is shown in FIG.

【0130】コンピュータ90は、図29に示すように
CPU(Central Processing Unit)901を内蔵してお
り、このCPU901にはバス920を介してROM9
02,RAM903,ハード・ディスク・ドライブ90
4,入出力インタフェース905が接続されている。さ
らに、入出力インタフェース905には入力部911や
記録媒体ドライブ912,通信部913,画像入出力部
914が接続されている。
As shown in FIG. 29, the computer 90 has a built-in CPU (Central Processing Unit) 901. The CPU 901 is provided with a ROM 9 via a bus 920.
02, RAM 903, hard disk drive 90
4, the input / output interface 905 is connected. Furthermore, an input unit 911, a recording medium drive 912, a communication unit 913, and an image input / output unit 914 are connected to the input / output interface 905.

【0131】キーボードやマウス等の操作入力手段ある
いはマイク等の音声入力手段等を用いて構成された入力
部911から、命令が入力されると、この命令が入出力
インタフェース905を介してCPU901に供給され
る。
When a command is input from the input unit 911 configured by using an operation input unit such as a keyboard or a mouse or a voice input unit such as a microphone, the command is supplied to the CPU 901 through the input / output interface 905. To be done.

【0132】CPU901では、ROM902やRAM
903あるいはハード・ディスク・ドライブ904に記
憶されているプログラムを実行して、供給された命令に
応じた処理を行う。さらに、ROM902やRAM90
3あるいはハード・ディスク・ドライブ904には、上
述の各ブロックでの処理を実行するためのプログラムも
記憶させて、側面画像の生成も行う。
The CPU 901 has a ROM 902 and a RAM.
The program stored in the hard disk drive 903 or the hard disk drive 904 is executed to perform the processing according to the supplied instruction. Furthermore, ROM902 and RAM90
3 or the hard disk drive 904 also stores a program for executing the processing in each block described above, and also generates a side image.

【0133】ここで、中間画像情報の生成や中間画像情
報から周辺画像信号を生成して出力する画像処理プログ
ラムは、情報記録媒体であるROM902やハード・デ
ィスク・ドライブ904に予め記憶しておくことができ
る。
Here, the image processing program for generating the intermediate image information and for generating and outputting the peripheral image signal from the intermediate image information should be stored in advance in the ROM 902 or the hard disk drive 904 which is an information recording medium. You can

【0134】あるいは、磁気や光を利用したリムーバブ
ル記録媒体や半導体素子等を用いて構成されたリムーバ
ブルの情報記録伝送媒体、例えばフロッピー(R)ディ
スクやCD−ROM等の光ディスク、MOディスク等の
光磁気ディスク、テープカートリッジ、あるいは半導体
メモリ等に画像生成プログラムを記録するものとして、
これらのリムーバブル情報記録伝送媒体を記録媒体ドラ
イブ912に装着して記録されている画像処理プログラ
ムを読み出し、読み出したプログラムを入出力インタフ
ェース905やバス920を介してハード・ディスク・
ドライブ904等に記憶させることでインストールして
も良い。
Alternatively, a removable information recording / transmission medium composed of a removable recording medium using magnetism or light or a semiconductor element, for example, an optical disk such as a floppy (R) disk or a CD-ROM, or an optical disk such as an MO disk. For recording the image generation program on a magnetic disk, tape cartridge, or semiconductor memory,
These removable information recording / transmission media are attached to the recording medium drive 912 to read the recorded image processing program, and the read program is read through the input / output interface 905 and the bus 920 to a hard disk drive.
It may be installed by storing it in the drive 904 or the like.

【0135】さらに、通信部913を設けて、有線や無
線の伝送路、例えばLANやインターネット等のネット
ワーク、あるいは衛星放送波や地上放送波等を利用して
供給された画像処理プログラムを受信して、この受信し
た画像処理プログラムを、入出力インタフェース905
及びバス920を介してハード・ディスク・ドライブ9
04等にインストールすることもできる。
Further, a communication unit 913 is provided to receive an image processing program supplied using a wired or wireless transmission path, for example, a network such as LAN or the Internet, or satellite broadcast wave or terrestrial broadcast wave. , The received image processing program is input / output interface 905.
And hard disk drive 9 via bus 920
It can also be installed on 04 etc.

【0136】ここで、画像処理プログラムが実行されて
中間画像情報の生成が行われたときには、ハード・ディ
スク・ドライブ904あるいは記録媒体ドライブ912
に装着された記録媒体に記録されている正面画像の画像
信号SDCが読み出されて、上述のような処理が行われ
て中間画像情報が、例えば画像信号SDCと共にハード
・ディスク・ドライブ904や記録媒体ドライブ912
に装着された記録媒体に記録される。また、周辺画像の
画像信号の出力が要求されたときには、中間画像情報が
読み出されて左右側面画像の画像信号SDR,SDLが生
成されると共に、この画像信号SDR,SDLが正面画像
の画像信号SDCとタイミングを合わせて出力される。
このため、正面と左右のスクリーンを用いて、広画角の
連続した画像を表示することができる。
Here, when the image processing program is executed to generate the intermediate image information, the hard disk drive 904 or the recording medium drive 912.
The image signal SDC of the front image recorded on the recording medium mounted on the recording medium is read out, and the above-described processing is performed to output intermediate image information, for example, together with the image signal SDC to the hard disk drive 904 or the recording unit. Media drive 912
It is recorded on the recording medium mounted on the. When the output of the image signal of the peripheral image is requested, the intermediate image information is read to generate the image signals SDR and SDL of the left and right side images, and the image signals SDR and SDL are the image signals of the front image. It is output at the same timing as SDC.
Therefore, continuous images with a wide angle of view can be displayed using the front and left and right screens.

【0137】このように、上述の実施の形態によれば、
正面画像の動きを判別して、正面画像から判別された動
きに基づいて異方向の周辺画像を生成できる。このた
め、ビデオカメラ等で撮影された正面動画像から同時系
列で異方向の動画像を生成できるので、臨場感が高く広
画角である多画面の画像提示ができる。
Thus, according to the above-mentioned embodiment,
It is possible to determine the movement of the front image and generate a peripheral image in a different direction based on the movement determined from the front image. Therefore, since moving images in different directions can be simultaneously generated from front moving images captured by a video camera or the like, multi-screen images with a high sense of presence and a wide angle of view can be presented.

【0138】また、1つの入力画像から異方向の画像を
生成できるので、複数のビデオカメラや広角レンズを用
いたカメラ等を用いる必要がなく、撮影を容易に行うこ
とができる。
Also, since images in different directions can be generated from one input image, it is not necessary to use a plurality of video cameras or cameras using wide-angle lenses, and shooting can be performed easily.

【0139】さらに、実写画像を用いて異方向の画像を
生成するものであることから、コンピュータグラフィッ
クスによる3次元仮想空間の画像よりもリアルで臨場感
の高い画像を表示させることができると共に、奥行きを
2次元平面の階層として表現するため、3次元の演算処
理が不要となり、信号処理も容易である。
Further, since the image in the different direction is generated by using the real image, it is possible to display a more realistic and realistic image than the image in the three-dimensional virtual space by computer graphics, and Since the depth is expressed as a hierarchy of a two-dimensional plane, three-dimensional arithmetic processing is unnecessary and signal processing is easy.

【0140】また、入力画像信号として蓄積されている
信号を用いることで、時間の経過と共に正面画像内に入
り込む画像を、正面画像で表示される前に周辺画像で表
示することができる。このようにリアルタイムの画像信
号を用いたときには表示することができない画像を周辺
画像で表示することができるので、より現実的で臨場感
の高い広画角の画像表示を行うことができる。また、既
に存在している莫大な画像ソースを入力画像信号として
用いることで、これらの画像を臨場感が高く広画角で楽
しむこともできる。
Further, by using the signal stored as the input image signal, it is possible to display an image that enters the front image with the passage of time as a peripheral image before the front image is displayed. In this way, since an image that cannot be displayed when a real-time image signal is used can be displayed as a peripheral image, it is possible to perform more realistic and highly realistic image display with a wide angle of view. Further, by using an already existing huge image source as an input image signal, it is possible to enjoy these images with a high sense of realism and a wide angle of view.

【0141】なお、上述の実施の形態では、正面画像の
側端部に複数の検出領域を設けて検出領域毎に動きベク
トルを求めたり、射影画像から動き判別画像を生成して
積分画像と比較することにより、注目フレームの所定位
置の動きを判別して中間画像情報を生成し、この中間画
像情報を利用して周辺画像信号を生成したが、動き検出
は、注目フレームの所定位置の動きを判別できるもので
あれば良く、上述の方法は例示的なものであって、限定
的なものではないことは勿論である。
In the above-described embodiment, a plurality of detection areas are provided at the side edges of the front image to obtain a motion vector for each detection area, or a motion discrimination image is generated from a projected image and compared with an integral image. By doing so, the intermediate position image information is generated by discriminating the movement of the target frame at the predetermined position, and the peripheral image signal is generated by using this intermediate image information. Any method can be used as long as it can be discriminated, and it goes without saying that the above method is an example and not a limitation.

【0142】[0142]

【発明の効果】この発明によれば、複数フレームの入力
画像信号を用いて、入力画像信号における注目フレーム
の所定位置の動きが検出されて、この検出された動きと
複数フレームの入力画像信号に基づいて中間画像情報が
生成される。さらに、この中間画像情報に基づいて、注
目フレームに存在しない画角の周辺画像信号が生成され
る。このため、実写した入力画像信号を用いて注目フレ
ームに存在しない画角の周辺画像信号を生成することに
より、この周辺画像をリアルで臨場感の高い画像として
表示させることができる。また、複数のビデオカメラや
特殊レンズを用いたビデオカメラを用いることなく、1
つの入力画像から異方向の周辺画像を生成して広画角の
画像提示を容易に行うことができる。さらに、既に存在
している莫大な画像ソースを利用して臨場感が高く広画
角の画像提示を行うこともできる。
According to the present invention, by using the input image signals of a plurality of frames, the motion of the target frame in the input image signal at a predetermined position is detected, and the detected motion and the input image signals of the plurality of frames are detected. Intermediate image information is generated based on the information. Further, based on this intermediate image information, a peripheral image signal having an angle of view that does not exist in the frame of interest is generated. Therefore, by generating a peripheral image signal having an angle of view that does not exist in the frame of interest using the actually captured input image signal, this peripheral image can be displayed as a realistic and highly realistic image. Also, without using multiple video cameras or video cameras with special lenses,
A wide-angle image can be easily presented by generating peripheral images in different directions from two input images. Furthermore, it is also possible to present an image with a high sense of presence and a wide angle of view by utilizing an already existing huge image source.

【0143】また、所定位置の動きに基づいたレイヤ分
類を行って、所定位置を複数レイヤのいずれかに分類す
るものとし、分類結果と入力画像信号と所定位置の動き
に基づき、レイヤ毎の動き量とレイヤ毎の画像信号が中
間画像情報とされる。このため、2次元平面上での動き
に基づいて奥行き方向の階層化を行い、各階層の画像信
号を貼り付けることで、3次元処理を行うことなく3次
元での画像提示を行うことができる。
Further, it is assumed that the layer classification is performed based on the motion of the predetermined position to classify the predetermined position into any of a plurality of layers, and the motion of each layer is calculated based on the classification result, the input image signal and the motion of the predetermined position. The amount and the image signal for each layer are used as intermediate image information. For this reason, it is possible to perform three-dimensional image presentation without performing three-dimensional processing by performing depth-direction hierarchization based on movement on a two-dimensional plane and pasting image signals of each hierarchy. .

【図面の簡単な説明】[Brief description of drawings]

【図1】表示システムの構成を示す図である。FIG. 1 is a diagram showing a configuration of a display system.

【図2】画像投影状態を示す図である。FIG. 2 is a diagram showing an image projection state.

【図3】画像処理装置の構成を示す図である。FIG. 3 is a diagram showing a configuration of an image processing apparatus.

【図4】各検出領域の動きベクトルを示す図である。FIG. 4 is a diagram showing a motion vector of each detection area.

【図5】動きベクトルの判別方法を説明するための図で
ある。
FIG. 5 is a diagram for explaining a method of discriminating a motion vector.

【図6】ズーム時の領域サイズの変化を説明するための
図である。
FIG. 6 is a diagram for explaining a change in area size during zooming.

【図7】画像基準位置の判別方法を示す図である。FIG. 7 is a diagram showing a method of determining an image reference position.

【図8】動き検出処理部の構成を示す図である。FIG. 8 is a diagram showing a configuration of a motion detection processing unit.

【図9】レイヤ分類部の構成を示す図である。FIG. 9 is a diagram showing a configuration of a layer classification unit.

【図10】ベクトル方向と動きパターンの関係を説明す
るための図である。
FIG. 10 is a diagram for explaining a relationship between a vector direction and a motion pattern.

【図11】閾値の設定方法を説明するための図である。FIG. 11 is a diagram for explaining a threshold setting method.

【図12】レイヤ分類情報の生成動作を説明するための
図である。
FIG. 12 is a diagram for explaining a generation operation of layer classification information.

【図13】情報生成処理部の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of an information generation processing unit.

【図14】レイヤ毎の中間画像を示す図である。FIG. 14 is a diagram showing an intermediate image for each layer.

【図15】補間処理後のレイヤ毎の中間画像を示す図で
ある。
FIG. 15 is a diagram showing an intermediate image for each layer after interpolation processing.

【図16】周辺画像信号生成ブロックの構成を示す図で
ある。
FIG. 16 is a diagram showing a configuration of a peripheral image signal generation block.

【図17】画像変換処理を説明するための図である。FIG. 17 is a diagram for explaining image conversion processing.

【図18】画像信号処理装置の他の構成を示す図であ
る。
FIG. 18 is a diagram showing another configuration of the image signal processing device.

【図19】幾何変換処理を説明するための図である。FIG. 19 is a diagram for explaining a geometric conversion process.

【図20】動き判別画像生成部の動作を説明するための
図である。
FIG. 20 is a diagram for explaining the operation of the motion determination image generation unit.

【図21】積分画像の生成動作を説明するための図であ
る。
FIG. 21 is a diagram for explaining an integrated image generating operation.

【図22】積分画像生成部の構成を示す図である。FIG. 22 is a diagram showing a configuration of an integral image generation unit.

【図23】積分画像生成部の動作を説明するための図で
ある。
FIG. 23 is a diagram for explaining the operation of the integral image generation unit.

【図24】動き量判別部の動作を説明するための図であ
る。
FIG. 24 is a diagram for explaining the operation of the motion amount determination unit.

【図25】後退レイヤの動き判別画像の生成動作を説明
するための図である。
[Fig. 25] Fig. 25 is a diagram for describing an operation of generating a movement determination image of a backward layer.

【図26】情報生成処理部の構成を示す図である。FIG. 26 is a diagram showing a configuration of an information generation processing unit.

【図27】射影面画像と生成した側面画像を示す図であ
る。
FIG. 27 is a diagram showing a projected surface image and a generated side surface image.

【図28】スクリーンで正しく画像表示を行うための画
像変換処理を説明するための図である。
FIG. 28 is a diagram for explaining an image conversion process for displaying an image correctly on a screen.

【図29】コンピュータを用いたときの構成を示す図で
ある。
FIG. 29 is a diagram showing a configuration when a computer is used.

【符号の説明】[Explanation of symbols]

10L,10C,10R・・・スクリーン、12L,12
C,12R・・・プロジェクタ、15,55・・・画像処
理装置、20,62・・・動き検出ブロック、21・・
・フレーム遅延処理部、22・・・動き検出処理部、2
5,70・・・中間画像情報生成ブロック、26,71
・・・レイヤ分類部、27,72・・・情報生成処理
部、30・・・蓄積部、31・・・正面画像信号蓄積領
域、32・・・中間画像情報蓄積領域、40・・・周辺
画像信号生成ブロック、41・・・画像生成制御部、4
2・・・レイヤ画像生成処理部、43・・・射影変換
部、44・・・画像信号生成部、61・・・幾何変換
部、63・・・動き判別画像生成処理部、64・・・積
分画像生成処理部、65・・・動き量判別部、90・・
・コンピュータ、221・・・サイズ変換処理部、22
2・・・誤差和算出部、223・・・比較処理部、22
4・・・データ保持部、225・・・探索制御部、26
1・・・パターン判定部、262・・・レイヤ作成判定
部、263・・・分類処理部、264・・・閾値設定
部、265・・・分類補正部、271,721・・・動
き量平均値算出部、272,722・・・画像読み込み
部、273,723・・・中間画像信号補間部、421
-1〜421-5・・・貼り付け部、422-1〜422-5・
・・1フレーム遅延部、423-1〜423-5・・・画像
シフト部、431〜434・・・変換処理部、441・
・・遠景貼り付け部、442・・・中景貼り付け部、4
43・・・近景貼り付け部、444・・・縮小貼り付け
部、641-1〜641-ns・・・演算処理部、642-1
〜642-ns・・・画素切り出し部、901・・・CP
U、902・・・ROM、903・・・RAM、904
・・・ハード・ディスク・ドライブ、905・・・入出
力インタフェース、911・・・入力部、912・・・
記録媒体ドライブ、913・・・通信部、914・・・
画像入出力部、920・・・バス
10L, 10C, 10R ... Screen, 12L, 12
C, 12R ... Projector, 15, 55 ... Image processing device, 20, 62 ... Motion detection block, 21 ...
・ Frame delay processing unit, 22 ... Motion detection processing unit, 2
5, 70 ... Intermediate image information generation block, 26, 71
... Layer classification unit, 27, 72 ... Information generation processing unit, 30 ... Storage unit, 31 ... Front image signal storage region, 32 ... Intermediate image information storage region, 40 ... Surroundings Image signal generation block, 41 ... Image generation control unit, 4
2 ... Layer image generation processing unit, 43 ... Projection conversion unit, 44 ... Image signal generation unit, 61 ... Geometric conversion unit, 63 ... Motion determination image generation processing unit, 64 ... Integral image generation processing unit, 65 ... Motion amount determination unit, 90 ...
・ Computer 221 ... Size conversion processing unit, 22
2 ... Error sum calculation unit, 223 ... Comparison processing unit, 22
4 ... data holding unit, 225 ... search control unit, 26
DESCRIPTION OF SYMBOLS 1 ... Pattern determination part, 262 ... Layer creation determination part, 263 ... Classification processing part, 264 ... Threshold setting part, 265 ... Classification correction part, 271, 721 ... Motion amount average Value calculation unit, 272, 722 ... Image reading unit, 273, 723 ... Intermediate image signal interpolation unit, 421
-1 to 421-5 ... Attached part, 422-1 to 422-5
.. 1 frame delay unit, 423-1 to 423-5 ... Image shift unit, 431 to 434 ... Conversion processing unit, 441
..Landscape pasting part, 442 ... Middle view pasting part, 4
43 ... near view pasting unit, 444 ... reduction pasting unit, 641-1 to 641-ns ... arithmetic processing unit, 642-1
~ 642-ns ... Pixel cutout unit, 901 ... CP
U, 902 ... ROM, 903 ... RAM, 904
... Hard disk drive, 905 ... I / O interface, 911 ... Input section, 912 ...
Recording medium drive, 913 ... Communication unit, 914 ...
Image input / output unit, 920 ... Bus

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/262 H04N 5/262 5L096 7/18 7/18 K V (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 菊地 大介 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B057 AA20 CA12 CA16 CB12 CB16 CD05 CD06 CE08 CE10 DA07 DB02 DC34 5C023 AA11 BA11 5C054 AA01 AA04 FC13 FD02 5C061 AA23 AB12 5C082 AA27 BA12 BA20 BA42 BB25 CA52 CA54 CA55 CA84 DA61 DA87 MM10 5L096 CA02 DA02 FA34 FA69 GA08 GA19 GA51 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 5/262 H04N 5/262 5L096 7/18 7/18 KV (72) Inventor Satoshi Kokubo Shinagawa, Tokyo 6-735 Kita-Shinagawa-ku, Sony Corporation (72) Inventor Daisuke Kikuchi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo F-Term (reference) within Sony Corporation 5B057 AA20 CA12 CA16 CB12 CB16 CD05 CD06 CE08 CE10 DA07 DB02 DC34 5C023 AA11 BA11 5C054 AA01 AA04 FC13 FD02 5C061 AA23 AB12 5C082 AA27 BA12 BA20 BA42 BB25 CA52 CA54 CA55 CA84 DA61 DA87 MM10 5L096 CA02 DA02 FA34 FA69 GA08 GA19 GA51

Claims (40)

【特許請求の範囲】[Claims] 【請求項1】 複数フレームの入力画像信号を用いて、
前記入力画像信号における注目フレームの所定位置の動
きを検出する動き検出手段と、 前記動き検出手段で検出された動きと前記複数フレーム
の入力画像信号に基づいて中間画像情報を生成する中間
画像情報生成手段と、 前記中間画像情報生成手段で生成された中間画像情報に
基づいて、前記注目フレームに存在しない画角の周辺画
像信号を生成する周辺画像信号生成手段とを備えること
を特徴とする画像処理装置。
1. Using input image signals of a plurality of frames,
Motion detection means for detecting a movement of a target frame at a predetermined position in the input image signal, and intermediate image information generation for generating intermediate image information based on the movement detected by the movement detection means and the input image signals of the plurality of frames And a peripheral image signal generating means for generating a peripheral image signal having an angle of view that does not exist in the frame of interest based on the intermediate image information generated by the intermediate image information generating means. apparatus.
【請求項2】 前記中間画像情報生成手段は、 前記所定位置の動きに基づいたレイヤ分類を行って、前
記所定位置を複数レイヤのいずれかに分類するレイヤ分
類手段と、 前記レイヤ分類手段での分類結果と前記入力画像信号と
前記所定位置の動きに基づき、前記レイヤ毎の動き量と
前記レイヤ毎の画像信号を前記中間画像情報として生成
する情報生成処理手段を有することを特徴とする請求項
1記載の画像処理装置。
2. The intermediate image information generation means performs layer classification based on the movement of the predetermined position, and classifies the predetermined position into one of a plurality of layers, and the layer classification means 7. An information generation processing means for generating the amount of movement of each layer and the image signal of each layer as the intermediate image information based on the classification result, the input image signal, and the movement of the predetermined position. 1. The image processing device according to 1.
【請求項3】 前記レイヤ分類手段は、 前記レイヤ分類を行う際に用いる閾値を、所定フレーム
数の前記所定位置の動き量に基づいて決定する閾値設定
手段を有することを特徴とする請求項2記載の画像処理
装置。
3. The layer classification means includes threshold setting means for determining a threshold used when performing the layer classification based on a motion amount at a predetermined position of a predetermined number of frames. The image processing device described.
【請求項4】 前記情報生成手段では、前記レイヤ毎の
動き量に基づいて前記入力画像信号から信号の抽出をレ
イヤ毎に行い前記レイヤ毎の画像信号を生成することを
特徴とする請求項2記載の画像処理装置。
4. The information generating means generates a signal for each layer by extracting a signal from the input image signal for each layer based on a motion amount for each layer. The image processing device described.
【請求項5】 前記情報生成処理手段は、 前記レイヤ毎の画像信号に基づく画像を所定の順序で張
り合わせたときに画像の無くなる領域がある場合は、前
記画像の無くなる領域の周辺領域の画像信号を用いて補
間処理を行い、前記画像の無くなる領域の画像信号を作
成する中間画像補間処理手段を有することを特徴とする
請求項2記載の画像処理装置。
5. The information generation processing means, when there is a region where the image disappears when the images based on the image signals of the respective layers are combined in a predetermined order, the image signal of the peripheral region of the region where the image disappears. 3. The image processing apparatus according to claim 2, further comprising: an intermediate image interpolation processing unit that performs an interpolation process by using an image signal to create an image signal of a region where the image disappears.
【請求項6】 前記レイヤ分類手段でレイヤ分類を行う
際の前記複数レイヤは、奥行きを示すことを特徴とする
請求項2記載の画像処理装置。
6. The image processing apparatus according to claim 2, wherein the plurality of layers when the layer classification is performed by the layer classification means indicate depth.
【請求項7】 前記動き検出手段では、前記注目フレー
ムの所定位置の画像と、前記注目フレーム対する前フレ
ームあるいは後フレームの画像との相関を検出して、前
記注目フレームの所定位置と相関が最も高い画像の位置
から動き方向と動き量を検出することを特徴とする請求
項2記載の画像処理装置。
7. The motion detecting means detects a correlation between an image at a predetermined position of the frame of interest and an image of a previous frame or a subsequent frame corresponding to the frame of interest, and finds the most correlation with the predetermined position of the frame of interest. The image processing apparatus according to claim 2, wherein the movement direction and the movement amount are detected from the position of the high image.
【請求項8】 前記レイヤ分類手段では、前記複数フレ
ームの入力画像信号から、前記所定位置の動き方向に基
づいて動きパターンの検出を行い、検出結果に応じて前
記複数のレイヤを設定することを特徴とする請求項7記
載の画像処理装置。
8. The layer classification means detects a motion pattern from the input image signals of the plurality of frames based on a motion direction of the predetermined position, and sets the plurality of layers according to a detection result. The image processing apparatus according to claim 7, which is characterized in that.
【請求項9】 前記レイヤ分類手段では、前記動き検出
手段で検出された前記所定位置の動き量に基づき、前記
複数レイヤへの分類を行うことを特徴とする請求項8記
載の画像処理装置。
9. The image processing apparatus according to claim 8, wherein the layer classification unit performs classification into the plurality of layers based on the amount of movement of the predetermined position detected by the movement detection unit.
【請求項10】 入力画像信号に基づく画像を所定面に
射影した射影画像の画像信号を生成する幾何変換手段を
有し、 前記動き検出手段では、前記射影画像の画像信号を用い
て前記注目フレームの所定位置の動きを検出し、 前記中間画像情報生成手段では、前記動き検出手段で検
出された動きと前記射影画像の画像信号に基づいて前記
中間画像情報を生成することを特徴とする請求項1記載
の画像処理装置。
10. The geometric conversion means for generating an image signal of a projected image obtained by projecting an image based on an input image signal onto a predetermined surface, wherein the motion detection means uses the image signal of the projected image to generate the frame of interest. 7. The intermediate image information generating unit generates the intermediate image information based on the motion detected by the motion detecting unit and the image signal of the projected image. 1. The image processing device according to 1.
【請求項11】 前記動き検出手段は、 前記射影画像の所定領域の画像信号をフレーム毎に抽出
して動き判別画像の画像信号を生成する動き判別画像生
成手段と、 前記射影画像の位置をフレーム毎にずらした画像信号を
用いて所定フレーム分の平均値画像信号を順次生成する
と共に、該平均値画像信号からフレーム毎に画像信号を
抽出して積分画像の画像信号を生成し、さらに前記射影
画像のずらし量を変えて前記積分画像の画像信号を複数
生成する積分画像生成手段と、 前記動き判別画像生成手段で生成した前記動き判別画像
の画像信号と、前記積分画像生成手段で生成した前記複
数の積分画像の画像信号との相関を検出して、前記所定
位置と最も相関が高いとされた積分画像の画像信号を生
成したときのずらし量から前記所定位置の動き量を判別
する動き量判別手段を有することを特徴とする請求項1
0記載の画像処理装置。
11. The motion detecting means extracts the image signal of a predetermined region of the projected image for each frame to generate an image signal of the motion determining image, and a position of the projected image in the frame. An average value image signal for a predetermined frame is sequentially generated using the image signals shifted for each frame, and an image signal of an integral image is generated by extracting the image signal for each frame from the average value image signal, and further the projection is performed. An integral image generating unit that generates a plurality of image signals of the integral image by changing the image shift amount, an image signal of the motion determining image generated by the motion determining image generating unit, and the image generating unit by the integral image generating unit. Detecting the correlation with the image signals of a plurality of integrated images and moving the predetermined position from the shift amount when the image signal of the integrated image having the highest correlation with the predetermined position is generated. 2. A motion amount discriminating means for discriminating an amount is provided.
The image processing device according to 0.
【請求項12】 前記レイヤ分類手段では、前記動き量
判別手段で判別された動き量に応じて、レイヤ分類を行
うことを特徴とする請求項11記載の画像処理装置。
12. The image processing apparatus according to claim 11, wherein the layer classification unit performs layer classification according to the motion amount determined by the motion amount determination unit.
【請求項13】 前記周辺画像信号生成手段は、 前記周辺画像信号を前記入力画像信号に対応させて出力
できるように、前記中間画像情報蓄積手段からの前記中
間画像情報の読み出しと前記周辺画像信号の生成を制御
する制御手段を有することを特徴とする請求項1記載の
画像処理装置。
13. The peripheral image signal generating means reads the intermediate image information from the intermediate image information accumulating means and the peripheral image signal so that the peripheral image signal can be output in correspondence with the input image signal. The image processing apparatus according to claim 1, further comprising a control unit that controls generation of the image.
【請求項14】 前記周辺画像信号生成手段は、 前記レイヤ毎の画像信号を所定のレイヤ順序で貼り付け
て前記周辺画像信号を生成する画像信号生成処理手段と
有することを特徴とする請求項2記載の画像処理装置。
14. The peripheral image signal generation means includes image signal generation processing means for generating the peripheral image signal by pasting the image signals for each layer in a predetermined layer order. The image processing device described.
【請求項15】 前記周辺画像信号生成手段は、 前記レイヤ毎の画像信号を所定のレイヤ順序で貼り付け
た画像信号に画像の無い領域がある場合は、前記画像の
無い領域の周辺領域の画像信号を用いて補間処理を行
い、前記画像信号が無い領域の画像信号を作成する周辺
画像補間処理手段を有することを特徴とする請求項14
記載の画像処理装置。
15. The peripheral image signal generation means, if the image signal obtained by pasting the image signals of each layer in a predetermined layer order has an image-free area, an image of a peripheral area of the image-free area. 15. A peripheral image interpolation processing means for performing an interpolation process using a signal to create an image signal of a region where the image signal is absent.
The image processing device described.
【請求項16】 前記周辺画像信号生成手段は、 前記レイヤ毎の動き量に基づき前記貼り付けた画像信号
をレイヤ毎に移動してから、新たな画像信号を前記レイ
ヤ毎に貼り付けて前記画像信号生成処理手段に供給する
レイヤ画像生成処理手段を有することを特徴とする請求
項14記載の画像処理装置。
16. The peripheral image signal generation means moves the pasted image signal for each layer based on the movement amount for each layer, and then pastes a new image signal for each layer to the image. The image processing apparatus according to claim 14, further comprising layer image generation processing means for supplying the signal generation processing means.
【請求項17】 前記周辺画像信号生成手段は、 前記レイヤ画像生成処理手段で生成された画像信号の射
影変換を行って前記画像信号生成処理手段に供給し、あ
るいは前記画像信号生成処理手段で生成された画像信号
の射影変換を行って出力する射影変換手段を有すること
を特徴とする請求項16記載の画像処理装置。
17. The peripheral image signal generation means performs projective transformation of the image signal generated by the layer image generation processing means and supplies the image signal to the image signal generation processing means, or generates by the image signal generation processing means. The image processing apparatus according to claim 16, further comprising a projective transformation unit that performs projective transformation of the generated image signal and outputs the result.
【請求項18】 前記射影変換手段では、前記入力画像
信号に基づく画像の画像表示面と前記周辺画像信号に基
づく画像の画像表示面との位置関係に応じた射影変換を
行って、前記周辺画像信号を生成することを特徴とする
請求項17記載の画像処理装置。
18. The projective transformation means performs projective transformation in accordance with a positional relationship between an image display surface of an image based on the input image signal and an image display surface of an image based on the peripheral image signal to produce the peripheral image. The image processing device according to claim 17, wherein the image processing device generates a signal.
【請求項19】 前記入力画像信号は蓄積されている信
号であることを特徴とする請求項1記載の画像処理装
置。
19. The image processing apparatus according to claim 1, wherein the input image signal is a stored signal.
【請求項20】 複数フレームの入力画像信号を用い
て、前記入力画像信号における注目フレームの所定位置
の動きを検出するものとし、 検出された動きと前記複数フレームの入力画像信号に基
づいて中間画像情報を生成し、 生成された前記中間画像情報に基づいて、前記注目フレ
ームに存在しない画角の周辺画像信号を生成することを
特徴とする画像処理方法。
20. A plurality of frames of input image signals are used to detect a movement of a target frame at a predetermined position in the input image signal, and an intermediate image based on the detected movements and the plurality of frames of input image signals. An image processing method, wherein information is generated, and a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the generated intermediate image information.
【請求項21】 前記所定位置の動きに基づいたレイヤ
分類を行って、前記所定位置を複数レイヤのいずれかに
分類するものとし、 分類結果と前記入力画像信号と前記所定位置の動きに基
づき、前記レイヤ毎の動き量と前記レイヤ毎の画像信号
を前記中間画像情報として生成することを特徴とする請
求項20記載の画像処理方法。
21. Layer classification is performed based on the movement of the predetermined position to classify the predetermined position into one of a plurality of layers, and based on the classification result, the input image signal, and the movement of the predetermined position, 21. The image processing method according to claim 20, wherein a motion amount for each layer and an image signal for each layer are generated as the intermediate image information.
【請求項22】 前記レイヤ分類を行う際に用いる閾値
を、所定フレーム数の前記所定位置の動き量に基づいて
決定することを特徴とする請求項21記載の画像処理方
法。
22. The image processing method according to claim 21, wherein a threshold value used when performing the layer classification is determined based on a motion amount of the predetermined position of a predetermined number of frames.
【請求項23】 前記レイヤ毎の動き量に基づいて前記
入力画像信号から信号の抽出をレイヤ毎に行い前記レイ
ヤ毎の画像信号を生成することを特徴とする請求項21
記載の画像処理方法。
23. An image signal for each layer is generated by extracting a signal for each layer from the input image signal based on a motion amount for each layer.
The described image processing method.
【請求項24】 前記レイヤ毎の画像信号に基づく画像
を所定の順序で張り合わせたときに画像が無くなる領域
がある場合は、前記画像の無くなる領域の周辺領域の画
像信号を用いて補間処理を行い、前記画像の無くなる領
域の画像信号を作成することを特徴とする請求項21記
載の画像処理方法。
24. When there is a region where the image disappears when the images based on the image signals of the respective layers are combined in a predetermined order, interpolation processing is performed using the image signal of the peripheral region of the region where the image disappears. 22. The image processing method according to claim 21, wherein an image signal of a region where the image disappears is created.
【請求項25】 前記複数レイヤは、奥行きを示すこと
を特徴とする請求項21記載の画像処理方法。
25. The image processing method according to claim 21, wherein the plurality of layers indicate depth.
【請求項26】 前記注目フレームの所定位置の画像
と、前記注目フレームに対する前フレームあるいは後フ
レームの画像との相関を検出して、前記注目フレームの
所定位置と相関が最も高い画像の位置から動き方向と動
き量を検出することを特徴とする請求項21記載の画像
処理方法。
26. A correlation between an image at a predetermined position of the frame of interest and an image of a previous frame or a subsequent frame with respect to the frame of interest is detected, and the image is moved from the position of the image having the highest correlation with the predetermined position of the frame of interest. 22. The image processing method according to claim 21, wherein the direction and the amount of movement are detected.
【請求項27】 前記複数フレームの入力画像信号か
ら、前記所定位置の動き方向に基づいて動きパターンの
検出を行い、検出結果に応じて前記複数のレイヤを設定
することを特徴とする請求項26記載の画像処理方法。
27. The motion pattern is detected from the input image signals of the plurality of frames based on the movement direction of the predetermined position, and the plurality of layers are set according to the detection result. The described image processing method.
【請求項28】 前記動き検出手段で検出された前記所
定位置の動き量に基づき、前記複数レイヤへの分類を行
うことを特徴とする請求項27記載の画像処理方法。
28. The image processing method according to claim 27, wherein the classification into the plurality of layers is performed based on the amount of movement of the predetermined position detected by the movement detecting means.
【請求項29】 入力画像信号に基づく画像を所定面に
射影した射影画像の画像信号を生成し、 前記射影画像の画像信号を用いて前記注目フレームの所
定位置の動きを検出し、検出された動きと前記射影画像
の画像信号に基づいて前記中間画像情報を生成すること
を特徴とする請求項20記載の画像処理方法。
29. An image signal of a projected image is generated by projecting an image based on an input image signal onto a predetermined surface, the movement of the target frame at a predetermined position is detected using the image signal of the projected image, and the detected image is detected. 21. The image processing method according to claim 20, wherein the intermediate image information is generated based on a motion and an image signal of the projected image.
【請求項30】 前記射影画像の所定領域の画像信号を
フレーム毎に抽出して動き判別画像の画像信号を生成
し、 前記射影画像の位置をフレーム毎にずらした画像信号を
用いて所定フレーム分の平均値画像信号を順次生成する
と共に、該平均値画像信号からフレーム毎に画像信号を
抽出して積分画像の画像信号を生成し、さらに前記射影
画像のずらし量を変えて前記積分画像の画像信号を複数
生成するものとし、 前記動き判別画像の画像信号と、前記積分画像生成手段
で生成した前記複数の積分画像の画像信号との相関を検
出して、前記所定位置と最も相関が高いとされた積分画
像の画像信号を生成したときのずらし量から前記所定位
置の動き量を判別することを特徴とする請求項29記載
の画像処理方法。
30. An image signal of a motion discriminating image is generated by extracting an image signal of a predetermined area of the projection image for each frame, and a predetermined frame is generated using an image signal in which the position of the projection image is shifted for each frame. Of the average value image signal is sequentially generated, and the image signal of the integral image is generated by extracting the image signal from the average value image signal for each frame, and the image of the integral image is changed by changing the shift amount of the projection image. A plurality of signals are generated, and the correlation between the image signal of the motion determination image and the image signal of the plurality of integral images generated by the integral image generating means is detected, and the correlation is highest with the predetermined position. 30. The image processing method according to claim 29, wherein the amount of movement of the predetermined position is determined from the shift amount when the image signal of the integrated image is generated.
【請求項31】 前記判別された動き量に応じて、レイ
ヤ分類を行うことを特徴とする請求項30記載の画像処
理方法。
31. The image processing method according to claim 30, wherein layer classification is performed according to the determined motion amount.
【請求項32】 前記周辺画像の画像信号を前記入力画
像信号に対応させて出力できるように、前記中間画像情
報の読み出しと前記周辺画像の画像信号の生成を制御す
ることを特徴とする請求項20記載の画像処理方法。
32. The reading of the intermediate image information and the generation of the image signal of the peripheral image are controlled so that the image signal of the peripheral image can be output in correspondence with the input image signal. 20. The image processing method described in 20.
【請求項33】 前記レイヤ毎の画像信号を所定のレイ
ヤ順序で貼り付けて前記周辺画像の画像信号を生成する
ことを特徴とする請求項21記載の画像処理方法。
33. The image processing method according to claim 21, wherein the image signal of each layer is pasted in a predetermined layer order to generate the image signal of the peripheral image.
【請求項34】 前記レイヤ毎の画像信号を所定のレイ
ヤ順序で貼り付けた画像信号に画像の無い領域がある場
合は、前記画像の無い領域の周辺領域の画像信号を用い
て補間処理を行い、前記画像信号が無い領域の画像信号
を作成することを特徴とする請求項33記載の画像処理
方法。
34. When the image signal obtained by pasting the image signals for each layer in a predetermined layer order has an image-free area, interpolation processing is performed using an image signal in a peripheral area of the image-free area. 34. The image processing method according to claim 33, wherein an image signal of a region without the image signal is created.
【請求項35】 前記レイヤ毎の動き量に基づき前記貼
り付けた画像信号をレイヤ毎に移動してから、新たな画
像信号を前記レイヤ毎に貼り付けるものとし、該レイヤ
毎に貼り付けが行われた画像信号を所定のレイヤ順序で
貼り付けて前記周辺画像の画像信号を生成することを特
徴とする請求項33記載の画像処理方法。
35. After moving the pasted image signal for each layer based on the movement amount for each layer, a new image signal is pasted for each layer, and the pasting is performed for each layer. 34. The image processing method according to claim 33, wherein the separated image signals are pasted in a predetermined layer order to generate an image signal of the peripheral image.
【請求項36】前記レイヤ毎に貼り付けが行われた画像
信号の射影変換、あるいは前記レイヤ毎に貼り付けが行
われた画像信号を所定のレイヤ順序で貼り付けた画像信
号の射影変換を行うことを特徴とする請求項35記載の
画像処理装置。
36. Projective conversion of image signals pasted for each layer, or projective conversion of image signals pasted for each layer in a predetermined layer order. The image processing apparatus according to claim 35, wherein:
【請求項37】 前記入力画像信号に基づく画像の画像
表示面と前記周辺画像の画像表示面との位置関係に応じ
た射影変換を行って、前記周辺画像信号を生成すること
を特徴とする請求項36記載の画像処理方法。
37. The peripheral image signal is generated by performing projective transformation according to the positional relationship between the image display surface of the image based on the input image signal and the image display surface of the peripheral image. Item 36. The image processing method described in Item 36.
【請求項38】 前記入力画像信号は、蓄積されている
信号を用いることを特徴とする請求項20記載の画像処
理方法。
38. The image processing method according to claim 20, wherein the input image signal uses a stored signal.
【請求項39】 画像信号を処理するコンピュータに、 複数フレームの入力画像信号を用いて、前記入力画像信
号における注目フレームの所定位置の動きを検出する動
き検出手順と、 前記動き検出手順で検出された動きと前記複数フレーム
の入力画像信号に基づいて中間画像情報を生成する中間
画像情報生成手順と、 前記中間画像情報生成手順で生成された中間画像情報に
基づいて、前記注目フレームに存在しない画角の周辺画
像信号を生成する周辺画像信号生成手順を実行させるこ
とを特徴とする画像処理プログラム。
39. A computer for processing an image signal, using a plurality of frames of input image signals, detecting a motion of a predetermined position of a frame of interest in the input image signals; The intermediate image information generation procedure for generating intermediate image information based on the motion and the input image signals of the plurality of frames, and the image not existing in the frame of interest based on the intermediate image information generated in the intermediate image information generation procedure. An image processing program for executing a peripheral image signal generation procedure for generating a peripheral image signal of a corner.
【請求項40】 画像信号を処理するコンピュータに、 複数フレームの入力画像信号を用いて、前記入力画像信
号おける注目フレームの所定位置の動きを検出する動き
検出手順と、 前記動き検出手順で検出された動きと前記複数フレーム
の入力画像信号に基づいて中間画像情報を生成する中間
画像情報生成手順と、 前記中間画像情報生成手順で生成された中間画像情報に
基づいて、前記注目フレームに存在しない画角の周辺画
像信号を生成する周辺画像信号生成手順を実行させるた
めのプログラムを記録したことを特徴とする情報記録媒
体。
40. A computer for processing an image signal, using a plurality of frames of input image signals, a motion detection procedure for detecting a motion at a predetermined position of a frame of interest in the input image signal; The intermediate image information generation procedure for generating intermediate image information based on the motion and the input image signals of the plurality of frames, and the image not existing in the frame of interest based on the intermediate image information generated in the intermediate image information generation procedure. An information recording medium, characterized in that a program for executing a peripheral image signal generating procedure for generating a peripheral image signal of a corner is recorded.
JP2001238208A 2000-12-15 2001-08-06 Image processing apparatus, image processing method, image processing program, and information recording medium Expired - Fee Related JP4599775B2 (en)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2001238208A JP4599775B2 (en) 2001-08-06 2001-08-06 Image processing apparatus, image processing method, image processing program, and information recording medium
EP06025781A EP1762980B1 (en) 2000-12-15 2001-12-17 Layered image based rendering
PCT/JP2001/011049 WO2002049368A1 (en) 2000-12-15 2001-12-17 Image processor, image signal generating method, information recording medium, and image processing program
DE60144490T DE60144490D1 (en) 2000-12-15 2001-12-17 IMAGE PROCESSOR, IMAGE SIGNAL GENERATION METHOD, INFORMATION RECORDING MEDIA AND PICTURE PROCESSING PROGRAM
KR1020027010547A KR100859615B1 (en) 2000-12-15 2001-12-17 Image processor, image signal generating method, information recording medium, and image processing program
US10/203,707 US7146023B2 (en) 2000-12-15 2001-12-17 Image processor, image signal generating method, information recording medium, and image processing program
EP06025769A EP1762979B1 (en) 2000-12-15 2001-12-17 Layered image based rendering
DE60144450T DE60144450D1 (en) 2000-12-15 2001-12-17 Layered image-based presentation
EP01271016A EP1347656B1 (en) 2000-12-15 2001-12-17 Image processor, image signal generating method, information recording medium, and image processing program
DE60135885T DE60135885D1 (en) 2000-12-15 2001-12-17 Layered image-based presentation
US11/584,907 US7343027B2 (en) 2000-12-15 2006-10-23 Image processing apparatus, image signal generation method, information recording medium, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001238208A JP4599775B2 (en) 2001-08-06 2001-08-06 Image processing apparatus, image processing method, image processing program, and information recording medium

Publications (3)

Publication Number Publication Date
JP2003052055A true JP2003052055A (en) 2003-02-21
JP2003052055A5 JP2003052055A5 (en) 2008-09-11
JP4599775B2 JP4599775B2 (en) 2010-12-15

Family

ID=19069166

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001238208A Expired - Fee Related JP4599775B2 (en) 2000-12-15 2001-08-06 Image processing apparatus, image processing method, image processing program, and information recording medium

Country Status (1)

Country Link
JP (1) JP4599775B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006567A (en) * 2004-06-24 2006-01-12 Olympus Corp Endoscopic image display device
JP2006208767A (en) * 2005-01-28 2006-08-10 Nikon Corp Image reproducing device and program
JP2011048420A (en) * 2009-08-25 2011-03-10 Fujitsu Ltd Vehicle detector, vehicle detection program, and vehicle detection method
JP2017178192A (en) * 2016-03-31 2017-10-05 日産自動車株式会社 Vehicular display method and vehicular display apparatus
CN112639870A (en) * 2018-08-24 2021-04-09 索尼公司 Image processing apparatus, image processing method, and image processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11168756A (en) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk Image recording device, image database device, image recording method, and computer program storage medium
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
JPH11168756A (en) * 1997-12-03 1999-06-22 Mr System Kenkyusho:Kk Image recording device, image database device, image recording method, and computer program storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006006567A (en) * 2004-06-24 2006-01-12 Olympus Corp Endoscopic image display device
JP2006208767A (en) * 2005-01-28 2006-08-10 Nikon Corp Image reproducing device and program
JP2011048420A (en) * 2009-08-25 2011-03-10 Fujitsu Ltd Vehicle detector, vehicle detection program, and vehicle detection method
JP2017178192A (en) * 2016-03-31 2017-10-05 日産自動車株式会社 Vehicular display method and vehicular display apparatus
CN112639870A (en) * 2018-08-24 2021-04-09 索尼公司 Image processing apparatus, image processing method, and image processing program
CN112639870B (en) * 2018-08-24 2024-04-12 索尼公司 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP4599775B2 (en) 2010-12-15

Similar Documents

Publication Publication Date Title
US11727626B2 (en) Damage detection from multi-view visual data
US7343027B2 (en) Image processing apparatus, image signal generation method, information recording medium, and image processing program
US7778491B2 (en) Oblique image stitching
US20210312702A1 (en) Damage detection from multi-view visual data
JP2022523478A (en) Damage detection from multi-view visual data
US20230410332A1 (en) Structuring visual data
US11252398B2 (en) Creating cinematic video from multi-view capture data
KR101148508B1 (en) A method and device for display of mobile device, and mobile device using the same
US11562474B2 (en) Mobile multi-camera multi-view capture
JP4599775B2 (en) Image processing apparatus, image processing method, image processing program, and information recording medium
JP3849481B2 (en) Signal processing method, signal processing apparatus, and signal processing program
US20210037230A1 (en) Multiview interactive digital media representation inventory verification
JP3823818B2 (en) Image processing apparatus, image signal generation method, image processing program, and information recording medium
JP3982316B2 (en) Image processing apparatus, image processing method, and image processing program
US11972556B2 (en) Mobile multi-camera multi-view capture
US11615582B2 (en) Enclosed multi-view visual media representation
JP4924131B2 (en) Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program
Tompkin et al. Supplemental Material for Preference and Artifact Analysis for Video Transitions of Places

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080729

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20090916

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100913

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4599775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees