JP2003116126A - Signal processing method, signal processing apparatus and signal processing program - Google Patents

Signal processing method, signal processing apparatus and signal processing program

Info

Publication number
JP2003116126A
JP2003116126A JP2001307956A JP2001307956A JP2003116126A JP 2003116126 A JP2003116126 A JP 2003116126A JP 2001307956 A JP2001307956 A JP 2001307956A JP 2001307956 A JP2001307956 A JP 2001307956A JP 2003116126 A JP2003116126 A JP 2003116126A
Authority
JP
Japan
Prior art keywords
image
signal
layer
image signal
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001307956A
Other languages
Japanese (ja)
Other versions
JP3849481B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Yuji Okumura
裕二 奥村
Tetsushi Kokubo
哲志 小久保
Daisuke Kikuchi
大介 菊地
Hideo Kasama
英雄 笠間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001307956A priority Critical patent/JP3849481B2/en
Publication of JP2003116126A publication Critical patent/JP2003116126A/en
Application granted granted Critical
Publication of JP3849481B2 publication Critical patent/JP3849481B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Abstract

PROBLEM TO BE SOLVED: To simply and easily generate an attached information signal to enhance the presence corresponding to a displayed image. SOLUTION: A motion detection block 20 provides detection areas to an image of a target frame of an image signal SDC to detect a motion vector MV of the image by each area. An intermediate image information generating block 25 groups the detection areas into layers on the basis of the motion vector MV, an attached information signal generating block 50 generates a rocking signal SE depending on the motion of the image on the basis of the image signal based on the motion amount of the motion vector MV of a prescribed layer. The bocks 25, 40 generate image signals SDL, SDR independently of the target frame on the basis of the motion amount and the image signal. The image is displayed at a wide image angle on the basis of the image signals SDL, SDR and the presence can be enhanced by rocking the displayed image such as a chair with the attached information signal SE.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、信号処理方法と
信号処理装置及び信号処理プログラムに関する。詳しく
は、複数フレームの入力画像信号を用いて、注目フレー
ムの所定位置での画像の動きに関する特徴量を検出し、
検出した特徴量に基づいて、画像の動きに関連した付加
情報信号を生成すると共に、検出した特徴量と複数フレ
ームの入力画像信号に基づいて、注目フレームに存在し
ない画角の周辺画像信号を生成するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a signal processing method, a signal processing device, and a signal processing program. Specifically, using the input image signals of a plurality of frames, the feature amount related to the movement of the image at the predetermined position of the frame of interest is detected,
Generates an additional information signal related to the movement of the image based on the detected feature amount, and generates a peripheral image signal with a view angle that does not exist in the target frame based on the detected feature amount and the input image signals of a plurality of frames. To do.

【0002】[0002]

【従来の技術】近年、臨場感を高めた画像表示を行うた
めに多画面表示システムや曲面ディスプレイ、広画角デ
ィスプレイ、ヘッドマウントディスプレイ等が実用化さ
れている。ここで、上述のようなディスプレイを用いて
臨場感を高めた画像表示を行うためには、例えばコンピ
ュータグラフィックスで3次元の仮想空間を構築するこ
とが行われている。また、多数のビデオカメラを用いた
り広角レンズをビデオカメラに取り付けて広範囲な空間
を撮影し、この撮影画像を多面ディスプレイやヘッドマ
ウントディスプレイなどの平面あるいは曲面に変換して
表示することも行われている。
2. Description of the Related Art In recent years, a multi-screen display system, a curved display, a wide-angle display, a head-mounted display and the like have been put into practical use in order to display an image with a high sense of presence. Here, in order to display an image with a high sense of presence using the above-described display, for example, a three-dimensional virtual space is constructed by computer graphics. In addition, a large number of video cameras are used or a wide-angle lens is attached to the video cameras to photograph a wide space, and the photographed images are converted into a flat surface or a curved surface such as a multi-faced display or a head mounted display for display. There is.

【0003】また、広範囲な画像を表示するだけでな
く、臨場感を高める操作例えば画像に合わせて椅子を揺
れ動かすことにより、実際に車等に乗車しているような
感覚を与えることも行われている。このように、臨場感
を高める操作を行うための付加情報信号は、画像の撮影
時に角度や加速度などを検出するセンサを用いて、この
センサにより得られた信号を用いたり、撮影された画像
を人が観察して手作業により生成されている。
In addition to displaying a wide range of images, it is possible to give the sensation of actually riding in a car or the like by performing an operation for enhancing the sense of presence, for example, by swinging a chair in accordance with the image. ing. In this way, as the additional information signal for performing the operation for enhancing the sense of presence, a sensor that detects an angle, an acceleration, or the like at the time of capturing an image is used, and the signal obtained by this sensor is used, or the captured image is detected. It is generated by manual observation by a person.

【0004】[0004]

【発明が解決しようとする課題】ところで、センサを利
用して付加情報信号の生成を行う場合、撮影時にセンサ
から信号を得て、画像信号と共に記憶させておく必要が
ある。このため、既に撮影が完了している画像信号に基
づいて表示を行う場合には、センサからの信号が無いこ
とから、このような方法で付加情報信号を生成すること
はできない。また、撮影された画像を人が観察して手作
業で付加情報信号を生成する場合には、付加情報信号の
生成に長い時間を要すると共に費用も高くなってしま
う。
When the sensor is used to generate the additional information signal, it is necessary to obtain the signal from the sensor at the time of photographing and store the signal together with the image signal. Therefore, when the display is performed based on the image signal that has already been photographed, the additional information signal cannot be generated by such a method because there is no signal from the sensor. In addition, when a person observes the photographed image and manually generates the additional information signal, it takes a long time to generate the additional information signal and the cost also increases.

【0005】そこで、この発明では、表示する画像に対
応させて臨場感を高めるための付加情報信号を簡単かつ
容易に生成できる信号処理装置及び信号処理方法を提供
するものである。
Therefore, the present invention provides a signal processing apparatus and a signal processing method that can easily and easily generate an additional information signal for enhancing the sense of presence in correspondence with an image to be displayed.

【0006】[0006]

【課題を解決するための手段】この発明に係る信号処理
方法は、複数フレームの入力画像信号を用いて、入力画
像信号における注目フレームの所定位置での画像の動き
に関する特徴量を検出し、検出した特徴量に基づいて、
所定位置での画像の動きに関連した付加情報信号を生成
すると共に、検出した特徴量と複数フレームの入力画像
信号に基づいて、注目フレームに存在しない画角の周辺
画像信号を生成するものである。
A signal processing method according to the present invention detects, by using input image signals of a plurality of frames, a feature amount related to a motion of an image at a predetermined position of a frame of interest in the input image signals, and detects the feature amount. Based on the feature amount
An additional information signal related to the movement of an image at a predetermined position is generated, and a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the detected feature amount and the input image signals of a plurality of frames. .

【0007】また、信号処理装置は、複数フレームの入
力画像信号を用いて、入力画像信号における注目フレー
ムの所定位置での画像の動きに関する特徴量を検出する
検出手段と、検出手段で検出した特徴量に基づいて、所
定位置での画像の動きに関連した付加情報信号を生成す
る付加情報信号生成手段と、検出手段で検出した特徴量
と複数フレームの入力画像信号に基づいて、注目フレー
ムに存在しない画角の周辺画像信号を生成する周辺画像
信号生成手段とを有するものである。
Further, the signal processing device uses the input image signals of a plurality of frames to detect a feature amount relating to the movement of the image at a predetermined position of the frame of interest in the input image signals, and the feature detected by the detection means. Existing in the frame of interest on the basis of the additional information signal generating means for generating the additional information signal related to the movement of the image at the predetermined position based on the amount, and the feature amount detected by the detecting means and the input image signals of a plurality of frames. And a peripheral image signal generating means for generating a peripheral image signal having an angle of view.

【0008】さらに、信号処理プログラムは、コンピュ
ータに、複数フレームの入力画像信号を用いて、入力画
像信号における注目フレームの所定位置での画像の動き
に関する特徴量を検出する手順と、検出した特徴量に基
づいて、所定位置での画像の動きに関連した付加情報信
号を生成する手順と、検出した特徴量と複数フレームの
入力画像信号に基づいて、注目フレームに存在しない画
角の周辺画像信号を生成する手順とを実行させるもので
ある。
Further, the signal processing program causes the computer to detect the characteristic amount relating to the movement of the image at the predetermined position of the frame of interest in the input image signal by using the input image signals of a plurality of frames, and the detected characteristic amount. Based on the procedure for generating an additional information signal related to the movement of the image at a predetermined position, and based on the detected feature amount and the input image signals of a plurality of frames, the peripheral image signal of the angle of view that does not exist in the frame of interest is detected. The procedure for generating is executed.

【0009】この発明においては、複数フレームの入力
画像信号から、注目フレームの所定位置での画像の動き
に関する特徴量が検出されて、検出した特徴量がレイヤ
分けされる。このレイヤ分けされた所定のレイヤの特徴
量に基づき、入力画像信号に基づく画像の動きに応じて
揺動を発生させるための揺動信号が生成される。また、
検出した特徴量と入力画像信号に基づいて、注目フレー
ムに存在しない画角の周辺画像信号が生成されて、揺動
信号の信号レベルが、生成した周辺画像信号に応じて補
正される。
In the present invention, the feature amount related to the movement of the image at the predetermined position of the target frame is detected from the input image signals of the plurality of frames, and the detected feature amount is layered. A swing signal for generating swing according to the motion of the image based on the input image signal is generated based on the characteristic amount of the predetermined layer divided into layers. Also,
Based on the detected feature amount and the input image signal, a peripheral image signal having an angle of view that does not exist in the frame of interest is generated, and the signal level of the swing signal is corrected according to the generated peripheral image signal.

【0010】[0010]

【発明の実施の形態】以下、この発明の実施の一形態に
ついて詳細に説明する。図1は、この発明に係る信号処
理装置を用いたシステムの全体構成を示している。この
システムでは、例えば3つのスクリーンをユーザの前面
及び両側面に配置して、各スクリーン10L,10C,1
0Rに対応したプロジェクタ12L,12C,12Rから画
像を投影する。このプロジェクタ12L,12C,12R
は信号処理装置15と接続されている。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below. FIG. 1 shows the overall configuration of a system using a signal processing device according to the present invention. In this system, for example, three screens are arranged on the front surface and both side surfaces of the user, and each screen 10L, 10C, 1
Images are projected from the projectors 12L, 12C, and 12R corresponding to 0R. This projector 12L, 12C, 12R
Is connected to the signal processing device 15.

【0011】信号処理装置15には、撮影した画像信
号、例えば車載カメラ等で撮影した正面画像の画像信号
SDCが蓄積されている。信号処理装置15では、この
蓄積している画像信号SDCをプロジェクタ12Cに供給
して、図2に示すように画像信号SDCに基づく正面画
像を正面に位置するスクリーン10Cに表示させる。ま
た、信号処理装置15では、蓄積している正面画像の画
像信号SDCから、車載カメラの視野範囲に含まれてい
ない画角の画像を示す画像信号、例えば正面画像と連続
する左右の側面画像(以下「周辺画像」という)を示す
画像信号である周辺画像信号SDL,SDRを生成して、
周辺画像信号SDLをプロジェクタ12Lに供給すると共
に周辺画像信号SDRをプロジェクタ12Rに供給する。
このため、左側に位置するスクリーン10Lに正面画像
と連続性を有する左側面画像が表示されると共に、右側
に位置するスクリーン10Rに正面画像と連続性を有す
る右側面画像が表示されて、広画角の画像提示を行うこ
とができる。さらに、信号処理装置15では、正面画像
の画像信号SDCに基づき画像の動きに関する特徴量を
検出して、この特徴量に基づき画像信号SDCに基づく
画像の動きに関連した付加情報信号、例えば揺動信号S
Eを生成してモーションベースプラットフォーム17に
供給する。
The signal processing device 15 stores a captured image signal, for example, an image signal SDC of a front image captured by an in-vehicle camera or the like. The signal processing device 15 supplies the accumulated image signal SDC to the projector 12C to display a front image based on the image signal SDC on the screen 10C located in front as shown in FIG. Further, in the signal processing device 15, from the accumulated image signal SDC of the front image, an image signal indicating an image of an angle of view that is not included in the field of view of the vehicle-mounted camera, for example, left and right side images continuous with the front image ( The peripheral image signals SDL and SDR, which are image signals indicating "peripheral image"), are generated,
The peripheral image signal SDL is supplied to the projector 12L and the peripheral image signal SDR is supplied to the projector 12R.
Therefore, the left side image having continuity with the front image is displayed on the screen 10L located on the left side, and the right side image having continuity with the front image is displayed on the screen 10R located on the right side. Image presentation of corners can be performed. Further, the signal processing device 15 detects a feature amount related to the motion of the image based on the image signal SDC of the front image, and based on this feature amount, an additional information signal related to the motion of the image based on the image signal SDC, for example, a swing. Signal S
E is generated and supplied to the motion base platform 17.

【0012】モーションベースプラットフォーム17で
は、例えば図3に示すように、複数のピストン171を
備えたベース駆動部170が設けられている。このベー
ス駆動部170のピストン171により台座172が支
えられている。台座172には、椅子173が固定され
ており、この椅子173に人が座るようになされてい
る。ピストン171は、それぞれの中心軸に沿って伸縮
運動ができるようにされており、ピストン171が伸縮
運動をすることにより、台座172が揺動し、さらに台
座172に固定されている椅子173が揺動する。この
ピストン171は、揺動信号SEに基づいて駆動され
る。
The motion base platform 17 is provided with a base drive unit 170 having a plurality of pistons 171 as shown in FIG. The base 172 is supported by the piston 171 of the base drive unit 170. A chair 173 is fixed to the pedestal 172, and a person can sit on the chair 173. The pistons 171 are adapted to be able to extend and contract along their respective central axes. As the pistons 171 expand and contract, the pedestal 172 swings and the chair 173 fixed to the pedestal 172 swings. Move. The piston 171 is driven based on the swing signal SE.

【0013】図4は、信号処理装置15の構成の概略を
示している。蓄積部30の正面画像信号蓄積領域31に
蓄積されている複数フレームの画像信号SDCは、動き
検出ブロック20の1フレーム遅延処理部21と動き検
出処理部22及び中間画像情報生成ブロック25の情報
生成処理部27に供給される。
FIG. 4 shows an outline of the configuration of the signal processing device 15. The image signals SDC of a plurality of frames stored in the front image signal storage area 31 of the storage unit 30 are generated by the one-frame delay processing unit 21, the motion detection processing unit 22, and the intermediate image information generation block 25 of the motion detection block 20. It is supplied to the processing unit 27.

【0014】1フレーム遅延処理部21では、画像信号
SDCを1フレーム遅延させて画像信号SDCaとして動
き検出処理部22に供給する。動き検出処理部22で
は、正面画像の側端側に、図5の破線で示すように区切
られた複数の検出領域を設定して、この検出領域の注目
フレームの画像信号SDCと1フレーム前の画像信号S
DCaとの比較を検出領域毎に行い、画像の動きを示す動
きベクトルMVを検出領域毎に判別して中間画像情報生
成ブロック25のレイヤ分類部26と付加情報信号生成
ブロック50に供給する。
The 1-frame delay processing section 21 delays the image signal SDC by 1 frame and supplies it to the motion detection processing section 22 as an image signal SDCa. The motion detection processing unit 22 sets a plurality of detection areas separated on the side edge side of the front image as shown by the broken line in FIG. 5, and detects the image signal SDC of the frame of interest in this detection area and the previous frame. Image signal S
Comparison with DCa is performed for each detection area, and the motion vector MV indicating the motion of the image is determined for each detection area and supplied to the layer classification unit 26 of the intermediate image information generation block 25 and the additional information signal generation block 50.

【0015】中間画像情報生成ブロック25は、動きベ
クトルMVと画像信号SDCを用いて、複数フレームの
入力画像をある平面に射影した中間画像情報を生成する
ものである。ここで、中間画像情報生成ブロック25の
レイヤ分類部26では、各検出領域の動きベクトルMV
から正面画像の動きパターンを判定して、中間画像情報
を生成する際に、例えば離れた被写体を撮影した遠景画
像のレイヤ,近接した被写体を撮影した近景画像のレイ
ヤ,遠景画像と近景画像との間に位置する中景画像のレ
イヤ、及びこれらのレイヤとは異なるレイヤをどのよう
に設けるものとするかを判別してレイヤ設定を行う。例
えば、車載カメラで正面画像を撮影する場合、一方向に
直進する場合には、正面画像を順次ズームインした画像
となる。また、車が後退しているときには、正面画像を
順次ズームアウトした画像となる。さらに、追越し車両
が撮影されたときには、ズームイン画像に追い越し車両
がズームアウト画像として表示されることとなる。ま
た、右折や左折をしたときには、例えば正面画像の上部
側が水平方向に移動されると共に下部側はズームイン画
像となる。このため、各検出領域の動きベクトルMVか
ら正面画像の動きパターンを判定して、判定した動きパ
ターンに基づいてレイヤ設定を行うものとする。例え
ば、一方向に直進する動きパターンでと判別されたとき
には、遠景,中景,近景の各画像のレイヤを生成し、右
折や左折の動きパターンであると判別されたときには、
遠景,中景,近景の各画像のレイヤだけでなく水平方向
に移動される画像が含まれるレイヤも作成する。また、
追越し車両がある動きパターンのときには、遠景,中
景,近景の各画像のレイヤだけでなくズームアウト画像
が含まれるレイヤも作成するようにレイヤ設定を行う。
The intermediate image information generation block 25 is for generating intermediate image information by projecting an input image of a plurality of frames onto a plane by using the motion vector MV and the image signal SDC. Here, in the layer classification unit 26 of the intermediate image information generation block 25, the motion vector MV of each detection region
When the intermediate image information is generated by determining the motion pattern of the front image from, for example, a layer of a distant view image of a distant subject, a layer of a near view image of a close subject, and a distant view image and a near view image. Layers are set by discriminating how to provide a layer of the middle-view image located between them and a layer different from these layers. For example, when a front image is taken by a vehicle-mounted camera and the vehicle goes straight in one direction, the front image is an image that is sequentially zoomed in. Further, when the vehicle is moving backward, the front image is sequentially zoomed out. Furthermore, when an overtaking vehicle is photographed, the overtaking vehicle is displayed as a zoomed-out image in the zoomed-in image. Further, when a right turn or a left turn is made, for example, the upper side of the front image is horizontally moved and the lower side becomes a zoomed-in image. Therefore, it is assumed that the motion pattern of the front image is determined from the motion vector MV of each detection area, and layer setting is performed based on the determined motion pattern. For example, when it is determined that the motion pattern goes straight in one direction, layers of each image of the distant view, the middle view, and the near view are generated, and when it is determined that the motion pattern is a right turn or a left turn,
In addition to the layers for the distant view, middle view, and near view images, a layer containing images that are moved horizontally is also created. Also,
When there is a motion pattern of an overtaking vehicle, layer setting is performed so that not only the layers of the images of the distant view, the middle view, and the near view but also the layer including the zoom-out image is created.

【0016】また、レイヤ分類部26では、動き検出処
理部22から供給された動きベクトルMVに基づき、正
面画像の側端側に設定された各検出領域がいずれのレイ
ヤに属するかレイヤ分類を行う。このレイヤ分類では、
動きパターンに応じて設定されたレイヤを用いたレイヤ
分類を行う。例えば、遠景,中景,近景の3つのレイヤ
分けすると共に、水平方向に移動される画像が含まれる
レイヤやズームアウト画像が含まれるレイヤが生成され
ているときには、これらのレイヤも含めてレイヤ分類を
行う。このレイヤ分類によって、いずれの検出領域がい
ずれのレイヤに属するかを示すレイヤ分類情報LBを生
成すると共に、この生成されたレイヤ分類情報LBは情
報生成処理部27と付加情報信号生成ブロック50に供
給される。
The layer classification unit 26 classifies, based on the motion vector MV supplied from the motion detection processing unit 22, which layer each detection region set on the side edge of the front image belongs to. . In this layer classification,
Layer classification is performed using layers set according to motion patterns. For example, when a layer including an image that is moved in the horizontal direction and a layer that includes a zoomed-out image are generated, the layers are divided into three layers, that is, a distant view, a middle view, and a near view. I do. By this layer classification, layer classification information LB indicating which detection region belongs to which layer is generated, and the generated layer classification information LB is supplied to the information generation processing unit 27 and the additional information signal generation block 50. To be done.

【0017】情報生成処理部27では、レイヤ分類部2
6からのレイヤ分類情報LBに基づき正面画像に設定さ
れた各検出領域をレイヤ分けして、この検出領域の画像
信号をレイヤ毎にフレーム順に用いることでレイヤ毎の
中間画像信号を生成する。さらに、レイヤ分けされた検
出領域の動きベクトルMVの動き量からレイヤ毎に動き
量の平均値を算出する。この情報生成処理部27で生成
された中間画像信号GYv及び算出したレイヤ毎の動き
量(平均値)MYvは、中間画像情報として蓄積部30
の中間画像情報蓄積領域32に蓄積される。
In the information generation processing unit 27, the layer classification unit 2
Based on the layer classification information LB from 6, the detection regions set in the front image are divided into layers, and the image signals of the detection regions are used in the frame order for each layer to generate an intermediate image signal for each layer. Further, the average value of the motion amount is calculated for each layer from the motion amount of the motion vector MV of the detection area divided into layers. The intermediate image signal GYv generated by the information generation processing unit 27 and the calculated motion amount (average value) MYv for each layer are stored in the storage unit 30 as intermediate image information.
Are stored in the intermediate image information storage area 32.

【0018】スクリーン10C,10R,10Lで画像を
表示する場合には、蓄積されている画像信号SDCを読
み出して、この画像信号SDCに基づく画像をスクリー
ン10Cで表示する。また、蓄積部30に接続された周
辺画像信号生成ブロック40からの読出制御信号RCに
よって、中間画像情報蓄積領域32に蓄積されている中
間画像情報の読み出しを行い、レイヤ毎の動き量MYv
に応じた分だけ各レイヤの中間画像信号GYvを順次使
用して、遠景,中景,近景の順に各レイヤの画像を貼り
付ける。さらに遠景,中景,近景の3つのレイヤに属し
ないレイヤが設けられているときには、これらのレイヤ
の画像貼り付け処理等も行い、画像信号SDCの注目フ
レームに存在しない画角の画像を示す周辺画像信号SD
L,SDRを生成する。この周辺画像信号SDLを正面画
像の画像信号SDCに対応させたタイミングでプロジェ
クタ12Lに供給することで、正面画像に連続させて左
側面画像をスクリーン10Lに表示できると共に、周辺
画像信号SDRを正面画像の画像信号SDCに対応させた
タイミングでプロジェクタ12Rに供給することで、正
面画像に連続させて右側面画像をスクリーン10Rに表
示できる。
When displaying an image on the screens 10C, 10R and 10L, the stored image signal SDC is read out and the image based on this image signal SDC is displayed on the screen 10C. The intermediate image information stored in the intermediate image information storage area 32 is read by the read control signal RC from the peripheral image signal generation block 40 connected to the storage unit 30, and the motion amount MYv for each layer is read.
By using the intermediate image signal GYv of each layer in accordance with the above, the images of each layer are pasted in the order of distant view, middle view, and near view. Further, when a layer that does not belong to the three layers of the distant view, the middle view, and the near view is provided, image pasting processing of these layers is also performed, and the periphery showing an image with a view angle that does not exist in the frame of interest of the image signal SDC. Image signal SD
Generates L and SDR. By supplying the peripheral image signal SDL to the projector 12L at the timing corresponding to the image signal SDC of the front image, the left side image can be displayed on the screen 10L continuously with the front image, and the peripheral image signal SDR can be displayed. By supplying the image signal SDC to the projector 12R at a timing corresponding to the image signal SDC, the right side image can be displayed on the screen 10R continuously with the front image.

【0019】付加情報信号生成ブロック50では、動き
ベクトルMVとレイヤ分類情報LBに基づき付加情報信
号である揺動信号SEを生成して、モーションベースプ
ラットフォーム17に供給する。
The additional information signal generation block 50 generates a swing signal SE which is an additional information signal based on the motion vector MV and the layer classification information LB, and supplies it to the motion base platform 17.

【0020】次に、動き検出ブロック20を構成する各
部について詳細に説明する。なお、説明を簡単とするた
め、以下の説明では右側面についてのみ説明するものと
し、左側面についての説明は省略する。
Next, each part of the motion detection block 20 will be described in detail. For the sake of simplicity, only the right side surface will be described below, and the left side surface will not be described.

【0021】動き検出ブロック20では、上述したよう
に動きベクトルMVを検出領域毎に判別する。ここで、
正面画像に画像の移動中心がある場合、すなわち車載カ
メラで前方を撮影して正面画像としたとき、図6Aに示
す時刻Tの画像は、例えば1フレーム時間が経過した後
の時刻T’で図6Bに示すものとなり、あたかも画像が
涌き出てくるように見える位置CP(以下「画像基準位
置」という)を中心としたズームイン動作画像と略等し
くなる。
The motion detection block 20 determines the motion vector MV for each detection area as described above. here,
When the front image has the center of movement of the image, that is, when the front image is captured by the in-vehicle camera, the image at time T shown in FIG. 6A is displayed at time T ′ after one frame time has elapsed, for example. 6B, which is substantially the same as the zoom-in operation image centered on the position CP (hereinafter referred to as “image reference position”) as if the image appeared to come out.

【0022】ここで、図6Cに示すように、拡大率Zを
設定して注目フレームの検出領域を(1/Z)に縮小す
ると共に、この縮小された検出領域の位置を移動しなが
ら1フレーム前の画像信号との誤差和を算出する。さら
に拡大率Zを変化させて、同様に位置を移動しながら誤
差和を算出する。このようにして誤差和が最小値となる
位置を検出することで注目フレーム毎に各検出領域の動
きベクトルMVを判別できる。また、誤差和が最小値と
なるときの拡大率Zを動き量とする。
Here, as shown in FIG. 6C, the enlargement ratio Z is set to reduce the detection area of the target frame to (1 / Z), and one frame is moved while moving the position of the reduced detection area. The error sum with the previous image signal is calculated. Further, the magnification rate Z is changed, and the error sum is calculated while moving the position similarly. In this way, by detecting the position where the error sum has the minimum value, the motion vector MV of each detection region can be determined for each frame of interest. Further, the enlargement ratio Z when the error sum is the minimum value is the amount of movement.

【0023】ところで、縮小処理を行ったときには、領
域内の画素の座標値が整数値とならない画素が生ずる。
一方、縮小処理が行われていない1フレーム前の画像で
は、領域内の画素の座標値が整数値である。このため、
縮小された画像に対しては線形補間を行って、座標値が
整数値となる位置の信号レベルを算出する。例えば、図
7に示すようにKa×Ka画素の画像に対して(1/Z)
に縮小処理を行ったことにより画像のサイズがKb×Kb
画素のサイズとなったときには、線形補間を行ってKa
×Ka画素の信号から画素数を「Kb×Kb」とした画像
の信号レベルを算出する。この算出された信号レベル
と、縮小された画像と対応する位置の1フレーム前の信
号レベルの誤差和を算出することにより、精度良く動き
量を判別できる。
By the way, when the reduction processing is performed, some pixels have coordinate values that are not integer values in the area.
On the other hand, in the image one frame before which the reduction processing has not been performed, the coordinate values of the pixels in the region are integer values. For this reason,
Linear interpolation is performed on the reduced image to calculate the signal level at the position where the coordinate value is an integer value. For example, as shown in FIG. 7, for an image of Ka × Ka pixels (1 / Z)
Image size is Kb x Kb
When the pixel size is reached, linear interpolation is performed and Ka
From the signal of the × Ka pixel, the signal level of the image in which the number of pixels is “Kb × Kb” is calculated. By calculating the error sum of the calculated signal level and the signal level one frame before at the position corresponding to the reduced image, the motion amount can be accurately determined.

【0024】画像基準位置CPが明らかでないとき、図
8に示すように検出領域ARaの中心が位置Pa1から位置
Pa2とされたときに誤差和が最小値となり、検出領域A
Rbの中心が位置Pb1から位置Pb2とされたときに誤差和
が最小値となる場合には、検出領域ARaの動きベクトル
MVの方向と検出領域ARbの動きベクトルの方向が交差
する点を検出することで画像基準位置CPを検出でき
る。
When the image reference position CP is not clear and the center of the detection area ARa is changed from the position Pa1 to the position Pa2 as shown in FIG.
When the error sum has the minimum value when the center of Rb is changed from the position Pb1 to the position Pb2, a point where the direction of the motion vector MV of the detection area ARa and the direction of the motion vector of the detection area ARb intersect is detected. As a result, the image reference position CP can be detected.

【0025】また、右折時や左折時には、正面画像の例
えば上部側画像が水平移動することとなる。このため、
画像基準位置CPを中心としてズームイン動作を行って
も誤差和の最小値が検出されない場合には、検出領域の
画像を横方向に移動させて誤差和の最小値を判別する。
またこのとき、誤差和が最小値となるまでの検出領域の
移動量を動きベクトルMVの動き量として設定すること
ができる。
When making a right turn or a left turn, for example, the upper image of the front image moves horizontally. For this reason,
When the minimum value of the error sum is not detected even when the zoom-in operation is performed centering on the image reference position CP, the image in the detection area is moved in the horizontal direction to determine the minimum value of the error sum.
At this time, the movement amount of the detection area until the error sum reaches the minimum value can be set as the movement amount of the motion vector MV.

【0026】次に、後退時にはあたかも画像が画像基準
位置CPに吸い込まれてしまうように見えることから、
後退時の画像は画像基準位置CPを中心としたズームア
ウト動作画像と略等しくなる。このため、拡大率Zを
「1」以下とする。すなわち、後退時には画像の動きが
前進時とは逆となることから、前フレームの側端側に複
数の検出領域を設定して、各検出領域を(1/Z)に縮
小すると共に、この縮小された領域の位置を移動しなが
ら注目フレームの画像との誤差和を算出する。あるい
は、注目フレームの各検出領域を(1/Z)に縮小する
と共に、この縮小された領域の位置を移動しながら1フ
レーム後の画像との誤差和を算出する。さらに拡大率Z
を変化させて、同様に位置を移動しながら誤差和を算出
する。このようにして誤差和が最小値となる位置を検出
することで後退時の動きベクトルMVも判別できる。
Next, since the image seems to be sucked into the image reference position CP when retreating,
The image at the time of retreat becomes substantially the same as the zoom-out operation image centered on the image reference position CP. Therefore, the enlargement ratio Z is set to "1" or less. That is, when moving backward, the movement of the image is opposite to that when moving forward. Therefore, a plurality of detection areas are set on the side edge side of the previous frame, and each detection area is reduced to (1 / Z). The error sum with the image of the frame of interest is calculated while moving the position of the designated area. Alternatively, each detection area of the frame of interest is reduced to (1 / Z), and the error sum with the image one frame after is calculated while moving the position of this reduced area. Further magnification Z
Is calculated, and the error sum is calculated while moving the position in the same manner. In this way, the motion vector MV at the time of backward movement can also be determined by detecting the position where the error sum is the minimum value.

【0027】以上のようにして動きベクトルMVの判別
を行うと、遠景の画像は動きが少ないことから動きベク
トルMVの動き量は小さくなり、近景の画像は動きが多
いことから動きベクトルMVの動き量は大きくなる。
When the motion vector MV is discriminated as described above, the motion amount of the motion vector MV is small because the image in the distant view has little motion, and the motion amount of the motion vector MV is small in the image in the near view. The amount will increase.

【0028】図9は、動き検出処理部22の構成を示し
ており、画像信号SDCはサイズ変換処理部221に供
給されると共に、1フレーム遅延処理部21から供給さ
れた画像信号SDCaは誤差和算出部222に供給され
る。サイズ変換処理部221では、正面画像の側端部分
を複数の検出領域、例えば16×16画素サイズの単位
で複数の検出領域に分割して検出領域を設定する。さら
に、サイズ変換処理部221には、後述する探索制御部
225から拡大率Zが設定されて、検出領域の画像を
(1/Z)倍した画像信号FEzと、画像基準位置CP
を基準として検出領域の画像を(1/Z)倍したことに
より変換された座標値Pzを誤差和算出部222に供給
する。なお、画像信号FEzは、上述の図7に示すよう
に補間処理によって座標値を整数値に変換したときの信
号であり、座標値Pzは補間処理によって座標値を整数
値に変換したときの座標値、すなわち図7における「K
b×Kb」の画素位置である。
FIG. 9 shows the configuration of the motion detection processing section 22. The image signal SDC is supplied to the size conversion processing section 221, and the image signal SDCa supplied from the 1-frame delay processing section 21 is the sum of errors. It is supplied to the calculation unit 222. The size conversion processing unit 221 divides the side edge portion of the front image into a plurality of detection areas, for example, a plurality of detection areas in units of 16 × 16 pixels and sets the detection areas. Further, in the size conversion processing unit 221, the enlargement ratio Z is set from the search control unit 225 described later, and the image signal FEz obtained by multiplying the image of the detection area by (1 / Z) and the image reference position CP.
The coordinate value Pz converted by multiplying the image of the detection area by (1 / Z) is supplied to the error sum calculation unit 222. The image signal FEz is a signal when the coordinate value is converted into an integer value by interpolation processing as shown in FIG. 7, and the coordinate value Pz is the coordinate when the coordinate value is converted into an integer value by interpolation processing. Value, that is, "K" in FIG.
The pixel position is “b × Kb”.

【0029】誤差和算出部222では、サイズ変換処理
部221からの座標値Pzで示された位置の信号を画像
信号SDCaから選択する共に、この選択された信号と画
像信号FEzとの誤差和を算出して比較処理部223に
通知する。
In the error sum calculation unit 222, the signal at the position indicated by the coordinate value Pz from the size conversion processing unit 221 is selected from the image signal SDCa, and the error sum between the selected signal and the image signal FEz is calculated. It is calculated and notified to the comparison processing unit 223.

【0030】比較処理部223では、誤差和最小値と誤
差和算出部222で算出された誤差和とを比較する。こ
こで誤差和最小値が設定されていないときには、最初に
算出された誤差和を誤差和最小値として設定する。この
算出された誤差和が誤差和最小値よりも小さいときに
は、この誤差和を新たな誤差和最小値として設定すると
共に、誤差和最小値が更新されたことをデータ保持部2
24に通知する。また、誤差和最小値と誤差和算出部2
22で算出された誤差和との比較が完了したことを信号
ESによって探索制御部225に通知する。なお、誤差
和最小値は算出される誤差和よりも大きい値に予め設定
しておくものとしても良い。
The comparison processing unit 223 compares the minimum error sum with the error sum calculated by the error sum calculation unit 222. If the error sum minimum value is not set here, the error sum calculated first is set as the error sum minimum value. When the calculated error sum is smaller than the error sum minimum value, this data error sum is set as a new error sum minimum value, and the data holding unit 2 indicates that the error sum minimum value has been updated.
Notify 24. In addition, the minimum error sum and the error sum calculation unit 2
The search control unit 225 is notified by the signal ES that the comparison with the error sum calculated in step 22 has been completed. The minimum error sum value may be set in advance to a value larger than the calculated error sum.

【0031】データ保持部224には、探索制御部22
5から拡大率Zが通知されており、誤差和最小値が更新
されたことが通知されたときには、通知された拡大率Z
を記憶する。また、既に拡大率が記憶されているときに
は、記憶されている拡大率を通知された拡大率Zで更新
する。また、探索制御部225から拡大率の変更処理の
完了が信号ETによって通知されたときには、記憶して
いる拡大率を動き量とすると共に画像基準位置方向をベ
クトル方向とした動きベクトルMVをレイヤ分類部26
に供給する。
The data holding unit 224 includes a search control unit 22.
When the enlargement ratio Z is notified from 5 and it is notified that the minimum error sum is updated, the notified enlargement ratio Z
Memorize If the enlargement ratio has already been stored, the stored enlargement ratio is updated with the notified enlargement ratio Z. Further, when the search control unit 225 notifies the completion of the change processing of the enlargement ratio by the signal ET, the stored enlargement ratio is used as the motion amount and the motion vector MV having the image reference position direction as the vector direction is classified into layers. Part 26
Supply to.

【0032】探索制御部225では、拡大率の下限値が
「1」に設定されていると共に、上限値も予め設定され
ており、最初に下限値を拡大率Zとしてサイズ変換処理
部221とデータ保持部224に通知する。その後、比
較処理部223から誤差和最小値と誤差和算出部222
で算出された誤差和との比較が完了したことが通知され
る毎に、拡大率Zを順次増加してサイズ変換処理部22
1とデータ保持部224に通知する。その後、拡大率Z
が上限値に達したときには拡大率の変更処理の完了をデ
ータ保持部224に通知する。
In the search control unit 225, the lower limit value of the enlargement ratio is set to "1" and the upper limit value is also set in advance. First, the lower limit value is set as the enlargement ratio Z and the size conversion processing unit 221 and the data are set. Notify the holding unit 224. After that, the comparison processing unit 223 outputs the error sum minimum value and the error sum calculation unit 222.
Each time it is notified that the comparison with the error sum calculated in step 1 is completed, the enlargement factor Z is sequentially increased to increase the size conversion processing unit 22.
1 and the data holding unit 224. After that, the enlargement ratio Z
When reaches the upper limit, the data holding unit 224 is notified of the completion of the enlargement ratio changing process.

【0033】また、比較処理部223で得られた誤差和
最小値が小さくないとき、すなわち正面画像の側端部分
と等しい画像を検出できないとき、探索制御部225で
は、拡大率Zを「1」としてサイズ変換処理部221に
通知して、検出領域の画像信号FEzを誤差和算出部2
22に供給させる。また、制御信号RPを誤差和算出部
222に供給して、画像信号FEzの検出領域を水平方
向に所定量移動させた位置の信号を画像信号SDCaから
選択させる。その後、制御信号RPによって画像信号S
DCaから選択する位置を水平方向に移動させて誤差和最
小値を判別することにより、水平方向に移動させる画像
の動きベクトルMVも求めることができる。さらに、図
示せずも1フレーム後の信号を誤差和算出部222に供
給したり、1フレーム前の画像に検出領域を設定して注
目フレームの画像の信号を誤差和算出部222に供給す
ることで、画像基準位置CPに吸い込まれるような画像
の動き量も判別できる。
Further, when the minimum error sum obtained by the comparison processing unit 223 is not small, that is, when an image equal to the side edge portion of the front image cannot be detected, the search control unit 225 sets the enlargement ratio Z to "1". To the size conversion processing unit 221, and the image signal FEz in the detection area is calculated as the error sum calculation unit 2
22. Further, the control signal RP is supplied to the error sum calculation unit 222, and the signal at the position where the detection area of the image signal FEz is moved by a predetermined amount in the horizontal direction is selected from the image signal SDCa. Then, the image signal S is generated by the control signal RP.
By moving the position selected from DCa in the horizontal direction and determining the error sum minimum value, the motion vector MV of the image to be moved in the horizontal direction can also be obtained. Further, although not shown, a signal after one frame is supplied to the error sum calculation unit 222, or a detection region is set in the image one frame before and the signal of the image of the target frame is supplied to the error sum calculation unit 222. Thus, the amount of movement of the image that is sucked into the image reference position CP can also be determined.

【0034】このように、探索方向を画像基準位置CP
の方向や水平方向に移動させて、検出領域の画像と誤差
和が最小となる他のフレームの画像位置を検出すること
で、検出領域の画像が右折や左折したときの画像、前を
横切る車や人等の画像、あるいは追越し車両等の画像で
あっても正しく動きベクトルMVを求めることができ
る。
In this way, the search direction is set to the image reference position CP.
Direction or the horizontal direction to detect the image position of the image in the detection area and the image of another frame where the error sum is the minimum. The motion vector MV can be correctly obtained even for an image of a person, a person, or an overtaking vehicle.

【0035】レイヤ分類部26では、各検出領域の動き
ベクトルMVから正面画像がどのような動きパターンの
画像であるかを判別すると共に、判別した動きパターン
に基づいてレイヤを設定して、いずれの領域がいずれの
レイヤに属するするかを示すレイヤ分類情報LBを情報
生成処理部27に供給する。
The layer classification unit 26 determines from the motion vector MV of each detection region what kind of motion pattern the front image is, and sets a layer based on the determined motion pattern to determine which one. The layer classification information LB indicating which layer the area belongs to is supplied to the information generation processing unit 27.

【0036】図10は、レイヤ分類部26の構成を示し
ている。レイヤ分類部26の動きパターン判定部261
では、動き検出処理部22から供給された各検出領域の
動きベクトルMVをフレーム単位で蓄積すると共に、蓄
積された動きベクトルMVに基づき動きパターンを判別
する。
FIG. 10 shows the structure of the layer classification unit 26. Motion pattern determination unit 261 of layer classification unit 26
Then, the motion vector MV of each detection region supplied from the motion detection processing unit 22 is accumulated in frame units, and the motion pattern is determined based on the accumulated motion vector MV.

【0037】ここで、各検出領域の動きベクトルMVの
方向が、画像基準位置CPから放射方向とされて、全て
画像が画像基準位置CPから湧き出すズームイン動作方
向であるか否かを判別して、全て画像が画像基準位置C
Pから湧き出すズームイン動作方向であるときには直進
動作と判別する。例えば、図11Aの矢印で示すように
動きベクトルMVのベクトル方向が画像基準位置CPか
ら放射方向とされているときには直進動作と判別する。
Here, it is discriminated whether or not the direction of the motion vector MV of each detection region is the radial direction from the image reference position CP, and all images are zoom-in operation directions that spring out from the image reference position CP. , All images are image reference position C
When it is the zoom-in motion direction that springs out from P, it is determined to be a straight-ahead motion. For example, as shown by the arrow in FIG. 11A, when the vector direction of the motion vector MV is the radial direction from the image reference position CP, it is determined to be a straight movement.

【0038】次に、直進動作と判別されないときには、
各検出領域の動きベクトルMVの方向が放射方向とは逆
方向であり、全て画像が画像基準位置CPに吸い込まれ
るズームアウト動作方向であるか否かを判別して、全て
画像が画像基準位置CPに吸い込まれるズームアウト動
作方向であるときには後退動作と判別する。例えば、図
11Bの矢印で示すように画像基準位置CPの方向とさ
れて、全て画像が画像基準位置CPに吸い込まれるズー
ムアウト動作方向であることを検出したときには後退動
作と判別する。
Next, when it is not determined that the vehicle is going straight,
It is determined whether or not the direction of the motion vector MV of each detection area is the direction opposite to the radial direction, and all the images are in the zoom-out operation direction in which the images are sucked into the image reference position CP. When it is the zoom-out operation direction that is sucked in, it is determined to be the backward operation. For example, when it is set to the direction of the image reference position CP as indicated by the arrow in FIG. 11B and it is detected that all the images are in the zoom-out operation direction in which the image is sucked into the image reference position CP, it is determined to be the backward movement.

【0039】また、直進動作及び後退動作と判別されな
いときには、一部のみがズームアウト動作方向であるか
否かを判別して、一部のみがズームアウト動作方向であ
るときには、追越し車両があると判別する。例えば、図
11Cに示すように左右両側端部の検出領域の動きがズ
ームイン動作方向であると共に、一部のみがズームアウ
ト動作方向であることを検出したときには追越し車両が
あると判別する。さらに、直進動作,後退動作及び追越
し車両があるものと判別されないとき、正面画像の上部
側の検出領域で、図11Dに示すように動きベクトルM
Vのベクトル方向が水平方向とされているときには、ベ
クトル方向に応じて右折あるいは左折動作と判別する。
また検出領域の一部で、図11Eに示すように動きベク
トルMVのベクトル方向が水平方向であるときには、横
切り動作であると判別する。このようにして判別した動
きパターンMPをレイヤ作成判定部262に通知する。
When it is not determined that the vehicle is going straight or backward, it is determined whether or not only a part is in the zoom-out operation direction. When only part is in the zoom-out operation direction, there is an overtaking vehicle. Determine. For example, as shown in FIG. 11C, when it is detected that the movements of the detection areas at the left and right ends are in the zoom-in operation direction and only part of the movement is in the zoom-out operation direction, it is determined that there is an overtaking vehicle. Furthermore, when it is not determined that there is a straight-ahead movement, a backward movement, and an overtaking vehicle, the motion vector M as shown in FIG.
When the vector direction of V is horizontal, it is determined to be a right turn or left turn operation depending on the vector direction.
In addition, when the vector direction of the motion vector MV is the horizontal direction in a part of the detection area as shown in FIG. The motion pattern MP determined in this way is notified to the layer creation determination unit 262.

【0040】レイヤ作成判定部262では、動きパター
ン判定部261で判別された動きパターンMPに基づ
き、判別された動きパターンが所定のフレーム数以上連
続したか否かを判別する。ここで、動きパターンが所定
のフレーム数以上連続したとき判別された動きパターン
に応じたレイヤパターン情報LPを生成する。
The layer creation determination unit 262 determines whether or not the determined motion pattern has continued for a predetermined number of frames or more based on the motion pattern MP determined by the motion pattern determination unit 261. Here, the layer pattern information LP corresponding to the motion pattern determined when the motion pattern continues for a predetermined number of frames or more is generated.

【0041】ここで、前進動作のように全画面が拡大す
る動きパターンであることが連続して所定のフレーム数
以上判別されたときには、例えば遠景,中景,近景のレ
イヤの作成を指示するレイヤパターン情報LPを生成し
て分類処理部263に通知する。また、右折あるいは左
折動作のように上部が水平方向に移動する動きパターン
であることが連続して所定のフレーム数以上判別された
ときには、遠景,中景,近景のレイヤだけでなく水平方
向に移動する画像が含まれるレイヤの作成を指示するレ
イヤパターン情報LPを生成して分類処理部263に通
知する。また、追越し車両や後退時のように時間と共に
縮小する画像が含まれている動きパターンであることが
連続して所定のフレーム数以上連続して判別されたとき
には、遠景,中景,近景のレイヤだけでなく縮小する画
像が含まれる後退レイヤの作成を指示するレイヤパター
ン情報LPを生成する。また、横切り物体のように、一
部が水平方向に移動する動きパターンであることが連続
して所定のフレーム数以上判別されたときには、水平方
向に移動する画像が含まれるレイヤの作成を指示するレ
イヤパターン情報LPを生成する。このように、判別さ
れた動きパターンが所定のフレーム数以上連続したとき
に、判別された動きパターンMPに応じたレイヤパター
ン情報LPが生成されるので、動きパターンが誤って判
別されたフレームが生じても、正しい動きパターンに応
じたレイヤパターン情報LPを生成できる。
Here, when it is continuously determined that the motion pattern is such that the entire screen expands like a forward motion for a predetermined number of frames or more, for example, a layer for instructing the formation of a distant view, middle view, and near view layer. The pattern information LP is generated and notified to the classification processing unit 263. Also, when it is continuously determined that the upper part is a motion pattern in which the upper part moves in the horizontal direction such as a right turn or a left turn, a predetermined number of frames or more are continuously detected, the horizontal pattern is moved not only in the distant view, middle view, and near view layers. The layer pattern information LP instructing the generation of the layer including the image to be generated is generated and notified to the classification processing unit 263. Further, when it is continuously determined that the motion pattern includes an image that shrinks with time such as an overtaking vehicle or when reversing, the distant view, middle view, and near view layers are continuously identified. Not only that, the layer pattern information LP for instructing the creation of the receding layer including the image to be reduced is generated. Also, when it is continuously determined that a part of the movement pattern is a horizontal movement pattern, such as a transverse object, for a predetermined number of frames or more, an instruction to create a layer including an image that moves in the horizontal direction is issued. The layer pattern information LP is generated. In this way, when the determined motion pattern continues for a predetermined number of frames or more, the layer pattern information LP corresponding to the determined motion pattern MP is generated, so that a frame in which the motion pattern is erroneously determined occurs. However, the layer pattern information LP according to the correct motion pattern can be generated.

【0042】閾値設定部264では、所定時間範囲(例
えば注目フレームの前後30フレーム分)の動きベクト
ルMVを用いて、ベクトル方向が画像基準位置CPから
放射方向とされている動きベクトルMVの動き量の平均
値Vavgや最大値Vmax,最小値Vminを求めると共に、
この平均値Vavgや最大値Vmax,最小値Vminに基づ
き、レイヤパターン情報LPで示されたレイヤに分類す
るための閾値Thを設定して分類処理部263に供給す
る。
The threshold setting unit 264 uses the motion vector MV within a predetermined time range (for example, 30 frames before and after the frame of interest) and the motion amount of the motion vector MV whose vector direction is the radial direction from the image reference position CP. Of the average value Vavg, the maximum value Vmax, and the minimum value Vmin of
Based on the average value Vavg, the maximum value Vmax, and the minimum value Vmin, a threshold value Th for classifying into the layer indicated by the layer pattern information LP is set and supplied to the classification processing unit 263.

【0043】例えばレイヤパターン情報LPによって遠
景,中景,近景のレイヤに分けることが示された場合、
遠景レイヤと中景レイヤとの区分位置を示す閾値Th1を
式(1)に基づいて算出する。また中景レイヤと近景レ
イヤの区分位置を示す閾値Th2を式(2)に基づいて算
出する。
For example, when it is indicated by the layer pattern information LP that the layers are divided into the distant view, the middle view, and the near view,
A threshold Th1 indicating the division position between the distant view layer and the middle view layer is calculated based on the equation (1). Further, the threshold Th2 indicating the division position of the middle view layer and the near view layer is calculated based on the equation (2).

【0044】[0044]

【数1】 [Equation 1]

【0045】この閾値の設定では、動き量のヒストグラ
ムを求めて、このヒストグラムの極小値を利用して閾値
Th1,Th2を求めるものとしても良い。このように、動
き量の分布に応じて閾値Thが動的に変化されるので、
画像が1つのレイヤだけに分類されてしまうことがな
く、動き量の分布に応じて良好にレイヤ分類を行うこと
ができる。
In the setting of this threshold value, a histogram of the amount of motion may be obtained, and the minimum values of this histogram may be used to obtain the threshold values Th1 and Th2. In this way, the threshold Th is dynamically changed according to the distribution of the motion amount,
The image is not classified into only one layer, and the layers can be properly classified according to the distribution of the motion amount.

【0046】分類処理部263では、閾値設定部264
からの閾値Thと動きベクトルMVの動き量に基づい
て、各フレームの各検出領域がレイヤパターン情報LP
で作成が指示されたレイヤのいずれに属するかを判別し
てレイヤ分類を行う。また、水平方向に移動する検出領
域やズームアウト動作方向の検出領域は、それぞれ対応
するレイヤへの割当てを行う。この分類処理部263で
注目フレームの各検出領域のレイヤ分類が完了したとき
には、このレイヤ分類の結果を示すレイヤ分類情報LA
を分類補正部265に供給する。
In the classification processing unit 263, the threshold setting unit 264
Based on the threshold value Th and the motion amount of the motion vector MV, each detection region of each frame has the layer pattern information LP.
The layer classification is performed by discriminating to which of the layers the creation of which is instructed. Further, the detection area that moves in the horizontal direction and the detection area in the zoom-out operation direction are assigned to the corresponding layers. When the classification processing unit 263 completes the layer classification of each detection area of the frame of interest, the layer classification information LA indicating the result of the layer classification.
Is supplied to the classification correction unit 265.

【0047】ここで、分類処理部263では、遠景,中
景,近景の3つのレイヤを作成する際には、動き検出処
理部22からの動きベクトルMVを用いて、検出領域毎
に前mフレーム分と後nフレーム分の動き量の平均値を
算出する。例えば、正面画像の右側端部に設けた検出領
域において、動きベクトルMVの動き量が時間の経過と
共に図12Aに示すように変化したとき(図の数字は動
き量を示すものとする)には、Fpフレームでの検出領
域AR1に対して、Fpフレームでの検出領域AR1の動き
量と、Fp-1〜Fp-mフレームの検出領域AR1の動き量
と、Fp+1〜Fp+nフレームの検出領域AR1の動き量か
ら、動き量の平均値を算出する。さらに、検出領域AR1
の動き量として算出された平均値と、上述のようにして
設定された閾値Th1,Th2を比較することで、このFp
フレームでの検出領域AR1が遠景,中景,近景のいずれ
のレイヤに属するかを判別する。このように、注目フレ
ームの検出領域AR1について、前フレームや後フレーム
の動き量も用いて動き量の平均値を算出して、この平均
値を用いて検出領域AR1のレイヤ分けを行うので、検出
領域AR1の動き量に誤りが生じても、この検出領域AR1
のレイヤ分類することができると共に、被写体の大きさ
の差や被写体までの距離の差によってフレーム毎の動き
量の変動が生じても、これらの変動の影響を防止でき
る。また、他の領域や他のフレームに対しても同様に処
理することで、図12Bに示すように各検出領域を遠
景,中景,近景のいずれかのレイヤに分類して、レイヤ
分類情報LAを分類補正部265に通知する。なお図1
2Bにおいて、クロスハッチで示す検出領域は近景、斜
線で示す検出領域は中景、他の検出領域は遠景として分
類されたことを示している。
Here, the classification processing unit 263 uses the motion vector MV from the motion detection processing unit 22 to create the previous m frames for each detection region when creating three layers of the distant view, the middle view, and the near view. Minute and the amount of movement of the subsequent n frames is calculated. For example, when the motion amount of the motion vector MV changes over time as shown in FIG. 12A in the detection area provided at the right end portion of the front image (the numbers in the figure indicate the motion amount). , The amount of motion of the detection region AR1 in the Fp frame, the amount of motion of the detection region AR1 in the Fp-1 to Fp-m frames, and the amount of motion in the Fp + 1 to Fp + n frames with respect to the detection region AR1 in the Fp frame. An average value of the movement amount is calculated from the movement amount of the detection area AR1. Furthermore, the detection area AR1
By comparing the average value calculated as the amount of movement of Fp with the thresholds Th1 and Th2 set as described above, this Fp
It is determined whether the detection area AR1 in the frame belongs to the distant view, the middle view, or the near view. In this way, for the detection area AR1 of the target frame, the average value of the movement amount is calculated using the movement amounts of the previous frame and the subsequent frame, and the detection area AR1 is layered using this average value. Even if an error occurs in the movement amount of the area AR1, this detection area AR1
The layers can be classified, and even if the amount of movement of each frame varies due to the difference in the size of the subject or the difference in the distance to the subject, the influence of these variations can be prevented. Further, by performing similar processing on other areas and other frames, each detection area is classified into any of the distant view, middle view, and near view layers as shown in FIG. 12B, and the layer classification information LA To the classification correction unit 265. Figure 1
In FIG. 2B, the detection area indicated by the cross hatch is classified as the near view, the detection area indicated by the diagonal lines is classified as the middle view, and the other detection areas are classified as the distant view.

【0048】分類補正部265では、各検出領域のレイ
ヤ分類情報LAを参照して、同じレイヤに属する領域の
連結数が所定の数よりも少ない領域は周囲に合わせたレ
イヤに補正する。例えば図12Bでは、Fp+4フレーム
の領域AR4-gやFp-2フレームの領域AR6-hでは、同じ
レイヤに属する領域が連結していないので、これらの領
域を図12Cに示すように周囲に合わせた領域に補正し
て、いずれの領域がいずれのレイヤとされているかを示
すレイヤ分類情報LBを、情報生成処理部27に供給す
る。
The classification corrector 265 refers to the layer classification information LA of each detection area, and corrects an area belonging to the same layer, where the number of connected areas is smaller than a predetermined number, to a layer matched with the surrounding area. For example, in FIG. 12B, in the area AR4-g of the Fp + 4 frame and the area AR6-h of the Fp-2 frame, since the areas belonging to the same layer are not connected, these areas are surrounded as shown in FIG. 12C. The layer classification information LB that corrects the combined area and indicates which area is set as which layer is supplied to the information generation processing unit 27.

【0049】また、追越し車両があるときには、上述の
遠景,中景,近景だけでなく、図12Dに示すように追
い越し車両の画像が含まれる後退レイヤが生成される。
ここで、追越し車両は、遠景や中景及び近景の画像とは
動きベクトルMVの方向が逆であることから、後退レイ
ヤの時間軸方向は、他のレイヤとは方向を逆として生成
する。
When there is an overtaking vehicle, not only the above-mentioned distant view, middle view, and near view, but also a retreat layer including an image of the overtaking vehicle is generated as shown in FIG. 12D.
Here, since the passing vehicle has the direction of the motion vector MV that is opposite to that of the image of the distant view, the middle view, and the close view, the backward layer is generated with the direction of the time axis being opposite to that of the other layers.

【0050】図13は情報生成処理部27の構成を示し
ている。レイヤ分類部26から供給されたレイヤ分類情
報LBは、動き量平均値算出部271と画像読み込み部
272に供給される。
FIG. 13 shows the configuration of the information generation processing unit 27. The layer classification information LB supplied from the layer classification unit 26 is supplied to the motion amount average value calculation unit 271 and the image reading unit 272.

【0051】動き量平均値算出部271では、各検出領
域の動き量を用いて、レイヤ毎の動き量の平均値をフレ
ーム毎に算出する。例えばFeフレームのときに、遠景
レイヤとされた検出領域がny個であるときには、この
ny個の検出領域の動き量を用いて平均値を算出して画
像読み込み部272に供給すると共に、この算出した動
き量MYvを中間画像情報として蓄積部30の中間画像
情報蓄積領域32に記憶させる。
The motion amount average value calculation unit 271 calculates the average value of the motion amount for each layer for each frame using the motion amount of each detection area. For example, in the case of the Fe frame, when there are ny detection areas as distant view layers, an average value is calculated using the movement amounts of the ny detection areas and the average value is supplied to the image reading unit 272, and this calculation is performed. The calculated motion amount MYv is stored in the intermediate image information storage area 32 of the storage unit 30 as intermediate image information.

【0052】画像読み込み部272では、レイヤ分類部
26から供給されたレイヤ分類情報LBに基づき、側端
部から動き量平均値算出部271で算出された動き量M
Yvに応じてレイヤ毎に画像信号SDCを抽出してレイヤ
毎の中間画像信号GFvを生成して、中間画像信号補間
部273に供給する。
In the image reading unit 272, based on the layer classification information LB supplied from the layer classification unit 26, the motion amount M calculated by the motion amount average value calculation unit 271 from the side end portion.
The image signal SDC is extracted for each layer according to Yv to generate an intermediate image signal GFv for each layer, and the intermediate image signal GFv is supplied to the intermediate image signal interpolation unit 273.

【0053】ここで、各レイヤの動き量MYvに応じた
信号量だけ画像信号SDCを側端部から読み出して中間
画像信号を生成すると、例えば中間画像信号に基づく画
像は図14に示すものとなる。なお、図14Aは遠景レ
イヤの中間画像信号に基づく画像、図14Bは中景レイ
ヤの中間画像信号に基づく画像、図14Cは近景レイヤ
の中間画像信号に基づく画像を示している。
Here, when the image signal SDC is read from the side end portion by the signal amount corresponding to the movement amount MYv of each layer to generate an intermediate image signal, for example, an image based on the intermediate image signal is as shown in FIG. . 14A shows an image based on the intermediate image signal of the distant view layer, FIG. 14B shows an image based on the intermediate image signal of the middle view layer, and FIG. 14C shows an image based on the intermediate image signal of the near view layer.

【0054】中間画像信号補間部273では、動き量M
Yvの異なる各レイヤの画像を遠景,中景,近景の順に
貼り付けても、画像のないアンカバード(Uncovered)領
域が生ずることがないように中間画像信号GFvの補正
を行い、補正された信号を中間画像信号GYvとして中
間画像情報蓄積領域32に記憶させる。この中間画像信
号の補正では、手前のレイヤに対して全てを補間する
と、奥のレイヤが隠れてしまうこととなる。したがっ
て、最も奥のレイヤに対しては隙間全部を補間するもの
とし、中間に位置するレイヤではこのレイヤよりも手前
のレイヤに属する領域によって生成された隙間に対して
のみ、水平方向に隣接する信号を用いた補間処理を行
い、画像の無い隙間領域の画像信号を作り出して中間画
像信号に貼り付ける。このように補間処理を行うこと
で、図14Aに示す中間画像信号GFvに基づく画像
は、画像の無い部分(斜線で塗りつぶした領域)が水平
方向に隣接する信号を用いて補間されて、図15Aに示
すような画像となる。同様に、図14Bに示す中間画像
信号GFvに基づく画像は図15Bに示すように補正さ
れた画像となる。なお、最も手前に位置するレイヤが例
えば図14Cに示す近景レイヤであるものとしたとき、
最も手前に位置するレイヤではアンカバード領域が生じ
ないので、補間処理は不要となり、図15Cに示す近景
レイヤは図14Cと等しいものである。
In the intermediate image signal interpolating section 273, the motion amount M
Even if the images of the layers with different Yv are pasted in the order of the distant view, the middle view, and the near view, the intermediate image signal GFv is corrected so that an uncovered area without an image does not occur. Is stored in the intermediate image information storage area 32 as the intermediate image signal GYv. In this correction of the intermediate image signal, if all of the layers in the front are interpolated, the layers in the back will be hidden. Therefore, for the innermost layer, the entire gap is interpolated, and for the layer located in the middle, only signals that are horizontally adjacent to the gap created by the region belonging to the layer before this layer. Interpolation processing is performed to generate an image signal of a gap area where there is no image and paste it to the intermediate image signal. By performing the interpolation process in this manner, the image based on the intermediate image signal GFv shown in FIG. 14A is interpolated using signals in which the image-less portion (the shaded area) is horizontally adjacent, and the image shown in FIG. The image is as shown in. Similarly, the image based on the intermediate image signal GFv shown in FIG. 14B becomes an image corrected as shown in FIG. 15B. When the layer located closest to the foreground is, for example, the near view layer shown in FIG. 14C,
Since the uncovered area does not occur in the layer located closest to the foreground, interpolation processing is unnecessary, and the near view layer shown in FIG. 15C is the same as that in FIG. 14C.

【0055】蓄積部30の中間画像情報蓄積領域32に
は、中間画像情報生成ブロック25で生成されたレイヤ
毎の動き量MYvとレイヤ毎の中間画像信号GYvをフレ
ーム毎に関係付けて、中間画像情報として記憶される。
ここで、中間画像情報蓄積領域32に記憶された遠景レ
イヤの中間画像信号は、動き量が少ないことから図15
Aに示すように画像信号の信号量は少なくなる。また近
景レイヤの中間画像信号では、動き量が大きいことから
図15Cに示すように信号量も多くなる。また中景レイ
ヤでは図15Bに示すように遠景と中景の中間である信
号量となる。なお、後退レイヤでは、動き方向が逆であ
ることから後退レイヤの中間画像信号では、図15A〜
図15Cとはフレーム方向が逆となる。
In the intermediate image information storage area 32 of the storage unit 30, the motion amount MYv for each layer generated in the intermediate image information generation block 25 and the intermediate image signal GYv for each layer are associated with each other for each frame. It is stored as information.
Here, since the amount of motion of the intermediate image signal of the distant view layer stored in the intermediate image information storage area 32 is small, FIG.
As shown in A, the signal amount of the image signal decreases. In addition, the intermediate image signal of the near view layer has a large amount of motion and thus has a large amount of signal as shown in FIG. 15C. In the middle view layer, the signal amount is between the distant view and the middle view, as shown in FIG. 15B. It should be noted that, in the backward layer, the movement directions are opposite, so that in the intermediate image signal of the backward layer, FIG.
The frame direction is opposite to that in FIG. 15C.

【0056】レイヤパターン情報LPに基づいて水平移
動レイヤを作成するものと指示されたときには、動きベ
クトルの方向が水平方向とされている検出領域の画像信
号を、この水平移動レイヤの中間画像信号に設定する。
ここで、水平方向に移動する画像では、正面画像から外
に移動する画像と中に入り込む画像が生じる。例えば、
右折時には、正面画像の右側端部から画像が入り込み左
側端部から画像が出ていく。このため、外に移動する画
像の水平移動レイヤは遠景レイヤ等と時間軸方向を等し
くすると共に、中に入り込む画像の水平移動レイヤは後
退レイヤと同様に、遠景レイヤ等とは時間軸方向を逆方
向とする。
When it is instructed to create a horizontal movement layer based on the layer pattern information LP, the image signal of the detection area in which the direction of the motion vector is the horizontal direction is used as the intermediate image signal of this horizontal movement layer. Set.
Here, in an image that moves in the horizontal direction, an image that moves outward from the front image and an image that enters the front image occur. For example,
When making a right turn, the image enters from the right end of the front image and the image exits from the left end. Therefore, the horizontal movement layer of the image moving outward has the same time axis direction as that of the distant view layer, and the horizontal movement layer of the image moving inward has the same time axis direction as that of the backward view layer. Direction.

【0057】このようにして、中間画像情報蓄積領域3
2には、遠景,中景,近景の各レイヤの中間画像信号と
後退レイヤや水平移動レイヤの中間画像信号が動き量に
応じて生成されて記憶される。また、各レイヤの動き量
も上述のように合わせて記憶される。
In this way, the intermediate image information storage area 3
In 2, the intermediate image signals of the distant view, middle view, and near view layers and the intermediate image signals of the backward layer and the horizontal movement layer are generated and stored according to the amount of motion. Further, the amount of movement of each layer is also stored together as described above.

【0058】次に、蓄積部30の中間画像情報蓄積領域
32に記憶された中間画像情報を用いて右側面の画像の
周辺画像信号SDRを生成する場合について説明する。
このように、周辺画像信号SDRを生成する場合、中間
画像情報蓄積領域32から中間画像情報として記憶され
ている動き量MYvを読み出して、レイヤ毎の中間画像
信号GYvの信号読み出し量を動き量MYvに基づいて決
定する。さらに、この動き量MYvに応じた信号量の中
間画像信号をレイヤ毎に使用して、遠景レイヤ,中景レ
イヤ、近景レイヤの順に貼り付ける。また、遠景,中
景,近景のレイヤとは異なるレイヤが設けられていると
きには、このレイヤの画像の貼り付け処理も行い、周辺
画像信号SDRを生成できる。この生成した周辺画像信
号SDRを正面画像の画像信号SDCの出力タイミングに
合わせてプロジェクタ12Rに供給することで、正面画
像だけでなく右側面の画像も連続的に表示させることが
できる。
Next, the case where the peripheral image signal SDR of the image on the right side is generated using the intermediate image information stored in the intermediate image information storage area 32 of the storage section 30 will be described.
As described above, when the peripheral image signal SDR is generated, the motion amount MYv stored as the intermediate image information is read from the intermediate image information storage area 32, and the signal read amount of the intermediate image signal GYv for each layer is set as the motion amount MYv. Based on. Further, an intermediate image signal having a signal amount corresponding to the motion amount MYv is used for each layer, and the distant view layer, the middle view layer, and the near view layer are pasted in this order. Further, when a layer different from the distant view, middle view, and near view layers is provided, the image pasting process of this layer can also be performed to generate the peripheral image signal SDR. By supplying the generated peripheral image signal SDR to the projector 12R in synchronization with the output timing of the image signal SDC of the front image, not only the front image but also the right side image can be continuously displayed.

【0059】図16は、中間画像情報蓄積領域32に記
憶されている中間画像情報を読み出して周辺画像信号を
生成する周辺画像信号生成ブロック40の構成を示して
いる。周辺画像信号生成ブロック40の画像生成制御部
41では、中間画像情報蓄積領域32に中間画像情報と
して記憶されているレイヤ毎の動き量MYvをフレーム
順に読み出して、この読み出した動き量MYvに基づき
レイヤ毎の中間画像信号の読み出し量を判別する。この
画像生成制御部41で判別された読み出し量に基づい
て、中間画像情報蓄積領域32から中間画像信号GYv
をレイヤ毎に読み出して、レイヤ画像生成処理部42に
設けられているレイヤ毎の貼り付け部421-1〜421
-5に供給する。
FIG. 16 shows the configuration of a peripheral image signal generation block 40 which reads out the intermediate image information stored in the intermediate image information storage area 32 and generates a peripheral image signal. In the image generation control unit 41 of the peripheral image signal generation block 40, the motion amount MYv for each layer stored as the intermediate image information in the intermediate image information storage area 32 is read in the frame order, and the layer is read based on the read motion amount MYv. The read amount of the intermediate image signal for each is determined. Based on the read amount determined by the image generation control unit 41, the intermediate image information GYv is read from the intermediate image information storage area 32.
Is read for each layer, and the pasting units 421-1 to 421 for each layer provided in the layer image generation processing unit 42 are read.
-Supply to 5.

【0060】ここで、右左折時に水平方向に移動する水
平移動レイヤの中間画像信号は貼り付け部421-1に供
給する。また、遠景レイヤの中間画像信号は貼り付け部
421-2に供給すると共に、中景レイヤの中間画像信号
及び近景レイヤの中間画像信号は貼り付け部421-3,
421-4に供給する。さらに追越し車両の画像が含まれ
る後退レイヤの中間画像信号は貼り付け部421-5に供
給する。
Here, the intermediate image signal of the horizontal moving layer which moves in the horizontal direction when turning right or left is supplied to the pasting unit 421-1. Further, the intermediate image signal of the distant view layer is supplied to the attaching unit 421-2, and the intermediate image signal of the middle view layer and the intermediate image signal of the near view layer are attached to the attaching unit 421-3,
Supply to 421-4. Further, the intermediate image signal of the backward layer including the image of the overtaking vehicle is supplied to the pasting unit 421-5.

【0061】貼り付け部421-1には、後述する画像シ
フト部423-1が接続されており、画像シフト部423
-1から供給された画像信号に、中間画像情報蓄積領域3
2から読み出した対応するレイヤの画像信号を貼り付け
る。この貼り付け部421-1によって画像の貼り付けが
行われて得られた水平移動レイヤの画像信号は、1フレ
ーム遅延部422-1と画像信号生成部44の遠景貼り付
け部441に供給される。
An image shift unit 423-1 described later is connected to the pasting unit 421-1, and the image shift unit 423 is connected.
-1 to the image signal supplied from the intermediate image information storage area 3
The image signal of the corresponding layer read from 2 is pasted. The image signal of the horizontal movement layer obtained by pasting the image by the pasting unit 421-1 is supplied to the one-frame delay unit 422-1 and the distant view pasting unit 441 of the image signal generation unit 44. .

【0062】1フレーム遅延部422-1では、貼り付け
部421-1から供給された画像信号を1フレーム分だけ
遅延させて画像シフト部423-1に供給する。画像シフ
ト部423-1では、1フレーム遅延部422-1から供給
された画像信号に基づく画像を、画像生成制御部41か
ら供給された水平移動レイヤの動き量MYvに基づいて
水平方向に移動させる。さらにこの水平方向に移動させ
た画像の画像信号を貼り付け部421-1に供給する。
The one-frame delay unit 422-1 delays the image signal supplied from the pasting unit 421-1 by one frame and supplies the delayed image signal to the image shift unit 423-1. The image shift unit 423-1 moves the image based on the image signal supplied from the 1-frame delay unit 422-1 in the horizontal direction based on the movement amount MYv of the horizontal movement layer supplied from the image generation control unit 41. . Further, the image signal of the image moved in the horizontal direction is supplied to the pasting unit 421-1.

【0063】このように1フレーム分遅延された画像信
号に基づく画像を、画像生成制御部41から供給された
動き量MYvに基づいて水平方向に移動させると共に、
この水平方向に移動された画像に中間画像情報蓄積領域
32から動き量MYv分だけ読み出した水平移動レイヤ
の中間画像信号GYvを貼り付けることで、移動する画
像の画像信号を生成できる。
The image based on the image signal delayed by one frame as described above is moved in the horizontal direction based on the movement amount MYv supplied from the image generation control unit 41, and
The image signal of the moving image can be generated by pasting the intermediate image signal GYv of the horizontal moving layer read by the amount of movement MYv from the intermediate image information storage area 32 to the image moved in the horizontal direction.

【0064】同様に、1フレーム遅延部422-2〜42
2-5で1フレーム分遅延された画像信号に基づく画像
を、画像シフト部423-2〜423-5で画像生成制御部
41から供給された各レイヤの動き量MYvに基づいて
水平方向に移動させると共に、この水平方向に移動され
た画像に対して、中間画像情報蓄積領域32から各レイ
ヤの動き量分だけ読み出した中間画像信号GYvを貼り
付け部421-2〜421-5に供給して、この読み出した
中間画像信号GYvに基づく画像を貼り付けることで、
順次画像が移動する画像信号をレイヤ毎に生成できる。
Similarly, 1-frame delay units 422-2 to 42
The image based on the image signal delayed by one frame at 2-5 is moved in the horizontal direction based on the motion amount MYv of each layer supplied from the image generation control unit 41 at the image shift units 423-2 to 423-5. At the same time, the intermediate image signal GYv read from the intermediate image information storage area 32 by the amount of movement of each layer is supplied to the pasting units 421-2 to 421-5 with respect to the horizontally moved image. By pasting the image based on the read intermediate image signal GYv,
An image signal in which images sequentially move can be generated for each layer.

【0065】また、中間画像信号は、正面画像信号から
読み出した信号であることから、この中間画像信号に基
づく画像は、スクリーン10Cと同じ面上の画像とな
る。しかし、周辺画像を表示するスクリーン10Rは正
面のスクリーン10Cに対して傾きを持って設けられて
いる。このため、遠景,中景,近景レイヤや後退レイヤ
のように、動きベクトルの方向が画像基準位置CPの方
向あるいは逆方向であるレイヤの画像信号を用いて、各
レイヤの画像の貼り付けを行い周辺画像信号SDRを生
成して画像表示を行うものとすると、スクリーン10R
に表示される画像は、スクリーン10Cに対するスクリ
ーン10Rの傾きによって正しい形状とならない。この
ため、動きベクトルの方向が画像基準位置CPの方向あ
るいは逆方向であるレイヤの画像信号は、射影変換部4
3の各変換処理部431〜434に供給して、この各レ
イヤの画像をスクリーン10L,10Rに表示したとき
に、動きベクトルMVのベクトル方向に画像が正しく移
動するように射影変換を行う。また、水平移動レイヤの
画像は、動きベクトルMVの方向が水平方向であること
から、遠景,中景,近景レイヤ,後退レイヤのような射
影変換は行わないものとする。
Since the intermediate image signal is a signal read from the front image signal, the image based on this intermediate image signal is an image on the same surface as the screen 10C. However, the screen 10R for displaying the peripheral image is provided so as to be inclined with respect to the screen 10C on the front side. Therefore, the image of each layer is pasted using the image signal of the layer in which the direction of the motion vector is the direction of the image reference position CP or the opposite direction, such as the distant view, middle view, near view layer, and backward layer. If the peripheral image signal SDR is generated and an image is displayed, the screen 10R is displayed.
The image displayed at is not in the correct shape due to the inclination of the screen 10R with respect to the screen 10C. Therefore, the image signal of the layer in which the direction of the motion vector is the direction of the image reference position CP or the opposite direction is the projective transformation unit 4
3 is supplied to the respective conversion processing units 431 to 434, and when the image of each layer is displayed on the screens 10L and 10R, the projective conversion is performed so that the image correctly moves in the vector direction of the motion vector MV. Further, since the direction of the motion vector MV is the horizontal direction, the image of the horizontal movement layer is not subjected to projective transformation like the distant view, middle view, near view layer, and backward layer.

【0066】射影変換部43の変換処理部431〜43
4では、貼り付け部421-2〜421-5から供給された
画像信号に対して、画像がスクリーン10Rの向きに対
応した形状となるように射影変換を行う。ここで、正面
画像から画像信号を順次読み出すと、読み出した画像の
表示面10CRとスクリーン10Rは、図17A及び図1
7Bに示すように同一面でないことから、正面画像から
読み出した画像をスクリーン10Rに表示したときに
は、表示面10CRの画像をそのままスクリーン10Rの
面上に投射したものとなり、正しい形状とならない。
Conversion processing units 431 to 43 of the projective conversion unit 43
In 4, the projective transformation is performed on the image signals supplied from the pasting units 421-2 to 421-5 so that the image has a shape corresponding to the orientation of the screen 10R. Here, when the image signals are sequentially read from the front image, the display surface 10CR and the screen 10R of the read image are shown in FIG. 17A and FIG.
Since the images are not on the same plane as shown in 7B, when the image read from the front image is displayed on the screen 10R, the image on the display surface 10CR is projected as it is on the surface of the screen 10R, and the shape is not correct.

【0067】このため、射影変換を行って、垂直方向は
画像のズームインあるいはズームアウトの中心Czmから
距離に比例した拡大率で拡大すると共に、水平方向はそ
の速度がズームインあるいはズームアウトの中心Czmか
らの距離に比例するような拡大率で拡大する。
Therefore, the projective transformation is performed so that the vertical direction is expanded from the center Czm of zoom-in or zoom-out of the image at an expansion rate proportional to the distance, and the speed is horizontally changed from the center Czm of zoom-in or zoom-out to the center. The magnification is such that it is proportional to the distance.

【0068】ここで、図17Cに示すように、右側面画
像の画面前端から中心Czmまでの長さをL、右側面画像
の周辺方向の長さをA、正面画像と右側面画像とが成す
角度「θs」に基づいた比例定数をαとすると、正面画
面端からそのまま読み出した画像の位置(xa,ya)と
右側面画像上に正しく画像表示できるように変換処理し
た後の位置(Xa,Ya)は、垂直方向については式
(3)の関係となり、水平方向については式(4)の関
係となる。このため、図17Dに示すように、スクリー
ン10R上の(Xa,Ya)の画像信号は、式(3),式
(4)を満たす位置(xa,ya)の信号を用いること
で、図17Eに示すようにスクリーン10R上に正しく
右側面画像を表示できる。
Here, as shown in FIG. 17C, the length from the front edge of the screen of the right side image to the center Czm is L, the length in the peripheral direction of the right side image is A, and the front side image and the right side image are formed. Assuming that the proportional constant based on the angle “θs” is α, the position (xa, ya) of the image directly read from the front screen edge and the position (Xa, after conversion processing so that the image can be correctly displayed on the right side image. Ya) has the relationship of Expression (3) in the vertical direction and the relationship of Expression (4) in the horizontal direction. Therefore, as shown in FIG. 17D, as the image signal of (Xa, Ya) on the screen 10R, by using the signal of the position (xa, ya) that satisfies the equations (3) and (4), the image signal of FIG. The right side image can be correctly displayed on the screen 10R as shown in FIG.

【0069】[0069]

【数2】 [Equation 2]

【0070】この変換処理部431で得られた射影変換
後の遠景レイヤの画像信号は、画像信号生成部44の遠
景貼り付け部441に供給される。また、変換処理部4
32で得られた射影変換後の中景レイヤの画像信号は中
景貼り付け部442に供給されると共に、変換処理部4
33で得られた射影変換後の近景レイヤの画像信号は近
景貼り付け部443に供給される。さらに、変換処理部
434で得られた後退レイヤの画像信号は縮小貼り付け
部444に供給される。
The image signal of the distant view layer after the projective transformation obtained by the transform processing unit 431 is supplied to the distant view pasting unit 441 of the image signal generating unit 44. Also, the conversion processing unit 4
The image signal of the middle-view layer after projective conversion obtained in 32 is supplied to the middle-view pasting unit 442 and the conversion processing unit 4
The image signal of the near view layer after the projective transformation obtained in 33 is supplied to the near view pasting unit 443. Furthermore, the image signal of the receding layer obtained by the conversion processing unit 434 is supplied to the reduction and pasting unit 444.

【0071】遠景貼り付け部441では、貼り付け部4
21と変換処理部431から供給された画像信号に基づ
いて、水平移動レイヤの画像に遠景レイヤの画像を貼り
付けた画像信号を生成して中景貼り付け部442に供給
する。
In the distant view pasting unit 441, the pasting unit 4
21 and the image signal supplied from the conversion processing unit 431, an image signal in which the image of the distant view layer is pasted on the image of the horizontal movement layer is generated and supplied to the middle-view pasting unit 442.

【0072】中景貼り付け部442では、変換処理部4
32と遠景貼り付け部441から供給された画像信号に
基づいて、遠景レイヤの画像が貼り付けた画像に中景レ
イヤの画像を貼り付けた画像信号を生成して近景貼り付
け部443に供給する。
In the middle ground pasting unit 442, the conversion processing unit 4
32 and the image signal supplied from the distant view pasting unit 441, an image signal in which the image in the middle view layer is pasted to the image in which the image in the distant view layer is pasted is generated and supplied to the near view pasting unit 443. .

【0073】近景貼り付け部443では、変換処理部4
33と中景貼り付け部442から供給された画像信号に
基づいて、中景レイヤの画像が貼り付けた画像に近景レ
イヤの画像を貼り付けた画像信号を生成して縮小貼り付
け部444に供給する。
In the close view pasting unit 443, the conversion processing unit 4
33 and the image signal supplied from the middle ground pasting unit 442, an image signal in which the image in the middle ground layer is pasted to the image in which the image in the middle ground layer is pasted is generated and supplied to the reduction pasting unit 444. To do.

【0074】縮小貼り付け部444では、変換処理部4
34と近景貼り付け部443から供給された画像信号に
基づいて、近景レイヤの画像が貼り付けた画像に、時間
と共に画像が縮小する後退レイヤの画像を貼り付けた画
像信号を生成する。この縮小貼り付け部444で生成さ
れた画像信号は、水平移動レイヤから縮小レイヤまでの
各レイヤが貼り付けられた側面画像の画像信号となる。
In the reduction pasting unit 444, the conversion processing unit 4
34 and the image signal supplied from the near-field pasting unit 443, an image signal in which the image in the near-field layer is pasted with the image in the receding layer whose image shrinks with time is generated. The image signal generated by the reduction and pasting unit 444 becomes the image signal of the side image to which each layer from the horizontal movement layer to the reduction layer is pasted.

【0075】このため、縮小貼り付け部444で生成さ
れた画像信号を周辺画像信号SDRとしてプロジェクタ
12Rに供給することで、正面画像と連続した右側面の
画像をスクリーン10Rに表示することができる。
Therefore, by supplying the image signal generated by the reduction and pasting unit 444 to the projector 12R as the peripheral image signal SDR, it is possible to display the image on the right side, which is continuous with the front image, on the screen 10R.

【0076】また、中間画像情報蓄積領域32に記憶さ
れた中間画像信号に対して、画像の無い部分を補間する
処理が行われていないとき、あるいは縮小貼り付け部4
44で生成された画像信号に画像の無い部分が生ずると
きには、前補間処理部を設けて、画像の無い部分と隣接
する領域でどのようなレイヤの画像が貼り合わされたを
判別して、奥行きの深いレイヤの画像を用いて補間処理
を行う。例えば、中景レイヤと近景レイヤの画像が貼り
合わされている領域と水平方向に隣接する部分で画像の
無い部分が生じてときには、奥行きの深い中景レイヤの
画像を用いて補間処理を行うことで、画像の欠落のない
良好な周辺画像信号SDRを生成できる。
When the intermediate image signal stored in the intermediate image information accumulating area 32 is not subjected to the process of interpolating a portion without an image, or the reduction paste section 4
When an image-free portion is generated in the image signal generated at 44, a pre-interpolation processing unit is provided to determine what layer image is combined in an area adjacent to the image-free portion, and Interpolation processing is performed using an image of a deep layer. For example, when there is no image in a part that is horizontally adjacent to the region where the images of the middle-view layer and the foreground layer are pasted together, interpolation processing can be performed using the image of the deep-view middle-layer. A good peripheral image signal SDR without image loss can be generated.

【0077】また、周辺画像信号SDRと同様にして周
辺画像信号SDLを生成してプロジェクタ12Lに供給す
ることで、正面画像と連続した左側面の画像をスクリー
ン10Lに表示することができる。
Further, by generating the peripheral image signal SDL in the same manner as the peripheral image signal SDR and supplying it to the projector 12L, it is possible to display an image on the left side surface continuous with the front image on the screen 10L.

【0078】次に、付加情報信号生成ブロック50で
は、動き検出ブロック20から供給された各検出領域の
動きベクトルMVと中間画像情報生成ブロック25から
供給されたレイヤ分類情報LBに基づき付加情報信号で
ある揺動信号SEを生成する。
Next, in the additional information signal generation block 50, an additional information signal is generated based on the motion vector MV of each detection region supplied from the motion detection block 20 and the layer classification information LB supplied from the intermediate image information generation block 25. A certain swing signal SE is generated.

【0079】揺動信号SEの生成では、正面画像の左側
に設けた検出領域において、レイヤ分類情報LBによっ
て中景レイヤであることが示された検出領域の動きベク
トルMVから動き量MSLを生成する。例えば、選択し
た中景レイヤの各動きベクトルMVの動き量から平均値
あるいは最頻値等を算出して動き量MSLとする。ま
た、正面画像の右側についても同様にして動き量MSR
を生成する。
In the generation of the rocking signal SE, in the detection area provided on the left side of the front image, the motion amount MSL is generated from the motion vector MV of the detection area indicated by the layer classification information LB to be the middle ground layer. . For example, an average value or a mode value is calculated from the motion amount of each motion vector MV of the selected middle-view layer to obtain the motion amount MSL. Similarly, for the right side of the front image, the movement amount MSR
To generate.

【0080】動き量MSL,MSRは、正面画像から外
に出て行く方向を正(+)方向、正面画像から中に入り
込む方向を負(−)方向とすると、動き量MSLと動き
量MSRの加算値MXは、正面画像を撮影したときの前
後方向の速度に関する情報を示すものとなる。また、動
き量MSLと動き量MSRの差分値MYは、正面画像を
撮影したときの旋回に関する情報を示すものとなる。な
お、図18は動きパターンと加算値MX、差分値MYの
一例を示しており、図18Aは直進動作の場合、図18
Bは左折動作の場合である。直進動作での動き量MSL
と動き量MSRが「+10」であるときには、加算値M
Xは「20」,差分値MYは「0」となる。また、左折
動作での動き量MSLが「−8」,動き量MSRが「+
10」のときには、加算値MXは「2」,差分値MYは
「18」となる。
The movement amounts MSL and MSR are defined as the movement amount MSL and the movement amount MSR, where the direction going out from the front image is the positive (+) direction and the direction going inward from the front image is the negative (-) direction. The added value MX indicates information about the speed in the front-rear direction when the front image is captured. Further, the difference value MY between the motion amount MSL and the motion amount MSR indicates information regarding turning when the front image is captured. Note that FIG. 18 shows an example of the motion pattern, the added value MX, and the difference value MY, and FIG.
B is the case of a left turn operation. MSL for straight movement
And the movement amount MSR is “+10”, the added value M
X is “20” and the difference value MY is “0”. Also, the amount of movement MSL in the left turn motion is “−8”, and the amount of movement MSR is “+”.
When the value is 10 ", the added value MX is" 2 "and the difference value MY is" 18 ".

【0081】ここで、臨場感を高めるために表示画像に
対応して椅子を揺動させる場合、前後方向の速度に関す
る情報を示す加算値MXの微分が加速度を示すことか
ら、この加算値MXの微分値を算出して加速度情報MX
dを生成して、この加速度情報MXdに基づきピッチ角
制御用揺動信号SEpを生成する。このピッチ角制御用
揺動信号SEpをモーションベースプラットフォーム1
7に供給する。また、差分値MYは正面画像を撮影した
ときの旋回に関する情報であることから、この差分値M
Yに加算値MXを乗算して遠心力情報MXyを生成し
て、この遠心力情報MXyに基づきロール角制御用揺動
信号SErを生成する。このロール角制御用揺動信号S
Erをモーションベースプラットフォーム17に供給す
る。
Here, when the chair is swung corresponding to the display image in order to enhance the sense of presence, the differential of the added value MX indicating the information on the speed in the front-rear direction indicates the acceleration. Acceleration information MX by calculating the differential value
d is generated, and the swing signal SEp for pitch angle control is generated based on this acceleration information MXd. The swing signal SEp for controlling the pitch angle is used as the motion base platform 1
Supply to 7. Further, since the difference value MY is information regarding turning when the front image is captured, the difference value M
Y is multiplied by the addition value MX to generate centrifugal force information MXy, and the roll angle control swing signal SEr is generated based on the centrifugal force information MXy. This roll angle control swing signal S
The Er is supplied to the motion base platform 17.

【0082】モーションベースプラットフォーム17で
は、ピッチ角制御用揺動信号SEpに基づき椅子173
を前後方向に傾ける動作(ピッチング動作)を行うこと
で、椅子173に座った人に加速度情報MXdに応じた
負荷を与える。またロール角制御用揺動信号SErに基
づき椅子173を左右方向に傾ける動作(ローリング動
作)を行うことで、椅子173に座った人に遠心力情報
MXyに応じた負荷を与える。
In the motion base platform 17, the chair 173 is based on the swing signal SEp for pitch angle control.
By performing an operation (pitching operation) of tilting the vehicle in the front-back direction, a load corresponding to the acceleration information MXd is given to the person sitting on the chair 173. Further, by performing an operation (rolling operation) of tilting the chair 173 in the left-right direction based on the roll angle control swing signal SEr, a load sitting on the chair 173 is applied according to the centrifugal force information MXy.

【0083】このように、付加情報信号としてピッチ角
制御用揺動信号SEpやロール角制御用揺動信号SEr
を生成して、このピッチ角制御用揺動信号SEpとロー
ル角制御用揺動信号SErをモーションベースプラット
フォーム17に供給することにより、加速度情報MXd
に応じて椅子173をピッチング動作させると共に遠心
力情報MXyに応じて椅子173をローリング動作させ
ることで、椅子173に座った人に対して表示画像に応
じた加速度感や遠心力を与えることができる。
As described above, the swing signal SEp for pitch angle control and the swing signal SEr for roll angle control are added information signals.
By generating the pitch angle control swing signal SEp and the roll angle control swing signal SEr to the motion base platform 17 to generate the acceleration information MXd.
By performing the pitching operation of the chair 173 in accordance with the movement and the rolling operation of the chair 173 in accordance with the centrifugal force information MXy, it is possible to give the person sitting on the chair 173 an acceleration feeling and a centrifugal force according to the display image. .

【0084】ところで、周辺画像の提示と揺動を上述し
たように同時に行う場合、椅子173に座った人は、周
辺画像と揺動の双方から加速度感等を感じることとな
る。ここで、周辺画像に近景が多いような場合と周辺画
像に遠景が多いような場合とを想定すると、周辺画像に
近景が多い場合には周辺画像での動きが非常に大きくな
るので、周辺画像から得られる加速度感等が大きくな
る。また、周辺画像に遠景が多い場合には周辺画像での
動きが小さくなるので、周辺画像から得られる加速度感
等が小さくなる。このため、中景レイヤの画像に基づい
て揺動を行う際に、周辺画像に近景が多く含まれる場合
には、周辺画像から十分な加速度感等を得られるので揺
動を小さくする。また、周辺画像に遠景が多く含まれる
場合には、周辺画像から十分な加速度感等を得られない
ので揺動を大きくする。
By the way, when the peripheral image is presented and rocked at the same time as described above, the person sitting on the chair 173 feels acceleration and the like from both the peripheral image and rocking. Here, assuming that the surrounding image has many near views and the surrounding image has many distant views, the movement in the surrounding image becomes very large when the surrounding image has many nearby views. The acceleration feeling and the like obtained from is increased. In addition, when there are many distant views in the peripheral image, the motion in the peripheral image becomes small, so that the sense of acceleration and the like obtained from the peripheral image becomes small. For this reason, when performing the swing based on the image of the middle view layer, if the surrounding image includes many near views, a sufficient sense of acceleration or the like can be obtained from the surrounding image, so the swing is reduced. Further, when the peripheral image includes many distant views, a sufficient sense of acceleration or the like cannot be obtained from the peripheral image, so that the swing is increased.

【0085】周辺画像における遠景,中景,近景の各領
域の面積は、周辺画像信号生成ブロック40の画像信号
生成部44で貼り付けを行う遠景レイヤの信号と中景レ
イヤの信号と近景レイヤの信号を用いて算出できる。こ
こで、変換処理部431から遠景貼り付け部441に供
給される遠景レイヤの画像信号と、変換処理部432か
ら中景貼り付け部442に供給される中景レイヤの画像
信号と、変換処理部433から近景貼り付け部443に
供給される近景レイヤの画像信号を付加情報信号生成ブ
ロック50に供給して、例えば、遠景レイヤの画像信号
から、この遠景レイヤの画像上に貼り付けられる中景レ
イヤと近景レイヤの画像を除いた遠景レイヤの画像の画
素数を算出して遠景領域の面積とする。また、中景レイ
ヤの画像信号から、この中景レイヤの画像上に貼り付け
られる近景レイヤの画像を除いた中景レイヤの画像の画
素数を中景領域の面積とし、近景レイヤの画像信号に基
づき近景レイヤの画像の画素数を近景領域の面積とす
る。
The area of each of the distant view, middle view, and near view regions in the peripheral image is determined by the signals of the distant view layer, the middle view layer, and the near view layer which are pasted by the image signal generating unit 44 of the peripheral image signal generating block 40. It can be calculated using the signal. Here, the image signal of the distant view layer supplied from the conversion processing unit 431 to the distant view pasting unit 441, the image signal of the middle view layer supplied from the conversion processing unit 432 to the middle view pasting unit 442, and the conversion processing unit The image signal of the foreground layer supplied from 433 to the foreground attachment unit 443 is supplied to the additional information signal generation block 50, and, for example, the image signal of the distant layer is pasted on the image of the distant layer. And the number of pixels of the image of the distant view layer excluding the image of the near view layer is calculated as the area of the distant view region. In addition, the number of pixels of the image of the middle view layer, which is obtained by removing the image of the near view layer pasted on the image of the middle view layer, from the image signal of the middle view layer is set as the area of the middle view region, and Based on this, the number of pixels of the image of the near view layer is set as the area of the near view region.

【0086】このようにして、求めた各画素数を比較す
ることで、遠景,中景,近景の各領域の面積比を判別す
ることができ、この面積比に基づいて揺動の大きさを補
正するものとし、図19Aに示すように、遠景領域の面
積が大きいときには、ピッチ角制御用揺動信号SEpや
ロール角制御用揺動信号SErの信号レベルを大きくし
て、揺動を大きくする。また、図19Bに示すように近
景領域の面積が大きいときには、ピッチ角制御用揺動信
号SEpやロール角制御用揺動信号SErの信号レベル
を小さいものとして、揺動を少なくする。このように、
周辺画像に遠景の画像が多く含まれるか近景の画像が多
く含まれるかに応じて揺動を補正することにより、周辺
画像から得られる加速感等を補うように揺動を行わせる
ことが可能となり、さらに良好な臨場感を得ることがで
きる。
By comparing the calculated numbers of pixels in this way, the area ratio of each of the distant view area, the middle view area, and the near view area can be determined, and the magnitude of the swing can be determined based on this area ratio. As shown in FIG. 19A, when the area of the distant view region is large, the signal levels of the pitch angle control rocking signal SEp and the roll angle control rocking signal SEr are increased to increase the rocking. . Further, when the area of the near view area is large as shown in FIG. 19B, the swing is reduced by setting the signal levels of the pitch angle control swing signal SEp and the roll angle control swing signal SEr to be small. in this way,
By correcting the shake depending on whether the peripheral image includes many distant images or many near-view images, it is possible to perform the shake so as to supplement the sense of acceleration obtained from the peripheral images. Therefore, a better sense of presence can be obtained.

【0087】また、上述の実施の形態では、蓄積されて
いる正面画像の画像信号を用いてレイヤ毎の中間画像を
生成し、この中間画像の信号を用いて周辺画像の画像信
号を生成すると共に、中間画像を生成する際の動きベク
トルに基づいて揺動信号を生成するものとしたが、正面
画像の画像信号は蓄積されている信号に限られるもので
はない。例えば、直進する車等から撮影した画像のよう
に、画像の動きが正面画像の画像基準位置CPを中心と
した放射方向である拘束条件を満たすリアルタイムの正
面画像の画像信号を用いて、周辺画像と共に周辺画像に
応じた揺動信号を生成できる。
Further, in the above-described embodiment, the intermediate image for each layer is generated using the accumulated image signal of the front image, and the image signal of the peripheral image is generated using the signal of the intermediate image. Although the swing signal is generated based on the motion vector when the intermediate image is generated, the image signal of the front image is not limited to the accumulated signal. For example, as in an image taken from a vehicle traveling straight ahead, a peripheral image is obtained by using a real-time image signal of the front image that satisfies the constraint condition that the movement of the image is the radial direction centered on the image reference position CP of the front image. At the same time, a swing signal according to the peripheral image can be generated.

【0088】この場合には、図5に示すように検出領域
を設定すると共に、画像基準位置CPを中心としたズー
ムアウト動作、すなわち拡大率Zを設定して検出領域を
(1/Z)に縮小させて、この縮小された領域と1フレ
ーム前の画像における対応位置の画像信号との誤差和を
算出して、図7に示すように誤差和が最小値となる拡大
率Zを検出することにより、検出領域毎の動き量を算出
する。
In this case, the detection area is set as shown in FIG. 5, and the zoom-out operation centering on the image reference position CP, that is, the enlargement ratio Z is set to set the detection area to (1 / Z). By reducing, the sum of the errors between the reduced area and the image signal at the corresponding position in the image one frame before is calculated, and the enlargement ratio Z that minimizes the sum of the errors is detected as shown in FIG. Thus, the amount of movement for each detection area is calculated.

【0089】次に、動き量に基づいて各検出領域を例え
ば遠景,中景,近景のいずれがのレイヤに分割すると共
に、レイヤ毎に動き量から画像の移動量が設定されて、
レイヤ分けされた検出領域の画像が、対応するレイヤの
移動量に応じて抽出されて、この抽出された画像の画像
信号を、移動量の少ない遠景レイヤから移動量の大きい
近景レイヤへと順に貼り付けることで注目フレームの画
角に存在しない周辺画像信号を生成できる。また、上述
の場合と同様に検出領域毎に動き量が求められることか
ら、この動き量に基づいて揺動信号SEを生成すること
で、リアルタイムの画像信号SDCに基づいて広画角の
画像提示を行うことができると共に、画像の動きに合わ
せて揺動を行い臨場感を高めることができる。
Next, each detection area is divided into, for example, a distant view, a middle view, and a near view based on the amount of movement, and the amount of movement of the image is set from the amount of movement for each layer.
The image of the detection area divided into layers is extracted according to the movement amount of the corresponding layer, and the image signals of the extracted images are sequentially attached from the distant view layer with a small movement amount to the near view layer with a large movement amount. By attaching it, a peripheral image signal that does not exist in the angle of view of the frame of interest can be generated. In addition, since the motion amount is obtained for each detection area as in the case described above, the swing signal SE is generated based on this motion amount, so that a wide-angle image presentation is performed based on the real-time image signal SDC. In addition to being able to perform, it is possible to increase the sense of presence by swinging in accordance with the movement of the image.

【0090】さらに、臨場感を高める方法は、揺動信号
SEに基づいて椅子を前後左右に傾けることで加速感等
を与えるものに限られるものではない。例えば、付加情
報信号として送風制御信号を生成して送風機に供給し、
椅子173に座っている人に対して風を当てると共に、
得られた前方向の速度に関する情報に応じて風量制御を
行い風圧を可変させるものとしたり、旋回に関する情報
に応じて風向制御を行い風向きを可変させることによ
り、さらに臨場感を高めることができる。また、付加情
報信号として音声制御信号を生成してスピーカに供給
し、走行音や風切り音,エンジン音等をスピーカから出
力させると共に、前方向の速度に関する情報に応じて音
量や音色を可変させることでも臨場感を更に高めること
ができる。このように、正面画像の画像信号から画像の
動きに関する特徴量を検出して、この特徴量に基づいて
画像の動きに関連した付加情報信号を生成することで、
臨場感を高めることができる。
Further, the method of enhancing the feeling of presence is not limited to the method of giving a feeling of acceleration or the like by tilting the chair forward, backward, leftward or rightward based on the swing signal SE. For example, a blower control signal is generated as an additional information signal and supplied to the blower,
While applying a breeze to the person sitting on the chair 173,
It is possible to further enhance the sense of presence by controlling the air volume according to the obtained information regarding the forward speed and varying the wind pressure, or by controlling the wind direction according to the information regarding the turning and varying the wind direction. In addition, a voice control signal is generated as an additional information signal and supplied to a speaker, and a running sound, wind noise, engine sound, etc. are output from the speaker, and the volume and timbre are varied according to the information on the forward speed. But it can enhance the sense of presence. In this way, by detecting the feature amount related to the motion of the image from the image signal of the front image and generating the additional information signal related to the motion of the image based on the feature amount,
You can increase the sense of presence.

【0091】さらに、上述の各ブロックで行われる処理
はハードウェアだけでなくソフトウェアで実現するもの
としても良い。この場合の構成を図20に示す。
Further, the processing performed in each block described above may be realized not only by hardware but also by software. The configuration in this case is shown in FIG.

【0092】コンピュータ90は、図20に示すように
CPU(Central Processing Unit)901を内蔵してお
り、このCPU901にはバス920を介してROM9
02,RAM903,ハード・ディスク・ドライブ90
4,入出力インタフェース905が接続されている。さ
らに、入出力インタフェース905には入力部911や
記録媒体ドライブ912,通信部913,画像入出力部
914が接続されている。
The computer 90 has a built-in CPU (Central Processing Unit) 901 as shown in FIG. 20, and the CPU 901 is provided with a ROM 9 via a bus 920.
02, RAM 903, hard disk drive 90
4, the input / output interface 905 is connected. Furthermore, an input unit 911, a recording medium drive 912, a communication unit 913, and an image input / output unit 914 are connected to the input / output interface 905.

【0093】キーボードやマウス等の操作入力手段ある
いはマイク等の音声入力手段等を用いて構成された入力
部911から、命令が入力されると、この命令が入出力
インタフェース905を介してCPU901に供給され
る。
When a command is input from the input unit 911 that is configured by using an operation input unit such as a keyboard or a mouse or a voice input unit such as a microphone, the command is supplied to the CPU 901 through the input / output interface 905. To be done.

【0094】CPU901では、ROM902やRAM
903あるいはハード・ディスク・ドライブ904に記
憶されているプログラムを実行して、供給された命令に
応じた処理を行う。さらに、ROM902やRAM90
3あるいはハード・ディスク・ドライブ904には、上
述の各ブロックでの処理を実行するためのプログラムも
記憶させて、側面画像の生成も行う。
The CPU 901 has a ROM 902 and a RAM.
The program stored in the hard disk drive 903 or the hard disk drive 904 is executed to perform the processing according to the supplied instruction. Furthermore, ROM902 and RAM90
3 or the hard disk drive 904 also stores a program for executing the processing in each block described above, and also generates a side image.

【0095】ここで、中間画像情報の生成や中間画像情
報から周辺画像信号を生成して出力すると共に付加情報
信号を生成する信号処理プログラムは、情報記録媒体で
あるROM902やハード・ディスク・ドライブ904
に予め記憶しておくことができる。
Here, the signal processing program for generating the intermediate image information and for generating and outputting the peripheral image signal from the intermediate image information and the additional information signal is the ROM 902 which is an information recording medium or the hard disk drive 904.
Can be stored in advance.

【0096】あるいは、磁気や光を利用したリムーバブ
ル記録媒体や半導体素子等を用いて構成されたリムーバ
ブルの情報記録伝送媒体、例えばフロッピー(R)ディ
スクやCD−ROM等の光ディスク、MOディスク等の
光磁気ディスク、テープカートリッジ、あるいは半導体
メモリ等に信号処理プログラムを記録するものとして、
これらのリムーバブル情報記録伝送媒体を記録媒体ドラ
イブ912に装着して記録されている信号処理プログラ
ムを読み出し、読み出したプログラムを入出力インタフ
ェース905やバス920を介してハード・ディスク・
ドライブ904等に記憶させることでインストールして
も良い。
Alternatively, a removable information recording / transmission medium composed of a removable recording medium using magnetism or light or a semiconductor element, for example, an optical disk such as a floppy (R) disk or a CD-ROM, or an optical disk such as an MO disk. For recording a signal processing program on a magnetic disk, tape cartridge, semiconductor memory, or the like,
The removable information recording / transmission medium is mounted on the recording medium drive 912 to read the recorded signal processing program, and the read program is read via the input / output interface 905 and the bus 920 to the hard disk drive.
It may be installed by storing it in the drive 904 or the like.

【0097】さらに、通信部913を設けて、有線や無
線の伝送路、例えばLANやインターネット等のネット
ワーク、あるいは衛星放送波や地上放送波等を利用して
供給された信号処理プログラムを受信して、この受信し
た信号処理プログラムを、入出力インタフェース905
及びバス920を介してハード・ディスク・ドライブ9
04等にインストールすることもできる。
Further, a communication unit 913 is provided to receive a signal processing program supplied using a wired or wireless transmission path, for example, a network such as LAN or the Internet, or satellite broadcast wave or terrestrial broadcast wave. , The received signal processing program, the input / output interface 905
And hard disk drive 9 via bus 920
It can also be installed on 04 etc.

【0098】ここで、信号処理プログラムが実行されて
中間画像情報の生成が行われたときには、ハード・ディ
スク・ドライブ904あるいは記録媒体ドライブ912
に装着された記録媒体に記録されている正面画像の画像
信号SDCが読み出されて、上述のような処理が行われ
て中間画像情報及び付加情報信号が、例えば画像信号S
DCと共にハード・ディスク・ドライブ904や記録媒
体ドライブ912に装着された記録媒体に記録される。
また、周辺画像の画像信号の出力が要求されたときに
は、中間画像情報が読み出されて左右側面画像を示す周
辺画像信号SDR,SDLが生成されると共に、この周辺
画像信号SDR,SDLと付加情報信号SEが正面画像の
画像信号SDCとタイミングを合わせて出力される。こ
のため、正面と左右のスクリーンを用いて、広画角の連
続した画像を表示することができると共に、画像に対応
させて揺動等が行われて臨場感を高めることができる。
Here, when the signal processing program is executed and the intermediate image information is generated, the hard disk drive 904 or the recording medium drive 912.
The image signal SDC of the front image recorded on the recording medium mounted on the recording medium is read out, the above-described processing is performed, and the intermediate image information and the additional information signal are, for example, the image signal S.
It is recorded on a recording medium mounted on the hard disk drive 904 or recording medium drive 912 together with DC.
When the output of the image signal of the peripheral image is requested, the intermediate image information is read out to generate the peripheral image signals SDR and SDL indicating the left and right side images, and the peripheral image signals SDR and SDL and the additional information. The signal SE is output at the same timing as the image signal SDC of the front image. Therefore, continuous images with a wide angle of view can be displayed using the front and left and right screens, and rocking or the like can be performed corresponding to the images to enhance the sense of presence.

【0099】また、リアルタイムの画像信号が供給され
たときには、画像信号SDCから抽出した画像信号を用
いて注目フレームに存在しない画角の周辺画像信号SD
R,SDLが生成されて出力されると共に、正面画像の動
き量から付加情報信号が生成されて出力される。このた
め、リアルタイムの正面画像の画像信号に基づいても、
広画角の連続した画像を表示することができると共に、
画像に対応させて揺動等が行われて臨場感を高めること
ができる。
When a real-time image signal is supplied, the image signal extracted from the image signal SDC is used to generate a peripheral image signal SD having an angle of view that does not exist in the frame of interest.
R and SDL are generated and output, and an additional information signal is generated and output from the amount of movement of the front image. Therefore, even based on the image signal of the front image in real time,
Along with being able to display continuous images with a wide angle of view,
It is possible to enhance the sense of reality by performing rocking or the like in accordance with the image.

【0100】このように、上述の実施の形態によれば、
正面画像の動きを判別して、正面画像とは異なる視野の
周辺画像を生成できるだけでなく、画像の動きに関連し
た付加情報信号が生成されるので、広画角で画像を表示
できるだけでなく、画像に対応する揺動等が行われて臨
場感を高めることができる。また、画像信号から付加情
報信号を生成できるので、センサ等を用いなくとも臨場
感を高めることができる。さらに、既に撮影された画像
信号を用いても、広画角で画像を表示できると共に臨場
感を高めることができる。
As described above, according to the above-described embodiment,
Not only can the movement of the front image be discriminated, but a peripheral image having a field of view different from that of the front image can be generated, and since an additional information signal related to the movement of the image is generated, not only can the image be displayed at a wide angle of view, It is possible to enhance the sense of presence by performing rocking or the like corresponding to the image. Further, since the additional information signal can be generated from the image signal, it is possible to enhance the sense of presence without using a sensor or the like. Furthermore, even if an image signal already captured is used, it is possible to display an image with a wide angle of view and enhance the sense of presence.

【0101】[0101]

【発明の効果】この発明によれば、複数フレームの入力
画像信号を用いて、入力画像信号における注目フレーム
の所定位置での画像の動きに関する特徴量が検出され
て、この特徴量に基づいて、所定位置での画像の動きに
関連した付加情報信号が生成されると共に、特徴量と入
力画像信号に基づいて、注目フレームに存在しない画角
の周辺画像信号が生成される。このため、入力画像信号
に基づいて、入力画像信号に基づく画像よりも広画角の
画像表示と、表示された画像に応じた例えば揺動等が行
われて、臨場感の高い画像表示を行うことができる。
According to the present invention, the feature amount relating to the movement of the image at the predetermined position of the target frame in the input image signal is detected by using the input image signals of a plurality of frames, and based on the feature amount, An additional information signal related to the movement of the image at a predetermined position is generated, and a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the feature amount and the input image signal. Therefore, based on the input image signal, an image display having a wider angle of view than the image based on the input image signal and, for example, rocking or the like according to the displayed image are performed, and an image display having a high sense of presence is performed. be able to.

【0102】また、検出した特徴量のレイヤ分けを行
い、所定のレイヤの特徴量に基づき付加情報信号が生成
されるので、表示された画像に応じた適切な揺動等を行
うことができる。さらに、付加情報信号は、生成した周
辺画像の画像信号に応じて補正されるので、臨場感をよ
り高めることができる。
Further, since the detected characteristic amount is divided into layers and the additional information signal is generated based on the characteristic amount of a predetermined layer, it is possible to perform appropriate swing or the like according to the displayed image. Furthermore, since the additional information signal is corrected according to the image signal of the generated peripheral image, the sense of presence can be further enhanced.

【図面の簡単な説明】[Brief description of drawings]

【図1】表示システムを示す図である。FIG. 1 is a diagram showing a display system.

【図2】画像投影状態を示す図である。FIG. 2 is a diagram showing an image projection state.

【図3】モーションベースプラットホームを示す図であ
る。
FIG. 3 is a diagram showing a motion-based platform.

【図4】信号処理装置の構成を示す図である。FIG. 4 is a diagram showing a configuration of a signal processing device.

【図5】各検出領域の動きベクトルを示す図である。FIG. 5 is a diagram showing a motion vector of each detection area.

【図6】動きベクトルの判別方法を示す図である。FIG. 6 is a diagram showing a method of discriminating a motion vector.

【図7】ズーム時の領域サイズの変化を示す図である。FIG. 7 is a diagram showing a change in area size during zooming.

【図8】画像基準位置の判別方法を示す図である。FIG. 8 is a diagram showing a method of determining an image reference position.

【図9】動き検出処理部の構成を示す図である。FIG. 9 is a diagram illustrating a configuration of a motion detection processing unit.

【図10】レイヤ分類部の構成を示す図である。FIG. 10 is a diagram showing a configuration of a layer classification unit.

【図11】ベクトル方向と動きパターンの関係を示す図
である。
FIG. 11 is a diagram showing a relationship between a vector direction and a motion pattern.

【図12】レイヤ分類情報の生成動作を示す図である。FIG. 12 is a diagram showing an operation of generating layer classification information.

【図13】情報生成処理部の構成を示す図である。FIG. 13 is a diagram illustrating a configuration of an information generation processing unit.

【図14】レイヤ毎の中間画像を示す図である。FIG. 14 is a diagram showing an intermediate image for each layer.

【図15】補間処理後のレイヤ毎の中間画像を示す図で
ある。
FIG. 15 is a diagram showing an intermediate image for each layer after interpolation processing.

【図16】周辺画像信号生成ブロックの構成を示す図で
ある。
FIG. 16 is a diagram showing a configuration of a peripheral image signal generation block.

【図17】画像変換処理を示す図である。FIG. 17 is a diagram showing an image conversion process.

【図18】付加情報信号の生成動作を示す図である。FIG. 18 is a diagram showing an operation of generating an additional information signal.

【図19】揺動信号の補正処理を説明するための図であ
る。
FIG. 19 is a diagram for explaining correction processing of a swing signal.

【図20】コンピュータを用いた構成を示す図である。FIG. 20 is a diagram showing a configuration using a computer.

【符号の説明】[Explanation of symbols]

10L,10C,10R・・・スクリーン、12L,12
C,12R・・・プロジェクタ、15・・・画像処理装
置、17・・・モーションベースプラットフォーム、2
0・・・動き検出ブロック、21・・・フレーム遅延処
理部、22・・・動き検出処理部、25・・・中間画像
情報生成ブロック、26・・・レイヤ分類部、27・・
・情報生成処理部、30・・・蓄積部、31・・・正面
画像信号蓄積領域、32・・・中間画像情報蓄積領域、
40・・・周辺画像信号生成ブロック、41・・・画像
生成制御部、42・・・レイヤ画像生成処理部、43・
・・射影変換部、44・・・画像信号生成部、50・・
・付加情報信号生成ブロック、90・・・コンピュー
タ、221・・・サイズ変換処理部、222・・・誤差
和算出部、223・・・比較処理部、224・・・デー
タ保持部、225・・・探索制御部、261・・・パタ
ーン判定部、262・・・レイヤ作成判定部、263・
・・分類処理部、264・・・閾値設定部、265・・
・分類補正部、271・・・動き量平均値算出部、27
2・・・画像読み込み部、273・・・中間画像信号補
間部、421-1〜421-5・・・貼り付け部、422-1
〜422-5・・・1フレーム遅延部、423-1〜423
-5・・・画像シフト部、431〜434・・・変換処理
部、441・・・遠景貼り付け部、442・・・中景貼
り付け部、443・・・近景貼り付け部、444・・・
縮小貼り付け部、901・・・CPU、902・・・R
OM、903・・・RAM、904・・・ハード・ディ
スク・ドライブ、905・・・入出力インタフェース、
911・・・入力部、912・・・記録媒体ドライブ、
913・・・通信部、914・・・画像入出力部、92
0・・・バス
10L, 10C, 10R ... Screen, 12L, 12
C, 12R ... Projector, 15 ... Image processing device, 17 ... Motion base platform, 2
0 ... Motion detection block, 21 ... Frame delay processing unit, 22 ... Motion detection processing unit, 25 ... Intermediate image information generation block, 26 ... Layer classification unit, 27 ...
Information generation processing unit, 30 ... Storage unit, 31 ... Front image signal storage region, 32 ... Intermediate image information storage region,
40 ... Peripheral image signal generation block, 41 ... Image generation control unit, 42 ... Layer image generation processing unit, 43 ...
..Projection conversion unit, 44 ... Image signal generation unit, 50 ...
-Additional information signal generation block, 90 ... Computer, 221 ... Size conversion processing unit, 222 ... Error sum calculation unit, 223 ... Comparison processing unit, 224 ... Data holding unit, 225 ... Search control unit 261, pattern determination unit 262 layer creation determination unit 263
..Classification processing unit, 264 ... Threshold setting unit, 265 ...
-Classification correction unit, 271 ... Motion amount average value calculation unit, 27
2 ... Image reading unit, 273 ... Intermediate image signal interpolation unit, 421-1 to 421-5 ... Pasting unit, 422-1
~ 422-5 ... 1 frame delay unit, 423-1 to 423
-5 ... image shift unit, 431-434 ... conversion processing unit, 441 ... distant view pasting unit, 442 ... middle view pasting unit, 443 ... near view pasting unit, 444 ...・
Reduced pasting unit, 901 ... CPU, 902 ... R
OM, 903 ... RAM, 904 ... Hard disk drive, 905 ... Input / output interface,
911 ... Input unit, 912 ... Recording medium drive,
913 ... Communication unit, 914 ... Image input / output unit, 92
0 ... bus

───────────────────────────────────────────────────── フロントページの続き (72)発明者 小久保 哲志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 菊地 大介 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 笠間 英雄 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 5B050 AA10 BA06 CA06 CA07 DA01 EA04 EA07 EA12 EA13 EA19 EA27 FA02 5B057 CD02 CD05 CD11 CE08 DA16 DC32 5C054 EA05 FC13 FD02 FE11 HA15 5L096 BA08 CA04 DA04 FA66 FA67 HA04 LA17    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Satoshi Kokubo             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Daisuke Kikuchi             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation (72) Inventor Hideo Kasama             6-735 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni             -Inside the corporation F-term (reference) 5B050 AA10 BA06 CA06 CA07 DA01                       EA04 EA07 EA12 EA13 EA19                       EA27 FA02                 5B057 CD02 CD05 CD11 CE08 DA16                       DC32                 5C054 EA05 FC13 FD02 FE11 HA15                 5L096 BA08 CA04 DA04 FA66 FA67                       HA04 LA17

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 複数フレームの入力画像信号を用いて、
前記入力画像信号における注目フレームの所定位置での
画像の動きに関する特徴量を検出し、 検出した前記特徴量に基づいて、前記所定位置での画像
の動きに関連した付加情報信号を生成すると共に、検出
した前記特徴量と前記複数フレームの入力画像信号に基
づいて、前記注目フレームに存在しない画角の周辺画像
信号を生成することを特徴とする信号処理方法。
1. Using input image signals of a plurality of frames,
Detecting a feature amount relating to the movement of the image at a predetermined position of the frame of interest in the input image signal, and based on the detected feature amount, generating an additional information signal related to the movement of the image at the predetermined position, A signal processing method, wherein a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the detected feature amount and the input image signals of the plurality of frames.
【請求項2】 検出した前記特徴量のレイヤ分けを行
い、所定のレイヤの特徴量に基づき前記付加情報信号を
生成することを特徴とする請求項1記載の信号処理方
法。
2. The signal processing method according to claim 1, wherein the detected characteristic amount is divided into layers, and the additional information signal is generated based on the characteristic amount of a predetermined layer.
【請求項3】 前記付加情報信号を、前記生成した周辺
画像信号に応じて補正することを特徴とする請求項1記
載の信号処理方法。
3. The signal processing method according to claim 1, wherein the additional information signal is corrected according to the generated peripheral image signal.
【請求項4】 前記付加情報信号は、前記入力画像信号
に基づく画像の動きに応じて揺動を発生させるための揺
動信号であることを特徴とする請求項1記載の信号処理
方法。
4. The signal processing method according to claim 1, wherein the additional information signal is a rocking signal for generating rocking in accordance with a motion of an image based on the input image signal.
【請求項5】 検出した前記特徴量と前記複数フレーム
の入力画像信号に基づいて、前記複数フレームの入力画
像をある平面に射影することで中間画像情報を生成し、
該中間画像情報に基づいて、前記注目フレームに存在し
ない画角の周辺画像信号を生成することを特徴とする請
求項1記載の信号処理方法。
5. Intermediate image information is generated by projecting the input images of the plurality of frames onto a plane based on the detected feature amount and the input image signals of the plurality of frames,
The signal processing method according to claim 1, wherein a peripheral image signal having an angle of view that does not exist in the frame of interest is generated based on the intermediate image information.
【請求項6】 複数フレームの入力画像信号を用いて、
前記入力画像信号における注目フレームの所定位置での
画像の動きに関する特徴量を検出する検出手段と、 前記検出手段で検出した前記特徴量に基づいて、前記所
定位置での画像の動きに関連した付加情報信号を生成す
る付加情報信号生成手段と、 前記検出手段で検出した前記特徴量と前記複数フレーム
の入力画像信号に基づいて、前記注目フレームに存在し
ない画角の周辺画像信号を生成する周辺画像信号生成手
段とを有することを特徴とする信号処理装置。
6. Using multiple frames of input image signals,
A detection unit that detects a feature amount related to the movement of the image at a predetermined position of the frame of interest in the input image signal, and an addition related to the movement of the image at the predetermined position based on the feature amount detected by the detection unit. An additional information signal generation unit that generates an information signal, and a peripheral image that generates a peripheral image signal of an angle of view that does not exist in the frame of interest based on the feature amount detected by the detection unit and the input image signals of the plurality of frames. A signal processing device comprising: a signal generating unit.
【請求項7】 前記検出手段で検出した前記特徴量のレ
イヤ分けを行うレイヤ分類手段を有し、 前記付加情報信号生成手段では、前記レイヤ分類手段に
よって分類された所定のレイヤの特徴量に基づき前記付
加情報信号を生成することを特徴とする請求項6記載の
信号処理装置。
7. A layer classification means for classifying the feature quantity detected by the detection means into layers, wherein the additional information signal generation means is based on the feature quantity of a predetermined layer classified by the layer classification means. 7. The signal processing device according to claim 6, wherein the additional information signal is generated.
【請求項8】 前記付加情報信号生成手段では、生成し
た前記付加情報信号を、前記周辺画像信号生成手段で生
成した周辺画像信号に応じて補正することを特徴とする
請求項6記載の信号処理装置。
8. The signal processing according to claim 6, wherein the additional information signal generating means corrects the generated additional information signal according to the peripheral image signal generated by the peripheral image signal generating means. apparatus.
【請求項9】 前記付加情報信号生成手段では、前記付
加情報信号として、前記入力画像信号に基づく画像の動
きに応じた揺動を制御する揺動信号を生成することを特
徴とする請求項6記載の信号処理装置。
9. The additional information signal generating means generates, as the additional information signal, a swing signal for controlling swing according to the movement of an image based on the input image signal. The signal processing device described.
【請求項10】 検出した前記特徴量と前記複数フレー
ムの入力画像信号に基づいて、前記複数フレームの入力
画像をある平面に射影することで中間画像情報を生成す
る中間画像情報生成手段を設け、 前記周辺画像信号生成手段では、前記中間画像情報に基
づいて、前記注目フレームに存在しない画角の周辺画像
信号を生成することを特徴とする請求項6記載の信号処
理装置。
10. An intermediate image information generating means for generating intermediate image information by projecting the input images of the plurality of frames onto a plane based on the detected feature amount and the input image signals of the plurality of frames, 7. The signal processing device according to claim 6, wherein the peripheral image signal generation means generates a peripheral image signal having an angle of view that does not exist in the frame of interest based on the intermediate image information.
【請求項11】 コンピュータに、 複数フレームの入力画像信号を用いて、前記入力画像信
号における注目フレームの所定位置での画像の動きに関
する特徴量を検出する手順と、 検出した前記特徴量に基づいて、前記所定位置での画像
の動きに関連した付加情報信号を生成する手順と、 検出した前記特徴量と前記複数フレームの入力画像信号
に基づいて、前記注目フレームに存在しない画角の周辺
画像信号を生成する手順とを実行させるための信号処理
プログラム。
11. A procedure for detecting a feature amount relating to a motion of an image at a predetermined position of a frame of interest in the input image signal by using a plurality of input image signals in a computer, and based on the detected feature amount. A procedure for generating an additional information signal related to the movement of an image at the predetermined position, and a peripheral image signal having an angle of view that does not exist in the frame of interest based on the detected feature amount and the input image signals of the plurality of frames. And a signal processing program for executing the procedure for generating.
JP2001307956A 2001-10-03 2001-10-03 Signal processing method, signal processing apparatus, and signal processing program Expired - Fee Related JP3849481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001307956A JP3849481B2 (en) 2001-10-03 2001-10-03 Signal processing method, signal processing apparatus, and signal processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001307956A JP3849481B2 (en) 2001-10-03 2001-10-03 Signal processing method, signal processing apparatus, and signal processing program

Publications (2)

Publication Number Publication Date
JP2003116126A true JP2003116126A (en) 2003-04-18
JP3849481B2 JP3849481B2 (en) 2006-11-22

Family

ID=19127334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001307956A Expired - Fee Related JP3849481B2 (en) 2001-10-03 2001-10-03 Signal processing method, signal processing apparatus, and signal processing program

Country Status (1)

Country Link
JP (1) JP3849481B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529135A (en) * 2005-01-21 2008-07-31 ジェスチャー テック,インコーポレイテッド Tracking based on movement
CN105324081A (en) * 2013-07-03 2016-02-10 株式会社日立医疗器械 Radiographic image generating device and image processing method
JP2017102401A (en) * 2015-12-04 2017-06-08 株式会社豊田中央研究所 Virtual Reality System

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008529135A (en) * 2005-01-21 2008-07-31 ジェスチャー テック,インコーポレイテッド Tracking based on movement
JP4689684B2 (en) * 2005-01-21 2011-05-25 ジェスチャー テック,インコーポレイテッド Tracking based on movement
CN105324081A (en) * 2013-07-03 2016-02-10 株式会社日立医疗器械 Radiographic image generating device and image processing method
JP2017102401A (en) * 2015-12-04 2017-06-08 株式会社豊田中央研究所 Virtual Reality System

Also Published As

Publication number Publication date
JP3849481B2 (en) 2006-11-22

Similar Documents

Publication Publication Date Title
US11727626B2 (en) Damage detection from multi-view visual data
US11967162B2 (en) Method and apparatus for 3-D auto tagging
US20190392650A1 (en) Live augmented reality guides
US7343027B2 (en) Image processing apparatus, image signal generation method, information recording medium, and image processing program
US20210312702A1 (en) Damage detection from multi-view visual data
US20230410332A1 (en) Structuring visual data
JP2022523478A (en) Damage detection from multi-view visual data
US11972556B2 (en) Mobile multi-camera multi-view capture
US11252398B2 (en) Creating cinematic video from multi-view capture data
WO2021146449A1 (en) Visual object history
JPH11265461A (en) Control device for reproduction quality of moving image and its method
JP3956561B2 (en) Image data display system and image data generation method
JP2003116126A (en) Signal processing method, signal processing apparatus and signal processing program
JP4599775B2 (en) Image processing apparatus, image processing method, image processing program, and information recording medium
US20220406003A1 (en) Viewpoint path stabilization
US20210037230A1 (en) Multiview interactive digital media representation inventory verification
US11615582B2 (en) Enclosed multi-view visual media representation
JP3982316B2 (en) Image processing apparatus, image processing method, and image processing program
JP3823818B2 (en) Image processing apparatus, image signal generation method, image processing program, and information recording medium
JP4924131B2 (en) Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040908

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060808

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060821

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090908

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100908

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110908

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120908

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130908

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees