JP2000069408A - Device for expressing space by video image - Google Patents

Device for expressing space by video image

Info

Publication number
JP2000069408A
JP2000069408A JP10239203A JP23920398A JP2000069408A JP 2000069408 A JP2000069408 A JP 2000069408A JP 10239203 A JP10239203 A JP 10239203A JP 23920398 A JP23920398 A JP 23920398A JP 2000069408 A JP2000069408 A JP 2000069408A
Authority
JP
Japan
Prior art keywords
image
frame
video
viewpoint position
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10239203A
Other languages
Japanese (ja)
Other versions
JP3746380B2 (en
Inventor
Katsuyuki Kamei
克之 亀井
Kazuo Seo
和男 瀬尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP23920398A priority Critical patent/JP3746380B2/en
Publication of JP2000069408A publication Critical patent/JP2000069408A/en
Application granted granted Critical
Publication of JP3746380B2 publication Critical patent/JP3746380B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To generate a video image that correctly reproduces motions of objects in existence in space as a virtual video image by using video image data. SOLUTION: The device is provided with a speed adjustment device 17 that enters a moving amount of a designated visual point that is designated for a photographing path of video image data, a frame selector 18 that selects an image frame to be presented among the stored video image data, an image converter 19 that converts the selected image frame into the presentation image at the designated visual point, and an image display device 20 that displays the converted presentation image and expresses a video space representing a scene that is matched with the movement of the designated visual point.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、動きのある空間
を撮影したビデオ映像を用いて、その動きを再現する空
間を仮想的な映像として提示するビデオ映像による空間
表現装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a space representation device using video images which presents a space in which a motion is reproduced as a virtual image by using a video image of a moving space.

【0002】[0002]

【従来の技術】従来の空間表現装置としては、特開平9
−16772号公報、特開平9−220308号公報な
どに開示された技術があるが、図32は、このような従
来の空間表現装置を示すブロック図である。図32にお
いて、1はビデオ映像データおよびビデオ映像データの
各フレームの撮影視点位置と光軸方向を記憶する記憶装
置、2は表示する視点位置を入力する視点入力装置、3
は視点入力装置2によって指定された視点に対しビデオ
映像データの画像フレームを1つ選択するフレーム選択
装置、4は選択された画像フレームを表示する画像表示
装置である。
2. Description of the Related Art As a conventional space expressing device, Japanese Patent Laid-Open No.
Although there are techniques disclosed in Japanese Patent Application Laid-Open No. 16772 and Japanese Patent Application Laid-Open No. 9-220308, FIG. 32 is a block diagram showing such a conventional space representation device. In FIG. 32, reference numeral 1 denotes a storage device for storing the video image data and the shooting viewpoint position and the optical axis direction of each frame of the video image data; 2, a viewpoint input device for inputting a viewpoint position to be displayed;
Is a frame selection device for selecting one image frame of video image data for a viewpoint specified by the viewpoint input device 2, and 4 is an image display device for displaying the selected image frame.

【0003】また、図33、図34、図35および図3
6は前記従来の空間表現装置の動作を示す説明図であ
る。図において、5はビデオカメラ、6はビデオカメラ
5の撮影経路、7はビデオカメラ5により撮影されたビ
デオ映像データ、8はユーザが指定する指定視点位置、
9はビデオ映像データ7の中の撮影視点位置10で撮影
された画像フレーム、10は撮影経路6上での各フレー
ム撮影時の撮影視点位置、11は撮影視点位置10の中
で指定視点位置8に最も近い近接撮影視点、12はビデ
オ映像データ7中の近接撮影視点11で撮影された画像
フレーム、13は提示画像、14は提示画像13を指定
視点位置8の変更に応じて随時更新することによって表
現される生成映像、15は空間内に存在する動きのある
対象物の一例である木々である。
FIG. 33, FIG. 34, FIG. 35 and FIG.
FIG. 6 is an explanatory diagram showing the operation of the conventional space expression device. In the figure, 5 is a video camera, 6 is a photographing route of the video camera 5, 7 is video image data photographed by the video camera 5, 8 is a designated viewpoint position designated by the user,
Reference numeral 9 denotes an image frame photographed at the photographing viewpoint position 10 in the video image data 7, 10 denotes a photographing viewpoint position at the time of photographing each frame on the photographing path 6, 11 denotes a designated viewpoint position 8 in the photographing viewpoint position 10. , 12 is an image frame taken at the close-up viewpoint 11 in the video image data 7, 13 is a presentation image, 14 is to update the presentation image 13 at any time according to a change in the designated viewpoint position 8. The generated image 15 represented by is a tree which is an example of a moving object existing in the space.

【0004】次に動作について説明する。この従来の空
間表現装置は、ビデオカメラ5で対象となる空間内の撮
影経路6上で撮影されたビデオ映像データ7から、ユー
ザが指定した指定視点位置8での情景画像を随時生成す
ることにより、ビデオ映像データ7を用いて対象空間を
表現しようとするものである。
Next, the operation will be described. This conventional space representation device generates a scene image at a specified viewpoint position 8 designated by a user from video video data 7 captured on a capturing path 6 in a target space by a video camera 5 as needed. , Using the video image data 7 to represent the target space.

【0005】また、この空間表現装置では、図33に示
すように、撮影されたビデオ映像データ7が記憶装置1
に蓄えられている。図34に示すように、視点入力装置
2により指定視点位置8を指定すると、フレーム選択装
置3によって、記憶装置1に記憶された撮影視点位置1
0の位置情報を参照し、撮影視点位置10の中から指定
視点位置8に一致する撮影視点位置があればそれを、ま
た一致する撮影視点位置がなければ指定視点位置8に最
も近い近接撮影視点11を検出する。そして、例えば近
接撮影視点11において撮影されたビデオ映像データ7
中の1フレームである画像フレーム12を記憶装置1か
ら読み出す。読み出された画像フレーム12は画像表示
装置4によりユーザに提示画像13として提示される。
[0005] Further, in this space representation device, as shown in FIG.
It is stored in. As shown in FIG. 34, when the designated viewpoint position 8 is designated by the viewpoint input device 2, the photographing viewpoint position 1 stored in the storage device 1 is designated by the frame selecting device 3.
With reference to the position information of 0, if there is a photographing viewpoint position that matches the designated viewpoint position 8 from the photographing viewpoint positions 10, it is determined. If there is no matching photographing viewpoint position, the closest photographing viewpoint closest to the designated viewpoint position 8 is determined. 11 is detected. Then, for example, video image data 7 captured at the close-up viewpoint 11
The image frame 12 as one of the frames is read from the storage device 1. The read image frame 12 is presented to the user as the presentation image 13 by the image display device 4.

【0006】[0006]

【発明が解決しようとする課題】従来のビデオ映像によ
る空間表現装置は以上のように構成されているので、ユ
ーザの指定した指定視点位置8と撮影視点位置10の位
置関係のみによって画像フレーム12を選択し、選択し
た画像フレームを提示画像13としていたので、ビデオ
映像データ7のフレーム順序、すなわち、撮影時刻は考
慮されず、画像フレーム12が撮影時刻に無関係に選択
され、提示画像13として提示されることになる。一
方、撮影した対象空間が、街並みや自然の景勝など現実
の環境である場合、その中には動きのある対象物が存在
するが、このような場合、従来のビデオ映像による空間
表現装置においては、その動きを忠実に再現することが
できず、生成映像14によって表現される空間に現実感
が伴わないという課題があった。
The conventional video image space rendering apparatus is constructed as described above, so that the image frame 12 is formed only by the positional relationship between the designated viewpoint position 8 and the photographing viewpoint position 10 designated by the user. Since the selected and selected image frame is used as the presentation image 13, the frame order of the video image data 7, that is, the shooting time is not considered, and the image frame 12 is selected regardless of the shooting time and presented as the presentation image 13. Will be. On the other hand, when the photographed target space is a real environment such as a cityscape or a natural scenery, there is a moving object in the real environment. However, there is a problem that the movement cannot be faithfully reproduced, and the space represented by the generated image 14 does not have a sense of reality.

【0007】これについてさらに詳説すると、図35に
示すように、指定視点位置8が図中8a,8b,8cと
移動した場合、近接撮影視点11a,11b,11cが
順次選択され、画像フレーム12a,12b,12cが
提示画像13a,13b,13cとして生成映像14を
構成する。このため、撮影経路6上を撮影時より高速に
指定視点位置8を移動させた場合、ビデオ映像データ7
中でフレームが間引かれて生成映像14が生成されるこ
とになり、空間中の対象物、例えば風にそよぐ木々15
の動きが実際の動きよりも速いものになってしまう。
More specifically, as shown in FIG. 35, when the designated viewpoint position 8 moves to 8a, 8b, 8c in the figure, the close-up photographing viewpoints 11a, 11b, 11c are sequentially selected, and the image frames 12a, 12b and 12c constitute the generated video 14 as the presentation images 13a, 13b and 13c. For this reason, when the designated viewpoint position 8 is moved on the photographing path 6 faster than at the time of photographing, the video image data 7 is moved.
Frames are decimated in the inside to generate a generated image 14, and an object in the space, for example, trees 15 swaying in the wind
Movement is faster than the actual movement.

【0008】また、逆に、図36に示すように、撮影経
路6上を撮影時より低速で指定視点位置8が図中8a,
8b,8cのように移動した場合、近接撮影視点11は
同一のものが選択され、画像フレーム12が連続して提
示画像13a,13b,13cとなるため、生成映像1
4では木々15が静止してしまう。このように、現実の
環境を忠実に再現できないという課題があった。
Conversely, as shown in FIG. 36, the designated viewpoint position 8 on the photographing path 6 is lower at a lower speed than at the time of photographing.
8b and 8c, the same close-up viewpoint 11 is selected, and the image frames 12 are successively presented images 13a, 13b and 13c.
In 4, the trees 15 come to a standstill. Thus, there has been a problem that a real environment cannot be faithfully reproduced.

【0009】この発明は上記のような課題を解決するた
めになされたものであり、対象の空間を撮影したビデオ
映像データを用いて、ビデオの各画像フレームの撮影順
序を考慮することで、空間中に存在する事物の動きを仮
想的な映像として正しく再現した映像を生成できるビデ
オ映像による空間表現装置を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and uses video image data obtained by shooting a target space and considers the shooting order of each image frame of a video, thereby obtaining a space. It is an object of the present invention to obtain a video image space expression device capable of generating a video image in which a motion of an object present therein is correctly reproduced as a virtual video image.

【0010】[0010]

【課題を解決するための手段】この発明に係るビデオ映
像による空間表現装置は、ビデオ映像データおよびビデ
オ映像データの各画像フレームの撮影視点位置、光軸方
向、画角を記憶する記憶手段と、ビデオ映像データの撮
影経路に対し指定される指定視点の移動量を入力する速
度調整手段と、前記記憶手段に記憶したビデオ映像デー
タ中から提示する画像フレームを選択するフレーム選択
手段と、該フレーム選択手段により選択された画像フレ
ームを前記指定視点における提示画像に画像変換する画
像変換手段と、該画像変換手段により画像変換された前
記提示画像を表示し、前記指定視点の移動に合致した情
景を示す提示画像により映像空間を表現する画像表示手
段とを備えるようにしたものである。
According to the present invention, there is provided an apparatus for expressing a space by a video image, comprising: a storage means for storing video image data and a photographing viewpoint position, an optical axis direction, and an angle of view of each image frame of the video image data; Speed adjusting means for inputting a movement amount of a designated viewpoint designated with respect to a shooting path of video image data; frame selecting means for selecting an image frame to be presented from the video image data stored in the storage means; Image conversion means for converting the image frame selected by the means into a presentation image at the designated viewpoint, and displaying the presentation image image-converted by the image conversion means to show a scene matching the movement of the designated viewpoint Image display means for expressing a video space by a presentation image.

【0011】この発明に係るビデオ映像による空間表現
装置は、ビデオ映像データから連続する画像フレームを
順に1フレームずつ選択するフレーム選択手段を備える
ようにしたものである。
The video image spatial expression apparatus according to the present invention is provided with a frame selecting means for sequentially selecting successive image frames from the video image data one by one.

【0012】この発明に係るビデオ映像による空間表現
装置は、速度調整手段によって与えられる指定視点の移
動量によって更新される指定視点位置と、選択されてい
る画像フレームの撮影視点位置との間の距離が所定の距
離以上離れていると、前記指定視点位置に近い撮影視点
位置の画像フレームを再選択するフレーム選択手段を備
えるようにしたものである。
[0012] In the apparatus for expressing a space based on a video image according to the present invention, a distance between a designated viewpoint position updated by an amount of movement of a designated viewpoint given by a speed adjusting means and a photographing viewpoint position of a selected image frame. Is further provided with a frame selecting means for reselecting an image frame at a photographing viewpoint position close to the designated viewpoint position when the images are separated by a predetermined distance or more.

【0013】この発明に係るビデオ映像による空間表現
装置は、フレーム選択手段が選択する画像フレームに対
応する移行点をあらかじめ設定する移行点設定手段と、
前記指定視点位置に近い撮影視点位置の画像フレーム
を、前記移行点設定手段によりあらかじめ設定した移行
点の画像フレーム間で再選択するフレーム選択手段を備
えるようにしたものである。
[0013] According to the present invention, there is provided an apparatus for expressing a space by a video image, comprising: a transition point setting means for presetting a transition point corresponding to an image frame selected by a frame selection means;
The image processing apparatus further includes a frame selection unit that reselects an image frame at a shooting viewpoint position close to the designated viewpoint position among image frames at a transition point set in advance by the transition point setting unit.

【0014】この発明に係るビデオ映像による空間表現
装置は、フレーム選択手段がすでに選択した画像フレー
ムと再選択した画像フレームを共に画像変換する画像変
換手段と、該画像変換手段が画像変換した変換画像を合
成し、提示画像を補間し、補間における割合を徐々に前
記再選択された画像フレームに関して大きくする画像合
成手段を備えるようにしたものである。
According to the present invention, there is provided an apparatus for expressing a space based on a video image, comprising: an image converting means for converting an image frame already selected by the frame selecting means and an image frame reselected, and a converted image converted by the image converting means. And an image synthesizing means for interpolating the presented image and gradually increasing the ratio in the interpolation with respect to the reselected image frame.

【0015】この発明に係るビデオ映像による空間表現
装置は、ビデオ映像データが撮影された空間内にスター
ト視点と光軸方向、画角を初期設定する視点位置設定手
段を備え、前記視点位置設定手段により設定された前記
スタート視点に最適な画像フレームをフレーム選択手段
が選択し、前記フレーム選択手段により選択された画像
フレームを、前記視点位置設定手段により設定されたス
タート視点と光軸方向、画角をもとに画像変換手段が提
示画像へ画像変換するようにしたものである。
According to the present invention, there is provided an apparatus for expressing a space based on a video image, comprising: a viewpoint position setting means for initially setting a start viewpoint, an optical axis direction, and an angle of view in a space where the video image data is photographed. The frame selection means selects an image frame that is optimal for the start viewpoint set by the above-described method, and selects the image frame selected by the frame selection means with the start viewpoint, the optical axis direction, and the angle of view set by the viewpoint position setting means. The image conversion means converts the image to the presentation image based on the above.

【0016】この発明に係るビデオ映像による空間表現
装置は、提示画像の光軸上一定距離にある被写体が提示
画像上で正しく描画されるように、選択された画像フレ
ームを画像変換手段が変換するようにしたものである。
In the video image space expression apparatus according to the present invention, the image conversion means converts the selected image frame so that a subject located at a fixed distance on the optical axis of the presentation image is correctly drawn on the presentation image. It is like that.

【0017】この発明に係るビデオ映像による空間表現
装置は、選択された画像フレームの平行移動と拡大また
は縮小により画像変換手段が画像変換を行うようにした
ものである。
In the video image space expression apparatus according to the present invention, the image conversion means performs image conversion by parallel movement and enlargement or reduction of the selected image frame.

【0018】この発明に係るビデオ映像による空間表現
装置は、ビデオ映像データの撮影視点位置は直線上に並
び、光軸はその直線上、撮影視点位置の進行方向に向か
っており、指定視点位置と選択された画像フレームの前
記撮影視点位置との距離によって決まる、画像フレーム
の拡大または縮小により画像変換手段が画像変換を行う
ようにしたものである。
In the apparatus for expressing a space by video image according to the present invention, the shooting viewpoint positions of the video image data are arranged on a straight line, and the optical axis is directed along the straight line in the traveling direction of the shooting viewpoint position. The image conversion means performs image conversion by enlarging or reducing the image frame, which is determined by the distance between the selected image frame and the shooting viewpoint position.

【0019】この発明に係るビデオ映像による空間表現
装置は、ビデオ映像データの撮影視点位置は直線上に並
び、光軸はその直線と直交しており、指定視点位置と選
択された画像フレームの前記撮影視点位置との距離によ
って決まる、画像フレームの平行移動により画像変換手
段が画像変換を行うようにしたものである。
In the apparatus for expressing a space by a video image according to the present invention, the shooting viewpoint positions of the video image data are aligned on a straight line, the optical axis is orthogonal to the straight line, and the designated viewpoint position and the selected image frame. The image conversion means performs the image conversion by the parallel movement of the image frame determined by the distance from the photographing viewpoint position.

【0020】この発明に係るビデオ映像による空間表現
装置は、提示画像の大きさを画像フレームの大きさに比
べて小さくするようにしたものである。
In the video image space expression apparatus according to the present invention, the size of a presentation image is made smaller than the size of an image frame.

【0021】[0021]

【発明の実施の形態】以下、この発明の実施の一形態を
説明する。 実施の形態1.図1は、この発明の実施の形態1のビデ
オ映像による空間表現装置の構成を示すブロック図であ
り、図1において、16はビデオ映像データおよびビデ
オ映像データの各フレームのフレーム番号と撮影視点位
置、光軸方向、画角を記憶する記憶装置(記憶手段)、
17は視点の移動速度を入力する速度調整装置(速度調
整手段)、18はビデオ映像データの次に提示するフレ
ームを順次選択するフレーム選択装置(フレーム選択手
段)、19は選択された画像フレームに変換を施す画像
変換装置(画像変換手段)、20は変換された画像フレ
ームを提示画像として表示する画像表示装置(画像表示
手段)である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below. Embodiment 1 FIG. FIG. 1 is a block diagram showing the configuration of a video image spatial expression apparatus according to Embodiment 1 of the present invention. In FIG. 1, reference numeral 16 denotes video image data, a frame number of each frame of the video image data, and a photographing viewpoint position. Storage device (storage means) for storing the optical axis direction and the angle of view,
17 is a speed adjusting device (speed adjusting means) for inputting the moving speed of the viewpoint, 18 is a frame selecting device (frame selecting means) for sequentially selecting a frame to be presented next to the video image data, and 19 is a selected image frame. An image conversion device (image conversion means) 20 for performing the conversion is an image display device (image display means) for displaying the converted image frame as a presentation image.

【0022】また、図2から図14はこの発明の実施の
形態1のビデオ映像による空間表現装置の動作を示す説
明図である。図において、5はビデオカメラ、6はビデ
オカメラ5の撮影経路、7はビデオカメラ5により撮影
されたビデオ映像データ、8はユーザが指定する指定視
点位置、9はビデオ映像データ7の中の例えば撮影視点
位置10で撮影された画像フレーム、10は撮影経路6
上での各フレーム撮影時の撮影視点位置、11は撮影視
点位置10の中で指定視点位置8に最も近い近接撮影視
点、12はビデオ映像データ7中の近接撮影視点11で
撮影された画像フレーム、13は提示画像、15は空間
内に存在する動きのある対象物の一例である木々であ
る。
FIGS. 2 to 14 are explanatory diagrams showing the operation of the space representation apparatus using video images according to the first embodiment of the present invention. In the figure, 5 is a video camera, 6 is a shooting path of the video camera 5, 7 is video image data shot by the video camera 5, 8 is a designated viewpoint position specified by the user, and 9 is, for example, one of the video image data 7. An image frame shot at the shooting viewpoint position 10 has a shooting path 6
The photographing viewpoint position at the time of each frame photographing above, 11 is a close-up photographing viewpoint closest to the designated viewpoint position 8 in the photographing viewpoint position 10, and 12 is an image frame photographed at the close-up photographing viewpoint 11 in the video image data 7. , 13 are presentation images, and 15 is trees that are examples of moving objects existing in the space.

【0023】21は撮影経路6の始点、22は指定視点
位置8の前回の位置、23は前回提示に用いられた画像
フレーム、24はフレーム選択装置18により選択され
た画像フレーム、25は画像フレーム24を変換した変
換画像、26は提示画像13における注視点、27は光
軸、28は選択された画像フレーム24の視点位置、2
9は画像面である。
Reference numeral 21 denotes a start point of the photographing path 6, 22 denotes a previous position of the designated viewpoint position 8, 23 denotes an image frame used for the previous presentation, 24 denotes an image frame selected by the frame selection device 18, and 25 denotes an image frame. 24 is the converted image, 26 is the gazing point in the presentation image 13, 27 is the optical axis, 28 is the viewpoint position of the selected image frame 24, 2
9 is an image plane.

【0024】このように構成されたビデオ映像による空
間表現装置においては、対象の動きを忠実に再現するた
め、ビデオ映像データ7の画像フレーム9をその撮影順
序に従って提示画像13とすることで映像を生成する。
このため、対象物の動きはビデオ映像データ7に記憶さ
れたものと同一の速度で再現され、これにより、前記生
成された映像では空間の現実感が希薄にならない。
In the video image space rendering apparatus thus constructed, in order to faithfully reproduce the movement of the object, the image frames 9 of the video image data 7 are converted into presentation images 13 in accordance with the photographing order, thereby converting the image. Generate.
For this reason, the motion of the object is reproduced at the same speed as that stored in the video image data 7, so that the sense of space in the generated image is not reduced.

【0025】次に動作について説明する。図2に示すよ
うに、N枚の画像フレーム9で構成されるビデオ映像デ
ータ7をIn (n=0,1,2,・・・N)とし、Ii
はそのi番目の画像フレームを表す。このビデオ映像デ
ータ7は、ビデオカメラ5を撮影経路6上を移動させな
がら撮影されたものである。ここで、撮影経路6の始点
21から、撮影経路6に沿って測定した距離をtで表
し、始点21から距離tとなる点をC(t)とする。水
平面をxy平面とし、図3に示すように、光軸方向θ、
画角φともにxy平面内で定義する。また、ビデオ映像
データ7は光軸をxy平面に平行とし、その水平軸をx
y平面に平行に撮影されるとして考える。また、提示画
像13をJとする。
Next, the operation will be described. As shown in FIG. 2, video image data 7 composed of N image frames 9 is represented by I n (n = 0, 1, 2,... N) and I i
Represents the i-th image frame. The video image data 7 is data obtained by moving the video camera 5 on the shooting path 6. Here, a distance measured along the photographing path 6 from the start point 21 of the photographing path 6 is represented by t, and a point that is a distance t from the start point 21 is C (t). Let the horizontal plane be an xy plane, and as shown in FIG.
Both the angle of view φ are defined in the xy plane. In the video image data 7, the optical axis is parallel to the xy plane, and the horizontal axis is x.
Consider that the image is taken parallel to the y-plane. The presentation image 13 is set to J.

【0026】さらに、図35で示したように提示画像1
3からなる生成映像14は、ビデオ映像データ7とフレ
ーム速度(単位時間当たりに撮影あるいは提示される画
像フレーム枚数)を同一に生成するものとする。そし
て、指定視点位置8を、撮影経路6上、撮影時とは異な
る速度で移動させ、その際の映像をビデオ映像データ7
から生成する。また、指定視点位置8をqとして、画像
フレームの撮影視点位置10をpi で表す。
Further, as shown in FIG.
The generated video 14 composed of 3 generates the same video speed as the video video data 7 at the same frame speed (the number of image frames shot or presented per unit time). Then, the designated viewpoint position 8 is moved on the photographing route 6 at a speed different from that at the time of photographing, and the image at that time is converted into video image data 7.
Generate from The designated viewpoint position 8 is represented by q, and the photographing viewpoint position 10 of the image frame is represented by p i .

【0027】以上の定義を行った後、先ず、qで示され
る指定視点位置8を撮影経路6上の画像フレームの撮影
視点pi から移動させる。この場合、提示画像Jとして
はpi を撮影視点とする画像フレームIi が選択され、
それが提示画像13となる。これ以降、画像フレームI
i に続く画像フレームを次の提示画像Jとして順次選
択、提示していく。
After the above definition, first, the designated viewpoint position 8 indicated by q is moved from the photographing viewpoint p i of the image frame on the photographing path 6. In this case, the image frame I i to shooting viewpoint of p i is selected as the presentation image J,
That becomes the presentation image 13. Hereafter, the image frame I
The image frame following i is sequentially selected and presented as the next presentation image J.

【0028】ただし、視点の移動速度は可変であるの
で、提示画像Jを提示する際の指定視点位置8は必ずし
もその時点で選択されている画像フレームIi の撮影視
点piとは一致しない。これらを補正し、画像フレーム
i が指定視点位置8での情景にできるだけ合致するよ
うに画像フレームIi に変換を施し、これを提示画像J
とする。これにより、対象物の動きの速度を保ち、なお
かつ移動速度可変な生成映像14を合成する。
[0028] However, since the moving speed of the viewpoint is variable, designated viewpoint position 8 at the time of presenting the presentation image J does not coincide necessarily with the shooting viewpoint p i of the image frame I i selected at that time. These were corrected, the image frame I i is subjected to conversion to the image frame I i as much as possible matches the scene at the specified viewpoint position 8, which presents images J
And As a result, the generated image 14 having the moving speed of the target object and variable moving speed is synthesized.

【0029】図15は、以上説明した映像生成の手順を
示すフローチャートであり、以下、このフローチャート
に従って説明を行う。先ず、初期状態として、ビデオ映
像データ7と図5に示すフレーム数Nと撮影時の各画像
フレームの撮影視点の位置pi と撮影光軸方向θ、撮影
画角φのデータが記憶装置16に記憶されている。ビデ
オ映像データ7はビデオカメラ5によって撮影される。
撮影視点位置と光軸方向は、例えば、GPS装置やジャ
イロセンサによって計測して入力、あるいは、先に入力
したビデオ映像データ7の映像内容から、既知の点の画
像中の位置から計算によって求めてもよい。また、あら
かじめ決められた経路上を一定の速度で移動したとみな
せるときは、その経路を撮影した画像フレーム数で等分
して撮影視点位置としてもよい。画角についても、あら
かじめ既存パターンを写すなどして求めておく。画角を
一定として行えば後の処理が容易になる。
FIG. 15 is a flowchart showing the procedure of the video generation described above, and the description will be made with reference to this flowchart. First, as an initial state, the position of the shooting viewpoint of each image frame at the time of shooting and the number of frames N shown in the video image data 7 and 5 p i to the photographing optical axis direction theta, the data of the shooting angle φ is the storage device 16 It is remembered. The video image data 7 is captured by the video camera 5.
The photographing viewpoint position and the optical axis direction are input, for example, measured by a GPS device or a gyro sensor, or calculated from the image content of the previously input video image data 7 from the position of a known point in the image. Is also good. In addition, when it can be considered that the user has moved on a predetermined route at a constant speed, the route may be equally divided by the number of image frames in which the route has been shot and set as the shooting viewpoint position. The angle of view is also obtained in advance by copying an existing pattern. If the angle of view is kept constant, the subsequent processing is facilitated.

【0030】先ず、ステップST1では、提示に用いる
画像フレームの番号を示す変数iを初期設定する。これ
は処理開始時の提示映像と視点位置を指示するもので、
例えば最初のフレーム1と設定する。同時に、撮影経路
6上の指定視点位置qをpiに初期設定し、さらに撮影
経路の始点21からの距離を示す変数tをC(t)=q
なるt、すなわち、始点21から指定視点位置qまでの
撮影経路6上の距離に初期設定する。
First, in step ST1, a variable i indicating the number of an image frame used for presentation is initialized. This is to indicate the presentation video and viewpoint position at the start of processing,
For example, the first frame is set. At the same time, the designated viewpoint position q on the photographing route 6 is initialized to p i , and a variable t indicating the distance from the starting point 21 of the photographing route is set to C (t) = q.
The initial value is t, that is, the distance on the imaging route 6 from the start point 21 to the designated viewpoint position q.

【0031】ステップST2では、フレーム選択装置1
8により記憶装置16に格納されたビデオ映像データ7
からi番目の画像フレームIi を読み出す。また、その
視点位置pi 、光軸方向θi 、画角φi を読み出す。
In step ST2, the frame selection device 1
8, the video image data 7 stored in the storage device 16
Read the i-th image frame I i from. Further, the viewpoint position p i , the optical axis direction θ i , and the angle of view φ i are read.

【0032】ステップST3では、画像変換装置19に
より画像フレームIi に対し画像変換を施し、指定視点
位置qからの情景に合致する変換画像Kを生成する。な
お、この詳細については後述する。
[0032] At step ST3, the performs image conversion on the image frame I i by the image converter 19, generates a converted image K that matches the scene from the designated viewpoint position q. The details will be described later.

【0033】ステップST4では、変換画像Kを提示画
像Jとして画像表示装置20により表示する。ただし、
ここでは映像のフレーム描画速度を同一にするため、所
定のタイミングで前回描画時の画像から、今回の画像に
描画を切り替える。すなわち、1秒間に30フレームと
いうフレーム描画速度のビデオ映像データを用いている
場合、1/30秒ごとに新たな画像を描画することにな
る。ここでは、ステップST2からステップST7まで
の処理サイクルが、充分、この1/30秒内に実行でき
るものとする。
In step ST4, the converted image K is displayed as the presentation image J by the image display device 20. However,
Here, in order to make the frame drawing speed of the video the same, the drawing is switched from the image at the previous drawing to the current image at a predetermined timing. That is, when video image data having a frame drawing speed of 30 frames per second is used, a new image is drawn every 1/30 second. Here, it is assumed that the processing cycle from step ST2 to step ST7 can be sufficiently executed within 1/30 second.

【0034】ステップST5では、速度調整装置17に
より、指定視点位置8の撮影経路6上の移動距離dを入
力し、新たな指定視点を設定する。これは、例えば、マ
ウスやキーボードなどの入力デバイスによって実行され
る。ステップST5へ到達した時点で、例えば、dのデ
フォルト値を定め、特定のキー入力があればdを大き
く、あるいは小さく変更するというように構成し、dの
入力待ちにはならないようにする。
In step ST5, the moving distance d of the designated viewpoint position 8 on the photographing path 6 is input by the speed adjusting device 17 to set a new designated viewpoint. This is performed by, for example, an input device such as a mouse or a keyboard. When the process reaches step ST5, for example, a default value of d is determined, and if there is a specific key input, d is changed to be larger or smaller, so that there is no waiting for input of d.

【0035】ステップST6では、iに“1”加算す
る。すなわち、次の提示画像の生成には使用した画像フ
レームに連続する画像フレームを用いるようにする。
In step ST6, "1" is added to i. That is, an image frame that is continuous with the used image frame is used to generate the next presentation image.

【0036】ステップST7では、処理を続行するかど
うかを判定する。これには、あらかじめ指定した終了を
示すキーボード入力等がなされているかどうかをチェッ
クし、なされていれば終了、そうでなければステップS
T2に戻るというように構成する。また、iがNより大
きくなった場合も処理を終了する。
In step ST7, it is determined whether or not to continue the processing. For this, it is checked whether or not a keyboard input or the like indicating the end specified in advance has been made, and if it has been made, the process ends.
It is configured to return to T2. The processing is also terminated when i becomes larger than N.

【0037】以上のように処理を行うため、図4に示す
ように、最初、視点位置22で撮影された画像フレーム
23を用いた場合、ステップST6のiの“1”加算処
理により、次のステップST2では画像フレーム23に
連続して撮影された画像フレーム24が読み出される。
これは、指定視点位置8の配置が図4に示すものである
場合に、従来の空間表現装置で用いられる画像フレーム
12とは異なる。画像フレーム23に続けて画像フレー
ム24を提示することにより、木々15など対象物の正
しい動きを表現することが可能である。
In order to perform the above processing, as shown in FIG. 4, when the image frame 23 photographed at the viewpoint position 22 is used first, the "1" addition processing of i in step ST6 causes the following processing. In step ST2, an image frame 24 photographed continuously from the image frame 23 is read.
This is different from the image frame 12 used in the conventional spatial expression device when the arrangement of the designated viewpoint positions 8 is as shown in FIG. By presenting the image frame 24 following the image frame 23, it is possible to express the correct movement of the object such as the trees 15.

【0038】ここで、ステップST3の画像変換につい
て説明する。読み出された画像フレームIi は、その視
点位置pi における、光軸方向θi、画角φi での情景
を表す。一方、生成したいのは、同空間の同時刻におけ
る指定視点位置qでの情景となる。なお、光軸と画角
は、ここではそれぞれθi 、φi と同一とする。情景の
生成には種々の方法が考えられるが、ここでは、簡便に
行うため提示画像Jの中心に、図6に示すように、光軸
27上の所定の距離Dにある被写体位置が適切な大きさ
で描かれるように変換する。この所定の距離Dは例えば
10メートルというように設定する。このとき、提示画
像の注視点26が提示画像の中心に正しい大きさで描か
れるようにする。なお、ここでpi (pix,piy
iz)、q(qx ,qy ,qz )、a=D(cos
θi ,sinθi ,0)+q=(ax ,ay ,az )と
する。注視点26が正しく描かれるようにするため、画
像フレーム24に対し、以下に示す、左右方向の移動r
h (画像の右方向への移動を正)、上下方向の移動rv
(画像の上方向への移動を正)と倍率rz の拡大縮小を
施す。図7に示すように、xy平面において、rh とf
との比は、注視点26の画像フレーム24の光軸27a
からの距離と、注視点26の光軸27aへの垂線の足の
視点位置28からの距離との比に等しくなるから、
Here, the image conversion in step ST3 will be described. The read image frame I i represents a scene at the viewpoint position p i at the optical axis direction θ i and the angle of view φ i . On the other hand, what is desired to be generated is a scene at the specified viewpoint position q at the same time in the same space. Here, the optical axis and the angle of view are the same as θ i and φ i , respectively. Various methods can be considered for generating the scene. Here, for simplicity, the position of the subject at a predetermined distance D on the optical axis 27 is appropriate at the center of the presentation image J as shown in FIG. Convert to be drawn in size. The predetermined distance D is set to, for example, 10 meters. At this time, the gazing point 26 of the presentation image is drawn in a correct size at the center of the presentation image. Here, p i (p ix , p iy ,
p iz ), q (q x , q y , q z ), a = D (cos
θ i, sinθ i, 0) + q = (a x, a y, and a z). In order to draw the fixation point 26 correctly, the following horizontal movement r with respect to the image frame 24 is performed.
h (movement to the right of the image is positive), vertical movement r v
(The upward movement of the image is positive) and the magnification r z is scaled. As shown in FIG. 7, in the xy plane, r h and f
Is the optical axis 27a of the image frame 24 at the gazing point 26.
Is equal to the ratio of the distance from the viewpoint position 28 of the foot perpendicular to the optical axis 27a of the gazing point 26,

【0039】[0039]

【数1】 (Equation 1)

【0040】となる。×はベクトルの外積、・はベクト
ルの内積を示す。なお、Mx は画像フレーム24の水平
方向の画素数である。fは焦点距離でありf=Mx
{2tan(φi /2)}となる。これより、
## EQU4 ## × indicates the outer product of the vectors, • indicates the inner product of the vectors. Note that Mx is the number of pixels of the image frame 24 in the horizontal direction. f is the focal length and f = M x /
{2 tan (φ i / 2)}. Than this,

【0041】[0041]

【数2】 (Equation 2)

【0042】を得る。また、z方向については、視点位
置28から注視点26に向かう視線が画像面29を交差
する点について、その視点位置28からのxy平面上で
の距離は焦点距離fと異なる。これをfv とおくと、
Is obtained. Further, in the z direction, at a point where the line of sight from the viewpoint position 28 to the gazing point 26 intersects the image plane 29, the distance from the viewpoint position 28 on the xy plane is different from the focal length f. When put this and f v,

【0043】[0043]

【数3】 (Equation 3)

【0044】である。これより、Is as follows. Than this,

【0045】[0045]

【数4】 (Equation 4)

【0046】であるので、Therefore,

【0047】[0047]

【数5】 (Equation 5)

【0048】を得る。ここで、My は画像フレーム24
の水平方向の画素数である。次に、rz は、視点位置か
ら注視点26までの距離の比とにより、
Is obtained. Here, M y image frame 24
Is the number of pixels in the horizontal direction. Next, r z is given by the ratio of the distance from the viewpoint position to the gazing point 26.

【0049】[0049]

【数6】 (Equation 6)

【0050】とする。これにより図8に示すように、画
像フレーム24にrh とrv の平行移動を行い、倍率r
z の拡大あるいは縮小を施すことにより、中心26bが
画像中心にきて、注視点26にある対象被写体の大きさ
が正しく描かれる変換画像25を生成する。
Assume that Thus, as shown in FIG. 8, performs a translation of r h and r v in the image frame 24, the magnification r
By subjecting the center 26b to the center of the image by expanding or reducing z , a converted image 25 in which the size of the target subject at the gazing point 26 is correctly drawn is generated.

【0051】また、特に、図9のように撮影経路が直線
で、光軸が直線前方に向かう場合、の直線経路上、進行
方向にx軸をとれば、ax =qx +D、ay =piy=0
であるから、倍率rz は、
In particular, as shown in FIG. 9, when the photographing path is a straight line and the optical axis is directed straight ahead, if the x-axis is taken in the traveling direction on the linear path, a x = q x + D, a y = P iy = 0
Therefore, the magnification r z is

【0052】[0052]

【数7】 (Equation 7)

【0053】となり、図10のように拡大または縮小の
みで扱うことができる。
As shown in FIG. 10, it can be handled only by enlargement or reduction.

【0054】さらに、図11のように撮影経路6が直線
で、光軸27がその直線に直交する場合、やはり、この
直線上で進行方向にx軸をとれば、ax =qx 、qy
iy=0であるから、画像の変換は、図12に示すよう
に、
Further, when the photographing path 6 is a straight line and the optical axis 27 is perpendicular to the straight line as shown in FIG. 11, if the x-axis is taken along the straight line in the traveling direction, a x = q x , q y =
Since p iy = 0, the image conversion is performed as shown in FIG.

【0055】[0055]

【数8】 (Equation 8)

【0056】の水平平行移動となる。このような場合、
視点位置間の距離の差によりどのくらいの倍率、あるい
は平行移動量が適当かをあらかじめビデオ映像データ7
を用いて確認しておけば、より画質のよい映像を得るこ
とができる。もちろん、被写体の詳細な形状や位置が既
知の場合は、より精密に合致するよう変換することもで
きる。
The horizontal translation is as follows. In such a case,
It is necessary to determine in advance how much magnification or the amount of parallel movement is appropriate according to the difference in distance between the viewpoint positions.
, It is possible to obtain a higher quality image. Of course, if the detailed shape and position of the subject are known, the conversion can be performed so as to more precisely match the subject.

【0057】なお、画像フレーム24の平行移動や縮小
においては、変換画像25の周辺部に対応のつかない領
域が発生することになる。これに対処するため、図13
に示すように、提示画像13においてはその中心部のみ
を表示する。その適切なサイズはビデオ映像データ7に
よって異なってくるが、例えば、全体の90%を表示す
る。
When the image frame 24 is moved in parallel or reduced, an uncorrelated area is generated around the converted image 25. To deal with this, FIG.
As shown in (2), only the center portion of the presentation image 13 is displayed. The appropriate size varies depending on the video image data 7, but for example, 90% of the whole is displayed.

【0058】以上、説明したように、この実施の形態1
によれば、視点位置の移動速度を変更した場合も、用い
る画像フレームの順序およびフレーム速度を変えずに生
成映像を合成するので、ビデオ映像データ7に示された
対象物の微妙な動き、例えば木の葉の揺れ具合などが不
自然でない状態で生成映像に再現できるビデオ映像によ
る空間表現装置が得られる効果がある。
As described above, the first embodiment
According to the method, even when the moving speed of the viewpoint position is changed, the generated video is synthesized without changing the order and the frame speed of the image frames to be used, so that the subtle movement of the object shown in the video video data 7, for example, There is an effect that a space representation device using a video image can be obtained which can be reproduced in a generated image in a state where the degree of swaying of the leaves is not unnatural.

【0059】なお、生成映像14の一例を図14に示す
が、これは図35に示す例と対応させたものである。図
35に示す生成映像14と比べ図14に示す生成映像1
4は対象物の微妙な動き、例えば木の葉の揺れ具合など
が不自然でない状態で再現されるのがわかる。この結
果、例えば、木々に囲まれた環境内を歩調を変えて散策
する場合などの感覚を不自然さなく与えることができる
ビデオ映像による空間表現装置が得られる効果がある。
FIG. 14 shows an example of the generated image 14, which corresponds to the example shown in FIG. The generated image 1 shown in FIG. 14 is compared with the generated image 14 shown in FIG.
4 shows that the subtle movement of the object, for example, the degree of swaying of the leaves, is reproduced in an unnatural state. As a result, for example, there is an effect that a space representation device using a video image can be obtained, which can give a feeling of, for example, strolling in an environment surrounded by trees while changing the pace without unnaturalness.

【0060】実施の形態2.図16は、この発明の実施
の形態2のビデオ映像による空間表現装置の構成を示す
ブロック図である。図16において図1と同一または相
当の部分については同一の符号を付し説明を省略する。
図16において、30はビデオ映像データの次に提示す
るフレームを1つ選択するフレーム選択装置(フレーム
選択手段)であるが、視点位置間の距離の差が所定の値
を越えると、指定地点位置に最も近い視点位置をもつ画
像フレームを選択する。
Embodiment 2 FIG. 16 is a block diagram showing a configuration of a video image spatial expression device according to Embodiment 2 of the present invention. 16, the same or corresponding parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
In FIG. 16, reference numeral 30 denotes a frame selection device (frame selection means) for selecting one frame to be presented next to the video image data, and when the difference in the distance between the viewpoint positions exceeds a predetermined value, the designated point position is designated. The image frame having the viewpoint position closest to is selected.

【0061】図17は、この発明の実施の形態2のビデ
オ映像による空間表現装置の動作を示す説明図であり、
図4と同一または相当の部分については同一の符号を付
し説明を省略する。図において、31は新たに選択され
た視点位置、32は視点位置31で撮影された画像フレ
ームである。
FIG. 17 is an explanatory diagram showing the operation of the space representation device using video images according to the second embodiment of the present invention.
The same or corresponding parts as those in FIG. 4 are denoted by the same reference numerals and description thereof is omitted. In the figure, 31 is a newly selected viewpoint position, and 32 is an image frame photographed at the viewpoint position 31.

【0062】この実施の形態2では、前記実施の形態1
と同様にビデオ映像データ7をIn(n=0,1,2,
・・・N)、提示画像13をJとする。また、指定視点
位置8は撮影経路6上にあり、この撮影経路上を移動す
るものとして考える。このとき、映像生成の過程で、指
定視点位置qが現在選択されている画像フレームの撮影
視点位置pi と大きく離れた場合、変換後においても歪
みが大きくなり、情景が正しく表現されなくなる可能性
が出てくる。そこで、ビデオ映像データ撮影時の視点移
動速度と大きく異なる速度で指定視点を移動させても対
処できるように適切な画像フレームに選択し直す機構を
付加して構成する。
In the second embodiment, the first embodiment is used.
I n (n = 0,1,2 video image data 7 as well as,
.. N), and the presentation image 13 is J. In addition, it is assumed that the designated viewpoint position 8 is on the photographing route 6 and moves on the photographing route. At this time, if the designated viewpoint position q is greatly separated from the shooting viewpoint position p i of the currently selected image frame in the process of video generation, distortion may increase even after conversion, and the scene may not be correctly represented. Comes out. Therefore, a mechanism for reselecting an appropriate image frame so as to cope with the case where the designated viewpoint is moved at a speed greatly different from the viewpoint moving speed at the time of capturing the video image data is added.

【0063】この結果、指定視点位置と選択しているビ
デオ映像データ7の画像フレームの撮影視点位置の差が
大きくなった場合、新たに適切な画像フレームを選択し
直すことにより、生成映像の画質を維持することが可能
になる。
As a result, when the difference between the designated viewpoint position and the photographing viewpoint position of the selected image frame of the video image data 7 becomes large, a new appropriate image frame is selected again, thereby improving the image quality of the generated image. Can be maintained.

【0064】次に動作について説明する。図18は、こ
の発明の実施の形態2のビデオ映像による空間表現装置
の映像生成動作を示すフローチャートである。このフロ
ーチャートでは、前記実施の形態1で説明した図15に
示したフローチャートにステップST201、ステップ
ST202が追加されており、図15と同一または相当
のステップについては同一の符号を付し説明を省略す
る。
Next, the operation will be described. FIG. 18 is a flowchart showing an image generation operation of the video image spatial expression device according to the second embodiment of the present invention. In this flowchart, steps ST201 and ST202 are added to the flowchart shown in FIG. 15 described in the first embodiment, and the same or corresponding steps as those in FIG. 15 are denoted by the same reference numerals and description thereof is omitted. .

【0065】ステップST201では、視点位置間の距
離の差|q−pi |が所定の閾値L以下かどうかを判定
する。この閾値Lは適宜設定してもよいが、例えばビデ
オ映像データ撮影時の撮影経路上1秒間の移動距離の平
均値、というように設定する。L以下であればステップ
ST2に戻り、そうでなければステップST202に進
む。
In step ST201, it is determined whether or not the difference | q-p i | between the viewpoint positions is equal to or smaller than a predetermined threshold L. The threshold value L may be set as appropriate, but is set as, for example, an average value of a moving distance for one second on a shooting path when shooting video image data. If L or less, the process returns to step ST2, and if not, the process proceeds to step ST202.

【0066】ステップST202では、フレーム選択装
置30において新たな画像フレームを設定する。これは
i とqとの距離|q−pi |を最小とするような画像
フレームである。変数iをこの新しい画像フレームの番
号に置き換え、ステップST2に進む。
In step ST202, a new image frame is set in the frame selection device 30. This is an image frame that minimizes the distance | q−p i | between p i and q. The variable i is replaced with the new image frame number, and the process proceeds to step ST2.

【0067】すなわち、図17に示す画像フレーム23
が表示に用いられた後、ステップST201で「NO」
となりステップST202に進んだ場合、フレーム選択
装置30は指定視点位置8に最も近い視点位置31をも
つ画像フレーム32を選択する。従って、次のステップ
ST2では、画像フレーム23に連続する画像フレーム
24ではなく、画像フレーム32が読み出され、以下、
この画像フレーム32を起点に連続的に画像フレームが
選択されていく。
That is, the image frame 23 shown in FIG.
Is used for display, and then "NO" in step ST201.
When the process proceeds to step ST202, the frame selection device 30 selects the image frame 32 having the viewpoint position 31 closest to the designated viewpoint position 8. Therefore, in the next step ST2, the image frame 32 is read instead of the image frame 24 that is continuous with the image frame 23.
Image frames are successively selected starting from the image frame 32.

【0068】以上、説明したように、この実施の形態2
においては、指定視点位置と画像フレームの撮影視点位
置との距離が大きく離れた場合、再度適切な画像フレー
ムを選択し、その画像フレームからの映像に移行するよ
うに構成したので、大きく歩調を変えても情景の歪みが
大きくならず、情景が正しく表現されなくなるのを回避
できる空間表現装置が得られる効果がある。
As described above, the second embodiment
In the case, when the distance between the designated viewpoint position and the shooting viewpoint position of the image frame is significantly large, an appropriate image frame is selected again and the image is shifted to the image from the image frame. However, there is an effect that a spatial expression device can be obtained in which the distortion of the scene is not increased and the scene is not correctly represented.

【0069】実施の形態3.図19は、この発明の実施
の形態3のビデオ映像による空間表現装置の構成を示す
ブロック図である。図19において図1と同一または相
当の部分については同一の符号を付し説明を省略する。
図19において、33はビデオ映像データについて使用
画像フレームを切り替える際の移行点をあらかじめ定め
る移行点設定装置(移行点設定手段)、34は移行点に
おいて次回用いる画像フレームを選択する機能を付加し
たフレーム選択装置(フレーム選択手段)である。
Embodiment 3 FIG. 19 is a block diagram showing a configuration of a video image spatial expression device according to Embodiment 3 of the present invention. In FIG. 19, the same or corresponding parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
In FIG. 19, reference numeral 33 denotes a transition point setting device (transition point setting means) for predetermining a transition point when switching an image frame to be used for video image data, and reference numeral 34 denotes a frame to which a function for selecting an image frame to be used next time at the transition point is added. A selection device (frame selection means).

【0070】図20、図21、図22はこの発明の実施
の形態3のビデオ映像による空間表現装置の動作を示す
説明図であり、図4と同一または相当の部分については
同一の符号を付し説明を省略する。図において、35は
移行点での視点位置、36は視点位置35での画像フレ
ーム、37は移行先の視点位置、38は視点位置37で
の画像フレーム、39は移行点に関連する画像フレー
ム、40はビデオ映像データ7の前方への移行を判定す
るための距離、41はビデオ映像データ7の後方への移
行を判定するための距離である。
FIGS. 20, 21, and 22 are explanatory diagrams showing the operation of the space representation device using video images according to the third embodiment of the present invention, and the same or corresponding parts as in FIG. And the description is omitted. In the figure, 35 is a viewpoint position at a transition point, 36 is an image frame at the viewpoint position 35, 37 is a viewpoint position at the transition destination, 38 is an image frame at the viewpoint position 37, 39 is an image frame related to the transition point, Reference numeral 40 denotes a distance for determining the forward transition of the video image data 7, and reference numeral 41 denotes a distance for determining the backward transition of the video image data 7.

【0071】この実施の形態3でも前記実施の形態1と
同様に、ビデオ映像データ7をIn(n=0,1,2,
・・・N)、提示画像13をJとする。また、指定視点
位置8は撮影経路6上にあり、この撮影経路6上を移動
するものとして考える。前記実施の形態2でも説明した
ように、映像生成の過程で、指定視点位置qが現在選択
されている画像フレームの撮影視点位置pi と大きく離
れた場合、変換後においても歪みが大きくなり、情景が
正しく表現されなくなる可能性が出てくる。そこで、こ
の実施の形態3においては、ビデオ映像データ撮影時の
視点移動速度と大きく異なる速度で指定視点を移動させ
ても対処できるよう、チェックポイントである移行点を
設け、適宜適切な画像フレームに移行するように構成す
る。
In the third embodiment, as in the first embodiment, the video image data 7 is converted to I n (n = 0, 1, 2, 2).
.. N), and the presentation image 13 is J. Also, it is assumed that the designated viewpoint position 8 is on the photographing path 6 and moves on the photographing path 6. As described in the second embodiment, in the process of image generation, if the specified viewpoint position q leaves large as shooting viewpoint position p i of the image frame that is currently selected, also the distortion is increased after conversion, There is a possibility that the scene will not be correctly represented. Therefore, in the third embodiment, a transition point, which is a check point, is provided so as to be able to cope with a case where the designated viewpoint is moved at a speed greatly different from the viewpoint moving speed at the time of capturing video image data. Configure to migrate.

【0072】この結果、指定視点位置と選択しているビ
デオ映像データ7の画像フレームの撮影視点位置の差が
大きくなった場合、画像フレームをあらかじめ設定して
ある画像フレーム間で選択し直すことにより、生成映像
の画質を維持することが可能になる。
As a result, when the difference between the designated viewpoint position and the photographing viewpoint position of the selected image frame of the video image data 7 becomes large, the image frame is re-selected between the preset image frames. Thus, it is possible to maintain the quality of the generated video.

【0073】次に動作について説明する。先ず、移行点
設定装置33による移行点の設定方法について説明す
る。図23は、この移行点の設定方法を示すフローチャ
ートである。初期状態として前記実施の形態1に示した
各数値が求まっている他、各pi について、その撮影経
路上の始点21からの距離が配列X[i]により求まっ
ているとする。これは例えば、隣接する画像フレームに
ついての視点位置の差|pi−p(i-1) |を積算して求
めることができる。
Next, the operation will be described. First, a method of setting a transition point by the transition point setting device 33 will be described. FIG. 23 is a flowchart showing a method of setting the transition point. Besides the numerical values shown in the first embodiment in the initial state is been obtained, for each p i, the distance from the starting point 21 on the imaging path is been determined by sequence X [i]. This example, differences in the viewpoint position of the image frame adjacent | p i -p (i-1 ) | can be obtained integrating to the.

【0074】ステップST301では、ビデオ映像デー
タの画像フレームを示す変数iを“1”に初期化する。
また、仮の移行点の画像フレームを示す変数hをHmi
nに初期化する。このHminは、移行点間の最小のフ
レーム差を表し、あらかじめ例えば1秒当たりのフレー
ム数30というように設定する。また、移行点フレーム
を示す変数HもHminに初期化する。また、移行点の
数を示す変数nを“1”に初期化し、それを格納する配
列Tの第1の撮影経路上の始点21からの距離として格
納する。さらに、誤差を示す変数Eを十分大きな値(例
えば、画素値の取り得る値の二乗に画素数を乗じた値)
に初期化する。
In step ST301, a variable i indicating an image frame of video image data is initialized to "1".
Also, a variable h indicating a temporary transition point image frame is set to Hmi.
Initialize to n. Hmin represents the minimum frame difference between the transition points, and is set in advance, for example, to 30 frames per second. A variable H indicating the transition point frame is also initialized to Hmin. Further, a variable n indicating the number of transition points is initialized to “1” and stored as a distance from the starting point 21 on the first imaging path of the array T storing the variable n. Further, the variable E indicating the error is set to a sufficiently large value (for example, a value obtained by multiplying the square of a possible pixel value by the number of pixels).
Initialize to

【0075】ステップST302では、i番目の画像フ
レームとh番目の画像フレームとの不一致度を計算す
る。これは、i番目の画像フレームを撮影視点ph から
の情景に変換し、その変換画像KとIh との画素値の誤
差の二乗和をとることで行う。この値をeとする。な
お、このとき用いる画像の変換は、前記実施の形態1に
おいて説明した変換である。
In step ST302, the degree of mismatch between the i-th image frame and the h-th image frame is calculated. This converts the i-th image frame to scene from shooting viewpoint p h, carried out by taking the sum of squares of the pixel value error between the transformed image K and I h. This value is set to e. The conversion of the image used at this time is the conversion described in the first embodiment.

【0076】ステップST303では、E>eかどうか
を判定する。「YES」であるならステップST304
へ進み、「NO」であればステップST305に進む。
In step ST303, it is determined whether E> e. If "YES", step ST304
The process proceeds to step ST305 if “NO”.

【0077】ステップST304では、移行点を示す変
数Hをhに、誤差Eをeに更新する。ステップST30
5では、hに“1”加算する。
In step ST304, the variable H indicating the transition point is updated to h, and the error E is updated to e. Step ST30
At 5, "1" is added to h.

【0078】ステップST306では、hがN以下であ
るか否かを判定し、「NO」であればステップST30
7でnを“1”加算し、最後の移行点HをT[n]に設
定し、移行点設定処理を終了する。この結果、ビデオ映
像データ内でn個の移行点が設定され、それらのフレー
ム番号が配列Tに格納されることになる。
In step ST306, it is determined whether or not h is not more than N. If "NO", step ST30 is executed.
In step 7, n is incremented by "1", the last transition point H is set to T [n], and the transition point setting process ends. As a result, n transition points are set in the video image data, and their frame numbers are stored in the array T.

【0079】ステップST308では、h−iがHma
x以下であるか否かを判定する。Hmaxは移行点間の
最大のフレーム差を表し、あらかじめ、例えば5秒当た
りのフレーム数5×30=150というように設定す
る。ステップST308で「YES」であればステップ
ST302に戻り、「NO」であればステップST30
9に進む。
In step ST308, hi is set to Hma.
It is determined whether it is less than or equal to x. Hmax represents the maximum frame difference between the transition points, and is set in advance, for example, as 5 × 30 = 150 frames per 5 seconds. If “YES” in the step ST308, the process returns to the step ST302. If “NO”, a step ST30
Go to 9.

【0080】ステップST309では、移行点Hについ
て、その数を示す変数nを“1”増加させ配列Tに格納
する。この移行点Hは、1つ前の移行点からフレーム幅
Hmin以上、Hmax以下の範囲の中で、その1つ前
の移行点の画像フレームとの不一致度が最も小さくなる
画像フレームである。
In step ST309, the variable n indicating the number of transition points H is incremented by "1" and stored in the array T. The transition point H is an image frame in which the degree of inconsistency with the image frame at the immediately preceding transition point is the smallest in the range of the frame width Hmin to Hmax from the immediately preceding transition point.

【0081】ステップST310では、移行点Hを新た
なiに、そのiにHminを加算したものを新たなhに
設定し、またEとHとの再初期化を行う。
In step ST310, the transition point H is set to a new i, a value obtained by adding Hmin to the new i is set to a new h, and reinitialization of E and H is performed.

【0082】ステップST311ではhがフレーム数N
以下であるか否かを判定し、「YES」であればステッ
プST302に戻り、「NO」であれば移行点設定処理
を終了する。
In step ST311, h is the number of frames N
It is determined whether or not the following conditions are satisfied. If “YES”, the process returns to step ST302. If “NO”, the transition point setting process ends.

【0083】以上の処理により、最小Hmin、最大H
maxの間隔をもつn個の移行点が設定される。この例
を図20に示す。ビデオ映像データ7上に移行点となる
視点位置21,35b,35c,35dと、その画像フ
レーム39a、39b,39c,39dが設定される。
これにより、隣接の移行点間で画像フレームを切り替え
た場合、誤差が小さくなるため顕著な不連続が生じない
ように生成映像を構成することが可能になる。
By the above processing, the minimum Hmin and the maximum H
n transition points with max intervals are set. This example is shown in FIG. On the video image data 7, viewpoint positions 21, 35b, 35c, and 35d, which are transition points, and their image frames 39a, 39b, 39c, and 39d are set.
As a result, when the image frame is switched between adjacent transition points, the generated video can be configured so that the error becomes small and no significant discontinuity occurs.

【0084】次に、この実施の形態3による映像生成の
動作について説明する。図24は、この映像生成の動作
を示すフローチャートである。図24において図15と
同一または相当のステップについては同一の符号を付し
説明を省略する。ステップST351では、移行点の番
号を示すmを1に設定し、その移行点をhとする。ステ
ップST352では、hがiより大きいか否かを判断
し、「NO」であれば「YES」になるまで、ステップ
ST353で移行点を順次変更していく。ステップST
354では、iが移行点hかどうかを判定する。この結
果「YES」であればステップST355へ進み、「N
O」であればステップST2へ戻る。
Next, the operation of generating an image according to the third embodiment will be described. FIG. 24 is a flowchart showing this video generation operation. 24, steps that are the same as or correspond to steps in FIG. 15 are given the same reference numerals, and descriptions thereof are omitted. In step ST351, m indicating the number of the transition point is set to 1, and the transition point is set to h. In step ST352, it is determined whether or not h is greater than i. If "NO", the transition point is sequentially changed in step ST353 until "YES". Step ST
At 354, it is determined whether i is the transition point h. If the result is "YES", the process proceeds to step ST355 and "N
If "O", the process returns to step ST2.

【0085】ステップST355では、視点位置間につ
いてt−X[T[m+1]]≧0であるか否かを判定す
る。この結果、「YES」であればステップST356
に進み、「NO」であればステップST357へ進む。
ただし、m+1がnより大きくなるときは、T[m+
1]に対する移行点は存在しないのでステップST35
7へ進む。
In step ST355, it is determined whether or not t−X [T [m + 1]] ≧ 0 between the viewpoint positions. As a result, if "YES", the process proceeds to step ST356.
The process proceeds to step ST357 if “NO”.
However, when m + 1 is larger than n, T [m +
1], there is no transition point, so step ST35
Proceed to 7.

【0086】ステップST356では、画像フレームi
が移行点でありpi からみて、指定視点qは撮影経路
上、次の移行点T[m+1]以遠にあることになる。そ
こで、T[m+1]で示される次の移行点におけるフレ
ームを用いて画像を生成した方が歪みが小さくなると期
待できる。したがって、T[m+1]をiと置き直す。
さらに、T[m+2]をhとし、m+2を新たにmとす
る。ただし、m+2がnより大きくなるときは、hとm
の更新は行わない。これを図21に示す。判定に用いた
距離40が正または“0”であれば、前回表示に用いた
画像フレーム23に対して、それに続く画像フレーム3
6(視点位置35)を取りやめ、指定視点位置8に近い
画像フレーム38(視点位置37)を表示に用いる。画
像フレーム36、画像フレーム38は移行点の画像フレ
ームであるため滑らかな置き換え、移行が可能になる。
In step ST356, image frame i
Is the transition point, and from the point of view of p i , the designated viewpoint q is located further than the next transition point T [m + 1] on the photographing route. Therefore, it can be expected that generating an image using a frame at the next transition point represented by T [m + 1] will reduce distortion. Therefore, T [m + 1] is replaced with i.
Further, T [m + 2] is set to h, and m + 2 is newly set to m. However, when m + 2 is larger than n, h and m
Is not updated. This is shown in FIG. If the distance 40 used for the determination is positive or “0”, the image frame 23 used for the previous display is replaced by the image frame 3
6 (viewpoint position 35) is canceled, and an image frame 38 (viewpoint position 37) close to the specified viewpoint position 8 is used for display. Since the image frame 36 and the image frame 38 are the image frames at the transition points, smooth replacement and transition are possible.

【0087】ステップST357では、視点位置間につ
いて、X[T[m−1]]−t≧0であるか否かを判定
する。この結果、「YES」であればステップST35
8に進む。ただし、mが“1”のときは、T[m−1]
に対する移行点は存在しないので「NO」の場合と同様
にステップST359へ進む。ステップST359では
移行点を更新する。ただし、m+1がnより大きくなる
ときは、更新を行わない。
In step ST357, it is determined whether or not X [T [m-1]]-t ≧ 0 between the viewpoint positions. As a result, if “YES”, the process proceeds to step ST35.
Proceed to 8. However, when m is “1”, T [m−1]
Does not exist, the process proceeds to step ST359 as in the case of "NO". In step ST359, the transition point is updated. However, when m + 1 is larger than n, the update is not performed.

【0088】ステップST358では、画像フレームi
が移行点であり、pi からみて指定視点qは撮影経路
上、前の移行点T[m−1]以遠にあることになる。そ
こで、T[m−1]で示される前の移行点におけるフレ
ームを用いて画像を生成した方が歪みが小さくなると期
待できる。したがって、T[m−1]をiと置き直す。
これを図22に示す。判定に用いた距離41が正または
“0”であれば前回表示に用いた画像フレーム23に対
して、それに続く画像フレーム36(視点位置35)を
取りやめ、指定視点位置8に近い画像フレーム38(視
点位置37)を表示に用いる。画像フレーム36、画像
フレーム38は移行点の画像フレームであるため滑らか
な置き換え、移行が可能になる。
In step ST358, the image frame i
Is the transition point, and the specified viewpoint q is located beyond the previous transition point T [m-1] on the photographing path from the viewpoint of p i . Therefore, it can be expected that generating an image using a frame at the transition point before T [m-1] will reduce distortion. Therefore, T [m-1] is replaced with i.
This is shown in FIG. If the distance 41 used for the determination is positive or “0”, the image frame 36 (viewpoint position 35) subsequent to the image frame 23 used for the previous display is canceled and the image frame 38 ( The viewpoint position 37) is used for display. Since the image frame 36 and the image frame 38 are the image frames at the transition points, smooth replacement and transition are possible.

【0089】以上、説明したように、この実施の形態3
によれば、映像を切り替える移行点を、映像に不連続を
生じないようにあらかじめ設定し、設定した移行点間の
みで映像を切り替えるように構成したので、例えば対象
環境内を人や車などが横切っていくような場面が発生し
ても、その間には移行点が設定されず移行時にいきなり
車が現れたり消えたりはしない。従って、移動する事物
を含むビデオ映像データを用いる場合でも時間的に不連
続性のない空間を表現できる空間表現装置が得られる効
果がある。
As described above, the third embodiment
According to, the transition point at which the video is switched is set in advance so as not to cause discontinuity in the video, and the video is switched only between the set transition points. Even if a crossing scene occurs, no transition point is set in the meantime, and the car does not suddenly appear or disappear during the transition. Therefore, there is an effect that a space expression device capable of expressing a space without temporal discontinuity can be obtained even when video image data including moving objects is used.

【0090】実施の形態4.図25は、この発明の実施
の形態4のビデオ映像による空間表現装置の構成を示す
ブロック図である。図25において図16と同一または
相当の部分については同一の符号を付し説明を省略す
る。図25において、42は2つの画像フレームから提
示画像を合成するとともに補間し、補間における割合を
徐々に再選択された画像フレームに関して大きく設定
し、再選択された画像フレームへ徐々に変化させ提示画
像の不連続を顕著にさせないための画像合成装置(画像
合成手段)である。
Embodiment 4 FIG. 25 is a block diagram showing a configuration of a video image spatial expression device according to Embodiment 4 of the present invention. In FIG. 25, the same or corresponding parts as in FIG. 16 are denoted by the same reference numerals, and description thereof is omitted. In FIG. 25, reference numeral 42 denotes a combination of a presentation image from two image frames and interpolation, and a ratio in the interpolation is set to a large value with respect to the reselected image frame, and the presentation image is gradually changed to the reselected image frame. Is an image synthesizing device (image synthesizing means) for preventing discontinuity of the image from becoming noticeable.

【0091】図26は、このビデオ映像による空間表現
装置の動作を示す説明図であり、図において、43は画
像フレームを変換して得られる第2の変換画像である。
FIG. 26 is an explanatory diagram showing the operation of the space representation device using video images. In the figure, reference numeral 43 denotes a second converted image obtained by converting an image frame.

【0092】この空間表現装置では、生成映像における
移行点において所定のフレーム幅で徐々に映像を変化さ
せるように移行させる。しかしながらビデオ映像データ
の移行点においては必ずしも情景を一致させられるとは
限らない。そこで、この実施の形態では不連続を顕著に
させないため一方から他方の映像に徐々に変化させて映
像生成を行う。
In this space representation device, the transition is made such that the image is gradually changed at a transition point in the generated image with a predetermined frame width. However, scenes cannot always be matched at the transition point of video image data. Therefore, in this embodiment, the video is generated by gradually changing from one video to the other video in order not to make discontinuity noticeable.

【0093】次に動作について説明する。図27は、こ
の発明の実施の形態4のビデオ映像による空間表現装置
による映像生成動作を示すフローチャートである。な
お、図27において図18と同一または相当のステップ
については同一の符号を付し説明を省略する。ステップ
ST401では、移行領域か否かを示す変数Fを“0”
に初期化する。この変数Fが“0”のときは通常の画像
生成を行い、正のときは移行領域とみて2つの画像フレ
ームを合成して提示画像を得る。
Next, the operation will be described. FIG. 27 is a flowchart showing an image generation operation by the video image spatial expression device according to the fourth embodiment of the present invention. In FIG. 27, steps that are the same as or correspond to those in FIG. 18 are denoted by the same reference numerals, and description thereof is omitted. In step ST401, a variable F indicating whether or not the area is a transition area is set to “0”.
Initialize to When the variable F is “0”, normal image generation is performed. When the variable F is positive, a presentation image is obtained by combining two image frames as a transition area.

【0094】ステップST2からステップST7の処理
の後、ステップST402では、変数Fが“0”である
か否かを判定する。「YES」であればステップST2
01に進み、映像を移行するかどうかを判定する。ま
た、変数Fが“0”でなければ、すでに移行領域である
のでステップST404以下の移行領域の処理を行う。
After the processing from step ST2 to step ST7, in step ST402, it is determined whether or not the variable F is "0". If “YES”, step ST2
In step 01, it is determined whether to shift the video. If the variable F is not “0”, since the area is already the transition area, the processing of the transition area from step ST404 is performed.

【0095】ステップST201へ進んで映像を移行す
ると判定した場合、すなわち「NO」の場合でありステ
ップST403へ進む。ステップST403では画像フ
レーム番号iをjに格納し、変数FをWとする。Wは正
の整数であり、2つの画像フレームを合成して生成する
提示画像のフレーム数、すなわち、移行領域の幅であ
る。この値はあらかじめ定め、例えば0.5秒分の15
フレームというようにする。ステップST202終了
後、移行先の画像フレーム32が新たにiで表される。
ステップST202からステップST404へ進み、ス
テップST404以下では、前記新たな画像フレーム3
2と、前回表示した画像フレーム23に連続する画像フ
レーム24(j)とを混合し、徐々に移行先の映像に変
化させていくように生成映像を合成していく。移行領域
の処理であるステップST404では、通常のi番目の
画像フレーム32および変数に加え、j番目の画像フレ
ーム24および変数を記憶装置から読み出す。
If the process proceeds to step ST201 and it is determined that the image is to be transferred, that is, if “NO”, the process proceeds to step ST403. In step ST403, the image frame number i is stored in j, and the variable F is set to W. W is a positive integer, and is the number of frames of the presentation image generated by combining the two image frames, that is, the width of the transition area. This value is predetermined, for example, 15 seconds for 0.5 seconds.
Make it a frame. After the end of step ST202, the destination image frame 32 is newly represented by i.
The process proceeds from step ST202 to step ST404. In step ST404 and subsequent steps, the new image frame 3
2 and an image frame 24 (j) that is continuous with the previously displayed image frame 23, and the generated video is synthesized so as to gradually change to the video of the transition destination. In step ST404, which is the processing of the transition area, the j-th image frame 24 and the variables are read from the storage device in addition to the normal i-th image frame 32 and the variables.

【0096】ステップST405では、i番目の画像フ
レーム32およびj番目の画像フレーム24をそれぞれ
変換し、図26に示す変換画像25(K)および第2の
変換画像43(K’)を生成する。この変換は上述のも
のと同一である。
In step ST405, the i-th image frame 32 and the j-th image frame 24 are respectively converted to generate a converted image 25 (K) and a second converted image 43 (K ') shown in FIG. This conversion is the same as described above.

【0097】ステップST406では、画像合成装置4
2において、変換されたそれぞれの映像フレームを式
(9)に示すように、
In step ST406, the image synthesizing device 4
In equation (2), each converted video frame is expressed as shown in equation (9).

【数9】 のように合成して図26に示す提示画像13(J)を得
る。これは、前記変数Fに従って徐々に移行後の映像フ
レームの比率を高めていくもので、Wフレーム目以後で
完全に移行後の映像に切り替わる。なお、ここでK,
K’に対する係数は、画像の画素値に係数を乗算するこ
とを表す。
(Equation 9) 26 to obtain a presentation image 13 (J) shown in FIG. This is to gradually increase the ratio of the video frames after the transition according to the variable F, and the video is completely switched after the Wth frame. Here, K,
The coefficient for K ′ represents multiplying the pixel value of the image by the coefficient.

【0098】ステップST407では、Jを画像表示装
置20により表示する。この場合もフレーム速度を撮影
時の値に一致させる。ステップST408では、変数F
を“1”減じるとともに、jに“1”加算する。ここま
でが移行領域の処理で、この後、ステップST5に進
む。
In step ST407, J is displayed on the image display device 20. Also in this case, the frame speed is made to match the value at the time of shooting. In step ST408, the variable F
Is reduced by “1”, and “1” is added to j. The process up to this point is the process of the transition area, and thereafter, the process proceeds to step ST5.

【0099】以上、説明したように、この実施の形態4
によれば、映像を切り替える移行点において幅Wフレー
ムの移行領域を設定し、その領域で移行前後の映像を滑
らかに徐々に変化させるようにしたため、移行部が顕著
に表れない生成映像を合成できる空間表現装置が得られ
る効果がある。
As described above, Embodiment 4
According to the method, the transition area of the width W frame is set at the transition point at which the video is switched, and the video before and after the transition is smoothly and gradually changed in the transition area, so that the generated video in which the transition portion does not appear remarkably can be synthesized. There is an effect that a spatial expression device can be obtained.

【0100】実施の形態5.図28は、この発明の実施
の形態5のビデオ映像による空間表現装置の構成を示す
ブロック図である。図28において図1と同一または相
当の部分については同一の符号を付し説明を省略する。
図28において、61はスタート指定視点位置qに対し
最も適切な画像フレームを選択するフレーム選択装置
(フレーム選択手段)、62はスタート指定視点位置q
と光軸方向、画角を初期設定する視点位置設定装置(視
点位置設定手段)である。
Embodiment 5 FIG. FIG. 28 is a block diagram showing a configuration of a space representation device using video images according to Embodiment 5 of the present invention. In FIG. 28, the same or corresponding parts as those in FIG. 1 are denoted by the same reference numerals, and description thereof will be omitted.
In FIG. 28, reference numeral 61 denotes a frame selecting device (frame selecting means) for selecting the most appropriate image frame for the designated start viewpoint position q, and 62 denotes a designated start viewpoint position q.
And a viewpoint position setting device (viewpoint position setting means) for initially setting the optical axis direction and the angle of view.

【0101】図29および図30は、この発明の実施の
形態5のビデオ映像による空間表現装置の動作を示す説
明図であり、図4および図7と同一または相当の部分に
ついては同一の符号を付し説明を省略する。図におい
て、47はフレーム選択装置61により初期段階で選択
された画像フレーム、48は画像フレーム47の視点位
置である。
FIGS. 29 and 30 are explanatory diagrams showing the operation of the space representation apparatus using video images according to the fifth embodiment of the present invention. The same or corresponding parts as in FIGS. 4 and 7 are denoted by the same reference numerals. The description is omitted. In the figure, reference numeral 47 denotes an image frame selected at an initial stage by the frame selection device 61, and reference numeral 48 denotes a viewpoint position of the image frame 47.

【0102】この実施の形態5では、指定視点位置qは
撮影経路上に限らず自由に指定できる。
In the fifth embodiment, the designated viewpoint position q can be freely designated not only on the photographing route.

【0103】次に動作について説明する。図31は、こ
の発明の実施の形態5のビデオ映像による空間表現装置
による映像生成動作を示すフローチャートである。な
お、図31において図15と同一または相当のステップ
については同一の符号を付し説明を省略する。先ず、ス
テップST501では、視点位置設定装置62により撮
影経路上のスタート指定視点位置qと光軸方向Θ、画角
Φを初期設定する。この場合、スタート指定視点位置q
は撮影経路上には限定しない。続くステップST502
では、フレーム選択装置61によりスタート指定視点位
置qに対し最も適切な画像フレーム47(Ii )を選択
する。この場合、例えば、光軸方向のなす角が所定の閾
値、例えば15度以下であって、視点位置48について
視点間の差|q−pi |が最小となる画像フレームIi
というように選択する。この画像フレーム47の番号を
変数iに格納する。
Next, the operation will be described. FIG. 31 is a flowchart showing an image generation operation by the video image spatial expression device according to the fifth embodiment of the present invention. In FIG. 31, steps that are the same as or correspond to those in FIG. 15 are given the same reference numerals, and descriptions thereof will be omitted. First, in step ST501, the viewpoint position setting device 62 initializes a designated start viewpoint position q, an optical axis direction Θ, and an angle of view Φ on an imaging route. In this case, the start designated viewpoint position q
Is not limited to the shooting route. Subsequent step ST502
Then, the frame selection device 61 selects the most appropriate image frame 47 (I i ) for the designated start viewpoint position q. In this case, for example, the image frame I i in which the angle formed in the optical axis direction is equal to or smaller than a predetermined threshold value, for example, 15 degrees, and the difference | q-p i |
And so on. The number of the image frame 47 is stored in a variable i.

【0104】なお、ステップST2からステップST4
までの動作は、前記実施の形態1で説明した動作と同一
である。ステップST503では、視点位置設定装置6
2により視点の移動vと光軸方向の移動u、画角の変化
sを指定する。続くステップST6,ステップST7は
前記実施の形態1で説明した動作と同一である。
Note that the steps ST2 to ST4
The operations up to this point are the same as the operations described in the first embodiment. In step ST503, the viewpoint position setting device 6
2, a movement v of the viewpoint, a movement u in the optical axis direction, and a change s in the angle of view are specified. Subsequent steps ST6 and ST7 are the same as the operations described in the first embodiment.

【0105】ここで、この実施の形態のステップST3
における画像変換について説明する。前記実施の形態1
と同様に、この実施の形態でも提示画像13の注視点2
6が正しく中心に描かれるようにする。このためには、
図30に示すように符号26で示す注視点a=D(co
sΘ,sinΘ,0)+q=(ax ,ay ,az )とし
て、
Here, step ST3 of this embodiment
Will be described. Embodiment 1
Similarly to this, also in this embodiment, the gazing point 2 of the presentation image 13
Make sure 6 is centered correctly. To do this,
As shown in FIG. 30, the gazing point a = D (co
sΘ, sinΘ, 0) + q = (a x, a y, as a z),

【0106】[0106]

【数10】 (Equation 10)

【0107】となるから、## EQU11 ##

【0108】[0108]

【数11】 [Equation 11]

【0109】を得る。rv に関しては前記実施の形態1
と同様である。倍率rz は、視点位置から注視点26ま
での距離の比と画角の差により、
Is obtained. Regarding rv , the first embodiment
Is the same as The magnification r z is determined by the ratio of the distance from the viewpoint position to the gazing point 26 and the difference in the angle of view.

【0110】[0110]

【数12】 (Equation 12)

【0111】となる。Is obtained.

【0112】以上、説明したように、この実施の形態5
によれば、ビデオ映像データの撮影時の撮影経路、およ
び撮影経路上の指定視点位置によらず、動きのある環境
内で歩調を変えて散策する場合などの感覚を与えること
ができる空間表現装置が得られる効果がある。特に、指
定視点位置8を撮影経路6に沿って移動させ、提示画像
13の光軸方向を画像フレーム47の光軸方向の近傍で
変化させたならば、ビデオ映像データ7に撮影された動
きのある空間内を、左右を見渡しつつ、自由な歩調で散
策する映像を生成できる。
As described above, the fifth embodiment
According to the present invention, a space expression device capable of giving a feeling such as changing the pace in a moving environment and taking a stroll regardless of the shooting path at the time of shooting the video image data and the designated viewpoint position on the shooting path The effect is obtained. In particular, if the designated viewpoint position 8 is moved along the photographing path 6 and the optical axis direction of the presentation image 13 is changed near the optical axis direction of the image frame 47, the movement captured in the video image data 7 It is possible to generate a video that walks in a free space while looking around in a certain space.

【0113】なお、以上説明した各実施の形態における
記憶装置16は、計算機の主記憶装置あるいは磁気ディ
スク装置あるいはビデオテープ装置およびビデオテープ
である。
The storage device 16 in each embodiment described above is a main storage device of a computer, a magnetic disk device, a video tape device, and a video tape.

【0114】実施の形態6.以上説明した各実施の形態
において、前記実施の形態1のビデオ映像による空間表
現装置では速度調整装置17、フレーム選択装置18、
画像変換装置19を構成要素として備え、また前記実施
の形態2では特徴的な構成要素としてフレーム選択装置
30を備え、また前記実施の形態3では特徴的な構成要
素として移行点設定装置33、フレーム選択装置34を
備え、また前記実施の形態4では特徴的な構成要素とし
て画像合成装置42を備え、また前記実施の形態5では
特徴的な構成要素としてフレーム選択装置61、視点位
置設定装置62を備える構成であったが、これら各構成
要素の動作を計算機によりソフトウェアで実現するよう
にしてもよい。
Embodiment 6 FIG. In each of the embodiments described above, the speed adjusting device 17, the frame selecting device 18,
The image conversion device 19 is provided as a component, the second embodiment is provided with a frame selection device 30 as a characteristic component, and the third embodiment is provided with a transition point setting device 33 and a frame as a characteristic component. In the fourth embodiment, the image synthesizing device 42 is provided as a characteristic component. In the fifth embodiment, a frame selecting device 61 and a viewpoint position setting device 62 are provided. Although the configuration is provided, the operation of each of these components may be realized by software using a computer.

【0115】実施の形態7.前記各実施の形態では、生
成映像14のフレーム速度をビデオ映像データ7と同じ
としたが、これを異なるように構成してもよい。この場
合、仮に生成映像14のフレーム速度がビデオ映像デー
タ7の1/n(単位時間に提示するフレームが1/n)
とすれば、ステップST6の動作はi←i+nとなる。
逆に、生成映像14のフレーム速度がビデオ映像データ
7のn倍(単位時間に提示するフレームがn倍)とすれ
ば、ステップST6の動作は、ステップST6がn回実
行される毎にiが“1”加算されるような動作となる。
Embodiment 7 FIG. In the above embodiments, the frame rate of the generated video 14 is the same as that of the video video data 7. However, the frame speed may be different. In this case, if the frame speed of the generated video 14 is 1 / n of the video video data 7 (the frame presented in the unit time is 1 / n)
Then, the operation in step ST6 becomes i ← i + n.
Conversely, if the frame speed of the generated video 14 is n times the video video data 7 (the number of frames presented in a unit time is n times), the operation of step ST6 is such that every time step ST6 is executed n times, i The operation is such that “1” is added.

【0116】実施の形態8.前記実施の形態5では、連
続したビデオ映像データ7を用いたが、複数に分けて撮
影された複数のビデオ映像データ7を用いて構成しても
よい。
Embodiment 8 FIG. In the fifth embodiment, the continuous video image data 7 is used. However, the video image data 7 may be configured by using a plurality of video image data 7 which are separately shot.

【0117】実施の形態9.前記各実施の形態では、水
平面をxy平面内として説明したが、鉛直面など他の平
面に設定してもよく、同一の動作となり、同一の効果が
期待できる。
Embodiment 9 FIG. In each of the above embodiments, the horizontal plane is described as being within the xy plane. However, the horizontal plane may be set to another plane such as a vertical plane, and the same operation and the same effect can be expected.

【0118】実施の形態10.前記各実施の形態では、
ビデオ画像データと提示画像の光軸をxy平面に平行と
して説明したが、これに限るものではなく、ビデオ画像
データと提示画像の光軸がxy平面に平行でない場合で
も、簡単な画像の変換によって対処できる。
Embodiment 10 FIG. In the above embodiments,
The optical axis of the video image data and the presentation image has been described as being parallel to the xy plane. However, the present invention is not limited to this. Even when the optical axis of the video image data and the presentation image is not parallel to the xy plane, a simple image conversion can be used. I can deal with it.

【0119】実施の形態11.前記各実施の形態では、
ビデオ画像データと提示画像の水平軸をxy平面に平行
として説明したが、これに限るものではなく、ビデオ画
像データと提示画像の水平軸がxy平面に平行でない場
合でも、簡単な画像の変換によって対処できる。
Embodiment 11 FIG. In the above embodiments,
Although the horizontal axis of the video image data and the presentation image is described as being parallel to the xy plane, the present invention is not limited to this. Even when the horizontal axis of the video image data and the presentation image is not parallel to the xy plane, a simple image conversion can be used. I can deal with it.

【0120】実施の形態12.前記実施の形態4では、
画像合成装置42の行う演算を式(9)に示す画素値の
補間混合として説明したが、合成する2つの変換画像間
で被写体中の同一点を表す特徴点の対応付けを行い、そ
れらが同一画素に置かれるように、互いを移動、変形さ
せてから画素値を混合する、いわゆるモーフィングによ
り行うように構成してもよい。
Embodiment 12 FIG. In the fourth embodiment,
Although the calculation performed by the image synthesizing device 42 has been described as the interpolation and mixing of the pixel values shown in Expression (9), feature points representing the same point in the subject are associated between the two converted images to be synthesized, and the same It may be configured to perform so-called morphing in which pixel values are mixed after moving and deforming each other so as to be placed in pixels.

【0121】実施の形態13.前記各実施の形態では、
画像フレームを順に1フレームずつ選択して提示した
が、対象物の動く速度が定まっていない場合、指定視点
位置の移動が速いときは、例えば、最大1フレームまで
は画像フレームを間引いて選択する。また、指定視点位
置の移動が遅いときは、例えば、同一画像フレームを最
大2回までは続けて提示するというように構成してもよ
い。
Embodiment 13 FIG. In the above embodiments,
The image frames are sequentially selected and presented one by one, but when the moving speed of the object is not determined, or when the movement of the designated viewpoint position is fast, for example, up to one frame is thinned out and selected. Further, when the movement of the designated viewpoint position is slow, for example, the same image frame may be continuously presented up to twice.

【0122】[0122]

【発明の効果】以上のように、この発明によれば、ビデ
オ映像データから選択された画像フレームを、撮影経路
に対し指定された指定視点位置での情景に合致するよう
画像変換する構成を備えるようにしたので、視点位置が
異なるが被写体の動きを正しく示す画像フレームを選択
することができ、被写体の動きを正しく再現する映像を
生成できる効果がある。
As described above, according to the present invention, the image frame selected from the video image data is subjected to image conversion so as to match the scene at the designated viewpoint position designated with respect to the photographing path. With this configuration, it is possible to select an image frame that has a different viewpoint position but correctly indicates the motion of the subject, and has an effect of generating a video that accurately reproduces the motion of the subject.

【0123】この発明によれば、ビデオ映像データから
連続する画像フレームを順に1フレームずつフレーム選
択手段が選択する構成を備えるようにしたので、視点位
置は異なるが被写体の正しい動きを示す画像フレームを
順に1フレームずつ選択し、被写体の動きを正しく再現
する映像を生成できる効果がある。
According to the present invention, a structure is provided in which the frame selecting means sequentially selects successive image frames from the video image data one frame at a time. There is an effect that an image in which the motion of the subject is correctly reproduced is selected by selecting one frame at a time in order.

【0124】この発明によれば、速度調整手段により与
えられる指定視点の移動量によって更新される指定視点
位置と、選択されている画像フレームの撮影視点位置と
の間の距離が所定の距離以上離れていると、前記指定視
点位置に近い撮影視点位置の画像フレームを再選択する
フレーム選択手段を備えるように構成したので、再現す
る情景が実際のものと大きく異なることなく、映像空間
を再現できる効果がある。
According to the present invention, the distance between the designated viewpoint position updated by the movement amount of the designated viewpoint given by the speed adjusting means and the shooting viewpoint position of the selected image frame is more than a predetermined distance. Is provided, a frame selecting means for reselecting an image frame at a shooting viewpoint position close to the designated viewpoint position is provided, so that an image space can be reproduced without a scene to be reproduced being significantly different from an actual scene. There is.

【0125】この発明によれば、フレーム選択手段が選
択する画像フレームに対応する移行点をあらかじめ設定
する移行点設定手段を備え、指定視点位置に近い撮影視
点位置の画像フレームを、前記移行点設定手段によりあ
らかじめ設定した移行点の画像フレーム間でフレーム選
択手段が選択するように構成したので、移行点での再現
される映像空間の不連続が顕著に現われない映像を生成
できる効果がある。
According to the present invention, there is provided transition point setting means for presetting a transition point corresponding to an image frame selected by the frame selection means, and the image frame at the photographing viewpoint position close to the designated viewpoint position is set to the transition point setting means. Since the frame selecting means is configured to select between the image frames at the transition point set in advance by the means, there is an effect that an image in which the discontinuity of the reproduced image space at the transition point does not significantly appear can be generated.

【0126】この発明によれば、フレーム選択手段がす
でに選択した画像フレームと再選択した画像フレームを
共に画像変換手段が画像変換し、前記画像変換手段が画
像変換した変換画像を合成し、提示画像を補間し、補間
における割合を徐々に前記再選択された画像フレームに
関して大きくする画像合成手段を備えるように構成した
ので、映像を滑らかに移行することができ、不連続が顕
著にならない映像を生成できる効果がある。
According to the present invention, the image conversion means performs image conversion on both the image frame already selected by the frame selection means and the reselected image frame, and combines the converted images obtained by the image conversion means into a presentation image. And an image synthesizing means for gradually increasing the ratio in the interpolation with respect to the reselected image frame, so that the image can be smoothly shifted, and the image in which discontinuity does not become noticeable can be generated. There is an effect that can be done.

【0127】この発明によれば、ビデオ映像データが撮
影された空間内にスタート視点と光軸方向、画角を初期
設定する視点位置設定手段を備え、前記視点位置設定手
段により設定された前記スタート視点に最適な画像フレ
ームをフレーム選択手段が選択し、前記フレーム選択手
段により選択された画像フレームを、前記視点位置設定
手段により設定されたスタート視点と光軸方向、画角を
もとに画像変換手段が提示画像へ画像変換するように構
成したので、ビデオ映像データの撮影時の撮影経路、お
よび撮影経路上の指定視点位置によらず、ビデオ映像デ
ータに撮影された動きのある空間内で、前記初期設定さ
れたスタート視点と光軸方向、画角に応じた映像を生成
できる効果がある。
According to the present invention, there is provided a viewpoint position setting means for initially setting a start viewpoint, an optical axis direction, and an angle of view in a space where video image data is captured, and the start position set by the viewpoint position setting means is provided. The frame selecting means selects an image frame optimal for the viewpoint, and converts the image frame selected by the frame selecting means into an image based on the start viewpoint, the optical axis direction, and the angle of view set by the viewpoint position setting means. Since the means is configured to convert the image to the presentation image, regardless of the shooting path at the time of shooting the video image data, and the designated viewpoint position on the shooting path, in the space with the movement shot by the video image data, There is an effect that an image corresponding to the initially set start viewpoint, optical axis direction, and angle of view can be generated.

【0128】この発明によれば、提示画像の光軸上一定
距離にある被写体が提示画像上で正しく描画されるよう
に、選択された画像フレームを画像変換手段が変換する
ように構成したので、注視する中心付近が正しく描かれ
る提示画像を生成できる効果がある。
According to the present invention, the selected image frame is converted by the image conversion means so that the subject at a certain distance on the optical axis of the presented image is correctly drawn on the presented image. There is an effect that a presentation image in which the vicinity of the gazing point is correctly drawn can be generated.

【0129】この発明によれば、選択された画像フレー
ムの平行移動と拡大または縮小により画像変換手段が画
像変換を行うように構成したので、簡単な演算で被写体
の動きを正しく再現する提示画像を生成できる効果があ
る。
According to the present invention, the image conversion means performs the image conversion by the parallel movement and the enlargement or reduction of the selected image frame. Therefore, the presented image that accurately reproduces the motion of the subject by a simple calculation can be obtained. There is an effect that can be generated.

【0130】この発明によれば、ビデオ映像データの撮
影視点位置は直線上に並び、光軸はその直線上、撮影視
点位置の進行方向に向かっており、指定視点位置と選択
された画像フレームの前記撮影視点位置との距離によっ
て決まる、画像フレームの拡大または縮小により画像変
換手段が画像変換を行うように構成したので、簡単な演
算で前進速度を任意に変えた映像を生成できる効果があ
る。
According to the present invention, the photographing viewpoint positions of the video image data are arranged on a straight line, and the optical axis is directed along the straight line in the traveling direction of the photographing viewpoint position. Since the image conversion means is configured to perform image conversion by enlarging or reducing an image frame, which is determined by the distance from the shooting viewpoint position, it is possible to generate an image in which the forward speed is arbitrarily changed by a simple calculation.

【0131】この発明によれば、直線上の撮影経路上で
その直線に直交する方向に向けて撮影されたビデオ映像
データを用いる処理にあたり、画像フレームの変換を画
像の平行移動で行うようにしたので、簡単な演算で並進
速度を任意に変えた映像を生成できる効果がある。
According to the present invention, in processing using video image data shot in a direction orthogonal to the straight line on a straight shooting path, image frame conversion is performed by parallel movement of the image. Therefore, there is an effect that a video image whose translation speed is arbitrarily changed can be generated by a simple calculation.

【0132】この発明によれば、ビデオ映像データの画
像フレームより小さい変換画像を画像変換手段が生成す
るように構成したので、画像フレームの変換において発
生する変換画像の周辺部の対応付けることができない領
域が影響しない映像を生成できる効果がある。
According to the present invention, since the image conversion means is configured to generate a converted image smaller than the image frame of the video image data, an area where the peripheral portion of the converted image generated in the conversion of the image frame cannot be corresponded. There is an effect that a video which is not affected can be generated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 この発明の実施の形態1のビデオ映像による
空間表現装置の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a space representation device using video images according to Embodiment 1 of the present invention.

【図2】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作を示す説明図である。
FIG. 2 is an explanatory diagram illustrating an operation of the space representation device using video images according to the first embodiment of the present invention;

【図3】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作におけるカメラ配置を示す説明図で
ある。
FIG. 3 is an explanatory diagram showing a camera arrangement in an operation of the video image spatial expression device according to the first embodiment of the present invention;

【図4】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作を示す説明図である。
FIG. 4 is an explanatory diagram illustrating an operation of the space representation device using video images according to the first embodiment of the present invention;

【図5】 この発明の実施の形態1のビデオ映像による
空間表現装置の記憶装置に記憶されるデータを示す説明
図である。
FIG. 5 is an explanatory diagram showing data stored in a storage device of the video image spatial expression device according to the first embodiment of the present invention.

【図6】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作を示す説明図である。
FIG. 6 is an explanatory diagram showing an operation of the video image spatial expression device according to the first embodiment of the present invention;

【図7】 この発明の実施の形態1のビデオ映像による
空間表現装置の動における視点配置を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing a viewpoint arrangement in the movement of the video image spatial expression device according to the first embodiment of the present invention;

【図8】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作における画像変換を示す説明図であ
る。
FIG. 8 is an explanatory diagram showing image conversion in the operation of the space representation device using video images according to the first embodiment of the present invention;

【図9】 この発明の実施の形態1のビデオ映像による
空間表現装置の動作を示す説明図である。
FIG. 9 is an explanatory diagram showing an operation of the space representation device using video images according to the first embodiment of the present invention;

【図10】 この発明の実施の形態1のビデオ映像によ
る空間表現装置の動作における画像変換の一例を示す説
明図である。
FIG. 10 is an explanatory diagram illustrating an example of image conversion in the operation of the space representation device using video images according to the first embodiment of the present invention;

【図11】 この発明の実施の形態1のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 11 is an explanatory diagram showing an operation of the video image spatial expression device according to the first embodiment of the present invention.

【図12】 この発明の実施の形態1のビデオ映像によ
る空間表現装置の動作における画像変換の一例を示す説
明図である。
FIG. 12 is an explanatory diagram illustrating an example of image conversion in the operation of the video image spatial expression device according to Embodiment 1 of the present invention;

【図13】 この発明の実施の形態1のビデオ映像によ
る空間表現装置の動作における画像変換の一例を示す説
明図である。
FIG. 13 is an explanatory diagram illustrating an example of image conversion in the operation of the video image spatial expression device according to the first embodiment of the present invention.

【図14】 この発明の実施の形態1のビデオ映像によ
る空間表現装置における生成映像の一例を示す説明図で
ある。
FIG. 14 is an explanatory diagram illustrating an example of a generated image in the video image spatial expression device according to the first embodiment of the present invention.

【図15】 この発明の実施の形態1のビデオ映像によ
る空間表現装置の映像生成動作を示すフローチャートで
ある。
FIG. 15 is a flowchart illustrating an image generation operation of the video image spatial expression device according to the first embodiment of the present invention.

【図16】 この発明の実施の形態2のビデオ映像によ
る空間表現装置の構成を示すブロック図である。
FIG. 16 is a block diagram illustrating a configuration of a space representation device using video images according to Embodiment 2 of the present invention.

【図17】 この発明の実施の形態2のビデオ映像によ
る空間表現装置の動作における画像変換の一例を示す説
明図である。
FIG. 17 is an explanatory diagram showing an example of image conversion in the operation of the video image spatial expression device according to Embodiment 2 of the present invention;

【図18】 この発明の実施の形態2のビデオ映像によ
る空間表現装置の映像生成動作を示すフローチャートで
ある。
FIG. 18 is a flowchart illustrating an image generation operation of the video image spatial expression device according to the second embodiment of the present invention.

【図19】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の構成を示すブロック図である。
FIG. 19 is a block diagram illustrating a configuration of a space representation device using video images according to Embodiment 3 of the present invention.

【図20】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 20 is an explanatory diagram showing an operation of the video image spatial expression device according to the third embodiment of the present invention.

【図21】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 21 is an explanatory diagram showing an operation of the video image spatial expression device according to the third embodiment of the present invention.

【図22】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 22 is an explanatory diagram showing an operation of the video image spatial expression device according to the third embodiment of the present invention.

【図23】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の移行点の設定手順を示すフローチャー
トである。
FIG. 23 is a flowchart showing a procedure for setting a transition point of the space representation device using video images according to Embodiment 3 of the present invention;

【図24】 この発明の実施の形態3のビデオ映像によ
る空間表現装置の映像生成動作を示すフローチャートで
ある。
FIG. 24 is a flowchart showing an image generation operation of the space expression device using video images according to Embodiment 3 of the present invention;

【図25】 この発明の実施の形態4のビデオ映像によ
る空間表現装置の構成を示すブロック図である。
FIG. 25 is a block diagram showing a configuration of a space representation device using video images according to Embodiment 4 of the present invention.

【図26】 この発明の実施の形態4のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 26 is an explanatory diagram showing an operation of the video image spatial expression device according to the fourth embodiment of the present invention.

【図27】 この発明の実施の形態4のビデオ映像によ
る空間表現装置の映像生成動作を示すフローチャートで
ある。
FIG. 27 is a flowchart showing an image generation operation of the video image spatial expression device according to the fourth embodiment of the present invention.

【図28】 この発明の実施の形態5のビデオ映像によ
る空間表現装置の構成を示すブロック図である。
FIG. 28 is a block diagram showing a configuration of a video image spatial expression device according to Embodiment 5 of the present invention.

【図29】 この発明の実施の形態5のビデオ映像によ
る空間表現装置の動作を示す説明図である。
FIG. 29 is an explanatory diagram showing an operation of the video image spatial expression device according to the fifth embodiment of the present invention.

【図30】 この発明の実施の形態5のビデオ映像によ
る空間表現装置の動作における視点配置を示す説明図で
ある。
FIG. 30 is an explanatory diagram showing a viewpoint arrangement in an operation of the video image spatial expression device according to the fifth embodiment of the present invention.

【図31】 この発明の実施の形態5のビデオ映像によ
る空間表現装置の映像生成動作を示すフローチャートで
ある。
FIG. 31 is a flowchart showing an image generation operation of the video image spatial expression device according to the fifth embodiment of the present invention.

【図32】 従来の空間表現装置の構成を示すブロック
図である。
FIG. 32 is a block diagram illustrating a configuration of a conventional space expression device.

【図33】 従来の空間表現装置の動作を示す説明図で
ある。
FIG. 33 is an explanatory diagram showing an operation of a conventional space expression device.

【図34】 従来の空間表現装置の動作を示す説明図で
ある。
FIG. 34 is an explanatory diagram showing an operation of a conventional space expression device.

【図35】 従来の空間表現装置による生成映像の一例
を示す説明図である。
FIG. 35 is an explanatory diagram showing an example of a video generated by a conventional space expression device.

【図36】 従来の空間表現装置による生成映像の一例
を示す説明図である。
FIG. 36 is an explanatory diagram showing an example of a video generated by a conventional spatial expression device.

【符号の説明】[Explanation of symbols]

16 記憶装置(記憶手段)、17 速度調整装置(速
度調整手段)、18,30,34,61 フレーム選択
装置(フレーム選択手段)、19 画像変換装置(画像
変換手段)、20 画像表示装置(画像表示手段)、3
3 移行点設定装置(移行点設定手段)、42 画像合
成装置(画像合成手段)、62 視点位置設定装置(視
点位置設定手段)。
16 storage device (storage device), 17 speed adjustment device (speed adjustment device), 18, 30, 34, 61 frame selection device (frame selection device), 19 image conversion device (image conversion device), 20 image display device (image Display means), 3
3 transition point setting device (transition point setting means), 42 image synthesizing device (image synthesizing means), 62 viewpoint position setting device (visual point position setting means).

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B050 AA08 BA11 EA12 EA17 EA24 FA02 5C023 AA02 AA04 AA11 AA37 AA38 CA03 DA01 DA04 DA08 EA03 5C053 FA05 FA06 HA33 KA01 KA04 KA05 KA08 KA22 KA24 LA01 LA06 LA20  ────────────────────────────────────────────────── ─── Continued on the front page F-term (reference)

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 ビデオ映像データおよびビデオ映像デー
タの各画像フレームの撮影視点位置、光軸方向、画角を
記憶する記憶手段と、 ビデオ映像データの撮影経路に対し指定される指定視点
の移動量を入力する速度調整手段と、 前記記憶手段に記憶したビデオ映像データ中から提示す
る画像フレームを選択するフレーム選択手段と、 該フレーム選択手段により選択された画像フレームを前
記指定視点における提示画像に画像変換する画像変換手
段と、 該画像変換手段により画像変換された前記提示画像を表
示し、前記指定視点の移動に合致した情景を示す提示画
像により映像空間を表現する画像表示手段とを備えたビ
デオ映像による空間表現装置。
1. A storage means for storing video image data and a shooting viewpoint position, an optical axis direction, and an angle of view of each image frame of the video image data, and a moving amount of a specified viewpoint specified with respect to a shooting path of the video image data. Speed adjusting means for inputting an image frame, frame selecting means for selecting an image frame to be presented from the video image data stored in the storage means, and an image frame selected by the frame selecting means as an image to be presented at the designated viewpoint. A video comprising: image conversion means for converting; and image display means for displaying the presentation image converted by the image conversion means and expressing a video space by a presentation image showing a scene matching the movement of the designated viewpoint. A space expression device using images.
【請求項2】 フレーム選択手段は、 ビデオ映像データから連続する画像フレームを順に1フ
レームずつ選択することを特徴とする請求項1記載のビ
デオ映像による空間表現装置。
2. The apparatus according to claim 1, wherein the frame selecting means selects successive image frames from the video image data one by one in order.
【請求項3】 フレーム選択手段は、 速度調整手段によって与えられる指定視点の移動量によ
って更新される指定視点位置と、選択されている画像フ
レームの撮影視点位置との間の距離が所定の距離以上離
れていると、前記指定視点位置に近い撮影視点位置の画
像フレームを再選択することを特徴とする請求項1記載
のビデオ映像による空間表現装置。
3. The method according to claim 1, wherein the distance between the designated viewpoint position updated by the movement amount of the designated viewpoint provided by the speed adjusting unit and the photographing viewpoint position of the selected image frame is a predetermined distance or more. 2. The space representation apparatus according to claim 1, wherein if the distance is far, an image frame at a shooting viewpoint position close to the designated viewpoint position is reselected.
【請求項4】 フレーム選択手段が選択する画像フレー
ムに対応する移行点をあらかじめ設定する移行点設定手
段を備え、 フレーム選択手段は、 指定視点位置に近い撮影視点位置の画像フレームを、前
記移行点設定手段によりあらかじめ設定した移行点の画
像フレーム間で選択することを特徴とする請求項3記載
のビデオ映像による空間表現装置。
4. A transition point setting means for setting a transition point corresponding to an image frame selected by the frame selection means in advance, wherein the frame selection means converts an image frame at a shooting viewpoint position close to a designated viewpoint position into the transition point. 4. The space representation apparatus according to claim 3, wherein a selection is made between image frames at a transition point set in advance by the setting means.
【請求項5】 画像変換手段は、 フレーム選択手段がすでに選択した画像フレームと再選
択した画像フレームを共に画像変換し、 前記画像変換手段が画像変換した変換画像を合成し、提
示画像を補間し、補間における割合を徐々に前記再選択
された画像フレームに関して大きくする画像合成手段を
備えていることを特徴とする請求項3または請求項4記
載のビデオ映像による空間表現装置。
5. The image conversion means converts the image frame already selected by the frame selection means and the reselected image frame together, synthesizes the converted image obtained by the image conversion means, and interpolates the presentation image. 5. An apparatus according to claim 3, further comprising image synthesizing means for gradually increasing a ratio in interpolation with respect to the reselected image frame.
【請求項6】 ビデオ映像データが撮影された空間内に
スタート視点と光軸方向、画角を初期設定する視点位置
設定手段を備え、 フレーム選択手段は、 前記視点位置設定手段により設定された前記スタート視
点に最適な画像フレームを選択し、 画像変換手段は、前記フレーム選択手段により選択され
た画像フレームを、前記視点位置設定手段により設定さ
れたスタート視点と光軸方向、画角をもとに提示画像へ
画像変換することを特徴とする請求項1記載のビデオ映
像による空間表現装置。
6. A viewpoint position setting means for initially setting a start viewpoint, an optical axis direction, and an angle of view in a space where video image data is captured, and a frame selecting means, wherein the frame setting means is set by the viewpoint position setting means. An image frame that is optimal for the start viewpoint is selected, and the image conversion unit converts the image frame selected by the frame selection unit based on the start viewpoint, the optical axis direction, and the angle of view set by the viewpoint position setting unit. 2. The apparatus according to claim 1, wherein the image is converted into a presentation image.
【請求項7】 画像変換手段は、 指示画像の光軸上一定距離にある被写体が提示画像上で
正しく描画されるように、選択された画像フレームを変
換することを特徴とする請求項1から請求項6のうちの
いずれか1項記載のビデオ映像による空間表現装置。
7. The image conversion unit according to claim 1, wherein the image conversion unit converts the selected image frame so that a subject located at a fixed distance on the optical axis of the designated image is correctly drawn on the presentation image. A space representation device using a video image according to claim 6.
【請求項8】 画像変換手段は、 選択された画像フレームの平行移動と拡大または縮小に
より画像変換を行うことを特徴とする請求項7記載のビ
デオ映像による空間表現装置。
8. The apparatus according to claim 7, wherein the image conversion means performs the image conversion by translating and enlarging or reducing the selected image frame.
【請求項9】 ビデオ映像データの撮影視点位置は直線
上に並び、光軸はその直線上、撮影視点位置の進行方向
に向かっており、 画像変換手段は、 指定視点位置と選択された画像フレームの前記撮影視点
位置との距離によって決まる画像フレームの拡大または
縮小により画像変換を行うことを特徴とする請求項1か
ら請求項6のうちのいずれか1項記載のビデオ映像によ
る空間表現装置。
9. The shooting viewpoint position of the video image data is aligned on a straight line, and the optical axis is directed on the straight line in the traveling direction of the shooting viewpoint position. 7. The apparatus according to claim 1, wherein image conversion is performed by enlarging or reducing an image frame determined by a distance from the shooting viewpoint position.
【請求項10】 ビデオ映像データの撮影視点位置は直
線上に並び、光軸はその直線と直交しており、画像変換
手段は、 指定視点位置と選択された画像フレームの前記撮影視点
位置との距離によって決まる画像フレームの平行移動に
より画像変換を行うことを特徴とする請求項1から請求
項6のうちのいずれか1項記載のビデオ映像による空間
表現装置。
10. The shooting viewpoint position of the video image data is arranged on a straight line, the optical axis is orthogonal to the straight line, and the image conversion means is configured to determine a designated viewpoint position and the shooting viewpoint position of a selected image frame. 7. The apparatus according to claim 1, wherein the image conversion is performed by a parallel movement of an image frame determined by a distance.
【請求項11】 画像変換手段は、 ビデオ映像データの画像フレームより小さい変換画像を
生成することを特徴とする請求項1から請求項10のう
ちのいずれか1項記載のビデオ映像による空間表現装
置。
11. The apparatus according to claim 1, wherein the image conversion unit generates a converted image smaller than an image frame of the video image data. .
JP23920398A 1998-08-25 1998-08-25 Spatial representation device using video images Expired - Fee Related JP3746380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23920398A JP3746380B2 (en) 1998-08-25 1998-08-25 Spatial representation device using video images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23920398A JP3746380B2 (en) 1998-08-25 1998-08-25 Spatial representation device using video images

Publications (2)

Publication Number Publication Date
JP2000069408A true JP2000069408A (en) 2000-03-03
JP3746380B2 JP3746380B2 (en) 2006-02-15

Family

ID=17041276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23920398A Expired - Fee Related JP3746380B2 (en) 1998-08-25 1998-08-25 Spatial representation device using video images

Country Status (1)

Country Link
JP (1) JP3746380B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015200918A (en) * 2014-04-04 2015-11-12 大木 光晴 Image processor, method, and program
WO2019026388A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
CN109789329A (en) * 2016-10-11 2019-05-21 富士通株式会社 Score auxiliary program, scoring auxiliary device and scoring householder method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015200918A (en) * 2014-04-04 2015-11-12 大木 光晴 Image processor, method, and program
CN109789329A (en) * 2016-10-11 2019-05-21 富士通株式会社 Score auxiliary program, scoring auxiliary device and scoring householder method
WO2019026388A1 (en) * 2017-08-01 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
JPWO2019026388A1 (en) * 2017-08-01 2020-03-19 株式会社ソニー・インタラクティブエンタテインメント Image generation apparatus and image generation method
US11050993B2 (en) 2017-08-01 2021-06-29 Sony Interactive Entertainment Inc. Image generating apparatus and image generating method
JP7057785B2 (en) 2017-08-01 2022-04-20 株式会社ソニー・インタラクティブエンタテインメント Image generator and image generation method

Also Published As

Publication number Publication date
JP3746380B2 (en) 2006-02-15

Similar Documents

Publication Publication Date Title
US7091988B2 (en) Object region data describing method and object region data creating apparatus
US7689031B2 (en) Video filtering for stereo images
JP6157606B2 (en) Image fusion method and apparatus
JP3728160B2 (en) Depth image measuring apparatus and method, and mixed reality presentation system
JP4789494B2 (en) Image frame processing method, apparatus, rendering processor, and moving image display method
WO2011048716A1 (en) Video image conversion device and image capture device
KR20100043139A (en) Image processing device, dynamic image reproduction device, and processing method and program in them
JP4072330B2 (en) Display device and information processing method
EP1785941A1 (en) Virtual view specification and synthesis in free viewpoint television
US20130051771A1 (en) Image processing device and method, and program
JP2005235211A (en) Image compositing method of intermediate point in time, and 3d-display device with the method applied
JPH10285602A (en) Dynamic sprite for encoding video data
JP2004297719A (en) Frame interpolation method and image display system using the same
JP4761403B2 (en) Image frame processing method, apparatus, rendering processor, and moving image display method
WO2007142109A1 (en) Image resolution increasing device, image resolution increasing method, and program
JP6610535B2 (en) Image processing apparatus and image processing method
JPH1127703A (en) Display device and its control method
JP3724117B2 (en) Image generating apparatus and image generating method
CN116563459A (en) Text-driven immersive open scene neural rendering and mixing enhancement method
JP2004229093A (en) Method, device, and program for generating stereoscopic image, and recording medium
JP3746380B2 (en) Spatial representation device using video images
JP2000348165A (en) Scene display device
JP2012003503A (en) Image processing device, method for controlling the same, and program
US20190370937A1 (en) Image processing apparatus, non-transitory computer-readable recording medium storing computer program, and image processing method
US11287658B2 (en) Picture processing device, picture distribution system, and picture processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050614

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051122

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091202

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101202

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111202

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121202

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131202

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees