JPH04115674A - Generation of moving picture information - Google Patents

Generation of moving picture information

Info

Publication number
JPH04115674A
JPH04115674A JP2230931A JP23093190A JPH04115674A JP H04115674 A JPH04115674 A JP H04115674A JP 2230931 A JP2230931 A JP 2230931A JP 23093190 A JP23093190 A JP 23093190A JP H04115674 A JPH04115674 A JP H04115674A
Authority
JP
Japan
Prior art keywords
cut
moving image
image information
frame
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2230931A
Other languages
Japanese (ja)
Other versions
JP3041360B2 (en
Inventor
Satoshi Yoshizawa
聡 吉沢
Hirotada Ueda
博唯 上田
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PERSONAL JOHO KANKYO KYOKAI
Original Assignee
PERSONAL JOHO KANKYO KYOKAI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PERSONAL JOHO KANKYO KYOKAI filed Critical PERSONAL JOHO KANKYO KYOKAI
Priority to JP2230931A priority Critical patent/JP3041360B2/en
Publication of JPH04115674A publication Critical patent/JPH04115674A/en
Application granted granted Critical
Publication of JP3041360B2 publication Critical patent/JP3041360B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PURPOSE:To obtain a moving picture easy to see with the rich power of expression by enlarging/reducing segmented respective pictures to fixed size, jointing plural frames continuously with the picture as the frame and generating moving picture information. CONSTITUTION:The device for the subject method consists of an operation processor 101 to generate, to modify and to define moving picture information, a main storage device 102 to store moving picture cut data, data in processing and so on, an auxiliary storage device 110 of a magnetic disk and so on. Then, first, picture data to be used by a user as an original, picture are inputted to the computer 101 and next, it is instructed that cut is generated from the original picture. The computer 101 segments the one part of the original picture according to the instruction of the user, enlarges/reduces the segmented picture, converts it into the picture of fixed size which is equivalent to a frame and stores it. This processing is repeated for the number of times equal to the number of the frames within the cut and the cut of a moving picture is generated. Thus, the moving picture easy to see with the rich power of expression can be obtained.

Description

【発明の詳細な説明】 〔産業上の利用分野J 本発明は、動画像情報の素材(以下、カットと呼ぶ)を
配列してつなぎ合わせたり、入れ替えたりして、計算機
上で電子的に編集作業を行う場合に、専門知識や専門的
技術を持ち合わせないユーザでも、映画やその他の動画
像の高品質なカットを作成することが可能な動画像情報
の生成方法に関する。
[Detailed Description of the Invention] [Industrial Application Field J] The present invention is an electronic editing method that arranges, connects, or replaces moving image information materials (hereinafter referred to as cuts) and edits them electronically on a computer. The present invention relates to a method for generating moving image information that allows even users without specialized knowledge or skills to create high-quality cuts of movies or other moving images.

〔従来の技術] 従来、動画像のカットのデータを作成する方法には、次
の2つの方法があった。その第1は、コンピュータ・グ
ラフィックスを用いて作成する方法であり、その第2は
、ビデオカメラで撮影し、画像データとして連続フレー
ムを蓄積する方法である。ここで、カットとは、ビデオ
や映画等の動画像の中で、ある動作の最初から最後まで
の1シーンを形成する1区切りの画像群である。
[Prior Art] Conventionally, there have been two methods for creating cutting data for moving images. The first method is to create the image using computer graphics, and the second method is to capture images with a video camera and accumulate continuous frames as image data. Here, a cut is a group of images that form one scene from the beginning to the end of a certain action in a moving image such as a video or a movie.

上記第1の方法では、先ず、撮影の対象となるオブジェ
クト(対象物)を3次元形状データとして作成し、計算
機内の疑似空間内にオブジェクトと照明等を配置して、
視点を定めた後、光や照射や反肘の計算を行う、そして
、その視点から見た疑似空間の状態を再現することによ
り、画像データとしてこれを蓄積する。次に、オブジェ
クトの疑似空間内での配置や視点を徐々に移動させなが
ら、繰り返してこの計算を行い、各計算結果を画像デー
タとして蓄積し、複数枚の連続フレームとする。
In the first method, first, an object to be photographed is created as three-dimensional shape data, and the object and lighting etc. are placed in a pseudo space inside a computer.
After determining the viewpoint, calculations are made for light, illumination, and anti-elbow angles, and by reproducing the state of the pseudo-space seen from that viewpoint, this is stored as image data. Next, this calculation is repeated while gradually moving the placement of the object in the pseudo space and the viewpoint, and the results of each calculation are accumulated as image data to form a plurality of continuous frames.

また、上記第2の方法では、ビデオカメラ等を用いて実
際に現実の風景や人物を撮影し、撮影した自然動画像を
計算機上でフレーム単位にディジタル化して取り込み、
各フレームを画像データとして蓄積し、複数枚の連続フ
レームとする。
In addition, in the second method, real scenery and people are actually photographed using a video camera, etc., and the photographed natural moving images are digitized frame by frame on a computer and imported.
Each frame is stored as image data to form a plurality of consecutive frames.

なお、動画像情報の操作に関する文献としては、例えば
、「電子情報通信学会技術報告] I E89−6゜p
9.49〜56に記載されているものがある。
In addition, as a document regarding the manipulation of video image information, for example, "Technical report of the Institute of Electronics, Information and Communication Engineers" IE89-6゜p
There are those described in 9.49-56.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

上記第1の方法では、コンピュータを用いてグラフィッ
クデイスプレィ上で3次元の形状データを作成すること
が、基本図形の単純な組み合わせで作成できる場合を除
き、極めて困難である。すなわち、次のような課題があ
る。
In the first method, it is extremely difficult to create three-dimensional shape data on a graphic display using a computer, unless it can be created by a simple combination of basic figures. In other words, there are the following issues.

(i)複雑な形状のオブジェクトが映された構図を作成
することは困難である。つまり、一般に、グラフィック
スを用いてカットを作成する場合、2次元画像を作成す
るのは容易であるが、画面上で3次元を作成することは
非常に難かしく、多大な労力と時間がかかる。
(i) It is difficult to create a composition in which objects with complex shapes are reflected. In other words, in general, when creating cuts using graphics, it is easy to create a 2D image, but creating a 3D image on the screen is extremely difficult and requires a lot of effort and time. .

一方、上記第2の方法では、次のような課題が生じる。On the other hand, the second method described above has the following problems.

(u)撮影時のカメラの振動(ブレ)が生じ易い。(u) Camera vibration (shake) is likely to occur during shooting.

(伍)撮影時のカメラの光軸の向きを変更するパン操作
の速度むらが生じる。
(5) Inconsistency occurs in the speed of panning operations that change the direction of the optical axis of the camera during shooting.

(iv)撮影時のカメラの視野角を変更するズーム操作
の速度むらが生じる。
(iv) Unevenness occurs in the speed of the zoom operation that changes the viewing angle of the camera during photographing.

(V)カットが不適切な構図になる。つまり、全体が映
っていなかったり、希望する対象物が欠除した構図であ
る場合等が考えられる。
(V) The cut results in an inappropriate composition. In other words, there may be cases where the entire image is not shown or the desired object is omitted from the composition.

(vi)カットの長さが過不足となる。つまり、時間が
短か過ぎて、最後の場面が含まれなかったり、時間が長
過ぎて、余分な場面が含まれている場合が考えられる。
(vi) The length of the cut is too long or too short. In other words, the time may be too short and the last scene is not included, or the time may be too long and an extra scene is included.

上記問題項目のうち、(ii)〜(fv )に関しては
、カメラを操作する操作者の熟練度による動画像の画質
の問題であり、熟練度の低い操作者が扱った画像はギク
シャグした画像になる。従って、これらは、撮影した動
画像データを編集するか否かに関係なく、問題になる事
項である。
Among the above problem items, (ii) to (fv) are problems with the image quality of moving images depending on the skill level of the operator who operates the camera, and images handled by less skilled operators tend to be jittery. Become. Therefore, these are issues regardless of whether captured moving image data is edited or not.

これに対して、上記(V)および(vi)は、撮影を行
う際に、事前の検討および計画が不足していることに起
因している。具体的には、カット撮影時にシナリオの全
体像と、ある特定のカットとの関係を正確に把握できな
かったために起こった問題であり、通常はカットをつな
ぎ合わせてみてシナリオの大部分ができ上るまで、その
不具合が判明しないことが多い。そのために、第2の方
法では、頻繁に撮影のやり直しを行う必要がある。
On the other hand, the above (V) and (vi) are caused by a lack of prior consideration and planning when photographing. Specifically, this problem occurred because it was not possible to accurately grasp the overall picture of the scenario and the relationship between specific cuts when shooting cuts; normally, the majority of the scenario is created by piecing together the cuts. In many cases, the problem is not discovered until the problem occurs. Therefore, in the second method, it is necessary to frequently reshoot images.

本発明の目的は、これら従来の課題を解決し、高度なカ
メラ操作技術を駆使して撮影した場合と同じように、見
易く、表現力が豊かな動画像を簡単に得ることができ、
高品質なカットを容易に作成できる動画像情報の生成方
法を提供することにある。
The purpose of the present invention is to solve these conventional problems, and to easily obtain moving images that are as easy to view and expressive as those captured using advanced camera operation techniques.
An object of the present invention is to provide a method for generating moving image information that can easily create high-quality cuts.

[課題を解決するための手段] 上記目的を達成するため、本発明による動画像情報の生
成方法は、(f)原画像上の任意の異なる領域から画像
を複数枚切り出すように指示されると、処理装置は指定
された画像を切り出し、切り出された各画像を所定の大
きさに拡大ないし縮小処理を行い、処理された画像をフ
レームとして、フレームを複数枚連続的につなぎ合わせ
ることにより動画像情報を生成することに特徴がある6
また、(n)処理装置は、作成すべき動画像の最初と最
後のフレームを作成するために原画像から切り出す領域
と、作成すべき動画像に含まれるフレーム数とが指定さ
れると、その領域およびフレーム数に基づいて、連続す
るフレームの切り出し位置を順次決定し、決定された各
位置で切り出し処理を実行して、動画像情報を作成する
ことにも特徴がある。また、(止)処理装置は、作成す
る動画像に含まれる任意枚数のフレームを作成するため
に、原画像から切り出す領域と、各領域が作成する動画
像の何枚目のフレームであるかのフレーム番号とを指定
することにも特徴がある。また、(fv)処理装置は、
最初と最後のフレーム間の切り出し経路が指定されると
、原画像上での画像切り出し領域内の任意の点の位置を
、指定された経路に基づいて設定し、連続するフレーム
の切り出す位置を順次決定することにも特徴がある。ま
た、(V)処理装置は、最初と最後のフレーム間の各切
り出し画像の移動率が指定されると、原画像上での画像
切り出し領域内の任意の点の位置を、指定された移動率
に基づいて設定し、連続するフレームの切り出す位置を
順次決定することにも特徴がある。
[Means for Solving the Problems] In order to achieve the above object, a method for generating moving image information according to the present invention includes: (f) when an instruction is given to cut out a plurality of images from arbitrary different regions on an original image; , the processing device cuts out the specified images, enlarges or reduces each cut-out image to a predetermined size, uses the processed images as frames, and creates a moving image by sequentially joining multiple frames together. Characteristic in generating information 6
(n) When the area to be cut out from the original image to create the first and last frames of the video to be created and the number of frames included in the video to be created are specified, the processing device Another feature of the present invention is that the cutting positions of consecutive frames are sequentially determined based on the area and the number of frames, and the cutting process is executed at each determined position to create moving image information. In addition, in order to create an arbitrary number of frames included in the video image to be created, the processing device determines the regions to be cut out from the original image and the number of frames in the video image to be created for each region. Another feature is that the frame number is specified. In addition, (fv) the processing device is
When the cropping path between the first and last frame is specified, the position of any point within the image cropping area on the original image is set based on the specified path, and the cropping positions of consecutive frames are sequentially set. There are also characteristics in making decisions. (V) When the movement rate of each cutout image between the first and last frames is specified, the processing device changes the position of an arbitrary point within the image cutout area on the original image at the specified movement rate. Another feature is that the settings are based on the following, and the positions at which consecutive frames are to be cut out are sequentially determined.

また、(vf)処理装置は、最初と最後のフレーム間の
各切り出し画像のサイズ変化率が指定されると、原画像
上での各画像の切り出し領域の大きさを、指定されたサ
イズ変化率に基づいて設定し、連続するフレームの切り
出す領域の大きさを順次決定することにも特徴がある。
Furthermore, when the size change rate of each cutout image between the first and last frames is specified, the (vf) processing device changes the size of the cutout area of each image on the original image according to the specified size change rate. Another feature is that the size of the area to be cut out of successive frames is sequentially determined based on the following.

また、(vii)処理装置は、画像を切り出す領域の大
きさが変更されると、原画像上の所定の点が変更により
作成された動画像上の点に常に表示されるように、画像
を切り出す領域の位置を設定することにも特徴がある。
(vii) When the size of the area from which the image is cut out is changed, the processing device is configured to adjust the image so that a predetermined point on the original image is always displayed at a point on the moving image created by the change. Another feature is setting the position of the area to be cut out.

また、(4)処理装置は、指定された動画像情報が生成
されると、生成した動画像情報を即座に、かつ各フレー
ムを連続して再生することにも特徴がある。
Further, (4) the processing device is characterized in that, when designated moving image information is generated, the processing device immediately reproduces the generated moving image information and continuously plays each frame.

さらに、(IX)処理装置は、生成された複数の動画像
情報を連続して再生する際に、各フレームの順番を変更
して再生することにも特徴がある。
Furthermore, the (IX) processing device is characterized in that when continuously reproducing a plurality of generated moving image information, the order of each frame is changed and reproduced.

〔作  用] 本発明においては、先ずユーザが原画として用いる画像
データを計算機に入力し、次にその原画像からカットを
生成することを指示する。計算機は、ユーザの指示に従
って、原画像の一部分を切り出し、切り出された画像を
拡大ないし縮小して、一定サイズの画像(フレームに相
当)に変換し蓄積する。この処理をカット内のフレーム
の枚数と同じ回数だけ繰り返して、動画像のカットを生
成する。
[Operation] In the present invention, a user first inputs image data to be used as an original image into a computer, and then instructs the computer to generate a cut from the original image. The computer cuts out a part of the original image according to the user's instructions, enlarges or reduces the cut out image, converts it into a fixed size image (equivalent to a frame), and stores the image. This process is repeated the same number of times as the number of frames in the cut to generate a cut of the moving image.

これにより、原画像から切り出す領域の位置の移動を一
定の速度で、ないし速度を滑らかに変化させながら行う
ことにより、速度むらのないパン操作を行える。また、
i画像から切り出す領域の大きさの変更を、一定速度で
、ないし速度を滑らかに変化させながら行うことにより
、速度むらのないズーム操作が行える。さらに、カット
を随時生成して、しかも即座に再生して確認することが
できるので、全体シナリオに対して適切な構図と長さを
持ったカットを、カットの編集中に作成することができ
る。また、原画としてカメラ等から取り込んだ自然画像
を用いることができるので、コンピュータ・グラフィッ
クスでは作成が困難な形状の入った構図も容易に作成す
ることができる。
Thereby, by moving the position of the region to be cut out from the original image at a constant speed or while smoothly changing the speed, a panning operation without speed unevenness can be performed. Also,
By changing the size of the area to be cut out from the i-image at a constant speed or while changing the speed smoothly, a zoom operation without speed unevenness can be performed. Furthermore, since cuts can be generated at any time and played back and checked immediately, cuts with appropriate composition and length for the entire scenario can be created during cut editing. Furthermore, since a natural image captured from a camera or the like can be used as the original image, it is possible to easily create compositions that include shapes that are difficult to create using computer graphics.

〔実施例〕〔Example〕

以下、本発明の実施例を、図面により詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

第4図は、本発明による動画像情報の生成処理の流れを
示す概略図であり、第11図は、第4図の補助的な説明
図である。
FIG. 4 is a schematic diagram showing the flow of the moving image information generation process according to the present invention, and FIG. 11 is a supplementary explanatory diagram of FIG. 4.

第4図において、401はユーザにより指定される原画
像上の編集情報を示す動画像カットエディタ、403は
プログラムにより作成されるカット生成コマンド、40
5はコマンドにより作成されたNフレームのカットが格
納されたファイルである。
In FIG. 4, 401 is a moving image cut editor indicating editing information on the original image specified by the user, 403 is a cut generation command created by a program, and 40
5 is a file in which cuts of N frames created by commands are stored.

先ず、ユーザは、動画像カットエディタ401上で対話
的に作成したいカットを定義する。すなわち、表示画面
上に表示された原画像に対して、作成する動画像のフレ
ームを作成するために切り出す領域を指定する。このた
めに、(1)開始フレーム指定、(2)終了フレーム指
定、(3)フレーム枚数指定、(4)ズーム速度指定、
(5)パン速度、経路指定を行う。
First, the user interactively defines the cut he wants to create on the video cut editor 401. That is, an area to be cut out to create a frame of a moving image to be created is specified for the original image displayed on the display screen. To do this, (1) specify the start frame, (2) specify the end frame, (3) specify the number of frames, (4) specify the zoom speed,
(5) Specify pan speed and route.

動画像カットエディタ401で入力されたユーザによる
カットの定義は、矢印402で枠403のカット生成コ
マンドに変換される。カット生成コマンド403を基に
、矢印404でカットの生成処理を実行する。すなわち
、カット生成コマンド403に基づき、原画像から指定
された領域を切り出し、それを予め指定されたサイズの
画像に拡大ないし縮小する画像サイズ変換処理を実行し
た後、変換された画像データを動画像フレームとしてフ
ァイル405に蓄積する。そして、カットが生成される
と、即座に蓄積されたフレーム画像データを連続的に表
示することにより、カットが動画像として再生される。
The user's cut definition input in the video cut editor 401 is converted into a cut generation command in a frame 403 by an arrow 402 . Based on the cut generation command 403, cut generation processing is executed using an arrow 404. That is, based on the cut generation command 403, a specified area is cut out from the original image, an image size conversion process is performed to enlarge or reduce it to an image of a prespecified size, and then the converted image data is converted into a moving image. It is stored in a file 405 as a frame. Then, when a cut is generated, the cut is immediately reproduced as a moving image by continuously displaying the accumulated frame image data.

このようにして、矢印404でカットを生成し、ファイ
ル405に蓄積されたカットのデータは、ユーザの要求
に応じて即座に表示画面上に再生されるので、作成した
カットを確認しながら、処理の流れを繰り返すことによ
って、これを修正したり、再定義することができる。
In this way, a cut is generated using the arrow 404, and the cut data stored in the file 405 is immediately played back on the display screen in response to the user's request, so you can check the created cut while processing. This can be modified or redefined by repeating this process.

第11図(a)〜(c)は、第4図の動画像エディタ4
01の詳細説明のための図であって、二は原画像、イは
最初に切り出すlii像、口は切り出し画像中の1つの
画像、ハは最後に切り出す画像、ホ、へはいずれもフレ
ームである。例えば、原画像として、野原に入物が立っ
ている画像である場合に、最初に全体の風景を映し、順
次、人物に焦点を合わせていき、最後に人物の顔を拡大
した画像で終了するカット(シーン)を作成しようとす
る場合を考える。そのためには、最初にイの画像を切り
出し、最後にハのように顔の部分のみの領域を切り出し
、その間に複数枚の領域画像を切り出す。そして、最初
のイの画像は切り出した後に少し縮小してフレーム・ホ
を生成し、また最後のハの画像は切り出した後に大きく
拡大してフレーム・へを生成する。また、それらの間の
口を含む複数の切り出し画像は適当に縮/11、拡大し
て、ホ、へと同−サイズのフレームを生成する。これら
のフレームのホからへまでが、ユーザにより指定された
カットである。画像ハのX印の1点はフレーム・ホ、お
よびフレーム・へ上でもX印の位置に表わされている。
FIGS. 11(a) to (c) show the moving image editor 4 of FIG.
01 is a diagram for detailed explanation, 2 is the original image, A is the first image to be cut out, the mouth is one of the images to be cut out, C is the last image to be cut out, E and H are both frames. be. For example, if the original image is an image of an object standing in a field, the entire landscape is first displayed, the focus is sequentially focused on a person, and the image ends with an enlarged image of the person's face. Consider a case where you are trying to create a cut (scene). To do this, first cut out the image A, and finally cut out only the face area as shown in C, and in between, cut out multiple area images. Then, the first image A is cut out and then reduced slightly to generate a frame H, and the last image C is cut out and then greatly enlarged to generate a frame H. Further, the plurality of cut-out images including the mouth between them are appropriately reduced/enlarged by 11 to generate frames of the same size as E and H. The cuts from E to B of these frames are the cuts specified by the user. One point of the X mark in image C is also shown at the position of the X mark in frame E and frame H.

第1図は、本発明の一実施例を示す動画像情報生成シス
テムの構成図である。
FIG. 1 is a block diagram of a moving image information generation system showing an embodiment of the present invention.

第1図において、101は動画像情報を生成、修正、定
義するための演算処理装置、102は動画像カットデー
タ、処理中データ等を格納する主記憶装置、103はボ
インティング入力装置であるマウス、104はビットマ
ツプ・デイスプレィ等の表示装置、110は磁気ディス
ク等の補助記憶装置である。ディスク装置110は、プ
ログラム格納領域111、本発明の動画像情報生成に使
用する原画像のデータファイル112、本発明の動画像
情報生成により作成されるカット生成コマンド格納領域
113、および本発明の動画像情報生成で作成するカッ
トの画像データファイル領域114を含んでいる。
In FIG. 1, 101 is an arithmetic processing unit for generating, modifying, and defining moving image information, 102 is a main storage device for storing moving image cut data, data being processed, etc., and 103 is a mouse, which is a pointing input device. , 104 is a display device such as a bitmap display, and 110 is an auxiliary storage device such as a magnetic disk. The disk device 110 includes a program storage area 111, an original image data file 112 used for generating moving image information according to the present invention, a cut generation command storage area 113 created by generating moving image information according to the present invention, and a storage area 113 for storing a cut generation command used for generating moving image information according to the present invention. It includes an image data file area 114 of a cut created by image information generation.

デイスプレィ104上に映された原画像上で、ユーザが
マウスl○3を用いて第4図のエディタ401によるカ
ットの定義を行うと、演算処理装置101は、その定義
に基づいて第4図のカット生成コマンド403を作成し
、これをカット定義ファイル113に格納する。次に、
このカット定義コマンド403により原画像からカット
を生成した後、生成されたカットをカット画像データフ
ァイル114に格納する。同時に、これを読み出し、デ
イスプレィ104に生成されたカットを再生出力する。
When the user defines a cut using the editor 401 in FIG. 4 using the mouse l○3 on the original image displayed on the display 104, the arithmetic processing unit 101 uses the mouse l○3 to define a cut in the editor 401 shown in FIG. A cut generation command 403 is created and stored in the cut definition file 113. next,
After generating a cut from the original image using the cut definition command 403, the generated cut is stored in the cut image data file 114. At the same time, this is read out and the generated cut is reproduced and output on the display 104.

第2図は、第1図におけるディスク装置に格納されてい
るプログラムの種類とそれらの関係を示す図である。
FIG. 2 is a diagram showing the types of programs stored in the disk device in FIG. 1 and their relationships.

ディスク110内のプログラム格納領域111には、ジ
ョブ制御プログラム201以下の複数のプログラムが格
納されている。ジョブ制御プログラム201は、各処理
プログラムの実行を制御する機能を有し、エディタプロ
グラム202はユーザが本発明の方法で作成するカット
の定義を行うだめのマンマシン・インタフェース(ユー
ザと計算機間の対話環境)である。画像表示プログラム
203は、エディタプログラム202の要求に応じて表
示装置104上に画像を表示する機能を有し、コマンド
作成プログラム204は、エディタプログラム202の
出力に応じてカット生成コマンドを作成する機能を有す
る。また、動画像生成制御プログラム205は、本発明
の方法でカットデータを作成するための下位のプログラ
ムを制御する機能を有し、コマンド解析プログラム20
6は、カット生成コマンドを解析する機能を有し、画像
切り出しプログラム207は、画像データの指定された
領域を切り出す機能を有し、画像サイズ変換プログラム
208は、画像の大きさを拡大・縮小する機能を有して
いる。さらに、カーネル部209は、以上の各プログラ
ムがファイルシステム210をアクセスする際に用いる
システムコールを提供する機能を有する。つまり、ファ
イルシステム210に対して読み書き動作を与えるオペ
レーティングシステム(○S)であって、この部分は既
存の機能である。
A program storage area 111 in the disk 110 stores a plurality of programs starting from the job control program 201. The job control program 201 has the function of controlling the execution of each processing program, and the editor program 202 is a man-machine interface (interaction between the user and the computer) through which the user defines the cuts to be created by the method of the present invention. environment). The image display program 203 has a function of displaying an image on the display device 104 in response to a request from the editor program 202, and the command creation program 204 has a function of creating a cut generation command in response to the output of the editor program 202. have Furthermore, the moving image generation control program 205 has a function of controlling lower-level programs for creating cut data using the method of the present invention, and the command analysis program 205
6 has a function of analyzing a cut generation command, an image cutting program 207 has a function of cutting out a specified area of image data, and an image size conversion program 208 enlarges or reduces the size of the image. It has a function. Furthermore, the kernel unit 209 has a function of providing system calls used when each of the above programs accesses the file system 210. That is, it is an operating system (○S) that provides read/write operations to the file system 210, and this part is an existing function.

第3図は、本発明の一実施例を示す動画像情報生成の全
体処理のフローチャートである。
FIG. 3 is a flowchart of the overall process of generating moving image information, showing one embodiment of the present invention.

第3図の詳細動作を、第1図のハードウェア構成、第2
図のプログラム構成、および第4図の処理の流れをそれ
ぞれ参照しながら説明する。
The detailed operation in Figure 3, the hardware configuration in Figure 1, and the
This will be explained with reference to the program configuration shown in the figure and the processing flow shown in FIG. 4, respectively.

先ず、ステップ301では、ユーザは本発明による動画
像生成システムを起動する。これにより、演算処理装置
101はジョブ制御プログラム201をディスク装置1
10のプログラム格納領域111から読み込んで、主記
憶装置102上に書き込む。ジョブ制御プログラム20
1は、ステップ302〜304を実行するために、エデ
ィタプログラム202を起動する。
First, in step 301, the user activates the moving image generation system according to the present invention. As a result, the arithmetic processing unit 101 transfers the job control program 201 to the disk device 1.
10 is read from the program storage area 111 and written onto the main storage device 102. Job control program 20
1 starts the editor program 202 to execute steps 302-304.

次に、ステップ302では、ユーザからの指示により本
発明の動画像生成方法で原画像となる画像が選択される
と、画像表示プログラム203がそのデータを原画像デ
ータファイル領域112から読み出して表示装置104
の画面に表示する。
Next, in step 302, when an image to be an original image is selected by the moving image generation method of the present invention according to an instruction from the user, the image display program 203 reads the data from the original image data file area 112 and displays it on the display device. 104
displayed on the screen.

ステップ303では、ユーザがマウス103等の入力装
置を用いて、エディタプログラム202に対して作成す
るカットの定義を行う。第4図では、枠401の処理に
相当する。
In step 303, the user defines a cut to be created for the editor program 202 using an input device such as the mouse 103. In FIG. 4, this corresponds to the processing in frame 401.

ステップ304では、コマンド作成プログラム204を
起動して、ステップ303でユーザが入力したカットの
定義に基づいて作成する全てのフレームについて、原画
像から切り出す位置を割り出し、カット生成コマンドを
作成する。第4図では、矢印402に相当し、枠403
内のカット生成コマンにを作成する。
In step 304, the command creation program 204 is activated, and for all frames to be created based on the cut definition input by the user in step 303, positions to cut out from the original image are determined, and cut creation commands are created. In FIG. 4, it corresponds to the arrow 402 and the frame 403
Create a cut in the cut generation command.

ステップ302〜304の処理が終了すると、ジョブ制
御プログラム201は動画像生成制御プログラム205
を起動し、ステップ304でコマンド作成プログラム2
04が作成したカット生成コマンド403を動画像生成
制御プログラム205に渡す。これ以降のステップ30
5〜309は、動画像生成*J’liプログラム205
により制御される。
When the processing in steps 302 to 304 is completed, the job control program 201 is transferred to the moving image generation control program 205.
Start the command creation program 2 in step 304.
The cut generation command 403 created by 04 is passed to the moving image generation control program 205. Step 30 after this
5 to 309 are moving image generation*J'li programs 205
controlled by

ステップ305では、コマンド解析プログラム206を
起動してカット生成コマンド403を解析し、作成する
フレームの枚数Nを取得する。
In step 305, the command analysis program 206 is activated to analyze the cut generation command 403 and obtain the number N of frames to be created.

ステップ306では、N枚のフレームを作成したか否か
を判定する処理であって、ステップ307〜309はN
@繰り返して実行される。
Step 306 is a process for determining whether N frames have been created, and steps 307 to 309 are processes for determining whether N frames have been created.
@Executed repeatedly.

ステップ307〜309では、カット生成コマンド40
3に記述されたN枚分の画像切り出し情報を順番に処理
していく。第4図における矢印404が、ステップ30
7〜309に相当する。
In steps 307 to 309, the cut generation command 40
The image cutting information for N images described in 3 is sequentially processed. The arrow 404 in FIG.
Corresponds to 7 to 309.

先ず、ステップ307では、画像切り出しプログラム2
07が、現在作成するフレームに該当するカット生成コ
マンド403内の数値により規定される原画像データの
領域を切り出してくる。
First, in step 307, the image cutting program 2
07 cuts out an area of the original image data defined by the numerical value in the cut generation command 403 corresponding to the frame to be currently created.

次に、ステップ308では、画像サイズ変換プログラム
208が、ステップ307で切り出してきた画像を予め
決められている画像サイズに変換する。
Next, in step 308, the image size conversion program 208 converts the image cut out in step 307 to a predetermined image size.

ステップ309では、ステップ308で作成した一定サ
イズの画像データを、カット画像データファイル領域1
14に格納する。
In step 309, the image data of a certain size created in step 308 is transferred to the cut image data file area 1.
14.

動画像生成制御プログラム205が制御するステップ3
06〜309の処理のN回の繰り返しが終了すると、ジ
ョブ制御プログラム201は、カットの作成処理が終了
したことをエディタプログラム202に通知する。エデ
ィタプログラム2゜2は、ステップ310で、作成した
カットを表示するか否かの判断をユーザに問い合わせる
。表示が指示された場合には、ステップ311で、画像
表示プログラム203がフレームデータを連続的にカッ
ト画像データファイル114から読み出して、表示装置
104の画面に表示する。これにより、作成したカット
を表示して、最初に戻り次の画像処理に移る。ステップ
310で、ユーザがカットの表示を指示しないときには
、即座にステップ302に戻る。
Step 3 controlled by the moving image generation control program 205
When the process from 06 to 309 has been repeated N times, the job control program 201 notifies the editor program 202 that the cut creation process has ended. In step 310, the editor program 2.2 inquires of the user whether or not to display the created cut. If display is instructed, in step 311 the image display program 203 continuously reads frame data from the cut image data file 114 and displays it on the screen of the display device 104. This displays the created cut, returns to the beginning, and moves on to the next image processing. If the user does not instruct display of a cut in step 310, the process immediately returns to step 302.

第5図は、本発明の動画像カットエディタの表示例を示
す図である。
FIG. 5 is a diagram showing a display example of the moving image cut editor of the present invention.

表示装置104の画面上には、マウス103の動作に応
じて表示位置が移動するマウスカーソル120が表示さ
れている。また、エディタプログラム202により制御
される動画像カットエディタ401も表示されている。
A mouse cursor 120 whose display position moves according to the movement of the mouse 103 is displayed on the screen of the display device 104 . A moving image cut editor 401 controlled by the editor program 202 is also displayed.

動画像カットエディタ401は、3つの領域501.5
02,503により構成されている。
The video cut editor 401 has three areas 501.5.
02,503.

第1の表示領域501は、原画像表示領域である。原画
像表示領域501には、ステップ302でユーザにより
選択された原画像が、画像表示プログラム203により
原画像データファイル領域112から読み出されて表示
される。原画像として、画素数の多い高精細画像を使用
する場合には、原画像表示領域501の画像を縮小して
表示するか、あるいは原画像表示領域501内で原画像
をスクロールできるようにして、その一部分のみを表示
する。
The first display area 501 is an original image display area. In the original image display area 501, the original image selected by the user in step 302 is read out from the original image data file area 112 by the image display program 203 and displayed. When using a high-definition image with a large number of pixels as the original image, the image in the original image display area 501 is reduced and displayed, or the original image can be scrolled within the original image display area 501. Display only part of it.

第2の表示領域502は、動画像表示領域である。この
動画像表示領域502には、ステップ301で実行され
るカットの表示を、画像表示プログラム203がカット
画像データファイル領域114から連続的にフレーム画
像データを読み出し、動画像として表示する。
The second display area 502 is a moving image display area. In this moving image display area 502, the image display program 203 continuously reads frame image data from the cut image data file area 114 and displays the cut executed in step 301 as a moving image.

第3の表示領域503は、カットアイコン表示領域であ
る。カットアイコン表示領域503には、ステップ30
3でユーザが定義したカットを可視化するためのアイコ
ンを表示している。
The third display area 503 is a cut icon display area. Step 30 is displayed in the cut icon display area 503.
In step 3, icons for visualizing cuts defined by the user are displayed.

原画像表示領域501内には、マウスカーソル120に
追従して、その領域内でその表示位置を移動することが
可能な原画像切出し枠504が表示される。原画像切出
し枠504の大きさと、原画像表示領域501内での表
示位置を決定し、マウス103のボタンをクリックする
ことにより。
In the original image display area 501, an original image cutting frame 504 whose display position can be moved within the area by following the mouse cursor 120 is displayed. By determining the size of the original image cutting frame 504 and the display position within the original image display area 501, and clicking the button of the mouse 103.

カット内の指定されたフレームの構図が指定される。そ
してこの構図は、原画像切出し枠504内に表示されて
いる領域の内容が拡大ないし縮小されたものとして指定
される。
The composition of the specified frame within the cut is specified. This composition is specified as an enlarged or reduced content of the area displayed within the original image cutting frame 504.

本実施例のカットアイコン表示領域503には、カット
開始構図アイコン505とカット終了構図アイコン50
6との組が複数組表示されている。
The cut icon display area 503 of this embodiment includes a cut start composition icon 505 and a cut end composition icon 50.
Multiple pairs with 6 are displayed.

これらのアイコンの組表示は、画像表示プログラム20
3が、ユーザにより定義されたカットの最初のフレーム
と最後のフレームの構図をそれぞれ縮小して、アイコン
として表示したものである。
These icon sets are displayed using the image display program 20.
3 shows the compositions of the first frame and last frame of the cut defined by the user, each reduced in size and displayed as an icon.

これらのアイコン上にマウスカーソル120を移動して
、マウスボタンを押すことにより、そのアイコンが表現
するカットの定義内容を変更したり、カットを動画像表
示領域502内にこれを表示させるための指示の操作を
行う。
By moving the mouse cursor 120 over these icons and pressing the mouse button, instructions are given to change the definition of the cut represented by the icon or to display the cut in the video display area 502. Perform the following operations.

また、ユーザが複数のカットを定義したため、カットア
イコン表示領域503中にアイコン505.506の組
の全体が表示できない場合には、表示領域503の表示
内容をスクロールできるようにして、ユーザが定義した
全てのカットについてアイコンで操作できるようにして
いる。
In addition, if the entire set of icons 505 and 506 cannot be displayed in the cut icon display area 503 because the user has defined multiple cuts, the display contents of the display area 503 can be scrolled and the user has defined multiple cuts. All cuts can be operated using icons.

第6図は、ユーザによるカット定義処理の流れを示すフ
ローチャートである。
FIG. 6 is a flowchart showing the flow of cut definition processing by the user.

ユーザは、動画像カットエディタ401上でカットの定
義ステップ303の処理を実行する。
The user executes the cut definition step 303 on the video cut editor 401.

先ず、ステップ601では、定義するカットの開始フレ
ームの構図を指定する。これは、原画像切出し枠504
の大きさと、M画像表示領域501内での表示位置を決
めた上で、マウス103のボタンをクリックすることに
より行われる。この時点で、カットアイコン表示領域5
03には、カット開始構図アイコン505が画像表示プ
ログラム203により表示される。
First, in step 601, the composition of the start frame of the cut to be defined is specified. This is the original image cropping frame 504
This is done by clicking a button on the mouse 103 after determining the size and display position within the M image display area 501. At this point, the cut icon display area 5
03, a cut start composition icon 505 is displayed by the image display program 203.

ステップ602では、ステップ601と同じ方法で、定
義するカットの終了フレームの構図を指定する。その時
点で、カットアイコン表示領域503には、カット終了
構図アイコン506が画像表示プログラム203により
表示される。
In step 602, the composition of the end frame of the cut to be defined is specified using the same method as in step 601. At that point, a cut end composition icon 506 is displayed in the cut icon display area 503 by the image display program 203.

ステップ602では、ステップ601と同じ方法で、定
義するカットの終了フレームの構図を指定する。その時
点で、カットアイコン表示領域503には、カット終了
構図アイコン506が画像表示プログラム203により
表示される。
In step 602, the composition of the end frame of the cut to be defined is specified using the same method as in step 601. At that point, a cut end composition icon 506 is displayed in the cut icon display area 503 by the image display program 203.

第7図(a)〜(d)は、第6図におけるカット定義時
の支援機能(枠のサイズ変更、フレーム数指定等)を示
す説明図である。
FIGS. 7(a) to 7(d) are explanatory diagrams showing support functions (change of frame size, frame number designation, etc.) during cut definition in FIG. 6.

g画像切出し枠504のサイズを変更する場合には、第
7図(a)に示すように、その中心点を移動することに
より設定する。B!1(a)では、中心点をマウスカー
ソル120の表示位置としている。
When changing the size of the g-image cutting frame 504, the size is set by moving its center point, as shown in FIG. 7(a). B! 1(a), the center point is the display position of the mouse cursor 120.

中心点とは、厳密に切り出し画像の中心位置にあるので
なく、原画像切出し枠504のサイズを図中の枠504
aに変更した際に、マウスカーソル120の位置と枠5
04の各頂点とを結ぶ直線700a〜700dの上に、
枠504aの各頂点が来るような点である。
The center point does not mean strictly the center position of the cropped image, but rather the size of the original image cropping frame 504 is defined as the frame 504 in the figure.
When changing to a, the position of the mouse cursor 120 and frame 5
On the straight lines 700a to 700d connecting each vertex of 04,
These are the points where each vertex of the frame 504a falls.

ステップ603では、定義するカット内のフレーム数を
指定する。この指定は、ユーザにキーボードからの数値
入力を促すことにより行うが、あるいは第7rjgJ(
b)に示すように、スライドボリューム701を表示装
置104の画面上に表示して、マウスカーソル120の
位置を移動させて行うことができる。すなわち、ユーザ
は、スライドボリューム701のっまみ702上にマウ
スカーソル120を移動し、マウスボタンを押しながら
マウス103を横方向に移動させることにより、つまみ
702を所望の数値の位置まで移動した後、マウスボタ
ンを解放することにより、数値を入力することができる
In step 603, the number of frames within the cut to be defined is specified. This designation can be done by prompting the user to enter a numerical value from the keyboard, or by
As shown in b), this can be done by displaying the slide volume 701 on the screen of the display device 104 and moving the position of the mouse cursor 120. That is, the user moves the mouse cursor 120 onto the knob 702 of the slide volume 701, moves the mouse 103 horizontally while holding down the mouse button, and then moves the knob 702 to the desired numerical value position. By releasing the mouse button, a numerical value can be entered.

ステップ604では、カットを定義するために指示する
ことが必要な項目を選択する。
In step 604, items that need to be specified in order to define a cut are selected.

なお、ステップ604で未だ選択されていない項目につ
いては、予め計算機側で用意されているデフォルト値が
設定されるようになっている。デフォルト値としては、
例えば、枠位置経路(605)では、ステップ601で
指定された開始フレームとの間を結ぶ直線とし、枠位置
移動速度係数(606)および枠サイズ変化速度係数(
607)では、一定の速度とすることができる。従って
、ステップ605〜607の処理は、既に設定されてい
る値を変更する場合の処理である。なお、枠位置移動速
度係数とは、順次切り出す画像枠の前の画像位置から該
当画像位置までの距離の移動率のことであり、カメラで
画像位置を順次追跡移動させる場合を想定したカメラの
移動速度の係数である。また、枠サイズ変化速度係数と
は、前の画像の切り出しサイズに対する該当画像の切り
出しサイズの割合が変化する率のことであり、この場合
にもカメラで変化した画像サイズを順次追跡する際のカ
メラの速度の変化係数である。
Note that for items that have not yet been selected in step 604, default values prepared in advance on the computer side are set. The default value is
For example, the frame position path (605) is a straight line connecting the start frame specified in step 601, and the frame position movement speed coefficient (606) and the frame size change speed coefficient (
607), the speed can be constant. Therefore, the processes in steps 605 to 607 are processes for changing already set values. Note that the frame position movement speed coefficient is the movement rate of the distance from the previous image position of the image frame to be sequentially cut out to the corresponding image position, and is the movement rate of the camera assuming that the image position is sequentially tracked and moved by the camera. is the speed coefficient. In addition, the frame size change speed coefficient is the rate at which the ratio of the cropping size of the corresponding image to the cropping size of the previous image changes. is the coefficient of change in velocity.

ステップ604で、原画像切出し枠504の位置の経路
指定が選択されると、ステップ605が実行される。ス
テップ605の一例としては、ユーザがマウス103の
ボタンを押しながらマウスカーソル120を移動して、
その移動経路を原画像切出し枠504の位置の経路とす
る方法がある。
When the route specification for the position of the original image cutting frame 504 is selected in step 604, step 605 is executed. As an example of step 605, the user moves the mouse cursor 120 while holding down the button on the mouse 103,
There is a method in which the movement path is set as the path of the position of the original image cutting frame 504.

なお、原画像切出し枠504の位置の経路とは、中心点
がたどる経路のことであって、本実施例では、中心点は
マウスカーソル120の表示位置である。
Note that the path of the position of the original image cutting frame 504 is the path followed by the center point, and in this embodiment, the center point is the display position of the mouse cursor 120.

次に、ステップ604で、原画像切出し枠504の表示
位置の移動速度係数指定が選択されると、ステップ60
6が実行される。ステップ606の一例としては、第7
図(C)に示すように、横軸にフレーム番号、縦軸に原
画像切出し枠504の移動速度係数をとったグラフ70
3を表示して、ユーザがマウスカーソル120を操作し
てグラフの形状を変更することにより指定する方法があ
る。
Next, in step 604, when the movement speed coefficient designation of the display position of the original image cropping frame 504 is selected, step 604
6 is executed. As an example of step 606, the seventh
As shown in Figure (C), a graph 70 in which the horizontal axis is the frame number and the vertical axis is the moving speed coefficient of the original image cropping frame 504
3 is displayed and the user operates the mouse cursor 120 to change the shape of the graph.

また、別の例としては、第7図(d)に示すように、グ
ラフ704の形状をパターン化して用意しておき、それ
を適用する方法がある。図(iでは、グラフ704で示
すようなカットの開始と終了フレームの近辺では移動速
度が遅く、カットの中心付近では移動速度が速い。さら
に、−旦用意されているグラフの形状を設定した後、そ
れを部分的に変更することも可能である。
Further, as another example, as shown in FIG. 7(d), there is a method in which the shape of the graph 704 is prepared as a pattern and the pattern is applied. In Figure (i), the movement speed is slow near the start and end frames of the cut, as shown by graph 704, and the movement speed is fast near the center of the cut. , it is also possible to partially change it.

次に、ステップ604で、原画像切出し枠504のサイ
ズの変化速度係数指定が選択されると、ステップ607
が実行される。ステップ607は、ステップ606と同
じように、第7図(C)のグラフの縦軸を枠サイズ変化
速度係数とすることにより、ステップ605と同じよう
に行うことができる。
Next, in step 604, when the change speed coefficient designation of the size of the original image cropping frame 504 is selected, step 607
is executed. Step 607 can be performed in the same manner as step 605 by setting the vertical axis of the graph in FIG. 7(C) as the frame size change speed coefficient, as in step 606.

また、次のようにすれば、ステップ605〜607の指
定を一度で行うことができる。すなわち、ステップ60
1で実行した開始フレームの構図指定と同じ方法で、複
数のフレームを指示できるようにし、各々に対してカッ
ト内のフレーム番号を指定できるようにする。この場合
には、指定されたフレーム間を、経路については直線、
変化係数については一定として、それぞれ設定できる。
Further, by doing as follows, steps 605 to 607 can be specified at once. That is, step 60
In the same way as specifying the composition of the start frame executed in step 1, multiple frames can be specified, and the frame number within the cut can be specified for each frame. In this case, the route between the specified frames is a straight line,
The change coefficients can be set as constant.

さらに、スプライン関数等で処理することにより、滑ら
かな曲線になるようにして、フレーム間の変化を滑らか
にすると、作成したカットを再生した場合にも滑らかな
動きになる。
Furthermore, by processing with a spline function or the like to create a smooth curve and smoothing the changes between frames, the created cut will have smooth movement when played back.

複数のフレームの構図を決定する場合には、先ずユーザ
はフレーム番号を指定し、現在の設定値でそのフレーム
番号時のサイズと表示位置の原画像切出し枠504を表
示する。ユーザは、表示された枠のサイズと表示位置を
修正することにより、そのフレーム番号時の構図を決め
ることも可能である9なお、フレーム番号から原画像切
出し枠504のサイズと表示位置を計算する方法につい
ては、コマンド作成プログラム204がステップ304
を実行する方法について説明するときに、同時に説明す
る。
When determining the composition of a plurality of frames, the user first specifies a frame number, and displays the original image cropping frame 504 of the size and display position at that frame number using the current setting values. The user can also decide the composition for that frame number by modifying the size and display position of the displayed frame.9 Note that the size and display position of the original image cropping frame 504 are calculated from the frame number. In the method, the command creation program 204 performs step 304.
I will explain this at the same time as I explain how to execute it.

第8図は、本発明におけるカット定義テーブルを示す図
であって、(a)は原画像切出し枠管環テーブル、(b
)は経路管理テーブル、(c)は移動速度係数管理テー
ブル、(d)は枠サイズ変化速度係数管理テーブル、(
e)はデータ管理テーブルである。
FIG. 8 is a diagram showing a cut definition table in the present invention, in which (a) is an original image cutting frame pipe ring table, (b)
) is a route management table, (c) is a movement speed coefficient management table, (d) is a frame size change speed coefficient management table, (
e) is a data management table.

第8図(a)〜(e)により、第3図のステップ303
でユーザがカットを定義することにより生成され、値が
設定される各種のカット定義テーブルについて説明する
。本実施例で用いる座標系は、原画像の左下隅の点を原
点とする座標系であり、原画像の画素単位のものである
According to FIGS. 8(a) to 8(e), step 303 in FIG.
The following describes various cut definition tables that are generated when the user defines a cut and have values set therein. The coordinate system used in this embodiment is a coordinate system whose origin is the lower left corner point of the original image, and is in units of pixels of the original image.

第8図(a)において、801は原画像切出し枠管環テ
ーブル、802はフレーム番号、803は各フレームの
中心点座標値、804は枠サイズ、805は中心点オフ
セット値である。フレーム番号802は、1からカット
内のフレーム枚数番号まで登録される。中心点オフセッ
ト値とは、中心点の原画像切出し枠504の左下隅から
のオフセット座標値を枠504のサイズで正規化したも
のである。すなわち、枠504の座標値が(X、Y)の
時には、次のようになる。
In FIG. 8(a), 801 is an original image cutting frame ring table, 802 is a frame number, 803 is a center point coordinate value of each frame, 804 is a frame size, and 805 is a center point offset value. Frame numbers 802 are registered from 1 to the number of frames in the cut. The center point offset value is the offset coordinate value of the center point from the lower left corner of the original image cutting frame 504, normalized by the size of the frame 504. That is, when the coordinate values of the frame 504 are (X, Y), the following results.

a=(xc−X)/w  ;b=(yc−Y)/h・・
・・・・(1) これを第11図(C)で詳述すると、枠504が最初に
切り出される画像イ、原画像を二とすると、第8図(a
)に示すように、フレーム番号1の中心点座標値、つま
り原画像の左隅(座標0.O)がら計算した場合のX印
の位置の座標値はXC++yC+、枠サイズはw、、 
h、であるから、中心点オフセット、つまり切り出し画
像イの左隅を座標X、Yとしたときの中心からのずれ率
は、XCからXを差引いた値をwlで割算した値と、y
C+からYを差引いた値をり、で割算した値である。
a=(xc-X)/w; b=(yc-Y)/h...
...(1) To explain this in detail with reference to FIG. 11(C), if the frame 504 is the first cut out image A and the original image is 2, then FIG. 8(a)
), the coordinates of the center point of frame number 1, that is, the coordinates of the position of the X mark when calculated from the left corner of the original image (coordinates 0.0), are XC++yC+, and the frame size is w.
h, so the center point offset, that is, the deviation rate from the center when the left corner of the cropped image A is the coordinates X and Y, is the value obtained by subtracting X from XC divided by wl, and y
It is the value obtained by subtracting Y from C+ divided by .

原画像切出し枠管環テーブル801は、第6図における
ステップ603でフレーム数が判明した時に初期化され
、ステップ601の結果が第1エントリに、ステップ6
02の結果が最終エントリに書き込まれる。また、ステ
ップ604〜607の処理を、特定フレームの構図を指
定することにより行った場合には、指定されたフレーム
番号に対応するエントリに書き込まれる。
The original image cutting frame ring table 801 is initialized when the number of frames is found in step 603 in FIG.
The result of 02 is written to the final entry. In addition, when the processing in steps 604 to 607 is performed by specifying the composition of a specific frame, it is written in the entry corresponding to the specified frame number.

第8図(b)において、811は経路管理テーブルの内
容、812は頂点数、813は経路の頂点座標値(xp
、yp)、814はその次にエントリされた頂点との間
の距離である。経路管理テーブル811の最初のエント
リは、ステップ601で開始フレームの構図が指定され
た時の中心点の座標値であり、実施例では、マウスカー
ソル120の表示位置と同じ座標値である。また、最後
のエントリは、ステップ602の最終フレームの構図が
指定された時の中心点の座標値である。
In FIG. 8(b), 811 is the content of the route management table, 812 is the number of vertices, and 813 is the vertex coordinate value of the route (xp
, yp), 814 is the distance between the vertex entered next. The first entry in the route management table 811 is the coordinate value of the center point when the composition of the start frame is specified in step 601, and in this embodiment, it is the same coordinate value as the display position of the mouse cursor 120. Furthermore, the last entry is the coordinate value of the center point when the composition of the final frame is specified in step 602.

ステップ605で経路を指定することにより、新たに指
定された頂点の数だけ、頂点数812に加算されるとと
もに、頂点座標値813のエントリが増加し、頂点間距
離814の計算をやり直して更新する。
By specifying the route in step 605, the number of newly specified vertices is added to the number of vertices 812, the entry of the vertex coordinate value 813 is increased, and the distance between vertices 814 is recalculated and updated. .

第8図(c)において、821は移動速度係数管理テー
ブルの内容、822はフレーム番号、823は対応する
移動速度係数Vである。移動速度係数管理テーブル82
1は、第6図のステップ6゜3でフレーム数が判明した
時点で初期化され、デフォルト値として、一定速度で枠
の移動を行う実施例の場合には、移動速度係数823に
は全て同じ値が書き込まれる。移動速度係数管理テーブ
ル821の内容は、ステップ606により更新される。
In FIG. 8(c), 821 is the content of the moving speed coefficient management table, 822 is the frame number, and 823 is the corresponding moving speed coefficient V. Movement speed coefficient management table 82
1 is initialized when the number of frames is determined in step 6.3 of FIG. The value is written. The contents of the movement speed coefficient management table 821 are updated in step 606.

第8図(d)において、831は枠サイズ変化速度係数
管理テーブルの内容、832はフレーム番号、833は
対応する枠サイズ変化速度係数2である。枠サイズ変化
速度係数管理テーブル831は、第6図のステップ60
3でフレーム数が判明した時点で初期化され、デフォル
トとして一定速度で枠サイズの変更を行う場合には、枠
サイズ変化速度係数833に全て同一の値が書き込まれ
る。
In FIG. 8(d), 831 is the content of the frame size change speed coefficient management table, 832 is the frame number, and 833 is the corresponding frame size change speed coefficient 2. The frame size change speed coefficient management table 831 is created at step 60 in FIG.
3, when the number of frames is known, and when the frame size is changed at a constant speed as a default, the same value is written in the frame size change speed coefficient 833.

枠サイズ変化速度係数管理テーブル831の内容は、ス
テップ607により更新される。
The contents of the frame size change speed coefficient management table 831 are updated in step 607.

第8図(e)において、841はデータ管理テーブルの
内容であり、842は経路総距離りであって、経路管理
テーブル811の頂点間距離814を加え合わせた値で
ある。また、843は移動速度母数Vであって、移動速
度係数管理テーブル821の移動速度係数823を加え
合わせた値である。また、844は枠サイズ変化速度母
数Zであって、枠サイズ変化速度係数833を加え合わ
せた値である。
In FIG. 8(e), 841 is the content of the data management table, and 842 is the total route distance, which is the sum of the distance between vertices 814 of the route management table 811. Further, 843 is a moving speed parameter V, which is the sum of the moving speed coefficients 823 of the moving speed coefficient management table 821. Further, 844 is a frame size change rate parameter Z, which is the sum of the frame size change rate coefficient 833.

これらのカット定義テーブル801〜841は、後述す
るように、第3図のステップ304におけるカット生成
コマンド403を作成する際に必要となるものである。
These cut definition tables 801 to 841 are required when creating the cut generation command 403 in step 304 in FIG. 3, as will be described later.

そして、カットの画像データ作成終了後には、エディタ
プログラム202によってカット生成コマンド403と
ともに、カット定義ファイル領域113に格納される。
After the cut image data is created, the editor program 202 stores the cut generation command 403 in the cut definition file area 113.

第9図は、本発明におけるカット生成コマンドの内容を
示す図である。
FIG. 9 is a diagram showing the contents of the cut generation command in the present invention.

第9図において、902は原画像の名称、つまり原画像
データファイル領域112内でのファイル名称である。
In FIG. 9, 902 is the name of the original image, that is, the file name within the original image data file area 112.

903はカット内のフレーム数、904はフレーム画像
名称ヘッダ、905はフレーム画像名称開始番号である
。すなわち、作成するカットのフレーム画像データをカ
ット画像データファイル領域114に格納する際に、フ
レーム画像名称開始番号905で始まる通し番号をフレ
ーム画像名称ヘッダ904に付加したものを、ファイル
名称としてして使用することになる。
903 is the number of frames in the cut, 904 is a frame image name header, and 905 is a frame image name start number. That is, when storing frame image data of a cut to be created in the cut image data file area 114, a serial number starting with the frame image name start number 905 is added to the frame image name header 904 and used as the file name. It turns out.

906は、画像切り出しプログラム206が各フレーム
を作成するために原画像から切り出す領域の指定情報(
フレーム番号)であって、例えば原画像の左下隅点を原
点とする座標系による数値である。従って、このフレー
ム番号906は、フレーム数903の数(1〜N)だけ
繰り返し指定される。907は、切り出される領域の左
下隅の座標値(x、y)、908は、切り出される領域
の大きさ(W、H)である。これらの値907,908
は、コマンド作成プログラム204が計算する。その場
合、コマンド作成プログラム204は、原画像切出し枠
管理テーブル801のエントリの中の中心点座標値80
3、枠サイズ804の数値が書き込まれていない箇所を
計算する。
Reference numeral 906 indicates designation information (
(frame number), and is a numerical value based on a coordinate system whose origin is, for example, the lower left corner of the original image. Therefore, this frame number 906 is repeatedly designated as many times as the number of frames 903 (1 to N). 907 is the coordinate value (x, y) of the lower left corner of the region to be cut out, and 908 is the size (W, H) of the region to be cut out. These values 907,908
is calculated by the command creation program 204. In that case, the command creation program 204 uses the center point coordinate value 80 in the entry of the original image cropping frame management table 801.
3. Calculate the areas where the frame size 804 value is not written.

次に、第4図に戻って、Nフレームのカットがカット画
像データファイル114に格納されると、これを直ちに
再生してデイスプレィ画面に表示し、ユーザに確認させ
ることができる。この場合、そのフレームの順番を変更
して連続的に表示することも可能である。そのためには
、カット定義ファイル113に格納されている原画像切
り枠管理テーブル801、経路情報管理テーブル811
、移動速度係数管理テーブル821、枠サイズ変化速度
係数管理テーブル831、およびデータ管理テーブル8
41を参照することにより、フレーム番号の順番を入れ
換えて、それぞれの情報を読み出し、それに従ってカッ
ト画像データファイル114から該当画像を取り出して
表示すればよい。
Next, returning to FIG. 4, once the cut of N frames is stored in the cut image data file 114, it can be immediately played back and displayed on the display screen for the user to confirm. In this case, it is also possible to change the order of the frames and display them continuously. For this purpose, the original image cutting frame management table 801 and the route information management table 811 stored in the cut definition file 113 are required.
, movement speed coefficient management table 821, frame size change speed coefficient management table 831, and data management table 8
41, the order of the frame numbers can be changed, the respective information can be read out, and the corresponding image can be taken out and displayed from the cut image data file 114 accordingly.

第10図は、本発明におけるカット生成コマンド生成時
の実行数処理フローチャートであり、第12図は、第1
0図の補助説明図である6本実施例では、カットの開始
フレームと終了フレーム以外のフレームの中間点座標値
(つまり、中心点座標値803)が求められていない場
合の処理である。そして、ここでは中心点座標値803
を、経路情報管理テーブル811の内容と移動速度係数
管理テーブル821の内容とに従って計算するためのス
テップが示される。開始フレームと終了フレーム以外の
フレームの中間点座標値803が求められている場合に
は、そのフレームでカットが区切られているものとして
、第1O図を用いて中心点座標値を計算することができ
る。
FIG. 10 is a flowchart for processing the number of executions when generating a cut generation command according to the present invention, and FIG.
6, which is an auxiliary explanatory diagram of FIG. 0, is a process performed when the intermediate point coordinate value (that is, the center point coordinate value 803) of frames other than the start frame and end frame of the cut is not determined. And here, the center point coordinate value 803
, according to the contents of the route information management table 811 and the contents of the moving speed coefficient management table 821. If the midpoint coordinate value 803 of a frame other than the start frame and the end frame is calculated, the center point coordinate value can be calculated using Fig. 1O, assuming that the cut is separated by that frame. can.

第12図で、破線のpは移動距離、実線のrは折れ線セ
グメントの残りの長さである。
In FIG. 12, the broken line p is the moving distance, and the solid line r is the remaining length of the polyline segment.

先ず、ステップ1001では変数r、m、nの初期化処
理が示されているお二二で、rは折れ線セグメントの残
りの長さ、mは折れ線セグメント上の該当する番号、n
はフレームカウンタの値、つまりフレームの番号である
First, step 1001 shows the initialization process of variables r, m, and n, where r is the remaining length of the polyline segment, m is the corresponding number on the polyline segment, and n
is the frame counter value, that is, the frame number.

次のステップ1002では、カット内の全フレームの中
心点座標値803を求めるための繰り返し処理が示され
ており、フレーム番号nが全フレーム数Nに等しくなる
まで同一処理を繰り返す。
The next step 1002 shows an iterative process for determining the center point coordinate values 803 of all frames in the cut, and the same process is repeated until the frame number n becomes equal to the total number N of frames.

また、ステップ1003では、変数p(移動距離)にn
枚目のフレームの中心点と(n−1)枚目のフレームの
中心点との間の距離を計算して代入する処理、つまり総
距離りに移動速度係数/移動速度母数を乗算した値をp
とする処理が示される。
Also, in step 1003, the variable p (movement distance) is set to n.
The process of calculating and substituting the distance between the center point of the th frame and the center point of the (n-1)th frame, that is, the value obtained by multiplying the total distance by the movement speed coefficient / movement speed parameter p
The processing to do this is shown.

また、ステップ1004では、n枚目のフレームの中心
点が経路の(m+1)番目の折れ線セグメント上にない
ことを判定する処理が示される。すなわち、第12図の
移動距離pが折れ線セグメントの残りの長さrよりも大
きいか否かを判定している。次に、ステップ1005で
は、ステップ1004で(m+1)番目の折れ線セグメ
ント上にないと判断された場合に、(m+1)番目の折
れ線セグメントの残りの長さrを移動距離pから差し引
く処理が示される。ステップ1006では、経路上の次
のセグメントに進む処理が示されている。次に、ステッ
プ1007では、求めようとしている中心点がその折れ
線セグメント上にないことを判定する処理が示される。
Further, step 1004 shows a process of determining that the center point of the nth frame is not on the (m+1)th polygonal line segment of the route. That is, it is determined whether the moving distance p in FIG. 12 is greater than the remaining length r of the polygonal line segment. Next, in step 1005, when it is determined in step 1004 that the line segment is not on the (m+1)th line segment, a process of subtracting the remaining length r of the (m+1)th line segment from the moving distance p is shown. . Step 1006 shows the process of proceeding to the next segment on the route. Next, in step 1007, a process is shown in which it is determined that the center point to be determined is not on the polygonal line segment.

すなわち、移動距離pが経路情報管理テーブル811の
頂点間距離dmより大きいか否かを判定しており、pが
dmより小さい場合に、中心点座標を算出する。また、
pがdmより大きい場合には、ステップl 008で移
動距離pからその折れ線セグメントの長さdmを差し引
いて、ステップ1006から繰り返し行う。
That is, it is determined whether the moving distance p is larger than the inter-vertex distance dm of the route information management table 811, and if p is smaller than dm, the center point coordinates are calculated. Also,
If p is larger than dm, the length dm of the polyline segment is subtracted from the moving distance p in step 1008, and the process is repeated from step 1006.

ステップ1007で、求めようとしている中心点が折れ
線セグメント上にあれば、その折れ線セグメントの残り
の長さrをステップl 009で求めて、中心点座標(
Xn、 Yn)をステップ1010で求める。
In step 1007, if the center point to be determined is on the polyline segment, the remaining length r of the polyline segment is determined in step l009, and the center point coordinates (
Xn, Yn) are determined in step 1010.

ステップl 004で求めようとする中心点がその折れ
線セグメント上にあれば、ステップ1012で、その折
れ線セグメントの残りの長さrを計算して、ステップ1
010で中心点座標を求める。
If the center point to be determined in step l004 is on the polyline segment, the remaining length r of the polyline segment is calculated in step 1012, and
Find the center point coordinates at 010.

中心点座標のXn、Ynは、それぞれステップ1012
.1009で求めた折れ線セグメントの残りの長さrを
セグメントの長さdmから差し引いたものをdmで割り
算した値(セグメントの長に対する比率)を、頂点座標
値の差に乗算して、前の座標値に加えることにより求め
られる。
The center point coordinates Xn and Yn are determined in step 1012, respectively.
.. The difference in vertex coordinate values is multiplied by the value obtained by subtracting the remaining length r of the polyline segment obtained in step 1009 from the segment length dm and dividing by dm (ratio to the segment length). It is found by adding it to the value.

次に、ステップ1011で、フレームカウンタnの値を
1だけ増加してステップ1002に戻る。
Next, in step 1011, the value of the frame counter n is increased by 1, and the process returns to step 1002.

また、枠サイズ804を、次式により計算する。Furthermore, the frame size 804 is calculated using the following formula.

Wn=Wn−、+ (WN−W l ) ・z n /
 ZHn=H,、+(HN−Hl) ・zn/Z・ ・
 ・(2) 上式(2)を求めるには、枠サイズ変化速度係数管理テ
ーブル831とデータ管理テーブル841を参照すれば
よい。すなわち、サイズ変化速度母数Zとサイズ変化速
度係数Znから変化率を求め、最終切り出し画像の幅W
Nから最初の切り出し画像の幅W1を差し引いた値にこ
れを乗算し、前の画像の幅に加えればよい。高さについ
ても、同じようにして求める。
Wn=Wn-, + (WN-W l ) z n /
ZHn=H,, +(HN-Hl) ・zn/Z・ ・
(2) To obtain the above equation (2), refer to the frame size change speed coefficient management table 831 and the data management table 841. That is, the change rate is calculated from the size change rate parameter Z and the size change rate coefficient Zn, and the width W of the final cropped image is determined.
The value obtained by subtracting the width W1 of the first cut-out image from N may be multiplied by this value and added to the width of the previous image. Find the height in the same way.

また、中心点オフセット805については、本実施例で
は、枠サイズ804の場合のように変化係数を設定して
いないため、開始フレームと終了フレームにおける値を
使用して線形補間で計算し、値を求める。
Furthermore, in this embodiment, for the center point offset 805, unlike the case of the frame size 804, a change coefficient is not set, so the value is calculated by linear interpolation using the values at the start frame and the end frame. demand.

以上の処理により、原画像切出し枠管環テーブル801
の全てのエントリに数値が書き込まれることになるので
、その後にこれらの数値を参照して、カット生成コマン
ド403のエントリ907と908を次のように計算す
る。
Through the above processing, the original image cutting frame pipe ring table 801
Since numerical values will be written in all the entries, these numerical values are then referred to and the entries 907 and 908 of the cut generation command 403 are calculated as follows.

X=xc−(wXa);Y=yc−(hXb)W=w;
H=h ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・(3
)ここで、(x c r V ”は、該当フレーム番号
の中心点座標値803、(w、h)は該当フレーム番号
の枠サイズ804、(a、b)は該当フレーム番号の中
心点オフセット値805である。
X=xc-(wXa); Y=yc-(hXb)W=w;
H=h ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ (3
) Here, (x cr V ” is the center point coordinate value 803 of the corresponding frame number, (w, h) is the frame size 804 of the corresponding frame number, (a, b) is the center point offset value of the corresponding frame number It is 805.

カット定義ファイル領域113に格納された各種のカッ
ト定義テーブルとカット生成コマンド403は、カット
アイコン表示領域503内に表示されているアイコン5
05,506に対して操作することにより、エディタプ
ログラム202により読み込まれる。
Various cut definition tables and cut generation commands 403 stored in the cut definition file area 113 are stored in the icon 5 displayed in the cut icon display area 503.
05,506, it is read by the editor program 202.

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、高度な技術でカ
メラを操作して撮影した場合と同等の表現力豊かな動画
像を得ることができるとともに、編集作業中にカット構
図や長さが不適切と判明したときには、自由にカットを
作成し直して、直ちにこれを確認することができるので
、全体のシナリオに適したカットを得ることができ、か
つカットをつなぎ合わせて作成した作品の質を向上する
ことが可能である。
As explained above, according to the present invention, it is possible to obtain moving images with rich expressiveness equivalent to those obtained by operating a camera using advanced technology, and also to adjust the cut composition and length during editing work. If something turns out to be inappropriate, you can freely re-create the cut and immediately check this, ensuring that you get a cut that suits the overall scenario and the quality of the piece you create by stitching the cuts together. It is possible to improve

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示す計算機システムの全体
構成図、第2図は第1図における計算機のプログラムの
階層図、第3図は本発明の一実施例を示す動画像生成プ
ログラムの全体処理のフローチャート、第4図は本発明
の処理の流を示す概略図、第5図は動画像カットエディ
タの表示例を示す図、第6図はユーザによるカット定義
処理の流れを示すフローチャート、第7図は本発明にお
けるカット定義時の支援機能を示す図、第8図は本発明
におけるカット定義テーブルを示す図、第9図は本発明
におけるカット生成コマンドの内容を示す図、第10図
は本発明のカット生成コマンド作成時に行われる中心点
座標値計算処理のフローチャート、第11図は第4図の
補助説明図、第12図は第10図の補助説明図である。 101:演算処理装置、1o2:主記憶装置、103:
マウス、104:デイスプレィ装置、110:ディスク
装置、111.プログラム格納領域、112・原画像デ
ータファイル領域、113カツト定義フアイル領域、1
14.カット画像データファイル領域、120:マウス
カーソル、201:ジョブ制御プログラム、202・エ
ディタプログラム、103:画像表示プログラム、20
4:コマンド作成プログラム、205:動画像生成制御
プログラム、206−コマンド解析プログラム、2o7
:画像切出しプログラム、208:画像サイズ変換プロ
グラム、209:カーネル部、210:ファイルシステ
ム、401:動画像カットエディタ、4o3:カット生
成コマンド、501:原画像表示領域、502:動画像
表示領域、503:カットアイコン表示領域、504:
原画像切出し枠、505:カット開始構図アイコン、5
06:カツト終了#4図アイコン、801 :原画像切
出し枠管環テーブル、811:経路情報管理テーブル、
821:移動速度係数管理テーブル、831:枠サイズ
変化速度係数管理テーブル、8第 図 第 第 図 第 図 第 図(その2) (c) 第 図(その1) (a) 第 図(そのl) al 第 図(その2) (c) 第 図 第 図(その3) (e) 第 図(その1) ホ 第 図(その2) cl (XCI +yC1)
Fig. 1 is an overall configuration diagram of a computer system showing an embodiment of the present invention, Fig. 2 is a hierarchical diagram of a computer program in Fig. 1, and Fig. 3 is a moving image generation program showing an embodiment of the present invention. 4 is a schematic diagram showing the processing flow of the present invention, FIG. 5 is a diagram showing a display example of the video cut editor, and FIG. 6 is a flowchart showing the flow of cut definition processing by the user. , FIG. 7 is a diagram showing the support function at the time of cut definition in the present invention, FIG. 8 is a diagram showing the cut definition table in the present invention, FIG. 9 is a diagram showing the contents of the cut generation command in the present invention, and FIG. The figure is a flowchart of the center point coordinate value calculation process performed when creating a cut generation command of the present invention, FIG. 11 is an auxiliary explanatory diagram of FIG. 4, and FIG. 12 is an auxiliary explanatory diagram of FIG. 101: Arithmetic processing unit, 1o2: Main storage device, 103:
Mouse, 104: Display device, 110: Disk device, 111. Program storage area, 112/Original image data file area, 113 Cut definition file area, 1
14. Cut image data file area, 120: Mouse cursor, 201: Job control program, 202/Editor program, 103: Image display program, 20
4: Command creation program, 205: Video generation control program, 206-Command analysis program, 2o7
: image cutting program, 208: image size conversion program, 209: kernel section, 210: file system, 401: moving image cut editor, 4o3: cut generation command, 501: original image display area, 502: moving image display area, 503 :Cut icon display area, 504:
Original image cropping frame, 505: Cut start composition icon, 5
06: Cut end #4 figure icon, 801: Original image cutting frame pipe ring table, 811: Route information management table,
821: Movement speed coefficient management table, 831: Frame size change speed coefficient management table, 8 Figure 8 (Part 2) (c) Figure (Part 1) (a) Figure (Part 1) al Figure (Part 2) (c) Figure (Part 3) (e) Figure (Part 1) Figure E (Part 2) cl (XCI +yC1)

Claims (1)

【特許請求の範囲】 1、動画像情報を形成する複数枚の画像を配列したり、
入れ替えたりして、処理装置で電子的に動画像情報を編
集する方法において、原画像上の任意の異なる領域から
画像を複数枚切り出すように指示されると、上記処理装
置は指定された画像を切り出し、切り出された各画像を
所定の大きさに拡大ないし縮小処理を行い、処理された
画像をフレームとして、該フレームを複数枚連続的につ
なぎ合わせることにより動画像情報を生成することを特
徴とする動画像情報の生成方法。 2、請求項1に記載の動画像情報の生成方法において、
上記処理装置は、作成すべき動画像の最初と最後のフレ
ームを作成するために原画像から切り出す領域と、作成
すべき動画像に含まれるフレーム数とが指定されると、
該領域およびフレーム数に基づいて、連続するフレーム
の切り出し位置を順次決定し、決定された各位置で切り
出し処理を実行して、動画像情報を作成することを特徴
とする動画像情報の生成方法。 3、請求項2に記載の動画像情報の生成方法において、
上記処理装置は、作成する動画像に含まれる任意枚数の
フレームを作成するために、原画像から切り出す領域と
、各領域が作成する動画像の何枚目のフレームであるか
のフレーム番号とを指定することを特徴とする動画像情
報の生成方法。 4、請求項2に記載の動画像情報の生成方法において、
上記処理装置は、最初と最後のフレーム間の切り出し経
路が指定されると、原画像上での画像切り出し領域内の
任意の点の位置を、上記指定された経路に基づいて設定
し、連続するフレームの切り出す位置を順次決定するこ
とを特徴とする動画像情報の生成方法。 5、請求項2に記載の動画像情報の生成方法において、
上記処理装置は、最初と最後のフレーム間の各切り出し
画像の移動率が指定されると、原画像上での画像切り出
し領域内の任意の点の位置を、上記指定された移動率に
基づいて設定し、連続するフレームの切り出す位置を順
次決定することを特徴とする動画像情報の生成方法。 6、請求項2に記載の動画像情報の生成方法において、
上記処理装置は、最初と最後のフレーム間の各切り出し
画像のサイズ変化率が指定されると、原画像上での各画
像の切り出し領域の大きさを、上記指定されたサイズ変
化率に基づいて設定し、連続するフレームの切り出す領
域の大きさを順次決定することを特徴とする動画像情報
の生成方法。 7、請求項2に記載の動画像情報の生成方法において、
上記処理装置は、画像を切り出す領域の大きさが変更さ
れると、原画像上の所定の点が変更により作成された動
画像上の点に常に表示されるように、画像を切り出す領
域の位置を設定することを特徴とする動画像情報の生成
方法。 8、請求項1に記載の動画像情報の生成方法において、
上記処理装置は、指定された動画像情報が生成されると
、生成した動画像情報を即座に、かつ各フレームを連続
して再生することを特徴とする動画像情報の生成方法。 9、請求項8に記載の動画像情報の生成方法において、
上記処理装置は、生成された複数の動画像情報を連続し
て再生する際に、各フレームの順番を変更して再生する
ことを特徴とする動画像情報の生成方法。
[Claims] 1. Arranging a plurality of images forming moving image information,
In a method of electronically editing moving image information using a processing device, when an instruction is given to cut out multiple images from arbitrary different areas on the original image, the processing device cuts out the specified images. It is characterized by cutting out each image, enlarging or reducing each cut-out image to a predetermined size, using the processed images as frames, and generating moving image information by continuously joining a plurality of frames. A method for generating video information. 2. In the method for generating moving image information according to claim 1,
When the area to be cut out from the original image and the number of frames included in the video to be created are specified in order to create the first and last frames of the video to be created, the processing device performs the following steps:
A method for generating moving image information, characterized by sequentially determining cropping positions of consecutive frames based on the area and the number of frames, and performing a cropping process at each determined position to create moving image information. . 3. In the method for generating moving image information according to claim 2,
In order to create an arbitrary number of frames included in the video image to be created, the processing device identifies regions to be cut out from the original image and frame numbers indicating which frame of the video image each region corresponds to. A method of generating moving image information characterized by specifying. 4. In the method for generating moving image information according to claim 2,
When the cropping path between the first and last frame is specified, the processing device sets the position of an arbitrary point within the image cropping area on the original image based on the specified path, and continuously A method for generating moving image information, characterized by sequentially determining positions from which frames are cut out. 5. In the method for generating moving image information according to claim 2,
When the movement rate of each cut-out image between the first and last frames is specified, the processing device determines the position of an arbitrary point within the image cut-out area on the original image based on the specified movement rate. 1. A method of generating moving image information, the method comprising: setting and sequentially determining positions for cutting out consecutive frames. 6. The method for generating moving image information according to claim 2,
When the size change rate of each cropped image between the first and last frames is specified, the processing device calculates the size of the cropped area of each image on the original image based on the specified size change rate. 1. A method for generating moving image information, the method comprising: setting and sequentially determining the size of an area to be cut out for successive frames. 7. The method for generating moving image information according to claim 2,
The processing device positions the area from which the image is to be cut out so that when the size of the area from which the image is cut out is changed, a predetermined point on the original image is always displayed at a point on the moving image created by the change. A method of generating moving image information, the method comprising: setting. 8. The method for generating moving image information according to claim 1,
A method for generating moving image information, characterized in that, when the specified moving image information is generated, the processing device immediately reproduces the generated moving image information and continuously plays each frame. 9. The method for generating moving image information according to claim 8,
A method for generating moving image information, wherein the processing device changes the order of each frame when continuously reproducing the plurality of generated moving image information.
JP2230931A 1990-08-31 1990-08-31 Generating moving images Expired - Lifetime JP3041360B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2230931A JP3041360B2 (en) 1990-08-31 1990-08-31 Generating moving images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2230931A JP3041360B2 (en) 1990-08-31 1990-08-31 Generating moving images

Publications (2)

Publication Number Publication Date
JPH04115674A true JPH04115674A (en) 1992-04-16
JP3041360B2 JP3041360B2 (en) 2000-05-15

Family

ID=16915535

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2230931A Expired - Lifetime JP3041360B2 (en) 1990-08-31 1990-08-31 Generating moving images

Country Status (1)

Country Link
JP (1) JP3041360B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091804A (en) * 1996-09-11 1998-04-10 Sony Miyuujitsuku Entertainment:Kk Recording medium having software
WO2013008379A1 (en) * 2011-07-13 2013-01-17 パナソニック株式会社 Drawing device and method
JP2014093710A (en) * 2012-11-06 2014-05-19 Satoshi Iki Image processor, image processing method, moving image creation method, frame image-for-moving image creation system, moving image creation system and program
JP2015022695A (en) * 2013-07-23 2015-02-02 三菱電機株式会社 User interface simulation device
JP2015179978A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 image processing apparatus, image processing method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54142935A (en) * 1978-04-28 1979-11-07 Toshiba Corp Picture display system
JPS5881064A (en) * 1981-11-06 1983-05-16 任天堂株式会社 Video scroll display apparatus
JPS60143388A (en) * 1983-12-29 1985-07-29 富士通株式会社 Animation display system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS54142935A (en) * 1978-04-28 1979-11-07 Toshiba Corp Picture display system
JPS5881064A (en) * 1981-11-06 1983-05-16 任天堂株式会社 Video scroll display apparatus
JPS60143388A (en) * 1983-12-29 1985-07-29 富士通株式会社 Animation display system

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1091804A (en) * 1996-09-11 1998-04-10 Sony Miyuujitsuku Entertainment:Kk Recording medium having software
WO2013008379A1 (en) * 2011-07-13 2013-01-17 パナソニック株式会社 Drawing device and method
JPWO2013008379A1 (en) * 2011-07-13 2015-02-23 パナソニック株式会社 Drawing apparatus and method
US9426412B2 (en) 2011-07-13 2016-08-23 Panasonic Intellectual Property Management Co., Ltd. Rendering device and rendering method
JP2014093710A (en) * 2012-11-06 2014-05-19 Satoshi Iki Image processor, image processing method, moving image creation method, frame image-for-moving image creation system, moving image creation system and program
JP2015022695A (en) * 2013-07-23 2015-02-02 三菱電機株式会社 User interface simulation device
JP2015179978A (en) * 2014-03-19 2015-10-08 カシオ計算機株式会社 image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP3041360B2 (en) 2000-05-15

Similar Documents

Publication Publication Date Title
US9367942B2 (en) Method, system and software program for shooting and editing a film comprising at least one image of a 3D computer-generated animation
US6873344B2 (en) Media production system using flowgraph representation of operations
US5729673A (en) Direct manipulation of two-dimensional moving picture streams in three-dimensional space
US5619628A (en) 3-Dimensional animation generating apparatus
US7957587B2 (en) Method and system for specifying color of a fill area
US6983420B1 (en) Motion picture information displaying method and apparatus
US8739060B2 (en) Method and system for displaying multiple aspect ratios of a viewport
US9098647B2 (en) Dynamic viewing of a three dimensional space
JP2004523036A (en) Image-based digital representation of landscape
US20100214299A1 (en) Graphical manipulation of chart elements for interacting with chart data
WO2009126748A9 (en) Directing camera behavior in 3-d imaging system
JP2002359777A (en) Time space region information processing method and time space region information processing system
US20050068339A1 (en) Method and system for specifying zoom size
US7050072B2 (en) Method and system for specifying a pan path
US6989848B2 (en) Method and system for specifying zoom speed
JP3116033B2 (en) Video data creation method and video data display method
JPH04115674A (en) Generation of moving picture information
JPH0619663A (en) Automatic control method for multiwindow
JPH02204791A (en) Method for forming animation
US6469702B1 (en) Method and system for editing function curves in two dimensions
JP7320253B2 (en) Storyboard production device and program
GB2397456A (en) Calculation of the location of a region in frames between two selected frames in which region location is defined
JPH11185051A (en) Animation creating device
CN115048008B (en) Method and equipment for visualizing objects in HMI (human machine interface) picture
JPH05232912A (en) Mehtod for displaying contents of moving image

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term