JP2003078880A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program

Info

Publication number
JP2003078880A
JP2003078880A JP2001261877A JP2001261877A JP2003078880A JP 2003078880 A JP2003078880 A JP 2003078880A JP 2001261877 A JP2001261877 A JP 2001261877A JP 2001261877 A JP2001261877 A JP 2001261877A JP 2003078880 A JP2003078880 A JP 2003078880A
Authority
JP
Japan
Prior art keywords
image data
data
frame
image
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001261877A
Other languages
Japanese (ja)
Inventor
Naohiro Koshizaka
直弘 越坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001261877A priority Critical patent/JP2003078880A/en
Publication of JP2003078880A publication Critical patent/JP2003078880A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processor, an image processing method and a program that can relax unnaturalness of a moving picture at fast forward reproduction. SOLUTION: A data extract section 13 extracts image data of a prescribed number of frames from a series of frame image data configuring a moving picture at a prescribed frame interval, a data composite section 14 composes the extracted image data comprising a prescribed number of the frames to generate composite frame image data. Then a moving picture signal generating section 15 generates a moving picture signal Sout on the basis of a series of the composite frame image data. Thus, the unnaturalness of the moving picture can be relaxed more in comparison with a conventional image processing method where frame images are skipped for fast forward reproduction so as to obtain images with a smooth motion.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置、画
像処理方法およびプログラムに係り、特に、早送り再生
を行うための動画像データを生成する画像処理装置、画
像処理方法およびプログラムに関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, an image processing method and a program, and more particularly to an image processing device, an image processing method and a program for generating moving image data for fast forward reproduction. .

【0002】[0002]

【従来の技術】動画像の記録および再生の原理は、「仮
現運動」(apparent movement)と呼ばれる知覚現象に
基づいている。「仮現運動」とは、1枚1枚の静止画像
を順次表示することによって、動いていない画像があた
かも動いているかのように見える知覚現象のことであ
り、「間欠運動」(intermittent movement)とも呼ば
れている。
2. Description of the Related Art The principle of recording and reproducing moving images is based on a perceptual phenomenon called "apparent movement". "Physical movement" is a perceptual phenomenon in which still images are displayed one by one, and it looks as if moving images are moving. "Intermittent movement" Also called.

【0003】すなわち動画像の記録は、対象となる空間
の瞬時瞬時の像を静止画像(以下、フレーム画像と呼
ぶ)として一定の時間間隔でサンプリングすることによ
り行われる。そして動画像の再生は、このサンプリング
された一連のフレーム画像を時間的に連続して表示する
ことにより行われる。なお、以降の説明において、フレ
ーム画像が単位時間あたりにサンプリングされる回数を
撮像レート[frame/sec]と呼ぶことにする。また、サ
ンプリングによって得られたフレーム画像の集合として
の動画像をビデオストリームと呼び、フレーム画像を撮
像レートでサンプリングしてビデオストリームを生成す
る機器を撮像機器と呼ぶことにする。
That is, a moving image is recorded by sampling an instantaneous image of a target space as a still image (hereinafter, referred to as a frame image) at regular time intervals. Then, the reproduction of the moving image is performed by temporally continuously displaying the sampled series of frame images. In the following description, the number of times a frame image is sampled per unit time will be referred to as an imaging rate [frame / sec]. In addition, a moving image as a set of frame images obtained by sampling will be referred to as a video stream, and a device that samples the frame images at an imaging rate to generate a video stream will be referred to as an imaging device.

【0004】対象となる空間の像をフレーム画像として
サンプリングし続けて「動き」を記録する撮像機器に
は、例えば映画の撮影に用いられるカメラのように、撮
影フィルムを感光させて連続的に写真を撮影する機器
や、ビデオカメラのように、フレーム画像を電気的に記
録する機器がある。また、コンピュータグラフィックス
装置も、仮想的な2次元または3次元空間を対象に、コ
ンピュータの演算により生成されるフレーム画像をサン
プリングする撮像機器である。
An imaging device for continuously sampling the image of a target space as a frame image and recording "movement" is, for example, a camera used for shooting a movie, and a photographic film is exposed to continuously photograph. There is a device that shoots, and a device that electrically records a frame image, such as a video camera. The computer graphics device is also an imaging device that samples a frame image generated by a computer operation in a virtual two-dimensional or three-dimensional space.

【0005】撮像機器によるサンプリングにおいては、
一般的に、機械的または電子的なシャッターを用いて
「動き」の情報が時間的に分割して取得されることによ
り、フレーム画像が生成される。この場合、1つのフレ
ーム画像のサンプリングに要する期間(1フレーム期
間)には、シャッターが開放して撮像対象の情報を取得
できる期間(以下、シャッター開放期間Toと呼ぶ)
と、シャッターが閉鎖して撮像対象の情報を取得できな
い期間(以下、シャッター閉鎖期間Tc)とが、それぞ
れ少なくとも1つ存在する。
In sampling by the imaging device,
In general, a frame image is generated by temporally dividing and acquiring “motion” information using a mechanical or electronic shutter. In this case, in the period required for sampling one frame image (one frame period), the shutter can be opened and the information of the imaging target can be acquired (hereinafter, referred to as shutter open period To).
And at least one period during which the shutter is closed and information of the imaging target cannot be acquired (hereinafter, shutter closing period Tc).

【0006】1フレーム期間Fにシャッター開放期間T
oとシャッター閉鎖期間Tcとがそれぞれ1つある場
合、シャッター開放期間Toおよびシャッター閉鎖期間
Tcと撮像レートRとの関係は、次式のようになる。
In one frame period F, the shutter open period T
When there is one o and one shutter closing period Tc, the relationship between the shutter opening period To, the shutter closing period Tc, and the imaging rate R is as follows.

【0007】[0007]

【数1】 To[sec]+Tc[sec] = F[sec/frame] = 1/(R[frame/sec]) ・・・(1)[Equation 1] To [sec] + Tc [sec] = F [sec / frame] = 1 / (R [frame / sec]) (1)

【0008】図9は、ビデオストリームの1フレーム期
間Fにおけるシャッター開放期間Toとシャッター閉鎖
期間Tcの例を説明するための図である。図9Aに示す
ように、1つのフレーム期間Fには、シャッター開放期
間Toとシャッター閉鎖期間Tcとがそれぞれ少なくと
も1つ存在している。また、図9Bと図9Cを比較して
分かるように、図9Bの1フレーム期間Fは図9Cの1
フレーム期間Fに比べて4倍長くなっており、このため
式(1)の関係により、撮像レートが1/4になってい
る。また、図9Dおよび図9Eに示すように、1フレー
ム期間Fの長さはそれぞれ等しいものの、シャッター開
放期間Toとシャッター閉鎖期間Tcの長さが異なって
いる。シャッター開放期間Toおよびシャッター閉鎖期
間Tcの最小の長さは、撮像機器によって異なる。
FIG. 9 is a diagram for explaining an example of the shutter open period To and the shutter close period Tc in one frame period F of the video stream. As shown in FIG. 9A, at least one shutter opening period To and at least one shutter closing period Tc are present in one frame period F. Further, as can be seen by comparing FIGS. 9B and 9C, one frame period F in FIG. 9B corresponds to 1 in FIG. 9C.
It is four times longer than the frame period F, and therefore the imaging rate is ¼ due to the relationship of the expression (1). Further, as shown in FIGS. 9D and 9E, the lengths of one frame period F are equal, but the lengths of the shutter opening period To and the shutter closing period Tc are different. The minimum lengths of the shutter open period To and the shutter close period Tc differ depending on the imaging device.

【0009】なお、上述したシャッター開放期間Toの
長さが動画像の動き速度に対して遅い場合と速い場合と
では、撮像される動画像が異なったものになる。この具
体例について図10〜図12を参照して説明する。
The moving image to be picked up differs depending on whether the length of the shutter opening period To is slower or faster than the moving speed of the moving image. This specific example will be described with reference to FIGS.

【0010】図10は、背景に対して移動する物体を説
明するための図であり、符号1は移動する物体を、符号
2は撮像機器を、符号3は撮像される空間の領域を、符
号4は背景をそれぞれ示す。図10Aおよび図10Bに
示すように、物体1が撮像領域3を横断するものとす
る。図11は、この物体1が移動する動画像の例を示す
図である。図11の例において、撮像領域3に対する物
体1の相対的な移動速度がシャッター開放期間Toに対
して十分遅いので、シャッター開放期間Toにおける物
体1の像はあまり変化しない。このため、図11に示す
ように、物体1の輪郭は比較的鮮明になっている。
FIG. 10 is a diagram for explaining an object that moves with respect to the background. Reference numeral 1 is a moving object, reference numeral 2 is an image pickup device, reference numeral 3 is an area of an imaged space, and reference numeral 3 is a reference numeral. 4 indicates the background, respectively. As shown in FIGS. 10A and 10B, it is assumed that the object 1 crosses the imaging region 3. FIG. 11 is a diagram showing an example of a moving image in which the object 1 moves. In the example of FIG. 11, since the relative moving speed of the object 1 with respect to the imaging region 3 is sufficiently slow with respect to the shutter opening period To, the image of the object 1 during the shutter opening period To does not change much. Therefore, as shown in FIG. 11, the contour of the object 1 is relatively sharp.

【0011】一方、図11のビデオストリームの撮影時
と同一の条件で、移動速度が図11の撮影時より更に高
速な物体1を撮影すると、例えば図12の動画像に示す
ように、物体1の輪郭が不鮮明になる。これは、シャッ
ター開放期間Toにおいて物体1の像が大きく変化する
ためである。
On the other hand, if the object 1 whose moving speed is higher than that at the time of shooting of FIG. 11 is shot under the same condition as that of shooting of the video stream of FIG. 11, for example, as shown in the moving image of FIG. The outline of is blurred. This is because the image of the object 1 changes significantly during the shutter open period To.

【0012】ここで、上述した動画像の撮像原理を踏ま
えた上で、n倍(nは自然数を示す)の速さで時間軸に
対し正方向または逆方向に再生する早送り再生について
説明する。
Now, based on the above-described principle of capturing a moving image, fast-forward reproduction for reproducing n or n (where n is a natural number) forward or backward with respect to the time axis will be described.

【0013】図13は、n倍の早送りで再生されるビデ
オストリームの1フレーム期間Fと、表示機器において
表示されるビデオストリームの1フレーム期間Fとの関
係を説明するための図である。図13Aは、元のビデオ
ストリームを示し、図13Bは、n倍速の早送り再生に
おいて再生されるべきビデオストリームを示し、図13
Cは、表示機器において表示されるフレーム画像の1フ
レーム期間Fを示す。
FIG. 13 is a diagram for explaining the relationship between one frame period F of a video stream reproduced at n times fast-forward and one frame period F of a video stream displayed on a display device. FIG. 13A shows an original video stream, FIG. 13B shows a video stream to be played in n-fold fast forward playback, and FIG.
C indicates one frame period F of the frame image displayed on the display device.

【0014】n倍速の早送り再生において再生されるべ
きビデオストリーム(図13B)は、元のビデオストリ
ーム(図13A)を撮影した時のn倍の速さで時間が推
移する空間を、元のビデオストリームを撮影した時のn
倍の撮像レートで撮影した場合に得られるビデオストリ
ームと等価である。つまり、単位時間あたりに再生され
るフレーム数(以下、フレームレートと呼ぶ)が、理想
的には元のビデオストリームのフレームレートに対して
n倍になる。
The video stream (FIG. 13B) to be reproduced in the n-fold speed fast-forward reproduction is the original video in a space where the time changes at a speed n times as fast as when the original video stream (FIG. 13A) was shot. N when shooting the stream
It is equivalent to a video stream obtained when shooting is performed at a double imaging rate. That is, the number of frames reproduced per unit time (hereinafter referred to as frame rate) is ideally n times the frame rate of the original video stream.

【0015】しかしながら、表示機器において単位時間
あたりに表示されるフレーム数である表示レートは、一
般的に変更することができないので、通常は何らかの方
法で元のビデオストリームのフレームレートを削減し、
表示機器の表示レートに合わせる処理が行われている。
However, since the display rate, which is the number of frames displayed per unit time on the display device, cannot be changed in general, the frame rate of the original video stream is usually reduced by some method,
Processing is being performed to match the display rate of the display device.

【0016】図14は、n倍の早送り再生を行う場合に
おける、従来の画像データの処理方法を説明するための
図である。図14において、符号mおよび符号nは任意
の自然数を示している。図14に示す処理方式では、元
のビデオストリームにおけるn枚のフレーム画像から先
頭のフレーム画像を1枚抽出して表示し、その後に続く
n−1枚のフレーム画像をスキップした後、再びn枚目
のフレーム画像を抽出して表示する処理が反復される。
これにより、元のビデオストリームのフレーム画像がn
枚おきに表示される。
FIG. 14 is a diagram for explaining a conventional image data processing method in the case of performing n-fold fast-forward reproduction. In FIG. 14, the symbols m and n represent arbitrary natural numbers. In the processing method illustrated in FIG. 14, one frame image at the beginning is extracted from n frame images in the original video stream and displayed, and n-1 frame images that follow are skipped, and then n frames are again displayed. The process of extracting and displaying the frame image of the eye is repeated.
As a result, the frame image of the original video stream is n
Displayed every other sheet.

【0017】図15は、図14に示す方法によって処理
された1フレームの画像データにおける、シャッター開
放期間Toとシャッター閉鎖期間Tc示す図である。図
15Aは、元のビデオストリームを示し、図15Bは、
n倍速の早送り再生において再生されるべきビデオスト
リームを示し、図15Cは、図14に示す方法によって
処理されたビデオストリームを示す。
FIG. 15 is a diagram showing a shutter open period To and a shutter close period Tc in one frame of image data processed by the method shown in FIG. FIG. 15A shows the original video stream and FIG. 15B shows
FIG. 15C shows a video stream to be played in n-fold fast-forward playback, and FIG. 15C shows a video stream processed by the method shown in FIG.

【0018】図14に示す処理方法によって生成される
ビデオストリーム(図15C)は、元のビデオストリー
ム(図15A)を撮影した時のn倍の速さで時間が推移
する空間を、元のビデオストリームを撮影した時と同じ
撮像レート、および1/nのシャッター開放期間Toで
撮影した場合に得られるビデオストリームと等価であ
る。図16は、図14に示す方法によって処理された動
画像の例を示す図である。
The video stream (FIG. 15C) generated by the processing method shown in FIG. 14 has a space in which time changes at a speed n times as fast as when the original video stream (FIG. 15A) was shot. It is equivalent to a video stream obtained when the image capturing rate is the same as when the stream was captured and the shutter release period To is 1 / n. FIG. 16 is a diagram showing an example of a moving image processed by the method shown in FIG.

【0019】また、早送り再生を行うためのその他の従
来の画像処理方法としては、例えば、表示中のフレーム
画像に対して、その後に続くフレーム画像の一部を抽出
して上書きする方法がある。これはDV(Digital Vide
o)方式のVTR装置などにおいて行われている方法で
ある。
As another conventional image processing method for performing fast-forward reproduction, for example, there is a method of extracting a part of a frame image following the frame image being displayed and overwriting it. This is DV (Digital Vide
This is the method used in the VTR device of the o) method.

【0020】[0020]

【発明が解決しようとする課題】ところで、図14に示
す従来の画像処理方法では、スキップされたn−1枚の
フレーム画像の情報が捨てられてしまい、早送り再生時
の画像に反映されない。また、フレーム画像の一部を抽
出して上書きするDV方式での方法においても、抽出さ
れなかった画像の情報が捨てられてしまい、同様に早送
り再生時の画像に反映されない。このように、従来の早
送り再生を行うための画像処理方法によって再生される
動画像は、元の動画像に対して多くの情報が欠落してい
るので、動きに滑らかさが欠けており、ぎこちない不自
然な画像になる問題がある。
By the way, in the conventional image processing method shown in FIG. 14, the information of the skipped n-1 frame images is discarded and is not reflected in the image at the time of fast-forward reproduction. Further, even in the DV method in which a part of the frame image is extracted and overwritten, the information of the image that has not been extracted is discarded, and similarly, it is not reflected in the image during fast-forward reproduction. As described above, since the moving image reproduced by the conventional image processing method for performing the fast-forward reproduction lacks much information with respect to the original moving image, the motion lacks smoothness and is awkward. There is a problem with unnatural images.

【0021】本発明はかかる事情に鑑みてなされたもの
であり、その目的は、従来に比べて早送り再生時におけ
る動画像の不自然さを緩和できる画像処理装置、画像処
理方法およびプログラムを提供することにある。
The present invention has been made in view of the above circumstances, and an object thereof is to provide an image processing apparatus, an image processing method, and a program capable of alleviating the unnaturalness of moving images during fast-forward reproduction, as compared with the prior art. Especially.

【0022】[0022]

【課題を解決するための手段】上記の目的を達成するた
め、本発明の第1の観点に係る画像処理装置は、動画像
を構成する一連のフレームの画像データから、所定のフ
レーム間隔ごとに所定数のフレームの画像データを抽出
するデータ抽出手段と、上記抽出された所定数のフレー
ムの画像データを合成するデータ合成手段と、一連の上
記合成画像データに基づいて、動画像信号を生成する動
画像信号生成手段とを有する。
In order to achieve the above object, an image processing apparatus according to a first aspect of the present invention uses image data of a series of frames forming a moving image at predetermined frame intervals. Data extracting means for extracting image data of a predetermined number of frames, data synthesizing means for synthesizing the extracted image data of a predetermined number of frames, and generating a moving image signal based on a series of the synthetic image data. And a moving image signal generating means.

【0023】本発明の第1の観点に係る画像処理装置に
よれば、上記データ抽出手段において、動画像を構成す
る一連のフレームの画像データから、所定のフレーム間
隔ごとに所定数のフレームの画像データが抽出される。
上記抽出された所定数のフレームの画像データは、上記
データ合成手段において合成される。上記動画像信号生
成手段において、一連の上記合成画像データに基づい
て、動画像信号が生成される。
According to the image processing apparatus of the first aspect of the present invention, in the data extraction means, the image of a predetermined number of frames at predetermined frame intervals is extracted from the image data of a series of frames forming a moving image. Data is extracted.
The image data of the extracted predetermined number of frames are combined by the data combining means. In the moving image signal generation means, a moving image signal is generated based on the series of the combined image data.

【0024】また、上記データ合成手段は、上記抽出さ
れた所定数のフレームの画像データにおける同一画素の
画像データを平均化して、上記合成画像データを生成し
ても良い。
The data synthesizing means may average the image data of the same pixel in the image data of the extracted predetermined number of frames to generate the synthetic image data.

【0025】また、上記所定数のフレームにおける所定
のフレームの画像データと他のフレームの画像データと
の差分をそれぞれ所定の画素ブロックごとに検出し、当
該検出結果に応じて、画像データが変化する画素ブロッ
クを特定する画素ブロック特定手段を有し、上記データ
合成手段は、上記他のフレームの画像データのうち、上
記画素ブロック素特定手段において特定された画素ブロ
ックの画素データと、上記所定のフレームの画像データ
とを合成しても良い。
Further, the difference between the image data of a predetermined frame and the image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and the image data changes according to the detection result. Pixel block specifying means for specifying a pixel block is provided, and the data synthesizing means includes the pixel data of the pixel block specified by the pixel block element specifying means among the image data of the other frame, and the predetermined frame. It may be combined with the image data of.

【0026】本発明の第2の観点に係る画像処理方法
は、動画像を構成する一連のフレームの画像データか
ら、所定のフレーム間隔ごとに所定数のフレームの画像
データを抽出するデータ抽出ステップと、上記抽出され
た所定数のフレームの画像データを合成するデータ合成
ステップと、一連の上記合成画像データに基づいて、動
画像信号を生成する動画像信号生成ステップとを有す
る。
The image processing method according to the second aspect of the present invention comprises a data extraction step of extracting a predetermined number of frame image data at predetermined frame intervals from a series of frame image data forming a moving image. A data synthesizing step of synthesizing the image data of the extracted predetermined number of frames, and a moving image signal generating step of generating a moving image signal based on a series of the synthetic image data.

【0027】また、上記データ合成ステップにおいて、
上記抽出された所定数のフレームの画像データにおける
同一画素の画像データを平均化して、上記合成画像デー
タを生成しても良い。
In the data synthesizing step,
Image data of the same pixel in the extracted image data of a predetermined number of frames may be averaged to generate the composite image data.

【0028】また、上記所定数のフレームにおける所定
のフレームの画像データと他のフレームの画像データと
の差分をそれぞれ所定の画素ブロックごとに検出し、当
該検出結果に応じて、画像データが変化する画素ブロッ
クを特定する画素ブロック特定ステップを有し、上記デ
ータ合成ステップは、上記他のフレームの画像データの
うち、上記画素ブロック素特定ステップにおいて特定さ
れた画素ブロックの画素データと、上記所定のフレーム
の画像データとを合成しても良い。
Further, the difference between the image data of a predetermined frame and the image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and the image data changes according to the detection result. A pixel block specifying step of specifying a pixel block; and the data combining step, in the image data of the other frame, the pixel data of the pixel block specified in the pixel block element specifying step, and the predetermined frame. It may be combined with the image data of.

【0029】本発明の第3の観点に係るプログラムは、
画像データを処理する処理装置のプログラムであって、
動画像を構成する一連のフレームの画像データから、所
定のフレーム間隔ごとに所定数のフレームの画像データ
を抽出するデータ抽出ステップと、上記抽出された所定
数のフレームの画像データを合成するデータ合成ステッ
プと、一連の上記合成画像データに基づいて、動画像信
号を生成する動画像信号生成ステップとを有する。
A program according to the third aspect of the present invention is
A program of a processing device for processing image data,
A data extraction step of extracting image data of a predetermined number of frames at a predetermined frame interval from a series of image data of a moving image, and a data combination for combining the image data of the extracted predetermined number of frames. And a moving image signal generation step of generating a moving image signal based on a series of the above-mentioned combined image data.

【0030】また、上記データ合成ステップにおいて、
上記抽出された所定数のフレームの画像データにおける
同一画素の画像データを平均化して、上記合成画像デー
タを生成しても良い。また、上記所定数のフレームにお
ける所定のフレームの画像データと他のフレームの画像
データとの差分をそれぞれ所定の画素ブロックごとに検
出し、当該検出結果に応じて、画像データが変化する画
素ブロックを特定する画素ブロック特定ステップを有
し、上記データ合成ステップは、上記他のフレームの画
像データのうち、上記画素ブロック素特定ステップにお
いて特定された画素ブロックの画素データと、上記所定
のフレームの画像データとを合成しても良い。
In the data synthesizing step,
Image data of the same pixel in the extracted image data of a predetermined number of frames may be averaged to generate the composite image data. In addition, the difference between the image data of a predetermined frame and the image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and a pixel block whose image data changes according to the detection result is detected. A pixel block specifying step for specifying, and the data combining step, in the image data of the other frame, the pixel data of the pixel block specified in the pixel block element specifying step and the image data of the predetermined frame. And may be combined.

【0031】[0031]

【発明の実施の形態】<第1の実施形態>まず、本発明
の第1の実施形態について、図1〜図5を参照して説明
する。図1は、本発明の第1の実施形態に係る画像処理
装置の構成例を示す概略的なブロック図である。図1に
おいて、符号11はフレーム抽出部を、符号12はフレ
ーム画像保持部を、符号13はデータ抽出部を、符号1
4はデータ合成部を、符号15は動画像信号生成部をそ
れぞれ示す。
BEST MODE FOR CARRYING OUT THE INVENTION <First Embodiment> First, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic block diagram showing a configuration example of an image processing apparatus according to the first embodiment of the present invention. In FIG. 1, reference numeral 11 is a frame extraction unit, reference numeral 12 is a frame image holding unit, reference numeral 13 is a data extraction unit, reference numeral 1
Reference numeral 4 denotes a data synthesizing unit, and reference numeral 15 denotes a moving image signal generating unit.

【0032】フレーム抽出部11は、入力される動画像
データSinから、動画像を構成する一連のフレーム画
像の画像データ(以降、フレーム画像データと呼ぶ)を
抽出し、フレーム画像保持部12に保持させる。入力さ
れる動画像データSinとして、例えばAVI(Audio
Video Interleaving)形式やMPEG2(Motion Pictu
re image cording Experts Group 2)形式など、様々な
形式の動画像データに対してフレーム抽出部11を構成
することが可能である。例えばMPEG2形式で圧縮さ
れた動画像データの場合、MPEG2ビデオデコーダな
どの装置が適用できる。また、動画像データSinから
抽出するフレームは、動画像データSinに含まれる全
てのフレームから抽出しても良いし、その一部を間引き
して抽出しても良い。なお、このフレーム抽出部11
は、フレーム画像データを直接生成するコンピュータグ
ラフィックス装置などに置き換えることも可能である。
The frame extraction unit 11 extracts image data of a series of frame images (hereinafter, referred to as frame image data) from the input moving image data Sin, and holds the frame image holding unit 12 in the frame image holding unit 12. Let As the input moving image data Sin, for example, AVI (Audio
Video Interleaving) format and MPEG2 (Motion Pictu)
The frame extraction unit 11 can be configured for moving image data of various formats such as the re image cording Experts Group 2) format. For example, in the case of moving image data compressed in the MPEG2 format, a device such as an MPEG2 video decoder can be applied. Further, the frames extracted from the moving image data Sin may be extracted from all the frames included in the moving image data Sin, or some of them may be thinned out. The frame extraction unit 11
Can be replaced with a computer graphics device or the like that directly generates the frame image data.

【0033】フレーム画像保持部12は、フレーム抽出
部11において抽出されたフレーム画像データ、および
データ合成部14において合成された合成フレーム画像
データを保持する。また、読み出し要求に応じて読み出
したフレーム画像データを、データ抽出部13または動
画像信号生成部15に出力する。フレーム画像保持部1
2には、例えばハードディスク装置や半導体メモリ、光
磁気ディスクなど、画像データを保持可能なあらゆる装
置が適用可能である。
The frame image holding unit 12 holds the frame image data extracted by the frame extracting unit 11 and the combined frame image data combined by the data combining unit 14. Also, the frame image data read in response to the read request is output to the data extraction unit 13 or the moving image signal generation unit 15. Frame image holding unit 1
As the device 2, any device capable of holding image data, such as a hard disk device, a semiconductor memory, or a magneto-optical disk, can be applied.

【0034】データ抽出部13は、フレーム抽出部11
において抽出された一連のフレーム画像データから、所
定のフレーム間隔ごとに所定数のフレーム画像データを
抽出する。例えばn倍速の早送り再生を行う場合、nフ
レーム間隔ごとにpフレーム(pはp<nを満たす自然
数を示す)分のフレーム画像データを抽出する。
The data extracting unit 13 is a frame extracting unit 11
A predetermined number of frame image data are extracted at a predetermined frame interval from the series of frame image data extracted in. For example, when performing fast-forward reproduction at n times speed, frame image data for p frames (p is a natural number satisfying p <n) is extracted at intervals of n frames.

【0035】データ合成部14は、データ抽出部13に
おいて抽出された所定数のフレーム画像データを合成
し、合成フレーム画像データとしてフレーム画像保持部
12に保持させる。画像データの合成方法としては、例
えば、データ抽出部13において抽出された所定数のフ
レームの画像データにおける同一画素の画像データを平
均化する方法が可能である。例えばカラー画像の場合、
合成されたフレーム画像における任意の位置(x,y)
の画素データのR成分は、合成元となる所定数のフレー
ム画像における同一位置(x,y)の画素データのR成
分の平均値に設定される。合成されたフレーム画像にお
ける任意の位置(x,y)の画素データのG成分は、合
成元となる所定数のフレーム画像における同一位置
(x,y)の画素データのG成分の平均値に設定され
る。合成されたフレーム画像における任意の位置(x,
y)の画素データのB成分は、合成元となる所定数のフ
レーム画像における同一位置(x,y)の画素データの
B成分の平均値に設定される。
The data synthesizing unit 14 synthesizes a predetermined number of frame image data extracted by the data extracting unit 13 and causes the frame image holding unit 12 to hold the combined frame image data. As a method of synthesizing the image data, for example, a method of averaging the image data of the same pixel in the image data of the predetermined number of frames extracted by the data extracting unit 13 can be used. For example, for a color image,
Arbitrary position (x, y) in the combined frame image
The R component of the pixel data of is set to the average value of the R components of the pixel data of the same position (x, y) in a predetermined number of frame images that are the composition source. The G component of the pixel data at the arbitrary position (x, y) in the combined frame image is set to the average value of the G components of the pixel data at the same position (x, y) in the predetermined number of frame images to be combined. To be done. Arbitrary position (x,
The B component of the pixel data of y) is set to the average value of the B component of the pixel data of the same position (x, y) in a predetermined number of frame images that are the composition source.

【0036】動画像信号生成部15は、フレーム画像保
持部12において保持された一連の合成フレーム画像デ
ータに基づいて、動画像信号Soutを生成する。生成
する動画像信号は、例えばコンポジットビデオ信号など
のアナログ信号でも良いし、あるいは、動画像データS
inと同様に、AVI形式やMPEG2形式などの様々
な形式の動画像のデータでも良い。
The moving image signal generating section 15 generates a moving image signal Sout based on the series of combined frame image data held in the frame image holding section 12. The moving image signal to be generated may be an analog signal such as a composite video signal, or the moving image data S
Similar to in, moving image data of various formats such as AVI format and MPEG2 format may be used.

【0037】上述した構成を有する図1の画像処理装置
の動作について説明する。図2は、図1に示す画像処理
装置の動作を説明するためのフローチャートである。 ステップST1:フレーム抽出部11において、動画像
データSinからフレーム画像データが抽出される。フ
レーム画像データの抽出は、動画像データSinに含ま
れる全てのフレームから抽出しても良いし、一部のフレ
ームを間引いて抽出しても良い。
The operation of the image processing apparatus of FIG. 1 having the above configuration will be described. FIG. 2 is a flow chart for explaining the operation of the image processing apparatus shown in FIG. Step ST1: The frame extraction unit 11 extracts frame image data from the moving image data Sin. The frame image data may be extracted from all the frames included in the moving image data Sin or may be extracted by thinning out some frames.

【0038】ステップST2:データ抽出部13におい
て、フレーム画像保持部12に保持されるフレーム抽出
部11からの一連のフレーム画像データから、所定のフ
レーム間隔ごとに所定数のフレーム画像データが抽出さ
れる。画像データが抽出されるフレームは、所定のフレ
ーム間隔内における連続した所定数のフレームでも良い
し、あるいは、このフレーム間隔内において適当に分散
されたフレームでも良い。また、データの抽出は、フレ
ーム画像データの全画素から一度に抽出しても良いし、
その一部を順次抽出しても良い。
Step ST2: The data extraction unit 13 extracts a predetermined number of frame image data at predetermined frame intervals from the series of frame image data from the frame extraction unit 11 held in the frame image holding unit 12. . The frame from which the image data is extracted may be a predetermined number of continuous frames within a predetermined frame interval, or may be a frame appropriately dispersed within this frame interval. Further, the data may be extracted from all the pixels of the frame image data at once,
A part thereof may be sequentially extracted.

【0039】ステップST3:ステップ2において抽出
された所定数のフレーム画像データが合成される。例え
ば、所定数のフレーム画像データにおける同一画素の画
素データが順次データ抽出部13において抽出される場
合、これらの画素データを合成して平均化し、新しく生
成する合成フレーム画像データの同一画素の画素データ
として、順次フレーム画像保持部12に保持させる。こ
の処理がフレーム画像内の全画素について行われること
により、1枚の合成フレーム画像データが生成されて、
フレーム画像保持部12に保持される。
Step ST3: The predetermined number of frame image data extracted in step 2 are combined. For example, when the pixel data of the same pixel in a predetermined number of frame image data is sequentially extracted by the data extracting unit 13, these pixel data are combined and averaged, and the pixel data of the same pixel of newly generated combined frame image data is generated. As a result, the frame image holding unit 12 sequentially holds the frame image. By performing this processing for all the pixels in the frame image, one composite frame image data is generated,
It is held in the frame image holding unit 12.

【0040】図3は、ステップST2における画像デー
タの抽出、およびステップST3における画像データの
合成を説明するための図である。図3において、符号m
は任意の自然数を、符号nおよび符号pは1≦p≦nを
満たす自然数を示す。n倍速の早送り再生の場合、例え
ば図3に示すように、フレームmからフレーム(m+n
−1)までのn枚のフレーム画像データのうち、フレー
ムmからフレーム(m+p−1)のp枚のフレーム画像
データがデータ抽出部13において抽出され、残りのフ
レーム(m+p)からフレーム(m+n−1)までのn
−p枚のフレームがスキップされる。そして、これらの
抽出されたフレーム画像データがデータ合成部13にお
いて合成され、新しい合成フレーム画像データが生成さ
れる。
FIG. 3 is a diagram for explaining extraction of image data in step ST2 and composition of image data in step ST3. In FIG. 3, reference sign m
Represents an arbitrary natural number, and the symbols n and p represent natural numbers satisfying 1 ≦ p ≦ n. In the case of n-fold fast-forward reproduction, as shown in FIG. 3, for example, from frame m to frame (m + n
Of the n frame image data up to -1), p frame image data from frame m to frame (m + p-1) is extracted by the data extraction unit 13, and the remaining frame (m + p) to frame (m + n-). N up to 1)
-P frames are skipped. Then, the extracted frame image data is combined by the data combining unit 13 to generate new combined frame image data.

【0041】図4は、合成されたフレーム画像データの
1フレーム期間におけるシャッター開放期間とシャッタ
ー閉鎖期間を説明するための図である。図4Aは、元の
動画像のビデオストリームを示し、図4Bは、n倍速の
早送り再生において再生されるべきビデオストリームを
示し、図4Cは、図3に示す画像データの抽出処理およ
び合成処理によって生成されたビデオストリームを示
す。
FIG. 4 is a diagram for explaining a shutter open period and a shutter closed period in one frame period of the combined frame image data. FIG. 4A shows a video stream of an original moving image, FIG. 4B shows a video stream to be reproduced in n-fold speed fast-forward reproduction, and FIG. 4C shows the image data extraction processing and the synthesis processing shown in FIG. The generated video stream is shown.

【0042】図3に示す処理によって生成されるビデオ
ストリーム(図4C)は、元のビデオストリーム(図4
A)を撮影した時のn倍の速さで時間が推移する空間
を、元のビデオストリームを撮影した時と同じ撮像レー
トで、1/nのシャッター開放期間Toのシャッターを
p回開いて撮影した場合に得られるビデオストリームと
等価である。したがって、図15に示す従来の処理にお
いて捨てられていた画像情報が、図3に示す本発明の処
理においては合成フレーム画像データに反映される。
The video stream (FIG. 4C) generated by the processing shown in FIG. 3 is the original video stream (FIG. 4).
Shooting in a space where time changes at a speed n times faster than when shooting A), with the same shooting rate as when shooting the original video stream, and opening the shutter with a shutter release period To of 1 / n p times p times It is equivalent to the video stream obtained when Therefore, the image information discarded in the conventional processing shown in FIG. 15 is reflected in the composite frame image data in the processing of the present invention shown in FIG.

【0043】ステップST4:動画像信号生成部15に
おいて、フレーム画像保持部12に保持された一連の合
成フレーム画像データから動画像信号が生成される。
Step ST4: The moving image signal generation section 15 generates a moving image signal from the series of combined frame image data held in the frame image holding section 12.

【0044】なお、ステップ2のデータ抽出処理および
ステップST3のデータ合成処理は、例えば、ステップ
1のフレーム抽出処理において合成元となる動画像のフ
レーム抽出が完了した後に行っても良いし、少なくとも
ステップ3のデータ合成処理において合成に必要となる
フレームの抽出が完了した後で行っても良いし、あるい
はステップ1のフレーム抽出処理とともに順次行っても
良い。また、ステップST4の動画像信号生成処理は、
全ての合成フレーム画像データが生成されてフレーム画
像保持部12に保持された後に行っても良いし、その一
部が保持された後に行っても良いし、あるいは新しい合
成フレーム画像データが生成される度に行っても良い。
The data extraction process of step 2 and the data combination process of step ST3 may be performed after the frame extraction of the moving image as the combination source is completed in the frame extraction process of step 1, or at least the step It may be performed after the extraction of the frames necessary for the synthesis in the data synthesis process of 3 is completed, or may be performed sequentially with the frame extraction process of step 1. In addition, the moving image signal generation processing in step ST4
It may be performed after all the composite frame image data is generated and held in the frame image holding unit 12, or may be performed after a part thereof is held, or new composite frame image data is generated. You can go there every time.

【0045】図5は、図1に示す画像処理装置において
合成される動画像の例を示す図である。図16に示す従
来の早送り再生のための画像処理によって生成される動
画像と比較して分かるように、図5に示す動画像では移
動する物体の像の輪郭がぼやけており、これは、図12
に示すように高速移動する物体を撮像した場合の動画像
に近い。すなわち、画像データの合成によってシャッタ
ー開放期間Toを長くした場合と同様な画像が得られ
る。この画像は、図16に示す動画像において欠落して
いる物体の動きの情報が与えられた結果によるものであ
り、図16に示す動画像に比べて運動の不自然さが緩和
されている。
FIG. 5 is a diagram showing an example of a moving image combined in the image processing apparatus shown in FIG. As can be seen by comparing with the moving image generated by the conventional image processing for fast-forward reproduction shown in FIG. 16, the moving image shown in FIG. 5 has a blurred outline of an image of a moving object. 12
As shown in, the image is close to a moving image when an object moving at high speed is imaged. That is, an image similar to that when the shutter open period To is lengthened is obtained by combining the image data. This image is a result of the fact that the information about the motion of the missing object is given in the moving image shown in FIG. 16, and the unnaturalness of the movement is alleviated as compared with the moving image shown in FIG.

【0046】以上説明したように、図1に示す画像処理
装置によれば、データ抽出部13において、動画像を構
成する一連のフレーム画像データから、所定のフレーム
間隔ごとに所定数のフレームの画像データが抽出され、
データ合成部14において、この抽出された所定数のフ
レーム画像データが合成されて合成フレーム画像データ
が生成され、動画像信号生成部15において、一連の合
成フレーム画像データに基づいて動画像信号Soutが
生成される。したがって、従来の早送り再生のための画
像処理に比べて動画像の不自然さを緩和でき、動きの滑
らかな画像を得ることができる。
As described above, according to the image processing apparatus shown in FIG. 1, in the data extraction unit 13, a series of frame image data forming a moving image is used to extract images of a predetermined number of frames at predetermined frame intervals. Data is extracted,
The data combining unit 14 combines the extracted predetermined number of frame image data to generate combined frame image data, and the moving image signal generation unit 15 generates the moving image signal Sout based on the series of combined frame image data. Is generated. Therefore, compared to the conventional image processing for fast-forward reproduction, the unnaturalness of a moving image can be alleviated and an image with smooth motion can be obtained.

【0047】また、図1示す画像処理装置における動画
像信号Soutの生成処理を動画像データSinの入力
に対してリアルタイムに行わせることによって、例えば
DVD(digital versatile disc)やVTR(video ta
pe recorder)などの動画再生装置における早送り再生
時や巻き戻し再生時に、従来に比べて画像情報の欠落が
少ない、動きの滑らかな画像を得ることができる。
Further, by causing the processing of generating the moving image signal Sout in the image processing apparatus shown in FIG. 1 to be performed in real time with respect to the input of the moving image data Sin, for example, a DVD (digital versatile disc) or VTR (video ta).
It is possible to obtain a smooth-moving image with less loss of image information than before when performing fast-forward playback or rewind playback in a moving image playback device such as a pe recorder).

【0048】また、コンピュータグラフィックス装置に
おいて、例えば意図的に撮像レートを高めた状態で図1
に示す画像処理装置を介してビデオストリームを生成さ
せることにより、高速に移動する物体の「像の流れ」を
表現させた、より自然に近い画像を生成させることがで
きる。また、リアルタイムの処理が必要ない動画像編集
装置においても、従来に比べて動きの滑らかな高速再生
画像を作り出すことができる。
Further, in the computer graphics device, for example, in a state in which the image pickup rate is intentionally increased, FIG.
By generating a video stream via the image processing device shown in FIG. 1, a more natural image can be generated that expresses the “flow of images” of an object that moves at high speed. In addition, even in a moving image editing apparatus that does not require real-time processing, it is possible to create a high-speed reproduced image with smoother movement than in the past.

【0049】<第2の実施形態>次に、本発明の第2の
実施形態について、図6および図7を参照して説明す
る。第2の実施形態は、第1の実施形態に比べて画像処
理に必要な計算量を少なくすることが可能な画像処理装
置に関するものである。図6は、本発明の第2の実施形
態に係る画像処理装置の構成例を示す概略的なブロック
図である。図6において、符号16は画素ブロック特定
部を示し、その他図1と図6の同一符号は同一の構成要
素を示す。
<Second Embodiment> Next, a second embodiment of the present invention will be described with reference to FIGS. 6 and 7. The second embodiment relates to an image processing apparatus capable of reducing the amount of calculation required for image processing as compared with the first embodiment. FIG. 6 is a schematic block diagram showing a configuration example of an image processing apparatus according to the second embodiment of the present invention. In FIG. 6, reference numeral 16 indicates a pixel block specifying unit, and the same reference numerals in FIG. 1 and FIG. 6 indicate the same constituent elements.

【0050】画素ブロック特定部16は、データ抽出部
13において所定のフレーム間隔ごとに抽出される所定
数のフレーム画像データのうちの、所定のフレーム画像
データとその他のフレーム画像データとの差分をそれぞ
れ所定の画素ブロックごとに検出し、この検出結果に応
じて、画像データが変化する画素ブロックを特定する。
ただし、画素ブロックには1つまたは複数の画素が含ま
れる。
The pixel block specifying unit 16 determines the difference between the predetermined frame image data and the other frame image data among the predetermined number of frame image data extracted by the data extracting unit 13 at predetermined frame intervals. The detection is performed for each predetermined pixel block, and the pixel block in which the image data changes is specified according to the detection result.
However, the pixel block includes one or more pixels.

【0051】例えば、図3におけるフレームmとフレー
ム(m+1)〜フレーム(m+n−1)との差分をj×
kの画素ブロック(jおよびkは自然数を示す)ごとに
検出する。この場合、例えば、j×kの画素ブロックの
うちの特定の画素データの差分を検出しても良いし、あ
るいはj×kの画素ブロックで離散コサイン変換などの
直交変換を施されたデータの特定の成分に関する差分を
検出しても良い。この検出された差分値が所定のしきい
値を超えるか否かが全ての画素ブロックにおいて判定さ
れ、この判定結果に応じて、画像データの変化が生じて
いる画素ブロックが特定される。
For example, the difference between frame m and frame (m + 1) to frame (m + n-1) in FIG.
The detection is performed for each k pixel block (j and k represent natural numbers). In this case, for example, the difference between specific pixel data in the j × k pixel block may be detected, or the data subjected to orthogonal transformation such as discrete cosine transform in the j × k pixel block may be identified. You may detect the difference regarding the component of. Whether or not the detected difference value exceeds a predetermined threshold value is determined in all pixel blocks, and the pixel block in which the image data has changed is specified according to the determination result.

【0052】データ合成手段14’は、上述したその他
のフレーム画像データのうち、画素ブロック特定部16
において特定された画素ブロックの画素データと、上述
した所定のフレーム画像データとを合成する。
The data synthesizing means 14 'includes the pixel block specifying unit 16 of the above-mentioned other frame image data.
The pixel data of the pixel block specified in 3 and the predetermined frame image data described above are combined.

【0053】図7は、図6に示す画像データ処理装置の
動作を説明するためのフローチャートであり、図2と同
一の符号は同一処理を行うステップを示す。以下、図2
と異なる処理を行うステップについて説明する。
FIG. 7 is a flow chart for explaining the operation of the image data processing apparatus shown in FIG. 6, and the same reference numerals as those in FIG. 2 indicate the steps for performing the same processing. Below, FIG.
Steps for performing processing different from that will be described.

【0054】ステップST5:ステップST2において
抽出される所定数のフレーム画像データのうち、所定の
フレーム画像データとその他のフレーム画像データとの
差分が、それぞれ所定の画素ブロックごとに検出され
る。この検出結果に応じて、画像データに変化が生じて
いる画素ブロックが特定される。
Step ST5: Among the predetermined number of frame image data extracted in step ST2, the difference between the predetermined frame image data and other frame image data is detected for each predetermined pixel block. A pixel block in which the image data has changed is specified according to the detection result.

【0055】ステップST3’:ステップST5におい
て特定のされた画素ブロック内の画素データと、所定の
フレーム画像データの同一画素ブロック内の画素データ
とが合成・平均化される。すなわち、所定のフレーム画
像データに対して変化を生じている画素ブロックのみが
合成・平均化され、変化を生じていない画素ブロックに
ついては合成・平均化処理が行われない。
Step ST3 ': The pixel data in the pixel block specified in step ST5 and the pixel data in the same pixel block of the predetermined frame image data are combined and averaged. That is, only the pixel blocks that have changed with respect to the predetermined frame image data are combined and averaged, and the pixel blocks that have not changed are not combined and averaged.

【0056】以上説明したように、図6に示す画像処理
装置によれば、図1に示す画像処理装置と同様に従来と
比べて動画像の不自然さを緩和できる。さらに、画像デ
ータの変化が検出される画素ブロックのみが合成・平均
化されるので、図1に示す画像処理装置よりも処理に必
要な計算量を削減できる。
As described above, according to the image processing apparatus shown in FIG. 6, the unnaturalness of the moving image can be alleviated as compared with the conventional one as in the image processing apparatus shown in FIG. Further, since only the pixel blocks in which the change in the image data is detected are combined and averaged, the calculation amount required for the processing can be reduced as compared with the image processing apparatus shown in FIG.

【0057】<第3の実施形態>次に、本発明の第3の
実施形態について、図8を参照して説明する。上述した
図1および図6に示す画像処理装置は、その全ての構成
要素をハードウェアによって構成することも可能である
が、以下に説明するように、構成の一部または全部をプ
ログラムに応じて処理を実行するプロセッサにより実現
することも可能である。
<Third Embodiment> Next, a third embodiment of the present invention will be described with reference to FIG. In the image processing apparatus shown in FIG. 1 and FIG. 6 described above, all the constituent elements can be configured by hardware, but as will be described below, a part or all of the configuration is changed according to the program. It can also be realized by a processor that executes processing.

【0058】図8、本発明の第3の実施形態に係る画像
処理装置の構成例を示す概略的なブロック図である。図
8において、符号17はCPU(central processing u
nit)を、符号18はRAM(random access memory)
を、符号19および符号21はI/O部を、り、符号2
0は記憶装置を、符号22は表示装置を、符号23はバ
スをそれぞれ示す。
FIG. 8 is a schematic block diagram showing a configuration example of an image processing apparatus according to the third embodiment of the present invention. In FIG. 8, reference numeral 17 is a CPU (central processing unit).
nit), reference numeral 18 is a RAM (random access memory)
Reference numerals 19 and 21 denote I / O units, and reference numeral 2
Reference numeral 0 represents a storage device, reference numeral 22 represents a display device, and reference numeral 23 represents a bus.

【0059】CPU17は、記憶装置20に保持される
プログラムに応じて、記憶装置20に記憶された動画像
データSinを図2または図7のフローチャートに示す
ステップで処理し、図1および図6に示す画像処理装置
において生成されるものと同等な動画像データSout
を生成して、再び記憶装置に記憶させる。また生成した
動画像データSoutをI/O部21を介して表示装置
22に供給し、動画像を表示させる。RAM18は、C
PU17のプログラム用の記憶領域や、CPU17の処
理過程において一時的に使用される記憶領域を提供す
る。
The CPU 17 processes the moving image data Sin stored in the storage device 20 in the steps shown in the flowchart of FIG. 2 or FIG. 7 according to the program stored in the storage device 20. The moving image data Sout equivalent to that generated in the image processing apparatus shown.
Is generated and stored again in the storage device. The generated moving image data Sout is supplied to the display device 22 via the I / O unit 21 to display a moving image. RAM18 is C
It provides a storage area for the program of the PU 17 and a storage area temporarily used in the process of the CPU 17.

【0060】I/O部19は、CPU17の制御に応じ
て記憶装置20の指定されたアドレスに記憶されるデー
タを読み出してバス23に出力するとともに、バス23
から入力されるデータを記憶装置20の指定されたアド
レスに記憶させる。記憶装置20は、I/O部19から
の制御に応じて、指定されたアドレスに記憶したデータ
を読み出してI/O部19に出力するとともに、I/O
部19から入力したデータを指定されたアドレスに記憶
する。図2または図7のフローチャートに示すステップ
を含んだCPU17のプログラムや、元の動画像データ
Sin、処理結果の動画像データSoutなどのデータ
を記憶する。
The I / O unit 19 reads the data stored at the designated address of the storage device 20 under the control of the CPU 17 and outputs the data to the bus 23.
The data input from is stored in the designated address of the storage device 20. Under the control of the I / O unit 19, the storage device 20 reads out the data stored at the designated address and outputs the data to the I / O unit 19, and also the I / O unit 19.
The data input from the unit 19 is stored in the designated address. The program of the CPU 17 including the steps shown in the flowchart of FIG. 2 or FIG. 7, the original moving image data Sin, the moving image data Sout, and other data are stored.

【0061】I/O部21は、CPU17の制御に応じ
てバス23から入力される画像データを表示装置22に
供給する。表示装置22は、I/O部21から入力され
る画像データに応じた画像を表示する。
The I / O unit 21 supplies the image data input from the bus 23 to the display device 22 under the control of the CPU 17. The display device 22 displays an image according to the image data input from the I / O unit 21.

【0062】上述した構成を有する図8の画像処理装置
によれば、記憶装置20の所定のアドレスに記憶された
プログラムがI/O部19によって読み出され、バス2
3を介してRAM18のプログラム用記憶領域に保持さ
れる。このRAM18に保持されたプログラムによって
図2または図7のフローチャートに示す処理が実行され
ることにより、記憶装置20の所定のアドレスに記憶さ
れた動画像データSinが処理され、動画像データSo
utが生成されて、記憶装置20に記憶される。この動
画像データSoutは、他の画像再生用プログラムによ
って記憶装置20から読み出され、表示装置22に供給
されて、元動画像データSinの早送り再生画像が表示
される。
According to the image processing apparatus of FIG. 8 having the above-mentioned configuration, the program stored at the predetermined address of the storage device 20 is read by the I / O unit 19 and the bus 2
3 is stored in the program storage area of the RAM 18. By executing the processing shown in the flowchart of FIG. 2 or FIG. 7 by the program stored in the RAM 18, the moving image data Sin stored at a predetermined address of the storage device 20 is processed and the moving image data So is stored.
ut is generated and stored in the storage device 20. The moving image data Sout is read from the storage device 20 by another image reproducing program and supplied to the display device 22 to display the fast-forward reproduced image of the original moving image data Sin.

【0063】以上説明したように、図8に示す画像処理
装置においても図1または図6に示す画像処理装置と同
等の機能を実現できる。したがって、従来の早送り再生
のための画像処理に比べて動画像の不自然さを緩和で
き、動きの滑らかな画像を得ることができる。
As described above, the image processing apparatus shown in FIG. 8 can also realize the same function as that of the image processing apparatus shown in FIG. 1 or 6. Therefore, compared to the conventional image processing for fast-forward reproduction, the unnaturalness of a moving image can be alleviated and an image with smooth motion can be obtained.

【0064】なお、上述した第1〜第3の実施形態は本
発明を説明するための一例に過ぎず、これらの実施形態
に対して当業者に自明な種々の改変を行っても本発明は
実施可能である。例えば、図1および図6に示すフレー
ム画像保持部12は抽出されたフレーム画像データと合
成フレーム画像データとを保持するが、これらをそれぞ
れ別のフレーム画像保持部に保持させても良い。また、
図2または図7のフローチャートに示す処理を、ネット
ワークを介して接続されるサーバ装置と端末装置とで実
現させることも可能である。
Note that the above-described first to third embodiments are merely examples for explaining the present invention, and the present invention is not limited even if various modifications obvious to those skilled in the art are made to these embodiments. It is feasible. For example, the frame image holding unit 12 shown in FIGS. 1 and 6 holds the extracted frame image data and the composite frame image data, but these may be held in different frame image holding units. Also,
The processing shown in the flowchart of FIG. 2 or FIG. 7 can also be realized by the server device and the terminal device connected via the network.

【0065】[0065]

【発明の効果】本発明によれば、従来に比べて早送り再
生時における動画像の不自然さを緩和でき、動きの滑ら
かな画像を得ることができる。
As described above, according to the present invention, it is possible to reduce the unnaturalness of a moving image during fast-forward reproduction and obtain a smooth moving image as compared with the conventional technique.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態に係る画像処理装置の
構成例を示す概略的なブロック図である。
FIG. 1 is a schematic block diagram showing a configuration example of an image processing apparatus according to a first embodiment of the present invention.

【図2】図1に示す画像処理装置の動作を説明するため
のフローチャートである。
FIG. 2 is a flowchart for explaining the operation of the image processing apparatus shown in FIG.

【図3】画像データの抽出および合成を説明するための
図である。
FIG. 3 is a diagram for explaining extraction and combination of image data.

【図4】合成されたフレーム画像データの1フレーム期
間におけるシャッター開放期間とシャッター閉鎖期間を
説明するための図である。
FIG. 4 is a diagram for explaining a shutter opening period and a shutter closing period in one frame period of combined frame image data.

【図5】図1に示す画像処理装置において合成される動
画像の例を示す図である。
5 is a diagram showing an example of a moving image combined in the image processing apparatus shown in FIG.

【図6】本発明の第2の実施形態に係る画像処理装置の
構成例を示す概略的なブロック図である。
FIG. 6 is a schematic block diagram showing a configuration example of an image processing apparatus according to a second embodiment of the present invention.

【図7】図7に示す画像データ処理装置の動作を説明す
るためのフローチャートである。
FIG. 7 is a flowchart for explaining the operation of the image data processing device shown in FIG.

【図8】本発明の第3の実施形態に係る画像処理装置の
構成例を示す概略的なブロック図である。
FIG. 8 is a schematic block diagram showing a configuration example of an image processing apparatus according to a third embodiment of the present invention.

【図9】ビデオストリームの1フレーム期間におけるシ
ャッター開放期間とシャッター閉鎖期間の例を説明する
ための図である。
[Fig. 9] Fig. 9 is a diagram for describing an example of a shutter opening period and a shutter closing period in one frame period of a video stream.

【図10】背景に対して移動する物体を説明するための
図である。
FIG. 10 is a diagram for explaining an object that moves with respect to the background.

【図11】図10に示す物体が移動する動画像の例を示
す図である。
11 is a diagram showing an example of a moving image in which the object shown in FIG. 10 moves.

【図12】図10に示す物体が高速に移動する場合の動
画像の例を示す図である。
12 is a diagram showing an example of a moving image when the object shown in FIG. 10 moves at high speed.

【図13】n倍の早送りで再生されるビデオストリーム
の1フレーム期間と、表示機器において表示されるビデ
オストリームの1フレーム期間との関係を説明するため
の図である。
[Fig. 13] Fig. 13 is a diagram for describing the relationship between one frame period of a video stream reproduced at n times fast-forwarding and one frame period of a video stream displayed on a display device.

【図14】n倍の早送り再生を行う場合における、従来
の画像データの処理方法を説明するための図である。
FIG. 14 is a diagram for explaining a conventional image data processing method in the case of performing n-fold fast-forward reproduction.

【図15】図14に示す方法によって処理された1フレ
ームの画像データにおける、シャッター開放期間とシャ
ッター閉鎖期間を示す図である。
15 is a diagram showing a shutter opening period and a shutter closing period in one frame of image data processed by the method shown in FIG.

【図16】図14に示す方法によって処理された動画像
の例を示す図である。
16 is a diagram showing an example of a moving image processed by the method shown in FIG.

【符号の説明】[Explanation of symbols]

11…フレーム抽出部、12…フレーム画像保持部、1
3…データ抽出部、14…データ合成部、15…動画像
信号生成部、16…画素ブロック特定部、17…CP
U、18…RAM、19,21…I/O部、20…記憶
装置、22…表示装置。
11 ... frame extracting unit, 12 ... frame image holding unit, 1
3 ... Data extracting unit, 14 ... Data synthesizing unit, 15 ... Moving image signal generating unit, 16 ... Pixel block specifying unit, 17 ... CP
U, 18 ... RAM, 19, 21 ... I / O section, 20 ... Storage device, 22 ... Display device.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5C018 MA01 5C052 AA01 AB02 AC05 CC06 CC11 DD04 5C053 FA14 FA23 GA11 GB04 GB06 GB38 KA05 LA01 LA06    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 5C018 MA01                 5C052 AA01 AB02 AC05 CC06 CC11                       DD04                 5C053 FA14 FA23 GA11 GB04 GB06                       GB38 KA05 LA01 LA06

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 動画像を構成する一連のフレームの画像
データから、所定のフレーム間隔ごとに所定数のフレー
ムの画像データを抽出するデータ抽出手段と、 上記抽出された所定数のフレームの画像データを合成す
るデータ合成手段と、 一連の上記合成画像データに基づいて、動画像信号を生
成する動画像信号生成手段とを有する画像処理装置。
1. A data extracting means for extracting a predetermined number of frames of image data at predetermined frame intervals from a series of frames of image data forming a moving image, and the extracted predetermined number of frames of image data. An image processing apparatus comprising: a data synthesizing unit for synthesizing a moving image signal; and a moving image signal generating unit for generating a moving image signal based on a series of the above-mentioned synthesized image data.
【請求項2】 上記データ合成手段は、上記抽出された
所定数のフレームの画像データにおける同一画素の画像
データを平均化して、上記合成画像データを生成する、 請求項1に記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the data synthesizing unit averages image data of the same pixel in the image data of the extracted predetermined number of frames to generate the synthetic image data. .
【請求項3】 上記所定数のフレームにおける所定のフ
レームの画像データと他のフレームの画像データとの差
分をそれぞれ所定の画素ブロックごとに検出し、当該検
出結果に応じて、画像データが変化する画素ブロックを
特定する画素ブロック特定手段を有し、 上記データ合成手段は、上記他のフレームの画像データ
のうち、上記画素ブロック素特定手段において特定され
た画素ブロックの画素データと、上記所定のフレームの
画像データとを合成する、 請求項1に記載の画像処理装置。
3. A difference between image data of a predetermined frame and image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and the image data changes according to the detection result. A pixel block specifying unit for specifying a pixel block; and the data combining unit, in the image data of the other frame, the pixel data of the pixel block specified by the pixel block element specifying unit, and the predetermined frame. The image processing apparatus according to claim 1, wherein the image processing apparatus and the image data of (1) are combined.
【請求項4】 入力される動画像データから、上記一連
のフレームの画像データを抽出するフレーム抽出手段を
有する、 請求項1に記載の画像処理装置。
4. The image processing apparatus according to claim 1, further comprising frame extraction means for extracting image data of the series of frames from input moving image data.
【請求項5】 動画像を構成する一連のフレームの画像
データから、所定のフレーム間隔ごとに所定数のフレー
ムの画像データを抽出するデータ抽出ステップと、 上記抽出された所定数のフレームの画像データを合成す
るデータ合成ステップと、 一連の上記合成画像データに基づいて、動画像信号を生
成する動画像信号生成ステップとを有する画像処理方
法。
5. A data extracting step of extracting image data of a predetermined number of frames at predetermined frame intervals from image data of a series of frames forming a moving image, and image data of the extracted predetermined number of frames. An image processing method comprising: a data synthesizing step for synthesizing a moving image signal; and a moving image signal generating step for generating a moving image signal based on a series of the synthesized image data.
【請求項6】 上記データ合成ステップにおいて、上記
抽出された所定数のフレームの画像データにおける同一
画素の画像データを平均化して、上記合成画像データを
生成する、 請求項5に記載の画像処理方法。
6. The image processing method according to claim 5, wherein in the data synthesizing step, the image data of the same pixel in the image data of the extracted predetermined number of frames is averaged to generate the synthetic image data. .
【請求項7】 上記所定数のフレームにおける所定のフ
レームの画像データと他のフレームの画像データとの差
分をそれぞれ所定の画素ブロックごとに検出し、当該検
出結果に応じて、画像データが変化する画素ブロックを
特定する画素ブロック特定ステップを有し、 上記データ合成ステップは、上記他のフレームの画像デ
ータのうち、上記画素ブロック素特定ステップにおいて
特定された画素ブロックの画素データと、上記所定のフ
レームの画像データとを合成する、 請求項5に記載の画像処理方法。
7. A difference between image data of a predetermined frame and image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and the image data changes according to the detection result. A pixel block specifying step of specifying a pixel block; and the data combining step, in the image data of the other frame, the pixel data of the pixel block specified in the pixel block element specifying step, and the predetermined frame. The image processing method according to claim 5, wherein the image data is combined with the image data.
【請求項8】 動画像データから上記一連のフレームの
画像データを抽出するフレーム抽出ステップを有する、 請求項5に記載の画像処理方法。
8. The image processing method according to claim 5, further comprising a frame extraction step of extracting image data of the series of frames from moving image data.
【請求項9】 画像データを処理する処理装置のプログ
ラムであって、 動画像を構成する一連のフレームの画像データから、所
定のフレーム間隔ごとに所定数のフレームの画像データ
を抽出するデータ抽出ステップと、 上記抽出された所定数のフレームの画像データを合成す
るデータ合成ステップと、 一連の上記合成画像データに基づいて、動画像信号を生
成する動画像信号生成ステップとを有するプログラム。
9. A program of a processing device for processing image data, comprising a data extracting step of extracting image data of a predetermined number of frames at predetermined frame intervals from image data of a series of frames forming a moving image. A program having a data synthesizing step of synthesizing the image data of the extracted predetermined number of frames, and a moving image signal generating step of generating a moving image signal based on a series of the synthetic image data.
【請求項10】 上記データ合成ステップにおいて、上
記抽出された所定数のフレームの画像データにおける同
一画素の画像データを平均化して、上記合成画像データ
を生成する、 請求項9に記載のプログラム。
10. The program according to claim 9, wherein in the data synthesizing step, the image data of the same pixel in the image data of the extracted predetermined number of frames is averaged to generate the synthetic image data.
【請求項11】 上記所定数のフレームにおける所定の
フレームの画像データと他のフレームの画像データとの
差分をそれぞれ所定の画素ブロックごとに検出し、当該
検出結果に応じて、画像データが変化する画素ブロック
を特定する画素ブロック特定ステップを有し、 上記データ合成ステップは、上記他のフレームの画像デ
ータのうち、上記画素ブロック素特定ステップにおいて
特定された画素ブロックの画素データと、上記所定のフ
レームの画像データとを合成する、 請求項9に記載のプログラム。
11. A difference between image data of a predetermined frame and image data of another frame in the predetermined number of frames is detected for each predetermined pixel block, and the image data changes according to the detection result. A pixel block specifying step of specifying a pixel block; and the data combining step, in the image data of the other frame, the pixel data of the pixel block specified in the pixel block element specifying step, and the predetermined frame. The program according to claim 9, which is combined with the image data of.
【請求項12】 入力した動画像データから、上記一連
のフレームの画像データを抽出するフレーム抽出ステッ
プを有する、 請求項9に記載のプログラム。
12. The program according to claim 9, further comprising a frame extraction step of extracting image data of the series of frames from the input moving image data.
JP2001261877A 2001-08-30 2001-08-30 Image processor, image processing method and program Pending JP2003078880A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001261877A JP2003078880A (en) 2001-08-30 2001-08-30 Image processor, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001261877A JP2003078880A (en) 2001-08-30 2001-08-30 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2003078880A true JP2003078880A (en) 2003-03-14

Family

ID=19088857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001261877A Pending JP2003078880A (en) 2001-08-30 2001-08-30 Image processor, image processing method and program

Country Status (1)

Country Link
JP (1) JP2003078880A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005111989A2 (en) * 2004-05-19 2005-11-24 Sony Computer Entertainment Inc. Image frame processing method and device for displaying moving images to a variety of displays
JP2008035280A (en) * 2006-07-28 2008-02-14 Sanyo Electric Co Ltd Image decoding method, and image display method
CN101373590A (en) * 2004-05-19 2009-02-25 索尼计算机娱乐公司 Image frame processing method and device for displaying moving images to a variety of displays
JP2009510859A (en) * 2005-10-01 2009-03-12 カール ツァイス マイクロイメージング ゲーエムベーハー Method for generating a display image from a captured image and means for implementing the method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005111989A2 (en) * 2004-05-19 2005-11-24 Sony Computer Entertainment Inc. Image frame processing method and device for displaying moving images to a variety of displays
WO2005111989A3 (en) * 2004-05-19 2006-09-28 Sony Computer Entertainment Inc Image frame processing method and device for displaying moving images to a variety of displays
CN101373590A (en) * 2004-05-19 2009-02-25 索尼计算机娱乐公司 Image frame processing method and device for displaying moving images to a variety of displays
JP2009110536A (en) * 2004-05-19 2009-05-21 Sony Computer Entertainment Inc Image frame processing method and device, rendering processor and moving image display method
CN100593188C (en) * 2004-05-19 2010-03-03 索尼计算机娱乐公司 Image frame processing method and device for displaying moving images to a variety of displays
EP2309486A1 (en) * 2004-05-19 2011-04-13 Sony Computer Entertainment Inc. Image frame processing method and device for displaying moving images to a variety of displays
US8559798B2 (en) * 2004-05-19 2013-10-15 Sony Corporation Image frame processing method and device for displaying moving images to a variety of displays
JP2009510859A (en) * 2005-10-01 2009-03-12 カール ツァイス マイクロイメージング ゲーエムベーハー Method for generating a display image from a captured image and means for implementing the method
JP2008035280A (en) * 2006-07-28 2008-02-14 Sanyo Electric Co Ltd Image decoding method, and image display method

Similar Documents

Publication Publication Date Title
US10367997B2 (en) Enriched digital photographs
JP3319678B2 (en) High-speed video browsing system
US20040027367A1 (en) Method of and apparatus for processing zoomed sequential images
JP5133816B2 (en) Camera, image composition method, and program
US9959905B1 (en) Methods and systems for 360-degree video post-production
JP2007328755A (en) Image processor, image processing method and program
JP3344601B2 (en) Image data reproducing method and apparatus, still image detecting apparatus and method, scene change detecting apparatus and method, and frame synchronizer
WO2010058334A1 (en) Merging of a video and still pictures of the same event, based on global motion vectors of this video
JP4938615B2 (en) Video recording / playback device
JP2002290876A (en) Method for presenting motion image sequences
US10554948B2 (en) Methods and systems for 360-degree video post-production
JP2006314090A (en) Method for converting and displaying video to be implemented by computer
KR100726819B1 (en) Video imaging device, video conversion device, and video edition device
EP1052645A2 (en) Video editing system
JPH08214251A (en) Apparatus and method for video effect generation
TWI404415B (en) Method and device for generating motion menu
JP3814565B2 (en) Recording device
JP2003078880A (en) Image processor, image processing method and program
JP3683462B2 (en) Movie display device
JP2009071857A (en) Image processing apparatus, image processing method and program
JP3177366B2 (en) High-speed image playback system
JP3045730B2 (en) Recording device
JP3312456B2 (en) Video signal processing device
JP3467998B2 (en) Video signal recording and reproducing method, and video signal recording / reproducing device
Lei et al. A new architecture for a TV graphics animation module