JPH09200686A - Moving picture synthesizer - Google Patents

Moving picture synthesizer

Info

Publication number
JPH09200686A
JPH09200686A JP8024639A JP2463996A JPH09200686A JP H09200686 A JPH09200686 A JP H09200686A JP 8024639 A JP8024639 A JP 8024639A JP 2463996 A JP2463996 A JP 2463996A JP H09200686 A JPH09200686 A JP H09200686A
Authority
JP
Japan
Prior art keywords
difference
image
moving image
edge
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8024639A
Other languages
Japanese (ja)
Inventor
Takako Maruta
貴子 丸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP8024639A priority Critical patent/JPH09200686A/en
Publication of JPH09200686A publication Critical patent/JPH09200686A/en
Pending legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide one piece of synthetic picture by synthesizing plural images consisting of a moving picture. SOLUTION: With the 1st image data as reference data, a moving picture difference discriminating part 5 discriminates difference concerning the respective RGB of n-th image data and a moving picture difference synthesization processing part 9 synthesizes the difference with the 1st image signal. A moving picture difference edge discriminating part 6 discriminates whether the differential image is an edge or not and when it is an edge image, an edge emphasis filter 7 emphasizes the difference.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、動画を構成する複
数の画像を合成して1枚の合成画を得る動画合成装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving picture synthesizing apparatus for synthesizing a plurality of images constituting a moving picture to obtain one composite picture.

【0002】[0002]

【従来の技術】例えば特開昭63−9379号公報に
は、動画を構成する1フレーム又は1フィールドの画像
信号を1単位画像として静止画として抽出する方法が提
案されている。
2. Description of the Related Art For example, Japanese Patent Application Laid-Open No. 63-9379 proposes a method of extracting an image signal of one frame or one field forming a moving image as one unit image as a still image.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の方法では、動画を構成する画像信号の1フレーム又
は1フィールドを静止画として抽出するので、動画の変
化を1つの合成画像として得ることができないという問
題点がある。
However, in the above-mentioned conventional method, one frame or one field of the image signal forming a moving image is extracted as a still image, so that the change in the moving image cannot be obtained as one combined image. There is a problem.

【0004】本発明は上記従来の問題点に鑑み、動画を
構成する複数の画像を合成して1枚の合成画を得ること
ができる動画合成カラー画像形成装置を提供することを
目的とする。
In view of the above-mentioned conventional problems, it is an object of the present invention to provide a moving image combined color image forming apparatus capable of combining a plurality of images forming a moving image to obtain one combined image.

【0005】[0005]

【課題を解決するための手段】本発明は上記目的を達成
するために、動画を構成する複数の画像信号の最初の画
像信号に対する差分又は複数の画像信号の前後の差分を
抽出する差分抽出手段と、前記差分抽出手段により抽出
された差分の画像を最初の画像信号に合成する合成手段
とを有することを特徴とする。
To achieve the above object, the present invention provides a difference extracting means for extracting a difference between a plurality of image signals forming a moving image with respect to a first image signal or a difference before and after the plurality of image signals. And a synthesizing means for synthesizing the image of the difference extracted by the difference extracting means with the first image signal.

【0006】また、前記差分抽出手段により抽出された
差分の画像がエッジか否かを判定し、エッジ画像の場合
に強調して最初の画像信号に合成することを特徴とす
る。
Further, it is characterized in that it is judged whether or not the image of the difference extracted by the difference extracting means is an edge, and if the image is an edge image, it is emphasized and combined with the first image signal.

【0007】[0007]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。図1は本発明に係る動画合成カラ
ー画像形成装置の一実施形態を示すブロック図、図2は
図1の動画合成カラー画像形成装置の処理を説明するた
めのフローチャート、図3は入力動画データの一例を示
す説明図、図4は図1の動画入力データ変換部の処理を
示す説明図、図5は図1の記録媒体に記録される動画デ
ータを示す説明図、図6は図1の記録媒体から動画差分
判定部に転送されるイメージデータを示す説明図、図7
は図1の動画差分判定部の処理を示す説明図、図8は図
1の動画差分エッジ判定部の処理を示す説明図、図9は
図1のエッジ強調フィルタの処理を示す説明図、図10
は図1の動画合成処理部の処理を示す説明図である。
Embodiments of the present invention will be described below with reference to the drawings. 1 is a block diagram showing an embodiment of a moving image composite color image forming apparatus according to the present invention, FIG. 2 is a flow chart for explaining processing of the moving image composite color image forming apparatus of FIG. 1, and FIG. FIG. 4 is an explanatory diagram showing an example, FIG. 4 is an explanatory diagram showing processing of the moving image input data conversion unit of FIG. 1, FIG. 5 is an explanatory diagram showing moving image data recorded on the recording medium of FIG. 1, and FIG. 6 is recording of FIG. 7 is an explanatory view showing image data transferred from the medium to the moving image difference determination unit, FIG.
1 is an explanatory diagram showing the processing of the moving image difference determination unit of FIG. 1, FIG. 8 is an explanatory diagram showing the processing of the moving image difference edge determination unit of FIG. 1, and FIG. 9 is an explanatory diagram showing the processing of the edge enhancement filter of FIG. 10
FIG. 3 is an explanatory diagram showing the processing of the moving picture composition processing unit in FIG. 1.

【0008】図1において動画映像装置(例えばパーソ
ナル・コンピュータ、以下、「パソコン」)1は、入力
部2を介して動画を記録媒体4に入力する時間と、間隔
とサイズが指定された後、入力スタート信号を受けると
一連の動きのある動画信号を1次元のRGB系デジタル
信号として出力する。動画入力データ変換部3はこの1
次元のRGB系デジタル信号を、入力部2を介して指定
された入力サイズに基づいて2次元のRGB系デジタル
信号に変換し、記録媒体4に転送する。この場合、記録
媒体4は入力サイズ(ヘッダ)と2次元のRGB系デジ
タル信号を記録するのに十分な容量を有し、入力順に記
録する。
In FIG. 1, a moving image device (for example, a personal computer, hereinafter referred to as a "personal computer") 1 has a time, interval and size designated after inputting a moving image into a recording medium 4 via an input unit 2. When receiving the input start signal, a series of moving image signals are output as a one-dimensional RGB digital signal. Video input data converter 3
The dimensional RGB system digital signal is converted into a two-dimensional RGB system digital signal based on the input size designated via the input unit 2 and transferred to the recording medium 4. In this case, the recording medium 4 has an input size (header) and a capacity sufficient to record a two-dimensional RGB digital signal, and records in order of input.

【0009】動画差分判定部5は1枚分のフレームメモ
リを有し、このフレームメモリは入力サイズ(ヘッダ)
とA3サイズ以上のRGBデータを記憶する容量を有す
る。このフレームメモリには先ず、出力画像として記録
媒体4に最初に動画データとして記録された画像データ
が転送、記憶され、動画差分判定部5は、記録媒体4に
n番目に動画データとして記録された画像データが合成
データとして入力すると、最初の画像データを基準デー
タとしてRGBの各々について差分を判定する。
The moving image difference determination section 5 has a frame memory for one sheet, and this frame memory has an input size (header).
And has a capacity to store RGB data of A3 size or more. In this frame memory, the image data first recorded as moving image data in the recording medium 4 is transferred and stored as an output image, and the moving image difference determination unit 5 is recorded as the nth moving image data in the recording medium 4. When the image data is input as composite data, the difference is determined for each of RGB using the first image data as reference data.

【0010】次に、動画差分エッジ判定部6は動画差分
判定部5により判定された差分に基づいて次のように差
分のエッジを判定する。先ず、3×3画素のブロックに
おいて中心の注目画素が差分と判定された場合、周囲の
8個のデータを最初の基準データとn番目のデータから
読み込んで動画差分判定部5と同様に各々の画素につい
て比較し、8個のデータの内1個でも差分を判定しない
場合には注目画素が差分のエッジと判定する。
Next, the moving image difference edge determination unit 6 determines the edge of the difference as follows based on the difference determined by the moving image difference determination unit 5. First, when it is determined that the center pixel of interest in the block of 3 × 3 pixels is the difference, the surrounding eight data are read from the first reference data and the n-th data and each of them is read in the same manner as the moving image difference determination unit 5. Pixels are compared, and if even one of the eight data does not determine the difference, the pixel of interest is determined to be the edge of the difference.

【0011】エッジ強調フィルタ7は動画差分エッジ判
定部6と同様に3×3画素のマトリクスで構成され、動
画差分エッジ判定部6により差分のエッジと判定された
注目画素と周囲の5個の画素の値に係数を掛けることに
より注目画素の値を強調する。動画差分抽出部8は動画
差分エッジ判定部6により差分のエッジと判定された画
素についてはエッジ強調フィルタ7により強調された差
分を抽出し、エッジでないと判定された画素については
動画差分判定部5により判定された差分を抽出する。動
画差分合成処理部9は動画差分抽出部8により抽出され
た差分を、動画差分判定部5のフレームメモリに記憶さ
れている第1番目の画像データの対応する画素の位置に
はめ込むことにより合成する。
The edge enhancement filter 7 is composed of a matrix of 3 × 3 pixels similarly to the moving image difference edge determining unit 6, and the pixel of interest determined by the moving image difference edge determining unit 6 as a difference edge and five surrounding pixels. The value of the pixel of interest is emphasized by multiplying the value of by a coefficient. The moving image difference extraction unit 8 extracts the difference emphasized by the edge enhancement filter 7 for the pixel determined to be the difference edge by the moving image difference edge determination unit 6, and the moving image difference determination unit 5 for the pixel determined not to be the edge. The difference determined by is extracted. The moving image difference combination processing unit 9 combines the difference extracted by the moving image difference extraction unit 8 by fitting it into the position of the corresponding pixel of the first image data stored in the frame memory of the moving image difference determination unit 5. .

【0012】このように、記録媒体4に記録された一連
の画像データについて、2番目、3番目〜のデータを最
初のデータを基準として、動画差分判定、動画差分エッ
ジ判定、エッジ強調、動画差分抽出、動画差分合成の各
処理を行い、2次元のRGB系デジタル信号により1つ
の画像データをフレームメモリ上に作成してカラー画像
記録装置10に出力する。カラー画像記録装置10はこ
の1枚の合成画を用紙上にプリントアウトする。
As described above, with respect to the series of image data recorded on the recording medium 4, the moving image difference determination, the moving image difference edge determination, the edge emphasis, the moving image difference are performed with the second data, the third data to the first data as a reference. Each process of extraction and moving image difference synthesis is performed, and one image data is created on a frame memory by a two-dimensional RGB system digital signal and output to the color image recording device 10. The color image recording apparatus 10 prints out this one composite image on a sheet.

【0013】次に図2を参照して上記処理の流れを説明
する。動画の入力時間、間隔、サイズが指定された場
合、先ず、一連の動画データの終了が確認され(ステッ
プ201)、一連の動画データの記録媒体4への入力が
終了していない場合には、パソコン1からの1次元の動
画データの読み込み(ステップ202)と、2次元の動
画データへの変換(ステップ203)と記録媒体4への
入力(ステップ204)が行われ、動画データが記録媒
体4に記録される(ステップ205)。
Next, the flow of the above processing will be described with reference to FIG. When the input time, the interval, and the size of the moving image are designated, first, the end of the series of moving image data is confirmed (step 201), and when the input of the series of moving image data to the recording medium 4 is not completed, The one-dimensional moving image data is read from the personal computer 1 (step 202), converted into two-dimensional moving image data (step 203), and input to the recording medium 4 (step 204). Is recorded (step 205).

【0014】一連の動画データの終了が確認され(ステ
ップ201)、一連の動画データの記録媒体4への入力
が終了すると、1番最初のイメージデータを動画差分判
定部5内のフレームメモリに記録する(ステップ206
〜209)。この場合には、前のイメージデータが存在
しないので、差分は判定しない(できない)。次いで2
番目のイメージデータの注目画素とその画素位置に対応
する1番最初のイメージデータの画素を読み込んで差分
を判定する(ステップ210〜215)。そして、差分
を判定した場合には周囲の8画素の差分を判定し(ステ
ップ216〜219)、注目画素と周囲の8画素の差分
を判定した場合にはエッジ強調処理を行い(ステップ2
21)、その差分を当該画素にはめ込む(ステップ22
2)。
When the end of the series of moving image data is confirmed (step 201) and the input of the series of moving image data to the recording medium 4 is completed, the first image data is recorded in the frame memory in the moving image difference determining section 5. Yes (step 206)
~ 209). In this case, since there is no previous image data, the difference is not determined (cannot be determined). Then 2
The pixel of interest of the second image data and the pixel of the first image data corresponding to the pixel position are read to determine the difference (steps 210 to 215). Then, when the difference is determined, the difference between the surrounding 8 pixels is determined (steps 216 to 219), and when the difference between the target pixel and the surrounding 8 pixels is determined, edge enhancement processing is performed (step 2
21) and fit the difference into the pixel (step 22).
2).

【0015】以下、最後のイメージデータまで同様な処
理を行うことにより差分を判定して移動物体を判定する
とエッジを強調してはめ込み、1つの合成イメージデー
タを作成し、このイメージデータをカラー画像記憶装置
10に取り込んで1枚のハードコピーを作成する(ステ
ップ223、224)。
After that, the same process is performed up to the last image data to determine the difference, and when a moving object is determined, the edge is emphasized and fitted, one composite image data is created, and this image data is stored as a color image. It is taken into the apparatus 10 and one hard copy is created (steps 223 and 224).

【0016】次に、図3〜図10を参照して具体的な動
作を説明する。例えばパソコン1が外部からwindows
(米国マイクロソフト社商標)データの縦500*横5
00画素サイズを60秒間10秒間隔で出力する指令を
受けた場合、図3(a)(b)に示すように縦500*
横500画素サイズの1次元のRGBデータをサイズデ
ータと共に、0秒後(d0)、10秒後(d1)、20
秒後(d2)、30秒後(d3)、40秒後(d4)、
50秒後(d5)、60秒後(d6)に動画入力データ
変換部3に出力する。図3(a)は移動物体(月)が時
間の経過と共に静止物体(山)の上を移動する動画を示
し、この例では静止物体(山)の画素位置では最初の画
像信号(又は画像信号間)との差分は「0」であり、移
動物体(月)の画素位置では差分が現れる。
Next, a specific operation will be described with reference to FIGS. For example, the personal computer 1 is windows from the outside
(Trademark of Microsoft Corporation, USA) Vertical 500 * Horizontal 5
When a command to output a 00 pixel size for 60 seconds at intervals of 10 seconds is received, vertical 500 * as shown in FIGS.
One-dimensional RGB data of horizontal 500 pixel size, together with size data, 0 seconds later (d0), 10 seconds later (d1), 20
Seconds later (d2), 30 seconds later (d3), 40 seconds later (d4),
After 50 seconds (d5) and 60 seconds (d6), the data is output to the moving image input data conversion unit 3. FIG. 3A shows a moving image of a moving object (month) moving over a stationary object (mountain) over time, and in this example, the first image signal (or image signal) at the pixel position of the stationary object (mountain). Difference) is “0”, and the difference appears at the pixel position of the moving object (month).

【0017】動画入力データ変換部3はこの1次元のR
GBデータをサイズデータに基づいて、図4に示すよう
に2次元のRGBデータに変換し、図5に示すように画
像データd0〜d6をサイズデータと共に記録媒体4に
記録する。動画差分判定部5は先ず、図6に示すように
0秒後のデータd0をサイズデータと共に内部フレーム
メモリに取り込む。次いで図7に示すようにデータd1
〜d6をサイズデータと共に内部フレームメモリに順次
取り込み、0秒後のデータd0を基準として縦500*
横500画素の各画素について差分が有るか否かを判定
する。
The moving image input data conversion unit 3 uses this one-dimensional R
Based on the size data, the GB data is converted into two-dimensional RGB data as shown in FIG. 4, and the image data d0 to d6 are recorded on the recording medium 4 together with the size data as shown in FIG. The moving image difference determination unit 5 first loads the data d0 after 0 seconds into the internal frame memory together with the size data as shown in FIG. Then, as shown in FIG. 7, data d1
~ D6 are sequentially loaded into the internal frame memory together with the size data, and vertical 500 * based on the data d0 after 0 seconds.
It is determined whether or not there is a difference for each of the horizontal 500 pixels.

【0018】次いで動画差分エッジ判定部6は例えば図
8に示すように動画差分判定部5により第55ラインの
18番目の画素に差分が有ると判定された場合、その注
目画素の周囲の8画素、すなわち第54、第56ライン
の17、18、19番目の画素、第55ラインの17、
19番目の画素の内、1個でも差分を判定しない場合に
は注目画素が差分のエッジと判定する。
Next, when the moving image difference edge determining unit 6 determines that the 18th pixel on the 55th line has a difference as shown in FIG. 8 for example, the moving image difference edge determining unit 6 has 8 pixels around the pixel of interest. , That is, the 17, 18 and 19th pixels on the 54th and 56th lines and the 17th on the 55th line,
If even one of the 19th pixels does not determine the difference, the pixel of interest is determined to be the edge of the difference.

【0019】エッジ強調フィルタ7はエッジと判定され
た場合に例えば図9に示すような係数で注目画素の差分
を強調して抽出し、また、エッジでない判定された場合
には差分をそのまま抽出する。動画合成処理部9は図1
0に示すように第1番目の画像データに差分データをは
め込むことにより合成し、また、20秒後(d2)、3
0秒後(d3)、40秒後(d4)、50秒後(d
5)、60秒後(d6)についても同様な処理を行う
と、エッジが強調された移動物体(月)が静止物体
(山)の上を移動した1枚の合成画が得られる。
The edge emphasis filter 7 emphasizes and extracts the difference of the pixel of interest with a coefficient as shown in FIG. 9 when it is judged to be an edge, and extracts the difference as it is when it is judged not to be an edge. . The moving image composition processing unit 9 is shown in FIG.
As shown in 0, the first image data is combined with the difference data to be combined, and after 20 seconds (d2), 3
0 seconds later (d3), 40 seconds later (d4), 50 seconds later (d
5) After 60 seconds (d6), the same process is performed to obtain a single composite image in which the moving object (moon) whose edge is emphasized moves on the stationary object (mountain).

【0020】[0020]

【発明の効果】以上説明したように本発明によれば、動
画を構成する複数の画像信号の最初の画像信号に対する
差分又は複数の画像信号の前後の差分を抽出し、差分の
画像を最初の画像信号に合成するようにしたので、動画
を構成する複数の画像を合成して1枚の合成画を得るこ
とができる。
As described above, according to the present invention, the difference between a plurality of image signals forming a moving image with respect to the first image signal or the difference before and after the plurality of image signals is extracted, and the difference image is first extracted. Since the image signals are combined, a plurality of images forming a moving image can be combined to obtain one combined image.

【0021】また、差分の画像がエッジか否かを判定
し、エッジ画像の場合に強調して最初の画像信号に合成
することにより、移動物体の変化を強調することができ
る。
Further, it is possible to emphasize the change of the moving object by determining whether or not the image of the difference is an edge, and emphasizing in the case of the edge image and combining with the first image signal.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る動画合成カラー画像形成装置の一
実施形態を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a moving image composite color image forming apparatus according to the present invention.

【図2】図1の動画合成カラー画像形成装置の処理を説
明するためのフローチャートである。
FIG. 2 is a flowchart for explaining a process of the moving image composite color image forming apparatus of FIG.

【図3】入力動画データの一例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of input moving image data.

【図4】図1の動画入力データ変換部の処理を示す説明
図である。
FIG. 4 is an explanatory diagram showing a process of a moving image input data conversion unit in FIG.

【図5】図1の記録媒体に記録される動画データを示す
説明図である。
5 is an explanatory diagram showing moving image data recorded on the recording medium of FIG. 1. FIG.

【図6】図1の記録媒体から動画差分判定部に転送され
るイメージデータを示す説明図である。
6 is an explanatory diagram showing image data transferred from the recording medium of FIG. 1 to a moving image difference determination unit.

【図7】図1の動画差分判定部の処理を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing a process of a moving image difference determination unit in FIG. 1.

【図8】図1の動画差分エッジ判定部の処理を示す説明
図である。
8 is an explanatory diagram showing a process of a moving image difference edge determination unit in FIG. 1. FIG.

【図9】図1のエッジ強調フィルタの処理を示す説明図
である。
9 is an explanatory diagram showing a process of the edge enhancement filter shown in FIG. 1. FIG.

【図10】図1の動画合成処理部の処理を示す説明図で
ある。
10 is an explanatory diagram showing a process of a moving image composition processing unit in FIG. 1. FIG.

【符号の説明】[Explanation of symbols]

5 動画差分判定部 6 動画差分エッジ判定部 7 エッジ強調フィルタ 8 動画差分抽出部 9 動画差分合成処理部 5 Video Difference Determination Unit 6 Video Difference Edge Determination Unit 7 Edge Enhancement Filter 8 Video Difference Extraction Unit 9 Video Difference Synthesis Processing Unit

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 動画を構成する複数の画像信号の最初の
画像信号に対する差分又は複数の画像信号の前後の差分
を抽出する差分抽出手段と、 前記差分抽出手段により抽出された差分の画像を最初の
画像信号に合成する合成手段とを有する動画合成装置。
1. A difference extracting means for extracting a difference between a plurality of image signals forming a moving image with respect to a first image signal or a difference before and after the plurality of image signals, and a difference image extracted by the difference extracting means is first displayed. Movie synthesizing device having a synthesizing means for synthesizing to the image signal of.
【請求項2】 前記差分抽出手段により抽出された差分
の画像がエッジか否かを判定し、エッジ画像の場合に強
調して最初の画像信号に合成することを特徴とする請求
項1記載の動画合成装置。
2. The method according to claim 1, wherein it is determined whether or not the difference image extracted by the difference extracting means is an edge, and if the image is an edge image, the difference image is emphasized and combined with the first image signal. Video synthesizer.
JP8024639A 1996-01-18 1996-01-18 Moving picture synthesizer Pending JPH09200686A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8024639A JPH09200686A (en) 1996-01-18 1996-01-18 Moving picture synthesizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8024639A JPH09200686A (en) 1996-01-18 1996-01-18 Moving picture synthesizer

Publications (1)

Publication Number Publication Date
JPH09200686A true JPH09200686A (en) 1997-07-31

Family

ID=12143710

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8024639A Pending JPH09200686A (en) 1996-01-18 1996-01-18 Moving picture synthesizer

Country Status (1)

Country Link
JP (1) JPH09200686A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170402A (en) * 2010-02-16 2011-09-01 Casio Computer Co Ltd Image processing apparatus and image processing program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011170402A (en) * 2010-02-16 2011-09-01 Casio Computer Co Ltd Image processing apparatus and image processing program
US8736682B2 (en) 2010-02-16 2014-05-27 Casio Computer Co., Ltd. Image processing apparatus

Similar Documents

Publication Publication Date Title
US6201571B1 (en) Digital camera recording a reduced image synthesized with a character image of the image picking-up information
JP3159329B2 (en) Digital signal processor
EP0472699A1 (en) Electronic still camera providing multi-format storage of full and reduced resolution images.
US5428456A (en) Method and apparatus for adaptively reducing interline flicker of TV-displayed image
CN101420612A (en) Still image compression using moving image techniques
US20090154551A1 (en) Apparatus for recording/reproducing moving picture, and recording medium thereof
JP3924792B2 (en) Image editing device
KR20090064273A (en) Recording apparatus, reproducing apparatus, recoding method, reproducing method and storing medium having program to perform the method
US6441850B1 (en) Method and apparatus for image processing using a template image
WO1999065224A3 (en) Creating animation from a video
EP1237122A2 (en) Method and apparatus for image processing
US7710464B2 (en) Image photographing and recording device and method
JPH09200686A (en) Moving picture synthesizer
US6917441B2 (en) Image recording/reproducing apparatus having an improved recording signal generating unit
JPH0614292A (en) Method for giving moving image effect on one part of still picture
JPH084783Y2 (en) Image processing device
JP2010278889A (en) Image processing apparatus, control method thereof, and program
JPH09149430A (en) Dynamic image synthesizing color image forming device
JPH0816758A (en) Line drawing processing method for animation image
JP2008090611A (en) Image processor, image processing method and program
JP3062702B2 (en) Image storage device
JPH10174031A (en) Image recording and reproducing device
JP3445869B2 (en) Digital video tape recorder and recording method of digital image data
JP3342717B2 (en) Image filing method and apparatus
JP2600256B2 (en) Memory device