JPH1083033A - Method for printing moving image - Google Patents

Method for printing moving image

Info

Publication number
JPH1083033A
JPH1083033A JP8238174A JP23817496A JPH1083033A JP H1083033 A JPH1083033 A JP H1083033A JP 8238174 A JP8238174 A JP 8238174A JP 23817496 A JP23817496 A JP 23817496A JP H1083033 A JPH1083033 A JP H1083033A
Authority
JP
Japan
Prior art keywords
image
area
moving
print target
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP8238174A
Other languages
Japanese (ja)
Other versions
JP3738087B2 (en
Inventor
Naoto Kaneshiro
金城  直人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP23817496A priority Critical patent/JP3738087B2/en
Publication of JPH1083033A publication Critical patent/JPH1083033A/en
Application granted granted Critical
Publication of JP3738087B2 publication Critical patent/JP3738087B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Projection-Type Copiers In General (AREA)
  • Control Of Exposure In Printing And Copying (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a print excellent in image quality from moving image data. SOLUTION: Each of data of an image to be printed in the moving image and reference images obtained one second before and after the image is fetched in a frame memory 28 in a frame unit. The data of the image and the reference images are subjected to local matching processing by a matching processing part 30 to divide the image into a still area and a moving area. Picture element data at the same position as the image and the reference image with respect to the still area is weighted and averaged by a still area weighting-averaging part 31. Then, the moving area is subjected to smoothing processing by using the image data on the object pciture by a moving area smoothing processing part 32. The processed image data in the still area and the moving area are composited by an image compositing part 33. Thus, random noise in the still area is reduced and blur in the moving area is made inconspicuous.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、動画像からプリン
ト対象画像を特定してこれのデータに基づきプリントす
る動画像のプリント方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image printing method for specifying an image to be printed from a moving image and printing based on the data.

【0002】[0002]

【従来の技術】8ミリビデオカメラやビデオレコーダー
等で記録された動画像を、ビデオプリンタ等を用いてプ
リントすることが行われている。この場合には、モニタ
ーに動画像を再生してこれを確認しながら、プリント対
象のシーンに対してフリーズキーを操作することで、フ
レームメモリに動画像の1フレーム分の画像データを取
り込み、この画像データに基づきプリントしている。
2. Description of the Related Art Moving images recorded by an 8 mm video camera or a video recorder are printed using a video printer or the like. In this case, by operating the freeze key on the scene to be printed while reproducing and confirming the moving image on the monitor, the image data for one frame of the moving image is loaded into the frame memory. Printing is performed based on image data.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、動画像
データから1フレーム分の画像データを取り出して、こ
の画像データに基づき単にプリントする場合には、画像
データが他のスチールカメラ等で得られた画像データに
比べて解像度が低いことや、ノイズ等の影響により、画
質が不十分となり、満足のいくプリントを作成すること
ができないという問題がある。また、8ミリビデオカメ
ラ等で撮影された動画像データから1フレーム分の画像
データを取り出す場合には、通常シャッタ速度が電子ス
チールカメラ等よりも低く設定されているので、動画像
がぶれた状態になっており、このままプリントすると、
動画像のぶれが目立ってしまい、画像品質が低下すると
いう問題がある。
However, when one frame of image data is extracted from the moving image data and simply printed based on this image data, the image data obtained by another still camera or the like is used. There is a problem that the image quality becomes insufficient due to the low resolution compared to the data and the influence of noise or the like, and a satisfactory print cannot be created. When extracting one frame of image data from moving image data captured by an 8 mm video camera or the like, the shutter speed is usually set lower than that of an electronic still camera or the like. , And if you print as it is,
There is a problem that blurring of a moving image is conspicuous and image quality is reduced.

【0004】本発明は上記課題を解決するためのもので
あり、動画像データからプリントを作成する際に、全体
の画像品質が低下することがないようにした動画像のプ
リント方法を提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and provides a moving image printing method in which the overall image quality is not degraded when a print is created from moving image data. With the goal.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、請求項1の動画像のプリント方法は、動画像中のプ
リント対象画像とこのプリント対象画像のn(nは自然
数)コマ前又はnコマ後の参照画像の各データをメモリ
にコマ単位で取り込み、プリント対象画像データと参照
画像データとに対して局所的マッチング処理を行って、
プリント対象画像を静止領域と動領域とに分け、静止領
域と動領域とに対して異なる画質改善処理を行うように
したものである。また、静止領域と動領域とに分ける他
に、プリント対象画像データから顔候補領域を抽出し、
動領域と顔候補領域とが重なりあっている領域を顔領域
と判定し、顔領域と、顔領域を除いた動領域と、静止領
域とに対して、異なる画質改善処理を行うようにしても
よい。また、動領域におけるプリント対象画像データに
基づき顔候補領域の抽出処理を行ってもよく、この場合
には顔候補領域の抽出処理の演算負荷が小さくなる。な
お、前記静止領域に対する画質改善処理は、プリント対
象画像と参照画像との同じ位置にある画素データを加重
平均し、この加重平均値を画像データとすることが好ま
しい。また、前記動領域に対する画質改善処理は、プリ
ント対象画像の画像データを用いて平滑化処理、又は強
調化処理することが好ましい。また、顔領域に対する画
質改善処理は、プリント対象画像の顔領域内の画像デー
タに基づき顔領域の濃度及び色を適正に仕上げるように
画像全体のプリント濃度及び色を調節したり、プリント
対象画像の顔領域内の画像データに基づき顔領域のみを
部分的に、その濃度及び色が適正に仕上げるように調節
したりすることが好ましい。
According to a first aspect of the present invention, there is provided a method for printing a moving image, comprising: a printing target image in the moving image; and n (n is a natural number) frames before the printing target image. Each data of the reference image after n frames is taken into the memory in frame units, and a local matching process is performed on the image data to be printed and the reference image data,
The print target image is divided into a still area and a moving area, and different image quality improvement processing is performed on the still area and the moving area. Also, in addition to dividing into a still area and a moving area, a face candidate area is extracted from the print target image data,
A region where the moving region and the face candidate region overlap each other is determined as a face region, and different image quality improvement processing is performed on the face region, the moving region excluding the face region, and the still region. Good. Further, the face candidate area extraction processing may be performed based on the print target image data in the moving area. In this case, the calculation load of the face candidate area extraction processing is reduced. In the image quality improvement processing for the still area, it is preferable that pixel data at the same position between the print target image and the reference image be weighted and averaged, and the weighted average value be used as image data. In the image quality improvement processing for the moving area, it is preferable to perform a smoothing processing or an enhancement processing using image data of an image to be printed. The image quality improvement processing for the face area is performed by adjusting the print density and color of the entire image based on the image data in the face area of the image to be printed so as to appropriately finish the density and color of the face area, It is preferable to partially adjust only the face area based on the image data in the face area so that the density and the color are appropriately finished.

【0006】請求項9記載の動画像のプリント方法は、
動画像中のプリント対象画像とこのプリント対象画像の
nコマ前又はnコマ後の参照画像の各データをメモリに
コマ単位で取り込み、プリント対象画像データに対して
参照画像データの位置を2次元的にずらしながら、各画
像を多数個に分割した分割エリアに対して局所的マッチ
ング処理を行って、その相違度が最も小さくなるずらし
位置の参照画像の分割エリアをプリント対象画像の分割
エリアに関連付けし、この関連付けにより画面全体にわ
たりプリント対象画像の分割エリアに対する参照画像の
分割エリアの動きベクトルを求め、この動きベクトルに
基づき移動撮影かズーミング撮影かを判定し、この判定
結果に基づき参照画像の画面全体の動きをキャンセルし
た補正動きベクトルを求め、この補正動きベクトルの大
きさが所定値内であればこの参照画像の分割エリアに対
応するプリント対象画像の分割エリアを静止領域と判定
し、その他の領域を動領域と判定して、プリント対象画
像における各分割エリアを静止領域と動領域とに分け、
静止領域と動領域とに対して異なる画質改善処理を行う
ようにしたものである。
According to a ninth aspect, there is provided a moving image printing method,
Each data of the print target image in the moving image and the reference image n frames before or after the print target image is fetched into the memory in frame units, and the position of the reference image data is two-dimensionally stored with respect to the print target image data. Local matching processing is performed on the divided areas obtained by dividing each image into a large number, and the divided area of the reference image at the shifted position where the degree of difference is minimized is associated with the divided area of the image to be printed. Based on this association, the motion vector of the divided area of the reference image with respect to the divided area of the image to be printed is obtained over the entire screen, and it is determined whether the moving image capturing or the zooming image capturing is performed based on the motion vector. A corrected motion vector that cancels the motion of is obtained, and the magnitude of the corrected motion vector is within a predetermined value. If so, the divided area of the print target image corresponding to the divided area of the reference image is determined as a still area, the other areas are determined as moving areas, and each divided area in the print target image is determined as a still area and a moving area. Division,
Different image quality improvement processing is performed for a still area and a moving area.

【0007】[0007]

【作用】動画像中のプリント対象画像とこのプリント対
象画像のnコマ前又はnコマ後の参照画像の各データが
フレームメモリにコマ単位で取り込まれる。これらプリ
ント対象画像データと参照画像データとに対して局所的
マッチング処理が行われる。この局所的マッチング処理
によりプリント対象画像データと参照画像データとが一
致する場合には静止領域と判定される。また、不一致の
場合には動領域と判定される。これら静止領域と動領域
とに対しては異なる画質改善処理が行われる。
The data of the print target image in the moving image and the reference image n frames before or n frames after the print target image are loaded into the frame memory in frame units. Local matching processing is performed on the print target image data and the reference image data. If the image data to be printed matches the reference image data by this local matching process, it is determined that the image is a still area. If they do not match, it is determined to be a moving area. Different image quality improvement processing is performed on the still area and the moving area.

【0008】静止領域と動領域とに分けた後に、顔候補
領域が抽出される。顔候補領域は、例えばプリント対象
画像データから人物の肌色を特定する色及び濃度を持つ
画素を抽出し、これら抽出した画素が一定領域内に集合
しているときに、顔候補領域とされる。また、顔の輪
郭、頭部、人物胴体、目や口、眉等の顔内部構造の形状
を検出することで、顔候補領域を特定してもよい。そし
て、動領域と顔候補領域とが重なりあっている領域が顔
領域と判定される。静止領域と動領域との判別処理と、
顔候補領域抽出処理とは、並行処理してもよく、あるい
は順次処理してもよい。順次に処理する場合には、動領
域のプリント対象画像データに基づき顔候補領域を抽出
することで、抽出処理対象領域が動領域に限定されるた
め、顔領域の抽出が効率良く行える。
[0008] After dividing into a still area and a moving area, a face candidate area is extracted. The face candidate area is a face candidate area when, for example, pixels having a color and density that specify the flesh color of a person are extracted from the print target image data and these extracted pixels are gathered in a certain area. Alternatively, the face candidate region may be specified by detecting the shape of the internal structure of the face such as the contour of the face, the head, the human body, the eyes, the mouth, and the eyebrows. Then, an area where the moving area and the face candidate area overlap with each other is determined as a face area. Discrimination processing between a stationary area and a moving area,
The face candidate area extraction processing may be performed in parallel or sequentially. When processing is performed sequentially, the face candidate area is extracted based on the print target image data of the moving area, so that the extraction processing target area is limited to the moving area, so that the face area can be efficiently extracted.

【0009】これら顔領域と、顔領域を除いた動領域
と、静止領域とに対して、異なる画質改善処理が行われ
る。画質改善処理として、静止領域には、プリント対象
画像と参照画像との同じ位置にある画素データを加重平
均することが行われ、これによりランダムノイズが除去
される。また、前記動領域に対しては、プリント対象画
像の画像データを用いて平滑化処理が行われ、動領域内
の画像をぼかすことで、人物等のぶれが目立たなくされ
る。顔領域に対しては例えば強調処理が行われる。ま
た、プリント対象画像の顔領域内の画像データに基づき
顔領域の濃度及び色を適正に仕上げるように、画像全体
又は顔領域のみのプリント濃度及び色が調節される。
Different image quality improvement processing is performed on the face area, the moving area excluding the face area, and the still area. As image quality improvement processing, weighted averaging of pixel data at the same position of the print target image and the reference image is performed in the still area, thereby removing random noise. In addition, the moving area is subjected to a smoothing process using image data of an image to be printed, and blurring an image in the moving area makes blurring of a person or the like inconspicuous. For example, an emphasis process is performed on the face area. Further, the print density and color of the entire image or only the face area are adjusted so that the density and color of the face area are appropriately finished based on the image data in the face area of the print target image.

【0010】また、プリント対象画像データと参照画像
データとに対して位置を2次元的にずらしながら局所的
マッチング処理が行われる。そして、その相違度が最も
小さくなるずらし位置のブロックを関連付けし、この関
連付けにより画面全体にわたり動きベクトルが求められ
る。この動きベクトルに基づきカメラが移動中か、ズー
ミング中かが判定される。そしてこの判定結果により、
カメラの挙動に基づき画面全体の動きをキャンセルする
補正動きベクトルが求められる。そして、この補正動き
ベクトルの大きさが所定値内であれば静止領域と判定さ
れ、残りの領域が動領域とされる。これら静止領域と動
領域とに対して異なる画質改善処理が行われる。
Further, local matching processing is performed while the positions of the print target image data and the reference image data are shifted two-dimensionally. Then, the block at the shift position where the degree of difference is minimized is associated, and a motion vector is obtained over the entire screen by this association. Based on this motion vector, it is determined whether the camera is moving or zooming. And, based on the result of this
A corrected motion vector for canceling the motion of the entire screen is obtained based on the behavior of the camera. If the magnitude of the corrected motion vector is within a predetermined value, it is determined that the area is a stationary area, and the remaining area is a moving area. Different image quality improvement processing is performed on the still area and the moving area.

【0011】[0011]

【発明の実施の形態】図1は、本発明を実施したビデオ
プリンタの機能ブロック図である。このビデオプリンタ
10は、画像入力部11と、画像処理部12と、プリン
ト部13とから構成されている。
FIG. 1 is a functional block diagram of a video printer embodying the present invention. The video printer 10 includes an image input unit 11, an image processing unit 12, and a print unit 13.

【0012】画像入力部11には、例えば8mmビデオカ
メラ14の映像出力が入力される。画像入力部11はY
/C分離回路16及びデコーダ17を備えている。Y/
C分離回路16は、ビデオカメラ14からのNTSC信
号を輝度信号(Y)と色信号(C)とに分離する。デコ
ーダ17は、輝度信号(Y)と色信号(C)とを赤
(R),緑(G),青(B)の3原色信号に変換し、A
/D変換器18とセレクタ19とに送る。なお、映像出
力は8mmビデオカメラ14のものに限定されることな
く、ビデオテープレコーダ,テレビ,パソコン等からの
ものであってもよい。また、映像出力はNTSC信号に
限定されることはなく、R,G,Bのデジタル信号等で
あってもよい。
An image output from, for example, an 8 mm video camera 14 is input to the image input unit 11. Image input unit 11 is Y
/ C separation circuit 16 and a decoder 17. Y /
The C separation circuit 16 separates the NTSC signal from the video camera 14 into a luminance signal (Y) and a chrominance signal (C). The decoder 17 converts the luminance signal (Y) and the chrominance signal (C) into three primary color signals of red (R), green (G), and blue (B).
The signal is sent to the / D converter 18 and the selector 19. The video output is not limited to that of the 8 mm video camera 14, but may be output from a video tape recorder, a television, a personal computer, or the like. The video output is not limited to the NTSC signal, but may be an R, G, B digital signal or the like.

【0013】セレクタ19は、通常再生モードでは端子
(a)側にセットされており、フリーズモードでは端子
(b)側にセットされている。セレクタ19が端子
(a)側にセットされると、画像データはエンコーダ2
0を介してカラーモニタ22に送られ、このカラーモニ
タ22に再生中の画像が表示される。このカラーモニタ
22の画像を観察して、プリント対象画像を特定する。
この特定はキーボード25のフリーズボタンを押すこと
により行われる。キーボード25はシステムコントロー
ラ26に接続されており、このキーボード25から各種
指令の入力が行われる。システムコントローラ26は周
知のマイクロコンピュータから構成されており、各部を
シーケンス制御する。このシステムコントローラ26に
は液晶ディスプレィ27が接続されており、各種モード
の表示や指令が表示されるようになっている。なお、液
晶ディスプレィ27を用いる代わりにカラーモニタ22
に各種モードや指令等を表示してもよい。
The selector 19 is set on the terminal (a) side in the normal reproduction mode, and is set on the terminal (b) side in the freeze mode. When the selector 19 is set to the terminal (a) side, the image data is
0 is sent to the color monitor 22, and the image being reproduced is displayed on the color monitor 22. By observing the image on the color monitor 22, the image to be printed is specified.
This specification is performed by pressing the freeze button of the keyboard 25. The keyboard 25 is connected to the system controller 26, and various commands are input from the keyboard 25. The system controller 26 is composed of a well-known microcomputer, and controls each part in sequence. A liquid crystal display 27 is connected to the system controller 26 to display various modes and commands. Note that instead of using the liquid crystal display 27, the color monitor 22 is used.
In addition, various modes, commands, and the like may be displayed.

【0014】デコーダ17からの三色画像データはA/
D変換器18でデジタル化され、システムコントローラ
26によって、画像の再生中にリアルタイムで表示画像
がフレームメモリ28に送られる。フレームメモリ28
は、プリント対象用フレームメモリと、2個の参照用フ
レームメモリとから構成されており、各フレームメモリ
にはR,G,Bの各色ごとに画像データが記憶される。
参照用フレームメモリには、プリント対象画像の1秒前
と1秒後の画像が記憶されるが、この参照対象画像は1
秒前又は1秒後に限定されるものではなく、キーボード
25から参照画像の採取間隔を適宜設定することができ
る。この採取間隔は、時間により特定する他に、フレー
ム数によって特定してもよい。
The three-color image data from the decoder 17 is A /
The image is digitized by the D converter 18, and the display image is sent to the frame memory 28 in real time by the system controller 26 while the image is being reproduced. Frame memory 28
Is composed of a print target frame memory and two reference frame memories, and each frame memory stores image data for each of R, G, and B colors.
The reference frame memory stores images one second before and one second after the image to be printed.
The time interval is not limited to seconds before or after one second, and the sampling interval of the reference image from the keyboard 25 can be set as appropriate. This sampling interval may be specified by the number of frames in addition to being specified by time.

【0015】フリーズボタンにより特定されたプリント
対象画像と参照画像の画像データは、フレームメモリ2
8に書き込まれる。キーボード25の操作によりフリー
ズ画像の表示が選択されると、セレクタ19が端子
(b)側にセットされ、D/A変換器29,エンコーダ
20を介して、書き込まれたプリント対象画像のデータ
はカラーモニタ22に送られる。これにより、カラーモ
ニタ22にプリント対象画像が表示される。このプリン
ト対象画像をカラーモニタ22で確認した後、キーボー
ド25からプリントスタート信号が入力されると、シス
テムコントローラ26は、このフレームメモリ28から
プリント対象画像と参照画像との画像データを画像処理
部12に送る。
The image data of the print target image and the reference image specified by the freeze button are stored in the frame memory 2.
8 is written. When the display of the freeze image is selected by operating the keyboard 25, the selector 19 is set to the terminal (b) side, and the data of the print target image written through the D / A converter 29 and the encoder 20 is converted into color data. It is sent to the monitor 22. As a result, the image to be printed is displayed on the color monitor 22. After the print target image is confirmed on the color monitor 22 and a print start signal is input from the keyboard 25, the system controller 26 transmits the image data of the print target image and the reference image from the frame memory 28 to the image processing unit 12. Send to

【0016】画像処理部12では、まずマッチング処理
部30により、プリント対象画像と参照画像との局所的
マッチング処理が行われる。この局所的マッチング処理
は、プリント対象画像と参照画像とをm×mの分割エリ
アに分割して、これら各分割エリア毎に各画素に対して
プリント対象画像と参照画像との画素間差分の絶対値和
を求め、この値が所定の閾値内にある場合に、このブロ
ックを静止領域と判定し、また、所定の閾値から外れる
場合に、このブロックを動領域と判定する。なお、絶対
値和の他に、画素間差分の二乗和を用いてもよい。静止
領域の画像データは、静止領域加重平均部31に送られ
る。また、静止領域を除いた動領域の画像データは、動
領域平滑化処理部32に送られる。なお、画像処理部1
2では、この他にガンマ補正、マトクリス補正、文字イ
ラスト合成、拡大/縮小、トリミング等の周知の処理が
行われる。
In the image processing section 12, first, the matching processing section 30 performs a local matching process between the image to be printed and the reference image. This local matching process divides the print target image and the reference image into m × m divided areas, and for each of these divided areas, calculates the absolute value of the pixel difference between the print target image and the reference image for each pixel. A sum of values is obtained, and when this value is within a predetermined threshold, this block is determined as a still area, and when it deviates from the predetermined threshold, this block is determined as a moving area. Note that, in addition to the sum of absolute values, a sum of squares of differences between pixels may be used. The image data of the still area is sent to the still area weighted averaging unit 31. The image data of the moving region excluding the still region is sent to the moving region smoothing processing unit 32. The image processing unit 1
In step 2, other well-known processes such as gamma correction, matto-criss correction, character illustration synthesis, enlargement / reduction, and trimming are performed.

【0017】静止領域加重平均部31では、プリント対
象画像と参照画像とにおける同位置の画素データから加
重平均値を求め、これを画像合成部33に送る。加重平
均値はプリント対象画像側の画像データに重みをおいて
求められ、この重み付け係数は、採取する参照画像の間
隔や、入力する画像種別によって、システムコントロー
ラ26から変更される。なお、加重平均値を求める際に
は、プリント対象画像の画素値から所定値離れた値を持
つ画素を除外しており、異なる被写体の一部が紛れ込む
ことを防止している。また、プリント対象画像の画素値
の代わりに、求めた加重平均値を基準にしてこの値から
所定値離れた値を持つ画素を除外するようにしてもよ
い。
The still area weighted averaging unit 31 calculates a weighted average value from pixel data at the same position in the image to be printed and the reference image, and sends this to the image synthesizing unit 33. The weighted average value is obtained by weighting the image data on the image to be printed, and the weighting coefficient is changed by the system controller 26 according to the interval between the reference images to be collected and the type of the input image. When calculating the weighted average value, pixels having a value that is a predetermined value away from the pixel value of the image to be printed are excluded to prevent a part of a different subject from entering. Further, instead of the pixel value of the image to be printed, a pixel having a value that is a predetermined value away from this value may be excluded based on the obtained weighted average value.

【0018】動領域平滑化処理部32では、プリント対
象画像の画像データを用いて、これの動領域をk×kの
ブロックに分けて、各ブロックの平滑化処理を行う。こ
の平滑化処理された画像データは、画像合成部33に送
られる。この平滑化処理によって動領域内の画像をぼか
す処理が行える。したがって、動領域内で被写体が動い
て画像が流れている場合にこれがぼかされることで、画
像の流れを目立たなくすることができ、プリントの全体
的な品質を上げることができる。
The moving area smoothing section 32 uses the image data of the image to be printed, divides the moving area into k × k blocks, and performs a smoothing process on each block. This smoothed image data is sent to the image synthesizing unit 33. By this smoothing process, a process of blurring the image in the moving area can be performed. Therefore, when an image moves due to the movement of the subject in the moving area, the flow of the image can be made inconspicuous, and the overall print quality can be improved.

【0019】画像合成部33では、静止領域加重平均部
31からの静止領域の画像データと、動領域平滑化処理
部32からの動領域の画像データとを画像合成する。こ
の画像合成により得られた1フレーム分の画像データ
は、プリント用フレームメモリ35に書き込まれる。
The image synthesizing section 33 synthesizes the image data of the static area from the static area weighted averaging section 31 and the image data of the moving area from the moving area smoothing processing section 32. One frame of image data obtained by the image synthesis is written into the print frame memory 35.

【0020】プリント部13はプリント用フレームメモ
リ35とプリンタ36とから構成されている。プリンタ
36は、プリント用フレームメモリ35から、画像デー
タを読みだして、これに基づき光ビームを変調し、銀塩
写真カラー感光材料(カラーペーパー)のイエロー、マ
ゼンタ、シアンの各感光層を走査露光する。なお、光ビ
ームを変調する代わりに、サイズが極めて小さいミラー
(マイクロミラー)をライン又はマトリクスに配列し、
各マイクロミラーの傾斜角を制御して入射光を偏向する
マイクロミラー装置を用いて、走査露光してもよい。更
には、液晶パネルやCRTを用いてもよい。周知のよう
に、カラーペーパーとして、ネガ・ポジタイプのものを
用いる場合には画像データはポジ・ネガ変換される。こ
のポジ・ネガ変換は、プリント部13で行う他に、画像
処理部12で行ってもよい。なお、プリント用フレーム
メモリ35から画像データを読み出して、これをカラー
モニタ22にシミュレート表示してもよい。
The printing section 13 includes a printing frame memory 35 and a printer 36. The printer 36 reads out image data from the print frame memory 35, modulates a light beam based on the read out image data, and scans and exposes yellow, magenta, and cyan photosensitive layers of a silver halide photographic color photosensitive material (color paper). I do. Instead of modulating the light beam, mirrors (micromirrors) of extremely small size are arranged in a line or a matrix,
Scanning exposure may be performed using a micromirror device that deflects incident light by controlling the tilt angle of each micromirror. Further, a liquid crystal panel or a CRT may be used. As is well known, when a negative / positive color paper is used, image data is subjected to positive / negative conversion. This positive / negative conversion may be performed by the image processing unit 12 in addition to the printing unit 13. The image data may be read from the print frame memory 35 and displayed on the color monitor 22 in a simulated manner.

【0021】次に、図2を参照して、上記実施形態の作
用を説明する。まず、フリーズボタンの操作により、プ
リント対象画像とこれの1秒前及び1秒後の画像である
参照画像がフレームメモリ28に記憶される。
Next, the operation of the above embodiment will be described with reference to FIG. First, by operating the freeze button, a reference image which is an image to be printed and an image one second before and one second after this is stored in the frame memory 28.

【0022】次に、画像処理部12のマッチング処理部
30でフレームメモリ28のプリント対象画像データと
参照画像データとに基づき、動領域と静止領域とが判定
される。そして、この判定結果に基づき、プリント対象
画像の静止領域における画像データと、参照画像の静止
領域における画像データとは、静止領域加重平均部31
に送られ、ここで加重平均される。また、マッチング処
理部30における判定結果に基づき、プリント対象画像
の動領域における画像データは動領域平滑化処理部32
に送られ、ここで平滑化処理される。
Next, the matching processing section 30 of the image processing section 12 determines a moving area and a still area based on the print target image data and the reference image data in the frame memory 28. Then, based on the determination result, the image data in the still area of the print target image and the image data in the still area of the reference image are converted into the still area weighted average unit 31.
Where it is weighted and averaged. Further, based on the determination result in the matching processing unit 30, the image data in the moving area of the image to be printed is converted into the moving area smoothing processing unit 32.
, Where it is subjected to a smoothing process.

【0023】次に、画像合成部33で、静止領域加重平
均部31からの静止領域画像データと、動領域平滑化処
理部32からの動領域画像データとが画像合成され、こ
の画像合成データがプリント部13のプリント用フレー
ムメモリ35に書き込まれる。そして、プリンタ36に
より、画像合成されたデータに基づきプリントが行われ
る。したがって、本実施形態では、静止領域に対しては
フレーム間で加重平均値を求めるので、ランダムノイズ
を軽減することができる。また、動領域に対しては平滑
化処理してぼかす補正を行うので、被写体がぶれている
場合にこれを目立たなくすることができる。なお、動領
域に対しては平滑化処理してぼかす代わりに、USM
(アンシャープマスク補正)を行って画像を鮮鋭化して
もよい。
Next, in the image synthesizing section 33, the still area image data from the still area weighted averaging section 31 and the moving area image data from the moving area smoothing processing section 32 are image-synthesized. The data is written to the print frame memory 35 of the print unit 13. Then, printing is performed by the printer 36 on the basis of the image-combined data. Therefore, in the present embodiment, since a weighted average value is calculated between frames for a still region, random noise can be reduced. In addition, since the blurring correction is performed on the moving area by performing the smoothing process, when the subject is blurred, it can be made inconspicuous. Note that instead of smoothing and blurring the moving area, USM
(Unsharp mask correction) may be performed to sharpen the image.

【0024】なお、上記実施形態では、撮影中のビデオ
カメラの移動やズーミング撮影が無いことを前提にした
処理であるが、この他にビデオカメラを移動しての撮影
(カメラ移動撮影)やズーミング撮影が行われた場合に
は、次のような動き補償処理を行ってプリント処理を行
う。この動き補償処理は、上記実施形態における静止領
域の全画面に対する割合が小さい場合、例えば10%以
下の場合に行われる。
In the above-described embodiment, the processing is performed on the assumption that there is no movement of the video camera during shooting and no zooming shooting. However, in addition to this, shooting by moving the video camera (camera shooting) or zooming is performed. When photographing is performed, the following motion compensation processing is performed to perform printing processing. This motion compensation processing is performed when the ratio of the still area to the entire screen in the above embodiment is small, for example, 10% or less.

【0025】この動き補償処理では、図3に示すよう
に、プリント対象画像と参照画像とをm×mの分割エリ
アに分けて、参照画像の各分割エリアの位置を2次元的
にずらしながら、プリント対象画像の各分割エリアとの
局所的マッチング処理を行う。そして、その相違度が最
も小さくなるずらし位置の参照画像の分割エリアをプリ
ント対象画像の分割エリアに関連付けし、この関連付け
により画面全体にわたりプリント対象画像の分割エリア
に対する参照画像の分割エリアの動きベクトルを求め
る。この動きベクトルに基づき移動撮影かズーミング撮
影かを判定する。
In this motion compensation processing, as shown in FIG. 3, the print target image and the reference image are divided into m × m divided areas, and the position of each divided area of the reference image is shifted two-dimensionally. A local matching process is performed with each divided area of the image to be printed. Then, the divided area of the reference image at the shift position where the degree of difference is minimized is associated with the divided area of the print target image, and by this association, the motion vector of the divided area of the reference image with respect to the divided area of the print target image over the entire screen. Ask. Based on this motion vector, it is determined whether the shooting is moving or zooming.

【0026】前記動きベクトルの方向が全体的に揃って
いる場合には、プリント対象画像をカメラ移動撮影シー
ンと判定する。なお、動きのある被写体は、上記動きベ
クトルとは異なる動きベクトルを示すことが多いが、こ
の被写体の動きは画面全体での比率からすると小さいた
め、これを無視することができる。このカメラ移動撮影
シーンの場合には、動きベクトル分だけ参照画像をずら
し、このずらした位置の参照画像とプリント対象画像と
に基づき上記実施形態と同じようにして、静止領域と動
領域とを判定し、これら静止領域と動領域に対し異なる
処理を行う。
If the directions of the motion vectors are entirely the same, it is determined that the image to be printed is a camera moving shooting scene. Note that a moving subject often shows a motion vector different from the above-mentioned motion vector. However, since the movement of this subject is small in proportion to the entire screen, this can be ignored. In the case of this camera moving shooting scene, the reference image is shifted by the motion vector, and the still area and the moving area are determined in the same manner as in the above embodiment based on the reference image at the shifted position and the print target image. Then, different processing is performed on the stationary area and the moving area.

【0027】また、動きベクトルの方向が全体的に揃っ
ていない場合には、ズーミング撮影シーンか否かを判定
する。まず、全画面の動きベクトルについて平均ベクト
ルを求める。そして、この平均ベクトル分だけ各分割エ
リアの動きベクトルから差し引いて、補正動きベクトル
を算出する。この補正動きベクトルの方向が、全体的に
中心部から放射状に並んでいる場合に、カメラをズーム
ミングしながら撮影した画像であると判定する。また、
この場合に、全画面的には、補正動きベクトルを平均し
た平均ベクトルの大きさは「0」に近い値になるので、
これも参照することで、ズーミング撮影か否かの判定精
度を上げることができる。
If the directions of the motion vectors are not entirely the same, it is determined whether or not the scene is a zoom photographing scene. First, an average vector is obtained for the motion vectors of the entire screen. Then, a corrected motion vector is calculated by subtracting the average vector from the motion vector of each divided area. If the directions of the corrected motion vectors are arranged radially from the center as a whole, it is determined that the image is captured while zooming the camera. Also,
In this case, the size of the average vector obtained by averaging the corrected motion vectors becomes a value close to “0” over the entire screen.
By also referring to this, it is possible to increase the accuracy of determining whether or not zooming shooting is performed.

【0028】この判定結果に基づき参照画像の画面全体
の動きをキャンセルした補正動きベクトルを求める。こ
の補正動きベクトルの大きさが所定値内であれば、この
参照画像の分割エリアに対応するプリント対象画像の分
割エリアの集合を静止領域と判定する。この静止領域に
対しては、上記実施形態と同じように、フレーム間で加
重平均値を算出する。このフレーム間における加重平均
値の算出は、前後のコマにおける動き補償結果に基づき
関連付けされた分割エリア同志で行う。また、静止領域
を除いた他の分割エリアの集合を動領域と判定する。こ
の動領域に対して上記実施形態と同じように平滑化処理
を行う。
Based on the determination result, a corrected motion vector in which the motion of the entire screen of the reference image is canceled is obtained. If the magnitude of the corrected motion vector is within a predetermined value, a set of divided areas of the print target image corresponding to the divided area of the reference image is determined as a still area. For this still area, a weighted average value is calculated between frames as in the above embodiment. The calculation of the weighted average value between the frames is performed by the divided areas associated with each other based on the motion compensation result in the preceding and succeeding frames. Also, a set of other divided areas excluding the stationary area is determined as a moving area. The smoothing process is performed on this moving region in the same manner as in the above embodiment.

【0029】なお、シーンの動きを判定する場合に、全
画面を多数個の分割エリアに分割してこれら分割エリア
の動きベクトルを求める他に、画面周辺部に限定してこ
の画面周辺部を多数個の分割エリアに分割し、この画面
周辺部に対して、シーンの動き判定を行ってもよい。こ
の場合には、演算対象領域が全画面の場合に比べて狭く
なるため、演算処理を効率良く行うことができる。そし
て、この画面周辺部による動き判定結果に基づき、周辺
部と同じ大きさで分割した中央部の各分割エリアについ
て動きベクトルを推定し、これに基づき上記実施形態と
同じようにして各種処理を行う。また、カメラ移動撮影
とズーミング撮影とを判定した後に、カメラ移動撮影で
はフレーム間平滑化処理を行い、ズーミング撮影ではフ
レーム内平滑化処理を行うようにして、判定結果に応じ
て異なる処理に分岐させてもよく、この場合には、シー
ンの動きにあった画像処理が行えるようになる。
When determining the motion of a scene, in addition to dividing the entire screen into a large number of divided areas and obtaining motion vectors of these divided areas, a limited number of the peripheral parts of the screen are limited to the peripheral parts of the screen. The screen may be divided into a plurality of divided areas, and the motion of the scene may be determined for the periphery of the screen. In this case, since the calculation target area is narrower than in the case of the entire screen, the calculation processing can be performed efficiently. Then, based on the result of the motion determination by the peripheral part of the screen, a motion vector is estimated for each divided area of the central part divided into the same size as the peripheral part, and based on this, various processes are performed in the same manner as in the above embodiment. . In addition, after judging the camera moving shooting and the zooming shooting, the inter-frame smoothing process is performed in the camera moving shooting, and the intra-frame smoothing process is performed in the zooming shooting, and the process branches to a different process according to the determination result. In this case, image processing suitable for the movement of the scene can be performed.

【0030】次に、図4及び図5に示すように、静止領
域と動領域との判定結果と、静止画用人物の顔領域抽出
アルゴリズムとを組み合わせて人物の顔領域の抽出を行
い、この顔領域の画像データに重きをおいてプリントを
行う実施形態について説明する。動画像において、人物
の静止状態が所定時間以上続くのは確率的に低い。した
がって、人物が動領域に含まれる可能性が高い。また、
静止画用人物の顔画像アルゴリズムにおいては、人物の
肌色を特定する色及び濃度を有する領域を顔画像と判定
するので、壁、地面等の人物以外の被写体であっても肌
色と同じ色及び濃度の場合には人物の顔画像と誤判定す
るおそれがある。そこで、人物の顔領域抽出アルゴリズ
ムにおいて、人物の顔候補領域であり且つ動領域である
条件を加えることで、人物の顔領域である可能性はさら
に高くなり、顔領域の抽出性能を上げることができる。
また、顔候補領域に代えて、顔の輪郭、頭部、人物胴
体、目や口、眉等の顔内部構造の形状を検出すること
で、顔候補領域を特定してもよい。更には、人物の肌色
を特定する色及び濃度に基づく顔領域抽出アルゴリズム
と、顔の輪郭などの形状検出に基づく顔領域抽出アルゴ
リズムを併用してもよい。
Next, as shown in FIG. 4 and FIG. 5, the face area of the person is extracted by combining the determination result of the still area and the moving area with the face area extraction algorithm of the still image person. An embodiment in which printing is performed with emphasis on the image data of the face area will be described. In a moving image, it is probable that the person's still state lasts for a predetermined time or more. Therefore, there is a high possibility that the person is included in the moving area. Also,
In the face image algorithm of a person for a still image, an area having a color and density specifying the skin color of a person is determined as a face image, so that even a subject other than a person such as a wall or the ground has the same color and density as the skin color. In the case of, there is a possibility that the face image of the person is erroneously determined. Therefore, by adding a condition that is a human face candidate area and a moving area in the human face area extraction algorithm, the possibility of a human face area is further increased, and the face area extraction performance can be improved. it can.
In addition, instead of the face candidate area, the face candidate area may be specified by detecting the shape of the face internal structure such as the contour of the face, the head, the human body, the eyes, the mouth, and the eyebrows. Furthermore, a face region extraction algorithm based on the color and density specifying a person's skin color and a face region extraction algorithm based on shape detection such as the outline of a face may be used together.

【0031】図4はこの処理手順を示すフローチャート
であり、まず動画像データからプリント対象画像と参照
画像との画像データを取り込む。この取り込んだ画像デ
ータに基づき図2と同じようにして動領域と静止領域と
が判定される。この静止領域に対しては、図2の静止領
域加重平均部31と同じようにして加重平均値が算出さ
れる。
FIG. 4 is a flowchart showing this processing procedure. First, image data of an image to be printed and a reference image is fetched from moving image data. Based on the captured image data, a moving area and a still area are determined in the same manner as in FIG. A weighted average value is calculated for the stationary region in the same manner as in the stationary region weighted averaging unit 31 in FIG.

【0032】また、この動領域と静止領域との判定と並
行して、プリント対象コマの画像データに基づき顔候補
領域抽出処理が行われ、顔候補領域が抽出される。そし
て、この顔候補領域と動領域とのアンドをとることで、
顔領域を判別し、それ以外の領域を非顔領域と判別す
る。非顔領域に対しては、図1に示す動領域平滑化処理
部32と同じようにプリント対象画像の画像データに基
づき平滑化処理が行われる。また、顔領域に対しては、
強調処理が行われる。なお、この強調処理に代えて、顔
領域の濃度及び色が予め特定された濃度及び肌色になる
ようにデータ変換してもよい。次に、静止領域、非顔領
域、顔領域の各画像データが合成された後に、プリント
処理される。
In parallel with the determination of the moving area and the still area, a face candidate area extracting process is performed based on the image data of the frame to be printed, and a face candidate area is extracted. And by ANDing the face candidate area and the moving area,
The face area is determined, and other areas are determined as non-face areas. The smoothing process is performed on the non-face region based on the image data of the image to be printed, similarly to the moving region smoothing processing unit 32 illustrated in FIG. Also, for the face area,
An emphasis process is performed. Instead of this emphasizing process, data conversion may be performed so that the density and color of the face area become the density and skin color specified in advance. Next, print processing is performed after the image data of the still area, the non-face area, and the face area are combined.

【0033】図5は図4における画像データの一例を示
すものであり、(B)はプリント対象画像を、(A)は
プリント対象画像の1秒前の参照画像を、(C)はプリ
ント対象画像の1秒後の参照画像を示すものである。フ
リーズボタンを押して画像データの取り込みを行うと、
プリント対象画像(B)とこれの1秒前の参照画像
(A)と1秒後の参照画像(C)とがフレームメモリ2
8に取り込まれる。
FIG. 5 shows an example of the image data in FIG. 4, wherein (B) shows the image to be printed, (A) shows the reference image one second before the image to be printed, and (C) shows the image to be printed. It shows a reference image one second after the image. When you press the freeze button and import image data,
The image to be printed (B), the reference image (A) one second before this, and the reference image (C) one second after this are stored in the frame memory 2.
8.

【0034】(D)は静止領域SAの抽出結果を、
(E)は動領域MAの抽出結果を示すもので、プリント
対象画像(B)と参照画像(A),(C)とに対し、マ
ッチング処理部30による局所的マッチング処理で抽出
されたものである。
(D) shows the extraction result of the still area SA,
(E) shows the extraction result of the moving area MA, which is extracted by the local matching processing by the matching processing unit 30 with respect to the print target image (B) and the reference images (A) and (C). is there.

【0035】(F)はプリント対象画像に基づき顔候補
領域FCAの抽出処理結果を示すもので、この例では人
物画像の他に背景部にも肌色を有する2つの被写体が存
在していることが判る。この顔候補領域FCAの抽出結
果(F)と動領域MAの抽出結果(E)とのアンドをと
ることで、顔領域FAの抽出結果(G)とその他の非顔
動領域MNFAの抽出結果(H)とを得ることができ
る。したがって、プリント対象コマを、静止領域SA
と、非顔動領域MNFAと、顔領域FAとの3つの領域
に分けることができる。このようにして求めた静止領域
SA、非顔動領域MNFA、顔領域FAに対して、各領
域に最適な画像処理を施すことで、全体的に仕上りのよ
いプリントが得られるようになる。
(F) shows the result of extraction processing of the face candidate area FCA based on the image to be printed. In this example, two subjects having flesh color exist in the background in addition to the human image. I understand. By taking the AND of the extraction result (F) of the face candidate area FCA and the extraction result (E) of the moving area MA, the extraction result (G) of the face area FA and the extraction result of the other non-face moving area MNFA ( H). Therefore, the print target frame is changed to the static area SA.
And a non-face moving area MNFA and a face area FA. By performing optimal image processing on each of the still area SA, the non-face moving area MNFA, and the face area FA obtained in this manner, a print with a good finish can be obtained as a whole.

【0036】例えば、顔領域FAの画像データに対し
て、強調処理を加えることで、より一層くっきりした画
像に仕上げることができる。また、その他の動領域MN
FA及び静止領域SAについては、上記実施形態と同じ
ように処理を行うことで、全体のプリント品質を上げる
ことができる。さらに、人物の顔領域の濃度及び色が適
正になるようにプリントを行うことで、主要被写体を適
正に仕上げることができ、高品質のプリントを作成する
ことができる。
For example, by applying an emphasis process to the image data of the face area FA, a clearer image can be obtained. In addition, other moving regions MN
For the FA and the still area SA, the same print processing as in the above embodiment can improve the overall print quality. Further, by performing printing so that the density and color of the face area of the person become appropriate, the main subject can be properly finished, and a high-quality print can be created.

【0037】なお、上記実施形態では、静止領域SAと
動領域MAの判別と、顔領域FAと非顔領域NFAとの
判別とを並列で実行し、顔抽出処理で得られた顔候補領
域FCAと動領域MAとのアンドをとることで、顔エリ
アFAと非顔エリアMNFAとを判別するようにした
が、この他に、図6に示すように、先ず静止領域SAと
動領域MAとを判別し、次に動領域MAに対して顔領域
抽出処理を行って、顔領域FAと非顔動領域MNFAと
に判別するようにしてもよい。
In the above embodiment, the determination of the still area SA and the moving area MA and the determination of the face area FA and the non-face area NFA are executed in parallel, and the face candidate area FCA obtained by the face extraction processing is executed. The face area FA and the non-face area MNFA are determined by ANDing the moving area MA with the moving area MA. In addition, as shown in FIG. After the determination, the face area extraction processing may be performed on the moving area MA to determine the face area FA and the non-face moving area MNFA.

【0038】また、画像データに対して、周知の画素補
完処理を行い、疑似的に解像度を上げるようにしてもよ
い。補完される画素値の決定方法としては、元画像デー
タとの空間的距離に応じた加重平均を取る方法がある。
この場合には、近い画素ほどその重み付け係数を大きく
する。この画素補完処理は、静止/動領域判定処理の前
段又は後段で行ってもよい。
Further, a well-known pixel complementing process may be performed on the image data to artificially increase the resolution. As a method of determining a pixel value to be complemented, there is a method of taking a weighted average according to a spatial distance from original image data.
In this case, the closer the pixel, the larger the weighting coefficient. This pixel complementing process may be performed before or after the still / moving region determination process.

【0039】プリント対象画像の前後コマとしては、連
続したコマである必要はなく、一定間隔で取り込んだコ
マであってもよい。あるいは、コマ間動き検出により、
シーンに動きのあった場合に取り込んだコマであっても
よい。また、上記実施形態では、プリント対象画像に対
して例えば1秒前及び1秒後の画像を参照画像として用
いたが、この参照画像は、プリント対象画像に対して前
または後の1つの画像としてもよい。
The frames before and after the image to be printed need not be continuous frames, but may be frames captured at regular intervals. Alternatively, by detecting motion between frames,
A frame captured when there is a motion in the scene may be used. Further, in the above embodiment, for example, an image one second before and one second after the print target image is used as a reference image, but this reference image is used as one image before or after the print target image. Is also good.

【0040】上記実施形態では、静止領域に対して画素
データの加重平均値を求めて、この値を静止領域の画像
データとし、動領域に対して平滑化処理を行ってぼかす
ようにし動領域の人物等のぶれが目立たないようにした
が、この他に、各領域に合わせて画像処理の内容及びそ
の制御パラメータを設定してもよい。
In the above embodiment, a weighted average value of pixel data is obtained for a still region, and this value is used as image data of the still region. Although blurring of a person or the like is not noticeable, the content of image processing and its control parameters may be set in accordance with each area.

【0041】上記実施形態では、走査露光によりカラー
ペーパーにプリントする銀塩式プリンタに実施したが、
この他に、カラーサーマルプリンタ、インクジェットプ
リンタ等の各種のカラープリンタを用いるようにしても
よい。
In the above embodiment, the present invention is applied to a silver halide printer for printing on color paper by scanning exposure.
In addition, various color printers such as a color thermal printer and an ink jet printer may be used.

【0042】上記実施形態では、各フレーム間の画像デ
ータから動きベクトルを求めて、この動きベクトルから
カメラの移動中の撮影と、ズーミング撮影とを検出する
ようにしたが、この他に、カメラ側でのズーミングスイ
ッチの作動状態を検出しておき、これを撮影情報として
画像データとともに記憶するようにしてもよい。同様に
して、カメラの動きを検出するセンサを設け、撮影中に
カメラの動きを検出して、これを画像データとともに記
憶するようにしてもよい。
In the above embodiment, a motion vector is obtained from image data between frames, and shooting while the camera is moving and zooming shooting are detected from the motion vector. In this case, the operation state of the zooming switch may be detected, and this may be stored together with the image data as photographing information. Similarly, a sensor for detecting the movement of the camera may be provided, and the movement of the camera may be detected during shooting, and may be stored together with the image data.

【0043】[0043]

【発明の効果】本発明によれば、動画像中のプリント対
象画像とこのプリント対象画像に対しn(nは自然数)
コマ前又はnコマ後の参照画像の各データをメモリにコ
マ単位で取り込み、プリント対象画像データと参照画像
データとに対して局所的マッチング処理を行って、プリ
ント対象画像を静止領域と動領域とに分けたから、静止
領域と動領域とに対してそれぞれの領域に合った異なる
画質改善処理を行うことができるようになり、人間の視
覚に受け入れやすく処理されることで、プリント全体の
画像品質を上げることができる。
According to the present invention, an image to be printed in a moving image and n (n is a natural number) the image to be printed
The data of the reference image before or after the frame is fetched into the memory in frame units, and local matching processing is performed on the print target image data and the reference image data, and the print target image is converted into a still region and a moving region. Therefore, different image quality improvement processes can be performed for the still area and the moving area according to each area. Can be raised.

【0044】また、プリント対象画像を静止領域と動領
域とに分け、プリント対象画像データから顔候補領域を
抽出し、動領域と顔候補領域とが重なりあっている領域
を顔領域と判定したから、プリント対象画像を、顔領域
と、顔領域を除いた動領域と、静止領域とに分けること
ができるので、これら各領域に合った異なる画質改善処
理を行うことができるようになり、プリントの全体の画
像品質をより一層上げることができる。また、動領域に
対してプリント対象画像データから顔候補領域を抽出
し、プリント対象画像を、顔領域と、非顔動領域と、静
止領域に分けることで、ある程度絞られた動領域に対し
て顔候補抽出を行うので、顔候補抽出処理を簡単に行う
ことができる。
Further, the image to be printed is divided into a still area and a moving area, a face candidate area is extracted from the printing object image data, and an area where the moving area and the face candidate area overlap is determined as a face area. Since the image to be printed can be divided into a face area, a moving area excluding the face area, and a still area, different image quality improvement processing suitable for each of these areas can be performed. The overall image quality can be further improved. In addition, a face candidate area is extracted from the print target image data for the moving area, and the print target image is divided into a face area, a non-face moving area, and a still area, so that the moving area narrowed down to some extent Since face candidate extraction is performed, face candidate extraction processing can be easily performed.

【0045】また、静止領域に対しては、プリント対象
画像と参照画像との同じ位置にある画素データを加重平
均し、この加重平均値を画像データとしたから、ランダ
ムノイズを軽減することができる。また、動領域に対し
ては、プリント対象画像の画像データを用いて平滑化処
理を行うことにより、この動領域をぼかすことができ、
動領域におけるぶれを目立たなくすることができる。ま
た、動領域に対しては、プリント対象画像データを用い
て強調処理を行うことにより、画像を鮮鋭化することが
できる。特に、動きが少ない画像の場合には、上記平滑
化処理によりぼかすよりも画像品質をあげることができ
る。
In the still area, the pixel data at the same position of the image to be printed and the reference image are weighted and averaged, and the weighted average value is used as image data, so that random noise can be reduced. . Also, by performing a smoothing process on the moving area using the image data of the image to be printed, the moving area can be blurred,
Blur in the moving area can be made inconspicuous. In addition, the image can be sharpened by performing an emphasis process on the moving area using the image data to be printed. In particular, in the case of an image with little motion, image quality can be improved as compared with blurring by the smoothing process.

【0046】また、プリント対象画像の顔領域内の画像
データに基づき顔領域の濃度及び色を適正に仕上げるよ
うに画像全体のプリント濃度及び色を調節することで、
顔領域に重みをおいた仕上りとなり、プリント品質を上
げることができる。また、プリント対象画像の顔領域内
の画像データに基づき顔領域のみを部分的に、その濃度
及び色が適正に仕上げるようにしてもよく、この場合に
も顔領域が適正に仕上がるためプリント品質を上げるこ
とができる。
Further, by adjusting the print density and color of the entire image so that the density and color of the face area are properly finished based on the image data in the face area of the image to be printed,
The finish is weighted for the face area, and the print quality can be improved. Also, based on image data in the face area of the image to be printed, only the face area may be partially and appropriately finished in density and color. Can be raised.

【0047】プリント対象画像データと参照画像データ
とに対して位置を2次元的にずらしながら局所的マッチ
ング処理を行って、その相違度が最も小さくなるずらし
位置のブロックを関連付けし、この関連付けにより画面
全体にわたり動きベクトルを求め、この動きベクトルに
基づきカメラが移動中か、ズーミング中かを判定するよ
うにしたから、この判定結果に基づきこれらの動きをキ
ャンセルすることができる。したがって、カメラを移動
して撮影したり、ズーミング撮影したりした場合でも、
参照画像の画像データを用いることができる。しかも、
参照画像の画像データは動きベクトルに基づきこれらの
動きをキャンセルした値を用いるから、撮影中にカメラ
の挙動変化があった場合でも、プリント対象画像の動エ
リアと静止エリアとを判定することができる。したがっ
て、この判定結果に基づき各領域毎に異なる画質改善処
理を行うことにより、カメラ移動中の撮影や、ズーミン
グ撮影におけるプリント対象画像の画像品質を上げるこ
とができる。
The local matching processing is performed while the positions of the image data to be printed and the reference image data are shifted two-dimensionally, and the block at the shifted position that minimizes the difference is associated with the image data. Since motion vectors are obtained over the whole, and it is determined whether the camera is moving or zooming based on the motion vectors, these motions can be canceled based on the determination result. Therefore, even if you move the camera and shoot or zoom shooting,
The image data of the reference image can be used. Moreover,
Since the image data of the reference image uses values obtained by canceling these motions based on the motion vector, it is possible to determine the moving area and the still area of the print target image even when the behavior of the camera changes during shooting. . Therefore, by performing different image quality improvement processing for each area based on the determination result, it is possible to improve the image quality of an image to be printed in photographing while the camera is moving or in zooming photographing.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を実施したビデオプリンタを示す機能ブ
ロック図である。
FIG. 1 is a functional block diagram illustrating a video printer embodying the present invention.

【図2】同ビデオプリンタにおける処理手順を示すフロ
ーチャートである。
FIG. 2 is a flowchart showing a processing procedure in the video printer.

【図3】カメラ移動撮影シーンとズーミング撮影シーン
とを自動判定して各シーンに合わせて静止領域と動領域
とを判別する他の実施形態の処理手順を示すフローチャ
ートである。
FIG. 3 is a flowchart showing a processing procedure of another embodiment in which a camera moving shooting scene and a zooming shooting scene are automatically determined and a still area and a moving area are determined in accordance with each scene.

【図4】静止領域・動領域の判別処理と、顔領域の判別
処理とを並行して処理する他の実施形態の処理手順を示
すフローチャートである。
FIG. 4 is a flowchart illustrating a processing procedure of another embodiment in which a still area / moving area determination process and a face region determination process are performed in parallel.

【図5】動画像データの一例と、この画像データから抽
出した静止領域、非顔動領域、顔領域の一例とを示すも
ので、(A),(C)は参照画像、(B)はプリント対
象画像、(D)は静止領域の抽出結果、(E)は動領域
の抽出結果、(F)は顔候補領域の抽出結果、(G)は
顔領域の抽出結果、(H)は非顔動領域の抽出結果であ
る。
FIG. 5 shows an example of moving image data and an example of a still area, a non-face moving area, and a face area extracted from the image data, wherein (A) and (C) are reference images, and (B) is a reference image. An image to be printed, (D) is a result of extracting a still region, (E) is a result of extracting a moving region, (F) is a result of extracting a face candidate region, (G) is a result of extracting a face region, and (H) is a non-extracted result. It is a result of extracting a face motion area.

【図6】静止領域・動領域を判別した後に顔領域の判別
を行う他の実施形態の処理手順を示すフローチャートで
ある。
FIG. 6 is a flowchart illustrating a processing procedure of another embodiment for determining a face area after determining a still area / moving area.

【符号の説明】[Explanation of symbols]

10 ビデオプリンタ 11 画像入力部 12 画像処理部 13 プリント部 14 ビデオカメラ 28,35 フレームメモリ 30 マッチング処理部 31 静止領域加重平均部 32 動領域平滑化処理部 33 画像合成部 SA 静止領域 MA 動領域 FCA 顔候補領域 MNFA 非顔動領域 FA 顔領域 Reference Signs List 10 video printer 11 image input unit 12 image processing unit 13 printing unit 14 video camera 28, 35 frame memory 30 matching processing unit 31 still area weighted averaging unit 32 moving area smoothing processing unit 33 image synthesizing unit SA still area MA moving area FCA Face candidate area MNFA Non-face moving area FA Face area

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 動画像中のプリント対象画像とこのプリ
ント対象画像のn(nは自然数)コマ前又はnコマ後の
参照画像の各データをメモリにコマ単位で取り込み、 プリント対象画像データと参照画像データとに対して局
所的マッチング処理を行って、プリント対象画像を静止
領域と動領域とに分け、 静止領域と動領域とに対して異なる画質改善処理を行う
ことを特徴とする動画像のプリント方法。
1. A print target image in a moving image and data of a reference image which is n (n is a natural number) frames before or after the print target image are fetched into a memory in frame units, and the print target image data and reference data are stored. It performs local matching processing on image data, divides the print target image into a still area and a moving area, and performs different image quality improvement processing on the still area and the moving area. Printing method.
【請求項2】 動画像中のプリント対象画像とこのプリ
ント対象画像のn(nは自然数)コマ前又はnコマ後の
参照画像の各データをメモリにコマ単位で取り込み、 プリント対象画像データと参照画像データとに対して局
所的マッチング処理を行って、プリント対象画像におけ
る各部を静止領域と動領域とに分け、 前記プリント対象画像データから顔候補領域を抽出し、 前記動領域と前記顔候補領域とが重なりあっている領域
を顔領域と判定し、 顔領域と、顔領域を除いた動領域と、静止領域とに対し
て、異なる画質改善処理を行うことを特徴とする動画像
のプリント方法。
2. A print target image in a moving image and data of a reference image n (n is a natural number) frames before or after the print target image are fetched into a memory in frame units, and are referred to as print target image data. Performing local matching processing on the image data to divide each part in the print target image into a still region and a moving region; extracting a face candidate region from the print target image data; A region where the image overlaps with the image is determined as a face region, and different image quality improvement processes are performed on the face region, the moving region excluding the face region, and the still region. .
【請求項3】 動画像中のプリント対象画像とこのプリ
ント対象画像のn(nは自然数)コマ前又はnコマ後の
参照画像の各データをメモリにコマ単位で取り込み、 プリント対象画像データと参照画像データとに対して局
所的マッチング処理を行って、プリント対象画像を静止
領域と動領域とに分け、 前記動領域に対して前記プリント対象画像データから顔
候補領域を抽出し、 顔領域と、顔領域を除いた動領域と、静止領域とに対し
て、異なる画質改善処理を行うことを特徴とする動画像
のプリント方法。
3. A print target image in a moving image and data of a reference image n (n is a natural number) frames before or after the print target image are fetched into a memory in frame units, and the print target image data and reference data are stored. Performing a local matching process on the image data to divide the print target image into a still region and a moving region, extracting a face candidate region from the print target image data for the moving region, A moving image printing method characterized by performing different image quality improvement processing on a moving region excluding a face region and a still region.
【請求項4】 請求項1ないし3いずれか1つ記載の動
画像のプリント方法において、前記静止領域に対する画
質改善処理は、プリント対象画像と参照画像との同じ位
置にある画素データを加重平均し、この加重平均値を画
像データとすることを特徴とする動画像のプリント方
法。
4. The method for printing a moving image according to claim 1, wherein the image quality improvement processing for the still area includes a weighted average of pixel data at the same position between the print target image and the reference image. A moving image printing method characterized in that the weighted average value is used as image data.
【請求項5】 請求項1ないし4いずれか1つ記載の動
画像のプリント方法において、前記動領域に対する画質
改善処理は、プリント対象画像の画像データを用いて平
滑化処理することを特徴とする動画像のプリント方法。
5. The method of printing a moving image according to claim 1, wherein the image quality improvement processing for the moving area is performed by using image data of an image to be printed. How to print moving images.
【請求項6】 請求項2ないし4いずれか1つ記載の動
画像のプリント方法において、前記顔領域に対する画質
改善処理は、プリント対象画像の画像データを用いて強
調処理することを特徴とする動画像のプリント方法。
6. The moving image printing method according to claim 2, wherein the image quality improvement processing for the face area is performed by using image data of an image to be printed. How to print an image.
【請求項7】 請求項2ないし6いずれか1つ記載の動
画像のプリント方法において、前記顔領域に対する画質
改善処理は、プリント対象画像の顔領域内の画像データ
に基づき顔領域の濃度及び色を適正に仕上げるように画
像全体のプリント濃度及び色を調節することを特徴とす
る動画像のプリント方法。
7. The method of printing a moving image according to claim 2, wherein the image quality improvement processing for the face area is performed based on image data in the face area of the print target image. A print method of a moving image, wherein the print density and color of the entire image are adjusted so as to properly finish the image.
【請求項8】 請求項2ないし6いずれか1つ記載の動
画像のプリント方法において、前記顔領域に対する画質
改善処理は、プリント対象画像の顔領域内の画像データ
に基づき顔領域のみを部分的に、その濃度及び色が適正
に仕上げるように調節することを特徴とする動画像のプ
リント方法。
8. The method of printing a moving image according to claim 2, wherein the image quality improvement processing for the face area is performed by partially removing only the face area based on image data in the face area of the print target image. And a method for printing a moving image, wherein the density and the color are adjusted so as to be properly finished.
【請求項9】 動画像中のプリント対象画像とこのプリ
ント対象画像のn(nは自然数)コマ前又はnコマ後の
参照画像の各データをメモリにコマ単位で取り込み、 プリント対象画像データに対して参照画像データの位置
を2次元的にずらしながら、各画像を多数個に分割した
分割エリアに対して局所的マッチング処理を行って、そ
の相違度が最も小さくなるずらし位置の参照画像の分割
エリアをプリント対象画像の分割エリアに関連付けし、
この関連付けにより画面全体にわたりプリント対象画像
の分割エリアに対する参照画像の分割エリアの動きベク
トルを求め、この動きベクトルに基づき移動撮影かズー
ミング撮影かを判定し、この判定結果に基づき参照画像
の画面全体の動きをキャンセルした補正動きベクトルを
求め、この補正動きベクトルの大きさが所定値内であれ
ばこの参照画像の分割エリアに対応するプリント対象画
像の分割エリアを静止領域と判定し、その他の領域を動
領域と判定して、プリント対象画像における各分割エリ
アを静止領域と動領域とに分け、 静止領域と動領域とに対して異なる画質改善処理を行う
ことを特徴とする動画像のプリント方法。
9. A print target image in a moving image and data of a reference image n (n is a natural number) frames before or after the print target image are fetched into a memory in frame units. While the position of the reference image data is two-dimensionally shifted, a local matching process is performed on the divided areas obtained by dividing each image into a large number of pieces, and the divided areas of the reference image at the shifted positions at which the degree of difference is minimized Is associated with the divided area of the image to be printed,
By this association, the motion vector of the divided area of the reference image with respect to the divided area of the image to be printed is obtained over the entire screen, and it is determined whether the moving image capturing or the zooming image capturing is performed based on the motion vector. A corrected motion vector in which the motion is canceled is obtained. If the size of the corrected motion vector is within a predetermined value, the divided area of the print target image corresponding to the divided area of the reference image is determined as a still area, and the other areas are determined. A method of printing a moving image, comprising determining each divided area in a print target image into a still region and a moving region, and performing different image quality improvement processing on the still region and the moving region.
JP23817496A 1996-09-09 1996-09-09 Moving image printing method and image processing method Expired - Fee Related JP3738087B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23817496A JP3738087B2 (en) 1996-09-09 1996-09-09 Moving image printing method and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23817496A JP3738087B2 (en) 1996-09-09 1996-09-09 Moving image printing method and image processing method

Publications (2)

Publication Number Publication Date
JPH1083033A true JPH1083033A (en) 1998-03-31
JP3738087B2 JP3738087B2 (en) 2006-01-25

Family

ID=17026283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23817496A Expired - Fee Related JP3738087B2 (en) 1996-09-09 1996-09-09 Moving image printing method and image processing method

Country Status (1)

Country Link
JP (1) JP3738087B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007013534A (en) * 2005-06-30 2007-01-18 Fujitsu Ten Ltd Video signal processing method and multiview display
JP2008117305A (en) * 2006-11-07 2008-05-22 Olympus Corp Image processor
JP2010015607A (en) * 2003-11-05 2010-01-21 Seiko Epson Corp Image processing apparatus and image processing method
US20100157085A1 (en) * 2008-12-18 2010-06-24 Casio Computer Co., Ltd. Image pickup device, flash image generating method, and computer-readable memory medium
JP2010166443A (en) * 2009-01-16 2010-07-29 Canon Inc Image processing apparatus, and image processing method
JP2017028527A (en) * 2015-07-23 2017-02-02 株式会社Jvcケンウッド Moving picture pickup device, moving picture pickup method and program
CN112070801A (en) * 2020-08-31 2020-12-11 上海沈德医疗器械科技有限公司 Image-based motion detection method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015607A (en) * 2003-11-05 2010-01-21 Seiko Epson Corp Image processing apparatus and image processing method
JP2007013534A (en) * 2005-06-30 2007-01-18 Fujitsu Ten Ltd Video signal processing method and multiview display
JP2008117305A (en) * 2006-11-07 2008-05-22 Olympus Corp Image processor
US20100157085A1 (en) * 2008-12-18 2010-06-24 Casio Computer Co., Ltd. Image pickup device, flash image generating method, and computer-readable memory medium
JP2010166545A (en) * 2008-12-18 2010-07-29 Casio Computer Co Ltd Image pickup device, flash image generating method, and program
JP4735742B2 (en) * 2008-12-18 2011-07-27 カシオ計算機株式会社 Imaging apparatus, strobe image generation method, and program
US8462217B2 (en) 2008-12-18 2013-06-11 Casio Computer Co., Ltd. Image pickup device, flash image generating method, and computer-readable memory medium
US8633994B2 (en) 2008-12-18 2014-01-21 Casio Computer Co., Ltd. Image pickup device, flash image generating method and computer-readable memory medium
JP2010166443A (en) * 2009-01-16 2010-07-29 Canon Inc Image processing apparatus, and image processing method
JP2017028527A (en) * 2015-07-23 2017-02-02 株式会社Jvcケンウッド Moving picture pickup device, moving picture pickup method and program
CN112070801A (en) * 2020-08-31 2020-12-11 上海沈德医疗器械科技有限公司 Image-based motion detection method
CN112070801B (en) * 2020-08-31 2023-08-11 上海沈德医疗器械科技有限公司 Image-based motion detection method

Also Published As

Publication number Publication date
JP3738087B2 (en) 2006-01-25

Similar Documents

Publication Publication Date Title
JP4677753B2 (en) Moving image processing apparatus and method
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP4750854B2 (en) Image processing method and apparatus and program thereof
JP4321287B2 (en) Imaging apparatus, imaging method, and program
JP4639271B2 (en) camera
US6697107B1 (en) Smoothing a digital color image using luminance values
JP2002158893A (en) Device and method for correcting picture and recording medium
US8817124B2 (en) Image processing apparatus capable of generating an image signal having a higher resolution by compositing a plurality of image signals
EP2088787A1 (en) Image picking-up processing device, image picking-up device, image processing method and computer program
EP2088788B1 (en) Image picking-up processing device, image picking-up device, image processing method and computer program
JP6574878B2 (en) Image processing apparatus, image processing method, imaging apparatus, program, and storage medium
JP2000228747A (en) Picture processor
US20090027519A1 (en) Noise reduction device, noise reduction method and video camera
US6542187B1 (en) Correcting for chrominance interpolation artifacts
JP3738087B2 (en) Moving image printing method and image processing method
JP2921973B2 (en) Image extraction method and image extraction device for specific object
JP6450107B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP4175954B2 (en) Image display device and image display method
JP2001268345A (en) Image synthesizing device
JP3108355B2 (en) Subject tracking camera device
JP2002368982A (en) Picture processor, picture processing method and recording medium
JP3731741B2 (en) Color moving image processing method and processing apparatus
JP2008071014A (en) Image processing program, image processor and electronic camera
JP4467231B2 (en) Image processing device
JP5241417B2 (en) Imaging apparatus, control method thereof, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051031

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041118

LAPS Cancellation because of no payment of annual fees