JP2004178368A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2004178368A
JP2004178368A JP2002345257A JP2002345257A JP2004178368A JP 2004178368 A JP2004178368 A JP 2004178368A JP 2002345257 A JP2002345257 A JP 2002345257A JP 2002345257 A JP2002345257 A JP 2002345257A JP 2004178368 A JP2004178368 A JP 2004178368A
Authority
JP
Japan
Prior art keywords
frame
subject
image
color
photographic subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002345257A
Other languages
Japanese (ja)
Other versions
JP4467231B2 (en
Inventor
Fumihiro Funazaki
文博 舟崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2002345257A priority Critical patent/JP4467231B2/en
Publication of JP2004178368A publication Critical patent/JP2004178368A/en
Application granted granted Critical
Publication of JP4467231B2 publication Critical patent/JP4467231B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for acquiring an image which is produced by extracting a space part (part of a frame) from noticed temporal frame intervals of data on serially photographed motion pictures with a noticed photographic subject at the center thereof and by enlarging the noticed photographic subject to facilitate viewing. <P>SOLUTION: A motion picture file composed of two or more serial still pictures is read, a motion picture frame thereof is decomposed to extract a frame within a designated time range, and thereafter the frame is subjected to three processes. The first process is a characteristic color extraction process 30 which performs processing for extracting the characteristic color of the photographic subject. In this process, a photographic subject is designated by pointing several points in a part of the photographic subject, and a characteristic color list at each point is produced. The second process is an area extraction processing process 32 which performs image area extraction processing. In this process, a color analogous to the characteristic color produced in the first process is extracted, a photographic subject is identified by superimposing extracted parts, a moving area of the image is acquired by superimposing photographic subject areas of entire frames, and detects the moving range of the photographic subject. The third process is an area cutout process 34, which on the basis of the moving range of the photographic subject which has been detected in the second process, cuts out an area thereof and synthesizes still pictures. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、動画(「連続静止画」を含む)データを処理する画像処理装置に関し、特に、注目被写体を中心とする画像を得るようにする画像処理装置に関する。
【0002】
【従来の技術】
近年、ビデオカメラではもちろん、デジタルカメラでも動画を撮影、記録できるようになっているが、撮影された動画をプリントする場合、記録された動画から一定時間間隔で静止画を取り出してプリントすることが多い。特に、1シートに複数の画像コマが表示されている分割写真の状態でプリントすることがよく行われるが、この場合、注目したい被写体が各画像コマのなかで小さく写っていることが多く、見る者にとって見づらかった。
【0003】
下記特許文献1は、撮影開始スイッチで動画撮影し、記録された動画から一定時間間隔で動画分割写真を抜き出し、プリントするもので、特に、動画の先頭から動画分割写真を一定の時間間隔で抽出する店頭プリント機(いわゆるプリクラ機)を開示している。これは、プリクラ機という撮影条件が整った場合でのプリントに関するもので、通常のビデオカメラなどで撮影した画像では注目フレームを抜き出すと、動いている被写体が小さかったり画面の中央から外れたりしていた。
【0004】
下記特許文献2は、ビデオカメラなどで手ぶれ状態を含んで記録された動画データから、再生時に注目被写体を画面の所定位置に常に表示できるようにする技術を開示している。これは、被写体の一部を指定し、その動き量をパターンマッチングで検出してブレ補正を行い、ブレ補正で欠落するデータは他のフレームからもってくるようにしたものである。
【0005】
しかし、幼稚園の運動会におけるわが子のかけっこの姿を撮影した場合などでは、ユーザが、注目被写体(わが子)を画面の所定位置、特に中央部分にもってくると共に注目被写体(わが子)を大きくした状態で分割写真のプリント画像などを見たいという思いが強い。
【0006】
【特許文献1】
特開平10−115866号公報
【0007】
【特許文献2】
特開平11−187303号公報
【0008】
【発明が解決しようとする課題】
本発明は、上記の事情を考慮し、連続撮影された動画データの時間的な注目フレーム区間から注目被写体を中心とした空間部分(フレームの一部)を抜き出し、注目被写体をより大きくして見やすくした画像を得るための画像処理装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
請求項1の本発明は、連続する複数の画像からなる動画データを処理する画像処理装置であって、
動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、
取り出した動画データの構成フレームから被写体を特定する特定手段と、
動画データを構成するフレーム中で前記被写体が移動した範囲を検出する検出手段と、
前記被写体が移動した範囲及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す切り出し手段と、からなる画像処理装置、からなる。
【0010】
請求項1の本発明によれば、取り出し手段が、動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレーム、すなわち、ある時点から別のある時点までの動画構成フレームを取り出し、特定手段が、取り出した動画構成フレームから当該フレーム中に存在する被写体を特定する。検出手段は、動画データを構成する複数のフレーム中で前記被写体が移動した範囲を検出する。切り出し手段は、前記被写体が複数フレーム間で移動した範囲を含めた及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す。切り出した画像は被写体を中心とした空間部分を含む画像になっており、被写体が大きく写ったより見やすい画像になっている。なお、上記「動画」とは、「連続静止画」を含む意味である。
【0011】
請求項2の本発明は、前記切り出した動画データの各フレームを静止画合成する合成手段をさらに有する請求項1の画像処理装置、からなる。
【0012】
請求項2の本発明によれば、合成手段が、前記切り出した動画データの各フレームを静止画合成することによって、例えば、多重露光画像やインデックス画像を得ることができる。
【0013】
請求項3の本発明は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出することによって被写体を特定する請求項1の画像処理装置、からなる。
【0014】
請求項3の本発明によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出して被写体を特定し、この抽出工程を各フレームに対して行う。
【0015】
請求項4の本発明は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する請求項1の画像処理装置、からなる。
【0016】
請求項4の本発明によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定し、この特定工程を各フレームに対して行う。
【0017】
【発明の実施の形態】
以下、添付図面に従って本発明の実施の形態を詳説する。
【0018】
図1は本実施の形態に係る画像処理装置2の構成を示すブロック図である。
【0019】
記録媒体スロット24に記録媒体をセットすると、記録媒体コントローラ22が作動して記録媒体に格納されたデータが読み込まれる。キーボード、マウス等の操作部4から指示情報を入力すると、指示情報はインターフェース8を介してCPU12に送られ、CPU12から制御信号が記録媒体コントローラ22に送られ、記録媒体コントローラ22を介して記録媒体から必要な画像データが取り出されて、RAM20に格納される。ROM18には、制御プログラムが格納されている。画像処理部14では、操作部4からの指示情報に基づくCPU12の制御信号により、RAM20に格納された画像データに対して、制御指示された画像処理が行われ、その結果がディスプレイコントローラ10を介してディスプレイ6に表示される。ユーザは、ディスプレイ6を見てさらに必要な指示情報を操作部4から入力する。
【0020】
図2は、動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図である。
【0021】
連続した複数の静止画からなる動画ファイルを読み込み、動画ファイル中の動画フレームを分解して指定時間範囲のフレームを取り出す。その後、3つの工程を経る。
【0022】
第1工程は、被写体の特徴色を抽出処理する被写体特徴色抽出処理30である。この被写体特徴色抽出処理30は、被写体の中の部分を数箇所ポイントすることによって被写体を指定し、各ポイントでの特徴色リストを作成する。
【0023】
第2工程は、画像エリア抽出処理をするエリア抽出処理32である。この工程では、第1工程で作成した特徴色と近似している色を抽出し、抽出した部分を重ね合わせることによって被写体を特定し、全フレームの被写体エリアを重ね合わせて画像の移動エリアを得、被写体の動き範囲を検出する。
【0024】
第3工程は、領域切り出し処理34である。この工程では、第2工程で検出した被写体の動き範囲を基にその領域を切り出し、静止画を合成する。
【0025】
各工程の詳細を説明する。
【0026】
第1工程の詳細を説明する。図3は、第1工程での特徴色の指定法を示した図、図4は、第1工程での特徴色抽出工程の流れを示したフローチャートである。
【0027】
図3において、まず、動画フレーム中の特定の静止画フレームnにおいてユーザが特定したい被写体の特徴色を指定する。ユーザが特定したい被写体を女の子とすると、ユーザは、被写体の一部、例えば、髪であるA点、腕であるB点、胴体であるC点をそれぞれ操作部4であるマウスでポイントする。ポイントすることによって、A点、B点、C点のx、y座標が決定する。そして、A点のR、G、B値を取り込んで特徴色ref(1)とし、B点のR、G、B値を取り込んで特徴色ref(2)とし、C点のR、G、B値を取り込んで特徴色ref(3)とする。
【0028】
図4で説明すると、特定の静止画フレームnがディスプレイ6に表示され(ステップ40)、特徴色抽出工程が必要回繰り返されたか判断され(ステップ42)、イエスの場合は終了し、ノーの場合は被写体の一部をポイントする(ステップ44)。A点、B点、C点の特徴色が各R、G、B値の取り込みにより抽出される(ステップ46)。その後、特徴色抽出工程が必要回繰り返されたかの判断に戻る(ステップ42)。
【0029】
第2工程を説明する。図5は、画像エリア抽出処理工程を示す概念図であり、図6は、画像エリア抽出処理工程のフローチャートである。
【0030】
図5において、第1工程で抽出されたA点の特徴色ref(1)、B点の特徴色ref(2)、C点の特徴色ref(3)について、それぞれに近似している色を抽出する。
【0031】
A点の特徴色ref(1)については、A点の特徴色ref(1)と色差ΔC以内の部分を抽出する。静止画フレームnはビットプレーンで構成されているので、ref(i)とピクセルiの差分をとって色差ΔC以内の部分かどうかを0か1かで該当するか否か調べる。値0となった場合は該当しないことになり、色一致しなかった部分とみなされる。値1となった場合は該当することになり、色一致した部分とみなされる。その結果、A点の特徴色ref(1)と近似の色の部分が抽出される。
【0032】
B点の特徴色ref(2)、C点の特徴色ref(3)についても、同様に近似の色の部分が抽出される。
【0033】
それらの抽出した特徴色部分を1つの静止画フレームnにおいて重ね合わせる。その静止画フレームnの被写体エリアが画定される。その工程を指定時間範囲のフレームすべてについて行い、画定された被写体エリアを指定範囲の全フレーム分重ね合わせる。すると、指定された複数フレームにわたっての被写体画像の移動エリアが得られる。移動エリアが長方形になるように、その移動エリアの左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、被写体の動き範囲が検出される。
【0034】
図6で説明すると、まず対象となる最初の静止画フレームが選定され(ステップ50)、フレーム終了までくり返されたかどうか判断され(ステップ52)、最終フレームが完了したらステップ64に移行し、そうでなければステップ54で特徴色ref(i)についての画像エリア抽出をくり返すかどうかが判断され、抽出が完了した場合はステップ60に移行する。完了していない場合は、ステップ56でref(i)と色差ΔC以内の色一致エリアを上述の方法で抽出する。その後、次の特徴色とし(ステップ58)、ステップ54に戻る。
【0035】
ステップ60では、上述の例では、A点、B点、C点の各特徴色についての色一致エリアを重ね合わせ、そのフレームnの被写体エリアを抽出する。これが終了すると次のフレームを対象とし(ステップ62)、ステップ52に戻る。
【0036】
ステップ64では、指定された全フレームの被写体エリアを重ね合わせ、被写体画像の移動エリアを得る。そして、ステップ66に移行し、移動エリアが長方形になるように、その移動エリアの外接座標である左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、終了する。
【0037】
第3工程を説明する。図7は、領域切り出し工程を示すフローチャートである。この工程では、第2工程で検出した被写体の動き範囲の画像領域を切り出し、静止画を合成する。
【0038】
まず、移動エリアが画定された対象フレームを特定する(ステップ70)。該当フレームを読み、画定された移動エリア部分が切り出される(ステップ72)。切り出した画像を出力する(ステップ74)。対象フレームが終了したかどうか判断する(ステップ76)。終了していない場合は、他の移動エリアが画定された対象フレームを特定し(ステップ78)、ステップ72に戻る。ステップ76でイエスの場合は、工程を終了する。
【0039】
画像を切り出した後は、例えば、切り出した静止画画像を分割写真として合成することが考えられる。図8に示すように、合成した画像では、動画を構成する静止画の1コマ1コマにおける被写体が通常の分割写真よりも拡大した画像になっているので、注目したい被写体をより大きく見やすくすることができる。また、図8に示す分割写真からさらに静止画合成することもできる。
【0040】
また、切り出した静止画画像を重ね合わせることで多重露光的な合成写真をプリントすることもできるし、インデックス的な画像に合成することもできる。
【0041】
上述のように、本形態によれば、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【0042】
また、動画像の注目フレーム期間について注目被写体の動きが分かるため、分解写真でプリントするフレーム領域の切り出しが容易になる。
【0043】
さらに、長方形の左上隅と右下隅の座標を定義するrect_min_x,rect_min_y、rect_max_x,rect_max_yなどの演算で、自動的に分解写真抽出領域が効果的に切り出せなかった場合でも、参照画像R[x,y],G[x,y],B[x,y]を見ることで、手動で切り出すべき領域が容易に指定できる。
【0044】
【発明の効果】
本発明によれば、被写体が大きく写ったより見やすい画像を得ることができるので、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【図面の簡単な説明】
【図1】画像処理装置の構成を示すブロック図。
【図2】動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図。
【図3】第1工程での特徴色の指定法を示した図。
【図4】第1工程での特徴色抽出工程の流れを示したフローチャート。
【図5】画像エリア抽出処理工程を示す概念図。
【図6】画像エリア抽出処理工程のフローチャート。
【図7】領域切り出し工程を示すフローチャート。
【図8】動画データから拡大した被写体画像が得られた分割写真の図。
【符号の説明】
2…画像処理装置、4…操作部、6…ディスプレイ、12…CPU、14…画像処理部、18…ROM、20…RAM、22…記録媒体コントローラ、24…記録媒体スロット、30…被写体特徴色抽出処理、32…画像エリア抽出処理、34…領域切り出し処理
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that processes moving image (including “continuous still images”) data, and more particularly to an image processing apparatus that obtains an image centered on a subject of interest.
[0002]
[Prior art]
In recent years, video cameras and digital cameras can be used to shoot and record videos. However, when printing recorded videos, still images can be taken from the recorded videos at regular time intervals and printed. Many. In particular, printing is often performed in the state of a divided photograph in which a plurality of image frames are displayed on one sheet. In this case, the subject to be noticed is often small in each image frame. It was difficult for the person to see.
[0003]
The following Patent Document 1 captures a moving picture with a shooting start switch, extracts a moving picture from a recorded moving picture at a predetermined time interval, and prints it. In particular, the moving picture is extracted from the beginning of the moving picture at a fixed time interval. An over-the-counter printing machine (so-called photo booth machine) is disclosed. This is related to printing when the shooting conditions of the photo booth are met, and if the frame of interest is extracted from an image shot with a normal video camera, the moving subject is too small or off the center of the screen. It was.
[0004]
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that allows a subject of interest to be always displayed at a predetermined position on a screen during reproduction from moving image data recorded including a camera shake state with a video camera or the like. In this method, a part of a subject is specified, the amount of movement is detected by pattern matching, and blur correction is performed, and data lost by blur correction is brought from other frames.
[0005]
However, when shooting a child's figure in a kindergarten athletic meet, etc., the user divides the subject of interest (my child) into a predetermined position on the screen, especially the center, and enlarges the subject of interest (my child). I have a strong desire to see prints of photographs.
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-115866
[Patent Document 2]
Japanese Patent Application Laid-Open No. 11-187303
[Problems to be solved by the invention]
In consideration of the above circumstances, the present invention extracts a spatial portion (a part of a frame) centered on a subject of interest from a temporally noticeable frame section of continuously captured moving image data to make the subject of interest larger and easy to see. An object of the present invention is to provide an image processing apparatus for obtaining a processed image.
[0009]
[Means for Solving the Problems]
The present invention of claim 1 is an image processing apparatus for processing moving image data composed of a plurality of continuous images,
Means for reading out the video data and taking out the frames constituting the video in the specified time range from the video data;
A specifying means for specifying the subject from the frame of the extracted video data;
Detecting means for detecting a range in which the subject has moved in a frame constituting the moving image data;
An image processing apparatus including: a range in which the subject has moved; and a cutout unit that cuts out each frame of the moving image data of the image including the periphery of the movement range.
[0010]
According to the present invention of claim 1, the take-out means reads the moving picture data, takes out a frame constituting a moving picture in a specified time range from the moving picture data, that is, takes a moving picture constituent frame from a certain time point to another certain time point, The specifying unit specifies a subject existing in the frame from the extracted moving image constituting frame. The detecting means detects a range in which the subject has moved in a plurality of frames constituting the moving image data. The cutout means cuts out each frame of the moving image data of the image including the range in which the subject has moved between a plurality of frames and the periphery of the movement range. The cut-out image is an image including a space portion centered on the subject, and is an image that is easier to see than a large subject. The “moving image” means “continuous still image”.
[0011]
According to a second aspect of the present invention, there is provided the image processing apparatus according to the first aspect, further comprising a synthesizing unit that synthesizes each frame of the extracted moving image data.
[0012]
According to the second aspect of the present invention, for example, a multi-exposure image or an index image can be obtained by the synthesizing unit synthesizing each frame of the clipped moving image data.
[0013]
According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the specifying unit specifies a subject color by specifying a feature color of the subject and extracting a color approximate to the feature color from the constituent frame. It consists of.
[0014]
According to the third aspect of the present invention, the specifying means specifies the feature color of the subject in the frame, extracts the same kind of color as the feature color from the constituent frame, specifies the subject, and this extraction step is performed for each frame. To do.
[0015]
According to a fourth aspect of the present invention, the specifying unit specifies a subject color by extracting a color approximate to the feature color from the component frame and then superimposing the extracted portions. The image processing apparatus according to claim 1.
[0016]
According to the present invention of claim 4, the specifying means designates the characteristic color of the subject in the frame, extracts a color of the same type as the characteristic color from the constituent frame, and then superimposes the extracted portions to identify the subject. The identification process is performed for each frame.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0018]
FIG. 1 is a block diagram showing a configuration of an image processing apparatus 2 according to the present embodiment.
[0019]
When a recording medium is set in the recording medium slot 24, the recording medium controller 22 operates to read data stored in the recording medium. When instruction information is input from the operation unit 4 such as a keyboard or a mouse, the instruction information is sent to the CPU 12 via the interface 8, a control signal is sent from the CPU 12 to the recording medium controller 22, and the recording medium is sent via the recording medium controller 22. Necessary image data is extracted from the image data and stored in the RAM 20. The ROM 18 stores a control program. In the image processing unit 14, control-instructed image processing is performed on the image data stored in the RAM 20 by a control signal of the CPU 12 based on the instruction information from the operation unit 4, and the result is displayed via the display controller 10. Are displayed on the display 6. The user inputs necessary instruction information from the operation unit 4 while viewing the display 6.
[0020]
FIG. 2 is a diagram showing a schematic process until a still image obtained by enlarging a subject of interest from moving image data of a moving image file is synthesized.
[0021]
A moving image file composed of a plurality of continuous still images is read, and moving image frames in the moving image file are disassembled to extract frames within a specified time range. Then, it goes through three steps.
[0022]
The first step is subject feature color extraction processing 30 that performs subject feature color extraction processing. The subject feature color extraction process 30 designates a subject by pointing several points in the subject and creates a feature color list at each point.
[0023]
The second step is an area extraction process 32 for performing an image area extraction process. In this step, a color approximate to the characteristic color created in the first step is extracted, the subject is specified by superimposing the extracted portions, and the subject area of all frames is overlaid to obtain the moving area of the image. Detect the movement range of the subject.
[0024]
The third step is a region cutout process 34. In this step, the region is cut out based on the movement range of the subject detected in the second step, and a still image is synthesized.
[0025]
Details of each step will be described.
[0026]
Details of the first step will be described. FIG. 3 is a diagram showing a feature color designation method in the first step, and FIG. 4 is a flowchart showing a flow of the feature color extraction step in the first step.
[0027]
In FIG. 3, first, the feature color of the subject that the user wants to specify is specified in a specific still image frame n in the moving image frame. If the subject that the user wants to specify is a girl, the user points to a part of the subject, for example, point A that is hair, point B that is an arm, and point C that is a torso with the mouse that is the operation unit 4. By pointing, the x and y coordinates of points A, B and C are determined. Then, the R, G, and B values at the A point are taken as the feature color ref (1), the R, G, and B values at the B point are taken as the feature color ref (2), and the R, G, and B values at the C point. The value is taken in and set as the characteristic color ref (3).
[0028]
Referring to FIG. 4, a specific still image frame n is displayed on the display 6 (step 40), and it is determined whether the characteristic color extraction process has been repeated a required number of times (step 42). Points to a portion of the subject (step 44). The characteristic colors at points A, B, and C are extracted by taking in the R, G, and B values (step 46). Thereafter, the process returns to the determination of whether the feature color extraction process has been repeated a required number of times (step 42).
[0029]
The second step will be described. FIG. 5 is a conceptual diagram showing the image area extraction processing step, and FIG. 6 is a flowchart of the image area extraction processing step.
[0030]
In FIG. 5, for the feature color ref (1), the feature color ref (2) of the point B, and the feature color ref (3) of the point C extracted in the first step, the colors approximated to each of them are shown. Extract.
[0031]
For the feature color ref (1) at point A, a portion within the color difference ΔC from the feature color ref (1) at point A is extracted. Since the still image frame n is composed of a bit plane, the difference between ref (i) and the pixel i is taken to check whether the portion is within the color difference ΔC, whether it is 0 or 1. When the value is 0, it is not applicable, and it is regarded as a portion where the colors do not match. When the value is 1, it corresponds and is regarded as a color-matched part. As a result, the characteristic color ref (1) at point A and the approximate color portion are extracted.
[0032]
For the feature color ref (2) at point B and the feature color ref (3) at point C, similar color portions are similarly extracted.
[0033]
The extracted characteristic color portions are superimposed on one still image frame n. The subject area of the still image frame n is defined. The process is performed for all the frames in the specified time range, and the defined subject area is overlapped for all the frames in the specified range. Then, a moving area of the subject image over a plurality of designated frames is obtained. The upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) of the movement area are specified so that the movement area becomes a rectangle, and the movement area is finally The range of motion of the subject is detected.
[0034]
Referring to FIG. 6, first, the first still image frame to be processed is selected (step 50), it is determined whether or not the frame has been repeated until the end of the frame (step 52), and when the final frame is completed, the process proceeds to step 64. Otherwise, it is determined in step 54 whether or not the image area extraction for the feature color ref (i) is repeated, and if the extraction is completed, the process proceeds to step 60. If not completed, a color matching area within ref (i) and the color difference ΔC is extracted in the step 56 by the above method. Thereafter, the next characteristic color is set (step 58), and the process returns to step 54.
[0035]
In step 60, in the above-described example, the color matching areas for the characteristic colors of the points A, B, and C are overlapped, and the subject area of the frame n is extracted. When this is completed, the next frame is targeted (step 62), and the process returns to step 52.
[0036]
In step 64, the subject areas of all designated frames are overlapped to obtain a moving area of the subject image. Then, the process proceeds to step 66, and the upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) is specified and the moving area is finally defined and the process ends.
[0037]
The third step will be described. FIG. 7 is a flowchart showing the region cutout process. In this step, the image area of the movement range of the subject detected in the second step is cut out and a still image is synthesized.
[0038]
First, a target frame in which a moving area is defined is specified (step 70). The corresponding frame is read, and the defined moving area portion is cut out (step 72). The clipped image is output (step 74). It is determined whether the target frame is completed (step 76). If not completed, the target frame in which another moving area is defined is specified (step 78), and the process returns to step 72. If yes in step 76, the process ends.
[0039]
After the image is cut out, for example, it is conceivable to combine the cut out still image as a divided photograph. As shown in FIG. 8, in the synthesized image, the subject in each frame of the still image constituting the moving image is an enlarged image than the normal divided photograph, so that the subject to be noticed can be seen larger and easier to see. Can do. Further, still images can be further synthesized from the divided photographs shown in FIG.
[0040]
Further, by superimposing the cut out still image images, it is possible to print a multi-exposure composite photograph or to combine it with an index-like image.
[0041]
As described above, according to this embodiment, it is possible to obtain an image centered on a subject to be noticed when, for example, a continuously photographed separated photograph image is printed.
[0042]
In addition, since the movement of the subject of interest is known during the attention frame period of the moving image, it is easy to cut out the frame area to be printed with the decomposed photograph.
[0043]
Furthermore, even when the extracted photograph extraction region cannot be automatically cut out automatically by operations such as rect_min_x, rect_min_y, rect_max_x, rect_max_y that define the coordinates of the upper left corner and the lower right corner of the rectangle, the reference image R [x, y ], G [x, y], and B [x, y], it is possible to easily specify an area to be manually cut out.
[0044]
【The invention's effect】
According to the present invention, it is possible to obtain an image that is easier to see than a large subject, and therefore, it is possible to obtain an image centered on a subject that is desired to be noticed when, for example, a continuously photographed separated photograph image is printed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus.
FIG. 2 is a diagram showing a schematic process until a still image in which a subject of interest is enlarged is synthesized from moving image data of a moving image file.
FIG. 3 is a view showing a feature color designation method in the first step.
FIG. 4 is a flowchart showing a flow of a feature color extraction process in the first process.
FIG. 5 is a conceptual diagram showing an image area extraction process.
FIG. 6 is a flowchart of an image area extraction processing step.
FIG. 7 is a flowchart showing an area cutout process.
FIG. 8 is a diagram of a divided photograph in which an enlarged subject image is obtained from moving image data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 2 ... Image processing apparatus, 4 ... Operation part, 6 ... Display, 12 ... CPU, 14 ... Image processing part, 18 ... ROM, 20 ... RAM, 22 ... Recording medium controller, 24 ... Recording medium slot, 30 ... Subject characteristic color Extraction processing, 32... Image area extraction processing, 34.

Claims (4)

連続する複数の画像からなる動画データを処理する画像処理装置であって、
動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、
取り出した動画データの構成フレームから被写体を特定する特定手段と、
動画データを構成するフレーム中で前記被写体が移動した範囲を検出する検出手段と、
前記被写体が移動した範囲及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す切り出し手段と、からなる画像処理装置。
An image processing apparatus that processes moving image data including a plurality of continuous images,
Means for reading out the video data and taking out the frames constituting the video in the specified time range from the video data;
A specifying means for specifying the subject from the frame of the extracted video data;
Detecting means for detecting a range in which the subject has moved in a frame constituting the moving image data;
An image processing apparatus comprising: a range in which the subject has moved, and a cutout unit that cuts out each frame of the moving image data of the image including the periphery of the movement range.
前記切り出した動画データの各フレームを静止画合成する合成手段をさらに有する請求項1の画像処理装置。The image processing apparatus according to claim 1, further comprising a synthesizing unit that synthesizes each frame of the clipped moving image data. 前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出することによって被写体を特定する請求項1の画像処理装置。The image processing apparatus according to claim 1, wherein the specifying unit specifies a subject color by specifying a feature color of the subject and extracting a color approximate to the feature color from the constituent frame. 前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する請求項1の画像処理装置。The image processing apparatus according to claim 1, wherein the specifying unit specifies a subject color, extracts a color approximate to the feature color from the constituent frame, and then identifies the subject by superimposing the extracted portions. .
JP2002345257A 2002-11-28 2002-11-28 Image processing device Expired - Fee Related JP4467231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002345257A JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002345257A JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Publications (2)

Publication Number Publication Date
JP2004178368A true JP2004178368A (en) 2004-06-24
JP4467231B2 JP4467231B2 (en) 2010-05-26

Family

ID=32706476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002345257A Expired - Fee Related JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Country Status (1)

Country Link
JP (1) JP4467231B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031226B2 (en) 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
KR101080404B1 (en) 2004-12-06 2011-11-04 삼성전자주식회사 Method for converting moving image into still image and triming the still image
JP2012060468A (en) * 2010-09-09 2012-03-22 Casio Comput Co Ltd Imaging apparatus, image generating apparatus, image generating program and image generating method
JP2012099876A (en) * 2010-10-29 2012-05-24 Sanyo Electric Co Ltd Image processing device, imaging device, image processing method, and program
JP2012191544A (en) * 2011-03-14 2012-10-04 Olympus Imaging Corp Reproduction apparatus, imaging apparatus, and moving image reproduction program
US8737807B2 (en) 2010-12-28 2014-05-27 Olympus Imaging Corp. Reproduction apparatus and image-capturing apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101080404B1 (en) 2004-12-06 2011-11-04 삼성전자주식회사 Method for converting moving image into still image and triming the still image
US8031226B2 (en) 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
JP2012060468A (en) * 2010-09-09 2012-03-22 Casio Comput Co Ltd Imaging apparatus, image generating apparatus, image generating program and image generating method
JP2012099876A (en) * 2010-10-29 2012-05-24 Sanyo Electric Co Ltd Image processing device, imaging device, image processing method, and program
US8737807B2 (en) 2010-12-28 2014-05-27 Olympus Imaging Corp. Reproduction apparatus and image-capturing apparatus
JP2012191544A (en) * 2011-03-14 2012-10-04 Olympus Imaging Corp Reproduction apparatus, imaging apparatus, and moving image reproduction program

Also Published As

Publication number Publication date
JP4467231B2 (en) 2010-05-26

Similar Documents

Publication Publication Date Title
US9692964B2 (en) Modification of post-viewing parameters for digital images using image region or feature information
JP4889538B2 (en) Image processing device
KR101380731B1 (en) Image processing method and apparatus
US7599568B2 (en) Image processing method, apparatus, and program
US8274572B2 (en) Electronic camera capturing a group of a plurality of specific objects
JP2009193421A (en) Image processing device, camera device, image processing method, and program
JP2002158893A (en) Device and method for correcting picture and recording medium
JP2009282979A (en) Image processor and image processing method
JP2004062565A (en) Image processor and image processing method, and program storage medium
JP2005102175A (en) Digital camera
JP2001057630A (en) Image processing unit and image processing method
JP2007324965A (en) Digital camera, photography control method, and image output system
JP2009017223A (en) Imaging device, image processing device, and their image processing method and program
JP2008198082A (en) Image processing method, image processing apparatus, and digital camera
JP2007027971A (en) Photographing apparatus, control method thereof, program, and recording medium
JP2007336411A (en) Imaging apparatus, auto-bracketing photographing method, and program
US7212674B1 (en) Method, apparatus and recording medium for face extraction
JP4467231B2 (en) Image processing device
US20160295036A1 (en) Image processing device, image processing method, program, and recording medium
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2006350462A (en) Album image preparation device and album image preparation program
JP2006279661A (en) Digital camera
JP2006287365A (en) Digital camera
JP2008187256A (en) Motion image creating device, method and program
JP2009089083A (en) Age estimation photographing device and age estimation photographing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100223

R150 Certificate of patent or registration of utility model

Ref document number: 4467231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees