JP4467231B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4467231B2
JP4467231B2 JP2002345257A JP2002345257A JP4467231B2 JP 4467231 B2 JP4467231 B2 JP 4467231B2 JP 2002345257 A JP2002345257 A JP 2002345257A JP 2002345257 A JP2002345257 A JP 2002345257A JP 4467231 B2 JP4467231 B2 JP 4467231B2
Authority
JP
Japan
Prior art keywords
subject
moving image
image
color
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002345257A
Other languages
Japanese (ja)
Other versions
JP2004178368A (en
Inventor
文博 舟崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2002345257A priority Critical patent/JP4467231B2/en
Publication of JP2004178368A publication Critical patent/JP2004178368A/en
Application granted granted Critical
Publication of JP4467231B2 publication Critical patent/JP4467231B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Processing Of Color Television Signals (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、動画(「連続静止画」を含む)データを処理する画像処理装置に関し、特に、注目被写体を中心とする画像を得るようにする画像処理装置に関する。
【0002】
【従来の技術】
近年、ビデオカメラではもちろん、デジタルカメラでも動画を撮影、記録できるようになっているが、撮影された動画をプリントする場合、記録された動画から一定時間間隔で静止画を取り出してプリントすることが多い。特に、1シートに複数の画像コマが表示されている分割写真の状態でプリントすることがよく行われるが、この場合、注目したい被写体が各画像コマのなかで小さく写っていることが多く、見る者にとって見づらかった。
【0003】
下記特許文献1は、撮影開始スイッチで動画撮影し、記録された動画から一定時間間隔で動画分割写真を抜き出し、プリントするもので、特に、動画の先頭から動画分割写真を一定の時間間隔で抽出する店頭プリント機(いわゆるプリクラ機)を開示している。これは、プリクラ機という撮影条件が整った場合でのプリントに関するもので、通常のビデオカメラなどで撮影した画像では注目フレームを抜き出すと、動いている被写体が小さかったり画面の中央から外れたりしていた。
【0004】
下記特許文献2は、ビデオカメラなどで手ぶれ状態を含んで記録された動画データから、再生時に注目被写体を画面の所定位置に常に表示できるようにする技術を開示している。これは、被写体の一部を指定し、その動き量をパターンマッチングで検出してブレ補正を行い、ブレ補正で欠落するデータは他のフレームからもってくるようにしたものである。
【0005】
しかし、幼稚園の運動会におけるわが子のかけっこの姿を撮影した場合などでは、ユーザが、注目被写体(わが子)を画面の所定位置、特に中央部分にもってくると共に注目被写体(わが子)を大きくした状態で分割写真のプリント画像などを見たいという思いが強い。
【0006】
【特許文献1】
特開平10−115866号公報
【0007】
【特許文献2】
特開平11−187303号公報
【0008】
【発明が解決しようとする課題】
本発明は、上記の事情を考慮し、連続撮影された動画データの時間的な注目フレーム区間から注目被写体を中心とした空間部分(フレームの一部)を抜き出し、注目被写体をより大きくして見やすくした画像を得るための画像処理装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
本発明の第1側面は、連続する複数の画像からなる動画データを処理する画像処理装置であって、動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、取り出した動画データの構成フレームから被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する特定手段と、前記取り出した動画データの構成フレーム中で前記特定手段によって被写体を特定した部分を前記取り出した構成フレーム分すべてを重ね合わせて、被写体が存在する範囲が前記被写体が移動した範囲であるとすることによって前記被写体が移動した範囲を検出する検出手段と、前記被写体が移動した範囲画像の動画データのエリア部分を切り出す切り出し手段と、からなる画像処理装置、からなる。
【0010】
本発明の第1側面によれば、取り出し手段が、動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレーム、すなわち、ある時点から別のある時点までの動画構成フレームを取り出し、特定手段が、取り出した動画構成フレームから当該フレーム中に存在する被写体を特定する。検出手段は、動画データを構成する複数のフレーム中で前記被写体が移動した範囲を検出する。切り出し手段は、前記被写体が複数フレーム間で移動した範囲を含めた画像の動画データのエリア部分を切り出す。切り出した画像は被写体を中心とした空間部分を含む画像になっており、被写体が大きく写ったより見やすい画像になっている。なお、上記「動画」とは、「連続静止画」を含む意味である。
【0011】
発明の第2側面は、前記切り出した動画データの各フレームを静止画合成する合成手段をさらに有する第1側面の画像処理装置、からなる。
【0012】
発明の第2側面によれば、合成手段が、前記切り出した動画データの各フレームを静止画合成することによって、例えば、多重露光画像やインデックス画像を得ることができる。
【0013】
発明の第3側面は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出することによって被写体を特定する第1側面の画像処理装置、からなる。
【0014】
発明の第3側面によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出して被写体を特定し、この抽出工程を各フレームに対して行う。
【0015】
発明の第4側面は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する第1側面の画像処理装置、からなる。
【0016】
発明の第4側面によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定し、この特定工程を各フレームに対して行う。
【0017】
【発明の実施の形態】
以下、添付図面に従って本発明の実施の形態を詳説する。
【0018】
図1は本実施の形態に係る画像処理装置2の構成を示すブロック図である。
【0019】
記録媒体スロット24に記録媒体をセットすると、記録媒体コントローラ22が作動して記録媒体に格納されたデータが読み込まれる。キーボード、マウス等の操作部4から指示情報を入力すると、指示情報はインターフェース8を介してCPU12に送られ、CPU12から制御信号が記録媒体コントローラ22に送られ、記録媒体コントローラ22を介して記録媒体から必要な画像データが取り出されて、RAM20に格納される。ROM18には、制御プログラムが格納されている。画像処理部14では、操作部4からの指示情報に基づくCPU12の制御信号により、RAM20に格納された画像データに対して、制御指示された画像処理が行われ、その結果がディスプレイコントローラ10を介してディスプレイ6に表示される。ユーザは、ディスプレイ6を見てさらに必要な指示情報を操作部4から入力する。
【0020】
図2は、動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図である。
【0021】
連続した複数の静止画からなる動画ファイルを読み込み、動画ファイル中の動画フレームを分解して指定時間範囲のフレームを取り出す。その後、3つの工程を経る。
【0022】
第1工程は、被写体の特徴色を抽出処理する被写体特徴色抽出処理30である。この被写体特徴色抽出処理30は、被写体の中の部分を数箇所ポイントすることによって被写体を指定し、各ポイントでの特徴色リストを作成する。
【0023】
第2工程は、画像エリア抽出処理をするエリア抽出処理32である。この工程では、第1工程で作成した特徴色と近似している色を抽出し、抽出した部分を重ね合わせることによって被写体を特定し、全フレームの被写体エリアを重ね合わせて画像の移動エリアを得、被写体の動き範囲を検出する。
【0024】
第3工程は、領域切り出し処理34である。この工程では、第2工程で検出した被写体の動き範囲を基にその領域を切り出し、静止画を合成する。
【0025】
各工程の詳細を説明する。
【0026】
第1工程の詳細を説明する。図3は、第1工程での特徴色の指定法を示した図、図4は、第1工程での特徴色抽出工程の流れを示したフローチャートである。
【0027】
図3において、まず、動画フレーム中の特定の静止画フレームnにおいてユーザが特定したい被写体の特徴色を指定する。ユーザが特定したい被写体を女の子とすると、ユーザは、被写体の一部、例えば、髪であるA点、腕であるB点、胴体であるC点をそれぞれ操作部4であるマウスでポイントする。ポイントすることによって、A点、B点、C点のx、y座標が決定する。そして、A点のR、G、B値を取り込んで特徴色ref(1)とし、B点のR、G、B値を取り込んで特徴色ref(2)とし、C点のR、G、B値を取り込んで特徴色ref(3)とする。
【0028】
図4で説明すると、特定の静止画フレームnがディスプレイ6に表示され(ステップ40)、特徴色抽出工程が必要回繰り返されたか判断され(ステップ42)、イエスの場合は終了し、ノーの場合は被写体の一部をポイントする(ステップ44)。A点、B点、C点の特徴色が各R、G、B値の取り込みにより抽出される(ステップ46)。その後、特徴色抽出工程が必要回繰り返されたかの判断に戻る(ステップ42)。
【0029】
第2工程を説明する。図5は、画像エリア抽出処理工程を示す概念図であり、図6は、画像エリア抽出処理工程のフローチャートである。
【0030】
図5において、第1工程で抽出されたA点の特徴色ref(1)、B点の特徴色ref(2)、C点の特徴色ref(3)について、それぞれに近似している色を抽出する。
【0031】
A点の特徴色ref(1)については、A点の特徴色ref(1)と色差ΔC以内の部分を抽出する。静止画フレームnはビットプレーンで構成されているので、ref(i)とピクセルiの差分をとって色差ΔC以内の部分かどうかを0か1かで該当するか否か調べる。値0となった場合は該当しないことになり、色一致しなかった部分とみなされる。値1となった場合は該当することになり、色一致した部分とみなされる。その結果、A点の特徴色ref(1)と近似の色の部分が抽出される。
【0032】
B点の特徴色ref(2)、C点の特徴色ref(3)についても、同様に近似の色の部分が抽出される。
【0033】
それらの抽出した特徴色部分を1つの静止画フレームnにおいて重ね合わせる。その静止画フレームnの被写体エリアが画定される。その工程を指定時間範囲のフレームすべてについて行い、画定された被写体エリアを指定範囲の全フレーム分重ね合わせる。すると、指定された複数フレームにわたっての被写体画像の移動エリアが得られる。移動エリアが長方形になるように、その移動エリアの左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、被写体の動き範囲が検出される。
【0034】
図6で説明すると、まず対象となる最初の静止画フレームが選定され(ステップ50)、フレーム終了までくり返されたかどうか判断され(ステップ52)、最終フレームが完了したらステップ64に移行し、そうでなければステップ54で特徴色ref(i)についての画像エリア抽出をくり返すかどうかが判断され、抽出が完了した場合はステップ60に移行する。完了していない場合は、ステップ56でref(i)と色差ΔC以内の色一致エリアを上述の方法で抽出する。その後、次の特徴色とし(ステップ58)、ステップ54に戻る。
【0035】
ステップ60では、上述の例では、A点、B点、C点の各特徴色についての色一致エリアを重ね合わせ、そのフレームnの被写体エリアを抽出する。これが終了すると次のフレームを対象とし(ステップ62)、ステップ52に戻る。
【0036】
ステップ64では、指定された全フレームの被写体エリアを重ね合わせ、被写体画像の移動エリアを得る。そして、ステップ66に移行し、移動エリアが長方形になるように、その移動エリアの外接座標である左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、終了する。
【0037】
第3工程を説明する。図7は、領域切り出し工程を示すフローチャートである。この工程では、第2工程で検出した被写体の動き範囲の画像領域を切り出し、静止画を合成する。
【0038】
まず、移動エリアが画定された対象フレームを特定する(ステップ70)。該当フレームを読み、画定された移動エリア部分が切り出される(ステップ72)。切り出した画像を出力する(ステップ74)。対象フレームが終了したかどうか判断する(ステップ76)。終了していない場合は、他の移動エリアが画定された対象フレームを特定し(ステップ78)、ステップ72に戻る。ステップ76でイエスの場合は、工程を終了する。
【0039】
画像を切り出した後は、例えば、切り出した静止画画像を分割写真として合成することが考えられる。図8に示すように、合成した画像では、動画を構成する静止画の1コマ1コマにおける被写体が通常の分割写真よりも拡大した画像になっているので、注目したい被写体をより大きく見やすくすることができる。また、図8に示す分割写真からさらに静止画合成することもできる。
【0040】
また、切り出した静止画画像を重ね合わせることで多重露光的な合成写真をプリントすることもできるし、インデックス的な画像に合成することもできる。
【0041】
上述のように、本形態によれば、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【0042】
また、動画像の注目フレーム期間について注目被写体の動きが分かるため、分解写真でプリントするフレーム領域の切り出しが容易になる。
【0043】
さらに、長方形の左上隅と右下隅の座標を定義するrect_min_x,rect_min_y、rect_max_x,rect_max_yなどの演算で、自動的に分解写真抽出領域が効果的に切り出せなかった場合でも、参照画像R[x,y],G[x,y],B[x,y]を見ることで、手動で切り出すべき領域が容易に指定できる。
【0044】
【発明の効果】
本発明によれば、被写体が大きく写ったより見やすい画像を得ることができるので、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【図面の簡単な説明】
【図1】画像処理装置の構成を示すブロック図。
【図2】動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図。
【図3】第1工程での特徴色の指定法を示した図。
【図4】 第1工程での特徴色抽出工程の流れを示したフローチャート。
【図5】画像エリア抽出処理工程を示す概念図。
【図6】画像エリア抽出処理工程のフローチャート。
【図7】領域切り出し工程を示すフローチャート。
【図8】動画データから拡大した被写体画像が得られた分割写真の図。
【符号の説明】
2…画像処理装置、4…操作部、6…ディスプレイ、12…CPU、14…画像処理部、18…ROM、20…RAM、22…記録媒体コントローラ、24…記録媒体スロット、30…被写体特徴色抽出処理、32…画像エリア抽出処理、34…領域切り出し処理
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that processes moving image (including “continuous still images”) data, and more particularly to an image processing apparatus that obtains an image centered on a subject of interest.
[0002]
[Prior art]
In recent years, it has become possible to shoot and record movies with digital cameras as well as with video cameras. However, when printing a recorded movie, it is possible to take out and print still images from the recorded movie at regular time intervals. Many. In particular, printing is often performed in the state of a divided photograph in which a plurality of image frames are displayed on one sheet. In this case, the subject to be noticed is often small in each image frame. It was difficult for the person to see.
[0003]
The following Patent Document 1 captures a moving picture with a shooting start switch, extracts a moving picture from a recorded moving picture at a fixed time interval, and prints it. In particular, the moving picture is extracted from a moving picture at a fixed time interval. An over-the-counter printing machine (so-called photo booth machine) is disclosed. This is related to printing when the shooting conditions of the photo booth are met, and if the frame of interest is extracted from an image shot with a normal video camera etc., the moving subject is too small or off the center of the screen. It was.
[0004]
Japanese Patent Application Laid-Open No. 2005-228561 discloses a technique that allows a subject of interest to be always displayed at a predetermined position on a screen during reproduction from moving image data recorded including a camera shake state with a video camera or the like. In this method, a part of a subject is specified, the amount of movement is detected by pattern matching, and blur correction is performed, and data lost by blur correction is brought from other frames.
[0005]
However, when shooting a child's figure at a kindergarten athletic meet, the user divides the target subject (my child) into a predetermined position on the screen, especially the center, and enlarges the target subject (my child). I have a strong desire to see prints of photographs.
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-115866
[Patent Document 2]
Japanese Patent Application Laid-Open No. 11-187303
[Problems to be solved by the invention]
In consideration of the above circumstances, the present invention extracts a spatial portion (a part of a frame) centered on a subject of interest from a temporally noticeable frame section of continuously captured moving image data to make the subject of interest larger and easy to see. An object of the present invention is to provide an image processing apparatus for obtaining a processed image.
[0009]
[Means for Solving the Problems]
A first aspect of the present invention is an image processing apparatus that processes moving image data composed of a plurality of continuous images, and reads out the moving image data and takes out a frame constituting a moving image in a specified time range from the moving image data. Specifying a feature color of the subject from the configuration frame of the extracted video data, extracting a color approximate to the feature color from the configuration frame, and identifying the subject by superimposing the extracted portions; The portion in which the subject is specified by the specifying means in the extracted moving image data constituting frame is overlapped with all the extracted constituent frames, and the range in which the subject exists is the range in which the subject has moved. detecting means for detecting the extent to which the subject has moved by moving data of the range of images that the subject has moved And clipping means for cutting out the area portion data, the image processing apparatus comprising a consist.
[0010]
According to the first aspect of the present invention, the take-out means reads out the moving image data, extracts a frame constituting a moving image in a specified time range from the moving image data, that is, a moving image constituent frame from one time point to another certain time point, The specifying unit specifies a subject existing in the frame from the extracted moving image constituting frame. The detecting means detects a range in which the subject has moved in a plurality of frames constituting the moving image data. Clipping means cuts out the moving area portion of the data of the images, including the extent to which the subject is moved between a plurality of frames. The cut-out image is an image including a space portion centered on the subject, and is an image that is easier to see than a large subject. The “moving image” means “continuous still image”.
[0011]
According to a second aspect of the present invention , there is provided the image processing apparatus according to the first aspect , further comprising a synthesizing unit that synthesizes each frame of the extracted moving image data.
[0012]
According to the second aspect of the present invention, for example, a multiple exposure image or an index image can be obtained by synthesizing each frame of the clipped moving image data with a still image.
[0013]
According to a third aspect of the present invention , in the image processing apparatus according to the first aspect , the specifying unit specifies a subject color by specifying a feature color of the subject and extracting a color approximate to the feature color from the constituent frame. It consists of.
[0014]
According to the third aspect of the present invention , the specifying means specifies the feature color of the subject in the frame, extracts the same kind of color as the feature color from the constituent frame, specifies the subject, and this extraction step is performed for each frame. To do.
[0015]
According to a fourth aspect of the present invention , the specifying unit specifies a feature color of the subject, extracts a color approximate to the feature color from the constituent frame, and then specifies the subject by superimposing the extracted portions. An image processing apparatus on the first side .
[0016]
According to the fourth aspect of the present invention , the specifying means designates the feature color of the subject in the frame, extracts a color of the same type as the feature color from the constituent frame, and then superimposes the extracted portions to identify the subject. The identification process is performed for each frame.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0018]
FIG. 1 is a block diagram showing a configuration of an image processing apparatus 2 according to the present embodiment.
[0019]
When a recording medium is set in the recording medium slot 24, the recording medium controller 22 operates to read data stored in the recording medium. When instruction information is input from the operation unit 4 such as a keyboard or a mouse, the instruction information is sent to the CPU 12 via the interface 8, a control signal is sent from the CPU 12 to the recording medium controller 22, and the recording medium is sent via the recording medium controller 22. Necessary image data is extracted from the image data and stored in the RAM 20. The ROM 18 stores a control program. In the image processing unit 14, control-instructed image processing is performed on the image data stored in the RAM 20 by a control signal of the CPU 12 based on the instruction information from the operation unit 4, and the result is displayed via the display controller 10. Are displayed on the display 6. The user inputs necessary instruction information from the operation unit 4 while viewing the display 6.
[0020]
FIG. 2 is a diagram showing a schematic process until a still image obtained by enlarging a subject of interest from moving image data of a moving image file is synthesized.
[0021]
A moving image file composed of a plurality of continuous still images is read, and moving image frames in the moving image file are disassembled to extract frames within a specified time range. Then, it goes through three steps.
[0022]
The first step is subject feature color extraction processing 30 that performs subject feature color extraction processing. The subject feature color extraction process 30 designates a subject by pointing several points in the subject and creates a feature color list at each point.
[0023]
The second step is an area extraction process 32 for performing an image area extraction process. In this step, a color approximate to the characteristic color created in the first step is extracted, the subject is specified by superimposing the extracted portions, and the subject area of all frames is overlaid to obtain the moving area of the image. Detect the movement range of the subject.
[0024]
The third step is a region cutout process 34. In this step, the region is cut out based on the movement range of the subject detected in the second step, and a still image is synthesized.
[0025]
Details of each step will be described.
[0026]
Details of the first step will be described. FIG. 3 is a diagram showing a feature color designation method in the first step, and FIG. 4 is a flowchart showing a flow of the feature color extraction step in the first step.
[0027]
In FIG. 3, first, the feature color of the subject that the user wants to specify is specified in a specific still image frame n in the moving image frame. If the subject that the user wants to specify is a girl, the user points to a part of the subject, for example, point A that is hair, point B that is an arm, and point C that is a torso with the mouse that is the operation unit 4. By pointing, the x and y coordinates of points A, B and C are determined. Then, the R, G, and B values at the A point are taken as the feature color ref (1), the R, G, and B values at the B point are taken as the feature color ref (2), and the R, G, and B values at the C point. The value is taken in and set as the characteristic color ref (3).
[0028]
Referring to FIG. 4, a specific still image frame n is displayed on the display 6 (step 40), and it is determined whether the characteristic color extraction process has been repeated a required number of times (step 42). Points to a portion of the subject (step 44). The characteristic colors at points A, B, and C are extracted by taking in the R, G, and B values (step 46). Thereafter, the process returns to the determination of whether the feature color extraction process has been repeated a required number of times (step 42).
[0029]
The second step will be described. FIG. 5 is a conceptual diagram showing the image area extraction processing step, and FIG. 6 is a flowchart of the image area extraction processing step.
[0030]
In FIG. 5, for the feature color ref (1), the feature color ref (2) of the point B, and the feature color ref (3) of the point C extracted in the first step, the colors approximated to each of them are shown. Extract.
[0031]
For the feature color ref (1) at point A, a portion within the color difference ΔC from the feature color ref (1) at point A is extracted. Since the still image frame n is composed of a bit plane, the difference between ref (i) and the pixel i is taken to check whether the portion is within the color difference ΔC, whether it is 0 or 1. When the value is 0, it is not applicable, and it is regarded as a portion where the colors do not match. When the value is 1, it corresponds and is regarded as a color-matched part. As a result, the characteristic color ref (1) at point A and the approximate color portion are extracted.
[0032]
For the feature color ref (2) at point B and the feature color ref (3) at point C, similar color portions are similarly extracted.
[0033]
The extracted characteristic color portions are superimposed on one still image frame n. The subject area of the still image frame n is defined. The process is performed for all the frames in the specified time range, and the defined subject area is overlapped for all the frames in the specified range. Then, a moving area of the subject image over a plurality of designated frames is obtained. The upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) of the movement area are specified so that the movement area becomes a rectangle, and the movement area is finally The range of motion of the subject is detected.
[0034]
Referring to FIG. 6, first, the first still image frame to be processed is selected (step 50), it is determined whether or not the frame has been repeated until the end of the frame (step 52), and when the final frame is completed, the process proceeds to step 64. Otherwise, it is determined in step 54 whether or not the image area extraction for the feature color ref (i) is repeated, and if the extraction is completed, the process proceeds to step 60. If not completed, a color matching area within ref (i) and the color difference ΔC is extracted in the step 56 by the above method. Thereafter, the next characteristic color is set (step 58), and the process returns to step 54.
[0035]
In step 60, in the above-described example, the color matching areas for the characteristic colors of the points A, B, and C are overlapped, and the subject area of the frame n is extracted. When this is completed, the next frame is targeted (step 62), and the process returns to step 52.
[0036]
In step 64, the subject areas of all designated frames are overlapped to obtain a moving area of the subject image. Then, the process proceeds to step 66, and the upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) is specified and the moving area is finally defined and the process ends.
[0037]
The third step will be described. FIG. 7 is a flowchart showing the region cutout process. In this step, the image area of the movement range of the subject detected in the second step is cut out and a still image is synthesized.
[0038]
First, a target frame in which a moving area is defined is specified (step 70). The corresponding frame is read, and the defined moving area portion is cut out (step 72). The clipped image is output (step 74). It is determined whether the target frame is completed (step 76). If not completed, the target frame in which another moving area is defined is specified (step 78), and the process returns to step 72. If yes in step 76, the process ends.
[0039]
After the image is cut out, for example, it is conceivable to combine the cut out still image as a divided photograph. As shown in FIG. 8, in the synthesized image, the subject in each frame of the still image constituting the moving image is an enlarged image than the normal divided photograph, so that the subject to be noticed can be seen larger and easier to see. Can do. Further, still images can be further synthesized from the divided photographs shown in FIG.
[0040]
Further, by superimposing the cut out still image images, it is possible to print a multi-exposure composite photograph or to combine it with an index-like image.
[0041]
As described above, according to this embodiment, it is possible to obtain an image centered on a subject to be noticed when, for example, a continuously photographed separated photograph image is printed.
[0042]
In addition, since the movement of the subject of interest is known during the attention frame period of the moving image, it is easy to cut out the frame area to be printed with the decomposed photograph.
[0043]
Further, even when the decomposed photo extraction region cannot be automatically cut out automatically by rect_min_x, rect_min_y, rect_max_x, rect_max_y, etc. that define the coordinates of the upper left corner and the lower right corner of the rectangle, the reference image R [x, y ], G [x, y], and B [x, y], it is possible to easily specify an area to be manually cut out.
[0044]
【The invention's effect】
According to the present invention, it is possible to obtain an image that is easier to see than a large subject, and therefore, it is possible to obtain an image centered on a subject that is desired to be noticed when, for example, a continuously photographed separated photograph image is printed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus.
FIG. 2 is a diagram showing a schematic process until a still image in which a subject of interest is enlarged is synthesized from moving image data of a moving image file.
FIG. 3 is a view showing a feature color designation method in the first step.
FIG. 4 is a flowchart showing a flow of a feature color extraction process in the first process.
FIG. 5 is a conceptual diagram showing an image area extraction process.
FIG. 6 is a flowchart of an image area extraction processing step.
FIG. 7 is a flowchart showing an area cutout process.
FIG. 8 is a diagram of a divided photograph in which an enlarged subject image is obtained from moving image data.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 2 ... Image processing apparatus, 4 ... Operation part, 6 ... Display, 12 ... CPU, 14 ... Image processing part, 18 ... ROM, 20 ... RAM, 22 ... Recording medium controller, 24 ... Recording medium slot, 30 ... Subject characteristic color Extraction processing, 32... Image area extraction processing, 34.

Claims (2)

連続する複数の画像からなる動画データを処理する画像処理装置であって、動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、
取り出した動画データの構成フレームから被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する特定手段と、
前記取り出した動画データの構成フレーム中で前記特定手段によって被写体を特定した部分を前記取り出した構成フレーム分すべてを重ね合わせて、被写体が存在する範囲が前記被写体が移動した範囲であるとすることによって前記被写体が移動した範囲を検出する検出手段と、
前記被写体が移動した範囲画像の動画データのエリア部分を切り出す切り出し手段と、からなる画像処理装置。
An image processing apparatus for processing moving image data composed of a plurality of continuous images, reading out moving image data, and taking out a frame constituting a moving image in a specified time range from the moving image data;
A specifying means for specifying a subject color by designating a feature color of the subject from the configuration frame of the extracted moving image data, extracting a color approximate to the feature color from the configuration frame, and then superimposing the extracted portions;
By superimposing all of the extracted configuration frames on the portion of the extracted moving image data that has been identified by the specifying means, the range in which the subject exists is the range in which the subject has moved. Detecting means for detecting a range in which the subject has moved;
An image processing apparatus comprising: clipping means for cutting out an area portion of moving image data of an image in a range in which the subject has moved.
前記切り出した動画データの各エリア部分を静止画合成する合成手段をさらに有する請求項1の画像処理装置。  The image processing apparatus according to claim 1, further comprising a synthesis unit that synthesizes each area portion of the clipped moving image data.
JP2002345257A 2002-11-28 2002-11-28 Image processing device Expired - Fee Related JP4467231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002345257A JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002345257A JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Publications (2)

Publication Number Publication Date
JP2004178368A JP2004178368A (en) 2004-06-24
JP4467231B2 true JP4467231B2 (en) 2010-05-26

Family

ID=32706476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002345257A Expired - Fee Related JP4467231B2 (en) 2002-11-28 2002-11-28 Image processing device

Country Status (1)

Country Link
JP (1) JP4467231B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101080404B1 (en) 2004-12-06 2011-11-04 삼성전자주식회사 Method for converting moving image into still image and triming the still image
US8031226B2 (en) 2005-03-01 2011-10-04 Fujifilm Corporation Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program
JP5573520B2 (en) * 2010-09-09 2014-08-20 カシオ計算機株式会社 Image generation apparatus, imaging apparatus, and image generation program
JP2012099876A (en) * 2010-10-29 2012-05-24 Sanyo Electric Co Ltd Image processing device, imaging device, image processing method, and program
JP4874425B1 (en) 2010-12-28 2012-02-15 オリンパスイメージング株式会社 Reproducing apparatus and imaging apparatus
JP2012191544A (en) * 2011-03-14 2012-10-04 Olympus Imaging Corp Reproduction apparatus, imaging apparatus, and moving image reproduction program

Also Published As

Publication number Publication date
JP2004178368A (en) 2004-06-24

Similar Documents

Publication Publication Date Title
JP4889538B2 (en) Image processing device
KR101380731B1 (en) Image processing method and apparatus
US7599568B2 (en) Image processing method, apparatus, and program
JP3918141B2 (en) Image processing apparatus and image processing method
US20160065861A1 (en) Modification of post-viewing parameters for digital images using image region or feature information
EP1646235A2 (en) Moving picture recording apparatus and moving picture reproducing apparatus
JP5389724B2 (en) Image processing apparatus, image processing method, and program
JP2005102175A (en) Digital camera
JP2005303991A (en) Imaging device, imaging method, and imaging program
JP2007324965A (en) Digital camera, photography control method, and image output system
JP2005176230A (en) Image processor and print system
JP5129031B2 (en) Surveillance camera device
JP2008198082A (en) Image processing method, image processing apparatus, and digital camera
JP2007027971A (en) Photographing apparatus, control method thereof, program, and recording medium
JP2005266984A (en) Image processing system
US7212674B1 (en) Method, apparatus and recording medium for face extraction
US20050237588A1 (en) Printing order receiving method and apparatus and frame extraction method and apparatus
JP4467231B2 (en) Image processing device
JP2006350936A (en) Image forming device and image forming program
JP2008059534A (en) Image trimming device, image trimming method, and program therefor
JP2006094053A (en) Photo movie creating method and apparatus thereof, and photo movie creating program
US20160295036A1 (en) Image processing device, image processing method, program, and recording medium
JP2006350462A (en) Album image preparation device and album image preparation program
JP4632417B2 (en) Imaging apparatus and control method thereof
JP4934992B2 (en) Image processing apparatus, electronic camera, and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050315

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080225

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100114

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100223

R150 Certificate of patent or registration of utility model

Ref document number: 4467231

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees