JP2004178368A - Image processor - Google Patents
Image processor Download PDFInfo
- Publication number
- JP2004178368A JP2004178368A JP2002345257A JP2002345257A JP2004178368A JP 2004178368 A JP2004178368 A JP 2004178368A JP 2002345257 A JP2002345257 A JP 2002345257A JP 2002345257 A JP2002345257 A JP 2002345257A JP 2004178368 A JP2004178368 A JP 2004178368A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- subject
- image
- color
- photographic subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Processing Of Color Television Signals (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、動画(「連続静止画」を含む)データを処理する画像処理装置に関し、特に、注目被写体を中心とする画像を得るようにする画像処理装置に関する。
【0002】
【従来の技術】
近年、ビデオカメラではもちろん、デジタルカメラでも動画を撮影、記録できるようになっているが、撮影された動画をプリントする場合、記録された動画から一定時間間隔で静止画を取り出してプリントすることが多い。特に、1シートに複数の画像コマが表示されている分割写真の状態でプリントすることがよく行われるが、この場合、注目したい被写体が各画像コマのなかで小さく写っていることが多く、見る者にとって見づらかった。
【0003】
下記特許文献1は、撮影開始スイッチで動画撮影し、記録された動画から一定時間間隔で動画分割写真を抜き出し、プリントするもので、特に、動画の先頭から動画分割写真を一定の時間間隔で抽出する店頭プリント機(いわゆるプリクラ機)を開示している。これは、プリクラ機という撮影条件が整った場合でのプリントに関するもので、通常のビデオカメラなどで撮影した画像では注目フレームを抜き出すと、動いている被写体が小さかったり画面の中央から外れたりしていた。
【0004】
下記特許文献2は、ビデオカメラなどで手ぶれ状態を含んで記録された動画データから、再生時に注目被写体を画面の所定位置に常に表示できるようにする技術を開示している。これは、被写体の一部を指定し、その動き量をパターンマッチングで検出してブレ補正を行い、ブレ補正で欠落するデータは他のフレームからもってくるようにしたものである。
【0005】
しかし、幼稚園の運動会におけるわが子のかけっこの姿を撮影した場合などでは、ユーザが、注目被写体(わが子)を画面の所定位置、特に中央部分にもってくると共に注目被写体(わが子)を大きくした状態で分割写真のプリント画像などを見たいという思いが強い。
【0006】
【特許文献1】
特開平10−115866号公報
【0007】
【特許文献2】
特開平11−187303号公報
【0008】
【発明が解決しようとする課題】
本発明は、上記の事情を考慮し、連続撮影された動画データの時間的な注目フレーム区間から注目被写体を中心とした空間部分(フレームの一部)を抜き出し、注目被写体をより大きくして見やすくした画像を得るための画像処理装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
請求項1の本発明は、連続する複数の画像からなる動画データを処理する画像処理装置であって、
動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、
取り出した動画データの構成フレームから被写体を特定する特定手段と、
動画データを構成するフレーム中で前記被写体が移動した範囲を検出する検出手段と、
前記被写体が移動した範囲及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す切り出し手段と、からなる画像処理装置、からなる。
【0010】
請求項1の本発明によれば、取り出し手段が、動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレーム、すなわち、ある時点から別のある時点までの動画構成フレームを取り出し、特定手段が、取り出した動画構成フレームから当該フレーム中に存在する被写体を特定する。検出手段は、動画データを構成する複数のフレーム中で前記被写体が移動した範囲を検出する。切り出し手段は、前記被写体が複数フレーム間で移動した範囲を含めた及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す。切り出した画像は被写体を中心とした空間部分を含む画像になっており、被写体が大きく写ったより見やすい画像になっている。なお、上記「動画」とは、「連続静止画」を含む意味である。
【0011】
請求項2の本発明は、前記切り出した動画データの各フレームを静止画合成する合成手段をさらに有する請求項1の画像処理装置、からなる。
【0012】
請求項2の本発明によれば、合成手段が、前記切り出した動画データの各フレームを静止画合成することによって、例えば、多重露光画像やインデックス画像を得ることができる。
【0013】
請求項3の本発明は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出することによって被写体を特定する請求項1の画像処理装置、からなる。
【0014】
請求項3の本発明によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出して被写体を特定し、この抽出工程を各フレームに対して行う。
【0015】
請求項4の本発明は、前記特定手段は、被写体の特徴色を指定し、当該特徴色に近似している色を当該構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定する請求項1の画像処理装置、からなる。
【0016】
請求項4の本発明によれば、特定手段がフレーム内の被写体の特徴色を指定し、その特徴色と同種の色をその構成フレームから抽出した後、抽出した部分を重ね合わせることによって被写体を特定し、この特定工程を各フレームに対して行う。
【0017】
【発明の実施の形態】
以下、添付図面に従って本発明の実施の形態を詳説する。
【0018】
図1は本実施の形態に係る画像処理装置2の構成を示すブロック図である。
【0019】
記録媒体スロット24に記録媒体をセットすると、記録媒体コントローラ22が作動して記録媒体に格納されたデータが読み込まれる。キーボード、マウス等の操作部4から指示情報を入力すると、指示情報はインターフェース8を介してCPU12に送られ、CPU12から制御信号が記録媒体コントローラ22に送られ、記録媒体コントローラ22を介して記録媒体から必要な画像データが取り出されて、RAM20に格納される。ROM18には、制御プログラムが格納されている。画像処理部14では、操作部4からの指示情報に基づくCPU12の制御信号により、RAM20に格納された画像データに対して、制御指示された画像処理が行われ、その結果がディスプレイコントローラ10を介してディスプレイ6に表示される。ユーザは、ディスプレイ6を見てさらに必要な指示情報を操作部4から入力する。
【0020】
図2は、動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図である。
【0021】
連続した複数の静止画からなる動画ファイルを読み込み、動画ファイル中の動画フレームを分解して指定時間範囲のフレームを取り出す。その後、3つの工程を経る。
【0022】
第1工程は、被写体の特徴色を抽出処理する被写体特徴色抽出処理30である。この被写体特徴色抽出処理30は、被写体の中の部分を数箇所ポイントすることによって被写体を指定し、各ポイントでの特徴色リストを作成する。
【0023】
第2工程は、画像エリア抽出処理をするエリア抽出処理32である。この工程では、第1工程で作成した特徴色と近似している色を抽出し、抽出した部分を重ね合わせることによって被写体を特定し、全フレームの被写体エリアを重ね合わせて画像の移動エリアを得、被写体の動き範囲を検出する。
【0024】
第3工程は、領域切り出し処理34である。この工程では、第2工程で検出した被写体の動き範囲を基にその領域を切り出し、静止画を合成する。
【0025】
各工程の詳細を説明する。
【0026】
第1工程の詳細を説明する。図3は、第1工程での特徴色の指定法を示した図、図4は、第1工程での特徴色抽出工程の流れを示したフローチャートである。
【0027】
図3において、まず、動画フレーム中の特定の静止画フレームnにおいてユーザが特定したい被写体の特徴色を指定する。ユーザが特定したい被写体を女の子とすると、ユーザは、被写体の一部、例えば、髪であるA点、腕であるB点、胴体であるC点をそれぞれ操作部4であるマウスでポイントする。ポイントすることによって、A点、B点、C点のx、y座標が決定する。そして、A点のR、G、B値を取り込んで特徴色ref(1)とし、B点のR、G、B値を取り込んで特徴色ref(2)とし、C点のR、G、B値を取り込んで特徴色ref(3)とする。
【0028】
図4で説明すると、特定の静止画フレームnがディスプレイ6に表示され(ステップ40)、特徴色抽出工程が必要回繰り返されたか判断され(ステップ42)、イエスの場合は終了し、ノーの場合は被写体の一部をポイントする(ステップ44)。A点、B点、C点の特徴色が各R、G、B値の取り込みにより抽出される(ステップ46)。その後、特徴色抽出工程が必要回繰り返されたかの判断に戻る(ステップ42)。
【0029】
第2工程を説明する。図5は、画像エリア抽出処理工程を示す概念図であり、図6は、画像エリア抽出処理工程のフローチャートである。
【0030】
図5において、第1工程で抽出されたA点の特徴色ref(1)、B点の特徴色ref(2)、C点の特徴色ref(3)について、それぞれに近似している色を抽出する。
【0031】
A点の特徴色ref(1)については、A点の特徴色ref(1)と色差ΔC以内の部分を抽出する。静止画フレームnはビットプレーンで構成されているので、ref(i)とピクセルiの差分をとって色差ΔC以内の部分かどうかを0か1かで該当するか否か調べる。値0となった場合は該当しないことになり、色一致しなかった部分とみなされる。値1となった場合は該当することになり、色一致した部分とみなされる。その結果、A点の特徴色ref(1)と近似の色の部分が抽出される。
【0032】
B点の特徴色ref(2)、C点の特徴色ref(3)についても、同様に近似の色の部分が抽出される。
【0033】
それらの抽出した特徴色部分を1つの静止画フレームnにおいて重ね合わせる。その静止画フレームnの被写体エリアが画定される。その工程を指定時間範囲のフレームすべてについて行い、画定された被写体エリアを指定範囲の全フレーム分重ね合わせる。すると、指定された複数フレームにわたっての被写体画像の移動エリアが得られる。移動エリアが長方形になるように、その移動エリアの左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、被写体の動き範囲が検出される。
【0034】
図6で説明すると、まず対象となる最初の静止画フレームが選定され(ステップ50)、フレーム終了までくり返されたかどうか判断され(ステップ52)、最終フレームが完了したらステップ64に移行し、そうでなければステップ54で特徴色ref(i)についての画像エリア抽出をくり返すかどうかが判断され、抽出が完了した場合はステップ60に移行する。完了していない場合は、ステップ56でref(i)と色差ΔC以内の色一致エリアを上述の方法で抽出する。その後、次の特徴色とし(ステップ58)、ステップ54に戻る。
【0035】
ステップ60では、上述の例では、A点、B点、C点の各特徴色についての色一致エリアを重ね合わせ、そのフレームnの被写体エリアを抽出する。これが終了すると次のフレームを対象とし(ステップ62)、ステップ52に戻る。
【0036】
ステップ64では、指定された全フレームの被写体エリアを重ね合わせ、被写体画像の移動エリアを得る。そして、ステップ66に移行し、移動エリアが長方形になるように、その移動エリアの外接座標である左上x座標、左上y座標(min_x,min_y)、右下x座標、右下y座標(max_x,max_y)が特定されて移動エリアが最終的に画定され、終了する。
【0037】
第3工程を説明する。図7は、領域切り出し工程を示すフローチャートである。この工程では、第2工程で検出した被写体の動き範囲の画像領域を切り出し、静止画を合成する。
【0038】
まず、移動エリアが画定された対象フレームを特定する(ステップ70)。該当フレームを読み、画定された移動エリア部分が切り出される(ステップ72)。切り出した画像を出力する(ステップ74)。対象フレームが終了したかどうか判断する(ステップ76)。終了していない場合は、他の移動エリアが画定された対象フレームを特定し(ステップ78)、ステップ72に戻る。ステップ76でイエスの場合は、工程を終了する。
【0039】
画像を切り出した後は、例えば、切り出した静止画画像を分割写真として合成することが考えられる。図8に示すように、合成した画像では、動画を構成する静止画の1コマ1コマにおける被写体が通常の分割写真よりも拡大した画像になっているので、注目したい被写体をより大きく見やすくすることができる。また、図8に示す分割写真からさらに静止画合成することもできる。
【0040】
また、切り出した静止画画像を重ね合わせることで多重露光的な合成写真をプリントすることもできるし、インデックス的な画像に合成することもできる。
【0041】
上述のように、本形態によれば、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【0042】
また、動画像の注目フレーム期間について注目被写体の動きが分かるため、分解写真でプリントするフレーム領域の切り出しが容易になる。
【0043】
さらに、長方形の左上隅と右下隅の座標を定義するrect_min_x,rect_min_y、rect_max_x,rect_max_yなどの演算で、自動的に分解写真抽出領域が効果的に切り出せなかった場合でも、参照画像R[x,y],G[x,y],B[x,y]を見ることで、手動で切り出すべき領域が容易に指定できる。
【0044】
【発明の効果】
本発明によれば、被写体が大きく写ったより見やすい画像を得ることができるので、連続撮影された分解写真画像をプリントしたときなどに注目したい被写体を中心とした画像を得ることができる。
【図面の簡単な説明】
【図1】画像処理装置の構成を示すブロック図。
【図2】動画ファイルの動画データから注目被写体を拡大した静止画を合成するまでの概略工程を示した図。
【図3】第1工程での特徴色の指定法を示した図。
【図4】第1工程での特徴色抽出工程の流れを示したフローチャート。
【図5】画像エリア抽出処理工程を示す概念図。
【図6】画像エリア抽出処理工程のフローチャート。
【図7】領域切り出し工程を示すフローチャート。
【図8】動画データから拡大した被写体画像が得られた分割写真の図。
【符号の説明】
2…画像処理装置、4…操作部、6…ディスプレイ、12…CPU、14…画像処理部、18…ROM、20…RAM、22…記録媒体コントローラ、24…記録媒体スロット、30…被写体特徴色抽出処理、32…画像エリア抽出処理、34…領域切り出し処理[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus that processes moving image (including “continuous still images”) data, and more particularly to an image processing apparatus that obtains an image centered on a subject of interest.
[0002]
[Prior art]
In recent years, video cameras and digital cameras can be used to shoot and record videos. However, when printing recorded videos, still images can be taken from the recorded videos at regular time intervals and printed. Many. In particular, printing is often performed in the state of a divided photograph in which a plurality of image frames are displayed on one sheet. In this case, the subject to be noticed is often small in each image frame. It was difficult for the person to see.
[0003]
The following
[0004]
Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique that allows a subject of interest to be always displayed at a predetermined position on a screen during reproduction from moving image data recorded including a camera shake state with a video camera or the like. In this method, a part of a subject is specified, the amount of movement is detected by pattern matching, and blur correction is performed, and data lost by blur correction is brought from other frames.
[0005]
However, when shooting a child's figure in a kindergarten athletic meet, etc., the user divides the subject of interest (my child) into a predetermined position on the screen, especially the center, and enlarges the subject of interest (my child). I have a strong desire to see prints of photographs.
[0006]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-115866
[Patent Document 2]
Japanese Patent Application Laid-Open No. 11-187303
[Problems to be solved by the invention]
In consideration of the above circumstances, the present invention extracts a spatial portion (a part of a frame) centered on a subject of interest from a temporally noticeable frame section of continuously captured moving image data to make the subject of interest larger and easy to see. An object of the present invention is to provide an image processing apparatus for obtaining a processed image.
[0009]
[Means for Solving the Problems]
The present invention of
Means for reading out the video data and taking out the frames constituting the video in the specified time range from the video data;
A specifying means for specifying the subject from the frame of the extracted video data;
Detecting means for detecting a range in which the subject has moved in a frame constituting the moving image data;
An image processing apparatus including: a range in which the subject has moved; and a cutout unit that cuts out each frame of the moving image data of the image including the periphery of the movement range.
[0010]
According to the present invention of
[0011]
According to a second aspect of the present invention, there is provided the image processing apparatus according to the first aspect, further comprising a synthesizing unit that synthesizes each frame of the extracted moving image data.
[0012]
According to the second aspect of the present invention, for example, a multi-exposure image or an index image can be obtained by the synthesizing unit synthesizing each frame of the clipped moving image data.
[0013]
According to a third aspect of the present invention, in the image processing apparatus according to the first aspect, the specifying unit specifies a subject color by specifying a feature color of the subject and extracting a color approximate to the feature color from the constituent frame. It consists of.
[0014]
According to the third aspect of the present invention, the specifying means specifies the feature color of the subject in the frame, extracts the same kind of color as the feature color from the constituent frame, specifies the subject, and this extraction step is performed for each frame. To do.
[0015]
According to a fourth aspect of the present invention, the specifying unit specifies a subject color by extracting a color approximate to the feature color from the component frame and then superimposing the extracted portions. The image processing apparatus according to
[0016]
According to the present invention of
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0018]
FIG. 1 is a block diagram showing a configuration of an
[0019]
When a recording medium is set in the
[0020]
FIG. 2 is a diagram showing a schematic process until a still image obtained by enlarging a subject of interest from moving image data of a moving image file is synthesized.
[0021]
A moving image file composed of a plurality of continuous still images is read, and moving image frames in the moving image file are disassembled to extract frames within a specified time range. Then, it goes through three steps.
[0022]
The first step is subject feature
[0023]
The second step is an
[0024]
The third step is a
[0025]
Details of each step will be described.
[0026]
Details of the first step will be described. FIG. 3 is a diagram showing a feature color designation method in the first step, and FIG. 4 is a flowchart showing a flow of the feature color extraction step in the first step.
[0027]
In FIG. 3, first, the feature color of the subject that the user wants to specify is specified in a specific still image frame n in the moving image frame. If the subject that the user wants to specify is a girl, the user points to a part of the subject, for example, point A that is hair, point B that is an arm, and point C that is a torso with the mouse that is the
[0028]
Referring to FIG. 4, a specific still image frame n is displayed on the display 6 (step 40), and it is determined whether the characteristic color extraction process has been repeated a required number of times (step 42). Points to a portion of the subject (step 44). The characteristic colors at points A, B, and C are extracted by taking in the R, G, and B values (step 46). Thereafter, the process returns to the determination of whether the feature color extraction process has been repeated a required number of times (step 42).
[0029]
The second step will be described. FIG. 5 is a conceptual diagram showing the image area extraction processing step, and FIG. 6 is a flowchart of the image area extraction processing step.
[0030]
In FIG. 5, for the feature color ref (1), the feature color ref (2) of the point B, and the feature color ref (3) of the point C extracted in the first step, the colors approximated to each of them are shown. Extract.
[0031]
For the feature color ref (1) at point A, a portion within the color difference ΔC from the feature color ref (1) at point A is extracted. Since the still image frame n is composed of a bit plane, the difference between ref (i) and the pixel i is taken to check whether the portion is within the color difference ΔC, whether it is 0 or 1. When the value is 0, it is not applicable, and it is regarded as a portion where the colors do not match. When the value is 1, it corresponds and is regarded as a color-matched part. As a result, the characteristic color ref (1) at point A and the approximate color portion are extracted.
[0032]
For the feature color ref (2) at point B and the feature color ref (3) at point C, similar color portions are similarly extracted.
[0033]
The extracted characteristic color portions are superimposed on one still image frame n. The subject area of the still image frame n is defined. The process is performed for all the frames in the specified time range, and the defined subject area is overlapped for all the frames in the specified range. Then, a moving area of the subject image over a plurality of designated frames is obtained. The upper left x coordinate, upper left y coordinate (min_x, min_y), lower right x coordinate, lower right y coordinate (max_x, max_y) of the movement area are specified so that the movement area becomes a rectangle, and the movement area is finally The range of motion of the subject is detected.
[0034]
Referring to FIG. 6, first, the first still image frame to be processed is selected (step 50), it is determined whether or not the frame has been repeated until the end of the frame (step 52), and when the final frame is completed, the process proceeds to step 64. Otherwise, it is determined in
[0035]
In
[0036]
In
[0037]
The third step will be described. FIG. 7 is a flowchart showing the region cutout process. In this step, the image area of the movement range of the subject detected in the second step is cut out and a still image is synthesized.
[0038]
First, a target frame in which a moving area is defined is specified (step 70). The corresponding frame is read, and the defined moving area portion is cut out (step 72). The clipped image is output (step 74). It is determined whether the target frame is completed (step 76). If not completed, the target frame in which another moving area is defined is specified (step 78), and the process returns to step 72. If yes in
[0039]
After the image is cut out, for example, it is conceivable to combine the cut out still image as a divided photograph. As shown in FIG. 8, in the synthesized image, the subject in each frame of the still image constituting the moving image is an enlarged image than the normal divided photograph, so that the subject to be noticed can be seen larger and easier to see. Can do. Further, still images can be further synthesized from the divided photographs shown in FIG.
[0040]
Further, by superimposing the cut out still image images, it is possible to print a multi-exposure composite photograph or to combine it with an index-like image.
[0041]
As described above, according to this embodiment, it is possible to obtain an image centered on a subject to be noticed when, for example, a continuously photographed separated photograph image is printed.
[0042]
In addition, since the movement of the subject of interest is known during the attention frame period of the moving image, it is easy to cut out the frame area to be printed with the decomposed photograph.
[0043]
Furthermore, even when the extracted photograph extraction region cannot be automatically cut out automatically by operations such as rect_min_x, rect_min_y, rect_max_x, rect_max_y that define the coordinates of the upper left corner and the lower right corner of the rectangle, the reference image R [x, y ], G [x, y], and B [x, y], it is possible to easily specify an area to be manually cut out.
[0044]
【The invention's effect】
According to the present invention, it is possible to obtain an image that is easier to see than a large subject, and therefore, it is possible to obtain an image centered on a subject that is desired to be noticed when, for example, a continuously photographed separated photograph image is printed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus.
FIG. 2 is a diagram showing a schematic process until a still image in which a subject of interest is enlarged is synthesized from moving image data of a moving image file.
FIG. 3 is a view showing a feature color designation method in the first step.
FIG. 4 is a flowchart showing a flow of a feature color extraction process in the first process.
FIG. 5 is a conceptual diagram showing an image area extraction process.
FIG. 6 is a flowchart of an image area extraction processing step.
FIG. 7 is a flowchart showing an area cutout process.
FIG. 8 is a diagram of a divided photograph in which an enlarged subject image is obtained from moving image data.
[Explanation of symbols]
DESCRIPTION OF
Claims (4)
動画データを読み込み、当該動画データから指定時間範囲の動画を構成するフレームを取り出す取り出し手段と、
取り出した動画データの構成フレームから被写体を特定する特定手段と、
動画データを構成するフレーム中で前記被写体が移動した範囲を検出する検出手段と、
前記被写体が移動した範囲及び当該移動範囲の周辺を含めた画像の動画データの各フレームを切り出す切り出し手段と、からなる画像処理装置。An image processing apparatus that processes moving image data including a plurality of continuous images,
Means for reading out the video data and taking out the frames constituting the video in the specified time range from the video data;
A specifying means for specifying the subject from the frame of the extracted video data;
Detecting means for detecting a range in which the subject has moved in a frame constituting the moving image data;
An image processing apparatus comprising: a range in which the subject has moved, and a cutout unit that cuts out each frame of the moving image data of the image including the periphery of the movement range.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002345257A JP4467231B2 (en) | 2002-11-28 | 2002-11-28 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002345257A JP4467231B2 (en) | 2002-11-28 | 2002-11-28 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004178368A true JP2004178368A (en) | 2004-06-24 |
JP4467231B2 JP4467231B2 (en) | 2010-05-26 |
Family
ID=32706476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002345257A Expired - Fee Related JP4467231B2 (en) | 2002-11-28 | 2002-11-28 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4467231B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8031226B2 (en) | 2005-03-01 | 2011-10-04 | Fujifilm Corporation | Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program |
KR101080404B1 (en) | 2004-12-06 | 2011-11-04 | 삼성전자주식회사 | Method for converting moving image into still image and triming the still image |
JP2012060468A (en) * | 2010-09-09 | 2012-03-22 | Casio Comput Co Ltd | Imaging apparatus, image generating apparatus, image generating program and image generating method |
JP2012099876A (en) * | 2010-10-29 | 2012-05-24 | Sanyo Electric Co Ltd | Image processing device, imaging device, image processing method, and program |
JP2012191544A (en) * | 2011-03-14 | 2012-10-04 | Olympus Imaging Corp | Reproduction apparatus, imaging apparatus, and moving image reproduction program |
US8737807B2 (en) | 2010-12-28 | 2014-05-27 | Olympus Imaging Corp. | Reproduction apparatus and image-capturing apparatus |
-
2002
- 2002-11-28 JP JP2002345257A patent/JP4467231B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101080404B1 (en) | 2004-12-06 | 2011-11-04 | 삼성전자주식회사 | Method for converting moving image into still image and triming the still image |
US8031226B2 (en) | 2005-03-01 | 2011-10-04 | Fujifilm Corporation | Image output apparatus, image output method, image output program, image trimming apparatus, image trimming method, and image trimming program |
JP2012060468A (en) * | 2010-09-09 | 2012-03-22 | Casio Comput Co Ltd | Imaging apparatus, image generating apparatus, image generating program and image generating method |
JP2012099876A (en) * | 2010-10-29 | 2012-05-24 | Sanyo Electric Co Ltd | Image processing device, imaging device, image processing method, and program |
US8737807B2 (en) | 2010-12-28 | 2014-05-27 | Olympus Imaging Corp. | Reproduction apparatus and image-capturing apparatus |
JP2012191544A (en) * | 2011-03-14 | 2012-10-04 | Olympus Imaging Corp | Reproduction apparatus, imaging apparatus, and moving image reproduction program |
Also Published As
Publication number | Publication date |
---|---|
JP4467231B2 (en) | 2010-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9692964B2 (en) | Modification of post-viewing parameters for digital images using image region or feature information | |
JP4889538B2 (en) | Image processing device | |
KR101380731B1 (en) | Image processing method and apparatus | |
US7599568B2 (en) | Image processing method, apparatus, and program | |
US8274572B2 (en) | Electronic camera capturing a group of a plurality of specific objects | |
JP2009193421A (en) | Image processing device, camera device, image processing method, and program | |
JP2002158893A (en) | Device and method for correcting picture and recording medium | |
JP2009282979A (en) | Image processor and image processing method | |
JP2004062565A (en) | Image processor and image processing method, and program storage medium | |
JP2005102175A (en) | Digital camera | |
JP2001057630A (en) | Image processing unit and image processing method | |
JP2007324965A (en) | Digital camera, photography control method, and image output system | |
JP2009017223A (en) | Imaging device, image processing device, and their image processing method and program | |
JP2008198082A (en) | Image processing method, image processing apparatus, and digital camera | |
JP2007027971A (en) | Photographing apparatus, control method thereof, program, and recording medium | |
JP2007336411A (en) | Imaging apparatus, auto-bracketing photographing method, and program | |
US7212674B1 (en) | Method, apparatus and recording medium for face extraction | |
JP4467231B2 (en) | Image processing device | |
US20160295036A1 (en) | Image processing device, image processing method, program, and recording medium | |
JP4632417B2 (en) | Imaging apparatus and control method thereof | |
JP2006350462A (en) | Album image preparation device and album image preparation program | |
JP2006279661A (en) | Digital camera | |
JP2006287365A (en) | Digital camera | |
JP2008187256A (en) | Motion image creating device, method and program | |
JP2009089083A (en) | Age estimation photographing device and age estimation photographing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050315 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071204 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080424 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080521 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100114 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100223 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4467231 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130305 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140305 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |