JP2008020944A - Image processing method, program, and device - Google Patents
Image processing method, program, and device Download PDFInfo
- Publication number
- JP2008020944A JP2008020944A JP2006189484A JP2006189484A JP2008020944A JP 2008020944 A JP2008020944 A JP 2008020944A JP 2006189484 A JP2006189484 A JP 2006189484A JP 2006189484 A JP2006189484 A JP 2006189484A JP 2008020944 A JP2008020944 A JP 2008020944A
- Authority
- JP
- Japan
- Prior art keywords
- area
- extracted
- face
- region
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は静止画に基づいてスライドショーを生成する技術に関する。 The present invention relates to a technique for generating a slide show based on still images.
一定時間で切り替わるような従来のスライドショーにとどまらず、フォトクリップのような表示上の効果(エフェクト)が施されたスライドショーを自動的に生成するソフトウェアが知られている。エフェクトは画像の一部をズームしたり切り抜いたりテンプレート画像を上に重ねて表示したりする。 There is known software that automatically generates a slide show with a display effect (effect) such as a photo clip, as well as a conventional slide show that switches in a certain time. The effect zooms and crops a part of the image and displays the template image on top of it.
例えば、特許文献1や2のように、画像から顔領域を抽出して、その情報を使ってスライドショーを作成する技術がある。
For example, as in
一方、風景写真や動物写真のように、顔領域が存在しない画像の場合、犬や車などの被写体を抽出したい場合がある。しかし、それらは顔抽出における目のように、形が一様であり、特定しやすい対象でないため、抽出精度が低くなる傾向にある。その抽出手段としては、色が大きく変わっている領域や、高周波数成分の多い領域を抽出する方法が考えられる。 On the other hand, in the case of an image having no face area such as a landscape photograph or an animal photograph, it may be desired to extract a subject such as a dog or a car. However, they have a uniform shape, like eyes in face extraction, and are not easy to specify, so the extraction accuracy tends to be low. As the extraction means, a method of extracting a region where the color has changed greatly or a region having many high frequency components can be considered.
これは簡単にいうと、色の変化量あるいは周波数成分の高さに、ある閾値を設定して、それを超えた場合には、対象領域として抽出するというものである。
上述の物体抽出の閾値を低く設定すればするほど、物体を抽出する可能性は高くなるが、その分、余計な物体や物体として誤った領域までも抽出してしまう可能性が高い。そして、余計な物体や誤った領域にエフェクトを施すと、ユーザはエフェクトの本来の効果を実感できないどころか、逆に誤った対象へのエフェクトを無価値に感じてしまい、スライドショーの満足度が低下するおそれがある。 The lower the object extraction threshold is set, the higher the possibility that an object will be extracted, but there is a higher possibility that an extra area or an erroneous area will be extracted as much. And if you apply effects to extraneous objects or the wrong area, the user will not be able to realize the original effect of the effect, but will feel the effect on the wrong object worthless, and the satisfaction of the slide show will decrease There is a fear.
本発明はこのような問題点に鑑みてなされたもので、その目的は、人物であるか否かにかかわらず、画像からエフェクトを施すべき領域を正しく抽出し、かつ余計な物体を極力抽出しないようにし、スライドショーに対するユーザの満足度を高めることにある。 The present invention has been made in view of such problems, and its purpose is to correctly extract a region to be effected from an image regardless of whether or not it is a person and not to extract extraneous objects as much as possible. In this way, the user's satisfaction with the slide show is increased.
本発明は、静止画に基づいてスライドショーデータを生成する画像処理方法であって、静止画から人物の顔の存在する領域である顔領域を抽出するステップと、物体抽出精度を設定するステップと、設定された物体抽出精度に従い、静止画から顔以外の物体の存在する領域である物体領域を抽出するステップと、抽出された顔領域および物体領域のうち少なくとも一方に基づいて、主要被写体が抽出されたか否かを判断するステップと、主要被写体が抽出されたと判断されなかったことに応じ、現在設定されている物体抽出精度を所定の値だけ減らした値を新たな物体抽出精度に設定するステップと、を含む。 The present invention is an image processing method for generating slide show data based on a still image, the step of extracting a face region that is a region where a human face exists from a still image, a step of setting object extraction accuracy, In accordance with the set object extraction accuracy, a main object is extracted based on at least one of the extracted face area and object area, and a step of extracting an object area that is an area where an object other than a face exists from a still image. Determining whether or not the main subject has been extracted, and setting a value obtained by reducing the currently set object extraction accuracy by a predetermined value as a new object extraction accuracy. ,including.
この方法では、人物の顔あるいは物体である主要被写体が静止画像から抽出されなかった場合、物体抽出精度を所定の値減らし、これを新たな物体抽出精度とする。低く設定された新たな物体抽出精度では、物体を抽出する確率が増加するから、物体が抽出される可能性がより高くなる。また、主要被写体が静止画像から抽出されなかった場合に初めて抽出精度を落とすから、抽出精度が低くなりすぎて必要のない物体が抽出されたり、誤った領域が物体領域として抽出される可能性を極力に抑えることができる。このため、必要のない物体や誤った領域にエフェクトが付与されたスライドショーが実行されてユーザに不満足感を与えるおそれが少ない。 In this method, when a main subject that is a human face or object is not extracted from a still image, the object extraction accuracy is reduced by a predetermined value, and this is set as a new object extraction accuracy. With a new object extraction accuracy set to be low, the probability of extracting an object increases, so the possibility that an object will be extracted becomes higher. In addition, since the extraction accuracy is lowered only when the main subject is not extracted from the still image, there is a possibility that the extraction accuracy becomes too low and unnecessary objects are extracted, or erroneous regions are extracted as object regions. It can be suppressed as much as possible. For this reason, there is little possibility that a slide show in which an effect is applied to an unnecessary object or an incorrect area is executed and the user is not satisfied.
上記の画像処理方法をコンピュータに実行させるためのプログラムも本発明に含まれる。 A program for causing a computer to execute the above image processing method is also included in the present invention.
また、上記の画像処理方法に含まれるステップおよび抽出された顔領域および物体領域のうち少なくとも一方に所定のエフェクトが実施された静止画を順次表示するスライドショーデータを生成するステップを実行するコンピュータと、コンピュータが生成したスライドショーデータに基づき、エフェクトが実施された静止画を順次表示装置に表示する表示制御部と、を備えた画像処理装置も本発明に含まれる。 Further, a computer that executes the steps included in the image processing method and the step of generating slide show data that sequentially displays still images on which at least one of the extracted face area and object area is subjected to a predetermined effect; An image processing apparatus including a display control unit that sequentially displays still images on which effects have been implemented on a display device based on slide show data generated by a computer is also included in the present invention.
本発明では、人物の顔あるいは物体である主要被写体が静止画像から抽出されなかった場合、物体抽出精度を所定の値減らし、これを新たな物体抽出精度とする。低く設定された新たな物体抽出精度では、物体を抽出する確率が増加するから、物体が抽出される可能性がより高くなる。また、主要被写体が静止画像から抽出されなかった場合に初めて抽出精度を落とすから、抽出精度が低くなりすぎて必要のない物体が抽出されたり、誤った領域が物体領域として抽出される可能性を極力に抑えることができる。このため、必要のない物体や誤った領域にエフェクトが付与されたスライドショーが実行されてユーザに不満足感を与えるおそれが少ない。 In the present invention, when the main subject which is a human face or object is not extracted from the still image, the object extraction accuracy is reduced by a predetermined value, and this is set as a new object extraction accuracy. With a new object extraction accuracy set to be low, the probability of extracting an object increases, so the possibility that an object will be extracted becomes higher. In addition, since the extraction accuracy is lowered only when the main subject is not extracted from the still image, there is a possibility that the extraction accuracy becomes too low and unnecessary objects are extracted, or erroneous regions are extracted as object regions. It can be suppressed as much as possible. For this reason, there is little possibility that a slide show in which an effect is applied to an unnecessary object or an incorrect area is executed and the user is not satisfied.
図1は本発明の好ましい実施形態に係るスライドショー作成装置のブロック構成図である。スライドショー作成装置は、CPU8、スライドショー生成部1、顔領域抽出部2、物体領域抽出部9、記憶部4、メモリ5、表示制御部3、表示装置6および入力装置7を備える。この装置は、典型的には、ハードディスクレコーダ、パソコン、デジタルカメラなどで実現される。
FIG. 1 is a block diagram of a slide show creation apparatus according to a preferred embodiment of the present invention. The slide show creation device includes a
入力装置7は、静止画像や音楽データを外部から入力するための装置であり、DVDやフラッシュメモリといった可搬性記録媒体のデータ読み取り装置、ネットワークアダプタ、シリアルポートなどで構成される。 The input device 7 is a device for inputting still images and music data from the outside, and includes a data reading device for a portable recording medium such as a DVD or a flash memory, a network adapter, a serial port, and the like.
記憶部4は、入力装置7から入力された静止画像や音楽を蓄積するハードディスク(HDD)などの記憶媒体である。記憶部4は、テンプレートおよびテンプレート管理情報を蓄積したデータベース、プログラム、後述する顔領域DBや物体領域DBなども記憶する。
The
メモリ5は、CPU8のプログラムやプログラムの処理に必要なデータを一時的に格納する。
The memory 5 temporarily stores a program for the
表示制御部3は、CPU8の指令に従い、ディスプレイなどで構成された表示装置6へ出力する映像信号を生成し、表示装置6に出力する。表示装置はスライドショー作成装置に内蔵されていてもよいし外付けの装置であってもよい。
The
スライドショー生成部1は、記憶部4に蓄積された静止画像のうちユーザの選択した所望の1または複数の静止画像(例えばExif形式や、JPEG形式の画像ファイル。以下、元画像と呼ぶ)と記憶部4に記憶されたテンプレートの中から選択された所望のテンプレートの規定する動作条件に基づき、所定の効果が付与された複数の元画像の全部または一部を順次切り替えて再生する形式の動画データあるいは音声も含んだ動画データ(スライドショー)を生成する。
The slide
スライドショーに用いる元画像は、入力された静止画像全てでなくてもよく、例えば後述する物体領域も顔領域も抽出されないような画像は、切り捨ててもよい。あるいは、主要被写体、物体領域、顔領域が重複すると推定される画像群や、類似度が高い画像群は、その中から1つだけをスライドショーの元画像として用い、残りは切り捨ててもよい。 The original image used for the slide show does not have to be all of the input still images. For example, an image in which neither an object area nor a face area described later can be extracted may be discarded. Alternatively, an image group in which the main subject, the object area, and the face area are estimated to overlap or an image group with high similarity may be used as the original image of the slide show, and the rest may be discarded.
具体的なテンプレートの動作条件の一例を挙げると、画像中の物体領域や顔領域(まとめて特定領域で表す)を所定の速度で水平・垂直移動(パン・チルト)するよう表示させたり、特定領域を拡縮(ズームイン/ズームアウト)したり、特定領域以外を隠す(マスキング、図2(a)参照)ようにしたり、特定領域を強調するような画像を合成したり(合成枠、図2(b)参照)、特定領域を回転させるなどして元画像の動きを作る「エフェクト」の種類がある。スライドショーの再生に同期して再生される「バックグラウンドミュージック(BGM)」の曲名を動作条件に含めてもよい。 An example of specific template operating conditions is to display or specify the object area or face area (collectively expressed as a specific area) in the image to move horizontally and vertically (pan / tilt) at a predetermined speed. Enlarge or reduce the area (zoom in / zoom out), hide other areas (masking, see FIG. 2A), or compose an image that emphasizes the specific area (composite frame, FIG. 2 ( b)), there is a type of “effect” that creates a movement of the original image by rotating a specific area. A song name of “background music (BGM)” that is played back in synchronization with the playback of the slide show may be included in the operating conditions.
生成された後の動画データは、MP3ファイルのようにテンプレートとは独立した形式でもよいし、アニメーションGIFのように静止画とテンプレートの両方が揃って動画が再生される形式に変換されてもよい。 The generated moving image data may be in a format independent of the template, such as an MP3 file, or may be converted into a format in which both a still image and a template are reproduced, such as an animation GIF. .
詳細は省略するが、テンプレートは、元画像の再生に付随する文書、キャラクタ、アイコンなどの各種オブジェクトの配置座標、サイズ、色などの表示状態も規定することができる。 Although details are omitted, the template can also define display states such as arrangement coordinates, sizes, colors, and the like of various objects such as documents, characters, and icons accompanying the reproduction of the original image.
顔領域抽出部2は、各元画像における顔領域、すなわち人物の顔の部分の存在領域を抽出する。顔領域抽出部2は、顔領域を抽出したか否かを示す信号をスライドショー生成部1に出力する。どのようにして顔領域を抽出するかは任意であるが、例えば、顔の輪郭パターンに類似の形状の領域を顔領域として抽出する、あるいは目、鼻、口の存在部分とそれを包含する肌色領域から顔全体の輪郭を推定し、それに相当する領域を顔領域として抽出することなどが挙げられる。
The face
物体領域抽出部9は、犬や猫などの動物、自動車などの乗り物、その他顔領域以外の物体の存在領域を物体領域として抽出する。どのようにして物体を抽出するかは任意であるが、例えば、周辺画素領域と比較した色の変化が所定の閾値を超えているような画素領域や周波数成分が所定の閾値を超えている画素領域を物体領域として抽出する。 The object area extraction unit 9 extracts an existence area of an object other than an animal such as a dog or a cat, a vehicle such as an automobile, or other face area as an object area. How an object is extracted is arbitrary, but for example, a pixel region in which the color change compared to the surrounding pixel region exceeds a predetermined threshold or a pixel whose frequency component exceeds a predetermined threshold An area is extracted as an object area.
顔領域抽出部2が抽出対象とする顔領域は、目、鼻、口などの特定部位の存在を基準とすれば、比較的高い抽出精度が確保できる。一方、物体領域抽出部9が抽出対象とする物体領域は、物体の性質が一様でないし(例えば物体が犬である場合は、犬種によって身体的特徴の差異が大きく、人物の目、鼻、口などの特定部位を基準とするのが困難)、物体の抽出基準となる閾値撮影が画一的であるため撮影条件によっては有効でなく、顔領域の抽出と比較すると抽出精度が低いことが一般的に言える。そうすると、物体をなるべく多く抽出するためには、その抽出精度を低く設定する必要がある。
If the face area to be extracted by the face
しかし、既に顔が抽出された場合、一般的にはそれらが元画像中の主要被写体と解されるから、精度が低い物体抽出の結果、物体として誤って抽出された領域に余計なエフェクトが実施されてしまい、ユーザの不満足感につながるし、精度の低い物体を抽出する処理自体が無駄になる可能性が高い。本実施形態はかかる問題点に対処するため、主要被写体の抽出の結果に応じて物体抽出の精度を物体領域抽出に必要かつ最小限度緩和する。 However, if faces have already been extracted, they are generally interpreted as the main subject in the original image, and as a result of object extraction with low accuracy, an extra effect is performed on the area that was mistakenly extracted as an object. This leads to user dissatisfaction, and there is a high possibility that processing itself for extracting an object with low accuracy is wasted. In order to cope with such a problem, the present embodiment relaxes the accuracy of object extraction necessary and minimum for object region extraction according to the result of extraction of the main subject.
図3および図4は記憶部4に含まれる顔領域DBおよび物体領域DBの記憶する情報の一例を示す。
3 and 4 show an example of information stored in the face area DB and the object area DB included in the
図3に示すように、顔領域DBは、各画像の識別番号(ID)と、各画像のサイズと、顔領域抽出部2が各画像から抽出した1または複数の顔領域と、各顔領域の中心座標と、各顔領域のサイズとを対応づけて記憶する。
As shown in FIG. 3, the face area DB includes an identification number (ID) of each image, the size of each image, one or a plurality of face areas extracted from each image by the face
一方、図4に示すように、物体領域DBは、各画像の識別番号(ID)と、各画像のサイズと、物体領域抽出部9が各画像から抽出した1または複数の顔領域と、各物体領域の中心座標と、各物体領域のサイズとを対応づけて記憶する。 On the other hand, as shown in FIG. 4, the object region DB includes an identification number (ID) of each image, the size of each image, one or a plurality of face regions extracted from each image by the object region extraction unit 9, The center coordinates of the object area and the size of each object area are stored in association with each other.
図3または図4に示す情報は、必ずしも全てを同時に記憶する必要はなく、必要な情報の一部のみを記憶してもよい。 The information shown in FIG. 3 or FIG. 4 does not necessarily have to be stored all at the same time, and only a part of the necessary information may be stored.
図5はスライドショー作成処理の流れを示すフローチャートである。この処理はCPU8が実行する。
FIG. 5 is a flowchart showing the flow of the slide show creation process. This process is executed by the
S1では、後述する顔領域DBおよび物体領域DBの作成処理を行う。 In S1, a process for creating a face area DB and an object area DB, which will be described later, is performed.
S2では、メモリ5に記憶された元画像の全てについて下記のS3(エフェクト生成処理)が実行されたか否かを判断する。S3が実行されていない元画像があれば、その元画像についてS3の処理を行う。全ての元画像についてS3が実行されたと判断すれば、この判断を終了する。 In S2, it is determined whether or not the following S3 (effect generation process) has been executed for all of the original images stored in the memory 5. If there is an original image for which S3 has not been executed, the process of S3 is performed on the original image. If it is determined that S3 has been executed for all the original images, this determination is terminated.
S3では、各画像の各顔領域・各物体領域を対象とした所定のエフェクトが実施されるデータを生成する。 In S3, data for generating a predetermined effect for each face area and each object area of each image is generated.
S4では、エフェクトが設定された各元画像のスライドショーにおける表示順序を、元画像の入力順、タイムスタンプ順、元画像のファイル名のアイウエオあるいはアルファベット順に従って、あるいはランダムに決定する。 In S4, the display order in the slide show of each original image to which the effect is set is determined in accordance with the input order of the original image, the time stamp order, the eye name or alphabetical order of the file name of the original image, or randomly.
S5では、各々の静止画像の顔領域・物体領域にエフェクトの設定された静止画像を、S4で決定された表示順序に従って表示していくスライドショーのデータの作成をスライドショー生成部1に指令する。
In S5, the slide
図6は、顔領域DBおよび物体領域DBの作成処理の流れを示す。この処理はCPU8が実行する。
FIG. 6 shows a flow of processing for creating the face area DB and the object area DB. This process is executed by the
S11では、入力装置7から入力された1または複数の静止画像を元画像としてメモリ5に記憶する。 In S <b> 11, one or more still images input from the input device 7 are stored in the memory 5 as original images.
S12では、メモリ5に記憶された元画像の全てについて下記のS13〜S18が実行されたか否かを判断する。S13〜S18が実行されていない元画像があれば、その元画像についてS13〜S18の処理を行う。全ての元画像についてS13〜S18が実行されたと判断すれば、この処理を終了する。 In S12, it is determined whether or not the following S13 to S18 have been executed for all of the original images stored in the memory 5. If there is an original image for which S13 to S18 have not been executed, the processes of S13 to S18 are performed on the original image. If it is determined that S13 to S18 have been executed for all the original images, this process is terminated.
S13では、顔領域抽出部2に対し、各元画像のそれぞれから顔領域を抽出するよう指令する。顔領域抽出部2は、CPU8からの指令に応じて元画像から顔領域を抽出する。抽出された顔領域は、必要に応じ、その顔領域に固有の番号、その顔領域の抽出元となった元画像のID、元画像における顔領域の座標、およびその顔領域のサイズと対応づけられた上で顔領域DBに記憶される(図3参照)。
In S13, the face
S14では、物体領域抽出の閾値を所定の初期値(例えば図7の最高レベル「5」)に設定する。 In S14, the object region extraction threshold is set to a predetermined initial value (for example, the highest level “5” in FIG. 7).
S15では、物体領域抽出部9に対し、各元画像のそれぞれから物体領域を抽出するよう指令する。物体領域抽出部9は、CPU8からの指令に応じて元画像から物体領域を抽出する。抽出された物体領域は、必要に応じ、その物体領域に固有の番号、その領域の抽出元となった元画像のID、元画像における物体領域の座標、およびその物体領域のサイズと対応づけられた上で物体領域DBに記憶される(図4参照)。
In S15, the object area extraction unit 9 is instructed to extract an object area from each original image. The object area extraction unit 9 extracts an object area from the original image in response to a command from the
S16では、抽出された顔領域および物体領域すなわち特定領域のうち少なくともいずれか1つが元画像における主要被写体であるか否かを判断する。いずれかの特定領域が主要被写体である場合はS12に戻り、いずれの特定領域も主要被写体でない場合はS17に移行する。 In S16, it is determined whether or not at least one of the extracted face region and object region, that is, the specific region is a main subject in the original image. If any specific area is the main subject, the process returns to S12, and if any specific area is not the main subject, the process proceeds to S17.
いずれの特定領域が主要被写体であるかの判断は、例えば元画像の中心位置に特定領域が存在するか否かを判断し、中心位置に特定領域が存在すれば、その特定領域が主要被写体であると判断する。あるいは、Exifファイルのタグ情報に記憶されている焦点位置に特定領域が存在するか否かを判断し、焦点位置に特定領域が存在すれば、その特定領域が主要被写体であると判断する。あるいは、必ずしも主要被写体が元画像の中心にあるかとは限らないため、抽出された特定領域の面積の合計が、元画像の面積のうちの所定の割合(例えば50%)以上を占める場合、それらの特定領域のすべてが主要被写体であると判断する。 The determination of which specific area is the main subject is made by, for example, determining whether or not the specific area exists at the center position of the original image. If the specific area exists at the center position, the specific area is the main subject. Judge that there is. Alternatively, it is determined whether or not the specific area exists at the focal position stored in the tag information of the Exif file. If the specific area exists at the focal position, it is determined that the specific area is the main subject. Alternatively, since the main subject is not necessarily at the center of the original image, if the total area of the extracted specific regions occupies a predetermined ratio (for example, 50%) or more of the area of the original image, these It is determined that all the specific areas are the main subjects.
S17では、現在の物体領域抽出の閾値が最低値(例えば図7の最低レベル「1」)であるか否かを判断する。最低値であればS12に戻り、最低値でない場合はS18に移行する。 In S17, it is determined whether or not the current object region extraction threshold is the lowest value (for example, the lowest level “1” in FIG. 7). If it is the minimum value, the process returns to S12, and if it is not the minimum value, the process proceeds to S18.
S18では、現在の物体領域抽出の閾値(色変化の閾値、周波数の閾値その他のもの)から1段階下げた値(例えば図7の「5」から1レベル下げた「4」)を新たな閾値とする。そして、S15に戻る。 In S18, a value (for example, “4”, which is one level lower than “5” in FIG. 7) that is lowered by one step from the current object region extraction threshold (color change threshold, frequency threshold, etc.) is set as a new threshold. And Then, the process returns to S15.
以上の処理による作用と効果は次のようになる。 The operations and effects of the above processing are as follows.
図8は元画像の一例を示しており、図8(a)は人物が主要被写体となっている元画像、図8(b)は人物とそれ以外の物体が主要被写体となっている元画像、図8(c)は人物以外の物体が主要被写体となっている元画像を例示する。 FIG. 8 shows an example of an original image. FIG. 8A is an original image in which a person is a main subject, and FIG. 8B is an original image in which a person and other objects are main subjects. FIG. 8C illustrates an original image in which an object other than a person is the main subject.
図8(a)のような元画像から、顔1〜顔3という顔領域が検出され、S16でこれらの顔領域のうち中心の「顔2」が主要被写体と判定されれば、物体抽出の閾値は5のままであり、その他の余計な物体領域が抽出されず、余計な物体領域でなく主要被写体である顔領域にエフェクトが付与され(S3)、スライドショーに対するユーザの満足度が低下するおそれが小さい。
If face areas of
また、図8(b)のような元画像から、顔1という顔領域が検出されたが、S16でその顔領域が中心になく主要被写体がないと判定されれば、物体抽出の閾値は5から1段階減らされた4かそれ未満の値になる。このため、顔以外の物体領域である物1〜物4が抽出される確率が増加し、本来撮影者が意図していた主要被写体である「顔1」と「物体4」の双方にエフェクトが付与され、スライドショーに対するユーザの満足度が増す。
If a face area called
また、図8(c)のような元画像からは、顔領域が全く検出されないから、物体抽出の閾値は5から1段階減らされた4かそれ未満の値になり、顔以外の物体領域が抽出される確率が増加し、物体1〜4という物体領域が抽出される確率が増加し、本来撮影者が意図していた主要被写体である「物体4」にエフェクトが付与され、スライドショーに対するユーザの満足度が増す。
Further, since no face area is detected from the original image as shown in FIG. 8C, the object extraction threshold is reduced by one step from 5 to 4 or less, and object areas other than the face are not detected. The probability of extraction increases, the probability that the object areas of
1:スライドショー生成部、2:顔領域抽出部、3:表示制御部、6:表示装置、9:物体領域抽出部 1: slide show generation unit, 2: face area extraction unit, 3: display control unit, 6: display device, 9: object region extraction unit
Claims (3)
前記静止画から人物の顔の存在する領域である顔領域を抽出するステップと、
物体抽出精度を設定するステップと、
設定された物体抽出精度に従い、前記静止画から前記顔以外の物体の存在する領域である物体領域を抽出するステップと、
抽出された顔領域および物体領域のうち少なくとも一方に基づいて、主要被写体が抽出されたか否かを判断するステップと、
前記主要被写体が抽出されたと判断されなかったことに応じ、現在設定されている物体抽出精度を所定の値だけ減らした値を新たな物体抽出精度に設定するステップと、
を含む画像処理方法。 An image processing method for generating slide show data based on still images,
Extracting a face region, which is a region where a human face exists, from the still image;
Setting object extraction accuracy;
Extracting an object region that is an area where an object other than the face exists from the still image according to the set object extraction accuracy;
Determining whether a main subject has been extracted based on at least one of the extracted face region and object region;
Setting a value obtained by reducing the currently set object extraction accuracy by a predetermined value as a new object extraction accuracy in response to the determination that the main subject has not been extracted;
An image processing method including:
前記コンピュータが生成したスライドショーデータに基づき、前記エフェクトが実施された静止画を順次表示装置に表示する表示制御部と、
を備えた画像処理装置。 The step included in the image processing method according to claim 1 and the step of generating slide show data for sequentially displaying still images on which at least one of the extracted face area and object area is subjected to a predetermined effect are executed. A computer,
A display control unit for sequentially displaying still images on which the effect has been performed on a display device based on slide show data generated by the computer;
An image processing apparatus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006189484A JP2008020944A (en) | 2006-07-10 | 2006-07-10 | Image processing method, program, and device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006189484A JP2008020944A (en) | 2006-07-10 | 2006-07-10 | Image processing method, program, and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008020944A true JP2008020944A (en) | 2008-01-31 |
Family
ID=39076850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006189484A Pending JP2008020944A (en) | 2006-07-10 | 2006-07-10 | Image processing method, program, and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008020944A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010262629A (en) * | 2009-04-08 | 2010-11-18 | Canon Inc | Image processing apparatus and image processing method |
WO2011036988A1 (en) * | 2009-09-28 | 2011-03-31 | 京セラ株式会社 | Mobile terminal, storage medium having list creating program recorded therein, and list creating method |
JP2013509786A (en) * | 2009-10-30 | 2013-03-14 | オラワークス・インコーポレイテッド | Method for trimming image content, terminal and computer-readable recording medium |
-
2006
- 2006-07-10 JP JP2006189484A patent/JP2008020944A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010262629A (en) * | 2009-04-08 | 2010-11-18 | Canon Inc | Image processing apparatus and image processing method |
WO2011036988A1 (en) * | 2009-09-28 | 2011-03-31 | 京セラ株式会社 | Mobile terminal, storage medium having list creating program recorded therein, and list creating method |
JP2011071789A (en) * | 2009-09-28 | 2011-04-07 | Kyocera Corp | Mobile terminal, list creation program, and list creation method |
JP2013509786A (en) * | 2009-10-30 | 2013-03-14 | オラワークス・インコーポレイテッド | Method for trimming image content, terminal and computer-readable recording medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4765732B2 (en) | Movie editing device | |
KR102131322B1 (en) | Computing device, method, computer program for processing video | |
JP2008078713A (en) | Recording apparatus and method, program, and reproducing apparatus and method | |
JP2006236218A (en) | Electronic album display system, electronic album display method, and electronic album display program | |
JP4490214B2 (en) | Electronic album display system, electronic album display method, and electronic album display program | |
KR20140012757A (en) | Facilitating image capture and image review by visually impaired users | |
JP2011103588A (en) | Electronic apparatus, and image display method | |
US20170237936A1 (en) | Information processing apparatus, method for controlling the information processing apparatus, and recording medium | |
JP2006079460A (en) | System, method and program for displaying electronic album and device, method, and program for classifying image | |
US20110304644A1 (en) | Electronic apparatus and image display method | |
US20070211961A1 (en) | Image processing apparatus, method, and program | |
JP2008084021A (en) | Animation scenario generation method, program and device | |
JP2008020944A (en) | Image processing method, program, and device | |
JP5336759B2 (en) | Image output apparatus and image output method | |
JP2005033276A (en) | System, program, and method for image reproducing | |
JP5225330B2 (en) | Electronic apparatus and image processing method | |
KR20140112891A (en) | Apparatus, method and computer readable recording medium for processing a selection of an area in the image for media editing | |
CN113840099B (en) | Video processing method, device, equipment and computer readable storage medium | |
JP2010157792A (en) | Photographed object tracing device | |
JP5479198B2 (en) | Electronic device and image processing program | |
JP4955255B2 (en) | Image processing system | |
JP6579925B2 (en) | Image reproducing apparatus, control method therefor, program, and recording medium | |
JP5558187B2 (en) | Electronic device and image processing program | |
JP2008020943A (en) | Image processing method, program and device | |
JP2009077237A (en) | Image display device and image display program |