JP2005202543A - Object extracting method - Google Patents

Object extracting method Download PDF

Info

Publication number
JP2005202543A
JP2005202543A JP2004006305A JP2004006305A JP2005202543A JP 2005202543 A JP2005202543 A JP 2005202543A JP 2004006305 A JP2004006305 A JP 2004006305A JP 2004006305 A JP2004006305 A JP 2004006305A JP 2005202543 A JP2005202543 A JP 2005202543A
Authority
JP
Japan
Prior art keywords
image
face
face detection
attention area
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004006305A
Other languages
Japanese (ja)
Inventor
Tomoyasu Yoshikawa
智康 吉川
Shuntaro Araya
俊太郎 荒谷
Teruki Yoshikawa
輝樹 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004006305A priority Critical patent/JP2005202543A/en
Publication of JP2005202543A publication Critical patent/JP2005202543A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object extracting method for extracting a part on which an object is imaged from image data photographed by a digital camera or a digital cam coder or the like. <P>SOLUTION: In this face detecting method for detecting the face of an object, a face detection region is reset by acquiring the photographic information of an image when face detection can not be performed in an initial face detection step, and the face detection step is executed again. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

デジタルカメラやデジタルカムコーダー等により撮影された画像データから被写体が写っている部分を抽出する被写体抽出方法に属する。   The present invention belongs to a subject extraction method for extracting a portion where a subject is captured from image data taken by a digital camera, a digital camcorder, or the like.

近年、デジタルスチールカメラやデジタルビデオカメラが爆発的に普及してきている。また携帯電話や情報携帯端末などにもカメラ機能が搭載されることは珍しくなくなってきている。   In recent years, digital still cameras and digital video cameras have exploded in popularity. In addition, it is not uncommon for mobile phones and information portable terminals to be equipped with camera functions.

これらのデジタル機器で撮影されたデジタル画像の撮影枚数は、旧来の銀塩カメラよりも増加する傾向にある。これは銀塩カメラで撮影した画像は、フィルムの現像および印画紙への焼き付けが必須であるが、デジタル画像はこれらの処理が基本的に不要である。またデジタル画像の蓄積保存も、PC等のストレージ機器の普及により簡易に低コストで行うことができるようになった。   The number of digital images taken with these digital devices tends to increase as compared to conventional silver halide cameras. For images taken with a silver salt camera, film development and printing on photographic paper are essential, but digital images basically do not require these processes. Also, digital images can be stored and stored easily and at low cost due to the spread of storage devices such as PCs.

一方で、フィルム撮影のカメラからの数が増えたためユーザが所望した画像をすばやく検索することがむずかしくなってきている。   On the other hand, since the number of film photographing cameras has increased, it has become difficult to quickly search for an image desired by the user.

特開2002−358522では、画像の顔領域を検出し、検出された顔領域を拡大してサムネイル一覧表示する手法が提案されている。この構成により注目領域として顔領域を検知し、その部分を拡大表示することによってデジタル画像の検索性を高めたシステムが可能となる。
特開2002−358522号公報 特開2003−163827号公報
Japanese Patent Application Laid-Open No. 2002-358522 proposes a method of detecting a face area of an image and enlarging the detected face area to display a thumbnail list. With this configuration, it is possible to detect a face area as an attention area and display the enlarged portion of the face area, thereby enabling a system that improves the searchability of digital images.
JP 2002-358522 A JP 2003-163827 A

顔領域の検出方法については、すでに色々な手法が提案されている。基本的な顔領域の検知方法としては、画像データ内の肌色領域を検索し、肌色領域中に顔パターンが存在しているか否かにより判断する構成が一般的である。   Various methods have already been proposed for detecting the face area. As a basic face area detection method, a configuration is generally used in which a skin color area in image data is searched and a determination is made based on whether or not a face pattern exists in the skin color area.

一方で、撮影素子の高画素化やデータ処理の高速化を背景に、デジタルカメラ等によるデジタル画像のデータ量は飛躍的に増加している。データ量の多い画像データに対し、高精度で顔検知処理を実行すれば、長い処理時間が必要となる。また高速に顔検知するためには、検知精度を下げなければならない。   On the other hand, the amount of digital image data by a digital camera or the like is dramatically increasing against the background of increasing the number of pixels of an image sensor and increasing the speed of data processing. If face detection processing is executed with high accuracy on image data with a large amount of data, a long processing time is required. In order to detect a face at high speed, the detection accuracy must be lowered.

そこで特開2003−163827では、画像撮影時の撮影モードにより顔検知処理の精度を切り替える構成が提案されている。撮影モードがポートレートモードのとき、画像内にある顔領域が大きいと推定して、処理を省いて高速化している。その他のモードでは処理を精細に実行している。この処理により、処理時間と精度の両立を図っている。   In view of this, Japanese Patent Laid-Open No. 2003-163827 proposes a configuration in which the accuracy of the face detection process is switched depending on the shooting mode at the time of image shooting. When the photographing mode is the portrait mode, it is estimated that the face area in the image is large, and the processing is omitted to increase the speed. In other modes, the processing is executed with high precision. By this processing, both processing time and accuracy are achieved.

しかし、特開2003−163827はデジタルカメラなどの画像撮影装置を前提とした提案である。したがって、このまま他目的の装置に適応するのは顔検知の処理方法や制御部の演算能力の違いから適当ではない。   However, Japanese Patent Laid-Open No. 2003-163827 is a proposal based on an image photographing apparatus such as a digital camera. Therefore, it is not appropriate to adapt to other purposes as it is because of the difference in the processing method of face detection and the calculation capability of the control unit.

上記のような課題を解決するために、本発明の請求項1で示した被写体抽出方法においては、画像を入力するステップと、該画像の注目領域検知ステップと、該画像の撮影情報を取得するステップと、前記注目領域検知結果に基づいて、該画像の注目領域を決定するステップとを有し、前記注目領域の検知に失敗した場合、前記撮影情報より前記注目領域検索範囲を決定し、前記注目領域検知ステップを再実行することを特徴としている。   In order to solve the above problems, in the subject extraction method according to claim 1 of the present invention, an image input step, an attention area detection step of the image, and photographing information of the image are acquired. And a step of determining an attention area of the image based on the attention area detection result, and when the attention area fails to be detected, the attention area search range is determined from the imaging information, It is characterized in that the attention area detection step is re-executed.

また請求項2で示した被写体抽出方法においては、前記注目領域検知ステップは、画像内の顔検知を実行することを特徴としている。   The subject extraction method described in claim 2 is characterized in that the attention area detection step performs face detection in an image.

また請求項3で示した被写体抽出方法においては、前記撮影情報は、少なくとも人物撮影モードとそれ以外の撮影モードとを区別することを特徴としている。   Further, in the subject extraction method described in claim 3, the shooting information distinguishes at least a person shooting mode and other shooting modes.

また請求項4で示した被写体抽出方法においては、前記注目領域検知ステップを再実行する条件は、前記撮影情報で人物撮影モードと判別したに限ることを特徴としている。   The subject extraction method described in claim 4 is characterized in that the condition for re-execution of the attention area detection step is limited to that the person photographing mode is determined based on the photographing information.

また請求項5で示した被写体抽出方法においては、前記注目領域検知ステップを再実行時の前記注目領域検索範囲は、前記撮影情報の焦点位置情報から決定するステップとを有することを特徴としている。   The subject extraction method described in claim 5 is characterized in that the attention area search range when the attention area detection step is re-executed includes a step of determining from the focal position information of the photographing information.

本発明の請求項1から5で示した被写体抽出方法により、ある画像に行った顔検知処理の結果、顔領域が無いと判断された場合、撮影時に保存された情報を用いて、再検知処理を実行するための範囲を抜き出し拡大する。これにより再検知処理時の顔検知の精度向上が期待できる。   When it is determined that there is no face area as a result of the face detection process performed on an image by the subject extraction method described in claims 1 to 5 of the present invention, the re-detection process is performed using information stored at the time of shooting. Extract and expand the range for executing. This can be expected to improve the accuracy of face detection during redetection processing.

また、実装対象の装置の演算能力に応じた顔検知精度の切り替えを行うこともできる。   In addition, the face detection accuracy can be switched according to the computing capability of the device to be mounted.

以下図面を参照しながら本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施例では、本発明の被写体抽出方法をデジタルテレビ等の画像表示装置に実装している。   In this embodiment, the subject extraction method of the present invention is mounted on an image display device such as a digital television.

図1は、本発明の実施例を適用した画像表示装置の構成を示したブロック図である。   FIG. 1 is a block diagram showing a configuration of an image display apparatus to which an embodiment of the present invention is applied.

ここで101は画像表示装置全体を示している。201は制御CPUであり、画像表示装置101の全体の制御を行っている。203は画像表示部で、液晶やプラズマディスプレイ等の薄型画面を実現できるデバイスにより構成されている。画像表示部203は、制御CPU201に指示された画像を表示する。   Here, reference numeral 101 denotes the entire image display apparatus. A control CPU 201 controls the entire image display apparatus 101. An image display unit 203 includes a device that can realize a thin screen such as a liquid crystal display or a plasma display. The image display unit 203 displays an image instructed to the control CPU 201.

また、本発明の特徴である複数画像データの重ね一覧表示を表示する装置でもある。   Further, the present invention is also a device that displays a superimposed list display of a plurality of image data that is a feature of the present invention.

205は画像蓄積部で、ハードディスクなどの不揮発性記憶装置からなっている。ユーザの操作により、デジタルカメラやデジタルビデオカメラなどで撮影され、画像表示装置に取り込まれた画像を大量に蓄積保存することができる。   An image storage unit 205 includes a nonvolatile storage device such as a hard disk. A large amount of images taken by a digital camera, a digital video camera, etc., and captured by an image display device can be accumulated and stored by a user operation.

207はメモリカードである。メモリカード207は着脱可能な構成である。またメモリカード207はデジタルカメラやデジタルビデオカメラ等の画像撮影機器とも接続が可能であり、メモリカード207を経由し、撮影された画像データを画像表示装置101内に取り込むことができる。   Reference numeral 207 denotes a memory card. The memory card 207 is detachable. The memory card 207 can also be connected to an image capturing device such as a digital camera or a digital video camera, and the captured image data can be taken into the image display device 101 via the memory card 207.

209は外部入力端子である。この端子を経由し、直接デジタルカメラやデジタルビデオカメラ等の画像撮影機器の画像データを画像表示装置101内に取り込むことができる。   Reference numeral 209 denotes an external input terminal. Via this terminal, image data of an image photographing device such as a digital camera or a digital video camera can be directly taken into the image display apparatus 101.

211は画像デコーダ部である。画像蓄積部205やメモリカード207、外部入力端子209から取り込まれた画像データはここで制御CPU201等の画像表示装置101内部で扱えるデータフォーマットに変換される。   Reference numeral 211 denotes an image decoder unit. Image data captured from the image storage unit 205, the memory card 207, and the external input terminal 209 is converted into a data format that can be handled in the image display apparatus 101 such as the control CPU 201.

213は顔検知処理部である。取り込まれた画像データ内に人物像があるか否かを判断し、人物像がある場合その領域を特定する処理を行う。処理の詳細については、後述する。   Reference numeral 213 denotes a face detection processing unit. It is determined whether or not there is a person image in the captured image data, and if there is a person image, processing for specifying the area is performed. Details of the processing will be described later.

215はキャッシュメモリである。画像デコーダ211でデコードされた画像データの一時保持や、画像表示部203に表示されている画像データの保持、顔検知処理部213の一時データ保持などに使用される。   Reference numeral 215 denotes a cache memory. It is used for temporarily holding the image data decoded by the image decoder 211, holding the image data displayed on the image display unit 203, holding the temporary data of the face detection processing unit 213, and the like.

本画像表示装置では、顔検知結果により、検知した場所を拡大する等の、表示効果を行うために、本発明が実装されている。   In the present image display apparatus, the present invention is implemented in order to perform a display effect such as enlarging a detected place based on a face detection result.

図2は、注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。   FIG. 2 is a flowchart showing a processing flow of face detection processing used as one method of attention area detection.

本処理は、重ね一覧表示の実行に先立ち、表示対象となる画像データより、顔検知処理部213で実行される。処理開始後、ステップ101へ進む。   This processing is executed by the face detection processing unit 213 from image data to be displayed prior to execution of the overlapping list display. After the processing starts, the process proceeds to step 101.

ステップ101では、画像データ内色データの中から肌色データが含まれる領域を探し出す処理を実行する。処理後、ステップ103へ進む。   In step 101, a process of searching for an area including skin color data from the color data in the image data is executed. After processing, go to step 103.

ステップ103では、顔の特徴を示すパターン目や口の形状の画像パターンと対象画像とのパターンマッチング処理を実行する。処理後、ステップ105へ進む。   In step 103, pattern matching processing is performed between the target image and an image pattern having a pattern or a mouth shape indicating facial features. After processing, go to step 105.

ステップ105では、ステップ101およびステップ103の処理結果にもとづき、対象画像内に顔領域が存在したか否かで処理を分岐している。すなわちもし顔領域が存在したら処理をステップ107へ進める。またもし顔領域が存在しなければ本処理は終了となる。   In step 105, the processing branches depending on whether or not a face area exists in the target image based on the processing results of steps 101 and 103. That is, if a face area exists, the process proceeds to step 107. If the face area does not exist, this process ends.

ステップ107では、ステップ101およびステップ103の処理結果より顔領域と判断したエリアの情報をキャッシュメモリ215へ書き出し、制御CPU201へ処理を戻すことで本処理は終了となる。   In step 107, the information of the area determined as the face area based on the processing results in steps 101 and 103 is written to the cache memory 215, and the process is returned to the control CPU 201, thereby ending this process.

図3−Aは、画像データの一例を示した図である。また図3−Bは、顔検知処理後の顔領域を判定結果による注目領域の範囲決定処理の一例を示した図である。   FIG. 3-A is a diagram illustrating an example of image data. FIG. 3B is a diagram illustrating an example of a region-of-interest determination process based on the determination result of the face area after the face detection process.

図3−Aに示したような、人物像が写った画像データを、顔検知処理部213により図2で説明した処理の流れで、顔検知処理を実行する。図3−Bで示したように、顔領域として判断したエリアは303と305の部分である。図のように顔領域は円図形データとして認識される。   Face detection processing is executed on the image data in which a human image is captured as shown in FIG. 3A by the face detection processing unit 213 in the processing flow described with reference to FIG. As shown in FIG. 3B, the areas determined as the face area are portions 303 and 305. As shown in the figure, the face area is recognized as circular graphic data.

顔検知処理は、被写体としての顔が画像データ全てに占める割合が大きい場合は検知率が良い。しかし、その割合が低い場合、顔を検知することができない傾向がある。この場合の処理について、図4−Aと図4−Bを用いて説明する。   The face detection process has a good detection rate when the ratio of the face as the subject to the entire image data is large. However, when the ratio is low, there is a tendency that the face cannot be detected. Processing in this case will be described with reference to FIGS. 4-A and 4-B.

図4−Aは、画像データの一例を示した図である。また図4−Bは、図4−Bは、撮影情報による顔検知の再検知範囲の一例を示した図である。   FIG. 4-A is a diagram illustrating an example of image data. FIG. 4-B is a diagram illustrating an example of a re-detection range of face detection based on shooting information.

デジタルカメラ等で撮影された画像データには、撮影時の情報を画像データ内に保持することができる(EXIF情報)。このEXIF情報には撮影時の位置情報が含まれている。そこで本発明では、顔検知処理が失敗した場合、EXIF情報の焦点位置情報を読み取る。図4−Aで403と405で示した範囲である。   Image data taken with a digital camera or the like can hold information at the time of shooting in the image data (EXIF information). This EXIF information includes position information at the time of shooting. Therefore, in the present invention, when the face detection process fails, the focal position information of the EXIF information is read. This is the range indicated by 403 and 405 in FIG.

この焦点位置情報を元に、顔検知の再検知範囲を決定する。図4−Bの407で示した領域が再検知範囲である。   Based on this focal position information, a re-detection range for face detection is determined. A region indicated by reference numeral 407 in FIG.

対象画像から顔領域が検知できなかった場合、このEXIF情報の焦点位置情報から再検知領域を切り出し、決定をした後、顔検知処理を再実行する。   When the face area cannot be detected from the target image, the re-detection area is cut out from the focal position information of the EXIF information and determined, and then the face detection process is re-executed.

図5は、画像ファイルのフォーマットの一例を示した図である。   FIG. 5 is a diagram showing an example of an image file format.

デジタルカメラ等で撮影された、デジタル画像はさまざまなフォーマットが提案されている。最近では画像データ501の他に、撮影時の付加情報を含めたフォーマットが広く普及している。   Various formats have been proposed for digital images taken with a digital camera or the like. Recently, in addition to the image data 501, a format including additional information at the time of photographing has become widespread.

本発明では、その付加情報である焦点位置情報503を利用している。焦点位置情報503には、画像データ501のどの部分に焦点が当っているという情報が書き込まれている。   In the present invention, the focus position information 503 which is the additional information is used. In the focal position information 503, information indicating which part of the image data 501 is focused is written.

図6は、顔検知処理の再実行有無の判断を行う処理のフローを示した図である。   FIG. 6 is a diagram illustrating a process flow for determining whether or not the face detection process is re-executed.

本処理は、制御CPU201で顔検知処理が必要と判断した時に、やはり制御CPU201にて実行する。実行時、まずステップ201へ進む。   This process is also executed by the control CPU 201 when the control CPU 201 determines that the face detection process is necessary. When executing, the process proceeds to step 201 first.

ステップ201では、図2で説明した顔検知処理を呼び出している。顔検知処理終了後、ステップ203へ進む。   In step 201, the face detection process described with reference to FIG. After the face detection process is completed, the process proceeds to step 203.

ステップ203では、前ステップの顔検知結果で、顔領域が検知できたか否かで、処理を分岐している。すなわちもし、顔領域が検知できていた場合は、処理を終了する。またもし検知できていなかった場合は、ステップ205へ進む。   In step 203, the process branches depending on whether or not a face area has been detected as a result of the face detection in the previous step. That is, if the face area can be detected, the process ends. If not detected, the process proceeds to step 205.

ステップ205では、対象画像のデータより、焦点位置情報503を読み込む処理を実行している。処理後、ステップ207へ進む。   In step 205, a process of reading the focal position information 503 from the target image data is executed. After processing, go to step 207.

ステップ207では、焦点位置情報503からその周囲を拡大切り出す設定を実行している。実行後、ステップ209へ進む。   In step 207, a setting for enlarging and cutting the periphery from the focal position information 503 is executed. After execution, the process proceeds to step 209.

ステップ209では、前ステップで決定された領域を再度スキャンし、顔検知処理が行われる。検知処理終了後、本処理は終了となる。   In step 209, the area determined in the previous step is scanned again, and face detection processing is performed. After the detection process ends, this process ends.

図7は、顔検知処理結果を、画像表示に応用した例を示した図である。   FIG. 7 is a diagram illustrating an example in which the face detection processing result is applied to image display.

ここで、領域601が顔検知された領域である。本画像表示装置では、このように大量の画像データを表示する場合、領域601が必ず画面上に露出する表示制御を行っている。これにより、ユーザの画像検索性が向上する。   Here, the area 601 is an area where the face is detected. In this image display apparatus, when a large amount of image data is displayed in this way, display control is performed so that the region 601 is always exposed on the screen. Thereby, a user's image search property improves.

本実施例も画像表示装置に本発明を適用した例である。基本構成は実施例1と同様であるため、説明を略す。   This embodiment is also an example in which the present invention is applied to an image display apparatus. Since the basic configuration is the same as that of the first embodiment, description thereof is omitted.

本実施例では、顔検知領域の再検知の精度をさらに向上させるため、図5で説明した画像情報で画像撮影時の撮影モード505を使用している。   In this embodiment, in order to further improve the accuracy of redetection of the face detection area, the shooting mode 505 at the time of shooting an image with the image information described in FIG. 5 is used.

図8は、本実施例での顔検知処理の再実行有無の判断を行う処理のフローを示した図である。処理開始後、ステップ301へ進む。   FIG. 8 is a diagram illustrating a flow of processing for determining whether or not to re-execute the face detection processing in the present embodiment. After the processing starts, the process proceeds to step 301.

ステップ301では、図2で説明した顔検知処理を呼び出している。顔検知処理終了後、ステップ303へ進む。   In step 301, the face detection process described in FIG. After the face detection process is completed, the process proceeds to step 303.

ステップ303では、前ステップの顔検知結果で、顔領域が検知できたか否かで、処理を分岐している。すなわちもし、顔領域が検知できていた場合は、処理を終了する。またもし検知できていなかった場合は、ステップ305へ進む。   In step 303, the process branches depending on whether or not a face area has been detected as a result of the face detection in the previous step. That is, if the face area can be detected, the process ends. If not detected, the process proceeds to step 305.

ステップ305では、対象画像のデータより、撮影モード505を読み込む処理を実行している。処理後、ステップ307へ進む。   In step 305, a process of reading the shooting mode 505 from the target image data is executed. After the processing, the process proceeds to step 307.

ステップ307では、前ステップで読み込んだ撮影モード505の内容がポートレート(人物像)モードか否かを判断し、処理を分岐させている。すなわちもし、撮影モード505の内容がポートレートモードであれば、画像中に人物像が写っている可能性が高いと判断して、処理をステップ309へ進める。またもし、撮影モード505の内容がポートレートでなければ、画像中に人物像が無い可能性が大きいので、本処理は終了する。   In step 307, it is determined whether or not the content of the photographing mode 505 read in the previous step is a portrait (person image) mode, and the process is branched. That is, if the content of the shooting mode 505 is the portrait mode, it is determined that there is a high possibility that a person image is captured in the image, and the process proceeds to step 309. If the content of the shooting mode 505 is not a portrait, there is a high possibility that there is no person image in the image, so this process ends.

ステップ309では、対象画像のデータより、焦点位置情報503を読み込む処理を実行している。処理後、ステップ311へ進む。   In step 309, processing for reading the focal position information 503 from the data of the target image is executed. After processing, go to step 311.

ステップ311では、焦点位置情報503からその周囲を拡大切り出す設定を実行している。実行後、ステップ209へ進む。   In step 311, a setting for enlarging and cutting the periphery from the focal position information 503 is executed. After execution, the process proceeds to step 209.

ステップ313では、前ステップで決定された領域を再度スキャンし、顔検知処理が行われる。検知処理終了後、本処理は終了となる。   In step 313, the area determined in the previous step is scanned again, and face detection processing is performed. After the detection process ends, this process ends.

本発明の実施例を適用した画像表示装置の構成を示したブロック図である。It is the block diagram which showed the structure of the image display apparatus to which the Example of this invention is applied. 注目領域検出の一手法として使用されている顔検知処理の処理フローを示したフローチャートである。It is the flowchart which showed the processing flow of the face detection process used as one method of attention area detection. 図3−Aは、画像データの一例を示した図である。図3−Bは、顔検知処理後の顔領域を判定結果の一例を示した図である。FIG. 3-A is a diagram illustrating an example of image data. FIG. 3B is a diagram illustrating an example of the determination result of the face area after the face detection process. 図4−Aは、画像データの一例を示した図である。図4−Bは、撮影情報による顔検知の再検知範囲の一例を示した図である。FIG. 4-A is a diagram illustrating an example of image data. FIG. 4-B is a diagram illustrating an example of a re-detection range of face detection based on shooting information. 画像ファイルのフォーマットの一例を示した図である。It is the figure which showed an example of the format of an image file. 顔検知処理の再実行有無の判断を行う処理のフローを示した図である。It is the figure which showed the flow of the process which judges whether re-execution of a face detection process is performed. 顔検知処理結果を、画像表示に応用した例を示した図である。It is the figure which showed the example which applied the face detection process result to the image display. 実施例2での顔検知処理の再実行有無の判断を行う処理のフローを示した図である。FIG. 10 is a diagram illustrating a process flow for determining whether or not to re-execute a face detection process in the second embodiment.

Claims (5)

画像を入力するステップと、該画像の注目領域検知ステップと、該画像の撮影情報を取得するステップと、前記注目領域検知結果に基づいて、該画像の注目領域を決定するステップとを有し、前記注目領域の検知に失敗した場合、前記撮影情報より前記注目領域検索範囲を決定し、前記注目領域検知ステップを再実行することを特徴とする被写体抽出方法。   A step of inputting an image, a region of interest detection step of the image, a step of acquiring photographing information of the image, and a step of determining a region of interest of the image based on the region of interest detection result, An object extraction method characterized by determining the attention area search range from the imaging information and re-executing the attention area detection step when the attention area detection fails. 前記注目領域検知ステップは、画像内の顔検知を実行することを特徴とした請求項1に記載の被写体抽出方法。   The subject extraction method according to claim 1, wherein the attention area detection step performs face detection in an image. 前記撮影情報は、少なくとも人物撮影モードとそれ以外の撮影モードとを区別することを特徴とした請求項1または2に記載の被写体抽出方法。   The subject extraction method according to claim 1, wherein the photographing information distinguishes at least a person photographing mode and another photographing mode. 前記注目領域検知ステップを再実行する条件は、前記撮影情報で人物撮影モードと判別したに限ることを特徴とした請求項3に記載の被写体抽出方法。   The subject extraction method according to claim 3, wherein a condition for re-execution of the attention area detection step is limited to the case where the photographing information is determined to be a person photographing mode. 前記注目領域検知ステップを再実行時の前記注目領域検索範囲は、前記撮影情報の焦点位置情報から決定するステップとを有することを特徴とした請求項1から4に記載の被写体抽出方法。   5. The subject extraction method according to claim 1, further comprising: determining the attention area search range when the attention area detection step is re-executed based on focal position information of the photographing information.
JP2004006305A 2004-01-14 2004-01-14 Object extracting method Withdrawn JP2005202543A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004006305A JP2005202543A (en) 2004-01-14 2004-01-14 Object extracting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004006305A JP2005202543A (en) 2004-01-14 2004-01-14 Object extracting method

Publications (1)

Publication Number Publication Date
JP2005202543A true JP2005202543A (en) 2005-07-28

Family

ID=34820320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004006305A Withdrawn JP2005202543A (en) 2004-01-14 2004-01-14 Object extracting method

Country Status (1)

Country Link
JP (1) JP2005202543A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012173993A (en) * 2011-02-22 2012-09-10 Seiko Epson Corp Image processing device, image processing method, and computer program for image processing
KR101330636B1 (en) 2007-01-24 2013-11-18 삼성전자주식회사 Face view determining apparatus and method and face detection apparatus and method employing the same
JP2017147764A (en) * 2017-05-23 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
EP3217251A1 (en) 2016-03-11 2017-09-13 Fuji Xerox Co., Ltd. Control device, processing device, control method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101330636B1 (en) 2007-01-24 2013-11-18 삼성전자주식회사 Face view determining apparatus and method and face detection apparatus and method employing the same
JP2012173993A (en) * 2011-02-22 2012-09-10 Seiko Epson Corp Image processing device, image processing method, and computer program for image processing
EP3217251A1 (en) 2016-03-11 2017-09-13 Fuji Xerox Co., Ltd. Control device, processing device, control method, and program
JP2017147764A (en) * 2017-05-23 2017-08-24 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Similar Documents

Publication Publication Date Title
JP4274233B2 (en) Imaging apparatus, image processing apparatus, image processing method therefor, and program causing computer to execute the method
JP4581924B2 (en) Image reproducing apparatus and image reproducing program
US7450756B2 (en) Method and apparatus for incorporating iris color in red-eye correction
JP4548144B2 (en) Digital camera device and through image display method
WO2012075817A1 (en) Text image trimming method
JP2004062565A (en) Image processor and image processing method, and program storage medium
JPH11185018A (en) Image processor
US9106829B2 (en) Apparatus and method for providing guide information about photographing subject in photographing device
JP2007074578A (en) Image processor, photography instrument, and program
JP2008099246A (en) Imaging device and subject detection method
JP2006293782A (en) Image processing device and image processing program
JP2014050022A (en) Image processing device, imaging device, and program
JP2015008385A (en) Image selection device, imaging device, and image selection program
JP2005323015A (en) Digital camera
JP2009105559A (en) Method of detecting and processing object to be recognized from taken image, and portable electronic device with camera
JP2007281843A (en) Imaging apparatus and image processing method
JP2005202543A (en) Object extracting method
JP2008236015A (en) Image processor, imaging apparatus and its program
JP2010045587A (en) Camera apparatus, image photography support device, image photography support method, and image photography support program
CN107578006B (en) Photo processing method and mobile terminal
JP4632417B2 (en) Imaging apparatus and control method thereof
JP2013149034A (en) Image display apparatus, image display method, and program
JP2006253805A (en) Photographing apparatus and method
JP2005323014A (en) Digital camera
JP2004112550A (en) Imaging apparatus, camera, program, and recording medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403