JP2012049815A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2012049815A
JP2012049815A JP2010189858A JP2010189858A JP2012049815A JP 2012049815 A JP2012049815 A JP 2012049815A JP 2010189858 A JP2010189858 A JP 2010189858A JP 2010189858 A JP2010189858 A JP 2010189858A JP 2012049815 A JP2012049815 A JP 2012049815A
Authority
JP
Japan
Prior art keywords
image
subject
local feature
similar
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010189858A
Other languages
Japanese (ja)
Other versions
JP5582924B2 (en
Inventor
Ichiro Umeda
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010189858A priority Critical patent/JP5582924B2/en
Publication of JP2012049815A publication Critical patent/JP2012049815A/en
Application granted granted Critical
Publication of JP5582924B2 publication Critical patent/JP5582924B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a subject characteristic to a photographing person without causing a large load on the photographing person.SOLUTION: An image processing device comprises: means for obtaining the local feature of an image whenever an image is obtained; means for registering or deleting the obtained local feature; means for determining, on the basis of comparison between the obtained local feature on the image and local feature registered in the past, a region in which a past image and the obtained image are similar; and means for obtaining a subject region on the basis of the frequency with which the regions of the combination of the similar regions have overlapping portions.

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、被写体領域を検出するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly to a technique suitable for use in detecting a subject area.

撮影時に被写体を検出する手法は、撮影パラメータの制御などに広く利用されている。
画像中から被写体領域を検出する手法として、例えば非特許文献1に記載されている。この非特許文献1には、全ての部分画像について記述子を用意し、それらの変動幅を統計的に取得しマッチングパターンを作る手法が記載されている。非特許文献1においては、部分画像には画像中の任意の矩形領域が用いられ、記述子には矩形領域内において事前に定められた2領域の画像の濃淡の比較結果が用いられている。また、統計的な変動幅の取得には、Boostingアルゴリズムが用いられている。
A method of detecting a subject at the time of shooting is widely used for controlling shooting parameters.
For example, Non-Patent Document 1 discloses a technique for detecting a subject area from an image. This Non-Patent Document 1 describes a method of preparing descriptors for all partial images, statistically acquiring their fluctuation ranges, and creating matching patterns. In Non-Patent Document 1, an arbitrary rectangular area in the image is used for the partial image, and the comparison result of the light and shade of the image of two areas determined in advance in the rectangular area is used for the descriptor. Further, a Boosting algorithm is used for obtaining a statistical fluctuation range.

米国特許第6711293号明細書US Pat. No. 6,711,293 特開2009−69996号公報JP 2009-69996 A 特開平11−136568号公報JP 11-136568 A

Viola and Jones, "Rapid object detection using boosted cascade of simple features", Computer Vision and Pattern Recognition, 2001Viola and Jones, "Rapid object detection using boosted cascade of simple features", Computer Vision and Pattern Recognition, 2001 M. A. Fischler and R. C. Bolles, "Randomsample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, no.24,vol.6, pp.381-395, June 1981.M. A. Fischler and R. C. Bolles, "Randomsample consensus: A paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, no.24, vol.6, pp.381-395, June 1981.

写真・動画などの撮影において被写体領域を検出する場合、撮影者にとって検出すべき被写体が共通している場合は少ない。多くの場合、この検出すべき被写体は、撮影者の数人かの家族や知人、あるいはその撮影者が飼う単一のペットなど、撮影者固有のものである。したがって、撮影者固有の被写体を、撮影者に大きな負荷を生じさせずに、検出する手法が望まれている。撮影時に被写体領域を検出する上で、非特許文献1に記載の手法では、その統計的な変動幅を取得するために多くの画像が必要であり、その画像収集が撮影者に負荷を課している。また、収集した画像数の増加に応じて変動幅の算出に必要な計算量も増加してしまう。   When a subject area is detected in photography such as a photograph / moving picture, there are few cases where a photographer has a common subject to be detected. In many cases, the subject to be detected is unique to the photographer, such as several family members or acquaintances of the photographer, or a single pet kept by the photographer. Therefore, a technique for detecting a subject unique to a photographer without causing a large load on the photographer is desired. In detecting the subject area at the time of shooting, the method described in Non-Patent Document 1 requires many images in order to obtain the statistical fluctuation range, and the image collection imposes a burden on the photographer. ing. Further, the amount of calculation necessary for calculating the fluctuation range increases as the number of collected images increases.

本発明は前述の問題点に鑑み、撮影者固有の被写体を、撮影者に大きな負荷を生じさせずに検出できるようにすることを目的としている。   In view of the above-described problems, an object of the present invention is to make it possible to detect a subject unique to a photographer without causing a heavy load on the photographer.

本発明の画像処理装置は、画像を取得するごとに画像の局所特徴を取得する手段と、前記取得した局所特徴を登録あるいは削除する手段と、前記取得した画像上の局所特徴と過去に登録された局所特徴との比較に基づき過去の画像と前記取得した画像とで類似する領域を求める手段と、前記類似する領域の組み合わせのそれぞれが重複する部分領域を持つ頻度に基づき被写体領域を取得する手段とを備えることを特徴とする。   The image processing apparatus according to the present invention includes means for acquiring local features of an image every time an image is acquired, means for registering or deleting the acquired local features, and local features on the acquired image registered in the past. Means for obtaining a similar area between the past image and the acquired image based on comparison with the local feature, and means for acquiring a subject area based on a frequency at which each combination of the similar areas has a partial area overlapping. It is characterized by providing.

本発明によれば、撮影者固有の被写体を、撮影者に大きな負荷を生じさせずに検出することができる。   According to the present invention, a subject unique to a photographer can be detected without causing a large load on the photographer.

実施形態に係る画像処理装置のハード構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on embodiment. 局所特徴を求める処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence which calculates | requires a local feature. 図3のステップS305の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S305 of FIG. 図3のステップS313の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S313 of FIG. 図3のステップS315の詳細の手順の一例を示すフローチャートである。4 is a flowchart illustrating an example of a detailed procedure of step S315 in FIG. 3. 図4のステップS403、図5のステップS503、及び図6のステップS603の詳細な手順の一例を示すフローチャートである。6 is a flowchart showing an example of detailed procedures of step S403 of FIG. 4, step S503 of FIG. 5, and step S603 of FIG. 過去に撮影した画像の一例を示す図である。It is a figure which shows an example of the image image | photographed in the past. 試撮画像の一例を示す図である。It is a figure which shows an example of a trial image. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 撮影構図の一例を示す図である。It is a figure which shows an example of imaging | photography composition.

以下、本発明を適用した好適な実施形態について説明する。
図1は、本実施形態に係る画像処理装置の構成例を示すブロック図である。
図1において、撮像系101は、レンズ、CCD、MOS、等で構成されており、被写体像を光から電気信号に変換する。102は信号処理回路であり、撮像系101から得られた被写体像に関する電気信号をデジタル信号に変換し、また、撮影条件等を撮像系101に対して設定する。
Hereinafter, preferred embodiments to which the present invention is applied will be described.
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to the present embodiment.
In FIG. 1, an imaging system 101 is composed of a lens, a CCD, a MOS, and the like, and converts a subject image from light to an electrical signal. Reference numeral 102 denotes a signal processing circuit that converts an electrical signal relating to a subject image obtained from the imaging system 101 into a digital signal, and sets imaging conditions and the like for the imaging system 101.

103はCPUであり、ROM104に格納されている制御プログラムを実行することにより、本装置全体の制御を行う。104はROMであり、CPU103が実行する制御プログラムや各種パラメータデータを格納する。この制御プログラムは、CPU103で実行されることにより、後述するフローチャートに示す各処理を実行するための各種手段として、当該装置を機能させる。105はRAMであり、画像データや各種情報を記憶する。また、RAM105は、CPU103のワークエリアやデータの一時待避領域として機能する。   A CPU 103 controls the entire apparatus by executing a control program stored in the ROM 104. A ROM 104 stores a control program executed by the CPU 103 and various parameter data. The control program is executed by the CPU 103, thereby causing the apparatus to function as various means for executing each process shown in a flowchart described below. Reference numeral 105 denotes a RAM which stores image data and various types of information. The RAM 105 functions as a work area for the CPU 103 and a temporary data saving area.

106はタッチディスプレイであり、例えば、LCDやCRTで構成されている。また、タッチディスプレイ106は、ユーザに対し情報を提示し、かつユーザの接触操作を受け付け、その座標情報を取得する。また、撮像系101及び信号処理部102を経た映像信号をそのまま表示するためにもタッチディスプレイ106を使用する。以下、ここで表示する画像を試写画像と呼ぶことにする。   Reference numeral 106 denotes a touch display, which includes, for example, an LCD or a CRT. Further, the touch display 106 presents information to the user, accepts the user's contact operation, and acquires the coordinate information. The touch display 106 is also used to display the video signal that has passed through the imaging system 101 and the signal processing unit 102 as it is. Hereinafter, the image displayed here will be referred to as a preview image.

なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU103を用いてソフトウェアで実現することとするが、その処理の一部または全部を電子回路などのハードウェアで実現するようにしても構わない。また、本実施形態の画像処理装置は、撮像系101や信号処理部102を省略して汎用PCを用いて実現してもよいし、画像処理専用装置として実現するようにしても構わない。また、ネットワークまたは各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU,プロセッサ)にて実行してもよい。   In the present embodiment, processing corresponding to each step of the flowchart described later is realized by software using the CPU 103, but part or all of the processing is realized by hardware such as an electronic circuit. It doesn't matter. In addition, the image processing apparatus of the present embodiment may be realized using a general-purpose PC by omitting the imaging system 101 and the signal processing unit 102, or may be realized as an image processing dedicated apparatus. Further, software (program) acquired via a network or various storage media may be executed by a processing device (CPU, processor) such as a personal computer.

図2は、本実施形態に係る画像処理装置の機能構成例を示すブロック図である。
図2において、画像取得部201は撮像系101に相当し、試撮画像や撮影画像を取得する。試撮画像は、撮影画像を好適に取得するための撮影時パラメータを導出したり構図を決めたりする場合に用いられるものである。撮影画像の例を、図10(a)に示し、試撮画像の例を図9(a)及び図9(b)に示す。
FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus according to the present embodiment.
In FIG. 2, an image acquisition unit 201 corresponds to the imaging system 101, and acquires a trial image and a captured image. The trial image is used when deriving a shooting parameter for determining a shot image or determining a composition. An example of the captured image is shown in FIG. 10A, and examples of the trial image are shown in FIGS. 9A and 9B.

被写体領域指示部202はタッチディスプレイ106の一部に相当するものであり、画像取得部201で取得した試撮画像を表示し、その画像に対する被写体の指示を受け付ける。指示を受け付けると、例えば図9(b)に示すように、被写体領域941が示される。局所特徴取得部203は、画像取得部201で取得した試撮画像や撮影画像から局所特徴を取得する。図9(a)及び図9(b)における星印921〜929、951〜958の星印は、試撮画像の局所特徴を示している。また、図10(b)における星印1011〜1017は、図10(a)に示す撮影画像から取得した局所特徴を示している。これらの局所特徴はその座標及びその周辺から求めた局所特徴量から構成されており、例えば特許文献1に記載の方法により算出する。また、この局所特徴は回転、拡大縮小、面外回転などに剛健であればその実装を問わない。   The subject area instruction unit 202 corresponds to a part of the touch display 106, displays the sample image acquired by the image acquisition unit 201, and accepts a subject instruction for the image. When the instruction is received, a subject area 941 is shown as shown in FIG. 9B, for example. The local feature acquisition unit 203 acquires a local feature from the sample image or the captured image acquired by the image acquisition unit 201. Stars 921 to 929 and 951 to 958 in FIGS. 9A and 9B indicate local features of the trial image. Further, stars 1011 to 1017 in FIG. 10B indicate local features acquired from the captured image shown in FIG. These local features are composed of local features obtained from the coordinates and the periphery thereof, and are calculated by the method described in Patent Document 1, for example. In addition, this local feature may be implemented as long as it is robust to rotation, enlargement / reduction, and out-of-plane rotation.

局所特徴DB部204は、局所特徴学習部207の要求に応じて局所特徴を登録及び削除する。また、局所特徴比較部205の要求に応じて局所特徴を検索する。なお、本実施形態においては、必ずしも過去画像の保存していなくてもよい。図8(a)〜図8(c)における星印は、過去に撮影されたときに登録されている局所特徴を示している。   The local feature DB unit 204 registers and deletes local features in response to requests from the local feature learning unit 207. Further, the local feature is searched according to the request of the local feature comparison unit 205. In the present embodiment, it is not always necessary to store past images. Stars in FIG. 8A to FIG. 8C indicate local features registered when the images were captured in the past.

局所特徴比較部205は、任意の画像の対に含まれる類似領域をそれぞれの画像の局所特徴の比較に基づいて算出する。この局所特徴は、画像取得部201で得られた試撮画像や撮影画像に対し、局所特徴取得部203により得られた局所特徴、及び局所特徴DB部204に登録された過去の画像の局所特徴である。局所特徴取得部203で述べた様に、局所特徴はその座標と特徴量から構成される。本実施形態では、局所特徴比較部205で求める類似領域は、この局所特徴比較の結果類似すると判断された局所特徴が持つ座標を包含する多角形であるとする。よって、本実施形態では、類似領域の表現を便宜的にその類似領域を構成する局所特徴の組み合わせで代用する。図9(a)に示す試撮画像と図8(a)〜図8(c)に示す過去に撮影した画像との局所特徴の比較により求められる類似領域は、例えば図9(a)において、星印921〜923の領域、星印921、922、925の領域、星印931〜934である。   The local feature comparison unit 205 calculates a similar region included in an arbitrary image pair based on comparison of local features of the images. The local features are the local features obtained by the local feature obtaining unit 203 and the local features of the past images registered in the local feature DB unit 204 with respect to the trial image and the photographed image obtained by the image obtaining unit 201. is there. As described in the local feature acquisition unit 203, the local feature is composed of its coordinates and feature amount. In the present embodiment, it is assumed that the similar region obtained by the local feature comparison unit 205 is a polygon including coordinates of local features determined to be similar as a result of the local feature comparison. Therefore, in the present embodiment, the expression of the similar area is substituted with a combination of local features constituting the similar area for convenience. A similar region obtained by comparing local features between the preview image shown in FIG. 9A and the images taken in the past shown in FIGS. 8A to 8C is, for example, a star in FIG. 9A. An area of marks 921 to 923, an area of stars 921, 922, and 925, and stars 931 to 934.

被写体領域取得部206は、局所特徴比較部205により得られた類似領域、あるいは被写体領域指示部202による被写体の指示に基づき、画像上の被写体領域を求める。図9(a)の被写体領域911は、図9(a)に示す試撮画像を元に局所特徴比較部205により得られた類似領域に基づいて得られたものである。また、図9(b)の被写体領域941は、図9(b)に示す試撮画像を元に被写体領域指示部202による被写体の指示に基づいて得られたものである。本実施形態では、被写体領域を類似領域に基づき求められた場合、この被写体領域は類似領域の1つと等しい。そのため、局所特徴比較部205と同様、被写体領域の表記は便宜上その被写体領域を構成する局所特徴の組み合わせで代用する。   The subject region acquisition unit 206 obtains a subject region on the image based on the similar region obtained by the local feature comparison unit 205 or the subject instruction by the subject region instruction unit 202. The subject region 911 in FIG. 9A is obtained based on the similar region obtained by the local feature comparison unit 205 based on the sample image shown in FIG. Also, the subject area 941 in FIG. 9B is obtained based on the instruction of the subject by the subject area instruction unit 202 based on the preview image shown in FIG. 9B. In the present embodiment, when the subject area is obtained based on the similar area, the subject area is equal to one of the similar areas. Therefore, as with the local feature comparison unit 205, the notation of the subject area is substituted with a combination of local features that constitute the subject area for convenience.

局所特徴学習部207は、局所特徴DB部204に対し局所特徴の登録及び削除を行う。被写体領域指示部202による被写体の指示の有無により登録・削除する局所特徴は変化する。被写体の指示があった場合、撮影画像に関しては被写体領域内の局所特徴のみを登録する。また、被写体を含む過去の画像についてその被写体領域に含まれない局所特徴を削除する。図10(b)の撮影画像に示す被写体領域1002とした場合に登録する局所特徴は星印1011〜1013であり、削除する局所特徴は図8(a)及び図8(c)に示す星印801〜803、841〜844となる。被写体の指示がなかった場合、撮影画像の局所特徴の全てを登録する。また、いずれの場合も、過去に取得した局所特徴のうち、被写体を構成しない局所特徴など、一定の条件を満たす古い局所特徴は削除する。   The local feature learning unit 207 registers and deletes local features in the local feature DB unit 204. The local features to be registered / deleted change depending on whether or not the subject is instructed by the subject region instruction unit 202. When a subject is instructed, only local features in the subject area are registered for the captured image. In addition, local features not included in the subject area are deleted from past images including the subject. When the subject area 1002 shown in the photographed image of FIG. 10B is used, the local features to be registered are stars 1011 to 1013, and the local features to be deleted are the stars shown in FIGS. 8A and 8C. 801 to 803 and 841 to 844. If there is no instruction for the subject, all the local features of the photographed image are registered. In either case, old local features that satisfy a certain condition, such as local features that do not constitute a subject, are deleted from local features acquired in the past.

図3は、本実施形態における局所特徴を求める処理手順の一例を示すフローチャートである。この処理は大きく分けてステップS301〜S307の撮影条件調整処理、ステップS308〜S309の本撮影処理、及びステップS310〜S317の被写体登録処理から構成される。また、この処理は局所特徴DB部204が持つ過去画像ごとの局所特徴群を入力とする。   FIG. 3 is a flowchart illustrating an example of a processing procedure for obtaining local features in the present embodiment. This process is roughly divided into a shooting condition adjustment process in steps S301 to S307, a main shooting process in steps S308 to S309, and a subject registration process in steps S310 to S317. In this process, a local feature group for each past image of the local feature DB unit 204 is input.

まず、ステップS301では、撮影条件調整処理として、ステップS302〜S307を撮影指示(記録指示)があるまで繰り返す。撮影指示は具体的にはシャッターボタン押下等を想定する。この撮影条件調整処理では、構図や撮影タイミングなどの撮影条件の調整及び確認が行われ、被写体領域の検出や指示は主にこの撮影条件の調整に用いられる。   First, in step S301, as the shooting condition adjustment process, steps S302 to S307 are repeated until there is a shooting instruction (recording instruction). Specifically, it is assumed that the shooting instruction is pressing the shutter button. In this shooting condition adjustment process, shooting conditions such as composition and shooting timing are adjusted and confirmed, and detection and instruction of the subject area are mainly used for adjusting the shooting conditions.

次に、ステップS302は、画像取得部201から試撮画像を取得し、タッチディスプレイ106に表示する。次に、ステップS303では、被写体領域指示部202にユーザからの被写体指定の有無を判定する。この判定の結果、指定がある場合はステップS306へ進み、指定がない場合はステップS304へ進む。   In step S <b> 302, a trial image is acquired from the image acquisition unit 201 and displayed on the touch display 106. Next, in step S303, the subject area instruction unit 202 determines whether or not a subject has been designated by the user. If the result of this determination is that there is a designation, the process proceeds to step S306, and if there is no designation, the process proceeds to step S304.

ステップS304では、局所特徴取得部203により、例えば図9(a)に示す試撮画像から星印921〜929に示す局所特徴を求める。次に、ステップS305では、過去の画像と試撮画像とで類似する領域を求め、試撮画像上で最も過去画像と類似する回数の多い領域を選択し、被写体領域とする。なお、ステップS305の詳細については後述する。   In step S304, the local feature acquisition unit 203 obtains local features indicated by stars 921 to 929 from, for example, a preview image shown in FIG. Next, in step S305, a region that is similar between the past image and the trial image is obtained, and a region that is most similar to the past image on the sample image is selected, and is set as a subject region. Details of step S305 will be described later.

一方、ステップS303の判定の結果、ユーザによる被写体指定があった場合は、ステップS306において被写体領域指示部202に対するユーザの操作から被写体領域を取得する。本実施形態では、被写体領域指示部202に対するユーザの操作は、図9(b)に示すように試撮画像にユーザが領域を描くものとする。被写体領域の取得には、既存の物体検出技術や追尾技術などが利用できる。例えば、本実施形態では、類似色ヒストグラム検索を用いる。具体的には、被写体領域941内の色ヒストグラムを求めておき、試撮画像が更新されるごとに、求めておいた色ヒストグラムと最も類似の色ヒストグラムを持つ領域を被写体領域とする。被写体領域が求められなかった場合には被写体領域は存在しないものとしてもよい。   On the other hand, as a result of the determination in step S303, if the subject is designated by the user, the subject region is acquired from the user's operation on the subject region instruction unit 202 in step S306. In this embodiment, it is assumed that the user's operation on the subject area instruction unit 202 draws an area on the trial image as shown in FIG. 9B. Existing object detection technology and tracking technology can be used to acquire the subject area. For example, in this embodiment, a similar color histogram search is used. Specifically, a color histogram in the subject area 941 is obtained, and each time a trial image is updated, an area having a color histogram that is most similar to the obtained color histogram is set as the subject area. If no subject area is obtained, the subject area may not exist.

次に、ステップS307において、求められた被写体領域を被写体領域指示部202上の画像上に描画する。なお、被写体領域が求められなかった場合、被写体領域は描画しない。ここで、例えば、求められた被写体領域が多角形だとしても、得られた多角形に外接する楕円あるいは角丸矩形などを表示する。これにより不要な情報量を削減して表示を洗練させることができる。また、被写体領域が検出された手法の種別に基づき、色、形状、実線破線などを変化させて表示させる。これにより、被写体検出に用いられた手法をユーザに明示する。また、のほかにも被写体検出技術が実施されているなら、その検出手法に対応する色や線種も用いる。   In step S307, the obtained subject area is drawn on the image on the subject area instruction unit 202. If no subject area is obtained, the subject area is not drawn. Here, for example, even if the obtained subject area is a polygon, an ellipse or a rounded rectangle circumscribing the obtained polygon is displayed. Thereby, the amount of unnecessary information can be reduced and the display can be refined. Also, based on the type of method in which the subject area is detected, the color, shape, solid broken line, etc. are changed and displayed. This clearly indicates to the user the technique used for subject detection. In addition, if subject detection technology is implemented, colors and line types corresponding to the detection method are also used.

撮影指示が発生し、ステップS302〜S307のループを抜けた後は、ステップS308及びステップS309において、本撮影を行う。まず、ステップS308では、被写体領域に基づきフォーカス・ホワイトバランス・絞り及び露出時間、等を求める。求められた撮影パラメータ等は信号処理部102に設定され、その一部は撮像系101に設定される。ステップS309において、画像を撮影(本撮影)する。撮影画像はメモリカード等に保存し、かつ、タッチディスプレイ106等に表示してユーザに提示する。   After a shooting instruction is generated and the process exits the loop of steps S302 to S307, actual shooting is performed in steps S308 and S309. First, in step S308, focus, white balance, aperture, exposure time, and the like are obtained based on the subject area. The obtained shooting parameters and the like are set in the signal processing unit 102, and some of them are set in the imaging system 101. In step S309, an image is shot (main shooting). The captured image is stored in a memory card or the like and displayed on the touch display 106 or the like and presented to the user.

次に、被写体登録処理として、ステップS310〜S317において、後の被写体領域検出のために、局所特徴DB部204への局所特徴の登録と削除とを行う。まず、ステップS310において、ステップS309で撮影した画像から局所特徴を求める。この局所特徴の取得には、ステップS304と同一の方法を用いる。また、ステップS310はステップS309の撮影のたびに実行され、かつこのステップで求められた局所特徴はステップS312もしくはステップS316において局所特徴DB部204に登録される。このため、ステップS305における被写体領域の取得は、常に最新の撮影から得られた局所特徴を用いることができる。   Next, as subject registration processing, in steps S310 to S317, registration and deletion of local features in the local feature DB unit 204 are performed for subsequent subject region detection. First, in step S310, local features are obtained from the image captured in step S309. The local feature is acquired using the same method as in step S304. Step S310 is executed every time the image is taken in step S309, and the local feature obtained in this step is registered in the local feature DB unit 204 in step S312 or step S316. For this reason, the acquisition of the subject area in step S305 can always use the local feature obtained from the latest photographing.

次に、ステップS311において、ステップS301のループ中における撮影者から被写体の明示的な指定があるか否かを判定する。この判定の結果、指定がなかった場合はステップS312に進み、指定があった場合は、ステップS314に進む。   Next, in step S311, it is determined whether there is an explicit designation of the subject from the photographer in the loop of step S301. As a result of the determination, if there is no designation, the process proceeds to step S312, and if there is a designation, the process proceeds to step S314.

ステップS312においては、局所特徴DB部204に撮影画像に含まれる全ての局所特徴群を追加する。これにより、ユーザからの被写体の明示的な指定が存在しない場合、撮影画像中の任意の位置に含まれている被写体は、今後ステップS305において検出することができる。次に、ステップS313において、過去画像群の局所特徴群のうち、主被写体を構成しない局所特徴群を求める。なお、ステップS313の詳細については後述する。なお、図8(b)に示す星印821、822は主被写体を構成しないと判定された局所特徴を示している。   In step S312, all local feature groups included in the captured image are added to the local feature DB unit 204. Thereby, when there is no explicit designation of the subject from the user, the subject included in an arbitrary position in the captured image can be detected in step S305 in the future. Next, in step S313, a local feature group that does not constitute the main subject is obtained from the local feature groups of the past image group. Details of step S313 will be described later. Note that stars 821 and 822 shown in FIG. 8B indicate local features determined not to constitute the main subject.

一方、ステップS311の判定の結果、ユーザからの被写体の明示的な指定がある場合は、まず、ステップS314において、撮影画像における被写体領域を得る。図10(b)に示す被写体領域1002は、ユーザにより指定された領域を示している。この求め方はステップS306と同様である。   On the other hand, if there is an explicit designation of the subject from the user as a result of the determination in step S311, first, in step S314, a subject region in the captured image is obtained. A subject area 1002 shown in FIG. 10B shows an area designated by the user. This calculation method is the same as in step S306.

次に、ステップS315において、撮影画像の被写体領域と類似する領域を持つ過去画像に含まれる局所特徴のうち、被写体領域に含まれない局所特徴を求める。なお、この処理の詳細については後述する。なお、図8(a)の星印801〜803は、被写体領域に含まれないと判定された局所特徴示している。これらの局所特徴は、ステップS317において局所特徴DB部204から削除される。これにより、被写体に含まれないと判断された局所特徴は、今後の被写体検出処理において用いられず、結果、被写体として検出されにくくなる。   Next, in step S315, among the local features included in the past image having a region similar to the subject region of the photographed image, local features not included in the subject region are obtained. Details of this process will be described later. Note that stars 801 to 803 in FIG. 8A indicate local features determined not to be included in the subject area. These local features are deleted from the local feature DB unit 204 in step S317. As a result, the local feature determined not to be included in the subject is not used in future subject detection processing, and as a result, it is difficult to detect as a subject.

次に、ステップS316において、局所特徴DB部204に撮影画像の被写体領域に含まれる局所特徴群を追加する。なお、図10(b)の星印1011〜1013は、撮影画像の被写体領域1002に含まれる局所特徴群を示している。このように被写体領域ではない個所の局所特徴を登録しないことにより、後の撮影における被写体検出率の低下や、使用メモリ・計算量の増大を防いでいる。   Next, in step S316, a local feature group included in the subject area of the captured image is added to the local feature DB unit 204. Note that stars 1011 to 1013 in FIG. 10B indicate local feature groups included in the subject area 1002 of the captured image. By not registering local features that are not subject areas in this way, it is possible to prevent a decrease in the subject detection rate and an increase in the use memory and calculation amount in later photographing.

次に、ステップS317において、被写体領域を構成しない局所特徴、及び登録後に規定の時間もしくは既定の撮影枚数を過ぎた局所特徴を削除する。また、事前に設定された局所特徴数の上限を下回るまで、最も古い局所特徴から削除する。ここで、被写体領域を構成しない局所特徴とは、ステップS313もしくはステップS315で求められた局所特徴群である。規定の時間や規定の撮影枚数を過ぎた局所特徴を削除することで、計算量や必要メモリ量の上限を設けることができる。また、被写体を構成しない局所特徴を削除することで、後の撮影において背景領域が被写体領域として検出されることを防ぐことができる。   Next, in step S317, local features that do not constitute a subject area and local features that have passed a specified time or a predetermined number of shots after registration are deleted. Moreover, it deletes from the oldest local feature until it falls below the upper limit of the number of local features set in advance. Here, the local features that do not constitute the subject region are the local feature groups obtained in step S313 or step S315. By deleting local features that have passed a specified time or a specified number of shots, it is possible to set an upper limit for the calculation amount and the required memory amount. Further, by deleting the local features that do not constitute the subject, it is possible to prevent the background region from being detected as the subject region in subsequent photographing.

図4は、ステップS305の詳細な処理手順の一例を示すフローチャートである。このフローチャートは試撮画像と過去画像群とで類似する領域を求め、試撮画像上で重なる回数が最も多い領域を選択する。なお、図4に示す各処理は被写体領域取得部206により行われる。また、本処理では試撮画像の局所特徴群、及び局所特徴DB部204に含まれる過去画像ごとの局所特徴群を入力とする。   FIG. 4 is a flowchart illustrating an example of a detailed processing procedure in step S305. In this flowchart, a region similar to the sample image and the past image group is obtained, and a region having the largest number of times of overlapping on the sample image is selected. Each process shown in FIG. 4 is performed by the subject area acquisition unit 206. In this process, the local feature group of the trial image and the local feature group for each past image included in the local feature DB unit 204 are input.

ステップS401〜S404では、全ての過去画像と試撮画像との組み合わせについて、類似領域を求める。まず、ステップS401では、類似領域及びその登場頻度のリストを初期化する。次に、ステップS402では、ステップS403〜S404の処理を、局所特徴DB部204に含まれる過去画像のそれぞれについて繰り返す。   In steps S401 to S404, similar regions are obtained for all combinations of past images and sample images. First, in step S401, a list of similar regions and their appearance frequencies is initialized. Next, in step S <b> 402, the processes in steps S <b> 403 to S <b> 404 are repeated for each past image included in the local feature DB unit 204.

そして、ステップS403では、注目している過去画像と試撮画像とで共通な類似領域を求める。このステップS403の詳細については後述する。例えば、図9(a)に示す星印921〜923に囲まれた領域は、図8(a)に示す星印811〜813に囲まれた領域に類似している。また、図9(a)に示す星印921、922、925に囲まれた領域は、図8(c)に示す星印831、832、835に囲まれた領域に類似している。さらに、図9(a)に示す星印926〜929に囲まれた領域は、図8(c)に示す星印841〜844に囲まれた領域に類似している。そして、ステップS404では、ステップS403において類似領域が存在した場合に、その類似領域を類似領域リストに追加し、その登場頻度を1とする。   In step S403, a similar area common to the past image of interest and the preview image is obtained. Details of step S403 will be described later. For example, the region surrounded by asterisks 921 to 923 shown in FIG. 9A is similar to the region surrounded by asterisks 811 to 813 shown in FIG. 9A is similar to the region surrounded by stars 831, 832, and 835 shown in FIG. 8C. The region surrounded by stars 921, 922, and 925 shown in FIG. Further, the area surrounded by the star marks 926 to 929 shown in FIG. 9A is similar to the area surrounded by the star marks 841 to 844 shown in FIG. In step S404, if a similar region exists in step S403, the similar region is added to the similar region list, and the appearance frequency is set to 1.

次に、ステップS405では、全ての過去画像と試撮画像との組み合わせにおいて少なくとも1つの類似領域が存在したかどうかを判定する。この判定の結果、類似領域が一つも存在しなかった場合は、試撮画像上に被写体は見つからないとものしてこの処理を終了する。   Next, in step S405, it is determined whether or not there is at least one similar region in all combinations of past images and trial images. If there is no similar area as a result of this determination, it is determined that no subject is found on the trial image, and this process is terminated.

一方、ステップS405の判定の結果、類似領域が存在する場合は、ステップS406において、全ての類似領域の組合せについて、ステップS407の処理を繰り返し、他の類似領域と重複する回数を求める。そして、ステップS407では、二つの類似領域で重複する領域を求め、存在する場合は、それぞれの類似領域の登場頻度に1追加する。この重複は、例えば、双方の類似領域をビットマップで表現して論理積を求めてもよいし、二つの部分領域間で交差する辺が存在するか、あるいは一方の部分領域が他方に内包されているかを検定すればよい。例えば、図9(a)に示す星印921〜923に囲まれた領域及び星印921、922、925に囲まれた領域は互いに重複し、それぞれの登場頻度は2となる。   On the other hand, as a result of the determination in step S405, if a similar region exists, in step S406, the processing in step S407 is repeated for all combinations of similar regions, and the number of times of overlapping with other similar regions is obtained. In step S407, an overlapping area is obtained between two similar areas, and if it exists, one is added to the appearance frequency of each similar area. This overlap may be obtained by, for example, expressing both similar regions in a bitmap and obtaining a logical product, or there is an intersecting side between two partial regions, or one partial region is included in the other. It is sufficient to test whether it is. For example, the region surrounded by the asterisks 921 to 923 and the region surrounded by the asterisks 921, 922, and 925 shown in FIG. 9A overlap each other, and the appearance frequency thereof is 2.

最後に、ステップS408では、最大の登場頻度を持つ類似領域を選択し、被写体領域とする。複数の類似領域が同数の登場頻度を持つ場合は、例えば、類似領域同士の和集合とする。例えば、互いが星印921〜923に囲まれた領域と、星印921、922、925に囲まれた領域との関係の様に重複している場合は、和集合の星印921、922、923、925に囲まれた領域を被写体領域とする。また、登場頻度に基づき被写体領域を設定する。このため、例えば類似領域として星印921〜923に囲まれた領域と星印931〜934に囲まれた領域とが求められたとしても、過去画像群において登場頻度の高い星印921〜923に囲まれた領域を被写体として選択できる。   Finally, in step S408, a similar region having the maximum appearance frequency is selected and set as a subject region. When a plurality of similar regions have the same number of appearance frequencies, for example, a union of similar regions is used. For example, in the case where the regions surrounded by stars 921 to 923 overlap with the regions surrounded by stars 921, 922, and 925, the union stars 921, 922, A region surrounded by 923 and 925 is set as a subject region. Also, a subject area is set based on the appearance frequency. For this reason, for example, even if a region surrounded by stars 921 to 923 and a region surrounded by stars 931 to 934 are obtained as similar regions, stars 921 to 923 having a high appearance frequency in the past image group are obtained. The enclosed area can be selected as a subject.

さらに、過去画像に、図8(b)に示すような被写体を含まない過去画像が含まれていても構わない。さらに、ズーム操作や撮影者の移動を伴わず、最小で2回の撮影で、被写体を構成する局所特徴の頻度を向上させることができる。例えば、図11に示す環境において、枠1101〜1102に示される構図でそれぞれ撮影を行うことにより、枠1101、1102の両方に含まれる領域の登場頻度が向上する。   Furthermore, the past image may include a past image that does not include the subject as shown in FIG. Furthermore, the frequency of local features constituting the subject can be improved with a minimum of two shootings without a zoom operation or a photographer's movement. For example, in the environment illustrated in FIG. 11, the appearance frequency of the areas included in both the frames 1101 and 1102 is improved by performing shooting with the compositions illustrated in the frames 1101 to 1102.

図5は、ステップS313の詳細な処理手順の一例を示すフローチャートである。この処理では、局所特徴DB部204に含まれる過去画像群の局所特徴群のうち、主被写体を構成しない局所特徴群を求める。具体的には全ての局所特徴について過去画像同士の類似領域に含まれる回数を求め、その回数の少ない局所特徴を選択する。   FIG. 5 is a flowchart illustrating an example of a detailed processing procedure of step S313. In this process, a local feature group that does not constitute the main subject is obtained from the local feature groups of the past image group included in the local feature DB unit 204. Specifically, the number of times that all local features are included in a similar region between past images is obtained, and a local feature with a small number of times is selected.

まず、ステップS501では、局所特徴の出現頻度のリストを初期化する。
次に、ステップS502では、過去画像群中の異なる過去画像<A,B>の全ての組み合わせについて、ステップS503〜ステップS504を繰り返す。ここで、一例として図8(a)に示す画像を過去画像Aとし、図8(c)に示す画像を過去画像Bとする。
First, in step S501, a list of appearance frequencies of local features is initialized.
Next, in step S502, steps S503 to S504 are repeated for all combinations of different past images <A, B> in the past image group. Here, as an example, the image shown in FIG. 8A is a past image A, and the image shown in FIG.

ステップS503では、過去画像A及び過去画像Bの類似する領域を求める。このステップS503は図4のステップS403と同様の処理であり、詳細については後述する。例えば、過去画像A及び過去画像Bにおいて類似する領域は、星印811〜813に囲まれた領域と星印831〜833に囲まれた領域とである。   In step S503, a similar region between the past image A and the past image B is obtained. This step S503 is the same processing as step S403 in FIG. 4, and details will be described later. For example, similar regions in the past image A and the past image B are a region surrounded by asterisks 811 to 813 and a region surrounded by asterisks 831 to 833.

次に、ステップS504では、過去画像A及び過去画像Bのそれぞれについて、類似領域を構成する局所特徴、及びそれぞれの領域に含まれる局所特徴の登場頻度を増加する。例えば、星印831〜833に囲まれた領域には、星印834が示す局所特徴が含まれるため、星印811〜813、831〜833に示す局所特徴のみならず、星印834に示す局所特徴の登場頻度も増加させる。登場頻度が増加した局所特徴は、ステップS317で局所特徴DB部204から削除されにくくなる。   Next, in step S504, for each of the past image A and the past image B, the local features constituting the similar region and the appearance frequency of the local features included in each region are increased. For example, since the region surrounded by the stars 831 to 833 includes the local feature indicated by the star 834, not only the local features indicated by the stars 811 to 813 and 831 to 833 but also the local feature indicated by the star 834 is displayed. Increases the frequency of appearance of features. The local feature whose appearance frequency has increased is less likely to be deleted from the local feature DB unit 204 in step S317.

ここで、一般に、ある類似領域に含まれる局所特徴は、その類似領域の検出に用いられたか否かに関わらず、その領域を構成する可能性が高い。また、同一の被写体を映したとしても、その画像から得られる局所特徴は撮影状況に応じて変化する。よって、削除されなかった局所特徴は、過去画像中に類似する局所特徴を持たないとしても、同一被写体に対する今後の撮影における被写体検出において、類似する局所特徴を持つ可能性、すなわち被写体検出可能性を向上させる。   Here, in general, a local feature included in a certain similar region is likely to constitute the region regardless of whether or not it is used for detection of the similar region. Even if the same subject is projected, the local features obtained from the image vary depending on the shooting situation. Therefore, even if local features that have not been deleted do not have similar local features in the past image, the possibility of having similar local features, i.e. subject detection possibility, in subject detection in future shooting of the same subject, Improve.

そして、ステップS505では、全ての局所特徴のうち、ステップS504で加算された登場頻度が少なく、かつ既定の条件を満たす局所特徴を選択する。ここで、既定の条件とは、撮影直後の画像に含まれる被写体を構成する局所特徴が削除されることを防ぐために設定される条件である。具体的には、局所特徴取得後に既定の撮影回数もしくは時間を経ていなければならない等を想定する。例えば、登場頻度が少ない局所特徴は星印801〜803、821、822、841〜844が挙げられる。かつ、局所特徴を選択する既定の条件として撮影後2枚を経ていることとすると、星印801〜803に示す局所特徴が選択される。   In step S505, among all the local features, a local feature having a low appearance frequency added in step S504 and satisfying a predetermined condition is selected. Here, the predetermined condition is a condition set in order to prevent the deletion of the local features constituting the subject included in the image immediately after shooting. Specifically, it is assumed that a predetermined number of times or time must have passed after acquiring local features. For example, the local features with a low appearance frequency include stars 801 to 803, 821, 822, and 841 to 844. Assuming that two images have been taken as a default condition for selecting a local feature, the local features indicated by stars 801 to 803 are selected.

図6は、図3のステップS315の詳細の手順の一例を示すフローチャートである。この処理は撮影画像の被写体領域と類似領域とを持つ過去画像に含まれ、かつ被写体領域に含まれない局所特徴を求めるものである。また、撮影画像の被写体領域の局所特徴群と、過去画像ごとの局所特徴群とを入力とする。   FIG. 6 is a flowchart illustrating an example of a detailed procedure of step S315 in FIG. This process is to obtain local features that are included in a past image having a subject region and a similar region of a photographed image and that are not included in the subject region. Further, the local feature group of the subject area of the captured image and the local feature group for each past image are input.

まず、ステップS601では、局所特徴の削除リストを初期化する。次に、ステップS602では、過去画像群中のそれぞれの過去画像について、ステップS603〜ステップS605を繰り返す。そして、ステップS603では、撮影画像の被写体領域と過去画像とで類似する部分領域を求める。なお、このステップS603は図4のステップS403と同様の処理であり、詳細については後述する。この処理では、例えば、撮影画像として図10(b)に示す被写体領域1001とし、過去画像と類似する領域として星印811〜813に囲まれた領域及び星印831〜833に囲まれた領域とする。   First, in step S601, a local feature deletion list is initialized. Next, in step S602, step S603 to step S605 are repeated for each past image in the past image group. In step S603, a similar partial area is obtained between the subject area of the captured image and the past image. This step S603 is the same processing as step S403 in FIG. 4, and details will be described later. In this process, for example, the subject area 1001 shown in FIG. 10B is taken as a captured image, and the area surrounded by stars 811 to 813 and the area surrounded by stars 831 to 833 are similar to past images. To do.

次に、ステップS604では、ステップS603で類似領域が存在するか否かを判定する。この判定の結果、類似領域が存在する場合はステップS605に進み、存在しない場合は、ステップS602のステップS603〜S605のループを継続する。   Next, in step S604, it is determined whether a similar area exists in step S603. As a result of the determination, if a similar region exists, the process proceeds to step S605, and if it does not exist, the loop of steps S603 to S605 in step S602 is continued.

ステップS605では、ステップS602で着目した過去画像に含まれる局所特徴のうち、類似領域に含まれない局所特徴の全てを削除リストに追加する。例えば、図8(c)に示す過去画像で星印831〜833に囲まれた領域が類似領域とされた場合、類似領域に含まれない星印841〜844が示す局所特徴を削除リストに追加する。   In step S605, all the local features not included in the similar region among the local features included in the past image focused in step S602 are added to the deletion list. For example, when the region surrounded by the stars 831 to 833 in the past image shown in FIG. 8C is a similar region, the local features indicated by the stars 841 to 844 not included in the similar region are added to the deletion list. To do.

ここで、星印834に示す局所特徴は類似する局所特徴が存在しないが、星印831〜833に囲まれた領域に含まれるため、削除リストには追加しない。このように図5のステップS504と同様、ある領域に含まれる局所特徴は被写体を構成すると想定し、積極的には削除しない。これにより、例えば星印831〜833で示される被写体を将来撮影し、かつ星印834に示す局所特徴に類似する局所特徴が得られた場合に、その被写体を検出する可能性を増加させることができる。   Here, the local feature indicated by the asterisk 834 does not have a similar local feature, but is included in the area surrounded by the asterisks 831 to 833, and thus is not added to the deletion list. As described above, as in step S504 in FIG. 5, it is assumed that local features included in a certain area constitute a subject and are not actively deleted. Thereby, for example, when the subject indicated by the star 831 to 833 is photographed in the future and a local feature similar to the local feature indicated by the star 834 is obtained, the possibility of detecting the subject is increased. it can.

図7は、ステップS403、ステップS503、及びステップS603の詳細な手順の一例を示すフローチャートである。この処理は、一対の画像<A,B>に共通に含まれる類似領域を求める処理であり、局所特徴比較部205により行われる。また、本処理は非特許文献2に示すRANSACとして知られるアルゴリズムに近いものである。このフローチャートはステップS701〜S704の画像間の類似局所特徴収集処理、ステップS705〜S709の画像間変換行列取得処理、及びステップS710〜S713の類似領域取得処理から構成される。   FIG. 7 is a flowchart illustrating an example of a detailed procedure of step S403, step S503, and step S603. This process is a process for obtaining a similar region commonly included in the pair of images <A, B>, and is performed by the local feature comparison unit 205. Further, this processing is close to an algorithm known as RANSAC shown in Non-Patent Document 2. This flowchart includes similar local feature collection processing between images in steps S701 to S704, inter-image transformation matrix acquisition processing in steps S705 to S709, and similar region acquisition processing in steps S710 to S713.

まず、ステップS701〜S704では、画像間で類似する局所特徴の対を収集する。そこで、ステップS701において、画像A内の局所特徴と画像B内の局所特徴との対応点のリストとその類似頻度とを用意し、初期化する。次に、ステップS702から画像A中の局所特徴Aと画像B中の局所特徴Bとの組み合わせの全てについて、ステップS703の処理を繰り返す。ステップS703では、画像A中の局所特徴Aと画像B中の局所特徴Bとの差が閾値以下なら、局所特徴Aと局所特徴Bとを対応点リストに追加し、その類似頻度を0とする。二つの局所特徴の差の導出法は任意であり、マンハッタン距離やユークリッド距離でもよいし、何らかの距離関数を設けてもよい。   First, in steps S701 to S704, pairs of local features that are similar between images are collected. Therefore, in step S701, a list of corresponding points between the local features in the image A and the local features in the image B and their similarity frequencies are prepared and initialized. Next, the process of step S703 is repeated for all combinations of the local feature A in the image A and the local feature B in the image B from step S702. In step S703, if the difference between the local feature A in the image A and the local feature B in the image B is equal to or smaller than the threshold value, the local feature A and the local feature B are added to the corresponding point list, and the similarity frequency is set to zero. . The method for deriving the difference between the two local features is arbitrary, and may be Manhattan distance or Euclidean distance, or some distance function may be provided.

次に、ステップS704では、ステップS703で求めた対応点リストのエントリ数が3以上あるか否かを判定する。この判定の結果、3以上である場合はステップS705に進み、2以下である場合は、2枚の画像は類似領域を持たないものとして処理を終了する。   Next, in step S704, it is determined whether the number of entries in the corresponding point list obtained in step S703 is three or more. As a result of the determination, if it is 3 or more, the process proceeds to step S705. If it is 2 or less, it is determined that the two images do not have a similar area, and the process ends.

次に、ステップS705〜S709で、画像Aから画像Bへの最尤の変換行列を求める。まず、ステップS705では、収束条件を満たすまで、ステップS706からステップS708を繰り返す。ここで、収束条件としては、統計的に意味のある程度に十分な回数が施行されたことである。具体的には、本実施形態の場合、対応点リスト中のエントリが5以下ならそのエントリ数、それ以上なら6回繰り返すものとする。   Next, in steps S705 to S709, a maximum likelihood conversion matrix from the image A to the image B is obtained. First, in step S705, steps S706 to S708 are repeated until the convergence condition is satisfied. Here, the convergence condition is that a sufficient number of times is statistically meaningful. Specifically, in the case of the present embodiment, if the number of entries in the corresponding point list is 5 or less, the number of entries is repeated.

まず、ステップS706では、対応点リストから任意の2対を選択し、その2対の座標に基づき、画像Aから画像Bへの変換行列を求める。この変換行列はアフィン変換行列であり、任意の2点の対から求められ、拡大縮小、平行移動、回転を一括して表現する。次に、ステップS707からステップS708で、ステップS706で設定した2対が確からしいか否かを検定する。具体的には、まず、ステップS703で求めた対応点リストに含まれる1対の点<a,b>をいくつか選択する。次に、そのそれぞれについて、ステップS706で求めた行列により、画像A上の点aを画像B上の点a′に変換する。その後、bとa′の差が閾値以下であれば、対応点リスト中の3対それぞれの類似頻度を追加する。ここで、二つの局所特徴の差の導出法はステップS703と同一である。   First, in step S706, two arbitrary pairs are selected from the corresponding point list, and a conversion matrix from image A to image B is obtained based on the two pairs of coordinates. This transformation matrix is an affine transformation matrix, which is obtained from an arbitrary pair of two points, and expresses enlargement / reduction, translation, and rotation collectively. Next, in steps S707 to S708, it is verified whether or not the two pairs set in step S706 are likely. Specifically, first, some pairs of points <a, b> included in the corresponding point list obtained in step S703 are selected. Next, for each of them, the point a on the image A is converted into the point a ′ on the image B by the matrix obtained in step S706. Thereafter, if the difference between b and a ′ is equal to or smaller than the threshold value, three pairs of similar frequencies in the corresponding point list are added. Here, the method for deriving the difference between the two local features is the same as in step S703.

次に、ステップS709で、対応点リストにおける類似頻度が最大の2対を選択し、この2対の座標に基づき、画像Aから画像Bへの変換行列を求める。   Next, in step S709, two pairs having the maximum similarity frequency in the corresponding point list are selected, and a conversion matrix from image A to image B is obtained based on the two pairs of coordinates.

次に、ステップS710からステップS713で、2枚の画像間で類似する領域を求める。まず、ステップS710では、対応点リスト中の点Cの対<a,b>のそれぞれについて、ステップS711を繰り返す。ステップS711では、ステップS709で求めた変換行列により画像A中のa点を画像B上の点a′に変換し、a′とbとの距離が閾値以上なら、対<a,b>を対応点リストから削除する。ここで、二つの局所特徴の差の導出法はステップS703と同一である。   Next, in steps S710 to S713, a region similar between the two images is obtained. First, in step S710, step S711 is repeated for each pair <a, b> of point C in the corresponding point list. In step S711, the point a in the image A is converted to the point a ′ on the image B by the conversion matrix obtained in step S709. If the distance between a ′ and b is equal to or greater than the threshold, the pair <a, b> is associated. Delete from the point list. Here, the method for deriving the difference between the two local features is the same as in step S703.

次に、ステップS712では、画像Aと画像Bが類似領域を持つか否かを判定する。このとき、ステップS710からステップS711において対応点リストのエントリを削除してもなおそのエントリ数が3以上残るなら、類似領域を持つと判定する。この判定の結果、エントリ数が3以上である場合はステップS713に進み、2以下である場合は、画像Aと画像Bとでは類似領域を持たないものとして処理を終了する。   Next, in step S712, it is determined whether or not the image A and the image B have a similar region. At this time, even if an entry in the corresponding point list is deleted in steps S710 to S711, if the number of entries remains three or more, it is determined that the similar area is present. As a result of this determination, if the number of entries is 3 or more, the process proceeds to step S713. If it is 2 or less, the processing is terminated assuming that the image A and the image B do not have a similar area.

最後に、ステップS713では、画像A、画像Bそれぞれについて、対応点リストに残った点を包含する多角形を求める。画像A、画像Bのそれぞれの上における多角形が画像A、画像Bに共通して含まれる類似領域である。   Finally, in step S713, for each of the images A and B, a polygon that includes the points remaining in the corresponding point list is obtained. The polygons on the images A and B are similar regions that are included in both the images A and B in common.

以上、本実施形態は、登録後既定の撮影枚数を経過した局所特徴を判定し、登録後既定の時間を経過した局所特徴を判定し、判定された局所特徴を削除するステップS317を備える。これにより、局所特徴数の上限を抑え、図7のフローチャートにおける計算量の上限を制限する事ができる。   As described above, the present embodiment includes the step S317 of determining a local feature that has passed a predetermined number of shots after registration, determining a local feature that has passed a predetermined time after registration, and deleting the determined local feature. Thereby, the upper limit of the number of local features can be suppressed, and the upper limit of the calculation amount in the flowchart of FIG. 7 can be limited.

また、本実施形態では、主被写体を構成しない局所特徴を判定するステップS313で、過去の画像の任意の組み合わせについて被写体領域を求めるステップS503を備える。さらに、局所特徴ごとに被写体領域に含まれた回数を求めるステップS504と、上記回数に基づき主被写体を構成するか否かを判定するステップS505とを備える。これにより、同一被写体に対する撮影において、被写体検出可能性を向上させる。   Further, in the present embodiment, in step S313 for determining a local feature that does not constitute the main subject, a step S503 for obtaining a subject region for an arbitrary combination of past images is provided. Furthermore, step S504 which calculates | requires the frequency | count included in the to-be-photographed object area | region for every local feature, and step S505 which determines whether a main subject is comprised based on the said frequency | count are provided. This improves the subject detection possibility in shooting the same subject.

また、本実施形態では、取得した画像上の被写体領域の指示を受け付けるステップS202と、登録した局所特徴について上記取得した画像上の被写体領域と類似する領域を持つか否かを判定するステップS604とを備える。さらに、上記類似領域を持つと判定された画像に含まれ、かつ上記類似領域に含まれない局所特徴群を削除するステップS605及びステップS317を備える。これにより、一度被写体に含まれないと指示された局所特徴は今後の撮影において検出されないようにすることができる。   Further, in the present embodiment, step S202 for receiving an instruction of a subject area on the acquired image, and step S604 for determining whether or not the registered local feature has an area similar to the subject area on the acquired image. Is provided. Furthermore, steps S605 and S317 are included for deleting local feature groups that are included in the image determined to have the similar region and are not included in the similar region. Thereby, it is possible to prevent a local feature once instructed not to be included in the subject from being detected in future imaging.

また、特許文献2には、局所的顕著性、すなわちある部分がその背景に対してどれだけ目立っているか、の自動測定に基づき、画像中から主要被写体を検出する手法が開示されている。しかし、特許文献2に記載の手法では、例えば花畑で蝶を撮影する場合など、より局所的顕著性の高い領域が背景に入る場合などに結果が不定となる。これに対して本実施形態においては、ステップS408に基づく被写体領域の決定においては、被写体領域は局所特徴に基づく類似領域の検出及びその頻度に基づく。すなわち、背景から得られる局所特徴は類似領域の頻度の導出において考慮されないため、背景の変化に対し剛健である。   Patent Document 2 discloses a technique for detecting a main subject in an image based on automatic measurement of local saliency, that is, how conspicuous a part is with respect to the background. However, in the method described in Patent Document 2, the result is undefined when a region having higher local saliency enters the background, for example, when a butterfly is photographed in a flower field. On the other hand, in the present embodiment, in the determination of the subject area based on step S408, the subject area is based on the detection of the similar area based on the local feature and the frequency thereof. That is, the local feature obtained from the background is not considered in the derivation of the frequency of the similar region, and is robust against changes in the background.

また、特許文献3には、タッチパネルで主要被写体領域を指定するユーザインターフェースに基づく被写体検出手法が開示されている。特許文献3に記載の手法では撮影直前にユーザの操作が必要であるが、鉄道などの動きの激しい物体やあるいは飛ぶ蝶など軌道が不定な物体の撮影においてユーザ操作が困難である。これに対して本実施形態においては、ステップS305による被写体領域の検出には、タッチパネルの類の操作は不要である。   Patent Document 3 discloses a subject detection method based on a user interface for designating a main subject area on a touch panel. The technique described in Patent Document 3 requires a user operation immediately before shooting, but it is difficult to perform a user operation in shooting a moving object such as a railway or an object with an undefined trajectory such as a flying butterfly. On the other hand, in the present embodiment, the operation of the touch panel is not necessary for the detection of the subject area in step S305.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

201 画像取得部、202 被写体領域指示部、203 局所特徴取得部、204 局所特徴DB部、205 局所特徴比較部、206 被写体領域取得部、207 局所特徴学習部 201 Image acquisition unit, 202 Subject area instruction unit, 203 Local feature acquisition unit, 204 Local feature DB unit, 205 Local feature comparison unit, 206 Subject region acquisition unit, 207 Local feature learning unit

Claims (3)

画像を取得するごとに画像の局所特徴を取得する手段と、
前記取得した局所特徴を登録あるいは削除する手段と、
前記取得した画像上の局所特徴と過去に登録された局所特徴との比較に基づき過去の画像と前記取得した画像とで類似する領域を求める手段と、
前記類似する領域の組み合わせのそれぞれが重複する部分領域を持つ頻度に基づき被写体領域を取得する手段とを備えることを特徴とする画像処理装置。
Means for acquiring local features of the image each time an image is acquired;
Means for registering or deleting the acquired local features;
Means for obtaining a similar region between the past image and the acquired image based on a comparison between the local feature on the acquired image and a local feature registered in the past;
An image processing apparatus comprising: means for acquiring a subject region based on a frequency at which each combination of similar regions has a partial region that overlaps.
画像を取得するごとに画像の局所特徴を取得する工程と、
前記取得した局所特徴を登録あるいは削除する工程と、
前記取得した画像上の局所特徴と過去に登録された局所特徴との比較に基づき過去の画像と前記取得した画像とで類似する領域を求める工程と、
前記類似する領域の組み合わせのそれぞれが重複する部分領域を持つ頻度に基づき被写体領域を取得する工程とを備えることを特徴とする画像処理方法。
Acquiring local features of the image each time an image is acquired;
Registering or deleting the acquired local features;
Obtaining a similar region between the past image and the acquired image based on a comparison between the local feature on the acquired image and a local feature registered in the past;
And a step of acquiring a subject region based on a frequency at which each combination of similar regions has a partial region that overlaps.
請求項2に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 2.
JP2010189858A 2010-08-26 2010-08-26 Image processing apparatus, image processing method, and program Active JP5582924B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010189858A JP5582924B2 (en) 2010-08-26 2010-08-26 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010189858A JP5582924B2 (en) 2010-08-26 2010-08-26 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2012049815A true JP2012049815A (en) 2012-03-08
JP5582924B2 JP5582924B2 (en) 2014-09-03

Family

ID=45904184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010189858A Active JP5582924B2 (en) 2010-08-26 2010-08-26 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5582924B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219912A (en) * 2016-06-03 2017-12-14 富士通株式会社 Image processor, image area detection method and image area detection program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2009055432A (en) * 2007-08-28 2009-03-12 Sony Corp Photographing apparatus, photographing method and program
JP2010026603A (en) * 2008-07-15 2010-02-04 Canon Inc Image processor, image processing method and computer program
JP2010044516A (en) * 2008-08-11 2010-02-25 Omron Corp Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling electronic device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005341017A (en) * 2004-05-25 2005-12-08 Casio Comput Co Ltd Camera apparatus and program
JP2009055432A (en) * 2007-08-28 2009-03-12 Sony Corp Photographing apparatus, photographing method and program
JP2010026603A (en) * 2008-07-15 2010-02-04 Canon Inc Image processor, image processing method and computer program
JP2010044516A (en) * 2008-08-11 2010-02-25 Omron Corp Detection information registration device, electronic device, method for controlling detection information registration device, method for controlling electronic device, program for controlling detection information device, and program for controlling electronic device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017219912A (en) * 2016-06-03 2017-12-14 富士通株式会社 Image processor, image area detection method and image area detection program

Also Published As

Publication number Publication date
JP5582924B2 (en) 2014-09-03

Similar Documents

Publication Publication Date Title
US11012614B2 (en) Image processing device, image processing method, and program
US9338311B2 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
KR100996066B1 (en) Face-image registration device, face-image registration method, face-image registration program, and recording medium
US9648229B2 (en) Image processing device and associated methodology for determining a main subject in an image
JP6961797B2 (en) Methods and devices for blurring preview photos and storage media
JP4862930B2 (en) Image processing apparatus, image processing method, and program
WO2019137131A1 (en) Image processing method, apparatus, storage medium, and electronic device
JP2004222118A (en) Photographing equipment
US10146992B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP2017076288A (en) Information processor, information processing method and program
JP2011095862A (en) Apparatus and method for processing image and program
CN110581950B (en) Camera, system and method for selecting camera settings
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP5582924B2 (en) Image processing apparatus, image processing method, and program
JP2018097490A (en) Information processor, method and program
JP2018049559A (en) Image processor, image processing method, and program
JP3962607B2 (en) Image processing apparatus and method, program, and storage medium
JP2016081095A (en) Subject tracking device, control method thereof, image-capturing device, display device, and program
JP2011239120A (en) Electronic camera
CN112188075B (en) Snapshot, image processing device and image processing method
JP6632134B2 (en) Image processing apparatus, image processing method, and computer program
KR101662738B1 (en) Method and apparatus of processing image
JP2016162421A (en) Information processor, information processing method and program
JP5896781B2 (en) Image processing apparatus and image processing method
JP2014044525A (en) Subject recognition device and control method thereof, imaging device, display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140715

R151 Written notification of patent or utility model registration

Ref document number: 5582924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151