JP2008028890A - Imaging apparatus, imaging method, and imaging program - Google Patents

Imaging apparatus, imaging method, and imaging program Download PDF

Info

Publication number
JP2008028890A
JP2008028890A JP2006201682A JP2006201682A JP2008028890A JP 2008028890 A JP2008028890 A JP 2008028890A JP 2006201682 A JP2006201682 A JP 2006201682A JP 2006201682 A JP2006201682 A JP 2006201682A JP 2008028890 A JP2008028890 A JP 2008028890A
Authority
JP
Japan
Prior art keywords
pixel area
comparison
comparison pixel
pixel region
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006201682A
Other languages
Japanese (ja)
Other versions
JP4807623B2 (en
Inventor
Toshiya Kiso
俊也 木曽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006201682A priority Critical patent/JP4807623B2/en
Publication of JP2008028890A publication Critical patent/JP2008028890A/en
Application granted granted Critical
Publication of JP4807623B2 publication Critical patent/JP4807623B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the followup accuracy of following an object by means of a block matching. <P>SOLUTION: The imaging apparatus comprises: an attentional pixel region extracting means (6d) for extracting an attentional pixel region (15) from a predetermined frame image; a comparison pixel region extracting means (6e) for extracting a comparison pixel region (20) sequentially from a present frame image; a correlation degree deriving means (6f) for deriving a degree of correlation between each comparison pixel region and the attentional pixel region; a correlation degree correcting means (6h) for correcting each degree of correlation based on a correlation degree correction map (6g) wherein a correction coefficient is preset, and deriving a corrected degree of correlation for each comparison pixel region; and a comparison pixel region selecting means (6i) for selecting a comparison pixel region from the comparison pixel regions based on the corrected degree of correlation. When a predetermined new frame image is acquired, the attentional pixel region extracting means extracts the comparison pixel region selected by the comparison pixel region selecting means as a new attentional pixel region. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、撮像装置、撮像方法及び撮像プログラムに関し、たとえば、電子ファインダを備えたデジタルカメラ等に適用して好適な撮像装置、撮像方法及び撮像プログラムに関する。   The present invention relates to an image pickup apparatus, an image pickup method, and an image pickup program.

デジタルカメラの多くは、液晶ディスプレイなどの電子ファインダを備えている。かかるデジタルカメラにおいては、CCD等の撮像素子から周期的に出力されるフレーム画像(いわゆるスルー画像)が電子ファインダに写し出されるので、撮影者は、そのスルー画像を見ながら、構図を調節したりズーム倍率を調節したりできるようになっている。   Many digital cameras have an electronic viewfinder such as a liquid crystal display. In such a digital camera, a frame image (so-called through image) periodically output from an image sensor such as a CCD is displayed on an electronic viewfinder, so that a photographer can adjust the composition or zoom while viewing the through image. You can adjust the magnification.

一方、今日のデジタルカメラに搭載されている撮像素子の画素数は増加の一途を辿っており、機種によってはギガレベルの画素数を持つものも出現しているが、たとえば、パソコンのディスプレイで鑑賞するには、VGA(640×480画素)やXGA(1024×768画素)程度の画素数でも充分であることから、所望により、フルサイズ画像の画素を間引いて縮小したり、又は、フルサイズ画像の所望部分を切り出してトリミングしたりして、必要充分な画素数の画像(したがって、ファイルサイズの小さな画像)を生成し、その画像を半導体メモリ等の記憶要素に保存したり、パソコン等に出力したりできるようになっている。   On the other hand, the number of pixels of image sensors mounted on today's digital cameras has been increasing, and some models with giga-level pixels have appeared. Therefore, the number of pixels of about VGA (640 × 480 pixels) or XGA (1024 × 768 pixels) is sufficient, so if desired, the pixels of the full-size image can be reduced or reduced. Cut out and trim the desired part to generate an image with the necessary and sufficient number of pixels (and therefore an image with a small file size), save the image in a storage element such as a semiconductor memory, or output it to a personal computer You can also.

さて、上記のトリミングの方法としては、たとえば、電子ファインダ上のスルー画像に、トリミング用の参照枠(以下、トリミング枠;図2のトリミング枠25参照)を重畳表示し、そのトリミング枠内に被写体が入るようにカメラの向きを調節した後、シャッタボタンを全押しして、そのトリミング枠内の画像を半導体メモリ等の記憶要素に保存格納することが考えられる。   As the above trimming method, for example, a trimming reference frame (hereinafter referred to as a trimming frame; see the trimming frame 25 in FIG. 2) is superimposed on a through image on an electronic viewfinder, and a subject is included in the trimming frame. After adjusting the direction of the camera so as to enter, it is conceivable that the shutter button is fully pressed and the image in the trimming frame is stored and stored in a storage element such as a semiconductor memory.

しかしながら、かかるトリミング方法は、トリミング枠に被写体を入れる操作が必要であり、とりわけ、子供のように動き回る被写体に対しては使い勝手が悪いという不都合がある。その理由は、トリミング枠の大きさが電子ファインダの画面サイズに比べて数分の1程度に小さいからであり、この小さなトリミング枠に、動き回る被写体を入れ続けるのが相当困難であるからである。   However, such a trimming method requires an operation of placing a subject in a trimming frame, and is particularly inconvenient for a subject that moves around like a child. The reason is that the size of the trimming frame is about a fraction of the screen size of the electronic viewfinder, and it is quite difficult to keep moving subjects in this small trimming frame.

そこで、被写体の動きに合わせてトリミング枠を動かすこと、つまり、「追従トリミング撮影」が考えられる。このためには、たとえば、シャッタボタン半押し時に表示されるピント合わせ指標(いわゆる合焦マーク;図2の合焦マーク22参照)内の合焦部分(ピントが合った被写体の一部)が常にトリミング枠の中央に位置するように、電子ファインダ上のトリミング枠の位置を追従制御すればよい。   Therefore, moving the trimming frame in accordance with the movement of the subject, that is, “following trimming shooting” can be considered. For this purpose, for example, the in-focus portion (a part of the in-focus subject) in the focus index (so-called focus mark; see the focus mark 22 in FIG. 2) displayed when the shutter button is half-pressed is always present. The position of the trimming frame on the electronic viewfinder may be controlled so as to be positioned at the center of the trimming frame.

このことを実際の撮影状況で説明すると、撮影者は、まず、カメラの「追従トリミング撮影」の機能をオンにし、そのカメラを動き回る被写体に向けて構える。このとき、電子ファインダの中央には合焦マークが表示されている。次いで、シャッタボタンを半押しすると、合焦マークの周囲にトリミング枠が表示され、同時に、合焦マーク内の被写体の一部にピントが合うので、被写体が静止している場合には、そのままシャッタボタンを全押しすればよく、一方、被写体が動いている場合には、「追従トリミング撮影」の機能により、被写体の動きに追従して合焦マークとトリミング枠が一緒に移動するので、所望のタイミングでシャッタボタンを全押しすればよい。このように、被写体の静止/移動にかかわらず、いずれの場合にも、適切な構図のトリミング画像を得ることができる。   To explain this in the actual shooting situation, the photographer first turns on the “tracking trimming shooting” function of the camera and holds the camera toward the moving subject. At this time, an in-focus mark is displayed at the center of the electronic viewfinder. Next, when the shutter button is pressed halfway, a trimming frame is displayed around the focus mark, and at the same time, a part of the subject within the focus mark is focused. When the subject is moving, the focus tracking and trimming frame move together following the subject's movement using the “following trimming shooting” function. The shutter button may be fully pressed at the timing. In this way, a trimmed image with an appropriate composition can be obtained in any case regardless of whether the subject is stationary or moving.

ところで、上記の「追従トリミング撮影」の機能を実現するためには、スルー画像(撮像素子から周期的に出力されるフレーム画像)の注目画素領域(上記の合焦部分又はそれに相当する部分)を各フレーム画像にわたって自動追尾(自動追従)する必要がある。この自動追尾に適用可能な従来技術としては、たとえば、下記の特許文献1に記載されているような、テンプレートマッチング(ブロックマッチングともいう)を用いた技術がある。   By the way, in order to realize the function of the “following trimming photographing”, the target pixel region (the in-focus portion or the portion corresponding thereto) of the through image (the frame image periodically output from the image sensor) is obtained. It is necessary to perform automatic tracking (automatic tracking) over each frame image. As a conventional technique applicable to this automatic tracking, for example, there is a technique using template matching (also referred to as block matching) as described in Patent Document 1 below.

この技術では、前フレーム画像から切り出されたテンプレート(上記の注目画素領域に相当)に類似する小画像領域を現フレーム画像から探索すると共に、探索された小画像領域のうち最も類似度が高いものを追尾対象領域として特定し、この動作を、連続するフレーム画像間でテンプレートを逐次更新しながら繰り返していくというものである。なお、テンプレートは8×8画素程度のブロック(画素の集まり)であることから、テンプレートマッチングはブロックマッチングとも呼ばれる。   In this technique, a small image area similar to a template cut out from the previous frame image (corresponding to the above noted pixel area) is searched from the current frame image, and the highest similarity among the searched small image areas Is identified as a tracking target region, and this operation is repeated while sequentially updating the template between successive frame images. Since the template is a block (collection of pixels) of about 8 × 8 pixels, template matching is also called block matching.

この従来技術における小画像領域の探索の仕方は、テンプレートを1画素ずつずらしながら現フレーム画像に重ね合わせて、テンプレートと同じ大きさの小画像領域内の各画素ごとに、輝度値の差の絶対値を合計して一致の程度を表す結果スコアを求めるというものであり、この結果スコアは、一致度が高いほどスコア値が小さくなり、完全一致の場合は0となるようになっており、したがって、上記の従来技術では、スコア値が最小(0又は0に限りなく近い)の小画像領域を追尾するように動作するというものである。   In this conventional technique, the small image area is searched by superimposing the template on the current frame image while shifting the pixel one pixel at a time, and calculating the absolute value of the difference in luminance value for each pixel in the small image area having the same size as the template. The result score that represents the degree of matching is obtained by summing the values. The score of the result is smaller as the degree of matching is higher, and is 0 in the case of perfect matching. In the above-described conventional technique, the operation is performed so as to track the small image area having the minimum score value (0 or close to 0 as much as possible).

特開2001−76156号公報JP 2001-76156 A

しかしながら、上記従来技術は、スコア値が最小の小画像領域を追尾するように動作するが、その追尾性能は充分でなく、しばしば間違った小画像領域を追尾してしまうという問題点がある。たとえば、撮影構図内に複数の動く被写体が存在しているとき、そのうちの一つの被写体(以下、真被写体)を追尾しようとする場合に、真被写体の追尾途中に他の被写体(以下、偽被写体)を間違って追尾してしまうことがある。これは、状況によって、「真被写体のスコア値>偽被写体のスコア値」の関係、つまり、偽被写体のスコア値が、真被写体のスコア値よりも小さくなってしまうことがあり得るからである。   However, the above-described conventional technique operates to track a small image area having the smallest score value, but the tracking performance is not sufficient, and there is a problem in that the wrong small image area is often tracked. For example, when there are multiple moving subjects in the shooting composition, when trying to track one of those subjects (hereinafter referred to as a true subject), another subject (hereinafter referred to as a false subject) is being tracked during the tracking of the true subject. ) May be tracked incorrectly. This is because the “true subject score value> fake subject score value” relationship, that is, the false subject score value may be smaller than the true subject score value depending on the situation.

そこで、本発明の目的は、ブロックマッチングによる被写体追従の追従精度を向上することにあり、詳しくは、似たような動きの領域が存在した場合であっても、当初に設定した真の領域を正確に追尾し続けることができる撮像装置、撮像方法及び撮像プログラムを提供することにある。   Therefore, an object of the present invention is to improve the tracking accuracy of subject tracking by block matching. Specifically, even if a similar motion region exists, the true region set at the beginning is determined. It is an object to provide an imaging apparatus, an imaging method, and an imaging program that can keep tracking accurately.

請求項1記載の発明は、順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従手段を備えた撮像装置であって、前記被写体追従手段は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正手段と、前記相関度補正手段により導出された補正相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像装置である。
請求項2記載の発明は、前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、を更に備え、前記比較画素領域抽出手段は、前記探索範囲設定手段により設定された探索範囲内で比較画素領域を抽出することを特徴とする請求項1記載の撮像装置である。
請求項3記載の発明は、前記探索範囲設定手段は、前記位置導出手段により導出された位置が、探索範囲の実質的な中央となるように探索範囲を設定することを特徴とする請求項2記載の撮像装置である。
請求項4記載の発明は、前記相関度補正マップは、前記探索範囲に対して周辺に位置する比較画素領域よりも中央側に位置する比較画素領域の方が、注目画素領域との相関度が高くなるように補正係数が設定されていることを特徴とする請求項3記載の撮像装置である。
請求項5記載の発明は、前記比較画素領域選択手段は、前記相関度補正手段により導出された補正相関度に基づいて、注目画素領域との相関度が高い比較画素領域を1領域選択することを特徴とする請求項2乃至4いずれかに記載の撮像装置である。
請求項6記載の発明は、前記比較画素領域選択手段は、前記相関度補正手段により導出された補正相関度に基づいて、注目画素領域との相関度が高い比較画素領域を上位から所定数領域だけ選択する第一比較画素領域選択手段と、前記第一比較画素領域選択手段により選択された比較画素領域から、前記探索範囲設定手段により設定された探索範囲の中央位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、新たな現フレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする請求項2乃至4いずれかに記載の撮像装置である。
請求項7記載の発明は、前記注目画素領域抽出手段は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出する第一注目画像領域抽出手段と、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出する第二注目画像領域抽出手段とを備え、前記相関度導出手段は、前記比較画素領域抽出手段により抽出された各比較画素領域と前記第二注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出し、前記相対位置導出手段は、前記第一注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する相対位置を導出することを特徴とする請求項2乃至6いずれかに記載の撮像装置である。
請求項8記載の発明は、前記相関度導出手段は、前記注目画素領域の各画素データと前記比較画素領域の各画素データに基づいた差分2乗和として相関度を導出することを特徴とする請求項1乃至7いずれかに記載の撮像装置である。
請求項9記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段を備えた撮像装置であって、前記被写体追従手段は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された相関度に基づいて、前記注目画素領域抽出手段により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択手段と、前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、前記第一比較画素領域選択手段により選択された比較画素領域から、前記位置導出手段により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像装置である。
請求項10記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段を備えた撮像装置であって、前記被写体追従手段は、所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出手段と、前記注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、前記探索範囲設定手段により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像装置である。
請求項11記載の発明は、順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従工程を含む撮像方法であって、前記被写体追従工程は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出工程と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された注目画素領域との相関度を導出する相関度導出工程と、前記相関度導出工程により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正工程と、前記相関度補正工程により導出された補正相関度に基づいて、前記比較画素領域抽出工程により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択工程と、を含み、前記注目画素領域抽出工程は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択工程により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像方法である。

請求項12記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従工程を含む撮像方法であって、前記被写体追従工程は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出工程と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された注目画素領域との相関度を導出する相関度導出工程と、前記相関度導出工程により導出された相関度に基づいて、前記注目画素領域抽出工程により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択工程と、前記注目画素領域抽出工程により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出工程と、前記第一比較画素領域選択工程により選択された比較画素領域から、前記位置導出工程により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択工程と、を含み、前記注目画素領域抽出工程は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択工程により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像方法である。
請求項13記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従工程を含む撮像方法であって、前記被写体追従工程は、所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出工程と、前記注目画素領域抽出工程により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出工程と、前記位置導出工程により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定工程と、前記探索範囲設定工程により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された第二注目画素領域との相関度を導出する相関度導出工程と、前記相関度導出工程により導出された相関度に基づいて、前記比較画素領域抽出工程により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択工程と、を含み、前記注目画素領域抽出工程は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択工程により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択工程により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像方法である。
請求項14記載の発明は、順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従手段をコンピュータに実現させるための撮像プログラムであって、前記被写体追従手段は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正手段と、前記相関度補正手段により導出された補正相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像プログラムである。

請求項15記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段をコンピュータに実現させるための撮像プログラムであって、前記被写体追従手段は、所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された相関度に基づいて、前記注目画素領域抽出手段により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択手段と、前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、前記第一比較画素領域選択手段により選択された比較画素領域から、前記位置導出手段により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像プログラムである。
請求項16記載の発明は、順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段をコンピュータに実現させるための撮像プログラムであって、前記被写体追従手段は、所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出手段と、前記注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、前記探索範囲設定手段により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出する相関度導出手段と、前記相関度導出手段により導出された相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、前記注目画素領域抽出手段は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像プログラムである。
The invention according to claim 1 is an imaging apparatus including a subject tracking unit that tracks a subject whose position changes in sequentially acquired frame images by block matching, and the subject tracking unit includes a predetermined tracking unit. Pixel area extraction means for extracting a pixel area of interest from the frame image of the image, comparison pixel area extraction means for sequentially extracting a predetermined comparison pixel area from the current frame image, and each of the pixel areas extracted by the comparison pixel area extraction means Correlation degree deriving means for deriving the degree of correlation between the comparison pixel area and the target pixel area extracted by the target pixel area extracting means, and a correction coefficient for each correlation degree derived by the correlation degree deriving means is preset. A correlation degree correcting means for deriving a corrected correlation degree for each of the comparison pixel regions by correcting based on a correlation degree correction map, and a correlation degree correcting means Comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means on the basis of the corrected correlation degree that is output, and the target pixel area extraction means The imaging apparatus is characterized in that when a predetermined new frame image is acquired, the comparison pixel area selected by the comparison pixel area selection means is extracted as a new target pixel area.
According to a second aspect of the present invention, a position deriving unit for deriving a position of the target pixel region extracted by the target pixel region extracting unit with respect to the frame image, and a current frame based on the position derived by the position deriving unit. Search range setting means for setting a search range in an image, wherein the comparison pixel area extraction means extracts a comparison pixel area within the search range set by the search range setting means. The imaging apparatus according to Item 1.
The invention according to claim 3 is characterized in that the search range setting means sets the search range so that the position derived by the position deriving means is substantially the center of the search range. It is an imaging device of description.
According to a fourth aspect of the present invention, in the correlation degree correction map, the comparison pixel area located closer to the center than the comparison pixel area located around the search range has a correlation degree with the target pixel area. The imaging apparatus according to claim 3, wherein the correction coefficient is set to be higher.
According to a fifth aspect of the present invention, the comparison pixel area selection unit selects one comparison pixel area having a high degree of correlation with the target pixel area based on the corrected correlation degree derived by the correlation degree correction unit. The imaging apparatus according to claim 2, wherein:
According to a sixth aspect of the present invention, the comparison pixel area selecting unit selects a predetermined number of comparison pixel areas having a high degree of correlation with the target pixel area based on the corrected correlation degree derived by the correlation degree correcting unit. A first comparison pixel area selection means that selects only the comparison pixel area selected by the first comparison pixel area selection means and a comparison that is closest to the center position of the search range set by the search range setting means Second comparison pixel area selection means for selecting one pixel area, and the target pixel area extraction means is selected by the second comparison pixel area selection means when a new current frame image is acquired. The imaging device according to claim 2, wherein the comparison pixel region is extracted as a new target pixel region.
According to the seventh aspect of the present invention, the target pixel region extracting unit sets the comparison pixel region selected by the comparison pixel region selection unit as a new first target pixel region every time a new current frame image is acquired. Each time a new current frame image is acquired a predetermined number of times, a comparison pixel area selected by the comparison pixel area selection means is extracted as a new second attention pixel area. Second attention image area extraction means, wherein the correlation degree derivation means includes each comparison pixel area extracted by the comparison pixel area extraction means and second attention pixel area extracted by the second attention pixel area extraction means. The relative position deriving unit derives the relative position of the first target pixel region extracted by the first target pixel region extracting unit with respect to the frame image. Preparative an image pickup apparatus according to claim 2 to 6, wherein.
The invention according to claim 8 is characterized in that the correlation degree deriving means derives a correlation degree as a sum of squared differences based on each pixel data of the target pixel area and each pixel data of the comparison pixel area. An imaging apparatus according to claim 1.
The invention according to claim 9 is an imaging apparatus including a subject tracking unit that tracks a subject by block matching based on sequentially acquired frame images, wherein the subject tracking unit extracts a target pixel region from a predetermined frame image. A target pixel area extracting means for extracting, a comparison pixel area extracting means for sequentially extracting a predetermined comparison pixel area from the current frame image, each comparison pixel area extracted by the comparison pixel area extracting means and the target pixel area Correlation degree deriving means for deriving the degree of correlation with the target pixel area extracted by the extraction means, and the target pixel area extracted by the target pixel area extraction means based on the correlation degree derived by the correlation degree deriving means A first comparison pixel region selection unit that selects a predetermined number of comparison pixel regions having a high degree of correlation with the target pixel region extraction unit A position deriving unit for deriving a position of the issued pixel region of interest with respect to the frame image, and a position closest to the position derived by the position deriving unit from the comparison pixel region selected by the first comparison pixel region selecting unit A second comparison pixel region selection unit that selects one comparison pixel region in the region, and the target pixel region extraction unit selects the second comparison pixel region when a predetermined new frame image is acquired. The comparison device region selected by the means is extracted as a new pixel region of interest.
The invention according to claim 10 is an imaging apparatus including subject tracking means for tracking a subject by block matching based on sequentially acquired frame images, wherein the subject tracking means is configured to detect a first target pixel from a predetermined frame image. Attention pixel region extraction means for extracting a region or second attention pixel region, position derivation means for deriving a position of the first attention pixel region extracted by the attention pixel region extraction means with respect to the frame image, and the position derivation means Search range setting means for setting a search range in the current frame image based on the position derived by the above, and a comparison pixel for sequentially extracting a predetermined comparison pixel area from the search range set by the search range setting means A region extraction unit, a comparison pixel region extracted by the comparison pixel region extraction unit, and a target pixel region extraction unit. Correlation degree deriving means for deriving the degree of correlation with the extracted second target pixel area, and each comparison pixel extracted by the comparison pixel area extracting means based on the degree of correlation derived by the correlation degree deriving means Comparison pixel area selection means for selecting a predetermined comparison pixel area from the area, and the target pixel area extraction means is selected by the comparison pixel area selection means each time a new current frame image is acquired. The comparison pixel area is extracted as a new first target pixel area, and each time a new current frame image is acquired a predetermined number of times, the comparison pixel area selected by the comparison pixel area selection unit is newly set as a second second attention area. An imaging apparatus is characterized in that it is extracted as a pixel region.
The invention according to claim 11 is an imaging method including a subject tracking step of performing tracking by block matching on a subject whose position changes in each sequentially acquired frame image, wherein the subject tracking step includes a predetermined tracking step. A target pixel region extraction step for extracting a target pixel region from the frame image, a comparison pixel region extraction step for sequentially extracting a predetermined comparison pixel region from the current frame image, and each comparison extracted by the comparison pixel region extraction step A correlation degree deriving step for deriving a degree of correlation between the pixel area and the target pixel area extracted by the target pixel area extracting step, and a correction coefficient for each correlation degree derived by the correlation degree deriving step is set in advance. A correlation degree correcting step for deriving a corrected correlation degree for each of the comparison pixel regions by correcting based on a correlation degree correcting map, and a correlation degree correcting step A comparison pixel region selection step of selecting a predetermined comparison pixel region from each comparison pixel region extracted by the comparison pixel region extraction step on the basis of the corrected correlation degree that is output, and the target pixel region extraction step When the predetermined new frame image is acquired, the comparison pixel area selected in the comparison pixel area selection step is extracted as a new target pixel area.

The invention according to claim 12 is an imaging method including a subject tracking step of tracking a subject by block matching based on sequentially acquired frame images, and the subject tracking step extracts a pixel region of interest from a predetermined frame image. A target pixel region extraction step, a comparison pixel region extraction step for sequentially extracting a predetermined comparison pixel region from the current frame image, each comparison pixel region extracted by the comparison pixel region extraction step, and the target pixel region extraction A degree-of-correlation step for deriving a degree of correlation with the target pixel region extracted by the step, and a target pixel region extracted by the target pixel region extraction step based on the degree of correlation derived by the degree-of-correlation step A first comparison pixel region selection step of selecting a predetermined number of comparison pixel regions having a high degree of correlation from the top, and the target pixel region extraction step A position derivation step for deriving a position of the pixel region of interest that is output with respect to the frame image, and a position that is closest to the position derived by the position derivation step from the comparison pixel region selected by the first comparison pixel region selection step A second comparison pixel region selection step of selecting one comparison pixel region in the region, wherein the target pixel region extraction step selects the second comparison pixel region when a predetermined new frame image is acquired. A comparison pixel region selected in a process is extracted as a new target pixel region.
The invention according to claim 13 is an imaging method including a subject tracking step of tracking a subject by block matching based on sequentially acquired frame images, wherein the subject tracking step starts with a first target pixel region from a predetermined frame image. Or a target pixel region extracting step for extracting a second target pixel region, a position deriving step for deriving a position of the first target pixel region extracted by the target pixel region extracting step with respect to the frame image, and the position deriving step. A search range setting step for setting a search range in the current frame image based on the derived position, and a comparison pixel region for sequentially extracting a predetermined comparison pixel region from the search range set by the search range setting step An extraction step, and each comparison pixel region extracted by the comparison pixel region extraction step and the target pixel region extraction step. A correlation degree derivation step for deriving a degree of correlation with the extracted second target pixel area, and each comparison pixel area extracted by the comparison pixel area extraction step based on the correlation degree derived by the correlation degree derivation step A comparison pixel region selection step of selecting a predetermined comparison pixel region from the target pixel region extraction step, the comparison pixel region selected in the comparison pixel region selection step each time a new current frame image is acquired. A pixel area is extracted as a new first target pixel area, and each time a new current frame image is acquired a predetermined number of times, the comparison pixel area selected in the comparison pixel area selection step is set as a new second target pixel area. It is an imaging method characterized by extracting as a region.
The invention according to claim 14 is an imaging program for causing a computer to implement subject tracking means for tracking the subject whose position changes in each sequentially acquired frame image by block matching. Means for extracting a target pixel region from a predetermined frame image; a comparison pixel region extracting unit for sequentially extracting a predetermined comparison pixel region from the current frame image; and the comparison pixel region extraction unit. Correlation degree deriving means for deriving the degree of correlation between each extracted comparison pixel area and the target pixel area extracted by the target pixel area extracting means, and each correlation degree derived by the correlation degree deriving means as its correction coefficient Is corrected based on a correlation correction map set in advance, and correlation correction is performed to derive a correction correlation for each comparison pixel region And a comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means based on the corrected correlation degree derived by the correlation degree correction means. And the pixel-of-interest extraction unit extracts a comparison pixel region selected by the comparison-pixel-region selection unit as a new pixel-of-interest region when a predetermined new frame image is acquired. An imaging program.

The invention according to claim 15 is an imaging program for causing a computer to implement subject tracking means for tracking a subject by block matching based on sequentially acquired frame images, wherein the subject tracking means is based on a predetermined frame image. Attention pixel region extracting means for extracting a target pixel region, comparison pixel region extracting means for sequentially extracting a predetermined comparison pixel region from the current frame image, and each comparison pixel region extracted by the comparison pixel region extraction means; Correlation degree deriving means for deriving the degree of correlation with the target pixel area extracted by the target pixel area extraction means, and extraction by the target pixel area extraction means based on the correlation degree derived by the correlation degree deriving means First comparison pixel area selecting means for selecting a predetermined number of comparison pixel areas having a high degree of correlation with the target pixel area from the top Derived by the position deriving means from position deriving means for deriving the position of the target pixel area extracted by the target pixel area extracting means with respect to the frame image and the comparison pixel area selected by the first comparison pixel area selecting means. A second comparison pixel region selection unit that selects one comparison pixel region at a position closest to the determined position, and the target pixel region extraction unit is configured to obtain a predetermined new frame image when A comparison pixel area selected by the second comparison pixel area selection unit is extracted as a new target pixel area.
The invention according to claim 16 is an imaging program for causing a computer to implement subject tracking means for tracking a subject by block matching based on sequentially acquired frame images, wherein the subject tracking means is configured from a predetermined frame image. A target pixel area extracting means for extracting a first target pixel area or a second target pixel area; a position deriving means for deriving a position of the first target pixel area extracted by the target pixel area extracting means with respect to the frame image; Based on the position derived by the position deriving means, a search range setting means for setting a search range in the current frame image, and a predetermined comparison pixel region in order from the search range set by the search range setting means. A comparison pixel area extracting means to be extracted, and each comparison pixel area extracted by the comparison pixel area extracting means. Correlation degree deriving means for deriving the degree of correlation between the target pixel area extracting means and the second target pixel area extracted by the target pixel area extracting means, and the comparison pixel area extracting means based on the degree of correlation derived by the correlation degree deriving means Comparison pixel region selection means for selecting a predetermined comparison pixel region from each comparison pixel region extracted by the above-mentioned, the target pixel region extraction means each time a new current frame image is acquired, the comparison pixel region The comparison pixel area selected by the area selection means is extracted as a new first target pixel area, and each time a new current frame image is acquired a predetermined number of times, the comparison pixel selected by the comparison pixel area selection means An imaging program characterized by extracting a region as a new second target pixel region.

本発明では、探索範囲において、比較画素領域の追尾を中央重点で行うことができるようになる。その結果、探索範囲の中央付近に位置する真の被写体のみを追尾でき、とりわけ、動きの少ない被写体の追尾性能を向上することができる。また、相関度の差分が少なく、明確な結果が得られない複数の追尾対象候補ブロックについても、探索範囲中央のブロックを優先して追尾することができるようになり、特徴の少ない被写体の追尾性能を向上することができる。   In the present invention, tracking of the comparison pixel region can be performed with a center weight in the search range. As a result, only a true subject located near the center of the search range can be tracked, and in particular, the tracking performance of a subject with little movement can be improved. In addition, even for multiple tracking target candidate blocks with little difference in correlation and for which clear results cannot be obtained, tracking in the center of the search range can be performed preferentially, and tracking performance of subjects with few features Can be improved.

以下、本発明の実施形態を、図面を参照しながら説明する。なお、以下の説明における様々な細部の特定ないし実例および数値や文字列その他の記号の例示は、本発明の思想を明瞭にするための、あくまでも参考であって、それらのすべてまたは一部によって本発明の思想が限定されないことは明らかである。また、周知の手法、周知の手順、周知のアーキテクチャおよび周知の回路構成等(以下「周知事項」)についてはその細部にわたる説明を避けるが、これも説明を簡潔にするためであって、これら周知事項のすべてまたは一部を意図的に排除するものではない。かかる周知事項は本発明の出願時点で当業者の知り得るところであるので、以下の説明に当然含まれている。   Embodiments of the present invention will be described below with reference to the drawings. It should be noted that the specific details or examples in the following description and the illustrations of numerical values, character strings, and other symbols are only for reference in order to clarify the idea of the present invention, and the present invention may be used in whole or in part. Obviously, the idea of the invention is not limited. In addition, a well-known technique, a well-known procedure, a well-known architecture, a well-known circuit configuration, and the like (hereinafter, “well-known matter”) are not described in detail, but this is also to simplify the description. Not all or part of the matter is intentionally excluded. Such well-known matters are known to those skilled in the art at the time of filing of the present invention, and are naturally included in the following description.

図1は、実施形態に係る撮像装置の構成図である。この図において、撮像装置1は、光学系2、撮像素子3、画像処理部4、画像バッファ5、制御部6、操作部7、電子ファインダ8、記憶部9及び電源部10などを備える。   FIG. 1 is a configuration diagram of an imaging apparatus according to the embodiment. In this figure, an imaging apparatus 1 includes an optical system 2, an imaging device 3, an image processing unit 4, an image buffer 5, a control unit 6, an operation unit 7, an electronic viewfinder 8, a storage unit 9, a power supply unit 10, and the like.

光学系2は、固定焦点レンズ又は可変焦点レンズ(いわゆるズームレンズ)で構成された光学レンズを含み、可変開口絞り機構を介して取り込まれた被写体の光学像を撮像素子3の受光面上に結像させる。   The optical system 2 includes an optical lens composed of a fixed focus lens or a variable focus lens (so-called zoom lens), and ties an optical image of a subject captured via the variable aperture stop mechanism onto the light receiving surface of the image sensor 3. Let me image.

撮像素子3は、CCDやCMOSなどの半導体二次元イメージセンサであり、受光面上に結像した被写体像を光電変換する。この撮像素子3は、y軸方向(縦方向)とx軸方向(横方向)にマトリクス配列された多数の光電変換素子(画素ともいう)からなり、各画素の信号を1水平ラインごとに線順次で出力することにより、1フレームあたりyライン×x画素の画像信号を毎秒数十フレーム(一般的に毎秒30フレーム)の周期で出力する。   The imaging device 3 is a semiconductor two-dimensional image sensor such as a CCD or a CMOS, and photoelectrically converts a subject image formed on the light receiving surface. The image pickup device 3 includes a large number of photoelectric conversion elements (also referred to as pixels) arranged in a matrix in the y-axis direction (vertical direction) and the x-axis direction (horizontal direction). By sequentially outputting, an image signal of y lines × x pixels per frame is output at a cycle of several tens of frames per second (generally 30 frames per second).

画像処理部4は、撮像素子3から出力された画像信号に対してガンマ補正等の画像処理を施し、現フレーム画像として画像バッファ5及び制御部6に出力する。   The image processing unit 4 performs image processing such as gamma correction on the image signal output from the image sensor 3 and outputs the image signal to the image buffer 5 and the control unit 6 as a current frame image.

画像バッファ5は、画像処理部4から出力される現フレーム画像を1フレーム周期遅延させて前フレーム画像とし、その前フレーム画像を制御部6に出力する。   The image buffer 5 delays the current frame image output from the image processing unit 4 by one frame period to make a previous frame image, and outputs the previous frame image to the control unit 6.

制御部6は、RAM6aやROM6b及びCPU6cなどからなるワンチップマイクロプロセッサであり、ROM6bに予め格納されている制御プログラムをRAM6aにロードしてCPU6cで実行することにより、撮像装置1の動作を統括制御する。   The control unit 6 is a one-chip microprocessor including a RAM 6a, a ROM 6b, a CPU 6c, and the like. The control program stored in advance in the ROM 6b is loaded into the RAM 6a and executed by the CPU 6c, whereby the operation of the image pickup apparatus 1 is comprehensively controlled. To do.

操作部7は、撮像装置1の操作に必要な各種ボタン類、たとえば、シャッタボタン7aやトリミング撮影ボタン7bなどを含み、それらのボタン操作に対応した信号を発生して制御部6に出力する。   The operation unit 7 includes various buttons necessary for the operation of the imaging apparatus 1, such as a shutter button 7a and a trimming shooting button 7b, and generates a signal corresponding to the button operation and outputs the signal to the control unit 6.

電子ファインダ8は、数インチ程度の液晶ディスプレイパネル等からなる平面表示装置であり、この電子ファインダ8は、撮像装置1をデジタルカメラとして使用するときに構図調整のためのファインダとして用いられる。   The electronic viewfinder 8 is a flat display device composed of a liquid crystal display panel of several inches or the like. The electronic viewfinder 8 is used as a viewfinder for composition adjustment when the imaging device 1 is used as a digital camera.

記憶部9は、撮影済み画像を記憶保存するための記憶要素であり、たとえば、大容量の不揮発性半導体記憶装置や磁気記憶装置などから構成される。   The storage unit 9 is a storage element for storing and storing captured images, and includes, for example, a large-capacity nonvolatile semiconductor storage device or a magnetic storage device.

電源部10は、一次電池や二次電池からなり、制御部6を含む撮像装置1の各部に所要の電源を供給する。   The power supply unit 10 includes a primary battery and a secondary battery, and supplies necessary power to each unit of the imaging apparatus 1 including the control unit 6.

なお、以上説明した撮像装置1の構成はデジタルカメラのものであるが、これに限定されず、たとえば、カメラ付き携帯電話機やカメラ付き情報端末などのように、撮像機能を有する各種の携帯型電子機器であれば適用することができる。   Note that the configuration of the imaging apparatus 1 described above is that of a digital camera, but is not limited thereto. For example, various portable electronic devices having an imaging function, such as a camera-equipped mobile phone or a camera-equipped information terminal. Any device can be applied.

図2は、撮像装置1の利用状態図である。この図において、(a)は通常の撮影(ノーマル撮影)状態を示し、(b)及び(c)はトリミング撮影状態を示している。また、(b)のトリミング撮影は被写体静止のときのものを示し、(c)のトリミング撮影は被写体移動のときのものを示している。   FIG. 2 is a usage state diagram of the imaging apparatus 1. In this figure, (a) shows a normal shooting (normal shooting) state, and (b) and (c) show a trimming shooting state. Also, (b) trimming shooting shows the one when the subject is stationary, and (c) trimming shooting shows the one when the subject is moving.

まず、ノーマル撮影を説明する。ここで、ノーマル撮影とは、静止した被写体を撮影する、たとえば、通常のポートレート撮影のことをいう。この場合、撮影者は、(a)に示すように、ファインダ画面21の中央に位置する合焦マーク22に被写体23を合わせてシャッターボタンを半押しし、被写体23にピントを合わせてから、シャッターボタンを全押しする。これにより、ファインダ画面21の全体に対応した画像24を撮影して、記憶部9に記録保存できる。   First, normal shooting will be described. Here, normal shooting refers to shooting a stationary subject, for example, normal portrait shooting. In this case, the photographer places the subject 23 on the focus mark 22 located at the center of the finder screen 21 and presses the shutter button halfway as shown in FIG. Press the button fully. Thereby, the image 24 corresponding to the entire finder screen 21 can be taken and recorded and stored in the storage unit 9.

次に、トリミング撮影を説明する。本実施形態におけるトリミング撮影は、二つのケースに分けられる。一のケースは被写体が静止している場合であり、二のケースは被写体が動いてる(移動している)場合である。いずれのケースであっても、操作部7のトリミング撮影ボタン7bを押し下げ操作することにより、このトリミング撮影機能をオンにすることができる。撮影者は、これら二つのケースを意識して区別する必要はない。   Next, trimming photography will be described. Trimming photography in this embodiment is divided into two cases. One case is when the subject is stationary, and the second case is when the subject is moving (moving). In any case, the trimming photographing function can be turned on by depressing the trimming photographing button 7b of the operation unit 7. The photographer need not be aware of these two cases.

被写体静止のトリミング撮影の場合、撮影者は、(b)に示すように、ファインダ画面21の中央に位置する合焦マーク22に被写体23を合わせてシャッターボタンを半押しし、被写体23にピントを合わせてから、シャッターボタンを全押しする。操作自体はノーマル撮影と何ら変わらない。違いは、記憶部9に記録保存される画像26が、ファインダ画面21の全体ではなく、所定サイズのトリミング枠25に限られる点にある。すなわち、ファインダ画面21の一部を“トリミング”した画像26が記憶部9に記録保存される点にある。   In the case of the subject stationary trimming shooting, as shown in (b), the photographer places the subject 23 on the in-focus mark 22 located at the center of the finder screen 21, presses the shutter button halfway, and focuses on the subject 23. Then press the shutter button fully. The operation itself is no different from normal shooting. The difference is that the image 26 recorded and saved in the storage unit 9 is limited to the trimming frame 25 of a predetermined size, not the entire finder screen 21. That is, an image 26 obtained by “trimming” a part of the finder screen 21 is recorded and saved in the storage unit 9.

かかるトリミング撮影において、もし、トリミング枠25が固定であったならば、とりわけ、子供のように動き回る被写体の場合、撮影方向を常に被写体に向け続けるのは相当困難であるし、カメラブレの心配もある。本実施形態の追随トリミング撮影機能(図2(c))は、こうした不都合を解消するためのものである。   In such trimming photography, if the trimming frame 25 is fixed, especially in the case of a subject that moves around like a child, it is quite difficult to always keep the photographing direction toward the subject, and there is also a concern about camera shake. . The following trimming shooting function (FIG. 2C) of the present embodiment is for eliminating such inconvenience.

すなわち、ファインダ画面21に映ってさえいれば、撮影方向を変えることなく、被写体23の動きに追従してトリミング枠25を自動的に移動させることができ、所望のタイミングでシャッターボタンを全押しするだけで、ファインダ画面21の一部を“トリミング”した画像27を記憶部9に記録保存できるようにしたものである。   That is, as long as it is displayed on the finder screen 21, the trimming frame 25 can be automatically moved following the movement of the subject 23 without changing the shooting direction, and the shutter button is fully pressed at a desired timing. As a result, an image 27 obtained by “trimming” a part of the finder screen 21 can be recorded and stored in the storage unit 9.

図3は、本実施形態の追随トリミング撮影機能における被写体自動追尾の概念図である。なお、この概念図は、制御部6においてソフト的に実行される制御機能を模式化して示すものである。   FIG. 3 is a conceptual diagram of subject automatic tracking in the following trimming photographing function of the present embodiment. This conceptual diagram schematically shows a control function that is executed in software by the control unit 6.

この図において、参照フレーム画像12は、画像バッファ5から取り込まれた所定フレーム画像であり、この所定フレーム画像は、前記のトリミング撮影(図2(b)、(c))の開始時(すなわち、シャッターボタンの半押し直後)に画像バッファ5に取り込まれたフレーム画像のことである。参照フレーム画像12のほぼ中央には被写体13が映っており、この被写体13は、たとえば、動き回る子供である。   In this figure, a reference frame image 12 is a predetermined frame image fetched from the image buffer 5, and this predetermined frame image is obtained at the start of the trimming shooting (FIGS. 2B and 2C) (that is, A frame image taken into the image buffer 5 immediately after the shutter button is half-pressed. A subject 13 is shown in the approximate center of the reference frame image 12, and this subject 13 is a moving child, for example.

一方、参照フレーム画像12の下方に描かれている複数のフレーム画像16、17、18・・・・は、上記の参照フレーム画像12の後に続いて画像処理部4から順次に出力されるフレーム画像であり、各々のフレーム画像16、17、18・・・・は、それぞれの出力時点における最新の現フレーム画像である。また、フレーム画像17が最新の現フレーム画像として出力されたときには、前記フレーム画像16が参照フレーム画像として、そして、フレーム画像18が最新の現フレーム画像として出力されたときには、前記フレーム画像17が参照フレーム画像として更新されるものとする。   On the other hand, a plurality of frame images 16, 17, 18... Drawn below the reference frame image 12 are frame images sequentially output from the image processing unit 4 following the reference frame image 12. Each frame image 16, 17, 18,... Is the latest current frame image at each output time point. When the frame image 17 is output as the latest current frame image, the frame image 16 is referred to as a reference frame image, and when the frame image 18 is output as the latest current frame image, the frame image 17 is referred to. It shall be updated as a frame image.

フレーム画像16、17、18・・・・には、参照フレーム画像12の被写体13と同一の被写体19が映っており(ただし、図示の都合上、最上面のフレーム画像16のものしか示していない)、上記前提のとおり、参照フレーム画像12の被写体13は動き回る子供であるから、フレーム画像16、17、18・・・・の被写体19の位置は、その動きに伴い、それぞれ異なるものとなる。   In the frame images 16, 17, 18,..., The same subject 19 as the subject 13 in the reference frame image 12 is shown (for the sake of illustration, only the frame image 16 on the top surface is shown). As described above, since the subject 13 of the reference frame image 12 is a moving child, the positions of the subjects 19 of the frame images 16, 17, 18,...

参照フレーム画像12は、注目画素領域抽出部6dに入力される。注目画素領域抽出部6dは、参照フレーム画像12に映っている被写体13の全体又はその一部を含む注目画素領域15を抽出する。この注目画素領域15は、たとえば、図2(b)、(c)における合焦マーク22内の画素領域、つまり、ピントのあった画素領域に相当する。   The reference frame image 12 is input to the target pixel region extraction unit 6d. The pixel-of-interest extraction unit 6d extracts the pixel-of-interest region 15 including the whole or part of the subject 13 shown in the reference frame image 12. The target pixel area 15 corresponds to, for example, a pixel area in the focusing mark 22 in FIGS. 2B and 2C, that is, a focused pixel area.

一方、比較画素領域抽出部6eは、新たに取得される現フレーム画像における詳細は後述の探索範囲から、注目画素領域15における被写体画像と比較される比較画素領域20を順次抽出する。
ここで、各比較画素領域20は、注目画素領域15と同じサイズの画素領域であり、例えば、フレーム画像において、比較画素領域毎にx軸方向またはy軸方向に順次1画素ずつシフトされて抽出される。
On the other hand, the comparison pixel region extraction unit 6e sequentially extracts the comparison pixel region 20 to be compared with the subject image in the target pixel region 15 from the search range described later in detail in the newly acquired current frame image.
Here, each comparison pixel area 20 is a pixel area having the same size as the target pixel area 15. For example, in the frame image, each comparison pixel area is sequentially shifted by one pixel in the x-axis direction or the y-axis direction and extracted. Is done.

注目画素領域抽出部6dで抽出された注目画素領域15における各画素値(輝度値)と、比較画素領域抽出部6eで抽出された各比較画素領域20の各画素値(輝度値)は、相関度導出部6fに入力される。そして、この相関度導出部6fで各比較画素領域毎に、注目画素領域15における被写体画像との相関度が導出され、相関度補正部6hに出力される。   Each pixel value (luminance value) in the target pixel region 15 extracted by the target pixel region extraction unit 6d and each pixel value (luminance value) of each comparison pixel region 20 extracted by the comparison pixel region extraction unit 6e are correlated. It is input to the degree deriving unit 6f. Then, the correlation degree deriving unit 6f derives the degree of correlation with the subject image in the target pixel area 15 for each comparison pixel area, and outputs it to the correlation degree correcting unit 6h.

相関度補正部6hは、相関度導出部6fで導出された各相関度を所定の相関度補正マップ6gに従って補正し、補正後の相関度を比較画素領域選択部6iに出力する。比較画素領域選択部6iは、相関度補正部6hで補正された相関度に基づいて、注目画素領域15との相関度が最も高い比較画素領域20を選択し、その選択された比較画素領域20を追尾対象の被写体画像として決定し、また、その選択された比較画素領域20を追尾位置として決定する。   The correlation degree correction unit 6h corrects each correlation degree derived by the correlation degree derivation unit 6f according to a predetermined correlation degree correction map 6g, and outputs the corrected correlation degree to the comparison pixel region selection unit 6i. The comparison pixel region selection unit 6i selects the comparison pixel region 20 having the highest degree of correlation with the target pixel region 15 based on the correlation degree corrected by the correlation degree correction unit 6h, and the selected comparison pixel region 20 Is determined as the tracking target subject image, and the selected comparison pixel area 20 is determined as the tracking position.

前記注目画素領域抽出部6eは、更に新たな現フレーム画像が出力されると、新たに追尾対象となった被写体画像を次の新たな注目画素領域15の被写体画像とし、これと追尾位置とに基づいて、順次上述の処理を繰り返す。つまり、新たな現フレーム画像が取得される毎に、前記選択された比較画素領域に基づいて、追尾対象の被写体画像と、追尾位置とが更新される。   When a new current frame image is output, the pixel-of-interest extraction unit 6e sets a new subject image to be tracked as a subject image of the next new pixel-of-interest region 15 and the tracking position. Based on this, the above-described processing is repeated sequentially. That is, every time a new current frame image is acquired, the subject image to be tracked and the tracking position are updated based on the selected comparison pixel area.

なお、トリミング枠25は、注目画素領域15の位置、つまり、追尾位置とトリミング枠25の位置との相対関係が常に一致するように更新される。
すなわち、注目画素領域に基づいて、新たに取得される現フレーム画像から前記注目画素領域と一致すると判断される比較画素領域20を追尾対象の比較画素領域として選択抽出し、これを新たな注目画素領域とすることで、新たな現フレーム画像が取得される毎に、トリミング枠25においても順次被写体を追尾している。
The trimming frame 25 is updated so that the relative relationship between the position of the target pixel region 15, that is, the tracking position and the position of the trimming frame 25 always matches.
That is, based on the target pixel region, the comparison pixel region 20 determined to match the target pixel region from the newly acquired current frame image is selected and extracted as a comparison target pixel region to be tracked. By setting the area, the subject is sequentially tracked in the trimming frame 25 every time a new current frame image is acquired.

ここで、前記注目画素領域と一致すると判断される比較画素領域20を選択抽出するために、比較画素領域抽出部6eが各比較画素領域を抽出することとなる探索範囲を予め設定しておくことが好ましい。   Here, in order to selectively extract the comparison pixel region 20 determined to match the target pixel region, a search range in which the comparison pixel region extraction unit 6e extracts each comparison pixel region is set in advance. Is preferred.

以下、詳述する。
図4(a)は、本実施形態におけるブロックマッチングの模式図である。この図において、8×8画素のブロック29は、ブロックマッチングの対象エリアであり、注目画素領域15としてのブロック29に含まれる画素情報(輝度情報)を用いて、ブロックマッチングを行う。ここで、各々の画素は升目で表されており、この図においては、マッチング処理時間の短縮を図るために、たとえば、一つおきに配列された黒く塗りつぶした画素のみをブロックマッチング処理の対象画素とした場合を示している。つまり、8×8画素からなる注目画素領域のうち、16画素の画素情報に基づいてブロックマッチングを行う例を示している。なお、画素情報は、上記の輝度情報だけでなく、画素の位置情報も含む。この位置情報は、探索範囲の設定の際に利用される。
Details will be described below.
FIG. 4A is a schematic diagram of block matching in the present embodiment. In this figure, a block 29 of 8 × 8 pixels is a block matching target area, and block matching is performed using pixel information (luminance information) included in the block 29 as the target pixel region 15. Here, each pixel is represented by a square, and in this figure, for example, in order to shorten the matching processing time, for example, only black pixels arranged every other pixel are subjected to block matching processing. It shows the case. That is, an example is shown in which block matching is performed based on pixel information of 16 pixels in a pixel region of interest consisting of 8 × 8 pixels. The pixel information includes not only the luminance information but also pixel position information. This position information is used when setting the search range.

図4(b)は、本実施形態における探索範囲の模式図である。本実施形態では、ブロックマッチングにより、参照フレーム画像における注目画素領域15としての被写体画像が現フレーム画像のどの位置に移動したかを判定するが、1フレームの間に被写体が移動する距離は限られるとする前提の下、注目画素領域15に対応する被写体画像を探索する範囲を所定の探索範囲に限定することで、当該処理に費やす時間や、CPUへの負荷を軽減している。そして、探索範囲30は、このときに抽出されている注目画素領域15の中心位置(または追尾位置)と予め記憶されている画素数範囲に基づいて設定される。たとえば、探索範囲の中心位置が追尾位置(注目画素領域の位置)に対応する実質的な中心位置となるように設定される。そして、たとえば、フレームレートが30fpsの場合、種々の実験結果により、注目画素領域15の中心位置に対応する現フレーム画像の位置を中心として、各比較画素領域の中心が水平方向(x方向)に±12画素、垂直方向(y方向)に±8画素となるようなエリアを探索範囲とすれば、被写体が移動しても大抵の場合、被写体の追尾が可能となり、上述の前提を達成し得る。   FIG. 4B is a schematic diagram of a search range in the present embodiment. In this embodiment, it is determined by block matching which position in the current frame image the subject image as the target pixel region 15 in the reference frame image has moved, but the distance that the subject moves during one frame is limited. By limiting the search range for the subject image corresponding to the target pixel region 15 to a predetermined search range, the time spent for the processing and the load on the CPU are reduced. The search range 30 is set based on the center position (or tracking position) of the target pixel region 15 extracted at this time and the pixel number range stored in advance. For example, the center position of the search range is set to be a substantial center position corresponding to the tracking position (position of the target pixel region). For example, when the frame rate is 30 fps, the center of each comparison pixel region is horizontally (x direction) centered on the position of the current frame image corresponding to the center position of the target pixel region 15 according to various experimental results. If the search range is an area having ± 12 pixels and ± 8 pixels in the vertical direction (y direction), the subject can be tracked in most cases even if the subject moves, and the above assumption can be achieved. .

図5は、相関度補正マップ6gの模式図である。なお、この模式図は、図示の都合上、x軸とy軸が、図4(a)、(b)のx軸、y軸と逆になっている点に注意されたい。つまり、この相関度補正マップ6gの横軸は、図4(a)、(b)のy軸(縦方向)に相当し、縦軸は、図4(a)、(b)のx軸(横方向)に相当する。   FIG. 5 is a schematic diagram of the correlation correction map 6g. Note that in this schematic diagram, the x-axis and the y-axis are opposite to the x-axis and the y-axis in FIGS. 4A and 4B for convenience of illustration. That is, the horizontal axis of the correlation correction map 6g corresponds to the y-axis (vertical direction) in FIGS. 4A and 4B, and the vertical axis represents the x-axis (in FIGS. 4A and 4B). Corresponds to the horizontal direction).

模式図中の数値は相関度を補正するための補正係数としての「重み係数」であり、この例示における最小の重み係数は模式図中央とその周囲四つの「64」、最大の重み係数は模式図四隅の「255」である。そして、相関度補正マップ6gは、探索範囲から得られる各比較領域に対応するようにそれぞれの重み係数が予め設定されている。   The numerical value in the schematic diagram is a “weighting factor” as a correction factor for correcting the degree of correlation. In this example, the minimum weighting factor is “64” in the center of the schematic diagram and the surrounding four, and the maximum weighting factor is the model. It is “255” in the four corners of the figure. In the correlation degree correction map 6g, each weighting factor is set in advance so as to correspond to each comparison region obtained from the search range.

これらの重み係数は、図4(b)の探索範囲の座標位置をその実質的な中心座標とする各比較画素領域の相関度に適用する。たとえば、比較画素領域の実質的な中心座標が、図4(b)のx=0、y=0となっている比較画素領域の相関度に適用する重み係数は、模式図中央の「64」である。そして、図4(b)のx=0、y=0の座標位置が、注目画素領域15の中心座標位置に対応する現フレームの座標位置である。つまり、これは、参照フレーム画像における注目画素領域15としての被写体画像が現フレーム画像で移動していない場合(追尾位置が変化していない場合)に相当する座標位置である。   These weighting factors are applied to the degree of correlation of each comparison pixel region having the coordinate position of the search range in FIG. For example, the weighting coefficient applied to the correlation degree of the comparison pixel region in which the substantial center coordinates of the comparison pixel region are x = 0 and y = 0 in FIG. 4B is “64” in the center of the schematic diagram. It is. The coordinate position of x = 0 and y = 0 in FIG. 4B is the coordinate position of the current frame corresponding to the center coordinate position of the target pixel region 15. That is, this is a coordinate position corresponding to the case where the subject image as the target pixel region 15 in the reference frame image has not moved in the current frame image (the tracking position has not changed).

図5の相関度補正マップ6gにおいて特筆すべき点は、注目画素領域15の中心位置に対応する現フレームの位置が近いほど、つまり、x及びyの絶対値が小さいほど、小さな重み係数、つまり、注目画素領域における被写体画像との相関度が高くなる重み係数が設定されていることにある。すなわち、注目画素領域15の中心位置に対応する現フレームの位置が近いほど注目画素領域15における被写体画像と比較画素領域における被写体画像との相関度が高くなる中央重点式の重み係数設定になっている点にある。   In the correlation degree correction map 6g of FIG. 5, the point to be noted is that the closer the position of the current frame corresponding to the center position of the target pixel region 15, that is, the smaller the absolute values of x and y, the smaller the weighting factor, In other words, a weighting coefficient is set to increase the degree of correlation with the subject image in the target pixel region. That is, the center-weighted weighting coefficient setting is such that the closer the position of the current frame corresponding to the center position of the target pixel area 15 is, the higher the degree of correlation between the subject image in the target pixel area 15 and the subject image in the comparison pixel area is. There is in point.

ところで、相関度導出部6fにおける相関度の導出は、公知の次式(1)に示す差分二乗和演算式に従って行われる。すなわち、小さな値が得られるときほど、注目画素領域における被写体画像と比較画素領域における被写体画像とが高い相関度を示すように導出される。   By the way, the derivation of the degree of correlation in the degree-of-correlation deriving unit 6f is performed according to a known square-square difference calculation formula shown in the following equation (1). That is, the smaller the value is obtained, the higher the degree of correlation between the subject image in the target pixel region and the subject image in the comparison pixel region.

そして、相関度補正部6hは、上式(1)に従って導出された相関度に、図5の相関度補正マップ6gの重み係数を適用する。比較画素領域選択部6iは、重み係数を適用した相関度に基づいて各比較画素領域を比較し、注目画素領域の被写体画像との相関度が最も高くなる被写体画像を有する比較画素領域20を追尾対象として選択する。   Then, the correlation degree correction unit 6h applies the weighting factor of the correlation degree correction map 6g in FIG. 5 to the correlation degree derived according to the above equation (1). The comparison pixel area selection unit 6i compares the comparison pixel areas based on the correlation degree to which the weighting coefficient is applied, and tracks the comparison pixel area 20 having the subject image having the highest correlation degree with the subject image of the target pixel area. Select as target.

以上のとおり、本実施形態の撮像装置1では、中央重点式の重み係数を使用するので、図4(b)の探索範囲において、比較画素領域20の追尾を中央優先した、つまり、注目画素領域に対応する座標位置を優先した(追尾位置の変化が少ない比較画素領域を優先した)被写体の追尾を行うことができる。その結果、探索範囲の中央付近に位置する真の被写体のみを追尾でき、とりわけ、動きの少ない被写体の追尾性能を向上することができる。また、相関度の差分が少なく明確な結果が得られない複数の追尾対象候補ブロックについても、探索範囲中央のブロックを優先して追尾することができるようになり、特徴の少ない被写体の追尾性能を向上することができる。   As described above, since the center-weighted weighting factor is used in the imaging apparatus 1 according to the present embodiment, the tracking of the comparison pixel region 20 is given priority in the search range in FIG. It is possible to track the subject giving priority to the coordinate position corresponding to (priority to the comparison pixel region with little change in the tracking position). As a result, only a true subject located near the center of the search range can be tracked, and in particular, the tracking performance of a subject with little movement can be improved. In addition, even for multiple tracking target candidate blocks with little difference in the degree of correlation and where clear results cannot be obtained, tracking in the center of the search range can be performed preferentially, and tracking performance of subjects with few features can be improved. Can be improved.

ここで、図6は、比較画素領域の追尾模式図である。この図において、比較探索範囲28(図4の比較探索範囲30参照)には、注目画素領域15に対応する一の比較画素領域20aと、注目画素領域15に対応しない二の比較画素領域20bが存在しているものとする。一の比較画素領域20aは「真」の追尾対象であり、二の比較画素領域20bは「偽(虚像)」の追尾対象である。これら二つの比較画素領域20a、20bに含まれる被写体の色や明るさが似ている場合、冒頭で説明した従来技術にあっては、しばしば、「偽」の被写体(二の比較画素領域20b)を追尾してしまうことがあった。   Here, FIG. 6 is a tracking schematic diagram of the comparison pixel region. In this figure, the comparison search range 28 (see the comparison search range 30 in FIG. 4) includes one comparison pixel region 20a corresponding to the target pixel region 15 and two comparison pixel regions 20b not corresponding to the target pixel region 15. Suppose it exists. One comparison pixel region 20a is a “true” tracking target, and the second comparison pixel region 20b is a “false (virtual image)” tracking target. When the colors and brightness of the subjects included in these two comparison pixel areas 20a and 20b are similar, in the related art described at the beginning, the “false” subject (two comparison pixel areas 20b) is often used. Sometimes tracked.

これは、単に、輝度値の差の絶対値を合計して一致の程度を表す結果スコアを求め、そのスコア値が最小(0又は0に限りなく近い)の小画像領域を追尾するように動作しているからであり、「真被写体のスコア値>偽被写体のスコア値」の関係、つまり、偽被写体のスコア値が、真被写体のスコア値よりも小さくなってしまうことがあり得るからである。   This simply operates by summing the absolute values of the luminance value differences to obtain a result score representing the degree of matching, and tracking a small image area with the smallest score value (nearly close to 0 or 0). This is because the relationship of “score value of true subject> score value of false subject”, that is, the score value of false subject may be smaller than the score value of true subject. .

これに対して、本実施形態においては、上記の結果スコアをそのまま用いることなく、当該スコア値に相当する相関度を導出して、その相関度を所定の相関度補正マップ6gに従って補正し、補正後の相関度を比較画素領域選択部6iに出力するようにしている。   On the other hand, in the present embodiment, the correlation score corresponding to the score value is derived without using the result score as it is, and the correlation score is corrected according to a predetermined correlation score correction map 6g. The later correlation is output to the comparison pixel region selection unit 6i.

なお、上述では、探索範囲から注目画素領域の被写体画像との相関度が最も高くなる被写体画像を有する比較画素領域を選択抽出する構成について説明したが、探索範囲から注目画素領域の被写体画像との相関度が高い上位数%(たとえば上位5%)分の数だけ比較画素領域を選び出し、その比較画素領域のうち、最も探索範囲の中央に近い比較画素領域を追尾対象の被写体画像および追尾位置として選択するようにしてもよい。より精度よく被写体を追尾することができるようになる。なお、この構成の場合、必ずしも上述した相関度の補正を実施する必要はなく、上述した相関度の補正を実施するか否かは、撮影シーンに応じて、適宜、設定すればよい。   In the above description, the configuration for selecting and extracting the comparison pixel region having the subject image having the highest degree of correlation with the subject image in the target pixel region from the search range has been described. The comparison pixel areas are selected by the number corresponding to the top few% (for example, the top 5%) having a high degree of correlation, and the comparison pixel area closest to the center of the search range is selected as the tracking target subject image and tracking position. You may make it select. The subject can be tracked with higher accuracy. In the case of this configuration, it is not always necessary to perform the above-described correlation degree correction, and whether or not to perform the above-described correlation degree correction may be appropriately set according to the shooting scene.

また、前記の図3の説明では、注目画素領域15の抽出を、トリミング撮影開始時点の参照フレーム画像12から行っているが、この参照フレーム画像12を任意時点の現フレーム画像と置き換えてもよい。   In the description of FIG. 3, the pixel region 15 of interest is extracted from the reference frame image 12 at the start of trimming imaging. However, the reference frame image 12 may be replaced with the current frame image at an arbitrary time. .

また、上述では、新たな現フレーム画像が出力(取得)される毎に、この新たなフレーム画像から新たな注目画素領域を抽出し、この抽出した注目画素領域の位置(追尾位置)に基づいて探索範囲の位置を設定するとともに、この抽出した注目画素領域における被写体画像との相関度に基づいて所定の比較注目画素領域の選択を行う構成について説明したが、新たな現フレーム画像が出力(取得)される毎に、この新たな現フレーム画像から新たな注目画素領域を抽出し、この抽出した注目画素領域の位置(追尾位置)に基づいて探索範囲の位置は設定するが、相関度の導出対象となる注目画素領域としての被写体画像は、新たな現フレーム画像が所定回数(たとえば10フレーム分)だけ取得される毎に、更新される構成としてもよい。   Further, in the above description, each time a new current frame image is output (acquired), a new target pixel region is extracted from the new frame image, and based on the position (tracking position) of the extracted target pixel region. The configuration for setting the position of the search range and selecting a predetermined comparison target pixel region based on the degree of correlation with the subject image in the extracted target pixel region has been described, but a new current frame image is output (acquired) ), A new target pixel area is extracted from the new current frame image, and the position of the search range is set based on the position (tracking position) of the extracted target pixel area. The subject image as the target pixel region of interest may be updated each time a new current frame image is acquired a predetermined number of times (for example, 10 frames).

以下詳述する。
図7は、参照フレームと現フレームの関係図である。この図において、Fi、Fi+1、Fi+2、・・・・、Fi+10は、それぞれ画像処理部4から周期的に出力されるフレーム画像である。ここで、Fiをトリミング撮影開始時点の参照フレーム画像とすると、追尾対象の被写体画像はFiの注目画素領域15から抽出され、この注目画素領域15における被写体画像に対応する比較画素領域20がFi+1、Fi+2、・・・・、Fi+10から抽出され、この抽出された比較画素領域20がそれぞれの時点における追尾位置となる。
This will be described in detail below.
FIG. 7 is a relationship diagram between the reference frame and the current frame. In this figure, Fi, Fi + 1, Fi + 2,..., Fi + 10 are frame images periodically output from the image processing unit 4, respectively. Here, if Fi is a reference frame image at the start of trimming shooting, the subject image to be tracked is extracted from the target pixel region 15 of Fi, and the comparison pixel region 20 corresponding to the subject image in this target pixel region 15 is Fi + 1, Fi + 2,..., Fi + 10, and the extracted comparison pixel area 20 becomes a tracking position at each time point.

また、たとえば、Fiから10フレーム分後のFi+10において、Fiの注目画素領域15における被写体画像に対応する比較画素領域20が抽出されたときに、この比較画素領域20における被写体画像が、新たな注目画素領域15としての被写体画像(追尾対象の被写体画像)に更新される。このようにすると、被写体の時間的に位置変化に柔軟に対応することができ、たとえば、追尾対象をロストした(見失った)場合に再度被写体を捕捉して追尾し直すことができる。   Further, for example, when the comparison pixel area 20 corresponding to the subject image in the target pixel area 15 of Fi is extracted at Fi + 10 10 frames after Fi, the subject image in the comparison pixel area 20 becomes a new target. The subject image (the subject image to be tracked) as the pixel area 15 is updated. In this way, it is possible to flexibly deal with a change in the position of the subject over time. For example, when the tracking target is lost (lost), the subject can be captured and tracked again.

実施形態に係る撮像装置の構成図である。It is a block diagram of the imaging device which concerns on embodiment. 撮像装置1の利用状態図である。2 is a usage state diagram of the imaging apparatus 1. FIG. 本実施形態の追随トリミング撮影機能における被写体自動追尾の概念図である。It is a conceptual diagram of subject automatic tracking in the following trimming shooting function of the present embodiment. 本実施形態におけるブロックマッチングの模式図及び探索範囲の模式図である。It is the schematic diagram of a block matching in this embodiment, and the schematic diagram of a search range. 相関度補正マップ6gの模式図である。It is a schematic diagram of the correlation correction map 6g. 比較画素領域の追尾模式図である。It is a tracking schematic diagram of a comparison pixel area. 参照フレームと現フレームの関係図である。FIG. 6 is a relationship diagram between a reference frame and a current frame.

符号の説明Explanation of symbols

1 撮像装置
6 制御部(被写体追従手段)
6d 注目画素領域抽出部(注目画素領域抽出手段、第一注目画像領域抽出手段、第二注目画像領域抽出手段)
6e 比較画素領域抽出部(比較画素領域抽出手段、位置導出手段、第一比較画素領域選択手段、第二比較画素領域選択手段、探索範囲設定手段)
6f 相関度導出部(相関度導出手段)
6g 相関度補正マップ
6h 相関度補正部(相関度補正手段)
6i 比較画素領域選択部(比較画素領域選択手段)
15 注目画素領域
20 比較画素領域
1 Imaging device 6 Control unit (subject tracking means)
6d attention pixel area extraction unit (target pixel area extraction means, first attention image area extraction means, second attention image area extraction means)
6e comparison pixel area extraction unit (comparison pixel area extraction means, position derivation means, first comparison pixel area selection means, second comparison pixel area selection means, search range setting means)
6f Correlation degree deriving section (correlation degree deriving means)
6g Correlation correction map 6h Correlation correction unit (correlation correction means)
6i comparison pixel area selection unit (comparison pixel area selection means)
15 attention pixel area 20 comparison pixel area

Claims (16)

順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従手段を備えた撮像装置であって、
前記被写体追従手段は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正手段と、
前記相関度補正手段により導出された補正相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像装置。
An imaging apparatus including a subject tracking unit that performs tracking by block matching on a subject whose position changes in each sequentially acquired frame image,
The subject tracking means includes
A pixel-of-interest extraction unit that extracts a pixel-of-interest region from a predetermined frame image;
Comparison pixel region extraction means for sequentially extracting a predetermined comparison pixel region from the current frame image;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the attention pixel area extracted by the attention pixel area extraction means;
Correlation degree correcting means for correcting each correlation degree derived by the correlation degree deriving means based on a correlation degree correction map in which a correction coefficient is set in advance and deriving a corrected correlation degree for each comparison pixel region;
Comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means based on the corrected correlation degree derived by the correlation degree correction means,
The target pixel area extracting unit extracts a comparison pixel area selected by the comparison pixel area selection unit as a new target pixel area when a predetermined new frame image is acquired. .
前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、
前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、を更に備え、
前記比較画素領域抽出手段は、前記探索範囲設定手段により設定された探索範囲内で比較画素領域を抽出することを特徴とする請求項1記載の撮像装置。
Position deriving means for deriving the position of the target pixel area extracted by the target pixel area extracting means with respect to the frame image;
Search range setting means for setting a search range in the current frame image based on the position derived by the position deriving means;
2. The imaging apparatus according to claim 1, wherein the comparison pixel area extracting unit extracts a comparison pixel area within a search range set by the search range setting unit.
前記探索範囲設定手段は、前記位置導出手段により導出された位置が、探索範囲の実質的な中央となるように探索範囲を設定することを特徴とする請求項2記載の撮像装置。   The imaging apparatus according to claim 2, wherein the search range setting unit sets the search range so that the position derived by the position deriving unit is substantially in the center of the search range. 前記相関度補正マップは、前記探索範囲に対して周辺に位置する比較画素領域よりも中央側に位置する比較画素領域の方が、注目画素領域との相関度が高くなるように補正係数が設定されていることを特徴とする請求項3記載の撮像装置。   In the correlation degree correction map, the correction coefficient is set so that the comparison pixel area located in the center side has a higher degree of correlation with the target pixel area than the comparison pixel area located around the search range. The imaging apparatus according to claim 3, wherein the imaging apparatus is configured. 前記比較画素領域選択手段は、前記相関度補正手段により導出された補正相関度に基づいて、注目画素領域との相関度が高い比較画素領域を1領域選択することを特徴とする請求項2乃至4いずれかに記載の撮像装置。   3. The comparison pixel area selecting unit selects one comparison pixel area having a high degree of correlation with a target pixel area based on the corrected correlation degree derived by the correlation degree correcting unit. 4. The imaging device according to any one of 4. 前記比較画素領域選択手段は、
前記相関度補正手段により導出された補正相関度に基づいて、注目画素領域との相関度が高い比較画素領域を上位から所定数領域だけ選択する第一比較画素領域選択手段と、
前記第一比較画素領域選択手段により選択された比較画素領域から、前記探索範囲設定手段により設定された探索範囲の中央位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、新たな現フレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする請求項2乃至4いずれかに記載の撮像装置。
The comparison pixel region selection means includes
A first comparison pixel region selecting unit that selects a predetermined number of comparison pixel regions having a high degree of correlation with the target pixel region based on the corrected correlation degree derived by the correlation degree correction unit;
A second comparison pixel area that selects one comparison pixel area that is closest to the center position of the search range set by the search range setting means from the comparison pixel areas selected by the first comparison pixel area selection means And a selection means,
The target pixel area extraction unit extracts a comparison pixel area selected by the second comparison pixel area selection unit as a new target pixel area when a new current frame image is acquired. Item 5. The imaging device according to any one of Items 2 to 4.
前記注目画素領域抽出手段は、
新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出する第一注目画像領域抽出手段と、
新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出する第二注目画像領域抽出手段とを備え、
前記相関度導出手段は、前記比較画素領域抽出手段により抽出された各比較画素領域と前記第二注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出し、
前記相対位置導出手段は、前記第一注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する相対位置を導出することを特徴とする請求項2乃至6いずれかに記載の撮像装置。
The target pixel area extracting means includes
First attention image area extraction means for extracting the comparison pixel area selected by the comparison pixel area selection means as a new first attention pixel area each time a new current frame image is acquired;
Each time a new current frame image is acquired a predetermined number of times, the second pixel-of-interest image region extraction unit extracts the comparison pixel region selected by the comparison pixel region selection unit as a new second pixel-of-interest region,
The correlation degree derivation means derives a correlation degree between each comparison pixel area extracted by the comparison pixel area extraction means and the second attention pixel area extracted by the second attention pixel area extraction means,
The imaging according to claim 2, wherein the relative position deriving unit derives a relative position of the first target pixel region extracted by the first target pixel region extracting unit with respect to the frame image. apparatus.
前記相関度導出手段は、前記注目画素領域の各画素データと前記比較画素領域の各画素データに基づいた差分2乗和として相関度を導出することを特徴とする請求項1乃至7いずれかに記載の撮像装置。   The correlation degree deriving unit derives a correlation degree as a sum of squared differences based on each pixel data of the target pixel area and each pixel data of the comparison pixel area. The imaging device described. 順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段を備えた撮像装置であって、
前記被写体追従手段は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された相関度に基づいて、前記注目画素領域抽出手段により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択手段と、
前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、
前記第一比較画素領域選択手段により選択された比較画素領域から、前記位置導出手段により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像装置。
An imaging apparatus comprising subject tracking means for tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking means includes
A pixel-of-interest extraction unit that extracts a pixel-of-interest region from a predetermined frame image;
Comparison pixel region extraction means for sequentially extracting a predetermined comparison pixel region from the current frame image;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the attention pixel area extracted by the attention pixel area extraction means;
A first comparison pixel region selection that selects a predetermined number of comparison pixel regions having a high degree of correlation with the target pixel region extracted by the target pixel region extraction unit based on the correlation degree derived by the correlation degree deriving unit Means,
Position deriving means for deriving the position of the target pixel area extracted by the target pixel area extracting means with respect to the frame image;
Second comparison pixel area selection means for selecting one comparison pixel area at a position closest to the position derived by the position deriving means from the comparison pixel area selected by the first comparison pixel area selection means; Prepared,
The pixel-of-interest extraction unit extracts a comparison pixel region selected by the second comparison pixel region selection unit as a new pixel-of-interest when a predetermined new frame image is acquired. Imaging device.
順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段を備えた撮像装置であって、
前記被写体追従手段は、
所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出手段と、
前記注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、
前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、
前記探索範囲設定手段により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像装置。
An imaging apparatus comprising subject tracking means for tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking means includes
Pixel-of-interest region extraction means for extracting a first pixel-of-interest region or a second pixel-of-interest region from a predetermined frame image;
Position deriving means for deriving the position of the first target pixel area extracted by the target pixel area extracting means with respect to the frame image;
Search range setting means for setting a search range in the current frame image based on the position derived by the position deriving means;
Comparison pixel area extraction means for sequentially extracting a predetermined comparison pixel area from the search range set by the search range setting means;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the second target pixel area extracted by the attention pixel area extraction means;
Comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means based on the correlation degree derived by the correlation degree derivation means,
The target pixel area extracting unit extracts the comparison pixel area selected by the comparison pixel area selection unit as a new first target pixel area each time a new current frame image is acquired, and a new current frame An imaging apparatus, wherein a comparison pixel area selected by the comparison pixel area selection unit is extracted as a new second target pixel area every time an image is acquired a predetermined number of times.
順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従工程を含む撮像方法であって、
前記被写体追従工程は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出工程と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、
前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された注目画素領域との相関度を導出する相関度導出工程と、
前記相関度導出工程により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正工程と、
前記相関度補正工程により導出された補正相関度に基づいて、前記比較画素領域抽出工程により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択工程と、を含み、
前記注目画素領域抽出工程は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択工程により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像方法。
An imaging method including a subject tracking step of performing tracking by block matching on a subject whose position changes in each sequentially acquired frame image,
The subject tracking step includes
A target pixel region extraction step of extracting a target pixel region from a predetermined frame image;
A comparison pixel region extraction step for sequentially extracting a predetermined comparison pixel region from the current frame image;
A degree of correlation deriving step for deriving a degree of correlation between each comparison pixel region extracted by the comparison pixel region extraction step and the target pixel region extracted by the target pixel region extraction step;
A correlation correction step for correcting each correlation derived in the correlation calculation step based on a correlation correction map in which a correction coefficient is set in advance and deriving a corrected correlation for each comparison pixel region; and
A comparison pixel region selection step of selecting a predetermined comparison pixel region from each comparison pixel region extracted by the comparison pixel region extraction step based on the corrected correlation degree derived by the correlation degree correction step,
The pixel-of-interest region extraction step extracts the comparison pixel region selected by the comparison pixel region selection step as a new pixel-of-interest region when a predetermined new frame image is acquired. .
順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従工程を含む撮像方法であって、
前記被写体追従工程は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出工程と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、
前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された注目画素領域との相関度を導出する相関度導出工程と、
前記相関度導出工程により導出された相関度に基づいて、前記注目画素領域抽出工程により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択工程と、
前記注目画素領域抽出工程により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出工程と、
前記第一比較画素領域選択工程により選択された比較画素領域から、前記位置導出工程により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択工程と、を含み、
前記注目画素領域抽出工程は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択工程により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像方法。
An imaging method including a subject tracking step of tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking step includes
A target pixel region extraction step of extracting a target pixel region from a predetermined frame image;
A comparison pixel region extraction step for sequentially extracting a predetermined comparison pixel region from the current frame image;
A degree of correlation deriving step for deriving a degree of correlation between each comparison pixel region extracted by the comparison pixel region extraction step and the target pixel region extracted by the target pixel region extraction step;
First comparison pixel area selection that selects a predetermined number of comparison pixel areas having a high degree of correlation with the target pixel area extracted by the target pixel area extraction step based on the correlation degree derived by the correlation degree derivation step Process,
A position deriving step of deriving a position of the target pixel region extracted by the target pixel region extracting step with respect to the frame image;
A second comparison pixel region selection step of selecting one comparison pixel region at a position closest to the position derived by the position derivation step from the comparison pixel region selected by the first comparison pixel region selection step; Including
The pixel-of-interest region extraction step extracts the comparison pixel region selected by the second comparison pixel region selection step as a new pixel-of-interest region when a predetermined new frame image is acquired. Imaging method.
順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従工程を含む撮像方法であって、
前記被写体追従工程は、
所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出工程と、
前記注目画素領域抽出工程により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出工程と、
前記位置導出工程により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定工程と、
前記探索範囲設定工程により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出工程と、
前記比較画素領域抽出工程により抽出された各比較画素領域と前記注目画素領域抽出工程により抽出された第二注目画素領域との相関度を導出する相関度導出工程と、
前記相関度導出工程により導出された相関度に基づいて、前記比較画素領域抽出工程により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択工程と、を含み、
前記注目画素領域抽出工程は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択工程により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択工程により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像方法。
An imaging method including a subject tracking step of tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking step includes
A target pixel region extraction step of extracting a first target pixel region or a second target pixel region from a predetermined frame image;
A position deriving step for deriving a position of the first target pixel region extracted by the target pixel region extraction step with respect to the frame image;
A search range setting step for setting a search range in the current frame image based on the position derived by the position deriving step;
A comparison pixel region extraction step of sequentially extracting a predetermined comparison pixel region from within the search range set by the search range setting step;
A degree-of-correlation step for deriving a degree of correlation between each comparison pixel region extracted by the comparison pixel region extraction step and the second target pixel region extracted by the attention pixel region extraction step;
A comparison pixel region selection step of selecting a predetermined comparison pixel region from each comparison pixel region extracted by the comparison pixel region extraction step based on the correlation degree derived by the correlation degree derivation step,
The target pixel region extraction step extracts the comparison pixel region selected by the comparison pixel region selection step as a new first target pixel region each time a new current frame image is acquired, and a new current frame An imaging method comprising extracting a comparison pixel region selected by the comparison pixel region selection step as a new second target pixel region each time an image is acquired a predetermined number of times.
順次取得される各フレーム画像でその位置が変化する被写体に対してブロックマッチングにより追従を行なう被写体追従手段をコンピュータに実現させるための撮像プログラムであって、
前記被写体追従手段は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された各相関度をその補正係数が予め設定されている相関度補正マップに基づいて補正して前記比較画素領域毎に補正相関度を導出する相関度補正手段と、
前記相関度補正手段により導出された補正相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像プログラム。
An imaging program for causing a computer to implement subject tracking means for performing tracking by block matching on a subject whose position changes in each sequentially acquired frame image,
The subject tracking means includes
A pixel-of-interest extraction unit that extracts a pixel-of-interest region from a predetermined frame image;
Comparison pixel region extraction means for sequentially extracting a predetermined comparison pixel region from the current frame image;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the attention pixel area extracted by the attention pixel area extraction means;
Correlation degree correcting means for correcting each correlation degree derived by the correlation degree deriving means based on a correlation degree correction map in which a correction coefficient is set in advance and deriving a corrected correlation degree for each comparison pixel region;
Comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means based on the corrected correlation degree derived by the correlation degree correction means,
The pixel-of-interest region extraction unit extracts a comparison pixel region selected by the comparison pixel region selection unit as a new pixel-of-interest region when a predetermined new frame image is acquired. .
順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段をコンピュータに実現させるための撮像プログラムであって、
前記被写体追従手段は、
所定のフレーム画像から注目画素領域を抽出する注目画素領域抽出手段と、
現フレーム画像から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された相関度に基づいて、前記注目画素領域抽出手段により抽出された注目画素領域と相関度の高い比較画素領域を上位から所定数領域選択する第一比較画素領域選択手段と、
前記注目画素領域抽出手段により抽出された注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、
前記第一比較画素領域選択手段により選択された比較画素領域から、前記位置導出手段により導出された位置に最も近い位置にある比較画素領域を1領域選択する第二比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、所定の新たなフレーム画像が取得された場合に、前記第二比較画素領域選択手段により選択された比較画素領域を新たな注目画素領域として抽出することを特徴とする撮像プログラム。
An imaging program for causing a computer to implement subject tracking means for tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking means includes
A pixel-of-interest extraction unit that extracts a pixel-of-interest region from a predetermined frame image;
Comparison pixel region extraction means for sequentially extracting a predetermined comparison pixel region from the current frame image;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the attention pixel area extracted by the attention pixel area extraction means;
A first comparison pixel region selection that selects a predetermined number of comparison pixel regions having a high degree of correlation with the target pixel region extracted by the target pixel region extraction unit based on the correlation degree derived by the correlation degree deriving unit Means,
Position deriving means for deriving the position of the target pixel area extracted by the target pixel area extracting means with respect to the frame image;
Second comparison pixel area selection means for selecting one comparison pixel area at a position closest to the position derived by the position deriving means from the comparison pixel area selected by the first comparison pixel area selection means; Prepared,
The pixel-of-interest extraction unit extracts a comparison pixel region selected by the second comparison pixel region selection unit as a new pixel-of-interest when a predetermined new frame image is acquired. Imaging program.
順次取得されるフレーム画像に基づいたブロックマッチングにより被写体追従する被写体追従手段をコンピュータに実現させるための撮像プログラムであって、
前記被写体追従手段は、
所定のフレーム画像から第一注目画素領域または第二注目画素領域を抽出する注目画素領域抽出手段と、
前記注目画素領域抽出手段により抽出された第一注目画素領域の当該フレーム画像に対する位置を導出する位置導出手段と、
前記位置導出手段により導出された位置に基づいて、現フレーム画像における探索範囲を設定する探索範囲設定手段と、
前記探索範囲設定手段により設定された探索範囲内から、順次、所定の比較画素領域を抽出する比較画素領域抽出手段と、
前記比較画素領域抽出手段により抽出された各比較画素領域と前記注目画素領域抽出手段により抽出された第二注目画素領域との相関度を導出する相関度導出手段と、
前記相関度導出手段により導出された相関度に基づいて、前記比較画素領域抽出手段により抽出された各比較画素領域から所定の比較画素領域を選択する比較画素領域選択手段と、を備え、
前記注目画素領域抽出手段は、新たな現フレーム画像が取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第一注目画素領域として抽出するとともに、新たな現フレーム画像が所定回数だけ取得される毎に、前記比較画素領域選択手段により選択された比較画素領域を新たな第二注目画素領域として抽出することを特徴とする撮像プログラム。
An imaging program for causing a computer to implement subject tracking means for tracking a subject by block matching based on sequentially acquired frame images,
The subject tracking means includes
Pixel-of-interest region extraction means for extracting a first pixel-of-interest region or a second pixel-of-interest region from a predetermined frame image;
Position deriving means for deriving the position of the first target pixel area extracted by the target pixel area extracting means with respect to the frame image;
Search range setting means for setting a search range in the current frame image based on the position derived by the position deriving means;
Comparison pixel area extraction means for sequentially extracting a predetermined comparison pixel area from the search range set by the search range setting means;
Correlation degree deriving means for deriving the degree of correlation between each comparison pixel area extracted by the comparison pixel area extraction means and the second target pixel area extracted by the attention pixel area extraction means;
Comparison pixel area selection means for selecting a predetermined comparison pixel area from each comparison pixel area extracted by the comparison pixel area extraction means based on the correlation degree derived by the correlation degree derivation means,
The target pixel area extracting unit extracts the comparison pixel area selected by the comparison pixel area selection unit as a new first target pixel area each time a new current frame image is acquired, and a new current frame An imaging program that extracts a comparison pixel area selected by the comparison pixel area selection unit as a new second target pixel area each time an image is acquired a predetermined number of times.
JP2006201682A 2006-07-25 2006-07-25 Imaging apparatus, imaging method, and imaging program Active JP4807623B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006201682A JP4807623B2 (en) 2006-07-25 2006-07-25 Imaging apparatus, imaging method, and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006201682A JP4807623B2 (en) 2006-07-25 2006-07-25 Imaging apparatus, imaging method, and imaging program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011094000A Division JP5278483B2 (en) 2011-04-20 2011-04-20 Imaging apparatus, imaging method, and imaging program

Publications (2)

Publication Number Publication Date
JP2008028890A true JP2008028890A (en) 2008-02-07
JP4807623B2 JP4807623B2 (en) 2011-11-02

Family

ID=39119051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006201682A Active JP4807623B2 (en) 2006-07-25 2006-07-25 Imaging apparatus, imaging method, and imaging program

Country Status (1)

Country Link
JP (1) JP4807623B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017093A (en) * 2007-07-03 2009-01-22 Nikon Corp Image recognizing device, focus adjusting device and imaging apparatus
JP2011258180A (en) * 2010-05-10 2011-12-22 Casio Comput Co Ltd Subject tracking apparatus, subject tracking method, and program
CN102300047A (en) * 2010-06-22 2011-12-28 株式会社尼康 Image-capturing device, image reproduction device, and image reproduction method
JP2012182821A (en) * 2012-04-27 2012-09-20 Nikon Corp Tracker, focus adjustment device and imaging apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2000123150A (en) * 1998-10-14 2000-04-28 Nec Corp Method and device for updating template for trace
JP2003319388A (en) * 2003-04-04 2003-11-07 Canon Inc Image processing method and apparatus
JP2005229444A (en) * 2004-02-13 2005-08-25 Toshiba Corp Vehicle tracking device and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11252587A (en) * 1998-03-03 1999-09-17 Matsushita Electric Ind Co Ltd Object tracking device
JP2000123150A (en) * 1998-10-14 2000-04-28 Nec Corp Method and device for updating template for trace
JP2003319388A (en) * 2003-04-04 2003-11-07 Canon Inc Image processing method and apparatus
JP2005229444A (en) * 2004-02-13 2005-08-25 Toshiba Corp Vehicle tracking device and program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009017093A (en) * 2007-07-03 2009-01-22 Nikon Corp Image recognizing device, focus adjusting device and imaging apparatus
JP2011258180A (en) * 2010-05-10 2011-12-22 Casio Comput Co Ltd Subject tracking apparatus, subject tracking method, and program
US8878939B2 (en) 2010-05-10 2014-11-04 Casio Computer Co., Ltd. Apparatus and method for subject tracking, and recording medium storing program thereof
CN102300047A (en) * 2010-06-22 2011-12-28 株式会社尼康 Image-capturing device, image reproduction device, and image reproduction method
JP2012009915A (en) * 2010-06-22 2012-01-12 Nikon Corp Imaging device, reproduction device, and reproduction program
US8767093B2 (en) 2010-06-22 2014-07-01 Nikon Corporation Image-capturing device, image reproduction device, and image reproduction method
JP2012182821A (en) * 2012-04-27 2012-09-20 Nikon Corp Tracker, focus adjustment device and imaging apparatus

Also Published As

Publication number Publication date
JP4807623B2 (en) 2011-11-02

Similar Documents

Publication Publication Date Title
JP4674471B2 (en) Digital camera
JP6271990B2 (en) Image processing apparatus and image processing method
JP4761146B2 (en) Imaging apparatus and program thereof
JP4974812B2 (en) Electronic camera
JP2007306416A (en) Method for displaying face detection frame, method for displaying character information, and imaging apparatus
JP2009225072A (en) Imaging apparatus
KR101728042B1 (en) Digital photographing apparatus and control method thereof
JP2008003335A (en) Imaging apparatus, focus control method, focus control program
JP2018107526A (en) Image processing device, imaging apparatus, image processing method and computer program
JP2013183306A (en) Imaging apparatus, imaging method, and program
JP2011217103A (en) Compound eye photographing method and apparatus
JP2007129310A (en) Imaging apparatus
JP4807623B2 (en) Imaging apparatus, imaging method, and imaging program
KR100850466B1 (en) Apparatus for photography and method for controlling auto focus thereof
JP4807582B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP5278483B2 (en) Imaging apparatus, imaging method, and imaging program
JP4716266B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP6172973B2 (en) Image processing device
JP5800600B2 (en) Imaging apparatus, imaging method, and program
JP6645711B2 (en) Image processing apparatus, image processing method, and program
JP7030565B2 (en) Image processing equipment, image processing methods and programs
JP5315019B2 (en) Autofocus device, autofocus method, and imaging device
JP2009017093A (en) Image recognizing device, focus adjusting device and imaging apparatus
JP2008187332A (en) Image tracking device and image pickup device
JP5641352B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110804

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140826

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4807623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150