JP2014165801A - Color tracking device, control method thereof and control program - Google Patents
Color tracking device, control method thereof and control program Download PDFInfo
- Publication number
- JP2014165801A JP2014165801A JP2013036910A JP2013036910A JP2014165801A JP 2014165801 A JP2014165801 A JP 2014165801A JP 2013036910 A JP2013036910 A JP 2013036910A JP 2013036910 A JP2013036910 A JP 2013036910A JP 2014165801 A JP2014165801 A JP 2014165801A
- Authority
- JP
- Japan
- Prior art keywords
- color pattern
- characteristic color
- characteristic
- subject
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、色追尾処理によって追尾対象の被写体を追尾する色追尾処理装置、その制御方法、および制御プログラムに関し、特に、被写体に複数の追尾枠を効率的に配置して、複数の追尾枠の位置情報をして、色追尾処理の精度を向上させる色追尾処理装置に関する。 The present invention relates to a color tracking processing device that tracks a subject to be tracked by color tracking processing, a control method thereof, and a control program, and more particularly, to efficiently arrange a plurality of tracking frames on a subject, The present invention relates to a color tracking processing apparatus that uses position information to improve the accuracy of color tracking processing.
一般に、デジタルカメラなどの撮像装置では、露出および焦点距離を自動的に調節するため、画像から特定の被写体を検出して、当該被写体を追尾するようにしている。そして、画像から特定の被写体を検出する手法として、例えば、時間方向に異なる画像を比較して移動ベクトルを求める手法がある。さらには、被写体又はその一部を特徴色パターン化して検出対象として、異なる時間で撮影された画像を特徴色パターンマッチングによって走査・追尾する手法が知られている。 In general, in an imaging apparatus such as a digital camera, in order to automatically adjust exposure and focal length, a specific subject is detected from an image and the subject is tracked. As a method for detecting a specific subject from an image, for example, there is a method for obtaining a movement vector by comparing different images in the time direction. Furthermore, a technique is known in which a subject or a part thereof is converted into a characteristic color pattern, and an image captured at different times is scanned and tracked by characteristic color pattern matching as a detection target.
一方、異なる時間で撮影された画像間において追尾対象である被写体の移動によって被写体の大きさが変わることに起因して検出精度が低下することを回避するため、被写界を複数の領域に分割して測光を行うようにしたものがある(特許文献1参照)。ここでは、被写界において追尾すべき被写体を設定し、当該被写体と類似する測光データを有する領域を追尾枠として設定する。そして、追尾枠の測光データと類似する測光データを有する領域を順次抽出して、画像から被写体を検出するようにしている。この際、所望の初期追尾領域が設定されると、自動的に適切な追尾枠を設定して追尾が行われる。 On the other hand, in order to avoid a decrease in detection accuracy due to the change in size of the subject due to movement of the subject to be tracked between images taken at different times, the scene is divided into a plurality of regions Thus, there is one that performs photometry (see Patent Document 1). Here, a subject to be tracked in the object scene is set, and an area having photometric data similar to the subject is set as a tracking frame. Then, a region having photometric data similar to the photometric data of the tracking frame is sequentially extracted to detect the subject from the image. At this time, when a desired initial tracking area is set, an appropriate tracking frame is automatically set and tracking is performed.
ところが、特許文献1に記載のカメラでは、測光データに応じて追尾対象である被写体を自動追従することができても、追尾の際にはマッチングのための特徴色パターンを広げる必要がある。このため、移動などによって時間推移で変化する被写体の大きさ形状に対して、特徴色パターンを記憶するための記憶領域を画像において追従可能な最大サイズとする必要がある。 However, with the camera described in Patent Document 1, it is necessary to expand the characteristic color pattern for matching when tracking, even if the subject to be tracked can be automatically tracked according to the photometric data. For this reason, it is necessary to set the storage area for storing the characteristic color pattern to the maximum size that can be followed in the image with respect to the size and shape of the subject that changes over time due to movement or the like.
さらに、特徴色パターンマッチングにおいては、被写体の大きさによっては、重複する色情報が複数存在するため、その分特徴色パターンの記憶領域が無駄に用いられるばかりでなく、マッチング処理に要する処理時間が長くなってしまう。 Furthermore, in feature color pattern matching, depending on the size of the subject, there are a plurality of overlapping color information, so that not only is the feature color pattern storage area used unnecessarily, but the processing time required for matching processing is also increased. It will be long.
従って、本発明の目的は、特徴色パターンの記憶領域を少なくしてしかもマッチング処理時間が長くなることのない色追尾処理装置、その制御方法、および制御プログラムを提供することにある。 Accordingly, an object of the present invention is to provide a color tracking processing device, a control method thereof, and a control program that reduce the storage area of the characteristic color pattern and do not increase the matching processing time.
上記の目的を達成するため、本発明による色追尾処理装置は、撮影された時間が異なる複数の画像において特定の被写体を特徴色パターンに応じて追尾する色追尾処理装置であって、前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得手段と、前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出手段と、前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別手段と、前記形状判別手段で判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置手段と、前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチング手段と、を有することを特徴とする。 In order to achieve the above object, a color tracking processing device according to the present invention is a color tracking processing device that tracks a specific subject according to a characteristic color pattern in a plurality of images taken at different times, A position acquisition unit configured to acquire position information indicating a position of the specific subject, and a feature color pattern indicating a characteristic color of the subject at the position of the specific subject indicated by the position information as a first characteristic color pattern Based on the shape of the subject determined by the shape determining means, the shape determining means for determining the shape of the subject according to the first characteristic color pattern, and the first feature At least one other characteristic color pattern different from the color pattern and an arrangement means for arranging the first characteristic color pattern in an image different from one of the images; A feature color pattern matching process is performed on the other image using the feature color pattern and the other feature color pattern, and the similarity between the first feature color pattern and the other feature color pattern in the other image is determined. Matching means for detecting the specific subject in accordance with a position that is equal to or greater than a predetermined threshold and positional relationship information that indicates a position where the first characteristic color pattern and the other characteristic color pattern are arranged. It is characterized by.
本発明による制御方法は、撮影された時間が異なる複数の画像において特定の被写体を特徴色パターンに応じて追尾する色追尾処理装置の制御方法であって、前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得ステップと、前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出ステップと、前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別ステップと、前記形状判別ステップで判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置ステップと、前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチングステップと、を有することを特徴とする。 The control method according to the present invention is a control method for a color tracking processing device that tracks a specific subject in accordance with a characteristic color pattern in a plurality of images taken at different times, wherein the specific subject in one of the images A position acquisition step of acquiring position information indicating the position of the object, and an extraction step of extracting a feature color pattern indicating the feature color of the subject at the position of the specific subject indicated by the position information as a first feature color pattern; A shape determining step for determining the shape of the subject according to the first characteristic color pattern; and at least one different from the first characteristic color pattern based on the shape of the subject determined in the shape determining step An arrangement step of arranging another feature color pattern and the first feature color pattern in an image different from one of the images; A characteristic color pattern matching process is performed on the other image using the characteristic color pattern and the other characteristic color pattern, and the similarity between the first characteristic color pattern and the other characteristic color pattern is obtained in the other image. A matching step of detecting the specific subject in accordance with a position that is equal to or greater than a predetermined threshold and positional relationship information indicating a position where the first characteristic color pattern and the other characteristic color pattern are arranged. It is characterized by.
本発明による制御プログラムは、撮影された時間が異なる複数の画像において特定の被写体を特徴色パターンに応じて追尾する色追尾処理装置で用いられる制御プログラムであって、前記色追尾処理装置が備えるコンピュータに、前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得ステップと、前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出ステップと、前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別ステップと、前記形状判別ステップで判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置ステップと、前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチングステップと、を実行させることを特徴とする。 A control program according to the present invention is a control program used in a color tracking processing device that tracks a specific subject according to a characteristic color pattern in a plurality of images taken at different times, and the computer provided in the color tracking processing device A position acquisition step of acquiring position information indicating the position of the specific subject in one of the images, and a feature color pattern indicating the characteristic color of the subject at the position of the specific subject indicated by the position information. Based on the extraction step of extracting as one feature color pattern, the shape determination step of determining the shape of the subject according to the first feature color pattern, and the shape of the subject determined in the shape determination step, At least one other feature color pattern different from the first feature color pattern and the first feature color pattern An arrangement step of arranging in another image from one of the images, and a feature color pattern matching process for the other image using the first feature color pattern and the other feature color pattern, and the other image The position indicating the position where the similarity between the first characteristic color pattern and the other characteristic color pattern is equal to or greater than a predetermined threshold, and the position where the first characteristic color pattern and the other characteristic color pattern are arranged. And a matching step of detecting the specific subject in accordance with the relationship information.
本発明によれば、特徴色パターンの記憶領域を少なくして、マッチング処理に要する時間を短縮することができる。 According to the present invention, the time required for the matching process can be shortened by reducing the storage area of the characteristic color pattern.
以下、本発明の実施の形態による色追尾処理装置の一例について図面を参照した説明する。 Hereinafter, an example of a color tracking processing apparatus according to an embodiment of the present invention will be described with reference to the drawings.
図1は、本発明の実施の形態による色追尾処理装置を備える撮像装置の一例についてその構成を示すブロック図である。 FIG. 1 is a block diagram illustrating a configuration of an example of an imaging apparatus including a color tracking processing apparatus according to an embodiment of the present invention.
図示の撮像装置は撮影レンズユニットなどの光学系100を備えており、光学系100によって撮像素子101に被写体像(光学像)が結像される。撮像素子101は被写体像に応じた電気信号(アナログ信号)を出力する。撮像素子101の出力であるアナログ信号はA/D変換部102によってデジタル信号(撮像データ)に変換される。 The illustrated imaging apparatus includes an optical system 100 such as a photographing lens unit, and a subject image (optical image) is formed on the imaging element 101 by the optical system 100. The image sensor 101 outputs an electrical signal (analog signal) corresponding to the subject image. An analog signal that is an output of the image sensor 101 is converted into a digital signal (image data) by the A / D converter 102.
デジタル信号処理部104は、現像部119および追尾処理部120を有しており、現像部119は当該撮像データを画像処理(現像処理)して現像データ(画像データ)とする。なお、現像部119では、例えば、撮像データに基づいてベイヤー画像の同時化処理を行って、RGBからYcrCbへの変換を行って現像データを得る。追尾処理部120については後述する。 The digital signal processing unit 104 includes a developing unit 119 and a tracking processing unit 120, and the developing unit 119 performs image processing (development processing) on the captured image data to generate development data (image data). Note that the developing unit 119 performs, for example, a Bayer image synchronization process based on the imaging data and performs conversion from RGB to YcrCb to obtain development data. The tracking processing unit 120 will be described later.
図示の操作部103には撮影モードの切り替えスイッチおよびシャッター釦などが備えられており、CPU108は操作部103の設定状態を判定して、撮影モード(例えば、静止画撮影モードおよび動画撮影モード)の切り替えを行う。また、CPU108は撮影モードに応じてデジタル信号処理部104で用いられるパラメータを切り替える。 The illustrated operation unit 103 includes a shooting mode changeover switch and a shutter button, and the CPU 108 determines the setting state of the operation unit 103 and sets the shooting mode (for example, the still image shooting mode and the moving image shooting mode). Switch. Further, the CPU 108 switches parameters used in the digital signal processing unit 104 according to the shooting mode.
CPU108から光軸調整制御部109に撮影モードの設定状態(以下設定撮影モードと呼ぶ)が与えられ、光軸調整制御部109は設定撮影モードに応じて光軸調整部105を制御する。例えば、光軸調整制御部109は設定撮影モードに応じて光軸調整部105を制御して、光軸調整部105によって光学系(100)および撮像素子101を調整する。これによって、フォーカスの調整、ズームイン、ズームアウト、および絞り調整などが行われる。 An imaging mode setting state (hereinafter referred to as a setting imaging mode) is given from the CPU 108 to the optical axis adjustment control unit 109, and the optical axis adjustment control unit 109 controls the optical axis adjustment unit 105 according to the set imaging mode. For example, the optical axis adjustment control unit 109 controls the optical axis adjustment unit 105 according to the set shooting mode, and adjusts the optical system (100) and the image sensor 101 by the optical axis adjustment unit 105. Thereby, focus adjustment, zoom-in, zoom-out, aperture adjustment, and the like are performed.
タイミングジェネレータ107はCPU108の制御下で、ドライバ(Driver)106を介して撮像素子101の駆動タイミングを決定する。これによって、撮像素子101の各画素について水平駆動および垂直駆動が行われて、撮像素子101は被写体像に応じたアナログ信号を出力する。 The timing generator 107 determines the drive timing of the image sensor 101 via a driver 106 under the control of the CPU 108. Accordingly, horizontal driving and vertical driving are performed for each pixel of the image sensor 101, and the image sensor 101 outputs an analog signal corresponding to the subject image.
デジタル信号処理部104から出力される現像データは、データ(DATA)バス112およびメモリ制御部113を介して、一旦メモリ114に記録される。データ圧縮/伸長部110は、メモリ114に記録された現像データを圧縮処理して圧縮画像データとする。そして、データ圧縮/伸長部110はCPU108の制御下で圧縮画像データをDATAバス112および記録制御部117を介して記録媒体(118)に記録する。なお、データ圧縮/伸長部110は、例えば、JPEG圧縮処理によって現像データを圧縮処理する。 The development data output from the digital signal processing unit 104 is temporarily recorded in the memory 114 via the data (DATA) bus 112 and the memory control unit 113. The data compression / decompression unit 110 compresses the development data recorded in the memory 114 to generate compressed image data. The data compression / decompression unit 110 records the compressed image data on the recording medium (118) via the DATA bus 112 and the recording control unit 117 under the control of the CPU. The data compression / decompression unit 110 compresses the development data by, for example, JPEG compression processing.
前述のデジタル信号処理部104は、メモリ114に記録された現像データを読み出して画像縮小処理し、当該縮小画像データを再度メモリ114に記録する。そして、デジタル信号処理部104はメモリ114から縮小画像データを読み出して、LCD(液晶ディスプレイ)制御部115を介してLCD116に画像として表示する。これによって、撮影の際にメモリ114に記録した現像データをライブ画像としてLCD116に表示することができる。 The digital signal processing unit 104 reads the development data recorded in the memory 114, performs image reduction processing, and records the reduced image data in the memory 114 again. The digital signal processing unit 104 reads the reduced image data from the memory 114 and displays it as an image on the LCD 116 via the LCD (liquid crystal display) control unit 115. Thus, the development data recorded in the memory 114 at the time of shooting can be displayed on the LCD 116 as a live image.
LCD116はタッチパネルを備えるようにしてもよい。この場合には、図示はしないが、タッチパネルの操作に応じた操作信号がCPU108に送られて、CPU108は当該操作信号に応じた制御を行う。 The LCD 116 may include a touch panel. In this case, although not shown, an operation signal corresponding to the operation of the touch panel is sent to the CPU 108, and the CPU 108 performs control according to the operation signal.
図2は、図1に示すデジタル信号処理部104に備えられた現像部119の動作を説明するためのブロック図である。 FIG. 2 is a block diagram for explaining the operation of the developing unit 119 provided in the digital signal processing unit 104 shown in FIG.
現像部119は、センサー補正部300および現像処理部301を有しており、センサー補正部300にはA/D変換部102から撮像データが入力される。センサー補正部300は、CPU108の制御下で撮像データについて光学系100で生じる色収差を補正する。さらに、センサー補正部300は、撮像データに関して撮像素子101のゲインバラツキを行うとともに、欠陥画素の判定を行って欠陥画素を補正する。そして、センサー補正部300は補正済み撮像データを出力する。この補正済み撮像データはDATAバス112を介してメモリ114に記録するようにしてもよい。 The developing unit 119 includes a sensor correction unit 300 and a development processing unit 301, and imaging data is input from the A / D conversion unit 102 to the sensor correction unit 300. The sensor correction unit 300 corrects chromatic aberration generated in the optical system 100 with respect to imaging data under the control of the CPU 108. Further, the sensor correction unit 300 performs gain variation of the image sensor 101 with respect to the image data, and determines the defective pixel to correct the defective pixel. Then, the sensor correction unit 300 outputs corrected imaging data. The corrected imaging data may be recorded in the memory 114 via the DATA bus 112.
センサー補正部300から補正済み撮像データが現像処理部301送られる。現像処理部301は、CPU108の制御下で補正済み現像データを現像処理して現像データを得る。ここで現像処理では、例えば、ベイヤー画像について同時化処理およびガンマ補正処理などを行って、RGB(ベイヤー画像)からYCrCb変換後の現像データが生成される。そして、前述したように、現像処理部301は現像データを、DATAバス112を介してメモリ114に記録する。 The corrected imaging data is sent from the sensor correction unit 300 to the development processing unit 301. The development processing unit 301 develops the corrected development data under the control of the CPU 108 to obtain development data. Here, in the development process, for example, a synchronization process and a gamma correction process are performed on the Bayer image to generate development data after YCrCb conversion from RGB (Bayer image). As described above, the development processing unit 301 records the development data in the memory 114 via the DATA bus 112.
図3は、図1に示すデジタル信号処理部104に備えられた追尾処理部120の動作を説明するためのブロック図である。 FIG. 3 is a block diagram for explaining the operation of the tracking processing unit 120 provided in the digital signal processing unit 104 shown in FIG.
追尾処理部120では、画像を数画素毎に水平・垂直積分(ブロック積分)するブロック積分処理が行われる。さらに、追尾処理部120では、ブロック積分の結果得られた画像とレジスタ207に記憶された特徴色パターンを示す特徴色パターン情報とに基づいて特徴色パターンマッチングを行う特徴色パターンマッチング処理が行われる。 The tracking processing unit 120 performs block integration processing that performs horizontal and vertical integration (block integration) of the image every several pixels. Further, the tracking processing unit 120 performs a feature color pattern matching process for performing feature color pattern matching based on the image obtained as a result of block integration and the feature color pattern information indicating the feature color pattern stored in the register 207. .
ブロック積分処理においては、DATAバス112を介してメモリ114に記録された現像データを読み出し、水平積分部201は、CPU108の制御下で数画素毎に画素データを水平積分して、水平積分結果を得る。続いて、垂直積分部202は、CPU108の制御下で水平積分結果について数ライン毎に垂直積分を行ってブロック積分画像データを生成する。そして、垂直積分部201はブロック積分画像データ(以下単にブロック積分画像とも呼ぶ)を、DATAバス112を介してメモリ114に記録する。 In the block integration process, the development data recorded in the memory 114 is read via the DATA bus 112, and the horizontal integration unit 201 performs horizontal integration of the pixel data every several pixels under the control of the CPU 108, and the horizontal integration result is obtained. obtain. Subsequently, the vertical integration unit 202 performs vertical integration every several lines on the horizontal integration result under the control of the CPU 108 to generate block integration image data. The vertical integration unit 201 records block integration image data (hereinafter also simply referred to as a block integration image) in the memory 114 via the DATA bus 112.
特徴色パターンマッチング処理においては、DATAバス112を介してメモリ114からブロック積分画像データを読み出して、水平積分部201および垂直積分部202をスルーして、LINE(ライン)メモリ204にLINE単位でブロック積分画像データをブロック積分情報として記録する。 In the feature color pattern matching process, block integration image data is read from the memory 114 via the DATA bus 112, passed through the horizontal integration unit 201 and the vertical integration unit 202, and blocked in the LINE memory 204 in units of LINE. Integral image data is recorded as block integration information.
なお、メモリ114から現像データを読み出して、水平積分部201および垂直積分部202によってブロック積分を行いつつ、LINEメモリ204にLINE単位でブロック積分情報を記録するようにしてもよい。このようにすれば、特徴色パターン情報を取得した後、連続してキャプチャーされる現像データについてブロック積分を行ってブロック積分画像をメモリ114に記録しつつ特徴色パターンマッチング処理を行うことができる。 Alternatively, the development data may be read from the memory 114 and block integration information may be recorded in the LINE memory 204 in units of LINE while performing block integration by the horizontal integration unit 201 and the vertical integration unit 202. In this way, after acquiring the characteristic color pattern information, it is possible to perform the characteristic color pattern matching process while performing block integration on the development data continuously captured and recording the block integrated image in the memory 114.
また、LINEメモリ204を、例えば、垂直積分部202における垂直積分用メモリとして共有するようにしてもよい。第1の実施形態では、後述するように、1種類の特徴色パターン情報はブロック積分画像において3×3の画素情報であるので、LINEメモリ204はマッチング用に3LINE分、垂直積分用に1LINE分程度のSRAMで構成されているものとする。 Further, the LINE memory 204 may be shared as a vertical integration memory in the vertical integration unit 202, for example. In the first embodiment, as will be described later, since one type of characteristic color pattern information is 3 × 3 pixel information in the block integration image, the LINE memory 204 is for 3 LINE for matching and for 1 LINE for vertical integration. It is assumed that it is composed of about SRAM.
YUV2RGB変換部206は、LINEメモリ204からブロック積分情報を読み出してYUVデータをRGBデータに変換する。 The YUV2RGB conversion unit 206 reads block integration information from the LINE memory 204 and converts the YUV data into RGB data.
いま、ユーザがLCD116に備えられたタッチパネルをタッチ操作して追尾対象の被写体を指定したとすると、特徴色パターン抽出部209は、当該指定操作の位置情報(つまり、座標情報)とブロック積分画像の座標情報との相関関係に応じて3×3のブロック積分情報を特徴色パターン情報として抽出する。そして、特徴色パターン抽出部209はレジスタ207に特徴色パターン情報を記憶する。 Now, if the user touches the touch panel provided on the LCD 116 and designates the subject to be tracked, the feature color pattern extraction unit 209 displays the position information (that is, coordinate information) of the designation operation and the block integrated image. According to the correlation with the coordinate information, 3 × 3 block integration information is extracted as feature color pattern information. Then, the characteristic color pattern extraction unit 209 stores the characteristic color pattern information in the register 207.
なお、ここでは、3×3の特徴色パターン情報を9種類(特徴色パターンA〜特徴色パターンI)備える場合について説明するが、個々の特徴色パターン情報がNxM(NおよびMの各々は1以上の整数)でなくともよく、さらには矩形でなくともよい。また、特徴色パターン情報の種類も複数であればよい。但し、被写体の形状によって回路規模が増減することがないように、回路構成として有限個のパターン数を備えるようにする。 Here, a case where nine types of 3 × 3 feature color pattern information (feature color pattern A to feature color pattern I) are provided will be described. However, each feature color pattern information is NxM (N and M are each 1). It may not be an integer above, and may not be a rectangle. In addition, there may be a plurality of types of characteristic color pattern information. However, the circuit configuration is provided with a finite number of patterns so that the circuit scale does not increase or decrease depending on the shape of the subject.
形状判別部210は、ユーザが指定した位置情報における特徴色パターン情報を用いて追尾対象である被写体の色形状を示す色形状情報を求める。第1の実施形態では、後述するように、色形状情報に応じて、特徴色パターン情報を複数配置する。 The shape determination unit 210 obtains color shape information indicating the color shape of the subject to be tracked using the characteristic color pattern information in the position information designated by the user. In the first embodiment, as will be described later, a plurality of characteristic color pattern information is arranged according to the color shape information.
次に、マッチング処理部208はレジスタ207に記録された複数の特徴色パターン情報とYUV2RGB変換部206から送られたブロック積分情報(ここでは、RGBデータ)とを比較して、比較結果としてマッチング結果を出力する。なお、複数の特徴色パターン情報を用いたマッチング処理については後述する。 Next, the matching processing unit 208 compares the plurality of characteristic color pattern information recorded in the register 207 with the block integration information (here, RGB data) sent from the YUV2RGB conversion unit 206, and matches the matching result as a comparison result. Is output. A matching process using a plurality of characteristic color pattern information will be described later.
ベクトル演算部212はパターンマッチング結果に基づいて当該パターンの移動量をベクトルとして求める。さらに、ベクトル演算部212は複数の特徴色パターンについて位置関係を示すパターン位置関係情報を求める。 The vector calculation unit 212 obtains the movement amount of the pattern as a vector based on the pattern matching result. Further, the vector calculation unit 212 obtains pattern positional relationship information indicating the positional relationship for a plurality of feature color patterns.
重み情報付加部211は、ベクトル演算部212で得られたパターン位置関係情報およびマッチング処理部208で得られたマッチング結果を用いて、各特徴色パターンに重み情報を付加する。なお、重み情報の付加については後述する。 The weight information addition unit 211 uses the pattern positional relationship information obtained by the vector calculation unit 212 and the matching result obtained by the matching processing unit 208 to add weight information to each feature color pattern. The addition of weight information will be described later.
マッチング結果に基づいて、CPU108は後述するようにして追尾対象である被写体の移動距離を示す移動距離情報を求める。さらに、CPU108は移動距離情報に基づいて光軸調整制御部109を制御して光軸調整部105によって光学系100を調整する。これによって、追尾対象である被写体の移動に合わせてフォーカスが調整される。また、CPU108は移動距離情報に応じて、LCD116に表示された追尾対象を示す追尾枠表示を更新して、ユーザに追尾対象である被写体の明示を行う。 Based on the matching result, the CPU 108 obtains movement distance information indicating the movement distance of the subject to be tracked as described later. Further, the CPU 108 controls the optical axis adjustment control unit 109 based on the movement distance information and adjusts the optical system 100 by the optical axis adjustment unit 105. As a result, the focus is adjusted in accordance with the movement of the subject that is the tracking target. Further, the CPU 108 updates the tracking frame display indicating the tracking target displayed on the LCD 116 according to the moving distance information, and clearly indicates the subject that is the tracking target to the user.
図4は、図1に示す撮像装置において撮影の際に行われる色追尾処理において複数の特徴色パターンを配置するパターン処理を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining pattern processing for arranging a plurality of characteristic color patterns in color tracking processing performed at the time of shooting in the imaging apparatus shown in FIG.
なお、ここでは、色追尾処理について説明するが、色追尾処理を行うことなく撮影する場合には、当然のことながらこの色追尾処理は行われない。この場合には、ユーザが撮影釦を押した時点でキャプチャーされた画像が記録されることになる。 Here, the color tracking process will be described. However, when shooting without performing the color tracking process, the color tracking process is naturally not performed. In this case, an image captured when the user presses the shooting button is recorded.
いま、静止画又は動画撮影の開始するため、撮影装置の電源がオンされて撮影モードが設定されると、前述のようにして、LCD116には画像が表示される。CPU108は、ユーザがLCD116に備えられたタッチパネルをタッチ操作して追尾対象である被写体を選択したか否かを判定する(ステップS101)。被写体の選択が行われないと(ステップS101において、NO)、CPU108は待機する。 Now, in order to start still image or moving image shooting, when the shooting apparatus is turned on and the shooting mode is set, an image is displayed on the LCD 116 as described above. The CPU 108 determines whether or not the user has selected a subject to be tracked by touching the touch panel provided on the LCD 116 (step S101). If no subject is selected (NO in step S101), CPU 108 waits.
被写体の選択が行われると(ステップS101において、YES)、CPU108は現像部119によってキャプチャーした撮像データを現像処理して現像データ(つまり、YUVデータ)をメモリ114に記録する(ステップS102)。 When the subject is selected (YES in step S101), the CPU 108 develops the image data captured by the developing unit 119 and records the development data (that is, YUV data) in the memory 114 (step S102).
続いて、CPU108の制御下で、追尾処理部120はメモリ114に記録された現像データを読み出す。そして、水平積分部201および垂直積分部202はn×m(nおよびmの各々は1以上の整数)程度のブロック積分画像を生成する(ステップS103)。なお、ここでは、n=32、m=24とする。 Subsequently, the tracking processing unit 120 reads the development data recorded in the memory 114 under the control of the CPU 108. Then, the horizontal integration unit 201 and the vertical integration unit 202 generate a block integration image of about n × m (n and m are each an integer of 1 or more) (step S103). Here, n = 32 and m = 24.
図5は、図4に示すブロック積分画像生成処理で生成されたブロック積分画像の一例を示す図である。 FIG. 5 is a diagram illustrating an example of a block integral image generated by the block integral image generation process illustrated in FIG.
図5において、左上隅を原点(x=0,y=0)とすると、ブロック積分画像は、x軸方向に32画素、y軸方向に24画素を有している。 In FIG. 5, if the upper left corner is the origin (x = 0, y = 0), the block integrated image has 32 pixels in the x-axis direction and 24 pixels in the y-axis direction.
ユーザがLCD116に備えられたタッチパネルをタッチ操作して追尾対象の被写体(特定の被写体)を指定したとすると、特徴色パターン抽出部209は、当該指定操作の位置情報(つまり、座標情報)とブロック積分画像の座標情報との相関関係に応じて3×3のブロック積分情報を特徴色パターン情報として抽出する。そして、特徴色パターン抽出部209はレジスタ207に特徴色パターン情報を記憶する(ステップS104)。 If the user touches the touch panel provided on the LCD 116 and designates a tracking target subject (specific subject), the feature color pattern extraction unit 209 causes the location information (that is, coordinate information) and block of the designation operation to be performed. 3 × 3 block integration information is extracted as feature color pattern information in accordance with the correlation with the coordinate information of the integrated image. The feature color pattern extraction unit 209 stores the feature color pattern information in the register 207 (step S104).
ここで、例えば、現像データの画像サイズが640×480ピクセル程度であるとすると、ユーザによって指定された追尾対象の位置情報は水平20分の1、垂直20分の1のブロック積分画像(32×24ピクセル)の位置情報に変換される。 Here, for example, if the image size of the development data is about 640 × 480 pixels, the position information of the tracking target specified by the user is 1/20 horizontal and 1/20 vertical block integrated image (32 × 24 pixel) position information.
図6は、ブロック積分画像においてユーザによって指定された追尾対象の被写体の位置を示す図である。 FIG. 6 is a diagram showing the position of the tracking target subject specified by the user in the block integration image.
図6において、いま、ユーザによって指定された位置が指定座標a(17,14)であるとすると、当該指定座標を中心として3×3ピクセルのブロック積分画像が特徴色パターンAとされて、当該特徴色パターンAを示す特徴色パターン情報がレジスタ207に記録される。以下この特徴色パーン情報にも符号”A”を付す。この特徴色パターンAが第1の特徴色パターンである。 In FIG. 6, if the position designated by the user is designated coordinates a (17, 14), a block integrated image of 3 × 3 pixels centering on the designated coordinates is defined as a feature color pattern A, and Feature color pattern information indicating the feature color pattern A is recorded in the register 207. In the following, this characteristic color pann information is also given the symbol “A”. This characteristic color pattern A is the first characteristic color pattern.
続いて、マッチング処理部208は特徴色パターン情報Aを用いて、ブロック積分画像(ここでは、RGBデータ)とのマッチング処理を行う(ステップS105)。ここで行われるマッチング処理は、追尾対象となる被写体の色外形(色形状)を取得するためのマッチング処理であるので、特徴色パターンAの中心の画素(中心ブロック積分画素と呼ぶ)についてマッチング処理を行ってそのマッチング処理結果を使用する。 Subsequently, the matching processing unit 208 uses the feature color pattern information A to perform a matching process with a block integrated image (here, RGB data) (step S105). Since the matching process performed here is a matching process for obtaining the color outline (color shape) of the subject to be tracked, the matching process is performed on the pixel at the center of the characteristic color pattern A (referred to as a central block integration pixel). And use the result of the matching process.
図7は、図4に示すステップS105のマッチング処理によるマッチング結果を説明するための図である。 FIG. 7 is a diagram for explaining a matching result obtained by the matching process in step S105 shown in FIG.
ここでは、ブロック積分画像が特徴色パターンAと最も近い色情報を有する場合、マッチング結果を”100”とし、マッチング結果の値が小さくなるにつれて、ブロック積分画像は特徴色パターンAとは異なる色情報を有する。 Here, when the block integrated image has color information closest to the characteristic color pattern A, the matching result is set to “100”, and the block integrated image is different from the characteristic color pattern A as the value of the matching result decreases. Have
つまり、ステップS105においては、マッチング抽出部208は、図7に示すように、特徴色パターンAの中心ブロック積分画素と類似する色情報を有するブロック積分画像を100段階評価してマッチング結果として出力する。 That is, in step S105, as shown in FIG. 7, the matching extraction unit 208 evaluates the block integration image having color information similar to the central block integration pixel of the characteristic color pattern A, and outputs it as a matching result. .
続いて、形状判定部210は予め設定された閾値(例えば、60)とマッチング結果とを比較して、マッチング結果の値が閾値以上である画素を調べる。そして、形状判定部210は値が閾値以上である画素によって被写体の色形状を抽出して色形状情報を得る(ステップS106)。 Subsequently, the shape determining unit 210 compares a preset threshold value (for example, 60) with the matching result, and examines a pixel whose matching result value is equal to or greater than the threshold value. Then, the shape determination unit 210 extracts the color shape of the subject using pixels whose values are equal to or greater than the threshold value, and obtains color shape information (step S106).
次に、ベクトル演算部212は上記の色形状情報に基づいて複数の特徴色パターンB〜Iを配置するための中心位置(位置座標)を求める(ステップS107)。 Next, the vector calculation unit 212 obtains a center position (positional coordinates) for arranging the plurality of characteristic color patterns B to I based on the color shape information (step S107).
図8は、図3に示すベクトル演算部212で行われた特徴色パターンの配置の一例を説明するための図である。また、図9は図8に示す特徴色パターンの配置を拡大して示す図である。 FIG. 8 is a diagram for explaining an example of the arrangement of characteristic color patterns performed by the vector calculation unit 212 shown in FIG. FIG. 9 is an enlarged view showing the arrangement of the characteristic color pattern shown in FIG.
図示のように、複数の特徴色パターンを配置する際、特徴色パターンB〜特徴色パターンIを特徴色パターンAに隣接して配置するようにしてもよいが、複数の特徴色パターンは同様の特徴色パターンであるため、ブロック積分画像に対して追尾対象となる被写体に係る色形状情報が大きな面積を占めると、同様の特徴色パターンについてパターンマッチングを繰り返して行うことになってしまう。 As shown in the figure, when a plurality of characteristic color patterns are arranged, the characteristic color patterns B to I may be arranged adjacent to the characteristic color pattern A, but the plurality of characteristic color patterns are the same. Since it is a feature color pattern, if the color shape information related to the subject to be tracked occupies a large area with respect to the block integration image, pattern matching is repeated for the same feature color pattern.
このため、ステップSS107では、前述の指定座標a(17,14)の上下左右方向の各々において、予め設定された閾値(例えば、60)以上の画素を求める。 For this reason, in step SS107, pixels that are equal to or greater than a preset threshold value (for example, 60) are obtained in each of the above-described designated coordinates a (17, 14) in the vertical and horizontal directions.
図7を参照すると、指定座標a(17,14)よりも上方向については、水平位置が同一の座標(17,11)の画素のみが閾値以上であるので、当該座標(17,11)が中心位置候補とされる。 Referring to FIG. 7, in the upward direction from the designated coordinate a (17, 14), only the pixel at the coordinate (17, 11) having the same horizontal position is equal to or greater than the threshold value. The center position candidate.
さらに、11ライン目の画素において、閾値以上の値を示す画素で座標(15,11)が最も左側に位置しているので、当該座標(15,11)が中心位置候補とされる。また、閾値以上の値を示す画素で座標(19.11)が最も右側に位置しているので、当該座標(19,11)が中心位置候補とされる。 Further, in the pixel on the 11th line, the coordinate (15, 11) is the leftmost pixel indicating the value equal to or greater than the threshold value, and therefore the coordinate (15, 11) is set as the center position candidate. In addition, since the coordinates (19.11) are located on the rightmost side in the pixel indicating the value equal to or greater than the threshold, the coordinates (19, 11) are set as the center position candidate.
同様にして、指定座標aよりも下方向については、閾値以上である画素について、同一の水平位置にあり且つ最も下側にある座標(17,16)が中心位置候補とされる。そして、16ライン目の画素において、閾値以上の画素で座標(10,16)が最も左側に位置し、座標(25,16)が最も右側に位置するので、これら座標(10,16)および座標(25,16)の各々も中心位置候補とされる。 Similarly, in the lower direction than the designated coordinate a, the coordinates (17, 16) that are at the same horizontal position and are at the lowermost side for the pixels that are equal to or greater than the threshold value are the center position candidates. In the pixels on the 16th line, the coordinates (10, 16) are located on the leftmost side and the coordinates (25, 16) are located on the rightmost side in the pixels equal to or greater than the threshold value. Each of (25, 16) is also a center position candidate.
さらに、指定座標aから右方向については、閾値以上の画素について、指定座標aと同一の垂直位置にあり且つ最も右側にある座標(25,14)が中心位置候補とされる。そして、指定座標aより最も右側に位置する25列目において、閾値以上の画素では座標(25,14)が最も上側に位置し、座標(25,16)が最も下側に位置する。よって、座標(25,16)が中心位置候補とされる。 Further, with respect to the right direction from the designated coordinate a, for the pixels that are equal to or greater than the threshold value, the rightmost coordinate (25, 14) at the same vertical position as the designated coordinate a is set as the center position candidate. Then, in the 25th column located on the rightmost side from the designated coordinate a, the coordinates (25, 14) are located on the uppermost side and the coordinates (25, 16) are located on the lowermost side in pixels that are equal to or greater than the threshold value. Therefore, the coordinates (25, 16) are set as the center position candidate.
また、指定座標aから左方向については、閾値以上の画素について、指定座標aと同一の垂直位置にあり且つ最も左側にある座標(11,14)が中心位置候補とされる。そして、指定座標aより最も左側に位置する11列目において、閾値以上の画素で座標(10,16)が最も下側に位置するので、座標(10,16)が中心位置候補とされる。なお、図示の例では、指定座標aより最も左側に位置する列において指定座標aより上側にある中心位置候補は存在しない。 In the left direction from the designated coordinate a, the coordinates (11, 14) located at the same vertical position as the designated coordinate a and the leftmost coordinate (11, 14) are set as candidates for the center position. Then, in the eleventh column located on the leftmost side from the designated coordinate a, the coordinates (10, 16) are located on the lowermost side of the pixels that are equal to or greater than the threshold value, so that the coordinates (10, 16) are the center position candidates. In the illustrated example, there is no center position candidate located above the designated coordinate a in the column located on the leftmost side from the designated coordinate a.
このようにして得られた中心位置候補について、重複している座標を除くと、次の8つの画素(ブロック積分画素)が特徴色パターンの中心位置候補として得られる。 When overlapping coordinates are removed from the center position candidates obtained in this way, the following eight pixels (block integration pixels) are obtained as center position candidates of the characteristic color pattern.
座標(17,11):マッチング結果(70)
座標(15,11):マッチング結果(68)
座標(19,11):マッチング結果(73)
座標(17,16):マッチング結果(91)
座標(10,16):マッチング結果(66)
座標(25,16):マッチング結果(87)
座標(25,14):マッチング結果(80)
座標(11,14):マッチング結果(81)
ここでは、特徴色パターンとして特徴色パターンB〜Iの8種類を備えることができるので、上記の全ての中心位置候補を中心位置座標として、当該中心位置座標の画素を中心として3×3ピクセルの特徴色パターンを得る。
Coordinates (17, 11): Matching result (70)
Coordinate (15, 11): Matching result (68)
Coordinates (19, 11): Matching result (73)
Coordinates (17, 16): Matching result (91)
Coordinate (10, 16): Matching result (66)
Coordinates (25, 16): Matching result (87)
Coordinates (25, 14): Matching result (80)
Coordinate (11, 14): Matching result (81)
Here, since eight types of feature color patterns B to I can be provided as feature color patterns, all the above center position candidates are set as center position coordinates, and 3 × 3 pixels centering on the pixel of the center position coordinates. A feature color pattern is obtained.
このようにして得られた特徴色パターンの中心位置座標から特徴色パターンB〜Iを示す情報が特徴色パターン情報として抽出される。 Information indicating the characteristic color patterns B to I is extracted as characteristic color pattern information from the center position coordinates of the characteristic color pattern thus obtained.
図10は、全ての特徴色パターンを配置した状態を示す図である。また、図11は、特徴色パターン情報のデータ構成の一例を示す図である。 FIG. 10 is a diagram illustrating a state in which all characteristic color patterns are arranged. FIG. 11 is a diagram illustrating an example of a data configuration of characteristic color pattern information.
前述のように、特徴色パターンの各々は3×3ピクセルのブロック積分画素であるので、特徴色パターンの各々は、ブロック積分画素の色情報としてR、G、およびBの値(例えば、8ビットデータ)を備えている。従って、例えば、特徴色パターン情報Aは8ビットデータA0〜A8の各々がR、G、およびBの値を有することになる。 As described above, since each of the characteristic color patterns is a 3 × 3 pixel block integration pixel, each of the characteristic color patterns has R, G, and B values (for example, 8 bits) as color information of the block integration pixel. Data). Therefore, for example, in the characteristic color pattern information A, each of the 8-bit data A0 to A8 has R, G, and B values.
ここでは、特徴色パターンの中心位置座標を求めるため、特徴色パターンAの上下左右の方向にある類似するブロック積分画素と、さらに、各方向の最も外側に位置するブロック積分画像においてそれぞれ上下左右方向の最も遠くにあるブロック積分画素を中心位置候補とした。そして、特徴色パターン中心位置座標が重複するか又は条件を満たすブロック積分画素がないなどの理由で、得られた特徴色パターン中心位置座標が特徴色パターン数より多くなった場合には、マッチング結果と特徴色パターンAとの距離関係とに応じて選別するようにしてもよい。 Here, in order to obtain the center position coordinates of the feature color pattern, similar block integration pixels in the up, down, left, and right directions of the feature color pattern A, and further, the up, down, left, and right directions respectively in the block integration image located on the outermost side in each direction The block integration pixel that is farthest from the center is a candidate for the center position. If the obtained feature color pattern center position coordinates are larger than the number of feature color patterns because the feature color pattern center position coordinates overlap or there is no block integration pixel that satisfies the condition, the matching result And the characteristic color pattern A may be selected according to the distance relationship.
また、特徴色パターンの配置については、ステップS105で得られた被写体の色形状情報を特徴的に捉えるよう配置することができればよいので、例えば、特徴色パターンAの上下左右方向における最も外側にあるブロック積分画素4つを取得する。そして、4つのブロック積分画素間を補間する位置にある類似のブロック積分画素を中心候補として新たに4つのブロック積分画素を得て、8つの特徴色パターンを得るようにしてもよい。 The feature color pattern may be arranged so that the color shape information of the subject obtained in step S105 can be characteristically captured. For example, the feature color pattern A is located on the outermost side in the vertical and horizontal directions of the feature color pattern A. Obtain four block integration pixels. Then, four block integration pixels may be newly obtained using a similar block integration pixel at a position where interpolation is performed between the four block integration pixels as a center candidate, and eight characteristic color patterns may be obtained.
再び、図4を参照して、重み情報付加部211は特徴色パターンB〜Iと特徴色パターンAとの相対的距離に応じて得られる重み情報を特徴色パターン情報に付加する(ステップS108)。 Referring to FIG. 4 again, the weight information adding unit 211 adds weight information obtained according to the relative distance between the feature color patterns B to I and the feature color pattern A to the feature color pattern information (step S108). .
図12は、図3に示す重み情報付加部211よる重み情報の付加を説明するための図である。 FIG. 12 is a diagram for explaining the addition of weight information by the weight information addition unit 211 shown in FIG.
特徴色パターンBは、座標(15,11)が中心位置座標であり、特徴色パターンAの中心位置座標(17,14)からみた相対的位置は(−2,−3)となる。この相対的位置情報に応じたベクトルの大きさの逆数を、ここでは重み情報とする。特徴色パターンBについては2の2乗と3の2乗の和をルート演算すると、約3.6となる。従って、この値(3.6)の逆数が重み情報とされる。 In the feature color pattern B, the coordinates (15, 11) are the center position coordinates, and the relative position viewed from the center position coordinates (17, 14) of the feature color pattern A is (−2, −3). Here, the reciprocal of the magnitude of the vector corresponding to the relative position information is used as weight information. With respect to the characteristic color pattern B, the root calculation of the sum of the square of 2 and the square of 3 is about 3.6. Therefore, the reciprocal of this value (3.6) is used as the weight information.
なお、ブロック積分画像のサイズが32×24ピクセルであるので、重み情報はとりうる相対的位置情報の最大値を1として正規するようにしてもよい。 Since the size of the block integrated image is 32 × 24 pixels, the weight information may be normalized by setting the maximum value of the relative position information that can be taken as 1.
この結果、特徴色パターン情報にはR、G、およびBの8Bitデータの他に次の情報が付加されることになる。 As a result, the following information is added to the characteristic color pattern information in addition to the R, G, and B 8-bit data.
特徴色パターンAでは、座標(17,14)、マッチング結果はなし、重み情報はなし。 In the feature color pattern A, coordinates (17, 14), no matching result, and no weight information.
特徴色パターンBでは、座標(15,11)、マッチング結果:68、重み情報:1/3.6。 In the characteristic color pattern B, coordinates (15, 11), matching result: 68, weight information: 1 / 3.6.
特徴色パターンCでは、座標(17,11)、マッチング結果:70、重み情報:1/3.0。 In the characteristic color pattern C, coordinates (17, 11), matching result: 70, weight information: 1 / 3.0.
特徴色パターンDでは、座標(19,11)、マッチング結果:73、重み情報:1/3.6。 In the characteristic color pattern D, coordinates (19, 11), matching result: 73, weight information: 1 / 3.6.
特徴色パターンEでは、座標(11,14)、マッチング結果:81、重み情報:1/6.0。 In the characteristic color pattern E, coordinates (11, 14), matching result: 81, weight information: 1 / 6.0.
特徴色パターンFでは、座標(25,14)、マッチング結果:80、重み情報:1/8.0。 In the characteristic color pattern F, coordinates (25, 14), matching result: 80, weight information: 1 / 8.0.
特徴色パターンGでは、座標(10,16)、マッチング結果:66、重み情報:1/7.2。 In the characteristic color pattern G, coordinates (10, 16), matching result: 66, weight information: 1 / 7.2.
特徴色パターンHでは、座標(17,16)、マッチング結果:91、重み情報:1/2.0。 In the characteristic color pattern H, coordinates (17, 16), matching result: 91, weight information: 1 / 2.0.
特徴色パターンIでは、座標(25,16)、マッチング結果:87、重み情報:1/8.2。 In the characteristic color pattern I, coordinates (25, 16), matching result: 87, weight information: 1 / 8.2.
さらに、ステップS108において、重み情報付加部211は特徴色パターンの重み情報として距離情報に応じた重み情報の他に、特徴色パターンB〜Iについて、特徴色パターンAの中心ブロック積分画素と類似する画素の数を重み情報として付加する。特に、特徴色パターンの配置については被写体の色外形(色形状)を特徴的に捉えることが必要であるので、特徴色パターンAとのマッチング結果が高いブロック積分画素が1つ以上隣接しているものを優先的に特徴色パターン中心位置座標とするようにしてもよい。 Further, in step S108, the weight information adding unit 211 resembles the central block integration pixel of the feature color pattern A for the feature color patterns B to I in addition to the weight information corresponding to the distance information as the weight information of the feature color pattern. The number of pixels is added as weight information. In particular, regarding the arrangement of the characteristic color pattern, since it is necessary to characteristically capture the color outline (color shape) of the subject, one or more block integration pixels having a high matching result with the characteristic color pattern A are adjacent to each other. It is also possible to preferentially use the feature color pattern center position coordinates.
これによって、ブロック積分画像に突発的に発生する特徴色パターンAに類似したブロック積分画素が存在しても重み情報を低く設定することによって、同一被写体における色形状を追従することが可能となる。 As a result, even if there is a block integration pixel similar to the characteristic color pattern A that suddenly occurs in the block integration image, it is possible to follow the color shape of the same subject by setting the weight information low.
次に、特徴色パターン抽出部209はブロック積分画像から特徴色パターンB〜Iについて3×3ピックセルの8ビットデータを抽出して、レジスタ207に特徴色パターン情報として記録する(ステップS109)。 Next, the feature color pattern extraction unit 209 extracts 8-bit data of 3 × 3 pick cells for the feature color patterns B to I from the block integration image, and records them as feature color pattern information in the register 207 (step S109).
続いて、CPU108はユーザが撮影終了を指示したか否かを判定する(ステップS110)。撮影終了が指示されると(ステップS110において、YES)、CPU108は撮影を終了する。一方、撮影終了が指示されないと(ステップS110において、NO)、CPU108は、後述する追尾処理フローに移行する。 Subsequently, the CPU 108 determines whether or not the user has instructed the end of shooting (step S110). When the end of shooting is instructed (YES in step S110), CPU 108 ends shooting. On the other hand, if the end of shooting is not instructed (NO in step S110), the CPU 108 proceeds to a tracking process flow to be described later.
このようにして、ユーザが指定した追尾対象の被写体について、色形状情報を取得して、追尾被写体の色形状に応じて複数の特徴色パターンを配置するようにしたので、特徴色パターンマッチングを用いて被写体の追尾に係る精度を向上させることができる。また、時間的に連続又は異なるフレーム間において、追尾対象の被写体の形状および大きさが変化しても、複数の特徴色パターンの配置を変化させれば追尾を良好に行うことができる。 In this way, the color shape information is acquired for the tracking target subject specified by the user, and a plurality of characteristic color patterns are arranged according to the color shape of the tracking subject. Thus, it is possible to improve the accuracy of subject tracking. Further, even if the shape and size of the subject to be tracked change between temporally continuous or different frames, tracking can be performed satisfactorily by changing the arrangement of the plurality of characteristic color patterns.
図13は、図1に示す撮像装置で行われる色追尾処理を説明するためのフローチャートである。 FIG. 13 is a flowchart for explaining the color tracking processing performed by the imaging apparatus shown in FIG.
いま、図4に関連して説明したようにして、追尾対象である被写体に係る特徴色パターン情報が記録されたものとする。追尾処理が開始されると、CPU108は特徴色パターン情報を求めた際の撮像データと時間的に異なる撮像データ(キャプチャデータ)を、現像部119によって現像して現像データ(つまり、YUV画像)をメモリ114に記録する(ステップS201)。 Now, as described with reference to FIG. 4, it is assumed that the characteristic color pattern information relating to the subject to be tracked is recorded. When the tracking process is started, the CPU 108 develops image data (capture data) temporally different from the image data obtained when the characteristic color pattern information is obtained by the development unit 119, and develops the development data (ie, YUV image). It records in the memory 114 (step S201).
続いて、CPU108の制御下で、追尾処理部120はメモリ114に記録した現像データを読み出して、水平積分部201および垂直積分部202においてn×mピクセル程度のブロック積分画像を生成する(ステップS202)。ここでは、n=32、m=24である。そして、YUV2RGB変換部205で変換処理されたブロック積分画像について、マッチング処理部208は特徴色パターン情報A〜Iとの特徴色パターンマッチング処理を行う(ステップS203)。 Subsequently, under the control of the CPU 108, the tracking processing unit 120 reads the development data recorded in the memory 114, and generates a block integration image of about n × m pixels in the horizontal integration unit 201 and the vertical integration unit 202 (step S202). ). Here, n = 32 and m = 24. Then, the matching processing unit 208 performs a feature color pattern matching process with the feature color pattern information A to I for the block integrated image converted by the YUV2RGB conversion unit 205 (step S203).
図14は、図3に示すマッチング処理部208で行われる特徴色パターンマッチング処理を説明するための図である。 FIG. 14 is a diagram for explaining the characteristic color pattern matching processing performed by the matching processing unit 208 shown in FIG.
特徴色パターンマッチング処理の際には、マッチング処理部208は、まず特徴色パターンAについて、破線で示すように左上から水平方向に当該特徴色パターンを右にずらしつつ特徴色パターンマッチング処理を行う。そして、マッチング処理部208は特徴色パターンB〜Iについても特徴色パターンAと同様にして特徴色パターンマッチング処理を行う。 In the feature color pattern matching process, the matching processing unit 208 first performs a feature color pattern matching process on the feature color pattern A while shifting the feature color pattern to the right from the upper left in the horizontal direction as indicated by a broken line. Then, the matching processing unit 208 performs the feature color pattern matching process on the feature color patterns B to I in the same manner as the feature color pattern A.
特徴色パターンマッチング処理の際には際LINEメモリ204を使用して、1座標毎に9種類の特徴色パターンについてのマッチング結果を出力する。 At the time of the feature color pattern matching process, the matching line for nine types of feature color patterns is output for each coordinate using the LINE memory 204.
なお、ここでは、3×3ピクセルの特徴色パターンにおいてその中心ブロック積分画素を座標(1,1)に位置づけて特徴色パターンマッチング処理を開始するが、3×3ピクセルの特徴色パターンにおいて中心ブロック積分画素を原点に位置づけて、はみ出した特徴色パターンのブロック積分画素については評価対象としないようにしてもよい。 Here, in the feature color pattern of 3 × 3 pixels, the center block integrated pixel is positioned at the coordinate (1, 1) and the feature color pattern matching process is started. However, in the feature color pattern of 3 × 3 pixels, the center block The integration pixel may be positioned at the origin, and the block integration pixel having the protruding characteristic color pattern may not be evaluated.
ここで、特徴色パターンマッチング処理による評価結果(マッチング結果)の出力について説明する。 Here, the output of the evaluation result (matching result) by the characteristic color pattern matching processing will be described.
図15は、特徴色パターンマッチング処理における処理過程についてブロック積分画像の一部分を拡大して示す図である。図16は、特徴色パターンBの一例を示す図である。 FIG. 15 is an enlarged view showing a part of the block integrated image in the process of the feature color pattern matching process. FIG. 16 is a diagram illustrating an example of the characteristic color pattern B.
いま、特徴色パターンBが図16に示すパターンであるとする。そして、図14に示すように、特徴色パターンBに係るマッチング処理がブロック積分画像の座標(16,13)の位置に達しているものとする。 Assume that the characteristic color pattern B is the pattern shown in FIG. Then, as shown in FIG. 14, it is assumed that the matching process related to the characteristic color pattern B has reached the position of the coordinates (16, 13) of the block integral image.
図17は、座標(16,13)を中心としてブロック積分画像を3×3ピクセルで抜き出した状態を示す図である。 FIG. 17 is a diagram illustrating a state in which the block integration image is extracted with 3 × 3 pixels with the coordinates (16, 13) as the center.
ここでは、3×3ピクセルのブロック積分画素Xと特徴色パターンBとについてR、G、Bの色情報の値を比較して、一致する場合を評価結果100とし、類似度が低くなるについて評価結果を100から小さくする。 Here, the values of the R, G, and B color information are compared for the 3 × 3 pixel block integration pixel X and the characteristic color pattern B, and the case where they match is evaluated as 100, and the similarity is evaluated to be low. Decrease the result from 100.
図18は、図16に示す特徴色パターンと図17に示す3×3ピクセルのブロック積分画素とを比較した評価結果の一例を示す図である。 18 is a diagram illustrating an example of an evaluation result obtained by comparing the characteristic color pattern illustrated in FIG. 16 and the 3 × 3 pixel block integration pixel illustrated in FIG. 17.
また、図19は、図18に示す評価結果について特徴色パターンの中心画素を除く画素について所定の閾値を基準として2値化した評価結果を示す図である。 FIG. 19 is a diagram showing an evaluation result obtained by binarizing the evaluation result shown in FIG. 18 with respect to pixels excluding the central pixel of the characteristic color pattern with a predetermined threshold as a reference.
いま、特徴色パターンマッチング処理によって、図18に示す評価結果が得られたとする。この際、評価結果を記録する際の情報量を減らすため、マッチング処理部208は、例えば、図18に示す評価結果を2値化する。ここでは、閾値を60として、特徴色パターンの中心画素を除いて他の画素に関して、図18に示す評価結果が閾値以上であれば評価結果を”1”とし、評価結果が閾値未満であれば評価結果を”0”として2値化を行う。 Assume that the evaluation result shown in FIG. 18 is obtained by the characteristic color pattern matching process. At this time, in order to reduce the amount of information when recording the evaluation result, the matching processing unit 208 binarizes the evaluation result shown in FIG. 18, for example. Here, assuming that the threshold value is 60 and the evaluation result shown in FIG. 18 is equal to or greater than the threshold value for other pixels except the central pixel of the characteristic color pattern, the evaluation result is “1”, and if the evaluation result is less than the threshold value, Binarization is performed with the evaluation result set to “0”.
図20は、図15に示す状態から水平方向に1画素分ずらしてマッチング処理を行う状態を示す図である。 FIG. 20 is a diagram illustrating a state in which the matching process is performed while being shifted by one pixel in the horizontal direction from the state illustrated in FIG. 15.
図20に示す状態では、3×3ピクセルのブロック積分画素が特徴色パターンBとほぼ一致する状態であるので、特徴色パターンの中心画素における評価結果ではその値が大きく、その周辺画素と対応するブロック積分画素も閾値以上となる。この結果、当該位置におけるブロック積分画素は特徴色パターンBとの類似度が高い。 In the state shown in FIG. 20, the 3 × 3 pixel block integration pixel is in a state that substantially coincides with the feature color pattern B. Therefore, the evaluation result in the center pixel of the feature color pattern has a large value and corresponds to the surrounding pixels. The block integration pixel is also equal to or greater than the threshold. As a result, the block integration pixel at the position has a high similarity to the characteristic color pattern B.
図21は、図21に示す状態から水平方向に1画素分ずらしてマッチング処理を行う状態を示す図である。 FIG. 21 is a diagram illustrating a state in which the matching process is performed by shifting one pixel in the horizontal direction from the state illustrated in FIG.
図21に示す状態では、特徴色パターンBの中心画素に関して、ブロック積分画素が類似しているので評価結果は高くなるものの、その周辺の評価結果が図20に示す例よりも低くなる。このため、特徴色パターンBに関しては図19に示す位置が類似度の高い位置として記録されることになる。 In the state shown in FIG. 21, although the block integration pixel is similar with respect to the central pixel of the characteristic color pattern B, the evaluation result is high, but the peripheral evaluation result is lower than the example shown in FIG. For this reason, with respect to the characteristic color pattern B, the position shown in FIG. 19 is recorded as a position with high similarity.
そして、マッチング処理部208は特徴色パターンA〜Iの各々について上述の処理を行う。 Then, the matching processing unit 208 performs the above-described processing for each of the characteristic color patterns A to I.
再び、図13を参照して、マッチング処理部208は特徴色パターンAについてパターン特徴色パターンマッチング処理を行った結果得られた評価結果(つまり、検出結果)に応じて類似度が高い位置の座標(位置座標)が得られたか否かを判定する(ステップS204)。ここでは、例えば、特徴色パターンAにおける中心画素に係る評価結果が所定の閾値(例えば、60)以上であり、且つ周辺画素に係る評価結果が6個以上で1を示す場合に、マッチング処理部208は類似度の高い位置座標が得られたと判定する。 Referring to FIG. 13 again, the matching processing unit 208 coordinates the position with a high similarity according to the evaluation result (that is, the detection result) obtained as a result of performing the pattern feature color pattern matching process on the feature color pattern A. It is determined whether or not (position coordinates) has been obtained (step S204). Here, for example, when the evaluation result related to the central pixel in the characteristic color pattern A is equal to or greater than a predetermined threshold (for example, 60) and the evaluation result related to the surrounding pixels is 6 or more and indicates 1, the matching processing unit 208 determines that a position coordinate having a high degree of similarity has been obtained.
類似度の高い位置座標が得られないと判定すると(ステップS204において、NO)、マッチング処理部208は特徴色パターンを初期化する。そして、CPU108はユーザに追尾対象の被写体の再指定を促すため、LCD116にメッセージを表示する(ステップS217)。次に、処理は図3のパターン配置処理に戻る。 If it is determined that position coordinates having a high degree of similarity cannot be obtained (NO in step S204), the matching processing unit 208 initializes the characteristic color pattern. Then, the CPU 108 displays a message on the LCD 116 in order to prompt the user to respecify the subject to be tracked (step S217). Next, the process returns to the pattern arrangement process of FIG.
なお、ステップS204とステップS217との間に、数フレームに亘ってステップS204の条件が満たされないと、ステップS217の処理に進むステップを挿入するようにしてもよい。 If the condition in step S204 is not satisfied over several frames between step S204 and step S217, a step for proceeding to step S217 may be inserted.
類似度の高い位置座標が得られたと判定すると(ステップS204において、YES)、マッチング処理部208は特徴色パターンB〜Iの全てについて類似度の高い評価結果が存在するか否かを判定する(ステップS205)。ここでは、マッチング処理部208は特徴色パターンAの場合と同様にして判定を行う。 If it is determined that position coordinates with a high degree of similarity have been obtained (YES in step S204), the matching processing unit 208 determines whether or not there is an evaluation result with a high degree of similarity for all the feature color patterns B to I ( Step S205). Here, the matching processing unit 208 performs determination in the same manner as in the case of the characteristic color pattern A.
特徴色パターンB〜Iのいずれかについて類似度の高い評価結果が存在しないと(ステップS205において、NO)、マッチング処理部208は該当する特徴色パターンに係る特徴色パターン情報を初期化する(ステップS215)。 If there is no evaluation result with high similarity for any one of the feature color patterns B to I (NO in step S205), the matching processing unit 208 initializes the feature color pattern information related to the corresponding feature color pattern (step S205). S215).
なお、ステップS205とステップS215との間に、数フレームに亘ってステップS205の条件が満たされないと、ステップS215の処理に進むステップを挿入するようにしてもよい。この場合には、ステップS205において条件を満たさなかった回数を特徴色パターン毎に記憶しておく必要がある。 If the condition of step S205 is not satisfied over several frames between step S205 and step S215, a step for proceeding to step S215 may be inserted. In this case, the number of times that the condition is not satisfied in step S205 needs to be stored for each feature color pattern.
続いて、マッチング処理部208は、ステップS215において初期化した特徴色パターン数が所定の数N(Nは2以上7以下の整数)以上であるか否かを判定する(ステップS216)。初期化した特徴色パターン数が所定の数N以上であると(ステップS216において、YES)、処理は図3に示すパターン配置処理に戻る。 Subsequently, the matching processing unit 208 determines whether or not the number of characteristic color patterns initialized in step S215 is a predetermined number N (N is an integer of 2 or more and 7 or less) (step S216). If the initialized number of characteristic color patterns is equal to or greater than predetermined number N (YES in step S216), the process returns to the pattern arrangement process shown in FIG.
特徴色パターンB〜Iの全てについて類似度の高い評価結果が存在すると(ステップS205において、YES)、マッチング処理部208は類似度の高い特徴色パターンについてブロック積分画像で最も類似度が高い位置座標を求める(ステップS206)。なお、ステップS216において、初期化した特徴色パターン数が所定の数N未満であると(ステップS216において、NO)、処理はステップS206に進む。 If there is an evaluation result with a high degree of similarity for all of the feature color patterns B to I (YES in step S205), the matching processing unit 208 has position coordinates having the highest degree of similarity in the block integrated image for the feature color pattern with a high degree of similarity. Is obtained (step S206). If the number of characteristic color patterns initialized in step S216 is less than the predetermined number N (NO in step S216), the process proceeds to step S206.
続いて、マッチング処理部208は、ステップS206で得られた位置座標に基づいて、図3で説明したようにして、当該位置座標と特徴色パターンAの中心座標との相対的位置を示す相対的位置情報を求める。そして、マッチング処理部208は特徴色パターンB〜Iを抽出した際の位置情報から得られた相対的位置情報と比較して相対的位置関係が等しいかを評価して、特徴色パターンB〜I毎に位置評価値を得る(ステップS207)。 Subsequently, based on the position coordinates obtained in step S206, the matching processing unit 208 performs relative processing that indicates the relative position between the position coordinates and the center coordinates of the feature color pattern A as described in FIG. Find location information. Then, the matching processing unit 208 evaluates whether the relative positional relationship is equal to the relative positional information obtained from the positional information when the characteristic color patterns B to I are extracted, and the characteristic color patterns B to I are evaluated. A position evaluation value is obtained for each time (step S207).
次に、マッチング処理部208は、特徴色パターンB〜Iの各々についてその位置評価値に応じて一致度が所定の閾値以上であるか否かを判定する(ステップS208)。 Next, the matching processing unit 208 determines whether or not the degree of coincidence is greater than or equal to a predetermined threshold for each of the feature color patterns B to I according to the position evaluation value (step S208).
図22は、図3で説明したパターン配置処理によって得られた特徴色パターン情報から点線矢印の方向に追尾対象の被写体が移動した際の状態の一例を示す図である。 FIG. 22 is a diagram illustrating an example of a state when the subject to be tracked moves in the direction of the dotted arrow from the characteristic color pattern information obtained by the pattern arrangement processing described with reference to FIG.
図示の例では、ブロック積分画像に関して、特徴色パターンA〜Iはそれぞれ移動先A’〜I’の位置においてその位置情報の類似度が高くなる。よって、追尾対象の被写体に係る色外形(色形状)を捉えつつ特徴色パターンマッチング処理を行うことができる。 In the illustrated example, regarding the block integrated image, the feature color patterns A to I have high positional information similarities at the positions of the movement destinations A ′ to I ′, respectively. Therefore, the characteristic color pattern matching process can be performed while capturing the color outline (color shape) of the subject to be tracked.
図23は、図3で説明したパターン配置処理によって得られた特徴色パターン情報から点線矢印の方向に追尾対象の被写体が移動した際の状態の他の例を示す図である。 FIG. 23 is a diagram illustrating another example of the state when the subject to be tracked moves in the direction of the dotted arrow from the characteristic color pattern information obtained by the pattern arrangement processing described with reference to FIG.
図23に示す例では、特徴色パターンA〜Iはそれぞれ移動先A”〜I”の位置で位置情報の類似度が高くなる。例えば、特徴色パターンGの移動先G”においては、前述のステップS208において、一致度が所定の閾値未満となって相対的距離が一致しない。 In the example shown in FIG. 23, the feature color patterns A to I have high positional information similarity at the positions of the movement destinations A ″ to I ″, respectively. For example, in the movement destination G ″ of the characteristic color pattern G, the degree of coincidence is less than a predetermined threshold in the above-described step S208, and the relative distance does not coincide.
なお、相対的距離の一致度を判定する際には、例えば、特徴色パターン情報が有する位置情報とブロック積分画像内で得られた類似度が最も高い位置情報とに基づいて、特徴色パターンAからの相対的距離についてベクトルの差分を求める。そして、当該差分値が所定の閾値以上であるか否かによって相対的距離の一致度を判定するようにしてもよい。 When determining the degree of coincidence of the relative distances, for example, based on the position information included in the characteristic color pattern information and the position information having the highest similarity obtained in the block integrated image, the characteristic color pattern A Find the vector difference for the relative distance from. The degree of coincidence of the relative distances may be determined based on whether the difference value is equal to or greater than a predetermined threshold value.
一致度が所定の閾値未満であると(ステップS208において、NO)、マッチング処理部208は該当する特徴色パターン情報にフラグを付加する(ステップS219)。このフラグは、後述するステップS209の処理において移動量を求める際の特徴色パターンとして用いないことを指示するためのものである。 If the degree of matching is less than the predetermined threshold (NO in step S208), matching processing unit 208 adds a flag to the corresponding feature color pattern information (step S219). This flag is for instructing not to use it as a feature color pattern when obtaining the movement amount in the processing of step S209 described later.
一致度が所定の閾値以上であると判定されると(ステップS208において、YES)、ベクトル演算部212は特徴色パターンマッチング処理で得られた特徴色パターンの位置情報と特徴色パターン情報が有する位置情報とに応じて追尾対象の被写体についてその移動量を求める(ステップS209)。なお、ステップS219の処理の後、処理はステップS209に進む。 If it is determined that the degree of coincidence is equal to or greater than a predetermined threshold (YES in step S208), vector operation unit 212 has the position information of the feature color pattern obtained by the feature color pattern matching process and the position of the feature color pattern information. The amount of movement of the tracking target subject is determined according to the information (step S209). Note that, after the process of step S219, the process proceeds to step S209.
例えば、特徴色パターンB〜Iに関して、特徴色パターンマッチング処理で得られた位置情報と特徴色パターン情報が有する位置情報に応じて、各特徴色パターンの移動量を求める。続いて、各重み情報に基づいて特徴色パターンB〜Iの移動量の平均ベクトルを求める。 For example, regarding the feature color patterns B to I, the movement amount of each feature color pattern is obtained according to the position information obtained by the feature color pattern matching process and the position information included in the feature color pattern information. Subsequently, an average vector of the movement amounts of the characteristic color patterns B to I is obtained based on each weight information.
図24は、図23に示す各特徴色パターンの移動量について重みづけによって得られた平均ベクトルを説明するための図である。 FIG. 24 is a diagram for explaining an average vector obtained by weighting the amount of movement of each feature color pattern shown in FIG.
図24においては、特徴色パターンGについては、ステップS219において移動量を求める特徴色パターンとして用いないフラグが付加されているものとする。従って、特徴色パターンG係る移動ベクトルG”を除く、移動ベクトルついて特徴色パターンの重みづけ情報を用いて平均ベクトルT”を求める。 In FIG. 24, for the feature color pattern G, it is assumed that a flag that is not used as the feature color pattern for obtaining the movement amount in step S219 is added. Accordingly, the average vector T ″ is obtained using the weighting information of the characteristic color pattern for the movement vector, excluding the movement vector G ″ related to the characteristic color pattern G.
図25は基準となる特徴色パターンAに係る移動ベクトルを示す図である。 FIG. 25 is a diagram showing a movement vector related to the reference characteristic color pattern A.
いま、図25に示すように、特徴色パターンAに関して同一の画像で複数の位置で高い類似度が得られたとする。例えば、位置A”、A2”、およびA3”において高い類似度が得られたとする。この場合には、図24で説明した平均ベクトルT”を用いて、平均ベクトルT”と最も近い移動ベクトルが得られる位置A”、A2”、およびA3”のいずれかが特徴色パターンAの移動先とされる。 Now, as shown in FIG. 25, it is assumed that high similarity is obtained at a plurality of positions in the same image with respect to the characteristic color pattern A. For example, assume that high similarity is obtained at the positions A ″, A2 ″, and A3 ″. In this case, the average vector T ″ described in FIG. Any one of the obtained positions A ″, A2 ″, and A3 ″ is a destination of the characteristic color pattern A.
図26は基準特徴色パターンに係る移動ベクトルと平均ベクトルとを重ねた状態で示す図である。 FIG. 26 is a diagram showing a state in which the movement vector and the average vector related to the reference feature color pattern are overlapped.
図26において、位置A”、A2”、およびA3”に係る移動ベクトル(ベクトルA”、ベクトルA2”、ベクトルA3”)と平均ベクトルT”とにおいて、平均ベクトルT”に最も近い移動ベクトルはベクトルA”であるので、ここでは、ベクトルA”の絶対値が被写体の移動量とされる。 In FIG. 26, the movement vector closest to the average vector T ″ among the movement vectors (vector A ″, vector A2 ″, vector A3 ″) and the average vector T ″ relating to the positions A ″, A2 ″, and A3 ″ is the vector. Since A ″, the absolute value of the vector A ″ is the amount of movement of the subject here.
続いて、ベクトル演算部212で得られた移動量(ここでは、ベクトルA”の絶対値)に応じて、CPU108は光軸調整制御部109を制御して光軸調整部105によって光学系100を駆動し焦点位置を追尾対象である被写体の移動に合わせて変更する(ステップS210)。さらに、CPU108は当該移動量および被写体の色形状に応じてLCD116に表示する追尾枠の大きさと位置を更新する(ステップS211)。 Subsequently, the CPU 108 controls the optical axis adjustment control unit 109 in accordance with the movement amount obtained in the vector calculation unit 212 (here, the absolute value of the vector A ″), and the optical axis adjustment unit 105 controls the optical system 100. The focus position is driven and changed in accordance with the movement of the subject to be tracked (step S210), and the CPU 108 updates the size and position of the tracking frame displayed on the LCD 116 in accordance with the amount of movement and the color shape of the subject. (Step S211).
次に、CPU108の制御下で、マッチング処理部208は特徴色パターン情報を声新する(ステップS212)。例えば、ステップS212においては、前述のフラグが同一の特徴色パターンにおいて複数フレームにわたって連続して付加されると当該特徴色パターン情報が更新される。 Next, under the control of the CPU 108, the matching processing unit 208 refreshes the characteristic color pattern information (step S212). For example, in step S212, when the aforementioned flag is continuously added over a plurality of frames in the same feature color pattern, the feature color pattern information is updated.
次に、CPU108はユーザが撮影終了を指示したか否かを判定する(ステップS213)。撮影終了が指示されると(ステップS213において、YES)、CPU108は追尾処理を終了する。一方、撮影終了が指示されないと(ステップS213において、NO)、処理はステップS201に戻る。 Next, the CPU 108 determines whether or not the user has instructed the end of shooting (step S213). When the end of shooting is instructed (YES in step S213), CPU 108 ends the tracking process. On the other hand, if the end of shooting is not instructed (NO in step S213), the process returns to step S201.
このようにして、一つの特徴色パターンで被写体色追尾を行うと、特徴色パターンマッチング結果によって同様の類似度の位置情報が複数得られて追尾対象の被写体を正確に追尾できないという状況を解消することができる。つまり、追尾対象の被写体の色形状に応じて配置された複数の特徴色パターン情報を用いて、被写体の大きさおよび形状に合わせて精度よく色追尾を行うことができる。 In this way, when subject color tracking is performed with one feature color pattern, a situation in which a plurality of pieces of positional information with similar similarity are obtained by the result of feature color pattern matching and the subject to be tracked cannot be tracked accurately is solved. be able to. That is, color tracking can be accurately performed according to the size and shape of the subject using a plurality of characteristic color pattern information arranged according to the color shape of the subject to be tracked.
以上のように、本発明の実施形態においては、時間の推移とともに大きさおよび形状が変化する追尾対象の被写体に対してその色形状を捉えつつ特徴色パターンを複数配置することができる。そして、追尾対象の被写体の形状に応じて特徴色パターンを配置する際、周辺の色情報に応じて重み情報を変更するようにしたので、被写体の形状に応じた特徴色パターン程、重み情報による重みが高くなる。 As described above, in the embodiment of the present invention, it is possible to arrange a plurality of characteristic color patterns while capturing the color shape of a subject to be tracked whose size and shape change with time. And, when the characteristic color pattern is arranged according to the shape of the subject to be tracked, the weight information is changed according to the surrounding color information, so the characteristic color pattern according to the shape of the subject and the weight information The weight increases.
さらに、特徴色パターンの数を所定の数とするので、特徴色パターンの記憶領域を一定とした状態で、被写体の形状に応じて特徴色パターンの配置を行うことができる。 Furthermore, since the number of characteristic color patterns is a predetermined number, it is possible to arrange the characteristic color patterns according to the shape of the subject in a state where the characteristic color pattern storage area is constant.
上述の説明から明らかなように、図3に示す例においては、CPU108および特徴色パターン抽出部209が位置取得手段および抽出手段として機能する。また、CPU108および形状判別部210が形状判別手段として機能し、CPU108およびマッチング処理部208が配置手段およびマッチング手段として機能する。また、CPU108、マッチング処理部208、および重み情報付加部211が変更手段として機能する。 As is clear from the above description, in the example shown in FIG. 3, the CPU 108 and the feature color pattern extraction unit 209 function as a position acquisition unit and an extraction unit. Further, the CPU 108 and the shape determination unit 210 function as a shape determination unit, and the CPU 108 and the matching processing unit 208 function as an arrangement unit and a matching unit. Further, the CPU 108, the matching processing unit 208, and the weight information adding unit 211 function as a changing unit.
なお、図1に示す例では少なくともCPU108およびデジタル信号処理部104が色追尾処理装置を構成する。 In the example shown in FIG. 1, at least the CPU 108 and the digital signal processing unit 104 constitute a color tracking processing device.
以上、本発明について実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。 As mentioned above, although this invention was demonstrated based on embodiment, this invention is not limited to these embodiment, Various forms of the range which does not deviate from the summary of this invention are also contained in this invention. .
例えば、上記の実施の形態の機能を制御方法として、この制御方法を色追尾処理装置に実行させるようにすればよい。また、上述の実施の形態の機能を有するプログラムを制御プログラムとして、当該制御プログラムを色追尾装置が備えるコンピュータに実行させるようにしてもよい。なお、制御プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録される。 For example, the function of the above embodiment may be used as a control method, and this control method may be executed by the color tracking processing device. Further, a program having the functions of the above-described embodiment may be used as a control program, and the control program may be executed by a computer included in the color tracking device. The control program is recorded on a computer-readable recording medium, for example.
上記の制御方法および制御プログラムの各々は、少なくとも位置取得ステップ、抽出ステップ、形状判別ステップ、配置ステップ、およびマッチングステップを有している。 Each of the above control method and control program has at least a position acquisition step, an extraction step, a shape determination step, an arrangement step, and a matching step.
また、本発明は、以下の処理を実行することによっても実現される。つまり、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種の記録媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPUなど)がプログラムを読み出して実行する処理である。 The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various recording media, and the computer (or CPU, MPU, etc.) of the system or apparatus reads the program. To be executed.
101 撮像素子
104 デジタル信号処理部
108 CPU
109 光軸調整制御部
201 水平積分部
202 垂直積分部
204 LINEメモリ
205 YUV2RGB変換部
206 マッチング処理部
207 レジスタ
101 Image sensor 104 Digital signal processing unit 108 CPU
109 Optical axis adjustment control unit 201 Horizontal integration unit 202 Vertical integration unit 204 LINE memory 205 YUV2RGB conversion unit 206 Matching processing unit 207 Register
Claims (6)
前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得手段と、
前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出手段と、
前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別手段と、
前記形状判別手段で判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置手段と、
前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチング手段と、
を有することを特徴とする色追尾処理装置。 A color tracking processing device that tracks a specific subject according to a characteristic color pattern in a plurality of images taken at different times,
Position acquisition means for acquiring position information indicating the position of the specific subject in one of the images;
Extraction means for extracting, as a first feature color pattern, a feature color pattern indicating the feature color of the subject at the position of the specific subject indicated by the position information;
Shape discriminating means for discriminating the shape of the subject according to the first characteristic color pattern;
Based on the shape of the subject determined by the shape determining means, at least one other characteristic color pattern different from the first characteristic color pattern and the first characteristic color pattern are different from one of the images. Arrangement means for arranging in the image;
Performing a characteristic color pattern matching process on the other image using the first characteristic color pattern and the other characteristic color pattern, and the first characteristic color pattern and the other characteristic color pattern in the other image Matching means for detecting the specific subject in accordance with a position where the similarity is equal to or greater than a predetermined threshold and positional relationship information indicating a position where the first characteristic color pattern and the other characteristic color pattern are arranged ,
A color tracking processing apparatus comprising:
前記マッチング手段は前記重み情報に応じて前記別の特徴色パターンによるマッチング処理を行うことを特徴とする請求項1に記載の色追尾処理装置。 Weight information corresponding to a relative distance from the first feature color pattern is added to the other feature color pattern,
The color tracking processing apparatus according to claim 1, wherein the matching unit performs a matching process using the another characteristic color pattern according to the weight information.
前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得ステップと、
前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出ステップと、
前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別ステップと、
前記形状判別ステップで判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置ステップと、
前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチングステップと、
を有することを特徴とする制御方法。 A control method for a color tracking processing device that tracks a specific subject according to a characteristic color pattern in a plurality of images taken at different times,
A position acquisition step of acquiring position information indicating a position of the specific subject in one of the images;
An extraction step of extracting, as a first feature color pattern, a feature color pattern indicating the feature color of the subject at the position of the specific subject indicated by the position information;
A shape determining step of determining the shape of the subject according to the first characteristic color pattern;
Based on the shape of the subject determined in the shape determination step, at least one other characteristic color pattern different from the first characteristic color pattern and the first characteristic color pattern are different from one of the images. A placement step to place on the image;
Performing a characteristic color pattern matching process on the other image using the first characteristic color pattern and the other characteristic color pattern, and the first characteristic color pattern and the other characteristic color pattern in the other image A matching step of detecting the specific subject according to a position where the similarity is equal to or greater than a predetermined threshold and positional relation information indicating a position where the first characteristic color pattern and the other characteristic color pattern are arranged; ,
A control method characterized by comprising:
前記色追尾処理装置が備えるコンピュータに、
前記画像の1つにおいて前記特定の被写体の位置を示す位置情報を取得する位置取得ステップと、
前記位置情報が示す前記特定の被写体の位置において前記被写体の特徴色を示す特徴色パターンを第1の特徴色パターンとして抽出する抽出ステップと、
前記第1の特徴色パターンに応じて前記被写体の形状を判別する形状判別ステップと、
前記形状判別ステップで判別された前記被写体の形状に基づいて、前記第1の特徴色パターンと異なる少なくとも1つの他の特徴色パターンおよび前記第1の特徴色パターンを前記画像の1つとは別の画像に配置する配置ステップと、
前記第1の特徴色パターンおよび前記他の特徴色パターンを用いて前記別の画像について特徴色パターンマッチング処理して、前記別の画像において前記第1の特徴色パターンおよび前記他の特徴色パターンとの類似度が所定の閾値以上である位置と前記第1の特徴色パターンおよび前記他の特徴色パターンが配置された位置を示す位置関係情報とに応じて前記特定の被写体を検出するマッチングステップと、
を実行させることを特徴とする制御プログラム。 A control program used in a color tracking processing device that tracks a specific subject according to a characteristic color pattern in a plurality of images taken at different times,
In the computer provided in the color tracking processing device,
A position acquisition step of acquiring position information indicating a position of the specific subject in one of the images;
An extraction step of extracting, as a first feature color pattern, a feature color pattern indicating the feature color of the subject at the position of the specific subject indicated by the position information;
A shape determining step of determining the shape of the subject according to the first characteristic color pattern;
Based on the shape of the subject determined in the shape determination step, at least one other characteristic color pattern different from the first characteristic color pattern and the first characteristic color pattern are different from one of the images. A placement step to place on the image;
Performing a characteristic color pattern matching process on the other image using the first characteristic color pattern and the other characteristic color pattern, and the first characteristic color pattern and the other characteristic color pattern in the other image A matching step of detecting the specific subject according to a position where the similarity is equal to or greater than a predetermined threshold and positional relation information indicating a position where the first characteristic color pattern and the other characteristic color pattern are arranged; ,
A control program characterized by causing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036910A JP6150558B2 (en) | 2013-02-27 | 2013-02-27 | Tracking processing apparatus and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036910A JP6150558B2 (en) | 2013-02-27 | 2013-02-27 | Tracking processing apparatus and control method thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014165801A true JP2014165801A (en) | 2014-09-08 |
JP2014165801A5 JP2014165801A5 (en) | 2016-04-14 |
JP6150558B2 JP6150558B2 (en) | 2017-06-21 |
Family
ID=51616007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013036910A Expired - Fee Related JP6150558B2 (en) | 2013-02-27 | 2013-02-27 | Tracking processing apparatus and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6150558B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009049563A (en) * | 2007-08-15 | 2009-03-05 | Fujifilm Corp | Mobile object detecting device and method, and autofocusing system |
JP2011013978A (en) * | 2009-07-02 | 2011-01-20 | Kyushu Institute Of Technology | Method and apparatus for detecting object based on estimation of background image |
JP2012003029A (en) * | 2010-06-17 | 2012-01-05 | Olympus Corp | Imaging device |
-
2013
- 2013-02-27 JP JP2013036910A patent/JP6150558B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009049563A (en) * | 2007-08-15 | 2009-03-05 | Fujifilm Corp | Mobile object detecting device and method, and autofocusing system |
JP2011013978A (en) * | 2009-07-02 | 2011-01-20 | Kyushu Institute Of Technology | Method and apparatus for detecting object based on estimation of background image |
JP2012003029A (en) * | 2010-06-17 | 2012-01-05 | Olympus Corp | Imaging device |
Also Published As
Publication number | Publication date |
---|---|
JP6150558B2 (en) | 2017-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5720275B2 (en) | Imaging apparatus and imaging method | |
JP5825172B2 (en) | Image determination apparatus, image determination method, and computer program for image determination | |
TWI496105B (en) | Image synthesis device and computer program for image synthesis | |
KR101830077B1 (en) | Image processing apparatus, control method thereof, and storage medium | |
JP2009111716A (en) | Imaging apparatus, program and template generating method | |
JP6320053B2 (en) | Image processing apparatus, image processing method, and computer program | |
JP5395650B2 (en) | Subject area extraction device and control method thereof, subject tracking device, and program | |
US10116865B2 (en) | Image processing apparatus and image processing method for calculating motion vector between images with different in-focus positions | |
US10565712B2 (en) | Image processing apparatus and method for controlling the same | |
JP4716266B2 (en) | Image processing apparatus, imaging apparatus, and program thereof | |
JP4807623B2 (en) | Imaging apparatus, imaging method, and imaging program | |
JP5278483B2 (en) | Imaging apparatus, imaging method, and imaging program | |
US11206344B2 (en) | Image pickup apparatus and storage medium | |
JP6150558B2 (en) | Tracking processing apparatus and control method thereof | |
JP2014027580A (en) | Imaging device, and image processing method | |
JP2009267803A (en) | Image processor | |
JP5965653B2 (en) | TRACKING DEVICE AND TRACKING METHOD | |
US20230065506A1 (en) | Image processing apparatus, control method thereof, and image capturing apparatus | |
JP6525693B2 (en) | Image processing apparatus and image processing method | |
JP4315025B2 (en) | Imaging apparatus, image acquisition method, and program | |
JP2021190922A (en) | Imaging apparatus, control method therefor and program | |
JP6188533B2 (en) | Image shake correction apparatus, control method therefor, optical apparatus, and imaging apparatus | |
JP5677080B2 (en) | Image processing apparatus and control method thereof | |
JP5855485B2 (en) | Image generation apparatus, image generation method, imaging apparatus, and imaging method | |
JP2013254386A (en) | Subject tracking device, electronic camera and subject tracking program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160226 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170523 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6150558 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |