JP4701111B2 - Pattern matching system and subject tracking system - Google Patents
Pattern matching system and subject tracking system Download PDFInfo
- Publication number
- JP4701111B2 JP4701111B2 JP2006072652A JP2006072652A JP4701111B2 JP 4701111 B2 JP4701111 B2 JP 4701111B2 JP 2006072652 A JP2006072652 A JP 2006072652A JP 2006072652 A JP2006072652 A JP 2006072652A JP 4701111 B2 JP4701111 B2 JP 4701111B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- region
- unit
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/223—Analysis of motion using block-matching
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は、複数の画像の一致性の高さを判定するパターンマッチングシステムと、パターンマッチングシステムを用いて連続的に撮像される撮影画像における特定の被写体の移動を追尾する被写体追尾システムに関する。 The present invention relates to a pattern matching system that determines the degree of coincidence of a plurality of images, and a subject tracking system that tracks the movement of a specific subject in captured images that are continuously captured using the pattern matching system.
複数の画像の一致性を判定するパターンマッチングシステムが知られている。パターンマッチングは、連続的に撮像される複数の画像において移動する被写体の追尾などにも用いられている。 There is known a pattern matching system that determines the coincidence of a plurality of images. Pattern matching is also used for tracking a moving subject in a plurality of images that are continuously captured.
パターンマッチングシステムでは、画像を細かく分割し、両画像において相対的な位置が同じ分割した領域の輝度などを比較し、輝度が一致する領域の数によって画像の一致性を判定している。 In the pattern matching system, images are divided finely, the luminance of divided regions having the same relative position in both images is compared, and the matching of the images is determined by the number of regions having the same luminance.
比較する領域が多いほど判定の正確性が高まる一方で、比較する領域が多いほどパターンマッチングシステムには取り扱うビット数の大きなデジタル演算器を用いる必要があった。一方で必要以上のビット数を取り扱い可能であっても、使われずに無駄になることもあった。 The more areas to be compared, the higher the accuracy of determination. On the other hand, the more areas to be compared, the digital matching unit having a larger number of bits to be handled needs to be used for the pattern matching system. On the other hand, even if it was possible to handle more bits than necessary, it could be wasted without being used.
したがって、本発明では演算効率が高く、デジタル演算器を有効に活用可能なパターンマッチングシステムの提供を目的とする。 Therefore, an object of the present invention is to provide a pattern matching system that has high calculation efficiency and can effectively use a digital calculator.
本発明のパターンマッチングシステムは、第1の画像と第2の画像との一致性の高さを示すための判定値を出力するパターンマッチングシステムであって、第1、第2の画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号によって形成され第1、第2の画像に対応する第1、第2の画像データをデジタルデータとして取得する取得部と、第1、第2の画像における同じ位置のパターン領域の領域信号の信号強度を比較する比較部と、比較部による比較において領域信号の信号強度の差の絶対値が予め定められる基準値以下となるパターン領域の数に応じて変わる判定値を算出する判定部と、判定値を出力する出力部とを備えることを特徴としている。 The pattern matching system of the present invention is a pattern matching system that outputs a determination value for indicating the degree of coincidence between a first image and a second image, and forms first and second images. An acquisition unit that acquires, as digital data, first and second image data corresponding to the first and second images formed by region signals whose signal intensity changes according to the luminance of each of the power-of-two pattern regions; The absolute value of the difference between the signal strengths of the region signals in the comparison by the comparison unit that compares the signal strengths of the region signals of the pattern regions at the same position in the first and second images is equal to or less than a predetermined reference value. A determination unit that calculates a determination value that changes according to the number of pattern regions and an output unit that outputs the determination value are provided.
さらに、第1、第2の画像データにおける領域信号の信号強度の2値化を行なう2値化部を備え、比較部は第1、第2の画像における同じ位置のパターン領域の領域信号の2値化された信号強度を比較することが好ましい。
Further, a binarization unit for binarizing the signal strength of the region signal in the first and second image data is provided, and the
また、第1の画像または第2の画像全体の輝度が第1の閾値より低いときにパターン領域の大きさを広くすることが好ましい。 In addition, it is preferable to increase the size of the pattern region when the luminance of the entire first image or the second image is lower than the first threshold value.
また、取得部はパターン領域を形成する複数の画素それぞれの輝度に応じて信号強度の変わる画素信号を受信する受信部と単一のパターン領域を形成する複数の画素の画素信号に基づいて領域信号を生成する領域信号生成部とを有し、第1の画像または第2の画像全体の輝度が第1の閾値より低いときに取得部は大きさが拡大されたパターン領域によって形成される大パターン領域全体の輝度に応じて信号強度の変わる大領域信号を生成し、比較部は第1の画像または第2の画像全体の輝度が第1の閾値より低いときに第1、第2の画像における同じ位置の大パターン領域の大領域信号の信号強度を比較し、判定部は大領域信号の信号強度の差の絶対値が基準値以下となる大パターン領域の数に応じて変わる判定値を算出することが好ましい。 The acquisition unit receives a pixel signal whose signal intensity changes according to the luminance of each of the plurality of pixels forming the pattern region, and the region signal based on the pixel signal of the plurality of pixels forming the single pattern region. A large pattern formed by a pattern region whose size is enlarged when the luminance of the first image or the entire second image is lower than the first threshold value. A large area signal whose signal intensity changes according to the luminance of the entire area is generated, and the comparison unit determines whether the first image or the second image has a luminance lower than the first threshold value when the luminance of the first image or the entire second image is lower than the first threshold. The signal intensity of large area signals in the large pattern area at the same position is compared, and the decision unit calculates a decision value that changes according to the number of large pattern areas where the absolute value of the difference in signal intensity of the large area signal is below the reference value Preferably
本発明の被写体追尾システムは、連続的に撮像される撮影画像内における特定の被写体である追尾対象体の移動を追尾する被写体追尾システムであって、撮影画像における定められた一部の領域を追尾対象体を追尾するための追尾領域に初期設定する初期設定部と、追尾領域から第1、第2の方向に移動した領域である第1、第2の候補領域を設定する候補領域設定部と、第1のタイミングで撮像された撮影画像における追尾領域の画像である基準画像を検出し第1のタイミングの後の第2のタイミングで撮像された撮影画像における第1、第2の候補領域の画像である第1、第2の候補画像を検出する画像検出部と、基準画像及び第1、第2の候補画像に基づいて基準画像及び第1、第2の候補画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号を生成する領域信号生成部と、基準画像と第1の画像または第2の画像における同じ位置の前記パターン領域の領域信号の信号強度を比較する比較部と、比較部による比較において領域信号の信号強度の差の絶対値が予め定められる基準値以下となるパターン領域の数に応じて変わる判定値を算出する第1の判定部と、基準画像と第1の画像または第2の画像とについての判定値に基づいて第1のタイミングから第2のタイミングにおける追尾対象体の移動方向を第1、第2の方向のいずれであるかを判定する第2の判定部と、第2の判定部に追尾対象体の移動方向として判定された方向に移動した候補領域を追尾領域として再設定する再設定部とを備えることを特徴としている。 The subject tracking system of the present invention is a subject tracking system that tracks the movement of a tracking target object, which is a specific subject, in captured images that are continuously captured, and tracks a predetermined area in the captured image. An initial setting unit that initially sets a tracking area for tracking the object, and a candidate area setting unit that sets first and second candidate areas that are areas moved in the first and second directions from the tracking area; The reference image that is the image of the tracking region in the captured image captured at the first timing is detected, and the first and second candidate regions in the captured image captured at the second timing after the first timing are detected. An image detection unit for detecting first and second candidate images, and a power of 2 for forming the reference image and the first and second candidate images based on the reference image and the first and second candidate images Pattern areas Compare the signal intensity of the area signal of the pattern area at the same position in the reference image and the first image or the second image, with the area signal generation unit that generates an area signal whose signal intensity changes according to each luminance. A comparison unit, a first determination unit that calculates a determination value that changes according to the number of pattern regions in which the absolute value of the difference in signal strength of the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit, and a reference It is determined whether the moving direction of the tracking target object from the first timing to the second timing is the first or second direction based on the determination value for the image and the first image or the second image. And a resetting unit that resets the candidate area that has moved in the direction determined as the movement direction of the tracking target object as the tracking area.
また、候補領域設定部は追尾対象体の光学像を撮像素子の受光面に結像させるための撮影光学系の焦点距離の長さに応じて、追尾領域から第1、第2の候補領域までの移動距離を長く設定することが好ましい。 In addition, the candidate area setting unit extends from the tracking area to the first and second candidate areas in accordance with the length of the focal length of the photographing optical system for forming an optical image of the tracking target object on the light receiving surface of the image sensor. It is preferable to set a long movement distance.
また、追尾対象体の光学像を撮像素子に受光させるときの露出を撮像素子に入射する光学像の一部の輝度に応じて調整可能な露出調整システムを備え、パターン領域の輝度が露出量の調整を行うための光学像の一部の輝度として使用されることが好ましい。 In addition, an exposure adjustment system is provided that can adjust the exposure when the optical image of the tracking target is received by the imaging device according to the luminance of a part of the optical image incident on the imaging device, and the luminance of the pattern area is the exposure amount. It is preferably used as the luminance of a part of the optical image for performing the adjustment.
本発明によれば、2のべき乗個の情報に基づいてパターンマッチングを行なうのでパターンマッチングシステムに用いるデジタル演算器を効率的に使用することが可能になる。 According to the present invention, since pattern matching is performed based on power-of-two pieces of information, it is possible to efficiently use a digital computing unit used in a pattern matching system.
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の一実施形態を適用したパターンマッチングシステムにより被写体の追尾を行なう被写体追尾システムを有するデジタルカメラの内部構成を概略的に示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram schematically showing an internal configuration of a digital camera having a subject tracking system that tracks a subject by a pattern matching system to which an embodiment of the present invention is applied.
デジタルカメラ10は、撮影光学系11、撮像素子12、AFE(Analog Front End)13、DSP(Digital Signal Processor)14、操作入力部15、ズーム駆動部16、及びフォーカス駆動部17等によって構成される。
The
撮影光学系11は、撮像素子12に光学的に接続される。撮影光学系11を透過する被写体の光学像が撮像素子12の受光面に入射される。撮像素子12は、例えばCCDである。受光面において被写体の光学像が受光されることにより、光学像に相当する画像信号が生成される。
The photographing
撮影光学系11は、変倍レンズ11aやフォーカスレンズ11bなどの複数のレンズにより構成される。変倍レンズ11a及びフォーカスレンズ11bは光軸方向に移動自在である。
The photographing
変倍レンズ11aとフォーカスレンズ11bとによってズーム光学系が形成されており、両者を相対的に移動させることにより撮影光学系11の焦点距離を調整可能である。焦点距離の調整にはフォーカスレンズ11aを移動させることにより被写体像を撮像素子12の受光面に結像させることが出来る。
A zoom optical system is formed by the
変倍レンズ11a及びフォーカスレンズ11bは、操作者により手動で光軸方向に移動させることが可能である。或いは、変倍レンズ11a及びフォーカスレンズ11bはズーム駆動部16に駆動されることにより、移動させることも可能である。また、フォーカスレンズ11bがフォーカス駆動部17に駆動されることにより被写体像の合焦が実行される。なお、合焦位置調整は、後述するようにオートフォーカス(AF)機能を実行することにより自動的に行わせることが可能である。
The
撮影光学系11と撮像素子12の間には、絞り18とシャッタ19とが配置される。絞り18の開度を調整することにより、撮像素子12の受光面に入射する光の照度が調整される。シャッタ19の開閉により被写体光束の通過と遮光が切替えられる。絞り18は絞り駆動部20によって駆動され、開度調整が行なわれる。シャッタ19はシャッタ駆動部21によって駆動され、開閉が実行される。
A
なお、ズーム駆動部16、フォーカス駆動部17、絞り駆動部20、及びシャッタ駆動部21は、DSP14に接続され、それぞれの動作は、DSP14によって制御される。
The
撮像素子12は、AFE13を介してDSP14に接続される。DSP14からAFE13にクロック信号が出力される。AFE13は、クロック信号に基づいてフレーム信号及び撮像素子駆動信号を生成する。撮像素子駆動信号は撮像素子12に送信される。撮像素子12は、撮像素子駆動信号に基づいてフレーム信号に同期した画像信号を生成する。
The
なお、撮像素子12の受光面には、マトリックス状に画素が配列される。例えば、有効画素領域にはm×nに等分割された位置それぞれに画素が配列される。各画素における受光量に応じて画素信号が生成される。画像信号は、有効画素領域における複数の画素が生成する複数の画素信号によって形成される。
Note that pixels are arranged in a matrix on the light receiving surface of the
生成した画像信号はAFE13に送信される。画像信号はAFE13において相関二重サンプリング、ゲイン調整、及びA/D変換が施され、画像データに変換される。画像データはDSP14に送信される。
The generated image signal is transmitted to the AFE 13. The image signal is subjected to correlated double sampling, gain adjustment, and A / D conversion in the
DSP14には、信号処理の作業用のメモリであるDRAM(Dynamic Random Access Memory)22が接続される。DSP14に送信された画像データは、DRAM22に一時格納される。DSP14により、DRAM22に格納された画像データに対して所定のデータ処理が施される。
The DSP 14 is connected to a DRAM (Dynamic Random Access Memory) 22 which is a memory for signal processing work. The image data transmitted to the DSP 14 is temporarily stored in the
DSP14には、液晶モニタ23が接続される。所定のデータ処理が施された画像データは、液晶モニタ23に送信される。送信された画像データに相当する画像が液晶モニタ23に表示可能である。
A
また、DSP14には、外部カードインターフェース24が接続される。後述するレリーズ動作を実行するときに、所定の信号処理の施された画像データは外部カードインターフェース24に接続される外部メモリ(図示せず)に格納される。
An
また、DSP14には、デジタルカメラ10を操作するためのコマンド入力を行なうための操作入力部15が接続される。操作入力部15は、レリーズボタン(図示せず)、多機能十字キー(図示せず)、電源ボタン(図示せず)などによって構成される。操作者による操作入力部15へのコマンド入力に応じて、DSP14はデジタルカメラ10の各部位に必要な動作を行なわせる。
The
例えば、レリーズボタンを半押しすることにより第1のスイッチ(図示せず)がONに切替わり、露出調整及び合焦位置調整が行われる。 For example, when a release button is half-pressed, a first switch (not shown) is turned ON, and exposure adjustment and focus position adjustment are performed.
露出調整において、先ず画像データに基づいて有効画素領域の受光量が検出される。次に、検出した受光量に基づいて露出調整、例えば絞り18の開度調整、シャッタスピード調整、及びDSP24におけるゲイン調整が行なわれる。
In the exposure adjustment, first, the amount of received light in the effective pixel region is detected based on the image data. Next, exposure adjustment, for example, aperture opening adjustment, shutter speed adjustment, and gain adjustment in the
なお、受光量の検出は、有効画素領域の全体、または一部の領域の検出が可能である。また、有効画素領域の一部の領域の受光量に重み付けを行い、周囲の領域の受光量との平均値に基づいての露出調整を行う重点露出調整を行うことも可能である。 In addition, the detection of the amount of received light can detect the entire effective pixel region or a partial region. It is also possible to perform weighted exposure adjustment that weights the received light amount of a part of the effective pixel region and performs exposure adjustment based on an average value with the received light amount of the surrounding regions.
合焦位置調整において、後述するように所望の被写体光束を撮像素子12の受光面に結像させるように、フォーカスレンズ11bが駆動される。
In the focus position adjustment, the
また、レリーズボタンを全押しすることにより第2のスイッチ(図示せず)がONに切替わりシャッタ19の開閉、静止画像の撮像を行なうように撮像素子12が駆動される。
Further, when the release button is fully pressed, a second switch (not shown) is turned on, and the
DSP14の内部構成について、図2を用いてさらに詳細に説明する。図2は、DSP14の内部構成を概略的に示すブロック図である。DSP14には、前段データ処理部14p1、後段データ処理部14p2、追尾部30(被写体追尾システム)、AF調整部14a、及び制御部14cによって構成される。
The internal configuration of the
前段データ処理部14p1には、AFE13から画像データが送信される。前段データ処理部14p1によって画像データはDRAM22に格納される。また、画像データに対して、色補間処理、ホワイトバランス処理、及び輝度信号生成処理等の所定のデータ処理が施される。また、所定のデータ処理の施された画像データは、後段データ処理部14p2に送信される。
Image data is transmitted from the
後段データ処理部14p2においても、画像データに対してクランプ処理やブランキング処理等の所定のデータ処理が施される。後段データ処理部14p2において所定のデータ処理を施した画像データは液晶モニタ23及び外部カードインターフェース24を介して外部メモリに送信される。
Also in the subsequent data processing unit 14p2, predetermined data processing such as clamping processing and blanking processing is performed on the image data. Image data subjected to predetermined data processing in the subsequent data processing unit 14p2 is transmitted to the external memory via the liquid crystal monitor 23 and the
追尾部30及びAF調整部14aにも、前段データ処理部14p1から画像データが送信される。送信された画像データに基づいて、追尾部30及びAF調整部14aにより、所望の被写体を撮像素子12の受光面に結像させるためのフォーカスレンズ11bの駆動位置が求められる。
Image data is also transmitted from the pre-stage data processing unit 14p1 to the
更に説明すると、追尾部30により、撮影画像全体の中の何処かの領域がスキャン領域(追尾領域)に設定される。なお、スキャン領域とは、受光面に合焦させる所望の被写体を含ませるための領域である。所望の被写体である追尾対象体が撮影画像の中で移動する場合には、移動する領域を連続的にスキャン領域に設定することにより、追尾対象体を追尾することが可能である。
More specifically, the
AF調整部14aにより、スキャン領域に含まれる被写体を受光面に結像させるためのフォーカスレンズ11bの駆動位置が求められる。なお、フォーカスレンズ11bの駆動位置は、コントラスト方式、すなわち、フォーカスレンズを移動させながらスキャン領域のコントラストを検出し、コントラストを最大にさせるフォーカスレンズの位置をフォーカスレンズ駆動位置として求める方式に基づいて、実行される。
The
なお、フォーカスレンズ11bの駆動位置は、従来公知のいかなるAF動作により求められても良い。例えば、公知の位相差方式によって焦点検出を行なわせる構成と組合わせても良い。
The driving position of the
デジタルカメラ10には、撮影画像全体の中の特定の位置の被写体を合焦させる固定AF機能と撮影画像の中で移動中の被写体を合焦させる追尾AF機能とが設けられる。いずれかのAF機能を実行させるかは、操作入力部15に対するコマンド入力により選択可能である。
The
制御部14cには、操作入力部15からコマンド入力に応じた入力信号が送信される。受信した入力信号に応じて、前段データ処理部14p1、後段データ処理部14p2、追尾部30、及びAF調整部14aの動作の制御及びデジタルカメラ10の各部位の制御が、制御部14cによって実行される。
An input signal corresponding to a command input is transmitted from the
例えば、前述の露出調整を行うときに、絞り駆動部20による絞り18の駆動は、制御部14cに制御される。また、シャッタ19の開閉を行うときに、シャッタ駆動部21によるシャッタ19の開閉は、制御部14cにより制御される。
For example, when performing the exposure adjustment described above, the driving of the
また、合焦位置調整を行うときに、フォーカス駆動部17によるフォーカスレンズ11bの駆動は、制御部14cにより制御される。制御部14cには、AF調整部14aが求めたフォーカスレンズ11bの駆動位置に相当するレンズ位置信号が送信される。制御部14cによるフォーカス駆動部17の制御は、レンズ位置信号に基づいて実行される。
Further, when the focus position adjustment is performed, the driving of the
次に、追尾部30の構成及び動作について、図3〜図5を用いて詳細に説明する。図3は、追尾部30の内部構成を概略的に示すブロック図である。追尾部30は、画素ブロック算出部31、スキャン領域初期設定部32、候補領域設定部33、画像認識部34、及びスキャン領域設定部35によって構成される。なお、各部位の動作は制御部14cにより制御される。
Next, the configuration and operation of the
追尾AF機能を実行するときには、前段データ処理部14p1から有効画素領域の各画素の輝度がデータとして、画素ブロック算出部31に入力される。画素ブロック算出部31では、追尾の処理を容易にするために画素ブロック小または画素ブロック大の輝度が計算される。
When the tracking AF function is executed, the luminance of each pixel in the effective pixel area is input to the pixel
画素ブロック小12bとは、図4に示すように、有効画素領域AAを例えば20×20に等分割した領域であって、互いに隣合う複数の画素12p、例えば10×10個の画素12pによって形成される。画素ブロック小12bの輝度は、画素ブロック小12bを形成する画素12pの輝度の平均値を算出することにより求められる。画素ブロック小12bの輝度はデータとして画像認識部34に送られる。
As shown in FIG. 4, the
画素ブロック大12Bとは、図5に示すように、有効画素領域AAを例えば10×10に等分割した領域であって、互いに隣合う複数の画素12p、例えば20×20個の画素12pによって形成される。画素ブロック大12Bの輝度は、画素ブロック大12Bを形成する画素12pの輝度の平均値を算出することにより求められる。画素ブロック大12Bの輝度はデータとして画像認識部34に送られる。
As shown in FIG. 5, the
なお、画素ブロック小12bまたは画素ブロック大12Bにおける受光量は、前述した露出調整における有効画素領域AAの一部の領域の受光量の検出にも用いられる。すなわち、画素ブロック小12bまたは画素ブロック大12Bを一部の領域として受光量を検出し、スポット測光や一部重点測光等の測光が行なわれる。 Note that the amount of received light in the pixel block small 12b or the pixel block large 12B is also used to detect the amount of received light in a part of the effective pixel area AA in the exposure adjustment described above. That is, the received light amount is detected using the pixel block small 12b or the pixel block large 12B as a partial region, and photometry such as spot photometry or partial weight photometry is performed.
AF機能を実行するときには、スキャン領域初期設定部32により撮像素子12の有効画素領域AAの中心がスキャン領域の中心に重なるように、スキャン領域の位置が定められる。さらに、有効画素領域全体の輝度に基づいて、スキャン領域の大きさが定められる。中心の位置及び大きさが定められることによりスキャン領域の初期設定が行なわれる。
When executing the AF function, the scan area
スキャン領域初期設定部32には、前段データ処理部14p1から有効画素領域AA全体の輝度がデータとして送られる。有効画素領域AA全体の輝度が第1の閾値より大きいときには、スキャン領域SAの大きさは2の5乗である32個の画素ブロック小12bの大きさに定められる。又、その形状は、図6に示すように、6行6列の画素ブロック小12bにより形成される矩形の4隅の画素ブロック小12bを除いた形状に定められる。
The brightness of the entire effective pixel area AA is sent to the scan area
一方、有効画素領域AA全体の輝度が第1の閾値より小さいときには、スキャン領域SAの大きさは2の5乗である32個の画素ブロック大12Bの大きさに定められる。又、その形状は、図7に示すように、6行6列の画素ブロック大12Bにより形成される矩形の4隅の画素ブロック大12Bを除いた形状に定められる。
On the other hand, when the luminance of the entire effective pixel area AA is smaller than the first threshold value, the size of the scan area SA is determined to be the size of 32 pixel blocks large 12B, which is 2 5. Further, as shown in FIG. 7, the shape is determined to be a shape excluding the
なお、有効画素領域AAには縦方向と横方向に延びる2つの画素ブロック小12bまたは画素ブロック大12Bの境界線があるが(図6、図7参照)、その交点のいずれかをスキャン領域SAの中心Cに定め、任意の位置にスキャン領域SAを設定可能である。スキャン領域SAの設定は操作入力部15に対するコマンド入力により行われる。
Note that the effective pixel area AA has a boundary line between two small pixel blocks 12b or large pixel blocks 12B extending in the vertical and horizontal directions (see FIG. 6 and FIG. 7). The scan area SA can be set at an arbitrary position. The scan area SA is set by inputting a command to the
初期設定されたスキャン領域SAがデータとして、候補領域設定部33に送信される。候補領域設定部33では、スキャン領域SAから周囲の8方向に移動させたスキャン領域SAと同一の形状の領域が候補領域に設定される。
The initially set scan area SA is transmitted to the candidate
候補領域として設定するためのスキャン領域からの方向は、第1〜第8の方向が定められている。図6、図7において、上下左右の4方向がそれぞれ第1、第5、第3、第7の方向に定められる。また、左上方向、左下方向、右下方向、右上方向がそれぞれ第2、第4、第6、第8の方向に定められる。 The first to eighth directions are defined as directions from the scan area for setting as a candidate area. 6 and 7, the four directions of up, down, left, and right are defined as the first, fifth, third, and seventh directions, respectively. Further, the upper left direction, the lower left direction, the lower right direction, and the upper right direction are defined as the second, fourth, sixth, and eighth directions, respectively.
第1〜第8の候補領域それぞれのスキャン領域SAからの移動距離は、焦点距離に応じて変えられる。焦点距離が長くなるに応じて移動距離も長くなるように変えられる。例えば、焦点距離が最小であるときには、移動距離は画素ブロック小12bまたは画素ブロック大12Bの一つ分に決められる。 The moving distance from the scan area SA of each of the first to eighth candidate areas can be changed according to the focal length. As the focal length becomes longer, the moving distance becomes longer. For example, when the focal length is minimum, the moving distance is determined to be one pixel block small 12b or one pixel block large 12B.
以下にスキャン領域SAが32個の画素ブロック小12bにより形成されるときの第1〜第8の候補領域CA1〜CA8の位置について例示する。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして第1〜第8の候補領域CA1〜CA8の位置が定められる。 Hereinafter, the positions of the first to eighth candidate areas CA1 to CA8 when the scan area SA is formed by 32 pixel block small 12b will be exemplified. Note that the positions of the first to eighth candidate areas CA1 to CA8 are similarly determined when the scan area SA is formed by 32 large pixel blocks 12B.
スキャン領域SAから第1の方向に画素ブロック小12b一つ分移動させた領域が第1の候補領域CA1に設定される(図8参照)。スキャン領域SAから第2の方向に画素ブロック小12b一つ分移動させた領域が第2の候補領域CA2に設定される(図9参照)。スキャン領域SAから第3の方向に画素ブロック小12b一つ分移動させた領域が第3の候補領域CA3に設定される(図10参照)。スキャン領域SAから第4の方向に画素ブロック小12b一つ分移動させた領域が第4の候補領域CA4に設定される(図11参照)。スキャン領域SAから第5の方向に画素ブロック小12b一つ分移動させた領域が第5の候補領域CA5に設定される(図12参照)。スキャン領域SAから第6の方向に画素ブロック小12b一つ分移動させた領域が第6の候補領域CA6に設定される(図13参照)。スキャン領域SAから第7の方向に画素ブロック小12b一つ分移動させた領域が第7の候補領CA7に設定される(図14参照)。スキャン領域SAから第8の方向に画素ブロック小12b一つ分移動させた領域が第8の候補領域CA8に設定される(図15参照)。
A region moved by one
焦点距離が最小値から長くなるにつれて、移動距離である画素ブロック小12bまたは画素ブロック大12Bの数は2、3、4、・・・に定められ、第1〜第8の方向で定められた移動距離の位置に第1〜第8の候補領域CA1〜CA8が設定される。
As the focal length becomes longer from the minimum value, the number of
設定された第1〜第8の候補領域CA1〜CA8がデータとして、画像認識部34に送信される。また、スキャン領域初期設定部32に初期設定されたスキャン領域SAがデータとして、画像認識部34にも送信される。さらに、画像認識部34には、AFE13から画像データが送られる。
The set first to eighth candidate areas CA1 to CA8 are transmitted to the
画像認識部34では、各フレームの画像データの中からスキャン領域SA及び第1〜第8の候補領域CA1〜CA8における画像に相当するデータ成分が抽出される。なお、抽出されるデータ成分は、各領域を形成する画素ブロック小12bまたは画素ブロック大12Bの輝度に相当する。
The
例えば、第1のタイミングで送られる画像データにおけるスキャン領域SAでは、図16に示すように、左から右、上から下の画素ブロック小12bの順番に、120、30、60、55、70、110、100、70、40、105、40、85、95、65、25、40、150、120、60、30、25、45、100、120、110、95、80、50、90、75、80、20が輝度として抽出される。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして画素ブロック大12Bにおける輝度が抽出される。
For example, in the scan area SA in the image data sent at the first timing, as shown in FIG. 16, 120, 30, 60, 55, 70, 120, 30, 60, 55, 70, 110, 100, 70, 40, 105, 40, 85, 95, 65, 25, 40, 150, 120, 60, 30, 25, 45, 100, 120, 110, 95, 80, 50, 90, 75, 80 and 20 are extracted as luminance. Note that the luminance in the
抽出されたデータ成分に基づいて、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8における各画素ブロック小12bまたは画素ブロック大12Bの輝度の2値化が行なわれる。すなわち、各領域に含まれる複数の画素ブロック小12bまたは画素ブロック大12Bにおける輝度の平均値が求められ、平均値より大きな輝度である画素ブロック小12bまたは画素ブロック大12Bの輝度は1に変換され、平均値より小さな輝度である画素ブロック小12bまたは画素ブロック大12Bの輝度は0に変換される。
Based on the extracted data components, the luminance of each pixel block small 12b or pixel block large 12B in the scan area SA and the first to eighth candidate areas CA1 to CA8 is binarized. That is, the average value of the luminance in the plurality of small pixel blocks 12b or the
例えば図16に示したスキャン領域の輝度の平均値は73.75であり、それぞれの画素ブロック小12bの輝度は2値化により図17に示すように、左から右、上から下の画素ブロック小12bまたは画素ブロック大12Bの順番に1、0、0、0、0、1、1、0、0、1、0、1、1、0、0、0、1、1、0、0、0、0、1、1、1、1、1、0、1、1、1、0に変換される。なお、スキャン領域SAが32個の画素ブロック大12Bにより形成されるときも同様にして画素ブロック大12Bにおける輝度の2値化が行なわれる。
For example, the average value of the brightness of the scan area shown in FIG. 16 is 73.75, and the brightness of each pixel block small 12b is binarized, as shown in FIG. 1, 0, 0, 0, 0, 1, 1, 0, 0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 0, 0, in order of small 12b or
2値化された各画素ブロック小12bまたは画素ブロック大12Bの輝度はデータとして、領域毎にスキャン領域設定部35に送られる。スキャン領域設定部35では、スキャン領域SAに含まれる被写体が次のタイミングの撮像により生成される画像データにおいて、第1〜第8の候補領域CA1〜CA8のいずれに移動したかが推測される。
The binarized luminance of each pixel block small 12b or pixel block large 12B is sent as data to the scan
なお、この推測は、スキャン領域SAにおける各画素ブロック小12bまたは大画素ブロック大12Bの2値化された輝度と次のタイミングの画像データの第1〜第8の候補領域CA1〜CA8それぞれにおける各画素ブロック小12bまたは画素ブロック大12Bの2値化された輝度とに基づいて行なわれる。 This estimation is based on the binarized luminance of each pixel block small 12b or large pixel block large 12B in the scan area SA and each of the first to eighth candidate areas CA1 to CA8 of the image data at the next timing. This is performed based on the binarized luminance of the pixel block small 12b or the pixel block large 12B.
第1〜第8の候補領域CA1〜CA8の中からの選択は、第1〜第8の判定値の算出及び第1〜第8の判定値に基づく判定によって行なわれる。それぞれの動作について以下に詳細に説明する。 Selection from the first to eighth candidate areas CA1 to CA8 is performed by calculation of the first to eighth determination values and determination based on the first to eighth determination values. Each operation will be described in detail below.
第1〜第8の判定値とは、スキャン領域SAの画像と第1〜第8の候補領域CA1〜CA8それぞれの画像との一致性を示す計算値である。第1〜第8の判定値は、スキャン領域SA内と第1〜第8の候補領域CA1〜CA8内において相対的に同じ位置にある画素ブロック小12bまたは画素ブロック大12Bにおける2値化された輝度を比較し、不一致となる画素ブロック小12bまたは画素ブロック大12Bの個数を数えることにより算出される。従って、第1〜第8の判定値が低い程、スキャン領域SAの画像との一致性が高いと推測される。 The first to eighth determination values are calculated values indicating the coincidence between the image of the scan area SA and each of the first to eighth candidate areas CA1 to CA8. The first to eighth determination values are binarized in the pixel block small 12b or the pixel block large 12B that are relatively in the same position in the scan area SA and in the first to eighth candidate areas CA1 to CA8. It is calculated by comparing the luminance and counting the number of pixel block small 12b or pixel block large 12B that do not match. Therefore, it is estimated that the lower the first to eighth determination values, the higher the consistency with the image in the scan area SA.
スキャン領域設定部35はEXOR回路(図示せず)を有しており、両画素ブロック小12bまたは両画素ブロック大12Bにおける2値化された輝度がEXOR回路に入力される。両画素ブロック小12bまたは両画素ブロック大12Bにおける2値化された輝度が一致するときには0が返され、2値化された輝度が異なるときには1が返される。
The scan
例えば、第1の候補領域CA1における2値化された輝度は、図18に示すような値を有している。スキャン領域SA内と第1の候補領域CA1内の相対的位置が同じ画素ブロック小12bすべてに対して、2値化された輝度がEXOR回路に入力されると、左から右、上からの下の画素ブロック小12bの順番に1、0、0、1、1、0、0、1、0、1、1、0、0、0、0、1、0、1、0、1、0、0、0、0、1、0、0、0、1、0、0、0の値が出力される。スキャン領域SAと第1の候補領域CA1との比較において、EXOR回路から1の値が出力された回数が第1の判定値U(exor)として数えられる。
For example, the binarized luminance in the first candidate area CA1 has a value as shown in FIG. When the binarized luminance is input to the EXOR circuit for all the pixel block small 12b having the same relative position in the scan area SA and the first candidate area CA1, the left to right and the top to
同様に、スキャン領域SAと第2の候補領域CA2との比較が行なわれ、EXOR回路から1の値が出力された回数が第2の判定値UL(exor)として数えられる。同様に、スキャン領域SAと第3の候補領域CA3との比較が行なわれ、EXOR回路から1の値が出力された回数が第3の判定値L(exor)として数えられる。同様に、スキャン領域SAと第4の候補領域CA4との比較が行なわれ、EXOR回路から1の値が出力された回数が第4の判定値DL(exor)として数えられる。同様に、スキャン領域SAと第5の候補領域CA5との比較が行なわれ、EXOR回路から1の値が出力された回数外第5の判定値D(exor)として数えられる。同様に、スキャン領域SAと第6の候補領域CA6との比較が行なわれ、EXOR回路から1の値が出力された回数が第6の判定値DR(exor)として数えられる。同様に、スキャン領域SAと第7の候補領域CA7との比較が行なわれ、EXOR回路から1の値が出力された回数が第7の判定値R(exor)として数えられる。同様に、スキャン領域SAと第8の候補領域CA8との比較が行なわれ、EXOR回路から1の値が出力された回数が第8の判定値UR(exor)として数えられる。 Similarly, the scan area SA and the second candidate area CA2 are compared, and the number of times a value of 1 is output from the EXOR circuit is counted as the second determination value UL (exor). Similarly, the scan area SA is compared with the third candidate area CA3, and the number of times the value of 1 is output from the EXOR circuit is counted as the third determination value L (exor). Similarly, the scan area SA is compared with the fourth candidate area CA4, and the number of times the value of 1 is output from the EXOR circuit is counted as the fourth determination value DL (exor). Similarly, the scan area SA and the fifth candidate area CA5 are compared, and counted as the fifth determination value D (exor) outside the number of times when a value of 1 is output from the EXOR circuit. Similarly, the scan area SA is compared with the sixth candidate area CA6, and the number of times the value of 1 is output from the EXOR circuit is counted as the sixth determination value DR (exor). Similarly, the scan area SA is compared with the seventh candidate area CA7, and the number of times that a value of 1 is output from the EXOR circuit is counted as the seventh determination value R (exor). Similarly, the scan area SA is compared with the eighth candidate area CA8, and the number of times the value of 1 is output from the EXOR circuit is counted as the eighth determination value UR (exor).
第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)の最小値が判定される。最小値であると判定された判定値に対応する候補領域が被写体の移動した領域であると判定され、選択される。選択された候補領域は、スキャン領域SAとして再設定される。 Minimum values of the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), UR (exor) Is determined. The candidate area corresponding to the determination value determined to be the minimum value is determined to be the area where the subject has moved and is selected. The selected candidate area is reset as the scan area SA.
なお、固定AF機能を実行させるときには、追尾部30の中でスキャン領域初期設定部32のみが駆動され、画素ブロック算出部31、候補領域設定部33、画像認識部34、及びスキャン領域設定部35の駆動は停止される。
When the fixed AF function is executed, only the scan region
スキャン領域初期設定部32の駆動により設定されたスキャン領域SAは画像認識部34及びスキャン領域設定部35を介してAF調整部23aにデータとして送られる。なお、追尾AF機能と異なり、スキャン領域SAは最初に設定されたスキャン領域SAのまま固定される。
The scan area SA set by driving the scan area
次に、追尾AF機能を実行するときに追尾部30において行なわれるスキャン領域SAの設定のために行なわれる処理を図19、図20のフローチャートを用いて説明する。図19は、スキャン領域SAの設定のために行なわれる処理を説明するための第1のフローチャートである。図20は、スキャン領域SAの設定のために行われる処理を説明するための第2のフローチャートである。
Next, the process performed for setting the scan area SA performed in the
追尾AF機能を実行させるとき、すなわち追尾AF機能実行に切替えるコマンド入力をした後にレリーズボタンが半押しされたときに本処理が開始される。なお、本処理は、デジタルカメラ10の電源がOFFに切替えられるか、追尾AF機能の実行が解除されるまで繰返される。
This process is started when the tracking AF function is executed, that is, when the release button is half-pressed after inputting a command for switching to the tracking AF function execution. This process is repeated until the
ステップS100において、スキャン領域SAの位置の初期設定が行なわれる。操作者によるコマンド入力により定められた撮影画像の枠内の点を中心Cとしてスキャン領域SAの位置が設定される。 In step S100, the initial position of the scan area SA is set. The position of the scan area SA is set with the point C within the frame of the captured image determined by the command input by the operator as the center C.
次のステップS101において、1フレームの画像データが受信され、次のステップS102に進む。ステップS102では、測光が行われる。測光を行うときに、先ず前段データ処理部14p1から各画素12pにおける受光量がスキャン領域初期設定部32に送られる。1フレームの画像データにおける各画素12pの受光量に基づいて、スキャン領域初期設定部32では、有効画素領域AA全体の輝度が求められる。
In the next step S101, one frame of image data is received, and the process proceeds to the next step S102. In step S102, photometry is performed. When performing photometry, first, the received light amount at each
有効画素領域AA全体の輝度が求められると、ステップS103に進む。ステップS103では、ステップS102において求めた輝度が第1の閾値と比較される。 When the luminance of the entire effective pixel area AA is obtained, the process proceeds to step S103. In step S103, the luminance obtained in step S102 is compared with a first threshold value.
有効画素領域AA全体の輝度が第1の閾値より大きいときは、ステップS104に進む。ステップS104では、画素ブロックフラッグPBが0に設定される。有効画素領域AA全体の輝度が第1の閾値より小さいときは、ステップS105に進む。ステップS105では、画素ブロックフラッグPBが1に設定される。 When the luminance of the entire effective pixel area AA is larger than the first threshold value, the process proceeds to step S104. In step S104, the pixel block flag PB is set to zero. When the luminance of the entire effective pixel area AA is smaller than the first threshold value, the process proceeds to step S105. In step S105, the pixel block flag PB is set to 1.
ステップS104またはステップS105の終了後に、ステップS106に進む。ステップS106では、ステップS100において設定された位置と、ステップS104またはステップS105において設定された画素ブロックとに応じたスキャン領域SAが設定される。 After step S104 or step S105 ends, the process proceeds to step S106. In step S106, a scan area SA corresponding to the position set in step S100 and the pixel block set in step S104 or step S105 is set.
次のステップS107では、撮影光学系11の焦点距離が検出される。先ず、ズーム駆動部16により、変倍レンズ11aとフォーカスレンズ11bとの相対的位置がズーム段として検出される。検出されたズーム段はデータとして、制御部14cを介して候補領域設定部33に送信される。候補領域設定部33では、ズーム段に対応する焦点距離が検出される。
In the next step S107, the focal length of the photographing
焦点距離が検出されると、次のステップS108において焦点距離に応じて、スキャン領域から候補領域までの移動距離が定められる。移動距離が定められると、ステップS104またはステップS105において設定された画素ブロックと移動距離とに応じて、第1〜第8の候補領域が設定される。 When the focal length is detected, the moving distance from the scan area to the candidate area is determined according to the focal distance in the next step S108. When the movement distance is determined, the first to eighth candidate areas are set according to the pixel block and the movement distance set in step S104 or step S105.
第1〜第8の候補領域CA1〜CA8の設定の終了後、ステップS109に進む。ステップS109では、画素ブロックフラッグPBが0であるか1であるかの判定が行なわれる。 After the setting of the first to eighth candidate areas CA1 to CA8 is completed, the process proceeds to step S109. In step S109, it is determined whether the pixel block flag PB is 0 or 1.
画素ブロックフラッグPBが0であるときにはステップS110に進み、スキャン領域SAにおける画素ブロック小12bの輝度の2値化が行なわれる。画素ブロックフラッグPBが1であるときにはステップS111に進み、スキャン領域SAにおける画素ブロック大12Bの輝度の2値化が行なわれる。
When the pixel block flag PB is 0, the process proceeds to step S110, where the luminance of the pixel block small 12b in the scan area SA is binarized. When the pixel block flag PB is 1, the process proceeds to step S111, and the luminance of the
ステップS110またはステップS111の終了後に、ステップS112に進む。ステップS112では、次のタイミングで生成される1フレームの画像データが受信される。画像データの受信後にステップS113に進み、画素ブロックフラッグPBが0であるか1であるかの判定が行なわれる。 It progresses to step S112 after completion | finish of step S110 or step S111. In step S112, one frame of image data generated at the next timing is received. After receiving the image data, the process proceeds to step S113, where it is determined whether the pixel block flag PB is 0 or 1.
画素ブロックフラッグPBが0であるときにはステップS114に進み、第1〜第8の候補領域CA1〜CA8における画素ブロック小12bの輝度の2値化が行なわれる。画素ブロックフラッグPBが1であるときにはステップS115に進み、第1〜第8の候補領域CA1〜CA8における画素ブロック大12Bの輝度の2値化が行なわれる。
When the pixel block flag PB is 0, the process proceeds to step S114, and the luminance of the pixel block small 12b in the first to eighth candidate areas CA1 to CA8 is binarized. When the pixel block flag PB is 1, the process proceeds to step S115, and the luminance of the
ステップS114またはステップS115の終了後に、ステップS116に進む。ステップS116では、スキャン領域SAにおける2値化された輝度と第1〜第8の候補領域CA1〜CA8における2値化された輝度とに基づいて、第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)が算出される。 It progresses to step S116 after completion | finish of step S114 or step S115. In step S116, the first to eighth determination values U (exor) based on the binarized luminance in the scan area SA and the binarized luminance in the first to eighth candidate areas CA1 to CA8. , UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), and UR (exor) are calculated.
第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)を求めるとステップS117に進む。ステップS117では、第1〜第8の判定値U(exor)、UL(exor)、L(exor)、DL(exor)、D(exor)、DR(exor)、R(exor)、UR(exor)の中の最小値がいずれであるかの判定が行なわれる。判定値が最小となる判定値に対応する候補領域が新たなスキャン領域SAの位置として設定される。 When the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), and UR (exor) are obtained. The process proceeds to step S117. In step S117, the first to eighth determination values U (exor), UL (exor), L (exor), DL (exor), D (exor), DR (exor), R (exor), UR (exor) ) Is determined which is the minimum value. A candidate area corresponding to the determination value having the smallest determination value is set as the position of the new scan area SA.
ステップS117を終了するとステップS102に戻り、以後ステップS102〜ステップS117の処理が繰返される。したがって、ステップS117、ステップS102〜ステップS106の処理の繰返しにより、スキャン領域SAが再設定される。 When step S117 is completed, the process returns to step S102, and the processes of step S102 to step S117 are repeated thereafter. Therefore, the scan area SA is reset by repeating the processes of step S117 and steps S102 to S106.
以上のような構成である本実施形態のパターンマッチングシステムによれば、パターンマッチングシステムに用いるデジタル演算器を有効に活用可能になる。デジタル演算器の取扱うビット数は2のべき乗であり、2の5乗の画素ブロック小12bまたは画素ブロック大12Bの輝度の算出、2値化、及び判定値の算出において必要な取扱いビット数とデジタル演算器の取扱うビット数に一致させることが可能だからである。 According to the pattern matching system of the present embodiment having the above-described configuration, it is possible to effectively use the digital arithmetic unit used in the pattern matching system. The number of bits handled by the digital computing unit is a power of 2, and the number of bits handled and the number of bits necessary for calculating the luminance of the pixel block small 12b or the pixel block large 12B of 2 to the power of 2, and binarization, and calculating the determination value This is because it is possible to match the number of bits handled by the arithmetic unit.
また、本実施形態のパターンマッチングシステムによれば、各画素ブロックの輝度を2値化するので、パターンマッチングの安定性を向上させることが可能になる。例えば、蛍光灯のようにフリッカの生じる光源をスキャン領域または候補領域に受光させるときに、全体の一致性が高くても局所的な一致性が低くなることがあるが、2値化により局所的な不一致性が低減化されるので、安定性の向上が図られるのである。 Further, according to the pattern matching system of the present embodiment, the luminance of each pixel block is binarized, so that the stability of pattern matching can be improved. For example, when a light source that generates flicker, such as a fluorescent lamp, is received by a scan area or a candidate area, local consistency may be low even if the overall consistency is high. Since the inconsistency is reduced, the stability is improved.
また、本実施形態のパターンマッチングシステムによれば、有効画素領域AA全体の明るさに応じて、パターンマッチングに用いる画素ブロックの大きさを切替えるので、ノイズによる誤判定を低減化させることが可能になる。全体の受光量が低いときには画素信号の信号強度に対するノイズが大きくなる。しかし、画素ブロックを大きくすることにより画素ブロックの輝度を求めるのに用いる画素の数を増やすので、ノイズの影響が画素ブロック全体で中和されることになる。 Further, according to the pattern matching system of the present embodiment, since the size of the pixel block used for pattern matching is switched according to the brightness of the entire effective pixel area AA, it is possible to reduce erroneous determination due to noise. Become. When the total amount of received light is low, noise with respect to the signal intensity of the pixel signal increases. However, since the number of pixels used for obtaining the luminance of the pixel block is increased by increasing the size of the pixel block, the influence of noise is neutralized in the entire pixel block.
また、本実施形態の被写体追尾システムによれば、撮影光学系11の焦点距離に応じてスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離を変化させるので、被写体追尾の正確性を向上させることが可能である。同じ移動中の被写体の画像上の移動速度は、焦点距離が長くなるほど速くなるためである。
Further, according to the subject tracking system of the present embodiment, the movement distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is changed according to the focal length of the photographing
また、本実施形態の被写体追尾システムによれば、スポット測光や一部重点測光等における受光量を検出するための領域に画素ブロック小12bまたは画素ブロック大12Bにおける輝度が用いられるので、別々に演算を行なう場合に比べて処理の高速化を図ることが可能になる。 Further, according to the subject tracking system of the present embodiment, the luminance in the pixel block small 12b or the pixel block large 12B is used for the area for detecting the received light amount in spot metering, partial weight metering, etc. It is possible to increase the processing speed as compared with the case of performing.
なお、本実施形態において、スキャン領域SAまたは候補領域を形成する画素ブロック小12bまたは画素ブロック大12Bの数は2の5乗である32個であるが、パターンマッチングシステムに用いるデジタル演算器の取扱い可能ビット数と同じ2のべき乗個の画素ブロックにしても良い。
In this embodiment, the number of small pixel blocks 12b or
なお、本実施形態において、被写体の移動方向が第1〜第8の方向の8方向のいずれであるかを判定する構成であるが、複数の方向の中から判定される構成であればよい。 In the present embodiment, the configuration is such that the moving direction of the subject is one of the eight directions of the first to eighth directions. However, any configuration may be used as long as it is determined from a plurality of directions.
また、本実施形態において、変倍レンズがワイド端にあるときにスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離は、1画素ブロック小12b又は画素ブロック大12Bであるが、移動させる画素ブロック小12bまたは画素ブロック大12Bの数はいくつであっても良い。焦点距離に応じて移動距離を長く変化させる構成であれば、本実施形態と同様の効果を得ることが可能である。 In the present embodiment, when the zoom lens is at the wide end, the moving distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is one pixel block small 12b or one pixel block large 12B. However, the number of pixel block small 12b or pixel block large 12B to be moved may be any number. An effect similar to that of the present embodiment can be obtained as long as the moving distance is changed in accordance with the focal length.
また、本実施形態において、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8の形状は十字形であるがどのような形状であっても良い。 Further, in the present embodiment, the shapes of the scan area SA and the first to eighth candidate areas CA1 to CA8 are cross-shaped, but any shape may be used.
また、本実施形態において、スキャン領域SA及び第1〜第8の候補領域CA1〜CA8における画素ブロック12bの輝度の2値化が行なわれているが、2値化でなくても所定の数によって階層化しても良い。更には、階層化しなくても良い。ただし、2値化又は階層化を行なうことにより前述のような効果を得ることが可能になる。
In the present embodiment, the luminance of the
あるいは、本実施形態において、画素ブロック12b、12Bの輝度を3以上の階層化する場合や、階層化を行なわない場合はスキャン領域SAと各候補領域における同じ位置の画素ブロックの輝度の差の絶対値が予め定められた基準値以下のときに0を返して、各判定値を算出する構成であっても良い。本実施形態のように2値化された輝度の場合は、基準値を0に設定することに相当している。 Alternatively, in the present embodiment, when the luminance of the pixel blocks 12b and 12B is hierarchized by three or more, or when hierarchization is not performed, the absolute difference in luminance between the pixel block at the same position in the scan area SA and each candidate area A configuration may be used in which each determination value is calculated by returning 0 when the value is equal to or less than a predetermined reference value. In the case of binarized luminance as in the present embodiment, this corresponds to setting the reference value to 0.
また、本実施形態において、有効画素領域AA全体の明るさに応じて、パターンマッチングに用いる画素ブロックの大きさを2段階に切替えるが、何段階で切替えても良い。或いは、切替えなくてもデジタル演算器の有効活用を行なう効果を発揮することは可能である。ただし、明るさに応じた切替えにより前述のような効果を得ることが可能になる。 Further, in the present embodiment, the size of the pixel block used for pattern matching is switched in two stages according to the brightness of the entire effective pixel area AA, but it may be switched in any number of stages. Alternatively, it is possible to exhibit the effect of effectively using the digital arithmetic unit without switching. However, the above-described effects can be obtained by switching according to the brightness.
また、本実施形態において有効画素領域AA全体の明るさに応じてパターンマッチングに用いる画素ブロックの大きさを切替える構成であるが、有効画素領域AAの一部の明るさに応じて切替える構成であっても良い。 In this embodiment, the size of the pixel block used for pattern matching is switched according to the brightness of the entire effective pixel area AA, but the configuration is switched according to the brightness of a part of the effective pixel area AA. May be.
また、本実施形態において、撮影光学系の焦点距離に応じてスキャン領域SAから第1〜第8の候補領域CA1〜CA8までの移動距離を変化させる構成であるが、させなくても、デジタル演算器の有効活用を行なう効果を発揮することは可能である。ただし、焦点距離に応じて移動距離を変化させることにより、前述のような効果を得ることが可能になる。 In the present embodiment, the moving distance from the scan area SA to the first to eighth candidate areas CA1 to CA8 is changed according to the focal length of the photographing optical system. It is possible to demonstrate the effect of effective use of the vessel. However, the effects as described above can be obtained by changing the movement distance according to the focal length.
また、本実施形態において、画素ブロックをスポット測光や一部重点測光等における受光量を検出するための領域としても用いる構成であるが、ホワイトバランスを演算するために受光量を検出するための領域としても用いる構成であっても良い。或いは用いなくてもデジタル演算器の有効活用を行う効果を発揮することが可能である。ただし、一部の領域毎の受光量に基づいて演算を行なう場合に、画素ブロックの輝度を共用することにより全体の処理速度の高速化を図ることが可能である。 In the present embodiment, the pixel block is also used as an area for detecting the amount of received light in spot metering, partial weight metering, etc., but the area for detecting the amount of received light in order to calculate white balance The structure used also as may be sufficient. Alternatively, it is possible to exhibit the effect of effectively using the digital arithmetic unit without using it. However, when the calculation is performed based on the amount of received light for each of the areas, it is possible to increase the overall processing speed by sharing the luminance of the pixel block.
また、本実施形態において、EXOR回路を用いて、スキャン領域SAと第1〜第8の候補領域CA1〜CA8における画素ブロック小12bの2値化された輝度が一致しているか否かを判定させているが、例えばEXNOR回路を用いて判定を行なわせても良い。また、他のいずれの手段により一致しているか否かの判定を行なっても良い。 In the present embodiment, the EXOR circuit is used to determine whether or not the binarized luminances of the pixel block small 12b in the scan area SA and the first to eighth candidate areas CA1 to CA8 match. However, the determination may be made using, for example, an EXNOR circuit. Moreover, you may determine whether it corresponds by any other means.
また、本実施形態において、画素ブロック12b、12Bにおける輝度に基づいて、スキャン領域SAと第1〜第8の候補領域CA1〜CA8の一致性を示す判定値を算出する構成であるが、輝度でなくてもよく、例えばGカラーフィルタに覆われた画素から出力される緑色の画素信号の信号強度によって判定値を算出する構成であってもよい。さらには別の色信号である画素信号の信号強度によって判定値を算出する構成であっても良い。 In the present embodiment, the determination value indicating the coincidence between the scan area SA and the first to eighth candidate areas CA1 to CA8 is calculated based on the luminance in the pixel blocks 12b and 12B. For example, the determination value may be calculated based on the signal intensity of the green pixel signal output from the pixel covered with the G color filter. Further, the determination value may be calculated based on the signal intensity of a pixel signal that is another color signal.
また、本実施形態において、撮像素子12の有効画素領域AAには画素がマトリックス状に配列される構成であるが、2次元状に配列されていればよい。
In the present embodiment, the pixels are arranged in a matrix in the effective pixel area AA of the
また、本実施形態において、追尾部30により所望の被写体を追尾させ、追尾している被写体に対してAF機能を実行させる構成であるが、追尾部30による追尾機能を他の機能に適用することは可能である。例えば、所望の被写体を追尾し、モニタ上に被写体とともに追尾されていることが表示される監視カメラや、移動する被写体を追尾させ、追尾している被写体に対して自動露出補正を行なうカメラなどにも適用可能である。
In the present embodiment, the
また、本実施形態において、パターンマッチングを被写体の追尾に利用する構成であるが、例えば、顔面認証システム等に適用することも可能である。 In the present embodiment, the pattern matching is used for tracking the subject, but can be applied to, for example, a face authentication system.
10 デジタルカメラ
11a 変倍レンズ
11b フォーカスレンズ
12b、12B 画素ブロック小、画素ブロック大
12p 画素
14 DSP(Digital Signal Processor)
14p1 前段データ処理部
16 ズーム駆動部
17 フォーカス駆動部
30 追尾部
31 画素ブロック算出部
32 スキャン領域初期設定部
33 候補領域設定部
34 画像認識部
35 スキャン領域設定部
AA 有効画素領域
C スキャン領域の中心
CA1〜CA8 第1〜第8の候補領域
SA スキャン領域
DESCRIPTION OF
14p1 Pre-stage
Claims (6)
前記第1、第2の画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号によって形成され、前記第1、第2の画像に対応する第1、第2の画像データをデジタルデータとして取得する取得部と、
前記第1、第2の画像における同じ位置の前記パターン領域の前記領域信号の信号強度を比較する比較部と、
前記比較部による比較において前記領域信号の信号強度の差の絶対値が予め定められる基準値以下となる前記パターン領域の数に応じて変わる前記判定値を算出する判定部と、 前記判定値を出力する出力部とを備え、
前記第1の画像または前記第2の画像全体の輝度が第1の閾値より低いときに、前記パターン領域の大きさを広くすることを特徴とするパターンマッチングシステム。 A pattern matching system that outputs a determination value for indicating a high degree of coincidence between a first image and a second image,
The first and second images corresponding to the first and second images are formed by region signals whose signal intensity changes according to the luminance of each of the power-of-two pattern regions that form the first and second images. An acquisition unit for acquiring the image data as digital data;
A comparison unit for comparing signal strengths of the region signals of the pattern region at the same position in the first and second images;
A determination unit that calculates the determination value that varies according to the number of the pattern regions in which the absolute value of the signal intensity difference between the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit; and outputs the determination value and an output unit that,
The pattern matching system , wherein when the luminance of the first image or the whole of the second image is lower than a first threshold, the size of the pattern region is widened .
前記第1の画像または前記第2の画像全体の輝度が前記第1の閾値より低いときに、前記取得部は大きさの拡大されたパターン領域によって形成される大パターン領域全体の輝度に応じて信号強度の変わる大領域信号を生成し、
前記比較部は、前記第1の画像または前記第2の画像全体の輝度が前記第1の閾値より低いときに、前記第1、第2の画像における同じ位置の前記大パターン領域の前記大領域信号の信号強度を比較し、
前記判定部は、前記大領域信号の信号強度の差の絶対値が前記基準値以下となる前記大パターン領域の数に応じて変わる前記判定値を算出する
ことを特徴とする請求項1または請求項2に記載のパターンマッチングシステム。 The acquisition unit receives a pixel signal whose signal intensity changes according to the luminance of each of the plurality of pixels forming the pattern region, and the pixel signal of the plurality of pixels forming the single pattern region. An area signal generation unit for generating the area signal based on
When the luminance of the entire first image or the second image is lower than the first threshold, the acquisition unit responds to the luminance of the entire large pattern area formed by the enlarged pattern area. Generate large area signals with varying signal strength,
When the luminance of the first image or the entire second image is lower than the first threshold, the comparison unit is configured to have the large area of the large pattern area at the same position in the first and second images. Compare the signal strength of the signals,
The said determination part calculates the said determination value which changes according to the number of the said large pattern area | region where the absolute value of the signal strength difference of the said large area signal becomes below the said reference value. Item 3. The pattern matching system according to Item 2.
前記撮影画像における定められた一部の領域を、前記追尾対象体を追尾するための追尾領域に初期設定する初期設定部と、An initial setting unit that initially sets a predetermined part of the captured image as a tracking region for tracking the tracking object;
前記追尾領域から第1、第2の方向に移動した領域である第1、第2の候補領域を設定する候補領域設定部と、A candidate area setting unit for setting first and second candidate areas that are areas moved in the first and second directions from the tracking area;
第1のタイミングで撮像された前記撮影画像における前記追尾領域の画像である基準画像を検出し、前記第1のタイミングの後の第2のタイミングで撮像された前記撮影画像における前記第1、第2の候補領域の画像である第1、第2の候補画像を検出する画像検出部と、A reference image that is an image of the tracking area in the captured image captured at the first timing is detected, and the first and second images in the captured image captured at a second timing after the first timing are detected. An image detection unit for detecting first and second candidate images that are images of two candidate areas;
前記基準画像及び前記第1、第2の候補画像に基づいて、前記基準画像及び前記第1、第2の候補画像を形成する2のべき乗個のパターン領域それぞれの輝度に応じて信号強度の変わる領域信号を生成する領域信号生成部と、Based on the reference image and the first and second candidate images, the signal intensity changes according to the luminance of each of the power-of-two pattern regions forming the reference image and the first and second candidate images. An area signal generator for generating an area signal;
前記基準画像と、前記第1の候補画像または前記第2の候補画像における同じ位置の前記パターン領域の前記領域信号の信号強度を比較する比較部と、A comparison unit that compares the signal intensity of the region signal of the pattern region at the same position in the first candidate image or the second candidate image with the reference image;
前記比較部による比較において前記領域信号の信号強度の差の絶対値が予め定められる基準値以下となる前記パターン領域の数に応じて変わる判定値を算出する第1の判定部と、A first determination unit that calculates a determination value that changes according to the number of pattern regions in which the absolute value of the signal intensity difference between the region signals is equal to or less than a predetermined reference value in the comparison by the comparison unit;
前記基準画像と前記第1の画像または前記第2の画像とについての前記判定値に基づいて、前記第1のタイミングから前記第2のタイミングにおける前記追尾対象体の移動方向を前記第1、第2の方向のいずれであるかを判定する第2の判定部と、Based on the determination value for the reference image and the first image or the second image, the moving direction of the tracking target object from the first timing to the second timing is changed to the first and second. A second determination unit that determines which of the two directions;
前記第2の判定部に前記追尾対象体の移動方向として判定された方向に移動した候補領域を追尾領域として再設定する再設定部とを備え、The second determination unit includes a resetting unit that resets a candidate area that has moved in the direction determined as the movement direction of the tracking target object as a tracking area,
前記基準画像、前記第1の候補画像または前記第2の候補画像全体の輝度が第1の閾値より低いときに、前記パターン領域の大きさを広くするWhen the brightness of the reference image, the first candidate image, or the entire second candidate image is lower than a first threshold, the size of the pattern area is increased.
ことを特徴とする被写体追尾システム。Subject tracking system.
前記パターン領域の輝度が、前記露出量の調整を行うための前記光学像の一部の輝度として使用される
ことを特徴とする請求項4または請求項5に記載の被写体追尾システム。 An exposure adjustment system capable of adjusting the exposure when the optical image of the tracking object is received by the image sensor in accordance with the luminance of a part of the optical image incident on the image sensor;
The subject tracking system according to claim 4 or 5 , wherein the brightness of the pattern area is used as a brightness of a part of the optical image for adjusting the exposure amount .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006072652A JP4701111B2 (en) | 2006-03-16 | 2006-03-16 | Pattern matching system and subject tracking system |
US11/686,561 US8023744B2 (en) | 2006-03-16 | 2007-03-15 | Pattern matching system and targeted object pursuit system using light quantities in designated areas of images to be compared |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006072652A JP4701111B2 (en) | 2006-03-16 | 2006-03-16 | Pattern matching system and subject tracking system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007249640A JP2007249640A (en) | 2007-09-27 |
JP4701111B2 true JP4701111B2 (en) | 2011-06-15 |
Family
ID=38517892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006072652A Expired - Fee Related JP4701111B2 (en) | 2006-03-16 | 2006-03-16 | Pattern matching system and subject tracking system |
Country Status (2)
Country | Link |
---|---|
US (1) | US8023744B2 (en) |
JP (1) | JP4701111B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8345162B2 (en) * | 2007-07-31 | 2013-01-01 | Verint Systems Inc. | Systems and methods for triggering an out of focus alert |
CN102469928B (en) * | 2009-08-28 | 2014-12-17 | 奥林巴斯医疗株式会社 | Receiver system |
US20110075935A1 (en) * | 2009-09-25 | 2011-03-31 | Sony Corporation | Method to measure local image similarity based on the l1 distance measure |
JP5834253B2 (en) * | 2013-03-27 | 2015-12-16 | パナソニックIpマネジメント株式会社 | Image processing apparatus, image processing method, and image processing program |
CN113822152A (en) * | 2021-08-09 | 2021-12-21 | 中标慧安信息技术股份有限公司 | Method for monitoring clothing condition of commercial tenant of food in market |
CN117243699B (en) * | 2023-11-14 | 2024-03-15 | 杭州三坛医疗科技有限公司 | Displacement detection method and device |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01169583A (en) * | 1987-12-24 | 1989-07-04 | Fujitsu Ltd | Pattern matching device |
JPH09231358A (en) * | 1996-02-21 | 1997-09-05 | Canon Inc | Device and method for extracting corresponding point of picture |
JP2004104656A (en) * | 2002-09-12 | 2004-04-02 | Toshiba Corp | Motion vector detection method, frame interpolation image creation method, and image display system |
JP2005045383A (en) * | 2003-07-24 | 2005-02-17 | Hitachi Kokusai Electric Inc | Object tracking apparatus |
JP2005338352A (en) * | 2004-05-26 | 2005-12-08 | Fujinon Corp | Autofocus system |
JP2007251636A (en) * | 2006-03-16 | 2007-09-27 | Pentax Corp | Object tracking system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6493465B2 (en) * | 1996-02-21 | 2002-12-10 | Canon Kabushiki Kaisha | Matching point extracting method and apparatus therefor |
US6590999B1 (en) * | 2000-02-14 | 2003-07-08 | Siemens Corporate Research, Inc. | Real-time tracking of non-rigid objects using mean shift |
US20020168091A1 (en) * | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion detection via image alignment |
JP2002372664A (en) | 2001-06-15 | 2002-12-26 | Canon Inc | Moving body region discriminating system, method of discriminating moving body region and focusing device |
JP3992177B2 (en) * | 2001-11-29 | 2007-10-17 | 株式会社リコー | Image processing apparatus, image processing method, and computer program |
US7113616B2 (en) * | 2001-12-05 | 2006-09-26 | Hitachi Kokusai Electric Inc. | Object tracking method and apparatus using template matching |
US7454040B2 (en) * | 2003-08-29 | 2008-11-18 | Hewlett-Packard Development Company, L.P. | Systems and methods of detecting and correcting redeye in an image suitable for embedded applications |
-
2006
- 2006-03-16 JP JP2006072652A patent/JP4701111B2/en not_active Expired - Fee Related
-
2007
- 2007-03-15 US US11/686,561 patent/US8023744B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01169583A (en) * | 1987-12-24 | 1989-07-04 | Fujitsu Ltd | Pattern matching device |
JPH09231358A (en) * | 1996-02-21 | 1997-09-05 | Canon Inc | Device and method for extracting corresponding point of picture |
JP2004104656A (en) * | 2002-09-12 | 2004-04-02 | Toshiba Corp | Motion vector detection method, frame interpolation image creation method, and image display system |
JP2005045383A (en) * | 2003-07-24 | 2005-02-17 | Hitachi Kokusai Electric Inc | Object tracking apparatus |
JP2005338352A (en) * | 2004-05-26 | 2005-12-08 | Fujinon Corp | Autofocus system |
JP2007251636A (en) * | 2006-03-16 | 2007-09-27 | Pentax Corp | Object tracking system |
Also Published As
Publication number | Publication date |
---|---|
US20070217686A1 (en) | 2007-09-20 |
JP2007249640A (en) | 2007-09-27 |
US8023744B2 (en) | 2011-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8243191B2 (en) | Imaging apparatus and imaging control method for focusing by determining a focusing position | |
JP5564987B2 (en) | Subject tracking device and imaging device | |
JP4874669B2 (en) | Autofocus unit and digital camera | |
JP4930509B2 (en) | Image tracking device, image tracking method, and camera | |
US9538067B2 (en) | Imaging sensor capable of detecting phase difference of focus | |
JP4662873B2 (en) | Pattern matching system | |
CN101605208A (en) | Image processing equipment, imaging device, image processing method and program | |
JP4701111B2 (en) | Pattern matching system and subject tracking system | |
JP2008046354A (en) | Object tracking device and camera | |
JP2012049773A (en) | Imaging apparatus and method, and program | |
JP2007036775A (en) | Imaging apparatus and focus control apparatus | |
JP4573789B2 (en) | Subject tracking system | |
US11593958B2 (en) | Imaging device, distance measurement method, distance measurement program, and recording medium | |
JP7158841B2 (en) | Imaging device, imaging method, program, recording medium, and image processing device | |
US10798285B2 (en) | Image processing apparatus, method, and medium to perform alignment of a plurality of images based on conversion coefficient while finely moving an in-focus position | |
JP2010134309A (en) | Autofocus device, autofocus method and imaging apparatus | |
JP5930792B2 (en) | Imaging apparatus and control method thereof | |
JP5965654B2 (en) | TRACKING DEVICE, IMAGING DEVICE, TRACKING METHOD USED FOR IMAGING DEVICE | |
JP2014003417A (en) | Image pickup device | |
JP5928024B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009159356A (en) | Subject tracing apparatus, subject tracing program and subject tracing method | |
JP2016072968A (en) | Imaging apparatus and imaging method | |
JP2015204579A (en) | Imaging apparatus | |
JP2010147694A (en) | Image tracking apparatus, imaging apparatus, and image tracking method | |
JP2018116139A (en) | Imaging device, control method thereof, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110111 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4701111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140311 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |