JP4568916B2 - Auto focus system - Google Patents

Auto focus system Download PDF

Info

Publication number
JP4568916B2
JP4568916B2 JP2005008913A JP2005008913A JP4568916B2 JP 4568916 B2 JP4568916 B2 JP 4568916B2 JP 2005008913 A JP2005008913 A JP 2005008913A JP 2005008913 A JP2005008913 A JP 2005008913A JP 4568916 B2 JP4568916 B2 JP 4568916B2
Authority
JP
Japan
Prior art keywords
image
range
reference pattern
frame
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005008913A
Other languages
Japanese (ja)
Other versions
JP2006195341A (en
Inventor
邦男 谷田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005008913A priority Critical patent/JP4568916B2/en
Publication of JP2006195341A publication Critical patent/JP2006195341A/en
Application granted granted Critical
Publication of JP4568916B2 publication Critical patent/JP4568916B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明はオートフォーカスシステムに係り、特にカメラの撮影範囲のうちオートフォーカス(AF)の対象とする位置(範囲)を自動で移動させて所望の対象被写体を追尾しながらピント合わせすることができるオートフォーカスシステムに関する。   The present invention relates to an autofocus system, and in particular, an auto that can automatically focus a position (range) targeted for autofocus (AF) within a shooting range of a camera to track a desired target subject. Concerning the focus system.

テレビカメラのように撮影素子(CCD等)により被写体の画像を電気信号(画像信号)に変換する撮像システムでは、オートフォーカス(以下、AFと記す)の方式として一般的にコントラスト方式が採用されている。コントラスト方式は、撮像素子により取り込まれた画像信号から被写体画像のコントラストを検出し、そのコントラストが最も高くなるように撮影レンズのフォーカスを制御することによって最良ピント状態(合焦状態)に自動でピント合わせを行う方式である。   In an imaging system that converts an image of a subject into an electrical signal (image signal) by a photographing element (CCD or the like) like a television camera, a contrast method is generally adopted as an autofocus (hereinafter referred to as AF) method. Yes. In the contrast method, the contrast of the subject image is detected from the image signal captured by the image sensor, and the focus of the photographic lens is controlled so that the contrast becomes the highest, thereby automatically focusing on the best focus state (in-focus state). This is a method of matching.

コントラスト方式のようなAFでは、カメラの撮影範囲内にある被写体の全体をAFの対象とするのではなく、撮影範囲のうちの一部の範囲にある被写体のみを対象とすることが多い。コントラスト方式のAFでは、撮像素子の撮像エリア全体により取り込まれた画像信号のうち、AFの対象とする範囲の画像信号を抽出し、その抽出した範囲の画像信号のコントラストが最も高くなるようにフォーカスを制御することによってAFの対象を一部の範囲の被写体のみに限定している。尚、本明細書ではカメラの撮影範囲のうちAFの対象とする被写体の範囲、又はカメラの撮影画像(の画面)の全範囲のうちAFの対象とする被写体の画像範囲をAFエリアといい、そのAFエリアの輪郭を示す枠をAF枠というものとする。   In AF such as a contrast method, the entire subject within the shooting range of the camera is not targeted for AF, but only the subject within a part of the shooting range is often targeted. In contrast-based AF, an image signal in a range targeted for AF is extracted from image signals captured by the entire imaging area of the image sensor, and focus is performed so that the contrast of the image signal in the extracted range is the highest. By controlling this, the target of AF is limited to only a certain range of subjects. In this specification, the range of the subject to be AF target in the camera shooting range, or the image range of the subject to be AF out of the entire range of the camera shot image (screen) is referred to as an AF area. A frame indicating the outline of the AF area is referred to as an AF frame.

また、単一のAFエリアが撮影範囲内の所定位置に固定して設定される場合、標準的には矩形のAFエリアが撮影範囲の中央部に設定されるが、操作者の操作によってAFエリアの位置を変更可能にしたものも知られている(例えば、特許文献1参照)。
特開2002−365519号公報
When a single AF area is fixedly set at a predetermined position within the shooting range, a rectangular AF area is normally set at the center of the shooting range. There is also known one that can change the position of (see, for example, Patent Document 1).
JP 2002-365519 A

ところで、AFエリアを所望の位置に変更できるようにした場合において、ピントを合わせたい対象被写体が撮影範囲内で移動する物体の場合には、操作者はトラックボールやジョイスティック等の操作装置を操作してその対象被写体の動きに合わせてAFエリアの位置を動かす必要がある。そのため、その操作の手間や注意力を要するという問題があった。   By the way, when the AF area can be changed to a desired position and the target subject to be focused is an object that moves within the shooting range, the operator operates an operation device such as a trackball or a joystick. It is necessary to move the position of the AF area in accordance with the movement of the target subject. For this reason, there has been a problem that the operation is troublesome and requires attention.

そこで、移動する対象被写体に対してAFエリアを自動で追尾させるようにすると操作者がAFエリアの位置を操作する手間がなくなるため効果的である。AFエリアを所望の対象被写体に自動追尾させる方法としては、いわゆるフレーム間差分抽出による動体認識の技術を応用することが考えられる。これによれば、カメラで撮影される映像の現フレームの撮影画像と前フレームの撮影画像との差分を抽出することによって動体のみの画像を抽出する。これによって撮影範囲内での動体の位置を検出することができる。そして、その動体が、追尾する対象被写体であればAFエリアをその動体の位置に移動させることによってAFエリアを対象被写体に追尾させることができる。   Therefore, if the AF area is automatically tracked with respect to the moving subject, it is effective because the operator does not have to operate the position of the AF area. As a method for automatically tracking an AF area to a desired target subject, it is conceivable to apply a technique of moving object recognition by so-called interframe difference extraction. According to this, only the moving object image is extracted by extracting the difference between the captured image of the current frame of the video captured by the camera and the captured image of the previous frame. As a result, the position of the moving object within the imaging range can be detected. If the moving object is the target subject to be tracked, the AF area can be tracked to the target subject by moving the AF area to the position of the moving object.

このようなフレーム間差分抽出の方法は、比較的高速で移動する対象被写体の追尾も可能である等の利点がある。しかしながら、フレーム間差分抽出の方法のみでは、カメラがパン/チルト動作したときに対象被写体以外の画像も撮影範囲内で移動するため、対象被写体のみの画像を抽出することができず、AFエリアを対象被写体に追尾させることができないという問題がある。   Such an inter-frame difference extraction method has an advantage that it is possible to track a target subject that moves at a relatively high speed. However, with the inter-frame difference extraction method alone, images other than the target subject also move within the shooting range when the camera pans / tilts, so that only the target subject cannot be extracted. There is a problem that the subject cannot be tracked.

本発明はこのような事情に鑑みてなされたもので、カメラがパン/チルト動作した場合でもフレーム間差分抽出の方法を用いてピントを合わせる対象の対象被写体を適切に自動追尾することができるオートフォーカスシステムを提供することを目的とする。   The present invention has been made in view of such circumstances, and even when the camera performs a pan / tilt operation, it is possible to automatically track the target subject to be focused automatically using the inter-frame difference extraction method. The object is to provide a focus system.

前記目的を達成するために、請求項1に記載のオートフォーカスシステムは、カメラによって現フレームの撮影画像よりも前に撮影された前フレームの撮影画像の範囲のうち、少なくとも静止物体の画像を含む基準パターン画像を取り込むための基準パターン画像取込範囲を設定する基準パターン画像取込範囲設定手段と、前記前フレームの撮影画像のうち前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲の画像を基準パターン画像として取り込む基準パターン画像取込手段と、前記前フレームの撮影画像のうちピント合わせの対象として追尾する対象被写体の画像の位置を設定する対象被写体位置設定手段と、前記対象被写体位置設定手段により設定された位置に基づいて、前記前フレームの撮影画像の範囲のうち前記対象被写体の画像と該対象被写体以外の画像を含む画像を取り込むための第1比較画像取込範囲を設定する第1比較画像取込範囲設定手段と、前記前フレームの撮影画像のうち前記第1比較画像取込範囲設定手段により設定された第1比較画像取込範囲の画像を第1比較画像として取り込む第1比較画像取込手段と、前記現フレームの撮影画像の範囲のうち前記基準パターン画像取込手段により取り込まれた基準パターン画像と最も合致する画像の範囲を検出する合致画像範囲検出手段と、前記現フレームの撮影画像の範囲のうち、前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲に対して前記合致画像範囲検出手段により検出された範囲が変位した方向及び大きさで前記第1比較画像取込範囲設定手段により設定された第1比較画像取込範囲を変位させた範囲を第2比較画像取込範囲として設定する第2比較画像取込範囲設定手段と、前記現フレームの撮影画像のうち前記第2比較画像取込範囲設定手段により設定された第2比較画像取込範囲の画像を第2比較画像として取り込む第2比較画像取込手段と、前記第1比較画像取込手段により取り込まれた第1比較画像と、前記第2比較画像取込手段により取り込まれた第2比較画像との差分を抽出することによって得られる差分画像に基づいて前記現フレームの撮影画像における前記対象被写体の画像の位置を検出する対象被写体位置検出手段と、前記カメラの撮影範囲のうちピント合わせの対象とする位置を前記対象被写体位置設定手段により設定された位置から前記対象被写体位置検出手段により検出された位置に変更することによって前記対象被写体にピントが合うように前記カメラの光学系のフォーカス調整を行うオートフォーカス手段と、を備えたことを特徴としている。   In order to achieve the object, the autofocus system according to claim 1 includes at least an image of a stationary object in a range of a captured image of a previous frame captured before a captured image of a current frame by a camera. A reference pattern image capture range setting means for setting a reference pattern image capture range for capturing a reference pattern image, and a reference pattern image set by the reference pattern image capture range setting means among the captured images of the previous frame Reference pattern image capturing means for capturing an image of the capture range as a reference pattern image, target subject position setting means for setting the position of the target subject image to be tracked as a focus target among the captured images of the previous frame, Based on the position set by the target subject position setting means, the captured image of the previous frame is First comparative image capture range setting means for setting a first comparative image capture range for capturing an image including an image of the target subject and an image other than the target subject in the frame; and a captured image of the previous frame Of these, the first comparative image capturing means for capturing an image of the first comparative image capturing range set by the first comparative image capturing range setting means as the first comparative image, and the range of the captured image of the current frame Matching image range detecting means for detecting a range of an image that most closely matches the reference pattern image captured by the reference pattern image capturing means, and the reference pattern image capturing range setting of the captured image range of the current frame Capturing the first comparison image in the direction and size in which the range detected by the matching image range detecting means is displaced with respect to the reference pattern image capturing range set by the means Second comparative image capture range setting means for setting, as a second comparative image capture range, a range obtained by displacing the first comparative image capture range set by the surrounding setting means, and among the captured images of the current frame, Second comparative image capturing means for capturing an image of the second comparative image capturing range set by the second comparative image capturing range setting means as a second comparative image, and captured by the first comparative image capturing means Based on the difference image obtained by extracting the difference between the first comparison image and the second comparison image captured by the second comparison image capturing means, the image of the target subject in the captured image of the current frame is extracted. A target subject position detecting unit for detecting a position, and a target target position from a position set by the target subject position setting unit within a shooting range of the camera; Auto focus means for adjusting the focus of the optical system of the camera so as to focus on the target subject by changing to the position detected by the body position detection means.

本発明によれば、いわゆるフレーム間差分抽出の方法によって移動する対象被写体の位置を検出してその位置に追従するようにオートフォーカス手段によるピント合わせの対象とする位置を変更する場合において、少なくとも静止物体の画像を含む基準パターン画像を前フレームの撮影画像から取り込んでおき、現フレームの撮影画像においてその基準パターン画像に最も合致する画像の範囲を検出することによって撮影画像上で基準パターン画像が変位した方向及び大きさ、即ち、カメラがパン/チルト動作したことによる撮影画像上での静止物体の画像の変位の方向及び大きさを知ることができる。一方、前フレームの撮影画像の範囲に第1比較画像取込範囲を設定し、その範囲からピント合わせの対象とする対象被写体の画像とそれ以外の画像(静止物体の画像等)を含む画像を第1比較画像として取り込んでおく。そして、現フレームの撮影画像の範囲において、基準パターン画像が変位した方向と大きさで第1比較画像取込範囲を変位させた範囲を第2比較画像取込範囲としてその範囲の画像を第2比較画像として取り込むことによって、カメラがパン/チルト動作する前の第1比較画像取込範囲と同じ画角範囲の画像を取り込むことができる。その結果、第1比較画像と第2比較画像の差分を抽出して得られる差分画像によって静止物体の画像を取り除いた移動物体の画像のみを抽出することができ、対象被写体が移動している場合には差分画像から対象被写体の位置を検出することができる。その位置に基づいてオートフォーカス手段によるピント合わせの対象位置を変更することによってピント合わせの対象として対象被写体を自動追尾することができる。   According to the present invention, when the position of the subject to be moved is detected by a so-called inter-frame difference extraction method and the position to be focused by the autofocus means is changed so as to follow the position, at least the stationary object is stationary. The reference pattern image including the object image is taken from the captured image of the previous frame, and the reference pattern image is displaced on the captured image by detecting the range of the image that best matches the reference pattern image in the captured image of the current frame. It is possible to know the direction and size of the image, that is, the direction and size of the displacement of the image of the stationary object on the captured image due to the pan / tilt operation of the camera. On the other hand, a first comparison image capture range is set in the range of the captured image of the previous frame, and an image including an image of the target subject to be focused and other images (images of still objects, etc.) from the range is set. Captured as a first comparison image. Then, in the range of the captured image of the current frame, a range in which the first comparison image capture range is displaced in the direction and size in which the reference pattern image is displaced is defined as a second comparison image capture range, and the image in that range is the second. By capturing as a comparative image, it is possible to capture an image having the same field angle range as the first comparative image capturing range before the pan / tilt operation of the camera. As a result, only the moving object image from which the image of the stationary object is removed can be extracted from the difference image obtained by extracting the difference between the first comparison image and the second comparison image, and the target subject is moving The position of the subject can be detected from the difference image. By changing the target position for focusing by the autofocus unit based on the position, it is possible to automatically track the target subject as the focus target.

請求項2に記載のオートフォーカスシステムは、請求項1に記載の発明において、前記基準パターン画像取込範囲設定手段と前記第1比較画像取込範囲設定手段は同一手段とし、前記第1比較画像を前記基準パターン画像として用いることを特徴としている。本発明のように差分画像を得るための第1比較画像を基準パターン画像として兼用し、第1比較画像を、カメラのパン/チルト動作による撮影画像上での静止物体の画像の変位の方向及び大きさを検出するための基本パターン画像として、また、差分画像を得るための画像として用いることもできる。   According to a second aspect of the present invention, in the invention of the first aspect, the reference pattern image capture range setting means and the first comparison image capture range setting means are the same means, and the first comparison image Is used as the reference pattern image. As in the present invention, the first comparison image for obtaining the difference image is also used as the reference pattern image, and the first comparison image is used as the displacement direction of the image of the stationary object on the captured image by the pan / tilt operation of the camera. It can also be used as a basic pattern image for detecting the size and as an image for obtaining a difference image.

請求項3に記載のオートフォーカスシステムは、請求項1又は2に記載の発明において、前記第1比較画像取込範囲設定手段は、前記第1画像取込範囲の位置が前記対象被写体の位置に追従するように前記対象被写体位置検出手段により検出された位置に基づいて前記第1比較画像取込範囲を設定する位置を変更することを特徴としている。本発明では、第1比較画像内に対象被写体を含む必要があるため、対象被写体の位置に合わせて第1比較画像取込範囲の位置を変更するようにしている。   According to a third aspect of the present invention, in the invention according to the first or second aspect, the first comparative image capture range setting means sets the position of the first image capture range to the position of the target subject. The position for setting the first comparison image capture range is changed based on the position detected by the target subject position detection means so as to follow. In the present invention, since it is necessary to include the target subject in the first comparison image, the position of the first comparison image capture range is changed according to the position of the target subject.

請求項4に記載のオートフォーカスシステムは、請求項1、2、又は、3に記載の発明において、前記オートフォーカス手段は、前記カメラの撮影範囲内に設定されるAFエリアの範囲内の被写体をピント合わせの対象とすると共に、前記AFエリアの位置を前記ピント合わせの対象とする位置として変更し、第1比較画像取込範囲設定手段は、前記AFエリアよりも大きい範囲を前記第1比較画像取込範囲として設定することを特徴としている。本発明では、オートフォーカス手段によりピントを合わせる対象を所定のAFエリアの範囲内の被写体として設定する場合に、第1比較画像取込範囲をそのAFエリアよりも大きい範囲とすることによって第1比較画像内に対象被写体とそれ以外(静止物体)の画像を含むようにしている。   The autofocus system according to a fourth aspect is the invention according to the first, second, or third aspect, in which the autofocus means detects a subject within an AF area set within the shooting range of the camera. The first comparison image capture range setting means sets a range larger than the AF area as the first comparison image while setting the focus area and changing the position of the AF area as the focus target position. It is characterized by being set as a capture range. In the present invention, when the subject to be focused by the autofocus means is set as a subject within the range of a predetermined AF area, the first comparison image capture range is set to a range larger than the AF area, thereby making the first comparison The image includes the target subject and the other image (stationary object).

本発明に係るオートフォーカスシステムによれば、カメラがパン/チルト動作した場合でもフレーム間差分抽出の方法を用いてピントを合わせる対象の対象被写体を適切に自動追尾することができる。   According to the autofocus system of the present invention, it is possible to appropriately automatically track the target subject to be focused using the inter-frame difference extraction method even when the camera performs a pan / tilt operation.

以下、添付図面に従って本発明に係るオートフォーカスシステムの好ましい実施の形態について詳説する。   Hereinafter, preferred embodiments of an autofocus system according to the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。同図に示す撮像システムは、例えば放送用テレビカメラでの撮影に用いられる撮像システムであり、同図にはレンズ交換可能なカメラヘッド10、カメラヘッド10のレンズマウントに装着される撮影レンズ(光学系)を備えたレンズ装置12、枠操作部14、追尾装置16等が示されている。   FIG. 1 is a block diagram showing the overall configuration of an imaging system to which an autofocus system according to the present invention is applied. The image pickup system shown in FIG. 1 is an image pickup system used for shooting with, for example, a broadcast television camera. In the figure, a camera head 10 with a replaceable lens, and a shooting lens (optical) mounted on a lens mount of the camera head 10 A lens device 12, a frame operation unit 14, a tracking device 16 and the like provided with a system) are shown.

カメラヘッド10には、撮像素子(例えばCCD)や所要の信号処理回路等が搭載されており、レンズ装置12の撮影レンズにより結像された像は、撮像素子により光電変換された後、信号処理回路によって所要の信号処理が施される。信号処理回路によって生成される所定形式の映像信号は、カメラヘッド10の映像信号出力端子等から外部機器に出力される。また、カメラヘッド10には、構図の確認等のためのビューファインダ(モニタ)18が設置されており、そのビューファインダ18にカメラヘッド10からの映像信号が与えられ、カメラヘッド10で撮影されているリアルタイムの画像(映像)がビューファインダ18の画面上に表示されるようになっている。また、ビューファインダ18の画面上にはオートフォーカス(AF)の対象範囲であるAFエリアの情報、例えば、AF枠も表示される。   The camera head 10 is equipped with an image sensor (for example, a CCD), a required signal processing circuit, and the like, and an image formed by the photographing lens of the lens device 12 is photoelectrically converted by the image sensor and then subjected to signal processing. Necessary signal processing is performed by the circuit. A video signal in a predetermined format generated by the signal processing circuit is output from the video signal output terminal of the camera head 10 to an external device. Further, the camera head 10 is provided with a view finder (monitor) 18 for composition confirmation, etc., and a video signal from the camera head 10 is given to the view finder 18 and is photographed by the camera head 10. A real-time image (video) is displayed on the screen of the viewfinder 18. Further, information on an AF area that is a target range of autofocus (AF), for example, an AF frame, is also displayed on the screen of the viewfinder 18.

レンズ装置12は、カメラヘッド10のレンズマウントに装着される図示しない撮影レンズ(光学系)を備えており、その撮影レンズにより被写体の像がカメラヘッド10の撮像素子の撮像面に結像される。撮影レンズには、その構成部としてフォーカスレンズ群、ズームレンズ群、絞りなどの撮影条件を調整するための可動部が設けられており、それらの可動部は、図示しないモータ(サーボ機構)によって電動駆動されるようになっている。例えば、フォーカスレンズ群やズームレンズ群は光軸方向に移動し、フォーカスレンズ群が移動することによってフォーカス(被写体距離)調整が行われ、ズームレンズ群が移動することによって焦点距離(ズーム倍率)調整が行われる。尚、本実施の形態のようにオートフォーカスに関するシステムにおいては、少なくともフォーカスレンズ群が電動で駆動できればよく、その他の可動部は手動でのみ駆動可能であってもよい。また、所定の可動部を操作者の操作に従って電動駆動する場合には、図示しない操作部(レンズ装置12に接続されるコントローラの操作部等)から操作者の操作に従って出力されるコントロール信号に基づいて可動部の動作が制御されるが詳細は省略する。   The lens device 12 includes a photographing lens (optical system) (not shown) attached to a lens mount of the camera head 10, and an image of a subject is formed on the imaging surface of the imaging element of the camera head 10 by the photographing lens. . The photographing lens is provided with movable parts for adjusting photographing conditions such as a focus lens group, a zoom lens group, and a diaphragm as its constituent parts. These movable parts are electrically driven by a motor (servo mechanism) (not shown). It is designed to be driven. For example, the focus lens group and zoom lens group move in the optical axis direction, and the focus (subject distance) adjustment is performed by moving the focus lens group, and the focal length (zoom magnification) adjustment is performed by moving the zoom lens group. Is done. In the system relating to autofocus as in the present embodiment, it is sufficient that at least the focus lens group can be driven electrically, and other movable parts may be driven only manually. Further, when the predetermined movable part is electrically driven in accordance with the operation of the operator, it is based on a control signal output in accordance with the operation of the operator from an operation unit (not shown) (such as an operation unit of a controller connected to the lens device 12). Thus, the operation of the movable part is controlled, but details are omitted.

また、同図に示すように、レンズ装置12には、レンズ装置12全体を統括制御するレンズCPU20、オートフォーカス(AF)処理を実行するAF処理部22、AF用撮像回路24等が搭載されている。AF用撮像回路24は、AF処理用の映像信号を取得するためにレンズ装置12に配置されており、撮像素子(CCD等)や撮像素子の出力信号を所定形式の映像信号として出力する処理回路等を備えている。尚、AF用撮像回路24の撮像素子をAF用撮像素子という。また、AF用撮像回路24から出力される映像信号は輝度信号とする。   As shown in the figure, the lens device 12 is equipped with a lens CPU 20 that performs overall control of the lens device 12, an AF processing unit 22 that executes autofocus (AF) processing, an AF imaging circuit 24, and the like. Yes. The AF image pickup circuit 24 is disposed in the lens device 12 to acquire a video signal for AF processing, and outputs an image pickup device (CCD or the like) or an output signal of the image pickup device as a video signal of a predetermined format. Etc. The image pickup element of the AF image pickup circuit 24 is referred to as an AF image pickup element. The video signal output from the AF imaging circuit 24 is a luminance signal.

AF用撮像素子の撮像面には、撮影レンズの光路上に配置されたハーフミラー等によってカメラヘッド10の撮像素子に入射する被写体光から分岐された被写体光が結像するようになっている。AF用撮像素子の撮像エリアに対する撮影範囲及び被写体距離(ピントが合う被写体の距離)は、カメラヘッド10の撮像素子の撮像エリアに対する撮影範囲及び被写体距離に一致するように構成されており、AF用撮像素子により取り込まれる撮影画像は、カメラヘッド10の撮像素子により取り込まれる撮影画像と一致している。尚、両者の撮影範囲に関しては完全に一致している必要はなく、例えば、AF用撮像素子の撮影範囲の方がカメラヘッド10の撮像素子の撮影範囲を包含する大きな範囲であってもよい。また、AF用撮像素子を設けることなくカメラヘッド10からの映像信号をAF処理部22に与えるようにしてもよい。   On the imaging surface of the AF imaging element, subject light branched from the subject light incident on the imaging element of the camera head 10 is imaged by a half mirror or the like disposed on the optical path of the photographing lens. The shooting range and subject distance (distance of the subject in focus) with respect to the imaging area of the AF imaging element are configured to match the shooting range and subject distance with respect to the imaging area of the imaging element of the camera head 10 and are used for AF. The captured image captured by the image sensor matches the captured image captured by the image sensor of the camera head 10. Note that it is not necessary for the shooting ranges of the two to be completely the same. For example, the shooting range of the AF imaging device may be a larger range including the shooting range of the imaging device of the camera head 10. Further, the image signal from the camera head 10 may be supplied to the AF processing unit 22 without providing an AF image sensor.

AF処理部22は、AF用撮像回路24から映像信号を取得し、その映像信号に基づいて被写体画像のコントラストの高低を示す焦点評価値を算出する。例えば、AF用撮像素子から得られた映像信号の高域周波数成分の信号をハイパスフィルタによって抽出した後、その高域周波数成分の信号のうちAFの対象範囲であるAFエリアに対応する範囲の信号を1画面分ずつ積算する。このようにして1画面分ごとに得られる積算値は被写体画像のコントラストの高低を示し、焦点評価値としてレンズCPU20に与えられる。尚、AFエリアの範囲は後述のようにレンズCPU20により指定される。   The AF processing unit 22 acquires a video signal from the AF imaging circuit 24, and calculates a focus evaluation value indicating the level of contrast of the subject image based on the video signal. For example, after extracting a high-frequency component signal of a video signal obtained from an AF image sensor with a high-pass filter, a signal in a range corresponding to an AF area that is an AF target range among the high-frequency component signal Are accumulated one screen at a time. The integrated value obtained for each screen in this manner indicates the level of contrast of the subject image, and is given to the lens CPU 20 as a focus evaluation value. The AF area range is designated by the lens CPU 20 as will be described later.

レンズCPU20は、詳細を後述するようにAFエリアの範囲(輪郭)を示すAF枠の情報(AF枠情報)を枠操作部14から取得してそのAF枠情報により指定されたAF枠内の範囲をAFエリアとしてAF処理部22に指定する。そして、そのAFエリア内の画像(映像信号)により求められる焦点評価値をAF処理部22から取得する共に、取得した焦点評価値が最大(極大)、即ち、AFエリアの被写体画像のコントラストが最大となるようにフォーカスレンズ群を制御する。例えば、焦点評価値に基づくフォーカスレンズ群の制御方式として山登り方式が一般的に知られており、フォーカスレンズ群を焦点評価値が増加する方向に移動させて行き、焦点評価値が減少し始める点を検出すると、その位置にフォーカスレンズ群を設定する。これにより、AF枠内の被写体に自動でピントが合わせられる。   As will be described in detail later, the lens CPU 20 acquires AF frame information (AF frame information) indicating the range (contour) of the AF area from the frame operation unit 14, and the range within the AF frame designated by the AF frame information. Is designated to the AF processing unit 22 as an AF area. Then, the focus evaluation value obtained from the image (video signal) in the AF area is acquired from the AF processing unit 22, and the acquired focus evaluation value is maximum (maximum), that is, the contrast of the subject image in the AF area is maximum. The focus lens group is controlled so that For example, a hill-climbing method is generally known as a control method for a focus lens group based on a focus evaluation value, and the focus evaluation value starts to decrease by moving the focus lens group in a direction in which the focus evaluation value increases. Is detected, the focus lens group is set at that position. Thereby, the subject in the AF frame is automatically focused.

枠操作部14は、上記AF枠の位置、大きさ、形状等のAF枠の設定内容を操作者が指定するための操作部材を備えている。尚、AF枠は、図2に示すようにカメラヘッド10の撮像素子での撮影範囲又は撮影画像(の画面)に対してAFの対象範囲であるAFエリアの輪郭を示す。枠操作部14は、その操作部材が操作者により操作されると、その操作に従ってAF枠の位置等の設定内容を設定、変更する。尚、本実施の形態ではAF枠の形状は縦横比が一定の矩形に制限されているものとする。また、枠操作部14の操作部材によるAF枠の位置や大きさ等の設定内容の変更は、操作前におけるAF枠の設定内容を基準にしてその後の操作部材の操作量に対応する変更量分だけ設定内容に変更を加えることによって行われようになっている。例えばAF枠の位置はトラックボールの回転方向及び回転量に対応する方向及び移動量分だけAF枠が縦横方向に変位する。また、撮影範囲(撮影画像の画面)内におけるAF枠の位置(本実施の形態では矩形のAF枠の中心位置)を決める点をAFポイントというものとすると、AF枠の位置はAFポイントの位置を設定することによって決定される。   The frame operation unit 14 includes an operation member for the operator to specify the setting contents of the AF frame such as the position, size, and shape of the AF frame. Note that the AF frame indicates the outline of an AF area that is an AF target range with respect to a shooting range or a shot image (screen) of the imaging element of the camera head 10 as shown in FIG. When the operation member is operated by the operator, the frame operation unit 14 sets and changes setting contents such as the position of the AF frame in accordance with the operation. In the present embodiment, it is assumed that the shape of the AF frame is limited to a rectangle having a constant aspect ratio. In addition, the setting contents such as the position and size of the AF frame by the operation member of the frame operation unit 14 are changed by a change amount corresponding to the operation amount of the subsequent operation member based on the setting contents of the AF frame before the operation. It is only done by making changes to the settings. For example, as for the position of the AF frame, the AF frame is displaced in the vertical and horizontal directions by a direction and a movement amount corresponding to the rotation direction and the rotation amount of the trackball. Also, if the point that determines the position of the AF frame (the center position of the rectangular AF frame in the present embodiment) within the shooting range (screen of the captured image) is referred to as an AF point, the position of the AF frame is the position of the AF point. Is determined by setting

一方、枠操作部14の操作部材が操作されず、操作者によってAF枠の設定内容の変更が指示さてれない状態では、後述する追尾装置16から与えられるAF枠情報によりAF枠の設定内容を設定、変更する。枠操作部14は、操作者の操作又は追尾装置16からのAF枠情報により設定、変更したAF枠の設定内容を示すAF枠情報をレンズCPU20からの要求に従ってレンズCPU20に送信する。これによってAFの対象範囲が、枠操作部14において設定、変更されたAF枠の範囲に設定される。   On the other hand, when the operation member of the frame operation unit 14 is not operated and the operator is not instructed to change the setting contents of the AF frame, the setting contents of the AF frame are set by the AF frame information given from the tracking device 16 described later. Set and change. The frame operation unit 14 transmits AF frame information indicating the setting contents of the AF frame set or changed by the operation of the operator or the AF frame information from the tracking device 16 to the lens CPU 20 in accordance with a request from the lens CPU 20. As a result, the AF target range is set to the AF frame range set and changed in the frame operation unit 14.

尚、追尾装置16は、操作者が指定した対象物(対象被写体)の画像を撮影画像上で検出しながらその対象物の画像の移動に合わせてAFエリア(AF枠)の位置を自動で変更(自動追尾)させるための装置であり、操作者によるAF枠の変更の操作が行われていない場合には追尾装置16によるAF枠の自動追尾が行われ、操作者によるAF枠の変更の操作が行われた場合にはその操作が追尾装置16よりも優先されて操作者の操作に従ってAF枠が変更される。   The tracking device 16 automatically changes the position of the AF area (AF frame) in accordance with the movement of the image of the target object while detecting the image of the target object (target subject) specified by the operator on the captured image. (Automatic tracking) device, and when the operator does not change the AF frame, the tracking device 16 automatically tracks the AF frame, and the operator changes the AF frame. Is performed, the operation has priority over the tracking device 16, and the AF frame is changed according to the operation of the operator.

また、枠操作部14は、上述のように設定、変更したAF枠の設定内容を示すAF枠情報をカメラヘッド10にも送信し、そのAF枠をビューファインダ18の画面上の対応する位置に表示させる。これによって操作者がビューファインダ18を見ながらその時のAF枠の位置、大きさ、形状等を認識することができる。   The frame operation unit 14 also transmits AF frame information indicating the setting contents of the AF frame set and changed as described above to the camera head 10, and places the AF frame at a corresponding position on the screen of the viewfinder 18. Display. As a result, the operator can recognize the position, size, shape, etc. of the AF frame at that time while looking at the viewfinder 18.

追尾装置16は、画像処理部26、画像入力部28、シリアル通信インターフェース30等を備えている。画像入力部28は、上記AF用撮像回路24により得られた映像信号(輝度信号)をAF処理部22を介して取得し、画像処理部26からの要求に応じてその映像信号から得られる撮影画像の画像データを画像処理部26に与える。   The tracking device 16 includes an image processing unit 26, an image input unit 28, a serial communication interface 30, and the like. The image input unit 28 acquires the video signal (luminance signal) obtained by the AF imaging circuit 24 via the AF processing unit 22 and obtains the image obtained from the video signal in response to a request from the image processing unit 26. The image data of the image is given to the image processing unit 26.

画像処理部26は、詳細を後述する画像入力部28から取得した画像データに基づいて、操作者によって指定された対象物の画像の撮影画像(画面)上での移動を後述のように検出し、その対象物の移動にAF枠を追従させるためのAF枠の位置(AFポイント)を求める。そして、そのAF枠の位置を示すAF枠情報をシリアル通信インターフェース30を介して上記枠操作部14に送信し、AF枠を自動追尾させる際のAF枠の位置を指定する。   Based on the image data acquired from the image input unit 28, the details of which will be described later, the image processing unit 26 detects the movement of the image of the object designated by the operator on the captured image (screen) as described later. Then, the position of the AF frame (AF point) for causing the AF frame to follow the movement of the object is obtained. Then, AF frame information indicating the position of the AF frame is transmitted to the frame operation unit 14 via the serial communication interface 30, and the position of the AF frame when automatically tracking the AF frame is designated.

次に、追尾装置16における画像処理部26での追尾処理について図3のフローチャートを参照しながら詳説する。操作者は、まず、ビューファインダ18の画面に表示された映像及びAF枠を見ながら枠操作部14の操作部材を操作し、ピント合わせの対象として追尾する対象物の全体又は一部をAF枠に納める。これによって、レンズCPU20におけるAFの処理によりその対象物にピントが合わせられる。   Next, the tracking process in the image processing unit 26 in the tracking device 16 will be described in detail with reference to the flowchart of FIG. First, the operator operates the operation member of the frame operation unit 14 while viewing the image displayed on the screen of the viewfinder 18 and the AF frame, and the whole or a part of the object to be tracked as the focus target is displayed in the AF frame. To pay. As a result, the object is brought into focus by AF processing in the lens CPU 20.

続いて、操作者は、枠操作部14の決定ボタンを押す。これによって枠操作部14から基準パターン画像の設定の指示(基準パターン画像の記憶指示)が画像処理部26に与えられる。   Subsequently, the operator presses the determination button of the frame operation unit 14. As a result, a reference pattern image setting instruction (reference pattern image storage instruction) is given from the frame operation unit 14 to the image processing unit 26.

画像処理部26は、基準パターン画像の設定の指示が与えられると、そのときのAF枠の設定内容を示すAF枠情報を枠操作部14からシリアル通信インターフェース30を介して読み取ると共に、レンズ装置12のAF処理部22から画像入力部28に与えられている映像信号から1画面分(1フレーム分)の撮影画像(画像データ)を取り込む(ステップS10)。尚、このとき取り込んだ撮影画像をA画像とする。また、AF処理部22から画像入力部28に与えられる映像信号が、例えば、1画面分(1フレーム分)の撮影画像を2フィールド分の映像信号によって構成するインターレース方式の映像信号とすると、画像入力部28から1画面分として取り込む撮影画像は、1フィールド分の映像信号によって得られる撮影画像であってもよいし、2フィールド分の映像信号によって得られる撮影画像であってもよい。本明細書では、1画面分の撮影画像を、インターレース方式における1フィールド分の映像信号又は2フィールド分の映像信号によって得られる撮影画像とする場合、又は、ノンインターレース方式における1フレーム分の映像信号によって得られる撮影画像とする場合であっても1画面を1フレームというものとする。   When an instruction to set a reference pattern image is given, the image processing unit 26 reads AF frame information indicating the setting contents of the AF frame at that time from the frame operation unit 14 via the serial communication interface 30 and also the lens device 12. The captured image (image data) for one screen (one frame) is taken in from the video signal supplied from the AF processing unit 22 to the image input unit 28 (step S10). The captured image captured at this time is referred to as an A image. Further, when the video signal given from the AF processing unit 22 to the image input unit 28 is, for example, an interlaced video signal composed of two fields of video signals for one screen (one frame). The captured image captured as one screen from the input unit 28 may be a captured image obtained from a video signal for one field, or may be a captured image obtained from a video signal for two fields. In this specification, when a captured image for one screen is a captured image obtained from a video signal for one field in the interlace method or a video signal for two fields, or a video signal for one frame in the non-interlace method. Even if it is a case where it is set as the picked-up image obtained by, one screen shall be called one frame.

続いて画像処理部26は、ステップS10で取り込んだA画像のうち上記AF枠情報によって指定されたAF枠よりも少し大きめの範囲を基準パターン枠の範囲としてその範囲内の画像をA画像から抽出し、基準パターン画像として設定(記憶)する(ステップS12)。記憶した基準パターン画像をA′画像とする。   Subsequently, the image processing unit 26 extracts, from the A image, an area within the range that is slightly larger than the AF frame specified by the AF frame information from the A image captured in step S10 as a reference pattern frame range. Then, it is set (stored) as a reference pattern image (step S12). The stored reference pattern image is defined as an A ′ image.

ここで、図4(A)に示すようなA画像が画像処理部26に取り込まれ、ピント合わせの対象として追尾する対象物が丸形で簡易的に示した符号Mの物体であるものとする。このとき、操作者によってAF枠が符号F1に示すように対象物Mを含む範囲に設定されたとすると、基準パターン枠はAF枠F1と中心位置が一致し、且つ、AF枠F1より大きい符号F2で示す範囲に設定される。そして、基準パターン枠F2内の画像が同図(B)に示す基準パターン画像(A′画像)として記憶される。   Here, it is assumed that an A image as shown in FIG. 4A is captured by the image processing unit 26, and the target object to be tracked as a focus target is a round object simply indicated by a symbol M. . At this time, if the AF frame is set by the operator to a range including the object M as indicated by reference numeral F1, the reference pattern frame has the same center position as that of the AF frame F1 and a reference sign F2 larger than the AF frame F1. Is set in the range indicated by. Then, the image in the reference pattern frame F2 is stored as a reference pattern image (A ′ image) shown in FIG.

尚、基準パターン画像は、後述のパターンマッチング処理で使用する画像データであり、その基準パターン画像の取込範囲である基準パターン枠は、本実施の形態と異なる方法で設定する場合であってもよい。例えば、AF枠と同じ範囲を基準パターン枠とし、操作者が基準パターン画像の取込範囲として適切な範囲となるようにAF枠を設定して基準パターン枠を設定してもよいし、AF枠とは別に基準パターン枠をビューファインダ18に表示させ、その基準パターン枠の位置や大きさ等をAF枠とは別に操作者の操作によって設定できるようにしてもよい。   Note that the reference pattern image is image data used in pattern matching processing, which will be described later, and the reference pattern frame that is the capture range of the reference pattern image may be set by a method different from the present embodiment. Good. For example, the same range as the AF frame may be used as the reference pattern frame, and the operator may set the AF frame so that the reference pattern frame is an appropriate range as the reference pattern image capture range. Alternatively, the reference pattern frame may be displayed on the viewfinder 18 so that the position, size, etc. of the reference pattern frame can be set by the operator's operation separately from the AF frame.

図3のステップS12における基準パターン画像(A′画像)の設定が完了すると、続いて画像処理部26は、以下のステップS14〜ステップS26の処理を繰り返し実行する。まず、新たに1フレーム分の撮影画像を画像入力部28から取り込む(ステップS14)。尚、このステップS14で取得した撮影画像をB画像というものとする。また、B画像はA画像に対して例えば1フレーム後(1/30秒後)に取り込まれた画像である。   When the setting of the reference pattern image (A ′ image) in step S12 in FIG. 3 is completed, the image processing unit 26 repeatedly executes the following steps S14 to S26. First, a new captured image for one frame is captured from the image input unit 28 (step S14). Note that the captured image acquired in step S14 is referred to as a B image. Further, the B image is an image captured after one frame (after 1/30 seconds), for example, with respect to the A image.

続いて、画像処理部26は、B画像の画面範囲内に設定される所定のパターン検出範囲において、記憶されている基準パターン画像(A′画像)に最も合致する(最も相関値が高い)画像の範囲を周知のパターンマッチング処理により検出し、その範囲の画像をB画像から抽出してB′画像として記憶する(ステップS16)。   Subsequently, the image processing unit 26 matches the stored reference pattern image (A ′ image) in the predetermined pattern detection range set within the screen range of the B image (the highest correlation value). Is detected by a well-known pattern matching process, and an image in the range is extracted from the B image and stored as a B ′ image (step S16).

ここで、図4(C)に示すようなB画像が画像処理部26に取り込まれたとする。このB画像は、同図(A)に示したA画像に対して、カメラがパンニング動作して対象物M以外の静止物体が撮影画像内で左方向に移動し、且つ、対象物Mが静止物体に対して右方向に移動した場合を示している。また、同図(A)と同図(C)を比較すると簡易的に示した対象物Mの画像が丸形から三角形に変化しており、対象物Mの画像のパターンも変化している場合を示している。このB画像において同図(B)に示した基準パターン画像(A′画像)と最も合致する画像範囲は基準パターン画像において対象物M以外の静止物体の画像が合致する画像範囲であり、その画像範囲がパターンマッチング処理により同図(C)の枠F3で示す範囲として検出される。即ち、カメラがパンニング動作する前における同図(A)における基準パターン枠F2の画像範囲と同一の画角範囲となる画像範囲が枠F3の範囲として検出される。そして、その枠F3の範囲内の画像が同図(D)に示すようにB′画像として抽出される。   Here, it is assumed that the B image as shown in FIG. The B image is panned with respect to the A image shown in FIG. 5A, and a stationary object other than the object M moves leftward in the captured image, and the object M is stationary. The case where it moved to the right with respect to the object is shown. In addition, when the figure (A) and the figure (C) are compared, the image of the object M simply shown changes from a round shape to a triangle, and the pattern of the image of the object M also changes. Is shown. In this B image, the image range that most closely matches the reference pattern image (A ′ image) shown in FIG. 4B is an image range in which the image of a stationary object other than the object M matches in the reference pattern image. The range is detected as a range indicated by a frame F3 in FIG. That is, an image range having the same angle of view as the image range of the reference pattern frame F2 in FIG. 6A before the camera pans is detected as the range of the frame F3. Then, an image within the range of the frame F3 is extracted as a B ′ image as shown in FIG.

尚、パターン検出範囲は、撮影画像(B画像)の全範囲であってもよいし、パターンマッチング処理に要する時間や処理負担の軽減のため基準パターン枠より少し大きめの範囲としてもよい。   The pattern detection range may be the entire range of the captured image (B image), or may be a slightly larger range than the reference pattern frame in order to reduce the time required for pattern matching processing and the processing load.

続いて図3において画像処理部26は、記憶されている基準パターン画像(A′画像)と、ステップS16により記憶されたB′画像との差分を抽出することによって得られる差分画像(C画像)を求める。即ち、A′画像とB′画像の対応する各画素の輝度値の差分の絶対値を求め、各画素の画素値がその求めた値となる画像を差分画像として求める(ステップS18)。   Subsequently, in FIG. 3, the image processing unit 26 extracts a difference image (C image) obtained by extracting a difference between the stored reference pattern image (A ′ image) and the B ′ image stored in step S16. Ask for. That is, the absolute value of the difference between the luminance values of the corresponding pixels of the A ′ image and the B ′ image is obtained, and an image in which the pixel value of each pixel becomes the obtained value is obtained as a difference image (step S18).

そして、差分画像(C画像)として有効に抽出された画像の重心位置を求める(ステップS20)。例えば、差分画像(C画像)の各画素について輝度値が所定のしきい値(有効に抽出されたと判断される値)より大きい場合には画素値を1、しきい値以下の場合には画素値を0として差分画像を2値化し、画素値が1となった画素の集合の重心位置を求める(ステップS20)。尚、差分画像(C画像)における重心位置を求めると、その重心位置をB′画像における重心位置とすることによってB画像における重心位置を求めることができる。ステップS20では、そのB画像における重心位置を求める。   Then, the barycentric position of the image that is effectively extracted as the difference image (C image) is obtained (step S20). For example, for each pixel of the difference image (C image), the pixel value is 1 when the luminance value is greater than a predetermined threshold value (a value that is determined to be effectively extracted), and the pixel value when the luminance value is less than or equal to the threshold value. The difference image is binarized with a value of 0, and the barycentric position of the set of pixels having a pixel value of 1 is obtained (step S20). When the barycentric position in the difference image (C image) is obtained, the barycentric position in the B image can be obtained by setting the barycentric position as the barycentric position in the B ′ image. In step S20, the barycentric position in the B image is obtained.

ここで、図4(B)に示した基準パターン画像(A′画像)と同図(D)に示したB′画像との差分画像(C画像)を求めると同図(E)に示すように、静止物体の画像が消去されて移動した対象物Mの画像のみが抽出される。そして、その抽出されたA′画像とB′画像での対象物Mの画像から同図(E)に示す重心Pの位置が求められる。   Here, when a difference image (C image) between the reference pattern image (A ′ image) shown in FIG. 4B and the B ′ image shown in FIG. 4D is obtained, as shown in FIG. In addition, only the image of the moving object M is extracted after the stationary object image is erased. Then, the position of the center of gravity P shown in FIG. 5E is obtained from the image of the object M in the extracted A ′ image and B ′ image.

次に図3において画像処理部26は、ステップS20で求めた重心位置に基づいて対象物Mの画像が撮影画像上において移動したか否かを判定する(ステップS22)。例えば、後述のAF枠と基準パターン枠の更新処理(ステップS24)において、ステップS20で求めたB画像における重心位置にAF枠と基準パターン枠の中心位置が一致するようにAF枠と基準パターン枠の位置が変更されるようになっており、そのステップS20で求めた重心位置が現在設定されているAF枠及び基準パターン枠の中心位置と不一致となった場合には対象物Mが移動したと判定し、それ以外では対象物Mが移動していないと判定する。   Next, in FIG. 3, the image processing unit 26 determines whether the image of the object M has moved on the captured image based on the position of the center of gravity obtained in step S20 (step S22). For example, in an AF frame and reference pattern frame update process (step S24), which will be described later, the AF frame and the reference pattern frame so that the center positions of the AF frame and the reference pattern frame coincide with the barycentric position in the B image obtained in step S20. If the position of the center of gravity obtained in step S20 does not match the center position of the currently set AF frame and reference pattern frame, the object M is moved. It determines, and it determines with the target object M not moving other than that.

図4(E)の場合、重心Pの位置が同図(A)で示した基準パターン枠F2の中心位置と一致していない場合を示しており、対象物Mが移動したと判定される。   4E shows a case where the position of the center of gravity P does not coincide with the center position of the reference pattern frame F2 shown in FIG. 4A, and it is determined that the object M has moved.

図3のステップS22においてYESと判定した場合、画像処理部26は、AF枠と基準パターン枠の中心位置がステップS20で求めた重心位置に一致するようにAF枠と基準パターン枠の位置を更新する(ステップS24)。また、更新したAF枠の位置を示すAF枠情報を枠操作部14に送信する。これによってAF枠の設定内容、即ち、AF枠の位置を更新し、対象物の画像の位置にAF枠を移動させる。   If YES is determined in step S22 in FIG. 3, the image processing unit 26 updates the positions of the AF frame and the reference pattern frame so that the center positions of the AF frame and the reference pattern frame coincide with the center of gravity obtained in step S20. (Step S24). Also, AF frame information indicating the position of the updated AF frame is transmitted to the frame operation unit 14. As a result, the setting content of the AF frame, that is, the position of the AF frame is updated, and the AF frame is moved to the position of the image of the object.

例えば、図4(E)における差分画像(C画像)における重心Pの位置が求まると、その位置と、同図(D)のB′画像を抽出した同図(C)の枠F3のB画像における位置とに基づいて、同図(C)のB画像における重心Pの位置が求められる。そのB画像における重心Pの位置が中心位置となるように同図(F)に示すようにAF枠と基準パターン枠の位置が変更される。尚、B画像における対象物Mの位置と重心Pの位置とは完全に一致しないが、A画像を取り込んでからB画像をとり込むまでの時間は非常に短く、B画像における対象物Mの位置が重心Pの位置としても大きな差異は生じない。また、初期に設定した基準パターン画像(A画像)において対象物Mが基準パターン画像の中心位置にある場合には、差分画像(C画像)の中心位置に対して重心Pの位置までの長さを2倍にした長さとなる位置が対象物Mの位置となるため、その対象物Mの位置を求めることによって対象物Mの位置が中心位置となるようにAF枠と基準パターン枠の位置を変更することができる。   For example, when the position of the center of gravity P in the difference image (C image) in FIG. 4E is obtained, the B image of the frame F3 in FIG. 4C obtained by extracting the position and the B ′ image in FIG. The position of the center of gravity P in the B image in FIG. The positions of the AF frame and the reference pattern frame are changed so that the position of the center of gravity P in the B image becomes the center position as shown in FIG. Note that the position of the object M in the B image and the position of the center of gravity P do not completely match, but the time from capturing the A image to capturing the B image is very short, and the position of the object M in the B image. There is no significant difference in the position of the center of gravity P. Further, in the reference pattern image (A image) set in the initial stage, when the object M is at the center position of the reference pattern image, the length to the position of the center of gravity P with respect to the center position of the difference image (C image). Therefore, the position of the AF frame and the reference pattern frame is set so that the position of the object M becomes the center position by obtaining the position of the object M. Can be changed.

次に図3において画像処理部26は、更新した基準パターン枠の範囲の画像をB画像から抽出し、その画像を新たな基準パターン画像(A′画像)として更新(記憶)する(ステップS26)。図4(F)に示すように基準パターン枠F2の位置が更新されたとすると、その基準パターン枠F2の範囲内の画像がB画像から抽出され、同図(G)に示すような画像が基準パターン画像(A′画像)として更新される。   Next, in FIG. 3, the image processing unit 26 extracts an image of the updated reference pattern frame range from the B image, and updates (stores) the image as a new reference pattern image (A ′ image) (step S26). . If the position of the reference pattern frame F2 is updated as shown in FIG. 4F, an image within the range of the reference pattern frame F2 is extracted from the B image, and the image as shown in FIG. It is updated as a pattern image (A ′ image).

以上の処理が終了すると、図3のステップS14に戻り、B画像の取り込みの処理から繰り返し実行する。   When the above process ends, the process returns to step S14 in FIG. 3 and is repeatedly executed from the B image capturing process.

以上の追尾処理によれば、カメラがパン/チルト動作することによって静止物体の画像を含む撮影画像の全体が画面上で変位する場合でも、その変位の向きと大きさを基準パターン画像と合致する画像を撮影画像内から検出することによって検出することができ、その変位の向きと大きさを考慮して差分画像を得るために2つのフレーム間で比較する画像範囲を適切に設定して移動する対象物Mの位置を検出することができる。   According to the tracking processing described above, even when the entire captured image including the image of the stationary object is displaced on the screen due to the pan / tilt operation of the camera, the direction and size of the displacement match the reference pattern image. The image can be detected by detecting it from within the captured image, and in order to obtain a difference image in consideration of the direction and size of the displacement, the image range to be compared between the two frames is appropriately set and moved. The position of the object M can be detected.

以上、上記実施の形態では、フレーム間での撮影画像全体の変位を検出するための基準パターン画像とフレーム間での差分画像を得るための画像(A′画像)とを同一としたがこれらは個別に設定される範囲から得られる画像としてもよい。例えば、上記実施の形態において基準パターン画像(A′画像)と称していた画像を、差分画像を得るためのみに用いる一方の画像(第1比較画像)とし、上記実施の形態において基準パターン枠と称していた枠もA画像から第1比較画像を取り込む範囲を示す第1比較画像取込枠というものとする。そして、その第1比較画像を用いてステップS16のパターンマッチング処理を行わないものとする以外は、第1比較画像や第1比較画像取込枠に対する処理やそれらを用いた処理については、上記実施の形態において基準パターン画像や基準パターン枠に対する処理やそれらを用いた処理と同様に行うものとする。   As described above, in the above embodiment, the reference pattern image for detecting the displacement of the entire captured image between frames and the image (A ′ image) for obtaining a difference image between frames are the same. It is good also as an image obtained from the range set up individually. For example, an image referred to as a reference pattern image (A ′ image) in the above embodiment is set as one image (first comparison image) used only for obtaining a difference image. In the above embodiment, the reference pattern frame and The frame that has been referred to is also referred to as a first comparison image capture frame that indicates a range in which the first comparison image is captured from the A image. And about the process with respect to a 1st comparison image and a 1st comparison image capture frame, and the process using them, except not performing the pattern matching process of step S16 using the 1st comparison image, said execution In this embodiment, the processing is performed in the same manner as the processing for the reference pattern image and the reference pattern frame and the processing using them.

一方、第1比較画像取込枠とは別に基準パターン枠を所望の範囲に設定できるようにし、A画像のうちその基準パターン枠の範囲内の画像を、フレーム間での撮影画像全体の変位を検出するための基準パターン画像として取り込むようにする。この場合、基準パターン画像はピント合わせの対象とする対象物の画像を含む必要はなく、できるだけ静止物体の画像のみを含むように基準パターン枠を設定することが望ましい。   On the other hand, the reference pattern frame can be set in a desired range separately from the first comparison image capture frame, and the image within the range of the reference pattern frame in the A image is changed between the entire captured images between frames. A reference pattern image for detection is captured. In this case, it is not necessary for the reference pattern image to include an image of an object to be focused, and it is desirable to set the reference pattern frame so as to include only a still object image as much as possible.

そして、B画像の範囲のうち基準パターン画像と最も合致する画像範囲を検出し、その画像範囲がA画像における基準パターン画像(基準パターン枠)の位置から変位した向き及び大きさを求める。これによって、カメラがパン/チルト動作したことによる撮影画像全体の変位の向き及び大きさを知ることができる。そして、その求めた変位の向き及び大きさ分だけ第1比較画像取込枠を変位させた範囲を第2比較画像取込枠とし、B画像のうちその第2比較画像取込枠内の画像を差分画像を得るための他方の画像(第2比較画像)として取り込む。尚、この第2比較画像は上記実施の形態におけるB′画像に相当する。   Then, an image range that most closely matches the reference pattern image in the range of the B image is detected, and the direction and size of the image range displaced from the position of the reference pattern image (reference pattern frame) in the A image are obtained. Thereby, it is possible to know the direction and magnitude of the displacement of the entire captured image due to the pan / tilt operation of the camera. Then, a range in which the first comparison image capture frame is displaced by the determined direction and size of the displacement is defined as a second comparison image capture frame, and an image within the second comparison image capture frame among the B images. As the other image (second comparison image) for obtaining a difference image. The second comparative image corresponds to the B ′ image in the above embodiment.

このようにして得られた第1比較画像と第2比較画像の差分を抽出することによって上記実施の形態と同様の差分画像(C画像)が得られ、その重心位置を求めることによって移動する対象物の位置を検出することができる。   A difference image (C image) similar to that of the above-described embodiment is obtained by extracting the difference between the first comparison image and the second comparison image obtained in this manner, and the object to be moved by obtaining the position of the center of gravity. The position of the object can be detected.

尚、本形態において、上記実施の形態のステップS26における基準パターン画像の更新は、第1比較画像の更新に相当し、本形態での基準パターン画像の更新は必ずしも必要ない。ただし、基準パターン画像を更新しない場合には、基準パターン画像が撮影画像内に存在する範囲でパン/チルト動作が行われる場合や、基準パターン画像の大きさが変化しない場合にのみ適応可能となる。適応可能なパン/チルト動作の範囲等に制限を設けないようにするためには、基準パターン画像をB画像内に含まれる画像によって更新すればよい。例えば、A画像とB画像との間で画像パターンが変化しない同一被写体の画像範囲をできるだけカメラのパン/チルト動作の移動先側で検出してその画像範囲の画像を基準パターン画像として更新することが考えられる。又は、単に、B画像の所定範囲の画像を基準パターン画像として更新するようにしてもよい。   In this embodiment, the update of the reference pattern image in step S26 of the above embodiment corresponds to the update of the first comparison image, and the update of the reference pattern image in this embodiment is not necessarily required. However, when the reference pattern image is not updated, it can be applied only when the pan / tilt operation is performed in a range where the reference pattern image exists in the captured image or when the size of the reference pattern image does not change. . In order not to limit the range of the pan / tilt operation that can be applied, the reference pattern image may be updated with an image included in the B image. For example, the image range of the same subject in which the image pattern does not change between the A image and the B image is detected as much as possible on the movement destination side of the pan / tilt operation of the camera, and the image in the image range is updated as the reference pattern image Can be considered. Or you may make it just update the image of the predetermined range of B image as a reference | standard pattern image.

また、上記実施の形態において、レンズ装置12のAF用撮像回路24(AF用撮像素子)により取得する映像信号のフレーム(フィールド)周波数は、カメラヘッド10の撮像素子により得られる映像信号のフレーム周波数と一致している必要はなく、AF用撮像回路24での映像信号のフレーム周波数を高くすることによって高速で移動する対象物、または、画像の変化が速い対象物に対する適応性が向上する。   In the above embodiment, the frame frequency of the video signal acquired by the AF imaging circuit 24 (AF imaging device) of the lens device 12 is the frame frequency of the video signal obtained by the imaging device of the camera head 10. However, by increasing the frame frequency of the video signal in the AF imaging circuit 24, adaptability to an object that moves at high speed or an object that changes rapidly is improved.

また、上記実施の形態では、レンズ装置12、枠操作部14、追尾装置16は別体の装置として図示したが、いずれか2つ又は全ては一体の装置であってもよい。また、上記実施の形態では追尾装置16の処理に関する操作部材(例えば、対象物を決定する決定スイッチ等)も枠操作部14に設けるようにしたが、追尾装置16に設けるようにしてもよい。   Moreover, in the said embodiment, although the lens apparatus 12, the frame operation part 14, and the tracking apparatus 16 were illustrated as a separate apparatus, any two or all may be an integral apparatus. In the above embodiment, an operation member (for example, a determination switch for determining an object) related to the processing of the tracking device 16 is also provided in the frame operation unit 14, but may be provided in the tracking device 16.

また、上記実施の形態では、AF用に映像信号をカメラヘッド10の撮像素子とは別のAF専用の撮像素子により取得するようにしたが、AF用としてカメラヘッド10の撮像素子により得られる映像信号を用いてもよい。但し、上記実施の形態のようにAF用の映像信号をAF専用の撮像素子から得るようにすると、カメラヘッド10が高精細度(HD)テレビジョンシステムに対応のものである場合にそのHD信号を使用することなくAFを行うことができるため小型化・省電力化に有利である。   In the above-described embodiment, the image signal is acquired for the AF by using an image sensor dedicated for AF that is different from the image sensor for the camera head 10, but the image obtained by the image sensor for the camera head 10 for AF is used. A signal may be used. However, if the AF video signal is obtained from the AF-dedicated imaging device as in the above embodiment, the HD signal is obtained when the camera head 10 is compatible with a high-definition (HD) television system. Since it is possible to perform AF without using a lens, it is advantageous for miniaturization and power saving.

図1は、本発明に係るオートフォーカスシステムが適用される撮像システムの全体構成を示したブロック図である。FIG. 1 is a block diagram showing the overall configuration of an imaging system to which an autofocus system according to the present invention is applied. 図2は、AF枠を示した図である。FIG. 2 is a diagram showing an AF frame. 図3は、追尾装置における追尾処理の処理手順を示したフローチャートである。FIG. 3 is a flowchart showing the procedure of the tracking process in the tracking device. 図4は、追尾装置における追尾処理の説明に使用した説明図である。FIG. 4 is an explanatory diagram used for explaining the tracking process in the tracking device.

符号の説明Explanation of symbols

10…カメラヘッド、12…レンズ装置、14…枠操作部、16…追尾装置、18…ビューファインダ、20…レンズCPU、22…AF処理部、24…AF用撮像回路、26…画像処理部、28…画像入力部、30…シリアル通信インターフェース DESCRIPTION OF SYMBOLS 10 ... Camera head, 12 ... Lens apparatus, 14 ... Frame operation part, 16 ... Tracking apparatus, 18 ... Viewfinder, 20 ... Lens CPU, 22 ... AF process part, 24 ... Imaging circuit for AF, 26 ... Image process part, 28: Image input unit, 30: Serial communication interface

Claims (4)

カメラによって現フレームの撮影画像よりも前に撮影された前フレームの撮影画像の範囲のうち、少なくとも静止物体の画像を含む基準パターン画像を取り込むための基準パターン画像取込範囲を設定する基準パターン画像取込範囲設定手段と、
前記前フレームの撮影画像のうち前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲の画像を基準パターン画像として取り込む基準パターン画像取込手段と、
前記前フレームの撮影画像のうちピント合わせの対象として追尾する対象被写体の画像の位置を設定する対象被写体位置設定手段と、
前記対象被写体位置設定手段により設定された位置に基づいて、前記前フレームの撮影画像の範囲のうち前記対象被写体の画像と該対象被写体以外の画像を含む画像を取り込むための第1比較画像取込範囲を設定する第1比較画像取込範囲設定手段と、
前記前フレームの撮影画像のうち前記第1比較画像取込範囲設定手段により設定された第1比較画像取込範囲の画像を第1比較画像として取り込む第1比較画像取込手段と、
前記現フレームの撮影画像の範囲のうち前記基準パターン画像取込手段により取り込まれた基準パターン画像と最も合致する画像の範囲を検出する合致画像範囲検出手段と、
前記現フレームの撮影画像の範囲のうち、前記基準パターン画像取込範囲設定手段により設定された基準パターン画像取込範囲に対して前記合致画像範囲検出手段により検出された範囲が変位した方向及び大きさで前記第1比較画像取込範囲設定手段により設定された第1比較画像取込範囲を変位させた範囲を第2比較画像取込範囲として設定する第2比較画像取込範囲設定手段と、
前記現フレームの撮影画像のうち前記第2比較画像取込範囲設定手段により設定された第2比較画像取込範囲の画像を第2比較画像として取り込む第2比較画像取込手段と、
前記第1比較画像取込手段により取り込まれた第1比較画像と、前記第2比較画像取込手段により取り込まれた第2比較画像との差分を抽出することによって得られる差分画像に基づいて前記現フレームの撮影画像における前記対象被写体の画像の位置を検出する対象被写体位置検出手段と、
前記カメラの撮影範囲のうちピント合わせの対象とする位置を前記対象被写体位置設定手段により設定された位置から前記対象被写体位置検出手段により検出された位置に変更することによって前記対象被写体にピントが合うように前記カメラの光学系のフォーカス調整を行うオートフォーカス手段と、
を備えたことを特徴とするオートフォーカスシステム。
A reference pattern image for setting a reference pattern image capture range for capturing a reference pattern image including at least a still object image out of the range of the captured image of the previous frame captured by the camera before the captured image of the current frame Capture range setting means,
A reference pattern image capturing unit that captures an image of the reference pattern image capturing range set by the reference pattern image capturing range setting unit among the captured images of the previous frame, as a reference pattern image;
Target subject position setting means for setting a position of an image of a target subject to be tracked as a focus target among the captured images of the previous frame;
Based on the position set by the target subject position setting means, a first comparative image capture for capturing an image including an image of the target subject and an image other than the target subject in the range of the captured image of the previous frame. First comparative image capture range setting means for setting a range;
First comparative image capture means for capturing an image of the first comparative image capture range set by the first comparative image capture range setting means among the captured images of the previous frame;
A matching image range detecting means for detecting a range of an image that most closely matches the reference pattern image captured by the reference pattern image capturing means in the range of the captured image of the current frame;
Of the range of the captured image of the current frame, the direction and magnitude of displacement of the range detected by the matching image range detection unit with respect to the reference pattern image capture range set by the reference pattern image capture range setting unit Now, a second comparison image capture range setting means for setting a range obtained by displacing the first comparison image capture range set by the first comparison image capture range setting means as a second comparison image capture range;
Second comparative image capture means for capturing an image of the second comparative image capture range set by the second comparative image capture range setting means among the captured images of the current frame;
Based on the difference image obtained by extracting the difference between the first comparison image captured by the first comparison image capture means and the second comparison image captured by the second comparison image capture means. Target subject position detection means for detecting the position of the target subject image in the captured image of the current frame;
The target subject is brought into focus by changing the position to be focused in the shooting range of the camera from the position set by the target subject position setting means to the position detected by the target subject position detection means. Autofocus means for adjusting the focus of the optical system of the camera,
An autofocus system characterized by comprising
前記基準パターン画像取込範囲設定手段と前記第1比較画像取込範囲設定手段は同一手段とし、前記第1比較画像を前記基準パターン画像として用いることを特徴とする請求項1のオートフォーカスシステム。   2. The autofocus system according to claim 1, wherein the reference pattern image capturing range setting means and the first comparative image capturing range setting means are the same means, and the first comparative image is used as the reference pattern image. 前記第1比較画像取込範囲設定手段は、前記第1画像取込範囲の位置が前記対象被写体の位置に追従するように前記対象被写体位置検出手段により検出された位置に基づいて前記第1比較画像取込範囲を設定する位置を変更することを特徴とする請求項1又は2のオートフォーカスシステム。   The first comparison image capture range setting unit is configured to perform the first comparison based on the position detected by the target subject position detection unit so that the position of the first image capture range follows the position of the target subject. 3. The autofocus system according to claim 1, wherein a position for setting an image capture range is changed. 前記オートフォーカス手段は、前記カメラの撮影範囲内に設定されるAFエリアの範囲内の被写体をピント合わせの対象とすると共に、前記AFエリアの位置を前記ピント合わせの対象とする位置として変更し、
第1比較画像取込範囲設定手段は、前記AFエリアよりも大きい範囲を前記第1比較画像取込範囲として設定することを特徴とする請求項1、2、又は、3のオートフォーカスシステム。
The auto-focus means changes a subject within an AF area set within a shooting range of the camera as a focus target and changes a position of the AF area as a focus target position.
4. The autofocus system according to claim 1, wherein the first comparative image capture range setting means sets a range larger than the AF area as the first comparative image capture range.
JP2005008913A 2005-01-17 2005-01-17 Auto focus system Expired - Fee Related JP4568916B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005008913A JP4568916B2 (en) 2005-01-17 2005-01-17 Auto focus system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005008913A JP4568916B2 (en) 2005-01-17 2005-01-17 Auto focus system

Publications (2)

Publication Number Publication Date
JP2006195341A JP2006195341A (en) 2006-07-27
JP4568916B2 true JP4568916B2 (en) 2010-10-27

Family

ID=36801456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005008913A Expired - Fee Related JP4568916B2 (en) 2005-01-17 2005-01-17 Auto focus system

Country Status (1)

Country Link
JP (1) JP4568916B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101053266B1 (en) * 2009-11-24 2011-08-01 삼성전기주식회사 Auto focusing method

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53132213A (en) * 1977-04-25 1978-11-17 Hitachi Ltd Tracking control unit
JPH01175373A (en) * 1987-12-28 1989-07-11 Sony Corp Focus control circuit
JPH03149512A (en) * 1989-11-07 1991-06-26 Sony Corp Focus control circuit
JPH04340874A (en) * 1991-05-16 1992-11-27 Olympus Optical Co Ltd Moving body tracking device
JPH0575909A (en) * 1991-09-17 1993-03-26 Fujitsu Ltd Image tracking device
JPH0580248A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd Automatic focusing device
JPH0730801A (en) * 1993-10-12 1995-01-31 Canon Inc Automatic focus adjustment device
JPH0915482A (en) * 1995-06-27 1997-01-17 Sankyo Seiki Mfg Co Ltd Automatic in-focus device
JPH11234660A (en) * 1998-02-18 1999-08-27 Toshiba Corp Moving object detection processing unit and its method
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2001285850A (en) * 2000-03-30 2001-10-12 Nec Corp Device and method for automatic following, and recording medium for recording automatic following program
JP2002247415A (en) * 2001-02-13 2002-08-30 Fuji Photo Optical Co Ltd Universal head system
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system
JP2005004799A (en) * 1998-01-07 2005-01-06 Toshiba Corp Object extraction apparatus
WO2005107240A1 (en) * 2004-04-28 2005-11-10 Chuo Electronics Co., Ltd. Automatic imaging method and apparatus
JP2006013888A (en) * 2004-06-25 2006-01-12 Canon Inc Camera control device, camera control method, and storage medium

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53132213A (en) * 1977-04-25 1978-11-17 Hitachi Ltd Tracking control unit
JPH01175373A (en) * 1987-12-28 1989-07-11 Sony Corp Focus control circuit
JPH03149512A (en) * 1989-11-07 1991-06-26 Sony Corp Focus control circuit
JPH04340874A (en) * 1991-05-16 1992-11-27 Olympus Optical Co Ltd Moving body tracking device
JPH0575909A (en) * 1991-09-17 1993-03-26 Fujitsu Ltd Image tracking device
JPH0580248A (en) * 1991-09-19 1993-04-02 Ricoh Co Ltd Automatic focusing device
JPH0730801A (en) * 1993-10-12 1995-01-31 Canon Inc Automatic focus adjustment device
JPH0915482A (en) * 1995-06-27 1997-01-17 Sankyo Seiki Mfg Co Ltd Automatic in-focus device
JP2005004799A (en) * 1998-01-07 2005-01-06 Toshiba Corp Object extraction apparatus
JPH11234660A (en) * 1998-02-18 1999-08-27 Toshiba Corp Moving object detection processing unit and its method
JP2001285850A (en) * 2000-03-30 2001-10-12 Nec Corp Device and method for automatic following, and recording medium for recording automatic following program
JP2001285695A (en) * 2000-03-30 2001-10-12 Nec Corp Mobile body tracking method and device therefor
JP2002247415A (en) * 2001-02-13 2002-08-30 Fuji Photo Optical Co Ltd Universal head system
JP2003241065A (en) * 2002-02-15 2003-08-27 Fuji Photo Optical Co Ltd Autofocusing system
WO2005107240A1 (en) * 2004-04-28 2005-11-10 Chuo Electronics Co., Ltd. Automatic imaging method and apparatus
JP2006013888A (en) * 2004-06-25 2006-01-12 Canon Inc Camera control device, camera control method, and storage medium

Also Published As

Publication number Publication date
JP2006195341A (en) 2006-07-27

Similar Documents

Publication Publication Date Title
JP4525089B2 (en) Auto focus system
JP2006258944A (en) Autofocus system
US7561790B2 (en) Auto focus system
JP2006267221A (en) Auto focus system
JP2010096962A (en) Auto focus system with af frame auto-tracking function
JP5455361B2 (en) Auto focus system
US20100074606A1 (en) Auto focus device
JP4645413B2 (en) Imaging device
EP1648165A1 (en) Auto focus system with automatic object tracking function
JP4596246B2 (en) Auto focus system
JP2005338352A (en) Autofocus system
JP5384172B2 (en) Auto focus system
JP2010230870A (en) Auto focus system
JP2006058431A (en) Autofocusing system
JP5426874B2 (en) Auto focus system
JP2006267220A (en) Auto focus system
JP4902577B2 (en) Auto focus system
JP2006258943A (en) Autofocus system
JP4568916B2 (en) Auto focus system
JP5384173B2 (en) Auto focus system
JP2006119471A (en) Autofocus system
JP5965653B2 (en) TRACKING DEVICE AND TRACKING METHOD
JP5048559B2 (en) Auto focus system
JP2010096963A (en) Auto focus system with af frame auto-tracking function
JP2009229586A (en) Autofocus system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071026

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100615

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100712

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100725

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130820

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees