JP5720767B2 - Focus detection device - Google Patents
Focus detection device Download PDFInfo
- Publication number
- JP5720767B2 JP5720767B2 JP2013260152A JP2013260152A JP5720767B2 JP 5720767 B2 JP5720767 B2 JP 5720767B2 JP 2013260152 A JP2013260152 A JP 2013260152A JP 2013260152 A JP2013260152 A JP 2013260152A JP 5720767 B2 JP5720767 B2 JP 5720767B2
- Authority
- JP
- Japan
- Prior art keywords
- focus
- position detection
- detection result
- image information
- tracking target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
- Automatic Focus Adjustment (AREA)
Description
本発明は、焦点検出装置に関する。 The present invention relates to a focus detection apparatus.
従来、追尾対象に設定された被写体を撮影画像中で追尾し、その追尾対象の位置における光学系の焦点調節状態を検出して光学系の焦点調節を行うカメラが知られている。特許文献1には、このような焦点調節を行うカメラにおいて、追尾対象の位置を正常に検出できなかった場合に、その旨を撮影者に通知するものが提案されている。
2. Description of the Related Art Conventionally, there has been known a camera that tracks a subject set as a tracking target in a captured image, detects a focus adjustment state of the optical system at the position of the tracking target, and adjusts the focus of the optical system.
特許文献1に開示されるカメラでは、追尾対象の位置を正常に検出できなかった場合に、光学系の焦点調節状態を適切に検出することができない。
The camera disclosed in
請求項1の発明による焦点検出装置は、被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像部と、前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶部と、前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出部と、前記位置検出部が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が所定時間より短い場合には前記位置検出部で検出された位置検出結果を焦点検出位置として出力し、前記位置検出部が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が前記所定時間より長い場合には過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾部と、前記追尾部により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出部とを備えることを特徴とする。
請求項2の発明による焦点検出装置は、被写体を繰り返し撮像して被写体画像情報を繰り返し生成する撮像部と、前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶部と、前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出部と、前記撮像部による最新の前記被写体画像情報と前記基準情報との類似度を演算し、前記類似度が所定値以上ならば前記位置検出部で検出された最新の位置検出結果を焦点検出位置として出力し、前記類似度が所定値未満ならば過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾部と、前記追尾部により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出部とを備えることを特徴とする。
A focus detection apparatus according to a first aspect of the present invention includes an imaging unit that repeatedly captures a subject and repeatedly generates subject image information, and a storage unit that stores reference information corresponding to the tracking target image information in the subject image information. , the subject of the position of the tracking target in the image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information, said position detecting unit is latest position detection when the difference between the obtained time and the time and the last position detection result acquisition results is shorter than the predetermined time and outputs a position detection result detected by the position detection unit as a focus detection position, the position detection unit When the difference between the time when the latest position detection result is acquired and the time when the previous position detection result is acquired is longer than the predetermined time, the position of the tracking target is based on a plurality of past position detection results. A tracking unit for outputting as a focus detection position by predicting, characterized in that it comprises a focus detecting unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
A focus detection apparatus according to a second aspect of the present invention includes an imaging unit that repeatedly captures a subject and repeatedly generates subject image information, and a storage unit that stores reference information corresponding to the tracking target image information in the subject image information. , the subject of the position of the tracking target in the image information, the object image information and the position detection unit and outputs the detected position detection result based on the comparison of the reference information, the latest of the subject image by the imaging unit calculates the class similarity score between the information and the reference information, the degree of similarity output the latest position detection result detected by the position detection unit if more than a predetermined value as a focus detection position, wherein the similarity is a predetermined value less than a tracking unit for outputting as a focus detection position if the position of the tracking object based on a plurality of past position detection results to predict if, with respect to the focus detection position output by the tracking unit Characterized in that it comprises a focus detecting unit for detecting the focusing state of the optical science system.
本発明によれば、追尾対象の位置を正常に検出できなかった場合であっても、光学系の焦点調節状態を適切に検出することができる。 According to the present invention, it is possible to appropriately detect the focus adjustment state of the optical system even when the position of the tracking target cannot be normally detected.
本発明の一実施形態による焦点調節装置を備えた一眼レフ方式のデジタルカメラについて、以下に説明する。図1は、カメラの要部構成を示すブロック図である。カメラは、カメラボディとレンズ鏡筒を有しており、カメラボディにレンズ鏡筒が交換可能に装着されている。レンズ鏡筒内には、レンズ光学系1と、レンズ駆動用モータ14が設けられている。レンズ光学系1は、被写体像を結像面に結像させるための光学系であり、焦点調節レンズを含む複数のレンズによって構成される。焦点調節レンズは、レンズ駆動用モータ14の動作により光軸方向に移動可能である。
A single-lens reflex digital camera equipped with a focus adjustment apparatus according to an embodiment of the present invention will be described below. FIG. 1 is a block diagram showing a main configuration of the camera. The camera has a camera body and a lens barrel, and the lens barrel is replaceably attached to the camera body. In the lens barrel, a lens
カメラボディの内部には、クイックリターンミラー2、ファインダースクリーン3、ペンタプリズム4、接眼レンズ5、撮像素子6、サブミラー7、位相差AF検出素子8、AF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12、レンズ駆動制御部13、測光用レンズ15、測光センサ16、操作部材17および制御装置18が設けられている。なお、AF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12およびレンズ駆動制御部13は、制御装置18の機能により実現されるものである。
Inside the camera body are a
撮像素子6には、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されている。撮像素子6は、レンズ光学系1によって結像される結像面の画像情報を撮像し、各画素に対応する色情報や輝度情報に応じた画像信号を出力する。撮像素子6から出力された画像信号は、制御装置18の制御によって画像データに変換される。これにより、カメラにおいて撮像画像が取得される。撮像素子6には、たとえばCCDやCMOS等が使用される。なお、撮像素子6の撮像面の前には、赤外光をカットするための赤外カットフィルタや、画像の折り返しノイズを防止するための光学ローパスフィルタなどが配置されている。
In the
レンズ光学系1と撮像素子6との間には、レンズ光学系1を通過した被写体からの入射光束をファインダー光学系へと反射するクイックリターンミラー2が配設されている。入射光束の一部はクイックリターンミラー2の半透過領域を透過し、サブミラー7にて下方に反射された後に位相差AF検出素子8へ入射される。
A
クイックリターンミラー2で反射された入射光束は、撮像素子6と光学的に等価な位置に設けられたファインダースクリーン3上に被写体像を結像する。ファインダースクリーン3上に結像された被写体像は、ペンタプリズム4および接眼レンズ5を通って撮影者の目へと導かれ、撮影者によって視認される。
The incident light beam reflected by the
ファインダースクリーン3上に結像された被写体像はまた、ペンタプリズム4および測光用レンズ15を通って測光センサ16へと導かれる。測光センサ16は、撮像素子6と同様に、赤(R)、緑(G)および青(B)の各画素が所定の配列パターンで配列されており、レンズ光学系1により結像される結像面の画像情報を撮像する。そして、各画素に対応する色情報や輝度情報に応じた測光信号を制御装置18へ出力する。制御装置18は、この測光センサ16からの測光信号に基づいて、結像面の明るさを検出したり、予め追尾対象に設定された被写体像の結像面における位置を認識し、その被写体像の位置を追尾する被写体追尾を行ったりする。
The subject image formed on the finder screen 3 is also guided to the
カメラが撮影を行う際には、クイックリターンミラー2およびサブミラー7が光路上から光路外へと移動され、入射光束により撮像素子6上に被写体像が結像される。この被写体像を撮像素子6により撮像することで撮像画像が取得され、不図示のメモリーカードに記録される。こうしたクイックリターンミラー2およびサブミラー7の動作は、制御回路18により制御される。
When the camera performs shooting, the
位相差AF検出素子8は、不図示のマスク部、再結像レンズ、複数位置に配置されたAF用のCCDラインセンサなどを有している。この位相差AF検出素子8には、レンズ光学系1を通して入射され、クイックリターンミラー2を透過してサブミラー7により反射された被写体からの光束が入力される。この入射光束をマスク部により撮影レンズの異なる領域を通過する2つの光束に分けた後、再結像レンズにより一対の被写体像をCCDラインセンサ上に再結像し、その像位置の検出結果を表す像信号をCCDラインセンサから出力する。
The phase difference
位相差AF検出素子8においてCCDラインセンサ上に再結像される一対の被写体像は、レンズ光学系1が予定焦点面よりも前に被写体の鮮鋭像を結ぶいわゆる前ピン状態では互いに近づき、逆に予定焦点面より後ろに被写体の鮮鋭像を結ぶいわゆる後ピン状態では互いに遠ざかる。また、レンズ光学系1が予定焦点面において被写体の鮮鋭像を結ぶ合焦状態では、一対の被写体像が相対的に一致する。したがって、上記のように一対の被写体像を再結像し、その像位置をCCDラインセンサによって検出することにより、レンズ光学系1からの入射光束に基づいて、レンズ光学系1の焦点調節状態が検出される。
The pair of subject images re-imaged on the CCD line sensor in the phase difference
AF−CCD制御部9は、位相差AF検出素子8に設けられたCCDラインセンサのゲイン量や蓄積時間を制御する。また、前述の被写体追尾の結果に基づいて、レンズ光学系1による結像面内に設定された複数の焦点検出エリアの中から、いずれかの焦点検出エリアを選択する。本実施形態では、被写体追尾の結果、被写体像の位置と認識範囲に含まれる位置にある焦点検出エリアを選択するようになっている。そして、選択した焦点検出エリアにおける像信号を位相差AF検出素子8のCCDラインセンサから読み出し、デフォーカス演算部10へ出力する。
The AF-
デフォーカス演算部10は、AF−CCD制御部9によって読み出されたCCDラインセンサの出力値に基づいて、レンズ光学系1の焦点調節状態(ピントのずれ量)を表すデフォーカス量を算出する。
Based on the output value of the CCD line sensor read by the AF-
フォーカスエリア位置決定部11は、デフォーカス演算部10によって算出されたデフォーカス量に基づいて、レンズ光学系1を最終的にフォーカスさせる焦点検出エリアの位置を決定する。
The focus area
レンズ駆動量演算部12は、デフォーカス演算部10によって算出されたデフォーカス量のうち、フォーカスエリア位置決定部11によって決定された焦点検出エリアのデフォーカス量に基づいて、レンズ光学系1が有する焦点調節レンズの駆動量を演算する。ここでは、焦点調節レンズの駆動位置の目標となるレンズ目標位置を演算することにより、レンズ駆動量の演算を行う。なお、レンズ目標位置は、当該デフォーカス量が0となる焦点調節レンズの位置に相当する。
The lens drive
レンズ駆動制御部13は、レンズ駆動量演算部12によって演算されたレンズ駆動量、すなわち焦点調節レンズに対するレンズ目標位置に基づいて、レンズ駆動用モータ14へ駆動制御信号を出力する。この駆動制御信号に応じて、レンズ駆動用モータ14が焦点調節レンズを駆動してレンズ目標位置へ移動させることにより、レンズ光学系1の焦点調節が行われる。
The lens
操作部材17は、カメラの操作を行うための各種スイッチ類によって構成される。たとえば、カメラの動作モードを選択するためのモード選択スイッチ、AFエリアを選択するためのエリア選択スイッチ、焦点調節の開始および撮影を指示するためのレリーズボタンなどが操作部材17に含まれる。
The
制御装置18は、マイコンやメモリ等によって構成されており、上記のAF−CCD制御部9、デフォーカス演算部10、フォーカスエリア位置決定部11、レンズ駆動量演算部12およびレンズ駆動制御部13の各機能を実現するための処理を実行したり、カメラの動作制御を行ったりする。また、これらの処理や制御において必要な情報を一時的に記憶する。
The
レンズ光学系1からの入射光束による像面内には、図2に示すように、51点の焦点検出エリア(焦点検出位置)a1〜a51が設定されている。レンズ光学系1の焦点調節を行う
際には、この焦点検出エリアa1〜a51のいずれか少なくとも1つがAF−CCD制御部9によって選択され、その焦点検出エリアのデフォーカス量がデフォーカス演算部10によって算出される。そして、フォーカスエリア位置決定部11により、デフォーカス量が算出された焦点検出エリアのうちいずれかが最終的なフォーカス対象の焦点検出エリアとして決定される。
As shown in FIG. 2, 51 focus detection areas (focus detection positions) a1 to a51 are set in the image plane of the incident light beam from the lens
以上説明したような方法で決定された焦点検出エリアに対応するデフォーカス量に基づいて、レンズ駆動量演算部12により、レンズ光学系1の焦点調節レンズの駆動量が演算される。そして、レンズ駆動制御部13からレンズ駆動用モータ14へ駆動制御信号が出力される。これにより、レンズ光学系1の焦点調節が行われ、レンズ光学系1が被写体に対して合焦状態となる。
Based on the defocus amount corresponding to the focus detection area determined by the method described above, the lens drive
焦点調節時に実行される処理のフローチャートを図3に示す。このフローチャートは、所定の開始条件を満たすことにより、制御装置18において実行される。たとえば、操作部材17のレリーズボタンがユーザによって半押し操作されたときや、操作部材17のモード選択スイッチにより所定の動作モードが設定されたときに、図3のフローチャートが実行される。
FIG. 3 shows a flowchart of processing executed at the time of focus adjustment. This flowchart is executed in the
ステップS10において、制御装置18は、追尾対象とする被写体を設定する。この追尾対象の設定は、たとえば、スルー画に対するユーザの焦点検出エリアの選択に応じて行われる。具体的には、撮像素子6または測光センサ16により撮像した画像を図示しない表示装置にスルー画として表示する。ユーザは、操作部材17のエリア選択スイッチを操作することにより、スルー画上で追尾対象としたい被写体の位置に対応する焦点検出エリを選択する。その後、制御装置18は、選択された焦点検出エリアに対応する画像情報を追尾対象の画像情報として設定する。あるいは、撮像素子6または測光センサ16により撮像した画像に基づいて、制御装置18が自動的に主要被写体を判別し、その主要被写体を追尾対象に設定してもよい。こうして設定された追尾対象の画像情報は、基準情報として制御装置18内のメモリに記憶される。
In step S10, the
ステップS20において、制御装置18は、測光センサ16から出力される測光信号を取得する。ステップS30において、制御装置18は、ステップS20で取得した測光信号に基づいて、ステップS10で設定した追尾対象の位置を結像面において検出する。ここでは、ステップS20で取得した測光信号が表す結像面の画像情報と、ステップS10でメモリに記憶された基準情報とを比較する。この比較結果に基づいて、測光センサ16の各画素に対応する色情報または輝度情報が基準情報と最も類似する部分を結像面において特定し、その部分を追尾対象の位置として検出する。
In step S <b> 20, the
以上説明したステップS20およびS30の処理は、制御装置18において図3のフローチャートが実行されている間は、所定の処理周期で繰り返し実行される。すなわち、レンズ光学系1により結像される結像面の画像情報が測光センサ16により繰り返し撮像され、測光センサ16から出力される測光信号が制御装置18によりステップS20において取得される。そして、ステップS30の処理が繰り返し実行され、各時点における追尾対象位置の検出結果が制御装置18により順次出力される。これ以降では、特に断りのない限り、追尾対象位置の検出結果が少なくとも3回以上出力されているものとして説明を行う。
The processes of steps S20 and S30 described above are repeatedly executed at a predetermined processing cycle while the flowchart of FIG. That is, the image information of the imaging surface formed by the lens
ステップS40において、制御装置18は、ステップS30で得られた最新の位置検出結果、すなわち最後に実行したステップS30による追尾対象位置の検出結果が適当であるか否かを判定する。ここでは、様々な判定条件に基づいて最新の位置検出結果が適当であるか否かを判定することができる。たとえば、測光センサ16がレンズ光学系1による結像面の画像情報を取得して測光信号を制御装置18へ出力したときの時刻に基づいて、最新の検出結果が適当であるか否かを判定する。具体的には、ステップS20において制御装置18が測光センサ16から測光信号を取得する度に、その取得時刻を記録しておく。そして、ステップS40において、最後に測光信号を取得した時刻と、その前に測光信号を取得した時刻との差を求める。この取得時刻の差が所定時間未満であれば最新の位置検出結果が適当であると判定し、所定時間以上であれば最新の位置検出結果が適当ではないと判定することができる。なお、前回の測光信号の取得時刻は、前回の処理においてデフォーカス量を検出するために用いられた(つまり、前回のステップS30で最新の位置検出結果が適当であると判定された)画像情報の取得時刻を表している。
In step S40, the
あるいは、制御装置18が前回の位置検出結果を得てから最新の位置検出結果を得るまでの時間、すなわち、前回ステップS30の処理を実行してから今回ステップS30の処理を実行するまでの時間に基づいて、最新の検出結果が適当であるか否かを判定してもよい。具体的には、制御装置18がステップS30において追尾対象位置を検出する度に、その検出時刻を記録しておく。そして、ステップS40において、今回の検出時刻と前回の検出時刻との差を求め、この差が所定時間未満であれば最新の位置検出結果が適当であると判定し、所定時間以上であれば最新の位置検出結果が適当ではないと判定することができる。
Alternatively, the time from when the
また、最新の位置検出結果を得たときの測光信号が表す結像面の画像情報と基準情報との類似度に基づいて、その検出結果が適当であるか否かを判定してもよい。具体的には、制御装置18がステップS30において追尾対象位置を検出する際に、当該位置に対応する部分の画像情報が基準情報とどの程度一致するかを表す類似度を演算し、その演算結果を記録しておく。こうして記録された類似度が所定値以上であれば、ステップS40において最新の位置検出結果が適当であると判定し、所定値未満であれば適当ではないと判定することができる。
Further, it may be determined whether or not the detection result is appropriate based on the similarity between the image information on the imaging plane represented by the photometry signal when the latest position detection result is obtained and the reference information. Specifically, when the
さらに、最新の位置検出結果を得たときの測光信号が表す結像面の輝度や、前回の位置検出結果と最新の位置検出結果との差分などに基づいて、最新の位置検出結果が適当であるか否かを判定してもよい。すなわち、これらの値が予め定められた撮影時に想定される通常の範囲を超えていなければ、ステップS40において最新の位置検出結果が適当であると判定し、当該範囲を超えていれば適当ではないと判定することができる。 In addition, the latest position detection result is appropriate based on the brightness of the image plane represented by the photometric signal when the latest position detection result is obtained and the difference between the previous position detection result and the latest position detection result. It may be determined whether or not there is. That is, if these values do not exceed the normal range assumed at the time of photographing, it is determined in step S40 that the latest position detection result is appropriate, and if it exceeds the range, it is not appropriate. Can be determined.
以上説明したような判定条件に基づいて、ステップS40の判定が行われる。その結果、最新の位置検出結果が適当であると判定された場合はステップS50へ進み、適当でないと判定された場合はステップS60へ進む。このとき複数の判定条件を組み合わせて用いてもよい。なお、ステップS30において最新の位置検出結果が得られなかった場合もステップS60へ進む。一方、ステップS30の処理が実行された回数が3回に満たない場合、すなわち1回または2回である場合は、後で説明するステップS60の処理を実行することができない。したがってこの場合は、ステップS40の判定結果に関わらずステップS50へ進む。あるいは、ステップS30の処理が実行された回数が3回に満たず、かつステップS40において最新の位置検出結果が適当ではないと判定された場合には、それ以降の処理を実行せずにステップS20へ戻るようにしてもよい。 Based on the determination conditions as described above, the determination in step S40 is performed. As a result, when it is determined that the latest position detection result is appropriate, the process proceeds to step S50, and when it is determined that it is not appropriate, the process proceeds to step S60. At this time, a plurality of determination conditions may be used in combination. In addition, also when the newest position detection result is not obtained in step S30, it progresses to step S60. On the other hand, when the number of times that the process of step S30 has been performed is less than 3, that is, once or twice, the process of step S60 described later cannot be performed. Therefore, in this case, the process proceeds to step S50 regardless of the determination result of step S40. Alternatively, when it is determined that the number of times that the process of step S30 has been performed is less than 3 and the latest position detection result is not appropriate in step S40, the subsequent process is not performed and step S20 is performed. You may make it return to.
ステップS50において、制御装置18は、図2に示す焦点検出エリアa1〜a51の中か
ら、最新の位置検出結果に応じた焦点検出エリアを選択する。たとえば、最新の位置検出結果として、図5に示す縦4画素、横4画素の合計16画素からなる範囲51が得られたとする。この場合、範囲51に対応するa4,a5,a6,a9,a10,a11,a14,a15およびa16の各焦点検出エリアがステップS50において選択される。ステップS50を実行したらステップS70へ進む。
In step S50, the
なお、ステップS50において、最新の位置検出結果に加えて、前回の位置検出結果を加味して焦点検出エリアを選択することもできる。たとえば、前回の位置検出結果に基づいて、最新の位置検出結果が表す範囲よりも若干広めの範囲を設定し、その範囲に対応する焦点検出エリアを選択する。このようにして、前回の位置検出結果および最新の位置検出結果に基づいて焦点検出エリアを選択してもよい。 In step S50, the focus detection area can be selected in consideration of the previous position detection result in addition to the latest position detection result. For example, a range slightly wider than the range represented by the latest position detection result is set based on the previous position detection result, and a focus detection area corresponding to the range is selected. In this way, the focus detection area may be selected based on the previous position detection result and the latest position detection result.
ステップS60において、制御装置18は、過去の位置履歴に基づく焦点検出エリアの選択処理を行う。この処理の内容を図4のフローチャートにより説明する。
In step S60, the
図4のステップS61〜S63において、制御装置18は、追尾対象の移動方向を予測するための判定を行う。ここでは、前回の位置検出結果による追尾対象位置を代表する点の座標値と、前々回の位置検出結果による追尾対象位置を代表する点の座標値とを、それぞれ(x1,y1)および(x2,y2)とする。ステップS61において、制御装置18は、x1≠x2かつy1=y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が横方向に移動していると判断してステップS64へ進む。条件を満たさない場合はステップS62へ進む。
In steps S61 to S63 in FIG. 4, the
ステップS62において、制御装置18は、x1=x2かつy1≠y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が縦方向に移動していると判断してステップS65へ進む。条件を満たさない場合はステップS63へ進む。
In step S62, the
ステップS63において、制御装置18は、x1≠x2かつy1≠y2の条件を満たすか否かを判定する。この条件を満たす場合、制御装置18は、追尾対象が斜め方向に移動していると判断してステップS66へ進む。一方、ステップS61〜63においていずれの条件を満たさないと判定された場合は、追尾対象が移動していないと判断してステップS67へ進む。
In step S63, the
ステップS64において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の横方向の移動量を予測する。その方法を図6により説明する。たとえば、前々回の位置検出結果として図6に示す範囲61が得られたとする。この範囲61を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。ここで、y2=y1である。
In step S <b> 64, the
図6において、前回の追尾対象位置から今回の追尾対象位置までの横方向の移動量を示す矢印63は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印62
と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1+(x1−x2
)、y0=y1=y2と求められる。このようにして追尾対象の横方向の移動量を予測し、その予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求めたら、制御装
置18はステップS67へ進む。
In FIG. 6, an
With the same orientation and length. Therefore, assuming that the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are x0 = x1 + (x1−x2), respectively.
), Y0 = y1 = y2. When the lateral movement amount of the tracking target is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the
ステップS65において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の縦方向の移動量を予測する。その方法を図7により説明する。たとえば、前々回の位置検出結果として図7に示す範囲71が得られたとする。この範囲71を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。ここで、x2=x1である。
In step S65, the
図7において、前回の追尾対象位置から今回の追尾対象位置までの縦方向の移動量を示す矢印73は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印72
と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1=x2、y0=y1+(y1−y2)と求められる。このようにして追尾対象の縦方向の移動量を予測し、その
予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求めたら、制御装
置18はステップS67へ進む。
In FIG. 7, an
With the same orientation and length. Therefore, assuming that the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are obtained as x0 = x1 = x2 and y0 = y1 + (y1−y2), respectively. When the amount of vertical movement of the tracking target is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the
ステップS66において、制御装置18は、前回の追尾対象位置に対応する座標値(x1,y1)と、前々回の追尾対象位置に対応する座標値(x2,y2)とに基づいて、追尾対象の斜め方向の移動量を予測する。その方法を図8により説明する。たとえば、前々回の位置検出結果として図8に示す範囲81が得られたとする。この範囲81を代表する点(ここでは左下の点)の座標値を(x2,y2)とする。同様に、前回の位置検出結果を代表する点の座標値を(x1,y1)と表す。
In step S66, the
図8において、前回の追尾対象位置から今回の追尾対象位置までの斜め方向の移動量を示す矢印83は、(x1,y1)を始点としており、(x2,y2)から(x1,y1)へ向かう矢印8
2と同じ向きおよび長さを有するものと予測される。したがって、今回の追尾対象位置に対応する点の座標値を(x0,y0)とすると、x0,y0の予測値は、それぞれx0=x1+(x1−x2)、y0=y1+(y1−y2)と求められる。このようにして追尾対象の斜め方向の移動量を
予測し、その予測結果に基づいて今回の追尾対象位置に対応する座標値(x0,y0)を求め
たら、制御装置18はステップS67へ進む。
In FIG. 8, an
2 is expected to have the same orientation and length. Therefore, if the coordinate value of the point corresponding to the current tracking target position is (x0, y0), the predicted values of x0 and y0 are x0 = x1 + (x1−x2) and y0 = y1 + (y1−y2), respectively. Desired. When the amount of movement of the tracking target in the oblique direction is predicted in this way and the coordinate value (x0, y0) corresponding to the current tracking target position is obtained based on the prediction result, the
以上説明したステップS64、S65またはS66のいずれかの処理が実行されることにより、制御装置18は、前回の追尾対象位置の検出結果に基づいて、追尾対象の移動方向および移動量を予測することができる。なお、本実施形態においては、ステップS60で過去の位置履歴として前回の位置検出結果と前々回の位置検出結果とを用いることとしたが適宜変更可能である。例えば、前回の位置検出結果も適当でないと判断されている場合、前々回の位置検出結果とその一つ前の位置検出結果とを用いることとしてもよい。この場合、前々回の位置検出結果による追尾対象位置を代表する点の座標値を(x2,y2)と
し、その一つ前の位置検出結果による追尾対象位置を代表する点の座標値を(x3,y3)と
し、ステップS64ではx0=x2+2(x2−x3)、y0=y2=y3と予測され、ステップS65
ではx0=x2=x3、y0=y2+2(y2−y3)と予測され、ステップS66ではx0=x2+2(x2−x3)、y0=y2+2(y2−y3)と予測される。また、前回の位置検出結果は適当であるが前
々回の位置検出結果が適当でない場合、前回の位置検出結果と前々回の一つ前の位置検出結果とを用いることとしてもよい。この場合、前回の位置検出結果による追尾対象位置を代表する点の座標値を(x1,y1)とし、前々回の一つ前の位置検出結果による追尾対象位
置を代表する点の座標値を(x3,y3)とし、ステップS64ではx0=x1+(x1−x3)/2、y0=y1=y3と予測され、ステップS65ではx0=x1=x3、y0=y1+(y1−y3)/2と予測され、ステップS66ではx0=x1+(x1−x3)/2、y0=y1+(y1−y3)/2と予測される。このように、制御装置18は、各回での位置検出結果が適当であるか否かの判定結果を記憶しておき、適当と判定された位置検出結果のみを用いて追尾対象の移動方向および移動量を予測するのが好ましい。
By executing any one of steps S64, S65, and S66 described above, the
Is predicted to be x0 = x2 = x3, y0 = y2 + 2 (y2−y3), and in step S66, x0 = x2 + 2 (x2−x3) and y0 = y2 + 2 (y2−y3) are predicted. If the previous position detection result is appropriate but the previous position detection result is not appropriate, the previous position detection result and the previous previous position detection result may be used. In this case, the coordinate value of the point representing the tracking target position based on the previous position detection result is (x1, y1), and the coordinate value of the point representing the tracking target position based on the immediately preceding position detection result is (x3 , y3), and in step S64, x0 = x1 + (x1-x3) / 2 and y0 = y1 = y3 are predicted, and in step S65, x0 = x1 = x3 and y0 = y1 + (y1-y3) / 2 are predicted. In step S66, x0 = x1 + (x1-x3) / 2 and y0 = y1 + (y1-y3) / 2 are predicted. As described above, the
ステップS67において、制御装置18は、ステップS64、S65またはS66のいずれかにおいて予測した移動量に応じた焦点検出エリアを選択する。たとえばステップS64において横方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図6に示すように結像面内に範囲64を設定し、この範囲64内に位置する焦点検出エリアを選択する。また、ステップS65において縦方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図7に示すように結像面内に範囲74を設定し、この範囲74内に位置する焦点検出エリアを選択する。さらに、ステップS66において斜め方向の移動量を予測した場合は、その移動方向および移動量に基づいて、図8に示すように結像面内に範囲84を設定し、この範囲84内に位置する焦点検出エリアを選択する。なお、ステップS64〜S66のいずれも実行しなかった場合、すなわち追尾対象が移動していないと判断された場合は、前回の位置検出結果に応じた範囲内に位置する焦点検出エリアを選択する。いずれの場合においても、前回の位置検出結果が表す範囲よりも若干広めの範囲を設定し、その範囲に対応する焦点検出エリアを選択するようにしてもよい。ステップS67を実行したら、制御装置18は図4のフローチャートを終了して図3のステップS70へ進む。
In step S67, the
ステップS70において、制御装置18は、ステップS50またはS60の処理によって選択した焦点検出エリアにおける像信号を位相差AF検出素子8のCCDラインセンサから読み出す。ステップS80において、制御装置18は、ステップS70で読み出した像信号に基づいて、レンズ光学系1の焦点調節状態を表すデフォーカス量を算出する。
In step S <b> 70, the
ステップS90において、制御装置18は、ステップS50またはS60の処理によって選択した全ての焦点検出エリアに対して、ステップS80におけるデフォーカス量の演算が終了したか否かを判定する。まだデフォーカス量を演算していない焦点検出エリアが存在する場合はステップS70へ戻り、当該焦点検出エリアに対してステップS70およびS80の処理を行うことでデフォーカス量を演算する。選択された全ての焦点検出エリアに対してデフォーカス量の演算が終了した場合はステップS100へ進む。
In step S90, the
ステップS100において、制御装置18は、ステップS50またはS60の処理によって選択した焦点検出エリアの中から、レンズ光学系1を合焦させる対象とする焦点検出エリア(合焦エリア)を決定する。ここでは、ステップS80で各焦点検出エリアに対して算出したデフォーカス量に基づいて合焦エリアを決定することができる。たとえば、最小のデフォーカス量が得られた焦点検出エリアを合焦エリアとする。これ以外の方法で合焦エリアを決定してもよい。
In step S100, the
ステップS110において、制御装置18は、ステップS100で決定した合焦エリアに対して算出されたデフォーカス量に基づいて、レンズ光学系1の焦点調節レンズを駆動するための駆動量を決定する。ステップS120において、制御装置18は、ステップS110で決定した駆動量に基づいて、レンズ駆動用モータ14に対して駆動制御信号を出力する。これにより、レンズ駆動用モータ14が焦点調節レンズを駆動し、レンズ光学系1の焦点調節が行われる。
In step S110, the
ステップS130において、制御装置18は、処理を終了するか否かを判定する。所定の終了条件を満たす場合、たとえばユーザによるレリーズボタンの半押し操作が解除された場合や、レリーズボタンがユーザによって全押し操作されることにより撮像を指示された場合に、制御装置18は図3のフローチャートを終了する。一方、このような終了条件を満たさない場合、制御装置18はステップS20へ戻って前述のような処理を繰り返し実行する。
In step S130, the
なお、以上説明した図3および4のフローチャートにおいて、ステップS10〜S70およびS61〜S67の処理はAF−CCD制御部9の動作に、ステップS80の処理はデフォーカス演算部10の動作に、ステップS100の処理はフォーカスエリア位置決定部11の動作に、ステップS110の処理はレンズ駆動量演算部12の動作に、ステップS120の処理はレンズ駆動制御部13の動作に、それぞれ対応している。
3 and 4, the processes in steps S10 to S70 and S61 to S67 are performed for the operation of the AF-
以上説明した実施の形態によれば、次の作用効果を奏することができる。
(1)制御装置18は、追尾対象の基準情報を記憶し(ステップS10)、その後、レンズ光学系1により結像される結像面の画像情報を測光センサ16が繰り返し撮像することで測光センサ16から出力される測光信号を取得する(ステップS20)。この測光信号に基づいて、結像面の画像情報と基準情報との比較を行い、その比較に基づいて結像面における追尾対象の位置を順次検出して出力する(ステップS30)。こうして出力した前回の位置検出結果に基づいて、結像面内に設定された複数の焦点検出エリアから少なくとも一つの焦点検出エリアを選択し(ステップS60)、選択された焦点検出エリアに対して、レンズ光学系1の焦点調節状態を示すデフォーカス量を検出する(ステップS80)。このようにしたので、追尾対象の位置を正常に検出できなかった場合であっても、光学系の焦点調節状態を適切に検出することができる。
According to the embodiment described above, the following operational effects can be achieved.
(1) The
(2)制御装置18は、最新の位置検出結果が適当であるか否かを判定し(ステップS40)、適当でないと判定した際には、ステップS60において過去の位置履歴に基づく焦点検出エリアの選択処理を実行することにより、最新の位置検出結果を用いずに焦点検出エリアを選択する。このようにしたので、最新の位置検出結果が適当でない場合に、誤った焦点検出エリアが選択されるのを防ぐことができる。
(2) The
(3)制御装置18は、ステップS40において、最新の位置検出結果を出力するために用いられた結像面の画像情報を測光センサ16が取得した時刻に基づいて、最新の位置検出結果が適当であるか否かを判定することができる。より具体的には、最新の位置検出結果を出力するために用いられた結像面の画像情報を測光センサ16が取得した時刻と、前回の処理においてデフォーカス量を検出するために用いられた画像情報を測光センサ16が取得した時刻とに基づいて、最新の位置検出結果が適当であるか否かを判定することができる。さらに制御装置18は、ステップS40において、ステップS30で追尾対象位置を検出した際の結像面の画像情報と基準情報との類似度に基づいて、最新の位置検出結果が適当であるか否かを判定することもできる。これにより、最新の位置検出結果が適当であるか否かを簡単な処理で正しく判定することができる。
(3) In step S40, the
(4)制御装置18は、ステップS60で実行する過去の位置履歴に基づく焦点検出エリアの選択処理において、前回の位置検出結果に基づいて追尾対象の移動方向および移動量を予測し(ステップS61〜S66)、予測した移動方向および移動量に基づいて結像面内に選択範囲を設定し、その選択範囲内に位置する焦点検出エリアを選択する(ステップS67)。このようにしたので、今回の追尾対象の位置を正常に検出できなかった場合に、前回の位置検出結果に基づいて今回の追尾対象の位置を予測することで、適切に焦点検出エリアを選択することができる。
(4) In the focus detection area selection process based on the past position history executed in step S60, the
なお、上記実施の形態では、測光センサ16により結像面の画像情報を撮像し、この画像情報に基づいて追尾対象の位置を検出することとしたが、測光センサ16とは別に被写体追尾用の撮像素子を設け、これを用いて撮像した画像情報に基づいて追尾対象の位置を検出してもよい。あるいは、撮像素子6により結像面の画像情報を撮像し、この画像情報に基づいて追尾対象の位置を検出するようにしてもよい。
In the above embodiment, the
上記の実施の形態では、撮像素子6とは独立した位相差AF検出素子8を用いてレンズ光学系1の焦点調節状態を検出するようにしたが、撮像素子6の撮像画素配列中に焦点検出用の画素を混在して設けたものの出力に基づいて焦点検出してもよい。すなわち、撮像素子6は、レンズ光学系1を介した光を受光して画像信号を出力する撮像画素と、レンズ光学系1を介した光を受光して焦点検出信号を出力する焦点検出画素とを含む複数の画素を有する。そして、デフォーカス演算部10は、焦点検出画素から出力される焦点検出信号に基づいてデフォーカス量を検出する。このようにしてもよい。なお、この場合に撮像素子6の焦点検出画素は、たとえばマイクロレンズと一つまたは複数の光電変換部からなり、レンズ光学系1の瞳の異なる領域を通過した一対の光束を受光するよう構成されている。そしてこの一対の光束の受光信号により、瞳分割方式の焦点検出を行うものである。あるいは、コントラスト方式による焦点調節を行ってもよい。コントラスト方式による焦点調節は、レンズ光学系1の焦点調節レンズを移動させ、複数の焦点位置において撮像素子6により撮像を行う。こうして撮像された各画像に基づいて、選択された焦点検出エリア内の画像部分のコントラストに応じた焦点評価値を演算し、最も焦点評価値の高い焦点調節レンズの位置を合焦位置としてレンズ光学系1の焦点調節を行うものである。
In the above embodiment, the focus adjustment state of the lens
1 レンズ光学系
6 撮像素子
8 位相差AF検出素子
9 AF−CCD制御部
10 デフォーカス演算部
11 フォーカスエリア位置決定部
12 レンズ駆動量演算部
13 レンズ駆動制御部
16 測光センサ
18 制御装置
DESCRIPTION OF
Claims (2)
前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶部と、
前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出部と、
前記位置検出部が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が所定時間より短い場合には前記位置検出部で検出された位置検出結果を焦点検出位置として出力し、前記位置検出部が最新の位置検出結果を取得した時刻と前回の位置検出結果を取得した時刻との差が前記所定時間より長い場合には過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾部と、
前記追尾部により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出部とを備えることを特徴とする焦点検出装置。 An imaging unit that repeatedly captures a subject and repeatedly generates subject image information ;
A storage unit for storing reference information corresponding to the image information of the tracking object in the object image information,
The position of the tracking target in the subject image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information,
When the difference between the time when the position detection unit acquires the latest position detection result and the time when the previous position detection result is acquired is shorter than a predetermined time, the position detection result detected by the position detection unit is used as the focus detection position. And when the difference between the time when the position detection unit acquires the latest position detection result and the time when the previous position detection result is acquired is longer than the predetermined time, based on a plurality of past position detection results A tracking unit that predicts the position of the tracking target and outputs it as a focus detection position;
Focus detecting apparatus comprising: a focus detection unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
前記被写体画像情報内の追尾対象の画像情報に対応する基準情報を記憶する記憶部と、
前記被写体画像情報内における前記追尾対象の位置を、前記被写体画像情報と前記基準情報との比較に基づいて検出し位置検出結果を出力する位置検出部と、
前記撮像部による最新の前記被写体画像情報と前記基準情報との類似度を演算し、前記類似度が所定値以上ならば前記位置検出部で検出された最新の位置検出結果を焦点検出位置として出力し、前記類似度が所定値未満ならば過去の複数の位置検出結果に基づいて追尾対象の位置を予測して焦点検出位置として出力する追尾部と、
前記追尾部により出力された前記焦点検出位置に対して光学系の焦点調節状態を検出する焦点検出部とを備えることを特徴とする焦点検出装置。
An imaging unit that repeatedly captures a subject and repeatedly generates subject image information ;
A storage unit for storing reference information corresponding to the image information of the tracking object in the object image information,
The position of the tracking target in the subject image information, a position detecting section for outputting the detected position detection result based on a comparison between the reference information and the subject image information,
Calculates the class similarity score between the latest of the object image information and said reference information by the imaging unit, the latest position detection result detected by the position detection unit as a focus detection position the similarity is if more than a predetermined value A tracking unit that outputs a focus detection position by predicting the position of the tracking target based on a plurality of past position detection results if the similarity is less than a predetermined value;
Focus detecting apparatus comprising: a focus detection unit for detecting the focusing state of the optical science system with respect to the focus detection position outputted by the tracking unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260152A JP5720767B2 (en) | 2013-12-17 | 2013-12-17 | Focus detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013260152A JP5720767B2 (en) | 2013-12-17 | 2013-12-17 | Focus detection device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008285322A Division JP2010113130A (en) | 2008-11-06 | 2008-11-06 | Focus detecting device, imaging apparatus, focus detecting method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014081650A JP2014081650A (en) | 2014-05-08 |
JP5720767B2 true JP5720767B2 (en) | 2015-05-20 |
Family
ID=50785825
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013260152A Active JP5720767B2 (en) | 2013-12-17 | 2013-12-17 | Focus detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5720767B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH089227A (en) * | 1994-06-17 | 1996-01-12 | Hitachi Ltd | Image pickup device with automatic tracking function |
JP4350725B2 (en) * | 2005-08-05 | 2009-10-21 | キヤノン株式会社 | Image processing method, image processing apparatus, and program for causing computer to execute image processing method |
JP2007052061A (en) * | 2005-08-15 | 2007-03-01 | Sharp Corp | Imaging device, focusing operation control method, and electronic information apparatus |
JP4819001B2 (en) * | 2006-07-25 | 2011-11-16 | 富士フイルム株式会社 | Imaging apparatus and method, program, image processing apparatus and method, and program |
JP5056061B2 (en) * | 2007-02-22 | 2012-10-24 | 株式会社ニコン | Imaging device |
JP2008263478A (en) * | 2007-04-13 | 2008-10-30 | Fujifilm Corp | Imaging apparatus |
-
2013
- 2013-12-17 JP JP2013260152A patent/JP5720767B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014081650A (en) | 2014-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5167750B2 (en) | TRACKING DEVICE, IMAGING DEVICE, AND TRACKING METHOD | |
JP5157256B2 (en) | Image tracking device and imaging device | |
JP4872834B2 (en) | Image recognition device, focus adjustment device, and imaging device | |
US10863079B2 (en) | Control apparatus, image capturing apparatus, and non-transitory computer-readable storage medium | |
US10163222B2 (en) | Image capturing apparatus, tracking device, control method, and storage medium | |
JP6825639B2 (en) | Imaging device | |
JP2009109839A (en) | Image tracking device and imaging device | |
CN106470317B (en) | Image pickup apparatus and control method thereof | |
US10477101B2 (en) | Focus detection apparatus, control method and storage medium | |
JP2014013368A (en) | Imaging apparatus and control method thereof | |
JP6525809B2 (en) | Focus detection apparatus and control method thereof | |
JP2017037103A (en) | Imaging apparatus | |
JP5879736B2 (en) | Image tracking device and imaging device | |
JP5403111B2 (en) | Image tracking device | |
JP5056136B2 (en) | Image tracking device | |
JP6486098B2 (en) | Imaging apparatus and control method thereof | |
JP6140945B2 (en) | Focus adjustment device and imaging device | |
JP6427027B2 (en) | Focus detection apparatus, control method therefor, imaging apparatus, program, and storage medium | |
JP5359150B2 (en) | Imaging device | |
JP2010113130A (en) | Focus detecting device, imaging apparatus, focus detecting method | |
JP6492557B2 (en) | Focus adjustment device and camera | |
JP4701837B2 (en) | Automatic focus adjustment device | |
JP5720767B2 (en) | Focus detection device | |
JP2018004904A (en) | Subject tracking device and imaging device | |
JP7147887B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5720767 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |