JP2013172320A - Detection system, signal processing method therefor, and program - Google Patents

Detection system, signal processing method therefor, and program Download PDF

Info

Publication number
JP2013172320A
JP2013172320A JP2012035296A JP2012035296A JP2013172320A JP 2013172320 A JP2013172320 A JP 2013172320A JP 2012035296 A JP2012035296 A JP 2012035296A JP 2012035296 A JP2012035296 A JP 2012035296A JP 2013172320 A JP2013172320 A JP 2013172320A
Authority
JP
Japan
Prior art keywords
subject
detection
tracking
information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012035296A
Other languages
Japanese (ja)
Other versions
JP5770123B2 (en
Inventor
Atsushi Fujimori
淳 藤森
Tomohiro Oyama
智広 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2012035296A priority Critical patent/JP5770123B2/en
Publication of JP2013172320A publication Critical patent/JP2013172320A/en
Application granted granted Critical
Publication of JP5770123B2 publication Critical patent/JP5770123B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide; a detection system capable of correcting a detected position and obtaining the brightness information of a photo-object perpetually and accurately even in a case where positional and directional shifts occur between an imaging device and the position of the photo-object that is a detection target; a signal processing method for the system; and a program.SOLUTION: A detection system includes: a position storage part 144 capable of storing information related to a position including a detection range of plural photo-object images; and a photo-object position determination part 17 capable of searching detection information obtained by a determination part 16 for position and size of the photo-object in all images to determine the position of the photo-object including a detection range, and storing the detection information including the detection range related to the photo-object in the position storage part. Further, the photo-object position determination part 17 includes a tracking process function of tracking whether a shift in the detection position has occurred and correcting the positional information of the position storage part while adjusting a correcting state and time by matching the elapsed time of a positional shift.

Description

本発明は、たとえば、撮像装置等を用いて被写体の状態を検知する検知システムおよびその信号処理方法、プログラムに関するものである。   The present invention relates to a detection system that detects the state of a subject using an imaging device or the like, a signal processing method thereof, and a program, for example.

たとえば、特許文献1に示す夜間の防犯システム等に用いられる撮像装置が提案されている。
この撮像装置は、信号処理部を有し、光源を周波数100Hzまたは120Hz(電源に50Hzまたは60Hzの商用電源を用いた場合、光源はその倍の100Hzまたは120Hzでその明るさが変動する)より高い高周波で変調する。さらに、信号処理部はこの高周波変調信号を検出する検出部を有している。
ただし、この撮像装置はその変調周波数より高いフレームレートを持っている必要がある。
For example, an imaging apparatus used in a nighttime crime prevention system shown in Patent Document 1 has been proposed.
This imaging apparatus has a signal processing unit, and the light source has a frequency higher than 100 Hz or 120 Hz (when a commercial power source of 50 Hz or 60 Hz is used as the power source, the brightness of the light source fluctuates at 100 Hz or 120 Hz that is twice that). Modulate with high frequency. Further, the signal processing unit has a detection unit for detecting the high frequency modulation signal.
However, this imaging apparatus needs to have a frame rate higher than its modulation frequency.

ところで、一般に広く普及している撮像装置はNTSC(National Television Standards Committee)方式またはPAL(Phase Alternating Line)方式と呼ばれる規格が採用されている。
このような規格を採用した撮像装置はフレームレートが遅いため、たとえば特許文献1に示すような防犯システムの撮像装置として使用できない。
By the way, a standard called NTSC (National Television Standards Committee) system or PAL (Phase Alternating Line) system is adopted for imaging apparatuses which are widely spread in general.
Since an image pickup apparatus adopting such a standard has a low frame rate, for example, it cannot be used as an image pickup apparatus for a crime prevention system as shown in Patent Document 1.

そこで、光源または光源に照射された被写体の状態を検知でき、NTSC等の規格を採用した防犯システムに適用可能な検知システムが提案されている(特許文献2参照)。
この検知システムは、光源の周波数成分の被写体の状態を検知する。
Therefore, a detection system that can detect a light source or the state of a subject irradiated with the light source and can be applied to a crime prevention system adopting a standard such as NTSC has been proposed (see Patent Document 2).
This detection system detects the state of the subject of the frequency component of the light source.

特許第3019309号公報Japanese Patent No. 3019309 特開2008−141251号公報JP 2008-141251 A

ところが、上記検知システムでは、次のような不利益がある。
一つまたは複数の被写体を検知して位置情報を取得し記憶していた場合に、被写体と撮像装置の位置および向きが静止するように固定されていたとしても、経年変化によりそれぞれの位置および向きに若干のずれが生じることがある。
その結果、上記検知システムでは、記憶していた位置情報との差異により輝度情報を永続的に正確に取得し測定することが困難である。
However, the detection system has the following disadvantages.
Even if the position and orientation of the subject and the imaging device are fixed so that they remain stationary when one or more subjects are detected and stored, the position and orientation of each subject will change due to secular change. There may be slight deviations.
As a result, it is difficult for the detection system to acquire and measure luminance information permanently and accurately due to the difference from the stored position information.

従来から位置検知の方法として背景差分による比較で検知する方法が知られている。
しかし、この方法では、特に複数の被写体を検知する場合目標となる被写体以外の動体や浮遊物等も検知しやすく、目標の被写体を判定することが困難である。
Conventionally, as a position detection method, a detection method using comparison based on a background difference is known.
However, with this method, particularly when a plurality of subjects are detected, it is easy to detect moving objects and floating objects other than the target subject, and it is difficult to determine the target subject.

本発明は、光源または光源に照射された被写体の状態を検知できることはもとより、検知対象の被写体の位置と撮像装置の間に、位置および向きのずれが生じた場合でも、検知位置を補正することができ、ひいては被写体の輝度情報を永続的に高精度に取得することが可能な検知システムおよびその信号処理方法、プログラムを提供することにある。   In addition to being able to detect the state of the light source or the subject irradiated with the light source, the present invention corrects the detection position even when a position and orientation shift occurs between the position of the subject to be detected and the imaging device. It is therefore an object of the present invention to provide a detection system capable of obtaining luminance information of a subject permanently and with high accuracy, and a signal processing method and program thereof.

本発明の第1の観点の検知システムは、光源と、上記光源または上記光源によって照射された被写体を撮像する撮像装置と、上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、上記被写体位置決定部は、検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理機能を含み、上記解析処理部は、上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う。   A detection system according to a first aspect of the present invention includes a light source, an imaging device that images the light source or a subject irradiated with the light source, an analysis processing unit that performs an analysis process on a signal acquired from the imaging device, A determination unit that detects and determines the state of the light source or the subject based on an analysis result of the analysis processing unit, a position storage unit that can store information about positions including detection ranges in the images of a plurality of subjects, and the determination unit From the obtained detection information, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, the detection information including the detection range related to the subject is acquired, and the detection information is A subject position determination unit that can be stored in the position storage unit as information relating to the position, and the subject position determination unit tracks whether or not a detection position shift has occurred. A tracking processing function that corrects the position information of the position storage unit while adjusting the correction state and time according to the elapsed time, and the analysis processing unit performs the above-described analysis processing unit from the imaging device for each predetermined scanning plane cycle. Obtaining a signal, obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and performing an analysis process for performing a predetermined calculation based on the value of the time average, The calculation result of the analysis process is output to the determination unit, and when the detection information is stored in the position storage unit, the analysis process is selectively performed on an image in the detection position range specified in the detection information. I do.

本発明の第2の観点の検知システムの信号処理方法は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、上記被写体位置決定ステップにおいて、検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理ステップを含み、上記解析処理ステップにおいて、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含む。   A signal processing method of a detection system according to a second aspect of the present invention includes an imaging step of imaging a light source or a subject irradiated with the light source with an imaging device, a signal acquired from the imaging device every predetermined scanning plane period, and a plurality of signals An analysis processing step of performing an analysis process for obtaining a time average of the signal level difference from the signal level difference of the signal between different scanning planes, and further performing a predetermined calculation based on the value of the time average; A determination step for detecting and determining the state of the light source or subject based on the analysis result of the step, and a detection range including a detection range by searching for the position and size of the subject in all images from the detection information obtained in the determination step A subject that determines the position of the subject, acquires detection information including a detection range related to the subject, and stores the detection information in the position storage unit as information about the position A position determination step, and in the subject position determination step, tracking is performed to determine whether or not a detection position shift has occurred, and the position storage is performed while adjusting the correction state and time according to the elapsed time of the position shift. A tracking processing step for correcting the position information of the part, and in the analysis processing step, when the detection information is stored in the position storage unit, the image of the detection position range specified in the detection information Selectively performing the analysis process.

本発明の第3の観点は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、上記被写体位置決定処理において、検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理を含み、上記解析処理において、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含む検知システムの信号処理をコンピュータに実行させるプログラムである。   According to a third aspect of the present invention, an image pickup process for picking up a light source or a subject irradiated with the light source with an image pickup device, a signal is acquired for each predetermined scan plane period, and a signal of the signal between a plurality of different scan planes Calculates the time average of the signal level difference from the level difference, and further performs analysis processing for performing a predetermined calculation based on the value of the time average, and detects and determines the state of the light source or subject based on the analysis result of the analysis processing And the detection information obtained by the determination process, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is obtained. A subject position determination process for acquiring and storing the detection information in the position storage unit as information on the position. In the subject position determination process, whether the detection position has shifted. Including tracking processing for correcting the position information in the position storage unit while adjusting the correction state and time according to the elapsed time of the positional deviation, and in the analysis processing, the position storage unit detects the detection When information is stored, the program causes a computer to execute signal processing of a detection system including processing for selectively performing the analysis processing on an image in a detection position range specified in the detection information.

本発明によれば、光源または光源に照射された被写体の状態を検知できることはもとより、検知対象の被写体の位置と撮像装置の間に、位置および向きのずれが生じた場合でも、検知位置を補正することができ、ひいては被写体の輝度情報を永続的に高精度に取得することができる。   According to the present invention, not only can the state of the light source or the subject irradiated to the light source be detected, but also the detection position can be corrected even when a position and orientation shift occurs between the position of the subject to be detected and the imaging device. As a result, the luminance information of the subject can be obtained permanently and with high accuracy.

本発明の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on embodiment of this invention. 本実施形態に係る位置記憶部において保存する情報テーブルの一例を示す図である。It is a figure which shows an example of the information table preserve | saved in the position memory | storage part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。It is a figure which shows notionally the state before the position determination of the to-be-photographed object in the to-be-photographed object position determination part which concerns on this embodiment, and the state after position determination. 本実施形態に係る被写体位置決定部において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。It is a figure which shows an example of the (x, y) width table information of the detection range referred in order to perform position determination in the to-be-photographed object position determination part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行う場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows the process in the case of performing a position determination process. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行わない場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows a process when not performing a position determination process. 1つの光源もしくは反射光の被写体の検索法を説明するための図である。It is a figure for demonstrating the search method of the object of one light source or reflected light. 検知範囲の微調整処理を説明するための図である。It is a figure for demonstrating the fine adjustment process of a detection range. 位置検索情報記憶部に格納される追尾タイムテーブルの形成例を示す図である。It is a figure which shows the example of formation of the tracking time table stored in a position search information storage part. 被写体のずれ方向と追尾タイムテーブルとの関係を説明するための図である。It is a figure for demonstrating the relationship between the shift direction of a to-be-photographed object and a tracking time table. 位置記憶部の検出位置メモリの番号Noの基本的な追尾処理を説明するためのフローチャートである。It is a flowchart for demonstrating the basic tracking process of the number No of the detection position memory of a position memory | storage part. 位置記憶部の検出位置メモリの番号Noの第2の追尾処理を説明するためのフローチャートである。It is a flowchart for demonstrating the 2nd tracking process of the number No of the detection position memory of a position memory | storage part. 位置記憶部の検出位置メモリの番号Noの第3の追尾処理を説明するためのフローチャートである。It is a flowchart for demonstrating the 3rd tracking process of the number No of the detection position memory of a position memory | storage part. 本実施形態に係るCCDの構造を説明するための一例を示す図である。It is a figure which shows an example for demonstrating the structure of CCD which concerns on this embodiment. 図14のCCDの時系列を説明するための図である。It is a figure for demonstrating the time series of CCD of FIG. 単板補色フィルタ型CCDの画素の一配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the pixel of a single plate complementary color filter type CCD. 奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the color signal in odd field OFD and even field EFD. 本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the signal processing method of the luminance signal of the light source analysis process part which concerns on this embodiment. 光源に含まれる周波数成分についての波形W6を示す図である。It is a figure which shows the waveform W6 about the frequency component contained in a light source. デューティー比Dと2乗和SACBDとの関係の一例を示す図である。It is a figure which shows an example of the relationship between duty ratio D and square sum SACBD. 本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。It is a flowchart figure for demonstrating a series of operation | movement outline | summary of the detection system which concerns on this embodiment.

以下、本発明の実施形態を図面に関連付けて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の実施形態に係る検知システムの構成例を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a detection system according to an embodiment of the present invention.

本検知システム10は、光源11、撮像装置12、輝度信号抽出部13、光源解析処理部14、フィルタ処理部15、判定部16、被写体位置決定部17、およびタイマー処理部18を有する。
光源解析処理部14は、第1の演算部(A)141、第2の演算部(B)142、演算処理部(時間平均2乗和演算処理部)143、および位置記憶部144を有する。
被写体位置決定部17は、位置検索処理部171、位置検索情報記憶部172、および追尾処理部173を有する。
The detection system 10 includes a light source 11, an imaging device 12, a luminance signal extraction unit 13, a light source analysis processing unit 14, a filter processing unit 15, a determination unit 16, a subject position determination unit 17, and a timer processing unit 18.
The light source analysis processing unit 14 includes a first calculation unit (A) 141, a second calculation unit (B) 142, a calculation processing unit (time average square sum calculation processing unit) 143, and a position storage unit 144.
The subject position determination unit 17 includes a position search processing unit 171, a position search information storage unit 172, and a tracking processing unit 173.

この追尾処理部173は、後で詳述するように、経年変化や環境変化に伴いずれが生じる検索位置を補正するための追尾処理を行う。
すなわち、本検知システム10は、被写体位置決定部17に追尾処理部173を含み、光源または光源に照射された被写体の状態の検知において、検知対象の被写体の位置と撮像装置の間に、長期にわたる経年変化や環境状態で生じた位置及び向きのずれがそれぞれにあった場合でも、その経過時間に合わせて補正状態と時間の調整をしながら、検知位置を補正することで、被写体の輝度情報を永続的に高精度に取得できるように構成されている。
As will be described later in detail, the tracking processing unit 173 performs a tracking process for correcting a search position that is caused by a secular change or an environmental change.
That is, the detection system 10 includes a tracking processing unit 173 in the subject position determination unit 17, and in the detection of the state of the light source or the subject irradiated with the light source, the detection system 10 extends over a long period between the position of the subject to be detected and the imaging device. Even if there is a position and orientation shift caused by aging and environmental conditions, the brightness information of the subject can be obtained by correcting the detection position while adjusting the correction state and time according to the elapsed time. It is configured so that it can be obtained permanently with high accuracy.

光源11は、所定の輝度で被写体を照明する。光源11の輝度は可変であり、撮像装置12が有する撮像素子の電荷蓄積時間内の輝度が、撮像装置12のフィールド周期の4n倍周期で変化する。ここで、n=1、2、3、…である。   The light source 11 illuminates the subject with a predetermined luminance. The luminance of the light source 11 is variable, and the luminance within the charge accumulation time of the imaging element included in the imaging device 12 changes at a period 4n times the field period of the imaging device 12. Here, n = 1, 2, 3,.

本実施形態に係る検知システム10で使用する撮像装置12は、以下のような仕様の撮像装置を採用している。
本撮像装置12を構成する撮像素子は一例として、単板補色フィルタ、フィールド蓄積型インターライン転送CCD(Charge Coupled Device)イメージセンサ(以後、単にCCDと記述する)を用いる。
また、一例として撮像装置12のテレビジョン方式はNTSC方式、走査方式はインターレースを採用し、走査周波数は水平周波数が15.734KHzで垂直周波数は59.94Hzである。
このような構成の撮像装置12は、光源11または光源11によって照明された被写体を撮像し、撮像して得た信号を輝度信号抽出部13に出力する。
なお、ここではCCDイメージセンサを例示しているがCMOSイメージセンサも適用可能である。
The imaging device 12 used in the detection system 10 according to the present embodiment employs an imaging device having the following specifications.
As an example of the imaging device constituting the imaging apparatus 12, a single-plate complementary color filter and a field storage type interline transfer CCD (Charge Coupled Device) image sensor (hereinafter simply referred to as a CCD) are used.
As an example, the television system of the imaging device 12 employs the NTSC system, the scanning system employs interlace, the scanning frequency is 15.734 KHz, and the vertical frequency is 59.94 Hz.
The imaging device 12 having such a configuration images the light source 11 or the subject illuminated by the light source 11 and outputs a signal obtained by the imaging to the luminance signal extraction unit 13.
Although a CCD image sensor is illustrated here, a CMOS image sensor can also be applied.

輝度信号抽出部13は、入力された信号から輝度信号を抽出し、この輝度信号を光源解析処理部14の第1の演算部141および第2の演算部142に出力する。
輝度信号抽出部13により抽出される輝度信号は、演算に最適化された信号レベルに調節される。
その信号レベルは、第1の演算部141、第2の演算部142、演算処理部143の出力値においてオーバーフローしない信号レベルである必要がある。そのため、輝度信号抽出部13は、輝度信号レベルを調整する回路を含む。
輝度信号レベルの調整値はいくつかのモードがある場合には、モード切り替えが可能なテーブルをもっていてもかまわない。そのモードはNTSCやPALなどの映像信号規格、撮像装置の周波数モードであってもよい。
The luminance signal extraction unit 13 extracts a luminance signal from the input signal and outputs the luminance signal to the first calculation unit 141 and the second calculation unit 142 of the light source analysis processing unit 14.
The luminance signal extracted by the luminance signal extraction unit 13 is adjusted to a signal level optimized for calculation.
The signal level needs to be a signal level that does not overflow in the output values of the first calculation unit 141, the second calculation unit 142, and the calculation processing unit 143. Therefore, the luminance signal extraction unit 13 includes a circuit that adjusts the luminance signal level.
The adjustment value of the luminance signal level may have a table capable of mode switching when there are several modes. The mode may be a video signal standard such as NTSC or PAL, or a frequency mode of the imaging apparatus.

光源解析処理部14において、第1の演算部141は、入力された輝度信号を撮像素子の同一領域において、m番目と(m+2)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第1の演算部141の出力結果Aは、演算処理部143に出力される。
第2の演算部142は、入力された輝度信号の同一領域において、(m+1)番目と(m+3)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第2の演算部142の出力結果Bは、演算処理部143に出力される。
なお、この第1の演算部141と第2の演算部142の動作の詳細については後述する。
第1の演算部141および第2の演算部142は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
In the light source analysis processing unit 14, the first calculation unit 141 obtains the time average of the level difference of the luminance signal in the m-th and (m + 2) -th fields in the same area of the imaging device.
The output result A of the first calculation unit 141 is output to the calculation processing unit 143.
The second calculation unit 142 obtains a time average of the level difference of the luminance signal in the (m + 1) th and (m + 3) th fields in the same region of the input luminance signal.
The output result B of the second calculation unit 142 is output to the calculation processing unit 143.
The details of the operations of the first calculation unit 141 and the second calculation unit 142 will be described later.
The first calculation unit 141 and the second calculation unit 142 perform calculation processing in accordance with calculation range designation information for analyzing the image stored in the position storage unit 144.

第1の演算部141と第2の演算部142からそれぞれ出力される出力結果Aと出力結果Bは演算処理部143に入力される。
演算処理部143は出力結果の2乗和の値(A+B)を求め、フィルタ処理部15に出力する。
演算処理部143は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
The output result A and the output result B output from the first calculation unit 141 and the second calculation unit 142, respectively, are input to the calculation processing unit 143.
The arithmetic processing unit 143 obtains a square sum value (A 2 + B 2 ) of the output result and outputs it to the filter processing unit 15.
The arithmetic processing unit 143 performs arithmetic processing according to the calculation range designation information for analyzing the image stored in the position storage unit 144.

位置記憶部144は、たとえば被写体位置決定部17で決定される、光源の信号成分から不要な動体物を除去し高精度に検知された複数の被写体の位置および大きさの検知情報を記憶する。
このように、光源解析処理部14は、第1の演算部141と第2の演算部142の画像解析する演算範囲を指定可能な、位置記憶部144を備える。
その位置記憶部144は複数(n)個の位置情報を記憶できる。
そのため、光源解析処理部14の検知処理は光源もしくは光源に照射された被写体の検知において、位置記憶部144で指定する画像の範囲(たとえば範囲Mn=[x1,y1−x2,y2])におけるn個分の解析処理を、1フレーム内で行う。
または、1フレームの時間内でn個分の解析処理を行えない場合には、1フレームで行う解析処理をa個分(a<n)とし、複数のフレームに亘ってn個分の解析処理を行う方法でもかまわない。
解析処理により得たn個の指定範囲の画像は光源もしくは光源に照射された被写体があれば、検知画像として取得できる。
The position storage unit 144 stores, for example, detection information on the positions and sizes of a plurality of subjects detected with high accuracy by removing unnecessary moving objects from the signal component of the light source, which is determined by the subject position determination unit 17.
As described above, the light source analysis processing unit 14 includes the position storage unit 144 that can specify a calculation range for image analysis of the first calculation unit 141 and the second calculation unit 142.
The position storage unit 144 can store a plurality (n) pieces of position information.
Therefore, the detection processing of the light source analysis processing unit 14 is performed in the range of the image specified by the position storage unit 144 (for example, the range Mn = [x1, y1-x2, y2]) in the detection of the light source or the subject irradiated to the light source. One piece of analysis processing is performed within one frame.
Alternatively, if n analysis processes cannot be performed within the time of one frame, the analysis process performed in one frame is set to a (a <n), and n analysis processes are performed over a plurality of frames. It does not matter how to do.
An image in the n designated ranges obtained by the analysis process can be acquired as a detected image if there is a light source or a subject irradiated with the light source.

光源解析処理部14は、位置記憶部144に格納されている範囲のみの検知を行うことが可能なモードと、全画像を対象とするモードを持つ。
光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な検知処理ではなく全体の画像に対する光源解析処理を行う。
The light source analysis processing unit 14 has a mode capable of detecting only the range stored in the position storage unit 144 and a mode for all images.
Since the detection range is not specified in the initial state in which position information or the like is not stored in the position storage unit 144, the light source analysis processing unit 14 performs light source analysis processing on the entire image instead of selective detection processing.

また、位置記憶部144は不揮発性メモリ、もしくは設定ファイルであった場合、停電時などにも影響なく検知位置を復帰できる。また、被写体位置決定を行うか否かを選択するフラグを有する。
また、位置記憶部144の一部は揮発性メモリを有し、一時記憶用に利用できる。
位置記憶部144は、被写体の位置座標、大きさ、被写体の周波数検知感度(信号レベル)、被写体個別番号等の情報を保存する機能を有する。
Further, when the position storage unit 144 is a nonvolatile memory or a setting file, the detection position can be restored without being affected by a power failure. In addition, it has a flag for selecting whether or not to determine the subject position.
A part of the position storage unit 144 has a volatile memory and can be used for temporary storage.
The position storage unit 144 has a function of storing information such as the position coordinates and size of the subject, the frequency detection sensitivity (signal level) of the subject, and the individual number of the subject.

図2は、本実施形態に係る位置記憶部144において保存する情報テーブルの一例を示す図である。   FIG. 2 is a diagram illustrating an example of an information table stored in the position storage unit 144 according to the present embodiment.

図2において、「No」は被写体の個別番号を示す。「x,y」は被写体の開始位置座標を示し、「xe,ye」は被写体の終了位置座標を示す。「n」は被写体の数に対応した番号を示す。「level」は被写体の周波数感度である信号レベル(信号強度)を示す。
このテーブルTBL1の例では、「No.1」の被写体は、開始位置座標が「10,10」、終了位置座標が「20,20」の1番目の被写体であり、その信号レベルは相対的に「40」である。
「No.2」の被写体は、開始位置座標が「30,30」、終了位置座標が「50,60」の2番目の被写体であり、その信号レベルは相対的に「43」である。
「No.3」の被写体は、開始位置座標が「100,100」、終了位置座標が「120,120」の3番目の被写体であり、その信号レベルは相対的に「50」である。
「No.4」の被写体は、開始位置座標が「300,300」、終了位置座標が「325,315」の4番目の被写体であり、その信号レベルは相対的に「60」である。
In FIG. 2, “No” indicates the individual number of the subject. “X, y” indicates the start position coordinates of the subject, and “xe, ye” indicates the end position coordinates of the subject. “N” indicates a number corresponding to the number of subjects. “Level” indicates a signal level (signal intensity) which is frequency sensitivity of the subject.
In this example of the table TBL1, the subject of “No. 1” is the first subject with the start position coordinates “10, 10” and the end position coordinates “20, 20”, and the signal level is relatively high. “40”.
The subject of “No. 2” is the second subject whose start position coordinates are “30, 30” and end position coordinates are “50, 60”, and its signal level is relatively “43”.
The “No. 3” subject is the third subject whose start position coordinates are “100, 100” and end position coordinates are “120, 120”, and its signal level is relatively “50”.
The subject of “No. 4” is the fourth subject having a start position coordinate of “300, 300” and an end position coordinate of “325, 315”, and its signal level is relatively “60”.

以上のように、本実施形態の光源解析処理部14では、複数の被写体の位置に関する情報を記憶できるメモリ(検知位置メモリ)である位置記憶部144を備え、その位置記憶部144に被写体位置を示す画像領域の座標値と被写体番号等の、被写体の検知情報をもつ。
光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標が存在する場合は、その座標で指定される検知位置範囲の画像を解析(検知)する機能を有している。
位置記憶部144への検知情報の記憶は被写体位置決定部17で行う。
位置記憶部144に格納される検知位置情報は、長期にわたる経年変化等においても安定的に高精度な輝度情報を測定することが可能となるように、被写体位置決定部17により補正された検知位置情報を含む。
As described above, the light source analysis processing unit 14 of the present embodiment includes the position storage unit 144 that is a memory (detection position memory) that can store information on the positions of a plurality of subjects, and the position storage unit 144 stores subject positions. It has object detection information such as the coordinate value of the image area shown and the object number.
The light source analysis processing unit 14 has a function of analyzing (detecting) an image in the detection position range specified by the coordinates when the detection position coordinates stored in the position storage unit 144 exist.
The subject position determination unit 17 stores the detection information in the position storage unit 144.
The detected position information stored in the position storage unit 144 is the detected position corrected by the subject position determining unit 17 so that high-precision luminance information can be stably measured even over time. Contains information.

光源解析処理部14は、たとえば図示しない制御系により指定されるあるいは位置記憶部144の検知情報の有無に応じて自動的に切り替わる2つのモード、具体的には全画素検知モードと被写体位置検知モードで動作可能である。
全画素検知モードでは、光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な解析処理ではなく全体の画像に対する光源解析処理を行う。
この全画素検知モードにおける検知結果に基づいて、後述する被写体位置決定部17で、複数の被写体の位置に関する情報が検知されて、この検知情報が位置記憶部144に記憶される。
たとえばこの検知情報が位置記憶部144に記憶されると、光源解析処理部14は、全画素検知モードから被写体位置検知モードに切り替わる。
被写体位置検知モードでは、光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の画像を解析(検知)する。
この光源解析処理部14を有することから、本検知システム10は、光源11もしくは光源11に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
The light source analysis processing unit 14 is, for example, two modes that are designated by a control system (not shown) or automatically switched according to the presence or absence of detection information in the position storage unit 144, specifically, an all-pixel detection mode and a subject position detection mode. It is possible to operate with.
In the all-pixel detection mode, the light source analysis processing unit 14 does not specify a detection range in the initial state where position information or the like is not stored in the position storage unit 144. Perform analysis processing.
Based on the detection result in the all-pixel detection mode, the subject position determination unit 17 described later detects information regarding the positions of a plurality of subjects, and the detection information is stored in the position storage unit 144.
For example, when this detection information is stored in the position storage unit 144, the light source analysis processing unit 14 switches from the all-pixel detection mode to the subject position detection mode.
In the subject position detection mode, the light source analysis processing unit 14 analyzes (detects) an image in the detection position range specified by the coordinates based on the detection position coordinates and the like stored in the position storage unit 144.
Since the light source analysis processing unit 14 is included, the detection system 10 can detect only the light source 11 or the position of the subject irradiated on the light source 11 and does not detect the position to be excluded as a subject. The effect is also effective and can be detected with high accuracy.

フィルタ処理部15は、上述した初期状態時には、全体の画像をフィルタ処理によりノイズ低減を行い判定部16に出力する。
フィルタ処理部15は、光源解析処理部14におけるn個の検知画像をフィルタ処理によりノイズ低減や検知されなかった部分の消去を行い判定部16に出力する。
In the initial state described above, the filter processing unit 15 performs noise reduction on the entire image by filter processing and outputs the noise to the determination unit 16.
The filter processing unit 15 performs noise reduction on the n detected images in the light source analysis processing unit 14 or eliminates a portion that has not been detected by the filter processing, and outputs the result to the determination unit 16.

上述した初期状態においては、判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減された全体画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減や検知されなかった部分が消去された検知画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
In the above-described initial state, the determination unit 16 is output from the arithmetic processing unit 143 and based on the square sum value (A 2 + B 2 ) of the entire image that has been reduced in noise by the filter processing unit 15. For example, it is determined whether the subject imaged is stationary or moving. Details of the operation of the determination unit 16 will be described later.
Based on the square sum value (A 2 + B 2 ) of the detected image that is output from the arithmetic processing unit 143 and from which the filter processing unit 15 has eliminated noise and has not been detected, the determination unit 16 For example, it is determined whether the subject imaged at 12 is stationary or moving. Details of the operation of the determination unit 16 will be described later.

被写体位置決定部17は、判定部16にて得られた検知状態から、全画像の中から被写体の位置を検索する位置検索処理部171、位置検索情報記憶部172、および追尾処理部173を有する。
位置検索情報記憶部172は、位置検索処理部171の位置検索結果を格納し、また追尾処理部173の追尾処理で情報をテーブル化した追尾タイムテーブルを含む追尾経過情報を格納する。
追尾処理部173は、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、位置を補正する機能を有する。
The subject position determination unit 17 includes a position search processing unit 171, a position search information storage unit 172, and a tracking processing unit 173 that search the position of the subject from all the images based on the detection state obtained by the determination unit 16. .
The position search information storage unit 172 stores the position search result of the position search processing unit 171 and stores tracking progress information including a tracking time table in which information is tabulated by the tracking processing of the tracking processing unit 173.
The tracking processing unit 173 corrects the positional shift even if there is a long-term secular change or a positional shift caused by an environmental condition between the position of the subject to be detected and the imaging apparatus. It has a function of correcting the position while adjusting the correction state and time according to the time.

以下に、被写体位置決定部17における被写体位置の決定処理、および追尾処理に伴って検知位置情報の補正を行う処理をさらに詳細に説明する。   Hereinafter, the subject position determination process in the subject position determination unit 17 and the process of correcting the detected position information in accordance with the tracking process will be described in more detail.

図3(A)および(B)は、本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。
図3(A)に示すように、位置決定前の被写体OBJ1,OBJ2が検索され、検索結果から図3(B)に示すように、矩形の枠DTRG1,DTRG2に示す範囲に被写体OBJ1,OBJ2の位置が決定され、その範囲が光源解析処理部14の解析対象および判定部16の検知対象となる。
この位置決定後の範囲等の検知情報は、光源解析処理部14の位置記憶部144に格納される。本実施形態においては、上述したようにその範囲の検知のみ行うことが可能な被写体位置検知モードと全画像を対象とする全画像検知モードを持つ。
たとえば、特定の位置の被写体のみを検知することが必要な用途では、位置記憶部144に格納された範囲の被写体位置検知モードで動作させる。
その場合、上述したように、特定の位置を設定するために被写体位置決定部17により、最初に被写体対象位置を検索し位置記憶部144に格納し、以降は記憶された位置の検知のみ行うという利用に応用できる。
FIGS. 3A and 3B are diagrams conceptually showing states before and after the position of a subject in the subject position determination unit according to the present embodiment.
As shown in FIG. 3A, the subjects OBJ1 and OBJ2 before the position determination are searched, and as shown in FIG. The position is determined, and the range becomes the analysis target of the light source analysis processing unit 14 and the detection target of the determination unit 16.
Detection information such as the range after the position determination is stored in the position storage unit 144 of the light source analysis processing unit 14. In the present embodiment, as described above, there are a subject position detection mode in which only the detection of the range is possible and an all image detection mode for all images.
For example, in an application where it is necessary to detect only a subject at a specific position, the operation is performed in the subject position detection mode in the range stored in the position storage unit 144.
In that case, as described above, in order to set a specific position, the subject position determination unit 17 first searches the subject target position and stores it in the position storage unit 144, and thereafter only the detection of the stored position is performed. Applicable for use.

被写体位置決定部17は、被写体の大きさから検知範囲を決定する。
被写体位置決定部17において、検知範囲の決定には、検知範囲DTRGの(x,y)幅が1つのみの固定の場合の第1のモードと、(x,y)幅を、被写体の大きさを測定し(x,y)幅をあらかじめ用意した複数のテーブルから現在の(x、y)幅を超えた(もしくは以下になった)大きさのテーブル値の検知範囲DTRGを選択する第2のモードとの2つのモードがある。
検知範囲DTRGの(x,y)幅テーブルは、たとえば位置検索情報記憶部172に格納される。
被写体位置決定部17は、第1のモードと第2のモードのいずれかを選択でき、これらの機能を有する構成となる。
この検知範囲を被写体の大きさをあらかじめ用意したテーブルから判定して検知範囲を決定するモードにより、被写体の大きさと位置を高速に検知することができる。
The subject position determination unit 17 determines the detection range from the size of the subject.
In the subject position determination unit 17, the detection range is determined using the first mode when the (x, y) width of the detection range DTRG is fixed to one and the (x, y) width according to the size of the subject. Second, a table value detection range DTRG having a size exceeding (or below) the current (x, y) width is selected from a plurality of tables prepared in advance with a (x, y) width. There are two modes:
The (x, y) width table of the detection range DTRG is stored in the position search information storage unit 172, for example.
The subject position determination unit 17 can select either the first mode or the second mode, and has a configuration having these functions.
This detection range is determined from a table in which the size of the subject is prepared in advance and the detection range is determined, so that the size and position of the subject can be detected at high speed.

図4は、本実施形態に係る被写体位置決定部17において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。   FIG. 4 is a diagram illustrating an example of (x, y) width table information of the detection range referred to for position determination in the subject position determination unit 17 according to the present embodiment.

図4において、「No」は被写体の検知範囲の(x,y)幅情報の番号を示す。「x,y」は被写体の検知範囲DTRGの大きさ情報を示し、sBlKは検索ブロック数(画素数)を示す。
この(x,y)幅テーブルTBL2の例では、「No.1」の検知範囲DTRGは「10×10」でブロック数が「2」の場合である。
「No.2」の検知範囲DTRGは「30×30」でブロック数が「4」の場合である。
「No.3」の検知範囲DTRGは「100×100」でブロック数が「8」の場合である。
「No.4」の検知範囲DTRGは「300×300」でブロック数が「12」の場合である。
被写体位置決定部17の位置検索処理部171は、この(x,y)幅テーブルTBL2を参照し、たとえば「No」の小さい方から昇順に、あるいは「No」の大きい方から降順にサーチして、対象被写体に最も適した検知範囲を決定する。
In FIG. 4, “No” indicates the number of (x, y) width information of the subject detection range. “X, y” indicates the size information of the object detection range DTRG, and sBlK indicates the number of search blocks (number of pixels).
In the example of the (x, y) width table TBL2, the detection range DTRG of “No. 1” is “10 × 10” and the number of blocks is “2”.
The detection range DTRG of “No. 2” is “30 × 30” and the number of blocks is “4”.
The detection range DTRG of “No. 3” is “100 × 100” and the number of blocks is “8”.
The detection range DTRG of “No. 4” is “300 × 300” and the number of blocks is “12”.
The position search processing unit 171 of the subject position determination unit 17 refers to the (x, y) width table TBL2, and searches, for example, in ascending order from the smaller “No” or in descending order from the larger “No”. The detection range most suitable for the target subject is determined.

また、被写体位置決定部17は、被写体の大きさから検知範囲DTRGを微調整することが可能に構成される。
検知範囲の微調整は、検知範囲DTRG(x,y)が決定した状態から、あらかじめ用意した微調整値テーブルもしくは微調整式[x1=x*sP1,y1=y*sP2]により検知範囲の(x,y)幅を微調整する機能を有する構成となる。
ここでは、「sP1」、「sP2」は調整用パラメータで、たとえば1<sP1,sP2<2の値をとる。
この機能により、通常検知範囲内で検知可能な被写体に小さな揺れや移動が発生しても、被写体の範囲から外れることなく検知することができる。
特に、被写体が光源の場合は効果的である。
The subject position determination unit 17 is configured to be able to finely adjust the detection range DTRG from the size of the subject.
For fine adjustment of the detection range, from the state in which the detection range DTRG (x, y) is determined, the fine adjustment value table prepared in advance or the fine adjustment formula [x1 = x * sP1, y1 = y * sP2] x, y) The configuration has a function of finely adjusting the width.
Here, “sP1” and “sP2” are adjustment parameters and take values of, for example, 1 <sP1, sP2 <2.
With this function, even if a small shake or movement occurs in a subject that can be detected within the normal detection range, it can be detected without departing from the subject range.
This is particularly effective when the subject is a light source.

次に、本実施形態に係る被写体位置決定部17における検知位置の決定処理を、図5〜図8に関連付けて具体的に説明する。
図5および図6は、本実施形態に係る被写体位置決定部17における検知位置の決定処理を具体的に説明するためのフローチャートであって、図5は位置決定処理を行う場合のフローチャートであり、図6は位置決定処理を行わない場合のフローチャートである。
図7は、1つの光源もしくは反射光の被写体の検索法を説明するための図である。
図8は、検知範囲の微調整処理を説明するための図である。
以下の処理は位置検索処理部171が中心に行うことになるが、ここでは、被写体位置決定部17の処理として説明する。
Next, the detection position determination process in the subject position determination unit 17 according to the present embodiment will be specifically described with reference to FIGS.
5 and 6 are flowcharts for specifically explaining the detection position determination process in the subject position determination unit 17 according to the present embodiment, and FIG. 5 is a flowchart in the case of performing the position determination process. FIG. 6 is a flowchart when the position determination process is not performed.
FIG. 7 is a diagram for explaining a method of searching for a subject of one light source or reflected light.
FIG. 8 is a diagram for explaining detection range fine adjustment processing.
The following processing is performed mainly by the position search processing unit 171. Here, the processing will be described as processing by the subject position determination unit 17.

被写体位置決定部17は、位置決定処理を行うか否かを判定する(ST1)。
被写体位置決定部17は、ステップST1において位置決定処理を行うと判定すると、位置検索情報記憶部172に格納されている(x,y)幅テーブルTBL2を参照してサーチ(調査)することにより検知範囲DTRGの(x,y)幅を決定する(ST2)。
そして、被写体位置決定部17は、たとえば光源解析処理部14の位置記憶部144における検知位置に関する情報の記憶領域をクリアする(ST3)。
次に、被写体位置決定部17は、検知範囲DTRGの(x,y)幅で対象周波数のピクセル数を調査する(ST4)。
The subject position determination unit 17 determines whether or not to perform position determination processing (ST1).
When the subject position determination unit 17 determines that the position determination process is to be performed in step ST1, the subject position determination unit 17 performs detection (search) with reference to the (x, y) width table TBL2 stored in the position search information storage unit 172. The (x, y) width of the range DTRG is determined (ST2).
Then, for example, the subject position determination unit 17 clears the storage area for information on the detected position in the position storage unit 144 of the light source analysis processing unit 14 (ST3).
Next, the subject position determination unit 17 investigates the number of pixels of the target frequency with the (x, y) width of the detection range DTRG (ST4).

ステップST4における処理を図7および図8に関連付けて説明する。
被写体位置決定部17は、図7(A)〜(D)に示すような方法で、(x,y)幅テーブルTBL2を参照して、1つの光源もしくは反射光の被写体の検索を行う。
まず、図7(A)に示すように、検索の最小単位を1ブロックBLKとする。
図7(A)には、縦×横の検索ピクセルspixの例として2×2の場合が示されている。
一つのブロックの検知強度は全ピクセルの総和を2×2で除した値となる。
ここで、検索を開始する。
The process in step ST4 will be described with reference to FIGS.
The subject position determination unit 17 refers to the (x, y) width table TBL2 and searches for a subject of one light source or reflected light by a method as shown in FIGS.
First, as shown in FIG. 7A, the minimum unit of search is one block BLK.
FIG. 7A shows a 2 × 2 case as an example of a vertical × horizontal search pixel spix.
The detection intensity of one block is a value obtained by dividing the sum of all pixels by 2 × 2.
Here, the search is started.

図7(B)に示すように、1回の横ラインLLNの検索処理を行う。
この場合、検索ブロックsblk=2であり、2×2ブロックを横ライン(x方向)LLNに検索する。
検索ブロックsblkが2の場合、縦(y)2、横(x)2であることから、検出したブロック数をカウントする。
ブロックBLKの符号2,3,4で示されたブロックで検出できていればカウント値は3となる。
被写体位置決定部17は、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した横ラインLLNの情報を位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全横ライン検索する。
次に、1回の縦ラインの検索処理を行う。
As shown in FIG. 7B, one horizontal line LLN search process is performed.
In this case, the search block sblk = 2, and the 2 × 2 block is searched for the horizontal line (x direction) LLN.
When the search block sblk is 2, since it is vertical (y) 2 and horizontal (x) 2, the number of detected blocks is counted.
If the block BLK is detected by the blocks indicated by reference numerals 2, 3, and 4, the count value is 3.
In the case of a table in which the number of search blocks sblk is large, the subject position determination unit 17 repeats the process with reference to the next number sblk in the detection range table until the count value becomes 1.
Information on the detected horizontal line LLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, one vertical line search process is performed.

図7(C)に示すように、1回の縦ラインVLNの検索処理を行う。
被写体位置決定部17は、位置検索情報記憶部172に記憶している横ラインLLNの検知ライン中から、縦方向に検索ブロック数sblkで示されるブロック幅で検索を行う。
検索方法は横ラインLLNの検索と同様であり、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した縦ラインVLNを位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全縦ライン検索する。
次に、検知範囲DTRGの検索処理を行う。
As shown in FIG. 7C, one vertical line VLN search process is performed.
The subject position determination unit 17 searches the detection line of the horizontal line LLN stored in the position search information storage unit 172 with a block width indicated by the number of search blocks sblk in the vertical direction.
The search method is the same as the search of the horizontal line LLN. In the case of a table in which the number of search blocks sblk is large, the process is repeated with reference to the next number sblk in the detection range table until the count value becomes 1.
The detected vertical line VLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, a search process for the detection range DTRG is performed.

図7(D)に示すように、検知範囲DTRGの検索処理を行う。
上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
次に検知範囲DTRGの決定処理を行う。
この場合も上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
そして、被写体位置決定部17は、検知範囲[(x,y)−(xe,ye)]DTRGを決定する。
そして、決定範囲に微調整用パラメータsP1,sP2の倍率で微調整する。
なお、以上の処理は、複数の光源でも同時に行うことが可能である。
As shown in FIG. 7D, the detection process of the detection range DTRG is performed.
A continuous vertical and horizontal block detected by the horizontal line LLN and the vertical line VLN from the above processing is defined as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Next, the detection range DTRG is determined.
Also in this case, continuous vertical and horizontal blocks that can be detected by the horizontal line LLN and the vertical line VLN from the above processing are set as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Then, the subject position determination unit 17 determines the detection range [(x, y) − (xe, ye)] DTRG.
Then, fine adjustment is performed within the determination range with the magnification of the fine adjustment parameters sP1 and sP2.
The above processing can be performed simultaneously with a plurality of light sources.

被写体位置決定部17は、図8(A)〜(F)に示すような方法で、検知範囲DTRGの微調整処理を行う。
被写体位置決定部17は、各決定範囲において、検知強度の範囲微調整は各検知範囲毎に4方向もしくは8方向に検知強度を調査し、最も検知強度の高い場所で最終決定する。
この例では、図8(B)で1ブロック上の検知強度を調査し、図8(C)で1ブロック右の検知強度を調査し、図8(D)で1ブロック下の検知強度を調査し、図8(E)で1ブロック左の検知強度を調査する。
そして、図8(F)で、最も検知強度の高い場所で最終的な検知範囲DTRGを決定する。
換言すれば、検知範囲DTRGのほぼ中央部に被写体OBJが位置する場所を最終的な検知範囲DTRGとして決定する。
The subject position determination unit 17 performs fine adjustment processing of the detection range DTRG by a method as shown in FIGS.
The subject position determination unit 17 finely adjusts the detection intensity in each determination range, investigates the detection intensity in four directions or eight directions for each detection range, and finally determines the detection intensity in a place with the highest detection intensity.
In this example, the detection intensity on one block is investigated in FIG. 8 (B), the detection intensity on the right of one block is investigated in FIG. 8 (C), and the detection intensity below one block is examined in FIG. 8 (D). Then, in FIG. 8E, the detection intensity on the left of one block is investigated.
Then, in FIG. 8F, the final detection range DTRG is determined at the place where the detection intensity is the highest.
In other words, the place where the subject OBJ is located at substantially the center of the detection range DTRG is determined as the final detection range DTRG.

ステップST4において対象周波数のブロック数を調査した後、被写体位置決定部17は、対象周波数のブロック数が0より大きいか否かの判定を行う(ST5)。
ステップST5で対象周波数のブロック数が0より大きいと判定すると、被写体位置決定部17は、光源解析処理部14の位置記憶部144へ検索して得た検知位置情報を記憶する(ST6)。
そして、位置記憶部144のテーブルTBL1の番号「No」を+1する(ST7)。
被写体位置決定部17は、次の検知範囲DTRG(x,y)を指定する(ST8)。
被写体位置決定部17は、ステップST5で対象周波数のブロック数が0であると判定すると、ステップST6,ST7の処理を行わず、ステップST8の処理に移行する。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST5〜ST8の処理を繰り返す。
ステップST9において、対象画像の検知が完了すると、位置記憶部144の検知位置情報から(x,y)方向に連続する番号のエリアを統合し(ST10)、検知位置の数を取得する(ST11)。
After examining the number of blocks of the target frequency in step ST4, the subject position determination unit 17 determines whether or not the number of blocks of the target frequency is greater than 0 (ST5).
If it is determined in step ST5 that the number of blocks of the target frequency is greater than 0, the subject position determination unit 17 stores the detected position information obtained by searching the position storage unit 144 of the light source analysis processing unit 14 (ST6).
Then, the number “No” in the table TBL1 of the position storage unit 144 is incremented by 1 (ST7).
The subject position determination unit 17 designates the next detection range DTRG (x, y) (ST8).
If the subject position determination unit 17 determines in step ST5 that the number of blocks of the target frequency is 0, the process proceeds to step ST8 without performing steps ST6 and ST7.
The subject position determination unit 17 repeats the processes of steps ST5 to ST8 until the detection of the target image is completed (ST9).
In step ST9, when the detection of the target image is completed, areas having numbers consecutive in the (x, y) direction are integrated from the detected position information in the position storage unit 144 (ST10), and the number of detected positions is acquired (ST11). .

被写体位置決定部17は、ステップST1において位置決定処理を行わないと判定すると、図6のステップST12からの処理に移行する。
被写体位置決定部17は、位置記憶部144から指定番号を取得する(ST12)。
ここで、被写体位置決定部17は、指定番号があるか否かを判定する(ST13)。
ステップST13において指定番号があると判定すると、被写体位置決定部17は、指定番号から位置記憶部144の検知範囲DTRGの(x,y)幅情報を取得し(ST14)、検知範囲DTRGの被写体の状態を検知(検索)する(ST15)。
そして、位置記憶部144のテーブルTBL1の番号「No」を+1する(ST16)。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST14〜ST16の処理を繰り返す。
被写体位置決定部17は、ステップST13において指定番号がないと判定すると、ステップST14〜ST17の処理は行わず、全画素の被写体の状態を検知(検索)する。
If the subject position determination unit 17 determines not to perform the position determination process in step ST1, the subject position determination unit 17 proceeds to the process from step ST12 in FIG.
The subject position determination unit 17 acquires the designated number from the position storage unit 144 (ST12).
Here, the subject position determination unit 17 determines whether or not there is a designated number (ST13).
If it is determined in step ST13 that there is a designated number, the subject position determining unit 17 acquires (x, y) width information of the detection range DTRG in the position storage unit 144 from the designated number (ST14), and the subject in the detection range DTRG is obtained. A state is detected (searched) (ST15).
Then, the number “No” in the table TBL1 of the position storage unit 144 is incremented by 1 (ST16).
The subject position determination unit 17 repeats the processes of steps ST14 to ST16 until the detection of the target image is completed (ST9).
If the subject position determination unit 17 determines that there is no designated number in step ST13, the subject position determination unit 17 detects (searches) the subject state of all pixels without performing the processing of steps ST14 to ST17.

次に、本実施形態に係る追尾処理に伴って検知位置情報の補正を行う処理について説明する。   Next, a process for correcting the detected position information along with the tracking process according to the present embodiment will be described.

上述したように、位置検索処理部171では、判定部16にて得た検知状態から現在の位置を検索する。その際、位置検索処理部171または追尾処理部が、追尾処理が必要かどうかのフラグを確認し追尾処理が必要な場合は追尾処理を行う。
追尾処理部173は、外部のタイマー処理部18を監視し、任意の時刻や一定間隔条件に一致した時のみ追尾処理を行う機能を有する。
既に述べたように、追尾処理部173は、基本的に、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、位置を補正する機能を有する。
As described above, the position search processing unit 171 searches the current position from the detection state obtained by the determination unit 16. At this time, the position search processing unit 171 or the tracking processing unit checks a flag indicating whether the tracking process is necessary, and performs the tracking process when the tracking process is necessary.
The tracking processing unit 173 has a function of monitoring the external timer processing unit 18 and performing a tracking process only when it matches an arbitrary time or a constant interval condition.
As already described, the tracking processing unit 173 basically has a positional shift caused by a long-term secular change or an environmental condition between the position of the subject to be detected and the imaging device. It has a function of correcting the position while correcting the position shift while adjusting the correction state and time according to the elapsed time of the position shift.

タイマー処理部18は、任意の時刻や一定間隔の時間をカウント(計時)し、被写体位置決定部17に情報を通知する。
基本的に、追尾処理部173が、タイマー判定を行い、時刻条件が通知情報と一致した場合に追尾処理を1度行う。
追尾処理部173は、たとえば時刻条件が毎分である場合、タイマー処理部18が通知する毎分カウントを基に追尾処理を行う。
また、追尾処理部173は、時刻条件が、たとえば午前8時20分00秒であれば、タイマー処理部18が通知する時刻を基に追尾処理を行う。
The timer processing unit 18 counts (measures time) an arbitrary time or a predetermined interval time, and notifies the subject position determination unit 17 of the information.
Basically, the tracking processing unit 173 performs timer determination and performs tracking processing once when the time condition matches the notification information.
For example, when the time condition is every minute, the tracking processing unit 173 performs the tracking process based on the count per minute notified by the timer processing unit 18.
Further, if the time condition is, for example, 8:20:00 am, tracking processing unit 173 performs tracking processing based on the time notified by timer processing unit 18.

位置検索情報記憶部172は、追尾処理の情報をテーブル化した追尾タイムテーブルTTRKをもち、追尾経過を記憶する。
追尾処理部173は、追尾カウンタ1731を有し、たとえば追尾処理の時刻条件が毎分で、追尾タイムテーブルTTRKが4テーブルあるとき、1回目の一致でテーブルTTRK1の処理、2回目の一致でテーブルTTRK2の処理、という手順で追尾処理を行い、5回目の一致で追尾カウンタが0になり、再度テーブルTTRK0からの処理を行う。
追尾処理部173は、1つの検知位置に対して4×1分の時間で追尾し、2つの検知位置があれば、4×1×2分の時間が必要となる。
追尾処理部173における追尾処理は、追尾タイムテーブル数分のパラメータがあり、追尾する範囲のx、y軸方向を設定できる。
追尾処理部173は、追尾タイムテーブルTTRKが4テーブルあるときには、4方向の近傍位置での追尾処理を行う。
The position search information storage unit 172 has a tracking time table TTRK in which tracking processing information is tabulated, and stores the tracking progress.
The tracking processing unit 173 includes a tracking counter 1731. For example, when the time condition of the tracking process is every minute and there are four tracking time tables TTRK, the table TTRK1 is processed by the first match and the table by the second match. The tracking process is performed according to the procedure of TTRK2, and the tracking counter is set to 0 at the fifth match, and the process from the table TTRK0 is performed again.
The tracking processing unit 173 tracks 4 × 1 minutes with respect to one detection position, and if there are two detection positions, 4 × 1 × 2 minutes are required.
The tracking processing in the tracking processing unit 173 has parameters for the number of tracking time tables, and the x and y axis directions of the tracking range can be set.
When there are four tracking time tables TTRK, the tracking processing unit 173 performs tracking processing at positions near the four directions.

図9は、位置検索情報記憶部に格納される追尾タイムテーブルの形成例を示す図である。
図10は、被写体のずれ方向と追尾タイムテーブルとの関係を説明するための図である。
FIG. 9 is a diagram illustrating an example of forming a tracking time table stored in the position search information storage unit.
FIG. 10 is a diagram for explaining the relationship between the subject shift direction and the tracking time table.

図9および図10において、「No」は検知対象の被写体OBJ1,OBJ2の番号を示し、この例では、「No.1」、「No.2」の2つの被写体がある。
そして、本実施形態では、図9に示すように、各被写体OBJ1、OBJ2に対応して追尾タイムテーブルTTRK1、TTRK2が形成されている。両テーブルTTRK1、TTRK2とも同様の構成を有する。
ID0,ID1,ID2,ID3は、被写体OBJ(1,2)の検知範囲DTRG(1,2)が図10中に設定した直交座標のX方向、Y方向へのずれる位置を示している。
図10の例では、「ID0」は+Y方向、「ID1」は−X方向、「ID2」は−Y方向、「ID3」は+X方向であることを示している。
追尾タイムテーブルTTRKにおいて、(Xt,Yy)は各方向ID0,ID1,ID2,ID3における補正値を示している。
9 and 10, “No” indicates the number of the subjects OBJ1 and OBJ2 to be detected. In this example, there are two subjects “No. 1” and “No. 2”.
In this embodiment, as shown in FIG. 9, tracking time tables TTRK1 and TTRK2 are formed corresponding to the subjects OBJ1 and OBJ2. Both tables TTRK1, TTRK2 have the same configuration.
ID0, ID1, ID2, and ID3 indicate positions where the detection range DTRG (1,2) of the subject OBJ (1,2) is shifted in the X direction and the Y direction of the orthogonal coordinates set in FIG.
In the example of FIG. 10, “ID0” indicates the + Y direction, “ID1” indicates the −X direction, “ID2” indicates the −Y direction, and “ID3” indicates the + X direction.
In the tracking time table TTRK, (Xt, Yy) indicates a correction value in each direction ID0, ID1, ID2, ID3.

方向ID0において、Xt=0、Yt=−1となっているのは、方向ID0に位置ずれが生じ、このずれは検知範囲DTRGから+Y方向にずれていることから、Y方向の座標を「−1」して補正するようにという意味である。
方向ID1において、Xt=1、Yt=0となっているのは、方向ID1に位置ずれが生じ、このずれは検知範囲DTRGから−X方向にずれていることから、X方向の座標を「+1」して補正するようにという意味である。
方向ID2において、Xt=0、Yt=1となっているのは、方向ID2に位置ずれが生じ、このずれは検知範囲DTRGから−Y方向にずれていることから、Y方向の座標を「+1」して補正するようにという意味である。
方向ID3において、Xt=−1、Yt=0となっているのは、方向ID3に位置ずれが生じ、このずれは検知範囲DTRGから+X方向にずれていることから、X方向の座標を「−1」して補正するようにという意味である。
In the direction ID0, Xt = 0 and Yt = −1 are caused by a positional shift in the direction ID0, and this shift is shifted in the + Y direction from the detection range DTRG. 1 ”means to correct.
In the direction ID1, Xt = 1 and Yt = 0 are caused by a positional shift in the direction ID1, and this shift is shifted in the −X direction from the detection range DTRG. It means to correct it.
The reason why Xt = 0 and Yt = 1 in the direction ID2 is that there is a positional shift in the direction ID2, and this shift is shifted in the −Y direction from the detection range DTRG. It means to correct it.
In the direction ID3, Xt = −1 and Yt = 0, because a positional shift occurs in the direction ID3, and this shift is shifted in the + X direction from the detection range DTRG. 1 ”means to correct.

追尾タイムテーブルTTRKにおいて、「Func.No」は各方向ID0,ID1,ID2,ID3における関数番号f1〜f4を示している。
「Count」は追尾カウンタ1731のカウント値を示している。
In the tracking time table TTRK, “Func.No” indicates function numbers f1 to f4 in the directions ID0, ID1, ID2, and ID3.
“Count” indicates the count value of the tracking counter 1731.

追尾処理部173における追尾処理は、位置記憶部144の位置検知メモリの(x、y)座標を追尾タイムテーブルの補正値(Xt、Yt)で補正した近傍位置の輝度信号のピクセル値と、任意の第1の判定値Sを比較し、ピクセル値の方が大きい場合には追尾カウンタ1731を+1する。
つまり、追尾処理部173は、f(x+Xt,y+Yt)>Sのとき追尾カウンタ1731を+1である。
追尾処理部173は、その後も追尾処理を繰り返し行い続け、追尾カウンタ1731の値が任意の第2の判定値Dで比較した結果より大きくなった場合に、近傍位置への位置ずれと判定し、位置記憶部144にその位置を記憶する機能を持つ。
追尾の第2の判定値Dで比較することで、ノイズ成分の除去を行い、安定的に追尾位置を補正できる。
The tracking processing in the tracking processing unit 173 includes a pixel value of a luminance signal at a nearby position obtained by correcting the (x, y) coordinates of the position detection memory of the position storage unit 144 with the correction value (Xt, Yt) of the tracking time table, and an arbitrary value. Are compared, and if the pixel value is larger, the tracking counter 1731 is incremented by one.
That is, the tracking processing unit 173 sets the tracking counter 1731 to +1 when f (x + Xt, y + Yt)> S.
The tracking processing unit 173 continues to repeatedly perform the tracking process after that, and when the value of the tracking counter 1731 becomes larger than the result of the comparison with the arbitrary second determination value D, the tracking processing unit 173 determines that the position is shifted to a nearby position. The position storage unit 144 has a function of storing the position.
By comparing with the second determination value D for tracking, noise components can be removed and the tracking position can be stably corrected.

図9の追尾タイムテーブルTTRK1の例では、追尾処理部173は、方向ID2におおいてたとえばf2(x+Xt,y+Yt)>Sのとき追尾カウンタ1731を+1する。
追尾処理部173は、その後も追尾処理を繰り返し行い続け、追尾カウンタ1731の値が任意の第2の判定値Dで比較した結果より大きくなった場合、図9の例ではカウント値が「55」より大きくなり、たとえば「判定値D=60」を超えた場合に、近傍位置への位置ずれと判定し、位置記憶部144にその位置を記憶する機能を持つ。
In the example of the tracking time table TTRK1 in FIG. 9, the tracking processing unit 173 increments the tracking counter 1731 by 1 when, for example, f2 (x + Xt, y + Yt)> S in the direction ID2.
The tracking processing unit 173 continues to perform the tracking processing thereafter, and when the value of the tracking counter 1731 becomes larger than the result of comparison with the arbitrary second determination value D, the count value is “55” in the example of FIG. For example, when “determination value D = 60” is exceeded, it is determined that the position shifts to a nearby position, and the position storage unit 144 has a function of storing the position.

以上の処理により、短時間での微動成分にもほとんど影響を受けずに、長期にわたる経年変化において、検知位置を正しく補正して安定的に高精度な輝度情報を測定することが可能となる。   With the above processing, it is possible to measure luminance information stably and stably by correcting the detection position correctly in a long-term secular change with little influence on the fine movement component in a short time.

以下、位置記憶部144の検出位置メモリの番号Noの追尾処理を図11、図12、図13に関連付けて説明する。   Hereinafter, the tracking process of the number No. of the detected position memory of the position storage unit 144 will be described with reference to FIGS. 11, 12, and 13.

図11は、位置記憶部の検出位置メモリの番号Noの基本的な追尾処理を説明するためのフローチャートである。   FIG. 11 is a flowchart for explaining basic tracking processing of the number No. of the detected position memory of the position storage unit.

追尾処理部173は、位置記憶部144の検知位置メモリのNo情報を取得し(ST21)、次回のタイマー時刻を取得する(ST22)。
そして、追尾処理部173は、タイマー処理部18を監視して、追尾条件であるタイマー時刻になると(ST23)、位置検索情報記憶部172に格納されている追尾タイムテーブル番号を指定する(ST24)。
追尾処理部173は、位置記憶部144の位置検知メモリの(x、y)座標および追尾タイムテーブルTTRKの補正値(Xt、Yt)を取得する(ST25)。
そして、追尾処理部173は、位置記憶部144の位置検知メモリの(x、y)座標を追尾タイムテーブルTTRKの補正値(Xt、Yt)で補正した近傍位置の輝度信号のピクセル値と、任意の第1の判定値Sを比較し(ST26)、ピクセル値の方が大きい場合には追尾カウンタ1731を+1する(ST27)。
つまり、追尾処理部173は、f(x+Xt,y+Yt)>Sのとき追尾カウンタ1731を+1である。
追尾処理部173は、その後も追尾処理を繰り返し行い続け、追尾カウンタ1731の値が任意の第2の判定値Dで比較し(ST28)、その結果カウント値が第2の判定値より大きくなった場合に、近傍位置への位置ずれと判定し、位置記憶部144にその位置を記憶する。
すなわち、追尾処理部173は、位置記憶部144の検知位置メモリ(x,y)座標を、座標(x+Xt,y+Yt)で更新し(ST29)、追尾カウンタ1731の値を0にクリアする(ST30)。
次いで、追尾タイムテーブル番号を、たとえば+1し(ST31)、次回のタイマー時刻をセットする(ST32)。
ただし、ステップST31において、最後の追尾タイムテーブル番号であった場合には、追尾タイムテーブル番号を0とする。
追尾の第2の判定値Dで比較することで、ノイズ成分の除去を行い、安定的に追尾位置を補正できる。
The tracking processing unit 173 acquires No information in the detected position memory of the position storage unit 144 (ST21), and acquires the next timer time (ST22).
Then, the tracking processing unit 173 monitors the timer processing unit 18, and when the timer time that is the tracking condition is reached (ST23), the tracking time table number stored in the position search information storage unit 172 is designated (ST24). .
The tracking processing unit 173 acquires the (x, y) coordinates of the position detection memory of the position storage unit 144 and the correction value (Xt, Yt) of the tracking time table TTRK (ST25).
Then, the tracking processing unit 173 arbitrarily calculates the pixel value of the luminance signal at the nearby position obtained by correcting the (x, y) coordinates of the position detection memory of the position storage unit 144 with the correction value (Xt, Yt) of the tracking time table TTRK. The first determination value S is compared (ST26), and if the pixel value is larger, the tracking counter 1731 is incremented by 1 (ST27).
That is, the tracking processing unit 173 sets the tracking counter 1731 to +1 when f (x + Xt, y + Yt)> S.
The tracking processing unit 173 continues to repeat the tracking process thereafter, and the value of the tracking counter 1731 is compared with an arbitrary second determination value D (ST28), and as a result, the count value becomes larger than the second determination value. In this case, it is determined that the position is shifted to a nearby position, and the position is stored in the position storage unit 144.
That is, the tracking processing unit 173 updates the detected position memory (x, y) coordinates of the position storage unit 144 with the coordinates (x + Xt, y + Yt) (ST29), and clears the value of the tracking counter 1731 to 0 (ST30). .
Next, the tracking time table number is incremented by 1 (ST31), for example, and the next timer time is set (ST32).
However, if it is the last tracking time table number in step ST31, the tracking time table number is set to zero.
By comparing with the second determination value D for tracking, noise components can be removed and the tracking position can be stably corrected.

図11の追尾処理のように、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、位置を補正することで、被写体の輝度情報を永続的に高精度に取得できるという効果が得られる。   As in the tracking process of FIG. 11, even if there is a positional deviation caused by a long-term secular change or an environmental condition between the position of the subject to be detected and the imaging apparatus, the correction of the positional deviation is performed. By correcting the position while adjusting the correction state and time according to the elapsed time of the deviation, it is possible to obtain the effect that the luminance information of the subject can be acquired permanently with high accuracy.

図12は、位置記憶部の検出位置メモリの番号Noの第2の追尾処理を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining the second tracking process of the number No. of the detected position memory of the position storage unit.

図12に示す第2の追尾処理と図11に示す基本的な追尾処理とが異なる点は、位置補正の時間を検知対象の被写体位置範囲毎に設定することにある。
具体的には、追尾タイムテーブルTTRK1A,TTRK2A毎にタイマー一致時間を設定するメモリ領域を持つことで、被写体の検知位置範囲毎に追尾時間を設定できる。
The difference between the second tracking process shown in FIG. 12 and the basic tracking process shown in FIG. 11 is that the time for position correction is set for each subject position range to be detected.
Specifically, by having a memory area for setting the timer matching time for each tracking time table TTRK1A, TTRK2A, the tracking time can be set for each detection position range of the subject.

フロー処理においては、ステップST32Aにおいて、追尾処理部173は、追尾タイムテーブルから次回のタイマー時刻をセットする。
図12におけるその他の処理は、基本的に図11と同様である。
In the flow process, in step ST32A, the tracking processing unit 173 sets the next timer time from the tracking time table.
Other processes in FIG. 12 are basically the same as those in FIG.

図12の追尾処理のように、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と被写体の検知範囲毎に時間の調整をしながら、位置を補正することで、被写体固有の状態で被写体の輝度情報を永続的に高精度に取得できるという効果が得られる。   As in the tracking process of FIG. 12, even when there is a positional deviation caused by a long-term secular change or an environmental condition between the position of the subject to be detected and the imaging apparatus, the correction of the positional deviation is performed. The effect is that the brightness information of the subject can be acquired permanently and accurately in a subject-specific state by correcting the position while adjusting the correction time and the time for each subject detection range according to the elapsed time of the deviation. Is obtained.

図13は、位置記憶部の検出位置メモリの番号Noの第3の追尾処理を説明するためのフローチャートである。   FIG. 13 is a flowchart for explaining the third tracking process of the number No. of the detected position memory of the position storage unit.

図13に示す第3の追尾処理と図12に示す第2の追尾処理とが異なる点は、位置補正の追尾位置判定に位置ずれ頻度判定を追加して、位置補正を可能にするように構成したことにある。   A difference between the third tracking process shown in FIG. 13 and the second tracking process shown in FIG. 12 is that a position deviation frequency determination is added to the tracking position determination of the position correction to enable the position correction. It is to have done.

図13のフロー処理は図12のフロー処理のステップST28とステップST29との間に、ステップST33、ST34の処理が付加されている。
ステップST33においては、カウントが第2の判定値Dを超えると、追尾タイムテーブルの各IDのカウント値の総和を取得する。
そして、ステップST34において、取得した総和が位置ずれ頻度判定値としての、第3の判定値F以上で第4の判定値L以下である場合に、ステップST29で検知位置メモリを更新する。
In the flow process of FIG. 13, steps ST33 and ST34 are added between step ST28 and step ST29 of the flow process of FIG.
In step ST33, when the count exceeds the second determination value D, the sum of the count values of each ID in the tracking time table is acquired.
In step ST <b> 34, when the acquired sum is not less than the third determination value F and not more than the fourth determination value L as the position shift frequency determination value, the detection position memory is updated in step ST <b> 29.

このように、第3の追尾処理では、追尾判定条件として、位置ずれ頻度判定値を設け、位置ずれの頻度を測定し、判定値より大きい場合には、追尾位置を更新する機能を設けている。
頻度判定するために、追尾タイムテーブルTTRKの各IDのカウント数の総和回数を取得し、頻度判定値と比較する。頻度判定条件の範囲内になった場合に追尾位置を更新する。
As described above, in the third tracking process, a positional deviation frequency determination value is provided as a tracking determination condition, and the frequency of the positional deviation is measured. If the frequency is larger than the determination value, a function of updating the tracking position is provided. .
In order to determine the frequency, the total number of counts of each ID in the tracking time table TTRK is acquired and compared with the frequency determination value. The tracking position is updated when the frequency judgment condition is met.

図13の追尾処理にように、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に加え、その頻度が複数回発生した場合にのみ、位置を補正する。
これにより、夜間等に、光源11が照射する光の範囲が昼間等の明時より大きくID0〜ID3で示す各方向に広がってしまう場合、強風や振動などで一時的に若干の位置ずれが発生した場合でも、測定に影響せず、被写体の輝度情報を永続的に高精度に取得できるという効果が得られる。
As shown in the tracking process of FIG. 13, even if there is a positional deviation caused by a long-term change over time or an environmental condition between the position of the subject to be detected and the imaging apparatus, the correction of the positional deviation is performed. In addition to the elapsed time of the deviation, the position is corrected only when the frequency occurs a plurality of times.
As a result, when the range of light emitted by the light source 11 is larger in the directions indicated by ID0 to ID3 at night or the like than in the daytime or the like, the position is temporarily shifted slightly due to strong winds or vibrations. Even in this case, the luminance information of the subject can be obtained permanently and accurately without affecting the measurement.

次に、本実施形態に係る検知システムの他の構成および機能について詳細に説明する。
はじめに、本実施形態に係る撮像装置12のCCDの構成について説明する。
Next, other configurations and functions of the detection system according to the present embodiment will be described in detail.
First, the configuration of the CCD of the imaging device 12 according to the present embodiment will be described.

図14は、本実施形態に係るCCDの構造を説明するための一例を示す図である。   FIG. 14 is a diagram illustrating an example for explaining the structure of the CCD according to the present embodiment.

図14のCCD20はインターライン転送で、フォトダイオードPD21、垂直転送CCD22、水平転送CCD23、増幅器24を有する。
フォトダイオードPD21は、マトリクス状に配列されている。垂直ライン方向に配列されるフォトダイオードPD21は、列ごとにそれぞれ電荷を転送するための垂直転送CCD22に接続されている。各垂直転送CCD22の端部は、電荷を増幅部に転送する水平転送CCD23にそれぞれ接続されている。また、水平転送CCD23の出力側には増幅器24が接続されている。
14 is an interline transfer, and includes a photodiode PD21, a vertical transfer CCD22, a horizontal transfer CCD23, and an amplifier 24.
The photodiodes PD21 are arranged in a matrix. The photodiodes PD21 arranged in the vertical line direction are connected to a vertical transfer CCD 22 for transferring charges for each column. The end of each vertical transfer CCD 22 is connected to a horizontal transfer CCD 23 that transfers charges to the amplifier. An amplifier 24 is connected to the output side of the horizontal transfer CCD 23.

映像の走査方式はインターレースであり、一画面は飛び越し走査で、奇数フィールドと偶数フィールドとで構成される。
まず、光がフォトダイオードPD21に入射し、電荷蓄積時間にフォトダイオードPD21で電荷が蓄積されていく。この間、フォトダイオードPD21と垂直転送CCD22間は遮断されている。
電荷蓄積時間が終了すると、フォトダイオードPD21と垂直転送CCD22間が導通し、蓄積された電荷が垂直転送CCD22に移される。この直後に、フォトダイオードPD21と垂直転送CCD22間は遮断され、フォトダイオードPD21で次の電荷蓄積が開始する。垂直転送CCD22に移された電荷は、1水平ライン毎に水平転送CCD23に転送され、増幅器24に入力されている。
この1水平ライン毎に、電荷が垂直転送CCD22から水平転送CCD23へ転送されるまでの周波数は、CCD20の水平走査周波数15.734Hzで行われる。垂直転送CCD22のすべての電荷が水平転送CCD23に転送されると、再び垂直転送CCD22とフォトダイオードPD21間が導通し、フォトダイオードPD21の電荷が垂直転送CCD22に移される。フィールド蓄積CCDの場合、光電変換によってフォトダイオードPD21で電荷が蓄積され、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの転送周波数は、59.94Hzとなる。
The video scanning method is interlaced, and one screen is interlaced scanning, and is composed of an odd field and an even field.
First, light enters the photodiode PD21, and charges are accumulated in the photodiode PD21 during the charge accumulation time. During this time, the photodiode PD21 and the vertical transfer CCD 22 are disconnected.
When the charge accumulation time ends, the photodiode PD21 and the vertical transfer CCD 22 are brought into conduction, and the accumulated charge is transferred to the vertical transfer CCD 22. Immediately after this, the photodiode PD21 and the vertical transfer CCD 22 are disconnected, and the next charge accumulation is started in the photodiode PD21. The charges transferred to the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23 for each horizontal line and input to the amplifier 24.
The frequency until charge is transferred from the vertical transfer CCD 22 to the horizontal transfer CCD 23 for each horizontal line is the horizontal scanning frequency of 15.734 Hz of the CCD 20. When all the charges of the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23, the vertical transfer CCD 22 and the photodiode PD 21 are again brought into conduction, and the charges of the photodiode PD 21 are transferred to the vertical transfer CCD 22. In the case of a field accumulation CCD, charges are accumulated in the photodiode PD21 by photoelectric conversion, and the transfer frequency until this charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is 59.94 Hz.

図15は、図14のCCD20の時系列を説明するための図である。   FIG. 15 is a diagram for explaining a time series of the CCD 20 of FIG.

図15に示すように、光電変換によってフォトダイオードPD21で電荷が蓄積されるまでの所要時間をΔT1とし、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの所要時間をΔT2とする。
図15から分かるように、CCD20に入射した光エネルギーは、電荷蓄積時間ΔT1の間積分されながら、電荷蓄積周期ΔT=ΔT1+ΔT2=(1/59.94)秒でサンプリングされていることになる。
As shown in FIG. 15, the required time until charge is accumulated in the photodiode PD21 by photoelectric conversion is ΔT1, and the required time until the charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is ΔT2.
As can be seen from FIG. 15, the light energy incident on the CCD 20 is sampled at the charge accumulation period ΔT = ΔT1 + ΔT2 = (1 / 59.94) seconds while being integrated during the charge accumulation time ΔT1.

さて、図1に示すように、撮像装置12によって撮像された撮像画像の信号は輝度信号抽出部13で輝度信号が抽出され、この輝度信号は、光源解析処理部14に入力されている。
ここで、本実施例に係るCCD20(図14を参照)からの画素の読み出し方法について説明する。
As shown in FIG. 1, a luminance signal is extracted by a luminance signal extraction unit 13 from a captured image signal captured by the imaging device 12, and the luminance signal is input to the light source analysis processing unit 14.
Here, a method for reading out pixels from the CCD 20 (see FIG. 14) according to the present embodiment will be described.

図16は、単板補色フィルタ型CCDの画素の一配列例を示す図である。
また、図17は、奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。
FIG. 16 is a diagram showing an arrangement example of pixels of a single-plate complementary color filter type CCD.
FIG. 17 is a diagram illustrating an example of a combination of color signals in the odd field OFD and the even field EFD.

画素のカラーフィルタは、Ye(イエロ)、Cy(シアン)、Mg(マジェンタ)、G(グリーン)で構成され、図16に図示するような配列になっている。画素の読み出しは、上下の画素を加算して読み出される。この加算する組み合わせは、奇数フィールドOFDと偶数フィールドEFDで、1列ずれる。具体的には、奇数フィールドOFDのnラインでは、(C11+C21)、(C12+C22)、(C13+C23)、(C14+C24)、(C15+C25)、…のようになる。また、偶数フィールドEFDのnラインでは、(C21+C31)、(C22+C32)、(C23+C33)、(C24+C34)、(C25+C35)、…のようになる。
したがって、図17に示すような奇数フィールドOFD、偶数フィールドEFDで色信号が出力される。
いずれも、2画素周期で同一のYe、Cy、Mg、Gの組み合わせの色パターンが繰り返されている。
つまり言い換えると、色信号は2画素周期以上の周波数に重畳して現れる。よって、この色信号を、2画素周期を遮断周波数とするローパスフィルタに通せば、色信号は失われ、輝度信号のみが得られる。
したがって、輝度情報は2画素周期でサンプリングされることになる。
The color filter of the pixel is composed of Ye (yellow), Cy (cyan), Mg (magenta), and G (green), and is arranged as shown in FIG. Pixels are read by adding the upper and lower pixels. The combination to be added is shifted by one column between the odd field OFD and the even field EFD. Specifically, in the n-th line of the odd field OFD, (C11 + C21), (C12 + C22), (C13 + C23), (C14 + C24), (C15 + C25),... In the n-line of the even field EFD, (C21 + C31), (C22 + C32), (C23 + C33), (C24 + C34), (C25 + C35),...
Accordingly, color signals are output in the odd field OFD and the even field EFD as shown in FIG.
In any case, the same color pattern of a combination of Ye, Cy, Mg, and G is repeated in a two-pixel cycle.
In other words, the color signal appears superimposed on a frequency of two pixel periods or more. Therefore, if this color signal is passed through a low-pass filter having a cutoff frequency of two pixel periods, the color signal is lost and only a luminance signal is obtained.
Therefore, luminance information is sampled at a cycle of two pixels.

図16の円形で図示される投影領域REGは、光源による被写体の映像が投影されている様子を示している。なお、画素C35、C36、C45、C46、C55、C56は完全に投影領域REGにはいっており、均一に光が照射されているとする。
輝度情報は、奇数フィールドOFDでは、水平ライン(n+1)のC35、C36、C45、C46の組み合わせに、偶数フィールドEFDでは、水平ラインの(n+1)ラインのC45、C46、C55、C56の組み合わせによって読み出しされる。
A projection area REG indicated by a circle in FIG. 16 shows a state in which an image of a subject by a light source is projected. It is assumed that the pixels C35, C36, C45, C46, C55, and C56 are completely in the projection region REG and are uniformly irradiated with light.
In the odd field OFD, the luminance information is read by a combination of C35, C36, C45, and C46 of the horizontal line (n + 1), and in the even field EFD, by a combination of C45, C46, C55, and C56 of the (n + 1) line of the horizontal line. Is done.

以上に述べたようにして、撮像装置12からの信号のうち輝度信号が光源解析処理部14に出力される。この輝度信号は、第1の演算部141および第2の演算部142に入力されて所定の処理が行われる。   As described above, the luminance signal among the signals from the imaging device 12 is output to the light source analysis processing unit 14. This luminance signal is input to the first calculation unit 141 and the second calculation unit 142 and subjected to predetermined processing.

次に、第1の演算部141および第2の演算部142で行われる輝度信号の処理方法について図18に関連付けて説明する。   Next, a luminance signal processing method performed by the first calculation unit 141 and the second calculation unit 142 will be described with reference to FIG.

図18は、本実施形態に係る光源解析処理部の輝度信号の信号処理方法を説明するためのタイミングチャートである。   FIG. 18 is a timing chart for explaining the signal processing method of the luminance signal of the light source analysis processing unit according to the present embodiment.

図18(A)は、撮像装置12のインターライン走査を示す図で、偶数フィールドEFDもしくは奇数フィールドOFDのいずれかの状態を示す。図18(B)〜(E)はそれぞれ、光源解析処理部14で処理される輝度信号レベルの時間変化を表す波形W1、W2、W3、W4を示し、図18(F)は一定周期で変化する正弦波の波形W5を示す図である。
なお、奇数フィールドOFDと偶数フィールドEFDとで1フレームの走査である。つまり、図18(A)に図示するように、AとB、CとDで1フレームの走査である。
また、以降の説明において、fは周波数を、tは時刻を、θは位相差をそれぞれ示し、ωは(ω=2πf)を満たす。なお、πは円周率である。
FIG. 18A is a diagram showing interline scanning of the imaging device 12 and shows a state of either the even field EFD or the odd field OFD. FIGS. 18B to 18E respectively show waveforms W1, W2, W3, and W4 representing changes in luminance signal level processed by the light source analysis processing unit 14, and FIG. 18F changes at a constant cycle. It is a figure which shows the waveform W5 of the sine wave to do.
The odd field OFD and even field EFD scan one frame. That is, as shown in FIG. 18A, A and B, C and D are one frame scan.
In the following description, f represents frequency, t represents time, θ represents phase difference, and ω satisfies (ω = 2πf). Note that π is the circumference ratio.

図18(B)、(C)に図示する波形W1と波形W2は、後で説明する波形W3と波形W4で示される波形の関数を導出するための波形である。
図18(D)に図示する波形W3は、Aのフィールドの輝度信号とCのフィールドの輝度信号との輝度レベルの差をレベル差ACとした時の、レベル差ACを求める関数の時間発展分布を示す。
また、図18(E)に図示する波形W4は、Bのフィールドの輝度信号とDのフィールドの輝度信号との輝度レベルの差をレベル差BDとした時の、レベル差BDを求める関数の時間発展分布を示す。
なお、波形W3は、波形W1と波形W2から導出され、波形W1と波形W2を足して2で割ったものである。また、波形W4は波形W1と波形W2から導出され、波形W2から波形W1を引いて2で割ったものである。
A waveform W1 and a waveform W2 illustrated in FIGS. 18B and 18C are waveforms for deriving a function of a waveform indicated by a waveform W3 and a waveform W4 described later.
A waveform W3 illustrated in FIG. 18D is a time development distribution of a function for obtaining the level difference AC when the luminance level difference between the luminance signal of the A field and the luminance signal of the C field is the level difference AC. Indicates.
A waveform W4 illustrated in FIG. 18E is a function time for obtaining the level difference BD when the difference in luminance level between the luminance signal of the B field and the luminance signal of the D field is the level difference BD. The development distribution is shown.
Waveform W3 is derived from waveform W1 and waveform W2, and is obtained by adding waveform W1 and waveform W2 and dividing by two. Waveform W4 is derived from waveform W1 and waveform W2, and is obtained by subtracting waveform W1 from waveform W2 and dividing it by 2.

このとき、レベル差ACの第1の時間平均である時間平均SACは図1に示す第1の演算部141で算出される。また、レベル差BDの第2の時間平均である時間平均SBDは第2の演算部142で算出される。
具体的には、時間平均SACは、C35、C36、C45、C46の組み合わせによるAフィールドとCフィールドとの輝度レベル差ACから算出される。
同様に、時間平均SBDは、C45、C46、C55、C56の組み合わせによるBフィールドとDフィールドとのレベル差BDから算出される。
At this time, a time average SAC that is a first time average of the level difference AC is calculated by the first calculation unit 141 shown in FIG. In addition, a time average SBD that is a second time average of the level difference BD is calculated by the second calculation unit 142.
Specifically, the time average SAC is calculated from the luminance level difference AC between the A field and the C field by a combination of C35, C36, C45, and C46.
Similarly, the time average SBD is calculated from the level difference BD between the B field and the D field by a combination of C45, C46, C55, and C56.

その時間平均の算出方法について述べる。
AフィールドとCフィールドとのレベル差ACの時間平均SACは、波形W1に、図18(D)に示す波形W3を掛けてこの時間平均SACを計算する。
また同様に、BフィールドとDフィールドとのレベル差BDの時間平均SBDは、C45、C46、C55、C56の組み合わせによる画素に照射される光の時間変化を表す波形に、図18(E)に示す波形W4を掛けてこの時間平均SBDを計算する。
The calculation method of the time average is described.
The time average SAC of the level difference AC between the A field and the C field is calculated by multiplying the waveform W1 by the waveform W3 shown in FIG.
Similarly, the time average SBD of the level difference BD between the B field and the D field is a waveform representing the time change of light irradiated to the pixel by the combination of C45, C46, C55, and C56, as shown in FIG. The time average SBD is calculated by multiplying the waveform W4 shown.

はじめに、時間平均SACの算出方法について具体的に説明する。
波形W3を数式で表す。まず、波形W1、波形W2は以下のようなフーリエ級数で表せる。
First, a method for calculating the time average SAC will be specifically described.
The waveform W3 is expressed by a mathematical expression. First, the waveform W1 and the waveform W2 can be expressed by the following Fourier series.

Figure 2013172320
Figure 2013172320

ここで、波形W1とW2は同一周期f2を有するものとする。(1)式と(2)式より、波形W3は(4)式のように表せる。   Here, it is assumed that the waveforms W1 and W2 have the same period f2. From equation (1) and equation (2), waveform W3 can be expressed as equation (4).

Figure 2013172320
Figure 2013172320

ところで、図18(F)に図示する周期f1を有する波形W5は(5)、(6)式のような正弦波で表せる。   By the way, the waveform W5 having the period f1 shown in FIG. 18F can be represented by a sine wave as shown in equations (5) and (6).

Figure 2013172320
Figure 2013172320

(4)式によって表される波形W3に(5)式で表せる正弦波W5を掛けると(7)式となる。   When the waveform W3 represented by the equation (4) is multiplied by the sine wave W5 represented by the equation (5), the equation (7) is obtained.

Figure 2013172320
Figure 2013172320

次に、時刻0から時刻Tまでにおける(7)式の時間平均をとる。(7)式の右辺に示す各項の内、時間tを含む項は交流信号であるから、その時間平均は0である。
したがって、(ω−(2n−1)ω=0)である時のみ、定数cosθと定数sinθが残り、時間平均SACは(8)式のようになる。
Next, the time average of the equation (7) from time 0 to time T is taken. Of the terms shown on the right side of the equation (7), the term including time t is an AC signal, so the time average is zero.
Therefore, only when (ω 1 − (2n−1) ω 2 = 0), the constant cos θ 1 and the constant sin θ 1 remain, and the time average SAC is expressed by the equation (8).

Figure 2013172320
Figure 2013172320

このようにして、時間平均SACが第1の演算部141にて求まる。時間平均SBDも同様にして第2の演算部142にて求められ、(9)式で表される。   In this way, the time average SAC is obtained by the first calculation unit 141. Similarly, the time average SBD is obtained by the second calculation unit 142 and is expressed by equation (9).

Figure 2013172320
Figure 2013172320

さて、(8)式と(9)式で表される時間平均SACとSBDとの2乗和(SAC +SBD )は(10)式で表される。 Now, the sum of squares (S AC 2 + S BD 2 ) of the time average SAC and SBD expressed by the equations (8) and (9) is expressed by the equation (10).

Figure 2013172320
Figure 2013172320

この(10)式より、CCD20(図19を参照)に入射される光に(f=(2n−1)f)なる周波数成分が含まれているとき、(10)式で表される波形の成分が検出される。 From this equation (10), when the frequency component (f 1 = (2n−1) f 2 ) is included in the light incident on the CCD 20 (see FIG. 19), it is expressed by the equation (10). Waveform components are detected.

次に、光源11に含まれる周波数成分について考察する。
図19は、光源11に含まれる周波数成分についての波形W6を示す図である。なお、光源11は、周波数f3で時間τの間、輝度レベルL1で発光している。
Next, frequency components included in the light source 11 will be considered.
FIG. 19 is a diagram illustrating a waveform W <b> 6 for the frequency component included in the light source 11. The light source 11 emits light at the luminance level L1 at the frequency f3 for the time τ.

この波形W6をフーリエ級数に展開する。波形W6は、周期(T=1/f3)の周期関数であり、(ω3=2πf3)とすると、(11)式のようにフーリエ級数の一般式で表される。 This waveform W6 is developed into a Fourier series. The waveform W6 is a periodic function of a period (T 3 = 1 / f 3 ). When (ω 3 = 2πf 3 ), the waveform W6 is represented by a general formula of Fourier series as shown in Expression (11).

Figure 2013172320
Figure 2013172320

(11)式の各係数a、a、bは波形W6より(12)〜(14)式のように求まる。 The coefficients a 0 , a n , and b n in the equation (11) are obtained from the waveform W6 as in the equations (12) to (14).

Figure 2013172320
Figure 2013172320

したがって、波形W6のフーリエ級数は、(15)式で表される。   Therefore, the Fourier series of the waveform W6 is expressed by equation (15).

Figure 2013172320
Figure 2013172320

よって、光源11の点滅周期をフィールド周期の4倍にした時、すなわち(f=f)である時、(7)式と(15)式より奇数項で周波数が一致し、時間平均SACとSBDの2乗和は(16)式のようになる。 Therefore, when the blinking period of the light source 11 is set to four times the field period, that is, when (f 3 = f 2 ), the frequency coincides with the odd term from the expressions (7) and (15), and the time average SAC And the sum of the squares of SBD is given by equation (16).

Figure 2013172320
Figure 2013172320

光源11の点灯のデューティー比をDとすると(17)式で表される。   When the duty ratio of lighting of the light source 11 is D, it is expressed by equation (17).

Figure 2013172320
Figure 2013172320

よって、(16)式で表される時間平均SACとSBDとの2乗和SACBDは、(17)式を用いると(18)式のようになる。     Therefore, the square sum SACBD of the time average SAC and SBD expressed by the equation (16) is expressed by the equation (18) when the equation (17) is used.

Figure 2013172320
Figure 2013172320

ところで、以下に示す(18)式の右辺の項(19)は収束する。   By the way, the term (19) on the right side of the following equation (18) converges.

Figure 2013172320
Figure 2013172320

この(18)式の右辺の項(19)は、デューティー比Dに対し、表1のような値をとる。以下に、表1を示す。   The term (19) on the right side of the equation (18) takes a value as shown in Table 1 with respect to the duty ratio D. Table 1 is shown below.

Figure 2013172320
Figure 2013172320

表1に基づいて、横軸にデューティー比Dをとり、縦軸に時間平均SACとSBDとの2乗和SACBDをとると、デューティー比Dと2乗和SACBDとの関係は図20に示すようになる。   Based on Table 1, when the duty ratio D is taken on the horizontal axis and the square sum SACBD of the time average SAC and SBD is taken on the vertical axis, the relationship between the duty ratio D and the square sum SACBD is as shown in FIG. become.

図20より、2乗和SACBDはデューティー比D=0.5で最大となることが分かる。
したがって、(18)式で表される2乗和SACBDは、次式のようになる。
From FIG. 20, it can be seen that the square sum SACBD is maximized at the duty ratio D = 0.5.
Therefore, the sum of squares SACBD expressed by the equation (18) is expressed by the following equation.

[数15]
AC +SBD =0.08333L …(20)
[Equation 15]
S AC 2 + S BD 2 = 0.08333L 1 2 (20)

(20)式に示すように、演算処理部143は光源11(図1を参照)の輝度を検出し、この検出結果(2乗和SACBD)をフィルタ処理部15を介して判定部16に出力する。この検出結果は、判定部16にて被写体の状態に判定に用いられる。   As shown in equation (20), the arithmetic processing unit 143 detects the luminance of the light source 11 (see FIG. 1), and outputs the detection result (square sum SACBD) to the determination unit 16 via the filter processing unit 15. To do. This detection result is used for determining the state of the subject by the determination unit 16.

本実施例に係る光源11は特定の光源に依存しない。そこで、他の光源についても輝度を検出できるかについて考察する。
光源として広く使われている白熱電球と蛍光燈は、電源周波数50Hzの地域で100Hz、60Hzの地域で120Hzである。NTSC方式のテレビジョンのフィールド周波数は59.94Hz、パーソナルコンピュータに使用されるモニタのフィールド周波数は、ちらつきがないように60Hz以上である。
The light source 11 according to the present embodiment does not depend on a specific light source. Therefore, it is considered whether the luminance can be detected for other light sources.
Incandescent light bulbs and fluorescent lamps that are widely used as light sources are 100 Hz in regions where the power supply frequency is 50 Hz and 120 Hz in regions where 60 Hz. The field frequency of an NTSC television is 59.94 Hz, and the field frequency of a monitor used for a personal computer is 60 Hz or more so as not to flicker.

NTSC方式のテレビジョンのフィールド周波数は59.94Hzであり、その1/4倍周期で光源を発光させるとすると、輝度レベル差の周波数f2は次式のようになる。   The field frequency of the NTSC television is 59.94 Hz, and if the light source is caused to emit light at a quarter period, the frequency f2 of the luminance level difference is as follows.

[数16]
=59.94/4=14.985Hz …(21)
[Equation 16]
f 2 = 59.94 / 4 = 14.985 Hz (21)

(7)式と(15)式より、周波数f2の奇数倍と光源11の周波数f3の整数倍が一致したときに信号成分が検出される。   From the equations (7) and (15), the signal component is detected when the odd multiple of the frequency f2 matches the integer multiple of the frequency f3 of the light source 11.

表2は、異なる光源の発光周波数と輝度信号レベルの差における周波数との関係を示す値の表である。   Table 2 is a table of values indicating the relationship between the light emission frequency of different light sources and the frequency in the difference in luminance signal level.

Figure 2013172320
Figure 2013172320

表2のf1は(5)式の正弦波の有する周波数で、f2は(21)式に示す周波数で、f3はそれぞれ、光源11の周波数、50Hz地域での照明の周波数、60Hz地域での照明の周波数、NTSC方式のテレビジョンのフィールド周波数、パーソナルコンピュータに使用されるモニタのフィールド周波数である。
表2によると、m=30まで、f3が100、120、59.94Hzであり、(n×f=(2m−1)×f)が成立するものはない。
F1 in Table 2 is the frequency of the sine wave of Formula (5), f2 is the frequency shown in Formula (21), and f3 is the frequency of the light source 11, the frequency of illumination in the 50 Hz region, and the illumination in the 60 Hz region, respectively. Frequency, NTSC television field frequency, and monitor field frequency used in personal computers.
According to Table 2, up to m = 30, f3 is 100, 120, 59.94 Hz, and there is nothing that satisfies (n × f 3 = (2m−1) × f 2 ).

たとえばパーソナルコンピュータのモニタに関して、そのフィールド周波数が60Hz以上であるとすると、本検知システム10の信号処理出力に最も大きな出力が検出される可能性としては、74.925Hzでスキャンされているモニタが存在したときである。
すなわち、f=74.925Hzの時であり、表2に示すように、(5×f)、(15×f)、(25×f)…と(1×f)、(3×f)、(5×f)・・・が一致する。この時検出される信号レベルは、次式で示される。
For example, regarding a monitor of a personal computer, if the field frequency is 60 Hz or more, there is a monitor that is scanned at 74.925 Hz as a possibility that the largest output is detected in the signal processing output of the detection system 10. When
That is, when f 3 = 74.925 Hz, as shown in Table 2, (5 × f 2 ), (15 × f 2 ), (25 × f 2 ), and (1 × f 3 ), ( 3 × f 3 ), (5 × f 3 ). The signal level detected at this time is expressed by the following equation.

Figure 2013172320
したがって、(22)式で示される信号レベルは光源11の1/25のレベルであり、図1に図示していない信号処理で別に除去できる。
Figure 2013172320
Therefore, the signal level expressed by the equation (22) is 1/25 of that of the light source 11 and can be removed separately by signal processing not shown in FIG.

以上に述べたように、本検知システム10は、光源の発光周波数に依存せず、光源または光源に照射された被写体の状態を検知する。   As described above, the detection system 10 detects the state of the light source or the subject irradiated on the light source without depending on the light emission frequency of the light source.

以下に、本実施形態に係る検知システムの一連の動作を図21に関連付けて説明する。   Hereinafter, a series of operations of the detection system according to the present embodiment will be described with reference to FIG.

図21は、本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。   FIG. 21 is a flowchart for explaining an outline of a series of operations of the detection system according to the present embodiment.

本実施形態では、まず、撮像装置12の電荷蓄積時間内の光源11の輝度を撮像装置12のフィールド周期の4n倍で変化させる(ST41)。
次に、撮像装置12からフィールド単位でnフィールド毎に輝度信号抽出部13で輝度信号を取得し(ST42)、この輝度信号を第1の演算部141と第2の演算部142に出力する。
第1の演算部141にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACを求める。また、第2の演算部142にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDを求める(ST43)。
これら時間平均SACとSBDは演算処理部143に出力される。
次いで、演算処理部143にて時間平均SACとSBDの2乗和SACBDが求められ(ST44)、フィルタ処理部15を介して判定部16に出力される。
判定部16にて2乗和SACBDの値に応じて、被写体の状態が判定される(ST45)。その判定結果が被写体位置決定部17に供給される。
被写体位置決定部17において、被写体位置を決定するか否かが判定される(ST46)。
ここで、被写体位置を決定するときは、被写体位置決定部17では被写体の状態を検知して検知位置に関する情報が取得され(ST47)、検知位置情報が光源解析処理部14の位置記憶部144に記憶される。
被写体位置の決定を行わないときは、被写体位置決定部17では、位置記憶部144に保存済み位置情報から指定位置(指定番号)が取得され(ST48)、指定位置の被写体の状態が検知される(ST49)。
そして、光源解析処理部14においてステップST43およびST44を行うに際し、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の一または複数の画像を解析(検知)が行われる。
この光源解析処理部14の処理により、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
In the present embodiment, first, the luminance of the light source 11 within the charge accumulation time of the imaging device 12 is changed by 4n times the field period of the imaging device 12 (ST41).
Next, a luminance signal is acquired by the luminance signal extraction unit 13 every n fields in the field unit from the imaging device 12 (ST42), and this luminance signal is output to the first calculation unit 141 and the second calculation unit 142.
The first arithmetic unit 141 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. Further, the second arithmetic unit 142 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields (ST43).
These time averages SAC and SBD are output to the arithmetic processing unit 143.
Subsequently, the arithmetic processing unit 143 obtains the square sum SACBD of the time average SAC and SBD (ST44), and outputs the result to the determination unit 16 via the filter processing unit 15.
The determination unit 16 determines the state of the subject according to the value of the square sum SACBD (ST45). The determination result is supplied to the subject position determination unit 17.
The subject position determination unit 17 determines whether or not to determine the subject position (ST46).
Here, when the subject position is determined, the subject position determination unit 17 detects the state of the subject and acquires information about the detection position (ST47), and the detected position information is stored in the position storage unit 144 of the light source analysis processing unit 14. Remembered.
When the subject position is not determined, the subject position determination unit 17 acquires the specified position (specified number) from the position information stored in the position storage unit 144 (ST48), and detects the state of the subject at the specified position. (ST49).
Then, when performing steps ST43 and ST44 in the light source analysis processing unit 14, based on the detection position coordinates stored in the position storage unit 144, one or more images of the detection position range specified by the coordinates are obtained. Analysis (detection) is performed.
By this processing of the light source analysis processing unit 14, the present detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. It is effective and can be detected with high accuracy.

そして、被写体位置決定部17の位置検索処理部171では、判定部16にて得た検知状態から現在の位置を検索する。その際、位置検索処理部171または追尾処理部が、追尾処理が必要かどうかのフラグを確認し追尾処理が必要な場合は追尾処理を行う(ST50、ST51)。
追尾処理の詳細説明はここでは省略する。
Then, the position search processing unit 171 of the subject position determination unit 17 searches the current position from the detection state obtained by the determination unit 16. At that time, the position search processing unit 171 or the tracking processing unit checks a flag indicating whether the tracking process is necessary, and performs the tracking process when the tracking process is necessary (ST50, ST51).
Detailed description of the tracking process is omitted here.

なお、本実施形態に係る演算処理部143では、時間平均SACとSBDとの2乗和SACBDを求めるが、時間平均SACとSBDとの和(SAC+SBD)を判定部16での判定基準に用いることもできる。 In the arithmetic processing unit 143 according to the present embodiment, the square sum SACBD of the time average SAC and SBD is obtained, and the sum of the time average SAC and SBD (S AC + S BD ) is determined by the determination unit 16. It can also be used.

以上に説明したように、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出できる。   As described above, according to the present embodiment, the background noise of the captured image can be removed, and the state of the subject irradiated with the light source or the light source can be detected.

本実施形態に係る検知システムによれば、光源または光源に照射された被写体の状態の検知において、被写体が複数存在する場合の検知も被写体別に行うことができ、その被写体の追跡と捕捉を行うことで、被写体でない部分の不要物の位置の検知をする必要が無く、被写体の状態検知を高速にかつ、高精度に検知できるという効果が得られる。
また、光源に依らないため、撮像装置の仕様には依存せず、たとえば一般に入手可能なカメラを本検知システムの撮像装置として使用できる。
According to the detection system according to the present embodiment, in the detection of the light source or the state of the subject irradiated with the light source, detection when there are a plurality of subjects can be performed for each subject, and the subject is tracked and captured. Thus, there is no need to detect the position of an unnecessary object that is not a subject, and the effect of detecting the state of the subject at high speed and with high accuracy can be obtained.
Moreover, since it does not depend on the light source, it does not depend on the specifications of the imaging device, and for example, a generally available camera can be used as the imaging device of the present detection system.

そして、本検知システムによれば、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、位置を補正することで、被写体の輝度情報を永続的に高精度に取得できる。
これらの処理は、PCシステムおよび組込みシステムどちらの構成でも実現でき、用途に応じて適応できる。
According to the present detection system, even when there is a positional shift that has occurred over time or in an environmental condition between the position of the subject to be detected and the imaging device, By correcting the position while adjusting the correction state and time according to the elapsed time of the deviation, the luminance information of the subject can be acquired permanently with high accuracy.
These processes can be realized by the configuration of both the PC system and the embedded system, and can be adapted according to the application.

また、本検知システムによれば、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に合わせて補正状態と被写体の検知範囲毎に時間の調整をしながら、位置を補正することで、被写体固有の状態で被写体の輝度情報を永続的に高精度に取得できる。   In addition, according to the present detection system, even if there is a positional shift caused by a long-term secular change or an environmental condition between the position of the subject to be detected and the imaging apparatus, the correction of the positional shift is performed. By correcting the position while adjusting the correction state and the time for each detection range of the subject in accordance with the elapsed time of the deviation, the luminance information of the subject can be obtained permanently and accurately in a state specific to the subject.

さらにまた、本検知システムによれば、検知対象の被写体の位置と撮像装置の間で、長期にわたる経年変化や環境状態で生じた位置ずれがそれぞれにあった場合でも、その位置ずれの補正を、位置ずれの経過時間に加え、その頻度が複数回発生した場合にのみ、位置を補正することにより、夜間等に、光源11が照射する光の範囲が昼間等の明時より大きくID0〜ID3で示す各方向に広がってしまう場合、強風や振動などで一時的に若干の位置ずれが発生した場合でも、測定に影響せず、被写体の輝度情報を永続的に高精度に取得できる。   Furthermore, according to the present detection system, even when there is a positional deviation caused by long-term secular change or environmental condition between the position of the subject to be detected and the imaging apparatus, the correction of the positional deviation is performed. In addition to the elapsed time of misalignment, by correcting the position only when the frequency occurs a plurality of times, the range of light emitted by the light source 11 is larger than that in the daytime and the like at night and so on at ID0 to ID3. When it spreads in each direction shown, even if a slight positional deviation occurs due to strong winds or vibrations, the luminance information of the subject can be obtained permanently and accurately without affecting the measurement.

さらに本検知システムは、複数の光源を使用し、信号を並列に信号処理部に伝送することができる。
あるいは、光源の色を複数設け、信号の波長多重伝送も可能である。
また、光源を適宜点滅させて信号を処理することも可能である。
Furthermore, this detection system uses a plurality of light sources and can transmit signals to the signal processing unit in parallel.
Alternatively, it is possible to provide a plurality of light source colors and perform wavelength multiplexing transmission of signals.
It is also possible to process the signal by appropriately blinking the light source.

[第2の実施形態]
次に、本発明に係る第2の実施形態について説明する。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described.

本第2の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース型の撮像装置12をフレーム蓄積、インターレース型の撮像装置に置き換えたものである。また同時に、第1実施形態に係る光源11の輝度の変化周期をフィールド周期の4n倍からフレーム周期の4n倍に変更したものである。この変化周期の変更に伴い、輝度信号の取得もnフィールドごとから2nフィールドごとに輝度信号の取得周期を変更する。
このように、光源11の輝度の変化周期と輝度信号の取得周期を変更することで、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the second embodiment, the field accumulation / interlace imaging device 12 according to the first embodiment is replaced with a frame accumulation / interlace imaging device. At the same time, the luminance change period of the light source 11 according to the first embodiment is changed from 4n times the field period to 4n times the frame period. Accompanying this change in the change period, the luminance signal acquisition period is changed from every n fields to every 2n fields.
As described above, by changing the luminance change cycle of the light source 11 and the luminance signal acquisition cycle, the same effects as those of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

[第3の実施形態]
次に、本発明に係る第3の実施形態について説明する。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described.

本第3の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース走査型の撮像装置12をフレーム蓄積、ノンインターレース走査型の撮像装置に置き換えたものである。
このように、ノンインターレース走査の撮像装置を用いても、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the third embodiment, the field accumulation / interlace scanning imaging device 12 according to the first embodiment is replaced with a frame accumulation / non-interlace scanning imaging device.
As described above, even when a non-interlaced scanning imaging apparatus is used, the same effect as that of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

10・・・検知システム、11・・・光源、12・・・撮像装置、13・・・輝度信号抽出部、14・・・光源解析処理部、141・・・第1の演算部(A)、142・・・第2の演算部(B)、143…演算処理部、144・・・位置記憶部、15・・・フィルタ処理部、16・・・判定部、17・・・被写体位置決定部、171・・・位置検索処理部、172・・・位置検索情報記憶部、173・・・追尾処理部、18・・・タイマー処理部。   DESCRIPTION OF SYMBOLS 10 ... Detection system, 11 ... Light source, 12 ... Imaging device, 13 ... Luminance signal extraction part, 14 ... Light source analysis process part, 141 ... 1st calculating part (A) , 142... Second calculation unit (B), 143... Calculation processing unit, 144... Position storage unit, 15... Filter processing unit, 16. , 171... Position search processing unit, 172... Position search information storage unit, 173.

Claims (8)

光源と、
上記光源または上記光源によって照射された被写体を撮像する撮像装置と、
上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、
上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、
複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、
上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、
上記被写体位置決定部は、
検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理機能を含み、
上記解析処理部は、
上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う
検知システム。
A light source;
An imaging device for imaging the light source or a subject illuminated by the light source;
An analysis processing unit that performs analysis processing on a signal acquired from the imaging device;
A determination unit that detects and determines the state of the light source or subject based on the analysis result of the analysis processing unit;
A position storage unit capable of storing information on positions including detection ranges in images of a plurality of subjects;
From the detection information obtained by the determination unit, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, A subject position determination unit capable of storing detection information as information about the position in the position storage unit,
The subject position determination unit
Tracking whether or not a detection position shift has occurred, including a tracking processing function for correcting the position information of the position storage unit while adjusting the correction state and time according to the elapsed time of the position shift,
The analysis processing unit
The signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and further, based on the value of the time average Perform an analysis process to perform a predetermined calculation, and output the calculation result of the analysis process to the determination unit,
A detection system that selectively performs the analysis processing on an image in a detection position range specified in the detection information when the detection information is stored in the position storage unit.
上記被写体位置決定部は、
位置補正の時間を検知対象の被写体位置ごとに設定し、
位置ずれの経過時間に合わせて補正状態と被写体の検知範囲毎に時間の調整をしながら、位置を補正する
請求項1記載の検知システム。
The subject position determination unit
Set the position correction time for each subject position to be detected,
The detection system according to claim 1, wherein the position is corrected while adjusting the time for each correction state and the detection range of the subject in accordance with the elapsed time of the positional deviation.
上記被写体位置決定部は、
追尾判定条件として、位置ずれ頻度判定を含み、
位置ずれの経過時間に加え、その頻度が複数回発生した場合にのみ、位置を補正する 請求項1または2記載の検知システム。
The subject position determination unit
As tracking determination conditions, including positional deviation frequency determination,
The detection system according to claim 1, wherein the position is corrected only when the frequency occurs a plurality of times in addition to the elapsed time of the position shift.
タイマー処理部を有し、
上記被写体位置決定部は、
上記タイマー処理部を監視して、時刻条件が通知情報と一致した場合に追尾処理を少なくとも1回行う
請求項1から3のいずれか一記載の検知システム。
Has a timer processing unit,
The subject position determination unit
The detection system according to any one of claims 1 to 3, wherein the timer processing unit is monitored and the tracking process is performed at least once when the time condition matches the notification information.
上記被写体位置決定部は、
追尾カウンタと、検知対象の被写体ごとにずれの方向に関連付けた追尾処理の情報をテーブル化した追尾タイムテーブルと、を含み、
追尾処理において、上記位置記憶部に格納される座標を追尾タイムテーブルの補正値で補正した近傍位置の輝度信号のピクセル値と、第1の判定値Sを比較し、ピクセル値の方が大きい場合には上記追尾カウンタをカウントさせ、
その後、追尾処理を繰り返し行い続け、上記追尾カウンタの値が任意の第2の判定値で比較した結果より大きくなった場合に、近傍位置への位置ずれと判定し、上記位置記憶部にその位置情報を記憶する
請求項4記載の検知システム。
The subject position determination unit
A tracking counter, and a tracking time table that tabulates information on tracking processing associated with the direction of deviation for each subject to be detected,
In the tracking process, the pixel value of the luminance signal in the vicinity position obtained by correcting the coordinates stored in the position storage unit with the correction value of the tracking time table is compared with the first determination value S, and the pixel value is larger Let the tracking counter count,
After that, the tracking process is continuously repeated, and when the value of the tracking counter becomes larger than the result of comparison with an arbitrary second determination value, it is determined that the position shifts to a nearby position, and the position storage unit stores the position. The detection system according to claim 4 which memorizes information.
上記被写体位置決定部は、
上記追尾タイムテーブルごとに、追尾時間情報を設定し、
追尾処理終了ごとに追尾タイムテーブルから次回のタイマー時刻条件を設定する
請求項5記載の検知システム。
The subject position determination unit
Set tracking time information for each tracking time table,
The detection system according to claim 5, wherein a next timer time condition is set from the tracking time table every time the tracking process ends.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、
撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、
上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、
上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、
上記被写体位置決定ステップにおいて、
検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理ステップを含み、
上記解析処理ステップにおいて、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含む
検知システムの信号処理方法。
An imaging step of imaging with an imaging device a light source or a subject illuminated by the light source;
A signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined average is obtained based on the time average value. An analysis process step for performing an analysis process for performing an operation;
A determination step of detecting and determining the state of the light source or subject based on the analysis result of the analysis processing step;
From the detection information obtained in the determination step, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, Subject position determination step for storing detection information in the position storage unit as information on the position,
In the subject position determining step,
Tracking whether or not a deviation of the detection position has occurred, including a tracking process step of correcting the position information of the position storage unit while adjusting the correction state and time according to the elapsed time of the position deviation,
In the analysis processing step,
A signal processing method of a detection system, comprising: a step of selectively performing the analysis process on an image in a detection position range specified in the detection information when the detection information is stored in the position storage unit.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、
所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、
上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、
上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、
上記被写体位置決定処理において、
検知位置のずれが生じたか否かを追尾し、位置ずれの経過時間に合わせて補正状態と時間の調整をしながら、上記位置記憶部の位置情報を補正する追尾処理を含み、
上記解析処理において、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含む
検知システムの信号処理をコンピュータに実行させるプログラム。
An imaging process in which an imaging device captures an image of a light source or a subject illuminated by the light source;
A signal is acquired every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined calculation is performed based on the time average value. Analysis processing,
A determination process for detecting and determining the state of the light source or subject based on the analysis result of the analysis process;
From the detection information obtained in the determination process, the position and size of the subject in all the images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired. Subject position determination processing for storing detection information in the position storage unit as information on the position,
In the subject position determination process,
Tracking whether or not a deviation of the detected position has occurred, including a tracking process for correcting the position information of the position storage unit while adjusting the correction state and time according to the elapsed time of the position deviation,
In the above analysis process,
When the detection information is stored in the position storage unit, the signal processing of the detection system including the process of selectively performing the analysis process on the image in the detection position range specified in the detection information is performed on the computer. The program to be executed.
JP2012035296A 2012-02-21 2012-02-21 Detection system, signal processing method thereof, and program Expired - Fee Related JP5770123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035296A JP5770123B2 (en) 2012-02-21 2012-02-21 Detection system, signal processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035296A JP5770123B2 (en) 2012-02-21 2012-02-21 Detection system, signal processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2013172320A true JP2013172320A (en) 2013-09-02
JP5770123B2 JP5770123B2 (en) 2015-08-26

Family

ID=49265992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035296A Expired - Fee Related JP5770123B2 (en) 2012-02-21 2012-02-21 Detection system, signal processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5770123B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05292377A (en) * 1992-04-09 1993-11-05 Olympus Optical Co Ltd Motion vector detector for moving body
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2008236015A (en) * 2007-03-16 2008-10-02 Casio Comput Co Ltd Image processor, imaging apparatus and its program
JP2009147607A (en) * 2007-12-13 2009-07-02 Victor Co Of Japan Ltd Person tracking device
US20100321505A1 (en) * 2009-06-18 2010-12-23 Kokubun Hideaki Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
JP2012015735A (en) * 2010-06-30 2012-01-19 Rhythm Watch Co Ltd Detection system, signal processing method thereof and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05292377A (en) * 1992-04-09 1993-11-05 Olympus Optical Co Ltd Motion vector detector for moving body
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2008236015A (en) * 2007-03-16 2008-10-02 Casio Comput Co Ltd Image processor, imaging apparatus and its program
JP2009147607A (en) * 2007-12-13 2009-07-02 Victor Co Of Japan Ltd Person tracking device
US20100321505A1 (en) * 2009-06-18 2010-12-23 Kokubun Hideaki Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
JP2012015735A (en) * 2010-06-30 2012-01-19 Rhythm Watch Co Ltd Detection system, signal processing method thereof and program

Also Published As

Publication number Publication date
JP5770123B2 (en) 2015-08-26

Similar Documents

Publication Publication Date Title
KR101950396B1 (en) Imaging device and imaging method
JP4856765B2 (en) Imaging apparatus and flicker detection method
JP4703547B2 (en) Detection system
JP2006352242A (en) Flicker detectable imaging apparatus
JP2007174537A (en) Imaging apparatus
TWI489833B (en) A detection system, a signal processing method for detecting a system, and a smoke sensor
JP2001016508A (en) Solid-state image pickup device
JP2011030207A (en) Imaging device, and flash determining method and program
JP5265625B2 (en) Detection system, signal processing method thereof, and program
JP5406787B2 (en) Detection system, signal processing method thereof, and program
JP5770123B2 (en) Detection system, signal processing method thereof, and program
JP5349405B2 (en) Detection system, signal processing method thereof, and program
JP5349413B2 (en) Detection system, signal processing method thereof, and program
JP2008113237A (en) Flicker detecting method and device in imaging apparatus
JP2007329604A (en) Fluorescent light flicker detection circuit
JP5839515B2 (en) Detection system, signal processing method thereof, and program
JP5265619B2 (en) Detection system, signal processing method thereof, and program
JP2012209904A (en) Detection system, signal processing method and program
JP4850920B2 (en) Imaging device capable of flicker detection
JP2020072392A (en) Imaging apparatus, control method of imaging apparatus, and program
JP5858831B2 (en) Detection system, signal processing method thereof, and program
JP6408932B2 (en) Detection system, signal processing method of detection system, and program
JP2012134677A (en) Imaging apparatus and imaging method
JP2009253808A (en) Image processor, imaging device, method for processing image and program
JP2015169961A (en) Detection system, signal processing method for detection system and smoke detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150624

R150 Certificate of patent or registration of utility model

Ref document number: 5770123

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees