JP5349413B2 - Detection system, signal processing method thereof, and program - Google Patents

Detection system, signal processing method thereof, and program Download PDF

Info

Publication number
JP5349413B2
JP5349413B2 JP2010149450A JP2010149450A JP5349413B2 JP 5349413 B2 JP5349413 B2 JP 5349413B2 JP 2010149450 A JP2010149450 A JP 2010149450A JP 2010149450 A JP2010149450 A JP 2010149450A JP 5349413 B2 JP5349413 B2 JP 5349413B2
Authority
JP
Japan
Prior art keywords
detection
subject
range
signal
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010149450A
Other languages
Japanese (ja)
Other versions
JP2012015735A (en
Inventor
淳 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2010149450A priority Critical patent/JP5349413B2/en
Publication of JP2012015735A publication Critical patent/JP2012015735A/en
Application granted granted Critical
Publication of JP5349413B2 publication Critical patent/JP5349413B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a detection system, a signal processing method thereof and a program capable of detecting each subject even if plural subjects exist. <P>SOLUTION: A detection system comprises: a position storage unit 144 which can store information on positions including detection areas of plural subjects in an image; a subject position determination unit 17 which searches the positions and sizes of the subjects in the whole image from detection information obtained by a determination unit 16 to determine the positions of the subjects including the detection areas and can store the detection information including the detection areas about the subjects in the position storage unit; and a jamming action determination unit 18 for performing at least one kind of detection of positional displacement detection of an imaging device based on the state of detection area positions obtained by the subject position determination unit, subject no-response detection, and subject successive response detection. <P>COPYRIGHT: (C)2012,JPO&amp;INPIT

Description

本発明は、たとえば、撮像装置等を用いて被写体の状態を検知する検知システムおよびその信号処理方法、プログラムに関するものである。   The present invention relates to a detection system that detects the state of a subject using an imaging device or the like, a signal processing method thereof, and a program, for example.

たとえば、特許文献1に示す夜間の防犯システム等に用いられる撮像装置が提案されている。
この撮像装置は、信号処理部を有し、光源を周波数100Hzまたは120Hz(電源に50Hzまたは60Hzの商用電源を用いた場合、光源はその倍の100Hzまたは120Hzでその明るさが変動する)より高い高周波で変調する。さらに、信号処理部はこの高周波変調信号を検出する検出部を有している。
ただし、この撮像装置はその変調周波数より高いフレームレートを持っている必要がある。
For example, an imaging apparatus used in a nighttime crime prevention system shown in Patent Document 1 has been proposed.
This imaging apparatus has a signal processing unit, and the light source has a frequency higher than 100 Hz or 120 Hz (when a commercial power source of 50 Hz or 60 Hz is used as the power source, the brightness of the light source fluctuates at 100 Hz or 120 Hz that is twice that). Modulate with high frequency. Further, the signal processing unit has a detection unit for detecting the high frequency modulation signal.
However, this imaging apparatus needs to have a frame rate higher than its modulation frequency.

ところで、一般に広く普及している撮像装置はNTSC(National Television Standards Committee)方式またはPAL(Phase Alternating Line)方式と呼ばれる規格が採用されている。
このような規格を採用した撮像装置はフレームレートが遅いため、たとえば特許文献1に示すような防犯システムの撮像装置として使用できない。
By the way, a standard called NTSC (National Television Standards Committee) system or PAL (Phase Alternating Line) system is adopted for imaging apparatuses which are widely spread in general.
Since an image pickup apparatus adopting such a standard has a low frame rate, for example, it cannot be used as an image pickup apparatus for a crime prevention system as shown in Patent Document 1.

そこで、光源または光源に照射された被写体の状態を検知でき、NTSC等の規格を採用した防犯システムに適用可能な検知システムが提案されている(特許文献2参照)。
この検知システムは、光源の周波数成分の被写体の状態を検知する。
Therefore, a detection system that can detect a light source or the state of a subject irradiated with the light source and can be applied to a crime prevention system adopting a standard such as NTSC has been proposed (see Patent Document 2).
This detection system detects the state of the subject of the frequency component of the light source.

特許第3019309号公報Japanese Patent No. 3019309 特開2008−141251号公報JP 2008-141251 A

ところが、上記検知システムでは、撮像装置で捉えた映像から検知した被写体が複数存在した場合、各々の被写体の位置とその検知情報を判別することが困難である。
また、上記検知システムでは、検知した位置範囲の情報を時間変化で測定することが困難である。
また、上記検知システムでは、いたずらや妨害行為を検知することが容易ではない。
However, in the above-described detection system, when there are a plurality of subjects detected from the video captured by the imaging device, it is difficult to determine the position of each subject and its detection information.
Further, in the detection system, it is difficult to measure the information of the detected position range with time change.
In the above detection system, it is not easy to detect mischief or obstruction.

従来から妨害行為検知の方法として背景差分による比較で検知する方法や映像の明暗で検知する妨害行為の検知方法が知られている。
また、出力信号のケーブル切断による無信号判定による妨害行為検知が知られている。
Conventionally, as a method of detecting a disturbing action, a method of detecting by comparison based on a background difference and a detecting method of a disturbing action that is detected by contrast of an image are known.
In addition, it is known to detect an interference action by determining no signal by cutting a cable of an output signal.

これらの方法で撮像装置のレンズにスプレーや目隠しにより撮像映像の妨害行為があった場合では、差分画像との変化が一定でないため、誤検知が多いという不利益がある。
また、撮像装置の位置をずらされるといった、いたずら行為においては、背景に動体物が多い場合や、明暗の大きい場所での検出が難しく、また木々の揺れなど自然背景変化による判定でも精度の高い検知が難しい。
When there is a disturbing action of the captured image by spraying or blindfolding on the lens of the image capturing apparatus by these methods, there is a disadvantage that there are many false detections because the change from the difference image is not constant.
Also, in mischievous actions such as shifting the position of the imaging device, it is difficult to detect when there are many moving objects in the background or in a place with large light and darkness, and high accuracy detection even in judgments based on natural background changes such as shaking of trees Is difficult.

本発明は、光源または光源に照射された被写体の状態を検知できることはもとより、被写体が複数存在する場合であっても被写体別に検知することが可能で、しかも妨害行為を検知することが可能な検知システムおよびその信号処理方法、プログラムを提供することにある。   The present invention is capable of detecting the state of a light source or a subject irradiated with the light source, as well as being able to detect each subject even when there are a plurality of subjects, and capable of detecting a disturbing action. A system, a signal processing method thereof, and a program are provided.

本発明の第1の観点の検知システムは、光源と、上記光源または上記光源によって照射された被写体を撮像する撮像装置と、上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、上記被写体位置決定部により得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定部と、を有し、上記解析処理部は、上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行う。 A detection system according to a first aspect of the present invention includes a light source, an imaging device that images the light source or a subject irradiated with the light source, an analysis processing unit that performs an analysis process on a signal acquired from the imaging device, A determination unit that detects and determines the state of the light source or the subject based on an analysis result of the analysis processing unit, a position storage unit that can store information about positions including detection ranges in the images of a plurality of subjects, and the determination unit From the obtained detection information, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, the detection information including the detection range related to the subject is acquired, and the detection information is and the object position determination unit that can be stored in the position storage unit as the information regarding the position of the imaging apparatus according to the state of the position of the detection range obtained by the object position determination unit A disturbing action determination unit that performs at least one detection determination among detection detection, subject non-response detection, and subject continuous response detection, and the analysis processing unit performs the above-described analysis processing unit from the imaging device every predetermined scanning plane period Obtaining a signal, obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and performing an analysis process for performing a predetermined calculation based on the value of the time average, the calculation result of the analysis is output to the determination unit, when the detection information is stored in the position storage unit selectively the analysis processing for the image of the test knowledge range specified in the above detection information I do.

本発明の第2の観点の検知システムの信号処理方法は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、上記被写体位置決定ステップにより得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定ステップと、を有し、上記解析処理ステップにおいて、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行うステップを含む。 A signal processing method of a detection system according to a second aspect of the present invention includes an imaging step of imaging a light source or a subject irradiated with the light source with an imaging device, a signal acquired from the imaging device every predetermined scanning plane period, and a plurality of signals An analysis processing step of performing an analysis process for obtaining a time average of the signal level difference from the signal level difference of the signal between different scanning planes, and further performing a predetermined calculation based on the value of the time average; A determination step for detecting and determining the state of the light source or subject based on the analysis result of the step, and a detection range including a detection range by searching for the position and size of the subject in all images from the detection information obtained in the determination step A subject that determines the position of the subject, acquires detection information including a detection range related to the subject, and stores the detection information in the position storage unit as information about the position A position determining step, positional deviation detection image pickup device according to the state of the position of the detection range obtained by the object position determination step, the subject no response detection, and sabotage determination to perform at least one of the detection determining of the subject continuous response detection has a step, and in the analysis processing step, when the detection information is stored in the position storage unit selectively the analysis processing for the image of the test knowledge range specified in the above detection information The step of performing is included.

本発明の第3の観点は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、上記被写体位置決定処理により得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定処理と、を有し、上記解析処理において、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行う処理を含む検知システムの信号処理をコンピュータに実行させるプログラムである。 According to a third aspect of the present invention, an image pickup process for picking up a light source or a subject irradiated with the light source with an image pickup device, a signal is acquired for each predetermined scan plane period, and the signal of the signal is obtained between a plurality of different scan planes. Calculates the time average of the signal level difference from the level difference, and further performs analysis processing for performing a predetermined calculation based on the value of the time average, and detects and determines the state of the light source or subject based on the analysis result of the analysis processing And the detection information obtained by the determination process, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is obtained. obtained by the object position determination process stored in the position storage unit the detection information as information related to the position, shooting by the state of the position of the detection range obtained by the object position determination process Interfering action determination processing for performing at least one detection determination among device position shift detection, subject non-response detection, and subject continuous response detection. In the analysis processing, the detection information is stored in the position storage unit. when stored in a program for executing the signal processing of the detection system including a process for selectively above analysis process to the image of the test knowledge range specified in the detection information to the computer.

本発明によれば、光源または光源に照射された被写体の状態を検知できることはもとより、被写体が複数存在する場合であっても被写体別に検知することができ、しかも妨害行為を検知することができる。   According to the present invention, not only can the state of a light source or a subject irradiated on the light source be detected, but also a plurality of subjects can be detected for each subject, and a disturbing action can be detected.

本発明の第1の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on the 1st Embodiment of this invention. 本実施形態に係る位置記憶部において保存する情報の一例を示す図である。It is a figure which shows an example of the information preserve | saved in the position memory | storage part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。It is a figure which shows notionally the state before the position determination of the to-be-photographed object in the to-be-photographed object position determination part which concerns on this embodiment, and the state after position determination. 本実施形態に係る被写体位置決定部において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。It is a figure which shows an example of the (x, y) width table information of the detection range referred in order to perform position determination in the to-be-photographed object position determination part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行う場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows the process in the case of performing a position determination process. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行わない場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows a process when not performing a position determination process. 1つの光源もしくは反射光の被写体の検索法を説明するための図である。It is a figure for demonstrating the search method of the object of one light source or reflected light. 検知範囲の微調整処理を説明するための図である。It is a figure for demonstrating the fine adjustment process of a detection range. 本実施形態に係る位置ズレ判定を説明するための図である。It is a figure for demonstrating the position shift determination which concerns on this embodiment. 検知範囲および捕捉範囲を用いた位置ズレの非発生及び発生を波形で示す図である。It is a figure which shows the non-occurrence | occurrence | production and generation | occurrence | production of the position shift using a detection range and a capture range with a waveform. 位置ズレの状態遷移と対応する検知波形を示す図である。It is a figure which shows the detection waveform corresponding to the state transition of a position shift. 遮蔽物により遮断発生時の状態遷移と対応する検知波形を示す図である。It is a figure which shows the detection waveform corresponding to the state transition at the time of interruption | blocking generation | occurrence | production by a shield. 本実施形態に係る連続異常応答判定を説明するための図である。It is a figure for demonstrating the continuous abnormal response determination which concerns on this embodiment. 本実施形態において、検知範囲および捕捉範囲を用いた位置ズレの非発生および発生、並びに連続異常応答検知を波形で示す図である。In this embodiment, it is a figure which shows the non-occurrence | occurrence | production and generation | occurrence | production of the position shift using a detection range and a capture range, and a continuous abnormal response detection with a waveform. 本実施形態において、検知範囲および捕捉範囲を用いた位置ズレの非発生および発生、並びに連続異常応答検知の検知状態を表として示す図である。In this embodiment, it is a figure which shows the non-occurrence | occurrence | production and generation | occurrence | production of the position shift using a detection range and a capture range, and the detection state of a continuous abnormal response detection as a table | surface. 本実施形態に係るCCDの構造を説明するための一例を示す図である。It is a figure which shows an example for demonstrating the structure of CCD which concerns on this embodiment. 図16のCCDの時系列を説明するための図である。It is a figure for demonstrating the time series of CCD of FIG. 単板補色フィルタ型CCDの画素の一配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the pixel of a single plate complementary color filter type CCD. 奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the color signal in odd field OFD and even field EFD. 本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the signal processing method of the luminance signal of the light source analysis process part which concerns on this embodiment. 光源に含まれる周波数成分についての波形W6を示す図である。It is a figure which shows the waveform W6 about the frequency component contained in a light source. デューティー比Dと2乗和SACBDとの関係の一例を示す図である。It is a figure which shows an example of the relationship between duty ratio D and square sum SACBD. 本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。It is a flowchart figure for demonstrating a series of operation | movement outline | summary of the detection system which concerns on this embodiment. 本発明の第2の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on the 3rd Embodiment of this invention.

以下、本発明の実施形態を図面に関連づけて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の第1の実施形態に係る検知システムの構成例を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a detection system according to the first embodiment of the present invention.

本検知システム10は、光源11、撮像装置12、輝度信号抽出部13、光源解析処理部14、フィルタ処理部15、判定部16、被写体位置決定部17、および妨害行為判定部18を有する。
光源解析処理部14は、第1の演算部(A)141、第2の演算部(B)142、演算処理部(時間平均2乗和演算処理部)143、位置記憶部144、および捕捉位置記憶部145を有する。
被写体位置決定部17は、位置検索処理部171および位置検索情報記憶部172を有する。
The detection system 10 includes a light source 11, an imaging device 12, a luminance signal extraction unit 13, a light source analysis processing unit 14, a filter processing unit 15, a determination unit 16, a subject position determination unit 17, and an obstruction act determination unit 18.
The light source analysis processing unit 14 includes a first calculation unit (A) 141, a second calculation unit (B) 142, a calculation processing unit (time average square sum calculation processing unit) 143, a position storage unit 144, and a capture position. A storage unit 145 is included.
The subject position determination unit 17 includes a position search processing unit 171 and a position search information storage unit 172.

光源11は、所定の輝度で被写体を照明する。光源11の輝度は可変であり、撮像装置12が有する撮像素子の電荷蓄積時間内の輝度が、撮像装置12のフィールド周期の4n倍周期で変化する。ここで、n=1、2、3、…である。   The light source 11 illuminates the subject with a predetermined luminance. The luminance of the light source 11 is variable, and the luminance within the charge accumulation time of the imaging element included in the imaging device 12 changes at a period 4n times the field period of the imaging device 12. Here, n = 1, 2, 3,.

本実施形態に係る検知システム10で使用する撮像装置12は、以下のような仕様の撮像装置を採用している。
本撮像装置12を構成する撮像素子は一例として、単板補色フィルタ、フィールド蓄積型インターライン転送CCD(Charge Coupled Device)イメージセンサ(以後、単にCCDと記述する)を用いる。
また、一例として撮像装置12のテレビジョン方式はNTSC方式、走査方式はインターレースを採用し、走査周波数は水平周波数が15.734KHzで垂直周波数は59.94Hzである。
このような構成の撮像装置12は、光源11によって照明された被写体を撮像し、撮像して得た信号を輝度信号抽出部13に出力する。
なお、ここではCCDイメージセンサを例示しているがCMOSイメージセンサも適用可能である。
The imaging device 12 used in the detection system 10 according to the present embodiment employs an imaging device having the following specifications.
As an example of the imaging device constituting the imaging apparatus 12, a single-plate complementary color filter and a field storage type interline transfer CCD (Charge Coupled Device) image sensor (hereinafter simply referred to as a CCD) are used.
As an example, the television system of the imaging device 12 employs the NTSC system, the scanning system employs interlace, the scanning frequency is 15.734 KHz, and the vertical frequency is 59.94 Hz.
The imaging device 12 having such a configuration images the subject illuminated by the light source 11 and outputs a signal obtained by the imaging to the luminance signal extraction unit 13.
Although a CCD image sensor is illustrated here, a CMOS image sensor can also be applied.

輝度信号抽出部13は、入力された信号から輝度信号を抽出し、この輝度信号を光源解析処理部14の第1の演算部141および第2の演算部142に出力する。
輝度信号抽出部13により抽出される輝度信号は、演算に最適化された信号レベルに調節される。
その信号レベルは、第1の演算部141、第2の演算部142、演算処理部143の出力値においてオーバーフローしない信号レベルである必要がある。そのため、輝度信号抽出部13は、輝度信号レベルを調整する回路を含む。
輝度信号レベルの調整値はいくつかのモードがある場合には、モード切り替えが可能なテーブルをもっていてもかまわない。そのモードはNTSCやPALなどの映像信号規格、撮像装置の周波数モードであってもよい。
The luminance signal extraction unit 13 extracts a luminance signal from the input signal and outputs the luminance signal to the first calculation unit 141 and the second calculation unit 142 of the light source analysis processing unit 14.
The luminance signal extracted by the luminance signal extraction unit 13 is adjusted to a signal level optimized for calculation.
The signal level needs to be a signal level that does not overflow in the output values of the first calculation unit 141, the second calculation unit 142, and the calculation processing unit 143. Therefore, the luminance signal extraction unit 13 includes a circuit that adjusts the luminance signal level.
The adjustment value of the luminance signal level may have a table capable of mode switching when there are several modes. The mode may be a video signal standard such as NTSC or PAL, or a frequency mode of the imaging apparatus.

光源解析処理部14において、第1の演算部141は、入力された輝度信号を撮像素子の同一領域において、m番目と(m+2)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第1の演算部141の出力結果Aは、演算処理部143に出力される。
第2の演算部142は、入力された輝度信号の同一領域において、(m+1)番目と(m+3)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第2の演算部142の出力結果Bは、演算処理部143に出力される。
なお、この第1の演算部141と第2の演算部142の動作の詳細については後述する。
第1の演算部141および第2の演算部142は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
In the light source analysis processing unit 14, the first calculation unit 141 obtains the time average of the level difference of the luminance signal in the m-th and (m + 2) -th fields in the same area of the imaging device.
The output result A of the first calculation unit 141 is output to the calculation processing unit 143.
The second calculation unit 142 obtains a time average of the level difference of the luminance signal in the (m + 1) th and (m + 3) th fields in the same region of the input luminance signal.
The output result B of the second calculation unit 142 is output to the calculation processing unit 143.
The details of the operations of the first calculation unit 141 and the second calculation unit 142 will be described later.
The first calculation unit 141 and the second calculation unit 142 perform calculation processing in accordance with calculation range designation information for analyzing the image stored in the position storage unit 144.

第1の演算部141と第2の演算部142からそれぞれ出力される出力結果Aと出力結果Bは演算処理部143に入力される。
演算処理部143は出力結果の2乗和の値(A+B)を求め、フィルタ処理部15に出力する。
演算処理部143は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
The output result A and the output result B output from the first calculation unit 141 and the second calculation unit 142, respectively, are input to the calculation processing unit 143.
The arithmetic processing unit 143 obtains a square sum value (A 2 + B 2 ) of the output result and outputs it to the filter processing unit 15.
The arithmetic processing unit 143 performs arithmetic processing according to the calculation range designation information for analyzing the image stored in the position storage unit 144.

位置記憶部144は、たとえば被写体位置決定部17で決定される、光源の信号成分から不要な動体物を除去し高精度に検知された複数の被写体の位置および大きさの検知情報を記憶する。
このように、光源解析処理部14は、第1の演算部141と第2の演算部142の画像解析する演算範囲を指定可能な、位置記憶部144を備える。
その位置記憶部144は複数(n)個の位置情報を記憶でき、捕捉範囲位置記憶部145は、位置記憶部144に対になる複数(n)個を記憶する容量を持つ。
そのため、光源解析処理部14の検知処理は光源もしくは光源に照射された被写体の検知において、位置記憶部144で指定する画像の検知範囲(たとえば範囲Mn=[x1,y1 - x2,y2])におけるn個分の解析処理を、1フレーム内で処理を行う。
または、1フレームの時間内でn個分の解析処理を行えない場合には、1フレームでの解析処理は1つのnの範囲で行い、その完了後次のフレームから2つ目の範囲の解析処理を順時行う方法でもかまわない。
The position storage unit 144 stores, for example, detection information on the positions and sizes of a plurality of subjects detected with high accuracy by removing unnecessary moving objects from the signal component of the light source, which is determined by the subject position determination unit 17.
As described above, the light source analysis processing unit 14 includes the position storage unit 144 that can specify a calculation range for image analysis of the first calculation unit 141 and the second calculation unit 142.
The position storage unit 144 can store a plurality (n) of pieces of position information, and the capture range position storage unit 145 has a capacity for storing a plurality (n) of pairs in the position storage unit 144.
Therefore, the detection process of the light source analysis processing unit 14 is performed in the detection range of the image specified by the position storage unit 144 (for example, the range Mn = [x1, y1−x2, y2]) in the detection of the light source or the object irradiated to the light source. n analysis processes are performed within one frame.
Alternatively, if n analysis processes cannot be performed within the time of one frame, the analysis process in one frame is performed in one n range, and after the completion, the analysis in the second range from the next frame is performed. A method of performing processing in order may also be used.

捕捉位置記憶部145は、位置記憶部144の記憶情報による解析処理に対になり、位置記憶部144の指定する画像の検知範囲(Mn=[x1,y1-x2,y2])に対し、MHn=[xh1,yh1 - xh2,yh2]の範囲のn個分の解析処理を、位置記憶部144の範囲の処理と同一の1フレーム内で処理を行うための情報を格納する。
捕捉位置記憶部145の捕捉範囲位置は、x1≧xh1、y1≧yh1、x2≦xh2、y2≦yh2の範囲であり、その捕捉範囲位置の決定は、位置記憶部144の値を参照し係数から自働的に算出する、もしくは、各画像範囲をあらかじめ決定する方法でもよい。
解析処理により得たn個の指定範囲の画像は光源もしくは光源に照射された被写体があれば、検知画像として取得できる。
光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な検知処理ではなく全体の画像に対する光源解析処理を行う。
The captured position storage unit 145 is paired with an analysis process based on the stored information of the position storage unit 144, and MHn with respect to an image detection range (Mn = [x1, y1-x2, y2]) designated by the position storage unit 144. Stores information for performing n analysis processes in the range of = [xh1, yh1-xh2, yh2] in one frame that is the same as the process in the range of the position storage unit 144.
The capture range position of the capture position storage unit 145 is a range of x1 ≧ xh1, y1 ≧ yh1, x2 ≦ xh2, y2 ≦ yh2, and the determination of the capture range position is based on the coefficient by referring to the value of the position storage unit 144 A method of calculating automatically or determining each image range in advance may be used.
An image in the n designated ranges obtained by the analysis process can be acquired as a detected image if there is a light source or a subject irradiated with the light source.
Since the detection range is not specified in the initial state in which position information or the like is not stored in the position storage unit 144, the light source analysis processing unit 14 performs light source analysis processing on the entire image instead of selective detection processing.

また、位置記憶部144は不揮発性メモリ、もしくは設定ファイルであった場合、停電時などにも影響なく検知位置を復帰できる。また、被写体位置決定を行うか否かを選択するフラグを有する。
また、位置記憶部144の一部は揮発性メモリを有し、一時記憶用に利用できる。
位置記憶部144は、被写体の位置座標、大きさ、被写体の周波数検知感度(信号レベル)、被写体個別番号等の情報を保存する機能を有する。
Further, when the position storage unit 144 is a nonvolatile memory or a setting file, the detection position can be restored without being affected by a power failure. In addition, it has a flag for selecting whether or not to determine the subject position.
A part of the position storage unit 144 has a volatile memory and can be used for temporary storage.
The position storage unit 144 has a function of storing information such as the position coordinates and size of the subject, the frequency detection sensitivity (signal level) of the subject, and the individual number of the subject.

図2は、本実施形態に係る位置記憶部144において保存する情報テーブルの一例を示す図である。   FIG. 2 is a diagram illustrating an example of an information table stored in the position storage unit 144 according to the present embodiment.

図2において、「No」は被写体の個別番号を示す。「x,y」は被写体の開始位置座標を示し、「xe,ye」は被写体の終了位置座標を示す。「n」は被写体の数に対応した番号を示す。「level」は被写体の周波数感度である信号レベル(信号強度)を示す。
このテーブルTBL1の例では、「No.1」の被写体は、開始位置座標が「10,10」、終了位置座標が「20,20」の1番目の被写体であり、その信号レベルは相対的に「40」である。
「No.2」の被写体は、開始位置座標が「30,30」、終了位置座標が「50,60」の2番目の被写体であり、その信号レベルは相対的に「43」である。
「No.3」の被写体は、開始位置座標が「100,100」、終了位置座標が「120,120」の3番目の被写体であり、その信号レベルは相対的に「50」である。
「No.4」の被写体は、開始位置座標が「300,300」、終了位置座標が「325,315」の4番目の被写体であり、その信号レベルは相対的に「60」である。
In FIG. 2, “No” indicates the individual number of the subject. “X, y” indicates the start position coordinates of the subject, and “xe, ye” indicates the end position coordinates of the subject. “N” indicates a number corresponding to the number of subjects. “Level” indicates a signal level (signal intensity) which is frequency sensitivity of the subject.
In this example of the table TBL1, the subject of “No. 1” is the first subject with the start position coordinates “10, 10” and the end position coordinates “20, 20”, and the signal level is relatively high. “40”.
The subject of “No. 2” is the second subject whose start position coordinates are “30, 30” and end position coordinates are “50, 60”, and its signal level is relatively “43”.
The “No. 3” subject is the third subject whose start position coordinates are “100, 100” and end position coordinates are “120, 120”, and its signal level is relatively “50”.
The subject of “No. 4” is the fourth subject having a start position coordinate of “300, 300” and an end position coordinate of “325, 315”, and its signal level is relatively “60”.

以上のように、本実施形態の光源解析処理部14では、複数の被写体の位置に関する情報を記憶できるメモリである位置記憶部144を備え、その位置記憶部144に被写体位置を示す画像領域の座標値と被写体番号等の、被写体の検知情報をもつ。
光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標が存在する場合は、その座標で指定される検知範囲の画像を、捕捉位置記憶部145に記憶される検知位置より大きいサイズの捕捉範囲を含めて解析(検知)する機能を有している。
位置記憶部144への検知情報の記憶は被写体位置決定部17で行う。
As described above, the light source analysis processing unit 14 of the present embodiment includes the position storage unit 144 that is a memory that can store information on the positions of a plurality of subjects, and the position storage unit 144 has coordinates of an image area that indicates the subject position. It has subject detection information such as value and subject number.
Source analyzing unit 14, when the detection position coordinates stored in the position storage section 144 is present, the detection position of the image of the test knowledge range designated by the coordinates are stored in the acquisition position storage section 145 It has a function of analyzing (detecting) including a larger size capture range.
The subject position determination unit 17 stores the detection information in the position storage unit 144.

光源解析処理部14は、たとえば図示しない制御系により指定されるあるいは位置記憶部144の検知情報の有無に応じて自動的に切り替わる2つのモード、具体的には全画素検知モードと被写体位置検知モードで動作可能である。
全画素検知モードでは、光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な解析処理ではなく全体の画像に対する光源解析処理を行う。
この全画素検知モードにおける検知結果に基づいて、後述する被写体位置決定部17で、複数の被写体の位置に関する情報が検知されて、この検知情報が位置記憶部144に記憶される。
たとえばこの検知情報が位置記憶部144に記憶されると、光源解析処理部14は、全画素検知モードから被写体位置検知モードに切り替わる。
被写体位置検知モードでは、光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知範囲の画像を解析(検知)する。
この光源解析処理部14を有することから、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
The light source analysis processing unit 14 is, for example, two modes that are designated by a control system (not shown) or automatically switched according to the presence or absence of detection information in the position storage unit 144, specifically, an all-pixel detection mode and a subject position detection mode. It is possible to operate with.
In the all-pixel detection mode, the light source analysis processing unit 14 does not specify a detection range in the initial state where position information or the like is not stored in the position storage unit 144. Perform analysis processing.
Based on the detection result in the all-pixel detection mode, the subject position determination unit 17 described later detects information regarding the positions of a plurality of subjects, and the detection information is stored in the position storage unit 144.
For example, when this detection information is stored in the position storage unit 144, the light source analysis processing unit 14 switches from the all-pixel detection mode to the subject position detection mode.
The subject position detection mode, the light source analyzing unit 14, based on the detection position coordinates or the like stored in the position storage unit 144, analyzes the image of the test knowledge range designated by the coordinates (detection).
Since the light source analysis processing unit 14 is provided, the detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. Is also effective and can be detected with high accuracy.

フィルタ処理部15は、上述した初期状態時には、全体の画像をフィルタ処理によりノイズ低減を行い判定部16に出力する。
フィルタ処理部15は、光源解析処理部14におけるn個の検知画像をフィルタ処理によりノイズ低減や検知されなかった部分の消去を行い判定部16に出力する。
In the initial state described above, the filter processing unit 15 performs noise reduction on the entire image by filter processing and outputs the noise to the determination unit 16.
The filter processing unit 15 performs noise reduction on the n detected images in the light source analysis processing unit 14 or eliminates a portion that has not been detected by the filter processing, and outputs the result to the determination unit 16.

上述した初期状態においては、判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減された全体画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減や検知されなかった部分が消去された検知画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
In the above-described initial state, the determination unit 16 is output from the arithmetic processing unit 143 and based on the square sum value (A 2 + B 2 ) of the entire image that has been reduced in noise by the filter processing unit 15. For example, it is determined whether the subject imaged is stationary or moving. Details of the operation of the determination unit 16 will be described later.
Based on the square sum value (A 2 + B 2 ) of the detected image that is output from the arithmetic processing unit 143 and from which the filter processing unit 15 has eliminated noise and has not been detected, the determination unit 16 For example, it is determined whether the subject imaged at 12 is stationary or moving. Details of the operation of the determination unit 16 will be described later.

被写体位置決定部17は、判定部16にて得られた検知状態から、全画像の中から被写体の位置を検索する位置検索処理部171、および位置検索処理部171の位置検索結果を格納する位置検索情報記憶部172を有する。   The subject position determination unit 17 stores the position search processing unit 171 that searches for the position of the subject from all the images from the detection state obtained by the determination unit 16 and the position search result of the position search processing unit 171. A search information storage unit 172 is included.

図3(A)および(B)は、本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。
図3(A)に示すように、位置決定前の被写体OBJ1,OBJ2が検索され、検索結果から図3(B)に示すように、矩形の枠DTRG1,DTRG2に示す範囲に被写体OBJ1,OBJ2の位置が決定され、その範囲が光源解析処理部14の解析対象および判定部16の検知対象となる。
この位置決定後の範囲等の検知情報は、光源解析処理部14の位置記憶部144に格納される。本実施形態においては、上述したようにその範囲の検知のみ行うことが可能な被写体位置検知モードと全画像を対象とする全画像検知モードを持つ。
たとえば、特定の位置の被写体のみを検知することが必要な用途では、位置記憶部144に格納された範囲の被写体位置検知モードで動作させる。
その場合、上述したように、特定の位置を設定するために被写体位置決定部17により、最初に被写体対象位置を検索し位置記憶部144に格納し、以降は記憶された位置の検知のみ行うという利用に応用できる。
FIGS. 3A and 3B are diagrams conceptually showing states before and after the position of a subject in the subject position determination unit according to the present embodiment.
As shown in FIG. 3A, the subjects OBJ1 and OBJ2 before the position determination are searched, and as shown in FIG. The position is determined, and the range becomes the analysis target of the light source analysis processing unit 14 and the detection target of the determination unit 16.
Detection information such as the range after the position determination is stored in the position storage unit 144 of the light source analysis processing unit 14. In the present embodiment, as described above, there are a subject position detection mode in which only the detection of the range is possible and an all image detection mode for all images.
For example, in an application where it is necessary to detect only a subject at a specific position, the operation is performed in the subject position detection mode in the range stored in the position storage unit 144.
In that case, as described above, in order to set a specific position, the subject position determination unit 17 first searches the subject target position and stores it in the position storage unit 144, and thereafter only the detection of the stored position is performed. Applicable for use.

被写体位置決定部17は、被写体の大きさから検知範囲を決定する。
被写体位置決定部17において、検知範囲の決定には、検知範囲DTRGの(x,y)幅が1つのみの固定の場合の第1のモードと、(x,y)幅を、被写体の大きさを測定し(x,y)幅をあらかじめ用意した複数のテーブルから現在の(x、y)幅を超えた(もしくは以下になった)大きさのテーブル値の検知範囲DTRGを選択する第2のモードとの2つのモードがある。
検知範囲DTRGの(x,y)幅テーブルは、たとえば位置検索情報記憶部172に格納される。
被写体位置決定部17は、第1のモードと第2のモードのいずれかを選択でき、これらの機能を有する構成となる。
この検知範囲を被写体の大きさをあらかじめ用意したテーブルから判定して検知範囲を決定するモードにより、被写体の大きさと位置を高速に検知することができる。
The subject position determination unit 17 determines the detection range from the size of the subject.
In the subject position determination unit 17, the detection range is determined using the first mode when the (x, y) width of the detection range DTRG is fixed to one and the (x, y) width according to the size of the subject. Second, a table value detection range DTRG having a size exceeding (or below) the current (x, y) width is selected from a plurality of tables prepared in advance with a (x, y) width. There are two modes:
The (x, y) width table of the detection range DTRG is stored in the position search information storage unit 172, for example.
The subject position determination unit 17 can select either the first mode or the second mode, and has a configuration having these functions.
This detection range is determined from a table in which the size of the subject is prepared in advance and the detection range is determined, so that the size and position of the subject can be detected at high speed.

図4は、本実施形態に係る被写体位置決定部17において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。   FIG. 4 is a diagram illustrating an example of (x, y) width table information of the detection range referred to for position determination in the subject position determination unit 17 according to the present embodiment.

図4において、「No」は被写体の検知範囲の(x,y)幅情報の番号を示す。「x,y」は被写体の検知範囲DTRGの大きさ情報を示し、sBlKは検索ブロック数(画素数)を示す。
この(x,y)幅テーブルTBL2の例では、「No.1」の検知範囲DTRGは「10×10」でブロック数が「2」の場合である。
「No.2」の検知範囲DTRGは「30×30」でブロック数が「4」の場合である。
「No.3」の検知範囲DTRGは「100×100」でブロック数が「8」の場合である。
「No.4」の検知範囲DTRGは「300×300」でブロック数が「12」の場合である。
被写体位置決定部17の位置検索処理部171は、この(x,y)幅テーブルTBL2を参照し、たとえば「No」の小さい方から昇順に、あるいは「No」の大きい方から降順にサーチして、対象被写体に最も適した検知範囲を決定する。
In FIG. 4, “No” indicates the number of (x, y) width information of the subject detection range. “X, y” indicates the size information of the object detection range DTRG, and sBlK indicates the number of search blocks (number of pixels).
In the example of the (x, y) width table TBL2, the detection range DTRG of “No. 1” is “10 × 10” and the number of blocks is “2”.
The detection range DTRG of “No. 2” is “30 × 30” and the number of blocks is “4”.
The detection range DTRG of “No. 3” is “100 × 100” and the number of blocks is “8”.
The detection range DTRG of “No. 4” is “300 × 300” and the number of blocks is “12”.
The position search processing unit 171 of the subject position determination unit 17 refers to the (x, y) width table TBL2, and searches, for example, in ascending order from the smaller “No” or in descending order from the larger “No”. The detection range most suitable for the target subject is determined.

また、被写体位置決定部17は、被写体の大きさから検知範囲DTRGを微調整することが可能に構成される。
検知範囲の微調整は、検知範囲DTRG(x,y)が決定した状態から、あらかじめ用意した微調整値テーブルもしくは微調整式[x1 = x * sP1 , y1 = y * sP2 ]により検知範囲の(x,y)幅を微調整する機能を有する構成となる。
ここでは、「sP1」、「sP2」は調整用パラメータで、たとえば1<sP1,sP2<2の値をとる。
この機能により、通常検知範囲内で検知可能な被写体に小さな揺れや移動が発生しても、被写体の範囲から外れることなく検知することができる。
特に、被写体が光源の場合は効果的である。
The subject position determination unit 17 is configured to be able to finely adjust the detection range DTRG from the size of the subject.
For fine adjustment of the detection range, from the state where the detection range DTRG (x, y) is determined, the fine adjustment value table prepared in advance or the fine adjustment formula [x1 = x * sP1, y1 = y * sP2] x, y) The configuration has a function of finely adjusting the width.
Here, “sP1” and “sP2” are adjustment parameters and take values of, for example, 1 <sP1, sP2 <2.
With this function, even if a small shake or movement occurs in a subject that can be detected within the normal detection range, it can be detected without departing from the subject range.
This is particularly effective when the subject is a light source.

次に、本実施形態に係る被写体位置決定部17における検知位置の決定処理を、図5〜図8に関連付けて具体的に説明する。
図5および図6は、本実施形態に係る被写体位置決定部17における検知位置の決定処理を具体的に説明するためのフローチャートであって、図5は位置決定処理を行う場合のフローチャートであり、図6は位置決定処理を行わない場合のフローチャートである。
図7は、1つの光源もしくは反射光の被写体の検索法を説明するための図である。
図8は、検知範囲の微調整処理を説明するための図である。
以下の処理は位置検索処理部171が中心に行うことになるが、ここでは、被写体位置決定部17の処理として説明する。
Next, the detection position determination process in the subject position determination unit 17 according to the present embodiment will be specifically described with reference to FIGS.
5 and 6 are flowcharts for specifically explaining the detection position determination process in the subject position determination unit 17 according to the present embodiment, and FIG. 5 is a flowchart in the case of performing the position determination process. FIG. 6 is a flowchart when the position determination process is not performed.
FIG. 7 is a diagram for explaining a method of searching for a subject of one light source or reflected light.
FIG. 8 is a diagram for explaining detection range fine adjustment processing.
The following processing is performed mainly by the position search processing unit 171. Here, the processing will be described as processing by the subject position determination unit 17.

被写体位置決定部17は、位置決定処理を行うか否かを判定する(ST1)。
被写体位置決定部17は、ステップST1において位置決定処理を行うと判定すると、位置検索情報記憶部172に格納されている(x,y)幅テーブルTBL2を参照してサーチ(調査)することにより検知範囲DTRGの(x,y)幅を決定する(ST2)。
そして、被写体位置決定部17は、たとえば光源解析処理部14の位置記憶部144における検知位置に関する情報の記憶領域をクリアする(ST3)。
次に、被写体位置決定部17は、検知範囲DTRGの(x,y)幅で対象周波数のピクセル数を調査する(ST4)。
The subject position determination unit 17 determines whether or not to perform position determination processing (ST1).
When the subject position determination unit 17 determines that the position determination process is to be performed in step ST1, the subject position determination unit 17 performs detection (search) with reference to the (x, y) width table TBL2 stored in the position search information storage unit 172. The (x, y) width of the range DTRG is determined (ST2).
Then, for example, the subject position determination unit 17 clears the storage area for information on the detected position in the position storage unit 144 of the light source analysis processing unit 14 (ST3).
Next, the subject position determination unit 17 investigates the number of pixels of the target frequency with the (x, y) width of the detection range DTRG (ST4).

ステップST4における処理を図7および図8に関連付けて説明する。
被写体位置決定部17は、図7(A)〜(D)に示すような方法で、(x,y)幅テーブルTBL2を参照して、1つの光源もしくは反射光の被写体の検索を行う。
まず、図7(A)に示すように、検索の最小単位を1ブロックBLKとする。
図7(A)には、縦×横の検索ピクセルspixの例として2×2の場合が示されている。
一つのブロックの検知強度は全ピクセルの総和を2×2で除した値となる。
ここで、検索を開始する。
The process in step ST4 will be described with reference to FIGS.
The subject position determination unit 17 refers to the (x, y) width table TBL2 and searches for a subject of one light source or reflected light by a method as shown in FIGS.
First, as shown in FIG. 7A, the minimum unit of search is one block BLK.
FIG. 7A shows a 2 × 2 case as an example of a vertical × horizontal search pixel spix.
The detection intensity of one block is a value obtained by dividing the sum of all pixels by 2 × 2.
Here, the search is started.

図7(B)に示すように、1回の横ラインLLNの検索処理を行う。
この場合、検索ブロックsblk=2であり、2×2ブロックを横ライン(x方向)LLNに検索する。
検索ブロックsblkが2の場合、縦(y)2、横(x)2であることから、検出したブロック数をカウントする。
ブロックBLKの符号2,3,4で示されたブロックで検出できていればカウント値は3となる。
被写体位置決定部17は、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した横ラインLLNの情報を位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全横ライン検索する。
次に、1回の縦ラインの検索処理を行う。
As shown in FIG. 7B, one horizontal line LLN search process is performed.
In this case, the search block sblk = 2, and the 2 × 2 block is searched for the horizontal line (x direction) LLN.
When the search block sblk is 2, since it is vertical (y) 2 and horizontal (x) 2, the number of detected blocks is counted.
If the block BLK is detected by the blocks indicated by reference numerals 2, 3, and 4, the count value is 3.
In the case of a table in which the number of search blocks sblk is large, the subject position determination unit 17 repeats the process with reference to the next number sblk in the detection range table until the count value becomes 1.
Information on the detected horizontal line LLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, one vertical line search process is performed.

図7(C)に示すように、1回の縦ラインVLNの検索処理を行う。
被写体位置決定部17は、位置検索情報記憶部172に記憶している横ラインLLNの検知ライン中から、縦方向に検索ブロック数sblkで示されるブロック幅で検索を行う。
検索方法は横ラインLLNの検索と同様であり、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した縦ラインVLNを位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全縦ライン検索する。
次に、検知範囲DTRGの検索処理を行う。
As shown in FIG. 7C, one vertical line VLN search process is performed.
The subject position determination unit 17 searches the detection line of the horizontal line LLN stored in the position search information storage unit 172 with a block width indicated by the number of search blocks sblk in the vertical direction.
The search method is the same as the search of the horizontal line LLN. In the case of a table in which the number of search blocks sblk is large, the process is repeated with reference to the next number sblk in the detection range table until the count value becomes 1.
The detected vertical line VLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, a search process for the detection range DTRG is performed.

図7(D)に示すように、検知範囲DTRGの検索処理を行う。
上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
次に検知範囲DTRGの決定処理を行う。
この場合も上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
そして、被写体位置決定部17は、検知範囲[(x,y)−(xe,ye)]DTRGを決定する。
そして、決定範囲に微調整用パラメータsP1,sP2の倍率で微調整する。
なお、以上の処理は、複数の光源でも同時に行うことが可能である。
As shown in FIG. 7D, the detection process of the detection range DTRG is performed.
A continuous vertical and horizontal block detected by the horizontal line LLN and the vertical line VLN from the above processing is defined as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Next, the detection range DTRG is determined.
Also in this case, continuous vertical and horizontal blocks that can be detected by the horizontal line LLN and the vertical line VLN from the above processing are set as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Then, the subject position determination unit 17 determines the detection range [(x, y) − (xe, ye)] DTRG.
Then, fine adjustment is performed within the determination range with the magnification of the fine adjustment parameters sP1 and sP2.
The above processing can be performed simultaneously with a plurality of light sources.

被写体位置決定部17は、図8(A)〜(F)に示すような方法で、検知範囲DTRGの微調整処理を行う。
被写体位置決定部17は、各決定範囲において、検知強度の範囲微調整は各検知範囲毎に4方向もしくは8方向に検知強度を調査し、最も検知強度の高い場所で最終決定する。
この例では、図8(B)で1ブロック上の検知強度を調査し、図8(C)で1ブロック右の検知強度を調査し、図8(D)で1ブロック下の検知強度を調査し、図8(E)で1ブロック左の検知強度を調査する。
そして、図8(F)で、最も検知強度の高い場所で最終的な検知範囲DTRGを決定する。
換言すれば、検知範囲DTRGのほぼ中央部に被写体OBJが位置する場所を最終的な検知範囲DTRGとして決定する。
The subject position determination unit 17 performs fine adjustment processing of the detection range DTRG by a method as shown in FIGS.
The subject position determination unit 17 finely adjusts the detection intensity in each determination range, investigates the detection intensity in four directions or eight directions for each detection range, and finally determines the detection intensity in a place with the highest detection intensity.
In this example, the detection intensity on one block is investigated in FIG. 8 (B), the detection intensity on the right of one block is investigated in FIG. 8 (C), and the detection intensity below one block is examined in FIG. 8 (D). Then, in FIG. 8E, the detection intensity on the left of one block is investigated.
Then, in FIG. 8F, the final detection range DTRG is determined at the place where the detection intensity is the highest.
In other words, the place where the subject OBJ is located at substantially the center of the detection range DTRG is determined as the final detection range DTRG.

ステップST4において対象周波数のブロック数を調査した後、被写体位置決定部17は、対象周波数のブロック数が0より大きいか否かの判定を行う(ST5)。
ステップST5で対象周波数のブロック数が0より大きいと判定すると、被写体位置決定部17は、光源解析処理部14の位置記憶部144へ検索して得た検知位置情報を記憶する(ST6)。
そして、位置記憶部114のテーブルTBL1の番号「No」を+1する(ST7)。
被写体位置決定部17は、次の検知範囲DTRG(x,y)を指定する(ST8)。
被写体位置決定部17は、ステップST5で対象周波数のブロック数が0であると判定すると、ステップST6,ST7の処理を行わず、ステップST8の処理に移行する。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST5〜ST8の処理を繰り返す。
ステップST8において、対象画像の検知が完了すると、位置記憶部144の検知位置情報から(x,y)方向に連続する番号のエリアを統合し(ST10)、検知位置の数を取得する(ST11)。
After examining the number of blocks of the target frequency in step ST4, the subject position determination unit 17 determines whether or not the number of blocks of the target frequency is greater than 0 (ST5).
If it is determined in step ST5 that the number of blocks of the target frequency is greater than 0, the subject position determination unit 17 stores the detected position information obtained by searching the position storage unit 144 of the light source analysis processing unit 14 (ST6).
Then, the number “No” in the table TBL1 of the position storage unit 114 is incremented by 1 (ST7).
The subject position determination unit 17 designates the next detection range DTRG (x, y) (ST8).
If the subject position determination unit 17 determines in step ST5 that the number of blocks of the target frequency is 0, the process proceeds to step ST8 without performing steps ST6 and ST7.
The subject position determination unit 17 repeats the processes of steps ST5 to ST8 until the detection of the target image is completed (ST9).
In step ST8, when the detection of the target image is completed, areas with numbers consecutive in the (x, y) direction are integrated from the detected position information in the position storage unit 144 (ST10), and the number of detected positions is acquired (ST11). .

被写体位置決定部17は、ステップST1において位置決定処理を行わないと判定すると、図6のステップST12からの処理に移行する。
被写体位置決定部17は、位置記憶部144から指定番号を取得する(ST12)。
ここで、被写体位置決定部17は、指定番号があるか否かを判定する(ST13)。
ステップST13において指定番号があると判定すると、被写体位置決定部17は、指定番号から位置記憶部144の検知範囲FTRGの(x,y)幅情報を取得し(ST14)、検知範囲DTRGの被写体の状態を検知(検索)する(ST15)。
そして、位置記憶部114のテーブルTBL1の番号「No」を+1する(ST16)。
被写体位置決定部17は、対象画像の検知が完了するまで(ST17)、ステップST14〜ST16の処理を繰り返す。
被写体位置決定部17は、ステップST13において指定番号がないと判定すると、ステップST14〜ST17の処理は行わず、全画素の被写体の状態を検知(検索)する。
If the subject position determination unit 17 determines not to perform the position determination process in step ST1, the subject position determination unit 17 proceeds to the process from step ST12 in FIG.
The subject position determination unit 17 acquires the designated number from the position storage unit 144 (ST12).
Here, the subject position determination unit 17 determines whether or not there is a designated number (ST13).
If it is determined in step ST13 that there is a designated number, the subject position determining unit 17 acquires (x, y) width information of the detection range FTRG in the position storage unit 144 from the designated number (ST14), and the subject in the detection range DTRG is acquired. A state is detected (searched) (ST15).
Then, the number “No” in the table TBL1 of the position storage unit 114 is incremented by 1 (ST16).
The subject position determination unit 17 repeats the processes of steps ST14 to ST16 until the detection of the target image is completed (ST17).
If the subject position determination unit 17 determines that there is no designated number in step ST13, the subject position determination unit 17 detects (searches) the subject state of all pixels without performing the processing of steps ST14 to ST17.

妨害行為判定部18は、検知範囲位置の状態による撮像装置の位置ズレ検知(いたずら)、被写体の検知情報の状態による被写体無応答検知(妨害行為予測)、被写体連続応答検知(異常動体行為予測)により、一定時間内の反応数、検知時間測定、検知位置、検知情報を通知する機能を有する。
妨害行為判定部18は、たとえば被写体位置決定部17の位置検索情報記憶部172に記憶された位置検索情報および光源解析処理部14の捕捉位置記憶部145の捕捉位置情報に基づいて、位置ズレ検知等を行う。
Sabotage determination unit 18, positional deviation detection image pickup device according to the state of the position of the detection range (mischief), subject no response detected by the state of the object detection information (sabotage prediction), subject continuous response detection (anomaly motion acts prediction ) To notify the number of reactions within a certain time, detection time measurement, detection position, and detection information.
Sabotage determination unit 18, for example on the basis of the acquisition position information acquisition position storage section 145 of the position search information location retrieval information stored in the storage unit 172 and the light source analyzing unit 14 of the object position determination unit 17, a position deviation detection Etc.

[位置ズレ検知]
妨害行為判定部18は、位置記憶部144および位置検索情報記憶部172に格納された検知範囲Mnと捕捉位置記憶部145に記憶された捕捉範囲MHnに対して、被写体の位置が検知範囲Mnや捕捉範囲MHnから外れることで検知信号を取得できなくなり、異常検知と判断する。
[Position detection]
The disturbing action determination unit 18 is configured such that the position of the subject is detected in the detection range Mn or the detection range Mn stored in the position storage unit 144 and the position search information storage unit 172 and the capture range MHn stored in the capture position storage unit 145. The detection signal cannot be acquired by deviating from the capture range MHn, and it is determined that an abnormality has been detected.

図9(A)〜(C)は、本実施形態に係る位置ズレ判定を説明するための図である。
図9(A)〜(C)において、2重の枠体のうち内側の枠体が検知範囲Mnを、外側の枠体が捕捉範囲MHnである。また、図中、OBJは被写体を示している。
9A to 9C are diagrams for explaining the positional deviation determination according to the present embodiment.
9A to 9C, the inner frame of the double frames is the detection range Mn, and the outer frame is the capture range MHn. In the drawing, OBJ indicates a subject.

図9(A)は、被写体OBJが検知範囲Mn内にある場合を示しており、妨害行為判定部18においては、位置ズレがなく正常(第1正常状態)NR1であると判定される。
図9(B)は、被写体OBJの一部が検知範囲にあり、被写体OBJの残りの部分が検知範囲Mn外で捕捉範囲MHn内にある場合を示しており、妨害行為判定部18においては、許容範囲内の位置ズレであるとして正常(第2正常状態)NR2であると判定される。
図9(C)は、被写体OBJが検知範囲Mnおよび捕捉範囲MHn外にある場合を示しており、妨害行為判定部18においては、位置ズレPGが発生していると判定される。
FIG. 9A shows a case where the subject OBJ is within the detection range Mn, and the disturbing action determination unit 18 determines that there is no positional deviation and is normal (first normal state) NR1.
FIG. 9B shows a case where a part of the subject OBJ is in the detection range and the remaining part of the subject OBJ is outside the detection range Mn and within the capture range MHn. It is determined that it is normal (second normal state) NR2 because the positional deviation is within the allowable range.
FIG. 9C shows a case where the subject OBJ is outside the detection range Mn and the capture range MHn, and the disturbing action determination unit 18 determines that a positional deviation PG has occurred.

図10は、本実施形態において、検知範囲および捕捉範囲を用いた位置ズレの非発生および発生を波形で示す図である。
図10において、横軸は時間tを、縦軸は相対的な検知強度をそれぞれ示している。
図10においては、図9(A),(B),(C)に対応して、図中の左側から第1正常状態NR1、第2正常状態NR2、被写体OBJの検知がなく位置ズレPGが発生している場合の波形を連続的に示している。
FIG. 10 is a diagram showing the non-occurrence and occurrence of a positional shift using the detection range and the capture range in the present embodiment as waveforms.
In FIG. 10, the horizontal axis indicates time t, and the vertical axis indicates relative detection intensity.
In FIG. 10, corresponding to FIGS. 9A, 9B, and 9C, the first normal state NR1, the second normal state NR2, and the subject OBJ are not detected from the left side in the drawing, and the positional deviation PG is not detected. The waveform when it occurs is shown continuously.

位置ズレPGが発生している場合のように、完全に遮断検知と判定できる場合と違い、第2正常状態NR2の場合は次のようにして判定を行うことができる。
この場合、検知範囲Mn内の信号強度と捕捉範囲MHn内の信号強度の中間近辺に被写体があるのであれば、その差分値VDFにより遮断状態か位置ズレ状態かを判定できる。
Unlike the case where it can be determined that the blocking is completely detected as in the case where the positional deviation PG has occurred, in the case of the second normal state NR2, the determination can be performed as follows.
In this case, if there is a subject in the vicinity of the signal intensity in the detection range Mn and the signal intensity in the capture range MHn, it is possible to determine whether the state is a cutoff state or a position shift state based on the difference value VDF.

また、位置ズレと遮断を区別するには、図11および図12のようにして判定することができる。
図11は、位置ズレの状態遷移と対応する検知波形を示す図である。
図12は、遮蔽物により遮断発生時の状態遷移と対応する検知波形を示した図である。
図11および図12において、検知範囲Mnと捕捉範囲MHn内にある場合、信号波形はハイレベルをとり、範囲外の場合にはローレベルをとる。
Further, in order to distinguish the positional deviation and the blocking, it can be determined as shown in FIGS.
FIG. 11 is a diagram illustrating detection waveforms corresponding to the state transition of the positional deviation.
FIG. 12 is a diagram illustrating a detection waveform corresponding to a state transition at the time of occurrence of blocking by the shielding object.
11 and 12, the signal waveform takes a high level when it is within the detection range Mn and the capture range MHn, and takes a low level when out of the range.

図11は、被写体OBJが検知範囲Mn内にある第1状態STT1、被写体OBJが検知範囲Mn外で捕捉範囲MHn内にある第2状態STT2、同じく被写体OBJが検知範囲Mn外で捕捉範囲MHn内にある第3状態STT3、被写体が検知範囲Mn内にある第4状態STT4と遷移する例を示している。
この場合、第2状態STT2と第3状態STT3は検知範囲Mnの信号レベルはローレベルであるが、捕捉範囲MHnの信号レベルは第1状態STT1〜第4状態STT4まですべてハイレベルとなり、正常状態として判定される。
FIG. 11 shows a first state STT1 in which the subject OBJ is within the detection range Mn, a second state STT2 in which the subject OBJ is outside the detection range Mn and within the capture range MHn, and the subject OBJ is outside the detection range Mn and within the capture range MHn. The third state STT3 in FIG. 5 and the fourth state STT4 in which the subject is within the detection range Mn are shown.
In this case, in the second state STT2 and the third state STT3, the signal level of the detection range Mn is low, but the signal level of the capture range MHn is all high from the first state STT1 to the fourth state STT4, and is in a normal state. Is determined.

図12は、被写体OBJが検知範囲Mn内にある第1状態STT11、遮蔽物MSKにより検知範囲Mnと捕捉範囲MHnが遮蔽されている第2状態STT12、被写体OBJが検知範囲Mn内にある第3状態STT13、被写体OBJが検知範囲Mn内にある第4状態STT14と遷移する例を示している。
この場合、第2状態〜第4状態STT12〜STT14は検知範囲Mnの信号レベルはローレベルであるが、捕捉範囲MHnの信号レベルは第1状態STT11と第3状態STT13がハイレベルとなり、第2状態STT12と第4状態STT14がローレベルとなり遮断が発生したものとして判定される。
FIG. 12 shows a first state STT11 in which the subject OBJ is in the detection range Mn, a second state STT12 in which the detection range Mn and the capture range MHn are shielded by the shield MSK, and a third state in which the subject OBJ is in the detection range Mn. An example is shown in which the state STT13 and the subject OBJ transition to the fourth state STT14 in the detection range Mn.
In this case, in the second state to the fourth state STT12 to STT14, the signal level of the detection range Mn is low, but the signal level of the capture range MHn is high in the first state STT11 and the third state STT13. It is determined that the state STT12 and the fourth state STT14 are at the low level, and the interruption has occurred.

[被写体無応答検知]
図10の検知状態において、被写体検知なし状態が時間tAlm継続する場合には、無応答として遮断連続検知と判定される。
[Subject no response detection]
In the detection state of FIG. 10, when the state of no subject detection continues for the time tAlm, it is determined that there is no response and the continuous interruption detection.

[連続異常応答検知]
妨害行為判定部18は、位置記憶部144および位置検索情報記憶部145に格納された検知範囲Mnと捕捉位置記憶部145に格納された捕捉範囲MHnに対して、被写体OBJの位置が検知範囲Mnや捕捉範囲MHnから外れることで微動による検知異常や、閾値Th近辺の繰り返し検知なし判定に対して、異常検知と判断する。
[Continuous abnormal response detection]
The disturbing action determination unit 18 determines that the position of the subject OBJ is the detection range Mn with respect to the detection range Mn stored in the position storage unit 144 and the position search information storage unit 145 and the capture range MHn stored in the capture position storage unit 145. And detection abnormality due to fine movement by deviating from the capturing range MHn, or abnormal detection near the threshold Th is determined as abnormal detection.

図13(A)〜(C)は、本実施形態に係る連続異常応答判定を説明するための図である。
図13(A)〜(C)において、2重の枠体のうち内側の枠体が検知範囲Mnを、外側の枠体が捕捉範囲MHnである。また、図中、OBJは被写体を示している。
FIGS. 13A to 13C are diagrams for explaining continuous abnormality response determination according to the present embodiment.
13A to 13C, the inner frame of the double frames is the detection range Mn, and the outer frame is the capture range MHn. In the drawing, OBJ indicates a subject.

図13(A)は、被写体OBJが検知範囲Mn内にある場合を示しており、妨害行為判定部18においては、位置ズレがなく正常(第1正常状態)NR1であると判定される。
図13(B)は、被写体OBJの一部が検知範囲にあり、被写体OBJの残りの部分が検知範囲Mn外で捕捉範囲MHn内にある場合を示している。このとき、被写体OBJが検知範囲Mnと捕捉範囲MHnの境界部で微動しており、妨害行為判定部18においては、許容範囲内の位置ズレであるとして正常(第2正常状態)NR2であると判定される。
図13(C)は、被写体OBJが検知範囲Mnおよび捕捉範囲MHn外にある場合を示している。このとき、被写体OBJが捕捉範囲MHnとその範囲外との境界部で微動しており、妨害行為判定部18においては、連続異常(連続切断)の位置ズレPGが発生していると判定される。
FIG. 13A shows a case where the subject OBJ is within the detection range Mn, and the disturbance act determination unit 18 determines that there is no positional deviation and is normal (first normal state) NR1.
FIG. 13B shows a case where a part of the subject OBJ is in the detection range and the remaining part of the subject OBJ is outside the detection range Mn and within the capture range MHn. At this time, the subject OBJ is finely moved at the boundary between the detection range Mn and the capture range MHn, and the disturbance act determination unit 18 is normal (second normal state) NR2 because it is a positional deviation within the allowable range. Determined.
FIG. 13C shows a case where the subject OBJ is outside the detection range Mn and the capture range MHn. At this time, the subject OBJ is finely moved at the boundary between the capture range MHn and the outside of the capture range MHn, and the disturbance act determination unit 18 determines that a positional deviation PG of continuous abnormality (continuous cutting) has occurred. .

図14は、本実施形態において、検知範囲および捕捉範囲を用いた位置ズレの非発生および発生、並びに連続異常応答検知を波形で示す図である。
図14において、横軸は時間tを、縦軸は相対的な検知強度をそれぞれ示している。
図14においては、図13(A),(B),(C)に対応して、図中の左側から第1正常状態NR1、第2正常状態NR2、被写体OBJの検知がなく位置ズレPGが発生している場合の波形を連続的に示している。
FIG. 14 is a diagram showing non-occurrence and occurrence of positional deviation using the detection range and the capture range, and continuous abnormal response detection in waveforms in this embodiment.
In FIG. 14, the horizontal axis indicates time t, and the vertical axis indicates relative detection intensity.
In FIG. 14, corresponding to FIGS. 13A, 13B, and 13C, the first normal state NR1, the second normal state NR2, and the subject OBJ are not detected from the left side in the figure, and the positional deviation PG is not detected. The waveform when it occurs is shown continuously.

<1>:妨害行為判定部18は、検知範囲Mn内の信号強度Dk(T)において、時間tAの信号強度の変動幅Dkw(t)を検知することで被写体OBJと撮像装置間の距離間の被写体OBJの信号強度の変動を検知できる。また、妨害行為判定部18は、時間tAの連続変動も検知できる。 <1>: The interfering action determination unit 18 detects the signal intensity variation range Dkw (t) at time tA in the signal intensity Dk (T) within the detection range Mn, so that the distance between the subject OBJ and the imaging device Variation of the signal intensity of the subject OBJ can be detected. Further, the disturbing action determination unit 18 can also detect a continuous variation in the time tA.

この場合、時間tの信号強度Dk(T)の変動幅Dkw(t)は次式で与えられる。
[数1]
Dkw(t)=Dk(t−1)−Dk(t) ・・・(1)
In this case, the fluctuation range Dkw (t) of the signal intensity Dk (T) at time t is given by the following equation.
[Equation 1]
Dkw (t) = Dk (t−1) −Dk (t) (1)

時間(区間)tAの信号強度Dk(t)の変動幅DkwtAは次式で与えられる。   The fluctuation range DkWA of the signal intensity Dk (t) at time (section) tA is given by the following equation.

Figure 0005349413
Figure 0005349413

ここで、信号強度Dk(t)の変動幅Dkw(t)の閾値をDkwThとすると、強度変動検知判定は時間tの信号強度の変動幅Dkw(t)が閾値DkwThより大きいか否か(Dkw(t)>DkwTh)で判定される。この場合、時間tの信号強度の変動幅Dkw(t)が閾値DkwThより大きいとき、強度変動と検知され判定される。
また、連続強度変動検知判定は、時間(区間)tAの信号強度Dk(t)の変動幅DkwtAが閾値DkwThより大きいか否か(DkwtA>DkwTh)で判定される。この場合、時間(区間)tAの信号強度Dk(t)の変動幅DkwtAが閾値DkwThより大きいとき、連続強度変動と検知され判定される。
Here, assuming that the threshold value of the fluctuation range Dkw (t) of the signal intensity Dk (t) is DkwTh, whether or not the intensity fluctuation detection determination is greater than the threshold value DkWTh (Dkw) It is determined by (t)> DkwTh). In this case, when the fluctuation range Dkw (t) of the signal intensity at time t is larger than the threshold value DkwTh, it is detected and determined as an intensity fluctuation.
Further, the continuous intensity fluctuation detection determination is made based on whether or not the fluctuation width DkWA of the signal intensity Dk (t) at time (section) tA is larger than the threshold DkWTh (DkWA> DkWTh). In this case, when the fluctuation width DkWA of the signal intensity Dk (t) at time (section) tA is larger than the threshold value DkWTh, it is detected and determined as a continuous intensity fluctuation.

<2>:妨害行為判定部18は、検知範囲Mnと捕捉範囲MHnにより生じる信号強度の差分値VDFの変化により位置ズレによる検知が判定でき、位置ズレ検知の時間tAにおいて差分が発生する場合には、連続位置ズレがあると判定できる。 <2>: The disturbing action determination unit 18 can determine detection due to positional deviation based on a change in the difference value VDF of the signal intensity caused by the detection range Mn and the capture range MHn, and when a difference occurs at the time tA of positional deviation detection. It can be determined that there is a continuous position shift.

この場合、検知範囲Mnの信号強度をDu(t)、捕捉範囲MHnの信号強度をDh(t)とすると、時間の差分値Ds(t)は次式で与えられる。
[数3]
Ds(t)=Dh(t)−Du(t) ・・・(3)
In this case, if the signal intensity of the detection range Mn is Du (t) and the signal intensity of the capture range MHn is Dh (t), the time difference value Ds (t) is given by the following equation.
[Equation 3]
Ds (t) = Dh (t) −Du (t) (3)

時間(区間)tAの差分値DstAは次式で与えられる。   The difference value DstA of time (section) tA is given by the following equation.

Figure 0005349413
Figure 0005349413

ここで、差分量の閾値をDstAThとすると、位置ズレ検知判定は時間の差分値Ds(t)が閾値DstAThより大きいか否か(Ds(t)>DstATh)で判定される。この場合、時間の差分値Ds(t)が閾値DstAThより大きいとき、位置ズレと検知され判定される。
また、位置ズレ微動検知判定は、時間(区間)tAの差分値DstAが閾値DstAThより大きいか否か(DstA>DstATh)で判定される。この場合、時間の差分値DstAが閾値DstAThより大きいとき、位置ズレ微動と検知され判定される。
Here, assuming that the threshold value of the difference amount is DstATh, the positional deviation detection determination is made based on whether or not the time difference value Ds (t) is larger than the threshold value DstATh (Ds (t)> DstATh). In this case, when the time difference value Ds (t) is larger than the threshold value DstATh, a position shift is detected and determined.
Further, the positional deviation fine motion detection determination is made based on whether or not the difference value DstA of the time (section) tA is larger than the threshold value DstATh (DstA> DstATh). In this case, when the time difference value DstA is greater than the threshold value DstATh, it is detected and determined as a slight positional shift.

<3>:妨害行為判定部18は、閾値Th上の時間thD以内における検知範囲Mn内の信号強度が連続的に切断を繰り返す変化があれば連続切断を検知できる。 <3>: If the signal intensity within the detection range Mn within the detection range Mn within the time thD on the threshold Th is continuously changed, the disturbing action determination unit 18 can detect continuous disconnection.

この場合も上記<1>と同様に、時間tの信号強度Dk(T)の変動幅Dkw(t)は次式で与えられる(上記数1と同様)。
[数5]
Dkw(t)=Dk(t−1)−Dk(t) ・・・(5)
Also in this case, similarly to <1> above, the fluctuation range Dkw (t) of the signal intensity Dk (T) at time t is given by the following equation (similar to the above equation 1).
[Equation 5]
Dkw (t) = Dk (t−1) −Dk (t) (5)

時間(区間)thDの信号強度Dk(t)の変動幅DkwthDは次式で与えられる。   The fluctuation width DkWthD of the signal intensity Dk (t) at time (section) thD is given by the following equation.

Figure 0005349413
Figure 0005349413

ここで、閾値Thの余裕度計数をkとすると、連続切断検知判定は、時間(区間)thDの信号強度Dk(t)の変動幅DkwthDが閾値Thに係数kを加算した値(Th+k)より小さいか否か(DkwthD<(Th+k))で判定される。この場合、時間(区間)thDの信号強度Dk(t)の変動幅DkwthDが閾値Thに係数kを加算した値(Th+k)より小さいときに、連続切断が検知され判定される。   Here, assuming that the margin count of the threshold Th is k, the continuous cut detection determination is based on the value (Th + k) where the fluctuation width DkWthD of the signal intensity Dk (t) of the time (section) thD is added to the threshold Th. It is determined by whether or not it is small (DkWthD << Th + k)). In this case, when the fluctuation range DkWthD of the signal intensity Dk (t) of the time (section) thD is smaller than the value (Th + k) obtained by adding the coefficient k to the threshold Th, the continuous cutting is detected and determined.

図15は、本実施形態において、検知範囲および捕捉範囲を用いた位置ズレの非発生および発生、並びに連続異常応答検知の検知状態を表として示す図である。   FIG. 15 is a diagram showing, as a table, the non-occurrence and occurrence of positional deviation using the detection range and the capture range and the detection state of continuous abnormal response detection in the present embodiment.

図15においては、検知範囲Mn内、捕捉範囲MHn内、および捕捉範囲MHn外の場合の検知対象を対応付けて示している。
検知対象としては、「正常検知」、「強度変動検知」、「連続強度変動検知」、「連続切断検知」、「位置ズレ検知」、「位置ズレ微動検知」が挙げられている。
In FIG. 15, detection targets in the detection range Mn, in the capture range MHn, and outside the capture range MHn are shown in association with each other.
Examples of detection targets include “normal detection”, “intensity fluctuation detection”, “continuous intensity fluctuation detection”, “continuous cut detection”, “position shift detection”, and “position shift fine movement detection”.

検知範囲Mn内の場合、「正常検知」、上記<1>の処理による「強度変動検知」、「連続強度変動検知、上記<3>の処理による「連続切断検知」、上記<2>の処理による「位置ズレ検知」、「位置ズレ微動検知」が可能である。   When within the detection range Mn, “normal detection”, “intensity fluctuation detection” by the process <1>, “continuous intensity fluctuation detection,“ continuous cutting detection ”by the process <3>, and the process <2> above “Position shift detection” and “Position shift fine movement detection” are possible.

捕捉範囲MHn内の場合、上記<2>の処理による「位置ズレ検知」、「位置ズレ微動検知」が可能である。   When within the capture range MHn, “position shift detection” and “position shift fine movement detection” by the process <2> are possible.

捕捉範囲MHn外の場合、上記<2>の処理による「位置ズレ検知」、「位置ズレ微動検知」が可能である。   When the position is outside the capture range MHn, “position shift detection” and “position shift fine movement detection” by the process <2> are possible.

次に、本実施形態に係る検知システムの他の構成および機能について詳細に説明する。
はじめに、本実施形態に係る撮像装置12のCCDの構成について説明する。
Next, other configurations and functions of the detection system according to the present embodiment will be described in detail.
First, the configuration of the CCD of the imaging device 12 according to the present embodiment will be described.

図16は、本実施形態に係るCCDの構造を説明するための一例を示す図である。   FIG. 16 is a diagram illustrating an example for explaining the structure of the CCD according to the present embodiment.

図16のCCD20はインターライン転送で、フォトダイオードPD21、垂直転送CCD22、水平転送CCD23、増幅器24を有する。
フォトダイオードPD21は、マトリクス状に配列されている。垂直ライン方向に配列されるフォトダイオードPD21は、列ごとにそれぞれ電荷を転送するための垂直転送CCD22に接続されている。各垂直転送CCD22の端部は、電荷を増幅部に転送する水平転送CCD23にそれぞれ接続されている。また、水平転送CCD23の出力側には増幅器24が接続されている。
The CCD 20 in FIG. 16 is an interline transfer, and includes a photodiode PD21, a vertical transfer CCD22, a horizontal transfer CCD23, and an amplifier 24.
The photodiodes PD21 are arranged in a matrix. The photodiodes PD21 arranged in the vertical line direction are connected to a vertical transfer CCD 22 for transferring charges for each column. The end of each vertical transfer CCD 22 is connected to a horizontal transfer CCD 23 that transfers charges to the amplifier. An amplifier 24 is connected to the output side of the horizontal transfer CCD 23.

映像の走査方式はインターレースであり、一画面は飛び越し走査で、奇数フィールドと偶数フィールドとで構成される。
まず、光がフォトダイオードPD21に入射し、電荷蓄積時間にフォトダイオードPD21で電荷が蓄積されていく。この間、フォトダイオードPD21と垂直転送CCD22間は遮断されている。
電荷蓄積時間が終了すると、フォトダイオードPD21と垂直転送CCD22間が導通し、蓄積された電荷が垂直転送CCD22に転送される。この直後に、フォトダイオードPD21と垂直転送CCD22間は遮断され、フォトダイオードPD21で次の電荷蓄積が開始する。垂直転送CCD22に移された電荷は、1水平ライン毎に水平転送CCD23に転送され、増幅器24に入力される。
この1水平ライン毎に、電荷が垂直転送CCD22から水平転送CCD23へ転送されるまでの周波数は、CCD20の水平走査周波数15.734KHzで行われる。垂直転送CCD22のすべての電荷が水平転送CCD23に転送されると、再び垂直転送CCD22とフォトダイオードPD21間が導通し、フォトダイオードPD21の電荷が垂直転送CCD22に移される。フィールド蓄積CCDの場合、光電変換によってフォトダイオードPD21で電荷が蓄積され、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの転送周波数は、59.94Hzとなる。
The video scanning method is interlaced, and one screen is interlaced scanning, and is composed of an odd field and an even field.
First, light enters the photodiode PD21, and charges are accumulated in the photodiode PD21 during the charge accumulation time. During this time, the photodiode PD21 and the vertical transfer CCD 22 are disconnected.
When the charge accumulation time ends, the photodiode PD21 and the vertical transfer CCD 22 are brought into conduction, and the accumulated charges are transferred to the vertical transfer CCD 22. Immediately after this, the photodiode PD21 and the vertical transfer CCD 22 are disconnected, and the next charge accumulation is started in the photodiode PD21. The charges transferred to the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23 for each horizontal line and input to the amplifier 24.
The frequency until the charge is transferred from the vertical transfer CCD 22 to the horizontal transfer CCD 23 for each horizontal line is the horizontal scanning frequency of the CCD 20 of 15.734 KHz. When all the charges of the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23, the vertical transfer CCD 22 and the photodiode PD 21 are again brought into conduction, and the charges of the photodiode PD 21 are transferred to the vertical transfer CCD 22. In the case of a field accumulation CCD, charges are accumulated in the photodiode PD21 by photoelectric conversion, and the transfer frequency until this charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is 59.94 Hz.

図17は、図16のCCD20の時系列を説明するための図である。   FIG. 17 is a diagram for explaining a time series of the CCD 20 of FIG.

図17に示すように、光電変換によってフォトダイオードPD21で電荷が蓄積されるまでの所要時間をΔT1とし、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの所要時間をΔT2とする。
図17から分かるように、CCD20に入射した光エネルギーは、電荷蓄積時間ΔT1の間積分されながら、電荷蓄積周期ΔT=ΔT1+ΔT2=(1/59.94)秒でサンプリングされていることになる。
As shown in FIG. 17, the required time until charge is accumulated in the photodiode PD21 by photoelectric conversion is ΔT1, and the required time until the charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is ΔT2.
As can be seen from FIG. 17, the light energy incident on the CCD 20 is sampled at the charge accumulation period ΔT = ΔT1 + ΔT2 = (1 / 59.94) seconds while being integrated during the charge accumulation time ΔT1.

さて、図1に示すように、撮像装置12によって撮像された撮像画像の信号は輝度信号抽出部13で輝度信号が抽出され、この輝度信号は、光源解析処理部14に入力されている。
ここで、本実施例に係るCCD20(図16を参照)からの画素の読み出し方法について説明する。
As shown in FIG. 1, a luminance signal is extracted by a luminance signal extraction unit 13 from a captured image signal captured by the imaging device 12, and the luminance signal is input to the light source analysis processing unit 14.
Here, a method for reading out pixels from the CCD 20 (see FIG. 16) according to the present embodiment will be described.

図18は、単板補色フィルタ型CCDの画素の一配列例を示す図である。
また、図19は、奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。
FIG. 18 is a diagram showing an arrangement example of pixels of a single-plate complementary color filter type CCD.
FIG. 19 is a diagram illustrating an example of a combination of color signals in the odd field OFD and the even field EFD.

画素のカラーフィルタは、Ye(イエロ)、Cy(シアン)、Mg(マジェンタ)、G(グリーン)で構成され、図18に図示するような配列になっている。画素の読み出しは、上下の画素を加算して読み出される。この加算する組み合わせは、奇数フィールドOFDと偶数フィールドEFDで、1列ずれる。具体的には、奇数フィールドOFDのnラインでは、(C11+C21)、(C12+C22)、(C13+C23)、(C14+C24)、(C15+C25)、…のようになる。また、偶数フィールドEFDのnラインでは、(C21+C31)、(C22+C32)、(C23+C33)、(C24+C34)、(C25+C35)、…のようになる。
したがって、図19に示すような奇数フィールドOFD、偶数フィールドEFDで色信号が出力される。
いずれも、2画素周期で同一のYe、Cy、Mg、Gの組み合わせの色パターンが繰り返されている。
つまり言い換えると、色信号は2画素周期以上の周波数に重畳して現れる。よって、この色信号を、2画素周期を遮断周波数とするローパスフィルタに通せば、色信号は失われ、輝度信号のみが得られる。
したがって、輝度情報は2画素周期でサンプリングされることになる。
The color filter of the pixel is composed of Ye (yellow), Cy (cyan), Mg (magenta), and G (green), and is arranged as shown in FIG. Pixels are read by adding the upper and lower pixels. The combination to be added is shifted by one column between the odd field OFD and the even field EFD. Specifically, in the n-th line of the odd field OFD, (C11 + C21), (C12 + C22), (C13 + C23), (C14 + C24), (C15 + C25),... In the n-line of the even field EFD, (C21 + C31), (C22 + C32), (C23 + C33), (C24 + C34), (C25 + C35),...
Accordingly, color signals are output in the odd field OFD and the even field EFD as shown in FIG.
In any case, the same color pattern of a combination of Ye, Cy, Mg, and G is repeated in a two-pixel cycle.
In other words, the color signal appears superimposed on a frequency of two pixel periods or more. Therefore, if this color signal is passed through a low-pass filter having a cutoff frequency of two pixel periods, the color signal is lost and only a luminance signal is obtained.
Therefore, luminance information is sampled at a cycle of two pixels.

図18の円形で図示される投影領域REGは、光源による被写体の映像が投影されている様子を示している。なお、画素C35、C36、C45、C46、C55、C56は完全に投影領域REGにはいっており、均一に光が照射されているとする。
輝度情報は、奇数フィールドOFDでは、水平ライン(n+1)のC35、C36、C45、C46の組み合わせに、偶数フィールドEFDでは、水平ラインの(n+1)ラインのC45、C46、C55、C56の組み合わせによって読み出しされる。
A projection area REG indicated by a circle in FIG. 18 shows a state in which an image of a subject by a light source is projected. It is assumed that the pixels C35, C36, C45, C46, C55, and C56 are completely in the projection region REG and are uniformly irradiated with light.
In the odd field OFD, the luminance information is read by a combination of C35, C36, C45, and C46 of the horizontal line (n + 1), and in the even field EFD, by a combination of C45, C46, C55, and C56 of the (n + 1) line of the horizontal line. Is done.

以上に述べたようにして、撮像装置12からの信号のうち輝度信号が光源解析処理部14に出力される。この輝度信号は、第1の演算部141および第2の演算部142に入力されて所定の処理が行われる。   As described above, the luminance signal among the signals from the imaging device 12 is output to the light source analysis processing unit 14. This luminance signal is input to the first calculation unit 141 and the second calculation unit 142 and subjected to predetermined processing.

次に、第1の演算部141および第2の演算部142で行われる輝度信号の処理方法について図20に関連付けて説明する。   Next, a luminance signal processing method performed by the first calculation unit 141 and the second calculation unit 142 will be described with reference to FIG.

図20は、本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。   FIG. 20 is a timing chart for explaining the signal processing method of the luminance signal of the light source analysis processing unit according to the present embodiment.

図20(A)は、撮像装置12のインターライン走査を示す図で、偶数フィールドEFDもしくは奇数フィールドOFDのいずれかの状態を示す。図20(B)〜(E)はそれぞれ、光源解析処理部14で処理される輝度信号レベルの時間変化を表す波形W1、W2、W3、W4を示し、図20(F)は一定周期で変化する正弦波の波形W5を示す図である。
なお、奇数フィールドOFDと偶数フィールドEFDとで1フレームの走査である。つまり、図20(A)に図示するように、AとB、CとDで1フレームの走査である。
また、以降の説明において、fは周波数を、tは時刻を、θは位相差をそれぞれ示し、ωは(ω=2πf)を満たす。なお、πは円周率である。
FIG. 20A is a diagram showing interline scanning of the imaging device 12, and shows a state of either the even field EFD or the odd field OFD. FIGS. 20B to 20E respectively show waveforms W1, W2, W3, and W4 that represent temporal changes in the luminance signal level processed by the light source analysis processing unit 14, and FIG. 20F changes at a constant cycle. It is a figure which shows the waveform W5 of the sine wave to do.
The odd field OFD and even field EFD scan one frame. That is, as shown in FIG. 20A, one frame is scanned by A and B and C and D.
In the following description, f represents frequency, t represents time, θ represents phase difference, and ω satisfies (ω = 2πf). Note that π is the circumference ratio.

図20(B)、(C)に図示する波形W1と波形W2は、後で説明する波形W3と波形W4で示される波形の関数を導出するための波形である。
図20(D)に図示する波形W3は、Aのフィールドの輝度信号とCのフィールドの輝度信号との輝度レベルの差をレベル差ACとした時の、レベル差ACを求める関数の時間発展分布を示す。
また、図20(E)に図示する波形W4は、Bのフィールドの輝度信号とDのフィールドの輝度信号との輝度レベルの差をレベル差BDとした時の、レベル差BDを求める関数の時間発展分布を示す。
なお、波形W3は、波形W1と波形W2から導出され、波形W1と波形W2を足して2で割ったものである。また、波形W4は波形W1と波形W2から導出され、波形W2から波形W1を引いて2で割ったものである。
A waveform W1 and a waveform W2 illustrated in FIGS. 20B and 20C are waveforms for deriving a function of a waveform indicated by a waveform W3 and a waveform W4 described later.
A waveform W3 illustrated in FIG. 20D is a time development distribution of a function for obtaining the level difference AC when the luminance level difference between the luminance signal of the A field and the luminance signal of the C field is defined as the level difference AC. Indicates.
A waveform W4 illustrated in FIG. 20E is a function time for obtaining the level difference BD when the difference in luminance level between the luminance signal in the B field and the luminance signal in the D field is the level difference BD. The development distribution is shown.
Waveform W3 is derived from waveform W1 and waveform W2, and is obtained by adding waveform W1 and waveform W2 and dividing by two. Waveform W4 is derived from waveform W1 and waveform W2, and is obtained by subtracting waveform W1 from waveform W2 and dividing it by 2.

このとき、レベル差ACの第1の時間平均である時間平均SACは図1に示す第1の演算部141で算出される。また、レベル差BDの第2の時間平均である時間平均SBDは第2の演算部142で算出される。
具体的には、時間平均SACは、C35、C36、C45、C46の組み合わせによるAフィールドとCフィールドとの輝度レベル差ACから算出される。
同様に、時間平均SBDは、C45、C46、C55、C56の組み合わせによるBフィールドとDフィールドとのレベル差BDから算出される。
At this time, a time average SAC that is a first time average of the level difference AC is calculated by the first calculation unit 141 shown in FIG. In addition, a time average SBD that is a second time average of the level difference BD is calculated by the second calculation unit 142.
Specifically, the time average SAC is calculated from the luminance level difference AC between the A field and the C field by a combination of C35, C36, C45, and C46.
Similarly, the time average SBD is calculated from the level difference BD between the B field and the D field by a combination of C45, C46, C55, and C56.

その時間平均の算出方法について述べる。
AフィールドとCフィールドとのレベル差ACの時間平均SACは、波形W1に、図20(D)に示す波形W3を掛けてこの時間平均SACを計算する。
また同様に、BフィールドとDフィールドとのレベル差BDの時間平均SBDは、C45、C46、C55、C56の組み合わせによる画素に照射される光の時間変化を表す波形に、図20(E)に示す波形W4を掛けてこの時間平均SBDを計算する。
The calculation method of the time average is described.
The time average SAC of the level difference AC between the A field and the C field is calculated by multiplying the waveform W1 by the waveform W3 shown in FIG.
Similarly, the time average SBD of the level difference BD between the B field and the D field is shown in FIG. 20 (E) in a waveform representing the time change of the light irradiated to the pixel by the combination of C45, C46, C55, and C56. The time average SBD is calculated by multiplying the waveform W4 shown.

はじめに、時間平均SACの算出方法について具体的に説明する。
波形W3を数式で表す。まず、波形W1、波形W2は以下のようなフーリエ級数で表せる。
First, a method for calculating the time average SAC will be specifically described.
The waveform W3 is expressed by a mathematical expression. First, the waveform W1 and the waveform W2 can be expressed by the following Fourier series.

Figure 0005349413
Figure 0005349413

ここで、波形W1とW2は同一周期f2を有するものとする。(7)式と(8)式より、波形W3は(10)式のように表せる。   Here, it is assumed that the waveforms W1 and W2 have the same period f2. From the expressions (7) and (8), the waveform W3 can be expressed as the expression (10).

Figure 0005349413
Figure 0005349413

ところで、図20(F)に図示する周期f1を有する波形W5は(11)式のような正弦波で表せる。   By the way, the waveform W5 having the period f1 shown in FIG. 20F can be expressed by a sine wave as shown in the equation (11).

Figure 0005349413
Figure 0005349413

(10)式によって表される波形W3に(11)式で表せる正弦波W5を掛けると(13)式となる。   When the waveform W3 represented by the equation (10) is multiplied by the sine wave W5 represented by the equation (11), the equation (13) is obtained.

Figure 0005349413
Figure 0005349413

次に、時刻0から時刻Tまでにおける(13)式の時間平均をとる。(13)式の右辺に示す各項の内、時間tを含む項は交流信号であるから、その時間平均は0である。
したがって、(ω−(2n−1)ω=0)である時のみ、定数cosθと定数sinθが残り、時間平均SACは(14)式のようになる。
Next, the time average of the expression (13) from time 0 to time T is taken. Of the terms shown on the right side of equation (13), the term including time t is an AC signal, and therefore the time average is zero.
Therefore, only when (ω 1 − (2n−1) ω 2 = 0), the constant cos θ 1 and the constant sin θ 1 remain, and the time average SAC is expressed by the equation (14).

Figure 0005349413
Figure 0005349413

このようにして、時間平均SACが第1の演算部141にて求まる。時間平均SBDも同様にして第2の演算部142にて求められ、(15)式で表される。   In this way, the time average SAC is obtained by the first calculation unit 141. Similarly, the time average SBD is obtained by the second calculation unit 142, and is expressed by equation (15).

Figure 0005349413
Figure 0005349413

さて、(14)式と(15)式で表される時間平均SACとSBDとの2乗和(SAC +SBD )は(16)式で表される。 Now, the sum of squares (S AC 2 + S BD 2 ) of the time average SAC and SBD expressed by the equations (14) and (15) is expressed by the equation (16).

Figure 0005349413
Figure 0005349413

この(16)式より、CCD20(図16を参照)に入射される光に(f=(2n−1)f)なる周波数成分が含まれているとき、(16)式で表される波形の成分が検出される。 From this equation (16), when the frequency component (f 1 = (2n−1) f 2 ) is included in the light incident on the CCD 20 (see FIG. 16), it is expressed by the equation (16). Waveform components are detected.

次に、光源11に含まれる周波数成分について考察する。
図21は、光源11に含まれる周波数成分についての波形W6を示す図である。なお、光源11は、周波数f3で時間τの間、輝度レベルL1で発光している。
Next, frequency components included in the light source 11 will be considered.
FIG. 21 is a diagram illustrating a waveform W6 for frequency components included in the light source 11. The light source 11 emits light at the luminance level L1 at the frequency f3 for the time τ.

この波形W6をフーリエ級数に展開する。波形W6は、周期(T=1/f3)の周期関数であり、(ω3=2πf3)とすると、(17)式のようにフーリエ級数の一般式で表される。 This waveform W6 is developed into a Fourier series. The waveform W6 is a periodic function of a period (T 3 = 1 / f 3 ). When (ω 3 = 2πf 3 ), the waveform W6 is represented by a general expression of Fourier series as shown in Expression (17).

Figure 0005349413
Figure 0005349413

(17)式の各係数a、a、bは波形W6より(18)〜(20)式のように求まる。 The coefficients a 0 , a n , and b n in the equation (17) are obtained from the waveform W6 as in the equations (18) to (20).

Figure 0005349413
Figure 0005349413

したがって、波形W6のフーリエ級数は、(21)式で表される。   Therefore, the Fourier series of the waveform W6 is expressed by equation (21).

Figure 0005349413
Figure 0005349413

よって、光源11の点滅周期をフィールド周期の4倍にした時、すなわち(f=f)である時、(13)式と(21)式より奇数項で周波数が一致し、時間平均SACとSBDの2乗和は(22)式のようになる。 Therefore, when the blinking period of the light source 11 is set to four times the field period, that is, when (f 3 = f 2 ), the frequency coincides with the odd term from the expressions (13) and (21), and the time average SAC And the sum of squares of SBDs is as shown in equation (22).

Figure 0005349413
Figure 0005349413

光源11の点灯のデューティー比をDとすると(23)式で表される。   When the duty ratio of lighting of the light source 11 is D, it is expressed by equation (23).

Figure 0005349413
Figure 0005349413

よって、(22)式で表される時間平均SACとSBDとの2乗和SACBDは、(23)式を用いると(24)式のようになる。     Therefore, the square sum SACBD of the time average SAC and SBD expressed by the equation (22) is expressed by the equation (24) when the equation (23) is used.

Figure 0005349413
Figure 0005349413

ところで、以下に示す(24)式の右辺の項(25)は収束する。   By the way, the term (25) on the right side of the following expression (24) converges.

Figure 0005349413
Figure 0005349413

この(24)式の右辺の項(25)は、デューティー比Dに対し、表1のような値をとる。以下に、表1を示す。   The term (25) on the right side of the equation (24) takes values as shown in Table 1 with respect to the duty ratio D. Table 1 is shown below.

Figure 0005349413
Figure 0005349413

表1に基づいて、横軸にデューティー比Dをとり、縦軸に時間平均SACとSBDとの2乗和SACBDをとると、デューティー比Dと2乗和SACBDとの関係は図22に示すようになる。   Based on Table 1, when the duty ratio D is taken on the horizontal axis and the square sum SACBD of the time average SAC and SBD is taken on the vertical axis, the relationship between the duty ratio D and the square sum SACBD is as shown in FIG. become.

図22より、2乗和SACBDはデューティー比D=0.5で最大となることが分かる。
したがって、(24)式で表される2乗和SACBDは、次式のようになる。
From FIG. 22, it can be seen that the square sum SACBD becomes maximum at the duty ratio D = 0.5.
Therefore, the sum of squares SACBD expressed by the equation (24) is expressed by the following equation.

[数21]
AC +SBD =0.08333L ・・・(26)
[Equation 21]
S AC 2 + S BD 2 = 0.08333L 1 2 (26)

(26)式に示すように、演算処理部133は光源11(図1を参照)の輝度を検出し、この検出結果(2乗和SACBD)をフィルタ処理部15を介して判定部16に出力する。この検出結果は、判定部16にて被写体の状態に判定に用いられる。   As shown in equation (26), the arithmetic processing unit 133 detects the luminance of the light source 11 (see FIG. 1), and outputs the detection result (square sum SACBD) to the determination unit 16 via the filter processing unit 15. To do. This detection result is used for determining the state of the subject by the determination unit 16.

本実施形態に係る光源11は特定の光源に依存しない。そこで、他の光源についても輝度を検出できるかについて考察する。
光源として広く使われている白熱電球と蛍光燈は、電源周波数50Hzの地域で100Hz、60Hzの地域で120Hzである。NTSC方式のテレビジョンのフィールド周波数は59.94Hz、パーソナルコンピュータに使用されるモニタのフィールド周波数は、ちらつきがないように60Hz以上である。
The light source 11 according to the present embodiment does not depend on a specific light source. Therefore, it is considered whether the luminance can be detected for other light sources.
Incandescent light bulbs and fluorescent lamps that are widely used as light sources are 100 Hz in regions where the power supply frequency is 50 Hz and 120 Hz in regions where 60 Hz. The field frequency of an NTSC television is 59.94 Hz, and the field frequency of a monitor used for a personal computer is 60 Hz or more so as not to flicker.

NTSC方式のテレビジョンのフィールド周波数は59.94Hzであり、その1/4倍周期で光源を発光させるとすると、輝度レベル差の周波数f2は次式のようになる。   The field frequency of the NTSC television is 59.94 Hz, and if the light source is caused to emit light at a quarter period, the frequency f2 of the luminance level difference is as follows.

[数22]
=59.94/4=14.985Hz …(27)
[Equation 22]
f 2 = 59.94 / 4 = 14.985 Hz (27)

(13)式と(21)式より、周波数f2の奇数倍と光源11の周波数f3の整数倍が一致したときに信号成分が検出される。   From the equations (13) and (21), a signal component is detected when the odd multiple of the frequency f2 matches the integer multiple of the frequency f3 of the light source 11.

表2は、異なる光源の発光周波数と輝度信号レベルの差における周波数との関係を示す値の表である。   Table 2 is a table of values indicating the relationship between the light emission frequency of different light sources and the frequency in the difference in luminance signal level.

Figure 0005349413
Figure 0005349413

表2のf1は(11)式の正弦波の有する周波数で、f2は(27)式に示す周波数で、f3はそれぞれ、光源11の周波数、50Hz地域での照明の周波数、60Hz地域での照明の周波数、NTSC方式のテレビジョンのフィールド周波数、パーソナルコンピュータに使用されるモニタのフィールド周波数である。
表2によると、m=30まで、f3が100、120、59.94Hzであり、(n×f=(2m−1)×f)が成立するものはない。
F1 in Table 2 is the frequency of the sine wave of equation (11), f2 is the frequency shown in equation (27), and f3 is the frequency of the light source 11, the frequency of illumination in the 50 Hz region, and the illumination in the 60 Hz region, respectively. Frequency, NTSC television field frequency, and monitor field frequency used in personal computers.
According to Table 2, up to m = 30, f3 is 100, 120, 59.94 Hz, and there is nothing that satisfies (n × f 3 = (2m−1) × f 2 ).

たとえばパーソナルコンピュータのモニタに関して、そのフィールド周波数が60Hz以上であるとすると、本検知システム10の信号処理出力に最も大きな出力が検出される可能性としては、74.925Hzでスキャンされているモニタが存在したときである。
すなわち、f=74.925Hzの時であり、表2に示すように、(5×f)、(15×f)、(25×f)…と(1×f)、(3×f)、(5×f)…が一致する。この時検出される信号レベルは、次式で示される。
For example, regarding a monitor of a personal computer, if the field frequency is 60 Hz or more, there is a monitor that is scanned at 74.925 Hz as a possibility that the largest output is detected in the signal processing output of the detection system 10. When
That is, when f 3 = 74.925 Hz, as shown in Table 2, (5 × f 2 ), (15 × f 2 ), (25 × f 2 ), and (1 × f 3 ), ( 3 × f 3 ), (5 × f 3 ). The signal level detected at this time is expressed by the following equation.

Figure 0005349413


したがって、(28)式で示される信号レベルは光源11の1/25のレベルであり、図1に図示していない信号処理で別に除去できる。
Figure 0005349413


Therefore, the signal level expressed by the equation (28) is 1/25 of that of the light source 11 and can be removed separately by signal processing not shown in FIG.

以上に述べたように、本検知システム10は、光源の発光周波数に依存せず、光源または光源に照射された被写体の状態を検知する。   As described above, the detection system 10 detects the state of the light source or the subject irradiated on the light source without depending on the light emission frequency of the light source.

以下に、本実施形態に係る検知システムの一連の動作を図23に関連付けて説明する。   Hereinafter, a series of operations of the detection system according to the present embodiment will be described with reference to FIG.

図23は、本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。   FIG. 23 is a flowchart for explaining an outline of a series of operations of the detection system according to the present embodiment.

本実施形態では、まず、撮像装置12の電荷蓄積時間内の光源11の輝度を撮像装置12のフィールド周期の4n倍で変化させる(ST21)。
次に、撮像装置12からフィールド単位でnフィールド毎に輝度信号抽出部13で輝度信号を取得し(ST22)、この輝度信号を第1の演算部141と第2の演算部142に出力する。
第1の演算部141にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACを求める。また、第2の演算部142にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDを求める(ST23)。
これら時間平均SACとSBDは演算処理部143に出力される。
次いで、演算処理部133にて時間平均SACとSBDの2乗和SACBDが求められ(ST24)、フィルタ処理部15を介して判定部16に出力される。
判定部16にて2乗和SACBDの値に応じて、被写体の状態が判定される(ST25)。その判定結果が被写体位置決定部17に供給される。
被写体位置決定部17において、被写体位置を決定するか否かが判定される(ST26)。
ここで、被写体位置を決定するときは、被写体位置決定部17では被写体の状態を検知して検知位置に関する情報が取得され(ST27)、検知位置情報が光源解析処理部24の位置記憶部144に記憶される。
被写体位置の決定を行わないときは、被写体位置決定部17では、位置記憶部144に保存済み位置情報から指定位置(指定番号)が取得され(ST28)、指定位置の被写体の状態が検知される(ST29)。
そして、妨害行為判定部18において、検知範囲位置の状態による撮像装置の位置ズレ検知(いたずら)、被写体の検知情報の状態による被写体無応答検知(妨害行為予測)、被写体連続応答検知(異常動体行為予測)処理が行われる(ST30)。検知処理後、一定時間内の反応数、検知時間測定、検知位置、検知情報が図示しない制御系に通知される。
妨害行為判定部18は、たとえば被写体位置決定部17の位置検索情報記憶部172に記憶された位置検索情報および光源解析処理部14の捕捉位置記憶部145の捕捉位置情報に基づいて、位置ズレ検知等を行う。
In the present embodiment, first, the luminance of the light source 11 within the charge accumulation time of the imaging device 12 is changed by 4n times the field period of the imaging device 12 (ST21).
Next, a luminance signal is acquired by the luminance signal extraction unit 13 every n fields in the field unit from the imaging device 12 (ST22), and this luminance signal is output to the first calculation unit 141 and the second calculation unit 142.
The first arithmetic unit 141 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. Further, the second arithmetic unit 142 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields (ST23).
These time averages SAC and SBD are output to the arithmetic processing unit 143.
Subsequently, the arithmetic processing unit 133 obtains the square sum SACBD of the time average SAC and SBD (ST24), and outputs the result to the determination unit 16 via the filter processing unit 15.
The determination unit 16 determines the state of the subject according to the value of the square sum SACBD (ST25). The determination result is supplied to the subject position determination unit 17.
The subject position determination unit 17 determines whether or not to determine the subject position (ST26).
Here, when determining the subject position, the subject position determination unit 17 detects the state of the subject and acquires information about the detection position (ST27), and the detected position information is stored in the position storage unit 144 of the light source analysis processing unit 24. Remembered.
When the subject position is not determined, the subject position determination unit 17 acquires the specified position (specified number) from the position information stored in the position storage unit 144 (ST28), and detects the state of the subject at the specified position. (ST29).
Then, the disturbance act determination unit 18 detects the position shift (mischief) of the imaging device based on the state of the detection range , the subject non-response detection (prediction of the disturbing act) based on the state of the subject detection information, and the subject continuous response detection (abnormal moving object). An action prediction process is performed (ST30). After the detection process, the number of reactions within a certain time, detection time measurement, detection position, and detection information are notified to a control system (not shown).
Sabotage determination unit 18, for example on the basis of the acquisition position information acquisition position storage section 145 of the position search information location retrieval information stored in the storage unit 172 and the light source analyzing unit 14 of the object position determination unit 17, a position deviation detection Etc.

なお、光源解析処理部14においてステップST23およびST24を行うに際し、その位置記憶部144に記憶されている検知範囲Mnの検知位置座標等や捕捉位置記憶部145に記憶されている捕捉範囲MHnに基づいて、その座標で指定される検知範囲の一または複数の画像を解析(検知)が行われる。
この光源解析処理部14の処理により、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
In addition, when performing steps ST23 and ST24 in the light source analysis processing unit 14, based on the detection position coordinates of the detection range Mn stored in the position storage unit 144 and the capture range MHn stored in the capture position storage unit 145. Te, analyzing one or more images of test knowledge range designated by the coordinates (detection) is performed.
By this processing of the light source analysis processing unit 14, the present detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. It is effective and can be detected with high accuracy.

なお、本実施形態に係る演算処理部143では、時間平均SACとSBDとの2乗和SACBDを求めるが、時間平均SACとSBDとの和(SAC+SBD)を判定部16での判定基準に用いることもできる。 In the arithmetic processing unit 143 according to the present embodiment, the square sum SACBD of the time average SAC and SBD is obtained, and the sum of the time average SAC and SBD (S AC + S BD ) is determined by the determination unit 16. It can also be used.

以上に説明したように、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出できる。   As described above, according to the present embodiment, the background noise of the captured image can be removed, and the state of the subject irradiated with the light source or the light source can be detected.

そして、本実施形態に係る検知システムによれば、光源または光源に照射された被写体の状態の検知において、被写体が複数存在する場合の検知も被写体別に行うことができ、その被写体の追跡と捕捉を行うことで、被写体でない部分の不要物の位置の検知をする必要が無く、被写体の状態検知を高速にかつ、高精度に検知できるという効果が得られる。
また、光源に依らないため、撮像装置の仕様には依存せず、たとえば一般に入手可能なカメラを本検知システムの撮像装置として使用できる。
According to the detection system according to the present embodiment, in the detection of the light source or the state of the subject irradiated to the light source, detection when there are a plurality of subjects can be performed for each subject, and tracking and capturing of the subject can be performed. By doing so, there is no need to detect the position of an unnecessary object that is not a subject, and the effect of detecting the state of the subject at high speed and with high accuracy can be obtained.
Moreover, since it does not depend on the light source, it does not depend on the specifications of the imaging device, and for example, a generally available camera can be used as the imaging device of the present detection system.

さらに、本実施形態に係る検知システムによれば、光源または光源に照射された被写体の状態の検知において、被写体の検知を高精度に行うことで、検知状態から、妨害行為を推測することが可能で、高精度に妨害行為や位置ズレ等を検知することができる。
検知対象範囲において、被写体の遮断が、一時遮断と一定時間継続した場合を判定できる。連続的に無応答と判定すれば、撮像装置の位置ズレ、もしくは、被写体を遮断する物体等があることを意味し、スプレーや覆いによる妨害行為も検知できる。
撮像装置の位置がずれた場合を検知して、その状態を通知することができる。また、位置ズレと遮断の検知精度がさらに向上する。
また、信号強度の変動幅の変化を検知することができ、これにより風雨や濃霧、雪、人為的ないたずら等、による異常な変動値を検知できる。
位置ズレによる、微動を検知することができ、これにより人為的ないたずら、地震、設置建造物での揺れ等を検知できる。
連続的な遮断検知を行うことができ、交通量の多い場所や人ごみ、風雨、木々などの自然現象の障害物検知による影響などを検知できる。
Furthermore, according to the detection system according to the present embodiment, in detecting the state of the light source or the subject irradiated on the light source, it is possible to infer a disturbing action from the detection state by performing detection of the subject with high accuracy. Thus, it is possible to detect a disturbing action or a positional deviation with high accuracy.
In the detection target range, it is possible to determine a case where the block of the subject continues for a certain period of time with the block of the subject. If it is determined that there is no response continuously, it means that there is a positional deviation of the imaging device or an object that blocks the subject, and an obstructive action due to spraying or covering can be detected.
It is possible to detect a case where the position of the imaging device is shifted and notify the state. In addition, the detection accuracy of misalignment and blocking is further improved.
In addition, it is possible to detect a change in the fluctuation range of the signal intensity, thereby detecting an abnormal fluctuation value due to wind and rain, dense fog, snow, artificial mischief, and the like.
It is possible to detect fine movements due to misalignment, thereby detecting artificial mischiefs, earthquakes, shaking in installed buildings, and the like.
Continuous blockage detection can be performed, and it is possible to detect the influence of obstacle detection of natural phenomena such as places with heavy traffic, crowds, wind and rain, and trees.

さらに本検知システムは、複数の光源を使用し、信号を並列に信号処理部に伝送することができる。
あるいは、光源の色を複数設け、信号の波長多重伝送も可能である。
また、光源を適宜点滅させて信号を処理することも可能である。
Furthermore, this detection system uses a plurality of light sources and can transmit signals to the signal processing unit in parallel.
Alternatively, it is possible to provide a plurality of light source colors and perform wavelength multiplexing transmission of signals.
It is also possible to process the signal by appropriately blinking the light source.

[第2の実施形態]
次に、本発明に係る第2の実施形態について説明する。

図24は、本発明の第2の実施形態に係る検知システムの構成例を示す図である。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described.

FIG. 24 is a diagram illustrating a configuration example of a detection system according to the second embodiment of the present invention.

本第2の実施形態に係る検知システム10Aが第1の実施形態に係る検知システム10と異なる点は、次の通りである。
本第2の実施形態に係る検知システム10Aにおいては撮像装置12で撮影した被写体OBJを記憶媒体30に録画する録画装置31を有し、また、記憶媒体30に蓄えた被写体の映像を再生する再生装置32を有している。
これにより、撮像装置12で撮影した映像を繰り返し再生することで、妨害行為判定を繰り返し判定することができる。
The detection system 10A according to the second embodiment is different from the detection system 10 according to the first embodiment as follows.
The detection system 10A according to the second embodiment includes a recording device 31 that records the subject OBJ captured by the imaging device 12 on the storage medium 30, and also reproduces the subject image stored in the storage medium 30. A device 32 is included.
Thereby, the disturbance action determination can be repeatedly determined by repeatedly reproducing the video imaged by the imaging device 12.

[第3の実施形態]
次に、本発明に係る第3の実施形態について説明する。
図25は、本発明の第3の実施形態に係る検知システムの構成例を示す図である。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described.
FIG. 25 is a diagram illustrating a configuration example of a detection system according to the third embodiment of the present invention.

本第3の実施形態に係る検知システム10Bが第2の実施形態に係る検知システム10Aと異なる点は、光源解析処理部14Bにおいて再生時の被写体光源の位相問題対応の構成が採用されていることにある。
光源解析処理部14Bは、差分判定部146、および判定値メモリ147が追加されている。
差分判定部146は、第1の演算部141の演算結果Aと第2の演算部142の演算結果とを監視し、演算結果AまたはBの値が、0または限りなく0に近い値に収束したと判定した場合に、この値の補正を演算処理部143に指示する。
差分判定部146は、位置記憶部144に記憶されて検知範囲Mnおよび捕捉範囲MHnを適用して判定処理を行う。
判定値メモリ147は、差分判定によって参照されるデータが格納されている。
この構成により再生時の被写体光源の位相ズレ等に伴う問題を解消することができる。
The difference between the detection system 10B according to the third embodiment and the detection system 10A according to the second embodiment is that the light source analysis processing unit 14B employs a configuration corresponding to the phase problem of the subject light source during reproduction. It is in.
In the light source analysis processing unit 14B, a difference determination unit 146 and a determination value memory 147 are added.
The difference determination unit 146 monitors the calculation result A of the first calculation unit 141 and the calculation result of the second calculation unit 142, and the value of the calculation result A or B converges to 0 or a value close to 0 as much as possible. When it is determined that the correction has been performed, the arithmetic processing unit 143 is instructed to correct this value.
The difference determination unit 146 performs determination processing by applying the detection range Mn and the capture range MHn stored in the position storage unit 144.
The determination value memory 147 stores data referred to by difference determination.
With this configuration, it is possible to solve the problems associated with the phase shift of the subject light source during reproduction.

[第4の実施形態]
次に、本発明に係る第4の実施形態について説明する。
[Fourth Embodiment]
Next, a fourth embodiment according to the present invention will be described.

本第4の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース型の撮像装置12をフレーム蓄積、インターレース型の撮像装置に置き換えたものである。また同時に、第1実施形態に係る光源11の輝度の変化周期をフィールド周期の4n倍からフレーム周期の4n倍に変更したものである。この変化周期の変更に伴い、輝度信号の取得もnフィールドごとから2nフィールドごとに輝度信号の取得周期を変更する。
このように、光源11の輝度の変化周期と輝度信号の取得周期を変更することで、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the fourth embodiment, the field accumulation / interlace imaging device 12 according to the first embodiment is replaced with a frame accumulation / interlace imaging device. At the same time, the luminance change period of the light source 11 according to the first embodiment is changed from 4n times the field period to 4n times the frame period. Accompanying this change in the change period, the luminance signal acquisition period is changed from every n fields to every 2n fields.
As described above, by changing the luminance change cycle of the light source 11 and the luminance signal acquisition cycle, the same effects as those of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

[第5の実施形態]
次に、本発明に係る第5の実施形態について説明する。
[Fifth Embodiment]
Next, a fifth embodiment according to the present invention will be described.

本第5の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース走査型の撮像装置12をフレーム蓄積、ノンインターレース走査型の撮像装置に置き換えたものである。
このように、ノンインターレース走査の撮像装置を用いても、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the fifth embodiment, the field accumulation / interlace scanning imaging device 12 according to the first embodiment is replaced with a frame accumulation / non-interlace scanning imaging device.
As described above, even when a non-interlaced scanning imaging apparatus is used, the same effect as that of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

10,10A,10B・・・検知システム、11・・・光源、12・・・撮像装置、13・・・輝度信号抽出部、14・・・光源解析処理部、141・・・第1の演算部(A)、142・・・第2の演算部(B)、143…演算処理部、144・・・位置記憶部、145・・・捕捉位置記憶部、15・・・フィルタ処理部、16・・・判定部、17・・・被写体位置決定部、171・・・位置検索処理部、172・・・位置検索情報記憶部、18・・・妨害行為判定部。   DESCRIPTION OF SYMBOLS 10, 10A, 10B ... Detection system, 11 ... Light source, 12 ... Imaging device, 13 ... Luminance signal extraction part, 14 ... Light source analysis process part, 141 ... 1st calculation Part (A), 142 ... 2nd operation part (B), 143 ... Operation processing part, 144 ... Position storage part, 145 ... Capture position storage part, 15 ... Filter processing part, 16 ... determination unit, 17 ... subject position determination unit, 171 ... position search processing unit, 172 ... position search information storage unit, 18 ... obstruction act determination unit.

Claims (13)

光源と、
上記光源または上記光源によって照射された被写体を撮像する撮像装置と、
上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、
上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、
複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、
上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、
上記被写体位置決定部により得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定部と、を有し、
上記解析処理部は、
上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行う
検知システム。
A light source;
An imaging device for imaging the light source or a subject illuminated by the light source;
An analysis processing unit that performs analysis processing on a signal acquired from the imaging device;
A determination unit that detects and determines the state of the light source or subject based on the analysis result of the analysis processing unit;
A position storage unit capable of storing information on positions including detection ranges in images of a plurality of subjects;
From the detection information obtained by the determination unit, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, A subject position determination unit capable of storing detection information as information on the position in the position storage unit;
Positional deviation detection image pickup device according to the state of the position of the detection range obtained by the object position determination unit, an object no response detection, and have a, and sabotage judging unit to perform at least one of the detection determining of the subject continuous response detection And
The analysis processing unit
The signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and further, based on the value of the time average Perform an analysis process to perform a predetermined calculation, and output the calculation result of the analysis process to the determination unit,
Detection system when the detection information is stored in the position storage unit for selectively performing the analysis processing for the image of the test knowledge range specified in the above detection information.
上記検知範囲に対応する捕捉範囲の位置を記憶する捕捉位置記憶部を含み、
上記解析処理部は、
上記検知範囲および捕捉範囲の画像に対して選択的に上記解析処理を行い、
上記妨害行為判定部は、
被写体の位置が上記検知範囲および捕捉範囲から外れて検知信号が取得できなくなると位置ズレを検知したと判定する
請求項1記載の検知システム。
A capture position storage unit that stores the position of the capture range corresponding to the detection range,
The analysis processing unit
The analysis process is selectively performed on images in the detection range and the capture range,
The disturbing action determination unit
The detection system according to claim 1, wherein when the position of the subject deviates from the detection range and the capture range and a detection signal cannot be acquired, it is determined that a positional shift has been detected.
上記妨害行為判定部は、
上記検知範囲内の信号強度と上記捕捉範囲内の信号強度の中間に対応する位置に被写体が位置している場合、上記検知範囲内の信号強度と上記捕捉範囲内の信号強度の差分値により遮断状態か位置ズレ状態を判定する
請求項2記載の検知システム。
The disturbing action determination unit
When the subject is located at a position corresponding to the midpoint between the signal strength within the detection range and the signal strength within the capture range, the signal is blocked by the difference between the signal strength within the detection range and the signal strength within the capture range. The detection system according to claim 2, wherein a state or a misalignment state is determined.
上記妨害行為判定部は、
検知状態において、被写体の検知信号が取得できない状態が一定時間続くと無応答として遮断連続を検知したと判定する
請求項2または3記載の検知システム。
The disturbing action determination unit
The detection system according to claim 2 or 3, wherein in a detection state, if a state in which a detection signal of a subject cannot be acquired continues for a certain period of time, it is determined that no interruption has been detected as a non-response.
上記妨害行為判定部は、
上記検知範囲内の信号強度と上記捕捉範囲内の信号強度の中間に対応する位置に被写体が位置している場合、上記検知範囲内の信号強度と上記捕捉範囲内の信号強度の差分値の変化により位置ズレを判定し、
上記一定時間差分が発生する場合、連続位置ズレを検知したと判定する
請求項4記載の検知システム。
The disturbing action determination unit
When the subject is located at a position corresponding to the midpoint between the signal intensity within the detection range and the signal intensity within the capture range, a change in the difference value between the signal intensity within the detection range and the signal intensity within the capture range To determine misalignment,
The detection system according to claim 4, wherein when the difference for a certain time occurs, it is determined that a continuous position shift is detected.
上記妨害行為判定部は、
上記検知範囲内の信号強度において、一定時間の信号強度の変動幅を検知することにより被写体と撮像装置間の被写体の信号強度の変動を検知し、当該変動が一定時間続くと連続変動を検知したと判定する
請求項2から5のいずれか一に記載の検知システム。
The disturbing action determination unit
In the signal intensity within the above detection range, the fluctuation of the signal intensity of the subject between the subject and the imaging device is detected by detecting the fluctuation range of the signal intensity for a certain time, and the continuous fluctuation is detected when the fluctuation continues for a certain time. The detection system according to any one of claims 2 to 5.
上記妨害行為判定部は、
一定時間以内に閾値に対して信号強度が高低を繰り返す変化があると連続切断を検知したと判定する
請求項2から6のいずれか一に記載の検知システム。
The disturbing action determination unit
The detection system according to any one of claims 2 to 6, wherein it is determined that continuous cutting has been detected when there is a change in the signal intensity that repeatedly increases and decreases with respect to the threshold value within a certain time.
上記解析処理部は、
上記位置記憶部に検知情報が記憶されていないとき、または全画像検知モードのときは、画像全体に対する上記解析処理を行い、
上記位置記憶部に検知情報が記憶されているとき、被写体位置検知モードのときは、上記検知情報において指定される検知範囲の画像に対して上記解析処理を行う
請求項1から7のいずれか一に記載の検知システム。
The analysis processing unit
When the detection information is not stored in the position storage unit or in the all-image detection mode, the analysis processing is performed on the entire image,
When the detection information to the position storage section is stored, when the object position detection mode, any one of claims 1 to 7, which performs the analysis process on the image of the test knowledge range specified in the above detection information The detection system according to one.
上記被写体位置決定部は、
上記検知範囲の決定において、被写体の大きさを測定し、その座標(x,y)幅をあらかじめ用意したテーブルから現在の座標(x、y)幅を超えたもしくは以下になった大きさのテーブル値の検知範囲を選択する
請求項1から8のいずれか一に記載の検知システム。
The subject position determination unit
In the determination of the detection range, the size of the subject is measured, and a table whose size exceeds the current coordinate (x, y) width or below the coordinate (x, y) width is prepared beforehand. The detection system according to any one of claims 1 to 8, wherein a detection range of values is selected.
上記被写体位置決定部は、
あらかじめ設定された数の検索ブロック毎にx方向およびy方向の全ラインの検索を行ってから、検知範囲の検索処理を行い、上記ライン検索で検知できた連続する縦横ブロックを1つの範囲として当該ブロックの検出強度の総和平均値を求め、検知範囲を決定する
請求項9記載の検知システム。
The subject position determination unit
After searching all the lines in the x and y directions for every predetermined number of search blocks, the detection range search process is performed, and the continuous vertical and horizontal blocks detected by the line search are regarded as one range. The detection system according to claim 9, wherein a detection range is determined by obtaining a total average value of detection intensities of blocks.
上記被写体位置決定部は、
上記決定した検知範囲を微調整可能である
請求項9または10記載の検知システム。
The subject position determination unit
The detection system according to claim 9 or 10, wherein the determined detection range can be finely adjusted.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、
撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、
上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、
上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、
上記被写体位置決定ステップにより得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定ステップと、を有し、
上記解析処理ステップにおいて、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行うステップを含む
検知システムの信号処理方法。
An imaging step of imaging with an imaging device a light source or a subject illuminated by the light source;
A signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined average is obtained based on the time average value. An analysis process step for performing an analysis process for performing an operation;
A determination step of detecting and determining the state of the light source or subject based on the analysis result of the analysis processing step;
From the detection information obtained in the determination step, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, A subject position determination step for storing detection information in the position storage unit as information on the position;
An obstruction act determination step for performing at least one detection determination among the position shift detection of the imaging device, the subject non-response detection, and the subject continuous response detection according to the position state of the detection range obtained by the subject position determination step. And
In the analysis processing step,
Signal processing method of the detection system when the detection information is stored in the position storage unit, including the step of selectively performing the analysis processing for the image of the test knowledge range specified in the above detection information.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、
所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、
上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、
上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、
上記被写体位置決定処理により得られる検知範囲位置の状態による撮像装置の位置ズレ検知、被写体無応答検知、および被写体連続応答検知のうちの少なくとも一つの検知判定を行う妨害行為判定処理と、を有し、
上記解析処理において、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知範囲の画像に対して選択的に上記解析処理を行う処理を含む
検知システムの信号処理をコンピュータに実行させるプログラム。
An imaging process in which an imaging device captures an image of a light source or a subject illuminated by the light source;
A signal is acquired every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined calculation is performed based on the time average value. Analysis processing,
A determination process for detecting and determining the state of the light source or subject based on the analysis result of the analysis process;
From the detection information obtained in the determination process, the position and size of the subject in all the images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired. Subject position determination processing for storing detection information in the position storage unit as information relating to the position;
A jamming action determination process that performs at least one detection determination among a position shift detection of the imaging device, a subject non-response detection, and a subject continuous response detection according to the position state of the detection range obtained by the subject position determination process. And
In the above analysis process,
A computer signal processing of the detection system including processing when the detection information is stored in the position storage unit for selectively performing the analysis processing for the image of the test knowledge range specified in the above detection information The program to be executed.
JP2010149450A 2010-06-30 2010-06-30 Detection system, signal processing method thereof, and program Expired - Fee Related JP5349413B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010149450A JP5349413B2 (en) 2010-06-30 2010-06-30 Detection system, signal processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010149450A JP5349413B2 (en) 2010-06-30 2010-06-30 Detection system, signal processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012015735A JP2012015735A (en) 2012-01-19
JP5349413B2 true JP5349413B2 (en) 2013-11-20

Family

ID=45601660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010149450A Expired - Fee Related JP5349413B2 (en) 2010-06-30 2010-06-30 Detection system, signal processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5349413B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5770123B2 (en) * 2012-02-21 2015-08-26 リズム時計工業株式会社 Detection system, signal processing method thereof, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703547B2 (en) * 2006-11-29 2011-06-15 リズム時計工業株式会社 Detection system
JP4902460B2 (en) * 2007-08-08 2012-03-21 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP5159515B2 (en) * 2008-08-26 2013-03-06 キヤノン株式会社 Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2012015735A (en) 2012-01-19

Similar Documents

Publication Publication Date Title
JP4703547B2 (en) Detection system
JP2004180240A (en) Video input device
KR101950396B1 (en) Imaging device and imaging method
US7750949B2 (en) Automatic flicker frequency detection device and method
JP4689518B2 (en) Fire detection equipment
CN104364824A (en) Object detection device
KR101332917B1 (en) Detection system, signal processing method of detection system, and smoke sensor
KR20160050671A (en) Apparatus and method detecting motion mask
JP2005123946A (en) Defective pixel detection method, detector and imaging apparatus
US8311345B2 (en) Method and system for detecting flame
JP4171310B2 (en) Intruder detection method and intruder detection apparatus
JP3643513B2 (en) Intruding object monitoring method and intruding object monitoring apparatus
JP5265625B2 (en) Detection system, signal processing method thereof, and program
JP5349413B2 (en) Detection system, signal processing method thereof, and program
JP2008311850A (en) Image processing apparatus and endoscopic instrument equipped with the same
JPWO2007129591A1 (en) Shielding object image identification apparatus and method
JP5406787B2 (en) Detection system, signal processing method thereof, and program
JP5710230B2 (en) Monitoring system and monitoring method
JP2000137877A (en) Fire detecting device
JP2007201933A (en) Monitoring device using image
JP5349405B2 (en) Detection system, signal processing method thereof, and program
JP5770123B2 (en) Detection system, signal processing method thereof, and program
KR100931110B1 (en) Deinterlacing apparatus and method using fuzzy rule-based edge recovery algorithm
JP5839515B2 (en) Detection system, signal processing method thereof, and program
JP5265619B2 (en) Detection system, signal processing method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130820

R150 Certificate of patent or registration of utility model

Ref document number: 5349413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees