JP2011254178A - Detection system, signal processing method thereof, and program - Google Patents

Detection system, signal processing method thereof, and program Download PDF

Info

Publication number
JP2011254178A
JP2011254178A JP2010125260A JP2010125260A JP2011254178A JP 2011254178 A JP2011254178 A JP 2011254178A JP 2010125260 A JP2010125260 A JP 2010125260A JP 2010125260 A JP2010125260 A JP 2010125260A JP 2011254178 A JP2011254178 A JP 2011254178A
Authority
JP
Japan
Prior art keywords
detection
subject
light source
unit
time average
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010125260A
Other languages
Japanese (ja)
Other versions
JP5349405B2 (en
Inventor
Atsushi Fujimori
淳 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2010125260A priority Critical patent/JP5349405B2/en
Publication of JP2011254178A publication Critical patent/JP2011254178A/en
Application granted granted Critical
Publication of JP5349405B2 publication Critical patent/JP5349405B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a detection system, a signal processing method thereof, and a program which make it possible to detect subjects for each subject even if a plurality of subjects exist.SOLUTION: In a detection system including a position storing unit 144 capable of storing information on position including detection range in an image of a plurality of subjects, and a subject position determination unit 17 for determining a position of a subject including the detection range by retrieving position and size of the subject in an entire image from detection information obtained from a determination unit 16 and capable of storing detection information including the detection range regarding the subject in a position storing unit, an analysis processing unit 14 obtains a signal for each predetermined scan face cycle from an imaging apparatus, calculates time average of signal level difference from the signal level difference of signals between a plurality of different scan faces, performs analysis processing for performing a predetermined calculation based on a value of time average, and performs the analysis processing selectively for an image in the designated detection position range in detection information when detection information is stored in the position storing unit 144.

Description

本発明は、たとえば、撮像装置等を用いて被写体の状態を検知する検知システムおよびその信号処理方法、プログラムに関するものである。   The present invention relates to a detection system that detects the state of a subject using an imaging device or the like, a signal processing method thereof, and a program, for example.

たとえば、特許文献1に示す夜間の防犯システム等に用いられる撮像装置が提案されている。
この撮像装置は、信号処理部を有し、光源を周波数100Hzまたは120Hz(電源に50Hzまたは60Hzの商用電源を用いた場合、光源はその倍の100Hzまたは120Hzでその明るさが変動する)より高い高周波で変調する。さらに、信号処理部はこの高周波変調信号を検出する検出部を有している。
ただし、この撮像装置はその変調周波数より高いフレームレートを持っている必要がある。
For example, an imaging apparatus used in a nighttime crime prevention system shown in Patent Document 1 has been proposed.
This imaging apparatus has a signal processing unit, and the light source has a frequency higher than 100 Hz or 120 Hz (when a commercial power source of 50 Hz or 60 Hz is used as the power source, the brightness of the light source fluctuates at 100 Hz or 120 Hz that is twice that). Modulate with high frequency. Further, the signal processing unit has a detection unit for detecting the high frequency modulation signal.
However, this imaging apparatus needs to have a frame rate higher than its modulation frequency.

ところで、一般に広く普及している撮像装置はNTSC(National Television Standards Committee)方式またはPAL(Phase Alternating Line)方式と呼ばれる規格が採用されている。
このような規格を採用した撮像装置はフレームレートが遅いため、たとえば特許文献1に示すような防犯システムの撮像装置として使用できない。
By the way, a standard called NTSC (National Television Standards Committee) system or PAL (Phase Alternating Line) system is adopted for imaging apparatuses which are widely spread in general.
Since an image pickup apparatus adopting such a standard has a low frame rate, for example, it cannot be used as an image pickup apparatus for a crime prevention system as shown in Patent Document 1.

そこで、光源または光源に照射された被写体の状態を検知でき、NTSC等の規格を採用した防犯システムに適用可能な検知システムが提案されている(特許文献2参照)。
この検知システムは、光源の周波数成分の被写体の状態を検知する。
Therefore, a detection system that can detect a light source or the state of a subject irradiated with the light source and can be applied to a crime prevention system adopting a standard such as NTSC has been proposed (see Patent Document 2).
This detection system detects the state of the subject of the frequency component of the light source.

特許第3019309号公報Japanese Patent No. 3019309 特開2008−141251号公報JP 2008-141251 A

ところが、上記検知システムでは、撮像装置で捉えた映像から検知した被写体が複数存在した場合、各々の被写体の位置とその検知情報を判別することが困難である。
また、検知した位置範囲の情報を時間変化で測定することが困難である。
However, in the above-described detection system, when there are a plurality of subjects detected from the video captured by the imaging device, it is difficult to determine the position of each subject and its detection information.
Moreover, it is difficult to measure the information of the detected position range with time.

従来から位置検知の方法として背景差分による比較で検知する方法が知られている。
しかし、この方法では、特に複数の被写体を検知する場合目標となる被写体以外の動体や浮遊物等も検知しやすく、目標の被写体を判定することが困難である。
Conventionally, as a position detection method, a detection method using comparison based on a background difference is known.
However, with this method, particularly when a plurality of subjects are detected, it is easy to detect moving objects and floating objects other than the target subject, and it is difficult to determine the target subject.

本発明は、光源または光源に照射された被写体の状態を検知できることはもとより、被写体が複数存在する場合であっても被写体別に検知することが可能な検知システムおよびその信号処理方法、プログラムを提供することにある。   The present invention provides a detection system capable of detecting a light source or the state of a subject irradiated with the light source, and capable of detecting each subject even when there are a plurality of subjects, and a signal processing method and program therefor There is.

本発明の第1の観点の検知システムは、光源と、上記光源または上記光源によって照射された被写体を撮像する撮像装置と、上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、上記解析処理部は、上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う。   A detection system according to a first aspect of the present invention includes a light source, an imaging device that images the light source or a subject irradiated with the light source, an analysis processing unit that performs an analysis process on a signal acquired from the imaging device, A determination unit that detects and determines the state of the light source or the subject based on an analysis result of the analysis processing unit, a position storage unit that can store information about positions including detection ranges in the images of a plurality of subjects, and the determination unit From the obtained detection information, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, the detection information including the detection range related to the subject is acquired, and the detection information is A subject position determination unit that can be stored in the position storage unit as information on the image, and the analysis processing unit acquires the signal from the imaging device for each predetermined scanning plane period. The time average of the signal level difference is obtained from the signal level difference of the signal between a plurality of different scanning planes, and an analysis process for performing a predetermined calculation based on the value of the time average is performed. The calculation result is output to the determination unit, and when the detection information is stored in the position storage unit, the analysis process is selectively performed on the image in the detection position range specified in the detection information.

本発明の第2の観点の検知システムの信号処理方法は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、上記解析処理ステップにおいて、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含む。   The signal processing method of the detection system according to the second aspect of the present invention includes an imaging step of capturing an image of a light source or a subject irradiated with the light source by the imaging device, and acquiring the signal from the imaging device for each predetermined scanning plane period. An analysis processing step for obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and further performing an analysis process for performing a predetermined calculation based on the value of the time average, and the analysis A determination step for detecting and determining the state of the light source or subject based on the analysis result of the processing step, and a detection range by searching for the position and size of the subject in all images from the detection information obtained in the determination step. The position of the subject to be included is determined, detection information including a detection range related to the subject is acquired, and the detection information is stored in the position storage unit as information about the position. A body position determination step, and when the detection information is stored in the position storage unit in the analysis processing step, the image position selection step is selective to an image in a detection position range specified in the detection information. Includes a step of performing the above analysis processing.

本発明の第3の観点は、光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、上記解析処理において、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含む検知システムの信号処理をコンピュータに実行させるプログラムである。   According to a third aspect of the present invention, an image pickup process for picking up a light source or a subject irradiated with the light source with an image pickup device, and acquiring the signal for each predetermined scan plane period, and acquiring the signal between a plurality of different scan planes. The time average of the signal level difference is obtained from the signal level difference, and further, an analysis process for performing a predetermined calculation based on the value of the time average, and detecting the state of the light source or subject based on the analysis result of the analysis process From the determination process for determination and the detection information obtained by the above determination process, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range for the subject And a subject position determination process for storing the detection information in the position storage unit as information on the position. In the analysis process, the detection information is stored in the position storage unit. If it is 憶 is a program for executing the signal processing of the detection system including a process for selectively above analysis processing for the image sensing position range specified in the detection information to the computer.

本発明によれば、光源または光源に照射された被写体の状態を検知できることはもとより、被写体が複数存在する場合であっても被写体別に検知することができる。   According to the present invention, it is possible not only to detect the state of a light source or a subject irradiated to the light source, but also to detect for each subject even when there are a plurality of subjects.

本発明の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on embodiment of this invention. 本実施形態に係る位置記憶部において保存する情報の一例を示す図である。It is a figure which shows an example of the information preserve | saved in the position memory | storage part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。It is a figure which shows notionally the state before the position determination of the to-be-photographed object in the to-be-photographed object position determination part which concerns on this embodiment, and the state after position determination. 本実施形態に係る被写体位置決定部において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。It is a figure which shows an example of the (x, y) width table information of the detection range referred in order to perform position determination in the to-be-photographed object position determination part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行う場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows the process in the case of performing a position determination process. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行わない場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows a process when not performing a position determination process. 1つの光源もしくは反射光の被写体の検索法を説明するための図である。It is a figure for demonstrating the search method of the object of one light source or reflected light. 検知範囲の微調整処理を説明するための図である。It is a figure for demonstrating the fine adjustment process of a detection range. 本実施形態に係るCCDの構造を説明するための一例を示す図である。It is a figure which shows an example for demonstrating the structure of CCD which concerns on this embodiment. 図9のCCDの時系列を説明するための図である。It is a figure for demonstrating the time series of CCD of FIG. 単板補色フィルタ型CCDの画素の一配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the pixel of a single plate complementary color filter type CCD. 奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the color signal in odd field OFD and even field EFD. 本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the signal processing method of the luminance signal of the light source analysis process part which concerns on this embodiment. 光源11に含まれる周波数成分についての波形W6を示す図である。It is a figure which shows the waveform W6 about the frequency component contained in the light source. デューティー比Dと2乗和SACBDとの関係の一例を示す図である。It is a figure which shows an example of the relationship between duty ratio D and square sum SACBD. 本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。It is a flowchart figure for demonstrating a series of operation | movement outline | summary of the detection system which concerns on this embodiment.

以下、本発明の実施形態を図面に関連づけて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の実施形態に係る検知システムの構成例を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a detection system according to an embodiment of the present invention.

本検知システム10は、光源11、撮像装置12、輝度信号抽出部13、光源解析処理部14、フィルタ処理部15、判定部16、および被写体位置決定部17を有する。
光源解析処理部14は、第1の演算部(A)141、第2の演算部(B)142、演算処理部(時間平均2乗和演算処理部)143、および位置記憶部144を有する。
被写体位置決定部17は、位置検索処理部171および位置検索情報記憶部172を有する。
The detection system 10 includes a light source 11, an imaging device 12, a luminance signal extraction unit 13, a light source analysis processing unit 14, a filter processing unit 15, a determination unit 16, and a subject position determination unit 17.
The light source analysis processing unit 14 includes a first calculation unit (A) 141, a second calculation unit (B) 142, a calculation processing unit (time average square sum calculation processing unit) 143, and a position storage unit 144.
The subject position determination unit 17 includes a position search processing unit 171 and a position search information storage unit 172.

光源11は、所定の輝度で被写体を照明する。光源11の輝度は可変であり、撮像装置12が有する撮像素子の電荷蓄積時間内の輝度が、撮像装置12のフィールド周期の4n倍周期で変化する。ここで、n=1、2、3、…である。   The light source 11 illuminates the subject with a predetermined luminance. The luminance of the light source 11 is variable, and the luminance within the charge accumulation time of the imaging element included in the imaging device 12 changes at a cycle of 4n times the field cycle of the imaging device 12. Here, n = 1, 2, 3,.

本実施形態に係る検知システム10で使用する撮像装置12は、以下のような仕様の撮像装置を採用している。
本撮像装置12を構成する撮像素子は一例として、単板補色フィルタ、フィールド蓄積型インターライン転送CCD(Charge Coupled Device)イメージセンサ(以後、単にCCDと記述する)を用いる。
また、一例として撮像装置12のテレビジョン方式はNTSC方式、走査方式はインターレースを採用し、走査周波数は水平周波数が15.734KHzで垂直周波数は59.94Hzである。
このような構成の撮像装置12は、光源11によって照明された被写体を撮像し、撮像して得た信号を輝度信号抽出部13に出力する。
なお、ここではCCDイメージセンサを例示しているがCMOSイメージセンサも適用可能である。
The imaging device 12 used in the detection system 10 according to the present embodiment employs an imaging device having the following specifications.
As an example of the imaging device constituting the imaging apparatus 12, a single-plate complementary color filter and a field storage type interline transfer CCD (Charge Coupled Device) image sensor (hereinafter simply referred to as a CCD) are used.
As an example, the television system of the imaging device 12 employs the NTSC system, the scanning system employs interlace, the scanning frequency is 15.734 KHz, and the vertical frequency is 59.94 Hz.
The imaging device 12 having such a configuration images the subject illuminated by the light source 11 and outputs a signal obtained by the imaging to the luminance signal extraction unit 13.
Although a CCD image sensor is illustrated here, a CMOS image sensor can also be applied.

輝度信号抽出部13は、入力された信号から輝度信号を抽出し、この輝度信号を光源解析処理部14の第1の演算部141および第2の演算部142に出力する。
輝度信号抽出部13により抽出される輝度信号は、演算に最適化された信号レベルに調節される。
その信号レベルは、第1の演算部141、第2の演算部142、演算処理部143の出力値においてオーバーフローしない信号レベルである必要がある。そのため、輝度信号抽出部13は、輝度信号レベルを調整する回路を含む。
輝度信号レベルの調整値はいくつかのモードがある場合には、モード切り替えが可能なテーブルをもっていてもかまわない。そのモードはNTSCやPALなどの映像信号規格、撮像装置の周波数モードであってもよい。
The luminance signal extraction unit 13 extracts a luminance signal from the input signal and outputs the luminance signal to the first calculation unit 141 and the second calculation unit 142 of the light source analysis processing unit 14.
The luminance signal extracted by the luminance signal extraction unit 13 is adjusted to a signal level optimized for calculation.
The signal level needs to be a signal level that does not overflow in the output values of the first calculation unit 141, the second calculation unit 142, and the calculation processing unit 143. Therefore, the luminance signal extraction unit 13 includes a circuit that adjusts the luminance signal level.
The adjustment value of the luminance signal level may have a table capable of mode switching when there are several modes. The mode may be a video signal standard such as NTSC or PAL, or a frequency mode of the imaging apparatus.

光源解析処理部14において、第1の演算部141は、入力された輝度信号を撮像素子の同一領域において、m番目と(m+2)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第1の演算部141の出力結果Aは、演算処理部143に出力される。
第2の演算部142は、入力された輝度信号の同一領域において、(m+1)番目と(m+3)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第2の演算部142の出力結果Bは、演算処理部143に出力される。
なお、この第1の演算部141と第2の演算部142の動作の詳細については後述する。
第1の演算部141および第2の演算部142は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
In the light source analysis processing unit 14, the first calculation unit 141 obtains the time average of the level difference of the luminance signal in the m-th and (m + 2) -th fields in the same area of the imaging device.
The output result A of the first calculation unit 141 is output to the calculation processing unit 143.
The second calculation unit 142 obtains a time average of the level difference of the luminance signal in the (m + 1) th and (m + 3) th fields in the same region of the input luminance signal.
The output result B of the second calculation unit 142 is output to the calculation processing unit 143.
The details of the operations of the first calculation unit 141 and the second calculation unit 142 will be described later.
The first calculation unit 141 and the second calculation unit 142 perform calculation processing in accordance with calculation range designation information for analyzing the image stored in the position storage unit 144.

第1の演算部141と第2の演算部142からそれぞれ出力される出力結果Aと出力結果Bは演算処理部143に入力される。
演算処理部143は出力結果の2乗和の値(A+B)を求め、フィルタ処理部15に出力する。
演算処理部143は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
The output result A and the output result B output from the first calculation unit 141 and the second calculation unit 142, respectively, are input to the calculation processing unit 143.
The arithmetic processing unit 143 obtains a square sum value (A 2 + B 2 ) of the output result and outputs it to the filter processing unit 15.
The arithmetic processing unit 143 performs arithmetic processing according to the calculation range designation information for analyzing the image stored in the position storage unit 144.

位置記憶部144は、たとえば被写体位置決定部17で決定される、光源の信号成分から不要な動体物を除去し高精度に検知された複数の被写体の位置および大きさの検知情報を記憶する。
このように、光源解析処理部14は、第1の演算部141と第2の演算部142の画像解析する演算範囲を指定可能な、位置記憶部144を備える。
その位置記憶部144は複数(n)個の位置情報を記憶できる。
そのため、光源解析処理部14の検知処理は光源もしくは光源に照射された被写体の検知において、位置記憶部144で指定する画像の範囲(たとえば範囲 Mn = [x1,y1 - x2,y2])におけるn個分の解析処理を、1フレーム内で処理を行う。
または、1フレームの時間内でn個分の解析処理を行えない場合には、1フレームでの解析処理は1つのnの範囲で行い、その完了後次のフレームから2つ目の範囲の解析処理を順時行う方法でもかまわない。
解析処理により得たn個の指定範囲の画像は光源もしくは光源に照射された被写体があれば、検知画像として取得できる。
光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な検知処理ではなく全体の画像に対する光源解析処理を行う。
The position storage unit 144 stores, for example, detection information on the positions and sizes of a plurality of subjects detected with high accuracy by removing unnecessary moving objects from the signal component of the light source, which is determined by the subject position determination unit 17.
As described above, the light source analysis processing unit 14 includes the position storage unit 144 that can specify a calculation range for image analysis of the first calculation unit 141 and the second calculation unit 142.
The position storage unit 144 can store a plurality (n) pieces of position information.
Therefore, the detection processing of the light source analysis processing unit 14 is performed in the detection of the light source or the subject irradiated with the light source. One piece of analysis processing is performed within one frame.
Alternatively, if n analysis processes cannot be performed within the time of one frame, the analysis process in one frame is performed in one n range, and after the completion, the analysis in the second range from the next frame is performed. A method of performing processing in order may also be used.
An image in the n designated ranges obtained by the analysis process can be acquired as a detected image if there is a light source or a subject irradiated with the light source.
Since the detection range is not specified in the initial state in which position information or the like is not stored in the position storage unit 144, the light source analysis processing unit 14 performs light source analysis processing on the entire image instead of selective detection processing.

また、位置記憶部144は不揮発性メモリ、もしくは設定ファイルであった場合、停電時などにも影響なく検知位置を復帰できる。また、被写体位置決定を行うか否かを選択するフラグを有する。
また、位置記憶部144の一部は揮発性メモリを有し、一時記憶用に利用できる。
位置記憶部144は、被写体の位置座標、大きさ、被写体の周波数検知感度(信号レベル)、被写体個別番号等の情報を保存する機能を有する。
Further, when the position storage unit 144 is a nonvolatile memory or a setting file, the detection position can be restored without being affected by a power failure. In addition, it has a flag for selecting whether or not to determine the subject position.
A part of the position storage unit 144 has a volatile memory and can be used for temporary storage.
The position storage unit 144 has a function of storing information such as the position coordinates and size of the subject, the frequency detection sensitivity (signal level) of the subject, and the individual number of the subject.

図2は、本実施形態に係る位置記憶部144において保存する情報テーブルの一例を示す図である。   FIG. 2 is a diagram illustrating an example of an information table stored in the position storage unit 144 according to the present embodiment.

図2において、「No」は被写体の個別番号を示す。「x,y」は被写体の開始位置座標を示し、「xe,ye」は被写体の終了位置座標を示す。「n」は被写体の数に対応した番号を示す。「level」は被写体の周波数感度である信号レベル(信号強度)を示す。
このテーブルTBL1の例では、「No.1」の被写体は、開始位置座標が「10,10」、終了位置座標が「20,20」の1番目の被写体であり、その信号レベルは相対的に「40」である。
「No.2」の被写体は、開始位置座標が「30,30」、終了位置座標が「50,60」の2番目の被写体であり、その信号レベルは相対的に「43」である。
「No.3」の被写体は、開始位置座標が「100,100」、終了位置座標が「120,120」の3番目の被写体であり、その信号レベルは相対的に「50」である。
「No.4」の被写体は、開始位置座標が「300,300」、終了位置座標が「325,315」の4番目の被写体であり、その信号レベルは相対的に「60」である。
In FIG. 2, “No” indicates the individual number of the subject. “X, y” indicates the start position coordinates of the subject, and “xe, ye” indicates the end position coordinates of the subject. “N” indicates a number corresponding to the number of subjects. “Level” indicates a signal level (signal intensity) which is frequency sensitivity of the subject.
In this example of the table TBL1, the subject of “No. 1” is the first subject with the start position coordinates “10, 10” and the end position coordinates “20, 20”, and the signal level is relatively high. “40”.
The subject of “No. 2” is the second subject whose start position coordinates are “30, 30” and end position coordinates are “50, 60”, and its signal level is relatively “43”.
The “No. 3” subject is the third subject whose start position coordinates are “100, 100” and end position coordinates are “120, 120”, and its signal level is relatively “50”.
The subject of “No. 4” is the fourth subject having a start position coordinate of “300, 300” and an end position coordinate of “325, 315”, and its signal level is relatively “60”.

以上のように、本実施形態の光源解析処理部14では、複数の被写体の位置に関する情報を記憶できるメモリである位置記憶部144を備え、その位置記憶部144に被写体位置を示す画像領域の座標値と被写体番号等の、被写体の検知情報をもつ。
光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標が存在する場合は、その座標で指定される検知位置範囲の画像を解析(検知)する機能を有している。
位置記憶部144への検知情報の記憶は被写体位置決定部17で行う。
As described above, the light source analysis processing unit 14 of the present embodiment includes the position storage unit 144 that is a memory that can store information on the positions of a plurality of subjects, and the position storage unit 144 has coordinates of an image area that indicates the subject position. It has subject detection information such as value and subject number.
The light source analysis processing unit 14 has a function of analyzing (detecting) an image in the detection position range specified by the coordinates when the detection position coordinates stored in the position storage unit 144 exist.
The subject position determination unit 17 stores the detection information in the position storage unit 144.

光源解析処理部14は、たとえば図示しない制御系により指定されるあるいは位置記憶部144の検知情報の有無に応じて自動的に切り替わる2つのモード、具体的には全画素検知モードと被写体位置検知モードで動作可能である。
全画素検知モードでは、光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な解析処理ではなく全体の画像に対する光源解析処理を行う。
この全画素検知モードにおける検知結果に基づいて、後述する被写体位置決定部17で、複数の被写体の位置に関する情報が検知されて、この検知情報が位置記憶部144に記憶される。
たとえばこの検知情報が位置記憶部144に記憶されると、光源解析処理部14は、全画素検知モードから被写体位置検知モードに切り替わる。
被写体位置検知モードでは、光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の画像を解析(検知)する。
この光源解析処理部14を有することから、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
The light source analysis processing unit 14 is, for example, two modes that are designated by a control system (not shown) or automatically switched according to the presence or absence of detection information in the position storage unit 144, specifically, an all-pixel detection mode and a subject position detection mode. It is possible to operate with.
In the all-pixel detection mode, the light source analysis processing unit 14 does not specify a detection range in the initial state where position information or the like is not stored in the position storage unit 144. Perform analysis processing.
Based on the detection result in the all-pixel detection mode, the subject position determination unit 17 described later detects information regarding the positions of a plurality of subjects, and the detection information is stored in the position storage unit 144.
For example, when this detection information is stored in the position storage unit 144, the light source analysis processing unit 14 switches from the all-pixel detection mode to the subject position detection mode.
In the subject position detection mode, the light source analysis processing unit 14 analyzes (detects) an image in the detection position range specified by the coordinates based on the detection position coordinates and the like stored in the position storage unit 144.
Since the light source analysis processing unit 14 is provided, the detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. Is also effective and can be detected with high accuracy.

フィルタ処理部15は、上述した初期状態時には、全体の画像をフィルタ処理によりノイズ低減を行い判定部16に出力する。
フィルタ処理部15は、光源解析処理部14におけるn個の検知画像をフィルタ処理によりノイズ低減や検知されなかった部分の消去を行い判定部16に出力する。
In the initial state described above, the filter processing unit 15 performs noise reduction on the entire image by filter processing and outputs the noise to the determination unit 16.
The filter processing unit 15 performs noise reduction on the n detected images in the light source analysis processing unit 14 or eliminates a portion that has not been detected by the filter processing, and outputs the result to the determination unit 16.

上述した初期状態においては、判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減された全体画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減や検知されなかった部分が消去された検知画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部16の動作の詳細については後述する。
In the above-described initial state, the determination unit 16 is output from the arithmetic processing unit 143 and based on the square sum value (A 2 + B 2 ) of the entire image that has been reduced in noise by the filter processing unit 15. For example, it is determined whether the subject imaged is stationary or moving. Details of the operation of the determination unit 16 will be described later.
Based on the square sum value (A 2 + B 2 ) of the detected image that is output from the arithmetic processing unit 143 and from which the filter processing unit 15 has eliminated noise and has not been detected, the determination unit 16 For example, it is determined whether the subject imaged at 12 is stationary or moving. Details of the operation of the determination unit 16 will be described later.

被写体位置決定部17は、判定部16にて得られた検知状態から、全画像の中から被写体の位置を検索する位置検索処理部171、および位置検索処理部171の位置検索結果を格納する位置検索情報記憶部172を有する。   The subject position determination unit 17 stores the position search processing unit 171 that searches for the position of the subject from all the images from the detection state obtained by the determination unit 16 and the position search result of the position search processing unit 171. A search information storage unit 172 is included.

図3(A)および(B)は、本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。
図3(A)に示すように、位置決定前の被写体OBJ1,OBJ2が検索され、検索結果から図3(B)に示すように、矩形の枠DTRG1,DTRG2に示す範囲に被写体OBJ1,OBJ2の位置が決定され、その範囲が光源解析処理部14の解析対象および判定部16の検知対象となる。
この位置決定後の範囲等の検知情報は、光源解析処理部14の位置記憶部144に格納される。本実施形態においては、上述したようにその範囲の検知のみ行うことが可能な被写体位置検知モードと全画像を対象とする全画像検知モードを持つ。
たとえば、特定の位置の被写体のみを検知することが必要な用途では、位置記憶部144に格納された範囲の被写体位置検知モードで動作させる。
その場合、上述したように、特定の位置を設定するために被写体位置決定部17により、最初に被写体対象位置を検索し位置記憶部144に格納し、以降は記憶された位置の検知のみ行うという利用に応用できる。
FIGS. 3A and 3B are diagrams conceptually showing states before and after the position of a subject in the subject position determination unit according to the present embodiment.
As shown in FIG. 3A, the subjects OBJ1 and OBJ2 before the position determination are searched, and as shown in FIG. The position is determined, and the range becomes the analysis target of the light source analysis processing unit 14 and the detection target of the determination unit 16.
Detection information such as the range after the position determination is stored in the position storage unit 144 of the light source analysis processing unit 14. In the present embodiment, as described above, there are a subject position detection mode in which only the detection of the range is possible and an all image detection mode for all images.
For example, in an application where it is necessary to detect only a subject at a specific position, the operation is performed in the subject position detection mode in the range stored in the position storage unit 144.
In that case, as described above, in order to set a specific position, the subject position determination unit 17 first searches the subject target position and stores it in the position storage unit 144, and thereafter only the detection of the stored position is performed. Applicable to use.

被写体位置決定部17は、被写体の大きさから検知範囲を決定する。
被写体位置決定部17において、検知範囲の決定には、検知範囲DTRGの(x,y)幅が1つのみの固定の場合の第1のモードと、(x,y)幅を、被写体の大きさを測定し(x,y)幅をあらかじめ用意した複数のテーブルから現在の(x、y)幅を超えた(もしくは以下になった)大きさのテーブル値の検知範囲DTRGを選択する第2のモードとの2つのモードがある。
検知範囲DTRGの(x,y)幅テーブルは、たとえば位置検索情報記憶部172に格納される。
被写体位置決定部17は、第1のモードと第2のモードのいずれかを選択でき、これらの機能を有する構成となる。
この検知範囲を被写体の大きさをあらかじめ用意したテーブルから判定して検知範囲を決定するモードにより、被写体の大きさと位置を高速に検知することができる。
The subject position determination unit 17 determines the detection range from the size of the subject.
In the subject position determination unit 17, the detection range is determined using the first mode when the (x, y) width of the detection range DTRG is fixed to one and the (x, y) width according to the size of the subject. Second, a table value detection range DTRG having a size exceeding (or below) the current (x, y) width is selected from a plurality of tables prepared in advance with a (x, y) width. There are two modes:
The (x, y) width table of the detection range DTRG is stored in the position search information storage unit 172, for example.
The subject position determination unit 17 can select either the first mode or the second mode, and has a configuration having these functions.
This detection range is determined from a table in which the size of the subject is prepared in advance and the detection range is determined, so that the size and position of the subject can be detected at high speed.

図4は、本実施形態に係る被写体位置決定部17において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。   FIG. 4 is a diagram illustrating an example of (x, y) width table information of the detection range referred to for position determination in the subject position determination unit 17 according to the present embodiment.

図4において、「No」は被写体の検知範囲の(x,y)幅情報の番号を示す。「x,y」は被写体の検知範囲DTRGの大きさ情報を示し、sBlKは検索ブロック数(画素数)を示す。
この(x,y)幅テーブルTBL2の例では、「No.1」の検知範囲DTRGは「10×10」でブロック数が「2」の場合である。
「No.2」の検知範囲DTRGは「30×30」でブロック数が「4」の場合である。
「No.3」の検知範囲DTRGは「100×100」でブロック数が「8」の場合である。
「No.4」の検知範囲DTRGは「300×300」でブロック数が「12」の場合である。
被写体位置決定部17の位置検索処理部171は、この(x,y)幅テーブルTBL2を参照し、たとえば「No」の小さい方から昇順に、あるいは「No」の大きい方から降順にサーチして、対象被写体に最も適した検知範囲を決定する。
In FIG. 4, “No” indicates the number of (x, y) width information of the subject detection range. “X, y” indicates the size information of the object detection range DTRG, and sBlK indicates the number of search blocks (number of pixels).
In the example of the (x, y) width table TBL2, the detection range DTRG of “No. 1” is “10 × 10” and the number of blocks is “2”.
The detection range DTRG of “No. 2” is “30 × 30” and the number of blocks is “4”.
The detection range DTRG of “No. 3” is “100 × 100” and the number of blocks is “8”.
The detection range DTRG of “No. 4” is “300 × 300” and the number of blocks is “12”.
The position search processing unit 171 of the subject position determination unit 17 refers to the (x, y) width table TBL2, and searches, for example, in ascending order from the smaller “No” or in descending order from the larger “No”. The detection range most suitable for the target subject is determined.

また、被写体位置決定部17は、被写体の大きさから検知範囲DTRGを微調整することが可能に構成される。
検知範囲の微調整は、検知範囲DTRG(x,y)が決定した状態から、あらかじめ用意した微調整値テーブルもしくは微調整式[x1 = x * sP1 , y1 = y * sP2 ]により検知範囲の(x,y)幅を微調整する機能を有する構成となる。
ここでは、「sP1」、「sP2」は調整用パラメータで、たとえば1<sP1,sP2<2の値をとる。
この機能により、通常検知範囲内で検知可能な被写体に小さな揺れや移動が発生しても、被写体の範囲から外れることなく検知することができる。
特に、被写体が光源の場合は効果的である。
The subject position determination unit 17 is configured to be able to finely adjust the detection range DTRG from the size of the subject.
For fine adjustment of the detection range, from the state where the detection range DTRG (x, y) is determined, the fine adjustment value table prepared in advance or the fine adjustment formula [x1 = x * sP1, y1 = y * sP2] x, y) The configuration has a function of finely adjusting the width.
Here, “sP1” and “sP2” are adjustment parameters and take values of, for example, 1 <sP1, sP2 <2.
With this function, even if a small shake or movement occurs in a subject that can be detected within the normal detection range, it can be detected without departing from the subject range.
This is particularly effective when the subject is a light source.

次に、本実施形態に係る被写体位置決定部17における検知位置の決定処理を、図5〜図8に関連付けて具体的に説明する。
図5および図6は、本実施形態に係る被写体位置決定部17における検知位置の決定処理を具体的に説明するためのフローチャートであって、図5は位置決定処理を行う場合のフローチャートであり、図6は位置決定処理を行わない場合のフローチャートである。
図7は、1つの光源もしくは反射光の被写体の検索法を説明するための図である。
図8は、検知範囲の微調整処理を説明するための図である。
以下の処理は位置検索処理部171が中心に行うことになるが、ここでは、被写体位置決定部17の処理として説明する。
Next, the detection position determination process in the subject position determination unit 17 according to the present embodiment will be specifically described with reference to FIGS.
5 and 6 are flowcharts for specifically explaining the detection position determination process in the subject position determination unit 17 according to the present embodiment, and FIG. 5 is a flowchart in the case of performing the position determination process. FIG. 6 is a flowchart when the position determination process is not performed.
FIG. 7 is a diagram for explaining a method of searching for a subject of one light source or reflected light.
FIG. 8 is a diagram for explaining detection range fine adjustment processing.
The following processing is performed mainly by the position search processing unit 171. Here, the processing will be described as processing by the subject position determination unit 17.

被写体位置決定部17は、位置決定処理を行うか否かを判定する(ST1)。
被写体位置決定部17は、ステップST1において位置決定処理を行うと判定すると、位置検索情報記憶部172に格納されている(x,y)幅テーブルTBL2を参照してサーチ(調査)することにより検知範囲DTRGの(x,y)幅を決定する(ST2)。
そして、被写体位置決定部17は、たとえば光源解析処理部14の位置記憶部144における検知位置に関する情報の記憶領域をクリアする(ST3)。
次に、被写体位置決定部17は、検知範囲DTRGの(x,y)幅で対象周波数のピクセル数を調査する(ST4)。
The subject position determination unit 17 determines whether or not to perform position determination processing (ST1).
When the subject position determination unit 17 determines that the position determination process is to be performed in step ST1, the subject position determination unit 17 performs detection (search) with reference to the (x, y) width table TBL2 stored in the position search information storage unit 172. The (x, y) width of the range DTRG is determined (ST2).
Then, for example, the subject position determination unit 17 clears the storage area for information on the detected position in the position storage unit 144 of the light source analysis processing unit 14 (ST3).
Next, the subject position determination unit 17 investigates the number of pixels of the target frequency with the (x, y) width of the detection range DTRG (ST4).

ステップST4における処理を図7および図8に関連付けて説明する。
被写体位置決定部17は、図7(A)〜(D)に示すような方法で、(x,y)幅テーブルTBL2を参照して、1つの光源もしくは反射光の被写体の検索を行う。
まず、図7(A)に示すように、検索の最小単位を1ブロックBLKとする。
図7(A)には、縦×横の検索ピクセルspixの例として2×2の場合が示されている。
一つのブロックの検知強度は全ピクセルの総和を2×2で除した値となる。
ここで、検索を開始する。
The process in step ST4 will be described with reference to FIGS.
The subject position determination unit 17 refers to the (x, y) width table TBL2 and searches for a subject of one light source or reflected light by a method as shown in FIGS.
First, as shown in FIG. 7A, the minimum unit of search is one block BLK.
FIG. 7A shows a 2 × 2 case as an example of a vertical × horizontal search pixel spix.
The detection intensity of one block is a value obtained by dividing the sum of all pixels by 2 × 2.
Here, the search is started.

図7(B)に示すように、1回の横ラインLLNの検索処理を行う。
この場合、検索ブロックsblk=2であり、2×2ブロックを横ライン(x方向)LLNに検索する。
検索ブロックsblkが2の場合、縦(y)2、横(x)2であることから、検出したブロック数をカウントする。
ブロックBLKの符号2,3,4で示されたブロックで検出できていればカウント値は3となる。
被写体位置決定部17は、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した横ラインLLNの情報を位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全横ライン検索する。
次に、1回の縦ラインの検索処理を行う。
As shown in FIG. 7B, one horizontal line LLN search process is performed.
In this case, the search block sblk = 2, and the 2 × 2 block is searched for the horizontal line (x direction) LLN.
When the search block sblk is 2, since it is vertical (y) 2 and horizontal (x) 2, the number of detected blocks is counted.
If the block BLK is detected by the blocks indicated by reference numerals 2, 3, and 4, the count value is 3.
In the case of a table in which the number of search blocks sblk is large, the subject position determination unit 17 repeats the process with reference to the next number sblk in the detection range table until the count value becomes 1.
Information on the detected horizontal line LLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, one vertical line search process is performed.

図7(C)に示すように、1回の縦ラインVLNの検索処理を行う。
被写体位置決定部17は、位置検索情報記憶部172に記憶している横ラインLLNの検知ライン中から、縦方向に検索ブロック数sblkで示されるブロック幅で検索を行う。
検索方法は横ラインLLNの検索と同様であり、検索ブロック数sblkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsblkを参照して処理を繰り返す。
検知した縦ラインVLNを位置検索情報記憶部172に記憶する
被写体位置決定部17は、上記処理を2×2ブロック毎に全縦ライン検索する。
次に、検知範囲DTRGの検索処理を行う。
As shown in FIG. 7C, one vertical line VLN search process is performed.
The subject position determination unit 17 searches the detection line of the horizontal line LLN stored in the position search information storage unit 172 with a block width indicated by the number of search blocks sblk in the vertical direction.
The search method is the same as the search of the horizontal line LLN. In the case of a table in which the number of search blocks sblk is large, the process is repeated with reference to the next number sblk in the detection range table until the count value becomes 1.
The detected vertical line VLN is stored in the position search information storage unit 172. The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, a search process for the detection range DTRG is performed.

図7(D)に示すように、検知範囲DTRGの検索処理を行う。
上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
次に検知範囲DTRGの決定処理を行う。
この場合も上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
そして、被写体位置決定部17は、検知範囲[(x,y)−(xe,ye)]DTRGを決定する。
そして、決定範囲に微調整用パラメータsP1,sP2の倍率で微調整する。
なお、以上の処理は、複数の光源でも同時に行うことが可能である。
As shown in FIG. 7D, the detection process of the detection range DTRG is performed.
A continuous vertical and horizontal block detected by the horizontal line LLN and the vertical line VLN from the above processing is defined as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Next, the detection range DTRG is determined.
Also in this case, continuous vertical and horizontal blocks that can be detected by the horizontal line LLN and the vertical line VLN from the above processing are set as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Then, the subject position determination unit 17 determines the detection range [(x, y) − (xe, ye)] DTRG.
Then, fine adjustment is performed within the determination range with the magnification of the fine adjustment parameters sP1 and sP2.
The above processing can be performed simultaneously with a plurality of light sources.

被写体位置決定部17は、図8(A)〜(F)に示すような方法で、検知範囲DTRGの微調整処理を行う。
被写体位置決定部17は、各決定範囲において、検知強度の範囲微調整は各検知範囲毎に4方向もしくは8方向に検知強度を調査し、最も検知強度の高い場所で最終決定する。
この例では、図8(B)で1ブロック上の検知強度を調査し、図8(C)で1ブロック右の検知強度を調査し、図8(D)で1ブロック下の検知強度を調査し、図8(E)で1ブロック左の検知強度を調査する。
そして、図8(F)で、最も検知強度の高い場所で最終的な検知範囲DTRGを決定する。
換言すれば、検知範囲DTRGのほぼ中央部に被写体OBJが位置する場所を最終的な検知範囲DTRGとして決定する。
The subject position determination unit 17 performs fine adjustment processing of the detection range DTRG by a method as shown in FIGS.
The subject position determination unit 17 finely adjusts the detection intensity in each determination range, investigates the detection intensity in four directions or eight directions for each detection range, and finally determines the detection intensity in a place with the highest detection intensity.
In this example, the detection intensity on one block is investigated in FIG. 8 (B), the detection intensity on the right of one block is investigated in FIG. 8 (C), and the detection intensity below one block is examined in FIG. 8 (D). Then, in FIG. 8E, the detection intensity on the left of one block is investigated.
Then, in FIG. 8F, the final detection range DTRG is determined at the place where the detection intensity is the highest.
In other words, the place where the subject OBJ is located at substantially the center of the detection range DTRG is determined as the final detection range DTRG.

ステップST4において対象周波数のブロック数を調査した後、被写体位置決定部17は、対象周波数のブロック数が0より大きいか否かの判定を行う(ST5)。
ステップST5で対象周波数のブロック数が0より大きいと判定すると、被写体位置決定部17は、光源解析処理部14の位置記憶部144へ検索して得た検知位置情報を記憶する(ST6)。
そして、位置記憶部114のテーブルTBL1の番号「No」を+1する(ST7)。
被写体位置決定部17は、次の検知範囲DTRG(x,y)を指定する(ST8)。
被写体位置決定部17は、ステップST5で対象周波数のブロック数が0であると判定すると、ステップST6,ST7の処理を行わず、ステップST8の処理に移行する。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST5〜ST8の処理を繰り返す。
ステップST8において、対象画像の検知が完了すると、位置記憶部144の検知位置情報から(x,y)方向に連続する番号のエリアを統合し(ST10)、検知位置の数を取得する(ST11)。
After examining the number of blocks of the target frequency in step ST4, the subject position determination unit 17 determines whether or not the number of blocks of the target frequency is greater than 0 (ST5).
If it is determined in step ST5 that the number of blocks of the target frequency is greater than 0, the subject position determination unit 17 stores the detected position information obtained by searching the position storage unit 144 of the light source analysis processing unit 14 (ST6).
Then, the number “No” in the table TBL1 of the position storage unit 114 is incremented by 1 (ST7).
The subject position determination unit 17 designates the next detection range DTRG (x, y) (ST8).
If the subject position determination unit 17 determines in step ST5 that the number of blocks of the target frequency is 0, the process proceeds to step ST8 without performing steps ST6 and ST7.
The subject position determination unit 17 repeats the processes of steps ST5 to ST8 until the detection of the target image is completed (ST9).
In step ST8, when the detection of the target image is completed, areas with numbers consecutive in the (x, y) direction are integrated from the detected position information in the position storage unit 144 (ST10), and the number of detected positions is acquired (ST11). .

被写体位置決定部17は、ステップST1において位置決定処理を行わないと判定すると、図6のステップST12からの処理に移行する。
被写体位置決定部17は、位置記憶部144から指定番号を取得する(ST12)。
ここで、被写体位置決定部17は、指定番号があるか否かを判定する(ST13)。
ステップST13において指定番号があると判定すると、被写体位置決定部17は、指定番号から位置記憶部144の検知範囲FTRGの(x,y)幅情報を取得し(ST14)、検知範囲DTRGの被写体の状態を検知(検索)する(ST15)。
そして、位置記憶部114のテーブルTBL1の番号「No」を+1する(ST16)。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST14〜ST16の処理を繰り返す。
被写体位置決定部17は、ステップST13において指定番号がないと判定すると、ステップST14〜ST17の処理は行わず、全画素の被写体の状態を検知(検索)する。
If the subject position determination unit 17 determines not to perform the position determination process in step ST1, the subject position determination unit 17 proceeds to the process from step ST12 in FIG.
The subject position determination unit 17 acquires the designated number from the position storage unit 144 (ST12).
Here, the subject position determination unit 17 determines whether or not there is a designated number (ST13).
If it is determined in step ST13 that there is a designated number, the subject position determining unit 17 acquires (x, y) width information of the detection range FTRG in the position storage unit 144 from the designated number (ST14), and the subject in the detection range DTRG is acquired. A state is detected (searched) (ST15).
Then, the number “No” in the table TBL1 of the position storage unit 114 is incremented by 1 (ST16).
The subject position determination unit 17 repeats the processes of steps ST14 to ST16 until the detection of the target image is completed (ST9).
If the subject position determination unit 17 determines that there is no designated number in step ST13, the subject position determination unit 17 detects (searches) the subject state of all pixels without performing the processing of steps ST14 to ST17.

次に、本実施形態に係る検知システムの他の構成および機能について詳細に説明する。
はじめに、本実施形態に係る撮像装置12のCCDの構成について説明する。
Next, other configurations and functions of the detection system according to the present embodiment will be described in detail.
First, the configuration of the CCD of the imaging device 12 according to the present embodiment will be described.

図9は、本実施形態に係るCCDの構造を説明するための一例を示す図である。   FIG. 9 is a diagram showing an example for explaining the structure of the CCD according to the present embodiment.

図9のCCD20はインターライン転送で、フォトダイオードPD21、垂直転送CCD22、水平転送CCD23、増幅器24を有する。
フォトダイオードPD21は、マトリクス状に配列されている。垂直ライン方向に配列されるフォトダイオードPD21は、列ごとにそれぞれ電荷を転送するための垂直転送CCD22に接続されている。各垂直転送CCD22の端部は、電荷を増幅部に転送する水平転送CCD23にそれぞれ接続されている。また、水平転送CCD23の出力側には増幅器24が接続されている。
The CCD 20 in FIG. 9 is an interline transfer, and includes a photodiode PD21, a vertical transfer CCD22, a horizontal transfer CCD23, and an amplifier 24.
The photodiodes PD21 are arranged in a matrix. The photodiodes PD21 arranged in the vertical line direction are connected to a vertical transfer CCD 22 for transferring charges for each column. The end of each vertical transfer CCD 22 is connected to a horizontal transfer CCD 23 that transfers charges to the amplifier. An amplifier 24 is connected to the output side of the horizontal transfer CCD 23.

映像の走査方式はインターレースであり、一画面は飛び越し走査で、奇数フィールドと偶数フィールドとで構成される。
まず、光がフォトダイオードPD21に入射し、電荷蓄積時間にフォトダイオードPD21で電荷が蓄積されていく。この間、フォトダイオードPD21と垂直転送CCD22間は遮断されている。
電荷蓄積時間が終了すると、フォトダイオードPD21と垂直転送CCD22間が導通し、蓄積された電荷が垂直転送CCD22に移される。この直後に、フォトダイオードPD21と垂直転送CCD22間は遮断され、フォトダイオードPD21で次の電荷蓄積が開始する。垂直転送CCD22に移された電荷は、1水平ライン毎に水平転送CCD23に転送され、増幅器24に入力されている。
この1水平ライン毎に、電荷が垂直転送CCD22から水平転送CCD23へ転送されるまでの周波数は、CCD20の水平走査周波数15.734Hzで行われる。垂直転送CCD22のすべての電荷が水平転送CCD23に転送されると、再び垂直転送CCD22とフォトダイオードPD21間が導通し、フォトダイオードPD21の電荷が垂直転送CCD22に移される。フィールド蓄積CCDの場合、光電変換によってフォトダイオードPD21で電荷が蓄積され、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの転送周波数は、59.94Hzとなる。
The video scanning method is interlaced, and one screen is interlaced scanning, and is composed of an odd field and an even field.
First, light enters the photodiode PD21, and charges are accumulated in the photodiode PD21 during the charge accumulation time. During this time, the photodiode PD21 and the vertical transfer CCD 22 are disconnected.
When the charge accumulation time ends, the photodiode PD21 and the vertical transfer CCD 22 are brought into conduction, and the accumulated charge is transferred to the vertical transfer CCD 22. Immediately after this, the photodiode PD21 and the vertical transfer CCD 22 are disconnected, and the next charge accumulation is started in the photodiode PD21. The charges transferred to the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23 for each horizontal line and input to the amplifier 24.
The frequency until charge is transferred from the vertical transfer CCD 22 to the horizontal transfer CCD 23 for each horizontal line is the horizontal scanning frequency of 15.734 Hz of the CCD 20. When all the charges of the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23, the vertical transfer CCD 22 and the photodiode PD 21 are again brought into conduction, and the charges of the photodiode PD 21 are transferred to the vertical transfer CCD 22. In the case of a field accumulation CCD, charges are accumulated in the photodiode PD21 by photoelectric conversion, and the transfer frequency until this charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is 59.94 Hz.

図10は、図9のCCD20の時系列を説明するための図である。   FIG. 10 is a diagram for explaining the time series of the CCD 20 of FIG.

図10に示すように、光電変換によってフォトダイオードPD21で電荷が蓄積されるまでの所要時間をΔT1とし、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの所要時間をΔT2とする。
図10から分かるように、CCD20に入射した光エネルギーは、電荷蓄積時間ΔT1の間積分されながら、電荷蓄積周期ΔT=ΔT1+ΔT2=(1/59.94)秒でサンプリングされていることになる。
As shown in FIG. 10, the required time until charge is accumulated in the photodiode PD21 by photoelectric conversion is ΔT1, and the required time until the charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is ΔT2.
As can be seen from FIG. 10, the light energy incident on the CCD 20 is sampled at the charge accumulation period ΔT = ΔT1 + ΔT2 = (1 / 59.94) seconds while being integrated during the charge accumulation time ΔT1.

さて、図1に示すように、撮像装置12によって撮像された撮像画像の信号は輝度信号抽出部13で輝度信号が抽出され、この輝度信号は、光源解析処理部14に入力されている。
ここで、本実施例に係るCCD20(図9を参照)からの画素の読み出し方法について説明する。
As shown in FIG. 1, a luminance signal is extracted by a luminance signal extraction unit 13 from a captured image signal captured by the imaging device 12, and the luminance signal is input to the light source analysis processing unit 14.
Here, a method for reading out pixels from the CCD 20 (see FIG. 9) according to the present embodiment will be described.

図11は、単板補色フィルタ型CCDの画素の一配列例を示す図である。
また、図12は、奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。
FIG. 11 is a diagram showing an arrangement example of pixels of a single-plate complementary color filter type CCD.
FIG. 12 is a diagram illustrating an example of a combination of color signals in the odd field OFD and the even field EFD.

画素のカラーフィルタは、Ye(イエロ)、Cy(シアン)、Mg(マジェンタ)、G(グリーン)で構成され、図11に図示するような配列になっている。画素の読み出しは、上下の画素を加算して読み出される。この加算する組み合わせは、奇数フィールドOFDと偶数フィールドEFDで、1列ずれる。具体的には、奇数フィールドOFDのnラインでは、(C11+C21)、(C12+C22)、(C13+C23)、(C14+C24)、(C15+C25)、…のようになる。また、偶数フィールドEFDのnラインでは、(C21+C31)、(C22+C32)、(C23+C33)、(C24+C34)、(C25+C35)、…のようになる。
したがって、図12に示すような奇数フィールドOFD、偶数フィールドEFDで色信号が出力される。
いずれも、2画素周期で同一のYe、Cy、Mg、Gの組み合わせの色パターンが繰り返されている。
つまり言い換えると、色信号は2画素周期以上の周波数に重畳して現れる。よって、この色信号を、2画素周期を遮断周波数とするローパスフィルタに通せば、色信号は失われ、輝度信号のみが得られる。
したがって、輝度情報は2画素周期でサンプリングされることになる。
The color filter of the pixel is composed of Ye (yellow), Cy (cyan), Mg (magenta), and G (green), and is arranged as shown in FIG. Pixels are read by adding the upper and lower pixels. The combination to be added is shifted by one column between the odd field OFD and the even field EFD. Specifically, in the n-th line of the odd field OFD, (C11 + C21), (C12 + C22), (C13 + C23), (C14 + C24), (C15 + C25),... In the n-line of the even field EFD, (C21 + C31), (C22 + C32), (C23 + C33), (C24 + C34), (C25 + C35),...
Accordingly, color signals are output in the odd field OFD and the even field EFD as shown in FIG.
In any case, the same color pattern of a combination of Ye, Cy, Mg, and G is repeated in a two-pixel cycle.
In other words, the color signal appears superimposed on a frequency of two pixel periods or more. Therefore, if this color signal is passed through a low-pass filter having a cutoff frequency of two pixel periods, the color signal is lost and only a luminance signal is obtained.
Therefore, luminance information is sampled at a cycle of two pixels.

図11の円形で図示される投影領域REGは、光源による被写体の映像が投影されている様子を示している。なお、画素C35、C36、C45、C46、C55、C56は完全に投影領域REGにはいっており、均一に光が照射されているとする。
輝度情報は、奇数フィールドOFDでは、水平ライン(n+1)のC35、C36、C45、C46の組み合わせに、偶数フィールドEFDでは、水平ラインの(n+1)ラインのC45、C46、C55、C56の組み合わせによって読み出しされる。
A projection area REG illustrated by a circle in FIG. 11 shows a state in which an image of a subject by a light source is projected. It is assumed that the pixels C35, C36, C45, C46, C55, and C56 are completely in the projection region REG and are uniformly irradiated with light.
In the odd field OFD, the luminance information is read by a combination of C35, C36, C45, and C46 of the horizontal line (n + 1), and in the even field EFD, by a combination of C45, C46, C55, and C56 of the (n + 1) line of the horizontal line. Is done.

以上に述べたようにして、撮像装置12からの信号のうち輝度信号が光源解析処理部14に出力される。この輝度信号は、第1の演算部141および第2の演算部142に入力されて所定の処理が行われる。   As described above, the luminance signal among the signals from the imaging device 12 is output to the light source analysis processing unit 14. This luminance signal is input to the first calculation unit 141 and the second calculation unit 142 and subjected to predetermined processing.

次に、第1の演算部141および第2の演算部142で行われる輝度信号の処理方法について図13に関連付けて説明する。   Next, a luminance signal processing method performed by the first calculation unit 141 and the second calculation unit 142 will be described with reference to FIG.

図13は、本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。   FIG. 13 is a timing chart for explaining the signal processing method of the luminance signal of the light source analysis processing unit according to the present embodiment.

図13(A)は、撮像装置12のインターライン走査を示す図で、偶数フィールドEFDもしくは奇数フィールドOFDのいずれかの状態を示す。図13(B)〜(E)はそれぞれ、光源解析処理部14で処理される輝度信号レベルの時間変化を表す波形W1、W2、W3、W4を示し、図13(F)は一定周期で変化する正弦波の波形W5を示す図である。
なお、奇数フィールドOFDと偶数フィールドEFDとで1フレームの走査である。つまり、図13(A)に図示するように、AとB、CとDで1フレームの走査である。
また、以降の説明において、fは周波数を、tは時刻を、θは位相差をそれぞれ示し、ωは(ω=2πf)を満たす。なお、πは円周率である。
FIG. 13A is a diagram showing interline scanning of the imaging device 12, and shows a state of either the even field EFD or the odd field OFD. FIGS. 13B to 13E respectively show waveforms W1, W2, W3, and W4 representing changes in luminance signal level processed by the light source analysis processing unit 14, and FIG. 13F changes at a constant cycle. It is a figure which shows the waveform W5 of the sine wave to do.
The odd field OFD and even field EFD scan one frame. That is, as shown in FIG. 13A, A and B, C and D are one frame scan.
In the following description, f represents frequency, t represents time, θ represents phase difference, and ω satisfies (ω = 2πf). Note that π is the circumference ratio.

図13(B)、(C)に図示する波形W1と波形W2は、後で説明する波形W3と波形W4で示される波形の関数を導出するための波形である。
図13(D)に図示する波形W3は、Aのフィールドの輝度信号とCのフィールドの輝度信号との輝度レベルの差をレベル差ACとした時の、レベル差ACを求める関数の時間発展分布を示す。
また、図13(E)に図示する波形W4は、Bのフィールドの輝度信号とDのフィールドの輝度信号との輝度レベルの差をレベル差BDとした時の、レベル差BDを求める関数の時間発展分布を示す。
なお、波形W3は、波形W1と波形W2から導出され、波形W1と波形W2を足して2で割ったものである。また、波形W4は波形W1と波形W2から導出され、波形W2から波形W1を引いて2で割ったものである。
Waveforms W1 and W2 illustrated in FIGS. 13B and 13C are waveforms for deriving functions of waveforms indicated by a waveform W3 and a waveform W4 described later.
A waveform W3 illustrated in FIG. 13D is a time development distribution of a function for obtaining the level difference AC when the luminance level difference between the luminance signal of the A field and the luminance signal of the C field is the level difference AC. Indicates.
A waveform W4 shown in FIG. 13E is a function time for obtaining the level difference BD when the difference in luminance level between the luminance signal of the B field and the luminance signal of the D field is the level difference BD. The development distribution is shown.
Waveform W3 is derived from waveform W1 and waveform W2, and is obtained by adding waveform W1 and waveform W2 and dividing by two. Waveform W4 is derived from waveform W1 and waveform W2, and is obtained by subtracting waveform W1 from waveform W2 and dividing it by 2.

このとき、レベル差ACの第1の時間平均である時間平均SACは図1に示す第1の演算部141で算出される。また、レベル差BDの第2の時間平均である時間平均SBDは第2の演算部142で算出される。
具体的には、時間平均SACは、C35、C36、C45、C46の組み合わせによるAフィールドとCフィールドとの輝度レベル差ACから算出される。
同様に、時間平均SBDは、C45、C46、C55、C56の組み合わせによるBフィールドとDフィールドとのレベル差BDから算出される。
At this time, a time average SAC that is a first time average of the level difference AC is calculated by the first calculation unit 141 shown in FIG. In addition, a time average SBD that is a second time average of the level difference BD is calculated by the second calculation unit 142.
Specifically, the time average SAC is calculated from the luminance level difference AC between the A field and the C field by a combination of C35, C36, C45, and C46.
Similarly, the time average SBD is calculated from the level difference BD between the B field and the D field by a combination of C45, C46, C55, and C56.

その時間平均の算出方法について述べる。
AフィールドとCフィールドとのレベル差ACの時間平均SACは、波形W1に、図13(D)に示す波形W3を掛けてこの時間平均SACを計算する。
また同様に、BフィールドとDフィールドとのレベル差BDの時間平均SBDは、C45、C46、C55、C56の組み合わせによる画素に照射される光の時間変化を表す波形に、図13(E)に示す波形W4を掛けてこの時間平均SBDを計算する。
The calculation method of the time average is described.
The time average SAC of the level difference AC between the A field and the C field is calculated by multiplying the waveform W1 by the waveform W3 shown in FIG.
Similarly, the time average SBD of the level difference BD between the B field and the D field is shown in FIG. 13 (E) in a waveform representing the temporal change of light irradiated to the pixel by the combination of C45, C46, C55, and C56. The time average SBD is calculated by multiplying the waveform W4 shown.

はじめに、時間平均SACの算出方法について具体的に説明する。
波形W3を数式で表す。まず、波形W1、波形W2は以下のようなフーリエ級数で表せる。
First, a method for calculating the time average SAC will be specifically described.
The waveform W3 is expressed by a mathematical expression. First, the waveform W1 and the waveform W2 can be expressed by the following Fourier series.

Figure 2011254178
Figure 2011254178

ここで、波形W1とW2は同一周期f2を有するものとする。(1)式と(2)式より、波形W3は(4)式のように表せる。   Here, it is assumed that the waveforms W1 and W2 have the same period f2. From equation (1) and equation (2), waveform W3 can be expressed as equation (4).

Figure 2011254178
Figure 2011254178

ところで、図13(F)に図示する周期f1を有する波形W5は(5)式のような正弦波で表せる。   Incidentally, the waveform W5 having the period f1 shown in FIG. 13F can be represented by a sine wave as shown in the equation (5).

Figure 2011254178
Figure 2011254178

(4)式によって表される波形W3に(5)式で表せる正弦波W5を掛けると(7)式となる。   When the waveform W3 represented by the equation (4) is multiplied by the sine wave W5 represented by the equation (5), the equation (7) is obtained.

Figure 2011254178
Figure 2011254178

次に、時刻0から時刻Tまでにおける(7)式の時間平均をとる。(7)式の右辺に示す各項の内、時間tを含む項は交流信号であるから、その時間平均は0である。
したがって、(ω−(2n−1)ω=0)である時のみ、定数cosθと定数sinθが残り、時間平均SACは(8)式のようになる。
Next, the time average of the equation (7) from time 0 to time T is taken. Of the terms shown on the right side of the equation (7), the term including time t is an AC signal, so the time average is zero.
Therefore, only when (ω 1 − (2n−1) ω 2 = 0), the constant cos θ 1 and the constant sin θ 1 remain, and the time average SAC is expressed by the equation (8).

Figure 2011254178
Figure 2011254178

このようにして、時間平均SACが第1の演算部141にて求まる。時間平均SBDも同様にして第2の演算部142にて求められ、(9)式で表される。   In this way, the time average SAC is obtained by the first calculation unit 141. Similarly, the time average SBD is obtained by the second calculation unit 142 and is expressed by equation (9).

Figure 2011254178
Figure 2011254178

さて、(8)式と(9)式で表される時間平均SACとSBDとの2乗和(SAC +SBD )は(10)式で表される。 Now, the sum of squares (S AC 2 + S BD 2 ) of the time average SAC and SBD expressed by the equations (8) and (9) is expressed by the equation (10).

Figure 2011254178
Figure 2011254178

この(10)式より、CCD20(図9を参照)に入射される光に(f=(2n−1)f)なる周波数成分が含まれているとき、(10)式で表される波形の成分が検出される。 From this equation (10), when the frequency component (f 1 = (2n−1) f 2 ) is included in the light incident on the CCD 20 (see FIG. 9), it is expressed by the equation (10). Waveform components are detected.

次に、光源11に含まれる周波数成分について考察する。
図14は、光源11に含まれる周波数成分についての波形W6を示す図である。なお、光源11は、周波数f3で時間τの間、輝度レベルL1で発光している。
Next, frequency components included in the light source 11 will be considered.
FIG. 14 is a diagram showing a waveform W6 for frequency components included in the light source 11. As shown in FIG. The light source 11 emits light at the luminance level L1 at the frequency f3 for the time τ.

この波形W6をフーリエ級数に展開する。波形W6は、周期(T=1/f3)の周期関数であり、(ω3=2πf3)とすると、(11)式のようにフーリエ級数の一般式で表される。 This waveform W6 is developed into a Fourier series. The waveform W6 is a periodic function of a period (T 3 = 1 / f 3 ). When (ω 3 = 2πf 3 ), the waveform W6 is represented by a general formula of Fourier series as shown in Expression (11).

Figure 2011254178
Figure 2011254178

(11)式の各係数a、a、bは波形W6より(12)〜(14)式のように求まる。 The coefficients a 0 , a n , and b n in the equation (11) are obtained from the waveform W6 as in the equations (12) to (14).

Figure 2011254178
Figure 2011254178

したがって、波形W6のフーリエ級数は、(15)式で表される。   Therefore, the Fourier series of the waveform W6 is expressed by equation (15).

Figure 2011254178
Figure 2011254178

よって、光源11の点滅周期をフィールド周期の4倍にした時、すなわち(f=f)である時、(7)式と(15)式より奇数項で周波数が一致し、時間平均SACとSBDの2乗和は(16)式のようになる。 Therefore, when the blinking period of the light source 11 is set to four times the field period, that is, when (f 3 = f 2 ), the frequency coincides with the odd term from the expressions (7) and (15), and the time average SAC And the sum of the squares of SBD is given by equation (16).

Figure 2011254178
Figure 2011254178

光源11の点灯のデューティー比をDとすると(17)式で表される。   When the duty ratio of lighting of the light source 11 is D, it is expressed by equation (17).

Figure 2011254178
Figure 2011254178

よって、(16)式で表される時間平均SACとSBDとの2乗和SACBDは、(17)式を用いると(18)式のようになる。     Therefore, the square sum SACBD of the time average SAC and SBD expressed by the equation (16) is expressed by the equation (18) when the equation (17) is used.

Figure 2011254178
Figure 2011254178

ところで、以下に示す(18)式の右辺の項(19)は収束する。   By the way, the term (19) on the right side of the following equation (18) converges.

Figure 2011254178
Figure 2011254178

この(18)式の右辺の項(19)は、デューティー比Dに対し、表1のような値をとる。以下に、表1を示す。   The term (19) on the right side of the equation (18) takes a value as shown in Table 1 with respect to the duty ratio D. Table 1 is shown below.

Figure 2011254178
Figure 2011254178

表1に基づいて、横軸にデューティー比Dをとり、縦軸に時間平均SACとSBDとの2乗和SACBDをとると、デューティー比Dと2乗和SACBDとの関係は図15に示すようになる。   Based on Table 1, when the duty ratio D is taken on the horizontal axis and the square sum SACBD of the time average SAC and SBD is taken on the vertical axis, the relationship between the duty ratio D and the square sum SACBD is as shown in FIG. become.

図15より、2乗和SACBDはデューティー比D=0.5で最大となることが分かる。
したがって、(18)式で表される2乗和SACBDは、次式のようになる。
From FIG. 15, it can be seen that the square sum SACBD is maximized at the duty ratio D = 0.5.
Therefore, the sum of squares SACBD expressed by the equation (18) is expressed by the following equation.

[数15]
AC +SBD =0.08333L …(20)
[Equation 15]
S AC 2 + S BD 2 = 0.08333L 1 2 (20)

(20)式に示すように、演算処理部133は光源11(図1を参照)の輝度を検出し、この検出結果(2乗和SACBD)をフィルタ処理部15を介して判定部16に出力する。この検出結果は、判定部16にて被写体の状態に判定に用いられる。   As shown in the equation (20), the arithmetic processing unit 133 detects the luminance of the light source 11 (see FIG. 1) and outputs the detection result (square sum SACBD) to the determination unit 16 via the filter processing unit 15. To do. This detection result is used for determining the state of the subject by the determination unit 16.

本実施例に係る光源11は特定の光源に依存しない。そこで、他の光源についても輝度を検出できるかについて考察する。
光源として広く使われている白熱電球と蛍光燈は、電源周波数50Hzの地域で100Hz、60Hzの地域で120Hzである。NTSC方式のテレビジョンのフィールド周波数は59.94Hz、パーソナルコンピュータに使用されるモニタのフィールド周波数は、ちらつきがないように60Hz以上である。
The light source 11 according to the present embodiment does not depend on a specific light source. Therefore, it is considered whether the luminance can be detected for other light sources.
Incandescent light bulbs and fluorescent lamps that are widely used as light sources are 100 Hz in regions where the power supply frequency is 50 Hz and 120 Hz in regions where 60 Hz. The field frequency of an NTSC television is 59.94 Hz, and the field frequency of a monitor used for a personal computer is 60 Hz or more so as not to flicker.

NTSC方式のテレビジョンのフィールド周波数は59.94Hzであり、その1/4倍周期で光源を発光させるとすると、輝度レベル差の周波数f2は次式のようになる。   The field frequency of the NTSC television is 59.94 Hz, and if the light source is caused to emit light at a quarter period, the frequency f2 of the luminance level difference is as follows.

[数16]
=59.94/4=14.985Hz …(21)
[Equation 16]
f 2 = 59.94 / 4 = 14.985 Hz (21)

(7)式と(15)式より、周波数f2の奇数倍と光源11の周波数f3の整数倍が一致したときに信号成分が検出される。   From the equations (7) and (15), the signal component is detected when the odd multiple of the frequency f2 matches the integer multiple of the frequency f3 of the light source 11.

表2は、異なる光源の発光周波数と輝度信号レベルの差における周波数との関係を示す値の表である。   Table 2 is a table of values indicating the relationship between the light emission frequency of different light sources and the frequency in the difference in luminance signal level.

Figure 2011254178
Figure 2011254178

表2のf1は(5)式の正弦波の有する周波数で、f2は(21)式に示す周波数で、f3はそれぞれ、光源11の周波数、50Hz地域での照明の周波数、60Hz地域での照明の周波数、NTSC方式のテレビジョンのフィールド周波数、パーソナルコンピュータに使用されるモニタのフィールド周波数である。
表2によると、m=30まで、f3が100、120、59.94Hzであり、(n×f=(2m−1)×f)が成立するものはない。
F1 in Table 2 is the frequency of the sine wave of Formula (5), f2 is the frequency shown in Formula (21), and f3 is the frequency of the light source 11, the frequency of illumination in the 50 Hz region, and the illumination in the 60 Hz region, respectively. Frequency, NTSC television field frequency, and monitor field frequency used in personal computers.
According to Table 2, up to m = 30, f3 is 100, 120, 59.94 Hz, and there is nothing that satisfies (n × f 3 = (2m−1) × f 2 ).

たとえばパーソナルコンピュータのモニタに関して、そのフィールド周波数が60Hz以上であるとすると、本検知システム10の信号処理出力に最も大きな出力が検出される可能性としては、74.925Hzでスキャンされているモニタが存在したときである。
すなわち、f=74.925Hzの時であり、表2に示すように、(5×f)、(15×f)、(25×f)…と(1×f)、(3×f)、(5×f)…が一致する。この時検出される信号レベルは、次式で示される。
For example, regarding a monitor of a personal computer, if the field frequency is 60 Hz or more, there is a monitor that is scanned at 74.925 Hz as a possibility that the largest output is detected in the signal processing output of the detection system 10. When
That is, when f 3 = 74.925 Hz, as shown in Table 2, (5 × f 2 ), (15 × f 2 ), (25 × f 2 ), and (1 × f 3 ), ( 3 × f 3 ), (5 × f 3 ). The signal level detected at this time is expressed by the following equation.

Figure 2011254178
したがって、(22)式で示される信号レベルは光源11の1/25のレベルであり、図1に図示していない信号処理で別に除去できる。
Figure 2011254178
Therefore, the signal level expressed by the equation (22) is 1/25 of that of the light source 11 and can be removed separately by signal processing not shown in FIG.

以上に述べたように、本検知システム10は、光源の発光周波数に依存せず、光源または光源に照射された被写体の状態を検知する。   As described above, the detection system 10 detects the state of the light source or the subject irradiated on the light source without depending on the light emission frequency of the light source.

以下に、本実施形態に係る検知システムの一連の動作を図16に関連付けて説明する。   Hereinafter, a series of operations of the detection system according to the present embodiment will be described with reference to FIG.

図16は、本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。   FIG. 16 is a flowchart for explaining an outline of a series of operations of the detection system according to the present embodiment.

本実施形態では、まず、撮像装置12の電荷蓄積時間内の光源11の輝度を撮像装置12のフィールド周期の4n倍で変化させる(ST11)。
次に、撮像装置12からフィールド単位でnフィールド毎に輝度信号抽出部13で輝度信号を取得し(ST12)、この輝度信号を第1の演算部141と第2の演算部142に出力する。
第1の演算部141にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACを求める。また、第2の演算部142にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDを求める(ST13)。
これら時間平均SACとSBDは演算処理部143に出力される。
次いで、演算処理部133にて時間平均SACとSBDの2乗和SACBDが求められ(ST14)、フィルタ処理部15を介して判定部16に出力される。
判定部16にて2乗和SACBDの値に応じて、被写体の状態が判定される(ST15)。その判定結果が被写体位置決定部17に供給される。
被写体位置決定部17において、被写体位置を決定するか否かが判定される(ST16)。
ここで、被写体位置を決定するときは、被写体位置決定部17では被写体の状態を検知して検知位置に関する情報が取得され(ST17)、検知位置情報が光源解析処理部14の位置記憶部144に記憶される。
被写体位置の決定を行わないときは、被写体位置決定部17では、位置記憶部144に保存済み位置情報から指定位置(指定番号)が取得され(ST18)、指定位置の被写体の状態が検知される(ST19)。
そして、光源解析処理部14においてステップST13およびST14を行うに際し、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の一または複数の画像を解析(検知)が行われる。
この光源解析処理部14の処理により、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
In the present embodiment, first, the luminance of the light source 11 within the charge accumulation time of the imaging device 12 is changed by 4n times the field period of the imaging device 12 (ST11).
Next, a luminance signal is acquired by the luminance signal extraction unit 13 every n fields in the field unit from the imaging device 12 (ST12), and this luminance signal is output to the first calculation unit 141 and the second calculation unit 142.
The first arithmetic unit 141 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. Further, the second arithmetic unit 142 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields (ST13).
These time averages SAC and SBD are output to the arithmetic processing unit 143.
Next, the arithmetic processing unit 133 obtains the square sum SACBD of the time average SAC and SBD (ST14), and outputs the result to the determination unit 16 via the filter processing unit 15.
The determination unit 16 determines the state of the subject according to the value of the square sum SACBD (ST15). The determination result is supplied to the subject position determination unit 17.
The subject position determination unit 17 determines whether or not to determine the subject position (ST16).
Here, when determining the subject position, the subject position determination unit 17 detects the state of the subject and acquires information about the detection position (ST17), and the detected position information is stored in the position storage unit 144 of the light source analysis processing unit 14. Remembered.
When the subject position is not determined, the subject position determination unit 17 acquires the specified position (specified number) from the position information stored in the position storage unit 144 (ST18), and detects the state of the subject at the specified position. (ST19).
Then, when performing steps ST13 and ST14 in the light source analysis processing unit 14, based on the detection position coordinates stored in the position storage unit 144, one or more images of the detection position range designated by the coordinates are obtained. Analysis (detection) is performed.
By this processing of the light source analysis processing unit 14, the present detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. It is effective and can be detected with high accuracy.

なお、本実施形態に係る演算処理部143では、時間平均SACとSBDとの2乗和SACBDを求めるが、時間平均SACとSBDとの和(SAC+SBD)を判定部16での判定基準に用いることもできる。 In the arithmetic processing unit 143 according to the present embodiment, the square sum SACBD of the time average SAC and SBD is obtained, and the sum of the time average SAC and SBD (S AC + S BD ) is determined by the determination unit 16. It can also be used.

以上に説明したように、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出できる。   As described above, according to the present embodiment, the background noise of the captured image can be removed, and the state of the subject irradiated with the light source or the light source can be detected.

そして、本実施形態に係る検知システムによれば、光源または光源に照射された被写体の状態の検知において、被写体が複数存在する場合の検知も被写体別に行うことができ、その被写体の追跡と捕捉を行うことで、被写体でない部分の不要物の位置の検知をする必要が無く、被写体の状態検知を高速にかつ、高精度に検知できるという効果が得られる。
また、光源に依らないため、撮像装置の仕様には依存せず、たとえば一般に入手可能なカメラを本検知システムの撮像装置として使用できる。
According to the detection system according to the present embodiment, in the detection of the light source or the state of the subject irradiated to the light source, detection when there are a plurality of subjects can be performed for each subject, and tracking and capturing of the subject can be performed. By doing so, there is no need to detect the position of an unnecessary object that is not a subject, and the effect of detecting the state of the subject at high speed and with high accuracy can be obtained.
Moreover, since it does not depend on the light source, it does not depend on the specifications of the imaging device, and for example, a generally available camera can be used as the imaging device of the present detection system.

さらに本検知システムは、複数の光源を使用し、信号を並列に信号処理部に伝送することができる。
あるいは、光源の色を複数設け、信号の波長多重伝送も可能である。
また、光源を適宜点滅させて信号を処理することも可能である。
Furthermore, this detection system uses a plurality of light sources and can transmit signals to the signal processing unit in parallel.
Alternatively, it is possible to provide a plurality of light source colors and perform wavelength multiplexing transmission of signals.
It is also possible to process the signal by appropriately blinking the light source.

[第2の実施形態]
次に、本発明に係る第2の実施形態について説明する。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described.

本第2の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース型の撮像装置12をフレーム蓄積、インターレース型の撮像装置に置き換えたものである。また同時に、第1実施形態に係る光源11の輝度の変化周期をフィールド周期の4n倍からフレーム周期の4n倍に変更したものである。この変化周期の変更に伴い、輝度信号の取得もnフィールドごとから2nフィールドごとに輝度信号の取得周期を変更する。
このように、光源11の輝度の変化周期と輝度信号の取得周期を変更することで、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the second embodiment, the field accumulation / interlace imaging device 12 according to the first embodiment is replaced with a frame accumulation / interlace imaging device. At the same time, the luminance change period of the light source 11 according to the first embodiment is changed from 4n times the field period to 4n times the frame period. Accompanying this change in the change period, the luminance signal acquisition period is changed from every n fields to every 2n fields.
As described above, by changing the luminance change cycle of the light source 11 and the luminance signal acquisition cycle, the same effects as those of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

[第3の実施形態]
次に、本発明に係る第3の実施形態について説明する。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described.

本第3の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース走査型の撮像装置12をフレーム蓄積、ノンインターレース走査型の撮像装置に置き換えたものである。
このように、ノンインターレース走査の撮像装置を用いても、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the third embodiment, the field accumulation / interlace scanning imaging device 12 according to the first embodiment is replaced with a frame accumulation / non-interlace scanning imaging device.
As described above, even when a non-interlaced scanning imaging apparatus is used, the same effect as that of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

10・・・検知システム、11・・・光源、12・・・撮像装置、13・・・輝度信号抽出部、14・・・光源解析処理部、141・・・第1の演算部(A)、142・・・第2の演算部(B)、143…演算処理部、144・・・位置記憶部、15・・・フィルタ処理部、16・・・判定部、17・・・被写体位置決定部、171・・・位置検索処理部、172・・・位置検索情報記憶部。   DESCRIPTION OF SYMBOLS 10 ... Detection system, 11 ... Light source, 12 ... Imaging device, 13 ... Luminance signal extraction part, 14 ... Light source analysis process part, 141 ... 1st calculating part (A) , 142... Second calculation unit (B), 143... Calculation processing unit, 144... Position storage unit, 15... Filter processing unit, 16. Unit, 171 ... position search processing unit, 172 ... position search information storage unit.

Claims (9)

光源と、
上記光源または上記光源によって照射された被写体を撮像する撮像装置と、
上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、
上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、
複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、
上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、
上記解析処理部は、
上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う
検知システム。
A light source;
An imaging device for imaging the light source or a subject illuminated by the light source;
An analysis processing unit that performs analysis processing on a signal acquired from the imaging device;
A determination unit that detects and determines the state of the light source or subject based on the analysis result of the analysis processing unit;
A position storage unit capable of storing information on positions including detection ranges in images of a plurality of subjects;
From the detection information obtained by the determination unit, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, A subject position determination unit capable of storing detection information as information about the position in the position storage unit,
The analysis processing unit
The signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and further, based on the value of the time average Perform an analysis process to perform a predetermined calculation, and output the calculation result of the analysis process to the determination unit,
A detection system that selectively performs the analysis processing on an image in a detection position range specified in the detection information when the detection information is stored in the position storage unit.
上記解析処理部は、
上記位置記憶部に検知情報が記憶されていないとき、または全画像検知モードのときは、画像全体に対する上記解析処理を行い、
上記位置記憶部に検知情報が記憶されているとき、被写体位置検知モードのときは、上記検知情報において指定される検知位置範囲の画像に対して上記解析処理を行う
請求項1記載の検知システム。
The analysis processing unit
When the detection information is not stored in the position storage unit or in the all-image detection mode, the analysis processing is performed on the entire image,
The detection system according to claim 1, wherein when the detection information is stored in the position storage unit and in the subject position detection mode, the analysis processing is performed on an image in a detection position range specified in the detection information.
上記被写体位置決定部は、
上記検知範囲の決定において、被写体の大きさを測定し、その座標(x,y)幅をあらかじめ用意したテーブルから現在の座標(x、y)幅を超えたもしくは以下になった大きさのテーブル値の検知範囲を選択する
請求項1または2記載の検知システム。
The subject position determination unit
In the determination of the detection range, the size of the subject is measured, and a table whose size exceeds the current coordinate (x, y) width or below the coordinate (x, y) width is prepared beforehand. The detection system according to claim 1 or 2, wherein a detection range of values is selected.
被写体位置決定部は、
あらかじめ設定された数の検索ブロック毎にx方向およびy方向の全ラインの検索を行ってから、検知範囲の検索処理を行い、上記ライン検索で検知できた連続する縦横ブロックを1つの範囲として当該ブロックの検出強度の総和平均値を求め、検知範囲を決定する
請求項3記載の検知システム。
The subject position determination unit
After searching all the lines in the x and y directions for every predetermined number of search blocks, the detection range search process is performed, and the continuous vertical and horizontal blocks detected by the line search are regarded as one range. The detection system according to claim 3, wherein the detection range is determined by obtaining a total average value of detection intensities of the blocks.
上記被写体位置決定部は、
上記決定した検知範囲を微調整可能である
請求項3または4記載の検知システム。
The subject position determination unit
The detection system according to claim 3 or 4, wherein the determined detection range can be finely adjusted.
上記解析処理部は、
同一領域で、m(m=1、2、3、…)番目と(m+2)番目とのフィールドにおける上記信号レベル差の第1の時間平均を求める第1の演算部と、
同一領域で、(m+1)番目と(m+3)番目とのフィールドにおける上記信号レベル差の第2の時間平均を求める第2の演算部と、
上記第1の時間平均と上記第2の時間平均の2乗和を求める演算処理部と、を含む
請求項1から5のいずれか一に記載の検知システム。
The analysis processing unit
A first calculation unit for obtaining a first time average of the signal level difference in the m (m = 1, 2, 3,...) And (m + 2) -th field in the same region;
A second computing unit for obtaining a second time average of the signal level difference in the (m + 1) th and (m + 3) th fields in the same region;
The detection system according to claim 1, further comprising: an arithmetic processing unit that calculates a square sum of the first time average and the second time average.
上記解析処理部は、
同一領域で、m(m=1、2、3、…)番目と(m+2)番目とのフレームにおける上記信号レベル差の第1の時間平均を求める第1の演算部と、
同一領域で、(m+1)番目と(m+3)番目とのフレームにおける上記信号レベル差の第2の時間平均を求める第2の演算部と、
上記第1の時間平均と上記第2の時間平均の2乗和を求める演算処理部と、を含む
請求項1から5のいずれか一に記載の検知システム。
The analysis processing unit
A first calculation unit for obtaining a first time average of the signal level difference in the m (m = 1, 2, 3,...) And (m + 2) th frames in the same region;
A second calculation unit for obtaining a second time average of the signal level difference in the (m + 1) th and (m + 3) th frames in the same region;
The detection system according to claim 1, further comprising: an arithmetic processing unit that calculates a square sum of the first time average and the second time average.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像ステップと、
撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、
上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、
上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、
上記解析処理ステップにおいて、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含む
検知システムの信号処理方法。
An imaging step of imaging with an imaging device a light source or a subject illuminated by the light source;
A signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined average is obtained based on the time average value. An analysis process step for performing an analysis process for performing an operation;
A determination step of detecting and determining the state of the light source or subject based on the analysis result of the analysis processing step;
From the detection information obtained in the determination step, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, Subject position determination step for storing detection information in the position storage unit as information on the position,
In the analysis processing step,
A signal processing method of a detection system, comprising: a step of selectively performing the analysis process on an image in a detection position range specified in the detection information when the detection information is stored in the position storage unit.
光源または当該光源によって照射された被写体を撮像装置で撮像する撮像処理と、
所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理と、
上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、
上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、
上記解析処理において、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含む
検知システムの信号処理をコンピュータに実行させるプログラム。
An imaging process in which an imaging device captures an image of a light source or a subject illuminated by the light source;
A signal is acquired every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined calculation is performed based on the time average value. Analysis processing,
A determination process for detecting and determining the state of the light source or subject based on the analysis result of the analysis process;
From the detection information obtained in the determination process, the position and size of the subject in all the images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired. Subject position determination processing for storing detection information in the position storage unit as information on the position,
In the above analysis process,
When the detection information is stored in the position storage unit, the signal processing of the detection system including the process of selectively performing the analysis process on the image in the detection position range specified in the detection information is performed on the computer. The program to be executed.
JP2010125260A 2010-05-31 2010-05-31 Detection system, signal processing method thereof, and program Expired - Fee Related JP5349405B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010125260A JP5349405B2 (en) 2010-05-31 2010-05-31 Detection system, signal processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010125260A JP5349405B2 (en) 2010-05-31 2010-05-31 Detection system, signal processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2011254178A true JP2011254178A (en) 2011-12-15
JP5349405B2 JP5349405B2 (en) 2013-11-20

Family

ID=45417782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010125260A Expired - Fee Related JP5349405B2 (en) 2010-05-31 2010-05-31 Detection system, signal processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5349405B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2009044461A (en) * 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2009044461A (en) * 2007-08-08 2009-02-26 Canon Inc Image processor, imaging apparatus and image processing method
JP2010056692A (en) * 2008-08-26 2010-03-11 Canon Inc Imaging apparatus and its control method

Also Published As

Publication number Publication date
JP5349405B2 (en) 2013-11-20

Similar Documents

Publication Publication Date Title
JP4703547B2 (en) Detection system
JP4856765B2 (en) Imaging apparatus and flicker detection method
KR101950396B1 (en) Imaging device and imaging method
US7750949B2 (en) Automatic flicker frequency detection device and method
JP5523124B2 (en) Imaging device
CN102090068A (en) Improved image formation using different resolution images
TWI489833B (en) A detection system, a signal processing method for detecting a system, and a smoke sensor
JP2001016508A (en) Solid-state image pickup device
JP2007272532A (en) Fire detection apparatus
JP2011030207A (en) Imaging device, and flash determining method and program
JP5265625B2 (en) Detection system, signal processing method thereof, and program
JP5406787B2 (en) Detection system, signal processing method thereof, and program
JP5349405B2 (en) Detection system, signal processing method thereof, and program
JP5770123B2 (en) Detection system, signal processing method thereof, and program
JP5349413B2 (en) Detection system, signal processing method thereof, and program
JP5383886B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP5858831B2 (en) Detection system, signal processing method thereof, and program
JP5265619B2 (en) Detection system, signal processing method thereof, and program
JP5839515B2 (en) Detection system, signal processing method thereof, and program
JP4908939B2 (en) Imaging device
JP2012209904A (en) Detection system, signal processing method and program
JP6408932B2 (en) Detection system, signal processing method of detection system, and program
JP5242470B2 (en) Detection system and signal processing method thereof
JP2009194786A (en) Object detecting device, and imaging apparatus
JP2007329604A (en) Fluorescent light flicker detection circuit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130813

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130820

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees