JP5406787B2 - Detection system, signal processing method thereof, and program - Google Patents

Detection system, signal processing method thereof, and program Download PDF

Info

Publication number
JP5406787B2
JP5406787B2 JP2010127228A JP2010127228A JP5406787B2 JP 5406787 B2 JP5406787 B2 JP 5406787B2 JP 2010127228 A JP2010127228 A JP 2010127228A JP 2010127228 A JP2010127228 A JP 2010127228A JP 5406787 B2 JP5406787 B2 JP 5406787B2
Authority
JP
Japan
Prior art keywords
signal
unit
time difference
determination
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010127228A
Other languages
Japanese (ja)
Other versions
JP2011254328A (en
Inventor
智広 大山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2010127228A priority Critical patent/JP5406787B2/en
Publication of JP2011254328A publication Critical patent/JP2011254328A/en
Application granted granted Critical
Publication of JP5406787B2 publication Critical patent/JP5406787B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、たとえば、撮像装置等を用いて被写体の状態を検知する検知システムおよびその信号処理方法、プログラムに関するものである。   The present invention relates to a detection system that detects the state of a subject using an imaging device or the like, a signal processing method thereof, and a program, for example.

たとえば、特許文献1に示す夜間の防犯システム等に用いられる撮像装置が提案されている。
この撮像装置は、信号処理部を有し、光源を周波数100Hzまたは120Hz(電源に50Hzまたは60Hzの商用電源を用いた場合、光源はその倍の100Hzまたは120Hzでその明るさが変動する)より高い高周波で変調する。さらに、信号処理部はこの高周波変調信号を検出する検出部を有している。
ただし、この撮像装置はその変調周波数より高いフレームレートを持っている必要がある。
For example, an imaging apparatus used in a nighttime crime prevention system shown in Patent Document 1 has been proposed.
This imaging apparatus has a signal processing unit, and the light source has a frequency higher than 100 Hz or 120 Hz (when a commercial power source of 50 Hz or 60 Hz is used as the power source, the brightness of the light source fluctuates at 100 Hz or 120 Hz that is twice that). Modulate with high frequency. Further, the signal processing unit has a detection unit for detecting the high frequency modulation signal.
However, this imaging apparatus needs to have a frame rate higher than its modulation frequency.

ところで、一般に広く普及している撮像装置はNTSC(National Television Standards Committee)方式またはPAL(Phase Alternating Line)方式と呼ばれる規格が採用されている。
このような規格を採用した撮像装置はフレームレートが遅いため、たとえば特許文献1に示すような防犯システムの撮像装置として使用できない。
By the way, a standard called NTSC (National Television Standards Committee) system or PAL (Phase Alternating Line) system is adopted for imaging apparatuses which are widely spread in general.
Since an image pickup apparatus adopting such a standard has a low frame rate, for example, it cannot be used as an image pickup apparatus for a crime prevention system as shown in Patent Document 1.

そこで、光源または光源に照射された被写体の状態を検知でき、NTSC等の規格を採用した防犯システムに適用可能な検知システムが提案されている(特許文献2参照)。
この検知システムは、光源の周波数成分の被写体の状態を検知する。
Therefore, a detection system that can detect a light source or the state of a subject irradiated with the light source and can be applied to a crime prevention system adopting a standard such as NTSC has been proposed (see Patent Document 2).
This detection system detects the state of the subject of the frequency component of the light source.

特許第3019309号公報Japanese Patent No. 3019309 特開2008−141251号公報JP 2008-141251 A

ところで、上記検知システムでは、撮像装置から輝度信号抽出部の映像信号の伝送において、たとえばUSBインターフェースのアイソクロナス転送を利用してデータ転送を行う場合、データの欠落や送受信の失敗が発生することがある。
そのとき、光源または光源に照射された被写体の状態検知において演算部での処理が正確に行われず、判定部にて誤った判定を行うおそれがある。
By the way, in the above detection system, when data transmission is performed using isochronous transfer of the USB interface, for example, in transmission of the video signal of the luminance signal extraction unit from the imaging device, data loss or transmission / reception failure may occur. .
At that time, in the state detection of the light source or the object irradiated to the light source, the processing in the calculation unit is not accurately performed, and there is a possibility that the determination unit makes an erroneous determination.

本発明は、光源または光源に照射された被写体の状態を検知できることはもとより、映像データ転送における不具合が発生した場合に、判定部での誤った判定を防止することが可能な検知システムおよびその信号処理方法、プログラムを提供することにある。   The present invention is capable of detecting the state of a light source or a subject irradiated with the light source, as well as a detection system capable of preventing erroneous determination in a determination unit when a problem occurs in video data transfer and a signal thereof It is to provide a processing method and a program.

本発明の第1の観点の検知システムは、光源と、上記光源または上記光源によって照射された被写体を撮像する撮像装置と、撮像素子から取得した信号を送信する第1のインターフェースとを含む撮像部と、上記撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理部と、を有し、上記信号処理部は、上記撮像部から送信される信号を受信する第2のインターフェースと、上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファ部と、上記受信バッファ部から出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出部と、上記信号抽出部が上記受信バッファ部からの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得部と、上記時間差取得部で取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定部と、上記信号抽出部から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算部と、上記演算部の演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定部と、上記演算部の演算結果により上記光源または光源に照射された被写体の検知を判定する判定部と、上記時間差判定部および上記撮像対象抽出判定部の判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定部で撮像対象を検知している場合、上記時間差判定部の閾値を当該時間差判定部が求めた閾値に更新する信号転送エラー判定部と、を含む。
A detection system according to a first aspect of the present invention includes an imaging unit including a light source, an imaging device that images the light source or an object irradiated by the light source, and a first interface that transmits a signal acquired from the imaging element. When receives the signal transmitted from the imaging unit, and a signal processing portion for detecting a state of an object by performing a signal processing on the received signal, the signal processing unit, transmitted from the imaging unit A second interface for receiving the received signal, a reception buffer unit for storing the signal received by the second interface and outputting it as data, and the state of the subject from the signal output from the reception buffer unit A signal extraction unit that extracts a signal used for signal processing for detection; and a current frame and a previous frame when the signal extraction unit receives a signal from the reception buffer unit A time difference acquisition unit that calculates a time difference from a lemme, and a time difference determination unit that obtains a difference value between the time difference acquired by the time difference acquisition unit and a preset threshold and determines whether the time difference is normal or abnormal And acquiring the signal from the signal extraction unit for each predetermined scanning plane period, obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and further calculating a value of the time average An arithmetic unit for obtaining a square sum of time averages, an imaging target extraction determination unit for determining whether an imaging target is detected based on a calculation result of the calculation unit, and the light source based on a calculation result of the calculation unit Alternatively, in response to the determination results of the determination unit that determines the detection of the subject irradiated with the light source and the time difference determination unit and the imaging target extraction determination unit, the time difference is abnormal and the imaging target extraction determination unit If detecting the subject, including a signal transfer error determination section for updating the threshold value of the time difference determination unit to a threshold where the time difference determination unit has determined.

本発明の第2の観点の検知システムの信号処理方法は、光源または上記光源によって照射された被写体を撮像素子で撮像し、撮像装置から取得した信号を第1のインターフェースにより送信する撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理ステップを有し、上記信号処理ステップは、撮像ステップで送信される信号を第2のインターフェースで受信する受信ステップと、上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファステップと、上記受信バッファステップで出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出ステップと、上記信号抽出ステップで上記受信バッファステップからの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得ステップと、上記時間差取得ステップで取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定ステップと、所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算ステップと、上記演算ステップの演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定ステップと、上記演算ステップの演算結果により上記光源または光源に照射された被写体の検知を判定する判定ステップと、上記時間差判定ステップおよび上記撮像対象抽出判定ステップの判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定ステップで撮像対象を検知している場合、上記時間差判定ステップの閾値を当該時間差判定ステップが求めた閾値に更新する信号転送エラー判定ステップと、を含む。
In the signal processing method of the detection system according to the second aspect of the present invention, a light source or a subject illuminated by the light source is imaged by an imaging device, and a signal acquired from the imaging device is transmitted from an imaging unit that is transmitted by the first interface. A signal processing step for detecting a state of a subject by performing signal processing on the received signal, and the signal processing step receives the signal transmitted in the imaging step by the second interface A reception step for storing the signal received by the second interface and outputting it when it is determined as data, and performing signal processing for detecting the state of the subject from the signal output by the reception buffer step. A signal extraction step for extracting a signal to be used, and the signal extraction step from the reception buffer step. The time difference acquisition step for calculating the time difference between the current frame and the previous frame at the time of receiving the signal and the difference value between the time difference acquired in the time difference acquisition step and a preset threshold value are obtained, and whether the time difference is normal A time difference determination step for determining whether it is abnormal, acquiring the signal for each predetermined scanning plane period, obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and further A calculation step for obtaining a square sum of time averages based on a time average value, an imaging target extraction determination step for determining whether or not an imaging target is detected based on a calculation result of the calculation step, and A determination step for determining detection of the light source or the object irradiated to the light source based on a calculation result; the time difference determination step; In response to the determination result of step, the above-mentioned time difference is abnormal, if detecting the imaging object in the imaging target extraction determination step, the signal transfer of updating the threshold value of the time difference determining step the threshold where the time difference determining step is determined An error determination step.

本発明の第3の観点は、光源または上記光源によって照射された被写体を撮像素子で撮像し、撮像装置から取得した信号を第1のインターフェースにより送信する撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理を有し、上記信号処理は、撮像ステップで送信される信号を第2のインターフェースで受信する受信処理と、上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファ処理と、上記受信バッファ処理で出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出処理と、上記信号抽出処理で上記受信バッファ処理からの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得処理と、上記時間差取得処理で取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定処理と、所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算処理と、上記演算処理の演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定処理と、上記演算処理の演算結果により上記光源または光源に照射された被写体の検知を判定する判定処理と、上記時間差判定処理および上記撮像対象抽出判定処理の判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定処理で撮像対象を検知している場合、上記時間差判定処理の閾値を当該時間差判定処理が求めた閾値に更新する信号転送エラー判定処理と、を含む検知システムの信号処理をコンピュータに実行させるプログラムである。


According to a third aspect of the present invention, a light source or a subject irradiated with the light source is imaged by an imaging device, and a signal transmitted from an imaging unit that transmits a signal acquired from the imaging device through a first interface is received. Signal processing for performing signal processing on the received signal to detect the state of the subject, and the signal processing includes receiving processing for receiving the signal transmitted in the imaging step by the second interface, and the second processing described above. A reception buffer process for storing a signal received by the interface and outputting it when it is determined as data; and a signal extraction process for extracting a signal used for signal processing for detecting the state of the subject from the signal output by the reception buffer process; The time difference for calculating the time difference between the current frame and the previous frame when the signal from the reception buffer process is received in the signal extraction process Obtaining a difference value between the acquisition process, the time difference acquired in the time difference acquisition process and a preset threshold, and determining whether the time difference is normal or abnormal; and for each predetermined scanning plane cycle Arithmetic processing for acquiring the above signal, obtaining a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and further obtaining a sum of squares of the time average based on the value of the time average And an imaging target extraction determination process for determining whether or not an imaging target is detected based on the calculation result of the calculation process, and a determination for determining detection of the light source or a subject irradiated to the light source based on the calculation result of the calculation process In response to the determination result of the process and the time difference determination process and the imaging target extraction determination process, when the time difference is abnormal and the imaging target is detected in the imaging target extraction determination process, The threshold between difference determination process is a program for executing the signal transfer error determination process of updating the threshold value the time difference determination processing is determined, the signal processing of the detection system including a computer.


本発明によれば、光源または光源に照射された被写体の状態を検知できることはもとより、映像データ転送における不具合が発生した場合に、判定部での誤った判定を防止することができる。   According to the present invention, it is possible not only to detect the state of the light source or the object irradiated to the light source, but also to prevent erroneous determination in the determination unit when a problem occurs in video data transfer.

本発明の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on embodiment of this invention. 本実施形態に係る映像信号転送エラー判定部で、フレーム時間差判定部および撮像対象抽出判定部における判定結果を用いて閾値の設定およびデータ転送の状態の判定を行った結果を示す図である。It is a figure which shows the result of having performed the setting of a threshold value, and the determination of the state of data transfer using the determination result in a frame time difference determination part and an imaging target extraction determination part in the video signal transfer error determination part which concerns on this embodiment. 本実施形態に係るCCDの構造を説明するための一例を示す図である。It is a figure which shows an example for demonstrating the structure of CCD which concerns on this embodiment. 図3のCCDの時系列を説明するための図である。It is a figure for demonstrating the time series of CCD of FIG. 単板補色フィルタ型CCDの画素の一配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the pixel of a single plate complementary color filter type CCD. 奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the color signal in odd field OFD and even field EFD. 本実施形態に係る第1の演算部135および第2の演算部136における輝度信号の信号処理法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the signal processing method of the luminance signal in the 1st calculating part 135 and the 2nd calculating part 136 which concern on this embodiment. 光源に含まれる周波数成分についての波形W6を示す図である。It is a figure which shows the waveform W6 about the frequency component contained in a light source. デューティー比Dと2乗和SACBDとの関係の一例を示す図である。It is a figure which shows an example of the relationship between duty ratio D and square sum SACBD. 本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。It is a flowchart figure for demonstrating a series of operation | movement outline | summary of the detection system which concerns on this embodiment. 本発明の実施形態に係る検知システムの他の構成例を示す図である。It is a figure which shows the other structural example of the detection system which concerns on embodiment of this invention.

以下、本発明の実施形態を図面に関連づけて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の実施形態に係る検知システムの構成例を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a detection system according to an embodiment of the present invention.

本検知システム10は、光源11、撮像部12、および信号処理部13を有する。   The detection system 10 includes a light source 11, an imaging unit 12, and a signal processing unit 13.

光源11は、所定の輝度で被写体を照明する。光源11の輝度は可変であり、撮像装置12が有する撮像素子の電荷蓄積時間内の輝度が、撮像装置12のフィールド周期の4n倍周期で変化する。ここで、n=1、2、3、…である。   The light source 11 illuminates the subject with a predetermined luminance. The luminance of the light source 11 is variable, and the luminance within the charge accumulation time of the imaging element included in the imaging device 12 changes at a period 4n times the field period of the imaging device 12. Here, n = 1, 2, 3,.

撮像部12は、撮像装置121と第1のUSBインターフェース(I/F)122を含んで構成されている。
本実施形態に係る検知システム10で使用する撮像装置121は、以下のような仕様の撮像装置を採用している。
本撮像装置121を構成する撮像素子は一例として、単板補色フィルタ、フィールド蓄積型インターライン転送CCD(Charge Coupled Device)イメージセンサ(以後、単にCCDと記述する)を用いる。
また、一例として撮像装置12のテレビジョン方式はNTSC方式、走査方式はインターレースを採用し、走査周波数は水平周波数が15.734KHzで垂直周波数は59.94Hzである。
このような構成の撮像装置121は、光源11によって照明された被写体を撮像し、そのアナログ信号をデジタル信号にAD変換後、USBI/F122によりデジタル信号を信号処理部13に出力する。
なお、ここではCCDイメージセンサを例示しているが、CMOSイメージセンサも適用可能である。
The imaging unit 12 includes an imaging device 121 and a first USB interface (I / F) 122.
The imaging device 121 used in the detection system 10 according to the present embodiment employs an imaging device having the following specifications.
As an example of the imaging device constituting the imaging apparatus 121, a single-plate complementary color filter and a field storage type interline transfer CCD (Charge Coupled Device) image sensor (hereinafter simply referred to as a CCD) are used.
As an example, the television system of the imaging device 12 employs the NTSC system, the scanning system employs interlace, the scanning frequency is 15.734 KHz, and the vertical frequency is 59.94 Hz.
The imaging device 121 having such a configuration images the subject illuminated by the light source 11, converts the analog signal into a digital signal, and outputs the digital signal to the signal processing unit 13 through the USB I / F 122.
Although a CCD image sensor is illustrated here, a CMOS image sensor is also applicable.

撮像部12において、撮像装置121では撮像素子による出力信号をAD変換し、このデジタル信号を、たとえばUSBI/F122のアイソクロナス転送を用いて外部に伝送する。
アイソクロナス転送では一定時間あたりの最低データ転送量が保証されており、映像信号においては規定のフレームレートにて画像データの転送が行われる。ただし、転送に失敗した場合にデータの再送は行われない。
In the imaging unit 12, the imaging apparatus 121 performs AD conversion on the output signal from the imaging element, and transmits this digital signal to the outside using, for example, isochronous transfer of the USB I / F 122.
In isochronous transfer, a minimum data transfer amount per certain time is guaranteed, and image data is transferred at a prescribed frame rate in a video signal. However, if the transfer fails, the data is not retransmitted.

信号処理部13は、撮像部12と接続する第2のUSBI/F131、受信データバッファ部132、輝度信号抽出部133、フレーム時間差取得部134、第1の演算部(A)135、第2の演算部(B)136、および演算処理部(時間平均2乗和演算処理部)137を含む。
第1の演算部135、第2の演算部136、および演算処理部137により演算部が形成される。
さらに、信号処理部13は、フレーム時間差判定部138、撮像対象抽出判定部139、映像信号転送エラー判定部140、記憶部141、および判定部142を含んで構成されている。
The signal processing unit 13 includes a second USB I / F 131 connected to the imaging unit 12, a reception data buffer unit 132, a luminance signal extraction unit 133, a frame time difference acquisition unit 134, a first calculation unit (A) 135, a second A calculation unit (B) 136 and a calculation processing unit (time average square sum calculation processing unit) 137 are included.
The first calculation unit 135, the second calculation unit 136, and the calculation processing unit 137 form a calculation unit.
Furthermore, the signal processing unit 13 includes a frame time difference determination unit 138, an imaging target extraction determination unit 139, a video signal transfer error determination unit 140, a storage unit 141, and a determination unit 142.

信号処理部13のUSBI/F131では、撮像部12にて出力された信号を受信し、受信データバッファ部132にその情報を格納する。
受信データバッファ部132は、1フレーム分のデータが格納されデータとして確定されると、輝度信号抽出部133にその格納情報を出力する。
The USB I / F 131 of the signal processing unit 13 receives the signal output from the imaging unit 12 and stores the information in the reception data buffer unit 132.
When the data for one frame is stored and determined as data, the reception data buffer unit 132 outputs the stored information to the luminance signal extraction unit 133.

輝度信号抽出部133は、入力された受信信号から輝度信号を抽出し、フレーム時間差取得部134に出力する。
輝度信号抽出部133により抽出される輝度信号は、演算に最適化された信号レベルに調節される。
その信号レベルは、第1の演算部135、第2の演算部136、演算処理部137の出力値においてオーバーフローしない信号レベルである必要がある。そのため、輝度信号抽出部133は、輝度信号レベルを調整する回路を含む。
輝度信号レベルの調整値はいくつかのモードがある場合には、モード切り替えが可能なテーブルをもっていてもかまわない。そのモードはNTSCやPALなどの映像信号規格、撮像装置の周波数モードであってもよい。
The luminance signal extraction unit 133 extracts a luminance signal from the input reception signal and outputs the luminance signal to the frame time difference acquisition unit 134.
The luminance signal extracted by the luminance signal extraction unit 133 is adjusted to a signal level optimized for calculation.
The signal level needs to be a signal level that does not overflow in the output values of the first calculation unit 135, the second calculation unit 136, and the calculation processing unit 137. Therefore, the luminance signal extraction unit 133 includes a circuit that adjusts the luminance signal level.
The adjustment value of the luminance signal level may have a table capable of mode switching when there are several modes. The mode may be a video signal standard such as NTSC or PAL, or a frequency mode of the imaging apparatus.

フレーム時間差取得部134は、輝度信号抽出部133が受信データバッファ部132よりデータを受信した時点の現在のフレームと一つ前のフレームとの時間差分を算出する。
フレーム時間差取得部134においては、映像信号においてはフレームレートが規定されているので、通常は一定の値が算出される。
これに対し、撮像部12のUSBI/F122と信号処理部13のUSBI/F131間のデータ転送において何らかの原因により送受信失敗が発生していた場合、受信データバッファ部132にてデータの格納に不具合が生じ、1フレーム分のデータの確定のタイミングがずれるため、この時間差分値は異常な値をとることになる。
フレーム時間差取得部134は、取得した時間差分のデータを輝度信号とともに第1の演算部135および第2の演算部136に出力する。
The frame time difference acquisition unit 134 calculates a time difference between the current frame and the previous frame when the luminance signal extraction unit 133 receives data from the reception data buffer unit 132.
In the frame time difference acquisition unit 134, since a frame rate is defined in the video signal, a constant value is normally calculated.
On the other hand, if a transmission / reception failure has occurred in the data transfer between the USB I / F 122 of the imaging unit 12 and the USB I / F 131 of the signal processing unit 13, there is a problem in storing data in the reception data buffer unit 132. As a result, the timing for determining the data for one frame is shifted, so that this time difference value takes an abnormal value.
The frame time difference acquisition unit 134 outputs the acquired time difference data to the first calculation unit 135 and the second calculation unit 136 together with the luminance signal.

第1の演算部135は、入力された輝度信号を撮像素子の同一領域において、m番目と(m+2)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第1の演算部135の出力結果Aは、演算処理部137に出力される。
第2の演算部136は、入力された輝度信号の同一領域において、(m+1)番目と(m+3)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第2の演算部136の出力結果Bは、演算処理部137に出力される。
なお、この第1の演算部135と第2の演算部136の動作の詳細については後述する。
The first calculation unit 135 calculates the time average of the level difference of the luminance signal in the m-th and (m + 2) -th fields in the same region of the image sensor for the input luminance signal.
The output result A of the first calculation unit 135 is output to the calculation processing unit 137.
The second calculation unit 136 obtains a time average of the level difference of the luminance signal in the (m + 1) th and (m + 3) th fields in the same region of the input luminance signal.
The output result B of the second calculation unit 136 is output to the calculation processing unit 137.
Details of operations of the first calculation unit 135 and the second calculation unit 136 will be described later.

第1の演算部135と第2の演算部136からそれぞれ出力される出力結果Aと出力結果Bは演算処理部137に入力される。演算処理部137は、被写体の周数成分の検出値を求める。
演算処理部137は出力結果の検出値としての2乗和の値(A+B)を求め、フレーム時間差判定部138および撮像対象抽出判定部139に出力する。
The output result A and the output result B output from the first calculation unit 135 and the second calculation unit 136, respectively, are input to the calculation processing unit 137. The arithmetic processing unit 137 obtains a detected value of the frequency component of the subject.
The arithmetic processing unit 137 obtains a square sum value (A 2 + B 2 ) as a detection value of the output result, and outputs it to the frame time difference determination unit 138 and the imaging target extraction determination unit 139.

フレーム時間差判定部138は、フレーム時間差取得部134にて算出した時間差分を用いて、その値があらかじめ設定した閾値以下である場合は、フレーム時間差は正常であると判定する。フレーム時間差判定部138は、フレーム時間差取得部134にて算出された時間差と閾値との差分値を求める。
フレーム時間差判定部138は、フレーム時間差取得部134にて算出した時間差分値が閾値を超える場合はフレーム時間差に異常が発生していると判定する。
The frame time difference determination unit 138 uses the time difference calculated by the frame time difference acquisition unit 134 and determines that the frame time difference is normal when the value is equal to or less than a preset threshold value. The frame time difference determination unit 138 obtains a difference value between the time difference calculated by the frame time difference acquisition unit 134 and the threshold value.
The frame time difference determination unit 138 determines that an abnormality has occurred in the frame time difference when the time difference value calculated by the frame time difference acquisition unit 134 exceeds the threshold value.

ここでデータ転送の状態の判定を行うにあたって、前述のフレーム時間差を用いることで判定を行うことができる。
しかし、現実にはこの時間差は使用する機器やシステムによって異なっており個々の環境に適した閾値の設定が必要となる。
そこで、本実施形態においては、上述のフレーム時間差の判定に加えて以下の撮像対象抽出判定部139の判定を行い、その二つの判定結果を用いて、最適な閾値の設定および映像信号のデータ転送における状態の判定を行う。
Here, in determining the state of data transfer, the determination can be made by using the above-described frame time difference.
However, in reality, this time difference varies depending on the device or system to be used, and it is necessary to set a threshold value suitable for each environment.
Therefore, in the present embodiment, in addition to the above-described determination of the frame time difference, the following imaging target extraction determination unit 139 performs determination, and using these two determination results, optimal threshold value setting and video signal data transfer are performed. The state is determined.

撮像対象抽出判定部139は、演算処理部137における演算結果より撮像対象を検知したかどうかの判定を行う。
撮像対象抽出判定部139は、演算処理部137の演算値が許容範囲内であれば撮像対象を抽出していると判定し、範囲外であれば撮像対象を抽出していないと判定する。
このときデータ転送に異常が発生していた場合、撮像対象の状態検知において、映像信号における規定のフレームレートとは違うタイミングでサンプリングを行うことになるため、演算処理部137にて許容範囲を逸脱する異常な値が算出され、撮像対象を抽出していないと判定される。
The imaging target extraction determination unit 139 determines whether the imaging target is detected based on the calculation result in the calculation processing unit 137.
The imaging target extraction determination unit 139 determines that the imaging target is extracted if the calculation value of the arithmetic processing unit 137 is within the allowable range, and determines that the imaging target is not extracted if the calculation value is outside the range.
If an abnormality occurs in data transfer at this time, sampling is performed at a timing different from the specified frame rate in the video signal in the state detection of the imaging target, so that the arithmetic processing unit 137 deviates from the allowable range. An abnormal value is calculated, and it is determined that the imaging target is not extracted.

フレーム時間差判定部138の判定結果および撮像対象抽出判定部139の判定結果は、映像信号転送エラー判定部140に供給される。   The determination result of the frame time difference determination unit 138 and the determination result of the imaging target extraction determination unit 139 are supplied to the video signal transfer error determination unit 140.

映像信号転送エラー判定部140は、フレーム時間差判定部138および撮像対象抽出判定部139における判定結果を用いて閾値の設定およびデータ転送の状態の判定を行い、その結果は図2に示すようになる。   The video signal transfer error determination unit 140 uses the determination results in the frame time difference determination unit 138 and the imaging target extraction determination unit 139 to set a threshold and determine the data transfer state, and the results are as shown in FIG. .

すなわち、図2は、本実施形態に係る映像信号転送エラー判定部140で、フレーム時間差判定部138および撮像対象抽出判定部139における判定結果を用いて閾値の設定およびデータ転送の状態の判定を行った結果を示す図である。   That is, FIG. 2 shows the video signal transfer error determination unit 140 according to the present embodiment, which uses the determination results in the frame time difference determination unit 138 and the imaging target extraction determination unit 139 to set a threshold and determine the data transfer state. It is a figure which shows the result.

図2に示すように、フレーム時間差が正常で、撮像対象抽出が正常である場合、映像信号の転送は正常であり、閾値の更新は行わない。
フレーム時間差が異常で、撮像対象抽出が正常である場合、映像信号の転送は正常であるため、フレーム時間差判定部138の閾値をフレーム時間差判定部138にて算出された差分値に更新する。
フレーム時間差が正常で、撮像対象抽出が異常である場合、映像信号の転送は正常であり、閾値の更新は行わない。
フレーム時間差が異常で、撮像対象抽出が異常である場合、映像信号の転送に異常があり、閾値の更新は行わない。
As shown in FIG. 2, when the frame time difference is normal and the imaging target extraction is normal, the transfer of the video signal is normal and the threshold value is not updated.
When the frame time difference is abnormal and the imaging target extraction is normal, the transfer of the video signal is normal. Therefore, the threshold value of the frame time difference determination unit 138 is updated to the difference value calculated by the frame time difference determination unit 138.
When the frame time difference is normal and the imaging target extraction is abnormal, the transfer of the video signal is normal and the threshold value is not updated.
If the frame time difference is abnormal and the imaging target extraction is abnormal, the video signal transfer is abnormal and the threshold value is not updated.

図2の判定結果により映像信号の転送が正常に行われている場合、記憶部141において記憶されている情報を演算処理部137の演算結果に更新する。
映像信号の転送エラーが発生している場合、記憶部141の情報は更新しない。
この結果、判定部142にて光源または光源に照射された被写体の検知を判定する際に記憶部141の情報を基に判定することで、映像信号のデータ転送異常による誤った状態検知を防ぐことができる。
また、転送状態の判定において機器やシステム構成に関わらずに最適な閾値を自動で決定することができる。
When the transfer of the video signal is normally performed based on the determination result of FIG. 2, the information stored in the storage unit 141 is updated to the calculation result of the calculation processing unit 137.
If a video signal transfer error has occurred, the information in the storage unit 141 is not updated.
As a result, when the determination unit 142 determines the detection of the light source or the subject irradiated with the light source, the determination based on the information in the storage unit 141 prevents the erroneous detection of the state due to the abnormal data transfer of the video signal. Can do.
Further, in determining the transfer state, an optimum threshold can be automatically determined regardless of the device or system configuration.

判定部142は、演算処理部137の演算結果である全体画像の2乗和の値(A+B)に基づいて、撮像装置121によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する。なお、この判定部142の動作の詳細については後述する。 Based on the value of the sum of squares of the whole image (A 2 + B 2 ) that is the calculation result of the calculation processing unit 137, the determination unit 142 determines whether the subject imaged by the imaging device 121 is stationary or moving, for example. Determine. Details of the operation of the determination unit 142 will be described later.

次に、本実施形態に係る検知システムの他の構成および機能について詳細に説明する。
はじめに、本実施形態に係る撮像装置12のCCDの構成について説明する。
Next, other configurations and functions of the detection system according to the present embodiment will be described in detail.
First, the configuration of the CCD of the imaging device 12 according to the present embodiment will be described.

図3は、本実施形態に係るCCDの構造を説明するための一例を示す図である。   FIG. 3 is a view showing an example for explaining the structure of the CCD according to the present embodiment.

図3のCCD20はインターライン転送で、フォトダイオードPD21、垂直転送CCD22、水平転送CCD23、増幅器24を有する。
フォトダイオードPD21は、マトリクス状に配列されている。垂直ライン方向に配列されるフォトダイオードPD21は、列ごとにそれぞれ電荷を転送するための垂直転送CCD22に接続されている。各垂直転送CCD22の端部は、電荷を増幅部に転送する水平転送CCD23にそれぞれ接続されている。また、水平転送CCD23の出力側には増幅器24が接続されている。
The CCD 20 in FIG. 3 is an interline transfer, and includes a photodiode PD21, a vertical transfer CCD22, a horizontal transfer CCD23, and an amplifier 24.
The photodiodes PD21 are arranged in a matrix. The photodiodes PD21 arranged in the vertical line direction are connected to a vertical transfer CCD 22 for transferring charges for each column. The end of each vertical transfer CCD 22 is connected to a horizontal transfer CCD 23 that transfers charges to the amplifier. An amplifier 24 is connected to the output side of the horizontal transfer CCD 23.

映像の走査方式はインターレースであり、一画面は飛び越し走査で、奇数フィールドと偶数フィールドとで構成される。
まず、光がフォトダイオードPD21に入射し、電荷蓄積時間にフォトダイオードPD21で電荷が蓄積されていく。この間、フォトダイオードPD21と垂直転送CCD22間は遮断されている。
電荷蓄積時間が終了すると、フォトダイオードPD21と垂直転送CCD22間が導通し、蓄積された電荷が垂直転送CCD22に移される。この直後に、フォトダイオードPD21と垂直転送CCD22間は遮断され、フォトダイオードPD21で次の電荷蓄積が開始する。垂直転送CCD22に移された電荷は、1水平ライン毎に水平転送CCD23に転送され、増幅器24に入力されている。
この1水平ライン毎に、電荷が垂直転送CCD22から水平転送CCD23へ転送されるまでの周波数は、CCD20の水平走査周波数15.734KHzで行われる。垂直転送CCD22のすべての電荷が水平転送CCD23に転送されると、再び垂直転送CCD22とフォトダイオードPD21間が導通し、フォトダイオードPD21の電荷が垂直転送CCD22に移される。フィールド蓄積CCDの場合、光電変換によってフォトダイオードPD21で電荷が蓄積され、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの転送周波数は、59.94Hzとなる。
The video scanning method is interlaced, and one screen is interlaced scanning, and is composed of an odd field and an even field.
First, light enters the photodiode PD21, and charges are accumulated in the photodiode PD21 during the charge accumulation time. During this time, the photodiode PD21 and the vertical transfer CCD 22 are disconnected.
When the charge accumulation time ends, the photodiode PD21 and the vertical transfer CCD 22 are brought into conduction, and the accumulated charge is transferred to the vertical transfer CCD 22. Immediately after this, the photodiode PD21 and the vertical transfer CCD 22 are disconnected, and the next charge accumulation is started in the photodiode PD21. The charges transferred to the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23 for each horizontal line and input to the amplifier 24.
The frequency until the charge is transferred from the vertical transfer CCD 22 to the horizontal transfer CCD 23 for each horizontal line is the horizontal scanning frequency of the CCD 20 of 15.734 KHz. When all the charges of the vertical transfer CCD 22 are transferred to the horizontal transfer CCD 23, the vertical transfer CCD 22 and the photodiode PD 21 are again brought into conduction, and the charges of the photodiode PD 21 are transferred to the vertical transfer CCD 22. In the case of a field accumulation CCD, charges are accumulated in the photodiode PD21 by photoelectric conversion, and the transfer frequency until this charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is 59.94 Hz.

図4は、図3のCCD20の時系列を説明するための図である。   FIG. 4 is a diagram for explaining the time series of the CCD 20 of FIG.

図4に示すように、光電変換によってフォトダイオードPD21で電荷が蓄積されるまでの所要時間をΔT1とし、この電荷がフォトダイオードPD21から垂直転送CCD22へ転送されるまでの所要時間をΔT2とする。
図4から分かるように、CCD20に入射した光エネルギーは、電荷蓄積時間ΔT1の間積分されながら、電荷蓄積周期ΔT=ΔT1+ΔT2=(1/59.94)秒でサンプリングされていることになる。
As shown in FIG. 4, the required time until charge is accumulated in the photodiode PD21 by photoelectric conversion is ΔT1, and the required time until the charge is transferred from the photodiode PD21 to the vertical transfer CCD 22 is ΔT2.
As can be seen from FIG. 4, the light energy incident on the CCD 20 is sampled at the charge accumulation period ΔT = ΔT1 + ΔT2 = (1 / 59.94) seconds while being integrated during the charge accumulation time ΔT1.

さて、図1に示すように、撮像装置121によって撮像された撮像画像の信号は輝度信号抽出部133で輝度信号が抽出され、この輝度信号は、第1の演算部135および第2の演算部136に入力される。
ここで、本実施例に係るCCD20(図3を参照)からの画素の読み出し方法について説明する。
As shown in FIG. 1, a luminance signal is extracted by a luminance signal extraction unit 133 from a signal of a captured image captured by the imaging device 121, and the luminance signal is output from the first calculation unit 135 and the second calculation unit. 136 is input.
Here, a method for reading out pixels from the CCD 20 (see FIG. 3) according to the present embodiment will be described.

図5は、単板補色フィルタ型CCDの画素の一配列例を示す図である。
また、図6は、奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。
FIG. 5 is a diagram showing an arrangement example of pixels of a single-plate complementary color filter type CCD.
FIG. 6 is a diagram illustrating an example of a combination of color signals in the odd field OFD and the even field EFD.

画素のカラーフィルタは、Ye(イエロ)、Cy(シアン)、Mg(マジェンタ)、G(グリーン)で構成され、図5に示すような配列になっている。画素の読み出しは、上下の画素を加算して読み出される。この加算する組み合わせは、奇数フィールドOFDと偶数フィールドEFDで、1列ずれる。具体的には、奇数フィールドOFDのnラインでは、(C11+C21)、(C12+C22)、(C13+C23)、(C14+C24)、(C15+C25)、…のようになる。また、偶数フィールドEFDのnラインでは、(C21+C31)、(C22+C32)、(C23+C33)、(C24+C34)、(C25+C35)、…のようになる。
したがって、図6に示すような奇数フィールドOFD、偶数フィールドEFDで色信号が出力される。
いずれも、2画素周期で同一のYe、Cy、Mg、Gの組み合わせの色パターンが繰り返されている。
つまり言い換えると、色信号は2画素周期以上の周波数に重畳して現れる。よって、この色信号を、2画素周期を遮断周波数とするローパスフィルタに通せば、色信号は失われ、輝度信号のみが得られる。
したがって、輝度情報は2画素周期でサンプリングされることになる。
The color filter of the pixel is composed of Ye (yellow), Cy (cyan), Mg (magenta), and G (green), and has an arrangement as shown in FIG. Pixels are read by adding the upper and lower pixels. The combination to be added is shifted by one column between the odd field OFD and the even field EFD. Specifically, in the n-th line of the odd field OFD, (C11 + C21), (C12 + C22), (C13 + C23), (C14 + C24), (C15 + C25),... In the n-line of the even field EFD, (C21 + C31), (C22 + C32), (C23 + C33), (C24 + C34), (C25 + C35),...
Therefore, color signals are output in the odd field OFD and the even field EFD as shown in FIG.
In any case, the same color pattern of a combination of Ye, Cy, Mg, and G is repeated in a two-pixel cycle.
In other words, the color signal appears superimposed on a frequency of two pixel periods or more. Therefore, if this color signal is passed through a low-pass filter having a cutoff frequency of two pixel periods, the color signal is lost and only a luminance signal is obtained.
Therefore, luminance information is sampled at a cycle of two pixels.

図5の円形で図示される投影領域REGは、光源による被写体の映像が投影されている様子を示している。なお、画素C35、C36、C45、C46、C55、C56は完全に投影領域REGにはいっており、均一に光が照射されているとする。
輝度情報は、奇数フィールドOFDでは、水平ライン(n+1)のC35、C36、C45、C46の組み合わせに、偶数フィールドEFDでは、水平ラインの(n+1)ラインのC45、C46、C55、C56の組み合わせによって読み出しされる。
A projection region REG illustrated by a circle in FIG. 5 shows a state in which an image of a subject by a light source is projected. It is assumed that the pixels C35, C36, C45, C46, C55, and C56 are completely in the projection region REG and are uniformly irradiated with light.
In the odd field OFD, the luminance information is read by a combination of C35, C36, C45, and C46 of the horizontal line (n + 1), and in the even field EFD, by a combination of C45, C46, C55, and C56 of the (n + 1) line of the horizontal line. Is done.

以上に述べたようにして、撮像装置121からの信号のうち輝度信号が第1の演算部135および第2の演算部136に入力される。この輝度信号は、第1の演算部135および第2の演算部136に入力されて所定の処理が行われる。   As described above, the luminance signal among the signals from the imaging device 121 is input to the first calculation unit 135 and the second calculation unit 136. The luminance signal is input to the first calculation unit 135 and the second calculation unit 136, and a predetermined process is performed.

次に、第1の演算部135および第2の演算部136で行われる輝度信号の処理方法について図7に関連付けて説明する。   Next, a luminance signal processing method performed by the first calculation unit 135 and the second calculation unit 136 will be described with reference to FIG.

図7は、本実施形態に係る第1の演算部135および第2の演算部136における輝度信号の信号処理法を説明するためのタイミングチャートである。   FIG. 7 is a timing chart for explaining the signal processing method of the luminance signal in the first calculation unit 135 and the second calculation unit 136 according to the present embodiment.

図7(A)は、撮像装置121のインターライン走査を示す図で、偶数フィールドEFDもしくは奇数フィールドOFDのいずれかの状態を示す。図7(B)〜(E)はそれぞれ、演算部で処理される輝度信号レベルの時間変化を表す波形W1、W2、W3、W4を示し、図7(F)は一定周期で変化する正弦波の波形W5を示す図である。
なお、奇数フィールドOFDと偶数フィールドEFDとで1フレームの走査である。つまり、図7(A)に示すように、AとB、CとDで1フレームの走査である。
また、以降の説明において、fは周波数を、tは時刻を、θは位相差をそれぞれ示し、ωは(ω=2πf)を満たす。なお、πは円周率である。
FIG. 7A is a diagram showing interline scanning of the imaging apparatus 121, and shows a state of either the even field EFD or the odd field OFD. FIGS. 7B to 7E respectively show waveforms W1, W2, W3, and W4 that represent temporal changes in the luminance signal level processed by the arithmetic unit, and FIG. 7F shows a sine wave that changes at a constant period. It is a figure which shows the waveform W5.
The odd field OFD and even field EFD scan one frame. That is, as shown in FIG. 7A, one frame is scanned by A and B and C and D.
In the following description, f represents frequency, t represents time, θ represents phase difference, and ω satisfies (ω = 2πf). Note that π is the circumference ratio.

図7(B)、(C)に図示する波形W1と波形W2は、後で説明する波形W3と波形W4で示される波形の関数を導出するための波形である。
図7(D)に図示する波形W3は、Aのフィールドの輝度信号とCのフィールドの輝度信号との輝度レベルの差をレベル差ACとした時の、レベル差ACを求める関数の時間発展分布を示す。
また、図7(E)に図示する波形W4は、Bのフィールドの輝度信号とDのフィールドの輝度信号との輝度レベルの差をレベル差BDとした時の、レベル差BDを求める関数の時間発展分布を示す。
なお、波形W3は、波形W1と波形W2から導出され、波形W1と波形W2を足して2で割ったものである。また、波形W4は波形W1と波形W2から導出され、波形W2から波形W1を引いて2で割ったものである。
Waveforms W1 and W2 illustrated in FIGS. 7B and 7C are waveforms for deriving functions of waveforms indicated by a waveform W3 and a waveform W4 described later.
A waveform W3 illustrated in FIG. 7D shows a time development distribution of a function for obtaining the level difference AC when the luminance level difference between the luminance signal of the A field and the luminance signal of the C field is the level difference AC. Indicates.
A waveform W4 shown in FIG. 7E is a function time for obtaining the level difference BD when the difference in luminance level between the luminance signal of the B field and the luminance signal of the D field is the level difference BD. The development distribution is shown.
Waveform W3 is derived from waveform W1 and waveform W2, and is obtained by adding waveform W1 and waveform W2 and dividing by two. Waveform W4 is derived from waveform W1 and waveform W2, and is obtained by subtracting waveform W1 from waveform W2 and dividing it by 2.

このとき、レベル差ACの第1の時間平均である時間平均SACは図1に示す第1の演算部135で算出される。また、レベル差BDの第2の時間平均である時間平均SBDは第2の演算部136で算出される。
具体的には、時間平均SACは、C35、C36、C45、C46の組み合わせによるAフィールドとCフィールドとの輝度レベル差ACから算出される。
同様に、時間平均SBDは、C45、C46、C55、C56の組み合わせによるBフィールドとDフィールドとのレベル差BDから算出される。
At this time, a time average SAC that is a first time average of the level difference AC is calculated by the first calculation unit 135 shown in FIG. In addition, a time average SBD that is a second time average of the level difference BD is calculated by the second calculation unit 136.
Specifically, the time average SAC is calculated from the luminance level difference AC between the A field and the C field by a combination of C35, C36, C45, and C46.
Similarly, the time average SBD is calculated from the level difference BD between the B field and the D field by a combination of C45, C46, C55, and C56.

その時間平均の算出方法について述べる。
AフィールドとCフィールドとのレベル差ACの時間平均SACは、波形W1に、図7(D)に示す波形W3を掛けてこの時間平均SACを計算する。
また同様に、BフィールドとDフィールドとのレベル差BDの時間平均SBDは、C45、C46、C55、C56の組み合わせによる画素に照射される光の時間変化を表す波形に、図7(E)に示す波形W4を掛けてこの時間平均SBDを計算する。
The calculation method of the time average is described.
The time average SAC of the level difference AC between the A field and the C field is calculated by multiplying the waveform W1 by the waveform W3 shown in FIG. 7D.
Similarly, the time average SBD of the level difference BD between the B field and the D field is shown in FIG. 7E as a waveform representing the time change of light irradiated to the pixel by the combination of C45, C46, C55, and C56. The time average SBD is calculated by multiplying the waveform W4 shown.

はじめに、時間平均SACの算出方法について具体的に説明する。
波形W3を数式で表す。まず、波形W1、波形W2は以下のようなフーリエ級数で表せる。
First, a method for calculating the time average SAC will be specifically described.
The waveform W3 is expressed by a mathematical expression. First, the waveform W1 and the waveform W2 can be expressed by the following Fourier series.

Figure 0005406787
Figure 0005406787

ここで、波形W1とW2は同一周期f2を有するものとする。(1)式と(2)式より、波形W3は(4)式のように表せる。   Here, it is assumed that the waveforms W1 and W2 have the same period f2. From equation (1) and equation (2), waveform W3 can be expressed as equation (4).

Figure 0005406787
Figure 0005406787

ところで、図7(F)に図示する周期f1を有する波形W5は(5)式のような正弦波で表せる。   By the way, the waveform W5 having the period f1 shown in FIG. 7F can be represented by a sine wave as shown in the equation (5).

Figure 0005406787
Figure 0005406787

(4)式によって表される波形W3に(5)式で表せる正弦波W5を掛けると(7)式となる。   When the waveform W3 represented by the equation (4) is multiplied by the sine wave W5 represented by the equation (5), the equation (7) is obtained.

Figure 0005406787
Figure 0005406787

次に、時刻0から時刻Tまでにおける(7)式の時間平均をとる。(7)式の右辺に示す各項の内、時間tを含む項は交流信号であるから、その時間平均は0である。
したがって、(ω−(2n−1)ω=0)である時のみ、定数cosθと定数sinθが残り、時間平均SACは(8)式のようになる。
Next, the time average of the equation (7) from time 0 to time T is taken. Of the terms shown on the right side of the equation (7), the term including time t is an AC signal, so the time average is zero.
Therefore, only when (ω 1 − (2n−1) ω 2 = 0), the constant cos θ 1 and the constant sin θ 1 remain, and the time average SAC is expressed by the equation (8).

Figure 0005406787
Figure 0005406787

このようにして、時間平均SACが第1の演算部135にて求まる。時間平均SBDも同様にして第2の演算部136にて求められ、(9)式で表される。   In this way, the time average SAC is obtained by the first calculation unit 135. Similarly, the time average SBD is obtained by the second calculation unit 136 and is expressed by equation (9).

Figure 0005406787
Figure 0005406787

さて、(8)式と(9)式で表される時間平均SACとSBDとの2乗和(SAC +SBD )は(10)式で表される。 Now, the sum of squares (S AC 2 + S BD 2 ) of the time average SAC and SBD expressed by the equations (8) and (9) is expressed by the equation (10).

Figure 0005406787
Figure 0005406787

この(10)式より、CCD20(図9を参照)に入射される光に(f=(2n−1)f)なる周波数成分が含まれているとき、(10)式で表される波形の成分が検出される。 From this equation (10), when the frequency component (f 1 = (2n−1) f 2 ) is included in the light incident on the CCD 20 (see FIG. 9), it is expressed by the equation (10). Waveform components are detected.

次に、光源11に含まれる周波数成分について考察する。
図8は、光源11に含まれる周波数成分についての波形W6を示す図である。なお、光源11は、周波数f3で時間τの間、輝度レベルL1で発光している。
Next, frequency components included in the light source 11 will be considered.
FIG. 8 is a diagram illustrating a waveform W <b> 6 for the frequency component included in the light source 11. The light source 11 emits light at the luminance level L1 at the frequency f3 for the time τ.

この波形W6をフーリエ級数に展開する。波形W6は、周期(T=1/f3)の周期関数であり、(ω3=2πf3)とすると、(11)式のようにフーリエ級数の一般式で表される。 This waveform W6 is developed into a Fourier series. The waveform W6 is a periodic function of a period (T 3 = 1 / f 3 ). When (ω 3 = 2πf 3 ), the waveform W6 is represented by a general formula of Fourier series as shown in Expression (11).

Figure 0005406787
Figure 0005406787

(11)式の各係数a、a、bは波形W6より(12)〜(14)式のように求まる。 The coefficients a 0 , a n , and b n in the equation (11) are obtained from the waveform W6 as in the equations (12) to (14).

Figure 0005406787
Figure 0005406787

したがって、波形W6のフーリエ級数は、(15)式で表される。   Therefore, the Fourier series of the waveform W6 is expressed by equation (15).

Figure 0005406787
Figure 0005406787

よって、光源11の点滅周期をフィールド周期の4倍にした時、すなわち(f=f)である時、(7)式と(15)式より奇数項で周波数が一致し、時間平均SACとSBDの2乗和は(16)式のようになる。 Therefore, when the blinking period of the light source 11 is set to four times the field period, that is, when (f 3 = f 2 ), the frequency coincides with the odd term from the expressions (7) and (15), and the time average SAC And the sum of the squares of SBD is given by equation (16).

Figure 0005406787
Figure 0005406787

光源11の点灯のデューティー比をDとすると(17)式で表される。   When the duty ratio of lighting of the light source 11 is D, it is expressed by equation (17).

Figure 0005406787
Figure 0005406787

よって、(16)式で表される時間平均SACとSBDとの2乗和SACBDは、(17)式を用いると(18)式のようになる。     Therefore, the square sum SACBD of the time average SAC and SBD expressed by the equation (16) is expressed by the equation (18) when the equation (17) is used.

Figure 0005406787
Figure 0005406787

ところで、以下に示す(18)式の右辺の項(19)は収束する。   By the way, the term (19) on the right side of the following equation (18) converges.

Figure 0005406787
Figure 0005406787

この(18)式の右辺の項(19)は、デューティー比Dに対し、表1のような値をとる。以下に、表1を示す。   The term (19) on the right side of the equation (18) takes a value as shown in Table 1 with respect to the duty ratio D. Table 1 is shown below.

Figure 0005406787
Figure 0005406787

表1に基づいて、横軸にデューティー比Dをとり、縦軸に時間平均SACとSBDとの2乗和SACBDをとると、デューティー比Dと2乗和SACBDとの関係は図9に示すようになる。   Based on Table 1, when the duty ratio D is taken on the horizontal axis and the square sum SACBD of the time average SAC and SBD is taken on the vertical axis, the relationship between the duty ratio D and the square sum SACBD is as shown in FIG. become.

図9より、2乗和SACBDはデューティー比D=0.5で最大となることが分かる。
したがって、(18)式で表される2乗和SACBDは、次式のようになる。
From FIG. 9, it can be seen that the square sum SACBD is maximized at the duty ratio D = 0.5.
Therefore, the sum of squares SACBD expressed by the equation (18) is expressed by the following equation.

[数15]
AC +SBD =0.08333L …(20)
[Equation 15]
S AC 2 + S BD 2 = 0.08333L 1 2 (20)

(20)式に示すように、演算処理部137は光源11(図1を参照)の輝度を検出し、この検出結果(2乗和SACBD)は判定部142にて被写体の状態に判定に用いられる。   As shown in the equation (20), the arithmetic processing unit 137 detects the luminance of the light source 11 (see FIG. 1), and the detection result (square sum SACBD) is used by the determination unit 142 to determine the state of the subject. It is done.

本実施例に係る光源11は特定の光源に依存しない。そこで、他の光源についても輝度を検出できるかについて考察する。
光源として広く使われている白熱電球と蛍光燈は、電源周波数50Hzの地域で100Hz、60Hzの地域で120Hzである。NTSC方式のテレビジョンのフィールド周波数は59.94Hz、パーソナルコンピュータに使用されるモニタのフィールド周波数は、ちらつきがないように60Hz以上である。
The light source 11 according to the present embodiment does not depend on a specific light source. Therefore, it is considered whether the luminance can be detected for other light sources.
Incandescent light bulbs and fluorescent lamps that are widely used as light sources are 100 Hz in regions where the power supply frequency is 50 Hz and 120 Hz in regions where 60 Hz. The field frequency of an NTSC television is 59.94 Hz, and the field frequency of a monitor used for a personal computer is 60 Hz or more so as not to flicker.

NTSC方式のテレビジョンのフィールド周波数は59.94Hzであり、その1/4倍周期で光源を発光させるとすると、輝度レベル差の周波数f2は次式のようになる。   The field frequency of the NTSC television is 59.94 Hz, and if the light source is caused to emit light at a quarter period, the frequency f2 of the luminance level difference is as follows.

[数16]
=59.94/4=14.985Hz …(21)
[Equation 16]
f 2 = 59.94 / 4 = 14.985 Hz (21)

(7)式と(15)式より、周波数f2の奇数倍と光源11の周波数f3の整数倍が一致したときに信号成分が検出される。   From the equations (7) and (15), the signal component is detected when the odd multiple of the frequency f2 matches the integer multiple of the frequency f3 of the light source 11.

表2は、異なる光源の発光周波数と輝度信号レベルの差における周波数との関係を示す値の表である。   Table 2 is a table of values indicating the relationship between the light emission frequency of different light sources and the frequency in the difference in luminance signal level.

Figure 0005406787
Figure 0005406787

表2のf1は(5)式の正弦波の有する周波数で、f2は(21)式に示す周波数で、f3はそれぞれ、光源11の周波数、50Hz地域での照明の周波数、60Hz地域での照明の周波数、NTSC方式のテレビジョンのフィールド周波数、パーソナルコンピュータに使用されるモニタのフィールド周波数である。
表2によると、m=30まで、f3が100、120、59.94Hzであり、(n×f=(2m−1)×f)が成立するものはない。
F1 in Table 2 is the frequency of the sine wave of Formula (5), f2 is the frequency shown in Formula (21), and f3 is the frequency of the light source 11, the frequency of illumination in the 50 Hz region, and the illumination in the 60 Hz region, respectively. Frequency, NTSC television field frequency, and monitor field frequency used in personal computers.
According to Table 2, up to m = 30, f3 is 100, 120, 59.94 Hz, and there is nothing that satisfies (n × f 3 = (2m−1) × f 2 ).

たとえばパーソナルコンピュータのモニタに関して、そのフィールド周波数が60Hz以上であるとすると、本検知システム10の信号処理出力に最も大きな出力が検出される可能性としては、74.925Hzでスキャンされているモニタが存在したときである。
すなわち、f=74.925Hzの時であり、表2に示すように、(5×f)、(15×f)、(25×f)…と(1×f)、(3×f)、(5×f)…が一致する。この時検出される信号レベルは、次式で示される。
For example, regarding a monitor of a personal computer, if the field frequency is 60 Hz or more, there is a monitor that is scanned at 74.925 Hz as a possibility that the largest output is detected in the signal processing output of the detection system 10. When
That is, when f 3 = 74.925 Hz, as shown in Table 2, (5 × f 2 ), (15 × f 2 ), (25 × f 2 ), and (1 × f 3 ), ( 3 × f 3 ), (5 × f 3 ). The signal level detected at this time is expressed by the following equation.

Figure 0005406787
したがって、(22)式で示される信号レベルは光源11の1/25のレベルであり、図1に図示していない信号処理で別に除去できる。
Figure 0005406787
Therefore, the signal level expressed by the equation (22) is 1/25 of that of the light source 11 and can be removed separately by signal processing not shown in FIG.

以上に述べたように、本検知システム10は、光源の発光周波数に依存せず、光源または光源に照射された被写体の状態を検知する。   As described above, the detection system 10 detects the state of the light source or the subject irradiated on the light source without depending on the light emission frequency of the light source.

以下に、本実施形態に係る検知システムの一連の動作を図10に関連付けて説明する。   Hereinafter, a series of operations of the detection system according to the present embodiment will be described with reference to FIG.

図10は、本実施形態に係る検知システムの一連の動作概要を説明するためのフローチャート図である。   FIG. 10 is a flowchart for explaining a series of operation outlines of the detection system according to the present embodiment.

たとえば、撮像装置121の電荷蓄積時間内の光源11の輝度を撮像装置121のフィールド周期の4n倍で変化させる。
撮像部12において、撮像装置121では撮像素子による出力信号がAD変換され(ST1)、このデジタル信号が、USBI/F122のアイソクロナス転送を用いて外部信号処理部13に伝送される。
アイソクロナス転送では一定時間あたりの最低データ転送量が保証されており、映像信号においては規定のフレームレートにて画像データの転送が行われる。ただし、転送に失敗した場合にデータの再送は行われない。
信号処理部13において、USBI/F131で撮像部12にて出力されたデジタル信号が受信され(ST2)、受信データバッファ部132にてその情報が格納される(ST3)。
その中の1フレーム分のデータが格納されデータとして確定されると、輝度信号抽出部113にその情報が出力される(ST4)。
For example, the luminance of the light source 11 within the charge accumulation time of the imaging device 121 is changed by 4n times the field period of the imaging device 121.
In the imaging unit 12, the output signal from the imaging element is AD converted in the imaging device 121 (ST 1), and this digital signal is transmitted to the external signal processing unit 13 using isochronous transfer of the USB I / F 122.
In isochronous transfer, a minimum data transfer amount per certain time is guaranteed, and image data is transferred at a prescribed frame rate in a video signal. However, if the transfer fails, the data is not retransmitted.
In the signal processing unit 13, the digital signal output from the imaging unit 12 by the USB I / F 131 is received (ST2), and the information is stored in the reception data buffer unit 132 (ST3).
When data for one frame is stored and determined as data, the information is output to the luminance signal extraction unit 113 (ST4).

輝度信号抽出部133では受信したデータから輝度信号が抽出され、その輝度信号は演算に最適化された信号レベルに調節される(ST5)。
その信号レベルは、第1の演算部135、第2の演算部136、演算処理部137においてオーバーフローしない信号レベルである必要があることから、輝度信号抽出部131にて輝度信号レベルが調節され、フレーム時間差取得部134に出力される。
フレーム時間差取得部134では、輝度信号抽出部133が受信データバッファ部132よりデータを受信した時点の現在のフレームと一つ前のフレームとの時間差分が算出される(ST6)。
映像信号においてはフレームレートが規定されているので、通常は一定の値が算出されるが、撮像部12と信号処理部13のUSBI/F間のデータ転送において何らかの原因により送受信失敗が発生していた場合、受信データバッファ部132にてデータの格納に不具合が生じ、1フレーム分のデータの確定のタイミングがずれる。このため、この時間差分値は異常な値をとる場合がある。
次に、輝度信号が第1の演算部135と第2の演算部136に入力される。
第1の演算部135にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACが求められる。また、第2の演算部136にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDが求められる。
これら時間平均SACとSBDは演算処理部137に出力される(ST7)。
次いで、演算処理部137にて時間平均SACとSBDの2乗和SACBDが求められ(ST8)、その結果が、フレーム時間差判定部138および撮像対象抽出判定部139に出力される。
The luminance signal extraction unit 133 extracts a luminance signal from the received data, and the luminance signal is adjusted to a signal level optimized for calculation (ST5).
Since the signal level needs to be a signal level that does not overflow in the first calculation unit 135, the second calculation unit 136, and the calculation processing unit 137, the luminance signal extraction unit 131 adjusts the luminance signal level, It is output to the frame time difference acquisition unit 134.
The frame time difference acquisition unit 134 calculates a time difference between the current frame and the previous frame when the luminance signal extraction unit 133 receives data from the reception data buffer unit 132 (ST6).
Since a frame rate is defined for a video signal, a constant value is normally calculated. However, a transmission / reception failure has occurred for some reason in data transfer between the imaging unit 12 and the USB I / F of the signal processing unit 13. In this case, the reception data buffer unit 132 has a problem in storing data, and the timing for determining the data for one frame is shifted. For this reason, this time difference value may take an abnormal value.
Next, the luminance signal is input to the first calculation unit 135 and the second calculation unit 136.
The first arithmetic unit 135 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. Further, the second arithmetic unit 136 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields.
These time averages SAC and SBD are output to the arithmetic processing unit 137 (ST7).
Next, the arithmetic processing unit 137 obtains the square sum SACBD of the time average SAC and SBD (ST8), and the result is output to the frame time difference determination unit 138 and the imaging target extraction determination unit 139.

フレーム時間差判定部138では、フレーム時間差取得部134にて算出した時間差分を用いて、その値が閾値以下である場合はフレーム時間差は正常であると判定される。一方、閾値を超える場合はフレーム時間差に異常が発生していると判定される(ST9)。
ここでデータ転送の状態の判定を行うにあたって、前述のフレーム時間差を用いることで判定を行うことができる。
しかし、現実にはこの時間差は使用する機器やシステムによって異なっており個々の環境に適した閾値の設定が必要となる。そこで上述のフレーム時間差の判定に加えて以下の撮像対象抽出判定部139での判定が行われ、その二つの判定結果を用いて、最適な閾値の設定および映像信号のデータ転送における状態の判定が行われる。
撮像対象抽出判定部139では、演算処理部137の演算結果より撮像対象を検知したかどうかの判定が行われる(ST10)。
演算処理部137の演算値が許容範囲内であれば撮像対象を抽出していると判定され、範囲外であれば撮像対象を抽出していないと判定される。
このときデータ転送に異常が発生していた場合、撮像対象の状態検知において、映像信号における規定のフレームレートとは違うタイミングでサンプリングを行うことになるため、演算処理部137にて許容範囲を逸脱する異常な値が算出され、撮像対象を抽出していないと判定される。
次に、映像信号転送エラー判定部140において、フレーム時間差判定部138および撮像対象抽出判定部139での判定結果を用いて閾値の設定およびデータ転送の状態の判定が行われる。
判定結果により映像信号の転送が異常で、撮像対象の抽出は正常に行われている場合、フレーム時間差判定部138の閾値がフレーム時間差判定部138で算出した差分値に更新される(ST11)。
また、判定結果により映像信号の転送が正常に行われている場合、記憶部141において記憶されている情報が演算処理部137の演算結果に更新される(ST12)。映像信号の転送エラーが発生している場合、記憶部の情報の更新は行われない。
この結果、判定部にて光源または光源に照射された被写体の検知を判定する際に記憶部141の情報を基に判定することで、映像信号のデータ転送異常による誤った状態検知を防ぐことができる。
また、転送状態の判定において機器やシステム構成に関わらずに最適な閾値を自動で決定することができる。
そして、判定部142において、演算処理部137の演算結果である全体画像の2乗和の値(A+B)に基づいて、撮像装置121によって撮像された被写体が、たとえば、静止あるいは動作しているかが判定される(ST13)。
The frame time difference determination unit 138 uses the time difference calculated by the frame time difference acquisition unit 134 and determines that the frame time difference is normal when the value is equal to or less than the threshold value. On the other hand, if the threshold value is exceeded, it is determined that an abnormality has occurred in the frame time difference (ST9).
Here, in determining the state of data transfer, the determination can be made by using the above-described frame time difference.
However, in reality, this time difference varies depending on the device or system to be used, and it is necessary to set a threshold value suitable for each environment. Therefore, in addition to the above-described frame time difference determination, the following imaging target extraction determination unit 139 performs determination, and using these two determination results, the optimum threshold value setting and the state determination in the video signal data transfer can be performed. Done.
The imaging target extraction determination unit 139 determines whether the imaging target is detected from the calculation result of the calculation processing unit 137 (ST10).
If the calculation value of the arithmetic processing unit 137 is within the allowable range, it is determined that the imaging target is extracted, and if it is out of the range, it is determined that the imaging target is not extracted.
If an abnormality occurs in data transfer at this time, sampling is performed at a timing different from the specified frame rate in the video signal in the state detection of the imaging target, so that the arithmetic processing unit 137 deviates from the allowable range. An abnormal value is calculated, and it is determined that the imaging target is not extracted.
Next, the video signal transfer error determination unit 140 uses the determination results of the frame time difference determination unit 138 and the imaging target extraction determination unit 139 to set a threshold and determine the data transfer state.
If the transfer of the video signal is abnormal according to the determination result and the imaging target is normally extracted, the threshold value of the frame time difference determination unit 138 is updated to the difference value calculated by the frame time difference determination unit 138 (ST11).
If the video signal is normally transferred based on the determination result, the information stored in the storage unit 141 is updated to the calculation result of the calculation processing unit 137 (ST12). When a video signal transfer error has occurred, the information in the storage unit is not updated.
As a result, when the determination unit determines the detection of the light source or the subject irradiated with the light source, the determination based on the information in the storage unit 141 can prevent erroneous detection of a state due to abnormal data transfer of the video signal. it can.
Further, in determining the transfer state, an optimum threshold can be automatically determined regardless of the device or system configuration.
Then, in the determination unit 142, based on the value of the sum of squares of the entire image (A 2 + B 2 ) that is the calculation result of the calculation processing unit 137, the subject imaged by the imaging device 121 is, for example, still or moving. Is determined (ST13).

以上の処理により、光源または光源に照射された被写体の状態の検知において、映像信号のデータ転送の異常を高精度で検知し補正処理を行うことで、安定した被写体検知を行うことができる。   Through the above processing, in detecting the state of the light source or the object irradiated to the light source, it is possible to detect a stable subject by detecting an abnormality in video signal data transfer with high accuracy and performing correction processing.

以上に説明したように、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出できる。   As described above, according to the present embodiment, the background noise of the captured image can be removed, and the state of the subject irradiated with the light source or the light source can be detected.

そして、本実施形態に係る検知システムによれば、映像信号転送エラー判定において映像信号の状態判定処理と閾値の設定処理とを分け任意の処理時間または処理回数閾値の設定処理を行うことで信頼性の高い閾値での判定かつシステム負荷の少ない被写体検知を行うことができる。
また、光源に依らないため、撮像装置の仕様には依存せず、たとえば一般に入手可能なカメラを本検知システムの撮像装置として使用できる。
According to the detection system according to the present embodiment, in the video signal transfer error determination, the video signal state determination process and the threshold value setting process are separated, and an arbitrary processing time or processing frequency threshold value setting process is performed, thereby improving reliability. Determination with a high threshold value and subject detection with a low system load.
Moreover, since it does not depend on the light source, it does not depend on the specifications of the imaging device, and for example, a generally available camera can be used as the imaging device of the present detection system.

さらに本検知システムは、複数の光源を使用し、信号を並列に信号処理部に伝送することができる。
あるいは、光源の色を複数設け、信号の波長多重伝送も可能である。
また、光源を適宜点滅させて信号を処理することも可能である。
Furthermore, this detection system uses a plurality of light sources and can transmit signals to the signal processing unit in parallel.
Alternatively, it is possible to provide a plurality of light source colors and perform wavelength multiplexing transmission of signals.
It is also possible to process the signal by appropriately blinking the light source.

なお、図1の構成において、フレーム時間差判定部138に記憶装置を接続し、この記憶装置の記憶内容はシステムの終了によって消去されないように構成することも可能である。
この場合、図1の検知システム10が一度終了し再び起動されたときに、たとえば不揮発性メモリ等を用いて終了前の閾値を記憶しておき、再起動時にそれを読み出し閾値の設定を行うことで前回作動時の閾値の更新情報を継承することができる。
In the configuration of FIG. 1, a storage device may be connected to the frame time difference determination unit 138 so that the storage contents of this storage device are not erased when the system is terminated.
In this case, when the detection system 10 in FIG. 1 is once terminated and activated again, a threshold value before termination is stored using, for example, a non-volatile memory, and the threshold value is read out at the time of rebooting and set. In this way, the update information of the threshold value at the previous operation can be inherited.

[第2の実施形態]
次に、本発明に係る第2の実施形態について説明する。
図11は、本発明の実施形態に係る検知システムの他の構成例を示す図である。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described.
FIG. 11 is a diagram illustrating another configuration example of the detection system according to the embodiment of the present invention.

本検知システム10Aは、信号処理部13Aの演算処理部137以降の構成が図1の検知システム10と異なる。
検知システム10Aの信号処理部13Aにおいて、演算処理部137の後段にフレーム時間差判定部138Aが配置され、その出力に対して並列に第1の処理部143および第2の処理部144が接続されている。
第1の処理部143は、フレーム時間差判定部138Aの出力に対して、撮像対象抽出判定部139、第1の映像信号転送エラー判定部140−1、閾値記憶部145が縦続接続されている。
第2の処理部144は、フレーム時間差判定部138Aの出力に対して、第2の映像信号転送エラー判定部140−2、記憶部141、判定部142が縦続接続されている。
第1の転送エラー判定部140−2は、閾値記憶部145の閾値が与えられる。
This detection system 10A is different from the detection system 10 of FIG. 1 in the configuration after the arithmetic processing unit 137 of the signal processing unit 13A.
In the signal processing unit 13A of the detection system 10A, a frame time difference determination unit 138A is disposed after the arithmetic processing unit 137, and the first processing unit 143 and the second processing unit 144 are connected in parallel to the output thereof. Yes.
In the first processing unit 143, an imaging target extraction determination unit 139, a first video signal transfer error determination unit 140-1, and a threshold storage unit 145 are cascade-connected to the output of the frame time difference determination unit 138A.
In the second processing unit 144, a second video signal transfer error determination unit 140-2, a storage unit 141, and a determination unit 142 are cascade-connected to the output of the frame time difference determination unit 138A.
The first transfer error determination unit 140-2 is given the threshold value of the threshold value storage unit 145.

この構成では、フレーム時間差判定部138Aでは図1のフレーム時間差判定部138の処理に加えモード判定を行い、そのモードが閾値の設定であれば第1の処理部143に、被写体検知であれば第2の処理部144に以後の処理を移す。
モードの設定は任意で行うことができる。
第1の映像信号転送エラー判定部140−1では、図2の閾値設定処理のみを行い、第2の映像信号転送エラー判定部140−2では図2のデータ転送状態の判定処理のみを行う。
この構成によれば、映像信号転送エラー判定において映像信号の状態判定処理と閾値の設定処理とを分け任意の処理時間または処理回数閾値の設定処理を行うことで、信頼性の高い閾値での判定かつシステム負荷の少ない被写体検知を行うことができる。
In this configuration, the frame time difference determination unit 138A performs mode determination in addition to the processing of the frame time difference determination unit 138 in FIG. 1. If the mode is set to a threshold value, the first processing unit 143 determines the mode. The subsequent processing is transferred to the second processing unit 144.
The mode can be set arbitrarily.
The first video signal transfer error determination unit 140-1 performs only the threshold setting process in FIG. 2, and the second video signal transfer error determination unit 140-2 performs only the data transfer state determination process in FIG.
According to this configuration, in the video signal transfer error determination, the video signal state determination process and the threshold value setting process are separated, and an arbitrary processing time or processing frequency threshold value setting process is performed. In addition, it is possible to perform subject detection with a small system load.

[第3の実施形態]
次に、本発明に係る第3の実施形態について説明する。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described.

本第3の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース型の撮像装置121をフレーム蓄積、インターレース型の撮像装置に置き換えたものである。また同時に、第1実施形態に係る光源11の輝度の変化周期をフィールド周期の4n倍からフレーム周期の4n倍に変更したものである。この変化周期の変更に伴い、輝度信号の取得もnフィールドごとから2nフィールドごとに輝度信号の取得周期を変更する。
このように、光源11の輝度の変化周期と輝度信号の取得周期を変更することで、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the third embodiment, the field accumulation / interlace imaging device 121 according to the first embodiment is replaced with a frame accumulation / interlace imaging device. At the same time, the luminance change period of the light source 11 according to the first embodiment is changed from 4n times the field period to 4n times the frame period. Accompanying this change in the change period, the luminance signal acquisition period is changed from every n fields to every 2n fields.
As described above, by changing the luminance change cycle of the light source 11 and the luminance signal acquisition cycle, the same effects as those of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

[第4の実施形態]
次に、本発明に係る第4の実施形態について説明する。
[Fourth Embodiment]
Next, a fourth embodiment according to the present invention will be described.

本第4の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース走査型の撮像装置121をフレーム蓄積、ノンインターレース走査型の撮像装置に置き換えたものである。
このように、ノンインターレース走査の撮像装置を用いても、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the fourth embodiment, the field storage and interlace scanning imaging device 121 according to the first embodiment is replaced with a frame storage and non-interlace scanning imaging device.
As described above, even when a non-interlaced scanning imaging apparatus is used, the same effect as that of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

10,10A・・・検知システム、11・・・光源、12・・・撮像部、121・・・撮像装置、122・・・USBインターフェース(I/F)、13・・・信号処理部、131・・・USBI/F、132・・・受信データバッファ部132、133・・・輝度信号抽出部、134・・・フレーム時間差取得部、135・・・第1の演算部(A)、136・・・第2の演算部(B)、137・・・演算処理部(時間平均2乗和演算処理部)、138,138A・・・フレーム時間差判定部、139・・・撮像対象抽出判定部、1140・・・映像信号転送エラー判定部、141・・・記憶部、142・・・判定部、143・・・第1の処理部、144・・・第2の処理部。   DESCRIPTION OF SYMBOLS 10,10A ... Detection system, 11 ... Light source, 12 ... Imaging part, 121 ... Imaging device, 122 ... USB interface (I / F), 13 ... Signal processing part, 131 ... USB I / F, 132 ... Reception data buffer section 132, 133 ... Luminance signal extraction section, 134 ... Frame time difference acquisition section, 135 ... First calculation section (A), 136 .. second calculation unit (B), 137... Calculation processing unit (time average square sum calculation processing unit), 138, 138A... Frame time difference determination unit, 139. DESCRIPTION OF SYMBOLS 1140 ... Video signal transfer error determination part, 141 ... Memory | storage part, 142 ... Determination part, 143 ... 1st process part, 144 ... 2nd process part.

Claims (7)

光源と、
上記光源または上記光源によって照射された被写体を撮像する撮像装置と、撮像素子から取得した信号を送信する第1のインターフェースとを含む撮像部と、
上記撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理部と、を有し、
上記信号処理部は、
上記撮像部から送信される信号を受信する第2のインターフェースと、
上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファ部と、
上記受信バッファ部から出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出部と、
上記信号抽出部が上記受信バッファ部からの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得部と、
上記時間差取得部で取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定部と、
上記信号抽出部から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算部と、
上記演算部の演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定部と、
上記演算部の演算結果により上記光源または光源に照射された被写体の検知を判定する判定部と、
上記時間差判定部および上記撮像対象抽出判定部の判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定部で撮像対象を検知している場合、上記時間差判定部の閾値を当該時間差判定部が求めた閾値に更新する信号転送エラー判定部と、を含む
検知システム。
A light source;
An imaging unit including an imaging device that images the light source or the object irradiated by the light source, and a first interface that transmits a signal acquired from the imaging element;
A signal processing unit that receives a signal transmitted from the imaging unit and performs signal processing on the received signal to detect the state of the subject,
The signal processor is
A second interface for receiving a signal transmitted from the imaging unit;
A reception buffer unit that stores a signal received by the second interface and outputs the signal when it is determined as data;
A signal extraction unit that extracts a signal used for signal processing for detecting the state of the subject from a signal output from the reception buffer unit;
A time difference acquisition unit that calculates a time difference between the current frame and the previous frame when the signal extraction unit receives a signal from the reception buffer unit;
Obtaining a difference value between the time difference acquired by the time difference acquisition unit and a preset threshold, and determining whether the time difference is normal or abnormal; and
The signal is acquired from the signal extraction unit for each predetermined scanning plane period, a time average of the signal level difference is obtained from the signal level difference of the signal between a plurality of different scanning planes, and further, based on the time average value. An arithmetic unit for calculating a sum of squares of time average in
An imaging target extraction determination unit that determines whether an imaging target is detected based on a calculation result of the calculation unit;
A determination unit that determines detection of the light source or a subject irradiated to the light source based on a calculation result of the calculation unit;
In response to the determination results of the time difference determination unit and the imaging target extraction determination unit, when the time difference is abnormal and the imaging target extraction determination unit detects the imaging target, the time difference determination unit determines the threshold value of the time difference determination unit. A signal transfer error determination unit that updates the threshold value obtained by the unit.
上記光源または光源に照射された被写体の検知を判定するための情報として、上記演算部の演算結果を記憶する記憶部を有し、
上記信号転送エラー判定部は、
信号転送が正常に行われている場合、上記記憶部に記憶されている情報を上記演算部の演算結果に更新する
請求項1記載の検知システム。
As information for determining the detection of the light source or the subject irradiated with the light source, a storage unit that stores the calculation result of the calculation unit,
The signal transfer error determination unit is
The detection system according to claim 1, wherein when the signal transfer is normally performed, the information stored in the storage unit is updated to a calculation result of the calculation unit.
上記信号転送エラー判定部は、
転送エラーが発生している場合、上記記憶部の更新は行わない
請求項2記載の検知システム。
The signal transfer error determination unit is
The detection system according to claim 2, wherein the storage unit is not updated when a transfer error occurs.
上記撮像対象抽出判定部は、
上記演算部の演算値が許容範囲内であれば撮像対象を抽出していると判定し、範囲外であれば撮像対象を抽出していないと判定する
請求項1から3のいずれか一に記載の検知システム。
The imaging target extraction determination unit
The determination unit determines that the imaging target is extracted if the calculation value of the calculation unit is within the allowable range, and determines that the imaging target is not extracted if the calculation value is out of the range. Detection system.
上記演算部の後段に上記時間差判定部が配置され、当該時間差判定部の出力に対して並列に第1の処理部および第2の処理部が接続され、
上記第1の処理部は、
記時間差判定部の出力に対して、上記撮像対象抽出判定部、第1の信号転送エラー判定部、閾値記憶部が縦続接続され、
上記第2の処理部は、
記時間差判定部に出力に対して、第2の信号転送エラー判定部、上記記憶部、上記判定部が縦続接続され、
上記第1の信号転送エラー判定部は、上記閾値記憶部の閾値が与えられ、
閾値設定モード時は、上記第1の処理部で処理を行い、
被写体検知モード時は、上記第2の処理部で処理を行う
請求項2または3に記載の検知システム。
Upper Symbol time between difference determination unit in the subsequent stage of the operation portion is disposed, the first processing unit and second processing unit are connected in parallel with the output of those said time difference determining unit,
The first processing unit includes:
The output of the upper Symbol time between difference determination unit, the imaging target extraction judgment unit, transfer error determination section first signal, the threshold storage unit are cascaded,
The second processing unit includes:
The output on SL at between difference determination unit, a second signal transfer error determination unit, the storage unit, the determination unit is cascaded,
The first signal transfer error determination unit is given a threshold value of the threshold value storage unit,
In the threshold setting mode, the first processing unit performs processing,
The detection system according to claim 2 or 3 , wherein in the subject detection mode, processing is performed by the second processing unit.
光源または上記光源によって照射された被写体を撮像素子で撮像し、撮像装置から取得した信号を第1のインターフェースにより送信する撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理ステップを有し、
上記信号処理ステップは、
撮像ステップで送信される信号を第2のインターフェースで受信する受信ステップと、
上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファステップと、
上記受信バッファステップで出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出ステップと、
上記信号抽出ステップで上記受信バッファステップからの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得ステップと、
上記時間差取得ステップで取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定ステップと、
所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算ステップと、
上記演算ステップの演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定ステップと、
上記演算ステップの演算結果により上記光源または光源に照射された被写体の検知を判定する判定ステップと、
上記時間差判定ステップおよび上記撮像対象抽出判定ステップの判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定ステップで撮像対象を検知している場合、上記時間差判定ステップの閾値を当該時間差判定ステップが求めた閾値に更新する信号転送エラー判定ステップと、を含む
検知システムの信号処理方法。
The image sensor captures an image of a light source or a subject illuminated by the light source, receives a signal transmitted from an imaging unit that transmits a signal acquired from the imaging device through a first interface, and performs signal processing on the received signal. A signal processing step for detecting the state of the subject
The signal processing step includes
A reception step of receiving the signal transmitted in the imaging step by the second interface;
A reception buffer step for storing a signal received by the second interface and outputting the signal when it is confirmed as data;
A signal extraction step of extracting a signal used for signal processing for detecting the state of the subject from the signal output in the reception buffer step;
A time difference obtaining step for calculating a time difference between the current frame and the previous frame at the time of receiving the signal from the reception buffer step in the signal extraction step;
Obtaining a difference value between the time difference acquired in the time difference acquisition step and a preset threshold, and determining whether the time difference is normal or abnormal; and
The signal is acquired for each predetermined scanning plane period, a time average of the signal level difference is obtained from the signal level difference of the signal between a plurality of different scanning planes, and the time average of 2 is obtained based on the time average value. A calculation step for obtaining a sum of multipliers;
An imaging target extraction determination step for determining whether an imaging target is detected based on the calculation result of the calculation step;
A determination step of determining detection of the light source or a subject irradiated to the light source based on a calculation result of the calculation step;
In response to the determination results of the time difference determination step and the imaging target extraction determination step, when the time difference is abnormal and the imaging target is detected in the imaging target extraction determination step, the threshold of the time difference determination step is determined as the time difference determination A signal transfer error determination step for updating the threshold to the threshold obtained by the step .
光源または上記光源によって照射された被写体を撮像素子で撮像し、撮像装置から取得した信号を第1のインターフェースにより送信する撮像部から送信される信号を受信し、受信信号に対して信号処理を行って被写体の状態を検知する信号処理を有し、
上記信号処理は、
撮像ステップで送信される信号を第2のインターフェースで受信する受信処理と、
上記第2のインターフェースで受信した信号を格納し、データとして確定すると出力する受信バッファ処理と、
上記受信バッファ処理で出力される信号から上記被写体の状態検知のために信号処理に用いる信号を抽出する信号抽出処理と、
上記信号抽出処理で上記受信バッファ処理からの信号を受信した時点の現フレームと前フレームとの時間差を算出する時間差取得処理と、
上記時間差取得処理で取得した時間差とあらかじめ設定された閾値との差分値を求め、当該時間差が正常であるか異常であるかを判定する時間差判定処理と、
所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに時間平均の2乗和を求める演算処理と、
上記演算処理の演算結果により撮像対象を検知したか否かの判定を行う撮像対象抽出判定処理と、
上記演算処理の演算結果により上記光源または光源に照射された被写体の検知を判定する判定処理と、
上記時間差判定処理および上記撮像対象抽出判定処理の判定結果を受けて、上記時間差が異常で、上記撮像対象抽出判定処理で撮像対象を検知している場合、上記時間差判定処理の閾値を当該時間差判定処理が求めた閾値に更新する信号転送エラー判定処理と、を含む
検知システムの信号処理をコンピュータに実行させるプログラム。
The image sensor captures an image of a light source or a subject illuminated by the light source, receives a signal transmitted from an imaging unit that transmits a signal acquired from the imaging device through a first interface, and performs signal processing on the received signal. Signal processing to detect the state of the subject
The above signal processing
A reception process for receiving the signal transmitted in the imaging step by the second interface;
A reception buffer process for storing a signal received by the second interface and outputting it when it is determined as data;
A signal extraction process for extracting a signal used for signal processing for detecting the state of the subject from the signal output in the reception buffer process;
A time difference acquisition process for calculating a time difference between the current frame and the previous frame at the time of receiving a signal from the reception buffer process in the signal extraction process;
A time difference determination process for determining a difference value between the time difference acquired in the time difference acquisition process and a preset threshold value, and determining whether the time difference is normal or abnormal;
The signal is acquired for each predetermined scanning plane period, a time average of the signal level difference is obtained from the signal level difference of the signal between a plurality of different scanning planes, and the time average of 2 is obtained based on the time average value. An arithmetic process for calculating a sum of multipliers;
An imaging target extraction determination process for determining whether an imaging target is detected based on a calculation result of the calculation process;
A determination process for determining detection of the light source or a subject irradiated to the light source based on a calculation result of the calculation process;
In response to the determination result of the time difference determination process and the imaging target extraction determination process, when the time difference is abnormal and the imaging target is detected by the imaging target extraction determination process, the threshold of the time difference determination process is determined as the time difference determination A program for causing a computer to execute signal processing of a detection system, including signal transfer error determination processing for updating to a threshold obtained by processing .
JP2010127228A 2010-06-02 2010-06-02 Detection system, signal processing method thereof, and program Expired - Fee Related JP5406787B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010127228A JP5406787B2 (en) 2010-06-02 2010-06-02 Detection system, signal processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010127228A JP5406787B2 (en) 2010-06-02 2010-06-02 Detection system, signal processing method thereof, and program

Publications (2)

Publication Number Publication Date
JP2011254328A JP2011254328A (en) 2011-12-15
JP5406787B2 true JP5406787B2 (en) 2014-02-05

Family

ID=45417887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010127228A Expired - Fee Related JP5406787B2 (en) 2010-06-02 2010-06-02 Detection system, signal processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5406787B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5858831B2 (en) * 2012-03-14 2016-02-10 リズム時計工業株式会社 Detection system, signal processing method thereof, and program
CN114305701B (en) * 2022-01-20 2024-01-23 上海微创医疗机器人(集团)股份有限公司 Delay measurement device and method, robot system and computer readable storage medium
CN115530767B (en) * 2022-11-28 2023-03-10 深圳市永吉星光电有限公司 Disposable medical endoscope system and module

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4703547B2 (en) * 2006-11-29 2011-06-15 リズム時計工業株式会社 Detection system
JP4902460B2 (en) * 2007-08-08 2012-03-21 キヤノン株式会社 Image processing apparatus, imaging apparatus, and image processing method
JP5159515B2 (en) * 2008-08-26 2013-03-06 キヤノン株式会社 Image processing apparatus and control method thereof

Also Published As

Publication number Publication date
JP2011254328A (en) 2011-12-15

Similar Documents

Publication Publication Date Title
JP4703547B2 (en) Detection system
TWI344302B (en) Method of processing noise in image data, noise reduction unit, and imaging apparatus
JP4856765B2 (en) Imaging apparatus and flicker detection method
JP4994422B2 (en) Detection system, signal processing method of detection system, and smoke detector
JP2009212909A (en) Solid-state imaging apparatus, flicker detection method for solid-state imaging apparatus, control program, readable recording medium, and electronic information device
JP2009010447A (en) Imaging apparatus and switching method thereof
JP2010074240A (en) Image capturing apparatus and defective pixel detection method
JP5406787B2 (en) Detection system, signal processing method thereof, and program
US20140043502A1 (en) Flicker noise detection apparatus, flicker noise detection method, and computer-readable storage device storing flicker noise detection program
JP2012015780A (en) Detection system, signal processing method therefor, and program
JP5858831B2 (en) Detection system, signal processing method thereof, and program
JP6408932B2 (en) Detection system, signal processing method of detection system, and program
JP5265619B2 (en) Detection system, signal processing method thereof, and program
JP2008252402A (en) Imaging system, imaging method, and imaging program
JP5242470B2 (en) Detection system and signal processing method thereof
EP3131286B1 (en) Image processing device
JP5349405B2 (en) Detection system, signal processing method thereof, and program
CN112219389B (en) Method and apparatus for capturing media using multiple cameras in an electronic device
JP4908939B2 (en) Imaging device
JP2013098995A (en) Operation method of image processor and image processor
JP5349413B2 (en) Detection system, signal processing method thereof, and program
JP5770123B2 (en) Detection system, signal processing method thereof, and program
JP2010198377A (en) Smoke sensor
JP2009253808A (en) Image processor, imaging device, method for processing image and program
JP5839515B2 (en) Detection system, signal processing method thereof, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130430

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131101

R150 Certificate of patent or registration of utility model

Ref document number: 5406787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees