JP2014239554A - Detection system, signal processing method thereof, and program - Google Patents

Detection system, signal processing method thereof, and program Download PDF

Info

Publication number
JP2014239554A
JP2014239554A JP2014196268A JP2014196268A JP2014239554A JP 2014239554 A JP2014239554 A JP 2014239554A JP 2014196268 A JP2014196268 A JP 2014196268A JP 2014196268 A JP2014196268 A JP 2014196268A JP 2014239554 A JP2014239554 A JP 2014239554A
Authority
JP
Japan
Prior art keywords
detection
subject
information
determination
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014196268A
Other languages
Japanese (ja)
Other versions
JP5839515B2 (en
Inventor
淳 藤森
Atsushi Fujimori
淳 藤森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rhythm Watch Co Ltd
Original Assignee
Rhythm Watch Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rhythm Watch Co Ltd filed Critical Rhythm Watch Co Ltd
Priority to JP2014196268A priority Critical patent/JP5839515B2/en
Publication of JP2014239554A publication Critical patent/JP2014239554A/en
Application granted granted Critical
Publication of JP5839515B2 publication Critical patent/JP5839515B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a detection system capable of performing accurate and high-precision detection by making an accurate determination in accordance with peculiar condition setting adaptive to an environment or a place within a detection range, a signal processing method thereof and a program.SOLUTION: The detection system comprises: a state storage section 18 for storing information each having various attribute information in a state of a detection range and including a state change of the attribute; a determination section 16 for performing detection determination processing with an attribute value suitable for an attribute at a position within the detection range by acquiring and referencing the attribute information stored in the state storage section 18; and an object position determination section 17 which searches for a position and a size of an object in all images from detection information obtained by the determination section 16, determines the position of the object including the detection range and is capable of storing detection information including the detection range relating to the object in a position storage section 144. The determination section 16 acquires a response speed value positioned within a predetermined range for a number of a light source and an image included in the attribute information, determines a detection time from the detection response speed value at the acquired position and performs the detection determination processing at a response speed suitable for the position.

Description

本発明は、たとえば、撮像装置等を用いて被写体の状態を検知する検知システムおよびその信号処理方法、プログラムに関するものである。   The present invention relates to a detection system that detects the state of a subject using an imaging device or the like, a signal processing method thereof, and a program, for example.

たとえば、特許文献1に示す夜間の防犯システム等に用いられる撮像装置が提案されている。
この撮像装置は、信号処理部を有し、光源を周波数100Hzまたは120Hz(電源に50Hzまたは60Hzの商用電源を用いた場合、光源はその倍の100Hzまたは120Hzでその明るさが変動する)より高い高周波で変調する。さらに、信号処理部はこの高周波変調信号を検出する検出部を有している。
ただし、この撮像装置はその変調周波数より高いフレームレートを持っている必要がある。
For example, an imaging apparatus used in a nighttime crime prevention system shown in Patent Document 1 has been proposed.
This imaging apparatus has a signal processing unit, and the light source has a frequency higher than 100 Hz or 120 Hz (when a commercial power source of 50 Hz or 60 Hz is used as the power source, the brightness of the light source fluctuates at 100 Hz or 120 Hz that is twice that). Modulate with high frequency. Further, the signal processing unit has a detection unit for detecting the high frequency modulation signal.
However, this imaging apparatus needs to have a frame rate higher than its modulation frequency.

ところで、一般に広く普及している撮像装置はNTSC(National Television Standards Committee)方式またはPAL(Phase Alternating Line)方式と呼ばれる規格が採用されている。
このような規格を採用した撮像装置はフレームレートが遅いため、たとえば特許文献1に示すような防犯システムの撮像装置として使用できない。
By the way, a standard called NTSC (National Television Standards Committee) system or PAL (Phase Alternating Line) system is adopted for imaging apparatuses which are widely spread in general.
Since an image pickup apparatus adopting such a standard has a low frame rate, for example, it cannot be used as an image pickup apparatus for a crime prevention system as shown in Patent Document 1.

そこで、光源または光源に照射された被写体の状態を検知でき、NTSC等の規格を採用した防犯システムに適用可能な検知システムが提案されている(特許文献2参照)。
この検知システムは、光源の周波数成分の被写体の状態を検知する。
Therefore, a detection system that can detect a light source or the state of a subject irradiated with the light source and can be applied to a crime prevention system adopting a standard such as NTSC has been proposed (see Patent Document 2).
This detection system detects the state of the subject of the frequency component of the light source.

特許第3019309号公報Japanese Patent No. 3019309 特開2008−141251号公報JP 2008-141251 A

ところが、上記検知システムは、複数の光源のそれぞれの動体検知範囲の状態において共通パラメータによりその検知状態の取得および閲覧をする検知システムであり、それぞれの動体検知範囲の環境や場所に適応した固有の条件設定による的確な判定が困難であった。
たとえば、地点Aが屋外環境で車両検知用途とし、地点Bが屋内環境で人感検知用途の場合、動体検知範囲の被写体感度や応答速度の検知パラメータに違いがあり、共通のパラメータでは適正は検知が難しい場合がある。
また、1つの動体検知範囲では、動体物の特定が難しく不要物も含めた判定をしてしまう場合があった。
However, the detection system described above is a detection system that acquires and browses the detection state using a common parameter in the state of each moving object detection range of a plurality of light sources, and is unique to each environment and location of each moving object detection range. It was difficult to accurately determine the conditions.
For example, when the point A is used for vehicle detection in an outdoor environment and the point B is used for human detection in an indoor environment, there are differences in the subject sensitivity and response speed detection parameters in the moving object detection range. May be difficult.
Further, in one moving object detection range, it may be difficult to specify moving objects, and determination including unnecessary objects may be made.

本発明は、光源または光源に照射された被写体の状態を検知できることはもとより、動体検知範囲の環境や場所に適応した固有の条件設定による的確な判定が可能で、正確で高精度な検知が可能な検知システムおよびその信号処理方法、プログラムを提供することにある。   In addition to being able to detect the state of the light source or the subject irradiated with the light source, the present invention enables accurate determination with unique condition settings adapted to the environment and location of the moving object detection range, and enables accurate and highly accurate detection. And a signal processing method and program thereof.

本発明の第1の観点の検知システムは、少なくとも一つの光源と、上記光源または上記光源によって照射された被写体を撮像する少なくとも一つの撮像装置と、上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する判定部と、複数の被写体の画像における検知範囲を含む位置に関する情報を記憶可能な位置記憶部と、少なくとも上記検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を記憶する状態記憶部と、上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、上記解析処理部は、上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行い、上記判定部は、上記状態記憶部に記憶されている上記属性情報を取得し参照し、検知範囲の位置における当該属性に適した属性値で検知判定処理を行う。   A detection system according to a first aspect of the present invention performs at least one light source, at least one imaging device that images the light source or a subject irradiated with the light source, and an analysis process on a signal acquired from the imaging device. An analysis processing unit; a determination unit that detects and determines the state of the light source or the subject based on an analysis result of the analysis processing unit; and a position storage unit that can store information about positions including detection ranges in images of a plurality of subjects. A state storage unit that stores various types of attribute information at least in the state of the detection range, stores information including a change in the state of the attribute, and the position of the subject in all images from the detection information obtained by the determination unit. Search the size to determine the position of the subject including the detection range, acquire detection information including the detection range related to the subject, and detect the detection information. A subject position determination unit that can be stored in the position storage unit as information relating to the position, and the analysis processing unit acquires the signal from the imaging device every predetermined scanning plane period, and a plurality of different scanning planes The time average of the signal level difference is obtained from the signal level difference between the signals, and an analysis process is performed to perform a predetermined calculation based on the value of the time average, and the calculation result of the analysis process is sent to the determination unit. And when the detection information is stored in the position storage unit, the analysis processing is selectively performed on the image in the detection position range specified in the detection information. The attribute information stored in the storage unit is acquired and referenced, and detection determination processing is performed with an attribute value suitable for the attribute at the position of the detection range.

本発明の第2の観点の検知システムの信号処理方法は、少なくとも一つの光源または当該光源によって照射された被写体を少なくとも一つの撮像装置で撮像する撮像ステップと、撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する判定ステップと、少なくとも上記検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を状態記憶部に記憶する状態記憶ステップと、上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、上記解析処理ステップにおいて、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含み、上記判定ステップにおいて、上記状態記憶部に記憶されている上記属性情報を取得し参照し、検知範囲の位置における当該属性に適した属性値で検知判定処理を行うステップを含む。   A signal processing method of a detection system according to a second aspect of the present invention includes an imaging step of imaging at least one light source or an object irradiated by the light source with at least one imaging device, and every predetermined scanning plane period from the imaging device. An analysis process for acquiring a signal, calculating a time average of the signal level difference from the signal level difference of the signal between a plurality of different scanning planes, and further performing an analysis process for performing a predetermined calculation based on the value of the time average A step, a determination step of detecting and determining the state of the light source or subject based on the analysis result of the analysis processing step, and information including various attribute information at least in the state of the detection range and including a change in the state of the attribute From the state storage step stored in the state storage unit and the detection information obtained in the determination step, the position of the subject in all images A subject position determining step of searching for a size to determine a position of a subject including a detection range, obtaining detection information including a detection range regarding the subject, and storing the detection information in the position storage unit as information about the position; In the analysis processing step, when the detection information is stored in the position storage unit, the analysis processing is selectively performed on an image in the detection position range specified in the detection information. Including a step, wherein the determination step includes a step of obtaining and referring to the attribute information stored in the state storage unit and performing detection determination processing with an attribute value suitable for the attribute at the position of the detection range.

本発明の第3の観点は、少なくとも一つの光源または当該光源によって照射された被写体を少なくとも一つの撮像装置で撮像する撮像処理と、撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理と、上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する判定処理と、少なくとも上記検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を状態記憶部に記憶する状態記憶処理と、上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、上記解析処理において、上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含み、上記判定処理において、上記状態記憶部に記憶されている上記属性情報を取得し参照し、検知範囲の位置における当該属性に適した属性値で検知判定処理を行う処理を含む検知システムの信号処理をコンピュータに実行させるプログラムである。   According to a third aspect of the present invention, there is provided an imaging process in which at least one light source or a subject irradiated with the light source is imaged by at least one imaging device, a signal is acquired from the imaging device every predetermined scanning plane period, and a plurality of An analysis process for obtaining a time average of the signal level difference from the signal level difference of the signal between different scanning planes, further performing an analysis process for performing a predetermined calculation based on the value of the time average, and an analysis of the analysis process A determination process for detecting and determining the state of the light source or subject according to the result, and a state storage process for storing various attribute information at least in the state of the detection range and storing information including a state change of the attribute in the state storage unit Then, from the detection information obtained in the determination process, the position and size of the subject in all the images are searched to determine the position of the subject including the detection range, and the subject A subject position determination process for acquiring detection information including a detection range relating to the position and storing the detection information in the position storage unit as information on the position. In the analysis process, the detection information is stored in the position storage unit. Is stored in the state storage unit in the determination process, including a process of selectively performing the analysis process on the image in the detection position range specified in the detection information. This is a program that causes a computer to execute signal processing of a detection system including processing for acquiring and referring to attribute information and performing detection determination processing with an attribute value suitable for the attribute in the position of the detection range.

本発明によれば、光源または光源に照射された被写体の状態を検知できることはもとより、動体検知範囲の環境や場所に適応した固有の条件設定による的確な判定をすることができ、正確で高精度な検知を実現することができる。   According to the present invention, not only can the state of the light source or the subject irradiated with the light source be detected, but also accurate determination can be made by setting specific conditions adapted to the environment and location of the moving object detection range, and the accurate and high accuracy Detection can be realized.

本発明の実施形態に係る検知システムの構成例を示す図である。It is a figure which shows the structural example of the detection system which concerns on embodiment of this invention. 本実施形態に係る位置記憶部において保存する情報テーブルの一例を示す図である。It is a figure which shows an example of the information table preserve | saved in the position memory | storage part which concerns on this embodiment. 本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。It is a figure which shows notionally the state before the position determination of the to-be-photographed object in the to-be-photographed object position determination part which concerns on this embodiment, and the state after position determination. 本実施形態に係る被写体位置決定部において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。It is a figure which shows an example of the (x, y) width table information of the detection range referred in order to perform position determination in the to-be-photographed object position determination part which concerns on this embodiment. 本実施形態に係る位置検索情報記憶部に格納される検知情報の一例を示す図である。It is a figure which shows an example of the detection information stored in the position search information storage part which concerns on this embodiment. 本実施形態に係る被写体状態記憶部に格納される属性記述子の一例を示す図である。It is a figure which shows an example of the attribute descriptor stored in the to-be-photographed object state memory | storage part which concerns on this embodiment. 本実施形態に係る被写体状態記憶部に格納されるグループ記述子の一例を示す図である。It is a figure which shows an example of the group descriptor stored in the to-be-photographed object state memory | storage part which concerns on this embodiment. 本実施形態に係る被写体状態記憶部に格納されるグループ連結記述子の一例を示す図である。It is a figure which shows an example of the group connection descriptor stored in the to-be-photographed object state memory | storage part which concerns on this embodiment. 1つの撮像装置(カメラ)で検知したときに位置決定後の検知範囲を示している。The detection range after position determination when detected by one imaging device (camera) is shown. 4つの撮像装置(カメラ)で4画面分割装置を使用したときの位置決定後の検知範囲を示している。The detection range after position determination when a four-screen dividing device is used with four imaging devices (cameras) is shown. それぞれ複数の検知範囲を含む2つのグループに分けて、グループ単位で再判定を行う場合のグループ設定例を示す図である。It is a figure which shows the example of a group setting in the case of dividing into two groups each containing a some detection range, and performing a re-determination in a group unit. それぞれ1または複数の検知範囲を含む3つのグループに分けて、グループ単位で再判定を行う場合のグループ設定例を示す図である。It is a figure which shows the example of a group setting in the case of dividing into three groups each including 1 or a plurality of detection ranges, and performing redetermination in a group unit. 本実施形態に係る被写体位置決定部における基本的な検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行う場合の処理を示す図である。It is a flowchart for demonstrating concretely the basic detection position determination process in the subject position determination unit according to the present embodiment, and is a diagram illustrating a process when the position determination process is performed. 本実施形態に係る被写体位置決定部における検知位置の決定処理を具体的に説明するためのフローチャートであって、位置決定処理を行わない場合の処理を示す図である。It is a flowchart for demonstrating specifically the detection position determination process in the to-be-photographed object position determination part which concerns on this embodiment, Comprising: It is a figure which shows a process when not performing a position determination process. 1つの光源もしくは反射光の被写体の検索法を説明するための図である。It is a figure for demonstrating the search method of the object of one light source or reflected light. 検知範囲の微調整処理を説明するための図である。It is a figure for demonstrating the fine adjustment process of a detection range. 本実施形態に係る検知システムの動作概要を、被写体位置決定処理を中心に説明するためのフローチャート図である。It is a flowchart for demonstrating the operation | movement outline | summary of the detection system which concerns on this embodiment centering on a to-be-photographed object position determination process. 本実施形態に係る検知システムの動作概要を、被写体位置決定処理を中心に説明するためのフローチャート図である。It is a flowchart for demonstrating the operation | movement outline | summary of the detection system which concerns on this embodiment centering on a to-be-photographed object position determination process. 図17の検知感度値を取得し、検知感度を判定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the detection sensitivity value of FIG. 17, and determines a detection sensitivity. 図17の応答速度値を取得し、応答速度値を閾値に設定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the response speed value of FIG. 17, and sets a response speed value to a threshold value. 図17の故障状態を取得し、故障状態を判定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the failure state of FIG. 17, and determines a failure state. 図17のその他ステータスを取得し、その他ステータス状態を判定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the other status of FIG. 17, and determines another status state. 図17のグループ番号情報を取得し、グループ別状態を判定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the group number information of FIG. 17, and determines the state according to group. 図17のグループの連結対象を取得し、グループの連結状態と検知判定する処理を示すフローチャートである。It is a flowchart which shows the process which acquires the connection object of the group of FIG. 17, and detects with the connection state of a group. 本実施形態に係るCCDの構造を説明するための一例を示す図である。It is a figure which shows an example for demonstrating the structure of CCD which concerns on this embodiment. 図25のCCDの時系列を説明するための図である。It is a figure for demonstrating the time series of CCD of FIG. 単板補色フィルタ型CCDの画素の一配列例を示す図である。It is a figure which shows the example of an arrangement | sequence of the pixel of a single plate complementary color filter type CCD. 奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。It is a figure which shows an example of the combination of the color signal in odd field OFD and even field EFD. 本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。It is a timing chart for demonstrating the signal processing method of the luminance signal of the light source analysis process part which concerns on this embodiment. 光源11に含まれる周波数成分についての波形W6を示す図である。It is a figure which shows the waveform W6 about the frequency component contained in the light source. デューティー比Dと2乗和SACBDとの関係の一例を示す図である。It is a figure which shows an example of the relationship between duty ratio D and square sum SACBD.

以下、本発明の実施形態を図面に関連づけて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施形態]
図1は、本発明の実施形態に係る検知システムの構成例を示す図である。
[First Embodiment]
FIG. 1 is a diagram illustrating a configuration example of a detection system according to an embodiment of the present invention.

本検知システム10は、光源11(−1〜−n)、撮像装置12(−1〜−n)、輝度信号抽出部13、光源解析処理部14、フィルタ処理部15、判定部16、被写体位置決定部17、被写体状態記憶部18、グループ関連付け判定部19、および多画面入力分割装置20を有する。なお、図1の例ではnは4である。
光源解析処理部14は、第1の演算部(A)141、第2の演算部(B)142、演算処理部(時間平均2乗和演算処理部)143、および位置記憶部144を有する。
被写体位置決定部17は、位置検索処理部171および位置検索情報記憶部172を有する。
被写体状態記憶部18には、後述する属性記述子Patt[pt]、グループ別記述子Grp[pt]、およびグループ連結記述子GrpCON[g no]が、たとえばテーブルとして記憶される。
The detection system 10 includes a light source 11 (−1 to −n), an imaging device 12 (−1 to −n), a luminance signal extraction unit 13, a light source analysis processing unit 14, a filter processing unit 15, a determination unit 16, and a subject position. A determination unit 17, a subject state storage unit 18, a group association determination unit 19, and a multi-screen input division device 20 are included. Note that n is 4 in the example of FIG.
The light source analysis processing unit 14 includes a first calculation unit (A) 141, a second calculation unit (B) 142, a calculation processing unit (time average square sum calculation processing unit) 143, and a position storage unit 144.
The subject position determination unit 17 includes a position search processing unit 171 and a position search information storage unit 172.
The subject state storage unit 18 includes an attribute descriptor Patt [pt], a group-specific descriptor Grp [pt], and a group connection descriptor GrpCON [g no] is stored as a table, for example.

本検知システム10は、光源または光源に照射された被写体の状態を検知できるシステムである。
本検知システム10は、光源の信号成分から不要な動体物を除去し高精度に複数の被写体の位置と大きさを検知し、被写体位置のそれぞれの範囲を同一撮像装置(カメラ)もしくは、複数の撮像装置(カメラ)で監視して、それぞれの範囲の動体検知をすることが可能である。
さらに、本検知システム10は、それぞれの動体検知範囲の状態において各種属性情報をそれぞれ持ち、その属性の状態変化を記憶する記憶部(メモリ)を有し、その状態変化の状態を取得および参照(閲覧)することが可能である。
その各種属性情報には、応答速度、被写体感度、光源の故障状態、その他ステータス、判定結果等を被写体状態記憶部に記憶できる。
また、それぞれの検知範囲を任意のグループとして関連付け、そのグループ分けした状態を被写体状態記憶部に記憶でき、そのグループ単位で結果判定の条件を指定するパラメータを記憶し、グループ単位で状態の判定、変化を取得、参照(閲覧)することが可能である。
また、グループ化して結果判定するパラメータとして、論理和、論理積による論理演算もしくは、比較演算として=、>、<、≠、もしくは単独による、演算の判定結果を取得し出力することが可能である。
また、本検知システム10は、それぞれのグループ化情報および属性情報をステータス表示する機能を有している。
The detection system 10 is a system that can detect the state of a light source or a subject irradiated with the light source.
The detection system 10 removes unnecessary moving objects from the signal components of the light source, detects the positions and sizes of a plurality of subjects with high accuracy, and sets each range of the subject positions to the same imaging device (camera) or a plurality of subjects. It is possible to detect a moving object in each range by monitoring with an imaging device (camera).
Furthermore, this detection system 10 has various attribute information in the state of each moving object detection range, and has a storage unit (memory) that stores the state change of the attribute, and acquires and references the state change state ( Browsing).
In the various attribute information, response speed, subject sensitivity, light source failure state, other status, determination result, and the like can be stored in the subject state storage unit.
In addition, each detection range can be associated as an arbitrary group, the grouped state can be stored in the subject state storage unit, parameters for specifying a result determination condition in units of the group are stored, state determination in units of groups, Changes can be acquired and referenced (viewed).
In addition, it is possible to obtain and output the operation determination result by logical operation by logical sum, logical product, or comparison operation as =,>, <, ≠, or independently as a parameter for grouping and determining the result. .
Further, the detection system 10 has a function of displaying the status of each grouping information and attribute information.

光源11−1〜11−4は、所定の輝度で被写体を照明する。光源11の輝度は可変であり、撮像装置12が有する撮像素子の電荷蓄積時間内の輝度が、撮像装置12−1〜12−4のフィールド周期の4n倍周期で変化する。ここで、n=1、2、3、…である。   The light sources 11-1 to 11-4 illuminate the subject with a predetermined luminance. The luminance of the light source 11 is variable, and the luminance within the charge accumulation time of the imaging element included in the imaging device 12 changes at a period 4n times the field period of the imaging devices 12-1 to 12-4. Here, n = 1, 2, 3,.

本実施形態に係る検知システム10で使用する撮像装置12−1〜12−4は、以下のような仕様の撮像装置を採用している。
本撮像装置12−1〜12−4を構成する撮像素子は一例として、単板補色フィルタ、フィールド蓄積型インターライン転送CCD(Charge Coupled Device)イメージセンサ(以後、単にCCDと記述する)を用いる。
また、一例として撮像装置12−1〜12−4のテレビジョン方式はNTSC方式、走査方式はインターレースを採用し、走査周波数は水平周波数が15.734KHzで垂直周波数は59.94Hzである。
このような構成の撮像装置12−1〜12−4は、光源11−1〜11−4によって照明された被写体を撮像し、撮像して得た信号を輝度信号抽出部13に出力する。
なお、ここではCCDイメージセンサを例示しているがCMOSイメージセンサも適用可能である。
The imaging devices 12-1 to 12-4 used in the detection system 10 according to the present embodiment employ imaging devices having the following specifications.
As an example of the image pickup elements constituting the image pickup apparatuses 12-1 to 12-4, a single plate complementary color filter and a field accumulation type interline transfer CCD (Charge Coupled Device) image sensor (hereinafter simply referred to as a CCD) are used.
As an example, the television system of the imaging devices 12-1 to 12-4 employs the NTSC system, the scanning system employs interlace, the scanning frequency is 15.734 KHz, and the vertical frequency is 59.94 Hz.
The imaging devices 12-1 to 12-4 having such a configuration images the subject illuminated by the light sources 11-1 to 11-4 and outputs a signal obtained by the imaging to the luminance signal extraction unit 13.
Although a CCD image sensor is illustrated here, a CMOS image sensor can also be applied.

光源11−1からの映像は撮像装置12−1〜12−4により取得され、輝度信号抽出部13によって、輝度信号が抽出される。
複数の撮像装置12−1〜12−4がある場合には、多画面入力分割装置20により1つの映像信号に変換し、輝度信号抽出部13で輝度信号を抽出する。
Images from the light source 11-1 are acquired by the imaging devices 12-1 to 12-4, and a luminance signal is extracted by the luminance signal extraction unit 13.
When there are a plurality of imaging devices 12-1 to 12-4, the multi-screen input division device 20 converts the image signals into one video signal, and the luminance signal extraction unit 13 extracts the luminance signal.

輝度信号抽出部13は、入力された信号から輝度信号を抽出し、この輝度信号を光源解析処理部14の第1の演算部141および第2の演算部142に出力する。
輝度信号抽出部13により抽出される輝度信号は、演算に最適化された信号レベルに調節される。
その信号レベルは、第1の演算部141、第2の演算部142、演算処理部143の出力値においてオーバーフローしない信号レベルである必要がある。そのため、輝度信号抽出部13は、輝度信号レベルを調整する回路を含む。
輝度信号レベルの調整値はいくつかのモードがある場合には、モード切り替えが可能なテーブルをもっていてもかまわない。そのモードはNTSCやPALなどの映像信号規格、撮像装置の周波数モードであってもよい。
The luminance signal extraction unit 13 extracts a luminance signal from the input signal and outputs the luminance signal to the first calculation unit 141 and the second calculation unit 142 of the light source analysis processing unit 14.
The luminance signal extracted by the luminance signal extraction unit 13 is adjusted to a signal level optimized for calculation.
The signal level needs to be a signal level that does not overflow in the output values of the first calculation unit 141, the second calculation unit 142, and the calculation processing unit 143. Therefore, the luminance signal extraction unit 13 includes a circuit that adjusts the luminance signal level.
The adjustment value of the luminance signal level may have a table capable of mode switching when there are several modes. The mode may be a video signal standard such as NTSC or PAL, or a frequency mode of the imaging apparatus.

光源解析処理部14において、第1の演算部141は、入力された輝度信号を撮像素子の同一領域において、m番目と(m+2)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第1の演算部141の出力結果Aは、演算処理部143に出力される。
第2の演算部142は、入力された輝度信号の同一領域において、(m+1)番目と(m+3)番目のフィールドにおける輝度信号のレベル差の時間平均を求める。
この第2の演算部142の出力結果Bは、演算処理部143に出力される。
なお、この第1の演算部141と第2の演算部142の動作の詳細については後述する。
第1の演算部141および第2の演算部142は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
In the light source analysis processing unit 14, the first calculation unit 141 obtains the time average of the level difference of the luminance signal in the m-th and (m + 2) -th fields in the same area of the imaging device.
The output result A of the first calculation unit 141 is output to the calculation processing unit 143.
The second calculation unit 142 obtains a time average of the level difference of the luminance signal in the (m + 1) th and (m + 3) th fields in the same region of the input luminance signal.
The output result B of the second calculation unit 142 is output to the calculation processing unit 143.
The details of the operations of the first calculation unit 141 and the second calculation unit 142 will be described later.
The first calculation unit 141 and the second calculation unit 142 perform calculation processing in accordance with calculation range designation information for analyzing the image stored in the position storage unit 144.

第1の演算部141から出力される出力結果Aと第2の演算部142から出力される出力結果Bは演算処理部143に入力される。
演算処理部143は出力結果の2乗和の値(A+B)を求め、フィルタ処理部15に出力する。
演算処理部143は、位置記憶部144に記憶されている画像を解析する演算範囲の指定情報に従って演算処理を行う。
The output result A output from the first calculation unit 141 and the output result B output from the second calculation unit 142 are input to the calculation processing unit 143.
The arithmetic processing unit 143 obtains a square sum value (A 2 + B 2 ) of the output result and outputs it to the filter processing unit 15.
The arithmetic processing unit 143 performs arithmetic processing according to the calculation range designation information for analyzing the image stored in the position storage unit 144.

位置記憶部144は、たとえば被写体位置決定部17で決定される、光源の信号成分から不要な動体物を除去し高精度に検知された複数の被写体の位置および大きさの検知情報を記憶する。
このように、光源解析処理部14は、第1の演算部141と第2の演算部142の画像解析する演算範囲を指定可能な、位置記憶部144を備える。
位置記憶部144は複数(n)個の位置情報を記憶できる。
そのため、光源解析処理部14の検知処理は光源もしくは光源に照射された被写体の検知において、位置記憶部144で指定する画像の範囲(たとえば範囲 Mn = [x1,y1 - x2,y2])におけるn個分の解析処理を、1フレーム内で処理を行う。
または、1フレームの時間内でn個分の解析処理を行えない場合には、1フレームでの解析処理は1つのnの範囲で行い、その完了後次のフレームから2つ目の範囲の解析処理を順時行う方法でもかまわない。
解析処理により得たn個の指定範囲の画像は光源もしくは光源に照射された被写体があれば、検知画像として取得できる。
光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な検知処理ではなく全体の画像に対する光源解析処理を行う。
The position storage unit 144 stores, for example, detection information on the positions and sizes of a plurality of subjects detected with high accuracy by removing unnecessary moving objects from the signal component of the light source, which is determined by the subject position determination unit 17.
As described above, the light source analysis processing unit 14 includes the position storage unit 144 that can specify a calculation range for image analysis of the first calculation unit 141 and the second calculation unit 142.
The position storage unit 144 can store a plurality (n) pieces of position information.
Therefore, the detection processing of the light source analysis processing unit 14 is performed in the detection of the light source or the subject irradiated with the light source, n in the range of the image specified by the position storage unit 144 (for example, the range Mn = [x1, y1-x2, y2]). One piece of analysis processing is performed within one frame.
Alternatively, if n analysis processes cannot be performed within the time of one frame, the analysis process in one frame is performed in one n range, and after the completion, the analysis in the second range from the next frame is performed. A method of performing processing in order may also be used.
An image in the n designated ranges obtained by the analysis process can be acquired as a detected image if there is a light source or a subject irradiated with the light source.
Since the detection range is not specified in the initial state in which position information or the like is not stored in the position storage unit 144, the light source analysis processing unit 14 performs light source analysis processing on the entire image instead of selective detection processing.

また、位置記憶部144は不揮発性メモリ、もしくは設定ファイルであった場合、停電時などにも影響なく検知位置を復帰できる。また、被写体位置決定を行うか否かを選択するフラグを有する。
また、位置記憶部144の一部は揮発性メモリを有し、一時記憶用に利用できる。
位置記憶部144は、たとえば被写体の位置座標、大きさ、被写体の周波数検知感度(信号レベル)、被写体個別番号等の情報を保存する機能を有する。
Further, when the position storage unit 144 is a nonvolatile memory or a setting file, the detection position can be restored without being affected by a power failure. In addition, it has a flag for selecting whether or not to determine the subject position.
A part of the position storage unit 144 has a volatile memory and can be used for temporary storage.
The position storage unit 144 has a function of saving information such as the position coordinates and size of the subject, the frequency detection sensitivity (signal level) of the subject, the subject individual number, and the like.

図2は、本実施形態に係る位置記憶部144において保存する情報テーブルの一例を示す図である。   FIG. 2 is a diagram illustrating an example of an information table stored in the position storage unit 144 according to the present embodiment.

図2において、「No」は被写体の個別番号を示す。「x,y」は被写体の開始位置座標を示し、「xe,ye」は被写体の終了位置座標を示す。「n」は被写体の数に対応した番号を示す。「level」は被写体の周波数感度である信号レベル(信号強度)を示す。
このテーブルTBL1の例では、「No.1」の被写体は、開始位置座標が「10,10」、終了位置座標が「20,20」の1番目の被写体であり、その信号レベルは相対的に「40」である。
「No.2」の被写体は、開始位置座標が「30,30」、終了位置座標が「50,60」の2番目の被写体であり、その信号レベルは相対的に「43」である。
「No.3」の被写体は、開始位置座標が「100,100」、終了位置座標が「120,120」の3番目の被写体であり、その信号レベルは相対的に「50」である。
「No.4」の被写体は、開始位置座標が「300,300」、終了位置座標が「325,315」の4番目の被写体であり、その信号レベルは相対的に「60」である。
In FIG. 2, “No” indicates the individual number of the subject. “X, y” indicates the start position coordinates of the subject, and “xe, ye” indicates the end position coordinates of the subject. “N” indicates a number corresponding to the number of subjects. “Level” indicates a signal level (signal intensity) which is frequency sensitivity of the subject.
In this example of the table TBL1, the subject of “No. 1” is the first subject with the start position coordinates “10, 10” and the end position coordinates “20, 20”, and the signal level is relatively high. “40”.
The subject of “No. 2” is the second subject whose start position coordinates are “30, 30” and end position coordinates are “50, 60”, and its signal level is relatively “43”.
The “No. 3” subject is the third subject whose start position coordinates are “100, 100” and end position coordinates are “120, 120”, and its signal level is relatively “50”.
The subject of “No. 4” is the fourth subject having a start position coordinate of “300, 300” and an end position coordinate of “325, 315”, and its signal level is relatively “60”.

以上のように、本実施形態の光源解析処理部14では、複数の被写体の位置に関する情報を記憶できるメモリである位置記憶部144を備え、その位置記憶部144に被写体位置を示す画像領域の座標値と被写体番号等の、被写体の検知情報をもつ。
光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標が存在する場合は、その座標で指定される検知位置範囲の画像を解析(検知)する機能を有している。
位置記憶部144への検知情報の記憶は被写体位置決定部17で行う。
As described above, the light source analysis processing unit 14 of the present embodiment includes the position storage unit 144 that is a memory that can store information on the positions of a plurality of subjects, and the position storage unit 144 has coordinates of an image area that indicates the subject position. It has subject detection information such as value and subject number.
The light source analysis processing unit 14 has a function of analyzing (detecting) an image in the detection position range specified by the coordinates when the detection position coordinates stored in the position storage unit 144 exist.
The subject position determination unit 17 stores the detection information in the position storage unit 144.

光源解析処理部14は、たとえば図示しない制御系により指定されるあるいは位置記憶部144の検知情報の有無に応じて自動的に切り替わる2つのモード、具体的には全画素検知モードと被写体位置検知モードで動作可能である。
全画素検知モードでは、光源解析処理部14は、位置記憶部144に位置情報等が記憶されていない初期状態においては検知範囲が指定されないことから、選択的な解析処理ではなく全体の画像に対する光源解析処理を行う。
この全画素検知モードにおける検知結果に基づいて、後述する被写体位置決定部17で、複数の被写体の位置に関する情報が検知されて、この検知情報が位置記憶部144に記憶される。
たとえばこの検知情報が位置記憶部144に記憶されると、光源解析処理部14は、全画素検知モードから被写体位置検知モードに切り替わる。
被写体位置検知モードでは、光源解析処理部14は、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の画像を解析(検知)する。
この光源解析処理部14を有することから、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
The light source analysis processing unit 14 is, for example, two modes that are designated by a control system (not shown) or automatically switched according to the presence or absence of detection information in the position storage unit 144, specifically, an all-pixel detection mode and a subject position detection mode. It is possible to operate with.
In the all-pixel detection mode, the light source analysis processing unit 14 does not specify a detection range in the initial state where position information or the like is not stored in the position storage unit 144. Perform analysis processing.
Based on the detection result in the all-pixel detection mode, the subject position determination unit 17 described later detects information regarding the positions of a plurality of subjects, and the detection information is stored in the position storage unit 144.
For example, when this detection information is stored in the position storage unit 144, the light source analysis processing unit 14 switches from the all-pixel detection mode to the subject position detection mode.
In the subject position detection mode, the light source analysis processing unit 14 analyzes (detects) an image in the detection position range specified by the coordinates based on the detection position coordinates and the like stored in the position storage unit 144.
Since the light source analysis processing unit 14 is provided, the detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. Is also effective and can be detected with high accuracy.

フィルタ処理部15は、上述した初期状態時には、全体の画像をフィルタ処理によりノイズ低減を行い判定部16に出力する。
フィルタ処理部15は、光源解析処理部14におけるn個の検知画像をフィルタ処理によりノイズ低減や検知されなかった部分の消去を行い判定部16に出力する。
フィルタ処理部15は、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、被写体感度値(位置記憶部で指定する画像の範囲Mnに位置する)からその位置の被写体感度値に適した被写体の閾値判定処理を行う。この閾値はノイズ除去の閾値に相当する。
In the initial state described above, the filter processing unit 15 performs noise reduction on the entire image by filter processing and outputs the noise to the determination unit 16.
The filter processing unit 15 performs noise reduction on the n detected images in the light source analysis processing unit 14 or eliminates a portion that has not been detected by the filter processing, and outputs the result to the determination unit 16.
The filter processing unit 15 is suitable for the subject sensitivity value at the position from the subject sensitivity value (located in the image range Mn specified by the position storage unit) included in the attribute descriptor Patt [pt] of the subject state storage unit 18. Subject threshold determination processing is performed. This threshold corresponds to a noise removal threshold.

上述した初期状態においては、判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減された全体画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する(検知状態を判定する)。なお、この判定部16の動作の詳細については後述する。
判定部16は、演算処理部143から出力され、フィルタ処理部15でノイズ低減や検知されなかった部分が消去された検知画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかを判定する(検知状態を判定する)。なお、この判定部16の動作の詳細については後述する。
判定部16は、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、応答速度値(位置記憶部で指定する画像の範囲Mnに位置する)からその位置の検知応答速度値に適した応答速度で検知判定処理を行う。
判定部16は、被写体状態記憶部18に記憶されているグループ情報(グループ別記述子Grp[pt]、グループ連結記述子GrpCON[g no])を取得し、そのグループ情報に従ってグループ単位で再判定可能である。
In the above-described initial state, the determination unit 16 is output from the arithmetic processing unit 143 and based on the square sum value (A 2 + B 2 ) of the entire image that has been reduced in noise by the filter processing unit 15. For example, it is determined whether the subject imaged in (1) is stationary or moving (determining the detection state). Details of the operation of the determination unit 16 will be described later.
Based on the square sum value (A 2 + B 2 ) of the detected image that is output from the arithmetic processing unit 143 and from which the filter processing unit 15 has eliminated noise and has not been detected, the determination unit 16 For example, it is determined whether the subject imaged at 12 is stationary or moving (detection state is determined). Details of the operation of the determination unit 16 will be described later.
The determination unit 16 is suitable for the detected response speed value of the position from the response speed value (located in the image range Mn specified by the position storage unit) included in the attribute descriptor Patt [pt] of the subject state storage unit 18. The detection judgment process is performed at the response speed.
The determination unit 16 includes group information (group-specific descriptor Grp [pt], group connection descriptor GrpCON [g] stored in the subject state storage unit 18. no]) and can be re-determined in units of groups according to the group information.

被写体位置決定部17は、判定部16にて得られた検知状態から、全画像の中から被写体の位置を検索する位置検索処理部171、および位置検索処理部171の位置検索結果を格納する位置検索情報記憶部172を有する。   The subject position determination unit 17 stores the position search processing unit 171 that searches for the position of the subject from all the images from the detection state obtained by the determination unit 16 and the position search result of the position search processing unit 171. A search information storage unit 172 is included.

図3(A)および(B)は、本実施形態に係る被写体位置決定部における被写体の位置決定前と位置決定後の状態を概念的に示す図である。
図3(A)に示すように、位置決定前の被写体OBJ1,OBJ2が検索され、検索結果から図3(B)に示すように、矩形の枠DTRG1,DTRG2に示す範囲に被写体OBJ1,OBJ2の位置が決定され、その範囲が光源解析処理部14の解析対象および判定部16の検知対象となる。
この位置決定後の範囲等の検知情報[pt]は、光源解析処理部14の位置記憶部144に格納される。本実施形態においては、上述したようにその範囲の検知のみ行うことが可能な被写体位置検知モードと全画像を対象とする全画像検知モードを持つ。
たとえば、特定の位置の被写体のみを検知することが必要な用途では、位置記憶部144に格納された範囲の被写体位置検知モードで動作させる。
その場合、上述したように、特定の位置を設定するために被写体位置決定部17により、最初に被写体対象位置を検索し位置記憶部144に格納し、以降は記憶された位置の検知のみ行うという利用に応用できる。
FIGS. 3A and 3B are diagrams conceptually showing states before and after the position of a subject in the subject position determination unit according to the present embodiment.
As shown in FIG. 3A, the subjects OBJ1 and OBJ2 before position determination are searched, and as shown in FIG. 3B, the subjects OBJ1 and OBJ2 are within the range shown by the rectangular frames DTRG1 and DTRG2 as shown in FIG. The position is determined, and the range becomes the analysis target of the light source analysis processing unit 14 and the detection target of the determination unit 16.
The detection information [pt] such as the range after the position determination is stored in the position storage unit 144 of the light source analysis processing unit 14. In the present embodiment, as described above, there are a subject position detection mode in which only the detection of the range is possible and an all image detection mode for all images.
For example, in an application where it is necessary to detect only a subject at a specific position, the operation is performed in the subject position detection mode in the range stored in the position storage unit 144.
In that case, as described above, in order to set a specific position, the subject position determination unit 17 first searches the subject target position and stores it in the position storage unit 144, and thereafter only the detection of the stored position is performed. Applicable to use.

被写体位置決定部17は、被写体の大きさから検知範囲を決定する。
被写体位置決定部17において、検知範囲の決定には、検知範囲DTRGの(x,y)幅が1つのみの固定の場合の第1のモードと、(x,y)幅を、被写体の大きさを測定し(x,y)幅をあらかじめ用意した複数のテーブルから現在の(x、y)幅を超えた(もしくは以下になった)大きさのテーブル値の検知範囲DTRGを選択する第2のモードとの2つのモードがある。
検知範囲DTRGの(x,y)幅テーブルは、たとえば位置検索情報記憶部172に格納される。
被写体位置決定部17は、第1のモードと第2のモードのいずれかを選択でき、これらの機能を有する構成となる。
この検知範囲を被写体の大きさをあらかじめ用意したテーブルから判定して検知範囲を決定するモードにより、被写体の大きさと位置を高速に検知することができる。
The subject position determination unit 17 determines the detection range from the size of the subject.
In the subject position determination unit 17, the detection range is determined using the first mode when the (x, y) width of the detection range DTRG is fixed to one and the (x, y) width according to the size of the subject. Second, a table value detection range DTRG having a size exceeding (or below) the current (x, y) width is selected from a plurality of tables prepared in advance with a (x, y) width. There are two modes:
The (x, y) width table of the detection range DTRG is stored in the position search information storage unit 172, for example.
The subject position determination unit 17 can select either the first mode or the second mode, and has a configuration having these functions.
This detection range is determined from a table in which the size of the subject is prepared in advance and the detection range is determined, so that the size and position of the subject can be detected at high speed.

図4は、本実施形態に係る被写体位置決定部17において位置決定を行うために参照する検知範囲の(x,y)幅テーブル情報の一例を示す図である。   FIG. 4 is a diagram illustrating an example of (x, y) width table information of the detection range referred to for position determination in the subject position determination unit 17 according to the present embodiment.

図4において、「No」は被写体の検知範囲の(x,y)幅情報の番号を示す。「x,y」は被写体の検知範囲DTRGの大きさ情報を示し、sBlkは検索ブロック数(画素数)を示す。
この(x,y)幅テーブルTBL2の例では、「No.1」の検知範囲DTRGは「10×10」でブロック数が「2」の場合である。
「No.2」の検知範囲DTRGは「30×30」でブロック数が「4」の場合である。
「No.3」の検知範囲DTRGは「100×100」でブロック数が「8」の場合である。
「No.4」の検知範囲DTRGは「300×300」でブロック数が「12」の場合である。
被写体位置決定部17の位置検索処理部171は、この(x,y)幅テーブルTBL2を参照し、たとえば「No」の小さい方から昇順に、あるいは「No」の大きい方から降順にサーチして、対象被写体に最も適した検知範囲を決定する。
In FIG. 4, “No” indicates the number of (x, y) width information of the subject detection range. “X, y” indicates the size information of the object detection range DTRG, and sBlk indicates the number of search blocks (number of pixels).
In the example of the (x, y) width table TBL2, the detection range DTRG of “No. 1” is “10 × 10” and the number of blocks is “2”.
The detection range DTRG of “No. 2” is “30 × 30” and the number of blocks is “4”.
The detection range DTRG of “No. 3” is “100 × 100” and the number of blocks is “8”.
The detection range DTRG of “No. 4” is “300 × 300” and the number of blocks is “12”.
The position search processing unit 171 of the subject position determination unit 17 refers to the (x, y) width table TBL2, and searches, for example, in ascending order from the smaller “No” or in descending order from the larger “No”. The detection range most suitable for the target subject is determined.

また、被写体位置決定部17は、被写体の大きさから検知範囲DTRGを微調整することが可能に構成される。
検知範囲の微調整は、検知範囲DTRG(x,y)が決定した状態から、あらかじめ用意した微調整値テーブルもしくは微調整式[x1=x * sP1 , y1=y * sP2]により検知範囲の(x,y)幅を微調整する機能を有する構成となる。
ここでは、「sP1」、「sP2」は調整用パラメータで、たとえば1<sP1,sP2<2の値をとる。
この機能により、通常検知範囲内で検知可能な被写体に小さな揺れや移動が発生しても、被写体の範囲から外れることなく検知することができる。
特に、被写体が光源の場合は効果的である。
The subject position determination unit 17 is configured to be able to finely adjust the detection range DTRG from the size of the subject.
For fine adjustment of the detection range, from the state where the detection range DTRG (x, y) is determined, the fine adjustment value table prepared in advance or the fine adjustment formula [x1 = x * sP1, y1 = y * sP2] x, y) The configuration has a function of finely adjusting the width.
Here, “sP1” and “sP2” are adjustment parameters and take values of, for example, 1 <sP1, sP2 <2.
With this function, even if a small shake or movement occurs in a subject that can be detected within the normal detection range, it can be detected without departing from the subject range.
This is particularly effective when the subject is a light source.

このように、被写体位置決定部17は、位置検索処理部171において判定部16にて得た検知状態から、全画像の中から被写体の位置を検索し、その位置検索結果を位置検索情報記憶部172に格納する。これにより、被写体の位置が決定される。   As described above, the subject position determination unit 17 searches for the position of the subject from all the images based on the detection state obtained by the determination unit 16 in the position search processing unit 171, and the position search result is stored in the position search information storage unit. Stored in 172. Thereby, the position of the subject is determined.

被写体位置決定部17により、光源もしくは光源に照射された被写体位置の1つの検知情報ptはM[pt]として位置検索情報記憶部172に複数もつ。   The subject position determination unit 17 has a plurality of pieces of detection information pt of the light source or the subject position irradiated on the light source in the position search information storage unit 172 as M [pt].

図5は、本実施形態に係る位置検索情報記憶部に格納される検知情報の一例を示す図である。
位置検索情報記憶部172において、検知情報M[pt]は、0番から順に検知範囲 に関する位置情報[(x1,y1) - (x2,y2)]が格納される。
FIG. 5 is a diagram illustrating an example of detection information stored in the position search information storage unit according to the present embodiment.
In the position search information storage unit 172, as the detection information M [pt], position information [(x1, y1) − (x2, y2)] regarding the detection range is stored in order from No. 0.

本実施形態の検知システム10は、それぞれの検知範囲の状態において各種属性をそれぞれ持ち、その属性の状態変化を記憶する被写体状態記憶部18を有し、その状態変化の状態を、フィルタ処理部15および判定部16が、取得および参照(閲覧)することが可能である。
その各種属性には、応答速度、被写体感度、光源の故障状態、その他ステータス、判定結果等を被写体状態記憶部18に記憶できる。
また、本実施形態の検知システム10では、それぞれの検知範囲を任意のグループとして関連付け、そのグループ分けした状態を被写体状態記憶部18に記憶でき、そのグループ単位で結果判定の条件を指定するパラメータを記憶し、グループ単位で状態の判定、変化を取得、参照(閲覧)することが可能である。
また、グループ化して結果判定するパラメータとして、論理和、論理積による論理演算もしくは、比較演算として=、>、<、≠、もしくは単独による、演算の判定結果を取得し出力することが可能である。
また、本検知システム10は、それぞれのグループ化情報および属性情報を図示しない表示系にステータス表示する機能を有している。
The detection system 10 of the present embodiment has various attributes in the state of each detection range, and has a subject state storage unit 18 that stores the state change of the attribute, and the state change state is indicated by the filter processing unit 15. And the determination part 16 can acquire and refer (browse).
As the various attributes, response speed, subject sensitivity, light source failure status, other statuses, determination results, and the like can be stored in the subject status storage unit 18.
Further, in the detection system 10 of the present embodiment, each detection range is associated as an arbitrary group, the grouped state can be stored in the subject state storage unit 18, and a parameter for specifying a result determination condition for each group is set. It is possible to memorize and acquire and refer to (view) state determination and change in units of groups.
In addition, it is possible to obtain and output the operation determination result by logical operation by logical sum, logical product, or comparison operation as =,>, <, ≠, or independently as a parameter for grouping and determining the result. .
Further, the detection system 10 has a function of displaying the status of each grouping information and attribute information on a display system (not shown).

被写体位置決定部17は、その位置検索情報記憶部172に格納される検知情報M[pt]に関連付けて、被写体状態記憶部18に、検知情報ptに対して検知情報pt固有の属性記述子Patt[pt]を設定する(格納する)。   The subject position determination unit 17 associates the detection information M [pt] stored in the position search information storage unit 172 with the attribute descriptor Patt specific to the detection information pt in the subject state storage unit 18 with respect to the detection information pt. [Pt] is set (stored).

図6は、本実施形態に係る被写体状態記憶部に格納される属性記述子の一例を示す図である。
属性記述子Patt[pt]は、図6に示すように、応答速度(RV)、検知感度(DS)、故障状態(TS)、その他ステータス(現在の状況を記憶しその状態を通知するステータスSTS)、判定結果(検知結果を通知する判定結果DRST)を含む。
FIG. 6 is a diagram illustrating an example of the attribute descriptor stored in the subject state storage unit according to the present embodiment.
As shown in FIG. 6, the attribute descriptor Patt [pt] includes a response speed (RV), a detection sensitivity (DS), a failure state (TS), and other statuses (status STS for storing the current status and notifying the status) ), A determination result (determination result DRST for notifying the detection result).

被写体状態記憶部18に格納される属性記述子Patt[pt]は、フィルタ処理部15の判定処理、および判定部16における検知状態の判定処理に参照される。
このように、本実施形態の第1処理において、光源もしくは光源に照射された被写体の位置検知において、1つの検知範囲となる検知情報において、固有の検知情報を持つ。これにより、複数の検知範囲でそれぞれ個別の検知パラメータにより検知条件を設定し検知状態を通知できる。このため、その検知範囲の設置環境や検知対象に最適な条件を設定して検知判定結果を得られるため、目的に応じた正確で高精度な検知結果を提供するという効果がある。
The attribute descriptor Patt [pt] stored in the subject state storage unit 18 is referred to in the determination process of the filter processing unit 15 and the detection state determination process of the determination unit 16.
As described above, in the first process of the present embodiment, the detection information that is one detection range in the position detection of the light source or the subject irradiated with the light source has unique detection information. As a result, detection conditions can be set and notification of detection states can be set by individual detection parameters in a plurality of detection ranges. For this reason, since the detection determination result can be obtained by setting the optimum conditions for the installation environment and the detection target of the detection range, there is an effect of providing an accurate and highly accurate detection result according to the purpose.

被写体位置決定部17は、光源もしくは光源に照射された被写体位置の1つの検知情報ptに対し被写体状態記憶部18に検知情報pt固有のグループ別記述子Grp[pt]を設定する(格納する)。   The subject position determination unit 17 sets (stores) a group-specific descriptor Grp [pt] unique to the detection information pt in the subject state storage unit 18 for one detection information pt of the light source or the subject position irradiated on the light source. .

図7は、本実施形態に係る被写体状態記憶部に格納されるグループ別記述子の一例を示す図である。
グループ別記述子Grp[pt]は、図7に示すように、グループ番号(ptが属するグループGRPN)、演算情報(グループに属するメンバーの演算式OPR)、判定結果(グループメンバーの属性記述子の判定結果に対する演算結果による判定結果ORST)を含む。
FIG. 7 is a diagram showing an example of the group-specific descriptor stored in the subject state storage unit according to the present embodiment.
As shown in FIG. 7, the group-specific descriptor Grp [pt] includes a group number (group GRPN to which pt belongs), operation information (operation expression OPR of a member belonging to the group), and determination result (group member attribute descriptor). A determination result ORST) based on a calculation result for the determination result.

被写体状態記憶部18に格納されるグループ別記述子Grp[pt]は、判定部16における検知状態の判定処理に参照される。
このように、本実施形態の第2処理において、光源もしくは光源に照射された被写体の位置検知において、1つの検知範囲となる検知情報において、第1処理で得た複数の光源位置の判定結果をグループ化して、判定する。これにより、複数の検知範囲による条件設定ができ、設置環境や検知対象に最適な検知判定結果が得られるため、目的に応じた正確で高精度な検知結果を提供するという効果がある。
The group-specific descriptor Grp [pt] stored in the subject state storage unit 18 is referred to in the detection state determination process in the determination unit 16.
As described above, in the second process of the present embodiment, the detection results of the plurality of light source positions obtained in the first process are obtained in the detection information that is one detection range in the position detection of the light source or the subject irradiated to the light source. Group and judge. Thereby, conditions can be set by a plurality of detection ranges, and an optimum detection determination result can be obtained for the installation environment and the detection target. Therefore, there is an effect of providing an accurate and highly accurate detection result according to the purpose.

被写体位置決定部17は、光源もしくは光源に照射された被写体位置の1つの検知情報ptに対し被写体状態記憶部18に検知情報pt固有のグループ別記述子Grp[pt]を連結する場合のグループ連結記述子GrpCON[g no]を設定する(格納する)。
なお、グループの関連付けの判定処理は、グループ関連付け判定部19において行われる。
The subject position determination unit 17 connects the group-specific descriptor Grp [pt] unique to the detection information pt to the subject state storage unit 18 for one detection information pt of the light source or the subject position irradiated to the light source. Descriptor GrpCON [g no] is set (stored).
The group association determination process is performed in the group association determination unit 19.

図8は、本実施形態に係る被写体状態記憶部に格納されるグループ連結記述子の一例を示す図である。
グループ連結記述子GrpCON[g no]は、図8に示すように、グループ番号(ptが属するグループGRPN)毎に、演算情報(グループに属するメンバーの演算式OPR)、判定結果(グループメンバーの属性記述子の判定結果に対する演算結果による判定結果ORST)、連結数(CTN)、連結グループ番号(CGRPN)を含む。
FIG. 8 is a diagram illustrating an example of the group connection descriptor stored in the subject state storage unit according to the present embodiment.
Group connection descriptor GrpCON [g no], as shown in FIG. 8, for each group number (group GRPN to which pt belongs), operation information (operation expression OPR of a member belonging to the group), determination result (operation for the determination result of the attribute descriptor of the group member) The result includes a determination result ORST), the number of connections (CTN), and a connection group number (CGRPN).

被写体状態記憶部18に格納されるグループ連結記述子GrpCON[g no]は、判定部16における検知状態の判定処理に参照される。 Group connection descriptor GrpCON [g stored in the subject state storage unit 18 no] is referred to in the detection state determination process in the determination unit 16.

ここで、被写体位置決定部17における位置決定後の範囲について説明する。   Here, the range after position determination in the subject position determination unit 17 will be described.

被写体位置決定部17における位置決定後の検知範囲は、たとえば図9や図10で示す範囲が検知対象となる。
図9は、1つの撮像装置(カメラ)で検知したときに位置決定後の検知範囲を示している。
図10は、4つの撮像装置(カメラ)で4画面分割装置を使用したときの位置決定後の検知範囲を示している。
The detection range after the position determination by the subject position determination unit 17 is, for example, the range shown in FIGS. 9 and 10.
FIG. 9 shows a detection range after position determination when detection is performed by one imaging device (camera).
FIG. 10 shows a detection range after position determination when a four-screen dividing device is used with four imaging devices (cameras).

本実施形態の検知システムは、特徴的な第1処理として、図9または図10に示すような取得した位置決定後の検知範囲において、位置決定後の検知判定に固有の属性パラメータ(応答速度、被写体感度、光源の故障状態、各種ステータス、判定結果等)を付加する。これにより、本実施形態は、光源に対する検知位置を個別に調整して検知判定できる高精度な検知システムを提供することが可能である。   In the detection system of the present embodiment, as a characteristic first process, in the acquired detection range after position determination as shown in FIG. 9 or FIG. 10, attribute parameters (response speed, Subject sensitivity, light source failure status, various statuses, determination results, etc.). Thereby, this embodiment can provide the highly accurate detection system which can adjust and detect the detection position with respect to a light source separately.

たとえば、図9は通常の検知範囲を想定した概念図であり、光源11−1〜11−4の検知範囲の位置や面積は個別に設定できるが、光源11−1〜11−4はいずれも応答速度は同一であり、被写体の感度も同一である。
そのため、図9の概念図では高精度な検知判定が可能である。
本実施形態によれば、図10の例のように、光源までの距離や光源の周辺の明るさがそれぞれ異なる。たとえば光源11−1は夜間専用、光源11−2は屋外、光源11−3は屋内、光源11−4は薄暗い室内である。
このような場合や検知応答速度、たとえば光源11−1は人物検出、光源11−2は停止車両検出、光源11−3は荷物検出、光源11−4は人物検出において、それぞれ最適な検知応答速度が異なるため、不要な検知判定が含まれず、最適な目標物の判定結果が期待できる。
For example, FIG. 9 is a conceptual diagram assuming a normal detection range, and the positions and areas of the detection ranges of the light sources 11-1 to 11-4 can be individually set. The response speed is the same, and the sensitivity of the subject is also the same.
Therefore, highly accurate detection determination is possible in the conceptual diagram of FIG.
According to the present embodiment, as in the example of FIG. 10, the distance to the light source and the brightness around the light source are different. For example, the light source 11-1 is dedicated to nighttime, the light source 11-2 is outdoors, the light source 11-3 is indoors, and the light source 11-4 is dark room.
In such cases and detection response speeds, for example, the light source 11-1 is the person detection, the light source 11-2 is the stop vehicle detection, the light source 11-3 is the luggage detection, and the light source 11-4 is the person detection optimum detection response speed. Therefore, an unnecessary detection determination is not included, and an optimal target determination result can be expected.

本実施形態は、特徴的な第2処理として、図11や図12に示すように、取得した位置決定後の検知範囲において、位置決定後の各それぞれの光源に対する検知判定を行った後、グループ単位で再判定が可能な検知システムを実現している。
図11は、それぞれ複数の検知範囲を含む2つのグループに分けて、グループ単位で再判定を行う場合のグループ設定例を示している。
図12は、それぞれ1または複数の検知範囲を含む3つのグループに分けて、グループ単位で再判定を行う場合のグループ設定例を示している。
In this embodiment, as a characteristic second process, as shown in FIG. 11 and FIG. 12, in the acquired detection range after position determination, detection determination for each light source after position determination is performed, and then the group A detection system that can be re-determined in units is realized.
FIG. 11 shows a group setting example in which redetermination is performed on a group basis by dividing into two groups each including a plurality of detection ranges.
FIG. 12 shows a group setting example in which redetermination is performed in units of groups divided into three groups each including one or a plurality of detection ranges.

グループ単位での検知判定は、たとえば図11に示すグループAの2つの光源11−1,11−3において、両方同時に検知結果が遮断判定となる論理積演算(AND)判定により、2つの光源で重なる検知物の形や大きさを指定した判定ができる。
また、グループBでは論理和演算(OR)により、どちらか片方の光源の遮断で判定できるため、グループ内への侵入物への条件設定が可能となる。
すなわち、グループに属する光源の数を任意に指定して検知対象となる場所や環境に応じ、検知条件を設定でき目標物の検知が高精度に判定できる。
For example, in the group-unit detection determination, the two light sources 11-1 and 11-3 shown in FIG. Judgment can be made by specifying the shape and size of overlapping objects.
Further, in group B, determination can be made by blocking one of the light sources by a logical sum operation (OR), so that it is possible to set conditions for an intruder in the group.
That is, the number of light sources belonging to the group can be arbitrarily specified, and detection conditions can be set according to the location and environment to be detected, and detection of the target can be determined with high accuracy.

本実施形態に係る被写体位置決定部17における基本的な検知位置の決定処理、および位置決定後の検知判定に固有の属性パラメータを適用する具体的な第1および第2処理について説明する。   A basic detection position determination process in the subject position determination unit 17 according to the present embodiment, and specific first and second processes for applying an attribute parameter specific to detection determination after position determination will be described.

まず、本実施形態に係る被写体位置決定部17における基本的な検知位置の決定処理を、図13〜図16に関連付けて具体的に説明する。
図13および図14は、本実施形態に係る被写体位置決定部17における基本的な検知位置の決定処理を具体的に説明するためのフローチャートであって、図13は位置決定処理を行う場合のフローチャートであり、図14は位置決定処理を行わない場合のフローチャートである。
図15は、1つの光源もしくは反射光の被写体の検索法を説明するための図である。
図16は、検知範囲の微調整処理を説明するための図である。
以下の処理は位置検索処理部171が中心に行うことになるが、ここでは、被写体位置決定部17の処理として説明する。
First, basic detection position determination processing in the subject position determination unit 17 according to the present embodiment will be specifically described with reference to FIGS.
FIGS. 13 and 14 are flowcharts for specifically explaining the basic detection position determination process in the subject position determination unit 17 according to the present embodiment, and FIG. 13 is a flowchart for performing the position determination process. FIG. 14 is a flowchart when the position determination process is not performed.
FIG. 15 is a diagram for explaining a method of searching for a subject of one light source or reflected light.
FIG. 16 is a diagram for explaining the detection range fine adjustment processing.
The following processing is performed mainly by the position search processing unit 171. Here, the processing will be described as processing by the subject position determination unit 17.

被写体位置決定部17は、位置決定処理を行うか否かを判定する(ST1)。
被写体位置決定部17は、ステップST1において位置決定処理を行うと判定すると、位置検索情報記憶部172に格納されている(x,y)幅テーブルTBL2を参照してサーチ(調査)することにより検知範囲DTRGの(x,y)幅を決定する(ST2)。
そして、被写体位置決定部17は、たとえば光源解析処理部14の検知位置メモリとしての位置記憶部144における検知位置に関する情報の記憶領域をクリアする(ST3)。
次に、被写体位置決定部17は、検知範囲DTRGの(x,y)幅で対象周波数のブロック数を調査する(ST4)。
The subject position determination unit 17 determines whether or not to perform position determination processing (ST1).
When the subject position determination unit 17 determines that the position determination process is to be performed in step ST1, the subject position determination unit 17 performs detection (search) with reference to the (x, y) width table TBL2 stored in the position search information storage unit 172. The (x, y) width of the range DTRG is determined (ST2).
Then, the subject position determination unit 17 clears a storage area of information regarding the detection position in the position storage unit 144 as a detection position memory of the light source analysis processing unit 14, for example (ST3).
Next, the subject position determination unit 17 investigates the number of blocks of the target frequency with the (x, y) width of the detection range DTRG (ST4).

ステップST4における処理を図15および図16に関連付けて説明する。
被写体位置決定部17は、図15(A)〜(D)に示すような方法で、(x,y)幅テーブルTBL2を参照して、1つの光源もしくは反射光の被写体の検索を行う。
まず、図15(A)に示すように、検索の最小単位を1ブロックBLKとする。
図15(A)には、縦×横の検索ピクセルspixの例として2×2の場合が示されている。
一つのブロックの検知強度は全ピクセルの総和を2×2で除した値となる。
ここで、検索を開始する。
The process in step ST4 will be described with reference to FIGS.
The subject position determination unit 17 searches for a subject of one light source or reflected light by referring to the (x, y) width table TBL2 by a method as shown in FIGS.
First, as shown in FIG. 15A, the minimum unit of search is set to one block BLK.
FIG. 15A shows a 2 × 2 case as an example of a vertical × horizontal search pixel spix.
The detection intensity of one block is a value obtained by dividing the sum of all pixels by 2 × 2.
Here, the search is started.

図15(B)に示すように、1回の横ラインLLNの検索処理を行う。
この場合、検索ブロックsBlk=2であり、2×2ブロックを横ライン(x方向)LLNに検索する。
検索ブロックsBlkが2の場合、縦(y)2、横(x)2であることから、検出したブロック数をカウントする。
ブロックBLKの符号2,3,4で示されたブロックで検出できていればカウント値は3となる。
被写体位置決定部17は、検索ブロック数sBlkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsBlkを参照して処理を繰り返す。
検知した横ラインLLNの情報を位置検索情報記憶部172に記憶する。
被写体位置決定部17は、上記処理を2×2ブロック毎に全横ライン検索する。
次に、1回の縦ラインの検索処理を行う。
As shown in FIG. 15B, one horizontal line LLN search process is performed.
In this case, the search block sBlk = 2, and the 2 × 2 block is searched in the horizontal line (x direction) LLN.
When the search block sBlk is 2, since it is vertical (y) 2 and horizontal (x) 2, the number of detected blocks is counted.
If the block BLK is detected by the blocks indicated by reference numerals 2, 3, and 4, the count value is 3.
In the case of a table in which the number of search blocks sBlk is large, the subject position determination unit 17 repeats the process with reference to the next number sBlk in the detection range table until the count value becomes 1.
Information on the detected horizontal line LLN is stored in the position search information storage unit 172.
The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, one vertical line search process is performed.

図15(C)に示すように、1回の縦ラインVLNの検索処理を行う。
被写体位置決定部17は、位置検索情報記憶部172に記憶している横ラインLLNの検知ライン中から、縦方向に検索ブロック数sBlkで示されるブロック幅で検索を行う。
検索方法は横ラインLLNの検索と同様であり、検索ブロック数sBlkが大きくなるテーブルの場合、カウント値が1になるまで、検知範囲テーブルの次の番号のsBlkを参照して処理を繰り返す。
検知した縦ラインVLNを位置検索情報記憶部172に記憶する
被写体位置決定部17は、上記処理を2×2ブロック毎に全縦ライン検索する。
次に、検知範囲DTRGの検索処理を行う。
As shown in FIG. 15C, one vertical line VLN search process is performed.
The subject position determination unit 17 searches the detection line of the horizontal line LLN stored in the position search information storage unit 172 with a block width indicated by the number of search blocks sBlk in the vertical direction.
The search method is the same as the search of the horizontal line LLN. In the case of a table in which the number of search blocks sBlk is large, the process is repeated with reference to the next number sBlk in the detection range table until the count value becomes 1.
The detected vertical line VLN is stored in the position search information storage unit 172. The subject position determination unit 17 searches the entire process for every 2 × 2 blocks in the above process.
Next, a search process for the detection range DTRG is performed.

図15(D)に示すように、検知範囲DTRGの検索処理を行う。
上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
次に検知範囲DTRGの決定処理を行う。
この場合も上記処理から横ラインLLNと縦ラインVLNで検知できた連続する縦横ブロックを1つの範囲とする。
その範囲のブロックの検出強度の総和平均値を求める。
そして、被写体位置決定部17は、検知範囲[(x,y)−(xe,ye)]DTRGを決定する。
そして、決定範囲に微調整用パラメータsP1,sP2の倍率で微調整する。
なお、以上の処理は、複数の光源でも同時に行うことが可能である。
As shown in FIG. 15D, the detection process of the detection range DTRG is performed.
A continuous vertical and horizontal block detected by the horizontal line LLN and the vertical line VLN from the above processing is defined as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Next, the detection range DTRG is determined.
Also in this case, continuous vertical and horizontal blocks that can be detected by the horizontal line LLN and the vertical line VLN from the above processing are set as one range.
The total average value of the detection intensities of the blocks in the range is obtained.
Then, the subject position determination unit 17 determines the detection range [(x, y) − (xe, ye)] DTRG.
Then, fine adjustment is performed within the determination range with the magnification of the fine adjustment parameters sP1 and sP2.
The above processing can be performed simultaneously with a plurality of light sources.

被写体位置決定部17は、図16(A)〜(F)に示すような方法で、検知範囲DTRGの微調整処理を行う。
被写体位置決定部17は、各決定範囲において、検知強度の範囲微調整は各検知範囲毎に4方向もしくは8方向に検知強度を調査し、最も検知強度の高い場所で最終決定する。
この例では、図16(B)で1ブロック上の検知強度を調査し、図16(C)で1ブロック右の検知強度を調査し、図16(D)で1ブロック下の検知強度を調査し、図16(E)で1ブロック左の検知強度を調査する。
そして、図16(F)で、最も検知強度の高い場所で最終的な検知範囲DTRGを決定する。
換言すれば、検知範囲DTRGのほぼ中央部に被写体OBJが位置する場所を最終的な検知範囲DTRGとして決定する。
The subject position determination unit 17 performs fine adjustment processing of the detection range DTRG by a method as shown in FIGS.
The subject position determination unit 17 finely adjusts the detection intensity in each determination range, investigates the detection intensity in four directions or eight directions for each detection range, and finally determines the detection intensity in a place with the highest detection intensity.
In this example, the detection intensity on one block is investigated in FIG. 16 (B), the detection intensity on one block right is examined in FIG. 16 (C), and the detection intensity below one block is examined in FIG. 16 (D). Then, the detected intensity on the left of one block is investigated in FIG.
Then, in FIG. 16F, a final detection range DTRG is determined at a place with the highest detection intensity.
In other words, the place where the subject OBJ is located at substantially the center of the detection range DTRG is determined as the final detection range DTRG.

ステップST4において対象周波数のブロック数を調査した後、被写体位置決定部17は、対象周波数のブロック数が0より大きいか否かの判定を行う(ST5)。
ステップST5で対象周波数のブロック数が0より大きいと判定すると、被写体位置決定部17は、光源解析処理部14の位置記憶部144へ検索して得た検知位置情報を記憶する(ST6)。
そして、位置記憶部144のテーブルTBL1の番号「No」を+1する(ST7)。
被写体位置決定部17は、次の検知範囲DTRG(x,y)を指定する(ST8)。
被写体位置決定部17は、ステップST5で対象周波数のブロック数が0であると判定すると、ステップST6,ST7の処理を行わず、ステップST8の処理に移行する。
被写体位置決定部17は、対象画像の検知が完了するまで(ST9)、ステップST4〜ST8の処理を繰り返す。
ステップST8において、対象画像の検知が完了すると、位置記憶部144の検知位置情報から(x,y)方向に連続する番号のエリアを統合し(ST10)、検知位置の数を取得する(ST11)。
After examining the number of blocks of the target frequency in step ST4, the subject position determination unit 17 determines whether or not the number of blocks of the target frequency is greater than 0 (ST5).
If it is determined in step ST5 that the number of blocks of the target frequency is greater than 0, the subject position determination unit 17 stores the detected position information obtained by searching the position storage unit 144 of the light source analysis processing unit 14 (ST6).
Then, the number “No” in the table TBL1 of the position storage unit 144 is incremented by 1 (ST7).
The subject position determination unit 17 designates the next detection range DTRG (x, y) (ST8).
If the subject position determination unit 17 determines in step ST5 that the number of blocks of the target frequency is 0, the process proceeds to step ST8 without performing steps ST6 and ST7.
The subject position determination unit 17 repeats the processes of steps ST4 to ST8 until the detection of the target image is completed (ST9).
In step ST8, when the detection of the target image is completed, areas with numbers consecutive in the (x, y) direction are integrated from the detected position information in the position storage unit 144 (ST10), and the number of detected positions is acquired (ST11). .

被写体位置決定部17は、ステップST1において位置決定処理を行わないと判定すると、図14のステップST12からの処理に移行する。
被写体位置決定部17は、位置記憶部144から指定番号を取得する(ST12)。
ここで、被写体位置決定部17は、指定番号があるか否かを判定する(ST13)。
ステップST13において指定番号があると判定すると、被写体位置決定部17は、指定番号から位置記憶部144の検知範囲DTRGの(x,y)幅情報を取得し(ST14)、検知範囲DTRGの被写体の状態を検知(検索)する(ST15)。
そして、位置記憶部114のテーブルTBL1の番号「No」を+1する(ST16)。
被写体位置決定部17は、対象画像の検知が完了するまで(ST17)、ステップST14〜ST16の処理を繰り返す。
被写体位置決定部17は、ステップST13において指定番号がないと判定すると、ステップST14〜ST17の処理は行わず、全画素の被写体の状態を検知(検索)する(ST18)。
If the subject position determination unit 17 determines not to perform the position determination process in step ST1, the subject position determination unit 17 proceeds to the process from step ST12 in FIG.
The subject position determination unit 17 acquires the designated number from the position storage unit 144 (ST12).
Here, the subject position determination unit 17 determines whether or not there is a designated number (ST13).
If it is determined in step ST13 that there is a designated number, the subject position determining unit 17 acquires (x, y) width information of the detection range DTRG in the position storage unit 144 from the designated number (ST14), and the subject in the detection range DTRG is obtained. A state is detected (searched) (ST15).
Then, the number “No” in the table TBL1 of the position storage unit 114 is incremented by 1 (ST16).
The subject position determination unit 17 repeats the processes of steps ST14 to ST16 until the detection of the target image is completed (ST17).
If the subject position determination unit 17 determines that there is no designated number in step ST13, the subject position determination unit 17 detects (searches) the subject states of all pixels without performing the processing of steps ST14 to ST17 (ST18).

次に、本実施形態に係る検知システムの一連の動作を図17〜図24に関連付けて説明する。
まず、検知システムにおける被写体位置決定処理を中心に説明する。
その後、被写体状態記憶部18に設定される検知情報pt固有の属性記述子Patt[pt]、グループ別記述子Grp[pt]、およびグループ連結記述子GrpCON[g no]を参照するフィルタ処理部15のフィルタ処理、並びに判定部16の検知状態の判定処理を中心に説明する。
Next, a series of operations of the detection system according to the present embodiment will be described with reference to FIGS.
First, the subject position determination process in the detection system will be mainly described.
Thereafter, the attribute descriptor Patt [pt] specific to the detection information pt set in the subject state storage unit 18, the group-specific descriptor Grp [pt], and the group connection descriptor GrpCON [g no] will be described focusing on the filter processing of the filter processing unit 15 and the detection state determination processing of the determination unit 16.

図17は、本実施形態に係る検知システムの動作概要を、被写体位置決定処理を中心に説明するためのフローチャート図である。   FIG. 17 is a flowchart for explaining an outline of the operation of the detection system according to the present embodiment, focusing on subject position determination processing.

まず、撮像装置12の電荷蓄積時間内の光源11の輝度を撮像装置12のフィールド周期の4n倍で変化させる(ST21)。
次に、撮像装置12からフィールド単位でnフィールド毎に輝度信号抽出部13で輝度信号を取得し(ST22)、この輝度信号を第1の演算部141と第2の演算部142に出力する。
第1の演算部141にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACを求める。また、第2の演算部142にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDを求める(ST23)。
これら時間平均SACとSBDは演算処理部143に出力される。
次いで、演算処理部143にて時間平均SACとSBDの2乗和SACBDが求められ(ST24)、フィルタ処理部15を介して判定部16に出力される。
判定部16にて2乗和SACBDの値に応じて、被写体の状態が判定される(ST25)。その判定結果が被写体位置決定部17に供給される。
被写体位置決定部17において、被写体位置を決定するか否かが判定される(ST26)。
ここで、被写体位置を決定するときは、被写体位置決定部17では被写体の状態を検知して検知位置に関する情報が取得され(ST27)、検知位置情報が光源解析処理部14の位置記憶部144に記憶される。
被写体位置の決定を行わないときは、被写体位置決定部17では、位置記憶部144に保存済み位置情報から指定位置(指定番号)が取得され(ST28)、指定位置の被写体の状態が検知される(ST29)。
そして、光源解析処理部14においてステップST23およびST24を行うに際し、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の一または複数の画像を解析(検知)が行われる。
この光源解析処理部14の処理により、本検知システム10は、光源もしくは光源に照射された被写体の位置だけ検知することができ、被写体として除外する位置は検知しないため、高速かつ対ノイズ性にも効果があり、高精度に検知できる。
First, the luminance of the light source 11 within the charge accumulation time of the imaging device 12 is changed by 4n times the field period of the imaging device 12 (ST21).
Next, a luminance signal is acquired by the luminance signal extraction unit 13 every n fields in the field unit from the imaging device 12 (ST22), and this luminance signal is output to the first calculation unit 141 and the second calculation unit 142.
The first arithmetic unit 141 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. Further, the second arithmetic unit 142 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields (ST23).
These time averages SAC and SBD are output to the arithmetic processing unit 143.
Subsequently, the arithmetic processing unit 143 obtains the square sum SACBD of the time average SAC and SBD (ST24), and outputs it to the determination unit 16 via the filter processing unit 15.
The determination unit 16 determines the state of the subject according to the value of the square sum SACBD (ST25). The determination result is supplied to the subject position determination unit 17.
The subject position determination unit 17 determines whether or not to determine the subject position (ST26).
Here, when the subject position is determined, the subject position determination unit 17 detects the state of the subject and acquires information regarding the detection position (ST27), and the detected position information is stored in the position storage unit 144 of the light source analysis processing unit 14. Remembered.
When the subject position is not determined, the subject position determination unit 17 acquires the specified position (specified number) from the position information stored in the position storage unit 144 (ST28), and detects the state of the subject at the specified position. (ST29).
Then, when performing steps ST23 and ST24 in the light source analysis processing unit 14, based on the detection position coordinates stored in the position storage unit 144, one or more images of the detection position range specified by the coordinates are obtained. Analysis (detection) is performed.
By this processing of the light source analysis processing unit 14, the present detection system 10 can detect only the position of the light source or the subject irradiated with the light source, and does not detect the position excluded as the subject. It is effective and can be detected with high accuracy.

また、被写体位置決定部17においては、その位置検索情報記憶部172に格納される検知情報M[pt]に関連付けて、被写体状態記憶部18に、検知情報ptに対して検知情報pt固有の属性記述子Patt[pt]が設定される。
また、被写体位置決定部17においては、光源もしくは光源に照射された被写体位置の1つの検知情報ptに対し被写体状態記憶部18に検知情報pt固有のグループ別記述子Grp[pt]が設定される。
また、被写体位置決定部17においては、光源もしくは光源に照射された被写体位置の1つの検知情報ptに対し被写体状態記憶部18に検知情報pt固有のグループ別記述子Grp[pt]を連結する場合のグループ連結記述子GrpCON[g no]が設定される。
Further, the subject position determination unit 17 associates the detection information pt with the detection information pt in the subject state storage unit 18 in association with the detection information M [pt] stored in the position search information storage unit 172. Descriptor Patt [pt] is set.
In the subject position determination unit 17, a group-specific descriptor Grp [pt] unique to the detection information pt is set in the subject state storage unit 18 for one detection information pt of the light source or the subject position irradiated to the light source. .
In addition, in the subject position determination unit 17, a group-specific descriptor Grp [pt] specific to the detection information pt is connected to the subject state storage unit 18 for one detection information pt of the light source or the subject position irradiated to the light source. Group connection descriptor GrpCON [g no] is set.

なお、本実施形態に係る演算処理部143では、時間平均SACとSBDとの2乗和SACBDを求めるが、時間平均SACとSBDとの和(SAC+SBD)を判定部16での判定基準に用いることもできる。 In the arithmetic processing unit 143 according to the present embodiment, the square sum SACBD of the time average SAC and SBD is obtained, and the sum of the time average SAC and SBD (S AC + S BD ) is determined by the determination unit 16. It can also be used.

次に、被写体状態記憶部18に設定される検知情報pt固有の属性記述子Patt[pt]、グループ別記述子Grp[pt]、およびグループ連結記述子GrpCON[g no]を参照するフィルタ処理部15のフィルタ処理、並びに判定部16の検知状態の判定処理を中心に、図18〜図24に関連付けて説明する。
以下では、図17の処理のように、検出位置決定は行われて検出位置メモリとしての位置記憶部144に複数の被写体の位置に関する検知情報が格納されているものとする。
Next, the attribute descriptor Patt [pt] specific to the detection information pt set in the subject state storage unit 18, the group descriptor Grp [pt], and the group connection descriptor GrpCON [g No] will be described with reference to FIGS. 18 to 24, focusing on the filtering process of the filter processing unit 15 and the determination process of the detection state of the determination unit 16.
In the following, it is assumed that detection position determination is performed and detection information regarding the positions of a plurality of subjects is stored in the position storage unit 144 serving as a detection position memory, as in the process of FIG.

図18は、本実施形態に係る検知システムの動作概要を、被写体位置決定処理を中心に説明するためのフローチャート図である。
図19は、図17の検知感度値を取得し、検知感度を判定する処理を示すフローチャートである。
図20は、図17の応答速度値を取得し、応答速度値を閾値に設定する処理を示すフローチャートである。
図21は、図17の故障状態を取得し、故障状態を判定する処理を示すフローチャートである。
図22は、図17のその他ステータスを取得し、その他ステータス状態を判定する処理を示すフローチャートである。
図23は、図17のグループ番号情報を取得し、グループ別状態を判定する処理を示すフローチャートである。
図24は、図17のグループの連結対象を取得し、グループの連結状態と検知判定する処理を示すフローチャートである。
FIG. 18 is a flowchart for explaining an outline of the operation of the detection system according to the present embodiment, focusing on subject position determination processing.
FIG. 19 is a flowchart showing a process for acquiring the detection sensitivity value of FIG. 17 and determining the detection sensitivity.
FIG. 20 is a flowchart showing a process of acquiring the response speed value of FIG. 17 and setting the response speed value as a threshold value.
FIG. 21 is a flowchart showing processing for acquiring the failure state of FIG. 17 and determining the failure state.
FIG. 22 is a flowchart showing processing for acquiring the other status of FIG. 17 and determining the other status state.
FIG. 23 is a flowchart showing a process for acquiring the group number information of FIG. 17 and determining the state by group.
FIG. 24 is a flowchart illustrating a process of acquiring the group connection target of FIG. 17 and detecting and determining the group connection state.

まず、撮像装置12の電荷蓄積時間内の光源11の輝度を撮像装置12のフィールド周期の4n倍で変化させる(ST31)。
次に、撮像装置12からフィールド単位でnフィールド毎に輝度信号抽出部13で輝度信号を取得し(ST32)、この輝度信号を第1の演算部141と第2の演算部142に出力する。
光源解析処理部14では、検知位置情報が光源解析処理部14の位置記憶部144に記憶されている。そして、光源解析処理部14においてステップST23およびST24を行うに際し、その位置記憶部144に記憶されている検知位置座標等に基づいて、その座標で指定される検知位置範囲の一または複数の画像を解析(検知)が行われる(ST33)。
具体的には検知位置範囲において、上述したように、第1の演算部141にて、m番目と(m+2)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差ACの時間平均SACを求める。また、第2の演算部142にて、(m+1)番目と(m+3)番目のフィールドの投影領域REGにおける輝度信号レベルのレベル差BDの時間平均SBDを求める(ST34)。
これら時間平均SACとSBDは演算処理部143に出力される。
次いで、演算処理部143にて時間平均SACとSBDの2乗和SACBDが求められ(ST35)、フィルタ処理部15に出力される。
First, the luminance of the light source 11 within the charge accumulation time of the imaging device 12 is changed by 4n times the field period of the imaging device 12 (ST31).
Next, a luminance signal is acquired by the luminance signal extraction unit 13 every n fields in the field unit from the imaging device 12 (ST32), and the luminance signal is output to the first calculation unit 141 and the second calculation unit 142.
In the light source analysis processing unit 14, the detected position information is stored in the position storage unit 144 of the light source analysis processing unit 14. Then, when performing steps ST23 and ST24 in the light source analysis processing unit 14, based on the detection position coordinates stored in the position storage unit 144, one or more images of the detection position range specified by the coordinates are obtained. Analysis (detection) is performed (ST33).
Specifically, in the detection position range, as described above, the first arithmetic unit 141 obtains the time average SAC of the level difference AC of the luminance signal level in the projection area REG of the mth and (m + 2) th fields. . Further, the second arithmetic unit 142 obtains the time average SBD of the level difference BD of the luminance signal level in the projection area REG of the (m + 1) th and (m + 3) th fields (ST34).
These time averages SAC and SBD are output to the arithmetic processing unit 143.
Next, the arithmetic processing unit 143 obtains the square sum SACBD of the time average SAC and SBD (ST35) and outputs the result to the filter processing unit 15.

フィルタ処理部15では、光源解析処理部14におけるn個の検知画像をフィルタ処理によりノイズ低減や検知されなかった部分の消去が行われ判定部16に出力される。
このときフィルタ処理部15は、光源(被写体)の番号ptを取得し、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、被写体感度値(位置記憶部で指定する画像の範囲Mnに位置する)を取得する。そして、フィルタ処理部15においては、その位置の被写体感度値に適した被写体の閾値判定処理が行われる(ST36)。これにより、ノイズ低減が図られる。
ステップST36において、フィルタ処理部15では、図19に示すように、検知感度が閾値より大きいか否かの判定が行われ(ST361)、大きい場合には遮断物(被写体)がないものとして閾値判定結果が1に設定され(ST362)、大きくない場合に遮断物(被写体)があって閾値判定結果が0に設定される(ST363)。
The filter processing unit 15 performs noise reduction on the n detected images in the light source analysis processing unit 14 or eliminates a portion that has not been detected, and outputs the detected image to the determination unit 16.
At this time, the filter processing unit 15 acquires the number pt of the light source (subject), and includes the subject sensitivity value (image range Mn specified by the position storage unit) included in the attribute descriptor Patt [pt] of the subject state storage unit 18. To get to). Then, the filter processing unit 15 performs subject threshold determination processing suitable for the subject sensitivity value at that position (ST36). Thereby, noise reduction is achieved.
In step ST36, as shown in FIG. 19, the filter processing unit 15 determines whether or not the detection sensitivity is greater than the threshold value (ST361). The result is set to 1 (ST362), and when it is not large, there is an obstruction (subject) and the threshold determination result is set to 0 (ST363).

判定部16においては、演算処理部143から出力され、フィルタ処理部15でノイズ低減や検知されなかった部分が消去された検知画像の2乗和の値(A+B)に基づいて、撮像装置12によって撮像された被写体が、たとえば、静止あるいは動作しているかが判定される(検知状態が判定される)。
このとき、判定部16においては、光源(被写体)の番号ptが取得され、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、応答速度値(位置記憶部で指定する画像の範囲Mnに位置する)が取得される。そして、判定部16では、取得したその位置の検知応答速度値から検知時間を決定して、その位置に適した応答速度で検知判定処理が行われる(ST37)。
ステップST37において、判定部16では、図20に示すように、応答速度値テーブルから速度カウンタの値が取得され(ST371)、遮断発生カウント値が速度カウンタの値より大きいか否かの判定が行われる(ST372)。
遮断発生カウント値が速度カウンタの値より大きくない場合、遮断物(被写体)がないものとして、遮断発生カウント値はそのままに保持(+0)されて(ST373)、遮断判定結果として0が設定される(ST374)。
遮断発生カウント値が速度カウンタの値より大きい場合、遮断物(被写体)があるものとして、遮断位置情報が取得され(ST375)、遮断発生カウント値がクリアされ(ST376)、遮断判定結果として1が設定される(ST377)。
In the determination unit 16, imaging is performed based on the value of the square sum (A 2 + B 2 ) of the detected image output from the arithmetic processing unit 143 and from which noise reduction or a portion that has not been detected by the filter processing unit 15 is deleted. It is determined whether the subject imaged by the device 12 is stationary or moving, for example (detection state is determined).
At this time, the determination unit 16 acquires the light source (subject) number pt and is included in the attribute descriptor Patt [pt] of the subject state storage unit 18 (the range of the image specified by the position storage unit). Is located). Then, the determination unit 16 determines a detection time from the acquired detection response speed value of the position, and performs detection determination processing at a response speed suitable for the position (ST37).
In step ST37, as shown in FIG. 20, the determination unit 16 acquires the value of the speed counter from the response speed value table (ST371), and determines whether or not the interruption occurrence count value is larger than the value of the speed counter. (ST372).
When the interruption occurrence count value is not larger than the value of the speed counter, it is assumed that there is no obstruction (subject), the interruption occurrence count value is maintained as it is (+0) (ST373), and 0 is set as the interruption determination result. (ST374).
When the interruption occurrence count value is larger than the value of the speed counter, the interruption position information is acquired assuming that there is an obstruction (subject) (ST375), the interruption occurrence count value is cleared (ST376), and 1 as the interruption determination result. It is set (ST377).

次に、判定部16においては、光源(被写体)の番号ptが取得され、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、故障状態が取得されて、その情報を基に故障状態が判定される(ST38)。
ステップST38において、判定部16では、図21に示すように、故障が状態値のものと等しいか否かの判定が行われ(ST381)、等しい場合には故障であるとして1が設定され(ST382)、等しくない場合は正常であるとして0が設定される(ST383)。
Next, the determination unit 16 obtains the number pt of the light source (subject), obtains the failure state included in the attribute descriptor Patt [pt] of the subject state storage unit 18, and breaks down based on the information. The state is determined (ST38).
In step ST38, as shown in FIG. 21, the determination unit 16 determines whether or not the failure is equal to that of the state value (ST381), and if equal, 1 is set as a failure (ST382). If they are not equal, 0 is set as normal (ST383).

次に、判定部16においては、光源(被写体)の番号ptが取得され、被写体状態記憶部18の属性記述子Patt[pt]に含まれる、他のステータスが取得されて、その情報を基に他のステータス状態が判定される(ST39)。
ステップST39において、判定部16では、図22に示すように、ステータスと状態値が比較され(ST391)、状態1の場合には状態1の処理が行われ(ST392)、状態2の場合には状態2の処理が行われる(ST393)。
Next, the determination unit 16 obtains the number pt of the light source (subject), obtains another status included in the attribute descriptor Patt [pt] of the subject state storage unit 18, and based on the information. Another status state is determined (ST39).
In step ST39, as shown in FIG. 22, the determination unit 16 compares the status and the state value (ST391). In the case of the state 1, the processing of the state 1 is performed (ST392). Processing in state 2 is performed (ST393).

そして、判定部16では、光源番号の判定結果が取得される(ST40)。
以上が、被写体状態記憶部18における属性記述子Patt[pt]を参照しての判定処理である。
And the determination part 16 acquires the determination result of a light source number (ST40).
The determination processing with reference to the attribute descriptor Patt [pt] in the subject state storage unit 18 has been described above.

次に、判定部16においては、光源(被写体)の番号ptが取得され、被写体状態記憶部18のグループ別記述子Grp[pt]に含まれる、グループ番号情報が取得され、その情報を基にグループ別状態が判定される(ST41)。
ステップST41において、判定部16では、図23に示すように、グループ番号を0として(ST411)、グループ判定が終了したか否かが判定される(ST412)。
判定が終了していない場合には、判定部16では、このグループ番号が存在するか否かが判定され(ST413)。
グループ番号が存在する場合、判定部16では、グループ番号の演算情報を被写体状態記憶部18から取得し(ST414)、このグループ番号に属する光源番号の判定結果すべてに対して論理演算が行われる(ST415)。
これにより、判定部16では、このグループ番号の判定結果が取得され(ST416)、グループ番号が+1され(ST417)、ステップST412の処理に戻る。
また、ステップST413で、今設定されているグループ番号が存在しない場合には、ステップST417の処理に移行してグループ番号が+1され、ステップST412の処理から行われる。
Next, the determination unit 16 obtains the number pt of the light source (subject), obtains group number information included in the group-specific descriptor Grp [pt] in the subject state storage unit 18, and based on the information. A state by group is determined (ST41).
In step ST41, as shown in FIG. 23, the determination unit 16 sets the group number to 0 (ST411), and determines whether the group determination is completed (ST412).
If the determination is not completed, determination section 16 determines whether or not this group number exists (ST413).
When the group number exists, the determination unit 16 acquires the calculation information of the group number from the subject state storage unit 18 (ST414), and performs a logical operation on all the determination results of the light source numbers belonging to this group number (STEP 414). ST415).
Thereby, the determination unit 16 acquires the determination result of this group number (ST416), increments the group number by 1 (ST417), and returns to the process of step ST412.
If the currently set group number does not exist in step ST413, the process proceeds to step ST417, and the group number is incremented by 1, and the process starts from step ST412.

そして、判定部16では、グループ別の判定結果が取得される(ST42)。
以上が、被写体状態記憶部18におけるグループ別記述子Grp[pt]を参照しての判定処理である。
And the determination part 16 acquires the determination result according to group (ST42).
The determination processing with reference to the group-specific descriptor Grp [pt] in the subject state storage unit 18 has been described above.

次に、判定部16においては、被写体状態記憶部18のグループ連結記述子GrpCON[g no]に含まれる、グループの連結情報が取得され、その情報を基にグループの連結状態で検体判定が行われる(ST43)。
ステップST43において、判定部16では、図24に示すように、グループ数が取得され(ST431)、グループ数が0で終了するか否かが判定される(ST432)。
グループ数が0でない場合には、判定部16では、このグループ番号に連結グループが存在するか否かが判定され(ST433)。
グループ番号に連結番号が存在する場合、判定部16では、連結するグループ番号の演算情報を被写体状態記憶部18から取得し(ST434)、連結グループ番号の判定結果すべてに対して論理演算が行われる(ST435)。
これにより、判定部16では、このグループ番号の判定結果が取得され(ST436)、カウント値が−1され(ST437)、ステップST432の処理に戻る。
また、ステップST433で、今設定されているグループ番号に連結グループが存在しない場合には、ステップST437の処理に移行してカウント値が−1され、ステップST432の処理から行われる。
Next, in the determination unit 16, the group connection descriptor GrpCON [g in the subject state storage unit 18. no] is acquired, and sample determination is performed based on the information in the group connection state (ST43).
In step ST43, as shown in FIG. 24, the determination unit 16 acquires the number of groups (ST431), and determines whether or not the number of groups is 0 (ST432).
If the number of groups is not 0, determination section 16 determines whether or not a connected group exists in this group number (ST433).
When there is a connection number in the group number, the determination unit 16 acquires operation information of the group number to be connected from the subject state storage unit 18 (ST434), and performs a logical operation on all the determination results of the connection group number. (ST435).
Thereby, in the determination part 16, the determination result of this group number is acquired (ST436), a count value is -1 (ST437), and it returns to the process of step ST432.
In step ST433, if there is no linked group in the currently set group number, the process proceeds to step ST437, the count value is decremented by 1, and the process starts from step ST432.

そして、判定部16では、グループ連結の判定結果が取得される(ST44)。
以上が、被写体状態記憶部18におけるグループ連結記述子GrpCON[g no]を参照しての判定処理である。
判定部16では、以上のようにして得られた判定結果が出力される(ST45)。
And the determination part 16 acquires the determination result of group connection (ST44).
The above is the group connection descriptor GrpCON [g in the subject state storage unit 18. no]].
The determination unit 16 outputs the determination result obtained as described above (ST45).

次に、本実施形態に係る検知システムの他の構成および機能について詳細に説明する。
はじめに、本実施形態に係る撮像装置12のCCDの構成について説明する。
Next, other configurations and functions of the detection system according to the present embodiment will be described in detail.
First, the configuration of the CCD of the imaging device 12 according to the present embodiment will be described.

図25は、本実施形態に係るCCDの構造を説明するための一例を示す図である。   FIG. 25 is a diagram showing an example for explaining the structure of the CCD according to the present embodiment.

図25のCCD30はインターライン転送で、フォトダイオードPD31、垂直転送CCD32、水平転送CCD33、増幅器34を有する。
フォトダイオードPD31は、マトリクス状に配列されている。垂直ライン方向に配列されるフォトダイオードPD31は、列ごとにそれぞれ電荷を転送するための垂直転送CCD32に接続されている。各垂直転送CCD32の端部は、電荷を増幅部に転送する水平転送CCD33にそれぞれ接続されている。また、水平転送CCD33の出力側には増幅器34が接続されている。
25 is an interline transfer, and includes a photodiode PD31, a vertical transfer CCD32, a horizontal transfer CCD33, and an amplifier.
The photodiodes PD31 are arranged in a matrix. The photodiodes PD31 arranged in the vertical line direction are connected to a vertical transfer CCD 32 for transferring charges for each column. The end of each vertical transfer CCD 32 is connected to a horizontal transfer CCD 33 that transfers charges to the amplifier. An amplifier 34 is connected to the output side of the horizontal transfer CCD 33.

映像の走査方式はインターレースであり、一画面は飛び越し走査で、奇数フィールドと偶数フィールドとで構成される。
まず、光がフォトダイオードPD31に入射し、電荷蓄積時間にフォトダイオードPD31で電荷が蓄積されていく。この間、フォトダイオードPD31と垂直転送CCD32間は遮断されている。
電荷蓄積時間が終了すると、フォトダイオードPD31と垂直転送CCD32間が導通し、蓄積された電荷が垂直転送CCD32に移される。この直後に、フォトダイオードPD31と垂直転送CCD32間は遮断され、フォトダイオードPD31で次の電荷蓄積が開始する。垂直転送CCD32に移された電荷は、1水平ライン毎に水平転送CCD33に転送され、増幅器34に入力されている。
この1水平ライン毎に、電荷が垂直転送CCD32から水平転送CCD33へ転送されるまでの周波数は、CCD30の水平走査周波数15.734Hzで行われる。垂直転送CCD32のすべての電荷が水平転送CCD33に転送されると、再び垂直転送CCD32とフォトダイオードPD31間が導通し、フォトダイオードPD31の電荷が垂直転送CCD32に移される。フィールド蓄積CCDの場合、光電変換によってフォトダイオードPD31で電荷が蓄積され、この電荷がフォトダイオードPD31から垂直転送CCD32へ転送されるまでの転送周波数は、59.94Hzとなる。
The video scanning method is interlaced, and one screen is interlaced scanning, and is composed of an odd field and an even field.
First, light enters the photodiode PD31, and charges are accumulated in the photodiode PD31 during the charge accumulation time. During this time, the photodiode PD31 and the vertical transfer CCD 32 are disconnected.
When the charge accumulation time ends, the photodiode PD31 and the vertical transfer CCD 32 are brought into conduction, and the accumulated charge is transferred to the vertical transfer CCD 32. Immediately after this, the photodiode PD31 and the vertical transfer CCD 32 are disconnected, and the next charge accumulation is started in the photodiode PD31. The charges transferred to the vertical transfer CCD 32 are transferred to the horizontal transfer CCD 33 for each horizontal line and input to the amplifier 34.
The frequency until the charge is transferred from the vertical transfer CCD 32 to the horizontal transfer CCD 33 for each horizontal line is the horizontal scanning frequency of 15.734 Hz of the CCD 30. When all the charges of the vertical transfer CCD 32 are transferred to the horizontal transfer CCD 33, the vertical transfer CCD 32 and the photodiode PD31 are conducted again, and the charge of the photodiode PD31 is transferred to the vertical transfer CCD 32. In the case of a field accumulation CCD, charges are accumulated in the photodiode PD31 by photoelectric conversion, and the transfer frequency until this charge is transferred from the photodiode PD31 to the vertical transfer CCD 32 is 59.94 Hz.

図26は、図25のCCD30の時系列を説明するための図である。   FIG. 26 is a diagram for explaining the time series of the CCD 30 in FIG.

図26に示すように、光電変換によってフォトダイオードPD31で電荷が蓄積されるまでの所要時間をΔT1とし、この電荷がフォトダイオードPD31から垂直転送CCD32へ転送されるまでの所要時間をΔT2とする。
図26から分かるように、CCD30に入射した光エネルギーは、電荷蓄積時間ΔT1の間積分されながら、電荷蓄積周期ΔT=ΔT1+ΔT2=(1/59.94)秒でサンプリングされていることになる。
As shown in FIG. 26, it is assumed that a required time until charge is accumulated in the photodiode PD31 by photoelectric conversion is ΔT1, and a required time until the charge is transferred from the photodiode PD31 to the vertical transfer CCD 32 is ΔT2.
As can be seen from FIG. 26, the light energy incident on the CCD 30 is sampled at the charge accumulation period ΔT = ΔT1 + ΔT2 = (1 / 59.94) seconds while being integrated during the charge accumulation time ΔT1.

さて、図1に示すように、撮像装置12によって撮像された撮像画像の信号は輝度信号抽出部13で輝度信号が抽出され、この輝度信号は、光源解析処理部14に入力されている。
ここで、本実施例に係るCCD30(図25を参照)からの画素の読み出し方法について説明する。
As shown in FIG. 1, a luminance signal is extracted by a luminance signal extraction unit 13 from a captured image signal captured by the imaging device 12, and the luminance signal is input to the light source analysis processing unit 14.
Here, a method of reading out pixels from the CCD 30 (see FIG. 25) according to the present embodiment will be described.

図27は、単板補色フィルタ型CCDの画素の一配列例を示す図である。
また、図28は、奇数フィールドOFDと偶数フィールドEFDにおける色信号の組み合わせの一例を示す図である。
FIG. 27 is a diagram showing an arrangement example of pixels of a single-plate complementary color filter type CCD.
FIG. 28 is a diagram illustrating an example of a combination of color signals in the odd field OFD and the even field EFD.

画素のカラーフィルタは、Ye(イエロ)、Cy(シアン)、Mg(マジェンタ)、G(グリーン)で構成され、図27に図示するような配列になっている。画素の読み出しは、上下の画素を加算して読み出される。この加算する組み合わせは、奇数フィールドOFDと偶数フィールドEFDで、1列ずれる。具体的には、奇数フィールドOFDのnラインでは、(C11+C21)、(C12+C22)、(C13+C23)、(C14+C24)、(C15+C25)、…のようになる。また、偶数フィールドEFDのnラインでは、(C21+C31)、(C22+C32)、(C23+C33)、(C24+C34)、(C25+C35)、…のようになる。
したがって、図28に示すような奇数フィールドOFD、偶数フィールドEFDで色信号が出力される。
いずれも、2画素周期で同一のYe、Cy、Mg、Gの組み合わせの色パターンが繰り返されている。
つまり言い換えると、色信号は2画素周期以上の周波数に重畳して現れる。よって、この色信号を、2画素周期を遮断周波数とするローパスフィルタに通せば、色信号は失われ、輝度信号のみが得られる。
したがって、輝度情報は2画素周期でサンプリングされることになる。
The color filter of the pixel is composed of Ye (yellow), Cy (cyan), Mg (magenta), and G (green), and is arranged as shown in FIG. Pixels are read by adding the upper and lower pixels. The combination to be added is shifted by one column between the odd field OFD and the even field EFD. Specifically, in the n-th line of the odd field OFD, (C11 + C21), (C12 + C22), (C13 + C23), (C14 + C24), (C15 + C25),... In the n-line of the even field EFD, (C21 + C31), (C22 + C32), (C23 + C33), (C24 + C34), (C25 + C35),...
Therefore, color signals are output in the odd field OFD and the even field EFD as shown in FIG.
In any case, the same color pattern of a combination of Ye, Cy, Mg, and G is repeated in a two-pixel cycle.
In other words, the color signal appears superimposed on a frequency of two pixel periods or more. Therefore, if this color signal is passed through a low-pass filter having a cutoff frequency of two pixel periods, the color signal is lost and only a luminance signal is obtained.
Therefore, luminance information is sampled at a cycle of two pixels.

図27の円形で図示される投影領域REGは、光源による被写体の映像が投影されている様子を示している。なお、画素C35、C36、C45、C46、C55、C56は完全に投影領域REGにはいっており、均一に光が照射されているとする。
輝度情報は、奇数フィールドOFDでは、水平ライン(n+1)のC35、C36、C45、C46の組み合わせに、偶数フィールドEFDでは、水平ラインの(n+1)ラインのC45、C46、C55、C56の組み合わせによって読み出しされる。
A projection area REG indicated by a circle in FIG. 27 shows a state in which an image of a subject by a light source is projected. It is assumed that the pixels C35, C36, C45, C46, C55, and C56 are completely in the projection region REG and are uniformly irradiated with light.
In the odd field OFD, the luminance information is read by a combination of C35, C36, C45, and C46 of the horizontal line (n + 1), and in the even field EFD, by a combination of C45, C46, C55, and C56 of the (n + 1) line of the horizontal line. Is done.

以上に述べたようにして、撮像装置12からの信号のうち輝度信号が光源解析処理部14に出力される。この輝度信号は、第1の演算部141および第2の演算部142に入力されて所定の処理が行われる。   As described above, the luminance signal among the signals from the imaging device 12 is output to the light source analysis processing unit 14. This luminance signal is input to the first calculation unit 141 and the second calculation unit 142 and subjected to predetermined processing.

次に、第1の演算部141および第2の演算部142で行われる輝度信号の処理方法について図29に関連付けて説明する。   Next, a luminance signal processing method performed by the first calculation unit 141 and the second calculation unit 142 will be described with reference to FIG.

図29は、本実施形態に係る光源解析処理部の輝度信号の信号処理法を説明するためのタイミングチャートである。   FIG. 29 is a timing chart for explaining the signal processing method of the luminance signal of the light source analysis processing unit according to the present embodiment.

図29(A)は、撮像装置12のインターライン走査を示す図で、偶数フィールドEFDもしくは奇数フィールドOFDのいずれかの状態を示す。図29(B)〜(E)はそれぞれ、光源解析処理部14で処理される輝度信号レベルの時間変化を表す波形W1、W2、W3、W4を示し、図29(F)は一定周期で変化する正弦波の波形W5を示す図である。
なお、奇数フィールドOFDと偶数フィールドEFDとで1フレームの走査である。つまり、図29(A)に図示するように、AとB、CとDで1フレームの走査である。
また、以降の説明において、fは周波数を、tは時刻を、θは位相差をそれぞれ示し、ωは(ω=2πf)を満たす。なお、πは円周率である。
FIG. 29A is a diagram showing interline scanning of the imaging device 12, and shows a state of either the even field EFD or the odd field OFD. FIGS. 29B to 29E respectively show waveforms W1, W2, W3, and W4 that represent temporal changes in the luminance signal level processed by the light source analysis processing unit 14, and FIG. 29F changes at a constant cycle. It is a figure which shows the waveform W5 of the sine wave to do.
The odd field OFD and even field EFD scan one frame. That is, as shown in FIG. 29A, one frame is scanned by A and B and C and D.
In the following description, f represents frequency, t represents time, θ represents phase difference, and ω satisfies (ω = 2πf). Note that π is the circumference ratio.

図29(B)、(C)に図示する波形W1と波形W2は、後で説明する波形W3と波形W4で示される波形の関数を導出するための波形である。
図29(D)に図示する波形W3は、Aのフィールドの輝度信号とCのフィールドの輝度信号との輝度レベルの差をレベル差ACとした時の、レベル差ACを求める関数の時間発展分布を示す。
また、図29(E)に図示する波形W4は、Bのフィールドの輝度信号とDのフィールドの輝度信号との輝度レベルの差をレベル差BDとした時の、レベル差BDを求める関数の時間発展分布を示す。
なお、波形W3は、波形W1と波形W2から導出され、波形W1と波形W2を足して2で割ったものである。また、波形W4は波形W1と波形W2から導出され、波形W2から波形W1を引いて2で割ったものである。
Waveforms W1 and W2 illustrated in FIGS. 29B and 29C are waveforms for deriving functions of waveforms indicated by a waveform W3 and a waveform W4 described later.
A waveform W3 illustrated in FIG. 29D is a time development distribution of a function for obtaining the level difference AC when the luminance level difference between the luminance signal of the A field and the luminance signal of the C field is the level difference AC. Indicates.
A waveform W4 shown in FIG. 29E is a function time for obtaining the level difference BD when the difference in luminance level between the luminance signal of the B field and the luminance signal of the D field is defined as the level difference BD. The development distribution is shown.
Waveform W3 is derived from waveform W1 and waveform W2, and is obtained by adding waveform W1 and waveform W2 and dividing by two. Waveform W4 is derived from waveform W1 and waveform W2, and is obtained by subtracting waveform W1 from waveform W2 and dividing it by 2.

このとき、レベル差ACの第1の時間平均である時間平均SACは図1に示す第1の演算部141で算出される。また、レベル差BDの第2の時間平均である時間平均SBDは第2の演算部142で算出される。
具体的には、時間平均SACは、C35、C36、C45、C46の組み合わせによるAフィールドとCフィールドとの輝度レベル差ACから算出される。
同様に、時間平均SBDは、C45、C46、C55、C56の組み合わせによるBフィールドとDフィールドとのレベル差BDから算出される。
At this time, a time average SAC that is a first time average of the level difference AC is calculated by the first calculation unit 141 shown in FIG. In addition, a time average SBD that is a second time average of the level difference BD is calculated by the second calculation unit 142.
Specifically, the time average SAC is calculated from the luminance level difference AC between the A field and the C field by a combination of C35, C36, C45, and C46.
Similarly, the time average SBD is calculated from the level difference BD between the B field and the D field by a combination of C45, C46, C55, and C56.

その時間平均の算出方法について述べる。
AフィールドとCフィールドとのレベル差ACの時間平均SACは、波形W1に、図29(D)に示す波形W3を掛けてこの時間平均SACを計算する。
また同様に、BフィールドとDフィールドとのレベル差BDの時間平均SBDは、C45、C46、C55、C56の組み合わせによる画素に照射される光の時間変化を表す波形に、図29(E)に示す波形W4を掛けてこの時間平均SBDを計算する。
The calculation method of the time average is described.
The time average SAC of the level difference AC between the A field and the C field is calculated by multiplying the waveform W1 by the waveform W3 shown in FIG.
Similarly, the time average SBD of the level difference BD between the B field and the D field is shown in FIG. 29 (E) in a waveform representing the time change of the light applied to the pixel by the combination of C45, C46, C55, and C56. The time average SBD is calculated by multiplying the waveform W4 shown.

はじめに、時間平均SACの算出方法について具体的に説明する。
波形W3を数式で表す。まず、波形W1、波形W2は以下のようなフーリエ級数で表せる。
First, a method for calculating the time average SAC will be specifically described.
The waveform W3 is expressed by a mathematical expression. First, the waveform W1 and the waveform W2 can be expressed by the following Fourier series.

Figure 2014239554
Figure 2014239554

ここで、波形W1とW2は同一周期f2を有するものとする。(1)式と(2)式より、波形W3は(4)式のように表せる。   Here, it is assumed that the waveforms W1 and W2 have the same period f2. From equation (1) and equation (2), waveform W3 can be expressed as equation (4).

Figure 2014239554
Figure 2014239554

ところで、図29(F)に図示する周期f1を有する波形W5は(5)式のような正弦波で表せる。   Incidentally, the waveform W5 having the period f1 shown in FIG. 29F can be expressed by a sine wave as shown in the equation (5).

Figure 2014239554
Figure 2014239554

(4)式によって表される波形W3に(5)式で表せる正弦波W5を掛けると(7)式となる。   When the waveform W3 represented by the equation (4) is multiplied by the sine wave W5 represented by the equation (5), the equation (7) is obtained.

Figure 2014239554
Figure 2014239554

次に、時刻0から時刻Tまでにおける(7)式の時間平均をとる。(7)式の右辺に示す各項の内、時間tを含む項は交流信号であるから、その時間平均は0である。
したがって、(ω−(2n−1)ω=0)である時のみ、定数cosθと定数sinθが残り、時間平均SACは(8)式のようになる。
Next, the time average of the equation (7) from time 0 to time T is taken. Of the terms shown on the right side of the equation (7), the term including time t is an AC signal, so the time average is zero.
Therefore, only when (ω 1 − (2n−1) ω 2 = 0), the constant cos θ 1 and the constant sin θ 1 remain, and the time average SAC is expressed by the equation (8).

Figure 2014239554
Figure 2014239554

このようにして、時間平均SACが第1の演算部141にて求まる。時間平均SBDも同様にして第2の演算部142にて求められ、(9)式で表される。   In this way, the time average SAC is obtained by the first calculation unit 141. Similarly, the time average SBD is obtained by the second calculation unit 142 and is expressed by equation (9).

Figure 2014239554
Figure 2014239554

さて、(8)式と(9)式で表される時間平均SACとSBDとの2乗和(SAC +SBD )は(10)式で表される。 Now, the sum of squares (S AC 2 + S BD 2 ) of the time average SAC and SBD expressed by the equations (8) and (9) is expressed by the equation (10).

Figure 2014239554
Figure 2014239554

この(10)式より、CCD30(図25を参照)に入射される光に(f=(2n−1)f)なる周波数成分が含まれているとき、(10)式で表される波形の成分が検出される。 From this equation (10), when the frequency component (f 1 = (2n−1) f 2 ) is included in the light incident on the CCD 30 (see FIG. 25), it is expressed by the equation (10). Waveform components are detected.

次に、光源11に含まれる周波数成分について考察する。
図30は、光源11に含まれる周波数成分についての波形W6を示す図である。なお、光源11は、周波数f3で時間τの間、輝度レベルL1で発光している。
Next, frequency components included in the light source 11 will be considered.
FIG. 30 is a diagram showing a waveform W6 for frequency components included in the light source 11. As shown in FIG. The light source 11 emits light at the luminance level L1 at the frequency f3 for the time τ.

この波形W6をフーリエ級数に展開する。波形W6は、周期(T=1/f3)の周期関数であり、(ω3=2πf3)とすると、(11)式のようにフーリエ級数の一般式で表される。 This waveform W6 is developed into a Fourier series. The waveform W6 is a periodic function of a period (T 3 = 1 / f 3 ). When (ω 3 = 2πf 3 ), the waveform W6 is represented by a general formula of Fourier series as shown in Expression (11).

Figure 2014239554
Figure 2014239554

(11)式の各係数a、a、bは波形W6より(12)〜(14)式のように求まる。 The coefficients a 0 , a n , and b n in the equation (11) are obtained from the waveform W6 as in the equations (12) to (14).

Figure 2014239554
Figure 2014239554

したがって、波形W6のフーリエ級数は、(15)式で表される。   Therefore, the Fourier series of the waveform W6 is expressed by equation (15).

Figure 2014239554
Figure 2014239554

よって、光源11の点滅周期をフィールド周期の4倍にした時、すなわち(f=f)である時、(7)式と(15)式より奇数項で周波数が一致し、時間平均SACとSBDの2乗和は(16)式のようになる。 Therefore, when the blinking period of the light source 11 is set to four times the field period, that is, when (f 3 = f 2 ), the frequency coincides with the odd term from the expressions (7) and (15), and the time average SAC And the sum of the squares of SBD is given by equation (16).

Figure 2014239554
Figure 2014239554

光源11の点灯のデューティー比をDとすると(17)式で表される。   When the duty ratio of lighting of the light source 11 is D, it is expressed by equation (17).

Figure 2014239554
Figure 2014239554

よって、(16)式で表される時間平均SACとSBDとの2乗和SACBDは、(17)式を用いると(18)式のようになる。     Therefore, the square sum SACBD of the time average SAC and SBD expressed by the equation (16) is expressed by the equation (18) when the equation (17) is used.

Figure 2014239554
Figure 2014239554

ところで、以下に示す(18)式の右辺の項(19)は収束する。   By the way, the term (19) on the right side of the following equation (18) converges.

Figure 2014239554
Figure 2014239554

この(18)式の右辺の項(19)は、デューティー比Dに対し、表1のような値をとる。以下に、表1を示す。   The term (19) on the right side of the equation (18) takes a value as shown in Table 1 with respect to the duty ratio D. Table 1 is shown below.

Figure 2014239554
Figure 2014239554

表1に基づいて、横軸にデューティー比Dをとり、縦軸に時間平均SACとSBDとの2乗和SACBDをとると、デューティー比Dと2乗和SACBDとの関係は図31に示すようになる。   Based on Table 1, when the duty ratio D is taken on the horizontal axis and the square sum SACBD of the time average SAC and SBD is taken on the vertical axis, the relationship between the duty ratio D and the square sum SACBD is as shown in FIG. become.

図31より、2乗和SACBDはデューティー比D=0.5で最大となることが分かる。
したがって、(18)式で表される2乗和SACBDは、次式のようになる。
From FIG. 31, it can be seen that the square sum SACBD becomes maximum at the duty ratio D = 0.5.
Therefore, the sum of squares SACBD expressed by the equation (18) is expressed by the following equation.

[数15]
AC +SBD =0.08333L …(20)
[Equation 15]
S AC 2 + S BD 2 = 0.08333L 1 2 (20)

(20)式に示すように、演算処理部143は光源11(図1を参照)の輝度を検出し、この検出結果(2乗和SACBD)をフィルタ処理部15を介して判定部16に出力する。この検出結果は、判定部16にて被写体の状態に判定に用いられる。   As shown in equation (20), the arithmetic processing unit 143 detects the luminance of the light source 11 (see FIG. 1), and outputs the detection result (square sum SACBD) to the determination unit 16 via the filter processing unit 15. To do. This detection result is used for determining the state of the subject by the determination unit 16.

本実施例に係る光源11は特定の光源に依存しない。そこで、他の光源についても輝度を検出できるかについて考察する。
光源として広く使われている白熱電球と蛍光燈は、電源周波数50Hzの地域で100Hz、60Hzの地域で120Hzである。NTSC方式のテレビジョンのフィールド周波数は59.94Hz、パーソナルコンピュータに使用されるモニタのフィールド周波数は、ちらつきがないように60Hz以上である。
The light source 11 according to the present embodiment does not depend on a specific light source. Therefore, it is considered whether the luminance can be detected for other light sources.
Incandescent light bulbs and fluorescent lamps that are widely used as light sources are 100 Hz in regions where the power supply frequency is 50 Hz and 120 Hz in regions where 60 Hz. The field frequency of an NTSC television is 59.94 Hz, and the field frequency of a monitor used for a personal computer is 60 Hz or more so as not to flicker.

NTSC方式のテレビジョンのフィールド周波数は59.94Hzであり、その1/4倍周期で光源を発光させるとすると、輝度レベル差の周波数f2は次式のようになる。   The field frequency of the NTSC television is 59.94 Hz, and if the light source is caused to emit light at a quarter period, the frequency f2 of the luminance level difference is as follows.

[数16]
=59.94/4=14.985Hz …(21)
[Equation 16]
f 2 = 59.94 / 4 = 14.985 Hz (21)

(7)式と(15)式より、周波数f2の奇数倍と光源11の周波数f3の整数倍が一致したときに信号成分が検出される。   From the equations (7) and (15), the signal component is detected when the odd multiple of the frequency f2 matches the integer multiple of the frequency f3 of the light source 11.

表2は、異なる光源の発光周波数と輝度信号レベルの差における周波数との関係を示す値の表である。   Table 2 is a table of values indicating the relationship between the light emission frequency of different light sources and the frequency in the difference in luminance signal level.

Figure 2014239554
Figure 2014239554

表2のf1は(5)式の正弦波の有する周波数で、f2は(21)式に示す周波数で、f3はそれぞれ、光源11の周波数、50Hz地域での照明の周波数、60Hz地域での照明の周波数、NTSC方式のテレビジョンのフィールド周波数、パーソナルコンピュータに使用されるモニタのフィールド周波数である。
表2によると、m=30まで、f3が100、120、59.94Hzであり、(n×f=(2m−1)×f)が成立するものはない。
F1 in Table 2 is the frequency of the sine wave of Formula (5), f2 is the frequency shown in Formula (21), and f3 is the frequency of the light source 11, the frequency of illumination in the 50 Hz region, and the illumination in the 60 Hz region, respectively. Frequency, NTSC television field frequency, and monitor field frequency used in personal computers.
According to Table 2, up to m = 30, f3 is 100, 120, 59.94 Hz, and there is nothing that satisfies (n × f 3 = (2m−1) × f 2 ).

たとえばパーソナルコンピュータのモニタに関して、そのフィールド周波数が60Hz以上であるとすると、本検知システム10の信号処理出力に最も大きな出力が検出される可能性としては、74.925Hzでスキャンされているモニタが存在したときである。
すなわち、f=74.925Hzの時であり、表2に示すように、(5×f)、(15×f)、(25×f)…と(1×f)、(3×f)、(5×f)…が一致する。この時検出される信号レベルは、次式で示される。
For example, regarding a monitor of a personal computer, if the field frequency is 60 Hz or more, there is a monitor that is scanned at 74.925 Hz as a possibility that the largest output is detected in the signal processing output of the detection system 10. When
That is, when f 3 = 74.925 Hz, as shown in Table 2, (5 × f 2 ), (15 × f 2 ), (25 × f 2 ), and (1 × f 3 ), ( 3 × f 3 ), (5 × f 3 ). The signal level detected at this time is expressed by the following equation.

Figure 2014239554
したがって、(22)式で示される信号レベルは光源11の1/25のレベルであり、図1に図示していない信号処理で別に除去できる。
Figure 2014239554
Therefore, the signal level expressed by the equation (22) is 1/25 of that of the light source 11 and can be removed separately by signal processing not shown in FIG.

以上に述べたように、本検知システム10は、光源の発光周波数に依存せず、光源または光源に照射された被写体の状態を検知する。   As described above, the detection system 10 detects the state of the light source or the subject irradiated on the light source without depending on the light emission frequency of the light source.

以上に説明したように、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出できる。   As described above, according to the present embodiment, the background noise of the captured image can be removed, and the state of the subject irradiated with the light source or the light source can be detected.

そして、本実施形態に係る検知システムによれば、光源または光源に照射された被写体の状態の検知において、被写体が複数存在する場合の検知も被写体別に行うことができ、その被写体の追跡と捕捉を行うことで、被写体でない部分の不要物の位置の検知をする必要が無く、被写体の状態検知を高速にかつ、高精度に検知できるという効果が得られる。
また、光源に依らないため、撮像装置の仕様には依存せず、たとえば一般に入手可能なカメラを本検知システムの撮像装置として使用できる。
さらに本実施形態によれば、光源または光源に照射された被写体の状態の検知において、被写体が複数存在する場合の検知も被写体別に行う場合に、検知判定の条件を個別に設定でき、さらにグループ別の条件設定を可能にすることで被写体の環境や場所に応じた適切な条件設定ができることで、不要な判定結果を含まない、目的の判定結果を高精度に得られるという利点がある。
According to the detection system according to the present embodiment, in the detection of the light source or the state of the subject irradiated to the light source, detection when there are a plurality of subjects can be performed for each subject, and tracking and capturing of the subject can be performed. By doing so, there is no need to detect the position of an unnecessary object that is not a subject, and the effect of detecting the state of the subject at high speed and with high accuracy can be obtained.
Moreover, since it does not depend on the light source, it does not depend on the specifications of the imaging device, and for example, a generally available camera can be used as the imaging device of the present detection system.
Furthermore, according to the present embodiment, in the detection of the state of the light source or the subject irradiated with the light source, when the detection when there are a plurality of subjects is also performed for each subject, the detection determination conditions can be individually set, This makes it possible to set appropriate conditions in accordance with the environment and location of the subject, so that there is an advantage that a target determination result that does not include an unnecessary determination result can be obtained with high accuracy.

さらに本検知システムは、複数の光源を使用し、信号を並列に信号処理部に伝送することができる。
あるいは、光源の色を複数設け、信号の波長多重伝送も可能である。
また、光源を適宜点滅させて信号を処理することも可能である。
Furthermore, this detection system uses a plurality of light sources and can transmit signals to the signal processing unit in parallel.
Alternatively, it is possible to provide a plurality of light source colors and perform wavelength multiplexing transmission of signals.
It is also possible to process the signal by appropriately blinking the light source.

[第2の実施形態]
次に、本発明に係る第2の実施形態について説明する。
[Second Embodiment]
Next, a second embodiment according to the present invention will be described.

本第2の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース型の撮像装置12をフレーム蓄積、インターレース型の撮像装置に置き換えたものである。また同時に、第1実施形態に係る光源11の輝度の変化周期をフィールド周期の4n倍からフレーム周期の4n倍に変更したものである。この変化周期の変更に伴い、輝度信号の取得もnフィールドごとから2nフィールドごとに輝度信号の取得周期を変更する。
このように、光源11の輝度の変化周期と輝度信号の取得周期を変更することで、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the second embodiment, the field accumulation / interlace imaging device 12 according to the first embodiment is replaced with a frame accumulation / interlace imaging device. At the same time, the luminance change period of the light source 11 according to the first embodiment is changed from 4n times the field period to 4n times the frame period. Accompanying this change in the change period, the luminance signal acquisition period is changed from every n fields to every 2n fields.
As described above, by changing the luminance change cycle of the light source 11 and the luminance signal acquisition cycle, the same effects as those of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

[第3の実施形態]
次に、本発明に係る第3の実施形態について説明する。
[Third Embodiment]
Next, a third embodiment according to the present invention will be described.

本第3の実施形態は、第1の実施形態に係るフィールド蓄積、インターレース走査型の撮像装置12をフレーム蓄積、ノンインターレース走査型の撮像装置に置き換えたものである。
このように、ノンインターレース走査の撮像装置を用いても、第1の実施形態と同様の効果を得ることができる。
したがって、本実施形態によれば、撮像画像の背景ノイズを除去し、光源もしくは光源によって照射された被写体の状態を検出でき、被写体が複数存在する場合であっても被写体別に検知することができる。
In the third embodiment, the field accumulation / interlace scanning imaging device 12 according to the first embodiment is replaced with a frame accumulation / non-interlace scanning imaging device.
As described above, even when a non-interlaced scanning imaging apparatus is used, the same effect as that of the first embodiment can be obtained.
Therefore, according to the present embodiment, the background noise of the captured image can be removed, the state of the light source or the subject irradiated with the light source can be detected, and even when there are a plurality of subjects, detection can be performed for each subject.

なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。
また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク、フロッピー(登録商標)ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
Note that the method described above in detail can be formed as a program according to the above-described procedure and executed by a computer such as a CPU.
Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, an optical disk, a floppy (registered trademark) disk, or the like, and to execute the program by a computer in which the recording medium is set.

10・・・検知システム、11・・・光源、12・・・撮像装置、13・・・輝度信号抽出部、14・・・光源解析処理部、141・・・第1の演算部(A)、142・・・第2の演算部(B)、143…演算処理部、144・・・位置記憶部、15・・・フィルタ処理部、16・・・判定部、17・・・被写体位置決定部、171・・・位置検索処理部、172・・・位置検索情報記憶部、18・・・被写体状態記憶部、Patt[pt]・・・属性記述子、Grp[pt]・・・グループ記述子、GrpCON[g no]・・・グループ連結記述子。 DESCRIPTION OF SYMBOLS 10 ... Detection system, 11 ... Light source, 12 ... Imaging device, 13 ... Luminance signal extraction part, 14 ... Light source analysis process part, 141 ... 1st calculating part (A) , 142... Second calculation unit (B), 143... Calculation processing unit, 144... Position storage unit, 15... Filter processing unit, 16. Part 171 ... position search processing part 172 ... position search information storage part 18 ... subject state storage part Patt [pt] ... attribute descriptor Grp [pt] ... group description Child, GrpCON [g no] ... group connection descriptor.

Claims (11)

少なくとも一つの光源と、
上記光源または上記光源によって照射された被写体を撮像する少なくとも一つの撮像装置と、
上記撮像装置から取得した信号に対する解析処理を行う解析処理部と、
上記解析処理部の解析結果により上記光源または被写体の状態を検知して判定する検知判定処理を行う判定部と、
複数の被写体の少なくとも画像における検知範囲を含む位置に関する検知情報を記憶可能な位置記憶部と、
少なくとも上記検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を記憶する状態記憶部と、
上記判定部にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として上記位置記憶部に記憶可能な被写体位置決定部と、を有し、
上記解析処理部は、
上記撮像装置から所定走査面周期ごとに上記信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行い、当該解析処理の演算結果を上記判定部に出力し、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行い、
上記判定部は、
光源または被写体を特定する情報および上記属性情報に含まれる、上記位置記憶部で指定する画像の所定範囲に位置する応答速度値を取得し、取得した位置の検知応答速度値から検知時間を決定し、その位置に適した応答速度で検知判定処理を行う
検知システム。
At least one light source;
At least one imaging device for imaging the light source or a subject illuminated by the light source;
An analysis processing unit that performs analysis processing on a signal acquired from the imaging device;
A determination unit that performs a detection determination process that detects and determines the state of the light source or subject based on the analysis result of the analysis processing unit;
A position storage unit capable of storing detection information regarding a position including a detection range in at least an image of a plurality of subjects;
A state storage unit that stores various types of attribute information at least in the state of the detection range, and stores information including state changes of the attributes;
From the detection information obtained by the determination unit, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, A subject position determination unit capable of storing detection information as information about the position in the position storage unit,
The analysis processing unit
The signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and further, based on the time average value Perform an analysis process to perform a predetermined calculation, and output the calculation result of the analysis process to the determination unit,
When the detection information is stored in the position storage unit, the analysis processing is selectively performed on the image in the detection position range specified in the detection information,
The determination unit is
A response speed value located in a predetermined range of the image specified by the position storage unit included in the information specifying the light source or the subject and the attribute information is acquired, and the detection time is determined from the detected response speed value of the acquired position. A detection system that performs detection / judgment processing at a response speed suitable for the position.
上記判定部は、
応答速度値テーブルから速度カウンタの値を取得し、遮断発生カウント値が上記速度カウンタの値より大きいか否かを判定し、
上記遮断発生カウント値が速度カウンタの値より大きくない場合、遮断物である被写体がないものとして、遮断発生カウント値はそのままに保持して、遮断判定結果情報を設定し、
上記遮断発生カウント値が上記速度カウンタの値より大きい場合、遮断物である被写体があるものとして、遮断位置情報を取得し、上記遮断発生カウント値をクリアして、遮断判定結果情報を設定する
請求項1記載の検知システム。
The determination unit is
Obtain the value of the speed counter from the response speed value table, determine whether the interruption occurrence count value is greater than the value of the speed counter,
If the blocking occurrence count value is not larger than the value of the speed counter, it is assumed that there is no subject that is a blocking object, the blocking occurrence count value is kept as it is, and the blocking determination result information is set,
When the interruption occurrence count value is larger than the value of the speed counter, the interruption position information is acquired, the interruption occurrence count value is cleared, and the interruption determination result information is set, assuming that there is a subject that is an obstruction. Item 2. The detection system according to Item 1.
上記解析処理部の解析結果を含む信号から少なくともノイズ低減処理を行って、上記判定部に入力するフィルタ処理部を有し、
上記フィルタ処理部は、
上記状態記憶部に記憶されている上記属性情報のうち上記位置記憶部で指定する画像の所定範囲に位置する被写体感度値を取得し、その位置の被写体感度値に適した被写体の閾値判定処理を行う
請求項1または2記載の検知システム。
A filter processing unit that performs at least noise reduction processing from a signal including the analysis result of the analysis processing unit and inputs the signal to the determination unit,
The filter processing unit
Of the attribute information stored in the state storage unit, a subject sensitivity value located within a predetermined range of the image specified by the position storage unit is obtained, and subject threshold determination processing suitable for the subject sensitivity value at the position is performed. The detection system according to claim 1 or 2.
上記フィルタ処理部は、
上記状態記憶部から取得した上記被写体感度値がノイズ除去のための閾値より大きいか否かの判定を行い、上記被写体感度値が上記閾値より大きい場合には遮断物である被写体がないものとして閾値判定結果情報を設定し、上記被写体感度値が上記閾値より大きくない場合には、遮断物である被写体があるものとして閾値判定結果情報を設定して、上記判定部に供給する
請求項3記載の検知システム。
The filter processing unit
It is determined whether or not the subject sensitivity value acquired from the state storage unit is greater than a threshold value for noise removal. If the subject sensitivity value is greater than the threshold value, it is determined that there is no subject that is an obstruction. The determination result information is set, and when the subject sensitivity value is not larger than the threshold value, the threshold determination result information is set assuming that there is a subject that is an obstruction, and is supplied to the determination unit. Detection system.
上記状態記憶部は、
複数の検知範囲が任意のグループとして関連付けられ、当該グループ分けした状態を記憶可能で、当該グループ単位で結果判定の条件を指定するパラメータを記憶し、
上記判定部は、
上記状態記憶部に記憶されている上記グループ情報を取得し、グループ単位で再判定可能であり、
上記被写体位置決定部は、
取得した位置決定後の検知範囲において、位置決定後の検知判定に上記応答速度を含む固有の属性情報を付加する第1処理と、
上記第1処理で取得した複数の光源または光源に照射された被写体の位置決定後の検知範囲において、複数の光源または被写体位置の判定結果をグループ化して、条件が指定されたパラメータに基づいてグループ単位で再判定する第2処理と、を行うことが可能である
請求項1から4のいずれか一に記載の検知システム。
The state storage unit
A plurality of detection ranges are associated as an arbitrary group, the grouped state can be stored, and a parameter for specifying a result determination condition in the group unit is stored,
The determination unit is
The group information stored in the state storage unit can be acquired and re-determined in units of groups.
The subject position determination unit
A first process of adding specific attribute information including the response speed to the detection determination after position determination in the acquired detection range after position determination;
In the detection range after the position determination of the plurality of light sources or the subject irradiated with the light sources acquired in the first process, the determination results of the plurality of light sources or the subject positions are grouped and grouped based on parameters for which conditions are specified The detection system according to any one of claims 1 to 4, wherein the second process can be re-determined in units.
上記状態記憶部は、
上記属性情報に加えて、検知情報が属するグループ番号、グループに属するメンバーの演算情報、グループメンバーの属性情報の判定結果に対する演算結果による判定結果を含むグループ別情報を記憶し、
上記判定部は、
光源または被写体を特定する情報を取得し、上記グループ別情報に含まれる、グループ番号情報を取得し、その情報を基にグループ別状態を判定し、
上記グループ別状態の判定に際し、
このグループ番号が存在するか否かを判定し、グループ番号が存在する場合、グループ番号の演算情報を上記状態記憶部から取得し、このグループ番号に属する光源または被写体の判定結果すべてに対して論理演算を行い、当該グループ番号の判定結果を取得する
請求項5記載の検知システム。
The state storage unit
In addition to the attribute information, the group number to which the detection information belongs, the calculation information of the members belonging to the group, the group-specific information including the determination result by the calculation result for the determination result of the attribute information of the group member,
The determination unit is
Obtain information identifying the light source or subject, obtain group number information included in the group information, determine the group status based on the information,
When determining the status of each group,
It is determined whether or not this group number exists, and if the group number exists, the calculation information of the group number is acquired from the state storage unit, and the logic for all the determination results of the light source or subject belonging to this group number is obtained. The detection system according to claim 5, wherein a detection result of the group number is obtained by performing an operation.
上記状態記憶部は、
上記属性情報に加えて、検知情報が属するグループ番号毎に、グループに属するメンバーの演算情報、およびグループメンバーの属性情報の判定結果に対する演算結果による判定結果、連結数、連結グループ番号を含むグループ連結情報を記憶し、
上記判定部は、
上記グループ連結情報に含まれる、グループの連結情報を取得し、その情報を基にグループの連結状態での判定を行い、
上記グループの連結状態での判定に際し、
このグループ番号に連結グループが存在するか否かを判定し、グループ番号に連結番号が存在する場合、連結するグループ番号の演算情報を上記状態記憶部から取得し、連結グループ番号の判定結果すべてに対して論理演算を行い、当該グループ番号の判定結果を取得する
請求項5または6記載の検知システム。

The state storage unit
In addition to the attribute information, for each group number to which the detection information belongs, group connection including calculation information of members belonging to the group, determination result based on the determination result of the attribute information of the group member, the number of connections, and the connected group number Remember information,
The determination unit is
Acquire group connection information included in the group connection information, and make a determination in the group connection state based on the information,
When judging in the connected state of the above group,
It is determined whether or not there is a linked group in this group number, and if there is a linked number in the group number, the operation information of the group number to be linked is acquired from the state storage unit, and all the linked group number determination results are obtained. The detection system according to claim 5, wherein a logical operation is performed on the group to obtain a determination result of the group number.

上記被写体位置決定部は、
検知範囲の幅が1つのみで固定の場合の第1のモードと、
上記検知範囲の決定において、被写体の大きさを測定し、その座標(x,y)幅をあらかじめ用意したテーブルから現在の座標(x、y)幅を超えたもしくは以下になった大きさのテーブル値の検知範囲を選択する第2のモードと、を有し、
上記第1のモードと上記第2のモードのいずれかを選択可能であり、
上記第2のモードにおいては、
あらかじめ設定された数の検索ブロック毎にx方向およびy方向の全ラインの検索を行ってから、検知範囲の検索処理を行い、上記ライン検索で検知できた連続する縦横ブロックを1つの範囲として当該ブロックの検出強度の総和平均値を求め、検知範囲を決定する
請求項1から7のいずれか一に記載の検知システム。
The subject position determination unit
A first mode in which the width of the detection range is fixed at only one;
In the determination of the detection range, the size of the subject is measured, and a table whose size exceeds the current coordinate (x, y) width or below the coordinate (x, y) width is prepared beforehand. A second mode for selecting a detection range of values,
Either the first mode or the second mode can be selected,
In the second mode,
After searching all the lines in the x and y directions for every predetermined number of search blocks, the detection range search process is performed, and the continuous vertical and horizontal blocks detected by the line search are regarded as one range. The detection system according to any one of claims 1 to 7, wherein a detection range is determined by obtaining a total average value of detection intensities of blocks.
上記被写体位置決定部は、
各決定範囲において、検知強度の範囲微調整は各検知範囲毎に4方向もしくは8方向に検知強度を調査し、最も検知強度の高い場所で最終決定する
請求項8記載の検知システム。
The subject position determination unit
The detection system according to claim 8, wherein in each determination range, the fine adjustment of the detection intensity is performed by investigating the detection intensity in four directions or eight directions for each detection range, and finally determining the detection intensity in a place with the highest detection intensity.
少なくとも一つの光源または当該光源によって照射された被写体を少なくとも一つの撮像装置で撮像する撮像ステップと、
撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理ステップと、
上記解析処理ステップの解析結果により上記光源または被写体の状態を検知して判定する検知判定処理を行う判定ステップと、
少なくとも検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を状態記憶部に記憶する状態記憶ステップと、
上記判定ステップにて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定ステップと、を有し、
上記解析処理ステップにおいて、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行うステップを含み、
上記判定ステップにおいて、
光源または被写体を特定する情報および上記属性情報に含まれる、上記位置記憶部で指定する画像の所定範囲に位置する応答速度値を取得し、取得した位置の検知応答速度値から検知時間を決定し、その位置に適した応答速度で検知判定処理を行うステップを含む
検知システムの信号処理方法。
An imaging step of imaging at least one light source or an object irradiated by the light source with at least one imaging device;
A signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined average is obtained based on the time average value. An analysis process step for performing an analysis process for performing an operation;
A determination step for performing a detection determination process by detecting and determining the state of the light source or subject based on the analysis result of the analysis processing step;
A state storage step of storing various attribute information at least in the state of the detection range, and storing information including a state change of the attribute in the state storage unit;
From the detection information obtained in the determination step, the position and size of the subject in all images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired, Subject position determination step for storing detection information in the position storage unit as information on the position,
In the analysis processing step,
When the detection information is stored in the position storage unit, including the step of selectively performing the analysis processing on the image of the detection position range specified in the detection information;
In the above determination step,
A response speed value located in a predetermined range of the image specified by the position storage unit included in the information specifying the light source or the subject and the attribute information is acquired, and the detection time is determined from the detected response speed value of the acquired position. And a signal processing method for the detection system, including a step of performing detection determination processing at a response speed suitable for the position.
少なくとも一つの光源または当該光源によって照射された被写体を少なくとも一つの撮像装置で撮像する撮像処理と、
撮像装置から所定走査面周期ごとに信号を取得し、複数の異なる走査面間で当該信号の信号レベル差から当該信号レベル差の時間平均を求め、さらに当該時間平均の値をもとに所定の演算を行う解析処理を行う解析処理と、
上記解析処理の解析結果により上記光源または被写体の状態を検知して判定する検知判定処理を行う判定処理と、
少なくとも検知範囲の状態において各種属性情報をそれぞれ持ち、当該属性の状態変化を含む情報を状態記憶部に記憶する状態記憶処理と、
上記判定処理にて得られた検知情報から、全画像における被写体の位置と大きさを検索して検知範囲を含む被写体の位置を決定し、被写体に関する検知範囲を含む検知情報を取得して、当該検知情報を上記位置に関する情報として位置記憶部に記憶する被写体位置決定処理と、を有し、
上記解析処理において、
上記位置記憶部に上記検知情報が記憶されている場合には上記検知情報において指定される検知位置範囲の画像に対して選択的に上記解析処理を行う処理を含み、
上記判定処理において、
光源または被写体を特定する情報および上記属性情報に含まれる、上記位置記憶部で指定する画像の所定範囲に位置する応答速度値を取得し、取得した位置の検知応答速度値から検知時間を決定し、その位置に適した応答速度で検知判定処理を行う処理を含む
検知システムの信号処理をコンピュータに実行させるプログラム。
Imaging processing for imaging at least one light source or an object irradiated by the light source with at least one imaging device;
A signal is acquired from the imaging device every predetermined scanning plane period, a time average of the signal level difference is obtained from a signal level difference of the signal between a plurality of different scanning planes, and a predetermined average is obtained based on the time average value. Analysis processing for performing calculation processing, and
A determination process for performing a detection determination process by detecting and determining the state of the light source or the subject based on the analysis result of the analysis process;
At least in the state of the detection range each has various attribute information, state storage processing to store the information including the state change of the attribute in the state storage unit,
From the detection information obtained in the determination process, the position and size of the subject in all the images are searched to determine the position of the subject including the detection range, and the detection information including the detection range related to the subject is acquired. Subject position determination processing for storing detection information in the position storage unit as information on the position,
In the above analysis process,
When the detection information is stored in the position storage unit, including a process of selectively performing the analysis process on the image of the detection position range specified in the detection information,
In the above determination process,
A response speed value located in a predetermined range of the image specified by the position storage unit included in the information specifying the light source or the subject and the attribute information is acquired, and the detection time is determined from the detected response speed value of the acquired position. A program for causing a computer to execute signal processing of a detection system, including processing for performing detection determination processing at a response speed suitable for the position.
JP2014196268A 2014-09-26 2014-09-26 Detection system, signal processing method thereof, and program Expired - Fee Related JP5839515B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014196268A JP5839515B2 (en) 2014-09-26 2014-09-26 Detection system, signal processing method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014196268A JP5839515B2 (en) 2014-09-26 2014-09-26 Detection system, signal processing method thereof, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011076069A Division JP2012209904A (en) 2011-03-30 2011-03-30 Detection system, signal processing method and program

Publications (2)

Publication Number Publication Date
JP2014239554A true JP2014239554A (en) 2014-12-18
JP5839515B2 JP5839515B2 (en) 2016-01-06

Family

ID=52136249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014196268A Expired - Fee Related JP5839515B2 (en) 2014-09-26 2014-09-26 Detection system, signal processing method thereof, and program

Country Status (1)

Country Link
JP (1) JP5839515B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014471A (en) * 1999-06-28 2001-01-19 Konica Corp Image pattern comparing device, image pattern change detector, device and system for monitoring
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2008276613A (en) * 2007-05-01 2008-11-13 Sumitomo Electric Ind Ltd Mobile body determination device, computer program and mobile body determination method
JP2009147607A (en) * 2007-12-13 2009-07-02 Victor Co Of Japan Ltd Person tracking device
JP2009193421A (en) * 2008-02-15 2009-08-27 Sony Corp Image processing device, camera device, image processing method, and program
JP2010238028A (en) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd Fire detection system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014471A (en) * 1999-06-28 2001-01-19 Konica Corp Image pattern comparing device, image pattern change detector, device and system for monitoring
JP2008141251A (en) * 2006-11-29 2008-06-19 Rhythm Watch Co Ltd Detection system and signal processing method therefor
JP2008276613A (en) * 2007-05-01 2008-11-13 Sumitomo Electric Ind Ltd Mobile body determination device, computer program and mobile body determination method
JP2009147607A (en) * 2007-12-13 2009-07-02 Victor Co Of Japan Ltd Person tracking device
JP2009193421A (en) * 2008-02-15 2009-08-27 Sony Corp Image processing device, camera device, image processing method, and program
JP2010238028A (en) * 2009-03-31 2010-10-21 Nohmi Bosai Ltd Fire detection system

Also Published As

Publication number Publication date
JP5839515B2 (en) 2016-01-06

Similar Documents

Publication Publication Date Title
JP4703547B2 (en) Detection system
KR101085802B1 (en) Imaging apparatus and flicker detection method
KR101950396B1 (en) Imaging device and imaging method
KR102428127B1 (en) Apparatus and method detecting motion mask
JP2004180240A (en) Video input device
JP4316629B2 (en) Image processing system, image acquisition method and program
JP4689518B2 (en) Fire detection equipment
CN104364824A (en) Object detection device
KR20130010875A (en) Method and camera for determining an image adjustment parameter
JP3486229B2 (en) Image change detection device
JP2011030207A (en) Imaging device, and flash determining method and program
JP5265625B2 (en) Detection system, signal processing method thereof, and program
JP5839515B2 (en) Detection system, signal processing method thereof, and program
JP2012209904A (en) Detection system, signal processing method and program
JP5406787B2 (en) Detection system, signal processing method thereof, and program
JP5349405B2 (en) Detection system, signal processing method thereof, and program
JP5349413B2 (en) Detection system, signal processing method thereof, and program
JP5770123B2 (en) Detection system, signal processing method thereof, and program
JP5265619B2 (en) Detection system, signal processing method thereof, and program
JP2003179949A (en) Luminance level inspecting apparatus
JP5858831B2 (en) Detection system, signal processing method thereof, and program
JP6408932B2 (en) Detection system, signal processing method of detection system, and program
JPH0514898A (en) Image monitor device
JP2012134677A (en) Imaging apparatus and imaging method
Keller et al. Detecting interlaced or progressive source of video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151105

R150 Certificate of patent or registration of utility model

Ref document number: 5839515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees