JP2010186410A - Passage detection device - Google Patents

Passage detection device Download PDF

Info

Publication number
JP2010186410A
JP2010186410A JP2009031432A JP2009031432A JP2010186410A JP 2010186410 A JP2010186410 A JP 2010186410A JP 2009031432 A JP2009031432 A JP 2009031432A JP 2009031432 A JP2009031432 A JP 2009031432A JP 2010186410 A JP2010186410 A JP 2010186410A
Authority
JP
Japan
Prior art keywords
unit
passage
image
imaging unit
passing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009031432A
Other languages
Japanese (ja)
Inventor
Tsutomu Saito
勉 齋藤
Naohisa Nakano
尚久 中野
Seiichi Hashitani
誠一 橋谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009031432A priority Critical patent/JP2010186410A/en
Publication of JP2010186410A publication Critical patent/JP2010186410A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a passage detection device capable of detecting a passing object more precisely with a simple configuration. <P>SOLUTION: The passage detection device for detecting a passing object that passes through a passageway formed between a pair of main bodies opposed to each other comprises a first imaging part that is disposed on the passage side of one of the pair of the main bodies with an elevation angle for taking a first image of a predetermined range on the passage side, and a second imaging part that is disposed in parallel with the first imaging part along the passing direction of the passage with the same elevation angle as the elevation angle of the first imaging part for taking a second image of a predetermined range on the passage side. The passage detection device detects the passage state of the passing object based on the first image taken by the first imaging part, and the second image taken by the second imaging part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば、所定の場所を通過する物体を検出する通過検出装置に関する。   The present invention relates to a passage detection device that detects an object passing through a predetermined location, for example.

現在、人の通行を管理するために、通行制御装置が用いられている。通行制御装置は、例えば、鉄道、空港、または施設などの特定のエリアの出入口などに設けられている。通行制御装置としての自動改札装置は、例えば、利用者の所持する情報記憶媒体を読み取り、利用者の通行の可否を判定する。通行制御装置は、通行可と判定した場合、扉を開き利用者の通行を促す。また、通行制御装置は、通行不可と判定した場合、扉を閉じて利用者の通行を阻止する。   Currently, traffic control devices are used to manage traffic of people. The traffic control device is provided, for example, at an entrance / exit of a specific area such as a railway, an airport, or a facility. For example, an automatic ticket gate as a traffic control device reads an information storage medium possessed by a user and determines whether or not the user can pass. If the traffic control device determines that the traffic is allowed, the traffic control device opens the door and prompts the user to pass. If the traffic control device determines that the traffic is not allowed, the traffic control device closes the door to prevent the user from passing.

自動改札装置では、情報記憶媒体の所持者と扉により通行を制御する人物とを対応付ける必要がある。この為に、本体の側面に利用者及び移動物体の通過状態を検出するための複数のセンサを備える自動改札装置が提供されている(例えば、特許文献1参照)。   In the automatic ticket gate, it is necessary to associate the owner of the information storage medium with the person whose traffic is controlled by the door. For this reason, an automatic ticket gate apparatus provided with a plurality of sensors for detecting the passing states of a user and a moving object on the side surface of the main body is provided (for example, see Patent Document 1).

特開2008−140171号公報JP 2008-14171 A

上記した自動改札装置は、検知領域に人または物が存在するか否かを各センサ毎に判定する。自動改札装置は、センサにより取得する明るさのレベルが基準値以下である場合、人または物が存在すると判定するもので、これらのセンサは、自動改札装置が並べられて形成される通路の通行方向に沿って所定間隔をおいて配置されている。   The automatic ticket gate described above determines for each sensor whether a person or an object exists in the detection area. The automatic ticket gate determines that a person or an object exists when the brightness level acquired by the sensor is equal to or lower than a reference value. These sensors are used to pass through a passage formed by arranging the automatic ticket gates. They are arranged at predetermined intervals along the direction.

自動改札装置は、隣接するセンサで基準値以下の明るさを検知した場合、同じ人物、または物をそれぞれのセンサにより検知していると判断する。これにより、上記した自動改札装置は、移動する人または物の位置を検出する。   The automatic ticket checker determines that the same person or object is detected by the respective sensors when the brightness below the reference value is detected by the adjacent sensors. As a result, the automatic ticket gate described above detects the position of the moving person or object.

しかし、上記した自動改札装置は、複数並べられた照明部に対応するように、光を受光する受光素子を複数備えている。この為、検出するポイントを増やすために照明部を増設する場合、受光素子も照明部と同じだけ増設する必要がある。この為、コストが嵩むという問題がある。   However, the automatic ticket gate described above includes a plurality of light receiving elements that receive light so as to correspond to a plurality of illumination units arranged. For this reason, when an illuminating unit is added to increase the number of points to be detected, it is necessary to add the same number of light receiving elements as the illuminating unit. For this reason, there exists a problem that cost increases.

また、例えば、複数の人が密接して通路を通過する場合、上記した自動改札装置は、複数の人物を同じ人物だと判定する可能性がある。この為、正確に通行制御を行うことができないという問題がある。   For example, when a plurality of people pass through the passage closely, the automatic ticket gate described above may determine that the plurality of persons are the same person. For this reason, there is a problem that the traffic control cannot be performed accurately.

そこで、本発明の目的は、簡易な構成で、より高い精度で通過物を検出することができる通過検出装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a passage detection device that can detect passing objects with higher accuracy with a simple configuration.

本発明の一実施形態としての通過検出装置は、対面して設けられる一対の本体間に形成される通路を通過する通過物を検出する通過検出装置であって、前記一対の本体のうちの一方の本体の通路側に仰角を持って設けられ、通路側の所定範囲の第1の画像を撮像する第1の撮像部と、前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられて設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、を具備する。   A passage detection device according to an embodiment of the present invention is a passage detection device that detects a passing object passing through a passage formed between a pair of main bodies provided facing each other, and one of the pair of main bodies. A first imaging unit that is provided on the passage side of the main body with an elevation angle and that captures a first image in a predetermined range on the passage side; and the first imaging unit that has the same elevation angle as the first imaging unit. A first image captured by the first imaging unit, and a second imaging unit that is installed in parallel along the passage direction of the passage and the passage, and that captures a second image in a predetermined range on the passage side And a detection unit that detects a passing state of the passing object based on a second image captured by the second imaging unit.

また、本発明の一実施形態としての通過検出装置は、対面して設けられる一対の本体間に形成される通路を通過する通過物を検出する通過検出装置であって、前記一対の両方の本体の通路側に仰角を持ってそれぞれ設けられ、それぞれ通路側の所定範囲の第1の画像を撮像する第1の撮像部と、前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられてそれぞれの本体に設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、を具備する。   Further, the passage detection device as one embodiment of the present invention is a passage detection device that detects a passing object passing through a passage formed between a pair of main bodies provided facing each other, and the pair of both main bodies. The first imaging unit is provided with an elevation angle on each of the passage sides, and captures a first image in a predetermined range on the passage side, and the first imaging unit with the same elevation angle as the first imaging unit. And a second imaging unit that is arranged in parallel in the passage direction of the section and the passage and is installed in each main body and captures a second image in a predetermined range on the passage side, and is captured by the first imaging unit And a detection unit that detects a passing state of the passing object based on the first image and the second image captured by the second imaging unit.

また、本発明の一実施形態としての改札機は、対面して設けられる一対の本体間に形成される通路を通過する利用者に対して改札処理を行う改札機であって、前記一対の本体のうちの一方の本体の通路側に仰角を持って設けられ、通路側の所定範囲の第1の画像を撮像する第1の撮像部と、前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられて設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、乗車券から乗車券情報を読み取る読取部と、前記読取部により読み取った乗車券情報に基づいて通行判定を行う通行判定部と、前記通行判定部により通行判定NGと判定した場合、または、乗車券情報を読み取っていない状態で前記検出部により通過物を検出した場合、前記第1の撮像部及び前記第2の撮像部により撮像した前記第1の画像及び前記第2の画像を記憶する記憶部と、を具備する。   A ticket gate as an embodiment of the present invention is a ticket gate for performing ticket gate processing on a user who passes through a passage formed between a pair of main bodies provided facing each other. A first imaging unit that is provided with an elevation angle on the passage side of one of the main bodies and that captures a first image in a predetermined range on the passage side, and has the same elevation angle as the first imaging unit. A first imaging unit and a second imaging unit which are installed in parallel along the passage direction of the passage and which captures a second image in a predetermined range on the passage side, and the first imaging unit captures the second image. Based on a first image and a second image captured by the second imaging unit, a detection unit that detects a passing state of the passing object, a reading unit that reads ticket information from a ticket, and the reading unit A traffic determination unit for determining traffic based on the ticket information read by When it is determined as traffic determination NG by the traffic determination unit, or when a passing object is detected by the detection unit in a state where the ticket information is not read, images are captured by the first imaging unit and the second imaging unit. And a storage unit for storing the first image and the second image.

この発明の一形態によれば、簡易な構成で、より高い精度で通過物を検出することができる通過検出装置を提供することができる。   According to one aspect of the present invention, it is possible to provide a passage detection device capable of detecting a passing object with higher accuracy with a simple configuration.

図1は、一実施形態に係る通過検出装置の構成例について説明するためのブロック図である。FIG. 1 is a block diagram for explaining a configuration example of a passage detection device according to an embodiment. 図2は、図1に示す通過検出装置により形成される通路を人物が通過する例について説明するための説明図である。FIG. 2 is an explanatory diagram for explaining an example in which a person passes through a passage formed by the passage detection device shown in FIG. 図3は、図1に示す通過検出装置の概観を示す図である。FIG. 3 is a diagram illustrating an overview of the passage detection device illustrated in FIG. 1. 図4は、1対の通行制御装置により形成される通路を上部から見た図である。FIG. 4 is a top view of a passage formed by a pair of traffic control devices. 図5は、1対の通行制御装置により形成される通路を通行方向から見た図である。FIG. 5 is a view of a passage formed by a pair of traffic control devices as viewed from the direction of travel. 図6は、図1に示す通行制御装置により撮像された画像について説明するための説明図である。FIG. 6 is an explanatory diagram for describing an image captured by the traffic control device illustrated in FIG. 1. 図7は、画像処理部により行われる上側画像に対する画像処理について説明するための説明図である。FIG. 7 is an explanatory diagram for describing image processing for the upper image performed by the image processing unit. 図8は、1対の通行制御装置により形成される通路を上部から見た図である。FIG. 8 is a top view of a passage formed by a pair of traffic control devices. 図9は、1対の通行制御装置により形成される通路を通行方向から見た図である。FIG. 9 is a view of a passage formed by a pair of traffic control devices as viewed from the direction of travel. 図10は、画像処理部により行われる下側画像に対する画像処理について説明するための説明図である。FIG. 10 is an explanatory diagram for describing image processing for the lower image performed by the image processing unit. 図11は、1対の通行制御装置により形成される通路を上部から見た図である。FIG. 11 is a top view of a passage formed by a pair of traffic control devices. 図12は、1対の通行制御装置により形成される通路を通行方向から見た図である。FIG. 12 is a view of a passage formed by a pair of traffic control devices as viewed from the direction of travel. 図13は、図1に示す通行制御装置の動作について説明するためのフローチャートである。FIG. 13 is a flowchart for explaining the operation of the traffic control device shown in FIG. 図14は、図13に示す上側演算処理について説明するためのフローチャートである。FIG. 14 is a flowchart for explaining the upper calculation process shown in FIG. 図15は、図13に示す下側演算処理について説明するためのフローチャートである。FIG. 15 is a flowchart for explaining the lower-side arithmetic processing shown in FIG. 図16は、通行制御装置の他の例の概観を示す図である。FIG. 16 is a diagram illustrating an overview of another example of the traffic control device. 図17は、通行制御装置のさらに他の例の概観を示す図である。FIG. 17 is a diagram illustrating an overview of still another example of the traffic control device. 図18は、他の実施形態に係る通過検出装置の構成例について説明するためのブロック図である。FIG. 18 is a block diagram for explaining a configuration example of a passage detection device according to another embodiment. 図19は、図18に示す通行制御装置により形成される通路を上部から見た図である。FIG. 19 is a top view of a passage formed by the traffic control device shown in FIG. 図20は、図18に示す通行制御装置により形成される通路を通行方向から見た図である。20 is a view of a passage formed by the traffic control device shown in FIG. 18 as viewed from the direction of travel. 図21は、図18に示す通行制御装置により撮像された画像について説明するための説明図である。FIG. 21 is an explanatory diagram for describing an image captured by the traffic control device illustrated in FIG. 18. 図22は、さらに他の実施形態に係る通過検出装置により形成される通路を上部から見た図である。FIG. 22 is a top view of a passage formed by the passage detection device according to still another embodiment. 図23は、図22に示す通過検出装置により形成される通路を通行方向から見た図である。23 is a view of a passage formed by the passage detection device shown in FIG. 22 as viewed from the direction of travel. 図24は、図22及び図23に示す通行制御装置により撮像された画像について説明するための説明図である。FIG. 24 is an explanatory diagram for describing an image captured by the traffic control device illustrated in FIGS. 22 and 23. 図25は、他の実施形態に係る改札機の構成例について説明するためのブロック図である。FIG. 25 is a block diagram for explaining a configuration example of a ticket gate according to another embodiment.

以下、図面を参照しながら、本発明の一実施形態に係る通過検出装置について詳細に説明する。   Hereinafter, a passage detection device according to an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、第1の実施形態に係る通過検出装置100の構成例について説明するためのブロック図である。   FIG. 1 is a block diagram for explaining a configuration example of the passage detection apparatus 100 according to the first embodiment.

図1に示すように、通過検出装置100は、照明部1、照明制御部4、撮像部5A、撮像部5B、撮像制御部6、画像入力部7、画像処理部8、および制御部9などを備えている。画像入力部7、画像処理部8、及び制御部9は、バス10などを介して互いに接続されている。   As shown in FIG. 1, the passage detection device 100 includes an illumination unit 1, an illumination control unit 4, an imaging unit 5A, an imaging unit 5B, an imaging control unit 6, an image input unit 7, an image processing unit 8, a control unit 9, and the like. It has. The image input unit 7, the image processing unit 8, and the control unit 9 are connected to each other via a bus 10 or the like.

図2は、図1に示す通過検出装置100の一対の本体101、102により形成される通路を人物が通過する例について説明するための説明図である。   FIG. 2 is an explanatory diagram for explaining an example in which a person passes through a passage formed by the pair of main bodies 101 and 102 of the passage detection device 100 shown in FIG.

図3は、図1に示す通過検出装置100の概観を示す図である。   FIG. 3 is a diagram illustrating an overview of the passage detection device 100 illustrated in FIG. 1.

照明部1は、図3に示すように、通過検出装置100の一方の本体101の通路側に設置される。照明部1は、例えば、指向性を有する近赤外の光を発するLight Emitting Diode(LED)などにより構成される。照明部1は、図3に示すように、一方の本体101の通路側で、かつ撮像部5の設置位置よりも下方に、一対の本体101、102により形成される通路の通行方向に沿って水平に並べられた状態で設置される。即ち、照明部1は、指向性を有する近赤外の光を反対側の本体102に向けて水平に発する。   As shown in FIG. 3, the illumination unit 1 is installed on the passage side of one main body 101 of the passage detection device 100. The illumination part 1 is comprised by the Light Emitting Diode (LED) etc. which emit the near infrared light which has directivity, for example. As shown in FIG. 3, the illuminating unit 1 is on the passage side of one main body 101 and below the installation position of the imaging unit 5 along the passage direction of the passage formed by the pair of main bodies 101 and 102. Installed horizontally. That is, the illumination unit 1 emits near infrared light having directivity toward the opposite main body 102 horizontally.

なお、照明部1は、集光レンズなどを備えている。照明部1から発せられる光は、集光レンズにより集光される。照明部1から発せられる光は、最大距離(一対の本体101、102により形成される通路の幅程度)において照射範囲の半径が数cm程度のビーム状である。   The illumination unit 1 includes a condenser lens. The light emitted from the illumination unit 1 is collected by a condenser lens. The light emitted from the illuminating unit 1 is in the form of a beam having an irradiation range radius of about several centimeters at the maximum distance (about the width of a passage formed by the pair of main bodies 101 and 102).

照明制御部4は、照明部1の点灯のタイミング、及び照射強度を制御する。照明制御部4は、例えば、カウンターICを実装した電気基板などを備えている。照明制御部4は、照明部1に流す電流のONとOFFとを切り替えることにより、照明が点灯するタイミングを制御しており、電流値を調整することにより、照明の発光強度を変えることができる。   The illumination control unit 4 controls the lighting timing and illumination intensity of the illumination unit 1. The illumination control unit 4 includes, for example, an electric board on which a counter IC is mounted. The illumination control unit 4 controls the timing at which the illumination is turned on by switching between ON and OFF of the current flowing through the illumination unit 1, and can adjust the light emission intensity by adjusting the current value. .

撮像部5A及び撮像部5Bは、図3に示すように、通過検出装置100の一方の本体101の通路側に仰角を持って設置される。撮像部5A及び撮像部5Bは、例えば、CCD、またはCMOSなどのエリアイメージセンサを備えたカメラなどをそれぞれ備えている。撮像部5A及び撮像部5Bは、レンズなどの光学系により受光した光をエリアイメージセンサに結像させる。上記のエリアイメージセンサの各画素は、受光した光を電気信号、即ち画像に変換し、ディジタル信号として出力する。   As shown in FIG. 3, the imaging unit 5 </ b> A and the imaging unit 5 </ b> B are installed with an elevation angle on the passage side of one main body 101 of the passage detection device 100. Each of the imaging unit 5A and the imaging unit 5B includes, for example, a camera including an area image sensor such as a CCD or a CMOS. The imaging unit 5A and the imaging unit 5B form an image of light received by an optical system such as a lens on an area image sensor. Each pixel of the area image sensor converts received light into an electrical signal, that is, an image, and outputs it as a digital signal.

撮像部5A及び撮像部5Bは、通路の通過方向に沿って平行に同じ仰角を持って並べられて設置されている。即ち、撮像部5A及び撮像部5Bは、ステレオカメラとして機能する。即ち、撮像部5A及び撮像部5Bは、一対の本体101、102により形成される通路を通過する通過物のステレオ写真を取得する。   The imaging unit 5A and the imaging unit 5B are arranged side by side with the same elevation angle in parallel along the passage direction of the passage. That is, the imaging unit 5A and the imaging unit 5B function as a stereo camera. That is, the imaging unit 5 </ b> A and the imaging unit 5 </ b> B acquire a stereo photograph of a passing object that passes through a passage formed by the pair of main bodies 101 and 102.

撮像制御部6は、撮像部5A及び撮像部5Bによる撮像のタイミングの制御を行う。即ち、撮像制御部6は、水平同期信号や垂直同期信号を共通化することにより、撮像部5A及び撮像部5Bにより同時に撮像が行われるようにタイミングを制御する。   The imaging control unit 6 controls the timing of imaging by the imaging unit 5A and the imaging unit 5B. That is, the imaging control unit 6 controls the timing so that the imaging unit 5A and the imaging unit 5B perform imaging simultaneously by sharing the horizontal synchronization signal and the vertical synchronization signal.

撮像制御部6の同時性は、例えば、パルスジェネレータにより同期信号を分配するなどして実現が可能である。また、撮像制御部6は、照明制御部4と信号と同期を取ることにより、照明部1の点灯のタイミングに同期させて撮像部5A及び撮像部5Bによる撮像が行われるように撮像部5A及び撮像部5Bを制御する。   The simultaneity of the imaging control unit 6 can be realized, for example, by distributing a synchronization signal by a pulse generator. In addition, the imaging control unit 6 synchronizes with the illumination control unit 4 and the signal so that the imaging unit 5A and the imaging unit 5B perform imaging in synchronization with the lighting timing of the illumination unit 1 and the imaging unit 5A and the imaging unit 5B. The imaging unit 5B is controlled.

また、撮像制御部6は、撮像部5A及び撮像部5Bのエリアイメージセンサのゲインなどの制御を行う。   The imaging control unit 6 controls the gains of the area image sensors of the imaging unit 5A and the imaging unit 5B.

画像入力部7は、撮像部5により取得された画像を逐次取り込む。画像入力部7は、例えば、画像を一時的に保存するメモリ、及びタイミング信号発生部などを備えている。タイミング信号発生部は、画像を取り込むタイミンングを制御するためのタイミング信号を発生させる。   The image input unit 7 sequentially captures images acquired by the imaging unit 5. The image input unit 7 includes, for example, a memory that temporarily stores an image, a timing signal generation unit, and the like. The timing signal generator generates a timing signal for controlling timing for capturing an image.

画像処理部8は、画像入力部7により入力された画像に対して種々の画像処理を行う。例えば、画像処理部8は、入力画像に対して、背景差分処理、及びエッジ検出処理などを施す。また、画像処理部8は、入力画像に対して2値化処理、及びラベリング処理を施す。またさらに、画像処理部8は、ラベリング処理によりラベリングされた各領域の重心をそれぞれ特定する。   The image processing unit 8 performs various image processing on the image input by the image input unit 7. For example, the image processing unit 8 performs background difference processing, edge detection processing, and the like on the input image. The image processing unit 8 performs binarization processing and labeling processing on the input image. Furthermore, the image processing unit 8 specifies the center of gravity of each area labeled by the labeling process.

制御部9は、照明制御部4、撮像制御部6、画像処理部8の動作を総合的に制御する。制御部9は、記憶手段として機能するメモリを備えている。メモリは、例えば、ROM、RAM、及び不揮発性メモリなどにより構成される。ROMは、制御用のプログラム、および制御データなどを予め記憶している。また、RAMは、ワーキングメモリとして機能し、制御部9が処理中のデータなどを一時保管する。不揮発性メモリは、本装置の処理結果などを記憶する。   The control unit 9 comprehensively controls the operations of the illumination control unit 4, the imaging control unit 6, and the image processing unit 8. The control unit 9 includes a memory that functions as a storage unit. The memory is composed of, for example, a ROM, a RAM, and a nonvolatile memory. The ROM stores a control program, control data, and the like in advance. The RAM functions as a working memory and temporarily stores data being processed by the control unit 9. The nonvolatile memory stores the processing result of the apparatus.

制御部9は、検出部として機能する。制御部9は、撮像部5A及び撮像部5Bにより撮像された画像に基づいて、通過検出装置100の本体から通過物までの距離及び通過物の高さを算出するとともに、通過物の通路の通行方向における幅及び通過物の本体間方向の厚さ等を検出する。   The control unit 9 functions as a detection unit. The control unit 9 calculates the distance from the main body of the passage detection device 100 to the passing object and the height of the passing object based on the images captured by the imaging unit 5A and the imaging unit 5B, and passes the passage of the passing object. The width in the direction and the thickness of the passing material between the bodies are detected.

図4及び図5は、1対の本体101、102により形成される通路を対象物(人物)が通過する例について説明するための説明図である。
図4は、1対の本体101、102により形成される通路を上部から見た図である。
図5は、1対の本体101、102により形成される通路を通行方向から見た図である。
4 and 5 are explanatory diagrams for explaining an example in which an object (person) passes through a passage formed by a pair of main bodies 101 and 102. FIG.
FIG. 4 is a view of a passage formed by the pair of main bodies 101 and 102 as viewed from above.
FIG. 5 is a view of a passage formed by the pair of main bodies 101 and 102 as viewed from the direction of travel.

図4及び図5に示すように、通過物が撮像部5A及び撮像部5Bの撮像範囲内に存在している場合、即ち、人物が通路を通過している場合、本体101の通路側に設置されている照明部1から射出される光が人物を照射する。   As shown in FIGS. 4 and 5, when a passing object exists in the imaging range of the imaging unit 5A and the imaging unit 5B, that is, when a person passes through the passage, it is installed on the passage side of the main body 101. The light emitted from the illuminated lighting unit 1 irradiates the person.

図6は、図1乃至図5に示す通過検出装置100により撮像された画像について説明するための説明図である。なお、図6(A)に示す画像は、図4及び図5に示す撮像部5Aにより撮像された画像である。また、図6(B)に示す画像は、図4及び図5示す撮像部5Bにより撮像された画像である。   FIG. 6 is an explanatory diagram for describing an image captured by the passage detection device 100 illustrated in FIGS. 1 to 5. Note that the image illustrated in FIG. 6A is an image captured by the imaging unit 5A illustrated in FIGS. 4 and 5. Further, the image shown in FIG. 6B is an image taken by the imaging unit 5B shown in FIGS.

撮像部5A及び撮像部5Bにより撮像され、画像入力部7により入力された画像(入力画像)は、図6(A)及び図6(B)に示すように、X軸方向(横方向)2Nhorのピクセルと、Y軸方向(縦方向)2Nverのピクセルとにより構成される。入力画像には、通過物と、その通過物を照明部1から射出される光が照射することにより生じる輝点Qとが写り込んでいる。   As shown in FIGS. 6A and 6B, an image (input image) captured by the imaging unit 5A and the imaging unit 5B and input by the image input unit 7 is 2Nhor in the X-axis direction (lateral direction). And 2Nver pixels in the Y-axis direction (vertical direction). The input image includes a passing object and a bright spot Q generated by irradiating the passing object with light emitted from the illumination unit 1.

なお、撮像部5Aと撮像部5Bとに視差がある為、通過物が写り込む位置は、撮像部5Aにより撮像された画像と撮像部5Bにより撮像された画像とでずれが生じる。このずれは、通過物が本体101に近い場合大きくなり、通過物が本体101から遠い場合小さくなる。即ち、制御部9は、各画像において通過物が写り込んでいる位置に基づいて、通過検出装置100の本体から通過物までの距離及び通過物の高さを算出することができる。   In addition, since there is parallax between the imaging unit 5A and the imaging unit 5B, the position where the passing object appears is shifted between the image captured by the imaging unit 5A and the image captured by the imaging unit 5B. This deviation increases when the passing object is close to the main body 101 and decreases when the passing object is far from the main body 101. That is, the control unit 9 can calculate the distance from the main body of the passage detection device 100 to the passing object and the height of the passing object based on the position where the passing object is reflected in each image.

また、この入力画像は、図6(A)及び図6(B)に示すように、Y軸方向のあらかじめ決定される位置で、上側画像と下側画像とに分けられている。撮像部5A及び撮像部5Bは、仰角を持って設置されており、且つ、照明部1は、水平に光を射出するように設置されている。この為、上側画像には、主に、通過物の上端が写り込む。また、下側画像には、通過物が照明部1により照射されて生じる輝点Qが写り込む。   Further, as shown in FIGS. 6A and 6B, the input image is divided into an upper image and a lower image at a predetermined position in the Y-axis direction. The imaging unit 5A and the imaging unit 5B are installed with an elevation angle, and the illumination unit 1 is installed so as to emit light horizontally. For this reason, the upper end of the passing object is mainly reflected in the upper image. In addition, the lower image includes a bright spot Q that is generated when a passing object is irradiated by the illumination unit 1.

次に、通過検出装置100の本体から通過物までの距離及び通過物の高さの算出方法について詳細に説明する。本実施形態では、三角測距の原理を用いて本装置から通過物までの距離を求める方法について説明するが、距離を求める方法は、他の如何なる方法であってもよい。   Next, a method for calculating the distance from the main body of the passage detection device 100 to the passing object and the height of the passing object will be described in detail. In the present embodiment, a method for obtaining the distance from the apparatus to the passing object using the principle of triangulation will be described, but the method for obtaining the distance may be any other method.

まず、入力画像に対する処理について説明する。
図7は、図6に示す入力画像の上側画像に対して行う処理について説明するための説明図である。
First, processing for an input image will be described.
FIG. 7 is an explanatory diagram for describing processing performed on the upper image of the input image illustrated in FIG. 6.

図7(A)及び図7(B)に示す画像は、入力画像における上側画像である。図7(A)に示す画像は、撮像部5Aにより撮像された画像における上側画像である。また、図7(B)に示す画像は、撮像部5Bにより撮像された画像における上側画像である。   The images shown in FIGS. 7A and 7B are upper images in the input image. The image illustrated in FIG. 7A is an upper image in the image captured by the imaging unit 5A. Further, the image shown in FIG. 7B is an upper image in the image captured by the imaging unit 5B.

画像処理部8は、上側画像に対して、背景差分処理を行う。即ち、画像処理部8は、予め撮像されている背景の画像と上側画像とを比較し、差の存在する画素を抽出する。背景差分処理により画像処理部8は、図7(A)に示す画像から図7(C)に示す画像を抽出する。同様に、画像処理部8は、図7(B)に示す画像から図7(D)に示す画像を抽出する。   The image processing unit 8 performs background difference processing on the upper image. That is, the image processing unit 8 compares the background image captured in advance with the upper image, and extracts pixels having a difference. The image processing unit 8 extracts the image shown in FIG. 7C from the image shown in FIG. 7A by the background difference processing. Similarly, the image processing unit 8 extracts the image shown in FIG. 7D from the image shown in FIG.

画像処理部8は、エッジ検出処理部として機能する。画像処理部8は、背景差分処理を行った画像に対して、エッジ検出処理を行う。即ち、画像処理部8は、例えば、SOBELオペレータフィルタなどの微分フィルタを用いて各画素毎に隣接する画素との差分を求めることにより、通過物の輪郭を抽出する。即ち、画像処理部8は、通過物の領域を抽出する。エッジ抽出処理により画像処理部8は、図7(C)に示す画像から図7(E)に示す画像を抽出する。同様に、画像処理部8は、図7(D)に示す画像から図7(F)に示す画像を抽出する。   The image processing unit 8 functions as an edge detection processing unit. The image processing unit 8 performs edge detection processing on the image that has been subjected to background difference processing. That is, the image processing unit 8 extracts the outline of the passing object by obtaining a difference from the adjacent pixel for each pixel by using a differential filter such as a SOBEL operator filter. That is, the image processing unit 8 extracts the area of the passing object. By the edge extraction process, the image processing unit 8 extracts the image shown in FIG. 7E from the image shown in FIG. Similarly, the image processing unit 8 extracts the image shown in FIG. 7F from the image shown in FIG.

また、画像処理部8は、頂点特定部として機能する。即ち、画像処理部8は、エッジ検出処理を行った画像に基づいて、頂点を特定する処理を行う。即ち、画像処理部8は、図7(E)及び図7(F)に示す画像において、特定閾値以下で、且つ、垂直軸方向において最も上にある画素を頂点としてそれぞれ特定する。これにより画像処理部8は、図7(E)において頂点Aを特定する。同様に、画像処理部8は、図7(F)において頂点Bを特定する。   Further, the image processing unit 8 functions as a vertex specifying unit. That is, the image processing unit 8 performs a process of specifying the vertex based on the image subjected to the edge detection process. That is, the image processing unit 8 specifies, as vertices, pixels that are not more than a specific threshold and that are the uppermost in the vertical axis direction in the images illustrated in FIGS. 7E and 7F. Thereby, the image processing unit 8 specifies the vertex A in FIG. Similarly, the image processing unit 8 specifies the vertex B in FIG.

またさらに、画像処理部8は、視差算出部として機能する。画像処理部8は、図7(E)及び図7(F)に示す画像を図7(G)に示すように合成し、頂点Aと頂点Bとの差を算出する。即ち、画像処理部8は、水平軸方向における頂点Aと頂点Bとの距離(ピクセル数)N1を算出する。また、画像処理部8は、垂直軸方向における頂点A及び頂点Bと上側画像の下辺との距離N2を算出する。なお、撮像部5A及び撮像部5Bは、同じ仰角で同じ高さに設置されている。この為、頂点Aと頂点Bの垂直軸方向の差は、ほぼ0である。   Furthermore, the image processing unit 8 functions as a parallax calculation unit. The image processing unit 8 combines the images shown in FIGS. 7E and 7F as shown in FIG. 7G, and calculates the difference between the vertex A and the vertex B. That is, the image processing unit 8 calculates the distance (number of pixels) N1 between the vertex A and the vertex B in the horizontal axis direction. Further, the image processing unit 8 calculates a distance N2 between the vertexes A and B in the vertical axis direction and the lower side of the upper image. The imaging unit 5A and the imaging unit 5B are installed at the same elevation and the same height. For this reason, the difference in the vertical axis direction between the vertex A and the vertex B is almost zero.

次に、撮像部5A及び撮像部5Bの視差に基づいて、通過検出装置100の本体から通過物までの距離を算出する方法について詳細に説明する。   Next, a method for calculating the distance from the main body of the passage detection device 100 to the passing object based on the parallax of the imaging unit 5A and the imaging unit 5B will be described in detail.

図8は、通過検出装置100の各構成の配置の関係について説明するための説明図である。   FIG. 8 is an explanatory diagram for explaining the relationship of the arrangement of the components of the passage detection device 100.

図8に示すように、撮像部5Aと撮像部5Bとは、Dbaseの距離を置いて設置されている。撮像部5A及び撮像部5Bの水平方向における画角は、それぞれθhorである。また、本体101と本体102との距離はLMである。ここで、本体101から通過物までの距離をLaとする。また、この距離Laにおける撮像範囲の通路の通行方向の距離をDhorとする。この場合、距離Laは、次の数式1のように表すことができる。
La=Dhor/(2tan(θhor/2))・・・(数式1)
また、この場合、入力画像の2NhorとDhorとが対応し、N1とDbaseとが対応する為、次の数式2及び数式3が成り立つ。
Dbase/Dhor=N1/2Nhor・・・(数式2)
Dhor=(Dbase・2Nhor)/N1・・・(数式3)
数式3を数式1に代入すると、距離Laは、次の数式4のように表すことができる。
La=(Dbase・Nhor)/(N1・tan(θhor/2))・・・(数式4)
θhor及びDbaseは、撮像部5A及び撮像部5Bの設置状態などの条件に基づく定数である。また、Nhor/N1は、上側画像から得られる値である。この為、通過検出装置100の制御部9は、上側画像に基づいて、本体101から通過物までの水平方向の距離Laを算出することができる。
As shown in FIG. 8, the imaging unit 5A and the imaging unit 5B are installed with a distance of Dbase. The angle of view in the horizontal direction of the imaging unit 5A and the imaging unit 5B is θhor. The distance between the main body 101 and the main body 102 is LM. Here, the distance from the main body 101 to the passing object is La. Further, the distance in the passage direction of the passage of the imaging range at this distance La is Dhor. In this case, the distance La can be expressed as the following formula 1.
La = Dhor / (2 tan (θhor / 2)) (Equation 1)
In this case, since 2Nhor and Dhor of the input image correspond to each other and N1 and Dbase correspond to each other, the following Expressions 2 and 3 are established.
Dbase / Dhor = N1 / 2Nhor (Formula 2)
Dhor = (Dbase · 2Nhor) / N1 (Equation 3)
By substituting Equation 3 into Equation 1, the distance La can be expressed as Equation 4 below.
La = (Dbase · Nhor) / (N1 · tan (θhor / 2)) (Equation 4)
θhor and Dbase are constants based on conditions such as the installation state of the imaging unit 5A and the imaging unit 5B. Nhor / N1 is a value obtained from the upper image. For this reason, the control unit 9 of the passage detection device 100 can calculate the horizontal distance La from the main body 101 to the passing object based on the upper image.

次に、撮像部5A及び撮像部5Bにより撮像した画像に基づいて、通過物の高さを算出する方法について詳細に説明する。   Next, a method for calculating the height of a passing object based on images captured by the imaging unit 5A and the imaging unit 5B will be described in detail.

図9は、通過検出装置100の各構成の配置の関係について説明するための説明図である。   FIG. 9 is an explanatory diagram for explaining the arrangement relationship of the components of the passage detection device 100.

図9に示すように、撮像部5A及び撮像部5Bは、垂直方向Dcamの高さに設置されている。撮像部5A及び撮像部5Bの垂直方向における画角は、それぞれθverである。撮像部5A及び撮像部5Bは、光軸が水平に対してθelの仰角を持つように設置されている。   As shown in FIG. 9, the imaging unit 5A and the imaging unit 5B are installed at a height in the vertical direction Dcam. The angles of view in the vertical direction of the imaging unit 5A and the imaging unit 5B are each θver. The imaging unit 5A and the imaging unit 5B are installed such that the optical axis has an elevation angle of θel with respect to the horizontal.

ここで、撮像部5A及び撮像部5Bの光軸方向のある点Fまでの距離をLcとする。この距離Lcにおける撮像部5A及び撮像部5Bの光軸方向と直交する方向の面をフレーム面とする。このフレーム面において、頂点A及びBと撮像部5A及び撮像部5Bの光軸との距離をDxとする。またさらに、撮像部5A及び撮像部5Bの光軸とで1/2θverの角度を成す直線とフレーム面とが交わる点をRとする。この場合、点Rと点Fとの距離(垂直方向の画像フレーム幅の1/2の距離)をDverとする。   Here, the distance to the point F in the optical axis direction of the imaging unit 5A and the imaging unit 5B is Lc. A surface in a direction orthogonal to the optical axis direction of the imaging unit 5A and the imaging unit 5B at the distance Lc is defined as a frame surface. In this frame plane, the distance between the vertices A and B and the optical axes of the imaging units 5A and 5B is Dx. Furthermore, let R be a point where a straight line that forms an angle of 1 / 2θver with the optical axes of the imaging unit 5A and the imaging unit 5B and the frame surface intersect. In this case, the distance between the point R and the point F (distance that is 1/2 of the image frame width in the vertical direction) is Dver.

上記のような関係で各部が配置されている場合、入力画像のNverとDverとが対応し、N2とDxとが対応する為、次の数式5が成り立つ。
Dver/Dx=N2/Nver・・・(数式5)
また、Dverは次の数式6のように表すことができる。
Dver=tan(θver/2)・Lc・・・(数式6)
ここで、Lcは、次の数式7のように表すことができる。
Lc=Dxtanθel+La/cosθel・・・(数式7)
数式7を数式6に代入した場合、次の数式8が得られる。
Dver=tan(θver/2)・(Dxtanθel+La/cosθel)
・・・(数式8)
数式8を数式5に代入し、Dxについて解いた場合、次の数式9が得られる。

Figure 2010186410
When each part is arranged in the above relationship, Nver and Dver of the input image correspond to each other, and N2 and Dx correspond to each other.
Dver / Dx = N2 / Nver (Formula 5)
Further, Dver can be expressed as the following Expression 6.
Dver = tan (θver / 2) · Lc (Expression 6)
Here, Lc can be expressed as Equation 7 below.
Lc = Dxtan θel + La / cos θel (Expression 7)
When Expression 7 is substituted into Expression 6, the following Expression 8 is obtained.
Dver = tan (θver / 2) · (Dxtanθel + La / cosθel)
... (Formula 8)
When Equation 8 is substituted into Equation 5 and solved for Dx, the following Equation 9 is obtained.
Figure 2010186410

また、通過物の高さDtは、次の数式10のように表すことができる。
Dt=Dcam+La・tanθel+Dx/cosθel・・・(数式10)
θver、θel、及びDcamは、撮像部5A及び撮像部5Bの設置状態などの条件に基づく定数である。また、Nver/N2は、上側画像から得られる値である。この為、通過検出装置100の制御部9は、制御部9は、数式9で得られたDxを数式10に代入することにより、通過物の高さDtを算出することができる。
Further, the height Dt of the passing object can be expressed as the following Expression 10.
Dt = Dcam + La · tan θel + Dx / cos θel (Equation 10)
θver, θel, and Dcam are constants based on conditions such as the installation state of the imaging unit 5A and the imaging unit 5B. Nver / N2 is a value obtained from the upper image. Therefore, the control unit 9 of the passage detection device 100 can calculate the height Dt of the passing object by substituting Dx obtained by Equation 9 into Equation 10.

上記したように、通過検出装置100の制御部9は、撮像部5A及び撮像部5Bにより撮像した画像に基づいて頂点A及び頂点Bを検出する。制御部9は、撮像部5A及び撮像部5Bの設置条件と、頂点A及び頂点Bの座標に基づいて、本体101と通過物との距離La及び、通過物の高さDtを算出することができる。   As described above, the control unit 9 of the passage detection device 100 detects the vertex A and the vertex B based on the images captured by the imaging unit 5A and the imaging unit 5B. The control unit 9 can calculate the distance La between the main body 101 and the passing object and the height Dt of the passing object based on the installation conditions of the imaging unit 5A and the imaging unit 5B and the coordinates of the vertex A and the vertex B. it can.

自動改札装置においては身長が125cm以上の人物は大人であると判定している。この場合、制御部9は、Dtが125cm以上であるか否かを判定し、通過物(人物)が大人であるか否かを判定する。   In the automatic ticket gate, it is determined that a person whose height is 125 cm or more is an adult. In this case, the control unit 9 determines whether or not Dt is 125 cm or more, and determines whether or not the passing object (person) is an adult.

次に、通過検出装置100の本体から通過物までの距離の他の算出方法について詳細に説明する。   Next, another method for calculating the distance from the main body of the passage detection device 100 to the passing object will be described in detail.

まず、入力画像に対する処理について説明する。
図10は、図6に示す入力画像の下側画像に対して行う処理について説明するための説明図である。
First, processing for an input image will be described.
FIG. 10 is an explanatory diagram for describing processing performed on the lower image of the input image illustrated in FIG. 6.

図10(A)は、撮像部5Aまたは撮像部5Bにより撮像された画像の下側画像の例を示す図である。   FIG. 10A is a diagram illustrating an example of a lower image of an image captured by the imaging unit 5A or the imaging unit 5B.

画像処理部8は、下側画像に対して、2値化処理を行う。即ち、画像処理部8は、図示しないメモリに記憶されている閾値と下側画像の各画素の値とを比較し、閾値未満の画素を「0(暗)」、閾値以上の画素を「1(明)」に置き換える。   The image processing unit 8 performs binarization processing on the lower image. That is, the image processing unit 8 compares a threshold value stored in a memory (not shown) with the value of each pixel of the lower image, and “0 (dark)” is set for pixels that are less than the threshold value, and “1” is set for pixels that are equal to or greater than the threshold value. (Ming) ”.

なお、ここでは、照明部1からの照射光が通路を通過している通過物によって反射される箇所が「明」になり、その他の箇所が「暗」になるような閾値がメモリに設定されている。上記した2値化処理により、画像処理部8は、図10(A)に示す画像から図10(B)に示すような画像を抽出する。   Here, a threshold value is set in the memory such that a portion where the irradiation light from the illumination unit 1 is reflected by a passing object passing through the passage becomes “bright” and other portions become “dark”. ing. By the above binarization process, the image processing unit 8 extracts an image as shown in FIG. 10B from the image shown in FIG.

画像処理部8は、2値化処理を行った画像に対して、ラベリング処理を行う。即ち、画像処理部8は、図10(B)に示す画像において「明」となっている画素でラベルを付加していない画素を一つ見つけ、ラベルを付加する。画像処理部8は、ラベルを付加した画素に連結している4近傍の画素のうちの「明」の画素に同じラベルを付加する。   The image processing unit 8 performs a labeling process on the binarized image. That is, the image processing unit 8 finds one pixel that is “bright” in the image shown in FIG. 10B and has no label added, and adds a label. The image processing unit 8 adds the same label to the “bright” pixels among the four neighboring pixels connected to the labeled pixels.

この処理を画像全体に行うことにより、「明」の領域(輝点)をグループとして分類する。上記したラベリング処理により、図10(C)に示すようなデータが得られる。図10(C)は、ラベリング処理により画素毎に付加されたラベル情報の例を示す図である。図では3つの領域が照明位置として検出されている。   By performing this process on the entire image, “bright” regions (bright spots) are classified as groups. By the above labeling process, data as shown in FIG. 10C is obtained. FIG. 10C is a diagram illustrating an example of label information added to each pixel by the labeling process. In the figure, three areas are detected as illumination positions.

なお、本実施形態では、「明」の画素の4近傍の画素にラベルを付加するようにラベリング処理を行ったが、これに限定されない。ラベリング処理は、如何なる範囲で行われてもよい。照明のサイズ、照明の光の均一度、ノイズの影響などにより画素にばらつきが出る可能性があるため、ラベリング処理を行う範囲は、例えば、周囲8画素、または周囲24画素など、適宜設定することができる。   In the present embodiment, the labeling process is performed so as to add a label to pixels in the vicinity of four “bright” pixels. However, the present invention is not limited to this. The labeling process may be performed in any range. Since the pixels may vary depending on the size of the illumination, the uniformity of the illumination light, the influence of noise, etc., the range for the labeling process should be set as appropriate, for example, around 8 pixels or around 24 pixels. Can do.

さらに、画像処理部8は、ラベリング処理を行った画像に基づいて、各グループの重心を算出する重心算出処理を行う。即ち、画像処理部8は、領域内の各画素の座標と画素数とに基づいて、各照明の中心の座標(重心)を求める。   Further, the image processing unit 8 performs a centroid calculation process for calculating the centroid of each group based on the image on which the labeling process has been performed. That is, the image processing unit 8 obtains the coordinates (center of gravity) of the center of each illumination based on the coordinates and the number of pixels of each pixel in the area.

図10(D)は、ラベリング処理により分類された1つの領域を示す図である。図10(D)に示すように、分類された領域の中に5つの画素が存在している。この領域の重心の座標を(Xc、Yc)とし、領域内の各画素の座標を(Xi、Yi)とし、領域内の画素数をnとした場合、下記の数式11及び数式12が成り立つ。

Figure 2010186410
FIG. 10D is a diagram illustrating one region classified by the labeling process. As shown in FIG. 10D, there are five pixels in the classified area. When the coordinates of the center of gravity of this area are (Xc, Yc), the coordinates of each pixel in the area are (Xi, Yi), and the number of pixels in the area is n, the following Expressions 11 and 12 hold.
Figure 2010186410

Figure 2010186410
Figure 2010186410

上記の数式11及び数式12により、重心(Xc、Yc)を特定することができる。画像処理部8は、この特定した重心と、下側画像の上端中央の点MとのX軸方向における距離N3を算出する。また画像処理部8は、特定した重心と、下側画像の上端中央の点MとのY軸方向における距離N4を算出する。   The center of gravity (Xc, Yc) can be specified by Expressions 11 and 12 above. The image processing unit 8 calculates a distance N3 in the X-axis direction between the specified center of gravity and the upper center point M of the lower image. Further, the image processing unit 8 calculates a distance N4 in the Y-axis direction between the specified center of gravity and the upper center point M of the lower image.

次に、下側画像に基づいて、通過検出装置100の本体から通過物までの距離を算出する方法について詳細に説明する。   Next, a method for calculating the distance from the main body of the passage detection device 100 to the passing object based on the lower image will be described in detail.

図11は、通過検出装置100の各構成の配置の関係について説明するための説明図である。なお、ここでは、撮像部5Aにより撮像された画像に基づいて通過検出装置100の本体から通過物までの距離を算出することを前提として説明する。しかし、撮像部5Bにより撮像された画像に基づいて通過検出装置100の本体から通過物までの距離を算出する場合でも、同様の処理により同様の結果を得ることができる。   FIG. 11 is an explanatory diagram for explaining the arrangement relationship of the components of the passage detection device 100. Here, the description is based on the assumption that the distance from the main body of the passage detection device 100 to the passing object is calculated based on the image captured by the imaging unit 5A. However, even when the distance from the main body of the passage detection device 100 to the passing object is calculated based on the image picked up by the image pickup unit 5B, the same result can be obtained by the same processing.

図11に示すように、撮像部5Aと照明部1とは、通路の通行方向においてWsの距離を置いて設置されている。この照明部1は、本体101の通路側に複数設置されている照明部1のうちの1つであり、その光軸が、撮像部5Aの光軸と通路の通行方向において異なるものであるとする。   As shown in FIG. 11, the imaging unit 5A and the illumination unit 1 are installed with a distance of Ws in the passage direction of the passage. The illuminating unit 1 is one of a plurality of illuminating units 1 installed on the passage side of the main body 101, and the optical axis thereof is different from the optical axis of the imaging unit 5A in the passage direction of the passage. To do.

撮像部5A水平方向における画角は、θhorである。また、本体101と本体102との距離はLMである。また、通過物において照明部1により光が照射される箇所(輝点)Qと、撮像部5Aとを結ぶ線と撮像部5Aの光軸とが成す角をθaとする。またさらに、撮像部5と照明位置Qとの水平方向における距離をLaとすると、下記の数式13が成り立つ。
tanθa=Ws/La・・・(数式13)
ここで、撮像部5Aの光軸方向のある点Fまでの距離をLcとし、距離Lcにおける光軸方向と直行する方向の面をフレーム面とする。また、撮像部5Aと点Qとを結ぶ線の延長線とフレーム面とが交わる点をQ´とする。この場合、点Q´と点Fとの距離Waは、下記の数式14のように表される。
Wa=Lc・tanθa・・・(数式14)
ここで、撮像部5Aの光軸とで1/2θhorの角度を成す直線とフレーム面とが交わる点をSとする。この場合、点Sと点Fとの距離(垂直方向の画像フレーム幅の1/2の距離)Whorは、下記の数式15のように表される。
Whor=Lc・tan(θhor/2)・・・(数式15)
また、この場合、入力画像のNhorとWhorとが対応し、N3とWaとが対応する為、次の数式16が成り立つ。
Wa/Whor=N3/Nhor・・・(数式16)
数式13乃至数式16をLaについて解くと、下記の数式17が得られる。
La=Ws・Nhor/N3・tan(θhor/2)・・・(数式17)
θhor及びWsは、照明部1及び撮像部5Aの設置状態などの条件に基づく定数である。また、N3/Nhorは、画像から得られる値である。この為、通過検出装置100の制御部9は、撮像部5Aにより取得した画像に基づいて、本体101から通過物までの水平方向の距離Laを算出することができる。
The angle of view in the horizontal direction of the imaging unit 5A is θhor. The distance between the main body 101 and the main body 102 is LM. In addition, an angle formed by a line connecting the portion (bright spot) Q irradiated with light from the illumination unit 1 in the passing object and the imaging unit 5A and the optical axis of the imaging unit 5A is defined as θa. Further, when the distance in the horizontal direction between the imaging unit 5 and the illumination position Q is La, the following Expression 13 is established.
tan θa = Ws / La (Formula 13)
Here, a distance to a point F in the optical axis direction of the imaging unit 5A is Lc, and a plane perpendicular to the optical axis direction at the distance Lc is a frame plane. Further, a point where an extension line of the line connecting the imaging unit 5A and the point Q and the frame surface intersect is defined as Q ′. In this case, the distance Wa between the point Q ′ and the point F is expressed as the following Expression 14.
Wa = Lc · tan θa (Formula 14)
Here, S is a point where a straight line forming an angle of 1 / 2θhor with the optical axis of the imaging unit 5A intersects the frame surface. In this case, the distance between the point S and the point F (a distance that is ½ of the image frame width in the vertical direction) Whor is expressed as Equation 15 below.
Whor = Lc · tan (θhor / 2) (Formula 15)
In this case, since Nhor and Whor of the input image correspond to each other and N3 and Wa correspond to each other, the following Expression 16 is established.
Wa / Wor = N3 / Nhor (Expression 16)
When Equations 13 to 16 are solved for La, the following Equation 17 is obtained.
La = Ws · Nhor / N3 · tan (θhor / 2) (Expression 17)
θhor and Ws are constants based on conditions such as the installation state of the illumination unit 1 and the imaging unit 5A. N3 / Nhor is a value obtained from the image. For this reason, the control unit 9 of the passage detection device 100 can calculate the horizontal distance La from the main body 101 to the passing object based on the image acquired by the imaging unit 5A.

次に、下側画像に基づいて、通過検出装置100の本体から通過物の距離を算出する他の方法について詳細に説明する。   Next, another method for calculating the distance of the passing object from the main body of the passage detection device 100 based on the lower image will be described in detail.

図12は、通過検出装置100の各構成の配置の関係について説明するための説明図である。   FIG. 12 is an explanatory diagram for explaining the arrangement relationship of the components of the passage detection device 100.

図12に示すように、撮像部5A及び撮像部5Bは、垂直方向Dcamの高さに設置されている。撮像部5A及び撮像部5Bの垂直方向における画角は、それぞれθverである。撮像部5A及び撮像部5Bは、光軸が水平に対してθelの仰角を持つように設置されている。また、照明部1は、撮像部5A及び撮像部5BよりDsの距離だけ下方に設置されている。また、通過物において照明部1により光が照射される箇所(輝点)Qと撮像部5Aとを結ぶ線と、水平とが成す角をθaとする。   As shown in FIG. 12, the imaging unit 5A and the imaging unit 5B are installed at a height in the vertical direction Dcam. The angles of view in the vertical direction of the imaging unit 5A and the imaging unit 5B are each θver. The imaging unit 5A and the imaging unit 5B are installed such that the optical axis has an elevation angle of θel with respect to the horizontal. In addition, the illumination unit 1 is disposed below the imaging unit 5A and the imaging unit 5B by a distance of Ds. In addition, an angle formed by a line connecting a portion (bright spot) Q irradiated with light from the illumination unit 1 and the imaging unit 5A in the passing object and the horizontal is θa.

ここで、撮像部5A及び撮像部5Bの光軸方向のある点Fまでの距離をLcとする。この距離Lcにおける撮像部5A及び撮像部5Bの光軸方向と直交する方向の面をフレーム面とする。また、撮像部5A及び撮像部5Bと輝点Qとを結ぶ線の延長線とフレーム面とが交わる線をQ´とする。ここで、点Fと点Q´との距離をDaとした場合、Daは次の数式18により表すことができる。
Da=Lc・tan(θel+θa)・・・(数式18)
また、ここで、撮像部5A及び撮像部5Bの光軸とで1/2θverの角度を成す直線とフレーム面とが交わる点をRとする。この場合、点Rと点Fとの距離(垂直方向の画像フレーム幅の1/2の距離)Dverは、下記の数式19のように表される。
Dver=Lc・(θver/2)・・・(数式19)
また、この場合、入力画像のNverとDverとが対応し、N4とDaとが対応する為、次の数式20が成り立つ。
Da/Dver=N4/Nver・・・(数式20)
数式18乃至数式20をLaについて解くと、下記の数式21が得られる。
La=Ds・(C・tanθel+1)/(C−tanθel)・・・(数式21)
なお、Cは、下記の数式22によりあらわされる。
C=N2・tan(θver/2)/Nver・・・(数式22)
θel、θver及びDsは、照明部1、撮像部5A、及び撮像部5Bの設置状態などの条件に基づく定数である。また、N4/Nverは、画像から得られる値である。この為、通過検出装置100の制御部9は、撮像部5Aまたは撮像部5Bにより取得した画像に基づいて、本体101から通過物までの距離(輝点Qまでの水平方向の距離)Laを算出することができる。
Here, the distance to the point F in the optical axis direction of the imaging unit 5A and the imaging unit 5B is Lc. A surface in a direction orthogonal to the optical axis direction of the imaging unit 5A and the imaging unit 5B at the distance Lc is defined as a frame surface. Also, let Q ′ be the line where the extension line of the line connecting the imaging unit 5A and the imaging unit 5B and the bright spot Q intersects the frame surface. Here, when the distance between the point F and the point Q ′ is Da, Da can be expressed by the following Expression 18.
Da = Lc · tan (θel + θa) (Formula 18)
Here, let R be the point where a straight line that forms an angle of 1 / 2θver with the optical axes of the imaging unit 5A and the imaging unit 5B and the frame plane intersect. In this case, the distance Dver between the point R and the point F (distance that is ½ of the image frame width in the vertical direction) Dver is expressed as the following Expression 19.
Dver = Lc · (θver / 2) (Equation 19)
In this case, since Nver and Dver of the input image correspond to each other and N4 and Da correspond to each other, the following Expression 20 is established.
Da / Dver = N4 / Nver (Equation 20)
When Equations 18 to 20 are solved for La, the following Equation 21 is obtained.
La = Ds · (C · tan θel + 1) / (C−tan θel) (Formula 21)
C is expressed by the following formula 22.
C = N2 · tan (θver / 2) / Nver (Equation 22)
θel, θver, and Ds are constants based on conditions such as the installation state of the illumination unit 1, the imaging unit 5A, and the imaging unit 5B. N4 / Nver is a value obtained from the image. Therefore, the control unit 9 of the passage detection device 100 calculates a distance La (horizontal distance to the bright spot Q) La from the main body 101 based on the image acquired by the imaging unit 5A or the imaging unit 5B. can do.

上記したように、通過検出装置100の制御部9は、撮像部5Aまたは撮像部5Bにより撮像した画像に基づいて輝点Qの重心点を特定する。制御部9は、特定した輝点Qの重心点の座標と、撮像部5A、撮像部5B、及び照明部1の設置条件とに基づいて、本体101と通過物との距離Laを算出することができる。   As described above, the control unit 9 of the passage detection device 100 specifies the barycentric point of the bright spot Q based on the image captured by the imaging unit 5A or the imaging unit 5B. The control unit 9 calculates the distance La between the main body 101 and the passing object based on the coordinates of the center of gravity of the specified bright spot Q and the installation conditions of the imaging unit 5A, the imaging unit 5B, and the illumination unit 1. Can do.

なお、撮像部5A及び5Bの光軸の角度は、少なくとも、照明部1の光軸と交差しない角度であれば、如何なる角度で配置されてもよい。   The angles of the optical axes of the imaging units 5A and 5B may be arranged at any angle as long as they do not intersect with the optical axis of the illumination unit 1 at least.

また、上記したように距離Laを1対の本体101、102の両側からそれぞれ算出することにより、通過物の本体間方向の厚みLwを算出することができる。即ち、一方の本体101から通過物までの距離をLa1とし、他方の本体102から通過物までの距離をLa2とし、1対の本体101と本体102との間隔がLMである場合、通過物の本体間方向の厚さLwは、Lw=LM−(La1+La2)という式により求めることができる。これにより、例えば、カバンなどの厚さが薄いものを人であると誤認することを防ぐことができる。   Further, as described above, by calculating the distance La from both sides of the pair of main bodies 101 and 102, it is possible to calculate the thickness Lw of the passing material between the main bodies. That is, when the distance from one main body 101 to the passing object is La1, the distance from the other main body 102 to the passing object is La2, and the distance between the pair of main bodies 101 and the main body 102 is LM, The thickness Lw in the direction between the main bodies can be obtained by the equation Lw = LM− (La1 + La2). Thereby, for example, it is possible to prevent a person having a small thickness such as a bag from being mistaken as a person.

上記したように、同一の照明について2通りの方法で本体から通過物までの距離を算出する例について説明したが、正確に距離を算出できない場合がある。例えば、輝点の間隔が狭い場合、または照明部1が連続照明である場合、対象物までの距離とその水平方向の位置の対応付けができない。そこで、図12において説明した方法を用いてLaを算出し、下記の数式23によりWsを逆算して図11に示す方法を用いることにより、距離Laを正確に算出することができる。   As described above, the example in which the distance from the main body to the passing object is calculated by two methods for the same illumination has been described, but the distance may not be calculated accurately. For example, when the interval between bright spots is narrow, or when the illumination unit 1 is continuous illumination, it is not possible to associate the distance to the object with the position in the horizontal direction. Accordingly, La can be calculated using the method described in FIG. 12, and Ws can be back calculated by the following formula 23 to use the method shown in FIG. 11 to accurately calculate the distance La.

Ws=N3・tan(θhor/2)・La/Nhor・・・(数式23)
図13は、図1に示す通過検出装置100の動作について説明するためのフローチャートである。
まず、通過検出装置100は、撮像部5A及び撮像部5Bにより画角内の画像を取得する(ステップS11)。通過検出装置100の画像処理部8及び制御部9は、取得した画像を上側画像と下側画像とに分割する(ステップS12)。
Ws = N3 · tan (θhor / 2) · La / Nhor (Equation 23)
FIG. 13 is a flowchart for explaining the operation of the passage detection apparatus 100 shown in FIG.
First, the passage detection device 100 acquires an image within an angle of view by the imaging unit 5A and the imaging unit 5B (step S11). The image processing unit 8 and the control unit 9 of the passage detection device 100 divide the acquired image into an upper image and a lower image (step S12).

画像処理部8及び制御部9は、上側画像に対して上側演算処理を行う(ステップS13)。また、画像処理部8及び制御部9は、下側画像に対して下側演算処理を行う(ステップS14)。即ち、制御部9は、上側演算処理及び下側演算処理により距離La及び高さDtを算出する。   The image processing unit 8 and the control unit 9 perform upper calculation processing on the upper image (step S13). Further, the image processing unit 8 and the control unit 9 perform a lower calculation process on the lower image (step S14). That is, the control unit 9 calculates the distance La and the height Dt by the upper calculation process and the lower calculation process.

制御部9は、上側演算処理及び下側演算処理の処理結果(距離La及び高さDt)を、画像処理部8内のRAM(ランダムアクセスメモリ)に書き込み(ステップS15)、処理を終了する。   The control unit 9 writes the processing results (distance La and height Dt) of the upper calculation process and the lower calculation process to the RAM (random access memory) in the image processing unit 8 (step S15), and ends the process.

図14は、図13に示す上側演算処理について説明するためのフローチャートである。
通過検出装置100の画像処理部8は、上側画像に対して、背景差分処理を行う(ステップS21)。即ち、画像処理部8は、予め撮像されている背景の画像と上側画像とを比較し、差の存在する画素を抽出する。
FIG. 14 is a flowchart for explaining the upper calculation process shown in FIG.
The image processing unit 8 of the passage detection device 100 performs background difference processing on the upper image (step S21). That is, the image processing unit 8 compares the background image captured in advance with the upper image, and extracts pixels having a difference.

画像処理部8は、背景差分処理を行った画像に対して、エッジ検出処理を行う(ステップS22)。即ち、画像処理部8は、例えば微分処理により、各画素毎に隣接する画素との差分を求めることにより、通過物の輪郭を抽出する。   The image processing unit 8 performs edge detection processing on the image that has been subjected to background difference processing (step S22). That is, the image processing unit 8 extracts the outline of the passing object by obtaining a difference from the adjacent pixel for each pixel by, for example, differentiation processing.

画像処理部8は、エッジ検出処理を行った画像に基づいて、頂点を特定する処理を行う(ステップS23)。即ち、画像処理部8は、エッジ検出処理を行った画像において、特定閾値以上で、且つ、垂直軸方向において最も上にある画素を頂点として特定する。なお、画像処理部8は、撮像部5Aにより撮像した画像と撮像部5Aにより撮像した画像とのそれぞれにおいて頂点を特定する。   The image processing unit 8 performs a process of specifying a vertex based on the image subjected to the edge detection process (step S23). That is, the image processing unit 8 specifies, as an apex, a pixel that is equal to or higher than a specific threshold and that is uppermost in the vertical axis direction in the image subjected to the edge detection process. Note that the image processing unit 8 specifies a vertex in each of the image captured by the imaging unit 5A and the image captured by the imaging unit 5A.

次に、通過検出装置100の制御部9は、特定した各上側画像の頂点の座標の差を算出し、算出した差に基づいて本体101と通過物との距離Laを算出する(ステップS24)。   Next, the control unit 9 of the passage detection device 100 calculates the difference between the coordinates of the vertices of each identified upper image, and calculates the distance La between the main body 101 and the passing object based on the calculated difference (step S24). .

また、通過検出装置100の制御部9は、特定した各上側画像の頂点の座標の高さに基づいて頂点の高さDtを算出する(ステップS25)。   Further, the control unit 9 of the passage detection device 100 calculates the vertex height Dt based on the coordinate height of the vertex of each identified upper image (step S25).

図15は、図13に示す下側演算処理について説明するためのフローチャートである。
通過検出装置100の画像処理部8は、下側画像に対して、2値化処理を行う(ステップS31)。即ち、画像処理部8は、閾値と入力画像の各画素の値とを比較し、閾値未満の画素を「暗」、閾値以上の画素を「明」に置き換える。
FIG. 15 is a flowchart for explaining the lower-side arithmetic processing shown in FIG.
The image processing unit 8 of the passage detection device 100 performs binarization processing on the lower image (step S31). In other words, the image processing unit 8 compares the threshold value with the value of each pixel of the input image, and replaces the pixels below the threshold value with “dark” and the pixels above the threshold value with “light”.

画像処理部8は、2値化を施した画像に対してラベリング処理を行う(ステップS32)。即ち、画像処理部8は、隣接する「明」の画素に同じラベルを付する処理を、2値化処理を施した画像全体に施す。   The image processing unit 8 performs a labeling process on the binarized image (step S32). That is, the image processing unit 8 performs the process of attaching the same label to adjacent “bright” pixels on the entire image subjected to the binarization process.

画像処理部8は、ラベリング処理を施した画像に基づいて、各グループの重心点を算出する重心算出処理を行う(ステップS33)。即ち、画像処理部8は、領域内の各画素の座標と画素数とに基づいて、輝点Qの中心の座標(重心点)を求める。   The image processing unit 8 performs a centroid calculation process for calculating the centroid point of each group based on the image subjected to the labeling process (step S33). That is, the image processing unit 8 obtains the coordinates (centroid point) of the center of the bright spot Q based on the coordinates and the number of pixels of each pixel in the region.

次に、通過検出装置100の制御部9は、算出した輝点Qの重心点の座標に基づいて本体101と通過物との距離Laを算出する(ステップS34)。   Next, the control unit 9 of the passage detection device 100 calculates the distance La between the main body 101 and the passing object based on the calculated coordinates of the center of gravity of the bright spot Q (step S34).

上記したように、通過検出装置100は、撮像部5A及び撮像部5Bにより撮像した画像に基づいて上側演算処理及び下側演算処理を行い、本体と通過物との距離Laを求めることができる。この結果、簡易な構成で、より高い精度で通過物を検出することができる通過検出装置を提供することができる。   As described above, the passage detection device 100 can perform the upper calculation process and the lower calculation process based on the images captured by the imaging unit 5A and the imaging unit 5B, and obtain the distance La between the main body and the passing object. As a result, it is possible to provide a passage detection device capable of detecting a passing object with higher accuracy with a simple configuration.

なお、上記した実施形態では、通過検出装置100は、所定の間隔を持って設けられた撮像部5A及び撮像部5Bと、水平に複数配列された照明部1と、を備えているとして説明したが、この構成に限定されない。例えば、照明部1の数をさらに増やしてもよい。   In the above-described embodiment, the passage detection device 100 has been described as including the imaging unit 5A and the imaging unit 5B provided with a predetermined interval, and the illumination units 1 arranged in a plurality horizontally. However, it is not limited to this configuration. For example, the number of illumination units 1 may be further increased.

図16は、通過検出装置100の他の例の概観を示す図である。図16に示すように、通過検出装置100は、照明部1を複数列備えている。即ち、通過検出装置100は、異なる高さにそれぞれ水平に配列された複数の照明部1備えている。このように照明部1を複数列配列することにより、通過検出装置100は、異なる高さで通過物までの距離を検出することができる。   FIG. 16 is a diagram illustrating an overview of another example of the passage detection device 100. As illustrated in FIG. 16, the passage detection device 100 includes a plurality of rows of illumination units 1. In other words, the passage detection device 100 includes a plurality of illumination units 1 that are horizontally arranged at different heights. Thus, by arranging the illumination units 1 in a plurality of rows, the passage detection device 100 can detect the distance to the passing object at different heights.

図17は、通過検出装置100のさらに他の例の概観を示す図である。図17に示すように、通過検出装置100は、照明部として、ライン状の連続的な平行照明11を備えている。このように照明部として平行照明11を用いることにより、水平方向の分解能を上げることができる。   FIG. 17 is a diagram illustrating an overview of still another example of the passage detection device 100. As illustrated in FIG. 17, the passage detection device 100 includes a line-shaped continuous parallel illumination 11 as an illumination unit. By using the parallel illumination 11 as the illumination unit in this way, the horizontal resolution can be increased.

次に、本発明の第2の実施形態に係る通過検出装置について詳細に説明する。   Next, the passage detection apparatus according to the second embodiment of the present invention will be described in detail.

図18は、第2の実施形態に係る通過検出装置100の構成例について説明するためのブロック図である。なお、第1の実施形態の通過検出装置100の各ブロックと同じ構成には同じ参照符号を付し、その詳細な説明を省略する。   FIG. 18 is a block diagram for explaining a configuration example of the passage detection apparatus 100 according to the second embodiment. The same reference numerals are given to the same components as those of the passage detection device 100 of the first embodiment, and detailed description thereof will be omitted.

図18に示すように、通過検出装置100は、照明部1、照明部2、照明制御部4、撮像部5A、撮像部5B、撮像制御部6、画像入力部7、画像処理部8、および制御部9などを備えている。画像入力部7、画像処理部8、及び制御部9は、バス10などを介して互いに接続されている。   As shown in FIG. 18, the passage detection device 100 includes an illumination unit 1, an illumination unit 2, an illumination control unit 4, an imaging unit 5A, an imaging unit 5B, an imaging control unit 6, an image input unit 7, an image processing unit 8, and A control unit 9 and the like are provided. The image input unit 7, the image processing unit 8, and the control unit 9 are connected to each other via a bus 10 or the like.

なお、第1の実施形態において説明した照明部1を第1の照明部1とし、本実施形態において追加した照明部2を第2の照明部2として区別して説明する。   The illumination unit 1 described in the first embodiment is referred to as the first illumination unit 1, and the illumination unit 2 added in the present embodiment is distinguished as the second illumination unit 2.

第2の照明部2は、図19及び図20に示すように、撮像部5A及び撮像部5Bが設置されている本体101と反対側の他方の本体102の通路側に複数水平に並べられた状態で設置される。第2の照明部2は、例えば、近赤外の光を発するLEDなどにより構成される。また、第2の照明部2は、図示しない拡散板を備えている。即ち、LEDから発せられた光は、拡散板により拡散され、一方の本体101に設置されている撮像部5A及び撮像部5Bに入射する。   As shown in FIGS. 19 and 20, a plurality of second illumination units 2 are arranged horizontally on the passage side of the other main body 102 opposite to the main body 101 on which the imaging unit 5A and the imaging unit 5B are installed. Installed in a state. The 2nd illumination part 2 is comprised by LED etc. which emit near-infrared light, for example. Moreover, the 2nd illumination part 2 is provided with the diffusion plate which is not shown in figure. That is, the light emitted from the LED is diffused by the diffusion plate and is incident on the imaging unit 5A and the imaging unit 5B installed on one main body 101.

なお、第1の照明部1及び第2の照明部2は、第1の照明部1からの照明が、第2の照明部2の光の射出口に当たらないように、高さ方向、あるいは、水平方向に互いにずらされて配置される。または、設置位置をずらさずに、第1の照明部1及び第2の照明部2の照明の点灯タイミングを互いにずらしてもよい。   The first illuminating unit 1 and the second illuminating unit 2 are arranged in the height direction so that the illumination from the first illuminating unit 1 does not hit the light exit of the second illuminating unit 2 or , Are displaced from each other in the horizontal direction. Or you may shift the lighting timing of the illumination of the 1st illumination part 1 and the 2nd illumination part 2 mutually, without shifting an installation position.

図21は、図18に示す通過検出装置100の撮像部5A及び撮像部5Bにより撮像された画像について説明するための説明図である。図21(A)に示す画像は、撮像部5Aにより撮像された画像である。また、図21(B)に示す画像は、撮像部5Bにより撮像された画像である。   FIG. 21 is an explanatory diagram for describing images captured by the imaging unit 5A and the imaging unit 5B of the passage detection device 100 illustrated in FIG. The image illustrated in FIG. 21A is an image captured by the imaging unit 5A. In addition, the image illustrated in FIG. 21B is an image captured by the imaging unit 5B.

図21に示すように、本実施形態の下側画像には、第1の実施形態において説明した第1の照明部1による輝点Qが写りこんでいる。またさらに、本実施形態の下側画像には、第2の照明部2による輝点Sが写りこんでいる。   As shown in FIG. 21, the lower image of this embodiment includes the bright spot Q by the first illumination unit 1 described in the first embodiment. Furthermore, the bright spot S by the second illumination unit 2 is reflected in the lower image of the present embodiment.

第2の照明部2による輝点Sは、常に同じ位置に写り込む。しかし、第2の照明部2と撮像部5A及び撮像部5Bとの間に通過物が存在する場合、第2の照明部2からの光が遮断される為、輝点Sは写りこまない。制御部9は、画像中の所定の位置に輝点Sが存在するか否かに基づいて、通過物の有無を検知する。即ち、制御部9は、所定の位置に輝点Sが存在すると判断した場合、通路に通過物が存在しないと判断する。また、制御部9は、所定の位置に輝点Sが存在しないと判断した場合、通路に通過物が存在すると判断する。   The bright spot S by the second illumination unit 2 always appears in the same position. However, when a passing object exists between the second illumination unit 2 and the imaging unit 5A and the imaging unit 5B, the light from the second illumination unit 2 is blocked, so that the bright spot S does not appear. The control unit 9 detects the presence or absence of a passing object based on whether or not the bright spot S exists at a predetermined position in the image. That is, when it is determined that the bright spot S exists at a predetermined position, the control unit 9 determines that there is no passing object in the passage. Further, when the control unit 9 determines that the bright spot S does not exist at the predetermined position, the control unit 9 determines that there is a passing object in the passage.

なお、所定位置に輝点Sが存在するか否かの判断を1画素について行う場合、ノイズの為に正確な判定が行われない場合がある。そこで、判定する照明の位置座標の近傍の複数(例えば8近傍)の画素の値の平均値に基づいて輝点Sの有無の判定を行ってもよい。   In addition, when determining whether or not the bright spot S exists at a predetermined position for one pixel, an accurate determination may not be performed due to noise. Therefore, the presence / absence of the bright spot S may be determined based on an average value of a plurality of (for example, 8 neighboring) pixels in the vicinity of the position coordinate of the illumination to be determined.

この構成により、例えば、反射率の低い通過物などの、第1の照明部1からの照明では検出することができない通過物を検出することができる。この結果、簡易な構成で、さらに高い精度で通過物を検出することができる通過検出装置を提供することができる。   With this configuration, it is possible to detect a passing object that cannot be detected by illumination from the first illumination unit 1, such as a passing object with low reflectance. As a result, it is possible to provide a passage detection device that can detect passing objects with a simple configuration with higher accuracy.

上記の第1及び第2の実施形態では、片側の本体101が照明部1、撮像部5A、及び撮像部5Bを備えているとして説明したが、これに限定されない。通路を形成する通過検出装置100の両方の本体101、及び102がそれぞれ照明部1、撮像部5A、及び撮像部5Bを備えてもよい。   In the first and second embodiments described above, the one-side main body 101 is described as including the illumination unit 1, the imaging unit 5A, and the imaging unit 5B. However, the present invention is not limited to this. Both main bodies 101 and 102 of the passage detection device 100 that form the passage may include the illumination unit 1, the imaging unit 5A, and the imaging unit 5B, respectively.

図22乃至図24は、通路を形成する通過検出装置100の両方の本体101、102がそれぞれ照明部1、撮像部5A、及び撮像部5Bを備える例について説明するための説明図である。   22 to 24 are explanatory diagrams for describing an example in which both main bodies 101 and 102 of the passage detection device 100 forming the passage include the illumination unit 1, the imaging unit 5A, and the imaging unit 5B, respectively.

図22は、1対の本体101、102により形成される通路を上部から見た図をそれぞれの本体の機能を分解して説明するための図である。図23は、1対の本体101、102により形成される通路を通行方向から見た図をそれぞれの本体の機能を分解して説明するための図である。   FIG. 22 is a diagram for explaining a function of each main body by disassembling a view of a passage formed by the pair of main bodies 101 and 102 as viewed from above. FIG. 23 is a diagram for explaining the passage formed by the pair of main bodies 101 and 102 as seen from the direction of travel, with the functions of the main bodies disassembled.

図22及び図23に示すように、通過検出装置100の一方の本体(第1の本体)101は、照明部1、撮像部5A、及び撮像部5Bを備えている。また、通過検出装置100の他方の本体(第2の本体)102も、照明部1、撮像部5A、及び撮像部5Bを備えている。   As shown in FIGS. 22 and 23, one main body (first main body) 101 of the passage detection device 100 includes an illumination unit 1, an imaging unit 5A, and an imaging unit 5B. The other main body (second main body) 102 of the passage detection device 100 also includes the illumination unit 1, the imaging unit 5A, and the imaging unit 5B.

図22及び図23に示すように、通過物が撮像部5A及び撮像部5Bの撮像範囲内に存在している。この為、本体101及び本体102の通路側に複数設置されている照明部1から射出される光が通過物により反射される。   As shown in FIGS. 22 and 23, the passing object exists within the imaging range of the imaging unit 5A and the imaging unit 5B. For this reason, the light inject | emitted from the illumination part 1 installed in multiple numbers by the channel | path side of the main body 101 and the main body 102 is reflected by a passing material.

ここで、例えば、通過物と本体101との距離La1が通過物と本体102との距離La2より長いと仮定した場合、図24(A)乃至図24(D)に示すような画像が撮像される。   Here, for example, when it is assumed that the distance La1 between the passing object and the main body 101 is longer than the distance La2 between the passing object and the main body 102, images as shown in FIGS. 24A to 24D are captured. The

図24は、図22及び図23に示す通過検出装置100の撮像部5A及び撮像部5Bにより撮像された画像の例について説明するための説明図である。   FIG. 24 is an explanatory diagram for describing an example of an image captured by the imaging unit 5A and the imaging unit 5B of the passage detection device 100 illustrated in FIGS. 22 and 23.

図24(A)は、本体101の撮像部5Aにより撮像された画像である。図24(A)に示すように、画像の右寄りの位置に通過物が写り込んでいる。図24(B)は、本体101の撮像部5Bにより撮像された画像である。図24(B)に示すように、画像の左寄りの位置に通過物が写り込んでいる。   FIG. 24A shows an image captured by the imaging unit 5A of the main body 101. FIG. As shown in FIG. 24A, a passing object is reflected at a position on the right side of the image. FIG. 24B is an image captured by the imaging unit 5B of the main body 101. As shown in FIG. 24B, a passing object is reflected at a position on the left side of the image.

図24(C)は、本体102の撮像部5Aにより撮像された画像である。図24(C)に示すように、画像の左寄りの位置に通過物が写り込んでいる。図24(D)は、本体102の撮像部5Bにより撮像された画像である。図24(D)に示すように、画像の右寄りの位置に通過物が写り込んでいる。   FIG. 24C is an image captured by the imaging unit 5A of the main body 102. As shown in FIG. 24C, a passing object is reflected at a position on the left side of the image. FIG. 24D is an image captured by the imaging unit 5B of the main body 102. As shown in FIG. 24D, a passing object is reflected at a position on the right side of the image.

図24(C)及び図24(D)に示す例では、図24(A)及び図24(B)に示す例に比べて通過物が本体に近い為、通過物がより大きく写りこんでいる。また、図24(A)及び図24(B)に示す例に比べて輝点Qが下側画像のより下部に写り込んでいる。   In the example shown in FIG. 24C and FIG. 24D, since the passing object is closer to the main body than in the example shown in FIG. 24A and FIG. 24B, the passing object is reflected larger. . In addition, the bright spot Q is reflected in the lower part of the lower image as compared with the example shown in FIGS. 24 (A) and 24 (B).

上記したように、通路を形成する通過検出装置100の両方の本体にそれぞれ照明部1、撮像部5A、及び撮像部5Bを設置する。これにより、通過物までの距離を両側の本体から算出することができる。通過検出装置100は、通過物の本体間方向の厚さを検出することができる。   As described above, the illumination unit 1, the imaging unit 5 </ b> A, and the imaging unit 5 </ b> B are installed in both main bodies of the passage detection device 100 that forms a passage. Thereby, the distance to a passing thing is computable from the main body of both sides. The passage detection device 100 can detect the thickness of the passing object in the direction between the main bodies.

次に、上記した通過検出装置が改札機として用いられる第3の実施形態について説明する。
図25は、改札機200の構成例について説明するためのブロック図である。なお、第1の実施形態の通過検出装置100の各ブロックと同じ構成には同じ参照符号を付し、その詳細な説明を省略する。
Next, a third embodiment in which the above passage detection device is used as a ticket gate will be described.
FIG. 25 is a block diagram for explaining a configuration example of the ticket gate 200. The same reference numerals are given to the same components as those of the passage detection device 100 of the first embodiment, and detailed description thereof will be omitted.

図25に示すように、改札機200は、照明部1、照明制御部4、撮像部5A、撮像部5B、撮像制御部6、画像入力部7、画像処理部8、制御部9、乗車券処理部12、ドア制御部13、及び表示部14などを備えている。また、改札機200は、図示しないドアを備えている。   As shown in FIG. 25, the ticket gate 200 includes an illumination unit 1, an illumination control unit 4, an imaging unit 5A, an imaging unit 5B, an imaging control unit 6, an image input unit 7, an image processing unit 8, a control unit 9, and a ticket. A processing unit 12, a door control unit 13, a display unit 14, and the like are provided. The ticket gate 200 is provided with a door (not shown).

改札機200は、駅の改札口などに設置され、改札口で利用者の所持する乗車券(ICカード、または磁気乗車券)に対して改札処理を行なう。   The ticket gate 200 is installed at a ticket gate of a station and performs a ticket gate process on a ticket (IC card or magnetic ticket) possessed by a user at the ticket gate.

改札機200として機能する場合、制御部9は、メモリに運賃を算出するためのプログラム、及び、運賃の算出処理に必要な運賃情報などを記憶している。   When functioning as the ticket gate 200, the control unit 9 stores a program for calculating a fare in the memory, fare information necessary for the fare calculation process, and the like.

乗車券処理部12は、磁気乗車券または、乗車券として機能するICカード(携帯可能電子装置)などから乗車券情報を読み取る読取部である。乗車券処理部12は、乗車券情報として、金額情報、乗車駅情報などを読み取る。また、乗車券情報を更新する場合、乗車券処理部12は、ICカードに対して書き込みデータ及び書き込みコマンドを送信する。   The ticket processing unit 12 is a reading unit that reads ticket information from a magnetic ticket or an IC card (portable electronic device) that functions as a ticket. The ticket processing unit 12 reads money amount information, boarding station information, and the like as ticket information. When updating ticket information, the ticket processing unit 12 transmits write data and a write command to the IC card.

ドア制御部13は、通行制御手段として機能する。ドア制御部13は、利用者の通行を制御するものである。ドア制御部13は、例えば、利用者の通行を阻止するドアを制御する扉開閉機構(図示せず)を備えている。ドアは、改札機200の一対の本体により形成される通路を塞ぐように設置されている。ドア制御部13は、制御部9による上記した第1の実施形態及び第2実施形態に示す判定と、改札処理の結果に基づいてドアの開閉を制御する。   The door control unit 13 functions as a traffic control unit. The door control part 13 controls a user's passage. The door control unit 13 includes, for example, a door opening / closing mechanism (not shown) that controls a door that prevents a user from passing. The door is installed so as to close a passage formed by a pair of main bodies of the ticket gate 200. The door control unit 13 controls the opening and closing of the door based on the determination shown in the first and second embodiments by the control unit 9 and the result of the ticket gate process.

即ち、制御部9は、乗車券処理部12により読み取った乗車券情報に基づいて運賃を算出する。制御部9は、算出した運賃と乗車券情報の金額情報とに基づいて利用者の通行の可否を判定する改札処理を行う。即ち、この場合、制御部9は通行判定部として機能する。   That is, the control unit 9 calculates a fare based on the ticket information read by the ticket processing unit 12. The control unit 9 performs a ticket gate process for determining whether or not the user can pass based on the calculated fare and the amount information of the ticket information. That is, in this case, the control unit 9 functions as a traffic determination unit.

ドア制御部13は、制御部9による改札処理の結果、判定がNGであった場合、ドアを閉めるように制御を行う。また、乗車券処理部12により乗車券情報が読み取られない状態で、改札機200の本体により形成される通路に通過物が存在すると制御部9により判定した場合、ドアを閉めるように制御を行う。また、ドア制御部13は、制御部9による改札処理の結果、判定がOKであった場合、ドアを開くように制御を行う。   When the determination is NG as a result of the ticket gate process by the control unit 9, the door control unit 13 performs control to close the door. Further, when the ticket information is not read by the ticket processing unit 12 and the control unit 9 determines that there is a passing object in the passage formed by the main body of the ticket gate 200, the control is performed to close the door. . Further, the door control unit 13 performs control to open the door when the determination is OK as a result of the ticket gate process by the control unit 9.

表示部14は、利用者への案内表示、及び、改札処理の結果などを表示する表示装置などから構成されている。   The display unit 14 includes a display device that displays guidance information to the user, the result of the ticket gate processing, and the like.

制御部9は、履歴記憶部9aを備えている。履歴記憶部9aは画像及び処理結果を対応付けて記憶する記憶手段である。上記したように、改札処理の結果がNGである場合、または、乗車券情報が読み取られない状態で通過物を検出した場合、制御部9は、撮像部5A及び5Bにより撮像した画像を履歴として履歴記憶部9aに保存する。この構成により、不正利用者の顔画像をステレオ写真として履歴記憶部9aに蓄積することができる。この結果、簡易な構成でより防犯性の高い改札機を実現することができる。   The control unit 9 includes a history storage unit 9a. The history storage unit 9a is a storage unit that stores images and processing results in association with each other. As described above, when the result of the ticket gate process is NG, or when a passing object is detected in a state where the ticket information is not read, the control unit 9 uses the images captured by the imaging units 5A and 5B as the history. Save in the history storage unit 9a. With this configuration, the face image of the unauthorized user can be stored in the history storage unit 9a as a stereo photograph. As a result, a ticket gate with higher security can be realized with a simple configuration.

なお、この発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具現化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組み合わせてもよい。   In addition, this invention is not limited to the said embodiment as it is, It can implement by changing a component in the range which does not deviate from the summary in an implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, you may combine the component covering different embodiment suitably.

1…照明部、2…照明部、4…照明制御部、5A…撮像部、5B…撮像部、6…撮像制御部、7…画像入力部、8…画像処理部、9…制御部、10…バス、11…平行照明、12…乗車券処理部、13…ドア制御部、14…表示部、100…通過検出装置、101…本体、102…本体、200…改札機。   DESCRIPTION OF SYMBOLS 1 ... Illumination part, 2 ... Illumination part, 4 ... Illumination control part, 5A ... Imaging part, 5B ... Imaging part, 6 ... Imaging control part, 7 ... Image input part, 8 ... Image processing part, 9 ... Control part, 10 DESCRIPTION OF SYMBOLS ... Bus, 11 ... Parallel illumination, 12 ... Passage ticket processing part, 13 ... Door control part, 14 ... Display part, 100 ... Passage detection apparatus, 101 ... Main body, 102 ... Main body, 200 ... Ticket gate.

Claims (10)

対面して設けられる一対の本体間に形成される通路を通過する通過物を検出する通過検出装置であって、
前記一対の本体のうちの一方の本体の通路側に仰角を持って設けられ、通路側の所定範囲の第1の画像を撮像する第1の撮像部と、
前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられて設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、
前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、
を具備することを特徴とする通過検出装置。
A passage detection device that detects a passing substance passing through a passage formed between a pair of main bodies provided facing each other,
A first imaging unit that is provided with an elevation angle on the passage side of one of the pair of main bodies, and that captures a first image in a predetermined range on the passage side;
The second imaging unit is installed in parallel with the first imaging unit in the passage direction of the passage with the same elevation angle as the first imaging unit, and captures a second image in a predetermined range on the passage side. An imaging unit;
A detection unit that detects a passing state of the passing object based on a first image captured by the first imaging unit and a second image captured by the second imaging unit;
A passage detection device comprising:
前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像からそれぞれ通過物の輪郭を抽出するエッジ検出処理部と、
前記エッジ検出処理部により検出した通過物の輪郭に基づいて第1の頂点及び第2の座標をそれぞれ特定する頂点特定部と、
前記第1の画像における第1の頂点と前記第2の画像における第2の頂点との水平軸方向における距離を算出する視差算出部と、
をさらに具備し、
前記検出部は、前記視差算出部により算出した前記第1の頂点と前記第2の頂点との距離に基づいて前記本体と前記通過物との距離を検出する、
ことを特徴とする請求項1に記載の通過検出装置。
An edge detection processing unit that extracts outlines of passing objects from the first image captured by the first imaging unit and the second image captured by the second imaging unit;
A vertex identifying unit that identifies the first vertex and the second coordinate based on the outline of the passing object detected by the edge detection processing unit;
A parallax calculation unit that calculates a distance in a horizontal axis direction between the first vertex in the first image and the second vertex in the second image;
Further comprising
The detection unit detects a distance between the main body and the passing object based on a distance between the first vertex and the second vertex calculated by the parallax calculation unit;
The passage detection apparatus according to claim 1.
前記検出部は、前記第1の頂点及び前記第2の頂点の垂直軸方向の座標と、前記検出した前記本体と前記通過物との距離とに基づいて前記通過物の高さを検出することを特徴とする請求項2に記載の通過検出装置。   The detection unit detects the height of the passing object based on the vertical axis coordinates of the first vertex and the second vertex and the detected distance between the main body and the passing object. The passage detection device according to claim 2. 水平に光を射出する角度で前記第1及び第2の撮像部より下部に前記通路の通行方向に沿って複数設置されている照明部をさらに具備し、
前記検出部は、前記第1及び第2の撮像部により撮像された画像中に写り込んでいる前記複数の照明部により照明される複数の輝点のうちの何れか1つの座標に基づいて、前記本体から輝点までの水平方向の距離を検出することを特徴とする請求項1に記載の通過検出装置。
A plurality of illuminating units installed along the passage direction of the passage below the first and second imaging units at an angle at which light is emitted horizontally;
The detection unit is based on any one of coordinates of a plurality of bright spots illuminated by the plurality of illumination units reflected in the images captured by the first and second imaging units, The passage detection apparatus according to claim 1, wherein a horizontal distance from the main body to a bright spot is detected.
前記第1及び第2の撮像部が設置されている本体とは他方の本体の通路側にそれぞれ前記通路の通行方向に沿って複数設けられ、前記一方の本体に対して光を照射する照明部をさらに具備し、
前記検出部は、前記第1及び第2の撮像部により撮像された第1の画像または第2の画像中の前記照明部により照明される輝点の座標に基づいて通路に通過物が存在するか否かを検出することを特徴とする請求項1に記載の通過検出装置。
The main body in which the first and second imaging units are installed is provided in plural along the passage direction of the passage on the passage side of the other main body and illuminates the one main body with light. Further comprising
The detection unit includes a passing object in the passage based on the first image captured by the first and second imaging units or the coordinates of the bright spot illuminated by the illumination unit in the second image. The passage detection device according to claim 1, wherein the passage detection device detects whether or not.
対面して設けられる一対の本体間に形成される通路を通過する通過物を検出する通過検出装置であって、
前記一対の両方の本体の通路側に仰角を持ってそれぞれ設けられ、それぞれ通路側の所定範囲の第1の画像を撮像する第1の撮像部と、
前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられてそれぞれの本体に設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、
前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、
を具備することを特徴とする通過検出装置。
A passage detection device that detects a passing substance passing through a passage formed between a pair of main bodies provided facing each other,
A first imaging unit that is provided with an elevation angle on the passage side of both of the pair of main bodies, and that captures a first image of a predetermined range on each of the passage sides;
The first imaging unit having the same elevation angle as that of the first imaging unit and arranged in parallel in the passage direction of the passage and installed in each main body, captures a second image in a predetermined range on the passage side A second imaging unit that
A detection unit that detects a passing state of the passing object based on a first image captured by the first imaging unit and a second image captured by the second imaging unit;
A passage detection device comprising:
同じ本体に設置されている前記第1の撮像部及び前記第2の撮像部により撮像した前記第1の画像及び前記第2の画像からそれぞれ通過物の輪郭を抽出するエッジ検出処理部と、
前記エッジ検出処理部により検出した通過物の輪郭に基づいて第1の頂点及び第2の座標をそれぞれ特定する頂点特定部と、
前記第1の画像における第1の頂点と前記第2の画像における第2の頂点との水平軸方向における距離を算出する視差算出部と、
をさらに具備し、
前記検出部は、前記視差算出部により算出した前記第1の頂点と前記第2の頂点との距離に基づいて前記本体と前記通過物との距離を検出する、
ことを特徴とする請求項6に記載の通過検出装置。
An edge detection processing unit for extracting outlines of passing objects from the first image and the second image captured by the first imaging unit and the second imaging unit installed in the same main body;
A vertex identifying unit that identifies the first vertex and the second coordinate based on the outline of the passing object detected by the edge detection processing unit;
A parallax calculation unit that calculates a distance in a horizontal axis direction between the first vertex in the first image and the second vertex in the second image;
Further comprising
The detection unit detects a distance between the main body and the passing object based on a distance between the first vertex and the second vertex calculated by the parallax calculation unit;
The passage detection device according to claim 6.
前記検出部は、前記検出したそれぞれの本体から通過物までの距離と前記一対の本体間の距離とに基づいて本体間方向の通過物の厚さを検出することを特徴とする請求項7に記載の通過検出装置。   The said detection part detects the thickness of the passing material of the direction between main bodies based on the distance from each detected said main body to a passing material, and the distance between said pair of main bodies. The passage detection device described. 前記検出部は、前記第1の頂点及び前記第2の頂点の垂直軸方向の座標と、前記検出した前記本体と前記通過物との距離とに基づいて前記通過物の高さを検出することを特徴とする請求項7に記載の通過検出装置。   The detection unit detects the height of the passing object based on the vertical axis coordinates of the first vertex and the second vertex and the detected distance between the main body and the passing object. The passage detection device according to claim 7. 対面して設けられる一対の本体間に形成される通路を通過する利用者に対して改札処理を行う改札機であって、
前記一対の本体のうちの一方の本体の通路側に仰角を持って設けられ、通路側の所定範囲の第1の画像を撮像する第1の撮像部と、
前記第1の撮像部と同じ仰角を持って前記第1の撮像部と通路の通過方向に沿って平行に並べられて設置され、通路側の所定範囲の第2の画像を撮像する第2の撮像部と、
前記第1の撮像部により撮像した第1の画像及び前記第2の撮像部により撮像した第2の画像に基づいて、前記通過物の通過状態を検出する検出部と、
乗車券から乗車券情報を読み取る読取部と、
前記読取部により読み取った乗車券情報に基づいて通行判定を行う通行判定部と、
前記通行判定部により通行判定NGと判定した場合、または、乗車券情報を読み取っていない状態で前記検出部により通過物を検出した場合、前記第1の撮像部及び前記第2の撮像部により撮像した前記第1の画像及び前記第2の画像を記憶する記憶部と、
を具備することを特徴とする改札機。
A ticket gate machine that performs ticket gate processing on a user who passes through a passage formed between a pair of main bodies provided facing each other,
A first imaging unit that is provided with an elevation angle on the passage side of one of the pair of main bodies, and that captures a first image in a predetermined range on the passage side;
The second imaging unit is installed in parallel with the first imaging unit in the passage direction of the passage with the same elevation angle as the first imaging unit, and captures a second image in a predetermined range on the passage side. An imaging unit;
A detection unit that detects a passing state of the passing object based on a first image captured by the first imaging unit and a second image captured by the second imaging unit;
A reading unit for reading the ticket information from the ticket;
A traffic determination unit that performs traffic determination based on the ticket information read by the reading unit;
When the passage determination unit determines that the traffic determination is NG, or when a passing object is detected by the detection unit without reading the ticket information, the first imaging unit and the second imaging unit capture images. A storage unit for storing the first image and the second image,
A ticket gate characterized by comprising:
JP2009031432A 2009-02-13 2009-02-13 Passage detection device Withdrawn JP2010186410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009031432A JP2010186410A (en) 2009-02-13 2009-02-13 Passage detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009031432A JP2010186410A (en) 2009-02-13 2009-02-13 Passage detection device

Publications (1)

Publication Number Publication Date
JP2010186410A true JP2010186410A (en) 2010-08-26

Family

ID=42767014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009031432A Withdrawn JP2010186410A (en) 2009-02-13 2009-02-13 Passage detection device

Country Status (1)

Country Link
JP (1) JP2010186410A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012194652A (en) * 2011-03-15 2012-10-11 Omron Corp Gate device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012194652A (en) * 2011-03-15 2012-10-11 Omron Corp Gate device

Similar Documents

Publication Publication Date Title
CN100419779C (en) Facial liveness assessment system
US20220108096A1 (en) Fake finger determination apparatus and fake finger determination method
JP4127545B2 (en) Image processing device
US10748387B2 (en) Device for reading a magnetic stripe and/or chip card having a camera for the detection of inserted skimming modules
KR20190072426A (en) User detection system
CN101601047A (en) Image capturing system
CN104123779A (en) Coin concealed pattern detecting method and detecting device thereof
JP2009187130A (en) Face authentication device
JP4644320B2 (en) Detection system
JP4769859B2 (en) Reflected light detection device, reflection characteristic determination device, and object detection device
JP2011002718A (en) Image pickup device
JP2011093514A (en) Safety device for platform door
JP6431271B2 (en) Vehicle detection and vehicle number recognition device
KR100756008B1 (en) System for number recognition of container and a method thereof
JP2010169431A (en) Passage detecting apparatus
JP2010186410A (en) Passage detection device
US9607232B2 (en) Decision device provided to decide whether an eye is real or false
JP2020179798A (en) Turnout detection device and turnout detection method
JP2013106238A (en) Marker detection and tracking device
JP2021003929A (en) Learning datum generation device and object detection device
JP4398282B2 (en) Pantograph slip board inspection device.
JP2010210265A (en) Passage detection device
JP2018190213A (en) Face recognition device and sight line detection device
JP5740425B2 (en) Distance detector
JP5284122B2 (en) Passage detection device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120501