JP2019101510A - Visually impaired person detection program and visually impaired person entry monitoring device - Google Patents

Visually impaired person detection program and visually impaired person entry monitoring device Download PDF

Info

Publication number
JP2019101510A
JP2019101510A JP2017228463A JP2017228463A JP2019101510A JP 2019101510 A JP2019101510 A JP 2019101510A JP 2017228463 A JP2017228463 A JP 2017228463A JP 2017228463 A JP2017228463 A JP 2017228463A JP 2019101510 A JP2019101510 A JP 2019101510A
Authority
JP
Japan
Prior art keywords
visually impaired
impaired person
detection
image
entrance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017228463A
Other languages
Japanese (ja)
Inventor
俊 荒井
Takashi Arai
俊 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
METATECHNO Inc
Original Assignee
METATECHNO Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by METATECHNO Inc filed Critical METATECHNO Inc
Priority to JP2017228463A priority Critical patent/JP2019101510A/en
Publication of JP2019101510A publication Critical patent/JP2019101510A/en
Pending legal-status Critical Current

Links

Images

Abstract

To surely detect a visually impaired person.SOLUTION: A program for detecting the visually impaired person causes a computer to execute: movement area detection processing of detecting a movement region of a moving body on the basis of a plurality of images; white region detection processing of detecting a white region within the movement region; linear portion extraction processing of extracting a linear portion from the white region; calculation processing of calculating a length and angle of the linear portion; and detection signal output processing of outputting a detection signal indicating that a visually impaired person has been detected, on the basis of the length and angle of the linear portion.SELECTED DRAWING: Figure 1

Description

本発明は、視覚障碍者検知プログラムおよび視覚障碍者入場監視装置に関する。   The present invention relates to a blind person detection program and a blind person entrance surveillance device.

従来から、ステレオカメラから得られる3次元距離情報に基づいて白杖使用者を検出するシステムが知られている(たとえば特許文献1)。   Conventionally, a system for detecting a white cane user based on three-dimensional distance information obtained from a stereo camera is known (for example, Patent Document 1).

特許第4691701号公報Patent No. 4691701

しかしながら、特許文献1に記載のシステムはステレオカメラを使用するシステムであり複雑で高価なシステムである。   However, the system described in Patent Document 1 is a system using a stereo camera and is a complex and expensive system.

(1)本発明の第1の態様による視覚障碍者検知プログラムは、複数の画像に基づいて移動体の移動領域を検出する移動領域検出処理と、前記移動領域の中の白色領域を検出する白色領域検出処理と、前記白色領域の中から直線部分を抽出する直線部分抽出処理と、前記直線部分の長さおよび角度を算出する算出処理と、前記直線部分の長さと角度に基づいて視覚障碍者を検知したことを表す検知信号を出力する検知信号出力処理とをコンピュータに実行させる。
(2)本発明の第2の態様による視覚障碍者検知プログラムは、第1の態様の視覚障碍者検知プログラムであって、前記検知信号出力処理は,前記直線部分の長さが所定長さより長く、かつ、前記直線部分の角度が所定角度範囲であると判定した場合、前記検知信号を出力する。
(3)本発明の第3の態様による視覚障碍者検知プログラムは、第2の態様の視覚障碍者検知プログラムであって、前記視覚障碍者を検知する検知対象領域において、検知対象である前記視覚障碍者の動線方向を設定する動線方向設定処理をさらに有し、設定された前記動線方向に基づいて前記所定角度範囲の下限値と上限値とが規定される。
(4)本発明の第4の態様による視覚障碍者検知プログラムは、第3の態様の視覚障碍者検知プログラムであって、前記検知信号出力処理は、第1の画像および第2の画像における画像横方向を基準方向として、前記基準方向から時計回りに前記動線方向がなす角度をθref、前記基準方向から時計回りに前記直線部分のなす角度をθdetとしたとき、θdetが、(θref/2)≦θdet≦(90+θref/2)を満足するとき前記検知信号を出力する。
(5)本発明の第5の態様による視覚障碍者検知プログラムは、第3の態様の視覚障碍者検知プログラムであって、視覚障碍者を検知する検知対象領域を入力して設定する検知対象領域設定処理と、前記所定長さを入力して設定する長さ設定処理とをさらに含み、前記検知対象領域が複数設定された場合、前記動線方向および前記所定長さは各検知対象領域ごとに設定される。
(6)本発明の第6の態様による視覚障碍者入場者監視装置は、第1から第5のいずれかの態様の視覚障碍者検知プログラムを実装する視覚障碍者検知装置と、施設の入場ゲートを通過する入場者が撮像されるように設置される撮像装置と、前記検知信号を受信して視覚障碍者の入場を報知する報知装置とを備える。
(7)本発明の第7の態様による視覚障碍者入場者監視装置は、第6の視覚障碍者入場監視装置であって、前記撮像装置は、複数の前記入場ゲートを撮像するように設置され、
前記撮像装置で撮像されるフレーム画像には、前記入場ゲートごとに、検知対象領域と、動線方向と所定長さと、所定角度範囲とが設定される。
(8)本発明の第8の態様による視覚障碍者入場者監視装置は、第6の態様の視覚障碍者入場監視装置であって、前記撮像装置は、その被写界に複数の前記入場ゲートを含むように1台のみ設置される。
(9)本発明の第9の態様による視覚障碍者入場者監視装置は、第6から第8のいずれかの態様の視覚障碍者入場監視装置において、前記施設は駅であり、前記入場ゲートは改札口であり、前記撮像装置は前記改札口を通過して前記駅の構内に入場する入場者を撮像する位置に設置され、前記報知装置はさらに、検知した視覚障碍者に対する声がけを駅員もしくは乗客に促す情報を提示する。
(1) The visually impaired person detection program according to the first aspect of the present invention includes moving area detection processing for detecting a moving area of a moving object based on a plurality of images, and white for detecting a white area in the moving area. Region detection processing, straight portion extraction processing for extracting a straight portion from the white region, calculation processing for calculating the length and angle of the straight portion, and the visually impaired person based on the length and angle of the straight portion And causing the computer to execute detection signal output processing that outputs a detection signal representing that the sensor has been detected.
(2) The visually impaired person detection program according to the second aspect of the present invention is the visually impaired person detection program according to the first aspect, wherein in the detection signal output processing, the length of the linear portion is longer than a predetermined length And when it determines with the angle of the said linear part being a predetermined angle range, the said detection signal is output.
(3) The visually impaired person detection program according to the third aspect of the present invention is the visually impaired person detection program according to the second aspect, wherein the visual object to be detected in the detection target area for detecting the visually impaired person is It further has flow line direction setting processing for setting a flow line direction of a person with a disability, and the lower limit value and the upper limit value of the predetermined angle range are defined based on the set flow line direction.
(4) The visually impaired person detection program according to the fourth aspect of the present invention is the visually impaired person detection program according to the third aspect, wherein the detection signal output process comprises an image in a first image and a second image Assuming that a lateral direction is a reference direction, an angle formed by the flow line direction clockwise from the reference direction is θref, and an angle formed by the linear portions clockwise from the reference direction is θdet, then θdet is (θref / 2 The detection signal is output when the condition of ≦ θ det ≦ (90 + θ ref / 2) is satisfied.
(5) The visually impaired person detection program according to the fifth aspect of the present invention is the visually impaired person detection program according to the third aspect, wherein a detection target area for inputting and setting a detection target area for detecting a visually impaired person The system further includes a setting process and a length setting process for inputting and setting the predetermined length, and when a plurality of detection target areas are set, the flow line direction and the predetermined length are set for each detection target area. It is set.
(6) A device for monitoring attendance of visually impaired according to a sixth aspect of the present invention is a device for detecting a visually impaired implementing the detection program for visually impaired according to any of the first to fifth aspects, and an entrance gate of a facility. And an informing device for receiving the detection signal to notify the entrance of a visually impaired person.
(7) The visually impaired person attendance monitoring apparatus according to the seventh aspect of the present invention is the sixth vision impaired person entrance surveillance apparatus, wherein the imaging device is installed to image a plurality of the entrance gates. ,
A detection target area, a flow line direction, a predetermined length, and a predetermined angle range are set for each of the entrance gates in the frame image captured by the imaging device.
(8) The apparatus for monitoring visually impaired entry according to the eighth aspect of the present invention is the entrance blind monitoring apparatus for a visually impaired according to the sixth aspect, wherein the imaging apparatus comprises a plurality of the entrance gates in the object field. Only one is installed to include.
(9) In the surveillance apparatus for persons with visual impairment according to the ninth aspect of the present invention, in the visually impaired entrance monitoring apparatus according to any one of the sixth to eighth aspects, the facility is a station and the entrance gate is It is a ticket gate, and the imaging device is installed at a position where it captures an image of an visitor who passes through the ticket gate and enters the yard of the station, and the notification device further detects a voice for a visually impaired person Present information prompting passengers.

本発明によれば、簡素化したアルゴリズムで白杖を検出することができるので、廉価な視覚障碍者検知プログラムおよび視覚障碍者入場監視を提供できる。   According to the present invention, since the white cane can be detected by a simplified algorithm, an inexpensive blind person detection program and blind person entrance surveillance can be provided.

一実施の形態の視覚障碍者入場監視装置を説明するブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram explaining the visual impaired person entrance monitoring apparatus of one Embodiment. 第1のフレーム画像の一例を示す図である。It is a figure which shows an example of a 1st frame image. 第2のフレーム画像の一例を示す図である。It is a figure which shows an example of a 2nd frame image. 検出された白杖の2値化画像を示す図である。It is a figure which shows the binarized image of the detected white stick. 撮像画面の左から右に向かう方向に視覚障碍者が歩く場合に白杖が含まれる角度範囲を説明する図である。It is a figure explaining the angle range in which a white stick is included, when a person with visual impairment walks in the direction from the left to the right of the imaging screen. 撮像画面の右から左に向かう方向に視覚障碍者が歩く場合に白杖が含まれる角度範囲を説明する図である。It is a figure explaining the angle range in which a white cane is included, when a person with visual impairment walks in the direction from the right to the left of the imaging screen. 撮像画面の奥側から手前側に向かう方向に視覚障碍者が歩く場合に白杖が含まれる角度範囲を説明する図である。It is a figure explaining the angle range in which a white cane is included, when a person with visual impairment walks in a direction from the back side to the front side of the imaging screen. 視覚障碍者検知プログラムで実行される処理を説明するフローチャートである。It is a flowchart explaining the process performed by a visual impaired person detection program. 視覚障碍者検知プログラムの提供の様子を示す図である。It is a figure which shows the mode of provision of a vision impaired person detection program.

図面を参照しながら、実施の形態による視覚障碍者入場監視装置(以下、単に監視装置とも記載する)について説明する。本実施の形態による視覚障碍者入場監視装置は、例えば、駅の自動改札装置の近くに設置された監視カメラにより監視領域を撮像して得た画像の画像データを入力し、白杖を持った視覚障碍者(以下、単に視覚障碍者とも呼ぶ)が自動改札装置を通過することを検知するために用いる。   A visual impaired person's entrance surveillance device (hereinafter, also simply described as a surveillance device) according to an embodiment will be described with reference to the drawings. The visually impaired person entrance surveillance device according to the present embodiment has, for example, input image data of an image obtained by imaging the surveillance area with a surveillance camera installed near the automatic ticket gate device of the station, and holding a white wand. It is used to detect that a visually impaired person (hereinafter, also simply referred to as a visually impaired person) passes through the automatic ticket gate.

図1は本実施の形態による視覚障碍者検知プログラムを実装して成る視覚障碍者検知装置を備える視覚障碍者入場監視装置の構成の一例を示す図である。視覚障碍者入場監視装置100は、監視領域を撮像する撮像装置(以下、監視カメラと呼ぶ)120と、白杖を持って歩く視覚障碍者を検知する視覚障碍者検知装置130と、視覚障碍者が検知されたことを報知する報知装置150とを備える。   FIG. 1 is a view showing an example of the configuration of a blind person entrance surveillance device provided with a blind person detection device according to the present embodiment. The visually impaired person entrance monitoring device 100 comprises an imaging device (hereinafter referred to as a surveillance camera) 120 for imaging a surveillance area, a visually impaired person detection device 130 for detecting a visually impaired person walking with a white cane, And a notification device 150 for notifying that a has been detected.

視覚障碍者検知装置130は、監視カメラ120で得た監視領域(以下、検知領域とも呼ぶ)の動画画像をインターフェイス125を介して受信し、この画像に基づいて白杖を持って歩く視覚障碍者、具体的には移動する白杖を検知する。視覚障碍者検知装置130は、キーボードやタッチパネルなどの操作入力部131、監視カメラ120で得た監視領域の画像に対して各種処理を施す画像処理部132、画像データなどを記憶する記憶部(メモリ)133、画像処理後の画像データに基づいて白杖判定演算などを行う演算部134、白杖演算などに用いられる判定条件などの設定パラメータが記憶される条件設定部135および、視覚障碍者検知信号を生成する信号処理部136を備える。   The visually impaired person detection device 130 receives the moving image of the monitoring area (hereinafter also referred to as a detection area) obtained by the monitoring camera 120 via the interface 125, and the visually impaired person walks with the white cane based on this image. Specifically, it detects a white cane that moves. The visually impaired person detection device 130 includes an operation input unit 131 such as a keyboard and a touch panel, an image processing unit 132 that performs various processes on an image of a monitoring area obtained by the monitoring camera 120, and a storage unit (memory 133, an operation unit 134 that performs white cane determination calculation and the like based on image data after image processing, a condition setting unit 135 that stores setting parameters such as determination conditions used for the white cane operation, and the like, visually impaired person detection The signal processing unit 136 generates a signal.

監視カメラ120は、たとえば60フレーム/秒のフレームレートで動画撮影が可能なカメラである。視覚障碍者検知装置130は、プロセッサを搭載した処理装置であり、施設の管理センタに設置されたコンピュータである。操作入力部131は、演算処理で必要な判定条件などを入力する、視覚障碍者検知装置130は、視覚障碍者を検知すると信号生成部136で生成された信号(以下、検知信号とも呼ぶ)をインターフェイス(I/F)155を介して報知装置150に出力する。報知装置150は施設管理センタの表示装置やスピーカであり、これらの機器から文字情報や音声情報として視覚障碍者の入場を報知する。   The surveillance camera 120 is a camera capable of shooting moving pictures at a frame rate of 60 frames / second, for example. The visually impaired person detection device 130 is a processing device equipped with a processor, and is a computer installed in a facility management center. The operation input unit 131 inputs a determination condition and the like necessary for the arithmetic processing. When the visually impaired person detection device 130 detects a visually impaired person, the signal generation unit 136 generates a signal (hereinafter also referred to as a detection signal). The signal is output to the notification device 150 via the interface (I / F) 155. The notification device 150 is a display device or a speaker of the facility management center, and notifies the entrance of a visually impaired person as text information and voice information from these devices.

画像処理部132は、画像データの生成、圧縮、二値化等の処理を行う。記憶部133は、画像データやその他の各種データを記憶する。演算部134は、輝度情報の演算、複数の画像データ間の差分や、直線部分と認識された白色領域の長さおよび角度の演算等を行う。操作入力部131は、検知対象領域の大きさおよび位置、白色領域検出の感度等を入力し、条件設定部136にはこれらの設定条件(データ)が格納される。検知対象領域は監視カメラ120から入力するフレーム画像の範囲内において1個だけ設定してもよいし、複数設定してもよい。   The image processing unit 132 performs processing such as generation of image data, compression, and binarization. The storage unit 133 stores image data and other various data. The calculation unit 134 performs calculation of luminance information, a difference between a plurality of image data, and calculation of the length and angle of a white area recognized as a straight line part. The operation input unit 131 inputs the size and position of the detection target area, the sensitivity of white area detection, and the like, and the condition setting unit 136 stores these setting conditions (data). Only one detection target area may be set within the range of the frame image input from the surveillance camera 120, or a plurality of detection target areas may be set.

視覚障碍者検知装置130による視覚障碍者検知の一連の処理について説明する。これらの処理は、監視装置100を構成する障碍者検知装置130が記憶部133に予め記憶された視覚障碍者検知プログラムを実行することにより行われる。   A series of processes of the visually impaired person detection by the visually impaired person detection device 130 will be described. These processes are performed by the disabled person detection device 130 constituting the monitoring device 100 executing the visual disabled person detection program stored in the storage unit 133 in advance.

(画像取得・圧縮演算)
監視カメラ120が撮像した動画は視覚障碍者検知装置130に入力される。視覚障碍者検知装置130が受信した動画像信号は記憶部133の原画像記憶領域に記憶される。実施の形態の視覚障碍者検知装置130では、原画像記憶領域に記憶された動画像信号の中からリアルタイムに時系列で並ぶ複数のフレーム画像(静止画)を選択し、これら複数のフレーム画像に基づいて視覚障碍者を検知する。
以下の説明では、新旧2枚のフレーム画像を第1および第2のフレーム画像として記憶部133から読み出し、視覚障碍者検知処理が実行される。
(Image acquisition / compression operation)
The moving image captured by the monitoring camera 120 is input to the blind person detection device 130. The moving image signal received by the visually impaired person detection device 130 is stored in the original image storage area of the storage unit 133. The visually impaired person detection apparatus 130 according to the embodiment selects a plurality of frame images (still images) arranged in time series in real time from the moving image signals stored in the original image storage area, and selects these plurality of frame images. Detect visually impaired persons based on it.
In the following description, two old and new frame images are read out from the storage unit 133 as the first and second frame images, and the visually impaired person detection process is executed.

図2は第1のフレーム画像を示す。第1のフレーム画像200は、白杖201を使用して歩く視覚障碍者202が含まれている状態を一例として示す。第1のフレーム画像200の画像データは、画像処理部133にて圧縮されて記憶部133のバッファ領域に格納される。記憶部133のバッファ領域は、2フレーム分の圧縮画像データの容量をキュー(先入れ先出しの構成)で記憶することができる。   FIG. 2 shows a first frame image. The first frame image 200 shows, as an example, a state in which the visually impaired person 202 who walks using the white stick 201 is included. The image data of the first frame image 200 is compressed by the image processing unit 133 and stored in the buffer area of the storage unit 133. The buffer area of the storage unit 133 can store the capacity of compressed image data for two frames in a queue (first-in first-out configuration).

画像200に対して、条件設定部135の設定データにより、視覚障碍者の移動を検知しようとする方向に基づいて検知方向(動線方向)Dが設定される。画像200には、条件設定部135の設定データにより、視覚障碍者を検知する領域である検知対象エリア203を予め設定することができる。検知対象領域203は、図2では画像内の左半分の領域であるが、全画像領域を検知対象領域203として設定することもできる。検知対象領域の設定処理は省略することも可能である。検知方向Dは検知対象領域203の設定位置およびその範囲等に基づいて設定される。   A detection direction (flow line direction) D is set in the image 200 based on the setting data of the condition setting unit 135 based on the direction in which the movement of the visually impaired person is to be detected. In the image 200, a detection target area 203, which is an area for detecting a visually impaired person, can be set in advance by setting data of the condition setting unit 135. Although the detection target area 203 is the left half area in the image in FIG. 2, the entire image area may be set as the detection target area 203. The process of setting the detection target area can be omitted. The detection direction D is set based on the set position of the detection target area 203 and the range thereof.

画像200に検知対象領域203が設定された場合には、画像処理部132は、検知対象領域203に対応した領域の画像データのみを圧縮して圧縮画像データを生成してもよい。圧縮対象画像の画素数は、例えば、圧縮対象となる画像のアスペクト比が16:9の場合には、480×270画素に、また、アスペクト比が4:3の場合には、320×240画素に圧縮(トランスコード)される。
なお、検知対象領域203の画像を圧縮せずに以後の処理を行ってもよい。
When the detection target area 203 is set in the image 200, the image processing unit 132 may generate compressed image data by compressing only the image data of the area corresponding to the detection target area 203. The number of pixels of the image to be compressed is, for example, 480 × 270 pixels when the aspect ratio of the image to be compressed is 16: 9, and 320 × 240 pixels when the aspect ratio is 4: 3. Compressed (transcoded).
The subsequent processing may be performed without compressing the image of the detection target area 203.

第1のフレーム画像に続いて第2のフレーム画像が選択される。
第2のフレーム画像の処理について説明する。ここで第2のフレームは、第1のフレームの直後のフレームであってもよいし、あるいは、数フレーム後のフレームであってもよい。本実施の形態では、新旧2つの画像データの差分処理を行って動体領域の抽出を行うので、第2のフレーム画像とは、先の画像データに対して差分演算を行う新しいフレーム画像である。
A second frame image is selected following the first frame image.
The processing of the second frame image will be described. Here, the second frame may be a frame immediately after the first frame, or may be a frame after several frames. In the present embodiment, the moving object region is extracted by performing differential processing on two new and old image data, so the second frame image is a new frame image for performing differential operation on the previous image data.

図3は、第2のフレーム画像300を示す。画像300は、一例として、第1のフレーム画像200を撮像した時点からの時間経過により、白杖を使用して歩く視覚障碍者が手前に接近している様子を示している。画像300に対しても、検知対象領域203に設定された検知方向と共通の検知方向Dが検知対象領域303に設定される。検知方向Dは後述する図7のように設定する。第2のフレーム画像300の画像データも第1フレーム画像と同様、画像処理部133にて圧縮されたデータであり、記憶部133のバッファ領域に格納される。   FIG. 3 shows a second frame image 300. The image 300 shows, as an example, a situation in which a visually impaired person walking using a white cane is approaching to the front according to the lapse of time from the time when the first frame image 200 is captured. Also in the image 300, a detection direction D common to the detection direction set in the detection target area 203 is set in the detection target area 303. The detection direction D is set as shown in FIG. 7 described later. Similar to the first frame image, the image data of the second frame image 300 is also data compressed by the image processing unit 133, and is stored in the buffer area of the storage unit 133.

以上のようにして監視カメラ120で撮像された動画像から生成された第1および第2圧縮画像データが記憶部133に格納される。以下、記憶部133のバッファ領域に、画像200に設定された検知対象領域203の領域に対応した画像データを圧縮した第1圧縮画像データと、画像300に設定された検知対象領域303の領域に対応した画像データを圧縮した第2圧縮画像データとが格納された場合を例として、白杖検知処理について説明を行う。   The first and second compressed image data generated from the moving image captured by the monitoring camera 120 as described above is stored in the storage unit 133. Hereinafter, in the buffer area of the storage unit 133, first compressed image data obtained by compressing image data corresponding to the area of the detection target area 203 set in the image 200 and the area of the detection target area 303 set in the image 300 The white stick detection process will be described by way of an example in which the second compressed image data obtained by compressing the corresponding image data is stored.

(輝度演算)
演算部134は、記憶部133のバッファ領域に格納された第1圧縮画像データと第2圧縮画像データのそれぞれについて、画素ごとの輝度データを算出する。輝度データは、既知の離散コサイン変換を用いて取得することができる。これにより、第1圧縮画像データから第1輝度データ、第2圧縮画像データから第2輝度データが算出される。
(Brightness calculation)
The calculation unit 134 calculates luminance data for each pixel for each of the first compressed image data and the second compressed image data stored in the buffer area of the storage unit 133. Luminance data can be obtained using known discrete cosine transforms. Thereby, the first luminance data is calculated from the first compressed image data, and the second luminance data is calculated from the second compressed image data.

(差分演算・移動領域演算)
演算部134は、第1圧縮画像データおよび第2圧縮画像データの互いに対応する画素ごとに、第1輝度データと第2輝度データとの差分を算出する。演算部134は、算出された輝度データの差分が所定の値より大きい画素を抽出し、それらの画像が連続して形成する領域(以下、差分領域)の画素数が、所定の画素数より多いかどうか判定する。すなわち、輝度変化が所定より大きい領域が、所定の面積より大きいかどうかを判定する。輝度データの差分が所定の値より大きい差分領域の画素数が所定の画素数より多いと判定された場合、演算部135は、被写体が移動したと判定する。具体的には、被写体が移動したかどうかの判定は、例えば次に記載する手順により行う。
(Difference operation, movement area operation)
The calculation unit 134 calculates the difference between the first luminance data and the second luminance data for each of the corresponding pixels of the first compressed image data and the second compressed image data. The operation unit 134 extracts pixels where the calculated difference in luminance data is larger than a predetermined value, and the number of pixels in an area (hereinafter, difference area) formed by those images continuously is larger than the predetermined number of pixels. Determine if it is. That is, it is determined whether the area where the change in luminance is larger than the predetermined area is larger than the predetermined area. If it is determined that the number of pixels in the difference area in which the difference in luminance data is larger than a predetermined value is larger than the predetermined number of pixels, the computing unit 135 determines that the subject has moved. Specifically, the determination as to whether the subject has moved is performed, for example, by the procedure described below.

第1圧縮画像データおよび第2圧縮画像データの各画素の輝度データ(輝度値)は、0〜255の256階調の量子化数値で表される。条件設定部135は、第1圧縮画像データおよび第2圧縮画像データの互いに対応する画素について、これらの輝度データが変化したと判定する感度、すなわち輝度データの差分に対応する量子化数値を設定値(例えば50)として設定しておく。演算部135は、この設定値より大きな差分の画素が所定の数より多く連続している領域を移動領域であると判定する。
なお、条件設定部135は、輝度データが変化したかどうか判定するための感度(差分の量子化数値)を、監視装置100により視覚障碍者の検知を行う環境(例えば、明るさや色温度等)に基づいて、1から255に設定できる。
The luminance data (luminance value) of each pixel of the first compressed image data and the second compressed image data is represented by quantization numerical values of 256 gradations of 0 to 255. The condition setting unit 135 sets the sensitivity for determining that the luminance data has changed for the corresponding pixels of the first compressed image data and the second compressed image data, that is, the quantization numerical value corresponding to the difference of the luminance data. It is set as (for example, 50). The computing unit 135 determines that a region in which the difference pixels larger than the set value continue more than a predetermined number is the movement region.
Note that the condition setting unit 135 is an environment (for example, brightness, color temperature, etc.) in which the monitoring device 100 detects a person with visual impairment (sensitivity, numerical value of difference, etc.) for determining whether the luminance data has changed. It can be set from 1 to 255 based on.

(白色抽出演算)
演算部134により判定された移動領域に対して、以下に説明する白色領域抽出処理を行う。演算部134は、第2圧縮画像データにおける輝度変化が所定より大きい領域として判定された移動領域の画像から白色に相当する白色領域を抽出する。白色領域を抽出するための具体的な手順について、次に説明する。
演算部134は、第2圧縮画像データにおける差分領域の各画素について、R(赤色)、G(緑色)、B(青色)のそれぞれ輝度データの量子化数値が所定の範囲の画素を選択して、これらを白色の画素と判定する。例えば、演算部134は、輝度変化があったと判定した差分領域の画素のR、G,Bそれぞれの輝度データの量子化数値が、24ビットRGB基準で白色基準閾値200以上であり、かつ、24ビットRGB基準でそれぞれの量子化数値の許容範囲が0以内であれば、白色の画素であると判定する。
(White extraction operation)
A white area extraction process described below is performed on the moving area determined by the calculation unit 134. The calculation unit 134 extracts a white area corresponding to white from the image of the moving area determined as the area where the luminance change in the second compressed image data is larger than a predetermined area. The specific procedure for extracting a white area is described next.
The calculation unit 134 selects pixels in a predetermined range of quantization values of luminance data of R (red), G (green), and B (blue) for each pixel of the difference area in the second compressed image data. , These are determined as white pixels. For example, the operation unit 134 determines that the quantization value of the luminance data of each of R, G, and B of the pixels in the difference area determined to have a luminance change is a white reference threshold 200 or more based on 24-bit RGB and 24 If the allowable range of each quantization value is within 0 on the basis of bit RGB, it is determined that the pixel is a white pixel.

なお、条件設定部135は、白色の画素と判定するための輝度データの条件を監視装置100の使用環境(例えば、明るさや色温度等)の条件に基づいて適宜設定することができる。   The condition setting unit 135 can appropriately set the condition of the luminance data for determining a white pixel based on the condition of the use environment (for example, brightness, color temperature, and the like) of the monitoring apparatus 100.

(2値化演算)
画像処理部132は、第2圧縮画像データについて、白色であると判定された画素とそれ以外の画素について二値化処理を行って二値化画像を生成する。生成した二値化画像を図4に示す。さらに、演算部134は、二値化画像の白色領域において直線状に延びる部分である直線部分301を取得し、その長さおよび傾き(角度)を算出する。直線部分を取得して、その長さと傾きを求める演算は、既知のハフ変換を用いて行うことができる。
(Binarization operation)
The image processing unit 132 performs binarization processing on the pixels determined to be white and the other pixels in the second compressed image data to generate a binarized image. The generated binarized image is shown in FIG. Furthermore, the calculation unit 134 obtains a straight portion 301 which is a portion extending linearly in the white region of the binarized image, and calculates the length and the inclination (angle) thereof. The operation of obtaining a straight portion and obtaining its length and inclination can be performed using a known Hough transform.

(白杖検出演算)
演算部134は、取得された直線部分の長さが所定の長さより長いかどうか判定する。また、演算部134は、直線部分の傾きが所定角度範囲内であるかどうかを判定する。直線部分の長さが所定の長さより長く、かつ、その傾きが所定角度範囲内である場合に、演算部134は、二値化画像における白色の領域は視覚障碍者が使用する白杖に対応したものであると判定する。すなわち、二値化画像における白色領域の直線部分の長さおよび角度が所定の条件を満たした場合に、演算部134は、二値化画像における白色の領域は視覚障碍者が使用する白杖に対応したものであると判定する。
(White wand detection operation)
The calculation unit 134 determines whether the length of the acquired linear portion is longer than a predetermined length. In addition, the calculation unit 134 determines whether the inclination of the linear portion is within a predetermined angle range. When the length of the linear portion is longer than the predetermined length and the inclination thereof is within the predetermined angle range, the computing unit 134 corresponds to the white wand used by the visually impaired person in the binarized image. It is determined that the That is, when the length and the angle of the straight line portion of the white area in the binarized image satisfy the predetermined condition, the computing unit 134 determines that the white area in the binarized image is a white wand used by a visually impaired person. It determines that it corresponds.

ここで、所定の長さとは、二値化画像における白色領域の直線部分の長さが、視覚障碍者が使用する白杖に相当する長さに合致するかどうか判定するための基準となる長さである。視覚障碍者の検知が行われる環境や白杖の新製品開発の情報等に基づいて、条件設定部135により、所定の長さを種々に設定することが可能である。なお、直線部分の長さと傾きの判定は、どちらを先に行ってもよく、また、同時に行ってもよい。   Here, the predetermined length is a length serving as a reference for determining whether the length of the linear portion of the white region in the binarized image matches the length corresponding to the white cane used by the visually impaired. It is. The predetermined length can be set variously by the condition setting unit 135 based on the environment in which a visually impaired person is detected, information on new product development of the white stick, and the like. The determination of the length and the inclination of the straight line portion may be performed first, or may be performed simultaneously.

上述したように、所定の長さは市販されている白杖の長さに基づいて設定されるが、監視カメラ120の取付角度、光学性能などに応じて適宜設定される。白杖の長さ、監視領域に対する監視カメラの光軸の方向、監視カメラの倍率、焦点距離などの光学性能を入力すると自動的に所定の長さを設定する仕様とすると使い勝手が向上する。
なお、この所定長さは画像内の画素数として規定される。
As described above, the predetermined length is set based on the length of a commercially available white cane, but is appropriately set according to the mounting angle of the monitoring camera 120, the optical performance, and the like. When optical performances such as the length of the white cane, the direction of the optical axis of the surveillance camera with respect to the surveillance area, the magnification of the surveillance camera, and the focal length are input, usability is improved by setting the predetermined length automatically.
The predetermined length is defined as the number of pixels in the image.

演算部134が、二値化画像における白色の領域は視覚障碍者が持つ白杖に対応したものであると判定した場合、演算部134は、白杖と判定したとして検知回数の計数(カウント)を行う。上記の一連の処理を繰り返し実行した結果、演算部134による白杖検知回数が所定回数に達した場合、信号生成部136で視覚障碍者検知信号を生成し、インターフェイス155を介して報知装置150に出力する。   If the calculation unit 134 determines that the white area in the binarized image corresponds to the white wand that the visually impaired has, the calculation unit 134 counts the number of times of detection as the white wand is determined (count). I do. As a result of repeatedly executing the above-described series of processing, when the number of white canes detected by the operation unit 134 reaches a predetermined number, the signal generation unit 136 generates a visually impaired person detection signal, and the notification device 150 is generated via the interface 155. Output.

所定回数は、例えば5に設定できる。すなわち、5フレーム分の画像において白杖を検出した場合に、視覚障碍者検知装置130から視覚障碍者検知信号を出力する。条件設定部135は、監視装置100を使用する環境等に基づいて、上記の所定回数を種々に設定することができる。操作入力部131に対して使用者が動作終了の入力を行うまで、上記の処理が繰り返し実行される。   The predetermined number can be set to 5, for example. That is, when the white cane is detected in the image for five frames, the visual impaired person detection device 130 outputs a visual impaired person detection signal. The condition setting unit 135 can variously set the above-mentioned predetermined number of times based on the environment in which the monitoring apparatus 100 is used. The above process is repeatedly performed until the user inputs an operation end to the operation input unit 131.

演算部134による白杖判定処理において、対象となる画像データから白杖が検出されなかった場合には、記憶部133のバッファから第1圧縮画像データを破棄し、バッファにおいて、第1圧縮画像データが記憶されていた領域には、第2圧縮画像データを第1圧縮画像データとして移す。また、バッファにおいて、第2圧縮画像データが記憶されていた領域には、新たに第3のフレーム画像に対応する圧縮画像データが新たな第2圧縮画像データとして格納される。   In the white cane determination processing by the operation unit 134, when the white cane is not detected from the image data to be processed, the first compressed image data is discarded from the buffer of the storage unit 133, and the first compressed image data is processed in the buffer. The second compressed image data is transferred as the first compressed image data to the area where the second image data is stored. In the buffer, compressed image data corresponding to the third frame image is newly stored as new second compressed image data in the area where the second compressed image data is stored.

(直線部分の傾き判定)
演算部134が、直線部分の傾きが所定角度範囲にあるかどうかを判定するための具体的な手順の一例について説明する。
直線部分の傾きが所定角度範囲であるかどうかの判定は、演算部134により、予め設定した検知方向Dに基づいて算出した角度範囲に基づいて行われる。第2画像における上下のラインに平行な方向、すなわち画像の横方向を基準方向として、この基準方向から時計回りに検知方向Dがなす角をθref、この基準方向から時計回りに直線部分の傾きがなす角をθdetとしたとき、θdetが式(1)を満足する場合、二値化画像における白色の領域は視覚障碍者が使用する白杖に対応したものであると判定する。
(θref/2)≦θdet≦(90+θref/2)…(1)
(Slope judgment of straight line part)
An example of a specific procedure for the calculation unit 134 to determine whether the inclination of the linear portion is within the predetermined angle range will be described.
The determination as to whether or not the inclination of the linear portion is within the predetermined angle range is performed by the calculation unit 134 based on the angle range calculated based on the detection direction D set in advance. With the direction parallel to the upper and lower lines in the second image, that is, the horizontal direction of the image as a reference direction, the angle formed by the detection direction D clockwise from this reference direction is θref, and the inclination of the linear portion clockwise from this reference direction When θdet is an angle formed, if θdet satisfies Expression (1), it is determined that the white area in the binarized image corresponds to the white cane used by the visually impaired.
(Θref / 2) ≦ θdet ≦ (90 + θref / 2) (1)

(検知方向と所定角度範囲)
具体的に、三種類の検知方向Dについて、上記の白杖の判定処理を図5〜7に沿って説明する。なお、この判定は二値化画像に基づいて行われ、図5〜7は本来は二値化画像を示すが、理解を容易にするために、図5〜7には視覚障碍者も表示している。
(Detection direction and predetermined angle range)
Specifically, the determination processing of the above-mentioned white cane will be described with reference to FIGS. In addition, although this determination is performed based on a binarized image and FIGS. 5-7 originally show a binarized image, in order to make an understanding easy, a visually impaired person is also displayed in FIGS. 5-7. ing.

直線部分の長さが所定の長さより長い場合について説明する。
検知方向Dを図2に示す画像200において画面の左から右に向かう方向に設定した場合について図5に示す。この場合、基準方向から時計回りに検知方向Dがなす角であるθrefは、θref=0°である。従って、基準方向から時計回りに直線部分の傾きがなす角をθdetが、式(1)により
0°≦θdet≦90°
を満たす場合には、すなわち、直線部分の傾きが0°以上90°以下の角度範囲にある場合、二値化画像における白色の領域は白杖であると判定する。
The case where the length of the straight portion is longer than a predetermined length will be described.
FIG. 5 shows a case where the detection direction D is set in the direction from the left to the right of the screen in the image 200 shown in FIG. In this case, θref, which is an angle formed by the detection direction D clockwise from the reference direction, is θref = 0 °. Therefore, θ det is the angle formed by the slope of the linear portion in the clockwise direction from the reference direction, and 0 ° ≦ θ det ≦ 90 ° according to equation (1).
If the above condition is satisfied, that is, if the slope of the linear portion is within an angle range of 0 ° to 90 °, it is determined that the white area in the binarized image is a white stick.

検知方向Dを図2に示す画像200において画面の右から左に向かう方向に設定した場合について図6に示す。この場合、基準方向から時計回りに検知方向Dがなす角であるθrefは、θref=180°である。従って、基準方向から時計回りに直線部分の傾きがなす角をθdetが、式(1)により
90°≦θdet≦180°
を満たす場合には、すなわち、直線部分の傾きが90°以上180°以下の角度範囲にある場合、二値化画像における白色の領域は白杖であると判定する。
FIG. 6 shows the case where the detection direction D is set in the direction from the right to the left of the screen in the image 200 shown in FIG. In this case, θref, which is an angle formed by the detection direction D clockwise from the reference direction, is θref = 180 °. Therefore, θ det is the angle formed by the inclination of the linear portion in the clockwise direction from the reference direction, 90 ° ≦ θ det ≦ 180 ° by equation (1)
If the above condition is satisfied, that is, if the slope of the linear portion is within an angle range of 90 ° or more and 180 ° or less, it is determined that the white area in the binarized image is white cane.

検知方向Dを図2に示す画像200において画面の奥から手前に向かう方向に設定した場合について図7に示す。この場合、基準方向から時計回りに検知方向Dがなす角であるθrefは、θref=90°である。従って、基準方向から時計回りに直線部分の傾きがなす角をθdetが、式(1)により
45°≦θdet≦135°
を満たす場合には、すなわち、直線部分の傾きが45°以上135°以下の角度範囲にある場合、二値化画像における白色の領域は白杖であると判定する。
FIG. 7 shows a case where the detection direction D is set in a direction from the back to the front of the screen in the image 200 shown in FIG. In this case, θref, which is an angle formed by the detection direction D clockwise from the reference direction, is θref = 90 °. Therefore, θ det is the angle formed by the slope of the linear portion in the clockwise direction from the reference direction, according to equation (1): 45 ° ≦ θ det ≦ 135 °
If the above condition is satisfied, that is, if the slope of the linear portion is in the angle range of 45 ° to 135 °, it is determined that the white area in the binarized image is white cane.

図5と図6は、改札口を側方から監視するように監視カメラを設置した場合、図7は改札口を駅構内の内側から監視するように監視カメラを設置した場合である。   5 and 6 show a case where a surveillance camera is installed to monitor the ticket gate from the side, and FIG. 7 shows a case where a surveillance camera is installed to monitor the ticket gate from the inside of the station yard.

検知対象領域は一つの画像に複数設定することも可能である。1つの画像に複数の検知対象領域を設定する場合、検知方向はそれぞれの検知対象領域に適当な方向に設定することができる。また、直線部分の長さおよび傾きをそれぞれ判定するための所定長さおよび所定角度範囲についても、それぞれの検知対象領域に適当な値に設定することができる。
なお、検知対象領域は視覚障碍者が施設の入場ゲート、たとえば駅の改札口を通過するまでの領域を含むように設定される。
It is also possible to set a plurality of detection target areas in one image. When a plurality of detection target areas are set in one image, the detection direction can be set to an appropriate direction in each detection target area. In addition, the predetermined length and the predetermined angle range for determining the length and the inclination of the linear portion can be set to values appropriate for each detection target area.
The detection target area is set to include an area until the visually impaired person passes through the entrance gate of the facility, for example, the ticket gate of the station.

(初期設定処理)
実施の形態の視覚障碍者検知装置130を使用する際、初期設定処理が必要である。この初期設定処理では、検知対象領域設定処理と、動線方向設定処理と、所定長さや輝度差などの各種閾値設定処理とを行う。
(Initial setting process)
When using the visually impaired person detection device 130 according to the embodiment, an initialization process is required. In this initial setting process, a detection target area setting process, a flow line direction setting process, and various threshold value setting processes such as a predetermined length and a luminance difference are performed.

検知対象領域設定処理は、視覚障碍者の移動を検知しようとする検知対象領域の設定データを操作入力部131から入力して条件設定部135に設定する処理である。たとえば、監視カメラ120の画像の改札口の入口と出口を含む大きさの矩形枠を画面上で規定して設定する。   The detection target area setting process is a process of inputting setting data of a detection target area for detecting movement of a visually impaired person from the operation input unit 131 and setting the setting data in the condition setting unit 135. For example, a rectangular frame of a size including the entrance and the exit of the ticket gate of the image of the surveillance camera 120 is defined and set on the screen.

動線方向設定処理は、視覚障碍者を検知する矩形の検知対象領域において、検知対象である視覚障碍者の動線方向の設定データを操作入力部131から入力して条件設定部135に設定する処理である。これも、監視カメラ120の画像の改札口の入口と出口を結ぶ直線を表示画面上で規定して設定する。   The flow line direction setting process inputs setting data of the flow line direction of the visually impaired person to be detected from the operation input unit 131 in the rectangular detection target area for detecting the visually impaired person, and sets the data in the condition setting unit 135. It is a process. Also in this case, a straight line connecting the entrance and the exit of the ticket gate of the image of the surveillance camera 120 is defined and set on the display screen.

実施の形態では、比較される2画像の輝度データの差分が所定の閾値より大きい画素群の領域を移動領域とするが、その輝度差の閾値も初期設定処理にて操作入力部131から入力されて条件設定部135に設定される。移動領域内から白色領域を検知する際の量子化数値範囲も初期設定処理にて操作入力部131から入力されて条件設定部135に設定される。量子化数値範囲とは上述した白色基準閾値と白許容範囲で規定される。   In the embodiment, the area of the pixel group where the difference between the luminance data of the two images to be compared is larger than the predetermined threshold is the movement area, but the threshold of the luminance difference is also input from the operation input unit 131 in the initial setting process. Are set in the condition setting unit 135. A quantization numerical value range at the time of detecting a white area from within the moving area is also input from the operation input unit 131 in the initial setting process and set in the condition setting unit 135. The quantization numerical range is defined by the above-described white reference threshold and white tolerance.

実施の形態では、移動領域中の白色領域から直線部分を抽出し、直線部分の長さが所定の閾値を超えたときに、白杖に相当する直線部分であると認識する。この長さの閾値も、初期設定処理にて操作入力部131から入力されて条件設定部135に設定される。この所定長さの閾値は、たとえば、1〜500の500段階、たとえば画像の画素数で設定する。
実施の形態では、白杖が検知された回数が所定の閾値を超えたときに、すなわち、白杖が複数回正しく検知されたときに信号生成部136で視覚障碍者検知信号を生成して出力する。この回数閾値も初期設定処理にて操作入力部131から入力されて条件設定部135に設定される。この回数閾値は、たとえば、1〜10の10段階で設定する。
In the embodiment, a straight line portion is extracted from the white area in the movement area, and when the length of the straight line portion exceeds a predetermined threshold, it is recognized as a straight line portion corresponding to a white stick. The threshold value of this length is also input from the operation input unit 131 in the initial setting process and set in the condition setting unit 135. The threshold of this predetermined length is set, for example, in 500 steps of 1 to 500, for example, the number of pixels of the image.
In the embodiment, when the number of times the white wand is detected exceeds a predetermined threshold, that is, when the white wand is correctly detected a plurality of times, the signal generation unit 136 generates and outputs a visually impaired person detection signal. Do. This frequency threshold is also input from the operation input unit 131 in the initial setting process and set in the condition setting unit 135. The number threshold is set, for example, in ten steps of 1 to 10.

以上の閾値や許容範囲は、たとえば、それぞれの設定データごとにスライドバースイッチを表示し、このバーを画面上で移動させて入力することができる。   The above threshold value and the allowable range can be input by, for example, displaying a slide bar switch for each setting data and moving this bar on the screen.

(視覚障碍者検知処理手順)
図8に示すフローチャートを参照して、視覚障碍者検知の処理について説明する。図8に示す処理は記憶部133に予め格納した視覚障碍者検知プログラムを実行して行われる。
(Visually impaired person detection processing procedure)
The process for detecting visually impaired persons will be described with reference to the flowchart shown in FIG. The process shown in FIG. 8 is performed by executing a vision impaired person detection program stored in advance in the storage unit 133.

ステップS1では、カメラが撮像した第1のフレーム画像が記憶部133に取り込まれ、ステップS2に進む。ステップS2では、条件設定部135に設定されている設定情報に基づき、視覚障碍者の移動を検知しようとする検知対象領域が設定され、ステップS3に進む。   In step S1, the first frame image captured by the camera is captured by the storage unit 133, and the process proceeds to step S2. In step S2, based on the setting information set in the condition setting unit 135, a detection target area in which movement of a visually impaired person is to be detected is set, and the process proceeds to step S3.

ステップS3では、画像処理部132により、設定された検知対象領域に対応する画像データを圧縮して第1圧縮画像データが生成され、ステップS4に進む。ステップS4では、第1圧縮画像データがバッファに格納され、ステップS5に進む。ステップS5では、カメラが撮像した第2のフレーム画像が記憶部133に取り込まれ、ステップS6に進む。ステップS6では、条件設定部135に設定されている設定情報に基づき、視覚障碍者の移動を検知しようとする検知対象領域が設定され、ステップS7に進む。ステップS7では、画像処理部132により、設定された検知対象領域に対応する画像データを圧縮して第2圧縮画像データが生成され、ステップS8に進む。ステップS8では、第2圧縮画像データがバッファに格納され、ステップS9に進む。
なお、記憶部133に第1および第2圧縮画像データを格納する手順は一例である。
In step S3, the image processing unit 132 compresses the image data corresponding to the set detection target area to generate first compressed image data, and the process proceeds to step S4. In step S4, the first compressed image data is stored in the buffer, and the process proceeds to step S5. In step S5, the second frame image captured by the camera is captured by the storage unit 133, and the process proceeds to step S6. In step S6, based on the setting information set in the condition setting unit 135, a detection target area in which movement of a visually impaired person is to be detected is set, and the process proceeds to step S7. In step S7, the image processing unit 132 compresses the image data corresponding to the set detection target area to generate second compressed image data, and the process proceeds to step S8. In step S8, the second compressed image data is stored in the buffer, and the process proceeds to step S9.
Note that the procedure for storing the first and second compressed image data in the storage unit 133 is an example.

ステップS9では、演算部134により、第1圧縮画像データと第2圧縮画像データのそれぞれについて、画素ごとの輝度データが算出され、ステップS10に進む。ステップS10では、演算部134により、第1圧縮画像データおよび第2圧縮画像データの互いに対応する画素ごとに、第1輝度データと第2輝度データの差分が算出され、ステップS11に進む。ステップS11では、演算部134により、算出された輝度データの差分が所定の値より大きい画素が連続して成る差分領域の画素の数が所定の画素数より多いかどうか判定される。算出された輝度データの差分が所定の値より大きい差分領域の画素の数が所定の画素数より多い場合、ステップS11は肯定判定されてステップS12に進む。算出された輝度データの差分が所定の値より大きい画素の数が所定の画素数より多くない場合、ステップS11は否定判定されてステップS1に戻る。   In step S9, luminance data for each pixel is calculated by the calculation unit 134 for each of the first compressed image data and the second compressed image data, and the process proceeds to step S10. In step S10, the calculation unit 134 calculates the difference between the first luminance data and the second luminance data for each corresponding pixel of the first compressed image data and the second compressed image data, and the process proceeds to step S11. In step S11, it is determined by the operation unit 134 whether the number of pixels in the difference area, in which the calculated difference in luminance data is larger than the predetermined value, is greater than the predetermined number. If the number of pixels in the difference area where the calculated difference in luminance data is larger than the predetermined value is larger than the predetermined number of pixels, the determination in step S11 is affirmative and the process proceeds to step S12. If the number of pixels whose calculated difference in luminance data is larger than the predetermined value is not larger than the predetermined number of pixels, the determination in step S11 is negative and the process returns to step S1.

ステップS12では、演算部134により、第2圧縮画像データにおける移動領域から白色に相当する白色領域を抽出し、ステップS13に進む。ステップS13では、画像処理部132により、第2圧縮画像データの二値化画像が生成され、ステップS14に進む。ステップS14では、演算部134により、二値化画像の白色領域において直線状に延びる部分である直線部分が取得され、ステップS15に進む。ステップS15では、演算部134により、取得された直線部分の長さが所定の長さより長いかどうか判定される。取得された直線部分の長さが所定の長さより長いと判定された場合、ステップS15は肯定判定されてステップS16に進む。取得された直線部分の長さが所定の長さより長くないと判断された場合、ステップS15は否定判定され、ステップS22でバッファのデータ入れ換え処理を行った後にステップS1に戻る。ステップS16では、演算部134により、取得された直線部分の傾きが所定角度範囲であるかどうか判定される。取得された直線部分の傾きが所定角度範囲であると判定された場合、ステップS16は肯定判定されてステップS17に進む。取得された直線部分の傾きが所定角度範囲ではないと判定された場合、ステップS16は否定判定され、ステップS22でバッファのデータ入れ換え処理を行った後にステップS1に戻る。   In step S12, the arithmetic unit 134 extracts a white area corresponding to white from the movement area in the second compressed image data, and the process proceeds to step S13. In step S13, the image processing unit 132 generates a binarized image of the second compressed image data, and the process proceeds to step S14. In step S14, the calculation unit 134 acquires a straight line portion which is a portion extending linearly in the white area of the binarized image, and the process proceeds to step S15. In step S15, it is determined by the calculation unit 134 whether the length of the acquired linear portion is longer than a predetermined length. If it is determined that the length of the acquired linear portion is longer than the predetermined length, an affirmative determination is made in step S15, and the process proceeds to step S16. If it is determined that the length of the acquired linear portion is not longer than the predetermined length, a negative determination is made in step S15, and after performing buffer data exchange processing in step S22, the process returns to step S1. In step S16, it is determined by the calculation unit 134 whether the inclination of the acquired linear portion is within a predetermined angle range. If it is determined that the inclination of the acquired linear portion is within the predetermined angle range, an affirmative determination is made in step S16, and the process proceeds to step S17. If it is determined that the inclination of the acquired linear portion is not within the predetermined angle range, a negative determination is made in step S16, and after performing buffer data exchange processing in step S22, the process returns to step S1.

ステップS17では、演算部134により、二値化画像における白色の領域は視覚障碍者が使用する白杖に対応したものであると判定して計数を行い、ステップS18に進む。ステップS18では、演算部134により、白杖に対応したものであると判定した計数結果が所定数に達したかどうか判定する。計数結果が所定数に達したと判定された場合、ステップS18は肯定判定され、ステップS19に進む。計数結果が所定数に達していないと判定された場合、ステップS18は否定判定され、ステップS22でバッファのデータ入れ換え処理を行った後にステップS1に戻る。ステップS19では、信号生成部136で障碍者検知信号を生成してインターフェイス155を介して障碍者検知信号が報知装置150に出力される。そしてステップS20に進む。ステップS20では、バッファ領域のデータが入れ換えられ、ステップS21に進む。ステップS21では、演算部134により、操作入力部131に動作終了の入力が行われたかどうか判定される。動作終了の入力が行われたと判定された場合、ステップS21は肯定判定され、処理を終了する。動作終了の入力が行われていないと判定された場合、ステップS21は肯定判定され、ステップS1に戻る。   In step S17, the calculating unit 134 determines that the white area in the binarized image corresponds to the white wand used by the visually impaired person, performs counting, and proceeds to step S18. In step S18, the calculation unit 134 determines whether the counting result determined to correspond to the white stick has reached a predetermined number. If it is determined that the counting result has reached the predetermined number, step S18 is affirmed and the process proceeds to step S19. If it is determined that the count result has not reached the predetermined number, step S18 is negative, and after the data exchange process of the buffer is performed in step S22, the process returns to step S1. In step S19, the signal generation unit 136 generates a disabled person detection signal, and the disabled person detection signal is output to the notification device 150 via the interface 155. Then, the process proceeds to step S20. In step S20, the data in the buffer area is replaced, and the process proceeds to step S21. In step S21, it is determined by the operation unit 134 whether or not an input of operation termination has been performed on the operation input unit 131. If it is determined that the operation end input has been performed, an affirmative determination is made in step S21, and the process ends. If it is determined that the operation end input has not been performed, an affirmative determination is made in step S21, and the process returns to step S1.

図8の視覚障碍者を検知するプログラムは、複数の画像に基づいて移動体の移動領域を検出する移動領域検出処理(ステップS10、S11)と、移動領域の中の白色領域を検出する白色領域検出処理(ステップS12)と、白色領域の中から直線部分を抽出する直線部分抽出処理(ステップS14)と、直線部分の長さおよび角度を算出する算出処理(ステップS15、S16)と、直線部分の長さと角度に基づいて視覚障碍者を検知したことを表す検知信号を出力する検知信号出力処理(ステップS17〜S19)とをコンピュータに実行させる。   The program for detecting the visually impaired person in FIG. 8 detects moving area of a moving object based on a plurality of images (steps S10 and S11) and white area detecting a white area in the moving area. Detection process (step S12), straight line part extraction process (step S14) for extracting a straight line part from the white region, calculation process (steps S15 and S16) for calculating the length and angle of the straight line part, straight line part The computer is caused to execute detection signal output processing (steps S17 to S19) for outputting a detection signal representing that a visually impaired person has been detected based on the length and the angle.

視覚障碍者検知プログラムの検知信号出力処理は,直線部分の長さが所定長さより長く(ステップS15がYES)、かつ、前記直線部分の角度が所定角度範囲である(ステップS16がYES)と判定し、直線部分の長さが所定長さより長く、かつ、直線部分の角度が所定角度範囲である2条件の成立が所定回転数以上検出されたとき(ステップS18がYES)、検知信号を出力する(ステップS19)。
なお、直線部分の長さが所定長さより長く、かつ、直線部分の角度が所定角度範囲である2条件が1度成立したら視覚障碍者検知と判定して検知信号を出力してもよい。
In the detection signal output process of the visually impaired person detection program, it is determined that the length of the linear portion is longer than the predetermined length (YES in step S15) and the angle of the linear portion is within the predetermined angle range (YES in step S16) And the detection signal is output when the satisfaction of the two conditions in which the length of the linear portion is longer than the predetermined length and the angle of the linear portion is within the predetermined angle range is detected more than the predetermined number of rotations (YES in step S18) (Step S19).
The detection signal may be output by determining that visual impaired person detection is performed when two conditions in which the length of the linear portion is longer than the predetermined length and the angle of the linear portion is within the predetermined angle range are satisfied once.

視覚障碍者検知プログラムは、視覚障碍者を検知する検知対象領域において、検知対象である視覚障碍者の動線方向を設定する動線方向設定処理をさらに有し、設定された動線方向に基づいて角度範囲の下限値と上限値とが規定される。
視覚障碍者検知プログラムの検知信号出力処理は、第1画像および第2画像における画像横方向を基準方向として、基準方向から時計回りに動線方向がなす角度をθref、基準方向から時計回りに直線部分のなす角度をθdetとしたとき、θdetが、(θref/2)≦θdet≦(90+θref/2)を満足するとき検知信号を出力する。
The visually impaired person detection program further includes flow line direction setting processing for setting the flow line direction of the visually impaired person who is the detection target in the detection target area for detecting the visually impaired person, and based on the set flow line direction. The lower limit value and the upper limit value of the angle range are defined.
The detection signal output process of the visually impaired person detection program uses the lateral direction of the image in the first image and the second image as a reference direction, and forms an angle θref in the clockwise direction from the reference direction and a straight line clockwise from the reference direction. Assuming that the angle formed by the portions is θdet, a detection signal is output when θdet satisfies (θref / 2) ≦ θdet ≦ (90 + θref / 2).

視覚障碍者検知プログラムは、視覚障碍者を検知する検知対象領域を入力して設定する検知対象領域設定処理と、所定長さを入力して設定する長さ設定処理とをさらに含み、検知対象領域が複数設定された場合、動線方向および所定長さは各検知対象領域ごとに設定される。   The visually impaired person detection program further includes detection target area setting processing for inputting and setting a detection target area for detecting a visually impaired person, and length setting processing for inputting and setting a predetermined length, and the detection target area When a plurality of are set, the flow line direction and the predetermined length are set for each detection target area.

本実施の形態の視覚障碍者の検知を実現するためのプログラムをコンピュータにより読み取り可能な記録媒体に記録して、この記録媒体に記録された、上記の視覚障碍者の検知に関するプログラムをコンピュータシステムに読み込ませ、実行させてもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   The program for realizing detection of a visually impaired person of the present embodiment is recorded in a computer readable recording medium, and the above-mentioned program concerning detection of a visually impaired person recorded in the recording medium is a computer system It may be read and executed. Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The term "computer-readable recording medium" refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, a memory card, or a storage device such as a hard disk incorporated in a computer system. Furthermore, “computer-readable recording medium” dynamically holds a program for a short time, like a communication line in the case of transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may include one that holds a program for a certain period of time, such as volatile memory in a computer system that becomes a server or a client in that case. Further, the above program may be for realizing a part of the above-described functions, and may be a combination of the above-described functions and a program already recorded in a computer system. .

また、パーソナルコンピュータ(以下、PCと呼ぶ)等に適用する場合、上述した制御に関するプログラムは、CD−ROMなどの記録媒体やインターネット等のデータ信号を通じて提供することができる。図9はその様子を示す図である。PC950は、CD−ROM953を介してプログラムの提供を受ける。また、PC950は通信回線951との接続機能を有する。コンピュータ952は上記プログラムを提供するサーバーコンピュータであり、ハードディスク等の記録媒体にプログラムを格納する。通信回線951は、インターネット、PC通信などの通信回線、あるいは専用通信回線などである。コンピュータ952はハードディスクを使用してプログラムを読み出し、通信回線951を介してプログラムをPC950に送信する。すなわち、プログラムをデータ信号として搬送波により搬送して、通信回線951を介して送信する。このように、プログラムは、記録媒体や搬送波などの種々の形態のコンピュータ読み込み可能なコンピュータプログラム製品として供給できる。   When applied to a personal computer (hereinafter referred to as a PC) or the like, the program relating to the control described above can be provided through a recording medium such as a CD-ROM or a data signal such as the Internet. FIG. 9 is a diagram showing the situation. The PC 950 receives the provision of the program via the CD-ROM 953. Also, the PC 950 has a connection function with the communication line 951. The computer 952 is a server computer that provides the above program, and stores the program in a recording medium such as a hard disk. The communication line 951 is a communication line such as the Internet, PC communication, or a dedicated communication line. The computer 952 reads the program using the hard disk, and transmits the program to the PC 950 via the communication line 951. That is, the program is carried by a carrier wave as a data signal and transmitted through the communication line 951. Thus, the program can be supplied as various forms of computer readable computer program products such as a recording medium and a carrier wave.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)視覚障碍者検知プログラムは、簡素化したアルゴリズムで白杖を検出することができるので、廉価な視覚障碍者検知プログラムおよび視覚障碍者入場監視を提供できる。
(2)視覚障碍者検知プログラムは、取得した複数の画像に基づいて移動体の移動領域を検出し、移動領域から白色領域を検出し、白色領域の直線部分について、その長さが所定長さより長く、かつ、その傾きが所定角度範囲であると判定した場合、視覚障碍者を検知したことを表す検知信号を出力するようにコンピュータに実行させる。これにより、視覚障碍者の白杖を確実に検知して、視覚障碍者へ声がけ等の適切な対応をするための信号を出力することができる。
According to the first embodiment described above, the following effects can be obtained.
(1) The blind person detection program can detect the white cane with a simplified algorithm, so it can provide an inexpensive blind person detection program and blind person entrance surveillance.
(2) The visually impaired person detection program detects the moving area of the moving body based on the plurality of acquired images, detects the white area from the moving area, and the length of the straight line portion of the white area is greater than a predetermined length If it is determined that the tilt is long and the inclination is within the predetermined angle range, the computer is caused to output a detection signal indicating that a visually impaired person has been detected. As a result, it is possible to reliably detect the white cane of the visually impaired and output a signal for performing appropriate measures such as vocalization to the visually impaired.

(3)視覚障碍者検知プログラムは、視覚障碍者検知対象画像において、視覚障碍者の移動を検知するための検知方向(動線方向)を設定することができる。設定した検知方向に基づいて、白色領域の直線部分が白杖であると判定するための所定長さや所定角度範囲をより適切に設定することができる。 (3) The visually impaired person detection program can set the detection direction (flow line direction) for detecting the movement of the visually impaired person in the visually impaired person detection target image. Based on the set detection direction, it is possible to more appropriately set a predetermined length and a predetermined angle range for determining that the straight portion of the white area is a white wand.

(4)視覚障碍者検知プログラムは、視覚障碍者検知対象画像において、複数の検知対象領域を設定することが可能で、複数の検知対象領域が設定された場合には、それぞれの検知対象領域に適した検知方向および所定長さを設定することができる。これにより、より確実に視覚障碍者を検知することが可能である。 (4) The visually impaired person detection program can set a plurality of detection target areas in the visually impaired person detection target image, and when a plurality of detection target areas are set, each detection target area is set. A suitable detection direction and a predetermined length can be set. This makes it possible to more reliably detect visually impaired persons.

(5)第1の実施の形態の視覚障碍者検知プログラムを実装した視覚障碍者検知装置を備えた視覚障碍者入場監視装置は、施設の入場ゲートを通過する来場者が撮像画面に含まれるように撮像された画像を用いる。このため、施設の入場ゲートから入場しようとする視覚障碍者を確実に検知でき、声がけ等の適切な対応を行うことができる。特に、鉄道の駅の改札口のように、入場した視覚障碍者が誤って危険な場所に近づいてしまう恐れのあるような施設で、声がけ等の適切な対応を行うことができる。 (5) The visually impaired person entrance monitoring device provided with the visually impaired person detection device implemented with the visually impaired person detection program of the first embodiment is such that the visitors passing through the entrance gate of the facility are included in the imaging screen Use the image captured in For this reason, it is possible to reliably detect a visually impaired person who is about to enter from the entrance gate of the facility, and to take appropriate measures such as vocalization. In particular, in facilities where there is a risk that a visually impaired person who has entered may accidentally approach a dangerous place, such as at a ticket gate of a railway station, appropriate measures such as vocalization can be performed.

(変形例1)
上記の実施の形態においては、第2圧縮画像を用いて、その白色領域を抽出して二値化し、その直線状の白色部分の長さと傾きとから白杖かどうかを判定し、白杖と判定された場合に計数を行った(ステップS12〜ステップS17)。しかし、これらの一連の処理は、第1圧縮画像を用いて行ってもよいし、あるいは、第2圧縮画像と第1圧縮画像の両方を用いて行ってもよい。
(Modification 1)
In the above embodiment, the second compressed image is used to extract and binarize the white region, and it is determined from the length and inclination of the linear white portion whether it is a white cane or not, Counting was performed when it was determined (steps S12 to S17). However, the series of processes may be performed using the first compressed image, or may be performed using both the second compressed image and the first compressed image.

(変形例2)
上記の実施の形態においては、式(1)に基づいて、白杖として認識された直線部分の角度が所定角度範囲に含まれているかを判定した。しかしながら、動線方向と所定角度範囲をLUT(ルックアップテーブル)として予め条件設定部135に設定し、初期設定処理で決定した動線方向からLUTを参照して所定角度範囲を決定してもよい。
(Modification 2)
In the above embodiment, it is determined based on the equation (1) whether or not the angle of the linear portion recognized as the white cane is included in the predetermined angle range. However, the flow line direction and the predetermined angle range may be set in advance as the LUT (lookup table) in the condition setting unit 135, and the predetermined angle range may be determined by referring to the LUT from the flow line direction determined in the initial setting process. .

(変形例3)
視覚障碍者検知装置130は、監視カメラ120と有線もしくは無線によるネットワークで接続された駅構内の管理事務室内のコンピュータ、あるいは、鉄道事業者の鉄道集中管理室内のコンピュータである。あるいは、監視カメラ120と無線によるネットワークで接続された駅係員のモバイル端末でもよい。前者の場合、視覚障碍者検知プログラムはコンピュータに実装され、操作入力部131はコンピュータのキーボードであり、報知装置150はコンピュータのモニタやスピーカである。管理事務室内のコンピュータに視覚障碍者入場の検知が報知されたとき、そのコンピュータを管理運用する者、あるいはその者から通報された駅係員が改札口で視覚障碍者に声がけを行う。鉄道事業者の鉄道集中管理室内のコンピュータで視覚障碍者入場の検知が報知されたときは、そのコンピュータに事前登録された駅構内のコンピュータやモバイル端末に視覚障碍者入場の報知信号を送信する。
あるいは、改札口近傍に設置した放送設備や電光掲示板から視覚障碍者入場を報知するようにしてもよい。視覚障碍者の入場情報と共に、視覚障碍者に対する声がけを駅員もしくは周囲の乗客に促す情報を提示するようにすると更によい。
(Modification 3)
The visually impaired person detection device 130 is a computer in a management office room in a station yard connected to the monitoring camera 120 by a wired or wireless network, or a computer in a railway central management room of a railway operator. Alternatively, it may be a mobile terminal of a station clerk connected to the surveillance camera 120 via a wireless network. In the former case, the visually impaired person detection program is implemented in a computer, the operation input unit 131 is a computer keyboard, and the notification device 150 is a computer monitor or speaker. When the computer in the management office is notified of detection of entrance for the visually impaired, the person who manages and operates the computer or the station clerk notified by that person voices the person with visual impairment at the ticket gate. When detection of entrance to the visually impaired is notified by the computer in the railway central management room of the railway company, a notification signal of entrance to the visually impaired is transmitted to a computer or mobile terminal in the station yard previously registered in the computer.
Alternatively, the visually impaired person's entrance may be notified from a broadcasting facility or an electric light bulletin board installed near the ticket gate. It is further preferable to present information for prompting station staff or surrounding passengers to speak for the visually impaired along with the entrance information for the visually impaired.

後者の場合、視覚障碍者検知プログラムは駅係員が持つモバイル端末に実装され、操作入力部131はモバイル端末画面のタッチパネルであり、報知装置150はモバイル端末画面や内蔵されたスピーカである。複数の駅係員のモバイル端末に視覚障碍者検知プログラムを実装しておけば、視覚障碍者の入場の報知を受信したいずれかの駅係員が改札口で視覚障碍者に声がけすることが可能となる。
駅係員のモバイル端末には、視覚障碍者の入場情報と共に、視覚障碍者に対する声がけを駅員に促す情報を提示するようにすると更によい。
In the latter case, the visually impaired person detection program is implemented on a mobile terminal owned by a station staff, the operation input unit 131 is a touch panel of the mobile terminal screen, and the notification device 150 is a mobile terminal screen or a built-in speaker. If a blind person detection program is installed on mobile terminals of multiple station staff, any station clerk who has received notification of the entrance of a visually impaired person may be able to call out visually impaired persons at the ticket gate. Become.
It is further preferable to present information on the station clerk's mobile terminal to prompt the station staff to speak to the visually impaired along with the entrance information of the visually impaired.

(変形例4)
上述した一例では、駅の改札口を通過する視覚障碍者を検知する装置として説明した。しかし、本発明による視覚障碍者検知装置、検知プログラムを、駅以外の空港、ホール、劇場、宿泊施設、商業施設などの種々の施設へ入場、退場する視覚障碍者検知に利用することもできる。
(Modification 4)
In the example mentioned above, it demonstrated as an apparatus which detects a visually impaired person who passes the ticket gate of a station. However, the visual impaired person detection device and the detection program according to the present invention can also be used for visual impaired person detection for entering and leaving various facilities such as airports, halls, theaters, accommodation facilities and commercial facilities other than stations.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。   The present invention is not limited to the above embodiment as long as the features of the present invention are not impaired, and other embodiments considered within the scope of the technical idea of the present invention are also included in the scope of the present invention. .

100…視覚障碍者入場監視装置
120…撮像装置
130…視覚障碍者検知装置
131…操作入力部
132…画像処理部
133…記憶部
134…演算部
135…条件設定部
136…信号生成部
150…報知装置
200、300…画像
201、301…白杖
100: Visually impaired person entrance surveillance device 120: Imaging device 130: Vision impaired person detection device 131: Operation input unit 132: Image processing unit 133: Storage unit 134: Arithmetic unit 135: Condition setting unit 136: Signal generation unit 150: Notification Device 200, 300 ... Image 201, 301 ... White cane

Claims (9)

視覚障碍者を検知するプログラムであって、
複数の画像に基づいて移動体の移動領域を検出する移動領域検出処理と、
前記移動領域の中の白色領域を検出する白色領域検出処理と、
前記白色領域の中から直線部分を抽出する直線部分抽出処理と、
前記直線部分の長さおよび角度を算出する算出処理と、
前記直線部分の長さと角度に基づいて視覚障碍者を検知したことを表す検知信号を出力する検知信号出力処理と、をコンピュータに実行させる視覚障碍者検知プログラム。
It is a program that detects visually impaired people.
Moving area detection processing for detecting a moving area of a moving object based on a plurality of images;
White area detection processing for detecting a white area in the movement area;
Straight line portion extraction processing for extracting a straight line portion from the white area;
Calculation processing for calculating the length and angle of the straight line portion;
A detection program for a visually impaired person that causes a computer to execute detection signal output processing that outputs a detection signal representing that a visually impaired person has been detected based on the length and angle of the linear portion.
請求項1に記載の視覚障碍者検知プログラムであって、
前記検知信号出力処理は,前記直線部分の長さが所定長さより長く、かつ、前記直線部分の角度が所定角度範囲であると判定した場合、前記検知信号を出力する、視覚障碍者検知プログラム。
The visually impaired person detection program according to claim 1, wherein
The visually impaired person detection program, wherein the detection signal output processing outputs the detection signal when it is determined that the length of the linear portion is longer than a predetermined length and the angle of the linear portion is within a predetermined angle range.
請求項2に記載の視覚障碍者検知プログラムであって、
前記視覚障碍者を検知する検知対象領域において、検知対象である前記視覚障碍者の動線方向を設定する動線方向設定処理をさらに有し、
設定された前記動線方向に基づいて前記所定角度範囲の下限値と上限値とが規定される、視覚障碍者検知プログラム。
The visually impaired person detection program according to claim 2, wherein
In the detection target area for detecting the visually impaired person, the method further includes flow line direction setting processing for setting a flow line direction of the visually impaired person as the detection target,
The visually impaired person detection program by which the lower limit and upper limit of the said predetermined angle range are prescribed | regulated based on the set said flow line direction.
請求項3に記載の視覚障碍者検知プログラムであって、
前記検知信号出力処理は、第1の画像および第2の画像における画像横方向を基準方向として、前記基準方向から時計回りに前記動線方向がなす角度をθref、前記基準方向から時計回りに前記直線部分のなす角度をθdetとしたとき、θdetが式(1)を満足するとき前記検知信号を出力する視覚障碍者検知プログラム。
(θref/2)≦θdet≦(90+θref/2)…(1)
The visually impaired person detection program according to claim 3, wherein
In the detection signal output processing, an angle formed by the flow direction in the clockwise direction from the reference direction is θref, with the image lateral direction in the first image and the second image as a reference direction, and the angle in the clockwise direction from the reference direction is θref. The visually impaired person detection program which outputs the said detection signal, when (theta) det satisfies Formula (1) when the angle which a linear part makes is set to (theta) det.
(Θref / 2) ≦ θdet ≦ (90 + θref / 2) (1)
請求項3に記載の視覚障碍者検知プログラムであって、
視覚障碍者を検知する検知対象領域を入力して設定する検知対象領域設定処理と、
前記所定長さを入力して設定する長さ設定処理とをさらに含み、
前記検知対象領域が複数設定された場合、前記動線方向および前記所定長さは各検知対象領域ごとに設定される、視覚障碍者検知プログラム。
The visually impaired person detection program according to claim 3, wherein
Detection target area setting processing of inputting and setting a detection target area for detecting a visually impaired person;
And further including a length setting process of inputting and setting the predetermined length,
The visually impaired person detection program, wherein when a plurality of detection target areas are set, the flow line direction and the predetermined length are set for each detection target area.
請求項1から5までのいずれか1項に記載の視覚障碍者検知プログラムを実装する視覚障碍者検知装置と、
施設の入場ゲートを通過する入場者が撮像されるように設置される撮像装置と、
前記検知信号を受信して視覚障碍者の入場を報知する報知装置とを備える、視覚障碍者入場監視装置。
A visually impaired person detection device for implementing the visually impaired person detection program according to any one of claims 1 to 5;
An imaging device installed so as to capture an image of an visitor passing through an entrance gate of the facility;
And a notification device that receives the detection signal and reports the entrance of a visually impaired person.
請求項6に記載の視覚障碍者入場監視装置であって、
前記撮像装置は、複数の前記入場ゲートを撮像するように設置され、
前記撮像装置で撮像されるフレーム画像には、前記入場ゲートごとに、検知対象領域と、動線方向と、所定長さと、所定角度範囲とが設定される、視覚障碍者入場監視装置。
It is a visual impaired person entrance surveillance device according to claim 6,
The imaging device is installed to image a plurality of the entrance gates,
The visually impaired person's entrance monitoring device, wherein a detection target area, a flow line direction, a predetermined length, and a predetermined angle range are set for each of the entrance gates in a frame image captured by the imaging device.
請求項6に記載の視覚障碍者入場監視装置であって、
前記撮像装置は、その被写界に複数の前記入場ゲートを含むように1台のみ設置される、視覚障碍者入場監視装置。
It is a visual impaired person entrance surveillance device according to claim 6,
The device for monitoring the entrance of a visually impaired person, wherein only one imaging device is installed to include a plurality of the entrance gates in the field.
請求項6から8までのいずれか1項に記載の視覚障碍者入場監視装置において、
前記施設は駅であり、前記入場ゲートは改札口であり、
前記撮像装置は前記改札口を通過して前記駅の構内に入場する入場者を撮像する位置に設置され、
前記報知装置はさらに、検知した視覚障碍者に対する声がけを駅員もしくは乗客に促す情報を提示する、視覚障碍者入場監視装置。
In the visually impaired person entrance surveillance device according to any one of claims 6 to 8,
The facility is a station, and the entrance gate is a ticket gate,
The imaging device is installed at a position where an image of an entrance person who passes through the ticket gate and enters the yard of the station is imaged.
The notification apparatus further presents information for prompting a station staff or a passenger to make a voice call to a detected visually impaired person.
JP2017228463A 2017-11-28 2017-11-28 Visually impaired person detection program and visually impaired person entry monitoring device Pending JP2019101510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017228463A JP2019101510A (en) 2017-11-28 2017-11-28 Visually impaired person detection program and visually impaired person entry monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017228463A JP2019101510A (en) 2017-11-28 2017-11-28 Visually impaired person detection program and visually impaired person entry monitoring device

Publications (1)

Publication Number Publication Date
JP2019101510A true JP2019101510A (en) 2019-06-24

Family

ID=66976926

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228463A Pending JP2019101510A (en) 2017-11-28 2017-11-28 Visually impaired person detection program and visually impaired person entry monitoring device

Country Status (1)

Country Link
JP (1) JP2019101510A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430620B2 (en) 2020-11-04 2024-02-13 株式会社エクシオテック Station staff notification system for visitors using white canes

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7430620B2 (en) 2020-11-04 2024-02-13 株式会社エクシオテック Station staff notification system for visitors using white canes

Similar Documents

Publication Publication Date Title
US10949657B2 (en) Person's behavior monitoring device and person's behavior monitoring system
US8928770B2 (en) Multi-subject imaging device and imaging method
KR101514061B1 (en) Wireless camera device for managing old and weak people and the management system thereby
KR20120140486A (en) Apparatus and method for providing guiding service in portable terminal
US9904865B2 (en) Setting apparatus which sets a detection region for a detection process
KR100822476B1 (en) Remote emergency monitoring system and method
KR20090001848A (en) Method and system monitoring facial expression
US20150341569A1 (en) Image switching apparatus, image switching system, and image switching method
JP2016213677A (en) Remote communication system, and control method and program for the same
CN108540707A (en) Recognition of face crime scene investigation device
US20190065900A1 (en) Information processing device, information processing program, and information processing method
JP2016213674A (en) Display control system, display control unit, display control method, and program
JP5088463B2 (en) Monitoring system
JP5959120B2 (en) Elevator display system and content management server used therefor
KR20190078579A (en) Information processing apparatus, information processing method, and recording medium
JP2019101510A (en) Visually impaired person detection program and visually impaired person entry monitoring device
CN114529979A (en) Human body posture identification system, human body posture identification method and non-transitory computer readable storage medium
JP2010177893A (en) Imaging controller and imaging control method
JP7062753B2 (en) Monitoring system and monitoring method
JP2022123142A (en) Information processing device, information processing method, and program
KR20150131493A (en) System for manaing attendance and absence and the method thereof
JP6785437B2 (en) Human behavior monitoring device and human behavior monitoring system
US10931923B2 (en) Surveillance system, surveillance network construction method, and program
CN112507948A (en) Mask wearing prompting method and related device
JP2016021716A (en) Tracking device and control method of the same