JP2019128799A - Target person detection device - Google Patents

Target person detection device Download PDF

Info

Publication number
JP2019128799A
JP2019128799A JP2018010067A JP2018010067A JP2019128799A JP 2019128799 A JP2019128799 A JP 2019128799A JP 2018010067 A JP2018010067 A JP 2018010067A JP 2018010067 A JP2018010067 A JP 2018010067A JP 2019128799 A JP2019128799 A JP 2019128799A
Authority
JP
Japan
Prior art keywords
person
image
cane
unit
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018010067A
Other languages
Japanese (ja)
Other versions
JP7020931B2 (en
Inventor
栗原 正和
Masakazu Kurihara
正和 栗原
朝靖 北川
Tomoyasu Kitagawa
朝靖 北川
川崎 栄嗣
Eiji Kawasaki
栄嗣 川崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Signal Co Ltd
Original Assignee
Nippon Signal Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Signal Co Ltd filed Critical Nippon Signal Co Ltd
Priority to JP2018010067A priority Critical patent/JP7020931B2/en
Publication of JP2019128799A publication Critical patent/JP2019128799A/en
Application granted granted Critical
Publication of JP7020931B2 publication Critical patent/JP7020931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a target person detection device that, during monitoring, enables proper grasping of a target person with an attachment, such as a visually handicapped person having a cane, even if the attachment accompanying the target person to be monitored, such as a cane, may not be detected.SOLUTION: When a main control unit 60 as a cane determination unit 63 in a control device 50 determines that there is a cane image, a person who is regarded as the same person for a corresponding person image can be stored as a visually handicapped person, so that even if a cane is not detected during monitoring, the person who has been determined as having a cane is still treated as a visually handicapped person. That is, a visually handicapped person having a cane can be properly grasped.SELECTED DRAWING: Figure 1

Description

本発明は、例えば駅ホーム等における監視に際して、例えば視覚障碍者等の対象者を検出する対象者検出装置に関する。   The present invention relates to a target person detection device that detects a target person such as a visually handicapped person, for example, when monitoring at a station platform or the like.

監視対象となり得る対象者として、例えば、杖(典型例としては白杖)を利用する視覚障碍者(視覚障害者)は、単独で歩行を行い、例えば、地面に設置された誘導ブロックに従って歩行をする。しかし、誘導ブロックだけでは、周囲の状況を正しく判断できない場合があり、例えば、駅ホームにおける転落が問題となっている。したがって、駅ホームにおいて杖の利用者を早期発見することは、駅務を行う者にとって重要になる。   For example, a visually handicapped person (a visually handicapped person) who uses a walking stick (typically a white cane) as a target to be monitored can walk alone, for example, according to a guidance block installed on the ground. Do. However, there are cases where the surrounding situation cannot be judged correctly only with the guidance block, and for example, a fall at a station platform is a problem. Therefore, early detection of the user of the cane at the station platform is important for those who perform station duties.

これに対して、例えばステレオカメラから得られる3次元距離情報に基づいて、歩行者を特定し、白杖が存在する可能性のある部分を画像処理し、白杖を検出することで白杖利用者を検出するもの(特許文献1参照)が知られている。   On the other hand, for example, a pedestrian is identified based on three-dimensional distance information obtained from a stereo camera, a portion where a white cane may exist is image-processed, and a white cane is used by detecting the white cane That detect a person (see Patent Document 1) is known.

しかしながら、上記特許文献1では、例えばカメラの撮像範囲おいて白杖利用者のかげに白杖が隠れてしまったり、白杖利用者がカメラに対して遠方に離れたことによりカメラの解像度の関係で白杖が画像上で認識できなくなったりすることで、白杖が未検出になる場合については、何ら対処がなされていない。   However, in Patent Document 1, for example, the white cane is hidden behind the white cane user in the imaging range of the camera, or the white cane user is far away from the camera because of the resolution of the camera. No measures have been taken for the case where the white cane becomes undetected because the white cane can not be recognized on the image.

特開2007−274234号公報JP 2007-274234 A

本発明は上記した点に鑑みてなされたものであり、監視中に、杖等の監視対象となる対象者に付随する付随物が未検出になる可能性があっても適切に付随物を有する対象者(典型的には、杖を有する視覚障碍者)を捉えることを可能にする対象者検出装置を提供することを目的とする。   The present invention has been made in view of the above-described points, and appropriately has an appendage even if there is a possibility that an appendage accompanying a subject to be monitored such as a cane becomes undetected during monitoring. An object of the present invention is to provide a subject detection apparatus which enables capturing of a subject (typically, a visually impaired person having a walking stick).

上記目的を達成するため、本発明に係る対象者検出装置は、人物画像における付随物画像の有無を判定する付随物判定部と、付随物判定部で付随物画像有りと判定された人物画像について、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部と、上記同一人物を対象者として記憶する対象者記憶部とを備える。   In order to achieve the above object, the subject detection device according to the present invention relates to an incident determination unit that determines the presence or absence of an accompanying image in a person image, and a person image that is determined to have an accompanying image by the incident determination unit. A tracking processing unit for tracking the same person by associating images between frames in continuous image data, and a target person storage unit for storing the same person as a target person.

上記対象者検出装置では、付随物判定部で付随物画像有りと判定されれば、該当する人物画像について同一人物とされる人を対象者として記憶された状態を維持できるので、監視中に付随物である杖が未検出になることがあっても、杖を有していると判定された人が引き続き対象者である視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。   In the above-described subject detection device, if it is determined by the accessory determination unit that there is an accessory image, it is possible to maintain a state in which a person who is the same person as the target person image is stored as a target person. Even if the cane that is an object may be undetected, the person who is determined to have the cane is still treated as the visually impaired person who is the subject. That is, a visually handicapped person having a walking stick can be properly captured.

本発明の具体的な側面では、監視対象エリアを撮像して連続画像データとして2次元画像データを取得する撮像部と、撮像部で取得された2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部とを備える。この場合、例えば既に監視用等のために配備されているカメラ等で取得可能な2次元画像データからであっても、人検出部において、的確に人物画像を抽出できる。   In a specific aspect of the present invention, an image capturing unit that captures an image of a monitoring target area and acquires two-dimensional image data as continuous image data, and a human image by shape extraction by machine learning from the two-dimensional image data acquired by the image capturing unit. And a person detection unit that detects the presence of a person by extracting. In this case, for example, even from the two-dimensional image data that can be acquired by a camera or the like that is already provided for monitoring or the like, the human image can be accurately extracted by the human detection unit.

本発明の別の側面では、トラッキング処理部は、連続画像データのフレーム間での人物画像の位置変化の情報に基づいて同一人物についての人物画像であるか否かを判定する。この場合、撮像された人物の識別を確実に行える。   In another aspect of the present invention, the tracking processing unit determines whether or not the images are the same person based on the information on the position change of the person image between frames of the continuous image data. In this case, it is possible to reliably identify the imaged person.

本発明のさらに別の側面では、トラッキング処理部は、一の画像データにおいて検出された人物に対応する人物画像が所定のフレーム数連続して以後の画像データに存在しない場合に、該当する人がフレームアウトしたと判定する。この場合、画像認識上のエラーにより検出されるべき画像データが得られないといったことがある場合にも適切な対応が可能になる。   In still another aspect of the present invention, the tracking processing unit is configured such that when a person image corresponding to a person detected in one image data does not exist in subsequent image data for a predetermined number of frames, It is determined that the frame is out. In this case, it is possible to appropriately cope with a case where image data to be detected cannot be obtained due to an error in image recognition.

本発明のさらに別の側面では、付随物判定部は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする。この場合、迅速かつ確実な杖判定を行える。   In still another aspect of the present invention, the incidental body determination unit performs mask processing for cutting out a portion corresponding to the lower body of a person in a person image. In this case, a quick and reliable cane determination can be performed.

本発明のさらに別の側面では、付随物判定部は、HSV変換処理による色情報に基づいて付随物画像の有無を判定する。この場合、色彩的特徴に基づいて、杖を迅速かつ確実に判別できる。   In yet another aspect of the present invention, the incidental determination unit determines the presence or absence of an incidental image based on color information obtained by HSV conversion processing. In this case, the cane can be quickly and reliably determined based on the color features.

本発明のさらに別の側面では、付随物判定部は、ハフ変換処理による直線成分情報に基づいて付随物画像の有無を判定する。この場合、形状的特徴に基づいて、杖を迅速かつ確実に判別できる。   In yet another aspect of the present invention, the incidental determination unit determines the presence or absence of an incidental image based on straight line component information obtained by the Hough transform process. In this case, the cane can be quickly and reliably determined based on the shape feature.

実施形態に係る対象者検出装置を概念的に示すブロック図である。It is a block diagram which shows notionally the subject person detection device concerning an embodiment. 対象者検出装置を配備した駅の様子を示す概念図である。It is a conceptual diagram which shows the mode of the station which deployed the subject person detection apparatus. (A)〜(C)は、トラッキングされる人物の様子について一例を示す概念的な画像図である。(A)-(C) are conceptual image figures which show an example about the mode of the person tracked. (A)〜(C)は、トラッキングされる人物に関するデータについて一例を示すデータ表である。(A)-(C) are the data tables which show an example about the data regarding the person tracked. (A)〜(C)は、人物のフレーム間での対応付けについて説明するための概念的な画像図である。(A)-(C) is a conceptual image figure for demonstrating the matching between the frames of a person. (A)〜(D)は、付随物画像としての杖画像を抽出する方法について一例を示す概念的な画像図である。(A)-(D) are conceptual image figures which show an example about the method of extracting the wand image as an incidental thing image. トラッキング処理の一例について説明するためのフローチャートである。It is a flowchart for demonstrating an example of a tracking process. 1つの画像における付随物画像としての杖画像の抽出処理の一例について説明するためのフローチャートである。It is a flowchart for demonstrating an example of the extraction process of the cane image as an accompanying image in one image.

以下、図1等を参照して、本実施形態に係る対象者検出装置の一態様である視覚障碍者検出装置について一例を説明する。図1は、本実施形態に係る視覚障碍者検出装置100を概念的に示すブロック図であり、図2は、視覚障碍者検出装置100を配備した駅STの様子を示す概念図である。ここでは、一例として、列車TRが発着可能な駅STのホーム(プラットホーム)PFを視覚障碍者検出装置100による監視対象エリアとしている。すなわち、駅STのホームPFにいる利用者HUを検知の対象とし、利用者HUが視覚障碍者であるか否か、つまり、監視の対象となる対象者であるか否か、の検出を行っている。   Hereinafter, with reference to FIG. 1 etc., an example is demonstrated about the person with a blind person detection apparatus which is one aspect | mode of the object person detection apparatus which concerns on this embodiment. FIG. 1 is a block diagram conceptually showing a visually impaired person detection device 100 according to the present embodiment, and FIG. 2 is a conceptual diagram showing a state of a station ST in which the visually impaired person detection device 100 is provided. Here, as an example, the home (platform) PF of the station ST where the train TR can arrive and exit is the area to be monitored by the visually impaired person detection device 100. That is, the user HU in the station PF's home PF is a detection target, and whether or not the user HU is a visually impaired person, that is, whether or not it is a target person to be monitored is detected. ing.

上記目的を達成するため、視覚障碍者検出装置100は、利用者HUの駅構内(特にホームPF上)での位置検知を行うとともに利用者HUの特徴を捉えることで、視覚障碍者であるか否かを判定する。ここでは、代表例として、図2に示すように、杖CAを有する利用者HUの存在を確認しており、さらに、確認結果を駅務室SO内の駅員SAに対して報知するようにしている。ここでは、代表的な例として、白杖を付随物として有するか否かを検知することで、視覚障碍者の検出を行うものとして説明する。   In order to achieve the above object, the visually-impaired person detection device 100 is a visually-impaired person by detecting the position of the user HU in the station premises (especially on the home PF) and capturing the characteristics of the user HU. It is determined whether or not. Here, as a representative example, as shown in FIG. 2, the presence of a user HU having a cane CA is confirmed, and the confirmation result is notified to the station staff SA in the station service room SO. There is. Here, as a representative example, detection of a person with a visual impairment will be described by detecting whether or not a white stick is included as an accessory.

以下、図1、2を参照して、本実施形態における視覚障碍者検出装置100の構成等について具体的に説明する。本実施形態に係る視覚障碍者検出装置100は、利用者HUすなわちホームPF上を移動する人を検知するために監視対象エリアを撮像する撮像部(撮像カメラ)10と、撮像部10で取得した画像データに基づいて視覚障碍者を検出すべく各種処理及び制御を行う制御装置50とを備える。   Hereinafter, the configuration and the like of the visually impaired person detection device 100 according to the present embodiment will be specifically described with reference to FIGS. The visually impaired person detection device 100 according to the present embodiment is acquired by the imaging unit (imaging camera) 10 that images the monitoring target area and the imaging unit 10 in order to detect the user HU, that is, the person who moves on the home PF. And a control device 50 that performs various processes and controls to detect a visually impaired person based on the image data.

撮像部10は、例えばCCDやCMOS等の個体撮像素子で構成される撮像カメラであり、図2に例示するように、ホームPFの上方側に設置され、下方側を撮像する。すなわち、撮像部10により上方側からホームPFの床面FLに向けて監視対象エリアについて撮像が行われる。ここでは、特に、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理を可能とすべく、連続画像データとして、例えば30fpsのフレームレートで2次元画像データを取得している(例えば、図3(A)〜3(C)参照)。なお、撮像部10については、ホームPF全体についての撮像を可能とすべく、設置位置やホームPFの形状等に応じて、単数又は複数設けられている。   The imaging unit 10 is an imaging camera configured by an individual imaging element such as a CCD or a CMOS, for example, and is installed on the upper side of the home PF as illustrated in FIG. 2 and images the lower side. That is, the imaging unit 10 captures an image of the monitoring target area from the upper side toward the floor surface FL of the home PF. Here, in particular, two-dimensional image data is acquired as continuous image data at a frame rate of, for example, 30 fps in order to enable tracking processing for associating images between frames in continuous image data and tracking the same person. (See, for example, FIGS. 3A to 3C). Note that one or more imaging units 10 are provided according to the installation position, the shape of the home PF, and the like in order to enable imaging of the entire home PF.

制御装置50は、例えばCPUや記憶装置等により構成され、撮像部10により取得された連続画像データの関連付けに基づいて、同一人物をトラッキングしつつ、撮像された人物について付随物の一例として白杖を有しているか否かを判定している。すなわち、取得された連続画像データについて、人物画像における付随物画像の一例としての杖画像の有無を判定している。上記処理を可能とするため、図1に例示するように、制御装置50は、主制御部60と、記憶部70と、画像処理部80とを備える。   The control device 50 is configured by, for example, a CPU, a storage device, and the like, and tracks the same person based on the association of the continuous image data acquired by the imaging unit 10, and a white cane as an example of an incidental person with respect to the imaged person. It is determined whether or not it has. That is, the presence / absence of a cane image as an example of an accompanying image in a person image is determined for the acquired continuous image data. In order to enable the above processing, as illustrated in FIG. 1, the control device 50 includes a main control unit 60, a storage unit 70, and an image processing unit 80.

主制御部60は、例えばCPU等で構成され、各種情報処理を行うことにより、撮像部10で取得された2次元画像である連続画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部61や、撮像部10から取得した連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部62、あるいは、人物画像における杖画像の有無を判定する杖判定部63として機能する。すなわち、杖判定部63は、付随物判定部の一例として、付随物画像である杖画像についての判定を行う。   The main control unit 60 includes, for example, a CPU and performs various information processing, thereby extracting a person image by shape extraction by machine learning from continuous image data that is a two-dimensional image acquired by the imaging unit 10. The person detection unit 61 that detects the presence of a person, the tracking processing unit 62 that tracks the same person by associating images between frames in the continuous image data acquired from the imaging unit 10, or the presence or absence of a cane image in the person image It functions as a cane determining unit 63 for determining. That is, the cane determination unit 63 performs a determination on a cane image that is an accompanying image as an example of the accompanying object determination unit.

また、記憶部70は、記憶装置等により構成され、各種データやプログラムを格納しており、例えば、トラッキング処理部62で同一人物とされる者のうち一定の要件を満たす人物を視覚障碍者として記憶する視覚障碍者記憶部71aを含むトラッキングデータ記憶部71のほか、人特徴量情報記憶部72や、色情報記憶部73、直線成分情報記憶部74等を備えて構成されている。この場合、視覚障碍者記憶部71aは、一定の要件を満たす人物を視覚障碍者すなわち対象者として記憶する対象者記憶部として機能していることになる。   The storage unit 70 is configured by a storage device or the like and stores various data and programs. For example, a person who satisfies a certain requirement among persons who are identified as the same person by the tracking processing unit 62 is a visually impaired person. In addition to the tracking data storage unit 71 including the visually handicapped person storage unit 71a to be stored, it includes a human feature amount information storage unit 72, a color information storage unit 73, a linear component information storage unit 74, and the like. In this case, the visually impaired person storage unit 71a functions as a subject person storage unit that stores a person who satisfies certain requirements as a visually impaired person, that is, a subject person.

以下、制御装置50を構成する上記各部について、より詳細に説明する。   Hereinafter, the above-mentioned each part which constitutes control device 50 is explained in more detail.

まず、主制御部60は、人検出部61として、撮像部10により取得された各2次元画像データ中において、人(人物)の特徴を持った画像が存在するか否かの確認が可能となっている。例えば、既知のHOG特徴量やサポートベクターマシーン(SVM)を利用することで、2次元画像データから機械学習による形状抽出によって人物画像を抽出することを可能にしている。すなわち、人検出部61は、撮像部10により取得された各画像データから直線部分等を抽出し、抽出された直線部分の特徴量等に基づいて、画像データ中に人に固有の特徴を有したものがあるか否かを判定する。さらに言い換えると、人検出部61は、画像データ中における人と人以外とを仕分ける。これにより、人検出部61は、判定結果に基づいて人物画像の抽出をする。このため、人検出部61は、必要なプログラムを記憶部70から適宜読み出すとともに、人特徴量情報記憶部72に格納された人に関する特徴量のデータを利用して、人の存在を検出している。HOG特徴量等を利用することで、2次元的画像からであっても的確に人検出を行うことができる。なお、この場合、撮像部10について、例えばステレオカメラのような3次元情報を取り出すといった特殊な構成を要せずに、データ取得が可能となる。つまり、例えば駅STに設置されている発着時のモニター用の既存のカメラ等を適用する、といったことも可能になる。   First, the main control unit 60 can confirm whether or not an image having a human (person) characteristic exists in each two-dimensional image data acquired by the imaging unit 10 as the human detection unit 61. It has become. For example, by using a known HOG feature quantity or support vector machine (SVM), it is possible to extract a person image from a two-dimensional image data by shape extraction by machine learning. That is, the human detection unit 61 extracts a straight line portion or the like from each image data acquired by the imaging unit 10, and has a characteristic unique to the person in the image data based on the extracted feature amount or the like of the straight line portion. It is determined whether there is a problem. In other words, the person detection unit 61 classifies persons and non-persons in the image data. Thereby, the person detection part 61 extracts a person image based on the determination result. For this reason, the person detection unit 61 reads out a necessary program from the storage unit 70 as appropriate, and detects the presence of a person using the feature quantity data stored in the person feature quantity information storage unit 72. There is. By using the HOG feature amount or the like, human detection can be accurately performed even from a two-dimensional image. In this case, for the imaging unit 10, data acquisition can be performed without requiring a special configuration such as taking out three-dimensional information such as a stereo camera. That is, for example, it is possible to apply an existing camera or the like for monitoring at the time of arrival and departure, which is installed at the station ST.

また、主制御部60は、トラッキング処理部62として、同一人物をトラッキング可能にしている。このため、トラッキング処理部62は、記憶部70から適宜プログラムを読み出して、人検出部61において検出あるいは抽出された各人物画像について、連続画像データ中のフレーム間で画像を関連付けする処理を行う。特に、本実施形態では、杖判定部63で一度でも杖画像有りと判定された人物画像については、該当する人物画像について同一人物とされる人を視覚障碍者として記憶された状態を維持する。これにより、例えば監視中において杖が未検出になるようなことがあっても、一旦杖を有していると判定された人については、引き続き視覚障碍者として取り扱われるようにしていることになるので、杖を有する視覚障碍者を適切かつより確実に捉えることができる態様となっている。   In addition, the main control unit 60 enables tracking of the same person as the tracking processing unit 62. For this reason, the tracking processing unit 62 reads out a program from the storage unit 70 as appropriate, and performs processing for associating images between frames in the continuous image data for each human image detected or extracted by the human detection unit 61. In particular, in the present embodiment, for a person image that has been determined to have a cane image even once by the cane determination unit 63, a state in which a person who is the same person for the corresponding person image is stored as a visually impaired person is maintained. As a result, for example, even if a cane may not be detected during monitoring, a person who has been determined to have a cane will continue to be treated as a visually impaired person. Therefore, it is a mode in which a visually handicapped person having a cane can be captured appropriately and more reliably.

また、主制御部60は、杖判定部63として、人検出部61において検出あるいは抽出された各人物画像における杖画像の有無を判定する。ここでは、一例として、杖判定部63は、人物画像の一部をマスクするマスク処理のほか、色情報記憶部73や直線成分情報記憶部74に格納されたデータを利用して、色や形状に関する判定処理を行う。なお、各処理について詳しくは後述する。   Further, the main control unit 60, as the cane determination unit 63, determines the presence or absence of the cane image in each person image detected or extracted by the person detection unit 61. Here, as an example, the wand determination unit 63 uses the data stored in the color information storage unit 73 and the linear component information storage unit 74 in addition to the mask processing for masking a part of the person image, and uses the data stored in the color and shape. Judgment processing is performed. Details of each process will be described later.

次に、制御装置50のうち、記憶部70は、記憶装置として、各種データを格納する。ここでは、例えば、上記のようにして検出された人物画像に関するトラッキング処理に際して、各人物画像に関するデータをトラッキングデータ記憶部71に随時格納する(例えば、図4(A)〜4(C)のデータ表参照)。特に、このようなデータ格納の際、各人物画像に関するデータの1つである、視覚障碍者に関する情報を、視覚障碍者記憶部71aに格納している。   Next, in the control device 50, the storage unit 70 stores various data as a storage device. Here, for example, in the tracking process related to the human image detected as described above, the data related to each human image is stored in the tracking data storage unit 71 as needed (for example, the data shown in FIGS. 4A to 4C). See the table). In particular, at the time of such data storage, information on the visually impaired person, which is one of the data on each person image, is stored in the visually impaired person storage unit 71a.

また、記憶部70のうち、人特徴量情報記憶部72は、既述のように、人検出部61による人検出に関して、HOG特徴量等の既知の手法により機械学習による形状抽出によって人物画像を抽出するに際して必要となる各種情報を格納している。さらには、人物画像の抽出ための各種プログラムについて格納しているものとしてもよい。   In addition, as described above, the human feature information storage unit 72 of the storage unit 70 relates to human detection by the human detection unit 61, and extracts a human image by shape extraction by machine learning using a known method such as an HOG feature. Various information necessary for extraction is stored. Furthermore, various programs for extracting person images may be stored.

また、記憶部70のうち、色情報記憶部73は、杖判定部63による杖判定に関して、色判定のための各種情報を格納している。特に、本実施形態では、白杖の色を抽出する、すなわち白色を抽出すべく、HSV変換処理すなわち色相(Hue)、彩度(Saturation)、明度(Value)の3つの成分からなる色空間にもとすく処理を可能とするための情報を格納している。また、直線成分情報記憶部74は、白杖の形状のうち特徴的事項である棒状の直線形状の平行度等を測定するための情報を格納している。杖の場合、2次元画像データとしては、細い棒状のものとして抽出され、その両端(棒の側面についての画像上の端)のエッジ部分の平行度や長さ等が杖であるか否かの判定における重要な形状的特徴になると考えられる。   Further, in the storage unit 70, the color information storage unit 73 stores various pieces of information for color determination regarding the wand determination by the wand determination unit 63. In particular, in this embodiment, in order to extract the color of a white cane, that is, to extract white, an HSV conversion process, that is, in a color space composed of three components of hue, saturation, and value. It stores information for enabling the original processing. Further, the linear component information storage unit 74 stores information for measuring the degree of parallelism of the rod-like linear shape, which is a characteristic matter of the shape of the white stick. In the case of a cane, the two-dimensional image data is extracted as a thin stick, and whether or not the parallelism, length, etc. of the edge portions at both ends (the end on the image of the side of the stick) is a cane This is considered to be an important geometric feature in judgment.

最後に、制御装置50のうち、画像処理部80は、例えばGPU等で構成され、上記のような各種画像処理を可能とすべく、制御装置50からの指示に従って、撮像部10により取得された各2次元画像データについて、各種画像処理を行う。   Finally, in the control device 50, the image processing unit 80 is configured by, for example, a GPU or the like, and is acquired by the imaging unit 10 in accordance with an instruction from the control device 50 to enable the various image processing as described above. Various image processing is performed on each two-dimensional image data.

なお、視覚障碍者検出装置100は、図2に示すように、上記のほか、駅務室やホーム等の駅構内に存在する駅員SAに対して報知をするための駅員用報知部として、例えば、駅員用スピーカーPAや、ディスプレイ表示部DAを有している。これらは、例えば駅務室SO内に設置されている。駅員用スピーカーPA及びディスプレイ表示部DAは、制御装置50に接続され、制御装置50からの指示に従って駅務室SO内等にいる駅員SAに対して報知を行う。また、各種通信手段を設けることで、発着する列車TR内の乗務員(運転士や車掌)に対して報知を行うものとしてもよい。   In addition to the above, the visually-impaired person detection device 100, as shown in FIG. 2, serves as a station employee notification unit for notifying a station employee SA existing in a station premises such as a station service room or a platform. , A station staff speaker PA, and a display display unit DA. These are installed in the station service room SO, for example. The station staff speaker PA and the display display unit DA are connected to the control device 50, and in accordance with an instruction from the control device 50, notify the station staff SA present in the station office SO or the like. In addition, by providing various communication means, notification may be given to a crew member (driver or conductor) in the train TR that is arriving and departing.

以下、図3を参照して、監視対象となる人物についての視覚障碍者検出装置100におけるトラッキング処理について説明する。図3(A)〜3(C)は、連続画像データ中のフレーム間での関連付けにより同一人物をトラッキングした様子について一例を示す概念的な画像図である。図示の例では、画像上の人物である人物画像HUiや杖画像CAiを含む人物トラッキング用の抽出画像HGaが、経時的に、図3(A)、図3(B)、図3(C)の順で、1つの撮像部10によって撮像される全範囲である全体画像GI中において、矢印AR1に示す方向に移動している。図示の場合、図3(A)の抽出画像A1と、図3(B)の抽出画像A2と、図3(C)の抽出画像A3とが同一人物画像として関連付けられて抽出画像HGaとして捉えられることで、トラッキングされる。この際、抽出画像HGa中の部分画像として存在する杖画像CAiの抽出が重要となる。このため、各抽出画像A1〜A3、あるいはこれらをまとめた抽出画像HGaについては、人物画像HUiとともに杖画像CAiが捉えられるようにする必要かつ十分な範囲となるように抽出されている。ここでは、図に例示するように、矩形の領域で画像の抽出を行っている。具体的には、人検出部61での人物検出により、人物画像HUiが検出されると、人物画像HUiを含み、かつ、仮に人物画像HUiに杖画像CAiが付随しているとしているとしたら、当該杖画像CAiが併せて含まれるであろうと推定される範囲をあらかじめ定めた矩形範囲の抽出画像HGaとして捉える。   Hereinafter, with reference to FIG. 3, the tracking process in the visually-impaired person detection apparatus 100 about the person who becomes a monitoring object is demonstrated. FIGS. 3A to 3C are conceptual image diagrams illustrating an example of a state in which the same person is tracked by association between frames in continuous image data. In the illustrated example, the person tracking extracted image HGa including the person image HUi and the cane image CAi, which are persons on the image, over time are shown in FIG. 3 (A), FIG. 3 (B), FIG. 3 (C). In this order, the entire image GI that is the entire range imaged by one imaging unit 10 moves in the direction indicated by the arrow AR1. In the illustrated case, the extracted image A1 in FIG. 3A, the extracted image A2 in FIG. 3B, and the extracted image A3 in FIG. 3C are associated with each other as the same person image and are captured as the extracted image HGa. By that, it is tracked. At this time, extraction of the cane image CAi existing as a partial image in the extracted image HGa is important. For this reason, each of the extracted images A1 to A3 or the extracted image HGa obtained by collecting them is extracted so as to be in a necessary and sufficient range so that the cane image CAi can be captured together with the person image HUi. Here, as illustrated in the figure, an image is extracted in a rectangular area. Specifically, if the person image HUi is detected by the person detection by the person detection unit 61, and if the person image HUi is included and the person image HUi is accompanied by the cane image CAi, A range in which it is estimated that the wand image CAi is also included is taken as an extracted image HGa of a predetermined rectangular range.

以上を前提として、特に、本実施形態では、図3(A)の抽出画像A1に対する杖検出によって、一旦、杖画像CAiが検出されれば、その後、図3(B)のような抽出画像A2において、杖画像CAiが人物画像HUiで隠れて見えにくい状態となり、仮に杖検出をしたとしても検出されないような場合であっても、トラッキング処理により抽出画像HGaとして関連付けておくことを利用して、トラッキング対象の画像においては引き続き杖画像CAiが付随するものとして取り扱うようにしている。これにより、当該人物が杖を有する者すなわち視覚障碍者として捉えることが可能となる。   Based on the above, particularly in the present embodiment, once the wand image CAi is detected by the wand detection for the extracted image A1 in FIG. 3A, the extracted image A2 as shown in FIG. In the case where the cane image CAi is hidden by the person image HUi and is difficult to see, and even if it is not detected even if the cane is detected, it is associated with the extracted image HGa by tracking processing. In the tracking target image, the wand image CAi is continuously handled as an accompanying image. Thereby, the person can be regarded as a person having a cane, that is, a visually handicapped person.

図4(A)〜4(C)は、上記のようなトラッキング処理によってトラッキングされる人物に関して、記憶部70に格納されるデータについて、一例を示すデータ表である。ここでは、図示のように、トラッキングされる各人物ごとにID番号を付した上で、ID番号ごとすなわち人物ごとの位置情報としての2次元画像上の位置(中心座標)の情報、進行方向の情報及び白杖者であるか否かすなわち視覚障碍者であるか否かの情報についてトラッキングデータ記憶部71に記録されている。   FIGS. 4A to 4C are data tables showing an example of data stored in the storage unit 70 regarding a person who is tracked by the above-described tracking processing. Here, as shown in the figure, an ID number is assigned to each person to be tracked, and information on the position (center coordinates) on the two-dimensional image as position information for each ID number, that is, for each person, Information and information about whether or not the person is a white cane, that is, whether or not the person is visually impaired, is recorded in the tracking data storage unit 71.

上記各情報について、より具体的に説明すると、まず、各人物の位置情報については、抽出画像の中心位置を2次元画面の横軸と縦軸とについてのxy座標で示している。つまり、全体画像GI(図3等参照)中における各抽出画像の中心すなわち矩形領域の中心を、全体画像GIについてのx座標及びy座標の値で示している。また、進行方向の情報については、例えば2次元画面における基準方向を角度ゼロの方向と定め、この方向に対する角度で定めることができる。さらに、白杖者であるか否かすなわち視覚障碍者であるか否かの情報については、人物画像についての抽出画像中から杖画像が検出されたか否かを「True」と「False」で示している。ここで、図示のように、例えばID番号1が付された人物について、トラッキングの結果、図4(A)に示す時点では「False」すなわち杖画像無し、と判断されていたが、その後、図4(B)に示す時点では「True」すなわち杖画像有り、と判断されると、その後は、例えば図4(C)に示すように、杖画像の有り無しの検出結果にかかわらず、「True」すなわち白杖者すなわち視覚障碍者であるものとして取り扱われる。言い換えると、一旦、「True」となった場合には、以後は引き続き「True」が維持される。一方、最初は「False」有ったものが、途中から「True」に変更されることは生じ得る。以上のように取り扱うことで、視覚障碍者が検出された場合に、その後当該人物をより確実に捉え続けて監視をすることが可能になる。   The above information will be described more specifically. First, for the position information of each person, the center position of the extracted image is indicated by xy coordinates on the horizontal axis and the vertical axis of the two-dimensional screen. That is, the center of each extracted image in the whole image GI (see FIG. 3 etc.), that is, the center of the rectangular area is indicated by the values of the x coordinate and the y coordinate for the whole image GI. As for the information on the traveling direction, for example, the reference direction on the two-dimensional screen can be determined as a direction having an angle of zero, and can be determined by an angle relative to this direction. Furthermore, for information on whether or not a person is a white cane, that is, whether or not he / she is visually impaired, “True” and “False” indicate whether or not a cane image is detected from an extracted image of a person image. ing. Here, as shown in the drawing, for example, for the person assigned ID number 1, as a result of tracking, it was determined that “False”, that is, no wand image at the time shown in FIG. If it is determined that “True”, that is, there is a wand image at the time point shown in FIG. 4B, then, as shown in FIG. 4C, for example, “True” is displayed regardless of the detection result of the presence or absence of the wand image. That is, it is treated as being a white cane person, ie, a visually impaired person. In other words, once “True” is reached, “True” is subsequently maintained. On the other hand, it may occur that what was initially “False” is changed to “True” in the middle. By handling as described above, when a visually impaired person is detected, it is possible to monitor the person more surely by grasping the person thereafter.

以下、図5を参照して、トラッキング処理に関するより具体的な一例として、本実施形態に係る人物のフレーム間での対応付けについて説明する。図5(A)〜5(C)は、人物のフレーム間での対応付けの方法について具体的一例を概念的に示す画像図である。   Hereinafter, as a more specific example regarding the tracking process, the correspondence between the frames of the person according to the present embodiment will be described with reference to FIG. FIGS. 5A to 5C are image diagrams conceptually showing a specific example of a method of association between person frames.

まず、人検出部61での人物画像の検出により、例えば図5(A)に示すように、あるフレームでのコマ画像において、人物画像HUiを含む人物トラッキング用の抽出画像A1が検出され、さらに、図5(A)よりも経時的に後のフレームでのコマ画像である図5(B)に示すコマ画像において、他の複数の抽出画像A2,B1が検出された場合、抽出画像A1との間での関連付けがなされる。関連付けの方法としての一例としては、トラッキング処理部62において、2次元画像のxy面内を移動した距離の量の差異から人物画像の関連付けあるいは対応付けについての判定をすることが考えられる。図示の場合、全体画像GI内における中心位置の比較により、抽出画像A2,B1のうち、抽出画像A1との画像上の距離がより近い抽出画像A2が、抽出画像A1と同一人物の画像であると判定され、これらが同一人物を示す抽出画像HGaであるものとして関連付けられる。一方、抽出画像B1については、新たな人物が検出されたもの、すなわち別人が全体画像GI内にフレームインしたものとして取り扱う。つまり、トラッキング処理部62は、撮像部10からの連続画像データのフレーム間での人物画像の位置変化の情報に基づいて、同一人物についての人物画像であるか否かを判定している。   First, as shown in FIG. 5A, for example, as shown in FIG. 5A, a person tracking extraction image A1 including a person image HUi is detected by detecting a human image in the human detection unit 61, and further, In the frame image shown in FIG. 5B, which is a frame image in a frame later than that in FIG. 5A, when a plurality of other extracted images A2 and B1 are detected, the extracted image A1 and An association is made between As an example of the association method, it is conceivable that the tracking processing unit 62 determines whether to associate or associate person images based on a difference in the amount of distance moved in the xy plane of the two-dimensional image. In the case shown in the figure, the extracted image A2 that is closer to the extracted image A1 than the extracted image A1 among the extracted images A2 and B1 by comparison of the center positions in the entire image GI is an image of the same person as the extracted image A1. And these are associated as being extracted images HGa indicating the same person. On the other hand, the extracted image B1 is treated as one in which a new person is detected, that is, one in which another person frames in the entire image GI. That is, the tracking processing unit 62 determines whether or not the images are the same person based on the information on the position change of the person image between frames of the continuous image data from the imaging unit 10.

さらに、別の態様として、例えば図5(C)に示すように、図5(A)よりも経時的に後のフレームでのコマ画像において、それまで抽出画像HGaとして関連付けられていた抽出画像Axが画像から検出されなくなった場合には、条件に応じて、単に画像取得時のエラー発生等により検出できなかった(実際には存在している)ものとして扱う場合と、実際にその人物が撮像範囲の外に出たもの、すなわちフレームアウトしたものとして扱う場合とに分ける。ここでは、所定のフレーム回数(例えば5,6フレーム程度)連続して抽出画像HGaに対応する画像が検出されない場合には、当該人物が全体画像GIの外へフレームアウトしたものとして取り扱うものとする。つまり、トラッキング処理部62は、撮像部10から取得した一の画像データにおいて検出された人物に対応する人物画像が、所定のフレーム回数(例えば5,6フレーム程度)数連続して以後の画像データに存在しない場合に初めて、該当する人がフレームアウトしたと判定する。   Furthermore, as another aspect, as shown in FIG. 5C, for example, an extracted image Ax that has been previously associated as an extracted image HGa in a frame image in a frame later than FIG. 5A. Is no longer detected from the image, depending on the conditions, it may be treated as if it could not be detected simply because of an error during image acquisition, etc. It is divided into the case where it goes out of range, that is, the case where it is handled as being out of frame. Here, when an image corresponding to the extracted image HGa is not detected continuously for a predetermined number of frames (for example, about 5 or 6 frames), it is assumed that the person is out of the entire image GI. . In other words, the tracking processing unit 62 continues the image data after the human image corresponding to the person detected in the one image data acquired from the imaging unit 10 for a predetermined number of frames (for example, about 5 or 6 frames). If it does not exist, it is determined that the corresponding person has framed out.

以上により、各人物が、撮像範囲へフレームインしてからフレームアウトするまでの間における人物画像のトラッキング処理がなされる。   As described above, the tracking process of the person image is performed from the time when each person enters the imaging range until the person leaves the frame.

以下、図6を参照して、杖判定部63による杖判定に関して、杖画像を抽出する方法について具体的一例を示す。図6(A)に示すように、杖画像の有無を判定すべき人物画像HUiを含む抽出画像A1が取り出されると、抽出画像A1を必要に応じて正規化する。例えば撮像部10(図2等参照)の配置や撮像範囲、画角等に応じて正規化の条件を適宜定めておく。正規化により、例えば、図6(B)に例示する場合では、抽出画像A1が、人間の身長方向について長い2:1の長方形画像となるようにしている。すなわち、図示において、縦幅LAと横幅LBとの比が2:1となっている。この状態において、図6(C)に示すように、上半分すなわち上半身部分をマスクし、下半分すなわち下半身部分のみを抽出して、部分画像A1aを取り出す。すなわち、図6(B)に示す抽出画像A1の縦方向についての中央の破線PXを基準として破線PXより下側の部分を、部分画像A1aとして取り出す。これにより、身体の下半身側に位置する杖画像CAiをより検出しやすくなる。   Hereinafter, with reference to FIG. 6, a specific example of a method for extracting a wand image regarding wand determination by the wand determination unit 63 will be described. As shown in FIG. 6A, when the extracted image A1 including the person image HUi that should be determined whether or not there is a cane image is extracted, the extracted image A1 is normalized as necessary. For example, normalization conditions are appropriately determined according to the arrangement of the imaging unit 10 (see FIG. 2 and the like), the imaging range, the angle of view, and the like. By normalization, for example, in the case illustrated in FIG. 6B, the extracted image A1 is a rectangular image having a length of 2: 1 in the human height direction. That is, in the drawing, the ratio of the vertical width LA to the horizontal width LB is 2: 1. In this state, as shown in FIG. 6C, the upper half, that is, the upper half of the body is masked, and only the lower half, that is, the lower half of the body is extracted to extract the partial image A1a. That is, a portion below the broken line PX is taken out as a partial image A1 a with reference to the central broken line PX in the vertical direction of the extracted image A1 shown in FIG. 6B. Thereby, it becomes easier to detect the cane image CAi located on the lower body side of the body.

ここで、さらに図6(C)に示す部分画像A1aについて、色彩的特徴に基づく特徴抽出の1つである白色抽出を行う。白色抽出については、HSV変換処理による色情報に基づいて杖画像の有無の判定を行っている。これにより、白色である杖画像CAiの候補となる箇所の検出を確実に行えるようにしている。   Here, with respect to the partial image A1a shown in FIG. 6C, white extraction which is one of feature extraction based on the color feature is performed. For white extraction, the presence or absence of a cane image is determined based on color information obtained by HSV conversion processing. Accordingly, it is possible to reliably detect a candidate portion for the white cane image CAi.

さらに、形状的特徴に基づく特徴抽出の既知の手法の1つであるハフ変換処理(Hough変換)による直線成分情報に基づいて杖画像の候補画像部分における杖画像の有無を判定する。具体的には、図6(D)に示すように、白色部分についてのエッジ部分EG1,EG2を抽出し、エッジ部分EG1,EG2の長さL1や、エッジ部分EG1とエッジ部分EG2との間の幅L2や両者間の平行度等を、ハフ変換処理に基づいて解析することにより、白色抽出によって抽出された画像が杖画像であるか否かを判定している。以上により、杖画像CAiの検出を迅速かつ確実に行えるようにしている。   Further, the presence / absence of a cane image in the candidate image portion of the cane image is determined based on straight line component information by a Hough transform process (Hough transform), which is one of known methods for feature extraction based on a shape feature. Specifically, as shown in FIG. 6D, the edge portions EG1 and EG2 for the white portion are extracted, and the length L1 of the edge portions EG1 and EG2 or between the edge portion EG1 and the edge portion EG2 is extracted. By analyzing the width L2 and the parallelism between the two based on the Hough transform process, it is determined whether or not the image extracted by the white extraction is a cane image. As described above, the cane image CAi can be detected quickly and reliably.

以下、図7のフローチャートを参照して、トラッキング処理の一例について説明する。まず、制御装置50において人物監視のための動作を開始すると、主制御部60は、トラッキング処理部62として、撮像部10から監視対象エリアの全体画像データが取得されているかを確認する(ステップS101)。ステップS101では、最初の画像データ入力の場合を含め、連続画像データについて次の画像データが入力されたか否かを逐次検出している。   Hereinafter, an example of the tracking process will be described with reference to the flowchart of FIG. First, when the control device 50 starts an operation for person monitoring, the main control unit 60 confirms whether the entire image data of the monitoring target area is acquired from the imaging unit 10 as the tracking processing unit 62 (step S101). ). In step S101, it is sequentially detected whether or not the next image data has been input for continuous image data, including the case of the first image data input.

ステップS101において、動作開始後の最初の画像データあるいは、2回目以降の画像データが取得されると(ステップS101:Yes)、主制御部60は、人検出部61として、取得した画像中において人検出を行い、人の検出あるいは前フレームの画像までに存在していた人画像について不検出が発生しているか否か(2回目以降の場合)を判定する(ステップS102)。ステップS102において、人検出もなく、かつ、2回目以降における上記のような不検出人の発生もない場合には、特段の処理を行わず(ステップS102:No)、ステップS101からの処理動作を繰り返す。   In step S101, when the first image data after the start of operation or the second and subsequent image data is acquired (step S101: Yes), the main control unit 60 acts as a human detection unit 61 in the acquired image. Detection is performed, and it is determined whether or not non-detection has occurred for a human image that has existed up to the detection of a person or an image of the previous frame (in the second and subsequent cases) (step S102). In step S102, when no person is detected and no undetected person is generated in the second and subsequent times, no special processing is performed (step S102: No), and the processing operation from step S101 is performed. repeat.

一方、ステップS102において、人検出がされた場合、あるいは、前フレームの画像までに存在していた人画像について不検出が発生した場合には、フレームの前後での対応付け処理を行う(ステップS103)。具体的に例示すると、図5(A)及び5(B)に例示した場合のように、前フレームでのコマ画像では1人の人物画像についてのみデータが取得されていたのに対して、次のフレームでのコマ画像では2人の人物画像が現れている態様では、2人の人物画像のうち一方を、前フレームでのコマ画像の人物と同一人物として取り扱う関連付けをするともに、他方を、新たに検知された人物として新規データ登録をする、といった処理がなされる。また、図5(A)及び5(C)に例示した場合のように、前フレームのコマ画像までに存在していた人画像について不検出が発生した場合には、さらに、場合に応じた関連付けを行うための処理(ステップS104以降)がなされる。   On the other hand, if a person is detected in step S102, or if a non-detection has occurred for a person image that has existed up to the image of the previous frame, the association processing before and after the frame is performed (step S103). ). Specifically, as in the case illustrated in FIGS. 5A and 5B, in the frame image in the previous frame, data was acquired for only one person image, whereas In an aspect in which two person images appear in the frame image in the frame of, one of the two person images is associated with the same person as the person of the frame image in the previous frame, and the other is A process of registering new data as a newly detected person is performed. Further, as shown in FIGS. 5 (A) and 5 (C), when a non-detection occurs in a human image that has existed up to the frame image of the previous frame, further association according to the case is performed. The process for performing (step S104 and subsequent steps) is performed.

なお、ステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、図8を参照して後述するステップS201からの杖画像の抽出処理が、開始される。   When it is confirmed that a person is detected or a non-detected person is generated in step S102 and the process proceeds to step S103, a staff image extraction process from step S201 described later with reference to FIG. 8 is started.

以下、図7に戻って、ステップS104以降の処理動作について説明する。ステップS103での対応付けにおいて、人画像について不検出が発生している場合(ステップS104)、すなわち、図5(A)及び5(C)に例示するように、前後のフレーム間でのコマ画像において存在していた人物画像に対応する画像が、次のフレームでのコマ画像において存在しないと判断された場合(ステップS104:Yes)には、当該不検出が予め定めている所定回数(例えば、5回あるいは6回に予め設定)以上継続しているかを確認する(ステップS105)。   Hereinafter, referring back to FIG. 7, the processing operation after step S104 will be described. In the association in step S103, when no human image has been detected (step S104), that is, as illustrated in FIGS. 5A and 5C, the frame images between the previous and subsequent frames. If it is determined that the image corresponding to the person image that existed in step S104 does not exist in the frame image in the next frame (step S104: Yes), the non-detection is determined a predetermined number of times (for example, It is confirmed whether or not it continues for 5 times or 6 times (step S105).

ステップS105において、所定回数に達していないと判断されると(ステップS105:No)、不検出カウントを+1追加する処理をするとともに(ステップS106a)、画像取得未検出であったが対応する人物画像データを存在させたまま保留の扱いとする処理をし(ステップS107a)、上記内容でのデータ更新を行う(ステップS108)。つまり、人検出等に関してエラーがあったものとして捉え、1つ前までの情報を維持しつつ、不検出の発生回数を1回増やす。   If it is determined in step S105 that the predetermined number of times has not been reached (step S105: No), a process of adding +1 to the non-detection count is performed (step S106a), and the corresponding human image that has not been detected yet is detected. While the data is present, processing for handling the hold is performed (step S107a), and data update with the above contents is performed (step S108). That is, it is regarded that there is an error in human detection etc., and the number of occurrences of non-detection is increased once while maintaining the information of the previous one.

一方、ステップS105において、所定回数(例えば、5回あるいは6回)に達している、と判断されると(ステップS105:Yes)、不検出カウントをクリアする処理をするとともに(ステップS106b)、未検出の人物画像データに相当する人が検出範囲外にフレームアウトしたものとして当該データを削除する処理をし(ステップS107b)、上記内容でのデータ更新を行う(ステップS108)。つまり、該当する人物がフレームアウトしたものとして捉え、該当するデータを削除し、併せて、それまでの不検出の発生回数のカウントをクリアする。   On the other hand, if it is determined in step S105 that the predetermined number of times (for example, 5 times or 6 times) has been reached (step S105: Yes), a process of clearing the non-detection count is performed (step S106b), A process corresponding to the detected person image data being deleted out of the detection range is performed (step S107b), and the data is updated with the above contents (step S108). That is, the corresponding person is regarded as being out of frame, the corresponding data is deleted, and the count of the number of occurrences of the non-detection up to that point is cleared.

なお、ステップS104において、不検出が確認されない場合(ステップS104:No)には、不検出カウントをクリアする処理をし(ステップS107c)、その内容でのデータ更新を行う(ステップS108)。   If no non-detection is confirmed in step S104 (step S104: No), a process of clearing the non-detection count is performed (step S107c), and the data is updated with the content (step S108).

ステップS108でのデータ更新を終えると、再びステップS101からの処理動作に戻る。すなわち、一連のトラッキング処理において、次のデータ取得の有無を確認する。以上により、人物画像のトラッキングに関する一連の処理がなされる。   When the data update in step S108 is completed, the process returns to step S101 again. That is, in the series of tracking processing, the presence or absence of the next data acquisition is confirmed. As described above, a series of processes relating to tracking of a person image is performed.

以下、図8のフローチャートを参照して、取得された1つの画像における杖画像の抽出処理の一例について説明する。   Hereinafter, an example of the wand image extraction process in one acquired image will be described with reference to the flowchart of FIG. 8.

既述のように、図7のステップS102における人検出、あるいは、不検出人の発生が確認されステップS103へ進むと、杖判定部63としての主制御部60は、杖画像の抽出処理に関して、まず、そもそも杖画像の抽出処理が必要であるか否かの判定、すなわち視覚障碍者判定の要否を判定する(ステップS201)。具体的には、ステップS102における人検出やステップS103での人物画像の対応付けの結果、検出されている人物画像の全てについて既に「True」すなわち杖画像有り、と判定されている場合には、改めて杖画像の有無を検出する必要が無い。   As described above, when the occurrence of the person detection or the non-detection person in step S102 in FIG. 7 is confirmed and the process proceeds to step S103, the main control unit 60 as the cane determination unit 63 relates to the cane image extraction process. First, it is determined whether or not a wand image extraction process is necessary, that is, whether or not it is necessary to determine the visually impaired person (step S201). Specifically, as a result of the human detection in step S102 or the association of the human images in step S103, if all the detected human images have already been determined to be “True”, that is, there is a cane image, There is no need to detect the presence or absence of a cane image again.

ステップS201において、視覚障碍者判定が不要であると判定されれば(ステップS201:No)、何ら処理を行うことなく、終了し、新たな人検出があるまで待機する。   If it is determined in step S201 that the visually impaired person determination is unnecessary (step S201: No), the process ends without performing any processing and waits until a new person is detected.

一方、視覚障碍者判定が必要であると判定された(ステップS201:Yes)場合、すなわち、ステップS103での対応付けの結果、「False」すなわち杖画像無し、と判定されている人物画像が1つでも存在すれば、当該人物画像に対して、杖画像の有無を判定するための画像処理が順次行われる(ステップS202〜ステップS205)。   On the other hand, when it is determined that the visually impaired person determination is necessary (step S201: Yes), that is, as a result of the association in step S103, the person image determined as “False”, that is, no wand image is 1 If at least one image exists, image processing for determining the presence or absence of a wand image is sequentially performed on the person image (steps S202 to S205).

以下、杖画像の有無を判定するための一連の画像処理について、具体的に説明する。まず、杖判定部63としての主制御部60は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする(ステップS202)。すなわち、図6(B)及び6(C)を参照して説明したように、必要に応じて対象画像の縦横比を2:1に正規化した上で、下半身に相当する下半分の部分画像(例えば図6(C)の部分画像A1a)を取り出す。次に、杖判定部63は、ステップS202において取り出された下半分の部分画像について、白色抽出の処理をする(ステップS203)。すなわち、図6(C)を参照して説明したように、色彩的特徴に基づく特徴抽出として、HSV変換処理による色情報に基づく白色部分の抽出を行う。これにより、抽出画像から杖画像となる候補の画像部分を取り出せる。さらに、杖判定部63は、ステップS203において取り出された画像部分について線分抽出すなわち直線成分の抽出処理をする(ステップS204)。具体的には、図6(D)を参照して説明したように、白色部分についてのエッジ部分を抽出し、その長さや、間隔(幅)、平行度等を算出するためにハフ変換処理等を行い、当該算出結果に基づいて、取り出された画像が杖画像であるか否かを判定可能にしている。以上のステップS202〜S204の解析結果に基づき、杖判定部63は、杖画像の有無、すなわち対象となっている人物画像が視覚障碍者の画像であるか否かの判定(白杖判定)を行う(ステップS205)。   Hereinafter, a series of image processing for determining the presence or absence of a cane image will be specifically described. First, the main control unit 60 as the wand determination unit 63 performs mask processing to cut out a portion corresponding to the lower body of a person in a person image (step S202). That is, as described with reference to FIGS. 6 (B) and 6 (C), the aspect ratio of the target image is normalized to 2: 1 as necessary, and the lower half of the partial image corresponding to the lower body (For example, the partial image A1a in FIG. 6C) is taken out. Next, the wand determination unit 63 performs a white extraction process on the lower half of the partial image extracted in step S202 (step S203). That is, as described with reference to FIG. 6C, the white portion extraction based on the color information by the HSV conversion process is performed as the feature extraction based on the color feature. In this way, it is possible to extract a candidate image portion to be a wand image from the extracted image. Further, the wand determination unit 63 performs a line segment extraction, that is, a linear component extraction process on the image portion extracted in step S203 (step S204). Specifically, as described with reference to FIG. 6D, the edge portion of the white portion is extracted, and a Hough transform process or the like is performed to calculate the length, interval (width), parallelism, and the like. And based on the calculation result, it is possible to determine whether or not the extracted image is a wand image. Based on the analysis results of steps S202 to S204, the cane determination unit 63 determines whether or not there is a cane image, that is, whether or not the target person image is an image of a visually impaired person (white cane determination). This is performed (step S205).

ステップS205において、視覚障碍者であるとの判定がなされた(ステップS205:Yes)場合、視覚障碍者(白杖者)追加処理を行う(ステップS206)。すなわち、図4に示すデータ表中における対象のID番号の人物画像について、データ表の白杖者の欄中において「False」となっていたものを「True」に変更する。   If it is determined in step S205 that the person is visually impaired (step S205: Yes), a visually impaired person (white cane person) is added (step S206). That is, for the person image of the target ID number in the data table shown in FIG. 4, the “False” in the white cane column in the data table is changed to “True”.

一方、ステップS205において、視覚障碍者でないとの判定がなされた(ステップS205:No)場合、視覚障碍者(白杖者)追加処理を行うことなく、処理を終える。すなわち、対象のID番号の人物画像について、欄中において「False」となっていた状態を維持する。以上により、1つの抽出画像における杖画像の抽出に関する一連の処理がなされる。   On the other hand, if it is determined in step S205 that the person is not visually impaired (step S205: No), the process ends without performing the visually impaired person (white cane person) addition process. That is, the state of “False” in the column is maintained for the person image having the target ID number. As described above, a series of processes related to extraction of a cane image from one extracted image is performed.

以上のように、本実施形態に係る視覚障碍者検出装置100では、制御装置50のうち、杖判定部63としての主制御部60において、杖画像有りと判定されれば、該当する人物画像についてトラッキング処理部62でのトラッキング処理により同一人物とされる人を、視覚障碍者として記憶された状態を維持できるので、監視中に杖が未検出になることがあっても、杖を有していると判定された人が引き続き視覚障碍者として取り扱われる。すなわち、杖を有する視覚障碍者を適切に捉えることができる。   As described above, in the visually impaired person detection device 100 according to the present embodiment, if the main control unit 60 as the cane determination unit 63 in the control device 50 determines that there is a cane image, the corresponding person image is obtained. Since the person who is identified as the same person by the tracking processing in the tracking processing unit 62 can be maintained as a visually impaired person, even if the cane may be undetected during monitoring, Those who have been determined to continue to be treated as visually impaired. That is, the visually impaired person having a cane can be caught appropriately.

〔その他〕
この発明は、上記の実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することが可能である。
[Others]
The present invention is not limited to the above embodiment, and can be implemented in various modes without departing from the scope of the invention.

まず、上記実施形態では、一例として、人検出後、判定の要否を確認した上で(図8のステップS201)、杖画像の判定を行っているが、判定の要否を問わず、人検出された画像の全てに対して杖画像の判定を行うものとしてもよい。   First, in the above embodiment, as an example, after detecting a person, the necessity of the determination is confirmed (step S201 in FIG. 8), and the cane image is determined. The determination of the wand image may be performed on all the detected images.

また、上記では、例えば杖画像の検出に際して、まず、白色抽出すなわち色抽出を行った上で、直線成分の抽出すなわち形状による抽出をするものとしている。この場合、例えば白色あるいはこれに近い色ではない杖や傘等は除外されると考えられ、形状として似たものがあらかじめ除外できると考えられる。ただし、上記の場合に限らず、例えば順序を入れ替えて、形状的特徴による抽出を先に行う場合も考えられる。   Further, in the above, for example, when detecting a wand image, first, white extraction, that is, color extraction is performed, and then linear component extraction, that is, extraction by shape is performed. In this case, it is considered that, for example, canes or umbrellas that are not white or similar in color are excluded, and those similar in shape can be excluded in advance. However, the present invention is not limited to the above case, and for example, a case where the order is changed and extraction based on the shape feature is performed first is also conceivable.

また、上記では、視覚障碍者が有する杖を白杖すなわち白色の杖としているが、他の色や色の組合せ等も考えられる場合や、形状についても別の箇所に特徴があると考えられる、といった場合には、これらに応じて、適切な色抽出や形状抽出の方法を選択することが考えられる。   In the above, the cane possessed by the visually impaired is a white cane, that is, a white cane, but other colors and combinations of colors are also conceivable, and the shape is considered to be characterized in another place. In such a case, it is conceivable to select an appropriate color extraction or shape extraction method in accordance with these.

また、上記では、一例として、監視対象エリアを駅STのホームPFとしているが、これに限らず視覚障碍者を適切に捉えることが望まれる種々の場所を監視対象とすることができる。   In the above description, as an example, the monitoring target area is the home PF of the station ST. However, the present invention is not limited to this, and various places where it is desired to appropriately capture visually impaired persons can be monitored.

また、撮像部10の配置についても、上記のように、ホームPFの上方側に設置されて下方側を撮像する場合に限らず、目的とする範囲を撮像できる種々の態様とすることができる。例えば、撮像対象とすべきホームの反対側に位置するホームに撮像部を設置すること等が考えられる。   Further, the arrangement of the imaging unit 10 is not limited to the case where the imaging unit 10 is installed on the upper side of the home PF and images the lower side. For example, it is conceivable to install an imaging unit in a home located on the opposite side of the home to be imaged.

また、上記では、制御装置50での検出結果についての報知先の一例として、駅務室SOを挙げているが、これに限らず、種々の箇所へ報知することが可能である。さらに、報知先を駅員等に限らず、駅に設置されるホームドア等を制御する制御回路としてもよい。この場合、例えば視覚障碍者が近くにいるホームドアについては、杖が接触する可能性が高まるが、このことを考慮して、ホームドアの開閉動作を停止させるべきか否かの判断基準を設定することができる。   Moreover, although the station service room SO is mentioned as an example of the notification destination about the detection result in the control apparatus 50 in the above, it is possible to notify not only this but to various places. Furthermore, the notification destination is not limited to a station employee or the like, and may be a control circuit that controls a platform door or the like installed at a station. In this case, for example, there is an increased possibility that the walking stick will come into contact with a home door where a visually handicapped person is nearby. In consideration of this, a criterion for determining whether to stop the opening / closing operation of the home door is set. can do.

また、撮像部10が、複数設定されるような場合においては、例えば撮像範囲が隣接する撮像部間での情報を、データ中においてリンクさせるようにしてもよい。これにより、より広い範囲に亘って連続的に人物のトラッキングを行うことができる。   Further, in the case where a plurality of imaging units 10 are set, for example, information between imaging units having adjacent imaging ranges may be linked in data. As a result, it is possible to continuously track a person over a wider range.

また、上記では、付随物の典型的一例として、白杖を取り上げ、白杖を有しているか否かについて検出・判定等を行うようにしているが、付随物は、これに限らず、盲導犬や車椅子等とすることも考えられる。また、監視対象とすべき対象者についても、上記では、典型的一例として、視覚障碍者とし、対象者検出装置を視覚障碍者検出装置して説明しているが、これに限らず、本実施形態に係る対象者検出装置は、監視態様に応じて、種々の者を対象者とすることができる。また、対象者の特性に応じて、検出・判定等を行うべき付随物についても白杖や盲導犬等に限らず、種々の物にできる。   In the above, a white cane is taken up as a typical example of the accompaniment, and detection / judgment is made as to whether or not it has a white cane. It is also possible to use a wheelchair. Further, in the above description, the target person to be monitored is described as a visually impaired person as a typical example, and the target person detection apparatus is described as a visually impaired person detection apparatus. The target person detection device according to the embodiment can target various persons according to the monitoring mode. Moreover, according to the characteristic of a subject person, it can be made not only a white stick and a guide dog but also various things about incidentals to be subjected to detection / determination etc.

10…撮像部、50…制御装置、60…主制御部、61…人検出部、62…トラッキング処理部、63…杖判定部、70…記憶部、71…トラッキングデータ記憶部、71a…視覚障碍者記憶部、72…人特徴量情報記憶部、73…色情報記憶部、74…直線成分情報記憶部、80…画像処理部、100…視覚障碍者検出装置、A1,A2,A3,Ax,B1…抽出画像、AR1…矢印、CA…杖、CAi…杖画像、DA…ディスプレイ表示部、EG1,EG2…エッジ部分、FL…床面、GI…全体画像、HGa…抽出画像、HU…利用者、HUi…人物画像、L1…長さ、L2…幅、LA…縦幅、LB…横幅、PA…駅員用スピーカー、PF…ホーム、PX…破線、SA…駅員、SO…駅務室、ST…駅、TR…列車   DESCRIPTION OF SYMBOLS 10 ... Imaging part, 50 ... Control apparatus, 60 ... Main control part, 61 ... Human detection part, 62 ... Tracking processing part, 63 ... Walking stick determination part, 70 ... Storage part, 71 ... Tracking data storage part, 71a ... Visual disorder Person storage unit 72 ... Human feature amount information storage part 73 ... Color information storage part 74 74 Straight line component information storage part 80 ... Image processing part 100 ... Visually impaired person detection device A1, A2, A3, Ax, B1 ... extracted image, AR1 ... arrow, CA ... cane, CAi ... cane image, DA ... display display, EG1, EG2 ... edge portion, FL ... floor surface, GI ... overall image, HGa ... extracted image, HU ... user , HUi ... person image, L1 ... length, L2 ... width, LA ... length, LB ... width, PA ... station staff speaker, PF ... home, PX ... dashed line, SA ... station staff, SO ... station office, ST ... Station, TR ... train

Claims (7)

人物画像における付随物画像の有無を判定する付随物判定部と、
前記付随物判定部で付随物画像有りと判定された人物画像について、連続画像データ中のフレーム間で画像を関連付けて同一人物をトラッキングするトラッキング処理部と、
前記同一人物を対象者として記憶する対象者記憶部と
を備える対象者検出装置。
An incident determination unit that determines the presence or absence of an incident image in a person image;
A tracking processing unit for tracking the same person by associating an image between frames in continuous image data with respect to a person image determined to have the accompanying image by the accompanying object determination unit;
And a target person detection unit that stores the same person as a target person.
監視対象エリアを撮像して前記連続画像データとして2次元画像データを取得する撮像部と、
前記撮像部で取得された前記2次元画像データから機械学習による形状抽出によって人物画像を抽出することで人の存在を検出する人検出部と
を備える、請求項1に記載の対象者検出装置。
An imaging unit for imaging a monitoring target area and acquiring two-dimensional image data as the continuous image data;
The subject detection apparatus according to claim 1, further comprising: a person detection unit that detects a person's presence by extracting a person image from the two-dimensional image data acquired by the imaging unit by shape extraction by machine learning.
前記トラッキング処理部は、連続画像データのフレーム間での人物画像の位置変化の情報に基づいて同一人物についての人物画像であるか否かを判定する、請求項1及び2のいずれか一項に記載の対象者検出装置。   3. The tracking processing unit according to claim 1, wherein the tracking processing unit determines whether or not the images are the same person based on information on a change in position of the person image between frames of the continuous image data. The subject detection device described. 前記トラッキング処理部は、一の画像データにおいて検出された人物に対応する人物画像が所定のフレーム数連続して以後の画像データに存在しない場合に、該当する人がフレームアウトしたと判定する、請求項1〜3のいずれか一項に記載の対象者検出装置。   The tracking processing unit determines that the corresponding person is out of frame when a person image corresponding to the person detected in one image data does not exist in subsequent image data for a predetermined number of frames. Item 4. The subject detection apparatus according to any one of Items 1 to 3. 前記付随物判定部は、人物画像のうち、人の下半身に相当する箇所を切り出すマスク処理をする、請求項1〜4のいずれか一項に記載の対象者検出装置。   The subject detection apparatus according to any one of claims 1 to 4, wherein the accompanying matter determination unit performs a mask process of cutting out a portion corresponding to a lower body of a person in a person image. 前記付随物判定部は、HSV変換処理による色情報に基づいて付随物画像の有無を判定する、請求項1〜5のいずれか一項に記載の対象者検出装置。   The subject person detection apparatus according to any one of claims 1 to 5, wherein the incidental object determination unit determines the presence or absence of an incidental image based on color information by HSV conversion processing. 前記付随物判定部は、ハフ変換処理による直線成分情報に基づいて付随物画像の有無を判定する、請求項1〜6のいずれか一項に記載の対象者検出装置。   The target person detection device according to any one of claims 1 to 6, wherein the incidental body determination unit determines the presence or absence of an incidental body image based on linear component information by Hough transform processing.
JP2018010067A 2018-01-24 2018-01-24 Target person detection device Active JP7020931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018010067A JP7020931B2 (en) 2018-01-24 2018-01-24 Target person detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018010067A JP7020931B2 (en) 2018-01-24 2018-01-24 Target person detection device

Publications (2)

Publication Number Publication Date
JP2019128799A true JP2019128799A (en) 2019-08-01
JP7020931B2 JP7020931B2 (en) 2022-02-16

Family

ID=67472272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018010067A Active JP7020931B2 (en) 2018-01-24 2018-01-24 Target person detection device

Country Status (1)

Country Link
JP (1) JP7020931B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021087065A (en) * 2019-11-26 2021-06-03 西日本旅客鉄道株式会社 Station monitoring system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332071A (en) * 2004-05-18 2005-12-02 Sumitomo Electric Ind Ltd System for tracking visually handicapped person and method for detecting visually handicapped person
JP2006126926A (en) * 2004-10-26 2006-05-18 Canon Inc Customer data generation system, program and method
JP2007274234A (en) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology White cane user detection system using stereo camera
JP2007303239A (en) * 2006-05-15 2007-11-22 Konica Minolta Holdings Inc Authentication apparatus, method of controlling authentication apparatus, and control program of authentication apparatus
JP2017091498A (en) * 2015-11-10 2017-05-25 日本信号株式会社 Gate device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332071A (en) * 2004-05-18 2005-12-02 Sumitomo Electric Ind Ltd System for tracking visually handicapped person and method for detecting visually handicapped person
JP2006126926A (en) * 2004-10-26 2006-05-18 Canon Inc Customer data generation system, program and method
JP2007274234A (en) * 2006-03-30 2007-10-18 National Institute Of Advanced Industrial & Technology White cane user detection system using stereo camera
JP2007303239A (en) * 2006-05-15 2007-11-22 Konica Minolta Holdings Inc Authentication apparatus, method of controlling authentication apparatus, and control program of authentication apparatus
JP2017091498A (en) * 2015-11-10 2017-05-25 日本信号株式会社 Gate device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021087065A (en) * 2019-11-26 2021-06-03 西日本旅客鉄道株式会社 Station monitoring system

Also Published As

Publication number Publication date
JP7020931B2 (en) 2022-02-16

Similar Documents

Publication Publication Date Title
US10949657B2 (en) Person's behavior monitoring device and person's behavior monitoring system
Vishwakarma et al. Automatic detection of human fall in video
US7460686B2 (en) Security monitor device at station platform
US8655078B2 (en) Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus
JP2022168070A (en) person detection system
JP6674584B2 (en) Video surveillance system
US20170330208A1 (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
CN109657624A (en) Monitoring method, the device and system of target object
US8983131B2 (en) Video analysis
CN110309801B (en) Video analysis method, device, system, storage medium and computer equipment
US20080247601A1 (en) Image processing apparatus and image processing method
KR101307234B1 (en) Parking management system based on object recognition
US20210064857A1 (en) Image analysis device, image analysis method, and recording medium
CN105957300B (en) A kind of wisdom gold eyeball identification is suspicious to put up masking alarm method and device
JP6239376B2 (en) Image monitoring device and elevator monitoring device
JP4821355B2 (en) Person tracking device, person tracking method, and person tracking program
JP7020931B2 (en) Target person detection device
CN110580708B (en) Rapid movement detection method and device and electronic equipment
CN104392201B (en) A kind of human body tumble recognition methods based on omnidirectional vision
JP7149063B2 (en) Monitoring system
JP5154461B2 (en) Moving object tracking device
JP2019204374A (en) Object detecting apparatus
JP2010044698A (en) Pedestrian detector and program
JP2018128800A (en) Bed identification apparatus
JP5865709B2 (en) Image monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220203

R150 Certificate of patent or registration of utility model

Ref document number: 7020931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150