JP7073949B2 - Evacuation guidance system, evacuation guidance system, and control program - Google Patents

Evacuation guidance system, evacuation guidance system, and control program Download PDF

Info

Publication number
JP7073949B2
JP7073949B2 JP2018129134A JP2018129134A JP7073949B2 JP 7073949 B2 JP7073949 B2 JP 7073949B2 JP 2018129134 A JP2018129134 A JP 2018129134A JP 2018129134 A JP2018129134 A JP 2018129134A JP 7073949 B2 JP7073949 B2 JP 7073949B2
Authority
JP
Japan
Prior art keywords
notification
moving object
unit
moving
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018129134A
Other languages
Japanese (ja)
Other versions
JP2020009107A (en
Inventor
由紀 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018129134A priority Critical patent/JP7073949B2/en
Publication of JP2020009107A publication Critical patent/JP2020009107A/en
Application granted granted Critical
Publication of JP7073949B2 publication Critical patent/JP7073949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、避難誘導装置、避難誘導システム、および制御プログラムに関する。 The present invention relates to evacuation guidance devices, evacuation guidance systems, and control programs.

従来から、検知エリア内を検知する超音波センサー、光センサー、等の検知センサーにより、車両や通行者等の移動体を検知して、音響、音声、光の点灯もしくは点滅、文字または画像の表示、または振動等によって検知エリア内への移動体の進入を報知する技術が知られている。 Conventionally, a detection sensor such as an ultrasonic sensor or an optical sensor that detects the inside of a detection area detects a moving object such as a vehicle or a passerby, and sounds, sounds, lights or blinks light, and displays characters or images. , Or a technique for notifying the entry of a moving object into the detection area by vibration or the like is known.

特許文献1では、本来検知対象としない動体をも検知することにより、不必要な報知を行うことを避けるために、マイクロ波等を利用したドップラー方式の複数のレーダーにより、移動体の絶対距離、速度および移動方向をそれぞれ計測する。そして、計測した移動体の絶対距離、速度および移動方向が予め設定された範囲内にある場合に限って報知を行う技術が開示されている。 In Patent Document 1, in order to avoid unnecessary notification by detecting a moving object that is not originally detected, the absolute distance of the moving object is determined by a plurality of Doppler radars using microwaves or the like. Measure the speed and the direction of movement, respectively. Then, a technique is disclosed in which notification is performed only when the measured absolute distance, speed, and moving direction of the moving body are within a preset range.

特開2004-192097号公報Japanese Unexamined Patent Publication No. 2004-192097

しかしながら、特許文献1の技術では、移動体の絶対距離、速度および移動方向によって、報知を行っているため、報知が有効に機能していない場合がある。例えば、高速道路等の歩行者の立ち入りが禁止されている危険領域において、進入した歩行者の認知能力が十分でない場合には、報知したとしてもその報知が有効に機能しない虞がある。 However, in the technique of Patent Document 1, since the notification is performed depending on the absolute distance, speed, and movement direction of the moving body, the notification may not function effectively. For example, in a dangerous area such as a highway where pedestrians are prohibited from entering, if the cognitive ability of the pedestrian who has entered is not sufficient, the notification may not function effectively even if the notification is given.

本発明は、このような問題を解決するためになされたものである。すなわち、報知後の動体の行動パターンに基づいて、次の報知を適切に行うことを目的とする。 The present invention has been made to solve such a problem. That is, the purpose is to appropriately perform the next notification based on the behavior pattern of the moving body after the notification.

本発明の上記目的は、下記の手段によって達成される。 The above object of the present invention is achieved by the following means.

(1)所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え
前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、
避難誘導装置。
(2)所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
前記動体情報に基づいて、前記動体の種類を解析する種類解析部と、を備え、
前記種類解析部が判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記解析部は、前記動体に対する前記行動パターンの解析を行う、
避難誘導装置。
(3)所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え、
前記取得部は、前記所定領域内を撮影した画像データを取得し、
さらに、前記取得部が取得した前記画像データから、前記動体の属性を解析する属性解析部を備え、
前記属性解析部が解析した前記動体の属性、および前記解析部が解析した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、
避難誘導装置。
(1) An acquisition unit that acquires moving object information that measures moving objects in a predetermined area, and
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The acquisition unit acquires distance measurement point cloud data showing the distribution of distance values to the moving body existing in the predetermined region as the moving body information.
The behavior pattern analyzed by the analysis unit includes the movement locus of the moving body, the moving speed of the moving body, the overturned state of the moving body, the position of the moving body, and the set dangerous area, which are obtained from the range-finding point cloud data. Includes at least one of the distances of the moving object to,
Evacuation guidance device.
(2) An acquisition unit that acquires moving object information that measures moving objects in a predetermined area, and
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
A type analysis unit that analyzes the type of the moving body based on the moving body information is provided.
When the type of the moving object determined by the type analysis unit is a specific type of moving object that is not allowed to enter the predetermined area, the analysis unit analyzes the behavior pattern for the moving object.
Evacuation guidance device.
(3) An acquisition unit that acquires moving object information that measures moving objects in a predetermined area, and
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The acquisition unit acquires image data obtained by photographing the predetermined area, and obtains the image data.
Further, an attribute analysis unit for analyzing the attributes of the moving object from the image data acquired by the acquisition unit is provided.
The notification content of the second notification is determined based on the attributes of the moving object analyzed by the attribute analysis unit and the behavior pattern analyzed by the analysis unit.
Evacuation guidance device.

(4)前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、上記(、または上記(3)に記載の避難誘導装置。
(4) The acquisition unit acquires distance measurement point cloud data indicating the distribution of distance values to the moving body existing in the predetermined region as the moving body information.
The behavior pattern analyzed by the analysis unit includes the movement locus of the moving body, the moving speed of the moving body, the overturned state of the moving body, the position of the moving body, and the set dangerous area, which are obtained from the range-finding point cloud data. The evacuation guidance device according to ( 2 ) or (3) above , which comprises at least one of the distances of the moving object to.

(5)前記報知部は1種類以上の複数の報知部であり、
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御する、上記(1)から上記()のいずれかに記載の避難誘導装置。
(6)所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え、
前記報知部は1種類以上の異なる位置に配置された複数の報知部であり、
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御し、
前記取得部は、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記判断部は、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位置により、前記報知部の選択を行う、
避難誘導装置。
(7)前記判断部は、前記行動パターンの履歴を保持し、前記第1の報知の前後の前記行動パターンにより、前記第2の報知の報知内容を決定する、上記(1)から上記(6)のいずれかに記載の避難誘導装置。
(5) The notification unit is a plurality of notification units of one or more types.
From the above (1) to the above, the determination unit selects the notification unit together with the notification content according to the action pattern, and controls the selected notification unit to perform a second notification to the moving object. The evacuation guidance device according to any one of ( 4 ).
(6) An acquisition unit that acquires moving object information that measures moving objects in a predetermined area, and
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The notification unit is a plurality of notification units arranged at one or more different positions.
The determination unit selects the notification unit together with the notification content according to the action pattern, and controls the selected notification unit to perform a second notification to the moving object.
The acquisition unit acquires, as the moving object information, the distance measurement point cloud data showing the distribution of the distance value from the distance measurement unit that measures the predetermined area to the object in the predetermined area.
The determination unit selects the notification unit based on the movement locus of the moving object or the position of the moving object, which is obtained from the AF point cloud data.
Evacuation guidance device.
(7) The determination unit keeps a history of the behavior pattern, and determines the notification content of the second notification based on the behavior pattern before and after the first notification, from the above (1) to the above (6). ) The evacuation guidance device described in any one of.

(8)測定することで、所定領域内の動体の動体情報を生成する動体情報測定部と、
報知部と、
前記動体情報測定部から取得した動体情報を用いて、前記報知部により前記動体への報知を行う、上記(1)から上記(7)のいずれかに記載の避難誘導装置と、
を備える避難誘導システム。
(8) A moving body information measuring unit that generates moving body information of a moving body within a predetermined area by measuring, and a moving body information measuring unit.
Notification unit and
The evacuation guidance device according to any one of (1) to (7) above, wherein the notification unit notifies the moving body using the moving body information acquired from the moving body information measuring unit.
Evacuation guidance system equipped with.

(9)所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
前記ステップ(a)では、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記ステップ(b)で解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、
処理をコンピューターに実行させるための制御プログラム。
(10)所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
さらに、前記(a)で取得した前記動体情報に基づいて、前記動体の種類を解析するステップ(f)を含み、
前記ステップ(f)で判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記ステップ(b)における、前記動体に対する前記行動パターンの解析を行う、
処理をコンピューターに実行させるための制御プログラム。
(11)所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み
前記ステップ(a)では、さらに、前記所定領域内を撮影した画像データを取得し、
さらに、前記ステップ(a)で取得した前記画像データから、前記動体の属性を解析するステップ(f)を含み、
前記ステップ(d)では、前記ステップ(f)で解析した前記動体の属性、および前記ステップ(b)で解析した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、
処理をコンピューターに実行させるための制御プログラム。
(12)所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
前記報知部は1種類以上の異なる位置に配置された複数の報知部であり、
前記ステップ(a)では、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記ステップ(d)では、前記行動パターンにより、前記報知内容の決定とともに前記報知部の選択を行い、
前記ステップ(e)では、前記ステップ(d)で選択した前記報知部により、前記動体への第2の報知を行い、
前記ステップ(d)では、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位置により、前記報知部の選択を行う、
処理をコンピューターに実行させるための制御プログラム。
(9) A control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
In the step (a), as the moving object information, the ranging point cloud data showing the distribution of the distance value to the moving object existing in the predetermined region is acquired.
In the action pattern analyzed in the step (b), the movement locus of the moving object, the moving speed of the moving object, the overturned state of the moving object, the position of the moving object, and the position of the moving object, which were obtained from the range-finding point cloud data, were set. Includes at least one of the moving objects' distances to the danger zone,
A control program that lets a computer perform processing.
(10) A control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
Further, the step (f) for analyzing the type of the moving body based on the moving body information acquired in the above (a) is included.
When the type of the moving body determined in the step (f) is a specific type of moving body that is not allowed to enter the predetermined area, the analysis of the behavior pattern for the moving body in the step (b) is performed. conduct,
A control program that lets a computer perform processing.
(11) A control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
In the step (a), further, image data captured in the predetermined area is acquired, and the image data is acquired.
Further, the step (f) for analyzing the attributes of the moving object from the image data acquired in the step (a) is included.
In the step (d), the notification content of the second notification is determined based on the attributes of the moving object analyzed in the step (f) and the behavior pattern analyzed in the step (b).
A control program that lets a computer perform processing.
(12) A control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
The notification unit is a plurality of notification units arranged at one or more different positions.
In the step (a), as the moving object information, the ranging point cloud data showing the distribution of the distance value from the ranging unit for measuring in the predetermined region to the object in the predetermined region is acquired.
In the step (d), the notification content is determined and the notification unit is selected according to the action pattern.
In the step (e), the notification unit selected in the step (d) performs a second notification to the moving body.
In the step (d), the notification unit is selected based on the movement locus of the moving body or the position of the moving body obtained from the AF point cloud data.
A control program that lets a computer perform processing.

本発明に係る避難誘導装置は、報知部により第1の報知をした後、解析部が解析した、所定領域内の動体の行動パターンに基づいて報知内容を決定し、決定した報知内容で、報知部により動体への第2の報知を行う。これにより、報知後の動体の行動パターンに基づいて、次の報知を適切に行える。 The evacuation guidance device according to the present invention determines the notification content based on the behavior pattern of the moving object in the predetermined region analyzed by the analysis unit after the first notification is performed by the notification unit, and the determined notification content is used for notification. A second notification is given to the moving body by the unit. As a result, the next notification can be appropriately performed based on the behavior pattern of the moving body after the notification.

本実施形態に係る避難誘導システムの構成を示すブロック図である。It is a block diagram which shows the structure of the evacuation guidance system which concerns on this embodiment. ライダーの概略構成を示す断面図である。It is sectional drawing which shows the schematic structure of a rider. ライダーによって監視領域内を走査する状態を示す模式図である。It is a schematic diagram which shows the state which scans in the monitoring area by a rider. 測距点群データにより検出した動体の各時刻での位置情報データの例である。This is an example of the position information data of the moving object detected by the AF point cloud data at each time. 監視領域を適用した高速道路入口周辺を示す図である。It is a figure which shows the area around the highway entrance to which the monitoring area is applied. 高速道路入口での監視領域を示す模式図である。It is a schematic diagram which shows the monitoring area at the entrance of a highway. 第1の実施形態における報知処理を示すフローチャートである。It is a flowchart which shows the notification processing in 1st Embodiment. カメラの画像データから判別した歩行者属性の例を示す図である。It is a figure which shows the example of the pedestrian attribute discriminated from the image data of a camera. 監視領域内の歩行者A~Dの移動軌跡の例を示す図である。It is a figure which shows the example of the movement locus of pedestrians A to D in a monitoring area. 図9Aに対応する歩行者A~Dの移動速度の変化を示す図である。It is a figure which shows the change of the moving speed of the pedestrians A to D corresponding to FIG. 9A. 歩行者A~Dへの1回目の報知の効果判定結果の例を示す図である。It is a figure which shows the example of the effect determination result of the 1st notification to pedestrians A to D. 歩行者A~Dへの2回目の報知における報知内容の例を示す図である。It is a figure which shows the example of the notification content in the second notification to pedestrians A to D. 歩行者A~Dへの2回目の報知の効果判定結果の例、および3回目の報知における報知内容の例を示す図である。It is a figure which shows the example of the effect determination result of the 2nd notification to pedestrians A to D, and the example of the notification content in the 3rd notification. 高速道路入口の監視領域に複数の報知部を配置した例を示す図である。It is a figure which shows the example which arranged a plurality of notification units in the monitoring area of a highway entrance. 第2の実施形態における報知処理を示すフローチャートである。It is a flowchart which shows the notification processing in 2nd Embodiment.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation and may differ from the actual ratios.

図1は、避難誘導システム10の構成を示すブロック図である。避難誘導システム10は、入力部100、避難誘導装置200、および報知部300を有する。避難誘導装置200は、例えば、コンピューターであり、CPU(Central Processing Unit)、メモリ(半導体メモリ、磁気記録媒体(ハードディスク等))、入出力部(ディスプレイ、キーボード、等)、通信I/F(interface)等を備える。通信I/Fは、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いてもよい。また、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースを用いてもよい。 FIG. 1 is a block diagram showing the configuration of the evacuation guidance system 10. The evacuation guidance system 10 has an input unit 100, an evacuation guidance device 200, and a notification unit 300. The evacuation guidance device 200 is, for example, a computer, and is a CPU (Central Processing Unit), a memory (semiconductor memory, magnetic recording medium (hard disk, etc.)), an input / output unit (display, keyboard, etc.), and a communication I / F (interface). ) Etc. are provided. The communication I / F is an interface for communicating with an external device. For communication, a network interface according to a standard such as Ethernet (registered trademark), SATA, PCI Express, USB, or IEEE 1394 may be used. Further, a wireless communication interface such as Bluetooth (registered trademark), 802.11, or 4G may be used for communication.

(入力部100)
入力部100は、ライダー(LiDAR:Light Detection and Ranging)110、およびカメラ120を含む。入力部100は、ライダー110のみにより構成されてもよい。カメラ120は、例えば、可視光カメラにより構成される。カメラ120は、サーマルカメラにより構成されてもよい。以下においては、入力部100はライダー110およびカメラ120により構成されるものとして説明する。
(Input unit 100)
The input unit 100 includes a lidar (LiDAR: Light Detection and Ringing) 110 and a camera 120. The input unit 100 may be configured only by the rider 110. The camera 120 is composed of, for example, a visible light camera. The camera 120 may be configured by a thermal camera. Hereinafter, the input unit 100 will be described as being composed of the rider 110 and the camera 120.

入力部100は、測距部としてのライダー110により、監視領域(所定領域)内の対象物(動体)までの距離を測定し、監視領域内の距離値の分布を示す測距点群データを生成する。ライダー110は、「動体情報測定部」として機能し、生成した測距点群データは、所定領域内の動体を測定した動体情報に相当する。カメラ120により監視領域内を撮影し可視光の画像データを生成する。 The input unit 100 measures the distance to the object (moving object) in the monitoring area (predetermined area) by the rider 110 as the distance measuring unit, and obtains the distance measuring point cloud data showing the distribution of the distance value in the monitoring area. Generate. The rider 110 functions as a "moving object information measuring unit", and the generated range-finding point cloud data corresponds to the moving object information obtained by measuring the moving object in a predetermined area. The inside of the surveillance area is photographed by the camera 120 to generate visible light image data.

(ライダー110)
以下、図2、図3を参照し、ライダー110の構成について説明する。図2は、ライダー110の概略構成を示す断面図である。図3は、ライダー110によって監視領域内を走査する状態を示す模式図である。ライダー110は、投受光ユニット111、および測距点群データ生成部112を有する。投受光ユニット111は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。投受光ユニット111は、レーザースポット光500によりライダー110の監視空間内を走査することで得られた各画素の受光信号を出力する。測距点群データ生成部112は、この受光信号に基づいて、測距点群データを生成する。この測距点群データは距離画像、または距離マップとも称される。
(Rider 110)
Hereinafter, the configuration of the rider 110 will be described with reference to FIGS. 2 and 3. FIG. 2 is a cross-sectional view showing a schematic configuration of the rider 110. FIG. 3 is a schematic diagram showing a state in which the lidar 110 scans the inside of the monitoring area. The rider 110 includes a light emitting / receiving unit 111 and a AF point cloud data generation unit 112. The light emitting / receiving unit 111 includes a semiconductor laser 51, a collimating lens 52, a mirror unit 53, a lens 54, a photodiode 55, a motor 56, and a housing 57 that houses each of these components. The light emitting / receiving unit 111 outputs a light receiving signal of each pixel obtained by scanning the monitoring space of the lidar 110 with the laser spot light 500. The AF point cloud data generation unit 112 generates the AF point cloud data based on the received light signal. This range-finding point cloud data is also called a distance image or a distance map.

半導体レーザー51は、パルス状のレーザー光束を出射する。コリメートレンズ52は、半導体レーザー51からの発散光を平行光に変換する。ミラーユニット53は、コリメートレンズ52で平行とされたレーザー光を、回転するミラー面により監視領域に向かって走査投光するとともに、対象物からの反射光を反射させる。レンズ54は、ミラーユニット53で反射された対象物からの反射光を集光する。フォトダイオード55は、レンズ54により集光された光を受光し、Z方向に並んだ複数の画素を有する。モーター56はミラーユニット53を回転駆動する。 The semiconductor laser 51 emits a pulsed laser light beam. The collimating lens 52 converts the divergent light from the semiconductor laser 51 into parallel light. The mirror unit 53 scans and casts the laser beam parallel to the collimating lens 52 toward the monitoring area by the rotating mirror surface, and reflects the reflected light from the object. The lens 54 collects the reflected light from the object reflected by the mirror unit 53. The photodiode 55 receives the light collected by the lens 54 and has a plurality of pixels arranged in the Z direction. The motor 56 rotates and drives the mirror unit 53.

測距点群データ生成部112は、これらの半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報(距離値)を求める。測距点群データ生成部112は、CPU(Central Processing Unit)とメモリで構成され、メモリに記憶しているプログラムを実行することにより各種の処理を実行することによって測距点群データを求めるが、測距点群データ生成用の専用ハードウエア回路を備えてもよい。また、測距点群データ生成部112は、上述の避難誘導装置200の1つの機能として、解析部220(後述)に統合されてもよい。 The AF point cloud data generation unit 112 obtains distance information (distance value) according to the time difference between the emission timing of these semiconductor lasers 51 and the light reception timing of the photodiode 55. The AF point group data generation unit 112 is composed of a CPU (Central Processing Unit) and a memory, and obtains the AF point group data by executing various processes by executing a program stored in the memory. , A dedicated hardware circuit for generating AF point group data may be provided. Further, the AF point cloud data generation unit 112 may be integrated into the analysis unit 220 (described later) as one function of the above-mentioned evacuation guidance device 200.

本実施形態において、半導体レーザー51とコリメートレンズ52とで出射部501を構成し、レンズ54とフォトダイオード55とで受光部502を構成する。出射部501、受光部502の光軸は、ミラーユニット53の回転軸530に対して直交していることが好ましい。 In the present embodiment, the semiconductor laser 51 and the collimating lens 52 form an emitting unit 501, and the lens 54 and the photodiode 55 form a light receiving unit 502. It is preferable that the optical axes of the light emitting unit 501 and the light receiving unit 502 are orthogonal to the rotation axis 530 of the mirror unit 53.

剛体である壁91等に固定して設置されたボックス状の筐体57は、上壁57aと、これに対向する下壁57bと、上壁57aと下壁57bとを連結する側壁57cとを有する。側壁57cの一部に開口57dが形成され、開口57dには透明板58が取り付けられている。 The box-shaped housing 57 fixed to a rigid wall 91 or the like has an upper wall 57a, a lower wall 57b facing the upper wall 57a, and a side wall 57c connecting the upper wall 57a and the lower wall 57b. Have. An opening 57d is formed in a part of the side wall 57c, and a transparent plate 58 is attached to the opening 57d.

ミラーユニット53は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面531a、531bを4対(但し4対に限られない)有している。ミラー面531a、531bは、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネート))の表面に、反射膜を蒸着することにより形成されていることが好ましい。 The mirror unit 53 has a shape in which two quadrangular pyramids are joined in opposite directions and integrated, that is, four pairs (but not limited to four pairs) of mirror surfaces 531a and 531b tilted in pairs facing each other. ) Have. The mirror surfaces 531a and 531b are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (polycarbonate)) in the shape of a mirror unit.

ミラーユニット53は、筐体57に固定されたモーター56の軸56aに連結され、回転駆動されるようになっている。本実施形態では、例えば、壁91に設置された状態で、軸56aの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向およびY方向によりなすXY平面が水平面となっているが、軸56aの軸線を鉛直方向に対して傾けてもよい。 The mirror unit 53 is connected to a shaft 56a of a motor 56 fixed to a housing 57 and is rotationally driven. In the present embodiment, for example, in a state of being installed on the wall 91, the axis (rotational axis) of the axis 56a extends in the Z direction which is the vertical direction, and is formed by the X direction and the Y direction orthogonal to the Z direction. Although the XY plane is a horizontal plane, the axis of the axis 56a may be tilted with respect to the vertical direction.

次に、ライダー110の対象物検出原理について説明する。図2において、半導体レーザー51からパルス状に間欠的に出射された発散光は、コリメートレンズ52で平行光束に変換され、回転するミラーユニット53の第1ミラー面531aに入射する。その後、第1ミラー面531aで反射され、さらに第2ミラー面531bで反射した後、透明板58を透過して外部の測定空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、レーザースポット光が出射される方向と、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向は重複し、この重複する2方向を投受光方向という。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。 Next, the object detection principle of the rider 110 will be described. In FIG. 2, the divergent light emitted intermittently in a pulse shape from the semiconductor laser 51 is converted into a parallel light flux by the collimating lens 52 and incident on the first mirror surface 531a of the rotating mirror unit 53. After that, it is reflected by the first mirror surface 531a, further reflected by the second mirror surface 531b, and then transmitted through the transparent plate 58 and directed toward the external measurement space, for example, as a laser spot light having a vertically long rectangular cross section. Be lit. The direction in which the laser spot light is emitted and the direction in which the emitted laser spot light is reflected by the object and returned as reflected light overlap, and these two overlapping directions are referred to as light emitting and receiving directions. Laser spot light traveling in the same light emitting / receiving direction is detected by the same pixel.

図3は、ミラーユニット53の回転に応じて、出射するレーザースポット光500(ハッチングで示す)で、監視領域内を走査する状態を示す図である。ここで、ミラーユニット53の対のミラー(第1ミラー面531aと第2ミラー面531b)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザー光は、回転する第1ミラー面531aと第2ミラー面531bにて、順次反射される。まず1番対の第1ミラー面531aと第2ミラー面531bにて反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面531aと第2ミラー面で反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の最も下の領域Ln4を水平方向に左から右へと走査される。これによりライダー110が測定可能な測定空間全体の1回の走査が完了する。この領域Ln1~Ln4の走査により得られた画像を組み合わせて、1つのフレーム900が得られる。そして、ミラーユニット53が1回転した後、再び1番対の第1ミラー面531aと第2ミラー面531bに戻り、以降は測定空間の一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレーム900が得られる。 FIG. 3 is a diagram showing a state in which the laser spot light 500 (indicated by hatching) emitted in response to the rotation of the mirror unit 53 scans the inside of the monitoring area. Here, in the combination of the pair of mirrors (first mirror surface 531a and second mirror surface 531b) of the mirror unit 53, the four pairs have different crossing angles. The laser beam is sequentially reflected by the rotating first mirror surface 531a and the second mirror surface 531b. First, the laser light reflected by the first pair of the first mirror surface 531a and the second mirror surface 531b horizontally moves from left to right in the uppermost region Ln1 of the measurement space according to the rotation of the mirror unit 53. Is scanned. Next, the laser light reflected by the second pair of the first mirror surface 531a and the second mirror surface 531b horizontally covers the second region Ln2 from the top of the measurement space from the left in accordance with the rotation of the mirror unit 53. Scanned to the right. Next, the laser light reflected by the third pair of the first mirror surface 531a and the second mirror surface 531b horizontally covers the third region Ln3 from the top of the measurement space from the left in accordance with the rotation of the mirror unit 53. Scanned to the right. Next, the laser light reflected by the 4th pair of the first mirror surface 531a and the second mirror surface horizontally moves horizontally from left to right in the lowest region Ln4 of the measurement space according to the rotation of the mirror unit 53. It is scanned. This completes one scan of the entire measurement space that the rider 110 can measure. The images obtained by scanning the regions Ln1 to Ln4 are combined to obtain one frame 900. Then, after the mirror unit 53 makes one rotation, it returns to the first pair of first mirror surface 531a and the second mirror surface 531b again, and thereafter, scanning from the uppermost region Ln1 to the lowermost region Ln4 in the measurement space. Is repeated to obtain the next frame 900.

図2において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板58を透過して筐体57内のミラーユニット53の第2ミラー面531bに入射し、ここで反射され、さらに第1ミラー面531aで反射されて、レンズ54により集光され、それぞれフォトダイオード55の受光面で画素毎に検知される。さらに、測距点群データ生成部112が、半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ測距点群データとしてのフレーム900(図3参照)を得ることができる。また、ユーザーの指示により、得られた測距点群データを背景画像データとして、測距点群データ生成部112内のメモリ、または避難誘導装置200のメモリに記憶してもよい。 In FIG. 2, a part of the laser beam reflected by hitting the object among the light rays projected by scanning is transmitted through the transparent plate 58 again and incident on the second mirror surface 531b of the mirror unit 53 in the housing 57. Here, it is reflected, further reflected by the first mirror surface 531a, condensed by the lens 54, and detected for each pixel on the light receiving surface of the photodiode 55. Further, the AF point cloud data generation unit 112 obtains distance information according to the time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55. As a result, it is possible to detect an object in the entire area in the monitoring space and obtain a frame 900 (see FIG. 3) as distance measurement point cloud data having distance information for each pixel. Further, according to the user's instruction, the obtained AF point cloud data may be stored as background image data in the memory in the AF point cloud data generation unit 112 or in the memory of the evacuation guidance device 200.

(避難誘導装置200)
再び図1を参照し、避難誘導装置200の構成について説明する。避難誘導装置200は、取得部210、解析部220、データベース230、判断部240を含む。主に、上述の避難誘導装置200のCPUが解析部220および判断部240として機能し、メモリがデータベース230として機能し、通信I/Fが取得部210として機能する。
(Evacuation guidance device 200)
The configuration of the evacuation guidance device 200 will be described with reference to FIG. 1 again. The evacuation guidance device 200 includes an acquisition unit 210, an analysis unit 220, a database 230, and a determination unit 240. Mainly, the CPU of the above-mentioned evacuation guidance device 200 functions as the analysis unit 220 and the determination unit 240, the memory functions as the database 230, and the communication I / F functions as the acquisition unit 210.

(取得部210)
取得部210は、入力部100から、ライダー110が生成した時系列に並んだ測距点群データ(「動体情報」ともいう)取得し、取得した測距点群データを解析部220に送る。また、取得部210は、入力部100から、カメラ120が生成した画像データを取得し、解析部220に送る。
(Acquisition unit 210)
The acquisition unit 210 acquires the range-finding point cloud data (also referred to as “moving object information”) arranged in time series generated by the rider 110 from the input unit 100, and sends the acquired range-finding point cloud data to the analysis unit 220. Further, the acquisition unit 210 acquires the image data generated by the camera 120 from the input unit 100 and sends it to the analysis unit 220.

(解析部220)
解析部220は、動体種類解析部221、歩行特性解析部222、および歩行者属性解析部223を含む。
(Analysis unit 220)
The analysis unit 220 includes a moving body type analysis unit 221, a walking characteristic analysis unit 222, and a pedestrian attribute analysis unit 223.

ここで、背景差分法を用いた、ライダー110の測定対象物の検知アルゴリズムについて説明する。本実施形態では、例えば背景差分法を採用する。この背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)を用いる。具体的には、測定の前準備(前処理)として、ユーザーの指示により、人間や動物等の移動物体が存在しない状態で、ライダー110からレーザースポット光500を走査する。これにより背景対象物92から得られた反射光に基づいて、背景画像を得ることができる。実際の測定時においては、背景対象物92の手前に行動解析の対象者である物体として例えば歩行者93が現れた場合、歩行者93からの反射光が新たに生じる。 Here, a detection algorithm for an object to be measured by the rider 110 using the background subtraction method will be described. In this embodiment, for example, the background subtraction method is adopted. In this background subtraction method, a background image (also referred to as a reference image) that has been generated and saved in advance is used. Specifically, as a pre-measurement (pre-processing), the laser spot light 500 is scanned from the rider 110 in the absence of a moving object such as a human or an animal according to a user's instruction. As a result, a background image can be obtained based on the reflected light obtained from the background object 92. At the time of actual measurement, when, for example, a pedestrian 93 appears as an object to be an object of behavior analysis in front of the background object 92, the reflected light from the pedestrian 93 is newly generated.

動体種類解析部221は、動体を検出する機能を有する。動体種類解析部221はメモリに保持している背景画像データと現時点での測距点群データとを比較して、差が生じた場合、歩行者等の何らかの動体(物体)が監視空間内に現れたことを認識できる。例えば、背景差分法を用いて、背景データと、現時点での測距点群データ(距離画像データ)とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、動体種類解析部221は算定したサイズが抽出対象の解析対象の動体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。歩行者を追跡して行動を解析するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる動体を追跡するのであれば、サイズ閾値はこれよりも小さな値としてもよい。 The moving body type analysis unit 221 has a function of detecting a moving body. The moving object type analysis unit 221 compares the background image data held in the memory with the current range-finding point cloud data, and if a difference occurs, some moving object (object) such as a pedestrian enters the monitoring space. You can recognize that it has appeared. For example, foreground data is extracted by comparing the background data with the current range-finding point cloud data (distance image data) using the background subtraction method. Then, the pixels (pixel group) of the extracted foreground data are divided into clusters according to, for example, the distance value of the pixels. Then, the size of each cluster is calculated. For example, the vertical dimension, the horizontal dimension, the total area, and the like are calculated. The "size" here is an actual size, and is different from the apparent size (angle of view, that is, the spread of pixels), and a mass of pixel groups is determined according to the distance to the object. For example, the moving object type analysis unit 221 determines whether or not the calculated size is equal to or less than a predetermined size threshold value for specifying the moving object to be analyzed to be extracted. The size threshold can be arbitrarily set depending on the measurement location, the behavior analysis target, and the like. If pedestrians are tracked and their behavior is analyzed, the minimum size of a normal person may be used as the size threshold value for clustering. Conversely, the size threshold may be smaller than this if all moving objects are to be tracked.

動体種類解析部221は、「種類解析部」として機能し、クラスタリングした動体のサイズ、縦横比、等を、予め保存しておいたメモリ内の基準データと比較することにより、動体の種類を判別する。判別する動体の種類には、人(歩行者)、車両(4輪、2輪車)が含まれる。また、このときサイズのみでは判別が難しい物体の場合には、さらに移動速度を算出し、移動速度を組み合わせて、動体の種類を判別してもよい。例えば、高速道路を通行可能な2輪車のオートバイと、通行が禁止される自転車の判別に、サイズと移動速度により判別する。 The moving body type analysis unit 221 functions as a "type analysis unit" and determines the type of moving body by comparing the size, aspect ratio, etc. of the clustered moving body with the reference data in the memory stored in advance. do. The types of moving objects to be discriminated include people (pedestrians) and vehicles (four-wheeled and two-wheeled vehicles). Further, in the case of an object that is difficult to discriminate only by the size at this time, the moving speed may be further calculated and the moving speed may be combined to discriminate the type of the moving body. For example, a two-wheeled motorcycle that can pass on a highway and a bicycle that is prohibited from passing are discriminated by size and moving speed.

歩行特性解析部222は、動体の行動パターン(移動特性)を解析する。図4は、測距点群データにより検出した動体の各時刻での位置情報データの例である。検出された各動体を動体ID(歩行者ID)で管理する。歩行特性解析部222は、時系列の動体毎の位置情報を解析することで行動パターンを解析する。行動パターンには、測距点群データにより求めた、動体の移動軌跡、動体の移動速度、動体の転倒状態、動体の位置、および、設定した危険領域までの動体の距離の少なくとも1つが含まれる。この解析に用いる動体の位置は、クラスタリングした動体の中心値、または重心値を用いてもよく、また、動体を矩形によりクラスタリングするのであれば、その矩形の中心を動体の位置として用いてもよい。動体の転倒状態は、動体が歩行者と判別した場合に用いるものであり、動体の中心位置の地面からの高さが急激に低下した場合、または縦横比(横に対する縦の割合)が急激に低下した場合、あるいはその状態が維持された場合には、転倒状態と判断する。危険領域の設定は、予め設定するものであり、例えば高速道路本線を危険領域に設定する。 The walking characteristic analysis unit 222 analyzes the behavior pattern (movement characteristic) of the moving body. FIG. 4 is an example of position information data of a moving object detected by the AF point cloud data at each time. Each detected moving object is managed by a moving object ID (pedestrian ID). The walking characteristic analysis unit 222 analyzes the behavior pattern by analyzing the position information of each moving body in the time series. The behavior pattern includes at least one of the moving locus of the moving body, the moving speed of the moving body, the falling state of the moving body, the position of the moving body, and the distance of the moving body to the set dangerous area, which are obtained from the AF point cloud data. .. As the position of the moving body used in this analysis, the center value or the center of gravity value of the clustered moving body may be used, and if the moving body is clustered by a rectangle, the center of the rectangle may be used as the position of the moving body. .. The fallen state of the moving body is used when the moving body is determined to be a pedestrian, and when the height of the center position of the moving body from the ground drops sharply, or the aspect ratio (ratio of height to width) suddenly decreases. If it decreases or if the condition is maintained, it is judged to be in a fallen condition. The setting of the dangerous area is set in advance, for example, the highway main line is set as the dangerous area.

本実施形態においては、特に動体種類解析部221が、動体の種類を歩行者93と判別した場合に、行動パターンとして、その歩行者93の移動速度(歩行速度)、軌跡を解析する。 In the present embodiment, particularly when the moving body type analysis unit 221 determines that the type of the moving body is the pedestrian 93, the moving speed (walking speed) and the locus of the pedestrian 93 are analyzed as an action pattern.

歩行者属性解析部223は、「属性解析部」として機能し、主に、カメラ120から取得した画像データから動体の属性を解析する。具体的には、2次元の画像データを解析することで、歩行者を抽出するとともに、歩行者の属性を解析する。解析項目には、性別、年齢、人種が含まれる。また、歩行者の属性として、さらに杖、車椅子、キャリーバッグ等の携帯品を判別してもよい。携帯品の判別は、予め、歩行者属性解析部223に携帯品になり得る物体の形状、サイズを登録しておき、その登録データとマッチングさせることで判別できる。 The pedestrian attribute analysis unit 223 functions as an "attribute analysis unit" and mainly analyzes the attributes of a moving object from the image data acquired from the camera 120. Specifically, by analyzing two-dimensional image data, pedestrians are extracted and attributes of pedestrians are analyzed. Analysis items include gender, age, and race. Further, as an attribute of the pedestrian, a portable item such as a cane, a wheelchair, or a carry bag may be further identified. The determination of the portable item can be made by registering the shape and size of the object that can be the portable item in the pedestrian attribute analysis unit 223 in advance and matching it with the registered data.

この解析には、物体の種類として人間と他の物体との判別、および判別した属性の判別が含まれる。例えば、性別、年齢、人種の認識においては、コンピューターは得られた画像データから顔を抽出し、抽出した顔の特徴量から、人物の属性を判別する。この判別アルゴリズは公知のアルゴリズムにより事前に機械学習することができる。この機械学習は、膨大なデータを用いて、事前に他の高性能なコンピューターで実施し、パラメータを決定する。歩行者属性解析部223はそのパラメータを用いて歩行者の属性の解析を行える。 This analysis includes discrimination between humans and other objects as the type of object, and discrimination of the discriminated attributes. For example, in recognizing gender, age, and race, a computer extracts a face from the obtained image data and determines a person's attributes from the extracted facial features. This discrimination algorithm can be machine-learned in advance by a known algorithm. This machine learning is performed on another high-performance computer in advance using a huge amount of data to determine parameters. The pedestrian attribute analysis unit 223 can analyze the attributes of pedestrians using the parameters.

また、歩行者属性解析部223は、歩行特性解析部222から歩行者の位置情報を受け、画像データとこの位置情報により歩行者の属性の解析を行ってもよい。例えば、ライダー110とカメラ120の光軸(監視領域)を一致させ、または、位置合わせのキャリブレーションを事前に行う。そして、測距点群データの解析により得られた歩行者の位置情報に該当する画像データから歩行者の身長等のサイズ、歩行速度、等を参照して、歩行者の属性を解析する。 Further, the pedestrian attribute analysis unit 223 may receive pedestrian position information from the walking characteristic analysis unit 222 and analyze the pedestrian attribute using the image data and this position information. For example, the optical axes (monitoring areas) of the rider 110 and the camera 120 are aligned, or the alignment is calibrated in advance. Then, the attributes of the pedestrian are analyzed by referring to the size such as the height of the pedestrian, the walking speed, etc. from the image data corresponding to the position information of the pedestrian obtained by the analysis of the AF point group data.

(データベース230)
データベース230は、歩行者データ保存部231、および報知内容保存部232を含む。歩行者データ保存部231には、歩行特性解析部222から送られた歩行者ID毎の歩行特性、および歩行者属性解析部223から送られた歩行者ID毎の歩行者属性を記憶する。報知内容保存部232は、歩行者ID毎の報知内容(報知内容に関する履歴情報)、および効果を記憶する。また、この報知内容、効果について、履歴管理する。この報知内容、および効果については後述する。
(Database 230)
The database 230 includes a pedestrian data storage unit 231 and a notification content storage unit 232. The pedestrian data storage unit 231 stores the walking characteristics for each pedestrian ID sent from the walking characteristic analysis unit 222 and the pedestrian attributes for each pedestrian ID sent from the pedestrian attribute analysis unit 223. The notification content storage unit 232 stores the notification content (history information regarding the notification content) and the effect for each pedestrian ID. In addition, the history of the notification content and effect is managed. The content and effect of this notification will be described later.

(判断部240)
判断部240は、報知内容決定部241、および報知効果判定部242を含み、報知内容を決定し、決定した内容で報知するように報知部300を制御する。報知内容決定部241は、歩行者データ保存部231に記憶されている歩行特性(歩行パターン)、および報知効果判定部242の判定結果により、報知内容を決定する。報知効果判定部242は、歩行者データ保存部231に記憶されている歩行者ID毎の歩行特性、および歩行者属性、ならびに報知内容保存部232に記憶されている歩行者ID毎の報知内容(報知内容に関する履歴情報)、および効果により報知効果の有無を判定する。
(Judgment unit 240)
The determination unit 240 includes the notification content determination unit 241 and the notification effect determination unit 242, and controls the notification unit 300 so as to determine the notification content and notify with the determined content. The notification content determination unit 241 determines the notification content based on the walking characteristics (walking pattern) stored in the pedestrian data storage unit 231 and the determination result of the notification effect determination unit 242. The notification effect determination unit 242 has the walking characteristics and pedestrian attributes for each pedestrian ID stored in the pedestrian data storage unit 231, and the notification content for each pedestrian ID stored in the notification content storage unit 232 ( The presence or absence of the notification effect is determined based on the history information regarding the notification content) and the effect.

(報知部300)
報知部300は、スピーカー310、およびサイネージ320の2種類の報知手段を含む。スピーカー310、またはサイネージ320のそれぞれは複数であってもよい。また、報知部300は、スピーカー310、またはサイネージ320のどちらか1種類のみで構成されていてもよい。スピーカー310は、報知内容決定部241が決定した報知内容に応じた音声を発する。サイネージ320はデジタルサイネージ(Digital Signage)であり、液晶ディスプレイまたは複数のLEDを2次元状に配置した表示部により、報知内容に応じた文字や映像を表示する。
(Notification unit 300)
The notification unit 300 includes two types of notification means, a speaker 310 and a signage 320. Each of the speaker 310 and the signage 320 may be plural. Further, the notification unit 300 may be composed of only one type of the speaker 310 or the signage 320. The speaker 310 emits a voice according to the notification content determined by the notification content determination unit 241. The signage 320 is a digital signage, and displays characters and images according to the content of the notification by a liquid crystal display or a display unit in which a plurality of LEDs are arranged two-dimensionally.

(避難誘導システム10の適用例)
図5は、避難誘導システム10の監視領域を適用した高速道路入口周辺を示す図である。図6は、高速道路入口での監視領域を示す模式図である。
(Application example of evacuation guidance system 10)
FIG. 5 is a diagram showing the vicinity of the highway entrance to which the monitoring area of the evacuation guidance system 10 is applied. FIG. 6 is a schematic diagram showing a monitoring area at the entrance of a highway.

近年、歩行者や自転車の高速道路への立ち入りが社会問題になっている。一般に、高速道路等の危険領域には、許可される車両以外の進入を防止するために、出入り口付近に標識を設置し、歩行者やドライバーへの注意喚起をする等、様々な対策が取られている。また、公知文献1(特開2004-192097号公報)のような移動体の移動方向、移動速度が、設定範囲内にある場合に限って一定の報知を行うような従来の技術においても、高速道路入口に歩行者が進入した場合にも、同様に進入を防止するための報知を行うことができる。 In recent years, pedestrians and bicycles entering the highway have become a social problem. Generally, in dangerous areas such as highways, various measures are taken, such as installing signs near the entrances and exits to alert pedestrians and drivers in order to prevent entry by vehicles other than permitted vehicles. ing. Further, even in the conventional technique as in Known Document 1 (Japanese Unexamined Patent Publication No. 2004-192097), in which the moving direction and the moving speed of the moving body are within the set range, constant notification is performed. When a pedestrian enters the road entrance, the notification for preventing the entry can be similarly performed.

しかしながら、標識設置や公知文献1に開示された技術では、下記の(1)~(5)のような理由により高速道路に誤って侵入した人が、適切な判断に基づいて避難できず、他者を巻き込んだ新たな事故の原因となってしまうという虞があった。
(1)高速道路上に避難誘導の案内がない。
(2)立ち入り者がパニック状態に陥る、認知症である、酩酊状態である、等で、認知/思考能力に課題があり、高速道路上の避難誘導を認識/理解できず、また適切な避難行動を取ることができない。
(3)立ち入り者の日本語能力が不十分等の理由で、避難誘導表示が、立ち入り者が理解できる言語で表記、通知されておらず、理解することができない。
(4)高速道路上では、迅速な避難が必要であるが、警備員、誘導員が現場まで出向く時間の余裕がない。
(5)高速道路上では、料金所の前後、車道、路肩、カーブの有無などの領域によって危険度が異なるが、立ち入った人がより危険な領域に近づいているのか遠ざかっているのかを詳細に把握することが難しいため、領域毎に一律の避難誘導内容となり、より適切な誘導効果を得ることができない。
However, with the technique disclosed in the sign installation and the publicly known document 1, a person who accidentally invades the expressway due to the following reasons (1) to (5) cannot evacuate based on appropriate judgment, and others. There was a risk that it would cause a new accident involving people.
(1) There is no evacuation guidance on the highway.
(2) There is a problem in cognitive / thinking ability due to panic, dementia, intoxication, etc., and the evacuation guidance on the highway cannot be recognized / understood, and appropriate evacuation. I can't take action.
(3) The evacuation guidance display is not written and notified in a language that the entrant can understand because the Japanese proficiency of the entrant is insufficient, and the evacuation guidance display cannot be understood.
(4) Although quick evacuation is required on the highway, there is not enough time for security guards and guides to go to the site.
(5) On the highway, the degree of danger varies depending on the area such as the front and back of the tollhouse, the roadway, the shoulder, and the presence or absence of a curve, but in detail whether the person entering the area is approaching or moving away from the more dangerous area. Since it is difficult to grasp, the evacuation guidance content is uniform for each area, and it is not possible to obtain a more appropriate guidance effect.

そこで、本実施形態においては、図6に示すように危険領域として、高速道路入口の進入路が監視領域となるように入力部100(ライダー110、カメラ120)を配置する。そして、以下に説明する報知処理により、高速道路入口のような歩行者にとって危険な領域からの避難誘導指示を行う。なお、ライダー110、カメラ120は、監視領域(測定領域/撮影領域)が略一致し、また、光軸が略一致するように配置され、位置合わせは行われている。また、ライダー110の測定領域、およびカメラ120の撮影領域が、進入路の外側に渡るような場合には、立ち入り禁止領域である進入路のみを監視領域とするように、予め設定してもよい。 Therefore, in the present embodiment, as shown in FIG. 6, the input unit 100 (rider 110, camera 120) is arranged as a dangerous area so that the approach road at the entrance of the expressway becomes a monitoring area. Then, by the notification process described below, an evacuation guidance instruction is given from an area dangerous to pedestrians such as a highway entrance. The rider 110 and the camera 120 are arranged so that the monitoring areas (measurement area / photographing area) substantially coincide with each other and the optical axes substantially coincide with each other, and the alignment is performed. Further, when the measurement area of the rider 110 and the shooting area of the camera 120 extend to the outside of the approach road, it may be set in advance so that only the approach road, which is an exclusion zone, is used as the monitoring area. ..

(第1の実施形態における報知処理)
図7~図12を参照し、第1の実施形態に係る避難誘導装置200で実行する報知処理について説明する。図7は、報知処理を示すフローチャートである。
(Notification processing in the first embodiment)
With reference to FIGS. 7 to 12, the notification process executed by the evacuation guidance device 200 according to the first embodiment will be described. FIG. 7 is a flowchart showing the notification process.

(ステップS110)
所定領域(監視領域)内の動体情報を取得する。具体的には、取得部210は、監視領域を測定した時系列に並んだ測距点群データを、ライダー110から取得する。また、取得部210は、監視領域を撮影した画像データ(動画)をカメラ120から取得する。
(Step S110)
Acquires moving object information in a predetermined area (monitoring area). Specifically, the acquisition unit 210 acquires the AF point cloud group data arranged in the time series in which the monitoring area is measured from the rider 110. Further, the acquisition unit 210 acquires image data (moving image) obtained by photographing the monitoring area from the camera 120.

(ステップS120)
解析部220は、ステップS110で取得した動体情報を解析する。ここでは、動体種類解析部221は、監視領域内の動体の種類を解析する。判別する種類には、歩行者、自転車、4輪車、および2輪車が含まれる。
(Step S120)
The analysis unit 220 analyzes the moving object information acquired in step S110. Here, the moving body type analysis unit 221 analyzes the type of moving body in the monitoring area. Types to be discriminated include pedestrians, bicycles, four-wheeled vehicles, and two-wheeled vehicles.

(ステップS130)
判断部240は、動体の種類が、監視領域への進入(侵入)を許可されない特定の種類か否かを判定する。例えば、図5、6に示すような進入路であれば、歩行者93は、進入を許可されない特定の種類の動体であり(YES)、処理をステップS140に進める。一方で、4輪車または2輪車の車両であり、許可される種類の物体であれば(NO)、処理を終了する(エンド)。このときには、報知部300のサイネージ320により通行できる旨の表示を行ってもよい。
(Step S130)
The determination unit 240 determines whether or not the type of the moving object is a specific type that is not permitted to enter (invade) the monitoring area. For example, in the case of an approach road as shown in FIGS. 5 and 6, the pedestrian 93 is a specific type of moving object that is not allowed to enter (YES), and the process proceeds to step S140. On the other hand, if it is a four-wheeled vehicle or a two-wheeled vehicle and it is an object of a permitted type (NO), the processing is terminated (end). At this time, the signage 320 of the notification unit 300 may display that the vehicle can pass through.

(ステップS140)
ここでは、判断部240の報知内容決定部241は、予め設定されている報知内容、または後述のステップS170で決定した報知内容で、報知部300による報知を行わせる。進入している歩行者93に対して、過去に報知していなければ、予め設定されている報知内容で1回目(初回)の報知を行う。
(Step S140)
Here, the notification content determination unit 241 of the determination unit 240 causes the notification unit 300 to perform notification with the notification content preset or the notification content determined in step S170 described later. If the pedestrian 93 that is approaching has not been notified in the past, the first (first time) notification is performed with the preset notification content.

例えば、初回の報知用の予め設定されている報知内容は、「戻ってください」(日本語)であり、動体の種類(人:歩行者)に応じて一律に決定したものである。初回の報知(避難指示)は、以下に行う歩行者の行動パターン判定の結果を待たず、歩行者が監視領域に存在することを判定することに応じて、即時に行う。高速道路の進入路では、迅速な避難指示、および避難開始が事故防止に重要であるためである。なお、ここで行った報知は、報知の必要がないと判断されるまで、または新たな報知内容で報知を行うまで継続する。例えば、スピーカー310であれば報知内容の音声を繰り返し、出力し、サイネージ320であれば表示し続ける。 For example, the preset notification content for the first notification is "Please return" (Japanese), which is uniformly determined according to the type of moving object (person: pedestrian). The first notification (evacuation instruction) is performed immediately according to the determination that the pedestrian exists in the monitoring area without waiting for the result of the pedestrian behavior pattern determination performed below. This is because prompt evacuation instructions and evacuation start are important for accident prevention on the approach road of the expressway. It should be noted that the notification performed here continues until it is determined that the notification is not necessary or the notification is performed with a new notification content. For example, in the case of the speaker 310, the voice of the notification content is repeated and output, and in the case of the signage 320, the sound is continuously displayed.

(ステップS150)
1回目の報知を行った後、解析部220は、引き続き動体情報を取得し、動体の行動パターンを判定する。ここでは、歩行特性解析部222は、歩行速度、軌跡を解析する。また、歩行者属性解析部223は、歩行者属性を解析する。
(Step S150)
After performing the first notification, the analysis unit 220 continues to acquire the moving body information and determines the behavior pattern of the moving body. Here, the walking characteristic analysis unit 222 analyzes the walking speed and the locus. Further, the pedestrian attribute analysis unit 223 analyzes the pedestrian attribute.

以下では、歩行者93の例として歩行者A~Dを想定した場合について説明する。なお、これらの歩行者A~Dは、それぞれ別々のタイミングで高速道路入口に進入した場合を想定している。しかしながら、複数人が同時に監視領域に進入した状況を想定してもよい。その場合は、それぞれの歩行者93は、動体ID(図4参照)により、それぞれ個別に並行して、追跡が行われる。図8は、カメラ120の画像データから、歩行者属性解析部223が、判別した歩行者A~Dの歩行者属性の例を示す図である。図9A、図9Bは、それぞれ同じ歩行者A~Dの移動軌跡、および移動速度の変化を示す図である。図9Aは、俯瞰図(X、Y座標)であり、下方側が高速道路入口、上方が高速道路本線側であり、矢印方向に進んだことを示している。また、図9Aにおいて、1回目の報知を行った時の歩行者の位置を黒丸で示している。この黒丸の位置は、図9Bにおいて時刻t1に対応する。歩行速度、および軌跡、ならびに後述する行動パターンの分類で構成される行動パターンは、報知を行った前後で履歴管理された状態で、データベース230に記憶される。 In the following, a case where pedestrians A to D are assumed as an example of the pedestrian 93 will be described. It is assumed that these pedestrians A to D enter the highway entrance at different timings. However, it may be assumed that a plurality of people enter the monitoring area at the same time. In that case, each pedestrian 93 is individually tracked in parallel by the moving object ID (see FIG. 4). FIG. 8 is a diagram showing an example of pedestrian attributes of pedestrians A to D determined by the pedestrian attribute analysis unit 223 from the image data of the camera 120. 9A and 9B are diagrams showing changes in the movement loci and movement speeds of the same pedestrians A to D, respectively. FIG. 9A is a bird's-eye view (X, Y coordinates), showing that the lower side is the highway entrance, the upper side is the highway main line side, and the vehicle has proceeded in the direction of the arrow. Further, in FIG. 9A, the position of the pedestrian at the time of the first notification is indicated by a black circle. The position of this black circle corresponds to time t1 in FIG. 9B. The walking speed, the locus, and the behavior pattern composed of the classification of the behavior pattern described later are stored in the database 230 in a state of history management before and after the notification is performed.

図8は、歩行者属性解析部223が行った、歩行者A~Dに関する、それぞれ性別、年齢(分類)、携帯品、人種の判定結果を示す図である。性別については、男性/女性の判定結果の右脇に歩行者属性解析部223が算出した判定の確からしさ(%)を示している。 FIG. 8 is a diagram showing the determination results of gender, age (classification), portable goods, and race for pedestrians A to D, which were performed by the pedestrian attribute analysis unit 223. Regarding gender, the certainty (%) of the judgment calculated by the pedestrian attribute analysis unit 223 is shown on the right side of the judgment result of male / female.

図9A、図9Bに示す例では、歩行者Aは真っ直ぐ進んでいるので、行動パターンは「直進」に分類される。歩行者Bは入口の方に戻っているので、行動パターンは「Uターン」に分類される。歩行者Cは比較的ゆっくりとした速度で、左右にぶれながら進んでいるので、行動パターンは「ふらつき」に分類される。歩行者Dは途中から停止しているので、行動パターンは「滞留」に分類される。これらの分類は、歩行特性解析部222により行われる。 In the example shown in FIGS. 9A and 9B, since the pedestrian A is traveling straight, the behavior pattern is classified as "straight ahead". Since pedestrian B is returning toward the entrance, the behavior pattern is classified as "U-turn". Since pedestrian C is moving at a relatively slow speed while swaying from side to side, the behavior pattern is classified as "staggering". Since the pedestrian D is stopped from the middle, the behavior pattern is classified as "retention". These classifications are performed by the gait characteristic analysis unit 222.

(ステップS160)
ここでは、報知効果判定部242は、ステップS140の報知、およびステップS150で判定した行動パターンから、効果を判定する。特に報知を行った前後の行動パターンの履歴から効果を判定する。
(Step S160)
Here, the notification effect determination unit 242 determines the effect from the notification in step S140 and the action pattern determined in step S150. In particular, the effect is judged from the history of behavior patterns before and after the notification.

図10は、ステップS140の報知(1回目(第1の報知))の効果判定結果の例を示す図である。同図では、歩行者A~Dそれぞれの認知レベル、理解度レベル、避難達成率レベル、および状態予測結果を示している。各レベルは1~5の5段階で表示している(1が最も低く、5が最も高い)。 FIG. 10 is a diagram showing an example of the effect determination result of the notification (first notification (first notification)) of step S140. The figure shows the cognitive level, comprehension level, evacuation achievement rate level, and state prediction result of each of pedestrians A to D. Each level is displayed in 5 stages from 1 to 5 (1 is the lowest and 5 is the highest).

報知効果判定部242は、歩行者Bに対しては、行動パターンから1回目の報知が効果的に機能したことが分かるので、「避難完了」と判断する。報知効果判定部242は、行動パターンおよび歩行者属性から、歩行者Aに対しては「言語相違」と判断(推定)し、歩行者Cに対しては「酩酊、または認知障害」と判断し、また、歩行者Dに対しては、1回目の報知の後、停止しているので、前後の履歴から「パニック、または言語相違」と判断する。 The notification effect determination unit 242 determines that the pedestrian B is "evacuated completed" because it can be seen from the behavior pattern that the first notification has effectively functioned. The notification effect determination unit 242 determines (estimates) that the pedestrian A is "language difference" and the pedestrian C is "intoxicated or cognitive impairment" from the behavior pattern and the pedestrian attribute. In addition, since the pedestrian D is stopped after the first notification, it is determined as "panic or language difference" from the history before and after.

(ステップS170)
報知内容決定部241は、次の報知の必要性、および報知内容を決定する。図11は、1回目の報知に対する図10の効果判定結果に基づいて、またはこれとともに行動パターン、および歩行者属性に基づいて決定した2回目の報知における報知内容の例を示す図である。これらの報知内容は予めデータベース230内に記憶されており、その中から選択したものであるが、報知内容決定部241が自動で作成するようにしてもよい。歩行者Aに対しては、達成レベルは低く、「言語相違」と判定したので、2回目の報知を必要と判断し、その報知内容を「Stop and U turn」に決定する。歩行者Bに対しては、達成レベルが十分に高いため、2回目の報知を不要と判断する。歩行者Cに対しては、達成レベルが低く、「酩酊、または認知障害」と判定したので、2回目の報知を必要と判断し、その報知内容を「おばあさん、戻ってください」に決定する。歩行者Cに対しては、達成レベルが低く、「パニック、または言語相違」と判定したので、2回目の報知を必要と判断し、その報知内容を「落ち着いて、左右を確認し、壁側に寄って下さい」に決定する。
(Step S170)
The notification content determination unit 241 determines the necessity of the next notification and the notification content. FIG. 11 is a diagram showing an example of the notification content in the second notification determined based on the effect determination result of FIG. 10 for the first notification, or together with the behavior pattern, and the pedestrian attribute. These notification contents are stored in the database 230 in advance and are selected from them, but the notification content determination unit 241 may automatically create them. For pedestrian A, the achievement level is low, and it is determined that the language is different. Therefore, it is determined that the second notification is necessary, and the notification content is determined to be "Stop and U-Turn". For pedestrian B, since the achievement level is sufficiently high, it is determined that the second notification is unnecessary. For pedestrian C, the achievement level is low, and it is determined that "drunkenness or cognitive impairment" is required, so it is determined that a second notification is necessary, and the content of the notification is determined to be "grandmother, please return". For pedestrian C, the achievement level was low, and it was judged as "panic or language difference", so it was judged that a second notification was necessary, and the content of the notification was "calm, check left and right, and the wall side." Please drop in. "

(ステップS180)
判断部240は、ステップS170の決定により、次の報知が必要か否かを判定する。図11に示すように、歩行者Bであれば、報知は必要なく(NO)、それまでの報知を停止し、処理を終了する。一方で、歩行者A、C、Dであれば、報知が必要であり(YES)、処理をステップS140に戻し、図11に示す2回目の報知内容で報知処理を行う。そしてステップS150以降の処理を繰り返す。
(Step S180)
The determination unit 240 determines whether or not the next notification is necessary by the determination in step S170. As shown in FIG. 11, if it is a pedestrian B, the notification is not necessary (NO), the notification up to that point is stopped, and the process is terminated. On the other hand, if it is a pedestrian A, C, or D, notification is necessary (YES), the process is returned to step S140, and the notification process is performed with the second notification content shown in FIG. Then, the processes after step S150 are repeated.

図12は、歩行者A~Dへの2回目の報知の効果判定結果の例、および3回目の報知における報知内容の例を示す図である。図12(a)、(b)はそれぞれ、図10、図11に対応する。 FIG. 12 is a diagram showing an example of the effect determination result of the second notification to the pedestrians A to D, and an example of the notification content in the third notification. 12 (a) and 12 (b) correspond to FIGS. 10 and 11, respectively.

図12に示すように、2回目の報知を行った以降も、上述の判断と同様に、前回の報知(第1の報知)を行った前後の歩行者の行動パターンの履歴、および歩行者の歩行者属性から、次の報知(第2の報知)の必要性、および報知内容を決定する。 As shown in FIG. 12, even after the second notification is performed, the history of the behavior pattern of the pedestrian before and after the previous notification (first notification) and the pedestrian's behavior pattern are the same as in the above judgment. From the pedestrian attribute, the necessity of the next notification (second notification) and the content of the notification are determined.

このように、本実施形態においては、前回の報知(第1の報知)をした後、解析部220が解析した歩行者の行動パターンに基づいて、判断部240は、次の報知(第2の報知)の必要性、およびその報知内容を決定する。そして報知が必要であれば、報知部300を制御して、決定した報知内容で歩行者への報知を行う。 As described above, in the present embodiment, the determination unit 240 performs the next notification (second notification) based on the pedestrian behavior pattern analyzed by the analysis unit 220 after the previous notification (first notification). The necessity of notification) and the content of the notification are determined. Then, if notification is necessary, the notification unit 300 is controlled to notify the pedestrian with the determined notification content.

このようにすることで、避難誘導装置200からの報知に対して、報知後の動体の行動パターンに基づいた適切な報知を行うことができる。具体的には、対象の歩行者の行動に変化が見られない場合、対象者が高齢のため耳が遠く音声に気が付かないのか、報知に用いた言語を使えないために内容を理解できないなのか、等の報知が有効に機能しない理由を高い精度で判断(推測)できる。そして、その判断結果に基づいて、対象者に合わせて適切な報知内容を選択することで、避難誘導の成功率を高めることができる。また、本実施形態では、高速道路に用いた場合に、上述の(1)から(5)の課題を解決できる。 By doing so, it is possible to appropriately notify the notification from the evacuation guidance device 200 based on the behavior pattern of the moving body after the notification. Specifically, if there is no change in the behavior of the target pedestrian, is it because the subject is too old to hear and does not notice the voice, or is it impossible to understand the content because the language used for notification cannot be used? It is possible to judge (guess) with high accuracy the reason why notifications such as, etc. do not function effectively. Then, the success rate of evacuation guidance can be increased by selecting an appropriate notification content according to the target person based on the judgment result. Further, in the present embodiment, when used on an expressway, the above-mentioned problems (1) to (5) can be solved.

(第2の実施形態)
以下、図13、図14を参照し、第2の実施形態に係る避難誘導装置200で実行する報知処理について説明する。図13は、高速道路入口での監視領域を示す模式図である。図14は、報知処理を示すフローチャートである。第2の実施形態においては、報知部300は、複数のスピーカー310a、310b、310c、および複数のサイネージ320a、320b、320cを備え、歩行者93の位置や行動パターンに応じて、使用する報知部300(スピーカー310またはサイネージ320)を選択する。これらの報知部300の各位置は予め避難誘導装置200のメモリに記憶されている。また、サイネージ320については、ディスプレイの表示面の方向、向きの情報がメモリに記憶されている。なお、第2の実施形態においては、特に説明がない場合は、第1の実施形態と同一である。
(Second embodiment)
Hereinafter, the notification process executed by the evacuation guidance device 200 according to the second embodiment will be described with reference to FIGS. 13 and 14. FIG. 13 is a schematic diagram showing a monitoring area at the entrance of the highway. FIG. 14 is a flowchart showing the notification process. In the second embodiment, the notification unit 300 includes a plurality of speakers 310a, 310b, 310c, and a plurality of signage 320a, 320b, 320c, and is used according to the position and behavior pattern of the pedestrian 93. Select 300 (speaker 310 or signage 320). Each position of these notification units 300 is stored in advance in the memory of the evacuation guidance device 200. Further, regarding the signage 320, information on the direction and orientation of the display surface of the display is stored in the memory. The second embodiment is the same as the first embodiment unless otherwise specified.

(ステップS210~S230)
図7のステップS110~S130と同様の処理を行い、動体の種類が歩行者であれば処理をステップS235に進める。
(Steps S210 to S230)
The same process as in steps S110 to S130 of FIG. 7 is performed, and if the type of moving object is a pedestrian, the process proceeds to step S235.

(ステップS235、S240)
ここでは、現在の動体(歩行者)の位置に応じて、次の報知に使用する報知部300の種類(スピーカー310、またはサイネージ320)、および位置を選択する。図13に示すように、歩行者93が高速道路入口から遠い位置を移動中であれば、歩行者93に最も近い、および/または移動軌跡により進行方向前方にあるスピーカー310c、サイネージ320cを選択し、選択したスピーカー310c、サイネージ320cで報知を行う。
(Steps S235, S240)
Here, the type (speaker 310 or signage 320) and position of the notification unit 300 used for the next notification are selected according to the current position of the moving object (pedestrian). As shown in FIG. 13, if the pedestrian 93 is moving at a position far from the highway entrance, the speaker 310c and the signage 320c closest to the pedestrian 93 and / or forward in the traveling direction according to the movement locus are selected. , The selected speaker 310c and signage 320c are used for notification.

このときの報知内容は、第1の実施形態と同様に、予め設定されている報知内容、またはステップS270で決定した報知内容である。また、このとき、歩行者93の位置からいずれかのサイネージ320も視認できないと判断した場合には、報知部300の種類としてスピーカー310のみを選択してもよい。また、他の例として、避難誘導装置200は、第1の報知の後、効果判定を行った結果、効果が無いと判定した場合には、スピーカー310とサイネージ320の両方を選択するようにしてもよい。このときに選択するスピーカー310、サイネージ320は、歩行者93に最も近い、および/または進行方向前方にあるものを選択してもよい。 The notification content at this time is the notification content set in advance or the notification content determined in step S270, as in the first embodiment. Further, at this time, if it is determined that any signage 320 cannot be visually recognized from the position of the pedestrian 93, only the speaker 310 may be selected as the type of the notification unit 300. Further, as another example, when the evacuation guidance device 200 determines that there is no effect as a result of performing the effect determination after the first notification, both the speaker 310 and the signage 320 are selected. May be good. The speaker 310 and the signage 320 selected at this time may be the one closest to the pedestrian 93 and / or the one located forward in the traveling direction.

(ステップS250~S280)
以下は、図7のステップS150~S180と同様の処理を行い、終了する(エンド)。
(Steps S250 to S280)
The following processes are the same as those in steps S150 to S180 of FIG. 7, and the process ends (end).

このように、第2の実施形態においても、第1の実施形態と同様の効果を得ることができる。 As described above, the same effect as that of the first embodiment can be obtained in the second embodiment.

以上に説明した避難誘導装置200、および避難誘導システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な避難誘導システム10が備える構成を排除するものではない。 The configurations of the evacuation guidance device 200 and the evacuation guidance system 10 described above have described the main configurations in explaining the features of the above-described embodiment, and are not limited to the above configurations and are within the scope of the claims. , Can be modified in various ways. Further, the configuration provided in the general evacuation guidance system 10 is not excluded.

例えば、上述の実施例では、歩行者を特定の種類の動体と判定し、避難誘導を行う例について説明したが、これに限られず、さらに自転車(および運転者)を特定の種類の動体として、これを避難誘導の対象としてもよい。また、この場合、初回の報知内容や2回目以降の報知内容を、歩行者向けの報知内容と異なるように構成してもよい。 For example, in the above-described embodiment, an example in which a pedestrian is determined to be a specific type of moving object and evacuation guidance is performed has been described, but the present invention is not limited to this, and a bicycle (and a driver) is further used as a specific type of moving object. This may be the target of evacuation guidance. Further, in this case, the first notification content and the second and subsequent notification contents may be configured to be different from the notification contents for pedestrians.

上述した実施形態に係る避難誘導装置における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)-ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウエアに組み込まれてもよい。 The means and methods for performing various processes in the evacuation guidance device according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versail Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the above program may be provided as a single application software, or may be incorporated into the software of the device as a function of the device.

10 避難誘導システム
100 入力部
110 ライダー
120 カメラ
200 避難誘導装置
210 取得部
220 解析部
221 動体種類解析部
222 歩行特性解析部
223 歩行者属性解析部
230 データベース
231 歩行者データ保存部
232 報知内容保存部
240 判断部
241 報知内容決定部
242 報知効果判定部
300 報知部
310、310a~310c スピーカー
320、320a~320c サイネージ
10 Evacuation guidance system 100 Input unit 110 Rider 120 Camera 200 Evacuation guidance device 210 Acquisition unit 220 Analysis unit 221 Moving object type analysis unit 222 Walking characteristic analysis unit 223 Pedestrian attribute analysis unit 230 Database 231 Pedestrian data storage unit 232 Notification content storage unit 240 Judgment unit 241 Notification content determination unit 242 Notification effect determination unit 300 Notification unit 310, 310a to 310c Speaker 320, 320a to 320c Signage

Claims (12)

所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え
前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、
避難誘導装置。
An acquisition unit that acquires moving object information that measures moving objects in a predetermined area,
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The acquisition unit acquires distance measurement point cloud data showing the distribution of distance values to the moving body existing in the predetermined region as the moving body information.
The behavior pattern analyzed by the analysis unit includes the movement locus of the moving body, the moving speed of the moving body, the overturned state of the moving body, the position of the moving body, and the set dangerous area, which are obtained from the range-finding point cloud data. Includes at least one of the distances of the moving object to,
Evacuation guidance device.
所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
前記動体情報に基づいて、前記動体の種類を解析する種類解析部と、を備え
前記種類解析部が判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記解析部は、前記動体に対する前記行動パターンの解析を行う、
避難誘導装置。
An acquisition unit that acquires moving object information that measures moving objects in a predetermined area,
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
A type analysis unit that analyzes the type of the moving body based on the moving body information is provided .
When the type of the moving object determined by the type analysis unit is a specific type of moving object that is not allowed to enter the predetermined area, the analysis unit analyzes the behavior pattern for the moving object.
Evacuation guidance device.
所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え
前記取得部は、前記所定領域内を撮影した画像データを取得し、
さらに、前記取得部が取得した前記画像データから、前記動体の属性を解析する属性解析部を備え、
前記属性解析部が解析した前記動体の属性、および前記解析部が解析した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、
避難誘導装置。
An acquisition unit that acquires moving object information that measures moving objects in a predetermined area,
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The acquisition unit acquires image data obtained by photographing the predetermined area, and obtains the image data.
Further, an attribute analysis unit for analyzing the attributes of the moving object from the image data acquired by the acquisition unit is provided.
The notification content of the second notification is determined based on the attributes of the moving object analyzed by the attribute analysis unit and the behavior pattern analyzed by the analysis unit.
Evacuation guidance device.
前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、請求項2、または請求項3に記載の避難誘導装置。
The acquisition unit acquires distance measurement point cloud data showing the distribution of distance values to the moving body existing in the predetermined region as the moving body information.
The behavior pattern analyzed by the analysis unit includes the movement locus of the moving body, the moving speed of the moving body, the overturned state of the moving body, the position of the moving body, and the set dangerous area, which are obtained from the range-finding point cloud data. The evacuation guidance device according to claim 2, wherein the evacuation guidance device according to claim 3 includes at least one of the distances of the moving body up to.
前記報知部は1種類以上の複数の報知部であり、The notification unit is a plurality of notification units of one or more types.
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御する、請求項1から請求項4のいずれかに記載の避難誘導装置。Claim 1 to claim 1, wherein the determination unit selects the notification unit together with the notification content according to the action pattern, and controls the selected notification unit to perform a second notification to the moving object. The evacuation guidance device according to any one of 4.
所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備え
前記報知部は1種類以上の異なる位置に配置された複数の報知部であり、
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御し、
前記取得部は、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記判断部は、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位置により、前記報知部の選択を行う、
避難誘導装置。
An acquisition unit that acquires moving object information that measures moving objects in a predetermined area,
An analysis unit that analyzes the behavior pattern of the moving object based on the acquired moving object information,
After the first notification is given by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. Judgment unit to control
Equipped with
The notification unit is a plurality of notification units arranged at one or more different positions.
The determination unit selects the notification unit together with the notification content according to the action pattern, and controls the selected notification unit to perform a second notification to the moving object.
The acquisition unit acquires, as the moving object information, the distance measurement point cloud data showing the distribution of the distance value from the distance measurement unit that measures the predetermined area to the object in the predetermined area.
The determination unit selects the notification unit based on the movement locus of the moving object or the position of the moving object, which is obtained from the AF point cloud data.
Evacuation guidance device.
前記判断部は、前記行動パターンの履歴を保持し、前記第1の報知の前後の前記行動パターンにより、前記第2の報知の報知内容を決定する、請求項1から請求項6のいずれかに記載の避難誘導装置。The determination unit holds the history of the behavior pattern, and determines the notification content of the second notification based on the behavior pattern before and after the first notification, according to any one of claims 1 to 6. The described evacuation guidance device. 測定することで、所定領域内の動体の動体情報を生成する動体情報測定部と、
報知部と、
前記動体情報測定部から取得した動体情報を用いて、前記報知部により前記動体への報知を行う、請求項1から請求項7のいずれかに記載の避難誘導装置と、
を備える避難誘導システム。
A moving body information measuring unit that generates moving body information of a moving body within a predetermined area by measuring,
Notification unit and
The evacuation guidance device according to any one of claims 1 to 7, wherein the notification unit notifies the moving body by using the moving body information acquired from the moving body information measuring unit.
Evacuation guidance system equipped with.
所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
前記ステップ(a)では、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記ステップ(b)で解析した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、
処理をコンピューターに実行させるための制御プログラム。
It is a control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
In the step (a), as the moving object information, the ranging point cloud data showing the distribution of the distance value to the moving object existing in the predetermined region is acquired.
In the action pattern analyzed in the step (b), the movement locus of the moving object, the moving speed of the moving object, the overturned state of the moving object, the position of the moving object, and the position of the moving object, which were obtained from the range-finding point cloud data, were set. Includes at least one of the moving objects' distances to the danger zone,
A control program that lets a computer perform processing.
所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
さらに、前記(a)で取得した前記動体情報に基づいて、前記動体の種類を解析するステップ(f)を含み、
前記ステップ(f)で判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記ステップ(b)における、前記動体に対する前記行動パターンの解析を行う、
処理をコンピューターに実行させるための制御プログラム。
It is a control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
Further, the step (f) for analyzing the type of the moving body based on the moving body information acquired in the above (a) is included.
When the type of the moving body determined in the step (f) is a specific type of moving body that is not allowed to enter the predetermined area, the analysis of the behavior pattern for the moving body in the step (b) is performed. conduct,
A control program that lets a computer perform processing.
所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み
前記ステップ(a)では、さらに、前記所定領域内を撮影した画像データを取得し、
さらに、前記ステップ(a)で取得した前記画像データから、前記動体の属性を解析するステップ(f)を含み、
前記ステップ(d)では、前記ステップ(f)で解析した前記動体の属性、および前記ステップ(b)で解析した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、
処理をコンピューターに実行させるための制御プログラム。
It is a control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
In the step (a), further, image data captured in the predetermined area is acquired, and the image data is acquired.
Further, the step (f) for analyzing the attributes of the moving object from the image data acquired in the step (a) is included.
In the step (d), the notification content of the second notification is determined based on the attributes of the moving object analyzed in the step (f) and the behavior pattern analyzed in the step (b).
A control program that lets a computer perform processing.
所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で解析した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含み、
前記報知部は1種類以上の異なる位置に配置された複数の報知部であり、
前記ステップ(a)では、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記ステップ(d)では、前記行動パターンにより、前記報知内容の決定とともに前記報知部の選択を行い、
前記ステップ(e)では、前記ステップ(d)で選択した前記報知部により、前記動体への第2の報知を行い、
前記ステップ(d)では、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位置により、前記報知部の選択を行う、
処理をコンピューターに実行させるための制御プログラム。
It is a control program that controls an evacuation guidance device that guides evacuation to moving objects in a predetermined area.
Step (a) of acquiring moving object information obtained by measuring a moving object in a predetermined area, and
The step (b) of analyzing the behavior pattern of the moving body based on the acquired moving body information, and
The step (c) in which the notification unit first notifies the moving object, and
After step (c), a step (d) of determining the notification content based on the behavior pattern analyzed in the step (b), and
In the step (e) of performing the second notification to the moving object with the determined notification content,
Including
The notification unit is a plurality of notification units arranged at one or more different positions.
In the step (a), as the moving object information, the ranging point cloud data showing the distribution of the distance value from the ranging unit for measuring in the predetermined region to the object in the predetermined region is acquired.
In the step (d), the notification content is determined and the notification unit is selected according to the action pattern.
In the step (e), the notification unit selected in the step (d) performs a second notification to the moving body.
In the step (d), the notification unit is selected based on the movement locus of the moving body or the position of the moving body obtained from the AF point cloud data.
A control program that lets a computer perform processing.
JP2018129134A 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program Active JP7073949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018129134A JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018129134A JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Publications (2)

Publication Number Publication Date
JP2020009107A JP2020009107A (en) 2020-01-16
JP7073949B2 true JP7073949B2 (en) 2022-05-24

Family

ID=69151662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018129134A Active JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Country Status (1)

Country Link
JP (1) JP7073949B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
WO2023210105A1 (en) * 2022-04-27 2023-11-02 住友電気工業株式会社 Infrastructure radio wave sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (en) 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
US20170345265A1 (en) 2014-11-07 2017-11-30 Carrier Corporation Dynamic acquisition terminal for behavior statistic information of people, evacuation system and method
WO2018025830A1 (en) 2016-08-03 2018-02-08 日本電気株式会社 Evacuation guidance system and evacuation guidance method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (en) 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
US20170345265A1 (en) 2014-11-07 2017-11-30 Carrier Corporation Dynamic acquisition terminal for behavior statistic information of people, evacuation system and method
WO2018025830A1 (en) 2016-08-03 2018-02-08 日本電気株式会社 Evacuation guidance system and evacuation guidance method

Also Published As

Publication number Publication date
JP2020009107A (en) 2020-01-16

Similar Documents

Publication Publication Date Title
US11390276B2 (en) Control device, control method, and non-transitory storage medium
US9524643B2 (en) Orientation sensitive traffic collision warning system
US20170185853A1 (en) Processing apparatus, processing system, and processing method
US8908038B2 (en) Vehicle detection device and vehicle detection method
JP5506745B2 (en) Image acquisition unit, method and associated control unit {IMAGEACQUISITIONUNIT, ACQUISITIONMETHODANDASSOCIATEDCONTROLLUNT}
US20170098132A1 (en) Processing apparatus, processing system, processing program, and processing method
KR102101956B1 (en) Enforcement system for school-zone using pedestrian detection
JP2007241740A (en) Vehicle periphery monitoring device
US20110103647A1 (en) Device and Method for Classifying Vehicles
US10832569B2 (en) Vehicle detection systems
JP2007293627A (en) Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle
KR102074857B1 (en) Proximity sensor and proximity sensing method using design vision sensor
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
JP7073949B2 (en) Evacuation guidance system, evacuation guidance system, and control program
WO2020105527A1 (en) Image analysis device, image analysis system, and control program
JP7428136B2 (en) Information processing device, information processing system, and information processing method
KR102310435B1 (en) System and Method for Warning to Crosswalker by Sensing of Vehicle Approach
CN109872527A (en) Pedestrian running red light monitoring device and monitoring method based on gravity sensing
WO2018212090A1 (en) Control device and control method
JP4765113B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program, and vehicle periphery monitoring method
KR102310433B1 (en) System and Method for Warning to Drivers by Sensing a Waiting Pedestrian Before a Crosswalk
KR101076984B1 (en) Lane Departure Warning apparatus using multiple laser beams
JP7184087B2 (en) Object detection system and object detection method
WO2020008685A1 (en) Information notification device, program for information notification device, and information notification system
KR102310434B1 (en) System and Method for Saving the Pedestrian’s Walking Pattern and Predicting the Road Crossing According to the Walking Pattern

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7073949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150