JP2020009107A - Evacuation guidance device, evacuation guidance system, and control program - Google Patents

Evacuation guidance device, evacuation guidance system, and control program Download PDF

Info

Publication number
JP2020009107A
JP2020009107A JP2018129134A JP2018129134A JP2020009107A JP 2020009107 A JP2020009107 A JP 2020009107A JP 2018129134 A JP2018129134 A JP 2018129134A JP 2018129134 A JP2018129134 A JP 2018129134A JP 2020009107 A JP2020009107 A JP 2020009107A
Authority
JP
Japan
Prior art keywords
notification
unit
moving object
evacuation guidance
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018129134A
Other languages
Japanese (ja)
Other versions
JP7073949B2 (en
Inventor
由紀 直井
Yuki Naoi
由紀 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2018129134A priority Critical patent/JP7073949B2/en
Publication of JP2020009107A publication Critical patent/JP2020009107A/en
Application granted granted Critical
Publication of JP7073949B2 publication Critical patent/JP7073949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To provide an evacuation guidance device, evacuation guidance system, and control program which, on the basis of an action pattern of a moving entity after a notification, properly performs succeeding notification.SOLUTION: An evacuation guidance device 200 includes an acquisition unit 210 that acquires moving entity information obtained by measuring a moving entity in a predetermined area, an analysis unit 220 that analyzes an action pattern of the moving entity on the basis of the acquired moving entity information, and a decision unit 240 that determines the contents of notification on the basis of the action pattern, which is analyzed by the analysis unit 220, after a notification unit 300 has made the first notification, and implements control so that the notification unit 300 makes the second notification to the moving entity using the determined contents of notification.SELECTED DRAWING: Figure 1

Description

本発明は、避難誘導装置、避難誘導システム、および制御プログラムに関する。   The present invention relates to an evacuation guidance device, an evacuation guidance system, and a control program.

従来から、検知エリア内を検知する超音波センサー、光センサー、等の検知センサーにより、車両や通行者等の移動体を検知して、音響、音声、光の点灯もしくは点滅、文字または画像の表示、または振動等によって検知エリア内への移動体の進入を報知する技術が知られている。   Conventionally, moving objects such as vehicles and pedestrians are detected by detection sensors such as ultrasonic sensors and light sensors that detect the inside of the detection area, and sound, voice, lighting or blinking of light, display of characters or images There is known a technique of notifying a moving object of entering a detection area by vibration or vibration.

特許文献1では、本来検知対象としない動体をも検知することにより、不必要な報知を行うことを避けるために、マイクロ波等を利用したドップラー方式の複数のレーダーにより、移動体の絶対距離、速度および移動方向をそれぞれ計測する。そして、計測した移動体の絶対距離、速度および移動方向が予め設定された範囲内にある場合に限って報知を行う技術が開示されている。   In Patent Document 1, in order to avoid unnecessary notification by detecting a moving object which is not originally a detection target, a plurality of Doppler radars using microwaves or the like are used to detect the absolute distance of the moving object, Measure the speed and the direction of movement respectively. Then, there is disclosed a technique of notifying only when the measured absolute distance, speed, and moving direction of the moving object are within a preset range.

特開2004−192097号公報JP-A-2004-192097

しかしながら、特許文献1の技術では、移動体の絶対距離、速度および移動方向によって、報知を行っているため、報知が有効に機能していない場合がある。例えば、高速道路等の歩行者の立ち入りが禁止されている危険領域において、進入した歩行者の認知能力が十分でない場合には、報知したとしてもその報知が有効に機能しない虞がある。   However, in the technique of Patent Document 1, the notification is performed based on the absolute distance, the speed, and the moving direction of the moving object, and thus the notification may not function effectively. For example, in a dangerous area such as an expressway where pedestrians are prohibited from entering, if the pedestrian who has entered is not sufficiently recognizable, the notification may not function effectively even if it is notified.

本発明は、このような問題を解決するためになされたものである。すなわち、報知後の動体の行動パターンに基づいて、次の報知を適切に行うことを目的とする。   The present invention has been made to solve such a problem. That is, an object is to appropriately perform the next notification based on the behavior pattern of the moving body after the notification.

本発明の上記目的は、下記の手段によって達成される。   The above object of the present invention is achieved by the following means.

(1)所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備える避難誘導装置。
(1) an acquisition unit that acquires moving body information obtained by measuring a moving body in a predetermined area;
Based on the obtained moving body information, an analysis unit that analyzes the behavior pattern of the moving body,
After the first notification by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. And a determination unit that controls
Evacuation guidance device provided with.

(2)前記判断部は、前記行動パターンの履歴を保持し、前記第1の報知の前後の前記行動パターンにより、前記第2の報知の報知内容を決定する、上記(1)に記載の避難誘導装置。   (2) The evacuation according to (1), wherein the determination unit retains a history of the action pattern and determines the content of the second notification based on the action pattern before and after the first notification. Guidance device.

(3)前記動体情報に基づいて、前記動体の種類を解析する種類解析部を備え、
前記種類解析部が判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記解析部は、前記動体に対する前記行動パターンの解析を行う、上記(1)または上記(2)に記載の避難誘導装置。
(3) a type analysis unit that analyzes a type of the moving object based on the moving object information;
If the type of the moving object determined by the type analysis unit is a specific type of moving object that is not allowed to enter the predetermined area, the analysis unit analyzes the behavior pattern for the moving object. (1) The evacuation guidance device according to (2).

(4)前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が判定した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、上記(1)から上記(3)のいずれかに記載の避難誘導装置。
(4) the acquisition unit acquires, as the moving object information, distance measurement point group data indicating a distribution of distance values to a moving object existing in the predetermined area;
The behavior pattern determined by the analysis unit includes a moving locus of the moving object, a moving speed of the moving object, a falling state of the moving object, a position of the moving object, and a set dangerous area, which are obtained from distance measurement point group data. The evacuation guidance device according to any one of (1) to (3), wherein at least one of the distances of the moving body to the evacuation guidance device is included.

(5)前記取得部は、前記所定領域内を撮影した画像データを取得し、
さらに、前記取得部が取得した前記画像データから、前記動体の属性を解析する属性解析部を備え、
前記属性解析部が解析した前記動体の属性、および前記解析部が判定した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、上記(1)から上記(4)のいずれかに記載の避難誘導装置。
(5) the acquiring unit acquires image data obtained by photographing the inside of the predetermined area;
Further, from the image data acquired by the acquisition unit, comprises an attribute analysis unit for analyzing the attributes of the moving object,
The notification content of the second notification is determined based on the attribute of the moving object analyzed by the attribute analysis unit and the behavior pattern determined by the analysis unit. The evacuation guidance device according to item 1.

(6)前記報知部は1種類以上の複数の報知部であり、
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御する、上記(1)から上記(5)のいずれかに記載の避難誘導装置。
(6) The notification unit is one or more types of notification units,
The determination unit selects the notification unit together with the notification content according to the action pattern, and controls the selected notification unit to perform a second notification to the moving object. The evacuation guidance device according to any one of (5).

(7)複数の前記報知部は、異なる位置に配置された複数の報知部であり、
前記取得部は、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記判断部は、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位値により、前記報知部の選択を行う、上記(6)に記載の避難誘導装置。
(7) The plurality of notification units are a plurality of notification units arranged at different positions,
The acquisition unit acquires, as the moving object information, distance measurement point group data indicating a distribution of distance values to an object in the predetermined region acquired from the distance measurement unit that measures the inside of the predetermined region,
The evacuation guidance device according to (6), wherein the determination unit selects the notification unit based on a movement locus of the moving object or a position value of the moving object obtained from the ranging point group data.

(8)測定することで、所定領域内の動体の動体情報を生成する動体情報測定部と、
報知部と、
前記動体情報測定部から取得した動体情報を用いて、前記報知部により前記動体への報知を行う、上記(1)から上記(7)のいずれかに記載の避難誘導装置と、
を備える避難誘導システム。
(8) a moving body information measuring unit that generates moving body information of a moving body in a predetermined area by measuring;
The reporting department,
The evacuation guidance device according to any one of (1) to (7), wherein the notification unit notifies the moving body using the moving body information acquired from the moving body information measurement unit,
Evacuation guidance system equipped with.

(9)所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で判定した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含む処理をコンピューターに実行させるための制御プログラム。
(9) A control program for controlling an evacuation guidance device that performs evacuation guidance for a moving body in a predetermined area,
(A) acquiring moving body information obtained by measuring a moving body in a predetermined area;
(B) analyzing an action pattern of the moving object based on the obtained moving object information;
(C) performing a first notification to the moving body by a notification unit;
(D) determining, after step (c), notification contents based on the action pattern determined in step (b);
(E) performing a second notification to the moving object based on the determined notification content;
A control program that causes a computer to execute processing that includes

本発明に係る避難誘導装置は、報知部により第1の報知をした後、解析部が解析した、所定領域内の動体の行動パターンに基づいて報知内容を決定し、決定した報知内容で、報知部により動体への第2の報知を行う。これにより、報知後の動体の行動パターンに基づいて、次の報知を適切に行える。   The evacuation guidance device according to the present invention, after performing the first notification by the notification unit, determines the notification content based on the behavior pattern of the moving object in the predetermined area analyzed by the analysis unit, and performs the notification based on the determined notification content. The second notification is made to the moving body by the unit. Thereby, the next notification can be appropriately performed based on the behavior pattern of the moving body after the notification.

本実施形態に係る避難誘導システムの構成を示すブロック図である。It is a block diagram showing the composition of the evacuation guidance system concerning this embodiment. ライダーの概略構成を示す断面図である。It is sectional drawing which shows the schematic structure of a rider. ライダーによって監視領域内を走査する状態を示す模式図である。It is a schematic diagram which shows the state which scans the inside of a monitoring area by a rider. 測距点群データにより検出した動体の各時刻での位置情報データの例である。It is an example of the positional information data at each time of the moving object detected by the ranging point group data. 監視領域を適用した高速道路入口周辺を示す図である。It is a figure showing the circumference of an expressway entrance to which a monitoring field is applied. 高速道路入口での監視領域を示す模式図である。It is a schematic diagram which shows the monitoring area at the entrance of a highway. 第1の実施形態における報知処理を示すフローチャートである。It is a flowchart which shows the alerting | reporting process in 1st Embodiment. カメラの画像データから判別した歩行者属性の例を示す図である。It is a figure showing an example of a pedestrian attribute judged from image data of a camera. 監視領域内の歩行者A〜Dの移動軌跡の例を示す図である。It is a figure showing an example of a locus of movement of pedestrians A-D in a monitoring area. 図9Aに対応する歩行者A〜Dの移動速度の変化を示す図である。It is a figure which shows the change of the moving speed of pedestrians A-D corresponding to FIG. 9A. 歩行者A〜Dへの1回目の報知の効果判定結果の例を示す図である。It is a figure which shows the example of the effect determination result of the 1st notification to pedestrians A-D. 歩行者A〜Dへの2回目の報知における報知内容の例を示す図である。It is a figure which shows the example of the notification content in the 2nd notification to pedestrians A-D. 歩行者A〜Dへの2回目の報知の効果判定結果の例、および3回目の報知における報知内容の例を示す図である。It is a figure which shows the example of the effect determination result of the 2nd notification to pedestrians A-D, and the example of the notification content in the 3rd notification. 高速道路入口の監視領域に複数の報知部を配置した例を示す図である。It is a figure showing the example which arranged a plurality of information parts in the monitoring area of the expressway entrance. 第2の実施形態における報知処理を示すフローチャートである。It is a flowchart which shows the alerting | reporting process in 2nd Embodiment.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements will be denoted by the same reference symbols, without redundant description. In addition, the dimensional ratios in the drawings are exaggerated for convenience of description, and may be different from the actual ratios.

図1は、避難誘導システム10の構成を示すブロック図である。避難誘導システム10は、入力部100、避難誘導装置200、および報知部300を有する。避難誘導装置200は、例えば、コンピューターであり、CPU(Central Processing Unit)、メモリ(半導体メモリ、磁気記録媒体(ハードディスク等))、入出力部(ディスプレイ、キーボード、等)、通信I/F(interface)等を備える。通信I/Fは、外部機器と通信するためのインターフェースである。通信には、イーサネット(登録商標)、SATA、PCI Express、USB、IEEE1394などの規格によるネットワークインターフェースが用いてもよい。また、通信には、Bluetooth(登録商標)、IEEE802.11、4Gなどの無線通信インターフェースを用いてもよい。   FIG. 1 is a block diagram showing a configuration of the evacuation guidance system 10. As shown in FIG. The evacuation guidance system 10 includes an input unit 100, an evacuation guidance device 200, and a notification unit 300. The evacuation guidance device 200 is, for example, a computer, and includes a CPU (Central Processing Unit), a memory (semiconductor memory, a magnetic recording medium (hard disk or the like)), an input / output unit (display, keyboard, or the like), a communication I / F (interface). ) Etc. The communication I / F is an interface for communicating with an external device. For communication, a network interface based on standards such as Ethernet (registered trademark), SATA, PCI Express, USB, and IEEE1394 may be used. For communication, a wireless communication interface such as Bluetooth (registered trademark), IEEE 802.11, or 4G may be used.

(入力部100)
入力部100は、ライダー(LiDAR:Light Detection and Ranging)110、およびカメラ120を含む。入力部100は、ライダー110のみにより構成されてもよい。カメラ120は、例えば、可視光カメラにより構成される。カメラ120は、サーマルカメラにより構成されてもよい。以下においては、入力部100はライダー110およびカメラ120により構成されるものとして説明する。
(Input unit 100)
The input unit 100 includes a rider (Light Detection and Ranging) 110 (LiDAR) and a camera 120. The input unit 100 may include only the rider 110. The camera 120 is constituted by, for example, a visible light camera. The camera 120 may be constituted by a thermal camera. Hereinafter, the input unit 100 will be described as being configured by the rider 110 and the camera 120.

入力部100は、測距部としてのライダー110により、監視領域(所定領域)内の対象物(動体)までの距離を測定し、監視領域内の距離値の分布を示す測距点群データを生成する。ライダー110は、「動体情報測定部」として機能し、生成した測距点群データは、所定領域内の動体を測定した動体情報に相当する。カメラ120により監視領域内を撮影し可視光の画像データを生成する。   The input unit 100 measures a distance to a target (moving body) in a monitoring area (predetermined area) by a rider 110 as a distance measuring unit, and outputs ranging point group data indicating a distribution of distance values in the monitoring area. Generate. The rider 110 functions as a “moving object information measurement unit”, and the generated ranging point group data corresponds to moving object information obtained by measuring a moving object in a predetermined area. The monitoring area is photographed by the camera 120 to generate visible light image data.

(ライダー110)
以下、図2、図3を参照し、ライダー110の構成について説明する。図2は、ライダー110の概略構成を示す断面図である。図3は、ライダー110によって監視領域内を走査する状態を示す模式図である。ライダー110は、投受光ユニット111、および測距点群データ生成部112を有する。投受光ユニット111は、半導体レーザー51、コリメートレンズ52、ミラーユニット53、レンズ54、フォトダイオード55、およびモーター56、ならびにこれらの各構成部材を収容する筐体57を有する。投受光ユニット111は、レーザースポット光500によりライダー110の監視空間内を走査することで得られた各画素の受光信号を出力する。測距点群データ生成部112は、この受光信号に基づいて、測距点群データを生成する。この測距点群データは距離画像、または距離マップとも称される。
(Rider 110)
Hereinafter, the configuration of the rider 110 will be described with reference to FIGS. FIG. 2 is a cross-sectional view illustrating a schematic configuration of the rider 110. FIG. 3 is a schematic diagram showing a state where the rider 110 scans the inside of the monitoring area. The rider 110 includes a light emitting / receiving unit 111 and a ranging point group data generation unit 112. The light emitting and receiving unit 111 has a semiconductor laser 51, a collimating lens 52, a mirror unit 53, a lens 54, a photodiode 55, a motor 56, and a housing 57 that houses these components. The light emitting and receiving unit 111 outputs a light receiving signal of each pixel obtained by scanning the monitoring space of the rider 110 with the laser spot light 500. The ranging point group data generator 112 generates ranging point group data based on the received light signal. The ranging point group data is also called a distance image or a distance map.

半導体レーザー51は、パルス状のレーザー光束を出射する。コリメートレンズ52は、半導体レーザー51からの発散光を平行光に変換する。ミラーユニット53は、コリメートレンズ52で平行とされたレーザー光を、回転するミラー面により監視領域に向かって走査投光するとともに、対象物からの反射光を反射させる。レンズ54は、ミラーユニット53で反射された対象物からの反射光を集光する。フォトダイオード55は、レンズ54により集光された光を受光し、Z方向に並んだ複数の画素を有する。モーター56はミラーユニット53を回転駆動する。   The semiconductor laser 51 emits a pulsed laser beam. The collimator lens 52 converts divergent light from the semiconductor laser 51 into parallel light. The mirror unit 53 scans and projects the laser beam collimated by the collimating lens 52 toward the monitoring area by the rotating mirror surface, and reflects the reflected light from the object. The lens 54 collects the reflected light from the object reflected by the mirror unit 53. The photodiode 55 receives the light collected by the lens 54 and has a plurality of pixels arranged in the Z direction. The motor 56 drives the mirror unit 53 to rotate.

測距点群データ生成部112は、これらの半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報(距離値)を求める。測距点群データ生成部112は、CPU(Central Processing Unit)とメモリで構成され、メモリに記憶しているプログラムを実行することにより各種の処理を実行することによって測距点群データを求めるが、測距点群データ生成用の専用ハードウエア回路を備えてもよい。また、測距点群データ生成部112は、上述の避難誘導装置200の1つの機能として、解析部220(後述)に統合されてもよい。   The ranging point group data generator 112 obtains distance information (distance value) according to the time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55. The ranging point group data generation unit 112 includes a CPU (Central Processing Unit) and a memory, and executes ranging programs by executing a program stored in the memory to obtain ranging point group data. And a dedicated hardware circuit for generating ranging point group data. In addition, the ranging point group data generation unit 112 may be integrated with an analysis unit 220 (described later) as one function of the above-described evacuation guidance device 200.

本実施形態において、半導体レーザー51とコリメートレンズ52とで出射部501を構成し、レンズ54とフォトダイオード55とで受光部502を構成する。出射部501、受光部502の光軸は、ミラーユニット53の回転軸530に対して直交していることが好ましい。   In the present embodiment, the emission section 501 is constituted by the semiconductor laser 51 and the collimating lens 52, and the light receiving section 502 is constituted by the lens 54 and the photodiode 55. It is preferable that the optical axes of the light emitting unit 501 and the light receiving unit 502 are orthogonal to the rotation axis 530 of the mirror unit 53.

剛体である壁91等に固定して設置されたボックス状の筐体57は、上壁57aと、これに対向する下壁57bと、上壁57aと下壁57bとを連結する側壁57cとを有する。側壁57cの一部に開口57dが形成され、開口57dには透明板58が取り付けられている。   The box-shaped housing 57 fixed and installed on the rigid wall 91 or the like includes an upper wall 57a, a lower wall 57b opposed thereto, and a side wall 57c connecting the upper wall 57a and the lower wall 57b. Have. An opening 57d is formed in a part of the side wall 57c, and a transparent plate 58 is attached to the opening 57d.

ミラーユニット53は、2つの四角錐を逆向きに接合して一体化した形状を有し、すなわち対になって向き合う方向に傾いたミラー面531a、531bを4対(但し4対に限られない)有している。ミラー面531a、531bは、ミラーユニットの形状をした樹脂素材(例えばPC(ポリカーボネート))の表面に、反射膜を蒸着することにより形成されていることが好ましい。   The mirror unit 53 has a shape in which two quadrangular pyramids are joined in opposite directions to be integrated, that is, four pairs of mirror surfaces 531a and 531b that are inclined in a pair facing direction (however, not limited to four pairs) ) Have. The mirror surfaces 531a and 531b are preferably formed by depositing a reflective film on the surface of a resin material (for example, PC (polycarbonate)) in the shape of a mirror unit.

ミラーユニット53は、筐体57に固定されたモーター56の軸56aに連結され、回転駆動されるようになっている。本実施形態では、例えば、壁91に設置された状態で、軸56aの軸線(回転軸線)が鉛直方向であるZ方向に延在しており、Z方向に直交するX方向およびY方向によりなすXY平面が水平面となっているが、軸56aの軸線を鉛直方向に対して傾けてもよい。   The mirror unit 53 is connected to a shaft 56a of a motor 56 fixed to a housing 57, and is driven to rotate. In the present embodiment, for example, when installed on the wall 91, the axis (rotation axis) of the shaft 56a extends in the vertical Z direction, and is formed in the X direction and the Y direction orthogonal to the Z direction. Although the XY plane is a horizontal plane, the axis of the shaft 56a may be inclined with respect to the vertical direction.

次に、ライダー110の対象物検出原理について説明する。図2において、半導体レーザー51からパルス状に間欠的に出射された発散光は、コリメートレンズ52で平行光束に変換され、回転するミラーユニット53の第1ミラー面531aに入射する。その後、第1ミラー面531aで反射され、さらに第2ミラー面531bで反射した後、透明板58を透過して外部の測定空間に向けて、例えば縦長の矩形断面を持つレーザースポット光として走査投光される。なお、レーザースポット光が出射される方向と、出射されたレーザースポット光が対象物で反射し、反射光として戻ってくる方向は重複し、この重複する2方向を投受光方向という。同一の投受光方向に進行するレーザースポット光は、同一の画素で検出される。   Next, the principle of detecting an object by the rider 110 will be described. In FIG. 2, divergent light emitted intermittently in a pulse form from a semiconductor laser 51 is converted into a parallel light beam by a collimator lens 52 and is incident on a first mirror surface 531 a of a rotating mirror unit 53. After that, the light is reflected by the first mirror surface 531a and further reflected by the second mirror surface 531b, and then transmitted through the transparent plate 58 and is projected toward an external measurement space, for example, as a laser spot light having a vertically long rectangular cross section. Be lighted. The direction in which the laser spot light is emitted and the direction in which the emitted laser spot light is reflected by the object and returned as reflected light overlap, and the two overlapping directions are referred to as the light emitting and receiving directions. Laser spot light traveling in the same light emitting and receiving direction is detected by the same pixel.

図3は、ミラーユニット53の回転に応じて、出射するレーザースポット光500(ハッチングで示す)で、監視領域内を走査する状態を示す図である。ここで、ミラーユニット53の対のミラー(第1ミラー面531aと第2ミラー面531b)の組み合わせにおいて、4対はそれぞれ交差角が異なっている。レーザー光は、回転する第1ミラー面531aと第2ミラー面531bにて、順次反射される。まず1番対の第1ミラー面531aと第2ミラー面531bにて反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の一番上の領域Ln1を水平方向に左から右へと走査される。次に、2番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から2番目の領域Ln2を水平方向に左から右へと走査される。次に、3番対の第1ミラー面531aと第2ミラー面531bで反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の上から3番目の領域Ln3を水平方向に左から右へと走査される。次に、4番対の第1ミラー面531aと第2ミラー面で反射したレーザー光は、ミラーユニット53の回転に応じて、測定空間の最も下の領域Ln4を水平方向に左から右へと走査される。これによりライダー110が測定可能な測定空間全体の1回の走査が完了する。この領域Ln1〜Ln4の走査により得られた画像を組み合わせて、1つのフレーム900が得られる。そして、ミラーユニット53が1回転した後、再び1番対の第1ミラー面531aと第2ミラー面531bに戻り、以降は測定空間の一番上の領域Ln1から最も下の領域Ln4までの走査を繰り返し、次のフレーム900が得られる。   FIG. 3 is a diagram illustrating a state in which the laser spot light 500 (indicated by hatching) emitted in accordance with the rotation of the mirror unit 53 scans the monitoring area. Here, in the combination of the pair of mirrors (first mirror surface 531a and second mirror surface 531b) of mirror unit 53, the four pairs have different crossing angles. The laser light is sequentially reflected by the rotating first mirror surface 531a and the rotating second mirror surface 531b. First, the laser light reflected by the first pair of the first mirror surface 531a and the second mirror surface 531b moves the uppermost region Ln1 of the measurement space horizontally from left to right according to the rotation of the mirror unit 53. Is scanned. Next, the laser light reflected by the second pair of the first mirror surface 531a and the second mirror surface 531b moves the second region Ln2 from the top in the measurement space horizontally from the left in accordance with the rotation of the mirror unit 53. Scanned to the right. Next, the laser light reflected by the third pair of the first mirror surface 531a and the second mirror surface 531b moves the third region Ln3 from the top in the measurement space horizontally from the left in accordance with the rotation of the mirror unit 53. Scanned to the right. Next, the laser beam reflected by the fourth pair of the first mirror surface 531a and the second mirror surface moves the lowermost region Ln4 of the measurement space horizontally from left to right in accordance with the rotation of the mirror unit 53. Scanned. This completes one scan of the entire measurement space where the rider 110 can measure. One frame 900 is obtained by combining the images obtained by scanning the areas Ln1 to Ln4. After one rotation of the mirror unit 53, the mirror unit 53 returns to the first pair of the first mirror surface 531a and the second mirror surface 531b again, and thereafter scans from the uppermost region Ln1 to the lowermost region Ln4 of the measurement space. Is repeated to obtain the next frame 900.

図2において、走査投光された光束のうち対象物に当たって反射したレーザー光の一部は、再び透明板58を透過して筐体57内のミラーユニット53の第2ミラー面531bに入射し、ここで反射され、さらに第1ミラー面531aで反射されて、レンズ54により集光され、それぞれフォトダイオード55の受光面で画素毎に検知される。さらに、測距点群データ生成部112が、半導体レーザー51の出射タイミングとフォトダイオード55の受光タイミングとの時間差に応じて距離情報を求める。これにより監視空間内の全領域で対象物の検出を行って、画素毎に距離情報を持つ測距点群データとしてのフレーム900(図3参照)を得ることができる。また、ユーザーの指示により、得られた測距点群データを背景画像データとして、測距点群データ生成部112内のメモリ、または避難誘導装置200のメモリに記憶してもよい。   In FIG. 2, a part of the laser beam that has been scanned and projected and reflected on the object passes through the transparent plate 58 again and is incident on the second mirror surface 531 b of the mirror unit 53 in the housing 57. Here, the light is reflected, further reflected by the first mirror surface 531a, collected by the lens 54, and detected by the light receiving surface of the photodiode 55 for each pixel. Further, the ranging point group data generation unit 112 obtains distance information according to a time difference between the emission timing of the semiconductor laser 51 and the light reception timing of the photodiode 55. As a result, the object is detected in the entire area in the monitoring space, and a frame 900 (see FIG. 3) as distance measurement point group data having distance information for each pixel can be obtained. Further, according to a user's instruction, the obtained ranging point group data may be stored as background image data in a memory in the ranging point group data generation unit 112 or a memory of the evacuation guidance device 200.

(避難誘導装置200)
再び図1を参照し、避難誘導装置200の構成について説明する。避難誘導装置200は、取得部210、解析部220、データベース230、判断部240を含む。主に、上述の避難誘導装置200のCPUが解析部220および判断部240として機能し、メモリがデータベース230として機能し、通信I/Fが取得部210として機能する。
(Evacuation guidance device 200)
Referring to FIG. 1 again, the configuration of the evacuation guidance device 200 will be described. The evacuation guidance device 200 includes an acquisition unit 210, an analysis unit 220, a database 230, and a determination unit 240. Mainly, the CPU of the above-described evacuation guidance device 200 functions as the analysis unit 220 and the determination unit 240, the memory functions as the database 230, and the communication I / F functions as the acquisition unit 210.

(取得部210)
取得部210は、入力部100から、ライダー110が生成した時系列に並んだ測距点群データ(「動体情報」ともいう)取得し、取得した測距点群データを解析部220に送る。また、取得部210は、入力部100から、カメラ120が生成した画像データを取得し、解析部220に送る。
(Acquisition unit 210)
The acquisition unit 210 acquires the ranging point group data (also referred to as “moving object information”) arranged in time series generated by the rider 110 from the input unit 100, and sends the acquired ranging point group data to the analysis unit 220. Further, the acquisition unit 210 acquires the image data generated by the camera 120 from the input unit 100 and sends the image data to the analysis unit 220.

(解析部220)
解析部220は、動体種類解析部221、歩行特性解析部222、および歩行者属性解析部223を含む。
(Analysis unit 220)
The analysis unit 220 includes a moving object type analysis unit 221, a walking characteristic analysis unit 222, and a pedestrian attribute analysis unit 223.

ここで、背景差分法を用いた、ライダー110の測定対象物の検知アルゴリズムについて説明する。本実施形態では、例えば背景差分法を採用する。この背景差分法では、予め生成し、保存しておいた背景画像(基準画像ともいう)を用いる。具体的には、測定の前準備(前処理)として、ユーザーの指示により、人間や動物等の移動物体が存在しない状態で、ライダー110からレーザースポット光500を走査する。これにより背景対象物92から得られた反射光に基づいて、背景画像を得ることができる。実際の測定時においては、背景対象物92の手前に行動解析の対象者である物体として例えば歩行者93が現れた場合、歩行者93からの反射光が新たに生じる。   Here, an algorithm for detecting the measurement target of the rider 110 using the background subtraction method will be described. In the present embodiment, for example, a background difference method is employed. In the background subtraction method, a background image (also referred to as a reference image) generated and stored in advance is used. Specifically, as preparation for measurement (pre-processing), the laser spot light 500 is scanned from the rider 110 by a user's instruction in a state where no moving object such as a human or an animal exists. Thus, a background image can be obtained based on the reflected light obtained from the background object 92. At the time of actual measurement, if, for example, a pedestrian 93 appears as an object to be analyzed for behavior before the background target object 92, reflected light from the pedestrian 93 is newly generated.

動体種類解析部221は、動体を検出する機能を有する。動体種類解析部221はメモリに保持している背景画像データと現時点での測距点群データとを比較して、差が生じた場合、歩行者等の何らかの動体(物体)が監視空間内に現れたことを認識できる。例えば、背景差分法を用いて、背景データと、現時点での測距点群データ(距離画像データ)とを比較することで、前景データを抽出する。そして抽出した前景データの画素(画素群)を、例えば画素の距離値に応じてクラスタに分ける。そして、各クラスタのサイズを算定する。例えば、垂直方向寸法、水平方向寸法、総面積等を算出する。なお、ここでいう「サイズ」は、実寸法であり、見た目上の大きさ(画角、すなわち画素の広がり)とは異なり、対象物までの距離に応じて画素群の塊が判断される。例えば、動体種類解析部221は算定したサイズが抽出対象の解析対象の動体を特定するための所定のサイズ閾値以下か否か判定する。サイズ閾値は、測定場所や行動解析対象等により任意に設定できる。歩行者を追跡して行動を解析するのであれば、通常の人の大きさの最小値を、クラスタリングする場合のサイズ閾値とすればよい。逆にあらゆる動体を追跡するのであれば、サイズ閾値はこれよりも小さな値としてもよい。   The moving object type analysis unit 221 has a function of detecting a moving object. The moving object type analysis unit 221 compares the background image data stored in the memory with the current distance measuring point group data, and if a difference occurs, any moving object (object) such as a pedestrian enters the monitoring space. You can recognize what has appeared. For example, the foreground data is extracted by comparing the background data with the current ranging point group data (distance image data) using the background subtraction method. Then, the pixels (pixel groups) of the extracted foreground data are divided into clusters according to, for example, distance values of the pixels. Then, the size of each cluster is calculated. For example, a vertical dimension, a horizontal dimension, a total area, and the like are calculated. Here, the “size” is an actual size, which is different from the apparent size (angle of view, that is, the spread of pixels), and a lump of pixel groups is determined according to the distance to the object. For example, the moving object type analysis unit 221 determines whether or not the calculated size is equal to or smaller than a predetermined size threshold value for specifying a moving object to be analyzed to be extracted. The size threshold can be arbitrarily set depending on the measurement place, the behavior analysis target, and the like. If the behavior is analyzed by tracking a pedestrian, the minimum value of the size of a normal person may be set as the size threshold for clustering. Conversely, if all moving objects are to be tracked, the size threshold may be a smaller value.

動体種類解析部221は、「種類解析部」として機能し、クラスタリングした動体のサイズ、縦横比、等を、予め保存しておいたメモリ内の基準データと比較することにより、動体の種類を判別する。判別する動体の種類には、人(歩行者)、車両(4輪、2輪車)が含まれる。また、このときサイズのみでは判別が難しい物体の場合には、さらに移動速度を算出し、移動速度を組み合わせて、動体の種類を判別してもよい。例えば、高速道路を通行可能な2輪車のオートバイと、通行が禁止される自転車の判別に、サイズと移動速度により判別する。   The moving object type analysis unit 221 functions as a “type analysis unit”, and determines the type of the moving object by comparing the size, aspect ratio, and the like of the clustered moving object with reference data stored in a memory stored in advance. I do. The types of moving objects to be determined include a person (pedestrian) and a vehicle (four-wheeled, two-wheeled vehicle). Further, at this time, in the case of an object that is difficult to determine only by the size, the moving speed may be further calculated, and the type of the moving object may be determined by combining the moving speeds. For example, two-wheeled motorcycles that can pass on a highway and bicycles whose passage is prohibited are determined based on size and moving speed.

歩行特性解析部222は、動体の行動パターン(移動特性)を解析する。図4は、測距点群データにより検出した動体の各時刻での位置情報データの例である。検出された各動体を動体ID(歩行者ID)で管理する。歩行特性解析部222は、時系列の動体毎の位置情報を解析することで行動パターンを解析する。行動パターンには、測距点群データにより求めた、動体の移動軌跡、動体の移動速度、動体の転倒状態、動体の位置、および、設定した危険領域までの動体の距離の少なくとも1つが含まれる。この解析に用いる動体の位置は、クラスタリングした動体の中心値、または重心値を用いてもよく、また、動体を矩形によりクラスタリングするのであれば、その矩形の中心を動体の位置として用いてもよい。動体の転倒状態は、動体が歩行者と判別した場合に用いるものであり、動体の中心位置の地面からの高さが急激に低下した場合、または縦横比(横に対する縦の割合)が急激に低下した場合、あるいはその状態が維持された場合には、転倒状態と判断する。危険領域の設定は、予め設定するものであり、例えば高速道路本線を危険領域に設定する。   The walking characteristic analysis unit 222 analyzes the behavior pattern (movement characteristic) of the moving object. FIG. 4 is an example of position information data at each time of a moving object detected by the ranging point group data. Each detected moving object is managed by a moving object ID (pedestrian ID). The walking characteristic analysis unit 222 analyzes a behavior pattern by analyzing time-series position information for each moving object. The action pattern includes at least one of the moving trajectory of the moving object, the moving speed of the moving object, the falling state of the moving object, the position of the moving object, and the distance of the moving object to the set dangerous area, obtained from the distance measurement point group data. . As the position of the moving object used in this analysis, the center value or the center of gravity of the clustered moving object may be used, and if the moving object is clustered by a rectangle, the center of the rectangle may be used as the position of the moving object. . The falling state of the moving object is used when the moving object is determined to be a pedestrian, and when the height of the center position of the moving object from the ground suddenly decreases, or the aspect ratio (the ratio of the height to the width) sharply changes. If it has fallen, or if that state has been maintained, it is determined that it has fallen. The setting of the dangerous area is set in advance, and for example, the main road of the highway is set as the dangerous area.

本実施形態においては、特に動体種類解析部221が、動体の種類を歩行者93と判別した場合に、行動パターンとして、その歩行者93の移動速度(歩行速度)、軌跡を解析する。   In the present embodiment, in particular, when the moving object type analysis unit 221 determines the type of the moving object as the pedestrian 93, the moving speed (walking speed) and the trajectory of the pedestrian 93 are analyzed as an action pattern.

歩行者属性解析部223は、「属性解析部」として機能し、主に、カメラ120から取得した画像データから動体の属性を解析する。具体的には、2次元の画像データを解析することで、歩行者を抽出するとともに、歩行者の属性を解析する。解析項目には、性別、年齢、人種が含まれる。また、歩行者の属性として、さらに杖、車椅子、キャリーバッグ等の携帯品を判別してもよい。携帯品の判別は、予め、歩行者属性解析部223に携帯品になり得る物体の形状、サイズを登録しておき、その登録データとマッチングさせることで判別できる。   The pedestrian attribute analysis unit 223 functions as an “attribute analysis unit”, and mainly analyzes attributes of a moving object from image data acquired from the camera 120. Specifically, the pedestrian is extracted by analyzing the two-dimensional image data, and the attribute of the pedestrian is analyzed. Analysis items include gender, age, and race. Further, as the attribute of the pedestrian, portable items such as a cane, a wheelchair, and a carry bag may be further determined. The determination of a portable item can be made by registering the shape and size of an object that can be a portable item in the pedestrian attribute analysis unit 223 in advance and matching the registered data.

この解析には、物体の種類として人間と他の物体との判別、および判別した属性の判別が含まれる。例えば、性別、年齢、人種の認識においては、コンピューターは得られた画像データから顔を抽出し、抽出した顔の特徴量から、人物の属性を判別する。この判別アルゴリズは公知のアルゴリズムにより事前に機械学習することができる。この機械学習は、膨大なデータを用いて、事前に他の高性能なコンピューターで実施し、パラメータを決定する。歩行者属性解析部223はそのパラメータを用いて歩行者の属性の解析を行える。   This analysis includes discrimination between a human and another object as the object type and discrimination of the determined attribute. For example, in recognition of gender, age, and race, the computer extracts a face from the obtained image data, and determines the attribute of the person from the extracted face feature amount. This discrimination algorithm can be machine-learned in advance by a known algorithm. This machine learning is performed by using a large amount of data on another high-performance computer in advance to determine parameters. The pedestrian attribute analysis unit 223 can analyze the attribute of the pedestrian using the parameters.

また、歩行者属性解析部223は、歩行特性解析部222から歩行者の位置情報を受け、画像データとこの位置情報により歩行者の属性の解析を行ってもよい。例えば、ライダー110とカメラ120の光軸(監視領域)を一致させ、または、位置合わせのキャリブレーションを事前に行う。そして、測距点群データの解析により得られた歩行者の位置情報に該当する画像データから歩行者の身長等のサイズ、歩行速度、等を参照して、歩行者の属性を解析する。   Further, the pedestrian attribute analysis unit 223 may receive the pedestrian position information from the gait characteristic analysis unit 222, and may analyze the pedestrian attribute based on the image data and the position information. For example, the optical axis (monitoring area) of the rider 110 and the camera 120 are made to coincide, or calibration for positioning is performed in advance. Then, the attributes of the pedestrian are analyzed by referring to the size such as the height of the pedestrian, the walking speed, and the like from the image data corresponding to the pedestrian's position information obtained by analyzing the ranging point group data.

(データベース230)
データベース230は、歩行者データ保存部231、および報知内容保存部232を含む。歩行者データ保存部231には、歩行特性解析部222から送られた歩行者ID毎の歩行特性、および歩行者属性解析部223から送られた歩行者ID毎の歩行者属性を記憶する。報知内容保存部232は、歩行者ID毎の報知内容(報知内容に関する履歴情報)、および効果を記憶する。また、この報知内容、効果について、履歴管理する。この報知内容、および効果については後述する。
(Database 230)
The database 230 includes a pedestrian data storage unit 231 and a notification content storage unit 232. The pedestrian data storage unit 231 stores the walking characteristics for each pedestrian ID sent from the walking characteristics analysis unit 222 and the pedestrian attributes for each pedestrian ID sent from the pedestrian attribute analysis unit 223. The notification content storage unit 232 stores the notification content (history information regarding the notification content) and the effect for each pedestrian ID. In addition, the history of the notification contents and effects is managed. This notification content and effects will be described later.

(判断部240)
判断部240は、報知内容決定部241、および報知効果判定部242を含み、報知内容を決定し、決定した内容で報知するように報知部300を制御する。報知内容決定部241は、歩行者データ保存部231に記憶されている歩行特性(歩行パターン)、および報知効果判定部242の判定結果により、報知内容を決定する。報知効果判定部242は、歩行者データ保存部231に記憶されている歩行者ID毎の歩行特性、および歩行者属性、ならびに報知内容保存部232に記憶されている歩行者ID毎の報知内容(報知内容に関する履歴情報)、および効果により報知効果の有無を判定する。
(Determining unit 240)
The determination unit 240 includes a notification content determination unit 241 and a notification effect determination unit 242, determines the notification content, and controls the notification unit 300 to notify based on the determined content. The notification content determination unit 241 determines the notification content based on the walking characteristics (walking pattern) stored in the pedestrian data storage unit 231 and the determination result of the notification effect determination unit 242. The notification effect determination unit 242 determines the walking characteristics and pedestrian attributes for each pedestrian ID stored in the pedestrian data storage unit 231 and the notification content for each pedestrian ID stored in the notification content storage unit 232 ( The presence / absence of the notification effect is determined based on the history information regarding the notification content) and the effect.

(報知部300)
報知部300は、スピーカー310、およびサイネージ320の2種類の報知手段を含む。スピーカー310、またはサイネージ320のそれぞれは複数であってもよい。また、報知部300は、スピーカー310、またはサイネージ320のどちらか1種類のみで構成されていてもよい。スピーカー310は、報知内容決定部241が決定した報知内容に応じた音声を発する。サイネージ320はデジタルサイネージ(Digital Signage)であり、液晶ディスプレイまたは複数のLEDを2次元状に配置した表示部により、報知内容に応じた文字や映像を表示する。
(Notification unit 300)
The notification unit 300 includes two types of notification means, a speaker 310 and a signage 320. Each of the speaker 310 and the signage 320 may be plural. The notification unit 300 may be configured with only one of the speaker 310 and the signage 320. The speaker 310 emits a sound according to the notification content determined by the notification content determination unit 241. The signage 320 is a digital signage, and displays a character or an image according to the content of the notification on a liquid crystal display or a display unit in which a plurality of LEDs are arranged two-dimensionally.

(避難誘導システム10の適用例)
図5は、避難誘導システム10の監視領域を適用した高速道路入口周辺を示す図である。図6は、高速道路入口での監視領域を示す模式図である。
(Example of application of the evacuation guidance system 10)
FIG. 5 is a diagram showing the vicinity of the entrance of an expressway to which the monitoring area of the evacuation guidance system 10 is applied. FIG. 6 is a schematic diagram showing a monitoring area at the entrance of an expressway.

近年、歩行者や自転車の高速道路への立ち入りが社会問題になっている。一般に、高速道路等の危険領域には、許可される車両以外の進入を防止するために、出入り口付近に標識を設置し、歩行者やドライバーへの注意喚起をする等、様々な対策が取られている。また、公知文献1(特開2004−192097号公報)のような移動体の移動方向、移動速度が、設定範囲内にある場合に限って一定の報知を行うような従来の技術においても、高速道路入口に歩行者が進入した場合にも、同様に進入を防止するための報知を行うことができる。   In recent years, entry of pedestrians and bicycles on expressways has become a social problem. In general, various measures are taken in danger areas such as expressways, such as installing signs near entrances and warning pedestrians and drivers to prevent entry of vehicles other than permitted vehicles. ing. Further, even in a conventional technique in which the moving direction and the moving speed of the moving body are in a predetermined range only when the moving direction and the moving speed of the moving body are within a set range as in the known document 1 (Japanese Patent Application Laid-Open No. 2004-192097), the speed is high. Similarly, when a pedestrian enters a road entrance, a notification for preventing the entry can be made.

しかしながら、標識設置や公知文献1に開示された技術では、下記の(1)〜(5)のような理由により高速道路に誤って侵入した人が、適切な判断に基づいて避難できず、他者を巻き込んだ新たな事故の原因となってしまうという虞があった。
(1)高速道路上に避難誘導の案内がない。
(2)立ち入り者がパニック状態に陥る、認知症である、酩酊状態である、等で、認知/思考能力に課題があり、高速道路上の避難誘導を認識/理解できず、また適切な避難行動を取ることができない。
(3)立ち入り者の日本語能力が不十分等の理由で、避難誘導表示が、立ち入り者が理解できる言語で表記、通知されておらず、理解することができない。
(4)高速道路上では、迅速な避難が必要であるが、警備員、誘導員が現場まで出向く時間の余裕がない。
(5)高速道路上では、料金所の前後、車道、路肩、カーブの有無などの領域によって危険度が異なるが、立ち入った人がより危険な領域に近づいているのか遠ざかっているのかを詳細に把握することが難しいため、領域毎に一律の避難誘導内容となり、より適切な誘導効果を得ることができない。
However, according to the sign installation and the technology disclosed in the known document 1, a person who has accidentally entered the expressway due to the following reasons (1) to (5) cannot be evacuated based on an appropriate judgment. There is a risk that a new accident involving a person may be caused.
(1) There is no evacuation guidance on the highway.
(2) There is a problem with cognitive / thinking abilities due to panic, dementia, drunkenness, etc., making it impossible to recognize / understand the evacuation guidance on the expressway and appropriate evacuation. Can't take action.
(3) The evacuation guidance display is not written or notified in a language that the resident can understand because the resident's Japanese ability is insufficient, and the resident cannot understand it.
(4) It is necessary to evacuate quickly on the expressway, but there is no time for security guards and guides to go to the site.
(5) On an expressway, the degree of danger varies depending on the area before and after the tollgate, the roadway, the shoulder, the presence or absence of a curve, etc., but it is necessary to determine in detail whether a person approaching or approaching a more dangerous area. Since it is difficult to grasp, the evacuation guidance content is uniform for each area, and a more appropriate guidance effect cannot be obtained.

そこで、本実施形態においては、図6に示すように危険領域として、高速道路入口の進入路が監視領域となるように入力部100(ライダー110、カメラ120)を配置する。そして、以下に説明する報知処理により、高速道路入口のような歩行者にとって危険な領域からの避難誘導指示を行う。なお、ライダー110、カメラ120は、監視領域(測定領域/撮影領域)が略一致し、また、光軸が略一致するように配置され、位置合わせは行われている。また、ライダー110の測定領域、およびカメラ120の撮影領域が、進入路の外側に渡るような場合には、立ち入り禁止領域である進入路のみを監視領域とするように、予め設定してもよい。   Therefore, in the present embodiment, as shown in FIG. 6, the input unit 100 (the rider 110 and the camera 120) is arranged so that the approach road at the entrance of the highway becomes the monitoring area as the danger area. Then, an evacuation guidance instruction is issued from a dangerous area for a pedestrian such as an entrance of a highway by a notification process described below. Note that the rider 110 and the camera 120 are arranged so that the monitoring area (measurement area / photographing area) substantially matches and the optical axis substantially matches, and the positioning is performed. When the measurement area of the rider 110 and the shooting area of the camera 120 extend outside the approach road, the monitoring area may be set in advance so that only the approach road that is a no-go area is set as the monitoring area. .

(第1の実施形態における報知処理)
図7〜図12を参照し、第1の実施形態に係る避難誘導装置200で実行する報知処理について説明する。図7は、報知処理を示すフローチャートである。
(A notification process according to the first embodiment)
The notification process executed by the evacuation guidance device 200 according to the first embodiment will be described with reference to FIGS. FIG. 7 is a flowchart showing the notification processing.

(ステップS110)
所定領域(監視領域)内の動体情報を取得する。具体的には、取得部210は、監視領域を測定した時系列に並んだ測距点群データを、ライダー110から取得する。また、取得部210は、監視領域を撮影した画像データ(動画)をカメラ120から取得する。
(Step S110)
The moving body information in a predetermined area (monitoring area) is acquired. Specifically, the acquisition unit 210 acquires, from the rider 110, ranging point group data arranged in a time series in which the monitoring area is measured. Further, the acquisition unit 210 acquires image data (moving image) obtained by photographing the monitoring area from the camera 120.

(ステップS120)
解析部220は、ステップS110で取得した動体情報を解析する。ここでは、動体種類解析部221は、監視領域内の動体の種類を解析する。判別する種類には、歩行者、自転車、4輪車、および2輪車が含まれる。
(Step S120)
The analysis unit 220 analyzes the moving body information acquired in step S110. Here, the moving object type analysis unit 221 analyzes the type of the moving object in the monitoring area. Types to be determined include pedestrians, bicycles, four-wheeled vehicles, and two-wheeled vehicles.

(ステップS130)
判断部240は、動体の種類が、監視領域への進入(侵入)を許可されない特定の種類か否かを判定する。例えば、図5、6に示すような進入路であれば、歩行者93は、進入を許可されない特定の種類の動体であり(YES)、処理をステップS140に進める。一方で、4輪車または2輪車の車両であり、許可される種類の物体であれば(NO)、処理を終了する(エンド)。このときには、報知部300のサイネージ320により通行できる旨の表示を行ってもよい。
(Step S130)
The determination unit 240 determines whether the type of the moving object is a specific type that is not allowed to enter (enter) the monitoring area. For example, in the case of the approach road shown in FIGS. 5 and 6, the pedestrian 93 is a specific type of moving object not allowed to enter (YES), and the process proceeds to step S140. On the other hand, if the vehicle is a four-wheeled vehicle or a two-wheeled vehicle and is an object of a permitted type (NO), the process ends (END). At this time, the signage 320 of the notification unit 300 may display that the vehicle can pass.

(ステップS140)
ここでは、判断部240の報知内容決定部241は、予め設定されている報知内容、または後述のステップS170で決定した報知内容で、報知部300による報知を行わせる。進入している歩行者93に対して、過去に報知していなければ、予め設定されている報知内容で1回目(初回)の報知を行う。
(Step S140)
Here, the notification content determination unit 241 of the determination unit 240 causes the notification unit 300 to perform notification based on the notification content set in advance or the notification content determined in step S170 described below. If the pedestrian 93 who has entered has not been notified in the past, the first (first) notification is performed using the preset notification contents.

例えば、初回の報知用の予め設定されている報知内容は、「戻ってください」(日本語)であり、動体の種類(人:歩行者)に応じて一律に決定したものである。初回の報知(避難指示)は、以下に行う歩行者の行動パターン判定の結果を待たず、歩行者が監視領域に存在することを判定することに応じて、即時に行う。高速道路の進入路では、迅速な避難指示、および避難開始が事故防止に重要であるためである。なお、ここで行った報知は、報知の必要がないと判断されるまで、または新たな報知内容で報知を行うまで継続する。例えば、スピーカー310であれば報知内容の音声を繰り返し、出力し、サイネージ320であれば表示し続ける。   For example, the preset notification content for the first notification is “please go back” (Japanese), which is uniformly determined according to the type of moving object (person: pedestrian). The first notification (evacuation instruction) is immediately performed according to the determination that the pedestrian is present in the monitoring area, without waiting for the result of the pedestrian behavior pattern determination to be performed below. This is because prompt evacuation instructions and start of evacuation are important for accident prevention on the approach road of the highway. The notification performed here is continued until it is determined that there is no need for notification, or until notification is performed with new notification content. For example, the speaker 310 repeats and outputs the sound of the notification content, and the signage 320 continuously displays the sound.

(ステップS150)
1回目の報知を行った後、解析部220は、引き続き動体情報を取得し、動体の行動パターンを判定する。ここでは、歩行特性解析部222は、歩行速度、軌跡を解析する。また、歩行者属性解析部223は、歩行者属性を解析する。
(Step S150)
After performing the first notification, the analysis unit 220 continuously acquires the moving object information and determines the behavior pattern of the moving object. Here, the walking characteristic analysis unit 222 analyzes the walking speed and the trajectory. In addition, the pedestrian attribute analysis unit 223 analyzes the pedestrian attribute.

以下では、歩行者93の例として歩行者A〜Dを想定した場合について説明する。なお、これらの歩行者A〜Dは、それぞれ別々のタイミングで高速道路入口に進入した場合を想定している。しかしながら、複数人が同時に監視領域に進入した状況を想定してもよい。その場合は、それぞれの歩行者93は、動体ID(図4参照)により、それぞれ個別に並行して、追跡が行われる。図8は、カメラ120の画像データから、歩行者属性解析部223が、判別した歩行者A〜Dの歩行者属性の例を示す図である。図9A、図9Bは、それぞれ同じ歩行者A〜Dの移動軌跡、および移動速度の変化を示す図である。図9Aは、俯瞰図(X、Y座標)であり、下方側が高速道路入口、上方が高速道路本線側であり、矢印方向に進んだことを示している。また、図9Aにおいて、1回目の報知を行った時の歩行者の位置を黒丸で示している。この黒丸の位置は、図9Bにおいて時刻t1に対応する。歩行速度、および軌跡、ならびに後述する行動パターンの分類で構成される行動パターンは、報知を行った前後で履歴管理された状態で、データベース230に記憶される。   Hereinafter, a case where pedestrians A to D are assumed as examples of the pedestrian 93 will be described. Note that it is assumed that these pedestrians A to D enter the expressway entrance at different timings. However, a situation in which a plurality of persons enter the monitoring area at the same time may be assumed. In that case, each pedestrian 93 is individually tracked in parallel by the moving object ID (see FIG. 4). FIG. 8 is a diagram illustrating an example of pedestrian attributes of pedestrians A to D determined by the pedestrian attribute analysis unit 223 from image data of the camera 120. FIG. 9A and FIG. 9B are diagrams illustrating changes in the movement trajectory and movement speed of the same pedestrians A to D, respectively. FIG. 9A is a bird's-eye view (X, Y coordinates), showing that the lower side is the entrance of the expressway, the upper side is the main road side of the expressway, and has proceeded in the direction of the arrow. In FIG. 9A, the position of the pedestrian at the time of performing the first notification is indicated by a black circle. The position of the black circle corresponds to time t1 in FIG. 9B. The walking speed, the trajectory, and the behavior pattern configured by the behavior pattern classification described later are stored in the database 230 in a state where the history is managed before and after the notification is performed.

図8は、歩行者属性解析部223が行った、歩行者A〜Dに関する、それぞれ性別、年齢(分類)、携帯品、人種の判定結果を示す図である。性別については、男性/女性の判定結果の右脇に歩行者属性解析部223が算出した判定の確からしさ(%)を示している。   FIG. 8 is a diagram illustrating determination results of gender, age (classification), portable goods, and race for pedestrians A to D performed by the pedestrian attribute analysis unit 223. For gender, the likelihood (%) of the determination calculated by the pedestrian attribute analysis unit 223 is shown on the right side of the male / female determination result.

図9A、図9Bに示す例では、歩行者Aは真っ直ぐ進んでいるので、行動パターンは「直進」に分類される。歩行者Bは入口の方に戻っているので、行動パターンは「Uターン」に分類される。歩行者Cは比較的ゆっくりとした速度で、左右にぶれながら進んでいるので、行動パターンは「ふらつき」に分類される。歩行者Dは途中から停止しているので、行動パターンは「滞留」に分類される。これらの分類は、歩行特性解析部222により行われる。   In the example shown in FIGS. 9A and 9B, since the pedestrian A is traveling straight ahead, the behavior pattern is classified as “straight ahead”. Since the pedestrian B has returned to the entrance, the behavior pattern is classified as “U-turn”. Since the pedestrian C is moving at a relatively slow speed while swaying left and right, the behavior pattern is classified as “wandering”. Since the pedestrian D has stopped halfway, the behavior pattern is classified as “staying”. These classifications are performed by the walking characteristic analysis unit 222.

(ステップS160)
ここでは、報知効果判定部242は、ステップS140の報知、およびステップS150で判定した行動パターンから、効果を判定する。特に報知を行った前後の行動パターンの履歴から効果を判定する。
(Step S160)
Here, the notification effect determination unit 242 determines an effect from the notification in step S140 and the behavior pattern determined in step S150. In particular, the effect is determined from the history of the action patterns before and after the notification.

図10は、ステップS140の報知(1回目(第1の報知))の効果判定結果の例を示す図である。同図では、歩行者A〜Dそれぞれの認知レベル、理解度レベル、避難達成率レベル、および状態予測結果を示している。各レベルは1〜5の5段階で表示している(1が最も低く、5が最も高い)。   FIG. 10 is a diagram illustrating an example of the effect determination result of the notification (the first (first notification)) in step S140. The figure shows the recognition level, understanding level, evacuation achievement rate level, and state prediction result of each of the pedestrians A to D. Each level is displayed in five levels from 1 to 5 (1 is the lowest and 5 is the highest).

報知効果判定部242は、歩行者Bに対しては、行動パターンから1回目の報知が効果的に機能したことが分かるので、「避難完了」と判断する。報知効果判定部242は、行動パターンおよび歩行者属性から、歩行者Aに対しては「言語相違」と判断(推定)し、歩行者Cに対しては「酩酊、または認知障害」と判断し、また、歩行者Dに対しては、1回目の報知の後、停止しているので、前後の履歴から「パニック、または言語相違」と判断する。   The notification effect determination unit 242 determines that the evacuation has been completed for the pedestrian B because the behavior pattern indicates that the first notification functioned effectively. The notification effect determination unit 242 determines (estimates) that the pedestrian A is “language difference” and determines that the pedestrian C is “drunkenness or cognitive impairment” from the behavior pattern and the pedestrian attribute. Since the pedestrian D has stopped after the first notification, the pedestrian D is determined to be “panic or language difference” from the history before and after.

(ステップS170)
報知内容決定部241は、次の報知の必要性、および報知内容を決定する。図11は、1回目の報知に対する図10の効果判定結果に基づいて、またはこれとともに行動パターン、および歩行者属性に基づいて決定した2回目の報知における報知内容の例を示す図である。これらの報知内容は予めデータベース230内に記憶されており、その中から選択したものであるが、報知内容決定部241が自動で作成するようにしてもよい。歩行者Aに対しては、達成レベルは低く、「言語相違」と判定したので、2回目の報知を必要と判断し、その報知内容を「Stop and U turn」に決定する。歩行者Bに対しては、達成レベルが十分に高いため、2回目の報知を不要と判断する。歩行者Cに対しては、達成レベルが低く、「酩酊、または認知障害」と判定したので、2回目の報知を必要と判断し、その報知内容を「おばあさん、戻ってください」に決定する。歩行者Cに対しては、達成レベルが低く、「パニック、または言語相違」と判定したので、2回目の報知を必要と判断し、その報知内容を「落ち着いて、左右を確認し、壁側に寄って下さい」に決定する。
(Step S170)
The notification content determination unit 241 determines the necessity of the next notification and the notification content. FIG. 11 is a diagram illustrating an example of notification content in the second notification determined based on the effect determination result of FIG. 10 with respect to the first notification or based on the action pattern and the pedestrian attribute. These notification contents are stored in the database 230 in advance and selected from them, but the notification content determination unit 241 may automatically create the notification contents. For the pedestrian A, the achievement level is low and it is determined to be "language difference". Therefore, it is determined that the second notification is necessary, and the notification content is determined to be "Stop and U turn". For the pedestrian B, it is determined that the second notification is unnecessary because the achievement level is sufficiently high. For the pedestrian C, the achievement level is low and it is determined that "drunkenness or cognitive impairment". Therefore, it is determined that the second notification is necessary, and the notification content is determined to be "Grandmother, go back". For pedestrian C, the achievement level was low and it was judged as "panic or language difference", so it was judged that the second notification was necessary, and the content of the notification was "calm down, check left and right, Please stop by. "

(ステップS180)
判断部240は、ステップS170の決定により、次の報知が必要か否かを判定する。図11に示すように、歩行者Bであれば、報知は必要なく(NO)、それまでの報知を停止し、処理を終了する。一方で、歩行者A、C、Dであれば、報知が必要であり(YES)、処理をステップS140に戻し、図11に示す2回目の報知内容で報知処理を行う。そしてステップS150以降の処理を繰り返す。
(Step S180)
The determination unit 240 determines whether the next notification is necessary based on the determination in step S170. As shown in FIG. 11, if it is a pedestrian B, there is no need for notification (NO), the notification up to that point is stopped, and the process ends. On the other hand, if it is pedestrians A, C, and D, notification is necessary (YES), the process returns to step S140, and the notification process is performed using the second notification content shown in FIG. Then, the processing after step S150 is repeated.

図12は、歩行者A〜Dへの2回目の報知の効果判定結果の例、および3回目の報知における報知内容の例を示す図である。図12(a)、(b)はそれぞれ、図10、図11に対応する。   FIG. 12 is a diagram illustrating an example of the effect determination result of the second notification to the pedestrians A to D, and an example of the notification content in the third notification. FIGS. 12A and 12B correspond to FIGS. 10 and 11, respectively.

図12に示すように、2回目の報知を行った以降も、上述の判断と同様に、前回の報知(第1の報知)を行った前後の歩行者の行動パターンの履歴、および歩行者の歩行者属性から、次の報知(第2の報知)の必要性、および報知内容を決定する。   As shown in FIG. 12, after the second notification is performed, the history of the pedestrian's action patterns before and after the previous notification (first notification) and the pedestrian's The necessity of the next notification (second notification) and the content of the notification are determined from the pedestrian attribute.

このように、本実施形態においては、前回の報知(第1の報知)をした後、解析部220が解析した歩行者の行動パターンに基づいて、判断部240は、次の報知(第2の報知)の必要性、およびその報知内容を決定する。そして報知が必要であれば、報知部300を制御して、決定した報知内容で歩行者への報知を行う。   As described above, in the present embodiment, after the previous notification (first notification), the determination unit 240 determines the next notification (second notification) based on the pedestrian's behavior pattern analyzed by the analysis unit 220. Notification) and the content of the notification. If the notification is required, the notification unit 300 is controlled to notify the pedestrian with the determined notification content.

このようにすることで、避難誘導装置200からの報知に対して、報知後の動体の行動パターンに基づいた適切な報知を行うことができる。具体的には、対象の歩行者の行動に変化が見られない場合、対象者が高齢のため耳が遠く音声に気が付かないのか、報知に用いた言語を使えないために内容を理解できないなのか、等の報知が有効に機能しない理由を高い精度で判断(推測)できる。そして、その判断結果に基づいて、対象者に合わせて適切な報知内容を選択することで、避難誘導の成功率を高めることができる。また、本実施形態では、高速道路に用いた場合に、上述の(1)から(5)の課題を解決できる。   In this way, it is possible to perform appropriate notification based on the behavior pattern of the moving body after the notification in response to the notification from the evacuation guidance device 200. Specifically, if there is no change in the behavior of the target pedestrian, is the subject too old to notice the voice because it is too old or cannot understand the contents because the language used for notification cannot be used? , Etc., can be determined (guessed) with high accuracy why the notification does not function effectively. Then, based on the result of the determination, by selecting an appropriate notification content according to the target person, the success rate of evacuation guidance can be increased. Further, in the present embodiment, when used on a highway, the above-mentioned problems (1) to (5) can be solved.

(第2の実施形態)
以下、図13、図14を参照し、第2の実施形態に係る避難誘導装置200で実行する報知処理について説明する。図13は、高速道路入口での監視領域を示す模式図である。図14は、報知処理を示すフローチャートである。第2の実施形態においては、報知部300は、複数のスピーカー310a、310b、310c、および複数のサイネージ320a、320b、320cを備え、歩行者93の位置や行動パターンに応じて、使用する報知部300(スピーカー310またはサイネージ320)を選択する。これらの報知部300の各位置は予め避難誘導装置200のメモリに記憶されている。また、サイネージ320については、ディスプレイの表示面の方向、向きの情報がメモリに記憶されている。なお、第2の実施形態においては、特に説明がない場合は、第1の実施形態と同一である。
(Second embodiment)
Hereinafter, the notification processing executed by the evacuation guidance device 200 according to the second embodiment will be described with reference to FIGS. FIG. 13 is a schematic diagram showing a monitoring area at the entrance of an expressway. FIG. 14 is a flowchart showing the notification processing. In the second embodiment, the notifying unit 300 includes a plurality of speakers 310a, 310b, 310c, and a plurality of signages 320a, 320b, 320c, and uses the notifying unit according to the position and behavior pattern of the pedestrian 93. Select 300 (speaker 310 or signage 320). Each position of these notification units 300 is stored in the memory of the evacuation guidance device 200 in advance. As for the signage 320, information on the direction and direction of the display surface of the display is stored in the memory. The second embodiment is the same as the first embodiment unless otherwise specified.

(ステップS210〜S230)
図7のステップS110〜S130と同様の処理を行い、動体の種類が歩行者であれば処理をステップS235に進める。
(Steps S210 to S230)
The same processing as in steps S110 to S130 in FIG. 7 is performed, and if the type of the moving object is a pedestrian, the processing proceeds to step S235.

(ステップS235、S240)
ここでは、現在の動体(歩行者)の位置に応じて、次の報知に使用する報知部300の種類(スピーカー310、またはサイネージ320)、および位置を選択する。図13に示すように、歩行者93が高速道路入口から遠い位置を移動中であれば、歩行者93に最も近い、および/または移動軌跡により進行方向前方にあるスピーカー310c、サイネージ320cを選択し、選択したスピーカー310c、サイネージ320cで報知を行う。
(Steps S235, S240)
Here, according to the current position of the moving object (pedestrian), the type (speaker 310 or signage 320) and position of the notification unit 300 to be used for the next notification are selected. As shown in FIG. 13, if the pedestrian 93 is moving at a position far from the entrance of the highway, the speaker 310 c and the signage 320 c which are closest to the pedestrian 93 and / or ahead in the traveling direction according to the movement locus are selected. The notification is made by the selected speaker 310c and signage 320c.

このときの報知内容は、第1の実施形態と同様に、予め設定されている報知内容、またはステップS270で決定した報知内容である。また、このとき、歩行者93の位置からいずれかのサイネージ320も視認できないと判断した場合には、報知部300の種類としてスピーカー310のみを選択してもよい。また、他の例として、避難誘導装置200は、第1の報知の後、効果判定を行った結果、効果が無いと判定した場合には、スピーカー310とサイネージ320の両方を選択するようにしてもよい。このときに選択するスピーカー310、サイネージ320は、歩行者93に最も近い、および/または進行方向前方にあるものを選択してもよい。   The notification content at this time is the notification content set in advance or the notification content determined in step S270, as in the first embodiment. At this time, when it is determined that any signage 320 cannot be visually recognized from the position of the pedestrian 93, only the speaker 310 may be selected as the type of the notification unit 300. Further, as another example, when the evacuation guidance device 200 determines that there is no effect as a result of performing the effect determination after the first notification, the evacuation guidance device 200 selects both the speaker 310 and the signage 320. Is also good. The speaker 310 and the signage 320 selected at this time may be the one closest to the pedestrian 93 and / or the one in front of the traveling direction.

(ステップS250〜S280)
以下は、図7のステップS150〜S180と同様の処理を行い、終了する(エンド)。
(Steps S250 to S280)
Hereinafter, the same processes as those in steps S150 to S180 in FIG. 7 are performed, and the process ends (END).

このように、第2の実施形態においても、第1の実施形態と同様の効果を得ることができる。   As described above, also in the second embodiment, the same effect as in the first embodiment can be obtained.

以上に説明した避難誘導装置200、および避難誘導システム10の構成は、上述の実施形態の特徴を説明するにあたって主要構成を説明したのであって、上述の構成に限られず、特許請求の範囲内において、種々改変することができる。また、一般的な避難誘導システム10が備える構成を排除するものではない。   The configurations of the evacuation guidance device 200 and the evacuation guidance system 10 described above are the main components in describing the features of the above-described embodiment, and are not limited to the above-described configuration, but fall within the scope of the claims. Can be variously modified. Further, the configuration provided in the general evacuation guidance system 10 is not excluded.

例えば、上述の実施例では、歩行者を特定の種類の動体と判定し、避難誘導を行う例について説明したが、これに限られず、さらに自転車(および運転者)を特定の種類の動体として、これを避難誘導の対象としてもよい。また、この場合、初回の報知内容や2回目以降の報知内容を、歩行者向けの報知内容と異なるように構成してもよい。   For example, in the above-described embodiment, an example in which a pedestrian is determined to be a specific type of moving object and evacuation guidance is performed has been described. However, the present invention is not limited to this, and a bicycle (and a driver) may be used as a specific type of moving object. This may be a target for evacuation guidance. In this case, the first notification content and the second and subsequent notification content may be configured to be different from the pedestrian notification content.

上述した実施形態に係る避難誘導装置における各種処理を行う手段および方法は、専用のハードウエア回路、またはプログラムされたコンピューターのいずれによっても実現することが可能である。上記プログラムは、例えば、USBメモリやDVD(Digital Versatile Disc)−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、ハードディスク等の記憶部に転送され記憶される。また、上記プログラムは、単独のアプリケーションソフトとして提供されてもよいし、装置の一機能としてその装置のソフトウエアに組み込まれてもよい。   The means and method for performing various processes in the evacuation guidance device according to the above-described embodiment can be realized by either a dedicated hardware circuit or a programmed computer. The program may be provided by a computer-readable recording medium such as a USB memory or a DVD (Digital Versatile Disc) -ROM, or may be provided online via a network such as the Internet. In this case, the program recorded on the computer-readable recording medium is usually transferred to and stored in a storage unit such as a hard disk. Further, the program may be provided as independent application software, or may be incorporated in software of the device as one function of the device.

10 避難誘導システム
100 入力部
110 ライダー
120 カメラ
200 避難誘導装置
210 取得部
220 解析部
221 動体種類解析部
222 歩行特性解析部
223 歩行者属性解析部
230 データベース
231 歩行者データ保存部
232 報知内容保存部
240 判断部
241 報知内容決定部
242 報知効果判定部
300 報知部
310、310a〜310c スピーカー
320、320a〜320c サイネージ
Reference Signs List 10 Evacuation guidance system 100 Input unit 110 Rider 120 Camera 200 Evacuation guidance device 210 Acquisition unit 220 Analysis unit 221 Moving object type analysis unit 222 Walking characteristics analysis unit 223 Pedestrian attribute analysis unit 230 Database 231 Pedestrian data storage unit 232 Notification content storage unit 240 judgment unit 241 notification content determination unit 242 notification effect determination unit 300 notification unit 310, 310a to 310c speaker 320, 320a to 320c signage

Claims (9)

所定領域内の動体を測定した動体情報を取得する取得部と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析する解析部と、
報知部により第1の報知をした後、前記解析部が解析した前記行動パターンに基づいて報知内容を決定し、決定した前記報知内容で、前記報知部により前記動体への第2の報知を行うように制御する判断部と、
を備える避難誘導装置。
An acquisition unit that acquires moving body information that measures a moving body in a predetermined area,
Based on the obtained moving body information, an analysis unit that analyzes the behavior pattern of the moving body,
After the first notification by the notification unit, the notification content is determined based on the behavior pattern analyzed by the analysis unit, and the notification unit performs the second notification to the moving object with the determined notification content. And a determination unit that controls
Evacuation guidance device provided with.
前記判断部は、前記行動パターンの履歴を保持し、前記第1の報知の前後の前記行動パターンにより、前記第2の報知の報知内容を決定する、請求項1に記載の避難誘導装置。   2. The evacuation guidance device according to claim 1, wherein the determination unit retains a history of the behavior pattern and determines the content of the second notification based on the behavior pattern before and after the first notification. 3. 前記動体情報に基づいて、前記動体の種類を解析する種類解析部を備え、
前記種類解析部が判別した前記動体の種類が、前記所定領域内への進入が許可されない特定の種類の動体である場合に、前記解析部は、前記動体に対する前記行動パターンの解析を行う、請求項1または請求項2に記載の避難誘導装置。
Based on the moving object information, comprising a type analysis unit for analyzing the type of the moving object,
If the type of the moving object determined by the type analysis unit is a specific type of moving object that is not allowed to enter the predetermined area, the analysis unit analyzes the behavior pattern for the moving object. The evacuation guidance device according to claim 1 or 2.
前記取得部は、前記動体情報として、前記所定領域内に存在する動体までの距離値の分布を示す測距点群データを取得し、
前記解析部が判定した前記行動パターンには、測距点群データにより求めた、前記動体の移動軌跡、前記動体の移動速度、前記動体の転倒状態、前記動体の位置、および、設定した危険領域までの前記動体の距離の少なくとも1つが含まれる、請求項1から請求項3のいずれかに記載の避難誘導装置。
The acquisition unit acquires, as the moving object information, distance measurement point group data indicating a distribution of distance values to a moving object existing in the predetermined area,
The behavior pattern determined by the analysis unit includes a moving locus of the moving object, a moving speed of the moving object, a falling state of the moving object, a position of the moving object, and a set dangerous area, which are obtained from distance measurement point group data. The evacuation guidance device according to any one of claims 1 to 3, wherein at least one of the distances of the moving body is included.
前記取得部は、前記所定領域内を撮影した画像データを取得し、
さらに、前記取得部が取得した前記画像データから、前記動体の属性を解析する属性解析部を備え、
前記属性解析部が解析した前記動体の属性、および前記解析部が判定した前記行動パターンに基づいて、前記第2の報知の報知内容を決定する、請求項1から請求項4のいずれかに記載の避難誘導装置。
The obtaining unit obtains image data of the inside of the predetermined area,
Further, from the image data acquired by the acquisition unit, comprises an attribute analysis unit for analyzing the attributes of the moving object,
5. The notification content of the second notification is determined based on an attribute of the moving object analyzed by the attribute analysis unit and the behavior pattern determined by the analysis unit. 6. Evacuation guidance device.
前記報知部は1種類以上の複数の報知部であり、
前記判断部は、前記行動パターンにより、前記報知内容とともに前記報知部の選択を行い、選択した前記報知部により、前記動体への第2の報知を行うように制御する、請求項1から請求項5のいずれかに記載の避難誘導装置。
The notification unit is a plurality of notification units of one or more types,
The said judgment part selects the said alerting | reporting part with the said alert | report content according to the said action pattern, and controls so that the said alerting | reporting part may perform 2nd alerting | reporting to the said moving body. 5. The evacuation guidance device according to any one of 5.
複数の前記報知部は、異なる位置に配置された複数の報知部であり、
前記取得部は、前記動体情報として、前記所定領域内を測定する測距部から取得した前記所定領域内の物体までの距離値の分布を示す測距点群データを取得し、
前記判断部は、測距点群データにより求めた、前記動体の移動軌跡、または前記動体の位値により、前記報知部の選択を行う、請求項6に記載の避難誘導装置。
The plurality of notification units are a plurality of notification units arranged at different positions,
The acquisition unit acquires, as the moving body information, distance measurement point group data indicating a distribution of distance values to an object in the predetermined area acquired from the distance measurement unit that measures the inside of the predetermined area,
The evacuation guidance device according to claim 6, wherein the determination unit selects the notification unit based on a moving trajectory of the moving object or a position of the moving object obtained from the distance measurement point group data.
測定することで、所定領域内の動体の動体情報を生成する動体情報測定部と、
報知部と、
前記動体情報測定部から取得した動体情報を用いて、前記報知部により前記動体への報知を行う、請求項1から請求項7のいずれかに記載の避難誘導装置と、
を備える避難誘導システム。
By measuring, a moving body information measuring unit that generates moving body information of a moving body in a predetermined area,
The reporting department,
The evacuation guidance device according to any one of claims 1 to 7, wherein the notification unit notifies the moving body using moving body information obtained from the moving body information measurement unit.
Evacuation guidance system equipped with.
所定領域内の動体に対して避難誘導を行う避難誘導装置を制御する制御プログラムであって、
所定領域内の動体を測定した動体情報を取得するステップ(a)と、
取得した前記動体情報に基づいて、前記動体の行動パターンを解析するステップ(b)と、
報知部により前記動体への第1の報知をするステップ(c)と、
ステップ(c)の後に、前記ステップ(b)で判定した前記行動パターンに基づいて報知内容を決定するステップ(d)と、
決定した前記報知内容で、前記動体への第2の報知を行うステップ(e)と、
を含む処理をコンピューターに実行させるための制御プログラム。
A control program for controlling an evacuation guidance device that performs evacuation guidance for a moving body in a predetermined area,
(A) acquiring moving body information obtained by measuring a moving body in a predetermined area;
(B) analyzing an action pattern of the moving object based on the obtained moving object information;
(C) performing a first notification to the moving body by a notification unit;
(D) determining, after step (c), notification contents based on the behavior pattern determined in step (b);
(E) performing a second notification to the moving object based on the determined notification content;
A control program that causes a computer to execute processing that includes
JP2018129134A 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program Active JP7073949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018129134A JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018129134A JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Publications (2)

Publication Number Publication Date
JP2020009107A true JP2020009107A (en) 2020-01-16
JP7073949B2 JP7073949B2 (en) 2022-05-24

Family

ID=69151662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018129134A Active JP7073949B2 (en) 2018-07-06 2018-07-06 Evacuation guidance system, evacuation guidance system, and control program

Country Status (1)

Country Link
JP (1) JP7073949B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
WO2023210105A1 (en) * 2022-04-27 2023-11-02 住友電気工業株式会社 Infrastructure radio wave sensor

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (en) * 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
US20170345265A1 (en) * 2014-11-07 2017-11-30 Carrier Corporation Dynamic acquisition terminal for behavior statistic information of people, evacuation system and method
WO2018025830A1 (en) * 2016-08-03 2018-02-08 日本電気株式会社 Evacuation guidance system and evacuation guidance method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014123277A (en) * 2012-12-21 2014-07-03 Sony Corp Display control system and recording medium
US20170345265A1 (en) * 2014-11-07 2017-11-30 Carrier Corporation Dynamic acquisition terminal for behavior statistic information of people, evacuation system and method
WO2018025830A1 (en) * 2016-08-03 2018-02-08 日本電気株式会社 Evacuation guidance system and evacuation guidance method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189691A1 (en) * 2022-03-30 2023-10-05 Nec Corporation Potential object pathway determination method, apparatus and system
WO2023210105A1 (en) * 2022-04-27 2023-11-02 住友電気工業株式会社 Infrastructure radio wave sensor

Also Published As

Publication number Publication date
JP7073949B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
US11390276B2 (en) Control device, control method, and non-transitory storage medium
US10387733B2 (en) Processing apparatus, processing system, and processing method
US9524643B2 (en) Orientation sensitive traffic collision warning system
US10402664B2 (en) Processing apparatus, processing system, processing program, and processing method
US20150332103A1 (en) Processing apparatus, computer program product, and processing method
JP4171501B2 (en) Vehicle periphery monitoring device
JP2007241740A (en) Vehicle periphery monitoring device
JP6651062B2 (en) Outside vehicle communication device, outside vehicle communication method, information processing device, and outside vehicle communication program
WO2020105527A1 (en) Image analysis device, image analysis system, and control program
JP7073949B2 (en) Evacuation guidance system, evacuation guidance system, and control program
JP7428136B2 (en) Information processing device, information processing system, and information processing method
CN109872527A (en) Pedestrian running red light monitoring device and monitoring method based on gravity sensing
WO2020008685A1 (en) Information notification device, program for information notification device, and information notification system
WO2018212090A1 (en) Control device and control method
JP2012198774A (en) Normative vehicle speed calculating device and program
JP7184087B2 (en) Object detection system and object detection method
KR101076984B1 (en) Lane Departure Warning apparatus using multiple laser beams
JP7201002B2 (en) Image processing device, control program, and image processing method
WO2020105225A1 (en) Machine learning method, trained model, control program, and object detection system
WO2024127754A1 (en) Wrong-way travel detection system and wrong-way travel detection program
KR102310434B1 (en) System and Method for Saving the Pedestrian’s Walking Pattern and Predicting the Road Crossing According to the Walking Pattern
TWI758980B (en) Environment perception device and method of mobile vehicle
JP2019128184A (en) Object detection device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220425

R150 Certificate of patent or registration of utility model

Ref document number: 7073949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150