JP2023079291A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2023079291A
JP2023079291A JP2021192680A JP2021192680A JP2023079291A JP 2023079291 A JP2023079291 A JP 2023079291A JP 2021192680 A JP2021192680 A JP 2021192680A JP 2021192680 A JP2021192680 A JP 2021192680A JP 2023079291 A JP2023079291 A JP 2023079291A
Authority
JP
Japan
Prior art keywords
child
information
image processing
person
risk
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021192680A
Other languages
Japanese (ja)
Inventor
剛生 二宮
Takeo Ninomiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021192680A priority Critical patent/JP2023079291A/en
Publication of JP2023079291A publication Critical patent/JP2023079291A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)
  • Image Analysis (AREA)

Abstract

To estimate the degree of possible danger to a person.SOLUTION: An image processing device provided herein identifies a behavior pattern of a person in a captured image, acquires feature information indicative of features of a shooting location, determines the degree of possible danger to the person using the identified behavior pattern and the acquired feature information, and outputs information on the determined degree of danger.SELECTED DRAWING: Figure 3

Description

本開示は、施設などで人の行動により生じうる危険の度合いを推定する技術に関する。 The present disclosure relates to technology for estimating the degree of danger that may occur due to human behavior in a facility or the like.

公園などの施設において、人が遊びや運動など自身の行動に夢中になり周囲の観察が疎かになったり、緩慢な動作しかできなかったりなどして、自身の行動で生じた危険を回避することができず、結果として重大な事故が起こることがある。例えば、子供が公園内の遊具で遊んでいて転倒などしたときに危険を回避する動作ができない、または危険を回避する動作を行ったが間に合わず、遊具と接触して怪我を負うことがある。 In parks and other facilities, people become absorbed in their own activities, such as playing and exercising, neglecting observation of their surroundings, or are only able to move slowly to avoid dangers caused by their own actions. failure to do so may result in serious accidents. For example, when a child falls while playing on a playground equipment in a park, he or she may not be able to avoid the danger, or may be injured by coming into contact with the playground equipment even though he/she performed the action to avoid the danger in time.

このような危険が生じる前に警告を報知する技術が種々開発されている。特許文献1は、対象年齢が定められた遊具が設置された場所の画像を用いて当該遊具を利用する子供の年齢を特定し、特定された年齢が前記対象年齢に含まれるか判定し、特定された年齢が前記対象年齢に含まれない場合に警告を報知する技術を開示している。 Various techniques have been developed to issue a warning before such danger occurs. Patent Document 1 specifies the age of a child who uses the playground equipment using an image of a place where the playground equipment for which the target age is set is installed, determines whether the specified age is included in the target age, and specifies Disclosed is a technique for issuing a warning when the specified age is not included in the target age.

特開2020―27320号公報Japanese Patent Application Laid-Open No. 2020-27320

しかしながら、特許文献1の技術では、警告を報知するかの判定が遊具の対象年齢を元に行っており、子供の行動により危険が生じるかどうか判定していなかった。そのため、子供が鬼ごっこなど遊具を用いず遊だり対象年齢の遊具で遊んだりしたときに、子供に危険が生じたとしても、その危険を認識することができなかった。 However, in the technique of Patent Literature 1, the determination as to whether to issue a warning is based on the target age of the playground equipment, and it is not determined whether or not the child's behavior poses a danger. Therefore, even if a child is in danger when playing without using playground equipment such as tag or playing with playground equipment of a target age, the child cannot recognize the danger.

本開示は、人に生じうる危険の度合いを推定する技術を提供することを目的とする。 An object of the present disclosure is to provide a technique for estimating the degree of danger that may occur to humans.

上記課題を解決する本開示に係る画像処理装置は、撮像画像に映る人の行動パターンを特定する特定手段と、撮像場所の特性を示す第1の特性情報を取得する第1の取得手段と、特定された前記行動パターンと取得された前記第1の特性情報を用いて、前記人に生じうる危険の度合いを決定する決定手段と、決定された前記危険の度合いに関する情報を出力する出力手段と、を有することを特徴とする。 An image processing apparatus according to the present disclosure that solves the above problems includes identifying means for identifying a behavior pattern of a person reflected in a captured image, first obtaining means for obtaining first characteristic information indicating characteristics of an imaging location, determining means for determining the degree of possible danger to the person using the identified behavior pattern and the acquired first characteristic information; and output means for outputting information about the determined degree of danger. , is characterized by having

本開示によれば、人に生じうる危険の度合いを推定することができる。 According to the present disclosure, the degree of possible danger to humans can be estimated.

センサシステムの使用例を示す図である。It is a figure which shows the usage example of a sensor system. センサシステムおよび端末のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of a sensor system and a terminal. センサシステムのソフトウェア構成例を示すブロック図である。It is a block diagram which shows the software structural example of a sensor system. 行動パターンのデータテーブル例を示す図である。It is a figure which shows the data table example of an action pattern. 公園の特性のデータテーブル例を示す図である。It is a figure which shows the data table example of the characteristic of a park. 危険度算出用のデータテーブル例を示す図である。It is a figure which shows the data table example for risk calculation. 危険度判定用のデータテーブル例を示す図である。It is a figure which shows the data table example for risk determination. 危険度予測処理の流れを示すフローチャートである。4 is a flowchart showing the flow of risk prediction processing; 危険度の算出処理の詳細な流れを示すフローチャートである。7 is a flowchart showing a detailed flow of risk calculation processing; 行動パターンDBの学習処理の流れを示すフローチャートである。It is a flow chart which shows a flow of learning processing of action pattern DB. 危険度算出テーブルの学習処理の流れを示すフローチャートである。7 is a flowchart showing the flow of learning processing for a risk calculation table; 通知方法例を示す図である。It is a figure which shows the example of a notification method. センサシステムの使用例を示す図である。It is a figure which shows the usage example of a sensor system. センサシステムのソフトウェア構成例を示すブロック図である。It is a block diagram which shows the software structural example of a sensor system. 移動物の特性のデータテーブル例を示す図である。FIG. 10 is a diagram showing an example of a data table of characteristics of moving objects; 危険度予測処理の流れを示すフローチャートである。4 is a flowchart showing the flow of risk prediction processing; 危険度の算出処理の流れを示すフローチャートである。4 is a flow chart showing the flow of risk calculation processing. 通知方法の他例を示す図である。It is a figure which shows the other example of the notification method.

以下、添付図面を参照して本開示の技術の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本開示の技術を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本開示の技術の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。 Hereinafter, embodiments of the technology of the present disclosure will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the technology of the present disclosure according to the scope of claims, and all combinations of features described in the embodiments are essential to the solution of the technology of the present disclosure. Not necessarily. In addition, the same reference numbers are given to the same components, and the description thereof is omitted.

<実施形態1>
本実施形態では、撮像画像に映る子供の行動パターンおよび撮像場所の特性情報を用いて、子供が危険行動をとる可能性の高低を示す危険の度合い(危険度)を推定し、推定結果に関する情報を子供の引率者などに通知する態様について、図を参照して説明する。図1は、本実施形態に係るセンサシステムの使用例を示す図である。図1(a)にセンサシステムの使用例の概略を示し、図1(b)に撮像領域にグリッド線を付与した場合を示す。なお、センサシステムで画像を処理することから、センサシステムが画像処理装置であるともいえる。
<Embodiment 1>
In this embodiment, the behavior pattern of the child reflected in the captured image and the characteristic information of the imaging location are used to estimate the degree of risk (degree of risk) that indicates the likelihood of the child taking risky behavior. will be described with reference to the drawings. FIG. 1 is a diagram showing a usage example of the sensor system according to this embodiment. FIG. 1(a) shows an outline of a usage example of the sensor system, and FIG. 1(b) shows a case where grid lines are given to the imaging area. Since the sensor system processes images, it can be said that the sensor system is an image processing device.

センサシステム101は、公園全体を撮像視野に含めることが可能な場所に設置される。センサシステム101の設置場所は、例えば、公園内でもよいし、公園の外でもよい。センサシステム101は、例えば、撮像して得た時間的に連続する画像(静止画または動画)と、音声とを取得可能な装置であって、取得した画像および音声を基に、例えば、子供などの対象者である人の行動パターンを認識する機能を有する。また、センサシステム101は、対象者がいる公園の特性を認識する機能も有する。さらに、センサシステム101は、認識して得た情報を元に、子供に生じうる危険の度合い(危険度)を判定し、判定結果に関する情報を対象の子供の関係者である保護者や引率者などの端末に通知する機能も有する。 The sensor system 101 is installed at a location where the entire park can be included in the field of view. The installation location of the sensor system 101 may be, for example, inside the park or outside the park. The sensor system 101 is, for example, a device capable of acquiring temporally continuous images (still images or moving images) obtained by imaging and audio. It has the function of recognizing the behavioral pattern of the person who is the target of the The sensor system 101 also has a function of recognizing the characteristics of the park where the target person is. Furthermore, the sensor system 101 determines the degree of danger (degree of danger) that may occur to the child based on the information obtained by recognition, and sends information about the determination result to the guardian or leader who is related to the target child. It also has a function to notify the terminal such as

公園110において、複数(具体的には、6人)の子供131-136が遊んでいるとする。センサシステム101は、撮像画像を解析して子供131-136をそれぞれ認識し、各子供が現在どの遊具で遊んでいるか、各子供がどの方向に移動しているかなど、対象となる子供の行動パターンに関する情報を取得する。子供の移動方向に関する情報は、オプティカルフローなどの公知の技術を用いて取得される。子供の移動方向に関する情報は、例えば、顔の位置や胴体の位置といった特定の部位に注目して、フレーム間の変化から取得される。なお、オプティカルフローを用いる際には、同じ撮像条件での画像が用いられる。 Assume that a plurality (specifically, six) of children 131 to 136 are playing in the park 110 . The sensor system 101 analyzes the captured images to recognize each of the children 131 to 136, and determines the behavior patterns of the target child, such as which playground equipment each child is currently playing with, and which direction each child is moving. Get information about Information about the direction of movement of the child is obtained using known techniques such as optical flow. Information about the child's direction of movement is obtained from the frame-to-frame variation, focusing on specific parts, such as the position of the face or the position of the torso. Note that images under the same imaging conditions are used when optical flow is used.

また、公園110には、公園110の特性に関連するものであって、設備があるとする。設備は、例えば、公園110の領域とその周囲を区切る柵111、鉄棒112、砂場113、ジャングルジム114、公園110の出入口115を含むとする。センサシステム101は、撮像画像を解析して、柵111、鉄棒112、砂場113、ジャングルジム114、出入口115などの公園110の設備をそれぞれ認識し、認識結果を元に公園の設備に関する情報を含む公園の特性情報を取得する。センサシステム101は、撮像画像を解析して、例えば、柵111の形状や高さといった情報を含む公園の特性情報を取得する。 It is also assumed that the park 110 has facilities related to the characteristics of the park 110 . The facilities include, for example, a fence 111 that divides the area of the park 110 and its surroundings, a horizontal bar 112, a sandbox 113, a jungle gym 114, and an entrance 115 of the park 110. FIG. The sensor system 101 analyzes the captured image, recognizes the facilities of the park 110 such as the fence 111, the horizontal bar 112, the sandbox 113, the jungle gym 114, and the entrance/exit 115, and includes information about the facilities of the park based on the recognition results. Get park property information. The sensor system 101 analyzes the captured image and obtains characteristic information of the park including information such as the shape and height of the fence 111, for example.

子供135は、ボール121で遊んでいるとする。ボール121に関する情報は、子供135の行動パターンの一部として、何で遊んでいるかという情報や、子供が周囲を見えているかという情報を取得するために用いられる。周囲を見えているかという情報は、例えば、周囲が見えていない状態であるかの条件を判定し、この条件を満たさないとの判定結果を得た場合に、「周囲が見えている」と判定することで得られる情報である。例えば、対象者の顔画像の時間経過から、対象者の顔の向きが一定時間同じ方向を向いていない場合に、「周囲が見えていない」と判定してもよい。また、対象者の体の水平方向の向きと、対象者の頭の水平方向の向きが異なっている状態が一定時間続いた場合に、「周囲が見えていない」と判定してもよい。対象者の頭の水平方向の向き、対象者の体の水平方向の向きは、公知の技術で求められる。公知の技術として、例えば、オープンポーズの技術を用いて求めてもよいし、三次元モデルを予め用意しておきフィッティングによって求めてもよい。 Suppose a child 135 is playing with a ball 121 . Information about the ball 121 is used as part of the behavioral patterns of the child 135 to obtain information about what the child is playing with and whether the child can see the surroundings. For information on whether the surroundings can be seen, for example, a condition is determined as to whether the surroundings cannot be seen. This information is obtained by For example, it may be determined that "the surroundings cannot be seen" when the target person's face does not face the same direction for a certain period of time based on the passage of time of the target person's face image. Further, when the horizontal orientation of the subject's body and the horizontal orientation of the subject's head continue for a certain period of time, it may be determined that "the surroundings cannot be seen." The horizontal orientation of the subject's head and the horizontal orientation of the subject's body are determined by known techniques. As a known technique, for example, an open pose technique may be used, or a three-dimensional model may be prepared in advance and obtained by fitting.

図1(b)は、図1(a)に対してエリアを認識した際の例を示した図である。エリアA1、A2、A3、B1、B2、B3、C1、C2、C3を示すエリア情報は、子供の行動パターン情報や公園の特性情報に含まれる。エリアは、センサシステム101で得た撮像画像を解析して認識される。本実施形態では、公園全体を9つのエリアに分割した例を示しているが、これに限定されない。公園全体を、例えば16のエリアなど、より細かく分割してもよい。また、鉄棒112、砂場113、ジャングルジム114などの特定エリアを他のエリアと比べてより細かく分割してもよい。より細かく分割することで、子供の行動パターンや公園の特性に関してより正確な情報を得られることから危険度を推定する精度をあげることができる。 FIG. 1(b) is a diagram showing an example when an area is recognized with respect to FIG. 1(a). Area information indicating areas A1, A2, A3, B1, B2, B3, C1, C2, and C3 is included in the behavior pattern information of children and the park characteristic information. The areas are recognized by analyzing captured images obtained by the sensor system 101 . Although this embodiment shows an example in which the entire park is divided into nine areas, the present invention is not limited to this. The entire park may be divided into smaller pieces, such as 16 areas. Also, specific areas such as the horizontal bar 112, the sandbox 113, and the jungle gym 114 may be divided more finely than other areas. By dividing the park more finely, it is possible to obtain more accurate information about the behavior patterns of children and the characteristics of the park, so that the accuracy of estimating the degree of risk can be increased.

センサシステム101は、取得した子供の行動パターン情報および公園の特性情報から、子供が危険行動をとる可能性を危険度として判定し、判定結果に関する情報を対象者である子供の保護者や引率者などに対して通知する。 The sensor system 101 determines the possibility of the child taking dangerous behavior as a risk level from the acquired behavior pattern information of the child and the property information of the park. etc.

例えば、子供132は、柵111に向かっている、且つ活発な性格を有しているとする。活発な性格の子供は、例えば、動き回ったり、高いところに登ったりする活動レベルが高い子供である。このような子供の性格と子供の動きとから子供132が「柵を乗り越える」という危険行動をとる可能性が高いと判断される。したがって、この判断結果を基に求められた危険度に関する情報が、子供132の引率者に対して通知される。また、子供135は勢いよくボール121を追いかけながら出入口115に向かっていることから、子供135が「出入口を飛び出す」という危険行動をとる可能性が高いと判断される。したがって、この判断結果を基に求められた危険度に関する情報が、子供135の保護者や引率者などに対して通知される。 For example, suppose child 132 is facing fence 111 and has an active personality. An active child is, for example, a child with a high activity level who moves around or climbs high places. Based on the child's character and movement, it is determined that the child 132 is likely to take a dangerous action of "climbing over the fence". Therefore, the information regarding the degree of danger obtained based on the result of this determination is notified to the leader of the child 132 . In addition, since the child 135 is vigorously chasing the ball 121 toward the entrance 115, it is determined that the possibility of the child 135 taking a dangerous action of "jumping out of the entrance" is high. Therefore, the information about the degree of risk obtained based on the result of this determination is notified to the child 135's guardian or leader.

(センサシステムおよび端末のハードウェア)
図2は、センサシステムおよび端末のハードウェア構成例を示す図である。センサシステム101は、CPU201、ROM202、RAM203、記憶装置204、入力部206、出力部207、通信部208を有する。これらコンポーネントは、バス205を介して、データを相互に送受信可能に接続している。
(Sensor system and terminal hardware)
FIG. 2 is a diagram illustrating a hardware configuration example of a sensor system and a terminal; The sensor system 101 has a CPU 201 , a ROM 202 , a RAM 203 , a storage device 204 , an input section 206 , an output section 207 and a communication section 208 . These components are coupled to transmit and receive data to each other via bus 205 .

CPU201は、マイクロプロセッサであり、ROM202に記憶された制御プログラム等に基づいてバス205に接続される各種のデバイスとのアクセスを統括的に制御する。CPU201は、子供の行動パターンや公園特性の取得、危険度の推定、危険度推定後の通知等の各種制御を行い、センサシステム101内の各デバイスを制御する。 The CPU 201 is a microprocessor, and controls access to various devices connected to the bus 205 based on control programs and the like stored in the ROM 202 . The CPU 201 performs various controls such as acquisition of behavior patterns of children and park characteristics, estimation of risk, notification after estimating risk, and controls each device in the sensor system 101 .

ROM(Read Only Memory)202は、読出専用の不揮発性メモリであり、ブートプログラム等を記憶する。CPU201は、システム起動時にブートプログラムを実行し、ブートデバイスである記憶装置204からOS(Operating System)及び各種制御プログラムをRAM203にロードして実行する。制御プログラムは、例えば、図8-図11に示す処理を実現するプログラムを含む。 A ROM (Read Only Memory) 202 is a read-only non-volatile memory and stores a boot program and the like. The CPU 201 executes a boot program when the system is started, loads an OS (Operating System) and various control programs from a storage device 204, which is a boot device, into a RAM 203 and executes them. The control program includes, for example, a program that implements the processes shown in FIGS. 8-11.

RAM203は、読み書き可能なランダムアクセスメモリ(Random Access Memory)である。RAM203は、各デバイスで使用する各種データの一次記憶に用いられる。処理に必要なデータを記憶する各種ワーク領域、処理中に値変更が行われる各種データが格納される。後述の処理フローで使用される各種データはRAM203にロードされる。 A RAM 203 is a readable and writable random access memory. The RAM 203 is used for temporary storage of various data used by each device. Various work areas for storing data necessary for processing and various data whose values are changed during processing are stored. Various data used in the processing flow described later are loaded into the RAM 203 .

記憶装置204は、不揮発性メモリまたはSDカード等のリムーバブルメディアを含むストレージであり、大量のデータを変更可能に記憶する。記憶装置204には、危険度の推定を行うための制御プログラムおよび、このプログラムで使用する各種管理データが格納され、必要に応じて随時内容が更新される。 The storage device 204 is storage including removable media such as a non-volatile memory or an SD card, and stores a large amount of data in a changeable manner. The storage device 204 stores a control program for estimating the degree of danger and various management data used by this program, and updates the contents as needed.

バス205は、CPU201の制御対象である各デバイスを指示するアドレス信号、コントロール信号を転送する。また、バス205は、各デバイス間のデータ転送を行う。 A bus 205 transfers an address signal and a control signal that indicate each device to be controlled by the CPU 201 . A bus 205 also transfers data between devices.

入力部206は、タッチパネルやボタン、撮像装置やマイク等であり、危険度の推定を行うためにユーザが各種の指示を行う。なお、撮像装置は、撮像により動画または静止画を得ることができる機器である。撮像装置は、撮像方向を固定したタイプでもよいし、撮像方向をパン方向およびチルト方向に移動可能な機能やズーム機能を有するタイプでもよい。 An input unit 206 includes a touch panel, buttons, an imaging device, a microphone, and the like, and the user gives various instructions to estimate the degree of risk. Note that an imaging device is a device capable of obtaining a moving image or a still image by imaging. The imaging device may be of a type in which the imaging direction is fixed, or may be of a type having a function of moving the imaging direction in pan and tilt directions or a zoom function.

出力部207は、液晶モニタやスピーカ等であり、危険度が高いと判定した際の画面表示や音声による通知を行う。これにより、危険度が高いと判定した際の注意喚起を引率者などに対して行うことができる。出力部207は、タッチパネル等の入力機能を備えたものも含む。通信部208は、無線の通信路を介して、端末210と接続し、データ交換を行う。 The output unit 207 is a liquid crystal monitor, a speaker, or the like, and performs notification by screen display or voice when it is determined that the risk is high. Accordingly, when it is determined that the degree of danger is high, it is possible to alert the leader or the like. The output unit 207 includes a device having an input function such as a touch panel. The communication unit 208 connects to the terminal 210 via a wireless communication path and exchanges data.

端末210は、センサシステム101で得られた情報の通知対象の装置である。端末210は、CPU211、通信部212、出力部214、記憶装置215を有する。これらコンポーネントは、バス213を介して、データを相互に送受信可能に接続している。 A terminal 210 is a device to which information obtained by the sensor system 101 is notified. The terminal 210 has a CPU 211 , a communication section 212 , an output section 214 and a storage device 215 . These components are coupled to transmit and receive data to each other via bus 213 .

CPU211は、マイクロプロセッサであり、センサシステム101との接続や、センサシステム101から受信したデータを元に表示や通知等の制御を行う。 The CPU 211 is a microprocessor, and controls display, notification, etc. based on connection with the sensor system 101 and data received from the sensor system 101 .

通信部212は、無線の通信路を介して、センサシステム101と接続し、データ交換を行う。 The communication unit 212 connects to the sensor system 101 via a wireless communication path and exchanges data.

バス213は、CPU211の制御対象である各デバイスを指示するアドレス信号、コントロール信号を転送する。また、バス213は、各デバイス間のデータ転送を行う。 A bus 213 transfers an address signal and a control signal that indicate each device to be controlled by the CPU 211 . A bus 213 also transfers data between devices.

出力部214は、液晶モニタやスピーカ等であり、危険度が高いと判定した際の画面表示や音声による通知を行う。これにより、危険度が高いと判定した際の注意喚起を引率者などに対して行うことができる。出力部214は、タッチパネル等の入力機能を備えたものも含む。 The output unit 214 is a liquid crystal monitor, a speaker, or the like, and performs notification by screen display or voice when it is determined that the risk is high. Accordingly, when it is determined that the degree of danger is high, it is possible to alert the leader or the like. The output unit 214 also includes a device with an input function such as a touch panel.

記憶装置215は、不揮発性メモリまたはSDカード等のリムーバブルメディアを含むストレージであり、大量のデータを変更可能に記憶する。記憶装置215には、センサシステム101との通信制御プログラムおよび、このプログラムで使用する各種管理データが格納され、必要に応じて随時内容が更新される。 The storage device 215 is storage including removable media such as a non-volatile memory or an SD card, and stores a large amount of data in a changeable manner. The storage device 215 stores a program for controlling communication with the sensor system 101 and various management data used by this program, and updates the contents as needed.

(センサシステムの機能構成)
図3は、本実施形態に係るセンサシステムの機能構成例を示すブロック図である。センサシステム101は、画像取得部301、公園特性取得部302、行動パターン取得部303、行動パターンDB304、学習部305を有する。センサシステム101は、さらに、公園の特性(公園の特性データテーブル)306、行動パターンテーブル307、危険度判定部308、危険度算出テーブル309、危険度判定テーブル310、通知部311を有する。なお、以降、データベースをDBと称す。
(Functional configuration of sensor system)
FIG. 3 is a block diagram showing a functional configuration example of the sensor system according to this embodiment. The sensor system 101 has an image acquisition unit 301 , a park characteristic acquisition unit 302 , an action pattern acquisition unit 303 , an action pattern DB 304 and a learning unit 305 . The sensor system 101 further includes a park characteristic (park characteristic data table) 306 , an action pattern table 307 , a risk determination section 308 , a risk calculation table 309 , a risk determination table 310 and a notification section 311 . Hereinafter, the database will be referred to as DB.

画像取得部301は、撮像により撮像場所の画像(動画または静止画)を取得し、取得した画像を公園特性取得部302、行動パターン取得部303、学習部305の各部に送信する。 The image acquisition unit 301 acquires an image (moving or still image) of an imaging location by imaging, and transmits the acquired image to the park characteristic acquisition unit 302 , behavior pattern acquisition unit 303 , and learning unit 305 .

公園特性取得部302は、画像取得部301から受け取った画像から、公園の特性を認識し、認識結果を基に公園の特性データテーブル(公園の特性情報)306を作成する。公園特性取得部302は、地図情報または予め入力された情報を基に、公園の特性(公園の特性データテーブル)306を作成する。公園の特性データテーブル例については、図を用いて後述する。 The park property acquisition unit 302 recognizes park properties from the image received from the image acquisition unit 301, and creates a park property data table (park property information) 306 based on the recognition result. The park characteristic acquisition unit 302 creates a park characteristic (park characteristic data table) 306 based on map information or pre-input information. An example of the park characteristic data table will be described later with reference to the drawings.

行動パターン取得部303は、画像取得部301から受け取った画像から、例えば、子供などの監視対象者を認識し、行動パターンDB304のデータも含めて、監視対象者(子供)の行動パターンテーブル307を作成する。監視対象者(子供)の行動パターンテーブル例は、図を用いて後述する。 The behavior pattern acquisition unit 303 recognizes a person to be monitored, such as a child, from the image received from the image acquisition unit 301, and acquires a behavior pattern table 307 of the person to be monitored (child), including the data in the behavior pattern DB 304. create. An example of the behavior pattern table of the person to be monitored (child) will be described later with reference to the drawings.

学習部305は、画像取得部301から受け取った画像から、子供を認識し、監視対象者(子供)の行動パターンDB304を更新する。また、学習部305は、過去の危険行動の履歴から、危険度算出テーブル309を更新する。危険度算出テーブル309は、行動パターンの種類に対応付けて危険の度合いが特定されたテーブルであり、特性の種類ごとに予め保持されている。危険度算出テーブル例については、図を用いて後述する。 The learning unit 305 recognizes the child from the image received from the image acquisition unit 301, and updates the behavior pattern DB 304 of the person to be monitored (child). Also, the learning unit 305 updates the risk calculation table 309 based on the history of past risky actions. The risk calculation table 309 is a table in which the degree of risk is specified in association with the type of action pattern, and is stored in advance for each type of characteristic. An example of the degree-of-risk calculation table will be described later with reference to the drawings.

危険度判定部308は、公園の特性データテーブル(特性)306および監視対象者(子供)の行動パターンテーブル307と、危険度算出テーブル309とから、危険行動に対する子供ごとの危険度を算出する。すなわち、保持された危険度判定テーブルのうち、公園の特性に対応した危険度判定テーブルを決定して、決定された危険度判定テーブルの中から特定された対象者の行動パターンに対応付けられた危険の度合いを導出する。危険の度合いが決定されるともいえる。そして、危険度判定部308は、算出結果を元に危険度判定テーブル310を作成する。危険度判定テーブル例については、図を用いて後述する。 The risk determining unit 308 calculates the risk of dangerous behavior for each child based on the park characteristic data table (characteristics) 306 , the behavior pattern table 307 of the person being monitored (child), and the risk calculation table 309 . That is, among the stored risk determination tables, the risk determination table corresponding to the characteristics of the park is determined, and the action pattern of the target person identified from the determined risk determination table is associated with the target person's behavior pattern. Derive the degree of danger. It can be said that the degree of danger is determined. Then, the risk determination unit 308 creates a risk determination table 310 based on the calculation results. An example of the risk determination table will be described later with reference to the drawings.

通知部311は、危険度判定テーブル310を元に、危険度が一定以上を超えている危険行動を子供がとったとの判定結果を得た場合、対象者である子供の引率者などの端末に対して、対象者の子供が危険行動をとる可能性が高いとの情報を通知する。通知する情報は、これに限定されず、対象者である子供が危険行動をとる可能性の高低を示す情報を、危険行動ごとに一覧で示す表形式の情報であってもよい。 Based on the risk determination table 310, when the notification unit 311 obtains a determination result that the child has taken a risky action whose risk exceeds a certain level, the notification unit 311 sends a message to a terminal such as a leader of the target child. On the other hand, it notifies information that there is a high possibility that the target person's child will take dangerous behavior. The information to be notified is not limited to this, and may be tabular information showing a list of information indicating the likelihood of the target child taking risky behavior for each risky behavior.

(子供の行動パターン)
子供の行動パターンについて、図を用いて説明する。図4は、本実施形態に係る子供の行動パターンのデータテーブル例を示す図である。子供の行動パターンのデータは、対象となる子供に関する情報が予め登録されている場合と、対象となる子供に関する情報が予め登録されてない場合の2パターンに分類される。図4(a)に対象となる子供に関する情報が予め登録されている場合を示し、図4(b)に対象となる子供に関する情報が予め登録されていない場合を示す。
(children's behavior patterns)
A child's behavior pattern will be described with reference to the drawings. FIG. 4 is a diagram showing an example data table of behavior patterns of children according to the present embodiment. The behavior pattern data of the child is classified into two patterns, one in which information on the target child is registered in advance and one in which the information on the target child is not registered in advance. FIG. 4(a) shows a case where information about a target child is registered in advance, and FIG. 4(b) shows a case where information about a target child is not registered in advance.

先ず、対象となる子供に関する情報が予め登録されている場合の子供の行動パターンのデータテーブル400について説明する。データテーブル400は、対象となる子供に関し、名前401、顔画像402、全身画像403、身長404、位置405、移動方向406、移動速度407、現在の遊び408、周囲が見えている409の各項目の情報を有する。また、データテーブル400は、対象となる子供に関し、性格(活動レベル)410および運動能力(身体能力)411の各項目の情報も有する。名前401の項目には、子供の名前に関する情報が登録される。 First, a data table 400 of behavior patterns of children in which information about target children is registered in advance will be described. The data table 400 includes the items of name 401, face image 402, whole body image 403, height 404, position 405, moving direction 406, moving speed 407, current play 408, and surroundings visible 409. has information on The data table 400 also has information on each item of personality (activity level) 410 and athletic ability (physical ability) 411 regarding the target child. Information on the child's name is registered in the item of name 401 .

顔画像402の項目には、子供の顔画像が登録される。全身画像403の項目には、子供の全身画像が登録される。センサシステム101の撮像で得た画像から登録されている子供の認識は、顔画像402の項目に登録されている子供の顔画像を元に行われる。登録されている子供の認識は、これに限定されず、顔画像の代わりに、全身画像403の項目に登録されている全身画像を元に行ってもよい。また、顔画像402の項目に登録されている顔画像と全身画像403の項目に登録されている全身画像を組み合わせて行ってもよい。顔画像および全身画像を組み合わせることで、顔画像のみまたは全身画像のみの場合と比べて対象箇所が増えることから、登録されている子供の認識精度を向上させることができる。 A child's face image is registered in the item of face image 402 . A child's whole body image is registered in the item of the whole body image 403 . Recognition of a registered child from an image captured by the sensor system 101 is performed based on the face image of the child registered in the face image 402 item. Recognition of the registered child is not limited to this, and may be performed based on the whole body image registered in the item of whole body image 403 instead of the face image. Alternatively, the face image registered in the item of face image 402 and the whole body image registered in the item of whole body image 403 may be combined. By combining the face image and the whole body image, the number of target parts increases compared to when only the face image or only the whole body image is used, so the recognition accuracy of the registered child can be improved.

身長404の項目には、子供の身長に関する情報が登録される。身長404の項目に対して、予めユーザが手動で子供の身長に関する情報を入力してもよい。或いは、本実施形態の撮像装置による撮像で得た全身画像から対象者の子供の身長を推定して、推定結果を基に身長404の項目に対して自動で入力してもよい。 Information about the height of the child is registered in the item of height 404 . For the height 404 item, the user may manually input information regarding the child's height in advance. Alternatively, the height of the subject's child may be estimated from the whole-body image obtained by imaging with the imaging apparatus of this embodiment, and the height 404 item may be automatically input based on the estimation result.

位置405の項目には、公園内において子供がいる位置(場所)に関する情報が登録される。図1(b)のエリアA1~C3のように公園内を複数のエリアに区切った際に、どのエリアに対象の子供がいるかが示されている。ここでは、エリアと表現しているが、エリアではなく座標位置(x、y、z)で示してもよい。位置に関する情報は、センサシステム101の撮像で得た画像から取得される。 The item of position 405 registers information about the position (place) where the child is in the park. When the park is divided into a plurality of areas such as areas A1 to C3 in FIG. 1(b), which area the target child is in is shown. Here, it is expressed as an area, but it may be expressed as a coordinate position (x, y, z) instead of an area. Information about the position is obtained from images captured by the sensor system 101 .

移動方向406の項目には、子供の移動方向に関する情報が登録される。センサシステム101の撮像で得た画像から、子供がエリアA1~C3のうちどのエリアからどのエリアに向かっているかを示す情報が取得されて登録される。後述する移動速度407が「静止」である場合は、子供は移動していないため、移動方向のデータは未取得となる。図4の例では、未取得を「-」と表現している。 Information about the child's moving direction is registered in the item of moving direction 406 . From the image captured by the sensor system 101, information indicating from which area the child is heading to which area among the areas A1 to C3 is acquired and registered. If the moving speed 407, which will be described later, is "stationary", the child is not moving, so the moving direction data is not acquired. In the example of FIG. 4, "-" indicates not yet acquired.

移動速度407の項目には、子供の移動速度に関する情報が登録される。センサシステム101の撮像で得た画像から、単位時間当たりの子供の移動距離を推定し、推定結果を元に移動速度が導出されて移動速度に関する情報が登録される。取得した移動速度と予め定められた閾値を元に、「速い」、「ゆっくり」、「静止」の何れかに分類されて登録される。本実施形態では、移動速度を「速い」、「ゆっくり」、「静止」の3段階で表現しているが、危険度推定の精度向上のために、例えば4段階以上など移動速度の分解能を高くしてもよい。移動速度の分解能は、撮像装置の画素数と撮影間隔(何フレーム/s)とから測定できる速度の分解能を最大分解能としてもよい。また、移動速度に関する情報について具体的な数値を用いて表現してもよい。例えば、入力部が取得した複数フレーム分の撮像画像を用いて、対象となる子供を抽出し、抽出した子供の同一部位の座標の差分と閾値を元に、移動速度に関する情報が設定されることになる。 Information about the child's moving speed is registered in the item of moving speed 407 . Based on the image captured by the sensor system 101, the moving distance of the child per unit time is estimated, the moving speed is derived based on the estimated result, and information about the moving speed is registered. Based on the acquired moving speed and a predetermined threshold value, it is classified into one of "fast", "slow", and "stationary" and registered. In this embodiment, the moving speed is expressed in three stages of "fast", "slow", and "stationary". You may As for the resolution of the moving speed, the resolution of the speed that can be measured from the number of pixels of the imaging device and the imaging interval (frames/s) may be the maximum resolution. Also, the information about the moving speed may be expressed using a specific numerical value. For example, a target child is extracted using a plurality of frames of captured images acquired by the input unit, and information about the movement speed is set based on the difference in the coordinates of the same part of the extracted child and the threshold value. become.

現在の遊び408の項目には、子供が行っている現在の遊びに関する情報が登録される。センサシステム101の撮像で得た画像から、子供の行動を認識することで、子供の現在の遊びに関する情報を取得して登録される。現在の遊びは、例えば、子供がいるエリア内の遊具に基づき決定されてもよい。また、現在の遊びは、子供が鉄棒に手をかけている状態や、子供が砂場に座っている状態や、子供がジャングルジムに手をかけている状態を認識してこの認識結果を元に決定されてもよい。 The current play 408 field contains information about the child's current play. By recognizing the behavior of the child from the image captured by the sensor system 101, information about the child's current play is acquired and registered. Current play may be determined, for example, based on the play equipment in the area where the child is. In addition, the current play recognizes the state where the child is putting his hand on the horizontal bar, the state where the child is sitting in the sandbox, and the state where the child is putting his hand on the jungle gym. may be determined.

周囲が見えている409の項目には、子供が周囲の状況を見えている(周囲の状況を正確に認識して行動している)か、否かを示す情報が登録されている。例えば、センサシステム101の撮像で得た画像から、子供の行動を認識し、「ボールを追いかけている」、且つ「頭が一定期間以上ボールに対してのみ向いている」といった状態を検知し、この状態を検知したときには「周囲が見えていない」と判断される。なお、この状態を検知しないときには、「周囲が見えている」と判断される。例えば、入力部が取得した複数フレーム分の撮像画像を用いて、対象となる子供の顔画像を抽出し、顔の向きが一定時間同じ方向を向いていたとの条件を満たす場合、「周囲が見えていない」状態であると判定する。前記条件を満たさない場合、「周囲が見えている」状態であると判定する。或いは、子供の体の水平方向の向きと、子供の頭の水平方向の向きが同じ状態が一定時間続いたとの条件を満たす場合、「周囲が見えていない」状態であると判定する。前記条件を満たさない場合、「周囲が見えている」状態であると判定する。そして、この判定結果を基に、「見えている」、「見えていない」など、予め設定された複数の項目のうちの何れかが設定される。 Information indicating whether or not the child can see the surroundings (accurately recognizes the surroundings and acts accordingly) is registered in the item 409 that the surroundings can be seen. For example, from the image captured by the sensor system 101, the child's behavior is recognized, and a state such as "chasing the ball" and "head only facing the ball for a certain period of time" is detected, When this state is detected, it is determined that "the surroundings cannot be seen". When this state is not detected, it is determined that "the surroundings are visible". For example, if the face image of a target child is extracted using multiple frames of captured images acquired by the input unit, and the condition is that the face direction has been facing the same direction for a certain period of time, It is determined that it is in the state of If the above conditions are not met, it is determined that the user is in a state of "seeing the surroundings". Alternatively, when the condition that the child's horizontal orientation of the body and the horizontal orientation of the child's head continues for a certain period of time, it is determined that the child is in a state of "the surroundings cannot be seen." If the above conditions are not met, it is determined that the user is in a state of "seeing the surroundings". Then, based on the determination result, one of a plurality of preset items such as "visible" and "not visible" is set.

性格410の項目には、子供の性格(活動レベル)に関する情報が登録される。性格410の項目には、行動パターンDBに予め登録されたデータが格納されており、本実施形態では「おとなしい」または「活発」の何れかが格納されている。「おとなしい」とは、性質が穏やかで活発でなく、活動レベルが相対的に低い子供に対して登録される。「活発」とは、行動が盛んな子供であり、活動レベルが相対的に高い子供に対して登録される。本実施形態では「おとなしい」と「活発」の2つタイプに分類する例を示したが、より詳細に性格を分類して登録してもよい。性格に関する情報は、学習モデルを使用しないで求めてもよいし、学習モデルを使用して求めてもよいし、ユーザによって直接入力されてもよい。学習モデルを使用しない場合、性格は、予め定められた期間内に画像データに写る子供の行動履歴等を基に判定される。例えば、一定時間の移動量が一定量を超える場合に「活発」と判定し、一定量を超えない場合に「おとなしい」と判定してもよい。また、子供の行動を認識して、別の子供と話している(相対的に近い位置にいて向き合っている)時間が一定時間を超える場合を「活発」、超えない場合を「おとなしい」と判定してもよい。学習モデルを使用する場合、例えば、「子供の行動」を入力として、その時の「性格」を正解データとして学習させたモデルを用いて、「性格」を判定してもよい。行動パターンDB304は、学習部305で学習を行うことで、更新される。行動パターンDB304の学習動作については、図10で説明する。 Information on the personality (activity level) of the child is registered in the item of personality 410 . Data pre-registered in the behavior pattern DB is stored in the item of character 410, and in this embodiment, either "gentle" or "active" is stored. "Quiet" is registered for children who are calm and not active in nature and have relatively low activity levels. “Active” refers to a child who is active and is registered as a child whose activity level is relatively high. In the present embodiment, an example of classifying into two types of "gentle" and "active" is shown, but personality may be classified and registered in more detail. Personality information may be determined without using a learning model, may be determined using a learning model, or may be entered directly by a user. When the learning model is not used, the personality is determined based on the behavior history of the child appearing in the image data within a predetermined period. For example, if the amount of movement for a certain period of time exceeds a certain amount, it may be determined to be "active", and if it does not exceed a certain amount, it may be determined to be "gentle". In addition, it recognizes the child's behavior and judges it as "active" if the time spent talking to another child (in a relatively close position and facing each other) exceeds a certain amount of time, and as "gentle" if it does not exceed a certain amount of time. You may When a learning model is used, for example, the "personality" may be determined using a model learned by using "child's behavior" as an input and "personality" at that time as correct data. The behavior pattern DB 304 is updated by learning by the learning unit 305 . The learning operation of the action pattern DB 304 will be described with reference to FIG. 10 .

運動能力411に関する項目には、子供の運動能力に関する情報が登録される。運動能力411の項目には、行動パターンDBに予め登録されたデータが格納されており、本実施形態では、例えば1~5の5段階のうち何れかの値が格納されている。なお、数値の「1」は運動能力が最も低いことを示し、数値が大きくなるに従い運動能力が高くなることを示し、数値の「5」は運動能力が最も高いことを示している。運動能力に関する情報は、学習モデルを使用しないで求めてもよいし、学習モデルを使用して求めてもよいし、ユーザによって直接入力されてもよい。学習モデルを使用しない場合、運動能力は、予め定められた期間内に画像データに写る子供の行動履歴等を基に判定される。例えば、動き量から行動を認識して、「鉄棒で逆上がりが出来ている」、「ジャングルジムで頂点まで登れている」などといった状態を認識して、運動能力が高いと判定(評価)してもよい。或いは、子供の身長や、期間内の最大移動速度などから判定してもよい。身長が高ければ、また最大移動速度が高ければ、より運動揚力を高い値に設定してもよい。学習モデルを使用する場合、例えば、「子供の行動」を入力として、その時の「運動能力」を正解データとして学習させたモデルを用いて、「運動能力」を判定してもよい。 Information about the child's athletic ability is registered in the item about athletic ability 411 . Data pre-registered in the action pattern DB is stored in the item of athletic ability 411, and in the present embodiment, for example, one of five levels from 1 to 5 is stored. The numerical value "1" indicates the lowest athletic ability, the higher the numerical value, the higher the athletic ability, and the numerical value "5" indicates the highest athletic ability. Information about athletic performance may be determined without using a learning model, may be determined using a learning model, or may be entered directly by a user. When the learning model is not used, the athletic ability is determined based on the child's action history and the like appearing in the image data within a predetermined period. For example, by recognizing behavior from the amount of movement, recognizing states such as "I can do a reverse climb on a horizontal bar" or "I can climb to the top on a jungle gym", I judge (evaluate) that my athletic ability is high. may Alternatively, it may be determined from the height of the child, the maximum moving speed within the period, or the like. If the height is high and the maximum movement speed is high, the kinetic lift may be set to a higher value. When a learning model is used, for example, the "athletic ability" may be determined using a model learned by using "child's behavior" as an input and "athletic ability" at that time as correct data.

続いて、対象者の子供に関する情報が予め登録されていない場合の子供の行動パターンのデータテーブル420について説明する。データテーブル420は、対象となる公園にいる子供に関し、ID421、顔画像422、全身画像423、身長424、位置425、移動方向426、移動速度427、現在の遊び428、周囲が見えている429の各項目の情報を有する。また、データテーブル420は、対象となる公園にいる子供に関し、性格430および運動能力431の各項目の情報も有する。 Next, the data table 420 of the child's behavior pattern when the information about the child of the target person is not registered in advance will be described. The data table 420 includes ID 421, face image 422, whole body image 423, height 424, position 425, movement direction 426, movement speed 427, current play 428, and surroundings visible 429 for children in the target park. It has information for each item. The data table 420 also has information on items of personality 430 and athletic ability 431 regarding children in the target park.

ID421の項目には、未登録の子供を識別するための各子供固有のIDに関する情報が登録される。顔画像422の項目には、未登録の子供の顔画像が登録される。センサシステム101で得た画像から、認識した子供の顔画像の中に、行動パターンに登録されていない且つID421に対応付けて登録されていない顔画像がある場合、IDが発行されIDと対応付けられて対象の顔画像がデータテーブル420に登録される。全身画像423の項目には、未登録の子供の全身の画像が登録される。ID421の項目と顔画像422の項目にデータがあり、全身画像423の項目にデータがない場合、センサシステム101の撮像で得た画像から、顔画像422の項目に登録された顔画像に対応する子供の全身画像を認識し、データテーブル420に登録される。センサシステム101の撮像で得た画像から子供の認識は、顔画像422の項目に登録されている子供の顔画像を元に行われる。子供の認識は、これに限定されず、全身画像423の項目に登録されている全身画像を元に行ってもよいし、顔画像422の項目に登録されている顔画像と全身画像423の項目に登録されている全身画像を組み合わせて行ってもよい。顔画像および全身画像を組み合わせることで、顔画像のみまたは全身画像のみの場合と比べて対象箇所が増えることから、子供の認識精度を向上させることができる。 In the item of ID 421, information on an ID unique to each child for identifying unregistered children is registered. An unregistered child's face image is registered in the face image 422 item. If there is a face image that is not registered in the behavior pattern and is not registered in association with the ID 421 among the recognized child face images from the image obtained by the sensor system 101, an ID is issued and associated with the ID. Then, the target face image is registered in the data table 420 . The full-body image 423 field registers a full-body image of an unregistered child. When there is data in the item of ID 421 and the item of face image 422 and there is no data in the item of full-body image 423, the face image registered in the item of face image 422 is selected from the image obtained by imaging by the sensor system 101. A full-body image of the child is recognized and registered in the data table 420 . Recognition of a child from an image captured by the sensor system 101 is performed based on the face image of the child registered in the face image 422 item. Recognition of the child is not limited to this. may be performed in combination with whole-body images registered in . By combining the face image and the whole body image, the number of target parts increases compared to the case where only the face image or only the whole body image is used, so it is possible to improve the recognition accuracy of the child.

身長424の項目には、IDが発行され登録されている子供の身長に関する情報が登録される。本実施形態の撮像装置による撮像で得た子供の全身画像から子供の身長を推定して、推定結果を基に身長424の項目に対して自動で入力してもよい。 In the item of height 424, information regarding the height of a child whose ID is issued and registered is registered. The height of the child may be estimated from the whole-body image of the child captured by the imaging device of this embodiment, and the height 424 may be automatically input based on the estimation result.

位置425、移動方向426、移動速度427、現在の遊び428の各項目には、上述の位置405、移動方向406、移動速度407、現在の遊び408の各項目に登録される情報と同様な情報が格納される。また、周囲が見えている429の項目には、上述の周囲が見えている409の項目に登録される情報と同様な情報が格納される。 The position 425, moving direction 426, moving speed 427, and current play 428 items contain the same information as the information registered in the above-described position 405, moving direction 406, moving speed 407, and current play 408 items. is stored. In addition, the same information as the information registered in the above-described item 409 of which the surroundings are visible is stored in the item of 429 which is the surroundings can be seen.

性格430の項目には、未登録の子供の性格に関する情報が登録される。性格430の項目には、ID421が割り振られた(発行された)ときから、図10に示す行動パターンDBの学習動作が始まり、学習動作が完了すると、学習結果を基にデータが入力される。学習動作が完了するまでは、「学習中」となり、データは未入力の状態になる。本実施形態で扱う性格データは、性格410と同様に「おとなしい」(活動レベルが低い)と「活発」(活動レベルが高い)のどちらかが登録される。また、性格410の項目に入力される情報と同様、より詳細に性格を分類して登録してもよい。 Information about the character of an unregistered child is registered in the item of character 430 . When the ID 421 is assigned (issued) to the item of personality 430, the learning operation of the action pattern DB shown in FIG. 10 starts, and when the learning operation is completed, data is input based on the learning result. Until the learning operation is completed, the state is "learning" and no data is input. Personality data handled in this embodiment is registered with either "gentle" (low activity level) or "active" (high activity level), like the personality 410 . Further, similar to the information entered in the item of personality 410, the personality may be classified and registered in more detail.

運動能力431に関する項目には、未登録の子供の運動能力(身体能力)に関する情報が登録される。運動能力431の項目には、性格430の項目と同様に、ID421が割り振られた(発行された)ときから、図10に示す行動パターンDBの学習動作が始まり、学習動作が完了すると、学習結果を基にデータが入力される。学習動作が完了するまでは、「学習中」となり、データは未入力の状態になる。本実施形態で扱う運動能力データは、運動能力411と同様に、例えば1~5の5段階のうち何れかの値が登録される。 Information about the athletic ability (physical ability) of the unregistered child is registered in the item about the athletic ability 431 . Similar to the item of personality 430, the item of athletic ability 431 starts learning operation of the action pattern DB shown in FIG. 10 when the ID 421 is assigned (issued). Data is entered based on Until the learning operation is completed, the state is "learning" and no data is input. As for the athletic performance data handled in this embodiment, any value among five levels from 1 to 5, for example, is registered, like the athletic performance 411 .

(公園の特性)
続いて、公園の特性について、図を用いて説明する。図5は、本実施形態に係る公園の特性のデータテーブル例を示す図である。なお、図5に示すデータテーブルは、図1に示す公園を対象に作成されたものとする。公園の特性のデータテーブル500は、位置501、属性502、属性の特徴503、情報504の各項目の情報を有する。なお、各項目の情報は、ユーザによって直接入力された情報であってもよい。
(Characteristics of the park)
Next, the characteristics of parks will be explained with reference to figures. FIG. 5 is a diagram showing an example of a data table of park characteristics according to the present embodiment. It is assumed that the data table shown in FIG. 5 is created for the park shown in FIG. The park characteristics data table 500 has information on each item of position 501 , attribute 502 , attribute characteristics 503 , and information 504 . The information of each item may be information directly input by the user.

位置501の項目には、例えば、図1(b)に示すエリアA1、A2、A3、B1、B2、B3、C1、C2、C3のように公園を区切った際に、どのエリアに対象の公園の特性(属性)があるかを示す情報が登録される。位置501の項目に登録される情報は、センサシステム101の撮像で得られた撮像画像および撮像情報から取得される。また、地図情報から取得してもよい。地図情報は、予め外部から取得してシステム内のデータベースに登録されてもよいし、インターネットを介して取得してもよい。 In the item of position 501, for example, when the park is divided into areas A1, A2, A3, B1, B2, B3, C1, C2, and C3 shown in FIG. Information indicating whether there is a characteristic (attribute) of is registered. The information registered in the item of the position 501 is obtained from the captured image and the captured information obtained by capturing the image of the sensor system 101 . Moreover, you may acquire from map information. The map information may be acquired in advance from the outside and registered in the database within the system, or may be acquired via the Internet.

属性502の項目には、公園の特性の属性を示す情報であって、子供の危険行動を推定する際に必要となる公園の要素に関する情報であり、センサシステム101の撮像で得た画像から、物体認識を用いて取得された情報が登録される。公園の要素に関する情報は、例えば、柵1、柵2、鉄棒、砂場、ジャングルジム、出入口、公園に隣接する外の道路などの情報を含む。 The item of the attribute 502 is information indicating the attribute of the characteristics of the park, which is information about the elements of the park necessary when estimating the risky behavior of the child. Information acquired using object recognition is registered. Information about park elements includes, for example, fence 1, fence 2, horizontal bar, sandpit, jungle gym, doorways, and outside roads adjacent to the park.

属性の特徴503の項目には、属性の特徴に関する情報が登録される。属性の特徴に関する情報は、地図情報から取得してもよい。また、属性が外の道路の場合、道路の種別から交通量を決定してもよいし、一定時間の撮像画像から、映った車両の台数から判別してもよい。 In the item of attribute characteristics 503, information on attribute characteristics is registered. Information about attribute features may be obtained from map information. When the attribute is a road outside, the traffic volume may be determined from the type of the road, or may be determined from the number of vehicles captured in images captured for a certain period of time.

情報504の項目には、属性の特徴に関する情報が登録される。情報504の項目は、属性502と同様に、センサシステム101の撮像で得た画像から、物体認識を用いて取得された情報が登録される。 In the item of information 504, information regarding the characteristics of attributes is registered. As with the attribute 502, the information 504 contains information acquired by object recognition from an image captured by the sensor system 101. FIG.

(危険度算出用のデータ)
危険度算出用のデータについて図を用い説明する。図6は、本実施形態に係る危険度算出に用いるデータテーブル例を示す図である。
(Data for risk calculation)
The data for risk calculation will be described with reference to the drawings. FIG. 6 is a diagram showing an example of a data table used for risk calculation according to this embodiment.

危険度算出のデータテーブルは、図4に示す行動パターンデータテーブルと図5に示す公園の特性データテーブルとから、子供が起こしうる行動のうち、危険を生じ得る行動(危険行動)について危険の程度を示す危険度を算出するためのテーブルである。なお、危険度の数値は、危険の大きさを示しており、大きいと危険度が高いことを示し、小さいと危険度が低いことを示している。 The data table for calculating the degree of risk is based on the action pattern data table shown in FIG. 4 and the park characteristic data table shown in FIG. is a table for calculating the degree of risk indicating The numerical value of the degree of risk indicates the degree of danger, and a large value indicates a high degree of risk, and a small value indicates a low degree of risk.

図6(a)は、複数種類の危険行動のうち「出入口を飛び出す」という危険行動に対して設定された危険度算出のデータテーブルである。危険度算出用のデータテーブル600は、子供の移動速度601、周囲が見えている602、飛び出し防止杭の有無603、危険度604の各項目に関する情報を含む。 FIG. 6(a) is a data table for calculating the degree of risk set for the risky behavior of "jumping out of the doorway" among multiple types of risky behaviors. A data table 600 for calculating the degree of risk includes information on items such as the child's moving speed 601, the surroundings being visible 602, the presence or absence of jump-out prevention stakes 603, and the degree of risk 604. FIG.

子供の移動速度601の項目には、子供の行動パターンデータテーブルの要素である、子供の移動速度に関する情報であって、例えば、「速い」、「ゆっくり」(遅い)、「なし」など、予め設定された複数の速さを示す情報が示される。 The child's moving speed 601 field contains information about the child's moving speed, which is an element of the child's behavior pattern data table. Information indicating a plurality of set speeds is shown.

周囲が見えている602の項目には、子供の行動パターンデータテーブルの要素である、子供が周囲の状況を見えているか否かの情報が示される。例えば、「見えている」、「見えていない」、「不明」など、予め設定された複数の選択肢のうちの何れかの情報が示される。 An item 602 that the surroundings are visible shows information as to whether the child can see the surroundings, which is an element of the child's behavior pattern data table. For example, one of a plurality of preset options such as "visible", "not visible", and "unknown" is displayed.

飛び出し防止杭の有無603の項目には、公園の特性の出入口の属性が持つ、飛び出し防止杭の有無の情報であって、例えば、飛び出し防止杭があるときには「有」が設定され、飛び出し防止杭が無いときには「無」が設定される。 The item of presence/absence of jump-out prevention stakes 603 is information on the presence or absence of jump-out prevention stakes possessed by the attribute of the entrance of the park characteristics. "None" is set when there is no

危険度604の項目には、子供の移動速度601、周囲が見えている602、飛び出し防止杭の有無603の各情報を基に設定される危険度に関する情報が格納される。なお、危険度に関する情報は、子供の移動速度601、周囲が見えている602、飛び出し防止杭の有無603の3つの情報を元に設定されることに限定されない。危険度に関する情報は、例えば、子供の移動速度601、周囲が見えている602、飛び出し防止杭の有無603の3つの情報のうち2つの情報を元に設定されてもよいし、1つの情報を元に設定されてもよい。 The item of risk level 604 stores information about the risk level set based on the information of the child's moving speed 601 , the surroundings being visible 602 , and the presence or absence of jump-out prevention stakes 603 . The information about the degree of danger is not limited to being set based on three pieces of information: the child's moving speed 601, the surroundings being visible 602, and the presence or absence of jump-out prevention stakes 603. The information about the degree of danger may be set based on two pieces of three pieces of information, for example, the child's movement speed 601, the surroundings being visible 602, and the presence or absence of jump-out prevention stakes 603, or may be set based on one piece of information. may be set to the original.

危険度604の項目には、子供の移動速度601、周囲が見えている602、飛び出し防止杭の有無603のデータの組み合わせごとの危険度を数値化した情報が格納される。また、この数値は、過去の子供の危険行動の事例を元に学習させて、危険度の精度を向上させてもよい。危険度算出テーブルの学習フローは、図11を用いて説明する。 The item of risk level 604 stores information quantifying the risk level for each combination of the child's moving speed 601, the surroundings being visible 602, and the presence/absence of jump-out prevention stakes 603. FIG. Also, this numerical value may be learned based on past examples of children's risky behaviors to improve the accuracy of the degree of risk. A learning flow of the risk calculation table will be described with reference to FIG.

図6(b)は、複数種類の危険行動のうち「柵から落ちる」という危険行動に対して設定された危険度算出のデータテーブルである。危険度算出用のデータテーブル610は、子供の運動能力611、柵の高さ612、柵の種類613、危険度614の各項目に関する情報を含む。 FIG. 6(b) is a data table for calculating the degree of risk set for a risky action of "falling off a fence" among multiple types of risky actions. A data table 610 for calculating the degree of danger includes information on each item of child's athletic ability 611 , fence height 612 , fence type 613 , and degree of danger 614 .

子供の運動能力611の項目には、子供の行動パターンデータテーブルの要素である、子供の運動能力に関する情報であって、子供の運動能力の高さを低いから高いに向けて、例えば、1、2、3、4、5の5段階のうちの何れかの情報が示される。 The child's athletic ability 611 item contains information on the child's athletic ability, which is an element of the child's behavior pattern data table. Information of one of five stages of 2, 3, 4, and 5 is indicated.

柵の高さ612の項目には、公園の特性の柵の属性が持つ、柵の高さに関する情報が示される。5m以上の高い柵があるときには「高い(5m以上)」が設定され、2m-5mの柵があるときには「中(2m-5m)」が設定され、1m-2mの柵があるときには「低い(1m-2m)」が設定され、柵が無いときには「無し」が設定される。 The item of height of fence 612 shows information about the height of the fence, which is possessed by the fence attribute of the park characteristics. If there is a high fence of 5m or more, "high (5m or more)" is set, if there is a fence of 2m-5m, "medium (2m-5m)" is set, and if there is a fence of 1m-2m, "low ( 1m-2m)” is set, and “None” is set when there is no fence.

柵の種類613の項目には、公園の特性の柵の属性が持つ、柵の種類に関する情報が設定される。柵が登りやすい形状や高さであるときには「登りやすい」が設定され、柵が登りにくい形状や高さであるときには「登りにくい」が設定され、柵が登りやすいか登りにくいか不明であるときには「不明」が設定される。 In the field of fence type 613, information about the type of fence possessed by the park characteristic fence attribute is set. If the fence has a shape or height that is easy to climb, "easy to climb" is set. "Unknown" is set.

危険度614の項目には、子供の運動能力611、柵の高さ612,柵の種類613の各情報を元に設定される危険度に関する情報が格納される。なお、危険度に関する情報は、子供の運動能力611、柵の高さ612、柵の種類613の3つの情報を元に設定されることに限定されない。危険度に関する情報は、例えば、子供の運動能力611、柵の高さ612、柵の種類613の3つの情報のうちの2つの情報を元に設定されてもよいし、1つの情報を元に設定されてもよい。 The risk level 614 field stores information about the risk level set based on the child's athletic ability 611, fence height 612, and fence type 613 information. The information about the degree of risk is not limited to being set based on the three pieces of information of the child's athletic ability 611, the height 612 of the fence, and the type 613 of the fence. The information about the degree of risk may be set based on two pieces of information out of three pieces of information, for example, the child's athletic ability 611, the fence height 612, and the fence type 613, or may be set based on one piece of information. may be set.

危険度614の項目は、危険度604の項目と同様に、子供の運動能力611、柵の高さ612、柵の種類613のデータの組み合わせごとの危険度を数値化した情報が格納される。また、この数値は、過去の子供の危険行動の事例を元に学習させて、危険度の精度を向上させてもよい。危険度算出テーブルの学習フローは、図11を用いて説明する。 Similar to the item of the degree of risk 604, the item of the degree of risk 614 stores information that quantifies the degree of risk for each combination of the data of the child's athletic ability 611, the height of the fence 612, and the type of fence 613. Also, this numerical value may be learned based on past examples of children's risky behaviors to improve the accuracy of the degree of risk. A learning flow of the risk calculation table will be described with reference to FIG.

(危険度の判定用のデータ)
危険度の判定用のデータについて、図を用いて説明する。図7は、本実施形態に係る危険度の判定に用いるデータテーブル例を示す図である。図7では、図4(a)に示す子供の行動パターンデータテーブルと、図5に示す公園の特性データテーブル、図6に示す危険度算出テーブルから危険度を判定した際の結果を示している。危険度判定テーブル700は、子供701、危険行動702、危険度703の各項目の情報を有する。
(Data for judging risk)
The data for judging the degree of risk will be described with reference to the drawings. FIG. 7 is a diagram showing an example of a data table used for determining the degree of risk according to this embodiment. FIG. 7 shows the result of judging the risk from the child behavior pattern data table shown in FIG. 4A, the park characteristic data table shown in FIG. 5, and the risk calculation table shown in FIG. . The risk determination table 700 has information on each item of child 701 , risky behavior 702 , and risk 703 .

子供701の項目には、子供の名前401の中で危険度を算出でき、危険度の算出対象となる子供の名前が格納される。危険度が算出できるか否かは、図4(a)の位置405や移動方向406の項目に格納される情報と、図5の位置501の項目に格納される情報とが共通しているか否かを判定することで求められる。共通しているとの判定結果を得た場合、図6に示すテーブルと照らし合わせて、図6に示すテーブルから危険度を算出できる場合には、次の処理を実行する。すなわち、危険度の判定結果として、図7に示すテーブルに子供701の項目に子供の名前(図4(a)に示す名前401の項目に格納される名前)を追加する。 The child 701 item stores the name of a child whose risk level can be calculated among the child names 401 and whose risk level is to be calculated. Whether or not the degree of risk can be calculated depends on whether or not the information stored in the items of position 405 and moving direction 406 in FIG. 4A and the information stored in the item of position 501 in FIG. It is obtained by determining whether If the result of determination that there is a commonality is obtained, the table shown in FIG. 6 is checked, and if the degree of risk can be calculated from the table shown in FIG. 6, the following processing is executed. That is, as a risk determination result, the child's name (the name stored in the name 401 field shown in FIG. 4A) is added to the child 701 field in the table shown in FIG.

危険行動702の項目には、子供が起こす可能性がある危険行動が格納される。危険行動702の種類は、図6に示す危険度算出テーブルの数だけ存在する。 The item of risky behavior 702 stores risky behavior that a child may take. There are as many types of dangerous behaviors 702 as there are risk calculation tables shown in FIG.

危険度703の項目には、子供701の項目に格納される子供ごとの危険行動に対する危険度に関する情報が格納される。危険度703の項目には、危険度604の項目や危険度614の項目に格納される数値がそのままデータとして入力される。 The risk level 703 field stores information about the risk level for each child stored in the child 701 field. In the item of the degree of risk 703, the numerical value stored in the item of the degree of risk 604 and the item of the degree of risk 614 is input as data as it is.

(危険予測処理)
図8は、本実施形態に係るセンサシステムの全体の動作を示すフローチャートである。なお、本処理手順は、ROM202にプログラムとして格納され、CPU201により実行される。また、図8におけるステップの一部または全部の機能をASIC及び電子回路等のハードウェアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味し、以後のフローチャートにおいても同様とする。
(Danger prediction processing)
FIG. 8 is a flowchart showing the overall operation of the sensor system according to this embodiment. This processing procedure is stored as a program in the ROM 202 and executed by the CPU 201 . Also, some or all of the functions of the steps in FIG. 8 may be realized by hardware such as ASIC and electronic circuits. Note that the symbol "S" in the description of each process means a step in the flowchart, and the same applies to subsequent flowcharts.

本実施形態に係るセンサシステムは、画像の取得処理S801、子供や公園の認識処理S802、危険度の算出処理S803、危険行動の通知処理S804の4つのステップに分かれている。これら4つのステップは、一定時間ごとに実行される。 The sensor system according to this embodiment is divided into four steps: an image acquisition process S801, a child or park recognition process S802, a risk calculation process S803, and a dangerous behavior notification process S804. These four steps are executed at regular time intervals.

S801では、センサシステム101による撮像で得た画像(動画または静止画)を取得する処理を実行する。 In S801, a process of acquiring an image (moving image or still image) captured by the sensor system 101 is executed.

S802では、S801の処理で取得した画像から、画像認識を用いて、子供や公園の認識処理を実行する。なお、画像認識は、公知の技術を用いて実行される。 In S802, recognition processing of children and parks is executed using image recognition from the image acquired in the processing of S801. Note that image recognition is performed using a known technique.

S803では、S802の処理で取得したデータを元に、危険度を算出する処理を実行する。危険度を算出する処理の詳細については、図を用いて後述する。 In S803, processing for calculating the degree of risk is executed based on the data acquired in the processing of S802. Details of the processing for calculating the degree of risk will be described later with reference to the drawings.

S804では、S803の処理で得られた危険度を元に、危険度が所定の閾値以上である場合に、対象の子供の引率者などの端末に対して、子供の危険行動に関する情報を通知する。 In S804, based on the degree of risk obtained in the process of S803, if the degree of risk is equal to or greater than a predetermined threshold, information regarding the child's risky behavior is notified to a terminal such as the leader of the target child. .

(危険度の算出処理)
上述したS803の危険度の算出処理の詳細について、図を用いて説明する。図9は、本実施形態に係る危険度の算出処理の詳細な流れを示すフローチャートである。
(Risk calculation processing)
Details of the above-described risk degree calculation processing in S803 will be described with reference to the drawings. FIG. 9 is a flowchart showing the detailed flow of the risk calculation process according to the present embodiment.

S901では、S802の処理で認識した結果が取得される。すなわち、子供の認識結果と公園の認識結果が取得される。 In S901, the result of recognition in the process of S802 is obtained. That is, the child recognition result and the park recognition result are acquired.

S902では、S901で取得した公園の認識結果を元に、公園の特性情報(公園の特性データテーブル)を取得する。S903では、S901で取得した子供の認識結果と、予め登録されている行動パターンデータとから、子供の行動パターンデータテーブルを取得する。すなわち、解析して検出した子供の位置、子供の移動速度、子供の現在の行動の種類、および子供の特徴を用いて、子供の行動パターンデータテーブルを特定することになる。子供の特徴は、子供の性格(活動レベル)および子供の運動能力(身体能力)を含む。なお、子供の行動パターンデータテーブルの特定は、子供の位置、子供の移動速度、子供の現在の行動の種類、および子供の特徴の検出結果に限定されない。例えば、子供の行動パターンデータテーブルの特定は、子供の位置、子供の移動速度および子供の現在の行動の種類の検出結果を用いてもよい。 In S902, park characteristic information (park characteristic data table) is acquired based on the park recognition result acquired in S901. In S903, a child behavior pattern data table is obtained from the child recognition result obtained in S901 and pre-registered behavior pattern data. That is, the child's behavior pattern data table is specified using the child's position, the child's movement speed, the child's current behavior type, and the child's characteristics that are analyzed and detected. The child's characteristics include the child's personality (activity level) and the child's motor skills (physical performance). The identification of the child's behavior pattern data table is not limited to the child's position, the child's moving speed, the child's current behavior type, and the child's feature detection results. For example, identifying the child's behavior pattern data table may use detection results of the child's location, the child's movement speed, and the child's current behavior type.

S904では、対象の子供が特定される。S905では、S902で取得した公園の特性情報(公園の特性データテーブル)と、S903で取得した子供の行動パターンデータテーブルと、予め登録されている危険度算出テーブルとを用いて、S904で特定された対象の子供の危険度が算出される。危険度算出テーブルは、例えば、図6示すテーブルである。 At S904, the child of interest is identified. In S905, using the park characteristic information (park characteristic data table) acquired in S902, the child behavior pattern data table acquired in S903, and the risk degree calculation table registered in advance, the park specified in S904 is used. The risk level of the target child is calculated. The risk calculation table is, for example, the table shown in FIG.

S906では、S905で算出した危険度が所定の閾値以上であるかどうかが判定される。危険度が所定の閾値以上であるとの判定結果を得た場合(S906のYES)、処理がS907に移行される。他方、危険度が閾値以上ではないとの判定結果を得た場合(S906のNO)、S907をスキップし処理がS908に移行される。 In S906, it is determined whether or not the risk calculated in S905 is equal to or greater than a predetermined threshold. If it is determined that the degree of risk is greater than or equal to the predetermined threshold (YES in S906), the process proceeds to S907. On the other hand, if it is determined that the degree of risk is not equal to or greater than the threshold (NO in S906), S907 is skipped and the process proceeds to S908.

S907では、危険度が高いことを子供の引率者などに通知するための危険度通知リストに追加して保存される。この危険度通知リストを元に、S804の処理で対象となる子供の引率者などに通知する処理が実行される。 In S907, the information is added to and stored in a risk notification list for notifying the guardian of the child that the risk is high. Based on this risk level notification list, the process of notifying the guardian of the target child or the like is executed in the process of S804.

S908では、認識した全ての子供に対して危険度の算出を完了したか否かが判定される。全ての子供に対して危険度の算出を完了していないとの判定結果を得た場合(S908のNO)、処理がS904に戻され、危険度の算出を実行していない子供に対する処理が行われる。全ての子供に対して危険度の算出を完了したとの判定結果を得た場合(S908のYES)、図9に示すフローを終える。 In S908, it is determined whether or not the risk calculation has been completed for all recognized children. If it is determined that the risk calculation has not been completed for all children (NO in S908), the process returns to S904, and the child whose risk has not been calculated is processed. will be If it is determined that the calculation of the degree of risk has been completed for all children (YES in S908), the flow shown in FIG. 9 ends.

よって、全ての子供に対して危険度の算出が行われ、上述の条件を満たす子供については危険度通知リストに追加されることになる。 Therefore, the degree of risk is calculated for all children, and the child who satisfies the above conditions is added to the degree of risk notification list.

(行動パターンDBの学習処理)
行動パターンDBの学習処理について図を用いて説明する。図10は、本実施形態に係る行動パターンDBの学習処理の流れを示すフローチャートである。なお、本処理手順は、ROM202にプログラムとして格納され、CPU201により実行される。また、図10におけるステップの一部または全部の機能をASIC及び電子回路等のハードウェアで実現してもよい。
(Learning processing of action pattern DB)
Learning processing of the action pattern DB will be described with reference to the drawings. FIG. 10 is a flowchart showing the flow of learning processing of the action pattern DB according to this embodiment. This processing procedure is stored as a program in the ROM 202 and executed by the CPU 201 . Also, some or all of the functions of the steps in FIG. 10 may be realized by hardware such as ASIC and electronic circuits.

S1001では、画像取得部301から画像(動画または静止画)を取得する。 In S<b>1001 , an image (moving image or still image) is obtained from the image obtaining unit 301 .

S1002では、S1001で取得した画像を解析して子供を検出する。子供の検出方法は、例えば、予め登録されている子供の顔のデータを用いてマッチング処理を行う方法でもよいし、管理者等が撮像画像に対して指定する方法でもよい。 In S1002, the image acquired in S1001 is analyzed to detect children. The child detection method may be, for example, a method of performing matching processing using pre-registered child face data, or a method of designation by an administrator or the like for the captured image.

S1003では、S1002の処理で子供を検出できたかどうかを判定する。子供を検出できないとの判定結果を得た場合(S1003のNO)、図10に示すフローを終える。他方、子供を検出できたとの判定結果を得た場合(S1003のYES)、処理がS1004に移行される。 In S1003, it is determined whether or not a child has been detected in the processing of S1002. If it is determined that the child cannot be detected (NO in S1003), the flow shown in FIG. 10 ends. On the other hand, if it is determined that a child has been detected (YES in S1003), the process proceeds to S1004.

S1004では、対象の子供が特定される。S1005では、S1004で特定した対象の子供の動きの量を取得する。子供の動きの量は、例えば、複数のフレーム分の撮像画像を元に、子供の所定箇所の座標を元に導出してもよい。 At S1004, the target child is identified. In S1005, the amount of movement of the target child identified in S1004 is acquired. The amount of movement of the child may be derived, for example, based on the coordinates of a predetermined location of the child based on the captured images for a plurality of frames.

S1006では、S1005で取得した子供の動きの量から、子供の性格(「活発」、「おとなしい」等)を判定する。S1007では、S1005で取得した子供の動きの量から、身体能力を判定する。 In S1006, the child's character ("active", "gentle", etc.) is determined from the amount of movement of the child acquired in S1005. In S1007, the physical ability is determined from the amount of movement of the child acquired in S1005.

S1008では、S1006で判定した性格とS1006で判定した身体能力を学習し、行動パターンDB304を更新する。 In S1008, the personality determined in S1006 and the physical ability determined in S1006 are learned, and the action pattern DB 304 is updated.

S1009では、認識した全ての子供に対して処理を完了したか否かを判定する。全ての子供に対して処理を完了していないとの判定結果を得た場合(S1009のNO)、処理がS1004に戻され、性格および身体能力を判定していない子供に対する処理が行われる。全ての子供に対して処理を完了したとの判定結果を得た場合(S1009のYES)、図10に示すフローを終える。 In S1009, it is determined whether or not processing has been completed for all recognized children. If it is determined that the process has not been completed for all children (NO in S1009), the process returns to S1004, and the child whose personality and physical ability have not been determined is processed. If it is determined that the processing has been completed for all children (YES in S1009), the flow shown in FIG. 10 ends.

よって、全ての子供に対して性格(活動レベル)および身体能力の判定が行われ、全ての子供の性格および身体能力を学習して行動パターンDBを更新することになる。 Therefore, the character (activity level) and physical ability are determined for all children, and the behavior pattern DB is updated by learning the character and physical ability of all children.

(危険度算出テーブルの学習処理)
危険度算出テーブルの学習処理について図を用いて説明する。図11は、本実施形態に係る危険度算出テーブルの学習処理の流れを示すフローチャートである。危険度算出テーブルの学習処理は、例えば、子供が危険行動を取った場合と、過去の危険行動の事例による場合との2つの処理がある。図11(a)に子供が危険行動を取った場合を示し、図11(b)に過去の危険行動の事例による場合を示す。なお、本処理手順は、ROM202にプログラムとして格納され、CPU201により実行される。また、図10におけるステップの一部または全部の機能をASIC及び電子回路等のハードウェアで実現してもよい。
(Learning processing of risk calculation table)
Learning processing of the risk calculation table will be described with reference to the drawings. FIG. 11 is a flowchart showing the flow of learning processing for the risk calculation table according to this embodiment. The learning process of the risk calculation table includes two processes, for example, when a child takes a risky action and when it is based on past examples of risky action. FIG. 11(a) shows a case where a child took a risky action, and FIG. 11(b) shows a case of a past risky action. This processing procedure is stored as a program in the ROM 202 and executed by the CPU 201 . Also, some or all of the functions of the steps in FIG. 10 may be realized by hardware such as ASIC and electronic circuits.

先ず、子供が危険行動を取った場合の危険度算出テーブルの学習処理について、図11(a)を用いて説明する。 First, learning processing of the risk calculation table when a child takes a dangerous action will be described with reference to FIG. 11(a).

S1101では、画像取得部301から画像(動画または静止画)を取得する。 In S<b>1101 , an image (moving image or still image) is obtained from the image obtaining unit 301 .

S1102では、画像に映る子供が危険行動を起こしていたら、画像から画像に映る子供の行動を検出する。 In S1102, if the child appearing in the image has taken a dangerous action, the action of the child appearing in the image is detected from the image.

S1103では、S1102の処理で危険行動が検出されたか否かを判定する。危険行動が検出されていないとの判定結果を得た場合(S1103のNO)、図11(a)に示すフローを終える。他方、危険行動が検出されたとの判定結果を得た場合(S1103のYES)、処理がS1104に移行される。 In S1103, it is determined whether or not a dangerous behavior has been detected in the processing of S1102. If it is determined that no dangerous behavior has been detected (NO in S1103), the flow shown in FIG. 11A is terminated. On the other hand, if it is determined that dangerous behavior has been detected (YES in S1103), the process proceeds to S1104.

S1104では、検出した危険行動のうち対象の危険行動が特定される。S1105では、S1104で特定された対象の危険行動をとった子供の行動パターンデータテーブルを取得する。S1106では、公園の特性情報(公園の特性データテーブル)を取得する。 In S1104, the target risky behavior is specified among the detected risky behaviors. In S1105, the behavior pattern data table of the child who took the target dangerous behavior identified in S1104 is acquired. In S1106, park property information (park property data table) is acquired.

S1107では、S1105で取得した対象の危険行動をとった子供の行動パターンテーブルと、S1105で取得した公園の特性データテーブルとを元に学習し、危険度算出テーブル309を更新する。 In S1107, learning is performed based on the behavior pattern table of the target child taking the dangerous behavior acquired in S1105 and the park characteristic data table acquired in S1105, and the risk calculation table 309 is updated.

S1108では、検出した全ての危険行動に対する学習処理を完了したか否かを判定する。検出した全ての危険行動に対して学習処理を完了していないとの判定結果を得た場合(S1108のNO)、処理がS1104に戻され、学習処理が行われていない危険行動に対する処理が行われる。他方、検出した全ての危険行動に対する学習処理を完了したとの判定結果を得た場合(S1108のYES)、図11(a)に示すフローを終える。 In S1108, it is determined whether or not the learning process for all detected dangerous behaviors has been completed. If it is determined that the learning process has not been completed for all the detected dangerous behaviors (NO in S1108), the process returns to S1104, and the dangerous behaviors for which the learning process has not been performed are processed. will be On the other hand, when the determination result that the learning process for all the detected dangerous behaviors has been completed is obtained (YES in S1108), the flow shown in FIG. 11(a) ends.

続いて、過去の危険行動の事例による場合の危険度算出テーブルの学習処理について、図11(b)を用いて説明する。なお、本フローチャートは、ユーザから直接入力した危険行動データ、子供の行動パターンデータ、公園の特性データを用いることを想定している。 Next, the learning process of the risk calculation table based on past cases of dangerous behavior will be described with reference to FIG. 11(b). Note that this flowchart assumes that dangerous behavior data, children's behavior pattern data, and park characteristic data directly input by the user are used.

S1111では、危険行動データから子供が過去に起こした危険行動が取得される。なお、危険行動データは、ユーザにより直接入力されたデータであり、子供が過去に起こした危険行動の情報を含むデータである。S1112では、S1111で取得した危険行動をとった子供の行動パターンが取得される。S1113では、S1111で取得した危険行動の対象となる公園の特性情報が取得される。 In S1111, the dangerous behavior that the child has taken in the past is acquired from the dangerous behavior data. Note that the risky behavior data is data that is directly input by the user and includes information about risky behavior that children have taken in the past. In S1112, the behavior pattern of the child who took the risky behavior acquired in S1111 is acquired. In S1113, the characteristic information of the park subject to the dangerous behavior acquired in S1111 is acquired.

S1114では、S1111で取得した子供が過去に起こした危険行動と、S1112で取得した危険行動をとったときの子供の行動パターンと、S1113で取得した公園の特性情報を学習し、危険度算出テーブルを更新する。 In S1114, the child's past risky behavior acquired in S1111, the behavior pattern of the child when the child took the risky behavior acquired in S1112, and the characteristic information of the park acquired in S1113 are learned, and a risk calculation table is created. to update.

(通知方法)
通知方法について図を用い説明する。図12は、本実施形態に係る通知方法例を示す図である。本実施形態に係る危険度推定結果の通知方法では、危険行動を起こしそうな子供の引率者が携帯端末1201を所持していることを想定している。携帯端末1201は、例えば、スマートフォン、タブレット端末など、センサシステムが送信した情報を受信し受信した情報を表示可能な端末機器であればよい。
(Notification method)
A notification method will be described with reference to the drawings. FIG. 12 is a diagram illustrating an example of a notification method according to this embodiment. In the method of notifying a risk estimation result according to the present embodiment, it is assumed that a leader of a child who is likely to take a risky action has a portable terminal 1201 . The mobile terminal 1201 may be, for example, a terminal device capable of receiving information transmitted by the sensor system and displaying the received information, such as a smart phone or a tablet terminal.

図8に示すS803の危険度の算出処理で危険行動を起こす可能性が高いと判定された場合に、センサシステムは、子供がどのような危険行動を起こす可能性があるかを示す情報を通知する。例えば、センサシステムは、引率者の携帯端末1201に対して、「E男が出口を飛び出しそうです」メッセージ1202を通知する。 When it is determined that there is a high possibility of taking a risky action in the risk calculation process of S803 shown in FIG. do. For example, the sensor system notifies the mobile terminal 1201 of the leader of the message 1202 that "Man E is about to run out of the exit."

図7に示した例では、「E男」が「出口を飛び出す」という危険行動の危険度が90であるので、閾値が90未満であるとすると、E男が出口を飛び出しそうな状況を示すメッセージを通知する。例えば、所定のメッセージである「E男が出口を飛び出しそうです」1202を通知する。所定のメッセージは、例えば、予め、フォーマットが用意されていて、対象として特定された子供の名前と、その子供の危険行動とを紐づけることで作成されるものでもよい。 In the example shown in FIG. 7, the risk level of the risky behavior of "man E" to "jump out of the exit" is 90, so if the threshold is less than 90, it indicates that man E is about to run out of the exit. Notify me of a message. For example, a predetermined message "E man is about to jump out of the exit" 1202 is notified. For example, the predetermined message may have a format prepared in advance, and may be created by associating the name of the child identified as the target with the child's risky behavior.

以上説明した通り、本実施形態によれば、危険行動を起こす可能性を精度よく推定することができる。 As described above, according to the present embodiment, it is possible to accurately estimate the possibility of taking a risky action.

<実施形態2>
本実施形態では、子供の行動パターンと公園の特性に加えて、公園内の移動物体の特性を用いて危険度を推定する態様について、図を参照して説明する。図13は、本実施形態に係るセンサシステムの使用例を示す図である。図13(a)にセンサシステムの使用例の概略を示し、図13(b)に撮像領域にグリッド線を付与した場合を示す、
<Embodiment 2>
In this embodiment, in addition to the behavior patterns of children and the characteristics of the park, a mode of estimating the degree of risk using the characteristics of moving objects in the park will be described with reference to the drawings. FIG. 13 is a diagram showing a usage example of the sensor system according to this embodiment. FIG. 13(a) shows an outline of a usage example of the sensor system, and FIG. 13(b) shows a case where grid lines are added to the imaging area.

本実施形態のセンサシステムは、実施形態1と同様に、センサシステム1301が撮像して得た画像から、子供1331-1336と、公園の特性に関連する設備1311-1315を認識して、子供の行動パターン情報と公園の特性情報を取得する。 As in the first embodiment, the sensor system of this embodiment recognizes children 1331 to 1336 and facilities 1311 to 1315 related to park characteristics from images captured by the sensor system 1301, Acquire behavior pattern information and park characteristic information.

これらに加えて、対象者の子供が遊んでいるボール1321を公園の移動物(移動物体)としてセンサシステム1301で認識し、ボール1321の位置や移動速度を、公園の移動物の特性情報として取得する。なお、移動物は、ボールに限定されない。例えば、フリスビー、動物、または、対象の子供と異なる子供などの非対象者であってもよい。 In addition to these, the sensor system 1301 recognizes the ball 1321 that the subject's child is playing with as a moving object (moving object) in the park, and acquires the position and moving speed of the ball 1321 as property information of the moving object in the park. do. Note that the moving object is not limited to the ball. For example, it may be a non-subject such as a frisbee, an animal, or a child different from the subject child.

子供の行動パターン情報と公園の特性情報、公園の移動物の特性情報を用いて、危険度を推定し、保護者や引率者に通知する。 Using the child's behavior pattern information, the property information of the park, and the property information of moving objects in the park, the degree of danger is estimated and notified to the guardian or leader.

図13では、子供1335がボール1321を追いかけており、追いかけている方向にジャングルジム1314がある。したがって、危険行動として「遊具に衝突する」可能性があるため、子供1335が「遊具に衝突する」可能性があることを、子供1335の引率者に通知する。 In FIG. 13, a child 1335 is chasing a ball 1321 with a jungle gym 1314 in the chasing direction. Therefore, since there is a possibility that the child 1335 will "collide with the playground equipment" as a dangerous behavior, the leader of the child 1335 is notified of the possibility that the child 1335 will "collide with the playground equipment".

図13(b)は、図13(a)に対してエリアを認識した際の例を示した図である。エリアA1、A2、A3、B1、B2、B3、C1、C2、C3を示すエリア情報は、子供の行動パターン情報や公園の特性情報、公園の移動物の特性情報に含まれる。エリアは、センサシステム1301で得た撮像画像を解析して認識される。本実施形態では、実施形態1と同様、公園全体を9つのエリアに分割した例を示しているが、これに限定されない。公園全体を、例えば16のエリアなど、より細かく分割してもよい。特定のエリアを他のエリアと比べてより細かく分割してもよい。より細かく分割することで、子供の行動パターンや公園の特性や移動物の特性に関してより正確な情報を得られることから危険度を推定する精度をあげることができる。 FIG. 13(b) is a diagram showing an example of recognizing an area with respect to FIG. 13(a). Area information indicating areas A1, A2, A3, B1, B2, B3, C1, C2, and C3 is included in the behavior pattern information of children, the property information of parks, and the property information of moving objects in parks. Areas are recognized by analyzing captured images obtained by the sensor system 1301 . Although the present embodiment shows an example in which the entire park is divided into nine areas as in the first embodiment, the present invention is not limited to this. The entire park may be divided into smaller pieces, such as 16 areas. Certain areas may be divided more finely than other areas. By dividing the data more finely, it is possible to obtain more accurate information about the behavior patterns of children, the characteristics of parks, and the characteristics of moving objects, and thus the accuracy of estimating the degree of risk can be increased.

本実施形態に係るセンサシステムおよび端末のハードウェア構成例は、実施形態1と同じであり、その説明を省略する。 A hardware configuration example of the sensor system and the terminal according to the present embodiment is the same as that of the first embodiment, and the description thereof will be omitted.

(センサシステムの機能構成)
図14は、本実施形態に係るセンサシステムの機能構成例を示すブロック図である。センサシステム1301は、センサシステム101と同様、画像取得部1401、公園特性取得部1403、行動パターン取得部1404、行動パターンDB1405、学習部1406を有する。センサシステム1301は、公園の特性(特性データテーブル)1408、行動パターンテーブル1409、危険度判定部1410、危険度算出テーブル1411、危険度判定テーブル1412、通知部1413を有する。センサシステム1301は、さらに、移動物特性取得部1402、移動物の特性1407を有する。すなわち、センサシステム1301は、センサシステム101が有する機能部に加えて、移動物特性取得部1402および移動物の特性1407をさらに有する。センサシステム101が有する機能部と同じ機能部についての詳細な説明については割愛する。
(Functional configuration of sensor system)
FIG. 14 is a block diagram showing a functional configuration example of the sensor system according to this embodiment. Similar to the sensor system 101 , the sensor system 1301 has an image acquisition unit 1401 , a park property acquisition unit 1403 , an action pattern acquisition unit 1404 , an action pattern DB 1405 and a learning unit 1406 . The sensor system 1301 has a park characteristic (characteristic data table) 1408 , an action pattern table 1409 , a risk determination unit 1410 , a risk calculation table 1411 , a risk determination table 1412 , and a notification unit 1413 . The sensor system 1301 further has a moving object property acquisition unit 1402 and a moving object property 1407 . That is, the sensor system 1301 further has a moving object property acquisition unit 1402 and a moving object property 1407 in addition to the functional units of the sensor system 101 . A detailed description of the same functional units as those of the sensor system 101 is omitted.

移動物特性取得部1402は、画像取得部1401から受け取った画像(動画または静止画)から、公園内の移動物の特性を認識し、認識結果を元に移動物の特性(特性データテーブル)1407を作成する。移動物の特性のデータテーブル例について、図を用いて後述する。 A moving object property acquisition unit 1402 recognizes the property of a moving object in the park from the image (moving or still image) received from the image acquiring unit 1401, and calculates the property of the moving object (property data table) 1407 based on the recognition result. to create An example of a data table of characteristics of moving objects will be described later with reference to the drawings.

危険度判定部1410は、移動物の特性1407、公園の特性1408および監視対象者(子供)の行動パターンテーブル1409と、危険度算出テーブル1411とから、危険行動に対する子供ごとの危険度を算出する。そして、危険度判定部1410は、算出結果を元に危険度判定テーブル1412を作成する。 The risk determination unit 1410 calculates the risk of dangerous behavior for each child based on the characteristics 1407 of the moving object, the characteristics 1408 of the park, the behavior pattern table 1409 of the monitored person (child), and the risk calculation table 1411. . Then, the risk determination unit 1410 creates a risk determination table 1412 based on the calculation result.

(移動物の特性)
移動物の特性について、図を用いて説明する。図15は、本実施形態に係る移動物の特性のデータテーブル例を示す図である。ただし、移動物は、公園内にある移動物とする。なお、図15に示すデータテーブルは、図13に示す公園を対象に作成されたものとする。データテーブル1500は、移動物名1501、位置1502、移動方向1503、移動速度1504の各項目の情報を有する。
(Characteristics of moving objects)
The characteristics of moving objects will be described with reference to the drawings. FIG. 15 is a diagram showing an example data table of characteristics of moving objects according to the present embodiment. But we assume moving thing in park. It is assumed that the data table shown in FIG. 15 is created for the park shown in FIG. The data table 1500 has information on each item of moving object name 1501 , position 1502 , moving direction 1503 , and moving speed 1504 .

移動物名1501の項目には、移動物の名称に関する情報が格納される。位置1502の項目には、公園内において移動物が存在する位置(場所)に関する情報が登録される。図13(b)に示すエリアA1~C3のように公園内を複数のエリアに区切った際に、どのエリアに対象の移動物が存在するかが示されている。ここでは、エリアと表現しているが、エリアではなく座標位置(x、y、z)で示してもよい。位置に関する情報は、センサシステム1301の撮像で得た画像から取得される。 The moving object name 1501 field stores information about the name of the moving object. The item of position 1502 registers information about the position (place) where the moving object exists in the park. When the park is divided into a plurality of areas such as areas A1 to C3 shown in FIG. 13(b), it is shown in which area the target moving object exists. Here, it is expressed as an area, but it may be expressed as a coordinate position (x, y, z) instead of an area. Information about the position is obtained from images captured by the sensor system 1301 .

移動方向1503の項目には、移動物の移動方向に関する情報が登録される。センサシステム1301の撮像で得た画像から、移動物がエリアA1~C3のうちどのエリアからどのエリアに向かっているかを示す情報が取得されて登録される。後述する移動速度1504が「静止」である場合は、移動物は移動していないため、移動方向のデータは未取得となる。 Information about the moving direction of the moving object is registered in the item of moving direction 1503 . From the image captured by the sensor system 1301, information indicating from which area to which area the moving object is heading from among the areas A1 to C3 is acquired and registered. If the moving speed 1504, which will be described later, is "stationary", the moving object is not moving, so the moving direction data is not acquired.

移動物の移動速度1504の項目には、移動物の移動速度に関する情報が登録される。センサシステム1301の撮像で得た画像から、単位時間当たりの移動物の移動距離を推定し、推定結果を元に移動速度が導出されて移動速度に関する情報が登録される。取得した移動速度と予め定められた閾値を元に、「速い」、「ゆっくり」、「静止」の何れかに分類されて登録される。本実施形態では、移動速度を「速い」、「ゆっくり」、「静止」の3段階で表現しているが、危険度推定の精度向上のために、例えば4段階以上など移動速度の分解能を高くしてもよい。また、移動速度に関する情報について具体的な数値を用いて表現してもよい。 Information on the moving speed of a moving object is registered in the moving object moving speed 1504 item. Based on the image captured by the sensor system 1301, the moving distance of the moving object per unit time is estimated, the moving speed is derived based on the estimation result, and information about the moving speed is registered. Based on the acquired moving speed and a predetermined threshold value, it is classified into one of "fast", "slow", and "stationary" and registered. In this embodiment, the moving speed is expressed in three stages of "fast", "slow", and "stationary". You may Also, the information about the moving speed may be expressed using a specific numerical value.

(危険予測処理)
図16は、本実施形態に係るセンサシステムの全体の動作を示すフローチャートである。なお、本処理手順は、ROM202にプログラムとして格納され、CPU201により実行される。また、図16におけるステップの一部または全部の機能をASIC及び電子回路等のハードウェアで実現してもよい。本実施形態では、図8に示すS802の処理を、子供や公園、移動物の認識を行う処理S1602に変更している。
(Danger prediction processing)
FIG. 16 is a flow chart showing the overall operation of the sensor system according to this embodiment. This processing procedure is stored as a program in the ROM 202 and executed by the CPU 201 . Also, some or all of the functions of the steps in FIG. 16 may be realized by hardware such as ASIC and electronic circuits. In this embodiment, the processing of S802 shown in FIG. 8 is changed to processing S1602 for recognizing children, parks, and moving objects.

S1601では、センサシステム1301による撮像で得た画像(動画または静止画)を取得する処理を実行する。 In S1601, processing for acquiring an image (moving image or still image) captured by the sensor system 1301 is executed.

S1602では、S1601の処理で取得した画像から、画像認識を用いて、子供や公園、移動物の認識処理を実行する。なお、画像認識は、公知の技術を用いて実行される。 In S1602, recognition processing of children, parks, and moving objects is executed using image recognition from the image acquired in the processing of S1601. Note that image recognition is performed using a known technique.

S1603では、S1602の処理で取得したデータを元に、危険度を算出する処理を実行する。これにより、S1603では、移動物の特性を加味した処理が行われる。危険度を算出する処理の詳細については、図を用いて後述する。 In S1603, processing for calculating the degree of risk is executed based on the data acquired in the processing of S1602. As a result, in S1603, processing that takes into account the characteristics of the moving object is performed. Details of the processing for calculating the degree of risk will be described later with reference to the drawings.

S1604では、S1603の処理で得られた危険度を元に、危険度が所定の閾値以上である場合に、対象の子供の引率者などの端末に対して、子供の危険行動に関する情報を通知する。 In S1604, based on the degree of risk obtained in the processing of S1603, if the degree of risk is equal to or greater than a predetermined threshold, information regarding the child's risky behavior is notified to a terminal such as the leader of the target child. .

(危険度の算出処理)
上述したS1603の危険度の算出処理の詳細について、図を用いて説明する。図17は、本実施形態に係る危険度の算出処理の詳細な流れを示すフローチャートである。
(Risk calculation process)
Details of the above-described risk degree calculation processing in S1603 will be described with reference to the drawings. FIG. 17 is a flowchart showing the detailed flow of the risk calculation process according to this embodiment.

S1701では、S1602の処理で認識した結果が取得される。すなわち、子供や公園、移動物の認識結果が取得される。 In S1701, the result of recognition in the processing of S1602 is acquired. That is, recognition results of children, parks, and moving objects are acquired.

S1702では、S1701で取得した公園の認識結果を元に、公園の特性情報(公園の特性データテーブル)を取得する。S1703では、S1701で取得した移動物の認識結果を元に、移動物の特性情報(移動物の特性データテーブル)を取得する。S1704では、S1701で取得した子供の認識結果と、予め登録されている行動パターンデータとから、子供の行動パターンデータテーブルを取得する。 In S1702, park characteristic information (park characteristic data table) is acquired based on the park recognition result acquired in S1701. In S1703, moving object property information (moving object property data table) is acquired based on the moving object recognition result acquired in S1701. In S1704, a child behavior pattern data table is obtained from the child recognition result obtained in S1701 and pre-registered behavior pattern data.

S1705では、対象の子供が特定される。S1706では、次に示すデータを用いて、S1705で特定された対象の子供の危険度が算出される。すなわち、前記データとして、S1702で取得した公園の特性のデータテーブルと、S1703で取得した移動物の特性のデータテーブルと、S1704で取得した子供の行動パターンデータテーブルと、予め登録されている危険度算出テーブルとが用いられる。 At S1705, the target child is identified. In S1706, the risk level of the target child identified in S1705 is calculated using the following data. That is, as the data, the park characteristics data table acquired in S1702, the moving object characteristics data table acquired in S1703, the child behavior pattern data table acquired in S1704, and the pre-registered degree of risk A calculation table is used.

S1707では、S1706で算出した危険度が所定の閾値以上であるかどうかが判定される。危険度が所定の閾値以上であるとの判定結果を得た場合(S1707のYES)、処理がS1708に移行される。他方、危険度が所定の閾値以上ではないとの判定結果を得た場合(S1707のNO)、S1708をスキップし処理がS1709に移行される。 In S1707, it is determined whether the degree of risk calculated in S1706 is equal to or greater than a predetermined threshold. If it is determined that the degree of risk is greater than or equal to the predetermined threshold (YES in S1707), the process proceeds to S1708. On the other hand, if it is determined that the degree of risk is not equal to or greater than the predetermined threshold (NO in S1707), S1708 is skipped and the process proceeds to S1709.

S1708では、危険度が高いことを子供の引率者などに通知するための危険度通知リストに追加して保存される。この危険度通知リストを元に、S1705の処理で対象となる子供の引率者などに通知する処理が実行される。 In S1708, the information is added to and stored in a risk notification list for notifying the guardian of the child that the risk is high. Based on this risk notification list, the process of notifying the guardian of the target child in the process of S1705 is executed.

S1709では、認識した全ての子供に対して危険度の算出を完了したか否かが判定される。全ての子供に対して危険度の算出を完了していないとの判定結果を得た場合(S1709のNO)、処理がS1705に戻され、危険度の算出を実行していない子供に対する処理が行われる。全ての子供に対して危険度の算出を完了したとの判定結果を得た場合(S1709のYES)、図17に示すフローを終える。 In S1709, it is determined whether or not the risk calculation has been completed for all recognized children. If it is determined that risk calculation has not been completed for all children (NO in S1709), the process returns to S1705, and processing is performed for children whose risk levels have not yet been calculated. will be If it is determined that the calculation of the degree of risk has been completed for all children (YES in S1709), the flow shown in FIG. 17 ends.

よって、全ての子供に対して危険度の算出が行われ、上述の条件を満たす子供については危険度通知リストに追加されることになる。 Therefore, the degree of risk is calculated for all children, and the child who satisfies the above conditions is added to the degree of risk notification list.

以上説明した通り、本実施形態によれば、危険行動を起こす可能性を精度よく推定することができる。 As described above, according to the present embodiment, it is possible to accurately estimate the possibility of taking a risky action.

<その他の実施形態>
上記では、危険度の通知方法として「引率者の端末に通知」を例に説明したが、これに限定されず、他の方法で通知してもよい。他の通知方法について図を用い説明する。図18は、通知方法の例を示す図である。図18(a)に引率者に音声で通知する例を示し、図18(b)に引率者のHMDに通知する例を示す。
<Other embodiments>
In the above description, as an example of the method of notifying the degree of risk, "Notification to leader's terminal" has been described, but the method is not limited to this, and other methods may be used. Another notification method will be described with reference to the drawings. FIG. 18 is a diagram showing an example of a notification method. FIG. 18(a) shows an example of notifying the leader by voice, and FIG. 18(b) shows an example of notifying the leader's HMD.

図18(a)に示すように、通知対象の子供(たかし君)1801は、公園の出入口を飛びだしそうな動きをしている。センサシステム1803は、子供1801の動作を検知し、子供1801がたかし君であることを認識して、子供1801に対して、危険な行動を防止する対応策である止まるよう促すメッセージの音声で通知する。メッセージは、例えば、「たかし君、止まって!」1802である。 As shown in FIG. 18(a), a child (Takashi) 1801 to be notified is moving as if he is about to jump out of the entrance of the park. The sensor system 1803 detects the movement of the child 1801, recognizes that the child 1801 is Takashi-kun, and notifies the child 1801 with a voice message urging him to stop as a countermeasure to prevent dangerous behavior. do. The message is, for example, “Takashi, stop!” 1802 .

また、図18(b)に示すように、子供(たかし君)1807は、出入口を飛びだしそうな動きをしている。センサシステム(不図示)は、子供1807の動作を検知し、子供1807がたかし君であることを認識する。そして、センサシステムは、子供1807の引率者1804が装着するヘッドマウントディスプレイ(HMD)1805に対して、子供1807が危険行動を起こしそうであることのメッセージを通知する。メッセージは、例えば、「たかし君が出口を飛びだそうとしています」1806である。 Also, as shown in FIG. 18(b), a child (Takashi) 1807 is moving as if he is about to jump out of the doorway. A sensor system (not shown) detects the movement of the child 1807 and recognizes that the child 1807 is Takashi. Then, the sensor system notifies a head-mounted display (HMD) 1805 worn by a leader 1804 of the child 1807 of a message that the child 1807 is likely to perform a dangerous action. The message is, for example, "Takashi is about to leave the exit" 1806 .

上記では、危険行動を起こす人物として子供を例に説明したが、これに限定されない。例えば、危険行動を起こす人物として大人を対象としてもよい。 In the above description, a child is used as an example of a person who behaves dangerously, but the person is not limited to this. For example, an adult may be targeted as a person who performs dangerous behavior.

また、上記では、公園の特性を取得するために、撮像装置から位置情報も取得する例を提示したが、GPSや地図情報を用いて公園の特性の位置情報を取得してもよい。 Further, in the above, an example of acquiring the position information from the imaging device in order to acquire the characteristics of the park has been presented, but the position information of the characteristics of the park may be acquired using GPS or map information.

上記では、危険度判定を行う一連の処理をセンサシステム101、1301の内部で行う例を用いて説明したが、これに限定されない。危険度判定を行う一連の処理をセンサシステムと別のサーバ、エッジデバイス等に分割して行うようにしてもよい。例えば、図3、図14に示す機能構成の中の画像取得部301、1401のみを撮像装置の内部で行い、後続の機能部による処理をサーバ、エッジデバイス等で行ってもよい。後続の処理とは、公園特性取得部302、1403、行動パターン取得部303、1404、移動物特性取得部1402、学習部305、1406、危険度判定部308、1410である。 In the above description, an example in which a series of processes for risk determination is performed inside the sensor system 101 or 1301 has been described, but the present invention is not limited to this. A series of processes for determining the degree of risk may be performed by being divided between the sensor system and another server, edge device, or the like. For example, only the image acquisition units 301 and 1401 in the functional configuration shown in FIGS. 3 and 14 may be performed inside the imaging apparatus, and the subsequent processing by the functional units may be performed by a server, an edge device, or the like. Subsequent processes are park property acquisition units 302 and 1403 , action pattern acquisition units 303 and 1404 , moving object property acquisition unit 1402 , learning units 305 and 1406 , and risk determination units 308 and 1410 .

上記では、1台のセンサシステム101、1301を公園に設置した態様について説明したが、センサシステムの設置台数はこれに限定されない。センサシステムの設置台数を、例えば2台など、複数台としてもよい。このようにセンサシステムの設置台数を複数台とし、複数台の撮像装置による撮像エリアを公園全体に設定することで、撮像装置からの死角が無くなり、危険度を推定する精度を向上させることができる。この場合、人物の認識処理や公園の特性の認識処理の精度を低下させないために、複数の撮像装置が同期撮像することが好ましい。また、センサシステム101、1301は固定式でなく、移動式としてもよい。 Although a mode in which one sensor system 101, 1301 is installed in a park has been described above, the number of installed sensor systems is not limited to this. The number of installed sensor systems may be multiple, such as two. In this way, by setting multiple sensor systems and setting the imaging area of the multiple imaging devices over the entire park, blind spots from the imaging devices can be eliminated and the accuracy of estimating the degree of risk can be improved. . In this case, it is preferable that a plurality of imaging devices perform synchronous imaging so as not to lower the accuracy of human recognition processing and park characteristic recognition processing. Moreover, the sensor systems 101 and 1301 may be mobile instead of stationary.

上記では、適用対象場所として、公園を例に説明したが、これに限定されない。例えば、学校の校庭、遊園地、体育館、プールなどにも適用可能である。 In the above description, a park is described as an example of a place to be applied, but it is not limited to this. For example, it can be applied to school playgrounds, amusement parks, gymnasiums, swimming pools, and the like.

上記では、危険度に関する情報を対象の子供の保護者や引率者に対して通知する態様について説明したが、これに限定されない。例えば、危険度に関する情報を公園の管理者に対して通知してもよい。また、対象の子供が端末を有している場合には、危険度に関する情報を対象の子供が有する端末に通知してもよい。 In the above description, the mode of notifying the guardian or leader of the target child of the information about the degree of risk has been described, but the present invention is not limited to this. For example, information about the degree of danger may be notified to the park manager. Moreover, when the target child has a terminal, the information about the degree of risk may be notified to the terminal that the target child has.

上記では、子供の行動パターンと公園の特性、または子供の行動パターンと公園の特性と移動物の特性から危険度を算出した態様について説明したがこれに限定されない。例えば、得られた危険度に対して、天気や時刻などの環境などの予め保持したデータに基づき決定される重み付けを行ってもよい。鉄棒やジャングルジムなどは、天気が雨である場合には天気が晴れである場合と比べて滑りやすくなることから、鉄棒やジャングルジムに登る行為に紐づく危険度に対して1より大きい数値で天気が雨である場合の重み付けを行ってもよい。また、強風である場合には風が無い場合と比べて体を安定しにくいことから、ジャングルジムなどの高い場所に登る行為に紐づく危険度に対して1より大きい数値で強風である場合の重み付けを行ってもよい。また、夕方や夜の場合には昼と比べて周囲が見えにくくなることから、公園の外への飛び出し行為に紐づく危険度に対して1より大きい数値で夕方や夜の場合の重み付けを行ってもよい。 In the above description, a mode in which the degree of risk is calculated from the behavior pattern of the child and the characteristics of the park, or from the behavior pattern of the child, the characteristics of the park, and the characteristics of the moving object has been described, but the present invention is not limited to this. For example, the obtained degree of risk may be weighted based on prestored data such as environment such as weather and time. When the weather is rainy, the horizontal bars and jungle gyms are more slippery than when the weather is sunny. Weighting may be performed when the weather is rainy. In addition, when there is a strong wind, it is more difficult to stabilize the body than when there is no wind. Weighting may be performed. In addition, in the evening and at night, it is difficult to see the surroundings compared to the daytime. may

本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present disclosure provides a program that implements one or more functions of the above-described embodiments to a system or device via a network or storage medium, and one or more processors in a computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

Claims (26)

撮像画像に映る人の行動パターンを特定する特定手段と、
撮像場所の特性を示す第1の特性情報を取得する第1の取得手段と、
特定された前記行動パターンと取得された前記第1の特性情報を用いて、前記人に生じうる危険の度合いを決定する決定手段と、
決定された前記危険の度合いに関する情報を出力する出力手段と、
を有する、ことを特徴とする画像処理装置。
an identifying means for identifying a behavior pattern of a person reflected in a captured image;
a first acquisition means for acquiring first characteristic information indicating characteristics of an imaging location;
a determining means for determining a degree of possible danger to the person using the identified behavioral pattern and the acquired first characteristic information;
output means for outputting information about the determined degree of risk;
An image processing apparatus characterized by comprising:
前記行動パターンの種類に対応付けて前記危険の度合いが特定されたテーブルを、前記特性の種類ごとに予め保持しており、
前記決定手段は、前記保持されたテーブルのうち、前記取得された第1の特性情報に対応したテーブルを決定し、決定された当該テーブルの中から前記特定された行動パターンに対応付けられた危険の度合いを決定する
ことを特徴とする請求項1に記載の画像処理装置。
A table in which the degree of risk is specified in association with the type of behavior pattern is held in advance for each type of characteristic,
The determining means determines a table corresponding to the acquired first characteristic information from among the held tables, and determines a risk associated with the identified behavior pattern from the determined table. 2. The image processing apparatus according to claim 1, wherein the degree of is determined.
前記人の行動パターンは、前記人の位置、前記人の移動速度、および前記人の現在の行動の種類を含み、
前記特定手段は、前記撮像画像を解析して得られた前記人の位置、前記人の移動速度、および前記人の現在の行動の種類を元に、前記人の行動パターンを特定する
ことを特徴とする請求項1または2に記載の画像処理装置。
the person's behavior pattern includes the person's location, the person's movement speed, and the person's current behavior type;
The identifying means identifies the person's behavior pattern based on the person's position, the person's moving speed, and the person's current behavior type obtained by analyzing the captured image. 3. The image processing apparatus according to claim 1 or 2, wherein
前記人の行動パターンは、前記人の特徴を含み、
前記特定手段は、前記撮像画像を解析して検出した前記人の特徴も元に、前記人の行動パターンを特定する
ことを特徴とする請求項3に記載の画像処理装置。
the person's behavioral pattern includes characteristics of the person;
4. The image processing apparatus according to claim 3, wherein the identifying means identifies the behavior pattern of the person based on the characteristics of the person detected by analyzing the captured image.
前記人の特徴は、前記人の活動レベルと前記人の身体能力を含む
ことを特徴とする請求項4に記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the person's features include the person's activity level and the person's physical ability.
前記撮像場所に存在する移動物体の特性を示す第2の特性情報を取得する第2の取得手段をさらに有し、
前記決定手段は、取得された前記第2の特性情報も用いて、前記危険の度合いを決定する、ことを特徴とする請求項1から4の何れか一項に記載の画像処理装置。
further comprising second acquisition means for acquiring second characteristic information indicating characteristics of a moving object present at the imaging location;
5. The image processing apparatus according to any one of claims 1 to 4, wherein the determining means determines the degree of risk also using the obtained second characteristic information.
前記第2の特性情報は、前記移動物体の位置、前記移動物体の移動速度、前記移動物体の移動方向を含み、
前記第2の取得手段は、前記撮像画像を解析して得られた、前記移動物体の位置、前記移動物体の移動速度、前記移動物体の移動方向を元に、前記第2の特性情報を取得する
ことを特徴とする請求項6に記載の画像処理装置。
the second characteristic information includes the position of the moving object, the moving speed of the moving object, and the moving direction of the moving object;
The second acquisition means acquires the second characteristic information based on the position of the moving object, the moving speed of the moving object, and the moving direction of the moving object obtained by analyzing the captured image. The image processing apparatus according to claim 6, characterized in that:
前記移動物体は、前記人が用いる遊具、または動物である、ことを特徴とする請求項6または7に記載の画像処理装置。 8. The image processing apparatus according to claim 6, wherein said moving object is a toy used by said person or an animal. 前記決定手段は、前記危険の度合いを、予め保持したデータに対応する重み付けを行って決定する、ことを特徴とする請求項1から8の何れか一項に記載の画像処理装置。 9. The image processing apparatus according to any one of claims 1 to 8, wherein the determining means determines the degree of risk by weighting data stored in advance. 前記重み付けは、前記撮像場所の環境に基づき決定される
ことを特徴とする請求項9に記載の画像処理装置。
The image processing apparatus according to claim 9, wherein the weighting is determined based on the environment of the imaging location.
前記出力手段は、決定された前記危険の度合いと所定の閾値とを元に、前記情報を通知する、ことを特徴とする請求項1から10の何れか一項に記載の画像処理装置。 11. The image processing apparatus according to any one of claims 1 to 10, wherein the output means notifies the information based on the determined degree of risk and a predetermined threshold value. 前記人が子供であり、
前記出力手段は、前記子供、前記子供の保護者、または前記子供の引率者が所持する携帯端末に対して前記情報を通知して当該携帯端末に当該危険の度合いおよび前記子供の危険な行動を表示させる
ことを特徴とする請求項11に記載の画像処理装置。
said person is a child;
The output means notifies a portable terminal possessed by the child, the child's guardian, or the child's leader of the information, and informs the portable terminal of the degree of danger and the dangerous behavior of the child. 12. The image processing apparatus according to claim 11, wherein the image is displayed.
前記出力手段は、前記情報を音声で通知する、ことを特徴とする請求項10に記載の画像処理装置。 11. The image processing apparatus according to claim 10, wherein said output means notifies said information by voice. 前記人が子供であり、
前記出力手段は、前記子供の保護者、または前記子供の引率者が装着するヘッドマウントディスプレイに対して前記子供の危険な行動に関する情報を表示して通知する
ことを特徴とする請求項11に記載の画像処理装置。
said person is a child;
12. The method according to claim 11, wherein the output means displays information about the child's dangerous behavior on a head-mounted display worn by the child's guardian or the child's leader. image processing device.
前記出力手段は、前記子供が起こす可能性が高い危険な行動を通知する
ことを特徴とする請求項12または14に記載の画像処理装置。
15. The image processing apparatus according to claim 12, wherein said output means notifies said child of a dangerous action that is highly likely to occur.
前記出力手段は、前記人が起こす可能性が高い危険な行動を防止する対応策に関する情報を通知する、ことを特徴とする請求項12または14に記載の画像処理装置。 15. The image processing apparatus according to claim 12, wherein said output means notifies information regarding countermeasures for preventing dangerous actions that said person is highly likely to take. 前記テーブルを学習する学習手段をさらに有する
ことを特徴とする請求項2に記載の画像処理装置。
3. The image processing apparatus according to claim 2, further comprising learning means for learning said table.
前記学習手段は、前記撮像画像から危険行動が検出されたときに、前記撮像画像から取得され当該危険行動をとった対象者の行動パターンと、前記撮像画像から取得された前記第1の特性情報とを用いて前記テーブルを学習する
ことを特徴とする請求項17に記載の画像処理装置。
The learning means, when a risky behavior is detected from the captured image, the behavior pattern of the subject who took the risky behavior acquired from the captured image, and the first characteristic information acquired from the captured image. 18. The image processing apparatus according to claim 17, wherein the table is learned using and.
前記学習手段は、危険行動をとった人の行動パターンと、前記第1の特性情報とが紐づけられたデータベースを用いて前記テーブルを学習する
ことを特徴とする請求項18に記載の画像処理装置。
19. The image processing according to claim 18, wherein the learning means learns the table using a database in which action patterns of people who have taken risky actions and the first characteristic information are associated with each other. Device.
前記第1の特性情報は、前記撮像場所にある施設に関する情報を含み、
前記第1の取得手段は、前記撮像画像を解析して得られた前記施設に関する情報を元に、前記第1の特性情報を取得する
ことを特徴とする請求項1から19の何れか一項に記載の画像処理装置。
The first characteristic information includes information about facilities located at the imaging location,
20. The first characteristic information according to any one of claims 1 to 19, wherein the first acquisition means acquires the first characteristic information based on information about the facility obtained by analyzing the captured image. The image processing device according to .
前記第1の特性情報は、前記施設の出入口、前記施設に設けられた設備の位置および形状に関する情報を含み、
前記第1の取得手段は、前記撮像画像を解析して得られた前記施設の出入口、前記施設に設けられた設備の位置および形状に関する情報を元に、前記第1の特性情報を取得する
ことを特徴とする請求項20に記載の画像処理装置。
The first characteristic information includes information on the entrance/exit of the facility and the position and shape of equipment provided in the facility,
The first acquisition means acquires the first characteristic information based on information relating to the entrance/exit of the facility and the position and shape of equipment provided in the facility obtained by analyzing the captured image. 21. The image processing apparatus according to claim 20, characterized by:
前記施設は公園であり、
前記第1の特性情報は、前記公園の出入口、前記公園に設けられた柵、前記公園に設けられた遊具の位置および形状に関する情報を含み、
前記第1の取得手段は、前記撮像画像を解析して得られた前記公園の出入口、前記公園に設けられた柵、前記公園に設けられた遊具の位置および形状に関する情報を元に、前記第1の特性情報を取得する、ことを特徴とする請求項21に記載の画像処理装置。
the facility is a park;
The first characteristic information includes information about the entrance and exit of the park, the fence provided in the park, and the position and shape of the playground equipment provided in the park,
Based on the information on the position and shape of the entrance/exit of the park, the fence provided in the park, and the playground equipment provided in the park, obtained by analyzing the captured image, the first acquisition means acquires the information obtained by analyzing the captured image. 22. The image processing apparatus according to claim 21, wherein 1 characteristic information is obtained.
前記人を撮像して前記撮像画像を取得する撮像手段をさらに有する
ことを特徴とする請求項1から22の何れか一項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 22, further comprising imaging means for imaging the person and acquiring the captured image.
前記撮像手段は、時間的に連続する画像を前記撮像画像として取得する
ことを特徴とする請求項23に記載の画像処理装置。
24. The image processing apparatus according to claim 23, wherein said imaging means obtains temporally continuous images as said captured images.
撮像画像に映る人の行動パターンを特定する特定工程と、
撮像場所の特性を示す第1の特性情報を取得する第1の取得工程と、
特定された前記行動パターンと取得された前記第1の特性情報を用いて、前記人に生じうる危険の度合いを決定する決定工程と、
決定された前記危険の度合いに関する情報を出力する出力工程と、
を含む、ことを特徴とする画像処理方法。
an identifying step of identifying a behavioral pattern of a person reflected in the captured image;
a first acquisition step of acquiring first characteristic information indicating characteristics of an imaging location;
a determination step of determining a degree of danger that may occur to the person using the identified behavior pattern and the acquired first characteristic information;
an output step of outputting information about the determined degree of risk;
An image processing method comprising:
コンピュータに、請求項1から24の何れか一項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 24.
JP2021192680A 2021-11-29 2021-11-29 Image processing device, image processing method, and program Pending JP2023079291A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021192680A JP2023079291A (en) 2021-11-29 2021-11-29 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021192680A JP2023079291A (en) 2021-11-29 2021-11-29 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2023079291A true JP2023079291A (en) 2023-06-08

Family

ID=86647494

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021192680A Pending JP2023079291A (en) 2021-11-29 2021-11-29 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2023079291A (en)

Similar Documents

Publication Publication Date Title
US9256955B2 (en) System and method for processing visual information for event detection
KR102260120B1 (en) Apparatus for Performing Recognition of Activity Based on Deep Learning and Driving Method Thereof
CN112333431A (en) Scene monitoring method and device, electronic equipment and storage medium
KR20150092545A (en) Warning method and system using prompt situation information data
CN109191829A (en) Road safety monitoring method and system, computer readable storage medium
JP6327438B2 (en) Pedestrian alarm server and portable terminal device
CN108319892A (en) A kind of vehicle safety method for early warning and system based on genetic algorithm
KR20160074208A (en) System and method for providing safety service using beacon signals
Goh et al. Smombie forecaster: alerting smartphone users about potential hazards in their surroundings
JP2023079291A (en) Image processing device, image processing method, and program
CN115273401A (en) Method and system for automatically sensing falling of person
CN113724454B (en) Interaction method of mobile equipment, device and storage medium
JPWO2019021973A1 (en) Terminal device, risk prediction method, program
JP6970277B2 (en) Monitoring system
JP6793383B1 (en) Behavior identification system
JP6773389B1 (en) Digital autofile security system, methods and programs
WO2021186751A1 (en) Digital auto-filing security system, method, and program
JP7198052B2 (en) image surveillance system
JPWO2022091206A5 (en) Information provision system, signage device and information provision method
Dandan et al. Establishment and Optimization of Video Analysis System in Metaverse Environment
CN117746218B (en) Security management method and device for smart campus
JP2021097308A (en) Degree of risk determination program and system
JPWO2020075283A1 (en) Abnormal person prediction system, abnormal person prediction method, and program
EP2568414A1 (en) Surveillance system and method for detecting behavior of groups of actors
CN116421172A (en) Accidental injury monitoring method, wearable device, electronic device and storage medium