JP2020021377A - Notification system - Google Patents

Notification system Download PDF

Info

Publication number
JP2020021377A
JP2020021377A JP2018146318A JP2018146318A JP2020021377A JP 2020021377 A JP2020021377 A JP 2020021377A JP 2018146318 A JP2018146318 A JP 2018146318A JP 2018146318 A JP2018146318 A JP 2018146318A JP 2020021377 A JP2020021377 A JP 2020021377A
Authority
JP
Japan
Prior art keywords
mobile terminal
information
unit
child
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018146318A
Other languages
Japanese (ja)
Other versions
JP7289618B2 (en
Inventor
大輔 桐生
Daisuke Kiryu
大輔 桐生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018146318A priority Critical patent/JP7289618B2/en
Publication of JP2020021377A publication Critical patent/JP2020021377A/en
Application granted granted Critical
Publication of JP7289618B2 publication Critical patent/JP7289618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a notification system that enables a mobile person to move more safely.SOLUTION: An information communication system 1 as a notification system comprises a first mobile terminal 2, a second mobile terminal 3, a data center 4, and a server 5. The first mobile terminal held by a moving person comprises: an imaging unit as a recognition unit for recognizing a surrounding of the moving person; and a communication unit as a notification unit that notifies, when an object approaches the moving person, another mobile terminal held by another moving person present in the vicinity of the moving person, of approach of the object.SELECTED DRAWING: Figure 1

Description

本発明は、報知システムに関する。   The present invention relates to a notification system.

従来、複数の携帯端末を備えるシステムにおいて、ある携帯端末の位置情報を、センターサーバを介して他の携帯端末に送信する技術が知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, in a system including a plurality of mobile terminals, a technique for transmitting position information of a certain mobile terminal to another mobile terminal via a center server is known (for example, Patent Document 1).

特開2002−056490号公報JP-A-2002-056490

ここで、移動者は、他の移動者が保持する携帯端末の周囲の情報を共有したり、自身の周囲の情報を発信したりすることにより、より安全に移動したいと考える場合があった。しかしながら、従来の技術では、位置情報を共有することができても、周囲の情報までは共有することまでは困難であった。   Here, there is a case where a mobile user wants to move more safely by sharing information around the portable terminal held by another mobile user or transmitting information around the mobile terminal. However, in the related art, even if the position information can be shared, it is difficult to share the surrounding information.

本発明は、上記の問題点に鑑みてなされたものであって、移動者がより安全に移動できるようにする報知システムを提供することを目的とする。   The present invention has been made in view of the above-described problems, and has as its object to provide a notification system that allows a mobile user to move more safely.

(1):この発明の一態様に係る報知システムは、移動者が保持する端末装置に備えられ、前記移動者の周囲を認識する認識部と、前記移動者に物体が接近した場合、該移動者の近傍に存在する他の移動者が保持する他の端末装置に前記物体の接近を報知する報知部と、を備える。   (1): A notification system according to an aspect of the present invention is provided in a terminal device held by a mobile user, and includes a recognition unit that recognizes the surroundings of the mobile user, and a mobile device that moves when an object approaches the mobile user. And a notifying unit for notifying the approach of the object to another terminal device held by another moving person present in the vicinity of the object.

(2):上記(1)の態様において、前記物体には、前記移動者の周囲の道路を通行する車両が含まれる。   (2): In the aspect of the above (1), the object includes a vehicle traveling on a road around the mobile.

(3):上記(2)の態様において、前記車両には、前記移動者、及び前記他の移動者の方向に移動する車両が含まれる。   (3): In the above aspect (2), the vehicle includes a vehicle that moves in the direction of the moving person and the other moving person.

(4):上記(2)の態様において、前記他の移動者には、前記車両が通過する交差点に接近する移動者が含まれる。   (4): In the mode of the above (2), the other moving person includes a moving person approaching an intersection through which the vehicle passes.

(5):上記(1)の態様において、前記物体には、前記移動者の周囲を移動する移動者であり、前記他の移動者とは異なる移動者が含まれる。   (5): In the aspect of the above (1), the object is a mover moving around the mover, and includes a mover different from the other movers.

(6):上記(5)の態様において、前記認識部は、前記異なる移動者の頭部を認識するものである。   (6): In the above aspect (5), the recognition section recognizes the head of the different moving person.

(7):上記(6)の態様において、前記認識部は、前記頭部のうち、顔を認識するものである。   (7): In the above aspect (6), the recognition section recognizes a face of the head.

(8):上記(5)の態様において、前記報知部は、所定時間内に複数回以上、前記異なる移動者が接近した場合、前記端末装置に前記異なる移動者の接近を報知するものである。   (8): In the above aspect (5), the notification unit notifies the terminal device of the approach of the different mobile device when the different mobile device approaches a plurality of times within a predetermined time. .

(9):上記(1)〜(8)の態様において、前記移動者の近傍に存在する前記他の移動者には、前記移動者の移動経路上、又は前記移動者の移動経路の近傍に存在する移動者が含まれる。   (9): In the above-mentioned aspects (1) to (8), the other mover present in the vicinity of the mover may be on the move route of the mover or in the vicinity of the move route of the mover. Existing migrants are included.

(10):上記(1)〜(9)の態様において、前記報知部は、予め定められた所定位置から所定距離だけ手前の位置において、前記所定位置の接近を前記移動者に報知し、且つ前記他の移動者が前記所定位置から所定距離だけ手前の位置に存在する場合、前記移動者に前記所定位置の接近の報知を開始する、又は前記移動者の報知量を増加させるものである。   (10): In the above aspects (1) to (9), the notifying unit notifies the user of the approach of the predetermined position at a position a predetermined distance from a predetermined position, and When the other mobile is present at a position a predetermined distance from the predetermined position, notification of the approach of the predetermined position to the mobile is started or the notification amount of the mobile is increased.

(11):上記(10)の態様において、前記報知部は、前記所定位置から所定距離だけ離れた位置までの範囲に前記移動者が存在する場合、前記他の移動者の位置に応じて報知量を変更しないものである。   (11): In the aspect of (10), when the mobile unit is present in a range from the predetermined position to a position separated by a predetermined distance, the notification unit notifies the mobile device according to the position of the other mobile user. Do not change the amount.

上述した(1)〜(11)によれば、移動者がより安全に移動できるようにすることができる。   According to the above (1) to (11), it is possible to allow the mover to move more safely.

第1実施形態に係る情報通信システムの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of an information communication system according to the first embodiment. 第1実施形態に係る情報通信システムの利用シーン例を示す図である。It is a figure showing an example of a use scene of an information communication system concerning a 1st embodiment. 第1実施形態に係る第1携帯端末の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a first mobile terminal according to the first embodiment. 第1実施形態に係る第2携帯端末の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of a second mobile terminal according to the first embodiment. 第1実施形態に係る第1携帯端末位置情報をデータセンターが第2携帯端末へ送信する処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure in which the data center transmits the first mobile terminal position information to the second mobile terminal according to the first embodiment. 第1実施形態に係る第2携帯端末の表示部上に表示される第1携帯端末位置情報の例を示す図である。It is a figure showing the example of the 1st portable terminal position information displayed on the display of the 2nd portable terminal concerning a 1st embodiment. 第1実施形態に係るデータセンターが危険通知を第2携帯端末と第3携帯端末へ送信する処理手順例のフローチャートである。It is a flowchart of the example of the processing procedure which the data center which concerns on 1st Embodiment transmits a danger notification to a 2nd portable terminal and a 3rd portable terminal. 第1実施形態に係る第1携帯端末が危険情報を受信した際の処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure when the 1st portable terminal which concerns on 1st Embodiment receives danger information. 第1実施形態に係る第2携帯端末が危険情報を受信した際の処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure when the 2nd portable terminal which concerns on 1st Embodiment receives danger information. 第1実施形態に係る第2携帯端末の表示部上に表示される警告画像を含む第1携帯端末位置情報の例を示す図である。FIG. 5 is a diagram illustrating an example of first mobile terminal position information including a warning image displayed on a display unit of a second mobile terminal according to the first embodiment. 第2実施形態に係る情報通信システムの主な動作例を示す図である。It is a figure showing the example of the main operation of the information communication system concerning a 2nd embodiment. 第2実施形態に係る情報通信システムの構成例を示す図である。It is a figure showing the example of composition of the information communications system concerning a 2nd embodiment. 第2実施形態に係る所定位置、所定動作およびスコアの例を示す図である。It is a figure showing the example of predetermined position, predetermined operation, and a score concerning a 2nd embodiment. 本実施形態に係るデータセンターが行う処理手順例のフローチャートである。5 is a flowchart of an example of a processing procedure performed by the data center according to the embodiment. 第2実施形態に係る第2携帯端末が行う処理手順例のフローチャートである。It is a flow chart of the example of the processing procedure which the 2nd portable terminal concerning a 2nd embodiment performs. 第2実施形態に係る第2携帯端末の表示部上に表示されるスコアを含む情報の画像例である。It is an example of the image of the information containing the score displayed on the display of the second mobile terminal according to the second embodiment. 第2実施形態に係る所定位置における一時停止の動作分析方法の処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure of the motion analysis method of the pause at the predetermined position according to the second embodiment. 第2実施形態に係る所定位置における左右確認の動作分析方法の処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure of the motion analysis method of right and left confirmation at a predetermined position according to the second embodiment. 第2実施形態に係る所定位置における手挙げ動作の動作分析方法の処理手順例のフローチャートである。It is a flowchart of the example of a processing procedure of the operation | movement analysis method of the hand-lifting operation in the predetermined position which concerns on 2nd Embodiment. 第3実施形態に係る情報通信システム1Bの構成の一例を示す図である。It is a figure showing an example of composition of information communications system 1B concerning a 3rd embodiment. 第3実施形態に係る第1携帯端末2Bの構成の一例を示す図である。It is a figure showing an example of composition of the 1st personal digital assistant 2B concerning a 3rd embodiment. 第3実施形態に係る報知の開始タイミングを模式的に示す図である。It is a figure showing typically the start timing of information concerning a 3rd embodiment. 第3実施形態に係る接近判定部291及び報知部421の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of approach judgment part 291 and information part 421 concerning a 3rd embodiment. 図23に示されるステップS110の物体接近報知処理の詳細を示すフローチャートである。24 is a flowchart showing details of an object approach notification process in step S110 shown in FIG. 近傍に存在する他の児童に車両、又は不審者が接近した場合の報知部421の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of the alerting | reporting part 421 at the time of a vehicle or a suspicious person approaching another child who exists near. 第4実施形態の情報通信システム1Bの構成の一例を示す図である。It is a figure showing an example of composition of information communications system 1B of a 4th embodiment. 第4実施形態に係る報知の開始タイミングを模式的に示す図である。It is a figure showing typically the start timing of information concerning a 4th embodiment. 第4実施形態に係る報知部421の処理の一例を示すフローチャートである。It is a flow chart which shows an example of processing of information part 421 concerning a 4th embodiment. 図28に示されるステップS404の所定位置接近報知処理の詳細を示すフローチャートである。29 is a flowchart showing details of a predetermined position approach notification process in step S404 shown in FIG. 28.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
<情報通信システム1の構成例>
図1は、本実施形態に係る情報通信システム1の構成例を示す図である。図1に示すように、情報通信システム1は、第1携帯端末2(第1端末)、第2携帯端末3(第2端末)、データセンター4(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4、およびサーバ5それぞれは、ネットワーク6を介して接続されている。
[First Embodiment]
<Configuration Example of Information Communication System 1>
FIG. 1 is a diagram illustrating a configuration example of an information communication system 1 according to the present embodiment. As shown in FIG. 1, the information communication system 1 includes a first mobile terminal 2 (first terminal), a second mobile terminal 3 (second terminal), a data center 4 (center), and a server 5. The first mobile terminal 2, the second mobile terminal 3, the data center 4, and the server 5 are connected via a network 6.

ネットワーク6は、例えば移動体通信網である。移動体通信網は、例えば第4世代移動体通信網、第5世代移動体通信網等である。なお、ネットワーク6は、基地局等を含む。   The network 6 is, for example, a mobile communication network. The mobile communication network is, for example, a fourth generation mobile communication network, a fifth generation mobile communication network, or the like. Note that the network 6 includes a base station and the like.

第1携帯端末2は、見守り対象である例えば子供が携帯する端末である。第1携帯端末2は、通信機能を備えるロボットである。第1携帯端末2は、位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報のうちの少なくとも1つを、ネットワーク6を介してデータセンター4へ送信する。第1携帯端末2は、データセンター4が送信した交通情報、メッセージおよび緊急情報のうちの少なくとも1つを、ネットワーク6を介して受信する。なお、第1携帯端末2の構成については後述する。同一グループ歩行者情報とは、一緒に登校または下校している同一グループ歩行者を示す同一グループ歩行者情報である。周辺歩行者情報とは、児童の周辺を歩いている歩行者を示す情報である。車両情報とは、歩行している道路の車両情報である。   The first mobile terminal 2 is a terminal carried by, for example, a child to be watched over. The first mobile terminal 2 is a robot having a communication function. The first mobile terminal 2 transmits at least one of the position information, the same group pedestrian information, the peripheral pedestrian information, and the vehicle information to the data center 4 via the network 6. The first mobile terminal 2 receives at least one of the traffic information, the message, and the emergency information transmitted by the data center 4 via the network 6. The configuration of the first mobile terminal 2 will be described later. The same-group pedestrian information is the same-group pedestrian information indicating the same-group pedestrians who have joined or left school together. The peripheral pedestrian information is information indicating a pedestrian walking around the child. The vehicle information is vehicle information of a walking road.

第2携帯端末3は、見守り対象である児童の保護者が所持する端末である。第2携帯端末3は、例えばスマートフォン、タブレット端末、スマートウォッチ等である。第2携帯端末3は、データセンター4が送信した第1携帯端末2の位置に関する第1携帯端末位置情報を、ネットワーク6を介して受信する。なお、第1携帯端末位置情報は画像情報である。なお、第2携帯端末3の構成については後述する。   The second mobile terminal 3 is a terminal owned by a guardian of a child to be watched over. The second mobile terminal 3 is, for example, a smartphone, a tablet terminal, a smart watch, or the like. The second mobile terminal 3 receives, via the network 6, the first mobile terminal position information regarding the position of the first mobile terminal 2 transmitted by the data center 4. Note that the first mobile terminal position information is image information. The configuration of the second mobile terminal 3 will be described later.

データセンター4は、通信部41、制御部42、モデル記憶部43、および記憶部44を備えている。
通信部41は、第1携帯端末2からネットワーク6を介して受信した位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報を制御部42に出力する。通信部41は、サーバ5からネットワーク6を介して受信した災害情報や不審者情報や緊急情報を制御部42に出力する。通信部41は、制御部42が出力する危険通知を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する交通情報またはメッセージあるいは緊急情報を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する第1携帯端末位置情報または緊急通知あるいは音声メッセージを、ネットワーク6を介して第2携帯端末3へ送信する。また、通信部41は、第1携帯端末2から受信した加速度センサ28の検出値を受信し、受信した検出値を制御部42に出力する。なお、加速度センサ28の検出値を用いる例は、第2実施形態で説明する。
The data center 4 includes a communication unit 41, a control unit 42, a model storage unit 43, and a storage unit 44.
The communication unit 41 outputs the position information, the same group pedestrian information, the peripheral pedestrian information, and the vehicle information received from the first mobile terminal 2 via the network 6 to the control unit 42. The communication unit 41 outputs disaster information, suspicious individual information, and emergency information received from the server 5 via the network 6 to the control unit 42. The communication unit 41 transmits the danger notification output by the control unit 42 to the first mobile terminal 2 via the network 6. The communication unit 41 transmits the traffic information or the message or the emergency information output by the control unit 42 to the first mobile terminal 2 via the network 6. The communication unit 41 transmits the first mobile terminal position information, the emergency notification, or the voice message output by the control unit 42 to the second mobile terminal 3 via the network 6. In addition, the communication unit 41 receives the detection value of the acceleration sensor 28 received from the first mobile terminal 2 and outputs the received detection value to the control unit 42. An example using the detection value of the acceleration sensor 28 will be described in a second embodiment.

制御部42は、第1携帯端末2から受信した位置情報を記憶部44に格納する。制御部42は、サーバ5から受信した不審者情報を記憶部44に記憶させる。なお、不審者情報には、不審者が現れた位置情報や現れた時刻等が含まれている。
制御部42は、記憶部44が格納する位置情報と地図情報に基づいて、第1携帯端末2を所持する児童の移動軌跡を生成する。制御部42は、地図情報に生成した移動軌跡を合わせた情報を第1携帯端末位置情報として生成する。制御部42は、生成した第1携帯端末位置情報を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と災害情報と不審者情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて危険箇所を設定し、設定した危険箇所を示す情報を記憶部44に記憶させる。なお、危険箇所とは、災害が発生した箇所、交通事故が多い箇所、不審者が現れた箇所等である。制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と、受信した位置情報に基づいて危険通知を生成し、生成した危険通知を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて、交通情報、メッセージおよび緊急情報のうち少なくとも1つを生成する。なお、メッセージは音声信号であり、テキスト情報を言語モデルや辞書を用いて周知の手法で音声信号に変換したものである。制御部42は、生成した交通情報、メッセージおよび緊急情報を通信部41に出力する。制御部42は、生成したメッセージを音声メッセージとし、緊急情報を緊急通知として通信部41に出力する。
また、制御部42は、携帯端末の電話番号または識別情報に基づいて、児童が所持する第1携帯端末2と、保護者が所持する第2携帯端末3とを関連付けて記憶部44に記憶させる。これにより、データセンター4は、複数の親子の携帯端末の組に対して処理を行うことができる。
The control unit 42 stores the position information received from the first mobile terminal 2 in the storage unit 44. The control unit 42 causes the storage unit 44 to store the suspicious individual information received from the server 5. The suspicious individual information includes information on the position where the suspicious individual appears, the time when the suspicious individual appears, and the like.
The control unit 42 generates a movement trajectory of a child having the first mobile terminal 2 based on the position information and the map information stored in the storage unit 44. The control unit 42 generates, as first mobile terminal position information, information in which the generated moving trajectory is combined with the map information. The control unit 42 outputs the generated first mobile terminal position information to the communication unit 41.
The control unit 42 includes the position information and the vehicle information received from the first mobile terminal 2, the emergency information, the disaster information, and the suspicious individual information received from the server 5, the model information stored in the model storage unit 43, and the storage unit 44. A dangerous spot is set based on the map information and the position information stored in the storage unit, and information indicating the set dangerous spot is stored in the storage unit 44. In addition, a dangerous place is a place where a disaster has occurred, a place where there are many traffic accidents, a place where a suspicious person appears, and the like. The control unit 42 generates a danger notification based on the map information and the information indicating the danger point stored in the storage unit 44 and the received position information, and outputs the generated danger notification to the communication unit 41.
The control unit 42 controls the position information and the vehicle information received from the first mobile terminal 2, the emergency information received from the server 5, the model information stored in the model storage unit 43, the map information and the position stored in the storage unit 44. At least one of traffic information, a message, and emergency information is generated based on the information. Note that the message is a voice signal, which is obtained by converting text information into a voice signal using a language model or a dictionary by a known method. The control unit 42 outputs the generated traffic information, message, and emergency information to the communication unit 41. The control unit 42 outputs the generated message as a voice message, and outputs the emergency information to the communication unit 41 as an emergency notification.
Further, the control unit 42 stores the first mobile terminal 2 owned by the child and the second mobile terminal 3 owned by the guardian in the storage unit 44 in association with each other based on the telephone number or the identification information of the mobile terminal. . Thus, the data center 4 can perform processing on a set of a plurality of parent and child mobile terminals.

モデル記憶部43は、モデル情報として、統計地域交通モデル、交通予測モデル等を記憶している。
統計地域交通モデルとは、統計的に地域における交通状態等を示すものであり、移動体端末等から地図情報や交通情報に関するデータをデータセンター4が取得し、各地域における交通情報等を統計的に示したモデルである。
交通予測モデルとは、過去に蓄積した各地域における交通状況から将来に渡る該当地域における交通量等を予測するものであり、前記統計地域交通モデルからのデータに基づいて決定してもよい。例えば、第1携帯端末2を所持する児童の登下校のルートにおける、登下校時の交通量もモデルである。
The model storage unit 43 stores a statistical area traffic model, a traffic prediction model, and the like as model information.
The statistical area traffic model is a model that statistically indicates traffic conditions in the area, and the data center 4 obtains map information and traffic information data from mobile terminals and the like, and statistically obtains traffic information and the like in each area. This is the model shown in FIG.
The traffic prediction model is for predicting the traffic volume and the like in the future region from the traffic situation in each region accumulated in the past, and may be determined based on data from the statistical region traffic model. For example, the traffic volume at the time of entry / exit of the child carrying the first portable terminal 2 on the entrance / exit route is also a model.

記憶部44は、地図情報を記憶する。なお、地図情報には、例えば自宅から学校までの通学路を含む地図、児童が寄り道するお店(例えばスーパー、本屋、文房具屋等)の位置情報、帰宅前に行く塾等の位置情報を含む。また、地図情報には、歩道や道路の経路ネットワーク(岐点、枝)等の情報が含まれている。また、記憶部44は、第1携帯端末2の位置情報を格納する。記憶部44は、危険箇所を示す情報と、不審者情報を記憶する。記憶部44は、危険情報を生成する際に使用される所定値を記憶する。   The storage unit 44 stores the map information. In addition, the map information includes, for example, a map including a school road from home to school, location information of shops where children drop off (for example, supermarkets, bookstores, stationery stores, etc.), and location information of cram schools before returning home. . Further, the map information includes information such as a sidewalk or road route network (crossing point, branch). Further, the storage unit 44 stores the position information of the first mobile terminal 2. The storage unit 44 stores information indicating a dangerous spot and suspicious individual information. The storage unit 44 stores a predetermined value used when generating danger information.

サーバ5は、例えば学校や、区役所等に設置されている。サーバ5は、地震や台風等の自然災害に関する災害情報と、不審者情報等を、ネットワーク6を介してデータセンター4へ送信する。なお、データセンター4は、これらの情報を、サーバ5との通信によって取得するようにしてもよい。   The server 5 is installed in, for example, a school or a ward office. The server 5 transmits disaster information on a natural disaster such as an earthquake or a typhoon, and suspicious individual information to the data center 4 via the network 6. Note that the data center 4 may acquire such information through communication with the server 5.

次に、情報通信システム1の利用シーン例を説明する。
図2は、本実施形態に係る情報通信システム1の利用シーン例を示す図である。図2に示すように、第1携帯端末2は、例えば形状がマスコット型のロボットであり、例えばランドセルの肩ひも等に取り付けられて用いられる。後述するように、第1携帯端末2は、マイクロフォン、撮像部、スピーカ、GPS(Global Positioning System;衛星測位システム)の衛星(不図示)から測位情報を受信する受信部等を備えている。第1携帯端末2は、第1携帯端末2を所持する児童が発話した音声を取得して送信したり、撮像部が撮影した画像をデータセンター4へ送信したりする。また、第1携帯端末2は、データセンター4が送信した情報やメッセージを受信して再生、報知する。
Next, an example of a usage scene of the information communication system 1 will be described.
FIG. 2 is a diagram illustrating an example of a use scene of the information communication system 1 according to the present embodiment. As shown in FIG. 2, the first mobile terminal 2 is, for example, a mascot-type robot, and is used by being attached to, for example, a shoulder strap of a school bag. As will be described later, the first mobile terminal 2 includes a microphone, an imaging unit, a speaker, a receiving unit that receives positioning information from a satellite (not shown) of a GPS (Global Positioning System). The first mobile terminal 2 acquires and transmits voice uttered by a child having the first mobile terminal 2 and transmits an image captured by the imaging unit to the data center 4. In addition, the first mobile terminal 2 receives, reproduces, and reports information and messages transmitted by the data center 4.

データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した交通情報やメッセージや緊急情報を第1携帯端末2へ送信する。また、データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した第1携帯端末位置情報や緊急通知や音声メッセージを第2携帯端末3へ送信する。なお、データセンター4は、例えば登下校時に他の児童が他の第1携帯端末2を所持している場合、これらの複数の第1携帯端末2が捉えたリアルタイム情報(現在位置、同一グループ歩行者情報、周辺歩行者情報、車両情報等)を相互に利用して第2情報または第4情報を生成するようにしてもよい。   The data center 4 transmits to the first mobile terminal 2 information received from the first mobile terminal 2 and traffic information, messages and emergency information generated based on the information received from the server 5. Further, the data center 4 transmits the first mobile terminal position information, the emergency notification, and the voice message generated based on the information received from the first mobile terminal 2 and the information received from the server 5 to the second mobile terminal 3. Note that, for example, when another child possesses another first mobile terminal 2 at the time of entering / leaving school, the data center 4 stores real-time information (current position, same-group walking) captured by the plurality of first mobile terminals 2. The second information or the fourth information may be generated by mutually using the information on the pedestrians, the information on the surrounding pedestrians, the information on the vehicles, etc.

第2携帯端末3は、第1携帯端末2を所持する児童が歩いているルートを含む地図情報等を含む第1携帯端末位置情報をデータセンター4から受信し、受信した第1携帯端末位置情報を状況情報として表示する。また、第2携帯端末3は、データセンター4が送信した緊急通知や音声メッセージを受信し、受信した緊急通知や音声メッセージを表示または再生する。なお、第2携帯端末3に表示される画像については後述する。   The second mobile terminal 3 receives, from the data center 4, first mobile terminal location information including map information and the like including a route on which the child carrying the first mobile terminal 2 is walking, and receives the received first mobile terminal location information. Is displayed as status information. In addition, the second mobile terminal 3 receives the emergency notification and the voice message transmitted from the data center 4, and displays or reproduces the received emergency notification and the voice message. The image displayed on the second mobile terminal 3 will be described later.

サーバ5は、例えば防災行政無線による放送内容を、ネットワーク6を介してデータセンター4へ送信する。
なお、図2に示した利用シーンは一例であり、これに限らない。
The server 5 transmits, for example, the content of the broadcast by the disaster prevention administrative radio to the data center 4 via the network 6.
Note that the use scene illustrated in FIG. 2 is an example, and the present invention is not limited to this.

<第1携帯端末2の構成例>
次に、第1携帯端末2の構成例を説明する。
図3は、本実施形態に係る第1携帯端末2の構成例を示すブロック図である。図3に示すように、第1携帯端末2は、通信部21、撮像部22、マイクロフォン23、GPS24(位置検出部)、バイブレータ25、スピーカ26、表示部27、加速度センサ28、および制御部29を備える。なお、第1携帯端末2は、操作部を備えていてもよい。
<Configuration example of first mobile terminal 2>
Next, a configuration example of the first mobile terminal 2 will be described.
FIG. 3 is a block diagram illustrating a configuration example of the first mobile terminal 2 according to the present embodiment. As shown in FIG. 3, the first mobile terminal 2 includes a communication unit 21, an imaging unit 22, a microphone 23, a GPS 24 (position detection unit), a vibrator 25, a speaker 26, a display unit 27, an acceleration sensor 28, and a control unit 29. Is provided. Note that the first mobile terminal 2 may include an operation unit.

通信部21は、制御部29が出力する情報(位置情報、同一グループ歩行者情報、周辺歩行者情報、車両情報)を、ネットワーク6を介してデータセンター4へ送信する。通信部21は、データセンター4が送信した情報(交通情報、メッセージ、緊急情報)を受信し、受信した情報(交通情報、メッセージ、緊急情報)を制御部29に出力する。通信部21は、データセンター4が送信した危険情報を受信し、受信した危険情報を制御部29に出力する。   The communication unit 21 transmits the information (the position information, the same group pedestrian information, the peripheral pedestrian information, and the vehicle information) output by the control unit 29 to the data center 4 via the network 6. The communication unit 21 receives the information (traffic information, message, emergency information) transmitted by the data center 4 and outputs the received information (traffic information, message, emergency information) to the control unit 29. The communication unit 21 receives the danger information transmitted by the data center 4 and outputs the received danger information to the control unit 29.

撮像部22は、撮影した画像を制御部29に出力する。なお、画像は静止画であっても動画であってもよい。   The imaging unit 22 outputs the captured image to the control unit 29. Note that the image may be a still image or a moving image.

マイクロフォン23は、収音した音声信号を制御部29に出力する。なお、マイクロフォン23は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。   The microphone 23 outputs the collected audio signal to the control unit 29. Note that the microphone 23 may be a microphone array including a plurality of microphones.

GPS24は、GPSの衛星から測位情報を受信する受信部である。GPS24は、受信した測位情報を制御部29に出力する。なお、第1携帯端末2は、例えば基地局との通信に基づいて現在位置を示す情報を取得するようにしてもよい。   The GPS 24 is a receiving unit that receives positioning information from GPS satellites. The GPS 24 outputs the received positioning information to the control unit 29. Note that the first mobile terminal 2 may acquire information indicating the current position based on, for example, communication with a base station.

バイブレータ25は、振動子であり、制御部29が出力する報知情報に応じて振動を発生させる。   The vibrator 25 is a vibrator, and generates vibration according to notification information output from the control unit 29.

スピーカ26は、制御部29が出力する音声信号を再生する。   The speaker 26 reproduces an audio signal output by the control unit 29.

表示部27は、制御部29が出力する報知情報に応じて報知する。表示部27は、例えば3色のLED(発光ダイオード)である。なお、表示部27は、例えば、液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等であってもよい。   The display unit 27 performs notification in accordance with the notification information output by the control unit 29. The display unit 27 is, for example, an LED (light emitting diode) of three colors. The display unit 27 may be, for example, a liquid crystal display device, an organic EL (electroluminescence) display device, an electronic ink display device, or the like.

加速度センサ28は、第1携帯端末2のXYZ軸の3方向の加速度を検出し、検出した検出結果を制御部29に出力する。   The acceleration sensor 28 detects accelerations of the first mobile terminal 2 in three directions of the XYZ axes, and outputs the detected results to the control unit 29.

制御部29は、撮像部22が出力する画像を取得する。制御部29は、マイクロフォン23が出力する音声信号を取得する。制御部29は、GPS24が出力する測位情報を取得する。制御部29は、通信部21が出力する危険情報を取得する。制御部29は、GPS24から取得した測位情報に基づく位置情報を通信部21に出力する。制御部29は、例えば撮像部22から取得した画像から周知の画像認識手法を用いて人が含まれているか否かを判別する。制御部29は、画像に人が含まれている場合、その画像を同一グループ歩行者情報または周辺歩行者情報とし、同一グループ歩行者情報または周辺歩行者情報を通信部21に出力する。なお、制御部29は、例えば、画像に含まれている人の大きさが閾値未満の場合に周辺歩行者と判別し、閾値以上の場合に同一グループ歩行者と判別する。また、制御部29は、画像から周知の画像認識手法を用いて車両が含まれているか否かを判別する。制御部29は、画像に車両が含まれている場合、その画像を車両情報とし、車両情報を通信部21に出力する。
制御部29は、通信部21が出力する情報(交通情報、メッセージ、緊急情報)を取得する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号の場合、音声信号をスピーカ26に出力する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号ではない場合、情報(交通情報、メッセージ、緊急情報)を表示部27とバイブレータ25の少なくとも1つに出力する。なお、制御部29は、情報(交通情報、メッセージ、緊急情報)を表示部27に出力する場合、例えば情報に応じて発光させる色または点滅状態等を制御する。また、制御部29は、情報(交通情報、メッセージ、緊急情報)をバイブレータ25に出力する場合、例えば情報に応じて振動間隔または振動の強さを制御する。
制御部29は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ26に出力する。または、制御部29は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ25に出力する。
制御部29は、加速度センサ28が出力する検出値を取得し、取得した検出値を通信部21によって、データセンター4へする。
The control unit 29 acquires an image output by the imaging unit 22. The control unit 29 acquires an audio signal output from the microphone 23. The control unit 29 acquires the positioning information output by the GPS 24. The control unit 29 acquires the danger information output by the communication unit 21. The control unit 29 outputs position information based on the positioning information acquired from the GPS 24 to the communication unit 21. The control unit 29 determines, for example, whether or not a person is included from the image acquired from the imaging unit 22 using a known image recognition method. When a person is included in the image, the control unit 29 uses the image as the same group pedestrian information or the peripheral pedestrian information, and outputs the same group pedestrian information or the peripheral pedestrian information to the communication unit 21. The control unit 29 determines, for example, that the size of a person included in the image is less than a threshold value as a nearby pedestrian, and determines that the size of the person is equal to or greater than the threshold value as a same-group pedestrian. Further, the control unit 29 determines whether or not a vehicle is included in the image using a known image recognition technique. When an image includes a vehicle, the control unit 29 uses the image as vehicle information and outputs the vehicle information to the communication unit 21.
The control unit 29 acquires information (traffic information, messages, emergency information) output by the communication unit 21. When the information (traffic information, message, emergency information) is a voice signal, the control unit 29 outputs the voice signal to the speaker 26. When the information (traffic information, message, emergency information) is not a voice signal, control unit 29 outputs the information (traffic information, message, emergency information) to at least one of display unit 27 and vibrator 25. When outputting information (traffic information, message, emergency information) to the display unit 27, the control unit 29 controls, for example, a color to be lit or a blinking state according to the information. Further, when outputting information (traffic information, message, emergency information) to the vibrator 25, the control unit 29 controls the vibration interval or the vibration intensity according to the information, for example.
The control unit 29 generates a voice message based on the danger information, and outputs the generated voice message to the speaker 26. Alternatively, the control unit 29 generates notification information based on the danger information, and outputs the generated notification information to the vibrator 25.
The control unit 29 acquires the detection value output by the acceleration sensor 28 and sends the acquired detection value to the data center 4 by the communication unit 21.

加速度センサ28は、第1携帯端末2にかかる加速度を検出し、検出した検出値を制御部29に出力する。   The acceleration sensor 28 detects the acceleration applied to the first mobile terminal 2 and outputs the detected value to the control unit 29.

<第2携帯端末3の構成例>
次に、第2携帯端末3の構成例を説明する。
図4は、本実施形態に係る第2携帯端末3の構成例を示すブロック図である。図4に示すように、第2携帯端末3は、通信部31、マイクロフォン32、操作部33、表示部34、スピーカ35、制御部36、およびバイブレータ37を備える。
<Configuration example of second mobile terminal 3>
Next, a configuration example of the second mobile terminal 3 will be described.
FIG. 4 is a block diagram illustrating a configuration example of the second mobile terminal 3 according to the present embodiment. As shown in FIG. 4, the second mobile terminal 3 includes a communication unit 31, a microphone 32, an operation unit 33, a display unit 34, a speaker 35, a control unit 36, and a vibrator 37.

通信部31は、データセンター4が送信した第1携帯端末位置情報を受信し、受信した第1携帯端末位置情報を制御部36に出力する。通信部31は、データセンター4が送信した緊急通知または音声メッセージを受信し、受信した緊急通知または音声メッセージを制御部36に出力する。
マイクロフォン32は、収音した音声信号を制御部36に出力する。なお、マイクロフォン32は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。
The communication unit 31 receives the first mobile terminal position information transmitted by the data center 4 and outputs the received first mobile terminal position information to the control unit 36. The communication unit 31 receives the emergency notification or the voice message transmitted by the data center 4 and outputs the received emergency notification or the voice message to the control unit 36.
The microphone 32 outputs the collected sound signal to the control unit 36. Note that the microphone 32 may be a microphone array including a plurality of microphones.

操作部33は、例えば表示部34上に設けられたタッチパネルセンサである。操作部33は、利用者が操作した操作結果を制御部36に出力する。
表示部34は、制御部36が出力する第1携帯端末位置情報を表示する。表示部34は、例えば、液晶表示装置、有機EL表示装置、電子インク表示装置等である。
スピーカ35は、制御部36が出力する音声信号を再生する。
バイブレータ37は、振動子であり、制御部36が出力する報知情報に応じて振動を発生させる。
The operation unit 33 is, for example, a touch panel sensor provided on the display unit 34. The operation unit 33 outputs an operation result operated by the user to the control unit 36.
The display unit 34 displays the first mobile terminal position information output by the control unit 36. The display unit 34 is, for example, a liquid crystal display, an organic EL display, an electronic ink display, or the like.
The speaker 35 reproduces an audio signal output by the control unit 36.
The vibrator 37 is a vibrator, and generates vibration according to the notification information output by the control unit 36.

制御部36は、通信部31が出力する第1携帯端末位置情報を取得する。制御部36は、通信部31が出力する緊急通知または音声メッセージを取得する。制御部36は、取得した第1携帯端末位置情報を表示部34に出力する。制御部36は、緊急通知が画像情報の場合、緊急情報を表示部34に出力する。制御部36は、取得した音声メッセージをスピーカ35に出力する。制御部36は、通信部31が出力する危険情報を取得する。制御部36は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ35に出力する。または、制御部36は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ37に出力する。   The control unit 36 acquires the first mobile terminal position information output by the communication unit 31. The control unit 36 acquires the emergency notification or the voice message output by the communication unit 31. The control unit 36 outputs the obtained first mobile terminal position information to the display unit 34. When the emergency notification is image information, the control unit 36 outputs the emergency information to the display unit 34. The control unit 36 outputs the acquired voice message to the speaker 35. The control unit 36 acquires the danger information output by the communication unit 31. The control unit 36 generates a voice message based on the danger information, and outputs the generated voice message to the speaker 35. Alternatively, the control unit 36 generates notification information based on the danger information, and outputs the generated notification information to the vibrator 37.

<第1携帯端末位置情報の送信手順>
次に、第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例を説明する。
図5は、本実施形態に係る第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例のフローチャートである。
<Transmission procedure of first mobile terminal location information>
Next, an example of a processing procedure in which the data center 4 transmits the first mobile terminal position information to the second mobile terminal 3 will be described.
FIG. 5 is a flowchart of a processing procedure example in which the data center 4 transmits the first mobile terminal position information to the second mobile terminal 3 according to the present embodiment.

(ステップS11)制御部42は、第1携帯端末2から位置情報を、ネットワーク6を介して通信部41によって受信する。なお、位置情報には、受信した時刻情報が含まれている。
(ステップS12)制御部42は、受信した位置情報を記憶部44に格納する。
(Step S11) The control unit 42 receives the position information from the first portable terminal 2 by the communication unit 41 via the network 6. Note that the position information includes the received time information.
(Step S12) The control unit 42 stores the received position information in the storage unit 44.

(ステップS13)制御部42は、記憶部が記憶する位置情報と地図情報を用いて、第1携帯端末位置情報を生成する。なお、制御部42は、位置情報に含まれる時刻情報を時系列順に繋いで、第1携帯端末2を所持する児童の移動軌跡を生成する。続けて、制御部42は、第1携帯端末位置情報を、ネットワーク6を介して通信部41によって第2携帯端末3へ送信する。   (Step S13) The control unit 42 generates first mobile terminal position information using the position information and the map information stored in the storage unit. Note that the control unit 42 connects the time information included in the position information in chronological order, and generates a movement trajectory of the child having the first mobile terminal 2. Subsequently, the control unit 42 transmits the first mobile terminal position information to the second mobile terminal 3 by the communication unit 41 via the network 6.

なお、データセンター4は、図5に示した処理を、例えば、第1携帯端末位置情報の送信をリクエストする指示を保護者が第2携帯端末3の操作部33を操作して、その操作結果を制御部36が通信部31によってデータセンター4へ送信したときに行う。または、データセンター4は、例えば保護者が第2携帯端末3の操作部33を操作して設定した登校時間と下校時間を第2携帯端末3がデータセンター4へ送信されている場合、登校時間と下校時間に図5に示した処理を行うようにしてもよい。   The data center 4 performs the processing shown in FIG. 5 by, for example, issuing an instruction to request transmission of the first mobile terminal location information by the parent operating the operation unit 33 of the second mobile terminal 3 and the operation result. Is transmitted from the control unit 36 to the data center 4 by the communication unit 31. Alternatively, for example, when the second mobile terminal 3 is transmitted to the data center 4 when the guardian operates the operation unit 33 of the second mobile terminal 3 to send the child to the school, The processing shown in FIG.

ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図6は、本実施形態に係る第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を示す図である。
なお、図6は、下校時の第1携帯端末位置情報の例である。符号g11は、第1携帯端末2を所持する児童の移動軌跡を表している。また、符号g12は、第1携帯端末2を所持する児童の現在位置を示している。
Here, an example of the first mobile terminal position information displayed on the display unit 34 of the second mobile terminal 3 will be described. FIG. 6 is a diagram illustrating an example of the first mobile terminal position information displayed on the display unit 34 of the second mobile terminal 3 according to the present embodiment.
FIG. 6 is an example of the first mobile terminal position information at the time of leaving school. Reference sign g11 indicates a movement locus of a child having the first mobile terminal 2. Reference sign g12 indicates the current position of the child having the first mobile terminal 2.

<危険通知の送信手順>
次に、データセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例を説明する。
図7は、本実施形態に係るデータセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例のフローチャートである。
<Danger notification transmission procedure>
Next, an example of a processing procedure in which the data center 4 transmits a danger notification to the first mobile terminal 2 and the second mobile terminal 3 will be described.
FIG. 7 is a flowchart illustrating an example of a processing procedure in which the data center 4 according to the present embodiment transmits a danger notification to the first mobile terminal 2 and the second mobile terminal 3.

(ステップS21)データセンター4の制御部42は、サーバ5にアクセスする。
(ステップS22)制御部42は、サーバ5から危険箇所を示す情報と、不審者情報を通信部41によって取得する。続けて、制御部42は、取得した危険箇所を示す情報と、不審者情報を記憶部44に記憶させる。なお、危険箇所は、例えば不審者情報が得られた位置(緯度経度)を含む所定の範囲、または、不審者情報が得られた番地等の範囲を含む。なお、範囲は、制御部42が設定するようにしてもよい。
(Step S21) The control unit 42 of the data center 4 accesses the server 5.
(Step S <b> 22) The control unit 42 acquires the information indicating the dangerous place and the suspicious individual information from the server 5 by the communication unit 41. Subsequently, the control unit 42 causes the storage unit 44 to store the acquired information indicating the dangerous spot and the suspicious individual information. The dangerous spot includes, for example, a predetermined range including the position (latitude and longitude) at which the suspicious individual information is obtained, or a range such as an address at which the suspicious individual information is obtained. Note that the range may be set by the control unit 42.

(ステップS23)制御部42は、第1携帯端末2から位置情報を取得する。なお、位置情報は、データセンター4からのリクエストに基づいて、第1携帯端末2が送信するようにしてもよく、第1携帯端末2が所定の周期で送信するようにしてもよい。続けて、制御部42は、取得した位置情報を記憶部44に記憶させる。   (Step S23) The control unit 42 acquires the position information from the first mobile terminal 2. The position information may be transmitted by the first mobile terminal 2 based on a request from the data center 4, or may be transmitted by the first mobile terminal 2 at a predetermined cycle. Subsequently, the control unit 42 causes the storage unit 44 to store the acquired position information.

(ステップS24)制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と位置情報とに基づいて、危険箇所と現在の児童の位置の距離を算出することで測定する。   (Step S24) The control unit 42 measures the distance by calculating the distance between the dangerous spot and the current position of the child based on the map information, the information indicating the dangerous spot, and the position information stored in the storage unit 44.

(ステップS25)制御部42は、算出した距離が記憶部44が記憶する所定値未満であるか否かを判定する。制御部42は、距離が所定値未満であると判定した場合(ステップS25;YES)、ステップS26の処理に進める。制御部42は、距離が所定値以上であると判定した場合(ステップS25;NO)、ステップS21の処理に戻す。   (Step S25) The control unit 42 determines whether the calculated distance is less than a predetermined value stored in the storage unit 44. When determining that the distance is less than the predetermined value (step S25; YES), the control unit 42 proceeds to the process of step S26. When determining that the distance is equal to or greater than the predetermined value (step S25; NO), the control unit 42 returns to the processing of step S21.

(ステップS26)制御部42は、危険情報を生成する。続けて、制御部42は、生成した危険情報を通信部41によって、第2携帯端末3へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(ステップS27)制御部42は、生成した危険情報を通信部41によって、第1携帯端末2へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(Step S26) The control unit 42 generates danger information. Subsequently, the control unit 42 notifies the danger by transmitting the generated danger information to the second mobile terminal 3 by the communication unit 41. When the danger information is the notification sound, the control unit 42 increases the notification sound as the first mobile terminal 2 approaches the dangerous place.
(Step S27) The control unit 42 notifies the danger by transmitting the generated danger information to the first mobile terminal 2 by the communication unit 41. When the danger information is the notification sound, the control unit 42 increases the notification sound as the first mobile terminal 2 approaches the dangerous place.

なお、上述した例では、データセンター4が、サーバ5から危険箇所を示す情報を取得する例を説明したが、これに限らない。危険箇所は、例えば保護者が第2携帯端末3の操作部33を操作して設定し、設定された情報をデータセンター4の制御部42が取得するようにしてもよい。   In the example described above, the example in which the data center 4 acquires the information indicating the dangerous place from the server 5 has been described, but the present invention is not limited to this. The danger point may be set by, for example, a parent operating the operation unit 33 of the second mobile terminal 3 and the control unit 42 of the data center 4 may obtain the set information.

<危険通知の受信処理>
次に、児童が所持する第1携帯端末2が危険情報を受信した際の処理手順例を説明する。
図8は、本実施形態に係る第1携帯端末2が危険情報を受信した際の処理手順例のフローチャートである。
<Danger notification reception processing>
Next, an example of a processing procedure when the first mobile terminal 2 owned by the child receives the danger information will be described.
FIG. 8 is a flowchart of an example of a processing procedure when the first mobile terminal 2 according to the present embodiment receives danger information.

(ステップS31)第1携帯端末2の制御部29は、データセンター4が送信した危険情報を通信部21によって受信する。
(ステップS32)制御部29は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ26から再生させる。または、制御部29は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ26から再生させる。なお、スピーカ26がブザーである場合、制御部29は、危険情報に基づいて所定の電圧をスピーカ26に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S31) The control unit 29 of the first mobile terminal 2 receives the danger information transmitted by the data center 4 by the communication unit 21.
(Step S32) The control unit 29 generates a voice message notifying the danger based on the danger information, and causes the speaker 26 to reproduce the generated voice message. Alternatively, the control unit 29 generates, for example, a buzzer sound based on the danger information, and causes the speaker 26 to reproduce the generated buzzer sound. When the speaker 26 is a buzzer, the control unit 29 outputs a predetermined voltage to the speaker 26 based on the danger information. As a result, voice output based on the danger information is performed. The control unit 29 increases the volume as the distance between the dangerous location and the current location becomes shorter.

(ステップS33)制御部29は、スピーカ26からの音声出力が禁止されたバイブレータモードであるか否かを判別する。なお、制御部29は、バイブレータモードの設定を、例えば、第1携帯端末2が備える操作部(不図示)が操作された結果も基づき設定するか、第2携帯端末3からの指示に応じて設定する。制御部29は、バイブレータモードであると判別した場合(ステップS33;YES)、ステップS34の処理に進め、バイブレータモードではない判別した場合(ステップS33;NO)、ステップS31の処理に戻す。なお、制御部29は、バイブレータモードの場合、ステップS32の処理を行わないか、または、ステップS32の処理の代わりに表示部27を点滅等させるようにしてもよい。   (Step S33) The control unit 29 determines whether or not the apparatus is in a vibrator mode in which audio output from the speaker 26 is prohibited. In addition, the control unit 29 sets the vibrator mode based on, for example, the result of operating an operation unit (not shown) of the first mobile terminal 2 or in response to an instruction from the second mobile terminal 3. Set. When determining that the mode is the vibrator mode (step S33; YES), control unit 29 proceeds to the process of step S34, and when determining that the mode is not the vibrator mode (step S33; NO), returns to the process of step S31. In addition, in the case of the vibrator mode, the control unit 29 may not perform the process of step S32, or may blink the display unit 27 instead of the process of step S32.

(ステップS34)制御部29は、危険情報に基づいてバイブレータ25を駆動する。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ25の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。   (Step S34) The control unit 29 drives the vibrator 25 based on the danger information. The control unit 29 may increase the amplitude of the vibration of the vibrator 25 or shorten the interval between the vibrations as the distance between the dangerous place and the current position becomes shorter.

次に、保護者が所持する第2携帯端末3が危険情報を受信した際の処理手順例を説明する。
図9は、本実施形態に係る第2携帯端末3が危険情報を受信した際の処理手順例のフローチャートである。
Next, an example of a processing procedure when the second mobile terminal 3 owned by the guardian receives the danger information will be described.
FIG. 9 is a flowchart of an example of a processing procedure when the second mobile terminal 3 according to the present embodiment receives danger information.

(ステップS41)第2携帯端末3の制御部36は、データセンター4が送信した危険情報を通信部31によって受信する。
(ステップS42)制御部36は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ35から再生させる。または、制御部36は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ35から再生させる。なお、スピーカ35がブザーである場合、制御部36は、危険情報に基づいて所定の電圧をスピーカ35に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S41) The control unit 36 of the second mobile terminal 3 receives the danger information transmitted by the data center 4 by the communication unit 31.
(Step S42) The control unit 36 generates a voice message notifying the danger based on the danger information, and reproduces the generated voice message from the speaker 35. Alternatively, the control unit 36 generates, for example, a buzzer sound based on the danger information, and causes the speaker 35 to reproduce the generated buzzer sound. When the speaker 35 is a buzzer, the control unit 36 outputs a predetermined voltage to the speaker 35 based on the danger information. As a result, voice output based on the danger information is performed. The control unit 36 increases the volume as the distance between the dangerous location and the current location becomes shorter.

(ステップS43)制御部36は、バイブレータモードであるか否かを判別する。なお、制御部36は、バイブレータモードの設定を、第2携帯端末3の操作部33が操作された結果に応じて設定する。制御部36は、バイブレータモードであると判別した場合(ステップS43;YES)、ステップS44の処理に進め、バイブレータモードではない判別した場合(ステップS43;NO)、ステップS45の処理に進める。なお、制御部36は、バイブレータモードの場合、ステップS42の処理を行わないか、または、ステップS42の処理の代わりに表示部34を点滅等させるようにしてもよい。   (Step S43) The control unit 36 determines whether or not the mode is the vibrator mode. The control unit 36 sets the setting of the vibrator mode according to the result of the operation of the operation unit 33 of the second mobile terminal 3. When determining that the mode is the vibrator mode (step S43; YES), the control unit 36 proceeds to the process of step S44, and when determining that the mode is not the vibrator mode (step S43; NO), proceeds to the process of step S45. Note that, in the case of the vibrator mode, the control unit 36 may not perform the process of step S42, or may blink the display unit 34 instead of the process of step S42.

(ステップS44)制御部36は、危険情報に基づいてバイブレータ37を駆動する。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ37の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。   (Step S44) The control unit 36 drives the vibrator 37 based on the danger information. Note that the control unit 36 may increase the amplitude of the vibration of the vibrator 37 or shorten the interval of the vibration as the distance between the dangerous point and the current position becomes shorter.

(ステップS45)制御部36は、保護者が操作部33を操作した結果に基づいて、第1携帯端末位置情報の送信リクエストを通信部31によって、データセンター4へ送信する。データセンター4の制御部42は、受信した送信リクエストに基づいて、通信部41によって第1携帯端末位置情報に危険を知らせる警告画像を付与して第2携帯端末3へ送信する。続けて、制御部36は、データセンター4が送信した第1携帯端末位置情報を通信部31によって受信する。続けて、制御部36は、受信した第1携帯端末位置情報を表示部34上に表示させる。   (Step S45) The control unit 36 transmits a transmission request for the first mobile terminal position information to the data center 4 by the communication unit 31 based on the result of the parent operating the operation unit 33. Based on the received transmission request, the control unit 42 of the data center 4 adds a warning image indicating danger to the first mobile terminal position information by the communication unit 41 and transmits the information to the second mobile terminal 3. Subsequently, the control unit 36 receives the first mobile terminal position information transmitted from the data center 4 by the communication unit 31. Subsequently, the control unit 36 displays the received first mobile terminal position information on the display unit 34.

ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図10は、本実施形態に係る第2携帯端末3の表示部34上に表示される警告画像を含む第1携帯端末位置情報の例を示す図である。
図10において、符号g11と符号g12は図6と同様である。また、符号g21は、危険箇所を示す画像である。符号g22は、警告画像である。
図10に示す例では、児童が所持する第1携帯端末2の現在位置が、危険箇所内であるため、警告画像「危険箇所にいます。ご注意ください!」が、第1携帯端末位置情報に重ねられて(または合成されて)表示される。なお、警告画像は、制御部36が、受信した警告情報に基づいて生成してもよい。
Here, an example of the first mobile terminal position information displayed on the display unit 34 of the second mobile terminal 3 will be described. FIG. 10 is a diagram illustrating an example of first mobile terminal position information including a warning image displayed on the display unit 34 of the second mobile terminal 3 according to the present embodiment.
In FIG. 10, reference numerals g11 and g12 are the same as those in FIG. The symbol g21 is an image indicating a dangerous spot. Symbol g22 is a warning image.
In the example shown in FIG. 10, since the current position of the first mobile terminal 2 owned by the child is within the dangerous location, the warning image “You are in a dangerous location. Is superimposed on (or synthesized with). Note that the warning image may be generated by the control unit 36 based on the received warning information.

なお、第1携帯端末2の制御部29は、撮像部22が撮影した画像を同一グループ歩行者情報または周辺歩行者情報あるいは車両情報として、通信部21によってデータセンター4へ送信するようにしてもよい。   The control unit 29 of the first mobile terminal 2 may transmit the image captured by the imaging unit 22 to the data center 4 by the communication unit 21 as the same group pedestrian information, peripheral pedestrian information, or vehicle information. Good.

またデータセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて、交通量が多い箇所に第1携帯端末2の所持者が近づいたとき交通情報を通信部41によって第1携帯端末2に送信するようにしてもよい。なお、交通情報は音声信号であってもよい。第1携帯端末2の制御部29は、受信した交通情報を再生する。これにより、第1携帯端末2を所持する児童は、交通量が多い箇所に近づいたことを知ることができる。   Further, the control unit 42 of the data center 4 transmits traffic information based on the information received from the server 5 when the holder of the first mobile terminal 2 approaches a location with a large traffic volume by the communication unit 41 using the first mobile terminal. 2 may be transmitted. The traffic information may be a voice signal. The control unit 29 of the first mobile terminal 2 reproduces the received traffic information. Thereby, the child possessing the first mobile terminal 2 can know that he / she has approached a location with a large traffic volume.

また、データセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて緊急情報を第1携帯端末2と第2携帯端末3へ送信するようにしてもよい。ここで緊急情報とは、例えば災害や事故が発生した場合に、避難を呼びかける情報である。   The control unit 42 of the data center 4 may transmit emergency information to the first mobile terminal 2 and the second mobile terminal 3 based on information received from the server 5, for example. Here, the emergency information is information calling for evacuation, for example, when a disaster or accident occurs.

以上のように、本実施形態では、子供(児童)が所持または鞄等に取り付けた第1携帯端末2で取得した位置情報を、データセンター4に集約して、保護者が所持する第2携帯端末3へ送信するようにした。また、本実施形態では、不審者情報を、行政や学校のサーバ5からデータセンター4へ集約する。データセンター4は、不審者情報を取得した際、第1携帯端末2の現在位置と危険箇所との距離が所定値未満の場合に、第1携帯端末2を所持する児童と、第2携帯端末3を所持する保護者に危険情報を送信するようにした。   As described above, in the present embodiment, the position information acquired by the child (child) by the first portable terminal 2 possessed or attached to a bag or the like is collected in the data center 4, and the second portable device carried by the guardian is collected. The data is transmitted to the terminal 3. Further, in the present embodiment, the suspicious individual information is collected from the administration or school server 5 to the data center 4. When acquiring the suspicious individual information, if the distance between the current position of the first mobile terminal 2 and the dangerous point is less than a predetermined value, the data center 4 may include a child having the first mobile terminal 2 and a second mobile terminal. Danger information is now sent to guardians who own 3

これにより、本実施形態によれば、第1携帯端末2の所持者が危険箇所に近づいているときに、第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行うことができる。   Thus, according to the present embodiment, when the holder of the first mobile terminal 2 is approaching a dangerous place, the holder (child) of the first mobile terminal 2 or the holder of the second mobile terminal 3 (protection). ) Can be notified of danger.

また、本実施形態では、第1携帯端末2が危険箇所に近づくにつれて、警報音等を大きくするようにした。
これにより、本実施形態によれば、より一層、第1携帯端末2の所持者が危険箇所に近づいていることを通知することができる。
また、本実施形態では、第2携帯端末3は、第1携帯端末2の移動軌跡を取得するようにした。
これにより、本実施形態によれば、第1携帯端末2の所持者の移動軌跡(例えば、学校から自宅までの帰宅経路)を第2携帯端末3の所持者が把握することができる。
Further, in the present embodiment, as the first mobile terminal 2 approaches the dangerous place, the alarm sound and the like are made louder.
Thus, according to the present embodiment, it is possible to further notify that the holder of the first mobile terminal 2 is approaching a dangerous place.
Further, in the present embodiment, the second mobile terminal 3 acquires the movement trajectory of the first mobile terminal 2.
Thus, according to the present embodiment, the holder of the second mobile terminal 3 can grasp the movement trajectory of the holder of the first mobile terminal 2 (for example, a return route from school to home).

[第2実施形態]
第1実施形態では、第2携帯端末3が、第1携帯端末2の移動軌跡を取得する例や、第1携帯端末2の所持者が危険箇所に近づいたときに第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行う例等を説明した。
本実施形態では、データセンター4が、第1携帯端末2から受信した情報に基づいて、通学経路等の所定位置において行うべき所定動作が行われた否かを判別して、判別した結果を第2携帯端末3へ送信する例を説明する。
[Second embodiment]
In the first embodiment, the second mobile terminal 3 acquires the movement trajectory of the first mobile terminal 2 or possesses the first mobile terminal 2 when the owner of the first mobile terminal 2 approaches a dangerous place. An example has been described in which a danger notice is given to a person (child) or a holder (protector) of the second mobile terminal 3.
In the present embodiment, based on the information received from the first mobile terminal 2, the data center 4 determines whether or not a predetermined operation to be performed at a predetermined position such as a school route is performed, and the determined result is referred to as a fourth result. An example of transmission to the portable terminal 3 will be described.

まず、本実施形態の情報通信システム1Aの主な動作例を説明する。
図11は、本実施形態に係る情報通信システム1Aの主な動作例を示す図である。
符号g100は、帰宅した際の第1携帯端末2と児童との対話例を示す図である。符号g100が示す図において、符号g101が児童の発話であり、符号g102が第1携帯端末2の発話である。
First, a main operation example of the information communication system 1A of the present embodiment will be described.
FIG. 11 is a diagram illustrating a main operation example of the information communication system 1A according to the present embodiment.
Symbol g100 is a diagram illustrating an example of a dialogue between the first mobile terminal 2 and a child when returning home. In the diagram indicated by the symbol g100, the symbol g101 is the utterance of the child, and the symbol g102 is the utterance of the first mobile terminal 2.

符号g110は、帰宅した際の児童と保護者との対話例を示す図である。符号g110が示す図において、符号g111が保護者の発話であり、符号g112が児童の発話であり、符号g113が第1携帯端末2の発話である。   Symbol g110 is a diagram illustrating an example of a dialogue between the child and the guardian when returning home. In the diagram indicated by the symbol g110, the symbol g111 is the utterance of the guardian, the symbol g112 is the utterance of the child, and the symbol g113 is the utterance of the first mobile terminal 2.

符号g120は、第2携帯端末3に表示される画像例を示す図である。表示される画像は、データセンター4から受信した画像である。符号g121は、データセンター4から受信した画像である。画像g121は、スコアの画像g122、児童の移動軌跡の画像g122、確認箇所での動作確認結果の画像g123とg124が含まれている。   A symbol g120 is a diagram illustrating an example of an image displayed on the second mobile terminal 3. The displayed image is an image received from the data center 4. The symbol g121 is an image received from the data center 4. The image g121 includes an image g122 of the score, an image g122 of the movement locus of the child, and images g123 and g124 of the operation check result at the check point.

<情報通信システム1Aの構成>
次に、情報通信システム1Aの構成例を説明する。
図12は、本実施形態に係る情報通信システム1Aの構成例を示す図である。図12に示すように、情報通信システム1Aは、第1携帯端末2、第2携帯端末3、データセンター4A(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4A、およびサーバ5それぞれは、ネットワーク6を介して接続されている。なお、情報通信システム1と同様の動作を行う機能部については、同じ符号を用いて説明を省略する。図12に示すように、情報通信システム1と情報通信システム1Aとの差異は、データセンター4Aである。
<Configuration of Information Communication System 1A>
Next, a configuration example of the information communication system 1A will be described.
FIG. 12 is a diagram illustrating a configuration example of the information communication system 1A according to the present embodiment. As shown in FIG. 12, the information communication system 1A includes a first mobile terminal 2, a second mobile terminal 3, a data center 4A (center), and a server 5. The first mobile terminal 2, the second mobile terminal 3, the data center 4A, and the server 5 are connected via a network 6. Note that functional units that perform operations similar to those of the information communication system 1 are denoted by the same reference numerals, and description thereof is omitted. As shown in FIG. 12, the difference between the information communication system 1 and the information communication system 1A is a data center 4A.

図12に示すように、データセンター4Aは、通信部41、制御部42A、モデル記憶部43、記憶部44A、音声認識モデル記憶部45、音声認識部46、およびシナリオ記憶部47を備えている。   As shown in FIG. 12, the data center 4A includes a communication unit 41, a control unit 42A, a model storage unit 43, a storage unit 44A, a voice recognition model storage unit 45, a voice recognition unit 46, and a scenario storage unit 47. .

音声認識モデル記憶部45は、例えば音響モデル、言語モデル、単語辞書等を記憶している。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。   The speech recognition model storage unit 45 stores, for example, an acoustic model, a language model, a word dictionary, and the like. The acoustic model is a model based on the feature amount of sound, and the language model is a model of information on words and their arrangement. The word dictionary is a dictionary based on many vocabularies, for example, a large vocabulary word dictionary.

音声認識部46は、制御部42Aが出力する音声信号に対して発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部46は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部46は、検出した発話区間の音声信号に対して、音声認識モデル記憶部45を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部46は、例えば特開2015−64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部46は、認識した認識結果に対して音声認識モデル記憶部45を参照してテキストに変換する。音声認識部46は、テキスト情報に対して音声認識モデル記憶部45を参照して形態素解析と係り受け解析を行う。係り受け解析には、例えば、Shift−reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。音声認識部46は、解析結果を制御部42Aに出力する。   The voice recognition unit 46 detects a voice signal in a speech section with respect to the voice signal output from the control unit 42A. In the detection of the utterance section, for example, an audio signal having a predetermined threshold value or more is detected as the utterance section. Note that the voice recognition unit 46 may detect the utterance section using another known method. The speech recognition unit 46 performs speech recognition on the detected speech signal in the utterance section by referring to the speech recognition model storage unit 45 using a known method. The voice recognition unit 46 performs voice recognition using, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2015-64554. The speech recognition unit 46 converts the recognized recognition result into text by referring to the speech recognition model storage unit 45. The speech recognition unit 46 performs morphological analysis and dependency analysis on the text information with reference to the speech recognition model storage unit 45. For the dependency analysis, for example, the SVM (Support Vector Machines) is used in the Shift-reduce method, the spanning tree method, or the chunk identification step application method. The voice recognition unit 46 outputs the analysis result to the control unit 42A.

シナリオ記憶部47は、第1携帯端末2が用いられる環境で行われる対話を、例えばテキスト形式で記憶する。   The scenario storage unit 47 stores a dialog performed in an environment in which the first mobile terminal 2 is used, for example, in a text format.

制御部42Aは、制御部42が行う処理に加えて以下の処理を行う。
制御部42Aは、第1携帯端末2から通信部41が受信した画像、第1携帯端末2から通信部41が受信した加速度センサ28の検出値を受信する。制御部42Aは、設定されている位置で所定動作が行われてか否かを、受信した画像と加速度センサ28の検出値の少なくとも1つに基づいて判別する。制御部42Aは、判別した結果に基づいて、例えば帰宅時のスコアを求める。制御部42Aは、求めたスコアを記憶部44Aに記憶させる。制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信した場合、生成した画像を第2携帯端末3へ送信する。なお、所定動作が行われてか否かの判別方法、スコアの求め方については後述する。
また、制御部42Aは、音声認識部46が出力する解析結果を取得する。制御部42Aは、解析結果に基づいて、シナリオ記憶部47を参照して第1携帯端末2から受信した音声信号に対する返答を選択する。制御部42Aは、選択した応答を例えばフォルマント合成の手法等によって音声信号に変換し、変換した音声信号を通信部41によって第1携帯端末2へ送信する。
The control unit 42A performs the following processing in addition to the processing performed by the control unit 42.
The control unit 42A receives the image received by the communication unit 41 from the first mobile terminal 2 and the detection value of the acceleration sensor 28 received by the communication unit 41 from the first mobile terminal 2. The control unit 42A determines whether the predetermined operation is performed at the set position based on at least one of the received image and the detection value of the acceleration sensor 28. The control unit 42A obtains, for example, a score at the time of returning home based on the determined result. The control unit 42A stores the obtained score in the storage unit 44A. The control unit 42A generates an image including an image of a score and an image indicating a determination result in an image of a movement locus of a child. When receiving a request for score transmission from the second mobile terminal 3, the control unit 42 </ b> A transmits the generated image to the second mobile terminal 3. A method of determining whether or not a predetermined operation has been performed and a method of obtaining a score will be described later.
Further, the control unit 42A acquires the analysis result output from the voice recognition unit 46. The control unit 42A selects a response to the audio signal received from the first mobile terminal 2 with reference to the scenario storage unit 47 based on the analysis result. The control unit 42A converts the selected response into an audio signal by, for example, a formant synthesis method or the like, and transmits the converted audio signal to the first mobile terminal 2 by the communication unit 41.

記憶部44Aは、記憶部44が記憶する情報に加えて、所定位置を示す情報(緯度経度、地点名)に所定動作とスコアを関連付けて記憶する。また、記憶部44Aは、例えば帰宅時におけるスコアの合計を記憶する。また、記憶部44は、所定動作が行われたか否かを判別する際に用いる閾値を記憶する。さらに、記憶部44Aは、画像検出に用いられる顔部のモデル画像、腕部のモデル画像を記憶する。   The storage unit 44A stores, in addition to the information stored in the storage unit 44, information indicating a predetermined position (latitude and longitude, point name) in association with a predetermined operation and a score. The storage unit 44A stores, for example, the total score at the time of returning home. Further, the storage unit 44 stores a threshold used when determining whether or not the predetermined operation has been performed. Further, the storage unit 44A stores a model image of a face and a model image of an arm used for image detection.

なお、保護者は、第2携帯端末3の操作部33を操作して、通学経路を予め設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、通学経路を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を行うべき所定位置を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置で行う所定動作を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。
なお、データセンター4Aは、例えばサーバ5から危険箇所を取得し、取得した危険箇所を所定位置に設定するようにしてもよい。そして、所定位置の種類に応じて、所定動作を設定するようにしてもよい。
Note that the parent may operate the operation unit 33 of the second mobile terminal 3 to set a school commuting route in advance. In this case, the control unit 36 of the second mobile terminal 3 may transmit the information indicating the commuting route to the data center 4A by the communication unit 31. In addition, the guardian may operate the operation unit 33 of the second mobile terminal 3 to set a predetermined position where a predetermined operation is to be performed. In this case, the control unit 36 of the second mobile terminal 3 may transmit information indicating the predetermined position to the data center 4A by the communication unit 31. In addition, the guardian may operate the operation unit 33 of the second mobile terminal 3 to set a predetermined operation. In this case, the control unit 36 of the second mobile terminal 3 may transmit information indicating the predetermined operation performed at the predetermined position to the data center 4A by the communication unit 31.
Note that the data center 4A may acquire a dangerous point from the server 5, for example, and set the acquired dangerous point at a predetermined position. Then, the predetermined operation may be set according to the type of the predetermined position.

次に、所定位置、所定動作およびスコアの例を説明する。
図13は、本実施形態に係る所定位置、所定動作およびスコアの例を示す図である。 なお、図13に示す例は、帰宅経路(帰宅路)における所定位置、所定動作およびスコアの一部であり、スコアの合計が帰宅経路において100点になるように設定されている。 図13に示す例では、所定箇所は、A交差点と、B交差点と、C交差点である。所定動作は、例えばA交差点において、一時停止と左右確認である。また、スコアは、例えばA交差点において、一時停止が10、左右確認が10である。
制御部42Aは、A交差点において、一時停止の動作が行われていた場合にスコア10、行われていなかった場合にスコア0とする。そして、学校から自宅までにおけるスコアの合計を求め、求めたスコアの合計を記憶部44Aに記憶させる。なお、制御部42Aは、100点から、行われなかった所定動作のスコアを減算して合計のスコアを求めるようにしてもよい。
Next, examples of the predetermined position, the predetermined operation, and the score will be described.
FIG. 13 is a diagram illustrating an example of a predetermined position, a predetermined operation, and a score according to the present embodiment. Note that the example shown in FIG. 13 is a part of the predetermined position, the predetermined operation, and the score on the return home route (return home route), and the total score is set to be 100 points on the return home route. In the example illustrated in FIG. 13, the predetermined locations are the A intersection, the B intersection, and the C intersection. The predetermined operation is, for example, temporary stop and left / right confirmation at intersection A. In addition, for example, at the intersection A, the score is 10 for temporary stop and 10 for left and right confirmation.
The control unit 42A sets the score to 10 when the operation of the temporary stop is performed at the intersection A, and sets the score to 0 when the operation is not performed. Then, the total of the scores from the school to the home is obtained, and the obtained total of the scores is stored in the storage unit 44A. The control unit 42A may obtain the total score by subtracting the score of the predetermined operation that has not been performed from 100 points.

次に、データセンター4Aが行う処理手順例を説明する。
図14は、本実施形態に係るデータセンター4Aが行う処理手順例のフローチャートである。なお、図14に示す例は、制御部42Aが、画像に基づいて所定動作が行われたか否かを判別する例である。
Next, an example of a processing procedure performed by the data center 4A will be described.
FIG. 14 is a flowchart of an example of a processing procedure performed by the data center 4A according to the present embodiment. The example illustrated in FIG. 14 is an example in which the control unit 42A determines whether a predetermined operation has been performed based on an image.

(ステップS51)データセンター4Aの制御部42Aは、第1携帯端末2が送信した位置情報を受信する。
(ステップS52)制御部42Aは、第1携帯端末2が送信した画像を受信する。なお、第1携帯端末2は、所定周期毎に位置情報と画像をデータセンター4Aへ送信する。
(Step S51) The control unit 42A of the data center 4A receives the position information transmitted by the first mobile terminal 2.
(Step S52) The control unit 42A receives the image transmitted by the first mobile terminal 2. The first mobile terminal 2 transmits the position information and the image to the data center 4A at predetermined intervals.

(ステップS53)制御部42Aは、位置が所定箇所の場合、受信した画像に基づいて、所定動作が行われたか否かを判別することで動作分析を行う。
(ステップS54)制御部42Aは、動作分析した結果と記憶部44Aが記憶する情報に基づいて、スコアリング処理を行う。なお、スコアリング処理とは、例えば、加点、減点処理である。
(Step S53) When the position is the predetermined location, the control unit 42A performs the motion analysis by determining whether the predetermined operation has been performed based on the received image.
(Step S54) The control unit 42A performs a scoring process based on the result of the motion analysis and the information stored in the storage unit 44A. The scoring process is, for example, a point addition and deduction process.

(ステップS55)制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信したか否かを判別する。制御部42Aは、第2携帯端末3からリクエストを受信したと判別した場合(ステップS55;YES)、ステップS56の処理に進め、第2携帯端末3からリクエストを受信していないと判別した場合(ステップS55;NO)、ステップS51の処理に戻す。   (Step S55) The control unit 42A determines whether a request to transmit a score has been received from the second mobile terminal 3. When determining that the request has been received from the second mobile terminal 3 (step S55; YES), the control unit 42A proceeds to the process of step S56 and determines that the request has not been received from the second mobile terminal 3 ( (Step S55; NO), the process returns to step S51.

(ステップS56)制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。続けて、制御部42Aは、生成した画像を第2携帯端末3へ送信する。   (Step S56) The control unit 42A generates an image including the image of the score and the image indicating the determination result in the image of the movement locus of the child. Subsequently, the control unit 42A transmits the generated image to the second mobile terminal 3.

なお、図14に示した例では、データセンター4Aは、第2携帯端末3からリクエストを受信したと判別した場合にスコアを含む情報を送信する例を説明したが、これに限らない。データセンター4Aは、例えば保護者によって設定された時刻、所定の周期毎にスコアを含む情報を送信するようにしてもよい。   In the example illustrated in FIG. 14, an example has been described in which the data center 4 </ b> A transmits information including a score when it is determined that a request has been received from the second mobile terminal 3, but the present invention is not limited to this. For example, the data center 4A may transmit information including a score at a time set by a parent or at predetermined intervals.

次に、第2携帯端末3が行う処理手順例を説明する。
図15は、本実施形態に係る第2携帯端末3が行う処理手順例のフローチャートである。
Next, an example of a processing procedure performed by the second mobile terminal 3 will be described.
FIG. 15 is a flowchart of an example of a processing procedure performed by the second mobile terminal 3 according to the present embodiment.

(ステップS61)第2携帯端末3の制御部36は、データセンター4Aが送信したスコアを含む情報を受信する。
(ステップS62)制御部36は、受信したスコアを含む情報を表示部34上に表示させる。
(Step S61) The control unit 36 of the second mobile terminal 3 receives information including the score transmitted by the data center 4A.
(Step S62) The control unit 36 displays information including the received score on the display unit 34.

なお、図15に示した処理は、第2携帯端末3からリクエストを送信したとき、保護者によって設定された時刻、所定の周期毎に行うようにしてもよい。   Note that the process shown in FIG. 15 may be performed at a time set by the parent and at predetermined intervals when a request is transmitted from the second mobile terminal 3.

図16は、本実施形態に係る第2携帯端末3の表示部34上に表示されるスコアを含む情報の画像例である。
画像g200は、表示部34上に表示される画像である。
符号g201は、学校を示している。符号g202は、自宅を示している。
符号g203は、児童の移動軌跡を示す画像である。
符号g211、g212およびg213は、所定箇所を示している。
FIG. 16 is an image example of information including a score displayed on the display unit 34 of the second mobile terminal 3 according to the present embodiment.
The image g200 is an image displayed on the display unit 34.
Reference sign g201 indicates a school. Symbol g202 indicates home.
The symbol g203 is an image showing the movement locus of the child.
Symbols g211, g212, and g213 indicate predetermined locations.

符号g221は、符号g211における所定動作の判別結果を表している。なお、○印は、所定動作を行ったことを表している。
符号g222は、符号g212における所定動作の判別結果を表している。
符号g223は、符号g213における所定動作の判別結果を表している。なお、×印は、所定動作を行っていないことを表している。
符号g230は、合計スコアを表す画像である。
Reference numeral g221 indicates a determination result of the predetermined operation in reference numeral g211. In addition, the mark ○ indicates that the predetermined operation has been performed.
Reference sign g222 indicates the result of the determination of the predetermined operation in reference sign g212.
Reference numeral g223 represents a result of the determination of the predetermined operation in reference numeral g213. In addition, the mark x indicates that the predetermined operation is not performed.
Symbol g230 is an image representing the total score.

なお、図16において、所定動作を行った場合の符号g221、g222を例えば青色で表示し、所定動作を行っていない場合の符号g223を例えば赤色で表示させるようにしてもよい。このような画像は、データセンター4Aの制御部42Aが生成する。   In FIG. 16, the codes g221 and g222 when the predetermined operation is performed may be displayed in blue, for example, and the code g223 when the predetermined operation is not performed may be displayed in red, for example. Such an image is generated by the control unit 42A of the data center 4A.

次に、所定位置における一時停止の動作分析方法の例を説明する。
図17は、本実施形態に係る所定位置における一時停止の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、Tを0の初期化した後に以下の処理を開始する。また、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a method of analyzing a pause operation at a predetermined position will be described.
FIG. 17 is a flowchart of an example of a processing procedure of the method of analyzing motion of a pause at a predetermined position according to the present embodiment. The control unit 42A starts the following processing after initializing T to 0. The control unit 42A performs the following processing at a predetermined position.

(ステップS71)データセンター4Aの制御部42Aは、第1携帯端末2から位置情報を受信する。続けて、制御部42Aは、受信した位置情報を受信した時刻情報に関連付けて記憶部44に記憶させる。   (Step S71) The control unit 42A of the data center 4A receives the position information from the first mobile terminal 2. Subsequently, the control unit 42A stores the received position information in the storage unit 44 in association with the received time information.

(ステップS72)制御部42Aは、記憶部44Aに記憶させた前回の位置(現在時刻に最も近い時刻の位置情報)と、受信した位置情報とを比較し、前回と同じ位置であるか否かを判別する。制御部42Aは、前回と同じ位置であると判別した場合(ステップS72;YES)、ステップS73の処理に進め、前回と同じ位置ではないと判別した場合(ステップS72;NO)、ステップS74の処理に進める。   (Step S72) The control unit 42A compares the previous position (the position information at the time closest to the current time) stored in the storage unit 44A with the received position information, and determines whether or not the position is the same as the previous position. Is determined. When determining that the position is the same as the previous position (step S72; YES), the control unit 42A proceeds to the process of step S73, and when determining that the position is not the same as the previous position (step S72; NO), the process of step S74. Proceed to

(ステップS73)制御部42Aは、Tに1を加算し、ステップS75の処理に進める。
(ステップS74)制御部42Aは、Tに0を代入し、ステップS71の処理に戻す。
(Step S73) The control unit 42A adds 1 to T, and proceeds to the process of step S75.
(Step S74) The control unit 42A substitutes 0 for T and returns to the process of step S71.

(ステップS75)制御部42Aは、Tが所定動作が行われたか否かを判別する際に用いられる閾値より大きいか否かを判別する。制御部42Aは、Tが閾値より大きいと判別した場合(ステップS75;YES)、ステップS76の処理に進め、Tが閾値以下であると判別した場合(ステップS75;NO)、ステップS71の処理に戻す。   (Step S75) The control unit 42A determines whether or not T is greater than a threshold used when determining whether or not a predetermined operation has been performed. When determining that T is larger than the threshold (step S75; YES), the controller 42A proceeds to the process of step S76, and when determining that T is equal to or smaller than the threshold (step S75; NO), the controller 42A proceeds to the process of step S71. return.

(ステップS76)制御部42Aは、第1携帯端末2を所持する児童が所定位置で一時停止したと判別する。   (Step S76) The control unit 42A determines that the child carrying the first mobile terminal 2 has temporarily stopped at the predetermined position.

なお、制御部42Aは、一時停止の動作分析を、第1携帯端末2の加速度センサ28の検出値に基づいて行うようにしてもよい。
この場合、ステップS71において、制御部42Aは加速度センサ28の検出値を受信する。そして、ステップS72において、制御部42Aは前回の検出値と今回の検出値との差が0を含む所定範囲内の場合に同じ位置であると判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
In addition, the control unit 42A may perform the pause motion analysis based on the detection value of the acceleration sensor 28 of the first mobile terminal 2.
In this case, in step S71, the control unit 42A receives the detection value of the acceleration sensor 28. Then, in step S72, the control unit 42A may determine that the position is the same when the difference between the previous detection value and the current detection value is within a predetermined range including 0.
The control unit 42A may detect whether or not the child has performed the predetermined operation based on at least one of the image and the detection value of the acceleration sensor 28.

次に、所定位置における左右確認の動作分析方法の例を説明する。
図18は、本実施形態に係る所定位置における左右確認の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a method for analyzing the operation of checking left and right at a predetermined position will be described.
FIG. 18 is a flowchart of an example of a processing procedure of the motion analysis method for left / right confirmation at a predetermined position according to the present embodiment. The control unit 42A performs the following processing at a predetermined position.

(ステップS81)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS82)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の顔部を検出する。続けて、制御部42Aは、検出した顔部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S81) The control unit 42A of the data center 4A receives an image from the first mobile terminal 2.
(Step S82) The control unit 42A detects the face of the holder of the first mobile terminal 2 from the received image by a known method. Subsequently, the control unit 42A causes the storage unit 44A to store the detected face image in association with the acquired time information.

(ステップS83)制御部42Aは、記憶部44Aに記憶させた顔部の画像に基づいて、取得した顔部の画像と、前回の顔部の画像とを比較する。続けて、制御部42Aは、比較した結果、顔部が左右に動いているか否かを判別する。制御部42Aは、顔部が左右に動いていると判別した場合(ステップS83;YES)、ステップS84の処理に進め、顔部が左右に動いていないと判別した場合(ステップS83;NO)、ステップS85の処理に進める。   (Step S83) Based on the face image stored in the storage unit 44A, the control unit 42A compares the obtained face image with the previous face image. Subsequently, as a result of the comparison, the control unit 42A determines whether the face part is moving left and right. When determining that the face is moving left and right (step S83; YES), the control unit 42A proceeds to the process of step S84, and determines that the face is not moving left and right (step S83; NO). Proceed to step S85.

(ステップS84)制御部42Aは、第1携帯端末2の所持者が左右確認を行った(左右確認OK)と判別する。
(ステップS85)制御部42Aは、第1携帯端末2の所持者が左右確認を行っていない(左右確認NG)と判別する。
(Step S84) The control unit 42A determines that the holder of the first mobile terminal 2 has performed left / right confirmation (left / right confirmation OK).
(Step S85) The control unit 42A determines that the holder of the first mobile terminal 2 has not performed left / right confirmation (left / right confirmation NG).

なお、左右確認の処理においても、制御部42Aは、加速度センサ28の検出値に基づいて、検出値の左右方向の値が所定値以上変化している場合に顔部が左右に動いたか否かを判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
Also in the left / right confirmation process, the control unit 42A determines whether the face has moved left or right based on the detection value of the acceleration sensor 28 when the left / right direction value of the detection value has changed by a predetermined value or more. May be determined.
The control unit 42A may detect whether or not the child has performed the predetermined operation based on at least one of the image and the detection value of the acceleration sensor 28.

次に、所定位置における手挙げ動作の動作分析方法の例を説明する。
図19は、本実施形態に係る所定位置における手挙げ動作の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a method of analyzing a hand-lifting operation at a predetermined position will be described.
FIG. 19 is a flowchart of an example of a processing procedure of the motion analysis method of a hand-lifting motion at a predetermined position according to the present embodiment. The control unit 42A performs the following processing at a predetermined position.

(ステップS91)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS92)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の胸部を検出する。続けて、制御部42Aは、検出した胸部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S91) The control unit 42A of the data center 4A receives an image from the first mobile terminal 2.
(Step S92) The control unit 42A detects the chest of the holder of the first mobile terminal 2 from the received image by a known method. Subsequently, the control unit 42A stores the detected chest image in the storage unit 44A in association with the acquired time information.

(ステップS93)制御部42Aは、腕部を検出できたか否かにより、腕が挙がっているか否かを判別する。制御部42Aは、腕が挙がっていると判別した場合(ステップS93;YES)、ステップS94の処理に進め、腕が挙がっていない(腕を検出できない)と判別した場合(ステップS93;NO)、ステップS95の処理に進める。   (Step S93) The control unit 42A determines whether or not the arm is raised based on whether or not the arm has been detected. When determining that the arm is raised (step S93; YES), control unit 42A proceeds to step S94, and determines that the arm is not raised (arm cannot be detected) (step S93; NO). Proceed to step S95.

(ステップS94)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行った(手挙げOK)と判別する。
(ステップS95)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行っていない(手挙げNG)と判別する。
(Step S94) The control unit 42A determines that the holder of the first mobile terminal 2 has performed a hand-raising operation (hand-raising OK).
(Step S95) The control unit 42A determines that the holder of the first mobile terminal 2 is not performing a hand-raising operation (hand-raising NG).

以上のように、本実施形態では、通学路において、例えば交通安全上、必要な行動を行ったか否かを判定してスコアで提示するようにした。これにより、第1携帯端末2の所持する児童は、あきず、楽しみながらスコアを上げようとする。このため、本実施形態によれば、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。また、本実施形態では、第1携帯端末2の所持する児童の行動やスコアを保護者が所持する第2携帯端末3へ送信したので、保護者が子供のスキルを見える化できる。本実施形態によれば、保護者と児童とが、第2携帯端末3上に表示される情報を見ながら、コミュニケーションすることで、保護者と児童とのコミュニケーションを増やし、さらなる安全意識向上も同時にはかれる。   As described above, in the present embodiment, it is determined whether or not a necessary action has been performed on a school road, for example, for traffic safety, and presented as a score. As a result, the child possessed by the first mobile terminal 2 tries to increase the score while enjoying it. For this reason, according to the present embodiment, it is possible to continuously provide the child possessed by the first mobile terminal 2 with traffic safety education. Further, in the present embodiment, since the behavior and score of the child possessed by the first mobile terminal 2 are transmitted to the second portable terminal 3 possessed by the guardian, the guardian can visualize the child's skill. According to the present embodiment, the guardian and the child communicate while watching the information displayed on the second mobile terminal 3, thereby increasing the communication between the guardian and the child, and further improving the safety awareness. To be peeled off.

<第1の変形例>
ここで、第1携帯端末2であるキャラクタロボットと、第1携帯端末2の所持者である児童とのコミュニケーションの例を図11の符号g100が示す図を参照して説明する。
<First Modification>
Here, an example of communication between the character robot that is the first mobile terminal 2 and a child that is the owner of the first mobile terminal 2 will be described with reference to a diagram indicated by reference numeral g100 in FIG.

児童は、例えば帰宅したとき、「ただいま!」と発話する。
第1携帯端末2の制御部29は、マイクロフォン23が収音したこの音声信号を通信部21によってデータセンター4Aへ送信する。データセンター4Aの音声認識部46は、受信した音声信号に対して音声認識処理を行う。制御部42Aが音声認識処理された結果に基づいて返答の音声信号を生成して通信部41によって、生成した音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「おかえりなさい!」を再生することで発話する。
When returning home, for example, the child speaks “I'm here!”.
The control unit 29 of the first mobile terminal 2 transmits the audio signal collected by the microphone 23 to the data center 4A by the communication unit 21. The voice recognition unit 46 of the data center 4A performs a voice recognition process on the received voice signal. The control unit 42 </ b> A generates a response voice signal based on the result of the voice recognition processing, and transmits the generated voice signal to the first mobile terminal 2 by the communication unit 41. As a result, the control unit 29 of the first mobile terminal 2 speaks by playing back “Return!” Received from the data center 4A.

続けて、児童が「今日の点数は?」と発話した音声信号をデータセンター4Aが受信し、制御部42Aは音声認識された結果に基づいてシナリオ記憶部47と記憶部44が記憶する情報に基づいて、返答である「90点」の音声信号を生成する。制御部42Aは返答である音声信号を通信部41によって第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「90点」を発話する。   Subsequently, the data center 4A receives a voice signal in which the child utters “What is the score today?”, And the control unit 42A converts the information stored in the scenario storage unit 47 and the storage unit 44 based on the voice recognition result. Based on this, a "90 point" voice signal as a response is generated. The control unit 42A transmits a voice signal as a response to the first portable terminal 2 by the communication unit 41. As a result, the control unit 29 of the first mobile terminal 2 speaks “90 points” received from the data center 4A.

このように第1変形例では、第1携帯端末2が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第1変形例によれば、第1携帯端末2を所持する児童と、第1携帯端末2との間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。   As described above, in the first modification, the voice signal collected by the first mobile terminal 2 is transmitted to the data center 4A, and the response of the voice signal received by the data center 4A is transmitted to the first mobile terminal 2. . Thus, according to the first modified example, communication between the child having the first mobile terminal 2 and the first mobile terminal 2 can be performed, and the child having the first mobile terminal 2 can communicate with the child. , Can be continuously conducted in traffic safety education.

なお、データセンター4Aが第1携帯端末2へ送信する音声信号は、スコアが例えば70以上の場合に「よくがんばったね!」、スコアが例えば50以下の場合に「一時停止しなかったね。明日は一時停止しようね。」等であってもよい。   Note that the audio signal transmitted by the data center 4A to the first mobile terminal 2 is “Good luck!” When the score is, for example, 70 or more, and “Was not paused when the score is, for example, 50 or less. Let's pause. "

<第2の変形例>
ここで、保護者と児童とキャラクタロボットとのコミュニケーションの例を図11の符号g110が示す図を参照して説明する。
<Second Modification>
Here, an example of communication between a parent, a child, and a character robot will be described with reference to a diagram indicated by reference numeral g110 in FIG.

この例の場合、保護者と児童は、第2携帯端末3に表示された画像を見ながら交通安全ポイント確認を行うため会話を行う。
この例でも、第1携帯端末2または第2携帯端末3は、収音した音声信号をデータセンター4Aへ送信する。データセンター4Aは、音声認識した結果に基づいてアドバイスの音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2は、アドバイスの音声信号「一時停止はOKだから手挙げだけね!」を再生する。
なお、データセンター4Aは、このようなアドバイスの音声信号を第2携帯端末3へも送信するようにしてもよい。
In the case of this example, the parent and the child have a conversation in order to confirm the traffic safety point while watching the image displayed on the second mobile terminal 3.
Also in this example, the first mobile terminal 2 or the second mobile terminal 3 transmits the collected voice signal to the data center 4A. The data center 4 </ b> A transmits a voice signal of advice to the first mobile terminal 2 based on the result of voice recognition. As a result, the first mobile terminal 2 reproduces the advice audio signal “Pause is OK, so raise your hand!”.
The data center 4 </ b> A may also transmit such an advice voice signal to the second mobile terminal 3.

このように第2変形例では、第1携帯端末2または第2携帯端末3が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第2変形例によれば、保護者と児童と第1携帯端末2であるキャラクタロボットとの間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。   As described above, in the second modification, the audio signal collected by the first mobile terminal 2 or the second mobile terminal 3 is transmitted to the data center 4A, and the response of the audio signal received by the data center 4A is Send to. Thereby, according to the second modified example, communication between the parent and the child and the character robot that is the first mobile terminal 2 can be performed, and the child possessed by the first mobile terminal 2 can be continuously communicated. Can be used for traffic safety education.

なお、第1実施形態、第2実施形態では、第1携帯端末2を児童が所持する例を説明したが、第1携帯端末2を例えば高齢者が所持するようにしてもよい。   In the first embodiment and the second embodiment, the example in which the child carries the first mobile terminal 2 has been described, but the first mobile terminal 2 may be carried by, for example, an elderly person.

[第3実施形態]
第3実施形態では、物体の接近を児童に報知しつつ、且つ児童の周辺に存在する他の児童にも物体の接近を報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Third embodiment]
In the third embodiment, a case will be described in which the approach of an object is notified to a child and the approach of the object is also notified to other children existing around the child. In addition, about the structure similar to embodiment mentioned above and a modification, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図20は、第3実施形態に係る情報通信システム1Bの構成の一例を示す図である。図20に示される通り、情報通信システム1Bは、複数の第1携帯端末2B(図示する第1携帯端末2B−1〜2B−2)と、第2携帯端末3と、データセンター4Bと、サーバ5とを備える。以降の説明において、第1携帯端末2B−1は、児童Aが保持する第1携帯端末2Bであり、第1携帯端末2B−2は、児童Bが保持する第1携帯端末2Bであるものとして説明する。第1携帯端末2B−1と、第1携帯端末2B−2とを互いに区別しない場合には、総称して第1携帯端末2Bと記載する。以下、第1携帯端末2Bの詳細について説明する。   FIG. 20 is a diagram illustrating an example of a configuration of an information communication system 1B according to the third embodiment. As shown in FIG. 20, the information communication system 1B includes a plurality of first mobile terminals 2B (first mobile terminals 2B-1 to 2B-2 shown), a second mobile terminal 3, a data center 4B, and a server. 5 is provided. In the following description, it is assumed that the first mobile terminal 2B-1 is the first mobile terminal 2B held by the child A, and the first mobile terminal 2B-2 is the first mobile terminal 2B held by the child B. explain. When the first mobile terminal 2B-1 and the first mobile terminal 2B-2 are not distinguished from each other, they are collectively referred to as a first mobile terminal 2B. Hereinafter, details of the first mobile terminal 2B will be described.

図21は、第3実施形態に係る第1携帯端末2Bの構成の一例を示す図である。図24に示される通り、第1携帯端末2Bは、通信部21と、撮像部22と、マイクロフォン23と、GPS24と、バイブレータ25と、スピーカ26と、表示部27と、加速度センサ28と、制御部29Bとを備える。   FIG. 21 is a diagram illustrating an example of a configuration of the first mobile terminal 2B according to the third embodiment. As shown in FIG. 24, the first mobile terminal 2B includes a communication unit 21, an imaging unit 22, a microphone 23, a GPS 24, a vibrator 25, a speaker 26, a display unit 27, an acceleration sensor 28, A portion 29B.

第1携帯端末2Bは、例えば、GPS24によって、GNSS(Global Navigation Satellite System)衛星(例えば、GPS衛星)から受信した信号に基づいて、第1携帯端末2Bの位置(つまり、児童の位置)を特定し、特定した位置を示す位置情報をデータセンター4Bに送信する。以降の説明において、第1携帯端末2Bの位置を児童の位置とも記載する。   The first mobile terminal 2B specifies the position of the first mobile terminal 2B (that is, the position of the child) by, for example, the GPS 24 based on a signal received from a Global Navigation Satellite System (GNSS) satellite (for example, a GPS satellite). Then, position information indicating the specified position is transmitted to the data center 4B. In the following description, the position of the first mobile terminal 2B is also described as the position of the child.

なお、情報通信システム1Bは、児童の位置が特定することができる手法であれば、GPS24以外の手法を採用してもよい。例えば、第1携帯端末2Bは、BLE(Bluetooth(登録商標)Low Energy)、PDR(Pedestrian Dead Reckoning)、IMES(Indoor MEssaging System)、SLAM(Simultaneous Localization and Mapping)等の手法によって、第1携帯端末2Bの位置を特定してもよい。第1携帯端末2Bは、撮像部22によって撮像された周辺の情報に基づいて、第1携帯端末2Bの位置を特定してもよい。情報通信システム1Bは、例えば、第1携帯端末2Bの位置を特定する他のシステムから第1携帯端末2Bの位置を取得する構成であってもよい。例えば、他のシステムは、地理的位置に設置される検出装置を備え、検出装置が自装置の近傍に存在する第1携帯端末2Bを検出することによって、第1携帯端末2Bの位置を特定してもよい。   The information communication system 1B may employ a method other than the GPS 24 as long as the method can specify the position of the child. For example, the first mobile terminal 2B is a first mobile terminal using a method such as Bluetooth (registered trademark) Low Energy (BLE), Pedestrian Dead Reckoning (PDR), Indoor Messaging System (IMES), Simultaneous Localization and Mapping (SLAM), or the like. The position of 2B may be specified. The first mobile terminal 2B may specify the position of the first mobile terminal 2B based on information on the surroundings captured by the imaging unit 22. The information communication system 1B may be configured to acquire the position of the first mobile terminal 2B from another system that specifies the position of the first mobile terminal 2B, for example. For example, another system includes a detection device installed at a geographical position, and the detection device identifies the position of the first mobile terminal 2B by detecting the first mobile terminal 2B existing near the own device. You may.

制御部29Bは、例えば、制御部29が備える構成に加えて接近判定部291をその機能部として備える。制御部29Bは、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサが記憶部(不図示)に格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。   The control unit 29B includes, for example, an approach determination unit 291 as a functional unit in addition to the configuration of the control unit 29. The control unit 29B is realized, for example, by a hardware processor such as a CPU (Central Processing Unit) executing a program (software) stored in a storage unit (not shown). Some or all of these constituent elements are hardware (circuits) such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), and a GPU (Graphics Processing Unit). (Including a circuitry), or may be realized by cooperation of software and hardware.

接近判定部291は、例えば、第1携帯端末2Bが備える検出機能の検出結果に基づいて、児童の周囲に存在する物体が児童に接近したか否かを判定する。以降の説明において、第1携帯端末2Bが備える検出機能が撮像部22である場合について説明する。   The approach determination unit 291 determines whether an object existing around the child has approached the child based on, for example, a detection result of a detection function included in the first mobile terminal 2B. In the following description, a case where the detection function of the first mobile terminal 2B is the imaging unit 22 will be described.

図20に戻り、データセンター4Bは、通信部41と、制御部42Bと、モデル記憶部43と、記憶部44Bと、音声認識モデル記憶部45と、音声認識部46と、シナリオ記憶部47とを備える。制御部42Bは、例えば、報知部421をその機能部として備える。制御部42Bは、例えば、CPUなどのハードウェアプロセッサが記憶部44Bに格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部を含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。   Returning to FIG. 20, the data center 4B includes a communication unit 41, a control unit 42B, a model storage unit 43, a storage unit 44B, a voice recognition model storage unit 45, a voice recognition unit 46, a scenario storage unit 47, Is provided. The control unit 42B includes, for example, a notification unit 421 as a functional unit thereof. The control unit 42B is realized, for example, by a hardware processor such as a CPU executing a program (software) stored in the storage unit 44B. Some or all of these components may be realized by hardware (including a circuit unit) such as an LSI, an ASIC, an FPGA, and a GPU, or may be realized by cooperation of software and hardware. Is also good.

記憶部44Bは、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)又はRAM(Random Access Memory)などにより実現される。記憶部44Bには、例えば、地図情報と、危険情報と、不審者情報とが記憶される。なお、本実施形態において、不審者情報には、不審者が現れた位置情報や現れた時刻等に加えて、不審者パターンが含まれているものとする。不審者パターンとは、不審者の行動や挙動の特徴を示す情報である。   The storage unit 44B is realized by, for example, an HDD, a flash memory, an electrically erasable programmable read only memory (EEPROM), a read only memory (ROM), or a random access memory (RAM). The storage unit 44B stores, for example, map information, danger information, and suspicious individual information. In the present embodiment, it is assumed that the suspicious individual information includes a suspicious individual pattern in addition to the position information and the time when the suspicious individual appears. The suspicious individual pattern is information indicating the behavior of the suspicious individual and characteristics of the behavior.

報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備える報知機能を制御し、児童に物体の接近を報知する。第1携帯端末2Bが備える報知機能は、例えば、バイブレータ25、スピーカ26等である。以降の説明では、データセンター4B(報知部421)が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を動作(振動)させることにより、児童に物体の接近を報知する場合について説明する。なお、以降の説明において、報知部421が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を振動させることを、報知部421がバイブレータ25を振動させるとも記載する。本実施形態の報知部421は、児童に接近する物体のうち、車両の接近と、不審者の接近を児童に報知する。   The notification unit 421 controls the notification function of the first mobile terminal 2B based on the captured image of the imaging unit 22 received from the first mobile terminal 2B when the object is approaching the child, and notifies the child of the object. Report approach. The notification function of the first mobile terminal 2B is, for example, a vibrator 25, a speaker 26, or the like. In the following description, the data center 4B (notification unit 421) transmits a control signal of the vibrator 25 to the first mobile terminal 2B, and the first mobile terminal 2B operates (vibrates) the vibrator 25 based on the control signal. A case will be described in which a child is notified of approach of an object. In the following description, the notification unit 421 transmits a control signal of the vibrator 25 to the first mobile terminal 2B, and the first mobile terminal 2B vibrates the vibrator 25 based on the control signal. 421 also vibrates the vibrator 25. The notification unit 421 of the present embodiment notifies the child of the approach of the vehicle and the approach of the suspicious person among the objects approaching the child.

図22は、第3実施形態に係る報知の開始タイミングを模式的に示す図である。図22において、児童Aは、交差点の方向に直進し、交差点を右折する経路(図示する経路rt)を歩行する。児童Bは、児童Aの近傍(例えば、数〜十数[m])に存在する児童であり、児童Aが右折した先の横断歩道を横断する。また、児童Bの近くには、児童Aの方向に進行する車両(図示する車両m)が存在する。なお、児童Aは、建物が壁となって、車両mを視認することができない。   FIG. 22 is a diagram schematically illustrating a notification start timing according to the third embodiment. In FIG. 22, the child A goes straight in the direction of the intersection and walks on a route (route rt shown) that turns right at the intersection. The child B is a child existing near the child A (for example, several to several tens [m]), and crosses the pedestrian crossing where the child A turns right. Further, a vehicle (vehicle m shown) traveling in the direction of the child A is present near the child B. In addition, the child A cannot see the vehicle m visually because the building is a wall.

本実施形態の第1携帯端末2Bが備える撮像部22は、例えば、移動者(図示する児童A、及び児童B)の周囲を撮像可能なように構成される。図22に示される一例では、児童Aが備える第1携帯端末2B−1の撮像部22の撮像範囲について説明する。なお、図22には図示されていないが、児童Bが保持する第1携帯端末2B−2の撮影部22についても、児童Aが保持する第1携帯端末2B−1と同様の撮像範囲を備えるものとする。   The imaging unit 22 included in the first mobile terminal 2B of the present embodiment is configured to be able to capture, for example, the periphery of a mobile person (the illustrated children A and B). In the example illustrated in FIG. 22, the imaging range of the imaging unit 22 of the first mobile terminal 2B-1 provided for the child A will be described. Although not shown in FIG. 22, the imaging unit 22 of the first mobile terminal 2B-2 held by the child B also has the same imaging range as the first mobile terminal 2B-1 held by the child A. Shall be.

撮像部22は、例えば、複数(図示では、3つ)のカメラによって構成され、第1携帯端末2Bの周囲(図示する児童Aの周囲と、児童Bの周囲とのそれぞれ)を撮像可能なように、撮像方向が異なる向きに設けられる。第1携帯端末2Bの撮影部22は、それぞれ異なる範囲(図示する撮像範囲AR1〜AR3)を撮像する。撮像部22は、児童の周囲を360[度]撮像可能であれば、撮像範囲AR1〜AR3のそれぞれは、互いに重畳していてもよい。本実施形態の撮像部22は、所定の時間間隔毎に児童の周囲を撮像し、撮像画像を生成する。なお、撮像部22は、児童の周囲を撮像することが可能であれば、1つ、又は2つのカメラを備える構成であってもよく、4つ以上のカメラを備える構成であってもよい。   The imaging unit 22 is configured by, for example, a plurality of (three in the figure) cameras, and is configured to be able to image the periphery of the first mobile terminal 2B (the periphery of the illustrated child A and the periphery of the child B, respectively). Are provided in different directions. The imaging unit 22 of the first mobile terminal 2B captures images in different ranges (illustrated imaging ranges AR1 to AR3). As long as the imaging unit 22 can image the periphery of the child by 360 [degrees], the imaging ranges AR1 to AR3 may overlap each other. The imaging unit 22 according to the present embodiment captures an image around a child at predetermined time intervals, and generates a captured image. Note that the imaging unit 22 may be configured to include one or two cameras, or may be configured to include four or more cameras, as long as the imaging unit 22 can capture an image around a child.

なお、第1携帯端末2Bは、児童の周囲環境を検出することができる手法であれば、撮像部22以外の手法を採用してもよい。例えば、第1携帯端末2Bは、レーダー、ライダー、或いは赤外線センサによって、児童の周囲環境を検出してもよい。また、撮像部22によって生成される画像は、静止画像に限らず、動画であってもよい。   The first mobile terminal 2B may employ a method other than the imaging unit 22 as long as the method can detect the surrounding environment of the child. For example, the first mobile terminal 2B may detect the surrounding environment of the child using a radar, a rider, or an infrared sensor. Further, the image generated by the imaging unit 22 is not limited to a still image, and may be a moving image.

接近判定部291は、撮像部22によって生成された撮像画像に基づいて、児童の位置から所定距離(図示する第2所定距離dt2)だけ離れた位置(つまり、図示する所定範囲ARC)まで物体が接近した場合、児童に物体が接近したと判定し、撮像部22の撮像画像をデータセンター4Bに送信する。第2所定距離dt2は、数[m]程度の距離である。   Based on the captured image generated by the imaging unit 22, the approach determination unit 291 determines that the object has reached a position (that is, a predetermined range ARC illustrated) separated from the position of the child by a predetermined distance (a second predetermined distance dt2 illustrated). When approaching, it is determined that the object has approached the child, and the captured image of the imaging unit 22 is transmitted to the data center 4B. The second predetermined distance dt2 is a distance of about several [m].

データセンター4Bの報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備えるバイブレータ25を制御し、車両の接近、又は不審者の接近を児童に報知する。   The notification unit 421 of the data center 4B controls the vibrator 25 included in the first mobile terminal 2B based on the captured image of the imaging unit 22 received from the first mobile terminal 2B when an object is approaching a child, Notify the child of the approach of the vehicle or the approach of the suspicious person.

図23は、第3実施形態に係る接近判定部291及び報知部421の処理の一例を示すフローチャートである。まず、接近判定部291は、撮像部22によって撮像された撮像画像を取得する(ステップS100)。次に、接近判定部291は、取得した撮像画像に基づいて、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満であるか否かを判定する(ステップS102)。接近判定部291は、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満ではないと判定する間、待機する。   FIG. 23 is a flowchart illustrating an example of processing of the approach determination unit 291 and the notification unit 421 according to the third embodiment. First, the approach determination unit 291 acquires a captured image captured by the imaging unit 22 (Step S100). Next, the approach determination unit 291 determines whether the distance from the child to the object captured in the captured image is less than the second predetermined distance dt2 based on the acquired captured image (Step S102). The approach determination unit 291 waits while determining that the distance from the child to the object captured in the captured image is not less than the second predetermined distance dt2.

報知部421は、接近判定部291によって児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満である(つまり、物体が接近している)と判定された場合、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の移動者(この一例では、他の児童)が存在するか否かを判定する(ステップS104)。接近判定部291は、例えば、常時、又は所定の時間間隔毎に情報通信システム1Bが備える複数の第1携帯端末2Bからそれぞれの位置情報を取得する。そして、接近判定部291は、取得したそれぞれの位置情報に基づいて、ステップS102において物体が接近していると判定された児童の近傍(例えば、数〜十数[m])に他の児童が存在するか否かを判定する。   When the approach determination unit 291 determines that the distance from the child to the object captured in the captured image is less than the second predetermined distance dt2 (that is, the object is approaching), the notification unit 421 approaches the object. It is determined whether there is another mobile person (in this example, another child) holding the first mobile terminal 2B near the child who is determined to be performing (step S104). The approach determination unit 291 acquires each piece of position information from the plurality of first mobile terminals 2B included in the information communication system 1B at all times or at predetermined time intervals, for example. Then, based on each of the acquired position information, the approach determination unit 291 determines that another child is in the vicinity (for example, several to several tens [m]) of the child whose object is determined to be approaching in step S102. Determine if it exists.

接近判定部291は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在しない場合、処理をステップS110に進める。報知部421は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在する場合、接近している物体が、他の児童の方向に移動するか否かを判定する(ステップS106)。報知部421は、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の児童が存在する場合であって、且つ物体が他の児童の方向に移動する場合、他の児童の第1携帯端末2Bに物体の接近を報知する(ステップS108)。次に、接近判定部291は、ステップS102において物体が接近していると判定された児童に、物体の接近を児童に報知する物体接近報知処理を行い(ステップS110)、処理を終了する。   When there is no other child near the child whose object is determined to be approaching in step S102, the approach determination unit 291 advances the process to step S110. The notification unit 421 determines whether or not the approaching object moves in the direction of the other child when another child is present in the vicinity of the child determined to be approaching the object in step S102. A determination is made (step S106). The notification unit 421 is a case in which another child holding the first mobile terminal 2B is present near the child determined to be approaching the object, and the object moves in the direction of the other child. In this case, the approach of the object is notified to the first portable terminal 2B of another child (step S108). Next, the approach determination unit 291 performs an object approach notification process of notifying the child that the object is determined to be approaching in step S102 to the child (step S110), and ends the process.

図24は、図23に示されるステップS110の物体接近報知処理の詳細を示すフローチャートである。まず、報知部421は、ステップS100において撮像された撮像画像に示される物体が所定の大きさ以上であるか否かを判定する(ステップS200)。所定の大きさは、例えば、一般的な車両の大きさである。報知部421は、撮像画像に示される物体の大きさが所定の大きさ以上であると判定した場合、物体が車両であると判定する(ステップS202)。報知部421は、ステップS300において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS204)。報知部421は、ステップS100において取得された撮像画像と、ステップ404において取得された撮像画像とに基づいて、車両の速度が所定速度以上であるか否かを判定する(ステップS206)。所定速度は、例えば、数〜数十[km/h]程度の速度である。   FIG. 24 is a flowchart showing details of the object approach notification processing in step S110 shown in FIG. First, the notification unit 421 determines whether the object shown in the captured image captured in step S100 is larger than or equal to a predetermined size (step S200). The predetermined size is, for example, the size of a general vehicle. When the notification unit 421 determines that the size of the object shown in the captured image is equal to or larger than the predetermined size, the notification unit 421 determines that the object is a vehicle (Step S202). The notification unit 421 acquires a captured image generated (captured) after the captured image acquired in step S300 (step S204). The notification unit 421 determines whether or not the speed of the vehicle is equal to or higher than a predetermined speed, based on the captured image acquired in Step S100 and the captured image acquired in Step 404 (Step S206). The predetermined speed is, for example, a speed of several to several tens [km / h].

報知部421は、車両の速度が所定速度以上ではない場合、車両が児童の近傍を通過し終えたか否かを判定する(ステップS208)。報知部421は、車両が児童の近傍を通過し終えた場合、児童に危険が及ばないと推定し、児童に車両の接近を知らせる報知を開始せず、処理を終了する。報知部421は、車両が児童の近傍を通過し終えていないと判定する間、ステップS204〜S206を繰り返す。報知部421は、ステップS204〜S206において、児童に接近する車両が所定速度以上ではない場合、接近しても児童に危険が及ばないと推定し、報知を開始しない。   When the speed of the vehicle is not equal to or higher than the predetermined speed, the notification unit 421 determines whether or not the vehicle has passed the vicinity of the child (Step S208). When the vehicle has passed the vicinity of the child, the notification unit 421 estimates that there is no danger to the child, does not start notification to notify the child of the approach of the vehicle, and ends the process. The notification unit 421 repeats steps S204 to S206 while determining that the vehicle has not passed the vicinity of the child. In steps S204 to S206, if the vehicle approaching the child is not at or above the predetermined speed, the notification unit 421 estimates that there is no danger to the child even if approaching, and does not start the notification.

報知部421は、物体が所定の大きさ以上ではないと判定した場合、物体の移動パターンが不審者のパターンと合致するか否かを判定する(ステップS210)。不審者のパターンは、例えば、(1)児童の移動に係る単位期間中(例えば、ある日の登校中や、ある日の下校等)に、所定回数以上特定の物体に遭遇する、(2)児童の移動に係る単位期間中に、児童の移動経路に合致する経路を物体が行ったり来たりする、(3)物体の特徴が不審者情報の不審者の特徴と合致する等である。報知部421は、物体の移動パターンが不審者のパターンと合致しないと判定した場合、物体が不審者ではないと推定し、児童に物体の接近を知らせる報知を開始せず、処理を終了する。   When determining that the object is not larger than the predetermined size, the notification unit 421 determines whether the movement pattern of the object matches the pattern of the suspicious individual (step S210). The pattern of the suspicious person is, for example, (1) encountering a specific object a predetermined number of times or more during a unit period related to the movement of a child (for example, during a school visit on a certain day, or a leaving school on a certain day), (2) During the unit period related to the movement of the child, the object moves back and forth along a path that matches the movement path of the child, and (3) the characteristics of the object match the characteristics of the suspicious individual in the suspicious individual information. When the notification unit 421 determines that the movement pattern of the object does not match the pattern of the suspicious individual, the notifying unit 421 estimates that the object is not a suspicious individual, does not start notification to notify the child of the approach of the object, and ends the process.

報知部421は、ステップS206において車両の速度が所定の速度以上であると判定した場合、又はステップS210において物体の移動パターンが不審者のパターンと合致する(つまり、物体が不審者である)と判定した場合、車両、又は不審者の接近を児童に知らせる報知を開始する(ステップS212)。   The notification unit 421 determines that the speed of the vehicle is equal to or higher than the predetermined speed in step S206, or that the movement pattern of the object matches the pattern of the suspicious individual in step S210 (that is, the object is a suspicious individual). If it is determined, the notification to notify the child of the approach of the vehicle or the suspicious person is started (step S212).

報知部421は、ステップS100において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS214)。報知部421は、ステップS100において取得された撮像画像と、ステップS214において取得された撮像画像とに基づいて、車両、又は不審者が児童に近づいているか否かを判定する(ステップS215)。報知部421は、車両、又は不審者が児童に近づいている場合、報知量を増加させ(ステップS218)、処理をステップS216に進める。   The notification unit 421 acquires a captured image generated (captured) after the captured image acquired in Step S100 (Step S214). The notification unit 421 determines whether the vehicle or the suspicious individual is approaching the child based on the captured image acquired in Step S100 and the captured image acquired in Step S214 (Step S215). When the vehicle or the suspicious person is approaching the child, the notification unit 421 increases the notification amount (Step S218), and advances the process to Step S216.

報知部421は、車両、又は不審者が児童に近づいていない場合、車両、又は不審者が児童の近傍を通過し終えたか否かを判定する(ステップS220)。報知部421は、車両、又は不審者が児童の近傍を通過し終えるまでの間、ステップS216〜S218の処理を繰り返す。報知部421は、車両、又は不審者が児童の近傍を通過し終えた場合、報知部421は、報知を停止する(ステップS222)。   When the vehicle or the suspicious individual is not approaching the child, the notification unit 421 determines whether the vehicle or the suspicious individual has finished passing near the child (step S220). The notification unit 421 repeats the processes of steps S216 to S218 until the vehicle or the suspicious person finishes passing the vicinity of the child. The notification unit 421 stops the notification when the vehicle or the suspicious person has finished passing near the child (Step S222).

図25は、近傍に存在する他の児童に車両、又は不審者が接近した場合の報知部421の処理の一例を示すフローチャートである。まず、報知部421は、第1携帯端末2Bによって児童(例えば、児童A)に報知が開始されているか否かを判定する(ステップS300)。報知部421は、児童Aに報知が開始されている場合、他の児童(例えば、児童B)に車両、又は不審者が接近したとしても、既に報知が開始されているため、処理を終了する。報知部421は、児童Aに報知が開始されていない場合、児童Bの第1携帯端末2Bから児童Bに車両、又は不審者が接近したことを示す情報を受信したか否かを判定する(ステップS302)。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信するまでの間、ステップS300〜S302の処理を繰り返す。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信した場合、児童に車両、又は不審者の接近の報知を開始する(ステップS304)。   FIG. 25 is a flowchart illustrating an example of processing of the notification unit 421 when a vehicle or a suspicious person approaches another nearby child. First, the notification unit 421 determines whether or not notification to a child (for example, child A) has been started by the first mobile terminal 2B (step S300). When the notification has been started to the child A, the notification unit 421 ends the processing because the notification has already been started even if the vehicle or the suspicious person approaches another child (for example, the child B). . When the notification to the child A has not been started, the notification unit 421 determines whether or not information indicating that the vehicle or the suspicious individual has approached the child B from the first mobile terminal 2B of the child B ( Step S302). The notification unit 421 repeats the processing of steps S300 to S302 until receiving the information indicating that the vehicle or the suspicious person approaches the child B. When the notification unit 421 receives the information indicating that the vehicle or the suspicious individual approaches the child B, the notification unit 421 starts to notify the child of the approach of the vehicle or the suspicious individual (step S304).

図22に示される場面では、上述した処理によって、児童Aは、建物が壁となって車両mを視認することができず、且つ車両mに関する報知がされないが、児童Bの第1携帯端末2Bによって車両mの接近を報知される。このため、児童Aは、視認することはできないが、近傍に物体(この場合は、車両m)が接近していることを報知により把握し、周囲に注意しながら移動することができる。   In the scene shown in FIG. 22, the child A cannot see the vehicle m because the building is a wall and is not notified about the vehicle m by the above-described processing, but the first mobile terminal 2B of the child B is not displayed. Is notified of the approach of the vehicle m. For this reason, the child A cannot visually recognize, but can recognize by notification that an object (in this case, the vehicle m) is approaching in the vicinity and can move while paying attention to the surroundings.

以上説明したように、本実施形態の情報通信システム1Bは、より適切に車両、又は不審者の接近を児童に報知することができる。また、本実施形態の情報通信システム1Bは、児童に車両や不審者が接近していなくても、児童の近傍に存在する他の児童に車両や不審者が接近していることを児童に報知することができる。   As described above, the information communication system 1B of the present embodiment can more appropriately notify the child of the approach of the vehicle or the suspicious individual. Further, the information communication system 1B of the present embodiment notifies the child that the vehicle or the suspicious person is approaching another child existing near the child even if the vehicle or the suspicious person is not approaching the child. can do.

[第4実施形態]
第3実施形態では、児童に接近する物体や人物を児童に報知する場合について説明した。第4実施形態では、地理的位置の接近を児童に報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Fourth embodiment]
In the third embodiment, the case where the object or the person approaching the child is notified to the child has been described. In the fourth embodiment, a case where the approach of a geographical position is notified to a child will be described. In addition, about the structure similar to embodiment mentioned above and a modification, the same code | symbol is attached | subjected and description is abbreviate | omitted.

図26は、第4実施形態の情報通信システム1Bの構成の一例を示す図である。第4実施形態の情報通信システム1Bのデータセンター4Bが備える記憶部44Bは、地理的位置情報を更に記憶する。   FIG. 26 is a diagram illustrating an example of a configuration of an information communication system 1B according to the fourth embodiment. The storage unit 44B provided in the data center 4B of the information communication system 1B of the fourth embodiment further stores geographical position information.

本実施形態の報知部421は、第1携帯端末2Bの位置情報と、地理的位置情報とに更に基づいて、地理的位置の接近を、第1携帯端末2Bを保持する移動者(例えば、児童)に報知する。地理的位置情報は、地理的位置を示す情報である。地理的位置は、児童が通行する経路上の位置であり、且つ児童に危険が及ぶ可能性が有る位置である。地理的位置には、例えば、経路上の交差点、車道と区分された歩道上の位置、倒壊の可能性がある構造物の近傍等が含まれる。以降の説明において、位置情報には、児童の登下校時に歩行する経路上の地理的位置が含まれる場合について説明する。   The notification unit 421 according to the present embodiment determines the approach of the geographical position based on the position information of the first mobile terminal 2B and the geographical position information based on the location information of the first mobile terminal 2B. ). The geographical position information is information indicating a geographical position. The geographical position is a position on a route through which a child passes, and is a position at which a danger may be given to the child. The geographical position includes, for example, an intersection on a route, a position on a sidewalk separated from a road, a vicinity of a structure that may collapse, and the like. In the following description, a case will be described in which the position information includes a geographical position on a route on which a child walks when going to and from school.

報知部421は、第1携帯端末2Bから取得した第1携帯端末2Bの位置情報と、地理的位置情報とに基づいて、児童が地理的位置に接近している場合、バイブレータ25を振動させ、児童に地理的位置の接近を報知する。   The notification unit 421 vibrates the vibrator 25 based on the position information of the first mobile terminal 2B acquired from the first mobile terminal 2B and the geographical position information when the child is approaching the geographical position, Notify the child of the approaching geographical location.

図27は、第4実施形態に係る報知の開始タイミングを模式的に示す図である。図27に示される一例において、地理的位置PT1は、交差点の位置に予め設定される。ここで、地理的位置PTは、交差点の中央よりも、児童が歩行する経路rt上に設定されることが好ましい。例えば、車道と歩道とが区分された道において、経路rtは、歩道であり、地理的位置PTは、歩道上(より具体的には、歩道と車道との境界)に設定される。   FIG. 27 is a diagram schematically illustrating a notification start timing according to the fourth embodiment. In the example shown in FIG. 27, the geographical position PT1 is set in advance at the position of the intersection. Here, the geographical position PT is preferably set on the route rt where the child walks, rather than at the center of the intersection. For example, on a road that is divided into a road and a sidewalk, the route rt is a sidewalk, and the geographical position PT is set on the sidewalk (more specifically, at the boundary between the sidewalk and the road).

報知部421は、地理的位置PT1から所定距離(図示する第1所定距離dt1)だけ離れた位置(つまり、図示する所定範囲ARP)まで児童が接近した場合、バイブレータ25を動作させ、児童Aに地理的位置PT1の接近を報知する。第1所定距離dt1は、例えば、数[m]程度の距離である。また、報知部421は、地理的位置PT1までの距離に応じて、報知の強度(この場合、振動の強度)を変化させてもよい。児童は、バイブレータ25によって地理的位置PT1(つまり、交差点)を報知されることにより、周囲に注意しながら歩行する。このため、情報通信システム1Bは、児童と、児童の進行方向に進行する車両(図示する車両m)とが接触することを抑制することができる。   The notification unit 421 operates the vibrator 25 when the child approaches a position (that is, a predetermined range ARP shown) separated from the geographical position PT1 by a predetermined distance (a first predetermined distance dt1 shown), so that the child A The approach of the geographical position PT1 is notified. The first predetermined distance dt1 is, for example, a distance of several [m]. The notification unit 421 may change the notification intensity (in this case, the vibration intensity) in accordance with the distance to the geographical position PT1. The child is notified of the geographical position PT1 (that is, the intersection) by the vibrator 25, and walks while paying attention to the surroundings. For this reason, the information communication system 1B can suppress contact between the child and a vehicle (vehicle m shown in the drawing) traveling in the traveling direction of the child.

図28は、第4実施形態に係る報知部421の処理の一例を示すフローチャートである。報知部421は、図28に示される処理を、所定の時間間隔毎に実行する。まず、報知部421は、第1携帯端末2Bから児童の位置を示す位置情報を取得する(ステップS400)。次に、報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であるか否かを判定する(ステップS402)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満ではない場合、処理を終了する。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満である場合、地理的位置PTの接近を児童に報知する地理的位置接近報知処理を行い(ステップS404)、処理を終了する。   FIG. 28 is a flowchart illustrating an example of a process of the notification unit 421 according to the fourth embodiment. The notification unit 421 executes the process shown in FIG. 28 at predetermined time intervals. First, the notification unit 421 acquires position information indicating the position of a child from the first mobile terminal 2B (Step S400). Next, the notification unit 421 determines whether the distance from the child's position to the geographical position PT is less than a first predetermined distance dt1 (Step S402). The notifying unit 421 ends the process when the distance from the child's position to the geographical position PT is not less than the first predetermined distance dt1. When the distance from the child's position to the geographical position PT is less than the first predetermined distance dt1, the notification unit 421 performs a geographical position approach notification process of notifying the child of the approach of the geographical position PT (Step S404). , And the process ends.

図29は、図28に示されるステップS404の地理的位置接近報知処理の詳細を示すフローチャートである。まず、報知部421は、地理的位置の接近を児童に知らせる報知を開始する(ステップS500)。この一例では、報知部421は、バイブレータ25の振動を開始させる。次に、報知部421は、GPS24によって児童の位置を取得する(ステップS502)。次に、報知部421は、ステップS400において取得した児童の位置と、ステップS502において取得した児童の位置とに基づいて、児童が地理的位置PTに近づいているか否かを判定する(ステップS504)。報知部421は、児童が地理的位置PTに近づいていると判定した場合、バイブレータ25の報知量を増加させ(ステップS506)、処理をステップS512に進める。報知量を増加させるとは、例えば、バイブレータ25の振動を大きくしたり、振動の頻度を多くしたりすることである。   FIG. 29 is a flowchart showing details of the geographical position approach notification processing in step S404 shown in FIG. First, the notification unit 421 starts notification to notify the child of the approach of the geographical position (step S500). In this example, the notification unit 421 starts the vibration of the vibrator 25. Next, the notification unit 421 acquires the position of the child using the GPS 24 (Step S502). Next, the notification unit 421 determines whether or not the child is approaching the geographical position PT based on the position of the child obtained in Step S400 and the position of the child obtained in Step S502 (Step S504). . When the notification unit 421 determines that the child is approaching the geographical position PT, the notification unit 421 increases the notification amount of the vibrator 25 (step S506), and advances the process to step S512. Increasing the notification amount means, for example, increasing the vibration of the vibrator 25 or increasing the frequency of the vibration.

報知部421は、児童が地理的位置PTに近づいていないと判定した場合、児童が地理的位置PTから遠ざかっているか否かを判定する(ステップS508)。報知部421は、児童が地理的位置PTから遠ざかっていると判定した場合、バイブレータ25の報知量を減少させ(ステップS510)、処理をステップS512に進める。報知量を減少させるとは、バイブレータ25の振動を小さくしたり、振動の頻度を少なくしたりすることである。報知部421は、児童が地理的位置PTに近づいても遠ざかってもいないと判定した場合、バイブレータ25の報知量を変更せず、処理をステップS512に進める。   When determining that the child is not approaching the geographical position PT, the notification unit 421 determines whether or not the child is moving away from the geographical position PT (step S508). When the notification unit 421 determines that the child is moving away from the geographical position PT, the notification unit 421 decreases the notification amount of the vibrator 25 (step S510), and proceeds to step S512. Decreasing the notification amount means reducing the vibration of the vibrator 25 or reducing the frequency of the vibration. If the notification unit 421 determines that the child has not approached or moved away from the geographical position PT, the notification unit 421 advances the process to step S512 without changing the notification amount of the vibrator 25.

報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であると判定する間(つまり、児童が所定範囲ARPの外に出るまでの間)、ステップS202〜S210までの処理を繰り返し、報知量を調整する(ステップS512)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1以上であると判定した場合、報知を停止する(ステップS514)。   The notification unit 421 determines that the distance from the child's position to the geographical position PT is less than the first predetermined distance dt1 (that is, until the child goes out of the predetermined range ARP), and performs steps S202 to S210. The process up to is repeated to adjust the notification amount (step S512). When the notification unit 421 determines that the distance from the child's position to the geographical position PT is equal to or longer than the first predetermined distance dt1, the notification unit 421 stops the notification (Step S514).

なお、上述では、児童の位置から地理的位置PTまでの距離が直線距離である場合について説明したが、これに限られない。児童の位置から地理的位置PTまでの距離は、児童の経路rtに沿った距離であってもよい。報知部421は、児童の経路rtに沿った地理的位置PTまでの距離に基づいて、報知を行うことにより、長時間報知が行われることを抑制し、児童が報知状態に慣れることを抑制することができる。   In the above description, the case where the distance from the child's position to the geographical position PT is a linear distance has been described, but the present invention is not limited to this. The distance from the child's position to the geographical position PT may be a distance along the child's route rt. The notification unit 421 performs the notification based on the distance to the geographical position PT along the route rt of the child, thereby suppressing the notification from being performed for a long time and suppressing the child from being used to the notification state. be able to.

以上説明したように、本実施形態の情報通信システム1Bは、より適切に地理的位置の接近を児童に報知することができる。   As described above, the information communication system 1B of the present embodiment can more appropriately notify the child of the approach of the geographical position.

<他の児童の第1携帯端末2Bからの報知について>
なお、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合、他の児童の第1携帯端末2Bからの報知を行わなくてもよい。これにより、報知部421は、地理的位置PT、車両、或いは不審者の報知を他の報知が妨げることを抑制することができる。また、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合に、他の児童の第1携帯端末2Bからの報知があった場合、報知量を増加させてもよい。これにより、報知部421は、児童により多くの報知を行い、周囲に注意しながら移動させることができる。
<Notification of other children from first mobile terminal 2B>
Note that the notification unit 421 need not perform notification from the first portable terminal 2B of another child when notifying the approach of the geographical position PT, the vehicle, or the suspicious person. Accordingly, the notification unit 421 can suppress the notification of the geographical position PT, the vehicle, or the suspicious individual from being interrupted by another notification. In addition, the notification unit 421 increases the notification amount when the notification from the first portable terminal 2B of another child is issued when the notification of the approach of the geographical position PT, the vehicle, or the suspicious person is made. Is also good. Accordingly, the notification unit 421 can provide more notification to the child and move the child while paying attention to the surroundings.

<報知手法について>
なお、上述した実施形態において、報知部421がバイブレータ25を振動させることにより、児童に各種報知を行う場合について説明したが、これに限られない。報知は、例えば、スピーカ26が音声を出力することによって行われてもよい。この場合、報知量を増加させるとは、例えば、音声の音量を大きくしたり、音声出力の頻度を多くしたりすることである。
<Notification method>
Note that, in the above-described embodiment, the case where the notification unit 421 performs various notifications to the child by vibrating the vibrator 25 has been described, but is not limited thereto. The notification may be performed, for example, by the speaker 26 outputting sound. In this case, increasing the notification amount means, for example, increasing the volume of the sound or increasing the frequency of the sound output.

<移動速度に基づく報知について>
また、上述した実施形態では、児童から地理的位置PTまでの距離に基づいて、報知が開始される場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、報知を行ってもよい。報知部421は、例えば、児童の移動速度が速い場合、移動速度が遅い場合と比して、報知の開始タイミングを速めてもよく、報知量を増加させてもよい。これにより、情報通信システム1Bは、走って道路に飛び出す可能性が高い児童に対して、早急に報知を行うことができる。児童の移動速度は、例えば、加速度センサ28の出力に基づいて、検出されてもよい。この場合、制御部29は、加速度センサ28の出力を積分し、児童の移動速度を導出する。
<Notification based on moving speed>
Further, in the above-described embodiment, the case where the notification is started based on the distance from the child to the geographical position PT has been described, but the present invention is not limited to this. The notification unit 421 may perform notification based on the moving speed of the child. For example, the notification unit 421 may increase the notification start timing or increase the notification amount when the moving speed of the child is high, as compared to when the moving speed is low. Thus, the information communication system 1B can promptly notify a child who is likely to run and jump out of the road. The moving speed of the child may be detected, for example, based on the output of the acceleration sensor 28. In this case, the control unit 29 integrates the output of the acceleration sensor 28 to derive the moving speed of the child.

<地理的位置の接近の検出について>
また、上述した実施形態において、報知部421は、GPS24によって取得された児童の位置情報と、地理的位置情報とに基づいて、地理的位置PTの接近を児童に報知する場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、地理的位置PTの予想到着時刻を導出し、導出した予想到着時刻に基づいて、報知を開始する構成であってもよい。この場合、報知部421は、地理的位置PTから第3所定距離dt3だけ離隔した離隔位置に到着する予想到着時刻を導出し、導出した予想到着時刻において、報知を開始する。
<Detection of approach of geographical position>
Further, in the above-described embodiment, the case has been described where the notification unit 421 notifies the child of the approach of the geographical position PT based on the child's position information acquired by the GPS 24 and the geographical position information. Not limited to this. The notification unit 421 may be configured to derive the estimated arrival time of the geographical position PT based on the moving speed of the child and start the notification based on the derived estimated arrival time. In this case, the notification unit 421 derives an estimated arrival time at which the vehicle arrives at a remote location separated by a third predetermined distance dt3 from the geographical position PT, and starts reporting at the derived expected arrival time.

<地理的位置の設定について>
また、上述した実施形態において、地理的位置PTは、予め定められており、記憶部44Bに地理的位置情報として記憶される場合について説明したが、これに限られない。地理的位置PTは、例えば、児童の保護者が所持する第2携帯端末3から指定される構成であってもよい。この場合、第2携帯端末3は、第2携帯端末3の記憶部(不図示)に記憶されたアプリケーションであり、地理的位置PTを設定する際に用いられるアプリケーションを実行する。例えば、このアプリケーションを実行することにより、地図画像が表示部34に表示される。保護者は、第2携帯端末3が備える受付部(不図示)に、児童の登下校時に歩行する経路の開始位置と、終了位置とを入力する。受付部とは、例えば、ボタン、キーボードやマウス等の操作デバイスである。以降の説明において、受付部は、表示部34と一体に形成されるタッチパネルである場合について説明する。第2携帯端末3は、受付部によって受け付けられた開始位置と、終了位置とに基づいて、児童が歩行すると推定される複数の経路rtの候補を地図画像に重畳し、表示部34に提示する。保護者は、提示された複数の経路rtの候補のうち、実際に児童が歩行する経路rtを選択する。
<Setting of geographical location>
Further, in the above-described embodiment, the case where the geographical position PT is predetermined and is stored as the geographical position information in the storage unit 44B has been described, but is not limited thereto. The geographical position PT may be, for example, a configuration designated by the second mobile terminal 3 possessed by the child's guardian. In this case, the second mobile terminal 3 is an application stored in a storage unit (not shown) of the second mobile terminal 3, and executes an application used when setting the geographical position PT. For example, a map image is displayed on the display unit 34 by executing this application. The guardian inputs the start position and the end position of the route on which the child walks when entering and leaving school, into a reception unit (not shown) provided in the second mobile terminal 3. The reception unit is, for example, an operation device such as a button, a keyboard, and a mouse. In the following description, a case where the receiving unit is a touch panel formed integrally with the display unit 34 will be described. The second mobile terminal 3 superimposes, on the map image, a plurality of route rt candidates estimated that the child will walk, based on the start position and the end position received by the reception unit, and presents them to the display unit 34. . The parent selects the route rt where the child actually walks from the presented plurality of route rt candidates.

次に、受付部は、選択(指定)された経路rt上の位置であって、児童に所定動作を行わせたい地理的位置PTを指定する保護者の操作を受け付ける。記憶部44Bの地理的位置PT情報には、保護者によって指定された地理的位置PTを示す情報が含まれる。これにより、情報通信システム1Bは、保護者が指定した地理的位置PTの接近を児童に報知することができる。   Next, the accepting unit accepts an operation performed by a guardian who designates a geographical position PT at which the child is to perform a predetermined operation at the selected (specified) position on the route rt. The geographical position PT information in the storage unit 44B includes information indicating the geographical position PT specified by the guardian. Thereby, the information communication system 1B can notify the child of the approach of the geographical position PT designated by the guardian.

なお、受付部は、表示された地図画像に対して保護者が経路の位置をタッチパネルになぞって入力することにより、実際に児童が歩行する経路rtを指定する構成であってもよい。また、制御部36Bは、保護者がこの操作において指定する位置(例えば、経路rtの開始位置、終了位置、及び地理的位置PT)が、経路rt上や歩道上ではない場合、指定した位置の近傍の経路rt上や歩道上の位置に補正してもよい。   Note that the accepting unit may be configured to specify the route rt on which the child actually walks by inputting the position of the route on the touch panel with respect to the displayed map image by the guardian. In addition, when the position (for example, the start position, the end position, and the geographical position PT of the route rt) that the parent / guardian specifies in this operation is not on the route rt or the sidewalk, the control unit 36B determines the position of the designated position. The position may be corrected to a position on a nearby route rt or a sidewalk.

<情報通信システム1Bについて>
なお、上述した実施形態において、情報通信システム1Bのうち、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成と、データセンター4Bが備える構成とについて説明したが、これに限られない。例えば、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成が、データセンター4Bに備えられていてもよく、データセンター4Bに備えられる構成が第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cに備えられていてもよい。また、記憶部44Bに記憶される情報が、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cの記憶部(不図示)に記憶されていてもよい。
<About the information communication system 1B>
In the above-described embodiment, the configuration of the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C and the configuration of the data center 4B in the information communication system 1B have been described. Not limited to this. For example, the configuration provided in the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C may be provided in the data center 4B, or the configuration provided in the data center 4B may be provided in the first mobile terminal 2, It may be provided in the first mobile terminal 2B or the first mobile terminal 2C. Further, the information stored in the storage unit 44B may be stored in the storage unit (not shown) of the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C.

なお、本発明におけるデータセンター4(または4A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりデータセンター4(または4A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   A program for realizing all or a part of the functions of the data center 4 (or 4A) in the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system. Then, all or part of the processing performed by the data center 4 (or 4A) may be performed by executing the processing. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” also includes a WWW system provided with a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) inside a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. And those holding programs for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the above program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the "transmission medium" for transmitting a program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。   As described above, the embodiments for carrying out the present invention have been described using the embodiments. However, the present invention is not limited to these embodiments at all, and various modifications and substitutions may be made without departing from the gist of the present invention. Can be added.

1,1A…情報通信システム、2…第1携帯端末、3…第2携帯端末、4,4A…データセンター、5…サーバ、6…ネットワーク、21…通信部、22…撮像部、23…マイクロフォン、24…GPS、25…バイブレータ、26…スピーカ、27…表示部、28…加速度センサ、29…制御部、31…通信部、32…マイクロフォン、33…操作部、34…表示部、35…スピーカ、36…制御部、41…通信部、42,42A…制御部、43…モデル記憶部、44,44A…記憶部、45…音声認識モデル記憶部、46…音声認識部、47…シナリオ記憶部 1, 1A: information communication system, 2: first mobile terminal, 3: second mobile terminal, 4, 4A: data center, 5: server, 6: network, 21: communication unit, 22: imaging unit, 23: microphone , 24 ... GPS, 25 ... vibrator, 26 ... speaker, 27 ... display unit, 28 ... acceleration sensor, 29 ... control unit, 31 ... communication unit, 32 ... microphone, 33 ... operation unit, 34 ... display unit, 35 ... speaker .. 36 control unit, 41 communication unit, 42, 42A control unit, 43 model storage unit, 44, 44A storage unit, 45 voice recognition model storage unit, 46 voice recognition unit, 47 scenario storage unit

Claims (11)

移動者が保持する端末装置に備えられ、前記移動者の周囲を認識する認識部と、
前記移動者に物体が接近した場合、該移動者の近傍に存在する他の移動者が保持する他の端末装置に前記物体の接近を報知する報知部と、
を備える報知システム。
A recognition unit that is provided in a terminal device held by a mobile user and recognizes the surroundings of the mobile user,
When an object approaches the mobile, a notification unit that notifies the approach of the object to another terminal device held by another mobile present near the mobile,
Notification system equipped with.
前記物体は、前記移動者の周囲の道路を通行する車両である、
請求項1に記載の報知システム。
The object is a vehicle that travels on a road around the mobile.
The notification system according to claim 1.
前記車両は、前記移動者、及び前記他の移動者の方向に移動する車両である、
請求項2に記載の報知システム。
The vehicle is a vehicle that moves in the direction of the moving person and the other moving person,
The notification system according to claim 2.
前記他の移動者は、前記車両が通過する交差点に接近する移動者である、
請求項2に記載の報知システム。
The other mobile is a mobile that approaches an intersection through which the vehicle passes.
The notification system according to claim 2.
前記物体は、前記移動者の周囲を移動する移動者であり、前記他の移動者とは異なる移動者である、
請求項1に記載の報知システム。
The object is a mover that moves around the mover, and is a mover different from the other movers.
The notification system according to claim 1.
前記認識部は、前記異なる移動者の頭部を認識する、
請求項5に記載の報知システム。
The recognition unit recognizes the head of the different mobile,
The notification system according to claim 5.
前記認識部は、前記頭部のうち、顔を認識する、
請求項6に記載の報知システム。
The recognition unit recognizes a face of the head,
The notification system according to claim 6.
前記報知部は、所定時間内に複数回以上、前記異なる移動者が接近した場合、前記端末装置に前記異なる移動者の接近を報知する、
請求項5に記載の報知システム。
The notification unit, a plurality of times or more within a predetermined time, when the different mobile approaches, to notify the terminal device of the approach of the different mobile,
The notification system according to claim 5.
前記移動者の近傍に存在する前記他の移動者は、前記移動者の移動経路上、又は前記移動者の移動経路の近傍に存在する移動者である、
請求項1から請求項8のうちいずれか一項に記載の報知システム。
The other mover present in the vicinity of the mover is a mover present on the move route of the mover or in the vicinity of the move route of the mover,
The notification system according to any one of claims 1 to 8.
前記報知部は、予め定められた所定位置から所定距離だけ手前の位置において、前記所定位置の接近を前記移動者に報知し、且つ前記他の移動者が前記所定位置から所定距離だけ手前の位置に存在する場合、前記移動者に前記所定位置の接近の報知を開始する、又は前記移動者の報知量を増加させる、
請求項1から請求項9のうちいずれか一項に記載の報知システム。
The notifying unit notifies the user of the approach of the predetermined position at a position that is a predetermined distance from a predetermined position, and the other mobile is a position that is a predetermined distance from the predetermined position. If there is, to start the notification of the approach of the predetermined position to the mobile, or to increase the notification amount of the mobile,
The notification system according to any one of claims 1 to 9.
前記報知部は、前記所定位置から所定距離だけ離れた位置までの範囲に前記移動者が存在する場合、前記他の移動者の位置に応じて報知量を変更しない、
請求項10に記載の報知システム。
The notification unit does not change the notification amount according to the position of the other mobile when the mobile is present in a range from the predetermined position to a position separated by a predetermined distance,
The notification system according to claim 10.
JP2018146318A 2018-08-02 2018-08-02 Notification system Active JP7289618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018146318A JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146318A JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Publications (2)

Publication Number Publication Date
JP2020021377A true JP2020021377A (en) 2020-02-06
JP7289618B2 JP7289618B2 (en) 2023-06-12

Family

ID=69589912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146318A Active JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Country Status (1)

Country Link
JP (1) JP7289618B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004285A (en) * 2005-06-21 2007-01-11 Toyota Motor Corp Portable alarm device
JP2007279824A (en) * 2006-04-03 2007-10-25 Toyota Motor Corp Autonomous mobile robot
JP2013161098A (en) * 2012-02-01 2013-08-19 Nikon Corp Server device and monitoring system
JP2017212571A (en) * 2016-05-25 2017-11-30 京セラ株式会社 Electronic apparatus, control method, and control program
WO2018008224A1 (en) * 2016-07-04 2018-01-11 ソニー株式会社 Robot, robot system, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004285A (en) * 2005-06-21 2007-01-11 Toyota Motor Corp Portable alarm device
JP2007279824A (en) * 2006-04-03 2007-10-25 Toyota Motor Corp Autonomous mobile robot
JP2013161098A (en) * 2012-02-01 2013-08-19 Nikon Corp Server device and monitoring system
JP2017212571A (en) * 2016-05-25 2017-11-30 京セラ株式会社 Electronic apparatus, control method, and control program
WO2018008224A1 (en) * 2016-07-04 2018-01-11 ソニー株式会社 Robot, robot system, and recording medium

Also Published As

Publication number Publication date
JP7289618B2 (en) 2023-06-12

Similar Documents

Publication Publication Date Title
US10909759B2 (en) Information processing to notify potential source of interest to user
US11455792B2 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
KR101566184B1 (en) Navigation system for generating a safety route
JP2021061057A (en) Robot, control method, and program
JP7345683B2 (en) A system for performing scene recognition dialogue
US10614693B2 (en) Dangerous situation notification apparatus and method
JP2024028516A (en) Notification system
US20210154827A1 (en) System and Method for Assisting a Visually Impaired Individual
US10901503B2 (en) Agent apparatus, agent control method, and storage medium
US11810575B2 (en) Artificial intelligence robot for providing voice recognition function and method of operating the same
US11182922B2 (en) AI apparatus and method for determining location of user
Ang et al. Information communication assistive technologies for visually impaired people
US11449074B2 (en) Robot for providing guidance service using artificial intelligence and method of operating the same
JP7424974B2 (en) Operation evaluation system
US11322134B2 (en) Artificial intelligence device and operating method thereof
JP7289618B2 (en) Notification system
JP2023054310A (en) Notification device, first observation device, notification method, control device, and control method
WO2020203691A1 (en) Display system, display method, program, and storage medium
WO2020203605A1 (en) Notification system, notification method, program, and storage medium
JP2020022128A (en) Terminal device
JP7397575B2 (en) Traffic light control device and traffic light control method
Kandoth et al. Dhrishti: a visual aiding system for outdoor environment
WO2021085583A1 (en) Electronic instrument
Mude et al. IOT enabled smart blind stick and spectacles mountable eye-piece equipped with camera for visually challenged people
JP7442295B2 (en) Electronics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R150 Certificate of patent or registration of utility model

Ref document number: 7289618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150