JP7289618B2 - Notification system - Google Patents

Notification system Download PDF

Info

Publication number
JP7289618B2
JP7289618B2 JP2018146318A JP2018146318A JP7289618B2 JP 7289618 B2 JP7289618 B2 JP 7289618B2 JP 2018146318 A JP2018146318 A JP 2018146318A JP 2018146318 A JP2018146318 A JP 2018146318A JP 7289618 B2 JP7289618 B2 JP 7289618B2
Authority
JP
Japan
Prior art keywords
mobile terminal
information
unit
child
mover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018146318A
Other languages
Japanese (ja)
Other versions
JP2020021377A (en
Inventor
大輔 桐生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2018146318A priority Critical patent/JP7289618B2/en
Publication of JP2020021377A publication Critical patent/JP2020021377A/en
Application granted granted Critical
Publication of JP7289618B2 publication Critical patent/JP7289618B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、報知システムに関する。 The present invention relates to a notification system.

従来、複数の携帯端末を備えるシステムにおいて、ある携帯端末の位置情報を、センターサーバを介して他の携帯端末に送信する技術が知られている(例えば、特許文献1)。 2. Description of the Related Art Conventionally, in a system having a plurality of mobile terminals, there is known a technique of transmitting position information of a certain mobile terminal to other mobile terminals via a center server (for example, Patent Literature 1).

特開2002-056490号公報JP-A-2002-056490

ここで、移動者は、他の移動者が保持する携帯端末の周囲の情報を共有したり、自身の周囲の情報を発信したりすることにより、より安全に移動したいと考える場合があった。しかしながら、従来の技術では、位置情報を共有することができても、周囲の情報までは共有することまでは困難であった。 Here, there are cases where a mobile person wishes to move more safely by sharing information about the surroundings of a mobile terminal held by another mobile person or sending information about the surroundings of the mobile person. However, with the conventional technology, even if location information can be shared, it is difficult to share surrounding information.

本発明は、上記の問題点に鑑みてなされたものであって、移動者がより安全に移動できるようにする報知システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a notification system that enables a mobile person to move more safely.

(1):この発明の一態様に係る報知システムは、移動者が保持する端末装置に備えられ、前記移動者の周囲を認識する認識部と、前記移動者に物体が接近した場合、該移動者の近傍に存在する他の移動者が保持する他の端末装置に前記物体の接近を報知する報知部と、を備える。 (1): A notification system according to an aspect of the present invention is provided in a terminal device held by a moving person, and includes a recognition unit that recognizes the surroundings of the moving person, and a reporting unit that reports the approach of the object to another terminal device held by another moving person existing near the person.

(2):上記(1)の態様において、前記物体には、前記移動者の周囲の道路を通行する車両が含まれる。 (2): In the aspect (1) above, the object includes a vehicle traveling on a road around the traveler.

(3):上記(2)の態様において、前記車両には、前記移動者、及び前記他の移動者の方向に移動する車両が含まれる。 (3): In the above aspect (2), the vehicle includes a vehicle that moves in the direction of the mover and the other mover.

(4):上記(2)の態様において、前記他の移動者には、前記車両が通過する交差点に接近する移動者が含まれる。 (4): In the aspect (2) above, the other moving person includes a moving person approaching an intersection through which the vehicle passes.

(5):上記(1)の態様において、前記物体には、前記移動者の周囲を移動する移動者であり、前記他の移動者とは異なる移動者が含まれる。 (5): In the aspect (1) above, the object includes a moving person who moves around the moving person and is different from the other moving person.

(6):上記(5)の態様において、前記認識部は、前記異なる移動者の頭部を認識するものである。 (6): In the aspect of (5) above, the recognition unit recognizes the heads of the different movers.

(7):上記(6)の態様において、前記認識部は、前記頭部のうち、顔を認識するものである。 (7): In the aspect of (6) above, the recognition unit recognizes a face in the head.

(8):上記(5)の態様において、前記報知部は、所定時間内に複数回以上、前記異なる移動者が接近した場合、前記端末装置に前記異なる移動者の接近を報知するものである。 (8): In the aspect of (5) above, the notification unit notifies the terminal device of the approach of the different movers when the different movers approach a plurality of times within a predetermined time. .

(9):上記(1)~(8)の態様において、前記移動者の近傍に存在する前記他の移動者には、前記移動者の移動経路上、又は前記移動者の移動経路の近傍に存在する移動者が含まれる。 (9): In the above aspects (1) to (8), the other mover existing near the mover has a Includes existing movers.

(10):上記(1)~(9)の態様において、前記報知部は、予め定められた所定位置から所定距離だけ手前の位置において、前記所定位置の接近を前記移動者に報知し、且つ前記他の移動者が前記所定位置から所定距離だけ手前の位置に存在する場合、前記移動者に前記所定位置の接近の報知を開始する、又は前記移動者の報知量を増加させるものである。 (10): In the above aspects (1) to (9), the notification unit notifies the moving person of the approach of the predetermined position at a position a predetermined distance before the predetermined position, and When the other moving person exists at a position a predetermined distance before the predetermined position, the moving person is started to be notified of the approach of the predetermined position, or the amount of notification of the moving person is increased.

(11):上記(10)の態様において、前記報知部は、前記所定位置から所定距離だけ離れた位置までの範囲に前記移動者が存在する場合、前記他の移動者の位置に応じて報知量を変更しないものである。 (11): In the above aspect (10), when the moving person exists within a range from the predetermined position to a position separated by a predetermined distance, the notification unit notifies according to the position of the other moving person. It does not change the quantity.

上述した(1)~(11)によれば、移動者がより安全に移動できるようにすることができる。 According to (1) to (11) described above, it is possible to enable the mover to move more safely.

第1実施形態に係る情報通信システムの構成例を示す図である。It is a figure which shows the structural example of the information communication system which concerns on 1st Embodiment. 第1実施形態に係る情報通信システムの利用シーン例を示す図である。It is a figure which shows the usage scene example of the information communication system which concerns on 1st Embodiment. 第1実施形態に係る第1携帯端末の構成例を示すブロック図である。1 is a block diagram showing a configuration example of a first mobile terminal according to a first embodiment; FIG. 第1実施形態に係る第2携帯端末の構成例を示すブロック図である。2 is a block diagram showing a configuration example of a second mobile terminal according to the first embodiment; FIG. 第1実施形態に係る第1携帯端末位置情報をデータセンターが第2携帯端末へ送信する処理手順例のフローチャートである。FIG. 7 is a flow chart of an example of a processing procedure in which the data center transmits first mobile terminal location information to a second mobile terminal according to the first embodiment; FIG. 第1実施形態に係る第2携帯端末の表示部上に表示される第1携帯端末位置情報の例を示す図である。FIG. 5 is a diagram showing an example of first mobile terminal location information displayed on the display unit of the second mobile terminal according to the first embodiment; 第1実施形態に係るデータセンターが危険通知を第2携帯端末と第3携帯端末へ送信する処理手順例のフローチャートである。7 is a flowchart of an example of a processing procedure in which the data center according to the first embodiment transmits danger notifications to the second mobile terminal and the third mobile terminal; 第1実施形態に係る第1携帯端末が危険情報を受信した際の処理手順例のフローチャートである。8 is a flowchart of an example of a processing procedure when the first mobile terminal according to the first embodiment receives danger information; 第1実施形態に係る第2携帯端末が危険情報を受信した際の処理手順例のフローチャートである。8 is a flowchart of an example of a processing procedure when the second mobile terminal according to the first embodiment receives danger information; 第1実施形態に係る第2携帯端末の表示部上に表示される警告画像を含む第1携帯端末位置情報の例を示す図である。FIG. 5 is a diagram showing an example of first mobile terminal location information including a warning image displayed on the display section of the second mobile terminal according to the first embodiment; 第2実施形態に係る情報通信システムの主な動作例を示す図である。It is a figure which shows the main operation examples of the information communication system which concerns on 2nd Embodiment. 第2実施形態に係る情報通信システムの構成例を示す図である。It is a figure which shows the structural example of the information communication system which concerns on 2nd Embodiment. 第2実施形態に係る所定位置、所定動作およびスコアの例を示す図である。It is a figure which shows the example of the predetermined position, predetermined action, and score which concern on 2nd Embodiment. 本実施形態に係るデータセンターが行う処理手順例のフローチャートである。6 is a flowchart of an example of a processing procedure performed by the data center according to the embodiment; 第2実施形態に係る第2携帯端末が行う処理手順例のフローチャートである。10 is a flow chart of an example of a processing procedure performed by a second mobile terminal according to the second embodiment; 第2実施形態に係る第2携帯端末の表示部上に表示されるスコアを含む情報の画像例である。It is an image example of information including a score displayed on the display unit of the second mobile terminal according to the second embodiment. 第2実施形態に係る所定位置における一時停止の動作分析方法の処理手順例のフローチャートである。FIG. 11 is a flow chart of an example of a processing procedure of a motion analysis method for pausing at a predetermined position according to the second embodiment; FIG. 第2実施形態に係る所定位置における左右確認の動作分析方法の処理手順例のフローチャートである。10 is a flow chart of an example of a processing procedure of a motion analysis method for left/right confirmation at a predetermined position according to the second embodiment; 第2実施形態に係る所定位置における手挙げ動作の動作分析方法の処理手順例のフローチャートである。FIG. 11 is a flow chart of a processing procedure example of a motion analysis method for a hand-raising motion at a predetermined position according to the second embodiment; FIG. 第3実施形態に係る情報通信システム1Bの構成の一例を示す図である。It is a figure which shows an example of a structure of the information communication system 1B which concerns on 3rd Embodiment. 第3実施形態に係る第1携帯端末2Bの構成の一例を示す図である。FIG. 11 is a diagram showing an example of the configuration of a first mobile terminal 2B according to a third embodiment; FIG. 第3実施形態に係る報知の開始タイミングを模式的に示す図である。FIG. 12 is a diagram schematically showing start timing of notification according to the third embodiment; 第3実施形態に係る接近判定部291及び報知部421の処理の一例を示すフローチャートである。13 is a flow chart showing an example of processing of an approach determination unit 291 and a notification unit 421 according to the third embodiment; 図23に示されるステップS110の物体接近報知処理の詳細を示すフローチャートである。FIG. 24 is a flow chart showing details of an object approach notification process in step S110 shown in FIG. 23; FIG. 近傍に存在する他の児童に車両、又は不審者が接近した場合の報知部421の処理の一例を示すフローチャートである。10 is a flow chart showing an example of processing of the notification unit 421 when a vehicle or a suspicious person approaches another child existing nearby. 第4実施形態の情報通信システム1Bの構成の一例を示す図である。It is a figure which shows an example of a structure of the information communication system 1B of 4th Embodiment. 第4実施形態に係る報知の開始タイミングを模式的に示す図である。It is a figure which shows typically the start timing of alerting|reporting which concerns on 4th Embodiment. 第4実施形態に係る報知部421の処理の一例を示すフローチャートである。FIG. 14 is a flow chart showing an example of processing of a notification unit 421 according to the fourth embodiment; FIG. 図28に示されるステップS404の所定位置接近報知処理の詳細を示すフローチャートである。FIG. 29 is a flow chart showing details of predetermined position approach notification processing in step S404 shown in FIG. 28. FIG.

以下、本発明の実施の形態について図面を参照しながら説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
<情報通信システム1の構成例>
図1は、本実施形態に係る情報通信システム1の構成例を示す図である。図1に示すように、情報通信システム1は、第1携帯端末2(第1端末)、第2携帯端末3(第2端末)、データセンター4(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4、およびサーバ5それぞれは、ネットワーク6を介して接続されている。
[First embodiment]
<Configuration example of information communication system 1>
FIG. 1 is a diagram showing a configuration example of an information communication system 1 according to this embodiment. As shown in FIG. 1 , the information communication system 1 includes a first mobile terminal 2 (first terminal), a second mobile terminal 3 (second terminal), a data center 4 (center), and a server 5 . The first mobile terminal 2 , the second mobile terminal 3 , the data center 4 , and the server 5 are connected via a network 6 .

ネットワーク6は、例えば移動体通信網である。移動体通信網は、例えば第4世代移動体通信網、第5世代移動体通信網等である。なお、ネットワーク6は、基地局等を含む。 Network 6 is, for example, a mobile communication network. The mobile communication network is, for example, a 4th generation mobile communication network, a 5th generation mobile communication network, or the like. Note that the network 6 includes base stations and the like.

第1携帯端末2は、見守り対象である例えば子供が携帯する端末である。第1携帯端末2は、通信機能を備えるロボットである。第1携帯端末2は、位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報のうちの少なくとも1つを、ネットワーク6を介してデータセンター4へ送信する。第1携帯端末2は、データセンター4が送信した交通情報、メッセージおよび緊急情報のうちの少なくとも1つを、ネットワーク6を介して受信する。なお、第1携帯端末2の構成については後述する。同一グループ歩行者情報とは、一緒に登校または下校している同一グループ歩行者を示す同一グループ歩行者情報である。周辺歩行者情報とは、児童の周辺を歩いている歩行者を示す情報である。車両情報とは、歩行している道路の車両情報である。 The first mobile terminal 2 is a terminal carried by, for example, a child to be watched over. The first mobile terminal 2 is a robot with a communication function. The first mobile terminal 2 transmits at least one of position information, same-group pedestrian information, surrounding pedestrian information, and vehicle information to the data center 4 via the network 6 . The first mobile terminal 2 receives via the network 6 at least one of traffic information, messages, and emergency information transmitted by the data center 4 . Note that the configuration of the first mobile terminal 2 will be described later. The same group pedestrian information is the same group pedestrian information indicating the same group pedestrians who are going to or from school together. Surrounding pedestrian information is information indicating pedestrians walking around the child. Vehicle information is vehicle information of the road on which the user is walking.

第2携帯端末3は、見守り対象である児童の保護者が所持する端末である。第2携帯端末3は、例えばスマートフォン、タブレット端末、スマートウォッチ等である。第2携帯端末3は、データセンター4が送信した第1携帯端末2の位置に関する第1携帯端末位置情報を、ネットワーク6を介して受信する。なお、第1携帯端末位置情報は画像情報である。なお、第2携帯端末3の構成については後述する。 The second mobile terminal 3 is a terminal possessed by the guardian of the child to be watched over. The second mobile terminal 3 is, for example, a smart phone, a tablet terminal, a smart watch, or the like. The second mobile terminal 3 receives the first mobile terminal location information regarding the location of the first mobile terminal 2 transmitted by the data center 4 via the network 6 . Note that the first mobile terminal location information is image information. Note that the configuration of the second mobile terminal 3 will be described later.

データセンター4は、通信部41、制御部42、モデル記憶部43、および記憶部44を備えている。
通信部41は、第1携帯端末2からネットワーク6を介して受信した位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報を制御部42に出力する。通信部41は、サーバ5からネットワーク6を介して受信した災害情報や不審者情報や緊急情報を制御部42に出力する。通信部41は、制御部42が出力する危険通知を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する交通情報またはメッセージあるいは緊急情報を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する第1携帯端末位置情報または緊急通知あるいは音声メッセージを、ネットワーク6を介して第2携帯端末3へ送信する。また、通信部41は、第1携帯端末2から受信した加速度センサ28の検出値を受信し、受信した検出値を制御部42に出力する。なお、加速度センサ28の検出値を用いる例は、第2実施形態で説明する。
The data center 4 includes a communication section 41 , a control section 42 , a model storage section 43 and a storage section 44 .
The communication unit 41 outputs the position information, the same group pedestrian information, the peripheral pedestrian information and the vehicle information received from the first mobile terminal 2 via the network 6 to the control unit 42 . The communication unit 41 outputs disaster information, suspicious person information, and emergency information received from the server 5 via the network 6 to the control unit 42 . The communication unit 41 transmits the danger notification output by the control unit 42 to the first mobile terminal 2 via the network 6 . The communication unit 41 transmits traffic information, messages, or emergency information output by the control unit 42 to the first mobile terminal 2 via the network 6 . The communication unit 41 transmits the first mobile terminal location information, the emergency notification, or the voice message output by the control unit 42 to the second mobile terminal 3 via the network 6 . The communication unit 41 also receives the detection value of the acceleration sensor 28 from the first mobile terminal 2 and outputs the received detection value to the control unit 42 . An example using the detection value of the acceleration sensor 28 will be described in the second embodiment.

制御部42は、第1携帯端末2から受信した位置情報を記憶部44に格納する。制御部42は、サーバ5から受信した不審者情報を記憶部44に記憶させる。なお、不審者情報には、不審者が現れた位置情報や現れた時刻等が含まれている。
制御部42は、記憶部44が格納する位置情報と地図情報に基づいて、第1携帯端末2を所持する児童の移動軌跡を生成する。制御部42は、地図情報に生成した移動軌跡を合わせた情報を第1携帯端末位置情報として生成する。制御部42は、生成した第1携帯端末位置情報を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と災害情報と不審者情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて危険箇所を設定し、設定した危険箇所を示す情報を記憶部44に記憶させる。なお、危険箇所とは、災害が発生した箇所、交通事故が多い箇所、不審者が現れた箇所等である。制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と、受信した位置情報に基づいて危険通知を生成し、生成した危険通知を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて、交通情報、メッセージおよび緊急情報のうち少なくとも1つを生成する。なお、メッセージは音声信号であり、テキスト情報を言語モデルや辞書を用いて周知の手法で音声信号に変換したものである。制御部42は、生成した交通情報、メッセージおよび緊急情報を通信部41に出力する。制御部42は、生成したメッセージを音声メッセージとし、緊急情報を緊急通知として通信部41に出力する。
また、制御部42は、携帯端末の電話番号または識別情報に基づいて、児童が所持する第1携帯端末2と、保護者が所持する第2携帯端末3とを関連付けて記憶部44に記憶させる。これにより、データセンター4は、複数の親子の携帯端末の組に対して処理を行うことができる。
The control unit 42 stores the location information received from the first mobile terminal 2 in the storage unit 44 . The control unit 42 causes the storage unit 44 to store the suspicious person information received from the server 5 . In addition, the suspicious person information includes the location information and the time when the suspicious person appeared.
The control unit 42 generates a locus of movement of the child possessing the first mobile terminal 2 based on the position information and the map information stored in the storage unit 44 . The control unit 42 generates, as the first mobile terminal position information, information in which the generated movement locus is combined with the map information. The control unit 42 outputs the generated first mobile terminal location information to the communication unit 41 .
The control unit 42 stores position information and vehicle information received from the first mobile terminal 2 , emergency information, disaster information, and suspicious person information received from the server 5 , model information stored in the model storage unit 43 , and storage unit 44 . sets a dangerous spot based on the map information and the position information stored in the storage unit 44 and stores information indicating the set dangerous spot in the storage unit 44 . Dangerous places are places where disasters have occurred, places where many traffic accidents have occurred, places where suspicious persons have appeared, and the like. The control unit 42 generates a danger notification based on the map information and the information indicating the dangerous spots stored in the storage unit 44 and the received position information, and outputs the generated danger notification to the communication unit 41 .
The control unit 42 stores position information and vehicle information received from the first mobile terminal 2, emergency information received from the server 5, model information stored in the model storage unit 43, and map information and location information stored in the storage unit 44. At least one of traffic information, messages and emergency information is generated based on the information. Note that the message is a voice signal, which is obtained by converting text information into a voice signal by a well-known method using a language model and a dictionary. The control unit 42 outputs the generated traffic information, message and emergency information to the communication unit 41 . The control unit 42 outputs the generated message as a voice message and the emergency information as an emergency notice to the communication unit 41 .
In addition, based on the phone number or identification information of the mobile terminal, the control unit 42 associates the first mobile terminal 2 possessed by the child with the second mobile terminal 3 possessed by the guardian, and stores them in the storage unit 44. . As a result, the data center 4 can process a plurality of sets of parent-child mobile terminals.

モデル記憶部43は、モデル情報として、統計地域交通モデル、交通予測モデル等を記憶している。
統計地域交通モデルとは、統計的に地域における交通状態等を示すものであり、移動体端末等から地図情報や交通情報に関するデータをデータセンター4が取得し、各地域における交通情報等を統計的に示したモデルである。
交通予測モデルとは、過去に蓄積した各地域における交通状況から将来に渡る該当地域における交通量等を予測するものであり、前記統計地域交通モデルからのデータに基づいて決定してもよい。例えば、第1携帯端末2を所持する児童の登下校のルートにおける、登下校時の交通量もモデルである。
The model storage unit 43 stores, as model information, a statistical regional traffic model, a traffic prediction model, and the like.
A statistical regional traffic model statistically indicates traffic conditions in a region, and the data center 4 acquires data related to map information and traffic information from mobile terminals, etc., and statistically displays traffic information, etc. in each region. is the model shown in
The traffic prediction model is a model for predicting the future traffic volume and the like in the relevant area based on the traffic conditions in each area accumulated in the past, and may be determined based on the data from the statistical area traffic model. For example, the traffic volume at the time of commuting to and from school on the route of the child carrying the first mobile terminal 2 is also a model.

記憶部44は、地図情報を記憶する。なお、地図情報には、例えば自宅から学校までの通学路を含む地図、児童が寄り道するお店(例えばスーパー、本屋、文房具屋等)の位置情報、帰宅前に行く塾等の位置情報を含む。また、地図情報には、歩道や道路の経路ネットワーク(岐点、枝)等の情報が含まれている。また、記憶部44は、第1携帯端末2の位置情報を格納する。記憶部44は、危険箇所を示す情報と、不審者情報を記憶する。記憶部44は、危険情報を生成する際に使用される所定値を記憶する。 The storage unit 44 stores map information. The map information includes, for example, a map including a school route from home to school, location information of shops (such as supermarkets, bookstores, stationery stores, etc.) that children drop by, and location information of cram schools that children go to before returning home. . In addition, the map information includes information such as sidewalks and road route networks (junctions and branches). Also, the storage unit 44 stores position information of the first mobile terminal 2 . The storage unit 44 stores information indicating dangerous places and suspicious person information. The storage unit 44 stores a predetermined value used when generating risk information.

サーバ5は、例えば学校や、区役所等に設置されている。サーバ5は、地震や台風等の自然災害に関する災害情報と、不審者情報等を、ネットワーク6を介してデータセンター4へ送信する。なお、データセンター4は、これらの情報を、サーバ5との通信によって取得するようにしてもよい。 The server 5 is installed, for example, at a school, a ward office, or the like. The server 5 transmits disaster information related to natural disasters such as earthquakes and typhoons, suspicious individual information, and the like to the data center 4 via the network 6 . Note that the data center 4 may acquire this information through communication with the server 5 .

次に、情報通信システム1の利用シーン例を説明する。
図2は、本実施形態に係る情報通信システム1の利用シーン例を示す図である。図2に示すように、第1携帯端末2は、例えば形状がマスコット型のロボットであり、例えばランドセルの肩ひも等に取り付けられて用いられる。後述するように、第1携帯端末2は、マイクロフォン、撮像部、スピーカ、GPS(Global Positioning System;衛星測位システム)の衛星(不図示)から測位情報を受信する受信部等を備えている。第1携帯端末2は、第1携帯端末2を所持する児童が発話した音声を取得して送信したり、撮像部が撮影した画像をデータセンター4へ送信したりする。また、第1携帯端末2は、データセンター4が送信した情報やメッセージを受信して再生、報知する。
Next, a usage scene example of the information communication system 1 will be described.
FIG. 2 is a diagram showing a usage scene example of the information communication system 1 according to this embodiment. As shown in FIG. 2, the first mobile terminal 2 is, for example, a mascot-shaped robot, and is used by being attached to, for example, a shoulder strap of a school bag. As will be described later, the first mobile terminal 2 includes a microphone, an imaging unit, a speaker, a receiving unit for receiving positioning information from satellites (not shown) of a GPS (Global Positioning System), and the like. The first mobile terminal 2 acquires and transmits the voice uttered by the child who owns the first mobile terminal 2 and transmits the image captured by the imaging unit to the data center 4 . The first portable terminal 2 also receives information and messages transmitted by the data center 4 and reproduces and notifies them.

データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した交通情報やメッセージや緊急情報を第1携帯端末2へ送信する。また、データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した第1携帯端末位置情報や緊急通知や音声メッセージを第2携帯端末3へ送信する。なお、データセンター4は、例えば登下校時に他の児童が他の第1携帯端末2を所持している場合、これらの複数の第1携帯端末2が捉えたリアルタイム情報(現在位置、同一グループ歩行者情報、周辺歩行者情報、車両情報等)を相互に利用して第2情報または第4情報を生成するようにしてもよい。 The data center 4 transmits traffic information, messages, and emergency information generated based on the information received from the first mobile terminal 2 and the information received from the server 5 to the first mobile terminal 2 . In addition, the data center 4 transmits to the second mobile terminal 3 the information received from the first mobile terminal 2 and the first mobile terminal location information generated based on the information received from the server 5 , an emergency notification, and a voice message. For example, when other children have other first mobile terminals 2 on their way to and from school, the data center 4 stores real-time information captured by these first mobile terminals 2 (current position, walking in the same group, etc.). pedestrian information, surrounding pedestrian information, vehicle information, etc.) may be mutually used to generate the second information or the fourth information.

第2携帯端末3は、第1携帯端末2を所持する児童が歩いているルートを含む地図情報等を含む第1携帯端末位置情報をデータセンター4から受信し、受信した第1携帯端末位置情報を状況情報として表示する。また、第2携帯端末3は、データセンター4が送信した緊急通知や音声メッセージを受信し、受信した緊急通知や音声メッセージを表示または再生する。なお、第2携帯端末3に表示される画像については後述する。 The second mobile terminal 3 receives, from the data center 4, the first mobile terminal location information including map information including the route that the child who owns the first mobile terminal 2 is walking, and the received first mobile terminal location information. as status information. The second portable terminal 3 also receives emergency notifications and voice messages transmitted by the data center 4, and displays or reproduces the received emergency notifications and voice messages. Images displayed on the second mobile terminal 3 will be described later.

サーバ5は、例えば防災行政無線による放送内容を、ネットワーク6を介してデータセンター4へ送信する。
なお、図2に示した利用シーンは一例であり、これに限らない。
The server 5 transmits, for example, the contents of a broadcast by disaster prevention administrative radio to the data center 4 via the network 6 .
Note that the usage scene shown in FIG. 2 is an example, and is not limited to this.

<第1携帯端末2の構成例>
次に、第1携帯端末2の構成例を説明する。
図3は、本実施形態に係る第1携帯端末2の構成例を示すブロック図である。図3に示すように、第1携帯端末2は、通信部21、撮像部22、マイクロフォン23、GPS24(位置検出部)、バイブレータ25、スピーカ26、表示部27、加速度センサ28、および制御部29を備える。なお、第1携帯端末2は、操作部を備えていてもよい。
<Configuration example of the first mobile terminal 2>
Next, a configuration example of the first mobile terminal 2 will be described.
FIG. 3 is a block diagram showing a configuration example of the first mobile terminal 2 according to this embodiment. As shown in FIG. 3, the first mobile terminal 2 includes a communication unit 21, an imaging unit 22, a microphone 23, a GPS 24 (position detection unit), a vibrator 25, a speaker 26, a display unit 27, an acceleration sensor 28, and a control unit 29. Prepare. Note that the first mobile terminal 2 may include an operation unit.

通信部21は、制御部29が出力する情報(位置情報、同一グループ歩行者情報、周辺歩行者情報、車両情報)を、ネットワーク6を介してデータセンター4へ送信する。通信部21は、データセンター4が送信した情報(交通情報、メッセージ、緊急情報)を受信し、受信した情報(交通情報、メッセージ、緊急情報)を制御部29に出力する。通信部21は、データセンター4が送信した危険情報を受信し、受信した危険情報を制御部29に出力する。 The communication unit 21 transmits information (position information, same-group pedestrian information, surrounding pedestrian information, and vehicle information) output by the control unit 29 to the data center 4 via the network 6 . The communication unit 21 receives information (traffic information, message, emergency information) transmitted by the data center 4 and outputs the received information (traffic information, message, emergency information) to the control unit 29 . The communication unit 21 receives danger information transmitted by the data center 4 and outputs the received danger information to the control unit 29 .

撮像部22は、撮影した画像を制御部29に出力する。なお、画像は静止画であっても動画であってもよい。 The imaging unit 22 outputs the captured image to the control unit 29 . Note that the image may be a still image or a moving image.

マイクロフォン23は、収音した音声信号を制御部29に出力する。なお、マイクロフォン23は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。 The microphone 23 outputs the picked-up audio signal to the control unit 29 . Note that the microphone 23 may be a microphone array composed of a plurality of microphones.

GPS24は、GPSの衛星から測位情報を受信する受信部である。GPS24は、受信した測位情報を制御部29に出力する。なお、第1携帯端末2は、例えば基地局との通信に基づいて現在位置を示す情報を取得するようにしてもよい。 The GPS 24 is a receiver that receives positioning information from GPS satellites. The GPS 24 outputs the received positioning information to the control section 29 . Note that the first mobile terminal 2 may acquire information indicating the current position based on communication with a base station, for example.

バイブレータ25は、振動子であり、制御部29が出力する報知情報に応じて振動を発生させる。 The vibrator 25 is a vibrator and generates vibration according to notification information output by the control section 29 .

スピーカ26は、制御部29が出力する音声信号を再生する。 The speaker 26 reproduces the audio signal output by the control section 29 .

表示部27は、制御部29が出力する報知情報に応じて報知する。表示部27は、例えば3色のLED(発光ダイオード)である。なお、表示部27は、例えば、液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等であってもよい。 The display unit 27 notifies according to the notification information output by the control unit 29 . The display unit 27 is, for example, a three-color LED (light emitting diode). The display unit 27 may be, for example, a liquid crystal display device, an organic EL (electroluminescence) display device, an electronic ink display device, or the like.

加速度センサ28は、第1携帯端末2のXYZ軸の3方向の加速度を検出し、検出した検出結果を制御部29に出力する。 The acceleration sensor 28 detects the acceleration of the first mobile terminal 2 in three directions of the XYZ axes, and outputs the detected detection results to the control unit 29 .

制御部29は、撮像部22が出力する画像を取得する。制御部29は、マイクロフォン23が出力する音声信号を取得する。制御部29は、GPS24が出力する測位情報を取得する。制御部29は、通信部21が出力する危険情報を取得する。制御部29は、GPS24から取得した測位情報に基づく位置情報を通信部21に出力する。制御部29は、例えば撮像部22から取得した画像から周知の画像認識手法を用いて人が含まれているか否かを判別する。制御部29は、画像に人が含まれている場合、その画像を同一グループ歩行者情報または周辺歩行者情報とし、同一グループ歩行者情報または周辺歩行者情報を通信部21に出力する。なお、制御部29は、例えば、画像に含まれている人の大きさが閾値未満の場合に周辺歩行者と判別し、閾値以上の場合に同一グループ歩行者と判別する。また、制御部29は、画像から周知の画像認識手法を用いて車両が含まれているか否かを判別する。制御部29は、画像に車両が含まれている場合、その画像を車両情報とし、車両情報を通信部21に出力する。
制御部29は、通信部21が出力する情報(交通情報、メッセージ、緊急情報)を取得する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号の場合、音声信号をスピーカ26に出力する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号ではない場合、情報(交通情報、メッセージ、緊急情報)を表示部27とバイブレータ25の少なくとも1つに出力する。なお、制御部29は、情報(交通情報、メッセージ、緊急情報)を表示部27に出力する場合、例えば情報に応じて発光させる色または点滅状態等を制御する。また、制御部29は、情報(交通情報、メッセージ、緊急情報)をバイブレータ25に出力する場合、例えば情報に応じて振動間隔または振動の強さを制御する。
制御部29は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ26に出力する。または、制御部29は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ25に出力する。
制御部29は、加速度センサ28が出力する検出値を取得し、取得した検出値を通信部21によって、データセンター4へする。
The control unit 29 acquires the image output by the imaging unit 22 . The control unit 29 acquires the audio signal output by the microphone 23 . The control part 29 acquires the positioning information which GPS24 outputs. The control unit 29 acquires danger information output by the communication unit 21 . The control unit 29 outputs position information based on the positioning information acquired from the GPS 24 to the communication unit 21 . The control unit 29 determines, for example, whether or not a person is included in the image acquired from the imaging unit 22 using a well-known image recognition technique. When a person is included in the image, the control unit 29 treats the image as same-group pedestrian information or peripheral pedestrian information, and outputs the same-group pedestrian information or peripheral pedestrian information to the communication unit 21 . For example, when the size of a person included in the image is less than a threshold value, the control unit 29 determines that the person is nearby pedestrians, and if the size is greater than or equal to the threshold value, determines that the person is the same group pedestrian. Further, the control unit 29 determines whether or not the vehicle is included in the image using a well-known image recognition technique. When the vehicle is included in the image, the control unit 29 treats the image as vehicle information and outputs the vehicle information to the communication unit 21 .
The control unit 29 acquires information (traffic information, messages, emergency information) output by the communication unit 21 . If the information (traffic information, message, emergency information) is an audio signal, the control unit 29 outputs the audio signal to the speaker 26 . The control unit 29 outputs the information (traffic information, message, emergency information) to at least one of the display unit 27 and the vibrator 25 when the information (traffic information, message, emergency information) is not an audio signal. When information (traffic information, message, emergency information) is output to the display unit 27, the control unit 29 controls, for example, the color of light emitted or the flashing state according to the information. Further, when information (traffic information, message, emergency information) is output to the vibrator 25, the control unit 29 controls the vibration interval or the strength of vibration according to the information, for example.
Control unit 29 generates a voice message based on the danger information and outputs the generated voice message to speaker 26 . Alternatively, the control unit 29 generates notification information based on the danger information and outputs the generated notification information to the vibrator 25 .
The control unit 29 acquires the detection value output by the acceleration sensor 28 and transmits the acquired detection value to the data center 4 through the communication unit 21 .

加速度センサ28は、第1携帯端末2にかかる加速度を検出し、検出した検出値を制御部29に出力する。 The acceleration sensor 28 detects acceleration applied to the first mobile terminal 2 and outputs the detected detection value to the control unit 29 .

<第2携帯端末3の構成例>
次に、第2携帯端末3の構成例を説明する。
図4は、本実施形態に係る第2携帯端末3の構成例を示すブロック図である。図4に示すように、第2携帯端末3は、通信部31、マイクロフォン32、操作部33、表示部34、スピーカ35、制御部36、およびバイブレータ37を備える。
<Configuration example of the second mobile terminal 3>
Next, a configuration example of the second mobile terminal 3 will be described.
FIG. 4 is a block diagram showing a configuration example of the second mobile terminal 3 according to this embodiment. As shown in FIG. 4 , the second mobile terminal 3 includes a communication section 31 , a microphone 32 , an operation section 33 , a display section 34 , a speaker 35 , a control section 36 and a vibrator 37 .

通信部31は、データセンター4が送信した第1携帯端末位置情報を受信し、受信した第1携帯端末位置情報を制御部36に出力する。通信部31は、データセンター4が送信した緊急通知または音声メッセージを受信し、受信した緊急通知または音声メッセージを制御部36に出力する。
マイクロフォン32は、収音した音声信号を制御部36に出力する。なお、マイクロフォン32は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。
The communication unit 31 receives the first mobile terminal location information transmitted by the data center 4 and outputs the received first mobile terminal location information to the control unit 36 . The communication unit 31 receives an emergency notice or voice message transmitted by the data center 4 and outputs the received emergency notice or voice message to the control unit 36 .
The microphone 32 outputs the picked-up audio signal to the control unit 36 . Note that the microphone 32 may be a microphone array composed of a plurality of microphones.

操作部33は、例えば表示部34上に設けられたタッチパネルセンサである。操作部33は、利用者が操作した操作結果を制御部36に出力する。
表示部34は、制御部36が出力する第1携帯端末位置情報を表示する。表示部34は、例えば、液晶表示装置、有機EL表示装置、電子インク表示装置等である。
スピーカ35は、制御部36が出力する音声信号を再生する。
バイブレータ37は、振動子であり、制御部36が出力する報知情報に応じて振動を発生させる。
The operation unit 33 is, for example, a touch panel sensor provided on the display unit 34 . The operation unit 33 outputs to the control unit 36 the results of operations performed by the user.
The display unit 34 displays the first mobile terminal location information output by the control unit 36 . The display unit 34 is, for example, a liquid crystal display device, an organic EL display device, an electronic ink display device, or the like.
The speaker 35 reproduces the audio signal output by the control section 36 .
The vibrator 37 is a vibrator, and generates vibration according to notification information output by the control unit 36 .

制御部36は、通信部31が出力する第1携帯端末位置情報を取得する。制御部36は、通信部31が出力する緊急通知または音声メッセージを取得する。制御部36は、取得した第1携帯端末位置情報を表示部34に出力する。制御部36は、緊急通知が画像情報の場合、緊急情報を表示部34に出力する。制御部36は、取得した音声メッセージをスピーカ35に出力する。制御部36は、通信部31が出力する危険情報を取得する。制御部36は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ35に出力する。または、制御部36は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ37に出力する。 The control unit 36 acquires the first mobile terminal location information output by the communication unit 31 . The control unit 36 acquires the emergency notification or voice message output by the communication unit 31 . The control unit 36 outputs the acquired first mobile terminal location information to the display unit 34 . The control unit 36 outputs emergency information to the display unit 34 when the emergency notification is image information. The control unit 36 outputs the acquired voice message to the speaker 35 . The control unit 36 acquires danger information output by the communication unit 31 . The control unit 36 generates a voice message based on the danger information and outputs the generated voice message to the speaker 35 . Alternatively, the control unit 36 generates notification information based on the danger information and outputs the generated notification information to the vibrator 37 .

<第1携帯端末位置情報の送信手順>
次に、第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例を説明する。
図5は、本実施形態に係る第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例のフローチャートである。
<Procedure for transmitting first mobile terminal location information>
Next, an example of a processing procedure in which the data center 4 transmits the first mobile terminal location information to the second mobile terminal 3 will be described.
FIG. 5 is a flow chart of a processing procedure example for the data center 4 to transmit the first mobile terminal location information to the second mobile terminal 3 according to the present embodiment.

(ステップS11)制御部42は、第1携帯端末2から位置情報を、ネットワーク6を介して通信部41によって受信する。なお、位置情報には、受信した時刻情報が含まれている。
(ステップS12)制御部42は、受信した位置情報を記憶部44に格納する。
(Step S<b>11 ) The control unit 42 receives the location information from the first mobile terminal 2 via the network 6 by the communication unit 41 . The position information includes received time information.
(Step S<b>12 ) The control unit 42 stores the received position information in the storage unit 44 .

(ステップS13)制御部42は、記憶部が記憶する位置情報と地図情報を用いて、第1携帯端末位置情報を生成する。なお、制御部42は、位置情報に含まれる時刻情報を時系列順に繋いで、第1携帯端末2を所持する児童の移動軌跡を生成する。続けて、制御部42は、第1携帯端末位置情報を、ネットワーク6を介して通信部41によって第2携帯端末3へ送信する。 (Step S13) The control unit 42 generates first mobile terminal location information using the location information and the map information stored in the storage unit. Note that the control unit 42 connects the time information included in the position information in chronological order to generate the movement trajectory of the child possessing the first mobile terminal 2 . Subsequently, the control unit 42 transmits the first mobile terminal location information to the second mobile terminal 3 via the network 6 by the communication unit 41 .

なお、データセンター4は、図5に示した処理を、例えば、第1携帯端末位置情報の送信をリクエストする指示を保護者が第2携帯端末3の操作部33を操作して、その操作結果を制御部36が通信部31によってデータセンター4へ送信したときに行う。または、データセンター4は、例えば保護者が第2携帯端末3の操作部33を操作して設定した登校時間と下校時間を第2携帯端末3がデータセンター4へ送信されている場合、登校時間と下校時間に図5に示した処理を行うようにしてもよい。 Note that the data center 4 performs the processing shown in FIG. is performed when the control unit 36 transmits to the data center 4 through the communication unit 31 . Alternatively, if the second mobile terminal 3 has transmitted to the data center 4 the time to go to school and the time to leave school set by the guardian by operating the operation unit 33 of the second mobile terminal 3, the data center 4 stores the time to go to school. and the processing shown in FIG.

ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図6は、本実施形態に係る第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を示す図である。
なお、図6は、下校時の第1携帯端末位置情報の例である。符号g11は、第1携帯端末2を所持する児童の移動軌跡を表している。また、符号g12は、第1携帯端末2を所持する児童の現在位置を示している。
Here, an example of the first mobile terminal location information displayed on the display unit 34 of the second mobile terminal 3 will be described. FIG. 6 is a diagram showing an example of first mobile terminal location information displayed on the display unit 34 of the second mobile terminal 3 according to this embodiment.
Note that FIG. 6 is an example of the first mobile terminal position information when leaving school. A symbol g11 represents the locus of movement of the child who possesses the first mobile terminal 2 . Reference g12 indicates the current position of the child who carries the first mobile terminal 2. FIG.

<危険通知の送信手順>
次に、データセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例を説明する。
図7は、本実施形態に係るデータセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例のフローチャートである。
<Procedure for sending danger notices>
Next, an example of a processing procedure in which the data center 4 transmits danger notifications to the first mobile terminal 2 and the second mobile terminal 3 will be described.
FIG. 7 is a flow chart of an example of a processing procedure in which the data center 4 according to this embodiment transmits a danger notification to the first mobile terminal 2 and the second mobile terminal 3. As shown in FIG.

(ステップS21)データセンター4の制御部42は、サーバ5にアクセスする。
(ステップS22)制御部42は、サーバ5から危険箇所を示す情報と、不審者情報を通信部41によって取得する。続けて、制御部42は、取得した危険箇所を示す情報と、不審者情報を記憶部44に記憶させる。なお、危険箇所は、例えば不審者情報が得られた位置(緯度経度)を含む所定の範囲、または、不審者情報が得られた番地等の範囲を含む。なお、範囲は、制御部42が設定するようにしてもよい。
(Step S<b>21 ) The control unit 42 of the data center 4 accesses the server 5 .
(Step S<b>22 ) The control unit 42 acquires the information indicating the dangerous place and the suspicious person information from the server 5 through the communication unit 41 . Subsequently, the control unit 42 causes the storage unit 44 to store the acquired information indicating the dangerous place and the suspicious person information. The dangerous place includes, for example, a predetermined range including the position (latitude and longitude) from which suspicious person information is obtained, or a range such as an address from which suspicious person information is obtained. Note that the range may be set by the control unit 42 .

(ステップS23)制御部42は、第1携帯端末2から位置情報を取得する。なお、位置情報は、データセンター4からのリクエストに基づいて、第1携帯端末2が送信するようにしてもよく、第1携帯端末2が所定の周期で送信するようにしてもよい。続けて、制御部42は、取得した位置情報を記憶部44に記憶させる。 (Step S<b>23 ) The control unit 42 acquires position information from the first mobile terminal 2 . The location information may be transmitted by the first mobile terminal 2 based on a request from the data center 4, or may be transmitted by the first mobile terminal 2 at predetermined intervals. Subsequently, the control unit 42 causes the storage unit 44 to store the acquired position information.

(ステップS24)制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と位置情報とに基づいて、危険箇所と現在の児童の位置の距離を算出することで測定する。 (Step S24) The control unit 42 measures by calculating the distance between the dangerous place and the current position of the child based on the map information, the information indicating the dangerous place, and the position information stored in the storage unit 44 .

(ステップS25)制御部42は、算出した距離が記憶部44が記憶する所定値未満であるか否かを判定する。制御部42は、距離が所定値未満であると判定した場合(ステップS25;YES)、ステップS26の処理に進める。制御部42は、距離が所定値以上であると判定した場合(ステップS25;NO)、ステップS21の処理に戻す。 (Step S25) The control unit 42 determines whether or not the calculated distance is less than a predetermined value stored in the storage unit 44. When the control unit 42 determines that the distance is less than the predetermined value (step S25; YES), the process proceeds to step S26. When the control unit 42 determines that the distance is equal to or greater than the predetermined value (step S25; NO), the process returns to step S21.

(ステップS26)制御部42は、危険情報を生成する。続けて、制御部42は、生成した危険情報を通信部41によって、第2携帯端末3へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(ステップS27)制御部42は、生成した危険情報を通信部41によって、第1携帯端末2へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(Step S26) The control unit 42 generates risk information. Subsequently, the control unit 42 notifies the danger by transmitting the generated danger information to the second mobile terminal 3 through the communication unit 41 . When the danger information is a notification sound, the control unit 42 increases the notification sound as the first mobile terminal 2 approaches the dangerous place.
(Step S<b>27 ) The control unit 42 notifies the danger by transmitting the generated danger information to the first mobile terminal 2 through the communication unit 41 . When the danger information is a notification sound, the control unit 42 increases the notification sound as the first mobile terminal 2 approaches the dangerous place.

なお、上述した例では、データセンター4が、サーバ5から危険箇所を示す情報を取得する例を説明したが、これに限らない。危険箇所は、例えば保護者が第2携帯端末3の操作部33を操作して設定し、設定された情報をデータセンター4の制御部42が取得するようにしてもよい。 In the above example, the data center 4 acquires information indicating a hot spot from the server 5, but the present invention is not limited to this. For example, a parent or guardian may operate the operation unit 33 of the second mobile terminal 3 to set the dangerous place, and the control unit 42 of the data center 4 may acquire the set information.

<危険通知の受信処理>
次に、児童が所持する第1携帯端末2が危険情報を受信した際の処理手順例を説明する。
図8は、本実施形態に係る第1携帯端末2が危険情報を受信した際の処理手順例のフローチャートである。
<Receiving Danger Notice>
Next, an example of a processing procedure when the first portable terminal 2 possessed by a child receives danger information will be described.
FIG. 8 is a flowchart of a processing procedure example when the first mobile terminal 2 according to this embodiment receives danger information.

(ステップS31)第1携帯端末2の制御部29は、データセンター4が送信した危険情報を通信部21によって受信する。
(ステップS32)制御部29は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ26から再生させる。または、制御部29は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ26から再生させる。なお、スピーカ26がブザーである場合、制御部29は、危険情報に基づいて所定の電圧をスピーカ26に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S<b>31 ) The control unit 29 of the first mobile terminal 2 receives the danger information transmitted by the data center 4 through the communication unit 21 .
(Step S<b>32 ) The control unit 29 generates a voice message notifying of danger based on the danger information, and causes the speaker 26 to reproduce the generated voice message. Alternatively, the control unit 29 generates, for example, a buzzer sound based on the danger information, and causes the speaker 26 to reproduce the generated buzzer sound. Note that if the speaker 26 is a buzzer, the controller 29 outputs a predetermined voltage to the speaker 26 based on the danger information. As a result, voice output based on the danger information is performed. Note that the control unit 29 increases the volume as the distance between the dangerous place and the current position becomes shorter.

(ステップS33)制御部29は、スピーカ26からの音声出力が禁止されたバイブレータモードであるか否かを判別する。なお、制御部29は、バイブレータモードの設定を、例えば、第1携帯端末2が備える操作部(不図示)が操作された結果も基づき設定するか、第2携帯端末3からの指示に応じて設定する。制御部29は、バイブレータモードであると判別した場合(ステップS33;YES)、ステップS34の処理に進め、バイブレータモードではない判別した場合(ステップS33;NO)、ステップS31の処理に戻す。なお、制御部29は、バイブレータモードの場合、ステップS32の処理を行わないか、または、ステップS32の処理の代わりに表示部27を点滅等させるようにしてもよい。 (Step S33) The control unit 29 determines whether or not it is the vibrator mode in which the sound output from the speaker 26 is prohibited. Note that the control unit 29 sets the vibrator mode based on, for example, the result of operating an operation unit (not shown) included in the first mobile terminal 2, or according to an instruction from the second mobile terminal 3. set. If the control unit 29 determines that it is in the vibrator mode (step S33; YES), it proceeds to the process of step S34, and if it determines that it is not in the vibrator mode (step S33; NO), it returns to the process of step S31. In the vibrator mode, the control unit 29 may not perform the processing of step S32, or may cause the display unit 27 to blink instead of performing the processing of step S32.

(ステップS34)制御部29は、危険情報に基づいてバイブレータ25を駆動する。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ25の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。 (Step S34) The controller 29 drives the vibrator 25 based on the danger information. Note that the controller 29 may increase the amplitude of the vibration of the vibrator 25 or shorten the interval of vibration as the distance between the dangerous place and the current position becomes shorter.

次に、保護者が所持する第2携帯端末3が危険情報を受信した際の処理手順例を説明する。
図9は、本実施形態に係る第2携帯端末3が危険情報を受信した際の処理手順例のフローチャートである。
Next, an example of a processing procedure when the second portable terminal 3 possessed by the guardian receives danger information will be described.
FIG. 9 is a flowchart of a processing procedure example when the second mobile terminal 3 according to this embodiment receives danger information.

(ステップS41)第2携帯端末3の制御部36は、データセンター4が送信した危険情報を通信部31によって受信する。
(ステップS42)制御部36は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ35から再生させる。または、制御部36は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ35から再生させる。なお、スピーカ35がブザーである場合、制御部36は、危険情報に基づいて所定の電圧をスピーカ35に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S<b>41 ) The control unit 36 of the second mobile terminal 3 receives the danger information transmitted by the data center 4 through the communication unit 31 .
(Step S<b>42 ) The control unit 36 generates a voice message notifying of danger based on the danger information, and causes the speaker 35 to reproduce the generated voice message. Alternatively, the control unit 36 generates, for example, a buzzer sound based on the danger information, and causes the speaker 35 to reproduce the generated buzzer sound. Note that when the speaker 35 is a buzzer, the controller 36 outputs a predetermined voltage to the speaker 35 based on the danger information. As a result, voice output based on the danger information is performed. Note that the control unit 36 increases the volume as the distance between the dangerous place and the current position becomes shorter.

(ステップS43)制御部36は、バイブレータモードであるか否かを判別する。なお、制御部36は、バイブレータモードの設定を、第2携帯端末3の操作部33が操作された結果に応じて設定する。制御部36は、バイブレータモードであると判別した場合(ステップS43;YES)、ステップS44の処理に進め、バイブレータモードではない判別した場合(ステップS43;NO)、ステップS45の処理に進める。なお、制御部36は、バイブレータモードの場合、ステップS42の処理を行わないか、または、ステップS42の処理の代わりに表示部34を点滅等させるようにしてもよい。 (Step S43) The control unit 36 determines whether or not it is in the vibrator mode. Note that the control unit 36 sets the vibrator mode according to the result of operating the operation unit 33 of the second mobile terminal 3 . If the control unit 36 determines that it is in the vibrator mode (step S43; YES), it proceeds to the process of step S44, and if it determines that it is not in the vibrator mode (step S43; NO), it proceeds to the process of step S45. In the vibrator mode, the control unit 36 may not perform the processing of step S42, or may cause the display unit 34 to blink instead of performing the processing of step S42.

(ステップS44)制御部36は、危険情報に基づいてバイブレータ37を駆動する。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ37の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。 (Step S44) The controller 36 drives the vibrator 37 based on the danger information. Note that the controller 36 may increase the amplitude of the vibration of the vibrator 37 or shorten the interval of vibration as the distance between the dangerous place and the current position becomes shorter.

(ステップS45)制御部36は、保護者が操作部33を操作した結果に基づいて、第1携帯端末位置情報の送信リクエストを通信部31によって、データセンター4へ送信する。データセンター4の制御部42は、受信した送信リクエストに基づいて、通信部41によって第1携帯端末位置情報に危険を知らせる警告画像を付与して第2携帯端末3へ送信する。続けて、制御部36は、データセンター4が送信した第1携帯端末位置情報を通信部31によって受信する。続けて、制御部36は、受信した第1携帯端末位置情報を表示部34上に表示させる。 (Step S<b>45 ) Based on the parent's operation of the operation unit 33 , the control unit 36 causes the communication unit 31 to transmit a transmission request for the first mobile terminal location information to the data center 4 . Based on the received transmission request, the control unit 42 of the data center 4 attaches a warning image indicating danger to the first mobile terminal location information and transmits the warning image to the second mobile terminal 3 by the communication unit 41 . Subsequently, the control unit 36 receives the first mobile terminal location information transmitted by the data center 4 through the communication unit 31 . Subsequently, the control unit 36 causes the display unit 34 to display the received first mobile terminal location information.

ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図10は、本実施形態に係る第2携帯端末3の表示部34上に表示される警告画像を含む第1携帯端末位置情報の例を示す図である。
図10において、符号g11と符号g12は図6と同様である。また、符号g21は、危険箇所を示す画像である。符号g22は、警告画像である。
図10に示す例では、児童が所持する第1携帯端末2の現在位置が、危険箇所内であるため、警告画像「危険箇所にいます。ご注意ください!」が、第1携帯端末位置情報に重ねられて(または合成されて)表示される。なお、警告画像は、制御部36が、受信した警告情報に基づいて生成してもよい。
Here, an example of the first mobile terminal location information displayed on the display unit 34 of the second mobile terminal 3 will be described. FIG. 10 is a diagram showing an example of first mobile terminal location information including a warning image displayed on the display unit 34 of the second mobile terminal 3 according to this embodiment.
In FIG. 10, symbols g11 and g12 are the same as in FIG. Reference g21 is an image showing a dangerous place. Reference g22 is a warning image.
In the example shown in FIG. 10, since the current position of the first mobile terminal 2 held by the child is inside a dangerous area, the warning image "You are in a dangerous area. Please be careful!" is superimposed on (or composited with). Note that the warning image may be generated by the control unit 36 based on the received warning information.

なお、第1携帯端末2の制御部29は、撮像部22が撮影した画像を同一グループ歩行者情報または周辺歩行者情報あるいは車両情報として、通信部21によってデータセンター4へ送信するようにしてもよい。 Note that the control unit 29 of the first mobile terminal 2 may transmit the image captured by the imaging unit 22 to the data center 4 through the communication unit 21 as same-group pedestrian information, surrounding pedestrian information, or vehicle information. good.

またデータセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて、交通量が多い箇所に第1携帯端末2の所持者が近づいたとき交通情報を通信部41によって第1携帯端末2に送信するようにしてもよい。なお、交通情報は音声信号であってもよい。第1携帯端末2の制御部29は、受信した交通情報を再生する。これにより、第1携帯端末2を所持する児童は、交通量が多い箇所に近づいたことを知ることができる。 Further, the control unit 42 of the data center 4 transmits traffic information to the first mobile terminal through the communication unit 41 based on information received from the server 5, for example, when the owner of the first mobile terminal 2 approaches a location with heavy traffic. 2 may be sent. Note that the traffic information may be an audio signal. The control unit 29 of the first mobile terminal 2 reproduces the received traffic information. As a result, the child carrying the first portable terminal 2 can know that they have approached a location with heavy traffic.

また、データセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて緊急情報を第1携帯端末2と第2携帯端末3へ送信するようにしてもよい。ここで緊急情報とは、例えば災害や事故が発生した場合に、避難を呼びかける情報である。 Also, the control unit 42 of the data center 4 may transmit emergency information to the first mobile terminal 2 and the second mobile terminal 3 based on information received from the server 5, for example. Here, emergency information is information calling for evacuation in the event of a disaster or accident, for example.

以上のように、本実施形態では、子供(児童)が所持または鞄等に取り付けた第1携帯端末2で取得した位置情報を、データセンター4に集約して、保護者が所持する第2携帯端末3へ送信するようにした。また、本実施形態では、不審者情報を、行政や学校のサーバ5からデータセンター4へ集約する。データセンター4は、不審者情報を取得した際、第1携帯端末2の現在位置と危険箇所との距離が所定値未満の場合に、第1携帯端末2を所持する児童と、第2携帯端末3を所持する保護者に危険情報を送信するようにした。 As described above, in the present embodiment, location information acquired by the first mobile terminal 2 possessed by a child (child) or attached to a bag or the like is aggregated in the data center 4 and stored in the second mobile terminal carried by the guardian. I set it to send to terminal 3. Further, in the present embodiment, suspicious person information is aggregated from the administrative or school server 5 to the data center 4 . When the data center 4 acquires the suspicious person information, if the distance between the current position of the first mobile terminal 2 and the dangerous place is less than a predetermined value, the child holding the first mobile terminal 2 and the second mobile terminal Danger information is sent to parents who own 3.

これにより、本実施形態によれば、第1携帯端末2の所持者が危険箇所に近づいているときに、第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行うことができる。 As a result, according to the present embodiment, when the holder of the first mobile terminal 2 is approaching the dangerous place, the holder (child) of the first mobile terminal 2 or the holder (guardian) of the second mobile terminal 3 person) can be notified of danger.

また、本実施形態では、第1携帯端末2が危険箇所に近づくにつれて、警報音等を大きくするようにした。
これにより、本実施形態によれば、より一層、第1携帯端末2の所持者が危険箇所に近づいていることを通知することができる。
また、本実施形態では、第2携帯端末3は、第1携帯端末2の移動軌跡を取得するようにした。
これにより、本実施形態によれば、第1携帯端末2の所持者の移動軌跡(例えば、学校から自宅までの帰宅経路)を第2携帯端末3の所持者が把握することができる。
Further, in the present embodiment, as the first portable terminal 2 approaches the dangerous place, the warning sound or the like is made louder.
Thus, according to the present embodiment, it is possible to further notify that the owner of the first mobile terminal 2 is approaching a dangerous place.
Also, in the present embodiment, the second mobile terminal 3 acquires the movement locus of the first mobile terminal 2 .
Thus, according to the present embodiment, the owner of the second mobile terminal 3 can grasp the movement trajectory of the owner of the first mobile terminal 2 (for example, the homeward route from school to home).

[第2実施形態]
第1実施形態では、第2携帯端末3が、第1携帯端末2の移動軌跡を取得する例や、第1携帯端末2の所持者が危険箇所に近づいたときに第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行う例等を説明した。
本実施形態では、データセンター4が、第1携帯端末2から受信した情報に基づいて、通学経路等の所定位置において行うべき所定動作が行われた否かを判別して、判別した結果を第2携帯端末3へ送信する例を説明する。
[Second embodiment]
In the first embodiment, an example in which the second mobile terminal 3 acquires the movement trajectory of the first mobile terminal 2, and an example in which the holder of the first mobile terminal 2 approaches a dangerous place causes the holding of the first mobile terminal 2 to An example of notifying the person (child) or the owner (guardian) of the second mobile terminal 3 of danger has been described.
In this embodiment, based on the information received from the first mobile terminal 2, the data center 4 determines whether or not a predetermined action to be performed at a predetermined position such as a school route has been performed, and the determined result is 2 An example of transmission to the mobile terminal 3 will be described.

まず、本実施形態の情報通信システム1Aの主な動作例を説明する。
図11は、本実施形態に係る情報通信システム1Aの主な動作例を示す図である。
符号g100は、帰宅した際の第1携帯端末2と児童との対話例を示す図である。符号g100が示す図において、符号g101が児童の発話であり、符号g102が第1携帯端末2の発話である。
First, a main operation example of the information communication system 1A of this embodiment will be described.
FIG. 11 is a diagram showing a main operation example of the information communication system 1A according to this embodiment.
Symbol g100 is a diagram showing an example of interaction between the first mobile terminal 2 and the child when the child returns home. In the figure indicated by symbol g100, symbol g101 is the child's utterance, and symbol g102 is the first mobile terminal 2's utterance.

符号g110は、帰宅した際の児童と保護者との対話例を示す図である。符号g110が示す図において、符号g111が保護者の発話であり、符号g112が児童の発話であり、符号g113が第1携帯端末2の発話である。 Symbol g110 is a diagram showing an example of dialogue between the child and the guardian when the child returns home. In the figure indicated by symbol g110, symbol g111 is the utterance of the guardian, symbol g112 is the utterance of the child, and symbol g113 is the utterance of the first mobile terminal 2. FIG.

符号g120は、第2携帯端末3に表示される画像例を示す図である。表示される画像は、データセンター4から受信した画像である。符号g121は、データセンター4から受信した画像である。画像g121は、スコアの画像g122、児童の移動軌跡の画像g122、確認箇所での動作確認結果の画像g123とg124が含まれている。 A symbol g120 is a diagram showing an example of an image displayed on the second mobile terminal 3. FIG. The displayed image is the image received from the data center 4 . A symbol g121 is an image received from the data center 4 . The image g121 includes an image g122 of the score, an image g122 of the child's locus of movement, and images g123 and g124 of the result of operation confirmation at the confirmation point.

<情報通信システム1Aの構成>
次に、情報通信システム1Aの構成例を説明する。
図12は、本実施形態に係る情報通信システム1Aの構成例を示す図である。図12に示すように、情報通信システム1Aは、第1携帯端末2、第2携帯端末3、データセンター4A(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4A、およびサーバ5それぞれは、ネットワーク6を介して接続されている。なお、情報通信システム1と同様の動作を行う機能部については、同じ符号を用いて説明を省略する。図12に示すように、情報通信システム1と情報通信システム1Aとの差異は、データセンター4Aである。
<Configuration of information communication system 1A>
Next, a configuration example of the information communication system 1A will be described.
FIG. 12 is a diagram showing a configuration example of an information communication system 1A according to this embodiment. As shown in FIG. 12, the information communication system 1A includes a first mobile terminal 2, a second mobile terminal 3, a data center 4A (center), and a server 5. The first mobile terminal 2, the second mobile terminal 3, the data center 4A, and the server 5 are connected via a network 6, respectively. Note that functional units that perform the same operations as those of the information communication system 1 are denoted by the same reference numerals, and descriptions thereof are omitted. As shown in FIG. 12, the difference between the information communication system 1 and the information communication system 1A is the data center 4A.

図12に示すように、データセンター4Aは、通信部41、制御部42A、モデル記憶部43、記憶部44A、音声認識モデル記憶部45、音声認識部46、およびシナリオ記憶部47を備えている。 As shown in FIG. 12, the data center 4A includes a communication section 41, a control section 42A, a model storage section 43, a storage section 44A, a speech recognition model storage section 45, a speech recognition section 46, and a scenario storage section 47. .

音声認識モデル記憶部45は、例えば音響モデル、言語モデル、単語辞書等を記憶している。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。 The speech recognition model storage unit 45 stores, for example, acoustic models, language models, word dictionaries, and the like. An acoustic model is a model based on sound feature values, and a language model is a model of information on words and how they are arranged. A word dictionary is a dictionary with a large number of vocabularies, for example, a large vocabulary word dictionary.

音声認識部46は、制御部42Aが出力する音声信号に対して発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部46は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部46は、検出した発話区間の音声信号に対して、音声認識モデル記憶部45を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部46は、例えば特開2015-64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部46は、認識した認識結果に対して音声認識モデル記憶部45を参照してテキストに変換する。音声認識部46は、テキスト情報に対して音声認識モデル記憶部45を参照して形態素解析と係り受け解析を行う。係り受け解析には、例えば、Shift-reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。音声認識部46は、解析結果を制御部42Aに出力する。 The voice recognition unit 46 detects a voice signal in the speech period from the voice signal output by the control unit 42A. Speech section detection detects, for example, an audio signal equal to or greater than a predetermined threshold value as a speech section. Note that the speech recognition unit 46 may detect the speech period using another well-known method. The speech recognition unit 46 refers to the speech recognition model storage unit 45 and performs speech recognition using a well-known technique on the detected speech signal of the speech period. Note that the speech recognition unit 46 performs speech recognition using, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2015-64554. The speech recognition unit 46 refers to the speech recognition model storage unit 45 and converts the recognized result into text. The speech recognition unit 46 refers to the speech recognition model storage unit 45 and performs morphological analysis and dependency analysis on the text information. For dependency analysis, SVM (Support Vector Machines) is used in, for example, the Shift-reduce method, the spanning tree method, and the stepwise application method for chunk identification. The speech recognition unit 46 outputs the analysis result to the control unit 42A.

シナリオ記憶部47は、第1携帯端末2が用いられる環境で行われる対話を、例えばテキスト形式で記憶する。 The scenario storage unit 47 stores, for example, a text format of the dialogue that takes place in the environment where the first mobile terminal 2 is used.

制御部42Aは、制御部42が行う処理に加えて以下の処理を行う。
制御部42Aは、第1携帯端末2から通信部41が受信した画像、第1携帯端末2から通信部41が受信した加速度センサ28の検出値を受信する。制御部42Aは、設定されている位置で所定動作が行われてか否かを、受信した画像と加速度センサ28の検出値の少なくとも1つに基づいて判別する。制御部42Aは、判別した結果に基づいて、例えば帰宅時のスコアを求める。制御部42Aは、求めたスコアを記憶部44Aに記憶させる。制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信した場合、生成した画像を第2携帯端末3へ送信する。なお、所定動作が行われてか否かの判別方法、スコアの求め方については後述する。
また、制御部42Aは、音声認識部46が出力する解析結果を取得する。制御部42Aは、解析結果に基づいて、シナリオ記憶部47を参照して第1携帯端末2から受信した音声信号に対する返答を選択する。制御部42Aは、選択した応答を例えばフォルマント合成の手法等によって音声信号に変換し、変換した音声信号を通信部41によって第1携帯端末2へ送信する。
42 A of control parts perform the following processes in addition to the process which the control part 42 performs.
The control unit 42A receives the image received by the communication unit 41 from the first mobile terminal 2 and the detection value of the acceleration sensor 28 received by the communication unit 41 from the first mobile terminal 2 . Based on at least one of the received image and the detection value of the acceleration sensor 28, the control unit 42A determines whether or not the predetermined action has been performed at the set position. The control unit 42A obtains, for example, a score at the time of returning home based on the determined result. 42 A of control parts store the calculated|required score in 44 A of storage parts. The control unit 42A generates an image including an image of the child's movement trajectory, an image of the score, and an image showing the determination result. The control unit 42</b>A transmits the generated image to the second mobile terminal 3 when the score transmission request is received from the second mobile terminal 3 . A method of determining whether or not a predetermined action has been performed and a method of obtaining a score will be described later.
Further, the control unit 42A acquires the analysis result output by the speech recognition unit 46. FIG. The control unit 42A refers to the scenario storage unit 47 and selects an answer to the voice signal received from the first mobile terminal 2 based on the analysis result. The control unit 42</b>A converts the selected response into an audio signal using, for example, a formant synthesis technique, and transmits the converted audio signal to the first mobile terminal 2 through the communication unit 41 .

記憶部44Aは、記憶部44が記憶する情報に加えて、所定位置を示す情報(緯度経度、地点名)に所定動作とスコアを関連付けて記憶する。また、記憶部44Aは、例えば帰宅時におけるスコアの合計を記憶する。また、記憶部44は、所定動作が行われたか否かを判別する際に用いる閾値を記憶する。さらに、記憶部44Aは、画像検出に用いられる顔部のモデル画像、腕部のモデル画像を記憶する。 In addition to the information stored in the storage unit 44, the storage unit 44A stores information indicating a predetermined position (latitude and longitude, location name) in association with a predetermined action and a score. The storage unit 44A also stores, for example, the total score at the time of returning home. The storage unit 44 also stores a threshold value used when determining whether or not the predetermined action has been performed. Further, the storage unit 44A stores a model image of the face and a model image of the arms, which are used for image detection.

なお、保護者は、第2携帯端末3の操作部33を操作して、通学経路を予め設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、通学経路を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を行うべき所定位置を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置で行う所定動作を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。
なお、データセンター4Aは、例えばサーバ5から危険箇所を取得し、取得した危険箇所を所定位置に設定するようにしてもよい。そして、所定位置の種類に応じて、所定動作を設定するようにしてもよい。
Note that the parent may operate the operation unit 33 of the second mobile terminal 3 to set the school route in advance. In this case, the control unit 36 of the second mobile terminal 3 may transmit the information indicating the school route to the data center 4A through the communication unit 31. FIG. Also, the guardian may operate the operation unit 33 of the second mobile terminal 3 to set the predetermined position where the predetermined action should be performed. In this case, the control unit 36 of the second mobile terminal 3 may transmit information indicating the predetermined position to the data center 4A through the communication unit 31. FIG. Also, the guardian may operate the operation unit 33 of the second mobile terminal 3 to set the predetermined action. In this case, the control unit 36 of the second mobile terminal 3 may transmit information indicating a predetermined action to be performed at a predetermined position to the data center 4A through the communication unit 31. FIG.
Note that the data center 4A may, for example, acquire a dangerous spot from the server 5 and set the acquired dangerous spot at a predetermined position. Then, the predetermined action may be set according to the type of the predetermined position.

次に、所定位置、所定動作およびスコアの例を説明する。
図13は、本実施形態に係る所定位置、所定動作およびスコアの例を示す図である。 なお、図13に示す例は、帰宅経路(帰宅路)における所定位置、所定動作およびスコアの一部であり、スコアの合計が帰宅経路において100点になるように設定されている。 図13に示す例では、所定箇所は、A交差点と、B交差点と、C交差点である。所定動作は、例えばA交差点において、一時停止と左右確認である。また、スコアは、例えばA交差点において、一時停止が10、左右確認が10である。
制御部42Aは、A交差点において、一時停止の動作が行われていた場合にスコア10、行われていなかった場合にスコア0とする。そして、学校から自宅までにおけるスコアの合計を求め、求めたスコアの合計を記憶部44Aに記憶させる。なお、制御部42Aは、100点から、行われなかった所定動作のスコアを減算して合計のスコアを求めるようにしてもよい。
Next, examples of predetermined positions, predetermined actions, and scores will be described.
FIG. 13 is a diagram showing examples of predetermined positions, predetermined actions, and scores according to this embodiment. Note that the example shown in FIG. 13 is part of the predetermined positions, predetermined actions, and scores on the route home (route home), and the total score is set to 100 points on the route home. In the example shown in FIG. 13, the predetermined locations are the A intersection, the B intersection, and the C intersection. The predetermined action is, for example, a temporary stop and left/right confirmation at the A intersection. Also, the score is 10 for temporary stop and 10 for checking left and right at intersection A, for example.
The control unit 42A sets the score to 10 when the motion to stop is performed at the A intersection, and sets the score to 0 when the motion is not performed. Then, the total score from school to home is obtained, and the obtained total score is stored in the storage section 44A. Note that the control unit 42A may obtain the total score by subtracting the score of the predetermined action that was not performed from the 100 points.

次に、データセンター4Aが行う処理手順例を説明する。
図14は、本実施形態に係るデータセンター4Aが行う処理手順例のフローチャートである。なお、図14に示す例は、制御部42Aが、画像に基づいて所定動作が行われたか否かを判別する例である。
Next, an example of a processing procedure performed by the data center 4A will be described.
FIG. 14 is a flowchart of a processing procedure example performed by the data center 4A according to this embodiment. Note that the example shown in FIG. 14 is an example in which the control unit 42A determines whether or not the predetermined operation has been performed based on the image.

(ステップS51)データセンター4Aの制御部42Aは、第1携帯端末2が送信した位置情報を受信する。
(ステップS52)制御部42Aは、第1携帯端末2が送信した画像を受信する。なお、第1携帯端末2は、所定周期毎に位置情報と画像をデータセンター4Aへ送信する。
(Step S51) The control unit 42A of the data center 4A receives the location information transmitted by the first mobile terminal 2. FIG.
(Step S<b>52 ) The control unit 42</b>A receives the image transmitted by the first mobile terminal 2 . The first portable terminal 2 transmits position information and images to the data center 4A at predetermined intervals.

(ステップS53)制御部42Aは、位置が所定箇所の場合、受信した画像に基づいて、所定動作が行われたか否かを判別することで動作分析を行う。
(ステップS54)制御部42Aは、動作分析した結果と記憶部44Aが記憶する情報に基づいて、スコアリング処理を行う。なお、スコアリング処理とは、例えば、加点、減点処理である。
(Step S53) When the position is a predetermined location, the control unit 42A performs motion analysis by determining whether or not a predetermined motion has been performed based on the received image.
(Step S54) The control unit 42A performs scoring processing based on the result of motion analysis and the information stored in the storage unit 44A. Note that the scoring process is, for example, point addition/point deduction process.

(ステップS55)制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信したか否かを判別する。制御部42Aは、第2携帯端末3からリクエストを受信したと判別した場合(ステップS55;YES)、ステップS56の処理に進め、第2携帯端末3からリクエストを受信していないと判別した場合(ステップS55;NO)、ステップS51の処理に戻す。 (Step S<b>55 ) The control unit 42</b>A determines whether or not a score transmission request has been received from the second mobile terminal 3 . If the control unit 42A determines that a request has been received from the second mobile terminal 3 (step S55; YES), the process proceeds to step S56, and if it determines that a request has not been received from the second mobile terminal 3 ( Step S55; NO), the process returns to step S51.

(ステップS56)制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。続けて、制御部42Aは、生成した画像を第2携帯端末3へ送信する。 (Step S56) The control unit 42A generates an image including an image of the child's movement trajectory, an image of the score, and an image showing the determination result. Subsequently, the control unit 42A transmits the generated image to the second mobile terminal 3.

なお、図14に示した例では、データセンター4Aは、第2携帯端末3からリクエストを受信したと判別した場合にスコアを含む情報を送信する例を説明したが、これに限らない。データセンター4Aは、例えば保護者によって設定された時刻、所定の周期毎にスコアを含む情報を送信するようにしてもよい。 In the example shown in FIG. 14, the data center 4A transmits information including the score when determining that a request has been received from the second mobile terminal 3, but the present invention is not limited to this. The data center 4A may, for example, transmit information including the score at a time set by the guardian and at predetermined intervals.

次に、第2携帯端末3が行う処理手順例を説明する。
図15は、本実施形態に係る第2携帯端末3が行う処理手順例のフローチャートである。
Next, an example of a processing procedure performed by the second portable terminal 3 will be described.
FIG. 15 is a flowchart of an example of a processing procedure performed by the second mobile terminal 3 according to this embodiment.

(ステップS61)第2携帯端末3の制御部36は、データセンター4Aが送信したスコアを含む情報を受信する。
(ステップS62)制御部36は、受信したスコアを含む情報を表示部34上に表示させる。
(Step S61) The control unit 36 of the second mobile terminal 3 receives the information including the score transmitted by the data center 4A.
(Step S62) The control unit 36 causes the display unit 34 to display information including the received score.

なお、図15に示した処理は、第2携帯端末3からリクエストを送信したとき、保護者によって設定された時刻、所定の周期毎に行うようにしてもよい。 The processing shown in FIG. 15 may be performed at a time set by the parent or guardian when a request is transmitted from the second portable terminal 3 and at predetermined intervals.

図16は、本実施形態に係る第2携帯端末3の表示部34上に表示されるスコアを含む情報の画像例である。
画像g200は、表示部34上に表示される画像である。
符号g201は、学校を示している。符号g202は、自宅を示している。
符号g203は、児童の移動軌跡を示す画像である。
符号g211、g212およびg213は、所定箇所を示している。
FIG. 16 is an image example of information including a score displayed on the display unit 34 of the second mobile terminal 3 according to this embodiment.
The image g200 is an image displayed on the display unit 34. FIG.
Reference g201 indicates a school. Reference g202 indicates a home.
Reference g203 is an image showing the movement trajectory of the child.
Symbols g211, g212 and g213 indicate predetermined locations.

符号g221は、符号g211における所定動作の判別結果を表している。なお、○印は、所定動作を行ったことを表している。
符号g222は、符号g212における所定動作の判別結果を表している。
符号g223は、符号g213における所定動作の判別結果を表している。なお、×印は、所定動作を行っていないことを表している。
符号g230は、合計スコアを表す画像である。
Symbol g221 represents the determination result of the predetermined motion in symbol g211. The ◯ mark indicates that a predetermined operation has been performed.
Symbol g222 represents the determination result of the predetermined motion in symbol g212.
Symbol g223 represents the determination result of the predetermined motion in symbol g213. Note that the x mark indicates that the predetermined operation is not performed.
Reference g230 is an image representing the total score.

なお、図16において、所定動作を行った場合の符号g221、g222を例えば青色で表示し、所定動作を行っていない場合の符号g223を例えば赤色で表示させるようにしてもよい。このような画像は、データセンター4Aの制御部42Aが生成する。 In FIG. 16, the symbols g221 and g222 when the predetermined action is performed may be displayed in blue, for example, and the symbol g223 when the predetermined motion is not performed may be displayed in red, for example. Such an image is generated by the controller 42A of the data center 4A.

次に、所定位置における一時停止の動作分析方法の例を説明する。
図17は、本実施形態に係る所定位置における一時停止の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、Tを0の初期化した後に以下の処理を開始する。また、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for pausing at a predetermined position will be described.
FIG. 17 is a flowchart of a processing procedure example of a motion analysis method for pausing at a predetermined position according to the present embodiment. After initializing T to 0, the control unit 42A starts the following process. Also, the control unit 42A performs the following processing at a predetermined position.

(ステップS71)データセンター4Aの制御部42Aは、第1携帯端末2から位置情報を受信する。続けて、制御部42Aは、受信した位置情報を受信した時刻情報に関連付けて記憶部44に記憶させる。 (Step S71) The control unit 42A of the data center 4A receives location information from the first mobile terminal 2. FIG. Subsequently, the control unit 42A causes the storage unit 44 to store the received position information in association with the received time information.

(ステップS72)制御部42Aは、記憶部44Aに記憶させた前回の位置(現在時刻に最も近い時刻の位置情報)と、受信した位置情報とを比較し、前回と同じ位置であるか否かを判別する。制御部42Aは、前回と同じ位置であると判別した場合(ステップS72;YES)、ステップS73の処理に進め、前回と同じ位置ではないと判別した場合(ステップS72;NO)、ステップS74の処理に進める。 (Step S72) The control unit 42A compares the previous position stored in the storage unit 44A (position information at the time closest to the current time) with the received position information, and determines whether the position is the same as the previous position. determine. If the control unit 42A determines that the position is the same as the previous time (step S72; YES), the process proceeds to step S73, and if it determines that the position is not the same as the previous time (step S72; NO), the process proceeds to step S74. proceed to

(ステップS73)制御部42Aは、Tに1を加算し、ステップS75の処理に進める。
(ステップS74)制御部42Aは、Tに0を代入し、ステップS71の処理に戻す。
(Step S73) The control unit 42A adds 1 to T, and proceeds to the process of step S75.
(Step S74) The control unit 42A substitutes 0 for T, and returns to the process of step S71.

(ステップS75)制御部42Aは、Tが所定動作が行われたか否かを判別する際に用いられる閾値より大きいか否かを判別する。制御部42Aは、Tが閾値より大きいと判別した場合(ステップS75;YES)、ステップS76の処理に進め、Tが閾値以下であると判別した場合(ステップS75;NO)、ステップS71の処理に戻す。 (Step S75) The control unit 42A determines whether or not T is greater than a threshold used when determining whether or not the predetermined operation has been performed. If the control unit 42A determines that T is greater than the threshold (step S75; YES), it proceeds to the process of step S76. return.

(ステップS76)制御部42Aは、第1携帯端末2を所持する児童が所定位置で一時停止したと判別する。 (Step S76) The control unit 42A determines that the child holding the first mobile terminal 2 has paused at a predetermined position.

なお、制御部42Aは、一時停止の動作分析を、第1携帯端末2の加速度センサ28の検出値に基づいて行うようにしてもよい。
この場合、ステップS71において、制御部42Aは加速度センサ28の検出値を受信する。そして、ステップS72において、制御部42Aは前回の検出値と今回の検出値との差が0を含む所定範囲内の場合に同じ位置であると判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
Note that the control unit 42</b>A may analyze the pause motion based on the detection value of the acceleration sensor 28 of the first mobile terminal 2 .
In this case, the controller 42A receives the detection value of the acceleration sensor 28 in step S71. Then, in step S72, the control unit 42A may determine that the positions are the same when the difference between the previous detection value and the current detection value is within a predetermined range including zero.
Note that the control unit 42A may detect whether or not the child has performed a predetermined action based on at least one of the image and the detection value of the acceleration sensor 28 .

次に、所定位置における左右確認の動作分析方法の例を説明する。
図18は、本実施形態に係る所定位置における左右確認の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for checking left and right at a predetermined position will be described.
FIG. 18 is a flowchart of a processing procedure example of a motion analysis method for left/right confirmation at a predetermined position according to the present embodiment. Note that the control unit 42A performs the following processing at a predetermined position.

(ステップS81)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS82)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の顔部を検出する。続けて、制御部42Aは、検出した顔部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S81) The controller 42A of the data center 4A receives an image from the first mobile terminal 2. FIG.
(Step S82) The control unit 42A detects the face of the owner of the first mobile terminal 2 from the received image by a well-known technique. Subsequently, the control unit 42A causes the storage unit 44A to store the detected facial image in association with the acquisition time information.

(ステップS83)制御部42Aは、記憶部44Aに記憶させた顔部の画像に基づいて、取得した顔部の画像と、前回の顔部の画像とを比較する。続けて、制御部42Aは、比較した結果、顔部が左右に動いているか否かを判別する。制御部42Aは、顔部が左右に動いていると判別した場合(ステップS83;YES)、ステップS84の処理に進め、顔部が左右に動いていないと判別した場合(ステップS83;NO)、ステップS85の処理に進める。 (Step S83) The control unit 42A compares the obtained facial image with the previous facial image based on the facial image stored in the storage unit 44A. Subsequently, the control unit 42A determines whether or not the face is moving left and right as a result of the comparison. If the controller 42A determines that the face is moving left and right (step S83; YES), the process proceeds to step S84, and if it determines that the face is not moving left and right (step S83; NO) The process proceeds to step S85.

(ステップS84)制御部42Aは、第1携帯端末2の所持者が左右確認を行った(左右確認OK)と判別する。
(ステップS85)制御部42Aは、第1携帯端末2の所持者が左右確認を行っていない(左右確認NG)と判別する。
(Step S84) The control unit 42A determines that the owner of the first mobile terminal 2 has checked left and right (checked left and right OK).
(Step S85) The control unit 42A determines that the holder of the first mobile terminal 2 has not checked left and right (check left and right NG).

なお、左右確認の処理においても、制御部42Aは、加速度センサ28の検出値に基づいて、検出値の左右方向の値が所定値以上変化している場合に顔部が左右に動いたか否かを判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
Also in the right/left confirmation process, the control unit 42A determines whether or not the face has moved left/right based on the detection value of the acceleration sensor 28 when the detection value in the left/right direction has changed by a predetermined value or more. may be determined.
Note that the control unit 42A may detect whether or not the child has performed a predetermined action based on at least one of the image and the detection value of the acceleration sensor 28 .

次に、所定位置における手挙げ動作の動作分析方法の例を説明する。
図19は、本実施形態に係る所定位置における手挙げ動作の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for a hand-raising motion at a predetermined position will be described.
FIG. 19 is a flowchart of a processing procedure example of a motion analysis method for a hand-raising motion at a predetermined position according to the present embodiment. Note that the control unit 42A performs the following processing at a predetermined position.

(ステップS91)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS92)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の胸部を検出する。続けて、制御部42Aは、検出した胸部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S91) The controller 42A of the data center 4A receives an image from the first mobile terminal 2. FIG.
(Step S92) The control unit 42A detects the chest of the holder of the first mobile terminal 2 from the received image by a well-known technique. Subsequently, the control unit 42A causes the storage unit 44A to store the detected chest image in association with the acquisition time information.

(ステップS93)制御部42Aは、腕部を検出できたか否かにより、腕が挙がっているか否かを判別する。制御部42Aは、腕が挙がっていると判別した場合(ステップS93;YES)、ステップS94の処理に進め、腕が挙がっていない(腕を検出できない)と判別した場合(ステップS93;NO)、ステップS95の処理に進める。 (Step S93) The control unit 42A determines whether or not the arm is raised based on whether or not the arm has been detected. If the control unit 42A determines that the arm is raised (step S93; YES), the process proceeds to step S94. The process proceeds to step S95.

(ステップS94)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行った(手挙げOK)と判別する。
(ステップS95)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行っていない(手挙げNG)と判別する。
(Step S94) The control unit 42A determines that the owner of the first mobile terminal 2 has raised his hand (hand raised OK).
(Step S95) The control unit 42A determines that the owner of the first mobile terminal 2 has not raised his hand (raise his hand NG).

以上のように、本実施形態では、通学路において、例えば交通安全上、必要な行動を行ったか否かを判定してスコアで提示するようにした。これにより、第1携帯端末2の所持する児童は、あきず、楽しみながらスコアを上げようとする。このため、本実施形態によれば、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。また、本実施形態では、第1携帯端末2の所持する児童の行動やスコアを保護者が所持する第2携帯端末3へ送信したので、保護者が子供のスキルを見える化できる。本実施形態によれば、保護者と児童とが、第2携帯端末3上に表示される情報を見ながら、コミュニケーションすることで、保護者と児童とのコミュニケーションを増やし、さらなる安全意識向上も同時にはかれる。 As described above, in the present embodiment, it is determined whether or not a necessary action has been taken, for example, for traffic safety, on the school road, and a score is presented. As a result, the child possessing the first portable terminal 2 is bored and tries to improve his score while having fun. Therefore, according to the present embodiment, traffic safety education can be continuously provided to children possessed by the first portable terminal 2 . Further, in this embodiment, since the behavior and score of the child possessed by the first mobile terminal 2 are transmitted to the second mobile terminal 3 possessed by the guardian, the guardian can visualize the skill of the child. According to this embodiment, the parent and child communicate while viewing the information displayed on the second mobile terminal 3, thereby increasing communication between the parent and the child and further improving safety awareness. be measured.

<第1の変形例>
ここで、第1携帯端末2であるキャラクタロボットと、第1携帯端末2の所持者である児童とのコミュニケーションの例を図11の符号g100が示す図を参照して説明する。
<First modification>
Here, an example of communication between the character robot, which is the first mobile terminal 2, and the child, who is the owner of the first mobile terminal 2, will be described with reference to the diagram indicated by symbol g100 in FIG.

児童は、例えば帰宅したとき、「ただいま!」と発話する。
第1携帯端末2の制御部29は、マイクロフォン23が収音したこの音声信号を通信部21によってデータセンター4Aへ送信する。データセンター4Aの音声認識部46は、受信した音声信号に対して音声認識処理を行う。制御部42Aが音声認識処理された結果に基づいて返答の音声信号を生成して通信部41によって、生成した音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「おかえりなさい!」を再生することで発話する。
For example, when a child comes home, he/she utters "I'm home!".
The control unit 29 of the first mobile terminal 2 transmits the audio signal picked up by the microphone 23 to the data center 4A through the communication unit 21 . The voice recognition unit 46 of the data center 4A performs voice recognition processing on the received voice signal. The control unit 42</b>A generates a response voice signal based on the result of voice recognition processing, and the communication unit 41 transmits the generated voice signal to the first mobile terminal 2 . As a result, the control unit 29 of the first mobile terminal 2 speaks by reproducing "Welcome home!" received from the data center 4A.

続けて、児童が「今日の点数は?」と発話した音声信号をデータセンター4Aが受信し、制御部42Aは音声認識された結果に基づいてシナリオ記憶部47と記憶部44が記憶する情報に基づいて、返答である「90点」の音声信号を生成する。制御部42Aは返答である音声信号を通信部41によって第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「90点」を発話する。 Subsequently, the data center 4A receives a voice signal in which the child utters, "What is your score today?" Based on this, a voice signal of "90 points" is generated as a reply. The control unit 42A transmits a voice signal as a reply to the first mobile terminal 2 through the communication unit 41. FIG. As a result, the control unit 29 of the first mobile terminal 2 utters "90 points" received from the data center 4A.

このように第1変形例では、第1携帯端末2が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第1変形例によれば、第1携帯端末2を所持する児童と、第1携帯端末2との間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。 Thus, in the first modification, the first mobile terminal 2 transmits the audio signal picked up by the data center 4A, and the data center 4A transmits a response to the received audio signal to the first mobile terminal 2. . Thus, according to the first modification, the child possessing the first mobile terminal 2 can communicate with the first mobile terminal 2, and the child possessing the first mobile terminal 2 can communicate with the child possessing the first mobile terminal 2. , can be continuously carried out to traffic safety education.

なお、データセンター4Aが第1携帯端末2へ送信する音声信号は、スコアが例えば70以上の場合に「よくがんばったね!」、スコアが例えば50以下の場合に「一時停止しなかったね。明日は一時停止しようね。」等であってもよい。 Note that the audio signal transmitted from the data center 4A to the first mobile terminal 2 is, for example, "Good job!" when the score is 70 or more, and "You didn't pause. Let's pause." or the like may be used.

<第2の変形例>
ここで、保護者と児童とキャラクタロボットとのコミュニケーションの例を図11の符号g110が示す図を参照して説明する。
<Second modification>
Here, an example of communication between a guardian, a child, and a character robot will be described with reference to the diagram indicated by symbol g110 in FIG.

この例の場合、保護者と児童は、第2携帯端末3に表示された画像を見ながら交通安全ポイント確認を行うため会話を行う。
この例でも、第1携帯端末2または第2携帯端末3は、収音した音声信号をデータセンター4Aへ送信する。データセンター4Aは、音声認識した結果に基づいてアドバイスの音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2は、アドバイスの音声信号「一時停止はOKだから手挙げだけね!」を再生する。
なお、データセンター4Aは、このようなアドバイスの音声信号を第2携帯端末3へも送信するようにしてもよい。
In the case of this example, the guardian and the child have a conversation while viewing the image displayed on the second mobile terminal 3 in order to confirm traffic safety points.
In this example as well, the first mobile terminal 2 or the second mobile terminal 3 transmits the collected audio signal to the data center 4A. The data center 4A transmits an advice voice signal to the first mobile terminal 2 based on the voice recognition result. As a result, the first portable terminal 2 reproduces an audio signal of advice "It's okay to pause, just raise your hand!".
The data center 4</b>A may also transmit such an advice voice signal to the second mobile terminal 3 .

このように第2変形例では、第1携帯端末2または第2携帯端末3が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第2変形例によれば、保護者と児童と第1携帯端末2であるキャラクタロボットとの間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。 Thus, in the second modification, the first mobile terminal 2 or the second mobile terminal 3 transmits the audio signal picked up by the data center 4A, and the data center 4A responds to the audio signal received by the first mobile terminal 2. sent to. Thus, according to the second modification, communication can be performed between the parent, the child, and the character robot that is the first mobile terminal 2, and the child possessed by the first mobile terminal 2 can continue to communicate with the child. can be used for traffic safety education.

なお、第1実施形態、第2実施形態では、第1携帯端末2を児童が所持する例を説明したが、第1携帯端末2を例えば高齢者が所持するようにしてもよい。 In addition, in the first embodiment and the second embodiment, an example in which a child possesses the first mobile terminal 2 has been described, but the first mobile terminal 2 may be carried by an elderly person, for example.

[第3実施形態]
第3実施形態では、物体の接近を児童に報知しつつ、且つ児童の周辺に存在する他の児童にも物体の接近を報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Third embodiment]
In the third embodiment, a case will be described in which a child is notified of the approach of an object, and other children around the child are also notified of the approach of the object. In addition, the same code|symbol is attached|subjected about the structure similar to embodiment and the modification which were mentioned above, and description is abbreviate|omitted.

図20は、第3実施形態に係る情報通信システム1Bの構成の一例を示す図である。図20に示される通り、情報通信システム1Bは、複数の第1携帯端末2B(図示する第1携帯端末2B-1~2B-2)と、第2携帯端末3と、データセンター4Bと、サーバ5とを備える。以降の説明において、第1携帯端末2B-1は、児童Aが保持する第1携帯端末2Bであり、第1携帯端末2B-2は、児童Bが保持する第1携帯端末2Bであるものとして説明する。第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別しない場合には、総称して第1携帯端末2Bと記載する。以下、第1携帯端末2Bの詳細について説明する。 FIG. 20 is a diagram showing an example of the configuration of an information communication system 1B according to the third embodiment. As shown in FIG. 20, an information communication system 1B includes a plurality of first mobile terminals 2B (first mobile terminals 2B-1 and 2B-2 shown), a second mobile terminal 3, a data center 4B, a server 5. In the following description, it is assumed that the first mobile terminal 2B-1 is the first mobile terminal 2B held by the child A, and the first mobile terminal 2B-2 is the first mobile terminal 2B held by the child B. explain. When the first mobile terminal 2B-1 and the first mobile terminal 2B-2 are not distinguished from each other, they are collectively referred to as the first mobile terminal 2B. Details of the first mobile terminal 2B will be described below.

図21は、第3実施形態に係る第1携帯端末2Bの構成の一例を示す図である。図24に示される通り、第1携帯端末2Bは、通信部21と、撮像部22と、マイクロフォン23と、GPS24と、バイブレータ25と、スピーカ26と、表示部27と、加速度センサ28と、制御部29Bとを備える。 FIG. 21 is a diagram showing an example of the configuration of the first mobile terminal 2B according to the third embodiment. As shown in FIG. 24, the first mobile terminal 2B includes a communication unit 21, an imaging unit 22, a microphone 23, a GPS 24, a vibrator 25, a speaker 26, a display unit 27, an acceleration sensor 28, a control and a portion 29B.

第1携帯端末2Bは、例えば、GPS24によって、GNSS(Global Navigation Satellite System)衛星(例えば、GPS衛星)から受信した信号に基づいて、第1携帯端末2Bの位置(つまり、児童の位置)を特定し、特定した位置を示す位置情報をデータセンター4Bに送信する。以降の説明において、第1携帯端末2Bの位置を児童の位置とも記載する。 The first mobile terminal 2B identifies the position of the first mobile terminal 2B (that is, the position of the child) based on signals received from GNSS (Global Navigation Satellite System) satellites (eg, GPS satellites) by the GPS 24, for example. and transmits position information indicating the specified position to the data center 4B. In the following description, the position of the first mobile terminal 2B is also referred to as the child's position.

なお、情報通信システム1Bは、児童の位置が特定することができる手法であれば、GPS24以外の手法を採用してもよい。例えば、第1携帯端末2Bは、BLE(Bluetooth(登録商標)Low Energy)、PDR(Pedestrian Dead Reckoning)、IMES(Indoor MEssaging System)、SLAM(Simultaneous Localization and Mapping)等の手法によって、第1携帯端末2Bの位置を特定してもよい。第1携帯端末2Bは、撮像部22によって撮像された周辺の情報に基づいて、第1携帯端末2Bの位置を特定してもよい。情報通信システム1Bは、例えば、第1携帯端末2Bの位置を特定する他のシステムから第1携帯端末2Bの位置を取得する構成であってもよい。例えば、他のシステムは、地理的位置に設置される検出装置を備え、検出装置が自装置の近傍に存在する第1携帯端末2Bを検出することによって、第1携帯端末2Bの位置を特定してもよい。 Note that the information communication system 1B may employ a technique other than the GPS 24 as long as the technique is capable of specifying the position of the child. For example, the first mobile terminal 2B uses a technique such as BLE (Bluetooth (registered trademark) Low Energy), PDR (Pedestrian Dead Reckoning), IMES (Indoor Messaging System), or SLAM (Simultaneous Localization and Mapping) to 2B may be located. The first mobile terminal 2B may identify the position of the first mobile terminal 2B based on the surrounding information captured by the imaging unit 22 . The information communication system 1B, for example, may be configured to acquire the position of the first mobile terminal 2B from another system that specifies the position of the first mobile terminal 2B. For example, another system includes a detecting device installed at a geographical location, and the detecting device detects the first mobile terminal 2B existing in the vicinity of the own device, thereby specifying the position of the first mobile terminal 2B. may

制御部29Bは、例えば、制御部29が備える構成に加えて接近判定部291をその機能部として備える。制御部29Bは、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサが記憶部(不図示)に格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 The control unit 29B includes, for example, an approach determination unit 291 as its functional unit in addition to the configuration of the control unit 29 . The control unit 29B is implemented, for example, by a hardware processor such as a CPU (Central Processing Unit) executing a program (software) stored in a storage unit (not shown). Some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). (including circuitry), or by cooperation of software and hardware.

接近判定部291は、例えば、第1携帯端末2Bが備える検出機能の検出結果に基づいて、児童の周囲に存在する物体が児童に接近したか否かを判定する。以降の説明において、第1携帯端末2Bが備える検出機能が撮像部22である場合について説明する。 The approach determination unit 291 determines whether or not an object existing around the child has approached the child, for example, based on the detection result of the detection function provided in the first mobile terminal 2B. In the following description, the case where the detection function provided in the first mobile terminal 2B is the imaging unit 22 will be described.

図20に戻り、データセンター4Bは、通信部41と、制御部42Bと、モデル記憶部43と、記憶部44Bと、音声認識モデル記憶部45と、音声認識部46と、シナリオ記憶部47とを備える。制御部42Bは、例えば、報知部421をその機能部として備える。制御部42Bは、例えば、CPUなどのハードウェアプロセッサが記憶部44Bに格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部を含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 Returning to FIG. 20, the data center 4B includes a communication unit 41, a control unit 42B, a model storage unit 43, a storage unit 44B, a voice recognition model storage unit 45, a voice recognition unit 46, and a scenario storage unit 47. Prepare. The control unit 42B has, for example, a notification unit 421 as its functional unit. The control unit 42B is implemented, for example, by a hardware processor such as a CPU executing a program (software) stored in the storage unit 44B. Some or all of these components may be implemented by hardware (including circuit units) such as LSI, ASIC, FPGA, and GPU, or by cooperation of software and hardware. good too.

記憶部44Bは、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)又はRAM(Random Access Memory)などにより実現される。記憶部44Bには、例えば、地図情報と、危険情報と、不審者情報とが記憶される。なお、本実施形態において、不審者情報には、不審者が現れた位置情報や現れた時刻等に加えて、不審者パターンが含まれているものとする。不審者パターンとは、不審者の行動や挙動の特徴を示す情報である。 The storage unit 44B is implemented by, for example, an HDD, flash memory, EEPROM (Electrically Erasable Programmable Read Only Memory), ROM (Read Only Memory), RAM (Random Access Memory), or the like. The storage unit 44B stores, for example, map information, danger information, and suspicious person information. In this embodiment, it is assumed that the suspicious person information includes a suspicious person pattern in addition to position information and time of appearance of a suspicious person. A suspicious person pattern is information that indicates the characteristics of the actions and behaviors of a suspicious person.

報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備える報知機能を制御し、児童に物体の接近を報知する。第1携帯端末2Bが備える報知機能は、例えば、バイブレータ25、スピーカ26等である。以降の説明では、データセンター4B(報知部421)が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を動作(振動)させることにより、児童に物体の接近を報知する場合について説明する。なお、以降の説明において、報知部421が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を振動させることを、報知部421がバイブレータ25を振動させるとも記載する。本実施形態の報知部421は、児童に接近する物体のうち、車両の接近と、不審者の接近を児童に報知する。 Based on the captured image of the imaging unit 22 received from the first mobile terminal 2B, if the object is approaching the child, the notification unit 421 controls the notification function provided in the first mobile terminal 2B to notify the child of the object. Notify approach. The notification function provided in the first mobile terminal 2B is, for example, the vibrator 25, the speaker 26, and the like. In the following description, the data center 4B (notification unit 421) transmits a control signal for the vibrator 25 to the first mobile terminal 2B, and the first mobile terminal 2B operates (vibrates) the vibrator 25 based on the control signal. A case will be described in which the child is notified of the approach of an object by causing the child to move. In the following description, the notification unit 421 transmits a control signal for the vibrator 25 to the first mobile terminal 2B, and the first mobile terminal 2B vibrates the vibrator 25 based on the control signal. It is also described that 421 causes the vibrator 25 to vibrate. The notification unit 421 of this embodiment notifies the child of the approach of a vehicle and the approach of a suspicious person among the objects approaching the child.

図22は、第3実施形態に係る報知の開始タイミングを模式的に示す図である。図22において、児童Aは、交差点の方向に直進し、交差点を右折する経路(図示する経路rt)を歩行する。児童Bは、児童Aの近傍(例えば、数~十数[m])に存在する児童であり、児童Aが右折した先の横断歩道を横断する。また、児童Bの近くには、児童Aの方向に進行する車両(図示する車両m)が存在する。なお、児童Aは、建物が壁となって、車両mを視認することができない。 FIG. 22 is a diagram schematically showing start timing of notification according to the third embodiment. In FIG. 22, child A walks along a route (route rt shown) that goes straight toward the intersection and turns right at the intersection. Child B is a child in the vicinity of Child A (for example, several to ten-odd [m]), and crosses the pedestrian crossing ahead of Child A turning right. Also, near child B, there is a vehicle (vehicle m in the drawing) traveling in the direction of child A. FIG. It should be noted that the child A cannot visually recognize the vehicle m because the building acts as a wall.

本実施形態の第1携帯端末2Bが備える撮像部22は、例えば、移動者(図示する児童A、及び児童B)の周囲を撮像可能なように構成される。図22に示される一例では、児童Aが備える第1携帯端末2B-1の撮像部22の撮像範囲について説明する。なお、図22には図示されていないが、児童Bが保持する第1携帯端末2B-2の撮影部22についても、児童Aが保持する第1携帯端末2B-1と同様の撮像範囲を備えるものとする。 The imaging unit 22 included in the first mobile terminal 2B of the present embodiment is configured, for example, so as to be able to capture an image of the surroundings of a moving person (child A and child B shown in the figure). In one example shown in FIG. 22, the imaging range of the imaging unit 22 of the first mobile terminal 2B-1 provided by the child A will be described. Although not shown in FIG. 22, the imaging unit 22 of the first mobile terminal 2B-2 held by the child B also has the same imaging range as the first mobile terminal 2B-1 held by the child A. shall be

撮像部22は、例えば、複数(図示では、3つ)のカメラによって構成され、第1携帯端末2Bの周囲(図示する児童Aの周囲と、児童Bの周囲とのそれぞれ)を撮像可能なように、撮像方向が異なる向きに設けられる。第1携帯端末2Bの撮影部22は、それぞれ異なる範囲(図示する撮像範囲AR1~AR3)を撮像する。撮像部22は、児童の周囲を360[度]撮像可能であれば、撮像範囲AR1~AR3のそれぞれは、互いに重畳していてもよい。本実施形態の撮像部22は、所定の時間間隔毎に児童の周囲を撮像し、撮像画像を生成する。なお、撮像部22は、児童の周囲を撮像することが可能であれば、1つ、又は2つのカメラを備える構成であってもよく、4つ以上のカメラを備える構成であってもよい。 The imaging unit 22 is configured by, for example, a plurality of (three in the figure) cameras, and is capable of imaging the surroundings of the first mobile terminal 2B (the surroundings of the child A and the child B shown in the drawing). In addition, the imaging directions are provided in different directions. The imaging unit 22 of the first mobile terminal 2B images different ranges (imaging ranges AR1 to AR3 shown in the drawing). If the imaging unit 22 can capture 360 [degrees] around the child, the imaging ranges AR1 to AR3 may overlap each other. The imaging unit 22 of this embodiment images the surroundings of the child at predetermined time intervals to generate a captured image. Note that the imaging unit 22 may be configured to include one or two cameras, or may be configured to include four or more cameras, as long as it is possible to capture an image of the surroundings of the child.

なお、第1携帯端末2Bは、児童の周囲環境を検出することができる手法であれば、撮像部22以外の手法を採用してもよい。例えば、第1携帯端末2Bは、レーダー、ライダー、或いは赤外線センサによって、児童の周囲環境を検出してもよい。また、撮像部22によって生成される画像は、静止画像に限らず、動画であってもよい。 Note that the first mobile terminal 2B may employ a technique other than the imaging unit 22 as long as it is a technique capable of detecting the child's surrounding environment. For example, the first mobile terminal 2B may detect the child's surrounding environment using radar, lidar, or an infrared sensor. Also, the image generated by the imaging unit 22 is not limited to a still image, and may be a moving image.

接近判定部291は、撮像部22によって生成された撮像画像に基づいて、児童の位置から所定距離(図示する第2所定距離dt2)だけ離れた位置(つまり、図示する所定範囲ARC)まで物体が接近した場合、児童に物体が接近したと判定し、撮像部22の撮像画像をデータセンター4Bに送信する。第2所定距離dt2は、数[m]程度の距離である。 Based on the captured image generated by the image capturing unit 22, the proximity determination unit 291 determines whether the object reaches a position (that is, a predetermined range ARC illustrated) that is a predetermined distance (a second predetermined distance dt2 illustrated) from the position of the child. When the child approaches, it is determined that the object has approached the child, and the captured image of the imaging unit 22 is transmitted to the data center 4B. The second predetermined distance dt2 is a distance of several [m].

データセンター4Bの報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備えるバイブレータ25を制御し、車両の接近、又は不審者の接近を児童に報知する。 The notification unit 421 of the data center 4B controls the vibrator 25 provided in the first mobile terminal 2B when an object is approaching the child based on the captured image of the imaging unit 22 received from the first mobile terminal 2B, Notify children of approaching vehicles or suspicious persons.

図23は、第3実施形態に係る接近判定部291及び報知部421の処理の一例を示すフローチャートである。この処理においても、第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別しない場合には、総称して第1携帯端末2Bと記載する。まず、接近判定部291は、撮像部22によって撮像された撮像画像を取得する(ステップS100)。次に、接近判定部291は、取得した撮像画像に基づいて、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満であるか否かを判定する(ステップS102)。接近判定部291は、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満ではないと判定する間、待機する。 FIG. 23 is a flow chart showing an example of processing of the approach determination unit 291 and the notification unit 421 according to the third embodiment. Also in this process, when the first mobile terminal 2B-1 and the first mobile terminal 2B-2 are not distinguished from each other, they are collectively referred to as the first mobile terminal 2B. First, the proximity determination unit 291 acquires a captured image captured by the imaging unit 22 (step S100). Next, based on the acquired captured image, the proximity determination unit 291 determines whether or not the distance from the child to the object captured in the captured image is less than the second predetermined distance dt2 (step S102). The proximity determination unit 291 waits while determining that the distance from the child to the object captured in the captured image is not less than the second predetermined distance dt2.

報知部421は、接近判定部291によって児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満である(つまり、物体が接近している)と判定された場合、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の移動者(この一例では、他の児童)が存在するか否かを判定する(ステップS104)。接近判定部291は、例えば、常時、又は所定の時間間隔毎に情報通信システム1Bが備える複数の第1携帯端末2Bからそれぞれの位置情報を取得する。そして、接近判定部291は、取得したそれぞれの位置情報に基づいて、ステップS102において物体が接近していると判定された児童の近傍(例えば、数~十数[m])に他の児童が存在するか否かを判定する。 When the proximity determination unit 291 determines that the distance from the child to the object captured in the captured image is less than the second predetermined distance dt2 (that is, the object is approaching), the notification unit 421 determines that the object is approaching. It is determined whether or not there is another moving person holding the first mobile terminal 2B (in this example, another child) near the child determined to be moving (step S104). For example, the proximity determination unit 291 acquires position information from each of the plurality of first mobile terminals 2B included in the information communication system 1B at all times or at predetermined time intervals. Then, based on the acquired position information, the approach determination unit 291 determines that there is another child in the vicinity (for example, several to ten-odd [m]) of the child whose object is determined to be approaching in step S102. Determine if it exists.

接近判定部291は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在しない場合、処理をステップS110に進める。報知部421は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在する場合、接近している物体が、他の児童の方向に移動するか否かを判定する(ステップS106)。報知部421は、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の児童が存在する場合であって、且つ物体が他の児童の方向に移動する場合、他の児童の第1携帯端末2Bに物体の接近を報知する(ステップS108)。次に、接近判定部291は、ステップS102において物体が接近していると判定された児童に、物体の接近を児童に報知する物体接近報知処理を行い(ステップS110)、処理を終了する。 If there is no other child near the child whose object was determined to be approaching in step S102, approach determination unit 291 advances the process to step S110. If another child exists in the vicinity of the child whose object is determined to be approaching in step S102, the notification unit 421 determines whether the approaching object moves in the direction of the other child. Determine (step S106). The informing unit 421 detects the presence of another child holding the first mobile terminal 2B in the vicinity of the child determined to be approaching the object, and the object moves in the direction of the other child. In this case, the first mobile terminal 2B of another child is notified of the approach of the object (step S108). Next, the approach determination unit 291 performs object approach notification processing for notifying the child of the approach of the object to the child determined in step S102 that the object is approaching (step S110), and ends the processing.

図24は、図23に示されるステップS110の物体接近報知処理の詳細を示すフローチャートである。まず、報知部421は、ステップS100において撮像された撮像画像に示される物体が所定の大きさ以上であるか否かを判定する(ステップS200)。所定の大きさは、例えば、一般的な車両の大きさである。報知部421は、撮像画像に示される物体の大きさが所定の大きさ以上であると判定した場合、物体が車両であると判定する(ステップS202)。報知部421は、ステップS300において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS204)。報知部421は、ステップS100において取得された撮像画像と、ステップ404において取得された撮像画像とに基づいて、車両の速度が所定速度以上であるか否かを判定する(ステップS206)。所定速度は、例えば、数~数十[km/h]程度の速度である。 FIG. 24 is a flow chart showing details of the object approach notification process in step S110 shown in FIG. First, the notification unit 421 determines whether or not the object shown in the captured image captured in step S100 has a predetermined size or larger (step S200). The predetermined size is, for example, the size of a typical vehicle. When the notification unit 421 determines that the size of the object shown in the captured image is equal to or larger than the predetermined size, the notification unit 421 determines that the object is a vehicle (step S202). The notification unit 421 acquires a captured image generated (captured) after the captured image acquired in step S300 (step S204). The notification unit 421 determines whether the speed of the vehicle is equal to or higher than a predetermined speed based on the captured image acquired in step S100 and the captured image acquired in step S404 (step S206). The predetermined speed is, for example, a speed of several to several tens [km/h].

報知部421は、車両の速度が所定速度以上ではない場合、車両が児童の近傍を通過し終えたか否かを判定する(ステップS208)。報知部421は、車両が児童の近傍を通過し終えた場合、児童に危険が及ばないと推定し、児童に車両の接近を知らせる報知を開始せず、処理を終了する。報知部421は、車両が児童の近傍を通過し終えていないと判定する間、ステップS204~S206を繰り返す。報知部421は、ステップS204~S206において、児童に接近する車両が所定速度以上ではない場合、接近しても児童に危険が及ばないと推定し、報知を開始しない。 If the speed of the vehicle is not equal to or higher than the predetermined speed, the notification unit 421 determines whether or not the vehicle has passed the vicinity of the child (step S208). When the vehicle has passed the vicinity of the child, the notification unit 421 presumes that the child is out of danger, and terminates the process without starting notification of the approach of the vehicle to the child. The notification unit 421 repeats steps S204 to S206 while determining that the vehicle has not finished passing the vicinity of the child. In steps S204 to S206, if the speed of the vehicle approaching the child is less than a predetermined speed, the notification unit 421 presumes that the child will not be in danger even if the vehicle approaches, and does not start the notification.

報知部421は、物体が所定の大きさ以上ではないと判定した場合、物体の移動パターンが不審者のパターンと合致するか否かを判定する(ステップS210)。不審者のパターンは、例えば、(1)児童の移動に係る単位期間中(例えば、ある日の登校中や、ある日の下校等)に、所定回数以上特定の物体に遭遇する、(2)児童の移動に係る単位期間中に、児童の移動経路に合致する経路を物体が行ったり来たりする、(3)物体の特徴が不審者情報の不審者の特徴と合致する等である。報知部421は、物体の移動パターンが不審者のパターンと合致しないと判定した場合、物体が不審者ではないと推定し、児童に物体の接近を知らせる報知を開始せず、処理を終了する。 When the notification unit 421 determines that the object is not larger than the predetermined size, it determines whether or not the movement pattern of the object matches the suspicious person's pattern (step S210). Patterns of suspicious persons include, for example: (1) Encountering a specific object more than a predetermined number of times during a unit period related to movement of a child (for example, on the way to and from school on a certain day), and (2) During a unit period related to the child's movement, the object moves back and forth along a route that matches the child's movement route, and (3) the characteristics of the object match the characteristics of the suspicious person in the suspicious person information. If the notification unit 421 determines that the movement pattern of the object does not match the pattern of the suspicious person, it presumes that the object is not a suspicious person, and ends the processing without starting the notification of the approach of the object to the child.

報知部421は、ステップS206において車両の速度が所定の速度以上であると判定した場合、又はステップS210において物体の移動パターンが不審者のパターンと合致する(つまり、物体が不審者である)と判定した場合、車両、又は不審者の接近を児童に知らせる報知を開始する(ステップS212)。 The notification unit 421 determines in step S206 that the speed of the vehicle is equal to or higher than the predetermined speed, or in step S210 determines that the movement pattern of the object matches the pattern of the suspicious person (that is, the object is a suspicious person). If it is determined, a notification is started to inform the child of the approach of the vehicle or the suspicious person (step S212).

報知部421は、ステップS100において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS214)。報知部421は、ステップS100において取得された撮像画像と、ステップS214において取得された撮像画像とに基づいて、車両、又は不審者が児童に近づいているか否かを判定する(ステップS215)。報知部421は、車両、又は不審者が児童に近づいている場合、報知量を増加させ(ステップS218)、処理をステップS216に進める。 The notification unit 421 acquires a captured image generated (captured) after the captured image acquired in step S100 (step S214). The notification unit 421 determines whether or not a vehicle or a suspicious person is approaching the child based on the captured image acquired in step S100 and the captured image acquired in step S214 (step S215). If a vehicle or a suspicious person is approaching the child, the notification unit 421 increases the amount of notification (step S218), and advances the process to step S216.

報知部421は、車両、又は不審者が児童に近づいていない場合、車両、又は不審者が児童の近傍を通過し終えたか否かを判定する(ステップS220)。報知部421は、車両、又は不審者が児童の近傍を通過し終えるまでの間、ステップS216~S218の処理を繰り返す。報知部421は、車両、又は不審者が児童の近傍を通過し終えた場合、報知部421は、報知を停止する(ステップS222)。 If the vehicle or the suspicious person is not approaching the child, the notification unit 421 determines whether the vehicle or the suspicious person has passed the vicinity of the child (step S220). The notification unit 421 repeats the processing of steps S216 to S218 until the vehicle or the suspicious person finishes passing near the child. When the vehicle or the suspicious person has passed by the child, the notification unit 421 stops the notification (step S222).

図25は、近傍に存在する他の児童に車両、又は不審者が接近した場合の報知部421の処理の一例を示すフローチャートである。ここでは、第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別して記載する。まず、報知部421は、第1携帯端末2B-1によって児童(例えば、児童A)に報知が開始されているか否かを判定する(ステップS300)。報知部421は、児童Aに報知が開始されている場合、他の児童(例えば、児童B)に車両、又は不審者が接近したとしても、既に報知が開始されているため、処理を終了する。報知部421は、児童Aに報知が開始されていない場合、児童Bの第1携帯端末2B-2から児童Bに車両、又は不審者が接近したことを示す情報を受信したか否かを判定する(ステップS302)。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信するまでの間、ステップS300~S302の処理を繰り返す。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信した場合、児童に車両、又は不審者の接近の報知を開始する(ステップS304)。 FIG. 25 is a flow chart showing an example of processing of the notification unit 421 when a vehicle or a suspicious person approaches another child in the vicinity. Here, the first mobile terminal 2B-1 and the first mobile terminal 2B-2 are described separately from each other. First, the notification unit 421 determines whether or not the first portable terminal 2B -1 has started to notify the child (for example, child A) (step S300). When the notification unit 421 has started to notify Child A, even if another child (for example, Child B) is approached by a vehicle or a suspicious person, the notification unit 421 ends the process because the notification has already started. . If the notification to Child A has not been started, the notification unit 421 determines whether information indicating that a vehicle or a suspicious person has approached Child B has been received from Child B's first portable terminal 2B -2 . (step S302). The notification unit 421 repeats the processing of steps S300 to S302 until it receives information indicating that a vehicle or a suspicious person has approached the child B. FIG. When the notification unit 421 receives information indicating that a vehicle or a suspicious person has approached Child B, the notification unit 421 starts to notify Child A of the approach of the vehicle or suspicious person (step S304).

図22に示される場面では、上述した処理によって、児童Aは、建物が壁となって車両mを視認することができず、且つ車両mに関する報知がされないが、児童Bの第1携帯端末2B-2によって車両mの接近を報知される。このため、児童Aは、視認することはできないが、近傍に物体(この場合は、車両m)が接近していることを報知により把握し、周囲に注意しながら移動することができる。 In the scene shown in FIG. 22, the above-described process prevents the child A from seeing the vehicle m because the building is a wall, and the vehicle m is not notified. -2 indicates the approach of vehicle m. For this reason, although the child A cannot visually recognize it, he or she can be notified that an object (in this case, the vehicle m) is approaching, and can move while paying attention to the surroundings.

以上説明したように、本実施形態の情報通信システム1Bは、より適切に車両、又は不審者の接近を児童に報知することができる。また、本実施形態の情報通信システム1Bは、児童に車両や不審者が接近していなくても、児童の近傍に存在する他の児童に車両や不審者が接近していることを児童に報知することができる。 As described above, the information communication system 1B of the present embodiment can more appropriately notify children of the approach of a vehicle or a suspicious person. In addition, the information communication system 1B of the present embodiment notifies a child that a vehicle or a suspicious person is approaching another child in the vicinity of the child, even if the child is not approached by a vehicle or a suspicious person. can do.

[第4実施形態]
第3実施形態では、児童に接近する物体や人物を児童に報知する場合について説明した。第4実施形態では、地理的位置の接近を児童に報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Fourth embodiment]
In the third embodiment, a case has been described in which the child is notified of an object or person approaching the child. In the fourth embodiment, a case will be described in which children are notified of an approaching geographical position. In addition, the same code|symbol is attached|subjected about the structure similar to embodiment and the modification which were mentioned above, and description is abbreviate|omitted.

図26は、第4実施形態の情報通信システム1Bの構成の一例を示す図である。第4実施形態の情報通信システム1Bのデータセンター4Bが備える記憶部44Bは、地理的位置情報を更に記憶する。 FIG. 26 is a diagram showing an example of the configuration of the information communication system 1B of the fourth embodiment. A storage unit 44B provided in the data center 4B of the information communication system 1B of the fourth embodiment further stores geographical position information.

本実施形態の報知部421は、第1携帯端末2Bの位置情報と、地理的位置情報とに更に基づいて、地理的位置の接近を、第1携帯端末2Bを保持する移動者(例えば、児童)に報知する。地理的位置情報は、地理的位置を示す情報である。地理的位置は、児童が通行する経路上の位置であり、且つ児童に危険が及ぶ可能性が有る位置である。地理的位置には、例えば、経路上の交差点、車道と区分された歩道上の位置、倒壊の可能性がある構造物の近傍等が含まれる。以降の説明において、位置情報には、児童の登下校時に歩行する経路上の地理的位置が含まれる場合について説明する。 The notification unit 421 of the present embodiment notifies a person (for example, a child) holding the first mobile terminal 2B of the approach of the geographical position based on the location information of the first mobile terminal 2B and the geographical location information. ). Geographical location information is information that indicates a geographical location. A geographical location is a location on a route that a child travels and a location where the child may be in danger. Geographic locations include, for example, intersections on routes, locations on sidewalks separated from roadways, and the vicinity of structures that may collapse. In the following explanation, the case where the position information includes the geographical position on the route that the child walks to and from school will be explained.

報知部421は、第1携帯端末2Bから取得した第1携帯端末2Bの位置情報と、地理的位置情報とに基づいて、児童が地理的位置に接近している場合、バイブレータ25を振動させ、児童に地理的位置の接近を報知する。 The notification unit 421 vibrates the vibrator 25 when the child is approaching the geographical position based on the position information of the first mobile terminal 2B acquired from the first mobile terminal 2B and the geographical position information, Notify children of approaching geographic locations.

図27は、第4実施形態に係る報知の開始タイミングを模式的に示す図である。図27に示される一例において、地理的位置PT1は、交差点の位置に予め設定される。ここで、地理的位置PTは、交差点の中央よりも、児童が歩行する経路rt上に設定されることが好ましい。例えば、車道と歩道とが区分された道において、経路rtは、歩道であり、地理的位置PTは、歩道上(より具体的には、歩道と車道との境界)に設定される。 FIG. 27 is a diagram schematically showing start timing of notification according to the fourth embodiment. In one example shown in FIG. 27, the geographical position PT1 is preset to the position of the intersection. Here, the geographical position PT is preferably set on the route rt along which the child walks rather than on the center of the intersection. For example, on a road divided into a roadway and a sidewalk, the route rt is the sidewalk, and the geographical position PT is set on the sidewalk (more specifically, the boundary between the sidewalk and the roadway).

報知部421は、地理的位置PT1から所定距離(図示する第1所定距離dt1)だけ離れた位置(つまり、図示する所定範囲ARP)まで児童が接近した場合、バイブレータ25を動作させ、児童Aに地理的位置PT1の接近を報知する。第1所定距離dt1は、例えば、数[m]程度の距離である。また、報知部421は、地理的位置PT1までの距離に応じて、報知の強度(この場合、振動の強度)を変化させてもよい。児童は、バイブレータ25によって地理的位置PT1(つまり、交差点)を報知されることにより、周囲に注意しながら歩行する。このため、情報通信システム1Bは、児童と、児童の進行方向に進行する車両(図示する車両m)とが接触することを抑制することができる。 Informing unit 421 operates vibrator 25 when a child approaches a position (that is, predetermined range ARP in the drawing) that is a predetermined distance (first predetermined distance dt1 in the drawing) away from geographical position PT1, and alerts child A to The approach of the geographical position PT1 is notified. The first predetermined distance dt1 is, for example, a distance of several [m]. Also, the notification unit 421 may change the intensity of notification (in this case, the intensity of vibration) according to the distance to the geographical position PT1. The child is informed of the geographical position PT1 (that is, the intersection) by the vibrator 25, and walks while paying attention to the surroundings. Therefore, the information communication system 1B can suppress contact between the child and a vehicle (vehicle m shown in the figure) traveling in the direction in which the child is traveling.

図28は、第4実施形態に係る報知部421の処理の一例を示すフローチャートである。報知部421は、図28に示される処理を、所定の時間間隔毎に実行する。まず、報知部421は、第1携帯端末2Bから児童の位置を示す位置情報を取得する(ステップS400)。次に、報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であるか否かを判定する(ステップS402)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満ではない場合、処理を終了する。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満である場合、地理的位置PTの接近を児童に報知する地理的位置接近報知処理を行い(ステップS404)、処理を終了する。 FIG. 28 is a flowchart showing an example of processing of the notification unit 421 according to the fourth embodiment. The notification unit 421 executes the process shown in FIG. 28 at predetermined time intervals. First, the notification unit 421 acquires position information indicating the position of the child from the first mobile terminal 2B (step S400). Next, the notification unit 421 determines whether or not the distance from the child's position to the geographical position PT is less than the first predetermined distance dt1 (step S402). If the distance from the child's position to the geographical position PT is not less than the first predetermined distance dt1, the notification unit 421 ends the process. If the distance from the child's position to the geographical position PT is less than the first predetermined distance dt1, the notification unit 421 performs a geographical position approaching notification process for notifying the child that the geographical position PT is approaching (step S404). , terminate the process.

図29は、図28に示されるステップS404の地理的位置接近報知処理の詳細を示すフローチャートである。まず、報知部421は、地理的位置の接近を児童に知らせる報知を開始する(ステップS500)。この一例では、報知部421は、バイブレータ25の振動を開始させる。次に、報知部421は、GPS24によって児童の位置を取得する(ステップS502)。次に、報知部421は、ステップS400において取得した児童の位置と、ステップS502において取得した児童の位置とに基づいて、児童が地理的位置PTに近づいているか否かを判定する(ステップS504)。報知部421は、児童が地理的位置PTに近づいていると判定した場合、バイブレータ25の報知量を増加させ(ステップS506)、処理をステップS512に進める。報知量を増加させるとは、例えば、バイブレータ25の振動を大きくしたり、振動の頻度を多くしたりすることである。 FIG. 29 is a flow chart showing details of the geographical position approach notification process in step S404 shown in FIG. First, the reporting unit 421 starts reporting to inform the child that the geographical position is approaching (step S500). In this example, the notification unit 421 causes the vibrator 25 to start vibrating. Next, the notification unit 421 acquires the position of the child using the GPS 24 (step S502). Next, the reporting unit 421 determines whether or not the child is approaching the geographical position PT based on the child's position acquired in step S400 and the child's position acquired in step S502 (step S504). . If the notification unit 421 determines that the child is approaching the geographical position PT, it increases the notification amount of the vibrator 25 (step S506), and advances the process to step S512. Increasing the notification amount means, for example, increasing the vibration of the vibrator 25 or increasing the frequency of vibration.

報知部421は、児童が地理的位置PTに近づいていないと判定した場合、児童が地理的位置PTから遠ざかっているか否かを判定する(ステップS508)。報知部421は、児童が地理的位置PTから遠ざかっていると判定した場合、バイブレータ25の報知量を減少させ(ステップS510)、処理をステップS512に進める。報知量を減少させるとは、バイブレータ25の振動を小さくしたり、振動の頻度を少なくしたりすることである。報知部421は、児童が地理的位置PTに近づいても遠ざかってもいないと判定した場合、バイブレータ25の報知量を変更せず、処理をステップS512に進める。 When the notification unit 421 determines that the child is not approaching the geographical position PT, it determines whether the child is moving away from the geographical position PT (step S508). If the notification unit 421 determines that the child is moving away from the geographical position PT, it reduces the notification amount of the vibrator 25 (step S510), and advances the process to step S512. Reducing the notification amount means reducing the vibration of the vibrator 25 or reducing the frequency of vibration. If the notification unit 421 determines that the child neither approaches nor moves away from the geographical position PT, the process proceeds to step S512 without changing the notification amount of the vibrator 25 .

報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であると判定する間(つまり、児童が所定範囲ARPの外に出るまでの間)、ステップS202~S210までの処理を繰り返し、報知量を調整する(ステップS512)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1以上であると判定した場合、報知を停止する(ステップS514)。 While the notification unit 421 determines that the distance from the child's position to the geographical position PT is less than the first predetermined distance dt1 (that is, until the child leaves the predetermined range ARP), steps S202 to S210 The processing up to is repeated to adjust the notification amount (step S512). If the notification unit 421 determines that the distance from the child's position to the geographical position PT is greater than or equal to the first predetermined distance dt1, it stops the notification (step S514).

なお、上述では、児童の位置から地理的位置PTまでの距離が直線距離である場合について説明したが、これに限られない。児童の位置から地理的位置PTまでの距離は、児童の経路rtに沿った距離であってもよい。報知部421は、児童の経路rtに沿った地理的位置PTまでの距離に基づいて、報知を行うことにより、長時間報知が行われることを抑制し、児童が報知状態に慣れることを抑制することができる。 In the above description, the case where the distance from the child's position to the geographical position PT is a straight line distance has been described, but the present invention is not limited to this. The distance from the child's position to the geographical position PT may be the distance along the child's route rt. The notification unit 421 performs notification based on the distance to the geographical position PT along the child's route rt, thereby suppressing long-term notification and preventing the child from becoming accustomed to the notification state. be able to.

以上説明したように、本実施形態の情報通信システム1Bは、より適切に地理的位置の接近を児童に報知することができる。 As described above, the information communication system 1B of the present embodiment can more appropriately notify children of approaching geographical positions.

<他の児童の第1携帯端末2Bからの報知について>
なお、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合、他の児童の第1携帯端末2Bからの報知を行わなくてもよい。これにより、報知部421は、地理的位置PT、車両、或いは不審者の報知を他の報知が妨げることを抑制することができる。また、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合に、他の児童の第1携帯端末2Bからの報知があった場合、報知量を増加させてもよい。これにより、報知部421は、児童により多くの報知を行い、周囲に注意しながら移動させることができる。
<Regarding notifications from other children's first mobile terminals 2B>
In addition, when the notification unit 421 notifies the geographical position PT, the vehicle, or the approach of a suspicious person, it is not necessary to perform the notification from the first mobile terminal 2B of another child. Accordingly, the notification unit 421 can prevent other notifications from interfering with the notification of the geographical position PT, the vehicle, or the suspicious person. In addition, when the notification unit 421 notifies the geographical position PT, the vehicle, or the approach of a suspicious person, if there is a notification from the first mobile terminal 2B of another child, the notification amount is increased. good too. Thereby, the notification unit 421 can give more notification to the child and allow the child to move while paying attention to the surroundings.

<報知手法について>
なお、上述した実施形態において、報知部421がバイブレータ25を振動させることにより、児童に各種報知を行う場合について説明したが、これに限られない。報知は、例えば、スピーカ26が音声を出力することによって行われてもよい。この場合、報知量を増加させるとは、例えば、音声の音量を大きくしたり、音声出力の頻度を多くしたりすることである。
<Notification method>
In the above-described embodiment, the case where the notification unit 421 vibrates the vibrator 25 to give various notifications to the child has been described, but the present invention is not limited to this. The notification may be made, for example, by the speaker 26 outputting sound. In this case, increasing the amount of notification means, for example, increasing the volume of voice or increasing the frequency of voice output.

<移動速度に基づく報知について>
また、上述した実施形態では、児童から地理的位置PTまでの距離に基づいて、報知が開始される場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、報知を行ってもよい。報知部421は、例えば、児童の移動速度が速い場合、移動速度が遅い場合と比して、報知の開始タイミングを速めてもよく、報知量を増加させてもよい。これにより、情報通信システム1Bは、走って道路に飛び出す可能性が高い児童に対して、早急に報知を行うことができる。児童の移動速度は、例えば、加速度センサ28の出力に基づいて、検出されてもよい。この場合、制御部29は、加速度センサ28の出力を積分し、児童の移動速度を導出する。
<Notification based on moving speed>
Also, in the above-described embodiment, a case has been described in which the notification is started based on the distance from the child to the geographical position PT, but the present invention is not limited to this. The notification unit 421 may perform notification based on the child's moving speed. For example, when the child's moving speed is fast, the notification unit 421 may speed up the notification start timing or increase the amount of notification, compared to when the child's moving speed is slow. As a result, the information communication system 1B can promptly notify a child who is likely to run out onto the road. The child's movement speed may be detected based on the output of the acceleration sensor 28, for example. In this case, the controller 29 integrates the output of the acceleration sensor 28 and derives the movement speed of the child.

<地理的位置の接近の検出について>
また、上述した実施形態において、報知部421は、GPS24によって取得された児童の位置情報と、地理的位置情報とに基づいて、地理的位置PTの接近を児童に報知する場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、地理的位置PTの予想到着時刻を導出し、導出した予想到着時刻に基づいて、報知を開始する構成であってもよい。この場合、報知部421は、地理的位置PTから第3所定距離dt3だけ離隔した離隔位置に到着する予想到着時刻を導出し、導出した予想到着時刻において、報知を開始する。
<Regarding detection of approaching geographical location>
In the above-described embodiment, the notification unit 421 has described the case where the child is notified of the approach of the geographical position PT based on the child's position information acquired by the GPS 24 and the geographical position information. It is not limited to this. The reporting unit 421 may be configured to derive the expected arrival time of the geographical position PT based on the moving speed of the child and start reporting based on the derived expected arrival time. In this case, the notification unit 421 derives the estimated arrival time at which the vehicle arrives at the distant position separated by the third predetermined distance dt3 from the geographical position PT, and starts notification at the derived estimated arrival time.

<地理的位置の設定について>
また、上述した実施形態において、地理的位置PTは、予め定められており、記憶部44Bに地理的位置情報として記憶される場合について説明したが、これに限られない。地理的位置PTは、例えば、児童の保護者が所持する第2携帯端末3から指定される構成であってもよい。この場合、第2携帯端末3は、第2携帯端末3の記憶部(不図示)に記憶されたアプリケーションであり、地理的位置PTを設定する際に用いられるアプリケーションを実行する。例えば、このアプリケーションを実行することにより、地図画像が表示部34に表示される。保護者は、第2携帯端末3が備える受付部(不図示)に、児童の登下校時に歩行する経路の開始位置と、終了位置とを入力する。受付部とは、例えば、ボタン、キーボードやマウス等の操作デバイスである。以降の説明において、受付部は、表示部34と一体に形成されるタッチパネルである場合について説明する。第2携帯端末3は、受付部によって受け付けられた開始位置と、終了位置とに基づいて、児童が歩行すると推定される複数の経路rtの候補を地図画像に重畳し、表示部34に提示する。保護者は、提示された複数の経路rtの候補のうち、実際に児童が歩行する経路rtを選択する。
<Regarding geographic location settings>
Further, in the above-described embodiment, the geographical position PT is determined in advance and is stored as geographical position information in the storage unit 44B, but the present invention is not limited to this. The geographic position PT may be specified from the second mobile terminal 3 owned by the child's guardian, for example. In this case, the second mobile terminal 3 is an application stored in a storage unit (not shown) of the second mobile terminal 3 and executes an application used when setting the geographical position PT. For example, a map image is displayed on the display unit 34 by executing this application. The parent/guardian inputs the start position and end position of the child's walking route to and from school in the reception section (not shown) of the second mobile terminal 3 . The reception unit is, for example, an operation device such as a button, keyboard, or mouse. In the following description, a case where the reception unit is a touch panel formed integrally with the display unit 34 will be described. Based on the start position and end position received by the reception unit, the second mobile terminal 3 superimposes a plurality of route rt candidates along which the child is estimated to walk on the map image and presents them on the display unit 34. . The guardian selects the route rt that the child actually walks from among the presented candidates for the route rt.

次に、受付部は、選択(指定)された経路rt上の位置であって、児童に所定動作を行わせたい地理的位置PTを指定する保護者の操作を受け付ける。記憶部44Bの地理的位置PT情報には、保護者によって指定された地理的位置PTを示す情報が含まれる。これにより、情報通信システム1Bは、保護者が指定した地理的位置PTの接近を児童に報知することができる。 Next, the reception unit receives an operation by the guardian to designate a geographical position PT, which is a position on the selected (designated) route rt, at which the child is desired to perform a predetermined action. The geographical position PT information in the storage unit 44B includes information indicating the geographical position PT designated by the guardian. Thereby, the information communication system 1B can notify the child of the approach of the geographical position PT specified by the guardian.

なお、受付部は、表示された地図画像に対して保護者が経路の位置をタッチパネルになぞって入力することにより、実際に児童が歩行する経路rtを指定する構成であってもよい。また、制御部36Bは、保護者がこの操作において指定する位置(例えば、経路rtの開始位置、終了位置、及び地理的位置PT)が、経路rt上や歩道上ではない場合、指定した位置の近傍の経路rt上や歩道上の位置に補正してもよい。 The receiving unit may be configured so that the parent/guardian traces the position of the route on the touch panel to input the position of the route on the displayed map image, thereby specifying the route rt that the child actually walks. In addition, if the position specified by the guardian in this operation (for example, the start position, end position, and geographical position PT of the route rt) is not on the route rt or on the sidewalk, the control unit 36B It may be corrected to a position on the nearby route rt or on the sidewalk.

<情報通信システム1Bについて>
なお、上述した実施形態において、情報通信システム1Bのうち、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成と、データセンター4Bが備える構成とについて説明したが、これに限られない。例えば、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成が、データセンター4Bに備えられていてもよく、データセンター4Bに備えられる構成が第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cに備えられていてもよい。また、記憶部44Bに記憶される情報が、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cの記憶部(不図示)に記憶されていてもよい。
<About information communication system 1B>
In the above-described embodiment, the configuration provided in the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C of the information communication system 1B and the configuration provided in the data center 4B have been described. It is not limited to this. For example, the configuration provided in the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C may be provided in the data center 4B, and the configuration provided in the data center 4B may be the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C. It may be provided in the first mobile terminal 2B or the first mobile terminal 2C. Also, the information stored in the storage unit 44B may be stored in the storage unit (not shown) of the first mobile terminal 2, the first mobile terminal 2B, or the first mobile terminal 2C.

なお、本発明におけるデータセンター4(または4A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりデータセンター4(または4A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A program for realizing all or part of the functions of the data center 4 (or 4A) in the present invention is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system. All or part of the processing performed by the data center 4 (or 4A) may be performed by setting and executing. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. Also, the "computer system" includes a WWW system provided with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.

1,1A…情報通信システム、2…第1携帯端末、3…第2携帯端末、4,4A…データセンター、5…サーバ、6…ネットワーク、21…通信部、22…撮像部、23…マイクロフォン、24…GPS、25…バイブレータ、26…スピーカ、27…表示部、28…加速度センサ、29…制御部、31…通信部、32…マイクロフォン、33…操作部、34…表示部、35…スピーカ、36…制御部、41…通信部、42,42A…制御部、43…モデル記憶部、44,44A…記憶部、45…音声認識モデル記憶部、46…音声認識部、47…シナリオ記憶部 DESCRIPTION OF SYMBOLS 1, 1A... Information communication system, 2... 1st portable terminal, 3... 2nd portable terminal, 4, 4A... Data center, 5... Server, 6... Network, 21... Communication part, 22... Imaging part, 23... Microphone , 24 GPS, 25 vibrator, 26 speaker, 27 display unit, 28 acceleration sensor, 29 control unit, 31 communication unit, 32 microphone, 33 operation unit, 34 display unit, 35 speaker , 36... Control unit, 41... Communication unit, 42, 42A... Control unit, 43... Model storage unit, 44, 44A... Storage unit, 45... Speech recognition model storage unit, 46... Speech recognition unit, 47... Scenario storage unit

Claims (8)

第1移動者が保持する第1端末装置に備えられ、前記第1移動者の周囲を認識する認識部と、
前記認識部が認識した前記第1移動者の周囲の情報に基づいて、前記第1移動者の位置から所定距離だけ離れた位置まで物体が接近したことを判定する判定部と、
前記判定部が前記第1移動者に前記物体が接近したことを判定した場合、該第1移動者の近傍に存在する第2移動者が保持する第2端末装置への前記物体の接近を報知する報知部と、
を備える報知システムであって、
前記判定部は、前記第1移動者に接近した前記物体が、前記第2移動者の方向に移動するか否かを判定し、
前記報知部は、前記判定部が、前記物体が前記第2移動者の方向に移動すると判定した場合、前記第2端末装置への前記物体の接近を報知する、
報知システム。
a recognition unit provided in a first terminal device held by a first mover and recognizing the surroundings of the first mover;
a determination unit that determines that an object has approached a position a predetermined distance away from the position of the first mover based on the information about the surroundings of the first mover recognized by the recognition unit;
When the determination unit determines that the object approaches the first mover, the approach of the object to a second terminal held by a second mover present near the first mover is notified. a reporting unit that
A notification system comprising:
The determination unit determines whether or not the object approaching the first mover moves toward the second mover,
The notification unit notifies the approach of the object to the second terminal device when the determination unit determines that the object moves in the direction of the second mobile person.
notification system.
前記物体は、前記第1移動者の周囲の道路を通行する車両である、
請求項1に記載の報知システム。
The object is a vehicle traveling on a road around the first mover,
The notification system according to claim 1.
前記第2移動者は、前記第2移動者の方向に移動する前記車両が通過する交差点に接近する移動者である、
請求項2に記載の報知システム。
The second mover is a mover approaching an intersection through which the vehicle moving in the direction of the second mover passes.
The notification system according to claim 2.
前記判定部は、前記第1移動者に接近した前記車両の速度が所定速度以上であるか否かを判定し、
前記報知部は、前記判定部が前記車両の前記速度が前記所定速度以上であると判定した場合に、前記第2端末装置への前記車両の接近を報知する、
請求項2又は3に記載の報知システム。
The determination unit determines whether the speed of the vehicle approaching the first mover is equal to or higher than a predetermined speed,
The notification unit notifies the approach of the vehicle to the second terminal device when the determination unit determines that the speed of the vehicle is equal to or higher than the predetermined speed.
The notification system according to claim 2 or 3.
前記報知部は、予め定められた地理的位置から他の所定距離だけ手前の位置において、前記地理的位置への接近を前記第2移動者に報知するものであって、
前記地理的位置への接近を前記第2移動者に報知しているときに、前記判定部が、前記物体が前記第2移動者の方向に移動すると判定した場合、前記地理的位置へ接近を報知する報知量を増加させる、
請求項1からのうちいずれか1項に記載の報知システム。
The notification unit notifies the second mover of approaching the geographical position at a position a predetermined distance before the predetermined geographical position,
When the determination unit determines that the object moves in the direction of the second mover while notifying the second mover of the approach to the geographical position, the approach to the geographical position is notified to the second mover. increase the amount of information to be notified,
The notification system according to any one of claims 1 to 3 .
前記報知部は、前記第2移動者が前記地理的位置に近づいている場合、前記地理的位置へ接近を報知する報知量を増加させる、
請求項に記載の報知システム。
When the second mover is approaching the geographical position, the notification unit increases the notification amount for notifying the approach to the geographical position.
The notification system according to claim 5 .
前記報知部は、前記第2移動者が前記地理的位置から遠ざかる場合、前記地理的位置へ接近を報知する報知量を減少させる、
請求項5または6に記載の報知システム。
When the second moving person moves away from the geographical position, the notification unit reduces the amount of notification of the approach to the geographical position.
The notification system according to claim 5 or 6 .
第1移動者が保持する第1端末装置に備えられた認識部が、前記第1移動者の周囲を認識する認識ステップと、
前記認識ステップにおいて、前記認識部が認識した前記第1移動者の周囲の情報に基づいて、前記第1移動者の位置から所定距離だけ離れた位置まで物体が接近したことを判定する判定ステップと、
前記判定ステップにおいて、前記第1移動者に前記物体が接近したことを判定した場合、該第1移動者の近傍に存在する第2移動者が保持する第2端末装置への前記物体の接近を報知する報知ステップと、
を含み、
前記判定ステップは、前記第1移動者に接近した前記物体が、前記第2移動者の方向に移動するか否かを判定するステップを含み、
前記報知ステップは、前記判定ステップにおいて、前記物体が前記第2移動者の方向に移動すると判定した場合、前記第2端末装置への前記物体の接近を報知するステップを含む、
報知方法。
a recognition step in which a recognition unit provided in a first terminal device held by a first mover recognizes the surroundings of the first mover;
a determination step of determining, in the recognition step, that an object has approached a position a predetermined distance away from the position of the first traveler, based on the information about the surroundings of the first traveler recognized by the recognition unit; ,
In the determining step, when it is determined that the object has approached the first mover, the approach of the object to a second terminal held by a second mover present near the first mover is determined. a reporting step of reporting;
including
the determining step includes determining whether or not the object approaching the first mover moves toward the second mover;
The notification step includes a step of notifying the approach of the object to the second terminal device when it is determined in the determination step that the object moves in the direction of the second mobile person.
notification method.
JP2018146318A 2018-08-02 2018-08-02 Notification system Active JP7289618B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018146318A JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018146318A JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Publications (2)

Publication Number Publication Date
JP2020021377A JP2020021377A (en) 2020-02-06
JP7289618B2 true JP7289618B2 (en) 2023-06-12

Family

ID=69589912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018146318A Active JP7289618B2 (en) 2018-08-02 2018-08-02 Notification system

Country Status (1)

Country Link
JP (1) JP7289618B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004285A (en) 2005-06-21 2007-01-11 Toyota Motor Corp Portable alarm device
JP2007279824A (en) 2006-04-03 2007-10-25 Toyota Motor Corp Autonomous mobile robot
JP2013161098A (en) 2012-02-01 2013-08-19 Nikon Corp Server device and monitoring system
JP2017212571A (en) 2016-05-25 2017-11-30 京セラ株式会社 Electronic apparatus, control method, and control program
WO2018008224A1 (en) 2016-07-04 2018-01-11 ソニー株式会社 Robot, robot system, and recording medium

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007004285A (en) 2005-06-21 2007-01-11 Toyota Motor Corp Portable alarm device
JP2007279824A (en) 2006-04-03 2007-10-25 Toyota Motor Corp Autonomous mobile robot
JP2013161098A (en) 2012-02-01 2013-08-19 Nikon Corp Server device and monitoring system
JP2017212571A (en) 2016-05-25 2017-11-30 京セラ株式会社 Electronic apparatus, control method, and control program
WO2018008224A1 (en) 2016-07-04 2018-01-11 ソニー株式会社 Robot, robot system, and recording medium

Also Published As

Publication number Publication date
JP2020021377A (en) 2020-02-06

Similar Documents

Publication Publication Date Title
WO2017168900A1 (en) Information processing device
US11455792B2 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
US10909759B2 (en) Information processing to notify potential source of interest to user
JPWO2018008224A1 (en) Robot, robot system and storage medium
JP7345683B2 (en) A system for performing scene recognition dialogue
JP2024028516A (en) Notification system
US20210154827A1 (en) System and Method for Assisting a Visually Impaired Individual
US11182922B2 (en) AI apparatus and method for determining location of user
US11755033B2 (en) Artificial intelligence device installed in vehicle and method therefor
Ang et al. Information communication assistive technologies for visually impaired people
US11449074B2 (en) Robot for providing guidance service using artificial intelligence and method of operating the same
JP7424974B2 (en) Operation evaluation system
JP6500139B1 (en) Visual support device
JP7289618B2 (en) Notification system
KR102225456B1 (en) Road mate system, and road mate service providing method
JP2023054310A (en) Notification device, first observation device, notification method, control device, and control method
KR20190094312A (en) Control system for controlling a plurality of robots using artificial intelligence
WO2020203605A1 (en) Notification system, notification method, program, and storage medium
WO2020203691A1 (en) Display system, display method, program, and storage medium
JP7397575B2 (en) Traffic light control device and traffic light control method
JP7327963B2 (en) Processing device, photographing device and information processing device
JP2020022128A (en) Terminal device
JP7224958B2 (en) Notification device and notification method
JP7442295B2 (en) Electronics
WO2021085583A1 (en) Electronic instrument

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230531

R150 Certificate of patent or registration of utility model

Ref document number: 7289618

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150