JP7289618B2 - Notification system - Google Patents
Notification system Download PDFInfo
- Publication number
- JP7289618B2 JP7289618B2 JP2018146318A JP2018146318A JP7289618B2 JP 7289618 B2 JP7289618 B2 JP 7289618B2 JP 2018146318 A JP2018146318 A JP 2018146318A JP 2018146318 A JP2018146318 A JP 2018146318A JP 7289618 B2 JP7289618 B2 JP 7289618B2
- Authority
- JP
- Japan
- Prior art keywords
- mobile terminal
- information
- unit
- child
- mover
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、報知システムに関する。 The present invention relates to a notification system.
従来、複数の携帯端末を備えるシステムにおいて、ある携帯端末の位置情報を、センターサーバを介して他の携帯端末に送信する技術が知られている(例えば、特許文献1)。 2. Description of the Related Art Conventionally, in a system having a plurality of mobile terminals, there is known a technique of transmitting position information of a certain mobile terminal to other mobile terminals via a center server (for example, Patent Literature 1).
ここで、移動者は、他の移動者が保持する携帯端末の周囲の情報を共有したり、自身の周囲の情報を発信したりすることにより、より安全に移動したいと考える場合があった。しかしながら、従来の技術では、位置情報を共有することができても、周囲の情報までは共有することまでは困難であった。 Here, there are cases where a mobile person wishes to move more safely by sharing information about the surroundings of a mobile terminal held by another mobile person or sending information about the surroundings of the mobile person. However, with the conventional technology, even if location information can be shared, it is difficult to share surrounding information.
本発明は、上記の問題点に鑑みてなされたものであって、移動者がより安全に移動できるようにする報知システムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a notification system that enables a mobile person to move more safely.
(1):この発明の一態様に係る報知システムは、移動者が保持する端末装置に備えられ、前記移動者の周囲を認識する認識部と、前記移動者に物体が接近した場合、該移動者の近傍に存在する他の移動者が保持する他の端末装置に前記物体の接近を報知する報知部と、を備える。 (1): A notification system according to an aspect of the present invention is provided in a terminal device held by a moving person, and includes a recognition unit that recognizes the surroundings of the moving person, and a reporting unit that reports the approach of the object to another terminal device held by another moving person existing near the person.
(2):上記(1)の態様において、前記物体には、前記移動者の周囲の道路を通行する車両が含まれる。 (2): In the aspect (1) above, the object includes a vehicle traveling on a road around the traveler.
(3):上記(2)の態様において、前記車両には、前記移動者、及び前記他の移動者の方向に移動する車両が含まれる。 (3): In the above aspect (2), the vehicle includes a vehicle that moves in the direction of the mover and the other mover.
(4):上記(2)の態様において、前記他の移動者には、前記車両が通過する交差点に接近する移動者が含まれる。 (4): In the aspect (2) above, the other moving person includes a moving person approaching an intersection through which the vehicle passes.
(5):上記(1)の態様において、前記物体には、前記移動者の周囲を移動する移動者であり、前記他の移動者とは異なる移動者が含まれる。 (5): In the aspect (1) above, the object includes a moving person who moves around the moving person and is different from the other moving person.
(6):上記(5)の態様において、前記認識部は、前記異なる移動者の頭部を認識するものである。 (6): In the aspect of (5) above, the recognition unit recognizes the heads of the different movers.
(7):上記(6)の態様において、前記認識部は、前記頭部のうち、顔を認識するものである。 (7): In the aspect of (6) above, the recognition unit recognizes a face in the head.
(8):上記(5)の態様において、前記報知部は、所定時間内に複数回以上、前記異なる移動者が接近した場合、前記端末装置に前記異なる移動者の接近を報知するものである。 (8): In the aspect of (5) above, the notification unit notifies the terminal device of the approach of the different movers when the different movers approach a plurality of times within a predetermined time. .
(9):上記(1)~(8)の態様において、前記移動者の近傍に存在する前記他の移動者には、前記移動者の移動経路上、又は前記移動者の移動経路の近傍に存在する移動者が含まれる。 (9): In the above aspects (1) to (8), the other mover existing near the mover has a Includes existing movers.
(10):上記(1)~(9)の態様において、前記報知部は、予め定められた所定位置から所定距離だけ手前の位置において、前記所定位置の接近を前記移動者に報知し、且つ前記他の移動者が前記所定位置から所定距離だけ手前の位置に存在する場合、前記移動者に前記所定位置の接近の報知を開始する、又は前記移動者の報知量を増加させるものである。 (10): In the above aspects (1) to (9), the notification unit notifies the moving person of the approach of the predetermined position at a position a predetermined distance before the predetermined position, and When the other moving person exists at a position a predetermined distance before the predetermined position, the moving person is started to be notified of the approach of the predetermined position, or the amount of notification of the moving person is increased.
(11):上記(10)の態様において、前記報知部は、前記所定位置から所定距離だけ離れた位置までの範囲に前記移動者が存在する場合、前記他の移動者の位置に応じて報知量を変更しないものである。 (11): In the above aspect (10), when the moving person exists within a range from the predetermined position to a position separated by a predetermined distance, the notification unit notifies according to the position of the other moving person. It does not change the quantity.
上述した(1)~(11)によれば、移動者がより安全に移動できるようにすることができる。 According to (1) to (11) described above, it is possible to enable the mover to move more safely.
以下、本発明の実施の形態について図面を参照しながら説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[第1実施形態]
<情報通信システム1の構成例>
図1は、本実施形態に係る情報通信システム1の構成例を示す図である。図1に示すように、情報通信システム1は、第1携帯端末2(第1端末)、第2携帯端末3(第2端末)、データセンター4(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4、およびサーバ5それぞれは、ネットワーク6を介して接続されている。
[First embodiment]
<Configuration example of
FIG. 1 is a diagram showing a configuration example of an
ネットワーク6は、例えば移動体通信網である。移動体通信網は、例えば第4世代移動体通信網、第5世代移動体通信網等である。なお、ネットワーク6は、基地局等を含む。
第1携帯端末2は、見守り対象である例えば子供が携帯する端末である。第1携帯端末2は、通信機能を備えるロボットである。第1携帯端末2は、位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報のうちの少なくとも1つを、ネットワーク6を介してデータセンター4へ送信する。第1携帯端末2は、データセンター4が送信した交通情報、メッセージおよび緊急情報のうちの少なくとも1つを、ネットワーク6を介して受信する。なお、第1携帯端末2の構成については後述する。同一グループ歩行者情報とは、一緒に登校または下校している同一グループ歩行者を示す同一グループ歩行者情報である。周辺歩行者情報とは、児童の周辺を歩いている歩行者を示す情報である。車両情報とは、歩行している道路の車両情報である。
The first
第2携帯端末3は、見守り対象である児童の保護者が所持する端末である。第2携帯端末3は、例えばスマートフォン、タブレット端末、スマートウォッチ等である。第2携帯端末3は、データセンター4が送信した第1携帯端末2の位置に関する第1携帯端末位置情報を、ネットワーク6を介して受信する。なお、第1携帯端末位置情報は画像情報である。なお、第2携帯端末3の構成については後述する。
The second
データセンター4は、通信部41、制御部42、モデル記憶部43、および記憶部44を備えている。
通信部41は、第1携帯端末2からネットワーク6を介して受信した位置情報、同一グループ歩行者情報、周辺歩行者情報および車両情報を制御部42に出力する。通信部41は、サーバ5からネットワーク6を介して受信した災害情報や不審者情報や緊急情報を制御部42に出力する。通信部41は、制御部42が出力する危険通知を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する交通情報またはメッセージあるいは緊急情報を、ネットワーク6を介して第1携帯端末2へ送信する。通信部41は、制御部42が出力する第1携帯端末位置情報または緊急通知あるいは音声メッセージを、ネットワーク6を介して第2携帯端末3へ送信する。また、通信部41は、第1携帯端末2から受信した加速度センサ28の検出値を受信し、受信した検出値を制御部42に出力する。なお、加速度センサ28の検出値を用いる例は、第2実施形態で説明する。
The
The
制御部42は、第1携帯端末2から受信した位置情報を記憶部44に格納する。制御部42は、サーバ5から受信した不審者情報を記憶部44に記憶させる。なお、不審者情報には、不審者が現れた位置情報や現れた時刻等が含まれている。
制御部42は、記憶部44が格納する位置情報と地図情報に基づいて、第1携帯端末2を所持する児童の移動軌跡を生成する。制御部42は、地図情報に生成した移動軌跡を合わせた情報を第1携帯端末位置情報として生成する。制御部42は、生成した第1携帯端末位置情報を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と災害情報と不審者情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて危険箇所を設定し、設定した危険箇所を示す情報を記憶部44に記憶させる。なお、危険箇所とは、災害が発生した箇所、交通事故が多い箇所、不審者が現れた箇所等である。制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と、受信した位置情報に基づいて危険通知を生成し、生成した危険通知を通信部41に出力する。
制御部42は、第1携帯端末2から受信した位置情報と車両情報と、サーバ5から受信した緊急情報と、モデル記憶部43が記憶するモデル情報と、記憶部44が記憶する地図情報と位置情報とに基づいて、交通情報、メッセージおよび緊急情報のうち少なくとも1つを生成する。なお、メッセージは音声信号であり、テキスト情報を言語モデルや辞書を用いて周知の手法で音声信号に変換したものである。制御部42は、生成した交通情報、メッセージおよび緊急情報を通信部41に出力する。制御部42は、生成したメッセージを音声メッセージとし、緊急情報を緊急通知として通信部41に出力する。
また、制御部42は、携帯端末の電話番号または識別情報に基づいて、児童が所持する第1携帯端末2と、保護者が所持する第2携帯端末3とを関連付けて記憶部44に記憶させる。これにより、データセンター4は、複数の親子の携帯端末の組に対して処理を行うことができる。
The
The
The
The
In addition, based on the phone number or identification information of the mobile terminal, the
モデル記憶部43は、モデル情報として、統計地域交通モデル、交通予測モデル等を記憶している。
統計地域交通モデルとは、統計的に地域における交通状態等を示すものであり、移動体端末等から地図情報や交通情報に関するデータをデータセンター4が取得し、各地域における交通情報等を統計的に示したモデルである。
交通予測モデルとは、過去に蓄積した各地域における交通状況から将来に渡る該当地域における交通量等を予測するものであり、前記統計地域交通モデルからのデータに基づいて決定してもよい。例えば、第1携帯端末2を所持する児童の登下校のルートにおける、登下校時の交通量もモデルである。
The
A statistical regional traffic model statistically indicates traffic conditions in a region, and the
The traffic prediction model is a model for predicting the future traffic volume and the like in the relevant area based on the traffic conditions in each area accumulated in the past, and may be determined based on the data from the statistical area traffic model. For example, the traffic volume at the time of commuting to and from school on the route of the child carrying the first
記憶部44は、地図情報を記憶する。なお、地図情報には、例えば自宅から学校までの通学路を含む地図、児童が寄り道するお店(例えばスーパー、本屋、文房具屋等)の位置情報、帰宅前に行く塾等の位置情報を含む。また、地図情報には、歩道や道路の経路ネットワーク(岐点、枝)等の情報が含まれている。また、記憶部44は、第1携帯端末2の位置情報を格納する。記憶部44は、危険箇所を示す情報と、不審者情報を記憶する。記憶部44は、危険情報を生成する際に使用される所定値を記憶する。
The
サーバ5は、例えば学校や、区役所等に設置されている。サーバ5は、地震や台風等の自然災害に関する災害情報と、不審者情報等を、ネットワーク6を介してデータセンター4へ送信する。なお、データセンター4は、これらの情報を、サーバ5との通信によって取得するようにしてもよい。
The
次に、情報通信システム1の利用シーン例を説明する。
図2は、本実施形態に係る情報通信システム1の利用シーン例を示す図である。図2に示すように、第1携帯端末2は、例えば形状がマスコット型のロボットであり、例えばランドセルの肩ひも等に取り付けられて用いられる。後述するように、第1携帯端末2は、マイクロフォン、撮像部、スピーカ、GPS(Global Positioning System;衛星測位システム)の衛星(不図示)から測位情報を受信する受信部等を備えている。第1携帯端末2は、第1携帯端末2を所持する児童が発話した音声を取得して送信したり、撮像部が撮影した画像をデータセンター4へ送信したりする。また、第1携帯端末2は、データセンター4が送信した情報やメッセージを受信して再生、報知する。
Next, a usage scene example of the
FIG. 2 is a diagram showing a usage scene example of the
データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した交通情報やメッセージや緊急情報を第1携帯端末2へ送信する。また、データセンター4は、第1携帯端末2から受信した情報、サーバ5から受信した情報に基づいて生成した第1携帯端末位置情報や緊急通知や音声メッセージを第2携帯端末3へ送信する。なお、データセンター4は、例えば登下校時に他の児童が他の第1携帯端末2を所持している場合、これらの複数の第1携帯端末2が捉えたリアルタイム情報(現在位置、同一グループ歩行者情報、周辺歩行者情報、車両情報等)を相互に利用して第2情報または第4情報を生成するようにしてもよい。
The
第2携帯端末3は、第1携帯端末2を所持する児童が歩いているルートを含む地図情報等を含む第1携帯端末位置情報をデータセンター4から受信し、受信した第1携帯端末位置情報を状況情報として表示する。また、第2携帯端末3は、データセンター4が送信した緊急通知や音声メッセージを受信し、受信した緊急通知や音声メッセージを表示または再生する。なお、第2携帯端末3に表示される画像については後述する。
The second
サーバ5は、例えば防災行政無線による放送内容を、ネットワーク6を介してデータセンター4へ送信する。
なお、図2に示した利用シーンは一例であり、これに限らない。
The
Note that the usage scene shown in FIG. 2 is an example, and is not limited to this.
<第1携帯端末2の構成例>
次に、第1携帯端末2の構成例を説明する。
図3は、本実施形態に係る第1携帯端末2の構成例を示すブロック図である。図3に示すように、第1携帯端末2は、通信部21、撮像部22、マイクロフォン23、GPS24(位置検出部)、バイブレータ25、スピーカ26、表示部27、加速度センサ28、および制御部29を備える。なお、第1携帯端末2は、操作部を備えていてもよい。
<Configuration example of the first
Next, a configuration example of the first
FIG. 3 is a block diagram showing a configuration example of the first
通信部21は、制御部29が出力する情報(位置情報、同一グループ歩行者情報、周辺歩行者情報、車両情報)を、ネットワーク6を介してデータセンター4へ送信する。通信部21は、データセンター4が送信した情報(交通情報、メッセージ、緊急情報)を受信し、受信した情報(交通情報、メッセージ、緊急情報)を制御部29に出力する。通信部21は、データセンター4が送信した危険情報を受信し、受信した危険情報を制御部29に出力する。
The
撮像部22は、撮影した画像を制御部29に出力する。なお、画像は静止画であっても動画であってもよい。
The
マイクロフォン23は、収音した音声信号を制御部29に出力する。なお、マイクロフォン23は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。
The
GPS24は、GPSの衛星から測位情報を受信する受信部である。GPS24は、受信した測位情報を制御部29に出力する。なお、第1携帯端末2は、例えば基地局との通信に基づいて現在位置を示す情報を取得するようにしてもよい。
The
バイブレータ25は、振動子であり、制御部29が出力する報知情報に応じて振動を発生させる。
The
スピーカ26は、制御部29が出力する音声信号を再生する。
The
表示部27は、制御部29が出力する報知情報に応じて報知する。表示部27は、例えば3色のLED(発光ダイオード)である。なお、表示部27は、例えば、液晶表示装置、有機EL(エレクトロルミネッセンス)表示装置、電子インク表示装置等であってもよい。
The
加速度センサ28は、第1携帯端末2のXYZ軸の3方向の加速度を検出し、検出した検出結果を制御部29に出力する。
The
制御部29は、撮像部22が出力する画像を取得する。制御部29は、マイクロフォン23が出力する音声信号を取得する。制御部29は、GPS24が出力する測位情報を取得する。制御部29は、通信部21が出力する危険情報を取得する。制御部29は、GPS24から取得した測位情報に基づく位置情報を通信部21に出力する。制御部29は、例えば撮像部22から取得した画像から周知の画像認識手法を用いて人が含まれているか否かを判別する。制御部29は、画像に人が含まれている場合、その画像を同一グループ歩行者情報または周辺歩行者情報とし、同一グループ歩行者情報または周辺歩行者情報を通信部21に出力する。なお、制御部29は、例えば、画像に含まれている人の大きさが閾値未満の場合に周辺歩行者と判別し、閾値以上の場合に同一グループ歩行者と判別する。また、制御部29は、画像から周知の画像認識手法を用いて車両が含まれているか否かを判別する。制御部29は、画像に車両が含まれている場合、その画像を車両情報とし、車両情報を通信部21に出力する。
制御部29は、通信部21が出力する情報(交通情報、メッセージ、緊急情報)を取得する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号の場合、音声信号をスピーカ26に出力する。制御部29は、情報(交通情報、メッセージ、緊急情報)が音声信号ではない場合、情報(交通情報、メッセージ、緊急情報)を表示部27とバイブレータ25の少なくとも1つに出力する。なお、制御部29は、情報(交通情報、メッセージ、緊急情報)を表示部27に出力する場合、例えば情報に応じて発光させる色または点滅状態等を制御する。また、制御部29は、情報(交通情報、メッセージ、緊急情報)をバイブレータ25に出力する場合、例えば情報に応じて振動間隔または振動の強さを制御する。
制御部29は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ26に出力する。または、制御部29は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ25に出力する。
制御部29は、加速度センサ28が出力する検出値を取得し、取得した検出値を通信部21によって、データセンター4へする。
The
The
The
加速度センサ28は、第1携帯端末2にかかる加速度を検出し、検出した検出値を制御部29に出力する。
The
<第2携帯端末3の構成例>
次に、第2携帯端末3の構成例を説明する。
図4は、本実施形態に係る第2携帯端末3の構成例を示すブロック図である。図4に示すように、第2携帯端末3は、通信部31、マイクロフォン32、操作部33、表示部34、スピーカ35、制御部36、およびバイブレータ37を備える。
<Configuration example of the second
Next, a configuration example of the second
FIG. 4 is a block diagram showing a configuration example of the second
通信部31は、データセンター4が送信した第1携帯端末位置情報を受信し、受信した第1携帯端末位置情報を制御部36に出力する。通信部31は、データセンター4が送信した緊急通知または音声メッセージを受信し、受信した緊急通知または音声メッセージを制御部36に出力する。
マイクロフォン32は、収音した音声信号を制御部36に出力する。なお、マイクロフォン32は、複数のマイクロフォンによって構成されるマイクロフォンアレイであってもよい。
The
The
操作部33は、例えば表示部34上に設けられたタッチパネルセンサである。操作部33は、利用者が操作した操作結果を制御部36に出力する。
表示部34は、制御部36が出力する第1携帯端末位置情報を表示する。表示部34は、例えば、液晶表示装置、有機EL表示装置、電子インク表示装置等である。
スピーカ35は、制御部36が出力する音声信号を再生する。
バイブレータ37は、振動子であり、制御部36が出力する報知情報に応じて振動を発生させる。
The
The
The
The vibrator 37 is a vibrator, and generates vibration according to notification information output by the
制御部36は、通信部31が出力する第1携帯端末位置情報を取得する。制御部36は、通信部31が出力する緊急通知または音声メッセージを取得する。制御部36は、取得した第1携帯端末位置情報を表示部34に出力する。制御部36は、緊急通知が画像情報の場合、緊急情報を表示部34に出力する。制御部36は、取得した音声メッセージをスピーカ35に出力する。制御部36は、通信部31が出力する危険情報を取得する。制御部36は、危険情報に基づいて、音声メッセージを生成し、生成した音声メッセージをスピーカ35に出力する。または、制御部36は、危険情報に基づいて報知情報を生成し、生成した報知情報をバイブレータ37に出力する。
The
<第1携帯端末位置情報の送信手順>
次に、第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例を説明する。
図5は、本実施形態に係る第1携帯端末位置情報をデータセンター4が第2携帯端末3へ送信する処理手順例のフローチャートである。
<Procedure for transmitting first mobile terminal location information>
Next, an example of a processing procedure in which the
FIG. 5 is a flow chart of a processing procedure example for the
(ステップS11)制御部42は、第1携帯端末2から位置情報を、ネットワーク6を介して通信部41によって受信する。なお、位置情報には、受信した時刻情報が含まれている。
(ステップS12)制御部42は、受信した位置情報を記憶部44に格納する。
(Step S<b>11 ) The
(Step S<b>12 ) The
(ステップS13)制御部42は、記憶部が記憶する位置情報と地図情報を用いて、第1携帯端末位置情報を生成する。なお、制御部42は、位置情報に含まれる時刻情報を時系列順に繋いで、第1携帯端末2を所持する児童の移動軌跡を生成する。続けて、制御部42は、第1携帯端末位置情報を、ネットワーク6を介して通信部41によって第2携帯端末3へ送信する。
(Step S13) The
なお、データセンター4は、図5に示した処理を、例えば、第1携帯端末位置情報の送信をリクエストする指示を保護者が第2携帯端末3の操作部33を操作して、その操作結果を制御部36が通信部31によってデータセンター4へ送信したときに行う。または、データセンター4は、例えば保護者が第2携帯端末3の操作部33を操作して設定した登校時間と下校時間を第2携帯端末3がデータセンター4へ送信されている場合、登校時間と下校時間に図5に示した処理を行うようにしてもよい。
Note that the
ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図6は、本実施形態に係る第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を示す図である。
なお、図6は、下校時の第1携帯端末位置情報の例である。符号g11は、第1携帯端末2を所持する児童の移動軌跡を表している。また、符号g12は、第1携帯端末2を所持する児童の現在位置を示している。
Here, an example of the first mobile terminal location information displayed on the
Note that FIG. 6 is an example of the first mobile terminal position information when leaving school. A symbol g11 represents the locus of movement of the child who possesses the first
<危険通知の送信手順>
次に、データセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例を説明する。
図7は、本実施形態に係るデータセンター4が危険通知を第1携帯端末2と第2携帯端末3へ送信する処理手順例のフローチャートである。
<Procedure for sending danger notices>
Next, an example of a processing procedure in which the
FIG. 7 is a flow chart of an example of a processing procedure in which the
(ステップS21)データセンター4の制御部42は、サーバ5にアクセスする。
(ステップS22)制御部42は、サーバ5から危険箇所を示す情報と、不審者情報を通信部41によって取得する。続けて、制御部42は、取得した危険箇所を示す情報と、不審者情報を記憶部44に記憶させる。なお、危険箇所は、例えば不審者情報が得られた位置(緯度経度)を含む所定の範囲、または、不審者情報が得られた番地等の範囲を含む。なお、範囲は、制御部42が設定するようにしてもよい。
(Step S<b>21 ) The
(Step S<b>22 ) The
(ステップS23)制御部42は、第1携帯端末2から位置情報を取得する。なお、位置情報は、データセンター4からのリクエストに基づいて、第1携帯端末2が送信するようにしてもよく、第1携帯端末2が所定の周期で送信するようにしてもよい。続けて、制御部42は、取得した位置情報を記憶部44に記憶させる。
(Step S<b>23 ) The
(ステップS24)制御部42は、記憶部44が記憶する地図情報と危険箇所を示す情報と位置情報とに基づいて、危険箇所と現在の児童の位置の距離を算出することで測定する。
(Step S24) The
(ステップS25)制御部42は、算出した距離が記憶部44が記憶する所定値未満であるか否かを判定する。制御部42は、距離が所定値未満であると判定した場合(ステップS25;YES)、ステップS26の処理に進める。制御部42は、距離が所定値以上であると判定した場合(ステップS25;NO)、ステップS21の処理に戻す。
(Step S25) The
(ステップS26)制御部42は、危険情報を生成する。続けて、制御部42は、生成した危険情報を通信部41によって、第2携帯端末3へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(ステップS27)制御部42は、生成した危険情報を通信部41によって、第1携帯端末2へ送信することで危険を通知する。なお、制御部42は、危険情報が報知音の場合、第1携帯端末2が危険箇所に近づくにつれて、報知音を大きくする。
(Step S26) The
(Step S<b>27 ) The
なお、上述した例では、データセンター4が、サーバ5から危険箇所を示す情報を取得する例を説明したが、これに限らない。危険箇所は、例えば保護者が第2携帯端末3の操作部33を操作して設定し、設定された情報をデータセンター4の制御部42が取得するようにしてもよい。
In the above example, the
<危険通知の受信処理>
次に、児童が所持する第1携帯端末2が危険情報を受信した際の処理手順例を説明する。
図8は、本実施形態に係る第1携帯端末2が危険情報を受信した際の処理手順例のフローチャートである。
<Receiving Danger Notice>
Next, an example of a processing procedure when the first
FIG. 8 is a flowchart of a processing procedure example when the first
(ステップS31)第1携帯端末2の制御部29は、データセンター4が送信した危険情報を通信部21によって受信する。
(ステップS32)制御部29は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ26から再生させる。または、制御部29は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ26から再生させる。なお、スピーカ26がブザーである場合、制御部29は、危険情報に基づいて所定の電圧をスピーカ26に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S<b>31 ) The
(Step S<b>32 ) The
(ステップS33)制御部29は、スピーカ26からの音声出力が禁止されたバイブレータモードであるか否かを判別する。なお、制御部29は、バイブレータモードの設定を、例えば、第1携帯端末2が備える操作部(不図示)が操作された結果も基づき設定するか、第2携帯端末3からの指示に応じて設定する。制御部29は、バイブレータモードであると判別した場合(ステップS33;YES)、ステップS34の処理に進め、バイブレータモードではない判別した場合(ステップS33;NO)、ステップS31の処理に戻す。なお、制御部29は、バイブレータモードの場合、ステップS32の処理を行わないか、または、ステップS32の処理の代わりに表示部27を点滅等させるようにしてもよい。
(Step S33) The
(ステップS34)制御部29は、危険情報に基づいてバイブレータ25を駆動する。なお、制御部29は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ25の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。
(Step S34) The
次に、保護者が所持する第2携帯端末3が危険情報を受信した際の処理手順例を説明する。
図9は、本実施形態に係る第2携帯端末3が危険情報を受信した際の処理手順例のフローチャートである。
Next, an example of a processing procedure when the second
FIG. 9 is a flowchart of a processing procedure example when the second
(ステップS41)第2携帯端末3の制御部36は、データセンター4が送信した危険情報を通信部31によって受信する。
(ステップS42)制御部36は、危険情報に基づいて危険を知らせる音声メッセージを生成して、生成した音声メッセージをスピーカ35から再生させる。または、制御部36は、危険情報に基づいて例えばブザー音を生成し、生成したブザー音をスピーカ35から再生させる。なお、スピーカ35がブザーである場合、制御部36は、危険情報に基づいて所定の電圧をスピーカ35に出力する。これにより、危険情報に基づく音声出力が行われる。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、音量を大きくする。
(Step S<b>41 ) The
(Step S<b>42 ) The
(ステップS43)制御部36は、バイブレータモードであるか否かを判別する。なお、制御部36は、バイブレータモードの設定を、第2携帯端末3の操作部33が操作された結果に応じて設定する。制御部36は、バイブレータモードであると判別した場合(ステップS43;YES)、ステップS44の処理に進め、バイブレータモードではない判別した場合(ステップS43;NO)、ステップS45の処理に進める。なお、制御部36は、バイブレータモードの場合、ステップS42の処理を行わないか、または、ステップS42の処理の代わりに表示部34を点滅等させるようにしてもよい。
(Step S43) The
(ステップS44)制御部36は、危険情報に基づいてバイブレータ37を駆動する。なお、制御部36は、危険箇所と現在の位置との距離が短くなるほど、バイブレータ37の振動の振幅を大きくするか振動の間隔を短くするようにしてもよい。
(Step S44) The
(ステップS45)制御部36は、保護者が操作部33を操作した結果に基づいて、第1携帯端末位置情報の送信リクエストを通信部31によって、データセンター4へ送信する。データセンター4の制御部42は、受信した送信リクエストに基づいて、通信部41によって第1携帯端末位置情報に危険を知らせる警告画像を付与して第2携帯端末3へ送信する。続けて、制御部36は、データセンター4が送信した第1携帯端末位置情報を通信部31によって受信する。続けて、制御部36は、受信した第1携帯端末位置情報を表示部34上に表示させる。
(Step S<b>45 ) Based on the parent's operation of the
ここで、第2携帯端末3の表示部34上に表示される第1携帯端末位置情報の例を説明する。図10は、本実施形態に係る第2携帯端末3の表示部34上に表示される警告画像を含む第1携帯端末位置情報の例を示す図である。
図10において、符号g11と符号g12は図6と同様である。また、符号g21は、危険箇所を示す画像である。符号g22は、警告画像である。
図10に示す例では、児童が所持する第1携帯端末2の現在位置が、危険箇所内であるため、警告画像「危険箇所にいます。ご注意ください!」が、第1携帯端末位置情報に重ねられて(または合成されて)表示される。なお、警告画像は、制御部36が、受信した警告情報に基づいて生成してもよい。
Here, an example of the first mobile terminal location information displayed on the
In FIG. 10, symbols g11 and g12 are the same as in FIG. Reference g21 is an image showing a dangerous place. Reference g22 is a warning image.
In the example shown in FIG. 10, since the current position of the first
なお、第1携帯端末2の制御部29は、撮像部22が撮影した画像を同一グループ歩行者情報または周辺歩行者情報あるいは車両情報として、通信部21によってデータセンター4へ送信するようにしてもよい。
Note that the
またデータセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて、交通量が多い箇所に第1携帯端末2の所持者が近づいたとき交通情報を通信部41によって第1携帯端末2に送信するようにしてもよい。なお、交通情報は音声信号であってもよい。第1携帯端末2の制御部29は、受信した交通情報を再生する。これにより、第1携帯端末2を所持する児童は、交通量が多い箇所に近づいたことを知ることができる。
Further, the
また、データセンター4の制御部42は、例えばサーバ5から受信した情報に基づいて緊急情報を第1携帯端末2と第2携帯端末3へ送信するようにしてもよい。ここで緊急情報とは、例えば災害や事故が発生した場合に、避難を呼びかける情報である。
Also, the
以上のように、本実施形態では、子供(児童)が所持または鞄等に取り付けた第1携帯端末2で取得した位置情報を、データセンター4に集約して、保護者が所持する第2携帯端末3へ送信するようにした。また、本実施形態では、不審者情報を、行政や学校のサーバ5からデータセンター4へ集約する。データセンター4は、不審者情報を取得した際、第1携帯端末2の現在位置と危険箇所との距離が所定値未満の場合に、第1携帯端末2を所持する児童と、第2携帯端末3を所持する保護者に危険情報を送信するようにした。
As described above, in the present embodiment, location information acquired by the first
これにより、本実施形態によれば、第1携帯端末2の所持者が危険箇所に近づいているときに、第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行うことができる。
As a result, according to the present embodiment, when the holder of the first
また、本実施形態では、第1携帯端末2が危険箇所に近づくにつれて、警報音等を大きくするようにした。
これにより、本実施形態によれば、より一層、第1携帯端末2の所持者が危険箇所に近づいていることを通知することができる。
また、本実施形態では、第2携帯端末3は、第1携帯端末2の移動軌跡を取得するようにした。
これにより、本実施形態によれば、第1携帯端末2の所持者の移動軌跡(例えば、学校から自宅までの帰宅経路)を第2携帯端末3の所持者が把握することができる。
Further, in the present embodiment, as the first
Thus, according to the present embodiment, it is possible to further notify that the owner of the first
Also, in the present embodiment, the second
Thus, according to the present embodiment, the owner of the second
[第2実施形態]
第1実施形態では、第2携帯端末3が、第1携帯端末2の移動軌跡を取得する例や、第1携帯端末2の所持者が危険箇所に近づいたときに第1携帯端末2の所持者(児童)または第2携帯端末3の所持者(保護者)に対して危険通知を行う例等を説明した。
本実施形態では、データセンター4が、第1携帯端末2から受信した情報に基づいて、通学経路等の所定位置において行うべき所定動作が行われた否かを判別して、判別した結果を第2携帯端末3へ送信する例を説明する。
[Second embodiment]
In the first embodiment, an example in which the second
In this embodiment, based on the information received from the first
まず、本実施形態の情報通信システム1Aの主な動作例を説明する。
図11は、本実施形態に係る情報通信システム1Aの主な動作例を示す図である。
符号g100は、帰宅した際の第1携帯端末2と児童との対話例を示す図である。符号g100が示す図において、符号g101が児童の発話であり、符号g102が第1携帯端末2の発話である。
First, a main operation example of the
FIG. 11 is a diagram showing a main operation example of the
Symbol g100 is a diagram showing an example of interaction between the first
符号g110は、帰宅した際の児童と保護者との対話例を示す図である。符号g110が示す図において、符号g111が保護者の発話であり、符号g112が児童の発話であり、符号g113が第1携帯端末2の発話である。
Symbol g110 is a diagram showing an example of dialogue between the child and the guardian when the child returns home. In the figure indicated by symbol g110, symbol g111 is the utterance of the guardian, symbol g112 is the utterance of the child, and symbol g113 is the utterance of the first
符号g120は、第2携帯端末3に表示される画像例を示す図である。表示される画像は、データセンター4から受信した画像である。符号g121は、データセンター4から受信した画像である。画像g121は、スコアの画像g122、児童の移動軌跡の画像g122、確認箇所での動作確認結果の画像g123とg124が含まれている。
A symbol g120 is a diagram showing an example of an image displayed on the second
<情報通信システム1Aの構成>
次に、情報通信システム1Aの構成例を説明する。
図12は、本実施形態に係る情報通信システム1Aの構成例を示す図である。図12に示すように、情報通信システム1Aは、第1携帯端末2、第2携帯端末3、データセンター4A(センター)、およびサーバ5を備えている。第1携帯端末2、第2携帯端末3、データセンター4A、およびサーバ5それぞれは、ネットワーク6を介して接続されている。なお、情報通信システム1と同様の動作を行う機能部については、同じ符号を用いて説明を省略する。図12に示すように、情報通信システム1と情報通信システム1Aとの差異は、データセンター4Aである。
<Configuration of
Next, a configuration example of the
FIG. 12 is a diagram showing a configuration example of an
図12に示すように、データセンター4Aは、通信部41、制御部42A、モデル記憶部43、記憶部44A、音声認識モデル記憶部45、音声認識部46、およびシナリオ記憶部47を備えている。
As shown in FIG. 12, the
音声認識モデル記憶部45は、例えば音響モデル、言語モデル、単語辞書等を記憶している。音響モデルとは、音の特徴量に基づくモデルであり、言語モデルとは、単語とその並び方の情報のモデルである。また、単語辞書とは、多数の語彙による辞書であり、例えば大語彙単語辞書である。
The speech recognition
音声認識部46は、制御部42Aが出力する音声信号に対して発話区間の音声信号を検出する。発話区間の検出は、例えば所定のしきい値以上の音声信号を発話区間として検出する。なお、音声認識部46は、発話区間の検出を周知の他の手法を用いて行ってもよい。音声認識部46は、検出した発話区間の音声信号に対して、音声認識モデル記憶部45を参照して、周知の手法を用いて音声認識を行う。なお、音声認識部46は、例えば特開2015-64554号公報に開示されている手法等を用いて音声認識を行う。音声認識部46は、認識した認識結果に対して音声認識モデル記憶部45を参照してテキストに変換する。音声認識部46は、テキスト情報に対して音声認識モデル記憶部45を参照して形態素解析と係り受け解析を行う。係り受け解析には、例えば、Shift-reduce法や全域木の手法やチャンク同定の段階適用手法においてSVM(Support Vector Machines)を用いる。音声認識部46は、解析結果を制御部42Aに出力する。
The
シナリオ記憶部47は、第1携帯端末2が用いられる環境で行われる対話を、例えばテキスト形式で記憶する。
The scenario storage unit 47 stores, for example, a text format of the dialogue that takes place in the environment where the first
制御部42Aは、制御部42が行う処理に加えて以下の処理を行う。
制御部42Aは、第1携帯端末2から通信部41が受信した画像、第1携帯端末2から通信部41が受信した加速度センサ28の検出値を受信する。制御部42Aは、設定されている位置で所定動作が行われてか否かを、受信した画像と加速度センサ28の検出値の少なくとも1つに基づいて判別する。制御部42Aは、判別した結果に基づいて、例えば帰宅時のスコアを求める。制御部42Aは、求めたスコアを記憶部44Aに記憶させる。制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信した場合、生成した画像を第2携帯端末3へ送信する。なお、所定動作が行われてか否かの判別方法、スコアの求め方については後述する。
また、制御部42Aは、音声認識部46が出力する解析結果を取得する。制御部42Aは、解析結果に基づいて、シナリオ記憶部47を参照して第1携帯端末2から受信した音声信号に対する返答を選択する。制御部42Aは、選択した応答を例えばフォルマント合成の手法等によって音声信号に変換し、変換した音声信号を通信部41によって第1携帯端末2へ送信する。
42 A of control parts perform the following processes in addition to the process which the
The
Further, the
記憶部44Aは、記憶部44が記憶する情報に加えて、所定位置を示す情報(緯度経度、地点名)に所定動作とスコアを関連付けて記憶する。また、記憶部44Aは、例えば帰宅時におけるスコアの合計を記憶する。また、記憶部44は、所定動作が行われたか否かを判別する際に用いる閾値を記憶する。さらに、記憶部44Aは、画像検出に用いられる顔部のモデル画像、腕部のモデル画像を記憶する。
In addition to the information stored in the
なお、保護者は、第2携帯端末3の操作部33を操作して、通学経路を予め設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、通学経路を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を行うべき所定位置を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。また、保護者は、第2携帯端末3の操作部33を操作して、所定動作を設定するようにしてもよい。この場合、第2携帯端末3の制御部36は、所定位置で行う所定動作を示す情報を、通信部31によってデータセンター4Aへ送信するようにしてもよい。
なお、データセンター4Aは、例えばサーバ5から危険箇所を取得し、取得した危険箇所を所定位置に設定するようにしてもよい。そして、所定位置の種類に応じて、所定動作を設定するようにしてもよい。
Note that the parent may operate the
Note that the
次に、所定位置、所定動作およびスコアの例を説明する。
図13は、本実施形態に係る所定位置、所定動作およびスコアの例を示す図である。 なお、図13に示す例は、帰宅経路(帰宅路)における所定位置、所定動作およびスコアの一部であり、スコアの合計が帰宅経路において100点になるように設定されている。 図13に示す例では、所定箇所は、A交差点と、B交差点と、C交差点である。所定動作は、例えばA交差点において、一時停止と左右確認である。また、スコアは、例えばA交差点において、一時停止が10、左右確認が10である。
制御部42Aは、A交差点において、一時停止の動作が行われていた場合にスコア10、行われていなかった場合にスコア0とする。そして、学校から自宅までにおけるスコアの合計を求め、求めたスコアの合計を記憶部44Aに記憶させる。なお、制御部42Aは、100点から、行われなかった所定動作のスコアを減算して合計のスコアを求めるようにしてもよい。
Next, examples of predetermined positions, predetermined actions, and scores will be described.
FIG. 13 is a diagram showing examples of predetermined positions, predetermined actions, and scores according to this embodiment. Note that the example shown in FIG. 13 is part of the predetermined positions, predetermined actions, and scores on the route home (route home), and the total score is set to 100 points on the route home. In the example shown in FIG. 13, the predetermined locations are the A intersection, the B intersection, and the C intersection. The predetermined action is, for example, a temporary stop and left/right confirmation at the A intersection. Also, the score is 10 for temporary stop and 10 for checking left and right at intersection A, for example.
The
次に、データセンター4Aが行う処理手順例を説明する。
図14は、本実施形態に係るデータセンター4Aが行う処理手順例のフローチャートである。なお、図14に示す例は、制御部42Aが、画像に基づいて所定動作が行われたか否かを判別する例である。
Next, an example of a processing procedure performed by the
FIG. 14 is a flowchart of a processing procedure example performed by the
(ステップS51)データセンター4Aの制御部42Aは、第1携帯端末2が送信した位置情報を受信する。
(ステップS52)制御部42Aは、第1携帯端末2が送信した画像を受信する。なお、第1携帯端末2は、所定周期毎に位置情報と画像をデータセンター4Aへ送信する。
(Step S51) The
(Step S<b>52 ) The
(ステップS53)制御部42Aは、位置が所定箇所の場合、受信した画像に基づいて、所定動作が行われたか否かを判別することで動作分析を行う。
(ステップS54)制御部42Aは、動作分析した結果と記憶部44Aが記憶する情報に基づいて、スコアリング処理を行う。なお、スコアリング処理とは、例えば、加点、減点処理である。
(Step S53) When the position is a predetermined location, the
(Step S54) The
(ステップS55)制御部42Aは、第2携帯端末3からスコア送信のリクエストを受信したか否かを判別する。制御部42Aは、第2携帯端末3からリクエストを受信したと判別した場合(ステップS55;YES)、ステップS56の処理に進め、第2携帯端末3からリクエストを受信していないと判別した場合(ステップS55;NO)、ステップS51の処理に戻す。
(Step S<b>55 ) The
(ステップS56)制御部42Aは、児童の移動軌跡の画像に、スコアの画像、判別した結果を示す画像を含めた画像を生成する。続けて、制御部42Aは、生成した画像を第2携帯端末3へ送信する。
(Step S56) The
なお、図14に示した例では、データセンター4Aは、第2携帯端末3からリクエストを受信したと判別した場合にスコアを含む情報を送信する例を説明したが、これに限らない。データセンター4Aは、例えば保護者によって設定された時刻、所定の周期毎にスコアを含む情報を送信するようにしてもよい。
In the example shown in FIG. 14, the
次に、第2携帯端末3が行う処理手順例を説明する。
図15は、本実施形態に係る第2携帯端末3が行う処理手順例のフローチャートである。
Next, an example of a processing procedure performed by the second
FIG. 15 is a flowchart of an example of a processing procedure performed by the second
(ステップS61)第2携帯端末3の制御部36は、データセンター4Aが送信したスコアを含む情報を受信する。
(ステップS62)制御部36は、受信したスコアを含む情報を表示部34上に表示させる。
(Step S61) The
(Step S62) The
なお、図15に示した処理は、第2携帯端末3からリクエストを送信したとき、保護者によって設定された時刻、所定の周期毎に行うようにしてもよい。
The processing shown in FIG. 15 may be performed at a time set by the parent or guardian when a request is transmitted from the second
図16は、本実施形態に係る第2携帯端末3の表示部34上に表示されるスコアを含む情報の画像例である。
画像g200は、表示部34上に表示される画像である。
符号g201は、学校を示している。符号g202は、自宅を示している。
符号g203は、児童の移動軌跡を示す画像である。
符号g211、g212およびg213は、所定箇所を示している。
FIG. 16 is an image example of information including a score displayed on the
The image g200 is an image displayed on the
Reference g201 indicates a school. Reference g202 indicates a home.
Reference g203 is an image showing the movement trajectory of the child.
Symbols g211, g212 and g213 indicate predetermined locations.
符号g221は、符号g211における所定動作の判別結果を表している。なお、○印は、所定動作を行ったことを表している。
符号g222は、符号g212における所定動作の判別結果を表している。
符号g223は、符号g213における所定動作の判別結果を表している。なお、×印は、所定動作を行っていないことを表している。
符号g230は、合計スコアを表す画像である。
Symbol g221 represents the determination result of the predetermined motion in symbol g211. The ◯ mark indicates that a predetermined operation has been performed.
Symbol g222 represents the determination result of the predetermined motion in symbol g212.
Symbol g223 represents the determination result of the predetermined motion in symbol g213. Note that the x mark indicates that the predetermined operation is not performed.
Reference g230 is an image representing the total score.
なお、図16において、所定動作を行った場合の符号g221、g222を例えば青色で表示し、所定動作を行っていない場合の符号g223を例えば赤色で表示させるようにしてもよい。このような画像は、データセンター4Aの制御部42Aが生成する。
In FIG. 16, the symbols g221 and g222 when the predetermined action is performed may be displayed in blue, for example, and the symbol g223 when the predetermined motion is not performed may be displayed in red, for example. Such an image is generated by the
次に、所定位置における一時停止の動作分析方法の例を説明する。
図17は、本実施形態に係る所定位置における一時停止の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、Tを0の初期化した後に以下の処理を開始する。また、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for pausing at a predetermined position will be described.
FIG. 17 is a flowchart of a processing procedure example of a motion analysis method for pausing at a predetermined position according to the present embodiment. After initializing T to 0, the
(ステップS71)データセンター4Aの制御部42Aは、第1携帯端末2から位置情報を受信する。続けて、制御部42Aは、受信した位置情報を受信した時刻情報に関連付けて記憶部44に記憶させる。
(Step S71) The
(ステップS72)制御部42Aは、記憶部44Aに記憶させた前回の位置(現在時刻に最も近い時刻の位置情報)と、受信した位置情報とを比較し、前回と同じ位置であるか否かを判別する。制御部42Aは、前回と同じ位置であると判別した場合(ステップS72;YES)、ステップS73の処理に進め、前回と同じ位置ではないと判別した場合(ステップS72;NO)、ステップS74の処理に進める。
(Step S72) The
(ステップS73)制御部42Aは、Tに1を加算し、ステップS75の処理に進める。
(ステップS74)制御部42Aは、Tに0を代入し、ステップS71の処理に戻す。
(Step S73) The
(Step S74) The
(ステップS75)制御部42Aは、Tが所定動作が行われたか否かを判別する際に用いられる閾値より大きいか否かを判別する。制御部42Aは、Tが閾値より大きいと判別した場合(ステップS75;YES)、ステップS76の処理に進め、Tが閾値以下であると判別した場合(ステップS75;NO)、ステップS71の処理に戻す。
(Step S75) The
(ステップS76)制御部42Aは、第1携帯端末2を所持する児童が所定位置で一時停止したと判別する。
(Step S76) The
なお、制御部42Aは、一時停止の動作分析を、第1携帯端末2の加速度センサ28の検出値に基づいて行うようにしてもよい。
この場合、ステップS71において、制御部42Aは加速度センサ28の検出値を受信する。そして、ステップS72において、制御部42Aは前回の検出値と今回の検出値との差が0を含む所定範囲内の場合に同じ位置であると判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
Note that the
In this case, the
Note that the
次に、所定位置における左右確認の動作分析方法の例を説明する。
図18は、本実施形態に係る所定位置における左右確認の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for checking left and right at a predetermined position will be described.
FIG. 18 is a flowchart of a processing procedure example of a motion analysis method for left/right confirmation at a predetermined position according to the present embodiment. Note that the
(ステップS81)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS82)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の顔部を検出する。続けて、制御部42Aは、検出した顔部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S81) The
(Step S82) The
(ステップS83)制御部42Aは、記憶部44Aに記憶させた顔部の画像に基づいて、取得した顔部の画像と、前回の顔部の画像とを比較する。続けて、制御部42Aは、比較した結果、顔部が左右に動いているか否かを判別する。制御部42Aは、顔部が左右に動いていると判別した場合(ステップS83;YES)、ステップS84の処理に進め、顔部が左右に動いていないと判別した場合(ステップS83;NO)、ステップS85の処理に進める。
(Step S83) The
(ステップS84)制御部42Aは、第1携帯端末2の所持者が左右確認を行った(左右確認OK)と判別する。
(ステップS85)制御部42Aは、第1携帯端末2の所持者が左右確認を行っていない(左右確認NG)と判別する。
(Step S84) The
(Step S85) The
なお、左右確認の処理においても、制御部42Aは、加速度センサ28の検出値に基づいて、検出値の左右方向の値が所定値以上変化している場合に顔部が左右に動いたか否かを判別するようにしてもよい。
なお、制御部42Aは、児童が所定の動作を行ったか否かを画像および加速度センサ28の検出値の少なくとも1つに基づいて検出するようにしてもよい。
Also in the right/left confirmation process, the
Note that the
次に、所定位置における手挙げ動作の動作分析方法の例を説明する。
図19は、本実施形態に係る所定位置における手挙げ動作の動作分析方法の処理手順例のフローチャートである。なお、制御部42Aは、以下の処理を所定位置で行う。
Next, an example of a motion analysis method for a hand-raising motion at a predetermined position will be described.
FIG. 19 is a flowchart of a processing procedure example of a motion analysis method for a hand-raising motion at a predetermined position according to the present embodiment. Note that the
(ステップS91)データセンター4Aの制御部42Aは、第1携帯端末2から画像を受信する。
(ステップS92)制御部42Aは、受信した画像から周知の手法によって第1携帯端末2の所持者の胸部を検出する。続けて、制御部42Aは、検出した胸部の画像を取得した時刻情報に関連付けて記憶部44Aに記憶させる。
(Step S91) The
(Step S92) The
(ステップS93)制御部42Aは、腕部を検出できたか否かにより、腕が挙がっているか否かを判別する。制御部42Aは、腕が挙がっていると判別した場合(ステップS93;YES)、ステップS94の処理に進め、腕が挙がっていない(腕を検出できない)と判別した場合(ステップS93;NO)、ステップS95の処理に進める。
(Step S93) The
(ステップS94)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行った(手挙げOK)と判別する。
(ステップS95)制御部42Aは、第1携帯端末2の所持者が手挙げ動作を行っていない(手挙げNG)と判別する。
(Step S94) The
(Step S95) The
以上のように、本実施形態では、通学路において、例えば交通安全上、必要な行動を行ったか否かを判定してスコアで提示するようにした。これにより、第1携帯端末2の所持する児童は、あきず、楽しみながらスコアを上げようとする。このため、本実施形態によれば、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。また、本実施形態では、第1携帯端末2の所持する児童の行動やスコアを保護者が所持する第2携帯端末3へ送信したので、保護者が子供のスキルを見える化できる。本実施形態によれば、保護者と児童とが、第2携帯端末3上に表示される情報を見ながら、コミュニケーションすることで、保護者と児童とのコミュニケーションを増やし、さらなる安全意識向上も同時にはかれる。
As described above, in the present embodiment, it is determined whether or not a necessary action has been taken, for example, for traffic safety, on the school road, and a score is presented. As a result, the child possessing the first
<第1の変形例>
ここで、第1携帯端末2であるキャラクタロボットと、第1携帯端末2の所持者である児童とのコミュニケーションの例を図11の符号g100が示す図を参照して説明する。
<First modification>
Here, an example of communication between the character robot, which is the first
児童は、例えば帰宅したとき、「ただいま!」と発話する。
第1携帯端末2の制御部29は、マイクロフォン23が収音したこの音声信号を通信部21によってデータセンター4Aへ送信する。データセンター4Aの音声認識部46は、受信した音声信号に対して音声認識処理を行う。制御部42Aが音声認識処理された結果に基づいて返答の音声信号を生成して通信部41によって、生成した音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「おかえりなさい!」を再生することで発話する。
For example, when a child comes home, he/she utters "I'm home!".
The
続けて、児童が「今日の点数は?」と発話した音声信号をデータセンター4Aが受信し、制御部42Aは音声認識された結果に基づいてシナリオ記憶部47と記憶部44が記憶する情報に基づいて、返答である「90点」の音声信号を生成する。制御部42Aは返答である音声信号を通信部41によって第1携帯端末2へ送信する。この結果、第1携帯端末2の制御部29は、データセンター4Aから受信した「90点」を発話する。
Subsequently, the
このように第1変形例では、第1携帯端末2が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第1変形例によれば、第1携帯端末2を所持する児童と、第1携帯端末2との間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。
Thus, in the first modification, the first
なお、データセンター4Aが第1携帯端末2へ送信する音声信号は、スコアが例えば70以上の場合に「よくがんばったね!」、スコアが例えば50以下の場合に「一時停止しなかったね。明日は一時停止しようね。」等であってもよい。
Note that the audio signal transmitted from the
<第2の変形例>
ここで、保護者と児童とキャラクタロボットとのコミュニケーションの例を図11の符号g110が示す図を参照して説明する。
<Second modification>
Here, an example of communication between a guardian, a child, and a character robot will be described with reference to the diagram indicated by symbol g110 in FIG.
この例の場合、保護者と児童は、第2携帯端末3に表示された画像を見ながら交通安全ポイント確認を行うため会話を行う。
この例でも、第1携帯端末2または第2携帯端末3は、収音した音声信号をデータセンター4Aへ送信する。データセンター4Aは、音声認識した結果に基づいてアドバイスの音声信号を第1携帯端末2へ送信する。この結果、第1携帯端末2は、アドバイスの音声信号「一時停止はOKだから手挙げだけね!」を再生する。
なお、データセンター4Aは、このようなアドバイスの音声信号を第2携帯端末3へも送信するようにしてもよい。
In the case of this example, the guardian and the child have a conversation while viewing the image displayed on the second
In this example as well, the first
The
このように第2変形例では、第1携帯端末2または第2携帯端末3が収音した音声信号をデータセンター4Aへ送信し、データセンター4Aが受信した音声信号の応答を第1携帯端末2へ送信するようにした。これにより、第2変形例によれば、保護者と児童と第1携帯端末2であるキャラクタロボットとの間でコミュニケーションを行うことができ、第1携帯端末2の所持する児童に対して、継続的に交通安全教育に行うことができる。
Thus, in the second modification, the first
なお、第1実施形態、第2実施形態では、第1携帯端末2を児童が所持する例を説明したが、第1携帯端末2を例えば高齢者が所持するようにしてもよい。
In addition, in the first embodiment and the second embodiment, an example in which a child possesses the first
[第3実施形態]
第3実施形態では、物体の接近を児童に報知しつつ、且つ児童の周辺に存在する他の児童にも物体の接近を報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Third embodiment]
In the third embodiment, a case will be described in which a child is notified of the approach of an object, and other children around the child are also notified of the approach of the object. In addition, the same code|symbol is attached|subjected about the structure similar to embodiment and the modification which were mentioned above, and description is abbreviate|omitted.
図20は、第3実施形態に係る情報通信システム1Bの構成の一例を示す図である。図20に示される通り、情報通信システム1Bは、複数の第1携帯端末2B(図示する第1携帯端末2B-1~2B-2)と、第2携帯端末3と、データセンター4Bと、サーバ5とを備える。以降の説明において、第1携帯端末2B-1は、児童Aが保持する第1携帯端末2Bであり、第1携帯端末2B-2は、児童Bが保持する第1携帯端末2Bであるものとして説明する。第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別しない場合には、総称して第1携帯端末2Bと記載する。以下、第1携帯端末2Bの詳細について説明する。
FIG. 20 is a diagram showing an example of the configuration of an
図21は、第3実施形態に係る第1携帯端末2Bの構成の一例を示す図である。図24に示される通り、第1携帯端末2Bは、通信部21と、撮像部22と、マイクロフォン23と、GPS24と、バイブレータ25と、スピーカ26と、表示部27と、加速度センサ28と、制御部29Bとを備える。
FIG. 21 is a diagram showing an example of the configuration of the first
第1携帯端末2Bは、例えば、GPS24によって、GNSS(Global Navigation Satellite System)衛星(例えば、GPS衛星)から受信した信号に基づいて、第1携帯端末2Bの位置(つまり、児童の位置)を特定し、特定した位置を示す位置情報をデータセンター4Bに送信する。以降の説明において、第1携帯端末2Bの位置を児童の位置とも記載する。
The first
なお、情報通信システム1Bは、児童の位置が特定することができる手法であれば、GPS24以外の手法を採用してもよい。例えば、第1携帯端末2Bは、BLE(Bluetooth(登録商標)Low Energy)、PDR(Pedestrian Dead Reckoning)、IMES(Indoor MEssaging System)、SLAM(Simultaneous Localization and Mapping)等の手法によって、第1携帯端末2Bの位置を特定してもよい。第1携帯端末2Bは、撮像部22によって撮像された周辺の情報に基づいて、第1携帯端末2Bの位置を特定してもよい。情報通信システム1Bは、例えば、第1携帯端末2Bの位置を特定する他のシステムから第1携帯端末2Bの位置を取得する構成であってもよい。例えば、他のシステムは、地理的位置に設置される検出装置を備え、検出装置が自装置の近傍に存在する第1携帯端末2Bを検出することによって、第1携帯端末2Bの位置を特定してもよい。
Note that the
制御部29Bは、例えば、制御部29が備える構成に加えて接近判定部291をその機能部として備える。制御部29Bは、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサが記憶部(不図示)に格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
The
接近判定部291は、例えば、第1携帯端末2Bが備える検出機能の検出結果に基づいて、児童の周囲に存在する物体が児童に接近したか否かを判定する。以降の説明において、第1携帯端末2Bが備える検出機能が撮像部22である場合について説明する。
The
図20に戻り、データセンター4Bは、通信部41と、制御部42Bと、モデル記憶部43と、記憶部44Bと、音声認識モデル記憶部45と、音声認識部46と、シナリオ記憶部47とを備える。制御部42Bは、例えば、報知部421をその機能部として備える。制御部42Bは、例えば、CPUなどのハードウェアプロセッサが記憶部44Bに格納されたプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部を含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
Returning to FIG. 20, the
記憶部44Bは、例えば、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)又はRAM(Random Access Memory)などにより実現される。記憶部44Bには、例えば、地図情報と、危険情報と、不審者情報とが記憶される。なお、本実施形態において、不審者情報には、不審者が現れた位置情報や現れた時刻等に加えて、不審者パターンが含まれているものとする。不審者パターンとは、不審者の行動や挙動の特徴を示す情報である。
The
報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備える報知機能を制御し、児童に物体の接近を報知する。第1携帯端末2Bが備える報知機能は、例えば、バイブレータ25、スピーカ26等である。以降の説明では、データセンター4B(報知部421)が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を動作(振動)させることにより、児童に物体の接近を報知する場合について説明する。なお、以降の説明において、報知部421が、バイブレータ25の制御信号を第1携帯端末2Bに送信し、第1携帯端末2Bが当該制御信号に基づいて、バイブレータ25を振動させることを、報知部421がバイブレータ25を振動させるとも記載する。本実施形態の報知部421は、児童に接近する物体のうち、車両の接近と、不審者の接近を児童に報知する。
Based on the captured image of the
図22は、第3実施形態に係る報知の開始タイミングを模式的に示す図である。図22において、児童Aは、交差点の方向に直進し、交差点を右折する経路(図示する経路rt)を歩行する。児童Bは、児童Aの近傍(例えば、数~十数[m])に存在する児童であり、児童Aが右折した先の横断歩道を横断する。また、児童Bの近くには、児童Aの方向に進行する車両(図示する車両m)が存在する。なお、児童Aは、建物が壁となって、車両mを視認することができない。 FIG. 22 is a diagram schematically showing start timing of notification according to the third embodiment. In FIG. 22, child A walks along a route (route rt shown) that goes straight toward the intersection and turns right at the intersection. Child B is a child in the vicinity of Child A (for example, several to ten-odd [m]), and crosses the pedestrian crossing ahead of Child A turning right. Also, near child B, there is a vehicle (vehicle m in the drawing) traveling in the direction of child A. FIG. It should be noted that the child A cannot visually recognize the vehicle m because the building acts as a wall.
本実施形態の第1携帯端末2Bが備える撮像部22は、例えば、移動者(図示する児童A、及び児童B)の周囲を撮像可能なように構成される。図22に示される一例では、児童Aが備える第1携帯端末2B-1の撮像部22の撮像範囲について説明する。なお、図22には図示されていないが、児童Bが保持する第1携帯端末2B-2の撮影部22についても、児童Aが保持する第1携帯端末2B-1と同様の撮像範囲を備えるものとする。
The
撮像部22は、例えば、複数(図示では、3つ)のカメラによって構成され、第1携帯端末2Bの周囲(図示する児童Aの周囲と、児童Bの周囲とのそれぞれ)を撮像可能なように、撮像方向が異なる向きに設けられる。第1携帯端末2Bの撮影部22は、それぞれ異なる範囲(図示する撮像範囲AR1~AR3)を撮像する。撮像部22は、児童の周囲を360[度]撮像可能であれば、撮像範囲AR1~AR3のそれぞれは、互いに重畳していてもよい。本実施形態の撮像部22は、所定の時間間隔毎に児童の周囲を撮像し、撮像画像を生成する。なお、撮像部22は、児童の周囲を撮像することが可能であれば、1つ、又は2つのカメラを備える構成であってもよく、4つ以上のカメラを備える構成であってもよい。
The
なお、第1携帯端末2Bは、児童の周囲環境を検出することができる手法であれば、撮像部22以外の手法を採用してもよい。例えば、第1携帯端末2Bは、レーダー、ライダー、或いは赤外線センサによって、児童の周囲環境を検出してもよい。また、撮像部22によって生成される画像は、静止画像に限らず、動画であってもよい。
Note that the first
接近判定部291は、撮像部22によって生成された撮像画像に基づいて、児童の位置から所定距離(図示する第2所定距離dt2)だけ離れた位置(つまり、図示する所定範囲ARC)まで物体が接近した場合、児童に物体が接近したと判定し、撮像部22の撮像画像をデータセンター4Bに送信する。第2所定距離dt2は、数[m]程度の距離である。
Based on the captured image generated by the
データセンター4Bの報知部421は、第1携帯端末2Bから受信した撮像部22の撮像画像に基づいて、児童に物体が接近している場合、第1携帯端末2Bが備えるバイブレータ25を制御し、車両の接近、又は不審者の接近を児童に報知する。
The
図23は、第3実施形態に係る接近判定部291及び報知部421の処理の一例を示すフローチャートである。この処理においても、第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別しない場合には、総称して第1携帯端末2Bと記載する。まず、接近判定部291は、撮像部22によって撮像された撮像画像を取得する(ステップS100)。次に、接近判定部291は、取得した撮像画像に基づいて、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満であるか否かを判定する(ステップS102)。接近判定部291は、児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満ではないと判定する間、待機する。
FIG. 23 is a flow chart showing an example of processing of the
報知部421は、接近判定部291によって児童から撮像画像に撮像される物体までの距離が第2所定距離dt2未満である(つまり、物体が接近している)と判定された場合、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の移動者(この一例では、他の児童)が存在するか否かを判定する(ステップS104)。接近判定部291は、例えば、常時、又は所定の時間間隔毎に情報通信システム1Bが備える複数の第1携帯端末2Bからそれぞれの位置情報を取得する。そして、接近判定部291は、取得したそれぞれの位置情報に基づいて、ステップS102において物体が接近していると判定された児童の近傍(例えば、数~十数[m])に他の児童が存在するか否かを判定する。
When the
接近判定部291は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在しない場合、処理をステップS110に進める。報知部421は、ステップS102において物体が接近していると判定された児童の近傍に、他の児童が存在する場合、接近している物体が、他の児童の方向に移動するか否かを判定する(ステップS106)。報知部421は、物体が接近していると判定された児童の近傍に、第1携帯端末2Bを保持する他の児童が存在する場合であって、且つ物体が他の児童の方向に移動する場合、他の児童の第1携帯端末2Bに物体の接近を報知する(ステップS108)。次に、接近判定部291は、ステップS102において物体が接近していると判定された児童に、物体の接近を児童に報知する物体接近報知処理を行い(ステップS110)、処理を終了する。
If there is no other child near the child whose object was determined to be approaching in step S102,
図24は、図23に示されるステップS110の物体接近報知処理の詳細を示すフローチャートである。まず、報知部421は、ステップS100において撮像された撮像画像に示される物体が所定の大きさ以上であるか否かを判定する(ステップS200)。所定の大きさは、例えば、一般的な車両の大きさである。報知部421は、撮像画像に示される物体の大きさが所定の大きさ以上であると判定した場合、物体が車両であると判定する(ステップS202)。報知部421は、ステップS300において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS204)。報知部421は、ステップS100において取得された撮像画像と、ステップ404において取得された撮像画像とに基づいて、車両の速度が所定速度以上であるか否かを判定する(ステップS206)。所定速度は、例えば、数~数十[km/h]程度の速度である。
FIG. 24 is a flow chart showing details of the object approach notification process in step S110 shown in FIG. First, the
報知部421は、車両の速度が所定速度以上ではない場合、車両が児童の近傍を通過し終えたか否かを判定する(ステップS208)。報知部421は、車両が児童の近傍を通過し終えた場合、児童に危険が及ばないと推定し、児童に車両の接近を知らせる報知を開始せず、処理を終了する。報知部421は、車両が児童の近傍を通過し終えていないと判定する間、ステップS204~S206を繰り返す。報知部421は、ステップS204~S206において、児童に接近する車両が所定速度以上ではない場合、接近しても児童に危険が及ばないと推定し、報知を開始しない。
If the speed of the vehicle is not equal to or higher than the predetermined speed, the
報知部421は、物体が所定の大きさ以上ではないと判定した場合、物体の移動パターンが不審者のパターンと合致するか否かを判定する(ステップS210)。不審者のパターンは、例えば、(1)児童の移動に係る単位期間中(例えば、ある日の登校中や、ある日の下校等)に、所定回数以上特定の物体に遭遇する、(2)児童の移動に係る単位期間中に、児童の移動経路に合致する経路を物体が行ったり来たりする、(3)物体の特徴が不審者情報の不審者の特徴と合致する等である。報知部421は、物体の移動パターンが不審者のパターンと合致しないと判定した場合、物体が不審者ではないと推定し、児童に物体の接近を知らせる報知を開始せず、処理を終了する。
When the
報知部421は、ステップS206において車両の速度が所定の速度以上であると判定した場合、又はステップS210において物体の移動パターンが不審者のパターンと合致する(つまり、物体が不審者である)と判定した場合、車両、又は不審者の接近を児童に知らせる報知を開始する(ステップS212)。
The
報知部421は、ステップS100において取得された撮像画像よりも後に生成(撮像)された撮像画像を取得する(ステップS214)。報知部421は、ステップS100において取得された撮像画像と、ステップS214において取得された撮像画像とに基づいて、車両、又は不審者が児童に近づいているか否かを判定する(ステップS215)。報知部421は、車両、又は不審者が児童に近づいている場合、報知量を増加させ(ステップS218)、処理をステップS216に進める。
The
報知部421は、車両、又は不審者が児童に近づいていない場合、車両、又は不審者が児童の近傍を通過し終えたか否かを判定する(ステップS220)。報知部421は、車両、又は不審者が児童の近傍を通過し終えるまでの間、ステップS216~S218の処理を繰り返す。報知部421は、車両、又は不審者が児童の近傍を通過し終えた場合、報知部421は、報知を停止する(ステップS222)。
If the vehicle or the suspicious person is not approaching the child, the
図25は、近傍に存在する他の児童に車両、又は不審者が接近した場合の報知部421の処理の一例を示すフローチャートである。ここでは、第1携帯端末2B-1と、第1携帯端末2B-2とを互いに区別して記載する。まず、報知部421は、第1携帯端末2B-1によって児童(例えば、児童A)に報知が開始されているか否かを判定する(ステップS300)。報知部421は、児童Aに報知が開始されている場合、他の児童(例えば、児童B)に車両、又は不審者が接近したとしても、既に報知が開始されているため、処理を終了する。報知部421は、児童Aに報知が開始されていない場合、児童Bの第1携帯端末2B-2から児童Bに車両、又は不審者が接近したことを示す情報を受信したか否かを判定する(ステップS302)。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信するまでの間、ステップS300~S302の処理を繰り返す。報知部421は、児童Bに車両、又は不審者が接近したことを示す情報を受信した場合、児童Aに車両、又は不審者の接近の報知を開始する(ステップS304)。
FIG. 25 is a flow chart showing an example of processing of the
図22に示される場面では、上述した処理によって、児童Aは、建物が壁となって車両mを視認することができず、且つ車両mに関する報知がされないが、児童Bの第1携帯端末2B-2によって車両mの接近を報知される。このため、児童Aは、視認することはできないが、近傍に物体(この場合は、車両m)が接近していることを報知により把握し、周囲に注意しながら移動することができる。 In the scene shown in FIG. 22, the above-described process prevents the child A from seeing the vehicle m because the building is a wall, and the vehicle m is not notified. -2 indicates the approach of vehicle m. For this reason, although the child A cannot visually recognize it, he or she can be notified that an object (in this case, the vehicle m) is approaching, and can move while paying attention to the surroundings.
以上説明したように、本実施形態の情報通信システム1Bは、より適切に車両、又は不審者の接近を児童に報知することができる。また、本実施形態の情報通信システム1Bは、児童に車両や不審者が接近していなくても、児童の近傍に存在する他の児童に車両や不審者が接近していることを児童に報知することができる。
As described above, the
[第4実施形態]
第3実施形態では、児童に接近する物体や人物を児童に報知する場合について説明した。第4実施形態では、地理的位置の接近を児童に報知する場合について説明する。なお、上述した実施形態、及び変形例と同様の構成については、同一の符号を付して説明を省略する。
[Fourth embodiment]
In the third embodiment, a case has been described in which the child is notified of an object or person approaching the child. In the fourth embodiment, a case will be described in which children are notified of an approaching geographical position. In addition, the same code|symbol is attached|subjected about the structure similar to embodiment and the modification which were mentioned above, and description is abbreviate|omitted.
図26は、第4実施形態の情報通信システム1Bの構成の一例を示す図である。第4実施形態の情報通信システム1Bのデータセンター4Bが備える記憶部44Bは、地理的位置情報を更に記憶する。
FIG. 26 is a diagram showing an example of the configuration of the
本実施形態の報知部421は、第1携帯端末2Bの位置情報と、地理的位置情報とに更に基づいて、地理的位置の接近を、第1携帯端末2Bを保持する移動者(例えば、児童)に報知する。地理的位置情報は、地理的位置を示す情報である。地理的位置は、児童が通行する経路上の位置であり、且つ児童に危険が及ぶ可能性が有る位置である。地理的位置には、例えば、経路上の交差点、車道と区分された歩道上の位置、倒壊の可能性がある構造物の近傍等が含まれる。以降の説明において、位置情報には、児童の登下校時に歩行する経路上の地理的位置が含まれる場合について説明する。
The
報知部421は、第1携帯端末2Bから取得した第1携帯端末2Bの位置情報と、地理的位置情報とに基づいて、児童が地理的位置に接近している場合、バイブレータ25を振動させ、児童に地理的位置の接近を報知する。
The
図27は、第4実施形態に係る報知の開始タイミングを模式的に示す図である。図27に示される一例において、地理的位置PT1は、交差点の位置に予め設定される。ここで、地理的位置PTは、交差点の中央よりも、児童が歩行する経路rt上に設定されることが好ましい。例えば、車道と歩道とが区分された道において、経路rtは、歩道であり、地理的位置PTは、歩道上(より具体的には、歩道と車道との境界)に設定される。 FIG. 27 is a diagram schematically showing start timing of notification according to the fourth embodiment. In one example shown in FIG. 27, the geographical position PT1 is preset to the position of the intersection. Here, the geographical position PT is preferably set on the route rt along which the child walks rather than on the center of the intersection. For example, on a road divided into a roadway and a sidewalk, the route rt is the sidewalk, and the geographical position PT is set on the sidewalk (more specifically, the boundary between the sidewalk and the roadway).
報知部421は、地理的位置PT1から所定距離(図示する第1所定距離dt1)だけ離れた位置(つまり、図示する所定範囲ARP)まで児童が接近した場合、バイブレータ25を動作させ、児童Aに地理的位置PT1の接近を報知する。第1所定距離dt1は、例えば、数[m]程度の距離である。また、報知部421は、地理的位置PT1までの距離に応じて、報知の強度(この場合、振動の強度)を変化させてもよい。児童は、バイブレータ25によって地理的位置PT1(つまり、交差点)を報知されることにより、周囲に注意しながら歩行する。このため、情報通信システム1Bは、児童と、児童の進行方向に進行する車両(図示する車両m)とが接触することを抑制することができる。
Informing
図28は、第4実施形態に係る報知部421の処理の一例を示すフローチャートである。報知部421は、図28に示される処理を、所定の時間間隔毎に実行する。まず、報知部421は、第1携帯端末2Bから児童の位置を示す位置情報を取得する(ステップS400)。次に、報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であるか否かを判定する(ステップS402)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満ではない場合、処理を終了する。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満である場合、地理的位置PTの接近を児童に報知する地理的位置接近報知処理を行い(ステップS404)、処理を終了する。
FIG. 28 is a flowchart showing an example of processing of the
図29は、図28に示されるステップS404の地理的位置接近報知処理の詳細を示すフローチャートである。まず、報知部421は、地理的位置の接近を児童に知らせる報知を開始する(ステップS500)。この一例では、報知部421は、バイブレータ25の振動を開始させる。次に、報知部421は、GPS24によって児童の位置を取得する(ステップS502)。次に、報知部421は、ステップS400において取得した児童の位置と、ステップS502において取得した児童の位置とに基づいて、児童が地理的位置PTに近づいているか否かを判定する(ステップS504)。報知部421は、児童が地理的位置PTに近づいていると判定した場合、バイブレータ25の報知量を増加させ(ステップS506)、処理をステップS512に進める。報知量を増加させるとは、例えば、バイブレータ25の振動を大きくしたり、振動の頻度を多くしたりすることである。
FIG. 29 is a flow chart showing details of the geographical position approach notification process in step S404 shown in FIG. First, the
報知部421は、児童が地理的位置PTに近づいていないと判定した場合、児童が地理的位置PTから遠ざかっているか否かを判定する(ステップS508)。報知部421は、児童が地理的位置PTから遠ざかっていると判定した場合、バイブレータ25の報知量を減少させ(ステップS510)、処理をステップS512に進める。報知量を減少させるとは、バイブレータ25の振動を小さくしたり、振動の頻度を少なくしたりすることである。報知部421は、児童が地理的位置PTに近づいても遠ざかってもいないと判定した場合、バイブレータ25の報知量を変更せず、処理をステップS512に進める。
When the
報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1未満であると判定する間(つまり、児童が所定範囲ARPの外に出るまでの間)、ステップS202~S210までの処理を繰り返し、報知量を調整する(ステップS512)。報知部421は、児童の位置から地理的位置PTまでの距離が第1所定距離dt1以上であると判定した場合、報知を停止する(ステップS514)。
While the
なお、上述では、児童の位置から地理的位置PTまでの距離が直線距離である場合について説明したが、これに限られない。児童の位置から地理的位置PTまでの距離は、児童の経路rtに沿った距離であってもよい。報知部421は、児童の経路rtに沿った地理的位置PTまでの距離に基づいて、報知を行うことにより、長時間報知が行われることを抑制し、児童が報知状態に慣れることを抑制することができる。
In the above description, the case where the distance from the child's position to the geographical position PT is a straight line distance has been described, but the present invention is not limited to this. The distance from the child's position to the geographical position PT may be the distance along the child's route rt. The
以上説明したように、本実施形態の情報通信システム1Bは、より適切に地理的位置の接近を児童に報知することができる。
As described above, the
<他の児童の第1携帯端末2Bからの報知について>
なお、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合、他の児童の第1携帯端末2Bからの報知を行わなくてもよい。これにより、報知部421は、地理的位置PT、車両、或いは不審者の報知を他の報知が妨げることを抑制することができる。また、報知部421は、地理的位置PT、車両、或いは不審者の接近を報知している場合に、他の児童の第1携帯端末2Bからの報知があった場合、報知量を増加させてもよい。これにより、報知部421は、児童により多くの報知を行い、周囲に注意しながら移動させることができる。
<Regarding notifications from other children's first
In addition, when the
<報知手法について>
なお、上述した実施形態において、報知部421がバイブレータ25を振動させることにより、児童に各種報知を行う場合について説明したが、これに限られない。報知は、例えば、スピーカ26が音声を出力することによって行われてもよい。この場合、報知量を増加させるとは、例えば、音声の音量を大きくしたり、音声出力の頻度を多くしたりすることである。
<Notification method>
In the above-described embodiment, the case where the
<移動速度に基づく報知について>
また、上述した実施形態では、児童から地理的位置PTまでの距離に基づいて、報知が開始される場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、報知を行ってもよい。報知部421は、例えば、児童の移動速度が速い場合、移動速度が遅い場合と比して、報知の開始タイミングを速めてもよく、報知量を増加させてもよい。これにより、情報通信システム1Bは、走って道路に飛び出す可能性が高い児童に対して、早急に報知を行うことができる。児童の移動速度は、例えば、加速度センサ28の出力に基づいて、検出されてもよい。この場合、制御部29は、加速度センサ28の出力を積分し、児童の移動速度を導出する。
<Notification based on moving speed>
Also, in the above-described embodiment, a case has been described in which the notification is started based on the distance from the child to the geographical position PT, but the present invention is not limited to this. The
<地理的位置の接近の検出について>
また、上述した実施形態において、報知部421は、GPS24によって取得された児童の位置情報と、地理的位置情報とに基づいて、地理的位置PTの接近を児童に報知する場合について説明したが、これに限られない。報知部421は、児童の移動速度に基づいて、地理的位置PTの予想到着時刻を導出し、導出した予想到着時刻に基づいて、報知を開始する構成であってもよい。この場合、報知部421は、地理的位置PTから第3所定距離dt3だけ離隔した離隔位置に到着する予想到着時刻を導出し、導出した予想到着時刻において、報知を開始する。
<Regarding detection of approaching geographical location>
In the above-described embodiment, the
<地理的位置の設定について>
また、上述した実施形態において、地理的位置PTは、予め定められており、記憶部44Bに地理的位置情報として記憶される場合について説明したが、これに限られない。地理的位置PTは、例えば、児童の保護者が所持する第2携帯端末3から指定される構成であってもよい。この場合、第2携帯端末3は、第2携帯端末3の記憶部(不図示)に記憶されたアプリケーションであり、地理的位置PTを設定する際に用いられるアプリケーションを実行する。例えば、このアプリケーションを実行することにより、地図画像が表示部34に表示される。保護者は、第2携帯端末3が備える受付部(不図示)に、児童の登下校時に歩行する経路の開始位置と、終了位置とを入力する。受付部とは、例えば、ボタン、キーボードやマウス等の操作デバイスである。以降の説明において、受付部は、表示部34と一体に形成されるタッチパネルである場合について説明する。第2携帯端末3は、受付部によって受け付けられた開始位置と、終了位置とに基づいて、児童が歩行すると推定される複数の経路rtの候補を地図画像に重畳し、表示部34に提示する。保護者は、提示された複数の経路rtの候補のうち、実際に児童が歩行する経路rtを選択する。
<Regarding geographic location settings>
Further, in the above-described embodiment, the geographical position PT is determined in advance and is stored as geographical position information in the
次に、受付部は、選択(指定)された経路rt上の位置であって、児童に所定動作を行わせたい地理的位置PTを指定する保護者の操作を受け付ける。記憶部44Bの地理的位置PT情報には、保護者によって指定された地理的位置PTを示す情報が含まれる。これにより、情報通信システム1Bは、保護者が指定した地理的位置PTの接近を児童に報知することができる。
Next, the reception unit receives an operation by the guardian to designate a geographical position PT, which is a position on the selected (designated) route rt, at which the child is desired to perform a predetermined action. The geographical position PT information in the
なお、受付部は、表示された地図画像に対して保護者が経路の位置をタッチパネルになぞって入力することにより、実際に児童が歩行する経路rtを指定する構成であってもよい。また、制御部36Bは、保護者がこの操作において指定する位置(例えば、経路rtの開始位置、終了位置、及び地理的位置PT)が、経路rt上や歩道上ではない場合、指定した位置の近傍の経路rt上や歩道上の位置に補正してもよい。 The receiving unit may be configured so that the parent/guardian traces the position of the route on the touch panel to input the position of the route on the displayed map image, thereby specifying the route rt that the child actually walks. In addition, if the position specified by the guardian in this operation (for example, the start position, end position, and geographical position PT of the route rt) is not on the route rt or on the sidewalk, the control unit 36B It may be corrected to a position on the nearby route rt or on the sidewalk.
<情報通信システム1Bについて>
なお、上述した実施形態において、情報通信システム1Bのうち、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成と、データセンター4Bが備える構成とについて説明したが、これに限られない。例えば、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cが備える構成が、データセンター4Bに備えられていてもよく、データセンター4Bに備えられる構成が第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cに備えられていてもよい。また、記憶部44Bに記憶される情報が、第1携帯端末2、第1携帯端末2B、或いは第1携帯端末2Cの記憶部(不図示)に記憶されていてもよい。
<About
In the above-described embodiment, the configuration provided in the first
なお、本発明におけるデータセンター4(または4A)の機能の全てまたは一部を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりデータセンター4(または4A)が行う処理の全てまたは一部を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。 A program for realizing all or part of the functions of the data center 4 (or 4A) in the present invention is recorded on a computer-readable recording medium, and the program recorded on this recording medium is read into a computer system. All or part of the processing performed by the data center 4 (or 4A) may be performed by setting and executing. It should be noted that the "computer system" referred to here includes hardware such as an OS and peripheral devices. Also, the "computer system" includes a WWW system provided with a home page providing environment (or display environment). The term "computer-readable recording medium" refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems. In addition, "computer-readable recording medium" means a volatile memory (RAM) inside a computer system that acts as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. , includes those that hold the program for a certain period of time.
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形および置換を加えることができる。 As described above, the mode for carrying out the present invention has been described using the embodiments, but the present invention is not limited to such embodiments at all, and various modifications and replacements can be made without departing from the scope of the present invention. can be added.
1,1A…情報通信システム、2…第1携帯端末、3…第2携帯端末、4,4A…データセンター、5…サーバ、6…ネットワーク、21…通信部、22…撮像部、23…マイクロフォン、24…GPS、25…バイブレータ、26…スピーカ、27…表示部、28…加速度センサ、29…制御部、31…通信部、32…マイクロフォン、33…操作部、34…表示部、35…スピーカ、36…制御部、41…通信部、42,42A…制御部、43…モデル記憶部、44,44A…記憶部、45…音声認識モデル記憶部、46…音声認識部、47…シナリオ記憶部
DESCRIPTION OF
Claims (8)
前記認識部が認識した前記第1移動者の周囲の情報に基づいて、前記第1移動者の位置から所定距離だけ離れた位置まで物体が接近したことを判定する判定部と、
前記判定部が前記第1移動者に前記物体が接近したことを判定した場合、該第1移動者の近傍に存在する第2移動者が保持する第2端末装置への前記物体の接近を報知する報知部と、
を備える報知システムであって、
前記判定部は、前記第1移動者に接近した前記物体が、前記第2移動者の方向に移動するか否かを判定し、
前記報知部は、前記判定部が、前記物体が前記第2移動者の方向に移動すると判定した場合、前記第2端末装置への前記物体の接近を報知する、
報知システム。 a recognition unit provided in a first terminal device held by a first mover and recognizing the surroundings of the first mover;
a determination unit that determines that an object has approached a position a predetermined distance away from the position of the first mover based on the information about the surroundings of the first mover recognized by the recognition unit;
When the determination unit determines that the object approaches the first mover, the approach of the object to a second terminal held by a second mover present near the first mover is notified. a reporting unit that
A notification system comprising:
The determination unit determines whether or not the object approaching the first mover moves toward the second mover,
The notification unit notifies the approach of the object to the second terminal device when the determination unit determines that the object moves in the direction of the second mobile person.
notification system.
請求項1に記載の報知システム。 The object is a vehicle traveling on a road around the first mover,
The notification system according to claim 1.
請求項2に記載の報知システム。 The second mover is a mover approaching an intersection through which the vehicle moving in the direction of the second mover passes.
The notification system according to claim 2.
前記報知部は、前記判定部が前記車両の前記速度が前記所定速度以上であると判定した場合に、前記第2端末装置への前記車両の接近を報知する、
請求項2又は3に記載の報知システム。 The determination unit determines whether the speed of the vehicle approaching the first mover is equal to or higher than a predetermined speed,
The notification unit notifies the approach of the vehicle to the second terminal device when the determination unit determines that the speed of the vehicle is equal to or higher than the predetermined speed.
The notification system according to claim 2 or 3.
前記地理的位置への接近を前記第2移動者に報知しているときに、前記判定部が、前記物体が前記第2移動者の方向に移動すると判定した場合、前記地理的位置へ接近を報知する報知量を増加させる、
請求項1から3のうちいずれか1項に記載の報知システム。 The notification unit notifies the second mover of approaching the geographical position at a position a predetermined distance before the predetermined geographical position,
When the determination unit determines that the object moves in the direction of the second mover while notifying the second mover of the approach to the geographical position, the approach to the geographical position is notified to the second mover. increase the amount of information to be notified,
The notification system according to any one of claims 1 to 3 .
請求項5に記載の報知システム。 When the second mover is approaching the geographical position, the notification unit increases the notification amount for notifying the approach to the geographical position.
The notification system according to claim 5 .
請求項5または6に記載の報知システム。 When the second moving person moves away from the geographical position, the notification unit reduces the amount of notification of the approach to the geographical position.
The notification system according to claim 5 or 6 .
前記認識ステップにおいて、前記認識部が認識した前記第1移動者の周囲の情報に基づいて、前記第1移動者の位置から所定距離だけ離れた位置まで物体が接近したことを判定する判定ステップと、
前記判定ステップにおいて、前記第1移動者に前記物体が接近したことを判定した場合、該第1移動者の近傍に存在する第2移動者が保持する第2端末装置への前記物体の接近を報知する報知ステップと、
を含み、
前記判定ステップは、前記第1移動者に接近した前記物体が、前記第2移動者の方向に移動するか否かを判定するステップを含み、
前記報知ステップは、前記判定ステップにおいて、前記物体が前記第2移動者の方向に移動すると判定した場合、前記第2端末装置への前記物体の接近を報知するステップを含む、
報知方法。 a recognition step in which a recognition unit provided in a first terminal device held by a first mover recognizes the surroundings of the first mover;
a determination step of determining, in the recognition step, that an object has approached a position a predetermined distance away from the position of the first traveler, based on the information about the surroundings of the first traveler recognized by the recognition unit; ,
In the determining step, when it is determined that the object has approached the first mover, the approach of the object to a second terminal held by a second mover present near the first mover is determined. a reporting step of reporting;
including
the determining step includes determining whether or not the object approaching the first mover moves toward the second mover;
The notification step includes a step of notifying the approach of the object to the second terminal device when it is determined in the determination step that the object moves in the direction of the second mobile person.
notification method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018146318A JP7289618B2 (en) | 2018-08-02 | 2018-08-02 | Notification system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018146318A JP7289618B2 (en) | 2018-08-02 | 2018-08-02 | Notification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020021377A JP2020021377A (en) | 2020-02-06 |
JP7289618B2 true JP7289618B2 (en) | 2023-06-12 |
Family
ID=69589912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018146318A Active JP7289618B2 (en) | 2018-08-02 | 2018-08-02 | Notification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7289618B2 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004285A (en) | 2005-06-21 | 2007-01-11 | Toyota Motor Corp | Portable alarm device |
JP2007279824A (en) | 2006-04-03 | 2007-10-25 | Toyota Motor Corp | Autonomous mobile robot |
JP2013161098A (en) | 2012-02-01 | 2013-08-19 | Nikon Corp | Server device and monitoring system |
JP2017212571A (en) | 2016-05-25 | 2017-11-30 | 京セラ株式会社 | Electronic apparatus, control method, and control program |
WO2018008224A1 (en) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Robot, robot system, and recording medium |
-
2018
- 2018-08-02 JP JP2018146318A patent/JP7289618B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007004285A (en) | 2005-06-21 | 2007-01-11 | Toyota Motor Corp | Portable alarm device |
JP2007279824A (en) | 2006-04-03 | 2007-10-25 | Toyota Motor Corp | Autonomous mobile robot |
JP2013161098A (en) | 2012-02-01 | 2013-08-19 | Nikon Corp | Server device and monitoring system |
JP2017212571A (en) | 2016-05-25 | 2017-11-30 | 京セラ株式会社 | Electronic apparatus, control method, and control program |
WO2018008224A1 (en) | 2016-07-04 | 2018-01-11 | ソニー株式会社 | Robot, robot system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2020021377A (en) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017168900A1 (en) | Information processing device | |
US11455792B2 (en) | Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same | |
US10909759B2 (en) | Information processing to notify potential source of interest to user | |
JPWO2018008224A1 (en) | Robot, robot system and storage medium | |
JP7345683B2 (en) | A system for performing scene recognition dialogue | |
JP2024028516A (en) | Notification system | |
US20210154827A1 (en) | System and Method for Assisting a Visually Impaired Individual | |
US11182922B2 (en) | AI apparatus and method for determining location of user | |
US11755033B2 (en) | Artificial intelligence device installed in vehicle and method therefor | |
Ang et al. | Information communication assistive technologies for visually impaired people | |
US11449074B2 (en) | Robot for providing guidance service using artificial intelligence and method of operating the same | |
JP7424974B2 (en) | Operation evaluation system | |
JP6500139B1 (en) | Visual support device | |
JP7289618B2 (en) | Notification system | |
KR102225456B1 (en) | Road mate system, and road mate service providing method | |
JP2023054310A (en) | Notification device, first observation device, notification method, control device, and control method | |
KR20190094312A (en) | Control system for controlling a plurality of robots using artificial intelligence | |
WO2020203605A1 (en) | Notification system, notification method, program, and storage medium | |
WO2020203691A1 (en) | Display system, display method, program, and storage medium | |
JP7397575B2 (en) | Traffic light control device and traffic light control method | |
JP7327963B2 (en) | Processing device, photographing device and information processing device | |
JP2020022128A (en) | Terminal device | |
JP7224958B2 (en) | Notification device and notification method | |
JP7442295B2 (en) | Electronics | |
WO2021085583A1 (en) | Electronic instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210726 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220712 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220907 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230410 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230531 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7289618 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |