JP2023032869A - 迷子保護システム - Google Patents
迷子保護システム Download PDFInfo
- Publication number
- JP2023032869A JP2023032869A JP2021139223A JP2021139223A JP2023032869A JP 2023032869 A JP2023032869 A JP 2023032869A JP 2021139223 A JP2021139223 A JP 2021139223A JP 2021139223 A JP2021139223 A JP 2021139223A JP 2023032869 A JP2023032869 A JP 2023032869A
- Authority
- JP
- Japan
- Prior art keywords
- terminal device
- lost child
- guardian
- passerby
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
Abstract
【課題】迅速かつ確実に迷子を保護できる迷子保護システムを提供する。【解決手段】迷子保護システム1は、通路Rに配置された複数の端末装置11と、サーバ装置13を備える。端末装置11(b)は通行人Lを撮影した画像から通行人Lが迷子候補であると判定し、通行人Lと対話し通行人Lが迷子であると判定すると、通行人Lから名前等を聞き出すと共に、他の端末装置11に保護者候補の探索を要請する。通行人Gは端末装置11(b)からの要請に応じて保護者探索の呼び掛けを行っている端末装置11(r)に近づき、端末装置11(r)に対し通行人Lの名前等を入力する。端末装置11(r)は端末装置11(b)から受信した通行人Lの情報と通行人Gが入力した情報とを照合し、通行人Gが通行人Lの保護者候補であると判定すると、通行人Gの画像を端末装置11(b)に送信する。端末装置11(b)は通行人Gの画像を通行人Lに見せる。【選択図】図1
Description
本発明は迷子を保護するためのシステムに関する。
公共の場所において迷子が発生した場合、従来、スピーカからの音声による迷子の呼び出しや、係員等による迷子の探索が広く行われている。
上記のような従来の迷子対策は、保護者が自分の連れていた子ども等がはぐれていることに気付き、案内所等に相談した後に開始される。そのため、迷子が発生した後、その迷子と保護者が再会できるまでの時間が長くなる。また、係員等による迷子の探索には人出がかかる。
上記の問題を解消する技術が提案されている。例えば、特許文献1には、不特定多数の人間が来場する場所に配置した行動認識センサにより人間の行動を認識し、その結果に基づき迷子の候補者を選択し、自律移動できるロボットを迷子の候補者の位置まで移動させ、ロボットにより候補者を近くから撮影した画像や、ロボットが候補者に対し発した質問に対する候補者からの回答等に基づき、その候補者が迷子であるか否かを判定するシステムが記載されている。特許文献1に記載のシステムによれば、人出を要することなく、迷子を早期発見できる。
特許文献1に記載のシステムは、多数の行動認識センサにより迷子の候補者を選択した後、自律移動できるロボットが迷子の候補者の位置まで移動し、迷子の候補者の画像を撮影したり、迷子の候補者と対話したりすることで、その候補者が迷子か否かを判定する。そのため、迷子の候補者が発見された後、ロボットが迷子の候補者の位置まで移動する間に、その候補者が別の場所に移動してしまい、迷子の保護に至らない場合が生じ得る。
上記の事情に鑑み、本発明は、従来技術と比較しより迅速かつ確実に迷子を保護できる迷子保護システムを提供する。
本発明は、通行人の特徴情報の取得と通行人との対話が可能な複数の端末装置の各々により通行人から取得した特徴情報に基づき迷子候補の通行人を発見し、迷子候補から特徴情報を取得した端末装置により迷子候補と対話し、迷子候補との対話内容に基づき当該迷子候補が迷子であるか否かを判定する迷子保護システムを第1の態様として提案する。
第1の態様に係る迷子保護システムによれば、迷子候補の通行人が発見された場合、その通行人の近くにある端末装置がその通行人とすぐさま対話できるため、その通行人が迷子であった場合、迷子を迅速かつ確実に保護できる。
上記の第1の態様に係る迷子保護システムにおいて、迷子候補が迷子であると判定した場合、当該迷子と対話した端末装置により当該迷子に対しその場に留まるように促す、という構成が第2の態様として採用されてもよい。
第2の態様に係る迷子保護システムによれば、保護者等が迷子のいる場所に到着するまでの間に迷子が別の場所に移動してしまう危険性が低減される。
上記の第1又は第2の態様に係る迷子保護システムにおいて、迷子候補が迷子であると判定した場合、前記複数の端末装置の各々の発話により、通行人に対し迷子の保護者であれば前記複数の端末装置のいずれかと対話するように促す、という構成が第3の態様として採用されてもよい。
第3の態様に係る迷子保護システムによれば、迷子の保護者は自分からはぐれた子ども等が発見された可能性がある場合に、そのことを速やかに知ることができると共に、発見された迷子が自分からはぐれた子ども等であるか否かを速やかに確認できる。
上記の第1乃至第3のいずれかの態様に係る迷子保護システムにおいて、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補から取得した当該迷子の情報と、迷子と対話した端末装置により当該迷子から取得した当該迷子の情報とに基づき、当該保護者候補が当該迷子の保護者候補であるか否か判定する、という構成が第4の態様として採用されてもよい。
第4の態様に係る迷子保護システムによれば、迷子又は保護者候補が複数いる場合に、迷子と保護者候補の正しい組み合わせが分かる。
上記の第1乃至第4のいずれかの態様に係る迷子保護システムにおいて、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を当該保護者候補と対話した端末装置により撮影した画像を、迷子と対話した端末装置により、当該迷子に対し表示する、という構成が第5の態様として採用されてもよい。
第5の態様に係る迷子保護システムによれば、迷子は保護者候補が自分の保護者であるか否かを、その保護者候補の画像を見て容易に判断できる。
上記の第1乃至第5のいずれかの態様に係る迷子保護システムにおいて、迷子と対話した端末装置により当該迷子を撮影した画像を、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補に対し、当該保護者候補と対話した端末装置により表示する、という構成が第6の態様として採用されてもよい。
第6の態様に係る迷子保護システムによれば、保護者候補は迷子が自分からはぐれた子ども等であるか否かを、その迷子の画像を見て容易に判断できる。
上記の第1乃至第6のいずれかの態様に係る迷子保護システムにおいて、迷子と対話した端末装置と、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補と対話した端末装置とにより、当該迷子と当該保護者候補との対話を行わせる、という構成が第7の態様として採用されてもよい。
第7の態様に係る迷子保護システムによれば、保護者とその保護者からはぐれた迷子の組み合わせが確定した後、速やかに保護者と迷子が対話できるため、保護者が迷子のいる場所に移動するより前に迷子は安心できる。
上記の第1乃至第7のいずれかの態様に係る迷子保護システムにおいて、前記複数の端末装置の各々は自律走行が可能であり、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を、当該保護者候補と対話した端末装置の移動により、迷子と対話した端末装置の位置まで誘導する、という構成が第8の態様として採用されてもよい。
第8の態様に係る迷子保護システムによれば、保護者は先導して移動する端末装置の後を追うことで、自分からはぐれた迷子のいる場所まで迷わずに辿り着ける。
上記の第1乃至第7のいずれかの態様に係る迷子保護システムにおいて、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を、前記複数の端末装置の各々からの案内により、迷子と対話した端末装置の位置まで誘導する、という構成が第9の態様として採用されてもよい。
第9の態様に係る迷子保護システムによれば、保護者は自分のいる場所から自分からはぐれた迷子のいる場所に至る経路上の端末装置の各々からの発話に従い移動することで、自分からはぐれた迷子のいる場所まで迷わずに辿り着ける。
上記の第1乃至第7のいずれかの態様に係る迷子保護システムにおいて、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補の携帯端末装置に対し、当該保護者候補と対話した端末装置により、迷子と対話した端末装置の位置を通知する、という構成が第10の態様として採用されてもよい。
第10の態様に係る迷子保護システムによれば、保護者は自分が携帯する携帯端末装置に通知された位置に移動することで、自分からはぐれた迷子の可能性のある人と出会うことができる。
[実施形態]
以下に、本発明の一実施形態に係る迷子保護システム1を説明する。図1は、迷子保護システム1の全体構成を示した図である。本実施形態において、迷子保護システム1は不特定多数の人が往来できる通路Rにおいて迷子が発生した場合に、その迷子を保護するためのシステムである。
以下に、本発明の一実施形態に係る迷子保護システム1を説明する。図1は、迷子保護システム1の全体構成を示した図である。本実施形態において、迷子保護システム1は不特定多数の人が往来できる通路Rにおいて迷子が発生した場合に、その迷子を保護するためのシステムである。
迷子保護システム1は、迷子保護システム1の監視対象の空間(この場合、通路R上の空間)内に互いに概ね所定の距離をあけて配置された複数の端末装置11と、通路Rの管理者Mが携帯する携帯端末装置12と、複数の端末装置11及び携帯端末装置12の間で行われるデータ通信を中継するサーバ装置13を備える。
図1の例では、通路R上に2人の通行人、すなわち、通行人Lと通行人Gが例示されている。通行人Lは迷子となっている通行人の例であり、通行人Gは通行人Lの保護者である通行人の例である。通行人Gは携帯端末装置21を携帯している。
図1には、複数の端末装置11の例として、8台の端末装置11、すなわち、端末装置11(a)、11(b)、11(c)、11(d)、11(p)、11(q)、11(r)、11(s)が示されている。迷子保護システム1が備える端末装置11の数や配置は、迷子保護システム1の監視対象の空間の広さ等に応じて適宜、変更される。
図2は、端末装置11の外観を例示した図である。図2に例示の端末装置11は、胴部111と頭部112で構成される筐体と、それらの筐体に収容又は取り付けられたコンピュータ110、タッチスクリーン113、カメラ114、スピーカ115、マイク116、アンテナ117を備える。
本実施形態において、端末装置11は人の形状を模した胴部及び頭部を有するロボットの外観を備えるが、端末装置11の外観は図2に例示したものに限られない。また、端末装置11が備える各構成部(タッチスクリーン113等)の配置は図2に例示したものに限られない。
また、本実施形態において、端末装置11は移動しないものとするが、例えば自律的に、もしくはサーバ装置13の指示に従い、端末装置11が移動できてもよい。また、本実施形態において、端末装置11が備える胴部111と頭部112の位置関係は固定されているものとするが、例えば自律的に、もしくはサーバ装置13の指示に従い、胴部111に対する頭部112の位置関係が変化するように可動してもよい。
コンピュータ110は、プロセッサ、メモリ、通信インタフェースを備え、メモリに記憶しているプログラムに従い、プロセッサがデータ処理を行うことで、後述する端末装置11の機能を実現する。タッチスクリーン113、カメラ114、スピーカ115、マイク116及びアンテナ117はコンピュータ110に接続されており、コンピュータ110の制御下で動作する。
コンピュータ110のメモリには、端末装置11(自装置)の位置を示す位置データと、迷子保護システム1の監視対象領域(通路R)の地図を表す地図データが記憶されている。これらのデータは、端末装置11が、自装置の位置から迷子が近くにいる他の端末装置11の位置に至る移動経路の特定等に用いられる。
タッチスクリーン113は、ディスプレイとタッチパネルが一体に積層配置された装置であり、ユーザに対し各種情報を表示する表示手段の役割と、ユーザが端末装置11に対し行う各種操作を受け付ける操作受付手段の役割を果たす。
カメラ114は、光学カメラであり、端末装置11の周囲を継続的に撮影し、撮影した画像を表す画像データを順次生成する撮影手段の役割を果たす。
スピーカ115は、コンピュータ110により生成された音声を発音する発音手段の役割を果たす。
マイク116は、端末装置11の周囲の音を継続的に拾音し、拾音した音を表す音データを順次生成する拾音手段の役割を果たす。
アンテナ117は、コンピュータ110が備える通信インタフェースに接続され、端末装置11がサーバ装置13との間で無線によるデータ通信を行うための電波の送受信を行う。なお、本実施形態において、端末装置11はサーバ装置13との間で無線によるデータ通信を行うものとするが、端末装置11とサーバ装置13の間のデータ通信が有線により行われてもよい。
携帯端末装置12は、サーバ装置13との間で無線によるデータ通信が可能なコンピュータであり、プロセッサ、メモリ、通信インタフェース、タッチスクリーン、スピーカを備える。携帯端末装置12は、サーバ装置13を介して端末装置11から送信されてくる各種通知を受信し、受信した通知の内容を管理者Mに音の発音及び画像(文字等を含む)の表示により伝える通知手段の役割を果たす。
携帯端末装置21は、端末装置11のタッチスクリーン113に表示される二次元バーコードを読み取り、読み取った二次元バーコードが示すURLに応じたWebページの表示を指示する表示指示データ(例えば、HTMLで記述されたデータ)を、インターネットを介してサーバ装置13から受信し、受信した表示指示データに従い、Webブラウザにより、通行人Lの位置を示す地図を通行人Gに対し表示する役割を果たすコンピュータである。そのため、携帯端末装置21は、プロセッサ、メモリ、通信インタフェース、タッチスクリーン、カメラを備える。
サーバ装置13は、端末装置11、携帯端末装置12及び携帯端末装置21とデータ通信が可能なコンピュータであり、プロセッサ、メモリ、通信インタフェースを備える。サーバ装置13は、複数の端末装置11及び携帯端末装置12の間のデータ通信を中継する役割を果たす。また、サーバ装置13は、携帯端末装置21に通行人Lの位置を示す地図を表示するWebページの表示指示データを送信するWebサーバの役割も果たす。そのため、サーバ装置13のメモリには、迷子保護システム1の監視対象領域(通路R)の地図を表す地図データが記憶されている。
なお、以下の説明において、端末装置11の各々が行うものとする処理の一部が、サーバ装置13により行われてもよい。例えば、端末装置11は、通行人Lが迷子であるか否かを推定するために、カメラ114により撮影した画像を認識する処理を行うが、この画像を認識する処理が、端末装置11によらずサーバ装置13において行われてもよい。その場合、端末装置11はカメラ114で撮影した画像を表す画像データをサーバ装置13に送信し、サーバ装置13がその画像データが表す画像を認識する処理を行い、認識した結果を示すデータを、画像データの送信元の端末装置11に送信すればよい。
図3A及び図3B(以下、これらを図3と総称する)は、端末装置11が行う処理のフロー図である。図3のフロー図に示される処理は、複数の端末装置11の各々において同時に実行される。
なお、図3~図7のフロー図に示される処理は、端末装置11のコンピュータ110が備えるプロセッサがプログラムに従うデータ処理を行い、必要に応じて端末装置11が備えるカメラ114等の他の装置を制御することで実行される。
端末装置11はカメラ114により、十分に短い所定時間間隔(例えば、1/30秒間隔)で継続的に撮影を行う(ステップS101)。
端末装置11は、カメラ114が撮影した画像を既知の画像認識手法に従い認識し、画像内に過去に認識していない新たな通行人が登場したか否かを判定する(ステップS102)。新たな通行人が登場していない、と判定した場合(ステップS102;No)、端末装置11はステップS101以下の処理を繰り返す。
ステップS102において、新たな通行人が登場した、と判定した場合(ステップS102;Yes)、端末装置11はカメラ114による撮影を継続する(ステップS103)。
端末装置11は、ステップS103の処理が所定時間(例えば、1分間)、継続されたか否かを判定する(ステップS104)。ステップS103の処理が所定時間、継続された、と判定した場合(ステップS104;Yes)、端末装置11は、ステップS103において撮影した画像(動画)に基づき、画像に写っている通行人が迷子候補であるか否かを判定する(ステップS105)。なお、迷子候補とは、迷子である可能性があるが迷子とは断定されていない状態の通行人を意味する。
図4は、ステップS105の処理、すなわち、画像に写っている通行人が迷子候補であるか否かを判定するための処理のフロー図である。端末装置11は、まず、通行人が迷子である可能性の高さを示す指標値Pの値として、初期値0を代入する(ステップS201)。
続いて、端末装置11は、ステップS103において撮影された画像に基づき、画像に写っている通行人の年齢を推定する(ステップS202)。ステップS202における年齢の推定には、例えば、人の画像を説明変数とし、その人の年齢を目的変数として構築した学習型人工知能のモデル(学習モデル)に対し、ステップS103において撮影された画像を説明変数として入力し、学習モデルから目的変数として出力される年齢を取得する、という方法が一例として採用され得るが、他の手法により年齢の推定が行われてもよい。
続いて、端末装置11は、ステップS202において推定した年齢(推定年齢)が7歳以下であるか否かを判定する(ステップS203)。なお、ステップS203の判定に用いられる年齢の閾値は7歳以外であってもよい。
推定年齢が7歳以下である、と判定した場合(ステップS203;Yes)、端末装置11は指標値Pに1を加算する(ステップS204)。なお、ステップS204において指標値Pに加算される数値は1以外であってもよい。
一方、ステップS203の判定において、推定年齢が7歳を超えている、と判定した場合(ステップS203;No)、端末装置11は指標値Pに何も加算せずに、ステップS215以下の処理を行う。
上記のステップS202~S204の処理と並行して、端末装置11は、ステップS103において撮影された画像に基づき、画像に写っている通行人の身長を推定する(ステップS205)。ステップS205における身長の推定には、例えば、カメラ114が通行人を撮影した際のカメラ114から通行人までの焦点距離と、画像に写っている通行人の画像のサイズに基づき、所定の算出式に従い算出する方法が一例として採用され得るが、他の手法により身長の推定が行われてもよい。
続いて、端末装置11は、ステップS205において推定した身長(推定身長)が120cm以下であるか否かを判定する(ステップS206)。なお、ステップS206の判定に用いられる身長の閾値は120cm以外であってもよい。
推定身長が120cm以下である、と判定した場合(ステップS206;Yes)、端末装置11は指標値Pに1を加算する(ステップS207)。なお、ステップS207において指標値Pに加算される数値は1以外であってもよい。
一方、ステップS206の判定において、推定身長が120cmを超えている、と判定した場合(ステップS206;No)、端末装置11は指標値Pに何も加算せずに、処理をステップS215以下の処理を行う。
上記のステップS202~S207の処理と並行して、端末装置11は、ステップS103において撮影された画像に基づき、画像に写っている通行人の表情を推定する(ステップS208)。ここで表情とは、平常顔、泣き顔、困り顔、怒り顔、笑い顔等で例示される顔の表情を意味する。ステップS208における表情の推定には、例えば、人の顔の画像を説明変数とし、その顔の表情を目的変数として構築した学習型人工知能のモデル(学習モデル)に対し、ステップS103において撮影された画像を説明変数として入力し、学習モデルから目的変数として出力される表情を取得する、という方法が一例として採用され得るが、他の手法により表情の推定が行われてもよい。
続いて、端末装置11は、ステップS208において推定した表情(推定表情)が泣き顔又は困り顔であるか否かを判定する(ステップS209)。なお、ステップS209において、例えば、不安顔などの、泣き顔及び困り顔以外の表情が判定の対象とされてもよい。
推定表情が泣き顔又は困り顔である、と判定した場合(ステップS209;Yes)、端末装置11は指標値Pに1を加算する(ステップS210)。なお、ステップS210において指標値Pに加算される数値は1以外であってもよい。
一方、ステップS209の判定において、推定表情が泣き顔及び困り顔のいずれでもない、と判定した場合(ステップS209;No)、端末装置11は指標値Pに何も加算せずに、ステップS215以下の処理を行う。
上記のステップS202~S210の処理と並行して、端末装置11は、ステップS103において撮影された画像に基づき、画像に写っている通行人の挙動を特定する(ステップS211)。ここで挙動とは、誰かを探している挙動、右往左往している挙動、等で例示される動作を意味する。例えば、端末装置11は、画像に写っている通行人の頭部の動きが異なる方向に視線を頻繁に移す動きのパターンに従っている場合、この通行人の挙動が、キョロキョロと周囲を見渡して誰かを探している挙動である、と特定する。また、端末装置11は、画像に写っている通行人の移動経路が、ある場所から別の場所に移動し、また元の場所に戻ってくる移動経路を示す場合、この通行人の挙動が、右往左往している挙動である、と特定する。
続いて、端末装置11は、ステップS211において特定した挙動が、誰かを探している挙動、又は、右往左往している挙動であるか否かを判定する(ステップS212)。なお、ステップS212において、例えば、呆然と立ち尽くしている挙動などの、誰かを探している挙動、及び、右往左往している挙動以外の挙動が判定の対象とされてもよい。
通行人の挙動が誰かを探している挙動、又は、右往左往している挙動である、と判定した場合(ステップS212;Yes)、端末装置11は指標値Pに1を加算する(ステップS213)。なお、ステップS213において指標値Pに加算される数値は1以外であってもよい。
一方、ステップS212の判定において、通行人の挙動が誰かを探している挙動、及び、右往左往している挙動のいずれでもない、と判定した場合(ステップS212;No)、端末装置11は指標値Pに何も加算せずに、ステップS215以下の処理を行う。
上記のステップS202~S213の処理と並行して、端末装置11は、ステップS103において撮影された画像に基づき、画像に写っている通行人の性別を推定する(ステップS214)。ステップS214における性別の推定には、例えば、人の画像を説明変数とし、その人の性別を目的変数として構築した学習型人工知能のモデル(学習モデル)に対し、ステップS103において撮影された画像を説明変数として入力し、学習モデルから目的変数として出力される性別を取得する、という方法が一例として採用され得るが、他の手法により性別の推定が行われてもよい。
上記のステップS202~S214の処理が完了すると、続いて、端末装置11は、指標値Pが2以上であるか否かを判定する(ステップS215)。なお、ステップS215の判定に用いられる指標値Pの閾値は2以外であってもよい。
指標値Pが2以上である、と判定した場合(ステップS215;Yes)、端末装置11は画像に写っている通行人が迷子候補である、と判定する(ステップS216)。一方、指標値Pが2未満である、と判定した場合(ステップS215;No)、端末装置11は画像に写っている通行人が迷子候補ではない、と判定する(ステップS217)。
以上が、端末装置11がステップS105(図3参照)において行う処理の説明である。続いて、図3を参照し、ステップS105に続く処理を説明する。
ステップS105において、画像に写っている通行人が迷子候補ではない、と判定した場合(ステップS105;No)、端末装置11はステップS101以下の処理を繰り返す。一方、画像に写っている通行人が迷子候補である、と判定した場合(ステップS105;Yes)、端末装置11は迷子候補の通行人に対し対話を試みる(ステップS106)。
なお、端末装置11による通行人との対話は、端末装置11が、例えば、会話のシナリオを示すシナリオデータに従い学習モデル(人工知能)を用いて発話する文章を決定し、既知の音声合成手法によりその文章を読み上げた音声を生成し、スピーカ115がその音声を発することにより発話し、その発話に応じて通行人が発した音声をマイク116で拾音し、その音声が示す文章を端末装置11が既知の音声認識手法により認識する、という処理を繰り返すことにより行われる。
図5は、端末装置11がステップS106において行う処理のフロー図である。まず、端末装置11は、通行人に対し、例えば「ねえ、お兄ちゃん(お嬢ちゃん)、もしかして、迷子になっちゃったの?」のような発話を行い、迷子であるか否かを訊ねる(ステップS301)。
続いて、端末装置11は、ステップS301において発した音声に対し通行人が応答したか否かを判定する(ステップS302)。応答しない、と判定した場合(ステップS302;不明)、端末装置11は、対話が失敗したと判断し(ステップS303)、図5の一連の処理を終了する。また、通行人が、例えば「僕(私)、迷子じゃないよ。」のような応答をした場合(ステップS302;No)、端末装置11は、この通行人は迷子ではないと判断し(ステップS304)、図5の一連の処理を終了する。
一方、通行人が、例えば「僕(私)、迷子になっちゃった。」のような応答をした場合(ステップS302;Yes)、端末装置11は、この通行人は迷子であると判断し、通行人に対し、例えば「お名前、教えてくれる?」のような発話を行い、通行人の名前を聞き出す(ステップS305)。
続いて、端末装置11は、通行人に対し、例えば「何歳か教えてくれる?」のような発話を行い、通行人の年齢を聞き出す(ステップS306)。その後、端末装置11は図5の一連の処理を終了する。
以上が、ステップS106(図3)の処理である。再び図3を参照し、端末装置11の処理の説明を続ける。端末装置11は、ステップS106における対話の試みが成功したか否かを判定する(ステップS107)。対話が失敗した、と判定した場合(ステップS107;No)、端末装置11は管理者Mが携帯する携帯端末装置12に対し、迷子が疑われる通行人がいたが対話に失敗した旨を示す通知を送信した後(ステップS108)、ステップS101以下の処理を繰り返す。
ステップS108において端末装置11から携帯端末装置12に送信される通知は、例えば、サーバ装置13を介して携帯端末装置12に送信される(ステップS110等の通知に関しても同様)。また、この通知には、ステップS103において撮影された画像(動画)を表す画像データと、端末装置11の位置を示す位置データが含まれる。管理者Mは、携帯端末装置12に表示されるこの通知の内容を見て、必要に応じた対応を行う。
ステップS106における対話が成功した、と判定した場合(ステップS107;Yes)、端末装置11はステップS106の対話の結果に基づき、通行人が迷子であるか否かを判定する(ステップS109)。迷子ではない、と判定した場合(ステップS109;No)、端末装置11はステップS101以下の処理を繰り返す。
一方、迷子である、と判定した場合(ステップS109;Yes)、端末装置11は管理者Mが携帯する携帯端末装置12に対し、迷子が発見された旨を示す通知を送信する(ステップS110)。この通知には、ステップS103において撮影された画像(動画)を表す画像データと、端末装置11の位置を示す位置データが含まれる。管理者Mは、携帯端末装置12に表示されるこの通知の内容を見て、必要に応じた対応を行う。
続いて、端末装置11は、迷子に対し、例えば「今からお父さんかお母さんを探すから、ここで待っていようね。」といった発話を行い、迷子にその場に留まるように促す(ステップS111)。
続いて、端末装置11は、ステップS111の促しに応じて、迷子がその場に留まっているか否かを判定する(ステップS112)。迷子がその場に留まっていない、と判定した場合(ステップS112;No)、端末装置11は管理者Mが携帯する携帯端末装置12に対し、迷子が立ち去ってしまった旨を示す通知を送信した後(ステップS113)、ステップS101以下の処理を繰り返す。管理者Mは、携帯端末装置12に表示されるこの通知の内容を見て、必要に応じた対応を行う。
ステップS111~S113の処理と並行して、端末装置11(迷子と対話した端末装置11、以下、端末装置11Aという)は、他の端末装置11(以下、端末装置11Bという)に対し、保護者候補の探索を要請する(ステップS114)。なお、保護者候補とは、ステップS109において迷子と判定した通行人の保護者である可能性があるが、その迷子の保護者とは断定されていない状態の通行人を意味する。
ステップS114において、端末装置11Aから端末装置11Bに送信される要請は、例えばサーバ装置13を介して送信される。また、この要請には、端末装置11AがステップS105(図4参照)において推定した迷子の身長、性別を示すデータと、ステップS106において迷子から聞き出した名前及び年齢を示すデータと、端末装置11Aの位置を示すデータが含まれる。
図6A、図6B及び図6C(以下、これらを図6と総称する)は、端末装置11Aから保護者候補の探索の要請を受けた端末装置11Bの各々が行う処理のフロー図である。まず、端末装置11Bは、例えば「迷子をお探しの方はこちらまでお越し下さい。」といった発話により、通行人に対する呼び掛けを行う(ステップS401)。
続いて、端末装置11Bは、カメラ114で撮影した画像に基づき、呼び掛けに応じて近づいてくる通行人がいるか否かを判定する(ステップS402)。近づいてくる通行人がいない、と判定した場合(ステップS402;No)、端末装置11BはステップS401以下の処理を繰り返す。
一方、近づいてくる通行人がいる、と判定した場合(ステップS402;Yes)、端末装置11Bはタッチスクリーン113に、例えば、「迷子をお探しですか? [Yes]/[No]」といったメッセージを表示し、近づいてきた通行人に対し、保護者であるか否かの確認を促す(ステップS403)。
続いて、端末装置11Bは、ステップS403において表示したメッセージに対し、通行人により[Yes]をタッチする操作が行われたか否かを判定する(ステップS404)。通行人により[Yes]をタッチする操作が行われなかった、と判定した場合(ステップS404;No)、端末装置11BはステップS401以下の処理を繰り返す。
一方、通行人により[Yes]をタッチする操作が行われた、と判定した場合(ステップS404;Yes)、端末装置11Bは、まず、通行人が迷子の保護者候補である可能性の高さを示す指標値Qの値として、初期値0を代入する(ステップS405)。
続いて、端末装置11Bは、タッチスクリーン113に、例えば「お探しの方の名前を入力して下さい。[ ]」といったメッセージと仮想キーボードを表示し、通行人に対し、迷子の名前の入力を促す(ステップS406)。
続いて、端末装置11Bは、ステップS406において表示したメッセージに対し、通行人により入力された名前が、端末装置11Aからの要請に含まれるデータが示す迷子の名前と一致するか否かを判定する(ステップS407)。
迷子の名前が一致する、と判定した場合(ステップS407;Yes)、端末装置11Bは指標値Qに1を加算する(ステップS408)。なお、ステップS408において指標値Qに加算される数値は1以外であってもよい。一方、迷子の名前が一致しない、と判定した場合(ステップS407;No)、端末装置11Bは指標値Qに何も加算せずに、ステップS409以下の処理を行う。
続いて、端末装置11Bは、タッチスクリーン113に、例えば「お探しの方の年齢を入力して下さい。[ ]歳」といったメッセージと仮想テンキーを表示し、通行人に対し、迷子の年齢の入力を促す(ステップS409)。
続いて、端末装置11Bは、ステップS409において表示したメッセージに対し、通行人により入力された年齢が、端末装置11Aからの要請に含まれるデータが示す迷子の年齢と一致するか否かを判定する(ステップS410)。
迷子の年齢が一致する、と判定した場合(ステップS410;Yes)、端末装置11Bは指標値Qに1を加算する(ステップS411)。なお、ステップS411において指標値Qに加算される数値は1以外であってもよい。一方、迷子の年齢が一致しない、と判定した場合(ステップS410;No)、端末装置11Bは指標値Qに何も加算せずに、ステップS412以下の処理を行う。
続いて、端末装置11Bは、タッチスクリーン113に、例えば「お探しの方の身長を入力して下さい。[ ]cmくらい」といったメッセージと仮想テンキーを表示し、通行人に対し、迷子の身長の入力を促す(ステップS412)。
続いて、端末装置11Bは、ステップS412において表示したメッセージに対し、通行人により入力された身長が、端末装置11Aからの要請に含まれるデータが示す迷子の推定身長と概ね一致するか否か、すなわち、所定の誤差を含む範囲内に入るか否かを判定する(ステップS413)。
迷子の身長が概ね一致する、と判定した場合(ステップS413;Yes)、端末装置11Bは指標値Qに1を加算する(ステップS414)。なお、ステップS414において指標値Qに加算される数値は1以外であってもよい。一方、迷子の身長が異なる、と判定した場合(ステップS413;No)、端末装置11Bは指標値Qに何も加算せずに、ステップS415以下の処理を行う。
続いて、端末装置11Bは、タッチスクリーン113に、例えば「お探しの方の性別を選択して下さい。[男]/[女]」といったメッセージを表示し、通行人に対し、迷子の性別の入力を促す(ステップS415)。
続いて、端末装置11Bは、ステップS415において表示したメッセージに対し、通行人により入力された性別が、端末装置11Aからの要請に含まれるデータが示す迷子の推定性別と一致するか否かを判定する(ステップS416)。
迷子の性別が一致する、と判定した場合(ステップS416;Yes)、端末装置11Bは指標値Qに1を加算する(ステップS417)。なお、ステップS417において指標値Qに加算される数値は1以外であってもよい。一方、迷子の性別が異なる、と判定した場合(ステップS416;No)、端末装置11Bは指標値Qに何も加算せずに、ステップS418以下の処理を行う。
続いて、端末装置11Bは、指標値Qが2以上であるか否かを判定する(ステップS418)。なお、ステップS418の判定に用いられる指標値Qの閾値は2以外であってもよい。
指標値Qが2以上でない、と判定した場合(ステップS418;No)、端末装置11Bはこの通行人が今見つかっている迷子の保護者候補ではないと判断し、タッチスクリーン113に、例えば「残念ながら、今見つかっている迷子は、あなたの迷子ではないようです。管理者にご相談下さい。」といったメッセージと、管理者Mがいる案内所の位置を示す地図を表示した後(ステップS419)、ステップS401以下の処理を繰り返す。
指標値Qが2以上である、と判定した場合(ステップS418;Yes)、端末装置11Bはこの通行人が保護者候補である、と判断する。ここで、迷子保護システム1がこの通行人をまだ保護者と確定せず、保護者候補として扱う理由は、この通行人からはぐれた迷子が、迷子保護システム1により発見されている迷子とは異なる場合があるためである。
通行人が保護者候補であると判断した場合、端末装置11Bは、端末装置11Aに対し、保護者候補が現れた旨の通知を送信する(ステップS420)。この通知には、端末装置11Bが撮影した保護者候補の画像を表す画像データが含まれる。
ステップS420において送信した通知に応じて、端末装置11Aから、保護者候補が迷子の保護者である旨を示す応答か、もしくは、保護者候補が迷子の保護者でない旨を示す応答が送信されてくる。保護者候補が迷子の保護者である旨を示す応答には、端末装置11Aの位置を示す位置データが含まれる。
端末装置11Bは、端末装置11Aから送信されてきた応答が、保護者候補が迷子の保護者である旨を示す応答か否かを判定する(ステップS421)。
端末装置11Aから送信されてきた応答が、保護者候補が迷子の保護者でない旨を示す応答である、と判定した場合(ステップS421;No)、端末装置11BはステップS419以下の処理を行う。
端末装置11Aから送信されてきた応答が、保護者候補が迷子の保護者である旨を示す応答である、と判定した場合(ステップS421;Yes)、端末装置11Bは端末装置11Aとの間でテレビ電話のための通信接続を確立し、保護者と迷子を対話させる(ステップS422)。
保護者が迷子との対話を終了すると、端末装置11Bはタッチスクリーン113に、例えば「あなたの迷子のいらっしゃる場所はこちら方向です。」といったメッセージと、端末装置11Bの位置から端末装置11Aの位置に向かう方向を示す矢印と、端末装置11Bの位置及び携帯端末装置12Aの位置を示す地図と、二次元バーコード(例えば、QRコード(登録商標))と、「移動経路上のロボットによる誘導が必要ですか? [Yes]/[No]」といったメッセージを表示する(ステップS423)。
ステップS423において表示される二次元バーコードは、端末装置11Bの位置から端末装置11Aの位置に向かう移動経路を示す地図を表示するWebページのURLを示す。保護者である通行人が携帯端末装置21を携帯している場合、通行人は携帯端末装置21によりこの二次元バーコードを読み取ることで、携帯端末装置21に、自分の現在位置から、自分の迷子のいる位置までの移動経路を示す地図を表示させることができる。なお、本実施形態において、その地図を示すWebページの表示を指示する表示指示データは、サーバ装置13から携帯端末装置21に送信されるものとするが、サーバ装置13以外のサーバ装置から携帯端末装置21にされてもよい。
端末装置11Bは、ステップS423において表示した「移動経路上のロボットによる誘導が必要ですか? [Yes]/[No]」といったメッセージに対し、保護者により[Yes]をタッチする操作が行われたか否かを判定する(ステップS424)。[Yes]をタッチする操作が行われなかった、と判定した場合(ステップS424;No)、端末装置11Bは図6の一連の処理を終了する。
一方、[Yes]をタッチする操作が行われた、と判定した場合(ステップS424;Yes)、端末装置11Bは、端末装置11Bの位置から端末装置11Aの位置に向かう移動経路上の全ての端末装置11(以下、端末装置11Cという)に対し、誘導の要請を行った後(ステップS425)、図6の一連の処理を終了する。端末装置11Bが端末装置11Cに送信する要請には、端末装置11Bが撮影した保護者の画像を表す画像データと、端末装置11Aの位置を示す位置データが含まれる。
図7は、端末装置11Bから誘導の要請を受けた端末装置11Cが行う処理のフロー図である。端末装置11Cは、カメラ114で通行人を撮影し(ステップS501)、撮影した通行人が、端末装置11Bからの要請に含まれる画像データが表す保護者であるか否かを判定する(ステップS502)。なお、ステップS502の判定には、既知の画像認識手法が用いられる。
撮影した通行人が保護者ではない、と判定した場合(ステップS502;No)、端末装置11CはステップS501以下の処理を繰り返す。一方、撮影した通行人が保護者である、と判定した場合(ステップS502;Yes)、端末装置11Cはタッチスクリーン113に、例えば「あなたの迷子のいらっしゃる場所はこちら方向です。」といったメッセージと、端末装置11Cの位置から端末装置11Aの位置に向かう方向を示す矢印を案内として表示する(ステップS503)。
続いて、端末装置11Cは、カメラ114で撮影を行い(ステップS504)、撮影した画像に基づき、保護者が立ち去ったか否かを判定する(ステップS505)。保護者が立ち去っていない、と判定した場合(ステップS505;No)、端末装置11CはステップS503以下の処理を繰り返す。一方、保護者が立ち去った、と判定した場合(ステップS505;Yes)、端末装置11Cは図7の一連の処理を終了する。
以上が、端末装置11Aから保護者候補の探索の要請を受けた端末装置11Bが行う処理と、端末装置11Bから保護者の誘導の要請を受けた端末装置11Cが行う処理の説明である。再び図3を参照し、迷子と対話した端末装置11(端末装置11A)の処理の説明を続ける。
端末装置11Aは、ステップS114において他の端末装置11(端末装置11B)に対し保護者候補の探索の要請を行った後、いずれかの端末装置11Bから、保護者候補が現れた旨の通知(図6のステップS420参照)が送信されてきたか否かを判定する(ステップS115)。いずれの端末装置11Bからも、保護者候補が現れた旨の通知が送信されてきていない、と判定した場合(ステップS115;No)、端末装置11AはステップS115以下の処理を繰り返す。
一方、いずれかの端末装置11Bから、保護者候補が現れた旨の通知が送信されてきた、と判定した場合(ステップS115;Yes)、端末装置11Aは迷子に対し、例えば「この人はあなたと一緒に来た人ですか?」といった発話を行うと同時に、タッチスクリーン113に、端末装置11Bからの通知に含まれる画像データが表す保護者候補の画像を表示する(ステップS116)。
続いて、端末装置11Aは、ステップS116において発話した問いかけに応じて、迷子が、例えば「うん。この人は私のお母さん。」といった、保護者候補が自分の保護者であることを認める発話を行ったか否かを判定する(ステップS117)。
迷子が、保護者候補が自分の保護者であることを認める発話を行わなかった、と判定した場合(ステップS117;No)、端末装置11Aは、保護者候補が現れた旨の通知の送信元の端末装置11Bに対し、保護者候補が迷子の保護者ではなかった旨の応答を送信した後(ステップS118)、ステップS115以下の処理を繰り返す。
なお、ステップS118において端末装置11Aから送信された応答を受信した端末装置11Bは、図6のステップS419の処理を行う。
一方、迷子が、保護者候補が自分の保護者であることを認める発話を行った、と判定した場合(ステップS117;Yes)、端末装置11Aは、管理者Mの携帯する携帯端末装置12にその旨の通知を行う(ステップS119)と同時に、全ての端末装置11Bに対し、保護者候補の探索の終了を指示する(ステップS120)。さらに、端末装置11Aは、保護者が近くにいる端末装置11Bとの間でテレビ電話のための通信接続を確立し、迷子と保護者を対話させる(ステップS121)(図6のステップS422参照)。
迷子と保護者の対話が終了すると、端末装置11Aはタッチスクリーン113に、例えば「保護者の方へ。お探しの方と無事、会えましたか? [Yes]/[No]」といったメッセージを表示し(ステップS122)、保護者に迷子と再会できたことの確認の操作を促す。
端末装置11Aは、ステップS122において表示したメッセージに対し、[Yes]をタッチする操作が行われたか否かを判定する(ステップS123)。[Yes]をタッチする操作が行われていない、と判定した場合(ステップS123;No)、端末装置11AはステップS123以下の処理を繰り返す。一方、[Yes]をタッチする操作が行われた、と判定した場合(ステップS123;Yes)、端末装置11AはステップS101以下の処理を繰り返す。
以上が、迷子保護システム1の動作の説明である。
上述した迷子保護システム1の動作によれば、迷子の通行人である通行人L(図1参照)は、まず、近くの端末装置11(例えば、図1の端末装置11(b))からの呼び掛けに応じて、自分が迷子であることを端末装置11に告げた後、端末装置11からの指示に従いその場所に留まる。暫くすると、端末装置11のタッチスクリーン113に保護者の通行人である通行人Gの画像が表示されるので、通行人Lはその画像を見て、通行人Gが自分の保護者である旨を端末装置11に告げる。すると、端末装置11のタッチスクリーン113に通行人Gのリアルタイム画像が表示され、通行人Lは端末装置11を通じたテレビ電話により、通行人Gと対話することができる。その後、通行人Gが通行人Lのいる場所までやってきて、通行人Lは通行人Gに保護される。
また、上述した迷子保護システム1の動作によれば、保護者の通行人である通行人Gは、まず、近くの端末装置11(例えば、図1の端末装置11(r))からの呼び掛けに応じて、自分が迷子を探している旨を端末装置11にタッチ操作で伝えた後、自分からはぐれた迷子の名前等を端末装置11に入力する。すると、端末装置11のタッチスクリーン113に通行人Lのリアルタイム画像が表示され、通行人Gは端末装置11を通じたテレビ電話により、通行人Lと対話することができる。その後、通行人Gは自分の携帯する携帯端末装置21により端末装置11のタッチスクリーン113に表示される二次元バーコードを読み取って、携帯端末装置21に現在位置から通行人Lの場所までの移動経路を示す地図を表示させ、その地図に従い通行人Lのいる場所まで移動する。もしくは、通行人Gは、現在位置から通行人Lの場所までの移動経路上の複数の端末装置11に順次案内されて、通行人Lのいる場所まで移動する。その結果、通行人Gは通行人Lを保護することができる。
[変形例]
上述した実施形態は本発明の技術的思想の範囲内で様々に変形されてよい。以下にそれらの変形例を示す。なお、以下に示す変形例の2以上が適宜組み合わされてもよい。
上述した実施形態は本発明の技術的思想の範囲内で様々に変形されてよい。以下にそれらの変形例を示す。なお、以下に示す変形例の2以上が適宜組み合わされてもよい。
(1)上述した実施形態において、端末装置11は、通行人の特徴情報を取得するための手段として、カメラ114(撮影装置)を備えるものとした。端末装置11が、人感センサ等の、撮影装置以外の種類の、通行人の特徴情報を取得するための手段を備えてもよい。また、例えば、端末装置11が、迷子候補の状態を推定するために、マイク116(拾音装置)が拾音した音を用いてもよい。
(2)上述した実施形態において、通行人が迷子候補であるか否かの判定は、年齢、身長、表情及び挙動に基づくものとしたが、通行人が迷子候補であるか否かの判定が、これら以外の情報に基づき行われてもよい。また、上述した実施形態において、通行人が保護者候補であるか否かの判定は、名前、年齢、身長及び性別に基づくものとしたが、通行人が保護者候補であるか否かの判定が、これら以外の情報に基づき行われてもよい。
(3)上述した実施形態において、複数の端末装置11が保護者を迷子のいる場所に誘導するための案内は、タッチスクリーン113に画像(文字等を含む)を表示することにより行われるものとしたが、端末装置11が保護者を迷子のいる場所に誘導するための案内の態様は表示に限られない。例えば、端末装置11が、スピーカ115から音声を発することにより案内を行ってもよい。
(4)上述した実施形態において、端末装置11は移動できないものとしたが、端末装置11が移動可能であってもよい。その場合、端末装置11は、迷子候補に自ら近づいていくことで、迷子候補との対話をよりスムーズに開始できる。
また、端末装置11が自律走行可能である場合、端末装置11が、保護者候補(又は保護者)を、迷子と対話した端末装置11の位置まで、移動により誘導してもよい。
なお、端末装置11が移動可能な場合、端末装置11は、例えばGNSS(Global Navigation Satellite System)等の位置測定装置を備え、自装置の位置を測定し、測定した位置を用いて、例えば、自装置の位置から迷子のいる場所に向かう移動経路を特定等する。
(5)上述した実施形態において、携帯端末装置12は端末装置11のタッチスクリーン113に表示される二次元バーコードを読み取ることにより、サーバ装置13から、迷子と対話した端末装置11の位置を示す地図の通知を受けることができるものとした。迷子保護システム1が携帯端末装置12に対し、迷子と対話した端末装置11の位置を通知する方法はこれに限られない。例えば、携帯端末装置12と、携帯端末装置12のすぐ近くにある端末装置11との間でBluetooth(登録商標)やWiFi(登録商標) Direct等の通信規格に従う通信を可能とし、携帯端末装置12のすぐ近くにある端末装置11から携帯端末装置12に対し、迷子と対話した端末装置11の位置の通知が行われてもよい。
(6)上述した実施形態において、保護者である通行人と端末装置11との対話はタッチスクリーン113を介した文字等の表示とタッチ操作により行われるものとしたが、保護者である通行人と端末装置11との対話の態様はこれに限られず、マイク116及びスピーカ115を用いた音声による対話が行われてもよい。
(7)上述した実施形態において、迷子が保護者候補の画像を見て自分の保護者であることを確認するものとした、これに代えて、もしくは加えて、保護者候補が迷子の画像を見て自分の迷子であることを確認する構成が採用されてもよい。この場合、迷子の近くにある端末装置11Aから保護者候補の近くにある端末装置11Bに、迷子の画像を表す画像データが送信され、端末装置11Bにおいて迷子の画像が表示される。
(8)上述した実施形態においては、迷子が保護者候補の画像を見て自分の保護者である、と表明し、保護者候補がその迷子の保護者であることが確認された後、保護者候補(保護者)に対し迷子のいる場所が通知され、その場所までの誘導が行われる。これに代えて、保護者候補が迷子の保護者であることの事前確認を行わずに、保護者候補に迷子のいる場所の通知やその場所への誘導が行われてもよい。その場合、迷子の保護者でない通行人が迷子を誘拐する等の事件を招かないように、管理人等が保護者候補より先に迷子のいる場所に行って待機する等の対策が取られることが望ましい。
1…迷子保護システム、11…端末装置、12…携帯端末装置、13…サーバ装置、21…携帯端末装置、110…コンピュータ、111…胴部、112…頭部、113…タッチスクリーン、114…カメラ、115…スピーカ、116…マイク、117…アンテナ。
Claims (10)
- 通行人の特徴情報の取得と通行人との対話が可能な複数の端末装置の各々により通行人から取得した特徴情報に基づき迷子候補の通行人を発見し、迷子候補から特徴情報を取得した端末装置により迷子候補と対話し、迷子候補との対話内容に基づき当該迷子候補が迷子であるか否かを判定する迷子保護システム。
- 迷子候補が迷子であると判定した場合、当該迷子と対話した端末装置により当該迷子に対しその場に留まるように促す
請求項1に記載の迷子保護システム。 - 迷子候補が迷子であると判定した場合、前記複数の端末装置の各々の発話により、通行人に対し迷子の保護者であれば前記複数の端末装置のいずれかと対話するように促す
請求項1又は2に記載の迷子保護システム。 - 前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補から取得した当該迷子の情報と、迷子と対話した端末装置により当該迷子から取得した当該迷子の情報とに基づき、当該保護者候補が当該迷子の保護者候補であるか否か判定する
請求項1乃至3のいずれか1項に記載の迷子保護システム。 - 前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を当該保護者候補と対話した端末装置により撮影した画像を、迷子と対話した端末装置により、当該迷子に対し表示する
請求項1乃至4のいずれか1項に記載の迷子保護システム。 - 迷子と対話した端末装置により当該迷子を撮影した画像を、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補に対し、当該保護者候補と対話した端末装置により表示する
請求項1乃至5のいずれか1項に記載の迷子保護システム。 - 迷子と対話した端末装置と、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補と対話した端末装置とにより、当該迷子と当該保護者候補との対話を行わせる
請求項1乃至6のいずれか1項に記載の迷子保護システム。 - 前記複数の端末装置の各々は自律走行が可能であり、前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を、当該保護者候補と対話した端末装置の移動により、迷子と対話した端末装置の位置まで誘導する
請求項1乃至7のいずれか1項に記載の迷子保護システム。 - 前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補を、前記複数の端末装置の各々からの案内により、迷子と対話した端末装置の位置まで誘導する
請求項1乃至7のいずれか1項に記載の迷子保護システム。 - 前記複数の端末装置のいずれかに自分が迷子の保護者であると申し出た保護者候補の携帯端末装置に対し、当該保護者候補と対話した端末装置により、迷子と対話した端末装置の位置を通知する
請求項1乃至7のいずれか1項に記載の迷子保護システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021139223A JP2023032869A (ja) | 2021-08-27 | 2021-08-27 | 迷子保護システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021139223A JP2023032869A (ja) | 2021-08-27 | 2021-08-27 | 迷子保護システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023032869A true JP2023032869A (ja) | 2023-03-09 |
Family
ID=85416412
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021139223A Pending JP2023032869A (ja) | 2021-08-27 | 2021-08-27 | 迷子保護システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023032869A (ja) |
-
2021
- 2021-08-27 JP JP2021139223A patent/JP2023032869A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9858924B2 (en) | Voice processing apparatus and voice processing method | |
JP4976903B2 (ja) | ロボット | |
JP5942840B2 (ja) | 表示制御システム及び記録媒体 | |
JP5366048B2 (ja) | 情報提供システム | |
JP6719072B2 (ja) | 接客装置、接客方法及び接客システム | |
JP2005305631A (ja) | ロボットおよびその制御方法 | |
JP5411789B2 (ja) | コミュニケーションロボット | |
JP2007139710A (ja) | 歩行補助ロボット | |
JP2007164379A (ja) | インターフェース装置およびそれを備えた移動ロボット | |
US10354295B2 (en) | Reception system and reception method | |
KR101954989B1 (ko) | 시각 장애인을 위한 정보 제공 장치 | |
JP2009090420A (ja) | ロボット遠隔操作システム | |
Kuribayashi et al. | Linechaser: a smartphone-based navigation system for blind people to stand in lines | |
JP2007249427A (ja) | 情報管理システム | |
CN111613216A (zh) | 意思沟通装置以及意思沟通方法 | |
KR20210012198A (ko) | 시각 장애인을 위한 객체 위치 정보 안내 장치 및 방법 | |
JP2022111128A (ja) | 警備システム及び監視表示装置 | |
WO2020180001A1 (ko) | 전자 장치 및 이의 제어 방법 | |
Manjari et al. | CREATION: Computational constRained travEl aid for objecT detection in outdoor eNvironment | |
JP4764377B2 (ja) | 移動型ロボット | |
JP4178846B2 (ja) | 自律駆動式支援装置およびプログラム | |
CN111611812B (zh) | 翻译成盲文 | |
JP2023032869A (ja) | 迷子保護システム | |
KR101264049B1 (ko) | 이동통신단말장치의 가상 로봇과 동기화되는 애완 로봇 | |
CN113661036A (zh) | 信息处理装置、信息处理方法以及程序 |