JP2021126911A - 環境情報提供システム、環境情報提供方法、及びプログラム - Google Patents

環境情報提供システム、環境情報提供方法、及びプログラム Download PDF

Info

Publication number
JP2021126911A
JP2021126911A JP2020020805A JP2020020805A JP2021126911A JP 2021126911 A JP2021126911 A JP 2021126911A JP 2020020805 A JP2020020805 A JP 2020020805A JP 2020020805 A JP2020020805 A JP 2020020805A JP 2021126911 A JP2021126911 A JP 2021126911A
Authority
JP
Japan
Prior art keywords
external environment
passenger
environmental information
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020020805A
Other languages
English (en)
Inventor
千里 伏見
Chisato Fushimi
千里 伏見
公平 芦川
Kohei Ashikawa
公平 芦川
直樹 冨田
Naoki Tomita
直樹 冨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pigeon Corp
Original Assignee
Pigeon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pigeon Corp filed Critical Pigeon Corp
Priority to JP2020020805A priority Critical patent/JP2021126911A/ja
Publication of JP2021126911A publication Critical patent/JP2021126911A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】搭乗者が興味を示している対象の環境情報を提供する。【解決手段】ベビーカー1に搭乗する搭乗者5が認識した外部環境についての情報を、ベビーカー1を操作する使用者6に提供する環境情報提供手段を備える環境情報提供システム100において、環境情報提供手段は、搭乗者5が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作の原因となった外部環境についての情報を使用者6に提供する。【選択図】図1

Description

本発明は、環境情報提供システム、環境情報提供方法、及びプログラムに関する。
特許文献1には、例えばベビーカーを利用して散歩に出かける際に、ベビーカーの通行に適した道を選択して経路を案内する経路案内システムが開示されている。
特開2001−336947号公報
ところで、ベビーカーを利用して散歩に出かけた際に、乳幼児等の搭乗者が途中で何かに興味を示し、搭乗者の表情が変化することがある。そのとき、搭乗者が何かに興味を示していることは分かったとしても、何に興味を示しているかを知ることは困難な場合がある。
本発明は、上記の問題点に鑑みてなされたものであり、搭乗者が興味を示している対象の外部環境についての情報を提供することを目的とする。
本発明のある態様によれば、ベビーカーに搭乗する搭乗者が認識した外部環境についての情報を、前記ベビーカーを操作する使用者に提供する環境情報提供手段を備える環境情報提供システムにおいて、前記環境情報提供手段は、前記搭乗者が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作の原因となった前記外部環境についての情報を前記使用者に提供する。
上記態様では、ベビーカーの搭乗者が外部環境を認識して行った動作を検出し、当該動作の原因となった外部環境を検出し、当該外部環境についての情報を使用者に提供する。したがって、搭乗者が興味を示している対象の外部環境についての情報を提供することができる。
本発明の実施形態に係る環境情報提供システムの構成図である。 環境情報提供システムのブロック図である。 操作デバイスの構成を説明する図である。 環境情報提供システムの処理を説明するフローチャートである。 搭乗者が見た物に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が見た物に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が見た物に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が見た物に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が聞いた音に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が聞いた音に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が聞いた音に興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が嗅いだ匂いに興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が嗅いだ匂いに興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が嗅いだ匂いに興味を示していると判定した場合における情報提供部の表示例を説明する図である。 搭乗者が見た物、聞いた音、若しくは嗅いだ匂いのいずれに興味を示しているか判定できない場合における情報提供部の表示例を説明する図である。 本発明の実施形態の変形例に係る環境情報提供システムの構成図である。
以下、図面を参照して、本発明の実施形態に係る環境情報提供システム100について説明する。
まず、図1から図3を参照して、環境情報提供システム100の全体構成について説明する。図1は、環境情報提供システム100の構成図である。図2は、環境情報提供システム100のブロック図である。図3は、操作デバイス3の構成を説明する図である。
図1に示すように、環境情報提供システム100は、ベビーカー1と、操作デバイス3と、クラウドサーバ(以下、単に「サーバ」と称する。)4と、を備える。環境情報提供システム100は、ベビーカー1に搭乗する乳幼児等の搭乗者5が認識した外部環境についての情報を、ベビーカー1を操作する保護者等の使用者6に提供するものである。
図1に示すように、ベビーカー1は、本体部11と、車輪12と、ハンドル13と、を有する。ベビーカー1は、搭乗者5を搭乗させ、使用者6が押して使用される。以下、ベビーカー1の左右方向を「幅方向」と称する。
本体部11は、搭乗者5が着座する着座部11aを有する。本体部11は、車輪12によって支持される。本体部11には、ベビーカー1を押す使用者6が視認可能かつ操作可能な位置に、操作デバイス3が設けられる。
ハンドル13は、使用者6がベビーカー1を押して操作する際に、使用者6の手によって把持される。
操作デバイス3は、使用者6が操作可能なように設けられる。操作デバイス3は、ベビーカー1を押して操作する使用者6と対峙するように設けられる。そのため、使用者6は、搭乗者5の背面に立っており搭乗者5の顔が直接見えない状態(図1に示す状態)のときに、操作デバイス3を操作可能である。
図2に示すように、操作デバイス3は、操作部31と、表示部32と、を有する。操作デバイス3は、例えば、操作部31と表示部32とが一体に設けられるタッチパネルである。操作デバイス3の構成については、図3を参照しながら、後で詳細に説明する。
図2に示すように、ベビーカー1は、内側カメラ15と、視線センサ16と、外側カメラ17と、マイク18と、臭気センサ19と、コントローラ20と、通信部21と、を有する。
内側カメラ15は、ベビーカー1の本体部11(図1参照)に取り付けられる。内側カメラ15は、搭乗者5の前方に対峙するように設けられる(図1参照)。内側カメラ15は、搭乗者5の顔近傍の画像を連続して記録する動画を撮影する。内側カメラ15は、搭乗者5の動作、具体的には搭乗者5の動きや表情の変化を認識する。内側カメラ15が撮影した画像は、コントローラ20へと送信される。
このように、内側カメラ15は、搭乗者5が視覚を通じて認識した物、聴覚を通じて認識した音、及び嗅覚を通じて認識した匂い(以下、まとめて「外部環境」と称する。)の少なくとも一つに基づいて行った動作を検出する動作検出部として機能する。
視線センサ16は、内側カメラ15が撮影した搭乗者5の顔の画像から、搭乗者5の視線を検出する。視線センサ16は、搭乗者5の目がどの方向を見ているかを検出する。視線センサ16は、搭乗者5の視線の方向についての情報をコントローラ20へ送信する。視線センサ16は、内側カメラ15と共に動作検出部として機能する。視線センサ16は、内側カメラ15と共に設けられてもよく、コントローラ20内に仮想的な構成として設けられてもよい。
外側カメラ17は、ベビーカー1の本体部11に取り付けられる。外側カメラ17は、本体部11の外側の画像を連続して記録する動画を撮影する。外側カメラ17は、着座部11aに着座した搭乗者5から見える範囲の画像を撮影する。外側カメラ17は、視線センサ16が検出した搭乗者5の視線の先を撮像する。外側カメラ17は、単一であってもよく、撮像範囲を広くするために複数設けられてもよい。
マイク18は、ベビーカー1の本体部11に取り付けられる。マイク18は、搭乗者5が聞いた音を検出する。マイク18は、搭乗者5に聞こえている音を検出可能な位置に設けられる。マイク18によって検出された音は、数値化されてコントローラ20へと送信される。マイク18が検出した音から走行音や風切音等のノイズを除去するノイズキャンセラを併せて設けてもよい。
臭気センサ19は、ベビーカー1の本体部11に取り付けられる。臭気センサ19は、搭乗者5が嗅いでいる匂いを検出して数値化するセンサである。臭気センサ19によって検出された匂いに関する数値は、コントローラ20へと送信される。
外側カメラ17、マイク18、及び臭気センサ19は、内側カメラ15が検出した搭乗者5の動作に基づき、当該動作の原因となった外部環境を検出する外部環境検出部として機能する。
コントローラ20は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって構成されるマイクロコンピュータである。コントローラ20を複数のマイクロコンピュータで構成することも可能である。コントローラ20は、ROMに記憶されたプログラムをCPUによって読み出すことで、環境情報提供システム100に各種機能を発揮させる。
コントローラ20は、内側カメラ15が撮像した搭乗者5の動きや表情を分析し、動きや表情の変化から搭乗者5が何かに興味を示したことを検出する。コントローラ20は、搭乗者5の動きや表情の変化から、搭乗者5が見た物に興味を示しているのか、聞いた音に興味を示しているのか、若しくは嗅いだ匂いに興味を示しているのかを判定する。コントローラ20は、内側カメラ15が撮影した画像と視線センサ16が検出した搭乗者5の視線の方向とから、外側カメラ17が撮影した画像のどの位置を搭乗者5が見ているかを検出する。
通信部21は、サーバ4の後述する通信部41と相互に通信可能な通信モジュールである。通信部21は、外側カメラ17が撮影した画像、マイク18が検出した音に関する数値、若しくは臭気センサ19が検出した匂いに関する数値を使用者6の操作に基づきサーバ4に送信し、当該外部環境に該当する情報をサーバ4から受信する。
サーバ4は、コントローラ40と、通信部41と、データベース42と、を有する。
コントローラ40は、コントローラ20と同様に、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等によって構成されるマイクロコンピュータである。
通信部41は、ベビーカー1の通信部21と相互に通信可能な通信モジュールである。
データベース42は、メモリ、ハードディスク、若しくはその他既知の記憶装置に設けられる。データベース42には、外部環境についての情報が格納される。データベース42は、コントローラ40によって制御される。コントローラ40は、ベビーカー1のコントローラ20からの要求に応じて、データベース42に格納されている外部環境についての情報を抽出してコントローラ20に送り返す。
図3に示すように、操作部31は、視覚情報キー311と、聴覚情報キー312と、嗅覚情報キー313と、分析キー314と、を有する。
視覚情報キー311は、搭乗者5が見た物に興味を示しているとコントローラ20が判定した場合に操作可能になる。視覚情報キー311が操作可能な状態で、使用者6が視覚情報キー311を操作すると、そのときに外側カメラ17が撮影した画像が、表示部32の後述する情報表示部321に表示される。
聴覚情報キー312は、搭乗者5が聞いた音に興味を示しているとコントローラ20が判定した場合に操作可能になる。聴覚情報キー312が操作可能な状態で、使用者6が聴覚情報キー312を操作すると、そのときにマイク18が検出した音が、視認可能な態様に変換されて、情報表示部321に表示される(図10参照)。
嗅覚情報キー313は、搭乗者5が嗅いだ匂いに興味を示しているとコントローラ20が判定した場合に操作可能になる。嗅覚情報キー313が操作可能な状態で、使用者6が嗅覚情報キー313を操作すると、そのときに臭気センサ19が検出した匂いが、視認可能な態様に変換されて、情報表示部321に表示される(図13参照)。
分析キー314は、検出した外部環境が情報表示部321に表示されているときに操作可能になる。使用者6によって分析キー314が操作されると、コントローラ20は、情報表示部321に表示されている外部環境を分析するために、通信部21を介して外部環境に関する数値をサーバ4に送信する。
視覚情報キー311、聴覚情報キー312、及び嗅覚情報キー313は、操作できない状態では細線の円によって囲われており、操作可能な状態になると太線の円に変わってハイライトされる。分析キー314は、操作できない状態では囲われておらず、操作可能な状態になると太線の四角形によって囲われてハイライトされる。
表示部32は、情報表示部321と、処理進捗表示部322と、を有する。
情報表示部321は、外側カメラ17が撮影した画像、マイク18が検出した音が視認可能な態様に変換されたもの、若しくは臭気センサ19が検出した匂いが視認可能な態様に変換されたものを表示する。情報表示部321には、操作部31が操作されていない状態では、内側カメラ15が撮影した搭乗者5の画像を常に表示するようにしてもよい。
情報表示部321は、外側カメラ17が撮影した画像、マイク18が検出した音、若しくは臭気センサ19が検出した匂いに応じて、これらの外部環境についての情報を使用者6に提供する情報提供部として機能する。
処理進捗表示部322は、環境情報提供システム100によるデータ処理の進捗を表示する。処理進捗表示部322は、例えば、図3に示すように、複数の四角形が直線上に並べられ、左側から順に四角形の色が変化して行くことでデータ処理の進捗を表示する。
次に、図4から図15を参照して、環境情報提供システム100の処理について説明する。図4は、環境情報提供システム100の処理を説明するフローチャートである。図5から図8は、表示部32の表示の例を説明する図である。
環境情報提供システム100は、図4に示すルーチンを、例えば10ミリ秒ごとの一定時間隔で繰り返し実行する。ここでは、搭乗者5が見た物に興味を示しているとコントローラ20が判定した場合の処理について説明する。また、ここでは、図4に示す処理をコントローラ20が実行する場合について説明するが、サーバ4のコントローラ40が実行してもよく、コントローラ20とコントローラ40とが協同して実行してもよい。
図4のステップS11では、コントローラ20は、内側カメラ15に搭乗者5の顔近傍を撮像させる。また、コントローラ20は、外側カメラ17に搭乗者5から見える外側の景色の撮像を開始させる。
ステップS12では、コントローラ20は、搭乗者5の動きや表情の変化を認識して、見た物に興味を示しているか否かを判定する。即ち、ステップS12では、搭乗者5が視覚を通じて認識した外部環境に基づいて行った動作を検出し、当該外部環境に搭乗者5が興味を示しているか否かを判定する。ステップS12にて、搭乗者5が見た物に興味を示していると判定された場合には、ステップS13に移行する。一方、ステップS12にて、搭乗者5が見た物に興味を示していないと判定された場合には、ステップS11に戻って再び処理を繰り返す。
ステップS13では、コントローラ20は、内側カメラ15によって撮影された搭乗者5の顔近傍の画像を情報表示部321に表示する(図5参照)。
ステップS14では、コントローラ20は、操作デバイス3の視覚情報キー311を操作可能にする(図5参照)。
ステップS15では、コントローラ20は、使用者6によって視覚情報キー311が操作されたか否かを判定する。ステップS15にて、視覚情報キー311が操作されたと判定された場合には、ステップS16に移行する。一方、ステップS15にて、視覚情報キー311が操作されていないと判定された場合には、ステップS15にリターンして処理を繰り返す。
なお、ステップS15にて、視覚情報キー311が操作可能になってから使用者6によって操作されずに所定時間が経過した場合には、視覚情報キー311が操作可能な状態を解除するようにしてもよい。
ステップS16では、コントローラ20は、外側カメラ17が撮影した画像のうち、視線センサ16によって検出された搭乗者5の視線の先の領域を情報表示部321に表示する(図6参照)。即ち、ステップS16では、コントローラ20は、検出した搭乗者5の動作に基づき、当該動作の原因となった外部環境を表示する。なお、ステップS16では、ステップS12にて搭乗者5が見た物に興味を示していると判定された時点で外側カメラ17が撮影していた画像のうち、視線センサ16によって検出された搭乗者5の視線の先の領域を情報表示部321に表示するようにしてもよい。
ステップS17では、コントローラ20は、操作デバイス3の分析キー314を操作可能にする(図7参照)。
ステップS18では、コントローラ20は、使用者6によって分析キー314が操作されたか否かを判定する。ステップS16の処理によって搭乗者5の視線の先の画像が表示されると、使用者6は、表示されている物が何なのかを知りたくなることがある。その場合、使用者6によって分析キー314が操作される。ステップS18にて、分析キー314が操作されたと判定された場合には、ステップS19に移行する。一方、ステップS18にて、分析キー314が操作されていないと判定された場合には、ステップS18にリターンして処理を繰り返す。
なお、ステップS18にて、分析キー314が操作可能になってから使用者6によって操作されずに所定時間が経過した場合には、視覚情報キー311が操作可能な状態を解除するようにしてもよい。
ステップS19では、コントローラ20は、分析キー314が操作されたときに情報表示部321に表示されている画像を分析するために、通信部21を介して画像をサーバ4に送信する。
サーバ4では、通信部41を介して受信した画像を、データベース42に格納されている情報と照合する。サーバ4は、受信した画像に該当する情報を抽出する。サーバ4は、受信した画像に該当する情報を、通信部41を介してコントローラ20に送信する。
このように、外部環境に該当する情報は、サーバ4に格納されているので、ベビーカー1にデータベースを搭載する必要はない。また、各ベビーカー1の使用者6は、サーバ4と通信することにより、サーバ4に格納された大量の情報から、外部環境に該当する情報を得ることができる。
ステップS20では、コントローラ20は、ステップS19にて送信した画像に該当する情報を、サーバ4から受信する。
ステップS21では、コントローラ20は、ステップS20にてサーバ4から受信した情報を、情報表示部321に表示する(図8参照)。即ち、ステップS21では、コントローラ20は、検出した外部環境についての情報を使用者6に提供する。
これにより、使用者6は、搭乗者5が興味を示している対象の物についての情報を得ることができる。これにより、使用者6は、搭乗者5が何に興味を示しているかを知ることができる。また、使用者6は、興味を示した物が何であるかを、搭乗者5に教えることができる。
以上のように、環境情報提供システム100は、ベビーカー1の搭乗者5が外部環境を認識して行った動作を検出し、当該動作の原因となった外部環境を検出し、当該外部環境についての情報を使用者6に提供する。したがって、搭乗者5が興味を示している対象の外部環境についての情報を提供することができる。
以下、搭乗者5が聞いた音若しくは嗅いだ匂いに興味を示しているとコントローラ20が判定した場合の処理について説明する。これらの場合、以下に説明する点で相違する他は、図4に示すフローと同様である。
図9から図11は、搭乗者5が聞いた音に興味を示していると判定した場合における情報表示部321の表示例を説明する図である。図12及び図14は、搭乗者5が嗅いだ匂いに興味を示していると判定した場合における情報表示部321の表示例を説明する図である。図15は、搭乗者5が見た物、聞いた音、若しくは嗅いだ匂いのいずれに興味を示しているか判定できない場合における情報表示部321の表示例を説明する図である。
まず、搭乗者5が聞いた音に興味を示していると判定した場合について説明する。
コントローラ20は、搭乗者5の動きや表情の変化を認識して、搭乗者5が聞いた音に興味を示しているか否かを判定する。搭乗者5が聞いた音に興味を示していると判定された場合には、コントローラ20は、聴覚情報キー312を操作可能にする(図9参照)。聴覚情報キー312が操作されると、コントローラ20は、マイク18によって検出された音を視認可能な態様に変換して情報表示部321に表示する(図10参照)。
コントローラ20は、分析キー314が操作されると、マイク18によって検出された音に関する数値を、通信部21を介してサーバ4に送信する。サーバ4では、通信部41を介して受信した音に関する数値を、データベース42に格納されている音の情報と照合する。サーバ4は、受信した音に該当する情報を抽出する。サーバ4は、受信した音に該当する情報を、通信部41を介してコントローラ20に送信する。
コントローラ20は、サーバ4から受信した情報を、情報表示部321に表示する(図11参照)。即ち、コントローラ20は、検出した外部環境についての情報を使用者6に提供する。
これにより、使用者6は、搭乗者5が興味を示している対象の音についての情報を得ることができる。これにより、使用者6は、搭乗者5が何の音に興味を示しているかを知ることができる。また、使用者6は、興味を示した音が何であるかを、搭乗者5に教えることができる。
次に、搭乗者5が嗅いだ匂いに興味を示していると判定した場合について説明する。
コントローラ20は、搭乗者5の動きや表情の変化を認識して、搭乗者5が嗅いだ匂いに興味を示しているか否かを判定する。搭乗者5が嗅いだ匂いに興味を示していると判定された場合には、コントローラ20は、嗅覚情報キー313を操作可能にする(図12参照)。嗅覚情報キー313が操作されると、コントローラ20は、臭気センサ19によって検出された匂いを視認可能な態様に変換して情報表示部321に表示する(図13参照)。
コントローラ20は、分析キー314が操作されると、臭気センサ19によって検出された匂いに関する数値を、通信部21を介してサーバ4に送信する。サーバ4では、通信部41を介して受信した匂いに関する数値を、データベース42に格納されている匂いの情報と照合する。サーバ4は、受信した匂いに該当する情報を抽出する。サーバ4は、受信した匂いに該当する情報を、通信部41を介してコントローラ20に送信する。
コントローラ20は、サーバ4から受信した情報を、情報表示部321に表示する(図14参照)。即ち、コントローラ20は、検出した外部環境についての情報を使用者6に提供する。
これにより、使用者6は、搭乗者5が興味を示している対象の匂いについての情報を得ることができる。これにより、使用者6は、搭乗者5が何の匂いに興味を示しているかを知ることができる。また、使用者6は、興味を示した匂いが何であるかを、搭乗者5に教えることができる。
搭乗者5が何らかの外部環境に興味を示しているが、それが視覚、聴覚、及び嗅覚のいずれかが判定できない場合には、コントローラ20は、ステップS14にて、視覚情報キー311、聴覚情報キー312、及び嗅覚情報キー313のすべてを操作可能にする(図13参照)。これにより、搭乗者5がどの外部環境に興味を示しているかを使用者6が考えて、視覚情報キー311、聴覚情報キー312、及び嗅覚情報キー313のいずれかを操作することが可能である。
なお、上記実施形態では、内側カメラ15、視線センサ16、外側カメラ17、マイク18、臭気センサ19、コントローラ20、通信部21、操作デバイス3、及びサーバ4が環境情報提供手段を構成する。
以上の実施形態によれば、以下に示す作用効果を奏する。
ベビーカー1に搭乗する搭乗者5が認識した外部環境についての情報を、ベビーカー1を操作する使用者6に提供する環境情報提供手段を備える環境情報提供システム100において、環境情報提供手段は、搭乗者5が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作の原因となった外部環境を検出し、検出した外部環境についての情報を使用者6に提供する。
具体的には、環境情報提供システム100は、ベビーカー1を備え、環境情報提供手段は、使用者6が操作可能な操作デバイス3と、ベビーカー1に設けられ、搭乗者5が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作を検出する動作検出部(内側カメラ15)と、ベビーカー1に設けられ、動作検出部が検出した搭乗者5の動作に基づき、当該動作の原因となった外部環境を検出する外部環境検出部(外側カメラ17、マイク18、臭気センサ19)と、操作デバイス3に設けられ、外部環境検出部が検出した外部環境についての情報を使用者6に提供する情報提供部(情報表示部321)と、を有する。
また、ベビーカー1に搭乗する搭乗者5が認識した外部環境についての情報を、ベビーカー1を操作する使用者6に提供する環境情報提供方法は、搭乗者5が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作を検出するステップと、検出した搭乗者5の動作に基づき、当該動作の原因となった外部環境を検出するステップと、検出した外部環境についての情報を使用者6に提供するステップと、を有する。
これらの構成によれば、環境情報提供システム100は、ベビーカー1の搭乗者5が外部環境を認識して行った動作を検出し、当該動作の原因となった外部環境を検出し、当該外部環境についての情報を使用者6に提供する。したがって、搭乗者5が興味を示している対象の外部環境についての情報を提供することができる。
また、環境情報提供システム100は、外部環境についての情報が格納されるサーバ4を更に備え、環境情報提供手段は、使用者6の操作に基づき外部環境検出部(外側カメラ17、マイク18、臭気センサ19)が検出した外部環境をサーバ4に送信し、当該外部環境に該当する情報をサーバ4から受信する通信部21を有する。
この構成によれば、外部環境に該当する情報は、サーバ4に格納されているので、ベビーカー1にデータベースを搭載する必要はない。また、各ベビーカー1の使用者6は、サーバ4と通信することにより、サーバ4に格納された大量の情報から、外部環境に該当する情報を得ることができる。
また、動作検出部は、搭乗者5の顔を撮像する内側カメラ15を有する。
また、動作検出部は、内側カメラ15が撮像した搭乗者5の顔から視線を検出する視線センサ16を更に有し、外部環境検出部は、視線センサ16が検出した搭乗者5の視線の先を撮像する外側カメラ17を有する。
これらの構成によれば、使用者6は、搭乗者5が興味を示している対象の物についての情報を得ることができる。これにより、使用者6は、搭乗者5が何に興味を示しているかを知ることができる。また、使用者6は、興味を示した物が何であるかを、搭乗者5に教えることができる。
また、外部環境検出部は、搭乗者5が聞いた音を検出するマイク18を有する。
この構成によれば、使用者6は、搭乗者5が興味を示している対象の音についての情報を得ることができる。これにより、使用者6は、搭乗者5が何の音に興味を示しているかを知ることができる。また、使用者6は、興味を示した音が何であるかを、搭乗者5に教えることができる。
また、外部環境検出部は、搭乗者5が嗅いだ匂いを検出する臭気センサ19を有する。
この構成によれば、使用者6は、搭乗者5が興味を示している対象の匂いについての情報を得ることができる。これにより、使用者6は、搭乗者5が何の匂いに興味を示しているかを知ることができる。また、使用者6は、興味を示した匂いが何であるかを、搭乗者5に教えることができる。
以上、本発明の実施形態について説明したが、上記実施形態は本発明の適用例の一部を示したに過ぎず、本発明の技術的範囲を上記実施形態の具体的構成に限定する趣旨ではない。
例えば、上記実施形態では、操作デバイス3は、ベビーカー1の本体部11に設けられる。しかしながら、図16の変形例に示すように、操作デバイス3を本体部11とは別体に設け、使用者6の腕に取り付けられる携帯端末としてもよい。この場合、ベビーカー1及び操作デバイス3には、相互に通信するための通信モジュールが更に設けられる。
また、操作デバイス3のうち一方(例えば表示部32)をベビーカー1の本体部11に設け、他方(例えば操作部31)を使用者6の腕に取り付けられる携帯端末としてもよい。なお、携帯端末を使用する場合には、コントローラ20及び通信部21を携帯端末に設けてもよい。
また、上述した環境情報提供システム100における一連の処理は、コンピュータにこれを実行さるためのプログラムとして提供されてもよい。
即ち、本実施形態に係るプログラムは、コンピュータに、搭乗者5が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した外部環境に基づいて行った動作を検出する手順と、検出した搭乗者5の動作に基づき、当該動作の原因となった外部環境を検出する手順と、検出した外部環境に応じて当該外部環境についての情報を使用者6に提供する手順と、を実行させるものである。
上述した一連の処理を実行するためのプログラムは、コンピュータによって読み取り可能な記憶媒体によって提供される。
また、コンピュータが実行する各種プログラムは、例えばCD−ROM等の非一過性の記録媒体に記憶されたものを用いてもよい。
100 環境情報提供システム
1 ベビーカー
3 操作デバイス
4 サーバ
5 搭乗者
6 使用者
11 本体部
15 内側カメラ(動作検出部)
16 視線センサ(動作検出部)
17 外側カメラ(外部環境検出部)
18 マイク(外部環境検出部)
19 臭気センサ(外部環境検出部)
21 通信部
31 操作部
32 表示部
42 データベース
321 情報表示部(情報提供部)

Claims (9)

  1. ベビーカーに搭乗する搭乗者が認識した外部環境についての情報を、前記ベビーカーを操作する使用者に提供する環境情報提供手段を備える環境情報提供システムにおいて、
    前記環境情報提供手段は、前記搭乗者が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した前記外部環境に基づいて行った動作の原因となった前記外部環境についての情報を前記使用者に提供する、
    ことを特徴とする環境情報提供システム。
  2. 請求項1に記載の環境情報提供システムであって、
    前記ベビーカーを備え、
    前記環境情報提供手段は、
    前記使用者が操作可能な操作デバイスと、
    前記ベビーカーに設けられ、前記搭乗者が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した前記外部環境に基づいて行った前記動作を検出する動作検出部と、
    前記ベビーカーに設けられ、前記動作検出部が検出した前記搭乗者の前記動作に基づき、当該動作の原因となった前記外部環境を検出する外部環境検出部と、
    前記操作デバイスに設けられ、前記外部環境検出部が検出した前記外部環境についての情報を前記使用者に提供する情報提供部と、
    を有する、
    ことを特徴とする環境情報提供システム。
  3. 請求項2に記載の環境情報提供システムであって、
    前記外部環境についての情報が格納されるサーバを更に備え、
    前記環境情報提供手段は、前記使用者の操作に基づき前記外部環境検出部が検出した前記外部環境を前記サーバに送信し、当該外部環境に該当する情報を前記サーバから受信する通信部を有する、
    ことを特徴とする環境情報提供システム。
  4. 請求項2又は3に記載の環境情報提供システムであって、
    前記動作検出部は、前記搭乗者の顔を撮像する内側カメラを有する、
    ことを特徴とする環境情報提供システム。
  5. 請求項4に記載の環境情報提供システムであって、
    前記動作検出部は、前記内側カメラが撮像した前記搭乗者の顔から視線を検出する視線センサを更に有し、
    前記外部環境検出部は、前記視線センサが検出した前記搭乗者の視線の先を撮像する外側カメラを有する、
    ことを特徴とする環境情報提供システム。
  6. 請求項2から5のいずれか一つに記載の環境情報提供システムであって、
    前記外部環境検出部は、前記搭乗者が聞いた音を検出するマイクを有する、
    ことを特徴とする環境情報提供システム。
  7. 請求項2から6のいずれか一つに記載の環境情報提供システムであって、
    前記外部環境検出部は、前記搭乗者が嗅いだ匂いを検出する臭気センサを有する、
    ことを特徴とする環境情報提供システム。
  8. ベビーカーに搭乗する搭乗者が認識した外部環境についての情報を、前記ベビーカーを操作する使用者に提供する環境情報提供方法であって、
    前記搭乗者が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した前記外部環境に基づいて行った動作を検出するステップと、
    検出した前記搭乗者の前記動作に基づき、当該動作の原因となった前記外部環境を検出するステップと、
    検出した前記外部環境についての情報を前記使用者に提供するステップと、
    を有する、
    ことを特徴とする環境情報提供方法。
  9. ベビーカーに搭乗する搭乗者が認識した外部環境についての情報を、前記ベビーカーを操作する使用者に提供するシステムのコンピュータが実行可能なプログラムにおいて、
    前記コンピュータに、
    前記搭乗者が視覚、聴覚、及び嗅覚の少なくとも一つを通じて認識した前記外部環境に基づいて行った動作を検出する手順と、
    検出した前記搭乗者の前記動作に基づき、当該動作の原因となった前記外部環境を検出する手順と、
    検出した前記外部環境についての情報を前記使用者に提供する手順と、
    を実行させる、
    ことを特徴とするプログラム。
JP2020020805A 2020-02-10 2020-02-10 環境情報提供システム、環境情報提供方法、及びプログラム Pending JP2021126911A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020020805A JP2021126911A (ja) 2020-02-10 2020-02-10 環境情報提供システム、環境情報提供方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020020805A JP2021126911A (ja) 2020-02-10 2020-02-10 環境情報提供システム、環境情報提供方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2021126911A true JP2021126911A (ja) 2021-09-02

Family

ID=77487700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020020805A Pending JP2021126911A (ja) 2020-02-10 2020-02-10 環境情報提供システム、環境情報提供方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2021126911A (ja)

Similar Documents

Publication Publication Date Title
US11726577B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
JP6264492B1 (ja) 運転者監視装置、運転者監視方法、学習装置及び学習方法
US9316502B2 (en) Intelligent mobility aid device and method of navigating and providing assistance to a user thereof
US20170291544A1 (en) Adaptive alert system for autonomous vehicle
US9613459B2 (en) System and method for in-vehicle interaction
CN110291478A (zh) 驾驶员监视和响应系统
JP2005315802A (ja) ユーザ支援装置
JP2017007652A (ja) 言語制御のための文脈を認識する方法、言語制御のための言語制御信号を決定する方法、および方法を実施するための装置
US11609565B2 (en) Methods and systems to facilitate monitoring center for ride share and safe testing method based for selfdriving cars to reduce the false call by deuddaction systems based on deep learning machine
KR20200001553A (ko) 탑승자 거동에 기초한 자율 주행 차량 제어
JP2008257363A (ja) 操作支援装置
KR20190030140A (ko) 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
WO2019097595A1 (ja) 車外コミュニケーション装置、車外コミュニケーション方法、情報処理装置、及び車外コミュニケーションプログラム
KR20190118965A (ko) 시선 추적 시스템 및 방법
US11030979B2 (en) Information processing apparatus and information processing method
US11881036B2 (en) Devices and methods for detecting drowsiness of drivers of vehicles
JP2021126911A (ja) 環境情報提供システム、環境情報提供方法、及びプログラム
US11715332B2 (en) System and method for eye-tracking
US20200219412A1 (en) System and method for sensor fusion from a plurality of sensors and determination of a responsive action
CN112238458B (zh) 机器人管理装置、机器人管理方法以及机器人管理系统
JP6679368B2 (ja) 表情記録システム
WO2019221070A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2019125305A (ja) 教師データ作成支援装置
Rivera et al. Autonomous hmi made easy: Prototyping reactive in-cabin aware hmis
EP3855348A1 (en) Error management

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20200228