JP6985923B2 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP6985923B2
JP6985923B2 JP2017244545A JP2017244545A JP6985923B2 JP 6985923 B2 JP6985923 B2 JP 6985923B2 JP 2017244545 A JP2017244545 A JP 2017244545A JP 2017244545 A JP2017244545 A JP 2017244545A JP 6985923 B2 JP6985923 B2 JP 6985923B2
Authority
JP
Japan
Prior art keywords
user
information
cleaning
information processing
room
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017244545A
Other languages
English (en)
Other versions
JP2019113900A (ja
Inventor
太士 岩▲瀬▼張
陽 伊藤
憲二 金広
泰三 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017244545A priority Critical patent/JP6985923B2/ja
Publication of JP2019113900A publication Critical patent/JP2019113900A/ja
Application granted granted Critical
Publication of JP6985923B2 publication Critical patent/JP6985923B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electric Vacuum Cleaner (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。
近年、インターネットの普及に伴い、生活支援を行う各種サービスが提供されるようになってきている。例えば、ユーザに対して片付けに関する支援を行う技術がある。
特許文献1には、様々なセンサを用いて、移動型ロボット清掃機の脱出状況を検出するとともに、脱出が不可能な状況であると決定された場合には、ロボットをオフにするよう設計される移動型ロボット清掃機に関する技術が開示されている。
特開2011−129155号公報
しかしながら、上記の従来技術では、室内の整頓状況を認識することができるとは限らない。例えば、上記の従来技術は、移動中に接触または近接する障害物を検出する衝突センサと、絶壁を検出する絶壁センサと、衝突センサと絶壁センサからの出力信号に基づいて、移動手段を制御するコントローラとを備えた移動型ロボット清掃機に関する技術である。
このような上記の従来技術では、移動型ロボット清掃機の状態を判断し、移動ロボット清掃機がスタックしないようにすることができたとしても、室内の整頓状況を認識することができるとは限らない。
本願は、室内の整頓状況を認識することを目的とする。
本願にかかる情報処理装置は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得部と、前記取得部により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定部とを有することを特徴とする。
実施形態の一態様によれば、室内の整頓状況を認識することができるといった効果を奏する。
図1は、実施形態にかかる情報処理の一例を示す図である。 図2は、第1の実施形態にかかる情報処理の一例を示す図である。 図3は、第1の実施形態にかかる情報処理システムの構成例を示す図である。 図4は、第1の実施形態にかかる情報処理装置の構成例を示す図である。 図5は、第1の実施形態にかかるユーザ情報記憶部の一例を示す図である。 図6は、第1の実施形態にかかる環境情報記憶部の一例を示す図である。 図7は、第1の実施形態にかかる情報処理の一例を示すフローチャートである。 図8は、第2の実施形態にかかる情報処理の一例を示す図である。 図9は、第2の実施形態にかかる情報処理装置の構成例を示す図である。 図10は、第2の実施形態にかかる情報処理の一例を示すフローチャートである。 図11は、第3の実施形態にかかる情報処理の一例を示す図である。 図12は、第3の実施形態にかかる情報処理装置の構成例を示す図である。 図13は、第3の実施形態にかかる情報処理の一例を示すフローチャートである。 図14は、第4の実施形態にかかる情報処理の一例を示す図である。 図15は、第4の実施形態にかかる情報処理装置の構成例を示す図である。 図16は、第4の実施形態にかかる報酬情報記憶部の一例を示す図である。 図17は、第4の実施形態にかかる情報処理の一例を示すフローチャートである。 図18は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
(情報処理の概要)
〔1.全体の概要〕
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
まず、図1を用いて、実施形態にかかる情報処理の概要を示す。図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、図1に示す情報処理装置SVによって行われる。例えば、情報処理装置SVは、サーバ装置やクラウドシステム等、単数または複数の装置により実現され、移動通信網や無線LAN(Local Area Network)等のネットワークを介して、例えば、ユーザの居る部屋に置かれている音声デバイス、移動可能な作業ロボット(清掃ロボット)等をはじめとする各種のIoT(Internet of Things)デバイス、あるいは、ユーザが使用する端末装置10と通信可能な情報処理装置である。
なお、情報処理装置SVによって行われる情報処理の詳細については、4つの実施形態、具体的には、第1の実施形態、第2の実施形態、第3の実施形態、第4の実施形態を用いて後ほど詳細に説明する。また、第1の実施形態に対応する情報処理を「処理A」、第2の実施形態に対応する情報処理を「処理B」、第3の実施形態に対応する情報処理を「処理C」、第4の実施形態に対応する情報処理を「処理D」とする。
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。また、端末装置10には、情報処理装置SVとの情報の送受信を可能にするアプリケーション(以下、「アプリAP」と表記する)が予めインストールされているものとする。
なお、以下の各実施形態で使用する「清掃」および「清掃行動」といった文言は、例えば、散らかっている物を所定の場所に戻す作業である「片付け」や、床や壁等に付着した汚れやホコリを除去する作業である「掃除」の両方の概念を含むものとする。
〔2.第1の実施形態に対応する情報処理の概要〕
まず、第1の実施形態に対応する情報処理(処理A)が行われる前提について説明する。清掃が苦手であるといったユーザは多いわけであるが、このように清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因である場合がある。
したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置SVは、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。
そして、情報処理装置SVは、取得した会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定し、清掃の必要があると判定した場合には、例えば、上記の所定の音声デバイスを介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。
以下では、図1の例を用いて、処理Aの一例について説明する。図1は、処理A〜処理Dの全ての概念図を含むものであるが、このうち処理Aを説明する図1(a)に着目する。図1(a)では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11を息子、ユーザU12を母親とする。ユーザU11およびU12を区別する必要が無い場合には、単に「ユーザ」と表記する。
また、居室Rには、音声デバイスDV1が置かれている。音声デバイスDV1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する音声インタラクション型の装置である。また、音声デバイスDV1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。
例えば、音声デバイスDV1は、ユーザの周辺環境を示す環境情報を検出する。図1(a)の例では、ユーザの周辺環境を示す環境情報は、居室R内がどのような環境にあるかを示す情報であればどのような情報であってもよい。例えば、環境情報は、居室R内において物品が置かれている状況、居室R内でのホコリの状況、居室R内に居るユーザの会話状況等、各種の状況を示す情報であってよい。
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報(ユーザの会話内容を示す情報)を検出(ステップS11)し、検出した環境情報を情報処理装置SVに送信する(ステップS12)。これにより、情報処理装置SVは、環境情報を取得することができる。
そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する(ステップS13)。図1(a)の例では、情報処理装置SVは、ユーザが居室Rを清掃する必要があるか否かといった清掃の必要性を判定する。例えば、情報処理装置SVは、取得した環境情報として会話情報の中に「こんなに散らかして片付けなさい」といったテキストが含まれている場合には、居室Rが散らかっていると推定するとともに、ユーザが居室Rを清掃する必要があると判定する。そして、情報処理装置SVは、ユーザが居室Rを清掃する必要があると判定した場合には、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS14)。
かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置SVは、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。
〔3.第2の実施形態に対応する情報処理の概要〕
次に、第2の実施形態に対応する情報処理(処理B)について説明する。まずは、処理Bの前提について説明する。上記の通り、ユーザが清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因であるが、例えば、清掃しようと思い立ったとしても、部屋に物が散乱している場合には、清掃ロボットを稼働させることすらできない。
したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。一例を示すと、情報処理装置SVは、環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。
なお、かかる環境情報は、例えば、部屋の中で物がどのような状況で置かれているかといったことを示す情報や、物が起これていることにより作業ロボットがどれだけ移動できるかといった移動距離に関する情報(例えば、移動距離の移り変わり等)である。また、かかる環境情報は、第1の実施形態に対応する情報処理で説明した環境情報、すなわち会話情報であってもよい。
以下では、図1の例を用いて、処理Bの一例について説明する。ここでは、処理Bを説明する図1(b)に着目する。図1(b)でも図1(a)と同様に居室Rを例に用いている。不図示であるがユーザU11およびU12も存在するものとする。
また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。また、清掃ロボットRB1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する機能を有してもよい。
例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置SVに送信する(ステップS22)。これにより、情報処理装置SVは、環境情報を取得することができる。
そして、情報処理装置SVは、取得した環境情報に基づいて、居室Rの清掃状況(整頓状況)を推定する(ステップS23)。例えば、情報処理装置SVは、撮影画像を解析することにより、居室Rの整頓状況を推定する。ここでは、情報処理装置SVは、整頓状況「悪」と推定したとすると、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS24)。
かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、清掃ロボットRB1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置SVは、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置SVは、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置SVは、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。
ここで、第1の実施形態に対応する情報処理(処理A)は、環境情報として、ユーザの会話情報に基づき室内の清掃状況を推定する処理を含むものであった。一方で、第2の実施形態に対応する情報処理(処理B)は、環境情報として、作業ロボットにより検出された環境情報(特に物の配置に関する情報)に基づき室内の清掃状況を推定するものである。したがって、処理Bは処理Aのバリエーションの一つといえる。
〔4.第3の実施形態に対応する情報処理の概要〕
次に、第3の実施形態に対応する情報処理(処理C)について説明する。まずは、処理Cの前提について説明する。なかなか部屋が片付けられない、あるいは掃除できないといったユーザは多いわけであるが、この原因として、例えば、部屋に物が散乱していることによりどのような実害があるかといったことを認識できていないことや、そもそも清掃を行うための動機付けが見当たらないといったことが考えられる。
したがって、情報処理装置SVは、ユーザに対して清掃の必要があるか否かが判定された判定結果を取得し、取得した判定結果がユーザが清掃の必要があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。
以下では、図1の例を用いて、処理Cの一例について説明する。ここでは、処理Cを説明する図1(c)に着目する。図1(c)でも図1(a)と同様に居室Rを例に用いている。居室Rには、音声デバイスDV1が置かれている。不図示であるがユーザU11およびU12も存在するものとする。
このような状態において、情報処理装置SVは、清掃の必要性を判定された判定結果を取得する(ステップS31)。具体的には、情報処理装置SVは、清掃の必要があるか否か判定された判定結果を取得する。図1(a)の例を用いると、ここでは、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、図1(a)の例では、情報処理装置SVは、判定結果として「清掃の必要がある」ことを取得する。
このように、判定結果が清掃の必要があることを示す場合に、情報処理装置SVは、音声デバイスDV1に対して、室内における所定の位置に清掃に関する情報を出力するよう出力制御する(ステップS32)。例えば、情報処理装置SVは、音声デバイスDV1に対して、清掃の必要がある要清掃位置に清掃に関する情報を出力するよう出力制御する。
かかる出力制御に応じて、音声デバイスDV1は、要清掃位置に清掃に関する情報を出力する。一例を示すと、音声デバイスDV1は、清掃に関する情報として有害物質(例えば、害虫)の影を要清掃位置に投影する(ステップS33)。これにより、情報処理装置SVは、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。
〔5.第4の実施形態に対応する情報処理の概要〕
次に、第4の実施形態に対応する情報処理(処理D)について説明する。まずは、処理Dの前提について説明する。清掃が苦手であるといったユーザは多く、このようなユーザの清掃のやる気を起こさせるのは困難である。したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定し、判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。他の一例を示すと、一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。
以下では、図1の例を用いて、処理Dの一例について説明する。ここでは、処理Dを説明する図1(d)に着目する。図1(d)でも図1(a)と同様に居室Rを例に用いており、居室RにはユーザU11およびU12が居る。また、居室Rには、音声デバイスDV1が置かれている。
処理Aと同様に、例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した環境情報を情報処理装置SVに送信する(ステップS42)。これにより、情報処理装置SVは、環境情報を取得することができる。
そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置SVは、ユーザU11、U12のうちのどちらかが清掃行動を行ったか否かを判定する。また、情報処理装置SVは、ユーザU11が判定処理の処理対象とすることが予め設定されている場合には、ユーザU11が清掃行動を行ったか否かを判定する。
情報処理装置SVは、取得した環境情報として会話情報の中に、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」といったように声掛けした旨を示すテキストが含まれている場合には、ユーザU11が清掃行動を行ったと判定する。情報処理装置SVは、ユーザU11が清掃行動を行ったと判定した場合には、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置SVは、ユーザU11に対して所定ポイントを付与するととともに、ユーザU11の端末装置10においてアプリAPを介して現在の所持ポイントを確認可能な状態に制御する。
このように、情報処理装置SVは、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置SVは、ユーザに対して効果的に清掃を行わせることができる。
〔6.処理順について〕
上記例では、情報処理装置SVは、処理A(および処理B)により清掃状況を推定し、清掃の必要性があると判定した場合には、処理Cにより有害物質を投影し、さらに、処理Dにより清掃行動が行われたと判定した場合には、報酬を付与する例を示した。しかしながら、処理順はこれに限定されず、例えば、情報処理装置SVは、処理Dにおいて清掃行動が行われたか否か判定するために、処理A(および処理B)を行ってよい。また、情報処理装置SVは、処理Dで清掃行動が行われていないと判定した場合には、処理Cを行うことにより清掃の動機付けを行ってもよい。このように、処理A〜処理Dはそれぞれ独立してなされる処理ではなく、適宜組み合わせて行われるものである。
(第1の実施形態)
〔1.情報処理の一例〕
次に、図2を用いて、第1の実施形態にかかる情報処理の一例を示す。図2は、第1の実施形態にかかる情報処理の一例を示す図である。第1の実施形態にかかる情報処理は、情報処理装置100によって行われる。情報処理装置100は、図1で説明した情報処理装置SVの一例である。また、図2は、図1(a)をより詳細に説明するものである。図2では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11が息子、ユーザU12が母親である。
また、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。
このような状態において、情報処理装置100は、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置100は、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。
一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、音声デバイスDV1に対して入力された会話を示す会話情報である。また、別の一例を示すと、一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、清掃ロボットRB1の有するセンサ機能により検出された環境情報を取得する。かかるセンサ機能により検出される環境情報としては、居室Rにおける物品の配置状況を示す配置情報等がある。
そして、情報処理装置100は、清掃の必要があると判定した場合には、例えば、音声デバイスDV1を介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出し(ステップS11)、検出した会話情報を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、会話情報を取得することができる。
また、例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報(物の散乱状況を示す情報ともいえる)を検出する(ステップS11)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した配置情報、すなわち撮影画像を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、配置情報を取得することができる。
次に、情報処理装置100は、取得した環境情報に基づいて、居室Rの清掃状況を推定することにより(ステップS13)、清掃の必要性があるか否かを判定する(ステップS14)。図2の例では、情報処理装置100は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ユーザU12は、居室Rが清掃されていないと認識しているからこそこのような言動を発している。したがって、情報処理装置100は、居室Rの清掃状況として、居室Rが散らかっていると推定する。また、図2の例では、情報処理装置100は、取得した撮影画像を解析することにより、居室Rの整頓状況「悪」と推定する。
情報処理装置100は、このような推定結果に基づき、例えば、ユーザU11に対して清掃の必要があると判定する。情報処理装置100は、ユーザU11が居室Rを清掃する必要があると判定すると、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS15)。
かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU11の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置100は、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。
〔2.情報処理システムの構成〕
次に、図3を用いて、第1の実施形態にかかる情報処理システムの構成について説明する。図3は、第1の実施形態にかかる情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1は、端末装置10と、IoT(Internet of Things)機器20と、音声デバイス30と、移動ロボット40とを含む。端末装置10と、IoT機器20と、音声デバイス30と、移動ロボット40とは、ネットワークNを介して有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
IoT機器20は、例えば、冷蔵庫、洗濯機等の各種家電製品である他、例えば、子供用の各種玩具である。音声デバイス30は、例えば、図1で説明した音声デバイスDV1である。また、移動ロボット40は、例えば、図1で説明した清掃ロボットRB1である。また、音声デバイス30および移動ロボット40は、室内に設置されるデバイスであり、各種センサを備えている。また、情報処理装置100は、図2で説明した情報処理を行うサーバ装置である。なお、図3に示す情報処理装置100は、後述する情報処理装置200、300、400に置き換えることができる。
〔3.情報処理装置の構成〕
次に、図4を用いて、第1の実施形態にかかる情報処理装置100について説明する。図4は、第1の実施形態にかかる情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10、IoT機器20、音声デバイス30、移動ロボット40との間で情報の送受信を行う。
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、ユーザ情報記憶部121と、環境情報記憶部122とを有する。
(ユーザ情報記憶部121について)
ユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。ここで、図5に第1の実施形態にかかるユーザ情報記憶部121の一例を示す。図5の例では、ユーザ情報記憶部121は、「家族ID」、「ユーザID」、「デバイスID」、「住所」、「年齢」、「性別」といった項目を有する。
「家族ID」は、対応する「ユーザID」で示される各ユーザで構成される家族を識別する識別情報である。「ユーザID」は、対応する「家族ID」で示される家族に属するユーザを識別する識別情報である。「デバイスID」は、音声デバイス30や移動ロボット30等のデバイスを識別する識別情報である。「住所」、「年齢」、「性別」は、対応するユーザの居住地、年齢、性別を示す。
すなわち、図5の例では、家族ID「FM1」によって識別される家族には、ユーザID「U11」、「U12」、「U13」、「U14」によって識別されるユーザが属しており、また、この家族の家には、デバイスID「DV1」によって示されるデバイス、デバイスID「RB1」によって示されるデバイスが置かれている例を示す。また、図5の例では、例えば、ユーザID「U11」によって識別されるユーザの住所「ADD1」、年齢「9歳」、性別「男」である例を示す。
(環境情報記憶部122について)
環境情報記憶部122は、情報処理装置SV(ここでは、情報処理装置100)が取得した環境情報を記憶する。例えば、環境情報記憶部122は、情報処理装置SVが各種デバイスにより検出された環境情報を記憶する。ここで、図6に第1の実施形態にかかる環境情報記憶部122の一例を示す。図6の例では、環境情報記憶部122は、「家族ID」、「デバイスID」、「環境情報」といった項目を有する。
「家族ID」は、ユーザ情報記憶部121に記憶される「家族ID」に対応する。「デバイスID」は、ユーザ情報記憶部121に記憶される「デバイスID」に対応する。「環境情報」は、対応する「デバイスID」によって示されるデバイスによって検出された環境情報を示す。図6の例では、「環境情報」として、例えば、「DA1−11」といった概念記号を用いているが、実際には、撮影画像、ホコリの量、物が配置される配置位置を示す数値等が記憶される。
すなわち、図6の例では、家族ID「FM1」によって識別される家族の家には、デバイスID「DV1」によって示されるデバイス(音声デバイスDV1)、デバイスID「RB1」によって示されるデバイス(清掃ロボットRB1)が置かれており、音声デバイスDV1により検出された環境情報「DA1−11」、清掃ロボットRB1により検出された環境情報「DA1−21」、「DA1−22」、「DA1−23」が取得された例を示す。
(制御部130について)
図4に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
図4に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
(第1取得部131について)
第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定の音声デバイスが有するセンサ機能により検出された環境情報を取得する。また、第1取得部131は、所定のセンサ機能により検出された環境情報として、室内における物品の配置状況を示す配置情報を取得する。
また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。また、第1取得部133は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得する。
(推定部132について)
推定部132は、第1取得部131により取得された環境情報に基づいて、ユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。また、例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(判定部133について)
判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。判定部133は、推定部132による推定結果に基づいて、ユーザに対して清掃の必要性を判定する。
判定部133は、会話情報から検出された感情情報であってユーザの感情を示す感情情報に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、感情情報が負の感情を示す場合に、ユーザに対して清掃の必要性があると判定する。また、判定部133は、会話情報に含まれるキーワードに基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話情報の中に所定のキーワードが含まれる場合に、ユーザに対して清掃の必要性があると判定する。
また、判定部133は、会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話の内容に基づいて、ユーザに対して会話の齟齬が検出された場合に、ユーザに対して清掃の必要性があると判定する。
(通知部134について)
通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。例えば、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、清掃するよう提案する提案情報を通知する。また、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、ユーザの清掃状況に関する情報を通知する。また、通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知する。
〔4.情報処理における作用の一例〕
以下、図7に示すフローチャートを用いて、各処理部131〜134が実行・実現する処理の内容について説明する。図7は、第1の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図1の例を用いることにする。
まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS101)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS101;No)、取得するまで待機する。
一方、推定部132は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS101;Yes)、会話情報に基づいて、居室Rの清掃状況を推定する(ステップS102)。なお、推定部132は、清掃状況として、居室Rの整頓状況を推定してもよい。
例えば、推定部132は、会話情報を分析することにより会話情報から、ユーザの感情を示す感情情報が検出された場合には、この感情情報に基づいて、清掃状況を推定する。例えば、推定部132は、感情情報として、負の感情を示す感情情報を検出した場合には、清掃状況「悪」と推定する。ここで、負の感情とは、例えば、「イライラ」といった怒りの感情である。人は汚れた環境に置かれると、精神が不安定になり怒りがこみ上げやすくなる傾向にある。このようなことから、推定部132は、負の感情が検出できたということは、それは居室Rが清掃できていない(汚れている)ことに起因する負の感情と判断し、この結果、清掃状況「悪」と推定する。
なお、推定部132は、会話情報に含まれるキーワードに基づいて、清掃状況を推定することもできる。この点について、図2の例を用いて説明する。図2の例では、第1取得部131は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ここで、「散らかして」、「片付けなさい」といったキーワードは、居室Rが清掃できていない(汚れている)ことを示すキーワードといえる。会話情報にこのようなキーワードが含まれる場合、推定部132は、清掃状況「悪」と推定する。
また、推定部132は、会話情報によって示される会話の内容に基づいて、清掃状況を推定することもできる。例えば、推定部132は、会話情報を分析することにより、ユーザに対して会話の齟齬を検出した場合には、清掃状況「悪」と推定する。例えば、ユーザU12がU11に対して「汚いじゃない」と言ったことに対して、ユーザU11が「そんなことないよ」と反発したとする。つまり、ユーザU11の会話内容と、ユーザU12の会話内容との間に齟齬が生じているといえる。また、ユーザU11はユーザU12よりも立場が低い。したがって、かかる場合、推定部132は、ユーザU11に対して会話の齟齬を検出し、さらに清掃状況「悪」と推定する。
次に、判定部133は、ユーザに対して清掃の必要性を判定する(ステップS103)。例えば、判定部133は、推定部132により清掃状況「良」と推定された場合には、ユーザU1に対して清掃の必要が無いと判定し(ステップS103;No)、処理を終了する。一方、判定部133は、上記例のように、推定部132により清掃状況「悪」と推定された場合には、ユーザU1に対して清掃の必要があると判定し(ステップS103;Yes)。
また、通知部134は、判定部133により清掃の必要があると判定された場合には(ステップS103;Yes)、ユーザU11に対して清掃に関する情報を通知する(ステップS104)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU1の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。
なお、ここでは、まず、推定部132が、第1取得部131により取得された環境情報に基づき清掃状況を推定し、判定部133が推定された推定結果に基づき清掃の必要性を判定する例を示した。しかし、判定部133は、推定部132の処理も含めて判定処理を行ってもよい。具体的には、判定部133は、第1取得部131により取得された環境情報から直接、清掃の必要性を判定してもよい。
〔5.変形例〕
上記第1の実施形態にかかる情報処理装置100は、上記第1の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
〔5−1.センサ検出された環境情報に基づき判定〕
例えば、第1取得部131は、所定のセンサとして、エコーロケションにより検出された環境情報を取得してもよい。また、第1取得部131は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得してもよい。このような環境情報は、例えば、物の散乱状況を示す情報といえる。また、エコーロケーション用のセンサや、カメラは、例えば、図2の例では、音声デバイスDV1に設置されているものであってもよいし、清掃ロボットRB1に設置されているものであってもよい。また、このような環境情報は、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。
そして、推定部132は、これらセンサにより検出された環境情報に基づいて、清掃状況として、室内の整頓状況をより正確に推定することができる。例えば、第1取得部131によりエコーロケションにより検出された環境情報が取得されたとする。かかる場合、推定部132は、この環境情報に基づいて、ユーザの室内が清掃(整頓)されている程度を示す指標値を算出する。言い換えれば、推定部132は、ユーザの室内がどれだけ汚れているか(どれだけ整頓されていないか)といったことを示す指標値を算出する。
例えば、推定部132は、エコーロケションにより検出された環境情報に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。また、例えば、推定部132は、カメラにより検出された環境情報(撮影画像)に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。
また、判定部133は、例えば、推定部132により算出された指標値が所定値を超えている場合に、ユーザU1に対して清掃の必要があると判定する。
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。
〔5−2.相対指標値に基づき判定〕
また、推定部132は、指標値として、ユーザの環境情報と当該ユーザとは異なる他のユーザの環境情報とを比較することにより算出された相対的な指標値に基づいて、清掃状況を推定してもよい。例えば、ユーザU11について指標値を算出したい場合、第1取得部131は、環境情報記憶部122からユーザU11以外の環境情報(例えば、エコーロケションにより検出された環境情報)も取得する。
例えば、第1取得部131は、ユーザU11の環境情報、および、ユーザU11と同年代の環境情報を取得する。また、推定部132は、ユーザU11および他のユーザそれぞれについて指標値を算出し、算出した各指標値を比較することにより、ユーザU11について他のユーザと比較した相対的な指標値を算出する。また、判定部133は、推定部132により算出された相対的な指標値が所定値を超えている場合に、ユーザU11に対して清掃の必要があると判定する。
また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得してもよい。そして、判定部133は、行動情報が、所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を含む場合に、ユーザに対して清掃の必要性があると判定する。かかる行動情報は、各種センサによって検出された画像情報(あるいは動画情報)であって、ユーザの動き(例えば、床を歩く動き)を含む画像情報(あるいは動画情報)である。また、かかる行動情報は、各種センサによって検出された音声情報であって、ユーザの動き(例えば、床を歩く音声)を含む音声情報であってもよい。
一例を示すと、例えば、推定部132は、第1取得部131により取得された行動情報を解析することにより、行動情報から所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を検出した場合には、清掃状況「悪」と推定する。所定の行動パターンとは、例えば、物探しをする際にみられる一定のパターンであり、同一箇所を何度も徘徊するといった行動パターンである。また、所定の行動を示す音情報とは、同一箇所を何度も徘徊するといった行動パターンを示す音情報、あるいは、物体にぶつかる際の物音である。
同一箇所を何度も徘徊するといった行動から、汚れている(整頓できていない)ため、ユーザが物探しをしていることが予測される。物体にぶつかる際の物音が頻繁に起こっているようであれば、それは部屋に物品が散在しているためと予測される。このようなことから、推定部132は、行動情報を解析することにより、同一箇所を何度も徘徊する行動パターンを検出した場合には、清掃状況「悪」と推定する。また、推定部132は、物体にぶつかる際の物音が所定回数を超えている場合には、清掃状況「悪」と推定する。また、判定部133は、推定部132により清掃状況「悪」と推定されたことにより、ユーザに対して清掃の必要があると判定する。
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。
〔5−3.経過時間に基づき判定〕
また、判定部は133は、ユーザが過去に清掃を行ってからの経過時間に基づいて、当該ユーザに対して清掃の必要性を判定してもよい。例えば、判定部133は、第1取得部131により取得された行動情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。例えば、判定部は133は、ユーザが清掃行動を行ったと判定してから現在までに「1ヶ月」が経過しており、さらに、この「1ヶ月」の間、ユーザが清掃行動を行ったとの判定を下していないとする。かかる場合、判定部133は、ユーザに対して清掃の必要があると判定する。
これにより、第1の実施形態にかかる情報処理装置100は、ユーザが清掃が必要なタイミングを高精度に見極めることができるため、このようなタイミングにユーザに対して効果的に清掃を行わせることができる。
〔5−4.情報通知について〕
通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知してもよい。上記の通り、情報処理装置100は、室内にどのような物体が散在しているかを検出することができる。したがって、例えば、通知部134は、床にホコリが溜まっていることが検出された場合には、ぞうきんがけの方法を提案する。また、例えば、通知部134は、床に油分が付着していることが検出された場合には、どのような洗剤を使用するのがよいか提案する。また、例えば、通知部134は、床に衣類が散在していることが検出された場合には、衣類のたたみ方や収納方法を提案する。
これにより、第1の実施形態にかかる情報処理装置100は、清掃の具体的な方法を提案することができるため、例えば、何から始めてよいかわからないといったユーザに対して、清掃意欲を高めるための動機付けを効果的に行うことができる。
〔6.効果〕
第1の実施形態にかかる情報処理装置100は、第1取得部131と、判定部133と、通知部134とを有する。第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して効果的に清掃を行わせることができる。
(第2の実施形態)
〔1.情報処理の一例〕
次に、図8を用いて、第2の実施形態にかかる情報処理の一例を示す。図8は、第2の実施形態にかかる情報処理の一例を示す図である。第2の実施形態にかかる情報処理は、情報処理装置200によって行われる。情報処理装置200は、図1で説明した情報処理装置SVの一例である。なお、第2の実施形態にかかる情報処理は、第1の実施形態にかかる情報処理装置100によって行われる情報処理のバリエーションの一つとも解せるものである。
また、図8は、図1(b)をより詳細に説明するものである。図1(b)の例では、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置200との情報の送受信を可能とする。また、居室Rのは、音声デバイスDV1も置かれている。また、不図示であるが、居室Rには、ユーザU11およびU12も存在するものとする。
このような状態において、情報処理装置200は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する推定する。例えば、情報処理装置200は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。なお、第1の実施形態にかかる情報処理装置100は、かかる環境情報を用いて、ユーザに対して清掃の必要性を判定する。つまり、情報処理装置200により取得される環境情報は、情報処理装置100による判定処理に用いられる一材料となり得るものである。
例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。一例を示すと、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置200に送信する(ステップS22)。これにより、情報処理装置200は、環境情報を取得することができる。
そして、情報処理装置200は、取得した配置情報に基づいて、居室Rの清掃状況として、整頓状況を推定する(ステップS23)。例えば、情報処理装置200は、撮影画像を解析することにより、居室Rの整頓状況を推定する。例えば、情報処理装置200は、整頓状況「悪」と推定した場合には、整頓の必要があると判定する(ステップS24)。そして、情報処理装置200は、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS25)。
かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置200は、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置200は、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置200は、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。
〔2.情報処理装置の構成〕
次に、図9を用いて、第2の実施形態にかかる情報処理装置200について説明する。図9は、第2の実施形態にかかる情報処理装置200の構成例を示す図である。図9に示すように、情報処理装置200は、通信部110と、記憶部120と、制御部230とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
(制御部230について)
制御部230は、CPUやMPU等によって、情報処理装置200内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
図9に示すように、制御部230は、第1取得部131と、推定部132と、判定部133と、通知部134と、第2取得部235を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図9に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図9に示した接続関係に限られず、他の接続関係であってもよい。
(第2取得部235について)
第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。具体的には、第2取得部235は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。例えば、第2取得部235は、所定のセンサ機能として、エコーロケションにより検出された環境情報を取得する。また、例えば、第2取得部235は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得する。
例えば、第2取得部235は、環境情報として、物の散乱状況を示す情報、または室内における空中浮遊物に関する情報を取得する。物の散乱状況を示す情報は、例えば、室内に置いて物が配置されている配置情報と言い換えることができ、配置情報は、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。
また、例えば、第2取得部235は、環境情報として、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、現時点での当該移動距離とを比較した比較結果を取得する。また、第2取得部235は、環境情報として、ユーザの会話に関する情報である会話情報であって作業ロボットに対して入力された会話情報を取得してもよい。また、第2取得部235は、移動可能な作業ロボットとして、所定の清掃用ロボットにより検出された環境情報を取得してもよい。なお、これまで説明してきた第2取得部235による取得処理は、情報処理装置100の第1取得部131によって行われてもよい。
(推定部132について)
推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(通知部134について)
通知部134は、推定部132による推定結果に基づいて、ユーザに対して清掃に関する情報を通知する。具体的には、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、清掃に関する情報として、片付けの手順を通知する。また、例えば、通知部134は、清掃に関する情報として、所定の清掃サービスに関する情報を通知する。
〔3.情報処理における作用の一例〕
以下、図10に示すフローチャートを用いて、各処理部132〜134、235が実行・実現する処理の内容について説明する。図10は、第2の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図8の例を用いることにする。
まず、第2取得部235は、環境情報として配置情報を取得したか否かを判定する(ステップS201)。例えば、第2取得部235は、清掃ロボットRB1により配置情報が送信されない間は、配置情報を取得しないと判定し(ステップS201;No)、取得するまで待機する。
ここで、例えば、清掃ロボットRB1は、室内Rにおいてエコーロケーションを行うことにより検出した配置情報を情報処理装置200に送信したことにより、第2取得部235は、配置情報を取得したと判定したものとする(ステップS201;Yes)。この配置情報には、配置情報は、どのような物体が、居室Rのどの位置に、どれだけ存在するかといった数値情報、そして、居室R内を清掃ロボットRB1が移動した移動距離が含まれるものとする。
このような状態において、第2取得部235は、過去の所定の時点での移動距離と、現時点での移動距離とを比較した比較結果を取得する(ステップS202)。具体的には、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離とを比較した比較結果を取得(算出)する。かかる比較結果も環境情報の一例と解することができるものである。
第2取得部235は、清掃ロボットRB1から取得した配置情報を環境情報記憶部122に格納するため、例えば、過去の所定の時点での移動距離を示す情報(「過去距離情報」とする)と、現時点での移動距離を示す情報(「現在距離情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去距離情報と現在距離情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離が過去の所定の時点での移動距離より短くなっているか否かを判定する(ステップS203)。
ここで、第2取得部235は、「過去の所定の時点での移動距離<現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなっていないと(長くなったと)判定する(ステップS203;No)。かかる場合、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定し(ステップS204a)、処理を終了する。
一方、第2取得部235は、「過去の所定の時点での移動距離>現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなったと判定する(ステップS203;Yes)。現時点での移動距離が過去の所定の時点での移動距離より短くなったことの原因としては、居室Rに散乱している物が増えたことにより、清掃ロボットRB1が移動可能なスペースが少なくなったことが考えられる。このようなことから、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する(ステップS204b)。なお、ステップS203での判定処理は、推定部132によって行われてもよい。
また、通知部134は、整頓状況「悪」と推定されたことにより、ユーザU11に対して清掃に関する情報を通知する(ステップS205)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。
〔4.変形例〕
上記第2の実施形態にかかる情報処理装置200は、上記第2の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置200の他の実施形態について説明する。
〔4−1.面積比較〕
上記の第2の実施形態では、第2の取得部235が、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、室内における作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する例を示した。しかし、第2の取得部235は、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する。第2の取得部235は、例えば、図10で示したステップS202、S203でかかる処理を行うことができる。
一例を示すと、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離に基づく移動面積と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得(算出)する。
第2取得部235は、過去の所定の時点での移動距離に基づく移動面積を示す情報(「過去面積情報」とする)と、現時点での移動距離に基づく移動面積を示す情報(「現在面積情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去面積情報と現在面積情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなっているか否かを判定する。
ここで、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積<現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面器が過去の所定の時点での移動距離に基づく移動面積より小さくなっていないと(大きくなったと)判定する。これにより、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定する。
一方、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積>現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなったと判定する。これにより、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する。
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。
〔4−2.間取比較〕
また、第2取得部235は、環境情報として、過去の所定の時点での室内の間取りと、現時点での当該室内の間取りとを比較した比較結果を取得してもよい。ここでは、説明の便宜上、移動可能な作業ロボットを空中飛行可能なロボット(例えば、ドローン)とする。かかる場合、このドローンは、例えば、定期的に居室Rを含む室内を上空から撮影することにより、かかる室内の間取り図を情報処理装置200に送信する。これにより、第2取得部235は、環境情報として、間取り図を取得することができる。
このような状態において、第2取得部235は、過去の所定の時点での間取り図と、現時点での間取り図とを比較した比較結果を取得し、取得した比較結果から、例えば、居室Rが過去の所定の時点より汚れているか否か、あるいは、過去の所定の時点と比較して居室Rの整頓状況が悪化しているか否かを判定する。例えば、第2取得部235は、居室Rにおいて過去の所定の時点での空きスペースの面積と、現時点での空きスペースの面積を算出し、これらを比較する。そして、推定部132は、第2取得部235により現時点での空きスペースの面積が過去の所定の時点での空きスペースの面積より小さくなっていると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。
〔4−3.衝突回数〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数を取得する。そして、第2取得部235は、衝突回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど衝突回数は多くなると考えられる。したがって、推定部132は、第2取得部235により衝突回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。
〔4−4.移動回数に基づく推定〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数のうち、衝突したことにより被衝突物が移動した回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数のうち、衝突したことにより被衝突物が移動した移動回数を取得する。なお、第2取得部235は、清掃ロボットRB1が同一物体に複数回衝突し、さらにその物体が移動した場合には、重複した移動回数を排除してもよい。
そして、第2取得部235は、移動回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど移動回数は多くなると考えられる。例えば、タンス等の大きな家具に清掃ロボットRB1が衝突しても、家具が動くことはない。一方で、整理整頓できていない原因の、例えば、ゴミや玩具に清掃ロボットRB1が衝突した場合、これらは衝突の力によって移動することになる。つまり、移動回数が多いほど、居室Rが整頓できていないことを示唆する。したがって、推定部132は、第2取得部235により移動回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。
〔5.効果〕
第2の実施形態にかかる情報処理装置200は、第2取得部235と、推定部132とを有する。第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を認識することができるため、ユーザに対して効率的な清掃行動を行わせることができる。
(第3の実施形態)
〔1.情報処理の一例〕
次に、図11を用いて、第3の実施形態にかかる情報処理の一例を示す。図11は、第3の実施形態にかかる情報処理の一例を示す図である。第3の実施形態にかかる情報処理は、情報処理装置300によって行われる。情報処理装置300は、図1で説明した情報処理装置SVの一例である。
また、図11は、図1(c)をより詳細に説明するものである。図11の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、照明デバイスR1が設置されている。また、不図示であるがユーザU11およびU12も存在するものとする。
このような状態において、情報処理装置300は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得し、取得した判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、情報処理装置300は、判定結果が清掃の必要性がある要清掃位置を示す場合に、要清掃位置または前記要清掃位置の周辺に清掃に関する情報を出力させる出力制御を行う。なお、ユーザに対して清掃の必要性があるか否かを判定する処理は、第1の実施形態にかかる情報処理装置100の判定部133によって行われる。
情報処理装置300は、清掃の必要があるか否か判定された判定結果を取得する(ステップS31)。図1(a)の例では、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、かかる例の場合、情報処理装置300は、判定結果として「清掃の必要がある」ことを取得する。
ここで、これまで説明してきた通り、情報処理装置100は、取得した環境情報に基づいて、ユーザの清掃状況を推定し、推定結果に基づいて、清掃の必要性を判定する。したがって、判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。また、かかる判定結果は、情報処理装置300の所定の記憶部に記憶されている。
また、第1の実施形態で説明したように、情報処理装置100は、環境情報に基づいて、ユーザの室内が清掃されている程度を示す指標値を算出し、この指標値に基づいて、清掃状況を推定する場合がある。したがって、判定結果には、室内が清掃されている程度を示す指標値も含まれてよい。
図11の例では、例えば、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。かかる場合、情報処理装置300は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する(ステップS32)。
かかる出力制御に応じて、照明デバイスL1は、要清掃位置AR1に清掃に関する情報を出力する。一例を示すと、照明デバイスL1は、清掃に関する情報として有害物質(例えば、害虫)の影を投影する(ステップS33)。これにより、情報処理装置300は、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。
〔2.情報処理装置の構成〕
次に、図12を用いて、第3の実施形態にかかる情報処理装置300について説明する。図12は、第3の実施形態にかかる情報処理装置300の構成例を示す図である。図12に示すように、情報処理装置300は、通信部110と、記憶部120と、制御部330とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
(制御部330について)
制御部330は、CPUやMPU等によって、情報処理装置300内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
図12に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134と、判定結果取得部335と、出力制御部336とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。
(判定結果取得部335について)
判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。判定結果取得部335により取得される判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。判定結果には、例えば、室内が清掃されている程度を示す指標値も含まれている。
(出力制御部336について)
出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。具体的には、出力制御部336は、室内において清掃の必要性がある要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。例えば、出力制御部336は、室内において清掃の必要性がある要清掃位置を示す位置情報が判定結果に含まれる場合に、要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。
出力制御部336は、清掃に関する情報として、要清掃位置または要清掃位置の周辺に応じた情報を出力させる。例えば、出力制御部336は、清掃状況の程度に応じた態様で、清掃に関する情報を出力させる。より具体的には、出力制御部336は、清掃状況の程度を示す指標値に応じた態様で、清掃に関する情報を出力させる。また、例えば、出力制御部336は、清掃状況の程度に応じて、清掃に関する情報を出力する出力頻度、または、清掃に関する情報を出力する出力数を制御する。また、出力制御部336は、宅内において物品が散在していることによりユーザが清掃の必要性があると判定されている場合には、清掃に関する情報として、当該物品に応じた情報を出力させる。
また、出力制御部336は、清掃に関する情報として、宅内の清掃が必要であることを示す情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の形状を示す有害物情報を投影させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物が動作する音声情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の匂いを出力させる。
〔3.情報処理における作用の一例〕
以下、図13に示すフローチャートを用いて、各処理部335、336が実行・実現する処理の内容について説明する。図13は、第3の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図11の例を用いることにする。
まず、判定結果取得部335は、清掃の必要があるか否か判定された判定結果を取得したか否かを判定する(ステップS301)。例えば、判定結果取得部335は、判定部133から清掃の必要があるか否か判定された判定結果を受信しない間は、判定結果を取得していないと判定し(ステップS301;No)、取得するまで待機する。
一方、出力制御部336は、判定結果取得部335により清掃の必要があるか否か判定された判定結果が取得されたと判定された場合には(ステップS301;Yes)、判定結果に基づいて、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う(ステップS302)。例えば、判定結果取得部335により取得された判定結果が、ユーザU11が清掃の必要性があることを示しているものとする。
また、判定結果取得部335により取得された判定結果には、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。なお、清掃されている程度は、汚れている度合いとも言い換えることができ、指標値が大きいほど汚れがひどい、あるいは、整頓できていないことを示すものとする。
かかる場合、出力制御部336は、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、出力制御部336は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する。図11の例では、領域AR1には、段ボール箱やごみ袋が積み重ねてある。このような場所(隙間)は、特定の害虫が身を潜めるには格好の場所といえる。したがって、、出力制御部336は、照明デバイスL1に対して、害虫の形状の影を投影させる。かかるがい害虫とは、例えば、一般家庭における生活空間に発生し得る害虫であればどのようなものでもよく、例えば、ゴキブリやカメムシ等である。なお、出力制御部336は、領域AR1がキッチン周辺である場合には、残飯等に集まり易いネズミの影を投影させてもよい。
また、要清掃領域「AR1」における清掃の程度(汚れの程度、整頓されていない程度)が「指標値8」であることから、出力制御部336は、「指標値8」に応じた数の害虫を投影させてもよい。例えば、出力制御部336は、「指標値8」に対応させて「8匹」の害虫を投影させてもよい。また、出力制御部336は、害虫を投影させる頻度も制御してよい。出力制御部336は、「指標値8」の場合には「1分毎」に害虫を投影させ、「指標値7」の場合には「2分毎」に害虫を投影させる。また、出力制御部336は、かかる害虫の動作音(例えば、羽音や移動音)も同時に出力させてよい。
また、領域AR1には、段ボール箱やごみ袋が積み重ねてあることから、領域AR1には日当たりが悪いことが考えられる。日当たりが悪い場所は、湿気が高くカビが発生しやすい。したがって、出力制御部336は、領域AR1付近にカビ臭を発生させてもよい。
〔4.変形例〕
上記第3の実施形態にかかる情報処理装置300は、上記第3の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置300の他の実施形態について説明する。
〔4−1.NG条件(1)〕
上記の第2の実施形態では、出力制御部336が清掃に関する情報を出力させる例を示した。しかし、出力制御部336は、所定の条件下では、清掃に関する情報を出力させないよう出力制御する。例えば、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しないよう制御する。
例えば、ユーザU11がせっかく清掃を行っていたとしても、このとき害虫が投影されてしまうと、驚きやショック等でユーザU11が清掃意欲を無くす可能性がある。このような状況を防ぐために、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しない。
〔4−2.NG条件(2)〕
また、出力制御部336は、清掃の必要性がある要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しないよう制御する。例えば、要清掃位置が階段上である場合、ユーザが階段を使用している際に、この階段付近に害虫が投影されると、驚きでユーザが足を踏み外してしまう可能性があり危険である。したがって、出力制御部336は、要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しない。
〔5.効果〕
第3の実施形態にかかる情報処理装置300は、判定結果取得部335と、出力制御部336とを有する。判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。
これにより、第3の実施形態にかかる情報処理装置300は、ユーザに対して清掃するための動機付けを効果的に行うことができる。
(第4の実施形態)
〔1.情報処理の一例〕
次に、図14を用いて、第4の実施形態にかかる情報処理の一例を示す。図14は、第4の実施形態にかかる情報処理の一例を示す図である。第4の実施形態にかかる情報処理は、情報処理装置400によって行われる。情報処理装置400は、図1で説明した情報処理装置SVの一例である。
また、図14は、図1(d)をより詳細に説明するものである。図14の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、ユーザU11およびU12がいる。
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した会話情報を情報処理装置400に送信する(ステップS42)。これにより、情報処理装置400は、環境情報を取得することができる。
次に、情報処理装置400は、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置400は、取得した会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。
一例を示すと、情報処理装置400は、所定対象物を定位置(元の場所)に戻すといった清掃行動を行ったか否かを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、清掃行動を行ったのは誰であるかも特定する。また、情報処理装置400は、例えば、清掃行動を行ったのはユーザU11であることを特定したとすると、ユーザU11が自主的に清掃行動を行ったのか、あるいは、誰かに指示されて清掃行動を行ったのかを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、その清掃行動にかかった時間を特定する。
図14の例では、情報処理装置400は、掃除機をかけているユーザU11に対して、母親であるユーザU2が「ちゃんときれいに出来たわね」と声をかけたことを示す会話情報を取得することになる。このようなことから、情報処理装置400は、ユーザU11が清掃行動を行ったと判定し、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置400は、報酬として所定のポイントを付与する場合、ユーザU11の端末装置10においてアプリAPを介して、付与したポイントおよび現在の累計ポイントを確認可能に制御する。
このように、情報処理装置400は、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。
〔2.情報処理装置の構成〕
次に、図15を用いて、第3の実施形態にかかる情報処理装置400について説明する。図15は、第4の実施形態にかかる情報処理装置400の構成例を示す図である。図15に示すように、情報処理装置400は、通信部110と、記憶部420と、制御部430とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
(記憶部420について)
記憶部420は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部420は、ユーザ情報記憶部121と、環境情報記憶部122と、報酬情報記憶部423とを有する。
(報酬情報記憶部423について)
報酬情報記憶部423は、ユーザに付与された報酬に関する情報を記憶する。ここで、図16に第4の実施形態にかかる報酬情報記憶部423の一例を示す。なお、本実施形態では、報酬は所定のポイントであるものとする。図16の例では、報酬情報記憶部423は、「家族ID」、「ユーザID」、「ポイント」といった項目を有する。
「家族ID」、「ユーザID」については、図5の通りであるため、説明を省略する。「ポイント」は、対応するユーザに付与されている現在の累計ポイントを示す。すなわち、図16の例では、ユーザID「U11」によって識別されるユーザには、現在「50ポイント」付与されている例を示す。
(制御部430について)
図15に戻り、制御部430は、CPUやMPU等によって、情報処理装置400内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部430は、例えば、ASICやFPGA等の集積回路により実現される。
図15に示すように、制御部430は、第1取得部131と、推定部132と、判定部133と、通知部134と、行動判定部435と、付与部436とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部430の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部430が有する各処理部の接続関係は、図15に示した接続関係に限られず、他の接続関係であってもよい。
(行動判定部435について)
行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。ここで、第1および第2の実施形態で説明した通り、第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。例えば、第1取得部131は、所定の音声デバイスに対して入力された会話を示す会話情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。したがって、行動判定部435は、第1取得部131により取得された環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。
また、行動判定部435は、ユーザによる清掃行動の進捗状況を示す進捗情報が会話情報に含まれる場合に、この進捗情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。また、行動判定部435は、ユーザと所定の関係を有する関係者の音声が登録されている場合に、会話情報に対応する音声データであって関係者の音声データに基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。
(付与部436について)
付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。
また、付与部436は、行動判定部435によりユーザが清掃行動を行ったと判定された場合に、清掃行動に関する所定の対象者として、当該ユーザまたは当該ユーザと所定の関係性を有する関係者に報酬を付与する。例えば、付与部436は、関係者がユーザに対して清掃行動を行わせた場合には、この関係者に報酬を付与する。
また、例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。また、付与部436は、清掃行動が開始されてから終了するまでの時間に応じた報酬を付与する。
〔3.情報処理における作用の一例〕
以下、図17に示すフローチャートを用いて、情報処理装置400の各処理部が実行・実現する処理の内容について説明する。図17は、第4の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図14の例を用いることにする。
まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS401)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS401;No)、取得するまで待機する。
一方、行動判定部435は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS401;Yes)、会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS402)。例えば、行動判定部435は、会話情報を分析することにより、会話情報が示す会話の内容に基づいて、ユーザが清掃行動を行ったか否かを判定する。
ここで、会話情報がユーザによる清掃行動の進捗状況を示していたとする。一例を示すと、会話情報の中に、母親であるユーザU12がユーザU11に対して「早く片付けなさい」といった現在清掃行動が行われていないことを示す内容と、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」と清掃行動が行われたことを示す内容とが経時変化に応じて含まれていたとする。かかる場合、行動判定部435は、ユーザU11が清掃行動を行ったと判定する。
また、行動判定部435は、判定処理に音声認識の技術を用いることができる。例えば、上記例では、行動判定部435は、会話情報に含まれる発話内容のうち、どの発話がユーザU12による発話であるかを特定している。このような特定が可能となるのは、例えば、情報処理装置400に対して、ユーザU11と家族関係(親子関係)にあるユーザU12の音声データが予め登録されているためである。例えば、ユーザU11が幼い子供であったとすると、ユーザU11は清掃行動を行っていないにも拘らず、例えば、冗談で「掃除終わったよ」等という場合がある。一方で、ユーザU12は大人であるため、このような冗談を言う可能性は低く、さらに子どもと比較して発話内容の信頼性が高いといえる。
このようなことから、行動判定部435は、ユーザU12の音声データが予め登録されていれば、ユーザU12に対応する会話情報に焦点を当てて判定処理を行うことができるため、例えば清掃行動を行ったか否かを高精度に判定することができるとともに、清掃行動を行ったと判定した場合、例えば、だれが、だれの指示で清掃行動を行ったのかを特定することができる。
また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定することができる。所定のセンサ機能は、上記の各実施形態で説明したきたが、例えば、エコーロケーション、カメラ、ホコリセンサ等であり、音声デバイスDV1や清掃ロボットRB1に設置されている。
例えば、行動判定部435は、会話情報とセンサ機能による撮影画像とを組み合わせて、ユーザU12にの発話「早く片付けなさい」の後に、これまで居室Rに散らばっていた玩具が定位置に戻されたと判定した場合には、ユーザU11が清掃行動を行ったと判定する。また、例えば、行動判定部435は、ユーザU12にの発話「早く片付けなさい」の後に、ホコリセンサによるホコリ量が減少していた場合には、ユーザU11が清掃行動を行ったと判定する。
また、片付けの対象物にも予めセンサが取り付けてあることで、行動判定部435は、そのセンサから取得された情報に基づいて、判定してもよい。例えば、ユーザU11が片付けるべき玩具Gは(IoT玩具)であるものとする。玩具Gは、ネットワークNを介して、情報処理装置400に位置情報等を送信することができる。行動判定部435は、かかる位置情報に基づき玩具Gが定位置に戻された旨の情報が取得された場合には、ユーザU11が清掃行動を行ったと判定する。
以上のようにして、行動判定部435は、ユーザが清掃行動を行っていないと判定した場合には(ステップS402;No)、処理を終了する。一方、付与部436は、行動判定部435によりユーザが清掃行動を行たと判定された場合には(ステップS402;Yes)、所定の対象者に報酬を付与する(ステップS403)。
ここで、行動判定部435により、ユーザU11が清掃行動を行った、具体的には、ユーザU11が玩具Gを片付けたと判定されたとすると、付与部436は、ユーザU11に対して、所定のポイントを付与する。また、例えば、付与部436は、片付けられた対象物である玩具Gに関連する報酬をユーザU11に付与してもよい。付与部436は、玩具Gに関連するコンテンツ(例えば、玩具Gが登場するアニメーション)をユーザU11に付与する。また、付与部436は、玩具Gに関連するコンテンツとして、例えば、玩具Gの関連部品についてのクーポンを付与してもよい。
また、行動判定部435は、会話情報を分析することにより清掃行動の進捗状況を特定することができるため、清掃行動が開始されてから終了するまでの時間を算出することもできる。したがって、付与部436は、清掃行動が開始されてから終了するまでの時間が短いほど高い報酬を付与してもよい。これにより情報処理装置400は、ユーザに対して短時間での効率的な清掃行動を行わせることができる。なお、例えば、行動判定部435は、センサにより検出された音声データに基づき、例えば、掃除機が稼働しされてから停止されるまでの時間を、清掃行動が開始されてから終了するまでの時間として算出してもよい。
また、付与部436は、ユーザU11ではなくユーザU12に報酬を付与してもよい。例えば、行動判定部435は、ユーザU12の発話「早く片付けなさい」に応じて、ユーザU11が清掃行動を行ったと判定したとする。これは、親子関係にあるユーザU12がユーザU11に対して清掃行動を行わせたことを示す。つまり、ユーザU11が清掃行動を行ったのは、ユーザU12の行動が影響しているといえる。また、ユーザU12が間接的に清掃行動を行ったともいえる。したがって、かかる場合には、付与部436は、ユーザU11ではなくユーザU12に報酬を付与する。
例えば、ユーザU11は自分が清掃したにも拘らず、母のユーザU12に報酬が付与されると、これを不満に思い次回からは積極的に清掃するようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して効果的に清掃の動機付けを行うことができる。
〔4.変形例〕
上記第4の実施形態にかかる情報処理装置400は、上記第4の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置400の他の実施形態について説明する。
〔4−1.購買情報に基づくコンテンツ付与〕
付与部436は、所定の対象者の購買情報に基づくコンテンツを報酬として付与してもよい。ここでは、例えば、ユーザU12が清掃行動を行ったと判定されたことにより、ユーザU12が報酬付与対象でるものとする。かかる場合、例えば、付与部436は、ユーザU12の購買情報を取得する。購買情報には、これまでにユーザU12が購入した商品に関する情報が含まれる。例えば、付与部436は、情報処理装置400と連携する所定のサーバ装置(例えば、ショッピングサーバ)から購買情報を取得してもよい。また、付与部436は、情報処理装置400が購買情報を記憶する記憶部を有している場合には、かかる記憶部から購買情報を取得してもよい。
そして、付与部436は、例えば、購買情報に基づき、ユーザU12が最近購入した商品に関するコンテンツ(例えば、クーポン)を報酬として付与する。このような商品は、現時点においてユーザU12の興味が高まっている商品といえるため、この商品に関するコンテンツを報酬を付与することで、情報処理装置400を管理する事業主は、ユーザU12から高評価を得ることができる。また、情報処理装置400は、ユーザU12に対して今後も効果的に清掃を行わせることができる。
なお、付与部436は、例えば、ユーザU12が月額性の動画コンテンツを購入している場合には、報酬として、翌月の動画コンテンツの一部を無料で閲覧可能にしてもよい。
〔4−2.グループ内での報酬競争〕
また、付与部436は、所定のグループに属する複数のユーザのうち、清掃行動を行ったユーザに報酬を付与するとともに、当該所定のグループに属する複数のユーザ間で報酬の競争を行えるよう制御する。この点について、図16の例を用いて説明する。
図16の例では、ユーザU11、U12、U13、U14が一つの家族ID「FM1」で識別されており、このことはユーザU11、U12、U13、U14が家族関係にあることを示している。また、図5の例も適用して、年齢や性別からユーザU11が弟、ユーザU13が兄、ユーザU12が母、ユーザU14が父である。そして、これら4人のユーザの端末装置10には、アプリAPがインストールされているものとする。
このような状態のおいて、付与部436は、4人の各ユーザが、アプリAPを介して、自身も含め他の3人のユーザの現在のポイントを確認可能なように制御する。これにより、例えば、ユーザU11は、アプリAPを利用して、自身が現在「50ポイント」であることに加え、ユーザU12が「15ポイント」、ユーザU13が「35ポイント」、ユーザU14が「40ポイント」であることを確認することができる。ユーザU12〜U14についても同様である。これにより、兄であるユーザU13は、弟に負けじとポイントをより増やそうと積極的に清掃行動を行うようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して競争意識を高めることができるため、効果的に清掃行動を行わせることができる。
〔4−3.不正防止〕
また、付与部436は、清掃を必要とする状況が故意に発生させられた状態において、ユーザが清掃行動を行ったと判定された場合には、報酬を付与しない。例えば、付与部436は、行動判定部435によりユーザU11が清掃行動を行ったと判定された場合、その清掃行動の対象になった状況、すなわち清掃を必要とする状況が故意に発生させられたか否かを判定する。
清掃を必要とする状況は、自然と汚れてゆくことに比べ短時間に作り上げることができる。また、清掃を必要とする状況を作り上げる際には、独自の音声パターンが発生する。一例を示すと、例えば、箱の中に入っている物品を一気にまき散らす態様を示す御瀬尾パターンである。例えば、付与部436は、センサにより検出された音声データを解析することにより、この独自の音声パターンを特定した場合には、ユーザU11が清掃を必要とする状況を故意に発生させたと判定する。すなわち、付与部436は、ユーザU11が報酬欲しさに不正を働いたと判定し、報酬を付与しない。これにより、情報処理装置400は、不正に報酬を得ようする行為を防止することができる。
〔4−4.学習〕
また、付与部436は、付与した報酬と、清掃行動との関係性を学習してもよい。例えば、付与部436は、どのようなものを報酬として付与した場合に、よりユーザが清掃行動を起こしやすいかといった傾向を学習する。そして、付与部436は、学習した関係性に基づいて、報酬を付与する。これにより、情報処理装置400は、どのような報酬を付与することが効果的であるのかを特定することができるため、特定した報酬を利用してより効果的に清掃行動を行わせることができる。なお、かかる学習処理は、付与部436以外の処理部によって行われてもよい。例えば、情報処理装置400は、学習処理を行う学習部を有してもよい。
〔5.効果〕
第4の実施形態にかかる情報処理装置400は、行動判定部435と、付与部436とを有する。行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
これにより、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。
(その他)
〔1.スタンドアローン〕
上記の各実施形態における情報処理装置100〜400によって行われる情報処理は、例えば、室内に設置される所定のデバイスがスタンドアローンで実行してもよい。かかる所定のデバイスとは、例えば、音声デバイスDV1や清掃ロボットRB1である。
〔2.ハードウェア構成〕
また、上述してきた各実施形態にかかる情報処理装置100、200、300および400は、例えば図18に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図18は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
例えば、コンピュータ1000が第1の実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
また、例えば、コンピュータ1000が第2の実施形態にかかる情報処理装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部230の機能を実現する。
〔3.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。
10 端末装置
100 情報処理装置
121 ユーザ情報記憶部
122 環境情報記憶部
131 第1取得部
132 推定部
133 判定部
134 通知部
200 情報処理装置
235 第2取得部
300 情報処理装置
335 判定結果取得部
336 出力制御部
400 情報処理装置
423 報酬情報記憶部
435 行動判定部
436 付与部

Claims (18)

  1. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得部と、
    前記取得部により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定部と
    を有し、
    前記取得部は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する
    ことを特徴とする情報処理装置。
  2. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得部と、
    前記取得部により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定部と
    を有し、
    前記取得部は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する
    ことを特徴とする情報処理装置。
  3. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得部と、
    前記取得部により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定部と
    を有し、
    前記取得部は、前記環境情報として、過去の所定の時点での室内の間取りと、現時点での当該室内の間取りとを比較した比較結果を取得する
    ことを特徴とする情報処理装置。
  4. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得部と、
    前記取得部により取得された環境情報に基づき算出された指標値であって前記ユーザの室内が清掃されている程度を示す指標値に基づいて、室内における前記ユーザの清掃状況を推定する推定部と
    を有し、
    前記推定部は、前記指標値として、前記ユーザの環境情報と前記ユーザとは異なる他のユーザの環境情報とを比較することにより算出された相対的な指標値に基づいて、前記清掃状況を推定する
    ことを特徴とする情報処理装置。
  5. 前記取得部は、前記作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する
    ことを特徴とする請求項1〜4のいずれか1つに記載の情報処理装置。
  6. 前記取得部は、前記所定のセンサ機能として、エコーロケションにより検出された環境情報を取得する
    ことを特徴とする請求項5に記載の情報処理装置。
  7. 前記取得部は、前記所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得する
    ことを特徴とする請求項5または6に記載の情報処理装置。
  8. 前記取得部は、前記環境情報として、物の散乱状況を示す情報、または室内における空中浮遊物に関する情報を取得する
    ことを特徴とする請求項1〜7のいずれか1つに記載の情報処理装置。
  9. 前記取得部は、前記環境情報として、前記ユーザの会話に関する情報である会話情報であって前記作業ロボットに対して入力された会話情報を取得する
    ことを特徴とする請求項1〜8のいずれか1つに記載の情報処理装置。
  10. 前記推定部は、前記室内における前記ユーザの清掃状況として、室内における前記ユーザの整頓状況を推定する
    ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。
  11. 前記取得部は、前記移動可能な作業ロボットとして、所定の清掃用ロボットにより検出された環境情報を取得する
    ことを特徴とする請求項1〜10のいずれか1つに記載の情報処理装置。
  12. 前記推定部による推定結果に基づいて、前記ユーザに対して清掃に関する情報を通知する通知部をさらに有する
    ことを特徴とする請求項1〜11のいずれか1つに記載の情報処理装置。
  13. 前記通知部は、前記推定結果に基づき前記ユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する
    ことを特徴とする請求項12に記載の情報処理装置。
  14. 前記通知部は、前記環境情報が示す室内での物の散乱状況、および、前記推定結果が示す室内の整頓状況に基づき前記ユーザに対して、室内を整頓してから清掃する必要性があると判定された場合には、清掃に関する情報として、室内を整頓してから床の清掃を行うという片付けにおける一連の手順を通知する
    ことを特徴とする請求項12または13に記載の情報処理装置。
  15. 情報処理装置が実行する情報処理方法であって、
    ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得工程と、
    前記取得工程により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定工程と
    を含み、
    前記取得工程は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する
    ことを特徴とする情報処理方法。
  16. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得手順と、
    前記取得手順により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定手順と
    をコンピュータに実行させ、
    前記取得手順は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する
    ことを特徴とする情報処理プログラム。
  17. 情報処理装置が実行する情報処理方法であって、
    ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得工程と、
    前記取得工程により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定工程と
    を含み、
    前記取得工程は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する
    ことを特徴とする情報処理方法。
  18. ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する取得手順と、
    前記取得手順により取得された環境情報に基づいて、室内における前記ユーザの清掃状況を推定する推定手順と
    をコンピュータに実行させ、
    前記取得手順は、前記環境情報として、室内における前記作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、前記室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する
    ことを特徴とする情報処理プログラム。
JP2017244545A 2017-12-20 2017-12-20 情報処理装置、情報処理方法および情報処理プログラム Active JP6985923B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017244545A JP6985923B2 (ja) 2017-12-20 2017-12-20 情報処理装置、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244545A JP6985923B2 (ja) 2017-12-20 2017-12-20 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2019113900A JP2019113900A (ja) 2019-07-11
JP6985923B2 true JP6985923B2 (ja) 2021-12-22

Family

ID=67223679

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244545A Active JP6985923B2 (ja) 2017-12-20 2017-12-20 情報処理装置、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP6985923B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077102A (ja) * 2019-11-08 2021-05-20 株式会社Nttドコモ 推定システム
JP7487559B2 (ja) 2020-05-25 2024-05-21 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム、及び情報処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306077A (ja) * 1999-04-21 2000-11-02 Hitachi Zosen Corp 図書管理設備
JP4132415B2 (ja) * 1999-06-09 2008-08-13 株式会社豊田自動織機 清掃ロボット
GB9917232D0 (en) * 1999-07-23 1999-09-22 Notetry Ltd Method of operating a floor cleaning device
JP2005056213A (ja) * 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 情報提供システム、情報提供サーバ、情報提供方法
JP2006277750A (ja) * 2006-03-31 2006-10-12 Sharp Corp 情報提示装置および情報提示方法
KR101984214B1 (ko) * 2012-02-09 2019-05-30 삼성전자주식회사 로봇 청소기의 청소 작업을 제어하기 위한 장치 및 방법
JP2015017363A (ja) * 2013-07-09 2015-01-29 株式会社日立システムズ トイレ管理タイミング通知装置、方法、プログラム、システム及び端末
JP2017036976A (ja) * 2015-08-07 2017-02-16 パナソニックIpマネジメント株式会社 位置管理システム、位置管理装置、位置管理方法、及びプログラム
CN105380575B (zh) * 2015-12-11 2018-03-23 美的集团股份有限公司 扫地机器人的控制方法、系统、云服务器和扫地机器人

Also Published As

Publication number Publication date
JP2019113900A (ja) 2019-07-11

Similar Documents

Publication Publication Date Title
US11586211B2 (en) AI mobile robot for learning obstacle and method of controlling the same
US10394246B2 (en) Robot with automatic styles
US20210065268A1 (en) Systems and methods for providing ai-based cost estimates for services
JP6502491B2 (ja) 顧客サービスロボットおよび関連するシステムおよび方法
CN111657798B (zh) 基于场景信息的清扫机器人控制方法、装置和清扫机器人
US11350809B2 (en) Cleaning robot and method of performing task thereof
US20200097012A1 (en) Cleaning robot and method for performing task thereof
JP6985923B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6985922B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6901392B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR102297496B1 (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
JP6903563B2 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2014065071A1 (ja) 機器制御装置、および自走式電子機器
US11925304B2 (en) Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
CN111643017B (zh) 基于日程信息的清扫机器人控制方法、装置和清扫机器人
CN107211113A (zh) 监控
JP2019087250A (ja) オブジェクト履歴関連付けにおけるシステムと方法
JP2017036976A (ja) 位置管理システム、位置管理装置、位置管理方法、及びプログラム
CA3039434A1 (en) Systems and methods for providing ai-based cost estimates for services
CN107111363A (zh) 监视
CN111343696A (zh) 自移动设备的通信方法、自移动设备及存储介质
JP6899543B2 (ja) 片付け支援システム、片付け支援方法およびプログラム
US10772287B1 (en) Pet care system configured to provide shelter to one or more pet animals
JP6347347B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
JP2020017258A (ja) 情報処理方法、情報処理装置及び情報処理プログラム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211126

R150 Certificate of patent or registration of utility model

Ref document number: 6985923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350