JP2019113896A - Device, method, and program for processing information - Google Patents

Device, method, and program for processing information Download PDF

Info

Publication number
JP2019113896A
JP2019113896A JP2017244518A JP2017244518A JP2019113896A JP 2019113896 A JP2019113896 A JP 2019113896A JP 2017244518 A JP2017244518 A JP 2017244518A JP 2017244518 A JP2017244518 A JP 2017244518A JP 2019113896 A JP2019113896 A JP 2019113896A
Authority
JP
Japan
Prior art keywords
user
information
information processing
cleaning
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017244518A
Other languages
Japanese (ja)
Other versions
JP6903563B2 (en
Inventor
憲二 金広
Kenji Kanehiro
憲二 金広
太士 岩▲瀬▼張
Futoshi Iwasebari
太士 岩▲瀬▼張
陽 伊藤
Akira Ito
陽 伊藤
泰三 松岡
Yasuzo Matsuoka
泰三 松岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2017244518A priority Critical patent/JP6903563B2/en
Publication of JP2019113896A publication Critical patent/JP2019113896A/en
Application granted granted Critical
Publication of JP6903563B2 publication Critical patent/JP6903563B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To ensure that a user does the cleaning effectively.SOLUTION: An information processing device 400 has a controller 430 comprising a first acquisition unit 131, action assessment unit 435, and granting unit 436. The action assessment unit 435 determines whether a user has done the cleaning or not on the basis of conversational information acquired by the first acquisition unit 131. The granting unit 436 grants a reward to a predetermined eligible person for the cleaning when the action assessment unit 435 determines that a cleaning has been done by the user.SELECTED DRAWING: Figure 15

Description

本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。   Embodiments of the present invention relate to an information processing apparatus, an information processing method, and an information processing program.

近年、インターネットの普及に伴い、生活支援を行う各種サービスが提供されるようになってきている。例えば、ユーザに対して片付けに関する支援を行う技術がある。   In recent years, with the spread of the Internet, various services for supporting daily life have come to be provided. For example, there is a technology for providing a user with a cleaning assistance.

特許文献1には、片付けロボットが、人の指示に応じて、または、自発的に、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けることを可能とする技術が開示されている。   Patent Document 1 discloses a technology that enables the tidying robot to store any daily-use article at any position according to a person's instruction or voluntarily, and to tidy up any empty space. It is done.

特開2007−152443号公報JP 2007-152443 A

しかしながら、上記の従来技術では、ユーザに対して効果的に清掃を行わせることができるとは限らない。例えば、上記の従来技術は、ユーザの位置を検出し傍に移動して待機し、ユーザの発話内容を認識し手先を出して物品を受取り、物品を撮影し、ユーザによるユーザ名及び物品名の発話を認識し、直近の保管場所に物品を保管することを可能にする可能にする片付けロボットに関する技術である。   However, in the above-described prior art, it is not always possible to make the user effectively clean. For example, the above-mentioned prior art detects the position of the user, moves to the side and stands by, recognizes the user's speech content, takes out the hand to receive the article, photographs the article, and uses the user name and article name by the user. It is a technique relating to a tidying robot that recognizes speech and makes it possible to store articles in the immediate storage location.

このような上記の従来技術では、片付けロボットに対して、人の指示に応じ、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けさせることができたとしても、ユーザに対して効果的に清掃を行わせることができるとは限らない。   In the above-described prior art, even if it is possible to store any daily-use article at any position according to a person's instruction to the cleaning-up robot and allow the user to clean up any space, it is possible for the user to However, it is not always possible to clean up effectively.

本願は、上記に鑑みてなされたものであって、ユーザに対して効果的に清掃を行わせることを目的とする。   This application is made in view of the above, and aims at making a user perform cleaning effectively.

本願にかかる情報処理装置は、ユーザが清掃行動を行ったか否かを判定する判定部と、前記判定部による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与部とを有することを特徴とする。   An information processing apparatus according to the present application includes: a determination unit that determines whether or not a user performs a cleaning action; and an assignment unit that rewards a predetermined target person regarding the cleaning action based on a determination result by the determination unit. It is characterized by having.

実施形態の一態様によれば、ユーザに対して効果的に清掃を行わせることができるといった効果を奏する。   According to one aspect of the embodiment, an effect is provided that the user can be effectively cleaned.

図1は、実施形態にかかる情報処理の一例を示す図である。FIG. 1 is a diagram illustrating an example of information processing according to the embodiment. 図2は、第1の実施形態にかかる情報処理の一例を示す図である。FIG. 2 is a diagram illustrating an example of the information processing according to the first embodiment. 図3は、第1の実施形態にかかる情報処理システムの構成例を示す図である。FIG. 3 is a diagram illustrating an exemplary configuration of the information processing system according to the first embodiment. 図4は、第1の実施形態にかかる情報処理装置の構成例を示す図である。FIG. 4 is a diagram illustrating an exemplary configuration of the information processing apparatus according to the first embodiment. 図5は、第1の実施形態にかかるユーザ情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of the user information storage unit according to the first embodiment. 図6は、第1の実施形態にかかる環境情報記憶部の一例を示す図である。FIG. 6 is a diagram showing an example of the environment information storage unit according to the first embodiment. 図7は、第1の実施形態にかかる情報処理の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the information processing according to the first embodiment. 図8は、第2の実施形態にかかる情報処理の一例を示す図である。FIG. 8 is a diagram illustrating an example of the information processing according to the second embodiment. 図9は、第2の実施形態にかかる情報処理装置の構成例を示す図である。FIG. 9 is a view showing an example of the arrangement of an information processing apparatus according to the second embodiment. 図10は、第2の実施形態にかかる情報処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of the information processing according to the second embodiment. 図11は、第3の実施形態にかかる情報処理の一例を示す図である。FIG. 11 is a diagram illustrating an example of the information processing according to the third embodiment. 図12は、第3の実施形態にかかる情報処理装置の構成例を示す図である。FIG. 12 is a view showing an example of the arrangement of an information processing apparatus according to the third embodiment. 図13は、第3の実施形態にかかる情報処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the information processing according to the third embodiment. 図14は、第4の実施形態にかかる情報処理の一例を示す図である。FIG. 14 is a diagram illustrating an example of the information processing according to the fourth embodiment. 図15は、第4の実施形態にかかる情報処理装置の構成例を示す図である。FIG. 15 is a view showing an example of the arrangement of an information processing apparatus according to the fourth embodiment. 図16は、第4の実施形態にかかる報酬情報記憶部の一例を示す図である。FIG. 16 is a diagram showing an example of a reward information storage unit according to the fourth embodiment. 図17は、第4の実施形態にかかる情報処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of the information processing according to the fourth embodiment. 図18は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 18 is a hardware configuration diagram showing an example of a computer for realizing the function of the information processing apparatus.

(情報処理の概要)
〔1.全体の概要〕
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
(Overview of information processing)
[1. Overview of the whole]
Hereinafter, an information processing apparatus, an information processing method, and a mode for carrying out an information processing program according to the present application (hereinafter, referred to as “embodiment”) will be described with reference to the drawings. Note that the information processing apparatus, the information processing method, and the information processing program according to the present application are not limited by the embodiments. Moreover, in the following embodiments, the same reference numerals are given to the same parts, and the overlapping description will be omitted.

まず、図1を用いて、実施形態にかかる情報処理の概要を示す。図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、図1に示す情報処理装置SVによって行われる。例えば、情報処理装置SVは、サーバ装置やクラウドシステム等、単数または複数の装置により実現され、移動通信網や無線LAN(Local Area Network)等のネットワークを介して、例えば、ユーザの居る部屋に置かれている音声デバイス、移動可能な作業ロボット(清掃ロボット)等をはじめとする各種のIoT(Internet of Things)デバイス、あるいは、ユーザが使用する端末装置10と通信可能な情報処理装置である。   First, an outline of information processing according to the embodiment will be shown using FIG. FIG. 1 is a diagram illustrating an example of information processing according to the embodiment. The information processing according to the embodiment is performed by the information processing device SV shown in FIG. For example, the information processing device SV is realized by a single device or a plurality of devices such as a server device or a cloud system, and is placed in, for example, a room where the user is located via a network such as a mobile communication network or a wireless LAN (Local Area Network). It is an information processing apparatus capable of communicating with various kinds of Internet of Things (IoT) devices including an audio device, a movable work robot (cleaning robot) and the like, or a terminal device 10 used by a user.

なお、情報処理装置SVによって行われる情報処理の詳細については、4つの実施形態、具体的には、第1の実施形態、第2の実施形態、第3の実施形態、第4の実施形態を用いて後ほど詳細に説明する。また、第1の実施形態に対応する情報処理を「処理A」、第2の実施形態に対応する情報処理を「処理B」、第3の実施形態に対応する情報処理を「処理C」、第4の実施形態に対応する情報処理を「処理D」とする。   The details of the information processing performed by the information processing apparatus SV are the four embodiments, specifically, the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment. The details will be described later. Also, the information processing corresponding to the first embodiment is "processing A", the information processing corresponding to the second embodiment is "processing B", and the information processing corresponding to the third embodiment is "processing C", The information processing corresponding to the fourth embodiment is referred to as “process D”.

端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。また、端末装置10には、情報処理装置SVとの情報の送受信を可能にするアプリケーション(以下、「アプリAP」と表記する)が予めインストールされているものとする。   The terminal device 10 is an information processing device used by a user. The terminal device 10 is, for example, a smartphone, a tablet terminal, a notebook PC (Personal Computer), a desktop PC, a mobile phone, a PDA (Personal Digital Assistant), or the like. In addition, it is assumed that an application (hereinafter, referred to as “application AP”) that enables transmission and reception of information with the information processing device SV is installed in the terminal device 10 in advance.

なお、以下の各実施形態で使用する「清掃」および「清掃行動」といった文言は、例えば、散らかっている物を所定の場所に戻す作業である「片付け」や、床や壁等に付着した汚れやホコリを除去する作業である「掃除」の両方の概念を含むものとする。   In addition, words such as "cleaning" and "cleaning behavior" used in each of the following embodiments may be, for example, "clean up" which is an operation of returning a scattered object to a predetermined place, dirt attached to a floor or a wall, etc. The concept of “cleaning”, which is the task of removing dust, shall be included.

〔2.第1の実施形態に対応する情報処理の概要〕
まず、第1の実施形態に対応する情報処理(処理A)が行われる前提について説明する。清掃が苦手であるといったユーザは多いわけであるが、このように清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因である場合がある。
[2. Outline of Information Processing Corresponding to First Embodiment]
First, the premise on which the information processing (processing A) corresponding to the first embodiment is performed will be described. There are many users who are not good at cleaning, but it is not possible to make a decision as to when and what kind of cleaning should be done by yourself if you feel that you are not good at cleaning like this. Sometimes it's because you can't figure out where to start.

したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置SVは、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。   Therefore, the information processing device SV acquires environment information indicating the user's peripheral environment, and determines the necessity of cleaning for the user based on the acquired environment information. Then, the information processing device SV notifies the user of information related to cleaning based on the determination result. In one example, the information processing apparatus SV acquires conversation information, which is information related to the user's conversation, as environment information indicating the user's peripheral environment. Such conversation information is, for example, conversation information input to a predetermined voice device.

そして、情報処理装置SVは、取得した会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定し、清掃の必要があると判定した場合には、例えば、上記の所定の音声デバイスを介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。   Then, the information processing device SV determines the necessity of cleaning for the user based on the content of the conversation indicated by the acquired conversation information, and when it is determined that the cleaning is necessary, for example, Notifies the user of the cleaning situation such as how unorganized (or dirty) the room is through a predetermined voice device, and also notifies that it is time to clean Do.

以下では、図1の例を用いて、処理Aの一例について説明する。図1は、処理A〜処理Dの全ての概念図を含むものであるが、このうち処理Aを説明する図1(a)に着目する。図1(a)では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11を息子、ユーザU12を母親とする。ユーザU11およびU12を区別する必要が無い場合には、単に「ユーザ」と表記する。   Below, an example of the process A is demonstrated using the example of FIG. FIG. 1 includes all conceptual diagrams of the processes A to D. Attention is paid to FIG. 1 (a) for explaining the process A among them. In FIG. 1A, users U11 and U12 exist in the living room R. The users U11 and U12 have a parent-child relationship, and the user U11 is a son and the user U12 is a mother. When there is no need to distinguish between the users U11 and U12, they are simply described as "user".

また、居室Rには、音声デバイスDV1が置かれている。音声デバイスDV1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する音声インタラクション型の装置である。また、音声デバイスDV1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。   In the room R, a voice device DV1 is placed. The voice device DV1 is, for example, a voice interaction type device that realizes dialogue with the user by replying to the voice input from the user. In addition, the audio device DV1 enables transmission and reception of information with the information processing device SV via the Internet.

例えば、音声デバイスDV1は、ユーザの周辺環境を示す環境情報を検出する。図1(a)の例では、ユーザの周辺環境を示す環境情報は、居室R内がどのような環境にあるかを示す情報であればどのような情報であってもよい。例えば、環境情報は、居室R内において物品が置かれている状況、居室R内でのホコリの状況、居室R内に居るユーザの会話状況等、各種の状況を示す情報であってよい。   For example, the audio device DV1 detects environment information indicating the user's peripheral environment. In the example of FIG. 1A, the environment information indicating the user's peripheral environment may be any information as long as the information indicates what environment the interior of the living room R is in. For example, the environment information may be information indicating various situations such as the situation where articles are placed in the living room R, the situation of dust in the living room R, and the conversation situation of the user in the living room R.

例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報(ユーザの会話内容を示す情報)を検出(ステップS11)し、検出した環境情報を情報処理装置SVに送信する(ステップS12)。これにより、情報処理装置SVは、環境情報を取得することができる。   For example, the audio device DV1 detects information on the user's conversation (information indicating the user's conversation content) as environment information (step S11), and transmits the detected environment information to the information processing apparatus SV (step S12). Thus, the information processing device SV can acquire environment information.

そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する(ステップS13)。図1(a)の例では、情報処理装置SVは、ユーザが居室Rを清掃する必要があるか否かといった清掃の必要性を判定する。例えば、情報処理装置SVは、取得した環境情報として会話情報の中に「こんなに散らかして片付けなさい」といったテキストが含まれている場合には、居室Rが散らかっていると推定するとともに、ユーザが居室Rを清掃する必要があると判定する。そして、情報処理装置SVは、ユーザが居室Rを清掃する必要があると判定した場合には、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS14)。   Then, the information processing device SV determines the necessity of cleaning for the user based on the acquired environment information (step S13). In the example of FIG. 1A, the information processing apparatus SV determines the necessity of cleaning, such as whether the user needs to clean the living room R or not. For example, the information processing apparatus SV estimates that the room R is scattered and the user is in the room, when the acquired environment information includes the text such as "Scrap and clean up" in the conversation information. Determine that R needs to be cleaned. Then, when it is determined that the user needs to clean the living room R, the information processing device SV performs notification control to notify the user of information related to cleaning to the voice device DV1 (step S14).

かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置SVは、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。   In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "The room is dirty. Please clean it." Thereby, the user U11 is pointed out not only by the user U12 who is the mother but also by the third party (the audio device DV1), so it becomes easy to realize that it is necessary to clean the living room R. In other words, the information processing device SV can effectively recognize that the timing for cleaning the user U11 is now.

〔3.第2の実施形態に対応する情報処理の概要〕
次に、第2の実施形態に対応する情報処理(処理B)について説明する。まずは、処理Bの前提について説明する。上記の通り、ユーザが清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因であるが、例えば、清掃しようと思い立ったとしても、部屋に物が散乱している場合には、清掃ロボットを稼働させることすらできない。
[3. Outline of Information Processing Corresponding to Second Embodiment]
Next, information processing (process B) corresponding to the second embodiment will be described. First, the premise of the process B will be described. As described above, the reason why the user is not good at cleaning is because they can not make decisions themselves about when and what kind of cleaning should be done, or they can not find an opportunity to start cleaning. However, even if it is intended to clean, for example, if an object is scattered in the room, the cleaning robot can not even be operated.

したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。一例を示すと、情報処理装置SVは、環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。   Therefore, the information processing device SV acquires environmental information indicating the user's peripheral environment and detected by the movable work robot, and estimates the cleaning situation of the user in the room based on the acquired environmental information. Do. In one example, the information processing device SV acquires, as environmental information, environmental information detected by a predetermined sensor function of the work robot. Then, the information processing device SV estimates the cleaning situation of the user in the room based on the acquired environment information.

なお、かかる環境情報は、例えば、部屋の中で物がどのような状況で置かれているかといったことを示す情報や、物が起これていることにより作業ロボットがどれだけ移動できるかといった移動距離に関する情報(例えば、移動距離の移り変わり等)である。また、かかる環境情報は、第1の実施形態に対応する情報処理で説明した環境情報、すなわち会話情報であってもよい。   Note that such environmental information is, for example, information indicating in what situation a thing is placed in a room, or a movement distance such as how much the working robot can move when the thing is upset. Information (for example, transition of movement distance, etc.). Further, such environment information may be the environment information described in the information processing corresponding to the first embodiment, that is, conversation information.

以下では、図1の例を用いて、処理Bの一例について説明する。ここでは、処理Bを説明する図1(b)に着目する。図1(b)でも図1(a)と同様に居室Rを例に用いている。不図示であるがユーザU11およびU12も存在するものとする。   Below, an example of the process B is demonstrated using the example of FIG. Here, attention is paid to FIG. 1 (b) for explaining the process B. Also in FIG. 1 (b), a living room R is used as an example as in FIG. 1 (a). Although not shown, it is assumed that users U11 and U12 are also present.

また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。また、清掃ロボットRB1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する機能を有してもよい。   In the living room R, a cleaning robot RB1 (an example of a movable work robot) is placed. The cleaning robot RB1 includes various sensors, and detects environmental information using the sensors while moving around in the living room R. Examples of various sensors include a camera, a dust sensor, an echo location (ultrasonic position sensor) and the like. In addition, the cleaning robot RB1 enables transmission and reception of information with the information processing apparatus SV via the Internet. In addition, the cleaning robot RB1 may have a function to realize dialogue with the user by, for example, responding to the voice input from the user.

例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置SVに送信する(ステップS22)。これにより、情報処理装置SVは、環境情報を取得することができる。   For example, the cleaning robot RB1 detects arrangement information in which objects are arranged on the floor of the living room R as environmental information (step S21). Briefly, the cleaning robot RB1 photographs the floor of the living room R. Then, the cleaning robot RB1 transmits the detected environment information, that is, the photographed image to the information processing apparatus SV (step S22). Thus, the information processing device SV can acquire environment information.

そして、情報処理装置SVは、取得した環境情報に基づいて、居室Rの清掃状況(整頓状況)を推定する(ステップS23)。例えば、情報処理装置SVは、撮影画像を解析することにより、居室Rの整頓状況を推定する。ここでは、情報処理装置SVは、整頓状況「悪」と推定したとすると、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS24)。   Then, the information processing device SV estimates the cleaning situation (ordering situation) of the living room R based on the acquired environment information (step S23). For example, the information processing device SV estimates the tidy status of the living room R by analyzing the captured image. Here, assuming that the information processing device SV estimates that the orderly state is “bad”, the information processing device SV controls the cleaning robot RB1 to notify the user of information related to cleaning (step S24).

かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、清掃ロボットRB1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置SVは、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置SVは、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置SVは、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。   In response to the notification control, the cleaning robot RB1 outputs voice information on cleaning. As an example, the cleaning robot RB1 outputs an audio such as "room is not organized. Please clean up after cleaning up." Note that the information processing device SV may perform notification control so as to notify the user of information regarding cleaning to the audio device DV1. As a result, the information processing device SV can recognize the tidying state of the room, and for example, when the tidying state of the room is bad, the user can be notified of that. As a result, the information processing device SV can make the user aware that it is necessary to first arrange the room.

ここで、第1の実施形態に対応する情報処理(処理A)は、環境情報として、ユーザの会話情報に基づき室内の清掃状況を推定する処理を含むものであった。一方で、第2の実施形態に対応する情報処理(処理B)は、環境情報として、作業ロボットにより検出された環境情報(特に物の配置に関する情報)に基づき室内の清掃状況を推定するものである。したがって、処理Bは処理Aのバリエーションの一つといえる。   Here, the information processing (process A) corresponding to the first embodiment includes the process of estimating the cleaning situation in the room based on the conversation information of the user as the environment information. On the other hand, the information processing (process B) corresponding to the second embodiment is to estimate the cleaning condition of the room based on the environmental information (in particular, information on the arrangement of objects) detected by the work robot as the environmental information. is there. Therefore, the process B can be said to be one of the variations of the process A.

〔4.第3の実施形態に対応する情報処理の概要〕
次に、第3の実施形態に対応する情報処理(処理C)について説明する。まずは、処理Cの前提について説明する。なかなか部屋が片付けられない、あるいは掃除できないといったユーザは多いわけであるが、この原因として、例えば、部屋に物が散乱していることによりどのような実害があるかといったことを認識できていないことや、そもそも清掃を行うための動機付けが見当たらないといったことが考えられる。
[4. Outline of Information Processing Corresponding to Third Embodiment]
Next, information processing (process C) corresponding to the third embodiment will be described. First, the premise of the process C will be described. There are many users who can not easily clean up the room or can not clean it, but it is not possible to recognize, for example, what kind of harm is caused by things being scattered in the room, for example. Or, it is possible that there is no motivation for cleaning in the first place.

したがって、情報処理装置SVは、ユーザに対して清掃の必要があるか否かが判定された判定結果を取得し、取得した判定結果がユーザが清掃の必要があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。   Therefore, the information processing device SV acquires the determination result in which it is determined whether or not the user needs to be cleaned, and the acquired determination result indicates that the user needs to be cleaned. Output control is performed to output information on cleaning at a predetermined position.

以下では、図1の例を用いて、処理Cの一例について説明する。ここでは、処理Cを説明する図1(c)に着目する。図1(c)でも図1(a)と同様に居室Rを例に用いている。居室Rには、音声デバイスDV1が置かれている。不図示であるがユーザU11およびU12も存在するものとする。   Below, an example of the process C is demonstrated using the example of FIG. Here, attention is paid to FIG. 1 (c) for explaining the process C. Also in FIG. 1 (c), a living room R is used as an example as in FIG. 1 (a). In the room R, a voice device DV1 is placed. Although not shown, it is assumed that users U11 and U12 are also present.

このような状態において、情報処理装置SVは、清掃の必要性を判定された判定結果を取得する(ステップS31)。具体的には、情報処理装置SVは、清掃の必要があるか否か判定された判定結果を取得する。図1(a)の例を用いると、ここでは、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、図1(a)の例では、情報処理装置SVは、判定結果として「清掃の必要がある」ことを取得する。   In such a state, the information processing device SV acquires the determination result in which the necessity for cleaning is determined (step S31). Specifically, the information processing device SV acquires the determination result as to whether or not cleaning is necessary. Using the example of FIG. 1A, the information processing apparatus SV determines in step S13 that cleaning is necessary here. Therefore, in the example of FIG. 1A, the information processing device SV acquires that “cleaning is necessary” as the determination result.

このように、判定結果が清掃の必要があることを示す場合に、情報処理装置SVは、音声デバイスDV1に対して、室内における所定の位置に清掃に関する情報を出力するよう出力制御する(ステップS32)。例えば、情報処理装置SVは、音声デバイスDV1に対して、清掃の必要がある要清掃位置に清掃に関する情報を出力するよう出力制御する。   As described above, when the determination result indicates that cleaning is necessary, the information processing device SV performs output control so as to output information regarding cleaning to a predetermined position in the room with respect to the audio device DV1 (step S32) ). For example, the information processing device SV performs output control on the audio device DV1 so as to output information related to cleaning to the cleaning-required position that needs cleaning.

かかる出力制御に応じて、音声デバイスDV1は、要清掃位置に清掃に関する情報を出力する。一例を示すと、音声デバイスDV1は、清掃に関する情報として有害物質(例えば、害虫)の影を要清掃位置に投影する(ステップS33)。これにより、情報処理装置SVは、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。   In response to the output control, the audio device DV1 outputs information regarding cleaning to the cleaning required position. If an example is shown, audio | voice device DV1 will project the shadow of a harmful substance (for example, pest) to the cleaning required position as information regarding cleaning (step S33). As a result, since the information processing apparatus SV can virtually experience the actual harm that any pest will occur if it is not cleaned, the motivation for cleaning can be effectively performed.

〔5.第4の実施形態に対応する情報処理の概要〕
次に、第4の実施形態に対応する情報処理(処理D)について説明する。まずは、処理Dの前提について説明する。清掃が苦手であるといったユーザは多く、このようなユーザの清掃のやる気を起こさせるのは困難である。したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定し、判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
[5. Outline of Information Processing Corresponding to Fourth Embodiment]
Next, information processing (process D) corresponding to the fourth embodiment will be described. First, the premise of the process D will be described. There are many users who are not good at cleaning, and it is difficult to motivate such users for cleaning. Therefore, the information processing device SV acquires environment information indicating the user's peripheral environment. Then, the information processing device SV determines whether or not the user has performed the cleaning action based on the acquired environment information, and based on the determination result, gives a reward to a predetermined target person regarding the cleaning action.

一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。他の一例を示すと、一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。   In one example, the information processing apparatus SV acquires conversation information, which is information related to the user's conversation, as environment information indicating the user's peripheral environment. Such conversation information is, for example, conversation information input to a predetermined voice device. As another example, the information processing apparatus SV acquires environment information detected by a predetermined sensor function of the work robot as environment information indicating a user's peripheral environment.

以下では、図1の例を用いて、処理Dの一例について説明する。ここでは、処理Dを説明する図1(d)に着目する。図1(d)でも図1(a)と同様に居室Rを例に用いており、居室RにはユーザU11およびU12が居る。また、居室Rには、音声デバイスDV1が置かれている。   Below, an example of the process D is demonstrated using the example of FIG. Here, attention is focused on FIG. 1 (d) for explaining the process D. Also in FIG. 1D, a living room R is used as an example as in FIG. 1A, and in the living room R, users U11 and U12 are present. In the room R, a voice device DV1 is placed.

処理Aと同様に、例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した環境情報を情報処理装置SVに送信する(ステップS42)。これにより、情報処理装置SVは、環境情報を取得することができる。   Similar to the processing A, for example, the voice device DV1 detects, as environment information, conversation information which is information related to the user's conversation (step S41), and transmits the detected environment information to the information processing apparatus SV (step S42) . Thus, the information processing device SV can acquire environment information.

そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置SVは、ユーザU11、U12のうちのどちらかが清掃行動を行ったか否かを判定する。また、情報処理装置SVは、ユーザU11が判定処理の処理対象とすることが予め設定されている場合には、ユーザU11が清掃行動を行ったか否かを判定する。   Then, the information processing device SV determines whether the user has performed the cleaning action based on the acquired environment information (step S43). For example, the information processing device SV determines whether one of the users U11 and U12 has performed the cleaning action. The information processing device SV determines whether the user U11 has performed a cleaning action when it is set in advance that the user U11 is to be a processing target of the determination process.

情報処理装置SVは、取得した環境情報として会話情報の中に、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」といったように声掛けした旨を示すテキストが含まれている場合には、ユーザU11が清掃行動を行ったと判定する。情報処理装置SVは、ユーザU11が清掃行動を行ったと判定した場合には、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置SVは、ユーザU11に対して所定ポイントを付与するととともに、ユーザU11の端末装置10においてアプリAPを介して現在の所持ポイントを確認可能な状態に制御する。   In the case where the information processing device SV includes, in the conversation information as the acquired environment information, a text indicating that the user U12 has called the user U11 "I was able to clean properly" and the like. Determines that the user U11 has performed a cleaning action. When it is determined that the user U11 has performed the cleaning action, the information processing device SV gives a predetermined reward to the user U11 (step S44). For example, the information processing device SV gives a predetermined point to the user U11, and controls the terminal device 10 of the user U11 to be able to confirm the current possession point via the application AP.

このように、情報処理装置SVは、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置SVは、ユーザに対して効果的に清掃を行わせることができる。   As described above, when the user performs the cleaning action, the information processing device SV gives a reward to the user. Even if users who are not good at cleaning can get a reward, it is possible that their willingness to clean is higher. Therefore, the information processing device SV can effectively make the user clean.

〔6.処理順について〕
上記例では、情報処理装置SVは、処理A(および処理B)により清掃状況を推定し、清掃の必要性があると判定した場合には、処理Cにより有害物質を投影し、さらに、処理Dにより清掃行動が行われたと判定した場合には、報酬を付与する例を示した。しかしながら、処理順はこれに限定されず、例えば、情報処理装置SVは、処理Dにおいて清掃行動が行われたか否か判定するために、処理A(および処理B)を行ってよい。また、情報処理装置SVは、処理Dで清掃行動が行われていないと判定した場合には、処理Cを行うことにより清掃の動機付けを行ってもよい。このように、処理A〜処理Dはそれぞれ独立してなされる処理ではなく、適宜組み合わせて行われるものである。
[6. About processing order]
In the above example, the information processing apparatus SV estimates the cleaning status by processing A (and processing B), and when it is determined that there is a need for cleaning, projects the harmful substance by processing C, and further processing D In the case where it is determined that the cleaning action has been performed, an example of giving a reward is shown. However, the processing order is not limited to this, and for example, the information processing apparatus SV may perform the processing A (and the processing B) in order to determine whether the cleaning action has been performed in the processing D. When it is determined that the cleaning action is not performed in the process D, the information processing apparatus SV may perform the cleaning motivation by performing the process C. As described above, the processes A to D are not performed independently of one another, but are appropriately performed in combination.

(第1の実施形態)
〔1.情報処理の一例〕
次に、図2を用いて、第1の実施形態にかかる情報処理の一例を示す。図2は、第1の実施形態にかかる情報処理の一例を示す図である。第1の実施形態にかかる情報処理は、情報処理装置100によって行われる。情報処理装置100は、図1で説明した情報処理装置SVの一例である。また、図2は、図1(a)をより詳細に説明するものである。図2では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11が息子、ユーザU12が母親である。
First Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the information processing according to the first embodiment. The information processing according to the first embodiment is performed by the information processing apparatus 100. The information processing device 100 is an example of the information processing device SV described with reference to FIG. Also, FIG. 2 explains FIG. 1 (a) in more detail. In FIG. 2, the users U11 and U12 exist in the living room R. The users U11 and U12 are in a parent-child relationship, the user U11 is a son, and the user U12 is a mother.

また、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。   In the room R, a voice device DV1 is placed. In the living room R, a cleaning robot RB1 (an example of a movable work robot) is placed.

このような状態において、情報処理装置100は、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置100は、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。   In such a state, the information processing apparatus 100 acquires environment information indicating the user's peripheral environment, and determines the necessity of cleaning for the user based on the acquired environment information. Then, the information processing apparatus 100 notifies the user of information related to cleaning based on the determination result.

一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、音声デバイスDV1に対して入力された会話を示す会話情報である。また、別の一例を示すと、一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、清掃ロボットRB1の有するセンサ機能により検出された環境情報を取得する。かかるセンサ機能により検出される環境情報としては、居室Rにおける物品の配置状況を示す配置情報等がある。   In one example, the information processing apparatus 100 acquires, as environment information indicating a user's peripheral environment, conversation information which is information related to the user's conversation. Such conversation information is, for example, conversation information indicating a conversation input to the voice device DV1. Moreover, if an example is shown if an example is shown, the information processing apparatus 100 will acquire the environment information detected by the sensor function which cleaning robot RB1 has as environment information which shows a user's peripheral environment. As environmental information detected by the sensor function, there is arrangement information indicating the arrangement of articles in the room R, and the like.

そして、情報処理装置100は、清掃の必要があると判定した場合には、例えば、音声デバイスDV1を介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。   Then, when the information processing apparatus 100 determines that the user needs to be cleaned, for example, how much the room is not organized (or dirty) to the user via the audio device DV1 In addition to notifying of the cleaning situation such as, it notifies that it is the timing which should just do cleaning now.

例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出し(ステップS11)、検出した会話情報を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、会話情報を取得することができる。   For example, the voice device DV1 detects, as environment information, conversation information which is information related to the conversation of the user (step S11), and transmits the detected conversation information to the information processing apparatus 100 (step S12). Thus, the information processing apparatus 100 can acquire conversation information.

また、例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報(物の散乱状況を示す情報ともいえる)を検出する(ステップS11)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した配置情報、すなわち撮影画像を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、配置情報を取得することができる。   In addition, for example, the cleaning robot RB1 detects, as environmental information, arrangement information in which objects are arranged on the floor of the living room R (also referred to as information indicating the scattering state of objects) (step S11). Briefly, the cleaning robot RB1 photographs the floor of the living room R. Then, the cleaning robot RB1 transmits the detected arrangement information, that is, the photographed image to the information processing apparatus 100 (step S12). Thus, the information processing apparatus 100 can acquire the arrangement information.

次に、情報処理装置100は、取得した環境情報に基づいて、居室Rの清掃状況を推定することにより(ステップS13)、清掃の必要性があるか否かを判定する(ステップS14)。図2の例では、情報処理装置100は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ユーザU12は、居室Rが清掃されていないと認識しているからこそこのような言動を発している。したがって、情報処理装置100は、居室Rの清掃状況として、居室Rが散らかっていると推定する。また、図2の例では、情報処理装置100は、取得した撮影画像を解析することにより、居室Rの整頓状況「悪」と推定する。   Next, the information processing apparatus 100 determines whether there is a need for cleaning by estimating the cleaning status of the living room R based on the acquired environment information (step S13) (step S14). In the example of FIG. 2, the information processing apparatus 100 acquires conversation information indicating that the user U12 who is the mother is paying attention to the user U11 of the son as "so mess up and clean up". This is because the user U12 recognizes that the living room R is not cleaned. Therefore, the information processing apparatus 100 estimates that the living room R is scattered as the cleaning situation of the living room R. Further, in the example of FIG. 2, the information processing apparatus 100 estimates that the timbre of the room R is “bad” by analyzing the acquired captured image.

情報処理装置100は、このような推定結果に基づき、例えば、ユーザU11に対して清掃の必要があると判定する。情報処理装置100は、ユーザU11が居室Rを清掃する必要があると判定すると、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS15)。   The information processing apparatus 100 determines that the user U11 needs to be cleaned, for example, based on such an estimation result. If it is determined that the user U11 needs to clean the living room R, the information processing apparatus 100 performs notification control to notify the user of information related to cleaning to the voice device DV1 (step S15).

かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU11の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置100は、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。   In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "K (the name of the user U11), the room is dirty. Please clean it." Thereby, the user U11 is pointed out not only by the user U12 who is the mother but also by the third party (the audio device DV1), so it becomes easy to realize that it is necessary to clean the living room R. In other words, the information processing apparatus 100 can effectively recognize that the timing for cleaning the user U11 is now.

〔2.情報処理システムの構成〕
次に、図3を用いて、第1の実施形態にかかる情報処理システムの構成について説明する。図3は、第1の実施形態にかかる情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1は、端末装置10と、IoT(Internet of Things)機器20と、音声デバイス30と、移動ロボット40とを含む。端末装置10と、IoT機器20と、音声デバイス30と、移動ロボット40とは、ネットワークNを介して有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
[2. Configuration of information processing system]
Next, the configuration of the information processing system according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the information processing system 1 according to the first embodiment. As shown in FIG. 3, the information processing system 1 includes a terminal device 10, an IoT (Internet of Things) device 20, an audio device 30, and a mobile robot 40. The terminal device 10, the IoT device 20, the voice device 30, and the mobile robot 40 are communicably connected by wire or wireless via the network N. Note that a plurality of information processing apparatuses 100 may be included in the information processing system 1 illustrated in FIG. 3.

IoT機器20は、例えば、冷蔵庫、洗濯機等の各種家電製品である他、例えば、子供用の各種玩具である。音声デバイス30は、例えば、図1で説明した音声デバイスDV1である。また、移動ロボット40は、例えば、図1で説明した清掃ロボットRB1である。また、音声デバイス30および移動ロボット40は、室内に設置されるデバイスであり、各種センサを備えている。また、情報処理装置100は、図2で説明した情報処理を行うサーバ装置である。なお、図3に示す情報処理装置100は、後述する情報処理装置200、300、400に置き換えることができる。   The IoT device 20 is, for example, various household appliances such as a refrigerator and a washing machine, and is, for example, various toys for children. The audio device 30 is, for example, the audio device DV1 described in FIG. The mobile robot 40 is, for example, the cleaning robot RB1 described in FIG. The voice device 30 and the mobile robot 40 are devices installed in a room, and include various sensors. The information processing apparatus 100 is a server apparatus that performs the information processing described in FIG. Note that the information processing apparatus 100 illustrated in FIG. 3 can be replaced with information processing apparatuses 200, 300, and 400 described later.

〔3.情報処理装置の構成〕
次に、図4を用いて、第1の実施形態にかかる情報処理装置100について説明する。図4は、第1の実施形態にかかる情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[3. Configuration of information processing apparatus]
Next, the information processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 4 is a view showing a configuration example of the information processing apparatus 100 according to the first embodiment. As shown in FIG. 4, the information processing apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10、IoT機器20、音声デバイス30、移動ロボット40との間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 is realized by, for example, a network interface card (NIC). The communication unit 110 is connected to the network N in a wired or wireless manner, and transmits and receives information to and from, for example, the terminal device 10, the IoT device 20, the voice device 30, and the mobile robot 40.

(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、ユーザ情報記憶部121と、環境情報記憶部122とを有する。
(About storage unit 120)
The storage unit 120 is realized by, for example, a semiconductor memory device such as a random access memory (RAM), a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 120 includes a user information storage unit 121 and an environment information storage unit 122.

(ユーザ情報記憶部121について)
ユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。ここで、図5に第1の実施形態にかかるユーザ情報記憶部121の一例を示す。図5の例では、ユーザ情報記憶部121は、「家族ID」、「ユーザID」、「デバイスID」、「住所」、「年齢」、「性別」といった項目を有する。
(About the user information storage unit 121)
The user information storage unit 121 stores various information on the user. Here, FIG. 5 shows an example of the user information storage unit 121 according to the first embodiment. In the example of FIG. 5, the user information storage unit 121 has items such as “family ID”, “user ID”, “device ID”, “address”, “age”, and “sex”.

「家族ID」は、対応する「ユーザID」で示される各ユーザで構成される家族を識別する識別情報である。「ユーザID」は、対応する「家族ID」で示される家族に属するユーザを識別する識別情報である。「デバイスID」は、音声デバイス30や移動ロボット30等のデバイスを識別する識別情報である。「住所」、「年齢」、「性別」は、対応するユーザの居住地、年齢、性別を示す。   “Family ID” is identification information that identifies a family configured by each user indicated by the corresponding “user ID”. The “user ID” is identification information that identifies a user belonging to the family indicated by the corresponding “family ID”. The “device ID” is identification information for identifying a device such as the voice device 30 or the mobile robot 30. “Address”, “age”, and “sex” indicate the residence, age, and gender of the corresponding user.

すなわち、図5の例では、家族ID「FM1」によって識別される家族には、ユーザID「U11」、「U12」、「U13」、「U14」によって識別されるユーザが属しており、また、この家族の家には、デバイスID「DV1」によって示されるデバイス、デバイスID「RB1」によって示されるデバイスが置かれている例を示す。また、図5の例では、例えば、ユーザID「U11」によって識別されるユーザの住所「ADD1」、年齢「9歳」、性別「男」である例を示す。   That is, in the example of FIG. 5, the user identified by the user ID “U11”, “U12”, “U13”, “U14” belongs to the family identified by the family ID “FM1”, and In this family home, there is shown an example in which the device indicated by the device ID “DV1” and the device indicated by the device ID “RB1” are placed. Further, in the example of FIG. 5, for example, an example is shown in which the address “ADD1” of the user identified by the user ID “U11”, the age “9 years old”, and the sex “male”.

(環境情報記憶部122について)
環境情報記憶部122は、情報処理装置SV(ここでは、情報処理装置100)が取得した環境情報を記憶する。例えば、環境情報記憶部122は、情報処理装置SVが各種デバイスにより検出された環境情報を記憶する。ここで、図6に第1の実施形態にかかる環境情報記憶部122の一例を示す。図6の例では、環境情報記憶部122は、「家族ID」、「デバイスID」、「環境情報」といった項目を有する。
(About environmental information storage unit 122)
The environment information storage unit 122 stores environment information acquired by the information processing device SV (here, the information processing device 100). For example, the environment information storage unit 122 stores environment information in which the information processing apparatus SV is detected by various devices. Here, FIG. 6 shows an example of the environment information storage unit 122 according to the first embodiment. In the example of FIG. 6, the environment information storage unit 122 has items such as “family ID”, “device ID”, and “environment information”.

「家族ID」は、ユーザ情報記憶部121に記憶される「家族ID」に対応する。「デバイスID」は、ユーザ情報記憶部121に記憶される「デバイスID」に対応する。「環境情報」は、対応する「デバイスID」によって示されるデバイスによって検出された環境情報を示す。図6の例では、「環境情報」として、例えば、「DA1−11」といった概念記号を用いているが、実際には、撮影画像、ホコリの量、物が配置される配置位置を示す数値等が記憶される。   The “family ID” corresponds to the “family ID” stored in the user information storage unit 121. The “device ID” corresponds to the “device ID” stored in the user information storage unit 121. “Environmental information” indicates environmental information detected by the device indicated by the corresponding “device ID”. In the example of FIG. 6, for example, a conceptual symbol such as "DA1-11" is used as "environmental information", but actually, a photographed image, the amount of dust, a numerical value indicating the arrangement position where objects are arranged, etc. Is stored.

すなわち、図6の例では、家族ID「FM1」によって識別される家族の家には、デバイスID「DV1」によって示されるデバイス(音声デバイスDV1)、デバイスID「RB1」によって示されるデバイス(清掃ロボットRB1)が置かれており、音声デバイスDV1により検出された環境情報「DA1−11」、清掃ロボットRB1により検出された環境情報「DA1−21」、「DA1−22」、「DA1−23」が取得された例を示す。   That is, in the example of FIG. 6, the device indicated by the device ID “DV1” (voice device DV1) and the device indicated by the device ID “RB1” (cleaning robot) in the family house identified by the family ID “FM1” Environment information “DA1-11” detected by the audio device DV1 and environment information “DA1-21”, “DA1-22” and “DA1-23” detected by the cleaning robot RB1 are placed. The acquired example is shown.

(制御部130について)
図4に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
Returning to FIG. 4, the control unit 130 executes various programs stored in a storage device inside the information processing apparatus 100 using a RAM as a work area by a central processing unit (CPU), a micro processing unit (MPU), or the like. Is realized by Further, the control unit 130 is realized by, for example, an integrated circuit such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA).

図4に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 4, the control unit 130 includes a first acquisition unit 131, an estimation unit 132, a determination unit 133, and a notification unit 134, and implements the functions and operations of the information processing described below or Run. Note that the internal configuration of the control unit 130 is not limited to the configuration illustrated in FIG. 4, and may be another configuration as long as it performs the information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship illustrated in FIG. 4, and may be another connection relationship.

(第1取得部131について)
第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定の音声デバイスが有するセンサ機能により検出された環境情報を取得する。また、第1取得部131は、所定のセンサ機能により検出された環境情報として、室内における物品の配置状況を示す配置情報を取得する。
(About the first acquisition unit 131)
The first acquisition unit 131 acquires environment information indicating the user's peripheral environment. For example, the first acquisition unit 131 acquires environment information detected by a predetermined sensor function as environment information indicating the user's peripheral environment. In addition, the first acquisition unit 131 acquires environment information detected by a sensor function of a predetermined audio device as environment information indicating a user's peripheral environment. In addition, the first acquisition unit 131 acquires arrangement information indicating an arrangement state of articles in a room as environment information detected by a predetermined sensor function.

また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得する。   In addition, the first acquisition unit 131 acquires, as environment information indicating a user's peripheral environment, conversation information which is information related to the user's conversation. In addition, the first acquisition unit 131 acquires behavior information indicating an action of the user as environment information indicating an environment around the user.

(推定部132について)
推定部132は、第1取得部131により取得された環境情報に基づいて、ユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。また、例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(About the estimation unit 132)
The estimation unit 132 estimates the cleaning status of the user based on the environment information acquired by the first acquisition unit 131. For example, the estimation unit 132 estimates the tidying state of the user in the room as the cleaning state of the user in the room. Also, for example, the estimation unit 132 estimates the cleaning status based on the index value calculated based on the environment information, which is the index value indicating the degree to which the user's room is cleaned.

(判定部133について)
判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。判定部133は、推定部132による推定結果に基づいて、ユーザに対して清掃の必要性を判定する。
(Regarding the determination unit 133)
The determination unit 133 determines the necessity of cleaning for the user based on the environment information acquired by the first acquisition unit 131. The determination unit 133 determines the necessity of cleaning for the user based on the estimation result by the estimation unit 132.

判定部133は、会話情報から検出された感情情報であってユーザの感情を示す感情情報に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、感情情報が負の感情を示す場合に、ユーザに対して清掃の必要性があると判定する。また、判定部133は、会話情報に含まれるキーワードに基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話情報の中に所定のキーワードが含まれる場合に、ユーザに対して清掃の必要性があると判定する。   The determination unit 133 determines the necessity of cleaning for the user based on the emotion information detected from the conversation information and indicating the emotion of the user. For example, when the emotion information indicates a negative emotion, the determination unit 133 determines that the user needs cleaning. Further, the determination unit 133 determines the necessity of cleaning for the user based on the keyword included in the conversation information. For example, when the conversation information includes a predetermined keyword, the determination unit 133 determines that the user needs to be cleaned.

また、判定部133は、会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話の内容に基づいて、ユーザに対して会話の齟齬が検出された場合に、ユーザに対して清掃の必要性があると判定する。   Further, the determination unit 133 determines the necessity of cleaning for the user based on the content of the conversation indicated by the conversation information. For example, based on the contents of the conversation, the determination unit 133 determines that the user needs to be cleaned when a habit of the conversation is detected for the user.

(通知部134について)
通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。例えば、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、清掃するよう提案する提案情報を通知する。また、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、ユーザの清掃状況に関する情報を通知する。また、通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知する。
(About the notification unit 134)
The notification unit 134 notifies the user of information related to cleaning based on the determination result of the determination unit 133. For example, when the determining unit 133 determines that there is a need for cleaning, the notifying unit 134 notifies, as information related to cleaning, proposal information that proposes to be cleaned. Further, when the determination unit 133 determines that there is a need for cleaning, the notification unit 134 notifies information on the user's cleaning status as the information on cleaning. In addition, the notification unit 134 notifies proposal information that proposes a cleaning method according to the cleaning situation as the information on the cleaning situation.

〔4.情報処理における作用の一例〕
以下、図7に示すフローチャートを用いて、各処理部131〜134が実行・実現する処理の内容について説明する。図7は、第1の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図1の例を用いることにする。
[4. Example of action in information processing]
The contents of the processing executed and realized by each of the processing units 131 to 134 will be described below using the flowchart shown in FIG. FIG. 7 is a flowchart illustrating an example of the information processing according to the first embodiment. Also, the example of FIG. 1 will be used as appropriate.

まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS101)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS101;No)、取得するまで待機する。   First, the first acquisition unit 131 determines whether or not conversation information has been acquired (step S101). For example, while not being transmitted from the conversation information by the voice device DV1, the first acquisition unit 131 determines that the conversation information is not acquired (step S101; No), and waits until acquisition.

一方、推定部132は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS101;Yes)、会話情報に基づいて、居室Rの清掃状況を推定する(ステップS102)。なお、推定部132は、清掃状況として、居室Rの整頓状況を推定してもよい。   On the other hand, when the first acquisition unit 131 acquires the conversation information from the speech device DV1 by the speech device DV1 detecting the speech information (step S101; Yes), the estimation unit 132 determines that the room is based on the conversation information. The cleaning situation of R is estimated (step S102). In addition, the estimation part 132 may estimate the tidying-up condition of the living room R as a cleaning condition.

例えば、推定部132は、会話情報を分析することにより会話情報から、ユーザの感情を示す感情情報が検出された場合には、この感情情報に基づいて、清掃状況を推定する。例えば、推定部132は、感情情報として、負の感情を示す感情情報を検出した場合には、清掃状況「悪」と推定する。ここで、負の感情とは、例えば、「イライラ」といった怒りの感情である。人は汚れた環境に置かれると、精神が不安定になり怒りがこみ上げやすくなる傾向にある。このようなことから、推定部132は、負の感情が検出できたということは、それは居室Rが清掃できていない(汚れている)ことに起因する負の感情と判断し、この結果、清掃状況「悪」と推定する。   For example, when emotion information indicating a user's emotion is detected from the conversation information by analyzing the conversation information, the estimation unit 132 estimates the cleaning situation based on the emotion information. For example, when the estimation unit 132 detects emotion information indicating a negative emotion as emotion information, the estimation unit 132 estimates that the cleaning status is “bad”. Here, the negative emotion is, for example, an angry emotion such as “frustration”. When a person is placed in a dirty environment, it tends to be unstable and angry easily. From such a thing, the estimation part 132 judges that the negative emotion was able to be detected as a negative emotion resulting from the room R being not cleaned (dirty), and as a result, cleaning It is estimated that the situation is "evil".

なお、推定部132は、会話情報に含まれるキーワードに基づいて、清掃状況を推定することもできる。この点について、図2の例を用いて説明する。図2の例では、第1取得部131は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ここで、「散らかして」、「片付けなさい」といったキーワードは、居室Rが清掃できていない(汚れている)ことを示すキーワードといえる。会話情報にこのようなキーワードが含まれる場合、推定部132は、清掃状況「悪」と推定する。   The estimation unit 132 can also estimate the cleaning situation based on the keyword included in the conversation information. This point will be described using the example of FIG. In the example of FIG. 2, the first acquisition unit 131 acquires conversation information indicating that the user U12 who is the mother is paying attention to the user U11 of the son as "so mess up and clean up". Here, keywords such as "Scatter" and "Keep up" can be said to indicate that the room R can not be cleaned (dirty). When such a keyword is included in the conversation information, the estimation unit 132 estimates that the cleaning status is "bad".

また、推定部132は、会話情報によって示される会話の内容に基づいて、清掃状況を推定することもできる。例えば、推定部132は、会話情報を分析することにより、ユーザに対して会話の齟齬を検出した場合には、清掃状況「悪」と推定する。例えば、ユーザU12がU11に対して「汚いじゃない」と言ったことに対して、ユーザU11が「そんなことないよ」と反発したとする。つまり、ユーザU11の会話内容と、ユーザU12の会話内容との間に齟齬が生じているといえる。また、ユーザU11はユーザU12よりも立場が低い。したがって、かかる場合、推定部132は、ユーザU11に対して会話の齟齬を検出し、さらに清掃状況「悪」と推定する。   The estimation unit 132 can also estimate the cleaning status based on the content of the conversation indicated by the conversation information. For example, the estimation unit 132 estimates that the cleaning status is “bad” when the habit of conversation is detected for the user by analyzing the conversation information. For example, it is assumed that the user U11 repulses that "it is not such a thing" in response to the user U12 saying "not dirty" to U11. That is, it can be said that a habit has occurred between the conversation content of the user U11 and the conversation content of the user U12. Also, the user U11 has a lower position than the user U12. Therefore, in such a case, the estimation unit 132 detects a habit of conversation for the user U11, and further estimates that the cleaning situation is "bad".

次に、判定部133は、ユーザに対して清掃の必要性を判定する(ステップS103)。例えば、判定部133は、推定部132により清掃状況「良」と推定された場合には、ユーザU1に対して清掃の必要が無いと判定し(ステップS103;No)、処理を終了する。一方、判定部133は、上記例のように、推定部132により清掃状況「悪」と推定された場合には、ユーザU1に対して清掃の必要があると判定し(ステップS103;Yes)。   Next, the determination unit 133 determines the necessity of cleaning for the user (step S103). For example, when the estimation unit 132 estimates that the cleaning state is “good”, the determination unit 133 determines that the user U1 does not need to be cleaned (step S103; No), and ends the process. On the other hand, when the estimation unit 132 estimates that the cleaning situation is "bad" as in the above example, the determination unit 133 determines that the user U1 needs to be cleaned (step S103; Yes).

また、通知部134は、判定部133により清掃の必要があると判定された場合には(ステップS103;Yes)、ユーザU11に対して清掃に関する情報を通知する(ステップS104)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU1の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。   Further, when the determining unit 133 determines that cleaning is necessary (Step S103; Yes), the notifying unit 134 notifies the user U11 of information related to cleaning (Step S104). For example, the notification unit 134 controls the audio device DV1 to notify the user U11 of information related to cleaning. In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "K (the name of the user U1), the room is dirty. Please clean it."

なお、ここでは、まず、推定部132が、第1取得部131により取得された環境情報に基づき清掃状況を推定し、判定部133が推定された推定結果に基づき清掃の必要性を判定する例を示した。しかし、判定部133は、推定部132の処理も含めて判定処理を行ってもよい。具体的には、判定部133は、第1取得部131により取得された環境情報から直接、清掃の必要性を判定してもよい。   Here, first, an example in which the estimation unit 132 estimates the cleaning situation based on the environmental information acquired by the first acquisition unit 131, and the determination unit 133 determines the necessity of cleaning based on the estimation result estimated. showed that. However, the determination unit 133 may perform the determination process including the process of the estimation unit 132. Specifically, the determination unit 133 may determine the necessity of cleaning directly from the environmental information acquired by the first acquisition unit 131.

〔5.変形例〕
上記第1の実施形態にかかる情報処理装置100は、上記第1の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[5. Modified example]
The information processing apparatus 100 according to the first embodiment may be implemented in various different forms other than the first embodiment. Therefore, another embodiment of the information processing apparatus 100 will be described below.

〔5−1.センサ検出された環境情報に基づき判定〕
例えば、第1取得部131は、所定のセンサとして、エコーロケションにより検出された環境情報を取得してもよい。また、第1取得部131は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得してもよい。このような環境情報は、例えば、物の散乱状況を示す情報といえる。また、エコーロケーション用のセンサや、カメラは、例えば、図2の例では、音声デバイスDV1に設置されているものであってもよいし、清掃ロボットRB1に設置されているものであってもよい。また、このような環境情報は、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。
[5-1. Judgment based on environmental information detected by sensor]
For example, the first acquisition unit 131 may acquire, as a predetermined sensor, environment information detected by echo location. In addition, the first acquisition unit 131 has, as a predetermined sensor function, an environment included in a photographed image photographed by a camera installed in a state capable of photographing only an entity existing within a predetermined height range from the floor surface. Information may be acquired. Such environmental information can be said to be, for example, information indicating a scattering state of an object. Further, in the example of FIG. 2, for example, the sensor for echo location or the camera may be installed in the audio device DV1, or may be installed in the cleaning robot RB1. . Further, such environmental information may include, for example, numerical information such as what kind of object is present at what position in the room.

そして、推定部132は、これらセンサにより検出された環境情報に基づいて、清掃状況として、室内の整頓状況をより正確に推定することができる。例えば、第1取得部131によりエコーロケションにより検出された環境情報が取得されたとする。かかる場合、推定部132は、この環境情報に基づいて、ユーザの室内が清掃(整頓)されている程度を示す指標値を算出する。言い換えれば、推定部132は、ユーザの室内がどれだけ汚れているか(どれだけ整頓されていないか)といったことを示す指標値を算出する。   Then, the estimation unit 132 can more accurately estimate the tidying state of the room as the cleaning state, based on the environmental information detected by the sensors. For example, it is assumed that the environmental information detected by echo location is acquired by the first acquisition unit 131. In such a case, the estimation unit 132 calculates an index value indicating the extent to which the room of the user is cleaned (sorted) based on the environmental information. In other words, the estimation unit 132 calculates an index value indicating how dirty the user's room is (not how well organized).

例えば、推定部132は、エコーロケションにより検出された環境情報に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。また、例えば、推定部132は、カメラにより検出された環境情報(撮影画像)に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。   For example, based on the environmental information detected by echo location, the estimation unit 132 indicates that the room R is dirty (not organized) as more people are placed on the floor of the room R. Calculate high index value. Further, for example, the more the estimation unit 132 is placed on the floor surface of the living room R based on the environmental information (captured image) detected by the camera, the dirtying of the living room R (not organized) Calculate a high index value to indicate that.

また、判定部133は、例えば、推定部132により算出された指標値が所定値を超えている場合に、ユーザU1に対して清掃の必要があると判定する。   Further, for example, when the index value calculated by the estimation unit 132 exceeds the predetermined value, the determination unit 133 determines that the user U1 needs to be cleaned.

これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。   As a result, the information processing apparatus 100 according to the first embodiment can determine with high accuracy whether or not the user needs to be cleaned. Can be effectively cleaned by the user.

〔5−2.相対指標値に基づき判定〕
また、推定部132は、指標値として、ユーザの環境情報と当該ユーザとは異なる他のユーザの環境情報とを比較することにより算出された相対的な指標値に基づいて、清掃状況を推定してもよい。例えば、ユーザU11について指標値を算出したい場合、第1取得部131は、環境情報記憶部122からユーザU11以外の環境情報(例えば、エコーロケションにより検出された環境情報)も取得する。
5-2. Judgment based on relative index value]
Further, the estimation unit 132 estimates the cleaning situation based on the relative index value calculated by comparing the environment information of the user with the environment information of another user different from the user as the index value. May be For example, when it is desired to calculate the index value for the user U11, the first acquisition unit 131 also acquires from the environment information storage unit 122 environment information other than the user U11 (for example, environment information detected by echo location).

例えば、第1取得部131は、ユーザU11の環境情報、および、ユーザU11と同年代の環境情報を取得する。また、推定部132は、ユーザU11および他のユーザそれぞれについて指標値を算出し、算出した各指標値を比較することにより、ユーザU11について他のユーザと比較した相対的な指標値を算出する。また、判定部133は、推定部132により算出された相対的な指標値が所定値を超えている場合に、ユーザU11に対して清掃の必要があると判定する。   For example, the first acquisition unit 131 acquires environment information of the user U11 and environment information of the same age as the user U11. Further, the estimation unit 132 calculates an index value for each of the user U11 and the other users, and compares the calculated index values to calculate a relative index value of the user U11 in comparison with the other users. In addition, when the relative index value calculated by the estimation unit 132 exceeds the predetermined value, the determination unit 133 determines that the user U11 needs to be cleaned.

また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得してもよい。そして、判定部133は、行動情報が、所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を含む場合に、ユーザに対して清掃の必要性があると判定する。かかる行動情報は、各種センサによって検出された画像情報(あるいは動画情報)であって、ユーザの動き(例えば、床を歩く動き)を含む画像情報(あるいは動画情報)である。また、かかる行動情報は、各種センサによって検出された音声情報であって、ユーザの動き(例えば、床を歩く音声)を含む音声情報であってもよい。   In addition, the first acquisition unit 131 may acquire behavior information indicating a user's behavior as environment information indicating a user's peripheral environment. Then, when the action information includes action information indicating a predetermined action pattern or sound information indicating a predetermined action, the determination unit 133 determines that the user needs to be cleaned. Such action information is image information (or moving image information) detected by various sensors, and is image information (or moving image information) including the movement of the user (for example, the movement of walking on the floor). Further, such action information may be voice information detected by various sensors, and may be voice information including a motion of the user (for example, a voice walking on the floor).

一例を示すと、例えば、推定部132は、第1取得部131により取得された行動情報を解析することにより、行動情報から所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を検出した場合には、清掃状況「悪」と推定する。所定の行動パターンとは、例えば、物探しをする際にみられる一定のパターンであり、同一箇所を何度も徘徊するといった行動パターンである。また、所定の行動を示す音情報とは、同一箇所を何度も徘徊するといった行動パターンを示す音情報、あるいは、物体にぶつかる際の物音である。   If an example is shown, for example, the estimation unit 132 analyzes the behavior information acquired by the first acquisition unit 131 to generate behavior information indicating a prescribed behavior pattern from the behavior information or sound information indicating a prescribed behavior. If it is detected, it is estimated that the cleaning situation is "bad". The predetermined behavior pattern is, for example, a constant pattern found when searching for a thing, and is a behavior pattern in which the same part is crawled many times. Further, sound information indicating a predetermined action is sound information indicating an action pattern in which the same part is crawled many times or an object sound when the object is collided.

同一箇所を何度も徘徊するといった行動から、汚れている(整頓できていない)ため、ユーザが物探しをしていることが予測される。物体にぶつかる際の物音が頻繁に起こっているようであれば、それは部屋に物品が散在しているためと予測される。このようなことから、推定部132は、行動情報を解析することにより、同一箇所を何度も徘徊する行動パターンを検出した場合には、清掃状況「悪」と推定する。また、推定部132は、物体にぶつかる際の物音が所定回数を超えている場合には、清掃状況「悪」と推定する。また、判定部133は、推定部132により清掃状況「悪」と推定されたことにより、ユーザに対して清掃の必要があると判定する。   It is predicted that the user is searching for a thing because it is dirty (not organized) from the action of crawling the same part many times. If the noise of hitting an object seems to occur frequently, it is predicted that the room is interspersed with articles. From such a thing, when the estimation part 132 detects the action pattern which crawls the same location many times by analyzing action information, it estimates that it is the cleaning condition "bad". Further, the estimation unit 132 estimates that the cleaning situation is “bad” when the object sound when the object sound is in excess of the predetermined number of times. Further, the determination unit 133 determines that the user needs cleaning because the estimation unit 132 estimates that the cleaning situation is “bad”.

これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。   As a result, the information processing apparatus 100 according to the first embodiment can determine with high accuracy whether or not the user needs to be cleaned. Can be effectively cleaned by the user.

〔5−3.経過時間に基づき判定〕
また、判定部は133は、ユーザが過去に清掃を行ってからの経過時間に基づいて、当該ユーザに対して清掃の必要性を判定してもよい。例えば、判定部133は、第1取得部131により取得された行動情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。例えば、判定部は133は、ユーザが清掃行動を行ったと判定してから現在までに「1ヶ月」が経過しており、さらに、この「1ヶ月」の間、ユーザが清掃行動を行ったとの判定を下していないとする。かかる場合、判定部133は、ユーザに対して清掃の必要があると判定する。
[5-3. Judging based on elapsed time]
In addition, the determination unit 133 may determine the necessity of cleaning for the user based on an elapsed time since the user performed cleaning in the past. For example, based on the action information acquired by the first acquisition unit 131, the determination unit 133 determines whether the user has performed a cleaning action. For example, after the determination unit 133 determines that the user performed the cleaning action, "one month" has elapsed by the present, and further, the user performs the cleaning action during the "one month". It is assumed that the judgment has not been made. In such a case, the determination unit 133 determines that the user needs cleaning.

これにより、第1の実施形態にかかる情報処理装置100は、ユーザが清掃が必要なタイミングを高精度に見極めることができるため、このようなタイミングにユーザに対して効果的に清掃を行わせることができる。   As a result, the information processing apparatus 100 according to the first embodiment can accurately determine the timing at which the user needs cleaning, and thus the user can effectively perform cleaning at such a timing. Can.

〔5−4.情報通知について〕
通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知してもよい。上記の通り、情報処理装置100は、室内にどのような物体が散在しているかを検出することができる。したがって、例えば、通知部134は、床にホコリが溜まっていることが検出された場合には、ぞうきんがけの方法を提案する。また、例えば、通知部134は、床に油分が付着していることが検出された場合には、どのような洗剤を使用するのがよいか提案する。また、例えば、通知部134は、床に衣類が散在していることが検出された場合には、衣類のたたみ方や収納方法を提案する。
[5-4. Information notification]
The notification unit 134 may notify proposal information that proposes a cleaning method according to the cleaning status as the information on the cleaning status. As described above, the information processing apparatus 100 can detect what kind of object is scattered in the room. Therefore, for example, when it is detected that dust is accumulated on the floor, the notification unit 134 proposes a soaking method. In addition, for example, when it is detected that oil adheres to the floor, the notification unit 134 proposes what detergent should be used. Also, for example, when it is detected that clothes are scattered on the floor, the notification unit 134 proposes a method of folding clothes and a storage method.

これにより、第1の実施形態にかかる情報処理装置100は、清掃の具体的な方法を提案することができるため、例えば、何から始めてよいかわからないといったユーザに対して、清掃意欲を高めるための動機付けを効果的に行うことができる。   As a result, the information processing apparatus 100 according to the first embodiment can propose a specific method of cleaning, so for example, for raising the user's willingness to clean the user who does not know what to start with. Motivating can be done effectively.

〔6.効果〕
第1の実施形態にかかる情報処理装置100は、第1取得部131と、判定部133と、通知部134とを有する。第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。
[6. effect〕
The information processing apparatus 100 according to the first embodiment includes a first acquisition unit 131, a determination unit 133, and a notification unit 134. The first acquisition unit 131 acquires environment information indicating the user's peripheral environment. The determination unit 133 determines the necessity of cleaning for the user based on the environment information acquired by the first acquisition unit 131. The notification unit 134 notifies the user of information related to cleaning based on the determination result of the determination unit 133.

これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して効果的に清掃を行わせることができる。   Thus, the information processing apparatus 100 according to the first embodiment can effectively make the user clean.

(第2の実施形態)
〔1.情報処理の一例〕
次に、図8を用いて、第2の実施形態にかかる情報処理の一例を示す。図8は、第2の実施形態にかかる情報処理の一例を示す図である。第2の実施形態にかかる情報処理は、情報処理装置200によって行われる。情報処理装置200は、図1で説明した情報処理装置SVの一例である。なお、第2の実施形態にかかる情報処理は、第1の実施形態にかかる情報処理装置100によって行われる情報処理のバリエーションの一つとも解せるものである。
Second Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the second embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of the information processing according to the second embodiment. Information processing according to the second embodiment is performed by the information processing apparatus 200. The information processing device 200 is an example of the information processing device SV described in FIG. The information processing according to the second embodiment can also be understood as one of the variations of the information processing performed by the information processing apparatus 100 according to the first embodiment.

また、図8は、図1(b)をより詳細に説明するものである。図1(b)の例では、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置200との情報の送受信を可能とする。また、居室Rのは、音声デバイスDV1も置かれている。また、不図示であるが、居室Rには、ユーザU11およびU12も存在するものとする。   Also, FIG. 8 explains FIG. 1 (b) in more detail. In the example of FIG. 1B, the cleaning robot RB1 (an example of a movable work robot) is placed in the living room R. The cleaning robot RB1 includes various sensors, and detects environmental information using the sensors while moving around in the living room R. Examples of various sensors include a camera, a dust sensor, an echo location (ultrasonic position sensor) and the like. In addition, the cleaning robot RB1 enables transmission and reception of information with the information processing apparatus 200 via the Internet. In addition, in the room R, a voice device DV1 is also placed. Although not shown, in the living room R, users U11 and U12 are also present.

このような状態において、情報処理装置200は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する推定する。例えば、情報処理装置200は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。なお、第1の実施形態にかかる情報処理装置100は、かかる環境情報を用いて、ユーザに対して清掃の必要性を判定する。つまり、情報処理装置200により取得される環境情報は、情報処理装置100による判定処理に用いられる一材料となり得るものである。   In such a state, the information processing apparatus 200 acquires environment information indicating environment around the user and detected by the movable work robot, and based on the acquired environment information, the information processing apparatus 200 can Estimate the cleaning situation to estimate. For example, the information processing apparatus 200 acquires environment information detected by a predetermined sensor function of the work robot. The information processing apparatus 100 according to the first embodiment determines the necessity of cleaning for the user using the environment information. That is, the environmental information acquired by the information processing apparatus 200 can be one material used for the determination process by the information processing apparatus 100.

例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。一例を示すと、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置200に送信する(ステップS22)。これにより、情報処理装置200は、環境情報を取得することができる。   For example, the cleaning robot RB1 detects arrangement information in which objects are arranged on the floor of the living room R as environmental information (step S21). As an example, the cleaning robot RB1 takes a picture of the floor of the living room R. Then, the cleaning robot RB1 transmits the detected environment information, that is, the photographed image to the information processing apparatus 200 (step S22). Thus, the information processing device 200 can acquire environmental information.

そして、情報処理装置200は、取得した配置情報に基づいて、居室Rの清掃状況として、整頓状況を推定する(ステップS23)。例えば、情報処理装置200は、撮影画像を解析することにより、居室Rの整頓状況を推定する。例えば、情報処理装置200は、整頓状況「悪」と推定した場合には、整頓の必要があると判定する(ステップS24)。そして、情報処理装置200は、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS25)。   Then, the information processing device 200 estimates the tidying situation as the cleaning situation of the living room R based on the acquired placement information (step S23). For example, the information processing apparatus 200 estimates the tidying status of the living room R by analyzing the captured image. For example, when the information processing apparatus 200 estimates that the arrangement status is “bad”, the information processing apparatus 200 determines that the order is necessary (step S24). Then, the information processing apparatus 200 performs notification control so as to notify the user of information regarding cleaning to the voice device DV1 (step S25).

かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置200は、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置200は、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置200は、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。   In response to the notification control, the cleaning robot RB1 outputs voice information on cleaning. As an example, the audio device DV1 outputs an audio such as "The room is not tidy. Please clean up before tidying up." The information processing apparatus 200 may perform notification control so as to notify the user of information regarding cleaning to the cleaning robot RB1. As a result, the information processing apparatus 200 can recognize the tidying state of the room, and for example, when the tidying state of the room is bad, the user can be notified of that. As a result, the information processing apparatus 200 can make the user aware that it is necessary to first arrange the room.

〔2.情報処理装置の構成〕
次に、図9を用いて、第2の実施形態にかかる情報処理装置200について説明する。図9は、第2の実施形態にかかる情報処理装置200の構成例を示す図である。図9に示すように、情報処理装置200は、通信部110と、記憶部120と、制御部230とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an information processing apparatus 200 according to the second embodiment will be described with reference to FIG. FIG. 9 is a view showing an example of the arrangement of an information processing apparatus 200 according to the second embodiment. As shown in FIG. 9, the information processing apparatus 200 includes a communication unit 110, a storage unit 120, and a control unit 230. The description of processing units having the same reference numerals as the information processing apparatus 100 described in FIG. 4 will be omitted or simplified.

(制御部230について)
制御部230は、CPUやMPU等によって、情報処理装置200内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
(About the control unit 230)
The control unit 230 is realized by executing various programs stored in a storage device in the information processing apparatus 200 by using a RAM as a work area by a CPU, an MPU, or the like. Further, the control unit 230 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図9に示すように、制御部230は、第1取得部131と、推定部132と、判定部133と、通知部134と、第2取得部235を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図9に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図9に示した接続関係に限られず、他の接続関係であってもよい。   As shown in FIG. 9, the control unit 230 includes a first acquisition unit 131, an estimation unit 132, a determination unit 133, a notification unit 134, and a second acquisition unit 235, and the information processing described below Implement or perform a function or action. Note that the internal configuration of the control unit 230 is not limited to the configuration shown in FIG. 9, and may be another configuration as long as it performs the information processing described later. Moreover, the connection relation of each processing unit included in the control unit 230 is not limited to the connection relation illustrated in FIG. 9, and may be another connection relation.

(第2取得部235について)
第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。具体的には、第2取得部235は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。例えば、第2取得部235は、所定のセンサ機能として、エコーロケションにより検出された環境情報を取得する。また、例えば、第2取得部235は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得する。
(About the second acquisition unit 235)
The second acquisition unit 235 acquires environment information indicating the environment around the user and detected by the movable work robot. Specifically, the second acquisition unit 235 acquires environment information detected by a predetermined sensor function of the work robot. For example, the second acquisition unit 235 acquires environment information detected by echo location as a predetermined sensor function. Also, for example, as the predetermined sensor function, the second acquisition unit 235 is included in the photographed image photographed by the camera installed in a state where only the entity present in the range of the predetermined height from the floor surface can be photographed. Get environmental information.

例えば、第2取得部235は、環境情報として、物の散乱状況を示す情報、または室内における空中浮遊物に関する情報を取得する。物の散乱状況を示す情報は、例えば、室内に置いて物が配置されている配置情報と言い換えることができ、配置情報は、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。   For example, the second acquisition unit 235 acquires, as environmental information, information indicating a scattering state of an object or information on an airborne matter in a room. Information indicating the scattering state of an object can be rephrased as, for example, arrangement information in which an object is placed in a room, and how many objects of the arrangement information are present at which position in the room May contain numerical information such as

また、例えば、第2取得部235は、環境情報として、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、現時点での当該移動距離とを比較した比較結果を取得する。また、第2取得部235は、環境情報として、ユーザの会話に関する情報である会話情報であって作業ロボットに対して入力された会話情報を取得してもよい。また、第2取得部235は、移動可能な作業ロボットとして、所定の清掃用ロボットにより検出された環境情報を取得してもよい。なお、これまで説明してきた第2取得部235による取得処理は、情報処理装置100の第1取得部131によって行われてもよい。   In addition, for example, the second acquisition unit 235 acquires, as environmental information, a comparison result of the movement distance of the work robot in the room and the movement distance at a predetermined time in the past and the movement distance at the current time. Do. In addition, the second acquisition unit 235 may acquire, as the environment information, conversation information which is information related to the conversation of the user and which is input to the work robot. Further, the second acquisition unit 235 may acquire, as a movable work robot, environment information detected by a predetermined cleaning robot. The acquisition process by the second acquisition unit 235 described above may be performed by the first acquisition unit 131 of the information processing apparatus 100.

(推定部132について)
推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(About the estimation unit 132)
The estimation unit 132 estimates the cleaning status of the user in the room based on the environment information acquired by the second acquisition unit 235. For example, the estimation unit 132 estimates the tidying state of the user in the room as the cleaning state of the user in the room. For example, the estimation unit 132 estimates the cleaning state based on the index value calculated based on the environment information and indicating the degree to which the user's room is cleaned.

(通知部134について)
通知部134は、推定部132による推定結果に基づいて、ユーザに対して清掃に関する情報を通知する。具体的には、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、清掃に関する情報として、片付けの手順を通知する。また、例えば、通知部134は、清掃に関する情報として、所定の清掃サービスに関する情報を通知する。
(About the notification unit 134)
The notification unit 134 notifies the user of information related to cleaning based on the estimation result by the estimation unit 132. Specifically, when it is determined that the user needs cleaning based on the estimation result, the notification unit 134 notifies the user of proposal information that is suggested to be cleaned, as the information related to the cleaning. For example, when it is determined that the user needs to be cleaned based on the estimation result, the notification unit 134 notifies proposal information to propose cleaning as information on cleaning. For example, the notification unit 134 notifies the cleaning procedure as information on cleaning. Further, for example, the notification unit 134 notifies information on a predetermined cleaning service as the information on cleaning.

〔3.情報処理における作用の一例〕
以下、図10に示すフローチャートを用いて、各処理部132〜134、235が実行・実現する処理の内容について説明する。図10は、第2の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図8の例を用いることにする。
[3. Example of action in information processing]
The contents of processing executed and realized by each of the processing units 132 to 134 and 235 will be described below using the flowchart shown in FIG. FIG. 10 is a flowchart illustrating an example of the information processing according to the second embodiment. Also, the example of FIG. 8 is used as appropriate.

まず、第2取得部235は、環境情報として配置情報を取得したか否かを判定する(ステップS201)。例えば、第2取得部235は、清掃ロボットRB1により配置情報が送信されない間は、配置情報を取得しないと判定し(ステップS201;No)、取得するまで待機する。   First, the second acquisition unit 235 determines whether arrangement information has been acquired as environment information (step S201). For example, while the arrangement information is not transmitted by the cleaning robot RB1, for example, the second acquisition unit 235 determines that the arrangement information is not acquired (step S201; No), and waits until acquisition.

ここで、例えば、清掃ロボットRB1は、室内Rにおいてエコーロケーションを行うことにより検出した配置情報を情報処理装置200に送信したことにより、第2取得部235は、配置情報を取得したと判定したものとする(ステップS201;Yes)。この配置情報には、配置情報は、どのような物体が、居室Rのどの位置に、どれだけ存在するかといった数値情報、そして、居室R内を清掃ロボットRB1が移動した移動距離が含まれるものとする。   Here, for example, the cleaning robot RB1 transmits the arrangement information detected by performing the echo location in the room R to the information processing apparatus 200, so that the second acquisition unit 235 determines that the arrangement information is acquired. (Step S201; Yes). In the arrangement information, the arrangement information includes numerical information such as what kind of object is present at which position in the living room R and the movement distance of the cleaning robot RB1 within the living room R. I assume.

このような状態において、第2取得部235は、過去の所定の時点での移動距離と、現時点での移動距離とを比較した比較結果を取得する(ステップS202)。具体的には、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離とを比較した比較結果を取得(算出)する。かかる比較結果も環境情報の一例と解することができるものである。   In such a state, the second acquisition unit 235 acquires a comparison result obtained by comparing the movement distance at a predetermined time in the past and the movement distance at the present time (step S202). Specifically, the second acquisition unit 235 is a movement distance of the cleaning robot RB1 in the living room R and is a movement distance at a predetermined time in the past and a movement distance of the cleaning robot RB1 in the living room R at the present time A comparison result comparing the movement distance is acquired (calculated). Such comparison results can also be understood as an example of environmental information.

第2取得部235は、清掃ロボットRB1から取得した配置情報を環境情報記憶部122に格納するため、例えば、過去の所定の時点での移動距離を示す情報(「過去距離情報」とする)と、現時点での移動距離を示す情報(「現在距離情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去距離情報と現在距離情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離が過去の所定の時点での移動距離より短くなっているか否かを判定する(ステップS203)。   Since the second acquisition unit 235 stores the arrangement information acquired from the cleaning robot RB1 in the environment information storage unit 122, for example, information (referred to as “past distance information”) indicating a movement distance at a predetermined time in the past Information indicating the moving distance at the current time (referred to as “current distance information”) can be acquired from the environment information storage unit 122. Here, the second acquisition unit 235 acquires the comparison result by comparing the past distance information and the current distance information, and based on the acquired comparison result, the movement distance at the present time is based on the movement distance at the predetermined time in the past. It is determined whether it is short (step S203).

ここで、第2取得部235は、「過去の所定の時点での移動距離<現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなっていないと(長くなったと)判定する(ステップS203;No)。かかる場合、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定し(ステップS204a)、処理を終了する。   Here, it is assumed that the second acquisition unit 235 acquires a comparison result such as “moving distance at a predetermined point in the past <moving distance at the current time”. In such a case, the second acquisition unit 235 determines that the moving distance at the present time is not shorter than the moving distance at a predetermined time in the past (it has become longer) (Step S203; No). In such a case, the estimation unit 132 estimates that the tidying status “good” (tidyed up) of the living room R (step S204a), and ends the process.

一方、第2取得部235は、「過去の所定の時点での移動距離>現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなったと判定する(ステップS203;Yes)。現時点での移動距離が過去の所定の時点での移動距離より短くなったことの原因としては、居室Rに散乱している物が増えたことにより、清掃ロボットRB1が移動可能なスペースが少なくなったことが考えられる。このようなことから、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する(ステップS204b)。なお、ステップS203での判定処理は、推定部132によって行われてもよい。   On the other hand, it is assumed that the second acquisition unit 235 acquires a comparison result such as “moving distance at a predetermined point in the past> moving distance at the current time”. In such a case, the second acquisition unit 235 determines that the moving distance at the present time is shorter than the moving distance at a predetermined time in the past (step S203; Yes). The cause of the fact that the moving distance at the present time is shorter than the moving distance at a predetermined point in the past is that the space that the cleaning robot RB1 can move becomes smaller due to the increase of objects scattered in the living room R Can be thought of. From such a thing, the estimation part 132 estimates that the tidying-up condition "bad" (it has not been done) of the living room R (step S204 b). The determination process in step S203 may be performed by the estimation unit 132.

また、通知部134は、整頓状況「悪」と推定されたことにより、ユーザU11に対して清掃に関する情報を通知する(ステップS205)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。   In addition, the notification unit 134 notifies the user U11 of information related to cleaning because it is estimated that the orderly state is "bad" (step S205). For example, the notification unit 134 controls the audio device DV1 to notify the user U11 of information related to cleaning. In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "The room is not tidy. Please clean up before tidying up."

〔4.変形例〕
上記第2の実施形態にかかる情報処理装置200は、上記第2の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置200の他の実施形態について説明する。
[4. Modified example]
The information processing apparatus 200 according to the second embodiment may be implemented in various different forms other than the second embodiment. So, below, other embodiment of the information processing apparatus 200 is described.

〔4−1.面積比較〕
上記の第2の実施形態では、第2の取得部235が、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、室内における作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する例を示した。しかし、第2の取得部235は、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する。第2の取得部235は、例えば、図10で示したステップS202、S203でかかる処理を行うことができる。
[4-1. Area comparison]
In the second embodiment described above, the second acquisition unit 235 is the movement distance of the work robot in the room, and is the movement distance of the work robot at a predetermined time in the past and the movement distance of the work robot in the room at the present time An example of acquiring a comparison result comparing the movement distance of However, the second acquisition unit 235 is a movement distance of the work robot in the room and a movement area based on the movement distance at a predetermined time in the past, and a movement distance of the work robot in the room at the present time The comparison result comparing with the movement area based on the distance is acquired. The second acquisition unit 235 can perform such processing in steps S202 and S203 illustrated in FIG. 10, for example.

一例を示すと、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離に基づく移動面積と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得(算出)する。   As an example, the second acquisition unit 235 is a movement distance of the cleaning robot RB1 in the living room R and is a movement area based on the movement distance at a predetermined time in the past and a movement distance of the cleaning robot RB1 in the living room R A comparison result comparing the movement area based on the movement distance at the present time is acquired (calculated).

第2取得部235は、過去の所定の時点での移動距離に基づく移動面積を示す情報(「過去面積情報」とする)と、現時点での移動距離に基づく移動面積を示す情報(「現在面積情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去面積情報と現在面積情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなっているか否かを判定する。   The second acquisition unit 235 includes information indicating the movement area based on the movement distance at a predetermined time in the past (referred to as “past area information”) and information indicating the movement area based on the movement distance at the current time (“current area Information) can be acquired from the environment information storage unit 122. Here, the second acquisition unit 235 acquires the comparison result by comparing the past area information and the current area information, and based on the acquired comparison result, the movement area based on the movement distance at the current time is a predetermined time in the past. It is determined whether it is smaller than the movement area based on the movement distance of.

ここで、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積<現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面器が過去の所定の時点での移動距離に基づく移動面積より小さくなっていないと(大きくなったと)判定する。これにより、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定する。   Here, it is assumed that the second acquisition unit 235 acquires a comparison result such as “moving area based on moving distance at a predetermined time in the past <moving area based on moving distance at present”. In such a case, the second acquisition unit 235 determines that the moving surface unit based on the moving distance at the current time is not smaller than the moving area based on the moving distance at a predetermined time in the past (it has become larger). Thus, the estimation unit 132 estimates that the timbre of the living room R is “good” (tidy up).

一方、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積>現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなったと判定する。これにより、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する。   On the other hand, it is assumed that the second acquisition unit 235 acquires a comparison result such as “moving area based on moving distance at a predetermined point in the past> moving area based on moving distance at present”. In such a case, the second acquisition unit 235 determines that the moving area based on the moving distance at the current point has become smaller than the moving area based on the moving distance at a predetermined point in the past. Thus, the estimation unit 132 estimates that the timbre of the room R is "bad" (not tidy).

これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。   Thus, the information processing apparatus 200 according to the second embodiment can estimate the tidying-up state of the room with high accuracy. For example, the user is asked to clean the room after tidying up and tidying first. On the other hand, efficient cleaning can be realized.

〔4−2.間取比較〕
また、第2取得部235は、環境情報として、過去の所定の時点での室内の間取りと、現時点での当該室内の間取りとを比較した比較結果を取得してもよい。ここでは、説明の便宜上、移動可能な作業ロボットを空中飛行可能なロボット(例えば、ドローン)とする。かかる場合、このドローンは、例えば、定期的に居室Rを含む室内を上空から撮影することにより、かかる室内の間取り図を情報処理装置200に送信する。これにより、第2取得部235は、環境情報として、間取り図を取得することができる。
[4-2. Room arrangement comparison]
In addition, the second acquisition unit 235 may acquire, as the environmental information, a comparison result of comparing the room layout at a predetermined time in the past with the room layout at the current time. Here, for convenience of explanation, the movable work robot is assumed to be a robot (for example, a drone) capable of flying in the air. In such a case, the drone transmits the floor plan of the room to the information processing apparatus 200 by, for example, periodically photographing the room including the room R from above. Thus, the second acquisition unit 235 can acquire a floor plan as the environment information.

このような状態において、第2取得部235は、過去の所定の時点での間取り図と、現時点での間取り図とを比較した比較結果を取得し、取得した比較結果から、例えば、居室Rが過去の所定の時点より汚れているか否か、あるいは、過去の所定の時点と比較して居室Rの整頓状況が悪化しているか否かを判定する。例えば、第2取得部235は、居室Rにおいて過去の所定の時点での空きスペースの面積と、現時点での空きスペースの面積を算出し、これらを比較する。そして、推定部132は、第2取得部235により現時点での空きスペースの面積が過去の所定の時点での空きスペースの面積より小さくなっていると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。   In such a state, the second acquisition unit 235 acquires the comparison result of comparing the floor plan at a predetermined time in the past with the floor plan at the present time, and, for example, the room R is It is determined whether there is contamination from a predetermined time in the past, or whether the tidying condition of the living room R is deteriorated as compared with the predetermined time in the past. For example, the second acquisition unit 235 calculates the area of the vacant space at a predetermined time in the past in the living room R and the area of the vacant space at the present time, and compares them. Then, when it is determined by the second acquiring unit 235 that the area of the empty space at the present time is smaller than the area of the empty space at a predetermined time in the past, the estimating unit 132 arranges the room R Estimated as "bad" (not organized).

これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。   Thus, the information processing apparatus 200 according to the second embodiment can estimate the tidying-up state of the room with high accuracy. For example, the user is asked to clean the room after tidying up and tidying first. On the other hand, efficient cleaning can be realized.

〔4−3.衝突回数〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数を取得する。そして、第2取得部235は、衝突回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど衝突回数は多くなると考えられる。したがって、推定部132は、第2取得部235により衝突回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
[4-3. Number of collisions]
Further, the second acquisition unit 235 may acquire, as the environmental information, the number of collisions in which the movable work robot is in the room and collides. For example, the second acquisition unit 235 acquires the number of collisions with the object while the cleaning robot RB1 moves in the living room R for a predetermined time. Then, the second acquisition unit 235 determines whether the number of collisions is equal to or more than a predetermined number. For example, it is considered that the number of collisions increases as the living room R is not organized and the more things are scattered. Therefore, when the second acquisition unit 235 determines that the number of collisions is equal to or more than the predetermined number, the estimation unit 132 estimates that the arrangement condition “bad” (not arranged) of the living room R.

これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。   As a result, the information processing apparatus 200 according to the second embodiment can estimate the room tidying state with high accuracy.

〔4−4.移動回数に基づく推定〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数のうち、衝突したことにより被衝突物が移動した回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数のうち、衝突したことにより被衝突物が移動した移動回数を取得する。なお、第2取得部235は、清掃ロボットRB1が同一物体に複数回衝突し、さらにその物体が移動した場合には、重複した移動回数を排除してもよい。
[4-4. Estimation based on the number of movements]
In addition, the second acquisition unit 235 may acquire, as the environmental information, the number of times the collided object has moved due to the collision among the number of collisions in which the movable work robot is placed in the room and collides. For example, the second acquisition unit 235 acquires the number of times of movement of the collision object due to the collision among the number of times of collision of the cleaning robot RB1 with the object while moving the living room R for a predetermined time. When the cleaning robot RB1 collides with the same object a plurality of times and the object further moves, the second acquisition unit 235 may exclude the number of times of overlapping movement.

そして、第2取得部235は、移動回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど移動回数は多くなると考えられる。例えば、タンス等の大きな家具に清掃ロボットRB1が衝突しても、家具が動くことはない。一方で、整理整頓できていない原因の、例えば、ゴミや玩具に清掃ロボットRB1が衝突した場合、これらは衝突の力によって移動することになる。つまり、移動回数が多いほど、居室Rが整頓できていないことを示唆する。したがって、推定部132は、第2取得部235により移動回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。   Then, the second acquisition unit 235 determines whether the number of movements is equal to or more than a predetermined number. For example, as the living room R is not organized and the more things are scattered, it is considered that the number of movements increases. For example, even if the cleaning robot RB1 collides with a large piece of furniture such as a closet, the furniture does not move. On the other hand, when the cleaning robot RB1 collides with trash or a toy, for example, which is the cause of the unorganized organization, these move due to the force of the collision. That is, it suggests that the living room R can not be organized as the number of times of movement increases. Therefore, when it is determined by the second acquisition unit 235 that the number of movements is equal to or more than the predetermined number, the estimation unit 132 estimates that the arrangement status “bad” (not organized) of the living room R.

これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。   As a result, the information processing apparatus 200 according to the second embodiment can estimate the room tidying state with high accuracy.

〔5.効果〕
第2の実施形態にかかる情報処理装置200は、第2取得部235と、推定部132とを有する。第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。
[5. effect〕
An information processing apparatus 200 according to the second embodiment includes a second acquisition unit 235 and an estimation unit 132. The second acquisition unit 235 acquires environment information indicating the environment around the user and detected by the movable work robot. The estimation unit 132 estimates the cleaning status of the user in the room based on the environment information acquired by the second acquisition unit 235.

これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を認識することができるため、ユーザに対して効率的な清掃行動を行わせることができる。   As a result, the information processing apparatus 200 according to the second embodiment can recognize the tidying state of the room, and can thus allow the user to perform an efficient cleaning action.

(第3の実施形態)
〔1.情報処理の一例〕
次に、図11を用いて、第3の実施形態にかかる情報処理の一例を示す。図11は、第3の実施形態にかかる情報処理の一例を示す図である。第3の実施形態にかかる情報処理は、情報処理装置300によって行われる。情報処理装置300は、図1で説明した情報処理装置SVの一例である。
Third Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the third embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of the information processing according to the third embodiment. The information processing according to the third embodiment is performed by the information processing apparatus 300. The information processing device 300 is an example of the information processing device SV described with reference to FIG.

また、図11は、図1(c)をより詳細に説明するものである。図11の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、照明デバイスR1が設置されている。また、不図示であるがユーザU11およびU12も存在するものとする。   Further, FIG. 11 explains FIG. 1 (c) in more detail. In the example of FIG. 11, in the living room R, the audio device DV1 is placed. In addition, in the room R, a lighting device R1 is installed. Although not shown, it is assumed that users U11 and U12 are also present.

このような状態において、情報処理装置300は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得し、取得した判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、情報処理装置300は、判定結果が清掃の必要性がある要清掃位置を示す場合に、要清掃位置または前記要清掃位置の周辺に清掃に関する情報を出力させる出力制御を行う。なお、ユーザに対して清掃の必要性があるか否かを判定する処理は、第1の実施形態にかかる情報処理装置100の判定部133によって行われる。   In such a state, the information processing apparatus 300 acquires the determination result in which it is determined whether the user needs cleaning or not, and the acquired determination result indicates that the user needs cleaning. In the case of indicating, the output control is performed to output information related to cleaning at a predetermined position in the room. For example, the information processing apparatus 300 performs output control to output information related to cleaning around the cleaning required position or around the cleaning required position when the determination result indicates the cleaning required position where there is a need for cleaning. The process of determining whether or not the user needs cleaning is performed by the determination unit 133 of the information processing apparatus 100 according to the first embodiment.

情報処理装置300は、清掃の必要があるか否か判定された判定結果を取得する(ステップS31)。図1(a)の例では、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、かかる例の場合、情報処理装置300は、判定結果として「清掃の必要がある」ことを取得する。   The information processing apparatus 300 acquires the determination result as to whether or not cleaning is necessary (step S31). In the example of FIG. 1A, the information processing device SV determines in step S13 that cleaning is necessary. Therefore, in the case of such an example, the information processing apparatus 300 acquires that “cleaning is necessary” as the determination result.

ここで、これまで説明してきた通り、情報処理装置100は、取得した環境情報に基づいて、ユーザの清掃状況を推定し、推定結果に基づいて、清掃の必要性を判定する。したがって、判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。また、かかる判定結果は、情報処理装置300の所定の記憶部に記憶されている。   Here, as described above, the information processing apparatus 100 estimates the cleaning situation of the user based on the acquired environment information, and determines the necessity of cleaning based on the estimation result. Therefore, the determination result includes, for example, numerical information such as what kind of object is present at what position in the room and how much. Further, the determination result is stored in a predetermined storage unit of the information processing device 300.

また、第1の実施形態で説明したように、情報処理装置100は、環境情報に基づいて、ユーザの室内が清掃されている程度を示す指標値を算出し、この指標値に基づいて、清掃状況を推定する場合がある。したがって、判定結果には、室内が清掃されている程度を示す指標値も含まれてよい。   In addition, as described in the first embodiment, the information processing apparatus 100 calculates an index value indicating the degree to which the user's room is cleaned based on the environment information, and cleaning based on the index value. The situation may be inferred. Therefore, the determination result may also include an index value indicating the degree to which the room is cleaned.

図11の例では、例えば、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。かかる場合、情報処理装置300は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する(ステップS32)。   In the example shown in FIG. 11, for example, the cleaning required area "AR1", the degree of cleaning "index value 8", the thing to be cleaned up (the things scattered in the room R) "4 cardboard boxes, 3 bags of waste bags" It is assumed that information is obtained as a determination result. In such a case, the information processing apparatus 300 performs output control on the illumination device L1 so as to output information related to cleaning to the area AR1, which is the cleaning position requiring cleaning (step S32).

かかる出力制御に応じて、照明デバイスL1は、要清掃位置AR1に清掃に関する情報を出力する。一例を示すと、照明デバイスL1は、清掃に関する情報として有害物質(例えば、害虫)の影を投影する(ステップS33)。これにより、情報処理装置300は、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。   In response to the output control, the lighting device L1 outputs information regarding cleaning to the cleaning required position AR1. If an example is shown, the lighting device L1 will project the shadow of a harmful substance (for example, a pest) as information regarding cleaning (step S33). As a result, since the information processing apparatus 300 can virtually experience the actual harm that any pest will occur unless it is cleaned, the motivation for cleaning can be effectively performed.

〔2.情報処理装置の構成〕
次に、図12を用いて、第3の実施形態にかかる情報処理装置300について説明する。図12は、第3の実施形態にかかる情報処理装置300の構成例を示す図である。図12に示すように、情報処理装置300は、通信部110と、記憶部120と、制御部330とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an information processing apparatus 300 according to the third embodiment will be described with reference to FIG. FIG. 12 is a view showing an example of the arrangement of an information processing apparatus 300 according to the third embodiment. As illustrated in FIG. 12, the information processing apparatus 300 includes a communication unit 110, a storage unit 120, and a control unit 330. The description of processing units having the same reference numerals as the information processing apparatus 100 described in FIG. 4 will be omitted or simplified.

(制御部330について)
制御部330は、CPUやMPU等によって、情報処理装置300内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
(About the controller 330)
The control unit 330 is realized by executing various programs stored in a storage device in the information processing apparatus 300 by using a RAM as a work area by a CPU, an MPU, or the like. Further, the control unit 230 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図12に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134と、判定結果取得部335と、出力制御部336とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。   As illustrated in FIG. 12, the control unit 130 includes a first acquisition unit 131, an estimation unit 132, a determination unit 133, a notification unit 134, a determination result acquisition unit 335, and an output control unit 336. Implement or execute the functions and actions of the information processing described below. Note that the internal configuration of the control unit 330 is not limited to the configuration shown in FIG. 12, and may be another configuration as long as it performs the information processing described later. Further, the connection relationship of each processing unit included in the control unit 330 is not limited to the connection relationship illustrated in FIG. 12, and may be another connection relationship.

(判定結果取得部335について)
判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。判定結果取得部335により取得される判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。判定結果には、例えば、室内が清掃されている程度を示す指標値も含まれている。
(About the determination result acquisition unit 335)
The determination result acquisition unit 335 acquires the determination result on whether or not the user needs to be cleaned. The determination result acquired by the determination result acquisition unit 335 includes, for example, numerical information such as how much an object is present at which position in the room. The determination result also includes, for example, an index value indicating the degree to which the room is cleaned.

(出力制御部336について)
出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。具体的には、出力制御部336は、室内において清掃の必要性がある要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。例えば、出力制御部336は、室内において清掃の必要性がある要清掃位置を示す位置情報が判定結果に含まれる場合に、要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。
(About the output control unit 336)
The output control unit 336 performs output control to output information regarding cleaning at a predetermined position in the room when the determination result acquired by the determination result acquisition unit 335 indicates that the user needs cleaning. Specifically, the output control unit 336 outputs information about the cleaning at or around the cleaning required position where there is a need for cleaning in the room. For example, the output control unit 336 causes the cleaning-required position or the area around the cleaning-required position to output information about the cleaning-required, when the determination result includes position information indicating the cleaning-required position that needs cleaning in the room.

出力制御部336は、清掃に関する情報として、要清掃位置または要清掃位置の周辺に応じた情報を出力させる。例えば、出力制御部336は、清掃状況の程度に応じた態様で、清掃に関する情報を出力させる。より具体的には、出力制御部336は、清掃状況の程度を示す指標値に応じた態様で、清掃に関する情報を出力させる。また、例えば、出力制御部336は、清掃状況の程度に応じて、清掃に関する情報を出力する出力頻度、または、清掃に関する情報を出力する出力数を制御する。また、出力制御部336は、宅内において物品が散在していることによりユーザが清掃の必要性があると判定されている場合には、清掃に関する情報として、当該物品に応じた情報を出力させる。   The output control unit 336 outputs, as information on cleaning, information corresponding to the cleaning required position or the periphery of the cleaning required position. For example, the output control unit 336 causes the information on cleaning to be output in a mode according to the degree of the cleaning condition. More specifically, the output control unit 336 causes the information on cleaning to be output in a mode according to the index value indicating the degree of the cleaning condition. Also, for example, the output control unit 336 controls the output frequency at which information on cleaning is output or the number of outputs at which information on cleaning is output, in accordance with the degree of cleaning condition. Further, when it is determined that the user needs to be cleaned because the items are scattered in the house, the output control unit 336 causes the information related to the item to be output as the information related to the cleaning.

また、出力制御部336は、清掃に関する情報として、宅内の清掃が必要であることを示す情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の形状を示す有害物情報を投影させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物が動作する音声情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の匂いを出力させる。   Further, the output control unit 336 outputs, as the information related to the cleaning, information indicating that the cleaning of the house is necessary. For example, the output control unit 336 causes harmful substance information indicating the shape of a predetermined harmful substance to be projected as the information indicating that home cleaning is necessary. For example, the output control unit 336 outputs, as information indicating that home cleaning is necessary, audio information in which a predetermined harmful substance operates. For example, the output control unit 336 causes the odor of a predetermined harmful substance to be output as information indicating that the cleaning of the house is necessary.

〔3.情報処理における作用の一例〕
以下、図13に示すフローチャートを用いて、各処理部335、336が実行・実現する処理の内容について説明する。図13は、第3の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図11の例を用いることにする。
[3. Example of action in information processing]
The contents of the processing executed and realized by each of the processing units 335 and 336 will be described below using the flowchart shown in FIG. FIG. 13 is a flowchart illustrating an example of the information processing according to the third embodiment. Also, the example of FIG. 11 is used as appropriate.

まず、判定結果取得部335は、清掃の必要があるか否か判定された判定結果を取得したか否かを判定する(ステップS301)。例えば、判定結果取得部335は、判定部133から清掃の必要があるか否か判定された判定結果を受信しない間は、判定結果を取得していないと判定し(ステップS301;No)、取得するまで待機する。   First, the determination result acquisition unit 335 determines whether or not the determination result determined as to whether or not cleaning is necessary has been acquired (step S301). For example, while the determination result acquisition unit 335 does not receive the determination result determined whether the cleaning is necessary or not from the determination unit 133, the determination result acquisition unit 335 determines that the determination result is not acquired (step S301; No). Wait until you do.

一方、出力制御部336は、判定結果取得部335により清掃の必要があるか否か判定された判定結果が取得されたと判定された場合には(ステップS301;Yes)、判定結果に基づいて、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う(ステップS302)。例えば、判定結果取得部335により取得された判定結果が、ユーザU11が清掃の必要性があることを示しているものとする。   On the other hand, when the output control unit 336 determines that the determination result determined by the determination result acquisition unit 335 whether or not cleaning is necessary is obtained (step S301; Yes), based on the determination result, Output control is performed to output information on cleaning at a predetermined position in the room (step S302). For example, it is assumed that the determination result acquired by the determination result acquisition unit 335 indicates that the user U11 needs to be cleaned.

また、判定結果取得部335により取得された判定結果には、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。なお、清掃されている程度は、汚れている度合いとも言い換えることができ、指標値が大きいほど汚れがひどい、あるいは、整頓できていないことを示すものとする。   In addition, the judgment result acquired by the judgment result acquisition unit 335 includes the cleaning area “AR1”, the degree of cleaning “index value 8”, the thing to be cleaned up (the thing scattered in the room R) “cardboard box 4 It is assumed that information such as a box and 3 bags of waste bags is obtained as the determination result. The degree of being cleaned can be reworded as the degree of contamination, and the larger the index value, the worse the contamination, or the less orderly.

かかる場合、出力制御部336は、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、出力制御部336は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する。図11の例では、領域AR1には、段ボール箱やごみ袋が積み重ねてある。このような場所(隙間)は、特定の害虫が身を潜めるには格好の場所といえる。したがって、、出力制御部336は、照明デバイスL1に対して、害虫の形状の影を投影させる。かかるがい害虫とは、例えば、一般家庭における生活空間に発生し得る害虫であればどのようなものでもよく、例えば、ゴキブリやカメムシ等である。なお、出力制御部336は、領域AR1がキッチン周辺である場合には、残飯等に集まり易いネズミの影を投影させてもよい。   In such a case, the output control unit 336 performs output control to output information related to cleaning at a predetermined position in the room. For example, the output control unit 336 performs output control on the lighting device L1 so as to output information on cleaning to the area AR1 which is a cleaning required position where cleaning is required. In the example of FIG. 11, the cardboard box and the waste bag are stacked in the area AR1. Such places (gaps) are good places for certain pests to hide. Therefore, the output control unit 336 causes the lighting device L1 to project the shadow of the shape of the pest. The pest may be, for example, any pest that can occur in the living space of a general household, such as cockroaches and bugs. Note that, when the area AR1 is around the kitchen, the output control unit 336 may project the shadow of a rat that easily collects on the leftovers and the like.

また、要清掃領域「AR1」における清掃の程度(汚れの程度、整頓されていない程度)が「指標値8」であることから、出力制御部336は、「指標値8」に応じた数の害虫を投影させてもよい。例えば、出力制御部336は、「指標値8」に対応させて「8匹」の害虫を投影させてもよい。また、出力制御部336は、害虫を投影させる頻度も制御してよい。出力制御部336は、「指標値8」の場合には「1分毎」に害虫を投影させ、「指標値7」の場合には「2分毎」に害虫を投影させる。また、出力制御部336は、かかる害虫の動作音(例えば、羽音や移動音)も同時に出力させてよい。   In addition, since the degree of cleaning (the degree of contamination, the degree of unorganizedness) in the cleaning required area “AR1” is “index value 8”, the output control unit 336 has the number corresponding to the “index value 8”. You may project pests. For example, the output control unit 336 may project “8 animals” pests in correspondence with “index value 8”. The output control unit 336 may also control the frequency of projecting the pest. The output control unit 336 causes the pest to be projected "every 1 minute" in the case of "index value 8", and causes the pest to be projected "every 2 minutes" in the case of "index value 7". In addition, the output control unit 336 may simultaneously output the operation sound (for example, feather noise or movement sound) of the pest.

また、領域AR1には、段ボール箱やごみ袋が積み重ねてあることから、領域AR1には日当たりが悪いことが考えられる。日当たりが悪い場所は、湿気が高くカビが発生しやすい。したがって、出力制御部336は、領域AR1付近にカビ臭を発生させてもよい。   In addition, since cardboard boxes and garbage bags are stacked in the area AR1, it is conceivable that the area AR1 is not sunny. Areas that are not sunny are humid and prone to mold. Therefore, the output control unit 336 may generate a musty odor near the area AR1.

〔4.変形例〕
上記第3の実施形態にかかる情報処理装置300は、上記第3の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置300の他の実施形態について説明する。
[4. Modified example]
The information processing apparatus 300 according to the third embodiment may be implemented in various different forms other than the third embodiment. So, below, other embodiment of the information processing apparatus 300 is described.

〔4−1.NG条件(1)〕
上記の第2の実施形態では、出力制御部336が清掃に関する情報を出力させる例を示した。しかし、出力制御部336は、所定の条件下では、清掃に関する情報を出力させないよう出力制御する。例えば、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しないよう制御する。
[4-1. NG condition (1)]
In the second embodiment described above, the output control unit 336 outputs the information regarding the cleaning. However, the output control unit 336 performs output control so as not to output information regarding cleaning under a predetermined condition. For example, the output control unit 336 controls not to output information related to cleaning while cleaning is being performed.

例えば、ユーザU11がせっかく清掃を行っていたとしても、このとき害虫が投影されてしまうと、驚きやショック等でユーザU11が清掃意欲を無くす可能性がある。このような状況を防ぐために、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しない。   For example, even if the user U11 performs thorough cleaning, if a pest is projected at this time, there is a possibility that the user U11 loses the willingness to clean due to a surprise or a shock. In order to prevent such a situation, the output control unit 336 does not output cleaning information while cleaning is being performed.

〔4−2.NG条件(2)〕
また、出力制御部336は、清掃の必要性がある要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しないよう制御する。例えば、要清掃位置が階段上である場合、ユーザが階段を使用している際に、この階段付近に害虫が投影されると、驚きでユーザが足を踏み外してしまう可能性があり危険である。したがって、出力制御部336は、要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しない。
[4-2. NG condition (2)]
Further, the output control unit 336 controls so as not to output information on the cleaning when the cleaning-required position requiring the cleaning is included in the predetermined area in the room. For example, when the cleaning position is on a stairway, if a pest is projected near the stairway while the user is using the stairway, the user may step out of the foot due to surprise, which is dangerous. . Therefore, the output control unit 336 does not output the information regarding the cleaning when the cleaning required position is included in the predetermined area in the room.

〔5.効果〕
第3の実施形態にかかる情報処理装置300は、判定結果取得部335と、出力制御部336とを有する。判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。
[5. effect〕
The information processing apparatus 300 according to the third embodiment includes a determination result acquisition unit 335 and an output control unit 336. The determination result acquisition unit 335 acquires the determination result on whether or not the user needs to be cleaned. The output control unit 336 performs output control to output information regarding cleaning at a predetermined position in the room when the determination result acquired by the determination result acquisition unit 335 indicates that the user needs cleaning.

これにより、第3の実施形態にかかる情報処理装置300は、ユーザに対して清掃するための動機付けを効果的に行うことができる。   Thereby, the information processing apparatus 300 according to the third embodiment can effectively perform motivation for cleaning the user.

(第4の実施形態)
〔1.情報処理の一例〕
次に、図14を用いて、第4の実施形態にかかる情報処理の一例を示す。図14は、第4の実施形態にかかる情報処理の一例を示す図である。第4の実施形態にかかる情報処理は、情報処理装置400によって行われる。情報処理装置400は、図1で説明した情報処理装置SVの一例である。
Fourth Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the fourth embodiment will be described using FIG. FIG. 14 is a diagram illustrating an example of the information processing according to the fourth embodiment. The information processing according to the fourth embodiment is performed by the information processing apparatus 400. The information processing device 400 is an example of the information processing device SV described in FIG.

また、図14は、図1(d)をより詳細に説明するものである。図14の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、ユーザU11およびU12がいる。   FIG. 14 explains FIG. 1 (d) in more detail. In the example of FIG. 14, a voice device DV1 is placed in the living room R. In the room R, there are users U11 and U12.

例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した会話情報を情報処理装置400に送信する(ステップS42)。これにより、情報処理装置400は、環境情報を取得することができる。   For example, the voice device DV1 detects, as environment information, conversation information which is information related to the user's conversation (step S41), and transmits the detected conversation information to the information processing apparatus 400 (step S42). Thus, the information processing apparatus 400 can acquire environmental information.

次に、情報処理装置400は、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置400は、取得した会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。   Next, the information processing apparatus 400 determines whether the user has performed a cleaning action (step S43). For example, the information processing apparatus 400 determines whether the user performed the cleaning action based on the acquired conversation information.

一例を示すと、情報処理装置400は、所定対象物を定位置(元の場所)に戻すといった清掃行動を行ったか否かを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、清掃行動を行ったのは誰であるかも特定する。また、情報処理装置400は、例えば、清掃行動を行ったのはユーザU11であることを特定したとすると、ユーザU11が自主的に清掃行動を行ったのか、あるいは、誰かに指示されて清掃行動を行ったのかを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、その清掃行動にかかった時間を特定する。   In one example, the information processing apparatus 400 determines whether or not a cleaning action has been performed such as returning the predetermined object to a fixed position (the original place). Further, when it is determined that the information processing apparatus 400 has performed the cleaning action, the information processing apparatus 400 also identifies who is the person performing the cleaning action. Further, assuming that the information processing apparatus 400 specifies that the user U11 is the one who performed the cleaning action, for example, the user U11 voluntarily performed the cleaning action or someone is instructed to perform the cleaning action To determine if it has been done. In addition, when it is determined that the cleaning action has been performed, the information processing apparatus 400 identifies the time taken for the cleaning action.

図14の例では、情報処理装置400は、掃除機をかけているユーザU11に対して、母親であるユーザU2が「ちゃんときれいに出来たわね」と声をかけたことを示す会話情報を取得することになる。このようなことから、情報処理装置400は、ユーザU11が清掃行動を行ったと判定し、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置400は、報酬として所定のポイントを付与する場合、ユーザU11の端末装置10においてアプリAPを介して、付与したポイントおよび現在の累計ポイントを確認可能に制御する。   In the example of FIG. 14, the information processing apparatus 400 acquires conversation information indicating that the user U2 who is the mother has called for “cleanly done properly” to the user U11 who is vacuuming. It will be done. Because of this, the information processing apparatus 400 determines that the user U11 has performed the cleaning action, and gives the user U11 a predetermined reward (step S44). For example, when a predetermined point is given as a reward, the information processing apparatus 400 controls the terminal device 10 of the user U11 so that the given point and the present accumulated point can be confirmed via the application AP.

このように、情報処理装置400は、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。   As described above, when the user performs a cleaning action, the information processing apparatus 400 gives a reward to the user. Even if users who are not good at cleaning can get a reward, it is possible that their willingness to clean is higher. Therefore, the information processing apparatus 400 can effectively make the user clean.

〔2.情報処理装置の構成〕
次に、図15を用いて、第3の実施形態にかかる情報処理装置400について説明する。図15は、第4の実施形態にかかる情報処理装置400の構成例を示す図である。図15に示すように、情報処理装置400は、通信部110と、記憶部420と、制御部430とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an information processing apparatus 400 according to the third embodiment will be described using FIG. FIG. 15 is a view showing an example of the arrangement of an information processing apparatus 400 according to the fourth embodiment. As illustrated in FIG. 15, the information processing device 400 includes a communication unit 110, a storage unit 420, and a control unit 430. The description of processing units having the same reference numerals as the information processing apparatus 100 described in FIG. 4 will be omitted or simplified.

(記憶部420について)
記憶部420は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部420は、ユーザ情報記憶部121と、環境情報記憶部122と、報酬情報記憶部423とを有する。
(Regarding storage unit 420)
The storage unit 420 is realized by, for example, a semiconductor memory device such as a RAM or a flash memory, or a storage device such as a hard disk or an optical disk. The storage unit 420 includes a user information storage unit 121, an environment information storage unit 122, and a reward information storage unit 423.

(報酬情報記憶部423について)
報酬情報記憶部423は、ユーザに付与された報酬に関する情報を記憶する。ここで、図16に第4の実施形態にかかる報酬情報記憶部423の一例を示す。なお、本実施形態では、報酬は所定のポイントであるものとする。図16の例では、報酬情報記憶部423は、「家族ID」、「ユーザID」、「ポイント」といった項目を有する。
(Reward information storage unit 423)
The reward information storage unit 423 stores information on the reward given to the user. Here, FIG. 16 illustrates an example of the reward information storage unit 423 according to the fourth embodiment. In the present embodiment, the reward is a predetermined point. In the example of FIG. 16, the reward information storage unit 423 has items such as “family ID”, “user ID”, and “point”.

「家族ID」、「ユーザID」については、図5の通りであるため、説明を省略する。「ポイント」は、対応するユーザに付与されている現在の累計ポイントを示す。すなわち、図16の例では、ユーザID「U11」によって識別されるユーザには、現在「50ポイント」付与されている例を示す。   The “family ID” and the “user ID” are as shown in FIG. "Point" indicates the current accumulated point given to the corresponding user. That is, in the example of FIG. 16, an example in which “50 points” is currently assigned to the user identified by the user ID “U11” is shown.

(制御部430について)
図15に戻り、制御部430は、CPUやMPU等によって、情報処理装置400内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部430は、例えば、ASICやFPGA等の集積回路により実現される。
(About the control unit 430)
Referring back to FIG. 15, the control unit 430 is realized by the CPU, the MPU, or the like, which executes various programs stored in the storage device in the information processing apparatus 400 using the RAM as a work area. Further, the control unit 430 is realized by, for example, an integrated circuit such as an ASIC or an FPGA.

図15に示すように、制御部430は、第1取得部131と、推定部132と、判定部133と、通知部134と、行動判定部435と、付与部436とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部430の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部430が有する各処理部の接続関係は、図15に示した接続関係に限られず、他の接続関係であってもよい。   As illustrated in FIG. 15, the control unit 430 includes a first acquisition unit 131, an estimation unit 132, a determination unit 133, a notification unit 134, an action determination unit 435, and an application unit 436. Implement or execute the functions and actions of the information processing to be described. Note that the internal configuration of control unit 430 is not limited to the configuration shown in FIG. 15, and may be another configuration as long as it performs the information processing described later. Further, the connection relationship of the processing units included in the control unit 430 is not limited to the connection relationship illustrated in FIG. 15, and may be another connection relationship.

(行動判定部435について)
行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。ここで、第1および第2の実施形態で説明した通り、第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。例えば、第1取得部131は、所定の音声デバイスに対して入力された会話を示す会話情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。したがって、行動判定部435は、第1取得部131により取得された環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。
(About the action determination unit 435)
The action determination unit 435 determines whether the user has performed a cleaning action. Here, as described in the first and second embodiments, the first acquisition unit 131 acquires environment information indicating the user's peripheral environment. For example, the first acquisition unit 131 acquires conversation information, which is information related to the user's conversation, as environment information indicating the user's surrounding environment. For example, the first acquisition unit 131 acquires conversation information indicating a conversation input to a predetermined audio device. In addition, the first acquisition unit 131 acquires environment information detected by a predetermined sensor function as environment information indicating a user's peripheral environment. Therefore, based on the environmental information acquired by the first acquisition unit 131, the behavior determination unit 435 determines whether the user has performed the cleaning action.

また、行動判定部435は、ユーザによる清掃行動の進捗状況を示す進捗情報が会話情報に含まれる場合に、この進捗情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。また、行動判定部435は、ユーザと所定の関係を有する関係者の音声が登録されている場合に、会話情報に対応する音声データであって関係者の音声データに基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。   In addition, when the progress information indicating the progress status of the cleaning action by the user is included in the conversation information, the action determination unit 435 determines whether the user performed the cleaning action based on the progress information. In addition, the action determination unit 435 determines that the user performed the cleaning action when the environment information detected by the predetermined sensor function indicates that the predetermined object is returned to the home position. In addition, when the voice of a related person having a predetermined relationship with the user is registered, the action determination unit 435 is the voice data corresponding to the conversation information, and the user performs the cleaning action based on the voice data of the related person. To determine if it has been done. In addition, the action determination unit 435 determines that the user performed the cleaning action when the environment information detected by the predetermined sensor function indicates that the predetermined object is returned to the home position.

(付与部436について)
付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。
(About grant section 436)
The giving unit 436 gives a reward to a predetermined target person regarding the cleaning action based on the determination result by the action determination unit 435. For example, the granting unit 436 grants, as a reward, content related to the object cleaned up by the cleaning action.

また、付与部436は、行動判定部435によりユーザが清掃行動を行ったと判定された場合に、清掃行動に関する所定の対象者として、当該ユーザまたは当該ユーザと所定の関係性を有する関係者に報酬を付与する。例えば、付与部436は、関係者がユーザに対して清掃行動を行わせた場合には、この関係者に報酬を付与する。   Furthermore, when the action determination unit 435 determines that the user performed the cleaning action, the giving unit 436 rewards the user or a related person having a predetermined relationship with the user as a predetermined target person regarding the cleaning action. Grant For example, when a related party causes the user to perform a cleaning action, the giving unit 436 gives a reward to the related person.

また、例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。また、付与部436は、清掃行動が開始されてから終了するまでの時間に応じた報酬を付与する。   Also, for example, the giving unit 436 gives, as a reward, content related to the object that has been cleaned up by the cleaning action. Further, the giving unit 436 gives a reward according to the time from the start of the cleaning action to the end of the cleaning action.

〔3.情報処理における作用の一例〕
以下、図17に示すフローチャートを用いて、情報処理装置400の各処理部が実行・実現する処理の内容について説明する。図17は、第4の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図14の例を用いることにする。
[3. Example of action in information processing]
The contents of processing executed and realized by each processing unit of the information processing apparatus 400 will be described below using the flowchart shown in FIG. FIG. 17 is a flowchart illustrating an example of the information processing according to the fourth embodiment. Also, the example of FIG. 14 is used as appropriate.

まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS401)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS401;No)、取得するまで待機する。   First, the first acquisition unit 131 determines whether or not conversation information has been acquired (step S401). For example, while not being transmitted from conversation information by the audio device DV1, the first acquisition unit 131 determines that conversation information is not acquired (step S401; No), and waits until acquisition.

一方、行動判定部435は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS401;Yes)、会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS402)。例えば、行動判定部435は、会話情報を分析することにより、会話情報が示す会話の内容に基づいて、ユーザが清掃行動を行ったか否かを判定する。   On the other hand, when the first acquisition unit 131 acquires the conversation information from the audio device DV1 by the speech device DV1 detecting the speech information (step S401; Yes), the behavior determination unit 435 detects the conversation information based on the conversation information. It is determined whether the user has performed a cleaning action (step S402). For example, the behavior determination unit 435 analyzes the conversation information to determine whether the user performed the cleaning action based on the content of the conversation indicated by the conversation information.

ここで、会話情報がユーザによる清掃行動の進捗状況を示していたとする。一例を示すと、会話情報の中に、母親であるユーザU12がユーザU11に対して「早く片付けなさい」といった現在清掃行動が行われていないことを示す内容と、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」と清掃行動が行われたことを示す内容とが経時変化に応じて含まれていたとする。かかる場合、行動判定部435は、ユーザU11が清掃行動を行ったと判定する。   Here, it is assumed that the conversation information indicates the progress of the cleaning action by the user. As an example, in the conversation information, content indicating that the mother user U12 is not currently performing a cleaning action such as "set up quickly" for the user U11, and the user U12 for the user U11 It is assumed that "I was able to clean properly" and a content indicating that the cleaning action was performed were included according to the change over time. In this case, the action determination unit 435 determines that the user U11 has performed the cleaning action.

また、行動判定部435は、判定処理に音声認識の技術を用いることができる。例えば、上記例では、行動判定部435は、会話情報に含まれる発話内容のうち、どの発話がユーザU12による発話であるかを特定している。このような特定が可能となるのは、例えば、情報処理装置400に対して、ユーザU11と家族関係(親子関係)にあるユーザU12の音声データが予め登録されているためである。例えば、ユーザU11が幼い子供であったとすると、ユーザU11は清掃行動を行っていないにも拘らず、例えば、冗談で「掃除終わったよ」等という場合がある。一方で、ユーザU12は大人であるため、このような冗談を言う可能性は低く、さらに子どもと比較して発話内容の信頼性が高いといえる。   In addition, the action determination unit 435 can use a technology of voice recognition for the determination process. For example, in the above-described example, the behavior determination unit 435 specifies which of the utterance contents included in the conversation information is an utterance by the user U12. Such specification is possible because, for example, voice data of the user U12 having a family relationship (parent-child relationship) with the user U11 is registered in the information processing apparatus 400 in advance. For example, if the user U11 is a small child, the user U11 may say, for example, "cleaned up" by joke, even though the user U11 is not performing the cleaning action. On the other hand, since the user U12 is an adult, the possibility of making such a joke is low, and it can be said that the uttered content is more reliable than children.

このようなことから、行動判定部435は、ユーザU12の音声データが予め登録されていれば、ユーザU12に対応する会話情報に焦点を当てて判定処理を行うことができるため、例えば清掃行動を行ったか否かを高精度に判定することができるとともに、清掃行動を行ったと判定した場合、例えば、だれが、だれの指示で清掃行動を行ったのかを特定することができる。   Because of this, if the voice data of the user U12 is registered in advance, the action determination unit 435 can focus on the conversation information corresponding to the user U12 and perform the determination process, so for example, the cleaning action It is possible to determine with high accuracy whether or not it has been performed, and when it is determined that the cleaning action has been performed, it is possible to specify, for example, who instructed the cleaning action by whom.

また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定することができる。所定のセンサ機能は、上記の各実施形態で説明したきたが、例えば、エコーロケーション、カメラ、ホコリセンサ等であり、音声デバイスDV1や清掃ロボットRB1に設置されている。   In addition, the action determination unit 435 can determine that the user performed the cleaning action when the environment information detected by the predetermined sensor function indicates that the predetermined object is returned to the home position. The predetermined sensor function has been described in each of the above embodiments, but is, for example, an echo location, a camera, a dust sensor, etc., and is installed in the audio device DV1 or the cleaning robot RB1.

例えば、行動判定部435は、会話情報とセンサ機能による撮影画像とを組み合わせて、ユーザU12にの発話「早く片付けなさい」の後に、これまで居室Rに散らばっていた玩具が定位置に戻されたと判定した場合には、ユーザU11が清掃行動を行ったと判定する。また、例えば、行動判定部435は、ユーザU12にの発話「早く片付けなさい」の後に、ホコリセンサによるホコリ量が減少していた場合には、ユーザU11が清掃行動を行ったと判定する。   For example, the action determination unit 435 combines the conversation information and the captured image by the sensor function, and after the utterance “Please put it away quickly” to the user U12, the toy scattered so far in the living room R is returned to the home position When it determines, it determines with user U11 having performed cleaning action. Further, for example, when the amount of dust by the dust sensor is decreased after the speech “please put it away quickly” to the user U12, the behavior determination unit 435 determines that the user U11 has performed the cleaning action.

また、片付けの対象物にも予めセンサが取り付けてあることで、行動判定部435は、そのセンサから取得された情報に基づいて、判定してもよい。例えば、ユーザU11が片付けるべき玩具Gは(IoT玩具)であるものとする。玩具Gは、ネットワークNを介して、情報処理装置400に位置情報等を送信することができる。行動判定部435は、かかる位置情報に基づき玩具Gが定位置に戻された旨の情報が取得された場合には、ユーザU11が清掃行動を行ったと判定する。   In addition, since the sensor is attached in advance also to the cleaning target, the behavior determination unit 435 may make the determination based on the information acquired from the sensor. For example, it is assumed that the toy G to be cleaned up by the user U11 is (IoT toy). The toy G can transmit position information and the like to the information processing device 400 via the network N. The action determination unit 435 determines that the user U11 has performed the cleaning action when the information indicating that the toy G has been returned to the fixed position is acquired based on the position information.

以上のようにして、行動判定部435は、ユーザが清掃行動を行っていないと判定した場合には(ステップS402;No)、処理を終了する。一方、付与部436は、行動判定部435によりユーザが清掃行動を行たと判定された場合には(ステップS402;Yes)、所定の対象者に報酬を付与する(ステップS403)。   As described above, when the action determination unit 435 determines that the user does not perform the cleaning action (Step S402; No), the process ends. On the other hand, when the action determination unit 435 determines that the user performed the cleaning action (step S402; Yes), the giving unit 436 gives a reward to a predetermined target person (step S403).

ここで、行動判定部435により、ユーザU11が清掃行動を行った、具体的には、ユーザU11が玩具Gを片付けたと判定されたとすると、付与部436は、ユーザU11に対して、所定のポイントを付与する。また、例えば、付与部436は、片付けられた対象物である玩具Gに関連する報酬をユーザU11に付与してもよい。付与部436は、玩具Gに関連するコンテンツ(例えば、玩具Gが登場するアニメーション)をユーザU11に付与する。また、付与部436は、玩具Gに関連するコンテンツとして、例えば、玩具Gの関連部品についてのクーポンを付与してもよい。   Here, assuming that the action determination unit 435 determines that the user U11 performs the cleaning action, specifically, it is determined that the user U11 cleans up the toy G, the giving unit 436 sends a predetermined point to the user U11. Grant Also, for example, the giving unit 436 may give the user U11 a reward associated with the toy G, which is an object that has been put away. The giving unit 436 gives the user U11 the content related to the toy G (for example, an animation in which the toy G appears). Moreover, the provision part 436 may provide the coupon about the related components of toy G as a content relevant to toy G, for example.

また、行動判定部435は、会話情報を分析することにより清掃行動の進捗状況を特定することができるため、清掃行動が開始されてから終了するまでの時間を算出することもできる。したがって、付与部436は、清掃行動が開始されてから終了するまでの時間が短いほど高い報酬を付与してもよい。これにより情報処理装置400は、ユーザに対して短時間での効率的な清掃行動を行わせることができる。なお、例えば、行動判定部435は、センサにより検出された音声データに基づき、例えば、掃除機が稼働しされてから停止されるまでの時間を、清掃行動が開始されてから終了するまでの時間として算出してもよい。   Further, since the action determination unit 435 can identify the progress status of the cleaning action by analyzing the conversation information, it can also calculate the time from the start of the cleaning action to the end thereof. Accordingly, the giving unit 436 may give a higher reward as the time from the start of the cleaning action to the end thereof is shorter. Thus, the information processing apparatus 400 can make the user perform an efficient cleaning action in a short time. In addition, for example, based on the voice data detected by the sensor, the action determination unit 435 determines, for example, a time from the start of the cleaning action to the end from the start of the cleaning action. It may be calculated as

また、付与部436は、ユーザU11ではなくユーザU12に報酬を付与してもよい。例えば、行動判定部435は、ユーザU12の発話「早く片付けなさい」に応じて、ユーザU11が清掃行動を行ったと判定したとする。これは、親子関係にあるユーザU12がユーザU11に対して清掃行動を行わせたことを示す。つまり、ユーザU11が清掃行動を行ったのは、ユーザU12の行動が影響しているといえる。また、ユーザU12が間接的に清掃行動を行ったともいえる。したがって、かかる場合には、付与部436は、ユーザU11ではなくユーザU12に報酬を付与する。   Furthermore, the granting unit 436 may grant a reward to the user U12 instead of the user U11. For example, it is assumed that the behavior determination unit 435 determines that the user U11 has performed a cleaning action in response to the utterance “Please put it away quickly” of the user U12. This indicates that the user U12 in a parent-child relationship has caused the user U11 to perform a cleaning action. That is, it can be said that the action of the user U12 affects the cleaning action performed by the user U11. In addition, it can be said that the user U12 indirectly performs the cleaning action. Therefore, in such a case, the giving unit 436 gives a reward to the user U12, not to the user U11.

例えば、ユーザU11は自分が清掃したにも拘らず、母のユーザU12に報酬が付与されると、これを不満に思い次回からは積極的に清掃するようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して効果的に清掃の動機付けを行うことができる。   For example, even if the user U11 is cleaned, if a reward is given to the user U12 of the mother, the user U11 may be dissatisfied with this and may be actively cleaned from the next time. As such, the information processing apparatus 400 can effectively motivate cleaning for the user.

〔4.変形例〕
上記第4の実施形態にかかる情報処理装置400は、上記第4の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置400の他の実施形態について説明する。
[4. Modified example]
The information processing apparatus 400 according to the fourth embodiment may be implemented in various different forms other than the fourth embodiment. Therefore, another embodiment of the information processing apparatus 400 will be described below.

〔4−1.購買情報に基づくコンテンツ付与〕
付与部436は、所定の対象者の購買情報に基づくコンテンツを報酬として付与してもよい。ここでは、例えば、ユーザU12が清掃行動を行ったと判定されたことにより、ユーザU12が報酬付与対象でるものとする。かかる場合、例えば、付与部436は、ユーザU12の購買情報を取得する。購買情報には、これまでにユーザU12が購入した商品に関する情報が含まれる。例えば、付与部436は、情報処理装置400と連携する所定のサーバ装置(例えば、ショッピングサーバ)から購買情報を取得してもよい。また、付与部436は、情報処理装置400が購買情報を記憶する記憶部を有している場合には、かかる記憶部から購買情報を取得してもよい。
[4-1. Content assignment based on purchasing information]
The granting unit 436 may grant content based on purchase information of a predetermined target person as a reward. Here, for example, it is assumed that the user U12 is to be rewarded because it is determined that the user U12 has performed the cleaning action. In such a case, for example, the assignment unit 436 acquires purchase information of the user U12. The purchase information includes information on products that the user U12 has purchased so far. For example, the assignment unit 436 may acquire purchase information from a predetermined server device (for example, a shopping server) that cooperates with the information processing device 400. Furthermore, when the information processing apparatus 400 has a storage unit that stores purchase information, the assignment unit 436 may acquire the purchase information from the storage unit.

そして、付与部436は、例えば、購買情報に基づき、ユーザU12が最近購入した商品に関するコンテンツ(例えば、クーポン)を報酬として付与する。このような商品は、現時点においてユーザU12の興味が高まっている商品といえるため、この商品に関するコンテンツを報酬を付与することで、情報処理装置400を管理する事業主は、ユーザU12から高評価を得ることができる。また、情報処理装置400は、ユーザU12に対して今後も効果的に清掃を行わせることができる。   Then, the granting unit 436 grants, as a reward, content (for example, a coupon) related to a product recently purchased by the user U12 based on purchase information, for example. Since it can be said that such a product is a product in which the interest of the user U12 is increasing at the current point of time, the business owner who manages the information processing apparatus 400 highly evaluates the user U12 You can get it. Further, the information processing apparatus 400 can effectively make the user U12 clean.

なお、付与部436は、例えば、ユーザU12が月額性の動画コンテンツを購入している場合には、報酬として、翌月の動画コンテンツの一部を無料で閲覧可能にしてもよい。   Note that, for example, when the user U12 purchases monthly moving image content, the giving unit 436 may be able to view part of the moving image content of the next month for free as a reward.

〔4−2.グループ内での報酬競争〕
また、付与部436は、所定のグループに属する複数のユーザのうち、清掃行動を行ったユーザに報酬を付与するとともに、当該所定のグループに属する複数のユーザ間で報酬の競争を行えるよう制御する。この点について、図16の例を用いて説明する。
[4-2. Compensation competition within the group]
Further, the granting unit 436 grants a reward to the user who has performed the cleaning action among the plurality of users belonging to the predetermined group, and controls so that the competition of the reward can be performed among the plurality of users belonging to the predetermined group . This point will be described using the example of FIG.

図16の例では、ユーザU11、U12、U13、U14が一つの家族ID「FM1」で識別されており、このことはユーザU11、U12、U13、U14が家族関係にあることを示している。また、図5の例も適用して、年齢や性別からユーザU11が弟、ユーザU13が兄、ユーザU12が母、ユーザU14が父である。そして、これら4人のユーザの端末装置10には、アプリAPがインストールされているものとする。   In the example of FIG. 16, the users U11, U12, U13, and U14 are identified by one family ID “FM1”, which indicates that the users U11, U12, U13, and U14 are in a family relationship. Further, the example of FIG. 5 is also applied, and the user U11 is a younger brother, the user U13 is a younger brother, the user U12 is a mother, and the user U14 is a father according to the age and sex. The application AP is installed on the terminal devices 10 of these four users.

このような状態のおいて、付与部436は、4人の各ユーザが、アプリAPを介して、自身も含め他の3人のユーザの現在のポイントを確認可能なように制御する。これにより、例えば、ユーザU11は、アプリAPを利用して、自身が現在「50ポイント」であることに加え、ユーザU12が「15ポイント」、ユーザU13が「35ポイント」、ユーザU14が「40ポイント」であることを確認することができる。ユーザU12〜U14についても同様である。これにより、兄であるユーザU13は、弟に負けじとポイントをより増やそうと積極的に清掃行動を行うようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して競争意識を高めることができるため、効果的に清掃行動を行わせることができる。   In such a state, the giving unit 436 controls so that each of the four users can confirm the current points of the other three users, including themselves, via the application AP. Thus, for example, in addition to the fact that the user U11 is currently "50 points" using the application AP, for example, the user U12 is "15 points", the user U13 is "35 points", and the user U14 is "40 points". It can be confirmed that it is a point. The same applies to the users U12 to U14. As a result, the user U13 who is the brother may be able to actively perform the cleaning action to lose points and increase the points more than the brother. From such a thing, since the information processing apparatus 400 can raise competition awareness to a user, it can perform cleaning action effectively.

〔4−3.不正防止〕
また、付与部436は、清掃を必要とする状況が故意に発生させられた状態において、ユーザが清掃行動を行ったと判定された場合には、報酬を付与しない。例えば、付与部436は、行動判定部435によりユーザU11が清掃行動を行ったと判定された場合、その清掃行動の対象になった状況、すなわち清掃を必要とする状況が故意に発生させられたか否かを判定する。
[4-3. Fraud prevention]
Furthermore, the granting unit 436 does not grant a reward when it is determined that the user has performed a cleaning action in a state where the situation requiring the cleaning has been intentionally generated. For example, when the action determination unit 435 determines that the user U11 has performed the cleaning action, the giving unit 436 determines whether the situation targeted for the cleaning action, that is, the situation requiring the cleaning has been generated intentionally. Determine if

清掃を必要とする状況は、自然と汚れてゆくことに比べ短時間に作り上げることができる。また、清掃を必要とする状況を作り上げる際には、独自の音声パターンが発生する。一例を示すと、例えば、箱の中に入っている物品を一気にまき散らす態様を示す御瀬尾パターンである。例えば、付与部436は、センサにより検出された音声データを解析することにより、この独自の音声パターンを特定した場合には、ユーザU11が清掃を必要とする状況を故意に発生させたと判定する。すなわち、付与部436は、ユーザU11が報酬欲しさに不正を働いたと判定し、報酬を付与しない。これにより、情報処理装置400は、不正に報酬を得ようする行為を防止することができる。   Situations that require cleaning can be made in less time than naturally contaminating. Also, when creating a situation that requires cleaning, unique voice patterns occur. One example is, for example, the Mitsuo pattern showing an aspect in which an article contained in a box is scattered at a stretch. For example, when the assigning unit 436 identifies this unique voice pattern by analyzing voice data detected by the sensor, the assigning unit 436 determines that the user U11 has intentionally generated a situation that requires cleaning. That is, the granting unit 436 determines that the user U11 has made a fraudulent effort to pay for compensation, and does not give a reward. Thereby, the information processing apparatus 400 can prevent an act of illegally obtaining a reward.

〔4−4.学習〕
また、付与部436は、付与した報酬と、清掃行動との関係性を学習してもよい。例えば、付与部436は、どのようなものを報酬として付与した場合に、よりユーザが清掃行動を起こしやすいかといった傾向を学習する。そして、付与部436は、学習した関係性に基づいて、報酬を付与する。これにより、情報処理装置400は、どのような報酬を付与することが効果的であるのかを特定することができるため、特定した報酬を利用してより効果的に清掃行動を行わせることができる。なお、かかる学習処理は、付与部436以外の処理部によって行われてもよい。例えば、情報処理装置400は、学習処理を行う学習部を有してもよい。
[4-4. Learning]
Also, the giving unit 436 may learn the relationship between the granted reward and the cleaning action. For example, the giving unit 436 learns a tendency as to what kind of thing is given as a reward as the user is more likely to take a cleaning action. Then, the granting unit 436 grants a reward based on the learned relationship. Thus, the information processing apparatus 400 can specify what kind of reward it is effective to perform, and therefore can perform cleaning action more effectively using the specified reward. . Note that such learning processing may be performed by a processing unit other than the adding unit 436. For example, the information processing apparatus 400 may have a learning unit that performs learning processing.

〔5.効果〕
第4の実施形態にかかる情報処理装置400は、行動判定部435と、付与部436とを有する。行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
[5. effect〕
An information processing apparatus 400 according to the fourth embodiment includes an action determination unit 435 and an assignment unit 436. The action determination unit 435 determines whether the user has performed a cleaning action. The giving unit 436 gives a reward to a predetermined target person regarding the cleaning action based on the determination result by the action determination unit 435.

これにより、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。   Thereby, the information processing apparatus 400 can effectively make the user clean.

(その他)
〔1.スタンドアローン〕
上記の各実施形態における情報処理装置100〜400によって行われる情報処理は、例えば、室内に設置される所定のデバイスがスタンドアローンで実行してもよい。かかる所定のデバイスとは、例えば、音声デバイスDV1や清掃ロボットRB1である。
(Others)
[1. Stand alone]
The information processing performed by the information processing apparatuses 100 to 400 in each of the above-described embodiments may be performed by, for example, a predetermined device installed indoors in a stand-alone manner. The predetermined device is, for example, an audio device DV1 or a cleaning robot RB1.

〔2.ハードウェア構成〕
また、上述してきた各実施形態にかかる情報処理装置100、200、300および400は、例えば図18に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図18は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[2. Hardware configuration]
The information processing apparatuses 100, 200, 300, and 400 according to the above-described embodiments are realized by, for example, a computer 1000 configured as shown in FIG. Hereinafter, the information processing apparatus 100 will be described as an example. FIG. 18 is a hardware configuration diagram showing an example of a computer 1000 for realizing the functions of the information processing apparatus 100. The computer 1000 includes a CPU 1100, a RAM 1200, a ROM 1300, an HDD 1400, a communication interface (I / F) 1500, an input / output interface (I / F) 1600, and a media interface (I / F) 1700.

CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。   The CPU 1100 operates based on a program stored in the ROM 1300 or the HDD 1400 to control each part. The ROM 1300 stores a boot program executed by the CPU 1100 when the computer 1000 starts up, a program depending on the hardware of the computer 1000, and the like.

HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。   The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The communication interface 1500 receives data from another device via the communication network 50, sends the data to the CPU 1100, and transmits data generated by the CPU 1100 to the other device via the communication network 50.

CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。   The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input / output interface 1600. The CPU 1100 acquires data from an input device via the input / output interface 1600. The CPU 1100 also outputs the generated data to the output device via the input / output interface 1600.

メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 1700 reads a program or data stored in the recording medium 1800 and provides the CPU 1100 with the program via the RAM 1200. The CPU 1100 loads such a program from the recording medium 1800 onto the RAM 1200 via the media interface 1700 and executes the loaded program. The recording medium 1800 is, for example, an optical recording medium such as a digital versatile disc (DVD) or a phase change rewritable disc (PD), a magneto-optical recording medium such as a magneto-optical disk (MO), a tape medium, a magnetic recording medium, or a semiconductor memory. Etc.

例えば、コンピュータ1000が第1の実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。   For example, when the computer 1000 functions as the information processing apparatus 100 according to the first embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 130 by executing a program loaded on the RAM 1200. Further, data in the storage unit 120 is stored in the HDD 1400. The CPU 1100 of the computer 1000 reads these programs from the recording medium 1800 and executes them, but as another example, these programs may be acquired from another device via the communication network 50.

また、例えば、コンピュータ1000が第2の実施形態にかかる情報処理装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部230の機能を実現する。   Also, for example, when the computer 1000 functions as the information processing apparatus 200 according to the second embodiment, the CPU 1100 of the computer 1000 implements the function of the control unit 230 by executing the program loaded on the RAM 1200. .

〔3.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[3. Other]
Among the processes described in each of the above embodiments, all or part of the process described as being automatically performed can be manually performed, or all the processes described as being manually performed. Alternatively, some of them can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。   Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to that shown in the drawings, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.

以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   Although the embodiments of the present application have been described in detail based on the several drawings, these are merely examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the disclosure of the invention. It is possible to implement the invention in other improved forms.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。   In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.

10 端末装置
100 情報処理装置
121 ユーザ情報記憶部
122 環境情報記憶部
131 第1取得部
132 推定部
133 判定部
134 通知部
200 情報処理装置
235 第2取得部
300 情報処理装置
335 判定結果取得部
336 出力制御部
400 情報処理装置
423 報酬情報記憶部
435 行動判定部
436 付与部
10 terminal device 100 information processing device 121 user information storage unit 122 environment information storage unit 131 first acquisition unit 132 estimation unit 133 determination unit 134 notification unit 200 information processing device 235 second acquisition unit 300 information processing device 335 determination result acquisition unit 336 Output control unit 400 Information processing apparatus 423 Remuneration information storage unit 435 Behavior determination unit 436 Addition unit

Claims (18)

ユーザが清掃行動を行ったか否かを判定する判定部と、
前記判定部による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与部と
を有することを特徴とする情報処理装置。
A determination unit that determines whether the user has performed a cleaning action;
An information processing apparatus, comprising: a grant unit that rewards a predetermined target person regarding the cleaning action based on the determination result by the determination unit.
前記ユーザの周辺環境を示す環境情報を取得する取得部をさらに有し、
前記判定部は、前記取得部により取得された環境情報に基づいて、前記ユーザが清掃行動を行ったか否かを判定する
ことを特徴とする請求項1に記載の情報処理装置。
The system further includes an acquisition unit that acquires environment information indicating the environment around the user,
The information processing apparatus according to claim 1, wherein the determination unit determines whether the user has performed a cleaning action based on the environmental information acquired by the acquisition unit.
前記取得部は、前記ユーザの周辺環境を示す環境情報として、前記ユーザの会話に関する情報である会話情報を取得する
ことを特徴とする請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the acquisition unit acquires, as environment information indicating a peripheral environment of the user, conversation information which is information related to a conversation of the user.
前記取得部は、所定の音声デバイスに対して入力された会話を示す前記会話情報を取得する
ことを特徴とする請求項3に記載の情報処理装置。
The information processing apparatus according to claim 3, wherein the acquisition unit acquires the conversation information indicating a conversation input to a predetermined voice device.
前記判定部は、前記ユーザによる清掃行動の進捗状況を示す進捗情報が前記会話情報に含まれる場合に、前記進捗情報に基づいて、前記ユーザが清掃行動を行ったか否かを判定する
ことを特徴とする請求項3または4に記載の情報処理装置。
The determination unit is configured to determine whether or not the user performed the cleaning action based on the progress information when progress information indicating a progress status of the cleaning action by the user is included in the conversation information. The information processing apparatus according to claim 3 or 4.
前記判定部は、前記ユーザと所定の関係を有する関係者の音声が登録されている場合に、前記会話情報に対応する音声データであって前記関係者の音声データに基づいて、前記ユーザが清掃行動を行ったか否かを判定する
ことを特徴とする請求項3〜5のいずれか1つに記載の情報処理装置。
When the voice of a person having a predetermined relationship with the user is registered, the determination unit is the voice data corresponding to the conversation information, and the user cleans the voice based on the voice data of the person. The information processing apparatus according to any one of claims 3 to 5, wherein it is determined whether or not an action has been performed.
前記取得部は、前記ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する
ことを特徴とする請求項2〜6のいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 2 to 6, wherein the acquisition unit acquires environmental information detected by a predetermined sensor function as environmental information indicating a peripheral environment of the user. .
前記判定部は、前記所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、前記ユーザが清掃行動を行ったと判定する
ことを特徴とする請求項7に記載の情報処理装置。
The determination unit is characterized in that the user performs the cleaning action when the environmental information detected by the predetermined sensor function indicates that the predetermined object has been returned to the home position. The information processing apparatus according to claim 7.
前記付与部は、前記清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する
ことを特徴とする請求項1〜8のいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 8, wherein the giving unit gives, as a reward, content related to the object cleaned up by the cleaning action.
前記付与部は、前記清掃行動が開始されてから終了するまでの時間に応じた報酬を付与する
ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 9, wherein the giving unit gives a reward according to a time from the start of the cleaning action to the end of the cleaning action.
前記付与部は、前記判定部により前記ユーザが清掃行動を行ったと判定された場合に、前記清掃行動に関する所定の対象者として、前記ユーザまたは前記ユーザと所定の関係性を有する関係者に報酬を付与する
ことを特徴とする請求項1〜10のいずれか1つに記載の情報処理装置。
The giving unit rewards the user or a person having a predetermined relationship with the user as a predetermined target person regarding the cleaning action when the determination unit determines that the user has performed the cleaning action. The information processing apparatus according to any one of claims 1 to 10, wherein the information processing apparatus is provided.
前記付与部は、前記関係者が前記ユーザに対して清掃行動を行わせた場合には、前記関係者に報酬を付与する
ことを特徴とする請求項11に記載の情報処理装置。
The information processing apparatus according to claim 11, wherein the granting unit grants a reward to the person concerned when the person concerned causes the user to perform a cleaning action.
前記付与部は、前記所定の対象者の購買情報に基づくコンテンツを報酬として付与する
ことを特徴とする請求項11または12に記載の情報処理装置。
The information processing apparatus according to claim 11, wherein the giving unit gives, as a reward, content based on purchase information of the predetermined target person.
前記付与部は、所定のグループに属する複数のユーザのうち、清掃行動を行ったユーザに報酬を付与するとともに、当該所定のグループに属する複数のユーザ間で報酬の競争を行えるよう制御する
ことを特徴とする請求項1〜13のいずれか1つに記載の情報処理装置。
The giving unit gives a reward to a user who has performed a cleaning action among a plurality of users who belong to a predetermined group, and controls so that a competition of the remuneration can be performed between a plurality of users who belong to the predetermined group. The information processing apparatus according to any one of claims 1 to 13, which is characterized by the following.
前記付与部は、清掃を必要とする状況が故意に発生させられた状態において、前記ユーザが清掃行動を行ったと判定された場合には、報酬を付与しない
ことを特徴とする請求項1〜14のいずれか1つに記載の情報処理装置。
The giving unit does not give a reward when it is determined that the user has performed a cleaning action in a state where a situation requiring cleaning is intentionally generated. The information processing apparatus according to any one of the above.
前記付与部により付与された報酬と、清掃行動との関係性を学習する学習部をさらに有し、
前記付与部は、前記学習部により学習された関係性に基づいて、報酬を付与する
ことを特徴とする請求項1〜15のいずれか1つに記載の情報処理装置。
It further has a learning unit that learns the relationship between the reward given by the giving unit and the cleaning action,
The information processing apparatus according to any one of claims 1 to 15, wherein the giving unit gives a reward based on the relationship learned by the learning unit.
情報処理装置が実行する情報処理方法であって、
ユーザが清掃行動を行ったか否かを判定する判定工程と、
前記判定工程による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与工程と
を含むことを特徴とする情報処理方法。
An information processing method executed by the information processing apparatus;
A determination step of determining whether the user has performed a cleaning action;
A granting step of giving a reward to a predetermined target person regarding the cleaning action based on the judgment result of the judging step.
ユーザが清掃行動を行ったか否かを判定する判定手順と、
前記判定手順よる判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
A determination procedure for determining whether the user has performed a cleaning action;
An information processing program causing a computer to execute a granting procedure for rewarding a predetermined target person regarding the cleaning action based on a determination result by the determination procedure;
JP2017244518A 2017-12-20 2017-12-20 Information processing equipment, information processing methods and information processing programs Active JP6903563B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017244518A JP6903563B2 (en) 2017-12-20 2017-12-20 Information processing equipment, information processing methods and information processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244518A JP6903563B2 (en) 2017-12-20 2017-12-20 Information processing equipment, information processing methods and information processing programs

Publications (2)

Publication Number Publication Date
JP2019113896A true JP2019113896A (en) 2019-07-11
JP6903563B2 JP6903563B2 (en) 2021-07-14

Family

ID=67223325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244518A Active JP6903563B2 (en) 2017-12-20 2017-12-20 Information processing equipment, information processing methods and information processing programs

Country Status (1)

Country Link
JP (1) JP6903563B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11687844B2 (en) 2020-05-25 2023-06-27 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164629A (en) * 2013-02-27 2014-09-08 Casio Comput Co Ltd Information processor, and degree of putting in order determination method and program
JP2017091102A (en) * 2015-11-06 2017-05-25 日本電信電話株式会社 Incentive granting device, incentive granting method, and incentive granting program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164629A (en) * 2013-02-27 2014-09-08 Casio Comput Co Ltd Information processor, and degree of putting in order determination method and program
JP2017091102A (en) * 2015-11-06 2017-05-25 日本電信電話株式会社 Incentive granting device, incentive granting method, and incentive granting program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11687844B2 (en) 2020-05-25 2023-06-27 Fujifilm Business Innovation Corp. Information processing apparatus, information processing system, and non-transitory computer readable medium

Also Published As

Publication number Publication date
JP6903563B2 (en) 2021-07-14

Similar Documents

Publication Publication Date Title
US20180300677A1 (en) Systems and methods for receiving retail products at a delivery destination
RU2636102C2 (en) System and method for assistance in determination of location and selection of desired subject in storage
Kaplan et al. The relationship between extroversion and the tendency to anthropomorphize robots: A Bayesian analysis
KR20200014852A (en) Methods and systems to provide custom field information exchange
KR101710733B1 (en) Targeted advertising using object identification
JP2019113897A (en) Device, method, and program for processing information
US11925304B2 (en) Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
JP2019113901A (en) Device, method, and program for processing information
JP2019113900A (en) Device, method, and program for processing information
CN106127521A (en) A kind of information processing method and data handling system
JP2019113896A (en) Device, method, and program for processing information
KR20220040225A (en) Cooking device and operating method thereof
CN106202216A (en) A kind of data processing method and data handling system
Tan et al. Feeling green: Empathy affects perceptions of usefulness and intention to use a robotic recycling bin
JP2020013530A (en) Animal information sharing system, animal information sharing device and program
Komori et al. Experimental Study on Estimation of Opportune Moments for Proactive Voice Information Service Based on Activity Transition for People Living Alone
JP2020017258A (en) Information processing method, information processing apparatus, and information processing program
KR20220085038A (en) System for managing sanitary condition according to analysis of behavior in kitchen based on ai
JP2015133611A (en) Notification system, notification program, notification method and notification device
Bergeron et al. RFID based activities of daily living recognition
Lupetti et al. From a Robotic Vacuum Cleaner to Robot Companion: Acceptance and Engagement in Domestic Environments
Lo et al. Developing a collaborative robotic dishwasher cell system for restaurants
JP6240291B1 (en) Determination apparatus, determination method, and determination program
Ogino et al. Smart store understanding consumer’s preference through behavior logs
JP2023142083A (en) Cleaning support system and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210623

R150 Certificate of patent or registration of utility model

Ref document number: 6903563

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250