JP2019113896A - Device, method, and program for processing information - Google Patents
Device, method, and program for processing information Download PDFInfo
- Publication number
- JP2019113896A JP2019113896A JP2017244518A JP2017244518A JP2019113896A JP 2019113896 A JP2019113896 A JP 2019113896A JP 2017244518 A JP2017244518 A JP 2017244518A JP 2017244518 A JP2017244518 A JP 2017244518A JP 2019113896 A JP2019113896 A JP 2019113896A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- information processing
- cleaning
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000004140 cleaning Methods 0.000 claims abstract description 375
- 230000010365 information processing Effects 0.000 claims abstract description 315
- 230000009471 action Effects 0.000 claims abstract description 151
- 230000007613 environmental effect Effects 0.000 claims description 42
- 230000006870 function Effects 0.000 claims description 31
- 230000002093 peripheral effect Effects 0.000 claims description 21
- 238000003672 processing method Methods 0.000 claims description 4
- 230000033001 locomotion Effects 0.000 description 49
- 230000008569 process Effects 0.000 description 39
- 238000010415 tidying Methods 0.000 description 22
- 230000006399 behavior Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 19
- 241000607479 Yersinia pestis Species 0.000 description 16
- 230000008451 emotion Effects 0.000 description 14
- 238000004891 communication Methods 0.000 description 12
- 230000007340 echolocation Effects 0.000 description 10
- 230000004044 response Effects 0.000 description 10
- 239000000428 dust Substances 0.000 description 9
- 239000000126 substance Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000008450 motivation Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000011109 contamination Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000002699 waste material Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 239000010813 municipal solid waste Substances 0.000 description 2
- 102100034033 Alpha-adducin Human genes 0.000 description 1
- 241001674044 Blattodea Species 0.000 description 1
- 101000799076 Homo sapiens Alpha-adducin Proteins 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 101000629598 Rattus norvegicus Sterol regulatory element-binding protein 1 Proteins 0.000 description 1
- 230000009193 crawling Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 239000003599 detergent Substances 0.000 description 1
- 210000003746 feather Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 235000021190 leftovers Nutrition 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000002791 soaking Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明の実施形態は、情報処理装置、情報処理方法および情報処理プログラムに関する。 Embodiments of the present invention relate to an information processing apparatus, an information processing method, and an information processing program.
近年、インターネットの普及に伴い、生活支援を行う各種サービスが提供されるようになってきている。例えば、ユーザに対して片付けに関する支援を行う技術がある。 In recent years, with the spread of the Internet, various services for supporting daily life have come to be provided. For example, there is a technology for providing a user with a cleaning assistance.
特許文献1には、片付けロボットが、人の指示に応じて、または、自発的に、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けることを可能とする技術が開示されている。 Patent Document 1 discloses a technology that enables the tidying robot to store any daily-use article at any position according to a person's instruction or voluntarily, and to tidy up any empty space. It is done.
しかしながら、上記の従来技術では、ユーザに対して効果的に清掃を行わせることができるとは限らない。例えば、上記の従来技術は、ユーザの位置を検出し傍に移動して待機し、ユーザの発話内容を認識し手先を出して物品を受取り、物品を撮影し、ユーザによるユーザ名及び物品名の発話を認識し、直近の保管場所に物品を保管することを可能にする可能にする片付けロボットに関する技術である。 However, in the above-described prior art, it is not always possible to make the user effectively clean. For example, the above-mentioned prior art detects the position of the user, moves to the side and stands by, recognizes the user's speech content, takes out the hand to receive the article, photographs the article, and uses the user name and article name by the user. It is a technique relating to a tidying robot that recognizes speech and makes it possible to store articles in the immediate storage location.
このような上記の従来技術では、片付けロボットに対して、人の指示に応じ、任意の位置で、任意の日常用物品を預かり、任意の空きスペースに片付けさせることができたとしても、ユーザに対して効果的に清掃を行わせることができるとは限らない。 In the above-described prior art, even if it is possible to store any daily-use article at any position according to a person's instruction to the cleaning-up robot and allow the user to clean up any space, it is possible for the user to However, it is not always possible to clean up effectively.
本願は、上記に鑑みてなされたものであって、ユーザに対して効果的に清掃を行わせることを目的とする。 This application is made in view of the above, and aims at making a user perform cleaning effectively.
本願にかかる情報処理装置は、ユーザが清掃行動を行ったか否かを判定する判定部と、前記判定部による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与部とを有することを特徴とする。 An information processing apparatus according to the present application includes: a determination unit that determines whether or not a user performs a cleaning action; and an assignment unit that rewards a predetermined target person regarding the cleaning action based on a determination result by the determination unit. It is characterized by having.
実施形態の一態様によれば、ユーザに対して効果的に清掃を行わせることができるといった効果を奏する。 According to one aspect of the embodiment, an effect is provided that the user can be effectively cleaned.
(情報処理の概要)
〔1.全体の概要〕
以下に、本願にかかる情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ説明する。なお、この実施形態により本願にかかる情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の実施形態において、同一の部位には同一の符号を付し、重複する説明は省略される。
(Overview of information processing)
[1. Overview of the whole]
Hereinafter, an information processing apparatus, an information processing method, and a mode for carrying out an information processing program according to the present application (hereinafter, referred to as “embodiment”) will be described with reference to the drawings. Note that the information processing apparatus, the information processing method, and the information processing program according to the present application are not limited by the embodiments. Moreover, in the following embodiments, the same reference numerals are given to the same parts, and the overlapping description will be omitted.
まず、図1を用いて、実施形態にかかる情報処理の概要を示す。図1は、実施形態にかかる情報処理の一例を示す図である。実施形態にかかる情報処理は、図1に示す情報処理装置SVによって行われる。例えば、情報処理装置SVは、サーバ装置やクラウドシステム等、単数または複数の装置により実現され、移動通信網や無線LAN(Local Area Network)等のネットワークを介して、例えば、ユーザの居る部屋に置かれている音声デバイス、移動可能な作業ロボット(清掃ロボット)等をはじめとする各種のIoT(Internet of Things)デバイス、あるいは、ユーザが使用する端末装置10と通信可能な情報処理装置である。
First, an outline of information processing according to the embodiment will be shown using FIG. FIG. 1 is a diagram illustrating an example of information processing according to the embodiment. The information processing according to the embodiment is performed by the information processing device SV shown in FIG. For example, the information processing device SV is realized by a single device or a plurality of devices such as a server device or a cloud system, and is placed in, for example, a room where the user is located via a network such as a mobile communication network or a wireless LAN (Local Area Network). It is an information processing apparatus capable of communicating with various kinds of Internet of Things (IoT) devices including an audio device, a movable work robot (cleaning robot) and the like, or a
なお、情報処理装置SVによって行われる情報処理の詳細については、4つの実施形態、具体的には、第1の実施形態、第2の実施形態、第3の実施形態、第4の実施形態を用いて後ほど詳細に説明する。また、第1の実施形態に対応する情報処理を「処理A」、第2の実施形態に対応する情報処理を「処理B」、第3の実施形態に対応する情報処理を「処理C」、第4の実施形態に対応する情報処理を「処理D」とする。 The details of the information processing performed by the information processing apparatus SV are the four embodiments, specifically, the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment. The details will be described later. Also, the information processing corresponding to the first embodiment is "processing A", the information processing corresponding to the second embodiment is "processing B", and the information processing corresponding to the third embodiment is "processing C", The information processing corresponding to the fourth embodiment is referred to as “process D”.
端末装置10は、ユーザによって利用される情報処理装置である。端末装置10は、例えば、スマートフォンや、タブレット型端末や、ノート型PC(Personal Computer)や、デスクトップPCや、携帯電話機や、PDA(Personal Digital Assistant)等である。また、端末装置10には、情報処理装置SVとの情報の送受信を可能にするアプリケーション(以下、「アプリAP」と表記する)が予めインストールされているものとする。
The
なお、以下の各実施形態で使用する「清掃」および「清掃行動」といった文言は、例えば、散らかっている物を所定の場所に戻す作業である「片付け」や、床や壁等に付着した汚れやホコリを除去する作業である「掃除」の両方の概念を含むものとする。 In addition, words such as "cleaning" and "cleaning behavior" used in each of the following embodiments may be, for example, "clean up" which is an operation of returning a scattered object to a predetermined place, dirt attached to a floor or a wall, etc. The concept of “cleaning”, which is the task of removing dust, shall be included.
〔2.第1の実施形態に対応する情報処理の概要〕
まず、第1の実施形態に対応する情報処理(処理A)が行われる前提について説明する。清掃が苦手であるといったユーザは多いわけであるが、このように清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因である場合がある。
[2. Outline of Information Processing Corresponding to First Embodiment]
First, the premise on which the information processing (processing A) corresponding to the first embodiment is performed will be described. There are many users who are not good at cleaning, but it is not possible to make a decision as to when and what kind of cleaning should be done by yourself if you feel that you are not good at cleaning like this. Sometimes it's because you can't figure out where to start.
したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置SVは、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。 Therefore, the information processing device SV acquires environment information indicating the user's peripheral environment, and determines the necessity of cleaning for the user based on the acquired environment information. Then, the information processing device SV notifies the user of information related to cleaning based on the determination result. In one example, the information processing apparatus SV acquires conversation information, which is information related to the user's conversation, as environment information indicating the user's peripheral environment. Such conversation information is, for example, conversation information input to a predetermined voice device.
そして、情報処理装置SVは、取得した会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定し、清掃の必要があると判定した場合には、例えば、上記の所定の音声デバイスを介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。 Then, the information processing device SV determines the necessity of cleaning for the user based on the content of the conversation indicated by the acquired conversation information, and when it is determined that the cleaning is necessary, for example, Notifies the user of the cleaning situation such as how unorganized (or dirty) the room is through a predetermined voice device, and also notifies that it is time to clean Do.
以下では、図1の例を用いて、処理Aの一例について説明する。図1は、処理A〜処理Dの全ての概念図を含むものであるが、このうち処理Aを説明する図1(a)に着目する。図1(a)では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11を息子、ユーザU12を母親とする。ユーザU11およびU12を区別する必要が無い場合には、単に「ユーザ」と表記する。 Below, an example of the process A is demonstrated using the example of FIG. FIG. 1 includes all conceptual diagrams of the processes A to D. Attention is paid to FIG. 1 (a) for explaining the process A among them. In FIG. 1A, users U11 and U12 exist in the living room R. The users U11 and U12 have a parent-child relationship, and the user U11 is a son and the user U12 is a mother. When there is no need to distinguish between the users U11 and U12, they are simply described as "user".
また、居室Rには、音声デバイスDV1が置かれている。音声デバイスDV1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する音声インタラクション型の装置である。また、音声デバイスDV1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。 In the room R, a voice device DV1 is placed. The voice device DV1 is, for example, a voice interaction type device that realizes dialogue with the user by replying to the voice input from the user. In addition, the audio device DV1 enables transmission and reception of information with the information processing device SV via the Internet.
例えば、音声デバイスDV1は、ユーザの周辺環境を示す環境情報を検出する。図1(a)の例では、ユーザの周辺環境を示す環境情報は、居室R内がどのような環境にあるかを示す情報であればどのような情報であってもよい。例えば、環境情報は、居室R内において物品が置かれている状況、居室R内でのホコリの状況、居室R内に居るユーザの会話状況等、各種の状況を示す情報であってよい。 For example, the audio device DV1 detects environment information indicating the user's peripheral environment. In the example of FIG. 1A, the environment information indicating the user's peripheral environment may be any information as long as the information indicates what environment the interior of the living room R is in. For example, the environment information may be information indicating various situations such as the situation where articles are placed in the living room R, the situation of dust in the living room R, and the conversation situation of the user in the living room R.
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報(ユーザの会話内容を示す情報)を検出(ステップS11)し、検出した環境情報を情報処理装置SVに送信する(ステップS12)。これにより、情報処理装置SVは、環境情報を取得することができる。 For example, the audio device DV1 detects information on the user's conversation (information indicating the user's conversation content) as environment information (step S11), and transmits the detected environment information to the information processing apparatus SV (step S12). Thus, the information processing device SV can acquire environment information.
そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する(ステップS13)。図1(a)の例では、情報処理装置SVは、ユーザが居室Rを清掃する必要があるか否かといった清掃の必要性を判定する。例えば、情報処理装置SVは、取得した環境情報として会話情報の中に「こんなに散らかして片付けなさい」といったテキストが含まれている場合には、居室Rが散らかっていると推定するとともに、ユーザが居室Rを清掃する必要があると判定する。そして、情報処理装置SVは、ユーザが居室Rを清掃する必要があると判定した場合には、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS14)。 Then, the information processing device SV determines the necessity of cleaning for the user based on the acquired environment information (step S13). In the example of FIG. 1A, the information processing apparatus SV determines the necessity of cleaning, such as whether the user needs to clean the living room R or not. For example, the information processing apparatus SV estimates that the room R is scattered and the user is in the room, when the acquired environment information includes the text such as "Scrap and clean up" in the conversation information. Determine that R needs to be cleaned. Then, when it is determined that the user needs to clean the living room R, the information processing device SV performs notification control to notify the user of information related to cleaning to the voice device DV1 (step S14).
かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置SVは、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。 In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "The room is dirty. Please clean it." Thereby, the user U11 is pointed out not only by the user U12 who is the mother but also by the third party (the audio device DV1), so it becomes easy to realize that it is necessary to clean the living room R. In other words, the information processing device SV can effectively recognize that the timing for cleaning the user U11 is now.
〔3.第2の実施形態に対応する情報処理の概要〕
次に、第2の実施形態に対応する情報処理(処理B)について説明する。まずは、処理Bの前提について説明する。上記の通り、ユーザが清掃に苦手意識を感じるのは、いつ、どのような清掃を行うべきかといった判断を自身で行うことができなかったり、清掃に着手するきっかけがつかめないことが原因であるが、例えば、清掃しようと思い立ったとしても、部屋に物が散乱している場合には、清掃ロボットを稼働させることすらできない。
[3. Outline of Information Processing Corresponding to Second Embodiment]
Next, information processing (process B) corresponding to the second embodiment will be described. First, the premise of the process B will be described. As described above, the reason why the user is not good at cleaning is because they can not make decisions themselves about when and what kind of cleaning should be done, or they can not find an opportunity to start cleaning. However, even if it is intended to clean, for example, if an object is scattered in the room, the cleaning robot can not even be operated.
したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。一例を示すと、情報処理装置SVは、環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する。 Therefore, the information processing device SV acquires environmental information indicating the user's peripheral environment and detected by the movable work robot, and estimates the cleaning situation of the user in the room based on the acquired environmental information. Do. In one example, the information processing device SV acquires, as environmental information, environmental information detected by a predetermined sensor function of the work robot. Then, the information processing device SV estimates the cleaning situation of the user in the room based on the acquired environment information.
なお、かかる環境情報は、例えば、部屋の中で物がどのような状況で置かれているかといったことを示す情報や、物が起これていることにより作業ロボットがどれだけ移動できるかといった移動距離に関する情報(例えば、移動距離の移り変わり等)である。また、かかる環境情報は、第1の実施形態に対応する情報処理で説明した環境情報、すなわち会話情報であってもよい。 Note that such environmental information is, for example, information indicating in what situation a thing is placed in a room, or a movement distance such as how much the working robot can move when the thing is upset. Information (for example, transition of movement distance, etc.). Further, such environment information may be the environment information described in the information processing corresponding to the first embodiment, that is, conversation information.
以下では、図1の例を用いて、処理Bの一例について説明する。ここでは、処理Bを説明する図1(b)に着目する。図1(b)でも図1(a)と同様に居室Rを例に用いている。不図示であるがユーザU11およびU12も存在するものとする。 Below, an example of the process B is demonstrated using the example of FIG. Here, attention is paid to FIG. 1 (b) for explaining the process B. Also in FIG. 1 (b), a living room R is used as an example as in FIG. 1 (a). Although not shown, it is assumed that users U11 and U12 are also present.
また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置SVとの情報の送受信を可能とする。また、清掃ロボットRB1は、例えば、ユーザから入力された音声に対して返答することによりユーザとの対話を実現する機能を有してもよい。 In the living room R, a cleaning robot RB1 (an example of a movable work robot) is placed. The cleaning robot RB1 includes various sensors, and detects environmental information using the sensors while moving around in the living room R. Examples of various sensors include a camera, a dust sensor, an echo location (ultrasonic position sensor) and the like. In addition, the cleaning robot RB1 enables transmission and reception of information with the information processing apparatus SV via the Internet. In addition, the cleaning robot RB1 may have a function to realize dialogue with the user by, for example, responding to the voice input from the user.
例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置SVに送信する(ステップS22)。これにより、情報処理装置SVは、環境情報を取得することができる。 For example, the cleaning robot RB1 detects arrangement information in which objects are arranged on the floor of the living room R as environmental information (step S21). Briefly, the cleaning robot RB1 photographs the floor of the living room R. Then, the cleaning robot RB1 transmits the detected environment information, that is, the photographed image to the information processing apparatus SV (step S22). Thus, the information processing device SV can acquire environment information.
そして、情報処理装置SVは、取得した環境情報に基づいて、居室Rの清掃状況(整頓状況)を推定する(ステップS23)。例えば、情報処理装置SVは、撮影画像を解析することにより、居室Rの整頓状況を推定する。ここでは、情報処理装置SVは、整頓状況「悪」と推定したとすると、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS24)。 Then, the information processing device SV estimates the cleaning situation (ordering situation) of the living room R based on the acquired environment information (step S23). For example, the information processing device SV estimates the tidy status of the living room R by analyzing the captured image. Here, assuming that the information processing device SV estimates that the orderly state is “bad”, the information processing device SV controls the cleaning robot RB1 to notify the user of information related to cleaning (step S24).
かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、清掃ロボットRB1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置SVは、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置SVは、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置SVは、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。 In response to the notification control, the cleaning robot RB1 outputs voice information on cleaning. As an example, the cleaning robot RB1 outputs an audio such as "room is not organized. Please clean up after cleaning up." Note that the information processing device SV may perform notification control so as to notify the user of information regarding cleaning to the audio device DV1. As a result, the information processing device SV can recognize the tidying state of the room, and for example, when the tidying state of the room is bad, the user can be notified of that. As a result, the information processing device SV can make the user aware that it is necessary to first arrange the room.
ここで、第1の実施形態に対応する情報処理(処理A)は、環境情報として、ユーザの会話情報に基づき室内の清掃状況を推定する処理を含むものであった。一方で、第2の実施形態に対応する情報処理(処理B)は、環境情報として、作業ロボットにより検出された環境情報(特に物の配置に関する情報)に基づき室内の清掃状況を推定するものである。したがって、処理Bは処理Aのバリエーションの一つといえる。 Here, the information processing (process A) corresponding to the first embodiment includes the process of estimating the cleaning situation in the room based on the conversation information of the user as the environment information. On the other hand, the information processing (process B) corresponding to the second embodiment is to estimate the cleaning condition of the room based on the environmental information (in particular, information on the arrangement of objects) detected by the work robot as the environmental information. is there. Therefore, the process B can be said to be one of the variations of the process A.
〔4.第3の実施形態に対応する情報処理の概要〕
次に、第3の実施形態に対応する情報処理(処理C)について説明する。まずは、処理Cの前提について説明する。なかなか部屋が片付けられない、あるいは掃除できないといったユーザは多いわけであるが、この原因として、例えば、部屋に物が散乱していることによりどのような実害があるかといったことを認識できていないことや、そもそも清掃を行うための動機付けが見当たらないといったことが考えられる。
[4. Outline of Information Processing Corresponding to Third Embodiment]
Next, information processing (process C) corresponding to the third embodiment will be described. First, the premise of the process C will be described. There are many users who can not easily clean up the room or can not clean it, but it is not possible to recognize, for example, what kind of harm is caused by things being scattered in the room, for example. Or, it is possible that there is no motivation for cleaning in the first place.
したがって、情報処理装置SVは、ユーザに対して清掃の必要があるか否かが判定された判定結果を取得し、取得した判定結果がユーザが清掃の必要があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。 Therefore, the information processing device SV acquires the determination result in which it is determined whether or not the user needs to be cleaned, and the acquired determination result indicates that the user needs to be cleaned. Output control is performed to output information on cleaning at a predetermined position.
以下では、図1の例を用いて、処理Cの一例について説明する。ここでは、処理Cを説明する図1(c)に着目する。図1(c)でも図1(a)と同様に居室Rを例に用いている。居室Rには、音声デバイスDV1が置かれている。不図示であるがユーザU11およびU12も存在するものとする。 Below, an example of the process C is demonstrated using the example of FIG. Here, attention is paid to FIG. 1 (c) for explaining the process C. Also in FIG. 1 (c), a living room R is used as an example as in FIG. 1 (a). In the room R, a voice device DV1 is placed. Although not shown, it is assumed that users U11 and U12 are also present.
このような状態において、情報処理装置SVは、清掃の必要性を判定された判定結果を取得する(ステップS31)。具体的には、情報処理装置SVは、清掃の必要があるか否か判定された判定結果を取得する。図1(a)の例を用いると、ここでは、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、図1(a)の例では、情報処理装置SVは、判定結果として「清掃の必要がある」ことを取得する。 In such a state, the information processing device SV acquires the determination result in which the necessity for cleaning is determined (step S31). Specifically, the information processing device SV acquires the determination result as to whether or not cleaning is necessary. Using the example of FIG. 1A, the information processing apparatus SV determines in step S13 that cleaning is necessary here. Therefore, in the example of FIG. 1A, the information processing device SV acquires that “cleaning is necessary” as the determination result.
このように、判定結果が清掃の必要があることを示す場合に、情報処理装置SVは、音声デバイスDV1に対して、室内における所定の位置に清掃に関する情報を出力するよう出力制御する(ステップS32)。例えば、情報処理装置SVは、音声デバイスDV1に対して、清掃の必要がある要清掃位置に清掃に関する情報を出力するよう出力制御する。 As described above, when the determination result indicates that cleaning is necessary, the information processing device SV performs output control so as to output information regarding cleaning to a predetermined position in the room with respect to the audio device DV1 (step S32) ). For example, the information processing device SV performs output control on the audio device DV1 so as to output information related to cleaning to the cleaning-required position that needs cleaning.
かかる出力制御に応じて、音声デバイスDV1は、要清掃位置に清掃に関する情報を出力する。一例を示すと、音声デバイスDV1は、清掃に関する情報として有害物質(例えば、害虫)の影を要清掃位置に投影する(ステップS33)。これにより、情報処理装置SVは、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。 In response to the output control, the audio device DV1 outputs information regarding cleaning to the cleaning required position. If an example is shown, audio | voice device DV1 will project the shadow of a harmful substance (for example, pest) to the cleaning required position as information regarding cleaning (step S33). As a result, since the information processing apparatus SV can virtually experience the actual harm that any pest will occur if it is not cleaned, the motivation for cleaning can be effectively performed.
〔5.第4の実施形態に対応する情報処理の概要〕
次に、第4の実施形態に対応する情報処理(処理D)について説明する。まずは、処理Dの前提について説明する。清掃が苦手であるといったユーザは多く、このようなユーザの清掃のやる気を起こさせるのは困難である。したがって、情報処理装置SVは、ユーザの周辺環境を示す環境情報を取得する。そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定し、判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
[5. Outline of Information Processing Corresponding to Fourth Embodiment]
Next, information processing (process D) corresponding to the fourth embodiment will be described. First, the premise of the process D will be described. There are many users who are not good at cleaning, and it is difficult to motivate such users for cleaning. Therefore, the information processing device SV acquires environment information indicating the user's peripheral environment. Then, the information processing device SV determines whether or not the user has performed the cleaning action based on the acquired environment information, and based on the determination result, gives a reward to a predetermined target person regarding the cleaning action.
一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、所定の音声デバイスに対して入力された会話情報である。他の一例を示すと、一例を示すと、情報処理装置SVは、ユーザの周辺環境を示す環境情報として、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。 In one example, the information processing apparatus SV acquires conversation information, which is information related to the user's conversation, as environment information indicating the user's peripheral environment. Such conversation information is, for example, conversation information input to a predetermined voice device. As another example, the information processing apparatus SV acquires environment information detected by a predetermined sensor function of the work robot as environment information indicating a user's peripheral environment.
以下では、図1の例を用いて、処理Dの一例について説明する。ここでは、処理Dを説明する図1(d)に着目する。図1(d)でも図1(a)と同様に居室Rを例に用いており、居室RにはユーザU11およびU12が居る。また、居室Rには、音声デバイスDV1が置かれている。 Below, an example of the process D is demonstrated using the example of FIG. Here, attention is focused on FIG. 1 (d) for explaining the process D. Also in FIG. 1D, a living room R is used as an example as in FIG. 1A, and in the living room R, users U11 and U12 are present. In the room R, a voice device DV1 is placed.
処理Aと同様に、例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した環境情報を情報処理装置SVに送信する(ステップS42)。これにより、情報処理装置SVは、環境情報を取得することができる。 Similar to the processing A, for example, the voice device DV1 detects, as environment information, conversation information which is information related to the user's conversation (step S41), and transmits the detected environment information to the information processing apparatus SV (step S42) . Thus, the information processing device SV can acquire environment information.
そして、情報処理装置SVは、取得した環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置SVは、ユーザU11、U12のうちのどちらかが清掃行動を行ったか否かを判定する。また、情報処理装置SVは、ユーザU11が判定処理の処理対象とすることが予め設定されている場合には、ユーザU11が清掃行動を行ったか否かを判定する。 Then, the information processing device SV determines whether the user has performed the cleaning action based on the acquired environment information (step S43). For example, the information processing device SV determines whether one of the users U11 and U12 has performed the cleaning action. The information processing device SV determines whether the user U11 has performed a cleaning action when it is set in advance that the user U11 is to be a processing target of the determination process.
情報処理装置SVは、取得した環境情報として会話情報の中に、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」といったように声掛けした旨を示すテキストが含まれている場合には、ユーザU11が清掃行動を行ったと判定する。情報処理装置SVは、ユーザU11が清掃行動を行ったと判定した場合には、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置SVは、ユーザU11に対して所定ポイントを付与するととともに、ユーザU11の端末装置10においてアプリAPを介して現在の所持ポイントを確認可能な状態に制御する。
In the case where the information processing device SV includes, in the conversation information as the acquired environment information, a text indicating that the user U12 has called the user U11 "I was able to clean properly" and the like. Determines that the user U11 has performed a cleaning action. When it is determined that the user U11 has performed the cleaning action, the information processing device SV gives a predetermined reward to the user U11 (step S44). For example, the information processing device SV gives a predetermined point to the user U11, and controls the
このように、情報処理装置SVは、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置SVは、ユーザに対して効果的に清掃を行わせることができる。 As described above, when the user performs the cleaning action, the information processing device SV gives a reward to the user. Even if users who are not good at cleaning can get a reward, it is possible that their willingness to clean is higher. Therefore, the information processing device SV can effectively make the user clean.
〔6.処理順について〕
上記例では、情報処理装置SVは、処理A(および処理B)により清掃状況を推定し、清掃の必要性があると判定した場合には、処理Cにより有害物質を投影し、さらに、処理Dにより清掃行動が行われたと判定した場合には、報酬を付与する例を示した。しかしながら、処理順はこれに限定されず、例えば、情報処理装置SVは、処理Dにおいて清掃行動が行われたか否か判定するために、処理A(および処理B)を行ってよい。また、情報処理装置SVは、処理Dで清掃行動が行われていないと判定した場合には、処理Cを行うことにより清掃の動機付けを行ってもよい。このように、処理A〜処理Dはそれぞれ独立してなされる処理ではなく、適宜組み合わせて行われるものである。
[6. About processing order]
In the above example, the information processing apparatus SV estimates the cleaning status by processing A (and processing B), and when it is determined that there is a need for cleaning, projects the harmful substance by processing C, and further processing D In the case where it is determined that the cleaning action has been performed, an example of giving a reward is shown. However, the processing order is not limited to this, and for example, the information processing apparatus SV may perform the processing A (and the processing B) in order to determine whether the cleaning action has been performed in the processing D. When it is determined that the cleaning action is not performed in the process D, the information processing apparatus SV may perform the cleaning motivation by performing the process C. As described above, the processes A to D are not performed independently of one another, but are appropriately performed in combination.
(第1の実施形態)
〔1.情報処理の一例〕
次に、図2を用いて、第1の実施形態にかかる情報処理の一例を示す。図2は、第1の実施形態にかかる情報処理の一例を示す図である。第1の実施形態にかかる情報処理は、情報処理装置100によって行われる。情報処理装置100は、図1で説明した情報処理装置SVの一例である。また、図2は、図1(a)をより詳細に説明するものである。図2では、居室RにユーザU11およびU12が存在する。ユーザU11およびU12は親子関係にあり、ユーザU11が息子、ユーザU12が母親である。
First Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating an example of the information processing according to the first embodiment. The information processing according to the first embodiment is performed by the
また、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。 In the room R, a voice device DV1 is placed. In the living room R, a cleaning robot RB1 (an example of a movable work robot) is placed.
このような状態において、情報処理装置100は、ユーザの周辺環境を示す環境情報を取得し、取得した環境情報に基づいて、ユーザに対して清掃の必要性を判定する。そして、情報処理装置100は、判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。
In such a state, the
一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。かかる会話情報は、例えば、音声デバイスDV1に対して入力された会話を示す会話情報である。また、別の一例を示すと、一例を示すと、情報処理装置100は、ユーザの周辺環境を示す環境情報として、清掃ロボットRB1の有するセンサ機能により検出された環境情報を取得する。かかるセンサ機能により検出される環境情報としては、居室Rにおける物品の配置状況を示す配置情報等がある。
In one example, the
そして、情報処理装置100は、清掃の必要があると判定した場合には、例えば、音声デバイスDV1を介して、ユーザに対して、部屋がどれだけ整頓されていないか(あるいは、汚れているか)といった清掃状況を通知するとともに、今がまさに清掃を行うべきタイミングであることを通知する。
Then, when the
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出し(ステップS11)、検出した会話情報を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、会話情報を取得することができる。
For example, the voice device DV1 detects, as environment information, conversation information which is information related to the conversation of the user (step S11), and transmits the detected conversation information to the information processing apparatus 100 (step S12). Thus, the
また、例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報(物の散乱状況を示す情報ともいえる)を検出する(ステップS11)。簡潔に言えば、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した配置情報、すなわち撮影画像を情報処理装置100に送信する(ステップS12)。これにより、情報処理装置100は、配置情報を取得することができる。
In addition, for example, the cleaning robot RB1 detects, as environmental information, arrangement information in which objects are arranged on the floor of the living room R (also referred to as information indicating the scattering state of objects) (step S11). Briefly, the cleaning robot RB1 photographs the floor of the living room R. Then, the cleaning robot RB1 transmits the detected arrangement information, that is, the photographed image to the information processing apparatus 100 (step S12). Thus, the
次に、情報処理装置100は、取得した環境情報に基づいて、居室Rの清掃状況を推定することにより(ステップS13)、清掃の必要性があるか否かを判定する(ステップS14)。図2の例では、情報処理装置100は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ユーザU12は、居室Rが清掃されていないと認識しているからこそこのような言動を発している。したがって、情報処理装置100は、居室Rの清掃状況として、居室Rが散らかっていると推定する。また、図2の例では、情報処理装置100は、取得した撮影画像を解析することにより、居室Rの整頓状況「悪」と推定する。
Next, the
情報処理装置100は、このような推定結果に基づき、例えば、ユーザU11に対して清掃の必要があると判定する。情報処理装置100は、ユーザU11が居室Rを清掃する必要があると判定すると、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS15)。
The
かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU11の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。これにより、ユーザU11は母親であるユーザU12だけでなく、第3者(音声デバイスDV1)からも指摘されることになるため、居室Rを掃除する必要があることを実感し易くなる。言い換えれば、情報処理装置100は、ユーザU11に対して清掃を行うべきタイミングが今であることを効果的に認識させることができる。
In response to the notification control, the audio device DV1 outputs the information regarding the cleaning as an audio. As an example, the audio device DV1 outputs an audio such as "K (the name of the user U11), the room is dirty. Please clean it." Thereby, the user U11 is pointed out not only by the user U12 who is the mother but also by the third party (the audio device DV1), so it becomes easy to realize that it is necessary to clean the living room R. In other words, the
〔2.情報処理システムの構成〕
次に、図3を用いて、第1の実施形態にかかる情報処理システムの構成について説明する。図3は、第1の実施形態にかかる情報処理システム1の構成例を示す図である。図3に示すように、情報処理システム1は、端末装置10と、IoT(Internet of Things)機器20と、音声デバイス30と、移動ロボット40とを含む。端末装置10と、IoT機器20と、音声デバイス30と、移動ロボット40とは、ネットワークNを介して有線または無線により通信可能に接続される。なお、図3に示す情報処理システム1には、複数台の情報処理装置100が含まれてもよい。
[2. Configuration of information processing system]
Next, the configuration of the information processing system according to the first embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a configuration example of the information processing system 1 according to the first embodiment. As shown in FIG. 3, the information processing system 1 includes a
IoT機器20は、例えば、冷蔵庫、洗濯機等の各種家電製品である他、例えば、子供用の各種玩具である。音声デバイス30は、例えば、図1で説明した音声デバイスDV1である。また、移動ロボット40は、例えば、図1で説明した清掃ロボットRB1である。また、音声デバイス30および移動ロボット40は、室内に設置されるデバイスであり、各種センサを備えている。また、情報処理装置100は、図2で説明した情報処理を行うサーバ装置である。なお、図3に示す情報処理装置100は、後述する情報処理装置200、300、400に置き換えることができる。
The
〔3.情報処理装置の構成〕
次に、図4を用いて、第1の実施形態にかかる情報処理装置100について説明する。図4は、第1の実施形態にかかる情報処理装置100の構成例を示す図である。図4に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[3. Configuration of information processing apparatus]
Next, the
(通信部110について)
通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線または無線で接続され、例えば、端末装置10、IoT機器20、音声デバイス30、移動ロボット40との間で情報の送受信を行う。
(About communication unit 110)
The
(記憶部120について)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、ユーザ情報記憶部121と、環境情報記憶部122とを有する。
(About storage unit 120)
The
(ユーザ情報記憶部121について)
ユーザ情報記憶部121は、ユーザに関する各種情報を記憶する。ここで、図5に第1の実施形態にかかるユーザ情報記憶部121の一例を示す。図5の例では、ユーザ情報記憶部121は、「家族ID」、「ユーザID」、「デバイスID」、「住所」、「年齢」、「性別」といった項目を有する。
(About the user information storage unit 121)
The user
「家族ID」は、対応する「ユーザID」で示される各ユーザで構成される家族を識別する識別情報である。「ユーザID」は、対応する「家族ID」で示される家族に属するユーザを識別する識別情報である。「デバイスID」は、音声デバイス30や移動ロボット30等のデバイスを識別する識別情報である。「住所」、「年齢」、「性別」は、対応するユーザの居住地、年齢、性別を示す。
“Family ID” is identification information that identifies a family configured by each user indicated by the corresponding “user ID”. The “user ID” is identification information that identifies a user belonging to the family indicated by the corresponding “family ID”. The “device ID” is identification information for identifying a device such as the
すなわち、図5の例では、家族ID「FM1」によって識別される家族には、ユーザID「U11」、「U12」、「U13」、「U14」によって識別されるユーザが属しており、また、この家族の家には、デバイスID「DV1」によって示されるデバイス、デバイスID「RB1」によって示されるデバイスが置かれている例を示す。また、図5の例では、例えば、ユーザID「U11」によって識別されるユーザの住所「ADD1」、年齢「9歳」、性別「男」である例を示す。 That is, in the example of FIG. 5, the user identified by the user ID “U11”, “U12”, “U13”, “U14” belongs to the family identified by the family ID “FM1”, and In this family home, there is shown an example in which the device indicated by the device ID “DV1” and the device indicated by the device ID “RB1” are placed. Further, in the example of FIG. 5, for example, an example is shown in which the address “ADD1” of the user identified by the user ID “U11”, the age “9 years old”, and the sex “male”.
(環境情報記憶部122について)
環境情報記憶部122は、情報処理装置SV(ここでは、情報処理装置100)が取得した環境情報を記憶する。例えば、環境情報記憶部122は、情報処理装置SVが各種デバイスにより検出された環境情報を記憶する。ここで、図6に第1の実施形態にかかる環境情報記憶部122の一例を示す。図6の例では、環境情報記憶部122は、「家族ID」、「デバイスID」、「環境情報」といった項目を有する。
(About environmental information storage unit 122)
The environment
「家族ID」は、ユーザ情報記憶部121に記憶される「家族ID」に対応する。「デバイスID」は、ユーザ情報記憶部121に記憶される「デバイスID」に対応する。「環境情報」は、対応する「デバイスID」によって示されるデバイスによって検出された環境情報を示す。図6の例では、「環境情報」として、例えば、「DA1−11」といった概念記号を用いているが、実際には、撮影画像、ホコリの量、物が配置される配置位置を示す数値等が記憶される。
The “family ID” corresponds to the “family ID” stored in the user
すなわち、図6の例では、家族ID「FM1」によって識別される家族の家には、デバイスID「DV1」によって示されるデバイス(音声デバイスDV1)、デバイスID「RB1」によって示されるデバイス(清掃ロボットRB1)が置かれており、音声デバイスDV1により検出された環境情報「DA1−11」、清掃ロボットRB1により検出された環境情報「DA1−21」、「DA1−22」、「DA1−23」が取得された例を示す。 That is, in the example of FIG. 6, the device indicated by the device ID “DV1” (voice device DV1) and the device indicated by the device ID “RB1” (cleaning robot) in the family house identified by the family ID “FM1” Environment information “DA1-11” detected by the audio device DV1 and environment information “DA1-21”, “DA1-22” and “DA1-23” detected by the cleaning robot RB1 are placed. The acquired example is shown.
(制御部130について)
図4に戻り、制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About the control unit 130)
Returning to FIG. 4, the
図4に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図4に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図4に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 4, the
(第1取得部131について)
第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定の音声デバイスが有するセンサ機能により検出された環境情報を取得する。また、第1取得部131は、所定のセンサ機能により検出された環境情報として、室内における物品の配置状況を示す配置情報を取得する。
(About the first acquisition unit 131)
The
また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得する。
In addition, the
(推定部132について)
推定部132は、第1取得部131により取得された環境情報に基づいて、ユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。また、例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(About the estimation unit 132)
The
(判定部133について)
判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。判定部133は、推定部132による推定結果に基づいて、ユーザに対して清掃の必要性を判定する。
(Regarding the determination unit 133)
The
判定部133は、会話情報から検出された感情情報であってユーザの感情を示す感情情報に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、感情情報が負の感情を示す場合に、ユーザに対して清掃の必要性があると判定する。また、判定部133は、会話情報に含まれるキーワードに基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話情報の中に所定のキーワードが含まれる場合に、ユーザに対して清掃の必要性があると判定する。
The
また、判定部133は、会話情報によって示される会話の内容に基づいて、ユーザに対して清掃の必要性を判定する。例えば、判定部133は、会話の内容に基づいて、ユーザに対して会話の齟齬が検出された場合に、ユーザに対して清掃の必要性があると判定する。
Further, the
(通知部134について)
通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。例えば、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、清掃するよう提案する提案情報を通知する。また、通知部134は、判定部133により清掃の必要性があると判定された場合に、清掃に関する情報として、ユーザの清掃状況に関する情報を通知する。また、通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知する。
(About the notification unit 134)
The
〔4.情報処理における作用の一例〕
以下、図7に示すフローチャートを用いて、各処理部131〜134が実行・実現する処理の内容について説明する。図7は、第1の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図1の例を用いることにする。
[4. Example of action in information processing]
The contents of the processing executed and realized by each of the
まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS101)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS101;No)、取得するまで待機する。
First, the
一方、推定部132は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS101;Yes)、会話情報に基づいて、居室Rの清掃状況を推定する(ステップS102)。なお、推定部132は、清掃状況として、居室Rの整頓状況を推定してもよい。
On the other hand, when the
例えば、推定部132は、会話情報を分析することにより会話情報から、ユーザの感情を示す感情情報が検出された場合には、この感情情報に基づいて、清掃状況を推定する。例えば、推定部132は、感情情報として、負の感情を示す感情情報を検出した場合には、清掃状況「悪」と推定する。ここで、負の感情とは、例えば、「イライラ」といった怒りの感情である。人は汚れた環境に置かれると、精神が不安定になり怒りがこみ上げやすくなる傾向にある。このようなことから、推定部132は、負の感情が検出できたということは、それは居室Rが清掃できていない(汚れている)ことに起因する負の感情と判断し、この結果、清掃状況「悪」と推定する。
For example, when emotion information indicating a user's emotion is detected from the conversation information by analyzing the conversation information, the
なお、推定部132は、会話情報に含まれるキーワードに基づいて、清掃状況を推定することもできる。この点について、図2の例を用いて説明する。図2の例では、第1取得部131は、母親であるユーザU12が息子のユーザU11に対して「こんなに散らかして片付けなさい」と注意していることを示す会話情報を取得することになる。ここで、「散らかして」、「片付けなさい」といったキーワードは、居室Rが清掃できていない(汚れている)ことを示すキーワードといえる。会話情報にこのようなキーワードが含まれる場合、推定部132は、清掃状況「悪」と推定する。
The
また、推定部132は、会話情報によって示される会話の内容に基づいて、清掃状況を推定することもできる。例えば、推定部132は、会話情報を分析することにより、ユーザに対して会話の齟齬を検出した場合には、清掃状況「悪」と推定する。例えば、ユーザU12がU11に対して「汚いじゃない」と言ったことに対して、ユーザU11が「そんなことないよ」と反発したとする。つまり、ユーザU11の会話内容と、ユーザU12の会話内容との間に齟齬が生じているといえる。また、ユーザU11はユーザU12よりも立場が低い。したがって、かかる場合、推定部132は、ユーザU11に対して会話の齟齬を検出し、さらに清掃状況「悪」と推定する。
The
次に、判定部133は、ユーザに対して清掃の必要性を判定する(ステップS103)。例えば、判定部133は、推定部132により清掃状況「良」と推定された場合には、ユーザU1に対して清掃の必要が無いと判定し(ステップS103;No)、処理を終了する。一方、判定部133は、上記例のように、推定部132により清掃状況「悪」と推定された場合には、ユーザU1に対して清掃の必要があると判定し(ステップS103;Yes)。
Next, the
また、通知部134は、判定部133により清掃の必要があると判定された場合には(ステップS103;Yes)、ユーザU11に対して清掃に関する情報を通知する(ステップS104)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「K君(ユーザU1の名前)、部屋が汚れています。お掃除して下さい。」といった音声を出力する。
Further, when the determining
なお、ここでは、まず、推定部132が、第1取得部131により取得された環境情報に基づき清掃状況を推定し、判定部133が推定された推定結果に基づき清掃の必要性を判定する例を示した。しかし、判定部133は、推定部132の処理も含めて判定処理を行ってもよい。具体的には、判定部133は、第1取得部131により取得された環境情報から直接、清掃の必要性を判定してもよい。
Here, first, an example in which the
〔5.変形例〕
上記第1の実施形態にかかる情報処理装置100は、上記第1の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[5. Modified example]
The
〔5−1.センサ検出された環境情報に基づき判定〕
例えば、第1取得部131は、所定のセンサとして、エコーロケションにより検出された環境情報を取得してもよい。また、第1取得部131は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得してもよい。このような環境情報は、例えば、物の散乱状況を示す情報といえる。また、エコーロケーション用のセンサや、カメラは、例えば、図2の例では、音声デバイスDV1に設置されているものであってもよいし、清掃ロボットRB1に設置されているものであってもよい。また、このような環境情報は、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。
[5-1. Judgment based on environmental information detected by sensor]
For example, the
そして、推定部132は、これらセンサにより検出された環境情報に基づいて、清掃状況として、室内の整頓状況をより正確に推定することができる。例えば、第1取得部131によりエコーロケションにより検出された環境情報が取得されたとする。かかる場合、推定部132は、この環境情報に基づいて、ユーザの室内が清掃(整頓)されている程度を示す指標値を算出する。言い換えれば、推定部132は、ユーザの室内がどれだけ汚れているか(どれだけ整頓されていないか)といったことを示す指標値を算出する。
Then, the
例えば、推定部132は、エコーロケションにより検出された環境情報に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。また、例えば、推定部132は、カメラにより検出された環境情報(撮影画像)に基づき、居室Rの床面に置かれているものが多いほど、居室Rが汚れている(整頓されていない)ことを示すよう高い指標値を算出する。
For example, based on the environmental information detected by echo location, the
また、判定部133は、例えば、推定部132により算出された指標値が所定値を超えている場合に、ユーザU1に対して清掃の必要があると判定する。
Further, for example, when the index value calculated by the
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。
As a result, the
〔5−2.相対指標値に基づき判定〕
また、推定部132は、指標値として、ユーザの環境情報と当該ユーザとは異なる他のユーザの環境情報とを比較することにより算出された相対的な指標値に基づいて、清掃状況を推定してもよい。例えば、ユーザU11について指標値を算出したい場合、第1取得部131は、環境情報記憶部122からユーザU11以外の環境情報(例えば、エコーロケションにより検出された環境情報)も取得する。
5-2. Judgment based on relative index value]
Further, the
例えば、第1取得部131は、ユーザU11の環境情報、および、ユーザU11と同年代の環境情報を取得する。また、推定部132は、ユーザU11および他のユーザそれぞれについて指標値を算出し、算出した各指標値を比較することにより、ユーザU11について他のユーザと比較した相対的な指標値を算出する。また、判定部133は、推定部132により算出された相対的な指標値が所定値を超えている場合に、ユーザU11に対して清掃の必要があると判定する。
For example, the
また、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの行動を示す行動情報を取得してもよい。そして、判定部133は、行動情報が、所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を含む場合に、ユーザに対して清掃の必要性があると判定する。かかる行動情報は、各種センサによって検出された画像情報(あるいは動画情報)であって、ユーザの動き(例えば、床を歩く動き)を含む画像情報(あるいは動画情報)である。また、かかる行動情報は、各種センサによって検出された音声情報であって、ユーザの動き(例えば、床を歩く音声)を含む音声情報であってもよい。
In addition, the
一例を示すと、例えば、推定部132は、第1取得部131により取得された行動情報を解析することにより、行動情報から所定の行動パターンを示す行動情報、または、所定の行動を示す音情報を検出した場合には、清掃状況「悪」と推定する。所定の行動パターンとは、例えば、物探しをする際にみられる一定のパターンであり、同一箇所を何度も徘徊するといった行動パターンである。また、所定の行動を示す音情報とは、同一箇所を何度も徘徊するといった行動パターンを示す音情報、あるいは、物体にぶつかる際の物音である。
If an example is shown, for example, the
同一箇所を何度も徘徊するといった行動から、汚れている(整頓できていない)ため、ユーザが物探しをしていることが予測される。物体にぶつかる際の物音が頻繁に起こっているようであれば、それは部屋に物品が散在しているためと予測される。このようなことから、推定部132は、行動情報を解析することにより、同一箇所を何度も徘徊する行動パターンを検出した場合には、清掃状況「悪」と推定する。また、推定部132は、物体にぶつかる際の物音が所定回数を超えている場合には、清掃状況「悪」と推定する。また、判定部133は、推定部132により清掃状況「悪」と推定されたことにより、ユーザに対して清掃の必要があると判定する。
It is predicted that the user is searching for a thing because it is dirty (not organized) from the action of crawling the same part many times. If the noise of hitting an object seems to occur frequently, it is predicted that the room is interspersed with articles. From such a thing, when the
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して清掃の必要があるか否かを高精度に判定することができるため、一般的に清掃すべきと考えられる良いタイミングにユーザに対して効果的に清掃を行わせることができる。
As a result, the
〔5−3.経過時間に基づき判定〕
また、判定部は133は、ユーザが過去に清掃を行ってからの経過時間に基づいて、当該ユーザに対して清掃の必要性を判定してもよい。例えば、判定部133は、第1取得部131により取得された行動情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。例えば、判定部は133は、ユーザが清掃行動を行ったと判定してから現在までに「1ヶ月」が経過しており、さらに、この「1ヶ月」の間、ユーザが清掃行動を行ったとの判定を下していないとする。かかる場合、判定部133は、ユーザに対して清掃の必要があると判定する。
[5-3. Judging based on elapsed time]
In addition, the
これにより、第1の実施形態にかかる情報処理装置100は、ユーザが清掃が必要なタイミングを高精度に見極めることができるため、このようなタイミングにユーザに対して効果的に清掃を行わせることができる。
As a result, the
〔5−4.情報通知について〕
通知部134は、清掃状況に関する情報として、清掃状況に応じた清掃方法を提案する提案情報を通知してもよい。上記の通り、情報処理装置100は、室内にどのような物体が散在しているかを検出することができる。したがって、例えば、通知部134は、床にホコリが溜まっていることが検出された場合には、ぞうきんがけの方法を提案する。また、例えば、通知部134は、床に油分が付着していることが検出された場合には、どのような洗剤を使用するのがよいか提案する。また、例えば、通知部134は、床に衣類が散在していることが検出された場合には、衣類のたたみ方や収納方法を提案する。
[5-4. Information notification]
The
これにより、第1の実施形態にかかる情報処理装置100は、清掃の具体的な方法を提案することができるため、例えば、何から始めてよいかわからないといったユーザに対して、清掃意欲を高めるための動機付けを効果的に行うことができる。
As a result, the
〔6.効果〕
第1の実施形態にかかる情報処理装置100は、第1取得部131と、判定部133と、通知部134とを有する。第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。判定部133は、第1取得部131により取得された環境情報に基づいて、ユーザに対して清掃の必要性を判定する。通知部134は、判定部133による判定結果に基づいて、ユーザに対して清掃に関する情報を通知する。
[6. effect〕
The
これにより、第1の実施形態にかかる情報処理装置100は、ユーザに対して効果的に清掃を行わせることができる。
Thus, the
(第2の実施形態)
〔1.情報処理の一例〕
次に、図8を用いて、第2の実施形態にかかる情報処理の一例を示す。図8は、第2の実施形態にかかる情報処理の一例を示す図である。第2の実施形態にかかる情報処理は、情報処理装置200によって行われる。情報処理装置200は、図1で説明した情報処理装置SVの一例である。なお、第2の実施形態にかかる情報処理は、第1の実施形態にかかる情報処理装置100によって行われる情報処理のバリエーションの一つとも解せるものである。
Second Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the second embodiment will be described with reference to FIG. FIG. 8 is a diagram illustrating an example of the information processing according to the second embodiment. Information processing according to the second embodiment is performed by the
また、図8は、図1(b)をより詳細に説明するものである。図1(b)の例では、居室Rには、清掃ロボットRB1(移動可能な作業ロボットの一例)が置かれている。清掃ロボットRB1は、各種のセンサを備えており、居室R内を移動して周りながら、センサを用いて環境情報を検出する。各種のセンサの一例としては、カメラ、ホコリセンサ、エコーロケーション(超音波位置センサ)等がある。また、清掃ロボットRB1は、インターネットを介して、情報処理装置200との情報の送受信を可能とする。また、居室Rのは、音声デバイスDV1も置かれている。また、不図示であるが、居室Rには、ユーザU11およびU12も存在するものとする。
Also, FIG. 8 explains FIG. 1 (b) in more detail. In the example of FIG. 1B, the cleaning robot RB1 (an example of a movable work robot) is placed in the living room R. The cleaning robot RB1 includes various sensors, and detects environmental information using the sensors while moving around in the living room R. Examples of various sensors include a camera, a dust sensor, an echo location (ultrasonic position sensor) and the like. In addition, the cleaning robot RB1 enables transmission and reception of information with the
このような状態において、情報処理装置200は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得し、取得した環境情報に基づいて、室内におけるユーザの清掃状況を推定する推定する。例えば、情報処理装置200は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。なお、第1の実施形態にかかる情報処理装置100は、かかる環境情報を用いて、ユーザに対して清掃の必要性を判定する。つまり、情報処理装置200により取得される環境情報は、情報処理装置100による判定処理に用いられる一材料となり得るものである。
In such a state, the
例えば、清掃ロボットRB1は、環境情報として、居室Rの床面において物が配置されている配置情報を検出する(ステップS21)。一例を示すと、清掃ロボットRB1は、居室Rの床面を写真撮影する。そして、清掃ロボットRB1は、検出した環境情報、すなわち撮影画像を情報処理装置200に送信する(ステップS22)。これにより、情報処理装置200は、環境情報を取得することができる。
For example, the cleaning robot RB1 detects arrangement information in which objects are arranged on the floor of the living room R as environmental information (step S21). As an example, the cleaning robot RB1 takes a picture of the floor of the living room R. Then, the cleaning robot RB1 transmits the detected environment information, that is, the photographed image to the information processing apparatus 200 (step S22). Thus, the
そして、情報処理装置200は、取得した配置情報に基づいて、居室Rの清掃状況として、整頓状況を推定する(ステップS23)。例えば、情報処理装置200は、撮影画像を解析することにより、居室Rの整頓状況を推定する。例えば、情報処理装置200は、整頓状況「悪」と推定した場合には、整頓の必要があると判定する(ステップS24)。そして、情報処理装置200は、音声デバイスDV1に対して、清掃に関する情報をユーザに通知するよう通知制御する(ステップS25)。
Then, the
かかる通知制御に応じて、清掃ロボットRB1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。なお、情報処理装置200は、清掃ロボットRB1に対して、清掃に関する情報をユーザに通知するよう通知制御してもよい。これにより、情報処理装置200は、室内の整頓状況を認識することができるため、例えば、室内の整頓状況が悪い場合には、その旨をユーザに通知することができる。これにより、情報処理装置200は、ユーザに対してまずは室内の整理整頓をしなければならないことを自覚させることができる。
In response to the notification control, the cleaning robot RB1 outputs voice information on cleaning. As an example, the audio device DV1 outputs an audio such as "The room is not tidy. Please clean up before tidying up." The
〔2.情報処理装置の構成〕
次に、図9を用いて、第2の実施形態にかかる情報処理装置200について説明する。図9は、第2の実施形態にかかる情報処理装置200の構成例を示す図である。図9に示すように、情報処理装置200は、通信部110と、記憶部120と、制御部230とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an
(制御部230について)
制御部230は、CPUやMPU等によって、情報処理装置200内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
(About the control unit 230)
The
図9に示すように、制御部230は、第1取得部131と、推定部132と、判定部133と、通知部134と、第2取得部235を有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部230の内部構成は、図9に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部230が有する各処理部の接続関係は、図9に示した接続関係に限られず、他の接続関係であってもよい。
As shown in FIG. 9, the
(第2取得部235について)
第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。具体的には、第2取得部235は、作業ロボットが有する所定のセンサ機能により検出された環境情報を取得する。例えば、第2取得部235は、所定のセンサ機能として、エコーロケションにより検出された環境情報を取得する。また、例えば、第2取得部235は、所定のセンサ機能として、床面から所定の高さの範囲内に存在する存在物のみ撮影可能な状態で設置されたカメラにより撮影された撮影画像に含まれる環境情報を取得する。
(About the second acquisition unit 235)
The
例えば、第2取得部235は、環境情報として、物の散乱状況を示す情報、または室内における空中浮遊物に関する情報を取得する。物の散乱状況を示す情報は、例えば、室内に置いて物が配置されている配置情報と言い換えることができ、配置情報は、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報を含み得るものである。
For example, the
また、例えば、第2取得部235は、環境情報として、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、現時点での当該移動距離とを比較した比較結果を取得する。また、第2取得部235は、環境情報として、ユーザの会話に関する情報である会話情報であって作業ロボットに対して入力された会話情報を取得してもよい。また、第2取得部235は、移動可能な作業ロボットとして、所定の清掃用ロボットにより検出された環境情報を取得してもよい。なお、これまで説明してきた第2取得部235による取得処理は、情報処理装置100の第1取得部131によって行われてもよい。
In addition, for example, the
(推定部132について)
推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。例えば、推定部132は、室内におけるユーザの清掃状況として、室内におけるユーザの整頓状況を推定する。例えば、推定部132は、環境情報に基づき算出された指標値であってユーザの室内が清掃されている程度を示す指標値に基づいて、清掃状況を推定する。
(About the estimation unit 132)
The
(通知部134について)
通知部134は、推定部132による推定結果に基づいて、ユーザに対して清掃に関する情報を通知する。具体的には、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、推定結果に基づきユーザに対して清掃の必要性があると判定された場合には、清掃に関する情報として、清掃するよう提案する提案情報を通知する。例えば、通知部134は、清掃に関する情報として、片付けの手順を通知する。また、例えば、通知部134は、清掃に関する情報として、所定の清掃サービスに関する情報を通知する。
(About the notification unit 134)
The
〔3.情報処理における作用の一例〕
以下、図10に示すフローチャートを用いて、各処理部132〜134、235が実行・実現する処理の内容について説明する。図10は、第2の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図8の例を用いることにする。
[3. Example of action in information processing]
The contents of processing executed and realized by each of the
まず、第2取得部235は、環境情報として配置情報を取得したか否かを判定する(ステップS201)。例えば、第2取得部235は、清掃ロボットRB1により配置情報が送信されない間は、配置情報を取得しないと判定し(ステップS201;No)、取得するまで待機する。
First, the
ここで、例えば、清掃ロボットRB1は、室内Rにおいてエコーロケーションを行うことにより検出した配置情報を情報処理装置200に送信したことにより、第2取得部235は、配置情報を取得したと判定したものとする(ステップS201;Yes)。この配置情報には、配置情報は、どのような物体が、居室Rのどの位置に、どれだけ存在するかといった数値情報、そして、居室R内を清掃ロボットRB1が移動した移動距離が含まれるものとする。
Here, for example, the cleaning robot RB1 transmits the arrangement information detected by performing the echo location in the room R to the
このような状態において、第2取得部235は、過去の所定の時点での移動距離と、現時点での移動距離とを比較した比較結果を取得する(ステップS202)。具体的には、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離とを比較した比較結果を取得(算出)する。かかる比較結果も環境情報の一例と解することができるものである。
In such a state, the
第2取得部235は、清掃ロボットRB1から取得した配置情報を環境情報記憶部122に格納するため、例えば、過去の所定の時点での移動距離を示す情報(「過去距離情報」とする)と、現時点での移動距離を示す情報(「現在距離情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去距離情報と現在距離情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離が過去の所定の時点での移動距離より短くなっているか否かを判定する(ステップS203)。
Since the
ここで、第2取得部235は、「過去の所定の時点での移動距離<現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなっていないと(長くなったと)判定する(ステップS203;No)。かかる場合、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定し(ステップS204a)、処理を終了する。
Here, it is assumed that the
一方、第2取得部235は、「過去の所定の時点での移動距離>現時点での移動距離」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離が過去の所定の時点での移動距離より短くなったと判定する(ステップS203;Yes)。現時点での移動距離が過去の所定の時点での移動距離より短くなったことの原因としては、居室Rに散乱している物が増えたことにより、清掃ロボットRB1が移動可能なスペースが少なくなったことが考えられる。このようなことから、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する(ステップS204b)。なお、ステップS203での判定処理は、推定部132によって行われてもよい。
On the other hand, it is assumed that the
また、通知部134は、整頓状況「悪」と推定されたことにより、ユーザU11に対して清掃に関する情報を通知する(ステップS205)。例えば、通知部134は、音声デバイスDV1に対して、清掃に関する情報をユーザU11に通知するよう通知制御する。かかる通知制御に応じて、音声デバイスDV1は、清掃に関する情報を音声出力する。一例を示すと、音声デバイスDV1は、「部屋の整頓ができていません。整理整頓してからお掃除して下さい。」といった音声を出力する。
In addition, the
〔4.変形例〕
上記第2の実施形態にかかる情報処理装置200は、上記第2の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置200の他の実施形態について説明する。
[4. Modified example]
The
〔4−1.面積比較〕
上記の第2の実施形態では、第2の取得部235が、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離と、室内における作業ロボットの移動距離であって現時点での移動距離とを比較した比較結果を取得する例を示した。しかし、第2の取得部235は、室内における作業ロボットの移動距離であって過去の所定の時点での移動距離に基づく移動面積と、室内における前記作業ロボットの移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得する。第2の取得部235は、例えば、図10で示したステップS202、S203でかかる処理を行うことができる。
[4-1. Area comparison]
In the second embodiment described above, the
一例を示すと、第2取得部235は、居室Rにおける清掃ロボットRB1の移動距離であって過去の所定の時点での移動距離に基づく移動面積と、居室Rにおける清掃ロボットRB1の移動距離であって現時点での移動距離に基づく移動面積とを比較した比較結果を取得(算出)する。
As an example, the
第2取得部235は、過去の所定の時点での移動距離に基づく移動面積を示す情報(「過去面積情報」とする)と、現時点での移動距離に基づく移動面積を示す情報(「現在面積情報」とする)とを環境情報記憶部122から取得することができる。ここで、第2取得部235は、過去面積情報と現在面積情報を比較することにより比較結果を取得し、取得した比較結果から、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなっているか否かを判定する。
The
ここで、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積<現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面器が過去の所定の時点での移動距離に基づく移動面積より小さくなっていないと(大きくなったと)判定する。これにより、推定部132は、居室Rの整頓状況「良」(整頓できている)と推定する。
Here, it is assumed that the
一方、第2取得部235は、「過去の所定の時点での移動距離に基づく移動面積>現時点での移動距離に基づく移動面積」といった比較結果を取得したとする。かかる場合、第2取得部235は、現時点での移動距離に基づく移動面積が過去の所定の時点での移動距離に基づく移動面積より小さくなったと判定する。これにより、推定部132は、居室Rの整頓状況「悪」(整頓できていない)と推定する。
On the other hand, it is assumed that the
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。
Thus, the
〔4−2.間取比較〕
また、第2取得部235は、環境情報として、過去の所定の時点での室内の間取りと、現時点での当該室内の間取りとを比較した比較結果を取得してもよい。ここでは、説明の便宜上、移動可能な作業ロボットを空中飛行可能なロボット(例えば、ドローン)とする。かかる場合、このドローンは、例えば、定期的に居室Rを含む室内を上空から撮影することにより、かかる室内の間取り図を情報処理装置200に送信する。これにより、第2取得部235は、環境情報として、間取り図を取得することができる。
[4-2. Room arrangement comparison]
In addition, the
このような状態において、第2取得部235は、過去の所定の時点での間取り図と、現時点での間取り図とを比較した比較結果を取得し、取得した比較結果から、例えば、居室Rが過去の所定の時点より汚れているか否か、あるいは、過去の所定の時点と比較して居室Rの整頓状況が悪化しているか否かを判定する。例えば、第2取得部235は、居室Rにおいて過去の所定の時点での空きスペースの面積と、現時点での空きスペースの面積を算出し、これらを比較する。そして、推定部132は、第2取得部235により現時点での空きスペースの面積が過去の所定の時点での空きスペースの面積より小さくなっていると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
In such a state, the
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができるため、例えば、まずは整理整頓してから室内の掃除を行うといったように、ユーザに対して効率的な清掃行動を実現させることができる。
Thus, the
〔4−3.衝突回数〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数を取得する。そして、第2取得部235は、衝突回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど衝突回数は多くなると考えられる。したがって、推定部132は、第2取得部235により衝突回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
[4-3. Number of collisions]
Further, the
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。
As a result, the
〔4−4.移動回数に基づく推定〕
また、第2取得部235は、環境情報として、移動可能な作業ロボットが室内に置いて衝突した衝突回数のうち、衝突したことにより被衝突物が移動した回数を取得してもよい。例えば、第2取得部235は、清掃ロボットRB1が居室Rを所定時間移動した間に物体に衝突した衝突回数のうち、衝突したことにより被衝突物が移動した移動回数を取得する。なお、第2取得部235は、清掃ロボットRB1が同一物体に複数回衝突し、さらにその物体が移動した場合には、重複した移動回数を排除してもよい。
[4-4. Estimation based on the number of movements]
In addition, the
そして、第2取得部235は、移動回数が所定回数以上であるか否かを判定する。例えば、居室Rが整頓されておらず、物がより多く散在しているほど移動回数は多くなると考えられる。例えば、タンス等の大きな家具に清掃ロボットRB1が衝突しても、家具が動くことはない。一方で、整理整頓できていない原因の、例えば、ゴミや玩具に清掃ロボットRB1が衝突した場合、これらは衝突の力によって移動することになる。つまり、移動回数が多いほど、居室Rが整頓できていないことを示唆する。したがって、推定部132は、第2取得部235により移動回数が所定回数以上であると判定された場合には、居室Rの整頓状況「悪」(整頓できていない)と推定する。
Then, the
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を高精度に推定することができる。
As a result, the
〔5.効果〕
第2の実施形態にかかる情報処理装置200は、第2取得部235と、推定部132とを有する。第2取得部235は、ユーザの周辺環境を示す環境情報であって移動可能な作業ロボットにより検出された環境情報を取得する。推定部132は、第2取得部235により取得された環境情報に基づいて、室内におけるユーザの清掃状況を推定する。
[5. effect〕
An
これにより、第2の実施形態にかかる情報処理装置200は、室内の整頓状況を認識することができるため、ユーザに対して効率的な清掃行動を行わせることができる。
As a result, the
(第3の実施形態)
〔1.情報処理の一例〕
次に、図11を用いて、第3の実施形態にかかる情報処理の一例を示す。図11は、第3の実施形態にかかる情報処理の一例を示す図である。第3の実施形態にかかる情報処理は、情報処理装置300によって行われる。情報処理装置300は、図1で説明した情報処理装置SVの一例である。
Third Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the third embodiment will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of the information processing according to the third embodiment. The information processing according to the third embodiment is performed by the
また、図11は、図1(c)をより詳細に説明するものである。図11の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、照明デバイスR1が設置されている。また、不図示であるがユーザU11およびU12も存在するものとする。 Further, FIG. 11 explains FIG. 1 (c) in more detail. In the example of FIG. 11, in the living room R, the audio device DV1 is placed. In addition, in the room R, a lighting device R1 is installed. Although not shown, it is assumed that users U11 and U12 are also present.
このような状態において、情報処理装置300は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得し、取得した判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、情報処理装置300は、判定結果が清掃の必要性がある要清掃位置を示す場合に、要清掃位置または前記要清掃位置の周辺に清掃に関する情報を出力させる出力制御を行う。なお、ユーザに対して清掃の必要性があるか否かを判定する処理は、第1の実施形態にかかる情報処理装置100の判定部133によって行われる。
In such a state, the
情報処理装置300は、清掃の必要があるか否か判定された判定結果を取得する(ステップS31)。図1(a)の例では、情報処理装置SVは、ステップS13において清掃の必要があると判定している。したがって、かかる例の場合、情報処理装置300は、判定結果として「清掃の必要がある」ことを取得する。
The
ここで、これまで説明してきた通り、情報処理装置100は、取得した環境情報に基づいて、ユーザの清掃状況を推定し、推定結果に基づいて、清掃の必要性を判定する。したがって、判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。また、かかる判定結果は、情報処理装置300の所定の記憶部に記憶されている。
Here, as described above, the
また、第1の実施形態で説明したように、情報処理装置100は、環境情報に基づいて、ユーザの室内が清掃されている程度を示す指標値を算出し、この指標値に基づいて、清掃状況を推定する場合がある。したがって、判定結果には、室内が清掃されている程度を示す指標値も含まれてよい。
In addition, as described in the first embodiment, the
図11の例では、例えば、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。かかる場合、情報処理装置300は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する(ステップS32)。
In the example shown in FIG. 11, for example, the cleaning required area "AR1", the degree of cleaning "index value 8", the thing to be cleaned up (the things scattered in the room R) "4 cardboard boxes, 3 bags of waste bags" It is assumed that information is obtained as a determination result. In such a case, the
かかる出力制御に応じて、照明デバイスL1は、要清掃位置AR1に清掃に関する情報を出力する。一例を示すと、照明デバイスL1は、清掃に関する情報として有害物質(例えば、害虫)の影を投影する(ステップS33)。これにより、情報処理装置300は、清掃しないといずれ害虫が発生するといった実害を仮想的に体験させることができるため、清掃するための動機付けを効果的に行うことができる。
In response to the output control, the lighting device L1 outputs information regarding cleaning to the cleaning required position AR1. If an example is shown, the lighting device L1 will project the shadow of a harmful substance (for example, a pest) as information regarding cleaning (step S33). As a result, since the
〔2.情報処理装置の構成〕
次に、図12を用いて、第3の実施形態にかかる情報処理装置300について説明する。図12は、第3の実施形態にかかる情報処理装置300の構成例を示す図である。図12に示すように、情報処理装置300は、通信部110と、記憶部120と、制御部330とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an
(制御部330について)
制御部330は、CPUやMPU等によって、情報処理装置300内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部230は、例えば、ASICやFPGA等の集積回路により実現される。
(About the controller 330)
The
図12に示すように、制御部130は、第1取得部131と、推定部132と、判定部133と、通知部134と、判定結果取得部335と、出力制御部336とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部330の内部構成は、図12に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部330が有する各処理部の接続関係は、図12に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 12, the
(判定結果取得部335について)
判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。判定結果取得部335により取得される判定結果には、例えば、どのような物体が、室内のどの位置に、どれだけ存在するかといった数値情報が含まれる。判定結果には、例えば、室内が清掃されている程度を示す指標値も含まれている。
(About the determination result acquisition unit 335)
The determination result acquisition unit 335 acquires the determination result on whether or not the user needs to be cleaned. The determination result acquired by the determination result acquisition unit 335 includes, for example, numerical information such as how much an object is present at which position in the room. The determination result also includes, for example, an index value indicating the degree to which the room is cleaned.
(出力制御部336について)
出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。具体的には、出力制御部336は、室内において清掃の必要性がある要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。例えば、出力制御部336は、室内において清掃の必要性がある要清掃位置を示す位置情報が判定結果に含まれる場合に、要清掃位置または要清掃位置の周辺に清掃に関する情報を出力させる。
(About the output control unit 336)
The output control unit 336 performs output control to output information regarding cleaning at a predetermined position in the room when the determination result acquired by the determination result acquisition unit 335 indicates that the user needs cleaning. Specifically, the output control unit 336 outputs information about the cleaning at or around the cleaning required position where there is a need for cleaning in the room. For example, the output control unit 336 causes the cleaning-required position or the area around the cleaning-required position to output information about the cleaning-required, when the determination result includes position information indicating the cleaning-required position that needs cleaning in the room.
出力制御部336は、清掃に関する情報として、要清掃位置または要清掃位置の周辺に応じた情報を出力させる。例えば、出力制御部336は、清掃状況の程度に応じた態様で、清掃に関する情報を出力させる。より具体的には、出力制御部336は、清掃状況の程度を示す指標値に応じた態様で、清掃に関する情報を出力させる。また、例えば、出力制御部336は、清掃状況の程度に応じて、清掃に関する情報を出力する出力頻度、または、清掃に関する情報を出力する出力数を制御する。また、出力制御部336は、宅内において物品が散在していることによりユーザが清掃の必要性があると判定されている場合には、清掃に関する情報として、当該物品に応じた情報を出力させる。 The output control unit 336 outputs, as information on cleaning, information corresponding to the cleaning required position or the periphery of the cleaning required position. For example, the output control unit 336 causes the information on cleaning to be output in a mode according to the degree of the cleaning condition. More specifically, the output control unit 336 causes the information on cleaning to be output in a mode according to the index value indicating the degree of the cleaning condition. Also, for example, the output control unit 336 controls the output frequency at which information on cleaning is output or the number of outputs at which information on cleaning is output, in accordance with the degree of cleaning condition. Further, when it is determined that the user needs to be cleaned because the items are scattered in the house, the output control unit 336 causes the information related to the item to be output as the information related to the cleaning.
また、出力制御部336は、清掃に関する情報として、宅内の清掃が必要であることを示す情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の形状を示す有害物情報を投影させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物が動作する音声情報を出力させる。例えば、出力制御部336は、宅内の清掃が必要であることを示す情報として、所定の有害物の匂いを出力させる。 Further, the output control unit 336 outputs, as the information related to the cleaning, information indicating that the cleaning of the house is necessary. For example, the output control unit 336 causes harmful substance information indicating the shape of a predetermined harmful substance to be projected as the information indicating that home cleaning is necessary. For example, the output control unit 336 outputs, as information indicating that home cleaning is necessary, audio information in which a predetermined harmful substance operates. For example, the output control unit 336 causes the odor of a predetermined harmful substance to be output as information indicating that the cleaning of the house is necessary.
〔3.情報処理における作用の一例〕
以下、図13に示すフローチャートを用いて、各処理部335、336が実行・実現する処理の内容について説明する。図13は、第3の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図11の例を用いることにする。
[3. Example of action in information processing]
The contents of the processing executed and realized by each of the processing units 335 and 336 will be described below using the flowchart shown in FIG. FIG. 13 is a flowchart illustrating an example of the information processing according to the third embodiment. Also, the example of FIG. 11 is used as appropriate.
まず、判定結果取得部335は、清掃の必要があるか否か判定された判定結果を取得したか否かを判定する(ステップS301)。例えば、判定結果取得部335は、判定部133から清掃の必要があるか否か判定された判定結果を受信しない間は、判定結果を取得していないと判定し(ステップS301;No)、取得するまで待機する。
First, the determination result acquisition unit 335 determines whether or not the determination result determined as to whether or not cleaning is necessary has been acquired (step S301). For example, while the determination result acquisition unit 335 does not receive the determination result determined whether the cleaning is necessary or not from the
一方、出力制御部336は、判定結果取得部335により清掃の必要があるか否か判定された判定結果が取得されたと判定された場合には(ステップS301;Yes)、判定結果に基づいて、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う(ステップS302)。例えば、判定結果取得部335により取得された判定結果が、ユーザU11が清掃の必要性があることを示しているものとする。 On the other hand, when the output control unit 336 determines that the determination result determined by the determination result acquisition unit 335 whether or not cleaning is necessary is obtained (step S301; Yes), based on the determination result, Output control is performed to output information on cleaning at a predetermined position in the room (step S302). For example, it is assumed that the determination result acquired by the determination result acquisition unit 335 indicates that the user U11 needs to be cleaned.
また、判定結果取得部335により取得された判定結果には、要清掃領域「AR1」、清掃されている程度「指標値8」、片付けるべきもの(居室Rに散らばっている物)「段ボール箱4箱、ごみ袋3袋」といった情報が判定結果として得られているものとする。なお、清掃されている程度は、汚れている度合いとも言い換えることができ、指標値が大きいほど汚れがひどい、あるいは、整頓できていないことを示すものとする。 In addition, the judgment result acquired by the judgment result acquisition unit 335 includes the cleaning area “AR1”, the degree of cleaning “index value 8”, the thing to be cleaned up (the thing scattered in the room R) “cardboard box 4 It is assumed that information such as a box and 3 bags of waste bags is obtained as the determination result. The degree of being cleaned can be reworded as the degree of contamination, and the larger the index value, the worse the contamination, or the less orderly.
かかる場合、出力制御部336は、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。例えば、出力制御部336は、照明デバイスL1に対して、清掃の必要がある要清掃位置である領域AR1に清掃に関する情報を出力するよう出力制御する。図11の例では、領域AR1には、段ボール箱やごみ袋が積み重ねてある。このような場所(隙間)は、特定の害虫が身を潜めるには格好の場所といえる。したがって、、出力制御部336は、照明デバイスL1に対して、害虫の形状の影を投影させる。かかるがい害虫とは、例えば、一般家庭における生活空間に発生し得る害虫であればどのようなものでもよく、例えば、ゴキブリやカメムシ等である。なお、出力制御部336は、領域AR1がキッチン周辺である場合には、残飯等に集まり易いネズミの影を投影させてもよい。 In such a case, the output control unit 336 performs output control to output information related to cleaning at a predetermined position in the room. For example, the output control unit 336 performs output control on the lighting device L1 so as to output information on cleaning to the area AR1 which is a cleaning required position where cleaning is required. In the example of FIG. 11, the cardboard box and the waste bag are stacked in the area AR1. Such places (gaps) are good places for certain pests to hide. Therefore, the output control unit 336 causes the lighting device L1 to project the shadow of the shape of the pest. The pest may be, for example, any pest that can occur in the living space of a general household, such as cockroaches and bugs. Note that, when the area AR1 is around the kitchen, the output control unit 336 may project the shadow of a rat that easily collects on the leftovers and the like.
また、要清掃領域「AR1」における清掃の程度(汚れの程度、整頓されていない程度)が「指標値8」であることから、出力制御部336は、「指標値8」に応じた数の害虫を投影させてもよい。例えば、出力制御部336は、「指標値8」に対応させて「8匹」の害虫を投影させてもよい。また、出力制御部336は、害虫を投影させる頻度も制御してよい。出力制御部336は、「指標値8」の場合には「1分毎」に害虫を投影させ、「指標値7」の場合には「2分毎」に害虫を投影させる。また、出力制御部336は、かかる害虫の動作音(例えば、羽音や移動音)も同時に出力させてよい。 In addition, since the degree of cleaning (the degree of contamination, the degree of unorganizedness) in the cleaning required area “AR1” is “index value 8”, the output control unit 336 has the number corresponding to the “index value 8”. You may project pests. For example, the output control unit 336 may project “8 animals” pests in correspondence with “index value 8”. The output control unit 336 may also control the frequency of projecting the pest. The output control unit 336 causes the pest to be projected "every 1 minute" in the case of "index value 8", and causes the pest to be projected "every 2 minutes" in the case of "index value 7". In addition, the output control unit 336 may simultaneously output the operation sound (for example, feather noise or movement sound) of the pest.
また、領域AR1には、段ボール箱やごみ袋が積み重ねてあることから、領域AR1には日当たりが悪いことが考えられる。日当たりが悪い場所は、湿気が高くカビが発生しやすい。したがって、出力制御部336は、領域AR1付近にカビ臭を発生させてもよい。 In addition, since cardboard boxes and garbage bags are stacked in the area AR1, it is conceivable that the area AR1 is not sunny. Areas that are not sunny are humid and prone to mold. Therefore, the output control unit 336 may generate a musty odor near the area AR1.
〔4.変形例〕
上記第3の実施形態にかかる情報処理装置300は、上記第3の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置300の他の実施形態について説明する。
[4. Modified example]
The
〔4−1.NG条件(1)〕
上記の第2の実施形態では、出力制御部336が清掃に関する情報を出力させる例を示した。しかし、出力制御部336は、所定の条件下では、清掃に関する情報を出力させないよう出力制御する。例えば、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しないよう制御する。
[4-1. NG condition (1)]
In the second embodiment described above, the output control unit 336 outputs the information regarding the cleaning. However, the output control unit 336 performs output control so as not to output information regarding cleaning under a predetermined condition. For example, the output control unit 336 controls not to output information related to cleaning while cleaning is being performed.
例えば、ユーザU11がせっかく清掃を行っていたとしても、このとき害虫が投影されてしまうと、驚きやショック等でユーザU11が清掃意欲を無くす可能性がある。このような状況を防ぐために、出力制御部336は、清掃が行われている間は清掃に関する情報を出力しない。 For example, even if the user U11 performs thorough cleaning, if a pest is projected at this time, there is a possibility that the user U11 loses the willingness to clean due to a surprise or a shock. In order to prevent such a situation, the output control unit 336 does not output cleaning information while cleaning is being performed.
〔4−2.NG条件(2)〕
また、出力制御部336は、清掃の必要性がある要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しないよう制御する。例えば、要清掃位置が階段上である場合、ユーザが階段を使用している際に、この階段付近に害虫が投影されると、驚きでユーザが足を踏み外してしまう可能性があり危険である。したがって、出力制御部336は、要清掃位置が室内における所定のエリアに含まれる場合には、清掃に関する情報を出力しない。
[4-2. NG condition (2)]
Further, the output control unit 336 controls so as not to output information on the cleaning when the cleaning-required position requiring the cleaning is included in the predetermined area in the room. For example, when the cleaning position is on a stairway, if a pest is projected near the stairway while the user is using the stairway, the user may step out of the foot due to surprise, which is dangerous. . Therefore, the output control unit 336 does not output the information regarding the cleaning when the cleaning required position is included in the predetermined area in the room.
〔5.効果〕
第3の実施形態にかかる情報処理装置300は、判定結果取得部335と、出力制御部336とを有する。判定結果取得部335は、ユーザに対して清掃の必要性があるか否かが判定された判定結果を取得する。出力制御部336は、判定結果取得部335により取得された判定結果が、ユーザが清掃の必要性があることを示す場合に、室内における所定の位置に清掃に関する情報を出力させる出力制御を行う。
[5. effect〕
The
これにより、第3の実施形態にかかる情報処理装置300は、ユーザに対して清掃するための動機付けを効果的に行うことができる。
Thereby, the
(第4の実施形態)
〔1.情報処理の一例〕
次に、図14を用いて、第4の実施形態にかかる情報処理の一例を示す。図14は、第4の実施形態にかかる情報処理の一例を示す図である。第4の実施形態にかかる情報処理は、情報処理装置400によって行われる。情報処理装置400は、図1で説明した情報処理装置SVの一例である。
Fourth Embodiment
[1. Example of information processing]
Next, an example of the information processing according to the fourth embodiment will be described using FIG. FIG. 14 is a diagram illustrating an example of the information processing according to the fourth embodiment. The information processing according to the fourth embodiment is performed by the
また、図14は、図1(d)をより詳細に説明するものである。図14の例では、居室Rには、音声デバイスDV1が置かれている。また、居室Rには、ユーザU11およびU12がいる。 FIG. 14 explains FIG. 1 (d) in more detail. In the example of FIG. 14, a voice device DV1 is placed in the living room R. In the room R, there are users U11 and U12.
例えば、音声デバイスDV1は、環境情報として、ユーザの会話に関する情報である会話情報を検出(ステップS41)し、検出した会話情報を情報処理装置400に送信する(ステップS42)。これにより、情報処理装置400は、環境情報を取得することができる。
For example, the voice device DV1 detects, as environment information, conversation information which is information related to the user's conversation (step S41), and transmits the detected conversation information to the information processing apparatus 400 (step S42). Thus, the
次に、情報処理装置400は、ユーザが清掃行動を行ったか否かを判定する(ステップS43)。例えば、情報処理装置400は、取得した会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。
Next, the
一例を示すと、情報処理装置400は、所定対象物を定位置(元の場所)に戻すといった清掃行動を行ったか否かを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、清掃行動を行ったのは誰であるかも特定する。また、情報処理装置400は、例えば、清掃行動を行ったのはユーザU11であることを特定したとすると、ユーザU11が自主的に清掃行動を行ったのか、あるいは、誰かに指示されて清掃行動を行ったのかを判定する。また、情報処理装置400は、清掃行動を行ったと判定した場合、その清掃行動にかかった時間を特定する。
In one example, the
図14の例では、情報処理装置400は、掃除機をかけているユーザU11に対して、母親であるユーザU2が「ちゃんときれいに出来たわね」と声をかけたことを示す会話情報を取得することになる。このようなことから、情報処理装置400は、ユーザU11が清掃行動を行ったと判定し、ユーザU11に対して所定の報酬を付与する(ステップS44)。例えば、情報処理装置400は、報酬として所定のポイントを付与する場合、ユーザU11の端末装置10においてアプリAPを介して、付与したポイントおよび現在の累計ポイントを確認可能に制御する。
In the example of FIG. 14, the
このように、情報処理装置400は、ユーザが清掃行動を行った場合には、ユーザに対して報酬を付与する。掃除が苦手なユーザでも報酬がもらえるなら掃除しようとする気力がより高まることが考えられる。したがって、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。
As described above, when the user performs a cleaning action, the
〔2.情報処理装置の構成〕
次に、図15を用いて、第3の実施形態にかかる情報処理装置400について説明する。図15は、第4の実施形態にかかる情報処理装置400の構成例を示す図である。図15に示すように、情報処理装置400は、通信部110と、記憶部420と、制御部430とを有する。なお、図4で説明した情報処理装置100と、同一符号を有する処理部については、説明を省略または簡潔化する。
[2. Configuration of information processing apparatus]
Next, an
(記憶部420について)
記憶部420は、例えば、RAM、フラッシュメモリ等の半導体メモリ素子またはハードディスク、光ディスク等の記憶装置によって実現される。記憶部420は、ユーザ情報記憶部121と、環境情報記憶部122と、報酬情報記憶部423とを有する。
(Regarding storage unit 420)
The
(報酬情報記憶部423について)
報酬情報記憶部423は、ユーザに付与された報酬に関する情報を記憶する。ここで、図16に第4の実施形態にかかる報酬情報記憶部423の一例を示す。なお、本実施形態では、報酬は所定のポイントであるものとする。図16の例では、報酬情報記憶部423は、「家族ID」、「ユーザID」、「ポイント」といった項目を有する。
(Reward information storage unit 423)
The reward
「家族ID」、「ユーザID」については、図5の通りであるため、説明を省略する。「ポイント」は、対応するユーザに付与されている現在の累計ポイントを示す。すなわち、図16の例では、ユーザID「U11」によって識別されるユーザには、現在「50ポイント」付与されている例を示す。 The “family ID” and the “user ID” are as shown in FIG. "Point" indicates the current accumulated point given to the corresponding user. That is, in the example of FIG. 16, an example in which “50 points” is currently assigned to the user identified by the user ID “U11” is shown.
(制御部430について)
図15に戻り、制御部430は、CPUやMPU等によって、情報処理装置400内部の記憶装置に記憶されている各種プログラムがRAMを作業領域として実行されることにより実現される。また、制御部430は、例えば、ASICやFPGA等の集積回路により実現される。
(About the control unit 430)
Referring back to FIG. 15, the
図15に示すように、制御部430は、第1取得部131と、推定部132と、判定部133と、通知部134と、行動判定部435と、付与部436とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部430の内部構成は、図15に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部430が有する各処理部の接続関係は、図15に示した接続関係に限られず、他の接続関係であってもよい。
As illustrated in FIG. 15, the
(行動判定部435について)
行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。ここで、第1および第2の実施形態で説明した通り、第1取得部131は、ユーザの周辺環境を示す環境情報を取得する。例えば、第1取得部131は、ユーザの周辺環境を示す環境情報として、ユーザの会話に関する情報である会話情報を取得する。例えば、第1取得部131は、所定の音声デバイスに対して入力された会話を示す会話情報を取得する。また、第1取得部131は、ユーザの周辺環境を示す環境情報として、所定のセンサ機能により検出された環境情報を取得する。したがって、行動判定部435は、第1取得部131により取得された環境情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。
(About the action determination unit 435)
The
また、行動判定部435は、ユーザによる清掃行動の進捗状況を示す進捗情報が会話情報に含まれる場合に、この進捗情報に基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。また、行動判定部435は、ユーザと所定の関係を有する関係者の音声が登録されている場合に、会話情報に対応する音声データであって関係者の音声データに基づいて、ユーザが清掃行動を行ったか否かを判定する。また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定する。
In addition, when the progress information indicating the progress status of the cleaning action by the user is included in the conversation information, the
(付与部436について)
付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。
(About grant section 436)
The giving
また、付与部436は、行動判定部435によりユーザが清掃行動を行ったと判定された場合に、清掃行動に関する所定の対象者として、当該ユーザまたは当該ユーザと所定の関係性を有する関係者に報酬を付与する。例えば、付与部436は、関係者がユーザに対して清掃行動を行わせた場合には、この関係者に報酬を付与する。
Furthermore, when the
また、例えば、付与部436は、清掃行動により片付けられた対象物に関連するコンテンツを報酬として付与する。また、付与部436は、清掃行動が開始されてから終了するまでの時間に応じた報酬を付与する。
Also, for example, the giving
〔3.情報処理における作用の一例〕
以下、図17に示すフローチャートを用いて、情報処理装置400の各処理部が実行・実現する処理の内容について説明する。図17は、第4の実施形態にかかる情報処理の一例を示すフローチャートである。また、適宜、図14の例を用いることにする。
[3. Example of action in information processing]
The contents of processing executed and realized by each processing unit of the
まず、第1取得部131は、会話情報を取得したか否かを判定する(ステップS401)。例えば、第1取得部131は、音声デバイスDV1により会話情報から送信されない間は、会話情報を取得しないと判定し(ステップS401;No)、取得するまで待機する。
First, the
一方、行動判定部435は、音声デバイスDV1が会話情報を検出することにより第1取得部131が音声デバイスDV1から会話情報を取得した場合には(ステップS401;Yes)、会話情報に基づいて、ユーザが清掃行動を行ったか否かを判定する(ステップS402)。例えば、行動判定部435は、会話情報を分析することにより、会話情報が示す会話の内容に基づいて、ユーザが清掃行動を行ったか否かを判定する。
On the other hand, when the
ここで、会話情報がユーザによる清掃行動の進捗状況を示していたとする。一例を示すと、会話情報の中に、母親であるユーザU12がユーザU11に対して「早く片付けなさい」といった現在清掃行動が行われていないことを示す内容と、ユーザU12がユーザU11に対して「ちゃんときれいに出来たわね」と清掃行動が行われたことを示す内容とが経時変化に応じて含まれていたとする。かかる場合、行動判定部435は、ユーザU11が清掃行動を行ったと判定する。
Here, it is assumed that the conversation information indicates the progress of the cleaning action by the user. As an example, in the conversation information, content indicating that the mother user U12 is not currently performing a cleaning action such as "set up quickly" for the user U11, and the user U12 for the user U11 It is assumed that "I was able to clean properly" and a content indicating that the cleaning action was performed were included according to the change over time. In this case, the
また、行動判定部435は、判定処理に音声認識の技術を用いることができる。例えば、上記例では、行動判定部435は、会話情報に含まれる発話内容のうち、どの発話がユーザU12による発話であるかを特定している。このような特定が可能となるのは、例えば、情報処理装置400に対して、ユーザU11と家族関係(親子関係)にあるユーザU12の音声データが予め登録されているためである。例えば、ユーザU11が幼い子供であったとすると、ユーザU11は清掃行動を行っていないにも拘らず、例えば、冗談で「掃除終わったよ」等という場合がある。一方で、ユーザU12は大人であるため、このような冗談を言う可能性は低く、さらに子どもと比較して発話内容の信頼性が高いといえる。
In addition, the
このようなことから、行動判定部435は、ユーザU12の音声データが予め登録されていれば、ユーザU12に対応する会話情報に焦点を当てて判定処理を行うことができるため、例えば清掃行動を行ったか否かを高精度に判定することができるとともに、清掃行動を行ったと判定した場合、例えば、だれが、だれの指示で清掃行動を行ったのかを特定することができる。
Because of this, if the voice data of the user U12 is registered in advance, the
また、行動判定部435は、所定のセンサ機能により検出された環境情報が、所定の対象物が定位置に戻されたことを示す場合に、ユーザが清掃行動を行ったと判定することができる。所定のセンサ機能は、上記の各実施形態で説明したきたが、例えば、エコーロケーション、カメラ、ホコリセンサ等であり、音声デバイスDV1や清掃ロボットRB1に設置されている。
In addition, the
例えば、行動判定部435は、会話情報とセンサ機能による撮影画像とを組み合わせて、ユーザU12にの発話「早く片付けなさい」の後に、これまで居室Rに散らばっていた玩具が定位置に戻されたと判定した場合には、ユーザU11が清掃行動を行ったと判定する。また、例えば、行動判定部435は、ユーザU12にの発話「早く片付けなさい」の後に、ホコリセンサによるホコリ量が減少していた場合には、ユーザU11が清掃行動を行ったと判定する。
For example, the
また、片付けの対象物にも予めセンサが取り付けてあることで、行動判定部435は、そのセンサから取得された情報に基づいて、判定してもよい。例えば、ユーザU11が片付けるべき玩具Gは(IoT玩具)であるものとする。玩具Gは、ネットワークNを介して、情報処理装置400に位置情報等を送信することができる。行動判定部435は、かかる位置情報に基づき玩具Gが定位置に戻された旨の情報が取得された場合には、ユーザU11が清掃行動を行ったと判定する。
In addition, since the sensor is attached in advance also to the cleaning target, the
以上のようにして、行動判定部435は、ユーザが清掃行動を行っていないと判定した場合には(ステップS402;No)、処理を終了する。一方、付与部436は、行動判定部435によりユーザが清掃行動を行たと判定された場合には(ステップS402;Yes)、所定の対象者に報酬を付与する(ステップS403)。
As described above, when the
ここで、行動判定部435により、ユーザU11が清掃行動を行った、具体的には、ユーザU11が玩具Gを片付けたと判定されたとすると、付与部436は、ユーザU11に対して、所定のポイントを付与する。また、例えば、付与部436は、片付けられた対象物である玩具Gに関連する報酬をユーザU11に付与してもよい。付与部436は、玩具Gに関連するコンテンツ(例えば、玩具Gが登場するアニメーション)をユーザU11に付与する。また、付与部436は、玩具Gに関連するコンテンツとして、例えば、玩具Gの関連部品についてのクーポンを付与してもよい。
Here, assuming that the
また、行動判定部435は、会話情報を分析することにより清掃行動の進捗状況を特定することができるため、清掃行動が開始されてから終了するまでの時間を算出することもできる。したがって、付与部436は、清掃行動が開始されてから終了するまでの時間が短いほど高い報酬を付与してもよい。これにより情報処理装置400は、ユーザに対して短時間での効率的な清掃行動を行わせることができる。なお、例えば、行動判定部435は、センサにより検出された音声データに基づき、例えば、掃除機が稼働しされてから停止されるまでの時間を、清掃行動が開始されてから終了するまでの時間として算出してもよい。
Further, since the
また、付与部436は、ユーザU11ではなくユーザU12に報酬を付与してもよい。例えば、行動判定部435は、ユーザU12の発話「早く片付けなさい」に応じて、ユーザU11が清掃行動を行ったと判定したとする。これは、親子関係にあるユーザU12がユーザU11に対して清掃行動を行わせたことを示す。つまり、ユーザU11が清掃行動を行ったのは、ユーザU12の行動が影響しているといえる。また、ユーザU12が間接的に清掃行動を行ったともいえる。したがって、かかる場合には、付与部436は、ユーザU11ではなくユーザU12に報酬を付与する。
Furthermore, the granting
例えば、ユーザU11は自分が清掃したにも拘らず、母のユーザU12に報酬が付与されると、これを不満に思い次回からは積極的に清掃するようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して効果的に清掃の動機付けを行うことができる。
For example, even if the user U11 is cleaned, if a reward is given to the user U12 of the mother, the user U11 may be dissatisfied with this and may be actively cleaned from the next time. As such, the
〔4.変形例〕
上記第4の実施形態にかかる情報処理装置400は、上記第4の実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置400の他の実施形態について説明する。
[4. Modified example]
The
〔4−1.購買情報に基づくコンテンツ付与〕
付与部436は、所定の対象者の購買情報に基づくコンテンツを報酬として付与してもよい。ここでは、例えば、ユーザU12が清掃行動を行ったと判定されたことにより、ユーザU12が報酬付与対象でるものとする。かかる場合、例えば、付与部436は、ユーザU12の購買情報を取得する。購買情報には、これまでにユーザU12が購入した商品に関する情報が含まれる。例えば、付与部436は、情報処理装置400と連携する所定のサーバ装置(例えば、ショッピングサーバ)から購買情報を取得してもよい。また、付与部436は、情報処理装置400が購買情報を記憶する記憶部を有している場合には、かかる記憶部から購買情報を取得してもよい。
[4-1. Content assignment based on purchasing information]
The granting
そして、付与部436は、例えば、購買情報に基づき、ユーザU12が最近購入した商品に関するコンテンツ(例えば、クーポン)を報酬として付与する。このような商品は、現時点においてユーザU12の興味が高まっている商品といえるため、この商品に関するコンテンツを報酬を付与することで、情報処理装置400を管理する事業主は、ユーザU12から高評価を得ることができる。また、情報処理装置400は、ユーザU12に対して今後も効果的に清掃を行わせることができる。
Then, the granting
なお、付与部436は、例えば、ユーザU12が月額性の動画コンテンツを購入している場合には、報酬として、翌月の動画コンテンツの一部を無料で閲覧可能にしてもよい。
Note that, for example, when the user U12 purchases monthly moving image content, the giving
〔4−2.グループ内での報酬競争〕
また、付与部436は、所定のグループに属する複数のユーザのうち、清掃行動を行ったユーザに報酬を付与するとともに、当該所定のグループに属する複数のユーザ間で報酬の競争を行えるよう制御する。この点について、図16の例を用いて説明する。
[4-2. Compensation competition within the group]
Further, the granting
図16の例では、ユーザU11、U12、U13、U14が一つの家族ID「FM1」で識別されており、このことはユーザU11、U12、U13、U14が家族関係にあることを示している。また、図5の例も適用して、年齢や性別からユーザU11が弟、ユーザU13が兄、ユーザU12が母、ユーザU14が父である。そして、これら4人のユーザの端末装置10には、アプリAPがインストールされているものとする。
In the example of FIG. 16, the users U11, U12, U13, and U14 are identified by one family ID “FM1”, which indicates that the users U11, U12, U13, and U14 are in a family relationship. Further, the example of FIG. 5 is also applied, and the user U11 is a younger brother, the user U13 is a younger brother, the user U12 is a mother, and the user U14 is a father according to the age and sex. The application AP is installed on the
このような状態のおいて、付与部436は、4人の各ユーザが、アプリAPを介して、自身も含め他の3人のユーザの現在のポイントを確認可能なように制御する。これにより、例えば、ユーザU11は、アプリAPを利用して、自身が現在「50ポイント」であることに加え、ユーザU12が「15ポイント」、ユーザU13が「35ポイント」、ユーザU14が「40ポイント」であることを確認することができる。ユーザU12〜U14についても同様である。これにより、兄であるユーザU13は、弟に負けじとポイントをより増やそうと積極的に清掃行動を行うようになる可能性がある。このようなことから、情報処理装置400は、ユーザに対して競争意識を高めることができるため、効果的に清掃行動を行わせることができる。
In such a state, the giving
〔4−3.不正防止〕
また、付与部436は、清掃を必要とする状況が故意に発生させられた状態において、ユーザが清掃行動を行ったと判定された場合には、報酬を付与しない。例えば、付与部436は、行動判定部435によりユーザU11が清掃行動を行ったと判定された場合、その清掃行動の対象になった状況、すなわち清掃を必要とする状況が故意に発生させられたか否かを判定する。
[4-3. Fraud prevention]
Furthermore, the granting
清掃を必要とする状況は、自然と汚れてゆくことに比べ短時間に作り上げることができる。また、清掃を必要とする状況を作り上げる際には、独自の音声パターンが発生する。一例を示すと、例えば、箱の中に入っている物品を一気にまき散らす態様を示す御瀬尾パターンである。例えば、付与部436は、センサにより検出された音声データを解析することにより、この独自の音声パターンを特定した場合には、ユーザU11が清掃を必要とする状況を故意に発生させたと判定する。すなわち、付与部436は、ユーザU11が報酬欲しさに不正を働いたと判定し、報酬を付与しない。これにより、情報処理装置400は、不正に報酬を得ようする行為を防止することができる。
Situations that require cleaning can be made in less time than naturally contaminating. Also, when creating a situation that requires cleaning, unique voice patterns occur. One example is, for example, the Mitsuo pattern showing an aspect in which an article contained in a box is scattered at a stretch. For example, when the assigning
〔4−4.学習〕
また、付与部436は、付与した報酬と、清掃行動との関係性を学習してもよい。例えば、付与部436は、どのようなものを報酬として付与した場合に、よりユーザが清掃行動を起こしやすいかといった傾向を学習する。そして、付与部436は、学習した関係性に基づいて、報酬を付与する。これにより、情報処理装置400は、どのような報酬を付与することが効果的であるのかを特定することができるため、特定した報酬を利用してより効果的に清掃行動を行わせることができる。なお、かかる学習処理は、付与部436以外の処理部によって行われてもよい。例えば、情報処理装置400は、学習処理を行う学習部を有してもよい。
[4-4. Learning]
Also, the giving
〔5.効果〕
第4の実施形態にかかる情報処理装置400は、行動判定部435と、付与部436とを有する。行動判定部435は、ユーザが清掃行動を行ったか否かを判定する。付与部436は、行動判定部435による判定結果に基づいて、清掃行動に関する所定の対象者に報酬を付与する。
[5. effect〕
An
これにより、情報処理装置400は、ユーザに対して効果的に清掃を行わせることができる。
Thereby, the
(その他)
〔1.スタンドアローン〕
上記の各実施形態における情報処理装置100〜400によって行われる情報処理は、例えば、室内に設置される所定のデバイスがスタンドアローンで実行してもよい。かかる所定のデバイスとは、例えば、音声デバイスDV1や清掃ロボットRB1である。
(Others)
[1. Stand alone]
The information processing performed by the
〔2.ハードウェア構成〕
また、上述してきた各実施形態にかかる情報処理装置100、200、300および400は、例えば図18に示すような構成のコンピュータ1000によって実現される。以下、情報処理装置100を例に挙げて説明する。図18は、情報処理装置100の機能を実現するコンピュータ1000の一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、及びメディアインターフェイス(I/F)1700を有する。
[2. Hardware configuration]
The
CPU1100は、ROM1300又はHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
The CPU 1100 operates based on a program stored in the
HDD1400は、CPU1100によって実行されるプログラム、および、かかるプログラムによって使用されるデータ等を格納する。通信インターフェイス1500は、通信網50を介して他の機器からデータを受信してCPU1100へ送り、CPU1100が生成したデータを、通信網50を介して他の機器へ送信する。
The HDD 1400 stores programs executed by the CPU 1100, data used by the programs, and the like. The
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタ等の出力装置、及び、キーボードやマウス等の入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを取得する。また、CPU1100は、生成したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
The CPU 1100 controls an output device such as a display or a printer and an input device such as a keyboard or a mouse via the input /
メディアインターフェイス1700は、記録媒体1800に格納されたプログラム又はデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、かかるプログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
The
例えば、コンピュータ1000が第1の実施形態にかかる情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。また、HDD1400には、記憶部120内のデータが格納される。コンピュータ1000のCPU1100は、これらのプログラムを、記録媒体1800から読み取って実行するが、他の例として、他の装置から、通信網50を介してこれらのプログラムを取得してもよい。
For example, when the
また、例えば、コンピュータ1000が第2の実施形態にかかる情報処理装置200として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部230の機能を実現する。
Also, for example, when the
〔3.その他〕
上記各実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[3. Other]
Among the processes described in each of the above embodiments, all or part of the process described as being automatically performed can be manually performed, or all the processes described as being manually performed. Alternatively, some of them can be performed automatically by known methods. In addition, information including processing procedures, specific names, various data and parameters shown in the above-mentioned documents and drawings can be arbitrarily changed unless otherwise specified.
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 Further, each component of each device illustrated is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of the distribution and integration of each device is not limited to that shown in the drawings, and all or a part thereof may be functionally or physically dispersed in any unit depending on various loads, usage conditions, etc. It can be integrated and configured.
以上、本願の実施形態をいくつかの図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although the embodiments of the present application have been described in detail based on the several drawings, these are merely examples, and various modifications can be made based on the knowledge of those skilled in the art, including the aspects described in the section of the disclosure of the invention. It is possible to implement the invention in other improved forms.
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、取得部は、取得手段や取得回路に読み替えることができる。 In addition, the "section (module, unit)" described above can be read as "means" or "circuit". For example, the acquisition unit can be read as an acquisition unit or an acquisition circuit.
10 端末装置
100 情報処理装置
121 ユーザ情報記憶部
122 環境情報記憶部
131 第1取得部
132 推定部
133 判定部
134 通知部
200 情報処理装置
235 第2取得部
300 情報処理装置
335 判定結果取得部
336 出力制御部
400 情報処理装置
423 報酬情報記憶部
435 行動判定部
436 付与部
10
Claims (18)
前記判定部による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与部と
を有することを特徴とする情報処理装置。 A determination unit that determines whether the user has performed a cleaning action;
An information processing apparatus, comprising: a grant unit that rewards a predetermined target person regarding the cleaning action based on the determination result by the determination unit.
前記判定部は、前記取得部により取得された環境情報に基づいて、前記ユーザが清掃行動を行ったか否かを判定する
ことを特徴とする請求項1に記載の情報処理装置。 The system further includes an acquisition unit that acquires environment information indicating the environment around the user,
The information processing apparatus according to claim 1, wherein the determination unit determines whether the user has performed a cleaning action based on the environmental information acquired by the acquisition unit.
ことを特徴とする請求項2に記載の情報処理装置。 The information processing apparatus according to claim 2, wherein the acquisition unit acquires, as environment information indicating a peripheral environment of the user, conversation information which is information related to a conversation of the user.
ことを特徴とする請求項3に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the acquisition unit acquires the conversation information indicating a conversation input to a predetermined voice device.
ことを特徴とする請求項3または4に記載の情報処理装置。 The determination unit is configured to determine whether or not the user performed the cleaning action based on the progress information when progress information indicating a progress status of the cleaning action by the user is included in the conversation information. The information processing apparatus according to claim 3 or 4.
ことを特徴とする請求項3〜5のいずれか1つに記載の情報処理装置。 When the voice of a person having a predetermined relationship with the user is registered, the determination unit is the voice data corresponding to the conversation information, and the user cleans the voice based on the voice data of the person. The information processing apparatus according to any one of claims 3 to 5, wherein it is determined whether or not an action has been performed.
ことを特徴とする請求項2〜6のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 2 to 6, wherein the acquisition unit acquires environmental information detected by a predetermined sensor function as environmental information indicating a peripheral environment of the user. .
ことを特徴とする請求項7に記載の情報処理装置。 The determination unit is characterized in that the user performs the cleaning action when the environmental information detected by the predetermined sensor function indicates that the predetermined object has been returned to the home position. The information processing apparatus according to claim 7.
ことを特徴とする請求項1〜8のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 8, wherein the giving unit gives, as a reward, content related to the object cleaned up by the cleaning action.
ことを特徴とする請求項1〜9のいずれか1つに記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the giving unit gives a reward according to a time from the start of the cleaning action to the end of the cleaning action.
ことを特徴とする請求項1〜10のいずれか1つに記載の情報処理装置。 The giving unit rewards the user or a person having a predetermined relationship with the user as a predetermined target person regarding the cleaning action when the determination unit determines that the user has performed the cleaning action. The information processing apparatus according to any one of claims 1 to 10, wherein the information processing apparatus is provided.
ことを特徴とする請求項11に記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the granting unit grants a reward to the person concerned when the person concerned causes the user to perform a cleaning action.
ことを特徴とする請求項11または12に記載の情報処理装置。 The information processing apparatus according to claim 11, wherein the giving unit gives, as a reward, content based on purchase information of the predetermined target person.
ことを特徴とする請求項1〜13のいずれか1つに記載の情報処理装置。 The giving unit gives a reward to a user who has performed a cleaning action among a plurality of users who belong to a predetermined group, and controls so that a competition of the remuneration can be performed between a plurality of users who belong to the predetermined group. The information processing apparatus according to any one of claims 1 to 13, which is characterized by the following.
ことを特徴とする請求項1〜14のいずれか1つに記載の情報処理装置。 The giving unit does not give a reward when it is determined that the user has performed a cleaning action in a state where a situation requiring cleaning is intentionally generated. The information processing apparatus according to any one of the above.
前記付与部は、前記学習部により学習された関係性に基づいて、報酬を付与する
ことを特徴とする請求項1〜15のいずれか1つに記載の情報処理装置。 It further has a learning unit that learns the relationship between the reward given by the giving unit and the cleaning action,
The information processing apparatus according to any one of claims 1 to 15, wherein the giving unit gives a reward based on the relationship learned by the learning unit.
ユーザが清掃行動を行ったか否かを判定する判定工程と、
前記判定工程による判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与工程と
を含むことを特徴とする情報処理方法。 An information processing method executed by the information processing apparatus;
A determination step of determining whether the user has performed a cleaning action;
A granting step of giving a reward to a predetermined target person regarding the cleaning action based on the judgment result of the judging step.
前記判定手順よる判定結果に基づいて、前記清掃行動に関する所定の対象者に報酬を付与する付与手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。 A determination procedure for determining whether the user has performed a cleaning action;
An information processing program causing a computer to execute a granting procedure for rewarding a predetermined target person regarding the cleaning action based on a determination result by the determination procedure;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017244518A JP6903563B2 (en) | 2017-12-20 | 2017-12-20 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017244518A JP6903563B2 (en) | 2017-12-20 | 2017-12-20 | Information processing equipment, information processing methods and information processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019113896A true JP2019113896A (en) | 2019-07-11 |
JP6903563B2 JP6903563B2 (en) | 2021-07-14 |
Family
ID=67223325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017244518A Active JP6903563B2 (en) | 2017-12-20 | 2017-12-20 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6903563B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11687844B2 (en) | 2020-05-25 | 2023-06-27 | Fujifilm Business Innovation Corp. | Information processing apparatus, information processing system, and non-transitory computer readable medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014164629A (en) * | 2013-02-27 | 2014-09-08 | Casio Comput Co Ltd | Information processor, and degree of putting in order determination method and program |
JP2017091102A (en) * | 2015-11-06 | 2017-05-25 | 日本電信電話株式会社 | Incentive granting device, incentive granting method, and incentive granting program |
-
2017
- 2017-12-20 JP JP2017244518A patent/JP6903563B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014164629A (en) * | 2013-02-27 | 2014-09-08 | Casio Comput Co Ltd | Information processor, and degree of putting in order determination method and program |
JP2017091102A (en) * | 2015-11-06 | 2017-05-25 | 日本電信電話株式会社 | Incentive granting device, incentive granting method, and incentive granting program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11687844B2 (en) | 2020-05-25 | 2023-06-27 | Fujifilm Business Innovation Corp. | Information processing apparatus, information processing system, and non-transitory computer readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP6903563B2 (en) | 2021-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180300677A1 (en) | Systems and methods for receiving retail products at a delivery destination | |
RU2636102C2 (en) | System and method for assistance in determination of location and selection of desired subject in storage | |
Kaplan et al. | The relationship between extroversion and the tendency to anthropomorphize robots: A Bayesian analysis | |
KR20200014852A (en) | Methods and systems to provide custom field information exchange | |
KR101710733B1 (en) | Targeted advertising using object identification | |
JP2019113897A (en) | Device, method, and program for processing information | |
US11925304B2 (en) | Information processing method, information processing apparatus and computer-readable recording medium storing information processing program | |
JP2019113901A (en) | Device, method, and program for processing information | |
JP2019113900A (en) | Device, method, and program for processing information | |
CN106127521A (en) | A kind of information processing method and data handling system | |
JP2019113896A (en) | Device, method, and program for processing information | |
KR20220040225A (en) | Cooking device and operating method thereof | |
CN106202216A (en) | A kind of data processing method and data handling system | |
Tan et al. | Feeling green: Empathy affects perceptions of usefulness and intention to use a robotic recycling bin | |
JP2020013530A (en) | Animal information sharing system, animal information sharing device and program | |
Komori et al. | Experimental Study on Estimation of Opportune Moments for Proactive Voice Information Service Based on Activity Transition for People Living Alone | |
JP2020017258A (en) | Information processing method, information processing apparatus, and information processing program | |
KR20220085038A (en) | System for managing sanitary condition according to analysis of behavior in kitchen based on ai | |
JP2015133611A (en) | Notification system, notification program, notification method and notification device | |
Bergeron et al. | RFID based activities of daily living recognition | |
Lupetti et al. | From a Robotic Vacuum Cleaner to Robot Companion: Acceptance and Engagement in Domestic Environments | |
Lo et al. | Developing a collaborative robotic dishwasher cell system for restaurants | |
JP6240291B1 (en) | Determination apparatus, determination method, and determination program | |
Ogino et al. | Smart store understanding consumer’s preference through behavior logs | |
JP2023142083A (en) | Cleaning support system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210311 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210525 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210623 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6903563 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |