JP6909963B2 - Action goal achievement support system, information processing method and program - Google Patents

Action goal achievement support system, information processing method and program Download PDF

Info

Publication number
JP6909963B2
JP6909963B2 JP2017097341A JP2017097341A JP6909963B2 JP 6909963 B2 JP6909963 B2 JP 6909963B2 JP 2017097341 A JP2017097341 A JP 2017097341A JP 2017097341 A JP2017097341 A JP 2017097341A JP 6909963 B2 JP6909963 B2 JP 6909963B2
Authority
JP
Japan
Prior art keywords
level
user
information
achievement
presentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097341A
Other languages
Japanese (ja)
Other versions
JP2018195004A (en
Inventor
佑香 山本
佑香 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017097341A priority Critical patent/JP6909963B2/en
Publication of JP2018195004A publication Critical patent/JP2018195004A/en
Application granted granted Critical
Publication of JP6909963B2 publication Critical patent/JP6909963B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、行動目標の達成を支援する行動目標達成支援システム、並びに、この行動目標達成支援システムで用いられる情報処理方法及びプログラムに関する。 The present invention relates to an action goal achievement support system that supports the achievement of an action goal, and an information processing method and program used in this action goal achievement support system.

従来、幼児或いは犬に特定の行動を習得させるために機器を制御する技術が知られている。例えば、特許文献1には、幼児による監視領域への侵入行動を監視しその行動に応じて、柵を上昇させる制御を行う、又は、しつけ情報を出力する技術が、記載されている。また、特許文献2には、犬のしつけを効率的に行うためにオペラント条件付け理論に基づいて、一定時間犬の吠え声を感知しなければ給餌機を制御して餌を出す技術が、記載されている。 Conventionally, there is known a technique for controlling a device in order to make an infant or a dog learn a specific behavior. For example, Patent Document 1 describes a technique of monitoring an infant's invasion behavior into a monitoring area, controlling the fence to be raised according to the behavior, or outputting discipline information. Further, Patent Document 2 describes a technique of controlling a feeder to feed a dog if it does not detect the bark of the dog for a certain period of time based on the operant conditioning theory in order to train the dog efficiently. ing.

特開2004−78304号公報Japanese Unexamined Patent Publication No. 2004-78304 特開2007−82488号公報Japanese Unexamined Patent Publication No. 2007-82488

幼児に行動目標を達成するための特定の行動(例えば玩具を片付ける行動)を習得させるという幼児のしつけを効率的に行うことができれば、幼児の保護者への育児負担が軽減され得る。 If the infant can be disciplined efficiently by having the infant learn specific behaviors (for example, the behavior of putting away toys) to achieve the behavioral goal, the burden of childcare on the parents of the infant can be reduced.

そこで、本発明は、幼児等のユーザに行動目標の達成のための行動を効率的に習得させるために有用な行動目標達成支援システムを提供することを目的とする。また、本発明は、この行動目標達成支援システムで用いられる情報処理方法、及び、プログラムを提供することを目的とする。 Therefore, an object of the present invention is to provide a behavioral goal achievement support system that is useful for making a user such as an infant efficiently learn an action for achieving the behavioral goal. Another object of the present invention is to provide an information processing method and a program used in this action goal achievement support system.

上記目的を達成するために本発明の一態様に係る行動目標達成支援システムは、所定行動目標の達成を支援する行動目標達成支援システムであって、第1ユーザの行動に関連したセンシングの結果に基づいて前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定部と、第2ユーザの行動に関連したセンシングの結果に基づいて前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定部と、前記第1レベルと前記第2レベルとに基づいて、前記第1ユーザに対して提示用情報を提示する第1提示部とを備える。 In order to achieve the above object, the action goal achievement support system according to one aspect of the present invention is an action goal achievement support system that supports the achievement of a predetermined action goal, and is based on the result of sensing related to the action of the first user. Based on the first specific unit that sequentially specifies the first level indicating the degree of achievement of the predetermined action goal of the first user, and the predetermined of the second user based on the result of sensing related to the behavior of the second user. A first presentation that presents presentation information to the first user based on a second specific unit that sequentially specifies a second level indicating the degree of achievement of an action goal, and the first level and the second level. It has a part.

また、上記目的を達成するために本発明の一態様に係る情報処理方法は、所定行動目標の達成を支援する行動目標達成支援システムで用いられる情報処理方法であって、第1ユーザの行動に関連したセンシングの結果に基づいて前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップと、第2ユーザの行動に関連したセンシングの結果に基づいて前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップと、前記第1ユーザに対して、前記第1特定ステップで特定された前記第1レベルを示す第1提示用情報と前記第2特定ステップで特定された前記第2レベルを示す第2提示用情報とを逐次提示し、前記第1レベルについて所定条件が成立した場合には前記第1レベルと前記第2レベルとの差分に応じて第3提示用情報を提示する提示ステップとを含む。 Further, the information processing method according to one aspect of the present invention for achieving the above object is an information processing method used in an action goal achievement support system that supports the achievement of a predetermined action goal, and is used for the action of a first user. The first specific step for sequentially specifying the first level indicating the degree of achievement of the predetermined action goal of the first user based on the result of the related sensing, and the above-mentioned based on the result of the sensing related to the action of the second user. A second specific step for sequentially specifying a second level indicating the degree of achievement of the predetermined action goal of the second user, and a first level indicating the first level specified in the first specific step to the first user. 1 Presentation information and second presentation information indicating the second level specified in the second specific step are sequentially presented, and when a predetermined condition is satisfied for the first level, the first level and the first level are described. It includes a presentation step of presenting the third presentation information according to the difference from the second level.

また、上記目的を達成するために本発明の一態様に係るプログラムは、所定行動目標の達成を支援する行動目標達成支援システムを構成するコンピュータに情報処理を実行させるためのプログラムであって、前記情報処理は、第1ユーザの行動に関連したセンシングの結果に基づいて前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップと、第2ユーザの行動に関連したセンシングの結果に基づいて前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップと、前記第1ユーザに対して、前記第1特定ステップで特定された前記第1レベルを示す第1提示用情報と前記第2特定ステップで特定された前記第2レベルを示す第2提示用情報とを逐次提示し、前記第1レベルについて所定条件が成立した場合には前記第1レベルと前記第2レベルとの差分に応じて第3提示用情報を提示する提示ステップとを含む。 Further, the program according to one aspect of the present invention for achieving the above object is a program for causing a computer constituting an action goal achievement support system that supports the achievement of a predetermined action goal to execute information processing. Information processing includes a first specific step of sequentially specifying a first level indicating the degree of achievement of the predetermined action goal of the first user based on a sensing result related to the action of the first user, and a second user's action. In the second specific step of sequentially specifying the second level indicating the degree of achievement of the predetermined action goal of the second user based on the sensing result related to the first user, and in the first specific step for the first user. The first presentation information indicating the specified first level and the second presentation information indicating the second level specified in the second specific step are sequentially presented, and a predetermined condition is satisfied for the first level. If so, the presenting step of presenting the third presentation information according to the difference between the first level and the second level is included.

本発明の一態様に係る行動目標達成支援システム等によれば、ユーザが行動目標の達成について競争することが可能となる。この競争によりユーザが自発的に行動目標の達成のための行動を行う可能性が高まり、その結果としてユーザは効率的にその行動を習得可能となり得る。 According to the action goal achievement support system or the like according to one aspect of the present invention, the user can compete for the achievement of the action goal. This competition increases the possibility that the user voluntarily takes an action to achieve the action goal, and as a result, the user can efficiently learn the action.

実施の形態1に係る行動目標達成支援システムの概略構成図である。It is a schematic block diagram of the action goal achievement support system which concerns on Embodiment 1. 行動目標達成支援システムで用いられる達成レベル評価テーブルの一例を示す図である。It is a figure which shows an example of the achievement level evaluation table used in the action goal achievement support system. 行動目標達成支援システムで用いられる達成レベル評価テーブルの別の一例を示す図である。It is a figure which shows another example of the achievement level evaluation table used in the action goal achievement support system. 行動目標達成支援システムの提示部での提示に用いられる短時間映像(短時間の褒美映像)の一例を示す図である。It is a figure which shows an example of the short-time video (short-time reward video) used for presentation in the presentation part of the action goal achievement support system. 行動目標達成支援システムの提示部での提示に用いられる長時間映像(長時間の褒美映像)の一例を示す図である。It is a figure which shows an example of the long-time image (long-time reward image) used for the presentation in the presentation part of the action goal achievement support system. 行動目標達成支援システムの提示部で提示する画面における表示要素の配置例を示す図である。It is a figure which shows the arrangement example of the display element in the screen presented in the presentation part of the action goal achievement support system. 行動目標達成支援システムの提示部で提示される画面の一例を示す図である。It is a figure which shows an example of the screen which is presented in the presentation part of the action goal achievement support system. 実施の形態1に係る行動目標達成支援システムの情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus of the action goal achievement support system which concerns on Embodiment 1. 実施の形態2に係る行動目標達成支援システムの情報処理装置の構成図である。It is a block diagram of the information processing apparatus of the action goal achievement support system which concerns on Embodiment 2. FIG. 実施の形態2に係る行動目標達成支援システムの情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus of the action goal achievement support system which concerns on Embodiment 2.

(実施の形態1)
以下、実施の形態について、図面を参照しながら説明する。ここで示す実施の形態は、いずれも本発明の一具体例を示すものである。従って、以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置及び接続形態、並びに、ステップ(工程)及びステップの順序等は、一例であって本発明を限定するものではない。以下の実施の形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
(Embodiment 1)
Hereinafter, embodiments will be described with reference to the drawings. Each of the embodiments shown here shows a specific example of the present invention. Therefore, the numerical values, shapes, materials, components, arrangement and connection forms of the components, steps (processes), order of steps, etc. shown in the following embodiments are examples and limit the present invention. is not it. Among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly illustrated.

以下、本発明の一実施形態に係る行動目標達成支援システムについて説明する。 Hereinafter, the action goal achievement support system according to the embodiment of the present invention will be described.

幼児、児童等のしつけとして、特定の行動(例えば遊び終わったら玩具を片付ける整理収納行動)を習得させる場合に、親等といった保護者は、幼児等の特定の行動を褒めて、行動を習慣付けさせる。しかし、保護者は、家事等を行っている際には、適切なタイミングで幼児等を褒めることができない。そこで、しつけの育児負担を軽減するシステムが必要とされる。このような必要性に対応し、本実施の形態に係る行動目標達成支援システムは、幼児、児童等といったユーザに特定の行動目標を達成するための特定の行動を習得させるために情報の提示に係る制御を行う。ところで、幼児、児童等は、その行動目標の達成について、兄弟姉妹、いとこ、友達等と競争すると、自発的にその特定の行動(例えば整理収納行動)を行う。そこで、本実施の形態に係る行動目標達成支援システムは、幼児、児童等が行動目標の達成のための行動の習得を効率的に行えるようにすべく、幼児、児童等が行動目標の達成について競争できる環境を実現する構成を備える。 When learning a specific behavior (for example, organizing and storing toys after playing) as a discipline for infants, children, etc., parents such as parents praise the specific behavior of the infant, etc. and make them habitual. .. However, parents cannot praise infants at the right time when doing household chores. Therefore, a system that reduces the burden of disciplined childcare is required. In response to such a need, the action goal achievement support system according to the present embodiment presents information in order to make users such as infants and children learn specific actions to achieve a specific action goal. Perform such control. By the way, when infants, children, etc. compete with siblings, cousins, friends, etc. for achieving their action goals, they voluntarily take specific actions (for example, organizing and storing actions). Therefore, the action goal achievement support system according to the present embodiment is for infants, children, etc. to achieve the action goal so that the infant, child, etc. can efficiently acquire the action for achieving the action goal. It has a configuration that realizes a competitive environment.

(構成)
図1は、本実施の形態に係る行動目標達成支援システム10の概略構成を示す図である。ここでは、各住宅20a、20bに住む友達同士である2人の幼児(幼児A及び幼児B)をユーザとして、ユーザに整理収納行動を習得させるために、主に各住宅内に設置される装置類で構成され、情報の提示に係る制御を行う行動目標達成支援システム10について説明する。各幼児の保護者(親等)は、幼児に、玩具で遊んだ後に適切に整理収納行動を習得させるべく行動目標達成支援システム10を活用し得る。整理収納行動は、例えば複数の物品を利用した後における複数の物品の収納に係る行動であり、具体例としては、複数の玩具で遊んだ後に、それら複数全ての玩具を片付ける行動である。即ち、行動目標達成支援システム10は、具体例としては、幼児に、所定の玩具の全てを片付けるという行動目標を達成させることを支援するシステムであり、その支援のための情報処理方法を用いる。説明の便宜上、行動目標達成支援システム10の第1ユーザが、住宅20aに住む幼児Aであり、第2ユーザが、住宅20bに住む幼児Bであることとする。
(Constitution)
FIG. 1 is a diagram showing a schematic configuration of an action goal achievement support system 10 according to the present embodiment. Here, a device mainly installed in each house in order to let the user learn the organizing and storing behavior by using two infants (infant A and infant B) who are friends living in each house 20a and 20b as users. The action goal achievement support system 10 which is composed of the types and controls the presentation of information will be described. The guardian (relative) of each infant can utilize the action goal achievement support system 10 in order to make the infant properly learn the organizing and storing behavior after playing with the toy. The organizing and storing action is, for example, an action related to storing a plurality of articles after using a plurality of articles, and as a specific example, is an action of cleaning up all the plurality of toys after playing with a plurality of toys. That is, as a specific example, the action goal achievement support system 10 is a system that supports an infant to achieve an action goal of clearing all predetermined toys, and uses an information processing method for the support. For convenience of explanation, it is assumed that the first user of the action goal achievement support system 10 is the infant A who lives in the house 20a, and the second user is the infant B who lives in the house 20b.

行動目標達成支援システム10は、図1に示すように、情報処理装置100a、100bと、イメージセンサ21a、21bとを含んで構成される。情報処理装置100a及びイメージセンサ21aは、住宅20aに設置される。情報処理装置100b及びイメージセンサ21bは、住宅20bに設置される。住宅20aに住む幼児A及び住宅20bに住む幼児Bのそれぞれは、各住宅で予め定まっている玩具の全てを玩具箱に収納するという共通の所定行動目標の達成のための整理収納行動を各住宅において行う。住宅20aにおいては幼児Aが玩具を玩具箱22aに収納するという整理収納行動が行われ、住宅20bにおいては幼児Bが玩具を玩具箱22bに収納するという整理収納行動が行われることになる。例えば、住宅20aにおける幼児Aの保護者と、住宅20bにおける幼児Bの保護者とが、電話、スマートフォン等により相互に連絡して各幼児に整理収納行動を開始させ、或いは予め定められた時間帯に各幼児に整理収納行動を開始させる。これにより、幼児Aと幼児Bとは、整理収納行動を競い合って行うことが可能となる。整理収納行動を開始させる時間帯が予め定められている場合に各情報処理装置はその開始タイミングをユーザに報知してもよい。なお、行動目標達成支援システム10の利用に際して、各幼児の整理収納行動の開始タイミングは概ね揃えられることが想定されるが、揃えられることが必須な訳ではない。 As shown in FIG. 1, the action goal achievement support system 10 includes information processing devices 100a and 100b and image sensors 21a and 21b. The information processing device 100a and the image sensor 21a are installed in the house 20a. The information processing device 100b and the image sensor 21b are installed in the house 20b. Each of the infant A living in the house 20a and the infant B living in the house 20b perform an organized storage action to achieve the common predetermined action goal of storing all the toys predetermined in each house in the toy box. To do. In the house 20a, the infant A stores the toys in the toy box 22a, which is an organized storage action, and in the house 20b, the infant B stores the toys in the toy box 22b. For example, the guardian of the infant A in the house 20a and the guardian of the infant B in the house 20b contact each other by telephone, smartphone, etc. to cause each infant to start the organizing and storing action, or a predetermined time zone. Have each infant start organizing and storing actions. As a result, the infant A and the infant B can compete with each other for the organizing and storing behavior. When the time zone for starting the organizing and storing action is predetermined, each information processing apparatus may notify the user of the start timing. When using the action goal achievement support system 10, it is assumed that the start timings of the organizing and storing actions of each infant are generally aligned, but it is not essential that they be aligned.

イメージセンサ21a、21bは、撮像により画像(つまり画像データ)を逐次生成して情報処理装置に送信する撮像装置である。イメージセンサ21aは、情報処理装置100aと通信可能である。イメージセンサ21aは、住宅20a内の幼児Aが遊ぶ部屋等である空間を対象として撮像することにより、その空間に関しての画像データつまり幼児Aを撮像した画像データを生成して、その画像データを情報処理装置100aへと送信する。イメージセンサ21aが送信する画像データは、幼児Aの行動に関連したセンシングの結果を示すことになる。また、イメージセンサ21bは、情報処理装置100bと通信可能である。イメージセンサ21bは、住宅20b内の幼児Bが遊ぶ部屋等である空間を対象として撮像することにより、その空間に関しての画像データつまり幼児Bを撮像した画像データを生成して、その画像データを情報処理装置100bへと送信する機能を有する。イメージセンサ21bが送信する画像データは、幼児Bの行動に関連したセンシングの結果を示すことになる。 The image sensors 21a and 21b are image pickup devices that sequentially generate images (that is, image data) by image pickup and transmit them to an information processing device. The image sensor 21a can communicate with the information processing device 100a. The image sensor 21a captures an image of a space such as a room in which the infant A plays in the house 20a, thereby generating image data regarding the space, that is, image data obtained by imaging the infant A, and information on the image data. It is transmitted to the processing device 100a. The image data transmitted by the image sensor 21a will show the result of sensing related to the behavior of the infant A. Further, the image sensor 21b can communicate with the information processing device 100b. The image sensor 21b captures an image of a space such as a room in which the infant B plays in the house 20b, thereby generating image data regarding the space, that is, image data obtained by imaging the infant B, and information on the image data. It has a function of transmitting to the processing device 100b. The image data transmitted by the image sensor 21b will show the result of sensing related to the behavior of the infant B.

情報処理装置100a、100bは、例えば、幼児に整理収納行動を習得させるために、幼児の行動の評価、評価に基づく行動目標の達成の支援のために情報の提示等を行うコンピュータである。情報処理装置100a、100bは、イメージセンサから逐次送信される画像データに基づき、幼児の行動の評価、評価に基づく情報の提示等を行う。この情報の提示は、具体的には、例えば、各幼児を撮像した画像と各幼児の評価結果に応じた情報とをディスプレイに表示すること等により実現される。情報処理装置100a、100bは、幼児の評価結果に応じた情報として、例えば幼児を褒める内容の映像(例えば動画)である褒美映像等を表示し得る。幼児が行動目標の達成のための行動を行った後に褒美映像を表示することは、オペラント条件付け理論によれば、幼児に目標行動としての整理収納行動を自発的に実行する頻度を増加させる影響を与えることになる。褒美映像の表示は、報酬(つまり幼児の目標行動の自発頻度を高める刺激)として作用する。なお、情報処理装置100a、100bは、上述の情報の提示として、褒美映像の表示の他、文字、音声、静止画、動画等を、人間の知覚(例えば視覚、聴覚等)に作用するいかなる機器(例えばスピーカ等)で出力してもよい。褒美映像の内容は、例えば、オペラント条件付け理論に従って、幼児に目標行動を自発的に実行する頻度を増加させる影響を与えることを意図して定められたものである。 The information processing devices 100a and 100b are computers that evaluate the behavior of the infant and present information to support the achievement of the action goal based on the evaluation, for example, in order to make the infant learn the organizing and storing behavior. The information processing devices 100a and 100b evaluate the behavior of the infant, present information based on the evaluation, and the like based on the image data sequentially transmitted from the image sensor. Specifically, the presentation of this information is realized, for example, by displaying an image of each infant and information according to the evaluation result of each infant on a display. The information processing devices 100a and 100b can display, for example, a reward image which is an image (for example, a moving image) of the content of complimenting the infant as information according to the evaluation result of the infant. Displaying reward images after an infant has taken an action to achieve an action goal has the effect of increasing the frequency with which the infant voluntarily performs a rearrangement and storage action as a goal action, according to operant conditioning theory. Will give. The display of the reward image acts as a reward (that is, a stimulus that increases the spontaneous frequency of the infant's target behavior). The information processing devices 100a and 100b are any devices that act on human perception (for example, vision, hearing, etc.) by displaying characters, sounds, still images, moving images, etc., in addition to displaying reward images, as the presentation of the above-mentioned information. It may be output by (for example, a speaker or the like). The content of the reward video is, for example, defined in accordance with the operant conditioning theory with the intention of influencing the infant to increase the frequency of voluntarily performing the target behavior.

情報処理装置100aと情報処理装置100bとは、有線又は無線の通信ネットワークを介して、相互に通信可能である。 The information processing device 100a and the information processing device 100b can communicate with each other via a wired or wireless communication network.

情報処理装置100aは、イメージセンサ21aから住宅20a内の幼児Aに係る画像データを取得して、幼児Aの整理収納行動を評価し、幼児Aに係る画像データ及び評価結果を住宅20bの情報処理装置100bに送信する。また、情報処理装置100bは、イメージセンサ21bから住宅20b内の幼児Bに係る画像データを取得して、幼児Bの整理収納行動を評価し、幼児Bに係る画像データ及び評価結果を住宅20aの情報処理装置100aに送信する。これにより、情報処理装置100a及び情報処理装置100bのそれぞれにおいて、各住宅において整理収納行動を行なっている2人の幼児の画像、評価結果に基づく情報等をディスプレイに表示することが可能になる。 The information processing device 100a acquires image data related to the infant A in the house 20a from the image sensor 21a, evaluates the organizing and storing behavior of the infant A, and processes the image data and the evaluation result related to the infant A in the information processing of the house 20b. It is transmitted to the device 100b. Further, the information processing device 100b acquires the image data related to the infant B in the house 20b from the image sensor 21b, evaluates the organizing and storing behavior of the infant B, and outputs the image data and the evaluation result related to the infant B to the house 20a. It is transmitted to the information processing device 100a. As a result, in each of the information processing device 100a and the information processing device 100b, it is possible to display images of two infants performing organizing and storing actions in each house, information based on the evaluation result, and the like on the display.

情報処理装置100a、100bは、通信インタフェース(I/F)、メモリ及びプロセッサ(マイクロプロセッサ)等を含んで構成される。通信I/Fは、無線通信或いは有線通信のための通信回路等である。情報処理装置100aは、通信I/Fにより、例えばイメージセンサ21a、及び、情報処理装置100bと通信可能である。情報処理装置100bは、通信I/Fにより、例えばイメージセンサ21b、及び、情報処理装置100aと通信可能である。メモリは、プログラム及びデータを予め保持しているROM、プログラムの実行に際してデータ等の記憶に利用するためのRAM等であり、例えば不揮発性メモリを含んでいてもよい。なお、情報処理装置100a、100bは、メモリの他にハードディスク等の記憶媒体を含んでもよい。プロセッサは、メモリに格納されたプログラムを実行することにより通信I/F等を制御して情報処理を行う。情報処理装置100a、100bは、例えば、幼児の保護者等による操作(例えば起動操作、停止操作等)を受け付けるためのユーザインタフェースとしての入力装置(キーボード、タッチパネル、或いは、音声入力装置等)及びディスプレイを有する。なお、情報処理装置100a、100bは、プロジェクタ、テレビジョン受信機、音声再生装置等に情報を出力してもよい。 The information processing devices 100a and 100b include a communication interface (I / F), a memory, a processor (microprocessor), and the like. The communication I / F is a communication circuit or the like for wireless communication or wired communication. The information processing device 100a can communicate with, for example, the image sensor 21a and the information processing device 100b by the communication I / F. The information processing device 100b can communicate with, for example, the image sensor 21b and the information processing device 100a by the communication I / F. The memory is a ROM that holds the program and data in advance, a RAM that is used for storing data or the like when the program is executed, and may include, for example, a non-volatile memory. The information processing devices 100a and 100b may include a storage medium such as a hard disk in addition to the memory. The processor controls the communication I / F and the like by executing a program stored in the memory to perform information processing. The information processing devices 100a and 100b are, for example, an input device (keyboard, touch panel, voice input device, etc.) and a display as a user interface for accepting operations (for example, start operation, stop operation, etc.) by a guardian of an infant or the like. Has. The information processing devices 100a and 100b may output information to a projector, a television receiver, an audio reproduction device, or the like.

情報処理装置100aは、画像データに基づく幼児の行動の評価、評価結果に基づく情報の提示等を行う機能を実現するために、機能面では、図1に示すように自己レベル特定部110a、通信部120a、他者レベル特定部130a及び提示部140aを備える。また、情報処理装置100bは、情報処理装置100aと同様の機能を実現するために、機能面では、図1に示すように自己レベル特定部110b、通信部120b、他者レベル特定部130b及び提示部140bを備える。 In order to realize a function of evaluating the behavior of an infant based on image data, presenting information based on the evaluation result, and the like, the information processing device 100a has a self-level identification unit 110a and communication as shown in FIG. A unit 120a, another person level specifying unit 130a, and a presentation unit 140a are provided. Further, in order to realize the same function as the information processing device 100a, the information processing device 100b has a self-level identification unit 110b, a communication unit 120b, another person level identification unit 130b, and a presentation as shown in FIG. The unit 140b is provided.

情報処理装置100aの自己レベル特定部110aは、例えば情報処理装置100aのメモリ、ハードディスク等の記憶媒体、通信I/F、及び、プログラムを実行するプロセッサ等により実現される。自己レベル特定部110aは、幼児Aの行動に関連したセンシングの結果に基づいて幼児Aの整理収納行動に係る所定行動目標の達成度合いを示す達成レベル(つまり幼児Aの達成レベル)を逐次特定する。なお、幼児Aの達成レベルは、例えば、所定行動目標に対する幼児Aの整理収納行動の進捗の度合いであり得る。具体的には、自己レベル特定部110aは、幼児Aを撮像可能なイメージセンサ21aのセンシングの結果である画像データに基づく画像認識処理で玩具を認識し、玩具箱22aに収納された玩具の個数を検出して、玩具の個数に応じて幼児Aの達成レベルを特定する。例えば、画像認識処理により、玩具箱22aに収納されておらず床等に散らばっている玩具の個数を検出して、その個数を全ての玩具数から減算することで、玩具箱22aに収納された玩具の個数の検出を行ってもよい。自己レベル特定部110aは、例えば、情報処理装置100aのメモリ等の記憶媒体に予め記憶されている達成レベル評価テーブルを利用して、達成レベルを特定する。図2は、検出された玩具の個数から、0〜10のいずれかで表される達成レベルを特定するために用いられる達成レベル評価テーブルの一例である。自己レベル特定部110aは、達成レベルの特定を、例えば、数秒間隔等で繰り返し行う。このために自己レベル特定部110aがイメージセンサ21aに画像データを数秒間隔等で繰り返し要求することとしてもよいし、イメージセンサ21aが自ら数秒間隔等の周期で撮像により画像データを生成して送信することとしてもよい。なお、自己レベル特定部110aが、幼児Aの達成レベルを特定する方法は、いかなる方法であってもよい。自己レベル特定部110aは、何らかのセンサによる幼児Aの行動に関連したセンシングの結果に基づいて幼児Aの達成レベルを特定することになる。また、達成レベルの段階数は0〜10に限られることはない。例えば、幼児Aの達成レベルは、幼児Aが使用した収納対象物品である玩具の総数に対する、収納済みの物品である玩具の数であることとしてもよい。また、玩具箱22aに、収納された玩具の合計重量を示す重量データを情報処理装置100aに送信する重量センサを内蔵させ、自己レベル特定部110aが、図3に例示するような達成レベル評価テーブルを用いて重量データに基づいて達成レベルを特定してもよい。自己レベル特定部110aは、特定した幼児Aの達成レベルとイメージセンサ21aから受信した画像データとを通信部120a及び提示部140aに伝える。 The self-level specifying unit 110a of the information processing device 100a is realized by, for example, a memory of the information processing device 100a, a storage medium such as a hard disk, a communication I / F, a processor that executes a program, and the like. The self-level identification unit 110a sequentially identifies the achievement level (that is, the achievement level of the infant A) indicating the degree of achievement of the predetermined action goal related to the organizing and storing behavior of the infant A based on the sensing result related to the behavior of the infant A. .. The achievement level of the infant A may be, for example, the degree of progress of the organizing and storing behavior of the infant A with respect to a predetermined action goal. Specifically, the self-level identification unit 110a recognizes toys by image recognition processing based on image data that is the result of sensing of the image sensor 21a capable of capturing the infant A, and the number of toys stored in the toy box 22a. Is detected, and the achievement level of infant A is specified according to the number of toys. For example, by image recognition processing, the number of toys not stored in the toy box 22a but scattered on the floor or the like is detected, and the number is subtracted from the total number of toys so that the toys are stored in the toy box 22a. The number of toys may be detected. The self-level specifying unit 110a specifies the achievement level by using, for example, an achievement level evaluation table stored in advance in a storage medium such as a memory of the information processing apparatus 100a. FIG. 2 is an example of an achievement level evaluation table used to specify an achievement level represented by any of 0 to 10 from the number of detected toys. The self-level specifying unit 110a repeatedly specifies the achievement level, for example, at intervals of several seconds. For this purpose, the self-level identification unit 110a may repeatedly request the image sensor 21a for image data at intervals of several seconds or the like, or the image sensor 21a itself generates and transmits image data by imaging at intervals of several seconds or the like. It may be that. The method by which the self-level specifying unit 110a specifies the achievement level of the infant A may be any method. The self-level identification unit 110a identifies the achievement level of the infant A based on the result of sensing related to the behavior of the infant A by some sensor. Moreover, the number of achievement level stages is not limited to 0 to 10. For example, the achievement level of the infant A may be the number of toys that are stored items with respect to the total number of toys that are the items to be stored used by the infant A. Further, the toy box 22a has a built-in weight sensor that transmits weight data indicating the total weight of the stored toys to the information processing device 100a, and the self-level identification unit 110a has an achievement level evaluation table as illustrated in FIG. May be used to specify the achievement level based on weight data. The self-level specifying unit 110a transmits the achievement level of the specified infant A and the image data received from the image sensor 21a to the communication unit 120a and the presentation unit 140a.

情報処理装置100bの自己レベル特定部110bは、例えば情報処理装置100bのメモリ、ハードディスク等の記憶媒体、通信I/F、及び、プログラムを実行するプロセッサ等により実現される。自己レベル特定部110bは、幼児Bの行動に関連したセンシングの結果に基づいて幼児Bの整理収納行動に係る所定行動目標の達成度合いを示す達成レベル(つまり幼児Bの達成レベル)を逐次特定する。なお、幼児Bの達成レベルは、例えば、所定行動目標に対する幼児Bの整理収納行動の進捗の度合いであり得る。具体的には、自己レベル特定部110bは、幼児Bを撮像可能なイメージセンサ21bのセンシングの結果である画像データに基づく画像認識処理で玩具を認識し、玩具箱22bに収納された玩具の個数を検出して、玩具の個数に応じて幼児Bの達成レベルを特定する。この場合に自己レベル特定部110bは、例えば、情報処理装置100bのメモリ等の記憶媒体に予め記憶されている達成レベル評価テーブルを利用して、達成レベルを特定する。自己レベル特定部110bが用いる達成レベル評価テーブルは、自己レベル特定部110aが用いる達成レベル評価テーブル(図2参照)と同じであってもよいが、必ずしも同じである必要はない。自己レベル特定部110bは、達成レベルの特定を、例えば、数秒間隔等で繰り返し行う。このために自己レベル特定部110bがイメージセンサ21bに画像データを数秒間隔等で繰り返し要求することとしてもよいし、イメージセンサ21bが自ら数秒間隔等の周期で撮像により画像データを生成して送信することとしてもよい。なお、自己レベル特定部110bが、幼児Bの達成レベルを特定する方法は、いかなる方法であってもよい。例えば、幼児Bの達成レベルは、幼児Bが使用した収納対象物品である玩具の総数に対する、収納済みの物品である玩具の数であることとしてもよい。また、玩具箱22bに、収納された全ての玩具の合計重量を示す重量データを情報処理装置100bに送信する重量センサを内蔵させ、自己レベル特定部110bが、図3の例の達成レベル評価テーブルと同様なテーブルを用いて重量データに基づいて達成レベルを特定してもよい。自己レベル特定部110bは、特定した幼児Bの達成レベルとイメージセンサ21bから受信した画像データとを通信部120b及び提示部140bに伝える。 The self-level specifying unit 110b of the information processing device 100b is realized by, for example, a memory of the information processing device 100b, a storage medium such as a hard disk, a communication I / F, a processor that executes a program, and the like. The self-level identification unit 110b sequentially identifies the achievement level (that is, the achievement level of the infant B) indicating the degree of achievement of the predetermined action goal related to the organizing and storing behavior of the infant B based on the sensing result related to the behavior of the infant B. .. The achievement level of the infant B may be, for example, the degree of progress of the organizing and storing behavior of the infant B with respect to a predetermined action goal. Specifically, the self-level identification unit 110b recognizes toys by image recognition processing based on image data that is the result of sensing of the image sensor 21b capable of capturing the infant B, and the number of toys stored in the toy box 22b. Is detected, and the achievement level of infant B is specified according to the number of toys. In this case, the self-level specifying unit 110b specifies the achievement level by using, for example, the achievement level evaluation table stored in advance in a storage medium such as the memory of the information processing apparatus 100b. The achievement level evaluation table used by the self-level identification unit 110b may be the same as the achievement level evaluation table (see FIG. 2) used by the self-level identification unit 110a, but it does not necessarily have to be the same. The self-level specifying unit 110b repeatedly specifies the achievement level, for example, at intervals of several seconds. For this purpose, the self-level identification unit 110b may repeatedly request the image sensor 21b for image data at intervals of several seconds or the like, or the image sensor 21b itself generates and transmits image data by imaging at intervals of several seconds or the like. It may be that. The method by which the self-level specifying unit 110b specifies the achievement level of the infant B may be any method. For example, the achievement level of the infant B may be the number of toys that are stored items with respect to the total number of toys that are the items to be stored used by the infant B. Further, the toy box 22b has a built-in weight sensor that transmits weight data indicating the total weight of all the stored toys to the information processing device 100b, and the self-level identification unit 110b is the achievement level evaluation table of the example of FIG. The achievement level may be specified based on the weight data using a table similar to the above. The self-level specifying unit 110b transmits the achievement level of the specified infant B and the image data received from the image sensor 21b to the communication unit 120b and the presentation unit 140b.

情報処理装置100aの通信部120aは、例えば情報処理装置100aの通信I/F、及び、プログラムを実行するプロセッサ等により実現される。通信部120aは、住宅20aにおけるイメージセンサ21aによるセンシングの結果に基づく幼児Aを撮像した画像(つまり画像データ)と自己レベル特定部110aが特定した幼児Aの達成レベルとを含む第1センシング情報を情報処理装置100bに逐次送信する。また、通信部120aは、情報処理装置100bから逐次送信される第2センシング情報を逐次受信する。 The communication unit 120a of the information processing device 100a is realized by, for example, a communication I / F of the information processing device 100a, a processor that executes a program, or the like. The communication unit 120a provides the first sensing information including an image (that is, image data) of the infant A based on the result of sensing by the image sensor 21a in the house 20a and the achievement level of the infant A specified by the self-level identification unit 110a. It is sequentially transmitted to the information processing device 100b. Further, the communication unit 120a sequentially receives the second sensing information sequentially transmitted from the information processing device 100b.

情報処理装置100bの通信部120bは、例えば情報処理装置100bの通信I/F、及び、プログラムを実行するプロセッサ等により実現される。通信部120bは、住宅20bにおけるイメージセンサ21bによるセンシングの結果に基づく幼児Bを撮像した画像(つまり画像データ)と自己レベル特定部110bが特定した幼児Bの達成レベルとを含む第2センシング情報を情報処理装置100aに逐次送信する。また、通信部120bは、情報処理装置100aから逐次送信される第1センシング情報を逐次受信する。 The communication unit 120b of the information processing device 100b is realized by, for example, the communication I / F of the information processing device 100b, a processor that executes a program, or the like. The communication unit 120b provides second sensing information including an image (that is, image data) of the infant B based on the result of sensing by the image sensor 21b in the house 20b and the achievement level of the infant B specified by the self-level identification unit 110b. It is sequentially transmitted to the information processing device 100a. Further, the communication unit 120b sequentially receives the first sensing information sequentially transmitted from the information processing device 100a.

情報処理装置100aの他者レベル特定部130aは、例えば情報処理装置100aにおけるプログラムを実行するプロセッサ等により実現される。他者レベル特定部130aは、通信部120aが逐次受信した第2センシング情報に基づいて、幼児Bの達成レベルを逐次特定する。具体的には、他者レベル特定部130aは、通信部120aが逐次受信した第2センシング情報における幼児Bの達成レベルを取得することで、幼児Bの達成レベルを特定し、その達成レベルを提示部140aに伝える。 The other-level identification unit 130a of the information processing device 100a is realized by, for example, a processor that executes a program in the information processing device 100a. The other party level specifying unit 130a sequentially specifies the achievement level of the infant B based on the second sensing information sequentially received by the communication unit 120a. Specifically, the other person level specifying unit 130a identifies the achievement level of the infant B by acquiring the achievement level of the infant B in the second sensing information sequentially received by the communication unit 120a, and presents the achievement level. Tell the part 140a.

情報処理装置100bの他者レベル特定部130bは、例えば情報処理装置100bにおけるプログラムを実行するプロセッサ等により実現される。他者レベル特定部130bは、通信部120bが逐次受信した第1センシング情報に基づいて、幼児Aの達成レベルを逐次特定する。具体的には、他者レベル特定部130bは、通信部120bが逐次受信した第1センシング情報における幼児Aの達成レベルを取得することで、幼児Aの達成レベルを特定し、その達成レベルを提示部140bに伝える。 The other-level identification unit 130b of the information processing device 100b is realized by, for example, a processor that executes a program in the information processing device 100b. The other party level specifying unit 130b sequentially specifies the achievement level of the infant A based on the first sensing information sequentially received by the communication unit 120b. Specifically, the other person level specifying unit 130b identifies the achievement level of the infant A by acquiring the achievement level of the infant A in the first sensing information sequentially received by the communication unit 120b, and presents the achievement level. Tell the part 140b.

情報処理装置100aの提示部140aは、例えば情報処理装置100aのメモリ、ハードディスク等の記憶媒体、ディスプレイ、及び、プログラムを実行するプロセッサ等により実現される。提示部140aは、自己レベル特定部110aにより特定された幼児Aの達成レベルと、他者レベル特定部130aにより特定された幼児Bの達成レベルとに基づいて、幼児Aに対して提示用情報を提示する。具体的には、提示部140aは、幼児Aの達成レベルと幼児Bの達成レベルとに基づいて提示用情報の内容或いは提示時間を決定し、その決定に従って提示用情報の提示を、例えば幼児Aが視認可能な情報処理装置100aのディスプレイへの表示により、行う。詳細には、例えば、提示部140aは、幼児Aの達成レベルを示す第1提示用情報と幼児Bの達成レベルを示す第2提示用情報とを逐次提示し、幼児Aの達成レベルについて所定条件Aが成立した場合には幼児Aの達成レベルと幼児Bの達成レベルとの差分に応じて第3提示用情報を提示する。この所定条件Aは、任意に定められる。所定条件Aは、例えば、単位時間当たりの幼児Aの達成レベルの変化量が所定閾値(例えば0、1等)より大きくなったという条件、幼児Aの達成レベルが前回の達成レベルより1つ上昇したという条件、例えば達成レベルが1、3、5、7等の所定数になったという条件、或いは、幼児Aの達成レベルが幼児Bの達成レベルより高くその差分が閾値以上になったという条件等である。例えば、提示部140aは、単位時間当たりの幼児Aの達成レベルの変化量が所定閾値より大きくなった場合等といった上述の所定条件Aが成立した場合に、幼児Aの行動を褒めた内容の褒美映像を表示する。第1提示用情報は、幼児Aの名称を含んでもよいし、第2提示用情報は、幼児Bの名称を含んでもよい。 The presentation unit 140a of the information processing device 100a is realized by, for example, a memory of the information processing device 100a, a storage medium such as a hard disk, a display, a processor that executes a program, and the like. The presentation unit 140a provides presentation information to the infant A based on the achievement level of the infant A specified by the self-level identification unit 110a and the achievement level of the infant B specified by the other person level identification unit 130a. Present. Specifically, the presentation unit 140a determines the content or presentation time of the presentation information based on the achievement level of the infant A and the achievement level of the infant B, and presents the presentation information according to the determination, for example, the infant A. Is displayed on the display of the information processing device 100a that can be visually recognized. Specifically, for example, the presentation unit 140a sequentially presents the first presentation information indicating the achievement level of the infant A and the second presentation information indicating the achievement level of the infant B, and predetermines the achievement level of the infant A. When A is established, the third presentation information is presented according to the difference between the achievement level of the infant A and the achievement level of the infant B. This predetermined condition A is arbitrarily determined. The predetermined condition A is, for example, a condition that the amount of change in the achievement level of the infant A per unit time is larger than the predetermined threshold value (for example, 0, 1, etc.), and the achievement level of the infant A is increased by one from the previous achievement level. The condition that the achievement level has reached a predetermined number such as 1, 3, 5, 7, or the condition that the achievement level of the infant A is higher than the achievement level of the infant B and the difference is equal to or more than the threshold value. And so on. For example, the presentation unit 140a rewards the behavior of the infant A when the above-mentioned predetermined condition A is satisfied, such as when the amount of change in the achievement level of the infant A per unit time becomes larger than the predetermined threshold value. Display the image. The first presentation information may include the name of the infant A, and the second presentation information may include the name of the infant B.

提示部140aは、例えば、第3提示用情報の提示に際して、幼児Aの達成レベルが幼児Bの達成レベルより高い場合には、幼児Aの達成レベルが幼児Bの達成レベルより高くない場合より長い時間に亘ってその第3提示用情報を提示する。この一例としては、提示部140aは、第3提示用情報の提示に際して、幼児Aの達成レベルが幼児Bの達成レベルより高くない場合には、第3提示用情報として、幼児Aの行動を褒めた情報を表した所定時間(例えば3秒)の褒美映像を表示する。図4に、この所定時間の褒美映像の一例としての短時間映像を示す。また、提示部140aは、第3提示用情報の提示に際して、幼児Aの達成レベルが幼児Bの達成レベルより高い場合には、第3提示用情報として、幼児Aの行動を褒めた情報を表した、上述の所定時間より長時間(例えば20秒)の褒美映像を表示する。図5に、この所定時間より長時間の褒美映像の一例としての長時間映像を示す。図4及び図5の例で示した褒美映像は、キャラクターが幼児の行動を褒める内容を含む。褒美映像として、褒めるために予め定められたキーワード(例えば「やったね」、「すごい」、「よくできました」等)を含むものが有用である。情報処理装置100aのメモリ、ハードディスク等の記憶媒体に、短時間映像及び長時間映像を含む複数の褒美映像が記憶されている。なお、褒美映像は、静止画でも動画でもよく、キャラクターが褒める音声が付されていてもよい。 In the presentation of the third presentation information, for example, the presentation unit 140a is longer when the achievement level of the infant A is higher than the achievement level of the infant B than when the achievement level of the infant A is not higher than the achievement level of the infant B. The third presentation information is presented over time. As an example of this, when presenting the third presentation information, if the achievement level of the infant A is not higher than the achievement level of the infant B, the presentation unit 140a praises the behavior of the infant A as the third presentation information. A reward image for a predetermined time (for example, 3 seconds) showing the information is displayed. FIG. 4 shows a short-time video as an example of the reward video for the predetermined time. Further, when the presentation unit 140a presents the third presentation information, if the achievement level of the infant A is higher than the achievement level of the infant B, the presentation unit 140a displays information praising the behavior of the infant A as the third presentation information. The reward image is displayed for a longer time (for example, 20 seconds) than the above-mentioned predetermined time. FIG. 5 shows a long-time image as an example of the reward image that is longer than the predetermined time. The reward images shown in the examples of FIGS. 4 and 5 include content in which the character praises the behavior of the infant. As a reward image, it is useful to include a predetermined keyword (for example, "done", "wow", "well done", etc.) to compliment. A plurality of reward images including a short-time image and a long-time image are stored in a storage medium such as a memory or a hard disk of the information processing device 100a. The reward video may be a still image or a moving image, and may be accompanied by a voice complimenting the character.

幼児に対して褒美映像を提示すると、幼児はその映像を見るために時間を費やし、見終わってから再び、行動目標の達成のための整理収納行動に取り掛かることが想定される。そして、幼児に対して短時間映像である褒美映像を提示した場合より、長時間映像である褒美映像を提示した場合の方が、幼児がその映像を見るために長い時間を費やすので、幼児が行動目標の達成のための整理収納行動に再び取り掛かるのが遅れる。行動目標達成支援システム10では、この褒美映像を見るために幼児が時間を費やすこと等を利用して、競争している各幼児の達成レベルの変化を調整している。この調整は、例えば上述した短時間映像と長時間映像との選択により行われる。競争中の2人の幼児の達成レベルに大きな差が生じて、達成レベルが低い方の幼児が、行動目標の達成のための整理収納行動を継続する意欲を失うことを防止するために、この調整が行われる。 When the reward video is presented to the infant, it is assumed that the infant spends time watching the video, and after watching the video, starts the organizing and storing action to achieve the action goal again. Then, when the reward image which is a long-time image is presented to the infant, the infant spends a longer time to see the image than when the reward image which is a short-time image is presented to the infant. It is delayed to start the organizing and storing action to achieve the action goal again. In the action goal achievement support system 10, the change in the achievement level of each competing infant is adjusted by utilizing the time that the infant spends time to see this reward image. This adjustment is performed, for example, by selecting the short-time video and the long-time video described above. This is to prevent a large difference in the achievement levels of the two competing toddlers, which discourages the lower achievement level from continuing the organized and stowed behavior to achieve the action goal. Adjustments are made.

提示部140aは更に、イメージセンサ21aのセンシングの結果としての幼児Aに係る画像と、通信部120aが受信した第2センシング情報における幼児Bの画像とをディスプレイに表示する。 The presentation unit 140a further displays an image related to the infant A as a result of sensing by the image sensor 21a and an image of the infant B in the second sensing information received by the communication unit 120a on the display.

提示部140aがディスプレイに表示する画面における表示要素の配置は予め定められている。提示部140aが情報処理装置100aのディスプレイに表示する画面30における表示要素の配置例を図6に示す。図6に例示するように、情報処理装置100aのディスプレイの画面30には、第1ユーザ名称に係る表示要素31と、第1ユーザレベルに係る表示要素32と、第1ユーザ画像に係る表示要素33と、第2ユーザ名称に係る表示要素34と、第2ユーザレベルに係る表示要素35と、第2ユーザ画像に係る表示要素36とが表示され、褒美映像に係る表示要素37が上述の所定条件Aの成立時に表示される。表示要素31と表示要素32との組が第1提示用情報を示し、表示要素34と表示要素35との組が第2提示用情報を示し、表示要素37が第3提示用情報を示す。図6の例の情報処理装置100aが表示する画面30において、第1ユーザは幼児Aであり、第2ユーザは幼児Bであり、表示要素31は幼児Aの名称を表し、表示要素32は幼児Aの達成レベルを表し、表示要素33は幼児Aの画像を表し、表示要素34は幼児Bの名称を表し、表示要素35は幼児Bの達成レベルを表し、表示要素36は幼児Bの画像を表し、表示要素37は、褒美映像を表す。図7は、図6の配置例に従って提示部140aが、情報処理装置100aのディスプレイに表示する画面の具体例を示す。図7は、幼児Aの現在の達成レベルが2であり、幼児Bの現在の達成レベルが3であり、幼児Aへの褒美映像として短時間映像が表示されている例を示している。各幼児の行動目標に係る達成レベルは、図7に示すように、林檎のマークの個数等で表されてもよい。 The arrangement of display elements on the screen displayed on the display by the presentation unit 140a is predetermined. FIG. 6 shows an example of arranging display elements on the screen 30 displayed on the display of the information processing apparatus 100a by the presentation unit 140a. As illustrated in FIG. 6, on the screen 30 of the display of the information processing apparatus 100a, the display element 31 related to the first user name, the display element 32 related to the first user level, and the display element related to the first user image are displayed. 33, the display element 34 related to the second user name, the display element 35 related to the second user level, and the display element 36 related to the second user image are displayed, and the display element 37 related to the reward image is the above-mentioned predetermined. It is displayed when the condition A is satisfied. The pair of the display element 31 and the display element 32 shows the first presentation information, the set of the display element 34 and the display element 35 shows the second presentation information, and the display element 37 shows the third presentation information. In the screen 30 displayed by the information processing device 100a of the example of FIG. 6, the first user is the infant A, the second user is the infant B, the display element 31 represents the name of the infant A, and the display element 32 represents the infant. The achievement level of A is represented, the display element 33 represents the image of the infant A, the display element 34 represents the name of the infant B, the display element 35 represents the achievement level of the infant B, and the display element 36 represents the image of the infant B. The display element 37 represents a reward image. FIG. 7 shows a specific example of a screen displayed on the display of the information processing apparatus 100a by the presentation unit 140a according to the arrangement example of FIG. FIG. 7 shows an example in which the current achievement level of the infant A is 2, the current achievement level of the infant B is 3, and a short-time image is displayed as a reward image for the infant A. As shown in FIG. 7, the achievement level related to the action goal of each infant may be represented by the number of apple marks or the like.

情報処理装置100bの提示部140bは、例えば情報処理装置100bのメモリ、ハードディスク等の記憶媒体、ディスプレイ、及び、プログラムを実行するプロセッサ等により実現される。提示部140bは、自己レベル特定部110bにより特定された幼児Bの達成レベルと、他者レベル特定部130bにより特定された幼児Aの達成レベルとに基づいて、幼児Bに対して提示用情報を提示する。具体的には、提示部140bは、幼児Bの達成レベルと幼児Aの達成レベルとに基づいて提示用情報の内容或いは提示時間を決定し、その決定に従って提示用情報の提示を、例えば幼児Bが視認可能な情報処理装置100bのディスプレイへの表示により、行う。詳細には、例えば、提示部140bは、幼児Bの達成レベルを示す第4提示用情報と幼児Aの達成レベルを示す第5提示用情報とを逐次提示し、幼児Bの達成レベルについて所定条件Bが成立した場合には幼児Bの達成レベルと幼児Aの達成レベルとの差分に応じて第6提示用情報を提示する。この所定条件Bは、任意に定められる。所定条件Bは、例えば、単位時間当たりの幼児Bの達成レベルの変化量が所定閾値(例えば0、1等)より大きくなったという条件、幼児Bの達成レベルが前回の達成レベルより1つ上昇したという条件、例えば達成レベルが1、3、5、7等の所定数になったという条件、或いは、幼児Bの達成レベルが幼児Aの達成レベルより高くその差分が閾値以上になったという条件等である。所定条件Bは、所定条件Aと同一であってもよい。例えば、提示部140bは、単位時間当たりの幼児Bの達成レベルの変化量が所定閾値より大きくなった場合等といった上述の所定条件Bが成立した場合に、幼児Bの行動を褒めた内容の褒美映像を表示する。第4提示用情報は、幼児Bの名称を含んでもよいし、第5提示用情報は、幼児Aの名称を含んでもよい。 The presentation unit 140b of the information processing device 100b is realized by, for example, a memory of the information processing device 100b, a storage medium such as a hard disk, a display, a processor that executes a program, and the like. The presentation unit 140b provides presentation information to the infant B based on the achievement level of the infant B specified by the self-level identification unit 110b and the achievement level of the infant A specified by the other person level identification unit 130b. Present. Specifically, the presentation unit 140b determines the content or presentation time of the presentation information based on the achievement level of the infant B and the achievement level of the infant A, and presents the presentation information according to the determination, for example, the infant B. Is displayed on the display of the information processing device 100b that can be visually recognized. Specifically, for example, the presentation unit 140b sequentially presents the fourth presentation information indicating the achievement level of the infant B and the fifth presentation information indicating the achievement level of the infant A, and predetermined conditions for the achievement level of the infant B. When B is established, the sixth presentation information is presented according to the difference between the achievement level of the infant B and the achievement level of the infant A. This predetermined condition B is arbitrarily determined. The predetermined condition B is, for example, a condition that the amount of change in the achievement level of the infant B per unit time is larger than the predetermined threshold value (for example, 0, 1, etc.), and the achievement level of the infant B is increased by one from the previous achievement level. The condition that the achievement level has reached a predetermined number such as 1, 3, 5, 7, or the condition that the achievement level of the infant B is higher than the achievement level of the infant A and the difference is equal to or more than the threshold value. And so on. The predetermined condition B may be the same as the predetermined condition A. For example, the presentation unit 140b rewards the behavior of the infant B when the above-mentioned predetermined condition B is satisfied, such as when the amount of change in the achievement level of the infant B per unit time becomes larger than the predetermined threshold value. Display the image. The fourth presentation information may include the name of the infant B, and the fifth presentation information may include the name of the infant A.

提示部140bは、例えば、第6提示用情報の提示に際して、幼児Bの達成レベルが幼児Aの達成レベルより高い場合には、幼児Bの達成レベルが幼児Aの達成レベルより高くない場合より長い時間に亘ってその第6提示用情報を提示する。この一例としては、提示部140bは、第6提示用情報の提示に際して、幼児Bの達成レベルが幼児Aの達成レベルより高くない場合には、第6提示用情報として、幼児Bの行動を褒めた情報を表した所定時間(例えば3秒)の褒美映像(図4参照)を表示する。また、提示部140bは、第6提示用情報の提示に際して、幼児Bの達成レベルが幼児Aの達成レベルより高い場合には、第6提示用情報として、幼児Bの行動を褒めた情報を表した、上述の所定時間より長時間(例えば20秒)の褒美映像(図5参照)を表示する。情報処理装置100bのメモリ、ハードディスク等の記憶媒体に、短時間映像及び長時間映像を含む複数の褒美映像が記憶されている。 In presenting the sixth presentation information, for example, the presentation unit 140b is longer when the achievement level of the infant B is higher than the achievement level of the infant A than when the achievement level of the infant B is not higher than the achievement level of the infant A. The sixth presentation information is presented over time. As an example of this, when presenting the sixth presentation information, if the achievement level of the infant B is not higher than the achievement level of the infant A, the presentation unit 140b praises the behavior of the infant B as the sixth presentation information. A reward image (see FIG. 4) for a predetermined time (for example, 3 seconds) showing the information is displayed. Further, when the presentation unit 140b presents the sixth presentation information, if the achievement level of the infant B is higher than the achievement level of the infant A, the presentation unit 140b displays information praising the behavior of the infant B as the sixth presentation information. The reward image (see FIG. 5) for a longer time (for example, 20 seconds) than the above-mentioned predetermined time is displayed. A plurality of reward images including a short-time image and a long-time image are stored in a storage medium such as a memory or a hard disk of the information processing device 100b.

提示部140bは更に、イメージセンサ21bのセンシングの結果としての幼児Bに係る画像と、通信部120bが受信した第1センシング情報における幼児Aの画像とをディスプレイに表示する。 The presentation unit 140b further displays an image of the infant B as a result of sensing by the image sensor 21b and an image of the infant A in the first sensing information received by the communication unit 120b on the display.

提示部140bが情報処理装置100bのディスプレイに表示する画面における表示要素の配置は、上述した提示部140aが情報処理装置100aのディスプレイに表示する画面30における表示要素の配置例と同様である(図6参照)。但し、図6の例において表示要素31と表示要素32との組が第4提示用情報を示し、表示要素34と表示要素35との組が第5提示用情報を示し、表示要素37が第6提示用情報を示し、表示要素37は所定条件Bの成立時に表示される。情報処理装置100bが表示する画面では、図6の例における第1ユーザは幼児Bであり、第2ユーザは幼児Aであり、表示要素31は幼児Bの名称を表し、表示要素32は幼児Bの達成レベルを表し、表示要素33は幼児Bの画像を表し、表示要素34は幼児Aの名称を表し、表示要素35は幼児Aの達成レベルを表し、表示要素36は幼児Aの画像を表し、表示要素37は、褒美映像を表す。 The arrangement of the display elements on the screen displayed by the presentation unit 140b on the display of the information processing device 100b is the same as the arrangement example of the display elements on the screen 30 displayed by the presentation unit 140a on the display of the information processing device 100a (FIG. FIG. 6). However, in the example of FIG. 6, the pair of the display element 31 and the display element 32 indicates the fourth presentation information, the pair of the display element 34 and the display element 35 indicates the fifth presentation information, and the display element 37 is the fifth presentation information. 6 Information for presentation is shown, and the display element 37 is displayed when the predetermined condition B is satisfied. On the screen displayed by the information processing device 100b, the first user in the example of FIG. 6 is the infant B, the second user is the infant A, the display element 31 represents the name of the infant B, and the display element 32 represents the infant B. The display element 33 represents the image of the infant B, the display element 34 represents the name of the infant A, the display element 35 represents the achievement level of the infant A, and the display element 36 represents the image of the infant A. , The display element 37 represents a reward image.

(動作)
以下、上述の構成を備える行動目標達成支援システム10の動作例について説明する。この説明では、幼児A及び幼児Bの各保護者が幼児に玩具で遊んだ後に玩具を片付けるという整理収納行動を習得させるために行動目標達成支援システム10を活用することとする。また、2人の幼児は概ね同じタイミングで整理収納行動を開始して競争するものとする。
(motion)
Hereinafter, an operation example of the action goal achievement support system 10 having the above configuration will be described. In this explanation, the action goal achievement support system 10 will be utilized in order for each guardian of the infant A and the infant B to learn the organizing and storing behavior of putting away the toys after playing with the toys. In addition, the two infants shall start organizing and storing actions at approximately the same timing to compete.

図8は、行動目標達成支援システム10の情報処理装置100aの動作の一例を示すフローチャートである。ここでは、幼児Aが住む住宅20aにおける情報処理装置100aの動作を中心に説明するが、幼児Aと整理収納行動について競争する幼児Bが住む住宅20bにおける情報処理装置100bも、情報処理装置100bと同様の動作を行う。但し、情報処理装置100aでは幼児Aを第1ユーザ、幼児Bを第2ユーザとして扱い、情報処理装置100bでは幼児Bを第1ユーザ、幼児Aを第2ユーザとして扱う。 FIG. 8 is a flowchart showing an example of the operation of the information processing device 100a of the action goal achievement support system 10. Here, the operation of the information processing device 100a in the house 20a where the infant A lives will be mainly described, but the information processing device 100b in the house 20b where the infant B who competes with the infant A for organizing and storing behavior is also referred to as the information processing device 100b. Perform the same operation. However, the information processing device 100a treats the infant A as the first user and the infant B as the second user, and the information processing device 100b treats the infant B as the first user and the infant A as the second user.

以下、図8に即して情報処理装置100aの動作を説明する。図8の動作は、例えば、幼児Aが玩具で遊んだ後に玩具を片付ける整理収納行動を開始する際に、保護者等の起動操作によって開始される。図8では省略しているが、例えば、保護者等の停止操作により、情報処理装置100aの動作は終了してもよいし、幼児Aの達成レベルが最高レベルに到達した時点で動作を終了することとしてもよい。また、情報処理装置100bも情報処理装置100aと同様に図8に示すような動作を行っているものとする。このため、情報処理装置100aと情報処理装置100bとの間では相互に情報の授受が行われ得る。 Hereinafter, the operation of the information processing apparatus 100a will be described with reference to FIG. The operation of FIG. 8 is started by, for example, an activation operation by a guardian or the like when the infant A starts the organizing and storing action of putting away the toys after playing with the toys. Although omitted in FIG. 8, for example, the operation of the information processing device 100a may be terminated by a stop operation by a guardian or the like, or the operation is terminated when the achievement level of the infant A reaches the highest level. It may be that. Further, it is assumed that the information processing device 100b also performs the operation as shown in FIG. 8 in the same manner as the information processing device 100a. Therefore, information can be exchanged between the information processing device 100a and the information processing device 100b.

まず、情報処理装置100aは、イメージセンサ21aから住宅20aにおいて整理収納行動中の幼児A(第1ユーザ)及び玩具箱22aが撮像された画像を取得する(ステップS11)。 First, the information processing device 100a acquires an image of the infant A (first user) and the toy box 22a being organized and stored in the house 20a from the image sensor 21a (step S11).

続いて、情報処理装置100aの自己レベル特定部110aは、ステップS11で取得された画像に基づく画像認識処理の結果と達成レベル評価テーブル(図2参照)に基づいて、第1ユーザの達成レベルを評価して、第1レベルとして特定する(ステップS12)。 Subsequently, the self-level identification unit 110a of the information processing apparatus 100a determines the achievement level of the first user based on the result of the image recognition process based on the image acquired in step S11 and the achievement level evaluation table (see FIG. 2). It is evaluated and specified as the first level (step S12).

また、情報処理装置100aの通信部120aは、情報処理装置100bから第2センシング情報の一部として送信される幼児B(第2ユーザ)の画像を受信する(ステップS13)。また通信部120aが、情報処理装置100bから第2センシング情報の一部として送信される第2ユーザの達成レベルを受信して、他者レベル特定部130aがその第2ユーザの達成レベルを、第2レベルとして特定する(ステップS14)。なお、図8では省略しているが、情報処理装置100aの通信部120aは、例えば第2センシング情報の受信前或いは受信後に第1ユーザの画像及び達成レベルを含む第1センシング情報を情報処理装置100bに送信する。 Further, the communication unit 120a of the information processing device 100a receives an image of the infant B (second user) transmitted from the information processing device 100b as a part of the second sensing information (step S13). Further, the communication unit 120a receives the achievement level of the second user transmitted from the information processing device 100b as a part of the second sensing information, and the other person level identification unit 130a sets the achievement level of the second user. It is specified as two levels (step S14). Although omitted in FIG. 8, the communication unit 120a of the information processing device 100a processes the first sensing information including the image of the first user and the achievement level before or after receiving the second sensing information, for example. Send to 100b.

次に、情報処理装置100aの提示部140aは、ステップS11〜S14で得られた第1レベル、第2レベル、第1ユーザの画像、第2ユーザの画像等に基づいて、予め定められている配置(図6参照)に従って画面の内容を定めて、ディスプレイの表示を更新する(ステップS15)。 Next, the presentation unit 140a of the information processing apparatus 100a is predetermined based on the first level, the second level, the image of the first user, the image of the second user, etc. obtained in steps S11 to S14. The contents of the screen are determined according to the arrangement (see FIG. 6), and the display is updated (step S15).

次に、情報処理装置100aの提示部140aは、第1ユーザの達成レベルについて、前回の達成レベルより1つ上昇したという条件が成立したか否かを判定する(ステップS16)。その条件が成立しない場合には、情報処理装置100aのディスプレイには褒美映像は表示されず、情報処理装置100aは再びステップS11での処理に戻る。 Next, the presentation unit 140a of the information processing apparatus 100a determines whether or not the condition that the achievement level of the first user is one higher than the previous achievement level is satisfied (step S16). If the condition is not satisfied, the reward image is not displayed on the display of the information processing device 100a, and the information processing device 100a returns to the process in step S11 again.

ステップS16で条件が成立したと判定した場合には、提示部140aは、第1レベルから第2レベルを減算した結果が予め定められた閾値より大きいか否かを判定する(ステップS17)。この閾値は、例えば0でもよいし、例えば1、2等でもよい。 When it is determined in step S16 that the condition is satisfied, the presentation unit 140a determines whether or not the result of subtracting the second level from the first level is larger than a predetermined threshold value (step S17). This threshold value may be, for example, 0, or may be 1, 2, or the like.

ステップS17で否定的に判定した場合には、提示部140aは、ディスプレイに、予め定められた短時間(例えば3秒)の褒美映像(図4参照)を表示する(ステップS18)。そして、情報処理装置100aは再びステップS11での処理に戻る。例えば第1レベルが2で第2レベルが3である場合においてこのステップS18が実行されると、情報処理装置100aのディスプレイには、例えば図7に示すような画面が表示されることになる。幼児A(第1ユーザ)は、その画面を見ることができる。 If a negative determination is made in step S17, the presentation unit 140a displays a predetermined short-time (for example, 3 seconds) reward image (see FIG. 4) on the display (step S18). Then, the information processing apparatus 100a returns to the process in step S11 again. For example, when this step S18 is executed when the first level is 2 and the second level is 3, the display of the information processing apparatus 100a displays a screen as shown in FIG. 7, for example. Infant A (first user) can see the screen.

また、ステップS17で肯定的に判定した場合には、提示部140aは、ディスプレイに、予め定められた長時間(例えば20秒)の褒美映像(図5参照)を表示する(ステップS19)。そして、情報処理装置100aは再びステップS11での処理に戻る。 If a positive determination is made in step S17, the presentation unit 140a displays a predetermined long-time (for example, 20 seconds) reward image (see FIG. 5) on the display (step S19). Then, the information processing apparatus 100a returns to the process in step S11 again.

このように情報処理装置100aが動作し、同様に情報処理装置100bが動作すると、幼児Aと幼児Bとは互いに自宅のディスプレイにより競争相手の画像、達成レベル等を確認でき、整理収納行動を競い合って行うことができる。これにより、各幼児は自発的に整理収納行動を行うようになり、整理収納行動の習得が促進される。 When the information processing device 100a operates in this way and the information processing device 100b operates in the same manner, the infant A and the infant B can mutually confirm the image of the competitor, the achievement level, etc. on the display at home, and compete for the organizing and storing behavior. Can be done. As a result, each infant will voluntarily perform the organizing and storing behavior, and the acquisition of the organizing and storing behavior will be promoted.

また、ステップS17での判定により、現在の達成レベルが競争相手より閾値分高い方の幼児は、長時間の褒美映像を見ることができるようになり、整理収納行動を行う意欲が高まり得る。この達成レベルが競争相手より閾値分高い方の幼児は、長時間の褒美映像を見ることでその分、整理収納行動の再開が遅れる。これにより、その達成レベルが高い幼児と、達成レベルが低い他方の幼児との達成レベルの差が広がり難くなる。このため、差が広がり過ぎて他方の幼児が整理収納行動を行う意欲を失うことが防止され得る。 Further, according to the determination in step S17, the infant whose current achievement level is higher than that of the competitor by a threshold value can see the reward image for a long time, and may be more motivated to perform the organizing and storing action. Toddlers whose achievement level is higher than their competitors by a threshold will be delayed in resuming the organizing and storing behavior by watching the reward video for a long time. As a result, it becomes difficult to widen the difference in achievement level between the infant with a high achievement level and the other infant with a low achievement level. Therefore, it can be prevented that the difference becomes too wide and the other infant loses the motivation to perform the organizing and storing behavior.

このように、本実施の形態に係る行動目標達成支援システム10は、競争環境を実現することで幼児に行動目標の達成のための行動を効率的に習得させ、競争で大敗した幼児が行動意欲を失う事態が生じないように調整を行うことで、幼児の行動目標の達成のための行動を適切に支援する。 In this way, the action goal achievement support system 10 according to the present embodiment allows the infant to efficiently learn the action for achieving the action goal by realizing a competitive environment, and the infant who is greatly defeated in the competition is motivated to act. Appropriately support the behavior of young children to achieve their behavioral goals by making adjustments so that they do not lose their behavior.

(実施の形態2)
以下、上述した行動目標達成支援システム10における情報処理装置100a、100bを部分的に変形した実施の形態について説明する。本実施の形態に係る行動目標達成支援システム10では、長時間の褒美映像と短時間の褒美映像とのいずれを表示するかが、幼児の上達度にも基づいて選択される。上達度は、所定行動目標の達成のための行動としての整理収納行動の上達の度合いであり、例えば、完全に整理収納行動が習得できた状態では上達度は最高値となり、整理収納行動を行ったことがない状態では上達度はゼロ(0)である。
(Embodiment 2)
Hereinafter, embodiments of the information processing devices 100a and 100b in the above-mentioned action goal achievement support system 10 will be described. In the action goal achievement support system 10 according to the present embodiment, whether to display a long-time reward image or a short-time reward image is selected based on the progress of the infant. The degree of improvement is the degree of improvement of the organizing and storing action as an action for achieving a predetermined action goal. The degree of progress is zero (0) in the state where it has never been done.

(構成)
本実施の形態に係る行動目標達成支援システム10は、情報処理装置100a、100bの代わりに図9に示す情報処理装置100cを備える他は、実施の形態1で示した構成(図1参照)と概ね同様である。ここでは、実施の形態1と同様の構成については実施の形態1と同じ符号を用いて、実施の形態1と異なる点を中心に説明する。ここで特に説明しない点については、実施の形態1と同様である。
(Constitution)
The action goal achievement support system 10 according to the present embodiment has the configuration shown in the first embodiment (see FIG. 1) except that the information processing device 100c shown in FIG. 9 is provided instead of the information processing devices 100a and 100b. It is almost the same. Here, the same configuration as that of the first embodiment will be described by using the same reference numerals as those of the first embodiment and focusing on the differences from the first embodiment. The points not particularly described here are the same as those in the first embodiment.

情報処理装置100cは、住宅20a及び住宅20bに備えられ、各情報処理装置100cは、相互に通信可能である。 The information processing device 100c is provided in the house 20a and the house 20b, and the information processing devices 100c can communicate with each other.

住宅20aの情報処理装置100cは、イメージセンサ21aから住宅20a内の幼児Aに係る画像データを取得して、幼児Aの整理収納行動を評価し、幼児Aに係る画像データ及び評価結果を住宅20bの情報処理装置100cに送信する。住宅20bの情報処理装置100cは、イメージセンサ21bから住宅20b内の幼児Bに係る画像データを取得して、幼児Bの整理収納行動を評価し、幼児Bに係る画像データ及び評価結果を住宅20aの情報処理装置100cに送信する。これにより、2つの情報処理装置100cのそれぞれにおいて、各住宅において整理収納行動を行なっている2人の幼児の画像、評価結果に基づく情報等をディスプレイに表示することが可能になる。住宅20aの情報処理装置100cにおいては住宅20aの幼児Aを第1ユーザ、住宅20bの幼児Bを第2ユーザとして扱い、住宅20bの情報処理装置100cにおいては住宅20bの幼児Bを第1ユーザ、住宅20aの幼児Aを第2ユーザとして扱う。 The information processing device 100c of the house 20a acquires the image data of the infant A in the house 20a from the image sensor 21a, evaluates the organizing and storing behavior of the child A, and outputs the image data and the evaluation result of the child A to the house 20b. It is transmitted to the information processing device 100c of. The information processing device 100c of the house 20b acquires the image data of the infant B in the house 20b from the image sensor 21b, evaluates the organizing and storing behavior of the child B, and outputs the image data and the evaluation result of the child B to the house 20a. It is transmitted to the information processing device 100c of. As a result, in each of the two information processing devices 100c, it is possible to display on the display the images of the two infants performing the organizing and storing behavior in each house, the information based on the evaluation result, and the like. In the information processing device 100c of the house 20a, the infant A of the house 20a is treated as the first user, the infant B of the house 20b is treated as the second user, and in the information processing device 100c of the house 20b, the infant B of the house 20b is the first user. Infant A in house 20a is treated as a second user.

情報処理装置100cは、通信I/F、メモリ及びプロセッサ、ディスプレイ、入力装置等を含んで構成される。情報処理装置100cは、通信I/Fにより、例えばイメージセンサ、及び、他の情報処理装置100cと通信可能である。情報処理装置100cは、ここで特に説明しない点については情報処理装置100a或いは情報処理装置100bと同様である。 The information processing device 100c includes a communication I / F, a memory and a processor, a display, an input device, and the like. The information processing device 100c can communicate with, for example, an image sensor and another information processing device 100c by means of a communication I / F. The information processing device 100c is the same as the information processing device 100a or the information processing device 100b except that not particularly described here.

情報処理装置100cは、画像データに基づく幼児の行動の評価、評価結果に基づく情報の提示等を行う機能を実現するために、機能面では、図9に示すように自己レベル特定部110a、通信部120c、他者レベル特定部130a、提示部140c及び取得部150cを備える。情報処理装置100cの構成要素のうち情報処理装置100aと同様の構成要素については、図9において図1と同じ符号を付しており、ここでは説明を省略する。 In order to realize a function of evaluating the behavior of an infant based on image data, presenting information based on the evaluation result, and the like, the information processing device 100c has a self-level identification unit 110a and communication as shown in FIG. A unit 120c, another person level identification unit 130a, a presentation unit 140c, and an acquisition unit 150c are provided. Among the components of the information processing device 100c, the same components as those of the information processing device 100a are designated by the same reference numerals as those in FIG. 9, and the description thereof will be omitted here.

取得部150cは、所定行動目標の達成についての第1ユーザ及び第2ユーザそれぞれの上達度を示す上達度情報を取得して保持する。取得部150cは、例えば、情報処理装置100cのメモリ等の記憶媒体、入力装置、プログラムを実行するプロセッサ等で構成される。取得部150cは、例えば幼児の保護者等によって入力装置から入力される第1ユーザ及び第2ユーザの上達度を示す上達度情報を取得することとしてもよい。また、取得部150cは、例えば、自己レベル特定部110aで特定された幼児の達成レベルについての履歴を示す履歴情報(例えば過去1ヵ月分の履歴等の情報)を記憶媒体に蓄積してその履歴情報に基づいて予め定めた演算処理等で上達度を算定することとしてもよい。そして、各住宅の情報処理装置100c間でその算定結果の授受を行うことにより、取得部150cは、算定結果による第1ユーザ及び第2ユーザの上達度を、上達度情報として定めてもよい。上達度の算定は、例えば、達成レベルを0〜10で表す場合に、達成レベルが最高レベルの10まで到達した日の連続数が多い程、上達度を高くするように定める演算処理等により、実現可能である。 The acquisition unit 150c acquires and holds the progress information indicating the progress of each of the first user and the second user regarding the achievement of the predetermined action goal. The acquisition unit 150c is composed of, for example, a storage medium such as a memory of the information processing device 100c, an input device, a processor that executes a program, and the like. The acquisition unit 150c may acquire the improvement degree information indicating the improvement degree of the first user and the second user input from the input device by, for example, a guardian of an infant or the like. Further, the acquisition unit 150c accumulates, for example, history information (for example, information such as the history for the past one month) indicating the history of the achievement level of the infant specified by the self-level identification unit 110a in a storage medium, and the history thereof. The degree of progress may be calculated by a predetermined arithmetic process or the like based on the information. Then, by exchanging the calculation result between the information processing devices 100c of each house, the acquisition unit 150c may determine the progress of the first user and the second user based on the calculation result as the progress information. The degree of progress is calculated, for example, when the achievement level is expressed by 0 to 10, the number of consecutive days when the achievement level reaches the highest level of 10 is increased, and the degree of improvement is determined by arithmetic processing or the like. It is feasible.

通信部120cは、実施の形態1で示した通信部120a或いは通信部120bを部分的に変形したものであり、住宅20aの情報処理装置100cの通信部120cと住宅20bの情報処理装置100cの通信部120cとはセンシング情報の交換を行う。このセンシング情報は、第1ユーザを撮像した画像(つまり画像データ)と自己レベル特定部110aが特定した第1ユーザの達成レベルとを含み、例えば上述の上達度の算定結果を含み得る。 The communication unit 120c is a partially modified version of the communication unit 120a or the communication unit 120b shown in the first embodiment, and is a communication between the communication unit 120c of the information processing device 100c of the house 20a and the information processing device 100c of the house 20b. Sensing information is exchanged with the unit 120c. This sensing information includes an image (that is, image data) captured by the first user and the achievement level of the first user specified by the self-level specifying unit 110a, and may include, for example, the above-mentioned calculation result of the degree of progress.

提示部140cは、実施の形態1で示した提示部140a或いは提示部140bを部分的に変形したものである。提示部140cは、第1ユーザの達成レベルを示す第1提示用情報と第2ユーザの達成レベルを示す第2提示用情報とを逐次提示し、第1ユーザの達成レベルについて所定条件が成立した場合には第1ユーザの達成レベルと第2ユーザの達成レベルとの差分に応じて第3提示用情報を提示する。所定条件は、例えば、単位時間当たりの第1ユーザの達成レベルの変化量が所定閾値より大きくなった場合、例えば、第1ユーザの達成レベルが前回の達成レベルより1つ上昇した場合等であり、上述の所定条件Aと同様である。そして、提示部140cは、第3提示用情報の提示として褒美映像の表示を行う。提示部140cは、褒美映像の表示に際して、自己レベル特定部110aで特定された第1ユーザの達成レベルと、他者レベル特定部130aで特定された第2ユーザの達成レベルとの差分と、取得部150cが取得して保持する上達度情報が示す第1ユーザ及び第2ユーザの上達度の差分とに基づいて、長時間の褒美映像(図5参照)か短時間の褒美映像(図4参照)かを選択して、選択した褒美映像を表示する。 The presentation unit 140c is a partially modified version of the presentation unit 140a or the presentation unit 140b shown in the first embodiment. The presentation unit 140c sequentially presents the first presentation information indicating the achievement level of the first user and the second presentation information indicating the achievement level of the second user, and a predetermined condition is satisfied for the achievement level of the first user. In this case, the third presentation information is presented according to the difference between the achievement level of the first user and the achievement level of the second user. The predetermined condition is, for example, when the amount of change in the achievement level of the first user per unit time becomes larger than the predetermined threshold value, for example, when the achievement level of the first user is increased by one from the previous achievement level. , The same as the above-mentioned predetermined condition A. Then, the presentation unit 140c displays the reward image as the presentation of the third presentation information. When displaying the reward image, the presentation unit 140c acquires the difference between the achievement level of the first user specified by the self-level identification unit 110a and the achievement level of the second user specified by the other person level identification unit 130a. A long-time reward image (see FIG. 5) or a short-time reward image (see FIG. 4) based on the difference in the progress of the first user and the second user indicated by the improvement information acquired and held by the unit 150c. ) To display the selected reward video.

(動作)
以下、本実施の形態に係る行動目標達成支援システム10の動作例について、実施の形態1と同様に、幼児A及び幼児Bが整理収納行動を競争する例を想定して説明する。
(motion)
Hereinafter, an operation example of the action goal achievement support system 10 according to the present embodiment will be described assuming an example in which the infant A and the infant B compete for the organizing and storing behavior as in the first embodiment.

図10は、行動目標達成支援システム10の住宅20a及び住宅20bにおける情報処理装置100cの動作の一例を示すフローチャートである。ここでは、幼児Aが住む住宅20aにおける情報処理装置100cと、幼児Bが住む住宅20bにおける情報処理装置100cとが、図10に示す動作を行う。なお、住宅20aの情報処理装置100cでは幼児Aを第1ユーザ、幼児Bを第2ユーザとして扱い、住宅20bの情報処理装置100cでは幼児Bを第1ユーザ、幼児Aを第2ユーザとして扱う。 FIG. 10 is a flowchart showing an example of the operation of the information processing device 100c in the houses 20a and the houses 20b of the action goal achievement support system 10. Here, the information processing device 100c in the house 20a where the infant A lives and the information processing device 100c in the house 20b where the infant B lives perform the operations shown in FIG. The information processing device 100c of the house 20a treats the infant A as the first user and the infant B as the second user, and the information processing device 100c of the house 20b treats the infant B as the first user and the infant A as the second user.

以下、図10に即して情報処理装置100cの動作を説明する。図10の動作は、例えば、幼児が玩具で遊んだ後に玩具を片付ける整理収納行動を開始する際に、保護者等の起動操作によって開始される。図10では省略しているが、例えば、保護者等の停止操作により、情報処理装置100cの動作は終了してもよいし、第1ユーザの達成レベルが最高レベルに到達した時点で動作を終了することとしてもよい。ここでは主として住宅20aの情報処理装置100cの動作を説明する。 Hereinafter, the operation of the information processing apparatus 100c will be described with reference to FIG. The operation of FIG. 10 is started by an activation operation of a guardian or the like, for example, when the infant starts the organizing and storing action of putting away the toys after playing with the toys. Although omitted in FIG. 10, for example, the operation of the information processing device 100c may be terminated by a stop operation by a guardian or the like, or the operation is terminated when the achievement level of the first user reaches the highest level. You may do it. Here, the operation of the information processing device 100c of the house 20a will be mainly described.

まず、情報処理装置100cは、取得部150cにより、第1ユーザ及び第2ユーザの上達度を示す上達度情報を取得して保持する(ステップS21)。なお、上述したように、情報処理装置100cは、他の情報処理装置100cとの間で情報の授受を行う上達度情報を定めてもよい。 First, the information processing apparatus 100c acquires and holds the improvement degree information indicating the improvement degree of the first user and the second user by the acquisition unit 150c (step S21). As described above, the information processing device 100c may determine the progress level information for exchanging information with the other information processing device 100c.

次に、情報処理装置100cは、イメージセンサから整理収納行動中の第1ユーザ及び玩具箱が撮像された画像を取得する(ステップS22)。住宅20aにおける情報処理装置100cは、イメージセンサ21aから画像(画像データ)を取得する。 Next, the information processing device 100c acquires an image captured by the first user and the toy box in the organizing and storing action from the image sensor (step S22). The information processing device 100c in the house 20a acquires an image (image data) from the image sensor 21a.

続いて、情報処理装置100cの自己レベル特定部110aは、ステップS22で取得された画像に基づく画像認識処理の結果と達成レベル評価テーブル(図2参照)に基づいて、第1ユーザの達成レベルを評価して、第1レベルとして特定する(ステップS23)。 Subsequently, the self-level identification unit 110a of the information processing apparatus 100c determines the achievement level of the first user based on the result of the image recognition process based on the image acquired in step S22 and the achievement level evaluation table (see FIG. 2). It is evaluated and specified as the first level (step S23).

また、情報処理装置100cの通信部120cは、他の情報処理装置100cからセンシング情報の一部として送信される第2ユーザの画像を受信する(ステップS24)。また通信部120cが、他の情報処理装置100cからセンシング情報の一部として送信される第2ユーザの達成レベルを受信して、他者レベル特定部130aがその第2ユーザの達成レベルを、第2レベルとして特定する(ステップS25)。なお、図10では省略しているが、情報処理装置100cの通信部120cは、例えばステップS24、S25でのセンシング情報の受信前或いは受信後に第1ユーザの画像及び達成レベルを含むセンシング情報を、他の情報処理装置100cに送信する。 Further, the communication unit 120c of the information processing device 100c receives the image of the second user transmitted as a part of the sensing information from the other information processing device 100c (step S24). Further, the communication unit 120c receives the achievement level of the second user transmitted as a part of the sensing information from the other information processing device 100c, and the other person level identification unit 130a sets the achievement level of the second user. It is specified as two levels (step S25). Although omitted in FIG. 10, the communication unit 120c of the information processing apparatus 100c provides the sensing information including the image of the first user and the achievement level before or after receiving the sensing information in steps S24 and S25, for example. It is transmitted to another information processing device 100c.

次に、情報処理装置100cの提示部140cは、ステップS21〜S25で得られた各ユーザの上達度、第1レベル、第2レベル、第1ユーザの画像、第2ユーザの画像等に基づいて、予め定められている配置(図6参照)に従って画面の内容を定めて、ディスプレイの表示を更新する(ステップS26)。 Next, the presentation unit 140c of the information processing apparatus 100c is based on the progress of each user, the first level, the second level, the image of the first user, the image of the second user, etc. obtained in steps S21 to S25. , The content of the screen is determined according to a predetermined arrangement (see FIG. 6), and the display is updated (step S26).

次に、情報処理装置100cの提示部140cは、第1ユーザの達成レベルについて、前回の達成レベルより1つ上昇したという条件が成立したか否かを判定する(ステップS27)。その条件が成立しない場合には、情報処理装置100cのディスプレイには第3提示用情報としての褒美映像は表示されず、情報処理装置100cは再びステップS21での処理に戻る。 Next, the presentation unit 140c of the information processing apparatus 100c determines whether or not the condition that the achievement level of the first user is one higher than the previous achievement level is satisfied (step S27). If the condition is not satisfied, the reward image as the third presentation information is not displayed on the display of the information processing device 100c, and the information processing device 100c returns to the process in step S21 again.

ステップS27で条件が成立したと判定した場合には、提示部140cは、第1レベルから第2レベルを減算して、上達度の差分を加算した結果が予め定められた閾値より大きいか否かを判定する(ステップS28)。この上達度の差分は、第1ユーザの上達度から第2ユーザの上達度を減算して得られる。閾値は、例えば0でもよいし、例えば1、2等でもよい。上達度の差分が大きいと、小さい場合に比べてステップS28での判定で肯定的に判定され易い。 When it is determined in step S27 that the condition is satisfied, the presentation unit 140c subtracts the second level from the first level and adds the difference in the degree of progress, and whether or not the result is larger than the predetermined threshold value. Is determined (step S28). This difference in progress is obtained by subtracting the progress of the second user from the progress of the first user. The threshold value may be, for example, 0, or may be 1, 2, or the like. When the difference in the degree of progress is large, it is easier to make a positive determination in the determination in step S28 than in the case where the difference is small.

ステップS28で否定的に判定した場合には、提示部140cは、ディスプレイに、予め定められた短時間(例えば3秒)の褒美映像(図4参照)を表示する(ステップS29)。そして、情報処理装置100cは再びステップS21での処理に戻る。 If a negative determination is made in step S28, the presentation unit 140c displays a predetermined short-time (for example, 3 seconds) reward image (see FIG. 4) on the display (step S29). Then, the information processing apparatus 100c returns to the process in step S21 again.

また、ステップS28で肯定的に判定した場合には、提示部140cは、ディスプレイに、予め定められた長時間(例えば20秒)の褒美映像(図5参照)を表示する(ステップS30)。そして、情報処理装置100cは再びステップS21での処理に戻る。 If a positive determination is made in step S28, the presentation unit 140c displays a predetermined long-time (for example, 20 seconds) reward image (see FIG. 5) on the display (step S30). Then, the information processing apparatus 100c returns to the process in step S21 again.

このように住宅20a及び住宅20bのそれぞれで情報処理装置100cが動作すると、幼児Aと幼児Bとは互いに自宅のディスプレイにより競争相手の画像、達成レベル等を確認でき、整理収納行動を競い合って行うことができる。これにより、各幼児は自発的に整理収納行動を行うようになり、整理収納行動の習得が促進される。 When the information processing device 100c operates in each of the house 20a and the house 20b in this way, the infant A and the infant B can confirm the image of the competitor, the achievement level, etc. from each other on the display at home, and compete for the organizing and storing action. be able to. As a result, each infant will voluntarily perform the organizing and storing behavior, and the acquisition of the organizing and storing behavior will be promoted.

また、ステップS28での判定により、2人の幼児の上達度の差を踏まえて、長時間の褒美映像を表示するか短時間の褒美映像を表示するかが選択される。これにより、上達度の差が大きい場合に、幼児間の達成レベルの差が広がり易くなることに対応して褒美映像の時間が調整され得る。 Further, according to the determination in step S28, whether to display a long-time reward image or a short-time reward image is selected based on the difference in the progress of the two infants. As a result, when the difference in the degree of progress is large, the time of the reward image can be adjusted in response to the fact that the difference in the achievement level between the infants tends to widen.

このように、本実施の形態に係る行動目標達成支援システム10は、競争環境を実現することで幼児に行動目標の達成のための行動を効率的に習得させる。また、行動目標達成支援システム10は、競争で大敗した幼児が行動意欲を失う事態が生じないように上達度を踏まえた調整を行うことで、幼児の行動目標の達成のための行動を適切に支援する。 As described above, the action goal achievement support system 10 according to the present embodiment makes the infant efficiently learn the action for achieving the action goal by realizing the competitive environment. In addition, the action goal achievement support system 10 appropriately takes actions to achieve the action goal of the infant by making adjustments based on the degree of progress so that the infant who has lost a lot in the competition does not lose the motivation to act. Assist.

(他の実施の形態等)
以上、実施の形態1、2により行動目標達成支援システム10について説明したが、上述した実施の形態は一例に過ぎず、各種の変更、付加、省略等が可能であることは言うまでもない。
(Other embodiments, etc.)
Although the action goal achievement support system 10 has been described above with reference to the first and second embodiments, it goes without saying that the above-described embodiment is only an example and various changes, additions, omissions, etc. are possible.

上述の実施の形態では、行動目標達成支援システム10が、幼児のユーザが玩具を全て片付けるという行動目標を達成するための整理収納行動を習得することを支援する例を示した。しかし、行動目標達成支援システム10のユーザは必ずしも幼児に限られず、例えば児童、或いは成人等であってもよい。また、整理収納行動は、行動目標を達成するための特定の行動の一例に過ぎず、特定の行動は、例えば動植物の世話、掃除、体操等、いかなる行動でもよく、行動目標をどのように定めてもよい。 In the above-described embodiment, an example is shown in which the action goal achievement support system 10 assists the infant user to acquire the organizing and storing action for achieving the action goal of putting away all the toys. However, the user of the action goal achievement support system 10 is not necessarily limited to an infant, and may be, for example, a child or an adult. In addition, the organizing and storing action is only an example of a specific action for achieving the action goal, and the specific action may be any action such as caring for animals and plants, cleaning, gymnastics, etc., and how the action goal is set. You may.

また、上述の実施の形態では、行動目標達成支援システム10が、主に住宅内に設置された装置類で構成される例を示した。しかし、行動目標達成支援システム10は、住宅内に設置された装置類を含んでも含まなくてもよく、住宅外に設置された装置類を含んで構成されてもよいし、また、可搬性を有する装置類を含んで構成されてもよい。また、情報処理装置100a、100b、100cは、住宅内に設置された装置でなくてもよく、例えば、幼児の保護者等といった、行動目標達成支援システム10のユーザの支援者が携帯するスマートフォン、タブレット等の情報端末であってもよい。なお、情報処理装置100a、100b、100cを情報端末とした場合において、提示部140a、140b、140cは、例えば情報端末の外部のディスプレイ装置、プロジェクタ、テレビジョン受信機等を介して第1ユーザへの提示用情報の提示(例えば図6、図7に示す画面の表示等)を行うこととしてもよい。また、実施の形態で示した住宅20a、20bは、住宅以外の相互に離間した施設(例えば保育施設、病院等の建築物)であってもよい。 Further, in the above-described embodiment, an example is shown in which the action goal achievement support system 10 is mainly composed of devices installed in a house. However, the action goal achievement support system 10 may or may not include the devices installed in the house, may be configured to include the devices installed outside the house, and may be portable. It may be configured to include the devices to have. Further, the information processing devices 100a, 100b, and 100c do not have to be devices installed in the house, and a smartphone carried by a supporter of a user of the action goal achievement support system 10, such as a guardian of an infant. It may be an information terminal such as a tablet. When the information processing devices 100a, 100b, 100c are used as information terminals, the presentation units 140a, 140b, 140c are sent to the first user via, for example, an external display device, projector, television receiver, or the like of the information terminal. Information for presentation may be presented (for example, display of the screen shown in FIGS. 6 and 7). Further, the houses 20a and 20b shown in the embodiment may be facilities other than the houses that are separated from each other (for example, a building such as a childcare facility or a hospital).

また、上述の実施の形態では、行動目標達成支援システム10の2人のユーザ(第1ユーザ及び第2ユーザ)が、別々の住宅に所在して整理収納行動に係る競争を行う例を示したが、同じ住宅等の施設内の別々の部屋に所在してもよい。また、住宅20aの同じ部屋に2人のユーザが所在して各ユーザが同じ1つのディスプレイを視認可能であれば、行動目標達成支援システム10はイメージセンサ21aと情報処理装置100aとだけを備えてもよい。この場合にユーザ(第1ユーザ及び第2ユーザ)はそれぞれ別個の玩具箱に自分の玩具を収納する。この場合には、情報処理装置100aの通信部120aは不要となる。そして、情報処理装置100aの自己レベル特定部110aがイメージセンサ21aから得られる画像に基づいて第1ユーザの達成レベルを特定することと同様の方法で、その画像に基づいて他者レベル特定部130aが、第2ユーザの達成レベルを特定してもよい。また、各ユーザが用いる玩具箱が収納された玩具の合計重量を測定する重量センサを内蔵しているような場合であれば、情報処理装置100aの自己レベル特定部110aが、第1ユーザが用いる玩具箱の重量センサから得られる測定結果としての重量データに基づいて第1ユーザの達成レベルを特定し、他者レベル特定部130aが、第2ユーザが用いる玩具箱の重量センサから得られる測定結果としての重量データに基づいて第2ユーザの達成レベルを特定してもよい。 Further, in the above-described embodiment, an example is shown in which two users (first user and second user) of the action goal achievement support system 10 are located in different houses and compete for organizing and storing actions. However, they may be located in separate rooms in a facility such as the same house. Further, if two users are located in the same room of the house 20a and each user can see the same one display, the action goal achievement support system 10 includes only the image sensor 21a and the information processing device 100a. May be good. In this case, the users (first user and second user) store their toys in separate toy boxes. In this case, the communication unit 120a of the information processing device 100a becomes unnecessary. Then, in the same manner as the self-level identification unit 110a of the information processing device 100a specifies the achievement level of the first user based on the image obtained from the image sensor 21a, the other person level identification unit 130a is based on the image. However, the achievement level of the second user may be specified. Further, in the case where the toy box used by each user has a built-in weight sensor for measuring the total weight of the toys housed in the toy box, the self-level specifying unit 110a of the information processing device 100a is used by the first user. The achievement level of the first user is specified based on the weight data as the measurement result obtained from the weight sensor of the toy box, and the measurement result obtained by the other person level identification unit 130a from the weight sensor of the toy box used by the second user. The achievement level of the second user may be specified based on the weight data as.

また、上述の実施の形態では、提示部140aは、第3提示用情報としての褒美映像の提示に際して、第1レベルから第2レベルを減算した結果が閾値より大きいか否かで、長時間の褒美映像を表示するか短時間の褒美映像を表示するかを選択することとした。この代わりに、提示部140aは、第3提示用情報としての褒美映像の提示に際して、第1レベルと第2レベルとの差分に応じて定めた時間に亘って第3提示用情報を提示することとしてもよい。具体的には、予め1分間の映像等の第3提示用情報を定めておき、1分以内で、第1レベルと第2レベルとの差に比例した時間だけ、第3提示用情報を提示することとしてもよい。また、同様に、提示部140cは、第1レベルと第2レベルとの差分と、上達度情報が示す第1ユーザ及び第2ユーザの上達度の差分とに応じて定めた時間に亘って第3提示用情報を提示することとしてもよい。 Further, in the above-described embodiment, the presentation unit 140a takes a long time depending on whether or not the result of subtracting the second level from the first level is larger than the threshold value when presenting the reward image as the third presentation information. It was decided to select whether to display the reward video or the short-time reward video. Instead, the presentation unit 140a presents the third presentation information over a period of time determined according to the difference between the first level and the second level when presenting the reward image as the third presentation information. May be. Specifically, the third presentation information such as a one-minute video is determined in advance, and the third presentation information is presented within one minute for a time proportional to the difference between the first level and the second level. You may do it. Similarly, in the presentation unit 140c, the presentation unit 140c is used for a period of time determined according to the difference between the first level and the second level and the difference in the progress of the first user and the second user indicated by the progress information. 3 Information for presentation may be presented.

また、上述の実施の形態では、提示部140aが、第3提示用情報としての褒美映像の提示に際して、第1レベルと第2レベルとに基づいて褒美映像の提示時間を変化させる例を示した。しかし、提示部140aは、第1レベルと第2レベルとに応じて第3提示用情報の提示時間を変化させずに、第1レベルと第2レベルとに応じて第3提示用情報としての褒美映像の内容のみを変化させることとしてもよい。例えば、提示部140aは、ユーザへの第3提示用情報の提示に際して、第1レベルが第2レベルより高い場合には、第1レベルが第2レベルより高くない場合より長い時間に亘ってそのユーザの所定行動目標の達成を阻むように予め定められた内容を示す第3提示用情報を提示することとしてもよい。所定行動目標の達成を阻むように予め定められた内容は、例えば、幼児に対して、保護者の所在する場所まで移動してから元の場所に戻ることを指示する情報等を含む。これは、ユーザ間の競争に大差がつかないように調整するために有用である。また、提示部140aは、第3提示用情報の提示に際して、第1レベルと第2レベルとの差分に応じて定めた内容の第3提示用情報を提示することとしてもよい。この場合にユーザに提示される第3提示用情報の内容は、例えば、第1レベルが第2レベルより大きいとすればその差分が大きい程、長い時間に亘ってそのユーザの所定行動目標の達成を阻む効果を奏するように予め定められることが有用である。 Further, in the above-described embodiment, an example is shown in which the presentation unit 140a changes the presentation time of the reward image based on the first level and the second level when presenting the reward image as the third presentation information. .. However, the presentation unit 140a does not change the presentation time of the third presentation information according to the first level and the second level, and serves as the third presentation information according to the first level and the second level. Only the content of the reward image may be changed. For example, when the presentation unit 140a presents the third presentation information to the user, when the first level is higher than the second level, the presentation unit 140a takes a longer time than when the first level is not higher than the second level. The third presentation information indicating the predetermined contents may be presented so as to prevent the user from achieving the predetermined action goal. The content predetermined to prevent the achievement of the predetermined action goal includes, for example, information instructing the infant to move to the place where the guardian is located and then return to the original place. This is useful for adjusting so that there is not much difference in competition between users. Further, when presenting the third presentation information, the presentation unit 140a may present the third presentation information having the contents determined according to the difference between the first level and the second level. In this case, the content of the third presentation information presented to the user is, for example, if the first level is larger than the second level, the larger the difference, the longer the user's predetermined action goal is achieved. It is useful to be predetermined so as to have an effect of preventing the above.

また、上述の実施の形態で示した行動目標達成支援システム10における情報処理装置100a、100b、100cの機能の一部を他の装置が分担してもよい。他の装置は、住宅の外部のサーバ等といった、情報処理装置100a、100b、100cに対して遠隔地に設置されたコンピュータであってもよい。例えば、上述の実施の形態で示した情報処理装置100a、100b、100cの各構成要素(自己レベル特定部、他者レベル特定部、通信部、提示部等)は、1つの装置の筐体内に実装されてもよいし、相互に通信可能な複数の離間した装置に分散して実装されてもよい。 In addition, another device may share a part of the functions of the information processing devices 100a, 100b, and 100c in the action goal achievement support system 10 shown in the above-described embodiment. The other device may be a computer installed at a remote location with respect to the information processing devices 100a, 100b, 100c, such as a server outside the house. For example, the components (self-level identification unit, other-level identification unit, communication unit, presentation unit, etc.) of the information processing devices 100a, 100b, and 100c shown in the above-described embodiment are contained in the housing of one device. It may be mounted, or it may be distributed and mounted in a plurality of separated devices that can communicate with each other.

また、上述の行動目標達成支援システム10の動作手順(図8、図10参照)の実行順序は、必ずしも、上述した通りの順序に制限されるものではなく、発明の要旨を逸脱しない範囲で、実行順序を入れ替えたり、その一部を省略したり、その一部を並列に実行したりすることができる。また、図8、図10に示された手順の全部又は一部を含む情報処理は、情報処理装置100a、100b、100c或いは他の装置の電子回路等のハードウェアによりソフトウェアを用いずに実現されても、ソフトウェアを用いて実現されてもよい。なお、ソフトウェアによる処理は、情報処理装置100a、100b、100c或いは他の装置に含まれるプロセッサがメモリに記憶されたプログラムを実行することにより実現されるものである。また、そのプログラムを記録媒体に記録して頒布や流通させてもよい。例えば、頒布されたプログラムを装置にインストールして、装置のプロセッサに実行させることで、装置に情報処理装置100a等の機能を実行させることが可能となる。 Further, the execution order of the operation procedure (see FIGS. 8 and 10) of the above-mentioned action goal achievement support system 10 is not necessarily limited to the order as described above, and is not deviating from the gist of the invention. The execution order can be changed, some of them can be omitted, and some of them can be executed in parallel. Further, information processing including all or part of the procedure shown in FIGS. 8 and 10 is realized by hardware such as electronic circuits of information processing devices 100a, 100b, 100c or other devices without using software. However, it may be realized by using software. The processing by the software is realized by executing the program stored in the memory by the processor included in the information processing devices 100a, 100b, 100c or another device. Further, the program may be recorded on a recording medium and distributed or distributed. For example, by installing the distributed program in the device and causing the processor of the device to execute the program, the device can execute the function of the information processing device 100a or the like.

また、上述した実施の形態及び変形例等で示した構成要素及び機能を任意に組み合わせることで実現される形態も本発明の範囲に含まれる。 Further, the scope of the present invention also includes a form realized by arbitrarily combining the components and functions shown in the above-described embodiments and modifications.

なお、本発明の包括的又は具体的な各種態様には、装置、システム、方法、集積回路、コンピュータプログラム、コンピュータで読み取り可能な記録媒体等の1つ又は複数の組み合わせが含まれる。本開示におけるシステム又は方法の主体は、例えばコンピュータを備えている。このコンピュータがプログラムを実行することによって、本開示における装置、システム又は方法の主体の機能が実現され得る。コンピュータは、プログラムに従って動作するプロセッサを主なハードウェア構成として備える。プロセッサは、プログラムを実行することによって機能を実現することができれば、その種類は問わない。プロセッサは、半導体集積回路(IC)又はLSI(Large Scale Integration)を含む一つ又は複数の電子回路で構成される。複数の電子回路は、一つのチップに集積されてもよいし、複数のチップに設けられてもよい。複数のチップは一つの装置に集約されていてもよいし、複数の装置に備えられていてもよい。プログラムは、コンピュータが読み取り可能なROM、光ディスク、ハードディスク等の非一時的記録媒体に記録され得る。プログラムは、記録媒体に予め格納されていてもよいし、インターネット等を含む広域通信網を介して記録媒体に供給されてもよい。 In addition, various comprehensive or specific aspects of the present invention include one or more combinations of devices, systems, methods, integrated circuits, computer programs, computer-readable recording media, and the like. The subject of the system or method in the present disclosure includes, for example, a computer. By executing the program by this computer, the function of the subject of the device, system or method in the present disclosure can be realized. A computer has a processor that operates according to a program as a main hardware configuration. The type of processor does not matter as long as the function can be realized by executing the program. The processor is composed of one or more electronic circuits including a semiconductor integrated circuit (IC) or an LSI (Large Scale Integration). The plurality of electronic circuits may be integrated on one chip or may be provided on a plurality of chips. A plurality of chips may be integrated in one device, or may be provided in a plurality of devices. The program can be recorded on a non-temporary recording medium such as a computer-readable ROM, optical disc, or hard disk. The program may be stored in a recording medium in advance, or may be supplied to the recording medium via a wide area communication network including the Internet or the like.

以下、本発明の一態様に係る行動目標達成支援システム、並びに、この行動目標達成支援システムで用いられる情報処理方法及びプログラムの構成、変形態様、効果等について示す。 Hereinafter, the action goal achievement support system according to one aspect of the present invention, and the configuration, modification mode, effect, etc. of the information processing method and program used in this action goal achievement support system will be described.

(1)本発明の一態様に係る行動目標達成支援システムは、所定行動目標の達成を支援する行動目標達成支援システム10であって、第1ユーザの行動に関連したセンシングの結果に基づいて第1ユーザの所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定部(例えば自己レベル特定部110a)と、第2ユーザの行動に関連したセンシングの結果に基づいて第2ユーザの所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定部(例えば他者レベル特定部130a)と、第1レベルと第2レベルとに基づいて、第1ユーザに対して提示用情報を提示する第1提示部(例えば提示部140a、140c)とを備える。所定行動目標は、例えば所定の玩具の全てを玩具箱に収納することであり、第1レベル、第2レベルは、例えば、その玩具の玩具箱への収納という整理収納行動の達成レベルである。この行動目標達成支援システムによれば、行動目標の達成のための行動について、ユーザ間の競争環境が実現され、ユーザが行動目標の達成のための行動を効率的に習得できるようになる。なお、第1提示部は、更に第2ユーザに対して提示すべき提示用情報の提示を行ってもよいし、行動目標達成支援システムにおいて、第1提示部と別に第2ユーザに対して提示すべき提示用情報の提示を行う第2提示部が備えられてもよい。 (1) The action goal achievement support system according to one aspect of the present invention is the action goal achievement support system 10 that supports the achievement of a predetermined action goal, and is based on the result of sensing related to the behavior of the first user. A first specific unit (for example, a self-level specific unit 110a) that sequentially specifies a first level indicating the degree of achievement of a predetermined action goal of one user, and a second user based on the results of sensing related to the behavior of the second user. For presentation to a first user based on a second specific unit (for example, another person's level specific unit 130a) that sequentially specifies a second level indicating the degree of achievement of a predetermined action goal, and the first level and the second level. It includes a first presentation unit (for example, presentation units 140a and 140c) that presents information. The predetermined action goal is, for example, to store all of the predetermined toys in the toy box, and the first level and the second level are, for example, the achievement levels of the organized storage action of storing the toys in the toy box. According to this action goal achievement support system, a competitive environment between users is realized for actions for achieving the action goal, and the user can efficiently learn the action for achieving the action goal. In addition, the first presentation unit may further present the presentation information to be presented to the second user, and in the action goal achievement support system, it is presented to the second user separately from the first presentation unit. A second presentation unit may be provided for presenting the presentation information to be presented.

(2)例えば、第1提示部(例えば提示部140a、140c)は、第1特定部により特定された第1レベルを示す第1提示用情報と第2特定部により特定された第2レベルを示す第2提示用情報とを逐次提示し、第1レベルについて所定条件が成立した場合には第1レベルと第2レベルとの差分に応じて第3提示用情報を提示することとしてもよい。所定条件は、例えば、ユーザに対する行動目標の達成の支援の見地から定められる任意の条件であり得る。これにより、ユーザ間の所定行動目標の達成度合いの差分に応じて第3提示用情報の提示を変化させ得る。従って、この構成は、第3提示用情報の提示によって達成度合いの差分を低減させる等の調整を行うために有用となる。 (2) For example, the first presentation unit (for example, presentation units 140a and 140c) provides the first presentation information indicating the first level specified by the first specific unit and the second level specified by the second specific unit. The second presentation information to be shown may be sequentially presented, and when a predetermined condition is satisfied for the first level, the third presentation information may be presented according to the difference between the first level and the second level. The predetermined condition can be, for example, an arbitrary condition determined from the viewpoint of supporting the achievement of the action goal for the user. As a result, the presentation of the third presentation information can be changed according to the difference in the degree of achievement of the predetermined action goal between the users. Therefore, this configuration is useful for making adjustments such as reducing the difference in the degree of achievement by presenting the third presentation information.

(3)例えば、第1提示部(例えば提示部140a)は、第3提示用情報の提示に際して、第1特定部に特定された第1レベルが第2特定部に特定された第2レベルより高い場合には、その第1レベルがその第2レベルより高くない場合より長い時間に亘って第3提示用情報を提示することとしてもよい。これにより、相対的に第1ユーザのレベルが高い場合には、第1ユーザが第3提示用情報の視聴等に要する時間を長くすることができる。このため、ユーザ間のレベルの差が減少する可能性が高まる。 (3) For example, when the first presentation unit (for example, the presentation unit 140a) presents the third presentation information, the first level specified in the first specific unit is more than the second level specified in the second specific unit. If it is high, the third presentation information may be presented for a longer period of time than if the first level is not higher than the second level. As a result, when the level of the first user is relatively high, the time required for the first user to view the third presentation information can be lengthened. This increases the likelihood that level differences between users will decrease.

(4)例えば、第1提示部は、第3提示用情報の提示に際して、第1特定部に特定された第1レベルが第2特定部に特定された第2レベルより高くない場合には、第3提示用情報として、第1ユーザの行動を褒めた情報を表した所定時間の映像を表示し、第1レベルが第2レベルより高い場合には、第3提示用情報として、第1ユーザの行動を褒めた情報を表した、前記所定時間より長時間の映像を表示することとしてもよい。これにより、第1ユーザを褒める褒美映像の表示により第1ユーザの自発的な行動が促進されることが期待できる。また、第1ユーザのレベルが相対的に高い場合には第1ユーザが褒美映像を長く見ることになるので、第2ユーザとのレベルの差が将来的に低減される。このことは、競争において大差で敗北したユーザが所定行動目標の達成のための行動への意欲を失うという競争の悪影響を、抑制する効果を奏する。 (4) For example, when the first presentation unit presents the third presentation information, if the first level specified by the first specific unit is not higher than the second level specified by the second specific unit, As the third presentation information, a video of a predetermined time showing information complimenting the behavior of the first user is displayed, and when the first level is higher than the second level, the first user is displayed as the third presentation information. It is also possible to display an image for a longer period of time than the predetermined time, which represents information praising the behavior of. As a result, it can be expected that the spontaneous action of the first user is promoted by displaying the reward image that praises the first user. Further, when the level of the first user is relatively high, the first user will watch the reward video for a long time, so that the difference in level with the second user will be reduced in the future. This has the effect of suppressing the adverse effect of competition in which users who are defeated by a large margin in the competition lose their motivation to take action to achieve a predetermined action goal.

(5)例えば、第1提示部は、第3提示用情報の提示に際して、第1特定部に特定された第1レベルと第2特定部に特定された第2レベルとの差分に応じて定めた時間に亘って第3提示用情報を提示することとしてもよい。これにより、例えばユーザ間のレベル差が大きい程、長く第3提示用情報を提示する等が可能となる。この構成は、ユーザ間のレベル差を減少させるために有用となる。 (5) For example, when presenting the third presentation information, the first presentation unit is determined according to the difference between the first level specified in the first specific part and the second level specified in the second specific part. The third presentation information may be presented over a period of time. As a result, for example, the larger the level difference between users, the longer it is possible to present the third presentation information. This configuration is useful for reducing level differences between users.

(6)例えば、行動目標達成支援システム10は更に、所定行動目標の達成についての第1ユーザ及び第2ユーザそれぞれの上達度を示す上達度情報を取得する取得部150cを備え、第1提示部(例えば提示部140c)は、第1特定部に特定された第1レベルと第2特定部に特定された第2レベルとの差分と、上達度情報が示す第1ユーザ及び第2ユーザの上達度の差分とに応じて定めた時間に亘って第3提示用情報を提示することとしてもよい。これにより、上達度の差が大きい場合に、ユーザ間の達成レベルの差(つまり第1レベルと第2レベルとの差)が広がり易くなることに対応して、第3提示用情報の時間の調整が可能となり得る。 (6) For example, the action goal achievement support system 10 further includes an acquisition unit 150c for acquiring progress information indicating the progress of each of the first user and the second user regarding the achievement of a predetermined action goal, and is provided with a first presentation unit. (For example, the presentation unit 140c) shows the difference between the first level specified in the first specific unit and the second level specified in the second specific unit, and the improvement of the first user and the second user indicated by the improvement degree information. The third presentation information may be presented over a period of time determined according to the difference in degree. As a result, when the difference in progress is large, the difference in achievement level between users (that is, the difference between the first level and the second level) is likely to widen, and the time of the third presentation information is increased. Adjustment may be possible.

(7)例えば、第1提示部は、第3提示用情報の提示に際して、第1特定部に特定された第1レベルが第2特定部に特定された第2レベルより高い場合には、その第1レベルがその第2レベルより高くない場合より長い時間に亘って所定行動目標の達成を阻むように予め定められた内容を示す第3提示用情報を提示することとしてもよい。これにより、第1ユーザのレベルが相対的に高い場合には、第1ユーザが第3提示用情報を見ることによって長い時間、行動目標の達成が阻まれる。このため、第1ユーザと第2ユーザとのレベルの差が低減され得る。このことは、競争において大差で敗北したユーザが所定行動目標の達成のための行動への意欲を失うという競争の悪影響を、抑制する効果を奏する。 (7) For example, when the first presentation unit presents the third presentation information, if the first level specified by the first specific unit is higher than the second level specified by the second specific unit, the first presentation unit may use the information. It is also possible to present the third presentation information indicating the predetermined contents so as to prevent the achievement of the predetermined action goal for a longer period of time than when the first level is not higher than the second level. As a result, when the level of the first user is relatively high, the achievement of the action goal is prevented for a long time by the first user seeing the third presentation information. Therefore, the level difference between the first user and the second user can be reduced. This has the effect of suppressing the adverse effect of competition in which users who are defeated by a large margin in the competition lose their motivation to take action to achieve a predetermined action goal.

(8)例えば、第1提示部は、第3提示用情報の提示に際して、第1特定部に特定された第1レベルと第2特定部に特定された第2レベルとの差分に応じて定めた内容の第3提示用情報を提示することとしてもよい。これにより、ユーザ間の所定行動目標の達成度合いの差分に応じて第3提示用情報の内容を変化させ得る。従って、この構成は、第3提示用情報の提示によって達成度合いの差分を低減させる等の調整を行うために有用となる。 (8) For example, when presenting the third presentation information, the first presentation unit is determined according to the difference between the first level specified in the first specific part and the second level specified in the second specific part. The third presentation information of the contents may be presented. As a result, the content of the third presentation information can be changed according to the difference in the degree of achievement of the predetermined action goal between the users. Therefore, this configuration is useful for making adjustments such as reducing the difference in the degree of achievement by presenting the third presentation information.

(9)例えば、第1提示部は、単位時間当たりの第1レベルの変化量が所定閾値より大きくなった場合に、第1ユーザの行動を褒めた情報を提示することとしてもよい。これにより、第1ユーザに、その行動を自発的に実行する頻度を増加させる影響が与えられる。 (9) For example, the first presenting unit may present information complimenting the behavior of the first user when the amount of change of the first level per unit time becomes larger than a predetermined threshold value. This has the effect of increasing the frequency with which the first user voluntarily executes the action.

(10)例えば、第1特定部(例えば自己レベル特定部110a)と第2特定部(例えば他者レベル特定部130a)と第1提示部(例えば提示部140a)とは、第1ユーザが所定行動目標のための行動を行う第1施設(例えば住宅20a)内に所在し、第1特定部は、第1施設におけるセンサ(例えばイメージセンサ21a)によるセンシングの結果に基づいて第1レベルを逐次特定し、行動目標達成支援システム10は、第1施設と離れた、第2ユーザが所定行動目標の行動を行う第2施設(例えば住宅20b)における第2通信部(例えば通信部120b)から第2施設におけるセンサ(例えばイメージセンサ21b)によるセンシングの結果に基づくセンシング情報を逐次受信する第1通信部(例えば通信部120a)を備え、第2特定部は、第1通信部が逐次受信したセンシング情報に基づいて第2レベルを逐次特定することとしてもよい。これにより、第1ユーザと第2ユーザとが別個の施設に所在する場合においても、行動目標の達成のための行動について、ユーザ間の競争環境が実現され、ユーザの行動目標の達成が支援される。 (10) For example, the first user defines the first specific unit (for example, the self-level specific unit 110a), the second specific unit (for example, the other person's level specific unit 130a), and the first presentation unit (for example, the presentation unit 140a). It is located in a first facility (for example, a house 20a) that performs an action for an action goal, and the first specific part sequentially performs the first level based on the result of sensing by a sensor (for example, an image sensor 21a) in the first facility. The action goal achievement support system 10 is specified from the second communication unit (for example, communication unit 120b) in the second facility (for example, the house 20b) where the second user performs the action of the predetermined action goal, which is separated from the first facility. A first communication unit (for example, communication unit 120a) that sequentially receives sensing information based on the result of sensing by a sensor (for example, an image sensor 21b) in two facilities is provided, and the second specific unit is sensing that the first communication unit sequentially receives. The second level may be sequentially specified based on the information. As a result, even when the first user and the second user are located in separate facilities, a competitive environment between users is realized for actions for achieving the action goal, and the achievement of the user's action goal is supported. NS.

(11)例えば、第1特定部(例えば自己レベル特定部110a)と第2特定部(例えば他者レベル特定部130a)と第1提示部(例えば提示部140a)とは、第1ユーザが所定行動目標のための行動を行う第1施設(例えば住宅20a)内に所在し、第1特定部は、第1施設におけるセンサによるセンシングの結果に基づいて第1レベルを逐次特定し、行動目標達成支援システム10は、第1施設におけるセンサ(例えばイメージセンサ21a)によるセンシングの結果に基づく第1センシング情報を逐次送信する、第1施設における第1通信部(例えば通信部120a)と、第1施設と離れた、第2ユーザが所定行動目標の行動を行う第2施設(例えば住宅20b)におけるセンサ(例えばイメージセンサ21b)によるセンシングの結果に基づく第2センシング情報を逐次送信する、第2施設における第2通信部(例えば通信部120b)とを備え、第1通信部は、第2センシング情報を逐次受信し、第2通信部は、第1センシング情報を逐次受信し、第2特定部は、第1通信部が逐次受信した第2センシング情報に基づいて第2レベルを逐次特定し、行動目標達成支援システム10は更に、第1センシング情報に基づいて、第2施設内で第2ユーザに対して提示用情報を提示する第2提示部(例えば提示部140b)を備え、第1センシング情報は、第1ユーザをイメージセンサ21aで撮像した画像を含み、第2センシング情報は、第2ユーザをイメージセンサ21bで撮像した画像を含み、第1提示部(例えば提示部140a)は更に、第1通信部が逐次受信した第2センシング情報に含まれる第2ユーザに係る画像を表示し、第2提示部は更に、第2通信部が逐次受信した第1センシング情報に含まれる第1ユーザに係る画像を表示することとしてもよい。これにより、第1ユーザと第2ユーザとが別個の施設に所在する場合においても、各ユーザが競争相手の様子を画像で確認できるようなユーザ間の競争環境が実現され、ユーザの行動目標の達成が支援される。 (11) For example, the first user defines the first specific unit (for example, the self-level specific unit 110a), the second specific unit (for example, the other person's level specific unit 130a), and the first presentation unit (for example, the presentation unit 140a). Located in the first facility (for example, housing 20a) that performs actions for the action goal, the first specific part sequentially identifies the first level based on the result of sensing by the sensor in the first facility, and achieves the action goal. The support system 10 sequentially transmits the first sensing information based on the result of sensing by the sensor (for example, the image sensor 21a) in the first facility, and the first communication unit (for example, the communication unit 120a) in the first facility and the first facility. In the second facility, which is separated from the above and sequentially transmits the second sensing information based on the result of sensing by the sensor (for example, the image sensor 21b) in the second facility (for example, the house 20b) in which the second user performs the action of the predetermined action target. A second communication unit (for example, a communication unit 120b) is provided, the first communication unit sequentially receives the second sensing information, the second communication unit sequentially receives the first sensing information, and the second specific unit receives the first sensing information sequentially. The second level is sequentially specified based on the second sensing information sequentially received by the first communication unit, and the action goal achievement support system 10 further determines the second user in the second facility based on the first sensing information. The second presenting unit (for example, the presenting unit 140b) is provided, the first sensing information includes an image of the first user captured by the image sensor 21a, and the second sensing information includes the second user. The first presenting unit (for example, the presenting unit 140a) includes the image captured by the image sensor 21b, and further displays an image related to the second user included in the second sensing information sequentially received by the first communication unit, and the second The presenting unit may further display an image related to the first user included in the first sensing information sequentially received by the second communication unit. As a result, even when the first user and the second user are located in separate facilities, a competitive environment between users is realized so that each user can check the state of the competitor with an image, and the user's action goal is set. Achievement is supported.

(12)例えば、所定行動目標は、ユーザが使用した収納対象物品(例えば玩具等)を収納することであり、第1レベルは、第1ユーザが使用した収納対象物品の総数に対する収納済みの物品の数であり、第2レベルは、第2ユーザが使用した収納対象物品の総数に対する収納済みの物品の数であることとしてもよい。これにより、ユーザ間での適切な競争が可能となり得る。 (12) For example, the predetermined action goal is to store the items to be stored (for example, toys) used by the user, and the first level is the items already stored with respect to the total number of items to be stored used by the first user. The second level may be the number of stored articles relative to the total number of stored articles used by the second user. This may allow for appropriate competition among users.

(13)本発明の一態様に係る情報処理方法は、所定行動目標の達成を支援する行動目標達成支援システム10で用いられる情報処理方法であって、第1ユーザ(例えば幼児A)の行動に関連したセンシングの結果に基づいて第1ユーザの所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップ(例えばステップS12、S23)と、第2ユーザ(例えば幼児B)の行動に関連したセンシングの結果に基づいて第2ユーザの所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップ(例えばステップS14、S25)と、第1ユーザに対して、第1特定ステップで特定された第1レベルを示す第1提示用情報と第2特定ステップで特定された第2レベルを示す第2提示用情報とを逐次提示し、その第1レベルについて所定条件が成立した場合にはその第1レベルとその第2レベルとの差分に応じて第3提示用情報を提示する提示ステップ(例えばステップS15、S17〜S19、S26、S28〜S30等)とを含む。これにより、行動目標の達成のための行動についてユーザ間の競争環境が実現されるので、ユーザが行動目標の達成のための行動を効率的に習得できるようになる。 (13) The information processing method according to one aspect of the present invention is an information processing method used in the action goal achievement support system 10 that supports the achievement of a predetermined action goal, and is used for the action of a first user (for example, infant A). The first specific step (for example, steps S12 and S23) for sequentially specifying the first level indicating the degree of achievement of the predetermined action goal of the first user based on the related sensing result, and the action of the second user (for example, infant B). The second specific step (for example, steps S14 and S25) for sequentially specifying the second level indicating the degree of achievement of the predetermined action goal of the second user based on the sensing result related to the first user, and the first for the first user. The first presentation information indicating the first level specified in the specific step and the second presentation information indicating the second level specified in the second specific step are sequentially presented, and a predetermined condition is satisfied for the first level. If so, the presenting step (for example, steps S15, S17 to S19, S26, S28 to S30, etc.) of presenting the third presentation information according to the difference between the first level and the second level is included. As a result, a competitive environment between users is realized for actions for achieving the action goal, so that the user can efficiently learn the action for achieving the action goal.

(14)本発明の一態様に係るプログラムは、所定行動目標の達成を支援する行動目標達成支援システム10を構成するコンピュータ(例えば情報処理装置100a、100c)に情報処理を実行させるためのプログラムであって、その情報処理は、第1ユーザの行動に関連したセンシングの結果に基づいて第1ユーザの所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップ(例えばステップS12、S23)と、第2ユーザの行動に関連したセンシングの結果に基づいて第2ユーザの所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップ(例えばステップS14、S25)と、第1ユーザに対して、第1特定ステップで特定された第1レベルを示す第1提示用情報と第2特定ステップで特定された第2レベルを示す第2提示用情報とを逐次提示し、その第1レベルについて所定条件が成立した場合にはその第1レベルとその第2レベルとの差分に応じて第3提示用情報を提示する提示ステップ(例えばステップS15、S17〜S19、S26、S28〜S30等)とを含む。このプログラムをコンピュータにインストールして実行させることにより、行動目標の達成のための行動についてユーザ間の競争環境が実現される。これにより、ユーザが行動目標の達成のための行動を効率的に習得できるようになる。 (14) The program according to one aspect of the present invention is a program for causing a computer (for example, information processing devices 100a and 100c) constituting an action goal achievement support system 10 that supports the achievement of a predetermined action goal to execute information processing. Therefore, the information processing is performed in the first specific step (for example, step S12, step S12) in which the first level indicating the degree of achievement of the predetermined action target of the first user is sequentially specified based on the sensing result related to the action of the first user. S23) and the second specific step (for example, steps S14 and S25) of sequentially specifying the second level indicating the degree of achievement of the predetermined action target of the second user based on the sensing result related to the action of the second user. The first presentation information indicating the first level specified in the first specific step and the second presentation information indicating the second level specified in the second specific step are sequentially presented to the first user. When a predetermined condition is satisfied for the first level, a presentation step (for example, steps S15, S17 to S19, S26, S28) for presenting the third presentation information according to the difference between the first level and the second level. ~ S30 etc.) and. By installing this program on a computer and executing it, a competitive environment between users is realized for actions to achieve action goals. As a result, the user can efficiently learn the action for achieving the action goal.

10 行動目標達成支援システム
21a、21b イメージセンサ
110a 自己レベル特定部(第1特定部)
120a、120b 通信部
130a 他者レベル特定部(第2特定部)
140a、140b、140c 提示部
150c 取得部
10 Action goal achievement support system 21a, 21b Image sensor 110a Self-level identification part (first identification part)
120a, 120b Communication unit 130a Others level identification unit (second identification unit)
140a, 140b, 140c Presentation section 150c Acquisition section

Claims (14)

所定行動目標の達成を支援する行動目標達成支援システムであって、
前記所定行動目標は、整理収納に関する目標であり、
第1ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第1ユーザが物品を整理収納する箱の重量データを取得することにより、前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定部と、
第2ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第2ユーザが物品を整理収納する箱の重量データを取得することにより、前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定部と、
前記第1レベルと前記第2レベルとの差分に基づいて、前記第1ユーザに対して整理収納の自発頻度を高めるための提示用情報を提示する第1提示部とを備える
行動目標達成支援システム。
It is an action goal achievement support system that supports the achievement of predetermined action goals.
The predetermined action goal is a goal related to organizing and storing.
The predetermined action of the first user is performed by performing image recognition processing on image data obtained by capturing an image of the first user organizing and storing the items, or by acquiring weight data of a box in which the first user organizes and stores articles. The first specific part that sequentially identifies the first level that indicates the degree of achievement of the goal, and
The predetermined action of the second user is performed by performing image recognition processing on image data obtained by capturing an image of a second user organizing and storing the items, or by acquiring weight data of a box in which the second user organizes and stores articles. A second specific part that sequentially identifies the second level that indicates the degree of achievement of the goal,
An action goal achievement support system including a first presentation unit that presents presentation information for increasing the spontaneous frequency of organizing and storing to the first user based on the difference between the first level and the second level. ..
前記第1提示部は、前記第1特定部により特定された前記第1レベルを示す第1提示用情報と前記第2特定部により特定された前記第2レベルを示す第2提示用情報とを逐次提示し、前記第1レベルについて所定条件が成立した場合には前記第1レベルと前記第2レベルとの差分に応じて前記提示用情報である第3提示用情報を提示する
請求項1記載の行動目標達成支援システム。
The first presenting unit includes first presentation information indicating the first level specified by the first specific unit and second presentation information indicating the second level specified by the second specific unit. The first aspect of claim 1, wherein the information is sequentially presented, and when a predetermined condition is satisfied for the first level, the third presentation information, which is the presentation information, is presented according to the difference between the first level and the second level. Action goal achievement support system.
前記第1提示部は、前記第3提示用情報の提示に際して前記第1レベルが前記第2レベルより高い場合には、前記第1レベルが前記第2レベルより高くない場合より長い時間に亘って前記第3提示用情報を提示する
請求項2記載の行動目標達成支援システム。
When the first level is higher than the second level when the third presentation information is presented, the first presenting unit takes a longer time than when the first level is not higher than the second level. The action goal achievement support system according to claim 2, which presents the third presentation information.
前記第1提示部は、前記第3提示用情報の提示に際して、前記第1レベルが前記第2レベルより高くない場合には、前記第3提示用情報として、前記第1ユーザの行動を褒めた情報を表した所定時間の映像を表示し、前記第1レベルが前記第2レベルより高い場合には、前記第3提示用情報として、前記第1ユーザの行動を褒めた情報を表した、前記所定時間より長時間の映像を表示する
請求項3記載の行動目標達成支援システム。
When presenting the third presentation information, if the first level is not higher than the second level, the first presenting unit praises the behavior of the first user as the third presentation information. An image showing the information for a predetermined time is displayed, and when the first level is higher than the second level, the information praising the behavior of the first user is displayed as the third presentation information. The action goal achievement support system according to claim 3, which displays an image for a longer time than a predetermined time.
前記第1提示部は、前記第3提示用情報の提示に際して、前記第1レベルと前記第2レベルとの差分に応じて定めた時間に亘って前記第3提示用情報を提示する
請求項2〜4のいずれか一項に記載の行動目標達成支援システム。
Claim 2 in which the first presenting unit presents the third presenting information for a time determined according to the difference between the first level and the second level when presenting the third presenting information. The action goal achievement support system described in any one of ~ 4.
前記行動目標達成支援システムは更に、前記所定行動目標の達成についての前記第1ユーザ及び前記第2ユーザそれぞれの上達度を示す上達度情報を取得する取得部を備え、
前記第1提示部は、前記第1レベルと前記第2レベルとの差分と、前記上達度情報が示す前記第1ユーザ及び前記第2ユーザの上達度の差分とに応じて定めた時間に亘って前記第3提示用情報を提示する
請求項5記載の行動目標達成支援システム。
The action goal achievement support system further includes an acquisition unit that acquires progress information indicating the progress of each of the first user and the second user regarding the achievement of the predetermined action goal.
The first presenting unit over a period of time determined according to the difference between the first level and the second level and the difference in the progress of the first user and the second user indicated by the progress information. The action goal achievement support system according to claim 5, which presents the third presentation information.
前記第1提示部は、前記第3提示用情報の提示に際して前記第1レベルが前記第2レベルより高い場合には、前記第1レベルが前記第2レベルより高くない場合より長い時間に亘って前記所定行動目標の達成を阻むように予め定められた内容を示す情報を提示する
請求項2記載の行動目標達成支援システム。
When the first level is higher than the second level when the third presentation information is presented, the first presenting unit takes a longer time than when the first level is not higher than the second level. wherein the predetermined action target behavior goals support system according to claim 2, wherein presenting the predetermined content to thwart achieve indicates to information for.
前記第1提示部は、前記第3提示用情報の提示に際して、前記第1レベルと前記第2レベルとの差分に応じて定めた内容の前記第3提示用情報を提示する
請求項2記載の行動目標達成支援システム。
The third presentation information according to claim 2, wherein the first presenting unit presents the third presenting information having contents determined according to the difference between the first level and the second level when presenting the third presenting information. Action goal achievement support system.
前記第1提示部は、単位時間当たりの前記第1レベルの変化量が所定閾値より大きくなった場合に、前記第1ユーザの行動を褒めた情報を提示する
請求項1〜8のいずれか一項に記載の行動目標達成支援システム。
The first presenting unit is any one of claims 1 to 8 that presents information complimenting the behavior of the first user when the amount of change of the first level per unit time becomes larger than a predetermined threshold value. The action goal achievement support system described in the section.
前記第1特定部と前記第2特定部と前記第1提示部とは、前記第1ユーザが前記所定行動目標のための行動を行う第1施設内に所在し、
前記第1特定部は、前記第1施設におけるセンサによるセンシングの結果に基づいて前記第1レベルを逐次特定し、
前記行動目標達成支援システムは、前記第1施設と離れた、前記第2ユーザが前記所定行動目標の行動を行う第2施設における第2通信部から前記第2施設におけるセンサによるセンシングの結果に基づくセンシング情報を逐次受信する第1通信部を備え、
前記第2特定部は、前記第1通信部が逐次受信した前記センシング情報に基づいて前記第2レベルを逐次特定する
請求項1〜9のいずれか一項に記載の行動目標達成支援システム。
The first specific unit, the second specific unit, and the first presentation unit are located in a first facility where the first user performs an action for the predetermined action goal.
The first specific unit sequentially identifies the first level based on the result of sensing by the sensor in the first facility.
The action goal achievement support system is based on the result of sensing by a sensor in the second facility from the second communication unit in the second facility in which the second user performs the action of the predetermined action goal, which is separated from the first facility. Equipped with a first communication unit that sequentially receives sensing information
The action goal achievement support system according to any one of claims 1 to 9, wherein the second specific unit sequentially specifies the second level based on the sensing information sequentially received by the first communication unit.
前記第1特定部と前記第2特定部と前記第1提示部とは、前記第1ユーザが前記所定行動目標のための行動を行う第1施設内に所在し、
前記第1特定部は、前記第1施設におけるセンサによるセンシングの結果に基づいて前記第1レベルを逐次特定し、
前記行動目標達成支援システムは、
前記第1施設におけるセンサによるセンシングの結果に基づく第1センシング情報を逐次送信する、前記第1施設における第1通信部と、
前記第1施設と離れた、前記第2ユーザが前記所定行動目標の行動を行う第2施設におけるセンサによるセンシングの結果に基づく第2センシング情報を逐次送信する、前記第2施設における第2通信部とを備え、
前記第1通信部は、前記第2センシング情報を逐次受信し、
前記第2通信部は、前記第1センシング情報を逐次受信し、
前記第2特定部は、前記第1通信部が逐次受信した前記第2センシング情報に基づいて前記第2レベルを逐次特定し、
前記行動目標達成支援システムは更に、前記第1センシング情報に基づいて、前記第2施設内で前記第2ユーザに対して提示用情報を提示する第2提示部を備え、
前記第1センシング情報は、前記第1ユーザをイメージセンサで撮像した画像を含み、
前記第2センシング情報は、前記第2ユーザをイメージセンサで撮像した画像を含み、
前記第1提示部は更に、前記第1通信部が逐次受信した前記第2センシング情報に含まれる前記画像を表示し、
前記第2提示部は更に、前記第2通信部が逐次受信した前記第1センシング情報に含まれる前記画像を表示する
請求項1〜9のいずれか一項に記載の行動目標達成支援システム。
The first specific unit, the second specific unit, and the first presentation unit are located in a first facility where the first user performs an action for the predetermined action goal.
The first specific unit sequentially identifies the first level based on the result of sensing by the sensor in the first facility.
The action goal achievement support system is
The first communication unit in the first facility and the first communication unit in the first facility, which sequentially transmit the first sensing information based on the result of sensing by the sensor in the first facility.
A second communication unit in the second facility that sequentially transmits second sensing information based on the result of sensing by the sensor in the second facility in which the second user performs the action of the predetermined action target, which is separated from the first facility. With and
The first communication unit sequentially receives the second sensing information, and receives the second sensing information sequentially.
The second communication unit sequentially receives the first sensing information, and receives the first sensing information sequentially.
The second specific unit sequentially identifies the second level based on the second sensing information sequentially received by the first communication unit.
The action goal achievement support system further includes a second presentation unit that presents presentation information to the second user in the second facility based on the first sensing information.
The first sensing information includes an image of the first user captured by an image sensor.
The second sensing information includes an image of the second user captured by an image sensor.
The first presenting unit further displays the image included in the second sensing information sequentially received by the first communication unit.
The action goal achievement support system according to any one of claims 1 to 9, wherein the second presenting unit further displays the image included in the first sensing information sequentially received by the second communication unit.
前記所定行動目標は、ユーザが使用した収納対象物品を収納することであり、
前記第1レベルは、前記第1ユーザが使用した収納対象物品の総数に対する収納済みの物品の数であり、
前記第2レベルは、前記第2ユーザが使用した収納対象物品の総数に対する収納済みの物品の数である
請求項1〜11のいずれか一項に記載の行動目標達成支援システム。
The predetermined action goal is to store the storage target article used by the user.
The first level is the number of stored articles relative to the total number of items to be stored used by the first user.
The action goal achievement support system according to any one of claims 1 to 11, wherein the second level is the number of stored articles with respect to the total number of stored articles used by the second user.
所定行動目標の達成を支援する行動目標達成支援システムで用いられる情報処理方法であって、
前記所定行動目標は、整理収納に関する目標であり、
第1ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第1ユーザが物品を整理収納する箱の重量データを取得することにより、前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップと、
第2ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第2ユーザが物品を整理収納する箱の重量データを取得することにより、前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップと、
前記第1ユーザに対して、前記第1特定ステップで特定された前記第1レベルを示す第1提示用情報と前記第2特定ステップで特定された前記第2レベルを示す第2提示用情報とを逐次提示し、前記第1レベルについて所定条件が成立した場合には前記第1レベルと前記第2レベルとの差分に応じて整理収納の自発頻度を高めるための第3提示用情報を提示する提示ステップとを含む
情報処理方法。
An information processing method used in an action goal achievement support system that supports the achievement of a predetermined action goal.
The predetermined action goal is a goal related to organizing and storing.
The predetermined action of the first user is performed by performing image recognition processing on image data obtained by capturing an image of the first user organizing and storing the items, or by acquiring weight data of a box in which the first user organizes and stores articles. The first identification step that sequentially identifies the first level indicating the degree of achievement of the goal, and
The predetermined action of the second user is performed by performing image recognition processing on image data obtained by capturing an image of a second user organizing and storing the items, or by acquiring weight data of a box in which the second user organizes and stores articles. A second identification step that sequentially identifies the second level that indicates the degree of achievement of the goal,
For the first user, the first presentation information indicating the first level specified in the first specific step and the second presentation information indicating the second level specified in the second specific step. Is sequentially presented, and when a predetermined condition is satisfied for the first level, information for third presentation for increasing the spontaneous frequency of organizing and storing is presented according to the difference between the first level and the second level. Information processing methods including presentation steps.
所定行動目標の達成を支援する行動目標達成支援システムを構成するコンピュータに情報処理を実行させるためのプログラムであって、
前記所定行動目標は、整理収納に関する目標であり、
前記情報処理は、
第1ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第1ユーザが物品を整理収納する箱の重量データを取得することにより、前記第1ユーザの前記所定行動目標の達成度合いを示す第1レベルを逐次特定する第1特定ステップと、
第2ユーザが整理収納する様子を撮像した画像データを画像認識処理すること、または、前記第2ユーザが物品を整理収納する箱の重量データを取得することにより、前記第2ユーザの前記所定行動目標の達成度合いを示す第2レベルを逐次特定する第2特定ステップと、
前記第1ユーザに対して、前記第1特定ステップで特定された前記第1レベルを示す第1提示用情報と前記第2特定ステップで特定された前記第2レベルを示す第2提示用情報とを逐次提示し、前記第1レベルについて所定条件が成立した場合には前記第1レベルと前記第2レベルとの差分に応じて整理収納の自発頻度を高めるための第3提示用情報を提示する提示ステップとを含む
プログラム。
A program for causing the computers that make up the action goal achievement support system to execute information processing to support the achievement of a predetermined action goal.
The predetermined action goal is a goal related to organizing and storing.
The information processing
The predetermined action of the first user is performed by performing image recognition processing on image data obtained by capturing an image of the first user organizing and storing the items, or by acquiring weight data of a box in which the first user organizes and stores articles. The first identification step that sequentially identifies the first level indicating the degree of achievement of the goal, and
The predetermined action of the second user is performed by performing image recognition processing on image data obtained by capturing an image of a second user organizing and storing the items, or by acquiring weight data of a box in which the second user organizes and stores articles. A second identification step that sequentially identifies the second level that indicates the degree of achievement of the goal,
For the first user, the first presentation information indicating the first level specified in the first specific step and the second presentation information indicating the second level specified in the second specific step. Is sequentially presented, and when a predetermined condition is satisfied for the first level, information for third presentation for increasing the spontaneous frequency of organizing and storing is presented according to the difference between the first level and the second level. A program that includes presentation steps.
JP2017097341A 2017-05-16 2017-05-16 Action goal achievement support system, information processing method and program Active JP6909963B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017097341A JP6909963B2 (en) 2017-05-16 2017-05-16 Action goal achievement support system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097341A JP6909963B2 (en) 2017-05-16 2017-05-16 Action goal achievement support system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018195004A JP2018195004A (en) 2018-12-06
JP6909963B2 true JP6909963B2 (en) 2021-07-28

Family

ID=64571512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097341A Active JP6909963B2 (en) 2017-05-16 2017-05-16 Action goal achievement support system, information processing method and program

Country Status (1)

Country Link
JP (1) JP6909963B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3352107A1 (en) * 2008-03-03 2018-07-25 NIKE Innovate C.V. Interactive athletic equipment system
JP5423057B2 (en) * 2009-03-03 2014-02-19 日本電気株式会社 Action promotion system, server, presentation method, and program
EP2652657B1 (en) * 2010-12-16 2021-08-18 NIKE Innovate C.V. Methods and systems for encouraging athletic activity
JP2014102300A (en) * 2012-11-16 2014-06-05 Just Syst Corp Learning support device, learning support method and learning support program
JP5314200B1 (en) * 2013-02-01 2013-10-16 パナソニック株式会社 Service situation analysis device, service situation analysis system, and service situation analysis method
WO2014130805A1 (en) * 2013-02-22 2014-08-28 Nike, Inc. Activity monitoring, tracking and synchronization
JP6481400B2 (en) * 2015-02-12 2019-03-13 富士通株式会社 Cleaning status evaluation method, cleaning status evaluation program, and cleaning status evaluation device

Also Published As

Publication number Publication date
JP2018195004A (en) 2018-12-06

Similar Documents

Publication Publication Date Title
JP6923695B2 (en) Electronic devices, electronic device systems, and device control methods
Kret et al. Bonobos (Pan paniscus) show an attentional bias toward conspecifics’ emotions
US11679324B2 (en) Information processing device and information processing method
US20200342648A1 (en) Information processing apparatus, information processing method, program, and information processing system
Manches et al. Three questions about the Internet of things and children
Maille et al. To beg, or not to beg? That is the question: mangabeys modify their production of requesting gestures in response to human’s attentional states
JP6715477B2 (en) Device control system, device control method, and control program
US20150022329A1 (en) Assisted Animal Communication
KR102286043B1 (en) Apparatus and method for managing rehabilitation exercise
JP6765083B2 (en) Action goal achievement support system, action goal achievement support method and action goal achievement support processing program
CN112188296A (en) Interaction method, device, terminal and television
US10743061B2 (en) Display apparatus and control method thereof
KR20140134945A (en) Quit smoking clinic system using virtual reality and a operating method of the same
JP6909963B2 (en) Action goal achievement support system, information processing method and program
JP6899543B2 (en) Cleanup support system, cleanup support method and program
KR101967787B1 (en) Promoting activity during periods of sedentary behavior
CN110507996A (en) Keep the user experience in gaming network personalized
US11657729B2 (en) Childhood development system
WO2018207519A1 (en) Behavioral objective achievement support system, information processing method, and program
JP6765084B2 (en) Action goal achievement support system, action goal achievement support method and action goal achievement support processing program
KR102087514B1 (en) System for adjusting an audio/visual device based on health and wellness data
KR102424120B1 (en) Apparatus for Providing Information of Infant by Using Growth Capsule and Driving Method Thereof
JP2011223169A (en) Electric apparatus system
US10795326B2 (en) Information processing apparatus, and method
JP2022060820A (en) Remote conference support control apparatus, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210616

R151 Written notification of patent or utility model registration

Ref document number: 6909963

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151