JP2019018336A - Device, method, program, and robot - Google Patents
Device, method, program, and robot Download PDFInfo
- Publication number
- JP2019018336A JP2019018336A JP2018007252A JP2018007252A JP2019018336A JP 2019018336 A JP2019018336 A JP 2019018336A JP 2018007252 A JP2018007252 A JP 2018007252A JP 2018007252 A JP2018007252 A JP 2018007252A JP 2019018336 A JP2019018336 A JP 2019018336A
- Authority
- JP
- Japan
- Prior art keywords
- action
- target person
- robot
- acquired
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000009471 action Effects 0.000 claims abstract description 252
- 238000012545 processing Methods 0.000 claims abstract description 32
- 230000000977 initiatory effect Effects 0.000 claims abstract description 24
- 238000004891 communication Methods 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 8
- 230000033764 rhythmic process Effects 0.000 claims description 7
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000007704 transition Effects 0.000 description 39
- 230000008569 process Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 7
- 210000003128 head Anatomy 0.000 description 6
- 230000000638 stimulation Effects 0.000 description 5
- 235000021152 breakfast Nutrition 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000000470 constituent Substances 0.000 description 3
- 206010072269 Egocentrism Diseases 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000004936 stimulating effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000009987 spinning Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000010415 tidying Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02E—REDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
- Y02E60/00—Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
- Y02E60/30—Hydrogen technology
- Y02E60/50—Fuel cells
Abstract
Description
本開示は、人物とのコミュニケーションを図るロボット等に関するものである。 The present disclosure relates to a robot or the like that communicates with a person.
従来より、人物とのコミュニケーションを通じて人物との関与を図ることを主眼とするロボットが知られている。このようなロボットでは、可能な限りユーザがロボットと関与している状態を継続させることが重要である。 2. Description of the Related Art Conventionally, robots whose main purpose is to engage with a person through communication with the person are known. In such a robot, it is important to keep the user engaged with the robot as much as possible.
特許文献1には、ロボットがユーザ入力から独立したタスクを実行する自律タスク状態と、ロボットがユーザと相互作用する関与状態とを含み、現在の状況に基づいて、自律タスク状態から関与状態への移行タイミングと、関与状態から自律タスク状態への移行タイミングとを判断する技術が開示されている。
しかし、上記の従来技術では、集中しているとまわりが見えなくなり、かつ飽きが生じやすいという幼児の特性が全く考慮されていないので、関与状態を継続できないという課題があり、更なる改善の必要がある。 However, the above-mentioned prior art does not take into account the characteristics of infants who cannot see the surroundings when they are concentrated and are easily bored, so there is a problem that the state of involvement cannot be continued, and further improvement is necessary. There is.
本開示の一態様に係る装置は、所定の行動を実行することによって対象人物とコミュニケーションする装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記装置を動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる。
An apparatus according to an aspect of the present disclosure is an apparatus that communicates with a target person by executing a predetermined action,
A camera for acquiring video around the device;
A microphone for acquiring sound around the device;
A processing unit;
Speakers,
A drive unit for moving the device,
The processor is
According to the acquired video and the acquired sound, the apparatus is caused to execute any one of a first action, a second action, and a third action as an initial action for communicating with the target person. , The second action is one action higher than the third action, the first action is one action higher than the second action,
If there is a sound acquired by the microphone after the current action including the initial action is executed, the apparatus executes the action one level higher than the current action,
If there is no sound acquired by the microphone since the current action was executed, determine whether the elapsed time since the current action was executed is less than a threshold,
If it is determined that the elapsed time is less than the threshold, the device continues the current action,
If it is determined that the elapsed time is greater than or equal to the threshold value, the device performs an action one level lower than the current action,
Let the device execute a predetermined task as the first action,
As the second action, the speaker is made to output a voice to be spoken to the target person, and the drive unit is controlled to cause the apparatus to make a movement synchronized with the movement of the target person as the third action.
上記態様により、更なる改善を実現できた。 According to the above aspect, further improvement can be realized.
(本開示に係る一態様を発明するに至った経緯)
上述のように特許文献1では、関与状態と、関与状態以外の非関与状態(自律タスク状態及び休憩状態など)との間の移行タイミングを決定する方法が開示されてる。具体的には、特許文献1では、ユーザがロボットを注視し、且つ、ユーザがロボットからの関与オファー(例えば、問いかけ)に応じた場合、非関与状態から関与状態に移行することが開示されている。また、特許文献1では、関与状態において、会話が不成立となった後に複数回の問いかけに対してユーザからの応答がなく、一定時間、待機状態が継続した場合に非関与状態に移行することが開示されている。
(Background to inventing one aspect of the present disclosure)
As described above,
ところで、本発明者は、幼児とクイズをしたり、幼児に片づけを促したり、幼児に学習を促したりというような、幼児に対して何らかの仕事(タスク)を通じて幼児を教育及びしつけして、幼児の能力を向上させるロボットの研究を行っている。ここで、幼児は、自己中心性が強いという心理特性を有しており、好奇心が旺盛である反面、飽きやすく、集中力を持続させることが困難という傾向がある。 By the way, the present inventor educates and trains the infant through some kind of work (task), such as quizing with the infant, encouraging the infant to clean up, or encouraging the infant to learn. We are researching robots that improve their ability. Here, infants have a psychological characteristic that they have strong self-centeredness, and while they are very curious, they tend to get bored and have difficulty in maintaining their concentration.
したがって、特許文献1において幼児を対象とした場合、ロボットを注視したり、ロボットの問いかけ対して確実に応答したりすることが期待できず、非関与状態から関与状態への移行の契機が少ないという課題が発生する。また、たとえ関与状態に移行できたとしても、幼児は、すぐに、ロボットからの問いかけに対して無反応になったり、ロボットから遠くに離れたりするといった行動をとる傾向が高いので、すぐに非関与状態に戻ってしまうという課題が発生する。このように、特許文献1は、関与状態を長時間持続することができないという課題がある。
Therefore, when an infant is targeted in
かかる課題は、上記特許文献1にも言及がなく、従来には存在しなかったと認識している。
Such a problem is not mentioned in the above-mentioned
そこで、本発明者は、幼児に対してあるタスクを実行させる場合、幼児の意識が低い状態でいきなりタスクを課すのは却って逆効果であり、幼児の意識を十分に高めてからタスクを実行させることが有効であるとの知見を得た。そのためには、幼児への関与の度合いを増減させながら幼児のロボットへの関心を徐々に高めていくことが有効であるとの知見を得た。 Therefore, when the present inventor performs a certain task on the infant, imposing the task suddenly in a state where the infant is low is counterproductive, and the task is executed after sufficiently increasing the infant's awareness. It was found that this is effective. To that end, it was found that it is effective to gradually increase children's interest in robots while increasing or decreasing the degree of involvement with children.
本発明者は、上記の課題を解決するために、上記の知見の下、以下の改善策を検討した。 In order to solve the above problems, the present inventor examined the following improvement measures based on the above knowledge.
本開示の一態様に係る装置は、所定の行動を実行することによって対象人物とコミュニケーションする装置であって、
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記装置を動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる。
An apparatus according to an aspect of the present disclosure is an apparatus that communicates with a target person by executing a predetermined action,
A camera for acquiring video around the device;
A microphone for acquiring sound around the device;
A processing unit;
Speakers,
A drive unit for moving the device,
The processor is
According to the acquired video and the acquired sound, the apparatus is caused to execute any one of a first action, a second action, and a third action as an initial action for communicating with the target person. , The second action is one action higher than the third action, the first action is one action higher than the second action,
If there is a sound acquired by the microphone after the current action including the initial action is executed, the apparatus executes the action one level higher than the current action,
If there is no sound acquired by the microphone since the current action was executed, determine whether the elapsed time since the current action was executed is less than a threshold,
If it is determined that the elapsed time is less than the threshold, the device continues the current action,
If it is determined that the elapsed time is greater than or equal to the threshold value, the device performs an action one level lower than the current action,
Let the device execute a predetermined task as the first action,
As the second action, the speaker is made to output a voice to be spoken to the target person, and the drive unit is controlled to cause the apparatus to make a movement synchronized with the movement of the target person as the third action.
本態様では、関与の度合いが高い順に第1、第2、及び第3行動が用意されており、まず、ロボットの周囲の映像及び音の状況から第1〜第3行動のうちのいずれかの行動が初期行動として決定される。ここで、第1行動は対象人物にタスクを実行させるための行動であり、第2行動は対象人物へ話しかける行動であり、第3行動は対象人物の動きに同調する行動であり、第1〜第3行動の順に対象人物への関与が高いと言える。 In this aspect, the first, second, and third actions are prepared in descending order of the degree of involvement. First, any one of the first to third actions is determined from the surrounding video and sound conditions. The action is determined as the initial action. Here, the first action is an action for causing the target person to execute the task, the second action is an action to speak to the target person, and the third action is an action in synchronization with the movement of the target person. It can be said that the involvement in the target person is high in the order of the third action.
そして、マイクが周囲の音を検知した場合は、初期行動が対象人物にとって相応しく、対象人物の装置への関心が高いとして初期行動が一つ上位の行動に移行される。一方、初期行動を実行してからの経過時間が閾値に到達するまでマイクにより音が検知されなかった場合は、初期行動が対象人物の意識に対して相応しくなく、対象人物の関心を高めることができなかったと判定され、初期行動が一つ下位の行動に移行される。以後、このようにして、現在の行動が段階的に移行されながら対象人物の関心が高められていき、対象人物の関心が十分に高まった状態で、対象人物にタスクが課される。 When the microphone detects ambient sounds, the initial action is appropriate for the target person, and the initial action is shifted to one higher level action because the target person is highly interested in the device. On the other hand, if no sound is detected by the microphone until the elapsed time from the execution of the initial action reaches the threshold, the initial action is not appropriate for the target person's consciousness, and the target person's interest may be increased. It is determined that the action could not be performed, and the initial action is shifted to a lower action. Thereafter, in this manner, the interest of the target person is increased while the current action is gradually shifted, and the task is imposed on the target person in a state where the interest of the target person is sufficiently increased.
このように、本態様は対象人物の装置への関心を十分に高めてから対象人物にタスクを課すことができので、対象人物が例えば、幼児のような心理的特性を持つ人物であっても、装置の対象人物への関与状態を長時間継続させることができる。その結果、対象人物にタスクを長時間取り組ませることができ、対象人物の能力を効果的に高めることができる。 Thus, since this aspect can impose a task on the target person after sufficiently increasing the interest of the target person in the apparatus, even if the target person is a person having psychological characteristics such as an infant, for example. The state of involvement of the device with the target person can be continued for a long time. As a result, the target person can be tasked for a long time, and the ability of the target person can be enhanced effectively.
上記態様において、前記第3行動の一つ下位の行動は第4行動であり、
前記第4行動の一つ下位の行動は第5行動であり、
前記処理部は、
前記現在の行動が実行されてから、前記マイクによって取得された音がある場合、且つ、前記取得された音に含まれた前記対象人物の音声に、前記装置に備えられた辞書に含まれた語句が含まれる場合は、前記第5行動を前記装置に実行させ、
前記駆動部を制御して、前記装置に前記第4行動として、前記装置の現在位置で所定の動きをさせ、
前記装置に、前記第5行動として、前記対象人物とのコミュニケーションを停止させてもよい。
In the above aspect, the one action lower than the third action is a fourth action,
The first action lower than the fourth action is the fifth action,
The processor is
If there is a sound acquired by the microphone since the current action was executed, and the voice of the target person included in the acquired sound was included in the dictionary provided in the device If the phrase is included, the device performs the fifth action,
Controlling the drive unit to cause the device to perform a predetermined movement at the current position of the device as the fourth action,
The apparatus may stop communication with the target person as the fifth action.
本態様では、更に、現在位置で装置に所定の動きをさせる第4行動と、第4行動よりも関与の度合いが下位にあり、対象人物とのコミュニケーションを停止させる第5行動とが用意されている。そして、対象人物が辞書に含まれた語句(例えば、あっちへ行って)を発話した場合、第5行動が実行されるので、対象人物が装置とのコミュニケーションを積極的に拒んでおり、装置への関心の向上が見込まれない状況において、装置が対象人物を不必要に刺激することが防止され、装置が対象人物にとって煩わしい存在となることを防止できる。 In this aspect, a fourth action for causing the device to perform a predetermined movement at the current position and a fifth action having a lower degree of involvement than the fourth action and stopping communication with the target person are provided. Yes. When the target person speaks a phrase (for example, go there) included in the dictionary, the fifth action is executed, so the target person actively refuses to communicate with the apparatus, and In the situation where the interest is not expected to be improved, the apparatus is prevented from unnecessarily stimulating the target person, and the apparatus can be prevented from becoming annoying for the target person.
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第1行動を実行させてもよい。 In the above aspect, when the processing unit recognizes the target person from the acquired video and recognizes the voice of the target person from the acquired sound, the processing unit performs the initial action as to the device. The first action may be executed.
本態様では、対象人物が例えば装置の方を向いて発話しているような場合、対象人物の関心は十分に高いとして、第1行動が実行されるので、対象人物に対して速やかにタスクを課すことができる。 In this aspect, for example, when the target person is speaking toward the device, the first action is executed on the assumption that the target person is sufficiently interested. Can be imposed.
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識せず、且つ、前記取得された音から前記対象人物の音声を認識した場合は、前記装置に対して前記初期行動として前記第2行動を実行させてもよい。 In the above aspect, when the processing unit does not recognize the target person from the acquired video and recognizes the voice of the target person from the acquired sound, the processing unit performs the initial action on the device. The second action may be executed as follows.
本態様では、対象人物が例えば、装置に向かわずに何かしらの発話をしているような場合、対象人物に対して装置が話しかける第2行動が実行されるので、対象人物を適切に刺激して、対象人物の関心を高めることができる。 In this aspect, for example, when the target person is uttering something without going to the device, the second action is executed by the device speaking to the target person. , Can increase the interest of the target person.
上記態様において、前記処理部は、前記取得された映像から前記対象人物を認識し、且つ、前記取得された音から前記対象人物の音声を認識しない場合は、前記装置に対して前記初期行動として前記第3行動を実行させてもよい。 In the above aspect, when the processing unit recognizes the target person from the acquired video and does not recognize the target person's voice from the acquired sound, the processing unit performs the initial action for the device. The third action may be executed.
本態様では、対象人物が例えば、装置に向かわず発話もしていないような場合、対象人物の動きに同調する第3行動が実行されるので、対象人物を適切に刺激して、対象人物の関心を高めることができる。 In this aspect, for example, when the target person does not go to the apparatus and does not speak, the third action that is synchronized with the movement of the target person is executed. Therefore, the target person is appropriately stimulated and interested in the target person. Can be increased.
上記態様において、前記処理部は、前記第1行動として、前記スピーカに対して前記対象人物とのコミュニケーションを開始することを提案する音声を出力させてもよい。 The said aspect WHEREIN: The said process part may output the audio | voice which proposes starting the communication with the said target person with respect to the said speaker as said 1st action.
本態様では、第1行動を行う際、対象人物とのコミュニケーションを通じてタスクを要求することができ、対象人物に対して違和感なくタスクを要求することができる。 In this aspect, when performing the first action, a task can be requested through communication with the target person, and the task can be requested from the target person without a sense of incongruity.
上記態様において、前記処理部は、
前記取得された映像から前記対象人物の頭部の傾きを認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置の上部を、前記頭部の傾きと同じ方向と角度とで、傾けさせてもよい。
In the above aspect, the processing unit includes:
When the inclination of the head of the target person is recognized from the acquired video,
The drive unit may be controlled to tilt the upper part of the apparatus at the same direction and angle as the head tilt as the third action.
本態様では、第3行動を行う際、対象人物の頭部の姿勢の変化に連動して装置の姿勢が変化されるので、対象人物の動きに同調して装置が動作していることを対象人物に容易に分からせることができ、対象人物の装置への関心を高めることができる。 In this aspect, when performing the third action, the posture of the device is changed in conjunction with the change in the posture of the target person's head, so that the device is operating in synchronization with the movement of the target person. A person can be easily understood, and the interest of the target person in the device can be increased.
上記態様において、前記処理部は、
前記取得された映像から前記対象人物の所定のリズムに合わせた動作を認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置を前記リズムに合わせて動かせてもよい。
In the above aspect, the processing unit includes:
When recognizing an operation in accordance with a predetermined rhythm of the target person from the acquired video,
You may control the said drive part and can move the said apparatus according to the said rhythm as said 3rd action.
本態様では、第3行動を行う際、対象人物の動きのリズムに合わせて装置が動くため、対象人物の動きに同調して装置が動作していることを対象人物に容易に分からせることができ、対象人物の装置への関心を高めることができる。 In this aspect, when performing the third action, the apparatus moves in accordance with the movement rhythm of the target person, so that the target person can easily know that the apparatus is operating in synchronization with the movement of the target person. It is possible to increase the interest of the target person in the device.
上記態様において、前記処理部は、
前記第2行動として、前記対象人物に対応する名前を含んだ音声を、前記スピーカに出力させてもよい。
In the above aspect, the processing unit includes:
As the second action, a sound including a name corresponding to the target person may be output to the speaker.
本態様では、第2行動を行う際、対象人物の名前を用いて装置が対象人物に話しかけるので、装置に対する対象人物の関心を高めることができる。 In this aspect, when performing the second action, the apparatus talks to the target person using the name of the target person, so that the interest of the target person with respect to the apparatus can be increased.
上記態様において、前記処理部は、
前記第4行動として、前記装置を左右に揺らせてもよい。
In the above aspect, the processing unit includes:
As the fourth action, the device may be swung left and right.
本態様では、第4行動を行う際、装置が左右に揺らされるので、対象人物の関心がさほど高くない状況下において、比較的少ない刺激で対象人物の装置への関心を引き出すことができる。 In this aspect, when performing the fourth action, the device is shaken to the left and right, so that the subject person's interest in the device can be drawn with a relatively small amount of stimulation in a situation where the subject person's interest is not so high.
上記態様において、前記処理部は、
前記第4行動として、重力方向を軸として前記装置を旋回させてもよい。
In the above aspect, the processing unit includes:
As the fourth action, the device may be turned about the direction of gravity.
本態様では、第4行動を行う際、装置がその場で自転するので、対象人物の関心がさほど高くない状況下において、比較的少ない刺激で対象人物の装置への関心を引き出すことができる。 In this aspect, when performing the fourth action, the device rotates on the spot, so that the subject person's interest in the device can be drawn with a relatively small amount of stimulation in a situation where the subject person's interest is not so high.
上記態様において、前記処理部は、
前記第5行動として、前記装置を前記対象人物から遠ざからせてもよい。
In the above aspect, the processing unit includes:
As the fifth action, the apparatus may be moved away from the target person.
本態様では、第5行動を行う際、装置が対象人物から遠ざかるので、対象人物の関心の向上が見込まれない状況下において、対象人物に対して不必要な刺激を付与することを防止できる。 In this aspect, when the fifth action is performed, the apparatus moves away from the target person, and therefore it is possible to prevent unnecessary stimulation from being applied to the target person in a situation where improvement in the interest of the target person is not expected.
上記態様において、前記処理部は、
前記第5行動として、重力方向を軸として前記装置を180度旋回させてもよい。
In the above aspect, the processing unit includes:
As the fifth action, the device may be rotated 180 degrees around the direction of gravity.
本態様では、装置が対象人物に対して反対方向に向くため、対象人物の関心の向上が見込まれない状況下において、対象人物に対して不必要な刺激を付与することを防止できる。 In this aspect, since the apparatus is directed in the opposite direction with respect to the target person, it is possible to prevent unnecessary stimulation from being applied to the target person in a situation where the interest of the target person is not expected to improve.
上記態様において、前記処理部は、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合、且つ、前記装置に所定の割り込み禁止条件が設定されている場合は、前記装置に前記第5行動を実行させ、
前記所定の割り込み禁止条件は、
所定の時間帯についての条件及び前記対象人物の場所についての条件を含んでもよい。
In the above aspect, the processing unit includes:
When there is no sound acquired by the microphone since the current action is executed, and when a predetermined interrupt prohibition condition is set in the apparatus, the apparatus is caused to execute the fifth action,
The predetermined interrupt prohibition condition is
A condition regarding a predetermined time zone and a condition regarding the location of the target person may be included.
所定の場所で所定の時間に対象人物がロボットに関与されては困るような所定の行動(例えば、食事及び睡眠)を行うことが習慣化されていることがある。この場合、対象人物にロボットを関与させるのは生活パターンを乱すので好ましくない。そこで、本態様では割り込み禁止条件を設け、割り込み禁止条件が設定されている時間帯及び場所においては装置が対象人物への関与から離脱する第5行動をロボットに実行させる。これにより、ロボットが対象人物の生活パターンを乱すことを防止できる。 It may be customary to perform a predetermined action (for example, meal and sleep) that makes it difficult for a target person to be involved in a robot at a predetermined place at a predetermined time. In this case, it is not preferable to involve the robot in the target person because it disturbs the life pattern. Therefore, in this aspect, an interrupt prohibition condition is provided, and the robot performs a fifth action in which the apparatus leaves the involvement of the target person in the time zone and place where the interrupt prohibition condition is set. This can prevent the robot from disturbing the life pattern of the target person.
本開示は、このような装置に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。 The present disclosure can also be realized as a computer program that causes a computer to execute each characteristic step included in such an apparatus. Needless to say, such a computer program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM or a communication network such as the Internet.
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また全ての実施の形態において、各々の内容を組み合わせることも出来る。 Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In all the embodiments, the contents can be combined.
(実施の形態)
(全体構成)
以下、本開示の実施の形態について説明する。以下の説明では、本開示の装置をロボットに適用した場合を例に挙げて説明する。
(Embodiment)
(overall structure)
Hereinafter, embodiments of the present disclosure will be described. In the following description, a case where the apparatus of the present disclosure is applied to a robot will be described as an example.
図1は、本開示の実施の形態におけるロボット1の全体構成の一例を示すブロック図である。ロボット1は、例えば、幼児等の自己中心性が強いという心理特性を有するユーザとのコミュニケーションを通じて幼児の発育を支援することを主な目的とするロボットである。なお、コミュニケーションとは、幼児とロボット1とが音声により会話するというような直接的なコミュニケーションのみならず、ロボット1と幼児とが一緒になってダンスをするような間接的なコミュニケーションも含まれる。
FIG. 1 is a block diagram illustrating an example of the overall configuration of the
ロボット1は、センサー部100、行動実行部200、出力部300を備える。センサー部100は、マイク101及びカメラ102で構成されている。マイク101は、ロボット1の周囲の音を音声信号に変換する。また、マイク101は、変換した音声信号を所定のサンプリングレートでA/D変換し、デジタルの音声データに変換し、プロセッサ210に出力する。カメラ102は、ロボット1の周囲の映像を取得し、画像データを取得する。ここで、カメラ102は、例えば、CCD又はCMOSイメージセンサで構成され、所定のフレームレート(例えば、1秒間に60フレーム)でロボット1の周囲の画像を撮影し、デジタルの画像データに変換する。カメラ102は、ロボット1の正面前方を撮影する通常のカメラで構成されてもよいし、ロボット1の全方位を撮影する全方位カメラで構成されてもよい。カメラ102により所定のフレームレートで撮影された画像データは、所定のフレームレートで、プロセッサ210に入力される。ここで、カメラ102は、ステレオカメラ又は赤外線カメラで構成されてもよい。この場合、カメラ102が撮像する画像データには、周囲の物体までの距離を示す距離成分が含まれることになる。
The
行動実行部200は、プロセッサ210及びメモリ208を備える。プロセッサ210は、例えば、ASIC、DSP、又はCPU等のプロセッサで構成され、音声認識部201、画像認識部202、初期関与ステージ判断部203、関与実行部204、移行判断部205、及びコマンド生成部207を備える。ここで、プロセッサ210が備える各構成要素はプロセッサがメモリ208に記憶されたコンピュータを行動実行部200として機能させるプログラムを実行することで実現されてもよいし、専用のハードウェア回路で構成されてもよい。行動実行部200を構成する全ての構成要素は、同一端末に実装されてもよい。或いは、行動実行部200を構成する全て又は一部の構成要素は、光ファイバ、無線、又は公衆電話回線など任意のネットワークを介して接続される別の端末又はサーバ上に個別に実装されていてもよい。この場合、行動実行部200は、別の端末又はサーバと通信することによって実現される。
The
音声認識部201は、マイク101から入力される音声データに対して所定の音声認識処理を実行して、音声データからロボット1の周囲に存在するユーザの発話内容を認識し、認識した発話内容を文字列に変換し、発話データを生成する。所定の音声認識処理としては、例えば、隠れマルコフモデル、統計的手法、又は動的時間伸縮法といった公知の手法が採用できる。
The
また、音声認識部201は、マイク101から入力される音声データの声紋がメモリ208に記憶された所定のユーザの声紋と照合することで、発話したユーザを特定する。そして、音声認識部201は、特定したユーザの識別情報と、発話データとを含むデータを音声認識データとして出力する。所定のユーザとしては、例えば、ロボット1が教育支援対象とする幼児及びその幼児の家族が含まれる。以下、ロボット1が教育支援の対象とする幼児を対象人物の一例として説明する。
In addition, the
画像認識部202は、カメラ102から入力される画像データに対して顔認識処理を適用することで、ロボット1の周囲に位置するユーザを認識し、認識したユーザの識別情報を画像認識データとして出力する。また、画像認識部202は、顔認識処理により認識したユーザの目線、顔の方向、及びユーザの移動量等を検出し、検出結果を画像認識データとして出力する。ここで、画像認識処理には、例えば、画像データに含まれる人物の顔の特徴量を抽出する処理、及び、抽出した特徴量を予めメモリ208に記憶された所定のユーザの顔の特徴量と比較する処理等が含まれる。
The
初期関与ステージ判断部203は、音声認識部201から出力された音声認識データと、画像認識部202から出力された画像認識データとに基づいて、ロボット1の幼児に対する初期の関与ステージを示す初期関与ステージを決定する。図2は、初期関与ステージ判断部203が初期関与ステージを決定するために用いる初期関与ステージテーブルT1の一例を示す図である。なお、初期関与ステージテーブルT1はメモリ208に事前に記憶されている。
The initial participation
初期関与ステージテーブルT1は、複数の初期関与ステージと各初期関与ステージに対する条件とが対応付けられたデータベースであり、「認識項目」、「センサ」、「条件」、及び「初期関与ステージ」のフィールドを備える。 The initial participation stage table T1 is a database in which a plurality of initial participation stages and conditions for each initial participation stage are associated with each other. The fields of “recognition item”, “sensor”, “condition”, and “initial participation stage” Is provided.
「初期関与ステージ」フィールドには、「タスク実行」、「模倣」、及び「問いかけ」の3つ関与ステージと、対応する関与ステージがないことを示す「N/A」とが登録されている。なお、「タスク実行」、「問いかけ」、及び「模倣」の順で、ロボット1の幼児に対する関与の度合いが高い。「関与ステージ」とは、幼児に対してロボット1が関与する際の行動を決定するための指標を指す。
In the “initial participation stage” field, three participation stages of “task execution”, “imitation”, and “question” and “N / A” indicating that there is no corresponding participation stage are registered. The degree of involvement of the
関与ステージが「タスク実行」にある場合、幼児に対して所定のタスクを課す行動(第1行動の一例)がロボット1により実行される。所定のタスクとは、幼児が取り組むべき仕事又は課題を指し、例えば、なぞなぞ遊び、片付け、勉強、宿題、読書、ロボット1による絵本の読み聞かせ、及び手伝い等が該当する。なお、タスクは、音声認識部201から出力される音声認識データと、画像認識部202から出力される画像認識データとの少なくとも一方に基づいて、初期関与ステージの決定に先立ってプロセッサ210により事前に決定される。言い換えれば、初期関与ステージを決定する処理は、新たなタスクが決定される度に実行される。
When the participation stage is “task execution”, the
例えば、発話データに幼児に対して片付けを促す母親によって発話されたメッセージが含まれる場合、「片付け」がタスクとして決定される。例えば、音声認識データに「○○ちゃん、お片づけしましょうね」というような片付けを促す母親による発話データが含まれていれば、所定のタスクとして「片付け」が決定される。 For example, when the utterance data includes a message uttered by a mother who prompts an infant to clean up, “clean up” is determined as a task. For example, if the speech recognition data includes utterance data by a mother urging the user to clean up, such as “Let ’s clean up,” “cleanup” is determined as a predetermined task.
「認識項目」フィールドには、初期関与ステージのそれぞれに対するロボット1の認識項目が登録されている。図2の例では、全ての初期関与ステージに対して、「認識項目」として、「人認識」と「音声認識」とが含まれている。「人認識」とは、ロボット1が幼児を映像によって認識したことを指す。「音声認識」とは、ロボット1が幼児を音によって認識したことを指す。
In the “recognition item” field, recognition items of the
「センサ」フィールドには、認識項目に挙げられた認識を実現するためのセンサの種類が登録されている。図2の例では、全ての初期関与ステージにおいて、「人認識」には「カメラ」が登録され、「音声認識」には「マイク」が登録されている。つまり、「人認識」はカメラ102により撮影された画像データを用いて実行され、「音声認識」はマイク101により集音された音声データを用いて実行されることになる。
In the “sensor” field, the type of sensor for realizing the recognition listed in the recognition item is registered. In the example of FIG. 2, “camera” is registered in “person recognition” and “microphone” is registered in “voice recognition” in all initial participation stages. That is, “person recognition” is executed using image data captured by the
「条件」フィールドには、各初期関与ステージに対する決定条件が登録されている。例えば、「タスク実行」は、「人認識」と「音声認識」とが共に「認識」である場合に決定される。「模倣」は「人認識」が「認識」であり、「音声認識」が「なし」(=非認識)である場合に決定される。「問いかけ」は「人認識」が「なし」であり、「音声認識」が「認識」である場合に決定される。なお、「人認識」と「音声認識」とが共に「なし」である場合、初期関与ステージは決定されない。 In the “condition” field, a determination condition for each initial participation stage is registered. For example, “task execution” is determined when both “person recognition” and “voice recognition” are “recognition”. “Imitation” is determined when “person recognition” is “recognition” and “speech recognition” is “none” (= non-recognition). “Question” is determined when “person recognition” is “none” and “voice recognition” is “recognition”. When both “person recognition” and “voice recognition” are “none”, the initial participation stage is not determined.
ここで、初期関与ステージの決定は、幼児のロボット1への関心が高いほど、ロボット1への関与の度合いを高くするとの考えに基づいている。また、幼児のロボット1への関心は、幼児がロボット1に向かって会話している状況、幼児がロボット1に向かわずに会話している状況、及び幼児がロボット1に向かっているが会話はしていない状況の順に高いとみなしている。
Here, the determination of the initial participation stage is based on the idea that the degree of involvement in the
そこで、初期関与ステージテーブルT1では、「人認識」と「音声認識」とが共に「認識」の状況は、幼児のロボット1への関心の度合いが1番高いステージにあるとみなし、ロボット1の幼児への関与の度合いが1番高い関与ステージである「タスク実行」が割り当てられている。また、「人認識」が「なし」であり「音声認識」が「認識」の状況は、幼児のロボット1への関心が2番目に高いステージにあるとみなし、ロボット1の幼児への関与の度合いが2番目に高い関与ステージである「問いかけ」が割り当てられている。また、「人認識」が「認識」であり「音声認識」が「なし」の状況は、幼児のロボット1への関心が3番目に高いステージにあるとみなし、ロボット1の幼児への関与の度合いが3番目に高い関与ステージである「模倣」が割り当てられている。
Therefore, in the initial participation stage table T1, the situation where both “person recognition” and “speech recognition” are “recognition” is considered to be in a stage where the degree of interest in the
図1に参照を戻す。関与実行部204は、初期関与ステージ判断部203によって決定された初期関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。また、関与実行部204は、後述する移行判断部205によって関与ステージの移行が決定された場合、移行先の関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。
Returning to FIG. The
ここで、関与ステージは後述の図3で示すように、「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」の5つで構成される。そのため、関与実行部204は、これら5つの関与ステージに対応する5つの行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する。なお、「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」のそれぞれに対応する行動は、第1行動、第2行動、第3行動、第4行動、及び第5行動の一例に該当する。
Here, as shown in FIG. 3 to be described later, the participation stage is composed of five items of “task execution”, “question”, “imitation”, “waiting”, and “leaving”. Therefore, the
例えば、決定された関与ステージが「タスク実行」であれば、「タスク実行」のコマンドの出力依頼がコマンド生成部207に出力され、決定された関与ステージが「模倣」であれば、「模倣」のコマンドの出力依頼がコマンド生成部207に出力される。
For example, if the determined participation stage is “task execution”, an output request for a “task execution” command is output to the
移行判断部205は、初期関与ステージ判断部203により決定された初期関与ステージを別の関与ステージに移行するか否かを判断する。また、移行判断部205は、初期関与ステージを移行させた後の関与ステージを別の関与ステージに移行するか否かを判定する。以下、初期関与ステージと、初期関与ステージから移行された後の関与ステージとを含め、現在、ロボット1に設定されている関与ステージのことを「現在の関与ステージ」と記述する。
The
ここで、移行判断部205は、現在の関与ステージに対応する行動が実行されてから、音声認識部201により幼児の音声が認識された場合、現在の関与ステージを一つ上の関与ステージに移行すると判断する。すなわち、移行判断部205は、現在の関与ステージをロボット1に実行させた結果、幼児が発話により反応した場合、幼児のロボット1への関心は高まる傾向にあると判断して、現在の関与ステージを1つ上の関与ステージに移行するのである。
Here, the
一方、移行判断部205は、現在の関与ステージに対応する行動(現在の行動)が実行されてから、音声認識部201により幼児の音声が認識されなかった場合、現在の行動が実行されてからの経過時間が閾値未満であるかを判断する。そして、移行判断部205は、前記経過時間が閾値未満であると判断した場合、現在の関与ステージを継続すると判断する。一方、移行判断部205は、前記経過時間が閾値以上になっても幼児が発話しなかった場合、現在の関与ステージを一つ下位の関与ステージに移行すると判断する。すなわち、移行判断部205は、前記経過時間が閾値に到達するまで待っても、幼児から発話による反応がない場合は、現在の関与ステージは幼児に合っておらず、却って幼児のロボット1への関心を低下させてしまうと判断して、一つ下位の関与ステージに移行するのである。
On the other hand, if the
図3は、ロボット1の関与ステージの順序を定める移行テーブルT2の一例を示す図である。図3に示す移行テーブルT2には、ロボット1が幼児に関与する度合いが高い順に「タスク実行」、「問いかけ」、「模倣」、「待機」、及び「離脱」の5つの関与ステージが登録されている。例えば、移行判断部205は、移行テーブルT2に登録された順位にしたがって段階的に関与ステージを設定し、ロボット1の幼児に対する関与の度合いを上げ下げする。なお、移行テーブルT2は、メモリ208に事前に記憶されている。
FIG. 3 is a diagram illustrating an example of the transition table T2 that determines the order of the participating stages of the
コマンド生成部207は、関与実行部204からコマンドの出力依頼を受け付けた場合、出力依頼が示すコマンドを出力部300に出力する。
When the
出力部300は、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動をロボット1に実現させる構成要素であり、スピーカ301及び駆動部302を備える。
The
スピーカ301は、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動を実行する際に必要な音声データを音声に変換して外部に出力する。
The
駆動部302は、例えば、モータ等のアクチュエータと、アクチュエータによって作動する機構部とによって構成され、コマンド生成部207からのコマンドにしたがって、現在の関与ステージに対応する行動をロボット1に実現させる。機構部としては、ロボット1を前進又は後進させる部材、ロボット1の姿勢を変化させる部材、及びロボット1の顔の表情を表示する表示部の向きを変化させる部材等が含まれる。アクチュエータとしては、ロボット1を前進又は後進させる部材を駆動するモータ、ロボット1の姿勢を変化させる部材を駆動するモータ、及び表示部の向きを変化させるモータ等が含まれる。
The
なお、行動実行部200がロボット1の本体部分とは別の端末又はサーバに実装されている場合、スピーカ301及び駆動部302は、有線または無線を介して行動実行部200が実装された端末又はサーバと接続されればよい。
When the
(フローチャート)
次に、図4及び図5を用いて、ロボット1における関与ステージの決定処理について説明する。図4は、関与ステージの決定処理の一例を示すフローチャートである。図5は図4の続きのフローチャートである。
(flowchart)
Next, the involved stage determination process in the
まず、プロセッサ210は、音声認識部の電源がオンされるとロボット1が起動する(S101)。次に、初期関与ステージ判断部203は、音声認識部201による音声認識データと、画像認識部202よる画像認識データとに基づいて、センサー入力の有無を検知する(S102)。ここで、初期関与ステージ判断部203は、音声認識部201により幼児に関する音声認識データが出力されず、且つ、画像認識部202により幼児に関する画像認識データが出力されていない場合、センサー入力無しと判断し、幼児に関する音声認識データと幼児に関する画像認識データとの少なくとも一方が出力された場合、センサー入力有りと判断すればよい。
First, the
S102において、センサー入力有りと判断された場合(S102でYES)、処理はS103に進み、センサー入力無しと判断された場合(S102でNO)、処理はS102に戻る。 If it is determined in S102 that there is a sensor input (YES in S102), the process proceeds to S103. If it is determined that there is no sensor input (NO in S102), the process returns to S102.
S103では、初期関与ステージ判断部203は、メモリ208に記憶された初期関与ステージテーブルT1を参照して、ロボット1の初期関与ステージを決定する(S103)。ここで、初期関与ステージ判断部203は、条件の項目にマッチした関与ステージをロボット1の初期関与ステージとして決定する。
In S103, the initial participation
例えば、音声認識部201により幼児の発話が音声認識され、且つ、画像認識部202により幼児の映像が認識された場合、初期関与ステージとして「タスク実行」が決定される。また、音声認識部201により幼児の発話が音声認識されず、且つ、画像認識部202により幼児の映像が認識された場合、初期関与ステージとして「模倣」が決定される。また、音声認識部201により幼児の発話が音声認識され、且つ、画像認識部202により幼児の映像が認識されなかった場合、初期関与ステージとして「問いかけ」が決定される。
For example, when the
次に、図5を参照し、S202では、現在の関与ステージが「離脱」でない場合(202でNO)、関与実行部204は、現在の関与ステージに対応する行動を実行するためのコマンドの出力依頼をコマンド生成部207に出力する(S203)。ここで、初期関与ステージとしては、「タスク実行」、「問いかけ」、及び「模倣」の3つがあるため、まず、これら3つの関与ステージのいずれかに対応する行動が実行されることになる。
Next, referring to FIG. 5, in S202, when the current participation stage is not “leave” (NO in 202), the
タスクとして、例えば、なぞなぞ遊びが実行される場合、プロセッサ210は、幼児に対して「なぞなぞ遊びをやろう」というようなコミュニケーションの開始を提案する音声をスピーカ301に出力させるコマンド、及びなぞなぞの問題を読み上げる音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。また、プロセッサ210は、なぞなぞの問題を読み上げた後、音声認識部201により幼児から答えの発話が音声認識された場合、発話内容をなぞなぞの答えと照合し、正解した場合は、正解したことを示す音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。
As a task, for example, when riddle play is executed, the
また、タスクとして、片付けが実行される場合、プロセッサ210は、「お部屋の片付けをしよう」という問いかけの音声をスピーカ301から出力させるコマンドを出力部300に出力した後、画像認識部202の認識結果から幼児が片付けをしているか否かを判断し、片付けをしていると判断した場合は、幼児の行動をほめる音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。一方、プロセッサ210は、幼児が片付けをしていないと判断した場合は、幼児に対して片付けを促す音声をスピーカ301から出力させるコマンドを出力部300に出力すればよい。
Further, when cleanup is executed as a task, the
「問いかけ」の関与ステージに対応する行動は、ロボット1が幼児に対し、例えば、幼児の名前を呼ぶなどして、幼児に話しかける行動が該当する。
The action corresponding to the “question” participation stage corresponds to an action in which the
「模倣」の関与ステージに対応する行動は、ロボット1が幼児と同調した動きをする行動、すなわち、幼児の動き真似をする行動が該当する。「模倣」の関与ステージに対応する行動をロボット1が実行する場合、プロセッサ210は、例えば、画像認識部202の認識結果から、幼児が下を向いて何らかの作業を集中して行っていることを検出したとすると、ロボット1の上部を幼児の頭部の傾きと同じ角度で同じ向きに傾けるコマンドを出力部300に出力すればよい。ここで、同じ向きとは、ロボット1と幼児とが対面していることを想定しており、例えば、幼児が頭部を左に傾けたのであればロボット1が上部を右の方向に傾けること、又、幼児が頭部を右に傾けたのであればロボット1が上部を左の方向に傾けることが該当する。
The action corresponding to the “imitation” participation stage corresponds to an action in which the
また、プロセッサ210は、例えば、画像認識部202の認識結果から、ダンスのように幼児が所定のリズムに合わせた動作をしていることを検知した場合、ロボット1を所定のリズムに合わせてダンスさせるコマンドを出力部300に出力すればよい。
Further, for example, when the
一方、S202にて、現在の関与ステージが「離脱」である場合(S202でYES)、関与実行部204は、ロボット1に幼児への関与から離脱させる離脱行動を実行させるコマンドの出力依頼をコマンド生成部207に出力し、ロボット1に離脱行動を実行させ(S207)、処理を終了する。
On the other hand, when the current participation stage is “leave” in S202 (YES in S202), the
ここで、離脱行動とは、ロボット1が幼児への関与を離脱する行動を指す。例えば、離脱行動としては、幼児から所定距離だけ離れた位置にロボット1を移動させたり、ロボット1の向きを重力方向を軸として180度旋回させて幼児の顔と反対方向にロボット1の正面を向けさせたりするというような、ロボット1が幼児とのコミュニケーションを停止させる自律的な行動が該当する。これにより、ロボット1への関心の向上が見込まれないほど幼児の意識が低い状態において、不必要に幼児を刺激して幼児がロボット1に対して嫌悪感を抱くことを防止できる。
Here, the withdrawal action refers to an action in which the
S204にて、関与実行部204は、現在の関与ステージが「タスク実行」であってそのタスクが終了した場合(S204でNO)、ロボット1に離脱行動を実行させるコマンドの出力依頼をコマンド生成部207に出力し、ロボット1に離脱行動を実行させ(S207)、処理を終了する。これにより、タスクの終了後もロボット1が幼児につきまとい、幼児がロボット1に対して嫌悪感を抱くことを防止できる。
In S204, if the current participation stage is “task execution” and the task is completed (NO in S204), the
一方、現在の関与ステージが「タスク実行」であってそのタスクが終了していない場合(S204でNO)、又は、現在の関与ステージが「問いかけ」、「模倣」、又は「待機」の場合(S204でNO)、移行判断部205は関与ステージの移行の判断処理を行う(S205)。
On the other hand, when the current participation stage is “task execution” and the task has not ended (NO in S204), or when the current participation stage is “question”, “imitation”, or “waiting” ( In step S204, NO is determined, and the
なお、タスクは、タスク毎に設定されている終了条件が満たされた場合に終了される。例えば、タスクが幼児の質問に答えるタスクである場合、タスクはロボット1が幼児の質問に答えた後、一定時間が経過するまで、幼児から質問がなければ終了される。また、タスクがなぞなぞ遊びであれば、ロボット1が出題したなぞなぞに幼児が所定回数回答した場合又は出題してから一定時間が経過するまでに幼児からの発話がない場合に終了される。
Note that a task is terminated when a termination condition set for each task is satisfied. For example, if the task is a task for answering an infant's question, the task is terminated if there is no question from the infant until a predetermined time elapses after the
次に、関与実行部204は、S205の処理によって決定された関与ステージに対応する行動をロボット1に実行させるためのコマンドの出力依頼をコマンド生成部207に出力する(S206)。これにより、S205の処理によって決定された関与ステージに対応する行動がロボット1によって実行される。なお、S205の処理によって決定された関与ステージはメモリ208に一時的に記憶される。
Next, the
次に、図5のS205に示す移行の判断処理について説明する。図6は、図5のS205の詳細な処理の一例を示すフローチャートである。 Next, the migration determination process shown in S205 of FIG. 5 will be described. FIG. 6 is a flowchart showing an example of detailed processing in S205 of FIG.
まず、移行判断部205は、幼児の音声反応が無しと判断した場合(S301でNO)、割り込み禁止状態にあるか否かを確認をする(S302)。図7は、割り込み禁止条件が設定された割り込み禁止条件テーブルT3の一例を示す図である。
First, when it is determined that there is no voice response of the infant (NO in S301), the
幼児が所定の時間に所定の場所でロボット1に関与されると困るような行動を行うことが習慣化されている場合、所定の時間に所定の場所にいる幼児にロボット1が関与すると、幼児の生活パターンを乱してしまう。例えば、朝の時間帯にダイニングで幼児が朝食をとることが習慣化されている場合、この朝の時間帯にロボット1が幼児に関与すると、朝食の妨げになってしまう。そこで、本実施の形態では割り込み禁止条件を設け、割り込み禁止条件が設定されている時間帯及び場所においては、ロボット1に離脱行動を実行させ、幼児の生活パターンをロボット1が乱すことを防止している。
If it is customary to perform an action that would be troublesome if the infant is involved in the
割り込み禁止条件テーブルT3は縦軸に時間帯、横軸に場所が規定された二次元のテーブルである。「時間帯」フィールドには、1日の時間帯を複数に区切った時間帯が登録されている。ここでは、7時から9時、9時から12時、・・・、21時から7時というように、1日の時間帯が7個の時間帯に区切られている。「場所」フィールドには、幼児の家の部屋名が登録されている。割り込み禁止条件テーブルT3の各セルには、割り込み禁止条件が設定されていることを示すデータ「ON」と割り込み禁止条件が設定されていないことを示すデータ「OFF」とが登録されている。 The interrupt prohibition condition table T3 is a two-dimensional table in which a vertical axis indicates a time zone and a horizontal axis indicates a location. In the “time zone” field, a time zone in which the daily time zone is divided into a plurality of times is registered. Here, the time zone of the day is divided into seven time zones, such as 7 o'clock to 9 o'clock, 9 o'clock to 12 o'clock, ..., 21 o'clock to 7 o'clock. In the “place” field, the room name of the infant's house is registered. In each cell of the interrupt prohibition condition table T3, data “ON” indicating that the interrupt prohibition condition is set and data “OFF” indicating that the interrupt prohibition condition is not set are registered.
例えば、7時から9時の時間帯においてダイニングのセルには「ON」が登録されている。したがって、移行判断部205は、この時間帯において幼児がダイニングにいることを検知した場合、関与ステージを「離脱」に決定する。これは、この家庭では、例えば、7時から9時の時間帯にダイニングで、幼児が朝食をとることが習慣化されており、ロボット1を幼児に関与させると朝食の邪魔になるからである。
For example, “ON” is registered in the dining cell in the time zone from 7:00 to 9:00. Accordingly, when the
一方、例えば、7時から9時の時間帯においてダイニング以外の場所のセルには「OFF」が登録されている。したがって、移行判断部205は、この時間帯であっても幼児がダイニング以外の場所にいれば、ロボット1は離脱行動以外の行動が許容された通常動作を行う。
On the other hand, for example, “OFF” is registered in the cells other than the dining in the time zone from 7:00 to 9:00. Therefore, the
なお、割り込み禁止条件は、例えば、スマートフォン等の携帯端末に対してユーザが入力したデータに基づいて事前に設定される。ユーザは、例えば、携帯端末に対して発話することで、割り込み禁止条件を設定すればよい。これにより、割り込み禁止状態にある場合、ロボット1が幼児に関与することを防止できる。
The interrupt prohibition condition is set in advance based on data input by the user to a mobile terminal such as a smartphone, for example. For example, the user may set the interrupt prohibition condition by speaking to the mobile terminal. Thereby, when it is in the interruption prohibition state, the
図6に参照を戻す。S302では、移行判断部205は、割り込み禁止条件テーブルT3を参照し、割り込み禁止状態であると判定した場合(S302でYES)、関与ステージを「離脱」に移行する(S305)。一方、割り込み禁止状態でないと判断した場合(S302でNO)、処理はS303に進む。ここで、移行判断部205は、画像認識部202による認識結果から幼児がいる部屋を判定し、判定した部屋と現在時刻が属する時間帯とに対応するセルに「ON」が登録されている場合、割り込み禁止状態にあると判定し(S302でYES)、前記セルに「OFF」が登録されている場合、割り込み禁止状態にないと判定する(S302でNO)。
Returning to FIG. In S302, the
S303では、移行判断部205は、現在の関与ステージに対応する行動を実行してからの経過時間が閾値未満であるか否かを判定する。前記経過時間が閾値未満であれば(S303でYES)、移行判断部205は、現在の関与ステージを維持する(S307)。一方、前記経過時間が閾値以上であれば(S303でNO)、移行判断部205は、移行テーブルT2を参照し、現在の関与ステージを一つ下位の関与ステージに移行させる(S308)。閾値としては、例えば、これ以上、同一の関与ステージに対応する行動をロボット1に実行させても、幼児の関心が高まらないことが見込まれる予め定められた時間が採用され、例えば、1分、2分、3分、5分、10分というような値が採用できる。
In S303, the
図3において、例えば現在の関与ステージが「模倣」であり、この状態において関与ステージが一つ下位に移行すると判断された場合、関与ステージは「待機」に設定される。なお、「待機」の関与ステージに対応する行動は、ロボット1をその場で左右に揺らせる行動、又は、重力方向を軸としてロボット1をその場で旋回(スピン)させる行動が該当する。これにより、幼児の関心が低い状況下において、比較的少ない刺激で幼児のロボット1への関心を引き出すことができる。
In FIG. 3, for example, when the current participation stage is “imitation” and it is determined that the participation stage moves down one level in this state, the participation stage is set to “standby”. Note that the action corresponding to the “standby” participation stage corresponds to an action of swinging the
S301において、移行判断部205は、幼児の音声反応が有ると判断した場合(S301でYES)、幼児の発話内容が拒絶用語辞書にヒットしたか否かを判断をする(S304)。図8は、拒絶用語辞書が登録された辞書テーブルT4の一例を示す図である。辞書テーブルT4には、「あっちいって」、「話かけないで」、及び「うるさい」等、ロボット1を拒絶するような用語が登録されている。移行判断部205は、幼児の発話内容に辞書テーブルT4に登録されたいずれかの用語が含まれている場合(S304でYES)、幼児はロボット1の関与を積極的に拒んでいると判断し、現在の関与ステージを「離脱」に移行させる(S305)。
In S301, when it is determined that the infant has a voice response (YES in S301), the
一方、幼児の発話内容に辞書テーブルT4に登録されいずれの用語も含まれていない場合(S304でNO)、移行判断部205は現在の関与ステージを一つ上位の関与ステージに移行させる(S306)。図3を参照し、例えば、現在の関与ステージが「模倣」であり、この状態において関与ステージを一つ上位に上げると判断された場合、関与ステージは「問いかけ」に移行される。
On the other hand, when the utterance content of the infant is registered in the dictionary table T4 and does not include any term (NO in S304), the
S305、S306、S307、S308の処理が終了すると、処理は図5のS206に戻り、関与ステージが移行された後、処理が図5のS202に進み、タスクが終了する又は離脱行動が実行されるまでS202〜S206の処理が繰り返される。 When the processes of S305, S306, S307, and S308 are completed, the process returns to S206 in FIG. 5, and after the participation stage is shifted, the process proceeds to S202 in FIG. The processes of S202 to S206 are repeated until.
(ロボット)
次に、ロボット1の機構について説明する。図9は、ロボット1の外観の一例を示す図である。ロボット1は、球帯状のメイン筐体401と球冠部402、403とを備えており、メイン筐体401と球冠部402、403とは全体として球体を構成する。即ち、ロボット1は球体形状を有する。また、ロボット1は、球冠部402(もしくは球冠部403)にマイク101とカメラ102とスピーカ301とを備える。また、ロボット1は、図略の制御回路を備える。図1に示す行動実行部200は、この制御回路に実装される。図9の例では、カメラ102は球冠部402と球冠部403とのそれぞれに設けられた2つのカメラを含むステレオカメラで構成されており、周辺環境の映像と距離データを取得する。
(robot)
Next, the mechanism of the
球冠部402の中心と球冠部403の中心とはメイン筐体401の内部に設けられたシャフト(図略)によって固定接続されている。メイン筐体401はシャフトに対して回転自在に取り付けられている。また、シャフトにはフレーム(図略)及び表示部(図略)が取り付けられている。フレームにはメイン筐体401を回転させる第1モータ(図略)が取り付けられている。この第1モータ(図略)が回転することで、メイン筐体401は球冠部402、403に対して回転し、ロボット1は前進又は後退する。なお、ロボット1が前進又は後退する場合、球冠部402、403は停止状態にあるので、スピーカ301及びカメラ102はロボット1の正面を向いた状態に維持される。また、表示部には、ロボット1の目及び口を示す画像を表示する。この表示部は、第2モータ(図略)による動力によってシャフトに対する角度が調整自在に取り付けられている。したがって、表示部のシャフトに対する角度を調整することで、ロボットの目及び口の方向が調整される。なお、表示部はメイン筐体401とは独立してシャフトに取り付けられているので、メイン筐体401が回転してもシャフトに対する角度は変化しない。したがって、ロボット1は、目及び口の向きを固定した状態で前進又は後退できる。
The center of the
更に、シャフトにはおもり(図略)が下げられている。このおもりは、第3モータ(図略)の動力によりロボット1の正面方向を軸として揺動自在に取り付けられている。したがって、おもりを揺動させることで、ロボット1をその場で揺れるように動作をさせることができる。また、おもりを後方から前方に見て、左方又は右方に傾斜させた状態でロボット1を前進させることで、ロボット1を左方又は右方に旋回させることができる。例えば、おもりを左方に傾斜させた状態でロボット1を前進させる動作と、おもりを右方に傾斜させた状態でロボット1を後退させる動作とを小刻みに繰り返すことで、ロボット1は重力方向を軸に旋回(その場旋回)を行うことができる。
Further, a weight (not shown) is lowered on the shaft. This weight is attached so as to be swingable about the front direction of the
なお、上述した、メイン筐体401、第1モータ、第2モータ、第3モータ、及び表示部は図1の駆動部302を構成する。
The
制御回路は、ロボット1の各種動作を制御する。なお、ロボット1は、全体として球体を構成しているが、これに限られるものではなく、少なくとも移動機構を有した構成を備えれば良い。
The control circuit controls various operations of the
このように、本実施の形態では、幼児へのロボット1の関与の度合いを段階的に上げることにより、幼児のロボット1への関心を段階的に高めていき、幼児のの関心が十分に高まった状態で幼児にタスクを課すことができる。したがって、本開示では、集中力を持続させることが困難な心理的特性を持つ幼児に対して、ロボット1を長時間関与させることが可能となる。その結果、幼児にタスクを長時間取り組ませることができ、幼児の能力を効果的に高めることができる。
As described above, in the present embodiment, by gradually increasing the degree of involvement of the
本開示は、下記の変形例が採用できる。 The present disclosure can employ the following modifications.
(1)上記実施の形態では、本開示に係る装置がロボット1に適用される例が示されたが、これに限定されず、ロボット1以外の移動可能な装置であればどのような実装されてもよい。
(1) In the above-described embodiment, an example in which the device according to the present disclosure is applied to the
(2)上記実施の形態では、関与ステージとして「離脱」及び「待機」が含まれていたが、これらの関与ステージは省かれてもよい。この場合、「タスク実行」、「問いかけ」、及び「模倣」の3つの関与ステージのいずれかに対応する行動をロボット1はとることになる。
(2) In the above embodiment, “leave” and “standby” are included as the participation stages, but these participation stages may be omitted. In this case, the
(3)図6のフローチャートでは、割り込み禁止状態の有無を判定する処理(S302)と、拒絶用語辞書へのヒットの有無を判定する処理(S304)とが設けられているが、これは一例であり、両処理のうちいずれか一方又は両方が省かれてもよい。 (3) In the flowchart of FIG. 6, there are provided a process for determining the presence or absence of an interrupt disabled state (S302) and a process for determining the presence or absence of a hit in the rejection term dictionary (S304). Yes, either or both of the processes may be omitted.
(4)図5のフローチャートは電源ONをトリガーに開始されているが、これは一例であり、幼児に課すべきタスクが発生したことをトリガーに開始されてもよい。 (4) Although the flowchart of FIG. 5 is started when the power is turned on, this is an example, and it may be started when a task to be imposed on the infant has occurred.
本開示によれば、飽きが生じやすく、関与の契機が難しい対象人物に対し、ロボットの関与状態を持続できるので、教育用ロボットとして有用である。 According to the present disclosure, it is useful as an educational robot because the robot's involvement state can be maintained for a target person who is easily bored and difficult to get involved.
1 ロボット
100 センサー部
101 マイク
102 カメラ
200 行動実行部
201 音声認識部
202 画像認識部
203 初期関与ステージ判断部
204 関与実行部
205 移行判断部
207 コマンド生成部
208 メモリ
210 プロセッサ
300 出力部
301 スピーカ
302 駆動部
T1 初期関与ステージテーブル
T2 移行テーブル
T3 割り込み禁止条件テーブル
T4 辞書テーブル
DESCRIPTION OF
Claims (17)
前記装置周辺の映像を取得するカメラと、
前記装置周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記装置を動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる、
装置。 A device that communicates with a target person by executing a predetermined action,
A camera for acquiring video around the device;
A microphone for acquiring sound around the device;
A processing unit;
Speakers,
A drive unit for moving the device,
The processor is
According to the acquired video and the acquired sound, the apparatus is caused to execute any one of a first action, a second action, and a third action as an initial action for communicating with the target person. , The second action is one action higher than the third action, the first action is one action higher than the second action,
If there is a sound acquired by the microphone after the current action including the initial action is executed, the apparatus executes the action one level higher than the current action,
If there is no sound acquired by the microphone since the current action was executed, determine whether the elapsed time since the current action was executed is less than a threshold,
If it is determined that the elapsed time is less than the threshold, the device continues the current action,
If it is determined that the elapsed time is greater than or equal to the threshold value, the device performs an action one level lower than the current action,
Let the device execute a predetermined task as the first action,
Causing the speaker to output a voice to be spoken to the target person as the second action, and controlling the drive unit to cause the device to perform a movement in synchronization with the movement of the target person as the third action;
apparatus.
前記第4行動の一つ下位の行動は第5行動であり、
前記処理部は、
前記現在の行動が実行されてから、前記マイクによって取得された音がある場合、且つ、前記取得された音に含まれた前記対象人物の音声に、前記装置に備えられた辞書に含まれた語句が含まれる場合は、前記第5行動を前記装置に実行させ、
前記駆動部を制御して、前記装置に前記第4行動として、前記装置の現在位置で所定の動きをさせ、
前記装置に、前記第5行動として、前記対象人物とのコミュニケーションを停止させる、
請求項1記載の装置。 The first action lower than the third action is the fourth action,
The first action lower than the fourth action is the fifth action,
The processor is
If there is a sound acquired by the microphone since the current action was executed, and the voice of the target person included in the acquired sound was included in the dictionary provided in the device If the phrase is included, the device performs the fifth action,
Controlling the drive unit to cause the device to perform a predetermined movement at the current position of the device as the fourth action,
Causing the device to stop communication with the target person as the fifth action,
The apparatus of claim 1.
請求項1記載の装置。 When the processing unit recognizes the target person from the acquired video and recognizes the voice of the target person from the acquired sound, the processing unit performs the first action as the initial action with respect to the device. To execute,
The apparatus of claim 1.
請求項1記載の装置。 When the processing unit does not recognize the target person from the acquired video and recognizes the voice of the target person from the acquired sound, the processing unit performs the second action as the initial action with respect to the device. Take action,
The apparatus of claim 1.
請求項1記載の装置。 When the processing unit recognizes the target person from the acquired video and does not recognize the voice of the target person from the acquired sound, the processing unit performs the third action as the initial action for the device. To execute,
The apparatus of claim 1.
請求項3記載の装置。 The processing unit, as the first action, causes the speaker to output a sound proposing to start communication with the target person,
The apparatus according to claim 3.
前記取得された映像から前記対象人物の頭部の傾きを認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置の上部を、前記頭部の傾きと同じ方向と角度とで、傾けさせる、
請求項5記載の装置。 The processor is
When the inclination of the head of the target person is recognized from the acquired video,
Controlling the drive unit to tilt the upper part of the device in the same direction and angle as the tilt of the head, as the third action,
The apparatus of claim 5.
前記取得された映像から前記対象人物の所定のリズムに合わせた動作を認識した場合は、
前記駆動部を制御して、前記第3行動として、前記装置を前記リズムに合わせて動かせる、
請求項5記載の装置。 The processor is
When recognizing an operation in accordance with a predetermined rhythm of the target person from the acquired video,
By controlling the drive unit, as the third action, the device can be moved according to the rhythm,
The apparatus of claim 5.
前記第2行動として、前記対象人物に対応する名前を含んだ音声を、前記スピーカに出力させる、
請求項4記載の装置。 The processor is
As the second action, a sound including a name corresponding to the target person is output to the speaker.
The apparatus of claim 4.
前記第4行動として、前記装置を左右に揺らせる、
請求項2記載の装置。 The processor is
As the fourth action, the device is swung left and right,
The apparatus of claim 2.
前記第4行動として、重力方向を軸として前記装置を旋回させる、
請求項2記載の装置。 The processor is
As the fourth action, the device is turned about the direction of gravity,
The apparatus of claim 2.
前記第5行動として、前記装置を前記対象人物から遠ざからせる、
請求項2記載の装置。 The processor is
As the fifth action, the device is moved away from the target person.
The apparatus of claim 2.
前記第5行動として、重力方向を軸として前記装置を180度旋回させる、
請求項2記載の装置。 The processor is
As the fifth action, the device is turned 180 degrees around the direction of gravity.
The apparatus of claim 2.
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合、且つ、前記装置に所定の割り込み禁止条件が設定されている場合は、前記装置に前記第5行動を実行させ、
前記所定の割り込み禁止条件は、
所定の時間帯についての条件及び前記対象人物の場所についての条件を含む、
請求項2記載の装置。 The processor is
When there is no sound acquired by the microphone since the current action is executed, and when a predetermined interrupt prohibition condition is set in the apparatus, the apparatus is caused to execute the fifth action,
The predetermined interrupt prohibition condition is
Including a condition for a predetermined time zone and a condition for the location of the target person,
The apparatus of claim 2.
前記装置周辺の映像をカメラにより取得し、
前記装置周辺の音をマイクにより取得し、
前記取得された映像及び前記取得された音に従って、前記装置に対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記装置に実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記装置に継続させ、
前記経過時間が前記閾値以上と判断された場合は、前記現在の行動の一つ下位の行動を前記装置に実行させ、
前記装置に、前記第1行動として、所定のタスクを実行させ、
スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、駆動部を制御して、前記装置に前記第3行動として、前記対象人物の動きと同調した動きをさせる、
方法。 A method in an apparatus for communicating with a target person by executing a predetermined action,
The video around the device is acquired by the camera,
The sound around the device is acquired by a microphone,
According to the acquired video and the acquired sound, the apparatus is caused to execute any one of a first action, a second action, and a third action as an initial action for communicating with the target person. , The second action is one action higher than the third action, the first action is one action higher than the second action,
If there is a sound acquired by the microphone after the current action including the initial action is executed, the apparatus executes the action one level higher than the current action,
If there is no sound acquired by the microphone since the current action was executed, determine whether the elapsed time since the current action was executed is less than a threshold,
If it is determined that the elapsed time is less than the threshold, the device continues the current action,
If it is determined that the elapsed time is equal to or greater than the threshold, the device is caused to execute an action one level lower than the current action,
Let the device execute a predetermined task as the first action,
As a second action, the speaker outputs a voice to be spoken to the target person, and controls the drive unit to cause the device to make a movement synchronized with the movement of the target person as the third action.
Method.
前記ロボット周辺の映像を取得するカメラと、
前記ロボット周辺の音を取得するマイクと、
処理部と、
スピーカと、
前記ロボットを動かす駆動部と、を備え、
前記処理部は、
前記取得された映像および前記取得された音に従って、前記ロボットに対して、前記対象人物とコミュニケーションするための、第1行動、第2行動、及び第3行動、のいずれかを初期行動として実行させ、前記第2行動は、前記第3行動の一つ上位の行動であり、前記第1行動は、前記第2行動の一つ上位の行動であり、
前記初期行動を含む現在の行動が実行されてから、前記マイクによって取得された音がある場合は、前記現在の行動の一つ上位の行動を前記ロボットに実行させ、
前記現在の行動が実行されてから、前記マイクによって取得された音が無い場合は、前記現在の行動が実行されてからの経過時間が閾値未満であるか判断し、
前記経過時間が前記閾値未満であると判断された場合は、前記現在の行動を前記ロボットに継続させ、
前記経過時間が前記閾値以上であると判断された場合は、前記現在の行動の一つ下位の行動を前記ロボットに実行させ、
前記ロボットに、前記第1行動として、所定のタスクを実行させ、
前記スピーカに、前記第2行動として、前記対象人物に話しかける音声を出力させ、前記駆動部を制御して、前記ロボットに前記第3行動として、前記対象人物の動きと同調した動きをさせる、
ロボット。
A robot that communicates with a target person by executing a predetermined action,
A camera that acquires video around the robot;
A microphone for obtaining sounds around the robot;
A processing unit;
Speakers,
A drive unit for moving the robot,
The processor is
According to the acquired video and the acquired sound, the robot is caused to execute, as an initial action, any one of a first action, a second action, and a third action for communicating with the target person. , The second action is one action higher than the third action, the first action is one action higher than the second action,
If there is a sound acquired by the microphone since the current action including the initial action is executed, the robot is caused to execute an action one level higher than the current action,
If there is no sound acquired by the microphone since the current action was executed, determine whether the elapsed time since the current action was executed is less than a threshold,
If it is determined that the elapsed time is less than the threshold, the robot continues the current action,
When it is determined that the elapsed time is equal to or greater than the threshold, the robot is caused to execute an action that is one subordinate to the current action,
Let the robot execute a predetermined task as the first action,
Causing the speaker to output a voice to be spoken to the target person as the second action, and controlling the drive unit to cause the robot to move in synchronization with the movement of the target person as the third action;
robot.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/027,215 US11220008B2 (en) | 2017-07-18 | 2018-07-03 | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot |
CN201810748410.2A CN109262606B (en) | 2017-07-18 | 2018-07-10 | Apparatus, method, recording medium, and robot |
EP18183744.4A EP3432225A1 (en) | 2017-07-18 | 2018-07-16 | Apparatus, method, non-transistory computer-readable recording medium storing program, and robot |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017139116 | 2017-07-18 | ||
JP2017139116 | 2017-07-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019018336A true JP2019018336A (en) | 2019-02-07 |
JP7075168B2 JP7075168B2 (en) | 2022-05-25 |
Family
ID=65354274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018007252A Active JP7075168B2 (en) | 2017-07-18 | 2018-01-19 | Equipment, methods, programs, and robots |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7075168B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241223A1 (en) * | 2019-05-28 | 2020-12-03 | パナソニックIpマネジメント株式会社 | Tidy-up inducing system, tidy-up inducing furniture, and tidy-up inducing method |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003255991A (en) * | 2002-03-06 | 2003-09-10 | Sony Corp | Interactive control system, interactive control method, and robot apparatus |
JP2003285286A (en) * | 2002-03-27 | 2003-10-07 | Nec Corp | Robot |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2006088276A (en) * | 2004-09-24 | 2006-04-06 | Advanced Telecommunication Research Institute International | Motion generation system |
JP2007000938A (en) * | 2005-06-21 | 2007-01-11 | Toshiba Corp | Action uniting type robot device |
JP2007038406A (en) * | 2002-05-17 | 2007-02-15 | Victor Co Of Japan Ltd | Mobile robot |
JP2007152445A (en) * | 2005-12-01 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | Self-propelled robot |
JP2009136967A (en) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | Communication robot |
JP2011097531A (en) * | 2009-11-02 | 2011-05-12 | Advanced Telecommunication Research Institute International | System for continuing listening interaction |
JP2014502566A (en) * | 2011-01-13 | 2014-02-03 | マイクロソフト コーポレーション | Multi-state model for robot-user interaction |
KR20140047273A (en) * | 2012-10-12 | 2014-04-22 | 피프가부시끼가이샤 | Robot |
JP2014191029A (en) * | 2013-03-26 | 2014-10-06 | Fuji Soft Inc | Voice recognition system and method for controlling voice recognition system |
US20150120043A1 (en) * | 2013-10-30 | 2015-04-30 | Georgia Tech Research Corporation | Methods and systems for facilitating interactions between a robot and user |
JP2016093279A (en) * | 2014-11-13 | 2016-05-26 | 日本電信電話株式会社 | Control apparatus, control apparatus operation method, and computer program |
JP2016220174A (en) * | 2015-05-26 | 2016-12-22 | 株式会社東芝 | Home appliance control method and home appliance controller |
JP2017077442A (en) * | 2015-10-22 | 2017-04-27 | 株式会社日本自動車部品総合研究所 | Motion control device and motion control method of motion body |
-
2018
- 2018-01-19 JP JP2018007252A patent/JP7075168B2/en active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003255991A (en) * | 2002-03-06 | 2003-09-10 | Sony Corp | Interactive control system, interactive control method, and robot apparatus |
JP2003285286A (en) * | 2002-03-27 | 2003-10-07 | Nec Corp | Robot |
JP2007038406A (en) * | 2002-05-17 | 2007-02-15 | Victor Co Of Japan Ltd | Mobile robot |
JP2005305631A (en) * | 2004-03-25 | 2005-11-04 | Nec Corp | Robot and its controlling method |
JP2006088276A (en) * | 2004-09-24 | 2006-04-06 | Advanced Telecommunication Research Institute International | Motion generation system |
JP2007000938A (en) * | 2005-06-21 | 2007-01-11 | Toshiba Corp | Action uniting type robot device |
JP2007152445A (en) * | 2005-12-01 | 2007-06-21 | Mitsubishi Heavy Ind Ltd | Self-propelled robot |
JP2009136967A (en) * | 2007-12-06 | 2009-06-25 | Honda Motor Co Ltd | Communication robot |
JP2011097531A (en) * | 2009-11-02 | 2011-05-12 | Advanced Telecommunication Research Institute International | System for continuing listening interaction |
JP2014502566A (en) * | 2011-01-13 | 2014-02-03 | マイクロソフト コーポレーション | Multi-state model for robot-user interaction |
KR20140047273A (en) * | 2012-10-12 | 2014-04-22 | 피프가부시끼가이샤 | Robot |
JP2014191029A (en) * | 2013-03-26 | 2014-10-06 | Fuji Soft Inc | Voice recognition system and method for controlling voice recognition system |
US20150120043A1 (en) * | 2013-10-30 | 2015-04-30 | Georgia Tech Research Corporation | Methods and systems for facilitating interactions between a robot and user |
JP2016093279A (en) * | 2014-11-13 | 2016-05-26 | 日本電信電話株式会社 | Control apparatus, control apparatus operation method, and computer program |
JP2016220174A (en) * | 2015-05-26 | 2016-12-22 | 株式会社東芝 | Home appliance control method and home appliance controller |
JP2017077442A (en) * | 2015-10-22 | 2017-04-27 | 株式会社日本自動車部品総合研究所 | Motion control device and motion control method of motion body |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020241223A1 (en) * | 2019-05-28 | 2020-12-03 | パナソニックIpマネジメント株式会社 | Tidy-up inducing system, tidy-up inducing furniture, and tidy-up inducing method |
Also Published As
Publication number | Publication date |
---|---|
JP7075168B2 (en) | 2022-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11220008B2 (en) | Apparatus, method, non-transitory computer-readable recording medium storing program, and robot | |
US11151997B2 (en) | Dialog system, dialog method, dialog apparatus and program | |
US20190279642A1 (en) | System and method for speech understanding via integrated audio and visual based speech recognition | |
JP5982840B2 (en) | Dialogue device, dialogue program, and dialogue method | |
EP3732676A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
Neumark | Doing things with voices: Performativity and voice | |
US20210205987A1 (en) | System and method for dynamic robot configuration for enhanced digital experiences | |
JPWO2017200074A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
US10994421B2 (en) | System and method for dynamic robot profile configurations based on user interactions | |
JP2013099823A (en) | Robot device, robot control method, robot control program and robot system | |
US20220241977A1 (en) | System and method for dynamic program configuration | |
JP2016133557A (en) | Agent dialog system, and program | |
JP2011061450A (en) | Conference communication system, method, and program | |
US20170186431A1 (en) | Speech to Text Prosthetic Hearing Aid | |
JP2019124855A (en) | Apparatus and program and the like | |
JP2007030050A (en) | Robot control device, robot control system, robot device and robot control method | |
JP2019018336A (en) | Device, method, program, and robot | |
TW202347096A (en) | Smart glass interface for impaired users or users with disabilities | |
Kasnitz et al. | Participation, time, effort and speech disability justice | |
Huang et al. | Exploration of human reactions to a humanoid robot in public STEM education | |
JP7286303B2 (en) | Conference support system and conference robot | |
JPWO2017200077A1 (en) | Dialogue method, dialogue system, dialogue apparatus, and program | |
JP7015711B2 (en) | Equipment, robots, methods, and programs | |
Shain | Perspectives on Comedy and Performance as Radical Disability Activism | |
JPWO2018168247A1 (en) | Information processing apparatus, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20200605 |
|
A625 | Written request for application examination (by other person) |
Free format text: JAPANESE INTERMEDIATE CODE: A625 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210831 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211202 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220419 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220510 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7075168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |