JP2008044105A - Robot and control method therefor - Google Patents
Robot and control method therefor Download PDFInfo
- Publication number
- JP2008044105A JP2008044105A JP2007279831A JP2007279831A JP2008044105A JP 2008044105 A JP2008044105 A JP 2008044105A JP 2007279831 A JP2007279831 A JP 2007279831A JP 2007279831 A JP2007279831 A JP 2007279831A JP 2008044105 A JP2008044105 A JP 2008044105A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- robot
- sound
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ロボット及びその制御方法に関する。特に本発明は、画像を取り扱うロボット及びその制御方法に関する。 The present invention relates to a robot and a control method thereof. In particular, the present invention relates to a robot that handles images and a control method thereof.
従来、例えば特開平11−126017号公報に開示されたペットロボットが知られている。上記ペットロボットは、複数のボタンを備えた操作部を有する。操作部のボタンには、それぞれ「叱る」、「ほめる」等の異なる概念が割り当てられている。ユーザがそのボタンを押すと、ロボットは、押されたボタンに割り当てられている概念に対応する動作を行う。例えば、割り当てられている概念が「吠える」であると、ロボットの口を動かすと同時に鳴き声に対応する音声信号をスピーカーから出力する。これにより、特開平11−126017号公報に開示されている発明は、実際に生きているペットにより近い上記ペットロボットを提供しようとしている。 Conventionally, a pet robot disclosed in, for example, Japanese Patent Application Laid-Open No. 11-126017 is known. The pet robot has an operation unit having a plurality of buttons. Different concepts such as “speak” and “praise” are assigned to the buttons of the operation unit. When the user presses the button, the robot performs an action corresponding to the concept assigned to the pressed button. For example, if the assigned concept is “barking”, an audio signal corresponding to the cry is output from the speaker simultaneously with moving the mouth of the robot. As a result, the invention disclosed in Japanese Patent Application Laid-Open No. 11-126017 intends to provide the pet robot closer to a pet that is actually alive.
しかし、現実に生きている犬猫等のペットは、操作ボタンなどを介して飼い主とコミュニケーションをとることはない。現実に生きているペットは、例えば餌を飼い主からもらったり、あるいは、自分が大切にしているものを渡したりすることで飼い主とコミュニケーションをとる。つまり、現実に生きているペットは、何らかの物を飼い主との間でやり取りすることで飼い主とコミュニケーションを取る。 However, pets such as dogs and cats that actually live do not communicate with their owners via operation buttons or the like. A pet that is actually alive communicates with the owner, for example, by receiving food from the owner or by handing out something that is important to them. In other words, a pet that is actually alive communicates with the owner by exchanging something with the owner.
そこで本発明は、現実のペットが人間とコミュニケーションを取る形態により近い形態でユーザとコミュニケーションを取るロボット及びその制御方法を提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。 Accordingly, an object of the present invention is to provide a robot that communicates with a user in a form closer to a form in which a real pet communicates with a human and a control method thereof. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
即ち、本発明の第1の形態に係るロボットは、ユーザからプリントを受け取るプリント受取部と、そのプリントに予め定められた記憶対象画像があるか否かを判断するプリント判断部と、プリントに記憶対象画像がある場合に当該記憶対象画像を記憶する記憶部とを備える。 That is, the robot according to the first aspect of the present invention includes a print receiving unit that receives a print from a user, a print determination unit that determines whether there is a predetermined storage target image in the print, and a memory that stores the print. And a storage unit for storing the storage target image when there is a target image.
上記ロボットは、プリントを保管できる保管部をさらに備え、プリント受取部は、記憶対象画像があるプリントを保管部に保管し、記憶対象画像がないプリント当該ロボットから排出することが好ましい。また、記憶対象画像は、人間の顔に関する画像であることが好ましい。また、上記ロボットは、記憶部に記憶されている記憶対象画像に対応する人がいる方向へ当該ロボットを移動させる動作制御部をさらに備えることがこのましい。 Preferably, the robot further includes a storage unit capable of storing prints, and the print receiving unit stores a print having a storage target image in the storage unit, and ejects the print without the storage target image from the robot. The storage target image is preferably an image relating to a human face. Moreover, it is preferable that the robot further includes an operation control unit that moves the robot in a direction in which a person corresponding to the storage target image stored in the storage unit is present.
本発明の第1の形態に係るロボットは、記憶部に記憶されている記憶対象画像に対応しない他人がいる方向と異なる方向へ当該ロボットを向けさせる動作制御部をさらに備えてもよい。この場合、動作制御部は、他人から遠ざかる方向に当該ロボットを移動させることが好ましい。また、ロボットは、記憶部に記憶されている記憶対象画像に対応しない他人を撮像する撮像部をさらに備えてもよい。さらに、ロボットは、予め定められた距離だけ他人から離れた位置へ当該ロボットを移動させる動作制御部をさらに備え、撮像部は、移動の後に前記他人を撮像することであってもよい。さらに、ロボットは、移動の後であって撮像の前に他人の注意を喚起する音を発生させる音響部をさらに備えてもよい。また、このロボットでは、動作制御部が記憶部に記憶されている記憶対象画像に対応する知人がいる方向へ当該ロボットを移動させ、知人がいる方向へ移動した後に他人の画像をプリントするプリント部とをさらに備えてもよい。 The robot according to the first aspect of the present invention may further include an operation control unit that directs the robot in a direction different from the direction in which another person does not correspond to the storage target image stored in the storage unit. In this case, the motion control unit preferably moves the robot in a direction away from others. The robot may further include an imaging unit that captures another person who does not correspond to the storage target image stored in the storage unit. Furthermore, the robot may further include an operation control unit that moves the robot to a position away from another person by a predetermined distance, and the imaging unit may image the other person after the movement. Furthermore, the robot may further include an acoustic unit that generates a sound that alerts another person after moving and before imaging. Further, in this robot, the operation control unit moves the robot in a direction where there is an acquaintance corresponding to the storage target image stored in the storage unit, and prints another person's image after moving in the direction where the acquaintance exists. And may further be provided.
本発明の第1の形態に係るロボットは、周囲にいる人を撮像する撮像部と、撮像部が撮像している人が記憶部に記憶されている記憶対象画像に対応する人であるか否かに基づいて当該ロボットの表情を変える表情変更部をさらに備えることが好ましい。 The robot according to the first aspect of the present invention is an image capturing unit that captures an image of a person in the surroundings, and whether or not the person captured by the image capturing unit corresponds to a storage target image stored in the storage unit. It is preferable to further include a facial expression changing unit that changes the facial expression of the robot based on the above.
本発明の第2の形態に係るロボットは、被写体を撮像する撮像部と、ユーザとのコミュニケーションの頻度に応じて撮像部の撮像条件を切り替える撮像条件切替部と、撮像部が撮像した画像をプリントするプリント部とを備える。撮像条件切替部は、コミュニケーションの回数を前記ユーザが当該ロボットに触れた回数をもって特定することが好ましい。また、撮像条件切替部は、頻度が予め定められた基準値以下となったことを条件として、ピントが被写体にあっていない画像を撮像部が撮像するように前記撮像条件を切り替えることが好ましい。 A robot according to a second aspect of the present invention prints an image captured by an imaging unit, an imaging condition switching unit that switches an imaging condition of the imaging unit according to the frequency of communication with a user, and an image captured by the imaging unit. A printing unit. The imaging condition switching unit preferably specifies the number of communication by the number of times the user touches the robot. The imaging condition switching unit preferably switches the imaging condition so that the imaging unit captures an image that is not in focus on the subject on condition that the frequency is equal to or less than a predetermined reference value.
本発明の第3の形態に係るロボットは、入力された音声が予め定められた音声に対応するか否かを判定する音声判定部と、音声がした方向を特定する音声方向特定部と、入力された音声が予め定められた音声に対応することを条件として音声がした方向を撮像する撮像部とを備える。このロボットは、予め定められた期間内に撮像部が撮像を行った撮像回数が、予め定められている許容回数に達しているか否かを判定する撮像回数判定部をさらに備え、撮像部は、撮像回数が許容回数を達していないことを条件として撮像を行うことが好ましい。また、このロボットは、入力された音声の音量が予め定められた基準値を越えたか否かを判定する音量判定部と、許容回数と期間内に音量が基準値を越えた回数とに基づいて基準値を再設定する基準値設定部とをさらに備え、撮像部は、音量が基準値を超えたことを条件として撮像を行うことが好ましい。 A robot according to a third aspect of the present invention includes a voice determination unit that determines whether or not an input voice corresponds to a predetermined voice, a voice direction specification unit that specifies a direction in which the voice is played, and an input And an imaging unit that captures an image of a direction in which the sound is made on condition that the generated sound corresponds to a predetermined sound. The robot further includes an imaging number determination unit that determines whether or not the number of imagings performed by the imaging unit within a predetermined period has reached a predetermined allowable number. Imaging is preferably performed on condition that the number of times of imaging does not reach the allowable number. Further, this robot is based on a volume determination unit that determines whether or not the volume of the input voice exceeds a predetermined reference value, and the allowable number of times and the number of times that the volume exceeds the reference value within a period. It is preferable that the camera further includes a reference value setting unit that resets the reference value, and the imaging unit performs imaging on the condition that the volume exceeds the reference value.
本発明の第4の形態に係るロボットの制御方法は、ユーザからプリントを受け取るプリント受取段階と、プリントに予め定められた記憶対象画像があるか否かを判断するプリント判断段階と、プリントに記憶対象画像がある場合に当該記憶対象画像を記憶する記憶段階とを備える。 According to a fourth aspect of the present invention, there is provided a robot control method comprising: a print receiving stage for receiving a print from a user; a print determination stage for determining whether or not the print has a predetermined storage target image; A storage stage for storing the storage target image when there is a target image.
本発明の第5の形態に係るロボットの制御方法は、被写体を撮像する撮像段階と、ユーザとのコミュニケーションの頻度に応じて撮像段階の撮像条件を切り替える撮像条件切替段階と、撮像段階で撮像した画像をプリントするプリント段階とを備える。 The robot control method according to the fifth aspect of the present invention includes an imaging stage for imaging a subject, an imaging condition switching stage for switching imaging conditions in the imaging stage according to the frequency of communication with the user, and imaging at the imaging stage. A printing stage for printing an image.
本発明の第6の形態に係るロボットの制御方法は、入力された音声が予め定められた音声に対応するか否かを判定する音声判定段階と、音声がした方向を特定する音声方向特定段階と、入力された音声が予め定められた音声に対応することを条件として音声がした方向を撮像する撮像段階とを備える。 The robot control method according to the sixth aspect of the present invention includes a voice determination stage for determining whether or not an input voice corresponds to a predetermined voice, and a voice direction specification stage for specifying the direction of the voice. And an imaging stage for imaging the direction of the sound on condition that the input sound corresponds to a predetermined sound.
なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。 The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means.
図1は、本発明の一実施形態に係るロボット100の機能を示す機能ブロック図である。ロボット100は、例えば犬の外形を有し、4本の足で歩行移動するペット型のロボットである。ロボット100は、ユーザからプリントを受け取るプリント受取部112と、プリント受取部112が受け取ったプリントに予め定められた記憶対象画像があるか否かを判断するプリント判断部124と、上記プリントに記憶対象画像がある場合にその記憶対象画像を記憶する記憶部126とを有する。なお、本実施形態の記憶対象画像は、人の顔の画像である。
FIG. 1 is a functional block diagram showing functions of a
ロボット100は、さらに、プリントを保管できる保管部114と、被写体を撮像する撮像部104とを有する。撮像部104は、例えばロボットの頭部に備えられたCCDカメラである。ロボット100は、さらに、撮像部104が撮像した画像をプリントできるプリント部116と、例えばピントが被写体にあっている画像を撮像するか、ピントが被写体にあっていない画像を撮像するかといった撮像部104の撮像条件を切り替える撮像条件切替部102を有する。
The
さらに、ロボット100は、記憶部120に記憶されている記憶対象画像に対応する人(以下、「知人」という)がいる方向へ、あるいは、記憶部120に記憶されている記憶対象画像に対応しない人(以下、「他人」という)から遠ざかる方向にロボット100を移動させる動作制御部128を有する。また、ロボット100は、それぞれ動作制御部128の制御に基づいて、例えば犬の鳴き声などの音を発生させる音響部130と、ロボットの表情を変える表情変更部132とを有する。
Further, the
さらに、ロボット100は、それぞれ異なる方向に向けられ、周囲の音声(以下、「周囲音声」という)をひろう3つのマイク134、136、138を有する。また、ロボット100は、周囲音声の音量が例えば65ホン等の予め定められた基準値(以下、「音量基準値」という)を越えたか否かを判定する音量判定部122と、周囲音声が例えば笑い声等の予め定められた音声(以下、「設定音声」という)に対応するか否かを判定する音声判定部120とを有する。また、ロボット100は、予め定められた期間(以下、「基準期間」という)内に撮像部104が撮像を行った撮像回数が予め定められている許容回数に達しているか否かを判定する撮像回数判定部108を有する。なお、本実施形態では、基準期間は例えば月曜日から日曜日までの1週間であり、許容回数は例えば20回である。
Furthermore, the
ロボット100は、さらに、周囲音声がした方向(以下、「音声方向」という)を特定する音声方向特定部118を有する。音声方向特定部118は、例えば、マイク134、136、138の各々がひろった周囲音声の音量差と、各々のマイク134、136、138が向けられている方向とに基づいて音声方向を特定する。また、ロボット100は、音声方向特定部118が求めた音声方向に撮像方向が一致するように撮像部104の向きを調整する撮像方向調整部184を有する。本実施形態では、撮像方向調整部184は、ロボット100の頭部の向きを変えることで撮像部104の撮像方向を調整する。ロボット100は、上記の他に、基準期間内に音量が基準値を越えた回数等に基づいて音量基準値及び許容回数を再設定する基準値設定部110を有する。
The
図2は、プリント受取部112の機能を示す機能ブロック図である。プリント受取部112は、ユーザから提供されたプリントを受け取り、保持し、また、プリント判断部124からの命令があった場合に保持しているプリントをロボット100の外部へ排出するプリント保持部152を有する。また、プリント受取部112は、プリント保持部152によって保持されているプリントの画像を読み取る画像読取部150を有する。画像読取部150は、例えばイメージスキャナー又はCCDカメラである。画像読取部150は、読み取った画像をプリント判断部124へ送る。プリント受取部112は、さらに、プリント保持部152が保持しているプリントを保管部114へ搬送する搬送部154を有する。
FIG. 2 is a functional block diagram illustrating functions of the
なお、プリント受取部112は、例えばロボット100の口に該当する部位に備えられ、ユーザがその口に差し込んだプリントを受け取ることが好ましい。このようにすると、ユーザは、プリントを餌としてロボット100に与えた感覚を得ることができる。例えば、プリント保持部152がプリントを排出した結果、プリントがロボット100の口から出てくると、ユーザは、ロボット100がプリントを好まずに口から吐き出したと感じることができる。また、プリントが排出されずに保管部114に保管されると、ユーザは、ロボット100がプリントを好んで飲み込んだと感じることができる。
Note that the
図3は、動作制御部128の機能を示す機能ブロック図である。動作制御部128は、撮像部104が撮像した人の画像を記憶部126に記憶されている記憶対象画像と比較することで、撮像された人が知人であるか他人であるかを判定する画像判定部160を有する。また、動作制御部128は、撮像部104が撮像した人とロボット100との間の距離を測定する測距部162を有する。測距部162は、例えば撮像部104が有する自動焦点調節機能を利用して撮像された人までの距離を測定する。動作制御部128は、さらに、画像判定部160の判定および測距部162の測定結果に基づいてロボット100の例えば足の動作を制御することでロボット100を移動させる移動制御部164を有する。
FIG. 3 is a functional block diagram illustrating functions of the
図4は、撮像条件切替部102の機能を示す機能ブロック図である。撮像条件切替部102は、ユーザがロボット100に触れたことを検出する接触センサ1170を有する。接触センサ170は、例えば静電容量式のタッチセンサである。本実施形態では、接触センサ170は、ロボット100の頭に備えられ、ユーザがロボット100の頭をなでたことを検出する。撮像条件切替部102は、さらに、接触センサ170の出力に基づいてユーザがロボット100に触れた接触頻度を算出する接触頻度算出部172と、接触頻度算出部172が求めた接触頻度に基づいて撮像部104の撮像条件を設定する撮像条件設定部174とを有する。
FIG. 4 is a functional block diagram illustrating functions of the imaging
図5は、ロボット100の動作を示すフローチャートである。本実施形態では、ロボット100は、ユーザからプリントを受け取るためのプリント受取処理(S100)と、撮像部104が撮像した人に近づく又はその人から離れるための移動制御処理(S102)とを実行する。また、ロボット100は、設定音声に対応する音声がした方向の画像を撮像するための音声方向撮像処理(S104)と、撮像部104の撮像条件を切り替えるための撮像条件切替処理(S106)とを実行する。ロボット100は、上記4つの処理を主電源が切られるまで繰り返す(S108)。なお、4つの処理が行われる順は任意であり、図示した順に限定されない。
FIG. 5 is a flowchart showing the operation of the
図6は、プリント受取処理(S100)の内容を示すフローチャートである。プリント受取処理では、はじめにプリント保持部152がユーザから提供されたプリントを受け取り、保持する(S120)。次に、画像読取部150がプリントの画像を読み取る(S122)。次に、プリント判断部124が読み取られた画像に記憶対象画像が含まれているか否かを判断する(S124)。前述したように、本実施形態では、記憶対象画像は人の顔の画像である。プリント判断部124は、例えば、読み取られた画像に人の肌色と同一の色相を有する領域があるか、また、その領域内に人の目に対応する画像があるかを基準としてS124の判断を行う。
FIG. 6 is a flowchart showing the contents of the print receiving process (S100). In the print receiving process, first, the
読み取られた画像に記憶対象画像がある場合、プリント判断部124は、その記憶対象画像、つまり人の顔の画像を記憶部126に記憶させる(S124:Y、S126)。また、プリント判断部124は、プリント搬送部154に受け取ったプリントをプリント保持部152から保管部114へ移させる(S128)。一方、S124において、プリント判断部124が読み取られた画像に記憶対象画像がないと判断された場合、プリント判断部124は、プリント保持部152にプリントをロボット100の外部へ排出させる(S124:N、S130)。S128またはS130の処理が終了すると、プリント受取処理は終了する。
When there is a storage target image in the read image, the
図7は、移動制御処理(S102)の内容を示すフローチャートである。移動制御処理では、撮像部104がロボット100の周囲の画像を撮像し、撮像された画像を動作制御部128へ送る(S140)。動作制御部128では、画像判定部160が送られた画像に人がいるか否かを判定する(S142)。人がいなかった場合、ロボット100は、移動制御処理を終了する(S142:N)。人がいた場合、画像判定部160は、その人の画像と記憶部120に記憶されている記憶対象画像と比較して、撮像された人が知人であるか否かを判定する(S142:Y、S144)。画像判定部160は、予め定められた誤差範囲内で撮像された人の顔と記憶対象画像とが一致する場合には撮像された人は知人であると判定し(S144:Y)、一致しない場合には他人であると判定する(S144:N)。
FIG. 7 is a flowchart showing the contents of the movement control process (S102). In the movement control process, the
S144において、画像判定部160が、撮像された人は他人であると判定した場合、次に表情変更部132がロボット100の表情を警戒した表情に変更する(S146)。本実施形態では、表情変更部132は、例えばロボットの耳を立てることによりロボットの表情を警戒した表情に変える。次に、移動制御部164がロボット100を撮影されている他人から後退りさせる(S148)。これにより、ロボット100は、顔を他人の方向へ向けたまま、その他人から遠ざかる方向へ移動する。移動制御部164は、測距部162が測定する他人までの距離が予め定められた距離となるまでロボット100を後退りさせる(S150)。ここで予め定められた距離とは、例えば、撮像部104がその他人の全身を撮影できる距離である。
In S144, when the
ロボット100が予め定められた距離だけ他人から後退りすると、次に音響部130が音を発生させる(S152)。発生される音は、それを聞いた上記他人の注意を喚起し、上記他人を撮像部104の方へ振り向かせるための音である。本実施形態では、音響部130は、犬の吠え声を発生させる。音が発生された後、撮像部104が他人のいる方向の静止画を撮像する(S154)。また、撮像の後、移動制御部164が他人のいる方向と異なる方向へロボットの向きを変える(S156)。このようにロボット100が他人から後退したり、向きを変えたりすることにより、ロボット100は、その他人に対し親密な感情を抱いていないことを表現できる。
When the
S144において、画像判定部150が、撮像された人が知人であると判定した場合、次に、表情変更部132がロボット100の表情を従順な表情に変える(S158)。本実施形態の場合、表情変更部132は、ロボットの耳を寝かせることで従順な表情を作り出す。次に、移動制御部164がロボット100を撮像されている知人の方へ移動させる(S160)。移動制御部164は、測距部162が測定する知人までの距離が予め定められた距離、例えば50cmとなるまでロボット100を知人の方向へ接近させる(S162)。
If the
次に、プリント部116が撮像部104が撮像した画像をプリントし、知人に提供する(S164)。プリントする画像には、撮像部104がS154で撮像した他人の画像と、後述する音声方向撮像処理において撮像部104が撮像した音声方向の画像とが含まれる。S156またはS164の処理が終了すると、移動制御処理は終了する。
Next, the
図8は、音声方向撮像処理(S104)の内容を示すフローチャートである。音声方向撮像処理では、はじめに、音量判定部122がマイク134、136、及び138が取得した周囲音声の音量が音量基準値を超えるか否かを判定する(S180)。音量判定部122が周囲音声の音量が音量基準値を超えないと判定した場合、音声方向撮像処理は終了する(S180:N)。一方、音量判定部122が周囲音声の音量が音量基準値を超えると判定した場合、次に音声判定部120が周囲音声が設定音声に対応するか否かを判定する(S180:Y、S182)。本実施形態では、音声判定部120は、周囲音声の周波数スペクトルを求め、求めた周波数スペクトルに人の笑い声を示すスペクトルが含まれている場合に周囲音声は設定音声に対応すると判定する。
FIG. 8 is a flowchart showing the contents of the voice direction imaging process (S104). In the sound direction imaging process, first, the sound
S182において、音声判定部120が周囲音声は設定音声に対応していないと判定した場合、音声方向撮像処理は終了する(S182:N)。一方、周囲音声が設定音声に対応していると音声判定部120が判定した場合、次に撮像回数判定部108が基準期間内の撮像回数が許容回数に達しているか否かを判定する(S182:Y、S184)。撮像回数が許容回数に達していない場合、次に音声方向特定部118がマイク134、136、138の出力に基づいて音声方向を特定する(S184:N、S186)。さらに、撮像方向調整部106が、音声方向特定部118が特定した音声方向に撮像部104の撮像方向を一致させる(S188)。次に、撮像部104が静止画を撮像する(S190)。これにより、本実施形態の場合は、笑い声がした方向の画像が撮影される。S190の処理の終了により、音声方向撮像処理は終了する。
If the
一方、S184において撮像回数判定部108が撮像回数が許容回数に達していると判定した場合には、基準値設定部110が、設定音声に対応する周囲音声が基準期間内に音量基準値を越えた回数と許容回数との差である超過回数を求め、超過回数が予め定められているしきい値を越えるか否かを判断する(S184:Y、S192)。超過回数がしきい値を越えていない場合、音声方向撮像処理は終了する(S192:N)。一方、超過回数がしきい値を越えている場合、基準値設定部110は、音量基準値を例えば5ホン高い値に、又は許容回数を例えば5回多い値に再設定する(S192:Y、S194)。S194の処理の終了により、音声方向撮像処理は終了する。
On the other hand, when the imaging
図9は、撮像条件切替処理(S106)の内容を示すフローチャートである。撮像条件切替処理では、接触頻度算出部162が接触センサにユーザが触れる度に接触頻度を求める(S210、S212)。本実施形態では、接触頻度算出部162は、例えば過去1週間にユーザが接触センサに触れた回数を接触頻度として求める。一方、撮影条件設定部164は、定期的に、例えば一日1回定められた時間に接触頻度算出部162が算出した接触頻度が予め定められた規定値を越えているか否かを判断する(S214,S216)。接触頻度が規定値を越えている場合、つまりユーザがロボット100とコミュニケーションを取っている回数が多い場合には、撮像条件設定部164は、撮像部104の撮影条件を第1の条件に設定する(S216:Y、S218)。本実施形態では、第1の撮像条件に設定された撮像部104は、シャープなピント、および適正な露光条件で被写体を撮像する。
FIG. 9 is a flowchart showing the contents of the imaging condition switching process (S106). In the imaging condition switching process, the contact
一方、接触頻度が規定値以下である場合、つまりユーザとロボット100との間のコミュニケーションが不足している場合、撮像条件設定部164は、撮像部104の撮像条件を第2の条件に設定する(S216:N,S220)。本実施形態では、第2の撮像条件に設定されたカメラ182は、ピントが被写体にあっておらず、また、露出がアンダー又はオーバーとなっている画像を撮像する。このように、接触頻度に基づいてカメラ182の撮影条件を切り替えることにより、ロボット100は、ユーザと十分なコミュニケーションがとれており満足しているのか、あるいは、ユーザとのコミュニケーションが不十分なために不満でいるのかを撮像した画像の画質に表現する。
On the other hand, when the contact frequency is equal to or less than the predetermined value, that is, when communication between the user and the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることができる。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.
上記の説明から明らかなように、本発明によれば、プリントという物をユーザとやり取りすることでユーザとコミュニケーションを取るロボットが提供されるので、ユーザにとってより現実のペットの形態に近いロボットを提供できる。 As is clear from the above description, according to the present invention, a robot that communicates with the user by exchanging an object called a print is provided, and thus a robot closer to a real pet form is provided for the user. it can.
102 撮像条件切替部
104 撮像部
106 撮像方向調節部
108 撮像回数判定部
110 基準値設定部
112 プリント受取部
114 保管部
116 プリント部
118 音声方向特定部
120 音声判定部
122 音量判定部
124 プリント判断部
126 記憶部
128 動作制御部
130 音響部
132 表情変更部
DESCRIPTION OF
Claims (4)
前記音声がした方向を特定する音声方向特定部と、
前記入力された音声が前記予め定められた音声に対応することを条件として前記音声がした方向を撮像する撮像部と
を備えることを特徴とするロボット。 A sound determination unit that determines whether or not the input sound corresponds to a predetermined sound;
A voice direction identifying unit that identifies a direction in which the voice is played;
A robot, comprising: an imaging unit that captures an image of a direction of the voice on condition that the input voice corresponds to the predetermined voice.
前記撮像部は、前記撮像回数が前記許容回数を達していないことを条件として前記撮像を行うことを特徴とする請求項1に記載のロボット。 An imaging number determination unit that determines whether or not the number of times the imaging unit has performed an imaging within a predetermined period has reached a predetermined allowable number;
The robot according to claim 1, wherein the imaging unit performs the imaging on the condition that the number of times of imaging does not reach the allowable number of times.
前記許容回数と前記期間内に前記音量が前記基準値を越えた回数とに基づいて前記基準値を再設定する基準値設定部とをさらに備え、
前記撮像部は、前記音量が前記基準値を超えたことを条件として前記撮像を行うことを特徴とする請求項2に記載のロボット。 A volume determination unit for determining whether the volume of the input voice exceeds a predetermined reference value;
A reference value setting unit for resetting the reference value based on the allowable number of times and the number of times the volume exceeds the reference value within the period;
The robot according to claim 2, wherein the imaging unit performs the imaging on the condition that the volume exceeds the reference value.
前記音声がした方向を特定する音声方向特定段階と、
前記入力された音声が前記予め定められた音声に対応することを条件として前記音声がした方向を撮像する撮像段階と
を備えることを特徴とするロボットの制御方法。 A sound determination step for determining whether or not the input sound corresponds to a predetermined sound; and
A voice direction specifying step for specifying a direction of the voice;
A robot control method comprising: an imaging step of imaging a direction of the voice on condition that the input voice corresponds to the predetermined voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007279831A JP4633775B2 (en) | 2007-10-29 | 2007-10-29 | Robot and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007279831A JP4633775B2 (en) | 2007-10-29 | 2007-10-29 | Robot and control method thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001014904A Division JP4080165B2 (en) | 2001-01-23 | 2001-01-23 | Robot and control method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008044105A true JP2008044105A (en) | 2008-02-28 |
JP4633775B2 JP4633775B2 (en) | 2011-02-16 |
Family
ID=39178313
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007279831A Expired - Fee Related JP4633775B2 (en) | 2007-10-29 | 2007-10-29 | Robot and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4633775B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07213753A (en) * | 1994-02-02 | 1995-08-15 | Hitachi Ltd | Personal robot device |
WO2000015396A1 (en) * | 1998-09-10 | 2000-03-23 | Sony Corporation | Robot apparatus, method of controlling robot apparatus, method of display, and medium |
WO2000067959A1 (en) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Robot device and method for controlling the same |
-
2007
- 2007-10-29 JP JP2007279831A patent/JP4633775B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07213753A (en) * | 1994-02-02 | 1995-08-15 | Hitachi Ltd | Personal robot device |
WO2000015396A1 (en) * | 1998-09-10 | 2000-03-23 | Sony Corporation | Robot apparatus, method of controlling robot apparatus, method of display, and medium |
WO2000067959A1 (en) * | 1999-05-10 | 2000-11-16 | Sony Corporation | Robot device and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
JP4633775B2 (en) | 2011-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5099488B2 (en) | Imaging apparatus, face recognition method and program thereof | |
CN106575027B (en) | Image pickup apparatus and subject tracking method thereof | |
JP2004320286A (en) | Digital camera | |
JP4649550B2 (en) | camera | |
JP4290164B2 (en) | Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus | |
JP5493512B2 (en) | IMAGING DEVICE AND CELLULAR PHONE MOUNTING THE SAME | |
CN106455969A (en) | Eye imaging apparatus and systems | |
US20210394530A1 (en) | Digital camera with printer | |
JP4670521B2 (en) | Imaging device | |
JP4080165B2 (en) | Robot and control method thereof | |
JP4633775B2 (en) | Robot and control method thereof | |
JP4620102B2 (en) | Robot and control method thereof | |
KR20170085494A (en) | Information processing device, information processing method, and program | |
JP5977907B1 (en) | Capsule endoscope and capsule endoscope system | |
JP5267695B2 (en) | Imaging apparatus, face recognition method and program thereof | |
JP2022023539A (en) | Estrus detection apparatus, estrus detection method, estrus detection program, and recording medium | |
JP2015204960A (en) | Capsule endoscope system, capsule endoscope, receiver, and light emission control method and program for capsule endoscope | |
US20090010628A1 (en) | Camera Apparatus and a Method and Software For Using Such | |
US20170265730A1 (en) | Single Image Sensor Control for Capturing Mixed Mode Images | |
JP4099003B2 (en) | Pet robot | |
JP6123162B2 (en) | IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM | |
CN115474594B (en) | Intelligent furniture protection method and system | |
JP2020092370A (en) | Imaging control device, imaging system, and imaging control method | |
JP6463975B2 (en) | Eye open / closed state determination method, image processing apparatus, and determination system | |
US8833939B2 (en) | Fundus image detection apparatus and method for obtaining fundus image of eye of animal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080122 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100928 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101026 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131126 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |