JP2008044105A - Robot and control method therefor - Google Patents

Robot and control method therefor Download PDF

Info

Publication number
JP2008044105A
JP2008044105A JP2007279831A JP2007279831A JP2008044105A JP 2008044105 A JP2008044105 A JP 2008044105A JP 2007279831 A JP2007279831 A JP 2007279831A JP 2007279831 A JP2007279831 A JP 2007279831A JP 2008044105 A JP2008044105 A JP 2008044105A
Authority
JP
Japan
Prior art keywords
unit
imaging
robot
sound
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007279831A
Other languages
Japanese (ja)
Other versions
JP4633775B2 (en
Inventor
Atsuhiko Ishihara
淳彦 石原
Yoshihiro Ito
嘉広 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007279831A priority Critical patent/JP4633775B2/en
Publication of JP2008044105A publication Critical patent/JP2008044105A/en
Application granted granted Critical
Publication of JP4633775B2 publication Critical patent/JP4633775B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a robot having morphology close to an actual pet for a user. <P>SOLUTION: The robot is equipped with a sound determination part for determining whether or not the input sound corresponds to the predetermined sound, a sound direction specifying part for specifying the direction of the sound, and an image pickup part for imaging the direction of the sound on the condition that the input sound corresponds to the predetermined sound. The robot is equipped with the number of times of an image pickup determination part for determining whether or not the number of times of an image pickup that the image pickup part picks up image in a predetermined period of time reaches the predetermined allowable number of times. The image pickup part performs the image pickup on the condition that the number of times of imaging pickup does not reach the allowable number of times. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、ロボット及びその制御方法に関する。特に本発明は、画像を取り扱うロボット及びその制御方法に関する。   The present invention relates to a robot and a control method thereof. In particular, the present invention relates to a robot that handles images and a control method thereof.

従来、例えば特開平11−126017号公報に開示されたペットロボットが知られている。上記ペットロボットは、複数のボタンを備えた操作部を有する。操作部のボタンには、それぞれ「叱る」、「ほめる」等の異なる概念が割り当てられている。ユーザがそのボタンを押すと、ロボットは、押されたボタンに割り当てられている概念に対応する動作を行う。例えば、割り当てられている概念が「吠える」であると、ロボットの口を動かすと同時に鳴き声に対応する音声信号をスピーカーから出力する。これにより、特開平11−126017号公報に開示されている発明は、実際に生きているペットにより近い上記ペットロボットを提供しようとしている。   Conventionally, a pet robot disclosed in, for example, Japanese Patent Application Laid-Open No. 11-126017 is known. The pet robot has an operation unit having a plurality of buttons. Different concepts such as “speak” and “praise” are assigned to the buttons of the operation unit. When the user presses the button, the robot performs an action corresponding to the concept assigned to the pressed button. For example, if the assigned concept is “barking”, an audio signal corresponding to the cry is output from the speaker simultaneously with moving the mouth of the robot. As a result, the invention disclosed in Japanese Patent Application Laid-Open No. 11-126017 intends to provide the pet robot closer to a pet that is actually alive.

しかし、現実に生きている犬猫等のペットは、操作ボタンなどを介して飼い主とコミュニケーションをとることはない。現実に生きているペットは、例えば餌を飼い主からもらったり、あるいは、自分が大切にしているものを渡したりすることで飼い主とコミュニケーションをとる。つまり、現実に生きているペットは、何らかの物を飼い主との間でやり取りすることで飼い主とコミュニケーションを取る。   However, pets such as dogs and cats that actually live do not communicate with their owners via operation buttons or the like. A pet that is actually alive communicates with the owner, for example, by receiving food from the owner or by handing out something that is important to them. In other words, a pet that is actually alive communicates with the owner by exchanging something with the owner.

そこで本発明は、現実のペットが人間とコミュニケーションを取る形態により近い形態でユーザとコミュニケーションを取るロボット及びその制御方法を提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   Accordingly, an object of the present invention is to provide a robot that communicates with a user in a form closer to a form in which a real pet communicates with a human and a control method thereof. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

即ち、本発明の第1の形態に係るロボットは、ユーザからプリントを受け取るプリント受取部と、そのプリントに予め定められた記憶対象画像があるか否かを判断するプリント判断部と、プリントに記憶対象画像がある場合に当該記憶対象画像を記憶する記憶部とを備える。   That is, the robot according to the first aspect of the present invention includes a print receiving unit that receives a print from a user, a print determination unit that determines whether there is a predetermined storage target image in the print, and a memory that stores the print. And a storage unit for storing the storage target image when there is a target image.

上記ロボットは、プリントを保管できる保管部をさらに備え、プリント受取部は、記憶対象画像があるプリントを保管部に保管し、記憶対象画像がないプリント当該ロボットから排出することが好ましい。また、記憶対象画像は、人間の顔に関する画像であることが好ましい。また、上記ロボットは、記憶部に記憶されている記憶対象画像に対応する人がいる方向へ当該ロボットを移動させる動作制御部をさらに備えることがこのましい。   Preferably, the robot further includes a storage unit capable of storing prints, and the print receiving unit stores a print having a storage target image in the storage unit, and ejects the print without the storage target image from the robot. The storage target image is preferably an image relating to a human face. Moreover, it is preferable that the robot further includes an operation control unit that moves the robot in a direction in which a person corresponding to the storage target image stored in the storage unit is present.

本発明の第1の形態に係るロボットは、記憶部に記憶されている記憶対象画像に対応しない他人がいる方向と異なる方向へ当該ロボットを向けさせる動作制御部をさらに備えてもよい。この場合、動作制御部は、他人から遠ざかる方向に当該ロボットを移動させることが好ましい。また、ロボットは、記憶部に記憶されている記憶対象画像に対応しない他人を撮像する撮像部をさらに備えてもよい。さらに、ロボットは、予め定められた距離だけ他人から離れた位置へ当該ロボットを移動させる動作制御部をさらに備え、撮像部は、移動の後に前記他人を撮像することであってもよい。さらに、ロボットは、移動の後であって撮像の前に他人の注意を喚起する音を発生させる音響部をさらに備えてもよい。また、このロボットでは、動作制御部が記憶部に記憶されている記憶対象画像に対応する知人がいる方向へ当該ロボットを移動させ、知人がいる方向へ移動した後に他人の画像をプリントするプリント部とをさらに備えてもよい。   The robot according to the first aspect of the present invention may further include an operation control unit that directs the robot in a direction different from the direction in which another person does not correspond to the storage target image stored in the storage unit. In this case, the motion control unit preferably moves the robot in a direction away from others. The robot may further include an imaging unit that captures another person who does not correspond to the storage target image stored in the storage unit. Furthermore, the robot may further include an operation control unit that moves the robot to a position away from another person by a predetermined distance, and the imaging unit may image the other person after the movement. Furthermore, the robot may further include an acoustic unit that generates a sound that alerts another person after moving and before imaging. Further, in this robot, the operation control unit moves the robot in a direction where there is an acquaintance corresponding to the storage target image stored in the storage unit, and prints another person's image after moving in the direction where the acquaintance exists. And may further be provided.

本発明の第1の形態に係るロボットは、周囲にいる人を撮像する撮像部と、撮像部が撮像している人が記憶部に記憶されている記憶対象画像に対応する人であるか否かに基づいて当該ロボットの表情を変える表情変更部をさらに備えることが好ましい。   The robot according to the first aspect of the present invention is an image capturing unit that captures an image of a person in the surroundings, and whether or not the person captured by the image capturing unit corresponds to a storage target image stored in the storage unit. It is preferable to further include a facial expression changing unit that changes the facial expression of the robot based on the above.

本発明の第2の形態に係るロボットは、被写体を撮像する撮像部と、ユーザとのコミュニケーションの頻度に応じて撮像部の撮像条件を切り替える撮像条件切替部と、撮像部が撮像した画像をプリントするプリント部とを備える。撮像条件切替部は、コミュニケーションの回数を前記ユーザが当該ロボットに触れた回数をもって特定することが好ましい。また、撮像条件切替部は、頻度が予め定められた基準値以下となったことを条件として、ピントが被写体にあっていない画像を撮像部が撮像するように前記撮像条件を切り替えることが好ましい。   A robot according to a second aspect of the present invention prints an image captured by an imaging unit, an imaging condition switching unit that switches an imaging condition of the imaging unit according to the frequency of communication with a user, and an image captured by the imaging unit. A printing unit. The imaging condition switching unit preferably specifies the number of communication by the number of times the user touches the robot. The imaging condition switching unit preferably switches the imaging condition so that the imaging unit captures an image that is not in focus on the subject on condition that the frequency is equal to or less than a predetermined reference value.

本発明の第3の形態に係るロボットは、入力された音声が予め定められた音声に対応するか否かを判定する音声判定部と、音声がした方向を特定する音声方向特定部と、入力された音声が予め定められた音声に対応することを条件として音声がした方向を撮像する撮像部とを備える。このロボットは、予め定められた期間内に撮像部が撮像を行った撮像回数が、予め定められている許容回数に達しているか否かを判定する撮像回数判定部をさらに備え、撮像部は、撮像回数が許容回数を達していないことを条件として撮像を行うことが好ましい。また、このロボットは、入力された音声の音量が予め定められた基準値を越えたか否かを判定する音量判定部と、許容回数と期間内に音量が基準値を越えた回数とに基づいて基準値を再設定する基準値設定部とをさらに備え、撮像部は、音量が基準値を超えたことを条件として撮像を行うことが好ましい。   A robot according to a third aspect of the present invention includes a voice determination unit that determines whether or not an input voice corresponds to a predetermined voice, a voice direction specification unit that specifies a direction in which the voice is played, and an input And an imaging unit that captures an image of a direction in which the sound is made on condition that the generated sound corresponds to a predetermined sound. The robot further includes an imaging number determination unit that determines whether or not the number of imagings performed by the imaging unit within a predetermined period has reached a predetermined allowable number. Imaging is preferably performed on condition that the number of times of imaging does not reach the allowable number. Further, this robot is based on a volume determination unit that determines whether or not the volume of the input voice exceeds a predetermined reference value, and the allowable number of times and the number of times that the volume exceeds the reference value within a period. It is preferable that the camera further includes a reference value setting unit that resets the reference value, and the imaging unit performs imaging on the condition that the volume exceeds the reference value.

本発明の第4の形態に係るロボットの制御方法は、ユーザからプリントを受け取るプリント受取段階と、プリントに予め定められた記憶対象画像があるか否かを判断するプリント判断段階と、プリントに記憶対象画像がある場合に当該記憶対象画像を記憶する記憶段階とを備える。   According to a fourth aspect of the present invention, there is provided a robot control method comprising: a print receiving stage for receiving a print from a user; a print determination stage for determining whether or not the print has a predetermined storage target image; A storage stage for storing the storage target image when there is a target image.

本発明の第5の形態に係るロボットの制御方法は、被写体を撮像する撮像段階と、ユーザとのコミュニケーションの頻度に応じて撮像段階の撮像条件を切り替える撮像条件切替段階と、撮像段階で撮像した画像をプリントするプリント段階とを備える。   The robot control method according to the fifth aspect of the present invention includes an imaging stage for imaging a subject, an imaging condition switching stage for switching imaging conditions in the imaging stage according to the frequency of communication with the user, and imaging at the imaging stage. A printing stage for printing an image.

本発明の第6の形態に係るロボットの制御方法は、入力された音声が予め定められた音声に対応するか否かを判定する音声判定段階と、音声がした方向を特定する音声方向特定段階と、入力された音声が予め定められた音声に対応することを条件として音声がした方向を撮像する撮像段階とを備える。   The robot control method according to the sixth aspect of the present invention includes a voice determination stage for determining whether or not an input voice corresponds to a predetermined voice, and a voice direction specification stage for specifying the direction of the voice. And an imaging stage for imaging the direction of the sound on condition that the input sound corresponds to a predetermined sound.

なお上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションも又発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態はクレームにかかる発明を限定するものではなく、又実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are the solution of the invention. It is not always essential to the means.

図1は、本発明の一実施形態に係るロボット100の機能を示す機能ブロック図である。ロボット100は、例えば犬の外形を有し、4本の足で歩行移動するペット型のロボットである。ロボット100は、ユーザからプリントを受け取るプリント受取部112と、プリント受取部112が受け取ったプリントに予め定められた記憶対象画像があるか否かを判断するプリント判断部124と、上記プリントに記憶対象画像がある場合にその記憶対象画像を記憶する記憶部126とを有する。なお、本実施形態の記憶対象画像は、人の顔の画像である。   FIG. 1 is a functional block diagram showing functions of a robot 100 according to an embodiment of the present invention. The robot 100 is, for example, a pet-type robot that has an outer shape of a dog and moves while walking with four legs. The robot 100 includes a print receiving unit 112 that receives a print from a user, a print determination unit 124 that determines whether or not the print received by the print receiving unit 112 has a predetermined storage target image, and a storage target in the print. When there is an image, the storage unit 126 stores the storage target image. Note that the storage target image of the present embodiment is a human face image.

ロボット100は、さらに、プリントを保管できる保管部114と、被写体を撮像する撮像部104とを有する。撮像部104は、例えばロボットの頭部に備えられたCCDカメラである。ロボット100は、さらに、撮像部104が撮像した画像をプリントできるプリント部116と、例えばピントが被写体にあっている画像を撮像するか、ピントが被写体にあっていない画像を撮像するかといった撮像部104の撮像条件を切り替える撮像条件切替部102を有する。   The robot 100 further includes a storage unit 114 that can store prints and an imaging unit 104 that captures an image of a subject. The imaging unit 104 is, for example, a CCD camera provided on the robot head. The robot 100 further includes a print unit 116 that can print an image captured by the image capturing unit 104 and an image capturing unit that captures, for example, an image that is in focus on the subject or an image that is not in focus on the subject. An imaging condition switching unit 102 that switches 104 imaging conditions is included.

さらに、ロボット100は、記憶部120に記憶されている記憶対象画像に対応する人(以下、「知人」という)がいる方向へ、あるいは、記憶部120に記憶されている記憶対象画像に対応しない人(以下、「他人」という)から遠ざかる方向にロボット100を移動させる動作制御部128を有する。また、ロボット100は、それぞれ動作制御部128の制御に基づいて、例えば犬の鳴き声などの音を発生させる音響部130と、ロボットの表情を変える表情変更部132とを有する。   Further, the robot 100 does not correspond to the direction in which there is a person corresponding to the storage target image stored in the storage unit 120 (hereinafter referred to as “acquaintance”) or to the storage target image stored in the storage unit 120. An operation control unit 128 that moves the robot 100 in a direction away from a person (hereinafter referred to as “another person”) is provided. In addition, the robot 100 includes an acoustic unit 130 that generates a sound such as a dog's cry and a facial expression changing unit 132 that changes the facial expression of the robot, based on the control of the operation control unit 128, respectively.

さらに、ロボット100は、それぞれ異なる方向に向けられ、周囲の音声(以下、「周囲音声」という)をひろう3つのマイク134、136、138を有する。また、ロボット100は、周囲音声の音量が例えば65ホン等の予め定められた基準値(以下、「音量基準値」という)を越えたか否かを判定する音量判定部122と、周囲音声が例えば笑い声等の予め定められた音声(以下、「設定音声」という)に対応するか否かを判定する音声判定部120とを有する。また、ロボット100は、予め定められた期間(以下、「基準期間」という)内に撮像部104が撮像を行った撮像回数が予め定められている許容回数に達しているか否かを判定する撮像回数判定部108を有する。なお、本実施形態では、基準期間は例えば月曜日から日曜日までの1週間であり、許容回数は例えば20回である。   Furthermore, the robot 100 has three microphones 134, 136, and 138 that are directed in different directions and draw ambient sounds (hereinafter referred to as “ambient sounds”). In addition, the robot 100 includes a volume determination unit 122 that determines whether or not the volume of the surrounding sound exceeds a predetermined reference value (hereinafter referred to as “volume reference value”) such as 65 phones, and the surrounding sound is, for example, And a voice determination unit 120 that determines whether or not it corresponds to a predetermined voice such as a laughter (hereinafter referred to as “set voice”). In addition, the robot 100 determines whether or not the number of times that the imaging unit 104 has taken an image within a predetermined period (hereinafter referred to as “reference period”) has reached a predetermined allowable number. A number determination unit 108 is included. In the present embodiment, the reference period is, for example, one week from Monday to Sunday, and the allowable number is, for example, 20 times.

ロボット100は、さらに、周囲音声がした方向(以下、「音声方向」という)を特定する音声方向特定部118を有する。音声方向特定部118は、例えば、マイク134、136、138の各々がひろった周囲音声の音量差と、各々のマイク134、136、138が向けられている方向とに基づいて音声方向を特定する。また、ロボット100は、音声方向特定部118が求めた音声方向に撮像方向が一致するように撮像部104の向きを調整する撮像方向調整部184を有する。本実施形態では、撮像方向調整部184は、ロボット100の頭部の向きを変えることで撮像部104の撮像方向を調整する。ロボット100は、上記の他に、基準期間内に音量が基準値を越えた回数等に基づいて音量基準値及び許容回数を再設定する基準値設定部110を有する。   The robot 100 further includes a voice direction specifying unit 118 that specifies the direction in which the surrounding voice is played (hereinafter referred to as “voice direction”). The audio direction specifying unit 118 specifies the audio direction based on, for example, the volume difference between the surrounding sounds picked up by the microphones 134, 136, and 138 and the direction in which each of the microphones 134, 136, and 138 is directed. . The robot 100 also includes an imaging direction adjustment unit 184 that adjusts the orientation of the imaging unit 104 so that the imaging direction matches the audio direction obtained by the audio direction identification unit 118. In the present embodiment, the imaging direction adjustment unit 184 adjusts the imaging direction of the imaging unit 104 by changing the orientation of the head of the robot 100. In addition to the above, the robot 100 includes a reference value setting unit 110 that resets the sound volume reference value and the allowable number of times based on the number of times the sound volume exceeds the reference value within the reference period.

図2は、プリント受取部112の機能を示す機能ブロック図である。プリント受取部112は、ユーザから提供されたプリントを受け取り、保持し、また、プリント判断部124からの命令があった場合に保持しているプリントをロボット100の外部へ排出するプリント保持部152を有する。また、プリント受取部112は、プリント保持部152によって保持されているプリントの画像を読み取る画像読取部150を有する。画像読取部150は、例えばイメージスキャナー又はCCDカメラである。画像読取部150は、読み取った画像をプリント判断部124へ送る。プリント受取部112は、さらに、プリント保持部152が保持しているプリントを保管部114へ搬送する搬送部154を有する。   FIG. 2 is a functional block diagram illustrating functions of the print receiving unit 112. The print receiving unit 112 receives and holds a print provided from the user, and a print holding unit 152 that discharges the held print to the outside of the robot 100 when a command is received from the print determination unit 124. Have. The print receiving unit 112 includes an image reading unit 150 that reads a print image held by the print holding unit 152. The image reading unit 150 is, for example, an image scanner or a CCD camera. The image reading unit 150 sends the read image to the print determination unit 124. The print receiving unit 112 further includes a transport unit 154 that transports the print held by the print holding unit 152 to the storage unit 114.

なお、プリント受取部112は、例えばロボット100の口に該当する部位に備えられ、ユーザがその口に差し込んだプリントを受け取ることが好ましい。このようにすると、ユーザは、プリントを餌としてロボット100に与えた感覚を得ることができる。例えば、プリント保持部152がプリントを排出した結果、プリントがロボット100の口から出てくると、ユーザは、ロボット100がプリントを好まずに口から吐き出したと感じることができる。また、プリントが排出されずに保管部114に保管されると、ユーザは、ロボット100がプリントを好んで飲み込んだと感じることができる。   Note that the print receiving unit 112 is preferably provided in a portion corresponding to the mouth of the robot 100, for example, and preferably receives a print inserted by the user into the mouth. In this way, the user can obtain a feeling given to the robot 100 using the print as a bait. For example, when the print is output from the mouth of the robot 100 as a result of the print holding unit 152 discharging the print, the user can feel that the robot 100 has discharged the print from the mouth unfavorably. If the print is stored in the storage unit 114 without being discharged, the user can feel that the robot 100 has swallowed the print.

図3は、動作制御部128の機能を示す機能ブロック図である。動作制御部128は、撮像部104が撮像した人の画像を記憶部126に記憶されている記憶対象画像と比較することで、撮像された人が知人であるか他人であるかを判定する画像判定部160を有する。また、動作制御部128は、撮像部104が撮像した人とロボット100との間の距離を測定する測距部162を有する。測距部162は、例えば撮像部104が有する自動焦点調節機能を利用して撮像された人までの距離を測定する。動作制御部128は、さらに、画像判定部160の判定および測距部162の測定結果に基づいてロボット100の例えば足の動作を制御することでロボット100を移動させる移動制御部164を有する。   FIG. 3 is a functional block diagram illustrating functions of the operation control unit 128. The operation control unit 128 compares the image of the person captured by the imaging unit 104 with the storage target image stored in the storage unit 126 to determine whether the captured person is an acquaintance or another person. A determination unit 160 is included. Further, the operation control unit 128 includes a distance measuring unit 162 that measures the distance between the person imaged by the imaging unit 104 and the robot 100. The distance measuring unit 162 measures a distance to a person who has been imaged using, for example, an automatic focus adjustment function of the imaging unit 104. The motion control unit 128 further includes a movement control unit 164 that moves the robot 100 by controlling, for example, the motion of the foot of the robot 100 based on the determination of the image determination unit 160 and the measurement result of the distance measurement unit 162.

図4は、撮像条件切替部102の機能を示す機能ブロック図である。撮像条件切替部102は、ユーザがロボット100に触れたことを検出する接触センサ1170を有する。接触センサ170は、例えば静電容量式のタッチセンサである。本実施形態では、接触センサ170は、ロボット100の頭に備えられ、ユーザがロボット100の頭をなでたことを検出する。撮像条件切替部102は、さらに、接触センサ170の出力に基づいてユーザがロボット100に触れた接触頻度を算出する接触頻度算出部172と、接触頻度算出部172が求めた接触頻度に基づいて撮像部104の撮像条件を設定する撮像条件設定部174とを有する。   FIG. 4 is a functional block diagram illustrating functions of the imaging condition switching unit 102. The imaging condition switching unit 102 includes a contact sensor 1170 that detects that the user has touched the robot 100. The contact sensor 170 is, for example, a capacitive touch sensor. In the present embodiment, the contact sensor 170 is provided on the head of the robot 100 and detects that the user has stroked the head of the robot 100. The imaging condition switching unit 102 further performs imaging based on the contact frequency calculating unit 172 that calculates the contact frequency of the user touching the robot 100 based on the output of the contact sensor 170 and the contact frequency obtained by the contact frequency calculating unit 172. An imaging condition setting unit 174 that sets the imaging conditions of the unit 104.

図5は、ロボット100の動作を示すフローチャートである。本実施形態では、ロボット100は、ユーザからプリントを受け取るためのプリント受取処理(S100)と、撮像部104が撮像した人に近づく又はその人から離れるための移動制御処理(S102)とを実行する。また、ロボット100は、設定音声に対応する音声がした方向の画像を撮像するための音声方向撮像処理(S104)と、撮像部104の撮像条件を切り替えるための撮像条件切替処理(S106)とを実行する。ロボット100は、上記4つの処理を主電源が切られるまで繰り返す(S108)。なお、4つの処理が行われる順は任意であり、図示した順に限定されない。   FIG. 5 is a flowchart showing the operation of the robot 100. In the present embodiment, the robot 100 executes a print receiving process (S100) for receiving a print from a user and a movement control process (S102) for the imaging unit 104 to approach or leave the person who has taken the image. . In addition, the robot 100 performs voice direction imaging processing (S104) for capturing an image in the direction in which the voice corresponding to the set voice is heard, and imaging condition switching processing (S106) for switching the imaging conditions of the imaging unit 104. Execute. The robot 100 repeats the above four processes until the main power is turned off (S108). The order in which the four processes are performed is arbitrary and is not limited to the order shown.

図6は、プリント受取処理(S100)の内容を示すフローチャートである。プリント受取処理では、はじめにプリント保持部152がユーザから提供されたプリントを受け取り、保持する(S120)。次に、画像読取部150がプリントの画像を読み取る(S122)。次に、プリント判断部124が読み取られた画像に記憶対象画像が含まれているか否かを判断する(S124)。前述したように、本実施形態では、記憶対象画像は人の顔の画像である。プリント判断部124は、例えば、読み取られた画像に人の肌色と同一の色相を有する領域があるか、また、その領域内に人の目に対応する画像があるかを基準としてS124の判断を行う。   FIG. 6 is a flowchart showing the contents of the print receiving process (S100). In the print receiving process, first, the print holding unit 152 receives and holds a print provided by the user (S120). Next, the image reading unit 150 reads a print image (S122). Next, the print determination unit 124 determines whether or not a storage target image is included in the read image (S124). As described above, in the present embodiment, the storage target image is a human face image. For example, the print determination unit 124 determines whether or not the read image includes a region having the same hue as the human skin color and whether there is an image corresponding to the human eye in the region. Do.

読み取られた画像に記憶対象画像がある場合、プリント判断部124は、その記憶対象画像、つまり人の顔の画像を記憶部126に記憶させる(S124:Y、S126)。また、プリント判断部124は、プリント搬送部154に受け取ったプリントをプリント保持部152から保管部114へ移させる(S128)。一方、S124において、プリント判断部124が読み取られた画像に記憶対象画像がないと判断された場合、プリント判断部124は、プリント保持部152にプリントをロボット100の外部へ排出させる(S124:N、S130)。S128またはS130の処理が終了すると、プリント受取処理は終了する。   When there is a storage target image in the read image, the print determination unit 124 stores the storage target image, that is, an image of a human face in the storage unit 126 (S124: Y, S126). In addition, the print determination unit 124 moves the print received by the print transport unit 154 from the print holding unit 152 to the storage unit 114 (S128). On the other hand, if the print determination unit 124 determines that there is no image to be stored in S124, the print determination unit 124 causes the print holding unit 152 to discharge the print to the outside of the robot 100 (S124: N). , S130). When the process of S128 or S130 ends, the print receiving process ends.

図7は、移動制御処理(S102)の内容を示すフローチャートである。移動制御処理では、撮像部104がロボット100の周囲の画像を撮像し、撮像された画像を動作制御部128へ送る(S140)。動作制御部128では、画像判定部160が送られた画像に人がいるか否かを判定する(S142)。人がいなかった場合、ロボット100は、移動制御処理を終了する(S142:N)。人がいた場合、画像判定部160は、その人の画像と記憶部120に記憶されている記憶対象画像と比較して、撮像された人が知人であるか否かを判定する(S142:Y、S144)。画像判定部160は、予め定められた誤差範囲内で撮像された人の顔と記憶対象画像とが一致する場合には撮像された人は知人であると判定し(S144:Y)、一致しない場合には他人であると判定する(S144:N)。   FIG. 7 is a flowchart showing the contents of the movement control process (S102). In the movement control process, the imaging unit 104 captures an image around the robot 100 and sends the captured image to the operation control unit 128 (S140). In the operation control unit 128, the image determination unit 160 determines whether there is a person in the sent image (S142). If there is no person, the robot 100 ends the movement control process (S142: N). When there is a person, the image determination unit 160 compares the person's image with the storage target image stored in the storage unit 120 to determine whether the imaged person is an acquaintance (S142: Y , S144). The image determination unit 160 determines that the imaged person is an acquaintance when the face of the person imaged within a predetermined error range matches the storage target image (S144: Y), and does not match. In this case, it is determined that the person is another person (S144: N).

S144において、画像判定部160が、撮像された人は他人であると判定した場合、次に表情変更部132がロボット100の表情を警戒した表情に変更する(S146)。本実施形態では、表情変更部132は、例えばロボットの耳を立てることによりロボットの表情を警戒した表情に変える。次に、移動制御部164がロボット100を撮影されている他人から後退りさせる(S148)。これにより、ロボット100は、顔を他人の方向へ向けたまま、その他人から遠ざかる方向へ移動する。移動制御部164は、測距部162が測定する他人までの距離が予め定められた距離となるまでロボット100を後退りさせる(S150)。ここで予め定められた距離とは、例えば、撮像部104がその他人の全身を撮影できる距離である。   In S144, when the image determination unit 160 determines that the imaged person is another person, the facial expression changing unit 132 next changes the facial expression of the robot 100 to a warning expression (S146). In the present embodiment, the facial expression changing unit 132 changes the facial expression of the robot to a warning expression by, for example, raising the robot's ear. Next, the movement control unit 164 retracts the robot 100 from the other person being photographed (S148). As a result, the robot 100 moves in a direction away from the other person while keeping its face in the direction of the other person. The movement control unit 164 moves the robot 100 backward until the distance to the other person measured by the distance measuring unit 162 reaches a predetermined distance (S150). Here, the predetermined distance is, for example, a distance that allows the imaging unit 104 to capture the whole body of another person.

ロボット100が予め定められた距離だけ他人から後退りすると、次に音響部130が音を発生させる(S152)。発生される音は、それを聞いた上記他人の注意を喚起し、上記他人を撮像部104の方へ振り向かせるための音である。本実施形態では、音響部130は、犬の吠え声を発生させる。音が発生された後、撮像部104が他人のいる方向の静止画を撮像する(S154)。また、撮像の後、移動制御部164が他人のいる方向と異なる方向へロボットの向きを変える(S156)。このようにロボット100が他人から後退したり、向きを変えたりすることにより、ロボット100は、その他人に対し親密な感情を抱いていないことを表現できる。   When the robot 100 retreats from another person by a predetermined distance, the sound unit 130 then generates a sound (S152). The generated sound is a sound for calling attention of the other person who heard it and turning the other person toward the imaging unit 104. In the present embodiment, the acoustic unit 130 generates a dog bark. After the sound is generated, the imaging unit 104 captures a still image in the direction where another person is present (S154). Further, after imaging, the movement control unit 164 changes the direction of the robot in a direction different from the direction in which another person is present (S156). Thus, the robot 100 can express that the robot 100 does not have an intimate feeling with respect to other people by retreating from another person or changing the direction.

S144において、画像判定部150が、撮像された人が知人であると判定した場合、次に、表情変更部132がロボット100の表情を従順な表情に変える(S158)。本実施形態の場合、表情変更部132は、ロボットの耳を寝かせることで従順な表情を作り出す。次に、移動制御部164がロボット100を撮像されている知人の方へ移動させる(S160)。移動制御部164は、測距部162が測定する知人までの距離が予め定められた距離、例えば50cmとなるまでロボット100を知人の方向へ接近させる(S162)。   If the image determination unit 150 determines in S144 that the imaged person is an acquaintance, then the facial expression changing unit 132 changes the facial expression of the robot 100 to an compliant expression (S158). In the case of the present embodiment, the facial expression changing unit 132 creates a submissive facial expression by laying the ears of the robot. Next, the movement control unit 164 moves the robot 100 toward the acquaintance being imaged (S160). The movement control unit 164 moves the robot 100 toward the acquaintance until the distance to the acquaintance measured by the distance measuring unit 162 reaches a predetermined distance, for example, 50 cm (S162).

次に、プリント部116が撮像部104が撮像した画像をプリントし、知人に提供する(S164)。プリントする画像には、撮像部104がS154で撮像した他人の画像と、後述する音声方向撮像処理において撮像部104が撮像した音声方向の画像とが含まれる。S156またはS164の処理が終了すると、移動制御処理は終了する。   Next, the printing unit 116 prints the image captured by the imaging unit 104 and provides it to an acquaintance (S164). The image to be printed includes the other person's image captured by the image capturing unit 104 in S154 and the sound direction image captured by the image capturing unit 104 in the sound direction image capturing process described later. When the process of S156 or S164 ends, the movement control process ends.

図8は、音声方向撮像処理(S104)の内容を示すフローチャートである。音声方向撮像処理では、はじめに、音量判定部122がマイク134、136、及び138が取得した周囲音声の音量が音量基準値を超えるか否かを判定する(S180)。音量判定部122が周囲音声の音量が音量基準値を超えないと判定した場合、音声方向撮像処理は終了する(S180:N)。一方、音量判定部122が周囲音声の音量が音量基準値を超えると判定した場合、次に音声判定部120が周囲音声が設定音声に対応するか否かを判定する(S180:Y、S182)。本実施形態では、音声判定部120は、周囲音声の周波数スペクトルを求め、求めた周波数スペクトルに人の笑い声を示すスペクトルが含まれている場合に周囲音声は設定音声に対応すると判定する。   FIG. 8 is a flowchart showing the contents of the voice direction imaging process (S104). In the sound direction imaging process, first, the sound volume determination unit 122 determines whether or not the sound volume of surrounding sounds acquired by the microphones 134, 136, and 138 exceeds the sound volume reference value (S180). When the sound volume determination unit 122 determines that the sound volume of the surrounding sound does not exceed the sound volume reference value, the sound direction imaging process ends (S180: N). On the other hand, when the sound volume determination unit 122 determines that the sound volume of the surrounding sound exceeds the sound volume reference value, the sound determination unit 120 next determines whether or not the sound is compatible with the set sound (S180: Y, S182). . In the present embodiment, the sound determination unit 120 obtains the frequency spectrum of the surrounding sound, and determines that the surrounding sound corresponds to the set sound when the obtained frequency spectrum includes a spectrum indicating a human laughing voice.

S182において、音声判定部120が周囲音声は設定音声に対応していないと判定した場合、音声方向撮像処理は終了する(S182:N)。一方、周囲音声が設定音声に対応していると音声判定部120が判定した場合、次に撮像回数判定部108が基準期間内の撮像回数が許容回数に達しているか否かを判定する(S182:Y、S184)。撮像回数が許容回数に達していない場合、次に音声方向特定部118がマイク134、136、138の出力に基づいて音声方向を特定する(S184:N、S186)。さらに、撮像方向調整部106が、音声方向特定部118が特定した音声方向に撮像部104の撮像方向を一致させる(S188)。次に、撮像部104が静止画を撮像する(S190)。これにより、本実施形態の場合は、笑い声がした方向の画像が撮影される。S190の処理の終了により、音声方向撮像処理は終了する。   If the sound determination unit 120 determines in S182 that the surrounding sound does not correspond to the set sound, the sound direction imaging process ends (S182: N). On the other hand, when the sound determination unit 120 determines that the surrounding sound corresponds to the set sound, the imaging number determination unit 108 determines whether or not the number of imagings within the reference period has reached the allowable number (S182). : Y, S184). If the number of times of imaging has not reached the allowable number, the voice direction specifying unit 118 next specifies the voice direction based on the outputs of the microphones 134, 136, and 138 (S184: N, S186). Further, the imaging direction adjusting unit 106 matches the imaging direction of the imaging unit 104 with the audio direction specified by the audio direction specifying unit 118 (S188). Next, the imaging unit 104 captures a still image (S190). Thereby, in the case of this embodiment, the image of the direction which made the laughing voice is image | photographed. When the process of S190 ends, the voice direction imaging process ends.

一方、S184において撮像回数判定部108が撮像回数が許容回数に達していると判定した場合には、基準値設定部110が、設定音声に対応する周囲音声が基準期間内に音量基準値を越えた回数と許容回数との差である超過回数を求め、超過回数が予め定められているしきい値を越えるか否かを判断する(S184:Y、S192)。超過回数がしきい値を越えていない場合、音声方向撮像処理は終了する(S192:N)。一方、超過回数がしきい値を越えている場合、基準値設定部110は、音量基準値を例えば5ホン高い値に、又は許容回数を例えば5回多い値に再設定する(S192:Y、S194)。S194の処理の終了により、音声方向撮像処理は終了する。   On the other hand, when the imaging number determination unit 108 determines in S184 that the imaging number has reached the allowable number, the reference value setting unit 110 causes the surrounding audio corresponding to the set audio to exceed the volume reference value within the reference period. The excess number that is the difference between the number of times and the allowable number is obtained, and it is determined whether or not the excess number exceeds a predetermined threshold value (S184: Y, S192). If the excess number does not exceed the threshold value, the voice direction imaging process ends (S192: N). On the other hand, when the excess number exceeds the threshold value, the reference value setting unit 110 resets the volume reference value to a value higher by 5 phones, for example, or the allowable number of times to a value higher by 5 times, for example (S192: Y, S194). When the process of S194 ends, the voice direction imaging process ends.

図9は、撮像条件切替処理(S106)の内容を示すフローチャートである。撮像条件切替処理では、接触頻度算出部162が接触センサにユーザが触れる度に接触頻度を求める(S210、S212)。本実施形態では、接触頻度算出部162は、例えば過去1週間にユーザが接触センサに触れた回数を接触頻度として求める。一方、撮影条件設定部164は、定期的に、例えば一日1回定められた時間に接触頻度算出部162が算出した接触頻度が予め定められた規定値を越えているか否かを判断する(S214,S216)。接触頻度が規定値を越えている場合、つまりユーザがロボット100とコミュニケーションを取っている回数が多い場合には、撮像条件設定部164は、撮像部104の撮影条件を第1の条件に設定する(S216:Y、S218)。本実施形態では、第1の撮像条件に設定された撮像部104は、シャープなピント、および適正な露光条件で被写体を撮像する。   FIG. 9 is a flowchart showing the contents of the imaging condition switching process (S106). In the imaging condition switching process, the contact frequency calculation unit 162 obtains the contact frequency every time the user touches the contact sensor (S210, S212). In the present embodiment, the contact frequency calculation unit 162 obtains, for example, the number of times the user has touched the contact sensor in the past week as the contact frequency. On the other hand, the imaging condition setting unit 164 periodically determines, for example, whether or not the contact frequency calculated by the contact frequency calculation unit 162 at a predetermined time once a day exceeds a predetermined value ( S214, S216). When the contact frequency exceeds the specified value, that is, when the number of times the user communicates with the robot 100 is large, the imaging condition setting unit 164 sets the imaging condition of the imaging unit 104 as the first condition. (S216: Y, S218). In the present embodiment, the imaging unit 104 set as the first imaging condition images a subject with a sharp focus and an appropriate exposure condition.

一方、接触頻度が規定値以下である場合、つまりユーザとロボット100との間のコミュニケーションが不足している場合、撮像条件設定部164は、撮像部104の撮像条件を第2の条件に設定する(S216:N,S220)。本実施形態では、第2の撮像条件に設定されたカメラ182は、ピントが被写体にあっておらず、また、露出がアンダー又はオーバーとなっている画像を撮像する。このように、接触頻度に基づいてカメラ182の撮影条件を切り替えることにより、ロボット100は、ユーザと十分なコミュニケーションがとれており満足しているのか、あるいは、ユーザとのコミュニケーションが不十分なために不満でいるのかを撮像した画像の画質に表現する。   On the other hand, when the contact frequency is equal to or less than the predetermined value, that is, when communication between the user and the robot 100 is insufficient, the imaging condition setting unit 164 sets the imaging condition of the imaging unit 104 to the second condition. (S216: N, S220). In the present embodiment, the camera 182 set to the second imaging condition captures an image that is not in focus on the subject and underexposed or overexposed. In this way, by switching the shooting conditions of the camera 182 based on the contact frequency, the robot 100 is satisfied with sufficient communication with the user, or because communication with the user is insufficient. We express whether we are dissatisfied in the image quality of the captured image.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることができる。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. Various changes or improvements can be added to the above embodiment. It is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

上記の説明から明らかなように、本発明によれば、プリントという物をユーザとやり取りすることでユーザとコミュニケーションを取るロボットが提供されるので、ユーザにとってより現実のペットの形態に近いロボットを提供できる。   As is clear from the above description, according to the present invention, a robot that communicates with the user by exchanging an object called a print is provided, and thus a robot closer to a real pet form is provided for the user. it can.

本発明の一実施形態に係るロボット100の機能を示す機能ブロック図である。It is a functional block diagram which shows the function of the robot 100 which concerns on one Embodiment of this invention. プリント受取部112の機能を示す機能ブロック図である。3 is a functional block diagram illustrating functions of a print receiving unit 112. FIG. 動作制御部128の機能を示す機能ブロック図である。3 is a functional block diagram illustrating functions of an operation control unit 128. FIG. 撮像条件切替部102の機能を示す機能ブロック図である。3 is a functional block diagram illustrating functions of an imaging condition switching unit 102. FIG. ロボット100の動作を示すフローチャートである。3 is a flowchart showing the operation of the robot 100. プリント受取処理(S100)の内容を示すフローチャートである。It is a flowchart which shows the content of a print reception process (S100). 移動制御処理(S102)の内容を示すフローチャートである。It is a flowchart which shows the content of a movement control process (S102). 音声方向撮像処理(S104)の内容を示すフローチャートである。It is a flowchart which shows the content of an audio | voice direction imaging process (S104). 撮像条件切替処理(S106)の内容を示すフローチャートである。It is a flowchart which shows the content of an imaging condition switching process (S106).

符号の説明Explanation of symbols

102 撮像条件切替部
104 撮像部
106 撮像方向調節部
108 撮像回数判定部
110 基準値設定部
112 プリント受取部
114 保管部
116 プリント部
118 音声方向特定部
120 音声判定部
122 音量判定部
124 プリント判断部
126 記憶部
128 動作制御部
130 音響部
132 表情変更部
DESCRIPTION OF SYMBOLS 102 Imaging condition switching part 104 Imaging part 106 Imaging direction adjustment part 108 Imaging frequency determination part 110 Reference value setting part 112 Print receiving part 114 Storage part 116 Printing part 118 Voice direction specification part 120 Voice determination part 122 Volume determination part 124 Print determination part 126 Storage Unit 128 Operation Control Unit 130 Sound Unit 132 Facial Expression Change Unit

Claims (4)

入力された音声が予め定められた音声に対応するか否かを判定する音声判定部と、
前記音声がした方向を特定する音声方向特定部と、
前記入力された音声が前記予め定められた音声に対応することを条件として前記音声がした方向を撮像する撮像部と
を備えることを特徴とするロボット。
A sound determination unit that determines whether or not the input sound corresponds to a predetermined sound;
A voice direction identifying unit that identifies a direction in which the voice is played;
A robot, comprising: an imaging unit that captures an image of a direction of the voice on condition that the input voice corresponds to the predetermined voice.
予め定められた期間内に前記撮像部が撮像を行った撮像回数が、予め定められている許容回数に達しているか否かを判定する撮像回数判定部をさらに備え、
前記撮像部は、前記撮像回数が前記許容回数を達していないことを条件として前記撮像を行うことを特徴とする請求項1に記載のロボット。
An imaging number determination unit that determines whether or not the number of times the imaging unit has performed an imaging within a predetermined period has reached a predetermined allowable number;
The robot according to claim 1, wherein the imaging unit performs the imaging on the condition that the number of times of imaging does not reach the allowable number of times.
前記入力された音声の音量が予め定められた基準値を越えたか否かを判定する音量判定部と、
前記許容回数と前記期間内に前記音量が前記基準値を越えた回数とに基づいて前記基準値を再設定する基準値設定部とをさらに備え、
前記撮像部は、前記音量が前記基準値を超えたことを条件として前記撮像を行うことを特徴とする請求項2に記載のロボット。
A volume determination unit for determining whether the volume of the input voice exceeds a predetermined reference value;
A reference value setting unit for resetting the reference value based on the allowable number of times and the number of times the volume exceeds the reference value within the period;
The robot according to claim 2, wherein the imaging unit performs the imaging on the condition that the volume exceeds the reference value.
入力された音声が予め定められた音声に対応するか否かを判定する音声判定段階と、
前記音声がした方向を特定する音声方向特定段階と、
前記入力された音声が前記予め定められた音声に対応することを条件として前記音声がした方向を撮像する撮像段階と
を備えることを特徴とするロボットの制御方法。
A sound determination step for determining whether or not the input sound corresponds to a predetermined sound; and
A voice direction specifying step for specifying a direction of the voice;
A robot control method comprising: an imaging step of imaging a direction of the voice on condition that the input voice corresponds to the predetermined voice.
JP2007279831A 2007-10-29 2007-10-29 Robot and control method thereof Expired - Fee Related JP4633775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007279831A JP4633775B2 (en) 2007-10-29 2007-10-29 Robot and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007279831A JP4633775B2 (en) 2007-10-29 2007-10-29 Robot and control method thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001014904A Division JP4080165B2 (en) 2001-01-23 2001-01-23 Robot and control method thereof

Publications (2)

Publication Number Publication Date
JP2008044105A true JP2008044105A (en) 2008-02-28
JP4633775B2 JP4633775B2 (en) 2011-02-16

Family

ID=39178313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007279831A Expired - Fee Related JP4633775B2 (en) 2007-10-29 2007-10-29 Robot and control method thereof

Country Status (1)

Country Link
JP (1) JP4633775B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07213753A (en) * 1994-02-02 1995-08-15 Hitachi Ltd Personal robot device
WO2000015396A1 (en) * 1998-09-10 2000-03-23 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
WO2000067959A1 (en) * 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07213753A (en) * 1994-02-02 1995-08-15 Hitachi Ltd Personal robot device
WO2000015396A1 (en) * 1998-09-10 2000-03-23 Sony Corporation Robot apparatus, method of controlling robot apparatus, method of display, and medium
WO2000067959A1 (en) * 1999-05-10 2000-11-16 Sony Corporation Robot device and method for controlling the same

Also Published As

Publication number Publication date
JP4633775B2 (en) 2011-02-16

Similar Documents

Publication Publication Date Title
JP5099488B2 (en) Imaging apparatus, face recognition method and program thereof
CN106575027B (en) Image pickup apparatus and subject tracking method thereof
JP2004320286A (en) Digital camera
JP4649550B2 (en) camera
JP4290164B2 (en) Display method for displaying display showing identification area together with image, program executed by computer apparatus, and imaging apparatus
JP5493512B2 (en) IMAGING DEVICE AND CELLULAR PHONE MOUNTING THE SAME
CN106455969A (en) Eye imaging apparatus and systems
US20210394530A1 (en) Digital camera with printer
JP4670521B2 (en) Imaging device
JP4080165B2 (en) Robot and control method thereof
JP4633775B2 (en) Robot and control method thereof
JP4620102B2 (en) Robot and control method thereof
KR20170085494A (en) Information processing device, information processing method, and program
JP5977907B1 (en) Capsule endoscope and capsule endoscope system
JP5267695B2 (en) Imaging apparatus, face recognition method and program thereof
JP2022023539A (en) Estrus detection apparatus, estrus detection method, estrus detection program, and recording medium
JP2015204960A (en) Capsule endoscope system, capsule endoscope, receiver, and light emission control method and program for capsule endoscope
US20090010628A1 (en) Camera Apparatus and a Method and Software For Using Such
US20170265730A1 (en) Single Image Sensor Control for Capturing Mixed Mode Images
JP4099003B2 (en) Pet robot
JP6123162B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
CN115474594B (en) Intelligent furniture protection method and system
JP2020092370A (en) Imaging control device, imaging system, and imaging control method
JP6463975B2 (en) Eye open / closed state determination method, image processing apparatus, and determination system
US8833939B2 (en) Fundus image detection apparatus and method for obtaining fundus image of eye of animal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees