JP2022142109A - Electronic apparatus, robot, control method and program - Google Patents

Electronic apparatus, robot, control method and program Download PDF

Info

Publication number
JP2022142109A
JP2022142109A JP2021042125A JP2021042125A JP2022142109A JP 2022142109 A JP2022142109 A JP 2022142109A JP 2021042125 A JP2021042125 A JP 2021042125A JP 2021042125 A JP2021042125 A JP 2021042125A JP 2022142109 A JP2022142109 A JP 2022142109A
Authority
JP
Japan
Prior art keywords
sleep state
robot
sleep
value
emotion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021042125A
Other languages
Japanese (ja)
Other versions
JP7314967B2 (en
Inventor
浩一 長谷川
Koichi Hasegawa
義裕 河村
Yoshihiro Kawamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2021042125A priority Critical patent/JP7314967B2/en
Publication of JP2022142109A publication Critical patent/JP2022142109A/en
Priority to JP2023109025A priority patent/JP2023115370A/en
Application granted granted Critical
Publication of JP7314967B2 publication Critical patent/JP7314967B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Toys (AREA)

Abstract

To further easily suppress battery consumption.SOLUTION: A robot 200 includes a processing section 110 for executing control of: acquiring external stimulation applied to its own machine from the outside; when the acquired external stimulation is the external stimulation satisfying a first sleep condition, transitioning to the first sleep state; when the external stimulation acquired after the transition to the first sleep state is first stimulation, transitioning from the first sleep state to a normal state; when the external stimulation acquired after the transition to the first sleep state is second stimulation different from the first stimulation, transitioning from the first sleep state to a quasi-sleep state; and when a state being in the quasi-sleep state continues for a prescribed time, returning from the quasi-sleep state to the first sleep state.SELECTED DRAWING: Figure 8

Description

本発明は、機器、機器の制御方法及びプログラムに関する。 The present invention relates to a device, a device control method, and a program.

機器の一部の動作を停止させてバッテリー消費を抑制するスリープモード(休止モード)を備える電子機器がある。スリープモードを解除するトリガーとしては直接的な機器の操作の他、機器が備えるセンサによる外部の刺激、例えば明るさや振動などの検出を解除トリガーとするものがある。例えば、特許文献1には、振動を検出するまでスリープモードを解除しないようにすることにより、従来よりも電池寿命を更に延長することができるワイヤレス式マウスが開示されている。 2. Description of the Related Art Some electronic devices have a sleep mode (hibernation mode) that stops part of the device operation to reduce battery consumption. As a trigger for canceling the sleep mode, in addition to the direct operation of the device, there is a trigger that uses the detection of an external stimulus, such as brightness or vibration, by a sensor provided in the device. For example, Patent Literature 1 discloses a wireless mouse that can extend the battery life more than before by not canceling the sleep mode until vibration is detected.

特開平11-224158号公報JP-A-11-224158

特許文献1に開示されているような機器においては、微小な外部の刺激(例えば僅かな振動)であってもスリープモードが解除され、通常状態に復帰してしまうことがある。このように、従来の技術では、スリープモードが容易に解除されてしまい、目的とするバッテリー消費抑制の効果が得られにくいという課題があった。 In the device disclosed in Patent Document 1, even a minute external stimulus (for example, a slight vibration) may cancel the sleep mode and return to the normal state. As described above, the conventional technology has a problem that the sleep mode is easily canceled, and it is difficult to obtain the desired effect of suppressing battery consumption.

そこで、本発明はこのような事情に鑑みてなされたものであって、バッテリーの消費量をより抑制しやすくすることができる機器、機器の制御方法及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of such circumstances, and it is an object of the present invention to provide a device, a control method for the device, and a program that can more easily suppress battery consumption.

前記目的を達成するため、本発明に係る機器の一様態は、
外部から自機に作用する外部刺激を取得し、
前記取得した外部刺激が第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
制御を実行する処理部、
を備える。
In order to achieve the above object, one aspect of the device according to the present invention is
Acquire an external stimulus that acts on the machine from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies the first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
a processing unit that performs control;
Prepare.

本発明によれば、バッテリーの消費量をより抑制しやすくすることができる。 ADVANTAGE OF THE INVENTION According to this invention, the consumption of a battery can be made easier to suppress.

実施形態に係るロボットの外観を示す図である。It is a figure which shows the external appearance of the robot which concerns on embodiment. 実施形態に係るロボットの側面から見た断面図である。1 is a cross-sectional view of a robot according to an embodiment as viewed from the side; FIG. 実施形態に係るロボットの筐体を説明する図である。It is a figure explaining the housing|casing of the robot which concerns on embodiment. 実施形態に係るロボットのひねりモータの動きの一例を説明する図である。It is a figure explaining an example of a motion of the twist motor of the robot which concerns on embodiment. 実施形態に係るロボットのひねりモータの動きの一例を説明する他の図である。FIG. 10 is another diagram illustrating an example of the motion of the twist motor of the robot according to the embodiment; 実施形態に係るロボットの上下モータの動きの一例を説明する図である。It is a figure explaining an example of a motion of the up-and-down motor of the robot which concerns on embodiment. 実施形態に係るロボットの上下モータの動きの一例を説明する他の図である。FIG. 11 is another diagram illustrating an example of motion of the vertical motor of the robot according to the embodiment; 実施形態に係るロボットの機能構成を示すブロック図である。It is a block diagram showing the functional configuration of the robot according to the embodiment. 実施形態に係る電源制御部の構成を示すブロック図である。3 is a block diagram showing the configuration of a power control unit according to the embodiment; FIG. 実施形態に係る感情マップの一例を説明する図である。It is a figure explaining an example of the emotion map which concerns on embodiment. 実施形態に係る性格値レーダーチャートの一例を説明する図である。It is a figure explaining an example of the personality value radar chart which concerns on embodiment. 実施形態に係る成長テーブルの一例を説明する図である。It is a figure explaining an example of the growth table which concerns on embodiment. 実施形態に係る動作内容テーブルの一例を説明する図である。It is a figure explaining an example of the operation content table which concerns on embodiment. 実施形態に係るモーションテーブルの一例を説明する図である。It is a figure explaining an example of the motion table which concerns on embodiment. 実施形態に係る動作制御処理のフローチャートである。4 is a flowchart of operation control processing according to the embodiment; 実施形態に係る動作選択処理のフローチャートである。6 is a flowchart of action selection processing according to the embodiment; 実施形態に係る性格補正値調整処理のフローチャートである。9 is a flowchart of personality correction value adjustment processing according to the embodiment; 実施形態に係るアラーム機能の設定画面の一例を説明する図である。It is a figure explaining an example of the setting screen of the alarm function which concerns on embodiment. 実施形態に係るアラーム制御処理のフローチャートである。4 is a flowchart of alarm control processing according to the embodiment; 実施形態に係るスリープ制御処理のフローチャートである。6 is a flowchart of sleep control processing according to the embodiment; 実施形態に係るハードスリープ処理のフローチャートである。6 is a flowchart of hard sleep processing according to the embodiment; 実施形態に係る電源制御処理のフローチャートである。4 is a flowchart of power control processing according to the embodiment; 実施形態に係るモータ制御処理のフローチャートである。4 is a flowchart of motor control processing according to the embodiment; 変形例に係る機器の制御装置及びロボットの機能構成を示すブロック図である。FIG. 11 is a block diagram showing functional configurations of a device control device and a robot according to a modification;

以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当部分には同一符号を付す。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings.

(実施形態)
本発明における機器の制御装置を図1に示すロボット200に適用した実施形態について、図面を参照して説明する。実施形態に係るロボット200は、充電可能なバッテリーで駆動する、小型の動物を模したペットロボットである。ロボット200は、図1に示すように、目を模した装飾部品202及びふさふさの毛203を備えた外装201に覆われている。また、外装201の中には、ロボット200の筐体207が収納されている。図2に示すように、ロボット200の筐体207は、頭部204、連結部205及び胴体部206で構成され、頭部204と胴体部206とが連結部205で連結されている。
(embodiment)
An embodiment in which a device control device according to the present invention is applied to a robot 200 shown in FIG. 1 will be described with reference to the drawings. The robot 200 according to the embodiment is a pet robot modeled after a small animal that is driven by a rechargeable battery. As shown in FIG. 1, the robot 200 is covered with an exterior 201 having eye-like decorative parts 202 and bushy hair 203 . A housing 207 of the robot 200 is accommodated in the exterior 201 . As shown in FIG. 2 , the housing 207 of the robot 200 is composed of a head 204 , a connecting portion 205 and a body portion 206 , and the head portion 204 and the body portion 206 are connected by the connecting portion 205 .

なお、以下の説明では、ロボット200を床等の載置面に普通に置いた場合を想定して、ロボット200の顔に相当する部分(頭部204の胴体部206とは反対側の部分)の方向を前、お尻に相当する部分(胴体部206の頭部204とは反対側の部分)の方向を後ろとする。また、ロボット200を載置面に普通に置いた場合に載置面に接触する部分の方向を下、その反対の方向を上とする。そして、ロボット200の前後方向に延びる直線に直交し、かつ、上下方向に延びる直線にも直交する方向を、幅方向とする。 In the following description, assuming that the robot 200 is normally placed on a mounting surface such as the floor, the portion corresponding to the face of the robot 200 (the portion of the head 204 opposite to the body portion 206) The direction of the front is defined as the front, and the direction of the portion corresponding to the buttocks (the portion of the body 206 opposite to the head 204) is defined as the rear. Also, when the robot 200 is normally placed on the mounting surface, the direction of the part that comes into contact with the mounting surface is the downward direction, and the opposite direction is the upward direction. A direction perpendicular to the straight line extending in the front-rear direction of the robot 200 and also perpendicular to the straight line extending in the vertical direction is defined as the width direction.

胴体部206は、図2に示すように、前後方向に延びている。そして、胴体部206は、ロボット200が置かれている床やテーブル等の載置面に、外装201を介して接触する。また、図2に示すように、胴体部206の前端部にひねりモータ221が備えられており、頭部204が連結部205を介して胴体部206の前端部に連結されている。そして、連結部205には、上下モータ222が備えられている。なお、図2では、ひねりモータ221は胴体部206に備えられているが、連結部205に備えられていてもよいし、頭部204に備えられていてもよい。 The body portion 206 extends in the front-rear direction, as shown in FIG. Then, the body portion 206 comes into contact with a placement surface such as a floor or a table on which the robot 200 is placed via the exterior 201 . Further, as shown in FIG. 2 , a twist motor 221 is provided at the front end of the body 206 , and the head 204 is connected to the front end of the body 206 via a connecting part 205 . A vertical motor 222 is provided in the connecting portion 205 . Although the torsion motor 221 is provided in the body portion 206 in FIG.

連結部205は、連結部205を通り胴体部206の前後方向に延びる第1回転軸を中心として(ひねりモータ221により)回転自在に、胴体部206と頭部204とを連結している。筐体207の正面図として図4及び図5に示すように、ひねりモータ221は、頭部204を、胴体部206に対して、第1回転軸を中心として時計回り(右回り)に正転角度範囲内で回転(正転)させたり、反時計回り(左回り)に逆転角度範囲内で回転(逆転)させたりする。なお、この説明における時計回りは、胴体部206から頭部204の方向を見た時の時計回りである。また、時計回りの回転を「右方へのひねり回転」、反時計回りの回転を「左方へのひねり回転」とも呼ぶことにする。右方又は左方にひねり回転させる角度の最大値は任意であるが、本実施形態では左右とも90度まで回転可能であるものとする。図4及び図5では、図3に示す、頭部204を右方へも左方へもひねっていない状態における頭部204の角度(以下「ひねり基準角度」)を0度としている。そして、最も右方へひねり回転(時計回りに回転)させた時の角度を-90度、最も左方へひねり回転(反時計回りに回転)させた時の角度を+90度、としている。 Connecting portion 205 connects body portion 206 and head portion 204 so as to be rotatable (by twist motor 221 ) about a first rotating shaft extending in the longitudinal direction of body portion 206 through connecting portion 205 . As shown in FIGS. 4 and 5 as front views of the housing 207, the twist motor 221 rotates the head 204 clockwise (right) about the first rotation axis with respect to the body 206. Rotate (forward) within the angle range, or rotate (reverse) counterclockwise (counterclockwise) within the reverse angle range. Note that the clockwise rotation in this description is the clockwise rotation when the head 204 is viewed from the body 206 . In addition, the clockwise rotation is also called "right twist rotation", and the counterclockwise rotation is also called "left twist rotation". Although the maximum value of the twisting angle to the right or left is arbitrary, in this embodiment, it is assumed that both left and right can be rotated up to 90 degrees. 4 and 5, the angle of the head 204 when the head 204 is not twisted to the right or left (hereinafter referred to as "reference twist angle") is 0 degrees. The angle at the most rightward twisting rotation (clockwise rotation) is -90 degrees, and the most leftward twisting rotation (counterclockwise rotation) angle is +90 degrees.

また、連結部205は、連結部205を通り胴体部206の幅方向に延びる第2回転軸を中心として(上下モータ222により)回転自在に、胴体部206と頭部204とを連結する。筐体207の側面図として図6及び図7に示すように、上下モータ222は、頭部204を、第2回転軸を中心として上方に正転角度範囲内で回転(正転)させたり、下方に逆転角度範囲内で回転(逆転)させたりする。上方又は下方に回転させる角度の最大値は任意だが、本実施形態では上下とも75度まで回転可能であるものとする。図6及び図7では、図2に示す、頭部204を上方にも下方にも回転させていない状態における頭部204の角度(以下「上下基準角度」)を0度、最も下方に回転させた時の角度を-75度、最も上方に回転させた時の角度を+75度、としている。頭部204は、第2回転軸を中心とする上下の回転によって上下基準角度又は上下基準角度より下方に回転している場合は、ロボット200が置かれている床やテーブル等の載置面に、外装201を介して接触可能である。なお、図2では、第1回転軸と第2回転軸とが互いに直交している例が示されているが、第1及び第2回転軸は互いに直交していなくてもよい。 Further, the connecting portion 205 connects the body portion 206 and the head portion 204 so as to be rotatable (by the vertical motor 222 ) about the second rotation shaft extending in the width direction of the body portion 206 through the connecting portion 205 . As shown in FIGS. 6 and 7 as side views of the housing 207, the up-down motor 222 rotates (forwards) the head 204 upward about the second rotation axis within the forward rotation angle range, It rotates (reverses) downward within the reversal angle range. Although the maximum value of the angle for upward or downward rotation is arbitrary, in this embodiment, it is possible to rotate up to 75 degrees both upward and downward. 6 and 7, the angle of the head 204 in the state shown in FIG. The angle is -75 degrees when it is fully extended, and +75 degrees when it is rotated to the highest position. When the head 204 rotates vertically around the second rotation axis to a vertical reference angle or below the vertical reference angle, the robot 200 is placed on a floor, table, or other mounting surface. Contact is possible via the outer packaging 201 . Although FIG. 2 shows an example in which the first rotation axis and the second rotation axis are orthogonal to each other, the first and second rotation axes do not have to be orthogonal to each other.

また、ロボット200は、図2に示すように、頭部204にタッチセンサ211を備え、ユーザが頭部204を撫でたり叩いたりしたことを検出することができる。また、胴体部206にもタッチセンサ211を備え、ユーザが胴体部206を撫でたり叩いたりしたことを検出することができる。 In addition, as shown in FIG. 2, the robot 200 has a touch sensor 211 on the head 204 and can detect that the user strokes or hits the head 204 . Moreover, the body part 206 is also provided with a touch sensor 211, and it is possible to detect that the body part 206 is stroked or hit by the user.

また、ロボット200は、胴体部206に加速度センサ212を備え、ロボット200自体の姿勢の検出や、ユーザによって持ち上げられたり、向きを変えられたり、投げられたりしたことを検出することができる。また、ロボット200は、胴体部206にマイクロフォン213を備え、外部の音を検出することができる。さらに、ロボット200は、胴体部206にスピーカ231を備え、スピーカ231を用いてロボット200の鳴き声を発したり、歌を歌ったりすることができる。 The robot 200 also has an acceleration sensor 212 on its body 206, and can detect the posture of the robot 200 itself, and whether it has been lifted, turned, or thrown by the user. The robot 200 also has a microphone 213 on its body 206 and can detect external sounds. Furthermore, the robot 200 has a speaker 231 on the body portion 206, and using the speaker 231, the robot 200 can make a cry or sing a song.

また、ロボット200は、胴体部206に照度センサ214を備え、周囲の明るさを検出することができる。なお、外装201は光を通す素材でできているため、外装201で覆われていても、ロボット200は、照度センサ214で周囲の明るさを検出可能である。 The robot 200 also has an illuminance sensor 214 on its body 206 and can detect the brightness of the surroundings. Note that since the exterior 201 is made of a material that allows light to pass through, the robot 200 can detect the ambient brightness with the illuminance sensor 214 even when covered with the exterior 201 .

また、ロボット200は、ひねりモータ221や上下モータ222などの電源としてのバッテリー(図9参照)と、ワイヤレス給電受信回路255を備えている。ワイヤレス給電受信回路255は、胴体部206に設けられており、バッテリーを充電する際に、ロボット200とは別個に設けられたワイヤレス充電装置(図示せず)から電力を受信する。 The robot 200 also includes a battery (see FIG. 9) as a power source for the twist motor 221 and the vertical motor 222, and a wireless power supply reception circuit 255. FIG. The wireless power receiving circuit 255 is provided in the body section 206 and receives power from a wireless charging device (not shown) provided separately from the robot 200 when charging the battery.

なお、本実施形態では加速度センサ212、マイクロフォン213、照度センサ214及びスピーカ231が胴体部206に備えられているが、これらの全て又は一部が頭部204に備えられていてもよい。また、胴体部206に備えられた加速度センサ212、マイクロフォン213、照度センサ214及びスピーカ231に加えて、これらの全て又は一部を頭部204にも備えるようにしてもよい。また、タッチセンサ211は、頭部204及び胴体部206にそれぞれ備えられているが、頭部204又は胴体部206のいずれか片方のみに備えられていてもよい。またこれらはいずれも複数備えられていてもよい。 In this embodiment, the acceleration sensor 212 , the microphone 213 , the illuminance sensor 214 and the speaker 231 are provided on the body 206 , but all or part of them may be provided on the head 204 . In addition to the acceleration sensor 212 , the microphone 213 , the illuminance sensor 214 and the speaker 231 provided in the body section 206 , all or part of these may also be provided in the head section 204 . Also, the touch sensor 211 is provided on each of the head 204 and the body 206 , but may be provided on either the head 204 or the body 206 . Moreover, any of these may be provided in plurality.

また、本実施形態では、ロボット200は、筐体207が外装201に覆われているため、頭部204や胴体部206は、ロボット200が置かれている床やテーブル等の載置面に、外装201を介して間接的に接触している。しかし、このような形態には限定されず、頭部204や胴体部206は、直接的に載置面に接触してもよい。例えば、外装201の下の部分(載置面と接触する部分)が存在せずに、筐体207の下の部分(載置面と接触する部分)がむき出しになっていてもよいし、外装201が全く存在せずに、筐体207全体がむき出しになっていてもよい。 In addition, in the present embodiment, the housing 207 of the robot 200 is covered with the exterior 201, so the head 204 and the body 206 are placed on a mounting surface such as the floor or table on which the robot 200 is placed. 201 and are in direct contact with each other. However, it is not limited to such a form, and the head 204 and the body 206 may directly contact the mounting surface. For example, the lower portion of the housing 207 (the portion in contact with the placement surface) may be exposed without the portion under the exterior 201 (the portion in contact with the placement surface). The entire housing 207 may be exposed without the housing 201 at all.

次に、ロボット200の機能構成について説明する。ロボット200は、図8に示すように、機器の制御装置100と、センサ部210と、駆動部220と、出力部230と、操作部240と、電源制御部250と、を備える。そして、機器の制御装置100は、処理部110と、記憶部120と、通信部130と、を備える。図8では、機器の制御装置100と、センサ部210、駆動部220、出力部230、操作部240及び電源制御部250とが、バスラインBLを介して接続されているが、これは一例である。機器の制御装置100と、センサ部210、駆動部220、出力部230、操作部240及び電源制御部250とは、USB(Universal Serial Bus)ケーブル等の有線インタフェースや、Bluetooth(登録商標)等の無線インタフェースで接続されていてもよい。また、処理部110と記憶部120や通信部130とは、バスラインBL等を介して接続されていてもよい。 Next, the functional configuration of the robot 200 will be described. The robot 200 includes a device control device 100, a sensor section 210, a drive section 220, an output section 230, an operation section 240, and a power supply control section 250, as shown in FIG. The device control device 100 includes a processing unit 110 , a storage unit 120 , and a communication unit 130 . In FIG. 8, the device control device 100, the sensor section 210, the drive section 220, the output section 230, the operation section 240, and the power control section 250 are connected via the bus line BL, but this is just an example. be. The control device 100 of the device, the sensor section 210, the drive section 220, the output section 230, the operation section 240, and the power control section 250 are connected by a wired interface such as a USB (Universal Serial Bus) cable or a Bluetooth (registered trademark) interface. It may be connected via a wireless interface. Also, the processing unit 110, the storage unit 120, and the communication unit 130 may be connected via a bus line BL or the like.

機器の制御装置100は、処理部110及び記憶部120により、ロボット200の動作を制御する。 The device control device 100 controls the operation of the robot 200 using the processing unit 110 and the storage unit 120 .

処理部110は、例えば、CPU(Central Processing Unit)等で構成され、記憶部120に記憶されたプログラムにより、後述する各種処理を実行する。なお、処理部110は、複数の処理を並行して実行するマルチスレッド機能に対応しているため、後述する各種処理を並行に実行することができる。また、処理部110は、クロック機能やタイマー機能も備えており、日時等を計時することができる。 The processing unit 110 is configured by, for example, a CPU (Central Processing Unit) or the like, and executes various processes described later by a program stored in the storage unit 120 . Note that the processing unit 110 supports a multi-thread function that executes a plurality of processes in parallel, so various processes described later can be executed in parallel. The processing unit 110 also has a clock function and a timer function, and can keep time such as date and time.

記憶部120は、ROM(Read Only Memory)、フラッシュメモリ、RAM(Random Access Memory)等で構成される。ROMには、処理部110のCPUが実行するプログラム及びプログラムを実行する上で予め必要なデータが、記憶されている。フラッシュメモリは書き込み可能な不揮発性のメモリであり、電源OFF後も保存させておきたいデータが記憶される。RAMには、プログラム実行中に作成されたり変更されたりするデータが記憶される。 The storage unit 120 includes a ROM (Read Only Memory), a flash memory, a RAM (Random Access Memory), and the like. The ROM stores programs executed by the CPU of the processing unit 110 and data required in advance for executing the programs. A flash memory is a writable non-volatile memory, and stores data that should be preserved even after the power is turned off. RAM stores data that is created or changed during program execution.

通信部130は、無線LAN(Local Area Network)、Bluetooth(登録商標)等に対応した通信モジュールを備え、スマートフォン等の外部装置とデータ通信する。データ通信の内容としては、例えば、後述するアラーム機能やスリープ機能の設定に用いるアラーム設定データやスリープ設定データがある。 The communication unit 130 includes a communication module compatible with a wireless LAN (Local Area Network), Bluetooth (registered trademark), etc., and performs data communication with an external device such as a smart phone. Contents of data communication include, for example, alarm setting data and sleep setting data used for setting an alarm function and a sleep function, which will be described later.

センサ部210は、前述したタッチセンサ211、加速度センサ212、マイクロフォン213、及び照度センサ214を備える。処理部110は、バスラインBLを介して、センサ部210が備える各種センサが検出した検出値をロボット200に作用する外部刺激を表す外部刺激データとして取得する。なお、センサ部210は、タッチセンサ211、加速度センサ212、マイクロフォン213、照度センサ214以外のセンサを備えてもよい。センサ部210が備えるセンサの種類を増やすことにより、処理部110が取得できる外部刺激の種類を増やすことができる。 The sensor unit 210 includes the touch sensor 211, acceleration sensor 212, microphone 213, and illuminance sensor 214 described above. The processing unit 110 acquires detection values detected by various sensors included in the sensor unit 210 as external stimulus data representing external stimuli acting on the robot 200 via the bus line BL. Note that the sensor unit 210 may include sensors other than the touch sensor 211 , the acceleration sensor 212 , the microphone 213 and the illuminance sensor 214 . By increasing the types of sensors included in the sensor unit 210, the types of external stimuli that the processing unit 110 can acquire can be increased.

タッチセンサ211は、何らかの物体が接触したことを検出する。タッチセンサ211は、例えば圧力センサや静電容量センサにより構成される。処理部110は、タッチセンサ211からの検出値に基づいて、接触強度や接触時間を取得し、これらの値に基づいて、ユーザによってロボット200が撫でられていることや、叩かれたりしていること等の外部刺激を検出することができる(例えば特開2019-217122号公報を参照)。なお、処理部110は、これらの外部刺激をタッチセンサ211以外のセンサで検出してもよい(例えば特許第6575637号公報を参照)。 The touch sensor 211 detects contact with some object. The touch sensor 211 is configured by, for example, a pressure sensor or a capacitance sensor. The processing unit 110 acquires the contact strength and the contact time based on the detection values from the touch sensor 211, and based on these values, the robot 200 is being stroked or hit by the user. It is possible to detect external stimuli such as things (see, for example, Japanese Patent Application Laid-Open No. 2019-217122). Note that the processing unit 110 may detect these external stimuli using a sensor other than the touch sensor 211 (see Japanese Patent No. 6575637, for example).

加速度センサ212は、ロボット200の胴体部206の前後方向、幅(左右)方向及び上下方向から成る3軸方向の加速度を検出する。加速度センサ212は、ロボット200が静止しているときには重力加速度を検出するので、処理部110は、加速度センサ212が検出した重力加速度に基づいて、ロボット200の現在の姿勢を検出することができる。また、例えばユーザがロボット200を持ち上げたり投げたりした場合には、加速度センサ212は、重力加速度に加えてロボット200の移動に伴う加速度を検出する。したがって、処理部110は、加速度センサ212が検出した検出値から重力加速度の成分を除去することにより、ロボット200の動きを検出することができる。 The acceleration sensor 212 detects the acceleration of the body portion 206 of the robot 200 in three axial directions including the longitudinal direction, the width (left and right) direction, and the vertical direction. Since the acceleration sensor 212 detects the gravitational acceleration when the robot 200 is stationary, the processing unit 110 can detect the current posture of the robot 200 based on the gravitational acceleration detected by the acceleration sensor 212. Further, for example, when the user lifts or throws the robot 200 , the acceleration sensor 212 detects acceleration due to movement of the robot 200 in addition to gravitational acceleration. Therefore, the processing unit 110 can detect the movement of the robot 200 by removing the gravitational acceleration component from the detection value detected by the acceleration sensor 212 .

マイクロフォン213は、ロボット200の周囲の音を検出する。処理部110は、マイクロフォン213が検出した音の成分に基づき、例えばユーザがロボット200に呼びかけていることや、手を叩いていること等を検出することができる。 Microphone 213 detects sounds around robot 200 . Based on the sound components detected by the microphone 213, the processing unit 110 can detect, for example, that the user is calling the robot 200 or clapping his/her hands.

照度センサ214は、フォトダイオード等の受光素子を備え、周囲の明るさ(照度)を検出する。例えば、処理部110は、照度センサ214で周囲が暗いことを検出したら、ロボット200を疑似的に寝かせる(スリープ制御モードにする)制御を行うことができる。 The illuminance sensor 214 includes a light receiving element such as a photodiode and detects ambient brightness (illuminance). For example, when the illuminance sensor 214 detects that the surroundings are dark, the processing unit 110 can control the robot 200 to lie down (put in a sleep control mode).

駆動部220は、ロボット200(自機)の動きを表現するための可動部として、ひねりモータ221及び上下モータ222を備える。駆動部220(ひねりモータ221及び上下モータ222)は、処理部110によって駆動される。ひねりモータ221及び上下モータ222は、サーボモータであり、処理部110から動作時間及び動作角度が指定されて回転を指示されると、指定された動作時間後までに、指定された動作角度の位置まで回転するように動作する。なお、駆動部220は可動部として他の適当なアクチェータ、例えば流体圧モータ等を備えてもよい。処理部110が駆動部220を制御することにより、ロボット200は、例えば頭部204を持ち上げたり(第2回転軸を中心として上方に回転させたり)、横にひねったり(第1回転軸を中心として右方又は左方にひねり回転させたり)するような動作を表現することができる。これらの動作を行うための動作制御データは、後述するモーションテーブル125に記録されており、検出した外部刺激や後述する成長値等に基づいて、ロボット200の動作が制御される。 The driving unit 220 includes a twist motor 221 and an up-down motor 222 as movable units for representing the movement of the robot 200 (self). The drive unit 220 (twist motor 221 and vertical motor 222 ) is driven by the processing unit 110 . The twist motor 221 and the up/down motor 222 are servo motors. When the processing unit 110 designates an operation time and an operation angle and instructs rotation, the motor 221 reaches the position of the designated operation angle by the end of the designated operation time. operates to rotate up to It should be noted that the driving section 220 may be provided with other appropriate actuators such as a fluid pressure motor as a movable section. The processing unit 110 controls the drive unit 220 so that the robot 200 can, for example, lift the head 204 (rotate it upward about the second axis of rotation) or twist it sideways (about the first axis of rotation). to the right or left) can be expressed. Motion control data for performing these motions is recorded in a motion table 125, which will be described later, and the motion of the robot 200 is controlled based on detected external stimuli, growth values, etc., which will be described later.

出力部230は、スピーカ231を備え、処理部110が音のデータを出力部230に入力することにより、スピーカ231から音が出力される。例えば、処理部110がロボット200の鳴き声のデータを出力部230に入力することにより、ロボット200は疑似的な鳴き声を発する。この鳴き声のデータも、モーションテーブル125に記録されており、検出した外部刺激や後述する成長値等に基づいて鳴き声が選択される。なお、スピーカ231で構成される出力部230は、音出力部とも呼ばれる。 The output unit 230 includes a speaker 231 , and sound is output from the speaker 231 when the processing unit 110 inputs sound data to the output unit 230 . For example, when the processing unit 110 inputs the bark data of the robot 200 to the output unit 230, the robot 200 emits a pseudo bark. This barking data is also recorded in the motion table 125, and the barking is selected based on the detected external stimulus, the growth value described later, and the like. Note that the output unit 230 configured by the speaker 231 is also called a sound output unit.

また、出力部230として、スピーカ231に代えて、又はスピーカ231に加えて、液晶ディスプレイ等のディスプレイや、LED(Light Emitting Diode)等の発光部を備え、検出した外部刺激や後述する成長値等に基づいた画像をディスプレイに表示したり、LED等を発光させたりしてもよい。 Further, as the output unit 230, instead of the speaker 231 or in addition to the speaker 231, a display such as a liquid crystal display and a light emitting unit such as an LED (Light Emitting Diode) are provided, and the detected external stimulus, the growth value described later, etc. may be displayed on a display, or an LED or the like may be caused to emit light.

操作部240は、例えば、操作ボタン、ボリュームつまみ等から構成される。操作部240は、ユーザ(所有者や被貸与者)による操作、例えば、電源ON/OFF、出力音のボリューム調整等を受け付けるためのインタフェースである。なお、ロボット200は生き物感をより高めるために、操作部240として電源スイッチ241のみを外装201の内側に備え、それ以外の操作ボタンやボリュームつまみ等を備えなくてもよい。この場合でも、通信部130を介して接続した外部のスマートフォン等を用いてロボット200のボリューム調整等の操作を行うことができる。 The operation unit 240 includes, for example, operation buttons, a volume knob, and the like. The operation unit 240 is an interface for receiving operations by a user (owner or lender), such as power ON/OFF, volume adjustment of output sound, and the like. Note that the robot 200 may be provided with only the power switch 241 as the operation unit 240 inside the exterior 201, and may not be provided with other operation buttons, volume knobs, and the like, in order to further enhance the feeling of life. Even in this case, operations such as volume adjustment of the robot 200 can be performed using an external smartphone or the like connected via the communication unit 130 .

電源制御部250は、詳細は後述するが、図9に示すように、サブマイコン251等を備え、ロボット200のバッテリー253の充電、ロボット200の主な機能を実現する主機能部290の電源のON/OFF制御、等の電源制御を行う。なお、主機能部290とは、ロボット200を構成する機能部のうち、電源制御部250を除いた部分であり、処理部110、駆動部220等を含む。ロボット200では、生き物感を出すために、充電ケーブル等を接続せずに、ワイヤレス充電で前記バッテリーが充電される。ワイヤレス充電の方式は任意であるが、本実施形態では電磁誘導方式が用いられる。 Although the details will be described later, the power supply control unit 250 includes a sub-microcomputer 251 and the like as shown in FIG. It performs power supply control such as ON/OFF control. Note that the main functional unit 290 is a functional unit of the robot 200 excluding the power control unit 250, and includes the processing unit 110, the driving unit 220, and the like. In the robot 200, the battery is charged by wireless charging without connecting a charging cable or the like in order to give a feeling of life. Although any wireless charging method may be used, an electromagnetic induction method is used in this embodiment.

ロボット200をワイヤレス充電装置256の上に載せると、胴体部206の底面に設けられたワイヤレス給電受信回路255と外部のワイヤレス充電装置256との間で誘導磁束が発生し、充電が行われる。電磁誘導方式では、充電中にロボット200が移動したりして、ワイヤレス給電受信回路255とワイヤレス充電装置256との距離が離れてしまうと、正常な充電が行えない。このため、充電中はロボット200(駆動部220)の動作を制限する信号(動作制限信号)が、サブマイコン251から、処理部110に送信され、処理部110は、ロボット200の動作を制限するように制御する。この仕組みについても後述する。 When the robot 200 is placed on the wireless charging device 256, an induced magnetic flux is generated between the wireless power supply receiving circuit 255 provided on the bottom surface of the body section 206 and the external wireless charging device 256, and charging is performed. In the electromagnetic induction method, if the robot 200 moves during charging and the distance between the wireless power supply receiving circuit 255 and the wireless charging device 256 increases, normal charging cannot be performed. Therefore, during charging, a signal (operation restriction signal) for restricting the operation of the robot 200 (driving unit 220) is transmitted from the sub-microcomputer 251 to the processing unit 110, and the processing unit 110 restricts the operation of the robot 200. to control. This mechanism will also be described later.

図8に戻り、記憶部120に記憶されるデータのうち、本実施形態に特徴的なデータである、感情データ121、感情変化データ122、成長テーブル123、動作内容テーブル124、モーションテーブル125及び成長日数データ126について、順に説明する。 Returning to FIG. 8, of the data stored in the storage unit 120, the emotion data 121, the emotion change data 122, the growth table 123, the motion table 124, the motion table 125, and the growth data, which are data characteristic of this embodiment. The number of days data 126 will be described in order.

感情データ121は、ロボット200に疑似的な感情を持たせるためのデータであり、感情マップ300上の座標を示すデータ(X,Y)である。感情マップ300は図10に示すように、X軸311として安心度(不安度)の軸、Y軸312として興奮度(無気力度)の軸を持つ2次元の座標系で表される。感情マップ上の原点310(0,0)が通常時の感情を表す。そして、X座標の値(X値)が正でその絶対値が大きくなるほど安心度が高く、Y座標の値(Y値)が正でその絶対値が大きくなるほど興奮度が高い感情を表す。また、X値が負でその絶対値が大きくなるほど不安度が高く、Y値が負でその絶対値が大きくなるほど無気力度が高い感情を表す。 The emotion data 121 is data for giving the robot 200 a simulated emotion, and is data (X, Y) indicating coordinates on the emotion map 300 . As shown in FIG. 10, the emotion map 300 is represented by a two-dimensional coordinate system having an X-axis 311 representing the degree of security (anxiety) and a Y-axis 312 representing the degree of excitement (lethargy). An origin 310 (0, 0) on the emotion map represents a normal emotion. A positive value of the X coordinate (X value) indicates a higher sense of security, and a positive value of the Y coordinate (Y value) indicates a higher degree of excitement when the absolute value increases. In addition, the negative X value with a larger absolute value indicates a higher degree of anxiety, and the negative Y value with a larger absolute value indicates a higher level of lethargy.

感情データ121は、互いに異なる複数(本実施形態では4つ)の疑似的な感情を表す。本実施形態では、疑似的な感情を表す値のうち、安心度と不安度を1つの軸(X軸)上でまとめて表し、興奮度と無気力度を別の1つの軸(Y軸)上でまとめて表している。したがって、感情データ121は、X値(安心度、不安度)とY値(興奮度、無気力度)の2つの値を持ち、X値とY値とで表される感情マップ300上の点が、ロボット200の疑似的な感情を表す。感情データ121の初期値は(0,0)である。 The emotion data 121 represents a plurality (four in this embodiment) of pseudo emotions that are different from each other. In this embodiment, among the values representing pseudo emotions, the degree of security and the degree of anxiety are collectively expressed on one axis (X-axis), and the degree of excitement and lethargy are expressed on another axis (Y-axis). are summarized in . Therefore, the emotion data 121 has two values, an X value (relief, anxiety) and a Y value (excitement, lethargy). , represent the pseudo emotions of the robot 200 . The initial value of emotion data 121 is (0, 0).

感情データ121は、ロボット200の疑似的な感情を表すデータである。なお、図10では感情マップ300が2次元の座標系で表されているが、感情マップ300の次元数は任意である。感情マップ300を1次元で規定し、感情データ121として1つの値が設定されるようにしてもよい。また、他の軸を加えて3次元以上の座標系で感情マップ300を規定し、感情データ121として感情マップ300の次元数の個数の値が設定されるようにしてもよい。 Emotion data 121 is data representing a pseudo emotion of robot 200 . Although the emotion map 300 is represented by a two-dimensional coordinate system in FIG. 10, the number of dimensions of the emotion map 300 is arbitrary. The emotion map 300 may be defined in one dimension and one value may be set as the emotion data 121 . Alternatively, the emotion map 300 may be defined by a coordinate system of three or more dimensions by adding other axes, and the number of dimensions of the emotion map 300 may be set as the emotion data 121 .

本実施形態においては、感情マップ300の初期値としてのサイズは、図10の枠301に示すように、X値もY値も最大値が100、最小値が-100となっている。そして、第1期間の間、ロボット200の疑似的な成長日数が1日増える度に、感情マップ300の最大値、最小値ともに2ずつ拡大されていく。ここで第1期間とは、ロボット200が疑似的に成長する期間であり、ロボット200の疑似的な生誕から例えば50日の期間である。なお、ロボット200の疑似的な生誕とは、ロボット200の工場出荷後のユーザによる初回の起動時である。成長日数が25日になると、図10の枠302に示すように、X値もY値も最大値が150、最小値が-150となる。そして、第1期間(この例では50日)が経過すると、それにより、ロボット200の疑似的な成長が完了したとして、図10の枠303に示すように、X値もY値も最大値が200、最小値が-200となって、感情マップ300のサイズが固定される。 In this embodiment, the initial size of the emotion map 300 is 100 as the maximum value and -100 as the minimum value for both the X value and the Y value, as shown in the frame 301 in FIG. Then, during the first period, each time the number of artificial growth days of the robot 200 increases by one day, both the maximum value and the minimum value of the emotion map 300 are expanded by two. Here, the first period is a period during which the robot 200 grows artificially, and is a period of, for example, 50 days from the artificial birth of the robot 200 . It should be noted that the pseudo-birth of the robot 200 is when the robot 200 is activated for the first time by the user after the robot 200 is shipped from the factory. When the number of growth days reaches 25, as shown in the frame 302 in FIG. 10, both the X value and the Y value have a maximum value of 150 and a minimum value of -150. Then, when the first period (50 days in this example) has passed, the pseudo growth of the robot 200 is completed, and the maximum values of the X value and the Y value are reached as shown in the frame 303 in FIG. 200, the minimum value is -200, and the size of the emotion map 300 is fixed.

感情データ121の設定可能範囲は、感情マップ300によって規定される。このため、感情マップ300のサイズが拡大するにつれて、設定可能な感情データ121の範囲が拡大する。感情データ121の設定可能範囲が拡大することにより、より豊かな感情表現が可能になるので、ロボット200の疑似的な成長が、感情マップ300のサイズの拡大によって表現されることになる。そして、感情マップ300のサイズは第1期間経過後に固定され、それにより、ロボット200の疑似的な成長が終了する。なお、ロボット200の疑似的な成長の停止条件は、上述の「第1期間が経過したら停止」に限定されず、他の条件を追加してもよい。例えば、「4つの性格値のいずれかが10(最大)になったら停止」としてもよい。この条件で成長を停止させると、4つの性格のうち1つの性格のみが最大となった時点で性格が固定されるため、特定の性格を強く出すことが可能となる。 The settable range of emotion data 121 is defined by emotion map 300 . Therefore, as the size of the emotion map 300 increases, the range of emotion data 121 that can be set increases. By expanding the settable range of the emotion data 121, it becomes possible to express richer emotions. Then, the size of the emotion map 300 is fixed after the first period has elapsed, thereby ending the pseudo-growth of the robot 200 . It should be noted that the condition for stopping the pseudo growth of the robot 200 is not limited to "stop when the first period elapses" described above, and other conditions may be added. For example, it may be "stop when any of the four personality values reaches 10 (maximum)". If the growth is stopped under this condition, the character is fixed when only one character out of the four characters reaches the maximum, so it is possible to strongly bring out a specific character.

感情変化データ122は、感情データ121のX値及びY値の各々を増減させる変化量を設定するデータである。本実施形態では、感情データ121のXに対応する感情変化データ122として、X値を増加させるDXPと、X値を減少させるDXMとがあり、感情データ121のY値に対応する感情変化データ122として、Y値を増加させるDYPと、Y値を減少させるDYMとがある。すなわち、感情変化データ122は、以下の4つの変数からなり、ロボット200の疑似的な感情を変化させる度合いを示すデータである。
DXP:安心し易さ(感情マップでのX値のプラス方向への変化し易さ)
DXM:不安になり易さ(感情マップでのX値のマイナス方向への変化し易さ)
DYP:興奮し易さ(感情マップでのY値のプラス方向への変化し易さ)
DYM:無気力になり易さ(感情マップでのY値のマイナス方向への変化し易さ)
The emotion change data 122 is data for setting the amount of change by which each of the X value and the Y value of the emotion data 121 is increased or decreased. In the present embodiment, as the emotion change data 122 corresponding to X of the emotion data 121, there are DXP for increasing the X value and DXM for decreasing the X value. DYP, which increases the Y value, and DYM, which decreases the Y value. That is, the emotion change data 122 is data indicating the degree to which the pseudo emotion of the robot 200 is changed, which consists of the following four variables.
DXP: Ease of feeling at ease (Ease of change in the positive direction of the X value on the emotion map)
DXM: Ease of anxiety (ease of change in the negative direction of the X value on the emotion map)
DYP: excitability (ease of change in the positive direction of the Y value on the emotion map)
DYM: Ease of becoming lethargic (Ease of change in the negative direction of the Y value on the emotion map)

本実施形態では、一例として、これらの変数の初期値をいずれも10とし、後述する動作制御処理の中の感情変化データを学習する処理により、最大20まで増加するものとしている。この学習処理では、感情データの値が感情マップ300の最大値又は最小値に達したかに基づく条件(外部刺激データに基づく第1条件)に応じて、感情変化データを変化させる。なお、外部刺激データに基づく第1条件としては、上記条件に限らず、感情マップ300のサイズが固定される前に感情変化データを変化(学習)させる条件(例えば、感情データ121で表されるロボット200の疑似的な感情の度合いに関する条件)であれば任意の条件を設定可能である。この学習処理により、感情変化データ122、すなわち感情の変化度合いが変化するので、ロボット200は、ユーザによるロボット200との接し方に応じて、様々な性格を持つことになる。つまり、ロボット200の性格は、ユーザの接し方により、個々に異なって形成されることになる。 In the present embodiment, as an example, the initial values of these variables are all set to 10, and are increased to a maximum of 20 by the processing of learning emotion change data in the operation control processing to be described later. In this learning process, emotion change data is changed according to a condition (first condition based on external stimulus data) based on whether the value of emotion data has reached the maximum value or minimum value of emotion map 300 . Note that the first condition based on the external stimulus data is not limited to the above condition, but a condition for changing (learning) the emotion change data before the size of the emotion map 300 is fixed (for example, the condition represented by the emotion data 121). Any condition can be set as long as it is a condition related to the degree of pseudo emotion of the robot 200 . This learning process changes the emotional change data 122, that is, the degree of emotional change, so that the robot 200 has various personalities depending on how the user interacts with the robot 200. FIG. In other words, the character of the robot 200 is individually formed differently depending on how the user interacts with it.

そこで、本実施形態では、各感情変化データ122から10を減算することにより、各性格データ(性格値)を導出する。すなわち、安心し易さを示すDXPから10引いた値を性格値(陽気)とし、不安になり易さを示すDXMから10引いた値を性格値(シャイ)とし、興奮し易さを示すDYPから10引いた値を性格値(活発)とし、無気力になり易さを示すDYMから10引いた値を性格値(甘えん坊)とする。これにより、例えば、図11に示すように、性格値(陽気)を軸411に、性格値(活発)を軸412に、性格値(シャイ)を軸413に、性格値(甘えん坊)を軸414に、それぞれプロットすることで、性格値レーダーチャート400を生成することができる。 Therefore, in this embodiment, each character data (character value) is derived by subtracting 10 from each emotion change data 122 . That is, the value obtained by subtracting 10 from DXP, which indicates the ease of feeling at ease, is defined as the personality value (cheerful), the value obtained by subtracting 10 from DXM, which indicates the tendency to become anxious, is defined as the personality value (shy), and the DYP, which indicates the ease of getting excited. A value obtained by subtracting 10 from DYM is defined as a personality value (active), and a value obtained by subtracting 10 from DYM, which indicates the tendency to become lethargic, is defined as a personality value (spoiled). As a result, for example, as shown in FIG. , respectively, a personality value radar chart 400 can be generated.

各性格値の初期値は0であるため、ロボット200の最初の性格は、性格値レーダーチャート400の原点410で表される。そして、ロボット200が成長するにつれて、センサ部210で検出された外部刺激等(ユーザのロボット200への接し方)によって、各性格値が10を上限として変化する。本実施形態のように4つの性格値が0から10まで変化する場合には、11の4乗=14641通りの性格を表現できることになる。 Since the initial value of each personality value is 0, the initial personality of the robot 200 is represented by the origin 410 of the personality value radar chart 400 . Then, as the robot 200 grows, each personality value changes with 10 as the upper limit depending on external stimuli detected by the sensor unit 210 (how the user touches the robot 200). When the four personality values vary from 0 to 10 as in this embodiment, 11 to the power of 4 = 14641 personality traits can be expressed.

本実施形態では、ロボット200の疑似的な成長度合いを示す成長度合いデータ(成長値)として、これら4つの性格値の中で、最も大きい値を用いる。そして、処理部110は、ロボット200の疑似的な成長につれて(成長値が大きくなるにつれて)、ロボット200の動作内容にバリエーションが生じるように制御する。このために処理部110が用いるデータが成長テーブル123である。 In this embodiment, the largest value among these four personality values is used as the growth degree data (growth value) indicating the artificial growth degree of the robot 200 . Then, the processing unit 110 performs control so that variations occur in the operation contents of the robot 200 as the robot 200 pseudo-growth (as the growth value increases). The data used by the processing unit 110 for this purpose is the growth table 123 .

図12に示すように、成長テーブル123には、センサ部210で検出された外部刺激等の動作トリガーに応じてロボット200が行う動作の種類と、成長値に応じて各動作が選択される確率(以下「動作選択確率」という)とが、記録されている。そして、成長値が小さい間は、性格値とは関係なく、動作トリガーに応じて設定される基本動作が選択され、成長値が増加すると、性格値に応じて設定される性格動作が選択されるように、動作選択確率が設定されている。また、成長値が増加するほど、選択されうる基本動作の種類が増加するように、動作選択確率が設定されている。なお、図12では、各動作トリガーに対して選択される性格動作を1つとしているが、基本動作と同様に、性格値の増加に応じて、選択される性格動作の種類を増加させてもよい。 As shown in FIG. 12, the growth table 123 includes the types of motions that the robot 200 performs in response to motion triggers such as external stimuli detected by the sensor unit 210, and the probabilities that each motion is selected according to the growth value. (hereinafter referred to as "action selection probability") is recorded. While the growth value is small, the basic action set according to the action trigger is selected regardless of the personality value, and when the growth value increases, the personality action set according to the personality value is selected. The action selection probability is set as follows. Also, the motion selection probability is set such that the more the growth value increases, the more types of basic motions can be selected. In FIG. 12, one character action is selected for each action trigger, but as with the basic actions, the types of character actions to be selected may be increased as the character value increases. good.

例えば、ロボット200の現在の性格値が、図11に示すように、性格値(陽気)が3、性格値(活発)が8、性格値(シャイ)が5、性格値(甘えん坊)が4であり、マイクロフォン213で大きな音を検出した場合を想定する。この場合、成長値は4つの性格値の中の最大値である8となり、動作トリガーは「大きな音がする」となる。そして、図12に示す成長テーブル123で、動作トリガーが「大きな音がする」で成長値が8の項目を参照すると、動作選択確率は、「基本動作2-0」が20%、「基本動作2-1」が20%、「基本動作2-2」が40%、「性格動作2-0」が20%であることがわかる。 For example, as shown in FIG. 11, the current personality value of the robot 200 is 3 (cheerful), 8 (active), 5 (shy), and 4 (spoiled). It is assumed that the microphone 213 detects a loud sound. In this case, the growth value is 8, which is the maximum value among the four personality values, and the action trigger is "makes a loud noise". In the growth table 123 shown in FIG. 12, referring to the item in which the action trigger is "loud noise" and the growth value is 8, the action selection probability is 20% for "basic action 2-0" and "basic action 2-0". 2-1" accounted for 20%, "basic action 2-2" accounted for 40%, and "character action 2-0" accounted for 20%.

つまり、この場合は、「基本動作2-0」が20%、「基本動作2-1」が20%、「基本動作2-2」が40%、「性格動作2-0」が20%の確率で選択される。そして、「性格動作2-0」が選択された場合は、4つの性格値に応じて、図13に示すような4種類の性格動作のいずれかの選択がさらに行われる。そして、ロボット200はここで選択された動作を実行する。この仕組みは後述する動作制御処理で実現される。なお、性格動作の中から動作を選択する動作モードを第1動作モードといい、基本動作の中から動作を選択する動作モードを第2動作モードという。 In other words, in this case, "basic action 2-0" is 20%, "basic action 2-1" is 20%, "basic action 2-2" is 40%, and "character action 2-0" is 20%. selected with probability. When "personality behavior 2-0" is selected, one of the four personality behaviors shown in FIG. 13 is further selected according to the four personality values. The robot 200 then executes the action selected here. This mechanism is implemented by an operation control process, which will be described later. An operation mode in which a motion is selected from character motions is called a first motion mode, and an motion mode in which a motion is selected from basic motions is called a second motion mode.

後述するが、性格動作は、4つの性格値それぞれの大きさに応じた確率で選択されるため、性格値の値が小さい(例えばほとんどが0)間は選択のバリエーションが少ない。そこで、本実施形態では、4つの性格値の中の最大値を成長値としている。これにより、性格動作として選択される動作のバリエーションが豊富になった時に第1動作モードが選択されるという効果がある。なお、性格値によって選択される動作のバリエーションが豊富になるか否かの判断指標としては、最大値だけでなく、合計値、平均値、最頻値等も使用可能であるので、成長値として、性格値の合計値、平均値、最頻値等を用いるようにしてもよい。 As will be described later, personality actions are selected with probabilities corresponding to the magnitudes of the four personality values, so there are few variations in selection while the personality values are small (for example, most of them are 0). Therefore, in the present embodiment, the maximum value among the four personality values is used as the growth value. As a result, there is an effect that the first operation mode is selected when the variety of motions selected as character motions becomes abundant. In addition, not only the maximum value but also the total value, the average value, the mode value, etc. can be used as a judgment index for whether or not the variation of the action selected by the personality value is abundant. , the total value of the personality values, the average value, the mode value, or the like may be used.

なお、成長テーブル123は、動作トリガー毎に、成長値を引数として各動作種類の動作選択確率を返す関数(成長関数)として定義できればその形態は任意であり、必ずしも図12に示すような表形式のデータである必要はない。 Note that the growth table 123 may take any form as long as it can be defined as a function (growth function) that returns the action selection probability of each action type with the growth value as an argument for each action trigger. data does not have to be

動作内容テーブル124は、図13に示すように、成長テーブル123で規定された各動作種類の具体的な動作内容が記録されたテーブルである。ただし、性格動作については、性格の種類毎に、動作内容が規定される。なお、動作内容テーブル124は必須のデータではない。例えば、成長テーブル123の動作種類の項目に、具体的な動作内容を直接記録する形で成長テーブル123を構成すれば、動作内容テーブル124は不要である。 The action content table 124 is, as shown in FIG. 13, a table in which specific action content of each action type defined in the growth table 123 is recorded. However, with respect to character actions, action contents are defined for each character type. Note that the operation content table 124 is not essential data. For example, if the growth table 123 is constructed in such a manner that specific action contents are directly recorded in the action type items of the growth table 123, the action content table 124 is unnecessary.

モーションテーブル125は、図14に示すように、成長テーブル123で規定された各動作種類について、処理部110が、ひねりモータ221や上下モータ222をどのように制御するのかを記録したテーブルである。具体的には、図14に示すように、動作種類毎に、各行に、動作時間(ミリ秒)、当該動作時間後のひねりモータ221の動作角度、当該動作時間後の上下モータ222の動作角度、がそれぞれ記録されている。なお、本実施形態では、各動作種類においてスピーカ231から出力する音声データについても記録されている。 The motion table 125, as shown in FIG. 14, is a table that records how the processing unit 110 controls the twist motor 221 and the up/down motor 222 for each motion type defined in the growth table 123. FIG. Specifically, as shown in FIG. 14, for each type of operation, each row contains an operation time (milliseconds), an operation angle of the twist motor 221 after the operation time, and an operation angle of the vertical motor 222 after the operation time. are recorded respectively. Note that in the present embodiment, audio data output from the speaker 231 is also recorded for each operation type.

例えば、後述する動作制御処理によって、基本動作2-0が選択された場合、処理部110は、まず100ミリ秒後にひねりモータ221も上下モータ222も角度が0度になるように制御し、その100ミリ秒後に上下モータ222の角度が-24度になるように制御する。そして、その後700ミリ秒間は回転させず、その500ミリ秒後にひねりモータ221の角度は34度、上下モータ222の角度は-24度になるように制御する。そして、その400ミリ秒後にひねりモータ221の角度は-34度になるように制御し、その500ミリ秒後にひねりモータ221も上下モータ222も角度が0度になるように制御して、基本動作2-0の動作を完了する。また、処理部110は、上述したひねりモータ221及び上下モータ222の駆動と並行して、短くピイと鳴く声の音声データにより、スピーカ231から短くピイと鳴く声を再生する。 For example, when the basic motion 2-0 is selected by motion control processing to be described later, the processing unit 110 first controls the twist motor 221 and the vertical motor 222 so that the angles thereof become 0 degrees after 100 milliseconds. After 100 milliseconds, the angle of the vertical motor 222 is controlled to be -24 degrees. Then, it is not rotated for 700 milliseconds after that, and after 500 milliseconds, the angle of the twist motor 221 is controlled to 34 degrees and the angle of the vertical motor 222 is controlled to be -24 degrees. Then, 400 milliseconds later, the angle of the twist motor 221 is controlled to be -34 degrees, and 500 milliseconds later, both the twist motor 221 and the vertical motor 222 are controlled so that the angles become 0 degrees. Complete the 2-0 action. In parallel with driving the twist motor 221 and the vertical motor 222 described above, the processing unit 110 reproduces a short bleep from the speaker 231 based on the audio data of the short bleep.

成長日数データ126は、初期値が1であり、1日経過する度に1ずつ加算されていく。成長日数データ126により、ロボット200の疑似的な成長日数(疑似的な生誕からの日数)が表されることになる。ここでは、成長日数データ126で表される成長日数の期間を、第2期間と呼ぶことにする。 The growth days data 126 has an initial value of 1, and is incremented by 1 each time one day passes. The growth days data 126 represents the artificial growth days (the number of days since the artificial birth) of the robot 200 . Here, the period of growth days represented by the growth days data 126 is called a second period.

また、図示しないが、記憶部120には、後述する性格補正値調整処理で増減される4つの性格補正値(陽気補正値、活発補正値、シャイ補正値及び甘えん坊補正値)も記憶される。各性格値(性格値(陽気)、性格値(活発)、性格値(シャイ)及び性格値(甘えん坊))は、ロボット200の疑似的な成長が完了すると固定するが、成長完了後も、ユーザのロボット200への接し方に応じて、性格を補正するためのデータ(性格補正データ)が性格補正値である。後述するように、性格補正値は、感情マップ300上で、感情データ121が最も長く存在したエリアがどこであるかに基づく条件(外部刺激データに基づく第2条件)に応じて、設定される。なお、外部刺激データに基づく第2条件としては、上記条件に限らず、感情マップ300のサイズが固定された後の性格を補正する条件(例えば、感情データ121で表されるロボット200の疑似的な感情の発生頻度に関する条件)であれば任意の条件を設定可能である。 Although not shown, the storage unit 120 also stores four personality correction values (cheerful correction value, active correction value, shy correction value, and spoiled child correction value) that are increased or decreased in the personality correction value adjustment process described later. Each personality value (personality value (cheerful), personality value (active), personality value (shy), and personality value (sweethearted)) is fixed when the pseudo-growth of the robot 200 is completed. The data (personality correction data) for correcting the personality according to the manner of contact with the robot 200 is the personality correction value. As will be described later, the personality correction value is set according to a condition (second condition based on external stimulus data) based on which area on the emotion map 300 the emotion data 121 existed for the longest time. Note that the second condition based on the external stimulus data is not limited to the above condition, but a condition for correcting the personality after the size of the emotion map 300 is fixed (for example, a pseudo-simulation of the robot 200 represented by the emotion data 121). Any condition can be set as long as the condition is related to the frequency of occurrence of various emotions).

次に、図15に示すフローチャートを参照しながら、機器の制御装置100の処理部110が実行する動作制御処理について説明する。動作制御処理は、機器の制御装置100が、センサ部210からの検出値等に基づいて、ロボット200の動作や鳴き声を制御する処理である。ユーザがロボット200の電源を入れると、後述するアラーム制御処理、スリープ制御処理等と並行に、この動作制御処理のスレッドが実行開始される。動作制御処理により、駆動部220や出力部230(音出力部)が制御され、ロボット200の動きが表現されたり、鳴き声等の音が出力されたりする。 Next, operation control processing executed by the processing unit 110 of the device control device 100 will be described with reference to the flowchart shown in FIG. The motion control process is a process in which the device control device 100 controls the motion and bark of the robot 200 based on the detected values from the sensor unit 210 and the like. When the user turns on the power of the robot 200, the thread for the motion control process starts running in parallel with the alarm control process, sleep control process, etc., which will be described later. The motion control process controls the drive unit 220 and the output unit 230 (sound output unit) to express the movement of the robot 200 and output sounds such as barking.

まず、処理部110は、感情データ121、感情変化データ122、成長日数データ126、性格補正値等の各種データを設定する(ステップS101)。ロボット200の最初の起動時(工場出荷後のユーザによる初回の起動時)は、これらの値には初期値(感情データ121、感情変化データ122、成長日数データ126、及び性格補正値の初期値はいずれも、値0)が設定されるが、2度目以降の起動時は、前回のロボット制御処理の後述するステップS109で保存されたデータの値が設定される。ただし、感情データ121や性格補正値については、電源を入れるたびに全て0に初期化される仕様としてもよい。 First, the processing unit 110 sets various data such as the emotion data 121, the emotion change data 122, the growth days data 126, and the personality correction value (step S101). When the robot 200 is started for the first time (when the user starts the robot 200 for the first time after shipment from the factory), these values include initial values (emotion data 121, emotion change data 122, growth days data 126, and initial values for personality correction values). ) are set to the value 0), but the value of the data saved in step S109 of the previous robot control process, which will be described later, is set when the robot is started for the second time or later. However, the emotion data 121 and the personality correction value may all be initialized to 0 each time the power is turned on.

次に、処理部110は、センサ部210で検出される外部刺激があるか否かを判定する(ステップS102)。外部刺激があるなら(ステップS102;Yes)、処理部110は、センサ部210から外部刺激を取得する(ステップS103)。 Next, the processing unit 110 determines whether or not there is an external stimulus detected by the sensor unit 210 (step S102). If there is an external stimulus (step S102; Yes), the processing unit 110 acquires the external stimulus from the sensor unit 210 (step S103).

そして、処理部110は、ステップS103で取得された外部刺激に応じて、感情データ121に加算又は減算する感情変化データ122を取得する(ステップS104)。具体的には、例えば、外部刺激として頭部204のタッチセンサ211により頭部204が撫でられたことを検出すると、ロボット200は疑似的な安心感を得るので、処理部110は、感情データ121のX値に加算する感情変化データ122としてDXPを取得する。 Then, the processing unit 110 acquires emotion change data 122 to be added to or subtracted from the emotion data 121 according to the external stimulus acquired in step S103 (step S104). Specifically, for example, when the touch sensor 211 of the head 204 detects that the head 204 has been stroked as an external stimulus, the robot 200 obtains a pseudo sense of security. DXP is acquired as emotion change data 122 to be added to the X value of .

そして、処理部110は、ステップS104で取得された感情変化データ122に応じて感情データ121を設定する(ステップS105)。具体的には、例えば、ステップS104で感情変化データ122としてDXPが取得されていたなら、処理部110は、感情データ121のX値に感情変化データ122のDXPを加算する。ただし、感情変化データ122を加算すると感情データ121の値(X値、Y値)が感情マップ300の最大値を超える場合には、感情データ121の値は感情マップ300の最大値に設定される。また、感情変化データ122を減算すると感情データ121の値が感情マップ300の最小値未満になる場合には、感情データ121の値は感情マップ300の最小値に設定される。 Then, processing unit 110 sets emotion data 121 according to emotion change data 122 acquired in step S104 (step S105). Specifically, for example, if DXP was acquired as the emotion change data 122 in step S104, the processing unit 110 adds the DXP of the emotion change data 122 to the X value of the emotion data 121. FIG. However, if the value (X value, Y value) of the emotion data 121 exceeds the maximum value of the emotion map 300 by adding the emotion change data 122, the value of the emotion data 121 is set to the maximum value of the emotion map 300. . If the value of the emotion data 121 becomes less than the minimum value of the emotion map 300 by subtracting the emotion change data 122, the value of the emotion data 121 is set to the minimum value of the emotion map 300. FIG.

ステップS104及びステップS105において、外部刺激の各々に対して、どのような感情変化データ122が取得されて、感情データ121が設定されるかは任意に設定可能であるが、ここでは、以下に一例を示す。なお、感情データ121のX値及びY値は感情マップ300のサイズによって最大値及び最小値が規定されているため、以下の演算によって感情マップ300の最大値を上回る場合には最大値が、感情マップ300の最小値を下回る場合には最小値が、それぞれ設定される。 In steps S104 and S105, it is possible to arbitrarily set what kind of emotional change data 122 is acquired and emotional data 121 is set for each external stimulus. indicates Note that the maximum and minimum values of the X value and Y value of the emotion data 121 are defined by the size of the emotion map 300. Therefore, if the maximum value of the emotion map 300 is exceeded by the following calculation, the maximum value becomes the emotion If below the minimum value of map 300, the minimum value is set respectively.

頭部204を撫でられる(安心する):X=X+DXP
頭部204を叩かれる(不安になる):X=X-DXM
(これらの外部刺激は頭部204のタッチセンサ211で検出可能)
胴体部206を撫でられる(興奮する):Y=Y+DYP
胴体部206を叩かれる(無気力になる):Y=Y-DYM
(これらの外部刺激は胴体部206のタッチセンサ211で検出可能)
頭を上にして抱かれる(喜ぶ):X=X+DXP及びY=Y+DYP
頭を下にして宙づりにされる(悲しむ):X=X-DXM及びY=Y-DYM
(これらの外部刺激はタッチセンサ211及び加速度センサ212で検出可能)
優しい声で呼びかけられる(平穏になる):X=X+DXP及びY=Y-DYM
大きな声で怒鳴られる(イライラする):X=X-DXM及びY=Y+DYP
(これらの外部刺激はマイクロフォン213で検出可能)
The head 204 is stroked (relaxed): X=X+DXP
Hitting the head 204 (getting anxious): X=X-DXM
(These external stimuli can be detected by the touch sensor 211 on the head 204)
Torso 206 is stroked (excited): Y=Y+DYP
Torso 206 is hit (becoming lethargic): Y=Y-DYM
(These external stimuli can be detected by the touch sensor 211 of the body part 206)
Held with head up (happy): X = X + DXP and Y = Y + DYP
Suspended head down (sorrowed): X = X-DXM and Y = Y-DYM
(These external stimuli can be detected by the touch sensor 211 and the acceleration sensor 212)
Called with a gentle voice (becoming calm): X = X + DXP and Y = Y-DYM
Being yelled at (annoyed): X = X - DXM and Y = Y + DYP
(These external stimuli can be detected by microphone 213)

例えば、頭部204を撫でられると、ロボット200の疑似的な感情は安心するので、感情データ121のX値に感情変化データ122のDXPが加算される。逆に、頭部204を叩かれると、ロボット200の疑似的な感情は不安になり、感情データ121のX値から感情変化データ122のDXMが減算される。ステップS103で処理部110は、センサ部210が備える複数のセンサにより、互いに異なる種類の複数の外部刺激を取得しているので、これら複数の外部刺激の各々に応じて感情変化データ122が取得され、取得された感情変化データ122に応じて感情データ121が設定されることになる。 For example, when the head 204 is stroked, the pseudo emotion of the robot 200 is relieved, so the DXP of the emotion change data 122 is added to the X value of the emotion data 121 . Conversely, when the head 204 is hit, the pseudo emotion of the robot 200 becomes uneasy, and the DXM of the emotion change data 122 is subtracted from the X value of the emotion data 121 . In step S103, the processing unit 110 acquires a plurality of external stimuli of different types from the plurality of sensors included in the sensor unit 210, so that the emotion change data 122 is acquired in response to each of the plurality of external stimuli. , the emotion data 121 is set according to the acquired emotion change data 122 .

そして、処理部110は、ステップS103で取得した外部刺激の情報を動作トリガーとして動作選択処理を実行し(ステップS106)、その後、ステップS108に進む。なお、動作選択処理の詳細は後述するが、動作トリガーとは、ロボット200が何らかの動作を行うきっかけとなった外部刺激等の情報である。 Then, the processing unit 110 executes action selection processing using the information on the external stimulus acquired in step S103 as an action trigger (step S106), and then proceeds to step S108. Although details of the action selection process will be described later, the action trigger is information such as an external stimulus that causes the robot 200 to perform some action.

一方、ステップS102で外部刺激がないなら(ステップS102;No)、処理部110は、呼吸動作等の自発的な動作を行うか否かを判定する(ステップS107)。自発的な動作を行うか否かの判定方法は任意だが、本実施形態では、第1基準時間(例えば5秒)毎にステップS107の判定がYesになるものとする。 On the other hand, if there is no external stimulus in step S102 (step S102; No), the processing unit 110 determines whether or not to perform spontaneous action such as breathing action (step S107). The determination method of whether or not to perform a spontaneous action is arbitrary, but in the present embodiment, the determination in step S107 becomes Yes every first reference time (for example, 5 seconds).

自発的な動作を行うなら(ステップS107;Yes)、処理部110は、ステップS106に進んで、「第1基準時間経過」を動作トリガーとして動作選択処理を実行し、その後、ステップS108に進む。 If a spontaneous action is to be performed (step S107; Yes), the processing unit 110 proceeds to step S106 to execute action selection processing using "elapse of the first reference time" as an action trigger, and then proceeds to step S108.

自発的な動作を行わないなら(ステップS107;No)、処理部110は、処理を終了するか否かを判定する(ステップS108)。例えば、操作部240が、ユーザによるロボット200の電源OFFの指示を受け付けたら、処理を終了することになる。処理を終了するなら(ステップS108;Yes)、処理部110は、感情データ121、感情変化データ122、成長日数データ126等の各種データを記憶部120の不揮発性メモリ(例えばフラッシュメモリ)に保存し(ステップS109)、動作制御処理を終了する。なお、電源OFF時に各種データを不揮発性メモリに保存する処理については、別途、電源OFF判定スレッドを動作制御処理等の他のスレッドと並行に動作させて行うようにしてもよい。電源OFF判定スレッドでステップS108及びステップS109に相当する処理を行うようにすれば、動作制御処理のステップS108及びステップS109の処理は省略することができる。 If no spontaneous movement is performed (step S107; No), the processing unit 110 determines whether or not to end the process (step S108). For example, when the operation unit 240 receives a user's instruction to turn off the power of the robot 200, the process ends. If the process is to end (step S108; Yes), the processing unit 110 saves various data such as the emotion data 121, the emotion change data 122, and the growth days data 126 in the non-volatile memory (for example, flash memory) of the storage unit 120. (Step S109), the operation control process is terminated. Note that the process of storing various data in the non-volatile memory when the power is turned off may be performed by separately operating the power-off determination thread in parallel with other threads such as the operation control process. If the processing corresponding to steps S108 and S109 is performed in the power OFF determination thread, the processing of steps S108 and S109 of the operation control processing can be omitted.

処理を終了しないなら(ステップS108;No)、処理部110は、クロック機能により、日付が変わったか否かを判定する(ステップS110)。日付が変わっていないなら(ステップS110;No)、ステップS102に戻る。 If the process is not to end (step S108; No), processing unit 110 determines whether or not the date has changed using the clock function (step S110). If the date has not changed (step S110; No), the process returns to step S102.

日付が変わったなら(ステップS110;Yes)、処理部110は、第1期間中であるか否かを判定する(ステップS111)。第1期間を、ロボット200の疑似的な生誕(例えば購入後のユーザによる初回の起動時)から例えば50日の期間とすると、処理部110は、成長日数データ126が50以下なら第1期間中であると判定する。第1期間中でないなら(ステップS111;No)、処理部110は、性格補正値調整処理を実行し(ステップS112)、ステップS115に進む。なお、性格補正値調整処理の詳細については後述する。 If the date has changed (step S110; Yes), the processing unit 110 determines whether it is during the first period (step S111). Assuming that the first period is a period of, for example, 50 days from the pseudo birth of the robot 200 (for example, when the user starts up for the first time after purchase), the processing unit 110 determines that if the number of growth days data 126 is 50 or less, during the first period It is determined that If it is not during the first period (step S111; No), the processing unit 110 executes personality correction value adjustment processing (step S112), and proceeds to step S115. Details of the personality correction value adjustment process will be described later.

第1期間中なら(ステップS111;Yes)、処理部110は、感情変化データ122の学習を行う(ステップS113)。具体的には、その日のステップS105において、感情データ121のX値が1度でも感情マップ300の最大値に設定されたなら感情変化データ122のDXPに1を加算し、感情データ121のY値が1度でも感情マップ300の最大値に設定されたなら感情変化データ122のDYPに1を加算し、感情データ121のX値が1度でも感情マップ300の最小値に設定されたなら感情変化データ122のDXMに1を加算し、感情データ121のY値が1度でも感情マップ300の最小値に設定されたなら感情変化データ122のDYMに1を加算することによって、感情変化データ122を更新する。この更新を、感情変化データ122の学習ともいう。 If it is during the first period (step S111; Yes), the processing unit 110 learns the emotion change data 122 (step S113). Specifically, in step S105 of the day, if the X value of the emotion data 121 is set to the maximum value of the emotion map 300 even once, 1 is added to the DXP of the emotion change data 122, and the Y value of the emotion data 121 is is set to the maximum value of the emotion map 300 even once, 1 is added to the DYP of the emotion change data 122, and if the X value of the emotion data 121 is set to the minimum value of the emotion map 300 even once, the emotion change By adding 1 to the DXM of the data 122 and adding 1 to the DYM of the emotion change data 122 if the Y value of the emotion data 121 is set to the minimum value of the emotion map 300 even once, the emotion change data 122 can be changed. Update. This update is also called learning of the emotion change data 122 .

ただし、感情変化データ122の各値が大きくなりすぎると、感情データ121の1回の変化量が大きくなりすぎるので、感情変化データ122の各値は例えば20を最大値とし、それ以下に制限する。また、ここでは、感情変化データ122のいずれに対しても1を加算することとしたが、加算する値は1に限定されない。例えば、感情データ121の各値が感情マップ300の最大値又は最小値に設定された回数をカウントして、その回数が多い場合には、感情変化データ122に加算する数値を増やすようにしてもよい。 However, if each value of the emotion change data 122 becomes too large, the amount of change in one emotion data 121 becomes too large. . Also, here, 1 is added to any of the emotion change data 122, but the value to be added is not limited to 1. For example, the number of times each value of the emotion data 121 is set to the maximum or minimum value of the emotion map 300 may be counted, and if the number of times is large, the numerical value to be added to the emotion change data 122 may be increased. good.

ステップS113での感情変化データ122の学習は、ステップS105で感情データ121が感情マップ300の最大値又は最小値に設定されるか否かに基づく。そして、ステップS105で感情データ121が感情マップ300の最大値又は最小値に設定されるか否かは、ステップS103で取得された外部刺激に基づく。そして、ステップS103では、センサ部210が備える複数のセンサにより、互いに異なる種類の複数の外部刺激が取得されるので、これら複数の外部刺激の各々に応じて、感情変化データ122の各々が学習されることになる。 Learning of emotion change data 122 in step S113 is based on whether emotion data 121 is set to the maximum or minimum value of emotion map 300 in step S105. Whether or not the emotion data 121 is set to the maximum value or minimum value of the emotion map 300 in step S105 is based on the external stimulus acquired in step S103. Then, in step S103, a plurality of external stimuli of different types are acquired by a plurality of sensors included in the sensor unit 210, so each of the emotion change data 122 is learned according to each of the plurality of external stimuli. will be

例えば、頭部204のみが何度も撫でられると感情変化データ122のDXPのみが増加し、他の感情変化データ122は変化しないので、ロボット200は安心しやすい性格になる。また、頭部204のみが何度も叩かれると感情変化データ122のDXMのみが増加し、他の感情変化データ122は変化しないので、ロボット200は不安になりやすい性格になる。このように、処理部110は、外部刺激の各々に応じて、感情変化データ122を互いに異ならせるように学習する。本実施形態では、感情変化データ122から性格値が算出され、性格値の最大値が成長値となるため、ユーザのロボット200への接し方に基づいてロボット200が疑似的に成長する効果を得ることができる。 For example, if only the head 204 is stroked many times, only the DXP of the emotion change data 122 will increase, and the other emotion change data 122 will not change, so the robot 200 will tend to feel at ease. Also, when only the head 204 is hit many times, only the DXM of the emotion change data 122 increases, and the other emotion change data 122 does not change, so the robot 200 becomes prone to anxiety. In this way, the processing unit 110 learns to make the emotion change data 122 different according to each external stimulus. In this embodiment, the personality value is calculated from the emotion change data 122, and the maximum value of the personality value is the growth value. Therefore, the effect of artificial growth of the robot 200 based on how the user interacts with the robot 200 is obtained. be able to.

なお、本実施形態では、その日1日の期間でステップS105において、感情データ121のX値やY値が1度でも感情マップ300の最大値や最小値に達したら、感情変化データ122を学習させている。しかし、感情変化データ122を学習させる条件はこれに限らない。例えば、感情データ121のX値やY値が1度でも所定の値(例えば、感情マップ300の最大値の0.5倍の値や最小値の0.5倍の値)に達したら感情変化データ122を学習させてもよい。また、期間に関しても、その日1日の期間に限らず、半日や1週間等の他の期間で、感情データ121のX値やY値が1度でも所定の値に達したら、感情変化データ122を学習させるようにしてもよい。また、1日等の一定の期間ではなく、外部刺激の取得回数が所定回数(例えば50回)に達するまでの期間で、感情データ121のX値やY値が1度でも所定の値に達したら、感情変化データ122を学習させるようにしてもよい。 In this embodiment, if the X value or Y value of the emotion data 121 reaches the maximum or minimum value of the emotion map 300 even once in step S105 during the period of one day, the emotion change data 122 is learned. ing. However, the condition for learning the emotion change data 122 is not limited to this. For example, if the X value or Y value of the emotion data 121 reaches a predetermined value (for example, a value 0.5 times the maximum value or a value 0.5 times the minimum value of the emotion map 300) even once, the emotion changes. Data 122 may be learned. Also, regarding the period, if the X value or Y value of the emotion data 121 reaches a predetermined value even once during another period such as half a day or a week, the emotion change data 122 may be learned. Also, the X value or Y value of the emotion data 121 reaches a predetermined value even once during a period until the number of acquisitions of the external stimulus reaches a predetermined number of times (for example, 50 times), not for a certain period of time such as one day. Then, the emotion change data 122 may be learned.

図15に戻り、処理部110は、感情マップ300を最大値、最小値ともに、2だけ拡大する(ステップS114)。なお、ここでは、感情マップ300を最大値、最小値ともに、2だけ拡大することとしたが、この拡大する数値「2」はあくまでも一例であり、3以上拡大してもよいし、1だけ拡大してもよい。また感情マップ300の軸毎、また最大値と最小値とで、拡大する数値が同じでなくてもよい。そして、処理部110は、成長日数データ126に1を加算し、感情データをX値、Y値ともに0に初期化して(ステップS115)、ステップS102に戻る。 Returning to FIG. 15, processing unit 110 expands both the maximum value and the minimum value of emotion map 300 by 2 (step S114). Here, both the maximum value and the minimum value of the emotion map 300 are expanded by 2, but this expansion value "2" is merely an example, and may be expanded by 3 or more, or expanded by 1. You may Also, the numerical value to be enlarged may not be the same for each axis of the emotion map 300 or for the maximum and minimum values. Then, the processing unit 110 adds 1 to the growth days data 126, initializes both the X value and the Y value of the emotion data to 0 (step S115), and returns to step S102.

なお、図15では、感情変化データの学習及び感情マップの拡大は、ステップS110で日付が変わったのを判定してから行われるものとしているが、基準時刻(例えば午後9時)になったことを判定してから行われるようにしてもよい。また、ステップS110での判定は、実際の日付で判定するのではなく、ロボット200が電源ONになっている時間を処理部110のタイマー機能で累計した値に基づいて判定してもよい。例えば、電源ONの累計時間が24の倍数の時間になる毎に、ロボット200が1日成長したとみなして、感情変化データの学習及び感情マップの拡大が行われるようにしてもよい。また、ロボット200を放置しがちなユーザを考慮して(放置された場合にはロボット200の成長が遅くなるように)、外部刺激の取得回数に基づいて(例えば、取得回数が100回になる毎に1日成長したとみなす)判定をしてもよい。 In FIG. 15, learning of emotion change data and enlargement of the emotion map are performed after it is determined that the date has changed in step S110. may be performed after determining Further, the determination in step S110 may be made based on a value accumulated by the timer function of the processing unit 110, instead of based on the actual date. For example, each time the cumulative power-on time reaches a multiple of 24, the robot 200 may be considered to have grown by one day, and learning of emotion change data and enlargement of the emotion map may be performed. Considering the user who tends to leave the robot 200 unattended (so that the growth of the robot 200 is slowed down when left unattended), the number of times the external stimulus is acquired (for example, the number of acquisitions becomes 100 times). It may be determined that the growth is considered to have grown by one day each time.

次に、上述の動作制御処理のステップS106で実行される動作選択処理について、図16を参照して説明する。 Next, the action selection process executed in step S106 of the action control process described above will be described with reference to FIG.

まず、処理部110は、第1期間中であるか否かを判定する(ステップS200)。第1期間中なら(ステップS200;Yes)、処理部110は、ステップS113で学習された感情変化データ122から性格値を算出する(ステップS201)。具体的には、以下のように4つの性格値を算出する。感情変化データ122はそれぞれ初期値が10で最大20まで増加するため、ここでは10を減算することによって値の範囲を0以上10以下にしている。
性格値(陽気)=DXP-10
性格値(シャイ)=DXM-10
性格値(活発)=DYP-10
性格値(甘えん坊)=DYM-10
First, the processing unit 110 determines whether or not it is during the first period (step S200). If it is during the first period (step S200; Yes), the processing unit 110 calculates a personality value from the emotion change data 122 learned in step S113 (step S201). Specifically, four personality values are calculated as follows. Since each emotion change data 122 has an initial value of 10 and increases to a maximum of 20, 10 is subtracted here to set the range of values from 0 to 10. FIG.
Personality value (cheerful) = DXP-10
Personality value (shy) = DXM-10
Personality value (active) = DYP-10
Personality value (spoiled) = DYM-10

一方、第1期間中でないなら(ステップS200;No)、処理部110は、ステップS113で学習された感情変化データ122とステップS112で調整された性格補正値とに基づいて、補正した性格値を算出する(ステップS201)。具体的には、以下のように4つの性格値を算出する。感情変化データ122はそれぞれ初期値が10で最大20まで増加するため、ここでは10を減算することによって値の範囲を0以上10以下にしてから各補正値を加算している。ただし、補正値を加算した値が負になったら0に、10を超えた場合は10に、それぞれ補正し、各性格値の値が0以上10以下になるようにする。
性格値(陽気)=DXP-10+陽気補正値
性格値(シャイ)=DXM-10+シャイ補正値
性格値(活発)=DYP-10+活発補正値
性格値(甘えん坊)=DYM-10+甘えん坊補正値
On the other hand, if it is not during the first period (step S200; No), processing unit 110 sets the corrected personality value based on emotion change data 122 learned in step S113 and the personality correction value adjusted in step S112. Calculate (step S201). Specifically, four personality values are calculated as follows. Since each emotion change data 122 has an initial value of 10 and increases to a maximum of 20, 10 is subtracted here to make the range of values from 0 to 10 and then each correction value is added. However, if the value obtained by adding the correction value becomes negative, it is corrected to 0, and if it exceeds 10, it is corrected to 10, respectively, so that the value of each personality value is 0 or more and 10 or less.
Personality value (cheerful) = DXP-10 + positive correction value Personality value (shy) = DXM-10 + shy correction value Personality value (active) = DYP-10 + active correction value Personality value (spoiled) = DYM-10 + spoiled child correction value

次に、処理部110は、これらの性格値の中で最も大きい数値を成長値として算出する(ステップS202)。そして、処理部110は、成長テーブル123を参照して、動作選択処理を実行する際に与えられた動作トリガーと、ステップS202で算出した成長値と、に対応する各動作種類の動作選択確率を取得する(ステップS203)。 Next, processing unit 110 calculates the largest numerical value among these personality values as a growth value (step S202). Then, the processing unit 110 refers to the growth table 123 to determine the action selection probability of each action type corresponding to the action trigger given when executing the action selection process and the growth value calculated in step S202. Acquire (step S203).

次に、処理部110は、ステップS203で取得した各動作種類の動作選択確率に基づいて、乱数を用いて動作種類を選択する(ステップS204)。例えば、算出した成長値が8、動作トリガーは「大きな音がする」の場合、20%の確率で「基本動作2-0」が選択され、20%の確率で「基本動作2-1」が選択され、40%の確率で「基本動作2-2」が選択され、20%の確率で「性格動作2-0」が選択される(図12参照)。 Next, the processing unit 110 selects a motion type using a random number based on the motion selection probability of each motion type acquired in step S203 (step S204). For example, if the calculated growth value is 8 and the action trigger is "makes a loud noise", there is a 20% chance that "basic action 2-0" will be selected, and a 20% chance that "basic action 2-1" will be selected. ``Basic action 2-2'' is selected with a probability of 40%, and ``Character action 2-0'' is selected with a probability of 20% (see FIG. 12).

そして、処理部110は、ステップS204で性格動作が選択されたか否かを判定する(ステップS205)。性格動作が選択されておらず、すなわち、基本動作が選択されていれば(ステップS205;No)、ステップS208に進む。 Then, the processing unit 110 determines whether or not character behavior is selected in step S204 (step S205). If no personality action has been selected, that is, if a basic action has been selected (step S205; No), the process proceeds to step S208.

性格動作が選択されていたら(ステップS205;Yes)、処理部110は、各性格値の大きさに基づいて、各性格の選択確率を取得する(ステップS206)。具体的には、各性格について、その性格に対応する性格値を4つの性格値の合計値で割った値をその性格の選択確率とする。 If a personality behavior has been selected (step S205; Yes), the processing unit 110 acquires the selection probability of each personality based on the magnitude of each personality value (step S206). Specifically, for each personality, the value obtained by dividing the personality value corresponding to that personality by the total value of the four personality values is taken as the selection probability of that personality.

そして、処理部110は、ステップS206で取得した各性格の選択確率に基づき、乱数を用いて性格動作を選択する(ステップS207)。例えば、性格値(陽気)が3、性格値(活発)が8、性格値(シャイ)が5、性格値(甘えん坊)が4の場合、これらの合計値は3+8+5+4=20である。したがって、この場合、「陽気」の性格動作が3/20=15%の確率で、「活発」の性格動作が8/20=40%の確率で、「シャイ」の性格動作が5/20=25%の確率で、「甘えん坊」の性格動作が4/20=20%の確率で、それぞれ選択されることになる。 Then, the processing unit 110 selects a personality behavior using a random number based on the selection probability of each personality acquired in step S206 (step S207). For example, if the personality value (cheerful) is 3, the personality value (active) is 8, the personality value (shy) is 5, and the personality value (spoiled) is 4, the total value of these is 3+8+5+4=20. Therefore, in this case, there is a probability of 3/20 = 15% for the "cheerful" personality behavior, a probability of 8/20 = 40% for the "active" personality behavior, and a 5/20 = 5/20 probability for the "shy" personality behavior. With a probability of 25%, the behavior of the "sweetheart" character is selected with a probability of 4/20=20%.

次に、処理部110は、ステップS204又はS207で選択された動作を実行し(ステップS208)、動作選択処理を終了して、動作制御処理のステップS108に進む。 Next, the processing unit 110 executes the action selected in step S204 or S207 (step S208), finishes the action selection process, and proceeds to step S108 of the action control process.

次に、上述の動作制御処理のステップS112で実行される性格補正値調整処理について、図17を参照して説明する。 Next, the personality correction value adjustment process executed in step S112 of the operation control process described above will be described with reference to FIG.

まず、処理部110は、その1日の間における感情データ121の変化(感情マップ300上での移動)の履歴に基づき、感情マップ300上で、その1日の間(図15のステップS110での判定がNoからYesに切り替わるまでの間)に感情データ121が最も長く存在したエリア(以下「最長存在エリア」という)を算出する(ステップS301)。 First, based on the history of changes (movements on the emotion map 300) in the emotion data 121 during the day, the processing unit 110 displays the data on the emotion map 300 for the day (at step S110 in FIG. 15). is changed from No to Yes), the area where the emotion data 121 existed for the longest time (hereinafter referred to as "longest existing area") is calculated (step S301).

そして、処理部110は、ステップS301で算出した最長存在エリアが図10に示す感情マップ300上の安心エリア(具体的にはX値が100以上のエリア)であるか否かを判定する(ステップS302)。最長存在エリアが感情マップ300上の安心エリアであれば(ステップS302;Yes)、処理部110は、性格補正値のうちの陽気補正値に1を加算し、シャイ補正値から1を減算し(ステップS303)、ステップS304に進む。 Then, processing unit 110 determines whether or not the longest existing area calculated in step S301 is a safe area (specifically, an area with an X value of 100 or more) on emotion map 300 shown in FIG. S302). If the longest presence area is a safe area on the emotion map 300 (step S302; Yes), the processing unit 110 adds 1 to the cheerful correction value among the personality correction values and subtracts 1 from the shy correction value ( Step S303) and proceed to step S304.

最長存在エリアが感情マップ300上の安心エリアでなければ(ステップS302;No)、処理部110は、最長存在エリアが感情マップ300上の興奮エリア(具体的にはY値が100以上のエリア)であるか否かを判定する(ステップS304)。最長存在エリアが感情マップ300上の興奮エリアであれば(ステップS304;Yes)、処理部110は、性格補正値のうちの活発補正値に1を加算し、甘えん坊補正値から1を減算し(ステップS305)、ステップS306に進む。 If the longest existing area is not a safe area on the emotion map 300 (step S302; No), the processing unit 110 determines that the longest existing area is an excitement area (specifically, an area with a Y value of 100 or more) on the emotion map 300. (step S304). If the longest existing area is an excitement area on the emotion map 300 (step S304; Yes), the processing unit 110 adds 1 to the active correction value among the personality correction values and subtracts 1 from the spoiled child correction value ( Step S305) and proceed to step S306.

最長存在エリアが感情マップ300上の興奮エリアでなければ(ステップS304;No)、処理部110は、最長存在エリアが感情マップ300上の不安エリア(具体的にはX値が-100以下のエリア)であるか否かを判定する(ステップS306)。最長存在エリアが感情マップ300上の不安エリアであれば(ステップS306;Yes)、処理部110は、性格補正値のうちのシャイ補正値に1を加算し、陽気補正値から1を減算し(ステップS307)、ステップS308に進む。 If the longest existing area is not an excitement area on the emotion map 300 (step S304; No), the processing unit 110 determines that the longest existing area is an anxiety area (specifically, an area with an X value of −100 or less) on the emotion map 300. ) (step S306). If the longest existing area is an anxious area on the emotion map 300 (step S306; Yes), the processing unit 110 adds 1 to the shy correction value among the personality correction values and subtracts 1 from the cheerful correction value ( Step S307), and proceed to step S308.

最長存在エリアが感情マップ300上の不安エリアでなければ(ステップS306;No)、処理部110は、最長存在エリアが感情マップ300上の無気力エリア(具体的にはX値が-100以下のエリア)であるか否かを判定する(ステップS308)。最長存在エリアが感情マップ300上の無気力エリアであれば(ステップS308;Yes)、処理部110は、性格補正値のうちの甘えん坊補正値に1を加算し、活発補正値から1を減算し(ステップS309)、ステップS310に進む。 If the longest existing area is not an anxious area on the emotion map 300 (step S306; No), the processing unit 110 determines that the longest existing area is a lethargic area on the emotion map 300 (specifically, an area with an X value of −100 or less). ) (step S308). If the longest existence area is a lethargic area on the emotion map 300 (step S308; Yes), the processing unit 110 adds 1 to the spoiled child correction value among the personality correction values and subtracts 1 from the active correction value ( Step S309), and then proceed to step S310.

最長存在エリアが感情マップ300上の無気力エリアでなければ(ステップS308;No)、処理部110は、最長存在エリアが感情マップ300上の中央エリア(具体的にはX値及びY値ともにその絶対値が100未満のエリア)であるか否かを判定する(ステップS310)。最長存在エリアが感情マップ300上の中央エリアであれば(ステップS310;Yes)、処理部110は、4つの性格補正値のすべてについて、その絶対値を1減少させ(ステップS311)、ステップS312に進む。 If the longest existing area is not the lethargic area on the emotion map 300 (step S308; No), the processing unit 110 determines that the longest existing area is the central area on the emotion map 300 (specifically, both the X value and the Y value are absolute values). area with a value less than 100) (step S310). If the longest existence area is the central area on emotion map 300 (step S310; Yes), processing unit 110 decreases the absolute values of all four personality correction values by 1 (step S311), and proceeds to step S312. move on.

最長存在エリアが感情マップ300上の中央エリアでなければ(ステップS310;No)、処理部110は、4つの性格補正値の範囲を限定する(ステップS312)。具体的には、-5よりも小さくなった性格補正値は-5とし、+5よりも大きくなった性格補正値は+5とする。そして、処理部110は、性格補正値調整処理を終了し、処理を動作制御処理のステップS115に進める。 If the longest existing area is not the central area on emotion map 300 (step S310; No), processing unit 110 limits the range of the four personality correction values (step S312). Specifically, a personality correction value smaller than -5 is set to -5, and a personality correction value larger than +5 is set to +5. Then, processing unit 110 ends the personality correction value adjustment process, and advances the process to step S115 of the operation control process.

上述の動作制御処理により、ロボット200の疑似的な性格について、第1期間中はステップS113及びステップS201によって基本的な性格(基本性格データ)が設定され、第1期間経過後にはステップS112及びステップS209によって基本的な性格を変化させることなく性格値を補正することができる。 By the above-described motion control process, the basic personality (basic personality data) is set in steps S113 and S201 for the pseudo personality of the robot 200 during the first period. By S209, the personality value can be corrected without changing the basic personality.

第1期間中の性格は、感情変化データ122、すなわち感情マップ300上での感情データ121の移動速度に対応している。つまり、感情の変化の速度を性格に対応付けているため、性格の表現方法として極めて自然である。また、ステップS113において、感情変化データ122は増加方向にしか変化しないので、性格値は過去の情報(第1期間中にユーザから受けた外部刺激等)を反映していると考えることができる。そして、ステップS113において、4つの感情変化データ122全てが変化し得るので、複数の性格が組み合わさった性格も構築され得る。 The personality during the first period corresponds to the emotion change data 122 , that is, the moving speed of the emotion data 121 on the emotion map 300 . In other words, since the speed of emotional change is associated with the personality, it is a very natural way of expressing personality. Also, in step S113, since the emotion change data 122 changes only in an increasing direction, it can be considered that the personality value reflects past information (external stimuli received from the user during the first period, etc.). Then, in step S113, all the four emotion change data 122 can be changed, so a personality combining a plurality of personalities can be constructed.

また、第1期間経過後は、感情変化データ122は固定されるので、基本的な性格は固定される。そして、ステップS112で設定される補正値は、その日の最長存在エリアに応じて1の増減しかしないため、補正値による性格値の変化は、第1期間中の変化に比べて緩やかな変化となる。また、ロボット200が放置されると最長存在エリアは中央エリアになるため補正値は0に近づき、基本的な性格に戻る。 Also, after the first period has passed, the emotion change data 122 is fixed, so the basic character is fixed. Then, since the correction value set in step S112 only increases or decreases by 1 according to the longest existence area on that day, the change in the personality value due to the correction value is a gentle change compared to the change during the first period. . Also, when the robot 200 is left alone, the longest existence area becomes the central area, so the correction value approaches 0 and returns to its basic character.

なお、図15では性格補正値調整処理(ステップS112)は、ステップS110で日付が変わったことを判定してから、すなわち、1日の期間が経過する度に行われるものとしている。しかし、この期間は1日に限定されず、半日や1週間等の他の期間が経過する度に性格補正値調整処理が行われるようにしてもよい。また、1日等の一定の期間ではなく、外部刺激の取得回数が所定回数(例えば50回)に達する度に性格補正値調整処理が行われるようにしてもよい。 Note that in FIG. 15, the personality correction value adjustment process (step S112) is performed after it is determined that the date has changed in step S110, that is, each time a period of one day elapses. However, this period is not limited to one day, and the personality correction value adjustment process may be performed each time another period such as half a day or one week elapses. Also, the personality correction value adjustment process may be performed each time the external stimulus is acquired a predetermined number of times (for example, 50 times) instead of for a certain period of time such as one day.

また、上述の性格補正値調整処理(図17)では、この期間中における感情データ121の感情マップ300上での最長存在エリアに基づいて性格補正値を調整しているが、調整方法はこれに限定されない。例えば、感情マップ300上の複数のエリアの各々に感情データ121が存在した回数を単位時間毎にカウントしておき、この回数が所定回数に達したら、そのエリアに基づいて性格補正値を調整するようにしてもよい。 Also, in the above-described personality correction value adjustment process (FIG. 17), the personality correction value is adjusted based on the longest existence area of the emotion data 121 on the emotion map 300 during this period. Not limited. For example, the number of times the emotion data 121 exists in each of a plurality of areas on the emotion map 300 is counted for each unit time, and when this number reaches a predetermined number of times, the personality correction value is adjusted based on the area. You may do so.

また、上述の動作制御処理ではステップS110及びS111で、成長日数データ126が第1期間中であるという条件が成立するか否かによって、感情変化データ122を学習(基本性格データを変更設定)するか否かを切り替えている。しかし、この切り替えを行う条件は、成長日数データ126が第1期間中という条件に限らず、ロボット200の疑似的な成長度合いに関連する所定条件が成立しているか否かによって切り替えればよい。 Further, in the above-described operation control process, in steps S110 and S111, the emotion change data 122 is learned (basic personality data is changed and set) depending on whether or not the condition that the number of growth days data 126 is in the first period is satisfied. toggling whether or not However, the condition for this switching is not limited to the condition that the growth days data 126 is in the first period, and may be switched depending on whether or not a predetermined condition related to the artificial growth degree of the robot 200 is satisfied.

例えば、この所定条件として、「成長日数データ126が所定の値以上」という条件に代えて、又はこの条件とともに(OR条件で)、「ロボット200の疑似的な成長度合いを表す成長度合いデータとして、4つの性格値の中で、最も大きな値が所定の値以上」という条件を用いてもよい。また、この成長度合いデータは、日数に応じて設定してもよいし、外部刺激を検出した回数に応じて設定してもよい、性格値の値に応じて設定してもよいし、これらを組み合わせた値(例えばこれらの和、平均値等)に応じて設定してもよい。 For example, as this predetermined condition, instead of the condition that "the number of days of growth data 126 is equal to or greater than a predetermined value", or together with this condition (under OR conditions), "growth degree data representing a pseudo growth degree of the robot 200, The condition that the largest value among the four personality values is equal to or greater than a predetermined value may be used. Further, this growth degree data may be set according to the number of days, may be set according to the number of times an external stimulus is detected, or may be set according to the value of the personality value. It may be set according to a combined value (for example, the sum, average value, etc. of these).

なお、上述の動作選択処理において、ロボット200の動作を選択する際に感情データ121を参照して、動作の選択に感情データ121の値を反映させるようにしてもよい。例えば、成長テーブル123を感情データ121の値に応じて複数用意して感情表現を豊かに行う動作の種類を設定しておき、その時点の感情データ121の値に対応した成長テーブル123を用いて動作を選択したり、モーションテーブル125に記録されている各動作の動作選択確率の値を感情データ121の値に応じて調整したりしてもよい。これにより、ロボット200は、より現在の感情を反映した動作を行うことができるようになる。 In the motion selection process described above, the emotion data 121 may be referred to when selecting the motion of the robot 200, and the value of the emotion data 121 may be reflected in the motion selection. For example, a plurality of growth tables 123 may be prepared according to the values of the emotion data 121 to set the types of motions for richly expressing emotions. An action may be selected, or the action selection probability value of each action recorded in the motion table 125 may be adjusted according to the value of the emotion data 121 . As a result, the robot 200 can perform actions that reflect more current emotions.

また、図15のステップS107での判定がYesとなった場合には、ステップS106の動作選択処理において、自発的な動作として呼吸動作や性格に伴う動作が行われるが、その際には、感情データ121のX値及びY値に応じた動作が行われるようにしてもよい。 Further, when the determination in step S107 of FIG. 15 is Yes, in the action selection process of step S106, a breathing action or an action associated with personality is performed as a spontaneous action. An operation may be performed according to the X value and Y value of the data 121 .

また、感情データ121のY値は、正の方向が興奮度に、負の方向が無気力度に対応するので、ロボット200が出力する鳴き声の音量をY値に応じて変更してもよい。すなわち、処理部110は、感情データ121のY値が正の値で大きいほどスピーカ231から出力する鳴き声の音量を上げ、Y値が負の値で小さいほどスピーカ231から出力する鳴き声の音量を下げるようにしてもよい。 Moreover, since the Y value of the emotion data 121 corresponds to excitement in the positive direction and lethargy in the negative direction, the volume of the cry output by the robot 200 may be changed according to the Y value. That is, the processing unit 110 increases the volume of the cry output from the speaker 231 as the Y value of the emotion data 121 is a positive value and increases, and decreases the volume of the cry output from the speaker 231 as the Y value is negative and decreases. You may do so.

また、成長テーブル123は、ロボット200の用途(例えば、幼児向けの情操教育用、お年寄り向けの対話用等)によって、複数のバリエーションが用意されていてもよい。また、ロボット200の用途を変更したい場合等のために、通信部130を介して成長テーブル123を外部のサーバ等からダウンロードできるようになっていてもよい。 In addition, the growth table 123 may have a plurality of variations depending on the application of the robot 200 (for example, emotional education for young children, conversation for the elderly, etc.). Further, the growth table 123 may be downloaded from an external server or the like via the communication unit 130 in case the application of the robot 200 is desired to be changed.

また、上述の動作選択処理では、4つの性格値の中で最も大きい値を成長値として用いたが、成長値はこれに限定されない。例えば、成長日数データ126に基づいて成長値を設定してもよい(例えば、成長日数データ126を所定の値(例えば10)で割って小数点以下を切り捨てた値を成長値として用いる等)。ユーザに放置されたロボット200は、性格値の値が小さいままであることが多く、性格値の最大値を成長値とした場合には、性格動作が選択されない場合もあり得る。このような場合でも、成長日数データ126に基づいて成長値を設定すれば、ユーザによるお世話の頻度には関係なく、成長日数に応じて性格動作が選択されるようになる。また、性格値と成長日数データ126との両方に基づいて成長値を設定してもよい(例えば、性格値の中で最も大きい値と成長日数データ126との和を所定の値で割って小数点以下を切り捨てた値を成長値として用いる等)。 Also, in the action selection process described above, the largest value among the four personality values is used as the growth value, but the growth value is not limited to this. For example, the growth value may be set based on the number of days of growth data 126 (for example, a value obtained by dividing the number of days of growth data 126 by a predetermined value (eg, 10) and rounding off the decimal point is used as the growth value). The character value of the robot 200 left unattended by the user often remains small, and if the maximum value of the character value is set as the growth value, the character action may not be selected. Even in such a case, if the growth value is set based on the growth days data 126, character behavior can be selected according to the growth days regardless of the frequency of care by the user. Also, the growth value may be set based on both the personality value and the growth days data 126 (for example, the sum of the largest personality value and the growth days data 126 is divided by a predetermined value, (e.g., use a value obtained by truncating the following as the growth value).

また、上述の実施形態では、感情変化データ122に基づいて性格値を設定したが、性格値の設定方法は、この方法に限定されない。例えば、性格値を感情変化データ122に基づかずに、外部刺激データから直接的に設定してもよい。例えば、撫でられたら性格値(活発)を増加させ、叩かれたら性格値(シャイ)を減少させる等の方法が考えられる。また、性格値を感情データ121に基づいて設定してもよい。例えば、感情データ121のX値及びY値をそれぞれ1/10にした値を性格値にする等の方法が考えられる。 Also, in the above-described embodiment, the personality value is set based on the emotion change data 122, but the method of setting the personality value is not limited to this method. For example, personality values may be set directly from external stimulus data without being based on emotion change data 122 . For example, it is conceivable to increase the character value (active) when being stroked, and decrease the character value (shy) when being hit. Also, the personality value may be set based on the emotion data 121 . For example, a method is conceivable in which a value obtained by multiplying the X value and Y value of the emotion data 121 by 1/10 is used as the personality value.

以上説明した動作制御処理によれば、ロボット200に疑似的な感情(感情データ121)を持たせることができる。また、感情データ121を変化させる感情変化データ122を外部刺激に応じて学習することによって、ロボット200の個々が外部刺激に応じて異なる感情の変化を表すようになる結果、ロボット200の個々に疑似的な性格(性格値)を持たせることができる。また、感情変化データ122から性格が導出されるため、感情変化データ122をコピーすることによって、同一の性格を持つクローンロボットを生成することも可能になる。例えば、感情変化データ122のバックアップデータを保存しておけば、ロボット200が故障してしまっても、バックアップデータを復元することによって、同一の性格を持つロボット200を再生することができる。 According to the motion control processing described above, the robot 200 can be given a pseudo emotion (emotion data 121). In addition, by learning the emotion change data 122 that changes the emotion data 121 according to external stimuli, each robot 200 expresses different changes in emotion according to the external stimulus. It is possible to give a character (personality value). Also, since the personality is derived from the emotion change data 122, it is possible to create clone robots having the same personality by copying the emotion change data 122. FIG. For example, if backup data of the emotion change data 122 is stored, even if the robot 200 breaks down, the robot 200 having the same character can be reproduced by restoring the backup data.

そして、性格値に基づいて算出される成長値が増加するほど、選択されうる動作のバリエーションが豊かになるので、ロボット200が疑似的に成長する(成長値が増加する)ことによって、より豊かな動作を表現することができるようになる。また、ロボット200は、成長が進んだら成長後の動作のみをするわけではなく、成長テーブル123で規定された動作選択確率に応じて以前から行われていた動作の全てから動作が選択され得る。したがって、ユーザはロボット200の成長後も、購入当初の頃の動作を時々見ることができ、より愛情を感じることができるようになる。 As the growth value calculated based on the personality value increases, the variation of the action that can be selected becomes richer. Be able to express actions. In addition, the robot 200 does not only perform post-growth motions after growth progresses, but can select motions from all previous motions according to motion selection probabilities defined in the growth table 123. - 特許庁Therefore, even after the robot 200 has grown, the user can sometimes see the behavior when the robot 200 was first purchased, and can feel more affection for it.

また、ロボット200の疑似的な成長は、第1期間(例えば50日間)の間だけに限定され、その後の感情変化データ122(性格)は固定されるので、他の普通の機器のようにリセットをすることができず、ユーザにあたかも本当に生きているペットに接しているかのような感覚を生じさせることができる。 In addition, the artificial growth of the robot 200 is limited only during the first period (for example, 50 days), and the emotional change data 122 (personality) after that is fixed, so it can be reset like other ordinary devices. It can make the user feel as if they are interacting with a real living pet.

さらに、性格が固定された後も、その後のユーザのロボット200への接し方に基づいて、性格補正値が変化し、性格補正値によって補正された性格値に基づいてロボット200は動作する。したがって、ユーザはロボット200の疑似的な成長が完了した後も、接し方に応じてロボット200の反応が変化する様を楽しむことができる。また、ロボット200を放置すれば、感情マップ300上での最長存在エリアは中央付近になり、性格補正値は0に戻るため、ロボット200は、成長後の元の性格を反映した動作を行うことができる。 Furthermore, even after the personality is fixed, the personality correction value changes based on how the user interacts with the robot 200 thereafter, and the robot 200 operates based on the personality value corrected by the personality correction value. Therefore, even after the pseudo growth of robot 200 is completed, the user can enjoy how robot 200 reacts differently depending on how it interacts with robot 200 . Also, if the robot 200 is left alone, the longest existing area on the emotion map 300 will be near the center, and the personality correction value will return to 0, so the robot 200 will perform actions that reflect the original personality after growth. can be done.

また、疑似的な感情は複数の感情データ(感情データ121のX,Y)で表され、疑似的な性格は複数の感情変化データ(感情変化データ122のDXP,DXM,DYP,DYM)で表されるので、複雑な感情及び性格を表現することができる。 A pseudo emotion is represented by a plurality of emotion data (X, Y of emotion data 121), and a pseudo personality is represented by a plurality of emotion change data (DXP, DXM, DYP, DYM of emotion change data 122). It is possible to express complex emotions and personalities.

そして、この疑似的な性格を導出するための感情変化データ122は、センサ部210が備える複数のセンサにより取得された互いに異なる種類の複数の外部刺激の各々に応じて学習されるので、ユーザのロボット200への接し方によって、多種多様な疑似的な性格を生成することができる。 Emotion change data 122 for deriving this pseudo personality is learned according to each of a plurality of external stimuli of different types acquired by a plurality of sensors provided in sensor unit 210, so that the user's A wide variety of pseudo personalities can be generated depending on how the robot 200 is touched.

次に、ロボット200が備えるスリープ機能、アラーム機能、添い寝機能について、順に説明する。 Next, the sleep function, alarm function, and co-sleeping function of the robot 200 will be described in order.

ロボット200は、バッテリーを電源として動作しているため、省エネ制御が必要であるが、ペットのような生き物感を出すためには、単に動作停止するのではなく、あたかも寝ているかのように見える制御を行った方がよい。以下、ロボット200が寝ているかのように見えるようにロボット200を制御する制御モードをスリープ制御モードと呼ぶ。スリープ制御モードにより、ロボット200が寝ているかのように見える機能としてスリープ機能が実現される。ロボット200は、周囲が暗くなる等の何らかのスリープ条件が満たされると、図15に示す動作制御処理のスレッドを停止させることによってスリープ状態に移行し、消費電力を抑制する。そして、その後特定の外部刺激を取得すると(又はアラーム時刻になると)、停止していた動作制御処理のスレッドを再開して通常状態に移行する。なお、通常状態とは、動作制御処理のスレッド等、ロボット200において通常の動作に必要なすべてのスレッドが動作している状態であり、定期的に呼吸動作を行ったり、外部刺激に反応する動作を行ったりする状態をいう。 Since the robot 200 operates using a battery as a power source, energy-saving control is required. Better to be in control. Hereinafter, a control mode for controlling the robot 200 so that the robot 200 looks as if it is sleeping is called a sleep control mode. The sleep control mode implements a sleep function as a function that makes the robot 200 look as if it is sleeping. When some sleep condition is satisfied, such as when the surroundings become dark, the robot 200 stops the thread of the motion control processing shown in FIG. After that, when a specific external stimulus is acquired (or when the alarm time is reached), the stopped thread of the motion control process is resumed and the state is shifted to the normal state. Note that the normal state is a state in which all the threads necessary for normal motion of the robot 200, such as threads for motion control processing, are running, and the robot 200 performs regular breathing motions and responds to external stimuli. It refers to the state of performing

基本的には、ロボット200は、照度センサによって周囲が暗くなったという条件(第2スリープ条件)が満たされたことを検知すると、消費電力(特に駆動部220や出力部230が消費する消費エネルギー)を抑制するスリープ制御モードに入る(通常状態からスリープ状態に移行する)。そして、確実な省エネを実現するために、ロボット200は、スリープ制御モードに入ると、その後周囲が明るくなってもスリープ状態から通常状態に移行しない。 Basically, when the illuminance sensor detects that the surroundings have become dark (the second sleep condition), the robot 200 consumes power (especially the energy consumed by the drive unit 220 and the output unit 230). ) to enter sleep control mode (transition from normal state to sleep state). In order to achieve reliable energy saving, once the robot 200 enters the sleep control mode, it does not shift from the sleep state to the normal state even if the surroundings become bright thereafter.

本実施形態の通常のスリープ制御モードでのスリープ状態においては、ユーザが、ロボット200を、頭部204を上にして抱っこしたり、撫でたり、大きな声で呼んだりすると、ロボット200はスリープ制御モードを解除して、スリープ状態から通常状態に移行する。なお、通常のスリープ制御モードを解除する外部刺激(ここでは、「頭部204を上にして立てられた」、「撫でられた」又は「大きな声が聞こえた」という外部刺激)を通常刺激とも呼び、通常のスリープ状態を第2スリープ状態とも呼ぶ。 In the sleep state of the normal sleep control mode of this embodiment, when the user holds the robot 200 with the head 204 upward, strokes it, or calls it in a loud voice, the robot 200 enters the sleep control mode. to switch from sleep mode to normal mode. An external stimulus that cancels the normal sleep control mode (here, an external stimulus such as “standing with the head 204 up,” “stroking,” or “hearing a loud voice”) is also called a normal stimulus. The normal sleep state is also called the second sleep state.

しかし、例えばロボット200のバッテリーをしっかり充電したい場合や、ユーザがロボット200と一緒に外出したりする場合等、基本的にはスリープ状態から通常状態に移行して欲しくない状況も発生しうる。このような状況のために、ロボット200は、通常状態に移行しにくいスリープ制御モード(以下「ハードスリープ制御モード」という)も備える。 However, there may be situations where the user does not want the robot 200 to transition from the sleep state to the normal state. For such situations, the robot 200 also has a sleep control mode (hereinafter referred to as a "hard sleep control mode") in which transition to a normal state is difficult.

本実施形態では、第1スリープ条件が満たされた場合に、ロボット200はハードスリープ制御モードに入る(通常状態からハードスリープ状態に移行する)。第1スリープ条件は、以下の2つの条件のいずれかが成立している場合に、成立する。
(1)充電中に周囲が暗くなった。
(2)ロボット200がユーザにより立たされている状態(頭部204を上にして保持された状態)で周囲が暗くなった。
ただし、実際には周囲が暗くなくても、充電中又はユーザがロボット200を立てた状態で照度センサ214を手で隠す等すれば、照度センサ214で検出される照度が低下するため、ロボット200は、第1スリープ条件が満たされたと判断して、ハードスリープ制御モードに入る。
In this embodiment, the robot 200 enters the hard sleep control mode (transitions from the normal state to the hard sleep state) when the first sleep condition is satisfied. The first sleep condition is met when either of the following two conditions is met.
(1) The surroundings became dark during charging.
(2) The surroundings became dark while the robot 200 was standing by the user (held with the head 204 facing up).
However, even if the surroundings are not actually dark, the illuminance detected by the illuminance sensor 214 decreases when the user hides the illuminance sensor 214 while the robot 200 is being charged or when the robot 200 is upright. determines that the first sleep condition is met and enters a hard sleep control mode.

ハードスリープ制御モードでは、ユーザがロボット200を撫でたり大きな声で呼びかけたりしても、ロボット200は通常状態に移行しない。ただし、生き物感を出すために、処理部110は、予め定められた特定外部刺激(本実施形態では「撫でられた」という外部刺激)を検出したら、一時的に準スリープ状態に移行して、駆動部220や出力部230を制御し、その後またハードスリープ状態に戻ることもできるようにしている。このため、ハードスリープ制御モードには、複数のレベル(以下「スリープレベル」という)が用意される。なお、準スリープ状態では、通常状態の場合よりも消費電力が抑制されるように、駆動部220や出力部230を制御する(本実施形態では、寝息の音を出したり、呼吸動作をさせたりする)第1抑制モードを実行する。また、ハードスリープ状態では、準スリープ状態の場合よりもさらに消費電力が抑制されるように、駆動部220や出力部230を制御する(本実施形態では、駆動部220を静止させ、出力部230からは何も出力させない)第2抑制モードを実行する。 In the hard sleep control mode, even if the user strokes the robot 200 or calls out loudly, the robot 200 does not transition to the normal state. However, in order to create a sense of life, the processing unit 110 detects a predetermined specific external stimulus (external stimulus "stroked" in this embodiment), temporarily shifts to a quasi-sleep state, It controls the drive unit 220 and the output unit 230, and can return to the hard sleep state after that. For this reason, a plurality of levels (hereinafter referred to as "sleep levels") are prepared for the hard sleep control mode. In the quasi-sleep state, the driving unit 220 and the output unit 230 are controlled so that power consumption is suppressed more than in the normal state (in this embodiment, sleep sound is emitted, breathing is performed, etc.). and) execute the first suppression mode. In addition, in the hard sleep state, the drive unit 220 and the output unit 230 are controlled so that power consumption is further suppressed than in the semi-sleep state (in this embodiment, the drive unit 220 is stopped and the output unit 230 is controlled). output nothing from ) to execute the second suppression mode.

スリープレベル1は、生き物感はなくなるが、消費電力を最も抑制できる制御モードであり、ロボット200は、ハードスリープ制御モードが解除されるまで全く動作しない。 Sleep level 1 is a control mode in which power consumption can be minimized, although there is no sense of life, and the robot 200 does not operate at all until the hard sleep control mode is canceled.

スリープレベル2は、特定外部刺激を受けたら、駆動部220は動作させずに、音のみで生き物感を出すモードである。本実施形態では、ユーザに撫でられると、ロボット200は準スリープ状態に移行して、所定の時間(例えば5秒間)寝息の音をスピーカ231から出力し、その後またハードスリープ状態に戻る。なお、準スリープ状態とは、ハードスリープ制御モードにおいて、ロボット200が生き物感を出すために、第1抑制モードを実行する(一時的に動いたり音を出したりする)状態をいう。準スリープ状態(第1抑制モード実行中)では一時的に動いたり音を出したりするものの、図15に示す動作制御処理のスレッドを停止させたままにして、電力を消費するモータの連続駆動や、大きな動き、大きな音の出力等は実行しないため、外部刺激に応じた動作や自発的な動作が抑えられ、通常状態よりも駆動部220や出力部230が消費する消費エネルギーを抑制することができる。 Sleep level 2 is a mode in which when a specific external stimulus is received, the drive unit 220 does not operate, and only sound gives a sense of life. In this embodiment, when being stroked by the user, the robot 200 shifts to a semi-sleep state, outputs the sound of breathing from the speaker 231 for a predetermined time (for example, 5 seconds), and then returns to the hard sleep state. Note that the quasi-sleep state is a state in which the robot 200 executes the first restraint mode (temporarily moves or makes sounds) in the hard sleep control mode in order to give a sense of life. In the quasi-sleep state (during execution of the first suppression mode), although it temporarily moves and makes sounds, the thread of the operation control processing shown in FIG. Since large movements and output of loud sounds are not performed, the movement in response to an external stimulus or spontaneous movement is suppressed, and the consumption energy consumed by the driving section 220 and the output section 230 can be suppressed more than in the normal state. can.

スリープレベル3は、特定外部刺激を受けたら、駆動部220を動作させて、より生き物感を出すモードである。本実施形態では、ユーザに撫でられると、ロボット200は、所定の時間(例えば5秒間)準スリープ状態に移行して、駆動部220を駆動して、呼吸動作を行い、その後またハードスリープ状態に戻る。 Sleep level 3 is a mode in which the driving unit 220 is operated upon receiving a specific external stimulus to give a more lifelike feeling. In this embodiment, when the user strokes the robot 200, the robot 200 shifts to a quasi-sleep state for a predetermined period of time (for example, 5 seconds), drives the driving unit 220, performs a breathing operation, and then returns to a hard sleep state. return.

このように、ロボット200は、消費電力を抑制するハードスリープ制御モードにおいても、スリープレベルが2又は3のときには、ユーザに撫でられるといったような特定外部刺激(第2刺激ともいう)を取得すると、準スリープ状態に移行し、寝息を立てたり、呼吸の動作をしたりするため、ユーザは、ロボット200を本物の生き物のように感じることができる。そして、準スリープ状態が所定の時間継続したときに、準スリープ状態からハードスリープ状態に戻るため、消費電量を抑制する状態を継続することができる。なお、本実施形態では、準スリープ状態で出力する音は、寝息の音としたが、呼吸の音等、他の音を出力してもよい。また準スリープ状態で、呼吸動作に加えて、寝息や呼吸の音を出力してもよい。 In this way, even in the hard sleep control mode that suppresses power consumption, when the robot 200 acquires a specific external stimulus (also called a second stimulus) such as being stroked by the user when the sleep level is 2 or 3, The user can feel the robot 200 as if it were a real living creature because it shifts to a quasi-sleep state, takes a deep breath, and makes breathing movements. Then, when the quasi-sleep state continues for a predetermined period of time, the quasi-sleep state returns to the hard sleep state, so that the state of suppressing power consumption can be continued. In this embodiment, the sound output in the quasi-sleep state is the sound of breathing, but other sounds such as the sound of breathing may be output. Also, in the quasi-sleep state, in addition to the breathing motion, the sound of sleeping and breathing may be output.

なお、ハードスリープ制御モードを解除する方法は、任意の方法を設定可能であるが、本実施形態では、ユーザがロボット200を立てた状態で保持する(頭部204を上にした状態で保持する)と、ロボット200はハードスリープ制御モードを解除して通常状態に移行する。なお、ハードスリープ制御モードを解除する外部刺激(ここでは「頭部204を上にして立てられた」という外部刺激)を第1刺激とも呼び、ハードスリープ状態を第1スリープ状態とも呼ぶ。 Any method can be used to cancel the hard sleep control mode. ), the robot 200 cancels the hard sleep control mode and shifts to the normal state. The external stimulus for canceling the hard sleep control mode (here, the external stimulus of "standing with the head 204 up") is also called the first stimulus, and the hard sleep state is also called the first sleep state.

そして、ハードスリープ制御モードでは、処理部110は、上述の特定外部刺激も第1刺激も検出されていない間は、上述の第1抑制モードよりもバッテリーの消費電力を抑制させるように駆動部220や出力部230を制御する(本実施形態では、全く動かず、音も出さない)第2抑制モードを実行する。なお、第2抑制モードは、完全に停止することに限定されるわけではなく、第1抑制モードを実行している場合よりもバッテリーの消費電力を抑制できる動作や音の出力を行ってもよい。ロボット200は、第1抑制モードによって特定外部刺激に応じた動作を表現できるため、生き物感をより向上させることができる。また、ロボット200は、第2抑制モードによって消費エネルギーをより抑制することができる。 In the hard sleep control mode, while neither the specific external stimulus nor the first stimulus is detected, the processing unit 110 causes the drive unit 220 to suppress battery power consumption more than in the first suppression mode. and the output unit 230 (in this embodiment, no movement and no sound) is executed. In addition, the second suppression mode is not limited to stopping completely, and may perform an operation or output a sound that can suppress the power consumption of the battery more than when the first suppression mode is executed. . Since the robot 200 can express motions in response to a specific external stimulus in the first restraint mode, it is possible to further improve the sense of being alive. In addition, the robot 200 can further reduce energy consumption in the second reduction mode.

次に、ロボット200のアラーム機能及び添い寝機能について説明する。ロボット200は図1に示すように、ぬいぐるみのような外観をしているので、ユーザは、ロボット200を抱きながら、ロボット200と一緒に眠ることもできる。 Next, the alarm function and co-sleeping function of the robot 200 will be described. As shown in FIG. 1, the robot 200 looks like a stuffed toy, so the user can sleep with the robot 200 while holding it.

この場合、ロボット200は、音を出さなくても、駆動部220を動かしてユーザを起こすことが可能である。通常の目覚まし時計のアラーム音は、ユーザを不快にさせることが多いが、一緒に寝ているロボット200がもぞもぞと動くことによって、ユーザを起こすのであれば、それほど不快に感じないユーザが多いと考えられる。 In this case, the robot 200 can wake up the user by moving the drive unit 220 without making a sound. The alarm sound of a normal alarm clock often makes the user uncomfortable, but if the robot 200 sleeping together wakes the user up by wobbling, it is thought that many users will not feel so uncomfortable. be done.

ロボット200は、このようなアラーム機能を提供する。しかし、ユーザが寝ている間にロボット200を無意識に撫でたりした場合にロボット200が動いてしまうと、ユーザを起こしてしまいかねない。そこで、ロボット200がユーザと添い寝をしている間は、ロボット200の動作を停止させる機能が添い寝機能である。ただし、本実施形態では、単にロボット200の動作を停止させるのではなく、ロボット200の駆動部220や出力部230が消費する消費エネルギーを抑制する抑制モード(本実施形態ではハードスリープ制御モード)を実行することによって、添い寝機能を実現する。これにより、寝ている間にユーザを起こさないようにすることと、消費電力の抑制とを両立させることができる。 Robot 200 provides such an alarm function. However, if the robot 200 moves when the user unconsciously strokes the robot 200 while sleeping, the user may be woken up. Therefore, the function of stopping the motion of the robot 200 while the robot 200 is co-sleeping with the user is the co-sleeping function. However, in this embodiment, instead of simply stopping the operation of the robot 200, a suppression mode (a hard sleep control mode in this embodiment) that suppresses energy consumed by the drive unit 220 and the output unit 230 of the robot 200 is set. By executing it, the co-sleeping function is realized. As a result, it is possible to achieve both the prevention of waking the user while sleeping and the suppression of power consumption.

ロボット200は、表示画面等を備えていないため、アラーム機能や添い寝機能の設定は、ロボット200の通信部130を介して接続したスマートフォンのアプリケーションプログラムを用いて、ユーザによって行われる。このスマートフォンのアプリケーションプログラムにおけるアラーム機能及び添い寝機能の設定画面の一例を図18に示す。 Since the robot 200 does not have a display screen or the like, the setting of the alarm function and the co-sleeping function is performed by the user using an application program of a smartphone connected via the communication unit 130 of the robot 200 . FIG. 18 shows an example of a setting screen for the alarm function and co-sleeping function in this smartphone application program.

図18に示すように、ユーザは、スマートフォンの画面501から、アラーム時刻、曜日毎のアラームのON/OFF、アラーム時のロボット200の動きの強弱、アラーム時のロボット200の鳴き声のON/OFF、スヌーズの回数(0回ならスヌーズOFF)、添い寝モードレベル(ハードスリープ制御モードのレベル(スリープレベル)に相当)、添い寝開始時刻(添い寝機能を開始する時刻。睡眠開始時刻とも言う。)等を入力し、これらをロボット200に送信することによって、ロボット200にアラーム機能や添い寝機能の各種設定値を入力することができる。 As shown in FIG. 18, the user can select the alarm time, turn on/off the alarm for each day of the week, turn on/off the movement of the robot 200 at the time of the alarm, turn on/off the sound of the robot 200 at the time of the alarm, Enter the number of times to snooze (if it is 0 times, snooze is OFF), co-sleeping mode level (equivalent to the hard sleep control mode level (sleep level)), co-sleeping start time (time to start the co-sleeping function. Also called sleep start time), etc. By transmitting these to the robot 200 , various set values for the alarm function and the co-sleeping function can be input to the robot 200 .

なお、図18では、これらの設定データを1つの画面501で設定する例を示しているが、これらのうち、アラーム時刻、曜日ON/OFF、アラーム動作強弱、鳴き声ON/OFF及びスヌーズ回数は、アラーム機能に関する設定値なので、アラーム設定データという。また、添い寝モードレベル及び添い寝開始時刻は、添い寝機能に関する設定値なので、添い寝設定データという。スマートフォンのアプリケーションプログラムにおいて、アラーム設定データの設定画面と、添い寝設定データの設定画面とを、別の画面とするように画面を設計してもよい。なお、アラーム動作とは、アラーム時刻(アラームが設定された時刻)になると、ロボット200が駆動部220によってもぞもぞと動いたり、スピーカ231で鳴き声を発したりする動作のことである。 Note that FIG. 18 shows an example in which these setting data are set on one screen 501. Of these, the alarm time, day of the week ON/OFF, alarm operation strength, bark ON/OFF, and snooze count are Since it is a setting value related to the alarm function, it is called alarm setting data. Since the co-sleeping mode level and the co-sleeping start time are set values related to the co-sleeping function, they are referred to as co-sleeping setting data. In the smartphone application program, screens may be designed so that the alarm setting data setting screen and the co-sleeping setting data setting screen are separate screens. Note that the alarm operation is an operation in which the robot 200 squirms by the driving unit 220 or emits a barking sound from the speaker 231 when the alarm time (the time when the alarm is set) comes.

次に、図19に示すフローチャートを参照しながら、ロボット200のアラーム機能を実現するアラーム制御処理について説明する。ユーザがロボット200の電源を入れると、上述の動作制御処理、後述するスリープ制御処理等と並行に、このアラーム制御処理が開始される。 Next, alarm control processing for realizing the alarm function of the robot 200 will be described with reference to the flowchart shown in FIG. When the user turns on the power of the robot 200, the alarm control process is started in parallel with the operation control process described above, the sleep control process described later, and the like.

まず、処理部110は、アラーム時刻等、アラーム機能に関する各種パラメータ(アラームパラメータ)を初期化する(ステップS401)。なお、アラームパラメータを記憶部120のフラッシュメモリに記憶させておくことで、ロボット200の電源を入れる度にこれらの値が初期化されないようにしてもよい。 First, the processing unit 110 initializes various parameters (alarm parameters) related to the alarm function such as alarm time (step S401). By storing the alarm parameters in the flash memory of the storage unit 120, these values may not be initialized each time the power of the robot 200 is turned on.

次に処理部110は、通信部130を介してスマートフォンからアラーム設定データを受信したか否かを判定する(ステップS402)。アラーム設定データが受信されたら(ステップS402;Yes)、処理部110は、受信したアラーム設定データに基づいてアラームパラメータを設定し(ステップS403)、ステップS404に進む。 Next, the processing unit 110 determines whether alarm setting data has been received from the smartphone via the communication unit 130 (step S402). When the alarm setting data is received (step S402; Yes), the processing unit 110 sets alarm parameters based on the received alarm setting data (step S403), and proceeds to step S404.

アラーム設定データが受信されていなければ(ステップS402;No)、処理部110は、アラームパラメータが設定済みであるか否かを判定する(ステップS404)。アラームパラメータが設定済みでなければ(ステップS404;No)、ステップS402に戻る。 If alarm setting data has not been received (step S402; No), processing unit 110 determines whether or not alarm parameters have been set (step S404). If the alarm parameters have not been set (step S404; No), the process returns to step S402.

アラームパラメータが設定済みなら(ステップS404;Yes)、処理部110は、クロック機能により、現在時刻がアラーム時刻であり本日の曜日がアラームONと設定されているか否かを判定する(ステップS405)。現在時刻がアラーム時刻でないか、又は本日の曜日がアラームONに設定されていなければ(ステップS405;No)、ステップS402に戻る。 If the alarm parameters have been set (step S404; Yes), the processing unit 110 uses the clock function to determine whether the current time is the alarm time and the alarm is set to ON for today's day of the week (step S405). If the current time is not the alarm time or if the alarm is not set to ON for today's day of the week (step S405; No), the process returns to step S402.

現在時刻がアラーム時刻であり本日の曜日がアラームONに設定されているなら(ステップS405;Yes)、処理部110は、アラームパラメータに設定されているスヌーズ回数を変数Sに設定するとともにスヌーズ時刻(例えばアラーム時刻の5分後)を設定する(ステップS406)。そして、処理部110はアラームパラメータに設定されているアラーム動作強弱及び鳴き声ON/OFFの値に基づいて駆動部220及びスピーカ231を制御することにより、アラーム動作を実行する(ステップS407)。なお、後述するスリープ制御処理によって、上述の動作制御処理のスレッドが一時停止されていた場合、ステップS407で、処理部110は、動作制御処理のスレッドを再開(Wake-up)させる処理も行う。 If the current time is the alarm time and the alarm is set to ON for today's day of the week (step S405; Yes), the processing unit 110 sets the snooze count set in the alarm parameter to the variable S and the snooze time ( For example, 5 minutes after the alarm time) is set (step S406). Then, the processing unit 110 executes the alarm operation by controlling the driving unit 220 and the speaker 231 based on the values of the alarm operation intensity and bark ON/OFF set in the alarm parameters (step S407). It should be noted that if the thread for the operation control processing has been suspended by sleep control processing, which will be described later, the processing unit 110 also performs processing for restarting (wake-up) the thread for the operation control processing in step S407.

アラーム動作を実行することで、ロボット200は、駆動部220によってもぞもぞと動いたり、スピーカ231で鳴き声を発したりする。これによりユーザは不快を感じることなく、自然に目覚めることができる。また、動作制御処理スレッドが再開されることにより、ロボット200は通常状態になるため、ロボット200は呼吸動作を再開し、例えばユーザが撫でれば反応するようになる。したがって、ユーザは、アラーム動作で起床できなくても、その後のロボット200の呼吸動作や自然な反応によって目を覚ますことも可能になる。 By executing the alarm action, the robot 200 squirms by the drive unit 220 or emits a barking sound from the speaker 231 . This allows the user to wake up naturally without feeling discomfort. In addition, by restarting the motion control processing thread, the robot 200 becomes normal, so the robot 200 resumes breathing motions, and responds, for example, to the user's stroke. Therefore, even if the user cannot wake up by the alarm action, the user can wake up by the subsequent breathing action or natural reaction of the robot 200 .

そして、処理部110は、アラーム停止操作が行われたか否かを判定する(ステップS408)。アラーム停止操作としては任意の操作を規定可能であるが、本実施形態では、ユーザがロボット200の頭を持ち上げてロボット200を立てると、アラーム停止操作が行われたと判定することとする。 Then, the processing unit 110 determines whether or not an alarm stop operation has been performed (step S408). Any operation can be defined as the alarm stop operation, but in the present embodiment, it is determined that the alarm stop operation has been performed when the user raises the head of the robot 200 to stand the robot 200 upright.

ユーザによるアラーム停止操作が行われたら(ステップS408;Yes)、処理部110は、このアラーム停止操作に応じてアラーム動作を停止して(ステップS409)、ステップS402に戻る。 If the user has performed an alarm stop operation (step S408; Yes), the processing unit 110 stops the alarm operation in response to this alarm stop operation (step S409), and returns to step S402.

ユーザによるアラーム停止操作が行われなければ(ステップS408;No)、処理部110は、残りのスヌーズ回数が設定されている変数Sの値が1以上であるか否かを判定する(ステップS410)。変数Sの値が0なら(ステップS410;No)、ステップS402に戻る。 If the user does not perform an alarm stop operation (step S408; No), the processing unit 110 determines whether the value of the variable S in which the remaining snooze count is set is 1 or more (step S410). . If the value of the variable S is 0 (step S410; No), the process returns to step S402.

変数Sの値が1以上なら(ステップS410;Yes)、処理部110は、現在時刻がスヌーズ時刻であるか否かを判定する(ステップS411)。スヌーズ時刻でなければ(ステップS411;No)、ステップS408に戻る。 If the value of the variable S is 1 or more (step S410; Yes), the processing unit 110 determines whether or not the current time is the snooze time (step S411). If it is not snooze time (step S411; No), the process returns to step S408.

スヌーズ時刻なら(ステップS411;Yes)、処理部110は、変数Sの値を1減らし、スヌーズ時刻を更新(例えば5分後に設定)し(ステップS412)、ステップS407に戻る。 If it is the snooze time (step S411; Yes), the processing unit 110 decrements the value of the variable S by 1, updates the snooze time (for example, sets it to 5 minutes later) (step S412), and returns to step S407.

次に、図20に示すフローチャートを参照しながら、ロボット200のスリープ制御モードや添い寝機能を実現するスリープ制御処理について説明する。ユーザがロボット200の電源を入れると、上述の動作制御処理、アラーム制御処理等と並行に、このスリープ制御処理が開始される。 Next, the sleep control process for implementing the sleep control mode and co-sleeping function of the robot 200 will be described with reference to the flowchart shown in FIG. When the user turns on the robot 200, the sleep control process is started in parallel with the above-described motion control process, alarm control process, and the like.

本実施形態における添い寝機能は、設定された添い寝開始時刻になると、ロボット200が、ユーザと一緒に寝ている状態になっているとみなして、ハードスリープ制御モード(抑制モード)を実行する機能である。上述したように、ユーザがロボット200を立てた状態で照度センサ214を手で隠した場合にもハードスリープ制御モードが実行されるので、ユーザはこの操作により手動で添い寝機能を実行させることもできる。すなわち、本実施形態では、抑制モードの実行条件は、現在時刻が添い寝開始時刻であるか、または、上述の第1スリープ条件が成立することである。また、ハードスリープ制御モードには3つのスリープレベルが用意されているが、このスリープレベルの設定は、添い寝モードレベルを設定することによって行われる。 The co-sleeping function in this embodiment is a function that executes a hard sleep control mode (restriction mode) on the assumption that the robot 200 is co-sleeping with the user when the set co-sleeping start time comes. be. As described above, the hard sleep control mode is also executed when the user hides the illuminance sensor 214 with the robot 200 upright, so the user can manually execute the co-sleeping function by this operation. . That is, in the present embodiment, the condition for executing the suppression mode is that the current time is the co-sleeping start time, or that the above-described first sleep condition is satisfied. Also, three sleep levels are prepared for the hard sleep control mode, and these sleep levels are set by setting co-sleeping mode levels.

スリープ制御処理が開始されると、まず、処理部110は、ハードスリープ制御モードのレベル(スリープレベル)等のスリープ制御モードに関する各種パラメータ(以下「スリープパラメータ」という)や、添い寝モードレベル、添い寝開始時刻等の添い寝機能に関する各種パラメータ(以下「添い寝パラメータ」という)を初期化する(ステップS501)。初期化された時の値は、例えば、スリープレベル及び添い寝モードレベルは「レベル1」、添い寝開始時刻は「未設定」である。なお、これらのパラメータを記憶部120のフラッシュメモリに記憶させておくことで、ロボット200の電源を入れる度にこれらの値が初期化されないようにしてもよい。 When the sleep control process is started, first, the processing unit 110 sets various parameters (hereinafter referred to as “sleep parameters”) related to the sleep control mode such as the hard sleep control mode level (sleep level), the co-sleeping mode level, co-sleeping start, and so on. Various parameters related to the co-sleeping function such as time (hereinafter referred to as "co-sleeping parameters") are initialized (step S501). Initialized values are, for example, "level 1" for sleep level and co-sleeping mode level, and "unset" for co-sleeping start time. By storing these parameters in the flash memory of the storage unit 120, these values may not be initialized each time the power of the robot 200 is turned on.

次に処理部110は、通信部130を介してスマートフォンから添い寝設定データを受信したか否かを判定する(ステップS502)。添い寝設定データが受信されたら(ステップS502;Yes)、処理部110は、受信した添い寝設定データに基づいて添い寝パラメータを設定し(ステップS503)、ステップS504に進む。なお、ステップS502及びステップS503では、スリープパラメータに関しても、添い寝パラメータと同様に受信及び設定してもよい。ただし、本実施形態では、スリープレベルは添い寝設定データで設定された添い寝モードレベルと同じ値が使用される。 Next, the processing unit 110 determines whether or not co-sleeping setting data has been received from the smartphone via the communication unit 130 (step S502). When co-sleeping setting data is received (step S502; Yes), processing unit 110 sets co-sleeping parameters based on the received co-sleeping setting data (step S503), and proceeds to step S504. In steps S502 and S503, the sleep parameters may be received and set in the same manner as the co-sleeping parameters. However, in this embodiment, the sleep level uses the same value as the co-sleeping mode level set in the co-sleeping setting data.

添い寝設定データが受信されなければ(ステップS502;No)、処理部110は、現在時刻がステップS503で設定された添い寝開始時刻であるか否かを判定する(ステップS504)。なお、添い寝設定データが過去に全く受信されていない場合は、添い寝開始時刻は「未設定」となり、ステップS504の判定がYesとなることはない。現在時刻が添い寝開始時刻なら(ステップS504;Yes)、処理部110は、添い寝機能の実行条件が成立したと判定し、添い寝機能を実行するために、後述するハードスリープ処理を実行する(ステップS505)。このように時刻に基づいて添い寝機能の実行条件が判定されるため、ロボット200は、添い寝開始時刻に確実に添い寝機能を実行することができる。そして、ステップS502に戻る。 If co-sleeping setting data has not been received (step S502; No), processing unit 110 determines whether the current time is the co-sleeping start time set in step S503 (step S504). If no co-sleeping setting data has been received in the past, the co-sleeping start time will be "unset" and the determination in step S504 will not be YES. If the current time is the co-sleeping start time (step S504; Yes), the processing unit 110 determines that the execution condition for the co-sleeping function is satisfied, and executes hard sleep processing (described later) in order to execute the co-sleeping function (step S505). ). Since the execution condition of the co-sleeping function is determined based on the time in this manner, the robot 200 can reliably execute the co-sleeping function at the co-sleeping start time. Then, the process returns to step S502.

現在時刻が添い寝開始時刻でないなら(ステップS504;No)、処理部110は、照度センサ214で検出される明るさが基準照度よりも暗いか否かを判定する(ステップS506)。照度センサ214で基準照度以上の明るさが検出されたら(ステップS506;No)、ステップS502に戻る。 If the current time is not the co-sleeping start time (step S504; No), processing unit 110 determines whether the brightness detected by illuminance sensor 214 is darker than the reference illuminance (step S506). If the illuminance sensor 214 detects the brightness equal to or higher than the reference illuminance (step S506; No), the process returns to step S502.

照度センサ214で基準照度未満の明るさしか検出されないなら(ステップS506;Yes)、処理部110は、バッテリー253が充電中であるか、又は、頭部204が持ち上げられているかを判定する(ステップS507)。バッテリー253が充電中であるか、又は、頭部204が持ち上げられているなら(ステップS507;Yes)、充電中又は頭部204が持ち上げられている状態(ステップS507;Yes)で、かつ、基準照度未満の明るさしか検出されていない(ステップS506;Yes)ため、処理部110は、第1スリープ条件が成立していると判定し、後述するハードスリープ処理を実行して(ステップS508)、ステップS502に戻る。 If the illuminance sensor 214 detects only brightness less than the reference illuminance (step S506; Yes), the processing unit 110 determines whether the battery 253 is being charged or the head 204 is lifted (step S507). If the battery 253 is being charged or the head 204 is being lifted (step S507; Yes), the state is being charged or the head 204 is being lifted (step S507; Yes), and the reference Since only the brightness less than the illuminance is detected (step S506; Yes), the processing unit 110 determines that the first sleep condition is satisfied, and executes the hard sleep processing described later (step S508). Return to step S502.

バッテリー253が充電中ではなく、かつ、頭部204が持ち上げられてもいないなら(ステップS507;No)、処理部110は、基準照度未満の明るさしか検出されていないため(ステップS506;Yes)、第2スリープ条件が成立していると判定し、上述の動作制御処理のスレッドを一時停止させる(ステップS509)。これにより、ロボット200は第2スリープ状態に移行し、通常の動作を停止(駆動部220を停止、及びスピーカ231からの音の出力を停止)するので、消費電力を抑えることができる。 If the battery 253 is not being charged and the head 204 is not being lifted (step S507; No), the processing unit 110 detects only brightness less than the reference illuminance (step S506; Yes). , it determines that the second sleep condition is satisfied, and suspends the thread of the operation control process (step S509). As a result, the robot 200 shifts to the second sleep state and stops normal operation (stops the driving unit 220 and stops outputting sound from the speaker 231), thereby reducing power consumption.

そして、処理部110は、頭部204が持ち上げられたか否かを判定する(ステップS510)。頭部204が持ち上げられたなら(ステップS510;Yes)、処理部110は、ステップS509で一時停止させた動作制御処理のスレッドを再開させ(ステップS511)、ステップS502に戻る。 Then, the processing unit 110 determines whether or not the head 204 has been lifted (step S510). If the head 204 has been lifted (step S510; Yes), the processing unit 110 restarts the thread of the motion control processing suspended in step S509 (step S511), and returns to step S502.

頭部204が持ち上げられていないなら(ステップS510;No)、処理部110は、ロボット200が撫でられたか否かを判定する(ステップS512)。撫でられたなら(ステップS512;Yes)、ステップS511に進む。 If the head 204 has not been lifted (step S510; No), the processing unit 110 determines whether the robot 200 has been stroked (step S512). If stroked (step S512; Yes), the process proceeds to step S511.

撫でられていないなら(ステップS512;No)、処理部110は、大きな音を検出したか否かを判定する(ステップS513)。大きな音を検出したなら(ステップS513;Yes)、ステップS511に進む。 If not stroked (step S512; No), the processing unit 110 determines whether or not a loud sound has been detected (step S513). If a loud sound is detected (step S513; Yes), the process proceeds to step S511.

大きな音を検出していないなら(ステップS513;No)、ステップS510に戻る。 If no loud sound is detected (step S513; No), the process returns to step S510.

次に、上述の処理中のステップS505及びステップS508で実行されるハードスリープ処理について、図21を参照して説明する。 Next, the hard sleep processing executed in steps S505 and S508 during the above processing will be described with reference to FIG.

まず処理部110は、上述の動作制御処理のスレッドを一時停止させる(ステップS521)。これにより、ロボット200はハードスリープ状態に移行し、通常の動作を停止(駆動部220を停止、及びスピーカ231からの音の出力を停止)するので、消費電力を抑えることができる。なお、本実施形態では、ハードスリープ処理を開始する条件の一部とハードスリープ処理を終了する条件とが共通(頭部204が持ち上げられた)なので、図21では省略したが、処理部110は、ハードスリープ処理を開始した直後にハードスリープ処理を終了しないようにするための処理や判定を行ってもよい。例えば、処理部110は、図21のステップS521とステップS522の間で、頭部204が持ち上げられていない状態になるまで待機してもよい。また、ハードスリープ状態の終了の判定条件(図21のステップS523、S528及びS531)を、「照度センサ214で基準照度以上の明るさが検出され、かつ、頭部204が持ち上げられた」としてもよい。 First, the processing unit 110 suspends the thread of the operation control processing described above (step S521). As a result, the robot 200 shifts to the hard sleep state and stops normal operation (stops the driving unit 220 and stops outputting sound from the speaker 231), thereby reducing power consumption. Note that in the present embodiment, part of the condition for starting the hard sleep process and the condition for ending the hard sleep process are common (the head 204 is lifted), so although omitted in FIG. Alternatively, processing or determination may be performed to prevent the hard sleep processing from ending immediately after the hard sleep processing is started. For example, the processing unit 110 may wait until the head 204 is not lifted between steps S521 and S522 of FIG. Further, even if the conditions for determining the end of the hard sleep state (steps S523, S528, and S531 in FIG. 21) are set to "brightness equal to or higher than the reference illuminance is detected by the illuminance sensor 214 and the head 204 is lifted". good.

次に処理部110は、図18に示すようにしてユーザにより設定されたスリープレベル(本実施例では、ステップS503で設定された添い寝モードレベルと同一)が1であるか否かを判定する(ステップS522)。スリープレベルが1なら(ステップS522;Yes)、処理部110は、頭部204が持ち上げられたか否かを判定する(ステップS523)。頭部204が持ち上げられていなければ(ステップS523;No)、ステップS523に戻る。 Next, the processing unit 110 determines whether or not the sleep level set by the user as shown in FIG. step S522). If the sleep level is 1 (step S522; Yes), the processing unit 110 determines whether or not the head 204 has been lifted (step S523). If the head 204 is not lifted (step S523; No), the process returns to step S523.

頭部204が持ち上げられたなら(ステップS523;Yes)、処理部110は、ステップS521で一時停止させた動作制御処理のスレッドを再開させ(ステップS524)、ハードスリープ処理を終了して、スリープ制御処理のステップS502に戻る。 If the head 204 has been lifted (step S523; Yes), the processing unit 110 resumes the thread of the motion control processing suspended in step S521 (step S524), terminates the hard sleep processing, and resumes sleep control. The process returns to step S502.

一方、ステップS522で、スリープレベルが1でなければ(ステップS522;No)、処理部110は、スリープレベルが2であるか否かを判定する(ステップS525)。スリープレベルが2なら(ステップS525;Yes)、処理部110は、ロボット200が撫でられたか否かを判定する(ステップS526)。撫でられていないなら(ステップS526;No)、ステップS528に進む。撫でられているなら(ステップS526;Yes)、処理部110は、準スリープ状態に移行して、スピーカ231から寝息の音を出力し、ハードスリープ状態に戻る(ステップS527)。この時、動作制御処理のスレッドは停止させたままであり、また、寝息の音の出力を行うだけなので、ステップS527では、通常状態よりも消費電力を抑制することができる。 On the other hand, if the sleep level is not 1 in step S522 (step S522; No), processing unit 110 determines whether the sleep level is 2 (step S525). If the sleep level is 2 (step S525; Yes), the processing unit 110 determines whether or not the robot 200 has been stroked (step S526). If not stroked (step S526; No), the process proceeds to step S528. If stroked (step S526; Yes), the processing unit 110 shifts to the quasi-sleep state, outputs the sound of breathing from the speaker 231, and returns to the hard sleep state (step S527). At this time, the thread for the operation control process remains suspended, and only the sound of sleeping breaths is output. Therefore, in step S527, power consumption can be suppressed more than in the normal state.

そして、処理部110は、頭部204が持ち上げられたか否かを判定する(ステップS528)。頭部204が持ち上げられていなければ(ステップS528;No)、ステップS526に戻る。頭部204が持ち上げられたなら(ステップS528;Yes)、処理部110は、ステップS524に進む。 Then, the processing unit 110 determines whether or not the head 204 has been lifted (step S528). If the head 204 has not been lifted (step S528; No), the process returns to step S526. If the head 204 has been lifted (step S528; Yes), the processing unit 110 proceeds to step S524.

一方、ステップS525で、スリープレベルが2でなければ(ステップS525;No)、スリープレベルは3であり、処理部110は、ロボット200が撫でられたか否かを判定する(ステップS529)。撫でられていないなら(ステップS529;No)、ステップS531に進む。撫でられているなら(ステップS529;Yes)、処理部110は、準スリープ状態に移行し、所定の時間(例えば1分間)だけ駆動部220を制御してロボット200に呼吸動作を行わせ、ハードスリープ状態に戻る(ステップS530)。この時、動作制御処理のスレッドは停止させたままであり、また、呼吸動作での駆動部220の動きは通常状態での動きよりも小さいため、ステップS530では、呼吸動作は行うものの、通常状態よりも消費電力を抑制することができる。 On the other hand, if the sleep level is not 2 in step S525 (step S525; No), the sleep level is 3, and the processing unit 110 determines whether or not the robot 200 has been stroked (step S529). If not stroked (step S529; No), the process proceeds to step S531. If being stroked (step S529; Yes), the processing unit 110 shifts to a semi-sleep state, controls the driving unit 220 for a predetermined time (for example, one minute) to cause the robot 200 to perform a breathing motion, and the hardware. Return to the sleep state (step S530). At this time, the thread of the motion control processing remains suspended, and the movement of the driving unit 220 during the breathing motion is smaller than that in the normal state. can also reduce power consumption.

そして、処理部110は、頭部204が持ち上げられたか否かを判定する(ステップS531)。頭部204が持ち上げられていなければ(ステップS531;No)、ステップS529に戻る。頭部204が持ち上げられたなら(ステップS531;Yes)、処理部110は、ステップS524に進む。 Then, the processing unit 110 determines whether or not the head 204 has been lifted (step S531). If the head 204 has not been lifted (step S531; No), the process returns to step S529. If the head 204 has been lifted (step S531; Yes), the processing unit 110 proceeds to step S524.

以上説明したアラーム制御処理により、ロボット200は、アラーム音を出力しなくても、その動きによって、ユーザを自然に起こすことができる。また、スリープ制御処理によって、ロボット200は、添い寝開始時刻以後はハードスリープ制御モードに入るので、ユーザを起こすような余計な動作を行うことはしなくなり、ユーザは安心してロボット200と添い寝をすることができる。そして、スリープ制御モードでは、ロボット200は図15に示す動作制御処理を停止するので、消費電力を抑制することができる。さらに、スリープ制御処理においては、通常のスリープ制御モード以外に通常状態に移行しにくいハードスリープ制御モードも用意することによって、充電中や外出中等、状況に応じて、より確実にロボット200の消費電力を抑制することができる。 With the alarm control processing described above, the robot 200 can naturally wake the user up by its movement without outputting an alarm sound. In addition, the sleep control process allows the robot 200 to enter the hard sleep control mode after the co-sleeping start time, so that unnecessary motions that would wake up the user are eliminated, and the user can co-sleep with the robot 200 with peace of mind. can be done. In the sleep control mode, the robot 200 suspends the motion control process shown in FIG. 15, thereby reducing power consumption. Furthermore, in the sleep control process, besides the normal sleep control mode, by preparing a hard sleep control mode in which it is difficult to shift to the normal state, the power consumption of the robot 200 can be more reliably controlled according to the situation, such as charging or going out. can be suppressed.

上述のスリープ制御処理では、ステップS504で、処理部110は、現在時刻が添い寝開始時刻であるかを判定し、添い寝開始時刻なら、添い寝機能の実行条件が成立したと判定して、添い寝機能(ハードスリープ処理)を開始するようにしている。しかし、添い寝機能を開始するタイミングは添い寝開始時刻に限定されない。例えば、添い寝設定データとして、添い寝開始時刻の代わりに、又は、添い寝開始時刻に加えて、ユーザが睡眠する期間を「添い寝期間」として設定可能にしてもよい。そして、処理部110は、現在時刻が「添い寝期間」に含まれていたら、添い寝機能の実行条件が成立したと判定してもよい。さらに、添い寝機能の実行条件としては、添い寝開始時刻等の添い寝設定データに基づく条件に限らず、ユーザの睡眠に係る任意の条件を設定することができる。 In the sleep control process described above, in step S504, processing unit 110 determines whether the current time is the co-sleeping start time. hard sleep processing) is started. However, the timing to start the co-sleeping function is not limited to the co-sleeping start time. For example, as the co-sleeping setting data, instead of or in addition to the co-sleeping start time, a period during which the user sleeps may be set as a "co-sleeping period". Then, if the current time is included in the "co-sleeping period", the processing unit 110 may determine that the execution condition of the co-sleeping function is met. Furthermore, the execution condition of the co-sleeping function is not limited to the condition based on the co-sleeping setting data such as the co-sleeping start time, but any condition related to the user's sleep can be set.

例えば、ユーザに生体センサ(脈拍等のユーザの生体情報を検出するセンサ)を備える生体情報検出装置(例えば生体センサ内蔵の腕時計)を装着してもらう例を説明する。この場合、ステップS504で処理部110は、生体情報検出装置からの信号を取得して、取得した信号に基づいてユーザが睡眠中であると判定したら、添い寝機能の実行条件が成立したと判定して、添い寝機能を開始するようにしてもよい。なお、生体情報検出装置で生体情報に基づいてユーザが睡眠中であるか否かを判定している場合は、生体情報検出装置からの信号は、「睡眠中」又は「睡眠中でない」のどちらかの値を示すものであってもよい。この例では、ユーザが生体情報検出装置を装着する必要があるが、添い寝開始時刻が設定されていなくても、また、添い寝開始時刻とは異なる時刻にユーザがロボット200と添い寝を始めてしまった場合でも、添い寝機能を開始することができるようになる。 For example, an example will be described in which the user wears a biometric information detection device (for example, a wristwatch with a built-in biosensor) provided with a biosensor (a sensor that detects the user's biometric information such as pulse). In this case, in step S504, the processing unit 110 acquires a signal from the biological information detection device, and if it determines that the user is sleeping based on the acquired signal, it determines that the execution condition for the co-sleeping function is satisfied. to start the co-sleeping function. If the biological information detection device determines whether or not the user is asleep based on the biological information, the signal from the biological information detection device indicates either "sleeping" or "not sleeping". It may indicate a value of In this example, it is necessary for the user to wear the biometric information detection device. However, even if the co-sleeping start time is not set, or if the user starts co-sleeping with the robot 200 at a time different from the co-sleeping start time. However, you will be able to start the co-sleeping function.

また、ユーザに生体情報検出装置を装着してもらわなくても、マイクロフォン213でユーザの寝息を検出したら、添い寝機能を開始するようにしてもよい。この場合、ステップS504で処理部110は、マイクロフォン213で検出した音のデータを分析して、分析の結果、その音がユーザの寝息であると判定したら、添い寝機能の実行条件が成立したと判定して、添い寝機能を開始するようにすればよい。なお、マイクロフォン213で検出した音のデータを分析してユーザの寝息か否かを判定する手法としては、例えば、寝息の音のデータを大量に用いて機械学習した識別器を用いて判定する手法や、検出した音の波形や周波数成分を一般的な寝息の音の波形や周波数成分と比較して判定する手法等が挙げられる。 Further, the co-sleeping function may be started when the user's breathing is detected by the microphone 213 without having the user wear the biological information detection device. In this case, in step S504, the processing unit 110 analyzes the data of the sound detected by the microphone 213, and if the sound is determined to be the user's breathing as a result of the analysis, it determines that the execution condition for the co-sleeping function has been established. to start the co-sleeping function. As a method of determining whether or not the user is breathing by analyzing the data of the sound detected by the microphone 213, for example, a method of using a discriminator that has undergone machine learning using a large amount of sound data of the user's breathing. and a method of comparing the waveform and frequency components of the detected sound with the waveform and frequency components of a general sleeping breath sound.

また、例えば、ロボット200がCCD(Charge-Coupled Device)イメージセンサ等を備えたカメラ等の画像取得部を備え、処理部110は、画像取得部が取得した画像を画像解析し、画像解析の結果、その画像にユーザの寝顔や寝ている姿が写っていると判定したら、添い寝機能の実行条件が成立したと判定して、添い寝機能を開始するようにしてもよい。この場合、画像取得部は、ユーザの寝顔や寝ている姿が撮影できるように、例えば画角が60度よりも大きい広角のカメラ(魚眼カメラ、全周囲カメラ)であることが好ましい。なお、画像取得部で取得した画像にユーザの寝顔や寝ている姿が写っているか否かを判定する手法としては、例えば、寝顔や寝ている姿の画像データを大量に用いて機械学習した識別器を用いて判定する手法や、一般的な寝顔や寝ている姿のテンプレート画像を用いたテンプレートマッチングで判定する手法等が挙げられる。 Further, for example, the robot 200 includes an image acquisition unit such as a camera equipped with a CCD (Charge-Coupled Device) image sensor or the like, and the processing unit 110 performs image analysis on the image acquired by the image acquisition unit, and obtains the result of the image analysis. If it is determined that the user's sleeping face or sleeping figure is shown in the image, it may be determined that the execution condition of the co-sleeping function is established, and the co-sleeping function may be started. In this case, the image acquisition unit is preferably a wide-angle camera (fisheye camera, omnidirectional camera) with an angle of view greater than 60 degrees, for example, so that the sleeping face and sleeping figure of the user can be captured. As a method of determining whether or not the user's sleeping face or sleeping figure is shown in the image acquired by the image acquisition unit, for example, machine learning is performed using a large amount of image data of the sleeping face or sleeping figure. A determination method using a discriminator, a method of determination by template matching using a general template image of a sleeping face or a sleeping figure, and the like can be mentioned.

また、例えば、ユーザから添い寝命令(例えば「一緒に寝よう」、「寝なさい」等の音声)を言われたら添い寝機能を開始するようにしてもよい。この場合、ステップS504で処理部110は、マイクロフォン213で検出した音声データを音声認識して、その認識結果が添い寝命令であれば、添い寝機能の実行条件が成立したと判定して、添い寝機能を開始するようにすればよい。また、マイクロフォン213や照度センサ214での検出結果に基づいて、周囲が暗く、無音状態が添い寝基準時間(例えば10分間)続いたら、添い寝機能の実行条件が成立したと判定して、添い寝機能を開始するようにしてもよい。このようにすれば、添い寝開始時刻が設定されていなくても、添い寝機能を実行することが可能になる。 Further, for example, the co-sleeping function may be started when the user gives a co-sleeping command (for example, voice such as "Let's sleep together" or "Sleep together"). In this case, in step S504, the processing unit 110 performs voice recognition on the voice data detected by the microphone 213, and if the recognition result is a co-sleeping command, it determines that the co-sleeping function execution condition is met, and starts the co-sleeping function. You should start. Based on the results of detection by the microphone 213 and the illuminance sensor 214, when the surroundings are dark and the silent state continues for the co-sleeping reference time (for example, 10 minutes), it is determined that the co-sleeping function execution condition has been established, and the co-sleeping function is activated. You may start. In this way, the co-sleeping function can be executed even if the co-sleeping start time is not set.

また、上述の実施形態では、予め定められた特定外部刺激を「撫でられること」とし、ユーザがロボット200を撫でると、処理部110は、外部刺激が特定外部刺激であると判定したが、特定外部刺激は、撫でられることに限定されない。例えば、ロボット200がCCDイメージセンサ等の画像取得部を備え、画像取得部が取得した画像を処理部110が画像認識して、ユーザがロボット200に視線を向けたことを認識したら、処理部110は、外部刺激が特定外部刺激であると判定してもよい。 Further, in the above-described embodiment, the predetermined specific external stimulus is "being stroked", and when the user strokes the robot 200, the processing unit 110 determines that the external stimulus is the specific external stimulus. External stimulation is not limited to being stroked. For example, the robot 200 has an image acquisition unit such as a CCD image sensor, and the processing unit 110 recognizes the image acquired by the image acquisition unit. may determine that the external stimulus is a specific external stimulus.

以上説明したように、ロボット200は、バッテリーの消費電力を抑制する抑制モードにおいても、特定外部刺激に対して消費電力を抑制しつつ動作や音の出力を行う第1抑制モードを実行することができるので、外部刺激に対してきめ細かく反応して動作するように制御することができる。また、ロボット200は、ユーザが睡眠する時刻に合わせて抑制モードを実行することにより、ユーザの睡眠を邪魔せずに添い寝をする機能である添い寝機能を実行することができる。また、ロボット200は、生体センサ、マイクロフォン213、カメラ等によりユーザが睡眠中であることを判定したら、抑制モードを実行することにより、より確実に添い寝機能を実行することができる。また、ロボット200は、ユーザに撫でられると、寝息を立てたり、呼吸の動作をしたりするため、ユーザは、ロボット200を本物の生き物のように感じることができる。また、ロボット200は、アラーム時刻にアラーム動作を行うことで、駆動部220によって、もぞもぞと動いたり、スピーカ231で鳴き声を発したりする。これによりユーザは不快を感じることなく、自然に目覚めることができる。 As described above, the robot 200 can execute the first suppression mode in which the power consumption is suppressed in response to a specific external stimulus while the power consumption is suppressed even in the suppression mode in which the power consumption of the battery is suppressed. Therefore, it can be controlled so that it responds finely to external stimuli. In addition, the robot 200 can execute a co-sleeping function, which is a function of co-sleeping without disturbing the user's sleep, by executing the restraint mode at the time when the user sleeps. Further, when the robot 200 determines that the user is asleep by using the biosensor, the microphone 213, the camera, etc., the robot 200 can execute the co-sleeping function more reliably by executing the restraint mode. In addition, when the user strokes the robot 200, the user can feel the robot 200 as if it were a real living creature because the robot 200 takes a deep breath or performs a breathing action. In addition, the robot 200 performs an alarm operation at the alarm time, thereby causing the robot 200 to wriggle or make a cry through the speaker 231 by the driving unit 220 . This allows the user to wake up naturally without feeling uncomfortable.

次に、ロボット200の電源制御について説明する。上述したように、ロボット200は、電源制御部250を備え、電源制御部250により、バッテリー253の充電や電源のON/OFF制御が行われる。電源制御部250が電源のON/OFFの制御を行うことができるため、ユーザが電源スイッチを使用しなくても、ロボット200は自分で電源を入れたり切ったりすることができる。電源制御部250はロボット200の電源を制御する電源制御装置と考えることもできる。 Next, power supply control of the robot 200 will be described. As described above, the robot 200 includes the power control unit 250, and the power control unit 250 performs charging of the battery 253 and ON/OFF control of power. Since the power control unit 250 can control ON/OFF of the power, the robot 200 can turn the power on and off by itself without using the power switch by the user. The power control unit 250 can also be considered as a power control device that controls the power of the robot 200 .

例えばロボット200は、バッテリーの電圧が所定の電圧(動作基準電圧)未満になったら自動的に電源をOFFにし、所定の電圧(起動基準電圧)以上になったら自動的に電源をONにする。そして、電源ON時にバッテリーの電圧が所定の電圧(動作基準電圧)以上であるなら電源ONを維持する。これにより、ユーザが手動で電源をON/OFFしなければいけない他の機器と比べて、より生き物感を向上させることができる。 For example, the robot 200 automatically turns off the power when the voltage of the battery becomes less than a predetermined voltage (operation reference voltage), and automatically turns on the power when it reaches or exceeds the predetermined voltage (startup reference voltage). Then, if the voltage of the battery is equal to or higher than a predetermined voltage (operation reference voltage) when the power is turned on, the power is kept on. As a result, it is possible to improve the sense of life more than other devices that require the user to manually turn on/off the power.

しかし、例えばバッテリーの充電をできるだけ短時間で行いたい場合等、ユーザが手動でロボット200の電源を切っておきたい場合も考えられる。このような場合に、ロボット200の電源が自動的に入ってしまっては困ることになる。そこで、このような場合には電源制御部250は、ロボット200の電源が自動的に入らないようにする制御も行う。 However, there may be a case where the user wants to manually turn off the power of the robot 200, such as when the user wants to charge the battery in as short a time as possible. In such a case, it would be a problem if the power of the robot 200 were to be turned on automatically. Therefore, in such a case, the power control unit 250 also performs control so that the power of the robot 200 is not automatically turned on.

図9に示すように、電源制御部250は、サブマイコン251、充電IC(Integrated Circuit)252、バッテリー253、電源制御IC254、ワイヤレス給電受信回路255を備える。 As shown in FIG. 9 , the power control unit 250 includes a sub-microcomputer 251 , a charging IC (Integrated Circuit) 252 , a battery 253 , a power control IC 254 and a wireless power supply receiving circuit 255 .

サブマイコン251は、低消費電力のプロセッサを内蔵したマイクロコントローラであり、バッテリー253の出力電圧を監視するAD(Analog-to-Digital)コンバータ2511、充電IC252でバッテリー253の充電が行われているか否かを示す充電信号を監視する入力ポート2512、サブマイコン251自身の電源端子2513、ロボット200の電源スイッチ241の押下状況を監視する入力ポート2514、処理部110に対し動作制限の信号を出力する出力ポート2515、電源制御IC254に対し、主機能部290に供給する電源のON/OFFを制御する電源制御信号を出力する出力ポート2516を備える。 The sub-microcomputer 251 is a microcontroller with a built-in low power consumption processor, an AD (Analog-to-Digital) converter 2511 that monitors the output voltage of the battery 253, and a charging IC 252 to determine whether the battery 253 is being charged. an input port 2512 for monitoring a charging signal indicating whether or not, a power terminal 2513 of the sub-microcomputer 251 itself, an input port 2514 for monitoring the pressing state of the power switch 241 of the robot 200, and an output for outputting an operation restriction signal to the processing unit 110. A port 2515 is provided with an output port 2516 for outputting a power control signal for controlling ON/OFF of power supplied to the main function unit 290 to the power control IC 254 .

充電IC252は、ワイヤレス給電受信回路255から電力の供給を受けて、バッテリー253を充電するための制御を行うICである。充電IC252は、バッテリー253を充電しているか否かを示す充電信号をサブマイコン251に出力する。 The charging IC 252 is an IC that receives power from the wireless power supply receiving circuit 255 and performs control for charging the battery 253 . The charging IC 252 outputs a charging signal indicating whether or not the battery 253 is being charged to the sub-microcomputer 251 .

バッテリー253は充電可能な二次電池であり、ロボット200の動作に必要な電力を供給する。 The battery 253 is a rechargeable secondary battery and supplies power necessary for the robot 200 to operate.

電源制御IC254は、バッテリー253からの電力を、ロボット200の主機能部290に供給するか否かを制御するICである。サブマイコン251からの電源制御の信号を受け取る入力ポート2541を備え、電源制御の信号のON/OFFに応じて、主機能部290へ電力を供給したり供給を停止したりする。 The power control IC 254 is an IC that controls whether power from the battery 253 is supplied to the main function unit 290 of the robot 200 . It has an input port 2541 that receives a power control signal from the sub-microcomputer 251, and supplies or stops power supply to the main function unit 290 according to ON/OFF of the power control signal.

ワイヤレス給電受信回路255は、外部のワイヤレス充電装置256から電磁誘導によって電力を受信し、受信した電力を充電IC252に供給する。 The wireless power supply receiving circuit 255 receives power by electromagnetic induction from an external wireless charging device 256 and supplies the received power to the charging IC 252 .

電源スイッチ241は、ロボット200の電源のON/OFFを行うためのスイッチである。なお、ロボット200の電源がOFFになっている場合でも、バッテリー253を充電したり、充電完了後に自動的にロボット200の電源をONにしたりする制御を行うために、電源制御部250には電源が供給されている。このため、ロボット200は、電源供給の観点で、常に電源が供給されている電源制御部250と、電源制御部250によって電源のON/OFFが制御される主機能部290と、の2つの部から構成されると考えることができる。 The power switch 241 is a switch for turning ON/OFF the power of the robot 200 . Even when the robot 200 is powered off, the power control unit 250 has a power source in order to charge the battery 253 and automatically turn on the power of the robot 200 after charging is completed. is supplied. Therefore, from the viewpoint of power supply, the robot 200 has two units: a power control unit 250 to which power is always supplied, and a main function unit 290 to which the power control unit 250 controls ON/OFF of the power. can be considered to consist of

主機能部290は、ロボット200を構成する部分のうち、電源制御部250以外の部分から構成される。図9では、電源制御部250と主機能部290との関係を示すために、電源制御部250から電源が供給される電源端子2901と、サブマイコン251から送信される動作制限の信号を受信する処理部110の入力ポート1101とを示している。 The main function unit 290 is composed of the parts constituting the robot 200 other than the power control unit 250 . In FIG. 9, in order to show the relationship between the power control unit 250 and the main function unit 290, a power supply terminal 2901 to which power is supplied from the power control unit 250 and an operation restriction signal transmitted from the sub-microcomputer 251 are received. An input port 1101 of the processing unit 110 is shown.

次に、電源制御部250のサブマイコン251が実行する電源制御処理について、図22を参照して説明する。この処理は、サブマイコン251が起動すると(バッテリー253の電圧が、サブマイコン251が起動可能な電圧以上になると)実行が開始される。なお、この処理では、ユーザが手動で電源スイッチ241を長押ししてロボット200の電源をOFFにしたか否かを示す手動OFFフラグ変数が使用される。 Next, power control processing executed by the sub-microcomputer 251 of the power control unit 250 will be described with reference to FIG. Execution of this process is started when the sub-microcomputer 251 is activated (when the voltage of the battery 253 becomes equal to or higher than the voltage at which the sub-microcomputer 251 can be activated). Note that this process uses a manual OFF flag variable that indicates whether or not the user manually pressed the power switch 241 for a long time to turn off the power of the robot 200 .

まず、サブマイコン251は、電源制御IC254に、電源OFFを指示する電源制御信号を出力して主機能部290への電源供給をOFFにする(ステップS601)。そして、サブマイコン251は、処理部110に、動作制限OFFを指示する動作制限信号を出力する(ステップS602)。そして、サブマイコン251は、手動OFFフラグ変数を0に初期化する(ステップS603)。 First, the sub-microcomputer 251 outputs a power control signal instructing power OFF to the power control IC 254 to turn off the power supply to the main function unit 290 (step S601). Then, the sub-microcomputer 251 outputs to the processing unit 110 an operation restriction signal instructing to turn off the operation restriction (step S602). Then, the sub-microcomputer 251 initializes the manual OFF flag variable to 0 (step S603).

次に、サブマイコン251は、主機能部290への電源供給がONであるか否かを判定する(ステップS604)。電源供給がONであるなら(ステップS604;Yes)、サブマイコン251は、バッテリー253が充電中であるか否かを判定する(ステップS605)。充電中でないなら(ステップS605;No)、サブマイコン251は、処理部110に、動作制限OFFを指示する動作制限信号を出力し(ステップS606)、ステップS608に進む。 Next, the sub-microcomputer 251 determines whether power supply to the main function unit 290 is ON (step S604). If the power supply is ON (step S604; Yes), the sub-microcomputer 251 determines whether the battery 253 is being charged (step S605). If the battery is not being charged (step S605; No), the sub-microcomputer 251 outputs to the processing unit 110 an operation restriction signal instructing operation restriction OFF (step S606), and proceeds to step S608.

バッテリー253が充電中なら(ステップS605;Yes)、サブマイコン251は、処理部110に、動作制限ONを指示する動作制限信号を出力する(ステップS607)。 If the battery 253 is being charged (step S605; Yes), the sub-microcomputer 251 outputs to the processing unit 110 an operation restriction signal instructing operation restriction ON (step S607).

そして、サブマイコン251は、電源スイッチ241が長押しされたか否かを判定する(ステップS608)。長押しされたなら(ステップS608;Yes)、サブマイコン251は、手動OFFフラグ変数を1にして(ステップS609)、ステップS611に進む。 Then, the sub-microcomputer 251 determines whether or not the power switch 241 has been pressed for a long time (step S608). If long-pressed (step S608; Yes), the sub-microcomputer 251 sets the manual OFF flag variable to 1 (step S609), and proceeds to step S611.

電源スイッチ241が長押しされていないなら(ステップS608;No)、サブマイコン251は、バッテリー253の電圧が動作基準電圧以上か否かを判定する(ステップS610)。動作基準電圧とは、ロボット200を正常に動作させるのに最低限必要と考えられる電圧であり、例えば、バッテリー253の満充電時の電圧の75%の電圧である。また、動作基準電圧は第2基準電圧とも呼ばれる。 If the power switch 241 has not been pressed long (step S608; No), the sub-microcomputer 251 determines whether the voltage of the battery 253 is equal to or higher than the operating reference voltage (step S610). The operating reference voltage is the minimum voltage considered necessary for normal operation of the robot 200, and is, for example, 75% of the voltage when the battery 253 is fully charged. The operating reference voltage is also called a second reference voltage.

バッテリー253の電圧が動作基準電圧以上なら(ステップS610;Yes)、ステップS604に進む。 If the voltage of the battery 253 is equal to or higher than the operating reference voltage (step S610; Yes), the process proceeds to step S604.

バッテリー253の電圧が動作基準電圧未満なら(ステップS610;No)、サブマイコン251は、電源制御IC254に、電源OFFを指示する電源制御信号を出力して主機能部290への電源供給をOFFにして(ステップS611)、ステップS604に戻る。このように、バッテリー253の電圧が動作基準電圧未満になると電源制御部250は、自動的にロボット200の電源をOFFにするので、ロボット200の動作が不安定になったり、バッテリー253が完全に放電してしまったりすることを防止することができる。 If the voltage of the battery 253 is less than the operating reference voltage (step S610; No), the sub-microcomputer 251 outputs a power control signal instructing power OFF to the power control IC 254 to turn off the power supply to the main function unit 290. (step S611) and returns to step S604. As described above, when the voltage of the battery 253 becomes less than the operation reference voltage, the power supply control unit 250 automatically turns off the power of the robot 200. Therefore, the operation of the robot 200 becomes unstable, and the battery 253 is completely discharged. Discharge can be prevented.

一方、ステップS604で、主機能部290への電源供給がONでないなら(ステップS604;No)、サブマイコン251は、電源スイッチ241が押されたか否かを判定する(ステップS612)。電源スイッチ241が押されたなら(ステップS612;Yes)、ステップS615に進む。 On the other hand, if power supply to the main function unit 290 is not ON in step S604 (step S604; No), the sub-microcomputer 251 determines whether the power switch 241 has been pressed (step S612). If the power switch 241 has been pushed (step S612; Yes), the process proceeds to step S615.

電源スイッチ241が押されていないなら(ステップS612;No)、サブマイコン251は、バッテリー253が充電中か否かを判定する(ステップS613)。バッテリー253が充電中でないなら(ステップS613;No)、ステップS604に戻る。 If the power switch 241 is not pressed (step S612; No), the sub-microcomputer 251 determines whether the battery 253 is being charged (step S613). If the battery 253 is not being charged (step S613; No), the process returns to step S604.

バッテリー253が充電中なら(ステップS613;Yes)、サブマイコン251は、手動OFFフラグが1であるか否かを判定する(ステップS614)。手動OFFフラグが1であるなら(ステップS614;Yes)、ステップS604に戻る。 If the battery 253 is being charged (step S613; Yes), the sub-microcomputer 251 determines whether the manual OFF flag is 1 (step S614). If the manual OFF flag is 1 (step S614; Yes), the process returns to step S604.

手動OFFフラグ変数が1でないなら(ステップS614;No)、サブマイコン251は、バッテリー253の電圧が起動基準電圧以上か否かを判定する(ステップS615)。起動基準電圧とは、充電中にロボット200の電源を自動的にONにしてもよいと判断できる電圧であり、例えば、バッテリー253の満充電時の電圧の95%の電圧である。また、起動基準電圧は第1基準電圧とも呼ばれる。 If the manual OFF flag variable is not 1 (step S614; No), the sub-microcomputer 251 determines whether the voltage of the battery 253 is equal to or higher than the activation reference voltage (step S615). The activation reference voltage is a voltage at which it can be determined that the power of the robot 200 can be automatically turned on during charging. The activation reference voltage is also called the first reference voltage.

バッテリー253の電圧が起動基準電圧未満なら(ステップS615;No)、ステップS604に戻る。 If the voltage of the battery 253 is less than the activation reference voltage (step S615; No), the process returns to step S604.

バッテリー253の電圧が起動基準電圧以上なら(ステップS615;Yes)、サブマイコン251は、電源制御IC254に、電源ONを指示する電源制御信号を出力して主機能部290への電源供給をONにする(ステップS616)。このように、バッテリー253の電圧が起動基準電圧以上になると電源制御部250は、自動的にロボット200の電源をONにするので、ユーザは電源スイッチ241を操作する必要がなく、ロボット200の生き物感を向上させることができる。 If the voltage of the battery 253 is equal to or higher than the activation reference voltage (step S615; Yes), the sub-microcomputer 251 outputs a power control signal to the power control IC 254 to turn on the power supply to the main function unit 290. (step S616). As described above, when the voltage of the battery 253 becomes equal to or higher than the activation reference voltage, the power control unit 250 automatically turns on the power of the robot 200. Therefore, the user does not need to operate the power switch 241, and the living creature of the robot 200 is activated. can improve the feeling.

次に、サブマイコン251は、処理部110に、動作制限ONを指示する動作制限信号を出力する(ステップS617)。そして、サブマイコン251は、手動OFFフラグ変数を0にして(ステップS618)、ステップS604に戻る。 Next, the sub-microcomputer 251 outputs to the processing unit 110 an operation restriction signal instructing ON of operation restriction (step S617). Then, the sub-microcomputer 251 sets the manual OFF flag variable to 0 (step S618) and returns to step S604.

以上の電源制御処理により、ロボット200は、自動的に電源のON/OFFを行うことができるだけでなく、ユーザが手動で電源をOFFにした場合には、手動OFFフラグ変数が1になることから、ステップS614の処理により、充電中に自動的に電源がONになってしまうことを防ぐことができる。これにより、ユーザが充電時間を短縮したい場合には手動で電源をOFFにすれば、ロボット200は充電中に電源OFFを維持し、充電時間を短縮することができる。 With the above power control processing, the robot 200 can not only automatically turn on/off the power, but also when the user manually turns off the power, the manual OFF flag variable becomes 1. , the processing in step S614 can prevent the power from being automatically turned on during charging. As a result, if the user wishes to shorten the charging time, by manually turning off the power, the robot 200 can keep the power off during charging, thereby shortening the charging time.

なお、上述の電源制御処理からわかるように、サブマイコン251は、手動OFFフラグ変数を参照することにより、ロボット200の電源供給が遮断された要因が、ユーザ操作(ユーザが手動で電源をOFFしたこと)に起因するのか(手動OFFフラグが1)、それ以外の電源遮断要因(バッテリー253の電圧が動作基準電圧未満になった等の事象による電源OFF等)であるのか(手動OFFフラグが0)、を判別できる。 As can be seen from the power supply control process described above, the sub-microcomputer 251 refers to the manual OFF flag variable to determine whether the cause of the power supply interruption to the robot 200 is the user's operation (the user manually turned off the power). (manual OFF flag is 1) or other power cutoff factors (power OFF due to an event such as the voltage of the battery 253 becoming less than the operating reference voltage) (manual OFF flag is 0 ), can be determined.

また、充電中は、処理部110に対し、動作制限をONにする信号を送信することにより、充電中にロボット200が動いてしまって、正常な充電が行えなくなることを防ぐことができる。 Also, during charging, by transmitting a signal to turn ON the operation restriction to the processing unit 110, it is possible to prevent the robot 200 from moving during charging and preventing normal charging from being performed.

具体的には、動作制限をONにすると、次の2つの動作制限が行われる。1つ目の動作制限は、モータの動作の勢いでロボット200が移動してしまって、ワイヤレス給電受信回路255とワイヤレス充電装置256とが離れてしまうことを防ぐための動作制限である。具体的には、本実施形態では、ひねりモータ221及び上下モータ222の動作角度を、モーションテーブルで規定されている動作角度の50%に制限する。 Specifically, when the operation restriction is turned ON, the following two operation restrictions are applied. The first operation restriction is an operation restriction for preventing the wireless power supply receiving circuit 255 and the wireless charging device 256 from being separated from each other due to the movement of the robot 200 due to the momentum of the motor operation. Specifically, in this embodiment, the operating angles of the twist motor 221 and the vertical motor 222 are limited to 50% of the operating angles defined by the motion table.

2つ目の動作制限は、ロボット200がワイヤレス充電装置256から浮いてしまって、ワイヤレス給電受信回路255とワイヤレス充電装置256とが離れてしまうことを防ぐための動作制限である。具体的には、本実施形態では、ひねりモータ221の角度を0度に固定するとともに、上下モータ222の角度を0度から+30度の範囲に制限する。 The second operation restriction is an operation restriction for preventing the robot 200 from floating from the wireless charging device 256 and the wireless power supply receiving circuit 255 and the wireless charging device 256 from being separated from each other. Specifically, in this embodiment, the angle of the twist motor 221 is fixed at 0 degrees, and the angle of the vertical motor 222 is limited to the range of 0 degrees to +30 degrees.

なお、動作制限がOFFの場合も、ロボット200の構造的な制約から、頭部204と胴体部206とが衝突したり、頭部204と胴体部206との間に指を挟んだりしてしまう事故を防ぐために、各モータの角度を制限する。具体的には、本実施形態では、ひねりモータ221の角度を-90度から+90度の範囲に制限し、上下モータ222の角度を-60度から+60度の範囲に制限する。 Note that even when the movement restriction is OFF, the head 204 and the body 206 may collide or a finger may be caught between the head 204 and the body 206 due to the structural limitations of the robot 200. Limit the angle of each motor to prevent accidents. Specifically, in this embodiment, the angle of the twist motor 221 is limited to the range of -90 degrees to +90 degrees, and the angle of the vertical motor 222 is limited to the range of -60 degrees to +60 degrees.

例えば、図14に示す「自発動作0-0(呼吸動作)」の場合、動作制限ONの場合は、750ミリ秒後の上下モータ222の角度は15度、その800ミリ秒後の上下モータの角度は12度となるように、各モータの回転角度を制限する。 For example, in the case of “spontaneous movement 0-0 (breathing movement)” shown in FIG. The rotation angle of each motor is limited so that the angle is 12 degrees.

このような動作制限を含めたモータ制御処理について、図23を参照して説明する。この処理は、上述の動作選択処理のステップS208や、アラーム制御処理のステップS407や、ハードスリープ処理のステップS530において、処理部110が駆動部220を制御する時に実行される。 Motor control processing including such operation restrictions will be described with reference to FIG. This process is executed when the processing unit 110 controls the drive unit 220 in step S208 of the operation selection process, step S407 of the alarm control process, and step S530 of the hard sleep process.

まず、処理部110は、モータ制御の初期化処理を行う(ステップS701)。例えば、必要に応じてひねりモータ221及び上下モータ222の角度を基準角度(0度)に戻す。 First, the processing unit 110 performs initialization processing for motor control (step S701). For example, the angles of the twist motor 221 and the vertical motor 222 are returned to the reference angle (0 degree) as necessary.

次に、処理部110は、動作制限がONであるか否かを判定する(ステップS702)。なお、処理部110は、動作制限がONかOFFかを、図9に示す上述した入力ポート1101から取得することができる。 Next, the processing unit 110 determines whether or not the operation restriction is ON (step S702). Note that the processing unit 110 can acquire whether the operation restriction is ON or OFF from the above-described input port 1101 shown in FIG. 9 .

動作制限がONでなければ(ステップS702;No)、処理部110は、動作範囲として、動作制限OFF時の値を設定する(ステップS703)。具体的には、ひねりモータ221の角度を-90度から+90度の範囲に制限し、上下モータ222の角度を-60度から+60度の範囲に制限する。 If the motion limit is not ON (step S702; No), the processing unit 110 sets the value when the motion limit is OFF as the motion range (step S703). Specifically, the angle of the twist motor 221 is limited to the range of -90 degrees to +90 degrees, and the angle of the vertical motor 222 is limited to the range of -60 degrees to +60 degrees.

動作制限がONであれば(ステップS702;Yes)、処理部110は、動作範囲として、動作制限ON時の値を設定する(ステップS704)。具体的には、ひねりモータ221の角度を0度のみに制限し、上下モータ222の角度を0度から+30度の範囲に制限する。 If the motion limit is ON (step S702; Yes), the processing unit 110 sets the value when the motion limit is ON as the motion range (step S704). Specifically, the angle of the twist motor 221 is limited to 0 degrees only, and the angle of the vertical motor 222 is limited to the range of 0 degrees to +30 degrees.

そして、処理部110は、モーションテーブル125からデータを1行読み込み、動作時間、ひねりモータ221の動作角度、上下モータ222の動作角度をそれぞれ取得する(ステップS705)。 Then, the processing unit 110 reads one row of data from the motion table 125, and obtains the operation time, the operation angle of the twist motor 221, and the operation angle of the vertical motor 222 (step S705).

そして、処理部110は、再度、動作制限がONであるか否かを判定する(ステップS706)。動作制限がONなら(ステップS706;Yes)、処理部110は、ステップS705で取得した動作角度の値を50%に制限し(ステップS707)、ステップS708に進む。 Then, the processing unit 110 determines again whether or not the operation restriction is ON (step S706). If the motion limit is ON (step S706; Yes), the processing unit 110 limits the value of the motion angle acquired in step S705 to 50% (step S707), and proceeds to step S708.

動作制限がOFFなら(ステップS706;No)、処理部110は、動作角度をステップS703又はステップS704で設定した動作範囲内に制限する(ステップS708)。 If the motion restriction is OFF (step S706; No), the processing unit 110 limits the motion angle within the motion range set in step S703 or step S704 (step S708).

そして、処理部110は、ステップS708で定まった動作角度を、ひねりモータ221、上下モータ222にそれぞれ設定することで、モータの動作を開始させる(ステップS709)。 Then, the processing unit 110 sets the operation angles determined in step S708 to the twist motor 221 and the vertical motor 222, thereby starting the motor operations (step S709).

そして、処理部110は、ステップS705でモーションテーブル125から読み込んだ動作時間が経過したか否かを判定する(ステップS710)。動作時間経過していないなら(ステップS710;No)、処理部110は、ステップS710に戻って動作時間の経過を待つ。 Then, the processing unit 110 determines whether or not the motion time read from the motion table 125 in step S705 has elapsed (step S710). If the operating time has not elapsed (step S710; No), the processing unit 110 returns to step S710 and waits for the operating time to elapse.

動作時間が経過したなら(ステップS710;Yes)、処理部110は、モーションテーブル125を読み終えたか否かを判定する(ステップS711)。モーションテーブル125を読み終えていなければ(ステップS711;No)、ステップS705に戻る。モーションテーブル125を読み終えたなら(ステップS711;Yes)、処理部110は、モータ制御処理を終了する。 If the operation time has elapsed (step S710; Yes), the processing unit 110 determines whether or not the motion table 125 has been read (step S711). If the motion table 125 has not been read (step S711; No), the process returns to step S705. If the motion table 125 has been read (step S711; Yes), the processing section 110 terminates the motor control processing.

以上のモータ制御処理により、ロボット200は、モーションテーブル125に設定されている値によらず、安全にひねりモータ221及び上下モータ222を制御することができる。また、充電中に動作を制限することによって、ロボット200が移動したり、ワイヤレス充電装置256から浮いてしまったりすることを防ぎ、ワイヤレス充電を安定的に行うことができる。 With the motor control processing described above, the robot 200 can safely control the twist motor 221 and the vertical motor 222 regardless of the values set in the motion table 125 . Further, by restricting the movement during charging, the robot 200 can be prevented from moving or floating from the wireless charging device 256, and wireless charging can be performed stably.

(変形例)
なお、本発明は、上述の実施形態に限定されず、種々の変形及び応用が可能である。例えば、ロボット200の成長完了後にはロボット200の性格が補正されない方がよいと考えるユーザ向けに、動作制御処理のステップS112を省略し、動作選択処理のステップS201では性格値を補正せずに算出してもよい。このようにすることで、ロボット200の性格がロボット200の成長完了後に完全に固定化されるようにすることができる。
(Modification)
In addition, the present invention is not limited to the above-described embodiments, and various modifications and applications are possible. For example, for a user who thinks that the character of the robot 200 should not be corrected after the growth of the robot 200 is completed, step S112 of the action control process is omitted, and the character value is calculated without correction in step S201 of the action selection process. You may By doing so, the character of the robot 200 can be completely fixed after the robot 200 completes its growth.

また、上述のモーションテーブル125は、ロボット200の駆動部220の動作(動作時間及び動作角度)並びに音声データが設定されていたが、駆動部220の動作のみ、又は音声データのみが設定されていてもよい。また駆動部220の動作及び音声データ以外の制御が設定されていてもよい。駆動部220の動作及び音声データ以外の制御としては、例えば、ロボット200の出力部230にLEDが備えられている場合には、点灯させるLEDの色や明るさを制御することが考えられる。処理部110により制御される被制御部としては、駆動部220、出力部230の少なくとも一方が含まれればよく、出力部230は音出力部として、音のみを出力してもよいし、LED等により光のみを出力してもよい。 Also, the motion table 125 described above contains the motion (operation time and motion angle) and voice data of the drive unit 220 of the robot 200, but only the motion of the drive unit 220 or only the voice data is set. good too. Also, controls other than the operation of the driving unit 220 and voice data may be set. Controls other than the operation of the drive unit 220 and voice data include, for example, when the output unit 230 of the robot 200 is provided with LEDs, controlling the color and brightness of the LEDs to be lit. At least one of the drive unit 220 and the output unit 230 may be included as the controlled unit controlled by the processing unit 110. The output unit 230 may output only sound as a sound output unit, or may output an LED or the like. You may output only light by .

また、上述の実施形態では、感情マップ300のサイズは、第1期間中にロボット200の疑似的な成長日数が1日増える度に、感情マップ300の最大値、最小値ともに2ずつ拡大されていった。しかし、感情マップ300のサイズの拡大はこのように均等に行われなくてもよい。例えば、感情データ121の変化の仕方に応じて、感情マップ300の拡大の仕方を変更してもよい。 Further, in the above-described embodiment, the size of the emotion map 300 is increased by 2 for both the maximum value and the minimum value of the emotion map 300 each time the number of days of artificial growth of the robot 200 increases by one day during the first period. was However, the expansion of the size of emotion map 300 need not be done evenly in this manner. For example, the method of enlarging the emotion map 300 may be changed according to how the emotion data 121 changes.

感情データ121の変化の仕方に応じて、感情マップ300の拡大の仕方を変更するには、例えば動作制御処理(図15)のステップS114において、以下のような処理を行えばよい。ある1日の間に、ステップS105において、感情データ121の値が1度でも感情マップ300の最大値に設定されたら、その後のステップS114において感情マップ300の最大値を3増加させる。ステップS105において感情データ121の値が1度も感情マップ300の最大値に到達しなかったら、その後のステップS114において感情マップ300の最大値を1増加させる。 To change how the emotion map 300 is enlarged according to how the emotion data 121 changes, the following process may be performed in step S114 of the operation control process (FIG. 15), for example. If the value of emotion data 121 is set to the maximum value of emotion map 300 even once in step S105 during one day, the maximum value of emotion map 300 is increased by 3 in subsequent step S114. If the value of emotion data 121 never reaches the maximum value of emotion map 300 in step S105, the maximum value of emotion map 300 is incremented by one in subsequent step S114.

感情マップ300の最小値の方も同様に、その日に1度でも感情データ121の値が感情マップ300の最小値に設定されたら、感情マップ300の最小値を3減少させ、1度も感情データ121の値が感情マップ300の最小値に到達しなかったら、感情マップ300の最小値を1減少させる。このように、感情マップ300の拡大の仕方を変更することにより、感情データ121の設定可能範囲は、外部刺激に応じて学習されることになる。 As for the minimum value of the emotion map 300, if the value of the emotion data 121 is set to the minimum value of the emotion map 300 even once in the day, the minimum value of the emotion map 300 is decreased by 3, and the emotion data is set once again. If the value of 121 does not reach the minimum value of emotion map 300, the minimum value of emotion map 300 is decreased by one. By changing the method of enlarging the emotion map 300 in this way, the settable range of the emotion data 121 is learned according to the external stimulus.

なお、上述の実施形態及び変形例では感情マップ300を第1期間中、常に拡大させていたが、感情マップ300の範囲の変更は拡大に限定されない。例えば外部刺激に応じ、ほとんど生じない感情の方向については、感情マップ300の範囲を縮小させてもよい。 In addition, although the emotion map 300 is always enlarged during the first period in the above-described embodiment and modification, the change of the range of the emotion map 300 is not limited to enlargement. For example, the range of the emotion map 300 may be reduced for directions of emotions that rarely arise in response to external stimuli.

また、上述の実施形態では、ロボット200に機器の制御装置100が内蔵されている構成としたが、機器の制御装置100は、必ずしもロボット200に内蔵されている必要はない。例えば、図24に示すように、機器の制御装置101は、ロボット209に内蔵されずに別個の装置(例えばサーバ)として構成されてもよい。この変形例では、ロボット209も処理部260及び通信部270を備え、通信部130と通信部270とがお互いにデータを送受信できるように構成されている。そして、処理部110は、通信部130及び通信部270を介して、センサ部210が検出した外部刺激を取得したり、駆動部220や出力部230を制御したりする。 Further, in the above-described embodiment, the robot 200 is configured to incorporate the device control device 100 , but the device control device 100 does not necessarily have to be built into the robot 200 . For example, as shown in FIG. 24, the device control device 101 may be configured as a separate device (for example, a server) instead of being built in the robot 209 . In this modification, the robot 209 also includes a processing unit 260 and a communication unit 270, and the communication unit 130 and the communication unit 270 are configured to transmit and receive data to and from each other. The processing unit 110 acquires an external stimulus detected by the sensor unit 210 and controls the driving unit 220 and the output unit 230 via the communication unit 130 and the communication unit 270 .

なお、このように機器の制御装置101とロボット209とが別個の装置で構成されている場合、必要に応じて、ロボット209は処理部260により制御されるようになっていてもよい。例えば、単純な動作は処理部260で制御され、複雑な動作は通信部270を介して処理部110で制御される等である。 When the device control device 101 and the robot 209 are configured as separate devices, the robot 209 may be controlled by the processing unit 260 as necessary. For example, simple operations are controlled by the processing unit 260, complex operations are controlled by the processing unit 110 via the communication unit 270, and so on.

また、上述の実施形態では、機器の制御装置100,101は、制御の対象となる機器をロボット200,209とした制御装置であるが、制御の対象となる機器は、ロボット200,209に限られない。制御の対象となる機器としては、例えば、腕時計等も考えられる。例えば、音声出力可能で加速度センサを備えた腕時計を制御の対象となる機器とする場合、外部刺激としては、加速度センサで検出される、腕時計に加わった衝撃等を想定することができる。そして、モーションテーブル125には、外部刺激に応じて出力する音声データを記録しておくことができる。そして、外部刺激に応じて感情データ121や感情変化データ122を更新し、検出した外部刺激や、その時点での感情変化データ122(性格)に基づいて、モーションテーブル125に設定されている音声データを出力させることが考えられる。 In the above-described embodiment, the control devices 100 and 101 for the devices are control devices in which the devices to be controlled are the robots 200 and 209, but the devices to be controlled are limited to the robots 200 and 209. can't Devices to be controlled may include, for example, wristwatches. For example, if a wristwatch capable of outputting audio and equipped with an acceleration sensor is used as a device to be controlled, the external stimulus can be assumed to be an impact applied to the wristwatch detected by the acceleration sensor. The motion table 125 can record audio data to be output in response to an external stimulus. Then, the emotion data 121 and the emotion change data 122 are updated according to the external stimulus, and the voice data set in the motion table 125 is based on the detected external stimulus and the emotion change data 122 (personality) at that time. It is conceivable to output

そうすると、ユーザの扱い方によって、腕時計に個性(疑似的な性格)が生じることになる。つまり、同じ型番の腕時計であっても、ユーザが丁寧に扱っていれば、陽気な性格の腕時計になり、乱暴に扱っていればシャイな性格の腕時計になる。 As a result, the wristwatch will have individuality (pseudo-character) depending on how the user treats it. In other words, even if the watch has the same model number, if the user treats it carefully, it will become a cheerful wristwatch, and if the user treats it roughly, it will become a shy wristwatch.

このように機器の制御装置100,101は、ロボットに限らず、様々な機器に適用することができる。そして機器に適用することにより、当該機器に疑似的な感情や性格を備えさせることができ、またユーザに、当該機器を疑似的に育てているように感じさせることができる。 In this manner, the device control devices 100 and 101 can be applied not only to robots but also to various devices. By applying it to a device, it is possible to give the device a pseudo emotion and character, and to make the user feel as if the device is being raised in a pseudo manner.

上述の実施形態において、処理部110のCPUが実行する動作プログラムは、あらかじめ記憶部120のROM等に記憶されていた。しかしながら、本発明は、これに限定されず、上述の各種処理を実行させるための動作プログラムを、既存の汎用コンピュータ等に実装することにより、上述の実施形態に係る機器の制御装置100,101に相当する装置として機能させてもよい。 In the above-described embodiment, the operation program executed by the CPU of the processing unit 110 is stored in advance in the ROM of the storage unit 120 or the like. However, the present invention is not limited to this. It may function as a corresponding device.

このようなプログラムの提供方法は任意であり、例えば、コンピュータが読取可能な記録媒体(フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、MO(Magneto-Optical Disc)、メモリカード、USBメモリ等)に格納して配布してもよいし、インターネット等のネットワーク上のストレージにプログラムを格納しておき、これをダウンロードさせることにより提供してもよい。 The method of providing such a program is arbitrary, for example, a computer-readable recording medium (flexible disk, CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM, MO (Magneto-Optical Disc), The program may be stored in a memory card, USB memory, etc.) and distributed, or the program may be stored in a storage on a network such as the Internet and provided by downloading it.

また、上述の処理をOS(Operating System)とアプリケーションプログラムとの分担、又は、OSとアプリケーションプログラムとの協働によって実行する場合には、アプリケーションプログラムのみを記録媒体やストレージに格納してもよい。また、搬送波にプログラムを重畳し、ネットワークを介して配信することも可能である。例えば、ネットワーク上の掲示板(Bulletin Board System:BBS)に上記プログラムを掲示し、ネットワークを介してプログラムを配信してもよい。そして、このプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。 In addition, when the above-described processing is performed by an OS (Operating System) and an application program, or by cooperation between the OS and an application program, only the application program may be stored in a recording medium or storage. It is also possible to superimpose a program on a carrier wave and distribute it via a network. For example, the program may be posted on a bulletin board system (BBS) on the network and distributed via the network. Then, the above processing may be performed by starting this program and executing it in the same manner as other application programs under the control of the OS.

また、処理部110,260は、シングルプロセッサ、マルチプロセッサ、マルチコアプロセッサ等の任意のプロセッサ単体で構成されるものの他、これら任意のプロセッサと、ASIC(Application Specific Integrated Circuit)やFPGA(Field‐Programmable Gate Array)等の処理回路とが組み合わせられて構成されてもよい。 In addition, the processing units 110 and 260 are composed of an arbitrary single processor such as a single processor, a multiprocessor, a multicore processor, etc., and these arbitrary processors, ASIC (Application Specific Integrated Circuit) and FPGA (Field-Programmable Gate) Array) and other processing circuits may be combined.

本発明は、本発明の広義の精神と範囲とを逸脱することなく、様々な実施形態及び変形が可能とされるものである。また、前述した実施形態は、この発明を説明するためのものであり、本発明の範囲を限定するものではない。すなわち、本発明の範囲は、実施形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The present invention is capable of various embodiments and modifications without departing from the broader spirit and scope of the invention. Moreover, the above-described embodiments are for explaining the present invention, and do not limit the scope of the present invention. That is, the scope of the present invention is indicated by the claims rather than the embodiments. Various modifications made within the scope of the claims and within the meaning of equivalent inventions are considered to be within the scope of the present invention. The invention described in the original claims of the present application is appended below.

(付記1)
外部から自機に作用する外部刺激を取得し、
前記取得した外部刺激が第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
制御を実行する処理部、
を備える機器。
(Appendix 1)
Acquire an external stimulus that acts on the machine from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies the first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
a processing unit that performs control;
equipment.

(付記2)
前記処理部は、
前記取得した外部刺激が、前記第1スリープ条件を満たさない外部刺激であっても、第2スリープ条件を満たす外部刺激である場合には、第2スリープ状態に移行し、
前記第2スリープ状態に移行後に取得する前記外部刺激が前記第1刺激の場合だけでなく前記第2刺激であっても、前記第2スリープ状態から前記通常状態に移行する、
制御を実行する、
付記1に記載の機器。
(Appendix 2)
The processing unit is
Even if the acquired external stimulus is an external stimulus that does not satisfy the first sleep condition, if it is an external stimulus that satisfies a second sleep condition, transition to a second sleep state,
Transitioning from the second sleep state to the normal state not only when the external stimulus acquired after shifting to the second sleep state is the first stimulus but also when the second stimulus is obtained;
to carry out control,
A device as described in Appendix 1.

(付記3)
動きを表現するための可動部を駆動する駆動部、及び、音を出力する音出力部の少なくとも一方を含む被制御部をさらに備え、
前記処理部は、
前記第1スリープ状態及び前記第2スリープ状態では、前記被制御部が消費する消費電力を抑制するために、前記可動部を停止させ、前記音出力部からの音の出力を停止させる、
付記2に記載の機器。
(Appendix 3)
Further comprising a controlled unit including at least one of a driving unit that drives the movable unit for expressing movement and a sound output unit that outputs sound,
The processing unit is
In the first sleep state and the second sleep state, in order to suppress the power consumption of the controlled unit, the movable unit is stopped and the output of sound from the sound output unit is stopped.
Equipment according to Appendix 2.

(付記4)
前記処理部は、
前記準スリープ状態では、前記通常状態よりも、前記被制御部が消費する消費電力を抑制するように前記被制御部を制御する、
付記3に記載の機器。
(Appendix 4)
The processing unit is
In the quasi-sleep state, the controlled unit is controlled so that the power consumed by the controlled unit is suppressed more than in the normal state.
Equipment according to Appendix 3.

(付記5)
前記処理部は、
前記準スリープ状態では、呼吸を表す動きを表現するか、又は、寝息を表す音を出力するように、前記被制御部を制御する、
付記4に記載の機器。
(Appendix 5)
The processing unit is
In the quasi-sleep state, the controlled unit is controlled so as to express movement representing breathing or output a sound representing sleep breathing;
Equipment according to Appendix 4.

(付記6)
外部から機器に作用する外部刺激を取得し、
前記取得した外部刺激が、第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
機器の制御方法。
(Appendix 6)
Acquire an external stimulus acting on the device from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies a first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
How to control equipment.

(付記7)
コンピュータに、
外部から機器に作用する外部刺激を取得し、
前記取得した外部刺激が第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
処理を実行させるプログラム。
(Appendix 7)
to the computer,
Acquire an external stimulus acting on the device from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies the first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
A program that causes an action to take place.

100,101…機器の制御装置、110,260…処理部、120…記憶部、121…感情データ、122…感情変化データ、123…成長テーブル、124…動作内容テーブル、125…モーションテーブル、126…成長日数データ、130,270…通信部、200,209…ロボット、201…外装、202…装飾部品、203…毛、204…頭部、205…連結部、206…胴体部、207…筐体、210…センサ部、211…タッチセンサ、212…加速度センサ、213…マイクロフォン、214…照度センサ、220…駆動部、221…ひねりモータ、222…上下モータ、230…出力部、231…スピーカ、240…操作部、241…電源スイッチ、250…電源制御部、251…サブマイコン、252…充電IC、253…バッテリー、254…電源制御IC、255…ワイヤレス給電受信回路、256…ワイヤレス充電装置、290…主機能部、300…感情マップ、301,302,303…枠、310,410…原点、311,312,411,412,413,414…軸、400…性格値レーダーチャート、501…画面、1101,2512,2514,2515,2516,2541…ポート、2511…ADコンバータ、2513,2901…電源端子、BL…バスライン DESCRIPTION OF SYMBOLS 100, 101... Control apparatus of apparatus 110, 260... Processing part 120... Storage part 121... Emotion data 122... Emotion change data 123... Growth table 124... Operation content table 125... Motion table 126... Growth days data 130, 270 Communication unit 200, 209 Robot 201 Exterior 202 Decorative part 203 Hair 204 Head 205 Connecting unit 206 Body 207 Housing DESCRIPTION OF SYMBOLS 210... Sensor part 211... Touch sensor 212... Acceleration sensor 213... Microphone 214... Illuminance sensor 220... Drive part 221... Twist motor 222... Vertical motor 230... Output part 231... Speaker 240... Operation unit 241 Power switch 250 Power control unit 251 Sub-microcomputer 252 Charging IC 253 Battery 254 Power control IC 255 Wireless power supply receiving circuit 256 Wireless charging device 290 Main Function part 300... emotion map 301, 302, 303... frame 310, 410... origin 311, 312, 411, 412, 413, 414... axis 400... personality value radar chart 501... screen 1101, 2512 , 2514, 2515, 2516, 2541... ports, 2511... AD converter, 2513, 2901... power supply terminals, BL... bus lines

本発明は、電子機器、ロボット、制御方法及びプログラムに関する。 The present invention relates to electronic equipment, robots, control methods, and programs.

そこで、本発明はこのような事情に鑑みてなされたものであって、バッテリーの消費量をより抑制しやすくすることができる電子機器、ロボット、制御方法及びプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of such circumstances, and it is an object of the present invention to provide an electronic device, a robot, a control method, and a program that make it easier to reduce battery consumption.

前記目的を達成するため、本発明に係る電子機器は、外部から自機に作用する外部刺激であって複数のスレッドのうちの所定のスレッドを停止させるスリープ状態への移行条件を満たす外部刺激を前記複数のスレッドが動作される通常状態のときに検出した場合に、前記通常状態から前記スリープ状態移行させる移行処理部を備え、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から準スリープ状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記通常状態への移行条件として設定される第2スリープ状態との間で、前記通常状態から前記スリープ状態への移行条件が異なるように設定されており、前記準スリープ状態は、前記所定のスレッドを停止させたままで所定の動作または出力が実行される状態として、且つ、前記準スリープ状態が所定の時間継続したときに前記スリープ状態に戻る状態として、設定されている、ことを特徴とする。
また、本発明に係るロボットは、疑似的な仕草として覚醒動作状態と睡眠動作状態とを表現可能なロボットであって、外部から自機に作用する外部刺激であってスリープ状態への移行条件を満たす外部刺激を前記覚醒動作状態のときに検出した場合に、前記覚醒動作状態から前記スリープ状態へ移行させる移行処理部を備え、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から前記睡眠動作状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記覚醒動作状態への移行条件として設定される第2スリープ状態との間で、前記覚醒動作状態から前記スリープ状態への移行条件が異なるように設定されており、前記睡眠動作状態は、当該睡眠動作状態が所定の時間継続したときに前記スリープ状態に戻る動作状態として、設定されている、ことを特徴とする。
また、本発明に係る第1の態様の制御方法は、電子機器が実行する制御方法であって、外部から自機に作用する外部刺激であって複数のスレッドのうちの所定のスレッドを停止させるスリープ状態への移行条件を満たす外部刺激を前記複数のスレッドが動作される通常状態のときに検出した場合に、前記通常状態から前記スリープ状態へ移行させる移行処理を含み、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から準スリープ状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記通常状態への移行条件として設定される第2スリープ状態との間で、前記通常状態から前記スリープ状態への移行条件が異なるように設定されており、前記準スリープ状態は、前記所定のスレッドを停止させたままで所定の動作または出力が実行される状態として、且つ、前記準スリープ状態が所定の時間継続したときに前記スリープ状態に戻る状態として、設定されている、ことを特徴とする。
また、本発明に係る第2の態様の制御方法は、疑似的な仕草として覚醒動作状態と睡眠動作状態とを表現可能なロボットが実行する制御方法であって、外部から自機に作用する外部刺激であってスリープ状態への移行条件を満たす外部刺激を前記覚醒動作状態のときに検出した場合に、前記覚醒動作状態から前記スリープ状態へ移行させる移行処理を含み、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から前記睡眠動作状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記覚醒動作状態への移行条件として設定される第2スリープ状態との間で、前記覚醒動作状態から前記スリープ状態への移行条件が異なるように設定されており、前記睡眠動作状態は、当該睡眠動作状態が所定の時間継続したときに前記スリープ状態に戻る動作状態として、設定されている、ことを特徴とする。
また、本発明に係る第1の態様のプログラムは、電子機器のコンピュータを、外部から自機に作用する外部刺激であって複数のスレッドのうちの所定のスレッドを停止させるスリープ状態への移行条件を満たす外部刺激を前記複数のスレッドが動作される通常状態のときに検出した場合に、前記通常状態から前記スリープ状態へ移行させる移行処理手段として機能させ、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から準スリープ状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記通常状態への移行条件として設定される第2スリープ状態との間で、前記通常状態から前記スリープ状態への移行条件が異なるように設定されており、前記準スリープ状態は、前記所定のスレッドを停止させたままで所定の動作または出力が実行される状態として、且つ、前記準スリープ状態が所定の時間継続したときに前記スリープ状態に戻る状態として、設定されている、ことを特徴とする。
また、本発明に係る第2の態様のプログラムは、疑似的な仕草として覚醒動作状態と睡眠動作状態とを表現可能なロボットのコンピュータを、外部から自機に作用する外部刺激であってスリープ状態への移行条件を満たす外部刺激を前記覚醒動作状態のときに検出した場合に、前記覚醒動作状態から前記スリープ状態へ移行させる移行処理手段として機能させ、外部から自機に作用する所定の外部刺激の検出が前記スリープ状態から前記睡眠動作状態への移行条件として設定される第1スリープ状態と、前記所定の外部刺激の検出が前記スリープ状態から前記覚醒動作状態への移行条件として設定される第2スリープ状態との間で、前記覚醒動作状態から前記スリープ状態への移行条件が異なるように設定されており、前記睡眠動作状態は、当該睡眠動作状態が所定の時間継続したときに前記スリープ状態に戻る動作状態として、設定されている、ことを特徴とする。
In order to achieve the above object, an electronic device according to the present invention provides an external stimulus that acts on the device from the outside and that satisfies a sleep state transition condition for stopping a predetermined thread out of a plurality of threads. a shift processing unit that shifts from the normal state to the sleep state when detected in the normal state in which the plurality of threads are operated , wherein detection of a predetermined external stimulus acting on the device from the outside is the sleep state; between a first sleep state set as a condition for transitioning from a sleep state to a quasi-sleep state and a second sleep state set as a condition for transition from the sleep state to the normal state by detection of the predetermined external stimulus , the transition conditions from the normal state to the sleep state are set to be different, and the quasi-sleep state is a state in which a predetermined operation or output is executed while the predetermined thread is stopped; and It is characterized in that it is set as a state to return to the sleep state when the quasi-sleep state continues for a predetermined time.
Further, the robot according to the present invention is a robot capable of expressing an awake motion state and a sleep motion state as a pseudo gesture, and is an external stimulus acting on the robot from the outside, which is a transition condition to the sleep state. a transition processing unit for transitioning from the awake operation state to the sleep state when a satisfying external stimulus is detected in the awake operation state, wherein detection of a predetermined external stimulus acting on the device from the outside causes the sleep state between a first sleep state set as a transition condition from the sleep state to the sleep operation state and a second sleep state set as a transition condition from the sleep state to the wakefulness operation state based on detection of the predetermined external stimulus wherein conditions for transition from the awakening operation state to the sleep state are set to be different, and the sleep operation state is an operation state that returns to the sleep state when the sleep operation state continues for a predetermined time, It is characterized by being set.
A control method according to a first aspect of the present invention is a control method executed by an electronic device, which is an external stimulus acting on the device from the outside and stops a predetermined thread out of a plurality of threads. When an external stimulus that satisfies conditions for transitioning to the sleep state is detected in the normal state in which the plurality of threads are operated, a transition process is performed to transition from the normal state to the sleep state, and externally acts on the device itself. A first sleep state in which detection of a predetermined external stimulus is set as a condition for transition from the sleep state to the quasi-sleep state, and detection of the predetermined external stimulus is set as a condition for transition from the sleep state to the normal state. The second sleep state is set so that conditions for transition from the normal state to the sleep state are different, and the quasi-sleep state performs a predetermined operation or operation while the predetermined thread is stopped. It is characterized by being set as a state in which output is executed and as a state in which the sleep state is returned to when the quasi-sleep state continues for a predetermined time.
A control method according to a second aspect of the present invention is a control method executed by a robot capable of expressing an awake motion state and a sleep motion state as pseudo gestures, wherein an external motion acting on the robot from the outside is performed. When an external stimulus that is a stimulus and satisfies conditions for transition to the sleep state is detected in the wakeful operation state, it includes transition processing for transitioning from the wakeful operation state to the sleep state, and acts on the self-machine from the outside. a first sleep state in which detection of a predetermined external stimulus is set as a transition condition from the sleep state to the sleep operating state; and detection of the predetermined external stimulus is set as a transition condition from the sleep state to the wakeful operation state. The second sleep state is set so that the transition condition from the awakening operation state to the sleep state is different, and the sleep operation state is set when the sleep operation state continues for a predetermined time. is set as an operating state for returning to the sleep state.
Further, the program according to the first aspect of the present invention provides a computer of an electronic device with conditions for transitioning to a sleep state, in which a predetermined thread out of a plurality of threads that is an external stimulus acting on the computer from the outside is stopped. functioning as transition processing means for transitioning from the normal state to the sleep state when an external stimulus that satisfies the above is detected in the normal state in which the plurality of threads are operated, and a predetermined external stimulus that acts on the device from the outside A first sleep state in which detection of a stimulus is set as a transition condition from the sleep state to the quasi-sleep state, and a second sleep state in which detection of the predetermined external stimulus is set as a transition condition from the sleep state to the normal state. The transition condition from the normal state to the sleep state is set to be different from the sleep state, and in the quasi-sleep state, a predetermined operation or output is executed while the predetermined thread is stopped. and a state to return to the sleep state when the quasi-sleep state continues for a predetermined time.
Further, a program according to a second aspect of the present invention causes a computer of a robot capable of expressing an awake motion state and a sleep motion state as a pseudo gesture to be in a sleep state when an external stimulus acts on the robot from the outside. A predetermined external stimulus that acts on the self-machine from the outside to function as transition processing means for transitioning from the awake operation state to the sleep state when an external stimulus that satisfies a transition condition to the wakeful operation state is detected in the awake operation state. a first sleep state in which detection of is set as a transition condition from the sleep state to the sleep operating state; and a first sleep state in which detection of the predetermined external stimulus is set as a transition condition from the sleep state to the awake operation state. 2, the conditions for transition from the awakening operation state to the sleep state are set to be different between the two sleep states, and the sleep operation state is changed to the sleep state when the sleep operation state continues for a predetermined time. is set as an operating state to return to.

Claims (7)

外部から自機に作用する外部刺激を取得し、
前記取得した外部刺激が第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
制御を実行する処理部、
を備える機器。
Acquire an external stimulus that acts on the machine from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies the first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
a processing unit that performs control;
equipment.
前記処理部は、
前記取得した外部刺激が、前記第1スリープ条件を満たさない外部刺激であっても、第2スリープ条件を満たす外部刺激である場合には、第2スリープ状態に移行し、
前記第2スリープ状態に移行後に取得する前記外部刺激が前記第1刺激の場合だけでなく前記第2刺激であっても、前記第2スリープ状態から前記通常状態に移行する、
制御を実行する、
請求項1に記載の機器。
The processing unit is
Even if the acquired external stimulus is an external stimulus that does not satisfy the first sleep condition, if it is an external stimulus that satisfies a second sleep condition, transition to a second sleep state,
Transitioning from the second sleep state to the normal state not only when the external stimulus acquired after shifting to the second sleep state is the first stimulus but also when the second stimulus is obtained;
to carry out control,
The device of claim 1.
動きを表現するための可動部を駆動する駆動部、及び、音を出力する音出力部の少なくとも一方を含む被制御部をさらに備え、
前記処理部は、
前記第1スリープ状態及び前記第2スリープ状態では、前記被制御部が消費する消費電力を抑制するために、前記可動部を停止させ、前記音出力部からの音の出力を停止させる、
請求項2に記載の機器。
Further comprising a controlled unit including at least one of a driving unit that drives the movable unit for expressing movement and a sound output unit that outputs sound,
The processing unit is
In the first sleep state and the second sleep state, in order to suppress the power consumption of the controlled unit, the movable unit is stopped and the output of sound from the sound output unit is stopped.
3. The device of claim 2.
前記処理部は、
前記準スリープ状態では、前記通常状態よりも、前記被制御部が消費する消費電力を抑制するように前記被制御部を制御する、
請求項3に記載の機器。
The processing unit is
In the quasi-sleep state, the controlled unit is controlled so that the power consumed by the controlled unit is suppressed more than in the normal state.
4. A device according to claim 3.
前記処理部は、
前記準スリープ状態では、呼吸を表す動きを表現するか、又は、寝息を表す音を出力するように、前記被制御部を制御する、
請求項4に記載の機器。
The processing unit is
In the quasi-sleep state, the controlled unit is controlled so as to express movement representing breathing or output a sound representing sleep breathing;
5. A device according to claim 4.
外部から機器に作用する外部刺激を取得し、
前記取得した外部刺激が、第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
機器の制御方法。
Acquire an external stimulus acting on the device from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies a first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
How to control equipment.
コンピュータに、
外部から機器に作用する外部刺激を取得し、
前記取得した外部刺激が第1スリープ条件を満たす外部刺激である場合に、第1スリープ状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が第1刺激である場合に、前記第1スリープ状態から通常状態に移行し、
前記第1スリープ状態に移行後に取得する前記外部刺激が前記第1刺激とは異なる第2刺激である場合に、前記第1スリープ状態から準スリープ状態に移行し、前記準スリープ状態である状態が、所定の時間継続したときに、前記準スリープ状態から前記第1スリープ状態に戻る、
処理を実行させるプログラム。
to the computer,
Acquire an external stimulus acting on the device from the outside,
transitioning to a first sleep state when the acquired external stimulus is an external stimulus that satisfies the first sleep condition;
when the external stimulus acquired after shifting to the first sleep state is the first stimulus, shifting from the first sleep state to a normal state;
When the external stimulus acquired after shifting to the first sleep state is a second stimulus different from the first stimulus, the first sleep state transitions to a quasi-sleep state, and the quasi-sleep state is maintained. , returning from the quasi-sleep state to the first sleep state when continued for a predetermined time;
A program that causes an action to take place.
JP2021042125A 2021-03-16 2021-03-16 Electronic devices, robots, control methods and programs Active JP7314967B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021042125A JP7314967B2 (en) 2021-03-16 2021-03-16 Electronic devices, robots, control methods and programs
JP2023109025A JP2023115370A (en) 2021-03-16 2023-07-03 Robot, control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021042125A JP7314967B2 (en) 2021-03-16 2021-03-16 Electronic devices, robots, control methods and programs

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023109025A Division JP2023115370A (en) 2021-03-16 2023-07-03 Robot, control method and program

Publications (2)

Publication Number Publication Date
JP2022142109A true JP2022142109A (en) 2022-09-30
JP7314967B2 JP7314967B2 (en) 2023-07-26

Family

ID=83426349

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021042125A Active JP7314967B2 (en) 2021-03-16 2021-03-16 Electronic devices, robots, control methods and programs
JP2023109025A Pending JP2023115370A (en) 2021-03-16 2023-07-03 Robot, control method and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023109025A Pending JP2023115370A (en) 2021-03-16 2023-07-03 Robot, control method and program

Country Status (1)

Country Link
JP (2) JP7314967B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203004A1 (en) * 2023-03-29 2024-10-03 ソニーグループ株式会社 Autonomous mobile body and operation control method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003071763A (en) * 2001-09-04 2003-03-12 Sony Corp Leg type mobile robot
JP2009509673A (en) * 2005-09-30 2009-03-12 アイロボット コーポレーション Companion robot for personal interaction
WO2018012446A1 (en) * 2016-07-11 2018-01-18 Groove X株式会社 Autonomous acting robot of which activity is controlled

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003071763A (en) * 2001-09-04 2003-03-12 Sony Corp Leg type mobile robot
JP2009509673A (en) * 2005-09-30 2009-03-12 アイロボット コーポレーション Companion robot for personal interaction
WO2018012446A1 (en) * 2016-07-11 2018-01-18 Groove X株式会社 Autonomous acting robot of which activity is controlled

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
井上未雪: ""家族型ロボットLOVOTと一緒に家で暮らしてみた。まさか……裏切られた予見"", ハフポスト日本語版, JPN6022027325, 15 January 2020 (2020-01-15), JP, pages 1 - 8, ISSN: 0004818890 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024203004A1 (en) * 2023-03-29 2024-10-03 ソニーグループ株式会社 Autonomous mobile body and operation control method

Also Published As

Publication number Publication date
JP7314967B2 (en) 2023-07-26
JP2023115370A (en) 2023-08-18

Similar Documents

Publication Publication Date Title
JP7231924B2 (en) Autonomous action robot whose activity level is controlled
CN109475781B (en) Behavioral autonomous robot understanding physical contact
JP7364016B2 (en) Robot, control method and program
JPWO2018097089A1 (en) Autonomous robot that changes eyes
JP7081619B2 (en) Device control device, device, device control method and program
JP2023115370A (en) Robot, control method and program
JP2023099625A (en) Equipment control device, equipment control method, and program
JP2022097534A (en) Control device of apparatus, control method of apparatus and program
JP2024127982A (en) Robots, expression methods and programs
JP7287411B2 (en) Equipment control device, equipment control method and program
JP2022142111A (en) Power supply control device of equipment, control method of equipment, and program
JP7163987B2 (en) Equipment control device, equipment control method and program
US20240100707A1 (en) Robot, robot control method and recording medium
US20240100709A1 (en) Robot, robot control method and recording medium
US20240100708A1 (en) Robot, robot control method and recording medium
US20230305504A1 (en) Apparatus control device, apparatus control method, and recording medium
JP2024076459A (en) Operation control device, operation control method, and program
JP2023049116A (en) Robot, robot control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7314967

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150