JP2020185366A - toy - Google Patents

toy Download PDF

Info

Publication number
JP2020185366A
JP2020185366A JP2019164989A JP2019164989A JP2020185366A JP 2020185366 A JP2020185366 A JP 2020185366A JP 2019164989 A JP2019164989 A JP 2019164989A JP 2019164989 A JP2019164989 A JP 2019164989A JP 2020185366 A JP2020185366 A JP 2020185366A
Authority
JP
Japan
Prior art keywords
output
toy
voice
unit
request
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019164989A
Other languages
Japanese (ja)
Inventor
毅 土屋
Takeshi Tsuchiya
毅 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
M&T PROJECT PARTNERS Inc
Original Assignee
M&T PROJECT PARTNERS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by M&T PROJECT PARTNERS Inc filed Critical M&T PROJECT PARTNERS Inc
Priority to JP2019164989A priority Critical patent/JP2020185366A/en
Publication of JP2020185366A publication Critical patent/JP2020185366A/en
Pending legal-status Critical Current

Links

Landscapes

  • Toys (AREA)

Abstract

To provide a toy which works upon a user from the toy, which can output an action or the sound of a voice corresponding to the reaction of the user, and which never makes the user get tired of the toy.SOLUTION: A controller 3 includes: a direction determination part which determines the direction of a body part 2 from acceleration data inputted by an acceleration sensor 5; a demand response history part which records demand of a toy 1 for the direction, user's response for the demand, and background of lapsed time; a condition information part which has conditions having as factors the demand of the toy 1, the user's response to the demand, and lapsed time, and has an output corresponding to the conditions; an output data specification part which inputs data of direction of the body part 2 from the direction determination part, which refers to the demand response history part and the condition information part, and which specifies identification information of the output data to be outputted; an output processing part which acquires the corresponding output data from the output data part and outputs it; and a history processing part which records in the history data part the output data outputted by the output processing part, time, and the history of directions.SELECTED DRAWING: Figure 1

Description

本発明は、玩具に関する。 The present invention relates to toys.

従前から、センサーを有し、該センサーの検知の結果が所定の条件を満たした時に、所定の音声あるいは動作を出力する玩具は存在していた。また、出力する音声や動作を色々に変化させる玩具も存在していた。 Conventionally, there have been toys that have a sensor and output a predetermined voice or action when the detection result of the sensor satisfies a predetermined condition. In addition, there were toys that changed the output voice and movement in various ways.

例えば、特許文献1は、複数のセンサーを有し、各センサーの感知の有無の組合せで、異なる音声を発したり、使用者と会話したりする玩具を提案している。 For example, Patent Document 1 proposes a toy that has a plurality of sensors and emits different voices or talks with a user depending on the combination of the presence or absence of detection of each sensor.

具体的な例として、特許文献1の玩具は、例えば人形の形態を有する本体(人形体)を有し、該人形体の臀部と額部に接触センサーを有し、臀部センサーが接触を検知し、額部センサーが接触を検知しないときは、人形体が座った状態であると認識し、音声認識可能な状態となる。使用者が該人形体を抱き上げると、臀部センサーが接触を検知せず、額部センサーが接触を検知するため、抱き上げられたことを認識して、それに対応する音声を出力する。 As a specific example, the toy of Patent Document 1 has, for example, a main body (doll body) having the shape of a doll, has contact sensors on the buttocks and forehead of the doll body, and the buttocks sensor detects contact. When the forehead sensor does not detect contact, it recognizes that the doll is sitting and is in a state where voice recognition is possible. When the user lifts the doll body, the buttock sensor does not detect the contact, and the forehead sensor detects the contact. Therefore, the user recognizes that the doll has been lifted and outputs the corresponding voice.

この種の玩具は、ある状態になったことをトリガーとして、所定の音声や動作を出力する。この点から、この種の玩具は受動型玩具ということができる。例えば、撫でられたことを検知して、所定の音声を発する玩具が挙げられる。 This type of toy outputs a predetermined voice or action triggered by a certain state. From this point, this kind of toy can be called a passive toy. For example, a toy that detects that it has been stroked and emits a predetermined sound can be mentioned.

これに対して、使用者が能動的に発した音声や動作を受けて、対応する音声や動作を出力する玩具も存在していた。この種の玩具は、使用者の音声や動作に対応して出力するため、インタラクティブ型玩具ということができる。例えば、使用者が発した言葉に応答するように言葉を返す玩具が挙げられる。 On the other hand, there are toys that output the corresponding voices and movements in response to the voices and movements actively emitted by the user. This type of toy can be called an interactive toy because it outputs in response to the user's voice and movement. For example, a toy that returns words in response to words spoken by the user.

特開2006−6586号公報Japanese Unexamined Patent Publication No. 2006-6586

上述した受動型玩具は、一般に、ある種の状態になったことを受けて、それをトリガーとして所定の動作あるいは音声を出力する。 The passive toy described above generally receives a certain state and outputs a predetermined action or sound by using it as a trigger.

インタラクティブ型玩具は、使用者の音声や動作を受けて、対応する動作あるいは音声を出力するが、玩具が使用者の音声や動作を受けてから、所定の動作あるいは音声を出力する点では受動型玩具と同じである。 The interactive toy receives the user's voice or action and outputs the corresponding action or voice, but the toy is passive in that it outputs a predetermined action or voice after receiving the user's voice or action. It's the same as a toy.

このように、従来の玩具は、受動型玩具とインタラクティブ型玩具を含めて、センサーの入力であっても、使用者からの入力であっても、該入力をトリガーにして玩具が何らかの反応を出力するようにしていた。 As described above, in the conventional toys, including the passive toys and the interactive toys, the toys output some reaction by using the input as a trigger regardless of whether the input is a sensor input or an input from the user. I was trying to do it.

しかし、玩具を使用可能な状態にセットすることを含めて、使用者が何らかの働きを玩具に作用させない限り、玩具から何ら出力がされないことは、使用者に玩具を使用しているという感覚を生じさせ、使用者の興味を低減させる。 However, no output from the toy, unless the user exerts some action on the toy, including setting the toy in a usable state, gives the user the feeling that the toy is being used. And reduce the interest of the user.

また、使用者が玩具に働きかけない限り、玩具が反応しない状態が続くと、使用者が飽きてしまうことが多い。 In addition, unless the user works on the toy, if the toy continues to be unresponsive, the user often gets bored.

これに対して、使用者に何らかの働きを玩具に作用させていることを意識させないように、使用者の必然的に生じる動き等を検知して反応する玩具も存在している。 On the other hand, there are toys that detect and react to the inevitable movements of the user so as not to make the user aware that some action is being applied to the toy.

しかし、この種の玩具は、所定の条件を満たすと、それに対応する一定の反応、すなわち予測可能な反応を出力する点で、やはり使用者を飽きさせ、使用者の興味を減らす。 However, this kind of toy also makes the user bored and reduces the user's interest in that when a predetermined condition is satisfied, a constant reaction corresponding to the predetermined reaction, that is, a predictable reaction is output.

また、使用者が動き等をしない状態が続くと、玩具も何ら出力しないため、使用者を飽きさせやすい。 In addition, if the user does not move or the like for a long time, the toy does not output at all, so that the user tends to get bored.

このため、従来の玩具の分野において、使用者に飽きさせない玩具に対する要求が継続的に強くあった。 For this reason, in the field of conventional toys, there has been a continuous strong demand for toys that do not make users bored.

そこで、本発明の目的は、玩具の方から使用者に働きかけ、かつ、使用者の反応に対応する動作または音声を出力することができ、使用者を飽きさせない玩具を提供することにある。 Therefore, an object of the present invention is to provide a toy that can work on the user from the toy and output an action or a voice corresponding to the reaction of the user so that the user does not get bored.

換言すると、本発明は、玩具の方から使用者に働きかける逆能動型の玩具を提供することを目的とする。 In other words, it is an object of the present invention to provide a reverse active toy that works from the toy to the user.

本発明の玩具は、たとえば、
制御装置と出力装置と加速度センサーと電源とを有する本体部を有する玩具であって、
前記制御装置は、
前記加速度センサーから入力した加速度データから前記本体部の向きを判定する向き判定部と、
向きに対する玩具の要求と、前記要求に対する使用者の応答と、経過時間との履歴を記録する要求応答履歴部と、
玩具の要求と、前記要求に対する使用者の応答と、経過時間とをファクターとして有する少なくとも一つの条件と、前記条件に対応する少なくとも一つの出力を有する条件情報部と、
前記向き判定部から前記本体部の向きのデータを取得し、前記要求応答履歴部と前記条件情報部とを参照し、出力すべき出力データの識別情報を特定する出力データ特定部と、
前記出力データ特定部から、特定された出力データの識別情報を取得し、出力データを格納した出力データ部から対応する出力データを取得して出力する出力処理部と、
前記出力処理部が出力した出力データと、前記経過時間、前記本体部の向きの履歴を履歴データ部に記録する履歴処理部と、を有することを特徴とする。
The toy of the present invention is, for example,
A toy having a main body having a control device, an output device, an acceleration sensor, and a power supply.
The control device is
An orientation determination unit that determines the orientation of the main body from the acceleration data input from the acceleration sensor,
A request / response history unit that records the history of the toy's request for orientation, the user's response to the request, and the elapsed time.
A condition information unit having at least one condition having a toy request, a user's response to the request, and an elapsed time as factors, and at least one output corresponding to the condition.
An output data specifying unit that acquires orientation data of the main body from the orientation determining unit, refers to the request / response history unit and the condition information unit, and specifies identification information of output data to be output.
An output processing unit that acquires identification information of the specified output data from the output data specifying unit, acquires the corresponding output data from the output data unit that stores the output data, and outputs the corresponding output data.
It is characterized by having an output data output by the output processing unit, and a history processing unit that records the elapsed time and the history of the orientation of the main body unit in the history data unit.

前記向きは、3軸の加速度センサーによって判定されるようにしてよい。 The orientation may be determined by a three-axis accelerometer.

前記出力は音声の出力または前記玩具の動作の出力であってもよい。 The output may be a voice output or an output of the toy's movement.

前記出力データ特定部は、前記本体部の向きを変えるように要求する音声出力の識別情報を特定して前記出力処理部に出力させ、前記向き判定部から使用者の応答を検出し、前記要求応答履歴部と前記条件情報部を参照して満足感または不満感を示す音声出力を特定して前記出力処理部に出力させてもよい。 The output data specifying unit identifies the identification information of the voice output requesting to change the direction of the main body unit, causes the output processing unit to output the identification information, detects the user's response from the orientation determining unit, and makes the request. The voice output indicating satisfaction or dissatisfaction may be specified by referring to the response history unit and the condition information unit and output to the output processing unit.

前記条件情報部は、使用者が前記玩具の要求に応える動作を行ったときは満足感を示す出力を出力し、使用者が前記玩具の要求に反する動作を行ったか前記要求に応答しないときは不満感を示す出力を出力するように、条件と対応が設定されてもよい。 The condition information unit outputs an output showing satisfaction when the user performs an operation in response to the request of the toy, and when the user performs an operation contrary to the request of the toy or does not respond to the request. Conditions and correspondence may be set to output a dissatisfied output.

前記条件情報部は、時間の経過とともに満足感あるいは不満感の度合いが強くなるように、条件と対応が設定されてもよい。 The condition information unit may be set with conditions and correspondence so that the degree of satisfaction or dissatisfaction increases with the passage of time.

前記出力データは、声音または音質または音量または内容または言葉遣いまたはそれらの少なくとも2つの組合せが互いに異なる複数の音声系列を有してもよい。 The output data may have a plurality of audio sequences in which voice sound or sound quality or volume or content or wording or at least two combinations thereof differ from each other.

前記出力データ特定部は、使用者が前記玩具の要求に応える動作を行った後に、前記条件情報部を参照し、所定の音声系列の出力データの識別情報を特定してもよい。 The output data specifying unit may refer to the condition information unit and specify the identification information of the output data of a predetermined voice series after the user performs an operation in response to the request of the toy.

前記出力データ特定部は、使用者が前記玩具の要求に応える動作を行った後に、ランダムに所定の音声系列の出力データの識別情報を特定してもよい。 The output data specifying unit may randomly specify the identification information of the output data of a predetermined voice series after the user performs an operation in response to the request of the toy.

前記出力データ特定部は、所定の音声系列の出力データを時間の経過とともに出力させている途中で、他の音声系列に出力データに切り替えて出力させてもよい。 The output data specifying unit may switch the output data of a predetermined voice series to the output data and output the output data to another voice series while the output data of the predetermined voice series is being output with the passage of time.

前記音声系列は、第一言語の音声合成エンジンに、第二言語の文章を単語に分解し、前記各単語に発音が近い前記第一言語の単語を当てはめて音声を合成させ、合成された音声を前記第二言語による音声出力として有してもよい。 In the voice sequence, a voice synthesis engine of the first language decomposes a sentence of the second language into words, applies a word of the first language whose pronunciation is close to each word, and synthesizes the voice, and synthesizes the voice. May be provided as an audio output in the second language.

前記出力データ特定部は、前記向き判定部から要求に対する使用者の応答を検出し、前記要求が満たされない経過時間に応じて出力の大きさを増加させる命令を出力し、前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力してもよい。 The output data specifying unit detects the user's response to the request from the orientation determination unit, outputs an instruction to increase the output magnitude according to the elapsed time when the request is not satisfied, and the output processing unit outputs a command to increase the output magnitude. An audio output of a corresponding magnitude may be output in response to the command.

前記出力データ特定部は、スピーカーが下向きになる前記本体部の向きの情報を有し、前記向き判定部からの向きのデータと前記スピーカーが下向きになる向きとを比較し、前記スピーカーが下向きであると判断したときは、大きな音声出力を出力する命令を出力し、前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力してもよい。 The output data specifying unit has information on the orientation of the main body portion in which the speaker faces downward, compares the orientation data from the orientation determination unit with the orientation in which the speaker faces downward, and the speaker faces downward. When it is determined that there is, an instruction to output a large audio output may be output, and the output processing unit may output an audio output having a corresponding magnitude in response to the instruction.

本発明の一実施形態による玩具の構成図である。It is a block diagram of the toy by one Embodiment of this invention. 本発明の一実施形態による制御装置の構成図である。It is a block diagram of the control device by one Embodiment of this invention. 本発明の一実施形態による玩具の向きの規定方法(図3(a))と、制御装置の処理を説明する説明図(図3(b))である。It is the method of defining the orientation of a toy by one Embodiment of this invention (FIG. 3A), and it is explanatory drawing (FIG. 3B) explaining the processing of a control device. 本発明の一実施形態の出力音声特定部による音声系列の選択の一例の説明図である。It is explanatory drawing of an example of selection of the voice sequence by the output voice identification part of one Embodiment of this invention. 本発明の一実施形態の出力音声特定部による他の音声系列の選択の一例の説明図である。It is explanatory drawing of an example of selection of another voice sequence by the output voice identification part of one Embodiment of this invention. 本発明の一実施形態による履歴データ部の格納データの一例を示す説明図である。It is explanatory drawing which shows an example of the stored data of the history data part by one Embodiment of this invention. 本発明の一実施形態による条件情報部の格納データの一例を示す説明図である。It is explanatory drawing which shows an example of the stored data of the condition information part by one Embodiment of this invention. 本発明の一実施形態による音声出力の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of processing of the audio output by one Embodiment of this invention.

以下に、本発明が適用された実施の形態の例について説明する。 An example of the embodiment to which the present invention is applied will be described below.

図1は一実施形態による玩具1の構成を示している。 FIG. 1 shows the configuration of the toy 1 according to one embodiment.

玩具1は本体部2を有している。本体部2は、制御装置3と、スピーカー4(出力装置)、加速度センサー5(センサー)と電源6を有している。 The toy 1 has a main body 2. The main body 2 has a control device 3, a speaker 4 (output device), an acceleration sensor 5 (sensor), and a power supply 6.

本実施形態の玩具1は、本体部2が置かれた向きに対して、玩具1から使用者に要求を発し、その要求に対する使用者の応答に反応してさらに出力するものである。 In the toy 1 of the present embodiment, the toy 1 issues a request to the user in the direction in which the main body 2 is placed, and further outputs the request in response to the user's response to the request.

理解容易のため、以下の例は、玩具1の本体部2が直方体の形態を有し、所定の向き(姿勢)に置かれると、時間の経過とともに向きを変えてくれるように使用者に要求を発し、使用者が要求に応えれば満足感を示す出力をし、使用者が要求に反する応答や要求に応答しないときは、不満感を示す出力をするものである。 For ease of understanding, the following example requires the user to change the orientation of the toy 1 over time when the body 2 of the toy 1 has a rectangular parallelepiped shape and is placed in a predetermined orientation (posture). Is issued, and when the user responds to the request, an output showing satisfaction is output, and when the user does not respond to the request or a response contrary to the request, an output indicating dissatisfaction is output.

本体部2が直方体のため、各面を下にして置いた場合の6種類の「向き」がある。 Since the main body 2 is a rectangular parallelepiped, there are six types of "directions" when each side is placed face down.

玩具1は、使用者が要求に応答しない場合に、時間の経過とともに不満感の度合いが増加していることを示す出力を行う。また、長い時間の経過後に、使用者が要求に応える応答を行うと、より深い満足感を示す出力を行う。逆に、長い時間の経過後に、使用者が要求に反する応答を行うと、不満感を募らせた内容の出力を行う。 The toy 1 outputs an output indicating that the degree of dissatisfaction increases with the passage of time when the user does not respond to the request. In addition, when the user responds to the request after a long period of time, the output shows a deeper satisfaction. On the contrary, when the user responds contrary to the request after a long period of time, the content that causes dissatisfaction is output.

なお、玩具1の要求や出力が「向き」に関するため、簡単のため本体部2は六面体の形態を有していることを想定して以下に説明する。しかし、本体部2は六面体に限られず、一定の向きに一定の時間姿勢を維持できる形態であれば足り、任意の多面体や人形や動物などの形態を有していてもよい。 Since the request and output of the toy 1 are related to the "direction", the main body 2 will be described below assuming that the main body 2 has a hexahedral shape for the sake of simplicity. However, the main body 2 is not limited to a hexahedron, and any form such as a polyhedron, a doll, or an animal may be provided as long as it can maintain a posture in a certain direction for a certain period of time.

なお、上述した「向き」については後にさらに定義および説明する。 The above-mentioned "direction" will be further defined and described later.

向きを検出するセンサーとして本実施形態は加速度センサー5を備えている。なお、玩具1の要求や出力が他の環境(例えば温度、音など)に対するものであれば、該環境の状態を検出することができる他の種類のセンサーを用いる。他の種類のセンサーとして、人感センサー、振動センサー、温度センサー、湿度センサー、光センサー、音センサーが挙げられるが、これらに限られない。むろん、センサーは、一種類のセンサーに限られず、他のセンサーと併用してもよく、例えば加速度センサー5と人感センサーなどの他のセンサーを併用してもよい。 The present embodiment includes an acceleration sensor 5 as a sensor for detecting the orientation. If the request or output of the toy 1 is for another environment (for example, temperature, sound, etc.), another type of sensor capable of detecting the state of the environment is used. Other types of sensors include, but are not limited to, motion sensors, vibration sensors, temperature sensors, humidity sensors, light sensors, and sound sensors. Of course, the sensor is not limited to one type of sensor, and may be used in combination with other sensors, for example, an acceleration sensor 5 and another sensor such as a motion sensor may be used in combination.

本実施形態の玩具1は、出力として音声を出力することを例にしているため、出力装置としてスピーカー4を有している。しかし、玩具1の出力装置は、スピーカー4に限られない。 Since the toy 1 of the present embodiment is an example of outputting voice as an output, it has a speaker 4 as an output device. However, the output device of the toy 1 is not limited to the speaker 4.

つまり、玩具1の出力は、満足感や不満感を表現できるものであれば足り、音声出力に限らない。たとえば、玩具1は、その動作によって、満足感や不満感を表現してもよい。 That is, the output of the toy 1 is not limited to the voice output as long as it can express satisfaction and dissatisfaction. For example, the toy 1 may express a feeling of satisfaction or dissatisfaction by its movement.

なお、本明細書で玩具1の「動作」に言及するときは、「動作」は動きがあるものに限られず、動きを伴わない動作、例えば色や照度や温度やにおいの変化なども含むものとする。 When referring to the "motion" of the toy 1 in the present specification, the "motion" is not limited to a motion, but includes a motion without motion, such as a change in color, illuminance, temperature, or odor. ..

したがって、玩具1の出力装置は、スピーカー4の他、玩具1に所定の動きをさせる駆動装置、色や照度を変化させる照明装置、温度や匂いを変化させるヒーターなどでもよい。 Therefore, the output device of the toy 1 may be a drive device that causes the toy 1 to perform a predetermined movement, a lighting device that changes the color or illuminance, a heater that changes the temperature or odor, or the like, in addition to the speaker 4.

電源6は、一般的にはバッテリーであるが、動力を提供できれば足りるため、コード等で接続する外部の電源を含む。 The power source 6 is generally a battery, but since it is sufficient to provide power, it includes an external power source connected by a cord or the like.

図2は、制御装置3の機能構成を示している。 FIG. 2 shows the functional configuration of the control device 3.

制御装置3は、データを処理するモジュールとして、向き判定部7と、出力音声特定部8と、音声出力処理部9と、履歴処理部10とを有している。 The control device 3 has an orientation determination unit 7, an output voice specifying unit 8, a voice output processing unit 9, and a history processing unit 10 as modules for processing data.

また、データを格納・管理するものとして、制御装置3は、条件情報部11と、要求応答履歴部12と、音声データ部13と、履歴データ部14とを有している。 Further, the control device 3 has a condition information unit 11, a request / response history unit 12, a voice data unit 13, and a history data unit 14 for storing and managing data.

なお、本実施形態では、状態によって玩具が要求を発する対象の環境が玩具の置かれた「向き」であるため、向き判定部7を有しているが、向き判定部7はその上位概念である環境状態判定部の一例である。環境が変われば、判定の方法やセンサーも変わる。 In the present embodiment, since the environment in which the toy issues a request depending on the state is the "orientation" in which the toy is placed, the orientation determination unit 7 is provided, but the orientation determination unit 7 is a superordinate concept thereof. This is an example of a certain environmental condition determination unit. If the environment changes, so will the judgment method and sensors.

また、本実施形態では、玩具が音声によって出力するため、出力音声特定部8と音声出力処理部9と音声データ部13を有しているが、これらはそれぞれの上位概念である出力データ特定部と出力処理部と出力データ部の一例である。出力は、既述したように、音声や動作を含み、出力データは出力の種類によって形式が異なる。 Further, in the present embodiment, since the toy outputs by voice, it has an output voice specifying unit 8, a voice output processing unit 9, and a voice data unit 13, which are higher-level concepts of each. This is an example of an output processing unit and an output data unit. As described above, the output includes voice and operation, and the format of the output data differs depending on the type of output.

制御装置3の各部の機能は以下の通りである。 The functions of each part of the control device 3 are as follows.

向き判定部7は、加速度センサー5から加速度データを取得し、本体部2の向きを判定する。要求応答履歴部12は、本体部2の向きに対する玩具1の要求と、該要求に対する使用者の応答と、時間の経過の履歴を記録管理する。 The orientation determination unit 7 acquires acceleration data from the acceleration sensor 5 and determines the orientation of the main body 2. The request / response history unit 12 records and manages the request of the toy 1 with respect to the orientation of the main body 2, the response of the user to the request, and the history of the passage of time.

条件情報部11には、出力すべき音声データ(出力音声)を特定する処理に用いられる情報が格納されている。条件情報部11には、例えば、過去に出力した音声等の履歴から、次に出力する音声データを決定するためルールが格納されている。また、玩具1の要求と、該要求に対する使用者の応答と、時間の経過をファクターとして有する少なくとも一つの条件と、該条件に対応する少なくとも一つの出力を対応させた、対応表を格納している。
出力音声特定部8は、向き判定部7から本体部2の向きのデータを入力し、要求応答履歴部12と条件情報部11とを参照し、出力すべき音声データの識別情報を特定する。
The condition information unit 11 stores information used for processing for specifying voice data (output voice) to be output. In the condition information unit 11, for example, a rule is stored for determining the voice data to be output next from the history of the voice or the like output in the past. In addition, a correspondence table is stored in which the request of the toy 1, the response of the user to the request, at least one condition having the passage of time as a factor, and at least one output corresponding to the condition are associated with each other. There is.
The output voice specifying unit 8 inputs the orientation data of the main body 2 from the orientation determination unit 7, refers to the request / response history unit 12 and the condition information unit 11, and specifies the identification information of the voice data to be output.

音声出力処理部9は、出力音声特定部8が特定した出力すべき音声データの識別情報を入力し、音声データ部13から対応する音声データを取得して出力する。そのため、音声データ部13には、音声データの識別情報に対応して、音声データ(wavやmp3形式の音声ファイル)が格納されている。なお、音声データは、予め格納されていてもよいし、必要なときにテキストから音声合成して生成して格納されるようにしてもよい。 The voice output processing unit 9 inputs the identification information of the voice data to be output specified by the output voice specifying unit 8, acquires the corresponding voice data from the voice data unit 13, and outputs the corresponding voice data. Therefore, the voice data unit 13 stores voice data (voice file in wav or mp3 format) corresponding to the identification information of the voice data. The voice data may be stored in advance, or may be generated and stored by voice synthesis from text when necessary.

履歴処理部10は、音声出力処理部9が出力した出力データと時間と向きの履歴を履歴データ部14に記録し管理する。 The history processing unit 10 records and manages the output data output by the voice output processing unit 9 and the history of time and direction in the history data unit 14.

以下に図3を用いて、制御装置3の具体的な処理について説明する。 The specific processing of the control device 3 will be described below with reference to FIG.

図3(a)は、玩具1の向きを規定する方法を示している。玩具1の本体部2は、直方体(互いに平行な3組の面が互いに直行してなる六面体)とする。本体部2の中心を原点Oとして、空間座標軸をX,Y,Zとする。なお、X,Y,Z軸のうち、Z軸を垂直とし、X,Y軸を水平とする。好ましくはX,Y,Z軸は本体部2の各面と平行か直角に配置する。 FIG. 3A shows a method of defining the orientation of the toy 1. The main body 2 of the toy 1 is a rectangular parallelepiped (a hexahedron in which three sets of surfaces parallel to each other are orthogonal to each other). The center of the main body 2 is the origin O, and the spatial coordinate axes are X, Y, and Z. Of the X, Y, and Z axes, the Z axis is vertical and the X and Y axes are horizontal. Preferably, the X, Y, and Z axes are arranged parallel to or at right angles to each surface of the main body 2.

このような座標系において、玩具1の向きは、座標軸X,Y,Zに関する回転角θ,θ,θによって、規定することができる。 In such a coordinate system, the orientation of the toy 1 can be defined by the rotation angles θ X , θ Y , and θ Z with respect to the coordinate axes X, Y, and Z.

Z軸回りの回転角θは、本体部2の底面を水平にして、水平方向のどの方向を向くかによって値が変化する。玩具1が水平方向の一定の方向を基準として、その方向に対する偏向を考える場合は、回転角θを向きの一要素とする。例えば使用者が居る方向をセンサーによって検知し、その方向に対する向きの偏向によって要求や出力をする場合が挙げられる。 The value of the rotation angle θ Z around the Z axis changes depending on which direction in the horizontal direction the bottom surface of the main body 2 is oriented horizontally. When the toy 1 considers the deflection with respect to a certain horizontal direction as a reference, the rotation angle θ Z is set as one element of the direction. For example, there is a case where a sensor detects the direction in which the user is, and a request or output is made by deflecting the direction with respect to that direction.

本実施形態の例では、玩具1が音声出力する対象の環境は、水平面内の向きを除く玩具1が置かれた姿勢であるため、X軸とY軸に関する回転角θ,θのみで、本体部2の向きを規定すればよい。X軸回りの回転角θと、Y軸回りの回転角θで、本体部2の左右の傾斜と前後の傾斜を規定することができる。

加速度センサー5は、X,Y,Zの3軸方向の加速度を検出するいわゆる「3軸加速度センサー」とすることができる。玩具1は、重力加速度を常に受ける。したがって、向き判定部7は、いずれの軸の加速度センサーが、正また負の重力加速度に近似した値を示すかによって、玩具1の置かれている向きを判定することができる。例えば、図3のZ軸方向を検知する加速度センサーが、正の重力加速度(誤差範囲を含む)を検知している場合、図3で示す箱の上面が上向きに置かれている状態(すなわち、θx=0°,θy=0°)と判定することができる。逆に、負の重力加速度(誤差範囲を含む)を検知している場合、上面が下向きに置かれている状態(すなわち、θx=180°,θy=0°)と判定することができる。例えば、図3に示すように、箱に人を描くと、腹側を接地(θx=0°,θy=270°)、背中側を接地(θx=0°,θy=90°)、足側を接地(θx=0°,θy=0°)、頭側を接地(θx=0°,θy=180°)、左手側を接地(θx=90°,θy=0°)、右手側を接地(θx=270°,θy=0°)、の6つの状態を容易に検出することができる。
In the example of the present embodiment, since the environment in which the toy 1 outputs voice is the posture in which the toy 1 is placed except for the orientation in the horizontal plane, only the rotation angles θ X and θ Y with respect to the X axis and the Y axis are used. , The orientation of the main body 2 may be specified. The left-right inclination and the front-back inclination of the main body 2 can be defined by the rotation angle θ X around the X-axis and the rotation angle θ Y around the Y-axis.

The acceleration sensor 5 can be a so-called "three-axis acceleration sensor" that detects acceleration in the three-axis directions of X, Y, and Z. The toy 1 is constantly subjected to gravitational acceleration. Therefore, the orientation determination unit 7 can determine the orientation in which the toy 1 is placed, depending on which axis of the acceleration sensor shows a value close to the positive or negative gravitational acceleration. For example, when the acceleration sensor that detects the Z-axis direction in FIG. 3 detects positive gravitational acceleration (including an error range), the upper surface of the box shown in FIG. 3 is placed upward (that is, that is). It can be determined that θx = 0 °, θy = 0 °). On the contrary, when a negative gravitational acceleration (including an error range) is detected, it can be determined that the upper surface is placed downward (that is, θx = 180 °, θy = 0 °). For example, as shown in FIG. 3, when a person is drawn on the box, the ventral side is grounded (θx = 0 °, θy = 270 °), the back side is grounded (θx = 0 °, θy = 90 °), and the foot side. Is grounded (θx = 0 °, θy = 0 °), the head side is grounded (θx = 0 °, θy = 180 °), the left hand side is grounded (θx = 90 °, θy = 0 °), and the right hand side is grounded. The six states (θx = 270 °, θy = 0 °) can be easily detected.

制御装置3は、玩具1の動作を統合的に制御する。制御装置3は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM(Read Only Memory)、制御装置3と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターによって実現することができる。制御装置3は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。 The control device 3 integrally controls the operation of the toy 1. The control device 3 includes, for example, a CPU (Central Processing Unit) which is an arithmetic device, a RAM (Random Access Memory) which is a volatile storage device, a ROM (Read Only Memory) which is a non-volatile storage device, and a control device 3. It can be realized by a computer including an interface (I / F) circuit for connecting other units, a bus for connecting these to each other, and the like. The control device 3 may be realized by an ASIC (Application Specific Integrated Circuit) or the like.

上記の制御装置3の機能の少なくとも一部は、例えば、CPUがROMに格納された所定のプログラムをRAMに読み出して実行することによって実現することができる。当該所定のプログラムは、例えばOS(Operating System)上で動作するアプリケーションプログラムであり、持ち運び可能な記憶媒体から読み出してインストールしたり、ネットワーク上のサーバーからダウンロードしてインストールしたりすることができる。 At least a part of the function of the control device 3 can be realized by, for example, the CPU reading a predetermined program stored in the ROM into the RAM and executing the program. The predetermined program is, for example, an application program that runs on an OS (Operating System), and can be read from a portable storage medium and installed, or downloaded and installed from a server on a network.

図3(b)は、置かれた向きと時間の経過により、玩具1が音声を出力する方法を示している。 FIG. 3B shows a method in which the toy 1 outputs a sound depending on the orientation and the passage of time.

図3(b)において、玩具1が置かれた向きと経過時間と使用者の応答の履歴部分は、要求応答履歴部12によって管理されている。また、玩具が置かれた向きと経過時間と使用者の応答の履歴を条件として、所定の音声データを選択する関係は、条件情報部11に格納管理されている。 In FIG. 3B, the orientation and elapsed time in which the toy 1 is placed and the history portion of the user's response are managed by the request response history unit 12. Further, the relationship of selecting predetermined voice data on the condition of the orientation in which the toy is placed, the elapsed time, and the response history of the user is stored and managed in the condition information unit 11.

図3(b)の表の“時間”欄は、玩具1の向きを検知した時間を示している。t,t,t,・・・は、好ましくは一定の時間間隔tごとに玩具1の向きの検知が行われるようにする。 The “time” column in the table of FIG. 3 (b) indicates the time when the orientation of the toy 1 is detected. For t 1 , t 2 , t 3 , ..., The orientation of the toy 1 is preferably detected at regular time intervals t.

図3(b)の表のθとθの欄は、玩具1の向き(角度)を示している。本実施形態では、Z軸回りの回転角θを要素としてはいないため、回転角θ,θで玩具1の向きを規定している。 The columns θ X and θ Y in the table of FIG. 3B indicate the orientation (angle) of the toy 1. In the present embodiment, since the rotation angle θ Z around the Z axis is not used as an element, the orientation of the toy 1 is defined by the rotation angles θ X and θ Y.

図3(b)の表の“T”欄は、一定の向きになってから経過した時間の累計長さを示している。 The “T” column in the table of FIG. 3 (b) indicates the cumulative length of time that has elapsed since the orientation was fixed.

図3(b)の表の右側は、玩具1が置かれた向きと経過時間と使用者の応答の履歴を条件として、出力される音声出力を示している。例えば、N2(S1,N1)はS1とN2の履歴を得てN2を出力したことを示している。 The right side of the table of FIG. 3B shows the audio output to be output on condition of the orientation in which the toy 1 is placed, the elapsed time, and the history of the user's response. For example, N2 (S1, N1) indicates that the history of S1 and N2 is obtained and N2 is output.

N,M,O,P,Q,・・・は音声出力の音声系列を示している。音声系列とは、声音(こわね)、音質、音量、内容、言葉遣いまたはこれらの少なくとも二つの組合せが、系列ごとに異なる音声出力のグループである。例えば、子どもの音声と言い方による音声系列と、女性の音声と言い方による音声系列と、外国人による日本語の喋りのような音声系列とが挙げられる。同じ声音(こわね)であっても、言葉遣いが穏やかな音声系列と、言葉遣いが荒い音声系列とを有する。あるいは、方言を含む音声系列がある。 N, M, O, P, Q, ... Indicates a voice sequence of voice output. A voice sequence is a group of voice outputs in which voice sound (fear), sound quality, volume, content, wording, or at least two combinations thereof are different for each series. For example, there are a voice series based on a child's voice, a voice series based on a woman's voice, and a voice series such as a foreigner speaking Japanese. Even if the voice sounds are the same, it has a voice series with gentle wording and a voice series with rough wording. Alternatively, there is a voice sequence that includes a dialect.

N1,N2,N3,・・・のように、音声系列を表す文字に付加している数字は、同一の音声系列における深度、すなわち、時間経過による不満感や満足感の度合いを示している。 The numbers added to the characters representing the voice series, such as N1, N2, N3, ..., Indicates the depth in the same voice series, that is, the degree of dissatisfaction and satisfaction over time.

本実施形態の玩具1による要求は、同一の向きに置かれていると、向きを変えてくれるように要求を行い、同一の向きに置かれている時間が長くなるにつれて、音声出力の不満を示す度合いが高くなるものである。N1,N2,N3,・・・のような音声系列に付加している数字は、同一の音声系列における主に不満感の度合いを示している。数字が大きくなるほど、不満感の度合いが高い。なお、不満感の度合いが高いところで、使用者が要求に応える動作を行うと、満足度の度合いも高くなる。 The request by the toy 1 of the present embodiment requests that the toys change their orientations when they are placed in the same orientation, and the longer the time when they are placed in the same orientation, the more dissatisfied with the audio output. The degree of indication is high. The numbers added to the voice series such as N1, N2, N3, ... Mainly indicate the degree of dissatisfaction in the same voice series. The higher the number, the higher the degree of dissatisfaction. If the user performs an action that meets the demand in a place where the degree of dissatisfaction is high, the degree of satisfaction is also high.

N1、N2・・・のように、音声系列と数字からなる符号は、音声出力(音声データ)と1対1に対応しており、出力すべき音声データの識別情報である。 A code composed of a voice sequence and a number, such as N1, N2, etc., has a one-to-one correspondence with voice output (voice data), and is identification information of voice data to be output.

N3(S1,N1,N2)のように、N3の括弧に付されたS1,N1,N2は、N3に至る履歴を示している。この履歴は、次の音声出力を決定する条件になっている。すなわち、履歴は玩具1の要求がどのように行われたかの歴史を示しており、それに基づいて例えば不満感の度合いを急激に増大させるなど、履歴によって出力を変化させることができる。また、履歴によって次の音声出力の音声系列を変化させることができる。 Like N3 (S1, N1, N2), S1, N1, N2 in parentheses of N3 indicate the history up to N3. This history is a condition for determining the next audio output. That is, the history shows the history of how the request of the toy 1 is made, and based on the history, the output can be changed according to the history, for example, the degree of dissatisfaction is rapidly increased. In addition, the audio sequence of the next audio output can be changed according to the history.

なお、履歴から次の音声出力を決定するルールは予め条件情報部11に格納されている。例えば、ある系列から所定時間経過するまでは同一系列の音声出力を数字順に決定し、所定時間経過すると予め定められた(ランダムに決定されてもよい)他の系列に変える。また、同一系列が続いている間に、向きが変更されると、予め定められた(ランダムに決定されてもよい)他の系列に変える。 The rule for determining the next audio output from the history is stored in the condition information unit 11 in advance. For example, the audio output of the same series is determined in numerical order until a predetermined time elapses from a certain series, and when the predetermined time elapses, it is changed to another predetermined (may be randomly determined) series. Also, if the orientation is changed while the same series continues, it changes to another predetermined (may be randomly determined) series.

同一の音声系列で音声出力するようにすると、同一の人またはものが語りかけてくるように感じられ、継続した要求が続くように感じられる。一方、途中で音声系列が変わると感情で大きく音声が変わったように感じられ、使用者を飽きさせずに興味を引き続けることができる。 When the voice is output in the same voice series, it seems that the same person or thing speaks to the voice, and the continuous request continues. On the other hand, if the voice sequence changes on the way, it feels like the voice has changed significantly due to emotions, and the user can continue to be interested without getting bored.

ここで、音声出力が変化する仕組みを時間の経過を追って説明する。 Here, the mechanism by which the audio output changes will be described over time.

図3(b)の時間tでは、制御装置3の処理が開始され、開始時の向きをθ=0とθ=0として玩具1の向きの基準とする。経過時間Tは0である。この時の音声出力(識別情報)はS1とする。S1は、既定の挨拶やスタート時のメッセージであってよい。
次に、時間tでは、玩具1がX軸回りに90度回転され、回転角θ=90°,θ=0°になったことを示している。θ=90°,θ=0°の向きになってからの経過時間Tは0となる。このときの音声出力は、N系列の音声系列が選択されている。N系列の音声系列に変更された起点になったのは、直前の出力S1であるため、履歴の最初にS1が示されている。ここで、S1の度合いを示す数字は1である。このため、N1(S1)は、軽い満足感を示す、例えば「横になって良かった」等のメッセージである。
At time t 1 of FIG. 3 (b), the process is started the control device 3, as a reference for the toy 1 faces the starting orientation as theta X = 0 and θ Y = 0. The elapsed time T is 0. The audio output (identification information) at this time is S1. S1 may be a default greeting or a start message.
Next, it is shown that the time at t 2, the toy 1 is rotated 90 degrees around the X-axis, rotation angle theta X = 90 °, it becomes θ Y = 0 °. The elapsed time T from the orientation of θ X = 90 ° and θ Y = 0 ° is 0. As the audio output at this time, an N-series audio sequence is selected. Since the starting point of the change to the N-series voice sequence is the immediately preceding output S1, S1 is shown at the beginning of the history. Here, the number indicating the degree of S1 is 1. Therefore, N1 (S1) is a message showing a light satisfaction, for example, "I'm glad I lay down".

次に、時間tでは、玩具1の回転角θ=90°,θ=0°の状態が維持され、その状態になってからt時間が経過している。このとき、履歴S1,N1に基づいて、音声出力N2(S1,N1)が決定される。音声出力N2(S1,N1)は、要求の度合いを上げて例えば「そろそろ起こして」等のメッセージである。 Then, at time t 3, the rotation angle θ X = 90 ° toy 1, θ Y = 0 ° in the state is maintained, and t time has passed from when in that state. At this time, the audio output N2 (S1, N1) is determined based on the histories S1 and N1. The voice output N2 (S1, N1) is a message such as "It's about time to wake up" by increasing the degree of request.

次に、時間tでは、玩具1の回転角θ=90°,θ=0°の状態になってから2t時間が経過している。このとき、履歴S1,N1,N2に基づいて、音声出力N3(S1,N1,N2)が出力される。この場合、時間2tが経過しても使用者が何ら要求に応答しないため、満足感や不満感の度合いは3になっている。このため、音声出力N3(S1,N1,N2)は、例えば「早く起こして!」等のメッセージを出力することができる。 Then, at time t 4, the rotation angle of the toy 1 θ X = 90 °, from becoming a state of θ Y = 0 ° 2t time has elapsed. At this time, audio output N3 (S1, N1, N2) is output based on the history S1, N1, N2. In this case, the degree of satisfaction and dissatisfaction is 3 because the user does not respond to any request even after the lapse of time 2t. Therefore, the voice output N3 (S1, N1, N2) can output a message such as "Wake up early!".

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態になっている。これは、使用者が玩具1を要求されたように正常に起こしたのではなく、逆さまの状態に置いたことを示している。すなわち、使用者が玩具1の要求に反する動作を行ったことを示している。この状態になってからの経過時間は0であるが、履歴から繰り返しの要求に拘わらず、要求に反する動作を使用者が行ったことが明らかなため、例えば、言葉遣いが荒いM系列の音声系列が選択され、荒っぽい言い方のM1(N3)を出力する。 Then, at time t 5, the rotation angle of the toy 1 θ X = 180 °, in the state of θ Y = 0 °. This indicates that the user did not raise the toy 1 normally as requested, but placed it upside down. That is, it indicates that the user has performed an operation contrary to the request of the toy 1. The elapsed time from this state is 0, but since it is clear from the history that the user performed an operation contrary to the request regardless of the repeated request, for example, the voice of the M-sequence with rough wording. The sequence is selected and the rough word M1 (N3) is output.

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態が維持され、t時間が経過している。履歴N3,M1に基づいて、音声出力M2(N3,M1)が出力される。不満感の度合いはさらに大きく、例えば「違うんだよ、早く起こしてってば!」等のメッセージを出力することができる。 Then, at time t 6, the rotation angle of the toy 1 θ X = 180 °, the state of θ Y = 0 ° is maintained, has elapsed time t. Audio output M2 (N3, M1) is output based on the history N3, M1. The degree of dissatisfaction is even greater, and it is possible to output a message such as "No, wake up early!".

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態が維持され、2tの時間が経過している。履歴N3,M1,M2に基づいて、音声出力M3(N3,M1,M2)が出力される。音声出力M3(N3,M1,M2)は、例えば「イテテテ、頭に血がのぼる、早く起こして!」等、玩具1の向きに対応するメッセージを出力することができる。 Next, at time t 7 , the state of rotation angles θ X = 180 ° and θ Y = 0 ° of the toy 1 is maintained, and a time of 2 t has elapsed. Audio output M3 (N3, M1, M2) is output based on the history N3, M1, M2. The voice output M3 (N3, M1, M2) can output a message corresponding to the orientation of the toy 1, such as "Itetete, blood spills on the head, wake up quickly!".

次に、時間tでは、玩具1の回転角θ=270°,θ=0°の状態になり、この状態になってからの経過時間Tは0である。向きが変わったことは、使用者が玩具1の要求に応答したことを示している。履歴は前の最終の動作であるM3を有している。M3の履歴は前の履歴が参照されることにより、M3(N3,M1,M2)であることが分かり、それまでのM音声系列は使用者がその前のN3の要求とは逆の応答をしたため、玩具1が困っていた状態を示している。このため、回転角θ=270°になって、逆さまの状態が緩和され、音声系列はやや穏やかなO系列が選択され、わずかに安堵した満足感を示す音声出力O1(M3)が出力される。音声出力O1(M3)は、例えば「良かった、横になれた。」等を出力することができる。玩具1の音声出力は、現在の向きを参照して対応するメッセージを出力することができる。 Then, at time t 8, the rotational angle θ X = 270 ° of the toy 1, becomes a state of theta Y = 0 °, the elapsed time T since in this state is 0. The change in orientation indicates that the user has responded to the request of Toy 1. The history has M3, which is the previous final operation. The history of M3 is found to be M3 (N3, M1, M2) by referring to the previous history, and the user responds to the previous request of N3 in the M voice sequence up to that point. Therefore, it shows that the toy 1 is in trouble. Therefore, when the rotation angle θ X = 270 °, the upside-down state is alleviated, a slightly gentle O series is selected as the voice series, and a voice output O1 (M3) showing a slightly relieved satisfaction is output. To. The voice output O1 (M3) can output, for example, "Good, lay down." The voice output of the toy 1 can output a corresponding message with reference to the current orientation.

次に、時間tでは、玩具1の回転角θ=270°,θ=0°の状態が維持され、t時間が経過している。不満感の度合いは2に増大している。履歴M3,O1に基づいて、音声出力O2(M3,O1)は、例えば「右横ではなくて左横が良いな。」など、一つ前の履歴の回転角θ=90°を参照することができる。すなわち、不満感の度合い2で、異なる要求に変えることができる。 Next, at time t 9 , the state of rotation angles θ X = 270 ° and θ Y = 0 ° of the toy 1 is maintained, and t time has elapsed. The degree of dissatisfaction has increased to 2. Based on the history M3 and O1, the audio output O2 (M3, O1) refers to the rotation angle θ X = 90 ° of the previous history, for example, "It is better to use the left side instead of the right side." be able to. That is, it is possible to change to a different request depending on the degree of dissatisfaction 2.

時間t10では、玩具1の回転角θ=270°,θ=0°の状態が維持され、2t時間が経過している。そのため、不満感の度合いは3に増大している。音声出力は、例えば「ねー、早く起こして」など、呼びかけるようにしてもよい。 At time t 10, the rotational angle θ X = 270 ° of the toy 1, θ Y = 0 ° in the state is maintained, has elapsed 2t time. Therefore, the degree of dissatisfaction has increased to 3. The voice output may be called, for example, "Hey, wake up early".

時間t11では、回転角θ=270°が維持されても、Y軸回りの回転角がθ=90°に変更されている。これは、使用者が玩具1を起こしたのではなく、前に倒したことを示している。この状態になって経過時間Tは0になる。この新しい向きは、玩具1の要求に反する使用者の応答なので、全体的に不満度が高い音声系列Pが選択され、該音声系列Pによる音声出力を開始することができる。 At time t 11, the rotational angle θ X = 270 ° is be maintained, the rotation angle of the Y axis is changed to θ Y = 90 °. This indicates that the user did not raise the toy 1 but knocked it forward. In this state, the elapsed time T becomes 0. Since this new orientation is the response of the user contrary to the request of the toy 1, the voice series P having a high degree of dissatisfaction as a whole can be selected and the voice output by the voice series P can be started.

時間t11以降も、相違があるが概略同様に、所定のアルゴリズムに基づいて、次の音声出力を選択し、音声を出力し続けることができる。 The time t 11 and subsequent, similarly there are differences schematic, based on a predetermined algorithm, it is possible to select the next audio output, continues to output the sound.

なお、以上の時間tからt11以降の音声出力は、基本的に不満度の度合いが増大する例で説明した。すなわち、一定の状態に放置されたり、要求に反する状態に置かれたりすると、不満度の度合いが増加するケースで説明した。 Note that the audio output of the t 11 after the above time t 1 has been described in example degree basically dissatisfaction increases. That is, the case where the degree of dissatisfaction increases when left in a certain state or placed in a state contrary to the demand was explained.

しかし、不満度の度合いと満足度の度合いは表裏の関係になっており、満足度の度合いで音声出力をしてもよい。 However, the degree of dissatisfaction and the degree of satisfaction are in a two-sided relationship, and audio may be output according to the degree of satisfaction.

すなわち、要求が満たされる状態に置かれると満足度の度合いが大きな値になり、そうでない場合は、満足度の度合いが減少するようにしてもよい。 That is, if the requirement is satisfied, the degree of satisfaction becomes a large value, and if not, the degree of satisfaction may decrease.

この場合、満足度の度合いが徐々に減る音声出力になるので、いわゆる「愚痴る」ような印象にあり、使用者の心情に異なる効果を与えることができる。 In this case, since the voice output is such that the degree of satisfaction gradually decreases, it gives an impression of so-called "complaining", and can give different effects to the user's emotions.

また、上記の説明では、音量の変化について説明していないが、音声出力は音量を変化させるようにしてもよい。 Further, although the above description does not explain the change in volume, the audio output may change the volume.

すなわち、要求が満たされない時間が長くなると、音量が大きくなるようにしてもよい。このような音声出力を実現するために、出力音声特定部8は音声出力処理部9に対する命令中に音量に関する命令を有し、音声出力処理部9はスピーカー4に出力させる際に音量を大小に制御して出力させることができるようにする。 That is, the volume may be increased as the time when the requirement is not satisfied becomes longer. In order to realize such audio output, the output audio identification unit 8 has a volume-related command during the instruction to the audio output processing unit 9, and the audio output processing unit 9 increases or decreases the volume when the speaker 4 outputs the sound. To be able to control and output.

また、スピーカー4が設けられている本体部2の面が下向きになったときに、音量を大きくするようにしてよい。 Further, the volume may be increased when the surface of the main body 2 provided with the speaker 4 faces downward.

このような音声出力を実現するために、出力音声特定部8は向き判定部7から本体部2の向きを入力し、スピーカー4が設けられている面が下向きになった時に、音声出力処理部9に対して音量を大きくする命令を出力し、音声出力処理部9はスピーカー4に出力させる際に音量を大きく制御して出力させることができるようにする。 In order to realize such audio output, the output audio identification unit 8 inputs the direction of the main body 2 from the orientation determination unit 7, and when the surface on which the speaker 4 is provided faces downward, the audio output processing unit 8 A command to increase the volume is output to the speaker 9, and the voice output processing unit 9 can output the volume by controlling the volume to be large when the speaker 4 outputs the command.

以上音声出力の選択の方法を説明したが、次の音声出力の選択/特定は、それまでの履歴を参照して行う。しかし、音声出力が一定の関係で繰り返されると使用者を飽きさせることが多い。ここで、音声出力に変化を持たせる方法について説明する。 The method of selecting the audio output has been described above, but the selection / identification of the next audio output is performed with reference to the history up to that point. However, if the audio output is repeated in a certain relationship, the user is often bored. Here, a method of giving a change to the audio output will be described.

音声出力に変化を持たせる一つの方法は、条件情報部11にすべての音声出力の変化のパターンを記憶管理させ、一定の自由度でランダムにパターンを選択することである。ただし、この方法では、条件情報部11に記憶させる音声出力の変化パターンの数が膨大になる。また、音声出力の変化パターンがそれまでの玩具1の要求と使用者の応答の履歴にフィットすることが難しい。 One method of giving a change to the voice output is to have the condition information unit 11 store and manage all the patterns of the change of the voice output, and randomly select the pattern with a certain degree of freedom. However, in this method, the number of change patterns of the audio output stored in the condition information unit 11 becomes enormous. In addition, it is difficult for the change pattern of the voice output to fit the history of the request of the toy 1 and the response of the user up to that point.

もう一つの方法は、条件情報部11が履歴と音声出力の基本的な対応関係を有し、出力音声特定部8が条件情報部11の対応関係に改変を加えるアルゴリズムを有するようにすることである。 Another method is to make the condition information unit 11 have a basic correspondence between the history and the audio output, and the output audio identification unit 8 has an algorithm for modifying the correspondence of the condition information unit 11. is there.

すなわち、条件情報部11には、条件に対応する音声出力が格納されているが、音声出力は、音声系列に属し、各音声系列には不満度の度合いや表現の明るさや音声や言葉遣いや内容で属性が付されている。 That is, the condition information unit 11 stores the voice output corresponding to the condition, but the voice output belongs to the voice series, and each voice series includes the degree of dissatisfaction, the brightness of the expression, the voice, and the wording. Attributes are attached by the content.

出力音声特定部8は、条件情報処理部11のルール、すなわち応答の履歴を条件として音声出力を決定するルールに従って音声系列および満足度や不満度の度合いを決定し、出力する音声を特定し、その識別情報を出力する。なお、各音声系列は満足度や不満度の度合いに沿って複数の音声出力を有し、出力音声特定部8は任意の音声系列の任意の不満度から音声出力を選択することができる。 The output voice specifying unit 8 determines the voice sequence and the degree of satisfaction and dissatisfaction according to the rule of the conditional information processing unit 11, that is, the rule for determining the voice output on the condition of the response history, and specifies the voice to be output. The identification information is output. It should be noted that each voice sequence has a plurality of voice outputs according to the degree of satisfaction and dissatisfaction, and the output voice specifying unit 8 can select the voice output from any dissatisfaction of any voice series.

また、出力音声特定部8は、選択可能な音声系列が複数ある場合、一定の確率で出力すべき音声系列を変化させることができるようにする。 Further, the output voice specifying unit 8 makes it possible to change the voice series to be output with a certain probability when there are a plurality of selectable voice series.

図4は、出力音声特定部8による音声系列の選択を説明的に示している。 FIG. 4 illustrates the selection of the voice sequence by the output voice specifying unit 8.

図4の表の「音声系列」の欄は、現在の音声系列を示している。同表の「次に選択された音声系列」は、次に選択される音声系列を示している。「満足度」の欄は、同じ音声系列で任意の満足感/不満感の度合いから開始することができることを示している。一次、二次、・・・は満足度の数字に対応している。 The "Voice series" column in the table of FIG. 4 indicates the current voice series. "Next selected voice sequence" in the table indicates the next selected voice series. The "Satisfaction" column indicates that the same voice sequence can be started from any degree of satisfaction / dissatisfaction. The primary, secondary, ... correspond to the satisfaction numbers.

仮に、現在の音声系列がNである場合、既定値は次も音声系列Nを選択することになっている。これに対して、出力音声特定部8は、それまでの履歴を参照し、音声系列Nを音声系列Oに変化させることができる。 If the current voice sequence is N, the default value is to select the voice sequence N as well. On the other hand, the output voice specifying unit 8 can change the voice series N to the voice series O by referring to the history up to that point.

また、直前の満足度の大きさを引き継いで選択された音声系列の当該満足度の次数から音声出力を開始することができる。 In addition, the audio output can be started from the order of the satisfaction of the audio series selected by inheriting the magnitude of the immediately preceding satisfaction.

出力音声特定部8は、図4に示すように、一定の確率で音声系列Oに変えて、他の音声系列を選択することができる。 As shown in FIG. 4, the output voice specifying unit 8 can change to the voice series O with a certain probability and select another voice series.

あるいは、出力音声特定部8は、全くランダムに任意の音声系列を選択することもできる。 Alternatively, the output voice specifying unit 8 can select an arbitrary voice sequence completely randomly.

図5は、出力音声特定部8による他の音声系列の選択を示している。 FIG. 5 shows the selection of another voice sequence by the output voice specifying unit 8.

図4の場合は、出力音声特定部8が一つの系列の音声出力を選択すると、次に使用者が応答するまで、同一の音声系列の出力をするものである。 In the case of FIG. 4, when the output voice specifying unit 8 selects one series of voice output, the same voice series is output until the next user responds.

これに対して、図5は、同一の音声系列の出力の途中で、他の音声系列に切り替えることができる。切り替えのトリガーは、出力音声特定部8あるいは条件情報部11に任意に設けることができる。例えば、使用者が玩具1の要求に応答しないことが所定回数続くと、出力音声特定部8が途中で感情的な他の音声系列に切り替えるようにすることができる。これにより、感情の起伏があるように見せることができる。 On the other hand, in FIG. 5, it is possible to switch to another voice series in the middle of the output of the same voice series. The trigger for switching can be arbitrarily provided in the output voice specifying unit 8 or the condition information unit 11. For example, if the user does not respond to the request of the toy 1 for a predetermined number of times, the output voice specifying unit 8 can switch to another emotional voice series on the way. This makes it appear that there are emotional ups and downs.

また、途中で音声系列を切り替えるときも、所定の確率で複数の音声系列(図5の例ではM,O,P)から任意の音声系列を選択するようにすることができる。 Further, even when the voice series is switched in the middle, it is possible to select an arbitrary voice series from a plurality of voice series (M, O, P in the example of FIG. 5) with a predetermined probability.

以上の説明から明らかなように、本実施形態の玩具1によれば、玩具1から使用者に対して能動的に要求が出され、使用者からの応答を求めるため、使用者が玩具に注意しなくなることを防止することができる。 As is clear from the above description, according to the toy 1 of the present embodiment, the toy 1 actively makes a request to the user and requests a response from the user, so that the user pays attention to the toy. It is possible to prevent the toy from disappearing.

また、本実施形態の玩具1によれば、玩具1が感情の移り変わりを有し、使用者の応答の履歴から、対応する音声を出力する。このため、使用者の応答を取り込んでよりインタラクティブに使用者に働きかけ、使用者の飽きを防止することができる。 Further, according to the toy 1 of the present embodiment, the toy 1 has a change of emotion, and the corresponding voice is output from the history of the user's response. Therefore, it is possible to capture the user's response and work on the user more interactively to prevent the user from getting bored.

また、音声系列に、玩具1の向きに関係ない内容のものを含ませ、ランダムに選択されるようにすることにより、使用者の注意を引き、飽きを防止することができる。一例として、面白い話や日々の格言のような音声系列を含ませてよい。 Further, by including the contents irrelevant to the orientation of the toy 1 in the voice series and making them randomly selected, it is possible to attract the attention of the user and prevent boredom. As an example, it may include audio sequences such as funny stories and daily sayings.

さらにまた、周囲の環境の状態をセンサーで取得し、音声系列を変更させても良い。 Furthermore, the state of the surrounding environment may be acquired by a sensor and the voice sequence may be changed.

図6は、履歴データ部14の格納データの一例を示している。 FIG. 6 shows an example of the stored data of the history data unit 14.

図6の「経過時間」欄は、向きを検知し、音声を出力した時間t1,t2,t3,・・・のデータを格納している。同図の「履歴(向き)」欄は、各経過時間に対応する向きのデータθ,θ,θを格納している。同図の「履歴(出力)」欄は、出力した音声系列のデータを格納している。同図の「履歴(ID)」欄は、出力した音声データN1,N2,・・・を格納している。 The "elapsed time" column of FIG. 6 stores data of times t1, t2, t3, ..., Which detect the direction and output the sound. The “History (direction)” column in the figure stores the direction data θ X , θ Y , and θ Z corresponding to each elapsed time. The "History (output)" column in the figure stores the data of the output voice series. The "History (ID)" column in the figure stores the output voice data N1, N2, ....

図7は、条件情報部11の格納データの一例を示している。 FIG. 7 shows an example of the stored data of the condition information unit 11.

図7の「条件ID」欄には、既定の条件の識別番号が格納されている。同図の「条件」欄には、既定の条件、すなわち、玩具1の現在の向き、同じ向きの継続時間、前回の向き等のデータが格納されている。同図の「音声データ」には、音声出力のデータN1,N2,N3,・・・が格納されている。 In the "condition ID" column of FIG. 7, the identification number of the default condition is stored. In the "condition" column of the figure, data such as a default condition, that is, the current orientation of the toy 1, the duration of the same orientation, the previous orientation, and the like are stored. Audio output data N1, N2, N3, ... Are stored in the "audio data" in the figure.

図8は、玩具1による音声出力の処理の流れを示すフローチャートである。 FIG. 8 is a flowchart showing a flow of processing of voice output by the toy 1.

玩具1に電源が投入されると、制御装置3は、処理をスタートする(S100)。 When the power is turned on to the toy 1, the control device 3 starts the process (S100).

まず、向き判定部は、玩具1、具体的には本体部2の向きを判定する(S110)。 First, the orientation determination unit determines the orientation of the toy 1, specifically the main body 2 (S110).

次に、出力音声特定部8は、判定された向き、要求応答履歴部12の履歴、条件情報部11の格納情報等を用いて、次に出力する音声の識別情報を特定する(S120)。 Next, the output voice identification unit 8 specifies the identification information of the voice to be output next by using the determined direction, the history of the request / response history unit 12, the stored information of the condition information unit 11, and the like (S120).

次に、音声出力処理部9が、出力音声特定部8から特定された音声データの識別情報を取得し、音声データ部13から対応する音声データを取得し、スピーカー4等の出力装置に出力する(S130)。 Next, the voice output processing unit 9 acquires the identification information of the voice data specified from the output voice specifying unit 8, acquires the corresponding voice data from the voice data unit 13, and outputs the corresponding voice data to an output device such as the speaker 4. (S130).

次に、履歴処理部10は、出力された音声出力に基づいて、履歴データ部14に履歴を記録する(S140)。 Next, the history processing unit 10 records the history in the history data unit 14 based on the output voice output (S140).

制御装置3は、上記S100〜S140の処理が完了すると、S110の向き判定に戻り、以降処理S110〜S140の処理を繰り返す。 When the processes of S100 to S140 are completed, the control device 3 returns to the orientation determination of S110, and then repeats the processes of processes S110 to S140.

ここで、音声系列の一例として、外国人による日本語の発音のような音声系列について説明する。 Here, as an example of the voice series, a voice series such as Japanese pronunciation by a foreigner will be described.

このような音声系列は、上位概念的には発音が非標準の日本語であるから、ここでは「非標準日本語音声系列」と呼ぶ。 Such a voice series is referred to as a "non-standard Japanese voice series" here because the pronunciation is non-standard Japanese in a superordinate concept.

非標準日本語音声系列は実際の人間による発音より、音声合成エンジンによって合成されたものの方がより人の注意を引くことが多い。 Non-standard Japanese speech sequences that are synthesized by a speech synthesis engine often attract more human attention than those that are actually pronounced by humans.

非標準日本語音声系列の具体的な生成方法は、外国語(第一言語)の音声合成エンジンに、目的の日本語(第二言語)の文章を単語に分解し、各第二言語の単語に発音が近い第一言語の単語を当てはめ、外国語(第一言語)の音声合成エンジンに発音させる。 The specific method of generating a non-standard Japanese voice sequence is to use a foreign language (first language) voice synthesis engine to decompose the target Japanese (second language) sentence into words, and then use the words in each second language. Apply a word in the first language that has a similar pronunciation to, and let the speech synthesis engine of the foreign language (first language) pronounce it.

これにより、外国語(第一言語)としては意味をなさない文章を、音声合成エンジンが読み上げ、しかし、日本語(第二言語)としては、発音は奇異で非標準であるが、意味が通じる日本語(第二言語)の音声が生成される。 As a result, the voice synthesis engine reads out sentences that do not make sense as a foreign language (first language), but as Japanese (second language), the pronunciation is strange and non-standard, but the meaning is understood. Japanese (second language) voice is generated.

このような非標準日本語音声系列を設ける理由は、標準的な日本語による音声出力に比較して、玩具1が少し奇異な日本語による音声出力の方が、使用者の注意を引き、使用者に飽きさせないからである。 The reason for providing such a non-standard Japanese voice sequence is that the voice output in Japanese, which is a little strange for Toy 1, attracts the user's attention and is used compared to the voice output in standard Japanese. This is because it does not make people bored.

例えば、出力音声特定部8は、出力すべき音声データの識別情報として、通常は標準的な音声系列の音声データを選択する一方、玩具1の要求に答えない時間が所定時間経過した場合は、発音が奇異な非標準の音声系列の音声データを選択するようにしてもよい。 For example, the output voice specifying unit 8 normally selects voice data of a standard voice series as the identification information of the voice data to be output, but when a predetermined time elapses for not responding to the request of the toy 1. It is also possible to select audio data of a non-standard audio series having a strange pronunciation.

上記の記載に基づいて、当業者であれば、本発明の追加の効果や種々の変形を想到できるかもしれないが、本発明の態様は、上述した実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。 Based on the above description, those skilled in the art may be able to conceive of additional effects and various modifications of the present invention, but the embodiments of the present invention are not limited to the above-described embodiments. Various additions, changes and partial deletions can be made without departing from the conceptual idea and purpose of the present invention derived from the contents defined in the claims and their equivalents.

1:玩具
2:本体部
3:制御装置
4:スピーカー
5:加速度センサー
6:電源
7:向き判定部
8:出力音声特定部
9:音声出力処理部
10:履歴処理部
11:条件情報部
12:要求応答履歴部
13:音声データ部
14:履歴データ部
1: Toy 2: Main body 3: Control device 4: Speaker 5: Acceleration sensor 6: Power supply 7: Direction determination unit 8: Output voice identification unit 9: Voice output processing unit 10: History processing unit 11: Condition information unit 12: Request response history unit 13: Voice data unit 14: History data unit

Claims (14)

制御装置と出力装置と加速度センサーと電源とを有する本体部を有する玩具であって、
前記制御装置は、
前記加速度センサーから入力した加速度データから前記本体部の向きを判定する向き判定部と、
向きに対する玩具の要求と、前記要求に対する使用者の応答と、経過時間の履歴を記録する要求応答履歴部と、
玩具の要求と、前記要求に対する使用者の応答と、経過時間とをファクターとして有する少なくとも一つの条件と、前記条件に対応する少なくとも一つの出力を有する条件情報部と、
前記向き判定部から前記本体部の向きのデータを取得し、前記要求応答履歴部と前記条件情報部とを参照し、出力すべき出力データの識別情報を特定する出力データ特定部と、
前記出力データ特定部から、特定された出力データの識別情報を取得し、出力データを格納した出力データ部から対応する出力データを取得して出力する出力処理部と、
前記出力処理部が出力した出力データと、前記経過時間、前記本体部の向きの履歴を履歴データ部に記録する履歴処理部と、を有する玩具。
A toy having a main body having a control device, an output device, an acceleration sensor, and a power supply.
The control device is
An orientation determination unit that determines the orientation of the main body from the acceleration data input from the acceleration sensor,
A toy request for orientation, a user response to the request, a request response history unit that records the history of elapsed time, and the like.
A condition information unit having at least one condition having a toy request, a user's response to the request, and an elapsed time as factors, and at least one output corresponding to the condition.
An output data specifying unit that acquires orientation data of the main body from the orientation determining unit, refers to the request / response history unit and the condition information unit, and specifies identification information of output data to be output.
An output processing unit that acquires identification information of the specified output data from the output data specifying unit, acquires the corresponding output data from the output data unit that stores the output data, and outputs the corresponding output data.
A toy having an output data output by the output processing unit, a history processing unit that records the elapsed time, and a history of orientation of the main body unit in the history data unit.
請求項1に記載の玩具であって、
前記向きは、3軸の加速度センサーによって判定される、玩具。
The toy according to claim 1.
The orientation is a toy determined by a 3-axis accelerometer.
請求項1または2に記載の玩具であって、
前記出力は音声の出力または前記玩具の動作の出力である、玩具。
The toy according to claim 1 or 2.
The output is a voice output or an output of the movement of the toy, the toy.
請求項1〜3のいずれか一項に記載の玩具であって、
前記出力データ特定部は、前記本体部の向きを変えるように要求する音声出力の識別情報を特定して前記出力処理部に出力させ、前記向き判定部から使用者の応答を検出し、前記要求応答履歴部と前記条件情報部を参照して満足感または不満感を示す音声出力を特定して前記出力処理部に出力させる、玩具。
The toy according to any one of claims 1 to 3.
The output data specifying unit identifies the identification information of the voice output requesting to change the orientation of the main body unit, outputs the identification information to the output processing unit, detects the user's response from the orientation determining unit, and performs the request. A toy that identifies a voice output indicating satisfaction or dissatisfaction by referring to the response history unit and the condition information unit, and outputs the voice output to the output processing unit.
請求項1〜4のいずれか一項に記載の玩具であって、
前記条件情報部は、使用者が前記玩具の要求に応える動作を行ったときは満足感を示す出力を出力し、使用者が前記玩具の要求に反する動作を行ったか前記要求に応答しないときは不満感を示す出力を出力するように、条件と対応が設定されている、玩具。
The toy according to any one of claims 1 to 4.
The condition information unit outputs an output showing satisfaction when the user performs an operation in response to the request of the toy, and when the user performs an operation contrary to the request of the toy or does not respond to the request. A toy whose conditions and correspondence are set to output a dissatisfied output.
請求項5に記載の玩具であって、
前記条件情報部は、時間の経過とともに満足感あるいは不満感の度合いが強くなるように、条件と対応が設定されている、玩具。
The toy according to claim 5.
The condition information unit is a toy in which conditions and correspondence are set so that the degree of satisfaction or dissatisfaction increases with the passage of time.
請求項1〜6のいずれか一項に記載の玩具であって、
前記出力データは、声音または音質または音量または内容または言葉遣いまたはそれらの少なくとも2つの組合せが互いに異なる複数の音声系列を有している、玩具。
The toy according to any one of claims 1 to 6.
The output data is a toy having a plurality of voice sequences in which voice sound or sound quality or volume or content or wording or at least two combinations thereof differ from each other.
請求項7に記載の玩具であって、
前記出力データ特定部は、使用者が前記玩具の要求に応える動作を行った後に、前記条件情報部を参照し、所定の音声系列の出力データの識別情報を特定する、玩具。
The toy according to claim 7.
The output data specifying unit is a toy that, after the user performs an operation in response to the request of the toy, refers to the condition information unit and specifies identification information of output data of a predetermined voice series.
請求項7に記載の玩具であって、
前記出力データ特定部は、使用者が前記玩具の要求に応える動作を行った後に、ランダムに所定の音声系列の出力データの識別情報を特定する、玩具。
The toy according to claim 7.
The output data specifying unit is a toy that randomly identifies identification information of output data of a predetermined voice series after the user performs an operation in response to the request of the toy.
請求項9に記載の玩具であって、
前記出力データ特定部は、所定の音声系列の出力データを時間の経過とともに出力させている途中で、他の音声系列に出力データに切り替えて出力させることができる、玩具。
The toy according to claim 9.
The output data specifying unit is a toy capable of switching the output data of a predetermined voice series to output data and outputting the output data to another voice series while outputting the output data with the passage of time.
請求項7〜10のいずれか一項に記載の玩具であって、
前記音声系列は、第一言語の音声合成エンジンに、第二言語の文章を単語に分解し、前記各単語に発音が近い前記第一言語の単語を当てはめて音声を合成させ、合成された音声を前記第二言語による音声出力として有する、玩具。
The toy according to any one of claims 7 to 10.
In the voice sequence, a voice synthesis engine of the first language decomposes a sentence of the second language into words, applies a word of the first language whose pronunciation is close to each word, and synthesizes the voice, and synthesizes the voice. As an audio output in the second language.
請求項1〜11のいずれか一項に記載の玩具であって、
前記出力データ特定部は、前記玩具の要求に答える動作が行われない時間が所定時間を経過した場合、発音が標準的でない音声を、出力すべき音声データの識別情報として特定する、玩具。
The toy according to any one of claims 1 to 11.
The output data specifying unit is a toy that identifies voices having non-standard pronunciation as identification information of voice data to be output when a predetermined time elapses for a time during which the operation of responding to the request of the toy is not performed.
請求項4〜12のいずれか一項に記載の玩具であって、
前記出力データ特定部は、前記向き判定部から要求に対する使用者の応答を検出し、前記要求が満たされない経過時間に応じて出力の大きさを増加させる命令を出力し、
前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力する、玩具。
The toy according to any one of claims 4 to 12.
The output data specifying unit detects the user's response to the request from the orientation determination unit, and outputs a command to increase the magnitude of the output according to the elapsed time when the request is not satisfied.
The output processing unit is a toy that outputs an audio output of a corresponding size in response to the command.
請求項4〜13のいずれか一項に記載の玩具であって、
前記出力データ特定部は、スピーカーが下向きになる前記本体部の向きの情報を有し、前記向き判定部からの向きのデータと前記スピーカーが下向きになる向きとを比較し、前記スピーカーが下向きであると判断したときは、大きな音声出力を出力する命令を出力し、
前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力する、玩具。
The toy according to any one of claims 4 to 13.
The output data specifying unit has information on the orientation of the main body portion in which the speaker faces downward, compares the orientation data from the orientation determination unit with the orientation in which the speaker faces downward, and the speaker faces downward. When it is determined that there is, a command to output a large audio output is output, and
The output processing unit is a toy that outputs an audio output of a corresponding size in response to the command.
JP2019164989A 2019-09-10 2019-09-10 toy Pending JP2020185366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019164989A JP2020185366A (en) 2019-09-10 2019-09-10 toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019164989A JP2020185366A (en) 2019-09-10 2019-09-10 toy

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019091014A Division JP6590393B1 (en) 2019-05-13 2019-05-13 toy

Publications (1)

Publication Number Publication Date
JP2020185366A true JP2020185366A (en) 2020-11-19

Family

ID=73221176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019164989A Pending JP2020185366A (en) 2019-09-10 2019-09-10 toy

Country Status (1)

Country Link
JP (1) JP2020185366A (en)

Similar Documents

Publication Publication Date Title
KR102306624B1 (en) Persistent companion device configuration and deployment platform
US7987091B2 (en) Dialog control device and method, and robot device
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
JP2003271174A (en) Speech synthesis method, speech synthesis device, program, recording medium, method and apparatus for generating constraint information and robot apparatus
KR20160034243A (en) Apparatus and methods for providing a persistent companion device
CN108363492A (en) A kind of man-machine interaction method and interactive robot
JP2007069302A (en) Action expressing device
US10803376B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
TW201915665A (en) Robot interaction method and device
KR20190105403A (en) An external device capable of being combined with an electronic device, and a display method thereof.
US20060177802A1 (en) Audio conversation device, method, and robot device
CN111191765A (en) Emotional information processing method and device
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
JP2020151070A (en) Robot and control method of robot
US11007647B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
JP2024108175A (en) ROBOT, SPEECH SYNTHESIS PROGRAM, AND SPEECH OUTPUT METHOD
JP2005313308A (en) Robot, robot control method, robot control program, and thinking device
JP6590393B1 (en) toy
JP2020185366A (en) toy
JP7225642B2 (en) Communication robot, control method and control program
JP7326707B2 (en) Robot, robot control method and program
US10719758B2 (en) Interaction apparatus, interaction method, non-transitory recording medium, and robot
KR102519599B1 (en) Multimodal based interaction robot, and control method for the same
Platz Design Beyond Devices: Creating Multimodal, Cross-device Experiences
KR102346158B1 (en) Emotional Intelligence Education AI Speaker System