JP6590393B1 - toy - Google Patents

toy Download PDF

Info

Publication number
JP6590393B1
JP6590393B1 JP2019091014A JP2019091014A JP6590393B1 JP 6590393 B1 JP6590393 B1 JP 6590393B1 JP 2019091014 A JP2019091014 A JP 2019091014A JP 2019091014 A JP2019091014 A JP 2019091014A JP 6590393 B1 JP6590393 B1 JP 6590393B1
Authority
JP
Japan
Prior art keywords
output
toy
unit
request
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019091014A
Other languages
Japanese (ja)
Other versions
JP2020185119A (en
Inventor
毅 土屋
毅 土屋
Original Assignee
M&Tプロジェクトパートナーズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by M&Tプロジェクトパートナーズ株式会社 filed Critical M&Tプロジェクトパートナーズ株式会社
Priority to JP2019091014A priority Critical patent/JP6590393B1/en
Application granted granted Critical
Publication of JP6590393B1 publication Critical patent/JP6590393B1/en
Publication of JP2020185119A publication Critical patent/JP2020185119A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】 玩具の方から使用者に働きかけ、かつ、使用者の反応に対応する動作または音声を出力することができ、使用者を飽きさせない玩具を提供する。【解決手段】制御装置3と出力装置4と加速度センサー5と電源6とを有する本体部2を有する玩具1であって、制御装置3は、加速度センサー5から入力した加速度データから本体部2の向きを判定する向き判定部7と、向きに対する玩具1の要求と、要求に対する使用者の応答と、経過時間の履歴を記録する要求応答履歴部12と、玩具1の要求と、要求に対する使用者の応答と、経過時間とをファクターとして有する少なくとも一つの条件と、該条件に対応する少なくとも一つの出力を有する条件情報部11と、向き判定部7から本体部2の向きのデータを入力し、要求応答履歴部12と条件情報部11とを参照し、出力すべき出力データの識別情報を特定する出力データ特定部8と、出力データ特定部8から出力すべき出力データを入力し、出力テータを格納した出力データ部13から対応する出力データを取得して出力する出力処理部9と、出力処理部9が出力した出力データと時間と向きの履歴を履歴データ部14に記録する履歴処理部10とを有する玩具。【選択図】図1PROBLEM TO BE SOLVED: To provide a toy that can act on a user from a toy and can output an operation or a sound corresponding to the reaction of the user and does not bore the user. A toy 1 has a main body 2 having a control device 3, an output device 4, an acceleration sensor 5, and a power source 6. The control device 3 uses the acceleration data input from the acceleration sensor 5 to Direction determination unit 7 for determining the direction, request of toy 1 for the direction, user response to the request, request response history unit 12 that records a history of elapsed time, request of toy 1, and user for the request At least one condition having the response and the elapsed time as factors, a condition information part 11 having at least one output corresponding to the condition, and direction data of the body part 2 from the direction determination part 7, With reference to the request response history unit 12 and the condition information unit 11, an output data specifying unit 8 that specifies identification information of output data to be output, and output data to be output from the output data specifying unit 8 The output processing unit 9 acquires and outputs the corresponding output data from the output data unit 13 storing the output data, and the history data unit 14 outputs the output data output by the output processing unit 9 and the history of time and direction. A toy having a history processing unit 10 for recording. [Selection] Figure 1

Description

本発明は、玩具に関する。   The present invention relates to a toy.

従前から、センサーを有し、該センサーの検知の結果が所定の条件を満たした時に、所定の音声あるいは動作を出力する玩具は存在していた。また、出力する音声や動作を色々に変化させる玩具も存在していた。   Conventionally, there has been a toy that has a sensor and outputs a predetermined sound or action when a detection result of the sensor satisfies a predetermined condition. There have also been toys that change the output voice and operation in various ways.

例えば、特許文献1は、複数のセンサーを有し、各センサーの感知の有無の組合せで、異なる音声を発したり、使用者と会話したりする玩具を提案している。   For example, Patent Document 1 proposes a toy that has a plurality of sensors and emits different voices or talks with a user depending on the combination of sensing of each sensor.

具体的な例として、特許文献1の玩具は、例えば人形の形態を有する本体(人形体)を有し、該人形体の臀部と額部に接触センサーを有し、臀部センサーが接触を検知し、額部センサーが接触を検知しないときは、人形体が座った状態であると認識し、音声認識可能な状態となる。使用者が該人形体を抱き上げると、臀部センサーが接触を検知せず、額部センサーが接触を検知するため、抱き上げられたことを認識して、それに対応する音声を出力する。   As a specific example, the toy of Patent Document 1 has a main body (doll body) having a doll shape, for example, and has contact sensors on the buttock and forehead of the doll body, and the heel sensor detects contact. When the forehead sensor does not detect contact, the doll body is recognized as being in a sitting state, and voice recognition is possible. When the user picks up the doll body, the buttocks sensor does not detect the contact, and the forehead sensor detects the contact, so that it recognizes that it has been picked up and outputs a corresponding sound.

この種の玩具は、ある状態になったことをトリガーとして、所定の音声や動作を出力する。この点から、この種の玩具は受動型玩具ということができる。例えば、撫でられたことを検知して、所定の音声を発する玩具が挙げられる。   This type of toy outputs a predetermined sound or action with a certain state as a trigger. From this point, this kind of toy can be called a passive toy. For example, a toy that detects that it has been boiled and emits a predetermined sound can be mentioned.

これに対して、使用者が能動的に発した音声や動作を受けて、対応する音声や動作を出力する玩具も存在していた。この種の玩具は、使用者の音声や動作に対応して出力するため、インタラクティブ型玩具ということができる。例えば、使用者が発した言葉に応答するように言葉を返す玩具が挙げられる。   On the other hand, there has been a toy that receives a voice or action actively issued by a user and outputs a corresponding voice or action. Since this type of toy is output in response to the user's voice and movement, it can be called an interactive toy. For example, a toy that returns a word in response to a word uttered by a user.

特開2006−6586号公報JP 2006-6586 A

上述した受動型玩具は、一般に、ある種の状態になったことを受けて、それをトリガーとして所定の動作あるいは音声を出力する。   In general, the passive toy described above receives a certain state and outputs a predetermined operation or sound as a trigger.

インタラクティブ型玩具は、使用者の音声や動作を受けて、対応する動作あるいは音声を出力するが、玩具が使用者の音声や動作を受けてから、所定の動作あるいは音声を出力する点では受動型玩具と同じである。   An interactive toy receives the user's voice and movement and outputs the corresponding movement or voice, but is passive in that the toy outputs a predetermined movement or voice after receiving the user's voice or movement. Same as toy.

このように、従来の玩具は、受動型玩具とインタラクティブ型玩具を含めて、センサーの入力であっても、使用者からの入力であっても、該入力をトリガーにして玩具が何らかの反応を出力するようにしていた。   In this way, conventional toys, including passive toys and interactive toys, are triggered by the input of the toy, whether it is a sensor input or a user input, and the toy outputs some reaction. I was trying to do it.

しかし、玩具を使用可能な状態にセットすることを含めて、使用者が何らかの働きを玩具に作用させない限り、玩具から何ら出力がされないことは、使用者に玩具を使用しているという感覚を生じさせ、使用者の興味を低減させる。   However, no output from the toy will cause the user to feel that the toy is being used unless the user causes the toy to act on the toy, including setting the toy in a usable state. And reduce the interest of the user.

また、使用者が玩具に働きかけない限り、玩具が反応しない状態が続くと、使用者が飽きてしまうことが多い。   In addition, unless the user works on the toy, the user often gets bored if the toy does not react.

これに対して、使用者に何らかの働きを玩具に作用させていることを意識させないように、使用者の必然的に生じる動き等を検知して反応する玩具も存在している。   On the other hand, there is a toy that detects and reacts to a user's inevitable movement or the like so as not to make the user aware that some kind of work is applied to the toy.

しかし、この種の玩具は、所定の条件を満たすと、それに対応する一定の反応、すなわち予測可能な反応を出力する点で、やはり使用者を飽きさせ、使用者の興味を減らす。   However, when this kind of toy outputs a certain response corresponding to the predetermined condition, that is, a predictable response, the toy is still tired of the user and the user's interest is reduced.

また、使用者が動き等をしない状態が続くと、玩具も何ら出力しないため、使用者を飽きさせやすい。   Further, if the user does not move, the toy is not output at all, and the user is easily bored.

このため、従来の玩具の分野において、使用者に飽きさせない玩具に対する要求が継続的に強くあった。   For this reason, in the field of conventional toys, there has been a strong demand for toys that do not make users tired.

そこで、本発明の目的は、玩具の方から使用者に働きかけ、かつ、使用者の反応に対応する動作または音声を出力することができ、使用者を飽きさせない玩具を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a toy that can act on the user from the toy and can output an action or a sound corresponding to the reaction of the user and does not bore the user.

換言すると、本発明は、玩具の方から使用者に働きかける逆能動型の玩具を提供することを目的とする。   In other words, an object of the present invention is to provide a reverse active toy that works on the user from the toy.

本発明の玩具は、たとえば、
制御装置と出力装置と加速度センサーと電源とを有する本体部を有する玩具であって、
前記制御装置は、
前記加速度センサーから入力した加速度データから前記本体部の向きを判定する向き判定部と、
向きに対する玩具の要求と、前記要求に対する使用者の応答と、経過時間との履歴を記録する要求応答履歴部と、
玩具の要求と、前記要求に対する使用者の応答と、経過時間とをファクターとして有する少なくとも一つの条件と、前記条件に対応する少なくとも一つの出力を有する条件情報部と、
前記向き判定部から前記本体部の向きのデータを取得し、前記要求応答履歴部と前記条件情報部とを参照し、出力すべき出力データの識別情報を特定する出力データ特定部と、
前記出力データ特定部から、特定された出力データの識別情報を取得し、出力テータを格納した出力データ部から対応する出力データを取得して出力する出力処理部と、
前記出力処理部が出力した出力データと、前記経過時間、前記本体部の向きの履歴を履歴データ部に記録する履歴処理部と、を有することを特徴とする。
The toy of the present invention is, for example,
A toy having a main body having a control device, an output device, an acceleration sensor, and a power source,
The controller is
An orientation determining unit that determines the orientation of the main body from acceleration data input from the acceleration sensor;
A request response history unit that records a history of a toy request for orientation, a user response to the request, and an elapsed time;
A toy request, a user response to the request, and at least one condition having an elapsed time as a factor, and a condition information unit having at least one output corresponding to the condition;
Obtaining data of the orientation of the main body from the orientation determination unit, referring to the request response history unit and the condition information unit, an output data specifying unit for specifying identification information of output data to be output;
An output processing unit that acquires identification information of the identified output data from the output data identification unit, acquires and outputs the corresponding output data from the output data unit that stores the output data, and
And a history processing unit that records output data output by the output processing unit, history of the elapsed time, and orientation of the main body unit in a history data unit.

前記向きは、3軸の加速度センサーによって判定されるようにしてよい。   The orientation may be determined by a triaxial acceleration sensor.

前記出力は音声の出力または前記玩具の動作の出力であってもよい。   The output may be an audio output or an operation output of the toy.

前記出力特定部は、前記本体部の向きを変えるように要求する音声出力の識別情報を特定して前記出力処理部に出力させ、前記向き判定部から使用者の応答を検出し、前記要求応答履歴部と前記条件情報部を参照して満足感または不満感を示す音声出力を特定して前記出力処理部に出力させてもよい。   The output specifying unit specifies identification information of a voice output that requests to change the orientation of the main body unit and outputs the identification information to the output processing unit, detects a user response from the direction determination unit, and the request response An audio output indicating satisfaction or dissatisfaction may be specified by referring to the history part and the condition information part, and output to the output processing part.

前記条件情報部は、使用者が前記玩具の要求に応える動作を行ったときは満足感を示す出力を出力し、使用者が前記玩具の要求に反する動作を行ったか前記要求に応答しないときは不満感を示す出力を出力するように、条件と対応が設定されてもよい。   The condition information unit outputs an output indicating satisfaction when the user performs an operation in response to the request of the toy, or when the user performs an operation contrary to the request of the toy or does not respond to the request Conditions and correspondences may be set so as to output an output indicating dissatisfaction.

前記条件情報部は、時間の経過とともに満足感あるいは不満感の度合いが強くなるように、条件と対応が設定されてもよい。   In the condition information part, conditions and correspondences may be set so that the degree of satisfaction or dissatisfaction increases with time.

前記出力データは、声音または音質または音量または内容または言葉遣いまたはそれらの少なくとも2つの組合せが互いに異なる複数の音声系列を有してもよい。   The output data may include a plurality of sound sequences in which voice sound, sound quality, volume, content, wording, or a combination of at least two of them are different from each other.

前記出力特定部は、使用者が前記玩具の要求に応える動作を行った後に、前記条件情報部を参照し、所定の音声系列の出力データの識別情報を特定してもよい。   The output specifying unit may specify identification information of output data of a predetermined audio sequence with reference to the condition information unit after the user performs an operation in response to the request of the toy.

前記出力特定部は、使用者が前記玩具の要求に応える動作を行った後に、ランダムに所定の音声系列の出力データの識別情報を特定してもよい。   The output specifying unit may specify identification information of output data of a predetermined audio sequence at random after the user performs an operation in response to the request for the toy.

前記出力特定部は、所定の音声系列の出力データを時間の経過とともに出力させている途中で、他の音声系列に出力データに切り替えて出力させてもよい。   The output specifying unit may output the output data of a predetermined audio sequence by switching to the output data to another audio sequence while the output data of the predetermined audio sequence is being output over time.

前記音声系列は、第一言語の音声合成エンジンに、第二言語の文章を単語に分解し、前記各単語に発音が近い前記第一言語の単語を当てはめて音声を合成させ、合成された音声を前記第二言語による音声出力として有してもよい。   The speech sequence is obtained by synthesizing speech by synthesizing speech by using a speech synthesis engine of a first language to decompose a sentence of a second language into words and applying words of the first language whose pronunciation is close to the words. May be provided as an audio output in the second language.

前記出力特定部は、前記向き判定部から要求に対する使用者の応答を検出し、前記要求が満たされない経過時間に応じて出力の大きさを増加させる命令を出力し、前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力してもよい。   The output specifying unit detects a user response to the request from the orientation determination unit, and outputs a command to increase the output size according to an elapsed time when the request is not satisfied, and the output processing unit A voice output of a corresponding magnitude may be output according to the command.

前記出力特定部は、スピーカーが下向きになる前記本体部の向きの情報を有し、前記前記向き判定部からの向きのデータと前記スピーカーが下向きになる向きとを比較し、前記スピーカーが下向きであると判断したときは、大きな音声出力を出力する命令を出力し、前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力してもよい。   The output specifying unit has information on the orientation of the main body unit in which the speaker faces downward, compares the orientation data from the orientation determination unit with the orientation in which the speaker faces downward, and the speaker is facing downward. When it is determined that there is a command, a command for outputting a large voice output may be output, and the output processing unit may output a voice output of a corresponding magnitude according to the command.

本発明の一実施形態による玩具の構成図である。It is a block diagram of the toy by one Embodiment of this invention. 本発明の一実施形態による制御装置の構成図である。It is a block diagram of the control apparatus by one Embodiment of this invention. 本発明の一実施形態による玩具の向きの規定方法(図3(a))と、制御装置の処理を説明する説明図(図3(b))である。It is explanatory drawing (FIG.3 (b)) explaining the process of a control apparatus (FIG.3 (a)) and the control method of the toy direction by one Embodiment of this invention. 本発明の一実施形態の出力音声特定部による音声系列の選択の一例の説明図である。It is explanatory drawing of an example of selection of the audio | voice series by the output audio | voice specific | specification part of one Embodiment of this invention. 本発明の一実施形態の出力音声特定部による他の音声系列の選択の一例の説明図である。It is explanatory drawing of an example of the selection of the other audio | voice series by the output audio | voice specific | specification part of one Embodiment of this invention. 本発明の一実施形態による履歴データ部の格納データの一例を示す説明図である。It is explanatory drawing which shows an example of the storage data of the log | history data part by one Embodiment of this invention. 本発明の一実施形態による条件情報部の格納データの一例を示す説明図である。It is explanatory drawing which shows an example of the storage data of the condition information part by one Embodiment of this invention. 本発明の一実施形態による音声出力の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the audio | voice output by one Embodiment of this invention.

以下に、本発明が適用された実施の形態の例について説明する。   Examples of embodiments to which the present invention is applied will be described below.

図1は一実施形態による玩具1の構成を示している。   FIG. 1 shows a configuration of a toy 1 according to an embodiment.

玩具1は本体部2を有している。本体部2は、制御装置3と、スピーカー4(出力装置)、加速度センサー5(センサー)と電源6を有している。   The toy 1 has a main body 2. The main body 2 includes a control device 3, a speaker 4 (output device), an acceleration sensor 5 (sensor), and a power source 6.

本実施形態の玩具1は、本体部2が置かれた向きに対して、玩具1から使用者に要求を発し、その要求に対する使用者の応答に反応してさらに出力するものである。   The toy 1 of this embodiment issues a request from the toy 1 to the user in the direction in which the main body 2 is placed, and further outputs in response to the user's response to the request.

理解容易のため、以下の例は、玩具1の本体部2が直方体の形態を有し、所定の向き(姿勢)に置かれると、時間の経過とともに向きを変えてくれるように使用者に要求を発し、使用者が要求に応えれば満足感を示す出力をし、使用者が要求に反する応答や要求に応答しないときは、不満感を示す出力をするものである。   For ease of understanding, the following example requires the user to change the direction as time passes when the main body 2 of the toy 1 has a rectangular parallelepiped shape and is placed in a predetermined orientation (posture). When the user responds to the request, an output indicating satisfaction is output, and when the user does not respond to the response or does not respond to the request, an output indicating dissatisfaction is output.

本体部2が直方体のため、各面を下にして置いた場合の6種類の「向き」がある。   Since the main body 2 is a rectangular parallelepiped, there are six types of “orientations” when each side is placed face down.

玩具1は、使用者が要求に応答しない場合に、時間の経過とともに不満感の度合いが増加していることを示す出力を行う。また、長い時間の経過後に、使用者が要求に応える応答を行うと、より深い満足感を示す出力を行う。逆に、長い時間の経過後に、使用者が要求に反する応答を行うと、不満感を募らせた内容の出力を行う。   When the user does not respond to the request, the toy 1 performs an output indicating that the degree of dissatisfaction increases with time. In addition, when the user responds to the request after a long time has elapsed, an output indicating deeper satisfaction is performed. On the other hand, if the user makes a response contrary to the request after a long period of time has elapsed, the content that causes dissatisfaction is output.

なお、玩具1の要求や出力が「向き」に関するため、簡単のため本体部2は六面体の形態を有していることを想定して以下に説明する。しかし、本体部2は六面体に限られず、一定の向きに一定の時間姿勢を維持できる形態であれば足り、任意の多面体や人形や動物などの形態を有していてもよい。   In addition, since the request | requirement and output of the toy 1 are related to "direction", it demonstrates below supposing that the main-body part 2 has a hexahedron form for simplicity. However, the main body 2 is not limited to a hexahedron, and may be any polyhedron, doll, animal, or the like as long as it can maintain a posture for a certain time in a certain direction.

なお、上述した「向き」については後にさらに定義および説明する。   The above-mentioned “direction” will be further defined and explained later.

向きを検出するセンサーとして本実施形態は加速度センサー5を備えている。なお、玩具1の要求や出力が他の環境(例えば温度、音など)に対するものであれば、該環境の状態を検出することができる他の種類のセンサーを用いる。他の種類のセンサーとして、人感センサー、振動センサー、温度センサー、湿度センサー、光センサー、音センサーが挙げられるが、これらに限られない。むろん、センサーは、一種類のセンサーに限られず、他のセンサーと併用してもよく、例えば加速度センサー5と人感センサーなどの他のセンサーを併用してもよい。   In this embodiment, an acceleration sensor 5 is provided as a sensor for detecting the direction. In addition, if the request | requirement and output of the toy 1 are with respect to another environment (for example, temperature, a sound, etc.), the other kind of sensor which can detect the state of this environment is used. Other types of sensors include, but are not limited to, human sensors, vibration sensors, temperature sensors, humidity sensors, light sensors, and sound sensors. Of course, the sensor is not limited to one type of sensor, and may be used in combination with another sensor. For example, the acceleration sensor 5 and another sensor such as a human sensor may be used in combination.

本実施形態の玩具1は、出力として音声を出力することを例にしているため、出力装置としてスピーカー4を有している。しかし、玩具1の出力装置は、スピーカー4に限られない。   The toy 1 of the present embodiment has an example of outputting sound as an output, and thus has a speaker 4 as an output device. However, the output device of the toy 1 is not limited to the speaker 4.

つまり、玩具1の出力は、満足感や不満感を表現できるものであれば足り、音声出力に限らない。たとえば、玩具1は、その動作によって、満足感や不満感を表現してもよい。   That is, the output of the toy 1 is sufficient if it can express satisfaction and dissatisfaction, and is not limited to audio output. For example, the toy 1 may express satisfaction or dissatisfaction by its operation.

なお、本明細書で玩具1の「動作」に言及するときは、「動作」は動きがあるものに限られず、動きを伴わない動作、例えば色や照度や温度やにおいの変化なども含むものとする。   In addition, when referring to the “motion” of the toy 1 in this specification, the “motion” is not limited to a motion, but includes a motion that does not involve a motion, such as a change in color, illuminance, temperature, smell, or the like. .

したがって、玩具1の出力装置は、スピーカー4の他、玩具1に所定の動きをさせる駆動装置、色や照度を変化させる照明装置、温度や匂いを変化させるヒーターなどでもよい。   Therefore, in addition to the speaker 4, the output device of the toy 1 may be a drive device that causes the toy 1 to perform a predetermined movement, a lighting device that changes color and illuminance, a heater that changes temperature and odor, and the like.

電源6は、一般的にはバッテリーであるが、動力を提供できれば足りるため、コード等で接続する外部の電源を含む。   The power source 6 is generally a battery, but includes an external power source connected by a cord or the like because it is sufficient if power can be provided.

図2は、制御装置3の機能構成を示している。   FIG. 2 shows a functional configuration of the control device 3.

制御装置3は、データを処理するモジュールとして、向き判定部7と、出力音声特定部8と、音声出力処理部9と、履歴処理部10とを有している。   The control device 3 includes a direction determination unit 7, an output audio identification unit 8, an audio output processing unit 9, and a history processing unit 10 as modules for processing data.

また、データを格納・管理するものとして、制御装置3は、条件情報部11と、要求応答履歴部12と、音声データ部13と、履歴データ部14とを有している。   Further, as a device for storing and managing data, the control device 3 includes a condition information unit 11, a request response history unit 12, a voice data unit 13, and a history data unit 14.

なお、本実施形態では、状態によって玩具が要求を発する対象の環境が玩具の置かれた「向き」であるため、向き判定部7を有しているが、向き判定部7はその上位概念である環境状態判定部の一例である。環境が変われば、判定の方法やセンサーも変わる。   In addition, in this embodiment, since the environment where the toy issues a request depending on the state is the “direction” in which the toy is placed, the direction determining unit 7 is included. It is an example of a certain environmental state determination part. If the environment changes, the judgment method and sensor will also change.

また、本実施形態では、玩具が音声によって出力するため、出力音声特定部8と音声出力処理部9と音声データ部13を有しているが、これらはそれぞれの上位概念である出力特定部と出力処理部と出力データ部の一例である。出力は、既述したように、音声や動作を含み、出力データは出力の種類によって形式が異なる。   Moreover, in this embodiment, since a toy outputs with a sound, it has the output audio | voice specific | specification part 8, the audio | voice output process part 9, and the audio | voice data part 13, These are the output specific | specification part which is each high-order concept, and It is an example of an output process part and an output data part. As described above, the output includes voice and operation, and the format of output data varies depending on the type of output.

制御装置3の各部の機能は以下の通りである。   The function of each part of the control device 3 is as follows.

向き判定部7は、加速度センサー5から加速度データを取得し、本体部2の向きを判定する。要求応答履歴部12は、本体部2の向きに対する玩具1の要求と、該要求に対する使用者の応答と、時間の経過の履歴を記録管理する。   The orientation determination unit 7 acquires acceleration data from the acceleration sensor 5 and determines the orientation of the main body unit 2. The request response history unit 12 records and manages a request of the toy 1 with respect to the orientation of the main body unit 2, a user response to the request, and a history of passage of time.

条件情報部11には、出力すべき音声データ(出力音声)を特定する処理に用いられる情報が格納されている。条件情報部11には、例えば、過去に出力した音声等の履歴から、次に出力する音声データを決定するためルールが格納されている。また、玩具1の要求と、該要求に対する使用者の応答と、時間の経過をファクターとして有する少なくとも一つの条件と、該条件に対応する少なくとも一つの出力を対応させた、対応表を格納している。
出力音声特定部8は、向き判定部7から本体部2の向きのデータを入力し、要求応答履歴部12と条件情報部11とを参照し、出力すべき音声データの識別情報を特定する。
The condition information unit 11 stores information used for processing for specifying sound data (output sound) to be output. The condition information unit 11 stores a rule for determining audio data to be output next from a history of audio or the like output in the past. In addition, a correspondence table is stored in which the toy 1 request, the user's response to the request, at least one condition having time as a factor, and at least one output corresponding to the condition are associated with each other. Yes.
The output voice specifying unit 8 inputs the data of the direction of the main body unit 2 from the direction determining unit 7, refers to the request response history unit 12 and the condition information unit 11, and specifies the identification information of the voice data to be output.

音声出力処理部9は、出力音声特定部8が特定した出力すべき音声データの識別情報を入力し、音声データ部13から対応する音声データを取得して出力する。そのため、音声データ部13には、音声データの識別情報に対応して、音声データ(wavやmp3形式の音声ファイル)が格納されている。なお、音声データは、予め格納されていてもよいし、必要なときにテキストから音声合成して生成して格納されるようにしてもよい。   The audio output processing unit 9 receives the identification information of the audio data to be output specified by the output audio specifying unit 8, acquires the corresponding audio data from the audio data unit 13, and outputs it. Therefore, audio data (wav or mp3 format audio file) is stored in the audio data unit 13 corresponding to the identification information of the audio data. Note that the voice data may be stored in advance, or may be generated by voice synthesis from text and stored when necessary.

履歴処理部10は、音声出力処理部9が出力した出力データと時間と向きの履歴を履歴データ部14に記録し管理する。   The history processing unit 10 records and manages the output data output by the audio output processing unit 9 and the history of time and direction in the history data unit 14.

以下に図3を用いて、制御装置3の具体的な処理について説明する。   A specific process of the control device 3 will be described below with reference to FIG.

図3(a)は、玩具1の向きを規定する方法を示している。玩具1の本体部2は、直方体(互いに平行な3組の面が互いに直行してなる六面体)とする。本体部2の中心を原点Oとして、空間座標軸をX,Y,Zとする。なお、X,Y,Z軸のうち、Z軸を垂直とし、X,Y軸を水平とする。好ましくはX,Y,Z軸は本体部2の各面と平行か直角に配置する。   FIG. 3A shows a method for defining the direction of the toy 1. The main body 2 of the toy 1 is a rectangular parallelepiped (a hexahedron in which three sets of parallel surfaces are perpendicular to each other). The center of the main body 2 is the origin O, and the spatial coordinate axes are X, Y, and Z. Of the X, Y, and Z axes, the Z axis is vertical and the X and Y axes are horizontal. Preferably, the X, Y, and Z axes are arranged parallel to or perpendicular to each surface of the main body 2.

このような座標系において、玩具1の向きは、座標軸X,Y,Zに関する回転角θ,θ,θによって、規定することができる。 In such a coordinate system, the orientation of the toy 1 can be defined by the rotation angles θ X , θ Y , θ Z with respect to the coordinate axes X, Y, Z.

Z軸回りの回転角θは、本体部2の底面を水平にして、水平方向のどの方向を向くかによって値が変化する。玩具1が水平方向の一定の方向を基準として、その方向に対する偏向を考える場合は、回転角θを向きの一要素とする。例えば使用者が居る方向をセンサーによって検知し、その方向に対する向きの偏向によって要求や出力をする場合が挙げられる。 The value of the rotation angle θ Z around the Z-axis varies depending on which direction the horizontal direction is directed with the bottom surface of the main body 2 being horizontal. Based toy 1 a certain direction in the horizontal direction, when considering the deflection for that direction, the rotation angle theta Z and an element of orientation. For example, there is a case where the direction in which the user is present is detected by a sensor and a request or output is made by deflection of the direction relative to the direction.

本実施形態の例では、玩具1が音声出力する対象の環境は、水平面内の向きを除く玩具1が置かれた姿勢であるため、X軸とY軸に関する回転角θ,θのみで、本体部2の向きを規定すればよい。X軸回りの回転角θと、Y軸回りの回転角θで、本体部2の左右の傾斜と前後の傾斜を規定することができる。

加速度センサー5は、X,Y,Zの3軸方向の加速度を検出するいわゆる「3軸加速度センサー」とすることができる。玩具1は、重力加速度を常に受ける。したがって、向き判定部7は、いずれの軸の加速度センサーが、正また負の重力加速度に近似した値を示すかによって、玩具1の置かれている向きを判定することができる。例えば、図3のZ軸方向を検知する加速度センサーが、正の重力加速度(誤差範囲を含む)を検知している場合、図3で示す箱の上面が上向きに置かれている状態(すなわち、θx=0°,θy=0°)と判定することができる。逆に、負の重力加速度(誤差範囲を含む)を検知している場合、上面が下向きに置かれている状態(すなわち、θx=180°,θy=0°)と判定することができる。例えば、図3に示すように、箱に人を描くと、腹側を接地(θx=0°,θy=270°)、背中側を接地(θx=0°,θy=90°)、足側を接地(θx=0°,θy=0°)、頭側を接地(θx=0°,θy=180°)、左手側を接地(θx=90°,θy=0°)、右手側を接地(θx=270°,θy=0°)、の6つの状態を容易に検出することができる。
In the example of the present embodiment, the environment to which the toy 1 outputs sound is the posture in which the toy 1 except the direction in the horizontal plane is placed, and therefore only the rotation angles θ X and θ Y with respect to the X axis and the Y axis. What is necessary is just to prescribe | regulate the direction of the main-body part 2. FIG. A rotation angle theta X around the X axis, the Y-axis of the rotation angle theta Y, it is possible to define the slope and the longitudinal inclination of the left and right of the main body portion 2.

The acceleration sensor 5 can be a so-called “three-axis acceleration sensor” that detects accelerations in the three-axis directions of X, Y, and Z. The toy 1 always receives gravitational acceleration. Therefore, the direction determination unit 7 can determine the direction in which the toy 1 is placed depending on which axis of the acceleration sensor indicates a value approximate to positive or negative gravitational acceleration. For example, when the acceleration sensor that detects the Z-axis direction in FIG. 3 detects a positive gravitational acceleration (including an error range), a state in which the upper surface of the box shown in FIG. θx = 0 °, θy = 0 °). Conversely, when negative gravitational acceleration (including an error range) is detected, it can be determined that the upper surface is placed downward (that is, θx = 180 °, θy = 0 °). For example, as shown in FIG. 3, when a person is drawn on the box, the ventral side is grounded (θx = 0 °, θy = 270 °), the back side is grounded (θx = 0 °, θy = 90 °), and the foot side Is grounded (θx = 0 °, θy = 0 °), the head side is grounded (θx = 0 °, θy = 180 °), the left hand side is grounded (θx = 90 °, θy = 0 °), and the right hand side is grounded Six states (θx = 270 °, θy = 0 °) can be easily detected.

制御装置3は、玩具1の動作を統合的に制御する。制御装置3は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM(Read Only Memory)、制御装置3と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターによって実現することができる。制御装置3は、ASIC(Application Specific Integrated Circuit)などによって実現されてもよい。   The control device 3 controls the operation of the toy 1 in an integrated manner. The control device 3 includes, for example, a CPU (Central Processing Unit) that is an arithmetic device, a RAM (Random Access Memory) that is a volatile storage device, a ROM (Read Only Memory) that is a nonvolatile storage device, and the control device 3. It can be realized by a computer including an interface (I / F) circuit that connects other units, a bus that connects these units to each other, and the like. The control device 3 may be realized by an ASIC (Application Specific Integrated Circuit) or the like.

上記の制御装置3の機能の少なくとも一部は、例えば、CPUがROMに格納された所定のプログラムをRAMに読み出して実行することによって実現することができる。当該所定のプログラムは、例えばOS(Operating System)上で動作するアプリケーションプログラムであり、持ち運び可能な記憶媒体から読み出してインストールしたり、ネットワーク上のサーバーからダウンロードしてインストールしたりすることができる。   At least a part of the functions of the control device 3 can be realized, for example, when the CPU reads a predetermined program stored in the ROM and executes it. The predetermined program is, for example, an application program that operates on an OS (Operating System), and can be read and installed from a portable storage medium, or downloaded and installed from a server on a network.

図3(b)は、置かれた向きと時間の経過により、玩具1が音声を出力する方法を示している。   FIG. 3B shows a method in which the toy 1 outputs sound according to the direction in which it is placed and the passage of time.

図3(b)において、玩具1が置かれた向きと経過時間と使用者の応答の履歴部分は、要求応答履歴部12によって管理されている。また、玩具が置かれた向きと経過時間と使用者の応答の履歴を条件として、所定の音声データを選択する関係は、条件情報部11に格納管理されている。   In FIG. 3B, the request response history unit 12 manages the direction in which the toy 1 is placed, the elapsed time, and the history part of the user's response. In addition, the condition information unit 11 stores and manages the relationship of selecting predetermined audio data on the condition that the toy is placed, the elapsed time, and the response history of the user.

図3(b)の表の“時間”欄は、玩具1の向きを検知した時間を示している。t,t,t,・・・は、好ましくは一定の時間間隔tごとに玩具1の向きの検知が行われるようにする。 The “time” column in the table of FIG. 3B indicates the time when the direction of the toy 1 is detected. t 1 , t 2 , t 3 ,... preferably detect the direction of the toy 1 at regular time intervals t.

図3(b)の表のθとθの欄は、玩具1の向き(角度)を示している。本実施形態では、Z軸回りの回転角θを要素としてはいないため、回転角θ,θで玩具1の向きを規定している。 The columns of θ X and θ Y in the table of FIG. 3B indicate the direction (angle) of the toy 1. In the present embodiment, since the rotation angle θ Z around the Z axis is not used as an element, the direction of the toy 1 is defined by the rotation angles θ X and θ Y.

図3(b)の表の“T”欄は、一定の向きになってから経過した時間の累計長さを示している。   The “T” column in the table of FIG. 3B indicates the cumulative length of time that has elapsed since the direction was fixed.

図3(b)の表の右側は、玩具1が置かれた向きと経過時間と使用者の応答の履歴を条件として、出力される音声出力を示している。例えば、N2(S1,N1)はS1とN2の履歴を得てN2を出力したことを示している。   The right side of the table of FIG. 3B shows the audio output that is output on condition of the direction in which the toy 1 is placed, the elapsed time, and the response history of the user. For example, N2 (S1, N1) indicates that the history of S1 and N2 is obtained and N2 is output.

N,M,O,P,Q,・・・は音声出力の音声系列を示している。音声系列とは、声音(こわね)、音質、音量、内容、言葉遣いまたはこれらの少なくとも二つの組合せが、系列ごとに異なる音声出力のグループである。例えば、子どもの音声と言い方による音声系列と、女性の音声と言い方による音声系列と、外国人による日本語の喋りのような音声系列とが挙げられる。同じ声音(こわね)であっても、言葉遣いが穏やかな音声系列と、言葉遣いが荒い音声系列とを有する。あるいは、方言を含む音声系列がある。   N, M, O, P, Q,... Indicate voice sequences for voice output. The voice sequence is a group of voice outputs in which voice sound (sound), sound quality, volume, content, wording, or a combination of at least two of them differs for each sequence. For example, a speech sequence based on a child's speech and speech, a speech sequence based on a female speech, and a speech sequence such as Japanese speaking by a foreigner. Even if the voices are the same, the voice series has a gentle wording and the voice series has a rough wording. Alternatively, there is an audio sequence that includes a dialect.

N1,N2,N3,・・・のように、音声系列を表す文字に付加している数字は、同一の音声系列における深度、すなわち、時間経過による不満感や満足感の度合いを示している。   Like N1, N2, N3,..., The numbers added to the characters representing the speech sequence indicate the depth in the same speech sequence, that is, the degree of dissatisfaction and satisfaction with the passage of time.

本実施形態の玩具1による要求は、同一の向きに置かれていると、向きを変えてくれるように要求を行い、同一の向きに置かれている時間が長くなるにつれて、音声出力の不満を示す度合いが高くなるものである。N1,N2,N3,・・・のような音声系列に付加している数字は、同一の音声系列における主に不満感の度合いを示している。数字が大きくなるほど、不満感の度合いが高い。なお、不満感の度合いが高いところで、使用者が要求に応える動作を行うと、満足度の度合いも高くなる。   The request by the toy 1 of the present embodiment requests that the direction be changed when the toy 1 is placed in the same direction. As the time in which the toy 1 is placed in the same direction becomes longer, the voice output becomes dissatisfied. The degree of indication is high. The numbers added to the speech sequences such as N1, N2, N3,... Mainly indicate the degree of dissatisfaction in the same speech sequence. The greater the number, the higher the degree of dissatisfaction. Note that when the user performs an operation that satisfies the request at a high degree of dissatisfaction, the degree of satisfaction also increases.

N1、N2・・・のように、音声系列と数字からなる符号は、音声出力(音声データ)と1対1に対応しており、出力すべき音声データの識別情報である。   Like N1, N2,..., A code consisting of a voice sequence and a number has a one-to-one correspondence with voice output (voice data) and is identification information of voice data to be output.

N3(S1,N1,N2)のように、N3の括弧に付されたS1,N1,N2は、N3に至る履歴を示している。この履歴は、次の音声出力を決定する条件になっている。すなわち、履歴は玩具1の要求がどのように行われたかの歴史を示しており、それに基づいて例えば不満感の度合いを急激に増大させるなど、履歴によって出力を変化させることができる。また、履歴によって次の音声出力の音声系列を変化させることができる。   Like N3 (S1, N1, N2), S1, N1, and N2 attached to the parenthesis of N3 indicate the history of reaching N3. This history is a condition for determining the next audio output. That is, the history indicates how the toy 1 has been requested, and the output can be changed according to the history, for example, by rapidly increasing the degree of dissatisfaction based on the history. Further, the audio sequence of the next audio output can be changed according to the history.

なお、履歴から次の音声出力を決定するルールは予め条件情報部11に格納されている。例えば、ある系列から所定時間経過するまでは同一系列の音声出力を数字順に決定し、所定時間経過すると予め定められた(ランダムに決定されてもよい)他の系列に変える。また、同一系列が続いている間に、向きが変更されると、予め定められた(ランダムに決定されてもよい)他の系列に変える。   A rule for determining the next audio output from the history is stored in the condition information unit 11 in advance. For example, the audio output of the same sequence is determined in numerical order until a predetermined time elapses from a certain sequence, and when a predetermined time elapses, it is changed to another sequence determined in advance (may be determined randomly). Further, if the direction is changed while the same series continues, it is changed to another series that is predetermined (may be determined at random).

同一の音声系列で音声出力するようにすると、同一の人またはものが語りかけてくるように感じられ、継続した要求が続くように感じられる。一方、途中で音声系列が変わると感情で大きく音声が変わったように感じられ、使用者を飽きさせずに興味を引き続けることができる。   If voices are output with the same voice series, the same person or thing will feel like speaking, and it will feel that the continued request will continue. On the other hand, if the voice sequence changes in the middle, it can be felt that the voice has changed greatly due to emotions, and the user can continue to be interested without getting bored.

ここで、音声出力が変化する仕組みを時間の経過を追って説明する。   Here, the mechanism by which the audio output changes will be described over time.

図3(b)の時間tでは、制御装置3の処理が開始され、開始時の向きをθ=0とθ=0として玩具1の向きの基準とする。経過時間Tは0である。この時の音声出力(識別情報)はS1とする。S1は、既定の挨拶やスタート時のメッセージであってよい。
次に、時間tでは、玩具1がX軸回りに90度回転され、回転角θ=90°,θ=0°になったことを示している。θ=90°,θ=0°の向きになってからの経過時間Tは0となる。このときの音声出力は、N系列の音声系列が選択されている。N系列の音声系列に変更された起点になったのは、直前の出力S1であるため、履歴の最初にS1が示されている。ここで、S1の度合いを示す数字は1である。このため、N1(S1)は、軽い満足感を示す、例えば「横になって良かった」等のメッセージである。
At time t 1 in FIG. 3B, the processing of the control device 3 is started, and the starting direction is set as θ X = 0 and θ Y = 0, and the direction of the toy 1 is set as a reference. The elapsed time T is zero. The voice output (identification information) at this time is S1. S1 may be a default greeting or a message at the start.
Next, at time t 2 , the toy 1 is rotated 90 degrees around the X axis, indicating that the rotation angles θ X = 90 ° and θ Y = 0 °. The elapsed time T after the orientation of θ X = 90 ° and θ Y = 0 ° is zero. As an audio output at this time, an N-sequence audio sequence is selected. Since the immediately preceding output S1 is the starting point of the change to the N-sequence audio sequence, S1 is shown at the beginning of the history. Here, the number indicating the degree of S1 is 1. For this reason, N1 (S1) is a message indicating a light satisfaction, for example, “I was good to lie down”.

次に、時間tでは、玩具1の回転角θ=90°,θ=0°の状態が維持され、その状態になってからt時間が経過している。このとき、履歴S1,N1に基づいて、音声出力N2(S1,N1)が決定される。音声出力N2(S1,N1)は、要求の度合いを上げて例えば「そろそろ起こして」等のメッセージである。 Next, at time t 3 , the toy 1 is maintained at the rotation angles θ X = 90 ° and θ Y = 0 °, and t time has elapsed since this state was reached. At this time, the audio output N2 (S1, N1) is determined based on the history S1, N1. The voice output N2 (S1, N1) is a message such as “Wake up soon” with an increased degree of request.

次に、時間tでは、玩具1の回転角θ=90°,θ=0°の状態になってから2t時間が経過している。このとき、履歴S1,N1,N2に基づいて、音声出力N3(S1,N1,N2)が出力される。この場合、時間2tが経過しても使用者が何ら要求に応答しないため、満足感や不満感の度合いは3になっている。このため、音声出力N3(S1,N1,N2)は、例えば「早く起こして!」等のメッセージを出力することができる。 Then, at time t 4, the rotation angle of the toy 1 θ X = 90 °, from becoming a state of θ Y = 0 ° 2t time has elapsed. At this time, an audio output N3 (S1, N1, N2) is output based on the history S1, N1, N2. In this case, the degree of satisfaction or dissatisfaction is 3 because the user does not respond to the request even after the time 2t elapses. For this reason, the voice output N3 (S1, N1, N2) can output a message such as “Wake up early!”.

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態になっている。これは、使用者が玩具1を要求されたように正常に起こしたのではなく、逆さまの状態に置いたことを示している。すなわち、使用者が玩具1の要求に反する動作を行ったことを示している。この状態になってからの経過時間は0であるが、履歴から繰り返しの要求に拘わらず、要求に反する動作を使用者が行ったことが明らかなため、例えば、言葉遣いが荒いM系列の音声系列が選択され、荒っぽい言い方のM1(N3)を出力する。

Then, at time t 5, the rotation angle of the toy 1 θ X = 180 °, in the state of θ Y = 0 °. This indicates that the user did not wake up the toy 1 normally as requested, but placed it upside down. In other words, it indicates that the user has performed an operation contrary to the request of the toy 1. The elapsed time after this state is 0, but it is clear from the history that the user has performed an action contrary to the request regardless of the repeat request. A series is selected and M1 ( N3 ) in rough language is output.

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態が維持され、t時間が経過している。履歴N3,M1に基づいて、音声出力M2(N3,M1)が出力される。不満感の度合いはさらに大きく、例えば「違うんだよ、早く起こしてってば!」等のメッセージを出力することができる。 Next, at time t 6 , the toy 1 is maintained at the rotation angles θ X = 180 °, θ Y = 0 °, and t time has elapsed. An audio output M2 (N3, M1) is output based on the histories N3, M1. The degree of dissatisfaction is even greater. For example, it is possible to output a message such as “No, I wake up early!”.

次に、時間tでは、玩具1の回転角θ=180°,θ=0°の状態が維持され、2tの時間が経過している。履歴N3,M1,M2に基づいて、音声出力M3(N3,M1,M2)が出力される。音声出力M3(N3,M1,M2)は、例えば「イテテテ、頭に血がのぼる、早く起こして!」等、玩具1の向きに対応するメッセージを出力することができる。 Next, at time t 7 , the toy 1 is maintained at the rotation angles θ X = 180 °, θ Y = 0 °, and 2t has elapsed. An audio output M3 (N3, M1, M2) is output based on the histories N3, M1, M2. The voice output M3 (N3, M1, M2) can output a message corresponding to the direction of the toy 1, such as “Iterate, blood rises on the head, wake up early!”.

次に、時間tでは、玩具1の回転角θ=270°,θ=0°の状態になり、この状態になってからの経過時間Tは0である。向きが変わったことは、使用者が玩具1の要求に応答したことを示している。履歴は前の最終の動作であるM3を有している。M3の履歴は前の履歴が参照されることにより、M3(N3,M1,M2)であることが分かり、それまでのM音声系列は使用者がその前のN3の要求とは逆の応答をしたため、玩具1が困っていた状態を示している。このため、回転角θ=270°になって、逆さまの状態が緩和され、音声系列はやや穏やかなO系列が選択され、わずかに安堵した満足感を示す音声出力O1(M3)が出力される。音声出力O1(M3)は、例えば「良かった、横になれた。」等を出力することができる。玩具1の音声出力は、現在の向きを参照して対応するメッセージを出力することができる。 Next, at time t 8 , the toy 1 is in the state of the rotation angles θ X = 270 ° and θ Y = 0 °, and the elapsed time T from this state is zero. The change in direction indicates that the user has responded to the request for the toy 1. The history has M3 which is the previous final action. The history of M3 is found to be M3 (N3, M1, M2) by referring to the previous history, and the M speech sequence so far has the user responding in reverse to the previous N3 request. Therefore, the state where the toy 1 was in trouble is shown. For this reason, the rotation angle θ X = 270 °, the upside-down state is relaxed, a slightly gentle O-sequence is selected as the audio sequence, and the audio output O1 (M3) indicating a slightly relaxed satisfaction is output. The The audio output O1 (M3) can output, for example, “It was good, I was able to lie down.” The voice output of the toy 1 can output a corresponding message with reference to the current direction.

次に、時間tでは、玩具1の回転角θ=270°,θ=0°の状態が維持され、t時間が経過している。不満感の度合いは2に増大している。履歴M3,O1に基づいて、音声出力O2(M3,O1)は、例えば「右横ではなくて左横が良いな。」など、一つ前の履歴の回転角θ=90°を参照することができる。すなわち、不満感の度合い2で、異なる要求に変えることができる。 Next, at time t 9 , the toy 1 is maintained at the rotation angles θ X = 270 ° and θ Y = 0 °, and t time has elapsed. The degree of dissatisfaction has increased to two. Based on the history M3, O1, the audio output O2 (M3, O1) refers to the rotation angle θ X = 90 ° of the previous history, for example, “the right side is better than the right side”. be able to. In other words, the degree of dissatisfaction can be changed to different requirements.

時間t10では、玩具1の回転角θ=270°,θ=0°の状態が維持され、2t時間が経過している。そのため、不満感の度合いは3に増大している。音声出力は、例えば「ねー、早く起こして」など、呼びかけるようにしてもよい。 At time t 10, the rotational angle θ X = 270 ° of the toy 1, θ Y = 0 ° in the state is maintained, has elapsed 2t time. Therefore, the degree of dissatisfaction has increased to 3. The voice output may be called, for example, “Nee, get up early”.

時間t11では、回転角θ=270°が維持されても、Y軸回りの回転角がθ=90°に変更されている。これは、使用者が玩具1を起こしたのではなく、前に倒したことを示している。この状態になって経過時間Tは0になる。この新しい向きは、玩具1の要求に反する使用者の応答なので、全体的に不満度が高い音声系列Pが選択され、該音声系列Pによる音声出力を開始することができる。 At time t 11 , even if the rotation angle θ X = 270 ° is maintained, the rotation angle around the Y axis is changed to θ Y = 90 °. This indicates that the user did not wake up the toy 1 but knocked it down before. In this state, the elapsed time T becomes zero. Since this new direction is a user response contrary to the request of the toy 1, the voice series P with a high overall dissatisfaction level is selected, and voice output by the voice series P can be started.

時間t11以降も、相違があるが概略同様に、所定のアルゴリズムに基づいて、次の音声出力を選択し、音声を出力し続けることができる。 The time t 11 and subsequent, similarly there are differences schematic, based on a predetermined algorithm, it is possible to select the next audio output, continues to output the sound.

なお、以上の時間tからt11以降の音声出力は、基本的に不満度の度合いが増大する例で説明した。すなわち、一定の状態に放置されたり、要求に反する状態に置かれたりすると、不満度の度合いが増加するケースで説明した。 Note that the audio output of the t 11 after the above time t 1 has been described in example degree basically dissatisfaction increases. That is, the case where the degree of dissatisfaction increases when left in a certain state or placed in a state contrary to the requirement has been described.

しかし、不満度の度合いと満足度の度合いは表裏の関係になっており、満足度の度合いで音声出力をしてもよい。   However, the degree of dissatisfaction and the degree of satisfaction are in a reverse relationship, and audio output may be performed based on the degree of satisfaction.

すなわち、要求が満たされる状態に置かれると満足度の度合いが大きな値になり、そうでない場合は、満足度の度合いが減少するようにしてもよい。   In other words, the degree of satisfaction may be a large value when the requirement is satisfied, and otherwise the degree of satisfaction may be decreased.

この場合、満足度の度合いが徐々に減る音声出力になるので、いわゆる「愚痴る」ような印象にあり、使用者の心情に異なる効果を与えることができる。   In this case, since the audio output is gradually reduced in the degree of satisfaction, it has a so-called “disgusting” impression, and can have a different effect on the emotion of the user.

また、上記の説明では、音量の変化について説明していないが、音声出力は音量を変化させるようにしてもよい。   In the above description, the change in volume is not described, but the sound output may be changed in volume.

すなわち、要求が満たされない時間が長くなると、音量が大きくなるようにしてもよい。このような音声出力を実現するために、出力音声特定部8は音声出力処理部9に対する命令中に音量に関する命令を有し、音声出力処理部9はスピーカー4に出力させる際に音量を大小に制御して出力させることができるようにする。   That is, the volume may be increased as the time when the request is not satisfied becomes longer. In order to realize such audio output, the output audio specifying unit 8 has a command related to the volume during the command to the audio output processing unit 9, and the audio output processing unit 9 increases or decreases the volume when outputting to the speaker 4. It can be controlled and output.

また、スピーカー4が設けられている本体部2の面が下向きになったときに、音量を大きくするようにしてよい。   Further, the volume may be increased when the surface of the main body 2 where the speakers 4 are provided faces downward.

このような音声出力を実現するために、出力音声特定部8は向き判定部7から本体部2の向きを入力し、スピーカー4が設けられている面が下向きになった時に、音声出力処理部9に対して音量を大きくする命令を出力し、音声出力処理部9はスピーカー4に出力させる際に音量を大きく制御して出力させることができるようにする。   In order to realize such audio output, the output audio specifying unit 8 inputs the orientation of the main body 2 from the orientation determining unit 7 and when the surface on which the speaker 4 is provided faces downward, the audio output processing unit A command to increase the volume is output to 9 so that the audio output processing unit 9 can control and output the volume greatly when the speaker 4 outputs the command.

以上音声出力の選択の方法を説明したが、次の音声出力の選択/特定は、それまでの履歴を参照して行う。しかし、音声出力が一定の関係で繰り返されると使用者を飽きさせることが多い。ここで、音声出力に変化を持たせる方法について説明する。   Although the method for selecting the audio output has been described above, the selection / specification of the next audio output is performed with reference to the history so far. However, if the audio output is repeated with a certain relationship, the user is often bored. Here, a method for changing the audio output will be described.

音声出力に変化を持たせる一つの方法は、条件情報部11にすべての音声出力の変化のパターンを記憶管理させ、一定の自由度でランダムにパターンを選択することである。ただし、この方法では、条件情報部11に記憶させる音声出力の変化パターンの数が膨大になる。また、音声出力の変化パターンがそれまでの玩具1の要求と使用者の応答の履歴にフィットすることが難しい。   One method for changing the sound output is to cause the condition information unit 11 to store and manage all the sound output change patterns and to select the patterns randomly with a certain degree of freedom. However, in this method, the number of sound output change patterns stored in the condition information unit 11 is enormous. Moreover, it is difficult for the change pattern of the audio output to fit the history of the request of the toy 1 and the response of the user so far.

もう一つの方法は、条件情報部11が履歴と音声出力の基本的な対応関係を有し、出力音声特定部8が条件情報部11の対応関係に改変を加えるアルゴリズムを有するようにすることである。   Another method is that the condition information unit 11 has a basic correspondence between history and voice output, and the output voice identification unit 8 has an algorithm for modifying the correspondence of the condition information unit 11. is there.

すなわち、条件情報部11には、条件に対応する音声出力が格納されているが、音声出力は、音声系列に属し、各音声系列には不満度の度合いや表現の明るさや音声や言葉遣いや内容で属性が付されている。   That is, the condition information unit 11 stores sound output corresponding to the condition, but the sound output belongs to the sound sequence, and each sound sequence has a degree of dissatisfaction, brightness of expression, sound and wording, Attributes are attached to the contents.

出力音声特定部8は、条件情報処理部11のルール、すなわち応答の履歴を条件として音声出力を決定するルールに従って音声系列および満足度や不満度の度合いを決定し、出力する音声を特定し、その識別情報を出力する。なお、各音声系列は満足度や不満度の度合いに沿って複数の音声出力を有し、出力音声特定部8は任意の音声系列の任意の不満度から音声出力を選択することができる。   The output voice specifying unit 8 determines the voice series and the degree of satisfaction or dissatisfaction according to the rule of the condition information processing unit 11, that is, the rule that determines the voice output on the condition of the response history, specifies the voice to be output, The identification information is output. Each speech sequence has a plurality of speech outputs according to the degree of satisfaction or dissatisfaction, and the output speech specifying unit 8 can select speech output from any dissatisfaction level of any speech sequence.

また、出力音声特定部8は、選択可能な音声系列が複数ある場合、一定の確率で出力すべき音声系列を変化させることができるようにする。   In addition, when there are a plurality of selectable speech sequences, the output speech specifying unit 8 can change the speech sequence to be output with a certain probability.

図4は、出力音声特定部8による音声系列の選択を説明的に示している。   FIG. 4 illustrates the selection of a speech sequence by the output speech specifying unit 8 in an explanatory manner.

図4の表の「音声系列」の欄は、現在の音声系列を示している。同表の「次に選択された音声系列」は、次に選択される音声系列を示している。「満足度」の欄は、同じ音声系列で任意の満足感/不満感の度合いから開始することができることを示している。一次、二次、・・・は満足度の数字に対応している。   The column of “voice sequence” in the table of FIG. 4 shows the current voice sequence. “Next selected speech sequence” in the table indicates the next selected speech sequence. The “satisfaction” column indicates that the same speech sequence can be started from any degree of satisfaction / dissatisfaction. Primary, secondary, ... correspond to satisfaction numbers.

仮に、現在の音声系列がNである場合、既定値は次も音声系列Nを選択することになっている。これに対して、出力音声特定部8は、それまでの履歴を参照し、音声系列Nを音声系列Oに変化させることができる。   If the current speech sequence is N, the default value is to select the speech sequence N again. On the other hand, the output speech specifying unit 8 can change the speech sequence N to the speech sequence O with reference to the history so far.

また、直前の満足度の大きさを引き継いで選択された音声系列の当該満足度の次数から音声出力を開始することができる。   In addition, voice output can be started from the degree of the degree of satisfaction of the selected speech sequence by taking over the previous degree of satisfaction.

出力音声特定部8は、図4に示すように、一定の確率で音声系列Oに変えて、他の音声系列を選択することができる。   As shown in FIG. 4, the output voice specifying unit 8 can select another voice series instead of the voice series O with a certain probability.

あるいは、出力音声特定部8は、全くランダムに任意の音声系列を選択することもできる。   Alternatively, the output voice specifying unit 8 can select an arbitrary voice series at random.

図5は、出力音声特定部8による他の音声系列の選択を示している。   FIG. 5 shows selection of another audio sequence by the output audio specifying unit 8.

図4の場合は、出力音声特定部8が一つの系列の音声出力を選択すると、次に使用者が応答するまで、同一の音声系列の出力をするものである。   In the case of FIG. 4, when the output voice specifying unit 8 selects one series of voice outputs, the same voice series is output until the user responds next time.

これに対して、図5は、同一の音声系列の出力の途中で、他の音声系列に切り替えることができる。切り替えのトリガーは、出力音声特定部8あるいは条件情報部11に任意に設けることができる。例えば、使用者が玩具1の要求に応答しないことが所定回数続くと、出力音声特定部8が途中で感情的な他の音声系列に切り替えるようにすることができる。これにより、感情の起伏があるように見せることができる。   On the other hand, in FIG. 5, it is possible to switch to another audio sequence in the middle of outputting the same audio sequence. The switching trigger can be arbitrarily provided in the output voice specifying unit 8 or the condition information unit 11. For example, if the user does not respond to the request of the toy 1 for a predetermined number of times, the output voice specifying unit 8 can be switched to another emotional voice series on the way. As a result, it can appear as if there is a undulation of emotion.

また、途中で音声系列を切り替えるときも、所定の確率で複数の音声系列(図5の例ではM,O,P)から任意の音声系列を選択するようにすることができる。   Also, when switching voice sequences in the middle, an arbitrary voice sequence can be selected from a plurality of voice sequences (M, O, P in the example of FIG. 5) with a predetermined probability.

以上の説明から明らかなように、本実施形態の玩具1によれば、玩具1から使用者に対して能動的に要求が出され、使用者からの応答を求めるため、使用者が玩具に注意しなくなることを防止することができる。   As is clear from the above description, according to the toy 1 of the present embodiment, the toy 1 actively issues a request to the user and requests a response from the user. It is possible to prevent the failure.

また、本実施形態の玩具1によれば、玩具1が感情の移り変わりを有し、使用者の応答の履歴から、対応する音声を出力する。このため、使用者の応答を取り込んでよりインタラクティブに使用者に働きかけ、使用者の飽きを防止することができる。   Moreover, according to the toy 1 of the present embodiment, the toy 1 has a change of emotion and outputs a corresponding voice from the history of the response of the user. For this reason, it is possible to capture the user's response and work more interactively on the user to prevent the user from getting bored.

また、音声系列に、玩具1の向きに関係ない内容のものを含ませ、ランダムに選択されるようにすることにより、使用者の注意を引き、飽きを防止することができる。一例として、面白い話や日々の格言のような音声系列を含ませてよい。   In addition, by including contents that are not related to the direction of the toy 1 in the voice series and selecting them randomly, it is possible to attract the user's attention and prevent boredom. As an example, an audio sequence such as an interesting story or a daily saying may be included.

さらにまた、周囲の環境の状態をセンサーで取得し、音声系列を変更させても良い。   Furthermore, the state of the surrounding environment may be acquired by a sensor, and the audio sequence may be changed.

図6は、履歴データ部14の格納データの一例を示している。   FIG. 6 shows an example of data stored in the history data unit 14.

図6の「経過時間」欄は、向きを検知し、音声を出力した時間t1,t2,t3,・・・のデータを格納している。同図の「履歴(向き)」欄は、各経過時間に対応する向きのデータθ,θ,θを格納している。同図の「履歴(出力)」欄は、出力した音声系列のデータを格納している。同図の「履歴(ID)」欄は、出力した音声データN1,N2,・・・を格納している。 The “elapsed time” column in FIG. 6 stores data of times t1, t2, t3,... The “history (orientation)” column in the figure stores orientation data θ X , θ Y , and θ Z corresponding to each elapsed time. The “history (output)” column in the figure stores the data of the output voice series. The “history (ID)” column in the figure stores the output audio data N1, N2,.

図7は、条件情報部11の格納データの一例を示している。   FIG. 7 shows an example of data stored in the condition information section 11.

図7の「条件ID」欄には、既定の条件の識別番号が格納されている。同図の「条件」欄には、既定の条件、すなわち、玩具1の現在の向き、同じ向きの継続時間、前回の向き等のデータが格納されている。同図の「音声データ」には、音声出力のデータN1,N2,N3,・・・が格納されている。   In the “Condition ID” column of FIG. 7, the identification number of a predetermined condition is stored. In the “Condition” column of the figure, data such as predetermined conditions, that is, the current orientation of the toy 1, the duration of the same orientation, the previous orientation, and the like are stored. In the “sound data” in the figure, sound output data N1, N2, N3,... Are stored.

図8は、玩具1による音声出力の処理の流れを示すフローチャートである。   FIG. 8 is a flowchart showing the flow of audio output processing by the toy 1.

玩具1に電源が投入されると、制御装置3は、処理をスタートする(S100)。   When the toy 1 is powered on, the control device 3 starts processing (S100).

まず、向き判定部は、玩具1、具体的には本体部2の向きを判定する(S110)。   First, the orientation determination unit determines the orientation of the toy 1, specifically, the main body 2 (S110).

次に、出力音声特定部8は、判定された向き、要求応答履歴部12の履歴、条件情報部11の格納情報等を用いて、次に出力する音声の識別情報を特定する(S120)。   Next, the output voice specifying unit 8 specifies the identification information of the voice to be output next using the determined direction, the history of the request response history unit 12, the stored information of the condition information unit 11, and the like (S120).

次に、音声出力処理部9が、出力音声特定部8から特定された音声データの識別情報を取得し、音声データ部13から対応する音声データを取得し、スピーカー4等の出力装置に出力する(S130)。   Next, the audio output processing unit 9 acquires the identification information of the audio data specified from the output audio specifying unit 8, acquires the corresponding audio data from the audio data unit 13, and outputs it to the output device such as the speaker 4. (S130).

次に、履歴処理部10は、出力された音声出力に基づいて、履歴データ部14に履歴を記録する(S140)。   Next, the history processing unit 10 records a history in the history data unit 14 based on the output audio output (S140).

制御装置3は、上記S100〜S140の処理が完了すると、S110の向き判定に戻り、以降処理S110〜S140の処理を繰り返す。   When the processes of S100 to S140 are completed, the control device 3 returns to the direction determination of S110, and thereafter repeats the processes of processes S110 to S140.

ここで、音声系列の一例として、外国人による日本語の発音のような音声系列について説明する。   Here, as an example of a speech sequence, a speech sequence such as pronunciation of Japanese by a foreigner will be described.

このような音声系列は、上位概念的には発音が非標準の日本語であるから、ここでは「非標準日本語音声系列」と呼ぶ。   Such a speech sequence is referred to herein as a “non-standard Japanese speech sequence” because the pronunciation is non-standard Japanese.

非標準日本語音声系列は実際の人間による発音より、音声合成エンジンによって合成されたものの方がより人の注意を引くことが多い。   Non-standard Japanese speech sequences are often attracted to human attention when synthesized by a speech synthesis engine rather than actual human pronunciation.

非標準日本語音声系列の具体的な生成方法は、外国語(第一言語)の音声合成エンジンに、目的の日本語(第二言語)の文章を単語に分解し、各第二言語の単語に発音が近い第一言語の単語を当てはめ、外国語(第一言語)の音声合成エンジンに発音させる。   A specific method for generating a non-standard Japanese speech sequence is to use a foreign language (first language) speech synthesis engine to decompose a target Japanese (second language) sentence into words, and then convert each second language word. Apply words in the first language that are similar in pronunciation to the speech synthesis engine in the foreign language (first language).

これにより、外国語(第一言語)としては意味をなさない文章を、音声合成エンジンが読み上げ、しかし、日本語(第二言語)としては、発音は奇異で非標準であるが、意味が通じる日本語(第二言語)の音声が生成される。   As a result, the speech synthesis engine reads out sentences that do not make sense as a foreign language (first language), but for Japanese (second language), the pronunciation is strange and non-standard, but it makes sense. Japanese (second language) speech is generated.

このような非標準日本語音声系列を設ける理由は、標準的な日本語による音声出力に比較して、玩具1が少し奇異な日本語による音声出力の方が、使用者の注意を引き、使用者に飽きさせないからである。   The reason for providing such a non-standard Japanese voice series is that the voice output in Japanese, which is a little strange to Toy 1, draws the user's attention compared to the standard Japanese voice output. For he will not get bored.

例えば、出力音声特定部8は、出力すべき音声データの識別情報として、通常は標準的な音声系列の音声データを選択する一方、玩具1の要求に答えない時間が所定時間経過した場合は、発音が奇異な非標準の音声系列の音声データを選択するようにしてもよい。   For example, the output voice specifying unit 8 normally selects the voice data of the standard voice series as the identification information of the voice data to be output. On the other hand, when a predetermined time has passed, You may make it select the audio | speech data of the nonstandard audio | voice series whose pronunciation is strange.

上記の記載に基づいて、当業者であれば、本発明の追加の効果や種々の変形を想到できるかもしれないが、本発明の態様は、上述した実施形態に限定されるものではない。特許請求の範囲に規定された内容及びその均等物から導き出される本発明の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更及び部分的削除が可能である。   Based on the above description, those skilled in the art may be able to conceive additional effects and various modifications of the present invention, but the aspects of the present invention are not limited to the above-described embodiments. Various additions, modifications, and partial deletions can be made without departing from the concept and spirit of the present invention derived from the contents defined in the claims and equivalents thereof.

1:玩具
2:本体部
3:制御装置
4:スピーカー
5:加速度センサー
6:電源
7:向き判定部
8:出力音声特定部
9:音声出力処理部
10:履歴処理部
11:条件情報部
12:要求応答履歴部
13:音声データ部
14:履歴データ部
1: Toy 2: Main unit 3: Control device 4: Speaker 5: Acceleration sensor 6: Power source 7: Direction determination unit 8: Output voice identification unit 9: Audio output processing unit 10: History processing unit 11: Condition information unit 12: Request response history unit 13: Voice data unit 14: History data unit

Claims (7)

制御装置と出力装置と加速度センサーと電源とを有する本体部を有する玩具であって、
前記制御装置は、
前記加速度センサーから入力した加速度データから前記本体部の向きを判定する向き判定部と、
向きに対する玩具の要求と、前記要求に対する使用者の応答と、経過時間の履歴を記録する要求応答履歴部と、
玩具の要求と、前記要求に対する使用者の応答と、経過時間とをファクターとして有する少なくとも一つの条件と、前記条件に対応する少なくとも一つの出力を有する条件情報部と、
前記向き判定部から前記本体部の向きのデータを取得し、前記要求応答履歴部と前記条件情報部とを参照し、出力すべき出力データの識別情報を特定する出力データ特定部と、
前記出力データ特定部から、特定された出力データの識別情報を取得し、出力ータを格納した出力データ部から対応する出力データを取得して出力する出力処理部と、
前記出力処理部が出力した出力データと、前記経過時間、前記本体部の向きの履歴を履歴データ部に記録する履歴処理部と、を有し、
前記出力データ特定部は、前記本体部の向きを変えるように要求する音声出力の識別情報を特定して前記出力処理部に出力させ、前記向き判定部から使用者の応答を検出し、前記要求応答履歴部と前記条件情報部を参照して満足感または不満感を示す音声出力を特定して前記出力処理部に出力させ、
前記出力データ特定部は、さらに、スピーカーが下向きになる前記本体部の向きの情報を有し、前記向き判定部からの向きのデータと前記スピーカーが下向きになる向きとを比較し、前記スピーカーが下向きであると判断したときは、大きな音声出力を出力する命令を出力し、
前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力する、
玩具。
A toy having a main body having a control device, an output device, an acceleration sensor, and a power source,
The controller is
An orientation determining unit that determines the orientation of the main body from acceleration data input from the acceleration sensor;
A toy request for orientation, a user response to the request, and a request response history section that records a history of elapsed time;
A toy request, a user response to the request, and at least one condition having an elapsed time as a factor, and a condition information unit having at least one output corresponding to the condition;
Obtaining data of the orientation of the main body from the orientation determination unit, referring to the request response history unit and the condition information unit, an output data specifying unit for specifying identification information of output data to be output;
From said output data identifying unit, and an output processing unit that acquires identification information of the output data specified, to obtain a corresponding output data from the output data section for storing the output data,
Possess the output data the output processing section is outputted, and the elapsed time, and a history processing unit for recording the history data portion the orientation of the history of the body portion,
The output data specifying unit specifies audio output identification information that is requested to change the direction of the main body unit and outputs the identification information to the output processing unit, detects a user response from the direction determination unit, and the request Refer to the response history part and the condition information part to identify a voice output indicating satisfaction or dissatisfaction, and output it to the output processing part,
The output data specifying unit further includes information on the orientation of the main body unit in which the speaker faces downward, compares the orientation data from the orientation determination unit with the orientation in which the speaker faces downward, and the speaker When it is determined to be downward, it outputs a command to output a large audio output,
The output processing unit outputs a sound output of a corresponding size in accordance with the command;
toy.
請求項1に記載の玩具であって、
前記向きは、3軸の加速度センサーによって判定される、玩具。
The toy according to claim 1 ,
The toy is determined by a triaxial acceleration sensor.
請求項1または2に記載の玩具であって、
前記条件情報部は、時間の経過とともに満足感あるいは不満感の度合いが強くなるように、条件と対応が設定されている、玩具。
The toy according to claim 1 or 2 ,
The condition information section is a toy in which conditions and correspondences are set such that the degree of satisfaction or dissatisfaction increases with the passage of time.
請求項1〜3のいずれか一項に記載の玩具であって、
前記出力データ特定部は、所定の音声系列の出力データを時間の経過とともに出力させている途中で、他の音声系列に出力データに切り替えて出力させることができる、玩具。
The toy according to any one of claims 1 to 3 ,
The toy, wherein the output data specifying unit can switch the output data to another voice series and output the output data of a predetermined voice series as time elapses.
請求項に記載の玩具であって、
前記音声系列は、第一言語の音声合成エンジンに、第二言語の文章を単語に分解し、前記各単語に発音が近い前記第一言語の単語を当てはめて音声を合成させ、合成された音声を前記第二言語による音声出力として有する、玩具。
The toy according to claim 4 ,
The speech sequence is obtained by synthesizing speech by synthesizing speech by using a speech synthesis engine of a first language to decompose a sentence of a second language into words and applying words of the first language whose pronunciation is close to the words. A toy having a voice output in the second language.
請求項1〜5のいずれか一項に記載の玩具であって、
前記出力データ特定部は、前記玩具の要求に答える動作が行われない時間が所定時間を経過した場合、発音が標準的でない音声を、出力すべき音声データの識別情報として特定する、玩具。
A toy according to any one of claims 1 to 5 ,
The said output data specific | specification part specifies the audio | voice whose pronunciation is not standard as identification information of the audio | voice data which should be output, when predetermined | prescribed time passes when the operation | movement which responds to the said toy request | requirement is not performed.
請求項1〜6のいずれか一項に記載の玩具であって、
前記出力データ特定部は、前記向き判定部から要求に対する使用者の応答を検出し、前記要求が満たされない経過時間に応じて出力の大きさを増加させる命令を出力し、
前記出力処理部は、前記命令に応じて対応する大きさの音声出力を出力する、玩具。
The toy according to any one of claims 1 to 6 ,
The output data specifying unit detects a user response to the request from the orientation determination unit, and outputs a command to increase the output size according to an elapsed time when the request is not satisfied,
The said output process part is a toy which outputs the audio | voice output of a magnitude | size corresponding according to the said command.
JP2019091014A 2019-05-13 2019-05-13 toy Expired - Fee Related JP6590393B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019091014A JP6590393B1 (en) 2019-05-13 2019-05-13 toy

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019091014A JP6590393B1 (en) 2019-05-13 2019-05-13 toy

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019164989A Division JP2020185366A (en) 2019-09-10 2019-09-10 toy

Publications (2)

Publication Number Publication Date
JP6590393B1 true JP6590393B1 (en) 2019-10-16
JP2020185119A JP2020185119A (en) 2020-11-19

Family

ID=68234951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019091014A Expired - Fee Related JP6590393B1 (en) 2019-05-13 2019-05-13 toy

Country Status (1)

Country Link
JP (1) JP6590393B1 (en)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0783794B2 (en) * 1986-03-28 1995-09-13 株式会社ナムコ Interactive toys
US5083965A (en) * 1990-02-06 1992-01-28 Catalina Toys, Inc. Interactive doll system
JP3696685B2 (en) * 1996-02-07 2005-09-21 沖電気工業株式会社 Pseudo-biological toy
JP3273550B2 (en) * 1997-05-29 2002-04-08 オムロン株式会社 Automatic answering toy
US6428321B1 (en) * 1997-12-08 2002-08-06 Btio Educational Products, Inc. Infant simulator
JP3691978B2 (en) * 1999-01-13 2005-09-07 株式会社東芝 A toy equipped with a device for discriminating the psychological status of the actor and a device for discriminating the psychological status of the actor
JP4757979B2 (en) * 1999-11-02 2011-08-24 株式会社セガ トイズ Electronic toy
JP2002368858A (en) * 2001-06-05 2002-12-20 Matsushita Electric Ind Co Ltd Charger for mobile phones
JP2004344417A (en) * 2003-05-22 2004-12-09 Tomy Co Ltd Doll
JP2005000219A (en) * 2003-06-09 2005-01-06 Iwaya Co Ltd Toy
JP2010191323A (en) * 2009-02-20 2010-09-02 Yamaha Corp Music creating device, method and program
JP2011239993A (en) * 2010-05-19 2011-12-01 Yamaha Corp Sound generation control unit
JP2015146851A (en) * 2014-02-05 2015-08-20 ピープル株式会社 Voice output toy
JP6854719B2 (en) * 2017-07-11 2021-04-07 パナソニック株式会社 Equipment, robots, methods and programs

Also Published As

Publication number Publication date
JP2020185119A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
CN109789550B (en) Control of social robots based on previous character depictions in novels or shows
US10702991B2 (en) Apparatus, robot, method and recording medium having program recorded thereon
WO2017215297A1 (en) Cloud interactive system, multicognitive intelligent robot of same, and cognitive interaction method therefor
US7987091B2 (en) Dialog control device and method, and robot device
JP7400923B2 (en) Information processing device and information processing method
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
US11548147B2 (en) Method and device for robot interactions
JP2019521449A (en) Persistent Companion Device Configuration and Deployment Platform
JP2003271174A (en) Speech synthesis method, speech synthesis device, program, recording medium, method and apparatus for generating constraint information and robot apparatus
WO2002099545A1 (en) Man-machine interface unit control method, robot apparatus, and its action control method
JP6391386B2 (en) Server, server control method, and server control program
JP7452568B2 (en) Device control device, device control method and program
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
WO2004084183A1 (en) Audio conversation device, method, and robot device
JP2002049385A (en) Voice synthesizer, pseudofeeling expressing device and voice synthesizing method
US11780098B2 (en) Robot, robot control method, and recording medium
JP6590393B1 (en) toy
US20210291379A1 (en) Robot, speech synthesizing program, and speech output method
JP2020151070A (en) Robot and control method of robot
JP2020185366A (en) toy
JP2005202076A (en) Uttering control device and method and robot apparatus
US20070078563A1 (en) Interactive system and method for controlling an interactive system
JP2005059186A (en) Robot device and method of controlling the same
JP7414735B2 (en) Method for controlling multiple robot effectors
JP7189434B2 (en) Spatial control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190514

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190514

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190911

R150 Certificate of patent or registration of utility model

Ref document number: 6590393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees