JP6411128B2 - Attitude control device and program - Google Patents

Attitude control device and program Download PDF

Info

Publication number
JP6411128B2
JP6411128B2 JP2014163855A JP2014163855A JP6411128B2 JP 6411128 B2 JP6411128 B2 JP 6411128B2 JP 2014163855 A JP2014163855 A JP 2014163855A JP 2014163855 A JP2014163855 A JP 2014163855A JP 6411128 B2 JP6411128 B2 JP 6411128B2
Authority
JP
Japan
Prior art keywords
robot
state recognition
recognition event
posture
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014163855A
Other languages
Japanese (ja)
Other versions
JP2016036899A (en
Inventor
正徳 荻野
正徳 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014163855A priority Critical patent/JP6411128B2/en
Publication of JP2016036899A publication Critical patent/JP2016036899A/en
Application granted granted Critical
Publication of JP6411128B2 publication Critical patent/JP6411128B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットの姿勢を制御する姿勢制御装置、およびプログラムに関する。   The present invention relates to a posture control device and a program for controlling the posture of a robot.

従来、通信端末における着信およびメール受信等を、端末本体または付属品の外形形状を変化させることでユーザに知らせる技術が開示されている。例えば、特許文献1には、駆動パターン生成部において駆動パターン信号をリアルタイムで生成し、当該駆動パターン信号をアクチュエータに伝えることにより、通信端末の付属物または当該通信端末自体を構成する部材の形状を変化させて、発生したイベント(例えば、着呼、メール着信、またはデジタルテレビ放送の受信等)をユーザに知らせるイベント報知機構が開示されている。   2. Description of the Related Art Conventionally, there has been disclosed a technique for notifying a user of an incoming call and mail reception at a communication terminal by changing the external shape of the terminal body or an accessory. For example, in Patent Document 1, the drive pattern generation unit generates a drive pattern signal in real time, and transmits the drive pattern signal to the actuator, whereby the shape of the communication terminal accessory or the member constituting the communication terminal itself is defined. There has been disclosed an event notification mechanism that changes and notifies a user of an event that has occurred (for example, an incoming call, an incoming mail, or reception of a digital television broadcast).

特開2007−214908号公報(2007年8月23日公開)JP 2007-214908 A (released on August 23, 2007)

しかしながら、特許文献1に開示されている技術は、イベントの種類が通信圏外またはマナーモード等の、端末本体等の外形形状の変化後における当該通信端末の状態継続をユーザが把握することが重要な意義を有するものには適用されていない。また、上記外形形状の変化は、上記イベント(通信圏外、マナーモード等)が示す通信端末の状態が継続していることを、ユーザが一見して把握できるものではない。したがって、発生したイベントの種類が通信圏外またはマナーモード等であった場合、当該イベントが示す通信端末の状態が継続していることを、ユーザが把握できないという問題があった。   However, in the technique disclosed in Patent Document 1, it is important for the user to grasp the continuation of the state of the communication terminal after the change in the external shape of the terminal body or the like, such as the event type being out of communication range or manner mode. It is not applied to what has significance. In addition, the change in the external shape cannot be understood at a glance by the user that the state of the communication terminal indicated by the event (out of communication range, manner mode, etc.) is continuing. Therefore, when the type of event that occurred is out of communication range or manner mode, the user cannot grasp that the state of the communication terminal indicated by the event continues.

本発明は、上記問題点に鑑みてなされたものであり、その目的は、通信端末本体等の外形形状の変化が示す当該通信端末の状態継続をユーザが把握することが重要な意義を有するイベントについて、ユーザが当該イベントの発生を容易に把握できるようにすることにある。   The present invention has been made in view of the above problems, and its purpose is an event in which it is important for a user to grasp the continuation of the state of the communication terminal indicated by a change in the external shape of the communication terminal main body or the like. Therefore, the user can easily grasp the occurrence of the event.

上記の課題を解決するために、本発明の一態様に係る姿勢制御装置は、ロボットの内部状態が変化した後、その変化後の内部状態が継続していることについてのユーザの認知が必要となる事象である状態認知イベントが発生したことを検知する状態認知イベント検知手段と、上記状態認知イベント検知手段によって上記状態認知イベントが発生したことが検知された場合に、上記ロボットの姿勢が、上記状態認知イベントの発生をユーザが認知するのに適した状態認知イベント姿勢となるよう、上記ロボットの可動部位に設けられる駆動部の駆動を制御する駆動制御手段と、を備えている。   In order to solve the above-described problem, the posture control apparatus according to one aspect of the present invention requires the user to recognize that the internal state after the change continues after the internal state of the robot changes. When the state recognition event detecting means for detecting the occurrence of the state recognition event that is an event and the state recognition event detecting means detects that the state recognition event has occurred, the posture of the robot is Drive control means for controlling the drive of the drive unit provided in the movable part of the robot so as to obtain a state recognition event posture suitable for the user to recognize the occurrence of the state recognition event.

本発明の一態様によれば、状態認知イベントについて、ユーザがその発生を容易に把握することができることから、状態認知イベントが発生した場合に、ユーザは容易に対応することができる。   According to one aspect of the present invention, since the user can easily grasp the occurrence of the state recognition event, the user can easily cope with the occurrence of the state recognition event.

本発明の実施形態1に係るロボットの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the robot which concerns on Embodiment 1 of this invention. (a)は、上記ロボットの概略を示す正面図である。(b)は、上記ロボットの概略を示す背面図である。(c)は、上記ロボットの概略を示す側面図である。(A) is a front view which shows the outline of the said robot. (B) is a rear view showing an outline of the robot. (C) is a side view showing an outline of the robot. 上記ロボットの記憶部に記憶されている状態認知イベント姿勢テーブルの一例である。It is an example of the state recognition event attitude | position table memorize | stored in the memory | storage part of the said robot. (a)〜(e)は、状態認知イベント姿勢の一例を示す概略図である。(A)-(e) is the schematic which shows an example of a state recognition event attitude | position. 本発明の実施形態1に係る姿勢制御装置によるロボットの姿勢の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the attitude | position of the robot by the attitude | position control apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態2に係るロボットの記憶部に記憶されている実行可否判定条件テーブルの一例である。It is an example of the execution availability determination condition table memorize | stored in the memory | storage part of the robot which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る姿勢制御装置によるロボットの姿勢の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the attitude | position of the robot by the attitude | position control apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係るロボットの記憶部に記憶されているタイムアウトテーブルの一例である。It is an example of the time-out table memorize | stored in the memory | storage part of the robot which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る姿勢制御装置によるロボットの姿勢の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the attitude | position of the robot by the attitude | position control apparatus which concerns on Embodiment 3 of this invention.

〔実施形態1〕
以下、本発明の実施の形態について、図1〜5を参照しながら、詳細に説明する。なお、下記の実施形態においては、姿勢制御装置が2足歩行ヒューマノイドロボットに備えられているものとして説明する。しかしながら、2足歩行ヒューマノイドロボットに限らず、例えば、アニメキャラクタの戦闘ロボットまたは動物ロボット等のロボット全般に姿勢制御装置が備えられていてもよい。また、本実施形態以下の各実施形態においては、携帯電話機能付きの2足歩行ヒューマノイドロボットを例に挙げて説明する。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. In the following embodiment, the posture control device is described as being provided in a biped walking humanoid robot. However, the posture control device may be provided not only for the biped walking humanoid robot but also for all robots such as an anime character battle robot or animal robot. In the following embodiments, a biped walking humanoid robot with a mobile phone function will be described as an example.

(ロボットの概要) まず、図2を参照してロボット100の概要について説明する。図2の(a)は、本実施形態に係るロボット100の概略を示す正面図である。また、図2の(b)は、当該ロボット100の概略を示す背面図である。さら、図2の(c)は、当該ロボット100の概略を示す側面図である。   (Outline of Robot) First, an outline of the robot 100 will be described with reference to FIG. FIG. 2A is a front view showing an outline of the robot 100 according to the present embodiment. FIG. 2B is a rear view illustrating the outline of the robot 100. Further, FIG. 2C is a side view illustrating the outline of the robot 100.

図2の(a)および(c)に示すように、ロボット100は、頭部100a、胴体部100b、腕部100c、脚部100d、および足部100eで構成される。頭部100aは首部100gを介して、腕部100cは肩関節部100hを介して、脚部100dは脚関節部100iを介して、それぞれ胴体部100bに対して可動に接続されている。また、足部100eは足関節部100jを介して脚部100dに対して、可動に接続されている。首部100gおよび各関節部には、後述するサーボモータ24aが内蔵されており、当該サーボモータ24aが駆動することによって、頭部100a、腕部100c、脚部100d、および足部100eはそれぞれ可動する。さらに、頭部100aの一部を構成する口部100lには後述するスピーカ部22が、足部100eの一部を構成する足裏部100fには後述するマイク部21が、それぞれ設けられている。   As shown in FIGS. 2A and 2C, the robot 100 includes a head portion 100a, a torso portion 100b, arm portions 100c, leg portions 100d, and foot portions 100e. The head 100a is movably connected to the body 100b via the neck 100g, the arm 100c via the shoulder joint 100h, and the leg 100d via the leg joint 100i. Further, the foot part 100e is movably connected to the leg part 100d via the foot joint part 100j. A servo motor 24a, which will be described later, is built in the neck portion 100g and each joint portion. When the servo motor 24a is driven, the head portion 100a, the arm portion 100c, the leg portion 100d, and the foot portion 100e are movable. . Further, a mouth portion 100l constituting a part of the head portion 100a is provided with a speaker portion 22 described later, and a foot portion 100f constituting a portion of the foot portion 100e is provided with a microphone portion 21 described later. .

次に、図2の(b)および(c)に示すように、胴体部100bの一部を構成する背中部100kには、後述する表示部23が設けられている。なお、表示部23を配置する位置としては背中部100kに限定される訳ではなく、例えば、腹部100m(図2の(a)および(c)参照)に配置されてもよい。   Next, as shown in FIGS. 2B and 2C, a display unit 23 to be described later is provided on the back part 100k constituting a part of the body part 100b. In addition, as a position which arrange | positions the display part 23, it is not necessarily limited to the back part 100k, For example, you may arrange | position to the abdominal part 100m (refer (a) and (c) of FIG. 2).

(ロボットの具体的構成) 次に、ロボット100の具体的構成について、図1および図3を参照しながら説明する。図1は、ロボット100の具体的構成を示すブロック図である。図1に示すように、ロボット100は、制御部10、操作入力部20、マイク部21、スピーカ部22、表示部23、駆動部24、バッテリー部25、アンテナ部26、送受信部27、および記憶部28を備えている。   (Specific Configuration of Robot) Next, a specific configuration of the robot 100 will be described with reference to FIGS. 1 and 3. FIG. 1 is a block diagram showing a specific configuration of the robot 100. As shown in FIG. 1, the robot 100 includes a control unit 10, an operation input unit 20, a microphone unit 21, a speaker unit 22, a display unit 23, a drive unit 24, a battery unit 25, an antenna unit 26, a transmission / reception unit 27, and a storage. A portion 28 is provided.

制御部10は、ロボット100を統括的に制御するものであり、姿勢制御装置1を備えている。姿勢制御装置1は、ロボット100の姿勢を制御するための各種処理を統括するものであり、その詳細については後述する。   The control unit 10 comprehensively controls the robot 100 and includes the attitude control device 1. The attitude control device 1 supervises various processes for controlling the attitude of the robot 100, and details thereof will be described later.

操作入力部20は、入力されたユーザ操作を取得するものである。操作入力部20としては、例えば、タッチパネル、光学式センサ等が挙げられる。マイク部21は、例えば通話中の音声を集音する集音器である。スピーカ部22は、音声データを含む情報を再生する機能と、ユーザ以外にも聞こえるように音声を出力するスピーカとを備えた再生部である。表示部23は、ロボット100に装備されている各種機能(アプリケーションソフト)が実行されることに起因する画像等の各種画像を表示する。表示部23としては、例えばタッチパネルを備えたLCD(Liquid crystal display:液晶ディスプレイ)が用いられる。駆動部24は、ロボット100における頭部100a等の各可動部位を駆動するものであり、首部100gおよび各関節部に対応する数のサーボモータ24aで構成される。バッテリー部25は、ロボット100を構成する各部に電力の供給を行うものである。送受信部27は、アンテナ部26を介して音声データ等の各種データの送受信を行うものである。   The operation input unit 20 acquires an input user operation. Examples of the operation input unit 20 include a touch panel and an optical sensor. The microphone unit 21 is, for example, a sound collector that collects sound during a call. The speaker unit 22 is a reproduction unit that includes a function of reproducing information including audio data and a speaker that outputs audio so that it can be heard by non-users. The display unit 23 displays various images such as images resulting from the execution of various functions (application software) installed in the robot 100. As the display unit 23, for example, an LCD (Liquid crystal display) having a touch panel is used. The drive unit 24 drives each movable part such as the head 100a in the robot 100, and includes a number of servomotors 24a corresponding to the neck 100g and each joint. The battery unit 25 supplies power to each unit constituting the robot 100. The transmission / reception unit 27 transmits / receives various data such as audio data via the antenna unit 26.

次に、記憶部28の具体的構成について説明する。記憶部28は、状態認知イベント姿勢テーブル28aおよび制御部10が実行する各種の制御プログラム等を記憶するものである。記憶部28は、例えばハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。なお、実行可否判定条件テーブル28bおよびタイムアウトテーブル28cの説明は後述する。   Next, a specific configuration of the storage unit 28 will be described. The storage unit 28 stores a state recognition event / posture table 28a and various control programs executed by the control unit 10. The storage unit 28 is configured by a nonvolatile storage device such as a hard disk or a flash memory. Note that the execution availability determination condition table 28b and the timeout table 28c will be described later.

図3は、記憶部28に記憶されている状態認知イベント姿勢テーブル28aの一例である。状態認知イベント姿勢テーブル28aは、状態認知イベントと状態認知イベント姿勢との対応関係を示すデータテーブルである。   FIG. 3 is an example of the state recognition event posture table 28 a stored in the storage unit 28. The state recognition event posture table 28a is a data table showing the correspondence between the state recognition event and the state recognition event posture.

状態認知イベントは、通信圏外またはマナーモード中等の、ロボット100の内部状態が変化した後、その変化後の内部状態が継続していることについてのユーザの認知が必要となる事象である。「内部状態」とは、ロボット100内部に備えられている各種機能、およびロボット100に収容配置されている各種部品の状態を指す。「内部状態」の例としては、図3に示すような「通信圏外(送受信部27の送受信機能が働かない状態)」、「マナーモード中(ロボット100のスピーカ部22からの音鳴動がミュートされている状態)」、および「低電圧状態(バッテリー部25のバッテリー残量が低下した状態)」等がある。したがって、「内部状態の変化」とは、上記各例に従えば、「通信圏内から通信圏外になる」、「通常モード(ロボット100の着信通知機能等が、スピーカ部22から出力される音声によって実行されている状態)からマナーモード中になる」、および「通常電圧状態から低電圧状態になる」ことを指す。   The state recognition event is an event that requires the user to recognize that the internal state after the change continues after the internal state of the robot 100 changes, such as out of communication range or manner mode. “Internal state” refers to various functions provided in the robot 100 and states of various components accommodated in the robot 100. Examples of the “internal state” include “out of communication range (state in which the transmission / reception function of the transmission / reception unit 27 does not work)”, “manner mode” (sound from the speaker unit 22 of the robot 100 is muted) as shown in FIG. In a low voltage state (a state in which the remaining battery level of the battery unit 25 has decreased). Therefore, according to each of the above examples, “change in internal state” means “going from communication range to out of communication range”, “normal mode (the incoming call notification function of the robot 100 or the like depending on the sound output from the speaker unit 22) It means “being in manner mode” from “executed state”, and “from normal voltage state to low voltage state”.

なお、図3中の「音声待受中」は、ロボット100が低消費電流でユーザからの音声入力(音声認識)開始の契機とするために、特定の登録単語または任意の単語を待ち受けている状態を指す。「低電圧状態(コーションレベル)」は、短時間であればロボット100の各種機能を作動させても支障のない程度にバッテリー残量が低下している状態、すなわち低電圧状態が注意レベルの場合を指す。「低電圧状態(フェータルレベル)」は、多少なりともロボット100の各種機能を作動させた場合、バッテリー残量がゼロになってしまう状態、すなわち低電圧状態が致命的レベルの場合を指す。「Bluetooth(ブルートゥース:登録商標) OFF」は、ロボット100とその周辺機器等との間で用いられる短距離無線通信技術であるBluetoothが使用不可能の状態になっていることを指す。「セキュリティロックON」は、ユーザのプライバシー保護のため、操作入力部20からの入力等によって、ユーザ以外の者がロボット100の諸機能を使用できない状態にすることを指す。   Note that “waiting for voice” in FIG. 3 waits for a specific registered word or an arbitrary word in order for the robot 100 to start voice input (voice recognition) from the user with low current consumption. Refers to the state. The “low voltage state (caution level)” is a state in which the remaining battery level is low enough that there is no problem even if various functions of the robot 100 are operated for a short time, that is, the low voltage state is a caution level. Point to. The “low voltage state (fatal level)” refers to a state where the remaining battery level becomes zero when various functions of the robot 100 are operated to some extent, that is, the low voltage state is a fatal level. “Bluetooth (registered trademark) OFF” indicates that Bluetooth, which is a short-range wireless communication technology used between the robot 100 and its peripheral devices, is unusable. “Security lock ON” indicates that a person other than the user cannot use various functions of the robot 100 by an input from the operation input unit 20 or the like for protecting the privacy of the user.

ここで、図3および4を参照して、状態認知イベント姿勢への移行方法について説明する。図4の(a)〜(e)は、状態認知イベント姿勢の一例を示す概略図である。状態認知イベント姿勢は、状態認知イベントの発生をユーザが認知するのに適したロボット100の姿勢をいう。   Here, with reference to FIG. 3 and FIG. 4, the transition method to a state recognition event attitude | position is demonstrated. 4A to 4E are schematic diagrams illustrating examples of state recognition event postures. The state recognition event posture refers to the posture of the robot 100 suitable for the user to recognize the occurrence of the state recognition event.

具体的には、例えば、状態認知イベントの発生として「マナーモード中」になった場合、後述する駆動制御部14は、状態認知イベント姿勢テーブル28aを参照することにより、ロボット100の姿勢が「マナーモード中」に対応付けられた状態認知イベント姿勢A2(図3参照)に移行するよう、駆動部24を構成するサーボモータ24aを駆動する。なお、上記姿勢A2としては、例えば、腕部100cのいずれか一方の手に相当する部位が口部100lを隠すような姿勢が想定される(図4の(a)参照)。   Specifically, for example, when the state recognition event occurs and “manner mode” is set, the drive control unit 14 to be described later refers to the state recognition event posture table 28a so that the posture of the robot 100 is “Manner”. The servo motor 24a constituting the drive unit 24 is driven so as to shift to the state recognition event posture A2 (see FIG. 3) associated with “mode in progress”. In addition, as said attitude | position A2, the attitude | position where the site | part equivalent to any one hand of the arm part 100c hides the mouth part 100l is assumed, for example (refer (a) of FIG. 4).

なお、状態認知イベント姿勢は、ユーザが状態認知イベントの発生を容易に認知できるような姿勢であれば、どのような姿勢であってもよい。例えば、図3における、「通信圏外」に対応付けられた状態認知イベント姿勢A1としては、腕部100cの両方について肩関節部100hを中心に回転させて、「バンザイ(お手上げ)」のポーズをとるような姿勢が想定される(図4の(b)参照)。あるいは、上記姿勢A1として、ロボット100が仰向けになって「大の字」のポーズをとるような姿勢も想定される(図4の(c)参照)。また、「低電圧状態(コーションレベル)」に対応付けられた状態認知イベント姿勢A4としては、胴体部100bと脚部100dとのなす角度が略90度になる座り姿勢等、サーボモータ24aが電源OFF等の非駆動状態になってもロボット100が傾倒しない、充電に適した姿勢が想定される(図4の(d)参照)。さらに、「セキュリティロックON」に対応付けられた状態認知イベント姿勢A7としては、腕部100cの両方で「バツ印」を作るような姿勢が想定される(図4の(e)参照)。なお、状態認知イベント姿勢としては、静止状態のみならず連続したモーション(動作)を定義することも可能である。   Note that the state recognition event posture may be any posture as long as the user can easily recognize the occurrence of the state recognition event. For example, as the state recognition event posture A1 associated with “out of communication range” in FIG. 3, both arm portions 100c are rotated around the shoulder joint portion 100h, and a “banzai (lift)” pose is taken. Such a posture is assumed (see FIG. 4B). Alternatively, as the posture A1, a posture in which the robot 100 lies on its back and takes a “large letter” pose is assumed (see FIG. 4C). Further, as the state recognition event posture A4 associated with the “low voltage state (caution level)”, the servo motor 24a is powered by a sitting posture or the like in which the angle between the body portion 100b and the leg portion 100d is approximately 90 degrees. A posture suitable for charging in which the robot 100 does not tilt even when it is in a non-driven state such as OFF is assumed (see FIG. 4D). Furthermore, as the state recognition event posture A7 associated with “security lock ON”, a posture in which “cross mark” is created by both of the arm portions 100c is assumed (see FIG. 4E). As the state recognition event posture, it is possible to define not only a stationary state but also a continuous motion (motion).

次に、姿勢制御装置1の具体的構成について説明する。姿勢制御装置1は、状態認知イベント検知部11、要求検知部12、および駆動制御部14を備えている。なお、実行可否判定部13の説明は後述する。   Next, a specific configuration of the attitude control device 1 will be described. The posture control device 1 includes a state recognition event detection unit 11, a request detection unit 12, and a drive control unit 14. Note that the execution availability determination unit 13 will be described later.

状態認知イベント検知部11は、状態認知イベントの発生を検知し、検知結果を駆動制御部14に送信するものである。状態認知イベント発生の有無は、例えば、通信圏外であれば送受信部27の通信状態によって判断したり、低電圧状態であればバッテリー部25のバッテリー残量によって判断したりする。要求検知部12は、ロボット100の姿勢が状態認知イベント姿勢になっている状態における、ロボット100に対するユーザ要求を検知し、検知結果を駆動制御部14に送信するものである。上記ユーザ要求の有無は、例えば、操作入力部20からの入力によるユーザ操作の有無によって判断したり、マイク部21がユーザの音声を集音し、音声認識処理部(図示しない)を介して取得した要求コマンドの有無によって判断したりする。   The state recognition event detection unit 11 detects the occurrence of a state recognition event and transmits the detection result to the drive control unit 14. The presence / absence of a state recognition event is determined, for example, based on the communication state of the transmission / reception unit 27 if it is out of the communication range, or is determined based on the remaining battery level of the battery unit 25 if it is a low voltage state. The request detection unit 12 detects a user request to the robot 100 in a state where the posture of the robot 100 is the state recognition event posture, and transmits a detection result to the drive control unit 14. The presence / absence of the user request is determined based on, for example, the presence / absence of a user operation by an input from the operation input unit 20, or the microphone unit 21 collects the user's voice and is acquired via a voice recognition processing unit (not shown). For example, based on the presence or absence of the requested command.

駆動制御部14は、状態認知イベント検知部11から状態認知イベントが発生したとの検知結果を受信した場合に、ロボット100の姿勢が状態認知イベント姿勢になるよう各サーボモータ24aの駆動を制御する。また、駆動制御部14は、ロボット100の姿勢が状態認知イベント姿勢になっている状態において、要求検知部12から上記ユーザ要求があった旨の検知結果を受信した場合、状態認知イベント姿勢を解除するよう各サーボモータ24aの駆動を制御する。さらに、駆動制御部14は、状態認知イベント姿勢が解除されている状態において、上記ユーザ要求に対応するロボット100の処理が終了した時点から所定時間が経過した場合、解除した状態認知イベント姿勢に復帰するよう各サーボモータ24aの駆動を制御する。   When receiving the detection result that the state recognition event has occurred from the state recognition event detection unit 11, the drive control unit 14 controls the drive of each servo motor 24a so that the posture of the robot 100 becomes the state recognition event posture. . The drive control unit 14 cancels the state recognition event posture when the detection result indicating that the user request is received from the request detection unit 12 in a state where the posture of the robot 100 is the state recognition event posture. The drive of each servo motor 24a is controlled so as to do this. Further, in a state where the state recognition event posture is released, the drive control unit 14 returns to the released state recognition event posture when a predetermined time has elapsed since the processing of the robot 100 corresponding to the user request has been completed. The drive of each servo motor 24a is controlled so as to do this.

ここで、状態認知イベント姿勢の解除とは、例えば、駆動制御部14が、ロボット100の姿勢を上記ユーザ要求に適した姿勢に移行させたり、直立不動の待機姿勢に移行させたりすることをいう。また、所定時間とは、状態認知イベントの継続をユーザが認知できない状態が許容される時間であり、ロボット100の生産時にあらかじめ設定される。そして、図示しないが、所定時間データとして記憶部28に記憶される。本実施形態における所定時間は「30秒」に設定されている。なお、所定時間は、操作入力部20から入力する等により、ユーザが任意に設定してもよい。   Here, the release of the state recognition event posture means, for example, that the drive control unit 14 shifts the posture of the robot 100 to a posture suitable for the user request or shifts to a stand-by immovable standby posture. . The predetermined time is a time during which the state in which the user cannot recognize the continuation of the state recognition event is allowed, and is set in advance when the robot 100 is produced. Although not shown, the data is stored in the storage unit 28 as predetermined time data. The predetermined time in this embodiment is set to “30 seconds”. The predetermined time may be arbitrarily set by the user by inputting from the operation input unit 20 or the like.

(姿勢制御装置によるロボットの姿勢の制御方法) 次に、図5を用いて、姿勢制御装置1によるロボット100の姿勢の制御方法について説明する。図5は、上記制御方法を示すフローチャートである。   (Robot Posture Control Method by Posture Control Device) Next, a posture control method of the robot 100 by the posture control device 1 will be described with reference to FIG. FIG. 5 is a flowchart showing the control method.

図5に示すように、まず、状態認知イベント検知部11は、状態認知イベントの発生を検知した場合(ステップ100でY;以下、S100と略記する)、状態認知イベントの発生を検知した旨の検知結果を駆動制御部14に送信する(S100)。一方、状態認知イベントの発生を検知しない場合(S100でN)、状態認知イベント検知部11は、状態認知イベントが発生したか否かを再び検知する(S100)。   As shown in FIG. 5, first, when the state recognition event detection unit 11 detects the occurrence of a state recognition event (Y in Step 100; hereinafter abbreviated as S100), it indicates that the generation of the state recognition event has been detected. The detection result is transmitted to the drive control unit 14 (S100). On the other hand, when the occurrence of the state recognition event is not detected (N in S100), the state recognition event detection unit 11 detects again whether or not the state recognition event has occurred (S100).

次に、駆動制御部14は、S100でY(YES)と判定した場合、発生した状態認知イベントに対応付けられた状態認知イベント姿勢を、状態認知イベント姿勢テーブル28aを参照することによって決定する(S101)。そして、駆動制御部14は、ロボット100の姿勢を自ら決定した状態認知イベント姿勢に移行させる(S102)。   Next, when the drive control unit 14 determines Y (YES) in S100, the drive control unit 14 determines the state recognition event posture associated with the generated state recognition event by referring to the state recognition event posture table 28a ( S101). Then, the drive control unit 14 shifts the posture of the robot 100 to the state recognition event posture determined by itself (S102).

次に、要求検知部12は、ロボット100の姿勢が状態認知イベント姿勢になっている状態において、ロボット100に対するユーザ要求を検知した場合(S103でY)、当該ユーザ要求を検知した旨の検知結果を駆動制御部14に送信する(S103)。一方、上記ユーザ要求を検知しない場合(S103でN)、要求検知部12は、上記ユーザ要求の有無を再び検知する(S103)。   Next, when the request detection unit 12 detects a user request to the robot 100 in a state where the posture of the robot 100 is the state recognition event posture (Y in S103), the detection result indicating that the user request is detected Is transmitted to the drive control unit 14 (S103). On the other hand, when the user request is not detected (N in S103), the request detection unit 12 detects again the presence or absence of the user request (S103).

次に、駆動制御部14は、S103でYと判定した場合、状態認知イベント姿勢を解除する(S104)。そして、ロボット100は、上記ユーザ要求に対する処理を実行する(S105)。   Next, the drive control part 14 cancels | releases a state recognition event attitude | position, when it determines with Y by S103 (S104). Then, the robot 100 executes processing for the user request (S105).

次に、駆動制御部14は、上記ユーザ要求に対するロボット100の処理が終了した時点からの時間を計測し、記憶部28に記憶された所定時間(30秒)データを参照することで、所定時間が経過したか否かを判断する(S106)。そして、S106でYと判定した場合、駆動制御部14は、ロボット100の姿勢を状態認知イベント姿勢に復帰させる(S107)。一方、S106でNと判定した場合、駆動制御部14は、上記所定時間が経過したか否かを再び判断する。   Next, the drive control unit 14 measures the time from the point when the processing of the robot 100 in response to the user request is completed, and refers to the predetermined time (30 seconds) data stored in the storage unit 28, thereby determining the predetermined time. It is determined whether or not elapses (S106). When it is determined as Y in S106, the drive control unit 14 returns the posture of the robot 100 to the state recognition event posture (S107). On the other hand, if it is determined as N in S106, the drive control unit 14 determines again whether or not the predetermined time has elapsed.

(効果) 以上のように、本実施形態によれば、姿勢制御装置1は、状態認知イベントが発生した場合に、ロボット100の姿勢を状態認知イベント姿勢に移行させる。そのため、ユーザが状態認知イベントの発生を容易に把握することができることから、状態認知イベントに対してユーザは容易に対応することができる。また、姿勢制御装置1は、ロボット100に対してユーザが何らかの要求をした場合、状態認知イベントが継続している状態においても、状態認知イベント姿勢を解除する。そのため、ユーザは要求内容に対応するための行動を容易にとることができる。さらに、姿勢制御装置1は、状態認知イベントが継続している状態下でのユーザ要求に基づいて状態認知イベント姿勢が解除された場合でも、所定時間経過後は状態認知イベント姿勢に復帰する。そのため、状態認知イベント姿勢の解除状態が無駄に継続することがなく、ユーザは状態認知イベントが継続していることを再認知することができる。   (Effects) As described above, according to the present embodiment, the posture control device 1 shifts the posture of the robot 100 to the state recognition event posture when the state recognition event occurs. Therefore, since the user can easily grasp the occurrence of the state recognition event, the user can easily cope with the state recognition event. In addition, when the user makes a request to the robot 100, the posture control device 1 cancels the state recognition event posture even in a state where the state recognition event continues. Therefore, the user can easily take an action to respond to the requested content. Furthermore, even when the state recognition event posture is released based on a user request under a state in which the state recognition event continues, the posture control device 1 returns to the state recognition event posture after a predetermined time has elapsed. Therefore, the state recognition event posture release state does not continue unnecessarily, and the user can re-recognize that the state recognition event continues.

〔実施形態2〕
本発明の他の実施形態について、図6および7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
Another embodiment of the present invention will be described below with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態に係る姿勢制御装置2は、状態認知イベントが継続している状態において、ロボット200に対するユーザ要求の要求内容を実行できるか否かを判定する実行可否判定部13を備えている点で、実施形態1に係る姿勢制御装置1と異なる。また、駆動制御部14が、実行可否判定部13から受信した判定結果に応じて、状態認知イベント姿勢を解除するか、または状態認知イベント姿勢を維持するよう駆動部24の駆動を制御する点でも、実施形態1に係る姿勢制御装置1と異なる。さらに、本実施形態に係るロボット200は、記憶部28に実行可否判定条件テーブル28bが記憶されている点で、実施形態1に係るロボット100と異なる。   The posture control device 2 according to the present embodiment includes an execution availability determination unit 13 that determines whether or not the request content of the user request for the robot 200 can be executed in a state where the state recognition event continues. This is different from the attitude control device 1 according to the first embodiment. Also, the drive control unit 14 controls driving of the drive unit 24 so as to cancel the state recognition event posture or maintain the state recognition event posture according to the determination result received from the execution determination unit 13. This is different from the attitude control device 1 according to the first embodiment. Furthermore, the robot 200 according to the present embodiment is different from the robot 100 according to the first embodiment in that an execution availability determination condition table 28 b is stored in the storage unit 28.

(ユーザ要求の実行可否判定方法) まず、実行可否判定部13によるユーザ要求の実行可否判定方法について、図6を用いて説明する。図6は、記憶部28に記憶されている実行可否判定条件テーブル28bの一例である。実行可否判定条件テーブル28bは、状態認知イベントと、当該状態認知イベントの継続状態下でのロボット200に対するユーザ要求との対応関係を示すデータテーブルである。ここで、ユーザ要求とは、ユーザ操作またはユーザからの発話等のユーザの行動を通じて、ユーザが自己の所望するロボット200の処理を要求することをいう。ユーザ要求は、例えば、ユーザ操作の場合は操作入力部20を、ユーザからの発話の場合は音声認識処理部(図示しない)を介してロボット200が受け取る。   (User Request Executability Determination Method) First, the user request execution permission determination method by the execution permission determination unit 13 will be described with reference to FIG. FIG. 6 is an example of the execution possibility determination condition table 28 b stored in the storage unit 28. The execution possibility determination condition table 28b is a data table showing a correspondence relationship between a state recognition event and a user request to the robot 200 under a continuation state of the state recognition event. Here, the user request means that the user requests a process of the robot 200 desired by the user through a user operation or user action such as speech from the user. For example, the user request is received by the robot 200 via the operation input unit 20 in the case of a user operation, and via a voice recognition processing unit (not shown) in the case of an utterance from the user.

本実施形態では、ユーザ要求として、「モーション」、「発話」、および「ネット利用」を挙げている。ここで、「モーション」は、ユーザが所望するロボット200の特定の動作である。「発話」とは、ユーザが所望するロボット200の応答音声が、スピーカ部22を通じて出力されることである。応答音声は、制御部10が備える応答生成処理部(図示しない)によって生成された応答文言に基づいて、同じく制御部10が備える音声合成処理部(図示しない)によって生成される。なお、ユーザ要求は上記3種類に限定される訳ではなく、例えば、「メール発信」等が含まれてもよい。   In the present embodiment, “motion”, “speech”, and “net use” are listed as user requests. Here, the “motion” is a specific operation of the robot 200 desired by the user. “Speech” means that the response voice of the robot 200 desired by the user is output through the speaker unit 22. The response voice is generated by a voice synthesis processing unit (not shown) included in the control unit 10 based on a response word generated by a response generation processing unit (not shown) included in the control unit 10. The user request is not limited to the above three types, and may include, for example, “mail transmission”.

具体的には、例えば、状態認知イベントとして「通信圏外」が継続している状態において、ユーザからの「ダンスして」との要求を要求検知部12が検知した場合、実行可否判定部13は、実行可否判定条件テーブル28bを参照することにより、上記要求、すなわち「モーション」を実行できるか否かを判定する。ここで、「通信圏外」の状態下でも、ロボット200が特定の「モーション」を行うことは可能であることから、実行可否判定条件テーブル28bでは、状態認知イベントが「通信圏外」の場合、ユーザ要求としての「モーション」は実行可能(図6において「○」)となっている。したがって、実行可否判定部13は、ユーザによる「ダンスして」との要求を実行可能と判定し、判定結果を駆動制御部14に送信する。   Specifically, for example, when the request detection unit 12 detects a request for “dancing” from the user in a state where “out of communication range” continues as a state recognition event, Then, by referring to the execution possibility determination condition table 28b, it is determined whether or not the above-mentioned request, that is, “motion” can be executed. Here, since it is possible for the robot 200 to perform a specific “motion” even in the “out of communication range” state, if the state recognition event is “out of communication range” in the execution possibility determination condition table 28b, the user The “motion” as a request is executable (“◯” in FIG. 6). Therefore, the executability determination unit 13 determines that the user's request “dancing” can be executed, and transmits the determination result to the drive control unit 14.

また、ロボット200が「低電圧状態(フェータルレベル)」であれば、電力消費のわずかなロボット200の処理が実行されても、バッテリー残量がゼロになる危険性がある。そのため、実行可否判定条件テーブル28bでは、状態認知イベントが「低電圧状態(フェータルレベル)」の場合、全てのユーザ要求は実行不可能(図6において「×」)となっている。したがって、例えば、状態認知イベントとして「低電圧状態(フェータルレベル)」が継続している状態において、ユーザからの「インターネットを利用したい」との要求を要求検知部12が検知した場合、実行可否判定部13は、上記要求を実行不可能と判定する。そして、判定結果を駆動制御部14に送信する。   Further, if the robot 200 is in the “low voltage state (fatal level)”, there is a risk that the remaining battery level becomes zero even if the processing of the robot 200 that consumes little power is executed. Therefore, in the execution possibility determination condition table 28b, when the state recognition event is “low voltage state (fatal level)”, all user requests cannot be executed (“×” in FIG. 6). Therefore, for example, when the request detection unit 12 detects a request from the user that “I want to use the Internet” in a state where the “low voltage state (fatal level)” continues as a state recognition event, it is determined whether or not to execute. The unit 13 determines that the request cannot be executed. Then, the determination result is transmitted to the drive control unit 14.

このように、ロボット200に対するユーザ要求の要求内容を実行できるか否かは、ロボット200が置かれている状態認知イベントの種類と上記要求内容との関係に応じて個別的に決まるものである。   As described above, whether or not the requested content of the user request for the robot 200 can be executed is determined individually according to the relationship between the type of the state recognition event where the robot 200 is placed and the requested content.

次に、実行可否判定条件テーブル28bにおける各ユーザ要求の要求内容は、その実行の優先度に応じて優先順位が付けられている。本実施形態では、図6における一番右側の要求内容から左側に向けて優先順位が高くなる(1番:「モーション」、2番:「発話」、3番:「ネット利用」)。以下に、ユーザが要求するロボット200の処理内容に複数のユーザ要求が含まれている場合のユーザ要求実行可否判定方法について説明する。   Next, the request contents of each user request in the execution possibility determination condition table 28b are prioritized according to the execution priority. In the present embodiment, the priority is increased from the request content on the right side in FIG. 6 toward the left side (No. 1: “motion”, No. 2: “utterance”, No. 3: “Internet use”). Hereinafter, a user request execution feasibility determination method when a plurality of user requests are included in the processing content of the robot 200 requested by the user will be described.

例えば、状態認知イベントとして「マナーモード中」が継続している状態において、ユーザから「歌いながらダンスして」との要求があった場合、当該要求には「モーション」および「発話」という2種類のユーザ要求が含まれている。このように複数のユーザ要求が含まれている場合、実行可否判定部13は、実行可否判定条件テーブル28bを参照することにより、当該複数のユーザ要求のうちで最も優先順位の高いユーザ要求から順にその要求内容を実行できるか否かを判定していく。そして、要求内容を実行できないと判定されたユーザ要求が現れた時点で、実行可否判定部13は、当該ユーザ要求より優先順位の低いユーザ要求については、自動的にその要求内容を実行できないと判定する。   For example, in a state where “in manner mode” continues as a state recognition event, when a user requests “dancing while singing”, there are two types of requests, “motion” and “utterance”. Contains user requests. When a plurality of user requests are included in this way, the execution permission determination unit 13 refers to the execution permission determination condition table 28b, so that the user requests having the highest priority among the plurality of user requests are sequentially ordered. It is determined whether or not the requested content can be executed. Then, when a user request that is determined to be unable to execute the request content appears, the execution determination unit 13 determines that the request content cannot be automatically executed for a user request having a lower priority than the user request. To do.

具体的には、「モーション」と「発話」とでは「モーション」の優先順位の方が高いことから、実行可否判定部13は、まず「モーション」を実行できるか否かを判定する。「マナーモード中」であれば「モーション」は実行できることから(図6参照)、実行可否判定部13は、次に「発話」を実行できるか否かを判定する。そして、「マナーモード中」の場合「発話」は実行できないことから(図6参照)、実行可否判定部13は、最終的に「モーション」、すなわち「ダンスして」の要求のみ実行できると判定し、判定結果を駆動制御部14に送信する。   Specifically, since “motion” and “utterance” have a higher priority of “motion”, the execution determination unit 13 first determines whether or not “motion” can be executed. Since “motion” can be executed if the “silent mode” is being executed (see FIG. 6), the execution determination unit 13 determines whether or not “speech” can be executed next. Since “speech” cannot be executed in the “manner mode” (see FIG. 6), the execution possibility determination unit 13 finally determines that only the request of “motion”, that is, “dancing” can be executed. The determination result is transmitted to the drive control unit 14.

また、例えば、状態認知イベントとして「マナーモード中」が継続している状態において、ユーザから「明日の天気を音声で教えて」(ユーザ要求として、「発話」および「ネット利用」が含まれている)との要求があった場合、実行可否判定部13は、まず「発話」を実行できるか否かを判定する。「マナーモード中」の場合「発話」は実行できないことから、実行可否判定部13は、たとえ「マナーモード中」の「ネット利用」が実行可能であっても(図6参照)、自動的に「ネット利用」は実行できないと判定する。そして、実行可否判定部13は、最終的に「明日の天気を音声で教えて」との要求内容すべてについて実行できないと判定し、判定結果を駆動制御部14に送信する。   Also, for example, in a state where “in manner mode” continues as a state recognition event, the user “speaks tomorrow ’s weather by voice” (“utterance” and “net use” are included as user requests) When the request is made, the execution possibility determination unit 13 first determines whether or not “speech” can be executed. Since “speech” cannot be executed in the “silent mode”, the executability determination unit 13 automatically executes “net use” in “in manner mode” (see FIG. 6). It is determined that “net use” cannot be executed. Then, the executability determination unit 13 determines that the request content “Tell me the weather of tomorrow with voice” cannot be executed finally, and transmits the determination result to the drive control unit 14.

なお、上記各ユーザ要求の優先順位は任意に設定可能であり、例えば、ユーザ要求の要求内容ごとに優先順位を入れ替えてもよい。先の例で言うと、「発話」と「ネット利用」との優先順位を入れ替え、ネット利用は実行して天気を検索するがロボットからの音声発話は実行せず、表示部23に検索結果を表示してもよい。   The priority order of each user request can be arbitrarily set. For example, the priority order may be changed for each request content of the user request. In the previous example, the priority order of “speech” and “net use” is switched, the net use is executed and the weather is searched, but the voice utterance from the robot is not executed, and the search result is displayed on the display unit 23. It may be displayed.

(姿勢制御装置によるロボットの姿勢の制御方法) 次に、図7を用いて、姿勢制御装置2によるロボット200の姿勢の制御方法について説明する。図7は、上記制御方法を示すフローチャートである。なお、図7におけるS200〜S203までの処理、およびS206〜S208までの処理は、図5のフローチャートにおけるS100〜S103までの処理、およびS105〜S107までの処理とそれぞれ同様であるため、その説明を省略する。   (Robot Posture Control Method Using Posture Control Device) Next, the posture control method of the robot 200 using the posture control device 2 will be described with reference to FIG. FIG. 7 is a flowchart showing the control method. Note that the processing from S200 to S203 in FIG. 7 and the processing from S206 to S208 are the same as the processing from S100 to S103 and the processing from S105 to S107 in the flowchart of FIG. Omitted.

図7に示すように、実行可否判定部13は、要求検知部12からユーザ要求を検知した旨の検知結果を受信した場合、当該ユーザ要求の要求内容を実行できるか否かを判定する(S204)。そして、実行可否判定部13が要求内容を実行できると判定した場合(S204でY)、その判定結果を受信した駆動制御部14は、状態認知イベント姿勢を解除する(S205)。一方、実行可否判定部13が要求内容を実行できないと判定した場合(S204でN)、その判定結果を受信した駆動制御部14は、状態認知イベント姿勢を維持する(S209)。   As illustrated in FIG. 7, when the execution determination unit 13 receives a detection result indicating that a user request has been detected from the request detection unit 12, the execution determination unit 13 determines whether the request content of the user request can be executed (S204). ). If the execution determination unit 13 determines that the requested content can be executed (Y in S204), the drive control unit 14 that receives the determination result releases the state recognition event posture (S205). On the other hand, when the execution determination unit 13 determines that the requested content cannot be executed (N in S204), the drive control unit 14 that has received the determination result maintains the state recognition event posture (S209).

(効果) 以上のように、本実施形態によれば、ユーザは、ロボット200に対するユーザ要求の要求内容が実行可能か否かを容易に把握できるとともに、無駄な状態認知イベント姿勢の解除を抑制できる。また、状態認知イベント姿勢が解除された場合、ユーザは上記要求内容に応じた行動を容易にとることができる。さらに、状態認知イベント姿勢が維持される場合、無駄な状態認知イベント姿勢の解除に基づくユーザの誤動作を防止することができる。   (Effect) As described above, according to the present embodiment, the user can easily grasp whether or not the request content of the user request for the robot 200 can be executed, and can suppress the release of the useless state recognition event posture. . Further, when the state recognition event posture is released, the user can easily take an action according to the request content. Furthermore, when the state recognition event posture is maintained, it is possible to prevent the user from malfunctioning based on the release of the useless state recognition event posture.

〔実施形態3〕
本発明の他の実施形態について、図8および9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態に係る姿勢制御装置3は、駆動制御部14が、複数の状態認知イベントのうちの1つが継続している状態において、当該状態認知イベントに対して設定されたタイムアウト時間が経過した場合に、ロボット300の姿勢が、解除した状態認知イベント姿勢に復帰するよう駆動部24の駆動を制御する点で、実施形態1および2に係る姿勢制御装置1および2とそれぞれ異なる。また、本実施形態に係るロボット300は、記憶部28にタイムアウトテーブル28cが記憶されている点で、実施形態1および2に係るロボット100および200とそれぞれ異なる。   In the posture control device 3 according to the present embodiment, when the drive control unit 14 is in a state where one of the plurality of state recognition events continues, a timeout time set for the state recognition event has elapsed. In addition, the posture of the robot 300 is different from the posture control devices 1 and 2 according to the first and second embodiments in that the drive of the drive unit 24 is controlled so as to return to the released state recognition event posture. The robot 300 according to the present embodiment is different from the robots 100 and 200 according to the first and second embodiments in that a timeout table 28c is stored in the storage unit 28.

(状態認知イベント姿勢への復帰方法) まず、駆動制御部14による状態認知イベント姿勢への復帰方法について、図8を用いて説明する。図8は、記憶部28に記憶されているタイムアウトテーブル28cの一例である。タイムアウトテーブル28cは、状態認知イベントとタイムアウト時間との対応関係を示すデータテーブルである。   (Returning method to a state recognition event posture) First, the return method to a state recognition event posture by the drive control part 14 is demonstrated using FIG. FIG. 8 is an example of the timeout table 28 c stored in the storage unit 28. The timeout table 28c is a data table indicating the correspondence between the state recognition event and the timeout time.

ここで、タイムアウト時間は、特定の状態認知イベントの継続をユーザが認知できない状態が許容される時間であり、状態認知イベントの内容に応じて個別的に設定される。例えば、通信圏外から通信圏内への状態変化は、その変化が速いことから、状態認知イベントが「通信圏外」の場合のタイムアウト時間は早めに設定される(図8では「10秒」に設定)。一方、マナーモードのON/OFFはユーザ操作によって設定されることから、状態認知イベントが「マナーモード中」の場合のタイムアウト時間は遅めに設定しても問題ない(図8では「600秒」に設定)。また、BluetoothがON/OFFいずれの状態であっても、ロボット00自体が備える各種機能は通常通り作動していることから、状態認知イベントが「Bluetooth OFF」の場合のタイムアウト時間は遅めに設定しても問題ない(図8では「500秒」に設定)。なお、タイムアウト時間は、ロボット300の生産時にあらかじめ設定されてもよいし、操作入力部20から入力する等によりユーザが任意に設定してもよい。
Here, the timeout time is a time during which a state in which the user cannot recognize the continuation of a specific state recognition event is allowed, and is individually set according to the content of the state recognition event. For example, since the state change from the outside of the communication range to the communication range is fast, the time-out time when the state recognition event is “out of communication range” is set earlier (set to “10 seconds” in FIG. 8). . On the other hand, since the manner mode ON / OFF is set by a user operation, the timeout time when the state recognition event is “in manner mode” can be set later (“600 seconds” in FIG. 8). Set). Further, even Bluetooth is ON / OFF any state, since various functions of the robot 3 00 itself which is operating normally, the state recognition event in timeout late in the case of "Bluetooth OFF" There is no problem even if it is set (in FIG. 8, it is set to “500 seconds”). Note that the timeout time may be set in advance at the time of production of the robot 300, or may be arbitrarily set by the user by inputting from the operation input unit 20, or the like.

具体的には、例えば、状態認知イベントとして「Bluetooth OFF」が発生した場合、駆動制御部14は、タイムアウトテーブル28cから「Bluetooth OFF」に対応付けられたタイムアウト時間「500秒」を選択して、タイムアウト時間データとして記憶しておく。次に、「Bluetooth OFF」継続している状態においてユーザ要求に対するロボット300の処理が終了した場合、駆動制御部14は、当該処理終了時点から「500秒」が経過したか否かを判定する。そして、駆動制御部14は、「500秒」が経過したと判定した時点で、ロボット300の姿勢を解除した状態認知イベント姿勢に復帰させる。   Specifically, for example, when “Bluetooth OFF” occurs as the state recognition event, the drive control unit 14 selects the timeout time “500 seconds” associated with “Bluetooth OFF” from the timeout table 28 c, and Store as timeout time data. Next, when the process of the robot 300 in response to the user request is completed while “Bluetooth OFF” continues, the drive control unit 14 determines whether “500 seconds” have elapsed since the end of the process. Then, when it is determined that “500 seconds” has elapsed, the drive control unit 14 returns the state of the robot 300 to the state recognition event posture.

(姿勢制御装置によるロボットの姿勢の制御方法) 次に、図9を用いて、姿勢制御装置3によるロボット300の姿勢の制御方法について説明する。図9は、上記制御方法を示すフローチャートである。なお、図9に示されるフローチャートは、図5のフローチャートにおけるS104の処理、または図7のフローチャートにおけるS205の処理の終了後に実行されるものである。   (Robot Posture Control Method by Posture Control Device) Next, a posture control method of the robot 300 by the posture control device 3 will be described with reference to FIG. FIG. 9 is a flowchart showing the control method. The flowchart shown in FIG. 9 is executed after the process of S104 in the flowchart of FIG. 5 or the process of S205 in the flowchart of FIG.

図9に示すように、状態認知イベント姿勢が解除された(S104またはS205)後、駆動制御部14は、タイムアウトテーブル28cから発生している状態認知イベントに対応付けられたタイムアウト時間を選択する(S300)。そして、ユーザ要求に対するロボット300の処理を実行する(S301)。   As shown in FIG. 9, after the state recognition event posture is released (S104 or S205), the drive control unit 14 selects a time-out time associated with the state recognition event generated from the time-out table 28c ( S300). And the process of the robot 300 with respect to a user request | requirement is performed (S301).

次に、駆動制御部14は、上記ロボット00の処理が終了した時点からの時間を計測し、選択したタイムアウト時間が経過したか否かを判定する(S302)。そして、上記タイムアウト時間が経過したと判定した場合(S302でY)、駆動制御部14は、ロボット300の姿勢を、解除した状態認知イベント姿勢に復帰させる(S303)。一方、上記タイムアウト時間が経過していないと判定した場合(S302でN)、駆動制御部14は、上記タイムアウト時間が経過したか否かを再び判定する。
Next, the drive control unit 14 measures the time from when the processing of the robot 3 00 has ended, it is determined whether the timeout period elapses selected (S302). If it is determined that the timeout time has elapsed (Y in S302), the drive control unit 14 returns the posture of the robot 300 to the released state recognition event posture (S303). On the other hand, if it is determined that the timeout time has not elapsed (N in S302), the drive control unit 14 determines again whether the timeout time has elapsed.

(効果) 例えば、発生した状態認知イベントが低電圧状態であれば、ユーザ要求に対するロボット300の処理の終了後は、ユーザはより早期に低電圧状態を再認知すべきである。このように、状態認知イベントの種類によって、ユーザが当該状態認知イベントの継続を認知できない状態が許容される時間は異なる。上記構成によれば、状態認知イベントの種類に応じてタイムアウト時間が異なることから、より効率的に状態認知イベントの継続を再認知することができる。   (Effect) For example, if the generated state recognition event is a low voltage state, the user should re-recognize the low voltage state earlier after the processing of the robot 300 in response to the user request. Thus, the time when the state in which the user cannot recognize the continuation of the state recognition event is allowed depends on the type of the state recognition event. According to the said structure, since timeout time changes according to the kind of state recognition event, the continuation of a state recognition event can be re-recognized more efficiently.

〔ソフトウェアによる実現例〕
姿勢制御装置1〜3の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks (particularly the control unit 10) of the attitude control devices 1 to 3 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or using a CPU (Central Processing Unit). It may be realized by software.

後者の場合、姿勢制御装置1〜3は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the attitude control devices 1 to 3 are a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by a computer (or CPU). Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る姿勢制御装置(1、2、3)は、ロボット(100、200、300)の内部状態が変化した後、その変化後の内部状態が継続していることについてのユーザの認知が必要となる事象である状態認知イベントが発生したことを検知する状態認知イベント検知手段(状態認知イベント検知部11)と、上記状態認知イベント検知手段によって上記状態認知イベントが発生したことが検知された場合に、上記ロボットの姿勢が、上記状態認知イベントの発生をユーザが認知するのに適した状態認知イベント姿勢となるよう、上記ロボットの可動部位に設けられる駆動部(24)の駆動を制御する駆動制御手段(駆動制御部14)と、を備えている。
[Summary]
The posture control device (1, 2, 3) according to the aspect 1 of the present invention provides a user about that the internal state after the change continues after the internal state of the robot (100, 200, 300) changes. That the state recognition event has occurred by the state recognition event detection means (state recognition event detection unit 11) for detecting the occurrence of the state recognition event, which is an event that requires recognition, and the state recognition event detection means. When detected, the driving unit (24) provided in the movable part of the robot is driven so that the posture of the robot becomes a state recognition event posture suitable for the user to recognize the occurrence of the state recognition event. Drive control means (drive control unit 14) for controlling.

上記構成によれば、駆動制御手段は、状態認知イベント検知手段が状態認知イベントの発生を検知した場合に、ロボットの姿勢が当該状態認知イベントの発生をユーザが認知するのに適した状態認知イベント姿勢となるよう、当該ロボットの可動部位に設けられる駆動部の駆動を制御する。したがって、状態認知イベントについて、ユーザがその発生を容易に把握することができる。そのため、状態認知イベントが発生した場合に、ユーザは容易に対応することができる。   According to the above configuration, when the state recognition event detection unit detects the occurrence of the state recognition event, the drive control unit detects the state recognition event suitable for the user to recognize the occurrence of the state recognition event. The driving of the driving unit provided in the movable part of the robot is controlled so as to be in the posture. Therefore, the user can easily grasp the occurrence of the state recognition event. Therefore, when a state recognition event occurs, the user can easily respond.

本発明の態様2に係る姿勢制御装置(1、2、3)は、上記態様1において、上記ロボット(100、200、300)の姿勢が上記状態認知イベント姿勢となっている状態において、上記ロボットに対するユーザ要求を検知する要求検知手段(要求検知部12)をさらに備え、上記駆動制御手段(駆動制御部14)は、上記要求検知手段によって上記ユーザ要求が検知された場合には、上記状態認知イベント姿勢を解除するよう、上記駆動部(24)の駆動を制御してもよい。   The posture control device (1, 2, 3) according to aspect 2 of the present invention is the robot according to aspect 1, in which the robot (100, 200, 300) is in the state recognition event posture. Request detecting means (request detecting section 12) for detecting a user request to the user, and the drive control means (drive control section 14) recognizes the state when the user request is detected by the request detecting means. You may control the drive of the said drive part (24) so that an event attitude | position may be cancelled | released.

上記構成によれば、姿勢制御装置は、ロボットに対してユーザが何らかの要求をした場合、状態認知イベントが継続している状態においても、状態認知イベント姿勢を解除する。そのため、ユーザは要求内容に対応するための行動を容易にとることができる。   According to the above configuration, when the user makes a request to the robot, the posture control device releases the state recognition event posture even in a state where the state recognition event continues. Therefore, the user can easily take an action to respond to the requested content.

本発明の態様3に係る姿勢制御装置(1、2、3)は、上記態様1において、上記ロボット(100、200、300)の姿勢が上記状態認知イベント姿勢となっている状態において、上記ロボットに対するユーザ要求を検知する要求検知手段(要求検知部12)と、上記状態認知イベントが継続している状態において、上記要求検知手段によって検知された上記ユーザ要求の要求内容を実行できるか否かを判定する実行可否判定手段(実行可否判定部13)と、をさらに備え、上記駆動制御手段(駆動制御部14)は、上記実行可否判定手段の判定結果に応じて、上記ロボットの姿勢変更の要否を決定してもよい。   The posture control device (1, 2, 3) according to aspect 3 of the present invention is the above-described robot in the state 1, wherein the robot (100, 200, 300) is in the state recognition event posture. Whether the request content of the user request detected by the request detection unit can be executed in a state where the request detection unit (request detection unit 12) for detecting a user request for the request and the state recognition event continues. An execution feasibility judgment unit (execution feasibility judgment unit 13) for determining, and the drive control unit (drive control unit 14) needs to change the posture of the robot according to a judgment result of the execution feasibility judgment unit. No may be determined.

上記構成によれば、姿勢制御装置は、状態認知イベントが継続している状態において、ロボットに対するユーザの要求内容に応じて上記姿勢変更の要否を決定する。そのため、無駄な上記姿勢変更を抑制することができ、ユーザは、状態認知イベントが継続していることを確実に認知することができる。   According to the above configuration, the posture control device determines whether or not the posture change is necessary according to the content of the user request for the robot in a state where the state recognition event continues. Therefore, the useless posture change can be suppressed, and the user can surely recognize that the state recognition event continues.

なお、上記態様3に係る姿勢制御装置(1、2、3)は、上記駆動制御手段(駆動制御部14)が、上記実行可否判定手段(実行可否判定部13)によって上記要求内容を実行できると判定された場合には、上記状態認知イベント姿勢を解除するよう、上記駆動部(24)の駆動を制御する構成であってもよい。   In the posture control device (1, 2, 3) according to the aspect 3, the drive control unit (drive control unit 14) can execute the request content by the execution determination unit (execution determination unit 13). When it is determined that, the drive of the drive unit (24) may be controlled so as to release the state recognition event posture.

上記構成によれば、姿勢制御装置は、ロボットに対するユーザ要求の要求内容が実行可能である場合、状態認知イベントが継続している状態においても状態認知イベント姿勢を解除する。そのため、ユーザは、上記要求内容が実行可能であることを容易に把握できるとともに、無駄な状態認知イベント姿勢の解除を抑制できる。また、状態認知イベント姿勢が解除された場合、ユーザは上記要求内容に応じた行動を容易にとることができる。   According to the above configuration, the posture control device cancels the state recognition event posture even when the state recognition event continues when the request content of the user request to the robot can be executed. Therefore, the user can easily grasp that the requested content can be executed, and can suppress the release of the useless state recognition event posture. Further, when the state recognition event posture is released, the user can easily take an action according to the request content.

また、上記態様3に係る姿勢制御装置(1、2、3)は、上記駆動制御手段(駆動制御部14)が、上記実行可否判定手段(実行可否判定部13)によって上記要求内容を実行できないと判定された場合には、上記状態認知イベント姿勢を維持するよう、上記駆動部(24)の駆動を制御する構成であってもよい。   In the attitude control device (1, 2, 3) according to the aspect 3, the drive control unit (drive control unit 14) cannot execute the request content by the execution determination unit (executability determination unit 13). When it is determined that, the driving of the driving unit (24) may be controlled so as to maintain the state recognition event posture.

上記構成によれば、ロボットに対してユーザが何らかの要求をしても、状態認知イベントが継続している状態において要求内容を実行することができない場合には、状態認知イベントが維持される。そのため、ユーザは、上記要求内容が実行不可能であることを容易に把握することができる。また、無駄な状態認知イベント姿勢の解除を抑制できることから、当該無駄な状態認知イベント姿勢の解除に基づくユーザの誤動作を防止できる。   According to the above configuration, even if the user makes a request to the robot, the state recognition event is maintained when the request content cannot be executed in a state where the state recognition event continues. Therefore, the user can easily grasp that the request content cannot be executed. Moreover, since cancellation | release of a useless state recognition event attitude | position can be suppressed, a user's malfunctioning based on cancellation | release of the said useless state recognition event attitude | position can be prevented.

本発明の態様4に係る姿勢制御装置(1、2、3)は、上記態様2において、上記駆動制御手段(駆動制御部14)は、上記ユーザ要求に対応する上記ロボット(100、200、300)の処理の終了した時点から、所定時間が経過した場合、上記ロボットの姿勢が、解除した上記状態認知イベント姿勢に復帰するよう、上記駆動部(24)の駆動を制御してもよい。   In the posture control device (1, 2, 3) according to the aspect 4 of the present invention, in the aspect 2, the drive control means (drive control unit 14) is configured such that the robot (100, 200, 300) responds to the user request. ), When the predetermined time has elapsed from the end of the process, the drive of the drive unit (24) may be controlled so that the posture of the robot returns to the released state recognition event posture.

上記構成によれば、状態認知イベントが継続している状態下でのユーザ要求に基づいて状態認知イベント姿勢が解除された場合でも、所定時間経過後は状態認知イベント姿勢に復帰する。そのため、状態認知イベント姿勢の解除状態が無駄に継続することがなく、ユーザは状態認知イベントが継続していることを再認知することができる。   According to the above configuration, even when the state recognition event posture is released based on a user request under a state in which the state recognition event continues, the state recognition event posture is restored after a predetermined time has elapsed. Therefore, the state recognition event posture release state does not continue unnecessarily, and the user can re-recognize that the state recognition event continues.

なお、上記態様4に係る姿勢制御装置(1、2、3)は、上記所定時間が、複数の上記状態認知イベントごとに設定されており、上記駆動制御手段(駆動制御部14)は、上記状態認知イベント検知手段(状態認知イベント検知部11)によって、上記複数の状態認知イベントのうちの1つが発生したことが検知されている状態において、上記終了時点から、検知された上記状態認知イベントに対して設定された所定時間が経過した場合に、上記ロボット(100、200、300)の姿勢が、解除した上記状態認知イベント姿勢に復帰するよう、上記駆動部(24)の駆動を制御する構成であってもよい。   In the posture control device (1, 2, 3) according to the aspect 4, the predetermined time is set for each of the plurality of state recognition events, and the drive control means (drive control unit 14) In a state where one of the plurality of state recognition events is detected by the state recognition event detection means (state recognition event detection unit 11), the detected state recognition event is detected from the end point. A configuration for controlling the drive of the drive unit (24) so that the posture of the robot (100, 200, 300) returns to the released state recognition event posture when a predetermined time set for the passage has elapsed. It may be.

例えば、発生した状態認知イベントが低電圧状態であれば、ユーザ要求に対するロボットの処理の終了後は、ユーザはより早期に低電圧状態を再認知すべきである。このように、状態認知イベントの種類によって、ユーザが当該状態認知イベントの継続を認知できない状態が許容される時間は異なる。上記構成によれば、状態認知イベントの種類に応じて所定時間が異なることから、より効率的に状態認知イベントの継続を再認知することができる。   For example, if the generated state recognition event is a low voltage state, the user should re-recognize the low voltage state at an earlier stage after the completion of the robot processing for the user request. Thus, the time when the state in which the user cannot recognize the continuation of the state recognition event is allowed depends on the type of the state recognition event. According to the said structure, since predetermined time changes according to the kind of state recognition event, the continuation of a state recognition event can be re-recognized more efficiently.

また、上記態様4に係る姿勢制御装置(1、2、3)は、上記所定時間が、ユーザが任意に設定することができる構成であってもよい。   Further, the posture control device (1, 2, 3) according to the aspect 4 may be configured such that the user can arbitrarily set the predetermined time.

上記構成によれば、所定時間についてのユーザカスタマイズが可能となることから、ユーザの嗜好に応じた状態認知イベント姿勢への復帰プロセスを実現することができる。   According to the above configuration, the user can be customized for a predetermined time, so that the process of returning to the state recognition event posture according to the user's preference can be realized.

本発明の態様5に係るロボット(100、200、300)は、上記態様1から4のいずれか一の態様に係る姿勢制御装置(1、2、3)を備えていてもよい。   The robot (100, 200, 300) according to the fifth aspect of the present invention may include the posture control device (1, 2, 3) according to any one of the first to fourth aspects.

上記構成によれば、ユーザが状態認知イベントの発生を容易に把握することが可能なロボットを実行することができる。ひいては、状態認知イベントが発生した場合に、ユーザが容易に対応することが可能なロボットを実現することができる。   According to the above configuration, it is possible to execute a robot that allows a user to easily grasp the occurrence of a state recognition event. As a result, it is possible to realize a robot that can be easily handled by the user when a state recognition event occurs.

本発明の各態様に係る姿勢制御装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記姿勢制御装置が備える各手段として動作させることにより上記姿勢制御装置をコンピュータにて実現させる姿勢制御装置の姿勢制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The posture control device according to each aspect of the present invention may be realized by a computer. In this case, the posture control device is realized by a computer by causing the computer to operate as each unit included in the posture control device. An attitude control program for the attitude control device and a computer-readable recording medium on which the attitude control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、ユーザが、通信圏外等の状態認知イベントの発生を容易に把握できるようにするために利用することができる。   The present invention can be used to enable a user to easily grasp the occurrence of a state recognition event such as out of communication range.

1、2、3 姿勢制御装置
11 状態認知イベント検知部(状態認知イベント検知手段)
12 要求検知部(要求検知手段)
13 実行可否判定部(実行可否判定手段)
14 駆動制御部(駆動制御手段)
24 駆動部
100、200、300 ロボット
1,2, 3 attitude controller 11 state recognition event detecting unit (state recognition event detection means)
12 Request detection part (request detection means)
13 Executability determination unit (executability determination means)
14 Drive control unit (drive control means)
24 Drive unit 100, 200, 300 Robot

Claims (4)

ロボットの内部状態が変化した後、その変化後の内部状態が継続していることについてのユーザの認知が必要となる事象である状態認知イベントが発生したことを検知する状態認知イベント検知手段と、
上記状態認知イベント検知手段によって上記状態認知イベントが発生したことが検知された場合に、上記ロボットの姿勢が、上記状態認知イベントの発生をユーザが認知するのに適した状態認知イベント姿勢となるよう、上記ロボットの可動部位に設けられる駆動部の駆動を制御する駆動制御手段と
上記ロボットの姿勢が上記状態認知イベント姿勢となっている状態において、上記ロボットに対するユーザ要求を検知する要求検知手段と、を備え、
上記駆動制御手段は、上記要求検知手段によって上記ユーザ要求が検知された場合には、上記状態認知イベント姿勢を解除するよう、上記駆動部の駆動を制御することを特徴とする姿勢制御装置。
A state recognition event detection means for detecting that a state recognition event that is an event that requires the user's recognition that the internal state after the change has continued after the internal state of the robot has changed;
When the state recognition event detecting means detects that the state recognition event has occurred, the posture of the robot is a state recognition event posture suitable for the user to recognize the occurrence of the state recognition event. Drive control means for controlling the drive of the drive unit provided in the movable part of the robot ;
Request detecting means for detecting a user request for the robot in a state where the posture of the robot is the state recognition event posture,
Said drive control means, when the user request is detected by said request detecting means, so as to release the state recognition event attitude, posture control device characterized that you control the drive of the drive unit.
上記駆動制御手段は、上記ユーザ要求に対応する上記ロボットの処理の終了した時点から、所定時間が経過した場合、上記ロボットの姿勢が、解除した上記状態認知イベント姿勢に復帰するよう、上記駆動部の駆動を制御することを特徴とする請求項に記載の姿勢制御装置。 The drive control means is configured to cause the robot to return to the released state recognition event posture when a predetermined time has elapsed from the end of the processing of the robot corresponding to the user request. The attitude control device according to claim 1 , wherein the driving of the attitude control device is controlled. ロボットの内部状態が変化した後、その変化後の内部状態が継続していることについてのユーザの認知が必要となる事象である状態認知イベントが発生したことを検知する状態認知イベント検知手段と、
上記状態認知イベント検知手段によって上記状態認知イベントが発生したことが検知された場合に、上記ロボットの姿勢が、上記状態認知イベントの発生をユーザが認知するのに適した状態認知イベント姿勢となるよう、上記ロボットの可動部位に設けられる駆動部の駆動を制御する駆動制御手段と、
上記ロボットの姿勢が上記状態認知イベント姿勢となっている状態において、上記ロボットに対するユーザ要求を検知する要求検知手段と、
上記状態認知イベントが継続している状態において、上記要求検知手段によって検知された上記ユーザ要求の要求内容の実行可否を判定する実行可否判定手段と、を備え、
上記駆動制御手段は、上記実行可否判定手段の判定結果に応じて、上記ロボットの姿勢変更の要否を決定することを特徴とする姿勢制御装置。
A state recognition event detection means for detecting that a state recognition event that is an event that requires the user's recognition that the internal state after the change has continued after the internal state of the robot has changed;
When the state recognition event detecting means detects that the state recognition event has occurred, the posture of the robot is a state recognition event posture suitable for the user to recognize the occurrence of the state recognition event. Drive control means for controlling the drive of the drive unit provided in the movable part of the robot;
In a state where the posture of the robot is the state recognition event posture, request detection means for detecting a user request for the robot;
In a state where the state recognition event is continuing, e Bei and a executability determination means for determining executability of the request content of the detected said user request by said request detection unit,
It said drive control means according to the determination result of the execution determination unit, attitude control device shall be the determining means determines the necessity of changing of the posture of the robot.
コンピュータを、請求項1からのいずれか1項に記載の姿勢制御装置における各手段として機能させるためのプログラム。
The program for functioning a computer as each means in the attitude | position control apparatus of any one of Claim 1 to 3 .
JP2014163855A 2014-08-11 2014-08-11 Attitude control device and program Expired - Fee Related JP6411128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014163855A JP6411128B2 (en) 2014-08-11 2014-08-11 Attitude control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014163855A JP6411128B2 (en) 2014-08-11 2014-08-11 Attitude control device and program

Publications (2)

Publication Number Publication Date
JP2016036899A JP2016036899A (en) 2016-03-22
JP6411128B2 true JP6411128B2 (en) 2018-10-24

Family

ID=55528450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014163855A Expired - Fee Related JP6411128B2 (en) 2014-08-11 2014-08-11 Attitude control device and program

Country Status (1)

Country Link
JP (1) JP6411128B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250434A1 (en) * 2019-06-14 2020-12-17 株式会社ロボ・ガレージ Thin portable communication terminal, and control method and control program thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003071765A (en) * 2001-09-04 2003-03-12 Sony Corp Robot device and input method therefor
JP2007214908A (en) * 2006-02-09 2007-08-23 Matsushita Electric Ind Co Ltd Communication terminal and accessory for communication terminal

Also Published As

Publication number Publication date
JP2016036899A (en) 2016-03-22

Similar Documents

Publication Publication Date Title
US20130197916A1 (en) Terminal device, speech recognition processing method of terminal device, and related program
JP6495606B2 (en) Information control device and program
US9842589B2 (en) Voice input device, voice input method and program
JP6411128B2 (en) Attitude control device and program
WO2018135276A1 (en) Speech and behavior control device, robot, control program, and control method for speech and behavior control device
WO2016002673A1 (en) Posture control device, robot, and program
WO2017051627A1 (en) Speech production apparatus and speech production method
JP6392062B2 (en) Information control device and program
WO2016052763A1 (en) Alarm control device and program
JP4042108B2 (en) Robot apparatus and control method thereof
JP4821489B2 (en) Robot apparatus and control method of robot apparatus
JP6686583B2 (en) Robots and programs
CN111730608B (en) Control device, robot, control method, and storage medium
JP6568601B2 (en) Robot, robot control method, and program
JP6628874B2 (en) Information processing device, robot, and control program
JP2007125621A (en) Motion planning device, motion planning method and motion planning program
JPWO2017094332A1 (en) Robot, robot control method, control program, and recording medium
JP6621648B2 (en) Information processing apparatus, control program, and information processing apparatus control method
JP2017049720A (en) Information processing device, electronic apparatus including information processing device control method of information processing device, and program
JP6356494B2 (en) robot
JP2019150893A (en) Robot control system, robot control method and robot control program
WO2022014609A1 (en) Information processing device and information processing method
US20230347527A1 (en) Communication system, control method, and storage medium
WO2017061210A1 (en) Notification control device and method for controlling notification control device
JP6872134B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180926

R150 Certificate of patent or registration of utility model

Ref document number: 6411128

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees