JP2016067834A - Notification control device and program - Google Patents

Notification control device and program Download PDF

Info

Publication number
JP2016067834A
JP2016067834A JP2014203420A JP2014203420A JP2016067834A JP 2016067834 A JP2016067834 A JP 2016067834A JP 2014203420 A JP2014203420 A JP 2014203420A JP 2014203420 A JP2014203420 A JP 2014203420A JP 2016067834 A JP2016067834 A JP 2016067834A
Authority
JP
Japan
Prior art keywords
notification
posture
event
robot
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014203420A
Other languages
Japanese (ja)
Other versions
JP6495606B2 (en
Inventor
暁 本村
Akira Motomura
暁 本村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014203420A priority Critical patent/JP6495606B2/en
Priority to PCT/JP2015/082270 priority patent/WO2016052765A1/en
Priority to US15/515,965 priority patent/US20170296935A1/en
Publication of JP2016067834A publication Critical patent/JP2016067834A/en
Application granted granted Critical
Publication of JP6495606B2 publication Critical patent/JP6495606B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/003Dolls specially adapted for a particular function not connected with dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Abstract

PROBLEM TO BE SOLVED: To surely allow a user to recognize an occurrence of a notification event.SOLUTION: A notification control device (1) comprises: a notification posture shift determination section (14) for determining whether or not a posture of a robot (100) can be shifted to a notification posture suitable for a user to recognize an occurrence of a notification event; and notification method determination section (15) for determining a notification method to notify the notification event on the basis of the determination result by the notification posture shift determination section (14).SELECTED DRAWING: Figure 1

Description

本発明は、報知イベント発生の報知を制御する報知制御装置およびプログラムに関する。   The present invention relates to a notification control device and a program for controlling notification of occurrence of a notification event.

従来、携帯端末における着信およびメール受信等を、端末本体または付属品の外形形状を変化させることで報知する技術が開示されている。例えば、特許文献1には、駆動パターン生成部において駆動パターン信号をリアルタイムで生成し、当該駆動パターン信号をアクチュエータに伝えることにより、通信端末の付属物または当該通信端末自体を構成する部材の形状を変化させて、発生したイベント(例えば、着呼、メール着信、またはデジタルテレビ放送の受信等)をユーザに報知するイベント報知機構が開示されている。   2. Description of the Related Art Conventionally, a technique for notifying incoming calls and mails received at a mobile terminal by changing the external shape of the terminal body or accessories has been disclosed. For example, in Patent Document 1, the drive pattern generation unit generates a drive pattern signal in real time, and transmits the drive pattern signal to the actuator, whereby the shape of the communication terminal accessory or the member constituting the communication terminal itself is defined. There is disclosed an event notification mechanism that changes and notifies a user of an event that has occurred (for example, an incoming call, an incoming mail, or reception of a digital television broadcast).

特開2007−214908号公報(2007年8月23日公開)JP 2007-214908 A (released on August 23, 2007)

しかしながら、特許文献1に開示されたイベント報知機講は、携帯端末に物が接触している、バッテリー残量が低下している等の、端末本体または付属品の外形形状を変化させることが適切でない状況において、当該状況に応じた報知方法を決定するものではない。したがって、上記のような状況であるにも拘らずその外形形状を変化させることにより、物との衝突によって携帯端末が破損する、当該外形形状の変化が中断する等の、ユーザがイベントの発生を認知できない状況が生じるという問題点があった。   However, the event notification disclosed in Patent Document 1 is appropriate to change the external shape of the terminal body or accessories such as an object in contact with the mobile terminal or a low battery level. However, the notification method according to the situation is not determined. Therefore, by changing the outer shape in spite of the situation as described above, the user can generate an event such as the mobile terminal being damaged by a collision with an object or the change in the outer shape being interrupted. There was a problem that an unrecognizable situation occurred.

上記の課題を解決するために、本発明の一態様に係る報知制御装置は、ロボットからの報知に対してユーザの対応が必要となる事象である報知イベントの発生を上記ユーザが認知するのに適した報知姿勢にロボットの姿勢を移行できるか否かを判定する報知姿勢移行判定手段と、上記報知姿勢移行判定手段による判定結果に基づいて、上記報知イベントを報知するための報知方法を決定する報知方法決定手段と、を備えている。   In order to solve the above-described problem, the notification control apparatus according to one aspect of the present invention allows the user to recognize the occurrence of a notification event that is an event that requires a user's response to notification from the robot. A notification posture transition determining unit that determines whether or not the posture of the robot can be transferred to a suitable notification posture and a notification method for notifying the notification event are determined based on a determination result by the notification posture transition determination unit. Notification method determining means.

本発明の一態様によれば、ユーザが報知イベントの発生を確実に認知できる。   According to one aspect of the present invention, a user can reliably recognize the occurrence of a notification event.

本発明の実施形態1に係るロボットの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the robot which concerns on Embodiment 1 of this invention. (a)は、上記ロボットの概略を示す正面図である。(b)は、上記ロボットの概略を示す背面図である。(c)は、上記ロボットの概略を示す側面図である。(A) is a front view which shows the outline of the said robot. (B) is a rear view showing an outline of the robot. (C) is a side view showing an outline of the robot. 上記ロボットの記憶部に格納されている報知姿勢テーブルの一例である。It is an example of the alerting | reporting attitude | position table stored in the memory | storage part of the said robot. 上記ロボットの記憶部に格納されている報知イベント発生テーブルの一例である。It is an example of the alerting | reporting event generation | occurrence | production table stored in the memory | storage part of the said robot. 上記ロボットのカメラ部を用いた報知姿勢への移行可否の判定方法を示す概略図である。It is the schematic which shows the determination method of the propriety of transfer to the alerting | reporting attitude | position using the camera part of the said robot. 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(報知イベントの発生が外部要因の場合)を示すフローチャートである。It is a flowchart which shows the control method of the alerting | reporting event generation | occurrence | production by the alerting control apparatus which concerns on Embodiment 1 of this invention (when generation | occurrence | production of a notification event is an external factor). 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(選択報知イベントの場合)を示すフローチャートである。It is a flowchart which shows the control method (in the case of a selection alerting event) of the alerting | reporting event generation | occurrence | production by the alerting control apparatus which concerns on Embodiment 1 of this invention. 本発明の実施形態1に係る報知制御装置による報知イベント発生の報知の制御方法(報知姿勢によらない報知方法として、画面表示、バイブレーション、または音出力で報知する場合)を示すフローチャートである。It is a flowchart which shows the control method of the alerting | reporting of alerting | reporting event generation | occurrence | production by the alerting control apparatus which concerns on Embodiment 1 of this invention (when notifying by a screen display, a vibration, or sound output as an alerting | reporting method not based on an alerting | reporting attitude | position). 本発明の実施形態2に係るロボットの記憶部に格納されている報知イベント優先度テーブルの一例である。It is an example of the alerting | reporting event priority table stored in the memory | storage part of the robot which concerns on Embodiment 2 of this invention. 本発明の実施形態2に係る報知制御装置による報知イベント発生の報知の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the alerting | reporting of alerting | reporting event generation | occurrence | production by the alerting | reporting control apparatus which concerns on Embodiment 2 of this invention. 本発明の実施形態3に係るロボットの記憶部に格納されている報知姿勢テーブルの一例である。It is an example of the alerting | reporting attitude | position table stored in the memory | storage part of the robot which concerns on Embodiment 3 of this invention. 本発明の実施形態3に係る報知制御装置による報知イベント発生の報知の制御方法を示すフローチャートである。It is a flowchart which shows the control method of the alerting | reporting of alerting | reporting event generation | occurrence | production by the alerting | reporting control apparatus which concerns on Embodiment 3 of this invention.

〔実施形態1〕
以下、本発明の実施の形態について、図1〜8を参照しながら、詳細に説明する。本実施形態以下の各実施形態においては、報知制御装置が携帯電話機能付きの2足歩行ヒューマノイドロボットに備えられているものとして説明する。なお、アニメキャラクタの戦闘ロボットをはじめとするロボット全般に報知制御装置が備えられていてもよい。
Embodiment 1
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. In each of the following embodiments, a description will be given assuming that the notification control device is provided in a biped walking humanoid robot with a mobile phone function. Note that a notification control device may be provided for all robots including anime character battle robots.

(ロボットの概要) まず、図2を参照してロボット100の概要について説明する。図2の(a)は、本実施形態に係るロボット100の概略を示す正面図である。また、図2の(b)は、ロボット100の概略を示す背面図である。さらに、図2の(c)は、ロボット100の概略を示す側面図である。   (Outline of Robot) First, an outline of the robot 100 will be described with reference to FIG. FIG. 2A is a front view showing an outline of the robot 100 according to the present embodiment. FIG. 2B is a rear view illustrating the outline of the robot 100. Further, FIG. 2C is a side view showing an outline of the robot 100.

図2の(a)に示すように、ロボット100は、頭部100a、胴体部100b、腕部100c、脚部100d、および足部100eで構成される。頭部100aは首部100gを介して、腕部100cは肩関節部100hを介して、脚部100dは脚関節部100iを介して、それぞれ胴体部100bに対して可動に接続されている。また、足部100eは足関節部100jを介して脚部100dに対して、可動に接続されている。首部100gおよび各関節部には、後述するサーボモータ23aが内蔵されており、当該サーボモータ23aが駆動することによって、頭部100a、腕部100c、脚部100d、および足部100eはそれぞれ可動する。さらに、頭部100aの一部を構成する口部100lおよび目部100nには後述するスピーカ部21およびカメラ部20が内蔵され、足部100eの一部を構成する足裏部100fには後述するマイク部25が内蔵されている。   As shown in FIG. 2A, the robot 100 includes a head portion 100a, a torso portion 100b, arm portions 100c, leg portions 100d, and foot portions 100e. The head 100a is movably connected to the body 100b via the neck 100g, the arm 100c via the shoulder joint 100h, and the leg 100d via the leg joint 100i. Further, the foot part 100e is movably connected to the leg part 100d via the foot joint part 100j. A servo motor 23a, which will be described later, is built in the neck portion 100g and each joint portion. When the servo motor 23a is driven, the head portion 100a, the arm portion 100c, the leg portion 100d, and the foot portion 100e are movable. . Further, the mouth portion 100l and the eye portion 100n constituting part of the head portion 100a incorporate a speaker portion 21 and a camera portion 20 described later, and the foot sole portion 100f constituting a part of the foot portion 100e will be described later. A microphone unit 25 is incorporated.

次に、図2の(b)および(c)に示すように、胴体部100bの一部を構成する背中部100kには、後述する表示部22が設けられている。   Next, as shown in FIGS. 2B and 2C, a display unit 22 to be described later is provided on the back part 100k constituting a part of the body part 100b.

(ロボットの具体的構成) 次に、ロボット100の具体的構成について、図1、3および4を参照しながら説明する。図1は、ロボット100の具体的構成を示すブロック図である。図1に示すように、ロボット100は、制御部10、カメラ部20、スピーカ部21、表示部22、駆動部23、操作入力部24、マイク部25、送受信部26、アンテナ部27、バッテリー部28、記憶部29、および状態検知部30を備えている。   (Specific Configuration of Robot) Next, a specific configuration of the robot 100 will be described with reference to FIGS. FIG. 1 is a block diagram showing a specific configuration of the robot 100. As shown in FIG. 1, the robot 100 includes a control unit 10, a camera unit 20, a speaker unit 21, a display unit 22, a drive unit 23, an operation input unit 24, a microphone unit 25, a transmission / reception unit 26, an antenna unit 27, and a battery unit. 28, a storage unit 29, and a state detection unit 30.

制御部10は、ロボット100を統括的に制御するものであり、報知制御装置1を備えている。報知制御装置1は、後述する報知イベント発生の報知を制御するための各種処理を統括するものであり、その詳細については後述する。   The control unit 10 comprehensively controls the robot 100 and includes a notification control device 1. The notification control apparatus 1 supervises various processes for controlling notification of occurrence of a notification event, which will be described later, and details thereof will be described later.

カメラ部20は、被写体を撮像する撮像部であり、撮像した画像データを後述する報知姿勢移行判定部14に送信する。スピーカ部21は、音声データを含む情報を再生する機能と、ユーザ以外にも聞こえるように音声を出力するスピーカとを備えた再生部である。表示部22は、ロボット100に装備されている各種機能(アプリケーションソフト)が実行されることに起因する画像等の各種画像を表示する。操作入力部24は、入力されたユーザ操作を取得するものである。マイク部25は、例えば通話中の音声を集音する集音器である。送受信部26は、アンテナ部27を介して音声データ等の各種データの送受信を行う。バッテリー部28は、ロボット100を構成する各部に電力の供給を行う。駆動部23は、ロボット100における頭部100a等の各可動部位を駆動するものであり、首部100gおよび各関節部に対応する数のサーボモータ23aで構成される。   The camera unit 20 is an imaging unit that captures an image of a subject, and transmits the captured image data to a notification posture transition determination unit 14 described later. The speaker unit 21 is a reproducing unit that includes a function of reproducing information including audio data and a speaker that outputs audio so that it can be heard by non-users. The display unit 22 displays various images such as images resulting from the execution of various functions (application software) installed in the robot 100. The operation input unit 24 acquires an input user operation. The microphone unit 25 is, for example, a sound collector that collects sound during a call. The transmission / reception unit 26 transmits / receives various data such as audio data via the antenna unit 27. The battery unit 28 supplies power to each unit constituting the robot 100. The drive unit 23 drives each movable part such as the head 100a in the robot 100, and includes a number of servomotors 23a corresponding to the neck 100g and each joint.

状態検知部30は、ロボット100と障害物との位置関係を検知し、検知結果を後述する報知姿勢移行判定部14に送信するものであり、接触センサ30aおよび近接センサ30bを備えている。接触センサ30aは、ロボット100と障害物とが接触しているか否かを検知するものであり、静電容量式センサ、または感圧式センサ等が用いられる。近接センサ30bは、ロボット100と障害物とが近接しているか否か、すなわち、ロボット100の特定の可動部位が僅かでも動けば当該可動部位に障害物が接触してしまう状態にあるか否かを検知する。近接センサ30bとしては、静電容量式センサの他、高周波発振式センサ、または磁気式センサ等が用いられる。なお、状態検知部30は、少なくとも接触センサ30aまたは近接センサ30bのいずれか一つを備えていればよい。また、状態検知部30は、ロボット100の各可動部位に設けられる(図示しない)。   The state detection unit 30 detects the positional relationship between the robot 100 and the obstacle, and transmits the detection result to the notification posture transition determination unit 14 described later, and includes a contact sensor 30a and a proximity sensor 30b. The contact sensor 30a detects whether or not the robot 100 is in contact with an obstacle, and a capacitance type sensor, a pressure sensitive sensor, or the like is used. The proximity sensor 30b determines whether the robot 100 and the obstacle are close to each other, that is, whether the obstacle is in contact with the movable part if the specific movable part of the robot 100 moves even slightly. Is detected. As the proximity sensor 30b, a high-frequency oscillation sensor, a magnetic sensor, or the like is used in addition to a capacitance sensor. The state detection unit 30 only needs to include at least one of the contact sensor 30a and the proximity sensor 30b. In addition, the state detection unit 30 is provided at each movable part of the robot 100 (not shown).

次に、記憶部29の具体的構成について説明する。記憶部29は、報知イベント発生テーブル29a、報知姿勢テーブル29b、および制御部10が実行する各種の制御プログラム等を記憶するものである。記憶部29は、例えばハードディスク、フラッシュメモリなどの不揮発性の記憶装置によって構成される。なお、報知姿勢テーブル29cおよび報知イベント優先度テーブル29dの説明は後述する。   Next, a specific configuration of the storage unit 29 will be described. The storage unit 29 stores a notification event generation table 29a, a notification posture table 29b, various control programs executed by the control unit 10, and the like. The storage unit 29 is configured by a nonvolatile storage device such as a hard disk or a flash memory. The notification attitude table 29c and the notification event priority table 29d will be described later.

図3は、記憶部29に記憶されている報知姿勢テーブル29bの一例である。報知イベントは、音声着信等の、ロボット100からの報知に対してユーザの対応が必要となる事象である。報知イベントとしては、音声着信、メール着信等のロボット100の外部に発生要因があるものの他、選択報知イベント、すなわち、アラーム等のロボット100の内部に発生要因があるものも含まれる。報知姿勢は、報知イベントの発生をユーザが認知するのに適したロボット100の姿勢である。さらに、報知姿勢情報は、報知姿勢に対応する各サーボモータ23aの回転位置データである。   FIG. 3 is an example of the notification posture table 29 b stored in the storage unit 29. The notification event is an event that requires the user to respond to notification from the robot 100 such as an incoming voice call. The notification event includes not only events that occur outside the robot 100, such as incoming voice calls, incoming mails, but also events that occur inside the robot 100, such as selected notification events, that is, alarms. The notification posture is a posture of the robot 100 suitable for the user to recognize the occurrence of the notification event. Further, the notification attitude information is rotational position data of each servo motor 23a corresponding to the notification attitude.

具体的には、図3のNo1に示すように、報知イベントとしての音声着信と報知姿勢(A1)とが対応付けられている。報知姿勢(A1)は、足裏部100fに設けられたマイク部25がユーザの口元に位置し、口部100lに設けられたスピーカ部21がユーザの耳元に位置するよう、脚部100dが腹部100m側に傾斜したロボット100の姿勢であり、ユーザがロボット100を把持して通話しやすく、音声着信があったことをユーザが連想しやすい。また、音声着信および報知姿勢(A1)と、当該報知姿勢(A1)に対応する第1〜第nサーボモータの回転位置データα=a1〜δ=n1(報知姿勢情報)とが対応付けられている。なお、上記回転位置データα〜δは、a11<α<a12〜n11<δ<n12(図3のNo2参照)のような、一定範囲内にある値をすべて包含するようにしてもよい。   Specifically, as shown in No. 1 in FIG. 3, a voice incoming call as a notification event is associated with a notification posture (A1). In the notification posture (A1), the leg portion 100d is placed on the abdomen so that the microphone portion 25 provided on the sole portion 100f is located at the user's mouth and the speaker portion 21 provided on the mouth portion 100l is located at the user's ear. It is the posture of the robot 100 inclined to the 100 m side, and it is easy for the user to hold the robot 100 and make a call, and it is easy for the user to associate a voice call. Further, the incoming voice call and notification posture (A1) is associated with the rotational position data α = a1 to δ = n1 (notification posture information) of the first to n-th servo motors corresponding to the notification posture (A1). Yes. The rotational position data α to δ may include all values within a certain range such as a11 <α <a12 to n11 <δ <n12 (see No. 2 in FIG. 3).

上記対応付けは、報知イベントが、アラーム、TV再生およびバッテリー残量低下の場合も同様である。図3のNo3および4に示すように、ユーザによる緊急の対応が必要であることを当該ユーザが連想しやすい、腕部100cのいずれか一方を上げたロボット100の姿勢がアラームに対応付けられた報知姿勢(A2)となる。次に、図3のNo5および6に示すように、ユーザが表示部22を視認しやすい姿勢でありTV再生されたことをユーザが連想しやすい、胴体部100bが傾斜したロボット100の姿勢がTV再生に対応付けられた報知姿勢(A4)となる。次に、図3のNo7および8に示すように、ロボット100の充電に適した姿勢でありバッテリー残量が低下したことをユーザが連想しやすい、胴体部100bと脚部100dとのなす角度が略90度になる座り姿勢がバッテリー残量低下に対応付けられた報知姿勢(A5)となる。なお、報知姿勢は、ロボット100の特定の可動部位が作動している状態であってもよい。例えば、図3のNo3および4に示すように、アラームに対応付けられた報知姿勢として、腕部100cの一方を作動させて、ロボット100が手を振っているような姿勢(A3)を採用してもよい。   The association is the same when the notification event is an alarm, TV playback, and low battery level. As shown in No. 3 and No. 4 in FIG. 3, the posture of the robot 100 with one of the arms 100c raised, which is easily associated with the user's need for urgent action, is associated with the alarm. It becomes a notification posture (A2). Next, as shown in Nos. 5 and 6 in FIG. 3, the posture of the robot 100 with the body portion 100b inclined is TV, in which the user can easily recognize the display unit 22 and the TV playback is easy to associate. The notification posture (A4) associated with the reproduction is set. Next, as shown in No. 7 and No. 8 in FIG. 3, the angle between the trunk portion 100b and the leg portion 100d is a posture suitable for charging the robot 100 and the user can easily associate that the remaining battery level is low. A sitting posture that is approximately 90 degrees is a notification posture (A5) associated with a decrease in the remaining battery level. The notification posture may be a state where a specific movable part of the robot 100 is operating. For example, as shown in No. 3 and No. 4 in FIG. 3, a posture (A3) in which one of the arm portions 100c is operated and the robot 100 is waving as the notification posture associated with the alarm is adopted. May be.

次に、図4は、記憶部29に記憶されている報知イベント発生テーブル29aの一例である。選択報知イベントは、ユーザによって選択された報知イベントであり、ロボット100の内部に発生要因があるものをいう。選択報知イベント発生条件は、選択報知イベントの発生に必要な条件でありユーザが任意に設定できる。具体的には、ユーザが、選択報知イベントとして「第1アラーム(目覚ましアラーム)」を選択し、選択報知イベント発生条件として「毎日7:00」を設定した場合、これらのデータが対応付けられて報知イベント発生テーブル29aに記録される。これにより「毎日7:00に第1アラームが鳴る」という処理が発生する(図4のNo1)。図4のNo2からNo4における選択報知イベントの場合も上記と同様である。   Next, FIG. 4 is an example of the notification event occurrence table 29 a stored in the storage unit 29. The selection notification event is a notification event selected by the user and refers to an event that is generated inside the robot 100. The selection notification event generation condition is a condition necessary for the generation of the selection notification event, and can be arbitrarily set by the user. Specifically, when the user selects “first alarm (alarm alarm)” as the selection notification event and sets “7:00 every day” as the selection notification event occurrence condition, these data are associated with each other. It is recorded in the notification event occurrence table 29a. As a result, a process of “the first alarm sounds at 7:00 every day” occurs (No. 1 in FIG. 4). The same is true for the selection notification events in No. 2 to No. 4 in FIG.

次に、報知制御装置1の具体的構成について説明する。報知制御装置1は、発生条件判定部11、報知イベント発生部12、報知イベント検知部13、報知姿勢移行判定部14、報知方法決定部15、報知姿勢移行部16、および報知方法変更部17を備えている。   Next, a specific configuration of the notification control device 1 will be described. The notification control device 1 includes a generation condition determination unit 11, a notification event generation unit 12, a notification event detection unit 13, a notification posture transition determination unit 14, a notification method determination unit 15, a notification posture transition unit 16, and a notification method change unit 17. I have.

発生条件判定部11は、選択報知イベント発生条件を充足しているか否かを判定する。報知イベント発生部12は、発生条件判定部11から選択報知イベント発生条件を充足しているとの判定結果を受信した場合に、選択報知イベントを発生させる。報知イベント検知部13は、報知イベント(選択報知ベントを含む)の発生を検知する。   The generation condition determination unit 11 determines whether or not the selection notification event generation condition is satisfied. The notification event generation unit 12 generates a selection notification event when receiving a determination result that the selection notification event generation condition is satisfied from the generation condition determination unit 11. The notification event detection unit 13 detects the occurrence of a notification event (including a selection notification vent).

報知姿勢移行判定部14は、報知イベント検知部13から報知イベント(選択報知ベントを含む)の発生を検知した旨の検知結果を受信した場合に、ロボット100の姿勢を発生した報知イベントに対応付けられた報知姿勢に移行できるか否かを判定する。   When the notification posture transition determination unit 14 receives a detection result indicating that the generation of a notification event (including a selection notification vent) has been detected from the notification event detection unit 13, the notification posture transition determination unit 14 associates the notification posture transition determination unit 14 with the notification event that generated the posture of the robot 100. It is determined whether or not it is possible to shift to the notified posture.

報知方法決定部15は、報知姿勢移行判定部14から受信した判定結果に応じて、発生した報知イベントの報知方法を決定する。具体的には、報知姿勢移行判定部14から報知姿勢に移行できる旨の判定結果を受信した場合、報知方法決定部15は、発生した報知イベントを当該報知イベントに対応付けられた報知姿勢によって報知することを決定する。一方、報知姿勢移行判定部14から報知姿勢に移行できない旨の判定結果を受信した場合、報知方法決定部15は、発生した報知イベントをロボット100の姿勢移行を伴わない方法によって報知することを決定する。そして、上記方法で報知する場合に必要となるロボット100の各部材を作動させる。本実施形態では、ロボット100の姿勢移行を伴わない報知方法として、表示部22の表示画面に報知イベントの発生を表示する方法、スピーカ部21から発生した報知イベントの種類に応じて異なった音を出力(報知イベントの種類に拘らず、特定の音を出力してもよい)する方法およびロボット100本体を振動部(図示しない)によりバイブレーションさせる方法を例に挙げている。しかし、これら以外の方法で報知してもよいし、これらの方法を複数組み合わせて報知してもよい。   The notification method determination unit 15 determines a notification method of the generated notification event according to the determination result received from the notification posture transition determination unit 14. Specifically, when the determination result indicating that the notification posture transition determination unit 14 can shift to the notification posture is received, the notification method determination unit 15 notifies the generated notification event by the notification posture associated with the notification event. Decide what to do. On the other hand, when the determination result indicating that the transition to the notification posture cannot be performed is received from the notification posture transition determination unit 14, the notification method determination unit 15 determines to notify the generated notification event by a method that does not involve the posture transition of the robot 100. To do. Then, each member of the robot 100 necessary for notification by the above method is operated. In the present embodiment, as a notification method that does not accompany the posture change of the robot 100, a method of displaying the occurrence of a notification event on the display screen of the display unit 22, and a different sound depending on the type of the notification event generated from the speaker unit 21. An example is a method of outputting (a specific sound may be output regardless of the type of notification event) and a method of vibrating the robot 100 main body by a vibration unit (not shown). However, it may be notified by a method other than these, or a combination of these methods may be notified.

報知姿勢移行部16は、報知方法決定部15から報知姿勢によって報知する旨の決定結果を受信した場合、ロボット100の姿勢が報知姿勢に移行するよう各サーボモータ23aの駆動を制御する。また、報知姿勢移行部16は、報知姿勢への移行過程において移行妨害事象の発生を検知した場合には当該報知姿勢への移行を停止し、当該移行妨害事象の解消を検知した場合には停止していた当該報知姿勢への移行を再開する。ここで、移行妨害事象とは、報知姿勢への移行過程において発生した、当該報知姿勢への移行を妨げる事象をいう。例えば、報知姿勢への移行途中において、障害物と接触したりバッテリー残量が閾値以下に低下したりしたこと等が移行妨害事象に該当する。そして、これらの事象は、カメラ部20が撮像した画像および状態検知部30を介して、または直接、報知姿勢移行部16によって検知される。   When the notification posture transition unit 16 receives the determination result indicating that the notification method is notified from the notification method determination unit 15, the notification posture transition unit 16 controls the driving of each servo motor 23 a so that the posture of the robot 100 is shifted to the notification posture. The notification posture transition unit 16 stops the transition to the notification posture when detecting the occurrence of the transition interference event in the transition process to the notification posture, and stops when the cancellation of the transition interference event is detected. The transition to the notification posture is resumed. Here, the transition obstruction event refers to an event that occurs during the transition process to the notification posture and prevents the transition to the notification posture. For example, during the transition to the notification posture, contact with an obstacle or the remaining battery level falls below a threshold corresponds to the transition obstruction event. These events are detected by the notification posture transition unit 16 via the image captured by the camera unit 20 and the state detection unit 30 or directly.

報知方法変更部17は、報知姿勢への移行の停止を検知した場合、発生した報知イベントの報知方法をロボット100の姿勢移行を伴わない方法に変更する。一方、報知姿勢への移行の再開を検知した場合、報知方法変更部17は、ロボット100の姿勢移行を伴わない報知方法による報知を終了させる。ここで、ロボット100の姿勢移行を伴わない報知方法として、画面表示による方法、音出力による報知方法またはバイブレーションによる報知方法のいずれか一つとしてもよいし、これら複数の報知方法をユーザが任意に選択できるようにしてもよい。また、これらのうちの複数の方法を組み合わせた報知方法に変更されるようにしてもよい。さらに、例えば、マナーモード中であればバイブレーションによる方法が選択され、バッテリー残量が低下している場合には電力消費の少ない方法(例えば、音出力)が選択されるように、ロボット100の状態に応じて適切な報知方法が自動的に選択されるようにしてもよい。   When detecting the stop of the transition to the notification posture, the notification method changing unit 17 changes the notification method of the generated notification event to a method that does not involve the posture change of the robot 100. On the other hand, when the restart of the transition to the notification posture is detected, the notification method change unit 17 ends the notification by the notification method that does not involve the posture shift of the robot 100. Here, as a notification method that does not accompany the posture change of the robot 100, any one of a screen display method, a sound output notification method, or a vibration notification method may be used. You may make it selectable. Moreover, you may make it change to the alerting | reporting method which combined the some method of these. Further, for example, the state of the robot 100 is selected so that a vibration method is selected when the manner mode is selected, and a method (for example, sound output) with low power consumption is selected when the remaining battery level is low. An appropriate notification method may be automatically selected according to the situation.

(報知姿勢への移行可否の判定方法) 次に、報知姿勢移行判定部14による報知姿勢への移行可否の判定方法について説明する。まず、報知姿勢移行判定部14は、バッテリー部28のバッテリー残量を検知することで、当該バッテリー残量が特定の閾値以上残っているか否かを判定する。なお、単に各サーボモータ23aを駆動するのに必要な電力量を上記閾値としてもよいし、上記判定時におけるロボット100の姿勢から報知姿勢に移行するのに必要な電力量を上記閾値としてもよい。ここで、上記姿勢移行に必要な電力量は、例えば、上記姿勢移行した場合の各サーボモータ23aの回転角度を測定し、当該各回転角度に単位回転角度(例えば、1°)当たりの消費電力量を乗じたものを合計することで算出してもよい。また、上記閾値は、ロボット100の生産時にあらかじめ設定されてもよいし、ユーザが任意に設定できるようにしてもよい。そして、バッテリー残量が特定の閾値よりも少ないと判定した場合、報知姿勢移行判定部14は、報知姿勢に移行できないと判定する。   (Method for Determining Whether to Change to Notification Position) Next, a method for determining whether to change to the notification posture by the notification posture transition determination unit 14 will be described. First, the notification posture transition determination unit 14 detects whether or not the remaining battery level is equal to or greater than a specific threshold by detecting the remaining battery level of the battery unit 28. Note that the amount of power required to drive each servo motor 23a may be simply used as the threshold value, or the amount of power required to shift from the posture of the robot 100 to the notification posture at the time of determination may be used as the threshold value. . Here, the amount of power required for the posture transition is, for example, the measurement of the rotation angle of each servo motor 23a when the posture transition is performed, and the power consumption per unit rotation angle (for example, 1 °) for each rotation angle. You may calculate by summing what multiplied the quantity. The threshold value may be set in advance when the robot 100 is produced, or may be arbitrarily set by the user. When it is determined that the remaining battery level is less than the specific threshold, the notification posture transition determination unit 14 determines that the notification posture cannot be transferred.

次に、報知姿勢移行判定部14は、バッテリー残量が特定の閾値以上であると判定した場合、報知姿勢への移行に対応するロボット100の各可動部位に設けられたサーボモータ23aを駆動することで、当該各可動部位の少なくとも一つが障害物と衝突するか否かを判定する。まず、接触センサ30aによる検知結果に基づいて上記衝突の有無を判定する。次に、接触センサ30aから、上記各可動部位のいずれについても障害物と接触していない旨の検知結果を受信した場合、報知姿勢移行判定部14は、近接センサ30bによる検知結果に基づいて上記衝突の有無を判定する。   Next, when the notification posture transition determination unit 14 determines that the remaining battery level is equal to or greater than a specific threshold value, the notification posture transition determination unit 14 drives the servo motors 23a provided in each movable part of the robot 100 corresponding to the transition to the notification posture. Thus, it is determined whether or not at least one of the movable parts collides with an obstacle. First, the presence or absence of the collision is determined based on the detection result of the contact sensor 30a. Next, when a detection result indicating that none of the movable parts is in contact with an obstacle is received from the contact sensor 30a, the notification posture transition determination unit 14 performs the above based on the detection result by the proximity sensor 30b. Determine if there is a collision.

次に、近接センサ30bから、上記各可動部位のいずれについても障害物と近接していない旨の検知結果を受信した場合、報知姿勢移行判定部14は、カメラ部20から受信した画像データに基づいて上記衝突の有無を判定する。具体的には、報知姿勢テーブル29bを参照して、上記画像データに基づく衝突の有無の判定時におけるロボット100の姿勢から報知姿勢に移行するまでの上記各可動部位の動作経路をシミュレートする。そして、上記画像データにおける上記動作経路の領域を算出し、この領域内に上記画像データに記録されている障害物の全部または一部が存在するか否かを判定することで、上記衝突の有無を判定する。なお、ロボット100を鞄等に収納した場合には、当該ロボット100の周囲が暗くなっていることでカメラ部20を用いた判定を行うことができない可能性が高い。このような場合には、報知姿勢移行判定部14は、画像データまたはロボット100に別途備えられた照度センサ(図示しない)の検知結果に基づいて当該ロボット100の周囲が暗いと判定すれば、上記各可動部位の少なくとも一つが障害物と衝突すると判定してもよい。   Next, when the detection result indicating that none of the movable parts is close to the obstacle is received from the proximity sensor 30b, the notification posture transition determination unit 14 is based on the image data received from the camera unit 20. To determine the presence or absence of the collision. Specifically, referring to the notification posture table 29b, the operation paths of the respective movable parts from the posture of the robot 100 to the notification posture at the time of determining whether or not there is a collision based on the image data are simulated. Then, by calculating the region of the motion path in the image data and determining whether or not all or part of the obstacles recorded in the image data exist in this region, the presence or absence of the collision Determine. When the robot 100 is stored in a bag or the like, there is a high possibility that the determination using the camera unit 20 cannot be performed because the surroundings of the robot 100 are dark. In such a case, if the notification posture transition determination unit 14 determines that the surrounding of the robot 100 is dark based on the image data or the detection result of an illuminance sensor (not shown) separately provided in the robot 100, It may be determined that at least one of the movable parts collides with an obstacle.

例えば、図5の(a)に示すように、アラームが鳴った場合における上記判定時のロボット100の姿勢が直立姿勢であれば、報知姿勢移行判定部14は、当該直立姿勢からアラームに対応付けられた報知姿勢(A2;右側の腕部100cを上げた姿勢)に移行するまでに右側の腕部100cが作動する経路をシミュレートする。そして、図5の(b)に示すように、左側の腕部100c側の領域に障害物が存在した場合には右側の腕部100cの動作経路領域内に当該障害物が存在しないことから、報知姿勢移行判定部14は、右側の腕部100cは当該障害物と衝突しないと判定する。一方、図5の(c)に示すように、右側の腕部100cの動作経路領域内に当該障害物が存在する場合には、報知姿勢移行判定部14は、右側の腕部100cは当該障害物と衝突すると判定する。   For example, as shown in FIG. 5A, if the posture of the robot 100 at the time of the determination when the alarm is sounded is an upright posture, the notification posture transition determination unit 14 associates the alarm from the upright posture with the alarm. A path along which the right arm 100c operates until the transition to the notified posture (A2; posture with the right arm 100c raised) is simulated. As shown in FIG. 5B, when there is an obstacle in the left arm 100c side area, the obstacle does not exist in the movement path area of the right arm 100c. The notification posture transition determination unit 14 determines that the right arm 100c does not collide with the obstacle. On the other hand, as shown in FIG. 5C, when the obstacle exists in the movement path region of the right arm 100c, the notification posture transition determination unit 14 determines that the right arm 100c Judge that it collides with an object.

そして、カメラ部20を用いた判定によっても上記各可動部位のいずれについても障害物と衝突しないと判定した場合、報知姿勢移行判定部14は、報知姿勢に移行できると判定する。一方、上記各可動部位の少なくとも一つが障害物と接触している場合、上記各可動部位の少なくとも一つが障害物と近接している場合、または報知姿勢への移行に対応した上記各可動部位の動作経路領域内に障害物の全部または一部が存在する場合、報知姿勢移行判定部14は、報知姿勢に移行できないと判定する。   If it is determined by the determination using the camera unit 20 that none of the movable parts collides with an obstacle, the notification posture transition determination unit 14 determines that the notification posture can be shifted. On the other hand, when at least one of the movable parts is in contact with an obstacle, when at least one of the movable parts is close to the obstacle, or when the movable parts corresponding to the transition to the notification posture are When all or part of the obstacle exists in the motion path area, the notification posture transition determination unit 14 determines that the transition to the notification posture cannot be made.

なお、接触センサ30a、近接センサ30bおよびカメラ部20を用いた各判定の判定順序は、上記順序に限定されず、ユーザが任意に設定してもよい。また、報知姿勢への移行判定に上記3つの部材をすべて用いる必要はなく、別の部材を用いてもよい。   In addition, the determination order of each determination using the contact sensor 30a, the proximity sensor 30b, and the camera part 20 is not limited to the said order, A user may set arbitrarily. Moreover, it is not necessary to use all the three members for the determination of the transition to the notification posture, and another member may be used.

(報知制御装置による報知イベント発生の報知の制御方法) 次に、図6を用いて、報知イベントの発生が外部要因の場合における、報知制御装置1による報知イベント発生の報知の制御方法について説明する。図6は、上記制御方法を示すフローチャートである。   (Control method of notification of occurrence of notification event by notification control device) Next, a control method of notification of occurrence of a notification event by the notification control device 1 when the occurrence of the notification event is an external factor will be described using FIG. . FIG. 6 is a flowchart showing the control method.

図6に示すように、まず、報知イベント検知部13は、報知イベントの発生を検知した場合( ステップ100でYES;以下、S100でYと略記する)、その検知結果を報知姿勢移行判定部14に送信する。一方、報知イベントの発生を検知しない場合(S100でNO;以下、Nと略記する)、報知イベント検知部13は、報知イベント発生の有無を再び検知する。次に、報知姿勢移行判定部14は、S100でYと判定した場合、発生した報知イベントに対応付けられた報知姿勢を、報知姿勢テーブル29bを参照することによって決定する(S101)。次に、報知姿勢移行判定部14は、駆動部23を駆動するのに必要なバッテリー残量があるか否か(S102)、および駆動部23を駆動した場合に作動した可動部位が障害物と衝突するか否か(S103)を判定する。そして、バッテリー残量があると判定し(S102でY)、かつ、障害物と衝突しないと判定した場合(S103でY)、報知姿勢移行判定部14は、上記決定した報知姿勢に移行できると判定する(S104)。一方、S102またはS103でNと判定した場合、報知姿勢移行判定部14は、上記決定した報知姿勢に移行できないと判定する(S115)。   As shown in FIG. 6, first, when the notification event detection unit 13 detects the occurrence of a notification event (YES in step 100; hereinafter abbreviated as Y in S100), the detection result is notified to the notification posture transition determination unit 14. Send to. On the other hand, when the occurrence of the notification event is not detected (NO in S100; hereinafter abbreviated as N), the notification event detection unit 13 detects again whether or not the notification event has occurred. Next, when the notification posture transition determination unit 14 determines Y in S100, the notification posture transition determination unit 14 determines the notification posture associated with the generated notification event by referring to the notification posture table 29b (S101). Next, the notification posture transition determination unit 14 determines whether or not there is a remaining battery level necessary to drive the drive unit 23 (S102), and the movable part that is activated when the drive unit 23 is driven is an obstacle. It is determined whether or not a collision occurs (S103). When it is determined that there is a remaining battery level (Y in S102) and it is determined that the battery does not collide with an obstacle (Y in S103), the notification posture transition determination unit 14 can shift to the determined notification posture. Determine (S104). On the other hand, when it determines with N by S102 or S103, the notification attitude transition determination part 14 determines with it not being able to transfer to the determined notification attitude (S115).

次に、報知方法決定部15は、報知姿勢移行判定部14から報知姿勢に移行できる旨の判定結果を受信した場合、報知イベントの発生を報知姿勢によって報知することを決定し、その決定結果を報知姿勢移行部16に送信する(S105)。そして、前記決定結果を受信した報知姿勢移行部16は、報知姿勢への移行を開始させた後(S106)、移行妨害事象の発生の有無を検知する(S107)。そして、移行妨害事象の発生を検知しない場合(S107でN)、報知姿勢移行部16は報知姿勢への移行を継続し(S113)、報知姿勢への移行完了後、当該報知姿勢で報知イベントの発生を報知する(S114)。一方、移行妨害事象の発生を検知した場合(S107でY)、報知姿勢移行部16は報知姿勢への移行を停止し(S108)、当該停止を検知した報知方法変更部17は、報知方法をロボット100の姿勢移行を伴わない方法に変更する処理を実行する(S109)。そして、移行妨害事象の解消を検知すれば(S110でY)、報知姿勢移行部16は報知姿勢への移行を再開し(S111)、当該再開を検知した報知方法変更部17は、ロボット100の姿勢移行を伴わない報知方法による報知イベント発生の報知を終了する(S112)。その後、S114の処理を実行する。移行妨害事象の解消を検知しない場合は(S110でN)、報知姿勢移行部16は再び当該移行妨害事象の解消の有無を検知する。   Next, when the notification method determination unit 15 receives the determination result indicating that the notification posture transition determination unit 14 can shift to the notification posture, the notification method determination unit 15 determines to notify the occurrence of the notification event by the notification posture, and the determination result is It transmits to the notification posture transition part 16 (S105). The notification posture transition unit 16 that has received the determination result starts the transition to the notification posture (S106), and then detects the presence or absence of a transition disturbance event (S107). If the occurrence of the transition obstruction event is not detected (N in S107), the notification posture transition unit 16 continues the transition to the notification posture (S113), and after the transition to the notification posture is completed, The occurrence is notified (S114). On the other hand, when the occurrence of the transition disturbance event is detected (Y in S107), the notification posture transition unit 16 stops the transition to the notification posture (S108), and the notification method change unit 17 that detects the stop detects the notification method. A process of changing to a method that does not involve posture change of the robot 100 is executed (S109). If the cancellation of the transition interference event is detected (Y in S110), the notification posture transition unit 16 resumes the transition to the notification posture (S111), and the notification method change unit 17 that has detected the restart determines that the robot 100 The notification of the notification event occurrence by the notification method not accompanied by the posture transition is terminated (S112). Thereafter, the process of S114 is executed. When the cancellation of the transition interference event is not detected (N in S110), the notification posture transition unit 16 detects again whether or not the transition interference event has been resolved.

報知姿勢移行判定部14から報知姿勢に移行できない旨の判定結果を受信した場合(S115の処理を実行)、報知方法決定部15は、ロボット100がマナーモード設定中か否かを判定する(S116)。そして、マナーモード設定中であると判定した場合(S116でY)、報知方法決定部15は、画面表示で報知イベントの発生を報知することを決定し(S117)、表示部22の表示画面に報知イベントが発生した旨を表示させる(S118)。一方、S116でNと判定した場合、報知方法決定部15は、スピーカ部21において音出力中か否かを判定する(S119)。そして、音出力中でないと判定した場合(S119でN)、報知方法決定部15は、音出力で報知イベントの発生を報知することを決定し(S120)、スピーカ部21に音出力させる(S121)。S119でYと判定した場合、S117以降の処理を実行する。   When the determination result that the transition to the notification posture cannot be performed is received from the notification posture transition determination unit 14 (the process of S115 is executed), the notification method determination unit 15 determines whether or not the robot 100 is in the manner mode setting (S116). ). If it is determined that the manner mode is being set (Y in S116), the notification method determining unit 15 determines to notify the occurrence of the notification event on the screen display (S117), and the display screen of the display unit 22 is displayed. The fact that the notification event has occurred is displayed (S118). On the other hand, when it determines with N by S116, the alerting | reporting method determination part 15 determines whether the sound is being output in the speaker part 21 (S119). If it is determined that sound is not being output (N in S119), the notification method determination unit 15 determines to notify the occurrence of a notification event by sound output (S120), and causes the speaker unit 21 to output sound (S121). ). When it determines with Y by S119, the process after S117 is performed.

次に、図7を用いて、選択報知イベントが発生した場合における、報知制御装置1による当該選択報知イベント発生の報知の制御方法について説明する。図7は、上記制御方法を示すフローチャートである。なお、図7におけるS203の処理終了後の処理については、図6におけるS102以降の処理と同様であるため、その説明を省略する。   Next, with reference to FIG. 7, a method for controlling the notification of the occurrence of the selection notification event by the notification control device 1 when the selection notification event occurs will be described. FIG. 7 is a flowchart showing the control method. Note that the processing after the processing of S203 in FIG. 7 is the same as the processing after S102 in FIG.

図7に示すように、まず、発生条件判定部11は、報知イベント発生テーブル29aを参照して、選択報知イベント発生条件を充足しているか否かを判定する(S200)。S200でYと判定した場合、発生条件判定部11は、上記条件を充足している旨の判定結果を報知イベント発生部12に送信する。一方、S200でNと判定した場合、発生条件判定部11は、上記条件を充足しているか否かを再び判定する。そして、報知イベント発生部12は、発生条件判定部11から上記判定結果を受信した場合、充足していると判定された選択報知イベント発生条件に対応付けられた選択報知イベントを発生させる(S201)。次に、報知イベント検知部13は、選択報知イベントの発生を検知した場合(S202でY)、その検知結果を報知姿勢決定部14に送信する。一方、選択報知イベントの発生を検知しない場合(S202でN)、報知イベント検知部13は、報知イベント発生の有無を再び検知する。次に、報知姿勢決定部14は、S202でYと判定した場合、発生した選択報知イベントに対応付けられた報知姿勢を、報知姿勢テーブル29bを参照することによって決定する(S203)。   As illustrated in FIG. 7, first, the generation condition determination unit 11 refers to the notification event generation table 29a to determine whether or not the selection notification event generation condition is satisfied (S200). When it determines with Y by S200, the generation | occurrence | production condition determination part 11 transmits the determination result to the effect that the said conditions are satisfied to the alerting | reporting event generation part 12. FIG. On the other hand, when it determines with N by S200, the generation condition determination part 11 determines again whether the said conditions are satisfied. Then, when receiving the determination result from the generation condition determination unit 11, the notification event generation unit 12 generates a selection notification event associated with the selection notification event generation condition determined to be satisfied (S201). . Next, when the notification event detection unit 13 detects the occurrence of a selection notification event (Y in S202), the notification event detection unit 13 transmits the detection result to the notification posture determination unit 14. On the other hand, when the occurrence of the selection notification event is not detected (N in S202), the notification event detection unit 13 detects again whether or not the notification event has occurred. Next, when it is determined Y in S202, the notification posture determination unit 14 determines the notification posture associated with the selected notification event that has occurred by referring to the notification posture table 29b (S203).

なお、ロボット100の姿勢移行を伴わない報知方法による報知イベント発生の報知については、音出力中か否かを先に判定した後、マナーモード中か否かを判定してもよい。さらには、図8に示すように、新たにバイブレーションによる報知方法を追加してもよい。具体的には、S113の処理を実行後、報知方法決定部15は、バッテリー部28のバッテリー残量が閾値以上あるか否かを判定する(S300)。そして、バッテリー残量が閾値以上あると判定した場合(S300でY)、報知方法決定部15はS117およびS118と同様の処理を実行する(S301およびS302)。一方、バッテリー残量が閾値よりも少ないと判定した場合(S300でN)、報知方法決定部15はS116と同様の処理を実行する(S303)。そして、S303でYと判定した場合、報知方法決定部15はバイブレーションによる報知イベント発生の報知を決定し(S304)、ロボット100本体をバイブレーションさせる(S305)。S303でNと判定した場合、報知方法決定部15はS119からS121と同様の処理を実行する(S306からS308)。   As for notification of occurrence of a notification event by a notification method that does not involve posture change of the robot 100, it may be determined whether or not the manner mode is in effect after first determining whether or not sound is being output. Furthermore, as shown in FIG. 8, a notification method by vibration may be newly added. Specifically, after performing the process of S113, the notification method determination unit 15 determines whether or not the remaining battery level of the battery unit 28 is equal to or greater than a threshold value (S300). If it is determined that the remaining battery level is greater than or equal to the threshold (Y in S300), the notification method determination unit 15 performs the same processing as S117 and S118 (S301 and S302). On the other hand, when it is determined that the remaining battery level is less than the threshold value (N in S300), the notification method determination unit 15 executes the same process as S116 (S303). If it is determined as Y in S303, the notification method determination unit 15 determines the notification of the occurrence of a notification event due to vibration (S304), and vibrates the robot 100 main body (S305). When it determines with N by S303, the alerting | reporting method determination part 15 performs the process similar to S119 to S121 (S306 to S308).

(効果) 以上のように、本実施形態によれば、報知制御装置1は、報知姿勢によって報知イベントの発生を報知することができない場合でも、例えば、音声出力等の、ロボットの姿勢移行を伴わない報知方法を決定する。そのため、報知イベントの発生を確実にユーザに認知させることができる。また、移行妨害事象が発生した場合でも、報知イベントの発生を確実にユーザに認知させることができる。   (Effects) As described above, according to the present embodiment, the notification control device 1 is accompanied by a robot posture transition such as voice output even when the notification event occurrence cannot be notified by the notification posture. There is no notification method. Therefore, it is possible to make the user surely recognize the occurrence of the notification event. Further, even when a transition obstruction event occurs, the user can be surely made aware of the occurrence of the notification event.

〔実施形態2〕
本発明の他の実施形態について、図9および10に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the embodiment are given the same reference numerals, and descriptions thereof are omitted.

本実施形態に係る報知制御装置2は、報知姿勢移行判定部14が、第1報知イベントの発生後に第2報知イベントが発生した場合に(各報知イベントには、ユーザの対応が必要となる程度に応じて定められた優先順位が設定されている)、第2報知イベントの優先順位が第1報知イベントの優先順位よりも高ければ、第2報知イベントに対応付けられた第2報知姿勢への姿勢移行可否判定を行う点で、実施形態1に係る報知制御装置1と異なる。なお、第1報知イベントは最初に発生した報知イベントであり、第2報知イベントは第1報知イベント発生の後に発生した報知イベントである。第1報知姿勢は第1報知イベントに対応付けられた報知姿勢であり、第2報知姿勢は第2報知イベントに対応付けられた報知姿勢である。また、本実施形態に係る報知制御装置2は、報知方法変更部17が、ロボット200の姿勢を第2報知姿勢に移行させる場合に、第1報知イベント発生の報知方法を当該ロボット200の姿勢移行を伴わない方法に変更する点でも実施形態1に係る報知制御装置1と異なる。さらに、本実施形態に係るロボット200は、報知イベント優先度テーブル29dが記憶部29に格納されている点で、実施形態1に係るロボット100と異なる。   In the notification control device 2 according to the present embodiment, when the notification posture transition determination unit 14 generates the second notification event after the first notification event occurs (the degree that the user needs to respond to each notification event). If the priority of the second notification event is higher than the priority of the first notification event, the second notification posture associated with the second notification event is set. The notification control apparatus 1 according to the first embodiment is different from the notification control apparatus 1 according to the first embodiment in that posture determination is performed. The first notification event is a notification event that occurs first, and the second notification event is a notification event that occurs after the occurrence of the first notification event. The first notification posture is a notification posture associated with the first notification event, and the second notification posture is a notification posture associated with the second notification event. In addition, the notification control device 2 according to the present embodiment changes the notification method of the first notification event occurrence when the notification method changing unit 17 shifts the posture of the robot 200 to the second notification posture. It differs from the information control apparatus 1 which concerns on Embodiment 1 also in the point which changes into the method which does not accompany. Furthermore, the robot 200 according to the present embodiment differs from the robot 100 according to the first embodiment in that a notification event priority table 29d is stored in the storage unit 29.

(複数の報知イベントが発生した場合における報知姿勢への移行) 複数の報知イベントが発生した場合における報知姿勢への移行に関して、図9を用いて説明する。図9は、記憶部29に格納されている報知イベント優先度テーブル29dの一例である。   (Transition to Notification Position when Multiple Notification Events Occur) Transition to the notification posture when multiple notification events occur will be described with reference to FIG. FIG. 9 is an example of the notification event priority table 29 d stored in the storage unit 29.

報知イベント優先度テーブル29dは、図3の報知姿勢テーブル29bに優先度の欄を加えたものであり、当該テーブル29bに記録されている各データおよび優先度の対応関係を示す。優先度は、「1」を最低値(優先順位が一番低い)としてユーザによる対応の必要性が高くなるほど数値が大きくなり、「10」を最高値(優先順位が一番高い)とする。ここで、図9に示された報知イベントの優先度はあくまで一例であり、ユーザが任意に設定および変更することができる。なお、図9では、説明の簡略化のため、「サーボモータの回転位置」および「報知姿勢」の欄を省略して説明している。   The notification event priority table 29d is obtained by adding a priority column to the notification attitude table 29b of FIG. 3, and shows the correspondence between each data and priority recorded in the table 29b. The priority is set to “1” as the lowest value (lowest priority), and the numerical value increases as the necessity of handling by the user increases, and “10” as the highest value (highest priority). Here, the priority of the notification event shown in FIG. 9 is merely an example, and the user can arbitrarily set and change it. In FIG. 9, for simplification of description, the “rotation position of servo motor” and “notification posture” fields are omitted.

図9に示すように、例えば、第1報知イベントとして音声着信(優先度「8」;優先順位が2番目に高い)が発生した後に、第2報知イベントとしてアラーム(優先度「6」;優先順位が3番目に高い)が発生した場合、ロボット200の姿勢を音声着信に対応付けられた第1報知姿勢(A1)に移行できるか否かの判定が行われていないのであれば、報知姿勢移行判定部14は前記判定を行う。また、第1報知姿勢(A1)に移行中であれば、報知姿勢移行部16は当該移行を完了させる。さらに、第1報知姿勢(A1)への移行が既に完了しているのであれば、報知姿勢移行部16は当該姿勢を維持させる。   As shown in FIG. 9, for example, after a voice call (priority “8”; second highest priority) occurs as a first notification event, an alarm (priority “6”; priority) is generated as a second notification event. If the determination is not made whether or not the posture of the robot 200 can be shifted to the first notification posture (A1) associated with the incoming voice call, the notification posture is determined. The transition determination unit 14 performs the determination. Further, if the transition to the first notification posture (A1) is in progress, the notification posture transition unit 16 completes the transition. Furthermore, if the transition to the first notification posture (A1) has already been completed, the notification posture transition unit 16 maintains the posture.

次に、例えば、第1報知イベントとしてTV再生(優先度「4」;優先順位が1番低い)が発生した後に、第2報知イベントとしてバッテリー残量低下(優先度「10」;優先順位が1番高い)が発生した場合、報知姿勢移行判定部14は、ロボット200の姿勢がTV再生に対応付けられた第1報知姿勢(A4)に移行しているか否かに拘らず、当該ロボット200の姿勢をバッテリー残量低下に対応付けられた第2報知姿勢(A5)に移行できるか否かを判定する。   Next, for example, after TV playback (priority “4”; the lowest priority) occurs as the first notification event, the remaining battery level decreases (priority “10”; the priority is the second notification event). When the first highest) occurs, the notification posture transition determination unit 14 regardless of whether or not the posture of the robot 200 has shifted to the first notification posture (A4) associated with TV playback. It is determined whether or not the posture can be shifted to the second notification posture (A5) associated with the low battery level.

なお、図9には示されていないが、優先度の等しい2種類の報知イベントが発生した場合には、優先して報知される報知イベントを、ロボット200の生産時にあらかじめ設定してもよいし、ユーザが任意に設定できるようにしてもよい。   Although not shown in FIG. 9, when two types of notification events having the same priority occur, a notification event that is notified with priority may be set in advance when the robot 200 is produced. , The user may arbitrarily set.

(複数の報知イベントが発生した場合の報知制御装置による報知の制御方法) 次に、図10を用いて、複数の報知イベントが発生した場合における、報知制御装置2による報知の制御方法について説明する。図10は、上記制御方法を示すフローチャートである。なお、図10におけるS408、S409またはS412の処理終了後については、図6におけるS107以降またはS116以降の処理と同様の処理を行うことから、その説明を省略する。   (Notification Control Method by Notification Control Device When Multiple Notification Events Occur) Next, a notification control method by notification control device 2 when a plurality of notification events occur will be described using FIG. . FIG. 10 is a flowchart showing the control method. Note that the processing after S408, S409, or S412 in FIG. 10 is the same as the processing after S107 or S116 in FIG.

図10に示すように、報知イベント検知部13は、第2報知イベントの発生を検知した場合(S400でY)、その旨の検知結果を報知姿勢移行判定部14に送信する。一方、第2報知イベントの発生を検知しない場合(S400でN)、報知イベント検知部13は、第2報知イベントが発生したか否かを再び検知する。そして、報知姿勢移行判定部14は、S400でYとなった場合、第2報知姿勢を、報知イベント優先度テーブル29dを参照することによって決定する(S401)。   As illustrated in FIG. 10, when the notification event detection unit 13 detects the occurrence of the second notification event (Y in S400), the notification event detection unit 13 transmits a detection result to that effect to the notification posture transition determination unit 14. On the other hand, when the occurrence of the second notification event is not detected (N in S400), the notification event detection unit 13 detects again whether or not the second notification event has occurred. When the notification posture transition determination unit 14 becomes Y in S400, the notification posture transition determination unit 14 determines the second notification posture by referring to the notification event priority table 29d (S401).

次に、報知姿勢移行判定部14は、第2報知イベント発生の検知結果を受信する前に、既に、報知イベント検知部13から第1報知イベント発生の検知結果を受信しているか否かを判定する(S402)。そして、S402でNと判定した場合、報知姿勢移行判定部14は、第2報知姿勢に移行するのに必要なバッテリー残量があるか否か(S403)、および第2報知姿勢に移行した場合に作動した可動部位が障害物と衝突するか否か(S404)を判定する。そして、バッテリー残量があると判定し(S403でY)、かつ、障害物と衝突しないと判定した場合(S404でY)、報知姿勢移行判定部14は第2報知姿勢に移行できると判定する(S405)。S403またはS404でNと判定した場合、報知姿勢移行判定部14は第2報知姿勢に移行できないと判定する(S411)。   Next, the notification posture transition determination unit 14 determines whether the detection result of the first notification event occurrence has already been received from the notification event detection unit 13 before receiving the detection result of the second notification event occurrence. (S402). When it is determined that the answer is N in S402, the notification posture transition determination unit 14 determines whether or not there is a remaining battery level necessary for shifting to the second notification posture (S403), and the transition to the second notification posture. It is determined whether or not the movable part that has been operated on collides with an obstacle (S404). When it is determined that there is a remaining battery level (Y in S403) and it is determined that the battery does not collide with an obstacle (Y in S404), the notification posture transition determination unit 14 determines that the second notification posture can be transferred. (S405). When it is determined as N in S403 or S404, the notification posture transition determination unit 14 determines that the transition to the second notification posture cannot be performed (S411).

次に、S402でYと判定した場合、報知姿勢移行判定部14は、両報知イベントの優先度を比較する(S410)。そして、報知姿勢移行判定部14は、第1報知イベントの優先度の方が低いと判定した場合(S410でN)、S403からS405の処理を実行し、第1報知イベントの優先度の方が高いと判定した場合(S410でY)、S411の処理を実行する。S411の処理の終了後、報知方法決定部15は、第2報知イベントの発生をロボット200の姿勢移行を伴わない報知方法で報知することを決定する(S412)。そして、S116以降の処理と同様の処理が実行される。   Next, when it determines with Y by S402, the alerting | reporting attitude | position transfer determination part 14 compares the priority of both alerting | reporting events (S410). When the notification posture transition determination unit 14 determines that the priority of the first notification event is lower (N in S410), the notification posture transition determination unit 14 executes the processing from S403 to S405, and the priority of the first notification event is higher. If it is determined that the value is high (Y in S410), the process of S411 is executed. After the process of S411 ends, the notification method determination unit 15 determines to notify the occurrence of the second notification event by a notification method that does not involve the posture change of the robot 200 (S412). And the process similar to the process after S116 is performed.

次に、報知姿勢移行判定部14から第2報知姿勢に移行できる旨の判定結果を受信した報知方法決定部15は、第2報知姿勢で報知することを決定し、決定結果を報知姿勢移行部16に送信する(S406)。そして、前記決定結果を受信した報知姿勢移行部16は、第2報知姿勢への移行を開始させる(S407)。次に、報知方法変更部17は、ロボット200の姿勢が既に第1報知姿勢に移行しているか否かを判定する(S408)。そして、S408でNと判定した場合、S107以降の処理と同様の処理が実行される。一方、S408でYと判定した場合、報知方法変更部17は、第1報知イベント発生の報知方法をロボット200の姿勢移行を伴わない方法に変更する(S409)。そして、S409の処理終了後、S116以降の処理と同様の処理が実行される。   Next, the notification method determination unit 15 that has received the determination result indicating that it is possible to shift to the second notification posture from the notification posture transition determination unit 14 determines to notify in the second notification posture, and the determination result is notified to the notification posture transition unit. 16 (S406). The notification posture transition unit 16 that has received the determination result starts the transition to the second notification posture (S407). Next, the notification method changing unit 17 determines whether or not the posture of the robot 200 has already shifted to the first notification posture (S408). And when it determines with N by S408, the process similar to the process after S107 is performed. On the other hand, when it determines with Y by S408, the alerting | reporting method change part 17 changes the alerting | reporting method of 1st alerting | reporting event generation | occurrence | production to the method which does not accompany the attitude | position transition of the robot 200 (S409). Then, after the process of S409 is completed, the same process as the process after S116 is executed.

(効果) 以上のように、本実施形態によれば、ユーザは、第1報知イベントおよび第2報知イベントの発生順に拘らず、当該ユーザの対応が必要となる程度が高い方の報知イベントに対して確実に対応することができる。さらに、ロボットの姿勢が第2報知姿勢に移行することによってユーザが第1報知イベントの発生を失念することを防止することができ、第1報知イベントの発生をも確実にユーザに認知させることができる。   (Effects) As described above, according to the present embodiment, a user can respond to a notification event having a higher degree of need for the user regardless of the order of occurrence of the first notification event and the second notification event. Can respond reliably. Furthermore, it is possible to prevent the user from forgetting the occurrence of the first notification event by shifting the posture of the robot to the second notification posture, and to ensure that the user also recognizes the occurrence of the first notification event. it can.

〔実施形態3〕
本発明の他の実施形態について、図11および図12に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as those described in the above embodiment are denoted by the same reference numerals and description thereof is omitted.

本実施形態に係る報知制御装置3は、特定の報知イベントに複数の報知姿勢が対応付けられている場合に、報知姿勢移行判定部14が、当該複数の報知姿勢の中からロボット300の姿勢移行が可能な姿勢の有無を判定する点で、実施形態1および2に係る報知制御装置1および2と異なる。また、本実施形態に係るロボット300は、報知姿勢テーブル29cが記憶部29に格納されている点で、実施形態1および2に係るロボット100および200と異なる。   In the notification control device 3 according to the present embodiment, when a plurality of notification postures are associated with a specific notification event, the notification posture transition determination unit 14 changes the posture transition of the robot 300 from the plurality of notification postures. Is different from the notification control apparatuses 1 and 2 according to the first and second embodiments in that it is determined whether or not there is a posture capable of being. The robot 300 according to the present embodiment is different from the robots 100 and 200 according to the first and second embodiments in that a notification posture table 29c is stored in the storage unit 29.

(報知姿勢への移行可否の判定方法) 次に、図11を用いて、特定の報知イベントに複数の報知姿勢が対応付けられている場合における、報知姿勢移行判定部14による報知姿勢への移行可否の判定方法について説明する。図11は、記憶部29に記憶されている報知姿勢テーブル29cの一例である。   (Method for Determining Whether to Change to Notification Position) Next, referring to FIG. 11, when a plurality of notification postures are associated with a specific notification event, transition to the notification posture by the notification posture transition determination unit 14 is performed. A method for determining availability is described. FIG. 11 is an example of the notification posture table 29 c stored in the storage unit 29.

報知姿勢テーブル29cは、報知イベントと、報知姿勢情報と、報知姿勢との対応関係を示すデータテーブルであり、当該報知イベントに、複数の報知姿勢情報および複数の報知姿勢が対応付けられているものである。例えば、図11のように、報知イベントとしてのアラームに対して、パターン1の場合の報知姿勢(A2;右側の腕部100cが上がった姿勢)、および当該報知姿勢(A2)に対応する報知姿勢情報(第1〜第nサーボモータの回転位置データが、α=a2〜δ=n2、または、a21<α<a22〜n21<δ<n22)が対応付けられている。また、パターン2の場合の報知姿勢(A2´;左側の腕部100cが上がった姿勢)、および当該報知姿勢(A2´)に対応する報知姿勢情報(第1〜第nサーボモータの回転位置データが、α=a2´〜δ=n2´、または、a21´<α<a22´〜n21´<δ<n22´)も対応付けられている。   The notification posture table 29c is a data table indicating a correspondence relationship between the notification event, the notification posture information, and the notification posture, and the notification event is associated with a plurality of notification posture information and a plurality of notification postures. It is. For example, as shown in FIG. 11, in response to an alarm as a notification event, a notification posture in the case of pattern 1 (A2; a posture in which the right arm 100c is raised) and a notification posture corresponding to the notification posture (A2). Information (rotational position data of the first to n-th servo motors is associated with α = a2 to δ = n2 or a21 <α <a22 to n21 <δ <n22). In addition, in the case of Pattern 2, the notification posture (A2 ′; the posture in which the left arm 100c is raised) and the notification posture information (rotational position data of the first to nth servo motors) corresponding to the notification posture (A2 ′). However, α = a2 ′ to δ = n2 ′ or a21 ′ <α <a22 ′ to n21 ′ <δ <n22 ′) are also associated.

具体的には、アラームが発生した場合、報知姿勢移行判定部14は、まずパターン1の報知姿勢(A2)を姿勢移行可否判定の対象姿勢に決定する。そして、報知姿勢移行判定部14は、報知姿勢(A2)への移行が可能か否かについて、実施形態1における報知姿勢への移行可否判定と同様の方法により判定する。次に、右側の腕部100cの動作経路領域内に障害物がある等により、報知姿勢(A2)への移行が不可能と判定した場合、報知姿勢移行判定部14は、パターン2の報知姿勢(A2´)を上記対象姿勢に決定し、上記と同様の判定を行う。次に、報知姿勢(A2)および(A2´)の両方について姿勢移行が不可能と判定した場合、報知姿勢移行判定部14は、上記対象姿勢となっていない他の報知姿勢の有無を確認する。図11の例では、全ての報知姿勢について姿勢移行可否判定が行われたことになるため、報知姿勢移行判定部14は、最終的に、アラームに対応付けられた報知姿勢には移行できないと判定する。   Specifically, when an alarm is generated, the notification posture transition determination unit 14 first determines the notification posture (A2) of the pattern 1 as a target posture for posture transition determination. Then, the notification posture transition determination unit 14 determines whether or not the transition to the notification posture (A2) is possible by the same method as the determination of whether or not the transition to the notification posture in the first embodiment is possible. Next, when it is determined that the transition to the notification posture (A2) is impossible due to an obstacle in the operation path region of the right arm portion 100c, the notification posture transition determination unit 14 determines the notification posture of the pattern 2 (A2 ′) is determined as the target posture, and the same determination as above is performed. Next, when it is determined that the posture transition is not possible for both the notification postures (A2) and (A2 ′), the notification posture transition determination unit 14 confirms the presence or absence of another notification posture that is not the target posture. . In the example of FIG. 11, since the posture change permission / inhibition determination is performed for all the notification postures, the notification posture shift determination unit 14 finally determines that it is not possible to shift to the notification posture associated with the alarm. To do.

なお、複数の報知姿勢についての姿勢移行可否の判定順序は任意であり、ロボット300の生産時にあらかじめ設定してもよいし、ユーザが任意に設定してもよい。また、特定の報知イベントに対応付けられるパターン(報知姿勢情報と報知姿勢との組み合わせ)は、図11のように2種類に限定されず、より多くのパターンが対応付けられてもよい。   Note that the order of determining whether or not to change the posture for a plurality of notification postures is arbitrary, and may be set in advance when the robot 300 is produced, or may be set arbitrarily by the user. Moreover, the pattern (combination of notification attitude information and notification attitude) associated with a specific notification event is not limited to two types as shown in FIG. 11, and more patterns may be associated.

(報知制御装置による報知イベント発生の報知の制御方法) 次に、図12を用いて、特定の報知イベントに複数の報知姿勢が対応付けられている場合における、報知制御装置3による当該報知イベント発生の報知の制御方法について説明する。図12は、上記制御方法を示すフローチャートである。なお、図12におけるS500からS514まで、およびS516からS522の処理については、図6におけるS100からS114まで、およびS115からS121の処理と同様の処理を行うため、その説明を省略する。   (Control Method for Notification of Notification Event Occurrence by Notification Control Device) Next, using FIG. 12, the notification event occurrence by the notification control device 3 when a plurality of notification postures are associated with a specific notification event. A notification control method will be described. FIG. 12 is a flowchart showing the control method. Note that the processes from S500 to S514 and S516 to S522 in FIG. 12 are the same as the processes from S100 to S114 and S115 to S121 in FIG.

図12に示すように、駆動部23を駆動するのに必要なバッテリー残量がないと判定するか(S502でN)、または、駆動部23を駆動した場合に障害物と衝突すると判定した場合(S503でN)、報知姿勢移行判定部14は、発生した報知イベントに対応付けられた複数の報知姿勢の全てについて、姿勢移行の可否を判定したか否かを確認する(S515)。そして、上記複数の報知姿勢の全てについて姿勢移行の可否判定を行ったことを確認した場合(S515でY)、S516の処理が実行される。一方、姿勢移行可否判定を行っていない他の報知姿勢がある場合(S515でN)、報知姿勢移行判定部14は、再びS501からS503までの処理を実行する。   As shown in FIG. 12, when it is determined that there is not enough remaining battery power to drive the drive unit 23 (N in S502), or when it is determined that the drive unit 23 will collide with an obstacle when driven (N in S503), the notification posture transition determination unit 14 confirms whether or not the posture transition is determined for all of the plurality of notification postures associated with the generated notification event (S515). Then, when it is confirmed that the posture change permission determination has been performed for all of the plurality of notification postures (Y in S515), the processing of S516 is executed. On the other hand, when there is another notification posture that has not been determined whether or not posture change is possible (N in S515), the notification posture change determination unit 14 executes the processing from S501 to S503 again.

(効果) 以上のように、本実施形態によれば、報知イベントに対応付けられた報知姿勢が単一の場合に比して、発生した報知イベントを報知姿勢によってユーザに報知できる可能性が高まる。そのため、ユーザに対して視覚的に報知イベントの発生を認知させることがより確実にできる。   (Effect) As described above, according to the present embodiment, the possibility that the generated notification event can be notified to the user by the notification posture is increased as compared with the case where the notification posture associated with the notification event is single. . Therefore, it is possible to more surely make the user visually recognize the occurrence of the notification event.

〔ソフトウェアによる実現例〕
報知制御装置1から3の制御ブロック(特に制御部10および報知姿勢移行判定部14)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、報知制御装置1から3は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
[Example of software implementation]
The control blocks (in particular, the control unit 10 and the notification posture transition determination unit 14) of the notification control devices 1 to 3 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or a CPU It may be realized by software using (Central Processing Unit). In the latter case, the notification control devices 1 to 3 are a CPU that executes instructions of a program that is software that realizes each function, and a ROM (Read Only) in which the program and various data are recorded so as to be readable by a computer (or CPU). Memory) or a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for expanding the program, and the like. And the objective of this invention is achieved when a computer (or CPU) reads the said program from the said recording medium and runs it. As the recording medium, a “non-temporary tangible medium” such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る報知制御装置(1、2、3)は、ロボット(100、200、300)からの報知に対してユーザの対応が必要となる事象である報知イベントの発生を上記ユーザが認知するのに適した報知姿勢にロボットの姿勢を移行できるか否かを判定する報知姿勢移行判定手段(報知姿勢移行判定部14)と、上記報知姿勢移行判定手段による判定結果に基づいて、上記報知イベントを報知するための報知方法を決定する報知方法決定手段(報知方法決定部15)と、を備えている。上記構成によれば、ロボットの姿勢を報知姿勢に移行できない場合であっても、何らかの方法で、発生した報知イベントをユーザに認知させることができる。そのため、ロボットが報知姿勢に姿勢移行できない場合においても、報知イベントの発生を確実にユーザに認知させることができる。
[Summary]
The notification control device (1, 2, 3) according to the first aspect of the present invention generates the notification event, which is an event that requires a user's response to the notification from the robot (100, 200, 300). Based on the determination result by the notification posture transition determination means (notification posture transition determination unit 14) for determining whether the posture of the robot can be shifted to the notification posture suitable for recognition by the notification posture transition determination means, A notification method determination unit (notification method determination unit 15) that determines a notification method for reporting the notification event. According to the above configuration, even when the posture of the robot cannot be transferred to the notification posture, the generated notification event can be recognized by the user by some method. Therefore, even when the robot cannot move to the notification posture, the user can be surely recognized that the notification event has occurred.

本発明の態様2に係る報知制御装置(1、2、3)は、上記態様1において、上記報知方法決定手段(報知方法決定部15)は、上記報知姿勢移行判定手段(報知姿勢移行判定部14)が上記ロボット(100、200、300)の姿勢を上記報知姿勢に移行できないと判定した場合、上記ロボットの姿勢移行を伴わない方法を上記報知方法として決定してもよい。上記構成によれば、報知方法決定手段は、報知姿勢による報知方法によって報知イベントの発生を報知することができない場合でも、例えば、音声出力等の、ロボットの姿勢移行を伴わない報知方法を決定する。そのため、ロボットが報知姿勢に姿勢移行できない場合においても、報知イベントの発生を確実にユーザに認知させることができる。   The notification control apparatus (1, 2, 3) according to aspect 2 of the present invention is the above-described aspect 1, wherein the notification method determination means (notification method determination unit 15) is the notification posture transition determination unit (notification posture transition determination unit). 14) When determining that the posture of the robot (100, 200, 300) cannot be transferred to the notification posture, a method that does not involve the posture change of the robot may be determined as the notification method. According to the above configuration, the notification method determining means determines a notification method that does not involve the movement of the posture of the robot, such as voice output, even when the notification event generation method cannot be notified by the notification method based on the notification posture. . Therefore, even when the robot cannot move to the notification posture, the user can be surely recognized that the notification event has occurred.

本発明の態様3に係る報知制御装置(3)は、上記態様1または2において、上記報知イベントには複数の上記報知姿勢が対応付けられており、上記報知姿勢移行判定手段(報知姿勢移行判定部14)は、上記複数の報知姿勢の中から上記ロボット(300)の姿勢移行が可能な姿勢の有無を判定してもよい。上記構成によれば、報知イベントに対応付けられた報知姿勢が単一の場合に比して、発生した報知イベントを報知姿勢によってユーザに報知できる可能性が高まる。そのため、ユーザに対して視覚的に報知イベントの発生を認知させることがより確実にできる。   In the notification control apparatus (3) according to the third aspect of the present invention, in the first or second aspect, the notification event is associated with a plurality of notification postures, and the notification posture transition determination unit (notification posture transition determination). The unit 14) may determine the presence / absence of a posture capable of changing the posture of the robot (300) from the plurality of notification postures. According to the above configuration, the possibility that the generated notification event can be notified to the user by the notification posture is increased as compared with the case where the notification posture associated with the notification event is single. Therefore, it is possible to more surely make the user visually recognize the occurrence of the notification event.

本発明の態様4に係る報知制御装置(2)は、上記態様1または2において、上記報知イベントは、第1報知イベントおよび第2報知イベントを含み、上記第1報知イベントおよび上記第2報知イベントには、それぞれ、上記ユーザの対応が必要となる程度に応じて定められた優先順位が設定されており、上記第1報知イベントの発生後に上記第2報知イベントが発生した場合に、上記報知姿勢移行判定手段(報知姿勢移行判定部14)は、上記第2報知イベントの上記優先順位が上記第1報知イベントの上記優先順位よりも高ければ、上記第2報知イベントに対応付けられた第2報知姿勢への姿勢移行可否判定を行ってもよい。上記構成によれば、第2報知イベントの優先順位が高い場合には、当該第2報知イベントを確実にユーザに認知させることができる。また、ユーザは、第1報知イベントおよび第2報知イベントの発生順に拘らず、当該ユーザの対応が必要となる程度が高い方の報知イベントに対して確実に対応することができる。   In the notification control device (2) according to the fourth aspect of the present invention, in the first or second aspect, the notification event includes a first notification event and a second notification event, and the first notification event and the second notification event. Is set with a priority order determined according to the degree to which the user needs to respond, and when the second notification event occurs after the occurrence of the first notification event, the notification posture is set. If the priority of the second notification event is higher than the priority of the first notification event, the transition determination unit (notification posture transition determination unit 14) performs the second notification associated with the second notification event. It may be determined whether or not the posture can be changed to the posture. According to the above configuration, when the priority order of the second notification event is high, the second notification event can be surely recognized by the user. In addition, the user can reliably respond to a notification event having a higher degree of need for the user regardless of the order of occurrence of the first notification event and the second notification event.

なお、上記態様4に係る報知制御装置(2)において、上記報知方法決定手段(報知方法決定部15)により決定された上記報知方法を他の上記報知方法に変更する報知方法変更手段をさらに備え、上記報知方法変更手段は、上記第1報知イベントの発生後に上記第2報知イベントが発生した場合において、上記報知姿勢移行判定手段が上記ロボットの姿勢を上記第2報知姿勢に移行できると判定すれば、上記第1報知イベント発生の上記報知方法を上記ロボットの姿勢移行を伴わない方法に変更してもよい。上記構成によれば、ロボットの姿勢が第2報知姿勢に移行することによってユーザが第1報知イベントの発生を失念することを防止することができ、第1報知イベントの発生を確実にユーザに認知させることができる。   The notification control apparatus (2) according to the aspect 4 further includes notification method changing means for changing the notification method determined by the notification method determination means (notification method determination unit 15) to another notification method. The notification method change means determines that the notification posture transition determination means can shift the posture of the robot to the second notification posture when the second notification event occurs after the occurrence of the first notification event. For example, the notification method of the occurrence of the first notification event may be changed to a method that does not involve the posture change of the robot. According to the above configuration, it is possible to prevent the user from forgetting the occurrence of the first notification event due to the posture of the robot shifting to the second notification posture, and the user can be surely recognized that the first notification event has occurred. Can be made.

また、上記態様1から4のいずれかに係る報知制御装置(1、2、3)において、上記報知方法決定手段(報知方法決定部15)が上記報知姿勢による上記報知方法を決定した場合に、上記ロボットの姿勢を上記報知姿勢に移行させるための報知姿勢移行手段をさらに備え、上記報知姿勢移行手段は、上記報知姿勢への移行過程において上記報知姿勢への移行を妨げる移行妨害事象の発生を検知した場合、上記報知姿勢への移行を停止し、上記報知方法変更手段は、上記報知姿勢移行手段が上記報知姿勢への移行を停止した場合、上記報知イベント発生の報知方法を上記ロボット(100、200、300)の姿勢移行を伴わない方法に変更してもよい。上記構成によれば、移行妨害事象が発生した場合でも、報知イベントの発生を確実にユーザに認知させることができる。また、移行妨害事象が発生したにも拘らず報知姿勢への移行が継続することによる、ロボットの破損等を防止することができる。   Further, in the notification control device (1, 2, 3) according to any one of the first to fourth aspects, when the notification method determining means (the notification method determining unit 15) determines the notification method based on the notification posture, The robot further includes a notification posture transition means for shifting the posture of the robot to the notification posture, and the notification posture transition means is configured to generate a transition disturbance event that prevents the transition to the notification posture in the process of transitioning to the notification posture. If detected, the transition to the notification posture is stopped, and the notification method changing means changes the notification method of occurrence of the notification event to the robot (100) when the notification posture transition means stops shifting to the notification posture. , 200, 300) may be changed to a method that does not involve posture change. According to the above configuration, even when a transition obstruction event occurs, the user can be surely made aware of the occurrence of the notification event. Further, it is possible to prevent the robot from being damaged due to the continuous transition to the notification posture despite the occurrence of the transition obstruction event.

さらに、上記態様1から4のいずれかに係る報知制御装置(1、2、3)において、上記報知姿勢移行手段は、上記報知姿勢への移行が停止した状態において上記移行妨害事象の解消を検知した場合、上記報知姿勢への移行を再開し、上記報知方法変更手段は、上記報知姿勢移行手段が上記報知姿勢への移行を再開した場合、上記ロボット(100、200、300)の姿勢移行を伴わない方法による上記報知イベント発生の報知を終了させてもよい。上記構成によれば、移行妨害事象が解消した場合に、ユーザに対して視覚的に報知イベントの発生を認知させることが確実にできるようになる。また、必要以上の種類の報知方法で報知イベントの発生を報知するという無駄を防止することができ、電力消費の無駄を抑制することができる。   Further, in the notification control device (1, 2, 3) according to any one of the first to fourth aspects, the notification posture transition means detects the cancellation of the transition interference event in a state where the transition to the notification posture is stopped. In this case, the transition to the notification posture is resumed, and the notification method changing means changes the posture of the robot (100, 200, 300) when the notification posture transition means resumes the transition to the notification posture. The notification of the occurrence of the notification event by a method not accompanied may be terminated. According to the above configuration, it is possible to reliably make the user visually recognize the occurrence of the notification event when the transition interruption event is resolved. In addition, it is possible to prevent waste of notifying the occurrence of a notification event by an unnecessary type of notification method, and it is possible to suppress waste of power consumption.

本発明の態様5に係るロボット(100、200、300)は、上記態様1から4のいずれか一の態様に係る報知制御装置(1、2、3)を備えていてもよい。上記構成によれば、報知イベントの発生を確実にユーザに認知させることができるロボットを実現することができる。   The robot (100, 200, 300) according to the fifth aspect of the present invention may include the notification control device (1, 2, 3) according to any one of the first to fourth aspects. According to the said structure, the robot which can make a user recognize reliably generation | occurrence | production of a notification event is realizable.

本発明の各態様に係る報知制御装置(1、2、3)は、コンピュータによって実現してもよく、この場合には、コンピュータを上記報知制御装置が備える各手段として動作させることにより上記報知制御装置をコンピュータにて実現させる報知制御装置の報知制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The notification control device (1, 2, 3) according to each aspect of the present invention may be realized by a computer, and in this case, the notification control is performed by operating the computer as each unit included in the notification control device. A notification control program of a notification control device for realizing the device by a computer and a computer-readable recording medium on which the notification control program is recorded also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, a new technical feature can be formed by combining the technical means disclosed in each embodiment.

本発明は、報知イベントをユーザに認知させるための技術全般に利用することができる。   The present invention can be used for all techniques for making a user recognize a notification event.

1、2、3 報知制御装置
14 報知姿勢移行判定部(報知姿勢移行判定手段)
15 報知方法決定部(報知方法決定手段)
1, 2, 3 Notification control device 14 Notification posture transition determination unit (notification posture transition determination means)
15 Notification method determination unit (notification method determination means)

Claims (5)

ロボットからの報知に対してユーザの対応が必要となる事象である報知イベントの発生を上記ユーザが認知するのに適した報知姿勢にロボットの姿勢を移行できるか否かを判定する報知姿勢移行判定手段と、
上記報知姿勢移行判定手段による判定結果に基づいて、上記報知イベントを報知するための報知方法を決定する報知方法決定手段と、を備えていることを特徴とする報知制御装置。
Notification posture transition determination for determining whether the posture of the robot can be shifted to a notification posture suitable for the user to recognize the occurrence of a notification event, which is an event that requires a user's response to notification from the robot Means,
A notification control apparatus comprising: notification method determination means for determining a notification method for notifying the notification event based on a determination result by the notification posture transition determination means.
上記報知方法決定手段は、上記報知姿勢移行判定手段が上記ロボットの姿勢を上記報知姿勢に移行できないと判定した場合、上記ロボットの姿勢移行を伴わない方法を上記報知方法として決定することを特徴とする請求項1に記載の報知制御装置。   The notification method determining unit determines, as the notification method, a method that does not involve the posture change of the robot when the notification posture shift determination unit determines that the posture of the robot cannot be transferred to the notification posture. The notification control device according to claim 1. 上記報知イベントには複数の上記報知姿勢が対応付けられており、
上記報知姿勢移行判定手段は、上記複数の報知姿勢の中から上記ロボットの姿勢移行が可能な姿勢の有無を判定することを特徴とする請求項1または2に記載の報知制御装置。
A plurality of the notification postures are associated with the notification event,
The notification control apparatus according to claim 1, wherein the notification posture transition determination unit determines presence / absence of a posture capable of changing the posture of the robot from the plurality of notification postures.
上記報知イベントは、第1報知イベントおよび第2報知イベントを含み、
上記第1報知イベントおよび上記第2報知イベントには、それぞれ、上記ユーザの対応が必要となる程度に応じて定められた優先順位が設定されており、
上記第1報知イベントの発生後に上記第2報知イベントが発生した場合に、
上記報知姿勢移行判定手段は、上記第2報知イベントの上記優先順位が上記第1報知イベントの上記優先順位よりも高ければ、上記第2報知イベントに対応付けられた第2報知姿勢への姿勢移行可否判定を行うことを特徴とする請求項1または2に記載の報知制御装置。
The notification event includes a first notification event and a second notification event,
Each of the first notification event and the second notification event has a priority order determined according to the degree to which the user needs to be handled,
When the second notification event occurs after the occurrence of the first notification event,
If the priority of the second notification event is higher than the priority of the first notification event, the notification posture transition determination means shifts the posture to the second notification posture associated with the second notification event. The notification control apparatus according to claim 1, wherein the determination is performed.
コンピュータを、請求項1から4のいずれか1項に記載の報知制御装置における各手段として機能させるためのプログラム。   The program for functioning a computer as each means in the alerting | reporting control apparatus of any one of Claim 1 to 4.
JP2014203420A 2014-10-01 2014-10-01 Information control device and program Active JP6495606B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014203420A JP6495606B2 (en) 2014-10-01 2014-10-01 Information control device and program
PCT/JP2015/082270 WO2016052765A1 (en) 2014-10-01 2015-11-17 Alarm control device and program
US15/515,965 US20170296935A1 (en) 2014-10-01 2015-11-17 Alarm control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014203420A JP6495606B2 (en) 2014-10-01 2014-10-01 Information control device and program

Publications (2)

Publication Number Publication Date
JP2016067834A true JP2016067834A (en) 2016-05-09
JP6495606B2 JP6495606B2 (en) 2019-04-03

Family

ID=55630783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014203420A Active JP6495606B2 (en) 2014-10-01 2014-10-01 Information control device and program

Country Status (3)

Country Link
US (1) US20170296935A1 (en)
JP (1) JP6495606B2 (en)
WO (1) WO2016052765A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199566A1 (en) * 2016-05-20 2017-11-23 シャープ株式会社 Information processing device, robot, and control program
EP3392004A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392005A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392003A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020250434A1 (en) * 2019-06-14 2020-12-17 株式会社ロボ・ガレージ Thin portable communication terminal, and control method and control program thereof

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04183025A (en) * 1990-11-16 1992-06-30 Matsushita Electric Ind Co Ltd Selective call receiver
JP2000135384A (en) * 1998-10-30 2000-05-16 Fujitsu Ltd Information processing device and animal-mimicking apparatus
JP2004306247A (en) * 2003-03-23 2004-11-04 Sony Corp Robot device and method of controlling the same
JP2005161450A (en) * 2003-12-02 2005-06-23 Advanced Telecommunication Research Institute International Communication robot
JP2009188705A (en) * 2008-02-06 2009-08-20 Willcom Inc Mobile telephone terminal having simple user interface
JP2013111696A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Gripping robot, control device, control method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2002335152A1 (en) * 2002-02-13 2003-09-04 Toudai Tlo, Ltd. Robot-phone
US8135128B2 (en) * 2005-11-19 2012-03-13 Massachusetts Institute Of Technology Animatronic creatures that act as intermediaries between human users and a telephone system
US20090091470A1 (en) * 2007-08-29 2009-04-09 Industrial Technology Research Institute Information communication and interaction device and method for the same
KR20090065212A (en) * 2007-12-17 2009-06-22 한국전자통신연구원 Robot chatting system and method
TW201325681A (en) * 2011-12-26 2013-07-01 Sap Link Technology Corp Interactive electronic toy

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04183025A (en) * 1990-11-16 1992-06-30 Matsushita Electric Ind Co Ltd Selective call receiver
JP2000135384A (en) * 1998-10-30 2000-05-16 Fujitsu Ltd Information processing device and animal-mimicking apparatus
JP2004306247A (en) * 2003-03-23 2004-11-04 Sony Corp Robot device and method of controlling the same
JP2005161450A (en) * 2003-12-02 2005-06-23 Advanced Telecommunication Research Institute International Communication robot
JP2009188705A (en) * 2008-02-06 2009-08-20 Willcom Inc Mobile telephone terminal having simple user interface
JP2013111696A (en) * 2011-11-29 2013-06-10 Seiko Epson Corp Gripping robot, control device, control method, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017199566A1 (en) * 2016-05-20 2017-11-23 シャープ株式会社 Information processing device, robot, and control program
JPWO2017199566A1 (en) * 2016-05-20 2019-03-07 シャープ株式会社 Information processing apparatus, robot, and control program
EP3392004A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392005A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
EP3392003A1 (en) 2017-04-19 2018-10-24 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
CN108724206A (en) * 2017-04-19 2018-11-02 松下知识产权经营株式会社 Interactive device, interactive approach, interactive process and robot
US10719758B2 (en) 2017-04-19 2020-07-21 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US10803376B2 (en) 2017-04-19 2020-10-13 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot
US11007647B2 (en) 2017-04-19 2021-05-18 Panasonic Intellectual Property Management Co., Ltd. Interaction apparatus, interaction method, non-transitory recording medium, and robot

Also Published As

Publication number Publication date
WO2016052765A1 (en) 2016-04-07
US20170296935A1 (en) 2017-10-19
JP6495606B2 (en) 2019-04-03

Similar Documents

Publication Publication Date Title
JP6495606B2 (en) Information control device and program
CN109684249B (en) Host device for facilitating positioning of an accessory using connection attributes of an electronic accessory connection
CN109215663A (en) Equipment awakening method and device
US20200100045A1 (en) Headphones with a Digital Signal Processor (DSP) and Error Correction
KR102523919B1 (en) Audio playback and collection method, device and device and readable storage medium
JP2020042799A (en) Ear set control method and system
US20140004799A1 (en) Communication method, communication device, and computer program product
CN106254192A (en) Reminding method, suggestion device and prompt system
EP3823312A1 (en) Microphone hole blocking detection method and related product
JP6392062B2 (en) Information control device and program
KR20170120707A (en) METHOD, APPARATUS, PROGRAM AND RECORDING MEDIUM FOR PROVIDING POINT REPORTING OF TAPS
JP6598747B2 (en) Electronic device, control device, control program, and operation method of electronic device
WO2016002673A1 (en) Posture control device, robot, and program
JP6408032B2 (en) Mobile device with a centrally located earpiece
WO2016052763A1 (en) Alarm control device and program
WO2014002541A1 (en) Communication method, communication device, and program
JP6628874B2 (en) Information processing device, robot, and control program
CN114498827A (en) Operation method and device of cleaning robot, electronic device and medium
JP6411128B2 (en) Attitude control device and program
WO2017061210A1 (en) Notification control device and method for controlling notification control device
JP6478591B2 (en) Terminal device, control method, and control program
CN115231293A (en) Route determination method, device and equipment applied to moving object
JP2014036360A (en) Electronic apparatus, control method of electronic apparatus, and control program
CN115057240A (en) Stack-type-based object stacking method, device and equipment
CN108111665A (en) The method, apparatus and equipment of switching terminal talking state

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190307

R150 Certificate of patent or registration of utility model

Ref document number: 6495606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150