JP5910209B2 - Robot control apparatus, robot system, robot control method, and robot control program - Google Patents

Robot control apparatus, robot system, robot control method, and robot control program Download PDF

Info

Publication number
JP5910209B2
JP5910209B2 JP2012061269A JP2012061269A JP5910209B2 JP 5910209 B2 JP5910209 B2 JP 5910209B2 JP 2012061269 A JP2012061269 A JP 2012061269A JP 2012061269 A JP2012061269 A JP 2012061269A JP 5910209 B2 JP5910209 B2 JP 5910209B2
Authority
JP
Japan
Prior art keywords
robot
control
case
user
pseudo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012061269A
Other languages
Japanese (ja)
Other versions
JP2013193149A (en
Inventor
隼人 立田
隼人 立田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012061269A priority Critical patent/JP5910209B2/en
Publication of JP2013193149A publication Critical patent/JP2013193149A/en
Application granted granted Critical
Publication of JP5910209B2 publication Critical patent/JP5910209B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明は、ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラムに関する。   The present invention relates to a robot control device, a robot system, a robot control method, and a robot control program.

従来、利用者とコミュニケーションを行ったり、動作サービスを行ったりする種々のロボットが開発されている。   Conventionally, various robots that communicate with users and perform operation services have been developed.

例えば、人の視線を検出し、検出された人の視線に応じて視線を動かすコミュニケーションロボットシステムが知られている。このコミュニケーションロボットシステムは、人に見られている場合に、その人の目の位置に視線を向けたり、逆に視線をそらしたりする制御を行う。   For example, there is known a communication robot system that detects a person's line of sight and moves the line of sight according to the detected person's line of sight. This communication robot system performs control to direct a line of sight to the position of the person's eyes or to deflect the line of sight when viewed by a person.

また、カメラの前に開閉する遮蔽板を備え、擬似的な目蓋として制御する対話支援装置が知られている。この対話支援装置は、対象者の動作又はコミュニケーション動作に応じて、カメラの向きや遮蔽板の開閉を制御する。   There is also known a dialogue support device that includes a shielding plate that opens and closes in front of the camera and controls the screen as a pseudo eyelid. This dialogue support apparatus controls the direction of the camera and the opening / closing of the shielding plate according to the operation or communication operation of the subject.

特開2007−181888号公報JP 2007-181888 A 特開2011−33837号公報JP 2011-33837 A

福井康之、「まなざしの心理学」、創元社、1984年6月出版、第4章、p184等Yasuyuki Fukui, “Psychology of Manazashi”, Somotosha, June 1984, Chapter 4, p184, etc.

ところで、上記非特許文献に記載されているように、コミュニケーションの準備ができていない人は、視線を合わせることを避けようとすることが知られている。従って、ロボット側から、コミュニケーションの準備ができていない利用者に働きかけをするときに、ロボットが利用者を直視すると、利用者が不快感を覚える場合がある。   By the way, as described in the non-patent document, it is known that a person who is not ready for communication tries to avoid matching his line of sight. Therefore, when the robot works on a user who is not ready for communication, the user may feel uncomfortable if the robot looks directly at the user.

上記従来の技術は、コミュニケーションの準備ができていない利用者に対してロボット側から働きかける際の動作について、考慮がなされていない。   In the above conventional technique, no consideration is given to the operation when working from the robot side on a user who is not ready for communication.

一つの側面では、本発明は、コミュニケーションの準備ができていない利用者に対して不快感を与えないように制御を行うことを目的とする。   In one aspect, an object of the present invention is to perform control so as not to give discomfort to a user who is not ready for communication.

本発明の一態様は、ロボットを制御するロボット制御装置であって、利用者の行動を検知するためのセンサ部と、前記センサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断する判断部と、前記判断部により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断部により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で前記ロボットの駆動部の制御を行う制御部と、を備え、前記ロボットは、擬似的な目を有し、前記制御部は、前記第1の場合と、前記第2の場合とで、異なる制御態様で前記擬似的な目に関係した前記ロボットの駆動部の制御を行い、前記擬似的な目に関係した前記ロボットの駆動部の制御は、前記ロボットが有する擬似的な目蓋を駆動する目蓋駆動部の制御を含み、前記制御部は、前記第2の場合において、前記擬似的な目蓋の瞬き頻度が前記第1の場合に比して高くなるように、前記目蓋駆動部を制御する、ロボット制御装置である。 One aspect of the present invention is a robot control apparatus that controls a robot, wherein a sensor unit for detecting a user's behavior and output information of the sensor unit are referred to and the user intends to work on the robot. A determination unit that determines whether or not there is a first case where the determination unit determines that the user has an intention to work on the robot; and the determination unit determines that the user works on the robot. in the case carried out by not the judged and the robot of the second performing alert to the user, and a control unit for controlling the drive unit of the robot in a different control mode, the robot, the pseudo The control unit controls the driving unit of the robot related to the pseudo eyes in different control modes in the first case and the second case, and Pseudo The control of the driving unit of the robot related to the above includes the control of the eye lid driving unit that drives the pseudo eye lid of the robot, and the control unit is configured to control the pseudo eye in the second case. In the robot control device, the lid driving unit is controlled such that the blinking frequency of the lid is higher than that in the first case .

一実施態様によれば、コミュニケーションの準備ができていない利用者に対して不快感を与えないように制御を行うことができる。   According to one embodiment, control can be performed so as not to give discomfort to a user who is not ready for communication.

本発明の一実施例に係るロボット制御装置1が制御するロボット100の外観構成例である。It is an external appearance structural example of the robot 100 which the robot control apparatus 1 which concerns on one Example of this invention controls. ロボット制御装置1と、ロボット100の一部を示すハードウェア構成例である。2 is a hardware configuration example showing a part of the robot control device 1 and the robot 100. 本実施例のロボット制御装置1により実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by the robot control apparatus 1 of a present Example. 本実施例のロボット制御装置1により実行される処理の流れを示すフローチャートの一例である。It is an example of the flowchart which shows the flow of the process performed by the robot control apparatus 1 of a present Example. 第1の制御モードと第2の制御モードにおいて、開眼指示と閉眼指示がなされるタイミングを比較した図である。It is the figure which compared the timing when an eye opening instruction | indication and an eye closing instruction | indication are made in 1st control mode and 2nd control mode. 第1の制御モードと第2の制御モードにおいて、目蓋駆動部103A、103Bに指示される目蓋開度を比較した図である。It is the figure which compared the eyelid opening degree instruct | indicated to the eyelid drive parts 103A and 103B in the 1st control mode and the 2nd control mode.

以下、本発明を実施するための形態について、添付図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the accompanying drawings.

以下、図面を参照し、本発明の一実施例に係るロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラムについて説明する。   Hereinafter, a robot control device, a robot system, a robot control method, and a robot control program according to an embodiment of the present invention will be described with reference to the drawings.

[構成]
図1は、本発明の一実施例に係るロボット制御装置1が制御するロボット100の外観構成例である。ロボット100は、擬似的な目101A、101Bと、擬似的な目蓋102A、102Bと、目蓋駆動部103A、103Bと、頭部駆動部105と、右手駆動部110と、左手駆動部112と、右足駆動部114と、左足駆動部116と、を備える。
[Constitution]
FIG. 1 is an external configuration example of a robot 100 controlled by a robot control apparatus 1 according to an embodiment of the present invention. The robot 100 includes pseudo eyes 101A and 101B, pseudo eyelids 102A and 102B, eyelid drive units 103A and 103B, a head drive unit 105, a right hand drive unit 110, and a left hand drive unit 112. A right foot drive unit 114 and a left foot drive unit 116.

擬似的な目101A、101Bは、カメラが内蔵された、いわゆるカメラアイであってもよいし、単なる目に擬した意匠であってもよい。以下、擬似的な目101A、101B、及び擬似的な目蓋102A、102Bを、単に目101A、101B、目蓋102A、102Bと称する。   The pseudo eyes 101 </ b> A and 101 </ b> B may be a so-called camera eye with a built-in camera, or may be a design that simulates a simple eye. Hereinafter, the pseudo eyes 101A and 101B and the pseudo eyelids 102A and 102B are simply referred to as eyes 101A and 101B and eyelids 102A and 102B.

目101A、101Bと目蓋102A、102Bは、機械的な機構である必要は無く、画面上に表示される目や目蓋であってもよい。この場合、ロボット100には、顔、或いは目の部分に表示装置や投影装置が取り付けられ、目蓋駆動部は表示装置や投影装置の表示制御を行う仮想的な駆動部となる。   The eyes 101A and 101B and the eyelids 102A and 102B do not have to be mechanical mechanisms, and may be eyes or eyelids displayed on the screen. In this case, a display device or a projection device is attached to the robot 100 on the face or the eye, and the eyelid drive unit is a virtual drive unit that performs display control of the display device or the projection device.

目蓋駆動部103A、103Bは、目蓋102A、102Bを開閉駆動する。また、頭部駆動部105は、ロボット100の頭部を、例えば水平方向に回転させたり、前後方向に駆動したりする。その他の駆動部は、それぞれロボット100の各パーツを所望の方向に駆動する。各駆動部は、例えばサーボモータである。   The eyelid driving units 103A and 103B drive the eyelids 102A and 102B to open and close. Further, the head driving unit 105 rotates the head of the robot 100, for example, in the horizontal direction or drives it in the front-rear direction. The other driving units drive each part of the robot 100 in a desired direction. Each drive unit is, for example, a servo motor.

図2は、ロボット制御装置1と、ロボット100の一部を示すハードウェア構成例である。ロボット制御装置1は、センサ入力ボード10と、通信LANボード12と、CPU20と、プログラムメモリ30と、RAM(Random Access Memory)32と、駆動制御ボード40と、音声出力ボード50と、を備える。ロボット制御装置1は、ロボット100に内蔵されてもよいし、ロボット100に通信接続された別体の装置であってもよい。   FIG. 2 is a hardware configuration example showing a part of the robot controller 1 and the robot 100. The robot control apparatus 1 includes a sensor input board 10, a communication LAN board 12, a CPU 20, a program memory 30, a RAM (Random Access Memory) 32, a drive control board 40, and an audio output board 50. The robot control device 1 may be built in the robot 100 or may be a separate device connected to the robot 100 by communication.

ロボット100は、図1に示す構成要素の他、カメラセンサ120と、タッチセンサ122と、音声取得部124と、外部インターフェース126と、距離センサ128と、スピーカー130と、を備える。   The robot 100 includes a camera sensor 120, a touch sensor 122, a sound acquisition unit 124, an external interface 126, a distance sensor 128, and a speaker 130 in addition to the components shown in FIG.

センサ入力ボード10には、カメラセンサ120、タッチセンサ122、音声取得部124、外部インターフェース126、距離センサ128から種々の情報が入力される。カメラセンサ120は、ロボット100の任意の位置に取り付けられ、例えば、利用者の視線や顔の向きを検知する。タッチセンサ122は、例えばロボット100の外表面に取り付けられた圧力センサ、静電容量センサ等であり、利用者がロボット100に触れたことを検知することができる。音声取得部124は、利用者が発話した音声等を収集して音声データとして出力する。外部インターフェース126は、例えば利用者とロボット100のインターフェースとして機能する種々の機器を含む。距離センサ128は、例えば超音波レーダー、レーザーレーダー等のレーダー装置であり、ロボット100と利用者の距離を測定する。また、距離センサ128は、カメラセンサ120と一体化され、例えばステレオカメラの原理に基づいて、ロボット100と利用者の距離を測定してもよい。   Various information is input to the sensor input board 10 from the camera sensor 120, the touch sensor 122, the sound acquisition unit 124, the external interface 126, and the distance sensor 128. The camera sensor 120 is attached to an arbitrary position of the robot 100, and detects, for example, the user's line of sight or face orientation. The touch sensor 122 is, for example, a pressure sensor or a capacitance sensor attached to the outer surface of the robot 100, and can detect that the user has touched the robot 100. The voice acquisition unit 124 collects voices spoken by the user and outputs them as voice data. The external interface 126 includes various devices that function as an interface between the user and the robot 100, for example. The distance sensor 128 is a radar device such as an ultrasonic radar or a laser radar, and measures the distance between the robot 100 and the user. The distance sensor 128 may be integrated with the camera sensor 120, and may measure the distance between the robot 100 and the user based on the principle of a stereo camera, for example.

通信LANボード12は、例えば、ロボット制御装置1とインターネット等のネットワークを接続し、ネットワークに接続された機器との間で種々の情報を送受信する。   The communication LAN board 12 connects, for example, the robot control device 1 and a network such as the Internet, and transmits and receives various information to and from devices connected to the network.

CPU20は、例えば、プログラムカウンタや命令デコーダ、各種演算器、LSU(Load Store Unit)、汎用レジスタ等を有するプロセッサであり、プログラムメモリ30に格納されたプログラムを実行する。プログラムメモリ30は、例えばHDD(Hard Disk Drive)やフラッシュメモリ、メモリカード、EEPROM(Electrically Erasable and Programmable Read Only Memory)である。CPU20が実行するプログラムは、例えばCD(Compact Disc)、DVD(Digital Versatile Disc)、USB(Universal Serial Bus)メモリ等の可搬型の記憶媒体がドライブ装置に装着されることによってプログラムメモリ30にインストールされる。また、これに限らず、CPU20が実行するプログラムは、通信LANボード12がネットワークから取得してもよいし、ロボット制御装置1の出荷時に予めプログラムメモリ30に格納されていてもよい。RAM32は、CPU20によってワーキングメモリとして用いられる。   The CPU 20 is a processor having, for example, a program counter, an instruction decoder, various arithmetic units, an LSU (Load Store Unit), a general-purpose register, and the like, and executes a program stored in the program memory 30. The program memory 30 is, for example, an HDD (Hard Disk Drive), a flash memory, a memory card, or an EEPROM (Electrically Erasable and Programmable Read Only Memory). A program executed by the CPU 20 is installed in the program memory 30 when a portable storage medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a USB (Universal Serial Bus) memory is mounted on the drive device. The The program executed by the CPU 20 is not limited to this, and the communication LAN board 12 may obtain the program from the network, or may be stored in the program memory 30 in advance when the robot control apparatus 1 is shipped. The RAM 32 is used as a working memory by the CPU 20.

CPU20は、プログラムメモリ30に格納されたプログラムを実行することによって機能する機能ブロックとして、利用者意志判断部22と、制御態様決定部24と、動作制御部26と、を備える。特許請求の範囲における「判断部」は、例えば利用者意志判断部22に対応し、「制御部」は、例えば制御態様決定部24に対応する。   The CPU 20 includes a user will determination unit 22, a control mode determination unit 24, and an operation control unit 26 as functional blocks that function by executing a program stored in the program memory 30. The “determination unit” in the claims corresponds to, for example, the user will determination unit 22, and the “control unit” corresponds to, for example, the control mode determination unit 24.

利用者意志判断部22は、センサ入力ボードに入力される各種情報に基づいて、利用者がロボット100に働きかける意志があるか否かを判断する。   The user will determination unit 22 determines whether or not the user is willing to work on the robot 100 based on various information input to the sensor input board.

制御態様決定部24は、利用者意志判断部22の判断結果、及びロボット100からの通常通知の有無等に基づいて、目蓋駆動部103A、103B、及び頭部駆動部105の制御態様を決定する。   The control mode determination unit 24 determines the control mode of the eyelid drive units 103A and 103B and the head drive unit 105 based on the determination result of the user will determination unit 22 and the presence / absence of normal notification from the robot 100. To do.

動作制御部26は、制御態様決定部24が決定する制御態様以外の、ロボット100の動作を制御する。ロボット100は、例えば、利用者とコミュニケーションを図りながら情報提供を行ったり、動作サービスを行ったりする機能を有し、動作制御部26は、こうした機能を実現するための種々の制御を行う。   The operation control unit 26 controls the operation of the robot 100 other than the control mode determined by the control mode determination unit 24. For example, the robot 100 has a function of providing information or performing an operation service while communicating with a user, and the operation control unit 26 performs various controls for realizing such a function.

駆動制御ボード40は、制御態様決定部24及び動作制御部26にからの指示に従って、各駆動部を制御する。   The drive control board 40 controls each drive unit in accordance with instructions from the control mode determination unit 24 and the operation control unit 26.

音声出力ボード50は、動作制御部26によって決定された内容の音声を出力するように、スピーカー130を制御する。   The audio output board 50 controls the speaker 130 so as to output the audio having the content determined by the operation control unit 26.

[フローチャート]
以下、本実施例のロボット制御装置1により実行される、ロボット100の目101A、101Bに関係した制御について説明する。図3及び図4は、本実施例のロボット制御装置1により実行される処理の流れを示すフローチャートの一例である。
[flowchart]
Hereinafter, control related to the eyes 101A and 101B of the robot 100, which is executed by the robot control apparatus 1 of the present embodiment, will be described. 3 and 4 are an example of a flowchart showing a flow of processing executed by the robot control apparatus 1 of the present embodiment.

まず、利用者意志判断部22が、利用者がロボット100に働きかける意志があるか否かを判断する(S200〜S208;図4参照)。   First, the user will determination unit 22 determines whether or not the user is willing to work on the robot 100 (S200 to S208; see FIG. 4).

利用者意志判断部22は、カメラセンサ120の出力情報を参照し、利用者がロボットを見ているか否かを判定する(S200)。利用者がロボットを見ているか否かは、カメラセンサ120の撮像画像を解析し、視線の向きや顔向きを特定することによって判定することができる。画像解析による視線の向きや顔向きの特定については、既に種々の技術が公知となっているため、説明を省略する。   The user will determination unit 22 refers to the output information of the camera sensor 120 and determines whether or not the user is looking at the robot (S200). Whether or not the user is looking at the robot can be determined by analyzing the captured image of the camera sensor 120 and specifying the direction of the line of sight and the face direction. Since various techniques are already known for specifying the direction of the line of sight and the face direction by image analysis, a description thereof will be omitted.

利用者がロボットを見ていると判定された場合、利用者意志判断部22は、利用者がロボットに働きかける意志が有ると判断する(S202)。   When it is determined that the user is looking at the robot, the user will determination unit 22 determines that the user has a will to work on the robot (S202).

利用者がロボットを見ていないと判定された場合、利用者意志判断部22は、距離センサ128の出力情報を参照し、利用者とロボット100の距離が閾値以下であるか否かを判定する(S204)。利用者とロボット100の距離が閾値以下である場合、利用者意志判断部22は、タッチセンサ122又は音声取得部124が一定時間以内に反応したか否かを判定する(S206)。   When it is determined that the user is not looking at the robot, the user will determination unit 22 refers to the output information of the distance sensor 128 and determines whether or not the distance between the user and the robot 100 is equal to or less than a threshold value. (S204). When the distance between the user and the robot 100 is equal to or less than the threshold, the user will determination unit 22 determines whether the touch sensor 122 or the voice acquisition unit 124 has reacted within a certain time (S206).

利用者とロボット100の距離が閾値以下であり、タッチセンサ122又は音声取得部124が一定時間以内に反応した場合、利用者意志判断部22は、利用者がロボットに働きかける意志が有ると判断する(S202)。   When the distance between the user and the robot 100 is equal to or smaller than the threshold value and the touch sensor 122 or the voice acquisition unit 124 reacts within a certain time, the user will determination unit 22 determines that the user has the will to work on the robot. (S202).

一方、利用者とロボット100の距離が閾値を超える場合、又はタッチセンサ122又は音声取得部124が一定時間以内に反応しなかった場合、利用者意志判断部22は、利用者がロボットに働きかける意志が無いと判断する(S208)。   On the other hand, when the distance between the user and the robot 100 exceeds the threshold value, or when the touch sensor 122 or the voice acquisition unit 124 does not react within a certain time, the user will determination unit 22 determines whether the user will work on the robot. It is determined that there is no (S208).

利用者意志判断部22が、利用者がロボットに働きかける意志が有ると判断した場合、制御態様決定部24は、利用者に視線を向けるように頭部駆動部105を制御し、目蓋駆動部103A、103Bを第1の制御モードで制御する(S210)。第1の制御モードは、後述する第2の制御モードに比して利用者への注視を強めた制御モードである。制御モードの詳細な内容については後述する。   When the user will determination unit 22 determines that the user is willing to work on the robot, the control mode determination unit 24 controls the head driving unit 105 so as to direct the line of sight to the user, and the eye lid driving unit 103A and 103B are controlled in the first control mode (S210). The first control mode is a control mode in which attention to the user is increased compared to a second control mode described later. Details of the control mode will be described later.

ここで、S210以降の処理について説明する前に、利用者がロボットに働きかける意志が無いと判断された場合の処理について説明する。   Here, before describing the processing after S210, processing when it is determined that the user does not intend to work on the robot will be described.

利用者意志判断部22が、利用者がロボットに働きかける意志が無いと判断した場合、制御態様決定部24は、動作制御部26により利用者への緊急通知が行われようとしているか否かを判定する(S212)。   When the user will determination unit 22 determines that the user does not intend to work on the robot, the control mode determination unit 24 determines whether or not the operation control unit 26 is about to make an emergency notification to the user. (S212).

動作制御部26により利用者への緊急通知が行われようとしている場合、制御態様決定部24は、利用者に視線を向けるように頭部駆動部105を制御し、目蓋駆動部103A、103Bを第1の制御モードで制御する(S214)。そして、動作制御部26が、緊急通知を行うように、音声出力ボード50及びスピーカー130を制御する(S216)。   When an emergency notification to the user is about to be performed by the operation control unit 26, the control mode determination unit 24 controls the head driving unit 105 so as to direct the line of sight to the user, and the eye lid driving units 103A and 103B. Are controlled in the first control mode (S214). Then, the operation control unit 26 controls the audio output board 50 and the speaker 130 so as to make an emergency notification (S216).

なお、利用者に視線を向ける、或いは逸らすことを実現するための構成として、頭部駆動部105を例示したが、これに限らず、例えば黒目と白目を表現した擬似的な眼球を回転駆動する駆動部を備えてもよい。   In addition, although the head drive unit 105 is illustrated as a configuration for realizing directing or deflecting the line of sight to the user, the present invention is not limited thereto, and for example, a pseudo eyeball expressing black eyes and white eyes is rotationally driven. You may provide a drive part.

動作制御部26により利用者への緊急通知が行われようとしていない場合、制御態様決定部24は、動作制御部26により利用者への通常通知が行われようとしているか否かを判定する(S218)。動作制御部26により利用者への通常通知が行われようとしている場合、制御態様決定部24は、距離センサ128の出力情報を参照し、利用者とロボット100の距離が閾値以下であるか否かを判定する(S220)。S220における閾値は、前述したS204における閾値と同じであってもよいし、異なってもよい。   When the operation control unit 26 is not about to make an emergency notification to the user, the control mode determination unit 24 determines whether or not the operation control unit 26 is about to make a normal notification to the user (S218). ). When normal notification to the user is about to be performed by the operation control unit 26, the control mode determination unit 24 refers to the output information of the distance sensor 128 and determines whether or not the distance between the user and the robot 100 is equal to or less than a threshold value. Is determined (S220). The threshold value in S220 may be the same as or different from the threshold value in S204 described above.

S218及びS220で肯定的な判定を得た場合、制御態様決定部24は、利用者に視線を向けるように頭部駆動部105を制御し、目蓋駆動部103A、103Bを第2の制御モードで制御する(S222)。   When a positive determination is obtained in S218 and S220, the control mode determination unit 24 controls the head driving unit 105 so as to direct the line of sight to the user, and sets the eyelid driving units 103A and 103B to the second control mode. (S222).

第2の制御モードは、第1の制御モードに比して利用者へのアピール度を弱めた制御モードである。図5は、第1の制御モードと第2の制御モードにおいて、開眼指示と閉眼指示がなされるタイミングを比較した図である。図5(A)は、第1の制御モードにおいて開眼指示と閉眼指示がなされるタイミングを示し、図5(B)は、第2の制御モードにおいて開眼指示と閉眼指示がなされるタイミングを示す。図示するように、第2の制御モードでは、目蓋駆動部103A、103Bが、開眼→閉眼→開眼の順に指示される(すなわち瞬きが指示される)頻度が、第1の制御モードに比して高くなっている。また、第2の制御モードでは、1回の瞬きにおいて、閉眼指示がなされている期間(閉眼期間)が、第1の制御モードに比して長くなっている。   The second control mode is a control mode in which the degree of appeal to the user is weaker than that in the first control mode. FIG. 5 is a diagram comparing timings at which an eye opening instruction and an eye closing instruction are made in the first control mode and the second control mode. FIG. 5A shows the timing at which an eye opening instruction and an eye closing instruction are made in the first control mode, and FIG. 5B shows the timing at which an eye opening instruction and an eye closing instruction are made in the second control mode. As shown in the figure, in the second control mode, the eyelid drive units 103A and 103B are instructed in the order of eye opening → eye closing → eye opening (that is, blinking is instructed) as compared to the first control mode. It is high. In the second control mode, the period during which an eye-closing instruction is given (eye-closing period) is longer than that in the first control mode in one blink.

また、図6は、第1の制御モードと第2の制御モードにおいて、目蓋駆動部103A、103Bに指示される目蓋開度を比較した図である。図6(A)は、第1の制御モードにおいて目蓋駆動部103A、103Bに指示される目蓋開度の変化を示し、図6(B)は、第2の制御モードにおいて目蓋駆動部103A、103Bに指示される目蓋開度の変化を示す。図示するように、第2の制御モードでは、目蓋開度の最大値が例えば60%に設定され、この最大値が第1の制御モードに比して小さくなっている。また、第2の制御モードでは、時間当たりの目蓋開度の変化(=目蓋の速度)が第1の制御モードに比して緩やかである。   FIG. 6 is a diagram comparing eyelid opening degrees instructed to the eyelid drive units 103A and 103B in the first control mode and the second control mode. FIG. 6A shows a change in eyelid opening degree instructed to the eyelid driving units 103A and 103B in the first control mode, and FIG. 6B shows an eyelid driving unit in the second control mode. The change of the eyelid opening degree instruct | indicated to 103A, 103B is shown. As shown in the drawing, in the second control mode, the maximum value of the eyelid opening is set to 60%, for example, and this maximum value is smaller than that in the first control mode. Further, in the second control mode, the change in the eyelid opening per hour (= the eyelid speed) is more gradual than in the first control mode.

また、制御態様決定部24は、第2の制御モードにおいて、利用者に視線を向ける期間を例えば間欠的な期間とし、第1の制御モードに比して短くなるように頭部駆動部105を制御してもよい。   In addition, in the second control mode, the control mode determination unit 24 sets the head driving unit 105 so that the period in which the user looks at the user is an intermittent period, for example, and is shorter than that in the first control mode. You may control.

これらの制御設定により、第2の制御モードでは、利用者が過剰に注視されているという不快感を覚えない程度に、利用者を注視することができる。この結果、コミュニケーションの準備ができていない利用者に対して不快感を与えずに、ロボット100に注意を向けさせることができる。   With these control settings, in the second control mode, the user can be watched to such an extent that the user does not feel the discomfort that the user is watching too much. As a result, attention can be directed to the robot 100 without causing discomfort to a user who is not ready for communication.

なお、制御態様決定部24は、第2の制御モードにおいて、目蓋駆動部103A、103Bだけでなく、他の駆動部105〜116の駆動速度を第1の制御モードに比して緩やかにしてもよい。また、制御態様決定部24は、第2の制御モードにおいて、目蓋駆動部103A、103Bや頭部駆動部105の制御を変更するのではなく、単に注意喚起のために手を振る等の動作を行わせてもよい。   In addition, in the second control mode, the control mode determination unit 24 makes the drive speeds of not only the eyelid drive units 103A and 103B but also the other drive units 105 to 116 gentler than the first control mode. Also good. In addition, the control mode determination unit 24 does not change the control of the eyelid driving units 103A and 103B and the head driving unit 105 in the second control mode, but simply performs an operation such as waving a hand to call attention. May be performed.

制御態様決定部24は、目蓋駆動部103A、103Bを第2の制御モードで制御するように設定すると、通知フラグをオンに設定する(S224)。通知フラグは、例えばRAM32の所定領域に格納されるフラグである。動作制御部26は、ここでは通常通知を行わず待機する。   When the control mode determination unit 24 is set to control the eyelid drive units 103A and 103B in the second control mode, the control mode determination unit 24 sets the notification flag to ON (S224). The notification flag is a flag stored in a predetermined area of the RAM 32, for example. Here, the operation control unit 26 waits without performing normal notification.

フローチャートの次のルーチンにおいて、利用者がロボット100に働きかける意志があると判定されると、S210の処理の後、通知フラグがオンに設定されているか否かが判定される(S226)。通知フラグがオンに設定されている場合、動作制御部26により利用者への通常通知が行われる。   If it is determined in the next routine of the flowchart that the user is willing to work on the robot 100, it is determined whether or not the notification flag is set to ON after the processing of S210 (S226). When the notification flag is set to ON, the operation control unit 26 performs normal notification to the user.

この結果、動作制御部26により利用者への通常通知が行われようとしている場合、まず第2の制御モードで利用者への注意喚起が行われ、その後、利用者がロボット100を見る等した後に、実際に通常通知が行われることになる。すなわち、ロボット100側から利用者に働きかける場合には、利用者に不快感を与えない程度の注意喚起を行った後に、実際の働きかけを行うという制御が行われる。これによって、ロボット100が利用者に与えうる不快感を抑制し、利用者にとって親しみやすいロボット100を提供することができる。   As a result, when normal notification to the user is about to be performed by the operation control unit 26, the user is first alerted in the second control mode, and then the user looks at the robot 100 or the like. Later, the normal notification is actually performed. In other words, when the user works from the robot 100 side, the control is performed such that after the user is alerted to the extent that the user does not feel uncomfortable, the actual work is performed. Thereby, the discomfort that the robot 100 can give to the user is suppressed, and the robot 100 that is easy for the user to provide can be provided.

なお、S218及びS220のいずれかで否定的な判定を得た場合、制御態様決定部24は、利用者から視線を逸らすように頭部駆動部105を制御する(S230)。   In addition, when negative determination is obtained in either S218 or S220, the control mode determination unit 24 controls the head driving unit 105 so as to shift the line of sight from the user (S230).

[まとめ]
以上説明した本実施例のロボット制御装置1は、コミュニケーションの準備ができていない利用者に対して不快感を与えないように、ロボット100の制御を行うことができる。
[Summary]
The robot control apparatus 1 according to the present embodiment described above can control the robot 100 so as not to cause discomfort to a user who is not ready for communication.

以上、本発明を実施するための最良の形態について実施例を用いて説明したが、本発明はこうした実施例に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。   The best mode for carrying out the present invention has been described above with reference to the embodiments. However, the present invention is not limited to these embodiments, and various modifications can be made without departing from the scope of the present invention. And substitutions can be added.

以上の説明に関し、さらに以下の項を開示する。
(付記1)
ロボットを制御するロボット制御装置であって、
利用者の行動を検知するためのセンサ部と、
前記センサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断する判断部と、
前記判断部により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断部により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で前記ロボットの駆動部の制御を行う制御部と、
を備えるロボット制御装置。
(付記2)
前記ロボットは、擬似的な目を有し、
前記制御部は、前記第1の場合と、前記第2の場合とで、異なる制御態様で、前記擬似的な目に関係した前記ロボットの駆動部の制御を行う、
付記1記載のロボット制御装置。
(付記3)
前記擬似的な目に関係した前記ロボットの駆動部の制御は、前記ロボットが有する擬似的な目蓋を駆動する目蓋駆動部の制御を含む、
付記2記載のロボット制御装置。
(付記4)
前記制御部は、前記第2の場合において、前記擬似的な目蓋の瞬き頻度が前記第1の場合に比して高くなるように、前記目蓋駆動部を制御する、
付記3記載のロボット制御装置。
(付記5)
前記制御部は、前記第2の場合において、前記擬似的な目蓋が閉じられている期間が前記第1の場合に比して長くなるように、前記目蓋駆動部を制御する、
付記3又は4記載のロボット制御装置。
(付記6)
前記制御部は、前記第2の場合において、前記擬似的な目蓋の最大開度が前記第1の場合に比して小さくなるように、前記目蓋駆動部を制御する、
付記3ないし5のいずれか1項記載のロボット制御装置。
(付記7)
前記制御部は、前記第2の場合において、前記擬似的な目が前記利用者に向けられている期間が前記第1の場合に比して短くなるように、前記ロボットの駆動部の制御を行う、
付記1ないし6のいずれか1項記載のロボット制御装置。
(付記8)
付記1ないし7のいずれか1項記載のロボット制御装置と、
該ロボット制御装置によって制御される前記ロボットと、
を備えるロボットシステム。
(付記9)
ロボットを制御するロボット制御装置が、
利用者の行動を検知するためのセンサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断し、
前記判断する処理により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断する処理により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で、前記ロボットの駆動部の制御を行う、
ロボット制御方法。
(付記10)
擬似的な目を有するロボットを制御するロボット制御装置に、
利用者の行動を検知するためのセンサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断させ、
前記判断する処理により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断する処理により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で、前記擬似的な目に関係した前記ロボットの駆動部の制御を行わせる、
ロボット制御プログラム。
Regarding the above description, the following items are further disclosed.
(Appendix 1)
A robot control device for controlling a robot,
A sensor unit for detecting user behavior;
A determination unit that refers to output information of the sensor unit and determines whether or not a user has an intention to work on the robot;
In the first case where the determination unit determines that the user is willing to work on the robot, the determination unit determines that the user is not working on the robot, and the robot A control unit that controls the driving unit of the robot in a different control mode in the second case of alerting the user;
A robot control device comprising:
(Appendix 2)
The robot has pseudo eyes;
The control unit controls the driving unit of the robot related to the pseudo eyes in different control modes in the first case and the second case.
The robot control apparatus according to appendix 1.
(Appendix 3)
Control of the drive unit of the robot related to the pseudo eye includes control of an eye lid drive unit that drives a pseudo eye lid of the robot,
The robot control device according to attachment 2.
(Appendix 4)
The control unit controls the eye lid drive unit in the second case so that the blink frequency of the pseudo eye lid is higher than that in the first case.
The robot control device according to attachment 3.
(Appendix 5)
The control unit controls the eye lid driving unit in the second case so that a period during which the pseudo eye lid is closed is longer than that in the first case.
The robot controller according to appendix 3 or 4.
(Appendix 6)
The control unit controls the eye lid driving unit in the second case so that the maximum opening of the pseudo eye lid is smaller than that in the first case.
The robot control device according to any one of appendices 3 to 5.
(Appendix 7)
In the second case, the control unit controls the driving unit of the robot so that a period in which the pseudo eyes are directed toward the user is shorter than that in the first case. Do,
The robot control device according to any one of appendices 1 to 6.
(Appendix 8)
The robot control device according to any one of appendices 1 to 7,
The robot controlled by the robot controller;
A robot system comprising:
(Appendix 9)
The robot controller that controls the robot
Refer to the output information of the sensor unit for detecting the user's behavior, determine whether the user is willing to work on the robot,
In the first case where it is determined that the user is willing to work on the robot by the determining process, the robot is determined not to work on the robot by the determining process, and the robot In the second case of alerting the user, the drive unit of the robot is controlled in a different control mode.
Robot control method.
(Appendix 10)
In a robot control device that controls a robot with pseudo eyes,
Refer to the output information of the sensor unit for detecting the user's behavior, to determine whether the user has the will to work on the robot,
In the first case where it is determined that the user is willing to work on the robot by the determining process, the robot is determined not to work on the robot by the determining process, and the robot In the second case of alerting the user, the control of the driving unit of the robot related to the pseudo eyes is performed in a different control mode.
Robot control program.

1 ロボット制御装置
10 センサ入力ボード
12 通信LANボード
20 CPU
22 利用者意志判断部
24 制御態様決定部
26 動作制御部
30 プログラムメモリ
32 RAM
40 駆動制御ボード
50 音声出力ボード
100 ロボット
101A、101B 擬似的な目
102A、102B 擬似的な目蓋
103A、103B 目蓋駆動部
105 頭部駆動部
1 Robot control device 10 Sensor input board 12 Communication LAN board 20 CPU
22 user will determination unit 24 control mode determination unit 26 operation control unit 30 program memory 32 RAM
DESCRIPTION OF SYMBOLS 40 Drive control board 50 Audio | voice output board 100 Robot 101A, 101B Pseudo eyes 102A, 102B Pseudo eyes 103A, 103B Eye cover drive part 105 Head drive part

Claims (7)

ロボットを制御するロボット制御装置であって、
利用者の行動を検知するためのセンサ部と、
前記センサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断する判断部と、
前記判断部により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断部により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で前記ロボットの駆動部の制御を行う制御部と、
を備え
前記ロボットは、擬似的な目を有し、
前記制御部は、前記第1の場合と、前記第2の場合とで、異なる制御態様で前記擬似的な目に関係した前記ロボットの駆動部の制御を行い、
前記擬似的な目に関係した前記ロボットの駆動部の制御は、前記ロボットが有する擬似的な目蓋を駆動する目蓋駆動部の制御を含み、
前記制御部は、前記第2の場合において、前記擬似的な目蓋の瞬き頻度が前記第1の場合に比して高くなるように、前記目蓋駆動部を制御する、
ロボット制御装置。
A robot control device for controlling a robot,
A sensor unit for detecting user behavior;
A determination unit that refers to output information of the sensor unit and determines whether or not a user has an intention to work on the robot;
In the first case where the determination unit determines that the user is willing to work on the robot, the determination unit determines that the user is not working on the robot, and the robot A control unit that controls the driving unit of the robot in a different control mode in the second case of alerting the user;
Equipped with a,
The robot has pseudo eyes;
The control unit controls the driving unit of the robot related to the pseudo eye in different control modes in the first case and the second case,
The control of the driving unit of the robot related to the pseudo eye includes control of an eye lid driving unit that drives a pseudo eye lid of the robot,
The control unit controls the eye lid drive unit in the second case so that the blink frequency of the pseudo eye lid is higher than that in the first case.
Robot control device.
前記制御部は、前記第2の場合において、前記擬似的な目蓋が閉じられている期間が前記第1の場合に比して長くなるように、前記目蓋駆動部を制御する、
請求項記載のロボット制御装置。
The control unit controls the eye lid driving unit in the second case so that a period during which the pseudo eye lid is closed is longer than that in the first case.
The robot control apparatus according to claim 1 .
前記制御部は、前記第2の場合において、前記擬似的な目蓋の最大開度が前記第1の場合に比して小さくなるように、前記目蓋駆動部を制御する、
請求項1又は2記載のロボット制御装置。
The control unit controls the eye lid driving unit in the second case so that the maximum opening of the pseudo eye lid is smaller than that in the first case.
The robot control apparatus according to claim 1 or 2 .
前記制御部は、前記第2の場合において、前記擬似的な目が前記利用者に向けられている期間が前記第1の場合に比して短くなるように、前記ロボットの駆動部の制御を行う、
請求項ないしのいずれか1項記載のロボット制御装置。
In the second case, the control unit controls the driving unit of the robot so that a period in which the pseudo eyes are directed toward the user is shorter than that in the first case. Do,
The robot control apparatus according to any one of claims 1 to 3 .
請求項1ないしのいずれか1項記載のロボット制御装置と、
該ロボット制御装置によって制御される前記ロボットと、
を備えるロボットシステム。
The robot control device according to any one of claims 1 to 4 ,
The robot controlled by the robot controller;
A robot system comprising:
ロボットを制御するロボット制御装置が、
利用者の行動を検知するためのセンサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断し、
前記判断する処理により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断する処理により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で、前記ロボットの駆動部の制御を行い、
前記ロボットは、擬似的な目を有し、
前記制御を行う処理は、前記第1の場合と、前記第2の場合とで、異なる制御態様で前記擬似的な目に関係した前記ロボットの駆動部の制御を行い、
前記擬似的な目に関係した前記ロボットの駆動部の制御は、前記ロボットが有する擬似的な目蓋を駆動する目蓋駆動部の制御を含み、
前記制御を行う処理は、前記第2の場合において、前記擬似的な目蓋の瞬き頻度が前記第1の場合に比して高くなるように、前記目蓋駆動部を制御する、
ロボット制御方法。
The robot controller that controls the robot
Refer to the output information of the sensor unit for detecting the user's behavior, determine whether the user is willing to work on the robot,
In the first case where it is determined that the user is willing to work on the robot by the determining process, the robot is determined not to work on the robot by the determining process, and the robot There in the case of the second performing alert to the user, with different control modes, have row control of the driving unit of the robot,
The robot has pseudo eyes;
The process of performing the control performs control of the driving unit of the robot related to the pseudo eyes in different control modes in the first case and the second case,
The control of the driving unit of the robot related to the pseudo eye includes control of an eye lid driving unit that drives a pseudo eye lid of the robot,
In the second case, the process of performing the control controls the eye lid driving unit so that the blinking frequency of the pseudo eye lid is higher than that in the first case.
Robot control method.
ロボットを制御するロボット制御装置に、
利用者の行動を検知するためのセンサ部の出力情報を参照し、利用者が前記ロボットに働きかける意志があるか否かを判断させ、
前記判断する処理により前記利用者が前記ロボットに働きかける意志があると判断された第1の場合と、前記前記判断する処理により前記利用者が前記ロボットに働きかけを行っていないと判断され且つ前記ロボットが前記利用者に注意喚起を行う第2の場合とで、異なる制御態様で、前記ロボットの駆動部の制御を行わせ、
前記ロボットは、擬似的な目を有し、
前記制御を行わせる処理は、前記第1の場合と、前記第2の場合とで、異なる制御態様で前記擬似的な目に関係した前記ロボットの駆動部の制御を行わせ、
前記擬似的な目に関係した前記ロボットの駆動部の制御は、前記ロボットが有する擬似的な目蓋を駆動する目蓋駆動部の制御を含み、
前記制御を行わせる処理は、前記第2の場合において、前記擬似的な目蓋の瞬き頻度が前記第1の場合に比して高くなるように、前記目蓋駆動部を制御させる、
ロボット制御プログラム。
To the robot controller that controls the robot,
Refer to the output information of the sensor unit for detecting the user's behavior, to determine whether the user has the will to work on the robot,
In the first case where it is determined that the user is willing to work on the robot by the determining process, the robot is determined not to work on the robot by the determining process, and the robot In the second case of alerting the user, the control of the driving unit of the robot is performed in a different control mode ,
The robot has pseudo eyes;
The process for performing the control causes the driving unit of the robot related to the pseudo eye to be controlled in different control modes in the first case and the second case,
The control of the driving unit of the robot related to the pseudo eye includes control of an eye lid driving unit that drives a pseudo eye lid of the robot,
In the second case, the process of performing the control causes the eyelid driving unit to be controlled so that the blinking frequency of the pseudo eyelid is higher than that in the first case.
Robot control program.
JP2012061269A 2012-03-16 2012-03-16 Robot control apparatus, robot system, robot control method, and robot control program Expired - Fee Related JP5910209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012061269A JP5910209B2 (en) 2012-03-16 2012-03-16 Robot control apparatus, robot system, robot control method, and robot control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012061269A JP5910209B2 (en) 2012-03-16 2012-03-16 Robot control apparatus, robot system, robot control method, and robot control program

Publications (2)

Publication Number Publication Date
JP2013193149A JP2013193149A (en) 2013-09-30
JP5910209B2 true JP5910209B2 (en) 2016-04-27

Family

ID=49392724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012061269A Expired - Fee Related JP5910209B2 (en) 2012-03-16 2012-03-16 Robot control apparatus, robot system, robot control method, and robot control program

Country Status (1)

Country Link
JP (1) JP5910209B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015191591A (en) * 2014-03-28 2015-11-02 富士通株式会社 information processing apparatus, action timing detection method, and program
JP6203696B2 (en) * 2014-09-30 2017-09-27 富士ソフト株式会社 robot
JP6494062B2 (en) * 2016-08-29 2019-04-03 Groove X株式会社 Autonomous robot that recognizes the direction of the sound source
JP7133840B2 (en) * 2018-09-03 2022-09-09 株式会社国際電気通信基礎技術研究所 ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD
JP7374581B2 (en) * 2018-10-01 2023-11-07 カシオ計算機株式会社 Robot, image processing method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4247149B2 (en) * 2004-03-30 2009-04-02 株式会社国際電気通信基礎技術研究所 robot
JP2006272471A (en) * 2005-03-28 2006-10-12 Advanced Telecommunication Research Institute International Communication robot
JP2006289508A (en) * 2005-04-05 2006-10-26 Sony Corp Robot device and its facial expression control method
JP2007044798A (en) * 2005-08-09 2007-02-22 Advanced Telecommunication Research Institute International Robot communication system
JP2007130691A (en) * 2005-11-08 2007-05-31 Advanced Telecommunication Research Institute International Communication robot
JP5186723B2 (en) * 2006-01-05 2013-04-24 株式会社国際電気通信基礎技術研究所 Communication robot system and communication robot gaze control method

Also Published As

Publication number Publication date
JP2013193149A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5910209B2 (en) Robot control apparatus, robot system, robot control method, and robot control program
US10065651B2 (en) Electronic device and method for determining a state of a driver
US20180181197A1 (en) Input Determination Method
KR101794842B1 (en) System and method for providing haptic feedback to assist in capturing images
WO2017092332A1 (en) Method and device for image rendering processing
JP2019536673A (en) Driving state monitoring method and device, driver monitoring system, and vehicle
US20180218199A1 (en) Information pushing method and apparatus
KR102090936B1 (en) Attention-based rendering and fidelity
US10576633B2 (en) Communication device
US10350761B2 (en) Communication device
US20190382026A1 (en) Drowsiness prevention device, drowsiness prevention method, and recording medium
US20170209796A1 (en) Human social development tool
JP7233449B2 (en) Emotion estimation device and emotion estimation method
CN112083795A (en) Object control method and device, storage medium and electronic equipment
TW201621624A (en) Electronic device and its system and method for reminding shaving beard
US11328508B2 (en) Alerts based on corneal reflections
JP7214986B2 (en) Reflectivity determination device, reflectivity determination method, and program
EP3757878A1 (en) Head pose estimation
WO2021176633A1 (en) Driver state estimation device and driver state estimation method
JP2018051648A (en) Robot control device, robot, robot control method and program
KR102083229B1 (en) Apparatus and method controlling emotional expresion robot
JP2015191591A (en) information processing apparatus, action timing detection method, and program
EP3498429A1 (en) Communication apparatus
JP2013242653A (en) Position-of-interest display device
WO2022155085A1 (en) System for non-verbal hands-free user input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees