JP2006297531A - Service robot - Google Patents

Service robot Download PDF

Info

Publication number
JP2006297531A
JP2006297531A JP2005121856A JP2005121856A JP2006297531A JP 2006297531 A JP2006297531 A JP 2006297531A JP 2005121856 A JP2005121856 A JP 2005121856A JP 2005121856 A JP2005121856 A JP 2005121856A JP 2006297531 A JP2006297531 A JP 2006297531A
Authority
JP
Japan
Prior art keywords
robot
arm
application
person
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005121856A
Other languages
Japanese (ja)
Other versions
JP4394602B2 (en
Inventor
Yuichi Murase
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005121856A priority Critical patent/JP4394602B2/en
Publication of JP2006297531A publication Critical patent/JP2006297531A/en
Application granted granted Critical
Publication of JP4394602B2 publication Critical patent/JP4394602B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a service robot which can change the direction of the robot without rotating its body. <P>SOLUTION: The service robot is a moving robot having at least one arm 4 capable of executing operation and a gesture, a head part 1 capable of measuring surrounding environmental states with an image by rotating a direction of a camera 9 with the degree of freedom of a neck 3, a moving means 5 capable of horizontally rotating with a prescribed radius and capable of moving forward and backward, and a means 7 for making communication in-between a person with voice recognition, voice utterance, characters and pictures using a monitor, and a button. The robot executes an application (A) achieved by facing a person like the presentation and an application (B) achieved by moving while making a person follow the robot like a guide. The robot has a function for allowing a desired robot face to face a person in a prescribed application by making people around the robot recognize the definition of the front face of the robot from a shape of the arm, a direction of the head, and a posture of the robot by changing the arm, the direction of the head, and the posture of the robot. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明はサービスロボットに関する。   The present invention relates to a service robot.

ロボットとしての従来の技術としては、接客ロボットが、来訪者が携帯するID送信装置からのID情報を受信すると、サーバに対して詳細情報を要求し、来訪者の入場状態を判別し、詳細情報に応じたアクションを実行するものが知られている(例えば特許文献1参照)。また、ロボットのカメラの視野方向を外部からの制御信号に応じて順次ずらしていくものが知られている(例えば特許文献2参照)。また、移動ロボットが電波の届かない場所に移動してしまった場合に、無線接続の可能な地点に復帰する復帰手段により電波の届く範囲にロボットを移動させる技術が知られている(例えば特許文献3参照)。   As a conventional technology as a robot, when a customer service robot receives ID information from an ID transmission device carried by a visitor, it requests detailed information from the server, determines the visitor's entrance status, and provides detailed information. There is known one that executes an action corresponding to the above (for example, see Patent Document 1). Further, there is known a technique in which the viewing direction of a robot camera is sequentially shifted in accordance with an external control signal (see, for example, Patent Document 2). In addition, when a mobile robot has moved to a place where radio waves do not reach, a technique for moving the robot to a range where radio waves reach is known by return means that returns to a point where wireless connection is possible (for example, Patent Documents). 3).

移動型のサービスロボットには、人と対面して実現するアプリケーションAと、人を引き連れて実現するアプリケーションBが考えられる。常に、同じ方向を正面として定義してあるロボットは、この2つのケースで人に向ける側のロボットのボディ面は反対になる。一般に、移動型のサービスロボットでは、これらのアプリケーションを人の行動レベルの実行速度でシームレスに実現することが求められる。
特開2005−22029号公報(段落0010〜0013、図1〜図3) 特開2004−255552号公報(段落0009〜0012、図1〜図3) 特開2004−260769号公報(段落0006〜0009、図1〜図3)
As the mobile service robot, an application A that is realized by facing a person and an application B that is realized by taking a person are considered. A robot that always defines the same direction as the front is the opposite of the body surface of the robot facing the person in these two cases. In general, a mobile service robot is required to seamlessly realize these applications at an execution speed of a human behavior level.
Japanese Patent Laying-Open No. 2005-22029 (paragraphs 0010 to 0013, FIGS. 1 to 3) JP 2004-255552 A (paragraphs 0009 to 0012, FIGS. 1 to 3) JP 2004-260769 A (paragraphs 0006 to 0009, FIGS. 1 to 3)

前述した移動型のサービスロボットでは、対人安全性の面でみれば、危険源となる動きをできるだけ抑制し、周囲障害物の確認が容易な行動アルゴリズムを選択しなければならない。作業や身振りを実行可能な少なくとも1本の腕と、カメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、所定の半径で左右旋回・前後移動が可能な移動機構を有する従来のサービスロボットは、正面の概念を一意に確定しているため、余分な危険動作や余分なコミュニケーションデバイスが必要であった。   In the above-described mobile service robot, from the viewpoint of interpersonal safety, it is necessary to select an action algorithm that suppresses movements that are a source of danger as much as possible and that allows easy confirmation of surrounding obstacles. At least one arm that can perform work and gestures, a head that can rotate the direction of the camera and measure the surrounding environmental state with an image, and a moving mechanism that can turn left and right and move back and forth with a predetermined radius Since the conventional service robot has the concept of the front is uniquely determined, an extra dangerous operation and an extra communication device are required.

本発明はこのような課題に鑑みてなされたものであって、高度でかつ信頼性の高いコミュニケーション及び情報提供サービスが可能なサービスロボットを提供することを目的としている。   The present invention has been made in view of such problems, and an object of the present invention is to provide a service robot capable of advanced and highly reliable communication and information providing services.

(1)請求項1記載の発明は、作業や身振りを実行可能な少なくとも1本の腕と、首の自由度でカメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、所定の半径で左右回転・前後移動が可能な移動手段と、音声認識、音声発話やモニタを使用した文字や絵やボタンで人とコミュニケーションをとる手段とを有し、プレゼンテーションのように人と対面して実現するアプリケーションAと、案内のように後に人を引き連れて移動するアプリケーションBを実行する移動ロボットであって、ロボットの腕、頭の向き、姿勢を変更し、その形状からロボットの正面の定義を周囲の人に認識させ、所定のアプリケーションにおいて所望のロボット面を人に対面させる機能を有することを特徴としている。
(2)請求項2記載の発明は、前記アプリケーション切り替えと同期してロボットの腕、頭等の身体座標の定義の切り替え制御を実行することを特徴とする。
(3)請求項3記載の発明は、前記アプリケーションA,Bの異なる方向を正面として用いるアプリケーションにおいて、カメラの向きの回転範囲と腕の可動範囲を各々のアプリケーションで均等に割り振ったことを特徴とする。
(1) The invention according to claim 1 is characterized in that at least one arm capable of performing work and gesture, and a head capable of measuring the surrounding environmental state by an image by rotating the direction of the camera with a degree of freedom of the neck. , Having means for moving left and right and moving back and forth with a predetermined radius, and means for communicating with people using voice recognition, voice utterances and letters, pictures and buttons using a monitor, A mobile robot that executes an application A that is realized in a face-to-face manner and an application B that is moved along with a person, such as guidance, and changes the robot's arm, head orientation, and posture. It is characterized in that it has a function of allowing the surrounding person to recognize the definition of the robot and facing a desired robot surface to the person in a predetermined application.
(2) The invention described in claim 2 is characterized by executing switching control of definitions of body coordinates such as a robot arm and a head in synchronization with the application switching.
(3) The invention according to claim 3 is characterized in that, in an application using different directions of the applications A and B as the front, the rotation range of the camera direction and the movable range of the arm are equally allocated to each application. To do.

(1)請求項1記載の発明によれば、人の安全性を確保すると共に、信頼性の高いコミュニケーション及び情報提供サービスを実現することができる。
(2)請求項2記載の発明によれば、周囲の人の感じる正面とロボットのもつ正面の定義のズレが生じず、アプリケーション単位では左右の変更を意識する必要がなくなる。
(3)請求項3記載の発明によれば、どちらが正面になった場合でも可動範囲の差を意識しないで、共通的に使用できるライブラリ動作及びアプリケーション開発が可能になる。
(1) According to the first aspect of the present invention, it is possible to ensure human safety and realize highly reliable communication and information providing services.
(2) According to the invention described in claim 2, there is no deviation in the definition of the front of the robot and the front felt by the surrounding people, and there is no need to be aware of the left and right changes in application units.
(3) According to the invention described in claim 3, library operation and application development that can be used in common can be performed without being aware of the difference in the movable range regardless of which of the front faces.

以下、図面を参照して本発明の実施の形態例を詳細に説明する。
図1は本発明の一実施の形態例の外観構成例を示す図である。図において、1は頭部、2はボディ、3は首、4は腕、5は移動装置、6はマイク、7はモニタ、8はスピーカ、9はカメラである。即ち、作業や身振りを実行可能な2本の腕4、カメラ9の向きを回転させて周囲の環境状態を画像で計測可能な頭部1、所定の半径で左右旋回・前後移動が可能な移動装置5を有し、音声認識、音声発話やモニタ7を使用した文字や絵やボタン等で人とコミュニケーションをとる手段を有している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an external configuration example of an embodiment of the present invention. In the figure, 1 is a head, 2 is a body, 3 is a neck, 4 is an arm, 5 is a moving device, 6 is a microphone, 7 is a monitor, 8 is a speaker, and 9 is a camera. That is, the two arms 4 that can perform work and gestures, the head 1 that can measure the surrounding environmental state by rotating the direction of the camera 9, and the movement that can turn left and right and move back and forth with a predetermined radius It has a device 5 and has means for communicating with a person by voice recognition, voice utterance, characters, pictures, buttons, etc. using the monitor 7.

本発明では、プレゼンテーション等のように人と対面して実現するアプリケーションAと、案内等のように後に人を引き連れて移動するアプリケーションBを実行するようになっている。図1に示す構成例は、人とのコミュニケーションを取り易くするため人の上半身を模擬した形状としている。このように一般の人が共通に概念として保有している形状を用いると、図2に示すように、頭と腕の向き、姿勢を変更することで、ロボットの正面の定義を外観を使用して人に対して受動的に知らせることができる。   In the present invention, an application A realized by facing a person such as a presentation and an application B that moves with a person later such as a guide are executed. The configuration example shown in FIG. 1 has a shape simulating the upper body of a person in order to facilitate communication with the person. In this way, using a shape commonly held by ordinary people as a concept, as shown in Fig. 2, the appearance and definition of the front of the robot can be used by changing the orientation and posture of the head and arms. Can passively inform people.

図2は頭部と腕の姿勢によるロボット正面の違いの説明図である。(a)はP面がロボットの「正面」と思わせる形体C、(b)はP面がロボットの「背面」と思わせる形体Dである。形体Cから形体Dに変更するためには、頭1を180度回転させ、ロボットの腕4を関節部分からねじって腕の関節から下がそれまでの反対の向きになるようにすればよい。なお、腕をねじって反対向きにする技術は既存のものを利用することができる。モニタ7を含むボディ2は(a)に示すものと同じであるが、頭と腕の関節を回転させることにより、(b)に示すようにその形体によって人にはロボットが後ろ向きになったと判断させることができる。   FIG. 2 is an explanatory diagram of the difference between the front of the robot depending on the postures of the head and arms. (A) is a feature C that makes the P-plane appear to be the “front” of the robot, and (b) is a feature D that makes the P-plane appear to be the “rear” of the robot. In order to change from the form C to the form D, the head 1 is rotated by 180 degrees, and the robot arm 4 is twisted from the joint portion so that the downward direction from the joint of the arm is the opposite direction. In addition, the existing technology can be used for twisting the arm to make it opposite. The body 2 including the monitor 7 is the same as that shown in (a). However, by rotating the joint between the head and the arm, it is determined that the robot is turned backward by the shape as shown in (b). Can be made.

これにより、形体Cではモニタ7を胸側に位置させて行なうサービスのアプリケーションに適した形体となる。これらのアプリケーションとしては、モニタ7に絵を出しながらの身振り手振りのプレゼンテーション等がある。一方、形体Dでは、モニタ7を背中側に位置させて行なうアプリケーションに適した形体となる。   Thus, the form C becomes a form suitable for a service application performed with the monitor 7 positioned on the chest side. As these applications, there are presentations of gestures while drawing pictures on the monitor 7. On the other hand, the form D is a form suitable for an application performed with the monitor 7 positioned on the back side.

このアプリケーションの例としては、人を背中側に引き連れた引率型の案内等がある。ロボットの走行方向の環境をカメラ9で撮影した画像で計測しながら引率し、背中側のユーザに対してモニタ7に絵、写真、文字等を表示させてその場に適した情報を提供することが可能である。このように、本発明によれば、モニタを別途搭載することなく、2形体のロボットとして利用することが可能である。このように、本発明によれば、ロボットの向きを変える時に、ボディ自体を旋回することがないので、人の安全性を確保すると共に、信頼性の高いコミュニケーション及び情報提供サービスを実現することができる。   As an example of this application, there is a pull-in type guide that takes a person to the back side. To provide environment-friendly information by displaying pictures, photos, characters, etc. on the monitor 7 for the user on the back side, while measuring the environment in the direction of the robot with an image taken by the camera 9 Is possible. Thus, according to the present invention, it can be used as a two-shaped robot without separately mounting a monitor. As described above, according to the present invention, when the orientation of the robot is changed, the body itself does not turn, so that it is possible to ensure human safety and realize a highly reliable communication and information providing service. it can.

これらの形体の切り替えは、ロボットの正面を共通の概念としてイメージさせる特定の最小限の関節を切り替える(ねじる)ことで可能である。本構成例でいえば、ボディ2に対する頭部1の顔面方向を制御する首回転関節、及び肘の曲げ方向がロボットの正面をイメージさせる。   Switching between these shapes is possible by switching (twisting) a specific minimum joint that makes the front of the robot image as a common concept. In this configuration example, the neck rotation joint that controls the face direction of the head 1 relative to the body 2 and the bending direction of the elbow make the image of the front of the robot.

A,Bタイプのアプリケーションが連動した出迎え、接見、引率案内という複雑なアプリケーションにおいては、人とロボットの相対位置関係を人やロボット全体が動くことなく、ロボットの限られた関節を動かして形体を変えることで変更可能であり、スムーズなアプリケーションの遂行を可能にする。その一例として、図3のような挨拶、引き連れての案内の流れを示す。   In complex applications such as A / B-type applications that are linked to welcome, interview, and guide guidance, the relative positional relationship between a person and a robot can be moved by moving a limited joint of the robot without moving the person or the entire robot. It can be changed by changing it, enabling smooth application execution. As an example, the flow of greeting and accompanying guidance as shown in FIG. 3 is shown.

図3はロボットの正面定義を切り替えてのサービスの例を示す図である。(a)では、人18とロボットとが対面している。(b)では、ロボットが「●さん。ようこそいらっしゃいました。それでは、ご案内しますね。」とスピーカ8から発音する。この後、首の向きと腕の形体の変形による前後定義の切り替え動作を行なう。この結果、(c)に示すようにロボットの方の形体が変化し、人はロボットの後についていく形となる。ロボットはスピーカ8から、「私の後ろについてきてください。」と発音する。そして、移動中も背中側にあるモニタ7で館内の情報を表示することができる。   FIG. 3 is a diagram illustrating an example of a service by switching the front definition of the robot. In (a), the person 18 and the robot are facing each other. In (b), the robot pronounces “Speaking of Mr. ●, welcome. Then I will guide you” from the speaker 8. After this, the forward / backward definition switching operation is performed by deforming the neck direction and the shape of the arm. As a result, the shape of the robot changes as shown in (c), and the person follows the robot. The robot pronounces "Please come behind me" from the speaker 8. And while moving, the information in the hall can be displayed on the monitor 7 on the back side.

前述したロボットにおいて、ロボットの正面の定義を切り替える場合、ロボットの左右の腕の定義が切り替わることから分かるように、会話や腕、首、走行装置の制御等、左右の定義が影響するソフトウェアの設定を全て変更する必要がある。即ち、ロボット周囲に位置する人が感じる右腕の定義とロボット内部で持つ右腕の概念を一致させないと、“右手側に見える×××は△△です。”という会話が成り立たない。   In the robot described above, when switching the definition of the front of the robot, software settings that affect the definition of the left and right, such as conversation, control of the arm, neck, traveling device, etc., as seen from the switching of the definition of the left and right arms of the robot All need to be changed. That is, unless the definition of the right arm felt by people around the robot and the concept of the right arm in the robot are matched, the conversation “XXX seen on the right hand side is ΔΔ” cannot be established.

そこで、形体の変化で正面の定義の変更をさせる手順として図4に例を示す。図4は正面定義の切り替えと座標設定、形体変形の流れを示すフローチャートである。図4は、正面の定義を例えばAタイプのアプリケーションの場合を[1]、Bタイプのアプリケーションを[2]等と単純なコードで識別し、これを切り替える時には会話エンジンや腕、
首、走行装置の制御に関わる座標変換処理部にこのコードを使用して一斉に同期させて設定、修正し、その後に形体変形処理を実行する。このように、一括して同時変更することで、周囲の人の感じる正面とロボットのもつ正面の定義のずれが生じず、更にアプリケーション単位では左右の変更を意識する必要がなくなる。
FIG. 4 shows an example of a procedure for changing the definition of the front by changing the form. FIG. 4 is a flowchart showing the flow of front definition switching, coordinate setting, and shape deformation. FIG. 4 shows the definition of the front as a simple code such as [1] for an A-type application and [2] for a B-type application.
This code is used for the coordinate conversion processing unit related to the control of the neck and the traveling device, and is set and corrected simultaneously in synchronism, and then the shape deformation process is executed. In this way, by simultaneously changing the parameters at the same time, there is no deviation in the definition of the front of the robot and the front of the robot, and there is no need to be aware of the left and right changes in application units.

図4の動作を説明する。先ず、設定アプリケーションを実行すると(S1)、正面定義の切り替えイベントの有無をチェックする(S2)。正面定義の切り替えイベントがない場合にはステップS1に戻る。正面定義の切り替えイベントがある場合には、正面定義の判別コードの設定を行なう(S3)。次に、判別コードに応じて身体パラメータを更新する。身体パラメータとしては、会話エンジン20、腕座標変換マトリックス21、走行座標変換マトリックス22、首座標変換マトリックス23がある。そして、形体変形を実行し(S5)、ステップS1に戻る。   The operation of FIG. 4 will be described. First, when the setting application is executed (S1), the presence / absence of a front definition switching event is checked (S2). If there is no front definition switching event, the process returns to step S1. If there is a front definition switching event, the front definition discrimination code is set (S3). Next, the body parameter is updated according to the determination code. The body parameters include a conversation engine 20, an arm coordinate conversion matrix 21, a running coordinate conversion matrix 22, and a neck coordinate conversion matrix 23. Then, the shape deformation is executed (S5), and the process returns to step S1.

次に、形体C,Dのように異なる方向を正面として用いるアプリケーションにおいて、ロボットカメラ9の向きの回転範囲を決定する、例えば首3の回転角範囲及び腕4の可動範囲を均等に割り振ることで、どちらが正面になった場合も可動範囲の差を意識しないで、共通に使用できるライブラリ開発、及びアプリケーション開発が可能になる。   Next, in an application that uses different directions as the front, such as features C and D, the rotation range of the orientation of the robot camera 9 is determined. For example, the rotation angle range of the neck 3 and the movable range of the arm 4 are equally allocated. In either case, it becomes possible to develop a library and application that can be used in common without being aware of the difference in the movable range.

図5は上から見た首の回転可動範囲の例を示す図である。図1と同一のものは、同一の符号を付して示す。1は頭部、2はボディ、4は腕、Jはカメラ視線方向、Kは首3(図示せず)の回転可動範囲である。この首の回転可動範囲はカメラの視線可動範囲と一致する。P面側は、図2の場合と同じである。首の回転可動範囲を均等に割り振ることで、どちらが正面になった場合も可動範囲の差を意識しなくてすむ。   FIG. 5 is a diagram showing an example of a rotationally movable range of the neck viewed from above. The same components as those in FIG. 1 are denoted by the same reference numerals. 1 is the head, 2 is the body, 4 is the arm, J is the camera viewing direction, and K is the rotationally movable range of the neck 3 (not shown). The rotational range of the neck coincides with the range of visual line movement of the camera. The P-plane side is the same as in FIG. By allocating the range of rotation of the neck evenly, it is not necessary to be aware of the difference in the range of movement when either becomes the front.

図6は腕の特定関節の形体変更によるロボット正面位置の切り替えの説明図である。(a)の場合には、上腕ねじり関節4aにより形状変更の場合を示す。ねじり関節4aをねじることで、正面位置の定義が前後逆になる。(b)の場合には、肘関節4bをねじることで、正面位置の定義が前後逆になる。このように、本発明によれば、腕の部分の関節をねじることで、ロボット自体が回転しなくても人が常識として有している腕の形体の概念を利用すれば、正面位置の定義を変更することができる。なお、関節をねじって腕を回転させる機構については、既存の技術を用いることができる。   FIG. 6 is an explanatory diagram of switching of the robot front position by changing the shape of a specific joint of the arm. In the case of (a), a case where the shape is changed by the upper arm torsion joint 4a is shown. By twisting the torsion joint 4a, the definition of the front position is reversed. In the case of (b), the definition of the front position is reversed by twisting the elbow joint 4b. Thus, according to the present invention, by twisting the joints of the arm portion, the front position definition can be defined by using the concept of the arm shape that a person has as common sense even if the robot itself does not rotate. Can be changed. An existing technique can be used for the mechanism for rotating the arm by twisting the joint.

図7は本発明の一実施の形態例を示すブロック図である。カメラ部分の撮影機構と、音声ガイド部、首、腕等の動作機構等については省略して示す。図において、30は主制御装置で、主記憶装置31と全体の動作を制御するCPU32から構成されている。33は第1腕コントロール部、34は第2腕コントロール部であり、CPU32及び主記憶装置31と接続されている。35は頭コントロール部であり、CPU32と接続されている。16は各種のアプリケーションを格納するアプリケーション記憶部である。このように構成されたロボットの動作を説明すれば、以下の通りである。   FIG. 7 is a block diagram showing an embodiment of the present invention. An imaging mechanism for the camera portion and an operation mechanism such as a voice guide portion, a neck, and an arm are omitted. In the figure, reference numeral 30 denotes a main control device, which comprises a main storage device 31 and a CPU 32 that controls the overall operation. A first arm control unit 33 and a second arm control unit 34 are connected to the CPU 32 and the main storage device 31. A head control unit 35 is connected to the CPU 32. An application storage unit 16 stores various applications. The operation of the robot configured as described above will be described as follows.

CPU32は、アプリケーション記憶部36にアクセスして、ロボットにそれぞれの動作を行わせるためのアプリケーションを主記憶装置31にダウンロードさせる。そして、主記憶装置31に記憶されたアプリケーションに基づいて、前述したような動作を行わせる。CPU32は、第1腕コントロール部33と第2腕コントロール部34に制御信号を送り、それぞれの腕を右腕又は左腕として機能させるための腕関節のねじり動作を行わせる。また、CPU32は頭コントロール部35に制御を送り、首3の回転運動を制御する。   The CPU 32 accesses the application storage unit 36 and causes the main storage device 31 to download an application for causing the robot to perform each operation. Then, based on the application stored in the main storage device 31, the operation as described above is performed. The CPU 32 sends a control signal to the first arm control unit 33 and the second arm control unit 34 to cause the arm joint to twist to operate each arm as a right arm or a left arm. Further, the CPU 32 sends control to the head control unit 35 to control the rotational movement of the neck 3.

この実施の形態例によれば、第1腕コントロール部33と、第2腕コントロール部34を制御することにより、どちらが右腕、左腕になるかが決定する。そして、右腕と左腕の定義が行われると、どちらがロボットの正面又は背面であるかが決定する。なお、右腕のねじり動作と左腕のねじり動作はCPU32が自動で行なうことができるが、モニタ7から人が手動で切り替え動作を行わせるようにすることができる。第1腕コントロール部13と第2腕コントロール部34は、主記憶装置31を参照することにより、参照データと正面の定義を読み込み、腕を所定の方向に向けることができる(図6参照)。   According to this embodiment, the first arm control unit 33 and the second arm control unit 34 are controlled to determine which is the right arm or the left arm. When the right arm and the left arm are defined, it is determined which is the front or back of the robot. The CPU 32 can automatically perform the twisting operation of the right arm and the twisting operation of the left arm. However, a person can manually perform the switching operation from the monitor 7. The first arm control unit 13 and the second arm control unit 34 can read the reference data and the definition of the front by referring to the main storage device 31, and can point the arm in a predetermined direction (see FIG. 6).

このように、本発明によれば、ボディを回転することなくロボットの向きを変えることでき、高度でかつ信頼性の高いコミュニケーション及び情報提供サービスが可能なサービスロボットを提供することができる。   As described above, according to the present invention, it is possible to provide a service robot capable of changing the direction of the robot without rotating the body and capable of performing highly reliable communication and information providing services.

本発明の一実施の形態例の外観構成例を示す図である。It is a figure which shows the example of an external appearance structure of one embodiment of this invention. 頭部と腕の姿勢によるロボット正面の違いの説明図図である。It is explanatory drawing of the difference in the robot front by the attitude | position of a head and an arm. ロボットの正面定義を切り替えてのサービスの例を示す図である。It is a figure which shows the example of the service which switches the front definition of a robot. 正面定義の切り替えと座標設定、形体変形の流れを示すフローチャートである。It is a flowchart which shows the flow of switching of a front definition, coordinate setting, and a shape deformation. 上から見た首の回転可動範囲の例を示す図である。It is a figure which shows the example of the rotation movable range of the neck seen from the top. 腕の特定関節の形体変更によるロボット正面位置の切り替えの説明図である。It is explanatory drawing of switching of the robot front position by the shape change of the specific joint of an arm. 本発明の一実施の形態例を示すブロック図である。It is a block diagram which shows one embodiment of this invention.

符号の説明Explanation of symbols

1 頭部
2 ボディ
3 首
4 腕
5 移動装置
6 マイク
7 モニタ
8 スピーカ
9 カメラ
1 Head 2 Body 3 Neck 4 Arm 5 Moving Device 6 Microphone 7 Monitor 8 Speaker 9 Camera

Claims (3)

作業や身振りを実行可能な少なくとも1本の腕と、
首の自由度でカメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、
所定の半径で左右回転・前後移動が可能な移動手段と、
音声認識、音声発話やモニタを使用した文字や絵やボタンで人とコミュニケーションをとる手段と、
を有し、プレゼンテーションのように人と対面して実現するアプリケーションAと、案内のように後に人を引き連れて移動するアプリケーションBを実行する移動ロボットであって、
ロボットの腕、頭の向き、姿勢を変更し、その形状からロボットの正面の定義を周囲の人に認識させ、所定のアプリケーションにおいて所望のロボット面を人に対面させる機能を有することを特徴とするサービスロボット。
At least one arm that can perform work and gestures,
A head that can rotate the direction of the camera with the degree of freedom of the neck and measure the surrounding environmental state with an image,
Moving means capable of rotating left and right and moving back and forth with a predetermined radius;
Voice recognition, voice utterance, means to communicate with people with letters, pictures and buttons using a monitor,
A mobile robot that executes an application A that is realized by facing a person like a presentation, and an application B that moves with a person later like a guide,
The robot has the function of changing the robot's arm, head orientation and posture, allowing the surrounding person to recognize the definition of the front of the robot from its shape, and having the desired robot face face the person in a given application Service robot.
前記アプリケーション切り替えと同期してロボットの腕、頭等の身体座標の定義の切り替え制御を実行することを特徴とする請求項1記載のサービスロボット。   The service robot according to claim 1, wherein switching control of definitions of body coordinates such as a robot arm and a head is executed in synchronization with the application switching. 前記アプリケーションA,Bの異なる方向を正面として用いるアプリケーションにおいて、カメラの向きの回転範囲と腕の可動範囲を各々のアプリケーションで均等に割り振ったことを特徴とする請求項1記載のサービスロボット。   The service robot according to claim 1, wherein in the application using different directions of the applications A and B as the front, the rotation range of the camera direction and the movable range of the arm are equally allocated to each application.
JP2005121856A 2005-04-20 2005-04-20 Service robot Expired - Fee Related JP4394602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005121856A JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005121856A JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Publications (2)

Publication Number Publication Date
JP2006297531A true JP2006297531A (en) 2006-11-02
JP4394602B2 JP4394602B2 (en) 2010-01-06

Family

ID=37466229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005121856A Expired - Fee Related JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Country Status (1)

Country Link
JP (1) JP4394602B2 (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011000656A (en) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International Guide robot
KR101083700B1 (en) 2009-04-02 2011-11-16 주식회사 유진로봇 robot system for restaurant serving
CN102909726A (en) * 2012-10-11 2013-02-06 上海泰熙信息科技有限公司 Behavior realizing method for service robot
CN105437211A (en) * 2015-12-11 2016-03-30 塔米智能科技(北京)有限公司 Double-expression service robot
CN105835065A (en) * 2016-05-27 2016-08-10 苏州铭冠软件科技有限公司 Intelligent service robot
CN105965513A (en) * 2016-04-15 2016-09-28 青岛克路德机器人有限公司 Implementation system for robot facial expressions
CN106023884A (en) * 2016-07-29 2016-10-12 西安旭天电子科技有限公司 Robot face expression display device
CN106095109A (en) * 2016-06-20 2016-11-09 华南理工大学 The method carrying out robot on-line teaching based on gesture and voice
CN106125925A (en) * 2016-06-20 2016-11-16 华南理工大学 Method is arrested based on gesture and voice-operated intelligence
CN106335071A (en) * 2016-11-14 2017-01-18 上海木爷机器人技术有限公司 The robot and robot control method
WO2017020734A1 (en) * 2015-08-04 2017-02-09 北京进化者机器人科技有限公司 Multi-functional home service robot
JP1573020S (en) * 2016-08-05 2017-04-03
CN106826867A (en) * 2017-03-31 2017-06-13 上海思依暄机器人科技股份有限公司 A kind of method that robot and control robot head are rotated
KR20170087207A (en) * 2016-01-20 2017-07-28 삼성전자주식회사 Electronic device and method for processing voice command thereof
WO2017131225A1 (en) 2016-01-31 2017-08-03 貴司 徳田 Motor module system
CN107962588A (en) * 2017-12-07 2018-04-27 北京康力优蓝机器人科技有限公司 A kind of arm structure of robot
CN108334098A (en) * 2018-02-28 2018-07-27 弗徕威智能机器人科技(上海)有限公司 A kind of human body follower method based on multisensor
CN108714899A (en) * 2018-06-28 2018-10-30 安徽共生众服供应链技术研究院有限公司 It is a kind of to follow monitoring expulsion robot automatically
CN108942966A (en) * 2018-08-27 2018-12-07 安徽星宇生产力促进中心有限公司 A kind of reception counter of hotel service robot
CN108972499A (en) * 2018-09-03 2018-12-11 武汉梦之蓝科技有限公司 A kind of sanitation robot
WO2020141747A1 (en) * 2019-01-03 2020-07-09 삼성전자주식회사 Mobile robot and operation method thereof

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105128012A (en) * 2015-08-10 2015-12-09 深圳百思拓威机器人技术有限公司 Open type intelligent service robot system and multiple controlling methods thereof
CN110049285B (en) * 2019-03-21 2020-11-27 史君炜 A intelligent nurse system for asylum for aged

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101083700B1 (en) 2009-04-02 2011-11-16 주식회사 유진로봇 robot system for restaurant serving
JP2011000656A (en) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International Guide robot
CN102909726A (en) * 2012-10-11 2013-02-06 上海泰熙信息科技有限公司 Behavior realizing method for service robot
WO2017020734A1 (en) * 2015-08-04 2017-02-09 北京进化者机器人科技有限公司 Multi-functional home service robot
CN105437211A (en) * 2015-12-11 2016-03-30 塔米智能科技(北京)有限公司 Double-expression service robot
KR102392113B1 (en) 2016-01-20 2022-04-29 삼성전자주식회사 Electronic device and method for processing voice command thereof
KR20170087207A (en) * 2016-01-20 2017-07-28 삼성전자주식회사 Electronic device and method for processing voice command thereof
US10507586B2 (en) 2016-01-31 2019-12-17 Keigan Inc. Motor module system
JP2017135961A (en) * 2016-01-31 2017-08-03 貴司 徳田 Motor Module System
WO2017131225A1 (en) 2016-01-31 2017-08-03 貴司 徳田 Motor module system
CN105965513A (en) * 2016-04-15 2016-09-28 青岛克路德机器人有限公司 Implementation system for robot facial expressions
CN105835065A (en) * 2016-05-27 2016-08-10 苏州铭冠软件科技有限公司 Intelligent service robot
CN106125925A (en) * 2016-06-20 2016-11-16 华南理工大学 Method is arrested based on gesture and voice-operated intelligence
CN106095109A (en) * 2016-06-20 2016-11-09 华南理工大学 The method carrying out robot on-line teaching based on gesture and voice
CN106095109B (en) * 2016-06-20 2019-05-14 华南理工大学 The method for carrying out robot on-line teaching based on gesture and voice
CN106125925B (en) * 2016-06-20 2019-05-14 华南理工大学 Intelligence based on gesture and voice control arrests method
CN106023884A (en) * 2016-07-29 2016-10-12 西安旭天电子科技有限公司 Robot face expression display device
JP1573020S (en) * 2016-08-05 2017-04-03
CN106335071A (en) * 2016-11-14 2017-01-18 上海木爷机器人技术有限公司 The robot and robot control method
CN106826867A (en) * 2017-03-31 2017-06-13 上海思依暄机器人科技股份有限公司 A kind of method that robot and control robot head are rotated
CN107962588A (en) * 2017-12-07 2018-04-27 北京康力优蓝机器人科技有限公司 A kind of arm structure of robot
CN108334098A (en) * 2018-02-28 2018-07-27 弗徕威智能机器人科技(上海)有限公司 A kind of human body follower method based on multisensor
CN108714899A (en) * 2018-06-28 2018-10-30 安徽共生众服供应链技术研究院有限公司 It is a kind of to follow monitoring expulsion robot automatically
CN108942966A (en) * 2018-08-27 2018-12-07 安徽星宇生产力促进中心有限公司 A kind of reception counter of hotel service robot
CN108972499A (en) * 2018-09-03 2018-12-11 武汉梦之蓝科技有限公司 A kind of sanitation robot
WO2020141747A1 (en) * 2019-01-03 2020-07-09 삼성전자주식회사 Mobile robot and operation method thereof

Also Published As

Publication number Publication date
JP4394602B2 (en) 2010-01-06

Similar Documents

Publication Publication Date Title
JP4394602B2 (en) Service robot
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US20180210544A1 (en) Head Tracking Based Gesture Control Techniques For Head Mounted Displays
US20150032331A1 (en) System and Method for Controlling a Vehicle User Interface Based on Gesture Angle
KR20170097585A (en) Initiating human-machine interaction based on visual attention
JP4512830B2 (en) Communication robot
US11755122B2 (en) Hand gesture-based emojis
US20220083197A1 (en) Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
JP4386367B2 (en) Communication robot improvement system
US20090033618A1 (en) Unit, an Assembly and a Method for Controlling in a Dynamic Egocentric Interactive Space
JP2011000681A (en) Communication robot
CN108369451B (en) Information processing apparatus, information processing method, and computer-readable storage medium
Mayer et al. Examples of multimodal user interfaces for socially assistive robots in Ambient Assisted Living environments
AU2021242208A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
JP4962940B2 (en) Route guidance system
JP2007160427A (en) Robot control system
JP2019147234A (en) Device, robot, method, and program
JP5429461B2 (en) Communication robot development support device
WO2017110178A1 (en) Information processing device, information processing method, and program
JP2009194779A (en) Virtual communication system
JP2019168971A (en) Same room feeling communication system
US20220261085A1 (en) Measurement based on point selection
JP2019084628A (en) Autonomous mobile robot
KR102295245B1 (en) Terminal and event progress control method thereof
US20240103712A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A131 Notification of reasons for refusal

Effective date: 20090714

Free format text: JAPANESE INTERMEDIATE CODE: A131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090910

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091015

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 3

Free format text: PAYMENT UNTIL: 20121023

LAPS Cancellation because of no payment of annual fees