JP4394602B2 - Service robot - Google Patents

Service robot Download PDF

Info

Publication number
JP4394602B2
JP4394602B2 JP2005121856A JP2005121856A JP4394602B2 JP 4394602 B2 JP4394602 B2 JP 4394602B2 JP 2005121856 A JP2005121856 A JP 2005121856A JP 2005121856 A JP2005121856 A JP 2005121856A JP 4394602 B2 JP4394602 B2 JP 4394602B2
Authority
JP
Japan
Prior art keywords
robot
application
arm
person
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005121856A
Other languages
Japanese (ja)
Other versions
JP2006297531A (en
Inventor
有一 村瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005121856A priority Critical patent/JP4394602B2/en
Publication of JP2006297531A publication Critical patent/JP2006297531A/en
Application granted granted Critical
Publication of JP4394602B2 publication Critical patent/JP4394602B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Description

本発明はサービスロボットに関する。   The present invention relates to a service robot.

ロボットとしての従来の技術としては、接客ロボットが、来訪者が携帯するID送信装置からのID情報を受信すると、サーバに対して詳細情報を要求し、来訪者の入場状態を判別し、詳細情報に応じたアクションを実行するものが知られている(例えば特許文献1参照)。また、ロボットのカメラの視野方向を外部からの制御信号に応じて順次ずらしていくものが知られている(例えば特許文献2参照)。また、移動ロボットが電波の届かない場所に移動してしまった場合に、無線接続の可能な地点に復帰する復帰手段により電波の届く範囲にロボットを移動させる技術が知られている(例えば特許文献3参照)。   As a conventional technology as a robot, when a customer service robot receives ID information from an ID transmission device carried by a visitor, it requests detailed information from the server, determines the visitor's entrance status, and provides detailed information. There is known one that executes an action corresponding to the above (for example, see Patent Document 1). Further, there is known a technique in which the viewing direction of a robot camera is sequentially shifted in accordance with an external control signal (see, for example, Patent Document 2). In addition, when a mobile robot has moved to a place where radio waves do not reach, a technique for moving the robot to a range where radio waves reach is known by return means that returns to a point where wireless connection is possible (for example, Patent Documents). 3).

移動型のサービスロボットには、人と対面して実現するアプリケーションAと、人を引き連れて実現するアプリケーションBが考えられる。常に、同じ方向を正面として定義してあるロボットは、この2つのケースで人に向ける側のロボットのボディ面は反対になる。一般に、移動型のサービスロボットでは、これらのアプリケーションを人の行動レベルの実行速度でシームレスに実現することが求められる。
特開2005−22029号公報(段落0010〜0013、図1〜図3) 特開2004−255552号公報(段落0009〜0012、図1〜図3) 特開2004−260769号公報(段落0006〜0009、図1〜図3)
As the mobile service robot, an application A that is realized by facing a person and an application B that is realized by taking a person are considered. A robot that always defines the same direction as the front is the opposite of the body surface of the robot facing the person in these two cases. In general, a mobile service robot is required to seamlessly realize these applications at an execution speed of a human behavior level.
Japanese Patent Laying-Open No. 2005-22029 (paragraphs 0010 to 0013, FIGS. 1 to 3) JP 2004-255552 A (paragraphs 0009 to 0012, FIGS. 1 to 3) JP 2004-260769 A (paragraphs 0006 to 0009, FIGS. 1 to 3)

前述した移動型のサービスロボットでは、対人安全性の面でみれば、危険源となる動きをできるだけ抑制し、周囲障害物の確認が容易な行動アルゴリズムを選択しなければならない。作業や身振りを実行可能な少なくとも1本の腕と、カメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、所定の半径で左右旋回・前後移動が可能な移動機構を有する従来のサービスロボットは、正面の概念を一意に確定しているため、余分な危険動作や余分なコミュニケーションデバイスが必要であった。   In the above-described mobile service robot, from the viewpoint of interpersonal safety, it is necessary to select an action algorithm that suppresses movements that are a source of danger as much as possible and that allows easy confirmation of surrounding obstacles. At least one arm that can perform work and gestures, a head that can rotate the direction of the camera and measure the surrounding environmental state with an image, and a moving mechanism that can turn left and right and move back and forth with a predetermined radius Since the conventional service robot has the concept of the front is uniquely determined, an extra dangerous operation and an extra communication device are required.

本発明はこのような課題に鑑みてなされたものであって、高度でかつ信頼性の高いコミュニケーション及び情報提供サービスが可能なサービスロボットを提供することを目的としている。   The present invention has been made in view of such problems, and an object of the present invention is to provide a service robot capable of advanced and highly reliable communication and information providing services.

(1)請求項1記載の発明は、作業や身振りを実行可能な少なくとも1本の腕と、首の自由度でカメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、所定の半径で左右回転・前後移動が可能な移動手段と、音声認識、音声発話、文字や絵やボタンを表示するモニタの少なくとも一つを用いて人とコミュニケーションする手段と、第1面と、該第1面と反対側にある第2面とを有するボディと、を有し、プレゼンテーションのように人と対面して実現するアプリケーションAと、案内のように後に人を引き連れて移動するアプリケーションBを実行する移動ロボットであって、ロボットの腕頭の向き及び姿勢を変更することで、その形状からロボットの正面が上記第1面と第2面のいずれの側なのかを周囲の人に認識させることにより、所定の前記アプリケーションにおいて人に対面させるロボット面をボディを回転させることなく変更する機能を有し、前記アプリケーション切り替えと同期してロボットの身体座標の定義の切り替え制御を実行することを特徴としている。
(2)請求項2記載の発明は、前記アプリケーションA,Bの異なる方向を正面として用いるアプリケーションにおいて、カメラの向きの回転範囲と腕の可動範囲を各々のアプリケーションで均等に割り振ったことを特徴とする。
(3)請求項3記載の発明は、上記人とコミュニケーションする手段は上記第1面に設けられ、上記アプリケーションAの実行時にはロボットの正面を上記第1面であると周囲に人に認識させ、上記アプリケーションBの実行時にはロボットの正面が上記第2面であると周囲の人に認識させるよう、ロボットの腕と頭の向き及び姿勢を変更することを特徴とする。
(1) The invention according to claim 1 is characterized in that at least one arm capable of performing work and gesture, and a head capable of measuring the surrounding environmental state by an image by rotating the direction of the camera with a degree of freedom of the neck. A means for communicating with a person using at least one of a monitor that displays a voice recognition, a voice utterance , a character, a picture, or a button ; a first surface; An application A that has a body having a second surface opposite to the first surface and is realized by facing a person like a presentation, and an application that moves with a person later like a guide A mobile robot that executes B, and by changing the orientation and posture of the robot's arm and head, it is possible to determine whether the front surface of the robot is on the side of the first surface or the second surface based on its shape. Ru was recognized in And by, characterized in that the robot face to face the person have a function to change without rotating the body, in synchronization with the application switching executes switching control of the definition of the body coordinate of the robot in a given of the application It is said.
(2) The invention according to claim 2 is characterized in that, in an application using different directions of the applications A and B as the front, the rotation range of the camera direction and the movable range of the arm are equally allocated to each application. To do.
(3) In the invention according to claim 3, the means for communicating with the person is provided on the first surface, and when the application A is executed, the front surface of the robot is recognized as the first surface by the person around, When executing the application B, the direction and posture of the robot's arm and head are changed so that surrounding people can recognize that the front of the robot is the second surface .

(1)請求項1記載の発明によれば、人の安全性を確保すると共に、信頼性の高いコミュニケーション及び情報提供サービスを実現することができ、また周囲の人の感じる正面とロボットのもつ正面の定義のズレが生じず、アプリケーション単位では左右の変更を意識する必要がなくなる。
(2)請求項2記載の発明によれば、どちらが正面になった場合でも可動範囲の差を意識しないで、共通的に使用できるライブラリ動作及びアプリケーション開発が可能になる。
(3)請求項3記載の発明によれば、アプリケーションAとBの違いによる正面を周囲の人に認識させることができる。
(1) According to the first aspect of the present invention, it is possible to ensure human safety and realize highly reliable communication and information providing services, and the front surface of the robot and the front surface felt by the surrounding people. There is no need to be aware of the left and right changes in application units.
(2) According to the second aspect of the present invention, it is possible to develop a library operation and application development that can be used in common without being aware of the difference in the movable range regardless of which of the front faces.
(3) According to the invention described in claim 3, it is possible to make the surrounding people recognize the front face due to the difference between the applications A and B.

以下、図面を参照して本発明の実施の形態例を詳細に説明する。
図1は本発明の一実施の形態例の外観構成例を示す図である。図において、1は頭部、2はボディ、3は首、4は腕、5は移動装置、6はマイク、7はモニタ、8はスピーカ、9はカメラである。即ち、作業や身振りを実行可能な2本の腕4、カメラ9の向きを回転させて周囲の環境状態を画像で計測可能な頭部1、所定の半径で左右旋回・前後移動が可能な移動装置5を有し、音声認識、音声発話やモニタ7を使用した文字や絵やボタン等で人とコミュニケーションをとる手段を有している。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an external configuration example of an embodiment of the present invention. In the figure, 1 is a head, 2 is a body, 3 is a neck, 4 is an arm, 5 is a moving device, 6 is a microphone, 7 is a monitor, 8 is a speaker, and 9 is a camera. That is, the two arms 4 that can perform work and gestures, the head 1 that can measure the surrounding environmental state by rotating the direction of the camera 9, and the movement that can turn left and right and move back and forth with a predetermined radius It has a device 5 and has means for communicating with a person by voice recognition, voice utterance, characters, pictures, buttons, etc. using the monitor 7.

本発明では、プレゼンテーション等のように人と対面して実現するアプリケーションAと、案内等のように後に人を引き連れて移動するアプリケーションBを実行するようになっている。図1に示す構成例は、人とのコミュニケーションを取り易くするため人の上半身を模擬した形状としている。このように一般の人が共通に概念として保有している形状を用いると、図2に示すように、頭と腕の向き、姿勢を変更することで、ロボットの正面の定義を外観を使用して人に対して受動的に知らせることができる。   In the present invention, an application A realized by facing a person such as a presentation and an application B that moves with a person later such as a guide are executed. The configuration example shown in FIG. 1 has a shape simulating the upper body of a person in order to facilitate communication with the person. In this way, using a shape commonly held by ordinary people as a concept, as shown in Fig. 2, the appearance and definition of the front of the robot can be used by changing the orientation and posture of the head and arms. Can passively inform people.

図2は頭部と腕の姿勢によるロボット正面の違いの説明図である。(a)はP面がロボットの「正面」と思わせる形体C、(b)はP面がロボットの「背面」と思わせる形体Dである。形体Cから形体Dに変更するためには、頭1を180度回転させ、ロボットの腕4を関節部分からねじって腕の関節から下がそれまでの反対の向きになるようにすればよい。なお、腕をねじって反対向きにする技術は既存のものを利用することができる。モニタ7を含むボディ2は(a)に示すものと同じであるが、頭と腕の関節を回転させることにより、(b)に示すようにその形体によって人にはロボットが後ろ向きになったと判断させることができる。   FIG. 2 is an explanatory diagram of the difference between the front of the robot depending on the postures of the head and arms. (A) is a feature C that makes the P-plane appear to be the “front” of the robot, and (b) is a feature D that makes the P-plane appear to be the “back” of the robot. In order to change from the form C to the form D, the head 1 is rotated by 180 degrees, and the robot arm 4 is twisted from the joint portion so that the downward direction from the joint of the arm is the opposite direction. In addition, the existing technology can be used for twisting the arm to make it opposite. The body 2 including the monitor 7 is the same as that shown in (a). However, by rotating the joint between the head and the arm, it is determined that the robot is turned backward by the shape as shown in (b). Can be made.

これにより、形体Cではモニタ7を胸側に位置させて行なうサービスのアプリケーションに適した形体となる。これらのアプリケーションとしては、モニタ7に絵を出しながらの身振り手振りのプレゼンテーション等がある。一方、形体Dでは、モニタ7を背中側に位置させて行なうアプリケーションに適した形体となる。   Thus, the form C becomes a form suitable for a service application performed with the monitor 7 positioned on the chest side. As these applications, there are presentations of gestures while drawing pictures on the monitor 7. On the other hand, the form D is a form suitable for an application performed with the monitor 7 positioned on the back side.

このアプリケーションの例としては、人を背中側に引き連れた引率型の案内等がある。ロボットの走行方向の環境をカメラ9で撮影した画像で計測しながら引率し、背中側のユーザに対してモニタ7に絵、写真、文字等を表示させてその場に適した情報を提供することが可能である。このように、本発明によれば、モニタを別途搭載することなく、2形体のロボットとして利用することが可能である。このように、本発明によれば、ロボットの向きを変える時に、ボディ自体を旋回することがないので、人の安全性を確保すると共に、信頼性の高いコミュニケーション及び情報提供サービスを実現することができる。   As an example of this application, there is a pull-in type guide that takes a person to the back side. To provide environment-friendly information by displaying pictures, photos, characters, etc. on the monitor 7 for the user on the back side, while measuring the environment in the direction of the robot with an image taken by the camera 9 Is possible. Thus, according to the present invention, it can be used as a two-shaped robot without separately mounting a monitor. As described above, according to the present invention, when the orientation of the robot is changed, the body itself does not turn, so that it is possible to ensure human safety and realize a highly reliable communication and information providing service. it can.

これらの形体の切り替えは、ロボットの正面を共通の概念としてイメージさせる特定の最小限の関節を切り替える(ねじる)ことで可能である。本構成例でいえば、ボディ2に対する頭部1の顔面方向を制御する首回転関節、及び肘の曲げ方向がロボットの正面をイメージさせる。   Switching between these shapes is possible by switching (twisting) a specific minimum joint that makes the front of the robot image as a common concept. In this configuration example, the neck rotation joint that controls the face direction of the head 1 relative to the body 2 and the bending direction of the elbow make the image of the front of the robot.

A,Bタイプのアプリケーションが連動した出迎え、接見、引率案内という複雑なアプリケーションにおいては、人とロボットの相対位置関係を人やロボット全体が動くことなく、ロボットの限られた関節を動かして形体を変えることで変更可能であり、スムーズなアプリケーションの遂行を可能にする。その一例として、図3のような挨拶、引き連れての案内の流れを示す。   In complex applications such as A / B type applications that are greeted, interviewed, and guided guidance, the relative positional relationship between a person and a robot can be moved by moving limited joints of the robot without moving the whole person or robot. It can be changed by changing it, enabling smooth application execution. As an example, the flow of greeting and accompanying guidance as shown in FIG. 3 is shown.

図3はロボットの正面定義を切り替えてのサービスの例を示す図である。(a)では、人18とロボットとが対面している。(b)では、ロボットが「●さん。ようこそいらっしゃいました。それでは、ご案内しますね。」とスピーカ8から発音する。この後、首の向きと腕の形体の変形による前後定義の切り替え動作を行なう。この結果、(c)に示すようにロボットの方の形体が変化し、人はロボットの後についていく形となる。ロボットはスピーカ8から、「私の後ろについてきてください。」と発音する。そして、移動中も背中側にあるモニタ7で館内の情報を表示することができる。   FIG. 3 is a diagram illustrating an example of a service by switching the front definition of the robot. In (a), the person 18 and the robot are facing each other. In (b), the robot pronounces “Speaking of Mr. ●, welcome. Then I will guide you” from the speaker 8. After this, the forward / backward definition switching operation is performed by deforming the neck direction and the arm shape. As a result, the shape of the robot changes as shown in (c), and the person follows the robot. The robot pronounces "Please come behind me" from the speaker 8. And while moving, the information in the hall can be displayed on the monitor 7 on the back side.

前述したロボットにおいて、ロボットの正面の定義を切り替える場合、ロボットの左右の腕の定義が切り替わることから分かるように、会話や腕、首、走行装置の制御等、左右の定義が影響するソフトウェアの設定を全て変更する必要がある。即ち、ロボット周囲に位置する人が感じる右腕の定義とロボット内部で持つ右腕の概念を一致させないと、“右手側に見える×××は△△です。”という会話が成り立たない。   In the robot described above, when switching the definition of the front of the robot, software settings that affect the definition of the left and right, such as conversation, control of the arm, neck, traveling device, etc., as seen from the switching of the definition of the left and right arms of the robot All need to be changed. That is, unless the definition of the right arm felt by people around the robot and the concept of the right arm in the robot are matched, the conversation “XXX seen on the right hand side is ΔΔ” cannot be established.

そこで、形体の変化で正面の定義の変更をさせる手順として図4に例を示す。図4は正面定義の切り替えと座標設定、形体変形の流れを示すフローチャートである。図4は、正面の定義を例えばAタイプのアプリケーションの場合を[1]、Bタイプのアプリケーションを[2]等と単純なコードで識別し、これを切り替える時には会話エンジンや腕、
首、走行装置の制御に関わる座標変換処理部にこのコードを使用して一斉に同期させて設定、修正し、その後に形体変形処理を実行する。このように、一括して同時変更することで、周囲の人の感じる正面とロボットのもつ正面の定義のずれが生じず、更にアプリケーション単位では左右の変更を意識する必要がなくなる。
FIG. 4 shows an example of a procedure for changing the definition of the front by changing the form. FIG. 4 is a flowchart showing the flow of front definition switching, coordinate setting, and shape deformation. FIG. 4 shows the definition of the front as a simple code such as [1] for an A-type application and [2] for a B-type application.
This code is used for the coordinate conversion processing unit related to the control of the neck and the traveling device, and is set and corrected simultaneously in synchronism, and then the shape deformation process is executed. In this way, by simultaneously changing the parameters at the same time, there is no deviation in the definition of the front of the robot and the front of the robot, and there is no need to be aware of the left and right changes in application units.

図4の動作を説明する。先ず、設定アプリケーションを実行すると(S1)、正面定義の切り替えイベントの有無をチェックする(S2)。正面定義の切り替えイベントがない場合にはステップS1に戻る。正面定義の切り替えイベントがある場合には、正面定義の判別コードの設定を行なう(S3)。次に、判別コードに応じて身体パラメータを更新する。身体パラメータとしては、会話エンジン20、腕座標変換マトリックス21、走行座標変換マトリックス22、首座標変換マトリックス23がある。そして、形体変形を実行し(S5)、ステップS1に戻る。   The operation of FIG. 4 will be described. First, when the setting application is executed (S1), the presence / absence of a front definition switching event is checked (S2). If there is no front definition switching event, the process returns to step S1. If there is a front definition switching event, the front definition discrimination code is set (S3). Next, the body parameter is updated according to the determination code. The body parameters include a conversation engine 20, an arm coordinate conversion matrix 21, a running coordinate conversion matrix 22, and a neck coordinate conversion matrix 23. Then, the shape deformation is executed (S5), and the process returns to step S1.

次に、形体C,Dのように異なる方向を正面として用いるアプリケーションにおいて、ロボットカメラ9の向きの回転範囲を決定する、例えば首3の回転角範囲及び腕4の可動範囲を均等に割り振ることで、どちらが正面になった場合も可動範囲の差を意識しないで、共通に使用できるライブラリ開発、及びアプリケーション開発が可能になる。   Next, in an application that uses different directions as the front, such as features C and D, the rotation range of the orientation of the robot camera 9 is determined. For example, the rotation angle range of the neck 3 and the movable range of the arm 4 are equally allocated. In either case, it becomes possible to develop a library and application that can be used in common without being aware of the difference in the movable range.

図5は上から見た首の回転可動範囲の例を示す図である。図1と同一のものは、同一の符号を付して示す。1は頭部、2はボディ、4は腕、Jはカメラ視線方向、Kは首3(図示せず)の回転可動範囲である。この首の回転可動範囲はカメラの視線可動範囲と一致する。P面側は、図2の場合と同じである。首の回転可動範囲を均等に割り振ることで、どちらが正面になった場合も可動範囲の差を意識しなくてすむ。   FIG. 5 is a diagram showing an example of a rotationally movable range of the neck viewed from above. The same components as those in FIG. 1 are denoted by the same reference numerals. 1 is the head, 2 is the body, 4 is the arm, J is the camera viewing direction, and K is the rotationally movable range of the neck 3 (not shown). The rotational range of the neck coincides with the range of visual line movement of the camera. The P-plane side is the same as in FIG. By allocating the range of rotation of the neck evenly, it is not necessary to be aware of the difference in the range of movement when either becomes the front.

図6は腕の特定関節の形体変更によるロボット正面位置の切り替えの説明図である。(a)の場合には、上腕ねじり関節4aにより形状変更の場合を示す。ねじり関節4aをねじることで、正面位置の定義が前後逆になる。(b)の場合には、肘関節4bをねじることで、正面位置の定義が前後逆になる。このように、本発明によれば、腕の部分の関節をねじることで、ロボット自体が回転しなくても人が常識として有している腕の形体の概念を利用すれば、正面位置の定義を変更することができる。なお、関節をねじって腕を回転させる機構については、既存の技術を用いることができる。   FIG. 6 is an explanatory diagram of switching of the robot front position by changing the shape of a specific joint of the arm. In the case of (a), a case where the shape is changed by the upper arm torsion joint 4a is shown. By twisting the torsion joint 4a, the definition of the front position is reversed. In the case of (b), the definition of the front position is reversed by twisting the elbow joint 4b. Thus, according to the present invention, by twisting the joints of the arm portion, the front position definition can be defined by using the concept of the arm shape that a person has as common sense even if the robot itself does not rotate. Can be changed. An existing technique can be used for the mechanism for rotating the arm by twisting the joint.

図7は本発明の一実施の形態例を示すブロック図である。カメラ部分の撮影機構と、音声ガイド部、首、腕等の動作機構等については省略して示す。図において、30は主制御装置で、主記憶装置31と全体の動作を制御するCPU32から構成されている。33は第1腕コントロール部、34は第2腕コントロール部であり、CPU32及び主記憶装置31と接続されている。35は頭コントロール部であり、CPU32と接続されている。16は各種のアプリケーションを格納するアプリケーション記憶部である。このように構成されたロボットの動作を説明すれば、以下の通りである。   FIG. 7 is a block diagram showing an embodiment of the present invention. An imaging mechanism for the camera portion and an operation mechanism such as a voice guide portion, a neck, and an arm are omitted. In the figure, reference numeral 30 denotes a main control device, which comprises a main storage device 31 and a CPU 32 that controls the overall operation. A first arm control unit 33 and a second arm control unit 34 are connected to the CPU 32 and the main storage device 31. A head control unit 35 is connected to the CPU 32. An application storage unit 16 stores various applications. The operation of the robot configured as described above will be described as follows.

CPU32は、アプリケーション記憶部36にアクセスして、ロボットにそれぞれの動作を行わせるためのアプリケーションを主記憶装置31にダウンロードさせる。そして、主記憶装置31に記憶されたアプリケーションに基づいて、前述したような動作を行わせる。CPU32は、第1腕コントロール部33と第2腕コントロール部34に制御信号を送り、それぞれの腕を右腕又は左腕として機能させるための腕関節のねじり動作を行わせる。また、CPU32は頭コントロール部35に制御を送り、首3の回転運動を制御する。   The CPU 32 accesses the application storage unit 36 and causes the main storage device 31 to download an application for causing the robot to perform each operation. Then, based on the application stored in the main storage device 31, the operation as described above is performed. The CPU 32 sends a control signal to the first arm control unit 33 and the second arm control unit 34 to cause the arm joint to twist to operate each arm as a right arm or a left arm. Further, the CPU 32 sends control to the head control unit 35 to control the rotational movement of the neck 3.

この実施の形態例によれば、第1腕コントロール部33と、第2腕コントロール部34を制御することにより、どちらが右腕、左腕になるかが決定する。そして、右腕と左腕の定義が行われると、どちらがロボットの正面又は背面であるかが決定する。なお、右腕のねじり動作と左腕のねじり動作はCPU32が自動で行なうことができるが、モニタ7から人が手動で切り替え動作を行わせるようにすることができる。第1腕コントロール部13と第2腕コントロール部34は、主記憶装置31を参照することにより、参照データと正面の定義を読み込み、腕を所定の方向に向けることができる(図6参照)。   According to this embodiment, the first arm control unit 33 and the second arm control unit 34 are controlled to determine which is the right arm or the left arm. When the right arm and the left arm are defined, it is determined which is the front or back of the robot. The CPU 32 can automatically perform the twisting operation of the right arm and the twisting operation of the left arm. However, a person can manually perform the switching operation from the monitor 7. The first arm control unit 13 and the second arm control unit 34 can read the reference data and the definition of the front by referring to the main storage device 31, and can point the arm in a predetermined direction (see FIG. 6).

このように、本発明によれば、ボディを回転することなくロボットの向きを変えることでき、高度でかつ信頼性の高いコミュニケーション及び情報提供サービスが可能なサービスロボットを提供することができる。   As described above, according to the present invention, it is possible to provide a service robot capable of changing the direction of the robot without rotating the body and capable of performing highly reliable communication and information providing services.

本発明の一実施の形態例の外観構成例を示す図である。It is a figure which shows the example of an external appearance structure of one embodiment of this invention. 頭部と腕の姿勢によるロボット正面の違いの説明図図である。It is explanatory drawing of the difference in the robot front by the attitude | position of a head and an arm. ロボットの正面定義を切り替えてのサービスの例を示す図である。It is a figure which shows the example of the service which switches the front definition of a robot. 正面定義の切り替えと座標設定、形体変形の流れを示すフローチャートである。It is a flowchart which shows the flow of switching of a front definition, coordinate setting, and a shape deformation. 上から見た首の回転可動範囲の例を示す図である。It is a figure which shows the example of the rotation movable range of the neck seen from the top. 腕の特定関節の形体変更によるロボット正面位置の切り替えの説明図である。It is explanatory drawing of switching of the robot front position by the shape change of the specific joint of an arm. 本発明の一実施の形態例を示すブロック図である。It is a block diagram which shows one embodiment of this invention.

符号の説明Explanation of symbols

1 頭部
2 ボディ
3 首
4 腕
5 移動装置
6 マイク
7 モニタ
8 スピーカ
9 カメラ
1 Head 2 Body 3 Neck 4 Arm 5 Moving Device 6 Microphone 7 Monitor 8 Speaker 9 Camera

Claims (3)

作業や身振りを実行可能な少なくとも1本の腕と、
首の自由度でカメラの向きを回転させて周囲の環境状態を画像で計測可能な頭部と、
所定の半径で左右回転・前後移動が可能な移動手段と、
音声認識、音声発話、文字や絵やボタンを表示するモニタの少なくとも一つを用いて人とコミュニケーションする手段と、
第1面と、該第1面と反対側にある第2面とを有するボディと、
を有し、プレゼンテーションのように人と対面して実現するアプリケーションAと、案内のように後に人を引き連れて移動するアプリケーションBを実行する移動ロボットであって、
ロボットの腕頭の向き及び姿勢を変更することで、その形状からロボットの正面が上記第1面と第2面のいずれの側なのかを周囲の人に認識させることにより、所定の前記アプリケーションにおいて人に対面させるロボット面をボディを回転させることなく変更する機能を有し、
前記アプリケーション切り替えと同期してロボットの身体座標の定義の切り替え制御を実行することを特徴とするサービスロボット。
At least one arm that can perform work and gestures,
A head that can rotate the direction of the camera with the degree of freedom of the neck and measure the surrounding environmental state with an image,
Moving means capable of rotating left and right and moving back and forth with a predetermined radius;
Means for communicating with a person using at least one of a voice recognition, a voice utterance , a monitor displaying characters, pictures and buttons ;
A body having a first surface and a second surface opposite to the first surface;
A mobile robot that executes an application A that is realized by facing a person like a presentation, and an application B that moves with a person later like a guide,
By changing the direction and orientation of the robot arm and head, by Rukoto to recognize the front of the robot from its shape that a either side of the first and second surfaces around the human, given the the robot face to face the person in the application have a function to change without rotating the body,
A service robot that executes switching control of a definition of a body coordinate of a robot in synchronization with the application switching .
前記アプリケーションA,Bの異なる方向を正面として用いるアプリケーションにおいて、カメラの向きの回転範囲と腕の可動範囲を各々のアプリケーションで均等に割り振ったことを特徴とする請求項1記載のサービスロボット。 The service robot according to claim 1 , wherein in the application using different directions of the applications A and B as the front, the rotation range of the camera direction and the movable range of the arm are equally allocated to each application . 上記人とコミュニケーションする手段は上記第1面に設けられ、
上記アプリケーションAの実行時にはロボットの正面を上記第1面であると周囲に人に認識させ、上記アプリケーションBの実行時にはロボットの正面が上記第2面であると周囲の人に認識させるよう、ロボットの腕と頭の向き及び姿勢を変更することを特徴とする請求項1記載のサービスロボット。
The means for communicating with the person is provided on the first side,
When executing the application A, the robot is made to recognize the front of the robot as the first surface, and the robot is made to recognize the surrounding people as the front of the robot is the second surface when the application B is executed. The service robot according to claim 1 , wherein the orientation and posture of the arm and head are changed .
JP2005121856A 2005-04-20 2005-04-20 Service robot Expired - Fee Related JP4394602B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005121856A JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005121856A JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Publications (2)

Publication Number Publication Date
JP2006297531A JP2006297531A (en) 2006-11-02
JP4394602B2 true JP4394602B2 (en) 2010-01-06

Family

ID=37466229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005121856A Expired - Fee Related JP4394602B2 (en) 2005-04-20 2005-04-20 Service robot

Country Status (1)

Country Link
JP (1) JP4394602B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105128012A (en) * 2015-08-10 2015-12-09 深圳百思拓威机器人技术有限公司 Open type intelligent service robot system and multiple controlling methods thereof
CN110049285A (en) * 2019-03-21 2019-07-23 史君炜 A kind of intelligent safeguard system for home for destitute

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101083700B1 (en) 2009-04-02 2011-11-16 주식회사 유진로봇 robot system for restaurant serving
JP2011000656A (en) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International Guide robot
CN102909726B (en) * 2012-10-11 2015-01-28 上海泰熙信息科技有限公司 Behavior realizing method for service robot
US10500716B2 (en) * 2015-04-08 2019-12-10 Beijing Evolver Robotics Co., Ltd. Multi-functional home service robot
CN105437211A (en) * 2015-12-11 2016-03-30 塔米智能科技(北京)有限公司 Double-expression service robot
KR102392113B1 (en) * 2016-01-20 2022-04-29 삼성전자주식회사 Electronic device and method for processing voice command thereof
JP6108645B1 (en) 2016-01-31 2017-04-05 貴司 徳田 Motor module system
CN105965513A (en) * 2016-04-15 2016-09-28 青岛克路德机器人有限公司 Implementation system for robot facial expressions
CN105835065A (en) * 2016-05-27 2016-08-10 苏州铭冠软件科技有限公司 Intelligent service robot
CN106125925B (en) * 2016-06-20 2019-05-14 华南理工大学 Intelligence based on gesture and voice control arrests method
CN106095109B (en) * 2016-06-20 2019-05-14 华南理工大学 The method for carrying out robot on-line teaching based on gesture and voice
CN106023884A (en) * 2016-07-29 2016-10-12 西安旭天电子科技有限公司 Robot face expression display device
JP1573020S (en) * 2016-08-05 2017-04-03
CN106335071B (en) * 2016-11-14 2019-03-15 上海木木聚枞机器人科技有限公司 Robot and robot control method
CN106826867A (en) * 2017-03-31 2017-06-13 上海思依暄机器人科技股份有限公司 A kind of method that robot and control robot head are rotated
CN107962588A (en) * 2017-12-07 2018-04-27 北京康力优蓝机器人科技有限公司 A kind of arm structure of robot
CN108334098B (en) * 2018-02-28 2018-09-25 弗徕威智能机器人科技(上海)有限公司 A kind of human body follower method based on multisensor
CN108714899A (en) * 2018-06-28 2018-10-30 安徽共生众服供应链技术研究院有限公司 It is a kind of to follow monitoring expulsion robot automatically
CN108942966A (en) * 2018-08-27 2018-12-07 安徽星宇生产力促进中心有限公司 A kind of reception counter of hotel service robot
CN108972499A (en) * 2018-09-03 2018-12-11 武汉梦之蓝科技有限公司 A kind of sanitation robot
KR102315925B1 (en) * 2019-01-03 2021-10-21 삼성전자주식회사 Moving robot and controlling method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105128012A (en) * 2015-08-10 2015-12-09 深圳百思拓威机器人技术有限公司 Open type intelligent service robot system and multiple controlling methods thereof
CN110049285A (en) * 2019-03-21 2019-07-23 史君炜 A kind of intelligent safeguard system for home for destitute

Also Published As

Publication number Publication date
JP2006297531A (en) 2006-11-02

Similar Documents

Publication Publication Date Title
JP4394602B2 (en) Service robot
US11875013B2 (en) Devices, methods, and graphical user interfaces for displaying applications in three-dimensional environments
US9904360B2 (en) Head tracking based gesture control techniques for head mounted displays
US8886399B2 (en) System and method for controlling a vehicle user interface based on gesture angle
KR102391497B1 (en) Apparatus and method for proecessing an image in electronic device
US11755122B2 (en) Hand gesture-based emojis
US20090033618A1 (en) Unit, an Assembly and a Method for Controlling in a Dynamic Egocentric Interactive Space
JP4386367B2 (en) Communication robot improvement system
JP2007216363A (en) Communication robot
WO2014010458A1 (en) Operation processing device, operation processing method, and program
Mayer et al. Examples of multimodal user interfaces for socially assistive robots in Ambient Assisted Living environments
EP4127869A1 (en) Devices, methods, and graphical user interfaces for gaze-based navigation
JP4962940B2 (en) Route guidance system
JP2000250677A (en) Device and method for multimodal interface
JP2015005823A (en) Image processing apparatus and digital mirror system
US8970483B2 (en) Method and apparatus for determining input
JP5186238B2 (en) Virtual communication system
JP5429461B2 (en) Communication robot development support device
WO2017110178A1 (en) Information processing device, information processing method, and program
WO2021140575A1 (en) Head-mounted display for displaying ar object
JP6564484B1 (en) Same room communication system
KR102172985B1 (en) Display apparatus and method for displaying graphic item using the same
US20220172441A1 (en) Virtual reality data-processing device, system and method
JP2022001387A (en) Robot control device, robot control method, and robot control system
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090716

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090910

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091006

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091015

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121023

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees