JP2007156577A - Method of gaining color information using life support robot - Google Patents

Method of gaining color information using life support robot Download PDF

Info

Publication number
JP2007156577A
JP2007156577A JP2005347320A JP2005347320A JP2007156577A JP 2007156577 A JP2007156577 A JP 2007156577A JP 2005347320 A JP2005347320 A JP 2005347320A JP 2005347320 A JP2005347320 A JP 2005347320A JP 2007156577 A JP2007156577 A JP 2007156577A
Authority
JP
Japan
Prior art keywords
user
article
robot
color
life support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005347320A
Other languages
Japanese (ja)
Inventor
Noriyuki Yamamoto
昇志 山本
Tetsuya Tomonaka
哲也 塘中
Ken Onishi
献 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2005347320A priority Critical patent/JP2007156577A/en
Publication of JP2007156577A publication Critical patent/JP2007156577A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To cause a robot to smoothly provide life support services by easily, surely and rapidly specifying the articles of a user to be served. <P>SOLUTION: In S40, a user 41 asks a robot 1 about a schedule first in the morning. In S41, the robot performs face recognition through pattern matching. In S42, whether the user is standing, sitting or lying is estimated. If this estimation is uncertain, the robot 1 moves to e.g., the front of the user in S43. If necessary, the robot moves again in S44. In S45, the user's clothing area matching his attitude is determined and the color of his clothing is specified. In S46, the user 41 is recognized by the color of the clothing, and in S47 the tracking of the user 41 is started. On the next day, the series of processes are performed again to deal with the change of the clothing. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、移動可能なロボットに関し、家族などのユーザの各人を認識することにより、各人からの呼びかけに応答し、又はロボット側から自発的に各人に対して、アクションや各種のサービスサーブを提供し、例えば、自由に移動し、家族の顔を見分けて話しかけ、インターネットにアクセスして天気予報を報告するなど、生活支援を行うことができるロボットに関する。   The present invention relates to a movable robot, by recognizing each user of a user such as a family member, responding to a call from each person, or voluntarily from the robot side to each person, actions and various services The present invention relates to a robot that can serve, for example, move freely, talk to a family's face, talk, and access the Internet to report a weather forecast.

従来のロボットは、多関節アームロボットや搬送ロボットなどのように生産現場などにおいて使用される産業用ロボットであった。しかし、産業用ロボットは、その使用目的が溶接、塗装、運搬などといったように限定されており、アームロボットなどのように1箇所に固定されたものや、搬送ロボットのように決められたルートを決められた順序で移動するものがほとんどであった。しかし、最近になって、この自律移動型ロボットが出現し、所定の空間内を自由に移動し、産業活動や生産活動などにおける単純作業や危険作業、難作業など、例えば原子力プラント、火力発電プラントなどにおけるメンテナンス作業、高層ビルにおける清掃作業、火災現場などの災害現場での救助活動などの手助けや代行を行うことができるようになってきた。自律移動型ロボットの活用範囲は、これにとどまらず、例えば1人暮らしの高齢者の家などに設置し、部屋の掃除や住人の体調管理、あるいは住人が家を留守にしたときの屋内安全確認など、人間の生活に密着して生活支援型としたロボットもある。   Conventional robots are industrial robots used in production sites such as articulated arm robots and transfer robots. However, the purpose of industrial robots is limited to welding, painting, transportation, etc., and robots that are fixed in one place, such as arm robots, and routes that are determined like transport robots are used. Most of them moved in a predetermined order. However, recently, this autonomous mobile robot has appeared and moved freely within a predetermined space, such as simple work, dangerous work, difficult work in industrial activities and production activities, such as nuclear power plants, thermal power plants It has become possible to provide assistance and substitution for maintenance work, etc., cleaning work in high-rise buildings, and rescue operations at disaster sites such as fire sites. The scope of use of autonomous mobile robots is not limited to this. For example, it is installed in the homes of elderly people living alone, cleaning the room, managing the physical condition of the residents, or checking indoor safety when the residents leave the house. There are also robots that support daily life, such as life support type.

生活支援型ロボットの基本行動のひとつは、ロボットが見ている対象と関連する情報を参照して、応答文を作成し、発話するということである。   One of the basic actions of a life-supporting robot is to create a response sentence by referring to information related to an object viewed by the robot and speak.

例えば、特許文献1に開示された「情報処理装置および方法、並びに記録媒体」では、ユーザの発話とロボットの応答文の発話が、ロボットが見ている物品などの対象を識別することを介して行われる。具体的には、ロボットが「茶碗」を見ているとき、ユーザが「その茶碗には、どのくらいのお湯が入りますか?」と発話したとする。すると、ロボット側で、「茶碗」の音声認識における属性が検出され、辞書情報から検出された属性と同一又は類似の単語が参照される。また、ユーザの質問は、言語認識され、それに対する応答文が生成される。例えば、「茶碗」に対する知識情報として、色、製造者、容量があるとすると、「どのくらいの」に対する応答として当該容量が入力されるなどして、応答文が構成される。このように、ロボットが識別した物品の情報と、ユーザの発話の言語分析を関連付けることにより、正確且つ高速に応答文が生成され、ユーザとロボットとの対話が正確且つ迅速に行われる。   For example, in the “information processing apparatus and method, and recording medium” disclosed in Patent Document 1, the utterance of the user and the utterance of the response sentence of the robot are identified through identifying an object such as an article viewed by the robot. Done. Specifically, it is assumed that when the robot is watching “tea bowl”, the user speaks “How much hot water does the tea bowl enter?”. Then, on the robot side, an attribute in the speech recognition of “tea bowl” is detected, and the same or similar word as the attribute detected from the dictionary information is referred to. The user's question is language-recognized, and a response to it is generated. For example, if there is a color, a manufacturer, and a capacity as knowledge information for “tea bowl”, a response sentence is configured by inputting the capacity as a response to “how much”. In this way, by associating the article information identified by the robot with the linguistic analysis of the user's utterance, a response sentence is generated accurately and quickly, and the interaction between the user and the robot is performed accurately and rapidly.

また、特許文献2に開示された「物体認識装置及び方法並びにロボット装置」では、ロボット自身が、一般家庭などにおいて、学習すべき3次元物体の存在する範囲や大きさに関する事前知識を要することなく、3次元物体を選択し学習する。具体的には、ロボットは、持ち上げ可能な大きさ及び距離にある3次元物品を手のひらに乗せ、当該物品を予め設定された所定の空間位置に移動させる。次いで、手のひらを例えば45度づつ360度回転させ画像切り出し処理を行う。ロボットは、切り出し画像に基づいて3次元物体の特徴を抽出し、これを記憶する。
このように、生活支援ロボットは、ロボットのカメラ情報から人物や物体を認識させ、人間に対して物の持ち運び片付け、記憶補助、気が利いた会話などのサービスを行う。
特開2001−188780号公報(段落0063、図1) 特開2003−346152号公報(段落0050、図1)
Further, in the “object recognition apparatus and method and robot apparatus” disclosed in Patent Document 2, the robot itself does not require prior knowledge about the range and size of a three-dimensional object to be learned in a general home or the like. Select and learn 3D objects. Specifically, the robot places a three-dimensional article having a size and distance that can be lifted on the palm, and moves the article to a predetermined spatial position. Next, image extraction processing is performed by rotating the palm 360 degrees, for example, 45 degrees. The robot extracts the characteristics of the three-dimensional object based on the cut-out image and stores it.
As described above, the life support robot recognizes a person or an object from the camera information of the robot, and performs services such as carrying away objects, assisting with memory, and smart conversation.
JP 2001-188780 (paragraph 0063, FIG. 1) Japanese Patent Laying-Open No. 2003-346152 (paragraph 0050, FIG. 1)

しかし、ロボットによる人間・物体の認識や分類では、生活空間に限定されているとはいえ、対象物が不特定多数であり、簡易な方法ではサービスにつながる特定が難しい。そのため、更に複雑な情報である形を利用した認識・分類が行われるが、一般的に、システムが複雑となり、照明条件などの観測条件に大きく影響され、結果として認識や分類が困難になる。また、人間の姿勢や物品の置かれた場所や角度などによっても、認識・分類は困難となることがある。   However, although recognition and classification of humans and objects by robots are limited to living spaces, there are an unspecified number of objects, and it is difficult to specify that leads to a service by a simple method. For this reason, recognition / classification using a form that is more complicated information is performed. However, in general, the system becomes complicated and is greatly influenced by observation conditions such as illumination conditions, resulting in difficulty in recognition and classification. In addition, recognition and classification may be difficult depending on the posture of the person, the place where the article is placed, and the angle.

また、認識や分類が複雑化・高度化すれば、計算処理に時間がかかり、特許文献1や特許文献2に開示された発明では、迅速な応答が困難となる虞がある。また、物品そのものや顔などをそれ自身の情報で認識しようとすると、誤判定に陥り、追尾に失敗することも少なくない。   In addition, if recognition and classification become complicated and sophisticated, calculation processing takes time, and the invention disclosed in Patent Literature 1 and Patent Literature 2 may make it difficult to respond quickly. In addition, when trying to recognize an article itself or a face with its own information, it often falls into a misjudgment and fails in tracking.

そこで、本発明の課題は、ロボットが、サービス対象のユーザと物品を簡易・確実・迅速に特定し、ユーザに対して円滑に生活支援サービスを提供することである。   Accordingly, an object of the present invention is to provide a life support service smoothly to a user by specifying a user and an article to be serviced simply, surely, and quickly.

本来、生活支援ロボットは人に対してのみ注意を払って認識すべきとの原点に立ち返り、ユーザの服装色やユーザと関連する物品の色のみを手がかりとして、生活支援サービスを行うものである。第1に、ユーザの認知は、顔画像と着服色により行われる。第2に、ユーザの所持品の認知は、その色に基づいて、所持品データベース(DB)を参照して行われる。第3に、ユーザが指し示している方法や位置を検知し、その方向・位置にある物品の色を識別し、物品配置DBを参照し、ユーザが指し示した物品を認知する。第4に、ユーザの動作と物品の動作の関連を検出した結果を動作DBとして蓄積した上で、ユーザがある動作をしたときに、その意味を認知する。   Originally, the life support robot returns to the starting point that it should be recognized only with attention to a person, and provides a life support service using only the color of clothes of the user and the color of articles related to the user as clues. First, user recognition is performed using a face image and clothes color. Secondly, the user's belongings are recognized with reference to the belongings database (DB) based on the color. Third, the method or position pointed to by the user is detected, the color of the article in that direction / position is identified, the article placement DB is referenced, and the article pointed to by the user is recognized. Fourthly, the result of detecting the relationship between the user's motion and the motion of the article is accumulated as the motion DB, and the meaning is recognized when the user performs a certain motion.

上述したユーザ認知・物品認知の結果に基づいて、ロボットは、生活支援プログラムに基づいてユーザに生活支援サービスを実行する。   Based on the result of the user recognition / article recognition described above, the robot executes a life support service for the user based on the life support program.

具体的には、上述した課題を解決するための第1の手段は、1以上のユーザに生活支援サービスを提供するために移動するロボットにおいて、前記ユーザの顔画像を登録する顔画像データベースDBと、前記ユーザと対面して前記ユーザの顔画像を撮影する顔画像撮影部と、前記顔画像DBを参照して、前記ロボットと対面している前記ユーザを特定するユーザ特定部と、当該特定ユーザの体の所定部位に含まれる色を服装色として特定する服装色特定部とを備え、前記服装色を有する当該特定ユーザに、前記生活支援サービスを提供することである。   Specifically, a first means for solving the above-described problem is a face image database DB for registering a face image of the user in a robot that moves to provide life support services to one or more users. A face image capturing unit that captures the user's face image while facing the user, a user identifying unit that identifies the user facing the robot with reference to the face image DB, and the specific user A clothing color identification unit that identifies a color included in a predetermined part of the body as a clothing color, and provides the life support service to the specific user having the clothing color.

第2手段は、第1手段において、一日の中の服装色が区別出来る所定の時間帯に前記服装色を特定することである。   The second means is to specify the clothing color in a predetermined time zone in which the clothing color in the day can be distinguished in the first means.

第3手段は、第1手段において、前記ユーザ毎の所有物の色を登録する所有物データベースDBと、前記ロボットと対面したとき、前記特定ユーザが所持する物品を認識し、その色を特定する物品色特定部と、前記所有物DBを参照して、当該特定物品色の前記物品を所持する者を特定することである。   The third means, in the first means, recognizes the possession database DB for registering the color of the possession for each user and the article possessed by the specific user when facing the robot, and identifies the color. By referring to the article color specifying unit and the property DB, a person who owns the article having the specified article color is specified.

第4手段は、第3手段において、前記物品毎に、前記ユーザの所持履歴を更新する所持履歴データベースDBをさらに備え、前記所持履歴DBを参照し、前記物品を所持する前記ユーザであって、前記ロボットと対面している前記ユーザを特定することである。   The fourth means further comprises a possession history database DB for updating the possession history of the user for each article in the third means, refers to the possession history DB, and is the user possessing the article, Identifying the user facing the robot.

第5手段は、第3差手段において、前記所有物DBは、前記所有物の寸法及び又は形状を登録することである。   The fifth means is that in the third difference means, the property DB registers the size and / or shape of the property.

第6手段は、第1手段において、前記特定ユーザが指し示した前記物品の存在する方向及び又は位置を検出し、前記所有物DBを参照して、前記物品を特定することである。   The sixth means is to identify the article in the first means by detecting a direction and / or position of the article indicated by the specific user and referring to the property DB.

第7手段は、第1手段において、前記物品の動作及び前記特定ユーザの動作を記憶する動作データベースDBをさらに備え、前記物品の動作及び又は前記特定ユーザの動作に基づいて、前記物品を特定することである。   The seventh means is the first means further comprising an action database DB for storing the action of the article and the action of the specific user, and specifies the article based on the action of the article and / or the action of the specific user. That is.

第8手段は、1以上のユーザに対し移動ロボットによる生活支援を提供する方法において、顔及び服装色によって前記ユーザを特定するユーザ認識ステップと、前記ロボットに対面している前記ユーザの人間付帯情報、すなわち前記ユーザが着ている服装の色、持っている物品の色、触った物品の色、又は設置した物品の色を記憶する特徴情報作成ステップと、前記ユーザの音声指示を待ち受ける音声指示待ち受けステップと、前記音声指示を受けたとき、前記特徴情報を参照して、前記生活支援サービスの対象となる前記物品を特定し、同時に、前記音声指示を認識することにより当該特定物品に対する前記生活支援サービスの内容を決定するサービス特定ステップと、
前記生活支援サービスを提供するステップと、前記生活支援サービスをロボットの動作履歴として記憶する動作履歴記憶ステップとを含むことである。
The eighth means is a method for providing life support by a mobile robot to one or more users, a user recognition step of identifying the user by face and clothing color, and human-accompanying information of the user facing the robot In other words, the feature information creating step for storing the color of clothes worn by the user, the color of an article held, the color of an article touched, or the color of an installed article, and the voice instruction waiting for the voice instruction of the user And when the voice instruction is received, referring to the feature information, the product as a target of the life support service is specified, and at the same time, the voice support is recognized to recognize the voice support for the specific product. A service identification step that determines the content of the service;
Providing a life support service; and an operation history storage step of storing the life support service as an operation history of the robot.

第9手段は、第8手段において、前記特徴情報作成ステップは、前記ユーザの行動情報、すなわち前記ユーザが立っているか、座っているか、寝ているかをさらに記憶することである。   A ninth means is the eighth means, wherein the feature information creating step further stores the behavior information of the user, that is, whether the user is standing, sitting or sleeping.

第1手段により、ロボットが追尾すべきユーザを簡易・確実に認識することができる。   By the first means, the user to be tracked by the robot can be easily and reliably recognized.

第2手段により、目が覚めてから1日中、生活支援サービスを提供することができる。   By the second means, it is possible to provide a life support service all day long after waking up.

第3手段により、特定された物品の片付けなどを容易に行うことができる。   By the third means, the specified article can be easily cleaned up.

第4手段により、ロボットが認識した物品を現在所持するユーザを迅速に特定することができる。   By the fourth means, the user who currently possesses the article recognized by the robot can be quickly identified.

第5手段により、色だけでなく、寸法や形状に基づいて、所有物を迅速に決定することができる。   By the fifth means, it is possible to quickly determine the property based not only on the color but also on the size and shape.

第6手段により、色や形状によって物品認識するだけでなく、ユーザが指し示した方向や位置に基づいて物品認識を行うことができ、物品認識を多様な方法で行うことができる。   According to the sixth means, not only the product can be recognized by the color and shape, but also the product can be recognized based on the direction and position indicated by the user, and the product recognition can be performed by various methods.

第7手段により、ユーザの行動に関連して物品の動作を認識し、又は逆に物品の動作に関連してユーザの行動を認識することができ、ユーザと物品からなる生活環境を具体的に把握することができる。そして、そのようなユーザと物品の動作の相互関連を検知した結果である動作データベースを豊富化することにより、ユーザはロボットから円滑に生活支援サービスを受けることができるようになる。   According to the seventh means, the movement of the article can be recognized in relation to the user's action, or conversely, the user's action can be recognized in relation to the action of the article. I can grasp it. Then, by enriching the motion database that is the result of detecting the correlation between the motion of the user and the article, the user can smoothly receive a life support service from the robot.

第8手段により、特徴情報を参照しつつ音声指示認識に基づいてサービス対象の物品を特定することができ、サービスを特定することができる。   By the eighth means, it is possible to specify the service target article based on the voice instruction recognition while referring to the feature information, and it is possible to specify the service.

第9手段により、ユーザの服の色は、ユーザが立っているか、座っているか、寝ているか、に応じて特徴情報として作成するので、ロボットがこれらの行動情報も記憶している。したがって、服の色と行動情報により、ユーザが具体的に特定され得るという利点がある。   According to the ninth means, the color of the user's clothes is created as feature information depending on whether the user is standing, sitting, or sleeping, so the robot also stores the action information. Therefore, there is an advantage that the user can be specifically specified by the color of clothes and the behavior information.

本発明によれば、顔と服装色で簡易・確実・迅速にユーザを特定することができる。また、特定したユーザに付帯する(ユーザが所持し、設置した)物品が迅速に特定できる。そして、ユーザとサービス対象の物品が迅速・確実に特定できるため、音声指示によりサービス内容を迅速・確実に特定することができる。これにより、ロボットと人間のコミュニケーション(生活支援)を円滑に行うことができる。   ADVANTAGE OF THE INVENTION According to this invention, a user can be specified easily, reliably, and quickly with a face and clothes color. Further, it is possible to quickly specify an article that is incidental to the specified user (owned and installed by the user). Since the user and the service target item can be identified quickly and reliably, the service contents can be identified quickly and reliably by voice instructions. Thereby, communication (life support) between a robot and a human can be performed smoothly.

以下、本発明を図に示した実施例を用いて詳細に説明する。但し、この実施例に記載されている構成部品の寸法、材質、形状、その相対配置などは特に特定的な記載がない限り、この発明の範囲をそれのみに限定する趣旨ではなく、単なる説明例にすぎない。   Hereinafter, the present invention will be described in detail with reference to the embodiments shown in the drawings. However, the dimensions, materials, shapes, relative arrangements, and the like of the component parts described in this example are not intended to limit the scope of the present invention only to specific examples unless otherwise specified. Only.

図1は、本発明の実施形態の生活支援ロボットの正面図である。   FIG. 1 is a front view of a life support robot according to an embodiment of the present invention.

このロボットの頭部2には、頭頂カメラ3と左右1対の正面カメラ5と、額下部の人間の眉の位置に1対のマイクロフォン4が配置される。胸部6には、縦中心線から離れて左右1対のスピーカ7が配置される。両腕9の肘や肩は、関節構造をとり、手先10で物を把持する。また、首も関節構造をとる。このロボットは、下肢はスカート12状のカバーであり電気回路などを収め、下肢最下部の左右2つの車輪14により、移動することができる。また、下肢上部には左右1対の障害物センサ(赤外線検知又は超音波検知)13により、障害物を自動的に回避して目的地へ自律的に移動する。   In the head 2 of the robot, a top camera 3, a pair of left and right front cameras 5, and a pair of microphones 4 are arranged at the position of a human eyebrow at the lower part of the forehead. A pair of left and right speakers 7 are arranged on the chest 6 away from the vertical center line. The elbows and shoulders of both arms 9 have a joint structure, and a hand 10 holds an object. The neck also has a joint structure. In this robot, the lower limb is a skirt 12-shaped cover that houses an electric circuit and the like, and can be moved by the two left and right wheels 14 at the lowermost part of the lower limb. In addition, the pair of left and right obstacle sensors (infrared detection or ultrasonic detection) 13 automatically avoids obstacles and moves autonomously to the destination on the upper leg.

図2は、本実施形態のロボットのブロック図である。   FIG. 2 is a block diagram of the robot according to the present embodiment.

CPU21へ入力されるのは、頭頂カメラ3、正面カメラ5、マイクロフォン4、障害物センサ13、データ入出力20からの出力である。CPU21は、事故位置認識部22、指示点認識部23、音声認識部24、首・腕・手動認識部25、体方向認識部26、過去動作・位置データベースを有し、上述した入力に基づいて、首関節用駆動部28、スピーカ7、手関節用駆動部29、胸関節用駆動部30、車両用駆動部31を駆動する。コンピュータ制御により、このロボットが備えるコミュニケーション能力は、移動する人を検知したり、顔を検出する人検知能力;顔特徴を検出し、オーナー1人を含む所定数のユーザを識別する個人識別能;ワードスポッティング方式・会話シナリオに必要な連続単語認識や、アコースティックエコーキャンセラーによる人の声の認識などの音声認識能力;テキスト読み上げ方式・声の大きさなどの設定変更が可能な音声合成能力などである。また、移動能力は、生活支援を行うために、人を探し、人に寄って行く能力が与えられる。また、通信能力に関しては、ロボット専用のホームページを有し、家族の名前の登録や行動パターンの変更、遠隔操作、映像閲覧が可能である。例えば、遠隔操作により、指定の時間にお出迎えに来てもらったり、留守宅を巡回して映像を閲覧するなどが可能である。映像は、コンピュータ21のメモリを利用して、現在のみならず過去の映像も閲覧できる。映像は、正面カメラ5によるカラー画像と、頭頂カメラ3による全方位カメラをパノラマ化した白黒映像がある。また、ロボット自身がインターネット上のホームページなどの検索を実行し、情報を家族などに届けることができる。   Input to the CPU 21 is output from the top camera 3, front camera 5, microphone 4, obstacle sensor 13, and data input / output 20. The CPU 21 includes an accident position recognizing unit 22, a pointing point recognizing unit 23, a voice recognizing unit 24, a neck / arm / manual recognizing unit 25, a body direction recognizing unit 26, and a past motion / position database. The neck joint drive unit 28, the speaker 7, the wrist joint drive unit 29, the chest joint drive unit 30, and the vehicle drive unit 31 are driven. The communication ability of this robot by computer control is the ability to detect a person who moves or detect a face; the ability to identify a person who detects a facial feature and identifies a predetermined number of users including one owner; Speech recognition ability such as word recognition, continuous word recognition necessary for conversation scenarios, and human voice recognition by acoustic echo canceller; text-to-speech method, speech synthesis ability that can change settings such as voice volume, etc. . In addition, the moving ability is given the ability to search for and approach a person in order to support life. As for communication capability, it has a homepage dedicated to robots, and it is possible to register family names, change behavior patterns, perform remote operations, and view images. For example, it is possible to have a person come to meet you at a specified time by remote control, or to visit a home away from home and view the video. As for the video, not only the current video but also the past video can be browsed using the memory of the computer 21. The images include a color image obtained by the front camera 5 and a monochrome image obtained by panoramicizing the omnidirectional camera obtained by the top camera 3. Also, the robot itself can search the homepage on the Internet and deliver information to family members.

図3は、ユーザ認識及び物品認識を中心とする本実施形態のロボットのブロック図である。   FIG. 3 is a block diagram of the robot of the present embodiment centering on user recognition and article recognition.

[ユーザ認識]
まず、図3を参照して、ユーザ認識について説明する。ユーザ認識は、顔認識と着服色により行う。そのため、1以上のユーザの顔画像を登録する顔画像DB220と、ユーザと対面してユーザの顔画像を撮影する顔画像撮影部21と、顔画像DB220を参照してロボットと対面しているユーザを特定するユーザ特定部270と、当該特定されたユーザの体の所定部位に含まれる色を服装色として特定する服装色特定部260とを使用する。
[User recognition]
First, user recognition will be described with reference to FIG. User recognition is performed by face recognition and clothes color. Therefore, a face image DB 220 that registers one or more user face images, a face image photographing unit 21 that faces the user and photographs the user's face image, and a user who faces the robot with reference to the face image DB 220 The user specifying unit 270 for specifying the color and the clothing color specifying unit 260 for specifying the color included in the predetermined part of the specified user's body as the clothing color are used.

顔画像DB220には、ロボットのユーザの顔画像を格納する。ユーザは、家族のメンバーなどである。   The face image DB 220 stores the face image of the robot user. The user is a family member or the like.

顔画像撮影部210は、図1に示したロボットの正面カメラ5であり、ロボットと対面したユーザの顔(顔以外の身体も含む)を撮影し、撮影画像は図示しないメモリに格納される。なお、顔画像が、斜め向き、横向き、後ろ向きであっても、単に追尾するだけなら役に立つことがある。   The face image photographing unit 210 is the front camera 5 of the robot shown in FIG. 1 and photographs a user's face (including a body other than the face) facing the robot, and the photographed image is stored in a memory (not shown). Note that even if the face image is obliquely, laterally, or backwards, it may be useful if it is simply tracked.

ユーザ特定部270は、現在ロボットと対面しているユーザの顔と、顔画像DB220中の顔画像をパターンマッチングにより比較し、ユーザを特定するものである。顔は、主として正面向きの輪郭や造作により定めるほうがよい。髪の色、目の色、肌の色など照明に依存する要素を用いない方がよい。   The user specifying unit 270 compares the face of the user currently facing the robot and the face image in the face image DB 220 by pattern matching to specify the user. It is better to define the face mainly by front-facing contours and features. It is better not to use lighting-dependent elements such as hair color, eye color, and skin color.

服装色特定部270は、顔画像撮影部210が撮影した身体の部位の色を服装の色とする。そのため、ユーザの姿勢を、その身長に基づいて、「立っている」、「座っている」、「寝ている」に分類する。「立っている」ときは顔の下が服装であり、「座っている」ときは顔の下が服装であるが椅子などの背景と区別するため体の正面から判断する。また、「寝ている」ときは、手足の伸びている方向を検出して、上下左右の服装領域いずれかを又は少なくともひとつを服装領域とする。服装色認識を確実にするには、ユーザ正面に移動したり、光源位置を考慮した移動を行うとよい。   The clothing color specifying unit 270 uses the color of the body part captured by the face image capturing unit 210 as the color of the clothing. Therefore, the user's posture is classified into “standing”, “sitting”, and “sleeping” based on the height of the user. When standing, clothes under the face are dressed, and when sitting, clothes are under the face, but are judged from the front of the body in order to distinguish them from the background such as a chair. Also, when “sleeping”, the direction in which the limbs extend is detected, and one of the upper, lower, left, and right clothing regions or at least one of the clothing regions is defined as the clothing region. In order to ensure clothing color recognition, it is preferable to move to the front of the user or to move in consideration of the light source position.

顔と服装色によりユーザが一旦特定された後で、ロボットが、あるユーザに対面したとき、顔と服装色が共に特定ユーザのものであると同定されれば、ロボット側は、コンピュータプログラムに従って、会話やアクッションを通じて生活支援を行う。   Once the user is identified by face and clothing color, when the robot faces a certain user, if both the face and clothing color are identified as that of the specific user, the robot side will follow the computer program, Provide life support through conversations and accusations.

また、服装色の特定は、午前中の所定の時間帯に行ってもよい。これにより、ユーザが服を着て以降1日中、ロボットの生活支援サービスを受けることができる。   Further, the clothing color may be specified in a predetermined time zone in the morning. Thus, the robot life support service can be received throughout the day after the user wears clothes.

ロボットは、ユーザに対面すると、指示部200から顔画像撮影部に対して、その顔画像を撮影するよう指示し、上述したように服装色特定部260とユーザ特定部270から特定結果を制御部280に入力する。その後、制御部280は、ユーザからのサービス要求を受付け、出力部290を介して、腕を動かすなどの特定の動作を出力する。   When the robot faces the user, the instruction unit 200 instructs the face image capturing unit to capture the face image, and the control result is output from the clothing color specifying unit 260 and the user specifying unit 270 as described above. Input to 280. Thereafter, the control unit 280 receives a service request from the user, and outputs a specific operation such as moving an arm via the output unit 290.

図4は、以上説明したユーザ認識をさらに具体的に説明するイラストレーション及びフローチャートである。図4(A)は、2人のユーザのうちの1人(父)41がロボット1に呼びかけ、その呼びかけイベントに対してロボットが父41の服装色を特定しようとしているイラストレーションである。また、図4(B)は、ユーザ認証処理の1例のフローチャートである。図4(B)を参照すると、まず、S40において、ユーザ41が朝一番にロボット1に予定を問い合わせる。次に、S41において、ロボットは、ユーザ41の顔認証を開始する。顔認証が完了すると、S42において、全身姿勢を推定する(「立っている」か、「座っている」か、「寝ている」かを推定する)。推定が不確実であるときは、S43において、ロボット1は移動する(例えば「座っている」ときは顔の下が服装であるが椅子などの背景と区別するためユーザの正面に移動する)。必要であれば、S44においてロボット1は再度移動する(例えば、「寝ている」ときは、手足の伸びている方向を検出する)。必要な移動が完了すれば、S45において、ユーザの姿勢にあわせた服装領域が定まり、服装色が特定される。そこで、S46において、服装色が記録される。こうして、S47において、ユーザ41の追尾が開始される。なお、翌日になれば、ユーザ41の服装の変化に対応すべく、上述したフローチャートの処理が再度実行される。   FIG. 4 is an illustration and flowchart for more specifically explaining the user recognition described above. FIG. 4A is an illustration in which one of two users (father) 41 calls the robot 1 and the robot attempts to specify the clothing color of the father 41 in response to the call event. FIG. 4B is a flowchart of an example of user authentication processing. Referring to FIG. 4B, first, in S40, the user 41 inquires the robot 1 about the schedule first in the morning. Next, in S41, the robot starts face authentication of the user 41. When the face authentication is completed, the whole body posture is estimated in S42 (estimation of “standing”, “sitting”, or “sleeping”). If the estimation is uncertain, in S43, the robot 1 moves (for example, when “sitting”, the robot is dressed under the face but moves to the front of the user to distinguish it from a background such as a chair). If necessary, the robot 1 moves again in S44 (for example, when “sleeping”, the direction in which the limbs are extended is detected). If the necessary movement is completed, in S45, a clothing area matching the user's posture is determined, and a clothing color is specified. Therefore, the clothing color is recorded in S46. Thus, tracking of the user 41 is started in S47. Note that, on the next day, the above-described process of the flowchart is executed again in order to cope with the change in the clothes of the user 41.

[物品認識]
次に、再び図3を参照して物品認識について説明する。物品認識は、第1に特定ユーザが所持している物品の認識、第2に特定ユーザが指し示す物品の認定、第3にユーザの行動に関連する物品の認識などが考えられる。これらの物品認識を行うため、1以上のユーザの所有物の色を登録する所有物データベースDB300と、ロボットが特定ユーザと対面したとき特定ユーザが所持する物品を認識しその色を特定する物品色特定部310と、所有物DB300を参照される。
[Article recognition]
Next, article recognition will be described with reference to FIG. 3 again. The article recognition may be, for example, first recognition of an article possessed by a specific user, second recognition of an article indicated by the specific user, third recognition of an article related to the user's behavior, and the like. In order to recognize these articles, the possession database DB 300 for registering colors of the possessions of one or more users, and the article colors that recognize the articles possessed by the specific user when the robot faces the specific user and identify the color The identification unit 310 and the property DB 300 are referred to.

所有物DB300は、登録されたユーザが所有する物品のリストであり、物品の属性として少なくとも色が何であるかを記載する。   The possession DB 300 is a list of articles owned by registered users, and describes at least what the color is as an attribute of the article.

物品色特定部310は、ロボットの物品の色を特定する。   The article color specifying unit 310 specifies the color of the article of the robot.

ロボットは、特定ユーザ(顔と服装色により特定されたユーザ)のサービス要求に応じ、又は自発的に、所有物DB300と所持履歴DB310にアクセスしつつ、物品色判定部250によりサービス対象の物品の色を特定し、特定結果を物品色判定部250から制御部280に入力し、出力部290を介して腕を動かすなどの出力動作を行う。   In response to a service request of a specific user (user specified by face and clothes color) or voluntarily accessing the possession DB 300 and possession history DB 310, the robot uses the product color determination unit 250 to determine the service target product. The color is specified, the specified result is input from the article color determination unit 250 to the control unit 280, and an output operation such as moving the arm via the output unit 290 is performed.

[特定ユーザが所持している物品の認識]
図5を参照して、特定ユーザが所持している物品の認識について説明する。
[Recognition of goods possessed by a specific user]
With reference to FIG. 5, recognition of an article possessed by a specific user will be described.

図5は、物品色特定処理を具体的に説明するイラストレーションであり、図5(A)を参照すると、ロボット1が、携帯電話52を手に持つお母さん51を認識する場面が表わされている。特定対象となる物品は、特定ユーザ(特定の顔と特定の服装色とで決まるユーザ)が持っている物である。ロボット1は、物品(この場合は、携帯電話52)の色を認識した後、所有物DB300を参照して当該特定ユーザの所有物を検索し、同じ色の物品を検索する。検索の結果複数の物品があるときは、所有物DB300に記憶された寸法、形状などを参照して、ひとつを選ぶ。形状・寸法を手の大きさと比較することにより、迅速に選ぶことができる。さらに、可搬性の物品ごとに所持履歴DB310を設け、所持者が変わる毎に所持者を更新することとしてもよい。これにより、現在ロボットの前にいるユーザがその物品を持っている可能性の高さを推測し、物品の候補をスクリーニングし、迅速にサービス対象物品を特定することができる。また、所有物DB300を、ユーザが物品を使用するごとに更新し、使用しなかった物品を所有物DB300から削除してもよい。これにより、所有物DB300には、使用頻度が高い物品が記憶されるため、サービス対象物品が迅速に特定される。また、物品の画像を所有物DB300に格納してもよい。これにより、パターンマッチングで迅速に物品を特定することができる。   FIG. 5 is an illustration for specifically explaining the article color specifying process. Referring to FIG. 5A, a scene in which the robot 1 recognizes the mother 51 holding the mobile phone 52 is shown. . The article to be specified is a thing possessed by a specific user (a user determined by a specific face and a specific clothing color). After recognizing the color of the article (in this case, the mobile phone 52), the robot 1 searches the possession DB 300 for the possession of the specific user and retrieves the article of the same color. When there are a plurality of articles as a result of the search, one is selected with reference to the dimensions and shapes stored in the possession DB 300. By comparing the shape and dimensions with the size of the hand, it can be selected quickly. Further, a possession history DB 310 may be provided for each portable article, and the owner may be updated each time the owner changes. Thereby, it is possible to estimate the possibility that the user who is currently in front of the robot has the article, screen the candidate for the article, and quickly specify the article to be serviced. Further, the property DB 300 may be updated every time the user uses the item, and the item that is not used may be deleted from the property DB 300. As a result, articles that are frequently used are stored in the possession DB 300, and thus the service target articles are quickly identified. Moreover, you may store the image of articles | goods in property DB300. Thereby, an article can be quickly identified by pattern matching.

図5(B)は、特定ユーザが所持している物品を認識した結果、ロボット1が提供する生活支援サービスの1例を示すイラストレーションである。ロボット1は、物品配置DB240を参照し、お母さん51が所持している携帯電話52が、整理棚53に片付けられる。   FIG. 5B is an illustration showing an example of a life support service provided by the robot 1 as a result of recognizing an article possessed by a specific user. The robot 1 refers to the article arrangement DB 240, and the mobile phone 52 possessed by the mother 51 is cleaned up on the sorting shelf 53.

[特定ユーザが指し示す物品の認定]
再び図3を参照して、特定ユーザがロボットの前で現に所持していないが、その物品について生活支援サービスを求めるために指し示す物品の認定(ロボットによる認定)について説明する。この認定を行うため、特定ユーザが指し示した物品の存在する方向及び又は位置を検出し、当該方向・位置に存在する物品の色を特定し、物品配置DB240と物品特定部320とを参照して物品を特定する。物品の特定は、所有物DB300又は物品配置DB240に格納された物品画像とのパターンマッチングによれば、迅速に実行される。指示方法は、例えば、指やレーザポインタによる指し示し、音声による指示いずれも使用できる。その際、ロボットとユーザの間で、位置を特定する会話を行えば、方向の特定が確実となる。また、ロボット側では、当該物品に対する過去の指示場所という履歴情報も利用する。この利用情報として、後述する動作DB230を利用することもできる。なお、特定方向・位置が分かれば、物品を特定することなく、生活支援サービスに結びつけることも可能である。
[Authorization of goods pointed to by a specific user]
Referring to FIG. 3 again, the authorization of an article (authorization by the robot) that is pointed to obtain a life support service for the article that the specific user does not actually possess in front of the robot will be described. In order to perform this authorization, the direction and / or position of the article pointed to by the specific user is detected, the color of the article existing in the direction / position is specified, and the article arrangement DB 240 and the article specifying unit 320 are referred to. Identify the article. The identification of the article is quickly executed according to the pattern matching with the article image stored in the property DB 300 or the article arrangement DB 240. As the instruction method, for example, pointing with a finger or a laser pointer, or voice instruction can be used. At that time, if a conversation for specifying the position is performed between the robot and the user, the direction is surely specified. On the robot side, history information such as past designated locations for the article is also used. As this usage information, an operation DB 230 described later can also be used. If the specific direction / position is known, it is possible to link to the life support service without specifying the article.

物品配置DB240は、室内や整理棚中の物品配置を記憶する。   The article arrangement DB 240 stores the article arrangement in the room or in the arrangement shelf.

物品特定部320は、顔画像撮影部210に撮影されたユーザの指し示し動作に基づいて、物品配置DB240を参照して、指し示された物品を特定する。   The article specifying unit 320 specifies the indicated article with reference to the article arrangement DB 240 based on the user pointing operation photographed by the face image photographing unit 210.

図6は、指し示しの具体例を説明するイラストレーションである。図6(A)は、ユーザ62が、指で、箪笥61を指し示している場面を表す。ロボット1は、物品配置DBを参照し、生活支援サービスの対照となる物品を特定する。図6(B)は、ユーザ63が、レーザポインタ65を使用して食器棚64上の自分のコーヒーカップを指し示す場面を表す。レーザポインタ65とロボット1と通信可能であれば、指し示す位置は自動的にロボット1に入力され、ロボット1は、物品配置DB240を参照し、生活支援サービスの対照となる物品を特定する。   FIG. 6 is an illustration for explaining a specific example of pointing. FIG. 6A shows a scene in which the user 62 is pointing the heel 61 with a finger. The robot 1 refers to the article arrangement DB and identifies an article that is a contrast for the life support service. FIG. 6B shows a scene in which the user 63 points to his coffee cup on the cupboard 64 using the laser pointer 65. If the laser pointer 65 and the robot 1 can communicate with each other, the pointing position is automatically input to the robot 1, and the robot 1 refers to the article arrangement DB 240 and specifies an article that is a reference for the life support service.

[ユーザの行動に関連する物品の認識]
再び図3を参照して、ユーザの行動に関連する物品の認識について説明する。この認定を行うため、動作DB230、物品配置DB240、物品特定部320が使用される。すなわち、物品配置DB240に記載された物品に関連してなされたユーザの動作(行動)に基づいて、サービス対象物品が特定される。
[Recognition of goods related to user behavior]
Referring to FIG. 3 again, recognition of an article related to the user's action will be described. In order to perform this authorization, the operation DB 230, the article arrangement DB 240, and the article specifying unit 320 are used. That is, the service target article is specified based on the user's operation (behavior) performed in relation to the article described in the article arrangement DB 240.

動作DB230は、物品の動作及び特定ユーザの動作(行動)を記憶する。これにより、例えば、ユーザの行動に関連して物品の動作を認識し、又は逆に物品の動作に関連してユーザの行動を認識することができ、ユーザと物品からなる生活環境を具体的に把握することができる。そして、そのようなユーザと物品の動作の相互関連を検知した結果である動作データベースを豊富化することにより、ユーザはロボットから円滑に生活支援サービスを受けることができるようになる。   The operation DB 230 stores the operation of the article and the operation (action) of the specific user. Thereby, for example, the action of the article can be recognized in relation to the user's action, or conversely, the user's action can be recognized in relation to the action of the article. I can grasp it. Then, by enriching the motion database that is the result of detecting the correlation between the motion of the user and the article, the user can smoothly receive a life support service from the robot.

図7は、動作DB230を作成できる可能性がある場面の幾つかの例を表す。   FIG. 7 shows some examples of scenes in which the action DB 230 may be created.

図7(A)は、ソファに座っているユーザの動作に関連する物品を特定する場面を表す。ユーザはすわっているが、ソファを指し示していないため、ソファはサービス対象物品ではなく、携帯電話71を持った左腕がロボットに向けられている。したがって、この場面を画像として取り込んで、動作DB230に格納すれば、パターンマッチングにより、直ちにサービス対象物品が特定されうる。しかも、提供すべきサービス、例えば片付けも、直ちに特定されうる。   FIG. 7A shows a scene in which an article related to the action of the user sitting on the sofa is specified. Since the user is sitting but not pointing to the sofa, the sofa is not a service target article, and the left arm with the mobile phone 71 is pointed at the robot. Therefore, if this scene is captured as an image and stored in the operation DB 230, the service target article can be immediately identified by pattern matching. In addition, the services to be provided, for example the clean up, can be identified immediately.

図7(B)は、ドア72を操作しているユーザ73の動作に関連する物品を特定する場面を表す。ユーザは立っており、ロボット1は、ドア72を見ている。ここで、ユーザ73が音声でドア72を開けるか閉じるかの指示を出すると仮定する。すると、この場面の画像と音声指示を動作DB230に格納すれば、パターンマッチングにより、直ちに、サービス内容(例えば、ロボットによるドア開閉サービス)が特定されうる。   FIG. 7B shows a scene in which an article related to the operation of the user 73 who is operating the door 72 is specified. The user is standing and the robot 1 is looking at the door 72. Here, it is assumed that the user 73 gives an instruction to open or close the door 72 by voice. Then, if the image and voice instruction of this scene are stored in the action DB 230, the service content (for example, a door opening / closing service by a robot) can be immediately specified by pattern matching.

図7(C)は、ユーザ73が壁スイッチ75を操作して照明灯を点灯又は消灯している場面を表す。ロボット1は、ユーザ73、照明灯74、ユーザ73を見ている。スイッチドア72を見ている。ここで、ユーザ73が音声で点灯又は消灯の指示を出すると仮定する。すると、この場面の画像と音声指示を動作DB230に格納すれば、パターンマッチングにより、直ちに、サービス内容(例えば、ロボットによるドア開閉サービス)が特定されうる。この例は、図7(B)と同様ではあるが、スイッチという小さな物品を場面に応じて操作するというロボットにとっては困難な仕事であり、プログラムを使用することなく、パターンマッチングを中心としてロボット1を動作させれば、スイッチの位置や寸法、を特定することなく、スイッチの色だけでロボット1が自立的に動作し得るという利点がある。   FIG. 7C shows a scene in which the user 73 operates the wall switch 75 to turn on or off the illumination lamp. The robot 1 looks at the user 73, the illumination lamp 74, and the user 73. Looking at switch door 72. Here, it is assumed that the user 73 gives an instruction to turn on or off by voice. Then, if the image and voice instruction of this scene are stored in the action DB 230, the service content (for example, a door opening / closing service by a robot) can be immediately specified by pattern matching. This example is the same as FIG. 7B, but is a difficult task for the robot to operate a small article called a switch according to the scene, and the robot 1 mainly uses pattern matching without using a program. If is operated, there is an advantage that the robot 1 can operate independently only by the color of the switch without specifying the position and size of the switch.

[人間付帯情報]
図8は、人間付帯情報とロボットが提供する生活支援サービスの種類との関係の1例を示すブロック図である。ロボットは、CCDなどにより、人間情報INPUT1、INPUT2、INPUT3、INPUT4(それぞれ、人間部位、人間姿勢、人間行動、時間帯)を入力し、人間付帯情報OUTPUT1、PUTPUT2、OUTPUT3、OUTPUT4(それぞれ、着ている物、持っている物、触った物、設置した物)を認識する。ここに、INPUTiとOUTPUTj(i、j=1〜4)は交互に関係付けられている。人間付帯情報OUTPUTjにより、サービス対象の物品が特定されれば、ロボットは、ユーザの音声指示に従って、又は、過去に行ったサービスの蓄積情報に従って、生活支援サービスSERVICE1、SERVICE2、SERVICE3、SAERVICE4、SERVICE5(それぞれ、スケジュール管理、インターネット検索、片付け、家電製品制御、行動記録作成)を提供する。
[Human incidental information]
FIG. 8 is a block diagram showing an example of the relationship between the human attendant information and the types of life support services provided by the robot. The robot inputs human information INPUT1, INPUT2, INPUT3, and INPUT4 (respectively, human part, human posture, human action, and time zone) using a CCD, etc. Recognize what you have, what you have, what you touch, and what you install. Here, INPUTI and OUTPUTj (i, j = 1 to 4) are alternately related. If the article to be serviced is specified by the human supplementary information OUTPUTj, the robot follows the voice instruction of the user or the accumulated information of the service performed in the past, and the life support services SERVICE1, SERVICE2, SERVICE3, SASERVICE4, SERVICE5 ( (Schedule management, Internet search, tidying up, home appliance control, action record creation).

[生活支援サービス提供方法]
図9、図10、図11を参照して、本実施形態の生活支援サービス提供方法について説明する。本方法は、1以上のユーザに対し移動ロボットによる生活支援を提供する方法である。本方法は、顔及び服装色によってユーザを認識するユーザ認識ステップと、ロボットに対面しているユーザの人間付帯情報、すなわち前記ユーザが着ている物品の色、持っている物品の色、触った物品の色、又は設置した物品の色を記憶し、さらに、ユーザの行動情報、すなわちユーザが立っているか、座っているか、寝ているかを記憶した特徴情報を作成する特徴情報作成ステップと、ユーザの音声指示を待ち受ける音声指示待ち受けステップと、音声指示を受けたとき、特徴情報を参照してサービス対象となる物品を特定し、音声指示を認識することにより当該特定物品に対する特定のサービスを決定するサービス特定ステップと、サービスをロボットの動作履歴として記憶する動作履歴記憶ステップとを含む。
[生活支援サービス提供方法の1例]
図9は、生活支援サービス提供方法の1例を表すイラストレーションである。ユーザは不定の又は予定の時間帯TZ1、TZ2、TZ3、T4において、ロボットに対して、発話91、92、93、94を、それぞれ行う。これに対して、ロボットは、時間帯TZ1において顔認証を行う。TZ1では顔認証(服装色特定を含む)を行い、ユーザのスケジュールを聞き又はユーザにスケジュールを知らせ、色特徴記録(服装色記録)を行う。さらに、TZ2,TZ3、TZ4において指示受けを行う。すなわち、ユーザの指示音声が入力されると、顔と服装色によりユーザが誰であるかを特定し、人間付帯情報(図8)に基づいてサービス対象物品を認識し、ユーザの音声指示又は過去のサービス履歴を参照してサービスの内容を決定し、ロボット動作が行われる。生活支援サービスの提供は、特徴情報データベースDB1と動作履歴データベースDB2に基づいて。また、図示しないが、ロボットは自発的に、状況に応じたサービス(例えば、暗くなったら点灯する)や、定刻に定型的なサービス(例えば、正午にTVのスイッチを入れる)を行う。
[How to provide life support services]
With reference to FIG. 9, FIG. 10, FIG. 11, the life support service providing method of the present embodiment will be described. This method is a method for providing life support by a mobile robot to one or more users. The method includes a user recognition step for recognizing a user by face and clothing color, and human-accompanying information of the user facing the robot, that is, the color of the article worn by the user, the color of the article held, A feature information creation step for storing the color of the article or the color of the installed article, and further creating feature information storing the behavior information of the user, that is, the feature information storing whether the user is standing, sitting or sleeping; and A voice instruction waiting step for waiting for a voice instruction, and when receiving the voice instruction, the service target product is identified with reference to the feature information, and a specific service for the specific article is determined by recognizing the voice command A service specifying step and an operation history storing step of storing the service as an operation history of the robot.
[One example of life support service provision method]
FIG. 9 is an illustration showing an example of a lifestyle support service providing method. The user performs utterances 91, 92, 93, and 94 to the robot in an indefinite or scheduled time zone TZ1, TZ2, TZ3, and T4, respectively. On the other hand, the robot performs face authentication in the time zone TZ1. In TZ1, face authentication (including clothing color identification) is performed, the user's schedule is heard or the user is informed of the schedule, and color feature recording (clothing color recording) is performed. Further, an instruction is received at TZ2, TZ3, and TZ4. That is, when the user instruction voice is input, the user is identified by the face and the clothes color, the service target article is recognized based on the human supplementary information (FIG. 8), and the user voice instruction or past The contents of the service are determined with reference to the service history, and the robot operation is performed. The provision of the life support service is based on the feature information database DB1 and the operation history database DB2. Although not shown, the robot voluntarily performs a service according to the situation (for example, it lights up when it gets dark) and a regular service (for example, the TV is switched on at noon).

図10は、特徴情報作成ステップ(図9に示した特徴情報データベースDB1作成ステップ)のためのフローチャートである。まず、S101において、ユーザの画像が入力される。次に、S102において、顔のパターンマッチングと服装色により人物認識が行われる。次に、S103において、人間付帯情報(物品の情報)や行動情報(例えば、ユーザは、ソファに座って携帯電話を持っている。図7(A)参照:ユーザは、立ってドアを開けている。図7(C)参照)が認識され、画像として、例えば静止画として特徴情報DB1に取り込まれる。次に、S104において、生活支援サービス対象の物品色と服装色を記録する。これにより、ひとつの特徴が特徴情報データベースDB1に記録される。そして、次の特徴情報(次のユーザ及び又は次の物品に関する特徴情報)を記録するためS101〜S104が繰り返される。   FIG. 10 is a flowchart for the feature information creation step (feature information database DB1 creation step shown in FIG. 9). First, in S101, a user image is input. In step S102, person recognition is performed using face pattern matching and clothing colors. Next, in S103, human-accompanying information (article information) and behavior information (for example, the user is sitting on the sofa and holding a mobile phone. See FIG. 7A): The user stands and opens the door. 7 (see FIG. 7C) is recognized, and is taken into the feature information DB 1 as an image, for example, as a still image. Next, in S104, the article color and clothes color for the life support service are recorded. Thereby, one feature is recorded in the feature information database DB1. Then, S101 to S104 are repeated to record the next feature information (feature information on the next user and / or the next article).

図11は、動作履歴記憶ステップ(動作履歴データベースDB2作成ステップ)のためのフローチャートである。まず、S111でユーザからの音声指示などのイベントが発生したら、S112a及びS112bにおいて、画像入力、音声認識が、それぞれ同時に行われる。次に、S113a及びS113bにおいて、人間付帯情報取得、音声指示理解が、それぞれ同時に行われる。次に、S115において、提供すべきサービスが特定される。次に、S116において、特徴情報DB1を参照して、色を主たる手がかりとして、図3に示したデータベースのうち必要な全てを動員して、物体探索(物品探索)が開始され、サービス対象物品が特定される(S116)。そして、ロボット動作によりサービスが提供される(S117)。サービス提供が完了すればイベントが終了する(S118)。なお、S117で行われたロボット動作は動作履歴として動作履歴データベースDB2に格納され、必要であれば、次回のサービス特定ステップ(S115)に利用される。   FIG. 11 is a flowchart for the operation history storage step (operation history database DB2 creation step). First, when an event such as a voice instruction from the user occurs in S111, image input and voice recognition are performed simultaneously in S112a and S112b, respectively. Next, in S113a and S113b, human-accompanying information acquisition and voice instruction understanding are performed simultaneously. Next, in S115, the service to be provided is specified. Next, in S116, referring to the feature information DB1, using the color as a main clue, mobilize all the necessary databases in the database shown in FIG. 3 to start object search (article search). It is specified (S116). Then, a service is provided by the robot operation (S117). If the service provision is completed, the event ends (S118). The robot operation performed in S117 is stored in the operation history database DB2 as an operation history, and is used for the next service specifying step (S115) if necessary.

本発明は、移動可能なロボットに関し、特に、家族などのユーザの各人を認識することにより、各人からの呼びかけに応答し、又はロボット側から自発的に、各人に対して生活支援サービスサーブを提供する自律移動ロボットに関する。   The present invention relates to a movable robot, and in particular, by recognizing each person of a user such as a family, responding to a call from each person or voluntarily from the robot side, a life support service for each person The present invention relates to an autonomous mobile robot that provides serve.

本実施形態のロボットの正面図である。It is a front view of the robot of this embodiment. 本実施形態のロボットのブロック図である。It is a block diagram of the robot of this embodiment. ユーザ認知・物品認知を中心とするロボットのブロック図である。It is a block diagram of the robot centering on user recognition and article recognition. ユーザ認知を説明するイラストレーション及びフローチャートである。It is the illustration and flowchart explaining user recognition. ユーザが所持する物品の認知を説明するイラストレーションである。It is an illustration explaining recognition of the article which a user possesses. ユーザが指し示す物品の認知を説明するイラストレーションである。It is an illustration explaining recognition of the article which a user points out. ユーザの行動と関連する物品の認知を説明するイラストレーションである。It is an illustration explaining recognition of an article relevant to a user's action. 人間付帯情報と生活支援サービスの関係を示すブロック図である。It is a block diagram which shows the relationship between human attendant information and a life support service. 生活支援サービスの実行形態の1例を示すイラストレーションである。It is an illustration which shows an example of the execution form of a life support service. 特徴情報データベース作成フローチャートである。It is a feature information database creation flowchart. 動作履歴情報データベース作成フローチャートである。It is an operation history information database creation flowchart.

符号の説明Explanation of symbols

1 ロボット
2 頭部
3 頭頂カメラ
4 マイクロフォン
5 正面カメラ
6 胸部
7 スピーカ
9 腕
10 手先
12 スカート
13 障害物センサ
14 車輪
20 データ入出力
21 CPU
22 自己位置認識部
23 指示点認識部
24 音声認識部
25 首・腕・手動作認識部
26 体方方向認識部
27 過去動作・位置データベース
28 首関節用駆動部
29 手関節用駆動部
30 腕関節用駆動部
31 車両用駆動部
200 指示部
210 顔画像撮影部
220 顔画像DB
230 動作DB
240 物品配置DB
250 物品色特定部
260 服装色特定部
270 ユーザ特定部
280 制御部
290 出力部
300 所有物DB
310 所持履歴DB
41、51、62、63、73 ユーザ
52、71 携帯電話(ユーザ所持品)
61 箪笥
64 食器棚
65 レーザポインタ
72 ドア
74 蛍光灯
75 壁スイッチ
91、92、93、94 発話イベント
TZ1、TZ2、TZ3、TZ4 時間帯
DB1 特徴情報データベース
DB2 動作履歴データベース
DESCRIPTION OF SYMBOLS 1 Robot 2 Head 3 Head camera 4 Microphone 5 Front camera 6 Chest 7 Speaker 9 Arm 10 Hand 12 Skirt 13 Obstacle sensor 14 Wheel 20 Data input / output 21 CPU
22 Self Position Recognizing Unit 23 Point Point Recognizing Unit 24 Voice Recognizing Unit 25 Neck / Arm / Hand Motion Recognizing Unit 26 Body Direction Recognizing Unit 27 Past Motion / Position Database 28 Neck Joint Drive Unit 29 Wrist Joint Drive Unit 30 Arm Joint Drive unit 31 Vehicle drive unit 200 Instruction unit 210 Face image photographing unit 220 Face image DB
230 Operation DB
240 article placement DB
250 article color specifying unit 260 clothing color specifying unit 270 user specifying unit 280 control unit 290 output unit 300 property DB
310 possession history DB
41, 51, 62, 63, 73 User 52, 71 Mobile phone (user's belongings)
61 64 64 Cupboard 65 Laser pointer 72 Door 74 Fluorescent lamp 75 Wall switch 91, 92, 93, 94 Speech event TZ1, TZ2, TZ3, TZ4 Time zone DB1 Feature information database DB2 Operation history database

Claims (9)

1以上のユーザに生活支援サービスを提供するために移動するロボットにおいて、
前記ユーザの顔画像を登録する顔画像データベースDBと、
前記ユーザと対面して前記ユーザの顔画像を撮影する顔画像撮影部と、
前記顔画像DBを参照して、前記ロボットと対面している前記ユーザを特定するユーザ特定部と、
当該特定ユーザの体の所定部位に含まれる色を服装色として特定する服装色特定部とを備え、
前記服装色を有する当該特定ユーザに、前記生活支援サービスを提供することを特徴とするロボット。
In a robot that moves to provide life support services to one or more users,
A face image database DB for registering the user's face image;
A face image photographing unit that faces the user and photographs a face image of the user;
A user identifying unit that identifies the user facing the robot with reference to the face image DB;
A clothing color identification unit that identifies a color included in a predetermined part of the body of the specific user as a clothing color;
A robot that provides the life support service to the specific user having the clothing color.
請求項1において、
一日の中の服装色が区別出来る所定の時間帯に前記服装色を特定することを特徴とするロボット。
In claim 1,
A robot characterized in that the clothing color is specified in a predetermined time zone in which the clothing color in a day can be distinguished.
請求項1において、
前記ユーザ毎の所有物の色を登録する所有物データベースDBと、
前記ロボットと対面したとき、前記特定ユーザが所持する物品を認識し、その色を特定する物品色特定部と、
前記所有物DBを参照して、当該特定物品色の前記物品を所持する者を特定することを特徴とするロボット。
In claim 1,
An possession database DB for registering the color of the possession for each user;
When facing the robot, an article color identifying unit for recognizing an article possessed by the specific user and identifying a color thereof;
A robot characterized by referring to the property DB and identifying a person who possesses the article of the particular article color.
請求項3において、
前記物品毎に、前記ユーザの所持履歴を更新する所持履歴データベースDBをさらに備え、
前記所持履歴DBを参照し、
前記物品を所持する前記ユーザであって、前記ロボットと対面している前記ユーザを特定することを特徴とするロボット。
In claim 3,
For each article, further comprising a possession history database DB for updating the possession history of the user,
Refer to the possession history DB,
A robot that identifies the user who possesses the article and is facing the robot.
請求項3において、
前記所有物DBは、前記所有物の寸法及び又は形状を登録することを特徴とするロボット。
In claim 3,
The property DB registers the size and / or shape of the property.
請求項1において、
前記特定ユーザが指し示した前記物品の存在する方向及び又は位置を検出し、
前記所有物DBを参照して、前記物品を特定することを特徴とするロボット。
In claim 1,
Detecting the direction and / or position of the article pointed to by the specific user;
A robot characterized by specifying the article with reference to the property DB.
請求項1において、
前記物品の動作及び前記特定ユーザの動作を記憶する動作データベースDBをさらに備え、
前記物品の動作及び又は前記特定ユーザの動作に基づいて、前記物品を特定することを特徴とするロボット。
In claim 1,
An operation database DB for storing the operation of the article and the operation of the specific user;
A robot that identifies an article based on an action of the article and / or an action of the specific user.
1以上のユーザに対し移動ロボットによる生活支援を提供する方法において、
顔及び服装色によって前記ユーザを特定するユーザ認識ステップと、
前記ロボットに対面している前記ユーザの人間付帯情報、すなわち前記ユーザが着ている服装の色、持っている物品の色、触った物品の色、又は設置・移動した物品の色を記憶する特徴情報作成ステップと、
前記ユーザの音声指示を待ち受ける音声指示待ち受けステップと、
前記音声指示を受けたとき、前記特徴情報を参照して、前記生活支援サービスの対象となる前記物品を特定し、同時に、前記音声指示を認識することにより当該特定物品に対する前記生活支援サービスの内容を決定するサービス特定ステップと、
前記生活支援サービスを提供するステップと、
前記生活支援サービスをロボットの動作履歴として記憶する動作履歴記憶ステップとを含むことを特徴とする生活支援提供方法。
In a method for providing life support by a mobile robot to one or more users,
A user recognition step of identifying the user by face and clothing color;
The human attendant information of the user facing the robot, that is, the color of the clothes worn by the user, the color of the article possessed, the color of the touched article, or the color of the installed / moved article Information creation step;
A voice instruction standby step of waiting for a voice instruction of the user;
When the voice instruction is received, the feature information is referenced to identify the article that is the target of the life support service, and at the same time, the contents of the life support service for the specific article are recognized by recognizing the voice instruction. Service identification steps to determine,
Providing the life support service;
A life support providing method comprising: an operation history storage step of storing the life support service as an operation history of a robot.
前記特徴情報作成ステップは、前記ユーザの行動情報、すなわち前記ユーザが立っているか、座っているか、寝ているかを、さらに記憶することを特徴とする請求項8記載の生活支援提供方法。   The life support providing method according to claim 8, wherein the feature information creating step further stores the behavior information of the user, that is, whether the user is standing, sitting, or sleeping.
JP2005347320A 2005-11-30 2005-11-30 Method of gaining color information using life support robot Withdrawn JP2007156577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005347320A JP2007156577A (en) 2005-11-30 2005-11-30 Method of gaining color information using life support robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005347320A JP2007156577A (en) 2005-11-30 2005-11-30 Method of gaining color information using life support robot

Publications (1)

Publication Number Publication Date
JP2007156577A true JP2007156577A (en) 2007-06-21

Family

ID=38240898

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005347320A Withdrawn JP2007156577A (en) 2005-11-30 2005-11-30 Method of gaining color information using life support robot

Country Status (1)

Country Link
JP (1) JP2007156577A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066149A (en) * 2008-09-11 2010-03-25 Denso Wave Inc Portable reader/writer
JP2013140574A (en) * 2011-12-07 2013-07-18 Nikon Corp Electronic apparatus, information processing method, and program
JP2015196600A (en) * 2014-03-31 2015-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Object management system and transport robot
US9292752B2 (en) 2012-08-24 2016-03-22 Fujitsu Limited Image processing device and image processing method
JP2016101774A (en) * 2014-11-27 2016-06-02 みこらった株式会社 Vertically taking off and flying table
WO2017141502A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program
JP2018116676A (en) * 2017-07-13 2018-07-26 ヤフー株式会社 Provision device, provision method, and provision program
WO2018155060A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
WO2018155064A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
WO2018155062A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Housing management system, housing management method, and program
WO2018155063A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
JP2018147482A (en) * 2017-02-28 2018-09-20 トヨタ自動車株式会社 Proactive acquisition of data for maintenance of appearance model by mobile robot
US10705884B2 (en) 2018-07-12 2020-07-07 Toyota Jidosha Kabushiki Kaisha Managing computational tasks in vehicle context
US10754351B2 (en) 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search
JP2020138046A (en) * 2018-11-08 2020-09-03 將洋 鈴木 Self-propelled vacuum cleaning device, program for self-propelled vacuum cleaning device, and cleaning system
JP2021149828A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Work assisting system and work assisting method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010066149A (en) * 2008-09-11 2010-03-25 Denso Wave Inc Portable reader/writer
JP2013140574A (en) * 2011-12-07 2013-07-18 Nikon Corp Electronic apparatus, information processing method, and program
US9292752B2 (en) 2012-08-24 2016-03-22 Fujitsu Limited Image processing device and image processing method
JP2015196600A (en) * 2014-03-31 2015-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Object management system and transport robot
JP2016101774A (en) * 2014-11-27 2016-06-02 みこらった株式会社 Vertically taking off and flying table
US10514881B2 (en) 2016-02-18 2019-12-24 Sony Corporation Information processing device, information processing method, and program
JPWO2017141502A1 (en) * 2016-02-18 2018-11-08 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2017141502A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Information processing device, information processing method, and program
JP2019057297A (en) * 2016-02-18 2019-04-11 ソニー株式会社 Information processing device, information processing method, and program
JPWO2018155060A1 (en) * 2017-02-22 2019-11-07 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
WO2018155063A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
WO2018155062A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Housing management system, housing management method, and program
WO2018155064A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
WO2018155060A1 (en) * 2017-02-22 2018-08-30 パナソニックIpマネジメント株式会社 Storage management system, storage management method and program
JP2018147482A (en) * 2017-02-28 2018-09-20 トヨタ自動車株式会社 Proactive acquisition of data for maintenance of appearance model by mobile robot
US10754351B2 (en) 2017-02-28 2020-08-25 Toyota Jidosha Kabushiki Kaisha Observability grid-based autonomous environment search
US10816974B2 (en) 2017-02-28 2020-10-27 Toyota Jidosha Kabushiki Kaisha Proactive acquisition of data for maintenance of appearance model by mobile robot
JP2018116676A (en) * 2017-07-13 2018-07-26 ヤフー株式会社 Provision device, provision method, and provision program
US10705884B2 (en) 2018-07-12 2020-07-07 Toyota Jidosha Kabushiki Kaisha Managing computational tasks in vehicle context
JP2020138046A (en) * 2018-11-08 2020-09-03 將洋 鈴木 Self-propelled vacuum cleaning device, program for self-propelled vacuum cleaning device, and cleaning system
JP2021149828A (en) * 2020-03-23 2021-09-27 株式会社日立製作所 Work assisting system and work assisting method
JP7299187B2 (en) 2020-03-23 2023-06-27 株式会社日立製作所 Work support system and work support method

Similar Documents

Publication Publication Date Title
JP2007156577A (en) Method of gaining color information using life support robot
US10628714B2 (en) Entity-tracking computing system
Gross et al. Further progress towards a home robot companion for people with mild cognitive impairment
Bajones et al. Hobbit: providing fall detection and prevention for the elderly in the real world
Gross et al. Progress in developing a socially assistive mobile home robot companion for the elderly with mild cognitive impairment
JP4682217B2 (en) Behavior control apparatus, method, and program
JP3996015B2 (en) Posture recognition device and autonomous robot
CN114391163A (en) Gesture detection system and method
KR102152717B1 (en) Apparatus and method for recognizing behavior of human
US20130123658A1 (en) Child-Care Robot and a Method of Controlling the Robot
JP7243110B2 (en) Information processing device and information processing method, computer program, and package reception support system
CN109093633A (en) A kind of detachable robot and its control method
JP2007152443A (en) Clearing-away robot
US20110091069A1 (en) Information processing apparatus and method, and computer-readable storage medium
JP3697286B2 (en) Condition monitoring device
JP3836488B2 (en) Condition monitoring device
JP2004299026A (en) Reception guide system
US9953267B2 (en) Control method and non-transitory computer readable recording medium
JP2020145595A (en) Viewing or monitoring system, or program
US20210116934A1 (en) Information processing apparatus, information processing method, program, and autonomous behavior robot control system
JP2007226634A (en) Person status recognition device, method, program, robot and life support system
JP5473750B2 (en) Information processing apparatus, information processing method, and program
CN114504273A (en) Robot control method and device
WO2020022371A1 (en) Robot, method for controlling robot, and control program
US20220134544A1 (en) System and method for continuously sharing behavioral states of a creature

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090203