JP4896550B2 - Information management system - Google Patents

Information management system Download PDF

Info

Publication number
JP4896550B2
JP4896550B2 JP2006069874A JP2006069874A JP4896550B2 JP 4896550 B2 JP4896550 B2 JP 4896550B2 JP 2006069874 A JP2006069874 A JP 2006069874A JP 2006069874 A JP2006069874 A JP 2006069874A JP 4896550 B2 JP4896550 B2 JP 4896550B2
Authority
JP
Japan
Prior art keywords
information
robot
user
processing terminal
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006069874A
Other languages
Japanese (ja)
Other versions
JP2007249427A (en
Inventor
あす香 椎名
直亮 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2006069874A priority Critical patent/JP4896550B2/en
Publication of JP2007249427A publication Critical patent/JP2007249427A/en
Application granted granted Critical
Publication of JP4896550B2 publication Critical patent/JP4896550B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、コミュニケーション能力を有するロボットを用いてユーザに提供される情報を管理するシステムに関する。   The present invention relates to a system for managing information provided to a user using a robot having communication ability.

広告効果向上を図るため、自律移動機能を有するロボットを人間が多く存在するエリアに移動させ、ロボットに広告情報を配信してその情報表示装置を通じて周囲の人間に対して表示等させる技術が提案されている(たとえば、特許文献1参照)。
特開2003−050559号公報 第0002段落〜第0006段落
In order to improve advertising effectiveness, a technology has been proposed in which a robot having an autonomous movement function is moved to an area where there are many humans, advertising information is distributed to the robot, and displayed to surrounding people through the information display device. (For example, refer to Patent Document 1).
JP 2003-0505559 A paragraphs 0002-0006

しかし、前記技術を用いて不特定多数の人間ではなく、個々のユーザに対してその所望の情報を提供する場合、ユーザの数よりもロボットの数が少ないことが多いため、ロボットによる情報の供給が、ユーザによる情報の需要に追いつかないおそれがある。たとえば、一のロボットが複数のユーザに対して情報を提供する場合、各ユーザはこのロボットから情報を提供してもらうまで待たなくてはならない。   However, when the desired information is provided to individual users rather than an unspecified number of people using the above technique, the number of robots is often smaller than the number of users. However, there is a possibility that the demand for information by the user cannot be kept up. For example, when one robot provides information to a plurality of users, each user must wait until information is provided from the robot.

また、より多くのユーザに対して情報を提供しようとすると、個々のユーザがロボットの情報表示装置により表示等される情報に接する時間が短縮されてしまう。これでは、ユーザは満足な情報を得られず、ロボットを用いた情報提供サービスに対する不満を感じてしまうことになる。   Further, when information is provided to a larger number of users, the time required for each user to contact information displayed by the information display device of the robot is shortened. In this case, the user cannot obtain satisfactory information, and feels dissatisfied with the information providing service using the robot.

そこで、本発明は、ユーザに高い満足を感じさせる観点からロボットを用いた適切な形態で、当該ユーザに対して情報を提供しうる情報管理システムを提供することを解決課題とする。   Therefore, an object of the present invention is to provide an information management system capable of providing information to the user in an appropriate form using a robot from the viewpoint of making the user feel highly satisfied.

前記課題を解決するための本発明の情報管理システムは、マイクが搭載されているロボットを用いてユーザに提供される情報を管理するシステムであって、前記ロボットによって前記マイクを通じて得られた前記ユーザの音声データが音声認識手法にしたがって解析されることにより推定された、当該ユーザの発話内容としての情報に関する要求を当該ロボットとの通信に基づいて認識し、かつ、当該要求に応じた情報をデータベースから検索する第1処理部と、情報出力機能を有する複数の情報処理端末の中から、新たな情報を出力可能な状態にあるという要件を満たす情報処理端末を指定し、かつ、当該指定情報処理端末との通信により、前記第1処理部による検索情報を当該指定情報処理端末に出力させるとともに、前記ロボットのGPS機能により測定された当該ロボットの位置をネットワーク経由で受信し、かつ、各情報処理端末の位置を前記システムが有する記憶部から読み出し、あるいは、各情報処理端末が有するGPS機能により測定された当該各情報処理端末の位置を受信した上で、前記ロボットの位置および前記各情報処理端末の位置に基づき、前記ロボットと前記各情報処理端末との間隔を決定し、あるいは、前記記憶部に保存されているグローバルマップにおける前記ロボットの移動経路に基づいて前記ロボットと前記各情報処理端末との間隔を決定する第2処理部と、前記第2処理部により決定された前記ロボットと前記指定情報処理端末との間隔を認識した上で、前記ロボットと前記指定情報処理端末との間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させる第3処理部とを備えていることを特徴とする。 An information management system of the present invention for solving the above problem is a system for managing information provided to a user using a robot on which a microphone is mounted, and the user obtained through the microphone by the robot audio data is estimated by being analyzed according to speech recognition techniques, a request for information as speech contents of the user is recognized on the basis of the communication with the robot, and database information in response to the request An information processing terminal satisfying the requirement that new information can be output is specified from among a plurality of information processing terminals having a first processing unit and an information output function, and the specified information processing the communication with the terminal, the retrieval information by the first processor causes output to the designated information processing terminal, the robot G The position of the robot measured by the S function is received via the network, and the position of each information processing terminal is read from the storage unit of the system, or the position of the information processing terminal measured by the GPS function of each information processing terminal After receiving the position of each information processing terminal, the interval between the robot and each information processing terminal is determined based on the position of the robot and the position of each information processing terminal, or stored in the storage unit. A second processing unit that determines an interval between the robot and each of the information processing terminals based on a movement path of the robot in the global map, and the robot determined by the second processing unit and the designated information processing terminal And the robot's behavior so that the distance between the robot and the designated information processing terminal is reduced. Controlled and characterized in that it comprises a third processing unit for moving the robot.

本発明の情報管理システムによれば、ロボットのコミュニケーション能力によって認識されたユーザの要求に応じた情報が、情報出力機能を有する複数の情報処理端末のうち新たな情報を出力可能な状態にある指定情報処理端末を通じて当該ユーザに提供されうる。ここで、情報処理端末が情報を「出力する」とは、情報を映像、音声またはこれらの組合せの形態で出力すること等、ユーザにその視覚、聴覚等の五感を通じて把握させうる形態で情報を出力することを意味する。   According to the information management system of the present invention, the information according to the user's request recognized by the communication ability of the robot is in a state in which new information can be output among a plurality of information processing terminals having an information output function. It can be provided to the user through the information processing terminal. Here, “output” information by the information processing terminal means that information is output in a form that allows the user to grasp through the five senses such as visual sense and auditory sense, such as outputting information in the form of video, audio, or a combination thereof. Means to output.

これにより、たとえば第1のユーザがロボットとのコミュニケーションを経て情報を第1の指定情報処理端末から得ることができ、かつ、第2のユーザがその後ただちにこのロボットとのコミュニケーションを経て情報を第2の指定情報処理端末から得ることができる。このため、各ユーザが情報処理端末を通じて必要とする情報に接する時間が制限されない。また、先番のユーザが情報処理端末を通じて情報に接している間、他のユーザが情報を同じ情報処理端末から得るために待っている必要がなくなる分、各ユーザが迅速に情報を得ることができる。   Thus, for example, the first user can obtain information from the first designated information processing terminal through communication with the robot, and the second user can immediately obtain information from the second through communication with the robot. Can be obtained from the designated information processing terminal. For this reason, the time for which each user contacts information required through the information processing terminal is not limited. In addition, while the first user is in contact with the information through the information processing terminal, each user can quickly obtain information as long as other users do not have to wait to obtain the information from the same information processing terminal. it can.

さらに、ユーザを指定情報処理端末がある場所まで案内させるというロボットの挙動を通じて、どの情報処理端末から情報を得ることができるかをユーザに知らせることができる。これにより、ロボットを用いた情報提供サービスの親切さひいては高い満足を各ユーザに感じさせることができる。Furthermore, it is possible to inform the user from which information processing terminal the information can be obtained through the behavior of the robot that guides the user to the place where the designated information processing terminal is located. Thereby, it is possible to make each user feel the kindness of the information providing service using the robot and the high satisfaction.

したがって、本発明の情報管理システムによれば、ユーザに高い満足を感じさせる観点からロボットを用いた適切な形態で、当該ユーザに対して情報を提供しうる。   Therefore, according to the information management system of the present invention, information can be provided to the user in an appropriate form using a robot from the viewpoint of making the user feel highly satisfied.

なお、ロボットや、本発明の構成要素である処理部が情報を「認識する」とは、処理部等がメモリやハードディスク等の記憶装置から情報を読み取ること、データベースから情報を検索すること、外部機器から情報を受信すること、情報を測定、設定、決定、判定、推定、算定すること等、この情報を必要に応じて使用することができる状態を実現するためのあらゆる情報処理を包含する概念である。   Note that “recognition” of information by a robot or a processing unit that is a component of the present invention means that the processing unit reads information from a storage device such as a memory or a hard disk, retrieves information from a database, Concepts encompassing all information processing to realize a state where information can be used as needed, such as receiving information from equipment, measuring, setting, determining, determining, estimating, and calculating information It is.

前記第2処理部が、前記複数の情報処理端末の中から、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じた情報出力機能を有する情報処理端末を指定することが好ましい The second processing unit, from among the plurality of information processing terminals, information having an information output function according to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit It is preferable to specify a processing terminal.

当該構成の情報管理システムによれば、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に鑑みて適切な情報出力機能を有する情報処理端末を通じて、このユーザに対して当該情報を提供することができる。 According to the information management system having the configuration, the information is provided to the user through an information processing terminal having an appropriate information output function in view of the type (content) of the information requested by the user or provided to the user. can do.

前記第2処理部が、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じたタスクの種類を認識した上で、前記複数の情報処理端末の中から、当該タスクの種類に応じた種類の情報処理端末を指定することが好ましい The second processing unit, recognizing the type of a task corresponding to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit, of the plurality of information processing terminals from within, it is preferable to specify the type of information processing terminal according to the type of the task.

当該構成の情報管理システムによれば、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に応じたタスク(たとえば、質疑応答、特定ジャンルの情報提供等)に鑑みて適切な情報出力機能を有する情報処理端末を通じて、このユーザに対して当該情報を提供することができる。 According to the information management system having the above configuration , appropriate information output in view of a task (for example, question and answer, information provision of a specific genre, etc.) according to the type of information (content) requested by the user or provided to the user This information can be provided to this user through an information processing terminal having a function.

前記第2処理部が前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識し、当該指定にしたがって情報処理端末を指定することが好ましい The second processing unit recognizes the designation of the information processing terminal by the user according to communication with the robot, it is preferable to specify the information processing terminal in accordance with the specification.

当該構成の情報管理システムによれば、ユーザが指定した情報処理端末を通じて、このユーザに対して情報を提供することができる。 According to the information management system having the configuration , information can be provided to the user through the information processing terminal designated by the user.

前記第2処理部が、前記複数の情報処理端末のうち、前記ロボットとの前記間隔が短い情報処理端末を優先的に指定することが好ましい。 It is preferable that the second processing unit preferentially designates an information processing terminal having a short distance from the robot among the plurality of information processing terminals .

当該構成の情報管理システムによれば、ユーザが、指定情報処理端末がある場所まで移動する距離が長くなるのが抑制される。このため、各ユーザがその必要とする情報を得るための足労を軽減することができる According to the information management system of the said structure , it is suppressed that the distance for which a user moves to the place with a designated information processing terminal becomes long. For this reason, the effort for each user to obtain the necessary information can be reduced .

前記第2処理部が、前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識した上で、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類と、前記ユーザによる情報処理端末の指定と、前記ロボットと前記各情報処理端末との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末を指定することが好ましい The second processing unit, according to communication with the robot Recognizing the designation of the information processing terminal by the user, of the said search information corresponding to the request or the request of recognized the user by the first processing unit Among a plurality of factors including a type, designation of an information processing terminal by the user, and an interval between the robot and each information processing terminal, an information processing terminal is preferentially or deliberately used as a factor having a higher rank Is preferably specified.

さらに、 前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類、前記ユーザによる情報処理端末の指定、前記ロボットと前記各情報処理端末との間隔の順で、前記順位が高く設定されていることが好ましいFurther, the user request recognized by the first processing unit or the type of the search information corresponding to the request, the designation of the information processing terminal by the user, and the interval between the robot and each information processing terminal It is preferable that the ranking is set high.

当該構成の情報管理システムによれば、ユーザに対する情報提供サービスの質を向上させる観点から設定された、複数の因子の順位にしたがって当該因子が優先的または偏重的に考慮されて情報処理端末が指定されうる。これにより、当該サービスへの満足をユーザに感じさせることができる。 According to the information management system of the configuration, the information processing terminal designates the factor preferentially or deliberately according to the ranking of a plurality of factors set from the viewpoint of improving the quality of the information providing service for the user. Can be done. Thereby, the user can be satisfied with the service.

前記第3処理部が前記ロボットの挙動を制御している間に、前記第2処理部によって前記指定情報処理端末が変更された場合、前記第3処理部が前記第2処理部による当該変更前の指定情報処理端末に代えて当該変更後の指定情報処理端末と前記ロボットとの間隔を認識した上で、当該間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させることが好ましい While the third processor is controlling the behavior of the robot, the case where the designated information processing terminal is changed by the second processing section, the third processing unit is the pre-change by the second processing unit Recognizing the interval between the changed designated information processing terminal and the robot instead of the designated information processing terminal, and controlling the behavior of the robot to move the robot so that the interval is shortened. Is preferred .

当該構成の情報管理システムによれば、情報処理端末が情報出力不可から情報出力可となった等の状況変化に応じて指定情報処理端末が変更されうる。そして、当該変更後の指定情報処理端末を迅速にユーザに知らせることができる。 According to the information management system configured as described above, the designated information processing terminal can be changed in accordance with a change in the situation such as the information processing terminal being able to output information from being unable to output information. Then, it is possible to promptly notify the user of the designated information processing terminal after the change.

前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値を超えていることを要件として、前記ロボットと前記指定情報処理端末との間隔が短縮されるように当該ロボットの挙動を制御して前記ロボットを移動させることが好ましい Behavior of the third processing unit, wherein the robot so that the distance of the robot and the designated information processing terminal as a requirement that exceeds the threshold value, distance between the designated information processing terminal and the robot is reduced It is preferable to move the robot by controlling .

当該構成の情報管理システムによれば、ロボットと指定情報処理端末との間隔が閾値を超える程度に両者が離れている場合のみ、ロボットが、指定情報処理端末がある場所までユーザを案内する。これにより、ユーザが指定情報処理端末にすぐたどり着けるような場合の案内を省略し、次のユーザに対して情報を迅速に提供することができる According to the information management system of the configuration , the robot guides the user to the place where the designated information processing terminal is located only when the distance between the robot and the designated information processing terminal is so far as to exceed the threshold. As a result, it is possible to omit the guidance when the user can quickly reach the designated information processing terminal, and to quickly provide information to the next user .

前記第3処理部が、前記ロボットに前記指定情報処理端末を指示させるように当該ロボットの挙動を制御することが好ましい The third processing unit, it is preferable to control the behavior of the robot so as to instruct the designated information processing terminal to the robot.

当該構成の情報管理システムによれば、ロボットに指定情報処理端末を指示させることで、複数の情報処理端末のうち、どの情報処理端末から情報を得ることができるかをユーザに把握させることができる。ロボットによる「指示」には、ロボットの身体の一部を動かして指定情報処理端末を指し示すこと、ロボットから出力される「左側の端末です」等の音声による指定情報処理端末の場所の案内、ロボットから指定情報処理端末への光照射等、ユーザにその視覚、聴覚等の五感を通じて端末を特定させるためのあらゆる挙動が含まれる。 According to the information management system configured as described above, by causing the robot to instruct the designated information processing terminal, it is possible to allow the user to grasp which information processing terminal from among the plurality of information processing terminals can obtain information. . “Instructions” by the robot include moving the body of the robot to point to the designated information processing terminal, guiding the location of the designated information processing terminal by voice such as “Left terminal” output from the robot, All the behaviors for allowing the user to identify the terminal through the five senses such as the visual sense and the auditory sense are included, such as light irradiation to the designated information processing terminal.

前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値以下であることを要件として当該ロボットに当該指定情報処理端末を指示させるように当該ロボットの挙動を制御することが好ましい。 The third processing unit, it is preferable to control the behavior of the robot so as to instruct the designated information processing terminal to the robot on condition that the distance between said robot the designated information processing terminal is below a threshold .

当該構成の情報管理システムによれば、ロボットと指定情報処理端末との間隔が閾値以下である程度に両者が近づいてから、このロボットに指定情報処理端末を指示させることができる。すなわち、ロボットと指定情報処理端末との間隔に鑑みて適当なタイミングで、どの情報処理端末から情報が得られるかをユーザに知らせることができる。 According to the information management system having the configuration , the robot can be instructed to designate the designated information processing terminal after the distance between the robot and the designated information processing terminal is close to a threshold value or less. That is, it is possible to notify the user from which information processing terminal information can be obtained at an appropriate timing in view of the interval between the robot and the designated information processing terminal.

本発明の情報管理システムは、前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、前記第1処理部が、前記第4処理部により認識された前記ユーザの挙動区分に基づく必要に応じて当該情報と異なる新たな情報を前記データベースから検索し、前記第2処理部が、前記第1処理部による新たな検索情報を前記指定情報処理端末に出力させることが好ましいThe information management system of the present invention is estimated based on the user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot, or acoustic data obtained through the microphone. The user's utterance content received from the robot, and by matching the facial expression or the utterance content with a plurality of facial expressions or voice patterns stored in the storage device in association with the behavior classification, fourth processing unit further includes a determining the behavior classification of the user after the contact with the information output from the specified information processing terminal, wherein the first processing section, has been of the user recognized by the fourth processing unit new information different from the information retrieved from the database as needed based on the behavior classification, the second processing unit, the first processing It is preferable to output a new search information by parts to the designated information processing terminal.

当該構成の情報管理システムによれば、たとえばユーザの挙動区分として、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分とが定義されている場合、当該区分の違いに応じて情報出力を継続するか、または出力情報を変更するかが選択される。これにより、指定情報処理端末を通じて出力される情報に対するユーザの満足感の向上を図りうる。 According to the information management system of the configuration , for example, as a user behavior category, a category in which a user is highly likely to be satisfied with information and a category in which a user is not likely to be satisfied with information are defined. If there is, it is selected whether to continue outputting information or to change the output information according to the difference in the category. Thereby, the user's satisfaction with the information output through the designated information processing terminal can be improved.

本発明の情報管理システムは、前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、前記第3処理部が、前記第4処理部により認識された前記ユーザの挙動区分の別に応じて前記ロボットの挙動を相違させることが好ましいThe information management system of the present invention is estimated based on the user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot, or acoustic data obtained through the microphone. The user's utterance content received from the robot, and by matching the facial expression or the utterance content with a plurality of facial expressions or voice patterns stored in the storage device in association with the behavior classification, fourth processing unit further includes a determining the behavior classification of the user after the contact with the information output from the specified information processing terminal, the third processing section, has been of the user recognized by the fourth processing unit it is preferable to different behavior of the robot according to different behavior classification.

当該構成の情報管理システムによれば、たとえばユーザの挙動区分として、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分とが定義されている場合、当該区分の違いに応じてロボットに適当な挙動をさせることができる。これにより、本システムによる情報提供サービスに対するユーザの満足感の向上を図ることができる。 According to the information management system of the configuration , for example, as a user behavior category, a category in which a user is highly likely to be satisfied with information and a category in which a user is not likely to be satisfied with information are defined. If it is, the robot can behave appropriately according to the difference in the category. Thereby, it is possible to improve the user's satisfaction with the information providing service by this system.

本発明の情報管理システムの実施形態について図面を用いて説明する。まず、本発明の情報管理システムの構成例について図1および図2を用いて説明する。   An embodiment of an information management system of the present invention will be described with reference to the drawings. First, a configuration example of the information management system of the present invention will be described with reference to FIG. 1 and FIG.

図1に示されている情報管理システム10は、データベース102、ロボット20および情報処理端末30のそれぞれと、インターネット、LAN等のネットワークを介して通信可能な一または複数のサーバコンピュータにより構成されている。   The information management system 10 shown in FIG. 1 includes one or a plurality of server computers that can communicate with each of the database 102, the robot 20, and the information processing terminal 30 via a network such as the Internet or a LAN. .

情報管理システム10は、第1処理部11と、第2処理部12と、第3処理部13と、第4処理部14とを備えている。処理部11〜14は、ハードウェアとしてのCPU、ROM、RAM等のメモリ、信号入力回路、信号出力回路等と、当該CPUに諸機能を付与するため、メモリやハードディスク等に格納されるソフトウェアとにより構成されている。   The information management system 10 includes a first processing unit 11, a second processing unit 12, a third processing unit 13, and a fourth processing unit 14. The processing units 11 to 14 include a CPU, a memory such as a ROM and a RAM, a signal input circuit, a signal output circuit, and the like as hardware, and software stored in a memory, a hard disk, and the like to give the CPU various functions. It is comprised by.

第1処理部11は、ロボット20との通信により、当該ロボット20がユーザとのコミュニケーションにより認識したユーザの情報に関する要求を認識し、かつ、当該要求に応じた情報をデータベース102から検索する。データベース102は種々の情報(コンテンツ)を管理する。 The first processing unit 11 recognizes a request regarding user information recognized by the robot 20 through communication with the user through communication with the robot 20 and searches the database 102 for information corresponding to the request. The database 102 manages various information (contents).

第2処理部12は、情報出力機能を有する複数の情報処理端末30の中から、あらたな情報を出力可能な状態にあるという要件を満たす情報処理端末30を指定する。また、第2処理部12は、指定情報処理端末30との通信により、第1処理部11による検索情報を当該指定情報処理端末30に出力させる。   The second processing unit 12 specifies the information processing terminal 30 that satisfies the requirement that new information can be output from among the plurality of information processing terminals 30 having the information output function. Further, the second processing unit 12 causes the designated information processing terminal 30 to output search information from the first processing unit 11 through communication with the designated information processing terminal 30.

第3処理部13は、ロボット20との通信により当該ロボット20の挙動を制御する。より具体的には、第3処理部13は、ロボット20との通信により、第2処理部12による指定情報処理端末30をユーザに知らせるために当該ロボット20の挙動を制御する。   The third processing unit 13 controls the behavior of the robot 20 through communication with the robot 20. More specifically, the third processing unit 13 controls the behavior of the robot 20 in order to inform the user of the designated information processing terminal 30 by the second processing unit 12 through communication with the robot 20.

第4処理部14は、ロボット20との通信により、指定情報処理端末30から出力された情報に接した後のユーザの挙動区分を認識する。   The fourth processing unit 14 recognizes the behavior classification of the user after contacting the information output from the designated information processing terminal 30 through communication with the robot 20.

ロボット20は、図2に示されているようにヒューマノイド型の脚式自律移動ロボットである。ロボット20は、上体部P0の上方に設けられた頭部P1と、上体部P0の上部両側から延設された2つの腕部P2と、上体部P0の下部から延設された2つの脚部P3とを備えている。ロボット20は、複数の関節機構において身体部分の回動や屈伸運動が可能とされている。   The robot 20 is a humanoid-type legged autonomous mobile robot as shown in FIG. The robot 20 includes a head P1 provided above the upper body part P0, two arm parts P2 extending from both upper sides of the upper body part P0, and 2 extended from the lower part of the upper body part P0. And two leg portions P3. The robot 20 is capable of rotating and bending / extending movement of a body part in a plurality of joint mechanisms.

また、ロボット20は、頭部P1に配置され、頭部P1の前方を撮像する左右一対のCCDカメラ(撮像装置)202と、マイク204と、スピーカ206と、制御システム200とを備えている。   The robot 20 includes a pair of left and right CCD cameras (imaging devices) 202 that are disposed on the head P1 and images the front of the head P1, a microphone 204, a speaker 206, and a control system 200.

制御システム200は、ロボット20の適当な箇所に配置されたハードウェアとしての一または複数のコンピュータ(CPU、ROM、RAM、I/O等により構成されている。)と、メモリに格納され、当該コンピュータに諸機能を付与するソフトウェアとにより構成されている。   The control system 200 is stored in one or a plurality of computers (configured by a CPU, ROM, RAM, I / O, etc.) as hardware arranged at appropriate locations of the robot 20, and stored in the memory. And software that gives various functions to the computer.

制御システム200は、画像認識部210と、音声処理部220と、行動計画部230と、運動制御部240とを備えている。また、制御システム200は、アンテナ等により構成される通信装置(図示略)により情報管理システム10とネットワークを介して情報を送受信する。また、制御システム200は、GPSやジャイロセンサ(図示略)の利用によってロボット20の現在位置や移動方向等を測定する。   The control system 200 includes an image recognition unit 210, a voice processing unit 220, an action planning unit 230, and an exercise control unit 240. The control system 200 transmits / receives information to / from the information management system 10 via a network using a communication device (not shown) configured by an antenna or the like. In addition, the control system 200 measures the current position, moving direction, and the like of the robot 20 by using a GPS or a gyro sensor (not shown).

画像認識部210は画像処理部211と、ユーザ認識部212と、挙動認識部213とを備えている。画像処理部211は一対のカメラ202により撮像された画像のグレースケール化処理、2値化処理等の画像処理を実行する。ユーザ認識部212は画像処理部211による画像処理結果に基づいてユーザの存在を認識し、必要に応じてそのユーザの性別、年齢、さらにはそのユーザが誰であるか等を認識する。挙動認識部213は、画像処理部211による画像処理結果に基づいてユーザが質問者であるか否かの別、ユーザの表情変化、ユーザの身振り等を認識する。   The image recognition unit 210 includes an image processing unit 211, a user recognition unit 212, and a behavior recognition unit 213. The image processing unit 211 executes image processing such as gray scale processing and binarization processing of images captured by the pair of cameras 202. The user recognition unit 212 recognizes the presence of the user based on the image processing result by the image processing unit 211, and recognizes the user's gender, age, who the user is, and the like as necessary. The behavior recognition unit 213 recognizes whether or not the user is a questioner, a change in the facial expression of the user, a gesture of the user, and the like based on the image processing result by the image processing unit 211.

音声処理部220は音声認識部221と、音声合成部222とを備えている。音声認識部221はマイク204から出力される音響データに応じてユーザの発話内容を認識する。なお、音響データに基づくユーザの発話内容の認識が第1処理部により実行される場合、音声認識部221は省略されてもよい。音声合成部222は指定の発話を構成するように音声を合成してスピーカ206にその発話に応じた音声を出力させる。   The voice processing unit 220 includes a voice recognition unit 221 and a voice synthesis unit 222. The voice recognition unit 221 recognizes the content of the user's utterance according to the acoustic data output from the microphone 204. In addition, when the recognition of the user's utterance content based on the acoustic data is executed by the first processing unit, the voice recognition unit 221 may be omitted. The voice synthesizer 222 synthesizes voice so as to constitute a designated utterance and causes the speaker 206 to output voice corresponding to the utterance.

行動計画部230はユーザ応答指示部231と、移動/動作計画部232と、視線指示部233と、腕動作指示部234と、脚動作指示部235とを備えている。ユーザ応答指示部231は挙動認識部213により認識されたユーザの挙動や、音声認識部221により認識されたユーザの発話内容等に基づいてこのユーザに対するロボット20の応答動作を設定してその指示信号を出力する。   The action planning unit 230 includes a user response instruction unit 231, a movement / motion planning unit 232, a line-of-sight instruction unit 233, an arm operation instruction unit 234, and a leg operation instruction unit 235. The user response instruction unit 231 sets the response operation of the robot 20 to the user based on the user behavior recognized by the behavior recognition unit 213, the user utterance content recognized by the voice recognition unit 221, and the instruction signal Is output.

移動/動作計画部232は外部または内部のデータベースからグローバルマップやローカルマップを読み出し、このマップに基づいてロボット20の移動計画(移動経路により表される。)を作成する。また、移動/動作計画部232はユーザ応答部231から出力された応答動作指示信号に基づき、ロボット20の動作(頭部P1や腕部P2の動作によるジェスチャーや、脚部P3による歩行等)の計画を作成する。   The movement / motion planning unit 232 reads a global map or a local map from an external or internal database, and creates a movement plan (represented by a movement path) of the robot 20 based on the map. In addition, the movement / motion planning unit 232 is configured to control the motion of the robot 20 (a gesture based on the motion of the head P1 or the arm P2, or a walking by the leg P3) based on the response motion instruction signal output from the user response unit 231. Create a plan.

視線指示部233は、ユーザ応答部231から出力された応答動作指示信号や、移動/動作計画部232により作成された移動/動作計画に基づいて頭部P1の動作や、カメラ202の動作(光軸の方向変換)の指示信号を出力する。腕動作指示部234は移動/動作計画部232により作成された移動/動作計画等に基づいて腕部P2の動作指示信号を出力する。脚動作指示部235は移動/動作計画部232により作成された移動/動作計画等に基づいて脚部P3の動作指示信号を出力する。   The line-of-sight instruction unit 233 operates the head P1 based on the response operation instruction signal output from the user response unit 231 or the movement / motion plan created by the movement / motion planning unit 232, and the operation of the camera 202 (light Axis direction change) instruction signal is output. The arm operation instruction unit 234 outputs an operation instruction signal of the arm part P2 based on the movement / motion plan created by the movement / motion planning unit 232 and the like. The leg motion instruction unit 235 outputs a motion instruction signal for the leg P3 based on the movement / motion plan created by the movement / motion planning unit 232 and the like.

運動制御部240はカメラ/首制御部241と、腕制御部242と、脚制御部243とを備えている。カメラ/首制御部241は視線指示部233から出力された動作指示信号に応じて頭部P1やカメラ202の駆動機構部の動作を制御する。腕制御部242は腕動作指示部234から出力された動作指示信号に応じて腕部P2の駆動機構部の動作を制御する。脚制御部243は脚動作指示部235から出力された動作指示信号に応じて脚部P3の駆動機構部の動作、ひいてはロボット20の歩行速度や進行方向を制御する。   The motion control unit 240 includes a camera / neck control unit 241, an arm control unit 242, and a leg control unit 243. The camera / neck control unit 241 controls the operation of the head P1 and the drive mechanism unit of the camera 202 in accordance with the operation instruction signal output from the line-of-sight instruction unit 233. The arm control unit 242 controls the operation of the drive mechanism unit of the arm unit P2 in accordance with the operation instruction signal output from the arm operation instruction unit 234. The leg control unit 243 controls the operation of the drive mechanism unit of the leg part P3, and thus the walking speed and the traveling direction of the robot 20, according to the operation instruction signal output from the leg operation instruction unit 235.

ロボット20はユーザとのコミュニケーション能力を有している。すなわち、ロボット20は、CCDカメラ202によりユーザの挙動を撮像し、かつ、マイク204によりユーザの声を集めることで、ユーザの意思を感知することができる。また、ロボット20は、腕部P2等の動きおよびスピーカ206から出力される音声によりユーザに情報(サーバ10から得た情報やロボット20の意思)を伝えることができる。なお、ロボット20のより詳細な構成としては、特再表03/090982号公報に開示されている構成が採用されうるので、これ以上の説明は省略する。   The robot 20 has a communication capability with the user. That is, the robot 20 can sense the user's intention by capturing the user's behavior with the CCD camera 202 and collecting the user's voice with the microphone 204. Further, the robot 20 can convey information (information obtained from the server 10 and the intention of the robot 20) to the user by the movement of the arm portion P2 and the like and the sound output from the speaker 206. As a more detailed configuration of the robot 20, the configuration disclosed in Japanese Patent Publication No. 03/090982 can be adopted, and further description thereof is omitted.

情報処理端末30はパソコン、携帯電話機、PDA等により構成され、画像表示部および音響出力部のうち一方または両方を備えており、画像、音声またはこれらの組み合わせにより種々の情報を出力する機能を有している。   The information processing terminal 30 includes a personal computer, a mobile phone, a PDA, and the like, and includes one or both of an image display unit and a sound output unit, and has a function of outputting various information by image, sound, or a combination thereof. is doing.

前記構成のロボット20を用いる情報管理システム10の機能について図3〜図11を用いて説明する。   Functions of the information management system 10 using the robot 20 having the above-described configuration will be described with reference to FIGS.

まず、第1処理部11が「第1処理」を実行する(図3/S11)。具体的には、第1処理部11が、ロボット20との通信に基づきユーザの「情報に関する要求」を認識する(図3/S111)。   First, the first processing unit 11 executes “first processing” (S11 in FIG. 3). Specifically, the first processing unit 11 recognizes the user's “request for information” based on communication with the robot 20 (S111 in FIG. 3).

図5に示されているように第1ユーザが「●●ってなに」という質問をロボット20に向かって話した場合を考える。この場合、ロボット20の制御システム200が、マイク204を通じて得た第1ユーザの音声データを解析して、第1ユーザが「●●」に関する情報を要求していることを認識する。音声データの処理には、隠れマルコフモデル法等、公知の音声認識手法が採用される。制御システム200は、必要に応じてこの認識の適否を確認するため、図5に示されているように「●●ですか」等の音声を、スピーカ206を通じて出力する。   As shown in FIG. 5, consider a case where the first user speaks the question “What is ●●” to the robot 20. In this case, the control system 200 of the robot 20 analyzes the first user's voice data obtained through the microphone 204 and recognizes that the first user requests information related to “●●”. A known speech recognition method such as a hidden Markov model method is employed for processing the speech data. The control system 200 outputs sound such as “●●?” Through the speaker 206 as shown in FIG. 5 in order to confirm the suitability of this recognition as necessary.

そして、第1処理部11が、ユーザの要求に応じた情報、すなわち前記例でいうと「●●」に関する情報(コンテンツ)を、「●●」をキーワードとしてデータベース102から検索する(図3/S112)。   Then, the first processing unit 11 searches the database 102 for information according to the user's request, that is, information (contents) related to “●●” in the above example using “●●” as a keyword (FIG. 3 / S112).

また、第2処理部12が「第2処理」を実行する(図3/S12)。具体的には、第2処理部12が、複数の情報処理端末30のそれぞれについてあらたな情報出力可能な状態にあるか否かを判定する(図3/S121)。また、第2処理部12が、第1処理部11による検索情報の種類(コンテンツのカテゴリ)を認識する(図3/S122)。さらに、第2処理部12が、各情報処理端末30のロボット20からの距離を認識する(図3/S123)。   In addition, the second processing unit 12 executes “second processing” (S12 in FIG. 3). Specifically, the second processing unit 12 determines whether or not new information can be output for each of the plurality of information processing terminals 30 (S121 in FIG. 3). Further, the second processing unit 12 recognizes the type (content category) of the search information obtained by the first processing unit 11 (FIG. 3 / S122). Furthermore, the 2nd process part 12 recognizes the distance from the robot 20 of each information processing terminal 30 (FIG. 3 / S123).

ロボット20の位置は、ロボット20が有するGPS機能によって測定された位置が、ネットワーク経由でサーバに送信されることで得られる。固定されている情報処理端末30の位置は、情報処理端末30を識別するための端末識別子と対応付けられて記憶部(図示略。ROM、RAM等のメモリ、HDD等により構成されている。)に保存されている位置情報(マップ情報)が読み出されることで得られる。また、携帯電話機等、位置の変動する情報処理端末30の位置は、この情報処理端末30が有するGPS機能によって測定された位置が、ネットワーク経由でサーバに送信されることで得られる。   The position of the robot 20 is obtained by transmitting the position measured by the GPS function of the robot 20 to the server via the network. The fixed position of the information processing terminal 30 is associated with a terminal identifier for identifying the information processing terminal 30 (not shown; configured with a memory such as a ROM or a RAM, an HDD, or the like). It is obtained by reading the position information (map information) stored in. Further, the position of the information processing terminal 30 whose position changes, such as a mobile phone, is obtained by transmitting the position measured by the GPS function of the information processing terminal 30 to the server via the network.

なお、記憶部に保存されているグローバルマップにおけるロボット20の移動経路に基づいて当該距離が認識(測定)されてもよい。グローバルマップは図4(a)に示されているように、ノード(図4(c)に破線で示されている経路上の点)または情報処理端末30の所在地の名前(識別番号)、X座標、Y座標、当該ノードから経路をたどって移動可能なノードの名称、および各情報処理端末30の最寄りのノードの名前により表現される。   Note that the distance may be recognized (measured) based on the movement path of the robot 20 in the global map stored in the storage unit. As shown in FIG. 4A, the global map is a node (a point on the route indicated by a broken line in FIG. 4C) or the name (identification number) of the location of the information processing terminal 30, X It is expressed by the coordinates, the Y coordinate, the name of the node that can move along the route from the node, and the name of the nearest node of each information processing terminal 30.

たとえば、このグローバルマップにより、ノード「001」はXおよびY座標がそれぞれ「100」および「200」であり、かつ、図4(c)に破線で示されている経路をたどってノード「002」および「003」のそれぞれに移動可能であることが表現されている。また、このグローバルマップにより、端末「201」はXおよびY座標がともに「200」であり、かつ、図4(c)に示されているように最寄のノードがノード「001」であることが表現されている。   For example, according to this global map, the node “001” has the X and Y coordinates of “100” and “200”, respectively, and follows the path indicated by the broken line in FIG. And “003” are expressed as being movable. Further, according to this global map, the terminal “201” has both X and Y coordinates “200”, and the nearest node is the node “001” as shown in FIG. 4C. Is expressed.

さらに、情報処理端末30のそれぞれの状態は、図4(b)に示されているようにその名前と、IPアドレスと、情報出力可否(Status)とにより表現されている。たとえば、端末「201」はIPアドレス「111.222.‥111」を有し、かつ、あらたな情報出力可能な状態であることが表現されている。   Further, each state of the information processing terminal 30 is expressed by its name, IP address, and information output availability (Status) as shown in FIG. 4B. For example, it is expressed that the terminal “201” has an IP address “111.222... 111” and can output new information.

また、第2処理部12が、情報出力可能な状態にあると判定され、情報種類に応じた情報出力機能を有し、かつ、ロボット20との距離が最短の位置にある情報処理端末30を指定する(図3/S124)。ここで、情報処理端末30の情報出力機能は、出力可能な情報の種類(音声、画像等)や、画像密度の高低等により特定される。たとえば、コンテンツが高画質画像を含む場合、高画質画像出力が可能なスペックを有している画像処理端末30が指定されうる。また、コンテンツが画像および音声を含む場合、画像および音声の両方を出力可能な情報処理端末30が指定されうる。   Further, it is determined that the second processing unit 12 is in a state in which information can be output, has an information output function corresponding to the information type, and has the information processing terminal 30 at the shortest distance from the robot 20. Specify (S124 in FIG. 3). Here, the information output function of the information processing terminal 30 is specified by the type of information that can be output (sound, image, etc.), the level of image density, and the like. For example, when the content includes a high-quality image, the image processing terminal 30 having a specification capable of outputting a high-quality image can be designated. Further, when the content includes an image and sound, an information processing terminal 30 that can output both the image and the sound can be designated.

なお、第2処理部12によってユーザの要求または検索情報に応じたタスクの種類が認識され、このタスクの種類に応じた種類の情報処理端末30が指定されてもよい。そして、第2処理部12が、指定情報処理端末30との通信により、第1処理部11による検索情報を当該指定情報処理端末30に出力させる(図3/S125)。   Note that the second processing unit 12 may recognize the type of task according to the user's request or search information, and specify the type of information processing terminal 30 according to the type of task. Then, the second processing unit 12 causes the designated information processing terminal 30 to output search information from the first processing unit 11 through communication with the designated information processing terminal 30 (FIG. 3 / S125).

さらに、第3処理部13が「第3処理」を実行する(図3/S13)。具体的には、第3処理部13が、ロボット20と第2処理部12による指定情報処理端末30との距離dを認識する(図3/S131)。なお、記憶部に保存されているグローバルマップにおけるロボット20の移動経路に基づいて当該距離dが認識(測定)されてもよい。この上で、第3処理部13は距離dが閾値ε以下であるか否かを判定する(図3/S132)。   Further, the third processing unit 13 executes “third processing” (S13 in FIG. 3). Specifically, the third processing unit 13 recognizes the distance d between the robot 20 and the designated information processing terminal 30 by the second processing unit 12 (S131 in FIG. 3). Note that the distance d may be recognized (measured) based on the movement path of the robot 20 in the global map stored in the storage unit. Then, the third processing unit 13 determines whether the distance d is equal to or less than the threshold ε (FIG. 3 / S132).

そして、距離dが閾値ε以下である場合(図3/S132‥YES)、第3処理部13は、ロボット20との通信により当該ロボット20の動作を制御して、指定情報処理端末30を指示させる(図3/S133)。たとえば図6に示されているように、ロボット20の頭部P1の正面および右手を指定情報処理端末30に向けさせるとともに、スピーカ206を通じて「あちらの端末をご覧ください」等の音声を出力させる。   If the distance d is less than or equal to the threshold ε (FIG. 3 / S132... YES), the third processing unit 13 controls the operation of the robot 20 by communicating with the robot 20 and instructs the designated information processing terminal 30. (FIG. 3 / S133). For example, as shown in FIG. 6, the front and right hands of the head P <b> 1 of the robot 20 are directed to the designated information processing terminal 30 and sound such as “please see that terminal” is output through the speaker 206.

一方、距離dが閾値εを超えている場合(図3/S132‥NO)、第3処理部13は、ロボット20を指定情報処理端末30に近付けるように移動させる(図3/S134)。これにより、ユーザが指定情報処理端末30のある場所に案内される。たとえば、図7に示されているように、ロボット20を歩行させるとともに、スピーカ206を通じて「端末までご案内します どうぞこちらへ」等の音声を出力させる。   On the other hand, when the distance d exceeds the threshold ε (FIG. 3 / S132... NO), the third processing unit 13 moves the robot 20 so as to approach the designated information processing terminal 30 (FIG. 3 / S134). Thereby, the user is guided to a place where the designated information processing terminal 30 is located. For example, as shown in FIG. 7, the robot 20 is caused to walk and a sound such as “Guide to the terminal, please click here” is output through the speaker 206.

なお、図7に示されている情報処理端末30はロボット20の近くにあるが、他のユーザに対して情報出力中である。このため、情報出力が可能な状態ではないと判定され、指定されないので(図3/S124参照)、ロボット20はこの情報処理端末30を指示しない。そして、ロボット20が指定情報処理端末30に近づくと、前記のように、ロボット20により当該指定情報処理端末30が指定されうる(図6参照)。   Although the information processing terminal 30 shown in FIG. 7 is near the robot 20, information is being output to other users. For this reason, it is determined that the information cannot be output and is not designated (see FIG. 3 / S124), the robot 20 does not instruct the information processing terminal 30. Then, when the robot 20 approaches the designated information processing terminal 30, the designated information processing terminal 30 can be designated by the robot 20 as described above (see FIG. 6).

続いて、第4処理部14が「第4処理」を実行する(図3/S14)。具体的には、第4処理部14が、ロボット20との通信により、指定情報処理端末30から出力される情報に接したユーザの挙動区分を認識する(図3/S141)。   Subsequently, the fourth processing unit 14 executes “fourth processing” (S14 in FIG. 3). Specifically, the fourth processing unit 14 recognizes the behavior classification of the user in contact with the information output from the designated information processing terminal 30 through communication with the robot 20 (S141 in FIG. 3).

たとえば、図8に示されているようにロボット20に、頭部P1の正面を指定情報処理端末30に向けさせながら、「こちらをご覧ください」等の音声を出力させる。続いて、図9に示されているようにロボット20に、頭部P1の正面を第1ユーザに向けさせながら「いかがですか」等の音声を出力させる。このとき、ロボット20にCCDカメラ202の撮像データに基づいてユーザの表情を認識させ、ユーザの発話内容(音声)をマイク204により得られる音響データに基づいて認識させ、あるいはユーザの表情および発話内容の両方を認識させる。   For example, as shown in FIG. 8, the robot 20 is caused to output a voice such as “please see here” while directing the front of the head P <b> 1 to the designated information processing terminal 30. Subsequently, as shown in FIG. 9, the robot 20 is caused to output a sound such as “How are you?” While making the front face of the head P <b> 1 face the first user. At this time, the robot 20 is caused to recognize the user's facial expression based on the imaging data of the CCD camera 202, and the user's speech content (voice) is recognized based on the acoustic data obtained by the microphone 204, or the user's facial expression and speech content. Recognize both.

また、第4処理部14が、ユーザの挙動区分に基づき、このユーザが情報に満足しているか否かを判定する(図3/S142)。たとえば、ユーザの表情や音声と、記憶装置に記憶されている複数のパターンとのマッチングにより、「ユーザが満足している」という挙動区分、および「ユーザが満足していない」という挙動区分のいずれであるかが判別される。   Moreover, the 4th process part 14 determines whether this user is satisfied with information based on a user's behavior classification (FIG. 3 / S142). For example, by matching the user's facial expression or voice with a plurality of patterns stored in the storage device, either the behavior category “user is satisfied” or the behavior category “user is not satisfied” Is determined.

そして「ユーザが満足している」という挙動区分であると判定された場合(図3/S142‥YES)、一連の処理が終了する。しかる後、第3処理部13が、たとえば図10に示されているように、ロボット20に「ごゆっくりご覧ください」等の音声を第1ユーザに向けて出力させ、その場から離れるようにロボット20を移動させる。   If it is determined that the behavior classification is “the user is satisfied” (FIG. 3 / S142... YES), the series of processing ends. Thereafter, as shown in FIG. 10, for example, the third processing unit 13 causes the robot 20 to output a voice such as “please see slowly” toward the first user, and to move away from the place. 20 is moved.

また、図11に示されているように第2ユーザから「○○についてききたいの」という質問がロボット20に向けられたとき、ロボット20が「○○ですね」等の音声を出力する等、第2ユーザについて第1〜第4処理をあらたに実行する(図3/S11〜S14)。   Also, as shown in FIG. 11, when the second user asks the robot 20 the question “I want to hear about XX”, the robot 20 outputs a voice such as “I ’m XX”. The first to fourth processes are newly executed for the second user (FIG. 3 / S11 to S14).

一方「ユーザが満足していない」という挙動区分であると判定された場合(図3/S142‥NO)、第1処理部11が別の情報をデータベース102から検索し(図3/S112)、第2処理部12が新たな検索情報を同じ指定情報処理端末30に出力させ(図3/S125)、この上で図9に示されているようなロボット20の動作を通じてユーザの挙動区分をあらためて判定する(図3/S141)。   On the other hand, when it is determined that the behavior classification is “the user is not satisfied” (FIG. 3 / S142... NO), the first processing unit 11 searches the database 102 for other information (FIG. 3 / S112). The second processing unit 12 outputs new search information to the same designated information processing terminal 30 (FIG. 3 / S125), and the user's behavior classification is re-established through the operation of the robot 20 as shown in FIG. Determination is made (FIG. 3 / S141).

前記機能を発揮する本発明の情報管理システム10によれば、ロボット20のコミュニケーション能力によって認識されたユーザの要求に応じた情報が、情報出力機能を有する複数の情報処理端末30のうち新たな情報を出力可能な状態にある指定情報処理端末30を通じて当該ユーザに提供されうる。   According to the information management system 10 of the present invention that exhibits the above function, information according to a user request recognized by the communication ability of the robot 20 is new information among the plurality of information processing terminals 30 having an information output function. Can be provided to the user through the designated information processing terminal 30 that is in a state where it can be output.

これにより、たとえば第1ユーザがロボット20とのコミュニケーションを経て情報を一の指定情報処理端末30から得ることができ(図5〜図10参照)、かつ、第2ユーザがその後ただちにこのロボット20とのコミュニケーションを経て情報を他の指定情報処理端末から得ることができる(図11参照)。   As a result, for example, the first user can obtain information from one designated information processing terminal 30 through communication with the robot 20 (see FIGS. 5 to 10), and the second user immediately Through the communication, information can be obtained from other designated information processing terminals (see FIG. 11).

このため、各ユーザが情報処理端末30を通じて必要とする情報に接する時間が制限されない。また、先番のユーザが情報処理端末30を通じて情報に接している間、他のユーザが情報を同じ情報処理端末から得るために待っている必要がなくなる分、各ユーザが迅速に情報を得ることができる(図7、図11参照)。   For this reason, the time for each user to contact the information required through the information processing terminal 30 is not limited. In addition, while the first user is in contact with information through the information processing terminal 30, each user can quickly obtain information as long as other users do not have to wait to obtain information from the same information processing terminal. (See FIGS. 7 and 11).

したがって、本発明の情報管理システム10によれば、ユーザに高い満足を感じさせる観点からロボット20を用いた適切な形態で、当該ユーザに対して情報を提供しうる。   Therefore, according to the information management system 10 of the present invention, information can be provided to the user in an appropriate form using the robot 20 from the viewpoint of making the user feel highly satisfied.

また、ロボット20が情報処理端末30を持っている(または備えている)わけではないので、個々のロボット20の軽量化ひいてはモビリティの向上や製造コストの節約が図られうる。   In addition, since the robot 20 does not have (or has) the information processing terminal 30, it is possible to reduce the weight of each robot 20, thereby improving mobility and saving manufacturing costs.

また、ユーザが要求する情報の種類またはユーザに提供される情報の種類(コンテンツのカテゴリ)に鑑みて適切な情報出力機能を有する情報処理端末30を通じて、このユーザに対して当該情報が提供される(図3/S122,S124)。   In addition, the information is provided to the user through the information processing terminal 30 having an appropriate information output function in view of the type of information requested by the user or the type of information provided to the user (content category). (FIG. 3 / S122, S124).

なお、タスクの種類に応じた種類の情報処理端末30が指定された場合、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に応じたタスク(たとえば、質疑応答、特定ジャンルの情報提供等)に鑑みて適切な情報出力機能を有する情報処理端末30を通じて、このユーザに対して当該情報を提供することができる。   When an information processing terminal 30 of a type corresponding to the type of task is specified, a task (for example, question and answer, information of a specific genre) according to the type (content) of information requested by the user or provided to the user This information can be provided to the user through the information processing terminal 30 having an appropriate information output function.

さらに、ロボット20と各情報処理端末30との間隔が短い情報処理端末30が優先的に指定される(図3/S123,S124)。このため、ユーザが、指定情報処理端末30がある場所まで移動する距離が長くなるのが抑制される。このため、各ユーザがその必要とする情報を得るための足労を軽減することができる。   Furthermore, the information processing terminal 30 with a short interval between the robot 20 and each information processing terminal 30 is designated preferentially (FIG. 3 / S123, S124). For this reason, it is suppressed that the distance which a user moves to the place with the designated information processing terminal 30 becomes long. For this reason, the effort for each user to obtain the necessary information can be reduced.

また、指定情報処理端末30の指示および必要に応じたユーザの案内というロボット20の挙動を通じて、どの情報処理端末30から情報を得ることができるかをユーザに知らせることができる(図3/S133,S134,図6,図7)。これにより、ロボット20を用いた情報提供サービスの親切さひいては高い満足を各ユーザに感じさせることができる。   In addition, it is possible to notify the user from which information processing terminal 30 the information can be obtained through the behavior of the robot 20 such as the instruction of the designated information processing terminal 30 and the guidance of the user as needed (FIG. 3 / S133). S134, FIG. 6, FIG. 7). As a result, each user can feel the kindness of the information providing service using the robot 20 and the high satisfaction.

さらに、ロボット20と指定情報処理端末30との距離(間隔)dが閾値ε以下である程度に両者が近づいてから、このロボット20に指定情報処理端末30を指示させることができる(図3/S132,S133,図6)。すなわち、当該距離dに鑑みて適当なタイミングで、どの情報処理端末30から情報が得られるかをユーザに知らせることができる。   Further, after the distance (interval) d between the robot 20 and the designated information processing terminal 30 approaches the threshold value ε to some extent, the robot 20 can be instructed to designate the designated information processing terminal 30 (FIG. 3 / S132). , S133, FIG. 6). That is, it is possible to notify the user from which information processing terminal 30 the information can be obtained at an appropriate timing in view of the distance d.

一方、ロボット20と指定情報処理端末30との距離(間隔)dが閾値εを超える程度に両者が離れている場合のみ、ロボット20が、指定情報処理端末30がある場所までユーザを案内する(図3/S132,S134,図7)。これにより、ユーザが指定情報処理端末30にすぐたどり着けるような場合の案内を省略し、次のユーザに対して情報を迅速に提供することができる。   On the other hand, only when the distance (interval) d between the robot 20 and the designated information processing terminal 30 exceeds the threshold value ε, the robot 20 guides the user to the place where the designated information processing terminal 30 is located ( FIG. 3 / S132, S134, FIG. 7). Thereby, guidance when the user can reach the designated information processing terminal 30 can be omitted, and information can be quickly provided to the next user.

さらに、ユーザの挙動区分が、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分との別に応じて情報出力を継続するか、または出力情報を変更するかが選択される(図3/S142)。これにより、指定情報処理端末30を通じて出力される情報に対するユーザの満足感の向上を図りうる。   Furthermore, the user's behavior category is either continuously output or output according to a category in which the user is likely to be satisfied with the information and a category in which the user is not likely to be satisfied with the information. Whether to change the information is selected (FIG. 3 / S142). Thereby, the user's satisfaction with the information output through the designated information processing terminal 30 can be improved.

なお、第2処理部12がロボット20との通信によりユーザを識別し、該識別されたユーザに対応する情報処理端末30を指定してもよい。ユーザが所有するRFIDタグからロボット20が有するリーダ(図示略)によって読み取られるユーザを識別するためのユーザ識別子や、CCDカメラ202を通じて得られるユーザの顔の画像解析等によりユーザは識別されうる。   Note that the second processing unit 12 may identify the user through communication with the robot 20 and specify the information processing terminal 30 corresponding to the identified user. The user can be identified by a user identifier for identifying a user read by a reader (not shown) of the robot 20 from an RFID tag owned by the user, an image analysis of the user's face obtained through the CCD camera 202, or the like.

これにより、ユーザとこのユーザが所有する情報処理端末30とをあらかじめ対応付けておくことで、ユーザに、自己の情報処理端末(携帯電話機やPDA等)30を通じて情報を得させることができる。   Accordingly, by associating the user with the information processing terminal 30 owned by the user in advance, the user can obtain information through his / her information processing terminal (such as a mobile phone or a PDA) 30.

また、第2処理部12がロボット20との通信によりユーザによる情報処理端末30の指定を認識し、当該指定にしたがって情報処理端末30を指定してもよい。情報処理端末30の指定は、ユーザに付されたRFIDタグからロボット20のリーダが読み取った端末識別子や、マイク204により拾われたユーザの音声解析によって認識されうる。   The second processing unit 12 may recognize the designation of the information processing terminal 30 by the user through communication with the robot 20 and designate the information processing terminal 30 according to the designation. The designation of the information processing terminal 30 can be recognized by the terminal identifier read by the reader of the robot 20 from the RFID tag attached to the user or the voice analysis of the user picked up by the microphone 204.

これにより、ユーザが指定した情報処理端末30を通じて、このユーザに対して情報を提供することができる。   Thereby, information can be provided to the user through the information processing terminal 30 designated by the user.

さらに、第3処理部30が、ロボット、ユーザおよび指定情報処理端末30の位置関係を認識し、この位置関係に応じて指定情報処理端末30をユーザに知らせるため、ロボット20の挙動を制御してもよい。たとえば、ユーザの位置を基準としてロボット20および指定情報処理端末30が反対側に位置することを要件として、指定情報処理端末30をユーザに知らせるためロボット20の挙動を制御してもよい。   Further, the third processing unit 30 recognizes the positional relationship between the robot, the user, and the designated information processing terminal 30, and controls the behavior of the robot 20 to notify the designated information processing terminal 30 to the user according to this positional relationship. Also good. For example, the behavior of the robot 20 may be controlled to notify the user of the designated information processing terminal 30 on the condition that the robot 20 and the designated information processing terminal 30 are located on the opposite side with respect to the user's position.

ユーザはその正面をロボット20に向けている蓋然性が高いことから、ユーザの位置を基準としてロボット20および指定情報処理端末30が反対側にある場合、指定情報処理端末30がユーザの背後にある蓋然性が高い。すなわち、この場合、ユーザがどの情報処理端末30から情報を得るべきかについて戸惑うおそれがある。そこで、指定情報処理端末30がどれであるかについてユーザが迷う可能性が高い場合、ロボット20の挙動を制御することにより、指定情報処理端末30の位置を当該ユーザに確実に知らせることができる(図6参照)。   Since the user has a high probability that the front faces the robot 20, when the robot 20 and the designated information processing terminal 30 are on the opposite side with respect to the user's position, the probability that the designated information processing terminal 30 is behind the user. Is expensive. That is, in this case, the user may be confused as to which information processing terminal 30 the information should be obtained from. Therefore, when the user is likely to be confused about which designated information processing terminal 30 is, the user can be surely notified of the position of the designated information processing terminal 30 by controlling the behavior of the robot 20 ( (See FIG. 6).

また、第2処理部12が、第1処理部11により認識されたユーザの要求または検索情報の種類と、ユーザによる情報処理端末30の指定と、ロボット20(またはユーザ)と各情報処理端末30との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末30を指定してもよい。さらに、この場合、ユーザの要求または検索情報の種類、ユーザによる情報処理端末30の指定、ロボット20またはユーザと各情報処理端末30との間隔の順で、当該順位が高く設定されていてもよい。   Further, the second processing unit 12 determines the type of user request or search information recognized by the first processing unit 11, the designation of the information processing terminal 30 by the user, the robot 20 (or user), and each information processing terminal 30. The information processing terminal 30 may be specified using a factor having a higher rank among a plurality of factors including the interval between the first and second factors with priority or weight. Further, in this case, the order may be set higher in the order of the user request or search information, the designation of the information processing terminal 30 by the user, and the interval between the robot 20 or the user and each information processing terminal 30. .

当該構成の情報管理システムによれば、ユーザに対する情報提供サービスの質を向上させる観点から設定された、複数の因子の順位にしたがって当該因子が優先的または偏重的に考慮されて情報処理端末が指定されうる。これにより、当該サービスへの満足をユーザに感じさせることができる。   According to the information management system of the configuration, the information processing terminal designates the factor preferentially or deliberately according to the ranking of a plurality of factors set from the viewpoint of improving the quality of the information providing service for the user. Can be done. Thereby, the user can be satisfied with the service.

さらに、第3処理部13がロボット20の挙動を制御している間に、第2処理部12によって指定情報処理端末30が変更された場合、第3処理部13が第2処理部12による当該変更前の指定情報処理端末30に代えて当該変更後の指定情報処理端末30をユーザに知らせるためにロボット20の挙動を制御してもよい。   Further, when the designated information processing terminal 30 is changed by the second processing unit 12 while the third processing unit 13 is controlling the behavior of the robot 20, the third processing unit 13 is informed by the second processing unit 12. Instead of the designated information processing terminal 30 before the change, the behavior of the robot 20 may be controlled to notify the user of the designated information processing terminal 30 after the change.

当該構成の情報管理システムによれば、情報処理端末30が情報出力不可から情報出力可となった等の状況変化に応じて指定情報処理端末30が変更されうる。そして、当該変更後の指定情報処理端末30を迅速にユーザに知らせることができる。たとえば、図11に示されている状況において、情報処理端末30を通じた第1ユーザに対する情報提供が終了し、当該情報処理端末30が情報出力不可から情報出力可となった場合、ロボット20はこの情報処理端末30をただちに第2ユーザに案内することができる(図6参照)。   According to the information management system having the configuration, the designated information processing terminal 30 can be changed in accordance with a change in the situation such as the information processing terminal 30 being unable to output information or being able to output information. Then, it is possible to promptly notify the user of the designated information processing terminal 30 after the change. For example, in the situation shown in FIG. 11, when the information provision to the first user through the information processing terminal 30 is finished and the information processing terminal 30 becomes incapable of outputting information, the robot 20 The information processing terminal 30 can be immediately guided to the second user (see FIG. 6).

本発明の情報管理システムの構成例示図。The structural example figure of the information management system of this invention. 本発明の情報管理システムと連携するロボットの構成例示図。The structural example figure of the robot which cooperates with the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention. 本発明の情報管理システムの機能例示図。The function illustration figure of the information management system of this invention.

10‥情報管理システム、102‥データベース、11‥第1処理部、12‥第2処理部、13‥第3処理部、14‥第4処理部、20‥ロボット、200‥制御システム、30‥情報処理端末。 DESCRIPTION OF SYMBOLS 10 ... Information management system, 102 ... Database, 11 ... 1st process part, 12 ... 2nd process part, 13 ... 3rd process part, 14 ... 4th process part, 20 ... Robot, 200 ... Control system, 30 ... Information Processing terminal.

Claims (13)

マイクが搭載されているロボットを用いてユーザに提供される情報を管理するシステムであって、
前記ロボットによって前記マイクを通じて得られた前記ユーザの音声データが音声認識手法にしたがって解析されることにより推定された、当該ユーザの発話内容としての情報に関する要求を当該ロボットとの通信に基づいて認識し、かつ、当該要求に応じた情報をデータベースから検索する第1処理部と、
情報出力機能を有する複数の情報処理端末の中から、新たな情報を出力可能な状態にあるという要件を満たす情報処理端末を指定し、かつ、当該指定情報処理端末との通信により、前記第1処理部による検索情報を当該指定情報処理端末に出力させるとともに、前記ロボットのGPS機能により測定された当該ロボットの位置をネットワーク経由で受信し、かつ、各情報処理端末の位置を前記システムが有する記憶部から読み出し、あるいは、各情報処理端末が有するGPS機能により測定された当該各情報処理端末の位置を受信した上で、前記ロボットの位置および前記各情報処理端末の位置に基づき、前記ロボットと前記各情報処理端末との間隔を決定し、あるいは、前記記憶部に保存されているグローバルマップにおける前記ロボットの移動経路に基づいて前記ロボットと前記各情報処理端末との間隔を決定する第2処理部と
前記第2処理部により決定された前記ロボットと前記指定情報処理端末との間隔を認識した上で、前記ロボットと前記指定情報処理端末との間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させる第3処理部とを備えていることを特徴とする情報管理システム。
A system for managing information provided to a user using a robot equipped with a microphone ,
Based on the communication with the robot, the request about the information as the utterance content of the user estimated by analyzing the voice data of the user obtained by the robot through the microphone according to a voice recognition method is recognized. And the 1st processing part which searches information according to the demand from a database,
An information processing terminal that satisfies the requirement that new information can be output is designated from among a plurality of information processing terminals having an information output function, and the first information processing terminal is communicated with the designated information processing terminal. The search information from the processing unit is output to the designated information processing terminal, the position of the robot measured by the GPS function of the robot is received via the network, and the position of each information processing terminal is stored in the system Or receiving the position of each information processing terminal measured by the GPS function of each information processing terminal, and based on the position of the robot and the position of each information processing terminal, The robot in the global map that determines the interval with each information processing terminal or is stored in the storage unit A second processing unit for determining the distance between the respective information processing terminal and the robot based on the moving path,
After recognizing the interval between the robot and the designated information processing terminal determined by the second processing unit, the behavior of the robot is controlled so that the interval between the robot and the designated information processing terminal is shortened. And a third processing unit for moving the robot .
請求項1記載の情報管理システムにおいて、
前記第2処理部が、前記複数の情報処理端末の中から、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じた情報出力機能を有する情報処理端末を指定することを特徴とする情報管理システム。
The information management system according to claim 1,
The second processing unit, from among the plurality of information processing terminals, information having an information output function according to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit An information management system characterized by designating a processing terminal.
請求項2記載の情報管理システムにおいて、
前記第2処理部が、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じたタスクの種類を認識した上で、前記複数の情報処理端末の中から、当該タスクの種類に応じた種類の情報処理端末を指定することを特徴とする情報管理システム。
In the information management system according to claim 2,
The second processing unit, recognizing the type of a task corresponding to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit, of the plurality of information processing terminals information management system in the, characterized in that specifies the type types of the information processing terminal in accordance with of the task.
請求項1記載の情報管理システムにおいて、
前記第2処理部が前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識し、当該指定にしたがって情報処理端末を指定することを特徴とする情報管理システム。
The information management system according to claim 1,
Information management system, wherein the second processing unit recognizes the designation of the information processing terminal by the user according to communication with the robot, specifying the information processing terminal in accordance with the specification.
請求項1記載の情報管理システムにおいて、
前記第2処理部が、前記複数の情報処理端末のうち、前記ロボットとの前記間隔が短い情報処理端末を優先的に指定することを特徴とする情報管理システム。
The information management system according to claim 1,
The information processing system , wherein the second processing unit preferentially specifies an information processing terminal having a short interval with the robot among the plurality of information processing terminals .
請求項1記載の情報管理システムにおいて、
前記第2処理部が、前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識した上で、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類と、前記ユーザによる情報処理端末の指定と、前記ロボットと前記各情報処理端末との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末を指定することを特徴とする情報管理システム。
The information management system according to claim 1,
The second processing unit, according to communication with the robot Recognizing the designation of the information processing terminal by the user, of the said search information corresponding to the request or the request of recognized the user by the first processing unit Among a plurality of factors including a type, designation of an information processing terminal by the user, and an interval between the robot and each information processing terminal, an information processing terminal is preferentially or deliberately used as a factor having a higher rank An information management system characterized by specifying.
請求項記載の情報管理システムにおいて、
前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類、前記ユーザによる情報処理端末の指定、前記ロボットと前記各情報処理端末との間隔の順で、前記順位が高く設定されていることを特徴とする情報管理システム。
The information management system according to claim 6 ,
In the order of the user's request recognized by the first processing unit or the type of the search information according to the request, the designation of the information processing terminal by the user, and the interval between the robot and each information processing terminal, An information management system characterized by high ranking.
請求項1記載の情報管理システムにおいて、
前記第3処理部が前記ロボットの挙動を制御している間に、前記第2処理部によって前記指定情報処理端末が変更された場合、前記第3処理部が前記第2処理部による当該変更前の指定情報処理端末に代えて当該変更後の指定情報処理端末と前記ロボットとの間隔を認識した上で、当該間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させることを特徴とする情報管理システム。
The information management system according to claim 1,
While the third processor is controlling the behavior of the robot, the case where the designated information processing terminal is changed by the second processing section, the third processing unit is the pre-change by the second processing unit Recognizing the interval between the changed designated information processing terminal and the robot instead of the designated information processing terminal, and controlling the behavior of the robot to move the robot so that the interval is shortened. An information management system characterized by
請求項記載の情報管理システムにおいて、
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値を超えていることを要件として、前記ロボットと前記指定情報処理端末との間隔が短縮されるように当該ロボットの挙動を制御して前記ロボットを移動させることを特徴とする情報管理システム。
The information management system according to claim 1 ,
Behavior of the third processing unit, wherein the robot so that the distance of the robot and the designated information processing terminal as a requirement that exceeds the threshold value, distance between the designated information processing terminal and the robot is reduced An information management system for controlling the robot to move the robot .
請求項1記載の情報管理システムにおいて、
前記第3処理部が、前記ロボットに前記指定情報処理端末を指示させるように当該ロボットの挙動を制御することを特徴とする情報管理システム。
The information management system according to claim 1,
The information processing system, wherein the third processing unit controls the behavior of the robot so that the robot instructs the designated information processing terminal.
請求項10記載の情報管理システムにおいて、
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値以下であることを要件として当該ロボットに当該指定情報処理端末を指示させるように当該ロボットの挙動を制御することを特徴とする情報管理システム。
The information management system according to claim 10 ,
Wherein the third processing unit controls the behavior of the robot so as to instruct the designated information processing terminal to the robot on condition that the distance between the robot and the designated information processing terminal is below a threshold Information management system.
請求項1記載の情報管理システムにおいて、
前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、
前記第1処理部が、前記第4処理部により認識された前記ユーザの挙動区分に基づく必要に応じて当該情報と異なる新たな情報を前記データベースから検索し、
前記第2処理部が、前記第1処理部による新たな検索情報を前記指定情報処理端末に出力させることを特徴とする情報管理システム。
The information management system according to claim 1,
The user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot or the user's utterance content estimated based on acoustic data obtained through the microphone After being received from the robot, it is output from the designated information processing terminal by matching the facial expression or utterance content with a plurality of facial expressions or speech patterns stored in the storage device in association with the behavior category. A fourth processing unit for determining a behavior classification of the user after contacting the information ,
Wherein the first processing unit retrieves the new information different from the information as required according to a fourth behavior classification of recognized the user by the processing unit from said database,
Information management system and the second processing unit, characterized in that for outputting a new search information by the first processing unit to the designated information processing terminal.
請求項1記載の情報管理システムにおいて、
前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、
前記第3処理部が、前記第4処理部により認識された前記ユーザの挙動区分の別に応じて前記ロボットの挙動を相違させることを特徴とする情報管理システム。
The information management system according to claim 1,
The user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot or the user's utterance content estimated based on acoustic data obtained through the microphone After being received from the robot, it is output from the designated information processing terminal by matching the facial expression or utterance content with a plurality of facial expressions or speech patterns stored in the storage device in association with the behavior category. A fourth processing unit for determining a behavior classification of the user after contacting the information ,
Information management system the third processing unit, characterized in that for different behavior of the robot according to different behavior classification of the user recognized by the fourth processing unit.
JP2006069874A 2006-03-14 2006-03-14 Information management system Expired - Fee Related JP4896550B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006069874A JP4896550B2 (en) 2006-03-14 2006-03-14 Information management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006069874A JP4896550B2 (en) 2006-03-14 2006-03-14 Information management system

Publications (2)

Publication Number Publication Date
JP2007249427A JP2007249427A (en) 2007-09-27
JP4896550B2 true JP4896550B2 (en) 2012-03-14

Family

ID=38593684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006069874A Expired - Fee Related JP4896550B2 (en) 2006-03-14 2006-03-14 Information management system

Country Status (1)

Country Link
JP (1) JP4896550B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5115886B2 (en) * 2008-08-25 2013-01-09 株式会社国際電気通信基礎技術研究所 Road guidance robot
JP5440008B2 (en) * 2009-07-30 2014-03-12 富士通株式会社 Information providing apparatus, information providing program, and information providing method
JP5391505B2 (en) * 2010-02-26 2014-01-15 株式会社国際電気通信基礎技術研究所 Area dividing device, area dividing program, area dividing method, and communication robot
JP2013239209A (en) * 2013-09-04 2013-11-28 Advanced Telecommunication Research Institute International Communication robot, robot control program, and robot control method
JP6134895B2 (en) * 2013-09-27 2017-05-31 株式会社国際電気通信基礎技術研究所 Robot control system, robot control program, and explanation robot
JP6610349B2 (en) * 2016-03-10 2019-11-27 大日本印刷株式会社 Guide robot control system, program, and guide robot
JP6607092B2 (en) * 2016-03-09 2019-11-20 大日本印刷株式会社 Guide robot control system, program, and guide robot
JP2018005650A (en) * 2016-07-05 2018-01-11 富士ゼロックス株式会社 Service provision device, service provision system, and program
KR102573021B1 (en) * 2016-08-30 2023-08-31 엘지전자 주식회사 Airport robot, recording medium recording program performing method of providing service thereof, and mobile terminal connecting same
JP6877199B2 (en) * 2017-03-15 2021-05-26 株式会社G−グロボット Guidance method by robot using aerial video
JP7045938B2 (en) * 2018-06-15 2022-04-01 株式会社日立製作所 Dialogue system and control method of dialogue system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04264978A (en) * 1991-02-20 1992-09-21 Hitachi Ltd Electronic filing device
JP2802416B2 (en) * 1994-04-20 1998-09-24 株式会社テムス Reception and guidance robot system
JPH10289006A (en) * 1997-04-11 1998-10-27 Yamaha Motor Co Ltd Method for controlling object to be controlled using artificial emotion
JP2001148758A (en) * 1999-11-19 2001-05-29 Canon Inc Image controller, method of output control of image controller, and storage medium
JP2004001162A (en) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd Pet robot charging system, receiving arrangement, robot, and robot system
JP4247041B2 (en) * 2003-04-01 2009-04-02 本田技研工業株式会社 Face identification system
JP2005088179A (en) * 2003-09-22 2005-04-07 Honda Motor Co Ltd Autonomous mobile robot system

Also Published As

Publication number Publication date
JP2007249427A (en) 2007-09-27

Similar Documents

Publication Publication Date Title
JP4896550B2 (en) Information management system
US11688399B2 (en) Computerized intelligent assistant for conferences
KR102389041B1 (en) Mobile terminal and method using machine learning for controlling mobile terminal
EP3258336B1 (en) Robot control system and a program
JP4718987B2 (en) Interface device and mobile robot equipped with the same
EP3213177B1 (en) User interface functionality for facilitating interaction between users and their environments
JP4976903B2 (en) robot
KR102281515B1 (en) Artificial intelligence apparatus for recognizing speech of user using personalized language model and method for the same
US11289074B2 (en) Artificial intelligence apparatus for performing speech recognition and method thereof
KR100953902B1 (en) Information processing system, information processing method, computer readable medium for storing information processing program, terminal and server
KR101295003B1 (en) Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user
US20200019779A1 (en) Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same
JP5366048B2 (en) Information provision system
KR20170067503A (en) Terminal, server and method for suggesting event thereof
US11904462B2 (en) Guide robot control device, guidance system using same, and guide robot control method
KR102339085B1 (en) Artificial intelligence apparatus for recognizing speech of user in consideration of user&#39;s application usage log and method for the same
JP7142718B2 (en) GUIDANCE ROBOT CONTROL DEVICE, GUIDANCE SYSTEM USING THE SAME, AND GUIDANCE ROBOT CONTROL METHOD
US20210173614A1 (en) Artificial intelligence device and method for operating the same
KR102331672B1 (en) Artificial intelligence device and method for determining user&#39;s location
JP2019179390A (en) Gaze point estimation processing device, gaze point estimation model generation device, gaze point estimation processing system, gaze point estimation processing method, program, and gaze point estimation model
US11772274B2 (en) Guide robot control device, guidance system using same, and guide robot control method
US11455529B2 (en) Artificial intelligence server for controlling a plurality of robots based on guidance urgency
JP6886651B2 (en) Action command generation system, response system and action command generation method
JP2017205848A (en) Service providing system
US11738449B2 (en) Guide robot control device, guidance system using same, and guide robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111221

R150 Certificate of patent or registration of utility model

Ref document number: 4896550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150106

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees