JP4896550B2 - Information management system - Google Patents
Information management system Download PDFInfo
- Publication number
- JP4896550B2 JP4896550B2 JP2006069874A JP2006069874A JP4896550B2 JP 4896550 B2 JP4896550 B2 JP 4896550B2 JP 2006069874 A JP2006069874 A JP 2006069874A JP 2006069874 A JP2006069874 A JP 2006069874A JP 4896550 B2 JP4896550 B2 JP 4896550B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- robot
- user
- processing terminal
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、コミュニケーション能力を有するロボットを用いてユーザに提供される情報を管理するシステムに関する。 The present invention relates to a system for managing information provided to a user using a robot having communication ability.
広告効果向上を図るため、自律移動機能を有するロボットを人間が多く存在するエリアに移動させ、ロボットに広告情報を配信してその情報表示装置を通じて周囲の人間に対して表示等させる技術が提案されている(たとえば、特許文献1参照)。
しかし、前記技術を用いて不特定多数の人間ではなく、個々のユーザに対してその所望の情報を提供する場合、ユーザの数よりもロボットの数が少ないことが多いため、ロボットによる情報の供給が、ユーザによる情報の需要に追いつかないおそれがある。たとえば、一のロボットが複数のユーザに対して情報を提供する場合、各ユーザはこのロボットから情報を提供してもらうまで待たなくてはならない。 However, when the desired information is provided to individual users rather than an unspecified number of people using the above technique, the number of robots is often smaller than the number of users. However, there is a possibility that the demand for information by the user cannot be kept up. For example, when one robot provides information to a plurality of users, each user must wait until information is provided from the robot.
また、より多くのユーザに対して情報を提供しようとすると、個々のユーザがロボットの情報表示装置により表示等される情報に接する時間が短縮されてしまう。これでは、ユーザは満足な情報を得られず、ロボットを用いた情報提供サービスに対する不満を感じてしまうことになる。 Further, when information is provided to a larger number of users, the time required for each user to contact information displayed by the information display device of the robot is shortened. In this case, the user cannot obtain satisfactory information, and feels dissatisfied with the information providing service using the robot.
そこで、本発明は、ユーザに高い満足を感じさせる観点からロボットを用いた適切な形態で、当該ユーザに対して情報を提供しうる情報管理システムを提供することを解決課題とする。 Therefore, an object of the present invention is to provide an information management system capable of providing information to the user in an appropriate form using a robot from the viewpoint of making the user feel highly satisfied.
前記課題を解決するための本発明の情報管理システムは、マイクが搭載されているロボットを用いてユーザに提供される情報を管理するシステムであって、前記ロボットによって前記マイクを通じて得られた前記ユーザの音声データが音声認識手法にしたがって解析されることにより推定された、当該ユーザの発話内容としての情報に関する要求を当該ロボットとの通信に基づいて認識し、かつ、当該要求に応じた情報をデータベースから検索する第1処理部と、情報出力機能を有する複数の情報処理端末の中から、新たな情報を出力可能な状態にあるという要件を満たす情報処理端末を指定し、かつ、当該指定情報処理端末との通信により、前記第1処理部による検索情報を当該指定情報処理端末に出力させるとともに、前記ロボットのGPS機能により測定された当該ロボットの位置をネットワーク経由で受信し、かつ、各情報処理端末の位置を前記システムが有する記憶部から読み出し、あるいは、各情報処理端末が有するGPS機能により測定された当該各情報処理端末の位置を受信した上で、前記ロボットの位置および前記各情報処理端末の位置に基づき、前記ロボットと前記各情報処理端末との間隔を決定し、あるいは、前記記憶部に保存されているグローバルマップにおける前記ロボットの移動経路に基づいて前記ロボットと前記各情報処理端末との間隔を決定する第2処理部と、前記第2処理部により決定された前記ロボットと前記指定情報処理端末との間隔を認識した上で、前記ロボットと前記指定情報処理端末との間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させる第3処理部とを備えていることを特徴とする。 An information management system of the present invention for solving the above problem is a system for managing information provided to a user using a robot on which a microphone is mounted, and the user obtained through the microphone by the robot audio data is estimated by being analyzed according to speech recognition techniques, a request for information as speech contents of the user is recognized on the basis of the communication with the robot, and database information in response to the request An information processing terminal satisfying the requirement that new information can be output is specified from among a plurality of information processing terminals having a first processing unit and an information output function, and the specified information processing the communication with the terminal, the retrieval information by the first processor causes output to the designated information processing terminal, the robot G The position of the robot measured by the S function is received via the network, and the position of each information processing terminal is read from the storage unit of the system, or the position of the information processing terminal measured by the GPS function of each information processing terminal After receiving the position of each information processing terminal, the interval between the robot and each information processing terminal is determined based on the position of the robot and the position of each information processing terminal, or stored in the storage unit. A second processing unit that determines an interval between the robot and each of the information processing terminals based on a movement path of the robot in the global map, and the robot determined by the second processing unit and the designated information processing terminal And the robot's behavior so that the distance between the robot and the designated information processing terminal is reduced. Controlled and characterized in that it comprises a third processing unit for moving the robot.
本発明の情報管理システムによれば、ロボットのコミュニケーション能力によって認識されたユーザの要求に応じた情報が、情報出力機能を有する複数の情報処理端末のうち新たな情報を出力可能な状態にある指定情報処理端末を通じて当該ユーザに提供されうる。ここで、情報処理端末が情報を「出力する」とは、情報を映像、音声またはこれらの組合せの形態で出力すること等、ユーザにその視覚、聴覚等の五感を通じて把握させうる形態で情報を出力することを意味する。 According to the information management system of the present invention, the information according to the user's request recognized by the communication ability of the robot is in a state in which new information can be output among a plurality of information processing terminals having an information output function. It can be provided to the user through the information processing terminal. Here, “output” information by the information processing terminal means that information is output in a form that allows the user to grasp through the five senses such as visual sense and auditory sense, such as outputting information in the form of video, audio, or a combination thereof. Means to output.
これにより、たとえば第1のユーザがロボットとのコミュニケーションを経て情報を第1の指定情報処理端末から得ることができ、かつ、第2のユーザがその後ただちにこのロボットとのコミュニケーションを経て情報を第2の指定情報処理端末から得ることができる。このため、各ユーザが情報処理端末を通じて必要とする情報に接する時間が制限されない。また、先番のユーザが情報処理端末を通じて情報に接している間、他のユーザが情報を同じ情報処理端末から得るために待っている必要がなくなる分、各ユーザが迅速に情報を得ることができる。 Thus, for example, the first user can obtain information from the first designated information processing terminal through communication with the robot, and the second user can immediately obtain information from the second through communication with the robot. Can be obtained from the designated information processing terminal. For this reason, the time for which each user contacts information required through the information processing terminal is not limited. In addition, while the first user is in contact with the information through the information processing terminal, each user can quickly obtain information as long as other users do not have to wait to obtain the information from the same information processing terminal. it can.
さらに、ユーザを指定情報処理端末がある場所まで案内させるというロボットの挙動を通じて、どの情報処理端末から情報を得ることができるかをユーザに知らせることができる。これにより、ロボットを用いた情報提供サービスの親切さひいては高い満足を各ユーザに感じさせることができる。Furthermore, it is possible to inform the user from which information processing terminal the information can be obtained through the behavior of the robot that guides the user to the place where the designated information processing terminal is located. Thereby, it is possible to make each user feel the kindness of the information providing service using the robot and the high satisfaction.
したがって、本発明の情報管理システムによれば、ユーザに高い満足を感じさせる観点からロボットを用いた適切な形態で、当該ユーザに対して情報を提供しうる。 Therefore, according to the information management system of the present invention, information can be provided to the user in an appropriate form using a robot from the viewpoint of making the user feel highly satisfied.
なお、ロボットや、本発明の構成要素である処理部が情報を「認識する」とは、処理部等がメモリやハードディスク等の記憶装置から情報を読み取ること、データベースから情報を検索すること、外部機器から情報を受信すること、情報を測定、設定、決定、判定、推定、算定すること等、この情報を必要に応じて使用することができる状態を実現するためのあらゆる情報処理を包含する概念である。 Note that “recognition” of information by a robot or a processing unit that is a component of the present invention means that the processing unit reads information from a storage device such as a memory or a hard disk, retrieves information from a database, Concepts encompassing all information processing to realize a state where information can be used as needed, such as receiving information from equipment, measuring, setting, determining, determining, estimating, and calculating information It is.
前記第2処理部が、前記複数の情報処理端末の中から、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じた情報出力機能を有する情報処理端末を指定することが好ましい。 The second processing unit, from among the plurality of information processing terminals, information having an information output function according to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit It is preferable to specify a processing terminal.
当該構成の情報管理システムによれば、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に鑑みて適切な情報出力機能を有する情報処理端末を通じて、このユーザに対して当該情報を提供することができる。 According to the information management system having the configuration, the information is provided to the user through an information processing terminal having an appropriate information output function in view of the type (content) of the information requested by the user or provided to the user. can do.
前記第2処理部が、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じたタスクの種類を認識した上で、前記複数の情報処理端末の中から、当該タスクの種類に応じた種類の情報処理端末を指定することが好ましい。 The second processing unit, recognizing the type of a task corresponding to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit, of the plurality of information processing terminals from within, it is preferable to specify the type of information processing terminal according to the type of the task.
当該構成の情報管理システムによれば、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に応じたタスク(たとえば、質疑応答、特定ジャンルの情報提供等)に鑑みて適切な情報出力機能を有する情報処理端末を通じて、このユーザに対して当該情報を提供することができる。 According to the information management system having the above configuration , appropriate information output in view of a task (for example, question and answer, information provision of a specific genre, etc.) according to the type of information (content) requested by the user or provided to the user This information can be provided to this user through an information processing terminal having a function.
前記第2処理部が前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識し、当該指定にしたがって情報処理端末を指定することが好ましい。 The second processing unit recognizes the designation of the information processing terminal by the user according to communication with the robot, it is preferable to specify the information processing terminal in accordance with the specification.
当該構成の情報管理システムによれば、ユーザが指定した情報処理端末を通じて、このユーザに対して情報を提供することができる。 According to the information management system having the configuration , information can be provided to the user through the information processing terminal designated by the user.
前記第2処理部が、前記複数の情報処理端末のうち、前記ロボットとの前記間隔が短い情報処理端末を優先的に指定することが好ましい。 It is preferable that the second processing unit preferentially designates an information processing terminal having a short distance from the robot among the plurality of information processing terminals .
当該構成の情報管理システムによれば、ユーザが、指定情報処理端末がある場所まで移動する距離が長くなるのが抑制される。このため、各ユーザがその必要とする情報を得るための足労を軽減することができる。 According to the information management system of the said structure , it is suppressed that the distance for which a user moves to the place with a designated information processing terminal becomes long. For this reason, the effort for each user to obtain the necessary information can be reduced .
前記第2処理部が、前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識した上で、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類と、前記ユーザによる情報処理端末の指定と、前記ロボットと前記各情報処理端末との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末を指定することが好ましい。 The second processing unit, according to communication with the robot Recognizing the designation of the information processing terminal by the user, of the said search information corresponding to the request or the request of recognized the user by the first processing unit Among a plurality of factors including a type, designation of an information processing terminal by the user, and an interval between the robot and each information processing terminal, an information processing terminal is preferentially or deliberately used as a factor having a higher rank Is preferably specified.
さらに、 前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類、前記ユーザによる情報処理端末の指定、前記ロボットと前記各情報処理端末との間隔の順で、前記順位が高く設定されていることが好ましい。 Further, the user request recognized by the first processing unit or the type of the search information corresponding to the request, the designation of the information processing terminal by the user, and the interval between the robot and each information processing terminal It is preferable that the ranking is set high.
当該構成の情報管理システムによれば、ユーザに対する情報提供サービスの質を向上させる観点から設定された、複数の因子の順位にしたがって当該因子が優先的または偏重的に考慮されて情報処理端末が指定されうる。これにより、当該サービスへの満足をユーザに感じさせることができる。 According to the information management system of the configuration, the information processing terminal designates the factor preferentially or deliberately according to the ranking of a plurality of factors set from the viewpoint of improving the quality of the information providing service for the user. Can be done. Thereby, the user can be satisfied with the service.
前記第3処理部が前記ロボットの挙動を制御している間に、前記第2処理部によって前記指定情報処理端末が変更された場合、前記第3処理部が前記第2処理部による当該変更前の指定情報処理端末に代えて当該変更後の指定情報処理端末と前記ロボットとの間隔を認識した上で、当該間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させることが好ましい。 While the third processor is controlling the behavior of the robot, the case where the designated information processing terminal is changed by the second processing section, the third processing unit is the pre-change by the second processing unit Recognizing the interval between the changed designated information processing terminal and the robot instead of the designated information processing terminal, and controlling the behavior of the robot to move the robot so that the interval is shortened. Is preferred .
当該構成の情報管理システムによれば、情報処理端末が情報出力不可から情報出力可となった等の状況変化に応じて指定情報処理端末が変更されうる。そして、当該変更後の指定情報処理端末を迅速にユーザに知らせることができる。 According to the information management system configured as described above, the designated information processing terminal can be changed in accordance with a change in the situation such as the information processing terminal being able to output information from being unable to output information. Then, it is possible to promptly notify the user of the designated information processing terminal after the change.
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値を超えていることを要件として、前記ロボットと前記指定情報処理端末との間隔が短縮されるように当該ロボットの挙動を制御して前記ロボットを移動させることが好ましい。 Behavior of the third processing unit, wherein the robot so that the distance of the robot and the designated information processing terminal as a requirement that exceeds the threshold value, distance between the designated information processing terminal and the robot is reduced It is preferable to move the robot by controlling .
当該構成の情報管理システムによれば、ロボットと指定情報処理端末との間隔が閾値を超える程度に両者が離れている場合のみ、ロボットが、指定情報処理端末がある場所までユーザを案内する。これにより、ユーザが指定情報処理端末にすぐたどり着けるような場合の案内を省略し、次のユーザに対して情報を迅速に提供することができる。 According to the information management system of the configuration , the robot guides the user to the place where the designated information processing terminal is located only when the distance between the robot and the designated information processing terminal is so far as to exceed the threshold. As a result, it is possible to omit the guidance when the user can quickly reach the designated information processing terminal, and to quickly provide information to the next user .
前記第3処理部が、前記ロボットに前記指定情報処理端末を指示させるように当該ロボットの挙動を制御することが好ましい。 The third processing unit, it is preferable to control the behavior of the robot so as to instruct the designated information processing terminal to the robot.
当該構成の情報管理システムによれば、ロボットに指定情報処理端末を指示させることで、複数の情報処理端末のうち、どの情報処理端末から情報を得ることができるかをユーザに把握させることができる。ロボットによる「指示」には、ロボットの身体の一部を動かして指定情報処理端末を指し示すこと、ロボットから出力される「左側の端末です」等の音声による指定情報処理端末の場所の案内、ロボットから指定情報処理端末への光照射等、ユーザにその視覚、聴覚等の五感を通じて端末を特定させるためのあらゆる挙動が含まれる。 According to the information management system configured as described above, by causing the robot to instruct the designated information processing terminal, it is possible to allow the user to grasp which information processing terminal from among the plurality of information processing terminals can obtain information. . “Instructions” by the robot include moving the body of the robot to point to the designated information processing terminal, guiding the location of the designated information processing terminal by voice such as “Left terminal” output from the robot, All the behaviors for allowing the user to identify the terminal through the five senses such as the visual sense and the auditory sense are included, such as light irradiation to the designated information processing terminal.
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値以下であることを要件として当該ロボットに当該指定情報処理端末を指示させるように当該ロボットの挙動を制御することが好ましい。 The third processing unit, it is preferable to control the behavior of the robot so as to instruct the designated information processing terminal to the robot on condition that the distance between said robot the designated information processing terminal is below a threshold .
当該構成の情報管理システムによれば、ロボットと指定情報処理端末との間隔が閾値以下である程度に両者が近づいてから、このロボットに指定情報処理端末を指示させることができる。すなわち、ロボットと指定情報処理端末との間隔に鑑みて適当なタイミングで、どの情報処理端末から情報が得られるかをユーザに知らせることができる。 According to the information management system having the configuration , the robot can be instructed to designate the designated information processing terminal after the distance between the robot and the designated information processing terminal is close to a threshold value or less. That is, it is possible to notify the user from which information processing terminal information can be obtained at an appropriate timing in view of the interval between the robot and the designated information processing terminal.
本発明の情報管理システムは、前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、前記第1処理部が、前記第4処理部により認識された前記ユーザの挙動区分に基づく必要に応じて当該情報と異なる新たな情報を前記データベースから検索し、前記第2処理部が、前記第1処理部による新たな検索情報を前記指定情報処理端末に出力させることが好ましい。 The information management system of the present invention is estimated based on the user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot, or acoustic data obtained through the microphone. The user's utterance content received from the robot, and by matching the facial expression or the utterance content with a plurality of facial expressions or voice patterns stored in the storage device in association with the behavior classification, fourth processing unit further includes a determining the behavior classification of the user after the contact with the information output from the specified information processing terminal, wherein the first processing section, has been of the user recognized by the fourth processing unit new information different from the information retrieved from the database as needed based on the behavior classification, the second processing unit, the first processing It is preferable to output a new search information by parts to the designated information processing terminal.
当該構成の情報管理システムによれば、たとえばユーザの挙動区分として、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分とが定義されている場合、当該区分の違いに応じて情報出力を継続するか、または出力情報を変更するかが選択される。これにより、指定情報処理端末を通じて出力される情報に対するユーザの満足感の向上を図りうる。 According to the information management system of the configuration , for example, as a user behavior category, a category in which a user is highly likely to be satisfied with information and a category in which a user is not likely to be satisfied with information are defined. If there is, it is selected whether to continue outputting information or to change the output information according to the difference in the category. Thereby, the user's satisfaction with the information output through the designated information processing terminal can be improved.
本発明の情報管理システムは、前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、前記第3処理部が、前記第4処理部により認識された前記ユーザの挙動区分の別に応じて前記ロボットの挙動を相違させることが好ましい。 The information management system of the present invention is estimated based on the user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot, or acoustic data obtained through the microphone. The user's utterance content received from the robot, and by matching the facial expression or the utterance content with a plurality of facial expressions or voice patterns stored in the storage device in association with the behavior classification, fourth processing unit further includes a determining the behavior classification of the user after the contact with the information output from the specified information processing terminal, the third processing section, has been of the user recognized by the fourth processing unit it is preferable to different behavior of the robot according to different behavior classification.
当該構成の情報管理システムによれば、たとえばユーザの挙動区分として、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分とが定義されている場合、当該区分の違いに応じてロボットに適当な挙動をさせることができる。これにより、本システムによる情報提供サービスに対するユーザの満足感の向上を図ることができる。 According to the information management system of the configuration , for example, as a user behavior category, a category in which a user is highly likely to be satisfied with information and a category in which a user is not likely to be satisfied with information are defined. If it is, the robot can behave appropriately according to the difference in the category. Thereby, it is possible to improve the user's satisfaction with the information providing service by this system.
本発明の情報管理システムの実施形態について図面を用いて説明する。まず、本発明の情報管理システムの構成例について図1および図2を用いて説明する。 An embodiment of an information management system of the present invention will be described with reference to the drawings. First, a configuration example of the information management system of the present invention will be described with reference to FIG. 1 and FIG.
図1に示されている情報管理システム10は、データベース102、ロボット20および情報処理端末30のそれぞれと、インターネット、LAN等のネットワークを介して通信可能な一または複数のサーバコンピュータにより構成されている。
The
情報管理システム10は、第1処理部11と、第2処理部12と、第3処理部13と、第4処理部14とを備えている。処理部11〜14は、ハードウェアとしてのCPU、ROM、RAM等のメモリ、信号入力回路、信号出力回路等と、当該CPUに諸機能を付与するため、メモリやハードディスク等に格納されるソフトウェアとにより構成されている。
The
第1処理部11は、ロボット20との通信により、当該ロボット20がユーザとのコミュニケーションにより認識したユーザの情報に関する要求を認識し、かつ、当該要求に応じた情報をデータベース102から検索する。データベース102は種々の情報(コンテンツ)を管理する。
The first processing unit 11 recognizes a request regarding user information recognized by the
第2処理部12は、情報出力機能を有する複数の情報処理端末30の中から、あらたな情報を出力可能な状態にあるという要件を満たす情報処理端末30を指定する。また、第2処理部12は、指定情報処理端末30との通信により、第1処理部11による検索情報を当該指定情報処理端末30に出力させる。
The
第3処理部13は、ロボット20との通信により当該ロボット20の挙動を制御する。より具体的には、第3処理部13は、ロボット20との通信により、第2処理部12による指定情報処理端末30をユーザに知らせるために当該ロボット20の挙動を制御する。
The third processing unit 13 controls the behavior of the
第4処理部14は、ロボット20との通信により、指定情報処理端末30から出力された情報に接した後のユーザの挙動区分を認識する。
The fourth processing unit 14 recognizes the behavior classification of the user after contacting the information output from the designated
ロボット20は、図2に示されているようにヒューマノイド型の脚式自律移動ロボットである。ロボット20は、上体部P0の上方に設けられた頭部P1と、上体部P0の上部両側から延設された2つの腕部P2と、上体部P0の下部から延設された2つの脚部P3とを備えている。ロボット20は、複数の関節機構において身体部分の回動や屈伸運動が可能とされている。
The
また、ロボット20は、頭部P1に配置され、頭部P1の前方を撮像する左右一対のCCDカメラ(撮像装置)202と、マイク204と、スピーカ206と、制御システム200とを備えている。
The
制御システム200は、ロボット20の適当な箇所に配置されたハードウェアとしての一または複数のコンピュータ(CPU、ROM、RAM、I/O等により構成されている。)と、メモリに格納され、当該コンピュータに諸機能を付与するソフトウェアとにより構成されている。
The
制御システム200は、画像認識部210と、音声処理部220と、行動計画部230と、運動制御部240とを備えている。また、制御システム200は、アンテナ等により構成される通信装置(図示略)により情報管理システム10とネットワークを介して情報を送受信する。また、制御システム200は、GPSやジャイロセンサ(図示略)の利用によってロボット20の現在位置や移動方向等を測定する。
The
画像認識部210は画像処理部211と、ユーザ認識部212と、挙動認識部213とを備えている。画像処理部211は一対のカメラ202により撮像された画像のグレースケール化処理、2値化処理等の画像処理を実行する。ユーザ認識部212は画像処理部211による画像処理結果に基づいてユーザの存在を認識し、必要に応じてそのユーザの性別、年齢、さらにはそのユーザが誰であるか等を認識する。挙動認識部213は、画像処理部211による画像処理結果に基づいてユーザが質問者であるか否かの別、ユーザの表情変化、ユーザの身振り等を認識する。
The image recognition unit 210 includes an
音声処理部220は音声認識部221と、音声合成部222とを備えている。音声認識部221はマイク204から出力される音響データに応じてユーザの発話内容を認識する。なお、音響データに基づくユーザの発話内容の認識が第1処理部により実行される場合、音声認識部221は省略されてもよい。音声合成部222は指定の発話を構成するように音声を合成してスピーカ206にその発話に応じた音声を出力させる。
The voice processing unit 220 includes a voice recognition unit 221 and a
行動計画部230はユーザ応答指示部231と、移動/動作計画部232と、視線指示部233と、腕動作指示部234と、脚動作指示部235とを備えている。ユーザ応答指示部231は挙動認識部213により認識されたユーザの挙動や、音声認識部221により認識されたユーザの発話内容等に基づいてこのユーザに対するロボット20の応答動作を設定してその指示信号を出力する。
The action planning unit 230 includes a user
移動/動作計画部232は外部または内部のデータベースからグローバルマップやローカルマップを読み出し、このマップに基づいてロボット20の移動計画(移動経路により表される。)を作成する。また、移動/動作計画部232はユーザ応答部231から出力された応答動作指示信号に基づき、ロボット20の動作(頭部P1や腕部P2の動作によるジェスチャーや、脚部P3による歩行等)の計画を作成する。
The movement /
視線指示部233は、ユーザ応答部231から出力された応答動作指示信号や、移動/動作計画部232により作成された移動/動作計画に基づいて頭部P1の動作や、カメラ202の動作(光軸の方向変換)の指示信号を出力する。腕動作指示部234は移動/動作計画部232により作成された移動/動作計画等に基づいて腕部P2の動作指示信号を出力する。脚動作指示部235は移動/動作計画部232により作成された移動/動作計画等に基づいて脚部P3の動作指示信号を出力する。
The line-of-
運動制御部240はカメラ/首制御部241と、腕制御部242と、脚制御部243とを備えている。カメラ/首制御部241は視線指示部233から出力された動作指示信号に応じて頭部P1やカメラ202の駆動機構部の動作を制御する。腕制御部242は腕動作指示部234から出力された動作指示信号に応じて腕部P2の駆動機構部の動作を制御する。脚制御部243は脚動作指示部235から出力された動作指示信号に応じて脚部P3の駆動機構部の動作、ひいてはロボット20の歩行速度や進行方向を制御する。
The motion control unit 240 includes a camera / neck control unit 241, an arm control unit 242, and a
ロボット20はユーザとのコミュニケーション能力を有している。すなわち、ロボット20は、CCDカメラ202によりユーザの挙動を撮像し、かつ、マイク204によりユーザの声を集めることで、ユーザの意思を感知することができる。また、ロボット20は、腕部P2等の動きおよびスピーカ206から出力される音声によりユーザに情報(サーバ10から得た情報やロボット20の意思)を伝えることができる。なお、ロボット20のより詳細な構成としては、特再表03/090982号公報に開示されている構成が採用されうるので、これ以上の説明は省略する。
The
情報処理端末30はパソコン、携帯電話機、PDA等により構成され、画像表示部および音響出力部のうち一方または両方を備えており、画像、音声またはこれらの組み合わせにより種々の情報を出力する機能を有している。
The
前記構成のロボット20を用いる情報管理システム10の機能について図3〜図11を用いて説明する。
Functions of the
まず、第1処理部11が「第1処理」を実行する(図3/S11)。具体的には、第1処理部11が、ロボット20との通信に基づきユーザの「情報に関する要求」を認識する(図3/S111)。 First, the first processing unit 11 executes “first processing” (S11 in FIG. 3). Specifically, the first processing unit 11 recognizes the user's “request for information” based on communication with the robot 20 (S111 in FIG. 3).
図5に示されているように第1ユーザが「●●ってなに」という質問をロボット20に向かって話した場合を考える。この場合、ロボット20の制御システム200が、マイク204を通じて得た第1ユーザの音声データを解析して、第1ユーザが「●●」に関する情報を要求していることを認識する。音声データの処理には、隠れマルコフモデル法等、公知の音声認識手法が採用される。制御システム200は、必要に応じてこの認識の適否を確認するため、図5に示されているように「●●ですか」等の音声を、スピーカ206を通じて出力する。
As shown in FIG. 5, consider a case where the first user speaks the question “What is ●●” to the
そして、第1処理部11が、ユーザの要求に応じた情報、すなわち前記例でいうと「●●」に関する情報(コンテンツ)を、「●●」をキーワードとしてデータベース102から検索する(図3/S112)。
Then, the first processing unit 11 searches the
また、第2処理部12が「第2処理」を実行する(図3/S12)。具体的には、第2処理部12が、複数の情報処理端末30のそれぞれについてあらたな情報出力可能な状態にあるか否かを判定する(図3/S121)。また、第2処理部12が、第1処理部11による検索情報の種類(コンテンツのカテゴリ)を認識する(図3/S122)。さらに、第2処理部12が、各情報処理端末30のロボット20からの距離を認識する(図3/S123)。
In addition, the
ロボット20の位置は、ロボット20が有するGPS機能によって測定された位置が、ネットワーク経由でサーバに送信されることで得られる。固定されている情報処理端末30の位置は、情報処理端末30を識別するための端末識別子と対応付けられて記憶部(図示略。ROM、RAM等のメモリ、HDD等により構成されている。)に保存されている位置情報(マップ情報)が読み出されることで得られる。また、携帯電話機等、位置の変動する情報処理端末30の位置は、この情報処理端末30が有するGPS機能によって測定された位置が、ネットワーク経由でサーバに送信されることで得られる。
The position of the
なお、記憶部に保存されているグローバルマップにおけるロボット20の移動経路に基づいて当該距離が認識(測定)されてもよい。グローバルマップは図4(a)に示されているように、ノード(図4(c)に破線で示されている経路上の点)または情報処理端末30の所在地の名前(識別番号)、X座標、Y座標、当該ノードから経路をたどって移動可能なノードの名称、および各情報処理端末30の最寄りのノードの名前により表現される。
Note that the distance may be recognized (measured) based on the movement path of the
たとえば、このグローバルマップにより、ノード「001」はXおよびY座標がそれぞれ「100」および「200」であり、かつ、図4(c)に破線で示されている経路をたどってノード「002」および「003」のそれぞれに移動可能であることが表現されている。また、このグローバルマップにより、端末「201」はXおよびY座標がともに「200」であり、かつ、図4(c)に示されているように最寄のノードがノード「001」であることが表現されている。 For example, according to this global map, the node “001” has the X and Y coordinates of “100” and “200”, respectively, and follows the path indicated by the broken line in FIG. And “003” are expressed as being movable. Further, according to this global map, the terminal “201” has both X and Y coordinates “200”, and the nearest node is the node “001” as shown in FIG. 4C. Is expressed.
さらに、情報処理端末30のそれぞれの状態は、図4(b)に示されているようにその名前と、IPアドレスと、情報出力可否(Status)とにより表現されている。たとえば、端末「201」はIPアドレス「111.222.‥111」を有し、かつ、あらたな情報出力可能な状態であることが表現されている。
Further, each state of the
また、第2処理部12が、情報出力可能な状態にあると判定され、情報種類に応じた情報出力機能を有し、かつ、ロボット20との距離が最短の位置にある情報処理端末30を指定する(図3/S124)。ここで、情報処理端末30の情報出力機能は、出力可能な情報の種類(音声、画像等)や、画像密度の高低等により特定される。たとえば、コンテンツが高画質画像を含む場合、高画質画像出力が可能なスペックを有している画像処理端末30が指定されうる。また、コンテンツが画像および音声を含む場合、画像および音声の両方を出力可能な情報処理端末30が指定されうる。
Further, it is determined that the
なお、第2処理部12によってユーザの要求または検索情報に応じたタスクの種類が認識され、このタスクの種類に応じた種類の情報処理端末30が指定されてもよい。そして、第2処理部12が、指定情報処理端末30との通信により、第1処理部11による検索情報を当該指定情報処理端末30に出力させる(図3/S125)。
Note that the
さらに、第3処理部13が「第3処理」を実行する(図3/S13)。具体的には、第3処理部13が、ロボット20と第2処理部12による指定情報処理端末30との距離dを認識する(図3/S131)。なお、記憶部に保存されているグローバルマップにおけるロボット20の移動経路に基づいて当該距離dが認識(測定)されてもよい。この上で、第3処理部13は距離dが閾値ε以下であるか否かを判定する(図3/S132)。
Further, the third processing unit 13 executes “third processing” (S13 in FIG. 3). Specifically, the third processing unit 13 recognizes the distance d between the
そして、距離dが閾値ε以下である場合(図3/S132‥YES)、第3処理部13は、ロボット20との通信により当該ロボット20の動作を制御して、指定情報処理端末30を指示させる(図3/S133)。たとえば図6に示されているように、ロボット20の頭部P1の正面および右手を指定情報処理端末30に向けさせるとともに、スピーカ206を通じて「あちらの端末をご覧ください」等の音声を出力させる。
If the distance d is less than or equal to the threshold ε (FIG. 3 / S132... YES), the third processing unit 13 controls the operation of the
一方、距離dが閾値εを超えている場合(図3/S132‥NO)、第3処理部13は、ロボット20を指定情報処理端末30に近付けるように移動させる(図3/S134)。これにより、ユーザが指定情報処理端末30のある場所に案内される。たとえば、図7に示されているように、ロボット20を歩行させるとともに、スピーカ206を通じて「端末までご案内します どうぞこちらへ」等の音声を出力させる。
On the other hand, when the distance d exceeds the threshold ε (FIG. 3 / S132... NO), the third processing unit 13 moves the
なお、図7に示されている情報処理端末30はロボット20の近くにあるが、他のユーザに対して情報出力中である。このため、情報出力が可能な状態ではないと判定され、指定されないので(図3/S124参照)、ロボット20はこの情報処理端末30を指示しない。そして、ロボット20が指定情報処理端末30に近づくと、前記のように、ロボット20により当該指定情報処理端末30が指定されうる(図6参照)。
Although the
続いて、第4処理部14が「第4処理」を実行する(図3/S14)。具体的には、第4処理部14が、ロボット20との通信により、指定情報処理端末30から出力される情報に接したユーザの挙動区分を認識する(図3/S141)。
Subsequently, the fourth processing unit 14 executes “fourth processing” (S14 in FIG. 3). Specifically, the fourth processing unit 14 recognizes the behavior classification of the user in contact with the information output from the designated
たとえば、図8に示されているようにロボット20に、頭部P1の正面を指定情報処理端末30に向けさせながら、「こちらをご覧ください」等の音声を出力させる。続いて、図9に示されているようにロボット20に、頭部P1の正面を第1ユーザに向けさせながら「いかがですか」等の音声を出力させる。このとき、ロボット20にCCDカメラ202の撮像データに基づいてユーザの表情を認識させ、ユーザの発話内容(音声)をマイク204により得られる音響データに基づいて認識させ、あるいはユーザの表情および発話内容の両方を認識させる。
For example, as shown in FIG. 8, the
また、第4処理部14が、ユーザの挙動区分に基づき、このユーザが情報に満足しているか否かを判定する(図3/S142)。たとえば、ユーザの表情や音声と、記憶装置に記憶されている複数のパターンとのマッチングにより、「ユーザが満足している」という挙動区分、および「ユーザが満足していない」という挙動区分のいずれであるかが判別される。 Moreover, the 4th process part 14 determines whether this user is satisfied with information based on a user's behavior classification (FIG. 3 / S142). For example, by matching the user's facial expression or voice with a plurality of patterns stored in the storage device, either the behavior category “user is satisfied” or the behavior category “user is not satisfied” Is determined.
そして「ユーザが満足している」という挙動区分であると判定された場合(図3/S142‥YES)、一連の処理が終了する。しかる後、第3処理部13が、たとえば図10に示されているように、ロボット20に「ごゆっくりご覧ください」等の音声を第1ユーザに向けて出力させ、その場から離れるようにロボット20を移動させる。
If it is determined that the behavior classification is “the user is satisfied” (FIG. 3 / S142... YES), the series of processing ends. Thereafter, as shown in FIG. 10, for example, the third processing unit 13 causes the
また、図11に示されているように第2ユーザから「○○についてききたいの」という質問がロボット20に向けられたとき、ロボット20が「○○ですね」等の音声を出力する等、第2ユーザについて第1〜第4処理をあらたに実行する(図3/S11〜S14)。
Also, as shown in FIG. 11, when the second user asks the
一方「ユーザが満足していない」という挙動区分であると判定された場合(図3/S142‥NO)、第1処理部11が別の情報をデータベース102から検索し(図3/S112)、第2処理部12が新たな検索情報を同じ指定情報処理端末30に出力させ(図3/S125)、この上で図9に示されているようなロボット20の動作を通じてユーザの挙動区分をあらためて判定する(図3/S141)。
On the other hand, when it is determined that the behavior classification is “the user is not satisfied” (FIG. 3 / S142... NO), the first processing unit 11 searches the
前記機能を発揮する本発明の情報管理システム10によれば、ロボット20のコミュニケーション能力によって認識されたユーザの要求に応じた情報が、情報出力機能を有する複数の情報処理端末30のうち新たな情報を出力可能な状態にある指定情報処理端末30を通じて当該ユーザに提供されうる。
According to the
これにより、たとえば第1ユーザがロボット20とのコミュニケーションを経て情報を一の指定情報処理端末30から得ることができ(図5〜図10参照)、かつ、第2ユーザがその後ただちにこのロボット20とのコミュニケーションを経て情報を他の指定情報処理端末から得ることができる(図11参照)。
As a result, for example, the first user can obtain information from one designated
このため、各ユーザが情報処理端末30を通じて必要とする情報に接する時間が制限されない。また、先番のユーザが情報処理端末30を通じて情報に接している間、他のユーザが情報を同じ情報処理端末から得るために待っている必要がなくなる分、各ユーザが迅速に情報を得ることができる(図7、図11参照)。
For this reason, the time for each user to contact the information required through the
したがって、本発明の情報管理システム10によれば、ユーザに高い満足を感じさせる観点からロボット20を用いた適切な形態で、当該ユーザに対して情報を提供しうる。
Therefore, according to the
また、ロボット20が情報処理端末30を持っている(または備えている)わけではないので、個々のロボット20の軽量化ひいてはモビリティの向上や製造コストの節約が図られうる。
In addition, since the
また、ユーザが要求する情報の種類またはユーザに提供される情報の種類(コンテンツのカテゴリ)に鑑みて適切な情報出力機能を有する情報処理端末30を通じて、このユーザに対して当該情報が提供される(図3/S122,S124)。
In addition, the information is provided to the user through the
なお、タスクの種類に応じた種類の情報処理端末30が指定された場合、ユーザが要求するまたはユーザに提供される情報の種類(コンテンツ)に応じたタスク(たとえば、質疑応答、特定ジャンルの情報提供等)に鑑みて適切な情報出力機能を有する情報処理端末30を通じて、このユーザに対して当該情報を提供することができる。
When an
さらに、ロボット20と各情報処理端末30との間隔が短い情報処理端末30が優先的に指定される(図3/S123,S124)。このため、ユーザが、指定情報処理端末30がある場所まで移動する距離が長くなるのが抑制される。このため、各ユーザがその必要とする情報を得るための足労を軽減することができる。
Furthermore, the
また、指定情報処理端末30の指示および必要に応じたユーザの案内というロボット20の挙動を通じて、どの情報処理端末30から情報を得ることができるかをユーザに知らせることができる(図3/S133,S134,図6,図7)。これにより、ロボット20を用いた情報提供サービスの親切さひいては高い満足を各ユーザに感じさせることができる。
In addition, it is possible to notify the user from which
さらに、ロボット20と指定情報処理端末30との距離(間隔)dが閾値ε以下である程度に両者が近づいてから、このロボット20に指定情報処理端末30を指示させることができる(図3/S132,S133,図6)。すなわち、当該距離dに鑑みて適当なタイミングで、どの情報処理端末30から情報が得られるかをユーザに知らせることができる。
Further, after the distance (interval) d between the
一方、ロボット20と指定情報処理端末30との距離(間隔)dが閾値εを超える程度に両者が離れている場合のみ、ロボット20が、指定情報処理端末30がある場所までユーザを案内する(図3/S132,S134,図7)。これにより、ユーザが指定情報処理端末30にすぐたどり着けるような場合の案内を省略し、次のユーザに対して情報を迅速に提供することができる。
On the other hand, only when the distance (interval) d between the
さらに、ユーザの挙動区分が、ユーザが情報に満足している可能性が高い区分と、ユーザが情報に満足していない可能性が高い区分との別に応じて情報出力を継続するか、または出力情報を変更するかが選択される(図3/S142)。これにより、指定情報処理端末30を通じて出力される情報に対するユーザの満足感の向上を図りうる。
Furthermore, the user's behavior category is either continuously output or output according to a category in which the user is likely to be satisfied with the information and a category in which the user is not likely to be satisfied with the information. Whether to change the information is selected (FIG. 3 / S142). Thereby, the user's satisfaction with the information output through the designated
なお、第2処理部12がロボット20との通信によりユーザを識別し、該識別されたユーザに対応する情報処理端末30を指定してもよい。ユーザが所有するRFIDタグからロボット20が有するリーダ(図示略)によって読み取られるユーザを識別するためのユーザ識別子や、CCDカメラ202を通じて得られるユーザの顔の画像解析等によりユーザは識別されうる。
Note that the
これにより、ユーザとこのユーザが所有する情報処理端末30とをあらかじめ対応付けておくことで、ユーザに、自己の情報処理端末(携帯電話機やPDA等)30を通じて情報を得させることができる。
Accordingly, by associating the user with the
また、第2処理部12がロボット20との通信によりユーザによる情報処理端末30の指定を認識し、当該指定にしたがって情報処理端末30を指定してもよい。情報処理端末30の指定は、ユーザに付されたRFIDタグからロボット20のリーダが読み取った端末識別子や、マイク204により拾われたユーザの音声解析によって認識されうる。
The
これにより、ユーザが指定した情報処理端末30を通じて、このユーザに対して情報を提供することができる。
Thereby, information can be provided to the user through the
さらに、第3処理部30が、ロボット、ユーザおよび指定情報処理端末30の位置関係を認識し、この位置関係に応じて指定情報処理端末30をユーザに知らせるため、ロボット20の挙動を制御してもよい。たとえば、ユーザの位置を基準としてロボット20および指定情報処理端末30が反対側に位置することを要件として、指定情報処理端末30をユーザに知らせるためロボット20の挙動を制御してもよい。
Further, the
ユーザはその正面をロボット20に向けている蓋然性が高いことから、ユーザの位置を基準としてロボット20および指定情報処理端末30が反対側にある場合、指定情報処理端末30がユーザの背後にある蓋然性が高い。すなわち、この場合、ユーザがどの情報処理端末30から情報を得るべきかについて戸惑うおそれがある。そこで、指定情報処理端末30がどれであるかについてユーザが迷う可能性が高い場合、ロボット20の挙動を制御することにより、指定情報処理端末30の位置を当該ユーザに確実に知らせることができる(図6参照)。
Since the user has a high probability that the front faces the
また、第2処理部12が、第1処理部11により認識されたユーザの要求または検索情報の種類と、ユーザによる情報処理端末30の指定と、ロボット20(またはユーザ)と各情報処理端末30との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末30を指定してもよい。さらに、この場合、ユーザの要求または検索情報の種類、ユーザによる情報処理端末30の指定、ロボット20またはユーザと各情報処理端末30との間隔の順で、当該順位が高く設定されていてもよい。
Further, the
当該構成の情報管理システムによれば、ユーザに対する情報提供サービスの質を向上させる観点から設定された、複数の因子の順位にしたがって当該因子が優先的または偏重的に考慮されて情報処理端末が指定されうる。これにより、当該サービスへの満足をユーザに感じさせることができる。 According to the information management system of the configuration, the information processing terminal designates the factor preferentially or deliberately according to the ranking of a plurality of factors set from the viewpoint of improving the quality of the information providing service for the user. Can be done. Thereby, the user can be satisfied with the service.
さらに、第3処理部13がロボット20の挙動を制御している間に、第2処理部12によって指定情報処理端末30が変更された場合、第3処理部13が第2処理部12による当該変更前の指定情報処理端末30に代えて当該変更後の指定情報処理端末30をユーザに知らせるためにロボット20の挙動を制御してもよい。
Further, when the designated
当該構成の情報管理システムによれば、情報処理端末30が情報出力不可から情報出力可となった等の状況変化に応じて指定情報処理端末30が変更されうる。そして、当該変更後の指定情報処理端末30を迅速にユーザに知らせることができる。たとえば、図11に示されている状況において、情報処理端末30を通じた第1ユーザに対する情報提供が終了し、当該情報処理端末30が情報出力不可から情報出力可となった場合、ロボット20はこの情報処理端末30をただちに第2ユーザに案内することができる(図6参照)。
According to the information management system having the configuration, the designated
10‥情報管理システム、102‥データベース、11‥第1処理部、12‥第2処理部、13‥第3処理部、14‥第4処理部、20‥ロボット、200‥制御システム、30‥情報処理端末。
DESCRIPTION OF
Claims (13)
前記ロボットによって前記マイクを通じて得られた前記ユーザの音声データが音声認識手法にしたがって解析されることにより推定された、当該ユーザの発話内容としての情報に関する要求を当該ロボットとの通信に基づいて認識し、かつ、当該要求に応じた情報をデータベースから検索する第1処理部と、
情報出力機能を有する複数の情報処理端末の中から、新たな情報を出力可能な状態にあるという要件を満たす情報処理端末を指定し、かつ、当該指定情報処理端末との通信により、前記第1処理部による検索情報を当該指定情報処理端末に出力させるとともに、前記ロボットのGPS機能により測定された当該ロボットの位置をネットワーク経由で受信し、かつ、各情報処理端末の位置を前記システムが有する記憶部から読み出し、あるいは、各情報処理端末が有するGPS機能により測定された当該各情報処理端末の位置を受信した上で、前記ロボットの位置および前記各情報処理端末の位置に基づき、前記ロボットと前記各情報処理端末との間隔を決定し、あるいは、前記記憶部に保存されているグローバルマップにおける前記ロボットの移動経路に基づいて前記ロボットと前記各情報処理端末との間隔を決定する第2処理部と、
前記第2処理部により決定された前記ロボットと前記指定情報処理端末との間隔を認識した上で、前記ロボットと前記指定情報処理端末との間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させる第3処理部とを備えていることを特徴とする情報管理システム。 A system for managing information provided to a user using a robot equipped with a microphone ,
Based on the communication with the robot, the request about the information as the utterance content of the user estimated by analyzing the voice data of the user obtained by the robot through the microphone according to a voice recognition method is recognized. And the 1st processing part which searches information according to the demand from a database,
An information processing terminal that satisfies the requirement that new information can be output is designated from among a plurality of information processing terminals having an information output function, and the first information processing terminal is communicated with the designated information processing terminal. The search information from the processing unit is output to the designated information processing terminal, the position of the robot measured by the GPS function of the robot is received via the network, and the position of each information processing terminal is stored in the system Or receiving the position of each information processing terminal measured by the GPS function of each information processing terminal, and based on the position of the robot and the position of each information processing terminal, The robot in the global map that determines the interval with each information processing terminal or is stored in the storage unit A second processing unit for determining the distance between the respective information processing terminal and the robot based on the moving path,
After recognizing the interval between the robot and the designated information processing terminal determined by the second processing unit, the behavior of the robot is controlled so that the interval between the robot and the designated information processing terminal is shortened. And a third processing unit for moving the robot .
前記第2処理部が、前記複数の情報処理端末の中から、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じた情報出力機能を有する情報処理端末を指定することを特徴とする情報管理システム。 The information management system according to claim 1,
The second processing unit, from among the plurality of information processing terminals, information having an information output function according to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit An information management system characterized by designating a processing terminal.
前記第2処理部が、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類に応じたタスクの種類を認識した上で、前記複数の情報処理端末の中から、当該タスクの種類に応じた種類の情報処理端末を指定することを特徴とする情報管理システム。 In the information management system according to claim 2,
The second processing unit, recognizing the type of a task corresponding to the type of the retrieval information corresponding to the request or the request of the user recognized by the first processing unit, of the plurality of information processing terminals information management system in the, characterized in that specifies the type types of the information processing terminal in accordance with of the task.
前記第2処理部が前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識し、当該指定にしたがって情報処理端末を指定することを特徴とする情報管理システム。 The information management system according to claim 1,
Information management system, wherein the second processing unit recognizes the designation of the information processing terminal by the user according to communication with the robot, specifying the information processing terminal in accordance with the specification.
前記第2処理部が、前記複数の情報処理端末のうち、前記ロボットとの前記間隔が短い情報処理端末を優先的に指定することを特徴とする情報管理システム。 The information management system according to claim 1,
The information processing system , wherein the second processing unit preferentially specifies an information processing terminal having a short interval with the robot among the plurality of information processing terminals .
前記第2処理部が、前記ロボットとの通信により前記ユーザによる情報処理端末の指定を認識した上で、前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類と、前記ユーザによる情報処理端末の指定と、前記ロボットと前記各情報処理端末との間隔とを含む複数の因子のうち、順位の高い因子を優先的にまたは偏重的に用いて情報処理端末を指定することを特徴とする情報管理システム。 The information management system according to claim 1,
The second processing unit, according to communication with the robot Recognizing the designation of the information processing terminal by the user, of the said search information corresponding to the request or the request of recognized the user by the first processing unit Among a plurality of factors including a type, designation of an information processing terminal by the user, and an interval between the robot and each information processing terminal, an information processing terminal is preferentially or deliberately used as a factor having a higher rank An information management system characterized by specifying.
前記第1処理部により認識された前記ユーザの要求または当該要求に応じた前記検索情報の種類、前記ユーザによる情報処理端末の指定、前記ロボットと前記各情報処理端末との間隔の順で、前記順位が高く設定されていることを特徴とする情報管理システム。 The information management system according to claim 6 ,
In the order of the user's request recognized by the first processing unit or the type of the search information according to the request, the designation of the information processing terminal by the user, and the interval between the robot and each information processing terminal, An information management system characterized by high ranking.
前記第3処理部が前記ロボットの挙動を制御している間に、前記第2処理部によって前記指定情報処理端末が変更された場合、前記第3処理部が前記第2処理部による当該変更前の指定情報処理端末に代えて当該変更後の指定情報処理端末と前記ロボットとの間隔を認識した上で、当該間隔が短縮されるように前記ロボットの挙動を制御して当該ロボットを移動させることを特徴とする情報管理システム。 The information management system according to claim 1,
While the third processor is controlling the behavior of the robot, the case where the designated information processing terminal is changed by the second processing section, the third processing unit is the pre-change by the second processing unit Recognizing the interval between the changed designated information processing terminal and the robot instead of the designated information processing terminal, and controlling the behavior of the robot to move the robot so that the interval is shortened. An information management system characterized by
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値を超えていることを要件として、前記ロボットと前記指定情報処理端末との間隔が短縮されるように当該ロボットの挙動を制御して前記ロボットを移動させることを特徴とする情報管理システム。 The information management system according to claim 1 ,
Behavior of the third processing unit, wherein the robot so that the distance of the robot and the designated information processing terminal as a requirement that exceeds the threshold value, distance between the designated information processing terminal and the robot is reduced An information management system for controlling the robot to move the robot .
前記第3処理部が、前記ロボットに前記指定情報処理端末を指示させるように当該ロボットの挙動を制御することを特徴とする情報管理システム。 The information management system according to claim 1,
The information processing system, wherein the third processing unit controls the behavior of the robot so that the robot instructs the designated information processing terminal.
前記第3処理部が、前記ロボットと前記指定情報処理端末との間隔が閾値以下であることを要件として当該ロボットに当該指定情報処理端末を指示させるように当該ロボットの挙動を制御することを特徴とする情報管理システム。 The information management system according to claim 10 ,
Wherein the third processing unit controls the behavior of the robot so as to instruct the designated information processing terminal to the robot on condition that the distance between the robot and the designated information processing terminal is below a threshold Information management system.
前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、
前記第1処理部が、前記第4処理部により認識された前記ユーザの挙動区分に基づく必要に応じて当該情報と異なる新たな情報を前記データベースから検索し、
前記第2処理部が、前記第1処理部による新たな検索情報を前記指定情報処理端末に出力させることを特徴とする情報管理システム。 The information management system according to claim 1,
The user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot or the user's utterance content estimated based on acoustic data obtained through the microphone After being received from the robot, it is output from the designated information processing terminal by matching the facial expression or utterance content with a plurality of facial expressions or speech patterns stored in the storage device in association with the behavior category. A fourth processing unit for determining a behavior classification of the user after contacting the information ,
Wherein the first processing unit retrieves the new information different from the information as required according to a fourth behavior classification of recognized the user by the processing unit from said database,
Information management system and the second processing unit, characterized in that for outputting a new search information by the first processing unit to the designated information processing terminal.
前記ロボットにより当該ロボットに搭載されているカメラを通じて得られた撮像データに基づいて推定された前記ユーザの表情、または、前記マイクを通じて得られた音響データに基づいて推定された前記ユーザの発話内容を当該ロボットから受信した上で、当該表情または当該発話内容と、記憶装置に挙動区分と対応付けられて記憶されている表情または音声の複数のパターンとのマッチングにより、前記指定情報処理端末から出力された情報に接した後の当該ユーザの挙動区分を決定する第4処理部をさらに備え、
前記第3処理部が、前記第4処理部により認識された前記ユーザの挙動区分の別に応じて前記ロボットの挙動を相違させることを特徴とする情報管理システム。 The information management system according to claim 1,
The user's facial expression estimated based on imaging data obtained by the robot through a camera mounted on the robot or the user's utterance content estimated based on acoustic data obtained through the microphone After being received from the robot, it is output from the designated information processing terminal by matching the facial expression or utterance content with a plurality of facial expressions or speech patterns stored in the storage device in association with the behavior category. A fourth processing unit for determining a behavior classification of the user after contacting the information ,
Information management system the third processing unit, characterized in that for different behavior of the robot according to different behavior classification of the user recognized by the fourth processing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006069874A JP4896550B2 (en) | 2006-03-14 | 2006-03-14 | Information management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006069874A JP4896550B2 (en) | 2006-03-14 | 2006-03-14 | Information management system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007249427A JP2007249427A (en) | 2007-09-27 |
JP4896550B2 true JP4896550B2 (en) | 2012-03-14 |
Family
ID=38593684
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006069874A Expired - Fee Related JP4896550B2 (en) | 2006-03-14 | 2006-03-14 | Information management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4896550B2 (en) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5115886B2 (en) * | 2008-08-25 | 2013-01-09 | 株式会社国際電気通信基礎技術研究所 | Road guidance robot |
JP5440008B2 (en) * | 2009-07-30 | 2014-03-12 | 富士通株式会社 | Information providing apparatus, information providing program, and information providing method |
JP5391505B2 (en) * | 2010-02-26 | 2014-01-15 | 株式会社国際電気通信基礎技術研究所 | Area dividing device, area dividing program, area dividing method, and communication robot |
JP2013239209A (en) * | 2013-09-04 | 2013-11-28 | Advanced Telecommunication Research Institute International | Communication robot, robot control program, and robot control method |
JP6134895B2 (en) * | 2013-09-27 | 2017-05-31 | 株式会社国際電気通信基礎技術研究所 | Robot control system, robot control program, and explanation robot |
JP6610349B2 (en) * | 2016-03-10 | 2019-11-27 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP6607092B2 (en) * | 2016-03-09 | 2019-11-20 | 大日本印刷株式会社 | Guide robot control system, program, and guide robot |
JP2018005650A (en) * | 2016-07-05 | 2018-01-11 | 富士ゼロックス株式会社 | Service provision device, service provision system, and program |
KR102573021B1 (en) * | 2016-08-30 | 2023-08-31 | 엘지전자 주식회사 | Airport robot, recording medium recording program performing method of providing service thereof, and mobile terminal connecting same |
JP6877199B2 (en) * | 2017-03-15 | 2021-05-26 | 株式会社G−グロボット | Guidance method by robot using aerial video |
JP7045938B2 (en) * | 2018-06-15 | 2022-04-01 | 株式会社日立製作所 | Dialogue system and control method of dialogue system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04264978A (en) * | 1991-02-20 | 1992-09-21 | Hitachi Ltd | Electronic filing device |
JP2802416B2 (en) * | 1994-04-20 | 1998-09-24 | 株式会社テムス | Reception and guidance robot system |
JPH10289006A (en) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | Method for controlling object to be controlled using artificial emotion |
JP2001148758A (en) * | 1999-11-19 | 2001-05-29 | Canon Inc | Image controller, method of output control of image controller, and storage medium |
JP2004001162A (en) * | 2002-03-28 | 2004-01-08 | Fuji Photo Film Co Ltd | Pet robot charging system, receiving arrangement, robot, and robot system |
JP4247041B2 (en) * | 2003-04-01 | 2009-04-02 | 本田技研工業株式会社 | Face identification system |
JP2005088179A (en) * | 2003-09-22 | 2005-04-07 | Honda Motor Co Ltd | Autonomous mobile robot system |
-
2006
- 2006-03-14 JP JP2006069874A patent/JP4896550B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007249427A (en) | 2007-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4896550B2 (en) | Information management system | |
US11688399B2 (en) | Computerized intelligent assistant for conferences | |
KR102389041B1 (en) | Mobile terminal and method using machine learning for controlling mobile terminal | |
EP3258336B1 (en) | Robot control system and a program | |
JP4718987B2 (en) | Interface device and mobile robot equipped with the same | |
EP3213177B1 (en) | User interface functionality for facilitating interaction between users and their environments | |
JP4976903B2 (en) | robot | |
KR102281515B1 (en) | Artificial intelligence apparatus for recognizing speech of user using personalized language model and method for the same | |
US11289074B2 (en) | Artificial intelligence apparatus for performing speech recognition and method thereof | |
KR100953902B1 (en) | Information processing system, information processing method, computer readable medium for storing information processing program, terminal and server | |
KR101295003B1 (en) | Intelligent robot, system for interaction between intelligent robot and user, and method for interaction between intelligent robot and user | |
US20200019779A1 (en) | Robot capable of detecting dangerous situation using artificial intelligence and method of operating the same | |
JP5366048B2 (en) | Information provision system | |
KR20170067503A (en) | Terminal, server and method for suggesting event thereof | |
US11904462B2 (en) | Guide robot control device, guidance system using same, and guide robot control method | |
KR102339085B1 (en) | Artificial intelligence apparatus for recognizing speech of user in consideration of user's application usage log and method for the same | |
JP7142718B2 (en) | GUIDANCE ROBOT CONTROL DEVICE, GUIDANCE SYSTEM USING THE SAME, AND GUIDANCE ROBOT CONTROL METHOD | |
US20210173614A1 (en) | Artificial intelligence device and method for operating the same | |
KR102331672B1 (en) | Artificial intelligence device and method for determining user's location | |
JP2019179390A (en) | Gaze point estimation processing device, gaze point estimation model generation device, gaze point estimation processing system, gaze point estimation processing method, program, and gaze point estimation model | |
US11772274B2 (en) | Guide robot control device, guidance system using same, and guide robot control method | |
US11455529B2 (en) | Artificial intelligence server for controlling a plurality of robots based on guidance urgency | |
JP6886651B2 (en) | Action command generation system, response system and action command generation method | |
JP2017205848A (en) | Service providing system | |
US11738449B2 (en) | Guide robot control device, guidance system using same, and guide robot control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110325 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111220 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111221 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4896550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150106 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |