JP2010110862A - Communication robot system and method and program for controlling communication robot - Google Patents
Communication robot system and method and program for controlling communication robot Download PDFInfo
- Publication number
- JP2010110862A JP2010110862A JP2008285692A JP2008285692A JP2010110862A JP 2010110862 A JP2010110862 A JP 2010110862A JP 2008285692 A JP2008285692 A JP 2008285692A JP 2008285692 A JP2008285692 A JP 2008285692A JP 2010110862 A JP2010110862 A JP 2010110862A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- degree
- person
- forcing
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
Description
本発明は、コミュニケーションロボットシステム、コミュニケーションロボットの制御方法およびプログラムに関する。 The present invention relates to a communication robot system, a communication robot control method, and a program.
近年、ユーザとの間で情報を伝達することを目的とするロボットが出現している。特許文献2には、よりユーザフレンドリーに働きかけるロボットシステムが得られることが記載されている。システムは、映像装置に表示されるソフトウェアエージェントと実体のあるリアルエージェントを有し、各エージェントが連動してそれぞれ対応するジェスチャを行うと同時に、各エージェントが連動してそれぞれ対応するセリフを発音する技術を用いている。
In recent years, robots aiming to transmit information to and from users have appeared.
特許文献3に記載のロボットの衣装によれば、着脱可能な構成とし、ロボットの動作の妨げにならない本体部に保持される構成とし、ロボットの冷却構造の妨げにならない構成とすることで、ロボットが人間に接触した場合の衝撃や人間の温度的な損傷を低減し、ロボット自体の筐体を外的な衝撃から保護し、ロボット自体に親近感を持たせ、娯楽性を発揮することが記載されている。
According to the robot costume described in
特許文献4のコミュニケーションロボットについて、入力される座標データから、自身の位置、人間の位置およびオブジェクトの位置を検出し、人間との距離、ロボットと人間とを結ぶ基線に対するロボットの視線および人間の視線に基づいて指示語決定モデルを決定し、発話することで、自然なコミュニケーションを実現することが記載されている。
With respect to the communication robot of
特許文献5には、個別のユーザに適応して快適なインタラクションを行うコミュニケーションロボットが記載されている。ユーザの位置座標および顔方向情報から、インタラクションパラメータ(ユーザとコミュニケーションロボットとの距離、ユーザがコミュニケーションロボットを注視する時間、コミュニケーションロボットのモーション)を検出し、適切度を最適化するようにインタラクションパラメータを更新する技術である。
特許文献6には、印象に残るような説明を行うようにするロボットを目的としており、ロボット制御システムは、ロボットの近傍にいる視聴者の数を把握する視聴者状況把握部と、ロボットが説明を行う際にロボットが視聴者に対して行う動作パターンを複数記憶する動作パターン記憶部と、視聴者状況把握部が把握した視聴者の数に基づき、動作パターン記憶部から、いずれかの動作パターンを選択する動作パターン選択部と、動作パターン選択部が選択した動作パターンに基づき、ロボットの動作を決定し、視線モーションを生成する視線モーション生成部と、を含むことが記載されている。 Patent Document 6 is intended for a robot that makes an explanation that makes an impression, and the robot control system includes a viewer status grasping unit that grasps the number of viewers in the vicinity of the robot, and the robot. Based on the number of viewers recognized by the viewer status grasping unit and the motion pattern storage unit that stores a plurality of motion patterns that the robot performs for the viewer when performing And a gaze motion generation unit that determines a motion of the robot and generates a gaze motion based on the motion pattern selected by the motion pattern selection unit.
特許文献7には、言葉によらないノンバーバルコミュニケーションのインタラクション自体をスムーズに行うことを実現可能とするロボット装置が記載されている。行動記述モジュールを自己の内部状態及び外部刺激に応じて選択して選択された行動記述モジュールに記述されたコマンドを出力する行動制御部からのコマンドに対して、関係性、関係性データ及び態度データと、自己の内部状態及び外部刺激とに応じて、動作又は姿勢を含む出力形態の一部又は全部を変更する。
特許文献8には、時間が経過しても飽きが来ないエージェント装置が記載されている。プログラム記憶部に、目的地の場所、季節等の状況別に、内容が種々異なるユーザ性格判別用の質問と、エージェントの性格別の容姿・仕草を画像表示するためのアニメーション画像データを用意しておき、表示装置とスピーカを用いて画像と音声により現出させたエージェントにより状況に応じた違和感の無いユーザ性格判別用の質問をさせ、マイク入力されたユーザの回答結果からユーザの性格を判別し、ユーザの性格に合わせてエージェントの性格を可変させる技術を用いる。
なお、生産現場に用いられるロボットには、作業を行う高さを変化させるものがある。特許文献1には、電気機器の鉄心組み立て方法について、接合部を撮像し、その撮像画面の一定範囲内にあるか否かを画像処理装置により判定し、一定範囲内に保持するように作業を行うロボットの高さを制御することで、手作業を要せずに、信頼性のある組立を実行可能としている。
Some robots used in production sites change the height at which work is performed. In
また、特許文献9のロボットは、各種センサを含み、温度、湿度、床の汚れ、空気の汚れなどの環境状況を検出し、環境状況を検出した結果が設定した条件(設定温度、設定湿度、汚れ設定値、臭い設定値など)と異なるとき、環境状況を調整するための電気機器を制御し、人間の手を煩わすことなく、人間にとって快適な環境を実現することが記載されている。
The robot of
非特許文献1では、人間に対してロボットの感情を表出する感情表現技術における、人工の目、眉、口などの表情によって感情を表現する顔ロボットが紹介されており、ロボットの表情を変化させることで、被験者に対して複数の印象を可変に与えることができるとしている。顔ロボットは、眉を下げる、えくぼを作る、瞬きするといった24の表情の変化によって、驚き、恐怖、嫌悪、怒り、幸福、悲しみの6感情を表現することができる。
Non-Patent
近年、コミュニケーションロボットのユーザへのインタラクション行動の効果を向上するために、コミュニケーションロボットがユーザへ与える印象を利用する研究が注目されている。この研究では、ユーザとコミュニケーションロボットとの距離、ユーザがコミュニケーションロボットを注視する時間、コミュニケーションロボットのモーション、コミュニケーションロボットの近傍にいるユーザの数、コミュニケーションロボットの衣装、複数のコミュニケーションロボットの連動、コミュニケーションロボットの表情などを用いてコミュニケーションロボットがユーザへ与える印象を操作している。 In recent years, in order to improve the effect of the interaction behavior to the user of the communication robot, research using the impression that the communication robot gives to the user has attracted attention. In this research, the distance between the user and the communication robot, the time when the user watches the communication robot, the motion of the communication robot, the number of users in the vicinity of the communication robot, the costume of the communication robot, the linkage of multiple communication robots, the communication robot The impression that the communication robot gives to the user is manipulated using the facial expression.
前述の関連する技術では、ロボットからユーザまでの距離を測定し、最適な距離でのコミュニケーションを行うことや、環境(音や周りの人数)を把握して対応する方法が記載されている。しかしながら、ユーザの動きに対して、その強制度合いを変化させることについては記載されていない。また、ロボットを用いる条件(対象の事柄や、対象の人の年齢など)が限定されており、汎用性に欠ける部分もあった。 In the related technology described above, a method is described in which the distance from the robot to the user is measured, communication is performed at an optimal distance, and the environment (sound and the number of people around the user) is grasped and handled. However, there is no description about changing the degree of enforcement with respect to the user's movement. In addition, the conditions for using the robot (the subject matter, the age of the subject person, etc.) are limited, and there is a lack of versatility.
参考文献1(本明 寛,話し上手 心をつかむ話し方,日本生産性本部,1981)において、本明らは、見上げる相手を強く感じ、見下げる相手を弱く感じる、などのコミュニケーションの性質を用いて印象を操作できることを述べている。相手に与える印象を操作して、話者がある目的をどの程度対話相手に対して強制したいか(以下強制度合と呼ぶ)を対話相手に伝えることで、依頼、説得、命令といった目的をもった対面コミュニケーションの円滑化を実現できると主張している。 In Reference Document 1 (Hiraki Motoaki, Skillful Speaking, Japan Productivity Headquarters, 1981), Motoaki et al. Used communication characteristics such as feeling the person who looks up strongly and feeling the person looking down weakly. It states that the impression can be manipulated. By manipulating the impression given to the other party and telling the other party how much he / she wants to constrain the purpose of the speaker (hereinafter referred to as the degree of compulsory), the purpose of the request, persuasion, and instruction was achieved. Insist on facilitating face-to-face communication.
参考文献2(森村祐子,遠田敦,渡辺仁史,生活空間における人間とロボットの対話距離に関する研究,日本建築学会,大会学術講演梗概集,2007)では、ロボットへの話し掛け距離には、ロボットの外見と状況、場面が影響し、対話距離においては、空間特性が優先的に影響したことが記載されている。 In Reference 2 (Yuko Morimura, Atsushi Toda, Hitoshi Watanabe, Research on Human-Robot Dialogue Distance in Living Space, Architectural Institute of Japan, Summaries of Technical Papers of Annual Conferences, 2007) It is described that the spatial characteristics preferentially influenced the dialogue distance.
例えば、コミュニケーションロボットとユーザとの対面コミュニケーションを円滑に進めるためには、コミュニケーションロボットがユーザへ与える上下関係の印象を操作する必要がある。ユーザよりも大きなコミュニケーションロボットを利用した場合、コミュニケーションロボットは高い角度からユーザを見下ろすため、親や上司のような強い立場の印象を与えることはできても、子供やペットといった弱い立場の印象を与えることが難しく、ユーザへ与える上下関係の印象に制限がある。そのため、コミュニケーションロボットを予めタスク別にデザインしなければならないという課題があった。 For example, in order to facilitate the face-to-face communication between the communication robot and the user, it is necessary to manipulate the impression of the vertical relationship that the communication robot gives to the user. When using a communication robot that is larger than the user, the communication robot looks down at the user from a high angle, so it can give a strong position like a parent or boss but gives a weak position like a child or a pet. This is difficult, and there is a limit to the impression of the hierarchical relationship given to the user. Therefore, there has been a problem that the communication robot has to be designed in advance for each task.
本発明は上述の事情に鑑みてなされたもので、人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行することのできるコミュニケーションロボットシステム、コミュニケーションロボット制御方法およびプログラムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and a communication robot system and a communication robot control method capable of executing different operations in accordance with the condition of the degree of forcing when performing an operation of transmitting information to a person And to provide a program.
本発明の第1の観点に係るコミュニケーションロボットシステムは、
人に情報を伝達する動作をロボットに実行させるプログラムであって、前記人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行する変化部分を有するプログラムを格納する記憶手段と、
人の行動を表す情報を取得する行動認識手段と、
前記行動認識手段で取得した人の行動を表す情報に基づいて、前記プログラムを実行するときの強制度合いの条件を決定する強制度合決定手段と、
前記強制度合いの条件に対応して前記異なる動作を実行する変化部分を選択して前記プログラムを実行するロボットと、
を備えることを特徴とする。
A communication robot system according to a first aspect of the present invention includes:
A program for causing a robot to execute an operation for transmitting information to a person, and storing a program having a change portion that executes a different operation in response to a condition of a degree of forcing when the operation for transmitting information to the person is executed. Storage means for
Action recognition means for acquiring information representing human behavior,
Based on information representing the behavior of the person acquired by the action recognition means, a forcing degree determination means for determining a condition of a forcing degree when executing the program;
A robot that executes the program by selecting a change portion that performs the different operations in response to the condition of the forcing degree;
It is characterized by providing.
本発明の第2の観点に係るコミュニケーションロボット制御方法は、
人の行動を表す情報を取得する行動認識ステップと、
前記人の行動を表す情報に基づいて、前記人に情報を伝達するプログラムを実行するときの強制度合いの条件を決定する強制度合決定ステップと、
人に情報を伝達する動作をロボットに実行させるプログラムであって、前記人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行する変化部分を有する前記プログラムを、前記強制度合決定ステップで決定した強制度合いの条件に対応して前記異なる変化部分を選択して、前記ロボットに実行させる情報伝達ステップと、
を備えることを特徴とする。
A communication robot control method according to a second aspect of the present invention includes:
An action recognition step for obtaining information representing a person's action;
On the basis of information representing the behavior of the person, a forcing degree determining step for determining a condition of a forcing degree when executing a program for transmitting information to the person;
A program for causing a robot to perform an operation for transmitting information to a person, the program having a change portion for performing a different operation in response to a condition of a degree of forcing when performing an operation for transmitting information to the person An information transmission step for causing the robot to select the different change portion corresponding to the condition of the forcing degree determined in the forcing degree determination step;
It is characterized by providing.
本発明の第3の観点に係るコミュニケーションロボットプログラムは、
コンピュータに、
人の行動を表す情報を取得する行動認識ステップと、
前記人の行動を表す情報に基づいて、前記人に情報を伝達するプログラムを実行するときの強制度合いの条件を決定する強制度合決定ステップと、
人に情報を伝達する動作をロボットに実行させるプログラムであって、前記人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行する変化部分を有する前記プログラムを、前記強制度合決定ステップで決定した強制度合いの条件に対応して前記異なる変化部分を選択して、前記ロボットに実行させる情報伝達ステップと、を実行させることを特徴とする。
A communication robot program according to a third aspect of the present invention is:
On the computer,
An action recognition step for obtaining information representing a person's action;
On the basis of information representing the behavior of the person, a forcing degree determining step for determining a condition of a forcing degree when executing a program for transmitting information to the person;
A program for causing a robot to perform an operation for transmitting information to a person, the program having a change portion for performing a different operation in response to a condition of a degree of forcing when performing an operation for transmitting information to the person The information transmission step is executed by selecting the different changed portion corresponding to the condition of the forcing degree determined in the forcing degree determining step and causing the robot to execute the information.
本発明のコミュニケーションロボットシステムによれば、人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行することができる。 According to the communication robot system of the present invention, it is possible to execute different operations corresponding to the condition of the degree of forcing when executing the operation of transmitting information to a person.
本発明でタスクとは、ロボットに実行させる動作であって、対象のユーザに情報を伝達する動作のことをいう。ユーザの行動を認識し対応するタスクをロボットが実行することで、ユーザがロボットにインタラクションをもつようになる。タスク内容とは、そのタスクを実行するロボットの具体的な動作をいう。例えば、タスクは、おじぎをすることであり、タスク内容は、30度の傾きで3秒停止するおじぎをすることのように、タスクを実施する具体的なやり方を含む。 In the present invention, a task is an operation to be performed by a robot and an operation for transmitting information to a target user. When the robot recognizes the user's action and executes the corresponding task, the user interacts with the robot. The task content refers to a specific operation of the robot that executes the task. For example, the task is to bow, and the task content includes a specific way to perform the task, such as bowing for 3 seconds with a 30 degree tilt.
強制度合いとは、コミュニケーションの性質を用いて印象を操作することで、話者がある目的をどの程度対話相手に対して強制したいかを示す度合いのことで、強制したい内容には、依頼、説得、命令、警告といった目的で、対面コミュニケーションを円滑化する内容を含む。コミュニケーションにより感じる印象の1つに上下関係がある。上下関係とは、人と人の対面コミュニケーションにおける力関係のことで、例えば、相手を見上げることで強い人や優れた人に感じたり、相手に見下げられることで取るに足らない人のように感じられる。ここでは、人と人のコミュニケーションの他に、人とロボット部のコミュニケーションも含む。他に、コミュニケーションをとる相手との距離により感じる感覚の差もある。パーソナル・スペースと呼ばれ、社交的な関係は120cm〜360cmの空間があれば、また親密な関係であれば45cm以内であっても、不快感を感じないとされる。 The degree of forcing is the degree to which the speaker wants to enforce a certain purpose for the conversation partner by manipulating the impression using the nature of communication. Including content that facilitates face-to-face communication for purposes such as instructions and warnings. One of the impressions felt by communication is the vertical relationship. A vertical relationship is a power relationship in face-to-face communication between people. For example, it looks like a strong person or an excellent person by looking up at the other party, or a person who feels insignificant by looking down at the other party. It is done. Here, in addition to communication between people, communication between people and the robot part is also included. In addition, there is a difference in feelings depending on the distance with the person with whom you communicate. It is called a personal space, and the social relationship is that if there is a space of 120 cm to 360 cm, and if it is an intimate relationship, even if it is within 45 cm, it will not feel uncomfortable.
以下、この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付す。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the drawings, the same or corresponding parts are denoted by the same reference numerals.
(実施の形態)
図1は、本発明の実施の形態に係るロボットのコミュニケーションロボットシステム全体の構成例を示すブロック図である。コミュニケーションロボットシステム1は、基本条件DB(database)2、制御装置12、入力部7およびロボット部8から構成される。制御装置12は、タスク決定部3と、強制度合決定部4と、行動認識部5と、実行部6とを備える。コミュニケーションロボットシステム1は、これらタスク決定部3、強制度合決定部4、行動認識部5および実行部6が自立的に行動可能に動作するよう、制御部21(図12参照)で動作するプログラム30で実現される。
(Embodiment)
FIG. 1 is a block diagram showing a configuration example of the entire communication robot system of the robot according to the embodiment of the present invention. The
基本条件DB2は、ユーザの行動に対応するロボットのタスクおよびタスク内容などのプログラムを含むファイルを保存する。
The
タスク決定部3は、ユーザの行動と、基本条件DB2のファイルを照合し、タスクを抽出する。また、タスク決定部3に備えられた強制度合決定部4で、タスク内容を決定する。強制度合決定部4は、基本条件DB2から抽出したタスクをもとに、ユーザに対応した強制度合いを決定する。例えば強制度合いのレベルが5段階に分けられており、レベルにより、依頼や命令、指示などの行動パターンがある。ユーザの行動からレベルを選択し、そのレベルに対応したタスクを行うときの行動パターンが予め設定されており、タスク内容が決定する。
The
行動認識部5は、ユーザの行動を認識する。キーボードやタッチパネル、または音声マイクなどの入力部7に、ユーザもしくは第3者が情報を入力する。行動認識部5は、その入力された情報を受け、基本条件DB2に情報があるか照合を行う。基本条件DB2に記載されている情報であれば、ユーザの行動を認識できる。
The
実行部6は、タスク決定部3で決定したタスクを実行するための指示を、ロボット部8へ送信する。具体的には、実行部6の指示により、ロボット部8は手足を動かしたり、顔の表情を変化させたり、を行う。また、ロボット部8の背が高低するなどの外観形状を変化させることや、これらの動きを単独もしくは組み合わせて実行させることもある。
The execution unit 6 transmits an instruction for executing the task determined by the
以下に、図1の構成図および図2と図3のフローチャート、図4と図5のロボットの実行に関する図を参照して、本実施の形態の全体の動作について説明する。図2は、本発明の実施の形態に係るロボットの行動抽出を示すフローチャートである。図3は、本発明の実施の形態に係るロボットのタスク実行を示すフローチャートである。 The overall operation of the present embodiment will be described below with reference to the configuration diagram of FIG. 1, the flowcharts of FIGS. 2 and 3, and the diagrams relating to the execution of the robot of FIGS. FIG. 2 is a flowchart showing behavior extraction of the robot according to the embodiment of the present invention. FIG. 3 is a flowchart showing task execution of the robot according to the embodiment of the present invention.
コミュニケーションロボットシステム1は、ユーザの行動を抽出し、ユーザの行動に対応して、ユーザの行動を支援するタスクを行う。まず、図2を参照して、ユーザの行動抽出を行う。
The
ユーザもしくは第3者が、キーボードなどの入力部7を用いて、ユーザの行動を入力する。行動認識部5は、入力された情報を受け、ユーザの行動を検知する(ステップS11)。行動認識部5は検知した情報を基本条件DB2に入力し、基本条件DB2内の、記憶されているユーザの行動と照合を行う(ステップS12)。予めユーザの行動を記憶している基本条件DB2に、入力されたユーザの行動があれば(ステップS13;YES)、行動認識部5はユーザ行動の決定をする(ステップS14)。そして、新たに、ユーザなどによりユーザの行動が入力された場合、ステップS11に戻る。
A user or a third party inputs the user's behavior using the
ステップS12で、ユーザの行動と、基本条件DB2の情報を照合した際に、ユーザの行動がない場合(ステップS13;NO)は、行動認識部5はユーザ行動の決定をせず、ステップS11に戻る。このとき、ユーザの行動が基本条件DB2にないことを知らせる機能をプログラムしておいてもよい。
In step S12, when the user's behavior is collated with the information in the basic condition DB2, if there is no user's behavior (step S13; NO), the
次に、図3を参照して、コミュニケーションロボットシステム1のタスク実行を行う。まず、行動認識部5は、ユーザの行動抽出を行う(ステップS21)。行動認識部5は決定したユーザ行動を基本条件DB2へ入力し、ユーザ行動に対応するタスクの抽出を行う(ステップS22)。強制度合決定部4は、ユーザの行動からレベルを選択し、強制度合いを決定する(ステップS23)。レベルに合わせたタスク内容が抽出され、タスク決定部3はタスク内容を決定する(ステップS24)。実行部6はロボット部8に決定したタスク内容を出力し、ロボット部8は決定したタスク内容の動作を実行する(ステップS25)。
Next, referring to FIG. 3, the task of the
次に抽出する行動があれば(ステップS26;YES)、ステップS21に戻り、再度、タスク内容の決定を行い、決定したタスクを実行する。また、次に抽出する行動がなければ(ステップS26;NO)、タスク実行動作は終了となる。 If there is an action to be extracted next (step S26; YES), the process returns to step S21, the task content is determined again, and the determined task is executed. If there is no action to be extracted next (step S26; NO), the task execution operation ends.
図4と図5を用いて、強制度合いを決定する場合の一例について、ユーザが子供であり、その母親がユーザ(子供)の行動の入力を行う場合を例に挙げて説明する。図4は、本発明の実施の形態に係るロボットの強制度合い決定を示す図の一例で、強制度合いとロボットの実行の関係を示す。図5は、本発明の実施の形態に係るロボットの動きの一例で、ロボットの実行において、顔の表情が異なる場合を示す。図5(a)は笑顔、図5(b)は普通の顔、図5(c)は怒り顔を示す。実行部6の指示により、まゆの位置と口の向きを変化させ、表情を作る。 With reference to FIGS. 4 and 5, an example in which the degree of enforcement is determined will be described by taking as an example the case where the user is a child and the mother inputs the action of the user (child). FIG. 4 is an example of a diagram illustrating determination of the enforcement degree of the robot according to the embodiment of the present invention, and shows the relationship between the enforcement degree and the execution of the robot. FIG. 5 is an example of the movement of the robot according to the embodiment of the present invention, and shows a case where facial expressions differ in the execution of the robot. 5A shows a smile, FIG. 5B shows a normal face, and FIG. 5C shows an angry face. In response to an instruction from the execution unit 6, the position of the eyebrows and the direction of the mouth are changed to create a facial expression.
タスクの強制度合いを決定する際に、母親がユーザ(子供)の行動を、入力部7で入力する。そのときに、ロボット部8の実行に関する情報も併せて入力しておく。上下関係とは、ここではユーザからロボットへ対する感情についてであり、ユーザがロボットを先生のように感じている場合は上、友達のように感じている場合は中、ペットのように感じている場合は下と、3段階のレベルで入力しておく。ユーザは帰宅して宿題をする必要がある場合に、母親が、ユーザが宿題をすることと、上下関係の選択を中であること、宿題をして欲しいこと(依頼)を入力部7で入力する。
When determining the task compulsion degree, the mother inputs the behavior of the user (child) through the
タスク決定部3は、タスクが宿題をさせることであることを、行動認識部5から出力された情報より認識する。強制度合決定部4は、行動認識部5から出力された情報より、強制度合いについて、上下関係は中の依頼という選択肢を選択し、実行部6へ情報を出力する。図4の表より、ロボット部8はタスクを笑顔で実行することが決定する。図5(a)の笑顔となるように、実行部6はロボット部8へ、まゆの位置と口の角度の変化を指示し、ロボット部8は笑顔となる。それからユーザに対して、宿題することを伝える。もし母親が宿題するように命令することを入力した場合は、ロボット部8は怒り顔でタスクを実行する。
The
タスク内容に、音声出力の項目がある場合は、依頼では声の大きさを普通で口調をゆっくりとする、命令では声の大きさを大きめで口調を早めにする、などの設定に合わせてタスクを実行する。また、タスク内容に、手の動きの項目がある場合は、依頼では手の位置を下にする、命令では手の位置を上にする、などの設定に合わせてタスクを実行する。顔の表情や音声の大きさ、手の位置などにより、ロボット部8がユーザへ与える印象を操作することが可能である。これらタスク内容は、予め基本条件DB2に入力しておいたものであり、動きを単独、もしくは組み合わせて用いることで、ユーザへ与える印象を操作できる。
If there is an audio output item in the task contents, the task will be set according to the settings such as normal voice volume at request and slow tone, and high voice level and voice tone at command. Execute. In addition, when the task content includes an item of hand movement, the task is executed in accordance with the settings such as lowering the position of the hand in the request and raising the position of the hand in the command. The impression that the
以上説明したように、実施の形態では、ユーザおよびユーザの行動に対応するタスクを実行するコミュニケーションロボットシステムを実現できる。ユーザの行動に対応し、かつ、ロボットに対するユーザの印象(上下関係など)を利用することで、ユーザに適した強制度合いのタスクを実行することが可能となる。 As described above, in the embodiment, a communication robot system that executes a user and a task corresponding to the user's action can be realized. By responding to the user's behavior and using the user's impression (such as the vertical relationship) of the robot, it is possible to execute a task with a compulsory degree suitable for the user.
(実施の形態の変形例1)
図6は、実施の形態の変形例1に係るロボットのコミュニケーションロボットシステム全体の構成例を示すブロック図である。人とロボット間の距離や人からロボットへの視線角度を測定し、強制度合いの判定に用いる部分を備える。図7は、実施の形態の変形例1に係るロボットと人との関係を示す一例であり、図7(a)は視線角度を示し、図7(b)は距離を示す。
(
FIG. 6 is a block diagram illustrating a configuration example of the entire communication robot system of the robot according to the first modification of the embodiment. A distance between the person and the robot and a line-of-sight angle from the person to the robot are measured, and a portion used for determining the degree of forcing is provided. FIG. 7 is an example showing a relationship between a robot and a person according to the first modification of the embodiment. FIG. 7A shows a line-of-sight angle and FIG. 7B shows a distance.
コミュニケーションロボットシステム1は、図1に示す実施の形態のコミュニケーションロボットシステム1と基本的な構造は同じであるが、さらに、計測部9と検知部10とを備える。
The
計測部9は、人とロボットの距離や視線角度を測定する。センサやカメラなどの検知部10で、人とロボットの距離や、位置関係を検知し、検知した情報をもとに、計測部9で、距離や視線角度を算出する。より具体的には、ビデオカメラや加速度センサなどの検知部10で瞳孔や顔の向きを検出し、計測部9でユーザのロボット部8への視線角度を算出する。ビデオカメラや音波センサなどの検知部10で対象物体の距離計測やビデオカメラを用いた対象物体の3次元位置計測をし、計測部9でユーザとロボット部8との対人距離を算出する。検知部10を備える場所は、ロボット部8側に限らずに、ユーザが何らかの形(例えば携帯電話などのような小型機器)で携帯してもよい。
The measuring
人とロボットの距離は、パーソナル・スペースと呼ばれるコミュニケーションをとる相手との物理的な距離に関係する。通常は人と人との距離に用いられるものであり、対象がロボットの場合は、人に対する場合よりも不快感を感じることは少ない。ここでは、距離が近い場合は親密な関係を感じ、遠くなるにつれ、社会的(社交的や公式的)な関係を感じることを利用して、強制度合いを変化させる項目の1つに用いる。 The distance between a person and a robot is related to the physical distance with the other party that communicates, called personal space. Usually, it is used for the distance between people, and when the target is a robot, it is less likely to feel discomfort than for a person. Here, it is used as one of the items for changing the degree of forcing by using the fact that a close relationship is felt when the distance is short and a social (social or official) relationship is felt as the distance is increased.
例えば、ユーザに対してタスクを実行する際に、ロボット部8が実行するタスクが依頼形式であれば、ユーザが親密な感じを受けやすい45cm程の距離で、タスクを実行する。
また、ロボット部8が実行するタスクが命令形式であれば、同じ45cm程の距離だとユーザに威圧感を与える恐れがあるため、70cm程の距離でタスクを実行する。タスクを実行する際に、顔の表情だけでなく、ユーザとロボット部8との距離をタスク内容に盛り込むことで、ユーザに与える印象を操作する効果がある。
For example, when executing a task for a user, if the task executed by the
In addition, if the task executed by the
人からロボットへの視線角度は、コミュニケーションをとる相手との上下関係と関係がある。見上げる行為には相手を上位として捉え、見下げる行為には相手を下位として捉えることが多い。ロボット部8の形状を、背を高低させて変化させることで、ユーザがロボットに対して感じる感覚(上下関係)を変化させ、コミュニケーションに役に立てるのに用いる。
The line-of-sight angle from a person to a robot is related to the vertical relationship with the partner with whom communication is performed. In the act of looking up, the partner is often regarded as a higher rank, and in the act of looking down, the partner is often regarded as a lower rank. By changing the shape of the
図8は、実施の形態の変形例1に係るロボットの強制度合い決定を示す図の一例で、視線角度と上下関係をパラメータに用いる。θは視線角度を示し、Nは角度の閾値を示す。水平を見たときの角度を0度とし、見上げる方向を正、見下げる方向を負とおき、その角度をθとする。 FIG. 8 is an example of a diagram illustrating determination of the forcing degree of the robot according to the first modification of the embodiment, and uses the line-of-sight angle and the vertical relationship as parameters. θ represents the line-of-sight angle, and N represents the angle threshold. The angle when looking horizontally is 0 degree, the direction looking up is positive, the direction looking down is negative, and the angle is θ.
上下関係は、ユーザがロボットを親、大人、子供として捉えることを指し、視線の角度により、相手を上、同等および下のいずれかに感じることを利用している。設定する上下関係を維持させるために、検知部10で検知し、計測部9にて算出した視線角度を元に、強制度合決定部4で判定が行われる。実行部6は、上下関係にふさわしい視線角度となる背の高さになるようロボットの高さを変化する。
The vertical relationship indicates that the user perceives the robot as a parent, an adult, or a child, and utilizes the fact that the user feels the other side up, equivalent, or down depending on the angle of the line of sight. In order to maintain the set vertical relationship, determination is performed by the forcing
図9は、ロボットの高さが異なる場合の一例であり、図9(a)はユーザの0.5倍、図9(b)はユーザの0.8倍、図9(c)はユーザの1.0倍の大きさを示す。ユーザに対してロボットの高さを、ユーザの0.5倍とした場合は子供、0.8倍とした場合は大人、1.0倍とした場合は親であるとプログラムしておき、適したサイズにロボットの高さを変化させる。 FIG. 9 shows an example of different robot heights. FIG. 9A is 0.5 times the user, FIG. 9B is 0.8 times the user, and FIG. 9C is the user. The size is 1.0 times. If the robot height is 0.5 times that of the user, it is programmed to be a child, if it is 0.8 times an adult, and if it is 1.0 times a parent, it is programmed to be suitable. Change the height of the robot to a different size.
ロボット部8の胴体部の作りは、入れ子になった筒状の外形をしており、内部に備えられたロボット部8の高さを変える機構により胴体部の長さを変化させる。ロボット部8の頭部はロボット部8の胴体部の上に備えられており、ロボット部8は胴体部が伸縮し、プログラムされた所定の高さに変化させることができる。ロボット部8の高さを変える機構としては、例えば、空気圧を用いるシリンダや、回転するねじとナットの嵌合によるねじ送り機構などが挙げられる。その他、ラック・アンド・ピニオンやパンタグラフなどの伸縮機構を採用することができる。また、ロボット部8の高さを変える部分も胴体部に限らずにさまざまな部位が挙げられる。
The body part of the
実行部6で高さを高低させた場合、再度、検知部10で検知し、計測部9で算出し、好ましい角度(閾値内)となるか、強制度合決定部4で判定することが望ましい。
When the height is increased or decreased by the execution unit 6, it is desirable to detect again by the
なお、視線角度や距離を計測するための検知部10は、ロボット部8に備えられていてもよく、コミュニケーションロボットシステム1とは離れた場所に設置し、無線通信などでデータを取得できるようにしてもよい。
Note that the
以上説明したように、実施の形態の変形例1では、ユーザのロボット部8へ対する印象を変え、ロボット部8の実行するタスクが、よりユーザに適したものとなる。ユーザがロボット部8に対して感じる印象は、人それぞれに異なるものであるが、上下関係や距離間を変化させることで、意図する印象を与えることは可能である。再度、入力部7を用いるなどして強制度合決定部4による強制度合いの変化の指示を行わない場合であっても、距離またはおよび視線角度を測定することで、ロボット部8は、ユーザに適したタスクを実行することができる。
As described above, in the first modification of the embodiment, the user's impression of the
(実施の形態の変形例2)
図10は、実施の形態の変形例2に係るロボットの一例で、ロボットは仮想物体形状である場合(すなわち表示装置に表示される場合)を示す。仮想物体形状は表示されたクマの絵で、図10(a)は依頼や指示のときに使用される画面、図10(b)は命令や警告のときに使用される画面の一例である。
(
FIG. 10 is an example of a robot according to
ロボット部8は、擬人化された人形のように、物理的に存在するものに限らず、図10に示すような、仮想物体形状であってもよい。表示装置に仮想物体を表示するだけでなく、タスク内容を文字で表示したり、音声で出力したりなど、表示の方法は様々である。また、入力部7は、表示装置付近にカメラなどの検知部10を備え、ユーザの注視方向を確認してもよい。
The
以上説明したように、実施の形態の変形例2では、表示装置を用いて、ロボット部8はタスクを実行する。表示装置による仮想物体形状の場合、パソコンのディスプレイなどに表示することができ、実体があって作動する機械構造を用意する必要がなく、コミュニケーションロボットシステム1を容易に利用できる。ロボット部8が作動する機械構造を備えない場合、そのものの形状を変化させることはできないが、仮想物体形状としてのロボット部8の動作の種類を多くしたり、画面表示上の大きさを自由に変えたりできる。また、ユーザの好みのキャラクターをモチーフにするなどして、ユーザに適したタスクを実行することができる。
As described above, in the second modification of the embodiment, the
ロボット部8の動作は、実施の形態の変形例1、2に示す方法だけでなく、様々な方法がある。ロボット部8が実在する形状のものと表示装置(仮想物体形状)の両方であってもよく、実在する形状のもので手足の動作をし、表示装置で言葉を表示するなどして、併せてロボット部8としてもよい。また、ロボット部8の変形は、背の高低だけでなく、太さや丸みなどの形状を変化させてもよい。丸みのある形状は優しい印象を与えたり、太さは威圧感を与えたりなど、ユーザのロボット部8への印象を変化させることができる。
The operation of the
(実施の形態の変形例3)
図11は、実施の形態の変形例3に係るロボットのコミュニケーションロボットシステム全体の構成例を示すブロック図である。基本条件DB2に、ユーザの性格を示す性格条件DB11を備える。
(
FIG. 11 is a block diagram illustrating a configuration example of the entire communication robot system of the robot according to the third modification of the embodiment. The
性格条件DB11は、交流分析における人格に関する理論などを用いて推定されたユーザの性格に関する情報を格納している。ユーザの性格に関する情報とは、あるユーザが属する人格タイプとある人格タイプに適したタスクの強制度合の程度である。
The
タスク決定部3は、行動認識部5で認識した行動に合わせたタスクを基本条件DB2から抽出し、同時に、ユーザの性格条件を性格条件DB11から抽出する。タスク決定部3は、強制度合決定部4でタスクの強制度合いを選択する際に、性格条件DB11のユーザの性格に関する情報を照合し、適したタスク内容を決定する。ユーザの性格に合わせて、依頼・命令・指示などの情報伝達の仕方や、上下関係を変化させることで、ユーザに適した強制度合いを選択することができ、タスク決定部3はユーザの個性に合わせたタスク内容を決定することが可能となる。
The
実施の形態の変形例3を用いた例として、ユーザの行動がダイエットのときに、基本条件DB2から抽出されるタスクはユーザの間食を防止することであり、コミュニケーションロボットシステム1がタスクを実行する様子を説明する。
As an example using the third modification of the embodiment, when the user's action is a diet, the task extracted from the
予め、性格条件DB11に、交流分析における人格に関する理論などを用いて推定されたユーザの性格に関する情報を格納している。この理論を用いて、人間の心の構造を批判的な親心、養育的親心、合理的な大人の心、無邪気な子供の心、順応した子供の心の5つに大別し、人格に関するアンケートを用いて5つの心の中のどれが優位であるか傾向を見ることで、人間の性格を推定できる。
The
例えば、あるユーザの人格に関するアンケートの結果、批判的な親心と順応した子供の心がその他3つの心の構造に比べ優位であれば、そのユーザの性格は理屈タイプであると推定され、説得のためには理屈を重視すべきであると考えられている。また、他のユーザの人格に関するアンケートの結果、順応した子供の心がその他4つの心の構造に比べ優位であれば、そのユーザの性格は自己卑下タイプであると推定され、説得のためには命令を重視すべきであると考えられている。 For example, as a result of a questionnaire on a user's personality, if a critical parenthood and an adapted child's mind are superior to the other three mind structures, the user's personality is presumed to be a logical type, For this reason, it is thought that reason should be emphasized. Also, if the result of a questionnaire on the personality of other users shows that the adapted child's mind is superior to the other four mind structures, the user's personality is presumed to be self-defeated. It is believed that orders should be emphasized.
ユーザの性格に関する情報とは、上記のアンケートの結果を予め入力したユーザが属する人格タイプと交流分析の理論に基づいた人格タイプに適したタスクの強制度合の程度である。強制度合決定部4は、性格条件DB11を参照し、ユーザの性格に応じて、ユーザが間食を取ろうした際に間食を食べないように説得するタスクに適したタスクの強制度合を決定し、タスク決定部3へ強制度合いを出力する。ユーザの性格が理屈タイプであれば説得が有効であり、ユーザの性格が自己卑下タイプであれば命令が有効である。
The information related to the personality of the user is the degree of task compulsory degree suitable for the personality type to which the user who has previously inputted the result of the above questionnaire belongs and the personality type based on the theory of exchange analysis. The compulsory
以上説明したように、実施の形態の変形例3では、それぞれのユーザに対応したタスクを実行するコミュニケーションロボットシステム1を提供できる。同じ行動を認識した場合であっても、その行動を行うユーザに合わせたタスク内容を選択できる。なお、タスク決定部3でタスク内容を決定する際に、性格条件DB11の性格に関する情報だけでなく、計測部9の距離や視線角度の情報をあわせてもよく、よりユーザに適したタスク内容を選択できる。
As described above, the third modification of the embodiment can provide the
実施の形態において、コミュニケーションロボットシステム1のタスク決定部3で決定したタスク内容をロボット部8は実行し、ユーザに情報を伝達し、その情報によりユーザは行動する。ロボット部8により伝達した情報を受けて行動した事を、コミュニケーションロボットシステム1が、認識するシステムを備えてもよい。例えば、ユーザは行動を終えた場合に、ロボット部8に備えたセンサに触れたり、また、入力部7から行動を終了したことを入力し、コミュニケーションロボットシステム1は行動の終了を認識する。
In the embodiment, the
コミュニケーションロボットシステム1は行動終了を認識するまで、ロボット部8がタスク内容を繰り返し実行するようにプログラムしてもよい。また、タスクを繰り返し実行する場合に、タスクの強制度合いのレベルが徐々に厳しくなるようにプログラムしてもよい。例えば、ロボット部8が大きくなっていったり、表情が怖くなっていったり、音声が大きくなったりするなどして、依頼から命令へ情報の伝達の仕方が変化する。このように強制度合いが変化することにより、ユーザへ与える印象を変化させることが可能である。
The
図12は、図1、図6または図11に示す制御装置12および基本条件DB2のハードウェア構成の一例を示すブロック図である。制御装置12および基本条件DB2は、図12に示すように、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27から構成される。主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27はいずれも内部バス20を介して制御部21に接続されている。
12 is a block diagram illustrating an example of a hardware configuration of the
制御部21はCPU(Central Processing Unit)等から構成され、外部記憶部23に記憶されている制御プログラム30に従って、コミュニケーションロボットシステム1はタスク決定部3、行動認識部5、実行部6の各処理を実行する。
The
主記憶部22はRAM(Random-Access Memory)等から構成され、外部記憶部23に記憶されている制御プログラム30をロードし、制御部21の作業領域として用いられる。
The
外部記憶部23は、フラッシュメモリ、ハードディスク、DVD−RAM(Digital Versatile Disc Random-Access Memory)、DVD−RW(Digital Versatile Disc ReWritable)等の不揮発性メモリから構成され、コミュニケーションロボットシステム1の処理を制御部21に行わせるためのプログラムを予め記憶し、また、制御部21の指示に従って、このプログラムが記憶するデータを制御部21に供給し、制御部21から供給されたデータを記憶する。図1の基本条件DB2は、外部記憶部23に構成される。
The
操作部24はキーボード及びマウスなどのポインティングデバイス等と、キーボード及びポインティングデバイス等を内部バス20に接続するインターフェース装置から構成されている。図1の入力部7を含む。操作部24を介して、接触情報の判定条件などが入力され、制御部21に供給される。
The
表示部25は、CRT(Cathode Ray Tube)又はLCD(Liquid Crystal Display)などから構成され、図1のロボット部8が仮想物体形状である場合などに、ロボット部8を表示する。ロボット部8以外にも、タスク内容などを表示したり、コミュニケーションロボットシステム1の設定画面などの表示も行う。
The
入出力部26は、シリアルインタフェースまたはパラレルインタフェースから構成されている。入出力部26は、ロボット部8のセンサとアクチュエータが接続する。センサやカメラなどの検知部10が附属する装置の場合や、表示装置型のロボット部8の場合は、それと接続する。さらに、音声、画像または映像などの情報を関連づけて入出力する場合は、それらの音声入力装置、画像入力装置なども接続する。
The input /
送受信部27は、ネットワークに接続する網終端装置または無線通信装置、及びそれらと接続するシリアルインタフェース又はLAN(Local Area Network)インタフェースから構成されている。送受信部27は、ネットワークを介して、基本条件DB2にユーザの行動と対応するタスクなど、または性格条件DB11のデータを送受信し、データの登録などの際にも利用する。
The transmission /
図1、図6または図11に示すコミュニケーションロボットシステム1のタスク決定部3、行動認識部5および実行部6の処理は、制御プログラム30が、制御部21、主記憶部22、外部記憶部23、操作部24、表示部25、入出力部26および送受信部27などを資源として用いて処理することによって実行する。
The processing of the
その他、本発明の好適な変形として、以下の構成が含まれる。 Other suitable modifications of the present invention include the following configurations.
本発明の第1の観点に係る活動記録作成システムについて、
好ましくは、前記ロボットはその少なくとも一部が変形する構造を備え、
前記プログラムの変化部分は、前記強制度合いの条件に対応して、前記変形する構造を異なる変形度合いにする動作を含む、
ことを特徴とする。
About the activity record creation system according to the first aspect of the present invention,
Preferably, the robot has a structure in which at least a part thereof is deformed,
The change part of the program includes an operation of changing the structure to be deformed to a different deformation degree corresponding to the condition of the forcing degree.
It is characterized by that.
好ましくは、前記変形する構造は、前記ロボットの少なくともその長さの一部が変化することを含むことを特徴とする。 Preferably, the deforming structure includes a change in at least a part of the length of the robot.
好ましくは、前記行動認識手段は、前記人と前記ロボットの間の距離、または、前記人の視線角度を検出する手段を備え、
前記強制度合決定手段は、前記距離および/または前記視線角度に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, the action recognition means includes means for detecting a distance between the person and the robot or a line-of-sight angle of the person,
The enforcement degree determination means determines the condition of the enforcement degree based on the distance and / or the line-of-sight angle.
It is characterized by that.
好ましくは、前記行動認識手段は、前記プログラムを実行する前と実行した後とで、それぞれ前記人の行動を表す情報を取得し比較する行動比較手段を備え、
前記強制度合い決定手段は、前記行動比較手段で比較した結果に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, the behavior recognition means includes behavior comparison means for acquiring and comparing information representing the behavior of the person before and after executing the program,
The compulsory degree determining means determines the condition of the compulsory degree based on the result of comparison by the behavior comparing means.
It is characterized by that.
好ましくは、前記人の性格を表す情報を取得する性格取得手段を備え、
前記強制度合決定手段は、前記人の行動を表す情報に加えて、前記人の性格を表す情報に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, comprising a character acquisition means for acquiring information representing the personality of the person,
The enforcement degree determination means determines the condition of the enforcement degree based on information representing the person's personality in addition to information representing the person's behavior.
It is characterized by that.
好ましくは、表示装置を備え、
前記ロボットは、前記表示装置の画面に表示される仮想物体形状を伴う、
ことを特徴とする。
Preferably, a display device is provided,
The robot is accompanied by a virtual object shape displayed on the screen of the display device,
It is characterized by that.
本発明の第2の観点に係る活動記録作成方法について、
好ましくは、前記ロボットはその少なくとも一部が変形する構造を備え、
前記プログラムの変化部分は、前記強制度合いの条件に対応して、前記ロボットの前記変形する構造を異なる変形度合いにする動作を含み、
前記情報伝達ステップは、前記強制度合決定ステップで決定した強制度合いの条件に対応して、前記ロボットの前記変形する構造を異なる変形度合いにする動作を選択して、前記ロボットに実行させる、
ことを特徴とする。
About the activity record creation method according to the second aspect of the present invention,
Preferably, the robot has a structure in which at least a part thereof is deformed,
The changing part of the program includes an operation for changing the deforming structure of the robot to a different degree of deformation corresponding to the condition of the degree of forcing.
The information transmission step selects an operation for changing the deforming structure of the robot to a different deformation degree in accordance with the condition of the forcing degree determined in the forcing degree determination step, and causes the robot to execute.
It is characterized by that.
好ましくは、前記行動認識ステップは、前記人と前記ロボットの間の距離、または、前記人の視線角度を検出するステップを備え、
前記強制度合決定ステップは、前記距離および/または前記視線角度に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, the action recognition step includes a step of detecting a distance between the person and the robot or a gaze angle of the person.
The enforcement degree determination step determines the condition of the enforcement degree based on the distance and / or the line-of-sight angle.
It is characterized by that.
好ましくは、前記行動認識ステップは、前記プログラムを実行する前と実行した後とで、それぞれ前記人の行動を表す情報を取得し比較する行動比較ステップを備え、
前記強制度合い決定ステップは、前記行動比較ステップで比較した結果に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, the behavior recognition step includes a behavior comparison step of acquiring and comparing information representing the behavior of the person before and after executing the program,
The forcing level determination step determines the forcing level condition based on the result of the comparison in the behavior comparison step.
It is characterized by that.
好ましくは、人の性格を表す情報を取得する、性格取得ステップを備え、
前記強制度合決定ステップは、前記人の行動を表す情報に加えて、前記人の性格を表す情報に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする。
Preferably, a personality acquisition step of acquiring information representing a personality of a person is provided,
In the enforcement degree determination step, in addition to information representing the person's behavior, the condition of the enforcement degree is determined based on information representing the person's personality.
It is characterized by that.
その他、前記のハードウエア構成やフローチャートは一例であり、任意に変更および修正が可能である。 In addition, the above-described hardware configuration and flowchart are examples, and can be arbitrarily changed and modified.
基本条件DB2、タスク決定部3、強制度合決定部4、行動認識部5、実行部6等から構成されるロボットのコミュニケーション処理を行う中心となる部分は、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。たとえば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読みとり可能な記録媒体(フレキシブルディスク、CD−ROM、DVD−ROM等)に格納して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行するコミュニケーションロボットシステムを構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを格納しておき、通常のコンピュータシステムがダウンロード等することでコミュニケーションロボットシステムを構成してもよい。
The central part that performs communication processing of the robot composed of the
また、コミュニケーションロボットシステムを、OS(オペレーティングシステム)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合等には、アプリケーションプログラム部分のみを記録媒体や記憶装置に格納してもよい。 Further, when the communication robot system is realized by sharing an OS (operating system) and an application program, or by cooperation between the OS and the application program, only the application program portion may be stored in a recording medium or a storage device. Good.
また、搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)に前記コンピュータプログラムを掲示し、ネットワークを介して前記コンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。 It is also possible to superimpose a computer program on a carrier wave and distribute it via a communication network. For example, the computer program may be posted on a bulletin board (BBS, Bulletin Board System) on a communication network, and the computer program distributed via the network. The computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
本発明によれば、コミュニケーションロボットがユーザへ与える印象を利用した、コミュニケーションロボットのユーザへのインタラクション行動の効果の高いコミュニケーションロボットシステムといった用途に適用可能である。 INDUSTRIAL APPLICABILITY According to the present invention, the present invention can be applied to a use such as a communication robot system that uses an impression given to a user by a communication robot and that has a high effect of interaction behavior to the user of the communication robot.
1 コミュニケーションロボットシステム
2 基本条件DB
3 タスク決定部
4 強制度合決定部
5 行動認識部
6 実行部
7 入力部
8 ロボット部
9 計測部
10 検知部
11 性格条件DB
12 制御装置
21 制御部
22 主記憶部
23 外部記憶部
24 操作部
25 表示部
26 入出力部
27 送受信部
30 制御プログラム
1
3
DESCRIPTION OF
Claims (13)
人の行動を表す情報を取得する行動認識手段と、
前記行動認識手段で取得した人の行動を表す情報に基づいて、前記プログラムを実行するときの強制度合いの条件を決定する強制度合決定手段と、
前記強制度合いの条件に対応して前記異なる動作を実行する変化部分を選択して前記プログラムを実行するロボットと、
を備えることを特徴とするコミュニケーションロボットシステム。 A program for causing a robot to execute an operation for transmitting information to a person, and storing a program having a change portion that executes a different operation in response to a condition of a degree of forcing when the operation for transmitting information to the person is executed Storage means for
Action recognition means for acquiring information representing human behavior,
Based on information representing the behavior of the person acquired by the action recognition means, a forcing degree determination means for determining a condition of a forcing degree when executing the program;
A robot that executes the program by selecting a change portion that performs the different operations in response to the condition of the forcing degree;
A communication robot system comprising:
前記プログラムの変化部分は、前記強制度合いの条件に対応して、前記変形する構造を異なる変形度合いにする動作を含む、
ことを特徴とする請求項1に記載のコミュニケーションロボットシステム。 The robot has a structure in which at least a part thereof is deformed,
The change part of the program includes an operation of changing the structure to be deformed to a different deformation degree corresponding to the condition of the forcing degree.
The communication robot system according to claim 1.
前記強制度合決定手段は、前記距離および/または前記視線角度に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項1ないし3のいずれか1項に記載のコミュニケーションロボットシステム。 The action recognition means includes means for detecting a distance between the person and the robot, or a line-of-sight angle of the person,
The enforcement degree determination means determines the condition of the enforcement degree based on the distance and / or the line-of-sight angle.
The communication robot system according to any one of claims 1 to 3, wherein
前記強制度合い決定手段は、前記行動比較手段で比較した結果に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項1ないし4のいずれか1項に記載のコミュニケーションロボットシステム。 The behavior recognition means includes behavior comparison means for acquiring and comparing information representing the behavior of the person before and after executing the program,
The compulsory degree determining means determines the condition of the compulsory degree based on the result of comparison by the behavior comparing means.
The communication robot system according to any one of claims 1 to 4, wherein:
前記強制度合決定手段は、前記人の行動を表す情報に加えて、前記人の性格を表す情報に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項1ないし5のいずれか1項に記載のコミュニケーションロボットシステム。 Comprising personality acquisition means for acquiring information representing the personality of the person,
The enforcement degree determination means determines the condition of the enforcement degree based on information representing the person's personality in addition to information representing the person's behavior.
The communication robot system according to any one of claims 1 to 5, wherein
前記ロボットは、前記表示装置の画面に表示される仮想物体形状を伴う、
ことを特徴とする請求項1ないし6のいずれか1項に記載のコミュニケーションロボットシステム。 A display device,
The robot is accompanied by a virtual object shape displayed on the screen of the display device,
The communication robot system according to any one of claims 1 to 6, wherein:
前記人の行動を表す情報に基づいて、前記人に情報を伝達するプログラムを実行するときの強制度合いの条件を決定する強制度合決定ステップと、
人に情報を伝達する動作をロボットに実行させるプログラムであって、前記人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行する変化部分を有する前記プログラムを、前記強制度合決定ステップで決定した強制度合いの条件に対応して前記異なる変化部分を選択して、前記ロボットに実行させる情報伝達ステップと、
を備えることを特徴とするコミュニケーションロボット制御方法。 An action recognition step for obtaining information representing a person's action;
On the basis of information representing the behavior of the person, a forcing degree determining step for determining a condition of a forcing degree when executing a program for transmitting information to the person;
A program for causing a robot to perform an operation for transmitting information to a person, the program having a change portion for performing a different operation in response to a condition of a degree of forcing when performing an operation for transmitting information to the person An information transmission step for causing the robot to select the different change portion corresponding to the condition of the forcing degree determined in the forcing degree determination step;
A communication robot control method comprising:
前記プログラムの変化部分は、前記強制度合いの条件に対応して、前記ロボットの前記変形する構造を異なる変形度合いにする動作を含み、
前記情報伝達ステップは、前記強制度合決定ステップで決定した強制度合いの条件に対応して、前記ロボットの前記変形する構造を異なる変形度合いにする動作を選択して、前記ロボットに実行させる、
ことを特徴とする請求項8に記載のコミュニケーションロボット制御方法。 The robot has a structure in which at least a part thereof is deformed,
The changing part of the program includes an operation for changing the deforming structure of the robot to a different degree of deformation corresponding to the condition of the degree of forcing.
The information transmission step selects an operation for changing the deforming structure of the robot to a different deformation degree in accordance with the condition of the forcing degree determined in the forcing degree determination step, and causes the robot to execute.
The communication robot control method according to claim 8.
前記強制度合決定ステップは、前記距離および/または前記視線角度に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項8または9に記載のコミュニケーションロボット制御方法。 The action recognition step includes a step of detecting a distance between the person and the robot or a line-of-sight angle of the person,
The enforcement degree determination step determines the condition of the enforcement degree based on the distance and / or the line-of-sight angle.
The communication robot control method according to claim 8 or 9, characterized by the above.
前記強制度合い決定ステップは、前記行動比較ステップで比較した結果に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項8ないし10のいずれか1項に記載のコミュニケーションロボット制御方法。 The behavior recognition step includes a behavior comparison step of acquiring and comparing information representing the behavior of the person before and after executing the program,
The forcing level determination step determines the forcing level condition based on the result of the comparison in the behavior comparison step.
The communication robot control method according to any one of claims 8 to 10, wherein:
前記強制度合決定ステップは、前記人の行動を表す情報に加えて、前記人の性格を表す情報に基づいて、前記強制度合いの条件を決定する、
ことを特徴とする請求項8ないし11のいずれか1項に記載のコミュニケーションロボット制御方法。 A personality acquisition step for acquiring information representing the personality of the person,
In the enforcement degree determination step, in addition to information representing the person's behavior, the condition of the enforcement degree is determined based on information representing the person's personality.
The communication robot control method according to any one of claims 8 to 11, wherein
人の行動を表す情報を取得する行動認識ステップと、
前記人の行動を表す情報に基づいて、前記人に情報を伝達するプログラムを実行するときの強制度合いの条件を決定する強制度合決定ステップと、
人に情報を伝達する動作をロボットに実行させるプログラムであって、前記人に情報を伝達する動作を実行するときの強制度合いの条件に対応して異なる動作を実行する変化部分を有する前記プログラムを、前記強制度合決定ステップで決定した強制度合いの条件に対応して前記異なる変化部分を選択して、前記ロボットに実行させる情報伝達ステップと、を実行させることを特徴とするコミュニケーションロボットプログラム。 On the computer,
An action recognition step for obtaining information representing a person's action;
On the basis of information representing the behavior of the person, a forcing degree determining step for determining a condition of a forcing degree when executing a program for transmitting information to the person;
A program for causing a robot to perform an operation for transmitting information to a person, the program having a change portion for performing a different operation in response to a condition of a degree of forcing when performing an operation for transmitting information to the person A communication robot program that executes the information transmission step of selecting the different changed portion in accordance with the condition of the forcing degree determined in the forcing degree determining step and causing the robot to execute the selected information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285692A JP2010110862A (en) | 2008-11-06 | 2008-11-06 | Communication robot system and method and program for controlling communication robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008285692A JP2010110862A (en) | 2008-11-06 | 2008-11-06 | Communication robot system and method and program for controlling communication robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010110862A true JP2010110862A (en) | 2010-05-20 |
Family
ID=42299846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008285692A Ceased JP2010110862A (en) | 2008-11-06 | 2008-11-06 | Communication robot system and method and program for controlling communication robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010110862A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3208053A1 (en) | 2016-02-22 | 2017-08-23 | Fuji Xerox Co., Ltd. | Robot control system |
JP2020037141A (en) * | 2018-09-03 | 2020-03-12 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control program, and robot control method |
CN115334022A (en) * | 2021-05-11 | 2022-11-11 | 中国移动通信集团上海有限公司 | Method, device, equipment and storage medium for realizing check-in list in 5G messaging system |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3066762U (en) * | 1999-08-20 | 2000-03-07 | ナツメ株式会社 | Conversation toys |
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
JP2002071176A (en) * | 2000-08-25 | 2002-03-08 | Fuji Industrial Co Ltd | Cleaning prompting system for grease filters of ventilation fans |
JP2002132404A (en) * | 2000-10-30 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Robot system, robot control device and method, and recording medium recorded with robot control program |
JP2003058923A (en) * | 2001-08-10 | 2003-02-28 | Omron Corp | Toll collecting device and method, warning, device and method, and program |
JP2004066367A (en) * | 2002-08-05 | 2004-03-04 | Mitsubishi Heavy Ind Ltd | Action pattern formation device, action pattern formation method, and action pattern formation program |
JP2004090109A (en) * | 2002-08-29 | 2004-03-25 | Sony Corp | Robot device and interactive method for robot device |
JP2006247780A (en) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007133728A (en) * | 2005-11-11 | 2007-05-31 | Kenwood Corp | Agent device, on-vehicle navigation device with agent function and agent outputting method |
-
2008
- 2008-11-06 JP JP2008285692A patent/JP2010110862A/en not_active Ceased
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3066762U (en) * | 1999-08-20 | 2000-03-07 | ナツメ株式会社 | Conversation toys |
JP2001188779A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing information and recording medium |
JP2002071176A (en) * | 2000-08-25 | 2002-03-08 | Fuji Industrial Co Ltd | Cleaning prompting system for grease filters of ventilation fans |
JP2002132404A (en) * | 2000-10-30 | 2002-05-10 | Nippon Telegr & Teleph Corp <Ntt> | Robot system, robot control device and method, and recording medium recorded with robot control program |
JP2003058923A (en) * | 2001-08-10 | 2003-02-28 | Omron Corp | Toll collecting device and method, warning, device and method, and program |
JP2004066367A (en) * | 2002-08-05 | 2004-03-04 | Mitsubishi Heavy Ind Ltd | Action pattern formation device, action pattern formation method, and action pattern formation program |
JP2004090109A (en) * | 2002-08-29 | 2004-03-25 | Sony Corp | Robot device and interactive method for robot device |
JP2006247780A (en) * | 2005-03-10 | 2006-09-21 | Advanced Telecommunication Research Institute International | Communication robot |
JP2007133728A (en) * | 2005-11-11 | 2007-05-31 | Kenwood Corp | Agent device, on-vehicle navigation device with agent function and agent outputting method |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3208053A1 (en) | 2016-02-22 | 2017-08-23 | Fuji Xerox Co., Ltd. | Robot control system |
US10226866B2 (en) | 2016-02-22 | 2019-03-12 | Fuji Xerox Co., Ltd. | Robot control system |
JP2020037141A (en) * | 2018-09-03 | 2020-03-12 | 株式会社国際電気通信基礎技術研究所 | Robot, robot control program, and robot control method |
JP7133840B2 (en) | 2018-09-03 | 2022-09-09 | 株式会社国際電気通信基礎技術研究所 | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |
CN115334022A (en) * | 2021-05-11 | 2022-11-11 | 中国移动通信集团上海有限公司 | Method, device, equipment and storage medium for realizing check-in list in 5G messaging system |
CN115334022B (en) * | 2021-05-11 | 2023-08-15 | 中国移动通信集团上海有限公司 | Method, device, equipment, and storage medium for realizing check-in list in 5G messaging system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fernandez et al. | Natural user interfaces for human-drone multi-modal interaction | |
McColl et al. | A survey of autonomous human affect detection methods for social robots engaged in natural HRI | |
Ng et al. | Collocated interaction with flying robots | |
Jung et al. | Engaging robots: easing complex human-robot teamwork using backchanneling | |
US10444876B2 (en) | Human-computer interface device and system | |
JP7298860B2 (en) | Autonomous action type robot assuming a virtual character | |
Teyssier et al. | MobiLimb: Augmenting mobile devices with a robotic limb | |
US20220347860A1 (en) | Social Interaction Robot | |
JPWO2020116233A1 (en) | Information processing equipment, information processing methods, and programs | |
Lee et al. | The design of a semi-autonomous robot avatar for family communication and education | |
CN108133259A (en) | The system and method that artificial virtual life is interacted with the external world | |
JP2016087402A (en) | User-interaction toy and interaction method of the toy | |
JP2010110862A (en) | Communication robot system and method and program for controlling communication robot | |
Lee et al. | Semi-autonomous robot avatar as a medium for family communication and education | |
CN102778845A (en) | robot device | |
JP2020113025A (en) | Space control system | |
JP7383226B2 (en) | Tactile information generation program, tactile information input device, and tactile information communication system | |
Takimoto et al. | A simple bi-layered architecture to enhance the liveness of a robot | |
Palacín et al. | The Assistant Personal Robot Project: From the APR-01 to the APR-02 Mobile Robot Prototypes. Designs 2022, 6, 66 | |
Naeem et al. | Voice controlled humanoid robot | |
JP6935531B1 (en) | Information processing programs and information processing systems | |
JP7439826B2 (en) | Information processing device, information processing method, and program | |
JP7619609B2 (en) | robot | |
Riek et al. | Affective-centered design for interactive robots | |
Palacín Roca et al. | The Assistant Personal Robot Project: From the APR-01 to the APR-02 Mobile Robot Prototypes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121114 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130124 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130625 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130925 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20131002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A313 | Final decision of rejection without a dissenting response from the applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A313 Effective date: 20140310 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20140328 |