JP2019010708A - Communication device, communication method and program - Google Patents
Communication device, communication method and program Download PDFInfo
- Publication number
- JP2019010708A JP2019010708A JP2017129005A JP2017129005A JP2019010708A JP 2019010708 A JP2019010708 A JP 2019010708A JP 2017129005 A JP2017129005 A JP 2017129005A JP 2017129005 A JP2017129005 A JP 2017129005A JP 2019010708 A JP2019010708 A JP 2019010708A
- Authority
- JP
- Japan
- Prior art keywords
- result
- instruction
- robot
- user
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は人間と機械がコミュニケーションをとる技術に関する。 The present invention relates to a technology in which a human and a machine communicate with each other.
ユーザと自然なコミュニケーションを行うことができ、人間との親和性に優れたロボットの需要が高まっている。そのため、ユーザの感情を考慮したコミュニケーションを実行するロボットが提案されている。 There is an increasing demand for robots that can communicate naturally with users and have excellent human compatibility. Therefore, a robot that performs communication in consideration of the user's emotion has been proposed.
特許文献1には、ユーザの発話に基づいてユーザの感情を推定し、推定した感情に基づいて応答する対話処理装置に係る技術が開示されている。
しかし、特許文献1に記載の対話処理装置はユーザの発話を待って応答するため、この対話処理装置を適用したロボットでは、ユーザが発話をする前にロボットが発話をすべき場合には対応できない。よって、特許文献1に記載の対話処理装置を適用したロボットでは人間との親和性が十分とはいえない。
However, since the dialogue processing device described in
本発明の目的は、上記の事情に鑑み、人間との親和性に優れたコミュニケーション装置、コミュニケーション方法及びプログラムを提供することにある。 In view of the above circumstances, an object of the present invention is to provide a communication device, a communication method, and a program excellent in affinity with humans.
上記の目的を達成するために、本発明に係るコミュニケーション装置は、
外部からの指示に基づく動作を指示動作として実行する指示動作実行部と、
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備える。
In order to achieve the above object, a communication device according to the present invention includes:
An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
Is provided.
本発明によれば、人間との親和性に優れたコミュニケーションをすることができる。 According to the present invention, communication excellent in affinity with humans can be performed.
以下、本発明を実施するための形態に係るコミュニケーション装置を図面を参照しながら説明する。 Hereinafter, a communication apparatus according to an embodiment for carrying out the present invention will be described with reference to the drawings.
(実施の形態1)
実施の形態1に係るロボット1(コミュニケーション装置)は、図1に示すように、ペット型ロボットであり、屋内での使用が想定されている。ロボット1はユーザとコミュニケーションをすることができる。また、ロボット1はユーザの指示に反応して、車輪による走行、一芸の披露などの動作を行うことができる。
(Embodiment 1)
As shown in FIG. 1, the robot 1 (communication device) according to the first embodiment is a pet-type robot and is assumed to be used indoors. The
ロボット1は、図1に示すように、胴体部10と頭部20とを備える。頭部20は胴体部10と一体的に成形されているが、頭部20と胴体部10とを別パーツとして成形し、首関節パーツにより接続してもよい。
As shown in FIG. 1, the
胴体部10は、前輪11と後輪12と尻尾13とを備える。前輪11は胴体部10の前方側に、左右1つずつ設けられ、後輪12は胴体部10の後方側に、左右1つずつ設けられている。尻尾13は胴体部10と一体的に成形されているが、尻尾13を別パーツとして成形して胴体部10と接続してもよい。図2に示すように、前輪11と後輪12は、ともに後述の駆動部120と接続され、駆動部120が駆動することにより車輪が回転する。
The
頭部20は、目21と口22と耳23とを備える。目21と耳23はともに、左右1つずつ設けられている。
The
目21の内部には、測域センサ211と人感センサ212とが設けられている。測域センサ211は後述の障害物検知、環境地図作成、自己位置推定に用いられる。人感センサ212はユーザの存在検知に用いられる。なお、人感センサ212を設けず、測域センサ211を利用してユーザの存在を検知する構成としてもよい。
A range sensor 211 and a
口22の内部には、衝撃センサ221と重力センサ222とスピーカ223とが設けられている。衝撃センサ221は、ロボット1が障害物に衝突したことの検知、ロボット1が転倒したことの検知、ユーザがロボット1の頭部20を叩いたことの検知、などに用いられる。重力センサ222は、傾いている状態、転倒している状態などロボット1の体勢の検知に用いられる。スピーカ223は合成音声によるユーザとのコミュニケーションに用いられる。
Inside the
耳23の内部には、カメラ231とマイク232とが設けられている。カメラ231はロボット1の周囲を撮像して画像データとして出力する。撮像した画像データは障害物検知、自己位置推定、後述の動作成果判定などに用いられる。カメラ231には、ロボット1の周囲全方向について撮像可能な全方位カメラを採用することが好ましい。マイク232は周囲の音声を音声データとして出力する。音声データは後述の制御部110が実行する指示認識プログラム101の音声認識機能により、ロボット1に対する指示として認識される。
A
胴体部10の内部には、記憶部100と制御部110と駆動部120とが設けられている。また、図示しない電源も設けられている。
Inside the
記憶部100は、フラッシュメモリ等の記録媒体を備え、制御部110によって実行される各種プログラム、各種データを記憶する。具体的には、記憶部100は、指示認識プログラム101、動作制御プログラム102、地図作成プログラム103、成果判定プログラム104、地図データ105及び成果データ106を記憶する。
The
指示認識プログラム101は、ユーザの入力をロボット1に対する指示として認識するためのプログラムである。発話すること、ロボット1の頭を軽く叩くこと、などがユーザの入力に該当する。指示認識プログラム101は、マイク232から取得した音声データ及び衝撃センサ221から取得した衝撃データに基づいてユーザの入力を認識する。指示認識プログラム101は、取得した音声データをテキストデータに変換する音声認識機能を有する。指示認識プログラム101は、取得した衝撃データに基づいて、ユーザがロボット1を叩いたことを判定する。例えば、0.5秒の間だけ衝撃データの値が一定値以上だった場合に、ユーザがロボット1を叩いたと判定する。指示認識プログラム101は、音声認識機能により取得したテキストデータと、ユーザがロボット1を叩いたことを判定した結果と、に基づいてユーザの入力をロボット1に対する指示として認識する。そして指示認識プログラムは、認識した指示を示す情報を動作制御プログラム102に受け渡す。
The
例えば、ユーザが「部屋の入り口まで移動して」と発話し、続けてロボット1の頭を2回叩くことが、ロボット1を部屋の入り口まで移動させる指示に対応するものとして、指示認識プログラム101に認識させる場合を考える。まず、指示認識プログラム101はマイク232からユーザの発話に係る音声データを取得して音声認識機能によりテキストデータに変換する。変換結果が「部屋の入り口まで移動して」を表すデータであるかを判定する。「部屋の入り口まで移動して」を表すデータであることを判定した場合、続いて指示認識プログラム101は、衝撃センサ221から衝撃データを取得する。指示認識プログラム101は、取得した衝撃データに基づき、一定時間内に2回ロボット1が叩かれたことを判定すると、ユーザの入力が、ロボット1を部屋の入り口まで移動させる指示であることを認識する。そして指示認識プログラム101は、ロボット1を部屋の入り口まで移動させる指示を示す情報を動作制御プログラム102に受け渡す。
For example, if the user speaks “move to the entrance of the room” and subsequently hits the head of the
動作制御プログラム102は、指示認識プログラム101から受け取った情報に対応して、指示に基づいたロボット1の動作を制御する。目的地まで移動すること、一芸を行うこと、などが指示に基づいたロボット1の動作に該当する。動作制御プログラム102は、頭部20内の各種機器から取得した情報に基づいてロボット1の動作を制御する。ロボット1の移動を制御する際には適宜、地図データ105にも基づいて制御する。また、動作制御プログラム102は、成果判定プログラム104の判定結果に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作をロボット1に実行させる制御も行う。成果については後述する。指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作に該当する例として、よい成果があげられずユーザが負の感情を生じると想定されるときには、ユーザに対して合成音声で謝罪をしてユーザの負の感情を緩和すること、優れた成果をあげてユーザが正の感情を生じると想定されるときには、ユーザに対して音声と動きで喜びを表現してユーザの正の感情を増幅すること、などが挙げられる。なお、正の感情、負の感情としては、例えば感情地図(『感覚・感情とロボット』福田収一(監修)光吉俊二他(著)工業調査会(日本機械学会編集), pp. 275-308, 2008年)を利用することができる。
The
地図作成プログラム103は、頭部20内の各種機器、特に測域センサ211、衝撃センサ221、カメラ231から取得した情報に基づいて環境地図情報を作成し、地図データ105として記憶部100に記憶する。地図作成プログラム103は、動作制御プログラム102と並列に実行されるものとしてもよいし、動作制御プログラム102から地図作成プログラム103が呼び出されることにより、動作制御プログラム102の一機能として実行されるものとしてもよい。
The
成果判定プログラム104は、頭部20内の各種機器から取得した情報に基づいてロボット1の動作の成果に関する情報を作成し、成果データ106として記憶部100に記憶する。ロボット1の動作の成果には、移動の際の経路、移動に要した時間、障害物に衝突した回数、一芸が成功したか否か、などが該当する。これらの情報が成果データ106として時系列的に記憶される。また成果判定プログラム104は、成果データ106に基づいて、動作の成功・失敗、成果の善し悪し、目標の達成度合いなどを判定する。判定の際には適宜、成果データ106のうち過去のデータと比較して判定を行う。例えば、移動に要する時間が過去のものより優れていた場合、以前よりも優れた成果をあげた、と判定する。成果判定プログラム104は、動作制御プログラム102と並列に実行されるものとしてもよいし、動作制御プログラム102から成果判定プログラム104が呼び出されることにより、動作制御プログラム102の一機能として実行されるものとしてもよい。
The
制御部110は、プロセッサとメインメモリとインタフェースとリアルタイムクロックとを備える。制御部110は、インタフェースを介して記憶部100と接続されている。プロセッサが、記憶部100内の各種プログラムを、メインメモリに読み込んで実行する。プロセッサがプログラムを実行することにより、記憶部100内の各種データの読み書きを行う。また、制御部110は、駆動部120及び頭部20内の各種機器とインタフェースを介して接続され、プロセッサがプログラムを実行することによりこれらを制御する。リアルタイムクロックは、制御タイミングの調整、動作に要した時間の記録、処理を行った日時の記録、などに用いられる。制御部110は、例えばマイクロコントローラにより構成される。
The
駆動部120は電動モータを備え、制御部110の制御に基づいて前輪11及び後輪12を駆動する。各車輪に対応した、合計4つの電動モータが備えられている。駆動部120が各車輪を同程度の出力で駆動することにより、ロボットは前方向または後方向に直進することができる。左右の車輪に対して、駆動部120が異なる出力により駆動することによって、ロボット1は右折、左折、旋回などをすることができる。また、ロボット1が後方向に直進しているときに、駆動部120が後輪12に急ブレーキをかけることにより、図3(a)に示すように、ロボット1を直立させることができる。尻尾13はロボット1を直立させる際に支えとして機能する。この直立する動作が、ロボット1が一芸として行う動作である。そして、ロボット1が直立した状態で、駆動部120が後輪12を前方向に回転させることにより、ロボット1が前方向に倒れ込み、ロボット1を水平状態に戻すことができる。
The
ロボット1は、制御部110が記憶部100内の各種プログラムを実行することにより、コミュニケーション装置1000として機能する。図4を参照しながら、コミュニケーション装置1000としてのロボット1の各機能を説明する。
The
指示受付部1100は、ユーザからの入力を指示として受け付ける。制御部110が指示認識プログラム101を実行することにより、制御部110と指示認識プログラム101と頭部20内の各種機器とが協働して、指示受付部1100の機能を実現する。
The
指示動作実行部1001は、指示受付部1100が受け付けた指示に基づいて動作を実行する。以下、この動作を指示動作と呼ぶ。動作制御プログラム102の機能のうち、指示認識プログラム101が認識した指示に基づいてロボット1の動作を制御する機能が、指示動作実行部1001の機能の一部となる。制御部110が動作制御プログラム102を実行することにより、制御部110と動作制御プログラム102と駆動部120と頭部20内の各種機器とが協働して、指示動作実行部1001の機能を実現する。
The instruction
地図作成部1020は、指示動作実行部1001が指示動作を実行するのと並行して、若しくは指示動作実行部1001の機能の一部として、環境地図情報を作成して記憶する。制御部110が地図作成プログラム103を実行することにより、制御部110と地図作成プログラム103と頭部20内の各種機器、特に測域センサ211、衝撃センサ221及びカメラ231とが協働して、環境地図情報を作成する機能を実現する。また、記憶した環境地図情報は指示動作実行部1001に参照される。以上より、制御部110が地図作成プログラム103及び動作制御プログラム102を実行することにより、制御部110と地図作成プログラム103と動作制御プログラム102と地図データ105を有する記憶部100と頭部20内の各種機器とが協働して、地図作成部1020の機能を実現する。
The
成果検出部1002は、指示動作実行部1001が実行する指示動作の成果を成果情報として検出する。また、成果検出部1002は、検出した成果情報を成果記憶部1010に記憶させる。成果記憶部1010の機能は成果データ106を有する記憶部100により実現される。成果判定プログラム104の機能のうち、頭部20内の各種機器から取得した情報に基づいて指示動作の成果に関する情報を作成し、成果データ106として記憶する機能が成果検出部1002の機能の一部となる。制御部110が成果判定プログラム104を実行することにより、制御部110と成果判定プログラム104と成果データ106を有する記憶部100と頭部20内の各種機器とが協働して、成果検出部1002の機能を実現する。
The
成果表現動作実行部1003は、成果検出部1002が検出する成果情報に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を実行する。以下、この動作を成果表現動作と呼ぶ。成果表現動作の具体例については後述する。また、成果記憶部1010が記憶する過去の成果情報も適宜参照し、これらにも基づいて成果表現動作を実行する。成果判定プログラム104の機能のうち、成果データ106に基づいて、成果の善し悪し、目標の達成度合いなどを判定する機能が、成果表現動作実行部1003の機能の一部となる。また、動作制御プログラム102の機能のうち、成果判定プログラム104の判定結果に基づいて、成果表現動作をロボット1に実行させる機能が、成果表現動作実行部1003の機能の一部となる。制御部110が成果判定プログラム104及び動作制御プログラム102を実行することにより、制御部110と成果判定プログラム104と動作制御プログラム102と成果データ106を有する記憶部100と駆動部120と頭部20内の各種機器とが協働して、成果表現動作実行部1003の機能を実現する。
Based on the result information detected by the
次に、成果及び成果表現動作の具体例について図8を参照しながら説明する。動作の具体例はいずれも、制御部110がスピーカ223を制御してロボット1から合成音声を発話させるものである。説明の順序は図8に示す一覧の上から下への並びと対応する。
Next, a specific example of the result and the result expression operation will be described with reference to FIG. In any specific example of the operation, the
まずは移動指示がされた場合について説明する。ロボット1が、移動中に室内の障害物に衝突し、そのまま障害物を押して引きずってしまったことを、衝撃センサ221、測域センサ211及びカメラ231から取得した情報に基づいて制御部110が検知した場合、その時点でロボット1は、物をひきずってしまったことについて謝罪の言葉を発する。謝罪をすることにより、物をひきずったことを見たユーザに生じると想定される負の感情を緩和することができる。
First, a case where a movement instruction is given will be described. Based on information acquired from the impact sensor 221, the range sensor 211, and the
移動中にロボット1が転倒したことを重力センサ222及び衝撃センサ221から取得情報に基づいて制御部110が検知した場合、その時点でロボット1は、転倒してしまったので助けがほしいことをユーザに求める。助けをユーザに求めることにより、転倒するさまを見たユーザの同情を誘うことができる。
When the
特段問題なくロボット1が移動を完了したことを制御部110が判断した場合、ロボット1は、無事に移動が完了したことの喜びを表す言葉を発する。喜びを表現することにより、移動完了を見て喜んでいると想定されるユーザが有する正の感情を増幅することができる。
When the
移動は完了したものの、ロボット1が障害物と衝突した回数が多いと制御部110が判断した場合、ロボット1は、衝突が多いことについて謝罪の言葉を発する。謝罪をすることにより、何度も障害物と衝突したことを見たユーザに生じると想定される負の感情を緩和することができる。なお、衝突回数が多いか否かの判断は成果判定プログラム104の機能として設ける。具体的な回数は例えば5回以上である。障害物と衝突したことの検知には衝撃センサ221の検知情報を用いればよい。
If the
移動が完了し、成果データ106として記憶された前回の成果情報と比較して、今回のほうが早く移動が完了したと制御部110が判断した場合、ロボット1は、前回より早く移動が完了したことの喜びを表す言葉を発する。前回より早く移動が完了したことの喜びを表現することにより、移動が完了したところを見て喜んでいると想定されるユーザの正の感情を増幅することができる。
When the
移動が完了し、成果データ106として記憶された前回の成果情報と比較して今回のほうが遅いと制御部110が判断した場合、ロボット1は、前回より遅いことについての原因と謝罪を表す言葉を発する。前回より遅いことについての原因と謝罪を表現することにより、移動完了が遅いことを見たユーザに生じると想定される負の感情を緩和できる。例えば遅くなった原因が、障害物が前回より多く置かれていた場合、制御部110は、成果データ106として記憶された前回の経路情報と、今回の経路情報とを比較して、今回が前回と比べて遠回りしていることを判断する。
When the
次に、一芸指示がされた場合について説明する。立ち上がることすらできずに転倒したと制御部110が判断した場合、ロボット1は、一芸が失敗したことの悲しみを表す言葉を発する。一芸が失敗したことの悲しみを表現することにより、転倒するさまを見たユーザの同情を誘うことができる。一芸が成功したか否かの判断については後述の動作の流れで説明する。
Next, a case where a trick instruction is given will be described. When the
特段問題なく一芸が成功し、直立したと制御部110が判断した場合、ロボット1は、一芸が成功したことの喜びを表す言葉を発する。一芸が成功したことの喜びを表現することにより、一芸の成功を見て喜んでいると想定されるユーザの正の感情を増幅できる。
If the
図3(b)に示すような、足場が不安定でロボット1が傾いている状況であっても、ロボット1の重量・重心、ロボット1が底面に対してなす角度などによっては傾いた状態のままロボット1がぐらつかずに安定する場合がある。そこで、足場が不安定な状態にも関わらずロボット1が安定した状態にあると制御部110が判断した場合、ロボット1は、不利な環境下で一芸が成功したことの喜びを表す言葉を発する。不利な環境下で一芸が成功したことの喜びを表現することにより、不利な環境下での一芸の成功を見て喜び、かつ驚いていると想定されるユーザの正の感情と驚きを増幅できる。足場が不安定であることの検知は、重力センサ222の検知情報に基づいて、ロボット1が底面に対してなす角度が垂直ではなく、かつ十分に立ち上がっているといえる角度であることを判断すればよい。十分に立ち上がっているといえる角度とは例えば75度である。
Even if the scaffold is unstable and the
一芸が成功した後、特段問題なくロボット1が水平状態に戻ったと制御部110が判断した場合、ロボット1は、無事に動作を終えた喜びを表す言葉を発する。無事に動作を終えた喜びを表現することにより、動作終了を見たユーザに生じると想定される正の感情を増幅できる。ロボット1が水平状態に戻ったことの判断は、重力センサ222の検知情報に基づいて、ロボット1が底面に対してなす角度を求めればよい。
If the
一芸が成功した後、ロボット1が水平状態に正常に戻れず転倒したと制御部110が判断した場合、ロボット1は、一芸は実質成功したと言い張って笑いを誘う言葉を発する。笑いを誘うことにより、転倒するさまを見たユーザに生じると想定される負の感情を正の感情に転換できる。
If the
このように、成果表現動作として主に、指示動作を見たユーザに正の感情が生じると想定されるときには正の感情を増幅させる動作が、指示動作を見たユーザに負の感情が生じると想定されるときには負の感情を緩和させる動作が、それぞれ採用されている。 As described above, when it is assumed that a positive emotion is generated in the user who has viewed the instruction operation as a result expression operation, an operation to amplify the positive emotion is a negative emotion in the user who has viewed the instruction operation. When it is assumed, an action to alleviate negative emotions is adopted.
次に、コミュニケーション装置1000として機能するロボット1の動作の流れの一例を説明する。
Next, an example of the operation flow of the
まず、ロボット1に対して、目的地への移動を指示される場合の例を挙げつつ、図5及び図6を参照しながら動作の流れを説明する。
First, the flow of the operation will be described with reference to FIGS. 5 and 6, giving an example in which the
指示受付部1100がユーザからの入力を待ち(ステップS1−1)、ユーザからの入力をロボット1に対する指示として認識できるかを判定する(ステップS1−2)。指示受付部1100が入力を指示として認識できない場合(ステップS1−2:No)、ステップS1−1に戻り再びユーザからの入力を待つ。
The
指示受付部1100が入力を指示として認識できる場合(ステップS1−2:Yes)、指示動作実行部1001は指示に基づいた指示動作を、図5に示す動作の流れと並列に実行する(ステップS1−3)。本例では指示動作が目的地への移動であるため、図6に示す動作の流れを並列に実行する。
When the
以下、図6を参照しながら目的地移動の場合の指示動作の流れを説明する。制御部110は、測域センサ211、人感センサ212、カメラ231から周辺環境の環境情報を検知し(ステップS2−1)、障害物の有無、ロボット1の存在位置推定、ユーザの位置推定などを行う。制御部110は検知した環境情報に基づいて、ロボット1の進行方向を決定する(ステップS2−2)。地図データ105としての環境地図情報が存在する場合、それにも基づいて進行方向を決定する。これにより、障害物を回避する経路、所要時間が少ない経路などを経由することが期待できる。
Hereinafter, the flow of the instruction operation in the case of destination movement will be described with reference to FIG. The
制御部110は、駆動部120を制御して、ステップS2−2で決定した進行方向に向けてロボット1を移動させる(ステップS2−3)。制御部110は移動の際、進路上の障害物の有無を検知する(ステップS2−4)。進路上の障害物の検知は、測域センサ211、カメラ231によるもののほか、これらでは検知できないまま移動して障害物と衝突した場合に、ロボット1に発生した衝撃を衝撃センサ221で検知することを含む。
The
制御部110は、ステップS2−1及びS2−4の検知結果に基づいて、ロボット1の現在位置周辺の環境情報を、地図データ105の一部として記憶させる(ステップS2−5)。制御部110は、ロボット1が移動続行可能かを確認する(ステップ2−6)。移動続行が不可能な場合とは、重力センサ222の検知結果からロボット1が転倒して移動不可能と判断できる場合、各種機器の検知結果からロボット1が故障していると自己判断できる場合などである。移動続行不可能な場合(ステップS2−6:No)、制御部110は指示動作の実行を終了する。
Based on the detection results of steps S2-1 and S2-4, the
移動続行可能な場合(ステップS2−6:Yes)、制御部110は、目的地まで到達して移動完了したかを確認する(ステップS2−7)。移動が完了していない場合(ステップS2−7:No)、ステップS2−1に戻り周辺環境の検知からの流れを繰り返す。移動が完了している場合(ステップS2−7:Yes)、制御部110は指示動作の実行を終了する。
When the movement can be continued (step S2-6: Yes), the
再び図5を参照しながら動作の流れを説明する。ステップS1−3の後、成果検出部1002が、指示動作実行部1001が並列して実行する指示動作の成果を成果情報として検出し、成果情報を成果記憶部1010に記憶する(ステップS1−4)。本例の場合、成果情報としては目的地到達、障害物衝突、転倒、所要時間、経路などに関する情報が挙げられる。
The operation flow will be described with reference to FIG. 5 again. After step S1-3, the
成果表現動作実行部1003は、成果検出部1002が検出した成果情報を参照し、成果表現動作が可能かを判断する(ステップS1−5)。成果表現動作が不可能な場合とは、例えば、成果情報に多少の経路情報しか含まれておらず、実行すべき成果表現動作を特定するのに十分な成果を得るに至っていない状態が該当する。本例の場合、移動を開始してから数センチメートルしか移動していない場合が該当する。この場合、図8に挙げるいずれの成果にも該当しないため、対応する成果表現動作が存在しない。
The result expression
また、成果表現動作実行部1003は適宜、成果記憶部1010が記憶する過去の成果情報も参照して成果表現動作が可能かを判断する。成果記憶部1010が記憶する過去の成果情報も参照して判断をする場合とは、例えば、目的地到達までの所要時間を前回の所要時間と比較する場合が該当する。
Further, the result expression
成果表現動作が可能であると判断した場合(ステップS1−5:Yes)、成果表現動作実行部1003は成果表現動作を実行し(ステップS1−6)、ステップS1−7に進む。成果表現動作により、ロボット1は指示動作を見たユーザの感情に良い影響を与える。本例において、例えばロボット1が特段問題なく目的地に到達した場合、図8に示すように、制御部110がスピーカ223を制御することにより、「きちんと移動できました!」とロボット1が合成音声による発話をする。この発話により、ロボット1が問題なく目的地に到達したところを見て喜んでいるユーザに生じると想定される正の感情を増幅することができる。また例えば、ロボット1が移動中であり、障害物に衝突して障害物を引きずってしまった場合、「ひきずってしまいました、すみません」とロボット1が合成音声による発話をする。この発話により、ロボット1が障害物を引きずっているところを見たユーザに生じると想定される負の感情を緩和することができる。
When it is determined that the result expression operation is possible (step S1-5: Yes), the result expression
成果表現動作が不可能であると判断した場合(ステップS1−5:No)、ステップS1−6を実行せずにステップS1−7に進む。 When it is determined that the result expression operation is impossible (step S1-5: No), the process proceeds to step S1-7 without executing step S1-6.
並列実行する指示動作が終了済みかを判断し(ステップS1−7)、終了済みでなければ(ステップS1−7:No)ステップS1−4に戻り成果検出からの流れを繰り返す。指示動作が終了済みであれば(ステップS1−7:Yes)ステップS1−1に戻り入力待ちからの流れを繰り返す。なお、指示動作の終了には指示動作が完遂した場合だけではなく、ロボット1の転倒、故障などの原因により指示動作の続行が不可能となった場合も含む。
It is determined whether the instruction operations to be executed in parallel have been completed (step S1-7). If not completed (step S1-7: No), the process returns to step S1-4 and the flow from the result detection is repeated. If the instruction operation has been completed (step S1-7: Yes), the process returns to step S1-1 and repeats the flow from waiting for input. Note that the completion of the instruction operation includes not only the case where the instruction operation is completed, but also the case where the instruction operation cannot be continued due to a cause such as a fall of the
次に、図5及び図7を参照しながら、ロボット1が一芸を行う指示をされた場合の一例について説明する。前述したとおり、ロボット1が行う一芸とは、直立する動作のことである。なお、移動指示と共通する点については説明を省略する。
Next, an example in which the
ステップS1−1〜S1−3については、ステップS1−3において並列実行する指示動作が異なる点以外は、本例においても前述の場合と共通であるため、説明を省略する。以下図7を参照しながら一芸の場合の指示動作の流れを説明する。 Steps S1-1 to S1-3 are the same as those described above in the present example except that the instruction operation to be executed in parallel in step S1-3 is different, and thus the description thereof is omitted. Hereinafter, the flow of the instruction operation in the case of the first stage will be described with reference to FIG.
制御部110は、ロボット1が水平な場所にいるかを判断し、現在いる場所が水平でない場合、水平な場所までロボット1を移動させる(ステップS3−1)。現在いる場所が水平かどうかは重力センサ222の検知情報により判断する。
The
制御部110は駆動部120を制御して、ロボット1を後方向に直進させる(ステップS3−2)。後方向に直進中に、制御部110は、駆動部120を制御して後輪12に急ブレーキをかける(ステップS3−3)。急ブレーキにより後輪12がロックされ、胴体部10が後方向に回転し、ロボット1が起き上がる。
The
制御部110は、ロボット1が十分に起き上がりこれ以上傾きに変化がない安定状態であるかを判断する(ステップS3−4)。この判断には重力センサ222の検知情報を用いる。ステップS3−1にてロボット1を水平な場所に移動させた場合であっても、その場所が布団の上など、底面が変動しやすい場所の場合、図3(b)に示すとおり、直立するには不安定な環境となる。
The
安定状態でないと判断した場合(ステップS3−4:No)、制御部110はロボット1が転倒してしまったかを判断する(ステップS3−5)。この判断には衝撃センサ221の検知情報、重力センサ222の検知情報に基づいて算出したロボット1の傾きの急激な変化、などを利用する。ロボット1が転倒してしまったと判断した場合(ステップS3−5:Yes)、制御部110は指示動作の実行を終了する。ロボット1が転倒していないと判断した場合(ステップS3−5:No)、ステップS3−4に戻り安定状態の判断からの流れを繰り返す。
When it is determined that the state is not stable (step S3-4: No), the
ステップS3−4にて安定状態であると判断した場合(ステップS3−4:Yes)、ロボット1は一芸に成功したといえるので、一芸の成功に対応して並列に実行される成果表現動作が完了するまで待機する(ステップS3−6)。
If it is determined in step S3-4 that the robot is in a stable state (step S3-4: Yes), it can be said that the
成果表現動作が完了したら、制御部110は、駆動部120を制御して後輪12を前方向に回転させ、ロボット1を水平状態に戻し(ステップS3−7)、指示動作の実行を終了する。
When the result expression operation is completed, the
再び図5を参照しながら動作の流れを説明する。ステップS1−4において、例えば直立に成功したことを成果情報として検出した場合、その時点では図8に示すとおり、対応する成果表現動作が存在するので(ステップS1−5:Yes)、「うまく立ち上がれました!」とロボット1が合成音声による発話をすることにより成果表現動作を実行する(ステップS1−6)。この発話により、ロボット1が問題なく一芸を成功したことを見て喜んでいるユーザに生じると想定される正の感情を増幅することができる。
The operation flow will be described with reference to FIG. 5 again. In step S1-4, for example, when success information is detected as result information, as shown in FIG. 8, there is a corresponding result expression operation (step S1-5: Yes). The
次に、指示動作が終了済みかを判定する(ステップS1−7)。本例において、一芸が成功した後にはロボット1を水平状態に戻す動作を行う必要があるので、一芸が成功した時点では指示動作は終了していない(ステップS1−7:No)。よってステップS1−4に戻り成果検出からの流れを繰り返す。
Next, it is determined whether the instruction operation has been completed (step S1-7). In this example, since it is necessary to perform an operation to return the
その後ステップS1−4にて、例えばロボット1が水平状態に戻れず転倒したことを検知した場合、その時点では図8に示すとおり、対応する成果表現動作が存在するので(ステップS1−5:Yes)、「ちゃんと立ったし!倒れたのも芸の一環だし!」とロボット1が合成音声による発話をすることにより成果表現動作を実行する(ステップS1−6)。この発話により、ロボット1が最後の最後に転倒したところを見たユーザの笑いを誘い、ユーザに生じると想定される負の感情を緩和することができる。
Thereafter, in step S1-4, for example, when it is detected that the
以上、本発明の実施の形態1に係るロボットについて説明をした。ロボット1は、指示された動作を指示動作として実行し、指示動作の成果をロボット1自身で判定し、判定した成果に基づいて、指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する。それにより、ユーザの正の感情を増幅する、負の感情を緩和する、などの効果を生じ、結果としてユーザとの親和性に優れたコミュニケーションをすることができる。
The robot according to
(実施の形態2)
本発明に係るロボットは、ロボットに指示を与えるユーザと指示動作を見るユーザとが別の者であってもよい。以下に説明する、本発明の実施の形態2に係るロボットはその一例である。図面を参照しながら本発明の実施の形態2に係るロボットについて説明する。
(Embodiment 2)
In the robot according to the present invention, the user who gives an instruction to the robot and the user who sees the instruction operation may be different. The robot according to Embodiment 2 of the present invention described below is an example. A robot according to Embodiment 2 of the present invention will be described with reference to the drawings.
図9(a)及び図9(b)はロボット1Aの外観を示す図である。ロボット1Aは小さな荷物を同フロア内で配達することが可能なペット型ロボットであり、屋内での使用が想定されている。ロボット1Aはユーザとコミュニケーションをすることができる。また、ロボット1Aはユーザの指示に反応して、車輪による走行により配達を行うことができる。
FIG. 9A and FIG. 9B are views showing the appearance of the
図9、図2及び図4を参照しながら、ロボット1Aの構成を説明する。なおロボット1Aの構成において、実施の形態1のロボット1の構成と共通する構成要素については同一の符号を付して説明を省略する。
The configuration of the
図9(a)及び図9(b)に示すとおり、ロボット1Aは実施の形態1のロボット1と比較すると、尻尾13を有さず、また胴体部10Aの背面部分には荷台スペース14Aが設けられている。荷台スペース14Aには小さな荷物を置くことが可能であり、ロボット1Aによる配達が可能である。
As shown in FIG. 9A and FIG. 9B, the
ハードウェア構成は図2に示す実施の形態1のロボット1とほぼ同様である。記憶部100内の各種プログラムもおおよそ同様だが、一芸に関する機能は有さない。制御部110が記憶部100内の各種プログラムを実行することにより実現される、コミュニケーション装置1000としての図4に示す各機能部についても実施の形態1のロボット1とほぼ同様だが、やはり一芸に関する機能は有さない。
The hardware configuration is almost the same as that of the
動作についてもおおよそ実施の形態1と同様だが、配達指示を与えるユーザ(以下ユーザ甲とする)と配達を受けるユーザ(以下ユーザ乙とする)とが別の者である点が実施の形態1と異なる。配達が完了した際に行う成果表現動作は、配達完了を見る者であるユーザ乙に対して行う。ただし、例えばユーザ甲がロボット1を見ているときにロボット1Aが転倒した場合、ロボット1Aはユーザ甲に対して転倒に対応する成果表現動作を実行してもよい。
The operation is roughly the same as in the first embodiment, but the user who gives a delivery instruction (hereinafter referred to as user A) and the user who receives the delivery (hereinafter referred to as user B) are different from those in the first embodiment. Different. The result expression operation performed when the delivery is completed is performed on the user B who is the person who sees the completion of the delivery. However, for example, when the
以上、本発明の実施の形態2に係るロボットについて説明をした。ロボット1Aは、指示を与えるユーザと、指示動作を見るユーザとが別の者であっても、指示動作を見たユーザに対して成果表現動作を実行することができる。
The robot according to the second embodiment of the present invention has been described above. The
(実施の形態3)
本発明に係るロボットは、自律移動が不可能であってもよい。以下に説明する、本発明の実施の形態3に係るロボットはその一例である。図面を参照しながら本発明の実施の形態3に係るロボットについて説明する。
(Embodiment 3)
The robot according to the present invention may not be capable of autonomous movement. The robot according to Embodiment 3 of the present invention described below is an example. A robot according to Embodiment 3 of the present invention will be described with reference to the drawings.
図10はロボット1Bの外観を示す図である。一芸が可能なペット型ロボットであり、屋内での使用が想定されている。ロボット1Bはユーザとコミュニケーションをすることができる。また、ロボット1Bはユーザの指示に反応して、一芸として直立をすることができる。
FIG. 10 is a diagram showing an appearance of the
図10、図2及び図4を参照しながら、ロボット1Bの構成を説明する。なおロボット1Bの構成において、実施の形態1のロボット1の構成と共通する構成要素については同一の符号を付して説明を省略する。
The configuration of the
図10に示すとおり、ロボット1Bは実施の形態1のロボット1と比較すると、前輪11及び後輪12を有さず、代わりに前足15B及び後足16Bを備える。前足15Bは胴体部10Bと固定されており、動かすことができない。後足16Bは胴体部10Bと回転軸17Bを介して接続され、駆動部120が胴体部10Bを回転させる際に、後足16Bが支点となる。駆動部120が胴体部10Bを後方向に回転させることにより、図11に示すとおり、ロボット1Bが直立する。そして、ロボット1Bが直立した状態で、駆動部120が胴体部10Bを前方向に回転させることにより、ロボット1Bを水平状態に戻すことができる。
As shown in FIG. 10, the
ハードウェア構成は図2に示す実施の形態1のロボット1とほぼ同様であるが、ロボット1Bは移動が不可能であるため、測域センサ211は備えない構成としてもよい。記憶部100内の各種プログラム及び各種データもおおよそ同様だが、移動に関する機能は有さず、よって地図作成プログラム103及び地図データ105はいずれも有さない。制御部110が記憶部100内の各種プログラムを実行することにより実現される、コミュニケーション装置1000としての図4に示す各機能部についても実施の形態1のロボット1とほぼ同様だが、やはり移動に関する機能は有さず、よって地図作成部1020は有さない。駆動部120は前輪11及び後輪12に代えて回転軸17Bを駆動し、胴体部10Bを回転させる。
The hardware configuration is almost the same as that of the
動作についてもおおよそ実施の形態1と同様だが、移動が不可能であるため、図7に示すステップS3−1の、水平な場所に移動するステップは行わない。水平でない場所にロボット1Bがいる場合、そのまま一芸を試みるか、水平な場所へ移動させるべきことをユーザに報知する。また、ステップS3−2に示す後方向への直進は行わず、ステップS3−3及びステップS3−7に示す後輪12の急ブレーキ及び回転に代えて回転軸17Bの回転を行う。
Although the operation is approximately the same as that of the first embodiment, since the movement is impossible, the step of moving to a horizontal place in step S3-1 shown in FIG. 7 is not performed. When the
以上、本発明の実施の形態3に係るロボットについて説明をした。ロボット1Bは、自律移動が不可能であるが、指示動作を見たユーザに対して成果表現動作を実行することができる。
The robot according to the third embodiment of the present invention has been described above. Although the
(変形例)
実施の形態1〜3において、目21、口22、耳23の内部に各種機器を備える構成としたが、各種機器が設けられる場所はこれらの箇所に限られない。例えば尻尾13の先端に重力センサ222を設けてもよいし、胴体部10の内部に衝撃センサ221を設けてもよい。
(Modification)
In the first to third embodiments, various devices are provided inside the
実施の形態1〜3においては、「ペットらしさ」の実現のため、ユーザがロボットに対して指示を入力する方法として、音声による入力方法と頭を叩く方法を示したが、入力方法はこれらに限られない。例えば胴体部10の背中部分にタッチパネルを設け、これによりロボットに対する指示を入力可能としてもよい。
In the first to third embodiments, a voice input method and a head hitting method have been shown as methods for a user to input an instruction to the robot in order to realize “pet-likeness”. Not limited. For example, a touch panel may be provided on the back portion of the
実施の形態1及び2に係るロボットは環境地図情報を作成する機能を有するが、この機能を備えない構成としてもよい。環境地図情報を用いなくとも指示動作の実行により一定の成果を得ることができるからである。同様に、指示動作の実行により一定の成果を得ることができ、その成果に係る成果表現動作を実行可能であれば、実施の形態1〜3に係るロボットから一部の機能を省略した構成としてもよい。
The robot according to
実施の形態1で例示した成果表現動作は、ユーザの正の感情を増幅させるもの、ユーザの負の感情を緩和させるものを主としたが、成果表現動作として採用可能な動作はこれらに限られない。例えば近年、人間に多少の負の感情を与える、いわゆる「ウザキャラ」が台頭しており、ペット型ロボットの性格付けをこのようなキャラクタとすることが考えられる。その場合、ユーザに生じた正の感情を増幅させる動作に、あえてユーザに負の感情を生じさせると想定される動作を混ぜて実行することにより、「ウザキャラ」としてのキャラクタ付けが強調され、人間との親和性の向上を図ることができる。また、同様に、ユーザに生じた負の感情を緩和させる動作に、ユーザに正の感情を生じさせると想定される動作を混ぜて実行することによっても、特定のキャラクタ付けをすることができる。 Although the result expression operation exemplified in the first embodiment is mainly the one that amplifies the user's positive emotion and the one that alleviates the user's negative emotion, the operations that can be adopted as the result expression operation are limited to these. Absent. For example, in recent years, so-called “Uza-chara” that gives some negative feelings to humans has emerged, and it is conceivable that the personality of a pet-type robot is such a character. In that case, characterizing as “Uza-chara” is emphasized by executing the operation that amplifies the positive emotion generated in the user and the operation that is supposed to generate a negative emotion in the user. The affinity with can be improved. Similarly, a specific character can be attached by executing an operation that alleviates a negative emotion generated in the user and an operation that is assumed to generate a positive emotion in the user.
ロボットの動作は、図5、図6及び図7で例示したものに限られず、適宜変更が可能である。例えば各ステップの順序を適宜変更してもよい。 The operation of the robot is not limited to those illustrated in FIGS. 5, 6, and 7, and can be changed as appropriate. For example, the order of each step may be changed as appropriate.
実施の形態1では、制御部110が記憶部100内の各種プログラムを実行することでロボット1がコミュニケーション装置1000として機能することを示した。この場合において、制御部110がOS(Operating System)のプログラムを実行しているときは、記憶部100内の各種プログラムの機能の一部をOSの機能により代替してもよい。OSのプログラムは記憶部100内に記憶してもよいし、制御部110にROM(Read Only Memory)を設け、ROM内に記憶してもよい。また、記憶部100内に各種プログラムを記憶する代わりに、制御部110にネットワーク通信機能を設け、ネットワーク上のプログラム配信サーバから各種プログラムを取得して実行する形態としてもよい。
In the first embodiment, it is shown that the
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 The preferred embodiments of the present invention have been described above. However, the present invention is not limited to the specific embodiments, and the present invention includes the invention described in the claims and the equivalent scope thereof. included. Hereinafter, the invention described in the scope of claims of the present application will be appended.
(付記)
(付記1)
外部からの指示に基づく動作を指示動作として実行する指示動作実行部と、
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備えるコミュニケーション装置。
(Appendix)
(Appendix 1)
An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
A communication device comprising:
(付記2)
前記成果検出部が検出する成果情報を時系列的に記憶する成果記憶部を更に備え、
前記成果表現動作実行部は、前記成果記憶部がこれまでに記憶した成果情報を参照して前記成果表現動作を実行する、
ことを特徴とする付記1に記載のコミュニケーション装置。
(Appendix 2)
A result storage unit that stores the result information detected by the result detection unit in a time series;
The result expression operation executing unit executes the result expression operation with reference to the result information stored by the result storage unit so far.
The communication apparatus according to
(付記3)
前記指示動作実行部は、自装置を移動させる動作を実行し、
前記成果検出部は、前記外部からの指示が目的地へ移動する指示であるとき、自装置が前記目的地への移動を完了するまでに要した時間を前記成果情報として検出する、
ことを特徴とする付記1または2に記載のコミュニケーション装置。
(Appendix 3)
The instruction operation execution unit executes an operation of moving the own device,
The result detection unit detects, as the result information, the time required for the device to complete the movement to the destination when the instruction from the outside is an instruction to move to the destination.
The communication apparatus according to
(付記4)
周囲の環境を環境情報として検知し、前記環境情報に基づいて環境地図情報を作成する地図作成部を更に備え、
前記外部からの指示が目的地へ移動する指示であるとき、前記指示動作実行部は、前記環境地図情報に基づいて自装置を移動させ、
前記成果検出部は、自装置が前記目的地への移動を完了するまでに経た経路を前記成果情報として検出する、
ことを特徴とする付記1または2に記載のコミュニケーション装置。
(Appendix 4)
A map creation unit that detects surrounding environment as environment information and creates environment map information based on the environment information;
When the instruction from the outside is an instruction to move to a destination, the instruction operation execution unit moves the own apparatus based on the environmental map information,
The result detection unit detects, as the result information, a route taken until the device completes moving to the destination.
The communication apparatus according to
(付記5)
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに正の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた正の感情を増幅させる動作を実行する、
ことを特徴とする付記1から4のいずれか1つに記載のコミュニケーション装置。
(Appendix 5)
When it is assumed that the result of the instruction operation executed by the instruction operation execution unit causes the user to produce a positive emotion, the result expression operation execution unit performs positive emotion generated on the user as the result expression operation. Execute the operation to amplify,
5. The communication device according to any one of
(付記6)
前記成果表現動作実行部は、前記ユーザに生じた正の感情を増幅させる動作に前記ユーザに負の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする付記5に記載のコミュニケーション装置。
(Appendix 6)
The result expression operation execution unit executes specific characterization by mixing an operation that amplifies a positive emotion generated in the user with an operation that is assumed to generate a negative emotion in the user.
The communication device according to appendix 5, characterized in that:
(付記7)
前記成果表現動作実行部は、前記指示動作実行部が実行した指示動作の成果が前記ユーザに負の感情を生じさせると想定されるときには、前記成果表現動作として、前記ユーザに生じた負の感情を緩和させる動作を実行する、
ことを特徴とする付記1から6のいずれか1つに記載のコミュニケーション装置。
(Appendix 7)
When the result of the instruction operation executed by the instruction operation execution unit is assumed to cause a negative emotion for the user, the result expression operation execution unit is configured to output a negative emotion generated for the user as the result expression operation. Perform actions to mitigate,
The communication device according to any one of
(付記8)
前記成果表現動作実行部は、前記ユーザに生じた負の感情を緩和させる動作に前記ユーザに正の感情を生じさせると想定される動作を混ぜることにより、特定のキャラクタ付けを実行する、
ことを特徴とする付記7に記載のコミュニケーション装置。
(Appendix 8)
The result expression operation execution unit executes specific characterization by mixing an operation that is assumed to cause a positive emotion in the user into an operation that alleviates the negative emotion generated in the user,
The communication device according to appendix 7, characterized by:
(付記9)
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を備えるコミュニケーション方法。
(Appendix 9)
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A communication method comprising:
(付記10)
コンピュータに、
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を実行させるプログラム。
(Appendix 10)
On the computer,
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A program that executes
1、1A、1B…ロボット、10、10A、10B…胴体部、11…前輪、12…後輪、13…尻尾、14A…荷台スペース、15B…前足、16B…後足、17B…回転軸、20…頭部、21…目、22…口、23…耳、100…記憶部、101…指示認識プログラム、102…動作制御プログラム、103…地図作成プログラム、104…成果判定プログラム、105…地図データ、106…成果データ、110…制御部、120…駆動部、211…測域センサ、212…人感センサ、221…衝撃センサ、222…重力センサ、223…スピーカ、231…カメラ、232…マイク、1000…コミュニケーション装置、1001…指示動作実行部、1002…成果検出部、1003…成果表現動作実行部、1010…成果記憶部、1020…地図作成部、1100…指示受付部
DESCRIPTION OF
Claims (10)
前記指示動作実行部が実行した指示動作の成果を成果情報として検出する成果検出部と、
前記成果検出部が検出した成果情報に基づいて、前記指示動作実行部が実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行部と、
を備えるコミュニケーション装置。 An instruction operation execution unit that executes an operation based on an instruction from the outside as an instruction operation;
A result detection unit that detects a result of the instruction operation executed by the instruction operation execution unit as result information;
Based on the result information detected by the result detection unit, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who viewed the instruction operation performed by the instruction operation execution unit is executed as a result expression operation. The result expression operation execution unit
A communication device comprising:
前記成果表現動作実行部は、前記成果記憶部がこれまでに記憶した成果情報を参照して前記成果表現動作を実行する、
ことを特徴とする請求項1に記載のコミュニケーション装置。 A result storage unit that stores the result information detected by the result detection unit in a time series;
The result expression operation executing unit executes the result expression operation with reference to the result information stored by the result storage unit so far.
The communication device according to claim 1.
前記成果検出部は、前記外部からの指示が目的地へ移動する指示であるとき、自装置が前記目的地への移動を完了するまでに要した時間を前記成果情報として検出する、
ことを特徴とする請求項1または2に記載のコミュニケーション装置。 The instruction operation execution unit executes an operation of moving the own device,
The result detection unit detects, as the result information, the time required for the device to complete the movement to the destination when the instruction from the outside is an instruction to move to the destination.
The communication apparatus according to claim 1 or 2, wherein
前記外部からの指示が目的地へ移動する指示であるとき、前記指示動作実行部は、前記環境地図情報に基づいて自装置を移動させ、
前記成果検出部は、自装置が前記目的地への移動を完了するまでに経た経路を前記成果情報として検出する、
ことを特徴とする請求項1または2に記載のコミュニケーション装置。 A map creation unit that detects surrounding environment as environment information and creates environment map information based on the environment information;
When the instruction from the outside is an instruction to move to a destination, the instruction operation execution unit moves the own apparatus based on the environmental map information,
The result detection unit detects, as the result information, a route taken until the device completes moving to the destination.
The communication apparatus according to claim 1 or 2, wherein
ことを特徴とする請求項1から4のいずれか1項に記載のコミュニケーション装置。 When it is assumed that the result of the instruction operation executed by the instruction operation execution unit causes the user to produce a positive emotion, the result expression operation execution unit performs positive emotion generated on the user as the result expression operation. Execute the operation to amplify,
The communication apparatus according to any one of claims 1 to 4, wherein:
ことを特徴とする請求項5に記載のコミュニケーション装置。 The result expression operation execution unit executes specific characterization by mixing an operation that amplifies a positive emotion generated in the user with an operation that is assumed to generate a negative emotion in the user.
The communication device according to claim 5.
ことを特徴とする請求項1から6のいずれか1項に記載のコミュニケーション装置。 When the result of the instruction operation executed by the instruction operation execution unit is assumed to cause a negative emotion for the user, the result expression operation execution unit is configured to output a negative emotion generated for the user as the result expression operation. Perform actions to mitigate,
The communication apparatus according to any one of claims 1 to 6, wherein
ことを特徴とする請求項7に記載のコミュニケーション装置。 The result expression operation execution unit executes specific characterization by mixing an operation that is assumed to cause a positive emotion in the user into an operation that alleviates the negative emotion generated in the user,
The communication apparatus according to claim 7.
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を備えるコミュニケーション方法。 An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A communication method comprising:
外部からの指示に基づく動作を指示動作として実行する指示動作実行ステップと、
前記指示動作実行ステップで実行した指示動作の成果を成果情報として検出する成果検出ステップと、
前記成果検出ステップで検出した成果情報に基づいて、前記指示動作実行ステップで実行した指示動作を見たユーザの感情に良い影響を与えると想定される感情表現動作を含む動作を成果表現動作として実行する成果表現動作実行ステップと、
を実行させるプログラム。 On the computer,
An instruction operation execution step for executing an operation based on an instruction from the outside as an instruction operation;
A result detection step of detecting the result of the instruction operation executed in the instruction operation execution step as result information;
Based on the result information detected in the result detection step, an operation including an emotion expression operation that is assumed to have a positive effect on the emotion of the user who has seen the instruction operation executed in the instruction operation execution step is executed as a result expression operation. A performance expression action execution step,
A program that executes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129005A JP2019010708A (en) | 2017-06-30 | 2017-06-30 | Communication device, communication method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017129005A JP2019010708A (en) | 2017-06-30 | 2017-06-30 | Communication device, communication method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019010708A true JP2019010708A (en) | 2019-01-24 |
Family
ID=65227188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017129005A Pending JP2019010708A (en) | 2017-06-30 | 2017-06-30 | Communication device, communication method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019010708A (en) |
-
2017
- 2017-06-30 JP JP2017129005A patent/JP2019010708A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7689319B2 (en) | Communication robot control system | |
US11338429B2 (en) | Robot | |
JP5366048B2 (en) | Information provision system | |
JP4239635B2 (en) | Robot device, operation control method thereof, and program | |
JP7180139B2 (en) | Robot, robot control method and program | |
JP2009025898A (en) | Route planning device, route planning method and traveling object | |
JP2011000681A (en) | Communication robot | |
US20180329409A1 (en) | Portable mobile robot and operation thereof | |
JP6565853B2 (en) | Communication device | |
WO2018020889A1 (en) | Robot | |
US20220097230A1 (en) | Robot control device, robot control method, and program | |
US11780098B2 (en) | Robot, robot control method, and recording medium | |
US11969876B2 (en) | Robot and control method of robot | |
JP6893630B2 (en) | Service provision robot system | |
JP7139643B2 (en) | Robot, robot control method and program | |
JP2019010708A (en) | Communication device, communication method and program | |
JP5324956B2 (en) | Road guidance robot | |
JP2019193705A (en) | Game program and game device | |
CN111195902B (en) | Main control unit based on modular robot and modular robot | |
JP2005335001A (en) | Robot control device and method, recording medium, and program | |
JP2020179005A (en) | Robot and method | |
JP7258438B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD | |
JP2020156607A (en) | Control device, robot, control method, and program | |
CN111421557B (en) | Electronic device and control method thereof | |
JP7133840B2 (en) | ROBOT, ROBOT CONTROL PROGRAM AND ROBOT CONTROL METHOD |