JP2017104532A - Interaction assistance system - Google Patents

Interaction assistance system Download PDF

Info

Publication number
JP2017104532A
JP2017104532A JP2016232169A JP2016232169A JP2017104532A JP 2017104532 A JP2017104532 A JP 2017104532A JP 2016232169 A JP2016232169 A JP 2016232169A JP 2016232169 A JP2016232169 A JP 2016232169A JP 2017104532 A JP2017104532 A JP 2017104532A
Authority
JP
Japan
Prior art keywords
robot
support system
doll
pedestal
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016232169A
Other languages
Japanese (ja)
Inventor
寿幸 瀬川
Toshiyuki Segawa
寿幸 瀬川
武史 平井
Takeshi Hirai
武史 平井
礼央 松村
Norihisa Matsumura
礼央 松村
靖 足立
Yasushi Adachi
靖 足立
鈴木 英樹
Hideki Suzuki
英樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tasukakeru Inc
Original Assignee
Tasukakeru Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tasukakeru Inc filed Critical Tasukakeru Inc
Publication of JP2017104532A publication Critical patent/JP2017104532A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an interaction assistance system that assists a plurality of persons in sharing experience and emotion and interacting through the experience and emotion.SOLUTION: An interaction assistance system comprises: a sound collecting microphone; a speaker that outputs sound; a robot; a driving mechanism that drives the robot; and a control device that controls the driving mechanism.SELECTED DRAWING: Figure 1

Description

本発明は、複数の人が体験や感動を共有し、該体験や感動を通して交流を図ることを支援する交流支援システムに関する。   The present invention relates to an exchange support system that supports a plurality of people to share experiences and impressions and to exchange with each other through the experiences and impressions.

近年、ロボットを使い、複数の人が体験や感動を共有し、該体験や感動を通して人同士が交流を図ることが提案され注目を浴びている。例えば、近年、著名人が地方を旅行し、地元の人々と交流をする番組がTV等で放送され高視聴率を博している。また、インターネットでも、旅行等の工程を撮影した動画の視聴回数が上昇しており、人気があることが伺える。   In recent years, using a robot, it has been proposed and attracted attention that a plurality of people share experiences and impressions, and people exchange with each other through the experiences and impressions. For example, recently, a program in which a celebrity travels in a rural area and interacts with local people is broadcast on TV and the like, and has gained a high audience rating. On the Internet, it can be seen that the number of views of moving pictures taken during a trip and the like has increased, making it popular.

このように、近年では、多くの人が、他の人の実体験(リアルエクスペリエンス)を擬似体験(バーチャルエクスペリエンス)することを望んでいる。また、高齢化社会が進む中で一人暮らしや単身で施設に入居する高齢者が増えている。このような、施設においては、ロボットを用いてレクレーションを行うことが行われている。具体的には、複数の高齢者がロボットの動作に合わせて歌ったり踊ったり、体操をすることで体験を共有するとともに、該体験の共有を通して他者との交流を図っている。   As described above, in recent years, many people desire to experience (virtual experience) other people's actual experiences (real experiences). In addition, as the aging society progresses, more and more elderly people are living alone or living alone. In such a facility, recreation is performed using a robot. Specifically, a plurality of elderly people share experiences by singing, dancing, and doing gymnastics in accordance with the movement of the robot, and exchange with others through sharing the experiences.

例えば、下記特許文献1には、ロボットが高齢者の話し相手になって、孤独感を抱く高齢者の精神的なケアを図るシステムが開示されている。このロボットは、音声による対話の機能を備えており、高齢者の発話の意味を汲み取るため、高齢者の音声を認識してテキストデータに変換し、テキストデータの構文解析やキーワードの抽出を通じて発話の意味を分析する。次いで、応答内容に応じたテキストデータを生成し、このテキストに基づいて音声合成した音声、あるいは、予め登録されている音声をテキストに従って編集した音声をスピーカから出力する。   For example, Patent Document 1 below discloses a system in which a robot becomes a talking partner of an elderly person and performs mental care for the elderly person who feels lonely. This robot is equipped with a voice interaction function, and in order to capture the meaning of utterances of the elderly, the robot recognizes the speech of the elderly and converts it into text data. Analyze meaning. Next, text data corresponding to the response content is generated, and voice synthesized by voice based on the text or voice edited in accordance with the text is output from the speaker.

特開2002−261966号公報JP 2002-261966 A

以上のように、複数の人が体験や感動を共有し、該体験や感動を通して交流を図ることを支援する交流支援システムが強く求められている。
本発明は、上記課題の解決のためになされたものであり、複数の人が体験や感動を共有し、該体験や感動を通して交流を図ることができる交流支援システムを提供することを目的とする。
As described above, there is a strong demand for an exchange support system that supports a plurality of people to share experiences and impressions and to exchange with each other through the experiences and impressions.
The present invention has been made to solve the above-described problems, and an object thereof is to provide an AC support system in which a plurality of people share experiences and impressions and can exchange with each other through the experiences and impressions. .

上記の課題を解決すべく、本発明に係る交流支援システムは、集音用のマイクと、音を出力するスピーカと、ロボットと、前記ロボットを駆動する駆動機構と、前記駆動機構を制御する制御装置とを備える。本発明では、マイクを通して収集される音を共有することができ、また、スピーカから音声を出力できるので双方向のコミュニケーションを行うことができる。このため、効果的に体験を共有し、該体験や感動を通して交流を図ることができる。また、ロボットを動作させることができるので、あたかも生きた人形とコミュニケーションをしているような効果を得ることができ交流の活性化が期待できる。   In order to solve the above problems, an AC support system according to the present invention includes a microphone for collecting sound, a speaker that outputs sound, a robot, a drive mechanism that drives the robot, and a control that controls the drive mechanism. Device. In the present invention, sound collected through a microphone can be shared, and sound can be output from a speaker, so bidirectional communication can be performed. For this reason, an experience can be shared effectively and exchange can be aimed at through this experience and impression. In addition, since the robot can be operated, it is possible to obtain an effect as if it were communicating with a living doll and activation of exchange can be expected.

本発明に係る交流支援システムは、撮像用のカメラを備える。本発明では、該カメラで撮像される映像又は画像を共有することでより効果的に体験を共有することができ、効果的に交流することができる。   The AC support system according to the present invention includes an imaging camera. In the present invention, it is possible to share the experience more effectively by sharing the video or image captured by the camera, and to exchange effectively.

本発明に係る交流支援システムの前記制御装置は、ネットワークを介してデータサーバに接続され、前記データサーバは、前記マイクで集音されるオーディオデータ及び前記ロボットの動作データの少なくとも一方を識別情報に関連付けて蓄積する。本発明では、オーディオデータ及び前記ロボットの動作データの少なくとも一方を識別情報に関連付けて蓄積することで、識別情報を指定して簡単に呼び出し利用することができる。   The control device of the AC support system according to the present invention is connected to a data server via a network, and the data server uses at least one of audio data collected by the microphone and operation data of the robot as identification information. Accumulate in association. In the present invention, at least one of the audio data and the robot motion data is stored in association with the identification information, so that the identification information can be designated and used easily.

本発明に係る交流支援システムの前記制御装置は、前記データサーバに蓄積された前記オーディオデータ及び前記動作データの少なくとも一方を前記識別情報毎に取得し、該取得した前記オーディオデータ及び前記動作データの少なくとも一方に基づいて、前記スピーカから出力される音及び前記ロボットの動作の少なくとも一方を再生(再現)する。本発明では、データサーバに蓄積されたオーディオデータ及び動作データの少なくとも一方を取得して音及びロボットの動作の少なくとも一方を再生(再現)できるので、より多くの人が体験や感動を共有することができる。このため、簡易に体験を共有して交流を図ることができる。   The control device of the AC support system according to the present invention acquires at least one of the audio data and the motion data stored in the data server for each identification information, and stores the acquired audio data and motion data. Based on at least one, at least one of the sound output from the speaker and the operation of the robot is reproduced (reproduced). In the present invention, at least one of audio data and motion data stored in the data server can be acquired and at least one of sound and robot motion can be reproduced (reproduced), so that more people can share experiences and emotions. Can do. For this reason, it is possible to easily share experiences and exchanges.

本発明に係る交流支援システムは、前記ロボットを操作するための入力装置を備え、前記制御装置は、前記入力装置からの操作指示に基づいて、前記駆動機構を制御する。そして、前記入力装置の姿勢変化を検出する検出装置を備え、前記制御装置は、前記検出装置からの出力に基づいて前記駆動機構を制御する。このようにすれば、入力装置の操作者が容易にロボットを操作することができる。なお、検出装置は、例えば入力装置に設けられる3軸加速度センサやジャイロとするとよい。   The AC support system according to the present invention includes an input device for operating the robot, and the control device controls the drive mechanism based on an operation instruction from the input device. A detection device that detects a change in posture of the input device is provided, and the control device controls the drive mechanism based on an output from the detection device. In this way, the operator of the input device can easily operate the robot. For example, the detection device may be a three-axis acceleration sensor or a gyro provided in the input device.

本発明に係る交流支援システムでは、前記ロボットは、装着者の肩で保持される保持具に接続されるとよい。このようにすれば、装着者にロボットまたは入力装置を利用してロボットを操作している操作者と一緒にいるという感覚をことを与えることができる。   In the AC support system according to the present invention, the robot may be connected to a holder that is held by the shoulder of the wearer. In this way, it is possible to give the wearer the feeling of being with the operator who is operating the robot using the robot or the input device.

本発明に係る交流支援システムは、ベース部と、前記ベース部に固定された第1乃至第6の駆動機構と、一端が前記第1乃至第6の駆動機構に夫々接続され、前記第1乃至第6の駆動機構の回転運動により駆動させられる第1乃至第6のアームと、一端が前記第1乃至第6のアームの他端に自在継手により接続され、他端が前記台座に自在継手により接続された第1乃至第6のリンク機構とを備え、前記制御装置は、前記第1乃至第6の駆動機構を夫々独立して制御し、前記第1乃至第6のアーム及び前記第1乃至第6のリンク機構を介して前記台座を動作させる。本発明では、台座に複雑な動作を行わせることができるので、台座上に載置される人形にあたかも生きているような臨場感ある動作を行わせることができる。このため、より効果的に係る体験を共有して交流を図ることができる。   The AC support system according to the present invention includes a base portion, first to sixth drive mechanisms fixed to the base portion, and one end connected to the first to sixth drive mechanisms, respectively. First to sixth arms driven by the rotational movement of the sixth driving mechanism, one end is connected to the other end of the first to sixth arms by a universal joint, and the other end is connected to the pedestal by a universal joint. Connected to the first to sixth link mechanisms, the control device independently controls the first to sixth drive mechanisms, and the first to sixth arms and the first to sixth links. The pedestal is operated via a sixth link mechanism. In the present invention, since the pedestal can perform a complicated operation, it is possible to perform a realistic operation as if the doll placed on the pedestal is alive. For this reason, it is possible to share the experiences more effectively and exchange with each other.

本発明に係る交流支援システムは、前記ロボットを操作するための入力装置を備え、前記制御装置は、前記入力装置からの操作指示に基づいて前記第1乃至第6の駆動機構を制御する。本発明では、入力装置から台座の動作を制御することができる。このため、相手の状況を確認しながら台座の動作を変化させたりすることができ、効果的に体験を共有して交流を図ることができる。   The AC support system according to the present invention includes an input device for operating the robot, and the control device controls the first to sixth drive mechanisms based on an operation instruction from the input device. In the present invention, the operation of the pedestal can be controlled from the input device. For this reason, it is possible to change the operation of the pedestal while confirming the situation of the other party, and it is possible to effectively share experiences and exchanges.

本発明に係る交流支援システムは、前記入力装置の傾きを検出する検出装置を備え、前記制御装置は、前記検出装置からの出力に基づいて前記第1乃至第6の駆動機構を制御する。本発明では、台座の状態を検出する検出装置からの出力に基づいて第1乃至第6の駆動機構を制御している。具体的には、入力装置の傾きに応じて台座の傾きを制御している。このため、入力装置を傾ける簡易な操作でロボットを制御することができる。   The AC support system according to the present invention includes a detection device that detects an inclination of the input device, and the control device controls the first to sixth drive mechanisms based on an output from the detection device. In the present invention, the first to sixth drive mechanisms are controlled based on the output from the detection device that detects the state of the pedestal. Specifically, the inclination of the pedestal is controlled according to the inclination of the input device. For this reason, the robot can be controlled by a simple operation of tilting the input device.

本発明に係る交流支援システムの検出装置は、ジャイロ又は3軸加速度センサである。本発明では、検出装置にジャイロ又は3軸加速度センサを用いているので、3次元における台座の状態を検出することができる。   The detection device of the AC support system according to the present invention is a gyro or a triaxial acceleration sensor. In the present invention, since a gyroscope or a triaxial acceleration sensor is used as the detection device, the state of the pedestal in three dimensions can be detected.

本発明に係る交流支援システムの制御装置は、前記台座上に載置される人形から前記人形の種別毎に付与された固有のIDを取得し、該取得したID毎に前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を変更する。本発明では、人形の種別毎に付与された固有のIDに応じて第1乃至第6の駆動機構を制御する際に使用するパラメータ群を自動で変更するので、台座に載置する人形毎に動作に必要なパラメータ群を手動で設定する必要がなく、簡易にロボットを操作することができる。   The control device of the AC support system according to the present invention acquires a unique ID assigned to each type of the doll from the doll placed on the pedestal, and the first to sixth for each acquired ID. The parameter group used when controlling the drive mechanism is changed. In the present invention, since the parameter group used when controlling the first to sixth drive mechanisms is automatically changed according to the unique ID assigned to each doll type, each doll placed on the pedestal is changed. There is no need to manually set parameter groups necessary for operation, and the robot can be operated easily.

本発明に係る交流支援システムの制御装置は、前記台座上に載置される人形の画像データに基づいて、前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を変更する。本発明では、台座上に載置される人形の画像データに基づいて、前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を自動で変更するので、台座に載置する人形毎に動作に必要なパラメータ群を手動で設定する必要がなく、簡易にロボットを操作することができる。   The control device of the AC support system according to the present invention changes a parameter group used when controlling the first to sixth drive mechanisms based on image data of a doll placed on the pedestal. In the present invention, the parameter group used when controlling the first to sixth drive mechanisms is automatically changed based on the image data of the doll placed on the pedestal, so the doll placed on the pedestal It is not necessary to manually set a parameter group necessary for each operation, and the robot can be operated easily.

本発明に係る交流支援システムの制御装置は、前記第1乃至第6の駆動機構を制御するための正規化データである基本パラメータ群を、前記人形の種別毎に変換して前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を生成する。本発明では、台座に載置される人形毎にパラメータ群を用意する必要がないため制御装置の演算処理等の動作負荷を低減することができる。   The control apparatus for an AC support system according to the present invention converts a basic parameter group, which is normalized data for controlling the first to sixth drive mechanisms, for each type of the doll to convert the first to the first. The parameter group used when controlling the drive mechanism 6 is generated. In the present invention, since it is not necessary to prepare a parameter group for each doll placed on the pedestal, it is possible to reduce an operation load such as arithmetic processing of the control device.

以上説明したように、本発明によれば、複数の人が体験や感動を共有し、該体験や感動を通して交流を図ることを支援する交流支援システムを提供することができる。   As described above, according to the present invention, it is possible to provide an exchange support system that supports a plurality of people to share experiences and impressions and to exchange with each other through the experiences and impressions.

第1の実施形態に係る交流支援システムの概略図である。It is a schematic diagram of an exchange support system concerning a 1st embodiment. 第1の実施形態に係る交流支援システムが備える旅ロボの構成図である。It is a lineblock diagram of the trip robot with which the exchange support system concerning a 1st embodiment is provided. 第1の実施形態に係る交流支援システムが備える肩乗りロボットの構成図である。It is a lineblock diagram of the shoulder riding robot with which the exchange support system concerning a 1st embodiment is provided. (a)は、肩乗りロボットを旅行者の肩に乗せた状態の側面図であり、(b)は肩乗りロボットを旅行者の肩に乗せた状態の正面図である。(A) is a side view of the state where the shoulder riding robot is placed on the traveler's shoulder, and (b) is a front view of the state where the shoulder riding robot is placed on the shoulder of the traveler. 第1の実施形態に係る交流支援システムが備える人形を示す図である。It is a figure which shows the doll with which the exchange assistance system which concerns on 1st Embodiment is provided. 第1の実施形態に係る交流支援システムが備える肩乗りロボットの機能構成図である。It is a functional lineblock diagram of a shoulder robot provided with an exchange support system concerning a 1st embodiment. 第1の実施形態に係る交流支援システムが備える旅ロボの使用例を示す図である。It is a figure which shows the usage example of the travel robot with which the exchange assistance system which concerns on 1st Embodiment is provided. 操作インタフェースの一例を示す図である。It is a figure which shows an example of an operation interface. 第1の実施形態に係る交流支援システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the alternating current assistance system which concerns on 1st Embodiment. 第2の実施形態に係る交流支援システムの概略図である。It is the schematic of the alternating current assistance system which concerns on 2nd Embodiment. 第2の実施形態に係る交流支援システムが備える台座ロボットの構成図である。It is a block diagram of the base robot with which the alternating current assistance system which concerns on 2nd Embodiment is provided. 第2の実施形態に係る交流支援システムが備える台座ロボットの構成図である。It is a block diagram of the base robot with which the alternating current assistance system which concerns on 2nd Embodiment is provided. 第2の実施形態に係る交流支援システムが備えるレクロボの動作を示す図である。It is a figure which shows operation | movement of the revolver with which the alternating current support system which concerns on 2nd Embodiment is provided. 第2の実施形態に係る交流支援システムが備えるレクロボの動作を示す図である。It is a figure which shows operation | movement of the revolver with which the alternating current support system which concerns on 2nd Embodiment is provided. 第2の実施形態に係る交流支援システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the alternating current assistance system which concerns on 2nd Embodiment. 第2の実施形態に係る交流支援システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of the alternating current assistance system which concerns on 2nd Embodiment.

(第1の実施形態)
図1は、第1の実施形態に係る交流支援システムの概略図である。図1に示すように、第1の実施形態に係る交流支援システムは、旅行者が肩に乗せて使用する旅ロボ1と、旅ロボ1の制御装置2(例えば、旅行者が携帯するノートPC、タブレット端末やスマートフォン等)と、ネットワークを介して制御装置2と接続されるサーバ3(データサーバ)とを備える。ユーザは、自身が所持する複数の端末4(例えば、後述のユーザが所持するデスクトップPC、ノートPC、タブレット端末やスマートフォン等)を使用し、ネットワークを介してサーバ3にアクセス(ログイン)する。
(First embodiment)
FIG. 1 is a schematic diagram of an AC support system according to the first embodiment. As shown in FIG. 1, the exchange support system according to the first embodiment includes a travel robot 1 used by a traveler on the shoulder, and a control device 2 for the travel robot 1 (for example, a notebook PC carried by the traveler). A tablet terminal or a smartphone) and a server 3 (data server) connected to the control device 2 via a network. A user accesses (logs in) the server 3 via a network using a plurality of terminals 4 (for example, a desktop PC, a notebook PC, a tablet terminal, a smartphone, or the like, which are described later).

ここで、旅ロボ1は、旅行者と一緒に旅行先をまわり、この旅行者が見た映像や会話(実体験)をサーバにアップロードして、ユーザが視聴したり、実際にユーザが会話に参加したりすることで実体験や感動を共有し、該体験や感動を通して人同士が交流を図ることを目的に使用される。   Here, the traveling robot 1 travels with the traveler and travels to the server, uploads videos and conversations (actual experiences) seen by the traveler to the server, and allows the user to view or actually talk to the user. It is used for the purpose of sharing actual experiences and excitement by participating, and having people interact with each other through the experience and excitement.

図2は、第1の実施形態に係る交流支援システムが備える旅ロボ1の構成図である。図2に示すように、旅ロボ1は、旅行者の肩に乗せる肩乗りロボット10と、肩乗りロボット10に覆い被せて使用する人形(キャラクタ)20とを備えている。   FIG. 2 is a configuration diagram of the travel robot 1 included in the AC support system according to the first embodiment. As shown in FIG. 2, the travel robot 1 includes a shoulder-carrying robot 10 that is placed on a traveler's shoulder, and a doll (character) 20 that is used by covering the shoulder-carrying robot 10.

図3は、肩乗りロボット10の構成図である。図3に示すように、肩乗りロボット10は、集音用のマイク110と、撮像用のカメラ120と、音声出力用のスピーカ130と、本体部140と、駆動部150(駆動機構)と、フック160とを備えている。本体部140は、肩乗りロボット10の動作を制御する。   FIG. 3 is a configuration diagram of the shoulder robot 10. As shown in FIG. 3, the shoulder robot 10 includes a microphone 110 for sound collection, a camera 120 for imaging, a speaker 130 for audio output, a main body 140, a drive unit 150 (drive mechanism), And a hook 160. The main body 140 controls the operation of the shoulder robot 10.

マイク110、カメラ120、スピーカ130及び本体部140は、台座(不図示)を介して駆動部150上に載置されており、駆動部150は、この台座(不図示)を3軸方向(上下(ティルト)、左右(パン)、回転)に駆動させるモータ等を備えている。台座を駆動することにより、肩乗りロボット10及び人形20の向きを変えるとともに、カメラ120の視野方向を変えることができる。   The microphone 110, the camera 120, the speaker 130, and the main body 140 are placed on a drive unit 150 via a pedestal (not shown), and the drive unit 150 moves the pedestal (not shown) in three axial directions (up and down). (Tilt), left and right (pan), rotation) motors and the like are provided. By driving the pedestal, the direction of the shoulder robot 10 and the doll 20 can be changed, and the visual field direction of the camera 120 can be changed.

また、駆動部150は、後述の人形(キャラクタ)の眼球を2軸方向(上下(ティルト)、左右(パン))に駆動させるモータ等を備えている。さらに、後述の人形(キャラクタ)の瞼を開閉駆動させるモータ等を備えている。眼球や瞼を駆動することにより、人形20に様々な表情を持たせ、ユーザの感情を非言語により旅行者やその周囲に居る人に伝えることができ、旅行者にユーザと一緒に旅をしている感覚を与えることができる。この眼球や瞼の駆動は台座の駆動とは無関係に構成するとよい。このようにすれば、カメラ120の視野方向に影響を与えずに人形20の表情を変化させることができる。なお、眼球、瞼に代えて又は加えて、口、手足などを駆動するようにしてもよい。このようにすれば表現をユーザの感情をより豊かに表現できる。   The driving unit 150 includes a motor that drives the eyeball of a doll (character), which will be described later, in two axial directions (up and down (tilt) and left and right (pan)). In addition, a motor for opening and closing a puppet (character) to be described later is provided. By driving the eyeballs and eyelids, the doll 20 can have various expressions, and the emotions of the user can be conveyed to the traveler and the people around them in non-language, so that the traveler can travel with the user. Can give you a sense of being. The driving of the eyeball and eyelid may be configured independently of the driving of the pedestal. In this way, the facial expression of the doll 20 can be changed without affecting the viewing direction of the camera 120. The mouth, limbs, and the like may be driven instead of or in addition to the eyeball and eyelid. In this way, the expression can express the user's emotions more abundantly.

図4(a)は、肩乗りロボットを旅行者の肩に乗せた状態の側面図であり、図4(b)は肩乗りロボットを旅行者の肩に乗せた状態の正面図である。肩乗りロボット10は、旅行者の肩の上で、旅行者が前方見たときに視野の端に見える位置に保持されるとよい。このようにすれば、ユーザと一緒に旅をしている感覚を旅行者に持たせることができる。例えば、図4(a)に示すように、旅行者の肩状のやや前方に、肩乗りロボット10(及び人形20)が位置するようにするとよい。このような適切な位置に肩乗りロボット10を保持すべく、肩に掛かる形状の保持具にて肩乗りロボット10を保持するとよい。保持具としては、例えば折り曲げ可能な柔軟な材質で構成されたフック160を用いるとよい。フック160の一端には駆動部150を介して台座が取り付けられる。フック160は、図4(b)に示すように、旅行者の背面(首の後ろ)及び肩乗りロボット10を乗せていない肩側の腋下を経て肩乗りロボット10を乗せていない肩に他端が掛かる様に曲げられ、フック160の両端がそれぞれ旅行者の両肩に掛かるようにするとよい。図4(b)に示したフック160のように、両肩に掛かる保持具とすることにより、肩乗りロボット10を安定的に支持することができ、肩乗りロボット10が姿勢を変えても肩から落下したり姿勢を崩したりといった事態を避けることができる。また、図4(b)に示したフック160のように、保持具の一部を腋下に通すことで、旅行者が屈んだり、寝そべったりといった、起立していない姿勢を取った場合でも、肩乗りロボット10が落下するような事態を避けることができる。   FIG. 4A is a side view of the shoulder riding robot placed on the traveler's shoulder, and FIG. 4B is a front view of the shoulder riding robot placed on the traveler's shoulder. The shoulder riding robot 10 may be held on the traveler's shoulder at a position where the traveler can see the edge of the field of view when looking forward. In this way, it is possible to give the traveler the feeling of traveling with the user. For example, as shown in FIG. 4A, the shoulder robot 10 (and the doll 20) may be positioned slightly ahead of the traveler's shoulder. In order to hold the shoulder robot 10 in such an appropriate position, the shoulder robot 10 may be held by a holder having a shape that hangs on the shoulder. For example, a hook 160 made of a flexible material that can be bent may be used as the holder. A pedestal is attached to one end of the hook 160 via the drive unit 150. As shown in FIG. 4 (b), the hook 160 is placed on the back of the traveler (behind the neck) and on the shoulder not carrying the shoulder riding robot 10 through the armpit on the shoulder side where the shoulder riding robot 10 is not placed. It is preferable that the hook 160 is bent so that the ends are hooked, and both ends of the hook 160 are hooked on both shoulders of the traveler. As shown in FIG. 4 (b), the shoulder-mounted robot 10 can be stably supported by using a holder that is hooked on both shoulders, and even if the shoulder-mounted robot 10 changes its posture, the shoulder It is possible to avoid situations such as falling or breaking posture. In addition, even if the traveler takes a posture that does not stand up, such as when the traveler bends or lies down by passing a part of the holder under his arm like the hook 160 shown in FIG. A situation where the shoulder robot 10 falls can be avoided.

なお、保持具は折り曲げ可能な柔軟な材質で構成されたフックに限られない。例えば、図4(b)に示したフック160と同様の形状を自由な折り曲げが困難なパイプ等で形成してもよく、このような形状の保持具を様々な体格の旅行者に適用できるように複数のサイズを用意してもよい。また、保持具をリュックサックのように背負う構造とし、肩に掛かるベルトに肩乗りロボット10を台座を介して取り付けるようにしてもよい。   The holder is not limited to a hook made of a flexible material that can be bent. For example, the same shape as the hook 160 shown in FIG. 4B may be formed by a pipe or the like that is difficult to bend freely, and the holder having such a shape can be applied to travelers of various physiques. A plurality of sizes may be prepared. Further, the holding tool may be supported on the back like a rucksack, and the shoulder-riding robot 10 may be attached to a belt that hangs on the shoulder via a pedestal.

図5は、第1の実施形態に係る交流支援システムが備える人形20を示す図である。図5に示す人形(キャラクタ)20は、図3に示す肩乗りロボット10に覆い被せて使用する。人形(キャラクタ)20を肩乗りロボット10と別体とすることで好きな人形(キャラクタ)に変更して旅ロボ1を使用することができる。   FIG. 5 is a diagram illustrating the doll 20 included in the AC support system according to the first embodiment. A doll (character) 20 shown in FIG. 5 is used while covering the shoulder robot 10 shown in FIG. By making the doll (character) 20 separate from the shoulder robot 10, it is possible to change the doll (character) to a favorite doll (character) and use the travel robot 1.

図6は、第1の実施形態に係る交流支援システムが備える肩乗りロボット10の機能構成図である。図6に示すように、肩乗りロボット10は、旅行者Uが携帯する制御装置2(携帯端末等)と通信するための無線通信部141と、マイク110、カメラ120、スピーカ130及び駆動部150を制御する制御部142と、プログラム等のデータが記憶された記憶部143とを備えている。なお、図6に示す機能は、本体部140に内蔵されるCPUやMPU、メモリ、通信アンテナ等により実現される。   FIG. 6 is a functional configuration diagram of the shoulder robot 10 included in the AC support system according to the first embodiment. As shown in FIG. 6, the shoulder robot 10 includes a wireless communication unit 141 for communicating with the control device 2 (mobile terminal or the like) carried by the traveler U, a microphone 110, a camera 120, a speaker 130, and a drive unit 150. And a storage unit 143 in which data such as a program is stored. The functions shown in FIG. 6 are realized by a CPU, MPU, memory, communication antenna, and the like built in the main body 140.

図7は、第1の実施形態に係る交流支援システムが備える旅ロボ1の使用例を示す図である。図7に示すように、旅行者Uは、旅ロボ1を肩に乗せて一緒に行動(旅)をする。旅行者Uの会話や見た実体験は、旅ロボ1が備えるマイク110及びカメラ120により取得され、旅行者Uが携帯する制御装置2を通じてオーディオデータ及び映像データとしてサーバ3にリアルタイムにアップロードされる。アップロードされたオーディオデータ及び映像データは、識別情報を付与してサーバ3に蓄積される。   FIG. 7 is a diagram illustrating a usage example of the travel robot 1 included in the AC support system according to the first embodiment. As shown in FIG. 7, the traveler U puts the travel robot 1 on his shoulder and acts (travels) together. The conversation and actual experience of the traveler U are acquired by the microphone 110 and the camera 120 provided in the travel robot 1 and uploaded to the server 3 in real time as audio data and video data through the control device 2 carried by the traveler U. . The uploaded audio data and video data are stored in the server 3 with identification information.

この第1の実施形態に係る交流支援システムでは、サーバ3にアップロードされたデータは、ネットワークを介してサーバ3に接続された複数の端末4から視聴することができ、旅ロボ1を所持する旅行者Uの実体験を疑似体験することができる。また、端末4を有するユーザは、端末4を操作することにより、旅ロボ1を操作することができる。   In the exchange support system according to the first embodiment, the data uploaded to the server 3 can be viewed from a plurality of terminals 4 connected to the server 3 via the network, and the trip possessing the travel robot 1 The actual experience of the person U can be simulated. Further, the user having the terminal 4 can operate the travel robot 1 by operating the terminal 4.

例えば、端末4を有するユーザは、旅ロボ1のマイク110とスピーカ130を通して、旅ロボ1を所持する旅行者Uや旅行者Uの周りにいる人たちと会話をすることができる。このため、端末4を有するユーザは、旅行者Uや旅行者Uの周りにいる人たちと会話ができることで旅行者Uとのつながりをより強く感じることができる。なお、旅ロボ1のマイク110とスピーカ130を通して交わされる会話もネットワークを介してサーバ3にアップロードされ、識別情報を付与してサーバ3に蓄積される。   For example, the user having the terminal 4 can talk with the traveler U who has the travel robot 1 and the people around the traveler U through the microphone 110 and the speaker 130 of the travel robot 1. For this reason, the user who has the terminal 4 can feel the connection with the traveler U more strongly by having a conversation with the traveler U and the people around the traveler U. Note that the conversation exchanged through the microphone 110 and the speaker 130 of the travel robot 1 is also uploaded to the server 3 via the network, added with identification information, and stored in the server 3.

また、旅ロボ1の駆動部150を制御して、旅ロボ1が備えるカメラ120の撮像方向を変えることができ、旅ロボ1が備えるカメラ120で撮像される映像を見ることができる。旅ロボ1は、旅行者Uの肩に乗せて使用されるため、旅ロボ1が備えるカメラ120の視点が、旅行者Uと近くなり、あたかも一緒に旅をしている感覚が生じる。この結果、旅行者Uの実体験や感動をより強く共有することができる。   In addition, the driving unit 150 of the travel robot 1 can be controlled to change the imaging direction of the camera 120 included in the travel robot 1, and an image captured by the camera 120 included in the travel robot 1 can be viewed. Since the travel robot 1 is used on the shoulder of the traveler U, the viewpoint of the camera 120 provided in the travel robot 1 is close to that of the traveler U, and it feels as if traveling together. As a result, the actual experience and excitement of the traveler U can be shared more strongly.

なお、サーバ3にアップロードされたオーディオデータ及び映像データは、サーバ3に識別情報を付与して蓄積されるため、いつでも視聴が可能となる。   Note that the audio data and video data uploaded to the server 3 are stored with the identification information added to the server 3, so that they can be viewed at any time.

図8は、端末4により旅ロボ1を操作するための操作インタフェースの一例を示している。ここでは、端末4として、タッチパネルディスプレイと端末4の姿勢変化を検出する検出装置(例えば、ジャイロ又は3軸加速度センサ)を備えるタブレット端末を想定している。図8に示したように、操作インタフェースは、主操作領域R1とプリセットボタン領域R2とを含む。   FIG. 8 shows an example of an operation interface for operating the travel robot 1 by the terminal 4. Here, it is assumed that the terminal 4 is a tablet terminal including a touch panel display and a detection device (for example, a gyroscope or a three-axis acceleration sensor) that detects a change in posture of the terminal 4. As shown in FIG. 8, the operation interface includes a main operation area R1 and a preset button area R2.

主操作領域R1は、タッチパネルディスプレイの上部に設けられた略矩形の領域である。主操作領域R1に関する操作モードとして、スライド操作モードと姿勢操作モードが設けられ、これらのモードは切り替えて利用できる。操作インタフェースの初期状態ではスライド操作モードに設定されている。スライド操作モードでは、ユーザが主操作領域R1に指を触れた状態でスライドするいわゆるスワイプ操作をタッチパネルにて検知する。端末4は、検知したスライドの方向と量に応じた捜査情報を肩乗りロボット10に送信し、駆動部150はスライドの方向と量に応じて、肩乗りロボット10の台座を上下(ティルト)及び左右(パン)の2軸で駆動する。   The main operation area R1 is a substantially rectangular area provided in the upper part of the touch panel display. As operation modes related to the main operation region R1, a slide operation mode and a posture operation mode are provided, and these modes can be switched and used. In the initial state of the operation interface, the slide operation mode is set. In the slide operation mode, a so-called swipe operation in which the user slides with the finger touching the main operation region R1 is detected by the touch panel. The terminal 4 transmits investigation information corresponding to the detected direction and amount of the slide to the shoulder robot 10, and the driving unit 150 moves the pedestal of the shoulder robot 10 up and down (tilt) according to the direction and amount of the slide. Drives on the left and right (pan) axes.

スライド操作モードが選択されている状態で、主操作領域R1をタップすると、操作モードが姿勢操作モードに切り替わる。姿勢操作モードでは、端末4が備える検出装置にて、端末4の姿勢変化を検出し、駆動部150にて端末4の姿勢変化と同様に肩乗りロボット10の姿勢を変化させるよう台座、眼球、及び瞼を適宜駆動する。姿勢操作モードが選択されている状態で、再び主操作領域R1をタップすると、操作モードがスライド操作モードに切り替わる。このような姿勢操作モードによって、上下左右に加え回転も含めた3軸の動きの操作を容易に行うことができる。また、肩乗りロボット10の操作を直感的に行おうことができる。   When the main operation area R1 is tapped while the slide operation mode is selected, the operation mode is switched to the posture operation mode. In the posture operation mode, the detection device included in the terminal 4 detects the posture change of the terminal 4, and the drive unit 150 changes the posture of the shoulder robot 10 in the same manner as the posture change of the terminal 4. And the heel is driven appropriately. When the main operation area R1 is tapped again in the state in which the posture operation mode is selected, the operation mode is switched to the slide operation mode. With such a posture operation mode, it is possible to easily perform a three-axis motion operation including rotation in addition to up / down / left / right. Also, the shoulder robot 10 can be operated intuitively.

図8に示したように、プリセットボタン領域R2は、主操作領域R1の下に設けられた領域であり、複数のプリセットボタン(図8中でその一つを符号Bで例示する)が配置される。各プリセットボタンには、それぞれ肩乗りロボット10の所定の動作(例えば、「うなずく」、「右を見る」、「目をとじる」、「左にかしげる」、等)が割り当てられており、ユーザが1つのプリセットボタンにタッチすると、駆動部150は対応する動作をするよう台座、眼球、及び瞼を適宜駆動する。このようにあらかじめ決められたパターンの動作についてプリセットボタンを設けることで、ユーザは容易に肩乗りロボット10を動かすことができる。また、感情を表現するような動きを行わせる操作を容易にすることができる。   As shown in FIG. 8, the preset button area R2 is an area provided below the main operation area R1, and a plurality of preset buttons (one of which is illustrated by reference numeral B in FIG. 8) are arranged. The Each preset button is assigned a predetermined action of the shoulder robot 10 (for example, “nodding”, “looking right”, “closing eyes”, “shaking left”, etc.). When one preset button is touched, the driving unit 150 appropriately drives the pedestal, the eyeball, and the eyelid so as to perform a corresponding operation. By providing a preset button for the movement of the predetermined pattern as described above, the user can easily move the shoulder robot 10. Further, it is possible to facilitate an operation for performing a motion that expresses emotion.

プリセットボタン領域R2には、複数のプリセットボタンに加え、オートブリンクの機能を効化するか否かを選択するチェックボックスCB1が設けられる。オートブリンクとは、肩乗りロボット10に自動的に瞬きをさせる機能であり、この機能が有効化されているときには、例えば、ユーザによる操作入力が一定期間(例えば30秒間)なされない場合に、所定の間隔をあけながら(例えば10秒毎に1回)自動的に瞬きをするよう駆動部150に瞼を駆動させる。オートブリンク機能を有効化することにより、ユーザが操作を行わなくとも肩乗りロボット10が瞬きをするので、旅行者に肩乗りロボット10があたかも生きているかのような感覚を与えることができる。また、旅行者は肩乗りロボット10が動作している状態であることを確認することができる。一方、オートブリンク機能を無効化することで、電力の消費を抑制することができる。   In the preset button area R2, in addition to a plurality of preset buttons, a check box CB1 for selecting whether or not to activate the auto blink function is provided. Auto-blink is a function that causes the shoulder robot 10 to blink automatically. When this function is enabled, for example, when an operation input by the user is not performed for a certain period (for example, 30 seconds), a predetermined value is set. The drive unit 150 is caused to drive the eyelids so as to automatically blink with an interval of (for example, once every 10 seconds). By enabling the auto-blink function, the shoulder robot 10 blinks even if the user does not perform an operation. Therefore, it is possible to give the traveler a feeling as if the shoulder robot 10 is alive. Also, the traveler can confirm that the shoulder robot 10 is operating. On the other hand, power consumption can be suppressed by disabling the auto blink function.

また、プリセットボタン領域R2には、ループ制御の機能を効化するか否かを選択するチェックボックスCB2が設けられる。ループ制御とは、予め定められたいくつかの動作(例えば、「きょろきょろする」、「瞬きをする」、及び「首をかしげる」)を、所定の間隔をあけながら順次行うよう(例えば20秒間隔で1つの動作を行うというように)、台座、眼球、及び瞼を適宜駆動する。ループ制御を有効化することにより、ユーザが操作を行わなくとも肩乗りロボット10が時々所定の動作をするので、旅行者に肩乗りロボット10があたかも生きているかのような感覚を与えることができる。所定の動作には、台座の動きを伴うものを含めるとよい。このようにすれば、旅行者や、その周囲にいる人に、肩乗りロボット10の動きを気づかせやすくすることができる。また、旅行者は肩乗りロボット10が動作している状態であることを確認することができる。一方、ループ制御を無効化することで、電力の消費を抑制することができる。   The preset button area R2 is provided with a check box CB2 for selecting whether or not to activate the loop control function. The loop control is to sequentially perform several predetermined operations (for example, “glow”, “blink”, and “neck the neck”) at predetermined intervals (for example, at intervals of 20 seconds). The pedestal, eyeball, and eyelid are driven as appropriate. By enabling the loop control, the shoulder robot 10 sometimes performs a predetermined operation without any operation by the user, so that it is possible to give the traveler a feeling as if the shoulder robot 10 is alive. . The predetermined operation may include an operation accompanied by a movement of the pedestal. In this way, it is possible to make it easier for a traveler or a person in the vicinity to notice the movement of the shoulder robot 10. Also, the traveler can confirm that the shoulder robot 10 is operating. On the other hand, power consumption can be suppressed by disabling loop control.

図9は、第1の実施形態に係る交流支援システムの動作を示すフローチャートである。以下、図1〜図9を参照して、第1の実施形態に係る交流支援システムの動作について説明する。   FIG. 9 is a flowchart showing the operation of the AC support system according to the first embodiment. The operation of the AC support system according to the first embodiment will be described below with reference to FIGS.

初めに、ユーザは、予め取得したID及びパスワードにて、端末4を介して交流支援システムのサーバ3にログインする(S101)。ログインすると、端末4からサーバ3にリアルタイムにアップロードされる旅ロボ1が備えるマイク110及びカメラ120により取得された音声データ及び映像データを視聴することができる(S102)。   First, the user logs in to the server 3 of the exchange support system via the terminal 4 with the ID and password acquired in advance (S101). When logged in, the audio data and video data acquired by the microphone 110 and the camera 120 included in the travel robot 1 uploaded in real time from the terminal 4 to the server 3 can be viewed (S102).

次に、ユーザは、必要に応じて、旅ロボ1のマイク110とスピーカ130を通して、旅ロボ1を所持する旅行者Uや旅行者Uの周りにいる人たちと会話をする(S103)。また、ユーザは、必要に応じて、旅ロボ1の駆動部150を制御して、旅ロボ1が備えるカメラ120の撮像方向を変え、見たい方向を視聴する(S104)。   Next, as necessary, the user has a conversation with the traveler U who owns the travel robot 1 and the people around the traveler U through the microphone 110 and the speaker 130 of the travel robot 1 (S103). In addition, the user controls the drive unit 150 of the travel robot 1 as necessary to change the imaging direction of the camera 120 included in the travel robot 1 and view the desired direction (S104).

なお、S103及びS104において、ログインしているユーザ数が多すぎる場合は、所定時間毎に会話及び/又はカメラ120の向きを操作できるユーザをランダムに選出するようにしてもよい。また、課金したユーザだけが会話及び/又はカメラ120の向きを操作できるようにしてもよい。また、じゃんけん勝負等により勝利したユーザが会話及び/又はカメラ120の向きを操作できるようにしてもよい。さらに、ユーザの多数決によりカメラ120の向きを操作するようにしてもよい。   In S103 and S104, when the number of logged-in users is too large, users who can operate the conversation and / or the direction of the camera 120 at random intervals may be selected at random. Further, only the charged user may be able to operate the conversation and / or the direction of the camera 120. In addition, a user who has won a game such as a Janken game may be able to operate the conversation and / or the direction of the camera 120. Further, the orientation of the camera 120 may be operated by the majority of users.

上記動作は、ユーザがログアウト(S105のYes)すると終了する。   The above operation ends when the user logs out (Yes in S105).

以上のように第1の実施形態に係る交流支援システムは、集音用のマイク110と、音を出力するスピーカ130とを備えている。このため、マイク110を通して収集される音を共有することができ、また、スピーカ130から音声を出力できるので双方向のコミュニケーションを行うことができる。この結果、効果的に体験を共有し、該体験や感動を通して交流を図ることができる。   As described above, the AC support system according to the first embodiment includes the microphone 110 for collecting sound and the speaker 130 that outputs sound. For this reason, the sound collected through the microphone 110 can be shared, and since sound can be output from the speaker 130, bidirectional communication can be performed. As a result, it is possible to effectively share the experience and to exchange with the experience and excitement.

また、旅ロボ1と、旅ロボ1を駆動する駆動部150(駆動機構)と、駆動部150(駆動機構)を制御する制御装置2を備えているので、旅ロボ1を動作させることができる。このため、あたかも生きた人形20とコミュニケーションをしているような効果を得ることができ交流の活性化が期待できる。   Further, since the travel robot 1, the drive unit 150 (drive mechanism) that drives the travel robot 1, and the control device 2 that controls the drive unit 150 (drive mechanism) are provided, the travel robot 1 can be operated. . For this reason, the effect as if it is communicating with the living doll 20 can be obtained, and activation of alternating current can be expected.

また、第1の実施形態に係る交流支援システムの旅ロボ1は、撮像用のカメラ120を備える。このため、該カメラ120で撮像される映像又は画像を共有することでより効果的に体験を共有することができ、効果的に交流することができる。   Further, the travel robot 1 of the AC support system according to the first embodiment includes an imaging camera 120. For this reason, by sharing the video or image captured by the camera 120, it is possible to share the experience more effectively and to exchange effectively.

また、旅ロボ1の駆動部150を制御して、旅ロボ1が備えるカメラ120の撮像方向を変えることができ、旅ロボ1が備えるカメラ120で撮像される映像を見ることができる。旅ロボ1は、旅行者Uの肩に乗せて使用されるため、旅ロボ1が備えるカメラ120の視点が、旅行者Uと近くなり、あたかも一緒に旅をしている感覚が生じる。この結果、旅行者Uの実体験や感動をより強く共有することができる。   In addition, the driving unit 150 of the travel robot 1 can be controlled to change the imaging direction of the camera 120 included in the travel robot 1, and an image captured by the camera 120 included in the travel robot 1 can be viewed. Since the travel robot 1 is used on the shoulder of the traveler U, the viewpoint of the camera 120 provided in the travel robot 1 is close to that of the traveler U, and it feels as if traveling together. As a result, the actual experience and excitement of the traveler U can be shared more strongly.

さらに、旅ロボ1の人形(キャラクタ)20を肩乗りロボット10と別体とすることで好きな人形(キャラクタ)に変更して旅ロボ1を使用することができる。   Furthermore, the travel robot 1 can be used by changing the doll (character) 20 of the travel robot 1 to a favorite doll (character) by making it separate from the shoulder robot 10.

なお、この第1の実施形態に係る交流支援システムでは、複数のユーザがチャットで会話できる機能を備えるようにしてもよい。複数のユーザがチャットで会話できる機能を備えることで、さらにユーザ間の交流を図ることができる。また、チャットの内容もサーバ3に蓄積するとよい。また、旅ロボ1の位置情報も合わせてサーバ3へアップロードし、旅ロボ1が旅した経路を地図上で確認できるように構成してもよい。   Note that the AC support system according to the first embodiment may be provided with a function that allows a plurality of users to talk by chat. By providing a function that allows a plurality of users to talk in a chat, it is possible to further exchange between users. In addition, the chat content may be stored in the server 3. Further, the location information of the travel robot 1 may also be uploaded to the server 3 so that the route traveled by the travel robot 1 can be confirmed on a map.

(第2の実施形態)
図10は、第2の実施形態に係る交流支援システムの概略図である。以下、第2の実施形態に係る交流支援システムについて説明するが、図1〜図9を参照して説明した第1の実施形態に係る交流支援システムと同一の構成については、同一の符号を付して重複する説明を省略する。
(Second Embodiment)
FIG. 10 is a schematic diagram of an AC support system according to the second embodiment. Hereinafter, although the AC support system according to the second embodiment will be described, the same components as those of the AC support system according to the first embodiment described with reference to FIGS. Therefore, a duplicate description is omitted.

図10に示すように、第2の実施形態に係る交流支援システムは、レクロボ5と、レクロボ5の制御装置2(例えば、ノートPC、タブレット端末やスマートフォン等)と、ネットワークを介して制御装置2と接続されるサーバ3(データサーバ)と、マイク6と、操作用端末7(例えば、スマートフォン)を備える。   As illustrated in FIG. 10, the AC support system according to the second embodiment includes a recrobo 5, a control device 2 (for example, a notebook PC, a tablet terminal, and a smartphone) of the recrobo 5, and the control device 2 via a network. And a server 3 (data server), a microphone 6, and an operation terminal 7 (for example, a smartphone).

ここで、レクロボ5は、主に介護施設、病院、デイサービス等の施設において使用される。例えば、レクロボ5は、上記施設において、レクレーションやリハビリを行う目的で使用される。具体的には、レクロボ5を操作して、レクロボ5に歌に併せて踊らせたり、体操させたりすることで体験を共有するとともに、該体験の共有を通して他者との交流を図ったりする。   Here, the revolver 5 is mainly used in facilities such as a care facility, a hospital, and a day service. For example, the revolver 5 is used for the purpose of recreation and rehabilitation in the facility. Specifically, the recrobo 5 is operated to share the experience by causing the recrobo 5 to dance along with the song or to exercise, and to exchange with the other through sharing the experience.

操作用端末7は、台座ロボット30を操作するための入力装置である。ユーザは、ダウンロード等したアプリケーションソフトをインストールすることで、自身が所持するスマートフォン等の携帯端末を台座ロボット30の操作用端末7として使用することができる。具体的には、操作用端末7に内蔵されている加速度センサを使用して、操作用端末7の傾き(傾斜角度及び傾斜の向き)を検出し、該検出した傾きに基づいて台座ロボット30の台座250の傾き(傾斜角度及び傾斜の向き)を制御する。すなわち、操作用端末7の傾きに同期して、台座ロボット30の台座250の傾きが制御される。なお、操作用端末7にアプリケーションソフトをインストールすることで、操作用端末7と台座ロボット30との上記傾きの同期が実現される。また、マイク6は、ユーザがレクロボ5を操作する際に、上記施設の入居者等に呼び掛けたり会話をする等、コミュニケーションをとるのに使用される。   The operation terminal 7 is an input device for operating the pedestal robot 30. The user can use a mobile terminal such as a smartphone owned by the user as the operation terminal 7 of the base robot 30 by installing the downloaded application software. Specifically, the inclination (inclination angle and inclination direction) of the operation terminal 7 is detected using an acceleration sensor built in the operation terminal 7, and the base robot 30 is detected based on the detected inclination. The inclination (inclination angle and inclination direction) of the base 250 is controlled. That is, the inclination of the pedestal 250 of the pedestal robot 30 is controlled in synchronization with the inclination of the operation terminal 7. Note that by installing application software in the operation terminal 7, the above-described tilt synchronization between the operation terminal 7 and the pedestal robot 30 is realized. The microphone 6 is used for communication such as calling or talking to a resident or the like of the facility when the user operates the revolver 5.

また、図10に示すように、レクロボ5は、台座ロボット30と、該台座ロボット30上に載置される人形(キャラクタ)20とを備えている。   As shown in FIG. 10, the revolver 5 includes a pedestal robot 30 and a doll (character) 20 placed on the pedestal robot 30.

図11は、台座ロボット30の斜視図である。図12は、台座ロボット30の正面図である。図11及び図12に示すように、台座ロボット30は、ベース部210と、ベース部210に固定された第1乃至第6の駆動機構221〜226と、一端が第1乃至第6の駆動機構221〜226に夫々接続され、第1乃至第6の駆動機構221〜226の回転運動により駆動させられる第1乃至第6のアーム231〜236と、一端が第1乃至第6のアーム231〜236の他端にユニバーサルジョイントJ1〜J6(自在継手)により接続され、他端が台座250にユニバーサルジョイントJ7〜J12(自在継手)により接続された第1乃至第6のリンク機構241〜246とを備える。また、台座ロボット30には、図示しないスピーカが搭載されており、マイク6に入力される音声を含む音を出力する。   FIG. 11 is a perspective view of the pedestal robot 30. FIG. 12 is a front view of the pedestal robot 30. As shown in FIGS. 11 and 12, the pedestal robot 30 includes a base portion 210, first to sixth drive mechanisms 221 to 226 fixed to the base portion 210, and one end to first to sixth drive mechanisms. The first to sixth arms 231 to 236 connected to the respective 221 to 226 and driven by the rotational movements of the first to sixth drive mechanisms 221 to 226, and one ends of the first to sixth arms 231 to 236, respectively. The first to sixth link mechanisms 241 to 246 are connected to the other end by universal joints J1 to J6 (universal joints) and the other end is connected to the base 250 by universal joints J7 to J12 (universal joints). . The pedestal robot 30 is equipped with a speaker (not shown) and outputs sound including sound input to the microphone 6.

制御装置2は台座ロボット30の台座250の動きを制御する。具体的には、制御装置2は、操作用端末7の加速度センサで検出される操作用端末7の傾き(傾斜角度及び傾斜の向き)に基づいて、第1乃至第6の駆動機構221〜226を夫々独立して制御し、第1乃至第6のアーム231〜236及び第1乃至第6のリンク機構241〜246を介して台座250の傾き(傾斜角度及び傾斜の向き)を操作用端末7の傾きに同期させる。   The control device 2 controls the movement of the base 250 of the base robot 30. Specifically, the control device 2 determines the first to sixth drive mechanisms 221 to 226 based on the inclination (inclination angle and inclination direction) of the operation terminal 7 detected by the acceleration sensor of the operation terminal 7. Are controlled independently, and the inclination (inclination angle and inclination direction) of the pedestal 250 is controlled via the first to sixth arms 231 to 236 and the first to sixth link mechanisms 241 to 246. Synchronize with the tilt.

図13及び図14は、第2の実施形態に係る交流支援システムが備える台座ロボットの動作を示す図である。図13及び図14では、台座ロボット30上に載置された人形(キャラクタ)20が頷く際の動作の説明図である。   13 and 14 are diagrams illustrating the operation of the pedestal robot included in the AC support system according to the second embodiment. 13 and 14 are explanatory diagrams of the operation when the doll (character) 20 placed on the pedestal robot 30 moves.

制御装置2は、台座250上に載置されている人形(キャラクタ)20を回転動作させるように台座ロボット30の第1乃至第6の駆動機構221〜226を制御する。例えば、図13及び図14に示すように、人形(キャラクタ)20の頭部を中心軸C1として人形(キャラクタ)20を前後方向(図13及び図14の紙面に向かって左右方向)に回転させるように台座ロボット30の第1乃至第6の駆動機構221〜226を制御した場合、人形(キャラクタ)20の頭部を中心として人形(キャラクタ)20が前後方向(図13及び図14の紙面に向かって左右方向)に回転するため、あたかも人形(キャラクタ)20が頷いているように見える。   The control device 2 controls the first to sixth drive mechanisms 221 to 226 of the pedestal robot 30 so as to rotate the doll (character) 20 placed on the pedestal 250. For example, as shown in FIGS. 13 and 14, the doll (character) 20 is rotated in the front-rear direction (left-right direction toward the paper surface of FIGS. 13 and 14) with the head of the doll (character) 20 as the central axis C <b> 1. When the first to sixth drive mechanisms 221 to 226 of the pedestal robot 30 are controlled as described above, the doll (character) 20 moves in the front-rear direction (in the plane of FIG. 13 and FIG. 14) around the head of the doll (character) 20. The doll (character) 20 seems to be crawling.

また、人形(キャラクタ)20の頭部を中心軸C1として人形(キャラクタ)20を左右方向(図13及び図14の紙面に対して垂直方向)に回転させるように台座ロボット30の第1乃至第6の駆動機構221〜226を制御した場合、人形(キャラクタ)20の頭部を中心として人形(キャラクタ)20が左右方向(図13及び図14の紙面に対して垂直方向)に回転するため、あたかも人形(キャラクタ)20が首を振ったように見える。   Further, the first to second of the pedestal robot 30 so as to rotate the doll (character) 20 in the left-right direction (perpendicular to the paper surface of FIGS. 13 and 14) with the head of the doll (character) 20 as the central axis C1. 6, when the driving mechanism 221 to 226 is controlled, the doll (character) 20 rotates in the left-right direction (perpendicular to the plane of FIG. 13 and FIG. 14) around the head of the doll (character) 20. It looks as if the doll (character) 20 shook his head.

また、図13及び図14に示す中心軸C2を中心として人形(キャラクタ)20を前後方向(図13及び図14の紙面に向かって左右方向)に回転動作させるように台座ロボット30の第1乃至第6の駆動機構221〜226を制御した場合、人形(キャラクタ)20の腰を中心として人形(キャラクタ)20が前後方向(図13及び図14の紙面に向かって左右方向)に回転するため、あたかも人形(キャラクタ)20がお辞儀をしたように見える。   Further, the first to thirty-first robots 30 of the pedestal robot 30 are rotated so as to rotate the doll (character) 20 in the front-rear direction (left-right direction toward the plane of FIG. 13 and FIG. 14) about the central axis C2 shown in FIGS. When the sixth driving mechanisms 221 to 226 are controlled, the doll (character) 20 rotates in the front-rear direction (left and right direction toward the paper surface of FIGS. 13 and 14) around the waist of the doll (character) 20, It looks as if the doll (character) 20 bowed.

また、図13及び図14に示す中心軸C2を中心として人形(キャラクタ)20を左右方向(図13及び図14の紙面に対して垂直方向)に回転動作させるように台座ロボット30の第1乃至第6の駆動機構221〜226を制御した場合、人形(キャラクタ)20の腰を中心として人形(キャラクタ)20が左右方向(図13及び図14の紙面に対して垂直方向)に回転するため、あたかも人形(キャラクタ)20が腰を左右に振って踊っているように見える。   Further, the first to thirty-first robots 30 of the pedestal robot 30 are rotated so as to rotate the doll (character) 20 in the left-right direction (perpendicular to the plane of FIG. 13 and FIG. 14) around the central axis C2 shown in FIGS. When the sixth drive mechanisms 221 to 226 are controlled, the doll (character) 20 rotates in the left-right direction (perpendicular to the paper surface of FIGS. 13 and 14) around the waist of the doll (character) 20, It looks as if the doll (character) 20 is dancing with the waist swinging left and right.

以上のように、台座250上に載置される人形(キャラクタ)20の回転軸及び回転方向を変えてやることにより、人形(キャラクタ)20に種々の動作をさせることができる。上述のように、ユーザは、この操作用端末7を傾けることでレクロボ5を操作し、介護施設、病院、デイサービス等の施設においてレクレーションやリハビリを行う。具体的には、レクロボ5を歌に併せて踊らせたり、体操させたりすることで体験を共有するとともに、該体験の共有を通して他者との交流を図る。   As described above, by changing the rotation axis and the rotation direction of the doll (character) 20 placed on the pedestal 250, the doll (character) 20 can be operated in various ways. As described above, the user operates the recrobo 5 by tilting the operation terminal 7 and performs recreation and rehabilitation in facilities such as a care facility, a hospital, and a day service. Specifically, the experience is shared by allowing the recrobo 5 to dance along with the song or to exercise, and exchanges with others through the sharing of the experience.

ここで、制御装置2には、図13及び図14を参照して説明した動作をレクロボ5に行わせるために必要なパラメータ群、すなわち、第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を生成するためのプログラムが記憶されている。制御装置2は、サーバ3から台座ロボット30の動きを制御するための正規化データである基本パラメータ群をダウンロードし、このダウンロードした正規化パラメータ群を、台座250に載置される人形の種別毎に変換して第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を生成する。   Here, the control device 2 controls a parameter group necessary for causing the revolver 5 to perform the operation described with reference to FIGS. 13 and 14, that is, the first to sixth drive mechanisms 221 to 226. A program for generating a parameter group to be used at the time is stored. The control device 2 downloads a basic parameter group that is normalized data for controlling the movement of the pedestal robot 30 from the server 3, and uses the downloaded normalized parameter group for each type of doll placed on the pedestal 250. To generate a parameter group used when controlling the first to sixth drive mechanisms 221 to 226.

なお、台座250に載置される人形の種別の取得には、種々の手法を適用することができる。例えば、人形(キャラクタ)20の種別毎に固有のIDを付与し、制御装置2が台座250上に載置される人形(キャラクタ)20から付与された固有のIDを取得し、該取得したID毎に第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を変更(生成)するように構成してもよい。   Various methods can be applied to the acquisition of the type of doll placed on the pedestal 250. For example, a unique ID is assigned to each type of doll (character) 20, the control device 2 acquires a unique ID assigned from the doll (character) 20 placed on the pedestal 250, and the acquired ID You may comprise so that the parameter group used when controlling the 1st thru | or 6th drive mechanisms 221-226 for every may be changed (generated).

また、台座250上に載置される人形(キャラクタ)20の画像を撮像し、該画像を認識して人形(キャラクタ)20の種別を判別し、第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を変更(生成)するようにしてもよい。また、図13及び図14で説明した回転軸を撮像した画像上で指定できるように構成してもよい。   Further, an image of the doll (character) 20 placed on the pedestal 250 is taken, the image is recognized to determine the type of the doll (character) 20, and the first to sixth drive mechanisms 221 to 226 are connected. You may make it change (generate) the parameter group used when controlling. Moreover, you may comprise so that it can designate on the image which imaged the rotating shaft demonstrated in FIG.13 and FIG.14.

ここで、人形(キャラクタ)20の種別は、人形の種類(例えば、熊、兎、豚等のキャラクタ)及び大きさに基づいて予め付与される。   Here, the type of the doll (character) 20 is given in advance based on the type of doll (for example, a character such as a bear, a frog, or a pig) and the size.

なお、ユーザが操作用端末7を操作して行ったレクロボ5の動作やマイク6での会話(オーディオデータ)は、ネットワークを介してサーバ3にアップロードされ、識別情報(タグ)を付与してサーバ3に蓄積される。サーバ3に蓄積されたレクロボ5の動作やマイク6での会話は、ダウンロード可能であり、ユーザは、付与された識別情報を指定することで、該識別情報に関連付けられたレクロボ5の動作やマイク6での会話を再生(再現)することができる。   It should be noted that the operation of the revolver 5 and the conversation (audio data) performed by the user by operating the operation terminal 7 are uploaded to the server 3 via the network and given identification information (tag) to the server. 3 is accumulated. The operation of the revolver 5 and the conversation with the microphone 6 stored in the server 3 can be downloaded, and the user designates the assigned identification information, whereby the operation of the recrobo 5 and the microphone associated with the identification information are specified. 6 conversation can be reproduced (reproduced).

図15は、第2の実施形態に係る交流支援システムの動作を示すフローチャートである。初めに、ユーザは、予め取得したID及びパスワードにて、端末4を介して交流支援システムのサーバ3にログインする(S201)。次に、ユーザは、操作用端末7を使用してレクロボ5を操作し(S202)、施設等の入居者の方との交流を図る。   FIG. 15 is a flowchart showing the operation of the AC support system according to the second embodiment. First, the user logs in to the server 3 of the AC support system via the terminal 4 with the ID and password acquired in advance (S201). Next, the user operates the revolver 5 using the operation terminal 7 (S202), and exchanges with residents such as facilities.

制御装置2は、操作用端末7の操作指示に基づいて、台座ロボット30を動作させるとともに、ユーザが操作用端末7を操作して行ったレクロボ5の動作やマイク6での会話を、ネットワークを介してサーバ3にアップロードする(S203)。アップロードされたデータは、識別情報(タグ)に関連付けてサーバ3に蓄積される(S204)。上記動作は、ユーザがログアウト(S205のYes)すると終了する。   The control device 2 operates the pedestal robot 30 based on the operation instruction of the operation terminal 7, and the operation of the recrobo 5 performed by the user operating the operation terminal 7 and the conversation with the microphone 6 are performed over the network. Via the server 3 (S203). The uploaded data is stored in the server 3 in association with the identification information (tag) (S204). The above operation ends when the user logs out (Yes in S205).

図16は、第2の実施形態に係る交流支援システムの動作を示すフローチャートである。以下、図10〜図14及び図16を参照して、交流支援システムが備えるレクロボ5の再生(再現)動作について説明する。   FIG. 16 is a flowchart showing the operation of the AC support system according to the second embodiment. Hereinafter, with reference to FIGS. 10 to 14 and FIG. 16, the reproduction (reproduction) operation of the revolver 5 provided in the AC support system will be described.

初めに、ユーザは、予め取得したID及びパスワードにて、端末4を介して交流支援システムのサーバ3にログインする(S301)。ログインすると、サーバ3にアップロードされているレクロボ5の動作やマイク6での会話のデータを、識別情報(タグ)を指定して選択することができる。ユーザは、再生(再現)したいデータに付与されている識別情報を指定する(S302)。   First, the user logs in to the server 3 of the AC support system via the terminal 4 with the ID and password acquired in advance (S301). When logged in, it is possible to select the operation of the revolver 5 and the conversation data with the microphone 6 uploaded to the server 3 by specifying the identification information (tag). The user designates identification information given to data to be reproduced (reproduced) (S302).

ユーザが識別情報を指定すると、指定した識別情報に関連付けられたレクロボ5の動作やマイク6での会話のデータが制御装置2にダウンロードされる(S303)。制御装置2は、ダウンロードしたデータにレクロボ5の動作やマイク6での会話のデータに基づいて、レクロボ5の動作やマイク6での会話を再生(再現)する(S304)。制御装置2は、再生(再現)動作が終了すると動作を終了する(S305)。   When the user designates the identification information, the operation of the revolver 5 and the conversation data on the microphone 6 associated with the designated identification information are downloaded to the control device 2 (S303). The control device 2 reproduces (reproduces) the operation of the revolver 5 and the conversation on the microphone 6 based on the downloaded data on the operation of the revolver 5 and the conversation data on the microphone 6 (S304). When the reproduction (reproduction) operation ends, the control device 2 ends the operation (S305).

以上のように、本実施形態に係る交流支援システムは、集音用のマイク6と、音を出力するスピーカを備える操作用端末7又は台座ロボット30に取り付けられるスマートフォンと、台座ロボット30と、台座ロボット30を駆動する駆動機構221〜226と、駆動機構221〜226を制御する制御装置2とを備える。   As described above, the AC support system according to the present embodiment includes the microphone 6 for collecting sound, the smartphone 7 attached to the operation terminal 7 or the pedestal robot 30 including a speaker that outputs sound, the pedestal robot 30, and the pedestal. Drive mechanisms 221 to 226 that drive the robot 30 and a control device 2 that controls the drive mechanisms 221 to 226 are provided.

そして、制御装置2は、ネットワークを介してサーバ3に接続され、サーバ3は、マイク6で集音されるオーディオデータ及びロボットの動作データの少なくとも一方を識別情報(タグ)に関連付けて蓄積する。識別情報(タグ)に関連付けてサーバ3に蓄積することで、識別情報を指定するだけで簡単にデータを呼び出して利用することができる。   The control device 2 is connected to a server 3 via a network, and the server 3 stores at least one of audio data collected by the microphone 6 and robot operation data in association with identification information (tag). By storing the information in the server 3 in association with the identification information (tag), the data can be easily called and used simply by specifying the identification information.

また、本実施形態に係る交流支援システムの制御装置2は、サーバ3に蓄積されたオーディオデータ及び動作データの少なくとも一方を識別情報毎に取得し、該取得したオーディオデータ及び動作データの少なくとも一方に基づいて、スピーカから出力される音及びレクロボ5の動作を再生(再現)する。このため、サーバ3に蓄積されたオーディオデータ及び動作データの少なくとも一方を取得して音及びレクロボ5の動作の少なくとも一方を再生(再現)できるので、より多くの人が体験や感動を共有することができる。このため、簡易に体験を共有して交流を図ることができる。また、ユーザも同じ操作を繰り返す必要がないため、労力を省略することができる。   Further, the control device 2 of the AC support system according to the present embodiment acquires at least one of the audio data and the operation data stored in the server 3 for each identification information, and uses the acquired audio data and operation data as at least one of the acquired audio data and operation data. Based on this, the sound output from the speaker and the operation of the revolver 5 are reproduced (reproduced). For this reason, since at least one of the audio data and operation data stored in the server 3 can be acquired and at least one of the sound and the operation of the revolver 5 can be reproduced (reproduced), more people can share experiences and impressions. Can do. For this reason, it is possible to easily share experiences and exchanges. Moreover, since the user does not need to repeat the same operation, labor can be omitted.

また、本実施形態に係る交流支援システムの台座ロボット30は、ベース部210と、ベース部210に固定された第1乃至第6の駆動機構221〜226と、一端が第1乃至第6の駆動機構221〜226に夫々接続され、第1乃至第6の駆動機構221〜226の回転運動により駆動させられる第1乃至第6のアーム231〜236と、一端が第1乃至第6のアーム231〜236の他端にユニバーサルジョイントJ1〜J6(自在継手)により接続され、他端が台座250にユニバーサルジョイントJ7〜J12(自在継手)により接続された第1乃至第6のリンク機構241〜246とを備える。   The pedestal robot 30 of the AC support system according to the present embodiment includes a base unit 210, first to sixth drive mechanisms 221 to 226 fixed to the base unit 210, and first to sixth drives at one end. First to sixth arms 231 to 236 connected to the mechanisms 221 to 226 and driven by the rotational movement of the first to sixth drive mechanisms 221 to 226, respectively, and one end to the first to sixth arms 231 to 231. First to sixth link mechanisms 241 to 246 connected to the other end of 236 by universal joints J1 to J6 (universal joints) and the other end connected to pedestal 250 by universal joints J7 to J12 (universal joints). Prepare.

そして、制御装置2は、第1乃至第6の駆動機構221〜226を夫々独立して制御し、第1乃至第6のアーム231〜236及び第1乃至第6のリンク機構241〜246を介して台座250を動作させる。このため、台座250に複雑な動作を行わせることができ、台座250上に載置される人形(キャラクタ)20にあたかも生きているような臨場感ある動作を行わせることができる。このため、より効果的に体験を共有して交流を図ることができ、また、その動作を楽しむことができる。   And the control apparatus 2 controls the 1st thru | or 6th drive mechanisms 221-226 independently, respectively, via the 1st thru | or 6th arms 231-236 and the 1st thru | or 6th link mechanisms 241-246. The pedestal 250 is operated. Therefore, it is possible to cause the pedestal 250 to perform a complicated operation, and it is possible to cause the doll (character) 20 placed on the pedestal 250 to perform a realistic operation as if it were alive. For this reason, it is possible to share experiences more effectively and to interact with each other, and to enjoy the operation.

また、本実施形態に係る交流支援システムは、レクロボ5を操作するための操作用端末7(入力装置)を備え、制御装置2は、操作用端末7(入力装置)からの操作指示に基づいて第1乃至第6の駆動機構221〜226を制御する。このため、施設の入居者等の状況を確認しながらレクロボ5の動作を変化させたりすることができ、効果的に体験を共有して交流を図ることができる。   Further, the AC support system according to the present embodiment includes an operation terminal 7 (input device) for operating the revolver 5, and the control device 2 is based on an operation instruction from the operation terminal 7 (input device). The first to sixth drive mechanisms 221 to 226 are controlled. For this reason, it is possible to change the operation of the recrobo 5 while confirming the status of the resident of the facility, etc., and it is possible to effectively share experiences and exchanges.

また、本実施形態に係る交流支援システムは、操作用端末7の傾きを検出する検出装置(例えば、ジャイロ又は3軸加速度センサ)を備え、制御装置2は、検出装置からの出力に基づいて第1乃至第6の駆動機構221〜226を制御する。このため、入力装置を傾ける簡易な操作でロボットを制御することができる。なお、操作用端末7にインストールされるアプリケーションソフトに、予めレクロボ5の動作に必要な操作項目(例えば、挨拶する、踊る、頷く等)が用意するように構成してもよい。例えば、レクロボ5を操作するために操作用端末7に実装される操作インタフェースとして、旅ロボに関して説明した図8に示す操作インタフェースと同様のものを採用してもよい。   In addition, the AC support system according to the present embodiment includes a detection device (for example, a gyroscope or a three-axis acceleration sensor) that detects the inclination of the operation terminal 7, and the control device 2 is based on an output from the detection device. The first to sixth drive mechanisms 221 to 226 are controlled. For this reason, the robot can be controlled by a simple operation of tilting the input device. In addition, you may comprise so that operation items (for example, greeting, dancing, whispering, etc.) required for operation | movement of the recrobo 5 may be prepared in the application software installed in the operation terminal 7 beforehand. For example, an operation interface similar to the operation interface shown in FIG. 8 described with respect to the travel robot may be adopted as the operation interface mounted on the operation terminal 7 for operating the revolver 5.

また、本実施形態に係る交流支援システムの制御装置2は、台座250上に載置される人形(キャラクタ)20から人形(キャラクタ)20の種別毎に付与された固有のIDを取得し、該取得したID毎に第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を変更する。このため、台座250に載置する人形(キャラクタ)20毎に動作に必要なパラメータ群を手動で設定する必要がなく、簡易にレクロボ5を操作することができる。なお、台座ロボット30のスピーカから出力する声色を人形(キャラクタ)20の種別により変更するようにしてもよい。例えば、人形(キャラクタ)20が熊や豚等、男性をイメージさせる場合は、男性の声色で音声を出力し、人形(キャラクタ)20が兎等、女性をイメージさせる場合、女性の声色で音声を出力すると、よりレクロボ5の動作を楽しむことができ、レクレーションやリハビリの効果もアップする。   In addition, the control device 2 of the AC support system according to the present embodiment acquires a unique ID assigned to each type of the doll (character) 20 from the doll (character) 20 placed on the pedestal 250, and A parameter group used when controlling the first to sixth drive mechanisms 221 to 226 is changed for each acquired ID. Therefore, it is not necessary to manually set a parameter group necessary for the operation for each doll (character) 20 placed on the pedestal 250, and the revolver 5 can be easily operated. Note that the voice color output from the speaker of the base robot 30 may be changed according to the type of the doll (character) 20. For example, when the doll (character) 20 is an image of a male such as a bear or pig, the voice is output with a male voice, and when the doll (character) 20 is an image of a female such as a frog, the voice is output with a female voice When output, the operation of the revolver 5 can be enjoyed more, and the effects of recreation and rehabilitation are improved.

また、本実施形態に係る交流支援システムの制御装置2は、台座250上に載置される人形(キャラクタ)20の画像データに基づいて、第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を変更する。このため、台座250に載置する人形(キャラクタ)20毎に動作に必要なパラメータ群を手動で設定する必要がなく、簡易にレクロボ5を操作することができる。   The control device 2 of the AC support system according to the present embodiment controls the first to sixth drive mechanisms 221 to 226 based on the image data of the doll (character) 20 placed on the pedestal 250. Change the parameter group to be used. Therefore, it is not necessary to manually set a parameter group necessary for the operation for each doll (character) 20 placed on the pedestal 250, and the revolver 5 can be easily operated.

また、本実施形態に係る交流支援システムの制御装置2は、第1乃至第6の駆動機構221〜226を制御するための正規化データである基本パラメータ群を、人形(キャラクタ)20の種別毎に変換して第1乃至第6の駆動機構221〜226を制御する際に使用するパラメータ群を生成している。このため、台座250に載置される人形(キャラクタ)20毎にパラメータ群を用意する必要がないため制御装置2の演算処理等の動作負荷を低減することができる。   In addition, the control device 2 of the AC support system according to the present embodiment sets a basic parameter group that is normalized data for controlling the first to sixth drive mechanisms 221 to 226 for each type of the doll (character) 20. To generate a parameter group used when controlling the first to sixth drive mechanisms 221 to 226. For this reason, since it is not necessary to prepare a parameter group for each doll (character) 20 placed on the pedestal 250, it is possible to reduce an operation load such as arithmetic processing of the control device 2.

1…旅ロボ
2…制御装置
3…サーバ
4…端末
5…レクロボ
6…マイク
7…操作用端末
10…肩乗りロボット
20…人形(キャラクタ)
30…台座ロボット
110…マイク
120…カメラ
130…スピーカ
140…本体部
141…無線通信部
142…制御部
143…記憶部
150…駆動部(駆動機構)
160…フック
210…ベース部
221〜226…第1乃至第6の駆動機構
231〜236…第1乃至第6のアーム
241〜246…リンク機構
250…台座
DESCRIPTION OF SYMBOLS 1 ... Travel robot 2 ... Control apparatus 3 ... Server 4 ... Terminal 5 ... Recrobo 6 ... Microphone 7 ... Operation terminal 10 ... Shoulder ride robot 20 ... Doll (character)
30 ... Pedestal robot 110 ... Microphone 120 ... Camera 130 ... Speaker 140 ... Main unit 141 ... Wireless communication unit 142 ... Control unit 143 ... Storage unit 150 ... Drive unit (drive mechanism)
160 ... hook 210 ... base parts 221 to 226 ... first to sixth drive mechanisms 231 to 236 ... first to sixth arms 241 to 246 ... link mechanism 250 ... pedestal

Claims (14)

集音用のマイクと、
音を出力するスピーカと、
ロボットと、
前記ロボットを駆動する駆動機構と、
前記駆動機構を制御する制御装置と
を備える交流支援システム。
A microphone for collecting sound,
A speaker that outputs sound;
With robots,
A drive mechanism for driving the robot;
An AC support system comprising: a control device that controls the drive mechanism.
撮像用のカメラを備える請求項1に記載の交流支援システム。   The AC support system according to claim 1, comprising an imaging camera. 前記制御装置は、
ネットワークを介してデータサーバに接続され、
前記データサーバは、
前記マイクで集音されるオーディオデータ及び前記ロボットの動作データの少なくとも一方を識別情報に関連付けて蓄積する請求項1又は請求項2に記載の交流支援システム。
The controller is
Connected to the data server via the network,
The data server is
The AC support system according to claim 1 or 2, wherein at least one of audio data collected by the microphone and operation data of the robot is stored in association with identification information.
前記制御装置は、
前記データサーバに蓄積された前記オーディオデータ及び前記動作データの少なくとも一方を前記識別情報毎に取得し、該取得した前記オーディオデータ及び前記動作データの少なくとも一方に基づいて、前記スピーカから出力される音及び前記ロボットの動作を再生する請求項3に記載の交流支援システム。
The controller is
Acquire at least one of the audio data and the operation data stored in the data server for each identification information, and sound output from the speaker based on the acquired at least one of the audio data and the operation data 4. The AC support system according to claim 3, wherein the operation of the robot is reproduced.
前記ロボットを操作するための入力装置を備え、
前記制御装置は、
前記入力装置からの操作指示に基づいて、前記駆動機構を制御する請求項1乃至4のいずれかに記載の交流支援システム。
An input device for operating the robot;
The controller is
The AC support system according to claim 1, wherein the drive mechanism is controlled based on an operation instruction from the input device.
前記入力装置の姿勢変化を検出する検出装置を備え、
前記制御装置は、前記検出装置からの出力に基づいて前記駆動機構を制御する請求項5に記載の交流支援システム。
A detection device for detecting a change in posture of the input device;
The AC support system according to claim 5, wherein the control device controls the drive mechanism based on an output from the detection device.
前記ロボットは、装着者の肩で保持される保持具に接続されることを特徴とする請求項1乃至請求項6のいずれかに記載の交流支援システム。   The exchange support system according to any one of claims 1 to 6, wherein the robot is connected to a holder that is held by a shoulder of a wearer. 前記ロボットは、
ベース部と、
前記ベース部に固定された第1乃至第6の駆動機構と、
一端が前記第1乃至第6の駆動機構に夫々接続され、前記第1乃至第6の駆動機構の回転運動により駆動させられる第1乃至第6のアームと、
一端が前記第1乃至第6のアームの他端に自在継手により接続され、他端が台座に自在継手により接続された第1乃至第6のリンク機構と
を備え、
前記制御装置は、
前記第1乃至第6の駆動機構を夫々独立して制御し、前記第1乃至第6のアーム及び前記第1乃至第6のリンク機構を介して前記台座を動作させる請求項1乃至請求項4のいずれかに記載の交流支援システム。
The robot is
A base part;
First to sixth driving mechanisms fixed to the base portion;
First to sixth arms each having one end connected to each of the first to sixth drive mechanisms and driven by the rotational movement of the first to sixth drive mechanisms;
First to sixth link mechanisms having one end connected to the other end of the first to sixth arms by a universal joint and the other end connected to the base by a universal joint,
The controller is
5. The first to sixth drive mechanisms are independently controlled, and the pedestal is operated via the first to sixth arms and the first to sixth link mechanisms. An exchange support system according to any of the above.
前記台座を操作するための入力装置を備え、
前記制御装置は、
前記入力装置からの操作指示に基づいて、前記第1乃至第6の駆動機構を制御する請求項8に記載の交流支援システム。
An input device for operating the pedestal;
The controller is
The AC support system according to claim 8, wherein the first to sixth drive mechanisms are controlled based on an operation instruction from the input device.
前記入力装置の傾きを検出する検出装置を備え、
前記制御装置は、前記検出装置からの出力に基づいて前記第1乃至第6の駆動機構を制御する請求項8又は請求項9に記載の交流支援システム。
A detection device for detecting the inclination of the input device;
The AC support system according to claim 8 or 9, wherein the control device controls the first to sixth drive mechanisms based on an output from the detection device.
前記検出装置は、
ジャイロ又は3軸加速度センサである請求項10に記載の交流支援システム。
The detection device includes:
The AC support system according to claim 10, which is a gyro or a three-axis acceleration sensor.
前記制御装置は、
前記台座上に載置される人形から前記人形の種別毎に付与された固有のIDを取得し、該取得したID毎に前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を変更する請求項8乃至請求項11のいずれかに記載の交流支援システム。
The controller is
A parameter group used when acquiring a unique ID assigned to each type of the doll from the doll placed on the pedestal and controlling the first to sixth drive mechanisms for each acquired ID The exchange support system according to claim 8, wherein the exchange support system is changed.
前記制御装置は、
前記台座上に載置される人形の画像データに基づいて、前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を変更する請求項8乃至請求項11のいずれかに記載の交流支援システム。
The controller is
The parameter group used when controlling the first to sixth driving mechanisms is changed based on image data of a doll placed on the pedestal. Exchange support system.
前記制御装置は、
前記第1乃至第6の駆動機構を制御するための正規化データである基本パラメータ群を、前記人形の種別毎に変換して前記第1乃至第6の駆動機構を制御する際に使用するパラメータ群を生成する請求項12又は請求項13に記載の交流支援システム。

The controller is
Parameters used when controlling the first to sixth driving mechanisms by converting a basic parameter group, which is normalized data for controlling the first to sixth driving mechanisms, for each type of the doll The exchange support system according to claim 12 or 13, which generates a group.

JP2016232169A 2015-12-01 2016-11-30 Interaction assistance system Pending JP2017104532A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015234877 2015-12-01
JP2015234877 2015-12-01

Publications (1)

Publication Number Publication Date
JP2017104532A true JP2017104532A (en) 2017-06-15

Family

ID=59058709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016232169A Pending JP2017104532A (en) 2015-12-01 2016-11-30 Interaction assistance system

Country Status (1)

Country Link
JP (1) JP2017104532A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065305A1 (en) * 2017-09-29 2019-04-04 本田技研工業株式会社 Information provision system, information provision method, and management device for information provision system

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019065305A1 (en) * 2017-09-29 2019-04-04 本田技研工業株式会社 Information provision system, information provision method, and management device for information provision system
CN111133762A (en) * 2017-09-29 2020-05-08 本田技研工业株式会社 Information providing system, information providing method, and management device for information providing system
JPWO2019065305A1 (en) * 2017-09-29 2020-11-26 本田技研工業株式会社 Information provision system, information provision method and management device for information provision system
CN111133762B (en) * 2017-09-29 2021-08-10 本田技研工业株式会社 Information providing system, information providing method, and management device for information providing system
US11792484B2 (en) 2017-09-29 2023-10-17 Honda Motor Co., Ltd. Information providing system, information providing method and management apparatus for information providing system for providing information obtained through a robot

Similar Documents

Publication Publication Date Title
JP6244593B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6263252B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6481057B1 (en) Character control method in virtual space
JP6290467B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP6201028B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
US10088895B2 (en) Systems and processes for providing virtual sexual experiences
JP2022184958A (en) animation production system
JP2019128721A (en) Program for reflecting user motion on avatar, information processing device for executing the same and method for distributing image containing avatar
JP2018125003A (en) Information processing method, apparatus, and program for implementing that information processing method in computer
JP2018124981A (en) Information processing method, information processing device and program causing computer to execute information processing method
JP2019106220A (en) Program executed by computer to provide virtual space via head mount device, method, and information processing device
JP2017104532A (en) Interaction assistance system
JP2022153479A (en) Animation creation system
JP6225242B1 (en) Information processing method, apparatus, and program causing computer to execute information processing method
JP2022153478A (en) Animation creation system
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP2018092635A (en) Information processing method, device, and program for implementing that information processing method on computer
JP2020042593A (en) Program, information processing device, and method
JP2018109937A (en) Information processing method, apparatus, information processing system, and program causing computer to execute the information processing method
JP7218875B2 (en) animation production system
JP7390540B2 (en) Animation production system
JP7218874B6 (en) Animation production system
US20230218984A1 (en) Methods and systems for interactive gaming platform scene generation utilizing captured visual data and artificial intelligence-generated environment
JP2018057624A (en) Display/transmission robot