JP2022165335A - Communication system and coaching system - Google Patents
Communication system and coaching system Download PDFInfo
- Publication number
- JP2022165335A JP2022165335A JP2021070682A JP2021070682A JP2022165335A JP 2022165335 A JP2022165335 A JP 2022165335A JP 2021070682 A JP2021070682 A JP 2021070682A JP 2021070682 A JP2021070682 A JP 2021070682A JP 2022165335 A JP2022165335 A JP 2022165335A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- robot
- avatar
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000006854 communication Effects 0.000 title claims abstract description 50
- 238000004891 communication Methods 0.000 title claims abstract description 49
- 230000005540 biological transmission Effects 0.000 claims abstract description 40
- 230000000007 visual effect Effects 0.000 claims abstract description 40
- 230000035807 sensation Effects 0.000 description 28
- 238000012545 processing Methods 0.000 description 23
- 230000008451 emotion Effects 0.000 description 21
- 238000011156 evaluation Methods 0.000 description 20
- 230000036544 posture Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 9
- 238000000034 method Methods 0.000 description 8
- 230000015541 sensory perception of touch Effects 0.000 description 8
- 210000004247 hand Anatomy 0.000 description 7
- 238000001514 detection method Methods 0.000 description 6
- 230000002708 enhancing effect Effects 0.000 description 5
- 210000000707 wrist Anatomy 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012854 evaluation process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 239000012530 fluid Substances 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000003592 biomimetic effect Effects 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003703 image analysis method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 210000003857 wrist joint Anatomy 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本開示は、仮想空間内に設けられたアバターを介してコミュニケーションを行うためのコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムに関する。 The present disclosure relates to a communication system for communicating via an avatar provided in a virtual space, and a coaching system using the communication system.
仮想的なデートを体験できるバーチャルデートサービスシステムが開示されている(例えば、特許文献1)。バーチャルデートシステムを利用するユーザはバーチャルデート時に自分をアバターによって表示することができ、ネットワークを介して相手とテキストや音声をやり取りすることで、バーチャルデートを楽しむことができる。 A virtual dating service system that allows users to experience a virtual date has been disclosed (for example, Patent Document 1). Users who use the virtual date system can display themselves as avatars during virtual dates, and can enjoy virtual dates by exchanging texts and voices with the other party via the network.
特許文献1に記載のバーチャルデートシステムでは、デートを行うユーザはそれぞれ仮想空間内においてアバターによって自らを表示して、それぞれ操作することができるため、音声のみの場合に比べて、よりリアルな感覚でデートを楽しむことができる。
In the virtual dating system described in
しかし、特許文献1に記載されるようなアバターを用いたコミュニケーションでは、ユーザ間でやり取りされる情報は、視覚情報や、聴覚情報に限定される。そのため、例えば、ユーザは仮想空間内で他のユーザに触れたとしても、接触による感覚を取得できず、リアリティに乏しいという問題がある。
However, in communication using avatars as described in
本発明は、このような背景に鑑み、ユーザがアバターを介してコミュニケーションを行うコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムにおいて、リアリティを高めることを課題とする。 In view of such a background, it is an object of the present invention to improve reality in a communication system in which users communicate via avatars and in a coaching system using the communication system.
このような課題を解決するために、本発明のある実施形態は、複数のユーザ(A、B、C)がそれぞれのアバターを操作することにより、両ユーザ間でコミュニケーションを行うコミュニケーションシステム(1、101)であって、視覚情報及び聴覚情報の少なくとも一方を前記ユーザ間において相互に伝達する視覚/聴覚情報伝達部(13A、13B)と、前記ユーザそれぞれの表面情報を取得可能なユーザ情報取得部(65)と、前記表面情報をコミュニケーション相手となる前記ユーザに伝達する触覚情報伝達部(13C)とを有する。 In order to solve such problems, an embodiment of the present invention provides a communication system (1, 101), wherein visual/auditory information transmission units (13A, 13B) mutually transmit at least one of visual information and auditory information between the users, and a user information acquisition unit capable of acquiring surface information of each of the users; (65), and a tactile information transmission unit (13C) for transmitting the surface information to the user who is the communication partner.
この構成によれば、ユーザに、コミュニケーション相手となる他のユーザの表面情報(例えば、温かさ等)が伝えられるため、相互に伝達される情報が視覚情報や聴覚情報のみの場合に比べて、リアリティが高められる。 According to this configuration, the surface information (for example, warmth, etc.) of the other user who is the communication partner is transmitted to the user. is enhanced.
好ましくは、上記態様において、前記触覚情報伝達部は、前記アバターが他の前記アバターに接触したときに、接触された前記アバターを操作する前記ユーザの前記表面情報を、接触した前記アバターを操作する前記ユーザに伝達する。 Preferably, in the above aspect, when the avatar contacts the other avatar, the tactile information transmission unit transmits the surface information of the user operating the contacted avatar to operate the contacted avatar. Communicate to said user.
この構成によれば、アバターが他のアバターに接触したときに、接触されたアバターを操作するユーザの表面情報が、接触したアバターを操作するユーザに伝達される。そのため、接触されたユーザの視覚情報及び聴覚情報以外の情報を、接触したユーザに伝達することができるため、リアリティを高めることができる。 According to this configuration, when an avatar contacts another avatar, the surface information of the user operating the contacted avatar is transmitted to the user operating the contacted avatar. Therefore, information other than the visual information and auditory information of the contacting user can be transmitted to the contacting user, thereby enhancing reality.
好ましくは、上記態様において、前記アバターは実空間(15)に配置されたロボット(7)により構成され、前記ロボットは、前記ロボットの表面に伝わる触覚情報を取得するアバター情報取得部を備え、前記触覚情報伝達部は、前記ロボットが他の前記ロボット以外の実物体(X)に接触しているときには、前記アバター情報取得部によって取得した前記触覚情報を前記ユーザに伝達し、前記ロボットが他の前記ロボットに接触しているときには、接触された前記ロボットを操作する前記ユーザの前記表面情報を、接触した前記ロボットを操作する前記ユーザに伝達する。 Preferably, in the above aspect, the avatar is configured by a robot (7) placed in a real space (15), the robot includes an avatar information acquisition unit that acquires tactile information transmitted to the surface of the robot, and the The tactile information transmission section transmits the tactile information acquired by the avatar information acquisition section to the user when the robot is in contact with a real object (X) other than the other robot, and the robot communicates with the other real object (X). When the robot is in contact with the robot, the surface information of the user operating the robot in contact is transmitted to the user operating the robot in contact.
この構成によれば、ユーザの操作するロボットが、他のユーザの操作するロボットに接触したときに、そのユーザの表面情報を取得することができ、実空間内に位置する物体に接触したときには、ロボットによって取得した触覚情報を取得することができる。これにより、ユーザは他のユーザとその実空間に居るかのような感覚を得ることができるため、リアリティを高めることができる。 According to this configuration, when a robot operated by a user contacts a robot operated by another user, the user's surface information can be obtained, and when the robot contacts an object located in the real space, The tactile information acquired by the robot can be acquired. As a result, the user can feel as if he or she is in the real space of another user, thereby enhancing reality.
好ましくは、上記態様において、前記アバターはコンピュータ(13)に構築された仮想空間(107)におけるキャラクター(107)により構成され、前記触覚情報伝達部(13C)は、前記キャラクターが、前記仮想空間において、他の前記キャラクターに接触しているときには、接触された前記キャラクターを操作する前記ユーザの前記表面情報を、接触した前記キャラクターを操作する前記ユーザに伝達する。 Preferably, in the above aspect, the avatar is a character (107) in a virtual space (107) built on a computer (13), and the tactile information transmission unit (13C) is configured such that the character is in the virtual space , when the user is in contact with another character, the surface information of the user who operates the character in contact is transmitted to the user who operates the character in contact.
この構成によれば、ユーザは、他のユーザの操作するアバターに接触したときに、そのユーザの表面情報を取得することができる。これにより、ユーザは他のユーザとその仮想空間に居るかのような感覚を得ることができるため、リアリティを高めることができる。 According to this configuration, the user can acquire the surface information of the user when touching the avatar operated by another user. As a result, the user can feel as if he or she is in the virtual space with another user, thereby enhancing reality.
好ましくは、上記態様において、前記ユーザ情報取得部は、前記ユーザの温度に係る情報をそれぞれ取得し、前記触覚情報伝達部は、前記アバターが接触する前記アバターを操作する前記ユーザの被接触部位に係る前記温度を取得して、接触部位に対応する前記ユーザの部位を前記温度となるように調整することにより、前記表面情報を前記ユーザに伝達する。 Preferably, in the above aspect, the user information acquisition unit acquires information related to the user's temperature, and the tactile information transmission unit transmits information to the touched part of the user operating the avatar that the avatar touches. The surface information is transmitted to the user by acquiring the temperature and adjusting the part of the user corresponding to the contact part to the temperature.
この構成によれば、ユーザは、他のユーザの操作するアバターに接触したときに、そのユーザの温かさを感じとることができる。 According to this configuration, when the user touches the avatar operated by another user, the user can feel the warmth of the user.
好ましくは、上記態様において、前記アバターに対応する像を、前記ユーザからの入力に基づいて設定した背景イメージ(71)に重畳して前記ユーザに提示する。 Preferably, in the above aspect, an image corresponding to the avatar is presented to the user by being superimposed on a background image (71) set based on input from the user.
この構成によれば、アバターに対応する像の背面に背景イメージを設定することができるため、コミュニケーションのリアリティを増すことができる。また、背景イメージを変更することで、ユーザに様々な空間にいるかのような感覚を与えることができるため、エンターテインメント性を増すことができる。 According to this configuration, a background image can be set behind the image corresponding to the avatar, thereby increasing the reality of communication. Also, by changing the background image, it is possible to give the user the feeling of being in various spaces, thereby increasing the entertainment value.
好ましくは、上記態様において、前記アバターを介さずに一人の前記ユーザに、選択的に通信可能なコーチ端末(9C)を備える。 Preferably, in the above aspect, a coach terminal (9C) capable of selectively communicating with one of the users without going through the avatar is provided.
この構成によれば、アバターを介してコミュニケーションを行う他のユーザに知られることなく、ユーザがアドバイスを受けることができる。 According to this configuration, the user can receive advice without being known by other users communicating via the avatar.
このような課題を解決するために、本発明のある実施形態は、コーチングシステムであって、コーチング実施者及びコーチング対象者がそれぞれ、上記のコミュニケーションシステムを用いて、前記アバターを操作してコミュニケーションを行うことにより、コーチングを行う。 In order to solve such a problem, an embodiment of the present invention is a coaching system in which a coaching person and a coaching target each use the above communication system to operate the avatar to communicate. Coaching is done by doing.
この構成によれば、コーチング対象者から離れた場所にいても、コーチング実施者がコーチング対象者にコーチングを行うことができる。 According to this configuration, the coaching person can coach the person to be coached even if the person is away from the person to be coached.
このように本発明によれば、ユーザがアバターを介してコミュニケーションを行うコミュニケーションシステム、及び、当該コミュニケーションシステムを用いたコーチングシステムにおいて、リアリティを高めることができる。 Thus, according to the present invention, reality can be enhanced in a communication system in which users communicate via avatars and in a coaching system using the communication system.
以下、図面を参照して、本発明に係るコミュニケーションシステム、及び、そのコミュニケーションシステムを用いたコーチングシステムの実施形態について詳細に説明する。 Hereinafter, embodiments of a communication system according to the present invention and a coaching system using the communication system will be described in detail with reference to the drawings.
<<第1実施形態>>
本発明に係るコミュニケーションシステム1、及び、コーチングシステム3は、恋人探しや結婚相手探しをするためのマッチングシステム5に適用される。マッチングシステム5は、ユーザから入力された情報に基づき、マッチング処理を行って、相手となるユーザを抽出して、相手となるユーザに係る情報をユーザに提供する。
<<First Embodiment>>
A
コーチングシステム3はマッチングシステム5の一部を構成する。コーチングシステム3は、希望するユーザ(以下、コーチング対象者)に対して、デートの予行演習である仮想デートの場を提供する。その他、コーチングシステム3は、コーチング実施者Cがデートを行う2名のユーザの一方にアドバイスを行うことを可能とする。
仮想的なデートはコーチング対象者と、コーチングを行うユーザ(以下、コーチング実施者C)とが、自分の分身となるアバターを操作することによって行われる。コミュニケーションシステム1は、コーチング実施者Cを含むユーザのアバター同士のコミュニケーションを行うためのシステムであり、マッチングシステム5及びコーチングシステム3の一部を構成する。
A virtual date is performed by a person to be coached and a user who performs coaching (hereinafter referred to as a coaching person C) by operating an avatar that is their alter ego. The
以下、マッチングシステム5は、コーチング実施者Cをマッチング処理の際に除外して、マッチングを行うものとし、コーチング実施者Cをマッチングシステム5のユーザに含めて説明を行う。
In the following description, the
次に、マッチングシステム5の構成について説明する。図1に示すように、マッチングシステム5は、ユーザのアバターである複数のロボット7と、ユーザがロボット7を操作するための入力を行う端末9と、ロボット7及び端末9にそれぞれネットワーク11を介して接続可能なサーバ13とを備える。
Next, the configuration of the
ロボット7は複数の壁体によって囲まれた一つの空間15(実空間)に収容されている。壁体にはそれぞれロボット7の位置を取得するためのネットワークカメラ17が設けられている。また、壁体の空間15側の面は、クロマキー合成がし易いように、グリーンやブルーなどの所定の色で着色されているとよい。但し、この態様には限定されず、ロボット7は屋外に移動可能であり、且つ、GPS等の公知のシステムを用いて、自己位置が取得できるように構成されていてもよい。
The
ロボット7は人型のいわゆるヒューマノイドロボットであって、それぞれ胴体となる胴部19と、胴部19に連結された頭部21と、胴部19に連結された左右の腕部23と、胴部19に連結された左右の脚部25とを備える。左右の腕部23先端にはそれぞれ人の手を模倣したハンド27が設けられている。腕部23、脚部25、ハンド27等には概ね人と同様の位置に関節が設けられている。それぞれの関節には、関節の折り曲げや、伸長を行うための駆動機構が設けられている。
The
ロボット7には、図2に示すように、触覚センサ31と、視覚センサ33と、聴覚センサ35と、音発生装置37と、制御装置39とが設けられている。
The
触覚センサ31は物体への接触によってアバターであるロボット7の表面に伝わる情報を取得する。触覚センサ31は、人の触覚の感覚を模したセンサであって、人が感じる皮膚感覚に相当する情報(以下、触覚情報)を取得する。すなわち、触覚センサ31は、いわばアバターが感じる触覚情報を取得するアバター情報取得部として機能する。
The
触覚センサ31が取得する情報には、人が感じる皮膚感覚のうち、圧覚に相当する情報(以下、圧覚情報)と、温度感覚に相当する情報とが含まれる。圧覚とは人が物体と接触した際に感じる反力による皮膚感覚である。温度感覚は人が物体表面に接触したときに感じる温度に係る皮膚感覚である。触覚センサ31は左右のハンド27にそれぞれ設けられている。
The information acquired by the
触覚センサ31は、圧覚情報を取得する圧覚センサ31Aと、温度感覚に係る情報(以下、温度情報)を取得する温度センサ31Bとを含む。
The
圧覚センサ31Aはハンド27の表面の各所に設けられ、それぞれ圧覚情報を取得する複数の圧覚検出デバイスを含む。圧覚検出デバイスはそれぞれ、圧力を検出する圧力センサによって構成されていてもよい。圧覚検出デバイスは、抵抗式、静電容量式、圧電式、ひずみゲージ式、磁気式等のいずれかの方法、又は、それらを組み合わせた方法に基づく公知のデバイスに基づくものであってよく、その他、生体模倣型触覚センサによって構成されていてもよい。
The
温度センサ31Bはハンド27の表面の各所に設けられ、それぞれ温度情報を取得する複数の感熱デバイスを含む。感温デバイスはそれぞれ熱電対や、温度に応じて抵抗値が変化する抵抗体であってもよい。温度センサ31Bはロボット7のハンド27を覆うフレキシブルデバイスによって構成されているとよい。
The
触覚センサ31は振動を検出することによって、人が物体表面を撫でた際などに感じるザラザラ感などの皮膚感覚に相当する情報を取得するデバイスを含んでいてもよい。
The
視覚センサ33はロボット7前方を撮像する装置であり、CCDやCMOS等の撮像素子からなるカメラを含む。カメラは人の視覚に対応する情報(視覚情報)を取得する視覚検出デバイスということができる。本実施形態では、2つのカメラがそれぞれ頭部21の人の左右の目に相当する位置に設けられている。
The
聴覚センサ35は、音を電気信号に変換する装置であって、マイクロホンによって構成されている。聴覚センサ35は人の聴覚に対応する情報(聴覚情報)を取得する聴覚検出デバイスということができる。本実施形態では、聴覚センサ35は、ロボット7の頭部21の人の左右の耳に相当する位置に設けられた2つのマイクロホンによって構成されている。
The
音発生装置37は、電気信号を音に変換する装置であって、スピーカによって構成されている。音発生装置37は、頭部21の人の口に相当する位置に設けられていてもよく、また、頭部21のその他の位置や、胴部19に設けられていてもよい。
The
制御装置39は駆動機構の駆動を制御する装置であり、本実施形態では、ロボット7の胴体に設けられている。制御装置39は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。
A
制御装置39は触覚センサ31、視覚センサ33、及び、聴覚センサ35に接続され、触覚情報、視覚情報、及び、聴覚情報を取得する。制御装置39はまた音発生装置37に接続され、ロボット7から音を発生させる。
The
制御装置39は無線LANを介して、ネットワーク11(インターネット)に接続し、端末9及びサーバ13に相互に通信する。制御装置39は、外部からの信号に基づいて、駆動機構の駆動を制御することにより、ロボット7の姿勢をコントロールする。
The
また、制御装置39は、触覚センサ31、視覚センサ33、及び、聴覚センサ35によって取得された触覚情報、視覚情報、及び、触覚情報を、適宜、端末9、及び、サーバ13に送信する。更に、制御装置39は、外部からの信号に基づき、音発生装置37を制御して、ロボット7から音を発生させる。
Further, the
端末9はそれぞれ、コーチング実施者C、及び、コーチング対象者を含むマッチングシステム5の全ユーザに保持されている。端末9はユーザやコーチの住居に設置されるものであってもよく、また、ユーザに持ち運び可能に保持されるものであってもよい。
端末9(端末装置ともいう)は端末本体41と、出入力装置43とを含む。端末本体41は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。
A terminal 9 (also referred to as a terminal device) includes a
出入力装置43は、端末本体41に対して出入力を行うための装置であって、モニタ45、キーボード47、マウス49、カメラ51、ヘッドセット53、及び、コントローラ55を含む。
The input/
モニタ45はユーザの前方に設けられ、端末本体41からの信号に基づいて画像を表示し、ユーザに視覚情報を伝達する。キーボード47及びマウス49はユーザから端末本体41への入力を受け付ける。カメラ51はユーザの前方に配置され、ユーザを撮像し、ユーザの姿勢及びユーザの表情を含む視覚情報を取得する。
A
ヘッドセット53は、ユーザの頭に装着される装置であり、左右の耳にそれぞれ装着される左右一対のイヤホン57と、マイクロホン59とを含む。イヤホン57はそれぞれ、端末本体41からの信号に基づいて音を発生させて、ユーザに聴覚情報を伝達する。マイクロホン59は、ユーザの発する声を取得し、端末本体41に出力する。すなわち、マイクロホン59は、ユーザの声等の聴覚情報を取得する。
The
コントローラ55はユーザの左右の手にそれぞれ装着されるウエラブルデバイスである。コントローラ55は左右一対のグローブ61と、グローブ61にそれぞれ設けられた触覚付与デバイス63と、ユーザ情報取得センサ65と、姿勢センサ67とを備えている。
The
触覚付与デバイス63はグローブ61の内側に設けられ、圧力、温度等をユーザの手の表面各所に付与し、ユーザに触覚情報を伝達する。
A tactile
触覚付与デバイス63は、グローブ61を装着するユーザの手表面各所に圧力を加える圧力付与デバイス63Aと、グローブ61を装着するユーザの手表面各所に温調する温調デバイス63Bとを含む。
The tactile
圧力付与デバイス63Aは、グローブ61の各所に設けられたアクチュエータを含む。アクチュエータはグローブ61の内面各所に設けられ、内部に流体を含む袋体と、袋体に流体を出し入れする給排装置とを含む。アクチュエータは袋体に流体を出し入れすることによってユーザの手に圧力を加え、圧覚情報をユーザに伝達する。
The
また、アクチュエータは、端末本体41からの信号に基づいて、ユーザの手に振動を加えて、ユーザに圧覚を伝える触感デバイス(触力覚デバイス)であってもよい。触感デバイスは公知のハプティクス技術に基づくものであってよく、その技術に基づいて、端末本体41は触感デバイスから発生させる振動の波形パターンや振動の周波数を制御するとよい。
The actuator may also be a tactile device (tactile force device) that applies vibration to the user's hand based on a signal from the terminal
温調デバイス63Bはそれぞれ端末本体41に接続されている。温調デバイス63Bは端末本体41からの信号に基づいて、ユーザの手の表面各所が端末本体41によって設定された温度となるように、グローブ61の内面各所の温度を調節する。これにより、温調デバイス63Bは温度情報をユーザに伝達する。
The
温調デバイス63Bはグローブ61の各所に設けられた温調素子を含む。温調素子は、ヒータや、ペルチェ素子、フレキシブルな有機熱電素子等であってよい。
The
ユーザ情報取得センサ65(ユーザ情報取得部)は、コントローラ55を装着するユーザの表面に係る表面情報(以下、ユーザ表面情報)を取得する。表面情報には、人がその表面に接触したときに感じ取ることのできる情報を意味し、例えば、表面温度や、柔らかさ、表面から受ける反力などが含まれる。
The user information acquisition sensor 65 (user information acquisition unit) acquires surface information (hereinafter referred to as user surface information) relating to the surface of the user wearing the
本実施形態では、ユーザ情報取得センサ65は体表圧センサ65Aと、体表温センサ65Bとを含む。体表圧センサ65Aと、体表温センサ65Bとはそれぞれグローブ61の内面に設けられている。
In this embodiment, the user
体表圧センサ65Aはユーザから加わる圧力を検出する。詳細には、体表圧センサ65Aは、触覚付与デバイス63がユーザに圧覚を付与する(ユーザの手に圧力を加える)ことによって、グローブ61に加わる反力である圧力を検出する。体表圧センサ65Aは触覚付与デバイス63が備える袋体それぞれの圧力を検出する圧力検出素子によって構成されていてもよい。
The body
体表温センサ65Bはグローブ61の内側に設けられ、ユーザの手各所の表面温度を取得する。体表温センサ65Bはグローブ61の内側各所に設けられた複数の感温デバイスを含む。感温デバイスは熱電対や、温度に応じて抵抗値が変化する抵抗体であってもよい。体表温センサ65Bはそれぞれフレキシブルなシートにプリントされた感温性抵抗体によって構成されていてもよい。
A body
姿勢センサ67はグローブ61の各所に設けられた複数のIMU(慣性計測センサユニット)を含む。IMUは3軸の加速度、及び、対応する各軸の角速度を取得する。端末本体41はIMUによって取得された加速度、及び、各速度に基づいて、ユーザの指の関節や、掌、手首の関節の動きをトラッキングし、手の指、及び手首の位置・姿勢を取得する。
The
端末本体41はネットワーク11を介してサーバ13及びロボット7の制御装置39に接続する。端末本体41は、姿勢センサ67によって取得したユーザの指、及び手首の位置・姿勢情報と、カメラ51によって取得したユーザの姿勢情報と、ユーザ情報取得センサ65によって取得したユーザ表面情報と、ヘッドセット53のマイクロホン59によって取得した音声情報とをサーバ13に送信する。
The
サーバ13は、中央演算処理装置(CPU)、RAM及びROM等のメモリ、SSDやHDD等の記憶装置を備えたコンピュータによって構成されている。サーバ13は、マッチングシステム5の運営を行う会社などの事務所内に設置されているとよい。
The
サーバ13は、ネットワーク11を介して、ネットワークカメラ17の撮像画像を取得し空間15内のロボット7の位置及び姿勢を取得する。また、サーバ13は、端末9から取得した情報に基づいて、その端末9を操作するユーザに対応するロボット7の制御装置39に信号を送信し、当該ロボット7の駆動を制御することができる。
The
サーバ13は、ユーザの希望する条件等のユーザ情報を記憶装置に予め記憶し、コーチ以外の希望するユーザに対して恋人探しや結婚相手探しをするためのマッチング処理を行う。以下、マッチング処理の流れについて、図3を参照して説明する。
The
ユーザ(以下、ユーザA。図1参照)が端末9に希望する条件を入力してサーバ13に送信し、申し込みを行うと(ST1)、サーバ13は、予め記憶されたユーザ情報を用いて、マッチングするユーザ(以下、ユーザB)を抽出する。その後、サーバ13は、ユーザAの端末9に通知を行い、その入出力装置にマッチングするユーザBが抽出され、マッチングが完了した旨の通知を表示させる(ST2)。
When a user (hereafter referred to as user A; see FIG. 1) enters desired conditions into the
ユーザAがデートプランに係るコーチング(以下、プランコーチング)を希望する旨の入力を行うと、サーバ13はユーザAの端末9の出入力装置43に入力画面を表示させ、デートプランの入力を受け付ける。ユーザAがデートプランの入力を行ってサーバ13に送信すると、サーバ13はデートプランの評価処理を行い、ユーザAの端末9の入出力装置に評価を表示させる(ST3)。その際、サーバ13は入出力装置に評価に加えて、デートプランに対するアドバイスを表示させてもよい。また、サーバ13は再度、ユーザAの端末9の出入力装置43に入力画面を表示させ、デートプランの入力を受け付けてもよい。このとき、デートプランが再度入力されたときには、サーバ13は再度評価処理を行い、ユーザAの端末9の入出力装置に評価を表示させるとよい。
When the user A inputs a desire for coaching related to a date plan (hereinafter referred to as plan coaching), the
ユーザAがデートのコーチング(以下、デートコーチング)の実行を希望する旨の入力を行うと、サーバ13はユーザAの端末9の出入力装置43に、コントローラ55、及び、ヘッドセット53を装着して、自らの分身(アバター)となるロボット7を操作し、仮想的なデート(以下、予行デート。お試しデートともいう)を行うように指示する表示を行わせる。ユーザはその指示に従い、自らの分身となるロボット7を操作し、予行デートを行う(ST4)。予行デートとは、ユーザはアバターとなるロボット7を操作することにより、コーチング実施者Cの操作するアバターとしてのロボット7と行う仮想的なデートである。
When the user A inputs a desire to perform date coaching (hereinafter referred to as date coaching), the
予行デートを行っている間、端末9が姿勢センサ67による検出結果に基づいて、ユーザの指及び手首の位置・姿勢を取得し、サーバ13に送信する。サーバ13はその位置、及び姿勢をロボット7の制御装置39に送信し、制御装置39はユーザの指及び手首に対応するように、ユーザに対応するロボット7の手を移動させる。
During the rehearsal date, the
更に、端末本体41はカメラ51による検出結果に基づいて、サーバ13にユーザの姿勢に係る情報を送信する。サーバ13は、ユーザの姿勢に係る情報を受信すると、対応する信号を制御装置39に送信し、制御装置39は、ユーザの姿勢と同じ姿勢となるようにロボット7の駆動を制御する。これにより、ロボット7は、ユーザの指、及び手首、姿勢に対応するように駆動する。よって、ロボット7はユーザの分身(アバター)として動作する。
Further, the terminal
予行デートを行っている間、サーバ13は、ユーザの操作する全てのロボット7の視覚センサ33によって取得した視覚情報を加工して表示画像を生成し、そのユーザの端末9に表示画像を提示させる視覚伝達処理を行う。サーバ13が視覚伝達処理を行うと、端末本体41はモニタ45に表示画像を表示させて、ユーザに視覚情報を伝達する。
During the rehearsal date, the
サーバ13は視覚伝達処理において、視覚センサ33によって取得された画像をそれぞれ左右に並べることによって表示画像を生成してもよい。また、サーバ13は、ロボット7の視覚センサ33によって取得した画像を、端末9のカメラ51によって取得した画像を用いて、ロボット7の代わりに、ロボット7を操作するユーザが撮像されたかのように加工し、表示画像を生成してもよい。
In the visual communication process, the
予行デートを行っている間、サーバ13は全ロボット7に対して視覚伝達処理を行う。これにより、ユーザのモニタ45には、予行デートを行う相手のユーザの操作するロボット7の像や、端末9のカメラ51によって取得した相手ユーザの像が表示される。これにより、ユーザには、相手のユーザに係る視覚情報が伝達されるため、予行デート中、ユーザ間において相互に視覚情報が伝達される。すなわち、視覚伝達処理を実行することによって、サーバ13には機能部として、ユーザ間において相互に視覚情報を伝達させる視覚伝達部13Aが構成される。
During the rehearsal date, the
サーバ13は、視覚センサ33によって取得した画像からロボット7の像のみを抽出し、それ以外の部分に対して、所定の背景イメージ71(図1参照)を挿入してもよい。本実施形態では、サーバ13は、視覚センサ33によって取得した画像の中の壁体の空間15側の面の色の部分を透明にし、そこに別の映像を合成する、いわゆるクロマキー合成を行って、視覚センサ33によって取得した画像に背景イメージ71を挿入する。
The
端末本体41は、ユーザから挿入すべき背景イメージ71の選択をユーザから受け付けるとよい。背景イメージ71を選択することによって、予行デートの現実感を高めることができる。また、背景イメージ71を変更することで、ユーザに違った空間15にいるかのような感覚を与えることができるため、エンターテインメント性を増すことができる。
The
予行デートを行っている間、サーバ13は、各端末9のヘッドセット53に設けられたマイクロホン59が取得した音声をロボット7に出力させるとともに、ロボット7の聴覚センサ35によって取得した音声を、対応するユーザのヘッドセット53のイヤホン57から出力させる聴覚伝達処理を行う。
During the rehearsal date, the
具体的には、聴覚伝達処理において、サーバ13は、ロボット7の聴覚センサ35(左右のマイクロホン)それぞれで取得した音声信号を制御装置39から取得し、対応するユーザの端末9に送信する。端末9は、ヘッドセット53のイヤホン57からそれぞれ対応する音声を出力させ、ユーザに聴覚情報を伝達する。
Specifically, in the auditory transmission process, the
但し、この態様には限定されず、例えば、サーバ13は、聴覚伝達処理において、会話の相手のヘッドセット53のマイクロホン59によって取得した聴覚情報を取得し、ユーザのイヤホン57から直接出力させてもよい。
However, the present invention is not limited to this aspect. For example, in the auditory transmission processing, the
予行デートを行っている間、サーバ13は全ロボット7、全端末9に対して視覚伝達処理を行う。ユーザのヘッドセット53のイヤホン57には、予行デートを行う相手のユーザの音声が出力される。これにより、ユーザには、予行デートを行う相手の聴覚情報が伝達される。すなわち、聴覚伝達処理を実行することによって、サーバ13には、機能部としてユーザ間において相互に聴覚情報が伝達する聴覚伝達部13Bが構成される。
During the rehearsal date, the
サーバ13は、予行デート中、ロボット7に設けられたカメラ51によって取得した画像や、ネットワークカメラ17によって取得された画像から、公知の画像解析手法を用いて、空間15(実空間)内の物体(以下、実物体X)の位置、及び、全てのロボット7の位置を常時取得する。
During the rehearsal date, the
その他、サーバ13は、ロボット7と対応するユーザの組み合わせごとに触覚伝達処理を行う。
In addition, the
また、予行デートを行っている間、サーバ13は、カメラ51、マイクロホン59、姿勢センサ67、触覚センサ31等によって取得したデータ(以下、デートデータ)を記録する。
Also, during the rehearsal date, the
予行デートが完了すると、サーバ13はデートデータを分析し、予行デートの評価を行う評価処理を実行し、評価値を取得する。その後、サーバ13はユーザAの出入力装置43、及び、コーチング実施者Cの端末9の出入力装置43にそれぞれ評価値を表示させ、ユーザA及びコーチング実施者Cに通知する。このとき、コーチング実施者Cは、予行デートに対するコメントを作成し、ユーザAに通知する。
When the rehearsal date is completed, the
ユーザAが予行デートの印象や、評価値に基づいて、ユーザBとデートを行ってもよいと判定し、端末9に所定の入力を行うと、サーバ13はマッチングされたユーザBに係る情報を取得し、ユーザAに提示する。その後、ユーザAは、ユーザBと実際にデート(以下、実デート。リアルデートともいう)を行う(ST5)。実デートは、ユーザA及びユーザBが実際に会うものや、それぞれがロボット7を操作することによって行うものであってよい。
When user A determines that he/she may go on a date with user B based on the impression of the rehearsal date and the evaluation value, and performs a predetermined input to the
本実施形態では、ユーザAとユーザBとがロボット7を操作することによって実デートを行うときには、サーバ13は、コーチング実施者CがユーザAにアドバイスを行えるように構成されている。
In this embodiment, the
具体的には、コーチング実施者Cが自らの端末9(コーチ端末9C)の端末本体41はマイクロホン59によって取得した音声のみをサーバ13に送信し、サーバ13はユーザAの端末9のイヤホン57から、対応するロボット7の聴覚センサ35によって取得した音声とともに、出力させる。これにより、コーチ端末9Cはアバターを介さずに一人のユーザ(ユーザA)に選択的に通信可能な端末9として機能する。これにより、アバターを介してコミュニケーションを行う他のユーザに知られることなく、ユーザがアドバイスを受けることができる。
Specifically, the
このとき、サーバ13は、ネットワークカメラ17によって取得した画像をコーチ端末9Cの端末本体41に送り、コーチ端末9Cの端末本体41はモニタ45に表示するとよい。
At this time, the
<触覚伝達処理>
次に、触覚伝達処理の詳細について、図4に示すフローチャートを参照して説明する。サーバ13は予行デート中、予行デートを行うユーザと、ロボット7との全組み合わせについて、触覚伝達処理を常時(例えば、1ミリ秒ごとに)繰り返して行う。
<Haptic transmission processing>
Next, details of the tactile sensation transmission processing will be described with reference to the flowchart shown in FIG. During the rehearsal date, the
触覚伝達処理の最初のステップST11において、ハンド27の触覚センサ31によって所定の閾値以上の圧力が検出されているかを判定する、所定の閾値以上の圧力が検出されているときには、ステップST12を、検出されていないときには触覚伝達処理を終える。
In the first step ST11 of the tactile sensation transmission process, it is determined whether or not the
サーバ13は、ステップST12において、閾値以上の圧力が検出された触覚センサ31が設けられたロボット7(以下、接触ロボット7)の位置や姿勢、接触ロボット7に設けられた視覚センサ33による画像や、ネットワークカメラ17の画像等に基づいて、接触ロボット7のハンド27が触れた物体が実物体Xであるか、又は、他のロボット7のハンド27以外の部分であるかを判定する。サーバ13は、接触ロボット7のハンド27が触れた物体が実物体Xであるか、又は、ロボット7のハンド27以外の部分である場合には、ステップST13を、それ以外の場合、すなわち、接触ロボット7のハンド27に触れた物体がロボット7のハンド27である場合にはステップST14を実行する。
In step ST12, the
ステップST13において、サーバ13は接触ロボット7の触覚センサ31によって取得した触覚情報(温度、圧力)を制御装置39から取得する。その後、サーバ13は、接触ロボット7に対応するユーザ(以下、接触ユーザ)の端末本体41を制御して、触覚付与デバイス63(圧力付与デバイス63A及び温調デバイス63B)を駆動させ、ユーザ(以下、接触ユーザ)に取得した触覚情報(温度、圧力)を伝達する。
In step ST<b>13 , the
具体的には、サーバ13は、接触ロボット7の圧覚センサ31Aによって取得した圧力を制御装置39から取得し、ユーザの接触ロボット7のハンド27が接触した部位に対応する部分に加えるべく、圧力付与デバイス63Aを駆動させる。また、サーバ13は、接触ロボット7の温度センサ31Bによって取得した温度を制御装置39から取得し、ユーザの接触ロボット7のハンド27が接触した部位が当該温度となるように、温調デバイス63Bを駆動させる。
Specifically, the
触覚付与デバイス63の動作が完了すると、サーバ13は触覚伝達処理を終える。
When the operation of the tactile
ステップST14において、サーバ13は、接触ロボット7の視覚センサ33、及びネットワークカメラ17の撮像画像に基づいて、接触ロボット7のハンド27が接触するロボット7(以下、被接触ロボット7)を同定する。その後、サーバ13は、被接触ロボット7を操作するユーザ(以下、被接触ユーザ)を同定する。
In step ST<b>14 , the
次に、サーバ13は、接触ロボット7の視覚センサ33、被接触ロボット7の視覚センサ33、及び、ネットワークカメラ17の撮像画像に基づいて、接触ロボット7のハンド27のうち、被接触ロボット7に接触する部位(以下、接触部位)と、被接触ロボット7のハンド27のうち、接触ロボット7に接触する部位(以下、被接触部位)とを同定する。同定が完了すると、サーバ13はステップST15を実行する。
Next, based on the
ステップST15において、サーバ13は、被接触ユーザの端末本体41から、被接触ユーザの被接触部位に対応する部分のユーザ表面情報(圧力、温度)を取得する。次に、サーバ13は、接触ユーザの端末本体41を介して、接触ユーザの触覚付与デバイス63を駆動させ、被接触ユーザの被接触部位に対応する部分のユーザ表面情報(圧力、温度)を接触ユーザに伝達する。すなわち、触覚伝達処理を行うことによって、サーバ13には、機能部として、表面情報をコミュニケーション相手となるユーザに伝達する触覚情報伝達部13Cが構成される。
In step ST15, the
具体的には、サーバ13は触覚センサ31から非接触ユーザから被接触部位に対応する部分の圧力及び温度を取得し、接触ユーザの接触部位に対応する部分に当該圧力を加え、且つ、接触ユーザの接触部位に対応する部分が当該温度となるように、触覚付与デバイス63を駆動させる。
Specifically, the
触覚付与デバイス63の動作が完了すると、サーバ13は触覚伝達処理を終える。
When the operation of the tactile
<評価処理>
予行デートが完了した後にサーバ13が実行する評価処理について詳細に説明する。
<Evaluation process>
The evaluation process executed by the
サーバ13は、他のユーザのロボット7への操作入力の履歴情報や、ユーザから取得したアンケート結果、人間の行動モデル等を用いた機械学習によって、デートにおいて取るべき模範行動モデルを保持している。
The
サーバ13は、マイクロホン59によって取得したユーザA及びコーチング実施者Cの音声をそれぞれテキストデータに変換する。その後、サーバ13は、テキストデータや、カメラ51によって取得した画像、触覚センサ31等によって取得した情報と、模範行動モデルとに基づいて、ユーザが取るべき模範的な行動を取得する。次に、サーバ13は、取得した模範的な行動と、ユーザの行動の差分を算出し、評価値を取得する。サーバ13は、模範的な行動と、ユーザの行動との差分が小さい(すなわち、乖離が小さい)ときに、評価値を高くなるように算出するとよい。
The
この態様には限定されず、サーバ13は、テキストデータ、及び、カメラ51によって取得した画像に基づいて感情分析を行って、評価値を取得してもよい。具体的には、サーバ13は、会話の内容を示すテキストデータ、音声、カメラ51によって取得された会話者の表情等を、人工知能等の用いた公知の感情分析手法を用いて、「中立」「怒り」「喜び」「悲しみ」などの分類ごとに、各感情の強さを示す感情スコアを取得する。感情スコアの算出は、例えば、特許第6804763号公報、米国特許公開第10289898号明細書等に記載された各種の公知の方法を用いることができる。
It is not limited to this aspect, and the
その後、サーバ13は評価値を、ポジティブな感情(例えば、「喜び」)の感情スコアが高くなるほど高くなるように算出する。例えば、サーバ13は、予行デート中の会話の全テキストデータに対して感情スコアを算出し、ポジティブな感情(例えば、「喜び」等)には正の、ネガティブな感情(例えば、「怒り」「悲しみ」等)には負の重みを付けて、感情スコアの和を取ることによって評価値を算出してもよい。また、サーバ13は、所定時刻ごとのユーザの表情の画像に対して感情スコアを算出し、同様に重みを付けて算出することによって、評価値を算出してもよい。
After that, the
サーバ13は、会話を行うユーザそれぞれの画像に対して、公知の感情分析手法を用いて、各時刻の感情スコアを取得する。その後、サーバ13は、会話を行う2名のユーザにおいて、ポジティブな感情に係る感情スコア(例えば、「喜び」)が同期している度合いを算出し、その度合いに基づいて評価値を算出する。同期している度合いは、会話を行う一方のユーザのポジティブな感情に感情スコアが所定値以上であるときに、他方のユーザのポジティブな感情に感情スコアが所定値以上である割合に基づいて算出されるとよい。
The
その他、サーバ13は、ロボット7の触覚センサ31によって取得された圧力に基づいて、会話の相手となるユーザへの接触のタイミングを取得し、評価値として出力してもよい。サーバ13は、例えば、会話の相手の表情に基づく感情スコアのうち、ポジティブな感情に対応する感情スコアと、接触のタイミングとの同期度合いに基づいて、評価値を算出するとよい。サーバ13は、評価値を、同期度合いが高くなるにつれて、高くなるように算出するとよい。
In addition, the
次に、このように構成したコミュニケーションシステム1、及び、コーチングシステム3の効果について説明する。
Next, effects of the
予行デートにおいて、2つのロボット7のハンド27同士が接触したときには(ST12においてYes)、ユーザ情報取得センサ65によって相手方のユーザの被接触部位に対応する部分の温度や圧力(ユーザ表面情報)が取得される。その後、その温度や圧力(ユーザ表面情報)が、触覚付与デバイス63を介してユーザに伝達される(ST15)。これにより、ユーザは、他のユーザの操作するロボット7に接触したときに、その接触相手となるユーザの表面温度や圧力を感じとることができる。よって、接触されたユーザの視覚情報及び聴覚情報以外の「ふれあい」を含めた情報を、接触したユーザに伝達することができるため、コミュニケーションのリアリティを高めることができる。
In the rehearsal date, when the
一方、ユーザが操作するロボット7が、ロボット7以外の空間15内に位置する物体に接触したとき(ST12においてNo)には、ロボット7によって取得した触覚情報が触覚付与デバイス63を介してユーザに伝達される(ST13)。これにより、これにより、ユーザは他のユーザとその空間15に居るかのような感覚を得ることができ、コミュニケーションのリアリティを増すことができる。
On the other hand, when the
また、マッチングシステム5では、ユーザ同士がアバターを使ってデートを行うことができる。よって、ユーザ同士が離れた場所にいた場合であっても、ユーザがデートを楽しむことができる。また、ユーザ自身の姿を表示することなく、分身となるロボット7を使ってデートを楽しむことができるため、ユーザの個人情報を保護することが容易である。
Also, in the
また、本実施形態では、コーチング実施者C及びコーチング対象者(ユーザA)がそれぞれ、コミュニケーションシステム1を用いて、アバターとなるロボット7をそれぞれ操作してコミュニケーションを行うことにより、コーチングを行う。そのため、コーチング実施者Cとコーチング対象者とが離れた場所にいた場合であっても、コーチングを行うことができる。
Further, in the present embodiment, the coaching person C and the person to be coached (user A) use the
コーチング対象者は、コーチング実施者Cと予行デートを行い、いわば実デートの予行演習を行うことができる。コーチング対象者は、予行デートの評価値や、コーチング実施者Cのコメントによって、一歩踏み出した行動をとったときにどのように捉えられるのかを実感することができる。 The coaching subject can have a rehearsal date with the coaching person C, so to speak, a rehearsal of an actual date. The coaching subject can feel how he or she will perceive the behavior when taking a step forward, based on the evaluation value of the rehearsal date and the comments of the coaching practitioner C.
<<第2実施形態>>
第2実施形態に係るコミュニケーションシステム101、及び、コーチングシステム103もまた、第1実施形態と同様にマッチングシステム5に適用される。但し、第2実施形態が適用されるマッチングシステム5は、ロボット7を含まない点で、第1実施形態と異なる。
<<Second Embodiment>>
The
図5に示すように、マッチングシステム5は、第1実施形態と同様の端末9と、第1実施形態と同様のサーバ13とを含む。端末9は、第1実施形態と同様にユーザに装着されるコントローラ55及びヘッドセット53とを備え、ネットワーク11を介して、サーバ13に接続する。
As shown in FIG. 5, the
サーバ13は、第1実施形態と同様に、予行デートの実行の申し込みを受け付けると、コーチング実施者Cと、コーチング対象者(例えば、図5のユーザA)とに共通の仮想の3次元空間(以下、仮想空間117)を構築する。更に、サーバ13は、コーチング実施者Cと、コーチング対象者との姿勢に応じて、キャラクター107を対応するように、変形・移動させる。また、サーバ13は、第1実施形態と同様に、コーチング実施者Cとコーチング対象者との間で聴覚情報を相互に伝達する。これにより、サーバ13は、コーチング実施者Cと、コーチング対象者とが分身(アバター)となるキャラクター107を操作してバーチャルデートを行うことのできるコーチングサービスを提供する。
As in the first embodiment, when the
サーバ13はまた、実デートの実行の申し込みを受け付けると、共通の仮想空間117において、ユーザと、マッチングされたユーザとがそれぞれ対応するキャラクター107を操作してバーチャルデートを行うことのできるバーチャルデートサービスを提供する。
The
図5に示すように、仮想空間117内には、2体のキャラクター107と、仮想物体Yとが設けられている。キャラクター107はそれぞれ、胴部19、頭部21、2つの腕部23、及び、2つの脚部25を有する人型をなす。
As shown in FIG. 5, two
仮想物体Yは、例えば、テーブルやクッション等の形状をなしている。サーバ13は、仮想物体Yごとに、対応する形状に係る情報と、変形し易さを示す情報(以下、硬さ情報)と、温度を示す情報(以下、温度情報)とを保持している。本実施形態では、サーバ13は、硬さ情報及び温度情報をそれぞれ数値として記憶装置に記憶している。硬さ情報を示す数値は、変形し難くなるほど高くなるように設定されている。サーバ13は、硬さ情報に対する数値を、テーブルに対応する仮想物体Yに対しては、クッションに対応する仮想物体Yよりも、高くなるように記憶している。
The virtual object Y has a shape such as a table or a cushion, for example. The
第1実施形態と同様に、サーバ13は、ユーザの手・指の位置・姿勢や、ユーザの姿勢を取得し、ユーザに対応する仮想空間117内のキャラクター107の手・指の位置・姿勢や、キャラクター107自体の姿勢を対応するように操作する。このような仮想空間117内におけるキャラクター107の操作は、ゲーム等において用いられる公知の方法に基づくものであってよい。
As in the first embodiment, the
また、サーバ13は、予行デートを行う一方のユーザのヘッドセット53のマイクロホン59から音声を取得すると、他方のユーザの端末9のスピーカから音声を発生させる。これにより、ユーザは聴覚情報を相互に伝達することができる。すなわち、サーバ13は、聴覚情報をユーザ間において相互に伝達する聴覚情報伝達部を構成し、ユーザは音声によってコミュニケーションを行うことができる。
Further, when the
サーバ13は、端末9への入力に応じてキャラクター107を移動させるとともに、キャラクター107が、仮想空間117内の他のキャラクター107や仮想物体Yに接触すると、第1実施形態と同様に触覚伝達処理を行う。
The
サーバ13は触覚伝達処理において、まず、キャラクター107と他のキャラクター107と接触しているか、又は、仮想物体Yに接触しているかを判定する。
In the tactile transmission process, the
仮想空間117においてキャラクター107(以下、接触側キャラクター107)の手が他のキャラクター107(以下、被接触側キャラクター107)の手に接触したときには、サーバ13は、仮想空間117内の接触側キャラクター107の接触部位及び被接触側キャラクター107の被接触部位を取得する。接触部位・非接触部位の取得は、公知の方法に基づくものであってよく、例えば、特開2013-106701号公報に記載された方法に基づいて算出されてもよい。
When the hand of the character 107 (hereinafter referred to as the contacting character 107) touches the hand of another character 107 (hereinafter referred to as the contacted character 107) in the
次に、サーバ13は、第1実施形態と同様に、被接触側キャラクター107を操作するユーザ(以下、被接触ユーザ)の被接触部位に係るユーザ表面情報(圧力、温度)を取得し、接触側キャラクター107を操作するユーザ(以下、接触ユーザ)の接触部位に伝達する。すなわち、触覚伝達処理を実行することによって、サーバ13には、機能部として、ユーザ表面情報をコミュニケーション相手となるユーザに伝達する触覚情報伝達部13Cが構成される。
Next, as in the first embodiment, the
具体的には、サーバ13は、接触ユーザの接触部位に、被接触部位から受けた圧力が加わり、被接触部位から受けた温度が伝わるように、接触ユーザの触覚付与デバイス63を駆動させる。
Specifically, the
仮想空間117においてキャラクター107の手が仮想物体Yに接触したときには、サーバ13は、キャラクター107の接触部位、接触した仮想物体Yの硬さ情報及び温度情報を取得する。その後、サーバ13は、対応するユーザの接触部位に対応する部分に、硬さ情報に応じた圧力と、温度情報に対応する温度を伝えるべく、接触ユーザの触覚付与デバイス63を駆動させる。
When the hand of the
次に、このように構成したコミュニケーションシステム101、及び、コーチングシステム103の効果について説明する。
Next, effects of the
仮想空間117において、キャラクター107が他のキャラクター107に接触すると、接触ユーザの接触部位に、被接触ユーザの被接触部位に係るユーザ表面情報(圧力、温度)が伝達される。これにより、ユーザは他のユーザとその仮想空間117に居て、接触したかのような感覚を得ることができるため、リアリティを高めることができる。
In the
本実施形態では、キャラクター107が仮想物体Yに接触すると、接触ユーザの接触部位に、仮想物体Yに対応する圧力や温度が伝達される。これにより、ユーザは、仮想空間117に居て、仮想物体Yに接触しているかのような感覚を得ることができるため、リアリティを高めることができる。
In this embodiment, when the
以上で具体的実施形態の説明を終えるが、本発明は上記実施形態に限定されることなく幅広く変形実施することができる。 Although the specific embodiments have been described above, the present invention is not limited to the above embodiments and can be widely modified.
上記実施形態では、コーチング対象者へのコーチングがコーチング実施者Cによって行われる例を記載したが、これには限定されず、コーチングがサーバ13において実行される所定のプログラムによって行われるものであってもよい。 In the above embodiment, an example is described in which the coaching person C coaches the person to be coached. good too.
上記実施形態において、触覚付与デバイス63は、圧力、温度をユーザに伝達するように構成されていたが、ユーザに伝達する情報はこれには限定されない。触覚付与デバイス63は、公知の触覚伝達技術によって、他の触覚に係る情報(例えば、ざらざら感や、力覚等)を伝達するものであってもよい。
In the above embodiment, the tactile
上記実施形態では、ハンド27やユーザの手への触覚に係る情報がユーザに伝達されるように構成されていたが、触覚に係る情報が伝達される部位は手には限定されず、身体各所における触覚に係る情報がユーザ間で相互に伝達されるように構成されていてもよい。
In the above-described embodiment, information related to the tactile sensation of the
1 :第1実施形態に係るコミュニケーションシステム
3 :第1実施形態に係るコーチングシステム
5 :マッチングシステム
7 :ロボット
9 :端末
9C :コーチ端末
13 :サーバ(コンピュータ)
13A :視覚伝達部
13B :聴覚伝達部
13C :触覚情報伝達部
15 :空間
31 :触覚センサ(アバター情報取得部)
65 :ユーザ情報取得センサ(ユーザ情報取得部)
71 :背景イメージ
101 :第2実施形態に係るコミュニケーションシステム
103 :第2実施形態に係るコーチングシステム
107 :キャラクター(アバター)
117 :仮想空間
X :実物体
1:
13A:
65: User information acquisition sensor (user information acquisition unit)
71: Background image 101:
117: virtual space X: real object
Claims (8)
視覚情報及び聴覚情報の少なくとも一方を前記ユーザ間において相互に伝達する視覚/聴覚情報伝達部と、
前記ユーザそれぞれの表面情報を取得可能なユーザ情報取得部と、
前記表面情報をコミュニケーション相手となる前記ユーザに伝達する触覚情報伝達部とを有するコミュニケーションシステム。 A communication system in which multiple users communicate with each other by operating their respective avatars,
a visual/auditory information transmission unit that mutually transmits at least one of visual information and auditory information between the users;
a user information acquisition unit capable of acquiring surface information of each of the users;
A communication system comprising a tactile information transmission unit that transmits the surface information to the user who is a communication partner.
前記ロボットは、触覚情報を取得するアバター情報取得部を備え、
前記触覚情報伝達部は、
前記ロボットが他の前記ロボット以外の実物体に接触しているときには、前記アバター情報取得部によって取得した前記触覚情報を前記ユーザに伝達し、
前記ロボットが他の前記ロボットに接触しているときには、接触された前記ロボットを操作する前記ユーザの前記表面情報を、接触した前記ロボットを操作する前記ユーザに伝達する請求項2に記載のコミュニケーションシステム。 The avatar is composed of a robot placed in real space,
The robot includes an avatar information acquisition unit that acquires tactile information,
The haptic information transmission unit is
when the robot is in contact with another real object other than the robot, transmitting the tactile information acquired by the avatar information acquiring unit to the user;
3. The communication system according to claim 2, wherein when said robot is in contact with another said robot, said surface information of said user operating said robot in contact is transmitted to said user operating said robot in contact. .
前記触覚情報伝達部は、
前記キャラクターが、前記仮想空間において、他の前記キャラクターに接触しているときには、接触された前記キャラクターを操作する前記ユーザの前記表面情報を、接触した前記キャラクターを操作する前記ユーザに伝達する請求項2に記載のコミュニケーションシステム。 The avatar is composed of a character in a virtual space constructed on a computer,
The haptic information transmission unit is
3. When said character is in contact with another said character in said virtual space, said surface information of said user operating said character contacted is transmitted to said user operating said character contacted. 2. The communication system according to 2.
前記触覚情報伝達部は、前記アバターが接触する前記アバターを操作する前記ユーザの被接触部位に係る前記温度を取得して、接触部位に対応する前記ユーザの部位を前記温度となるように調整することにより、前記表面情報を前記ユーザに伝達する請求項3又は請求項4に記載のコミュニケーションシステム。 The user information acquisition unit acquires information related to the user's temperature,
The tactile information transmission unit obtains the temperature of a contact site of the user operating the avatar that the avatar touches, and adjusts a site of the user corresponding to the contact site to the temperature. 5. A communication system according to claim 3 or claim 4, wherein the surface information is conveyed to the user by means of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070682A JP2022165335A (en) | 2021-04-19 | 2021-04-19 | Communication system and coaching system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021070682A JP2022165335A (en) | 2021-04-19 | 2021-04-19 | Communication system and coaching system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022165335A true JP2022165335A (en) | 2022-10-31 |
Family
ID=83845752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021070682A Pending JP2022165335A (en) | 2021-04-19 | 2021-04-19 | Communication system and coaching system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022165335A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024195830A1 (en) * | 2023-03-23 | 2024-09-26 | 株式会社栗本鐵工所 | Tactile sensation presentation system |
WO2024195829A1 (en) * | 2023-03-23 | 2024-09-26 | 株式会社栗本鐵工所 | Haptic presentation system |
-
2021
- 2021-04-19 JP JP2021070682A patent/JP2022165335A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024195830A1 (en) * | 2023-03-23 | 2024-09-26 | 株式会社栗本鐵工所 | Tactile sensation presentation system |
WO2024195829A1 (en) * | 2023-03-23 | 2024-09-26 | 株式会社栗本鐵工所 | Haptic presentation system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jones | Haptics | |
EP3860527B1 (en) | Use of neuromuscular signals to provide enhanced interactions with physical objects in an augmented reality environment | |
US11778140B2 (en) | Powered physical displays on mobile devices | |
KR101548156B1 (en) | A wireless exoskeleton haptic interface device for simultaneously delivering tactile and joint resistance and the method for comprising the same | |
US11086392B1 (en) | Devices, systems, and methods for virtual representation of user interface devices | |
CN118605029A (en) | Augmented reality system and method using images | |
US11327566B2 (en) | Methods and apparatuses for low latency body state prediction based on neuromuscular data | |
KR101338043B1 (en) | Cognitive Rehabilitation System and Method Using Tangible Interaction | |
JP2022165335A (en) | Communication system and coaching system | |
EP3797931B1 (en) | Remote control system, information processing method, and program | |
Caporusso et al. | A wearable device supporting multiple touch-and gesture-based languages for the deaf-blind | |
WO2019087495A1 (en) | Information processing device, information processing method, and program | |
Pacchierotti et al. | Cutaneous/tactile haptic feedback in robotic teleoperation: Motivation, survey, and perspectives | |
McDaniel et al. | Affective haptics for enhancing access to social interactions for individuals who are blind | |
US11287971B1 (en) | Visual-tactile virtual telepresence | |
US9000899B2 (en) | Body-worn device for dance simulation | |
JP2003345727A (en) | Device for transmitting feeling | |
Robertsson et al. | Perception modeling for human-like artificial sensor systems | |
Maeda et al. | Parasitic humanoid: The wearable robotics as a behavioral assist interface like oneness between horse and rider | |
WO2022264165A1 (en) | A portable assistive device for challenged individuals | |
US11550397B1 (en) | Systems and methods for simulating a sensation of expending effort in a virtual environment | |
JP7023971B2 (en) | Service provision system, service provision method, and management device for service provision system | |
JP2022164028A (en) | Remote operation control system, remote operation control method, and program | |
Teyssier | Anthropomorphic devices for affective touch communication | |
CN111610857A (en) | Gloves with interactive installation is felt to VR body |