JP6369907B2 - Social touch control device - Google Patents
Social touch control device Download PDFInfo
- Publication number
- JP6369907B2 JP6369907B2 JP2015094319A JP2015094319A JP6369907B2 JP 6369907 B2 JP6369907 B2 JP 6369907B2 JP 2015094319 A JP2015094319 A JP 2015094319A JP 2015094319 A JP2015094319 A JP 2015094319A JP 6369907 B2 JP6369907 B2 JP 6369907B2
- Authority
- JP
- Japan
- Prior art keywords
- gender
- user
- social touch
- unit
- operator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、ソーシャルタッチの効果を向上可能なソーシャルタッチ制御装置に関する。 The present invention relates to a social touch control device capable of improving the effect of social touch.
人はコミュニケーションを行う場合に、互いに身体接触を行うことがある。このコミュニケーションに伴う身体接触は、ソーシャルタッチとも呼ばれる。ソーシャルタッチを行うことにより、コミュニケーションに際して、不安が低減されたり、ストレスが緩和されたりする場合があることが知られている。また、ソーシャルタッチは、コミュニケーションにおいて、相手に自分の感情を伝えるのに役立つ場合があることが知られている。 When communicating, people may make physical contact with each other. The physical contact accompanying this communication is also called social touch. It is known that by performing social touch, anxiety may be reduced or stress may be alleviated during communication. In addition, it is known that social touch may be useful for communicating one's feelings to the other party in communication.
ところが、コミュニケーションを行う者が同性同士である場合、ソーシャルタッチの効果が低減されたり、ソーシャルタッチの効果が生じなかったりする場合があることが知られている。さらには、コミュニケーションを行う者が同性同士である場合、ソーシャルタッチは、コミュニケーションにおけるストレスを増大する等、逆効果になる場合があることが知られている(例えば、非特許文献1参照)。 However, it is known that the effect of social touch may be reduced or the effect of social touch may not occur when the persons who perform communication are of the same sex. Furthermore, it is known that when the persons who perform communication are of the same sex, social touch may be counterproductive, such as increasing stress in communication (see Non-Patent Document 1, for example).
ソーシャルタッチの効果を決定づける要因は、コミュニケーションを行う相手の外見の性別、声の性別、及び手の動きを含む。また、ソーシャルタッチは、これらの要因に基づいて、通信機器を介したコミュニケーションを行う場合にも作用しうる。 Factors that determine the effectiveness of social touch include the gender of the appearance, voice gender, and hand movements of the communicating party. Social touch can also act when performing communication via a communication device based on these factors.
従って、かかる点に鑑みてなされた本発明の目的は、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上可能なソーシャルタッチ制御装置を提供することにある。 Therefore, the objective of this invention made | formed in view of this point is providing the social touch control apparatus which can improve the effect of the social touch in the communication via a communication apparatus.
上述した諸課題を解決すべく、本発明に係るソーシャルタッチ制御装置は、互いに通信可能に接続されたソーシャルタッチ装置と端末装置とをそれぞれ使用してコミュニケーションを行う第1のユーザと第2のユーザとの性別を判定する性別判定部と、前記性別判定部が判定した前記第1のユーザの性別と前記第2のユーザの性別とを比較する性別比較部と、前記比較の結果、前記第1のユーザの性別と前記第2のユーザとの性別とが同一である場合、前記端末装置から取得した前記第2のユーザのコミュニケーションに係る情報を、前記第2のユーザの性別とは異なる性別の性質に変換して、出力データを生成して、該出力データを前記ソーシャルタッチ装置に送信する出力情報生成部と、前記第2のユーザの入力に基づいて、前記ソーシャルタッチ装置が備えるアームを制御するためのアーム制御データを生成して、該アーム制御データを前記ソーシャルタッチ装置に送信するアーム制御データ生成部とを備える。 In order to solve the above-described problems, a social touch control device according to the present invention includes a first user and a second user that communicate with each other using a social touch device and a terminal device that are connected to be able to communicate with each other. A gender determination unit that determines gender, a gender comparison unit that compares the gender of the first user determined by the gender determination unit and the gender of the second user, and as a result of the comparison, the first If the gender of the second user and the gender of the second user are the same, the information related to the communication of the second user acquired from the terminal device is different from the gender of the second user. An output information generation unit that converts the data into a property, generates output data, and transmits the output data to the social touch device; and the source information based on the input of the second user It generates the arm control data for controlling the arm provided in the Rutatchi device comprises an arm control data generator for transmitting the arm control data to the social touch device.
上記のように構成された本発明に係るソーシャルタッチ制御装置によれば、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上できる。 According to the social touch control device according to the present invention configured as described above, it is possible to improve the effect of social touch in communication via a communication device.
以下、本発明の実施の形態について、図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1は、本発明の一実施形態に係るテレプレゼンスシステムの概略構成を示す機能ブロック図である。テレプレゼンスシステム100は、ソーシャルタッチ装置200と、ソーシャルタッチ制御装置300と、端末装置400とを含む。通信機器であるソーシャルタッチ装置200及び端末装置400は、ソーシャルタッチ制御装置300と通信可能に有線接続又は無線接続されている。つまり、ソーシャルタッチ装置200と端末装置400とは、ソーシャルタッチ制御装置300を介して互いに通信可能に接続されている。本実施形態では、以下、ソーシャルタッチ装置200を使用するユーザ(第1のユーザ)と、端末装置400を使用するオペレータ(第2のユーザ)とがコミュニケーションを行う場合を例に説明する。
FIG. 1 is a functional block diagram showing a schematic configuration of a telepresence system according to an embodiment of the present invention.
ソーシャルタッチ装置200は、ユーザとオペレータとのコミュニケーションにおいて、ユーザから情報の入力を受け付けるとともに、オペレータが端末装置400に入力した情報を出力する。ソーシャルタッチ装置200は、例えばテレプレゼンスロボットとして構成することができる。ソーシャルタッチ装置200は、画像取得部210と、音声取得部220と、表示部230と、音声出力部240と、アーム部250と、制御部260とを備える。図2は、ソーシャルタッチ装置200の使用状態を示す図であり、ソーシャルタッチ装置200の正面側を示す図である。ソーシャルタッチ装置200の詳細について、図1及び図2を参照しながら説明する。
In the communication between the user and the operator, the
画像取得部210は、ソーシャルタッチ装置200を使用しているユーザの画像を取得する。画像取得部210は、例えばデジタルビデオカメラにより構成される。画像取得部210が取得した画像は、例えば、後述するようにソーシャルタッチ制御装置300の性別判定部311において、ユーザの性別を判定する際に使用される。また、画像取得部210が取得した画像は、ユーザとオペレータとのコミュニケーションに際し、オペレータが使用する端末装置400の表示ディスプレイ等に表示される。
The
音声取得部220は、ソーシャルタッチ装置200を使用しているユーザが発した言葉等の音声を取得する。音声取得部220は、例えばマイクにより構成される。音声取得部220が取得した音声は、例えば、ソーシャルタッチ制御装置300の性別判定部311において、ユーザの性別を判定する場合に使用されてもよい。また、音声取得部220が取得した音声は、ユーザとオペレータとのコミュニケーションに際し、オペレータが使用する端末装置400のスピーカ等から出力される。
The
表示部230は、ソーシャルタッチ装置200を使用しているユーザに対して、所定の情報を表示する。表示部230は、例えば、液晶パネル(LCD:Liquid Crystal Display)や有機ELパネル(OELD:Organic Electroluminescence Display)等を用いて構成される。ユーザとオペレータとのコミュニケーションに際し、表示部230には、例えば、端末装置400が備えるカメラが撮影したオペレータの画像が表示される。また、表示部230には、例えば、人間を模したアバターの画像が表示される。表示部230に表示される画像は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づく。ソーシャルタッチ制御装置300におけるデータの生成の詳細については後述する。
The
音声出力部240は、ソーシャルタッチ装置200を使用しているユーザに対して、音声を出力する。音声出力部240は、例えばスピーカにより構成される。ユーザとオペレータとのコミュニケーションに際し、音声出力部240は、例えば、オペレータが発した言葉等の音声を出力する。また、音声出力部240は、後述する音声変換により加工されたオペレータの言葉等の音声を出力する。音声出力部240が出力する音声は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づく。ソーシャルタッチ装置200におけるデータの生成の詳細については後述する。
The
アーム部250は、ソーシャルタッチ装置200を使用しているユーザに対して、ソーシャルタッチを行う。アーム部250は、例えば図2に示すように、ソーシャルタッチ装置200の台座270の一方の側面側から突出する第1アーム部材251と、第1アーム部材251の先端から第1アーム部材251に直交して台座270に沿って伸びる第2アーム部材252と、第2アーム部材252の先端に取り付けられた球形状の第3アーム部材253とを有する。アーム部250は、台座270に対して可動に設けられている。ユーザは、例えば図2に示すように、アーム部250の可動域に手等の身体の一部を近づけた状態で、ソーシャルタッチ装置200を使用する。
The
アーム部250は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づいて、制御部260により制御される。アーム部250は、例えば、図3に示すように、制御部260が2つのサーボモータ280を制御することにより、第2アーム部材252が、上下方向及び左右方向に回転動作を行う。アーム部250がこのように動作することにより、第3アーム部材253とユーザとの接触状態が変化し、ソーシャルタッチが行われる。
The
再び図1を参照すると、制御部260は、ソーシャルタッチ装置200の各機能ブロックをはじめとして、ソーシャルタッチ装置200の全体を制御及び管理するプロセッサである。制御部260は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えばソーシャルタッチ装置200内に備えられる記憶部又は外部の記憶媒体等に格納される。
Referring to FIG. 1 again, the
次に、ソーシャルタッチ制御装置300について説明する。ソーシャルタッチ制御装置300は、ソーシャルタッチ装置200と端末装置400との間の通信を制御する。ソーシャルタッチ制御装置300は、例えばコンピュータにより構成される。ソーシャルタッチ制御装置300は、制御部310と、記憶部320とを備える。
Next, the social
制御部310は、ソーシャルタッチ制御装置300の各機能ブロックをはじめとして、ソーシャルタッチ制御装置300の全体を制御及び管理するプロセッサである。制御部310は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成され、かかるプログラムは、例えば記憶部320又は外部の記憶媒体等に格納される。制御部310は、例えばユーザとオペレータとのコミュニケーションにおいて、ソーシャルタッチ装置200の画像取得部210が取得したユーザに関する画像と、音声取得部220が取得したユーザの発話等の音声を端末装置400に送信する。本実施形態において、制御部310は、性別判定部311と、性別比較部312と、出力情報生成部313と、アーム制御データ生成部314とを備える。
The
性別判定部311は、ソーシャルタッチ装置200を使用するユーザの性別が男性であるか女性であるかを判定する。本実施形態では、性別判定部311は、ソーシャルタッチ装置200の画像取得部210が取得したユーザの画像に基づき、画像分析を行って性別を自動的に判定する。性別判定部311は、例えば特許第5272213号明細書に開示された方法により、画像から性別を判定することができる。
The
なお、性別判定部311は、上述の方法とは異なる他の方法によりユーザの性別を判定してもよい。性別判定部311は、ソーシャルタッチ装置200が取得したユーザに関する情報に基づいて、ユーザの性別を自動的に判定できる。具体的には、例えば、性別判定部311は、ソーシャルタッチ装置200が音声取得部220から取得したユーザの声に基づき、音声分析を行って、その声の性質(例えば周波数等)に基づいて性別を自動的に判定してもよい。また、性別判定部311は、上記画像分析及び音声分析等の複数の分析手法を組み合わせて性別の判定を行ってもよい。複数の分析手法を組み合わせることにより、ユーザの性別をより確実に判定しやすくなる。
Note that the
また、例えばソーシャルタッチ装置200が入力インタフェースを備える場合、ユーザは入力インタフェースに自分の性別を入力し、性別判定部311は、ユーザの入力に基づいてユーザの性別を判定してもよい。
For example, when the
性別比較部312は、ソーシャルタッチ装置200を使用するユーザと、端末装置400を使用してユーザとコミュニケーションを行うオペレータとの性別を比較し、両者の性別が異なるか又は同一であるかを判断する。性別比較部312は、性別判定部311の判定に基づいて、ユーザの性別を認識できる。また、性別比較部312は、例えば、オペレータによる端末装置400への性別の入力により、オペレータの性別を認識できる。なお、オペレータの性別は、性別判定部311がユーザの性別を判定したのと同様の要領で、自動的に判定されてもよい。
The
出力情報生成部313は、ソーシャルタッチ装置200の表示部230に表示させる画像に関するデータ(出力画像データ)及び音声出力部240に出力させる音声に関するデータ(出力音声データ)を生成する。具体的には、出力情報生成部313は、端末装置400から取得したコミュニケーションに係る情報に基づき、性別比較部312による判別結果を参照して、ソーシャルタッチ装置200への出力画像データ及び出力音声データを生成する。ここでコミュニケーションに係る情報は、オペレータがユーザとのコミュニケーションにおいて、ユーザに伝達する情報である。コミュニケーションに係る情報は、オペレータがユーザに伝えることを意図した情報(例えば発話等)と、オペレータがユーザに伝えることを意図していない情報(例えば外見等)を含む。出力情報生成部313による出力画像データ及び出力音声データの生成の具体例について説明する。なお、以下、出力画像データ及び出力音声データをまとめて、「出力データ」ともいう。
The output
出力情報生成部313は、性別比較部312がユーザとオペレータとの性別が異なると判断した場合、例えば、端末装置400から取得したコミュニケーションに係る情報そのものを、出力データとして生成する。つまり、この場合の出力データをソーシャルタッチ制御装置300から取得したソーシャルタッチ装置200は、表示部230において、端末装置400が取得したオペレータの画像を表示し、音声出力部240において、端末装置400が取得したオペレータの音声を出力する。また、出力情報生成部313は、オペレータと同一の性別の画像(アバター等)を出力画像データとして生成してもよい。
When the
一方、出力情報生成部313は、性別比較部312がユーザとオペレータとの性別が異なると判断した場合、端末装置400から取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して、出力データを生成する。例えば、性別比較部312が、ユーザ及びオペレータ共に男性であると判断したとする。この場合、出力情報生成部313は、オペレータの性別とは反対の女性の画像を出力画像データとして生成する。女性の画像は、例えば予め記憶部320に記憶されている。また、出力情報生成部313は、オペレータの発した音声について音声変換を行うことにより、例えば周波数を高くして、女性が発する平均的な声域の周波数に変換する。そして、出力情報生成部313は、変換した音声を出力音声データとして生成する。このようにして生成された出力画像データ及び出力音声データをソーシャルタッチ制御装置300から取得したソーシャルタッチ装置200は、表示部230において、女性の画像を表示し、音声出力部240において、女性の声域の音声を出力する。このようにして、ユーザに対して、オペレータがあたかも女性であるかのような印象を与えることができる。
On the other hand, when the
なお、性別比較部312が、ユーザ及びオペレータ共に女性であると判断した場合には、出力情報生成部313は、男性の画像を出力画像データとして生成し、男性の声域の周波数に変換した音声を出力音声データとして生成する。
When the
アーム制御データ生成部314は、ソーシャルタッチ装置200のアーム部250の動作を制御するためのデータ(アーム制御データ)を生成する。アーム制御データ生成部314は、例えば、オペレータが端末装置400において特定のボタンを押下する等の特定の入力操作を行った場合に、アーム制御データを生成する。ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300からアーム制御データを取得すると、取得したアーム制御データに基づき、制御部260がアーム部250の動作を制御する。
The arm control
また、アーム制御データ生成部314は、例えば端末装置400がオペレータから取得した音声情報に基づき、オペレータの発話中に特定の言葉が存在すると判断した場合に、アーム制御データを生成する。具体的には、アーム制御データ生成部314は、端末装置400から取得したオペレータの音声を分析する。そして、アーム制御データ生成部314は、オペレータの発話中に、例えば「大丈夫」又は「安心して下さい」等の予め記憶部320に記憶された特定の言葉が存在すると判断した場合、当該言葉に対応付けられたアーム制御データを生成する。そして、ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300からアーム制御データを取得すると、取得したアーム制御データに基づき、制御部260がアーム部250の動作を制御する。このように、特定の言葉と対応付けてアーム部250を動作させ、ソーシャルタッチを行うことにより、言葉に連動したソーシャルタッチを実現できる。
Also, the arm control
記憶部320は、ROM(Read Only Memory)やRAM(Random Access Memory)を有し、制御部310が動作する際に必要なデータ等の各種情報を記憶する。記憶部320は、例えばアバター等の画像、及び男性又は女性の平均的な声域等に関する情報を記憶する。
The
また、記憶部320は、特定語データベース321を備える。特定語データベース321は、アーム制御データ生成部314がアーム制御データを生成するための対象となる言葉が記憶されている。
In addition, the
端末装置400は、ユーザとオペレータとのコミュニケーションにおいて、オペレータからの各種入力を受け付けるとともに、ソーシャルタッチ制御装置300から取得したユーザに関する画像及びユーザの発話等の音声を出力する。端末装置400は、例えばパーソナルコンピュータ等により構成され、表示ディスプレイ、スピーカ、カメラ、マイク、及びこれらを制御する制御部等を備える。
In communication between the user and the operator, the
次に、ソーシャルタッチ制御装置300の制御部310による出力データの生成処理の一例について、図4のフローチャートを参照しながら説明する。ここでは、一例として、ユーザの性別については、上述した画像分析及び音声分析を用いて判定を行い、オペレータの性別については、オペレータによる端末装置400への性別の入力に基づいて判定を行う場合について説明する。
Next, an example of output data generation processing by the
まず、性別判定部311は、ソーシャルタッチ装置200から、画像取得部210が取得したユーザの画像及び音声取得部220が取得したユーザの声を取得する(ステップS101)。
First, the
そして、性別判定部311は、ユーザの画像の画像分析及びユーザの声の音声分析を行い、画像分析及び音声分析の結果に基づいて、ユーザの性別を判定する(ステップS102)。
Then, the
次に、性別判定部311は、端末装置400から、オペレータが入力した性別に関する情報を取得する(ステップS103)。
Next, the
そして、性別判定部311は、取得したオペレータによる入力に基づいて、オペレータの性別を判定する(ステップS104)。つまり、性別判定部311は、オペレータが男性であると入力している場合には男性であると決定し、女性であると入力している場合には女性であると決定する。
Then, the
次に、性別比較部312は、ステップS102で判定されたユーザの性別と、ステップS104で判定されたオペレータの性別とが異なっているかを判断する(ステップS105)。
Next, the
性別比較部312がユーザの性別とオペレータの性別とが異なっていると判断した場合(ステップS105のYes)、出力情報生成部313は、端末装置400からコミュニケーションに係る情報を取得し、このコミュニケーションに係る情報そのものを、出力データとして生成する(ステップS106)。
When the
一方、性別比較部312がユーザの性別とオペレータの性別とが同一であると判断した場合(ステップS105のNo)、出力情報生成部313は、端末装置400からコミュニケーションに係る情報を取得し、取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して出力データを生成する(ステップS107)。
On the other hand, when the
制御部310は、出力情報生成部313が生成した出力データをソーシャルタッチ装置200に送信する。出力データを取得したソーシャルタッチ装置200は、出力データに基づいて、表示部230に画像を表示させ、音声出力部240から音声を出力する。
The
次に、ソーシャルタッチ制御装置300のアーム制御データ生成部314によるアーム制御データの生成処理の一例について、図5のフローチャートを参照しながら説明する。ここでは、一例として、オペレータによる特定の入力操作が行われた場合、又はオペレータの発話中に所定の言葉が含まれている場合に、アーム制御データ生成部314がアーム制御データを生成するとして説明する。
Next, an example of arm control data generation processing by the arm control
まず、アーム制御データ生成部314は、オペレータが端末装置400に対して特定の入力操作を行ったか否かを判断する(ステップS201)。オペレータが端末装置400に対して特定の入力操作を行った場合、当該入力操作を行った旨の信号が、端末装置400から送信されて、ソーシャルタッチ制御装置300で受信されることにより、アーム制御データ生成部314は当該入力操作が行われたことを確認できる。
First, the arm control
アーム制御データ生成部314は、オペレータが特定の入力操作を行ったと判断した場合(ステップS201のYes)、当該入力操作に基づいてアーム制御データを生成する(ステップS202)。
When it is determined that the operator has performed a specific input operation (Yes in step S201), the arm control
一方、アーム制御データ生成部314は、オペレータが特定の入力操作を行っていないと判断した場合(ステップS201のNo)、端末装置400から送信されるオペレータの発話に関する情報を取得する(ステップS203)。
On the other hand, when the arm control
そして、アーム制御データ生成部314は、取得したオペレータの発話について、音声分析を行う(ステップS204)。
Then, the arm control
アーム制御データ生成部314は、記憶部320の特定語データベース321を参照して、音声分析の結果、オペレータの発話中に、特定語データベース321に記憶された特定の言葉が含まれているか否かを判断する(ステップS205)。
The arm control
アーム制御データ生成部314は、オペレータの発話中に特定の言葉が含まれていると判断した場合(ステップS205のYes)、当該特定の言葉に対応付けられたアーム制御データを生成する(ステップS202)。
When the arm control
一方、アーム制御データ生成部314は、オペレータの発話中に特定の言葉が含まれていないと判断した場合(ステップS205のNo)、このフローを終了する。
On the other hand, when the arm control
アーム制御データ生成部314は、アーム制御データを生成した場合、生成したアーム制御データをソーシャルタッチ装置200に送信する。アーム制御データを取得したソーシャルタッチ装置200は、アーム制御データに基づいて、アームを動作させて、ユーザに対してソーシャルタッチを行う。
When generating the arm control data, the arm control
以上説明したテレプレゼンスシステム100は、例えば、遠隔授業や遠隔医療等で用いることができる。例えば遠隔授業にテレプレゼンスシステム100を使用した場合、上記ユーザは授業を受ける生徒であり、上記オペレータは授業を行う先生である。また、例えば遠隔医療にテレプレゼンスシステム100を使用した場合、上記ユーザは患者であり、上記オペレータは診療を行う医者又はカウンセラ等である。
The
上記テレプレゼンスシステム100によれば、ユーザの性別とオペレータの性別とが異なる場合には、アーム部250によるソーシャルタッチの効果を生じることができる。また、ユーザの性別とオペレータの性別とが同一である場合であっても、ユーザには、ユーザとは異なる性別のオペレータを疑似的に表示してソーシャルタッチを行うため、ソーシャルタッチの効果が生じやすくなる。このようにして、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上可能である。
According to the
上述の実施形態は、代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。 Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims.
例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。 For example, the functions included in each component, each step, etc. can be rearranged so that there is no logical contradiction, and multiple components, steps, etc. can be combined or divided into one It is.
具体的には、例えば、上記実施形態において、ソーシャルタッチ装置200とソーシャルタッチ制御装置300とは、それぞれ独立した別の装置であるとして説明したが、ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300の機能を含むように、ソーシャルタッチ制御装置300と一体として構成されていてもよい。また、端末装置400がソーシャルタッチ制御装置300の機能を含んでいてもよい。
Specifically, for example, in the above-described embodiment, the
また、ソーシャルタッチ装置200の台座270は、タイヤ等を備え、移動可能に構成されていてもよい。
Moreover, the
また、上記実施形態において、ソーシャルタッチ装置200は表示部230を備え、表示部230にはオペレータの画像又はアバターの画像が表示されると説明したが、ユーザに対して提示されるオペレータの外見に関する情報は、表示部230により表示されるものに限られない。例えば、図6(a)及び(b)にそれぞれ示すように、ソーシャルタッチ装置200の台座270は、表示部230に代わり、男性又は女性を模した物理的な胸像を有し、胸像によりオペレータの外見に関する情報をユーザに提示してもよい。ユーザは、自分の性別に応じて、予め自分の性別とは異なる性別の胸像を有するソーシャルタッチ装置200を使用することにより、オペレータの実際の性別にかかわらず、ソーシャルタッチの効果を得やすくなる。
Moreover, in the said embodiment, although the
また、ソーシャルタッチ装置200は、男性及び女性を模した物理的な胸像を備え、ユーザに応じて、提示する胸像を変化させてもよい。
Moreover, the
また、上記実施形態において、ソーシャルタッチ制御装置300は、ユーザとオペレータとが同性の場合、端末装置400から取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して、出力データを生成すると説明したが、ソーシャルタッチ制御装置300が行う出力データの生成方法は、これに限られない。ソーシャルタッチ制御装置300は、例えば、端末装置400から取得したコミュニケーションに係る情報を、男性とも女性とも認識しにくい性質に変換して、出力データを生成してもよい。具体的には、例えば、ソーシャルタッチ制御装置300は、表示部230に、動物を擬人化した画像を表示させるように出力画像データを生成し、音声出力部240から、男性と女性の中間の声域の音声を出力するように出力音声データを生成してもよい。これにより、少なくとも同性間で生じ得るソーシャルタッチの悪影響を回避しやすくなる。
In the above embodiment, when the user and the operator are the same sex, the social
100 テレプレゼンスシステム
200 ソーシャルタッチ装置
210 画像取得部
220 音声取得部
230 表示部
240 音声出六部
250 アーム部
251 第1アーム部材
252 第2アーム部材
253 第3アーム部材
260 制御部
270 台座
280 サーボモータ
300 ソーシャルタッチ制御装置
310 制御部
311 性別判定部
312 性別比較部
313 出力情報生成部
314 アーム制御データ生成部
320 記憶部
321 特定語データベース
400 端末装置
DESCRIPTION OF
Claims (2)
前記性別判定部が判定した前記第1のユーザの性別と前記第2のユーザの性別とを比較する性別比較部と、
前記比較の結果、前記第1のユーザの性別と前記第2のユーザとの性別とが同一である場合、前記端末装置から取得した前記第2のユーザのコミュニケーションに係る情報を、前記第2のユーザの性別とは異なる性別の性質に変換して、出力データを生成して、該出力データを前記ソーシャルタッチ装置に送信する出力情報生成部と、
前記第2のユーザの入力に基づいて、前記ソーシャルタッチ装置が備えるアームを制御するためのアーム制御データを生成して、該アーム制御データを前記ソーシャルタッチ装置に送信するアーム制御データ生成部と
を備えるソーシャルタッチ制御装置。 A gender determination unit that determines the gender of the first user and the second user that communicate with each other using a social touch device and a terminal device that are communicably connected to each other;
A gender comparing unit that compares the gender of the first user determined by the gender determining unit with the gender of the second user;
As a result of the comparison, when the gender of the first user and the gender of the second user are the same, information relating to the communication of the second user acquired from the terminal device is An output information generation unit that converts the gender property different from the gender of the user, generates output data, and transmits the output data to the social touch device;
An arm control data generating unit that generates arm control data for controlling an arm included in the social touch device based on an input of the second user, and transmits the arm control data to the social touch device; A social touch control device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015094319A JP6369907B2 (en) | 2015-05-01 | 2015-05-01 | Social touch control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015094319A JP6369907B2 (en) | 2015-05-01 | 2015-05-01 | Social touch control device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016212564A JP2016212564A (en) | 2016-12-15 |
JP6369907B2 true JP6369907B2 (en) | 2018-08-08 |
Family
ID=57549857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015094319A Active JP6369907B2 (en) | 2015-05-01 | 2015-05-01 | Social touch control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6369907B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6512281B1 (en) * | 2017-12-26 | 2019-05-15 | 東洋インキScホールディングス株式会社 | Active energy ray-curable hard coat agent and laminate |
JP7300925B2 (en) * | 2019-08-01 | 2023-06-30 | 株式会社Iriam | Live communication system with characters |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3936351B2 (en) * | 1995-01-11 | 2007-06-27 | 富士通株式会社 | Voice response service equipment |
JP4022478B2 (en) * | 2002-02-13 | 2007-12-19 | 株式会社東京大学Tlo | Robot phone |
-
2015
- 2015-05-01 JP JP2015094319A patent/JP6369907B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016212564A (en) | 2016-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10475354B2 (en) | Haptic communication using dominant frequencies in speech signal | |
Siena et al. | Utilising the intel realsense camera for measuring health outcomes in clinical research | |
CN106992013B (en) | Speech emotion modification | |
Levy-Tzedek et al. | Fast, accurate reaching movements with a visual-to-auditory sensory substitution device | |
Fager et al. | Access to augmentative and alternative communication: New technologies and clinical decision-making | |
Geronazzo et al. | Interactive spatial sonification for non-visual exploration of virtual maps | |
WO2016080553A1 (en) | Learning robot, learning robot system, and learning robot program | |
JP6419924B1 (en) | Learning support system and learning support method | |
US12008161B2 (en) | Smart ring | |
JP2024012497A (en) | Communication methods and systems | |
JP6040745B2 (en) | Information processing apparatus, information processing method, information processing program, and content providing system | |
US20240136033A1 (en) | Automated transcription and documentation of tele-health encounters | |
JP6369907B2 (en) | Social touch control device | |
Frey 1 2 et al. | EEG-based neuroergonomics for 3D user interfaces: opportunities and challenges | |
Wu et al. | Psychophysical evaluation of haptic perception under augmentation by a handheld device | |
D. Gomez et al. | See ColOr: an extended sensory substitution device for the visually impaired | |
JP6798258B2 (en) | Generation program, generation device, control program, control method, robot device and call system | |
KR102116517B1 (en) | Remote apparatus with interworking between smart device and sonographer | |
CN116741330A (en) | Diagnosis and treatment report generation method, device, equipment and storage medium | |
US10635665B2 (en) | Systems and methods to facilitate bi-directional artificial intelligence communications | |
JPWO2019181008A1 (en) | Dialogue support devices, dialogue support methods, and programs | |
WO2021124845A1 (en) | Physical function training device, physical function training method, program, and recording medium | |
Chen et al. | Feeling speech on the arm | |
Papetti | Design and perceptual investigations of audio-tactile interactions | |
Zhu et al. | An investigation into the effectiveness of using acoustic touch to assist people who are blind |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170524 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170524 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180705 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6369907 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |