JP6369907B2 - Social touch control device - Google Patents

Social touch control device Download PDF

Info

Publication number
JP6369907B2
JP6369907B2 JP2015094319A JP2015094319A JP6369907B2 JP 6369907 B2 JP6369907 B2 JP 6369907B2 JP 2015094319 A JP2015094319 A JP 2015094319A JP 2015094319 A JP2015094319 A JP 2015094319A JP 6369907 B2 JP6369907 B2 JP 6369907B2
Authority
JP
Japan
Prior art keywords
gender
user
social touch
unit
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015094319A
Other languages
Japanese (ja)
Other versions
JP2016212564A (en
Inventor
正典 横山
正典 横山
山田 智広
智広 山田
崇由 望月
崇由 望月
良輔 青木
良輔 青木
拓志 鳴海
拓志 鳴海
由貴 木下
由貴 木下
鈴木 啓太
啓太 鈴木
翔 櫻井
翔 櫻井
智洋 谷川
智洋 谷川
通孝 廣瀬
通孝 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Original Assignee
Nippon Telegraph and Telephone Corp
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, University of Tokyo NUC filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015094319A priority Critical patent/JP6369907B2/en
Publication of JP2016212564A publication Critical patent/JP2016212564A/en
Application granted granted Critical
Publication of JP6369907B2 publication Critical patent/JP6369907B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ソーシャルタッチの効果を向上可能なソーシャルタッチ制御装置に関する。   The present invention relates to a social touch control device capable of improving the effect of social touch.

人はコミュニケーションを行う場合に、互いに身体接触を行うことがある。このコミュニケーションに伴う身体接触は、ソーシャルタッチとも呼ばれる。ソーシャルタッチを行うことにより、コミュニケーションに際して、不安が低減されたり、ストレスが緩和されたりする場合があることが知られている。また、ソーシャルタッチは、コミュニケーションにおいて、相手に自分の感情を伝えるのに役立つ場合があることが知られている。   When communicating, people may make physical contact with each other. The physical contact accompanying this communication is also called social touch. It is known that by performing social touch, anxiety may be reduced or stress may be alleviated during communication. In addition, it is known that social touch may be useful for communicating one's feelings to the other party in communication.

ところが、コミュニケーションを行う者が同性同士である場合、ソーシャルタッチの効果が低減されたり、ソーシャルタッチの効果が生じなかったりする場合があることが知られている。さらには、コミュニケーションを行う者が同性同士である場合、ソーシャルタッチは、コミュニケーションにおけるストレスを増大する等、逆効果になる場合があることが知られている(例えば、非特許文献1参照)。   However, it is known that the effect of social touch may be reduced or the effect of social touch may not occur when the persons who perform communication are of the same sex. Furthermore, it is known that when the persons who perform communication are of the same sex, social touch may be counterproductive, such as increasing stress in communication (see Non-Patent Document 1, for example).

Antal Haans、他2名、“Investigating Response Similarities between Real and Mediated Social Touch”、[online]、CHI 2007、[平成27年4月21日検索]、インターネット<URL:http://www.antalhaans.nl/files/HaansetalCHI07wip.pdf>Antal Haans and 2 others, “Investigating Response Similarities between Real and Mediated Social Touch”, [online], CHI 2007, [Search April 21, 2015], Internet <URL: http://www.antalhaans.nl /files/HaansetalCHI07wip.pdf>

ソーシャルタッチの効果を決定づける要因は、コミュニケーションを行う相手の外見の性別、声の性別、及び手の動きを含む。また、ソーシャルタッチは、これらの要因に基づいて、通信機器を介したコミュニケーションを行う場合にも作用しうる。   Factors that determine the effectiveness of social touch include the gender of the appearance, voice gender, and hand movements of the communicating party. Social touch can also act when performing communication via a communication device based on these factors.

従って、かかる点に鑑みてなされた本発明の目的は、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上可能なソーシャルタッチ制御装置を提供することにある。   Therefore, the objective of this invention made | formed in view of this point is providing the social touch control apparatus which can improve the effect of the social touch in the communication via a communication apparatus.

上述した諸課題を解決すべく、本発明に係るソーシャルタッチ制御装置は、互いに通信可能に接続されたソーシャルタッチ装置と端末装置とをそれぞれ使用してコミュニケーションを行う第1のユーザと第2のユーザとの性別を判定する性別判定部と、前記性別判定部が判定した前記第1のユーザの性別と前記第2のユーザの性別とを比較する性別比較部と、前記比較の結果、前記第1のユーザの性別と前記第2のユーザとの性別とが同一である場合、前記端末装置から取得した前記第2のユーザのコミュニケーションに係る情報を、前記第2のユーザの性別とは異なる性別の性質に変換して、出力データを生成して、該出力データを前記ソーシャルタッチ装置に送信する出力情報生成部と、前記第2のユーザの入力に基づいて、前記ソーシャルタッチ装置が備えるアームを制御するためのアーム制御データを生成して、該アーム制御データを前記ソーシャルタッチ装置に送信するアーム制御データ生成部とを備える。   In order to solve the above-described problems, a social touch control device according to the present invention includes a first user and a second user that communicate with each other using a social touch device and a terminal device that are connected to be able to communicate with each other. A gender determination unit that determines gender, a gender comparison unit that compares the gender of the first user determined by the gender determination unit and the gender of the second user, and as a result of the comparison, the first If the gender of the second user and the gender of the second user are the same, the information related to the communication of the second user acquired from the terminal device is different from the gender of the second user. An output information generation unit that converts the data into a property, generates output data, and transmits the output data to the social touch device; and the source information based on the input of the second user It generates the arm control data for controlling the arm provided in the Rutatchi device comprises an arm control data generator for transmitting the arm control data to the social touch device.

上記のように構成された本発明に係るソーシャルタッチ制御装置によれば、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上できる。   According to the social touch control device according to the present invention configured as described above, it is possible to improve the effect of social touch in communication via a communication device.

本発明の一実施形態に係るテレプレゼンスシステムの概略構成を示す機能ブロック図である。It is a functional block diagram which shows schematic structure of the telepresence system which concerns on one Embodiment of this invention. 図1のソーシャルタッチ装置の使用状態を示す図である。It is a figure which shows the use condition of the social touch apparatus of FIG. 図2のアーム部の動作の一例を示す図である。It is a figure which shows an example of operation | movement of the arm part of FIG. 図1のソーシャルタッチ制御装置の制御部による出力データの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the production | generation process of the output data by the control part of the social touch control apparatus of FIG. 図1のアーム制御データ生成部によるアーム制御データの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the production | generation process of the arm control data by the arm control data production | generation part of FIG. 図1のソーシャルタッチ装置の一変形例を示す図である。It is a figure which shows the modification of the social touch apparatus of FIG.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の一実施形態に係るテレプレゼンスシステムの概略構成を示す機能ブロック図である。テレプレゼンスシステム100は、ソーシャルタッチ装置200と、ソーシャルタッチ制御装置300と、端末装置400とを含む。通信機器であるソーシャルタッチ装置200及び端末装置400は、ソーシャルタッチ制御装置300と通信可能に有線接続又は無線接続されている。つまり、ソーシャルタッチ装置200と端末装置400とは、ソーシャルタッチ制御装置300を介して互いに通信可能に接続されている。本実施形態では、以下、ソーシャルタッチ装置200を使用するユーザ(第1のユーザ)と、端末装置400を使用するオペレータ(第2のユーザ)とがコミュニケーションを行う場合を例に説明する。   FIG. 1 is a functional block diagram showing a schematic configuration of a telepresence system according to an embodiment of the present invention. Telepresence system 100 includes social touch device 200, social touch control device 300, and terminal device 400. The social touch device 200 and the terminal device 400, which are communication devices, are wired or wirelessly connected to the social touch control device 300 so that they can communicate with each other. That is, the social touch device 200 and the terminal device 400 are connected so as to be able to communicate with each other via the social touch control device 300. In the present embodiment, a case where a user (first user) using the social touch device 200 and an operator (second user) using the terminal device 400 perform communication will be described below as an example.

ソーシャルタッチ装置200は、ユーザとオペレータとのコミュニケーションにおいて、ユーザから情報の入力を受け付けるとともに、オペレータが端末装置400に入力した情報を出力する。ソーシャルタッチ装置200は、例えばテレプレゼンスロボットとして構成することができる。ソーシャルタッチ装置200は、画像取得部210と、音声取得部220と、表示部230と、音声出力部240と、アーム部250と、制御部260とを備える。図2は、ソーシャルタッチ装置200の使用状態を示す図であり、ソーシャルタッチ装置200の正面側を示す図である。ソーシャルタッチ装置200の詳細について、図1及び図2を参照しながら説明する。   In the communication between the user and the operator, the social touch device 200 receives input of information from the user and outputs information input to the terminal device 400 by the operator. The social touch device 200 can be configured as a telepresence robot, for example. The social touch device 200 includes an image acquisition unit 210, a voice acquisition unit 220, a display unit 230, a voice output unit 240, an arm unit 250, and a control unit 260. FIG. 2 is a diagram illustrating a usage state of the social touch device 200, and is a diagram illustrating a front side of the social touch device 200. Details of the social touch device 200 will be described with reference to FIGS. 1 and 2.

画像取得部210は、ソーシャルタッチ装置200を使用しているユーザの画像を取得する。画像取得部210は、例えばデジタルビデオカメラにより構成される。画像取得部210が取得した画像は、例えば、後述するようにソーシャルタッチ制御装置300の性別判定部311において、ユーザの性別を判定する際に使用される。また、画像取得部210が取得した画像は、ユーザとオペレータとのコミュニケーションに際し、オペレータが使用する端末装置400の表示ディスプレイ等に表示される。   The image acquisition unit 210 acquires an image of a user who is using the social touch device 200. The image acquisition unit 210 is configured by a digital video camera, for example. The image acquired by the image acquisition unit 210 is used, for example, when the gender determination unit 311 of the social touch control device 300 determines the gender of the user as will be described later. Further, the image acquired by the image acquisition unit 210 is displayed on a display or the like of the terminal device 400 used by the operator during communication between the user and the operator.

音声取得部220は、ソーシャルタッチ装置200を使用しているユーザが発した言葉等の音声を取得する。音声取得部220は、例えばマイクにより構成される。音声取得部220が取得した音声は、例えば、ソーシャルタッチ制御装置300の性別判定部311において、ユーザの性別を判定する場合に使用されてもよい。また、音声取得部220が取得した音声は、ユーザとオペレータとのコミュニケーションに際し、オペレータが使用する端末装置400のスピーカ等から出力される。   The voice acquisition unit 220 acquires voice such as words uttered by the user using the social touch device 200. The voice acquisition unit 220 is configured by a microphone, for example. The voice acquired by the voice acquisition unit 220 may be used when, for example, the gender determination unit 311 of the social touch control device 300 determines the gender of the user. The voice acquired by the voice acquisition unit 220 is output from the speaker of the terminal device 400 used by the operator during communication between the user and the operator.

表示部230は、ソーシャルタッチ装置200を使用しているユーザに対して、所定の情報を表示する。表示部230は、例えば、液晶パネル(LCD:Liquid Crystal Display)や有機ELパネル(OELD:Organic Electroluminescence Display)等を用いて構成される。ユーザとオペレータとのコミュニケーションに際し、表示部230には、例えば、端末装置400が備えるカメラが撮影したオペレータの画像が表示される。また、表示部230には、例えば、人間を模したアバターの画像が表示される。表示部230に表示される画像は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づく。ソーシャルタッチ制御装置300におけるデータの生成の詳細については後述する。   The display unit 230 displays predetermined information for a user using the social touch device 200. The display unit 230 is configured using, for example, a liquid crystal panel (LCD) or an organic EL panel (OELD). During communication between the user and the operator, for example, an image of the operator captured by a camera provided in the terminal device 400 is displayed on the display unit 230. In addition, on the display unit 230, for example, an avatar image imitating a human being is displayed. The image displayed on the display unit 230 is based on data acquired by the social touch device 200 from the social touch control device 300. Details of data generation in the social touch control device 300 will be described later.

音声出力部240は、ソーシャルタッチ装置200を使用しているユーザに対して、音声を出力する。音声出力部240は、例えばスピーカにより構成される。ユーザとオペレータとのコミュニケーションに際し、音声出力部240は、例えば、オペレータが発した言葉等の音声を出力する。また、音声出力部240は、後述する音声変換により加工されたオペレータの言葉等の音声を出力する。音声出力部240が出力する音声は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づく。ソーシャルタッチ装置200におけるデータの生成の詳細については後述する。   The voice output unit 240 outputs voice to a user who is using the social touch device 200. The audio output unit 240 is configured by a speaker, for example. In communication between the user and the operator, the voice output unit 240 outputs, for example, a voice such as a word uttered by the operator. In addition, the voice output unit 240 outputs a voice such as an operator's word processed by voice conversion to be described later. The voice output by the voice output unit 240 is based on data acquired by the social touch device 200 from the social touch control device 300. Details of data generation in the social touch device 200 will be described later.

アーム部250は、ソーシャルタッチ装置200を使用しているユーザに対して、ソーシャルタッチを行う。アーム部250は、例えば図2に示すように、ソーシャルタッチ装置200の台座270の一方の側面側から突出する第1アーム部材251と、第1アーム部材251の先端から第1アーム部材251に直交して台座270に沿って伸びる第2アーム部材252と、第2アーム部材252の先端に取り付けられた球形状の第3アーム部材253とを有する。アーム部250は、台座270に対して可動に設けられている。ユーザは、例えば図2に示すように、アーム部250の可動域に手等の身体の一部を近づけた状態で、ソーシャルタッチ装置200を使用する。   The arm unit 250 performs a social touch on a user using the social touch device 200. For example, as shown in FIG. 2, the arm unit 250 is orthogonal to the first arm member 251 from the first arm member 251 that protrudes from one side surface of the base 270 of the social touch device 200 and from the tip of the first arm member 251. The second arm member 252 extending along the pedestal 270, and the spherical third arm member 253 attached to the tip of the second arm member 252. The arm part 250 is provided so as to be movable with respect to the base 270. For example, as shown in FIG. 2, the user uses the social touch device 200 in a state in which a part of the body such as a hand is brought close to the movable range of the arm unit 250.

アーム部250は、ソーシャルタッチ装置200がソーシャルタッチ制御装置300から取得したデータに基づいて、制御部260により制御される。アーム部250は、例えば、図3に示すように、制御部260が2つのサーボモータ280を制御することにより、第2アーム部材252が、上下方向及び左右方向に回転動作を行う。アーム部250がこのように動作することにより、第3アーム部材253とユーザとの接触状態が変化し、ソーシャルタッチが行われる。   The arm unit 250 is controlled by the control unit 260 based on data acquired by the social touch device 200 from the social touch control device 300. For example, as illustrated in FIG. 3, in the arm unit 250, the control unit 260 controls the two servo motors 280 so that the second arm member 252 rotates in the vertical direction and the horizontal direction. When the arm part 250 operates in this way, the contact state between the third arm member 253 and the user changes, and social touch is performed.

再び図1を参照すると、制御部260は、ソーシャルタッチ装置200の各機能ブロックをはじめとして、ソーシャルタッチ装置200の全体を制御及び管理するプロセッサである。制御部260は、制御手順を規定したプログラムを実行するCPU(Central Processing Unit)等のプロセッサで構成され、かかるプログラムは、例えばソーシャルタッチ装置200内に備えられる記憶部又は外部の記憶媒体等に格納される。   Referring to FIG. 1 again, the control unit 260 is a processor that controls and manages the entire social touch device 200 including each functional block of the social touch device 200. The control unit 260 includes a processor such as a CPU (Central Processing Unit) that executes a program that defines a control procedure, and the program is stored in, for example, a storage unit provided in the social touch device 200 or an external storage medium. Is done.

次に、ソーシャルタッチ制御装置300について説明する。ソーシャルタッチ制御装置300は、ソーシャルタッチ装置200と端末装置400との間の通信を制御する。ソーシャルタッチ制御装置300は、例えばコンピュータにより構成される。ソーシャルタッチ制御装置300は、制御部310と、記憶部320とを備える。   Next, the social touch control device 300 will be described. The social touch control device 300 controls communication between the social touch device 200 and the terminal device 400. The social touch control device 300 is configured by a computer, for example. The social touch control device 300 includes a control unit 310 and a storage unit 320.

制御部310は、ソーシャルタッチ制御装置300の各機能ブロックをはじめとして、ソーシャルタッチ制御装置300の全体を制御及び管理するプロセッサである。制御部310は、制御手順を規定したプログラムを実行するCPU等のプロセッサで構成され、かかるプログラムは、例えば記憶部320又は外部の記憶媒体等に格納される。制御部310は、例えばユーザとオペレータとのコミュニケーションにおいて、ソーシャルタッチ装置200の画像取得部210が取得したユーザに関する画像と、音声取得部220が取得したユーザの発話等の音声を端末装置400に送信する。本実施形態において、制御部310は、性別判定部311と、性別比較部312と、出力情報生成部313と、アーム制御データ生成部314とを備える。   The control unit 310 is a processor that controls and manages the entire social touch control device 300 including each functional block of the social touch control device 300. The control unit 310 includes a processor such as a CPU that executes a program that defines a control procedure, and the program is stored in, for example, the storage unit 320 or an external storage medium. For example, in communication between the user and the operator, the control unit 310 transmits, to the terminal device 400, an image related to the user acquired by the image acquisition unit 210 of the social touch device 200 and a voice such as the user's utterance acquired by the voice acquisition unit 220. To do. In the present embodiment, the control unit 310 includes a gender determination unit 311, a gender comparison unit 312, an output information generation unit 313, and an arm control data generation unit 314.

性別判定部311は、ソーシャルタッチ装置200を使用するユーザの性別が男性であるか女性であるかを判定する。本実施形態では、性別判定部311は、ソーシャルタッチ装置200の画像取得部210が取得したユーザの画像に基づき、画像分析を行って性別を自動的に判定する。性別判定部311は、例えば特許第5272213号明細書に開示された方法により、画像から性別を判定することができる。   The gender determination unit 311 determines whether the gender of the user who uses the social touch device 200 is male or female. In the present embodiment, the gender determination unit 311 automatically determines gender by performing image analysis based on the user image acquired by the image acquisition unit 210 of the social touch device 200. The gender determination unit 311 can determine gender from an image, for example, by a method disclosed in Japanese Patent No. 5272213.

なお、性別判定部311は、上述の方法とは異なる他の方法によりユーザの性別を判定してもよい。性別判定部311は、ソーシャルタッチ装置200が取得したユーザに関する情報に基づいて、ユーザの性別を自動的に判定できる。具体的には、例えば、性別判定部311は、ソーシャルタッチ装置200が音声取得部220から取得したユーザの声に基づき、音声分析を行って、その声の性質(例えば周波数等)に基づいて性別を自動的に判定してもよい。また、性別判定部311は、上記画像分析及び音声分析等の複数の分析手法を組み合わせて性別の判定を行ってもよい。複数の分析手法を組み合わせることにより、ユーザの性別をより確実に判定しやすくなる。   Note that the gender determination unit 311 may determine the gender of the user by another method different from the method described above. The gender determination unit 311 can automatically determine the gender of the user based on information about the user acquired by the social touch device 200. Specifically, for example, the gender determination unit 311 performs voice analysis based on the user's voice acquired by the social touch device 200 from the voice acquisition unit 220, and determines gender based on the nature of the voice (for example, frequency). May be automatically determined. The gender determination unit 311 may perform gender determination by combining a plurality of analysis methods such as the image analysis and the voice analysis. By combining a plurality of analysis methods, it becomes easier to determine the gender of the user more reliably.

また、例えばソーシャルタッチ装置200が入力インタフェースを備える場合、ユーザは入力インタフェースに自分の性別を入力し、性別判定部311は、ユーザの入力に基づいてユーザの性別を判定してもよい。   For example, when the social touch device 200 includes an input interface, the user may input his / her gender to the input interface, and the gender determination unit 311 may determine the gender of the user based on the user's input.

性別比較部312は、ソーシャルタッチ装置200を使用するユーザと、端末装置400を使用してユーザとコミュニケーションを行うオペレータとの性別を比較し、両者の性別が異なるか又は同一であるかを判断する。性別比較部312は、性別判定部311の判定に基づいて、ユーザの性別を認識できる。また、性別比較部312は、例えば、オペレータによる端末装置400への性別の入力により、オペレータの性別を認識できる。なお、オペレータの性別は、性別判定部311がユーザの性別を判定したのと同様の要領で、自動的に判定されてもよい。   The gender comparison unit 312 compares the gender of the user who uses the social touch device 200 and the operator who communicates with the user using the terminal device 400, and determines whether the two genders are different or the same. . The gender comparison unit 312 can recognize the gender of the user based on the determination of the gender determination unit 311. The gender comparison unit 312 can recognize the gender of the operator, for example, by inputting gender to the terminal device 400 by the operator. Note that the gender of the operator may be automatically determined in the same manner as the gender determination unit 311 determines the gender of the user.

出力情報生成部313は、ソーシャルタッチ装置200の表示部230に表示させる画像に関するデータ(出力画像データ)及び音声出力部240に出力させる音声に関するデータ(出力音声データ)を生成する。具体的には、出力情報生成部313は、端末装置400から取得したコミュニケーションに係る情報に基づき、性別比較部312による判別結果を参照して、ソーシャルタッチ装置200への出力画像データ及び出力音声データを生成する。ここでコミュニケーションに係る情報は、オペレータがユーザとのコミュニケーションにおいて、ユーザに伝達する情報である。コミュニケーションに係る情報は、オペレータがユーザに伝えることを意図した情報(例えば発話等)と、オペレータがユーザに伝えることを意図していない情報(例えば外見等)を含む。出力情報生成部313による出力画像データ及び出力音声データの生成の具体例について説明する。なお、以下、出力画像データ及び出力音声データをまとめて、「出力データ」ともいう。   The output information generation unit 313 generates data related to an image to be displayed on the display unit 230 of the social touch device 200 (output image data) and data related to a sound to be output to the audio output unit 240 (output audio data). Specifically, the output information generation unit 313 refers to the determination result by the gender comparison unit 312 based on information related to communication acquired from the terminal device 400, and outputs image data and output audio data to the social touch device 200. Is generated. Here, the information related to communication is information that the operator transmits to the user in communication with the user. Information related to communication includes information (for example, speech) that the operator intends to convey to the user and information (for example, appearance) that the operator does not intend to convey to the user. A specific example of generation of output image data and output audio data by the output information generation unit 313 will be described. Hereinafter, output image data and output audio data are collectively referred to as “output data”.

出力情報生成部313は、性別比較部312がユーザとオペレータとの性別が異なると判断した場合、例えば、端末装置400から取得したコミュニケーションに係る情報そのものを、出力データとして生成する。つまり、この場合の出力データをソーシャルタッチ制御装置300から取得したソーシャルタッチ装置200は、表示部230において、端末装置400が取得したオペレータの画像を表示し、音声出力部240において、端末装置400が取得したオペレータの音声を出力する。また、出力情報生成部313は、オペレータと同一の性別の画像(アバター等)を出力画像データとして生成してもよい。   When the gender comparison unit 312 determines that the gender between the user and the operator is different, the output information generation unit 313 generates, for example, information related to communication acquired from the terminal device 400 as output data. That is, the social touch device 200 that has acquired the output data in this case from the social touch control device 300 displays the image of the operator acquired by the terminal device 400 on the display unit 230, and the terminal device 400 displays the sound output unit 240 on the voice output unit 240. The acquired operator's voice is output. Moreover, the output information generation part 313 may generate | occur | produce the image (avatar etc.) of the same sex as an operator as output image data.

一方、出力情報生成部313は、性別比較部312がユーザとオペレータとの性別が異なると判断した場合、端末装置400から取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して、出力データを生成する。例えば、性別比較部312が、ユーザ及びオペレータ共に男性であると判断したとする。この場合、出力情報生成部313は、オペレータの性別とは反対の女性の画像を出力画像データとして生成する。女性の画像は、例えば予め記憶部320に記憶されている。また、出力情報生成部313は、オペレータの発した音声について音声変換を行うことにより、例えば周波数を高くして、女性が発する平均的な声域の周波数に変換する。そして、出力情報生成部313は、変換した音声を出力音声データとして生成する。このようにして生成された出力画像データ及び出力音声データをソーシャルタッチ制御装置300から取得したソーシャルタッチ装置200は、表示部230において、女性の画像を表示し、音声出力部240において、女性の声域の音声を出力する。このようにして、ユーザに対して、オペレータがあたかも女性であるかのような印象を与えることができる。   On the other hand, when the gender comparison unit 312 determines that the gender between the user and the operator is different, the output information generation unit 313 converts the communication information acquired from the terminal device 400 into a gender characteristic different from the gender of the operator. Then, output data is generated. For example, it is assumed that the gender comparison unit 312 determines that both the user and the operator are men. In this case, the output information generation unit 313 generates an image of a woman opposite to the gender of the operator as output image data. The female image is stored in advance in the storage unit 320, for example. Further, the output information generation unit 313 performs voice conversion on the voice uttered by the operator, thereby increasing the frequency, for example, and converting it to an average voice range frequency uttered by a woman. Then, the output information generation unit 313 generates the converted sound as output sound data. The social touch device 200 that has acquired the output image data and the output audio data generated in this manner from the social touch control device 300 displays a female image on the display unit 230, and the female voice range in the audio output unit 240. Is output. In this way, an impression can be given to the user as if the operator is a woman.

なお、性別比較部312が、ユーザ及びオペレータ共に女性であると判断した場合には、出力情報生成部313は、男性の画像を出力画像データとして生成し、男性の声域の周波数に変換した音声を出力音声データとして生成する。   When the gender comparison unit 312 determines that both the user and the operator are female, the output information generation unit 313 generates a male image as output image data, and converts the voice converted into a male vocal range frequency. Generate as output audio data.

アーム制御データ生成部314は、ソーシャルタッチ装置200のアーム部250の動作を制御するためのデータ(アーム制御データ)を生成する。アーム制御データ生成部314は、例えば、オペレータが端末装置400において特定のボタンを押下する等の特定の入力操作を行った場合に、アーム制御データを生成する。ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300からアーム制御データを取得すると、取得したアーム制御データに基づき、制御部260がアーム部250の動作を制御する。   The arm control data generation unit 314 generates data (arm control data) for controlling the operation of the arm unit 250 of the social touch device 200. The arm control data generation unit 314 generates arm control data when the operator performs a specific input operation such as pressing a specific button on the terminal device 400, for example. When the social touch device 200 acquires arm control data from the social touch control device 300, the control unit 260 controls the operation of the arm unit 250 based on the acquired arm control data.

また、アーム制御データ生成部314は、例えば端末装置400がオペレータから取得した音声情報に基づき、オペレータの発話中に特定の言葉が存在すると判断した場合に、アーム制御データを生成する。具体的には、アーム制御データ生成部314は、端末装置400から取得したオペレータの音声を分析する。そして、アーム制御データ生成部314は、オペレータの発話中に、例えば「大丈夫」又は「安心して下さい」等の予め記憶部320に記憶された特定の言葉が存在すると判断した場合、当該言葉に対応付けられたアーム制御データを生成する。そして、ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300からアーム制御データを取得すると、取得したアーム制御データに基づき、制御部260がアーム部250の動作を制御する。このように、特定の言葉と対応付けてアーム部250を動作させ、ソーシャルタッチを行うことにより、言葉に連動したソーシャルタッチを実現できる。   Also, the arm control data generation unit 314 generates arm control data when it is determined that a specific word is present in the utterance of the operator based on the voice information acquired by the terminal device 400 from the operator, for example. Specifically, the arm control data generation unit 314 analyzes the operator's voice acquired from the terminal device 400. When the arm control data generation unit 314 determines that there is a specific word stored in the storage unit 320 in advance, for example, “OK” or “Please rest assured” during the operator's utterance, Generate attached arm control data. Then, when the social touch device 200 acquires arm control data from the social touch control device 300, the control unit 260 controls the operation of the arm unit 250 based on the acquired arm control data. Thus, the social touch linked to the words can be realized by operating the arm unit 250 in association with a specific word and performing a social touch.

記憶部320は、ROM(Read Only Memory)やRAM(Random Access Memory)を有し、制御部310が動作する際に必要なデータ等の各種情報を記憶する。記憶部320は、例えばアバター等の画像、及び男性又は女性の平均的な声域等に関する情報を記憶する。   The storage unit 320 includes a ROM (Read Only Memory) and a RAM (Random Access Memory), and stores various information such as data necessary when the control unit 310 operates. The storage unit 320 stores, for example, information about an image such as an avatar and an average voice range of a man or woman.

また、記憶部320は、特定語データベース321を備える。特定語データベース321は、アーム制御データ生成部314がアーム制御データを生成するための対象となる言葉が記憶されている。   In addition, the storage unit 320 includes a specific word database 321. The specific word database 321 stores words that are targets for the arm control data generation unit 314 to generate arm control data.

端末装置400は、ユーザとオペレータとのコミュニケーションにおいて、オペレータからの各種入力を受け付けるとともに、ソーシャルタッチ制御装置300から取得したユーザに関する画像及びユーザの発話等の音声を出力する。端末装置400は、例えばパーソナルコンピュータ等により構成され、表示ディスプレイ、スピーカ、カメラ、マイク、及びこれらを制御する制御部等を備える。   In communication between the user and the operator, the terminal device 400 accepts various inputs from the operator, and outputs an image relating to the user acquired from the social touch control device 300 and a voice such as the user's speech. The terminal device 400 includes, for example, a personal computer, and includes a display display, a speaker, a camera, a microphone, a control unit that controls these, and the like.

次に、ソーシャルタッチ制御装置300の制御部310による出力データの生成処理の一例について、図4のフローチャートを参照しながら説明する。ここでは、一例として、ユーザの性別については、上述した画像分析及び音声分析を用いて判定を行い、オペレータの性別については、オペレータによる端末装置400への性別の入力に基づいて判定を行う場合について説明する。   Next, an example of output data generation processing by the control unit 310 of the social touch control device 300 will be described with reference to the flowchart of FIG. Here, as an example, the user's gender is determined using the above-described image analysis and voice analysis, and the operator's gender is determined based on the gender input to the terminal device 400 by the operator. explain.

まず、性別判定部311は、ソーシャルタッチ装置200から、画像取得部210が取得したユーザの画像及び音声取得部220が取得したユーザの声を取得する(ステップS101)。   First, the gender determination unit 311 acquires, from the social touch device 200, the user image acquired by the image acquisition unit 210 and the user voice acquired by the audio acquisition unit 220 (step S101).

そして、性別判定部311は、ユーザの画像の画像分析及びユーザの声の音声分析を行い、画像分析及び音声分析の結果に基づいて、ユーザの性別を判定する(ステップS102)。   Then, the gender determination unit 311 performs image analysis of the user's image and voice analysis of the user's voice, and determines the user's gender based on the results of the image analysis and voice analysis (step S102).

次に、性別判定部311は、端末装置400から、オペレータが入力した性別に関する情報を取得する(ステップS103)。   Next, the gender determination unit 311 acquires information on gender input by the operator from the terminal device 400 (step S103).

そして、性別判定部311は、取得したオペレータによる入力に基づいて、オペレータの性別を判定する(ステップS104)。つまり、性別判定部311は、オペレータが男性であると入力している場合には男性であると決定し、女性であると入力している場合には女性であると決定する。   Then, the gender determination unit 311 determines the gender of the operator based on the acquired input by the operator (step S104). That is, the gender determination unit 311 determines that the operator is male when the operator is input as a male, and determines that the operator is female when the operator is input as a female.

次に、性別比較部312は、ステップS102で判定されたユーザの性別と、ステップS104で判定されたオペレータの性別とが異なっているかを判断する(ステップS105)。   Next, the gender comparison unit 312 determines whether the gender of the user determined in step S102 is different from the gender of the operator determined in step S104 (step S105).

性別比較部312がユーザの性別とオペレータの性別とが異なっていると判断した場合(ステップS105のYes)、出力情報生成部313は、端末装置400からコミュニケーションに係る情報を取得し、このコミュニケーションに係る情報そのものを、出力データとして生成する(ステップS106)。   When the gender comparison unit 312 determines that the gender of the user is different from the gender of the operator (Yes in step S105), the output information generation unit 313 acquires information related to communication from the terminal device 400, and performs this communication. Such information itself is generated as output data (step S106).

一方、性別比較部312がユーザの性別とオペレータの性別とが同一であると判断した場合(ステップS105のNo)、出力情報生成部313は、端末装置400からコミュニケーションに係る情報を取得し、取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して出力データを生成する(ステップS107)。   On the other hand, when the gender comparison unit 312 determines that the gender of the user and the gender of the operator are the same (No in step S105), the output information generation unit 313 acquires information related to communication from the terminal device 400 and acquires the information. The communication-related information is converted into a gender characteristic different from the gender of the operator to generate output data (step S107).

制御部310は、出力情報生成部313が生成した出力データをソーシャルタッチ装置200に送信する。出力データを取得したソーシャルタッチ装置200は、出力データに基づいて、表示部230に画像を表示させ、音声出力部240から音声を出力する。   The control unit 310 transmits the output data generated by the output information generation unit 313 to the social touch device 200. The social touch device 200 that has acquired the output data causes the display unit 230 to display an image based on the output data, and outputs sound from the sound output unit 240.

次に、ソーシャルタッチ制御装置300のアーム制御データ生成部314によるアーム制御データの生成処理の一例について、図5のフローチャートを参照しながら説明する。ここでは、一例として、オペレータによる特定の入力操作が行われた場合、又はオペレータの発話中に所定の言葉が含まれている場合に、アーム制御データ生成部314がアーム制御データを生成するとして説明する。   Next, an example of arm control data generation processing by the arm control data generation unit 314 of the social touch control device 300 will be described with reference to the flowchart of FIG. Here, as an example, it is described that the arm control data generation unit 314 generates the arm control data when a specific input operation is performed by the operator or when a predetermined word is included in the utterance of the operator. To do.

まず、アーム制御データ生成部314は、オペレータが端末装置400に対して特定の入力操作を行ったか否かを判断する(ステップS201)。オペレータが端末装置400に対して特定の入力操作を行った場合、当該入力操作を行った旨の信号が、端末装置400から送信されて、ソーシャルタッチ制御装置300で受信されることにより、アーム制御データ生成部314は当該入力操作が行われたことを確認できる。   First, the arm control data generation unit 314 determines whether or not the operator has performed a specific input operation on the terminal device 400 (step S201). When the operator performs a specific input operation on the terminal device 400, a signal indicating that the input operation has been performed is transmitted from the terminal device 400 and received by the social touch control device 300, so that arm control is performed. The data generation unit 314 can confirm that the input operation has been performed.

アーム制御データ生成部314は、オペレータが特定の入力操作を行ったと判断した場合(ステップS201のYes)、当該入力操作に基づいてアーム制御データを生成する(ステップS202)。   When it is determined that the operator has performed a specific input operation (Yes in step S201), the arm control data generation unit 314 generates arm control data based on the input operation (step S202).

一方、アーム制御データ生成部314は、オペレータが特定の入力操作を行っていないと判断した場合(ステップS201のNo)、端末装置400から送信されるオペレータの発話に関する情報を取得する(ステップS203)。   On the other hand, when the arm control data generation unit 314 determines that the operator has not performed a specific input operation (No in step S201), the arm control data generation unit 314 acquires information related to the utterance of the operator transmitted from the terminal device 400 (step S203). .

そして、アーム制御データ生成部314は、取得したオペレータの発話について、音声分析を行う(ステップS204)。   Then, the arm control data generation unit 314 performs voice analysis on the acquired operator utterance (step S204).

アーム制御データ生成部314は、記憶部320の特定語データベース321を参照して、音声分析の結果、オペレータの発話中に、特定語データベース321に記憶された特定の言葉が含まれているか否かを判断する(ステップS205)。   The arm control data generation unit 314 refers to the specific word database 321 in the storage unit 320, and whether or not a specific word stored in the specific word database 321 is included in the utterance of the operator as a result of the voice analysis. Is determined (step S205).

アーム制御データ生成部314は、オペレータの発話中に特定の言葉が含まれていると判断した場合(ステップS205のYes)、当該特定の言葉に対応付けられたアーム制御データを生成する(ステップS202)。   When the arm control data generation unit 314 determines that a specific word is included in the utterance of the operator (Yes in step S205), the arm control data generation unit 314 generates arm control data associated with the specific word (step S202). ).

一方、アーム制御データ生成部314は、オペレータの発話中に特定の言葉が含まれていないと判断した場合(ステップS205のNo)、このフローを終了する。   On the other hand, when the arm control data generation unit 314 determines that a specific word is not included in the utterance of the operator (No in step S205), the flow ends.

アーム制御データ生成部314は、アーム制御データを生成した場合、生成したアーム制御データをソーシャルタッチ装置200に送信する。アーム制御データを取得したソーシャルタッチ装置200は、アーム制御データに基づいて、アームを動作させて、ユーザに対してソーシャルタッチを行う。   When generating the arm control data, the arm control data generation unit 314 transmits the generated arm control data to the social touch device 200. The social touch device 200 that has acquired the arm control data operates the arm based on the arm control data to perform a social touch on the user.

以上説明したテレプレゼンスシステム100は、例えば、遠隔授業や遠隔医療等で用いることができる。例えば遠隔授業にテレプレゼンスシステム100を使用した場合、上記ユーザは授業を受ける生徒であり、上記オペレータは授業を行う先生である。また、例えば遠隔医療にテレプレゼンスシステム100を使用した場合、上記ユーザは患者であり、上記オペレータは診療を行う医者又はカウンセラ等である。   The telepresence system 100 described above can be used in, for example, distance learning or telemedicine. For example, when the telepresence system 100 is used for a remote lesson, the user is a student who takes a lesson, and the operator is a teacher who gives a lesson. For example, when the telepresence system 100 is used for telemedicine, the user is a patient, and the operator is a doctor or a counselor who performs medical care.

上記テレプレゼンスシステム100によれば、ユーザの性別とオペレータの性別とが異なる場合には、アーム部250によるソーシャルタッチの効果を生じることができる。また、ユーザの性別とオペレータの性別とが同一である場合であっても、ユーザには、ユーザとは異なる性別のオペレータを疑似的に表示してソーシャルタッチを行うため、ソーシャルタッチの効果が生じやすくなる。このようにして、通信機器を介したコミュニケーションにおけるソーシャルタッチの効果を向上可能である。   According to the telepresence system 100, when the gender of the user and the gender of the operator are different, the social touch effect by the arm unit 250 can be produced. In addition, even if the gender of the user is the same as the gender of the operator, the user performs a social touch by pseudo-displaying an operator of a gender different from the user, so that the effect of social touch occurs. It becomes easy. In this way, it is possible to improve the effect of social touch in communication via a communication device.

上述の実施形態は、代表的な例として説明したが、本発明の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   Although the above embodiments have been described as representative examples, it will be apparent to those skilled in the art that many changes and substitutions can be made within the spirit and scope of the invention. Therefore, the present invention should not be construed as being limited by the above-described embodiments, and various modifications and changes can be made without departing from the scope of the claims.

例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部やステップ等を1つに組み合わせたり、或いは分割したりすることが可能である。   For example, the functions included in each component, each step, etc. can be rearranged so that there is no logical contradiction, and multiple components, steps, etc. can be combined or divided into one It is.

具体的には、例えば、上記実施形態において、ソーシャルタッチ装置200とソーシャルタッチ制御装置300とは、それぞれ独立した別の装置であるとして説明したが、ソーシャルタッチ装置200は、ソーシャルタッチ制御装置300の機能を含むように、ソーシャルタッチ制御装置300と一体として構成されていてもよい。また、端末装置400がソーシャルタッチ制御装置300の機能を含んでいてもよい。   Specifically, for example, in the above-described embodiment, the social touch device 200 and the social touch control device 300 have been described as separate devices, but the social touch device 200 is the social touch control device 300. The social touch control device 300 may be integrated with the function so as to include a function. Further, the terminal device 400 may include the function of the social touch control device 300.

また、ソーシャルタッチ装置200の台座270は、タイヤ等を備え、移動可能に構成されていてもよい。   Moreover, the base 270 of the social touch device 200 may include a tire or the like and be configured to be movable.

また、上記実施形態において、ソーシャルタッチ装置200は表示部230を備え、表示部230にはオペレータの画像又はアバターの画像が表示されると説明したが、ユーザに対して提示されるオペレータの外見に関する情報は、表示部230により表示されるものに限られない。例えば、図6(a)及び(b)にそれぞれ示すように、ソーシャルタッチ装置200の台座270は、表示部230に代わり、男性又は女性を模した物理的な胸像を有し、胸像によりオペレータの外見に関する情報をユーザに提示してもよい。ユーザは、自分の性別に応じて、予め自分の性別とは異なる性別の胸像を有するソーシャルタッチ装置200を使用することにより、オペレータの実際の性別にかかわらず、ソーシャルタッチの効果を得やすくなる。   Moreover, in the said embodiment, although the social touch apparatus 200 was provided with the display part 230 and the image of an operator or the image of an avatar was displayed on the display part 230 was demonstrated, it is related with the appearance of the operator shown with respect to a user. The information is not limited to that displayed by the display unit 230. For example, as shown in FIGS. 6A and 6B, the pedestal 270 of the social touch device 200 has a physical bust that simulates a man or a woman instead of the display unit 230, Information regarding appearance may be presented to the user. By using the social touch device 200 having a bust of a gender different from his / her gender according to his / her gender, the user can easily obtain the effect of social touch regardless of the actual gender of the operator.

また、ソーシャルタッチ装置200は、男性及び女性を模した物理的な胸像を備え、ユーザに応じて、提示する胸像を変化させてもよい。   Moreover, the social touch device 200 may include a physical bust that simulates a man and a woman, and may change the bust to be presented according to the user.

また、上記実施形態において、ソーシャルタッチ制御装置300は、ユーザとオペレータとが同性の場合、端末装置400から取得したコミュニケーションに係る情報を、オペレータの性別とは異なる性別の性質に変換して、出力データを生成すると説明したが、ソーシャルタッチ制御装置300が行う出力データの生成方法は、これに限られない。ソーシャルタッチ制御装置300は、例えば、端末装置400から取得したコミュニケーションに係る情報を、男性とも女性とも認識しにくい性質に変換して、出力データを生成してもよい。具体的には、例えば、ソーシャルタッチ制御装置300は、表示部230に、動物を擬人化した画像を表示させるように出力画像データを生成し、音声出力部240から、男性と女性の中間の声域の音声を出力するように出力音声データを生成してもよい。これにより、少なくとも同性間で生じ得るソーシャルタッチの悪影響を回避しやすくなる。   In the above embodiment, when the user and the operator are the same sex, the social touch control device 300 converts the information related to the communication acquired from the terminal device 400 into a gender property different from the gender of the operator, and outputs the information. Although it explained that data was generated, the generation method of output data which social touch control device 300 performs is not restricted to this. The social touch control device 300 may generate output data by converting information related to communication acquired from the terminal device 400 into a property that is difficult for both men and women to recognize. Specifically, for example, the social touch control device 300 generates output image data so as to display an image in which an animal is anthropomorphic on the display unit 230, and the voice range between the male and female from the audio output unit 240. The output voice data may be generated so as to output the voice. This makes it easier to avoid the adverse effects of social touch that can occur at least between the same sex.

100 テレプレゼンスシステム
200 ソーシャルタッチ装置
210 画像取得部
220 音声取得部
230 表示部
240 音声出六部
250 アーム部
251 第1アーム部材
252 第2アーム部材
253 第3アーム部材
260 制御部
270 台座
280 サーボモータ
300 ソーシャルタッチ制御装置
310 制御部
311 性別判定部
312 性別比較部
313 出力情報生成部
314 アーム制御データ生成部
320 記憶部
321 特定語データベース
400 端末装置
DESCRIPTION OF SYMBOLS 100 Telepresence system 200 Social touch apparatus 210 Image acquisition part 220 Audio | voice acquisition part 230 Display part 240 Audio | voice output part 250 Arm part 251 1st arm member 252 2nd arm member 253 3rd arm member 260 Control part 270 Base 280 Servo motor 300 Social touch control device 310 Control unit 311 Gender determination unit 312 Gender comparison unit 313 Output information generation unit 314 Arm control data generation unit 320 Storage unit 321 Specific word database 400 Terminal device

Claims (2)

互いに通信可能に接続されたソーシャルタッチ装置と端末装置とをそれぞれ使用してコミュニケーションを行う第1のユーザと第2のユーザとの性別を判定する性別判定部と、
前記性別判定部が判定した前記第1のユーザの性別と前記第2のユーザの性別とを比較する性別比較部と、
前記比較の結果、前記第1のユーザの性別と前記第2のユーザとの性別とが同一である場合、前記端末装置から取得した前記第2のユーザのコミュニケーションに係る情報を、前記第2のユーザの性別とは異なる性別の性質に変換して、出力データを生成して、該出力データを前記ソーシャルタッチ装置に送信する出力情報生成部と、
前記第2のユーザの入力に基づいて、前記ソーシャルタッチ装置が備えるアームを制御するためのアーム制御データを生成して、該アーム制御データを前記ソーシャルタッチ装置に送信するアーム制御データ生成部と
を備えるソーシャルタッチ制御装置。
A gender determination unit that determines the gender of the first user and the second user that communicate with each other using a social touch device and a terminal device that are communicably connected to each other;
A gender comparing unit that compares the gender of the first user determined by the gender determining unit with the gender of the second user;
As a result of the comparison, when the gender of the first user and the gender of the second user are the same, information relating to the communication of the second user acquired from the terminal device is An output information generation unit that converts the gender property different from the gender of the user, generates output data, and transmits the output data to the social touch device;
An arm control data generating unit that generates arm control data for controlling an arm included in the social touch device based on an input of the second user, and transmits the arm control data to the social touch device; A social touch control device.
前記性別判定部は、前記第1のユーザの性別を、前記ソーシャルタッチ装置が取得した前記第1のユーザに関する情報に基づいて自動的に判定し、前記第2のユーザの性別を、前記第2のユーザによる前記端末装置への入力に基づいて判定する、請求項1に記載のソーシャルタッチ制御装置。   The gender determination unit automatically determines the gender of the first user based on information about the first user acquired by the social touch device, and determines the gender of the second user as the second user. The social touch control device according to claim 1, wherein the determination is based on an input by the user to the terminal device.
JP2015094319A 2015-05-01 2015-05-01 Social touch control device Active JP6369907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015094319A JP6369907B2 (en) 2015-05-01 2015-05-01 Social touch control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015094319A JP6369907B2 (en) 2015-05-01 2015-05-01 Social touch control device

Publications (2)

Publication Number Publication Date
JP2016212564A JP2016212564A (en) 2016-12-15
JP6369907B2 true JP6369907B2 (en) 2018-08-08

Family

ID=57549857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015094319A Active JP6369907B2 (en) 2015-05-01 2015-05-01 Social touch control device

Country Status (1)

Country Link
JP (1) JP6369907B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6512281B1 (en) * 2017-12-26 2019-05-15 東洋インキScホールディングス株式会社 Active energy ray-curable hard coat agent and laminate
JP7300925B2 (en) * 2019-08-01 2023-06-30 株式会社Iriam Live communication system with characters

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3936351B2 (en) * 1995-01-11 2007-06-27 富士通株式会社 Voice response service equipment
JP4022478B2 (en) * 2002-02-13 2007-12-19 株式会社東京大学Tlo Robot phone

Also Published As

Publication number Publication date
JP2016212564A (en) 2016-12-15

Similar Documents

Publication Publication Date Title
US10475354B2 (en) Haptic communication using dominant frequencies in speech signal
Siena et al. Utilising the intel realsense camera for measuring health outcomes in clinical research
CN106992013B (en) Speech emotion modification
Levy-Tzedek et al. Fast, accurate reaching movements with a visual-to-auditory sensory substitution device
Fager et al. Access to augmentative and alternative communication: New technologies and clinical decision-making
Geronazzo et al. Interactive spatial sonification for non-visual exploration of virtual maps
WO2016080553A1 (en) Learning robot, learning robot system, and learning robot program
JP6419924B1 (en) Learning support system and learning support method
US12008161B2 (en) Smart ring
JP2024012497A (en) Communication methods and systems
JP6040745B2 (en) Information processing apparatus, information processing method, information processing program, and content providing system
US20240136033A1 (en) Automated transcription and documentation of tele-health encounters
JP6369907B2 (en) Social touch control device
Frey 1 2 et al. EEG-based neuroergonomics for 3D user interfaces: opportunities and challenges
Wu et al. Psychophysical evaluation of haptic perception under augmentation by a handheld device
D. Gomez et al. See ColOr: an extended sensory substitution device for the visually impaired
JP6798258B2 (en) Generation program, generation device, control program, control method, robot device and call system
KR102116517B1 (en) Remote apparatus with interworking between smart device and sonographer
CN116741330A (en) Diagnosis and treatment report generation method, device, equipment and storage medium
US10635665B2 (en) Systems and methods to facilitate bi-directional artificial intelligence communications
JPWO2019181008A1 (en) Dialogue support devices, dialogue support methods, and programs
WO2021124845A1 (en) Physical function training device, physical function training method, program, and recording medium
Chen et al. Feeling speech on the arm
Papetti Design and perceptual investigations of audio-tactile interactions
Zhu et al. An investigation into the effectiveness of using acoustic touch to assist people who are blind

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180705

R150 Certificate of patent or registration of utility model

Ref document number: 6369907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250