JP7106097B2 - telepresence system - Google Patents

telepresence system Download PDF

Info

Publication number
JP7106097B2
JP7106097B2 JP2018103648A JP2018103648A JP7106097B2 JP 7106097 B2 JP7106097 B2 JP 7106097B2 JP 2018103648 A JP2018103648 A JP 2018103648A JP 2018103648 A JP2018103648 A JP 2018103648A JP 7106097 B2 JP7106097 B2 JP 7106097B2
Authority
JP
Japan
Prior art keywords
terminal
user
telepresence
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018103648A
Other languages
Japanese (ja)
Other versions
JP2019208167A (en
Inventor
亨 山口
英理 下川原
真也 岩▲崎▼
怜央奈 五味
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Metropolitan Public University Corp
Original Assignee
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Metropolitan Public University Corp filed Critical Tokyo Metropolitan Public University Corp
Priority to JP2018103648A priority Critical patent/JP7106097B2/en
Publication of JP2019208167A publication Critical patent/JP2019208167A/en
Application granted granted Critical
Publication of JP7106097B2 publication Critical patent/JP7106097B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

特許法第30条第2項適用 平成29年12月1日掲載,URL:https://www.csie.ntu.edu.tw/~taai2017Application of Article 30, Paragraph 2 of the Patent Law Posted on December 1, 2017, URL: https://www. csie. ntu. edu. tw/~tai 2017

本発明は、テレプレゼンスシステムに関する。 The present invention relates to telepresence systems.

近年、自宅で働く人が会社に居る社員との間で会議を行う場合や、離れた事業所どうしの間で会議を行う場合等に、TV会議システムが使用されつつある。TV会議システムにおいて、遠隔地に居るにも関わらず、現場にいるような感覚を相互に伝えるような臨場感を与えるロボットとして、テレプレゼンスシステムが知られている。他にも、離れて暮らす家族の間でコミュニケーションをとるためにのテレプレゼンスシステムも知られている。
テレプレゼンスシステムに関して、以下の技術が従来公知である。
2. Description of the Related Art In recent years, video conferencing systems are being used when a person working at home has a conference with an employee at a company, or when a conference is held between distant offices. A telepresence system is known as a teleconferencing system in which a robot gives a sense of realism such that the user can feel as if he or she is actually there even though the user is in a remote location. Telepresence systems are also known for communicating between family members living apart.
Regarding the telepresence system, the following techniques are conventionally known.

非特許文献1には、車輪を有する台車に、相手の顔が映し出されるモニターや、自身を写すためのカメラ、マイクロフォン(小型のスピーカおよびマイク)、ロボットアームやレーザーポインタ等が設置されたテレプレゼンスロボットが記載されている。非特許文献1に記載された技術では、テレプレゼンスロボットに映しだされた相手と会話をしたり、ロボットアームで単純なジェスチャーを行ったり、レーザーポインタで物を指し示したりすることが可能になっている。すなわち、視覚と聴覚を通じたコミュニケーションが可能である。 Non-Patent Document 1 describes a telepresence system in which a trolley with wheels is equipped with a monitor that displays the other party's face, a camera that captures itself, a microphone (small speaker and microphone), a robot arm, a laser pointer, etc. A robot is described. With the technology described in Non-Patent Document 1, it is possible to have a conversation with the other party projected on the telepresence robot, perform simple gestures with the robot arm, and point to an object with a laser pointer. there is That is, communication through sight and hearing is possible.

非特許文献2には、ロボットを被験者が操縦して、前後移動や回転を行わせることで、遠隔地の相手と、同じ部屋の中で実際に会話をしたり、見られたりするように感じられることを目的としたテレプレゼンスロボットが記載されている。
非特許文献3には、遠隔参与者の頷きや相槌を検出して、テレプレゼンスロボットによって誇張表現を行う技術が記載されている。
In Non-Patent Document 2, a subject manipulates a robot to move back and forth and rotate, so that it feels as if he or she can actually talk to and be seen by a remote partner in the same room. A telepresence robot intended to be a telepresence robot is described.
Non-Patent Literature 3 describes a technique for detecting a nod or backtracking of a remote participant and performing an exaggerated expression using a telepresence robot.

Annica Kristoffersson, et.al, “A Revier of Mobile Robotic Telepresence,” Adbances in Human-Computer Interaction, Vol. 2013, Article ID 902316, 17 pages, 2013. doi:10. 1155/2013/902316.Annica Kristoffersson, et.al, “A Revier of Mobile Robotic Telepresence,” Advances in Human-Computer Interaction, Vol. 2013, Article ID 902316, 17 pages, 2013. doi:10. 1155/2013/902316. 村上 友樹 他3名 “ロボット搭載カメラの移動がテレプレゼンスに与える影響” 情報処理学会論文誌, 1882-7764, 2010-01-15, 51, 1, 54-62, URL<https://ci.nii.ac.jp/naid/110007970615/>Yuki Murakami and 3 others, “Effect of movement of robot-mounted camera on telepresence,” Transactions of Information Processing Society of Japan, 1882-7764, 2010-01-15, 51, 1, 54-62, URL<https://ci. nii.ac.jp/naid/110007970615/> 長谷川 孔明 他1名 “遠隔参与者の発話機会増加のために身振りを誇張する遠隔会話ロボットの提案(クラウドネットワークロボット)” 電子情報通信学会技術研究報告=IIEICE technical report, 信学技報,0913-5685, 一般社団法人電子情報通信学会, 2014-09-26, 114, 227, 5-10, URL<https://ci.nii.ac.jp/naid/110009950799/>Komei Hasegawa and one other person, “Proposal of Remote Conversation Robot that Exaggerates Gestures to Increase Opportunities for Remote Participants to Speak (Cloud Network Robot)” The Institute of Electronics, Information and Communication Engineers Technical Report =IIEICE technical report, IEICE Technical Report, 0913- 5685, The Institute of Electronics, Information and Communication Engineers, 2014-09-26, 114, 227, 5-10, URL<https://ci.nii.ac.jp/naid/110009950799/>

(従来技術の問題点)
非特許文献1に記載の従来技術では、単純なジェスチャを相手方に伝達可能であるが、例えば、会話中の動作が自動的に相手に伝達されない。非特許文献2に記載の従来技術でも、被験者の操縦結果が相手方に伝達されるが、被験者の会話中の動作は自動的に相手に伝達されない。非特許文献1,2に記載の技術では、例えば、会話中に共感や同意等を示す頷き動作(首を縦に振る動作)や、否定や不同意等を示す首を横に振る動作は自動的には伝達されない。特に、遠隔対話において、頷き動作等が伝達されると、感情や意思の疎通が図られやすく、コミュニケーションがはかどりやすい。
(Problem of conventional technology)
In the prior art described in Non-Patent Document 1, simple gestures can be transmitted to the other party, but, for example, actions during conversation are not automatically transmitted to the other party. In the prior art described in Non-Patent Document 2, the subject's maneuvering result is also transmitted to the other party, but the motion of the subject during conversation is not automatically transmitted to the other party. In the techniques described in Non-Patent Documents 1 and 2, for example, nodding motions (vertical shaking motions of the head) indicating sympathy or agreement, etc., and horizontal shaking motions indicating denial or disapproval, etc. during a conversation are automatically performed. is not transmitted physically. In particular, in remote dialogue, when a nodding motion or the like is transmitted, it is easy to communicate feelings and intentions, and communication is easy to progress.

非特許文献3に記載の技術のように、頷き等を検出して相手方のテレプレゼンスロボットで表現を行う技術では、感情や意思の疎通は図られやすくなる。ここで、テレプレゼンスロボットにおいて、相手の顔が表示されるモニタ(表示器)と、頷き等を表現するロボットの頭部とが異なる場合、すなわち、非特許文献2のようにモニタがロボットの胸部に設置されている場合、モニタで相手を見ている際に、ロボットの頭部が頷いても、頷きに気づかない場合もあり、コミュニケーションが図られにくい。したがって、相手の顔の映像が表示されているモニタを、相手の頷き動作に対応させて上下に振動させたり、否定等の意思表示に合わせて左右に振動させることが好ましい。しかしながら、利用者の頭部の動きに合わせてモニタを動かした場合、モニタが頻繁に動いてしまい、モニタを見ている利用者がストレスを感じたり、乗り物酔いのような状態になったりする恐れがある。 The technology described in Non-Patent Literature 3, in which a nod or the like is detected and the telepresence robot of the other party expresses itself, facilitates communication of emotions and intentions. Here, in the telepresence robot, when the monitor (display) that displays the other party's face is different from the head of the robot that expresses nodding, that is, the monitor is the chest of the robot as in Non-Patent Document 2. When the robot is installed in a remote location, even if the head of the robot nods while looking at the other person on the monitor, the person may not notice the nod, making communication difficult. Therefore, it is preferable to vibrate the monitor displaying the image of the other party's face vertically in response to the nodding motion of the other party, or to vibrate left and right in accordance with the manifestation of intention such as denial. However, when the monitor is moved in accordance with the movement of the user's head, the monitor moves frequently, and the user who is looking at the monitor may feel stress or suffer from motion sickness. There is

本発明は、テレプレゼンスシステムを利用して遠隔通話を行う場合、コミュニケーションを円滑にしつつ、利用者のストレスを軽減することを技術的課題とする。 SUMMARY OF THE INVENTION It is a technical object of the present invention to reduce the user's stress while facilitating communication when making a remote call using a telepresence system.

前記技術的課題を解決するために、請求項1に記載の発明のテレプレゼンスシステムは、
第1の利用者の映像を取得する第1の撮影部と、第1の利用者の音声を取得する第1の音声入力部と、映像を表示する第1の表示部と、前記第1の表示部を傾斜させる第1の傾斜部と、を有する第1の端末と、
前記第1の端末とは離間した場所に設置され、且つ、前記第1の端末とは情報の送受信が可能な第2の端末であって、第2の利用者の映像を取得する第2の撮影部と、第2の利用者の音声を取得する第2の音声入力部と、映像を表示する第2の表示部と、前記第2の表示部を傾斜させる第2の傾斜部と、を有する第2の端末と、
前記第1の撮影部および第2の撮影部のそれぞれの撮影した映像に基づいて、前記第1の利用者および前記第2の利用者のそれぞれの動作を判別する動作判別手段と、
前記第1の端末および前記第2の端末の一方において一方の利用者の音声が入力され、且つ、前記第1の端末および前記第2の端末の他方において他方の利用者が予め定められた動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記第1の端末および前記第2の端末の他方の端末の傾斜部を動作させない傾斜制御手段と、
を備えたことを特徴とする。
In order to solve the technical problem, the telepresence system of the invention described in claim 1 is:
a first imaging unit that acquires an image of the first user; a first audio input unit that acquires the audio of the first user; a first display unit that displays the image; a first terminal having a first slope that slopes the display;
A second terminal that is installed at a location separated from the first terminal and that is capable of transmitting and receiving information to and from the first terminal, and that acquires an image of a second user. a shooting unit, a second audio input unit that acquires the voice of the second user, a second display unit that displays an image, and a second tilt unit that tilts the second display unit a second terminal having
Action discrimination means for discriminating respective actions of the first user and the second user based on images taken by the first imaging unit and the second imaging unit ;
One user's voice is input to one of the first terminal and the second terminal, and the other user performs a predetermined operation on the other of the first terminal and the second terminal is performed, the inclined portion of one of the first terminal and the second terminal is inclined according to the motion of the other user, and the first terminal and the second terminal tilt control means for not operating the tilt portion of the other terminal of the
characterized by comprising

請求項2に記載の発明は、請求項1に記載のテレプレゼンスシステムにおいて、
前記第1の端末および前記第2の端末の他方の利用者が頷く動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末を上下方向に傾斜させる前記傾斜制御手段
を備えたことを特徴とする。
The invention according to claim 2 is the telepresence system according to claim 1,
said tilt control means for tilting one of said first terminal and said second terminal in a vertical direction when the other user of said first terminal and said second terminal performs a nodding motion; characterized by comprising

請求項3に記載の発明は、請求項1または2に記載のテレプレゼンスシステムにおいて、
前記第1の端末および前記第2の端末の他方の端末において、予め定められた時間に達しない音声が取得された場合に、音声の入力を無視する
ことを特徴とする。
The invention according to claim 3 is the telepresence system according to claim 1 or 2,
When the other terminal of the first terminal and the second terminal acquires a voice that does not reach a predetermined time, the input of the voice is ignored.

請求項1に記載の発明によれば、一方の利用者の音声が入力され、且つ、他方において他方の利用者が予め定められた動作を行った場合に、前記一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記他方の端末の傾斜部を動作させないことで、テレプレゼンスシステムを利用して遠隔通話を行う場合、コミュニケーションを円滑にしつつ、利用者のストレスを軽減することができる。
請求項2に記載の発明によれば、会話の聞き手側が頷く動作を話し手側に伝えることができる。
請求項3に記載の発明によれば、短時間の発話がされた場合にも他方の端末の傾斜部が作動する場合に比べて、利用者のストレスを軽減できる。
According to the first aspect of the invention, when one user's voice is input and the other user performs a predetermined action on the other side, the inclined portion of the one terminal is By tilting according to the movement of the other user and not moving the tilting part of the other terminal, when making a remote call using the telepresence system, the user's stress can be reduced while smooth communication. can be mitigated.
According to the second aspect of the invention, the nodding action of the listener of the conversation can be conveyed to the speaker.
According to the third aspect of the present invention, it is possible to reduce the user's stress compared to the case where the inclined portion of the other terminal operates even when a short speech is made.

図1は本発明の実施例1のテレプレゼンスシステムの全体説明図である。FIG. 1 is an overall explanatory diagram of a telepresence system according to Embodiment 1 of the present invention. 図2は実施例1のテレプレゼンスロボットの説明図である。FIG. 2 is an explanatory diagram of the telepresence robot of the first embodiment. 図3は実施例1の遠隔コミュニケーションシステムにおけるテレプレゼンスロボットの機能ブロック図である。FIG. 3 is a functional block diagram of a telepresence robot in the remote communication system of embodiment 1. FIG.

次に図面を参照しながら、本発明の実施の形態の具体例(以下、実施例と記載する)を説明するが、本発明は以下の実施例に限定されるものではない。
なお、以下の図面を使用した説明において、理解の容易のために説明に必要な部材以外の図示は適宜省略されている。
Next, specific examples of embodiments of the present invention (hereinafter referred to as examples) will be described with reference to the drawings, but the present invention is not limited to the following examples.
It should be noted that in the following explanation using the drawings, illustration of members other than those necessary for the explanation is omitted as appropriate for ease of understanding.

図1は本発明の実施例1のテレプレゼンスシステムの全体説明図である。
図1において、本発明のテレプレゼンスシステムの一例としての遠隔コミュニケーションシステムSは、利用者が利用可能な端末の一例としてのテレプレゼンスロボット1,2を有する。テレプレゼンスロボット1,2は、互いに離れた設置場所3,4に設置されている。例えば、第1のテレプレゼンスロボット(第1の端末)1は、利用者の一例としての孫の住宅(第1の設置場所)3に設置され、第2のテレプレゼンスロボット2(第2の端末)は、利用者の一例としての祖父母の住宅(第2の設置場所)4に設置することが可能である。
FIG. 1 is an overall explanatory diagram of a telepresence system according to Embodiment 1 of the present invention.
In FIG. 1, a remote communication system S as an example of the telepresence system of the present invention has telepresence robots 1 and 2 as an example of terminals that can be used by users. Telepresence robots 1 and 2 are installed at installation locations 3 and 4 apart from each other. For example, a first telepresence robot (first terminal) 1 is installed in a grandchild's house (first installation location) 3 as an example of a user, and a second telepresence robot 2 (second terminal ) can be installed in a grandparent's house (second installation location) 4 as an example of the user.

図2は実施例1のテレプレゼンスロボットの説明図である。
図1、図2において、第1のテレプレゼンスロボット1は、台座部11を有する。台座部11には、上方に延びる柱部12が支持されている。柱部12の上端部には、上下(チルト)左右(パン)に移動可能な首振りヘッド(第1の傾斜部)13が支持されている。首振りヘッド13は、図示しない駆動源の駆動により、作動可能な従来公知の構成である。首振りヘッド13には、端末本体の一例としてのタブレット14が支持されている。タブレット14は、第1の表示部の一例であって、入力部の一例としてのタッチパネル14aを有する。タッチパネル14aは、映像を表示可能であるとともに、指やペン等の入力手段で触れることで入力が可能に構成されている。
FIG. 2 is an explanatory diagram of the telepresence robot of the first embodiment.
1 and 2, the first telepresence robot 1 has a pedestal 11. As shown in FIG. A column portion 12 extending upward is supported on the base portion 11 . An oscillating head (first inclined portion) 13 that can move up and down (tilt) and left and right (pan) is supported on the upper end portion of the column portion 12 . The oscillating head 13 has a conventionally known structure that can be operated by being driven by a drive source (not shown). A tablet 14 as an example of a terminal body is supported by the swing head 13 . The tablet 14 is an example of a first display unit and has a touch panel 14a as an example of an input unit. The touch panel 14a is configured to be capable of displaying an image and allowing input by being touched with an input means such as a finger or a pen.

また、タブレット14には、第1の音声入力部の一例としてのマイク14bが設けられている。マイク14bは、利用者の音声のようなタブレット14の周囲の音声を取得可能である。さらに、タブレット14には、第1の音声出力部の一例としてのスピーカ(図示せず)も設けられている。
また、実施例1の第1のテレプレゼンスロボット1では、柱部12に、第1の撮影部の一例としてのカメラ16が設置されている。カメラ16は、利用者の映像等を取得可能である。
Further, the tablet 14 is provided with a microphone 14b as an example of a first voice input section. The microphone 14b can pick up sounds around the tablet 14, such as the user's voice. Furthermore, the tablet 14 is also provided with a speaker (not shown) as an example of a first audio output unit.
Further, in the first telepresence robot 1 of Example 1, a camera 16 as an example of a first imaging unit is installed on the pillar 12 . The camera 16 can acquire a user's image or the like.

なお、第2のテレプレゼンスロボット2は、第1のテレプレゼンスロボット1と同様に構成されているため、詳細な説明は省略する。すなわち、第2のテレプレゼンスロボット2は、第2の傾斜部の一例としての首振りヘッドや、第2の表示部の一例としてのタッチパネル、第2の音声入力部の一例としてのマイク、第2の撮影部の一例としてのカメラ、第2の音声出力部の一例としてのスピーカ等を有する。
各テレプレゼンスロボット1,2は、公衆回線の一例としてのインターネット回線21を介して情報通信可能に接続されている。なお、インターネット回線21には、有線接続でも無線接続でも任意の接続方式を採用可能である。
Since the second telepresence robot 2 is configured in the same manner as the first telepresence robot 1, detailed description thereof will be omitted. That is, the second telepresence robot 2 includes an oscillating head as an example of the second inclined section, a touch panel as an example of the second display section, a microphone as an example of the second voice input section, and a second voice input section as an example. and a speaker as an example of the second audio output unit.
Each of the telepresence robots 1 and 2 is connected so as to be able to communicate information via an Internet line 21 as an example of a public line. Any connection method can be adopted for the Internet line 21, whether it is a wired connection or a wireless connection.

(実施例1のテレプレゼンスロボット1の制御部の説明)
図3は実施例1の遠隔コミュニケーションシステムにおけるテレプレゼンスロボットの機能ブロック図である。
図3において、実施例1のテレプレゼンスロボット1,2の制御部31は、外部との信号の入出力および入出力信号レベルの調節等を行うI/O(入出力インターフェース)、必要な起動処理を行うためのプログラムおよびデータ等が記憶されたROM(リードオンリーメモリ)、必要なデータ及びプログラムを一時的に記憶するためのRAM(ランダムアクセスメモリ)、ROM等に記憶された起動プログラムに応じた処理を行うCPU(中央演算処理装置)ならびにクロック発振器等を有するコンピュータ装置により構成されており、前記ROM及びRAM等に記憶されたプログラムを実行することにより種々の機能を実現することができる。
前記テレプレゼンスロボット1,2の制御部31には、基本動作を制御する基本ソフト、いわゆる、オペレーティングシステムOS、アプリケーションプログラムの一例としてのコミュニケーションプログラム、その他の図示しないソフトウェアが記憶されている。
なお、以下の説明において、第1のテレプレゼンスロボット1について説明するが、第2のテレプレゼンスロボット2については、第1のテレプレゼンスロボット1と同様であるため、詳細な説明は省略する。
(Description of the control unit of the telepresence robot 1 of the first embodiment)
FIG. 3 is a functional block diagram of a telepresence robot in the remote communication system of embodiment 1. FIG.
In FIG. 3, the control unit 31 of the telepresence robots 1 and 2 of the first embodiment includes an I/O (input/output interface) for inputting/outputting signals with the outside, adjusting the input/output signal level, etc., necessary startup processing, and the like. ROM (read-only memory) that stores programs and data, etc. for performing, RAM (random access memory) for temporarily storing necessary data and programs, boot program stored in ROM etc. It is composed of a computer device having a CPU (central processing unit) that performs processing and a clock oscillator, etc. Various functions can be realized by executing programs stored in the ROM and RAM.
The control unit 31 of the telepresence robots 1 and 2 stores basic software for controlling basic operations, a so-called operating system OS, a communication program as an example of an application program, and other software (not shown).
In the following description, the first telepresence robot 1 will be described, but the second telepresence robot 2 is the same as the first telepresence robot 1, so detailed description will be omitted.

(実施例1の制御部31に接続された要素)
第1のテレプレゼンスロボット1の制御部31には、タッチパネル14aやマイク14bやカメラ16等の信号出力要素からの出力信号が入力されている。
また、実施例1の制御部31は、タッチパネル14aや首振りヘッド13、スピーカ等の被制御要素へ制御信号を出力している。
(Elements connected to the control unit 31 of the first embodiment)
The control unit 31 of the first telepresence robot 1 receives output signals from signal output elements such as the touch panel 14a, the microphone 14b, the camera 16, and the like.
Further, the control unit 31 of the first embodiment outputs control signals to controlled elements such as the touch panel 14a, the swing head 13, and the speaker.

(第1のテレプレゼンスロボット1の機能)
実施例1の第1のテレプレゼンスロボット1の制御部31のコミュニケーションプログラムは、下記の機能手段(プログラムモジュール)を有する。
撮影手段41は、カメラ16を介して、映像を撮影する。なお、撮影手段41で撮影された映像は、インターネット回線21を介して第2のテレプレゼンスロボット2に送信される。
音声取得手段42は、マイク14bを介して、音声を取得する。音声取得手段42で取得された音声はインターネット回線21を介して第2のテレプレゼンスロボット2に送信される。
(Function of first telepresence robot 1)
The communication program of the control unit 31 of the first telepresence robot 1 of Example 1 has the following functional units (program modules).
A photographing means 41 photographs an image via the camera 16 . The video imaged by the imaging means 41 is transmitted to the second telepresence robot 2 via the Internet line 21 .
The voice acquisition means 42 acquires voice through the microphone 14b. The voice acquired by the voice acquisition means 42 is transmitted to the second telepresence robot 2 via the Internet line 21 .

動作判別手段43は、カメラ16の撮影した映像に基づいて、利用者の動作を判別する。実施例1の動作判別手段43は、カメラ16の映像から画像解析を行って、利用者の頭部を特定(目や鼻、口の検出)し、頭部の動作(首を縦に振る(頷き)、首を横に振る、首をかしげる等)を判別する。
実施例1では、動作判別手段43の判別結果は、第1のテレプレゼンスロボット1で使用されるとともに、第2のテレプレゼンスロボット2にも送信されるが、これに限定されない。例えば、相手方のテレプレゼンスロボット2に送信せず、相手方のテレプレゼンスロボット2から送信された映像から、相手方の動作を判別する構成とすることも可能である。
The motion discrimination means 43 discriminates the motion of the user based on the image captured by the camera 16 . The motion determining means 43 of the first embodiment performs image analysis from the image captured by the camera 16 to identify the user's head (detection of eyes, nose, and mouth), and determine the motion of the head (shaking the head vertically ( nodding), shaking the head sideways, tilting the head, etc.).
In the first embodiment, the determination result of the action determination means 43 is used by the first telepresence robot 1 and is also transmitted to the second telepresence robot 2, but is not limited to this. For example, it is possible to determine the action of the other party from the image transmitted from the telepresence robot 2 of the other party without transmitting to the telepresence robot 2 of the other party.

発話判別手段44は、マイク14bの取得した音声に基づいて、利用者の発話を判別する。実施例1の発話判別手段44は、予め定められた時間に達しない音声が取得された場合は、発話がされていないと判別する。実施例1では、一例として、予め定められた時間として2秒間が設定されている。したがって、会話時に、「うん」とか「へえ~」、「いや」といった同意や共感、否定等を示す際に発せられることがある短時間の発話については、利用者の会話における発話として判別しない。そして、2秒間を超える発話は、利用者が相手方と会話するために発した発話と判別する。なお、発話判別手段44も、動作判別手段43と同様に、相手方から送信された音声情報から相手方の発話の有無を判別する構成とすることも可能である。 The utterance discriminating means 44 discriminates the utterance of the user based on the voice acquired by the microphone 14b. The utterance determination unit 44 of the first embodiment determines that no utterance is made when a voice is acquired that does not reach a predetermined time. In Example 1, as an example, the predetermined time is set to 2 seconds. Therefore, short utterances such as "yes", "heh~", "no", etc. that are used to express agreement, sympathy, or denial during conversation are not identified as utterances in the user's conversation. Speech that lasts longer than 2 seconds is determined to be uttered by the user in order to converse with the other party. It should be noted that the utterance discrimination means 44 can also be configured to discriminate whether or not the other party has spoken, based on the voice information transmitted from the other party, similarly to the action discrimination means 43 .

画像表示手段45は、第2のテレプレゼンスロボット2の撮影手段41が撮影し、インターネット回線21を介して受信したものを、タッチパネル14aに表示する。
音声出力手段46は、第2のテレプレゼンスロボット2の音声取得手段42が取得し、インターネット回線21を介して受信したものを、スピーカから出力する。なお、実施例1の音声出力手段46は、発話判別手段44が発話と判別しなかった短時間の発話についても、スピーカから出力する。
The image display means 45 displays the image captured by the image capturing means 41 of the second telepresence robot 2 and received via the Internet line 21 on the touch panel 14a.
The voice output means 46 outputs the voice acquired by the voice acquisition means 42 of the second telepresence robot 2 and received via the Internet line 21 from a speaker. Note that the voice output unit 46 of the first embodiment also outputs short-time speech that the speech discrimination unit 44 did not discriminate as speech from the speaker.

傾斜制御手段47は、首振りヘッド13を制御して、タブレット14を傾斜させる。実施例1の傾斜制御手段47は、第1のテレプレゼンスロボット1において設置場所3の利用者(自分)の音声が入力され、且つ、第2のテレプレゼンスロボット2において設置場所4の利用者(相手)が予め定められた動作(頷き等)を行った場合に、第1のテレプレゼンスロボット1の首振りヘッド13を相手の動作に応じて傾斜させる。また、実施例1の傾斜制御手段47は、第2のテレプレゼンスロボット2において相手の音声が入力され、且つ、第1のテレプレゼンスロボット1において自分が発話をしていない場合に、第2のテレプレゼンスロボット2で予め定められた動作(頷き等)がされても、第1のテレプレゼンスロボット1の首振りヘッド13を作動させない。すなわち、発話している側(話し手)の首振りヘッド13は相手(聞き手)の動作に応じて作動するが、聞き手の首振りヘッド13は(話し手が頷いたりしても)作動しない。なお、両方が発話している場合(両方が話し手)では、両方の首振りヘッド13が相手方の頭部の動きに応じて作動する。 The tilt control means 47 controls the swing head 13 to tilt the tablet 14 . In the tilt control means 47 of the first embodiment, the voice of the user (self) at the installation location 3 is input in the first telepresence robot 1, and the voice of the user (self) at the installation location 4 is input in the second telepresence robot 2. When the other party performs a predetermined action (such as nodding), the swing head 13 of the first telepresence robot 1 is tilted according to the action of the other party. Further, the tilt control means 47 of the first embodiment controls the second telepresence robot 2 when the other party's voice is input to the second telepresence robot 2 and when the first telepresence robot 1 is not speaking. Even if the telepresence robot 2 performs a predetermined action (such as nodding), the swinging head 13 of the first telepresence robot 1 is not operated. That is, the oscillating head 13 of the speaking side (speaker) operates according to the movement of the other party (listener), but the oscillating head 13 of the listener does not operate (even if the speaker nods). When both of them are speaking (both are speakers), both of the swinging heads 13 operate according to the movement of the other's head.

実施例1の傾斜制御手段47は、動作判別手段43が判別した動作、例えば、首を縦に振る動作(頷き)や首を横に振る動作、首をかしげる動作に応じて、首振りヘッド13を作動させて、タブレット14を上下動させたり、左右に移動させたり、傾斜させる。なお、首振りヘッド13の作動は、相手方の頭部の移動量(傾斜角や移動速度等)に応じて作動させることも可能であるが、これに限定されない。例えば、第2のテレプレゼンスロボット2の動作判別手段43で「頷き」と判別され、第1のテレプレゼンスロボット1に「頷き」動作を示す信号が入力された場合に、「傾斜角5°の上下動を2往復する」といったように、所定の利用者の動作に対して、首振りヘッド13が所定の動作を行うように構成することも可能である。 The tilt control means 47 of the first embodiment controls the tilting head 13 according to the motion determined by the motion determining means 43, such as a motion of shaking the head vertically (nodding), a motion of shaking the head sideways, or a motion of tilting the head. to move the tablet 14 vertically, horizontally, or tilt it. Note that the operation of the swinging head 13 can be performed according to the amount of movement of the opponent's head (inclination angle, movement speed, etc.), but is not limited to this. For example, when the motion determining means 43 of the second telepresence robot 2 determines that it is a "nod" and a signal indicating the "nod" motion is input to the first telepresence robot 1, the "tilt angle of 5°" is determined. It is also possible to configure the oscillating head 13 to perform a predetermined motion in response to a predetermined motion of the user, such as "moving up and down twice".

また、実施例1の傾斜制御手段47は、発話判別手段44が発話と判別しない場合には、首振りヘッド13を作動させない。すなわち、前述のように「うん」等の短時間の発話が検出されても、話し手とは判別されず、聞き手として判断され、首振りヘッド13は作動しない。したがって、実施例1では、首振りヘッド13の作動について、短時間の発話は形式的には無視される。 Further, the tilt control means 47 of the first embodiment does not operate the swinging head 13 when the speech discrimination means 44 does not discriminate speech. That is, even if a short utterance such as "Yes" is detected as described above, it is not determined as a speaker, but as a listener, and the swing head 13 does not operate. Therefore, in the first embodiment, short-time speech is formally ignored for the operation of the swinging head 13 .

(実施例1の作用)
前記構成を備えた実施例1の遠隔コミュニケーションシステムSでは、離れた場所にいる祖父と孫とがコミュニケーションを取る場合、お互いのテレプレゼンスロボット1のタブレット14に互いの顔が映し出され、お互いの声でコミュニケーションが可能である。すなわち、従来と同様に、視覚と聴覚によるコミュニケーションが可能となっている。
そして、聞き手側が頷き等の動作を行った場合には、話し手側の首振りヘッド13が作動する。したがって、話し手側では、相手側が頷いたり、首を傾けたりといった動作を行った場合に、タブレット14が移動することで、相手側の同意や共感、疑問、不同意等が視覚的に認識できる。よって、タブレット14が傾斜しない場合に比べて、コミュニケーションが図られる。
(Action of Example 1)
In the remote communication system S of the first embodiment having the above configuration, when the grandfather and the grandchild who are in distant places communicate with each other, their faces are displayed on the tablets 14 of their telepresence robots 1, and their voices are displayed. communication is possible. In other words, as in the past, visual and auditory communication is possible.
When the listener performs an action such as nodding, the oscillating head 13 on the speaker side is activated. Therefore, the speaker side can visually recognize agreement, sympathy, doubt, disapproval, etc. of the other party by moving the tablet 14 when the other party nods or tilts the head. Therefore, communication can be achieved as compared with the case where the tablet 14 is not tilted.

一方で、聞き手側では、首振りヘッド13が作動しない。聞き手側は、発話していないので、タブレット14で相手(話し手)を見ながら、話し手の発話を聞いていることが多い。このとき、話し手の動きに応じてタブレット14が頻繁に動くと、聞き手側からみると注目している画面が移動することになる。したがって、聞き手が、ストレスを感じたり、不快になったり、乗り物酔いのような状況になることもある。これらに対して、実施例1では、聞き手側のテレプレゼンスロボット1,2の首振りヘッド13は作動しない。したがって、聞き手がタブレット14に注目していても聞き手のストレスが軽減される。 On the other hand, on the listener's side, the swing head 13 does not operate. Since the listener does not speak, he often listens to the speaker's speech while looking at the other party (speaker) on the tablet 14 . At this time, if the tablet 14 moves frequently in accordance with the movement of the speaker, the screen that the listener pays attention to moves. Therefore, listeners may experience stress, discomfort, or motion sickness-like situations. On the other hand, in the first embodiment, the oscillating heads 13 of the telepresence robots 1 and 2 on the listening side do not operate. Therefore, even if the listener is paying attention to the tablet 14, the listener's stress is reduced.

また、実施例1の遠隔コミュニケーションシステムSでは、短時間の発話がされた場合は、聞き手から話し手になったと判別されず、首振りヘッド13が作動しない。したがって、「うん」とか「うんうん」とか、「へえ~」といった発話を聞き手がした場合に、首振りヘッド13が動き出して聞き手がストレスを感じることが軽減される。 Further, in the remote communication system S of the first embodiment, when a short speech is made, it is not determined that the listener has changed to the speaker, and the swinging head 13 does not operate. Therefore, when the listener utters an utterance such as "Yeah", "Yeah", or "Heh~", the listener's stress caused by the movement of the swinging head 13 can be reduced.

(変更例)
以上、本発明の実施例を詳述したが、本発明は、前記実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内で、種々の変更を行うことが可能である。本発明の変更例(H01)~(H08)を下記に例示する。
(H01)前記実施例において、各テレプレゼンスロボット1,2に制御部31を設ける構成を例示したがこれに限定されない。インターネット回線21に接続されたサーバに制御部を設置して、テレプレゼンスロボット1,2をサーバが管理、制御する構成としたり、一方のテレプレゼンスロボットを親機とし、他方のテレプレゼンスロボットを子機として、親機が子機を管理、制御するような構成とすることも可能である。他にも、インターネット回線21に接続された複数の情報処理端末で分散処理するような構成とすることも可能である。
(Change example)
Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the scope of claims. It is possible. Modified examples (H01) to (H08) of the present invention are exemplified below.
(H01) In the above embodiment, the configuration in which each of the telepresence robots 1 and 2 is provided with the control unit 31 was exemplified, but the present invention is not limited to this. A control unit is installed in a server connected to the Internet line 21, and the telepresence robots 1 and 2 are managed and controlled by the server. As a machine, it is also possible to adopt a configuration in which the parent machine manages and controls the child machine. In addition, it is also possible to adopt a configuration in which distributed processing is performed by a plurality of information processing terminals connected to the Internet line 21 .

(H02)前記実施例において、遠隔コミュニケーションシステムSとして2台のテレプレゼンスロボット1,2を使用する構成を例示したがこれに限定されない。3台以上のテレプレゼンスロボットを有するシステムとすることも可能である。
(H03)前記実施例において、動作の一例として、頷き(首の縦振り)と首の横振り、首をかしげる(首の傾斜)の3つの動作を例示したが、これに限定されない。例えば、要求される機能や仕様に応じて、頷きだけを判別する構成とすることも可能であるし、逆に、4つ以上の動作を判別する構成とすることも可能である。
(H02) In the above-described embodiment, the remote communication system S has two telepresence robots 1 and 2, but the configuration is not limited to this. Systems with more than two telepresence robots are also possible.
(H03) In the above embodiment, three motions of nodding (vertical swing of the neck), lateral swing of the neck, and tilting of the neck (inclination of the neck) are illustrated as examples of motions, but the present invention is not limited to these. For example, depending on the required functions and specifications, it is possible to adopt a configuration that distinguishes only nodding, or conversely, it is also possible to adopt a configuration that distinguishes four or more motions.

(H04)前記実施例において、首振りヘッド13として、上下左右、傾き(回転)が可能な構成を例示したが、これに限定されない。例えば、要求される機能や仕様に応じて、頷きだけ行うようなテレプレゼンスロボットでは、上下動だけが可能な首振りヘッド13を採用したり、逆に、複雑な頭部の動きも伝達することが機能上要求される場合には、高性能の首振りヘッドを採用することも可能である。 (H04) In the above embodiment, the oscillating head 13 has been exemplified as being capable of tilting (rotating) up, down, left and right, but it is not limited to this. For example, in a telepresence robot that only nods, it is possible to employ a swinging head 13 that can only move up and down, or to transmit complex head movements, depending on the required functions and specifications. is functionally required, it is possible to employ a high-performance oscillating head.

(H05)前記実施例において、カメラ16を柱部12に設置する構成を例示したが、これに限定されない。例えば、タブレット14に設けられたカメラを使用することも可能である。ただし、この場合、聞き手が頷き動作を行うと、話し手のタブレット14が作動し、タブレットのカメラ16も一体的に移動して、撮影される画像が移動することとなって、結果的に聞き手方の画面に表示される画像が変動することとなるため、あまり好ましくない。 (H05) In the above embodiment, the configuration in which the camera 16 is installed on the pillar 12 was illustrated, but the configuration is not limited to this. For example, it is also possible to use a camera provided on the tablet 14 . However, in this case, when the listener nods, the speaker's tablet 14 is activated, the camera 16 of the tablet is also moved integrally, and the captured image is moved. This is not very preferable because the image displayed on the screen will fluctuate.

(H06)前記実施例において、利用者の一例として、祖父と孫を例示したがこれに限定されない。例えば、事業所間の会議や、入院中の患者と自宅の家族とのコミュニケーション、独居の高齢者と介助者や家族とのコミュニケーション、老人ホームにおける個室の高齢者と介助者や家族とのコミュニケーション、旅行先の飼い主と自宅のペットとのコミュニケーション等、任意のコミュニケーションの場において適用可能である。
(H07)前記実施例において、頷き等の動作の判別や、短時間の発話の有無の判別は、各テレプレゼンスロボット1,2で行って相手方に結果を送信して、首振りの制御をする構成を例示したがこれに限定されない。判別結果を送信せず、各端末において、相手方から送信された映像や音声から判別を行う構成とすることも可能である。
(H06) In the above embodiment, a grandfather and a grandchild were exemplified as an example of users, but the present invention is not limited to this. For example, meetings between offices, communication between hospitalized patients and their families at home, communication between elderly people living alone and their caregivers and family members, communication between elderly people in private rooms in nursing homes and their caregivers and family members, etc. It can be applied in any place of communication such as communication between an owner at a travel destination and a pet at home.
(H07) In the above-described embodiment, each of the telepresence robots 1 and 2 determines actions such as nodding and the presence/absence of short-term speech, transmits the results to the other party, and controls the head swing. Although the configuration is exemplified, it is not limited to this. It is also possible to configure each terminal to perform discrimination based on video and audio transmitted from the other party without transmitting the discrimination result.

(H08)前記実施例において、端末本体として表示部や音声入力部を有するタブレット14を利用する構成を例示したがこれに限定されない。市販のタブレットを利用するのではなく、首振りヘッドに支持された表示パネルや、柱部12にマイクを設置する等、任意の変更が可能である。 (H08) In the above embodiment, the configuration using the tablet 14 having the display unit and the voice input unit as the terminal body was illustrated, but the configuration is not limited to this. Instead of using a commercially available tablet, it is possible to arbitrarily change such as installing a display panel supported by a swinging head or installing a microphone on the pillar 12 .

1…第1の端末、
2…第2の端末、
13…第1の傾斜部、第2の傾斜部、
14a…第1の表示部、第2の表示部、
14b…第1の音声入力部、第2の音声入力部、
16…第1の撮影部、第2の撮影部、
43…動作判別手段、
47…傾斜制御手段、
S…テレプレゼンスシステム。
1... the first terminal,
2 ... second terminal,
13 ... the first inclined portion, the second inclined portion,
14a... first display unit, second display unit,
14b... first voice input unit, second voice input unit,
16... First imaging unit, second imaging unit,
43 ... motion determination means,
47 ... tilt control means,
S... Telepresence system.

Claims (3)

第1の利用者の映像を取得する第1の撮影部と、第1の利用者の音声を取得する第1の音声入力部と、映像を表示する第1の表示部と、前記第1の表示部を傾斜させる第1の傾斜部と、を有する第1の端末と、
前記第1の端末とは離間した場所に設置され、且つ、前記第1の端末とは情報の送受信が可能な第2の端末であって、第2の利用者の映像を取得する第2の撮影部と、第2の利用者の音声を取得する第2の音声入力部と、映像を表示する第2の表示部と、前記第2の表示部を傾斜させる第2の傾斜部と、を有する第2の端末と、
前記第1の撮影部および第2の撮影部のそれぞれの撮影した映像に基づいて、前記第1の利用者および前記第2の利用者のそれぞれの動作を判別する動作判別手段と、
前記第1の端末および前記第2の端末の一方において一方の利用者の音声が入力され、且つ、前記第1の端末および前記第2の端末の他方において他方の利用者が予め定められた動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末の傾斜部を前記他方の利用者の動作に応じて傾斜させるとともに、前記第1の端末および前記第2の端末の他方の端末の傾斜部を動作させない傾斜制御手段と、
を備えたことを特徴とするテレプレゼンスシステム。
a first imaging unit that acquires an image of the first user; a first audio input unit that acquires the audio of the first user; a first display unit that displays the image; a first terminal having a first slope that slopes the display;
A second terminal that is installed at a location separated from the first terminal and that is capable of transmitting and receiving information to and from the first terminal, and that acquires an image of a second user. a shooting unit, a second audio input unit that acquires the voice of the second user, a second display unit that displays an image, and a second tilt unit that tilts the second display unit a second terminal having
Action discrimination means for discriminating respective actions of the first user and the second user based on images taken by the first imaging unit and the second imaging unit ;
One user's voice is input to one of the first terminal and the second terminal, and the other user performs a predetermined operation on the other of the first terminal and the second terminal is performed, the inclined portion of one of the first terminal and the second terminal is inclined according to the motion of the other user, and the first terminal and the second terminal tilt control means for not operating the tilt portion of the other terminal of the
A telepresence system comprising:
前記第1の端末および前記第2の端末の他方の利用者が頷く動作を行った場合に、前記第1の端末および前記第2の端末の一方の端末を上下方向に傾斜させる前記傾斜制御手段
を備えたことを特徴とする請求項1に記載のテレプレゼンスシステム。
said tilt control means for tilting one of said first terminal and said second terminal in a vertical direction when the other user of said first terminal and said second terminal performs a nodding motion; The telepresence system of claim 1, comprising:
前記第1の端末および前記第2の端末の他方の端末において、予め定められた時間に達しない音声が取得された場合に、音声の入力を無視する
ことを特徴とする請求項1または2に記載のテレプレゼンスシステム。
3. The apparatus according to claim 1 or 2, wherein when the other terminal of the first terminal and the second terminal acquires a voice that does not reach a predetermined time, the voice input is ignored. A telepresence system as described.
JP2018103648A 2018-05-30 2018-05-30 telepresence system Active JP7106097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018103648A JP7106097B2 (en) 2018-05-30 2018-05-30 telepresence system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103648A JP7106097B2 (en) 2018-05-30 2018-05-30 telepresence system

Publications (2)

Publication Number Publication Date
JP2019208167A JP2019208167A (en) 2019-12-05
JP7106097B2 true JP7106097B2 (en) 2022-07-26

Family

ID=68767902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103648A Active JP7106097B2 (en) 2018-05-30 2018-05-30 telepresence system

Country Status (1)

Country Link
JP (1) JP7106097B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021157367A1 (en) * 2020-02-04 2021-08-12 ソニーグループ株式会社 Information processing device and information processing method
WO2023095531A1 (en) * 2021-11-25 2023-06-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349920A (en) 1999-06-01 2000-12-15 Interrobot Inc Intention transmitter
JP2012147420A (en) 2010-12-22 2012-08-02 Ricoh Co Ltd Image processing device and image processing system
JP2016208416A (en) 2015-04-27 2016-12-08 日本電信電話株式会社 Communication system and control method therefor
JP2017092509A (en) 2015-08-31 2017-05-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method for generating control signal used for telepresence robot, telepresence system and computer program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9821455B1 (en) * 2015-08-08 2017-11-21 X Development Llc Replacing a first robot with a second robot during performance of a task by the first robot

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000349920A (en) 1999-06-01 2000-12-15 Interrobot Inc Intention transmitter
JP2012147420A (en) 2010-12-22 2012-08-02 Ricoh Co Ltd Image processing device and image processing system
JP2016208416A (en) 2015-04-27 2016-12-08 日本電信電話株式会社 Communication system and control method therefor
JP2017092509A (en) 2015-08-31 2017-05-25 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method for generating control signal used for telepresence robot, telepresence system and computer program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
松坂 要佐、東條 剛史、小林 哲則,グループ会話に参与する対話ロボットの構築,電子情報通信学会論文誌,日本,電子情報通信学会,2001年06月01日,第J84-D-II巻 第6号,pp. 898 - 908
長谷川 孔明、中内 靖,遠隔参与者の発話機会増加のために身ぶりを誇張する遠隔会話ロボットの提案,電子情報通信学会技術研究報告 CNR2014-9-CNR2014-15 クラウドネットワークロボット,日本,電子情報通信学会,2014年09月19日,第114巻 第227号,pp. 5 - 10

Also Published As

Publication number Publication date
JP2019208167A (en) 2019-12-05

Similar Documents

Publication Publication Date Title
US10075491B2 (en) Directing communications using gaze interaction
EP3047356B1 (en) Configuration of a touch screen display for conferencing
US9263044B1 (en) Noise reduction based on mouth area movement recognition
US9294716B2 (en) Method and system for controlling an imaging system
US20110074911A1 (en) Gesture-Based Actions in a Video Communication Session
KR20070029794A (en) A method and a system for communication between a user and a system
US11503162B2 (en) Information processing apparatus and information processing method
JP2018067785A (en) Communication robot system
JP7106097B2 (en) telepresence system
KR20150128386A (en) display apparatus and method for performing videotelephony using the same
JP2539153B2 (en) Virtual conference system terminal device and virtual conference system
JP2016189534A (en) Program and server device
JP6149433B2 (en) Video conference device, video conference device control method, and program
JP2010010857A (en) Voice input robot, remote conference support system, and remote conference support method
JP2016189121A (en) Information processing device, information processing method, and program
WO2020095714A1 (en) Information processing device and method, and program
JP6435701B2 (en) Control device
JPH09107534A (en) Video conference equipment and video conference system
JP2019176386A (en) Communication terminals and conference system
JP7361460B2 (en) Communication devices, communication programs, and communication methods
JP2000217091A (en) Video conference system
JP7306765B2 (en) Communication device, communication program and storage medium
WO2023032736A1 (en) Communication assistance system, communication assistance method, and communication assistance program
JP2011164695A (en) Information processing apparatus, input device, information processing method and conference system
JP6787078B2 (en) Communication equipment, methods and programs

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220411

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7106097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150