JP2012165170A - Conference device, conference method and conference program - Google Patents

Conference device, conference method and conference program Download PDF

Info

Publication number
JP2012165170A
JP2012165170A JP2011023814A JP2011023814A JP2012165170A JP 2012165170 A JP2012165170 A JP 2012165170A JP 2011023814 A JP2011023814 A JP 2011023814A JP 2011023814 A JP2011023814 A JP 2011023814A JP 2012165170 A JP2012165170 A JP 2012165170A
Authority
JP
Japan
Prior art keywords
participant
conference
video
data
participants
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011023814A
Other languages
Japanese (ja)
Inventor
Hidekazu Tamaki
秀和 玉木
Takeshi Tono
豪 東野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011023814A priority Critical patent/JP2012165170A/en
Publication of JP2012165170A publication Critical patent/JP2012165170A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of easily recognizing a participant paying attention and a participant to whom the attention is paid.SOLUTION: A conference device 1 for remote conference through a network comprises: video acquisition means 16 for acquiring video data of a participant who uses the conference device; operation acquisition means 18 for acquiring operation data of the self-participant indicating a participant to whom the attention is paid; reception means 19 for receiving video data and operation data of other participants from another conference device through a network 9; video generation means 20 for generating conference video having video data of the self-participant and other participants laid out in a circular shape; video edition means 21 for setting, to the conference video, an arrow from the video data of the participant paying attention to the participant to whom the attention is paid based on the operation data of the self-participant and the other participants; and display means 14 for displaying the conference video edited by the video edition means 21.

Description

本発明は、ネットワークを介した遠隔会議を行う会議装置、会議方法および会議プログラムに関する。   The present invention relates to a conference apparatus, a conference method, and a conference program for performing a remote conference via a network.

企業活動における出張費を抑えるなどの目的から、遠隔会議の需要が高まっている。従来の会議システムには、例えば、電話(音声)会議システムや、ブラウザ上で動作するWeb(映像)会議システムなどがある。Web会議システムでは、ブラウザを起動し、Webカメラを設置し、ヘッドセットを装着すれば、互いの参加者の映像をみながら会議を行うことができる。なお、特許文献1には、発言権の取得や移譲が可能な多地点通信システムが記載されている。   The demand for remote conferencing is increasing for the purpose of reducing business trip costs in corporate activities. Conventional conference systems include, for example, a telephone (voice) conference system and a Web (video) conference system that operates on a browser. In the Web conference system, if a browser is started, a Web camera is installed, and a headset is attached, a conference can be held while watching each other's participants. Note that Patent Document 1 describes a multipoint communication system capable of acquiring and transferring a right to speak.

特開2004-248145号公報JP 2004-248145 A

人は、対面コミュニケーションを行う際に、言語情報だけでなく、非言語情報のやりとりをすることにより、円滑な会話を実現している。非言語情報のやりとりするためには、誰が誰に対して非言語情報を送っているのか、誰が非言語情報を受け取ったのかを認識することが重要である。非言語情報を伝達する手段の1つとして、視線が用いられている。視線を送ることで、言語情報を用いることなく、相手の注意を引き、視覚を通じて相手に非言語情報を伝えることができる。   When a person performs face-to-face communication, a smooth conversation is realized by exchanging not only linguistic information but also non-linguistic information. In order to exchange non-linguistic information, it is important to recognize who is sending non-linguistic information to who and who has received non-linguistic information. A line of sight is used as one of means for transmitting non-linguistic information. By sending a line of sight, it is possible to draw the attention of the other party without using linguistic information and convey the non-linguistic information to the other party through vision.

しかしながら、ネットワークを介した遠隔会議では、参加者同士が視線を交わすことはできない。そのため、遠隔会議では、言語情報(発言)のみのやりとりしか行うことができず、誰が誰に注目しているのかを、認識するのが難しい場合がある。その結果、映像を用いてはいるが、言語情報(発言)のみのコミュニケーションになってしまい、話者の交代がうまくいかない、会話が活発化しない、等の問題が発生する場合がある。   However, in a remote conference via a network, participants cannot exchange gazes. Therefore, in a remote conference, only language information (speech) can be exchanged, and it may be difficult to recognize who is paying attention to who. As a result, although video is used, only language information (speech) is communicated, and there are cases where problems such as poor switching of speakers and inactive conversations occur.

本発明は、上記事情に鑑みてなされたものであり、本発明の目的は、注目している参加者および注目されている参加者を容易に認識させることができる会議装置、会議方法および会議プログラムを提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a conference apparatus, a conference method, and a conference program capable of easily recognizing a participant who is paying attention and a participant who is paying attention. Is to provide.

上記目的を達成するため、本発明は、ネットワークを介して遠隔会議を行う会議装置であって、当該会議装置を使用する自参加者の映像データを取得する映像取得手段と、注目する参加者を指示する、自参加者の操作データを取得する操作取得手段と、ネットワークを介して他の会議装置から他参加者の映像データおよび操作データを受信する受信手段と、自参加者および他参加者の映像データを円形に配置した会議映像を生成する映像生成手段と、自参加者および他参加者の操作データに基づいて、注目している参加者の映像データから注目されている参加者の映像データへの矢印を前記会議映像に設定する映像編集手段と、前記映像編集手段が編集した会議映像を表示する表示手段と、を有する。   In order to achieve the above object, the present invention provides a conference device that performs a remote conference via a network, and includes a video acquisition unit that acquires video data of a self-participant who uses the conference device, and a participant of interest. Instructing, operation acquisition means for acquiring operation data of the self-participant, reception means for receiving video data and operation data of other participants from other conference devices via the network, and the self-participants and other participants Video generation means for generating a conference video in which video data are arranged in a circle, and video data of participants who are receiving attention from the video data of the participants who are paying attention based on the operation data of their own participants and other participants Video editing means for setting the arrow to the conference video, and display means for displaying the conference video edited by the video editing means.

本発明は、ネットワークを介して遠隔会議を行う会議方法であって、会議装置は、当該会議装置を使用する自参加者の映像データを取得する映像取得ステップと、注目する参加者を指示する、自参加者の操作データを取得する操作取得ステップと、ネットワークを介して他の会議装置から他参加者の映像データおよび操作データを受信する受信ステップと、自参加者および他参加者の映像データを円形に配置した会議映像を生成する映像生成ステップと、自参加者および他参加者の操作データに基づいて、注目している参加者の映像データから注目されている参加者の映像データへの矢印を前記会議映像に設定する映像編集ステップと、前記映像編集ステップで編集した会議映像を表示する表示ステップと、を行う。   The present invention is a conference method for performing a remote conference via a network, and the conference device instructs a participant to be watched, a video acquisition step of acquiring video data of a self-participant who uses the conference device, An operation acquisition step of acquiring operation data of the self-participant, a reception step of receiving video data and operation data of the other participant from another conference device via the network, and video data of the self-participant and the other participant A video generation step for generating a conference video arranged in a circle, and an arrow from the video data of the participant in focus to the video data of the participant in focus based on the operation data of the participant and other participants A video editing step for setting the video to the conference video, and a display step for displaying the conference video edited in the video editing step.

本発明は、前記会議方法をコンピュータに実行させるための会議プログラムである。   The present invention is a conference program for causing a computer to execute the conference method.

本発明によれば、注目している参加者および注目されている参加者を容易に認識させることができる会議装置、会議方法および会議プログラムを提供することができる。   According to the present invention, it is possible to provide a conference device, a conference method, and a conference program capable of easily recognizing a participant who is paying attention and a participant who is paying attention.

本発明の実施形態に係る会議システムの全体構成図である。1 is an overall configuration diagram of a conference system according to an embodiment of the present invention. 会議映像の一例を示す図である。It is a figure which shows an example of a meeting image | video. 編集された会議映像の一例を示す図である。It is a figure which shows an example of the edited meeting image | video. 編集された会議映像の一例を示す図である。It is a figure which shows an example of the edited meeting image | video. 編集された会議映像の一例を示す図である。It is a figure which shows an example of the edited meeting image | video. 映像編集部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a video editing part.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施形態に係る会議システムの全体構成図である。本実施形態の会議システムは、ネットワーク9に接続された複数の会議装置1を用いて、遠隔地にいる複数の会議参加者(以下、「参加者」という)が遠隔会議を行うためのシステムである。   FIG. 1 is an overall configuration diagram of a conference system according to an embodiment of the present invention. The conference system of the present embodiment is a system for a plurality of conference participants (hereinafter referred to as “participants”) in a remote place to perform a remote conference using a plurality of conference devices 1 connected to a network 9. is there.

図示する会議システムは、複数の参加者の各々が使用する複数の会議装置1と、これらの会議装置1とネットワーク9を介して接続された会議サーバ8とを備える。   The conference system shown in the figure includes a plurality of conference devices 1 used by each of a plurality of participants, and a conference server 8 connected to these conference devices 1 via a network 9.

会議装置1は、例えばPCなどであって、当該会議装置1を使用する自参加者の映像を撮影するビデオカメラ11と、自参加者が発言した音声を集音するマイク12と、自参加者の操作を受け付ける入力装置13と、会議映像を表示する表示装置(ディスプレイ)12と、会議サーバ8から送信された他の参加者の音声を出力するスピーカ15と、を備える。   The conference apparatus 1 is, for example, a PC, and includes a video camera 11 that captures images of the self-participant who uses the conference apparatus 1, a microphone 12 that collects the sound spoken by the self-participant, and the self-participant An input device 13 that accepts the above operation, a display device (display) 12 that displays the conference video, and a speaker 15 that outputs the voices of other participants transmitted from the conference server 8.

入力装置13は、表示装置12の会議映像上に表示されるポインタ(マウスポインタなど)を操作する装置であって、例えば、マウス、ペン、タッチパッドなどのポインティングデバイスを用いることが考えられる。   The input device 13 is a device that operates a pointer (such as a mouse pointer) displayed on the conference video on the display device 12. For example, a pointing device such as a mouse, a pen, or a touch pad may be used.

また、会議装置1は、ビデオカメラ11が撮像した映像データを取り込む映像取得部16と、マイク12から集音された音声データを取り込む音声取得部17と、入力装置13に入力された操作データを取り込む操作取得部18と、通信部19と、映像生成部20と、映像編集部21と、を備える。   In addition, the conference apparatus 1 receives the video data captured by the video camera 11, the video acquisition unit 16 that captures the audio data collected from the microphone 12, and the operation data input to the input device 13. An operation acquisition unit 18 to be captured, a communication unit 19, a video generation unit 20, and a video editing unit 21 are provided.

通信部19は、映像取得部16により取り込まれた映像データ、および、操作取得部18により取り込まれた操作データを、ネットワーク9を介して会議サーバ8に送信するとともに、映像編集部21に送出する。また、映像編集部21は、音声取得部17により取り込まれた音声データをネットワーク9を介して会議サーバ8に送信する。また、通信部19は、他の参加者の音声データを、ネットワーク9を介して会議サーバ8から受信し、スピーカ15に出力・再生するとともに、他の参加者の映像データおよび操作データをネットワーク9を介して会議サーバ8から受信し、映像生成部20に送出する。   The communication unit 19 transmits the video data captured by the video acquisition unit 16 and the operation data captured by the operation acquisition unit 18 to the conference server 8 via the network 9 and also to the video editing unit 21. . In addition, the video editing unit 21 transmits the audio data captured by the audio acquisition unit 17 to the conference server 8 via the network 9. Further, the communication unit 19 receives audio data of other participants from the conference server 8 via the network 9 and outputs / reproduces them to / from the speaker 15, and also transmits video data and operation data of other participants to the network 9. Is received from the conference server 8 and sent to the video generation unit 20.

映像生成部20は、映像取得部16が取り込んだ自参加者の映像データと、通信部19が受信した他参加者の映像データとを円形に配置した会議映像を生成する。映像編集部21は、映像生成部20が生成した会議映像を、操作取得部18が取得した自参加者の操作データと、通信部19が受信した他参加者の操作データとに基づいて編集し、表示装置14に表示する。   The video generation unit 20 generates a conference video in which the video data of the self-participant captured by the video acquisition unit 16 and the video data of other participants received by the communication unit 19 are arranged in a circle. The video editing unit 21 edits the conference video generated by the video generation unit 20 based on the operation data of the own participant acquired by the operation acquisition unit 18 and the operation data of other participants received by the communication unit 19. Is displayed on the display device 14.

会議サーバ8は、各参加者が使用する各会議装置1から入力される、当該参加者の映像データ、音声データおよび操作データをそれぞれ受信し、他の会議装置1に送信する。   The conference server 8 receives the participant's video data, audio data, and operation data input from each conference device 1 used by each participant, and transmits them to the other conference devices 1.

会議装置1および会議サーバ8は、例えば、CPUと、メモリと、HDD等の外部記憶装置と、入力装置と、出力装置とを備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた所定のプログラムを実行することにより、各装置の各機能が実現される。例えば、会議装置1および会議サーバ8およびの各機能は、会議装置1用のプログラムの場合は会議装置1のCPUが、そして、会議サーバ8用のプログラムの場合は会議サーバ8のCPUが、それぞれ実行することにより実現される。   The conference device 1 and the conference server 8 can use, for example, a general-purpose computer system including a CPU, a memory, an external storage device such as an HDD, an input device, and an output device. In this computer system, each function of each device is realized by the CPU executing a predetermined program loaded on the memory. For example, the functions of the conference device 1 and the conference server 8 are as follows. The CPU of the conference device 1 is a program for the conference device 1, and the CPU of the conference server 8 is a program for the conference server 8, respectively. It is realized by executing.

また、会議装置1用のプログラムおよび会議サーバ8用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD−ROMなどのコンピュータ読取り可能な記録媒体に記憶することも、ネットワークを介して配信することもできる。   Further, the program for the conference apparatus 1 and the program for the conference server 8 can be stored in a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, a DVD-ROM, or distributed via a network. You can also

次に、本実施形態の会議映像について説明する。   Next, the conference video of this embodiment will be described.

図2は、映像生成部20が生成する会議映像の一例を示す図である。映像生成部20は、図示するように各参加者の映像データ201〜204を円形(円周上)に、等間隔で配置する。また、図示する例では、当該会議装置1を使用する自参加者A(当該会議装置1の前に座っている参加者)の映像データ201を円の最下部に配置する。そして、映像生成部20は、各参加者の領域が等しくなるように、参加者の数に応じて円を扇形に分割し、分割線206を設定・表示する。図示する例では、4人の参加者が会議に参加しているため、4分割されている。   FIG. 2 is a diagram illustrating an example of a conference video generated by the video generation unit 20. As shown in the figure, the video generation unit 20 arranges the video data 201 to 204 of each participant in a circle (circumference) at regular intervals. Further, in the illustrated example, the video data 201 of the self-participant A (participant sitting in front of the conference device 1) who uses the conference device 1 is arranged at the bottom of the circle. Then, the video generation unit 20 divides the circle into a sector according to the number of participants so that the area of each participant becomes equal, and sets and displays the dividing line 206. In the example shown in the figure, since four participants are participating in the conference, it is divided into four.

また、会議映像には、初期状態において、円の中心にポインタ(マウスポインタなど)205が表示される。自参加者は、入力装置13(マウスなど)を用いてこのポインタ25をいずれかの参加者の映像データに向かって移動させることにより、注目する参加者を選択・指示する。   In the initial state of the conference video, a pointer (such as a mouse pointer) 205 is displayed at the center of the circle. The self-participant uses the input device 13 (such as a mouse) to move the pointer 25 toward the video data of any participant, thereby selecting / instructing the participant of interest.

例えば、図3に示すように、自参加者Aが、入力装置13を操作することでポインタ205を参加者Cの映像データ203に向かって移動させ、ポインタ205が参加者Cの領域207に移動されることで、自参加者Aが参加者Cを注目していることを入力する。この操作により、映像編集部21は、注目している自参加者Aの映像データ201から注目されている参加者Cの映像データ203への矢印208を会議映像に設定する。   For example, as shown in FIG. 3, the self-participant A operates the input device 13 to move the pointer 205 toward the video data 203 of the participant C, and the pointer 205 moves to the area 207 of the participant C. As a result, it is input that the self-participant A is paying attention to the participant C. By this operation, the video editing unit 21 sets the arrow 208 from the video data 201 of the subject participant A who is paying attention to the video data 203 of the participant C who is paying attention to the conference video.

なお、自参加者が指定できる注目する参加者の数は、最大で1人である。すなわち、誰にも注目しない(0人)か、あるいは誰か1人を注目するかのいずれかとなる。例えば、自参加者Aが参加者Cを注目する参加者として指定した後に、参加者Dを指定する場合は、参加者Cの指定は解除され、参加者Dのみが注目する参加者として指定される。なお、注目する参加者の指定の解除は、指定されてから所定の時間(第1の所定時間)が経過すると、次に注目する参加者を指定しなくても自動的に解除されるものとする。   Note that the maximum number of participants that can be specified by the self-participant is one. That is, it is either not paying attention to anyone (0 people) or paying attention to one person. For example, when the participant D is designated after the participant A designates the participant C as the participant to be noticed, the designation of the participant C is canceled and only the participant D is designated as the participant to be noticed. The It should be noted that the designation of the participant to be noticed is automatically canceled when a predetermined time (first prescribed time) has elapsed since the designation, even if the next participant to be noticed is not designated. To do.

また、自参加者Aが移動させたポインタ205は、所定の時間(第2の時間)が経過した後、操作取得部18により、初期状態で設定される中心部に戻る(図2参照)。なお、指定解除の所定の時間(第1の時間)と、ポインタ205を中心部へ戻す所定の時間(第2の時間)とは、独立しており、同じであっても、異なるものであってもよい。   The pointer 205 moved by the self-participant A returns to the central portion set in the initial state by the operation acquisition unit 18 after a predetermined time (second time) has elapsed (see FIG. 2). Note that the predetermined time (first time) for canceling the designation and the predetermined time (second time) for returning the pointer 205 to the center are independent, and may be the same or different. May be.

また、映像編集部21は、注目されている参加者の映像データ、および、注目している参加者の映像データ以外の参加者の映像データの解像度を低くする(例えば、解像度を1/4などに下げる)。図3に示す例では、注目されている参加者Cの映像データ203、および、注目している自参加者Aの映像データ201以外の参加者B、Dの映像データ202、204の解像度を、自参加者Aおよび参加者Cの映像データ201、203より低くする。なお、自参加者Aの映像データ201については、いずれかの参加者を注目しいていなく、かつ、注目もされていないときであっても、解像度を低くしない。   In addition, the video editing unit 21 lowers the resolution of the video data of the participant who is drawing attention and the video data of the participants other than the video data of the participant who is watching (for example, the resolution is ¼, etc.). Lower). In the example shown in FIG. 3, the resolution of the video data 203 of the participant C who is focused and the video data 202 and 204 of the participants B and D other than the video data 201 of the participant A who is focused is Lower than the video data 201 and 203 of the self-participant A and the participant C. It should be noted that the resolution of the video data 201 of the self-participant A is not lowered even when any participant is not paying attention and is not receiving attention.

また、図4に示すように、参加者Dが、当該参加者Dが使用する会議装置1の入力装置13を操作して、参加者Aを注目するようにポインタを移動させた場合(ポインタを参加者Aの領域に移動させた場合)、参加者Dの操作データがネットワーク9および会議サーバ8を介して参加者Aが使用する会議装置1に送信される。参加者Aの会議装置1の映像編集部21は、当該操作データを用いて、注目している参加者Dの映像データ204から注目されている参加者Aの映像データ201へ向かって矢印208(例えば、点線の矢印)を会議映像に設定する。   In addition, as shown in FIG. 4, when the participant D operates the input device 13 of the conference apparatus 1 used by the participant D and moves the pointer so as to pay attention to the participant A (the pointer is When moved to the area of the participant A), the operation data of the participant D is transmitted to the conference apparatus 1 used by the participant A via the network 9 and the conference server 8. The video editing unit 21 of the conference apparatus 1 of the participant A uses the operation data to move from the video data 204 of the participant D who is paying attention to the video data 201 of the participant A who is paying attention to an arrow 208 ( For example, a dotted arrow) is set for the conference video.

また、参加者Cが、当該参加者Cが使用する会議装置1の入力装置13を操作して、参加者Bを注目するようにポインタを移動させた場合、参加者Cの操作データがネットワーク9および会議サーバ8を介して参加者Aが使用する会議装置1に送信される。同様に、参加者Bが、当該参加者Bが使用する会議装置1の入力装置13を操作して、参加者Cを注目するようにポインタを移動させた場合、参加者Bの操作データがネットワーク9および会議サーバ8を介して参加者Aが使用する会議装置1に送信される。参加者Aの会議装置1の映像編集部21は、これらの操作データを用いて、相互に注目し合っている参加者Bの映像データ202と参加者Cの映像データ203との間に矢印209(例えば、両方向の太い実線の矢印)を会議映像に設定する。   When the participant C operates the input device 13 of the conference device 1 used by the participant C and moves the pointer so as to pay attention to the participant B, the operation data of the participant C is stored in the network 9. And transmitted to the conference apparatus 1 used by the participant A via the conference server 8. Similarly, when the participant B operates the input device 13 of the conference apparatus 1 used by the participant B and moves the pointer so as to pay attention to the participant C, the operation data of the participant B is stored in the network. 9 and the conference server 8 are transmitted to the conference apparatus 1 used by the participant A. The video editing unit 21 of the conference apparatus 1 of the participant A uses these operation data to place an arrow 209 between the video data 202 of the participant B and the video data 203 of the participant C that are paying attention to each other. (For example, a thick solid arrow in both directions) is set in the conference video.

なお、本実施形態では、映像編集部21は、自参加者を注目していない参加者であって、かつ、自参加者から注目されていない参加者の映像データの解像度を低くする。図4に示す例では、参加者Bの映像データ202、および、自参加者Cの映像データ203の解像度を、自参加者Aおよび参加者Dの映像データ201、204より低くする。   In the present embodiment, the video editing unit 21 lowers the resolution of video data of a participant who is not paying attention to the self-participant and is not paying attention to the self-participant. In the example shown in FIG. 4, the resolution of the video data 202 of the participant B and the video data 203 of the self-participant C is set lower than the video data 201 and 204 of the self-participant A and the participant D.

また、図5に示すように、自参加者Aが、入力装置13を操作することでポインタ205を自分(自参加者A)の映像データ201に向かって移動させ、ポインタ205を自分の領域に移動させることで、自参加者Aが他の参加者全員に自分を注目して欲しいことを要求する全員注目要求を入力する。この全員注目要求の操作指示により、映像編集部21は、自参加者Aの映像データ201を、所定の大きさ(例えば1.2倍など)に拡大して表示する。   Further, as shown in FIG. 5, the self-participant A operates the input device 13 to move the pointer 205 toward the video data 201 of the self-participant A (self-participant A), and the pointer 205 is moved to his / her area. By moving, the self-participant A inputs a request for attention of all who requests that all other participants want to pay attention to himself / herself. In response to this all-attention request operation instruction, the video editing unit 21 enlarges and displays the video data 201 of the self-participant A to a predetermined size (for example, 1.2 times).

次に、本実施形態の映像編集部21の動作について説明する。   Next, the operation of the video editing unit 21 of this embodiment will be described.

まず、操作取得部18は、自参加者が入力装置13を用いて操作した操作データを取得し、移動されたポインタの位置に応じて自参加者が注目する参加者を判別する。そして、操作取得部18は、判別した注目する参加者を含む自参加者の操作データを、映像編集部21および通信部19に送出する。通信部19に送出された自参加者の操作データは、ネットワーク9および会議サーバ8を介して、他の全ての会議装置1に送信される。   First, the operation acquisition unit 18 acquires operation data operated by the self-participant using the input device 13, and determines a participant that the self-participant pays attention to according to the position of the moved pointer. Then, the operation acquisition unit 18 sends the operation data of the self-participant including the determined participant of interest to the video editing unit 21 and the communication unit 19. The operation data of the self-participant sent to the communication unit 19 is transmitted to all other conference apparatuses 1 via the network 9 and the conference server 8.

また、通信部19は、ネットワーク9および会議サーバ8を介して、他の会議装置1から受信した他参加者の操作データを映像編集部21に送出する。これにより、映像編集部21には、自参加者の操作データおよび他参加者の操作データが入力される。映像編集部21は、入力される各参加者の操作データに基づいて、参加者毎に、当該参加者がどの参加者に注目しているのか(ポインタがいずれかの参加者の領域にある場合)、どの参加者にも注目していないのか(ポインタが中心部にある場合)、あるいは、全員注目要求を指示しているのか(ポインタが自分の領域にある場合)を、図示しない記憶部に記憶するものとする。   In addition, the communication unit 19 sends operation data of other participants received from the other conference devices 1 to the video editing unit 21 via the network 9 and the conference server 8. Thereby, the operation data of the self-participant and the operation data of the other participants are input to the video editing unit 21. The video editing unit 21 determines, for each participant, which participant the participant is paying attention to based on the input operation data of each participant (when the pointer is in any participant's area). ) Whether any participants are not paying attention (when the pointer is in the center) or whether all the members are requesting attention (when the pointer is in their own area) in a storage unit (not shown) It shall be remembered.

なお、映像編集部21は、操作取得部18または通信部19から各操作データを受け付けて、注目する参加者の指定を記憶部に設定した後、所定の時間(第1の所定時間)が経過すると当該注目する参加者の指定を解除し、どの参加者にも注目していない状態に更新する。   The video editing unit 21 receives each operation data from the operation acquisition unit 18 or the communication unit 19 and sets the designation of the participant of interest in the storage unit, and then a predetermined time (first predetermined time) has elapsed. Then, the designation of the participant to be noticed is canceled and updated to a state in which no participant is noticed.

映像編集部21は、このような各参加者の操作データが記憶された記憶部を参照し、映像生成部20が生成した画像映像を編集する。   The video editing unit 21 edits the image video generated by the video generation unit 20 with reference to the storage unit in which the operation data of each participant is stored.

図6は、映像編集部21の編集処理を示すフローチャートである。映像編集部21は、各参加者毎に、所定のタイミングで繰り返し図6に示す処理を行う。まず、映像編集部21は、記憶部を参照し、対象となる参加者(以下、「当該参加者」)の操作データ(注目する参加者)が全員注目要求か否かを判別し(S11)、全員注目要求の場合は(S11:YES)、当該参加者の映像データのサイズを所定の大きさに拡大し(S12)、S15に進む。   FIG. 6 is a flowchart showing the editing process of the video editing unit 21. The video editing unit 21 repeatedly performs the process shown in FIG. 6 for each participant at a predetermined timing. First, the video editing unit 21 refers to the storage unit and determines whether or not the operation data (participating participant) of the target participant (hereinafter “participant”) is a request for attention (S11). In the case of a request for attention by all (S11: YES), the size of the video data of the participant is enlarged to a predetermined size (S12), and the process proceeds to S15.

全員注目要求でない場合(S11:NO)、映像編集部21は、当該参加者が自参加者でない場合、または、記憶部の当該参加者の操作データに自参加者が設定されていない場合であって、かつ、記憶部の自参加者の操作データに当該参加者が設定されていない場合(S13:NO)、当該参加者の映像データの解像度を低くする(S14)。すなわち、自参加者でもなく、自参加者を注目せず、かつ自参加者からも注目されていない場合、当該参加者の映像データの解像度を低くする。   When not all of the attention request (S11: NO), the video editing unit 21 is when the participant is not a self-participant, or when the self-participant is not set in the operation data of the participant in the storage unit. And when the said participant is not set to the operation data of the self-participant of a memory | storage part (S13: NO), the resolution of the video data of the said participant is made low (S14). In other words, if it is not the self-participant, does not pay attention to the self-participant, and does not attract attention from the self-participant, the resolution of the video data of the participant is lowered.

一方、自参加者の場合、記憶部の当該参加者の操作データに自参加者が設定されている場合、記憶部の自参加者の操作データに当該参加者が設定されている場合のいずれかの場合(S13:YES)、S15に進む。   On the other hand, in the case of a self-participant, either the self-participant is set in the operation data of the participant in the storage unit, or the participant is set in the operation data of the self-participant in the storage unit In the case of (S13: YES), the process proceeds to S15.

S15では、映像編集部21は、記憶部の当該参加者の操作データにいずれかの参加者が設定されている場合であって(S15:YES)、S15で設定された注目される参加者の操作データに注目する参加者として当該参加者が設定されている場合は(S16:YES)、相互に注目し合っているとみなし、当該参加者とS15で設定された参加者との間に双方向の矢印を設定する(S17)。   In S15, the video editing unit 21 is a case in which any participant is set in the operation data of the participant in the storage unit (S15: YES), and the attended participant set in S15 is noticed. When the participant is set as a participant who pays attention to the operation data (S16: YES), it is considered that they are paying attention to each other, and both the participant and the participant set in S15 are both A direction arrow is set (S17).

S15で設定された参加者の操作データに当該参加者が設定されていない場合は(S16:NO)、映像編集部21は、当該参加者からS15で設定された参加者に向けて矢印を設定する(S18)。   If the participant is not set in the operation data of the participant set in S15 (S16: NO), the video editing unit 21 sets an arrow from the participant toward the participant set in S15. (S18).

いずれの参加者も設定されていない場合であって(S15:NO)、いずれかの参加者の操作データに注目する参加者として当該参加者が設定されている場合(S19:YES)、映像編集部21は、当該参加者を注目している参加者から当該参加者に向けて矢印を設定する(S20)。   If no participant is set (S15: NO), and the participant is set as a participant who pays attention to the operation data of any participant (S19: YES), video editing The unit 21 sets an arrow from the participant paying attention to the participant toward the participant (S20).

以上述べた図6の動作を、図4の会議映像を例として具体的に説明する。この場合、記憶部には、参加者A(自参加者)の操作データには注目する参加者が無し、参加者Bの操作データには注目する参加者として参加者Cが、参加者Cの操作データには注目する参加者として参加者Bが、参加者Dの操作データには注目する参加者として参加者Aが設定されているものとする。   The above-described operation of FIG. 6 will be specifically described using the conference video of FIG. 4 as an example. In this case, there is no participant to be noted in the operation data of the participant A (self-participant), and the participant C as the participant to be noted in the operation data of the participant B is stored in the storage unit. It is assumed that participant B is set as the participant to be noted in the operation data, and participant A is set as the participant to be noted in the operation data of participant D.

参加者Aについては、全員注目要求ではなく(S11:NO)、自参加者であり(S13:YES)、いずれの参加者にも注目していなく(S15:NO)、参加者Dから注目されているため(S19:YES)、映像編集部21は、参加者Dの映像データ204から参加者Aの映像データ201に矢印208を設定する(S20)。   Participant A is not a request for attention of all members (S11: NO), is a self-participant (S13: YES), does not pay attention to any participant (S15: NO), and is noted by participant D (S19: YES), the video editing unit 21 sets an arrow 208 from the video data 204 of the participant D to the video data 201 of the participant A (S20).

参加者Bについては、全員注目要求ではなく(S11:NO)、自参加者Aを注目せず、かつ、自参加者Aから注目されていないため(S13:NO)、参加者Bの映像データ202の解像度を低くする(S14)。また、参加者Bは、参加者Cを注目しており(S15:YES)、参加者Cからも注目されているため(S16:YES)、映像編集部21は、参加者Bの映像データ202と参加者Cの映像データ203との間に双方向の矢印209を設定する(S17)。   Participant B is not a request for attention of all members (S11: NO), and does not pay attention to self-participant A and is not attracting attention from self-participant A (S13: NO). The resolution of 202 is lowered (S14). In addition, since the participant B is paying attention to the participant C (S15: YES) and is also noted by the participant C (S16: YES), the video editing unit 21 displays the video data 202 of the participant B. And a bidirectional arrow 209 are set between the video data 203 of the participant C (S17).

参加者Cについては、全員注目要求ではなく(S11:NO)、自参加者Aを注目せず、かつ、自参加者Aから注目されていないため(S13:NO)、参加者Cの映像データ203の解像度を低くする(S14)。また、参加者Cは、参加者Bを注目しており(S15:YES)、参加者Bからも注目されているため(S16:YES)、映像編集部21は、参加者Bの映像データ202と参加者Cの映像データ203との間に双方向の矢印209を設定するが(S17)、参加者Bの処理で既に矢印209が設定されているため、ここでは矢印209を設定しない。   As for participant C, not everyone's attention request (S11: NO), since self participant A is not noticed and is not attracting attention from self participant A (S13: NO), video data of participant C The resolution of 203 is lowered (S14). Participant C is paying attention to Participant B (S15: YES), and Participant B is also paying attention (S16: YES), so video editing unit 21 uses video data 202 of Participant B. A bidirectional arrow 209 is set between the video data 203 of the participant C and the video data 203 of the participant C (S17). However, since the arrow 209 has already been set in the process of the participant B, the arrow 209 is not set here.

参加者Dについては、全員注目要求ではなく(S11:NO)、参加者Aを注目しており(S13:YES、S15:YES)、参加者Aからは注目されていないため(S16:NO)、映像編集部21は、参加者Dの映像データ204から参加者Aの映像データ201に矢印208を設定するが(S18)、参加者Aの処理で既に矢印208が設定されているため、ここでは矢印208を設定しない。   Participant D is not a request for attention of all members (S11: NO), but is paying attention to participant A (S13: YES, S15: YES), and is not attracting attention from participant A (S16: NO) The video editing unit 21 sets the arrow 208 from the video data 204 of the participant D to the video data 201 of the participant A (S18). Since the arrow 208 has already been set by the processing of the participant A, the video editing unit 21 Then, the arrow 208 is not set.

以上説明した本実施形態では、Web会議のように、視線を計測するための特別な装置を備えていない会議装置を用いた会議システムであっても、注目する参加者を容易に選択することができ、また注目されていることを認識することができるため、非言語情報を参加者間でやりとりし、円滑な会話が行える環境を実現することができる。   In the present embodiment described above, it is possible to easily select a participant of interest even in a conference system using a conference device that does not include a special device for measuring the line of sight, such as a Web conference. Since it is possible to recognize that it is attracting attention, it is possible to realize an environment in which non-linguistic information can be exchanged between participants and a smooth conversation can be realized.

具体的には、本実施形態では、全ての参加者の映像データを円形に配置し、当該会議装置を使用する自参加者の映像データを最下部に配置した会議映像を生成し、表示装置に表示する。これにより、各参加者に、円卓に座って会議をしているような臨場感を与えることができる。   Specifically, in the present embodiment, video data of all participants is arranged in a circle, and a conference video in which video data of the self-participant using the conference device is arranged at the bottom is generated and displayed on the display device. indicate. Thereby, it is possible to give each participant a sense of reality as if he / she is sitting at a round table and having a meeting.

また、本実施形態では、各参加者の操作データに基づいて、注目している参加者の映像データから注目されている参加者の映像データへの矢印を会議映像に設定する。また、互いに注目している参加者の場合は、当該参加者間に双方向の矢印を設定する。これにより、本実施形態では、どの参加者がどの参加者に注目しているかを表現することができ、参加者に容易に認識させることができる。   Further, in the present embodiment, based on the operation data of each participant, an arrow from the participant's video data of interest to the participant's video data of interest is set in the conference video. In the case of participants who are paying attention to each other, a bidirectional arrow is set between the participants. Thereby, in this embodiment, which participant is paying attention to which participant can be expressed, and the participant can be easily recognized.

また、本実施形態では、参加者は、会議映像上でポインタを注目する参加者に向かって移動させる操作により、容易に注目する参加者を選択することができる。また、ポインタは、いずれかの参加者の領域に移動させた後、所定の時間が経過すると中心位置(初期位置)に戻るため、参加者は、注目したい参加者の方向へポインタを移動させるだけで、注目する参加者を自由に選択することができる。   Further, in the present embodiment, the participant can easily select the participant to be noted by an operation of moving the pointer toward the participant to be noted on the conference video. In addition, the pointer moves to the area of any participant and then returns to the center position (initial position) after a predetermined time has elapsed, so the participant simply moves the pointer in the direction of the participant who wants to pay attention to. In this way, participants can be selected freely.

また、本実施形態では、注目している参加者、および、注目されている参加者以外の参加者の映像データについて、解像度を低くして、不鮮明にすることで参加者の視線を注目している参加者、および、注目されている参加者に誘導し、非言語情報を伝達することができる。   In the present embodiment, attention is paid to the participant's line of sight by reducing the resolution and blurring the video data of the participant who is paying attention and the participants other than the participant who is paying attention. Non-linguistic information can be transmitted to a participant who has received attention and a participant who has received attention.

なお、本発明は上記実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。例えば、上記実施形態で説明したような会議映像のポインタを移動させることで注目する参加者を選択する機能のON/OFF(使用する/使用しない)を、トグル式に切り替えるボタンによって切り替えることが考えられる。   In addition, this invention is not limited to the said embodiment, Many deformation | transformation are possible within the range of the summary. For example, it is possible to switch ON / OFF (use / do not use) of the function of selecting a participant to be noticed by moving the pointer of the conference video as described in the above embodiment with a toggle type switch button. It is done.

また、上記実施形態では、自参加者を注目せず、かつ、自参加者から注目されていない参加者については、自参加者以外の参加者を注目し、または、自参加者以外の参加者から注目されている場合であっても、当該参加者の映像データの解像度を低くすることとした(図4:参加者B、参加者C)。しかしながら、自参加者を注目せず、かつ、自参加者から注目されていない参加者であっても、自参加者以外の参加者を注目し、または、自参加者以外の参加者から注目されている場合、当該参加者の映像データの解像度を低くしないこととしてもよい。   In the above embodiment, for participants who are not paying attention to the self-participant and who are not paying attention to the self-participant, pay attention to a participant other than the self-participant, or a participant other than the self-participant. Even if it is a case where attention has been paid to, the resolution of the video data of the participant has been lowered (FIG. 4: Participant B, Participant C). However, even if the participant does not pay attention to the self-participant and does not receive attention from the self-participant, the participant other than the self-participant pays attention, or the participant other than the self-participant gets attention. The resolution of the video data of the participant may not be lowered.

1 :会議装置
11:ビデオカメラ
12:マイク
13:入力装置
14:表示装置
15:スピーカ
16:映像取得部
17:音声取得部
18:操作取得部
19:通信部
20:映像生成部
21:映像編集部
8 :会議サーバ
9 :ネットワーク
1: Conference device 11: Video camera 12: Microphone 13: Input device 14: Display device 15: Speaker 16: Video acquisition unit 17: Audio acquisition unit 18: Operation acquisition unit 19: Communication unit 20: Video generation unit 21: Video editing Part 8: Conference server 9: Network

Claims (9)

ネットワークを介して遠隔会議を行う会議装置であって、
当該会議装置を使用する自参加者の映像データを取得する映像取得手段と、
注目する参加者を指示する、自参加者の操作データを取得する操作取得手段と、
ネットワークを介して他の会議装置から他参加者の映像データおよび操作データを受信する受信手段と、
自参加者および他参加者の映像データを円形に配置した会議映像を生成する映像生成手段と、
自参加者および他参加者の操作データに基づいて、注目している参加者の映像データから注目されている参加者の映像データへの矢印を前記会議映像に設定する映像編集手段と、
前記映像編集手段が編集した会議映像を表示する表示手段と、を有すること
を特徴とする会議装置。
A conference device for performing a remote conference via a network,
Video acquisition means for acquiring video data of self-participants who use the conference device;
Operation acquisition means for acquiring the operation data of the self-participant, instructing the participant to be noted;
Receiving means for receiving video data and operation data of other participants from other conference devices via a network;
Video generation means for generating a conference video in which video data of the self-participant and other participants are arranged in a circle;
Based on the operation data of the self-participant and other participants, video editing means for setting an arrow from the video data of the participant who is focused to the video data of the participant who is focused on the conference video,
And a display unit for displaying the conference video edited by the video editing unit.
請求項1記載の会議装置であって、
前記操作データは、前記表示手段に表示される会議映像において、参加者がポインタをいずれかの参加者に向かって移動させる操作により、入力されること
を特徴とする会議装置。
The conference device according to claim 1,
The conference apparatus is characterized in that the operation data is input by an operation in which a participant moves a pointer toward any participant in a conference video displayed on the display unit.
請求項1または2記載の会議装置であって、
前記映像編集手段は、前記注目されている参加者、および、当該注目されている参加者を注目している参加者以外の参加者の映像データの解像度を低くすること
を特徴とする会議装置。
The conference device according to claim 1 or 2,
The conference apparatus, wherein the video editing unit lowers the resolution of video data of participants other than the participant who is drawing attention and participants who are paying attention to the participant who is drawing attention.
請求項1記載の会議装置であって、
前記映像編集手段は、参加者がポインタを当該参加者自身に向かって移動させる操作データの場合、当該参加者の映像データのサイズを拡大すること
を特徴とする会議装置。
The conference device according to claim 1,
In the case of operation data in which a participant moves a pointer toward the participant himself / herself, the video editing unit increases the size of the video data of the participant.
ネットワークを介して遠隔会議を行う会議方法であって、
会議装置は、
当該会議装置を使用する自参加者の映像データを取得する映像取得ステップと、
注目する参加者を指示する、自参加者の操作データを取得する操作取得ステップと、
ネットワークを介して他の会議装置から他参加者の映像データおよび操作データを受信する受信ステップと、
自参加者および他参加者の映像データを円形に配置した会議映像を生成する映像生成ステップと、
自参加者および他参加者の操作データに基づいて、注目している参加者の映像データから注目されている参加者の映像データへの矢印を前記会議映像に設定する映像編集ステップと、
前記映像編集ステップで編集した会議映像を表示する表示ステップと、を行うこと
を特徴とする会議方法。
A conference method for conducting a remote conference via a network,
The conference equipment
A video acquisition step of acquiring video data of the self-participant who uses the conference device;
An operation acquisition step for acquiring the operation data of the self-participant, instructing the participant of interest,
A receiving step of receiving video data and operation data of other participants from other conference devices via the network;
A video generation step of generating a conference video in which video data of the self-participant and other participants are arranged in a circle;
Based on the operation data of the self-participant and other participants, a video editing step of setting an arrow from the video data of the participant who is paying attention to the video data of the participant who is paying attention to the conference video;
And a display step of displaying the conference video edited in the video editing step.
請求項5記載の会議方法であって、
前記操作データは、前記表示ステップに表示される会議映像において、参加者がポインタをいずれかの参加者に向かって移動させる操作により、入力されることこと
を特徴とする会議方法。
The conference method according to claim 5,
The operation data is input by an operation in which a participant moves a pointer toward any participant in the conference video displayed in the display step.
請求項5または6記載の会議方法であって、
前記映像編集ステップは、前記注目されている参加者、および、当該注目されている参加者を注目している参加者以外の参加者の映像データの解像度を低くすること
を特徴とする会議方法。
The conference method according to claim 5, wherein:
The video editing step lowers the resolution of video data of participants other than the participant who is drawing attention and participants who are paying attention to the participant who is drawing attention.
請求項5記載の会議方法であって、
前記映像編集ステップは、参加者がポインタを当該参加者自身に向かって移動させる操作データの場合、当該参加者の映像データのサイズを拡大すること
を特徴とする会議方法。
The conference method according to claim 5,
In the video editing step, in the case of operation data in which a participant moves a pointer toward the participant himself / herself, the size of the video data of the participant is enlarged.
請求項5から請求項8のいずれか1項に記載の会議方法をコンピュータに実行させるための会議プログラム。   A conference program for causing a computer to execute the conference method according to claim 5.
JP2011023814A 2011-02-07 2011-02-07 Conference device, conference method and conference program Pending JP2012165170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011023814A JP2012165170A (en) 2011-02-07 2011-02-07 Conference device, conference method and conference program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011023814A JP2012165170A (en) 2011-02-07 2011-02-07 Conference device, conference method and conference program

Publications (1)

Publication Number Publication Date
JP2012165170A true JP2012165170A (en) 2012-08-30

Family

ID=46844142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011023814A Pending JP2012165170A (en) 2011-02-07 2011-02-07 Conference device, conference method and conference program

Country Status (1)

Country Link
JP (1) JP2012165170A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070472A (en) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド Communication terminal, and method and program for output control of the same
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
JP2023047956A (en) * 2021-09-27 2023-04-06 ソフトバンク株式会社 Information processing device, information processing method, and information processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730877A (en) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd Inter-multi location multimedia communications conference system
JPH099230A (en) * 1995-06-15 1997-01-10 Oki Electric Ind Co Ltd Resolution controller
JP2003501738A (en) * 1999-06-09 2003-01-14 マルバーン サイエンティフィック ソリューションズ リミテッド Communication system and communication method
JP2007158945A (en) * 2005-12-07 2007-06-21 Sharp Corp Communication terminal apparatus and communication system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0730877A (en) * 1993-07-12 1995-01-31 Oki Electric Ind Co Ltd Inter-multi location multimedia communications conference system
JPH099230A (en) * 1995-06-15 1997-01-10 Oki Electric Ind Co Ltd Resolution controller
JP2003501738A (en) * 1999-06-09 2003-01-14 マルバーン サイエンティフィック ソリューションズ リミテッド Communication system and communication method
JP2007158945A (en) * 2005-12-07 2007-06-21 Sharp Corp Communication terminal apparatus and communication system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015070472A (en) * 2013-09-30 2015-04-13 株式会社Jvcケンウッド Communication terminal, and method and program for output control of the same
JP2017103801A (en) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド Communication terminal, communication terminal control method, and communication terminal control program
JP2023047956A (en) * 2021-09-27 2023-04-06 ソフトバンク株式会社 Information processing device, information processing method, and information processing program
JP7292343B2 (en) 2021-09-27 2023-06-16 ソフトバンク株式会社 Information processing device, information processing method and information processing program

Similar Documents

Publication Publication Date Title
JP7379907B2 (en) Information processing device, information processing program, information processing system, information processing method
JP6171263B2 (en) Remote conference system and remote conference terminal
US10057542B2 (en) System for immersive telepresence
JP6547496B2 (en) Communication apparatus, communication method, program and communication system
US8416715B2 (en) Interest determination for auditory enhancement
US9407866B2 (en) Joining an electronic conference in response to sound
US20150304366A1 (en) Participation queue system and method for online video conferencing
WO2015085949A1 (en) Video conference method, device and system
US11528449B2 (en) System and methods to determine readiness in video collaboration
CN102783140A (en) Digital conferencing for mobile devices
JP6801317B2 (en) How to request an inquiry answer, program and server device
JP2023131635A (en) Display system, display method, imaging apparatus, and program
JP2023130837A (en) Apparatus system, loudness adjustment method, second apparatus, and first apparatus
JP2012165170A (en) Conference device, conference method and conference program
JP6435701B2 (en) Control device
JP2023111906A (en) Recording information creation system, method for creating recording information, and program
JP2023130822A (en) Apparatus system, imaging apparatus, and display method
JP2007221437A (en) Remote conference system
JP5529617B2 (en) Remote conference apparatus, remote conference method, and remote conference program
JP2008252177A (en) Electronic conference system, information processor, and program
JP2019140517A (en) Information processing device and program
US11949727B2 (en) Organic conversations in a virtual group setting
JP6870363B2 (en) Communication equipment, methods and programs
JP2012244285A (en) Conference device, conference method, and conference program
Sadasue et al. Development and Evaluation of Systems to Enjoy a Wedding Reception for People with Low Vision

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140513