JP6882797B2 - 会議システム - Google Patents

会議システム Download PDF

Info

Publication number
JP6882797B2
JP6882797B2 JP2019549793A JP2019549793A JP6882797B2 JP 6882797 B2 JP6882797 B2 JP 6882797B2 JP 2019549793 A JP2019549793 A JP 2019549793A JP 2019549793 A JP2019549793 A JP 2019549793A JP 6882797 B2 JP6882797 B2 JP 6882797B2
Authority
JP
Japan
Prior art keywords
user
unit
control unit
display screen
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019549793A
Other languages
English (en)
Other versions
JPWO2019082366A1 (ja
Inventor
慶一 寺倉
慶一 寺倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suncorporation
Original Assignee
Suncorporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suncorporation filed Critical Suncorporation
Publication of JPWO2019082366A1 publication Critical patent/JPWO2019082366A1/ja
Application granted granted Critical
Publication of JP6882797B2 publication Critical patent/JP6882797B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/401Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference
    • H04L65/4015Support for services or applications wherein the services involve a main real-time session and one or more additional parallel real-time or time sensitive sessions, e.g. white board sharing or spawning of a subconference where at least one of the additional parallel sessions is real time or time sensitive, e.g. white board sharing, collaboration or spawning of a subconference
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本明細書によって開示される技術は、2個以上のユーザデバイスと、情報処理機器と、を備え、各画像表示装置のユーザ同士が画像を見ながら意思疎通を図るための会議システムに関する。
例えば、特開2006−352309号公報(以下、特許文献1という)には、アバターの表示機能を備えた電話機が開示されている。この電話機は、同様の機能を備える電話機を所持する通話相手との通話中に、ディスプレイに、ユーザ自身の第1のアバターと通話相手の第2のアバターとを表示させる。通話相手の電話機のディスプレイにも同様に第1のアバターと第2のアバターとが表示される。ユーザは、通話中に電話機に操作することにより、ユーザ自身のアバターである第1のアバターの態様を変更することができる。第1のアバターの態様の変更は、通話相手の電話機のディスプレイに表示されている第1のアバターにも反映される。これにより、互いのディスプレイに表示されるアバターの態様を、ユーザの状況に合わせて適宜変更しながら円滑にコミュニケーションを図ることを可能にしている。
ユーザと通話相手とが通話を行う際に、ユーザと通話相手のそれぞれが、共通の媒体(紙やボード等)に情報を記入するとともに、情報が記入された共通の媒体を見ながら(即ち、共通の情報を認識しながら)会話を行うことを希望する場合がある。しかしながら、特許文献1の技術では、通話中に電話機のディスプレイに表示されるのは、第1及び第2のアバター(即ち、ユーザ自身と通話相手のアバター)に過ぎず、ユーザ自身と通話相手のそれぞれが情報を記入可能な媒体又はスペースをディスプレイに表示させることについては考慮されていない。特許文献1の技術では、ユーザと通話相手が、共通の媒体に記入された共通の情報を認識しながら意志疎通を行なうことができない場合がある。
本明細書では、2個以上のユーザデバイスのそれぞれのユーザが、共通の媒体に記入された共通の情報を認識しながら意志疎通を行ない得る技術を提供する。
本明細書によって開示される会議システムは、2個以上のユーザデバイスと、前記2個以上のユーザデバイスのそれぞれと通信可能に接続されている情報処理機器と、を備える。前記2個以上のユーザデバイスのそれぞれは、ユーザが装着可能なフレームと、前記フレームに備えられ、前記フレームを装着した前記ユーザの視界範囲に配置される表示部と、前記ユーザが指示を入力するための入力部と、制御部と、を備えている。前記制御部は、前記情報処理機器から、当該ユーザデバイスのための表示画面データを受信する第1のデバイス受信部と、受信された前記表示画面データによって表される表示画面であって、各ユーザが情報を記入可能な仮想的なホワイトボードを含む前記表示画面を前記表示部に表示させる表示制御部と、前記入力部に前記仮想的なホワイトボードの表示内容の変更を指示するための変更指示が入力される場合に、前記変更指示を示す第1の指示データを前記情報処理機器に送信する第1のデバイス送信部と、を備える。前記情報処理機器は、前記第1の指示データを受信する第1の機器受信部と、前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記表示画面データを生成する機器生成部であって、前記表示画面データによって表される前記表示画面に含まれる前記仮想的なホワイトボードは、前記第1の指示データに基づいて変更された表示内容を表示している、前記機器生成部と、前記2個以上のユーザデバイスのそれぞれに対して、生成された当該ユーザデバイスのための前記表示画面データを送信する、第1の機器送信部と、を備える。
上記の構成によると、ユーザデバイスの表示部には、当該ユーザデバイスのための表示画面が表示される。表示画面は、各ユーザが記入可能な仮想的なホワイトボードを含む。即ち、表示画面に含まれる仮想的なホワイトボードは、各ユーザによって記入された情報を表示する。そして、各ユーザは、自身のユーザデバイスの表示部に表示された表示画面を見ることで、共通の情報が記入された共通の仮想的なホワイトボードを見ることができる。また、各ユーザは、入力部に変更指示を入力することにより、仮想的なホワイトボードの表示内容を変更することもできる(例えば、情報の追加記入、情報の消去、表示面の変更等)。即ち、各ユーザは、仮想的なホワイトボードが存在する空間内で会議を行っているような感覚で互いに意志疎通を行ない得る。従って、上記の構成によると、2個以上のユーザデバイスのそれぞれのユーザが、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら意志疎通を行ない得る。
前記第1のデバイス送信部は、さらに、前記仮想的なホワイトボードの表示内容の出力を指示するための出力指示が入力される場合に、前記出力指示を示す第2の指示データを前記情報処理機器に送信してもよい。前記情報処理機器は、さらに、前記第2の指示データを受信する第2の機器受信部と、前記第2の指示データが受信される場合に、前記仮想的なホワイトボードの前記表示内容を示すボード出力データを生成する第2の機器生成部と、前記ボード出力データを出力する出力部と、を備えてもよい。
この構成によると、いずれかのユーザが入力部に出力指示を入力することにより、仮想的なホワイトボードの表示内容を示すボード出力データが出力される。ここで、「出力」は、ボード出力データを、各ユーザデバイスがアクセス可能な記憶装置に記憶させること、紙等の記録媒体に印刷すること、所定のメールアドレスに送信すること等を含む。この構成を備えることにより、各ユーザが、ボード出力データ出力後の任意のタイミングで、出力されたボード出力データに基づいて、仮想的なホワイトボードの表示内容を確認することができる。
前記ボード出力データの出力は、前記ボード出力データを、前記2個以上のユーザデバイスのそれぞれがアクセス可能な記憶装置に記憶させることを含んでもよい。
この構成によると、各ユーザは、ボード出力データが記憶装置に記憶された後、任意のタイミングでユーザデバイスを介して記憶装置にアクセスすることにより、記憶装置に記憶されたボード出力データの内容を確認することができる。
前記2個以上のユーザデバイスのそれぞれは、さらに、前記フレームを装着した前記ユーザの発する第1種の音声を入力するマイクと、音声出力データに従って第2種の音声を出力するスピーカと、を備えてもよい。前記制御部は、さらに、前記マイクに入力された前記第1種の音声を前記情報処理機器に送信する第2のデバイス送信部と、前記情報処理機器から前記音声出力データを受信する第2のデバイス受信部と、受信された前記音声出力データに従って、前記スピーカに前記第2種の音声を出力させる音声出力制御部と、を備えていてもよい。前記情報処理機器は、さらに、前記第1種の音声を受信する第3の機器受信部と、前記2個以上のユーザデバイスのそれぞれから受信された前記第1種の音声に基づいて、前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記音声出力データを生成する第3の機器生成部と、前記2個以上のユーザデバイスのそれぞれに対して、生成された当該ユーザデバイスのための前記音声出力データを送信する、第2の機器送信部と、を備えてもよい。
この構成によると、各ユーザ間で音声通話を行うことができる。各ユーザ同士が離れた場所に存在している場合であっても、各ユーザが、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら音声通話を行うことができる。
前記入力部は、前記ユーザが、前記ユーザの発する第1種の音声によって指示を入力可能な音声入力部を含んでもよい。
この構成によると、各ユーザは、変更指示等の各種指示を音声入力することができるため、各ユーザの操作負担が少なく済む。
前記2個以上のユーザデバイスのそれぞれは、前記フレームと前記表示部と前記制御部とを含む頭部装着型のヘッドマウントディスプレイと、前記ヘッドマウントディスプレイとは別個に形成され、前記ヘッドマウントディスプレイと通信可能な操作端末であって、前記入力部を含む前記操作端末と、を含んでもよい。
この構成によると、例えば、操作端末が、複数のキー等によって構成される入力部を備える場合等には、ユーザが操作端末を操作して様々な指示を入力し易くなる場合がある。各ユーザの利便性を向上させ得る。
前記2個以上のユーザデバイスのそれぞれは、さらに、前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部を備えてもよい。前記制御部は、さらに、前記取得部によって取得された前記状態情報を前記情報処理機器に送信する第3のデバイス送信部を備えてもよい。前記情報処理機器は、さらに、前記状態情報を受信する第4の機器受信部と、前記2個以上のユーザデバイスを装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成する第4の機器生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記ユーザデバイスから受信される前記状態情報が示す状態に応じた表示態様を有している、前記第4の機器生成部と、を備えてもよい。前記表示画面データによって表される前記表示画面は、さらに、生成された前記2個以上のキャラクタ画像のうちの少なくとも一部を含んでいてもよい。
この構成によると、各ユーザのユーザデバイスの表示部に表示される表示画面は、2個以上のキャラクタ画像のうちの少なくとも一部を含む。そして、各キャラクタ画像は、対応するユーザデバイスから受信された状態情報が示す状態(即ち、当該ユーザデバイスのユーザの状態)に応じた表示態様を有する。即ち、表示画面に含まれるキャラクタ画像は、対応するユーザの状態を適切に反映し得る。そのため、上記の構成によると、各ユーザデバイスのユーザが操作を行わなくても、各ユーザは、各ユーザの状態を適切に反映させた表示画面を見ながら意志疎通を行ない得る。
前記2個以上のユーザデバイスのそれぞれは、さらに、前記情報処理機器を介することなく相互に通信可能であってもよい。前記制御部は、さらに、前記情報処理機器を介することなく通信している通信先のユーザデバイスから前記表示画面データを受信する第3のデバイス受信部と、前記入力部に前記変更指示が入力される場合に、前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記表示画面データを生成するデバイス生成部であって、前記表示画面データによって表わされる前記表示画面に含まれる前記仮想的なホワイトボードは、前記変更指示に基づいて変更された前記仮想的なホワイトボードの表示内容を表示している、前記デバイス生成部と、生成された前記表示画面データを前記通信先のユーザデバイスに送信する第4のデバイス送信部と、を備えていてもよい。
この構成によると、各ユーザは、自身のユーザデバイスが情報処理機器と通信不可能な状態にある場合であっても、各ユーザデバイス間で情報処理機器を介することなく通信を実行することによって、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら意志疎通を行ない得る。
なお、上記のユーザデバイス、及び、情報処理機器を実現するための制御方法、コンピュータプログラム、及び、当該コンピュータプログラムを格納するコンピュータ読取可能媒体も、新規で有用である。
会議システムの概要を示す。 画像表示装置の概要を示す。 画像表示装置のブロック図を示す。 端末装置のブロック図を示す。 サーバのブロック図を示す。 ユーザが視認する表示画面の一例を示す。 サーバの制御部が実行する通話制御処理のフローチャートを示す。 サーバの制御部が実行する画像通信処理のフローチャートを示す。 第3実施例の画像表示装置の制御部が実行する通話処理のフローチャートを示す。
(第1実施例)
(会議システム2の構成;図1)
図1に示す会議システム2は、複数のユーザが、共通の1つの仮想的なホワイトボードを示すホワイトボード画像を含む表示画面(後述の図6参照)を見ながら会議を行うためのシステムである。図1の会議システム2は、ユーザデバイス8A〜8Dと、サーバ100とを備える。ユーザデバイス8A〜8Dは、それぞれ、画像表示装置10A〜10Dと、端末装置40A〜40Dとを備えている。画像表示装置10A〜10Dのそれぞれは、対応する端末装置40A〜40Dとの間でBluetooth(登録商標)通信を実行可能である。以下では、Bluetoothのことを「BT」と略して呼ぶ場合がある。また、画像表示装置10A〜10Dのそれぞれは、サーバ100との間でWi−Fi通信を実行可能である。変形例では、画像表示装置10A〜10Dのそれぞれは、対応する端末装置40A〜40Dとの間で、BT通信に代えて任意の近距離無線通信を実行可能であってもよい。画像表示装置10A〜10Dのそれぞれは、ユーザ4A〜4Dの頭部に装着されている。画像表示装置10A〜10Dのそれぞれには、当該装置を識別するための装置ID(「D01」,「D02」,「D03」,「D04」)が割り当てられている。また、ユーザ4A〜4Dのそれぞれは、事前にサーバ100に登録したユーザID(「U01」,「U02」,「U03」,「U04」)を有している。以下では、ユーザデバイス8A〜8D、画像表示装置10A〜10D、端末装置40A〜40Dをそれぞれ区別せずに呼ぶ場合、「ユーザデバイス8」、「画像表示装置10」、「端末装置40」と呼ぶ場合がある。また、ユーザ4A〜4Dを区別せずに呼ぶ場合に「ユーザ4」と呼ぶ場合がある。図1の例では、4個のユーザデバイス8A〜8Dのみを図示しているが、実際の会議システム2には、これ以外のユーザデバイス8が含まれていてもよい。
(画像表示装置10の構成;図1〜図3)
図1に示す画像表示装置10(即ち画像表示装置10A〜10D)は、ユーザ4の頭部に装着して用いられる画像表示装置(いわゆるヘッドマウントディスプレイ)である。図2に示すように、画像表示装置10は、フレーム12と、表示部14と、操作部16と、生体センサ18と、脳波センサ20と、マイク22と、スピーカ24と、内側カメラ26と、外側カメラ27と、コントロールボックス28と、を備える。
フレーム12は、眼鏡フレーム状の部材である。ユーザ4は、顔の前面側から眼鏡を装着するようにフレーム12を装着することによって、画像表示装置10を頭部に装着することができる。
表示部14は、遮光性の表示部材である。ユーザ4が画像表示装置10を頭部に装着すると、ユーザ4の両眼に対向する位置に表示部14が配置される。ユーザ4が画像表示装置10を装着すると、表示部14によってユーザ4の視界が遮られる。他の例では、表示部14は、透光性のディスプレイであってもよく、ユーザ4が画像表示装置10を装着した際に表示部14を通して周囲を視認できるものであってもよい。
操作部16は、フレーム12に備えられている。操作部16は、複数個のボタン、ダイヤル等を含む。ユーザ4は、操作部16を操作して、画像表示装置10に様々な操作を入力することができる。
生体センサ18は、画像表示装置10を装着するユーザ4の脈拍数及び発汗状態を検出するためのセンサである。生体センサ18はフレーム12の一部に取り付けられている。ユーザ4は、フレーム12を頭部に装着した状態で、身体の所定の部位(例えば頭部、頸部等)に生体センサ18を取り付けることができる。
脳波センサ20は、画像表示装置10を装着するユーザ4の脳波を検出するためのセンサである。脳波センサ20はフレーム12の一部に取り付けられている。ユーザ4は、フレーム12を頭部に装着した状態で、頭部に脳波センサ20を取り付けることができる。
マイク22は、画像表示装置10を装着するユーザ4の声や周囲の音など、各種音声を入力するための音声入力手段である。マイク22はフレーム12の一部に取り付けられている。ユーザ4がフレーム12を頭部に装着すると、マイク22は、ユーザ4の口元付近に配置される(図1参照)。ユーザ4はマイク22を動かして配置位置を適宜変更することも可能である。
スピーカ24は、通話相手の声等、各種音声を出力するための音声出力手段である。スピーカ24もフレーム12の一部に取り付けられている。
内側カメラ26は、表示部14の内側(即ちユーザ4の顔側)に設けられている。図2の例では、2個の内側カメラ26が設けられている。内側カメラ26は、画像表示装置10を装着するユーザの眼を撮影する。
外側カメラ27は、画像表示装置10を装着するユーザ4の視界範囲に対応する範囲を撮影するためのカメラである。図2の例では、2個の外側カメラ27が設けられている。このうちの一方の外側カメラ27は、ユーザ4の右眼の視界範囲を撮影し、他方の外側カメラ27は、ユーザ4の左眼の視界範囲を撮影する。
コントロールボックス28は、フレーム12の一部に内蔵されている制御装置である。コントロールボックス28には、画像表示装置10の制御系統を司る各要素が収容されている。具体的に言うと、図3に示すように、コントロールボックス28には、制御部30と、メモリ32と、三次元センサ34と、Wi−Fiインターフェース36と、BTインターフェース37とが収容されている。以下では、インターフェースのことを「I/F」と記載する。
制御部30は、メモリ32に記憶されているプログラムに従って様々な処理を実行する。また、制御部30は、図3に示すように、表示部14、操作部16、生体センサ18、脳波センサ20、マイク22、スピーカ24、内側カメラ26、外側カメラ27、メモリ32、三次元センサ34、Wi−FiI/F36、及び、BTI/F38と電気的に接続されており、これらの各要素の動作を制御することができる。
メモリ32は、ROM、RAM、ハードディスク等によって構成される。メモリ32は、様々なプログラムを記憶している。また、メモリ32は、画像表示装置10自身に割り当てられている装置IDも記憶している。例えば、画像表示装置10Aのメモリ32には自機の装置ID「D01」が記憶されている。また、メモリ32は、制御部30の処理に伴って生成される様々な情報を記憶する領域も有している。
三次元センサ34は、三軸加速度センサである。三次元センサ34は、X,Y,Zの三軸の加速度を検出する。三次元センサ34の検出値を用いて、制御部30は、画像表示装置10の姿勢及び運動状態を特定することができる。
Wi−FiI/F36は、図示しないインターネットを介して外部の装置(例えばサーバ100)とWi−Fi通信を実行するためのI/Fである。
BTI/F38は、外部の装置(具体的には端末装置40)とBT通信を実行するためのI/Fである。本実施例では、制御部30は、BTI/F38を介して、端末装置40から各種指示(変更指示、出力指示等)を示す指示信号を受信する。
(端末装置40の構成;図1、図4)
図1に示す端末装置40(即ち端末装置40A〜40D)は、スマートフォン、ノートPC、タブレットPC等、ユーザ4が所持する携帯型の端末装置である。図4に示すように、端末装置40は、表示部42と、操作部44と、BTI/F46と、制御部50と、メモリ52とを備える。なお、後述の第2実施例では、端末装置40はさらにマイク48を備える。
表示部42は、様々な情報を表示するためのディスプレイである。操作部44は、複数のキーを備える。ユーザ4は、操作部44を操作することによって、様々な指示(例えば変更指示、出力指示等)を端末装置40に入力可能である。本実施例では、表示部42は、いわゆるタッチパネルであり、操作部としても機能する。以下の「操作部44」という表現は、操作部44そのものと、タッチパネルである表示部42と、の双方を含む意味である。
BTI/F46は、外部の装置(具体的には画像表示装置10)とBT通信を実行するためのI/Fである。本実施例では、制御部50は、BTI/F38を介して、操作部44に入力された各種指示(変更指示、出力指示等)を示す指示信号を画像表示装置10に送信する。
制御部50は、メモリ52に記憶されているプログラムに従って様々な処理を実行する。メモリ52は、ROM、RAM、ハードディスク等によって構成され、様々なプログラムを記憶している。メモリ52に記憶されているプログラムは、後で説明するように、画像表示装置10とBT通信を行うことによって、操作部44に入力された各種指示(変更指示、出力指示等)を示す指示信号を画像表示装置10に送信するためのアプリケーションプログラム(以下では「特定のアプリケーション」と呼ぶ)を含む。メモリ52は、さらに、制御部50が処理を実行する過程で取得又は生成される各種データを記憶する。
(サーバ100の構成;図1、図5)
図1に示すサーバ100は、会議システム2の管理者(例えば、会議システム2を利用した会議サービスの提供事業者等)によって設置されるサーバである。図5に示すように、サーバ100は、Wi−FiI/F102と、制御部110と、メモリ112と、を備えている。
Wi−FiI/F102は、図示しないインターネットを介して外部の装置(例えば画像表示装置10A〜10D)と無線通信を実行するためのI/Fである。
制御部110は、メモリ112に記憶されているプログラム120に従って、後述の通話制御処理(図5参照)を含む様々な処理を実行する。メモリ112は、ROM、RAM、ハードディスク等によって構成されている。メモリ112は、プログラム120の他に、ユーザテーブル122を記憶している。ユーザテーブル122は、各ユーザ(即ちユーザ4A〜4D)のユーザIDと、当該ユーザが使用する画像表示装置10(即ち画像表示装置10A〜10D)の装置IDと、の組合せを示す複数個の組合せ情報122a〜122dを含む。組合せ情報122a〜122dは、各ユーザが事前にユーザIDと装置IDとをサーバ100に登録することによって、ユーザテーブル122内に追加される。例えば、組合せ情報122aは、ユーザ4Aを示すユーザID「U01」と、画像表示装置10Aを示す装置ID「D01」とが対応付けられていることを示している。この他にも、メモリ112は、制御部110の処理に伴って生成される様々な情報(例えば、後述のボード出力データ)を記憶する領域も有している。
(会議システム2を使って行われる会議の概要;図6)
続いて、図6を参照して、会議システム2を使って各ユーザ4間で行われる会議の概要を説明する。ユーザ4A〜4Dが参加する会議セッションが開始されると、各ユーザ4は、頭部に装着する画像表示装置10の表示部14に表示される表示画面200(図6参照)を見ながら、他のユーザ4との間で音声通話を行うことができる。図6に示すように、表示画面200には、各ユーザ4A〜4Dを表わすキャラクタ画像C1〜C4が含まれる。各キャラクタ画像C1〜C4の表示態様は、会議中の各ユーザ4の状態(即ち、姿勢、視線、感情、健康状態等)に応じてリアルタイムに変化する。
表示画面200には、さらに、仮想的なホワイトボードを示すホワイトボード画像210が含まれる。会議に参加する各ユーザ4は、ホワイトボード画像210によって表される仮想的なホワイトボードを、現実の会議室内のホワイトボードのように利用しながら音声通話を行うことができる。即ち、会議に参加する各ユーザ4は、共通の仮想的なホワイトボードに表示される共通の情報を見ながら音声通話を行うことができる。
ホワイトボード画像210の近傍には、ページ変更ボタン212、214、データ出力ボタン216、ペンボタン218、消去ボタン220が表示されている。表示画面200には、さらに、各ユーザ4が操作可能なカーソル230が表示されている。ユーザ4は、端末装置40の操作部44を操作し、カーソル230で各ボタン212〜220を選択する操作を入力することができる。
ページ変更ボタン212、214は、仮想的なホワイトボードの表示面(即ちページ)を変更(先送り又は後戻し)するためのボタンである。ページ変更ボタン212、214が操作されると、ホワイトボード画像210が表す仮想的なホワイトボードの表示面が変更される。
データ出力ボタン216は、仮想的なホワイトボードの表示内容を示すボード出力データをサーバ100のメモリ112内に記憶させるためのボタンである。データ出力ボタン216が操作されると、仮想的なホワイトボードの表示内容を示すボード出力データが生成され、サーバ100のメモリ112に記憶される。変形例では、ボード出力データは、メモリ112に記憶されることに代えて任意の手法で出力されてもよい。例えば、ボード出力データは、ユーザ4が指定するメールアドレス宛にメール送信されてもよいし、所定のプリンタによって印刷されてもよい。
ペンボタン218は、仮想的なホワイトボードに書き込むペンを利用するためのボタンである。カーソル230でペンボタン218が操作されると、カーソル230の表示態様がペンの形状に変更される。そして、ユーザ4が、操作部44に指示を入力し、ホワイトボード画像210上でカーソル230を動かす操作を行うことにより、仮想的なホワイトボードに情報(文字、図形等)が記入される。
消去ボタン220は、仮想的なホワイトボード上の情報を消去するイレーザーを利用するためのボタンである。カーソル230で消去ボタン220が操作されると、カーソル230の表示態様がイレーザーの形状に変更される。そして、ユーザ4が、操作部44に指示を入力し、ホワイトボード画像210上でカーソル230を動かす操作を行うことで、仮想的なホワイトボードに記入されている情報が消去される。
表示画面200には、さらに、所定の背景画像250が含まれる。本実施例では、背景画像250には、ユーザ4が装着している画像表示装置10の外側カメラ27の撮影画像(即ちユーザ4の視界に相当する画像)が利用される。図6の例では、背景画像250は、端末装置40の画像を含んでいる。即ち、ユーザ4が、自身が携帯する端末装置40の方に視線を向けたことを意味する。会議に参加しているユーザ4は、背景画像250に含まれる端末装置40の画像を見ながら、端末装置40を操作することができる。
図6に示される表示画面200は、各ユーザ4の画像表示装置10の表示部14に表示される表示画面の一例である。表示画面200には、図6に示す各画像(キャラクタ画像C1〜C4、ホワイトボード画像210等)以外の画像が表示されていてもよい。
(通話制御処理;図7)
図7を参照して、本実施例のサーバ100の制御部110が実行する通話制御処理について説明する。通話制御処理は、ユーザデバイス8A〜8Dのユーザ4A〜4Dが、各ユーザを表わすキャラクタ画像及び仮想的なホワイトボードを示すホワイトボード画像210を含む表示画面200(図6参照)を見ながら通話(即ちテレビ会議)を行うために、サーバ100の制御部110が実行する処理である。サーバ100の電源がオンされると、制御部110は、図7の通話制御処理を開始する。
S10では、制御部110は、いずれかの画像表示装置10から通話開始リクエストを受信することを監視する。通話開始リクエストは、サーバ100に、複数のユーザによる通話の開始を要求するためのリクエスト信号である。例えば、画像表示装置10Aのユーザ4A(図1参照)は、画像表示装置10Aの電源をオンし、頭部に装着する。この際、外側カメラ27によって撮影された画像(即ち、ユーザの視界に対応する画像)が表示部14に表示される。ユーザは、外側カメラ27の撮影画像を見ることにより、周囲の状況を把握することができる。ユーザ4Aは、その状態で端末装置40の操作部44を操作し、上記の特定のアプリケーションを起動させる。これにより、端末装置40と画像表示装置10AとがBT通信を実行可能な状態に移行する。そして、ユーザ4Aは、操作部44を操作して所定の通話開始操作を入力する。所定の通話開始操作は、通話開始操作を行うユーザ4A(以下ではホストユーザと呼ぶ)を示すユーザID(この例では「U01」)を入力する操作と、通話に参加するユーザ(以下ではゲストユーザと呼ぶ。例えばユーザ4B〜4D)を示すユーザID(「U02」、「U03」、「U04」)を選択する操作と、通話開始を指示する操作と、を含む。操作部44に通話開始操作が入力されると、画像表示装置10Aの制御部30は、BTI/F38を介して端末装置40から、通話開始操作を示す通話開始信号を受信する。なお、以下では、ユーザ4が操作部44に種々の操作を入力し、BT通信を介して画像表示装置10に操作内容を示す信号が伝達されることを、単にユーザ4の操作として簡潔に説明する。そして、制御部30は、入力されたホストユーザのユーザID(「U01」)と、選択されたゲストユーザのユーザID(「U02」〜「U04」)と、を含む通話開始リクエストを生成し、生成された通話開始リクエストを、Wi−FiI/F36を介してサーバ100に送信する。この場合、サーバ100の制御部110は、Wi−FiI/F102を介して、画像表示装置10Aから通話開始リクエストを受信する。制御部110は、通話開始リクエストを受信すると、S10でYESと判断し、S12に進む。
S12では、制御部110は、呼出通知を送信する。詳しく言うと、S12では、まず、制御部110は、メモリ112内のユーザテーブル122を参照し、S10で受信された通話開始リクエストに含まれるゲストユーザのユーザID(上記の例では「U02」、「U03」、「U04」)のそれぞれに対応する装置ID(上記の例では「D02」、「D03」、「D04」)を特定する。そして、制御部110は、特定された装置IDによって示される画像表示装置10(上記の例では装置10B,10C,10D)に対して、Wi−FiI/F102を介して、呼出通知を送信する。呼出通知は、ゲストユーザが使用する画像表示装置10に対して、通話に招待されている旨を通知するための信号であり、ホストユーザのユーザID(上記の例では「U01」)とゲストユーザのユーザID(上記の例では「U02」、「U03」、「U04」)とを含む。呼出通知の送信先の画像表示装置10(即ちゲストユーザの画像表示装置10)は、呼出通知を受信すると、所定の呼出動作を行う。呼出動作は、スピーカ24から呼出音を発生させることや、表示部14にホストユーザのユーザID、ゲストユーザIDのユーザID、及び呼出メッセージを表示させることを含む。呼出動作が行われることにより、画像表示装置10を使用するユーザ4は、ホストユーザによって通話に招待されていること、及び、通話に参加するユーザが誰であるのかを知ることができる。
次いで、S14では、制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから、応答通知を受信することを監視する。上記の通り、呼出通知を受信した画像表示装置10は、呼出動作を行う。呼出動作が行われている画像表示装置10のユーザ4(例えば画像表示装置10Bのユーザ4B)は、画像表示装置10を装着し、端末装置40Bの特定のアプリケーションを起動し、所定の応答操作を実行する。応答操作は、通話に参加することを示す参加操作と、通話に参加しないことを示す拒否操作と、のうちのいずれか一方を含む。応答操作が行われると、画像表示装置10の制御部30は、参加を示す参加情報と拒否を示す拒否情報の一方を含む応答通知を生成し、生成された応答通知をサーバ100に送信する。サーバ100の制御部110は、呼出通知の送信先の画像表示装置10のそれぞれから応答通知を受信すると、S14でYESと判断し、S16に進む。
S16では、制御部110は、通話セッションを開始する。具体的には、まず、制御部110は、ホストユーザの画像表示装置10の装置IDを特定する。次いで、制御部110は、ゲストユーザの画像表示装置10のうち、参加情報を含む応答通知を送信した画像表示装置10の装置IDを特定する。そして、制御部110は、特定された装置IDによって示される画像表示装置10を含む通話セッションを開始する。即ち、通話セッションには、拒否情報を含む応答通知を送信した画像表示装置10は含まれない。
(通話セッション開始後の各画像表示装置10の制御部30の処理)
図5のS16で通話セッションが開始されると、通話セッションに参加する画像表示装置10の制御部30は、次のような処理を実行する。即ち、制御部30は、マイク22に入力される音声をサーバ100に送信し、サーバ100から受信される音声データに基づいてスピーカ24から音声を出力する。これにより、各画像表示装置10間で音声通話を実行することができる。
そして、制御部30は、当該画像表示装置10の装置ID、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、内側カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。そして、制御部30は、状態情報を送信することに応じて、サーバ100から、当該画像表示装置10用の表示画面データを受信し、受信された表示画面データに基づいて表される表示画面200(図6参照)を表示部14に表示させる。これにより、通話に参加しているそれぞれのユーザ4は、通話に参加する他のユーザ4を示すキャラクタ画像C1〜C4と、仮想的なホワイトボードを示すホワイトボード画像210を含む表示画面200を見ながら通話を行うことができる。
さらに、ユーザ4は、端末装置40の操作部44に、表示画面200中の仮想的なホワイトボードの表示内容を変更する(即ち、上述した表示面の変更、情報の記入又は消去等)ための変更指示を入力することができる。変更指示が入力されると、制御部30は、入力された変更指示の内容を示す変更指示データをサーバ100に送信する。そして、制御部30は、変更指示データを送信することに応じて、サーバ100から、表示内容が変更された後のホワイトボード画像210を含む表示画面200を示す表示画面データを受信し、受信された表示画面データに基づいて表される表示画面200を表示部14に表示させる。これにより、通話に参加しているそれぞれのユーザ4は、表示内容が変更されたホワイトボード画像210を見ながら通話を行うことができる。
さらに、ユーザ4は、端末装置40の操作部44に、表示画面中の仮想的なホワイトボードの表示内容を出力する(即ち、サーバ100のメモリ112に記憶させる)ための出力指示を入力することができる。出力指示が入力されると、制御部30は、出力指示を示す出力指示データをサーバ100に送信する。後で説明する通り、出力指示データがサーバ100に送信されると、サーバ100の制御部110は、この時点における仮想的なホワイトボードの表示内容を含むボード出力データを生成し、生成したボード出力データをメモリ112に記憶させる。その後、ユーザ4は、任意のタイミングで、画像表示装置10を介してサーバ100に閲覧リクエストを送信することにより、メモリ112に記憶されたボード出力データの内容を見ることができる。
(通話制御処理の続き;図5のS18以降)
続くS18では、制御部110は、音声通信処理を開始する。即ち、制御部110は、通話セッションに参加する各画像表示装置10間の音声通話を中継する処理を実行する。即ち、制御部110は、各画像表示装置10から、各画像表示装置10のマイク22に入力された音声信号を受信する。制御部110は、各画像表示装置10から受信された音声信号に基づいて音声出力データを生成し、各画像表示装置10に送信する。
また、S20では、制御部110は、画像通信処理を開始する。以下、図8を参照して、S20で実行される画像通信処理の内容を詳しく説明する。
(画像通信処理;図8)
制御部110は、図8の画像通信処理を開始すると、S30、S50、S70の各監視を開始する。
S30では、制御部110は、通話セッションに参加している各画像表示装置10から状態情報を受信することを監視する。上記の通り、通話セッションが開始される(図7のS16)と、通話セッションに参加している画像表示装置10の制御部30は、三次元センサ34の検出値、生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、内側カメラ26が撮影する眼の画像を含む状態情報を随時生成し、サーバ100に送信する。制御部110は、通話セッションに参加している各画像表示装置10が送信する上記の状態情報を受信すると、S30でYESと判断し、S32に進む。
S50では、制御部110は、通話セッションに参加している画像表示装置10のうちのいずれかの画像表示装置10から、変更指示データを受信することを監視する。上記の通り、通話セッションに参加しているユーザ4は、端末装置40の操作部44に上述の変更指示を入力することができる。その場合、画像表示装置10の制御部30は、入力された変更指示の内容を示す変更指示データをサーバ100に送信する。制御部110は、いずれかの画像表示装置10が送信する変更指示データを受信すると、S50でYESと判断し、S52に進む。
S70では、制御部110は、通話セッションに参加している画像表示装置10のうちのいずれかの画像表示装置10から、出力指示データを受信することを監視する。上記の通り、通話セッションに参加しているユーザ4は、端末装置40の操作部44に出力指示を入力することができる。その場合、画像表示装置10の制御部30は、出力指示を示す出力指示データをサーバ100に送信する。制御部110は、いずれかの画像表示装置10が送信する出力指示データを受信すると、S70でYESと判断し、S72に進む。
S32(S30でYESの場合)では、制御部110は、受信された1以上の状態情報のうちの1つの状態情報(即ち、通話セッションに参加している画像表示装置10のうちの1個から受信された状態情報)を特定する。以下では、S32で特定された状態情報を「特定の状態情報」と呼ぶ場合がある。また、特定の状態情報の送信元の画像表示装置10のことを「特定の画像表示装置」と呼ぶ場合がある。さらに、特定の画像表示装置を使用するユーザ4のことを「特定のユーザ」と呼ぶ場合がある。
続くS34では、制御部110は、S32で特定された特定の状態情報に基づいて、特定のユーザの状態を特定する。ここで、特定のユーザの状態は、特定のユーザの姿勢(顔の向きや体の向きを含む)、感情、体調、視線、発話状態(発話中か否か)等を含む。S34では、まず、制御部110は、ユーザテーブル122を参照し、特定の状態情報に含まれる装置IDに対応するユーザID(即ち、特定のユーザのユーザID)を特定する。そして、制御部110は、特定の状態情報に含まれる各種情報に基づいて、特定のユーザの状態を特定する。制御部110は、特定の状態情報に含まれる三次元センサ34の検出値に基づいて、特定のユーザの姿勢を特定することができる。また、制御部110は、特定の状態情報に含まれる生体センサ18の検出値、脳波センサ20の検出値、マイク22に入力される音声信号、及び、内側カメラ26で撮影された眼の画像に基づいて、特定のユーザの感情(例えば、怒っている、喜んでいる、不安を抱えている、悲しんでいるなど)を特定することができる。また、制御部110は、特定の状態情報に含まれる生体センサ18の検出値及び脳波センサ20の検出値に基づいて、特定のユーザの体調(健康、発熱、めまい等)を特定することができる。また、制御部110は、特定の状態情報に含まれる内側カメラ26で撮影された眼の画像及び三次元センサ34の検出値に基づいて、特定のユーザの視線を特定することができる。制御部110は、以上の各処理を実行することによって、特定のユーザの状態を特定することができる。制御部110は、特定のユーザのユーザIDと、特定されたユーザの状態とを対応付けてメモリ112に一時的に記憶させる。
続くS36では、制御部110は、特定のユーザを示すキャラクタ画像(図6の符号C1〜C4参照)を生成する。本実施例では、キャラクタ画像は、S34で特定された状態(姿勢、感情、体調、視線、発話状態等)を反映した表示態様を有する画像(いわゆるアバター)である。
続くS38では、制御部110は、S30で受信された1以上の状態情報をすべて特定したか否かを判断する。この時点で1以上の状態情報がすべて特定済みである場合、制御部110は、S38でYESと判断し、S40に進む。一方、1以上の状態情報をまだすべて特定していない場合、制御部110は、S38でNOと判断し、S32に戻り、未特定の状態情報のうちの1つを新たに特定の状態情報として特定し、S34、S36の処理を実行する。
S40では、制御部110は、既に作成済みの各ユーザのキャラクタ画像と、現在の仮想的なホワイトボードを示すホワイトボード画像と、を含む各画像表示装置10用の表示画面データを生成する。本実施例では、S40で生成される表示画面データの内容は、各画像表示装置10間で同一である。変形例では、S40で生成される表示画面データの内容は、各画像表示装置10間で異なっていてもよい。その場合、例えば、各表示画面データは、各ユーザの視界を反映した内容を有していてもよい。
続くS42では、制御部110は、生成された各表示画面データを、対応する画像表示装置10に送信する。各画像表示装置10の制御部30は、表示画面データを受信すると、受信された表示画面データに基づいて表される表示画面200(図6参照)を表示部14に表示させる。S42を終えると、制御部110は、S30、S50、S70の各監視に戻る。
一方、S52(S50でYESの場合)には、制御部110は、変更指示データによって示される変更指示が示す変更内容(例えば、情報の記入又は消去、表示面の変更等)を反映した仮想的なホワイトボードを表わすホワイトボード画像(図6の符号210参照)を生成する。そして、続くS40では、制御部110は、S52で生成されたホワイトボード画像を含む各画像表示装置10用の表示画面データを生成する。その後のS42の処理は上記と同様である。
一方、S72(S70でYESの場合)には、制御部110は、この時点の仮想的なホワイトボードの表示内容を含むボード出力データを生成する。ボード出力データは、この時点で各画像表示装置10の表示部14に表示されているホワイトボード画像そのものであってもよい。他の例では、ボード出力データは、この時点で表示されている仮想的なホワイトボードに表示されているテキストデータであってもよい。
続くS74では、制御部110は、S72で生成されたボード出力データをメモリ112に記憶させる。S74を終えると、制御部110は、S30、S50、S70の各監視に戻る。
制御部110がS30〜S74の各処理を繰り返し実行することにより、各画像表示装置10の表示部14に表示される表示画面200の内容は、各ユーザ4の状態(視線、感情、姿勢等)、及び、各ユーザ4が入力した変更指示の内容に応じてリアルタイムに変化する。各ユーザ4は、他のユーザ4と実際に会話を行っているような感覚を得られる。また、各ユーザ4は、共通の1つのホワイトボードを見ながら会議を行っているような感覚を得られる。さらに、各ユーザ4は、任意のタイミングで、画像表示装置10を介してサーバ100に閲覧リクエストを送信することにより、メモリ112に記憶されたボード出力データの内容を見ることもできる。
(通話制御処理の続き;図7のS22以降)
上記の通り、図7のS18で音声通信処理が開始され、S20で画像通信処理が開始されることによって、通話に参加している各ユーザ4が、キャラクタ画像及びホワイトボード画像を含む表示画面を見ながら通話を行うことができる。
続くS22では、制御部110は、通話セッションに参加している画像表示装置10のうちのいずれかの画像表示装置10から通話終了リクエストを受信することを監視する。通話終了リクエストは、サーバ100に、現在の通話セッションの終了を要求するためのリクエスト信号である。例えば、通話セッションに参加している画像表示装置10Aのユーザ4Aは、操作部16において所定の通話終了操作を行うことができる。その場合、画像表示装置10Aの制御部30は、通話終了リクエストをサーバ100に送信する。制御部110は、通話終了リクエストを受信すると、S22でYESと判断し、S24に進む。
S24では、制御部110は、通話セッションを終了する。制御部30は、S24を終えると、S10に戻り、再び通話開始リクエストを受信することを監視する。
以上、本実施例の会議システム2の構成及び動作について説明した。本実施例では、通話セッションが開始されると、通話セッションに参加する各画像表示装置10の表示部14には、当該画像表示装置10のための表示画面200が表示される(図6参照)。表示画面200は、各ユーザが記入可能な仮想的なホワイトボードを示すホワイトボード画像210を含む。表示画面200に含まれるホワイトボード画像210は、通話セッションに参加する各ユーザ4によって記入された情報を表示する。そして、各ユーザ4は、自身の画像表示装置10の表示部14に表示された表示画面200を見ることで、共通の情報が記入されたホワイトボード画像210を見ることができる。また、各ユーザ4は、端末装置40の操作部44に変更指示を入力することにより、ホワイトボード画像210の表示内容を変更することもできる(例えば、情報の記入、情報の消去、表示面の変更等)。即ち、各ユーザは、仮想的なホワイトボードが存在する空間内で会議を行っているような感覚で互いに意志疎通を行なうことができる。従って、本実施例によると、2個以上のユーザデバイス8のそれぞれのユーザ4が、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら意志疎通を行なうことができる。
また、本実施例では、通話セッションに参加しているいずれかのユーザ4が端末装置40の操作部44に出力指示を入力することにより、仮想的なホワイトボードの表示内容を示すボード出力データがサーバ100のメモリ112に記憶される(即ち出力される)。その後、各ユーザ4は、任意のタイミングで、画像表示装置10を介してサーバ100に閲覧リクエストを送信することにより、メモリ112に記憶されたボード出力データの内容を見ることができる。
また、本実施例では、通話セッションが開始されると、通話セッションに参加する各画像表示装置10の制御部30は、マイク22に入力される音声信号をサーバ100に送信し、サーバ100から受信される音声データに基づいてスピーカ24から音声を出力する。そのため、本実施例では、各ユーザ4間で音声通話を行うことができる。各ユーザ4同士が離れた場所に存在している場合であっても、各ユーザ4が、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら音声通話を行うことができる。
また、本実施例では、ユーザデバイス8は、画像表示装置10と、端末装置40と、によって構成される。各種指示を入力するための端末装置40が、頭部に装着される画像表示装置10と別個に形成されるため、各種指示を入力するための入力部が画像表示装置10に設けられている場合に比べて、ユーザ4が様々な指示を入力し易い。また、ユーザ4が予め所持するスマートフォン等を、指示入力用の端末装置40として利用することができれば、ユーザの利便性もさらに向上する。
また、本実施例では、各ユーザ4の画像表示装置10の表示部14に表示される表示画面200は、各ユーザ4を示すキャラクタ画像C1〜C4を含む(図6参照)そして、各キャラクタ画像C1〜C4は、対応する画像表示装置10から受信された状態情報が示す状態(即ち、当該ユーザの状態)に応じた表示態様を有する。即ち、表示画面200に含まれるキャラクタ画像C1〜C4は、対応するユーザ4の状態を適切に反映する。そのため、本実施例では、各ユーザ4が操作を行わなくても、各ユーザ4は、各ユーザ4の状態を適切に反映させた表示画面200を見ながら通話を行なうことができる。各ユーザ4は、自分や他のユーザ4の姿勢や表情を見ながら会話を行っている感覚で通話を行うことができる。
サーバ100が「情報処理機器」の一例である。変更指示データ、出力指示データが「第1の指示データ」、「第2の指示データ」の一例である。端末装置40が「操作端末」の一例である。操作部44が「入力部」の一例である。ユーザ4がマイク22に入力する音声が「第1種の音声」の一例である。スピーカ24から出力される音声が「第2種の音声」の一例である。内側カメラ26、マイク22、生体センサ18、脳波センサ20が「取得部」の一例である。
(第2実施例)
本実施例では、図4に示すように、端末装置40は、マイク48を備える。本実施例では、ユーザ4は、ユーザが発する音声をマイク48に入力することによって、変更指示、出力指示等の各種指示を入力することができる。即ち、本実施例では、ユーザ4は、各種指示を音声入力することができる。本実施例によると、各ユーザ4の操作負担が少なく済む。本実施例のマイク48は、「入力部」の一例である。
(第3実施例)
本実施例では、各画像表示装置10が、サーバ100を介することなく相互に通信可能である点で第1実施例とは異なる。具体的には、各画像表示装置10は、BTI/F38を介して相互に近距離無線通信(具体的にはBT通信)を実行可能である。即ち、本実施例では、画像表示装置10の制御部30は、BTI/F38を介して他の画像表示装置10とBT通信を実行することができる。
本実施例では、各画像表示装置10間で、BTI/F38を介した無線接続(即ちBT接続)が確立している場合に、所定の通話開始操作が行われる場合に、各画像表示装置10を含む通話セッションが開始される。通話セッションが開始されると、各画像表示装置10の制御部30は、図9に示す通話処理を実行する。
S100では、制御部30は、まず、初期の表示画面を表示部14に表示させる。本実施例では、表示部14に表示される表示画面は、図6の表示画面200と同様に、ホワイトボード画像210と、各ボタン212〜220と、背景画像250と、を含むが、キャラクタ画像(図6のC1〜C4参照)を含まない。また、この時点で表示される表示画面に含まれるホワイトボード画像210には、情報が書き込まれていない。
続くS102では、制御部30は、マイク22に入力される音声を示す音声データを、通信中の他の画像表示装置10に送信する。S104では、制御部30は、通信中の他の画像表示装置10から受信される音声データに基づいて、スピーカ24から音声を出力する。S102、S104の処理により、本実施例でも、各画像表示装置10間で音声通話を実行することができる。
S106では、制御部30は、通信中の他の画像表示装置10から表示画面データを受信したか否かを判断する。制御部30は、この時点で通信中の他の画像表示装置10から表示画面データを受信していればS106でYESと判断し、S108に進む。S108では、制御部30は、受信済みの表示画面データに基づいて表示される表示画面を表示部14に表示させる。S108を終えるとS110に進む。一方、制御部30は、この時点で他の画像表示装置10から表示画面データを受信していなければ、S108をスキップしてS110に進む。
S110では、制御部30は、この時点で、対応する端末装置40の操作部44に、表示画面中の仮想的なホワイトボードの表示内容を変更する(即ち、上述した表示面の変更、情報の記入又は消去等)ための変更指示が入力されているか否かを判断する。制御部30は、この時点で変更指示が入力されていれば、S110でYESと判断し、S112に進む。S112では、制御部30は、変更指示に従って表示内容が変更された後のホワイトボード画像を含む表示画面データを生成する。続くS114では、制御部30は、S112で生成された表示画面データに基づいて表示される表示画面を表示部14に表示させる。続くS115では、制御部30は、S112で生成された表示画面データを、通信中の他の画像表示装置10に送信する。S115を終えるとS116に進む。一方、制御部30は、この時点で変更指示が入力されていなければ、S110でNOと判断し、S112〜S115をスキップしてS116に進む。
S116では、制御部30は、この時点で、対応する端末装置40の操作部44に、表示画面中の仮想的なホワイトボードの表示内容を出力するための出力指示が入力されているか否かを判断する。制御部30は、この時点で出力指示が入力されていれば、S116でYESと判断し、S118に進む。S118では、制御部30は、この時点における仮想的なホワイトボードの表示内容を含むボード出力データを生成する。続くS119では、制御部30は、S118で生成されたボード出力データをメモリ32に記憶させる。メモリ32に記憶されたボード出力データは、画像表示装置10とサーバ100とが通信可能な状態に移行した場合に、サーバ100に出力される。S119を終えると、S102に戻る。一方、制御部30は、この時点で出力指示が入力されていなければ、S116でNOと判断し、S118、S119をスキップしてS102に戻る。
これ以降、制御部30は、いずれかの画像表示装置10から所定の通話終了リクエストが出力されて通話セッションが終了するまで、S102〜S119の各処理を繰り返し実行する。
なお、本実施例の各画像表示装置10とサーバ100との無線通信(Wi−Fi通信)を実行可能な状態が確立される場合には、会議システム2は、本実施例で説明した手法に代えて、第1実施例で説明した手法に従って、会議を実行する。
上記の通り、本実施例では、各ユーザ4は、自身の画像表示装置10がサーバ100と通信不可能な状態にある場合であっても、各画像表示装置10間でサーバ100を介することなく通信を実行することによって、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら意志疎通を行ない得る。
上記の通り、本実施例では、各画像表示装置10の表示部14に表示される表示画面は、キャラクタ画像(図6のC1〜C4参照)を含まない。これは、各画像表示装置10の間で実行されるBT通信のデータ通信速度が、サーバ100との間で実行されるWi−Fi通信のデータ通信速度に比べて遅いことを考慮したものである。本実施例では、各画像表示装置10間で送受信される表示画面データが、キャラクタ画像を含まないため、各画像表示装置10の制御部30の処理負荷、及び、BT通信負荷が小さく済む。
同様の理由から、本実施例の変形例では、各ユーザ4が、仮想的なホワイトボードにテキストデータのみを記入可能であり、画像等は記入(貼り付け)できないようにしてもよい。この場合も、各画像表示装置10の制御部30の処理負荷、及び、BT通信負荷が小さく済む。
もっとも、本実施例の他の変形例では、各画像表示装置10の表示部14に表示される表示画面がキャラクタ画像を含んでもよい。
以上、実施例を詳細に説明したが、これらは例示に過ぎず、請求の範囲を限定するものではない。請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。例えば、以下の変形例を採用してもよい。
(変形例1)上記の各実施例では、サーバ100の制御部110は、出力指示データが受信される場合(図8のS70でYES)に、生成したボード出力データをメモリ112に記憶させる(S72、S74)。これに限られず、制御部110は、ボード出力データを他の任意の手法で出力してもよい。例えば、制御部110は、ボード出力データを、ユーザ4が指定するメールアドレス宛にメール送信してもよい。また、他の例では、制御部110は、ボード出力データを、ユーザ4が指定するプリンタ宛に送信して印刷させてもよい。
(変形例2)上記の各実施例では、通話セッションが開始されると、通話セッションに参加する各画像表示装置10の制御部30は、マイク22に入力される音声信号をサーバ100に送信し、サーバ100から受信される音声データに基づいてスピーカ24から音声を出力する。即ち、上記の各実施例では、各ユーザ4間で音声通話を行うことができる。これに限られず、制御部30は、音声通話のための上記の各処理を行わないようにしてもよい。即ち、各ユーザ4間で、マイク22とスピーカ24を使った音声通話が行われなくてもよい。この変形例では、各ユーザ4は、表示画面200(図6参照)を見ながら直接会話(例えば、立ち話、同じ会議室内での会話等)を行うようにしてもよい。この場合も、各ユーザ4は、共通の仮想的なホワイトボードに記入された共通の情報を認識しながら意志疎通を行なうことができる。
(変形例3)上記の各実施例では、ユーザ4が各種指示を入力するための端末装置40は、ユーザ4が所持する携帯型の端末装置である。これに限られず、ユーザ4が各種指示を入力可能であるとともに、画像表示装置10と通信が可能であれば、端末装置40に代えて任意の指示入力手段を備えてもよい。例えば、端末装置40に代えて、ユーザ4が操作可能なキーボード等を備えてもよい。
(変形例4)上記の各実施例では、ユーザデバイス8は、画像表示装置10と、端末装置40とを備える。これに限られず、ユーザデバイス8は、画像表示装置10のみによって構成され、端末装置40が省略されていてもよい。その場合、ユーザ4は、変更指示等の各種指示を、操作部16を操作して入力してもよい。他の例では、ユーザ4は、各種指示を、マイク22を介して音声入力してもよい。
(変形例5)上記の各実施例では、キャラクタ画像C1〜C4は、ユーザ4A〜4Dを示すアバターである。これに限られず、キャラクタ画像は、ユーザ本人の写真の画像を加工した画像等であってもよい。
(変形例6)表示画面200がキャラクタ画像C1〜C4を含んでいなくてもよい。
(変形例7)画像表示装置10は、生体センサ18、脳波センサ20、内側カメラ26、三次元センサ34のうちの少なくとも一つを省略してもよい。
(変形例8)上記の各実施例では、ユーザデバイス8は、ユーザ4の頭部に装着するヘッドマウントディスプレイである画像表示装置10と、携帯型の端末装置40と、を含む。ユーザデバイスの態様は、これに限られず任意の態様を採用してもよい。例えば、ユーザの腕に装着する腕時計型のユーザデバイスが採用されてもよい。また、例えば、ユーザの頭に素着する画像表示装置10が、表示画面を周囲のスクリーンに投影可能な画像照射部を有していてもよい。ユーザは、スクリーンに投影された表示画面を視認可能であってもよい。
(変形例9)上記の各実施例では、表示画面中の仮想的なホワイトボードには、ユーザがカーソル(図6の符号230参照)を動かす操作を行うことに伴って、情報(文字、図形等)がペンで書き込まれたような態様で記入される。これに限られず、ユーザは、所定のテキスト入力操作を行うことで、表示画面中の仮想的なホワイトボードにテキストデータを記入することができる。同様に、ユーザは、所定のファイル挿入操作を行うことで、表示画面中の仮想的なホワイトボードにファイル(例えば、画像ファイル等)を貼り付けることもできる。この変形例では、ボード出力データには、仮想的なホワイトボードに記入されたテキストデータやファイルデータのみが含まれていてもよい。
(参考例)さらに、本明細書で開示する技術の一態様である参考例を紹介しておく。本参考例では、会議システム2は、サーバ100を備えていなくてもよい。本参考例では、各画像表示装置10が、相互に直接BT通信を実行するとともに、第3実施例で説明した手法に従って通話処理(図9参照)を実行することにより、会議を実行してもよい。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (8)

  1. 会議システムであって、
    2個以上のユーザデバイスと、
    前記2個以上のユーザデバイスのそれぞれと通信可能に接続されている情報処理機器と、
    を備え、
    前記2個以上のユーザデバイスのそれぞれは、
    ユーザが装着可能なフレームと、
    前記フレームに備えられ、前記フレームを装着した前記ユーザの視界範囲に配置される表示部と、
    前記ユーザが指示を入力するための入力部と、
    制御部と、を備えており、
    前記制御部は、
    前記情報処理機器から、当該ユーザデバイスのための表示画面データを受信する第1のデバイス受信部と、
    受信された前記表示画面データによって表される表示画面であって、各ユーザが情報を記入可能な仮想的なホワイトボードを含む前記表示画面を前記表示部に表示させる表示制御部と、
    前記入力部に前記仮想的なホワイトボードの表示内容の変更を指示するための変更指示が入力される場合に、前記変更指示を示す第1の指示データを前記情報処理機器に送信する第1のデバイス送信部と、
    を備え、
    前記情報処理機器は、
    前記第1の指示データを受信する第1の機器受信部と、
    前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記表示画面データを生成する第1の機器生成部であって、前記表示画面データによって表される前記表示画面に含まれる前記仮想的なホワイトボードは、前記第1の指示データに基づいて変更された表示内容を表示している、前記第1の機器生成部と、
    前記2個以上のユーザデバイスのそれぞれに対して、生成された当該ユーザデバイスのための前記表示画面データを送信する、第1の機器送信部と、
    を備え
    前記第1のデバイス送信部は、さらに、前記仮想的なホワイトボードの表示内容の出力を指示するための出力指示が入力される場合に、前記出力指示を示す第2の指示データを前記情報処理機器に送信し、
    前記情報処理機器は、さらに、
    前記第2の指示データを受信する第2の機器受信部と、
    前記第2の指示データが受信される場合に、前記仮想的なホワイトボードの前記表示内容を示すボード出力データを生成する第2の機器生成部と、
    前記ボード出力データを出力する出力部と、
    を備える、
    会議システム。
  2. 前記第1のデバイス送信部は、前記ユーザが、前記入力部に、前記仮想的なホワイトボードに情報を書き込むための指示と、前記仮想的なホワイトボードに記入されている情報を消去するための指示と、の少なくとも一方を含む前記変更指示が入力される場合に、前記変更指示を示す前記第1の指示データを前記情報処理機器に送信する、請求項1に記載の会議システム。
  3. 前記ボード出力データの出力は、前記ボード出力データを、前記2個以上のユーザデバイスのそれぞれがアクセス可能な記憶装置に記憶させることを含む、
    請求項1又は2に記載の会議システム。
  4. 前記2個以上のユーザデバイスのそれぞれは、さらに、
    前記フレームを装着した前記ユーザの発する第1種の音声を入力するマイクと、
    音声出力データに従って第2種の音声を出力するスピーカと、
    を備えており、
    前記制御部は、さらに、
    前記マイクに入力された前記第1種の音声を前記情報処理機器に送信する第2のデバイス送信部と、
    前記情報処理機器から前記音声出力データを受信する第2のデバイス受信部と、
    受信された前記音声出力データに従って、前記スピーカに前記第2種の音声を出力させる音声出力制御部と、
    を備えており、
    前記情報処理機器は、さらに、
    前記第1種の音声を受信する第3の機器受信部と、
    前記2個以上のユーザデバイスのそれぞれから受信された前記第1種の音声に基づいて、前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記音声出力データを生成する第3の機器生成部と、
    前記2個以上のユーザデバイスのそれぞれに対して、生成された当該ユーザデバイスのための前記音声出力データを送信する、第2の機器送信部と、
    を備える、請求項1から3のいずれか一項に記載の会議システム。
  5. 前記入力部は、前記ユーザが、前記ユーザの発する第1種の音声によって指示を入力可能な音声入力部を含む、
    請求項1から4のいずれか一項に記載の会議システム。
  6. 前記2個以上のユーザデバイスのそれぞれは、
    前記フレームと前記表示部と前記制御部とを含む頭部装着型のヘッドマウントディスプレイと、
    前記ヘッドマウントディスプレイとは別個に形成され、前記ヘッドマウントディスプレイと通信可能な操作端末であって、前記入力部を含む前記操作端末と、
    を含む、
    請求項1から5のいずれか一項に記載の会議システム。
  7. 前記2個以上のユーザデバイスのそれぞれは、さらに、
    前記フレームを装着した前記ユーザの状態に関係する状態情報を取得する取得部を備え、
    前記制御部は、さらに、
    前記取得部によって取得された前記状態情報を前記情報処理機器に送信する第3のデバイス送信部を備え、
    前記情報処理機器は、さらに、
    前記状態情報を受信する第4の機器受信部と、
    前記2個以上のユーザデバイスを装着するそれぞれのユーザを表す2個以上のキャラクタ画像を生成する第4の機器生成部であって、前記2個以上のキャラクタ画像のそれぞれは、対応する前記ユーザデバイスから受信される前記状態情報が示す状態に応じた表示態様を有している、前記第4の機器生成部と、を備えており、
    前記表示画面データによって表される前記表示画面は、さらに、生成された前記2個以上のキャラクタ画像のうちの少なくとも一部を含んでいる、
    請求項1から6のいずれか一項に記載の会議システム。
  8. 前記2個以上のユーザデバイスのそれぞれは、さらに、前記情報処理機器を介することなく相互に通信可能であり、
    前記制御部は、さらに、
    前記情報処理機器を介することなく通信している通信先のユーザデバイスから前記表示画面データを受信する第3のデバイス受信部と、
    前記入力部に前記変更指示が入力される場合に、前記2個以上のユーザデバイスのそれぞれについて、当該ユーザデバイスのための前記表示画面データを生成するデバイス生成部であって、前記表示画面データによって表わされる前記表示画面に含まれる前記仮想的なホワイトボードは、前記変更指示に基づいて変更された表示内容を表示している、前記デバイス生成部と、
    生成された前記表示画面データを前記通信先のユーザデバイスに送信する第4のデバイス送信部と、
    を備える、
    請求項1から7のいずれか一項に記載の会議システム。
JP2019549793A 2017-10-26 2017-10-26 会議システム Active JP6882797B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/038807 WO2019082366A1 (ja) 2017-10-26 2017-10-26 会議システム

Publications (2)

Publication Number Publication Date
JPWO2019082366A1 JPWO2019082366A1 (ja) 2020-11-19
JP6882797B2 true JP6882797B2 (ja) 2021-06-02

Family

ID=66247211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019549793A Active JP6882797B2 (ja) 2017-10-26 2017-10-26 会議システム

Country Status (5)

Country Link
US (1) US11212488B2 (ja)
EP (1) EP3702925B1 (ja)
JP (1) JP6882797B2 (ja)
CN (1) CN111108491B (ja)
WO (1) WO2019082366A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021140085A (ja) * 2020-03-06 2021-09-16 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP2022018733A (ja) * 2020-07-16 2022-01-27 ヤフー株式会社 提供プログラム、提供方法、および提供装置
CN114727046B (zh) * 2021-01-05 2024-09-24 中国移动通信有限公司研究院 容器虚拟子系统、无线投屏分享方法及系统
CN113163155B (zh) * 2021-04-30 2023-09-05 咪咕视讯科技有限公司 用户头像生成方法、装置、电子设备及存储介质
US11582272B1 (en) * 2021-12-21 2023-02-14 Microsoft Technology Licensing, Llc Whiteboard background customization system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0589217A (ja) 1991-09-30 1993-04-09 N T T Data Tsushin Kk 共有画面表示制御装置
US6769767B2 (en) * 2001-04-30 2004-08-03 Qr Spex, Inc. Eyewear with exchangeable temples housing a transceiver forming ad hoc networks with other devices
US6909453B2 (en) * 2001-12-20 2005-06-21 Matsushita Electric Industrial Co., Ltd. Virtual television phone apparatus
US20040236830A1 (en) * 2003-05-15 2004-11-25 Steve Nelson Annotation management system
US7092002B2 (en) * 2003-09-19 2006-08-15 Applied Minds, Inc. Systems and method for enhancing teleconferencing collaboration
JP2006352309A (ja) 2005-06-14 2006-12-28 Mitsubishi Electric Corp 電話機
US9300912B2 (en) * 2008-03-28 2016-03-29 Microsoft Technology Licensing, Llc Software based whiteboard capture solution for conference room meetings
US8212855B2 (en) * 2009-04-29 2012-07-03 Embarq Holdings Company, Llc Video conferencing eyewear
US8659639B2 (en) * 2009-05-29 2014-02-25 Cisco Technology, Inc. System and method for extending communications between participants in a conferencing environment
JP2010283645A (ja) * 2009-06-05 2010-12-16 Nikon Corp ヘッドマウントディスプレイ装置及び通信システム
JP5143148B2 (ja) * 2010-01-18 2013-02-13 シャープ株式会社 情報処理装置及び通信会議システム
JP4902765B2 (ja) * 2010-03-31 2012-03-21 新日鉄ソリューションズ株式会社 情報処理システム及び情報処理方法
JP5683998B2 (ja) 2011-02-28 2015-03-11 オリンパス株式会社 サーバシステム及びクライアント装置の制御方法
US8621352B2 (en) * 2011-06-08 2013-12-31 Cisco Technology, Inc. Virtual meeting video sharing
JP6074894B2 (ja) 2012-02-24 2017-02-08 株式会社ニコン 情報表示装置
AR086047A1 (es) * 2012-04-24 2013-11-13 Sergio Martin Carabajal Anteojo con computadora incorporada
US9575712B2 (en) * 2012-11-28 2017-02-21 Microsoft Technology Licensing, Llc Interactive whiteboard sharing
JP6088549B2 (ja) * 2013-02-06 2017-03-01 Hoya株式会社 シミュレーションシステムおよびシミュレーション装置
JP6234223B2 (ja) 2013-12-27 2017-11-22 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびコンピュータプログラム
US10019059B2 (en) 2014-08-22 2018-07-10 Sony Interactive Entertainment Inc. Glove interface object

Also Published As

Publication number Publication date
US11212488B2 (en) 2021-12-28
CN111108491A (zh) 2020-05-05
WO2019082366A1 (ja) 2019-05-02
EP3702925A1 (en) 2020-09-02
EP3702925B1 (en) 2024-03-13
CN111108491B (zh) 2024-05-03
US20200275057A1 (en) 2020-08-27
EP3702925A4 (en) 2021-03-24
JPWO2019082366A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP6882797B2 (ja) 会議システム
JP6266736B1 (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
CN110691027A (zh) 一种信息处理方法、装置、电子设备及介质
KR20220104772A (ko) 인터랙션 방법 및 전자기기
JP2016018313A (ja) プログラム、情報処理装置、コミュニケーションシステム及びコミュニケーション方法
JPWO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
EP3739573A1 (en) Information processing device, information processing method, and program
KR101312771B1 (ko) 아바타를 사용한 영상 채팅 장치 및 방법
JP2020136921A (ja) ビデオ通話システム、およびコンピュータプログラム
KR102169523B1 (ko) 디스플레이장치 및 그 제어방법
CN109862434A (zh) 一种美妆通话系统及其方法
JP2019106220A (ja) ヘッドマウントデバイスを介して仮想空間を提供するためにコンピュータで実行されるプログラムおよび方法ならびに情報処理装置
US11368611B2 (en) Control method for camera device, camera device, camera system, and storage medium
JPH09331509A (ja) テレビ電話用蓄積人物映像表示装置
WO2024116529A1 (ja) システム、システムの制御方法
CN109922296A (zh) 一种美妆通话系统及其方法
JP2018097879A (ja) 仮想空間を介して通信するための方法、当該方法をコンピュータに実行させるためのプログラム、および当該プログラムを実行するための情報処理装置
US11928253B2 (en) Virtual space control system, method for controlling the same, and control program
EP4273669A1 (en) Monitoring of facial characteristics
JP7249371B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
US20220222035A1 (en) Information processing apparatus, non-transitory computer readable medium storing program, and information processing method
WO2024190008A1 (ja) 情報処理装置、情報処理システム、情報処理方法、およびプログラム
JP2023015877A (ja) 会議制御装置、会議制御方法及びコンピュータープログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200309

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210420

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210426

R150 Certificate of patent or registration of utility model

Ref document number: 6882797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250