JP2024046881A - 表示装置および表示方法 - Google Patents

表示装置および表示方法 Download PDF

Info

Publication number
JP2024046881A
JP2024046881A JP2022152229A JP2022152229A JP2024046881A JP 2024046881 A JP2024046881 A JP 2024046881A JP 2022152229 A JP2022152229 A JP 2022152229A JP 2022152229 A JP2022152229 A JP 2022152229A JP 2024046881 A JP2024046881 A JP 2024046881A
Authority
JP
Japan
Prior art keywords
unit
user
image
display
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022152229A
Other languages
English (en)
Inventor
弘康 佐藤
健男 坪岡
浩樹 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022152229A priority Critical patent/JP2024046881A/ja
Priority to PCT/JP2023/034279 priority patent/WO2024070888A1/ja
Publication of JP2024046881A publication Critical patent/JP2024046881A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】映像を伴うリモート会話においてユーザ同士の視線を適切に一致させること。【解決手段】表示装置は、画像を表示する表示部と、表示部の表示画面に設けられ、表示画面の方向に位置するユーザの画像を撮像する複数の撮像部と、ユーザと会話する他のユーザの画像を表示部に表示させる表示制御部と、表示部に表示された他のユーザの画像から他のユーザの目を含む顔を検出する顔検出部と、表示部に表示された他のユーザの目の領域の近傍に設けられた撮像部を制御して、ユーザの画像を撮像させる撮像制御部と、他のユーザの目の領域の近傍に設けられた撮像部により撮像されたユーザの画像を送信する通信制御部と、を備える。【選択図】図2

Description

本発明は、表示装置および表示方法に関する。
テレビ会議などの映像を伴うリモート会話を実現する技術が知られている。例えば、特許文献1には、テレビ会議やテレビ会話システムなどにおいて、ユーザの視線を一致させることのできる技術が開示されている。
特開2018-37722号公報
テレビ会議などにおいて、例えば、ユーザがホワイトボードの前などで移動しながら発話を行う場面が想定される。このような場合、特許文献1に記載のような技術では、ユーザ同士の視線の一致を行うことが困難になる可能性がある。
本発明は、映像を伴うリモート会話においてユーザ同士の視線を適切に一致させることのできる表示装置および表示方法を提供することを目的とする。
本発明の表示装置は、画像を表示する表示部と、前記表示部の表示画面に設けられ、前記表示画面の方向に位置するユーザの画像を撮像する複数の撮像部と、前記ユーザと会話する他のユーザの画像を前記表示部に表示させる表示制御部と、前記表示部に表示された前記他のユーザの画像から前記他のユーザの目を含む顔を検出する顔検出部と、前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部を制御して、前記ユーザの画像を撮像させる撮像制御部と、前記他のユーザの目の領域の近傍に設けられた撮像部により撮像された前記ユーザの画像を送信する通信制御部と、を備える。
本発明の表示方法は、表示部に画像を表示させるステップ、前記表示部の表示画面に設けられた複数の撮像部に、前記表示画面の方向に位置するユーザの画像を撮像させるステップと、前記ユーザと会話する他のユーザの画像を前記表示部に表示させるステップと、前記表示部に表示された前記他のユーザの画像から前記他のユーザの目を含む顔を検出するステップと、前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部を制御して、前記ユーザの画像を撮像させるステップと、前記他のユーザの目の領域の近傍に設けられた撮像部により撮像された前記ユーザの画像を送信するステップと、を含む。
本発明によれば、映像を伴うリモート会話においてユーザ同士の視線を適切に一致させることができる。
図1は、第1実施形態に係る表示システムの構成例を示すブロック図である。 図2は、第1実施形態に係る表示装置の構成例を示すブロック図である。 図3は、第1実施形態に係る表示部の構成例を示す図である。 図4は、第1実施形態に係るトリミング処理の一例を説明するための図である。 図5は、第1実施形態に係る表示装置の処理内容の概要を説明するための図である。 図6は、第1実施形態に係る表示装置の処理内容を示すフローチャートである。 図7は、第1実施形態に係る表示部に表示される画像を説明するための図である。 図8は、第1実施形態の第1変形例に係る表示部の構成例を示す図である。 図9は、第1実施形態の第2変形例に係る表示部の構成例を示す図である。 図10は、第2実施形態に係る表示装置の処理内容を示すフローチャートである。 図11は、第3実施形態に係る表示装置の処理内容の概要を説明するための図である。 図12は、第3実施形態に係る表示装置の処理内容を示すフローチャートである。 図13は、第3実施形態に係る表示部に表示される画像を説明するための図である。 図14は、第4実施形態に係る表示装置の構成例を示すブロック図である。 図15は、第4実施形態に係る表示装置の処理内容の概要を説明するための図である。 図16は、第4実施形態に係る表示装置の処理内容を示すフローチャートである。 図17は、第5実施形態に係る表示装置の構成例を示すブロック図である。 図18は、第5実施形態に係るマイク部の配置方法を説明するための図である。 図19は、第5実施形態に係る表示装置の処理内容を示すフローチャートである。
以下、添付図面を参照して、本発明に係る実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[第1実施形態]
(表示システム)
図1を用いて、第1実施形態に係る表示システムの構成例について説明する。図1は、第1実施形態に係る表示システムの構成例を示すブロック図である。
図1に示すように、表示システム1は、表示装置10-1と、表示装置10-2と、を含む。表示装置10-1と、表示装置10-2とは、有線または無線のネットワークNを介して、通信可能に接続されている。ネットワークNは、例えば、インターネット網であるが、これに限定されない。表示装置10-1と、表示装置10-2とは、表示装置10と総称することもある。
表示装置10-1は、ユーザにより使用される装置である。表示装置10-2は、他のユーザにより使用される装置である。ユーザおよび他のユーザは、表示装置10-1および表示装置10-2を使用することにより、映像を伴うリモート会話を行うことができる。本実施形態の表示装置10-1および表示装置10-2は、ユーザおよび他のユーザの視線を互いに一致させることのできる、映像を伴うリモート会話を実現することができる。
(表示装置)
図2を用いて、第1実施形態に係る表示装置の構成例について説明する。図2は、第1実施形態に係る表示装置の構成例を示すブロック図である。
図2に示すように、表示装置10は、入力部20と、撮像部22と、表示部24と、マイク部26と、音声出力部28と、記憶部30と、通信部32と、エンコーダ34と、デコーダ36と、制御部38と、を備える。
入力部20は、表示装置10に対する各種の操作を受け付ける。入力部20は、スイッチ、ボタン、タッチパネルなどで実現される。
撮像部22は、画像を撮像する。撮像部22は、表示部24の表示画面に複数設けられている。撮像部22は、表示部24の表示画面の方向を撮像するように設けられている。撮像部22は、例えば、動画像を撮像する。撮像部22は、例えば、光学素子と、撮像素子とを含むカメラであり得る。
表示部24は、各種の画像を表示する。表示部24は、例えば、他の表示装置から取得した他のユーザの画像を表示する。表示部24は、例えば、大型のLED(Light Emitting Diode)ディスプレイである。
図3は、第1実施形態に係る表示部24の構成例を示す図である。図3に示すように、表示部24には、表示画面の方向を向いて複数の撮像部22が配置されている。複数の撮像部22は、表示部24において、X方向およびY方向のそれぞれに沿って等間隔に配置されている。複数の撮像部22は、例えば、表示部24の表示画面に配置されている複数のLED素子と置き換えて配置されている。複数の撮像部22は、例えば、複数のLED素子のうち、青色のLED素子と置き換えて配置されていることが好ましい。これは、人間の目にとって、青色が輪郭認識に最も寄与しづらい色であるため、青色のLED素子と置き換えても表示部24に表示される画像の認識に与える影響は小さいためである。
マイク部26は、表示装置10の周辺の音声を検出する。マイク部26は、表示装置10を使用しているユーザの音声を検出する。マイク部26は、検出した音声を音声信号に変換する。
音声出力部28は、各種の音声を出力するスピーカである。音声出力部28は、例えば、他の表示装置10から取得された他のユーザの音声を出力する。
記憶部30は、各種の情報を記憶している。記憶部30は、制御部38の演算内容、およびプログラム等の情報を記憶する。記憶部30は、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置、HDD(Hard Disk Drive)等の外部記憶装置とのうち、少なくとも1つ含む。
通信部32は、表示装置10と、外部装置との間の通信を行う通信インターフェースである。通信部32は、例えば、表示装置10と、他の表示装置10との間の通信を実行する。
エンコーダ34は、撮像部22が撮像した画像データを圧縮する。エンコーダ34は、周知の圧縮方式で撮像部22が撮像した画像データを圧縮する。圧縮方式としては、例えば、H.264の規格に基づく圧縮方式が例示されるが、これに限定されない。
デコーダ36は、他の表示装置10から取得された画像データを復号する。デコーダ36は、周知の圧縮方式で圧縮された画像データを周知の方法で復号して、画像データを生成する。
制御部38は、表示装置10の各部を制御する。制御部38は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの情報処理装置と、RAM又はROM(などの記憶装置とを有する。制御部38は、本発明に係る表示装置10の動作を制御するプログラムを実行する。制御部38は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されてもよい。制御部38は、ハードウェアと、ソフトウェアとの組み合わせで実現されてもよい。
制御部38は、撮像制御部50と、画像データ取得部52と、画像処理部54と、顔検出部56と、表示制御部58と、音声出力制御部60と、通信制御部62と、を備える。
撮像制御部50は、撮像部22を制御して、画像を撮像させる。撮像制御部50は、撮像部22を制御して、表示装置10を使用するユーザの画像を撮像させる。撮像制御部50は、撮像部22が撮像した画像に関する画像データを撮像部22から取得する。
撮像制御部50は、例えば、顔検出部56により検出された、表示部24に表示された他のユーザの目の領域の近傍に設けられた撮像部22を制御して、ユーザの画像を撮像させる。
画像データ取得部52は、通信部32を介して、他の表示装置10が撮像した他のユーザの画像データを他の表示装置10から取得する。画像データ取得部52は、例えば、他のユーザの音声データとともに他のユーザの画像データを他の表示装置10から取得してもよい。
画像処理部54は、エンコーダ34を制御して、撮像制御部50が撮像部22から取得した画像データを圧縮させる。画像処理部54は、デコーダ36を制御して、通信部32を介して他の表示装置10から取得した圧縮された画像データを復号させる。
画像処理部54は、例えば、撮像制御部50が撮像部22から取得した画像データのうち、所定の範囲を切り出すトリミング処理を実行してもよい。この場合、画像処理部54は、撮像部22が設けられている位置に応じて、トリミング処理の範囲を決定してよい。画像処理部54は、例えば、撮像部22が設けられている位置に応じて、各撮像部22が同様の画像を撮像できるようにトリミング処理の範囲を決定する。
図4は、第1実施形態に係るトリミング処理の一例を説明するための図である。図4において、範囲R1は、撮像部22の撮像範囲を示す。図4に示すように、範囲R1は、X方向において、表示部24のX方向よりも広い。X方向において、表示部24の外側は表示装置10を使用するユーザが存在する可能性の低い不要な領域であると想定され得る。そのため、画像処理部54は、画像データに対して不要な領域と想定される領域を削除するようなトリミング処理を実行する。例えば、範囲R1のX方向を表示部24のX方向に合わせるように画像データに対してトリミング処理を実行し、範囲R2の画像データを生成してもよい。この場合、画像処理部54は、例えば、エンコーダ34を制御して、範囲R2の画像データを圧縮させてもよい。なお、画像処理部54が画像データに対してトリミング処理を実行する方法は、図4に限定されず、その他の方法を用いてもよい。
顔検出部56は、表示部24に表示された他のユーザの画像に対して認識処理を実行し、他のユーザの顔を検出する。画像から人の顔を検出する方法は、周知の方法を使用可能であり、限定されない。
表示制御部58は、表示部24を制御して、各種の映像を表示部24に表示させる。表示制御部58は、例えば、画像データ取得部52が他の表示装置10から取得した画像データを表示部24に表示させる。表示制御部58は、例えば、デコーダ36により復号された画像データを表示部24に表示させる。
音声出力制御部60は、音声出力部28を制御して、各種の音声を音声出力部28に出力させる。音声出力制御部60は、音声出力部28を制御して、他のユーザの音声を音声出力制御部60から取得する。
通信制御部62は、通信部32を制御して、表示装置10と、外部装置との間の通信を実行する。通信制御部62は、通信部32を制御して、表示装置10と、他の表示装置10との間の通信を実行する。
通信制御部62は、撮像制御部50が撮像部22から取得した画像データを他の表示装置10に送信する。通信制御部62は、例えば、エンコーダ34により圧縮された画像データを他の表示装置10に送信する。
通信制御部62は、他の表示装置10から画像データを受信する。通信制御部62は、例えば、他の表示装置10から圧縮された画像データを受信する。
(処理内容)
図5と、図6とを用いて、第1実施形態に係る表示装置の処理内容について説明する。図5は、第1実施形態に係る表示装置の処理内容の概要を説明するための図である。図6は、第1実施形態に係る表示装置の処理内容を示すフローチャートである。
図5に示すように、例えば、表示装置10-1はユーザU1により使用され、表示装置10-2はユーザU2により使用されているものとする。表示装置10-1は、撮像部22によりユーザU1を撮像し、ユーザU1を含む画像データを表示装置10-2に送信する。表示装置10-2は、撮像部22によりユーザU2を撮像し、ユーザU2を含む画像データを表示装置10-1に送信する。表示装置10-1は、表示部24にユーザU2の画像であるユーザ画像UI2を表示する。表示装置10-2は、表示部24にユーザU1の画像であるユーザ画像UI1を表示する。表示装置10-1は、ユーザU2がユーザ画像UI1と視線を一致させることができるように、ユーザU1を撮像する。表示装置10-2は、ユーザU1がユーザ画像UI2と一致させることができるように、ユーザU2を撮像する。
表示装置10-1と、表示装置10-2との処理は同じなので、以下では、表示装置10-2からユーザU2の画像データを受信した表示装置10-1が実行する処理を例に説明する。
図6に示すように、まず、撮像制御部50は、複数の撮像部22のうち、初期設定の撮像部22を制御して、ユーザU1の撮像を開始する(ステップS10)。初期設定の撮像部22は、例えば、表示部24の表示画面の中央付近に設けられている。初期設定の撮像部22は、予め任意に設定されてよい。そして、ステップS12に進む。
通信制御部62は、初期設定の撮像部22が撮像した画像データを表示装置10-2に送信する(ステップS12)。具体的には、通信制御部62は、エンコーダ34により圧縮された画像データを表示装置10-2に送信する。そして、ステップS14に進む。
画像データ取得部52は、表示装置10-2から画像データを取得する(ステップS14)。そして、ステップS16にする。
表示制御部58は、表示部24を制御して、画像データ取得部52が取得した画像データに関する画像を表示させる(ステップS16)。具体的には、表示制御部58は、デコーダ36により復号された画像を表示部24に表示させる。図7は、第1実施形態に係る表示部24に表示される画像を説明するための図である。図7に示すように、表示制御部58は、ユーザU2の画像であるユーザ画像UI2を表示部24に表示させる。そして、ステップS18に進む。
顔検出部56は、顔検出処理を実行する(ステップS18)。具体的には、顔検出部56は、図7に示すユーザ画像UI2に対して顔検出処理を実行して、ユーザ画像UI2の顔を検出する。そして、ステップS20に進む。
顔検出部56は、顔が検出されたか否かを判定する(ステップS20)。顔が検出されたと判定された場合(ステップS20;Yes)、ステップS22に進む。顔が検出されたと判定されない場合(ステップS20;No)、ステップS30に進む。
ステップS20でYesと判定された場合、顔検出部56は、検出された顔の位置座標を算出する(ステップS22)。具体的には、顔検出部56は、表示部24に表示された、ユーザ画像UI2の顔領域の表示部24における位置座標を算出する。そして、ステップS24に進む。
撮像制御部50は、顔検出部56により算出された位置座標に基づいて、ユーザU1を撮像する撮像部22を選択する(ステップS24)。具体的には、撮像制御部50は、表示部24に表示された、ユーザ画像UI2の顔の目の近傍に設けられている撮像部22を選択する。図7に示す例でいえば、撮像制御部50は、ユーザ画像UI2の顔領域内に設けられた撮像部22aを、ユーザU1を撮像する撮像部として選択する。撮像部22aでユーザU1を撮像することにより、表示装置10-2は、ユーザU2と視線が一致するようなユーザ画像UI1を表示することができるようになる。そして、ステップS26に進む。
撮像制御部50は、選択した撮像部22で撮像を開始する(ステップS26)。図7に示す例でいえば、撮像制御部50は、撮像部22aを制御して、ユーザU1の撮像を開始する。そして、ステップS28に進む。
通信制御部62は、撮像部22aが撮像した画像データを表示装置10-2に送信する(ステップS28)。具体的には、通信制御部62は、エンコーダ34により圧縮された画像データを表示装置10-2に送信する。そして、ステップS30に進む。
ステップS20でNoと判定された場合またはステップS28の後、制御部38は、処理を終了するか否かを判定する(ステップS30)。具体的には、制御部38は、ユーザU1と、ユーザU2とのリモート会話が終了した場合などに、処理を終了すると判定する。処理を終了すると判定された場合(ステップS30;Yes)、図6の処理は終了する。処理を終了すると判定されない場合(ステップS30;No)、ステップS12に進む。
すなわち、ステップS30でNoと判定された場合、ステップS12からステップS28の処理が繰り返される。そのため、表示部24においてユーザ画像UI2が移動すると、ユーザ画像UI2の移動に伴い、ユーザU1を撮像する撮像部22が切り替わる。これにより、表示部24においてユーザ画像UI2が移動した場合であっても、ユーザU2と視線が一致するようなユーザU1の画像を撮像することができる。
[第1実施形態の変形例]
第1実施形態では、表示部24には複数の撮像部22が等間隔で配置されているものとして説明したが、本発明はこれに限定されない、
図8を用いて、第1実施形態の第1変形例に係る表示部の構成例について説明する。図8は、第1実施形態の第1変形例に係る表示部の構成例を示す図である。
図8に示すように、表示部24Aは、複数のカメラ群40を含む。カメラ群40は、表示部24Aにおいて、X方向およびY方向のそれぞれに沿って等間隔に配置されている。カメラ群40は、複数の撮像部22を含む。図8に示す例では、カメラ群40は、密に配置された4つの撮像部22を含むが、これに限定されない。複数の撮像部22を密に配置したカメラ群40を配置することにより、画像データの輝度を向上させることができる。
図9を用いて、第1実施形態の第2変形例に係る表示部の構成例について説明する。図9は、第1実施形態の第2変形例に係る表示部の構成例を示す図である。
図9に示すように、表示部24Bは、複数の撮像部22を含む。表示部24Bにおいて、X方向およびY方向の中央部付近には、その他の場所に比べて撮像部22が密に配置されている。これは、表示部24Bを使用するユーザは、表示部24Bの中央部付近にいることが多いことが想定されるためである。撮像部22をX方向およびY方向の中央部付近に設けることにより、ユーザを適切に撮像することができるようになる。
[第2実施形態]
第2実施形態について説明する。第2実施形態では、ユーザを撮像した画像データの不要の部分を除去するトリミング処理を実行する。第2実施形態に係る表示装置の構成は、図2に示す表示装置の構成と同じなので、説明を省略する。
(処理内容)
図10を用いて、第2実施形態に係る表示装置の処理内容について説明する。図10は、第2実施形態に係る表示装置の処理内容を示すフローチャートである。
ステップS40からステップS56の処理は、それぞれ、図6に示すステップS10からステップS26の処理と同じなので、説明を省略する。
画像処理部54は、画像データに対してトリミング処理を実行する(ステップS58)。具体的には、画像処理部54は、画像データに対して不要な領域と想定される領域を削除するようなトリミング処理を実行する。そして、ステップS60に進む。
ステップS60およびステップS62の処理は、それぞれ、図6に示すステップS28およびステップS30の処理と同じなので、説明を省略する。
上述のとおり、第2実施形態は、ユーザU1を撮像した画像データの不要な部分をトリミングすることができる。これにより、第2実施形態は、ユーザU1と表示装置10-1との位置関係が考慮された適切な画像データを表示装置10-2に送信することができる。ユーザU1を撮像する撮像部22が切り替わっても、ユーザU2が見るユーザU1の画像の範囲の変動や、ユーザU2が見る画像におけるユーザU1の位置の変動が抑えられることによって、ユーザU2に与える違和感を低減することができる。
[第3実施形態]
第3実施形態について説明する。第3実施形態では、表示部24に複数の人物が表示されている場合に、画像に表示されている人物を特定し、ユーザを撮像するカメラを選択する処理を実行する。
(処理内容)
図11と、図12とを用いて、第3実施形態に係る表示装置の処理内容について説明する。図11は、第3実施形態に係る表示装置の処理内容の概要を説明するための図である。図12は、第3実施形態に係る表示装置の処理内容を示すフローチャートである。
図11に示すように、例えば、表示装置10-1はユーザU1およびユーザU4により使用され、表示装置10-2はユーザU2およびユーザU3により使用されているものとする。表示装置10-1は、撮像部22によりユーザU1およびユーザU4を撮像し、ユーザU1およびユーザU4を含む画像データを表示装置10-2に送信する。表示装置10-2は、撮像部22によりユーザU2およびユーザU3を撮像し、ユーザU2およびユーザU3を含む画像データを表示装置10-1に送信する。表示装置10-1は、表示部24にユーザU2の画像であるユーザ画像UI2と、ユーザU3の画像であるユーザ画像UI3とを表示する。表示装置10-2は、表示部24にユーザU1の画像であるユーザ画像UI1と、ユーザU4の画像であるユーザ画像UI4とを表示する。表示装置10-1は、ユーザU2およびユーザU3がユーザ画像UI1およびユーザ画像UI4と視線を一致させることができるように、ユーザU1およびユーザU4を撮像する。表示装置10-2は、ユーザU1およびユーザU4がユーザ画像UI2およびユーザ画像UI3と視線を一致させることができるように、ユーザU2およびユーザU3を撮像する。
表示装置10-1と、表示装置10-2との処理は同じなので、以下では、表示装置10-2からユーザU2およびユーザU3の画像データを受信した表示装置10-1が実行する処理を例に説明する。
図12において、ステップS70からステップS74の処理は、それぞれ、図6に示すステップS10からステップS14の処理と同じなので、説明を省略する。
表示制御部58は、表示部24を制御して、画像データ取得部52が取得した画像データに関する画像を表示させる(ステップS76)。具体的には、表示制御部58は、デコーダ36により復号された画像データに関する画像を表示部24に表示させる。図13は、第3実施形態に係る表示部24に表示される画像を説明するための図である。図13に示すように、表示制御部58は、ユーザU2の画像であるユーザ画像UI2と、ユーザU3の画像であるユーザ画像UI3とを表示部24に表示させる。そして、ステップS80に進む。
顔検出部56は、顔検出処理を実行する(ステップS78)。具体的には、顔検出部56は、図13に示すユーザ画像UI2およびユーザ画像UI3に対して顔検出処理を実行して、ユーザ画像UI2およびユーザ画像UI3の顔を検出する。そして、ステップS80に進む。
顔検出部56は、顔が検出されたか否かを判定する(ステップS80)。顔が検出されたと判定された場合(ステップS80;Yes)、ステップS82に進む。顔が検出されたと判定されない場合(ステップS80;No)、ステップS102に進む。
ステップS80でYesと判定された場合、顔検出部56は、顔が複数検出されたか否かを判定する(ステップS82)。顔が複数検出されたと判定された場合(ステップS82;Yes)、ステップS84に進む。顔が複数検出されたと判定されない場合(ステップS82;No)、ステップS94に進む。
ステップS82でYesと判定された場合、顔検出部56は、発話者を特定する(ステップS84)。具体的には、図13に示す例でいえば、顔検出部56は、ユーザ画像UI2とユーザ画像UI3とに含まれる口の動きを検出し、発話中の口の動きを検出した場合に、その動きが検出されたユーザ画像のユーザを発話者として特定する。ここで、顔検出部56は、発話中の口の動きが検出されなかった場合には、直前に発話者として判定されたユーザを現在の発話者として特定する。そして、ステップS86に進む。
顔検出部56は、発話者の顔の位置座標を算出する(ステップS86)。具体的には、顔検出部56は、表示部24に表示された、ユーザ画像UI2またはユーザ画像UI3の顔領域の表示部24における位置座標を算出する。そして、ステップS88に進む。
撮像制御部50は、顔検出部56により算出された発話者の顔の位置座標に基づいて、ユーザU1およびユーザU4を撮像する撮像部22を選択する(ステップS88)。具体的には、撮像制御部50は、表示部24に表示された、顔検出部56が発話者として特定したユーザ画像UI2またはユーザ画像UI3の顔の目の近傍に設けられている撮像部22を選択する。図13に示す例でいえば、撮像制御部50は、ユーザ画像UI2の顔領域内に設けられた撮像部22a、またはユーザ画像UI3の顔領域内に設けられた撮像部22bをユーザU1およびユーザU4を撮像する撮像部として選択する。撮像部22aまたは撮像部22bでユーザU1およびユーザU4を撮像することにより、表示装置10-2は、ユーザU2およびユーザU3と視線が一致するようなユーザ画像UI1およびユーザ画像UI4を表示することができるようになる。そして、ステップS90に進む。
撮像制御部50は、選択した撮像部で撮像を開始する(ステップS90)。図13に示す例でいえば、撮像制御部50は、撮像部22aまたは撮像部22bを制御して、ユーザU1およびユーザU4の撮像を開始する。そして、ステップS92に進む。
通信制御部62は、撮像部22aまたは撮像部22bが撮像した画像データを表示装置10-2に送信する(ステップS92)。具体的には、通信制御部62は、エンコーダ34により圧縮された画像データを表示装置10-2に送信する。そして、ステップS102に進む。
ステップS82でNoと判定された場合、顔検出部56は、検出された顔の位置座標を算出する(ステップS94)。ここでは、ステップS80において、図13に示す例でいえば、ユーザ画像UI2およびユーザ画像UI3のうち、ユーザ画像UI2の顔が検出されたものとする。顔検出部56は、表示部24に表示された、ユーザ画像UI2の顔領域の表示部24における位置座標を算出する。そして、ステップS96に進む。
ステップS96からステップS100の処理は、それぞれ、図6に示すステップS24からステップS28の処理と同じなので、説明を省略する。
ステップS80でNoと判定された場合、制御部38は、処理を終了するか否かを判定する(ステップS102)。具体的には、制御部38は、ユーザU1およびユーザU4と、ユーザU2およびユーザU3とのリモート会話が終了した場合などに、処理を終了すると判定する。処理を終了すると判定された場合(ステップS102;Yes)、図12の処理は終了する。処理を終了すると判定されない場合(ステップS102;No)、ステップS72に進む。
すなわち、ステップS102でNoと判定された場合、ステップS72からステップS92の処理が繰り返される。そのため、表示部24においてユーザ画像UI2およびユーザ画像UI3のうち発話者が変わった場合に、ユーザU1およびユーザU4を撮像する撮像部が切り替わる。これにより、表示部24においてユーザ画像UI2およびユーザ画像UI3のうち発話者が変更した場合であっても、発話者と視線が一致するようなユーザU1およびユーザU4の画像を撮像することができる。
[第4実施形態]
第4実施形態について説明する。第4実施形態は、表示部に設けられた各撮像部が撮像した画像データの輝度を解析する。第4実施形態は、各撮像部が撮像した画像データ間の輝度差が所定以上である場合には、各撮像部が撮像する画像データ間の輝度差が所定以下となるような処理を実行する。
図14を用いて、第4実施形態に係る表示装置の構成例について説明する。図14は、第4実施形態に係る表示装置の構成例を示すブロック図である。
図14に示すように、表示装置10Aは、制御部38Aが画像解析部64を備える点で、図2に示す表示装置10と異なる。
画像解析部64は、撮像制御部50が撮像部22から取得した画像データに対して画像解析処理を実行し、画像データの輝度を検出する。画像データの輝度を検出する方法は、周知の方法を使用可能であり、限定されない。
(処理内容)
図15と、図16とを用いて、第4実施形態に係る表示装置の処理内容について説明する。図15は、第4実施形態に係る表示装置の処理内容の概要を説明するための図である。図16は、第4実施形態に係る表示装置の処理内容を示すフローチャートである。
図15に示すように、表示部24に表示されているユーザU2の画像であるユーザ画像UI2が矢印の方向に移動したとする。この場合、ユーザ画像UI2の移動に伴い、ユーザU1を撮像する撮像部は、撮像部22-1、撮像部22-2、撮像部22-3、撮像部22-4、および撮像部22-5と変化する。この際、撮像部22-1から撮像部22-5が撮像した画像データ間の輝度に所定以上の差があると、撮像部が切り替わった際にユーザU1の画像データが表示される他の表示装置10Aを視聴する他のユーザに違和感を与えることが想定される。また、各撮像部22はユーザU1を追従して撮像するため、例えば、ユーザU1が移動に伴い背景の明るさが変化すると、画像データの輝度値が変化し得る。移動に伴い背景の明るさが変化する状況は、例えば、ユーザU1が屋外では日向から日陰に移動したり、屋内では照明が強い場所から弱い場所に移動したりする場合が例示される。
本実施形態では、ユーザU1の画像データが表示される他の表示装置10Aを視聴する他のユーザに違和感を与えないように、撮像部22-1から撮像部22-2が撮像する画像データの輝度を調整する処理を実行する。
図16に示すように、まず、撮像制御部50は、撮像部22から画像データを取得する(ステップS110)。図15に示す例でいえば、撮像制御部50は、撮像部22-1から撮像部22-5が撮像した画像データを取得する。そして、ステップS112に進む。
画像解析部64は、撮像制御部50が取得した画像データに対して画像解析処理を実行する(ステップS112)。図15に示す例でいえば、画像解析部64は、撮像制御部50が撮像部22-1から撮像部22-5よりそれぞれ取得した画像データに対して画像解析処理を実行する。そして、ステップS114に進む。
画像解析部64は、画像データ間の輝度差が閾値以上であるか否かを判定する(ステップS114)。図15に示す例でいえば、撮像部22-1から撮像部22-5よりそれぞれ取得した画像データ間の輝度差が閾値以上であるか否かを判定する。輝度差が閾値以上であるとは、例えば、撮像部22-1から撮像部22-5よりそれぞれ取得した画像データに関する画像を続けて視聴したユーザに、輝度の変化による違和感を与える程度の輝度差をいう。輝度差が閾値以上と判定された場合(ステップS114;Yes)、ステップS116に進む。輝度差が閾値以上と判定されない場合(ステップS114;No)、ステップS118に進む。
ステップS114でYesと判定された場合、撮像制御部50は、各画像データに基づいて、撮像部22の画質を設定する(ステップS116)。図15に示す例でいえば、撮像制御部50は、撮像部22-1から撮像部22-5よりそれぞれ取得された各画像データに基づいて、撮像部22-1から撮像部22-5の各々のゲインを調整する。例えば、撮像制御部50は、撮像部22-1から撮像部22-5が撮像した各画像データの輝度が同じになるように、撮像部22-1から撮像部22-5の各々のゲインを調整する。例えば、撮像制御部50は、撮像部22-1から撮像部22-5のうち、隣接する撮像部22が撮像する画像データの輝度値の差が所定以下となるように、撮像部22-1から撮像部22-5の各々のゲインを調整してもよい。例えば、撮像制御部50は、撮像部22-1から撮像部22-5よりそれぞれ取得した画像データの輝度値が順になだらかに変化するように撮像部22-1から撮像部22-5の各ゲインを調整するようにしてもよい。そして、ステップS120に進む。
ステップS114でNoと判定された場合、撮像制御部50は、撮像部22が切り替わったときに、表示部24に表示される画像の画質が変化しないように各撮像部22を同一の設定にする(ステップS118)。図15に示す例でいえば、撮像制御部50は、撮像部22-1から撮像部22-5の各々のゲインを同一の設定にする。そして、ステップS120に進む。
制御部38Aは、処理を終了するか否かを判定する(ステップS120)。例えば、制御部38Aは、ユーザU1と、ユーザU2とのリモート会話が終了した場合に、処理を終了すると判定する。処理を終了すると判定された場合(ステップS120;Yes)、図16の処理を終了する。処理を終了すると判定されない場合(ステップS120;No)、ステップS110に進む。
制御部38Aは、図16に示す処理を、ユーザU1とユーザU2とがリモート会話をしている間において、常時行っていてもよいし、所定間隔(例えば、1分から10分)ごとに実行してもよい。
上述のとおり、第4実施形態は、常時または所定間隔ごとにユーザU1を撮像する各撮像部のゲインを調整する。これにより、第4実施形態は、ユーザU1の画像データを視聴するユーザU2などに違和感を与えないユーザU1の画像を撮像することができる。
[第5実施形態]
第5実施形態について説明する。第5実施形態は、撮像部が撮像したユーザの音声を取得して、取得した音声を解析し音声が発せられた方向を特定する。第5実施形態は、撮像したユーザの画像と、特定された音声が発せられた方向とに基づいて、発話者を特定する処理を実行する。
(表示装置)
図17を用いて、第5実施形態に係る表示装置の構成例について説明する。図17は、第5実施形態に係る表示装置の構成例を示すブロック図である。
図17に示すように、表示装置10Bは、制御部38Bは、音声データ取得部66と、方向特定部68と、発話者特定部70とを備える点で、図2に示す表示装置10と異なる。
図18は、第5実施形態に係るマイク部26の配置方法を説明するための図である。図18に示すように、第5実施形態においては、例えば、複数のマイク部26が表示部24の表示画面と同一の平面内に設けられている。図18に示す例では、5個のマイク部26が表示部24の下部に設けられている。マイク部26は、表示部24の表示画面と同一平面内に設けられていれば、設けられている数と位置は限定されない。複数のマイク部26は、例えば、ユーザU1が発した音声を検出する。
第5実施形態では、マスクなどで口が覆われているため画像のみではユーザU2が発話者であるか否かを特定できない場合であっても、ユーザU2が発話者であるか否かを判定する。具体的には、表示装置10Bは、他の表示装置10Bを使用するユーザU2の画像であるユーザ画像UI2と、ユーザU2の音声に関する音声データとに基づいて、ユーザU2が発話者であるか否かを特定する。
音声データ取得部66は、他の表示装置10Bのマイク部26が検出した音声に関する音声データを他の表示装置10Bから取得する。音声データ取得部66は、例えば、他の表示装置10Bが取得したユーザU2の音声に関する音声データを取得する。
方向特定部68は、音声データ取得部66が検出した音声データに基づいて、音声データに関する音声が発せられた方向を特定する。方向特定部68は、例えば、音声データ取得部66が取得した発話者の音声に関する音声データに基づいて、音声を発した発話者の方向を特定する。本実施形態では、マイク部26は表示部24の同一平面に設けられているので、方向特定部68は、表示部24に対する方向を特定する。
発話者特定部70は、音声を発した発話者を特定する。発話者特定部70は、画像データ取得部52が他の表示装置10Bから取得した画像データと、方向特定部68による方向の特定結果に基づいて、発話者を特定する。具体的には、発話者特定部70は、画像データ取得部52がユーザ画像UI2の方向と、方向特定部68が特定した方向とが一致した場合に、ユーザU2を発話者として特定する。
(処理内容)
図19を用いて、第5実施形態に係る表示装置の処理内容について説明する。図19は、第5実施形態に係る表示装置の処理内容を示すフローチャートである。
ステップS130からステップS136の処理は、それぞれ、図6に示すステップS10からステップS16の処理と同じなので、説明を省略する。
音声データ取得部66は、他の表示装置10Bから音声データを取得する(ステップS138)。そして、ステップS140に進む。
ステップS140およびステップS142の処理は、それぞれ、図6に示すステップS18およびステップS20の処理と同じなので、説明を省略する。
ステップS142でYesと判定された場合、方向特定部68は、音声データ取得部66が取得した音声データに対して音声解析処理を実行し、音声が発せられた方向を特定する(ステップS144)。そして、ステップS146に進む。
発話者特定部146は、発話者が特定できたか否かを判定する(ステップS146)。発話者が特定できたと判定された場合(ステップS146;Yes)、ステップS148に進む。発話者が特定できたと判定されない場合(ステップS146;No)、ステップS156に進む。
ステップS148からステップS164の処理は、それぞれ、図12に示すステップS86からステップS102の処理と同一なので、説明を省略する。
本実施形態の説明においては、表示装置が他の表示装置から取得した音声データに基づいて音声が発せられた方向を特定したが、他の表示装置がマイク部26の検出した音声に基づいて音声が発せられた方向を特定してもよい。この場合、表示装置は他の表示装置から音声が発せられた方向に関するデータを取得し、発話者特定部70が、ユーザ画像UI2の方向と、取得したデータが示す音声が発せられた方向とが一致した場合に、ユーザU2を発話者として特定する。
上述のとおり、第5実施形態は、画像から発話者を特定できない場合であっても、画像と音声とに基づいて、発話者を特定することができる。これにより、第5実施形態は、適切にユーザU2と視線が一致するようにユーザU1の画像を撮像することができる。
図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。なお、この分散・統合による構成は動的に行われてもよい。
以上、本発明の実施形態を説明したが、これら実施形態の内容により本発明が限定されるものではない。本発明の実施形態では、LEDディスプレイを表示装置として説明したが、表示装置はこれに限らす、例えばプロジェクタ(投射装置)を表示装置とし、投影されるスクリーン上またはスクリーンの背後に複数の撮像部を配置して構成するようにしてもよい。また、液晶ディスプレイや有機EL(Electro-Luminescence)のように一部の表示素子を撮像部と置き換えられないような表示装置の場合は、表示部の前面に複数の撮像部を配置するようにしてもよい。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
1 表示システム
10 表示装置
20 入力部
22 撮像部
24 表示部
26 マイク部
28 音声出力部
30 記憶部
32 通信部
34 エンコーダ
36 デコーダ
38 制御部
50 撮像制御部
52 画像データ取得部
54 画像処理部
56 顔検出部
58 表示制御部
60 音声出力制御部
62 通信制御部
64 画像解析部
66 音声データ取得部
68 方向特定部
70 発話者特定部

Claims (5)

  1. 画像を表示する表示部と、
    前記表示部の表示画面に設けられ、前記表示画面の方向に位置するユーザの画像を撮像する複数の撮像部と、
    前記ユーザと会話する他のユーザの画像を前記表示部に表示させる表示制御部と、
    前記表示部に表示された前記他のユーザの画像から前記他のユーザの目を含む顔を検出する顔検出部と、
    前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部を制御して、前記ユーザの画像を撮像させる撮像制御部と、
    前記他のユーザの目の領域の近傍に設けられた撮像部により撮像された前記ユーザの画像を送信する通信制御部と、
    を備える、表示装置。
  2. 前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部により撮像された前記ユーザの画像のうち、前記ユーザを撮像した前記撮像部が設けられている位置に応じた範囲をトリミングする画像処理部を備える、
    請求項1に記載の表示装置。
  3. 前記表示部に設けられた複数の前記撮像部の各々により撮像された前記画像の輝度を解析する画像解析部を備え、
    前記撮像制御部は、前記画像解析部による結果に応じて、複数の前記撮像部の各々のゲインを調整する、
    請求項1または2に記載の表示装置。
  4. 前記表示部の表示画面の近傍に設けられて少なくとも1つのマイクと、
    前記マイクが検出した前記ユーザの音声に関する音声データを取得する音声データ取得部と、
    前記音声データ取得部が前記音声データに基づいて、前記ユーザの音声が発せられた方向を特定する方向特定部と、
    前記撮像部により撮像された前記ユーザの方向が前記方向特定部により特定された方向と一致する場合に、前記ユーザを発話者と特定する発話者特定部と、を備え、
    前記撮像制御部は、前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部を制御して、前記発話者特定部により特定された前記発話者を撮像させる、
    請求項1または2に記載の表示装置。
  5. 表示部に画像を表示させるステップ、
    前記表示部の表示画面に設けられた複数の撮像部に、前記表示画面の方向に位置するユーザの画像を撮像させるステップと、
    前記ユーザと会話する他のユーザの画像を前記表示部に表示させるステップと、
    前記表示部に表示された前記他のユーザの画像から前記他のユーザの目を含む顔を検出するステップと、
    前記表示部に表示された前記他のユーザの目の領域の近傍に設けられた前記撮像部を制御して、前記ユーザの画像を撮像させるステップと、
    前記他のユーザの目の領域の近傍に設けられた撮像部により撮像された前記ユーザの画像を送信するステップと、
    を含む、表示方法。
JP2022152229A 2022-09-26 2022-09-26 表示装置および表示方法 Pending JP2024046881A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022152229A JP2024046881A (ja) 2022-09-26 2022-09-26 表示装置および表示方法
PCT/JP2023/034279 WO2024070888A1 (ja) 2022-09-26 2023-09-21 表示装置および表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022152229A JP2024046881A (ja) 2022-09-26 2022-09-26 表示装置および表示方法

Publications (1)

Publication Number Publication Date
JP2024046881A true JP2024046881A (ja) 2024-04-05

Family

ID=90477685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022152229A Pending JP2024046881A (ja) 2022-09-26 2022-09-26 表示装置および表示方法

Country Status (2)

Country Link
JP (1) JP2024046881A (ja)
WO (1) WO2024070888A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384760B2 (en) * 2009-10-29 2013-02-26 Hewlett-Packard Development Company, L.P. Systems for establishing eye contact through a display
US10389976B2 (en) * 2016-02-16 2019-08-20 Sony Corporation Information processing apparatus, information processing system, and information processing method

Also Published As

Publication number Publication date
WO2024070888A1 (ja) 2024-04-04

Similar Documents

Publication Publication Date Title
US10437069B2 (en) Display control device, display control method, and computer program
US11009945B2 (en) Method for operating an eye tracking device for multi-user eye tracking and eye tracking device
US8159519B2 (en) Personal controls for personal video communications
US8063929B2 (en) Managing scene transitions for video communication
US8253770B2 (en) Residential video communication system
US20080297589A1 (en) Eye gazing imaging for video communications
US11082771B2 (en) Directed audio system for audio privacy and audio stream customization
US20100321467A1 (en) Method and system of providing lighting for videoconferencing
WO2011118815A1 (ja) 表示装置、テレビジョン受像機、表示装置の制御方法、プログラム及び記録媒体
CN105960801B (zh) 增强视频会议
US11405584B1 (en) Smart audio muting in a videoconferencing system
KR20110052678A (ko) 주변 뷰잉 수단을 구비한 통신 디바이스
US20170186431A1 (en) Speech to Text Prosthetic Hearing Aid
JP2008011457A (ja) カメラ
WO2018158852A1 (ja) 通話システム及びコミュニケーションシステム
CN114780047A (zh) 信息处理装置、信息处理方法以及计算机可读介质
WO2024070888A1 (ja) 表示装置および表示方法
JPH11234640A (ja) 通信制御システム
US20220264156A1 (en) Context dependent focus in a video feed
JP6544209B2 (ja) 情報処理装置、会議システム、情報処理方法およびプログラム
JP6550951B2 (ja) 端末、ビデオ会議システム、及びプログラム
JP2019161483A (ja) 携帯端末および画像切り出し方法
JP2017103059A (ja) 照明システム及びプログラム
JP2012182766A (ja) 会議システム、会議システムの制御方法、及びプログラム
US20230421898A1 (en) Autonomous video conferencing system with virtual director assistance