JP6950685B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6950685B2
JP6950685B2 JP2018518079A JP2018518079A JP6950685B2 JP 6950685 B2 JP6950685 B2 JP 6950685B2 JP 2018518079 A JP2018518079 A JP 2018518079A JP 2018518079 A JP2018518079 A JP 2018518079A JP 6950685 B2 JP6950685 B2 JP 6950685B2
Authority
JP
Japan
Prior art keywords
user
information processing
image
communication
display unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018518079A
Other languages
English (en)
Other versions
JPWO2017199483A1 (ja
Inventor
祐介 阪井
祐介 阪井
大輔 三木
大輔 三木
厚史 泉原
厚史 泉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2017199483A1 publication Critical patent/JPWO2017199483A1/ja
Application granted granted Critical
Publication of JP6950685B2 publication Critical patent/JP6950685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/567Multimedia conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Geometry (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Image Processing (AREA)

Description

本開示は、情報処理装置、情報処理方法、およびプログラムに関する。
近年の通信技術の発達により、遠隔地を映像と音声で結ぶテレビ会議システムが提案されている。具体的には、例えば表示装置、カメラ、マイク、およびスピーカが各場所に設けられ、一方の場所で取得された映像および音声がリアルタイムで他方の場所に送信され、表示装置およびスピーカから出力される。
テレビ会議等の対面会話では、視聴者と表示画面上の相手方との視線が合わないと臨場感等が失われ会議等の効率が落ちる。そのため、視線一致を実現したカメラ一体型ディスプレイ装置が種々に提案されている。例えば下記特許文献1では、ハーフミラー等を用いて画面の後方にカメラを設置する視線一致ビデオ会議システムが記載されている。また、下記特許文献2では、表示画面の中央にカメラを固定する方式が記載されている。
特開平6−245209号公報 特開平8−163416号公報
しかしながら、上述した特許文献1に記載の技術では、構成上、システム全体が大型化してしまう問題があった。また、上述した特許文献2に記載の技術では、画面上にカメラが重なるため、不具合があった。
そこで、本開示では、遠隔地をつなぐ映像コミュニケーションにおいて相手の視線をより自然に把握させることが可能な情報処理装置、情報処理方法、およびプログラムを提案する。
本開示によれば、通信先装置からビデオ通信相手の撮像画像を受信する受信部と、前記受信した撮像画像を表示部に表示するよう制御する制御部と、を備え、前記制御部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する、情報処理装置を提案する。
本開示によれば、プロセッサが、通信先装置からビデオ通信相手の撮像画像を受信することと、前記受信した撮像画像を表示部に表示するよう制御することと、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示すること、を含む、情報処理方法を提案する。
本開示によれば、コンピュータを、通信先装置からビデオ通信相手の撮像画像を受信する受信部と、前記受信した撮像画像を表示部に表示するよう制御する制御部と、として機能させ、前記制御部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する、プログラムを提案する。
以上説明したように本開示によれば、遠隔地をつなぐ映像コミュニケーションにおいて相手の視線をより自然に把握させることが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態による情報処理システムの概要について説明する図である。 遠隔地をつなぐ映像コミュニケーションにおける視線ずれについて説明する図である。 本実施形態による情報処理装置の構成の一例を示すブロック図である。 図3に示す情報処理装置における制御部の機能構成の一例を示すブロック図である。 本実施形態による注視対象の判断について説明する図である。 本実施形態による動作処理を示すシーケンス図である。 図6に示す動作処理に続く動作処理を示すシーケンス図である。 本開示の他の実施形態による情報処理システムの概要について説明する図である。 本開示の他の実施形態による動作処理を示すシーケンス図である。 本開示の他の実施形態による注視対象の判断について説明する図である。 本開示の他の実施形態による視線ステータスの管理の一例について説明する図である。 本開示の他の実施形態による情報処理装置における画面表示例を示す図である。 本開示の他の実施形態による情報処理装置における画面表示例を示す図である。 本開示の他の実施形態による情報処理装置における画面表示例を示す図である。 本開示の他の実施形態による情報処理装置における画面表示例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による情報処理システムの概要
2.情報処理装置の構成
3.動作処理
4.他の実施形態
4−1.概要
4−2.動作処理
4−3.画面表示例
5.まとめ
<<1.本開示の一実施形態による情報処理システムの概要>>
本開示の一実施形態による情報処理システム1の概要について図1を参照して説明する。本実施形態による情報処理システム1は、遠隔地にある情報処理装置10A、10Bが、ネットワーク20を介して接続し、映像や、音声、さらに共有するコンテンツ等を送受信することで、遠隔地をつなぐ映像コミュニケーションを実現する。
ここで、図2に示すように、各遠隔地の映像はカメラ12により撮像されるが、カメラ12とディスプレイ11の位置ずれ等の影響で、互いにディスプレイに映る相手ユーザを見ているにも関わらず視線がずれてしまうという問題が生じる。図2のディスプレイ11に映るユーザBは、実際にはユーザAを見ているが、ユーザB側のディスプレイとカメラの位置ずれにより、ユーザBの視線がユーザAから外れているように見える。また、ユーザAはディスプレイ11に映るユーザBを見ているが、ディスプレイ11とカメラ12の位置ずれにより、ユーザBからはユーザAの視線が外れているように見える。
そこで、本実施形態による情報処理システムでは、遠隔地をつなぐ映像コミュニケーションにおいて相手の視線をより自然に把握させることを可能とする。具体的には、各情報処理装置10においてユーザの視線検出を行い、相手ユーザを見ているか否かを判断し、かかる判断の結果を各情報処理装置10で同期する。そして、各情報処理装置10は、ディスプレイに表示する相手ユーザがユーザを見ている場合に、当該相手ユーザの視線がユーザに向いて見えるよう画像処理を行う。これにより、同一空間における視線一致といった自然なコミュニケーションを遠隔地コミュニケーションにおいて実現することができる。
<<2.情報処理装置の構成>>
続いて、本実施形態による情報処理装置10の構成について図3を参照して説明する。図3は、本実施形態による情報処理装置10の構成の一例を示すブロック図である。図3に示すように、情報処理装置10は、制御部100、入力部101、操作I/F(インタフェース)102、出力部103、通信部104、および記憶部105を有する。
制御部100は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置10内の動作全般を制御する。制御部100は、例えばCPU(Central Processing Unit)、マイクロプロセッサ等の電子回路によって実現される。また、制御部100は、使用するプログラムや演算パラメータ等を記憶するROM(Read Only Memory)、及び適宜変化するパラメータ等を一時記憶するRAM(Random Access Memory)を含んでいてもよい。制御部100の具体的な機能構成については図4を参照して後述する。
入力部101は、空間情報を入力する機能を有する。例えば入力部101は、カメラ1011、マイクロホン(以下、マイクと称す)1012、および視線センサ1013により実現される。カメラ1011は、例えばディスプレイ1031の周辺に設けられ、ディスプレイ1031の前方方向を撮像し、撮像画像(本明細書では「映像」とも称す)を取得する。マイク1012は、例えばディスプレイ1031の周辺に設けられ、周辺の音声を取得する。なおマイク1012は、複数から成るマイクアレイであってもよい。また、マイク1012は、ユーザの付近に設けられていてもよい。
視線センサ1013は、例えばディスプレイ1031の周辺に設けられ、ディスプレイ1031を見るユーザの視線を追跡する(視線トラッカーとも称される)。例えば視線センサ1013は、ユーザの頭部や顔の向き、眼球、瞳孔の位置からディスプレイ1031に対する視線を検出する。また、例えば視線センサ1013は、複数の赤外線LEDを有し、赤外線をユーザの眼球に向けて照射し、眼球の反射点(光点)の位置と瞳孔中心点との位置関係に基づいてユーザの視線方向を算出することが可能である。なお視線センサ1013はディスプレイ1031周辺に設けられるデバイスに限定されない。例えばユーザが装着するシースルーメガネ型の装置に設けられ、極近距離から測定したユーザの眼球(具体的には黒目(虹彩部分と瞳孔部分を含む)等)の位置の変化に基づいて、その視点から見たディスプレイ上(シースルーメガネ型の装置のディスプレイ上でもよい)の注視点の動きを検出することも可能である。また、ユーザが装着するヘッドマウント型の装置に設けられ、同様に極近距離から測定した眼球の位置の変化に基づいて、ヘッドマウント型の装置内のディスプレイ上の注視点の動きを検出することも可能である。
操作I/F102は、ユーザからの操作入力を受け付け、制御部100へ出力する。操作I/F102は、キーボード、マウス、タッチパネル、ボタン、スイッチ等により実現され得る。例えば、操作I/F102を用いて、相手ユーザと共有するコンテンツの指定や、表示されたコンテンツへの操作等が行われ得る。
出力部103は、制御部100から出力される各種情報をユーザに提示する機能を有する。例えば出力部103は、ディスプレイ1031、スピーカ1032、およびインジケータ1033を有する。ディスプレイ1031は、相手ユーザ(遠隔地空間)の映像や共有されるコンテンツを表示する。スピーカ1032は、相手ユーザ(遠隔地空間)の音声を再生する。また、インジケータ1033は、例えばシグナルとして用いられるLED照明により実現される。例えばインジケータ1033は、ディスプレイ1031の外枠フレームに設けられ、何らかのユーザへの通知を行う場合に点灯する。
通信部104は、ネットワーク20を介して他の情報処理装置10と接続し、データの送受信を行う。例えば通信部104は、カメラ1011により撮像された撮像画像、マイク1012により収音された音声データ、および共有するコンテンツデータ(会議の資料データ等)を、通信先の情報処理装置10へ送信する。また、通信部104は、通信先の情報処理装置10から、映像や、音声データ、コンテンツデータ等を受信する。
記憶部105は、制御部100が各機能を実行するためのプログラムやパラメータを格納する。また、本実施形態による記憶部105は、通信部104を介して送受信されるデータを記憶してもよい。
続いて、図4を参照して制御部100の具体的な機能構成について説明する。図4は、本実施形態による制御部100の機能構成の一例を示すブロック図である。
図4に示すように、制御部100は、映像・音声取得部100a、操作情報取得部100b、コンテンツ取得部100c、送信制御部100d、注視位置特定部100e、相手映像解析部100f、注視対象判断部100g、注視情報管理部100h、相手映像処理部100i、表示情報生成部100j、および注視情報提示制御部100kとして機能する。
映像・音声取得部100aは、カメラ1011により撮像される撮像画像(映像)、およびマイク1012により収音される音声情報を取得し、送信制御部100dに出力する。なお映像・音声取得部100aは、取得した映像および音声情報に対して、ノイズ処理や圧縮処理等の各種処理を行った上で送信制御部100dに出力してもよい。
操作情報取得部100bは、操作I/F102から入力された操作情報を取得し、送信制御部100dに出力する。
コンテンツ取得部100cは、会議資料データ等、情報処理システム1で共有するコンテンツ情報を取得し、送信制御部100dに出力する。
送信制御部100dは、通信部104からネットワーク20を介して通信先の情報処理装置10に、映像、音声データ、操作情報、コンテンツ情報等を送信するよう制御する。
注視位置特定部100eは、視線センサ1013により検出されたユーザの視線に基づいて、ディスプレイ上の注視位置(例えば表示画面に対応する座標情報)を特定する。
相手映像解析部100fは、通信部104を介して通信先の情報処理装置10から受信した映像を解析(画像解析、物体認識)する。例えば相手映像解析部100fは、映像に映る人物(相手ユーザ)の顔認識を行い、眼周辺の領域を認識する。
注視対象判断部100gは、ディスプレイ1031に表示された映像におけるユーザの注視対象を判断する。例えば注視対象判断部100gは、図5に示すように、ディスプレイ1031に対するユーザAの視線の注視点P(注視位置特定部100eにより特定される)と、ディスプレイ1031に表示される映像に映るユーザBの眼周辺の領域E(相手映像解析部100fにより認識される)とを比較、照合し、ユーザAの注視対象を判断する。図5に示す例では、ユーザAがユーザBを見ているか否かが判断され得る。なおディスプレイ1031に会議資料データ等のコンテンツが表示されている場合、注視対象判断部100gは、ユーザAがコンテンツのどの部分を注視しているかを判断する。
注視情報管理部100hは、注視対象判断部100gによる判断結果を注視情報として管理する(視線ステータスの管理)。注視対象判断部100gによる判断結果は、例えば「ユーザAはユーザBを見ている」、「ユーザAは資料画像の座標(x,y)を見ている」、「ユーザAはユーザBを見ていない」といった内容が挙げられる。また、注視情報管理部100hは、ユーザAの注視情報を記憶部105に格納する。また、注視情報管理部100hは、ユーザAの注視情報を送信制御部100dに出力し、送信制御部100dにより通信先の情報処理装置10と注視情報を同期させる。具体的には、送信制御部100dは、通信部104からネットワークを介して通信先の情報処理装置10にユーザAの注視情報を送信する。なお、ユーザの注視情報の同期は各情報処理装置10において互いに行われ、注視情報管理部100hは、通信先の情報処理装置10から送信された相手ユーザの注視情報も管理する。これにより、注視情報管理部100hは、例えば相手ユーザBがユーザAを見ているか否かを把握することができる。さらに、注視情報管理部100hは、ユーザAとユーザBの注視情報に基づいて、両者の視線が一致しているか否かを判断することができる。
相手映像処理部100iは、注視情報管理部100hにより管理される注視情報に基づいて、相手映像に対して所定の画像処理を行う。例えば相手映像処理部100iは、注視情報において相手ユーザがユーザを注視していることが示されている場合、相手映像に映る相手ユーザの視線がユーザに向いて見えるよう画像処理を行う。上述したように、カメラ位置のずれ等により、相手ユーザがディスプレイに映るユーザを見ているにも関わらず視線がずれてしまうため、注視情報で相手ユーザがユーザに視線を向けていることが示されている場合、相手映像に映る相手ユーザの視線がユーザに向いて見えるよう加工する。具体的には、例えば相手映像に映る相手ユーザの黒目の位置や両眼の位置、頭部(顔)の向きなどを最適に加工する。加工手法については特に限定しないが、例えば2D画像、3Dモデルベースの2D画像、または3Dモデル画像等を用いる手法が可能である。相手ユーザの3Dモデルデータは、例えば相手側の情報処理装置10において生成され、送信される。例えば3Dモデル画像を用いて相手ユーザの頭部の向きを加工する場合、相手映像処理部100iは、相手側の情報処理装置10に設けられたRGB−Dカメラ(距離センサを搭載したカメラ)から得られたリアルタイムの相手ユーザの顔モデルのデータを取得する。次いで、相手映像処理部100iは、顔モデルを所定の向き(例えば正面)に回転した上で着色し、合成元画像(相手映像に映る相手ユーザの顔部分)に合成して継ぎ目を最適化し、相手ユーザの顔の向きを変えた画像をリアルタイムで生成することができる。
また、このような視線加工の処理を相互に行うことで、ユーザと相手ユーザの視線が一致する自然なコミュニケーションを実現することができる。
また、相手映像処理部100iは、相手ユーザの視線がカメラに向いている場合、撮像された相手映像をそのままディスプレイに表示すると相手ユーザがこちらに視線を向けているように見えてしまうため、相手ユーザの視線を外すよう加工することも可能である。
また、相手映像処理部100iは、コミュニケーション状態に連動して表示システムを最適化し得る。例えば注視情報に基づいて互いの視線が一致しているユーザ同士のコミュニケーションパスは優先度が高いと判断し、相互の映像領域を拡大したり、高画質にしたり、ハイライト表示したりする等の連動した表示制御を行い得る。一方、相手側もユーザも互いに視線を向けていない優先度が低い相手ユーザの映像は低解像度で小さく表示する等してもよい。
表示情報生成部100jは、ディスプレイ1031に表示する情報を生成する。例えば表示情報生成部100jは、相手映像処理部100iにより生成された視線加工済みの相手映像と、共有されるコンテンツ情報とを配置した画面を生成する。また、表示情報生成部100jは、相手映像処理部100iによる視線加工が不要な場合、そのままの相手映像を配置した画面を生成してもよい。
注視情報提示制御部100kは、注視情報管理部100hが管理する注視情報に基づいて、注視情報をユーザへ提示する。例えばディスプレイ1031に表示される映像内の相手ユーザがユーザを見ている場合、その旨をディスプレイ1031に表示したり、インジケータ1033を点灯させたりする。
以上、本実施形態による制御部100の機能構成について具体的に説明した。なお本実施形態による制御部100は、視線一致に応じた表示システムの最適化に限定されず、例えばコミュニケーション状態に連動して音響システムを最適化することも可能である。具体的には、制御部100は、視線一致により優先するユーザ間の音声を明朗で大きい音量にすることで、注視した相手の声を聞こえ易くする。一方、優先度が低い相手の声は、不明瞭で小さい音量にしてもよい。これにより、さらに円滑なコミュニケーションを促すことができる。
<<3.動作処理>>
続いて、本実施形態による動作処理について図6を参照して説明する。図6は、本実施形態による動作処理を示すシーケンス図である。ここでは、情報処理装置10A、10B間で行われるユーザAとユーザBの映像コミュニケーションを例に説明する。
図6に示すように、まず、情報処理装置10Aは、情報処理装置10Bに対してビデオ会話の接続要求を行い(ステップS103)、情報処理装置10Bから接続許可を得て(ステップS106)、両者間の通信が確立する(ビデオ会話接続処理)。なおここでは情報処理装置10Aから接続要求を行っているが、当然、これに限定されず、情報処理装置10Bから情報処理装置10Aに接続要求を行ってもよい。
次に、情報処理装置10Aは、ディスプレイ1031の前に居るユーザAを撮像した映像を取得し(ステップS109)、通信先である情報処理装置10Bに送信する(ステップS112)。一方、情報処理装置10Bも同様にユーザBの映像を取得し(ステップS115)、情報処理装置10Aへ送信する(ステップS118)。
次いで、各情報処理装置10は、送信された相手映像を画面上に配置し、表示する(ステップS119、S120)。このような映像表示処理(ステップS109〜S120)が継続的に行われ、ユーザAとユーザBの映像コミュニケーションがリアルタイムに行われ得る。なおここでは「映像」のみを示しているが、音声データも併せて送受信および出力され得る。
続いて、情報処理装置10Aは、相手映像解析部100fにより、情報処理装置10Bから送信された相手映像の解析を行う(ステップS121)。具体的には、情報処理装置10Aは、相手映像の画像解析、物体認識等を行い、相手映像に映るユーザBの眼周辺の領域を認識する。
次に、情報処理装置10Aは、視線センサ1013によりディスプレイ1031上のユーザAの視点(注視点)をトラッキングする(ステップS124)。ディスプレイ1031には、情報処理装置10Bから送信された相手映像がリアルタイムで表示されている。
次いで、情報処理装置10Aは、注視対象判断部100gにより、トラッキングしたユーザAの視点位置と、相手映像に映るユーザBの眼周辺の領域とを比較、照合し、ユーザAがユーザBを注視しているか否かを判断する(ステップS127)。ここでは注視対象としてユーザB(相手ユーザ)を見ているか否かを判断する旨を説明したが、ディスプレイ1031に会議資料等のコンテンツデータも配置され表示されている場合、注視対象判断部100gは、ユーザAが会議資料のどの部分を注視しているかも判断し得る。
次に、情報処理装置10Aは、注視情報を情報処理装置10Bへ送信する(ステップS130)。
このような注視情報の同期処理は、情報処理装置10Bにおいても同様に行われる(ステップS136〜S145)。
続いて、図7を参照して図6に示す動作処理の続きを説明する。図7は、図6に示す動作処理に続く動作処理を示すシーケンス図である。
図7に示すように、次に情報処理装置10Aは、情報処理装置10Bから送信された注視情報に基づいて、相手ユーザ(ユーザB)がユーザAを注視しているか否かを判断する(ステップS151)。
注視している場合(ステップS151/Yes)、相手映像処理部100iは、注視あり用の加工を行う(ステップS154)。例えば相手映像処理部100iは、相手映像に映るユーザBの視線が図2に示すようにずれている場合に、ユーザBの黒目の位置や両眼の位置、頭部(顔)の向きを画像処理により加工して正面に向けることで、ユーザBの視線がディスプレイに対面するユーザAに向いているように見える加工を行うことができる。また、相手映像処理部100iは、「ユーザAを見ています」といった通知表示を、相手映像に重畳表示する処理を行ってもよい。
次いで、注視情報提示制御部100kは、インジケータを点滅させる等により注視状態をユーザAに通知してもよい(ステップS157)。
一方、注視していない場合(ステップS151/No)、相手映像処理部100iは、注視なし用の加工を行う(ステップS160)。例えば相手映像処理部100iは、相手映像に映るユーザBの黒目の位置や両眼の位置、頭部(顔)の向きを画像処理により加工して正面以外に向けることで、ユーザBの視線がディスプレイに対面するユーザAに向いていないことが明白になるようにすることができる。なお相手映像処理部100iは、注視なしの場合には何ら加工を行わないようにしてもよい。
このような視線加工処理は、情報処理装置10Bにおいても同様に行われる(ステップS163〜S172)。
以上説明した視線加工処理が情報処理装置10Aと情報処理装置10Bの両者で行われることで、遠隔地を結ぶ映像コミュニケーションにおいてユーザAとユーザBが互いに視線を一致させることができ、円滑なコミュニケーションを実現することができる。
そして、情報処理装置10Aがビデオ会話終了要求を情報処理装置10Bに対して行い(ステップS175)、情報処理装置10Bにより受諾されると、ビデオ会話が終了する(ステップS178)。なおここでは情報処理装置10Aから終了要求を行っているが、当然、これに限定されず、情報処理装置10Bから情報処理装置10Aに終了要求を行ってもよい。
<<4.他の実施形態>>
上述した実施形態では、情報処理装置10Aと情報処理装置10Bの二者間における映像コミュニケーションを例に説明したが、本実施形態はこれに限定されず、三者以上の映像コミュニケーションにおいても同様に注視情報の同期および視線加工の処理を行うことで、円滑なコミュニケーションを実現することが可能である。以下、処理サーバ30により各ユーザの注視情報が同期される実施形態について図8〜図15を参照して具体的に説明する。
<4−1.概要>
図8は、本開示の他の実施形態による情報処理システム2の概要について説明する図である。図8に示すように、他の実施形態による情報処理システム2は、情報処理装置10A、10B、10C、10Dと、処理サーバ30とを含む。情報処理装置10A、10B、10C、10Dと、処理サーバ30は、ネットワーク20を介して互いに接続し、データの送受信を行うことが可能である。なおここでは一例として情報処理装置10を4つ用いるが、本実施形態はこれに限定されず、2者間の映像コミュニケーションにおいて処理サーバ30により各ユーザの注視情報が同期される場合もあれば、3人以上のユーザ間の映像コミュニケーションにおいて処理サーバ30により各ユーザの注視情報が同期される場合もある。
情報処理装置10A〜10Dの構成は、図3および図4で説明した上記実施形態と同様であるため、ここでの詳細は省略する。
処理サーバ30は、一の情報処理装置10から受信した注視情報を他の情報処理装置10に送信することで、各情報処理装置10の注視情報をシステム内で同期させる。
このような本実施形態による情報処理システム2の具体的な動作処理について、以下図9を参照して説明する。
<4−2.動作処理>
図9は、本開示の他の実施形態による動作処理を示すシーケンス図である。図9に示すように、まず、情報処理装置10A〜10Dの間で、ビデオ会話接続処理が行われる(ステップS203)。ビデオ会話接続処理は、図6のステップS103〜S106と同様に、一の情報処理装置10が他の情報処理装置10へビデオ会話接続要求を行い、他の情報処理装置10により許可されることで接続が確立する。
次に、情報処理装置10A〜10Dの間で、映像表示処理が行われる(ステップS206)。映像表示処理は、図6のステップS109〜S120と同様に、各情報処理装置10で取得されたユーザの映像が他の情報処理装置10に送信され、各情報処理装置10において通信先の他の情報処理装置10で取得された相手ユーザの映像が表示される。
次いで、処理サーバ30により情報処理装置10A〜10Dの間で注視情報の同期処理が行われる。具体的には、例えば情報処理装置10Aが相手映像の解析を行い(ステップS209)、さらにユーザAの視点をトラッキングし(ステップS212)、映像解析により認識した相手ユーザの眼周辺の領域とユーザAの視点位置とを比較照合し、ユーザAの注視対象を判断する(ステップS215)。ここで、図10を参照して注視対象の判断について説明する。例えば図10左側に示すように、ディスプレイ1031aの画面上に通信相手であるユーザBとユーザCの映像が配置されている場合、情報処理装置10Aは、各映像における眼周辺の領域E、Eを認識し、ユーザAの視点位置と比較照合し、ユーザBを注視しているか、ユーザCを注視しているか、若しくはいずれも見ていないかを判断する。また、例えば図10右側に示すように、ディスプレイ1031bの画面上に、共有しているコンテンツである資料画像と通信相手であるユーザBの映像が並列に配置されている場合、情報処理装置10Aは、資料画像EとユーザBの眼周辺の領域Eを認識し、ユーザAの視点位置と比較照合し、資料画像を注視しているか、ユーザBを注視しているか、若しくはいずれも見ていないかを判断する。
続いて、情報処理装置10Aは、判断結果すなわち注視情報を処理サーバ30に送信する(ステップS218)。
次に、処理サーバ30は、情報処理装置10Aから送信された注視情報を、他の情報処理装置10、ここでは情報処理装置10B、情報処理装置10C、および情報処理装置10Dに送信する(ステップS221、ステップS224、ステップS227)。このように、処理サーバ30は、注視情報の同期処理を行う。なおここでは一例として情報処理装置10Aから送信された注視情報を他の情報処理装置10に送信する場合について説明したが、処理サーバ30は、情報処理装置10Bや情報処理装置10C、情報処理装置10Dから送信された注視情報も同様に他の情報処理装置10に送信し、システム内で同期させる。これらの処理はリアルタイムに行われ、各情報処理装置10は、現在相手ユーザが何を見ているか(例えばディスプレイに映るユーザを見ているか否か)を認識することができる。また、処理サーバ30は、各情報処理装置10から送信された注視情報に基づいて、視線ステータスを管理し、視線ステータスも注視情報に含めて各情報処理装置10に同期させることが可能である。ここで、図11に視線ステータスの管理の一例について説明する図を示す。図11に示す例では、例えばユーザA、ユーザB、ユーザC、ユーザDの4者間で映像コミュニケーションが行われ、さらに資料画像等のコンテンツが共有されている場合における視線ステータス管理の一例を示す。この場合、各情報処理装置10のディスプレイ1031の画面上には、通信相手3名の各映像と共有コンテンツの画像が配置されている。次いで、処理サーバ30は、例えばユーザAの情報処理装置10Aから「ユーザAはユーザBを見ている」ことを示す注視情報を取得し、ユーザBの情報処理装置10Bから「ユーザBはユーザAを見ている」ことを示す注視情報を取得する。また、ユーザCの情報処理装置10Cから「ユーザCは共有コンテンツの座標(x,y)を見ている」ことを示す注視情報を取得し、ユーザDの情報処理装置10Dから「ユーザDはユーザBを見ている」ことを示す注視情報を取得する。この場合、図11に示すように、各情報処理装置10から取得した注視情報を総合すると、処理サーバ30は、ユーザAとユーザBの視線が一致していて、ユーザDとユーザBの視線は不一致であるといった視線ステータスを認識することができる。処理サーバ30は、注視情報に加えてかかる視線ステータス情報も各情報処理装置10に同期させる。例えば処理サーバ30は、ユーザCの情報処理装置10Cに「ユーザAはユーザBを見ている」、「ユーザBはユーザAを見ている」、「ユーザDはユーザBを見ている」といった他の情報処理装置10から取得した注視情報に加えて、「視線一致:ユーザAとユーザB」、「視線不一致:ユーザDとユーザB」といった視線ステータス情報を送信する。
以上、視線ステータスの管理が処理サーバ30で行われる場合を例に説明したが、本実施形態はこれに限定されず、各情報処理装置10の注視情報管理部100hで行うことも可能である。
次いで、図9に戻り、情報処理装置10A〜10Dは、視線加工処理を行う(ステップS230)。視線加工処理は、図7のステップS151〜S172と同様に、各情報処理装置10において、同期された注視情報に基づいて注視あり用の加工や注視なし用の加工を行う。視線加工を行った具体的な画面表示例については、図12〜図15を参照して後述する。
そして、情報処理装置10A〜10Dは、ビデオ会話終了処理を行う(ステップS233)。ビデオ会話終了処理は、図7のステップS172〜S178と同様に、一の情報処理装置10が他の情報処理装置10へビデオ会話終了要求を行い、他の情報処理装置10により受諾されることで接続が切断する。
<4−3.画面表示例>
上述した他の実施形態による視線加工を行った具体的な画面表示例について、以下、図12〜図15を参照して説明する。
(表示例1)
図12は、本実施形態による情報処理装置10Aにおける画面表示例を示す図である。図12に示す例では、情報処理装置10Aのディスプレイ1031Aの画面上に、ユーザBの映像40、ユーザCの映像41、ユーザDの映像42、および共有コンテンツである資料画像43が並列に配置され、表示されている。
情報処理装置10Aは、ユーザBの映像40に対し、「ユーザBがユーザAを見ている」という注視情報に基づき、映像40のユーザBの視線加工を行う。具体的には、図2を参照して上述したように、カメラの位置ずれによりユーザBがユーザAを見ているにも関わらず視線がずれた映像となってしまうため、情報処理装置10Aは、映像内のユーザBの黒目の位置、両眼の位置、または頭部(顔)の向きを正面に向けるよう加工し、図12に示すように映像40のユーザBがユーザAに視線を向けて見えるようにする。これにより、ユーザAはユーザBと視線が一致し、より円滑な映像コミュニケーションを行うことができる。さらに、情報処理装置10Aは、映像40に「Aを見ています」といった通知表示を重畳表示してもよい。
また、情報処理装置10Aは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、ユーザCが写る映像41に「資料を見ています」といった通知表示を重畳表示する。
また、情報処理装置10Aは、「ユーザDはユーザBを見ている」という注視情報に基づいて、映像42に映るユーザDの視線を、図12に示すように、画面上でユーザBが写る映像40が配置されている方向へ向けるよう加工する。
また、情報処理装置10Aは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、資料画像43上の座標(x,y)に注視位置を示す表示やアイコンを重畳表示することで、ユーザCが資料のどこを見ているかを明示する。
(表示例2)
図13は、本実施形態による情報処理装置10Bにおける画面表示例を示す図である。図13に示す例では、情報処理装置10Bのディスプレイ1031Bの画面上に、ユーザAの映像44、ユーザCの映像45、ユーザDの映像46、および共有コンテンツである資料画像47が並列に配置され、表示されている。
情報処理装置10Bは、ユーザAの映像44に対し、「ユーザAがユーザBを見ている」という注視情報に基づき、映像44のユーザAの視線加工を行う。具体的には、図2を参照して上述した場合と同様に、カメラの位置ずれによりユーザAがユーザBを見ているにも関わらず視線がずれた映像となってしまうため、情報処理装置10Bは、映像内のユーザAの黒目の位置、両眼の位置、または頭部(顔)の向きを正面に向けるよう加工し、図13に示すように映像44のユーザAがユーザBに視線を向けて見えるようにする。これにより、ユーザBはユーザAと視線が一致し、より円滑な映像コミュニケーションを行うことができる。さらに、情報処理装置10Bは、映像44に「Bを見ています」といった通知表示を重畳表示してもよい。
また、情報処理装置10Bは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、ユーザCが写る映像45に「資料を見ています」といった通知表示を重畳表示する。
また、情報処理装置10Bは、「ユーザDはユーザBを見ている」という注視情報に基づいて、映像46に映るユーザDの黒目の位置、両眼の位置、または頭部(顔)の向きを正面に向けるよう加工し、図13に示すように映像46のユーザDがユーザBに視線を向けて見えるようにする。
また、情報処理装置10Bは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、資料画像47上の座標(x,y)に注視位置を示す表示やアイコンを重畳表示することで、ユーザCが資料のどこを見ているかを明示する。
(表示例3)
図14は、本実施形態による情報処理装置10Cにおける画面表示例を示す図である。図14に示す例では、情報処理装置10Cのディスプレイ1031Cの画面上に、ユーザAの映像48、ユーザBの映像49、ユーザDの映像50、および共有コンテンツである資料画像51が並列に配置され、表示されている。
情報処理装置10Cは、「視線一致:ユーザAとユーザB」という視線ステータスに基づき、映像48のユーザAおよび映像49のユーザBの視線加工を行う。具体的には、情報処理装置10Cは、映像48内のユーザAの黒目の位置、両眼の位置、または頭部(顔)の向きを、右側に配置されたユーザBの映像49の方向に向け、また、映像49内のユーザBの黒目の位置、両眼の位置、または頭部(顔)の向きを、左側に配置されたユーザAの映像48の方向に向けるよう加工する。これにより、図14に示すように、ユーザAとユーザBの視線が画面上で一致して表現され得る。さらに、情報処理装置10Cは、映像48および映像49に「視線一致」といった通知表示を重畳表示してもよい。
また、情報処理装置10Cは、「ユーザDはユーザBを見ている」という注視情報に基づいて、映像50に映るユーザDの黒目の位置、両眼の位置、または頭部(顔)の向きを、画面左のユーザBの映像49が配置されている方向に向けるよう加工し、図14に示すように映像50のユーザDがユーザBの方向に視線を向けて見えるようにする。
(表示例4)
図15は、本実施形態による情報処理装置10Dにおける画面表示例を示す図である。図15は、本実施形態による情報処理装置10Dにおける画面表示例を示す図である。図15に示す例では、情報処理装置10Dのディスプレイ1031Cの画面上に、ユーザAの映像52、ユーザBの映像53、ユーザCの映像54、および共有コンテンツである資料画像55が並列に配置され、表示されている。
情報処理装置10Dは、「視線一致:ユーザAとユーザB」という視線ステータスに基づき、映像52のユーザAおよび映像53のユーザBの視線加工を行う。具体的には、情報処理装置10Dは、映像52内のユーザAの黒目の位置、両眼の位置、または頭部(顔)の向きを、右側に配置されたユーザBの映像53の方向に向け、また、映像53内のユーザBの黒目の位置、両眼の位置、または頭部(顔)の向きを、左側に配置されたユーザAの映像52の方向に向けるよう加工する。これにより、図15に示すように、ユーザAとユーザBの視線が画面上で一致して表現され得る。さらに、情報処理装置10Dは、映像52および映像53に「視線一致」といった通知表示を重畳表示してもよい。
これにより、ユーザDは、自身が視線を向けているユーザBが、自分ではなくユーザAを見ており、さらにユーザAと視線が一致している状態であることが分かる。
また、情報処理装置10Dは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、ユーザCが写る映像54に「資料を見ています」といった通知表示を重畳表示する。
また、情報処理装置10Dは、「ユーザCは資料の座標(x,y)を見ている」という注視情報に基づいて、資料画像55上の座標(x,y)に注視位置を示す表示やアイコンを重畳表示することで、ユーザCが資料のどこを見ているかを明示する。
<<5.まとめ>>
上述したように、本開示の実施形態による情報処理システムでは、遠隔地をつなぐ映像コミュニケーションにおいて相手の視線をより自然に把握させることを可能とする。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した情報処理装置10、または処理サーバ30に内蔵されるCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)等のハードウェアに、情報処理装置10、または処理サーバ30の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させたコンピュータ読み取り可能な記憶媒体も提供される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
通信先装置からビデオ通信相手の撮像画像を受信する受信部と、
前記受信した撮像画像を表示部に表示するよう制御する制御部と、
を備え、
前記制御部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する、情報処理装置。
(2)
前記制御部は、前記撮像画像に写る通信相手の顔画像における瞳孔の位置、両目の位置、または頭部の向きを正面に向けるよう加工する、前記(1)に記載の情報処理装置。
(3)
前記情報処理装置は、前記表示部を見ているユーザを撮像した撮像画像を前記通信先装置へ送信する送信部をさらに備える、前記(1)または(2)に記載の情報処理装置。
(4)
前記制御部は、
前記表示部に対するユーザの視線を検出して前記表示部の画面上における注視位置を算出し;
算出した注視位置と前記表示部に表示されている通信相手の眼周辺の領域とを比較して、前記ユーザが前記通信相手を見ているか否かを判断し;
前記判断に基づいて、前記ユーザが通信相手を見ていることを示す情報を前記通信先装置に送信するよう制御する、前記(1)〜(3)のいずれか1項に記載の情報処理装置。
(5)
前記制御部は、
前記通信相手およびユーザが互いに相手を見ている状態か否かを判断し;
前記判断に基づいて、両者の視線が一致していることを示す情報を前記通信先装置に送信するよう制御する、前記(4)に記載の情報処理装置。
(6)
前記受信部は、複数の通信先装置から各ビデオ通信相手の撮像画像を受信し、
前記制御部は、
前記受信した撮像画像を表示部に並べて表示するよう制御し;
前記ユーザが前記表示部に表示されたどの通信相手を見ているかを判断し;
前記判断に基づいて、前記ユーザがどの通信相手を見ているかを示す情報を、前記複数の通信先装置と同期するよう制御する、前記(5)に記載の情報処理装置。
(7)
前記制御部は、前記表示部に表示された複数の通信相手の視線が一致していることを示す情報に基づいて、前記複数の通信相手が視線を合わせているように見えるよう、前記複数の通信相手の瞳孔の位置、両目の位置、または頭部の向きを加工する、前記(6)に記載の情報処理装置。
(8)
前記制御部は、
資料画像を前記表示部に表示するよう制御し;
前記算出した画面上におけるユーザの注視位置と前記表示部に表示される資料画像とを比較して、前記ユーザが前記資料画像を見ているか否かを判断し;
前記判断に基づいて、前記ユーザが資料画像を見ていることを示す情報を前記通信先装置に送信するよう制御する、前記(4)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、前記表示部に表示された通信相手が資料画像を見ていることを示す情報に基づいて、前記表示部に並べて表示される資料画像上に、前記通信相手が注視している位置を明示する表示を重畳表示する、前記(8)に記載の情報処理装置。
(10)
前記制御部は、前記通信相手がユーザを見ていないことを示す情報に基づいて、前記撮像画像に写る前記通信相手の視線を正面以外に向けるよう加工する、前記(1)〜(9)のいずれか1項に記載の情報処理装置。
(11)
前記情報処理装置は、通信部を備え、
前記通信部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報をサーバから受信する、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)
前記通信部は、前記表示部に対する前記ユーザの視線に関する情報を前記サーバに送信する、前記(11)に記載の情報処理装置。
(13)
プロセッサが、
通信先装置からビデオ通信相手の撮像画像を受信することと、
前記受信した撮像画像を表示部に表示するよう制御することと、
前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示すること、
を含む、情報処理方法。
(14)
コンピュータを、
通信先装置からビデオ通信相手の撮像画像を受信する受信部と、
前記受信した撮像画像を表示部に表示するよう制御する制御部と、
として機能させ、
前記制御部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する、プログラム。
1、2 情報処理システム
10(10A〜10D) 情報処理装置
20 ネットワーク
30 処理サーバ
100制御部
100a 映像・音声取得部
100b 操作情報取得部
100c コンテンツ取得部
100d 送信制御部
100e 注視位置特定部
100f 相手映像解析部
100g 注視対象判断部
100h 注視情報管理部
100i 相手映像処理部
100j 表示情報生成部
100k 注視情報提示制御部
101 入力部
1011 カメラ
1012 マイク
1013 視線センサ
102 操作I/F
103 出力部
1031 ディスプレイ
1032 スピーカ
1033 インジケータ
104 通信部
105 記憶部

Claims (12)

  1. 通信先装置からビデオ通信相手の撮像画像を受信する受信部と、
    前記受信した撮像画像を表示部に表示し、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する制御部と、を備え、
    前記制御部は、前記表示部に対するユーザの視線を検出して前記表示部の画面上における注視位置を算出し;
    算出した注視位置と前記表示部に表示されている通信相手の眼周辺の領域とを比較して、前記ユーザが前記通信相手を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが通信相手を見ていることを示す情報を前記通信先装置に送信するよう制御し、
    さらに前記制御部は、
    資料画像を前記表示部に表示するよう制御し;
    前記算出した画面上におけるユーザの注視位置と前記表示部に表示される資料画像とを比較して、前記ユーザが前記資料画像を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが資料画像を見ていることを示す情報を前記通信先装置に送信するよう制御する、情報処理装置。
  2. 前記制御部は、前記撮像画像に写る通信相手の顔画像における瞳孔の位置、両目の位置、または頭部の向きを正面に向けるよう加工する、請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、前記表示部を見ているユーザを撮像した撮像画像を前記通信先装置へ送信する送信部をさらに備える、請求項1または2に記載の情報処理装置。
  4. 前記制御部は、
    前記通信相手およびユーザが互いに相手を見ている状態か否かを判断し;
    前記判断に基づいて、両者の視線が一致していることを示す情報を前記通信先装置に送信するよう制御する、請求項1〜3のいずれか1項に記載の情報処理装置。
  5. 前記受信部は、複数の通信先装置から各ビデオ通信相手の撮像画像を受信し、
    前記制御部は、
    前記受信した撮像画像を表示部に並べて表示するよう制御し;
    前記ユーザが前記表示部に表示されたどの通信相手を見ているかを判断し;
    前記判断に基づいて、前記ユーザがどの通信相手を見ているかを示す情報を、前記複数の通信先装置と同期するよう制御する、請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 前記制御部は、前記表示部に表示された複数の通信相手の視線が一致していることを示す情報に基づいて、前記複数の通信相手が視線を合わせているように見えるよう、前記複数の通信相手の瞳孔の位置、両目の位置、または頭部の向きを加工する、請求項に記載の情報処理装置。
  7. 前記制御部は、前記表示部に表示された通信相手が資料画像を見ていることを示す情報に基づいて、前記表示部に並べて表示される資料画像上に、前記通信相手が注視している位置を明示する表示を重畳表示する、請求項1〜6のいずれか1項に記載の情報処理装置。
  8. 前記制御部は、前記通信相手がユーザを見ていないことを示す情報に基づいて、前記撮像画像に写る前記通信相手の視線を正面以外に向けるよう加工する、請求項1〜7のいずれか1項に記載の情報処理装置。
  9. 前記情報処理装置は、通信部を備え、
    前記通信部は、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報をサーバから受信する、請求項1〜8のいずれか1項に記載の情報処理装置。
  10. 前記通信部は、前記表示部に対する前記ユーザの視線に関する情報を前記サーバに送信する、請求項に記載の情報処理装置。
  11. プロセッサが、
    通信先装置からビデオ通信相手の撮像画像を受信することと、
    前記受信した撮像画像を表示部に表示し、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示するよう制御し、さらに、
    前記表示部に対するユーザの視線を検出して前記表示部の画面上における注視位置を算出し;
    算出した注視位置と前記表示部に表示されている通信相手の眼周辺の領域とを比較して、前記ユーザが前記通信相手を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが通信相手を見ていることを示す情報を前記通信先装置に送信するよう制御し、さらに、
    資料画像を前記表示部に表示するよう制御し;
    前記算出した画面上におけるユーザの注視位置と前記表示部に表示される資料画像とを比較して、前記ユーザが前記資料画像を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが資料画像を見ていることを示す情報を前記通信先装置に送信するよう制御すること、
    を含む、情報処理方法。
  12. コンピュータを、
    通信先装置からビデオ通信相手の撮像画像を受信する受信部と、
    前記受信した撮像画像を表示部に表示し、前記撮像画像に写る通信相手が前記通信先装置で表示されているユーザを見ていることを示す情報に基づいて、前記撮像画像に写る通信相手の視線が前記表示部を見ているユーザに向いているように見えるよう前記撮像画像を画像処理して表示する制御部と、として機能させ、
    前記制御部は、前記表示部に対するユーザの視線を検出して前記表示部の画面上における注視位置を算出し;
    算出した注視位置と前記表示部に表示されている通信相手の眼周辺の領域とを比較して、前記ユーザが前記通信相手を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが通信相手を見ていることを示す情報を前記通信先装置に送信するよう制御し、
    さらに前記制御部は、
    資料画像を前記表示部に表示するよう制御し;
    前記算出した画面上におけるユーザの注視位置と前記表示部に表示される資料画像とを比較して、前記ユーザが前記資料画像を見ているか否かを判断し;
    前記判断に基づいて、前記ユーザが資料画像を見ていることを示す情報を前記通信先装置に送信するよう制御する、プログラム。
JP2018518079A 2016-05-18 2017-02-08 情報処理装置、情報処理方法、およびプログラム Active JP6950685B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016099565 2016-05-18
JP2016099565 2016-05-18
PCT/JP2017/004476 WO2017199483A1 (ja) 2016-05-18 2017-02-08 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017199483A1 JPWO2017199483A1 (ja) 2019-03-14
JP6950685B2 true JP6950685B2 (ja) 2021-10-13

Family

ID=60324957

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018518079A Active JP6950685B2 (ja) 2016-05-18 2017-02-08 情報処理装置、情報処理方法、およびプログラム

Country Status (4)

Country Link
US (1) US10659728B2 (ja)
EP (1) EP3461125A4 (ja)
JP (1) JP6950685B2 (ja)
WO (1) WO2017199483A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7035613B2 (ja) * 2018-02-23 2022-03-15 沖電気工業株式会社 コミュニケーション装置、コミュニケーション方法、コミュニケーションプログラム及びコミュニケーションシステム
JP7194554B2 (ja) * 2018-10-15 2022-12-22 東京瓦斯株式会社 コミュニケーションシステムおよびプログラム
US11979545B2 (en) 2019-02-07 2024-05-07 Sony Group Corporation Information processing apparatus and information processing method
CN111491127B (zh) * 2020-04-21 2021-06-29 新石器慧通(北京)科技有限公司 基于无人车远程驾驶的视频通话方法及系统
US11647158B2 (en) 2020-10-30 2023-05-09 Microsoft Technology Licensing, Llc Eye gaze adjustment
US11871147B2 (en) 2021-06-09 2024-01-09 Microsoft Technology Licensing, Llc Adjusting participant gaze in video conferences
EP4113982A1 (en) * 2021-06-30 2023-01-04 Eyeware Tech SA Method for sensing and communicating visual focus of attention in a video conference
WO2021207747A2 (en) * 2021-08-10 2021-10-14 Futurewei Technologies, Inc. System and method for 3d depth perception enhancement for interactive video conferencing
CN115834813A (zh) * 2021-09-15 2023-03-21 中兴通讯股份有限公司 终端设备、视频通话的方法
US11798204B2 (en) 2022-03-02 2023-10-24 Qualcomm Incorporated Systems and methods of image processing based on gaze detection
WO2023191814A1 (en) * 2022-04-01 2023-10-05 Hewlett-Packard Development Company, L.P. Audience configurations of audiovisual signals
US20230320640A1 (en) * 2022-04-06 2023-10-12 National University Corporation Chiba University Bidirectional sightline-position determination device, bidirectional sightline-position determination method, and training method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3387136B2 (ja) 1993-02-19 2003-03-17 ソニー株式会社 カメラ一体型ディスプレイ装置およびそれを用いた送信方法
JPH08163416A (ja) 1994-11-30 1996-06-21 Canon Inc 画像通信装置
JP3587106B2 (ja) 1999-11-10 2004-11-10 日本電気株式会社 視線一致テレビ会議装置
JP5208810B2 (ja) * 2009-02-27 2013-06-12 株式会社東芝 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2010239583A (ja) 2009-03-31 2010-10-21 Brother Ind Ltd 通信端末装置、通信端末装置の通信制御方法、通信制御プログラム
US8416715B2 (en) * 2009-06-15 2013-04-09 Microsoft Corporation Interest determination for auditory enhancement
JP2011097447A (ja) 2009-10-30 2011-05-12 Sharp Corp コミュニケーションシステム
US8723915B2 (en) * 2010-04-30 2014-05-13 International Business Machines Corporation Multi-participant audio/video communication system with participant role indicator
WO2011148366A1 (en) * 2010-05-26 2011-12-01 Ramot At Tel-Aviv University Ltd. Method and system for correcting gaze offset
JP2012070081A (ja) * 2010-09-21 2012-04-05 Fuji Xerox Co Ltd 画像表示装置、画像表示プログラム及び画像表示システム
US9294722B2 (en) * 2010-10-19 2016-03-22 Microsoft Technology Licensing, Llc Optimized telepresence using mobile device gestures
US8581956B2 (en) * 2011-04-29 2013-11-12 Hewlett-Packard Development Company, L.P. Methods and systems for communicating focus of attention in a video conference
US9538133B2 (en) * 2011-09-23 2017-01-03 Jie Diao Conveying gaze information in virtual conference
US8947493B2 (en) * 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
US9369667B2 (en) * 2012-04-11 2016-06-14 Jie Diao Conveying gaze information in virtual conference
US8976224B2 (en) * 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
US9041766B1 (en) * 2013-03-14 2015-05-26 Ca, Inc. Automated attention detection
JP6182464B2 (ja) 2014-01-27 2017-08-16 大和ハウス工業株式会社 画像表示システム及び画像表示方法
US9407871B2 (en) * 2014-03-31 2016-08-02 Electronics And Telecommunications Research Instit Apparatus and method for controlling eye-to-eye contact function
US9300916B1 (en) * 2015-02-10 2016-03-29 International Business Machines Corporation Natural gazes during online video conversations
KR102317021B1 (ko) * 2015-06-26 2021-10-25 삼성전자주식회사 디스플레이 장치 및 이의 영상 보정 방법

Also Published As

Publication number Publication date
EP3461125A1 (en) 2019-03-27
JPWO2017199483A1 (ja) 2019-03-14
US20190110023A1 (en) 2019-04-11
EP3461125A4 (en) 2019-05-22
WO2017199483A1 (ja) 2017-11-23
US10659728B2 (en) 2020-05-19

Similar Documents

Publication Publication Date Title
JP6950685B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11765318B2 (en) Placement of virtual content in environments with a plurality of physical participants
US11455032B2 (en) Immersive displays
CN110413108B (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
JP2010206307A (ja) 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US20170237941A1 (en) Realistic viewing and interaction with remote objects or persons during telepresence videoconferencing
JP2014099854A (ja) ソーシャルネットワークサービス提供装置及び方法
US11354871B2 (en) Head-mountable apparatus and methods
US20200349378A1 (en) Data Processing
WO2021145878A1 (en) Mobile application platform projected on a secondary display with intelligent gesture interactions
WO2020017435A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11045733B2 (en) Virtual reality
US20230231970A1 (en) Device for displaying images, and use of a device of this type
CN108632563A (zh) 动态可视电话系统及其使用方法
US20210400234A1 (en) Information processing apparatus, information processing method, and program
US11314082B2 (en) Motion signal generation
WO2022075152A1 (ja) 情報処理装置、情報処理方法及び情報配信システム
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
GB2571286A (en) Virtual reality
JP2022015647A (ja) 情報処理装置および画像表示方法
GB2569576A (en) Audio generation system
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
US20230269407A1 (en) Apparatus and method
WO2020162035A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN117452637A (zh) 头戴式显示器和图像显示方法

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210906

R151 Written notification of patent or utility model registration

Ref document number: 6950685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151