JPWO2020095639A1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JPWO2020095639A1
JPWO2020095639A1 JP2020556719A JP2020556719A JPWO2020095639A1 JP WO2020095639 A1 JPWO2020095639 A1 JP WO2020095639A1 JP 2020556719 A JP2020556719 A JP 2020556719A JP 2020556719 A JP2020556719 A JP 2020556719A JP WO2020095639 A1 JPWO2020095639 A1 JP WO2020095639A1
Authority
JP
Japan
Prior art keywords
user
display device
space
captured image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020556719A
Other languages
English (en)
Other versions
JP7452434B2 (ja
Inventor
大輔 三木
大輔 三木
崇裕 坂本
崇裕 坂本
勝也 福屋
勝也 福屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020095639A1 publication Critical patent/JPWO2020095639A1/ja
Application granted granted Critical
Publication of JP7452434B2 publication Critical patent/JP7452434B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示する、情報処理装置を提供する。これによって、より臨場感のあるコミュニケーションを実現できる。

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
第1ユーザと第2ユーザとが離隔した別の拠点に存在するような遠隔ビデオコミュニケーションにおいて、表示装置に表示される第1ユーザと第1ユーザを撮像するカメラの位置との関係により、表示装置に表示される第1ユーザの視線のずれが生じ得る。この視線のずれは、視線が合わない等の状態を生じさせることがある。そこで、かかる状態の発生を抑制し、第1ユーザと第2ユーザとが視線を合わせて臨場感のあるコミュニケーションを体験するために、様々な技術が開発されてきた。
例えば、特許文献1には、他拠点に存在する複数のユーザがコミュニケーションを行う際の技術が開示されている。特許文献1の技術によれば、通話相手先のユーザが該ユーザの注視方向に応じて、通話相手元のユーザを撮像する撮像装置および表示装置を回転させることで、臨場感を高めたコミュニケーションを実現している。
特開2009−65490号公報
しかしながら、上記特許文献1に記載の技術では、通話相手先のユーザの視線と、通話相手元のユーザの視線とを合わせるものではないため、通話相手元のユーザの位置によっては、臨場感のあるコミュニケーションを実現することが困難であった。
上記事情を鑑みれば、より臨場感のあるコミュニケーションを実現する技術の開発が求められていた。
本開示によれば、第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示する、情報処理装置が提供される。
また、本開示によれば、第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御することと、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示することと、を含む情報処理方法が提供される。
また、本開示によれば、コンピュータを、第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示するように機能させるための、プログラムが提供される。
本開示の技術概要を示す模式図である。 本開示の技術概要を示す模式図である。 本開示の技術概要を説明するための従来例を示した模式図である。 本開示の技術概要を示す模式図である。 本開示の実施形態に係る情報処理システムの各種装置の配置の一例を示した図である。 同実施形態にかかる情報処理システムの内部構成を示したブロック図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの制御部が行う処理の一例を示した図である。 同実施形態にかかる情報処理システムの処理フローの一例を示した図である。 同実施形態にかかる情報処理システムの変形例の一例を示した図である。 同実施形態にかかる情報処理システムの変形例の一例を示した図である。 同実施形態にかかる情報処理システムの変形例の一例を示した図である。 同実施形態に係る情報処理システムのハードウェアの構成例の一例を示した図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.本開示の技術に関して
1.1.技術概要
1.2.後姿の配置
1.3.効果
2.構成
2.1.外部構成
2.2.内部構成
3.動作フロー
4.変形例
4.1.視距離の優先順位
4.2.測距センサの使用
4.3.グラス型表示装置の使用
5.ハードウェア構成例
(1.本開示の技術に関して)
(1.1.技術概要)
図1を参照して、本開示の技術概要を説明する。本開示の技術は、他拠点に存在するユーザがビデオチャット等を用いて、コミュニケーションを行う際の技術に関する。
図1では、第1拠点に存在するユーザ4が、第2拠点に存在するユーザ1、ユーザ2、およびユーザ3と表示装置Dを通してコミュニケーションを行っている。表示装置Dには、ユーザ4の後姿Sが配置されている。ユーザ4の後姿Sは、表示装置D内で表示されるユーザ1の視線1v、ユーザ2の視線2v、およびユーザ3の視線3vの先に配置されている。これにより、ユーザ4は、ユーザ4の後姿Sとユーザ1、ユーザ2、ユーザ3とが、目線を合わせてコミュニケーションを取っているように感じられ、より臨場感のあるコミュニケーションを図ることができる。
(1.2.後姿の配置)
図2を参照して、第1拠点のA地点に存在するユーザA1と第2拠点のB地点に存在するユーザB1とのコミュニケーションを例に挙げて、更に説明する。図2の左図では、A地点におけるユーザA1と表示装置Dおよびチャット用カメラVCとの配置関係とB地点におけるユーザB1と表示装置Dおよびチャット用カメラVCとの配置関係とを模式的に示している。
A地点に存在するユーザA1が、A地点に存在する表示装置Dを視認してB地点のユーザB1とコミュニケーションを行っている。A地点に存在する表示装置Dに設けられたチャット用カメラVCは画角VCθの範囲でA1を撮像している。
B地点に存在するユーザB1は、A地点に存在するユーザA1と同様に、B地点に存在する表示装置Dを視認してA地点のユーザA1とコミュニケーションを行っている。B地点に存在する表示装置Dに設けられたチャット用カメラVCは画角VCθの範囲でB1を撮像している。
図2の右図には、A地点に存在する表示装置Dに設けられたチャット用カメラVCとB地点に存在する表示装置Dに設けられたチャット用カメラVC2とが撮像した撮像画像が並んで示されている。
A地点に存在するユーザA1を撮像した最上段に示す撮像画像では、ユーザA1は、ユーザA1から表示装置Dに向かって表示装置Dの右端領域の視線G1A1の方向を視認している。該最上段の撮像画像には、視線G1A1の先に、B地点に存在するユーザB1の後姿SB1が重畳して配置される。
A地点に存在するユーザA1を撮像した中段に示す撮像画像では、ユーザA1は、ユーザA1から表示装置Dに向かって表示装置Dの中央領域の視線G2A1の方向を視認している。該中段の撮像画像には、視線G2A1の先に、B地点に存在するユーザB1の後姿SB1が重畳して配置される。
A地点に存在するユーザA1を撮像した最下段に示す撮像画像では、ユーザA1は、ユーザA1から表示装置Dに向かって表示装置Dの左端領域の視線G3A1の方向を視認している。該最下段の撮像画像には、視線G3A1の先に、B地点に存在するユーザB1の後姿SB1が重畳して配置される。
B地点を撮像した撮像画像も同様に、B地点に存在するユーザB1を撮像した最上段に示す撮像画像では、ユーザB1は、ユーザB1から表示装置Dに向かって表示装置Dの右端領域の視線G1B1の方向を視認している。該最上段の撮像画像には、視線G1B1の先に、A地点に存在するユーザA1の後姿SA1が重畳して配置される。
B地点に存在するユーザB1を撮像した中段に示す撮像画像では、ユーザB1は、ユーザB1から表示装置Dに向かって表示装置Dの中央領域の視線G2B1の方向を視認している。該中段の撮像画像には、視線G2B1の先に、A地点に存在するユーザA1の後姿SA1が重畳して配置される。
B地点に存在するユーザB1を撮像した最下段に示す撮像画像では、ユーザB1は、ユーザB1から表示装置Dに向かって表示装置Dの左端領域の視線G3B1の方向を視認している。該最下段の撮像画像には、視線G3B1の先に、A地点に存在するユーザA1の後姿SA1が重畳して配置される。
このように、A地点の撮像画像に表示されるユーザの視線の先に、B地点のユーザの後姿を該撮像画像に重畳して表示することにより、B地点のユーザは、撮像画像に表示されるA地点のユーザと目を合わせてコミュニケーションをとるかのような疑似体験を行うことができる。
(1.3.効果)
具体的に、本開示の技術の目的と効果とを図3および図4を用いて説明する。図3は、表示装置等を介さずに、同一の空間で複数のユーザがコミュニケーションを行う場合を示している。図3のようなリアルな会議では、ユーザ5、ユーザ6、ユーザ7、ユーザ8、が同一空間を共有している。ユーザ5は、話者であるユーザ7を視認しており、ユーザ6は、他方の話者であるユーザ8を視認している。ユーザ7とユーザ8は互いに目を合せてコミュニケーションを行っている。このとき、各ユーザは各ユーザの目線を把握できる。
一方、図4は、表示装置を介して他拠点同士でコミュニケーションを行うビデオチャットの一例を示している。ユーザ5、ユーザ6、ユーザ8、は、他拠点に存在するユーザ7と表示装置を介して会議を行っている。ユーザ5はユーザ7を視認し、ユーザ6はユーザ8を視認し、ユーザ8はユーザ7を視認している。ここで、ユーザ7は、ユーザ7が視認する表示装置に表示されるユーザ5、ユーザ6、ユーザ8のいずれかを視認していると考えられる。しかしながら、表示装置を介したコミュニケーションでは、ユーザ7がユーザ5、ユーザ6、ユーザ8のいずれを視認しているか把握することが困難である。つまり、このようなビデオチャットにおいては、よく撮像画像上のユーザ7は、カメラ目線となってしまい、モナリザ効果により、ユーザ5、ユーザ6、ユーザ8は、それぞれが自分を視認していると認識することもある。
本開示の技術を適用することにより、撮像画像上のユーザ7の視線の先に視認対象であるユーザ5、ユーザ6、ユーザ8のいずれかの後姿を重畳して配置することができる。これにより、ユーザ5、ユーザ6、ユーザ8は、ユーザ7がユーザ5、ユーザ6、ユーザ8の中で誰を視認しているか判別でき、より臨場感のある会議を体感することができる。
(2.構成)
(2.1.外部構成)
図5および図6を参照して、臨場感のある会議を体感することができる情報処理装置を含む情報処理システムの構成の一例を説明する。図5は、情報処理システムの概要を示した概要図であり、図6は情報処理システムの内部構成を示したブロック図である。
図5によると、地点Aには、ユーザA1が存在し、表示装置Dと、チャット用カメラVCと後姿用カメラSCが配置されている。地点Bには、ユーザB1およびユーザB2が存在し、表示装置Dと、チャット用カメラVCと後姿用カメラSCが配置されている。
地点Aでは、表示装置Dに、地点Bのチャット用カメラVCにより撮像された撮像画像が表示されており、ユーザA1は、表示装置Dを通して、ユーザB1およびユーザB2を視認してコミュニケーションできる。地点Bでは、表示装置Dに、地点Aのチャット用カメラVCにより撮像された撮像画像が表示されており、ユーザB1およびユーザB2は、表示装置Dを通して、ユーザA1を視認してコミュニケーションできる。
表示装置Dでは、地点Bのチャット用カメラVCにより撮像された撮像画像に重畳して、後姿用カメラSCにより撮像された撮像画像から作成されたユーザA1の後姿SA1が表示されている。一方、表示装置Dでは、地点Aのチャット用カメラVCにより撮像された撮像画像に重畳して、後姿用カメラSCにより撮像された撮像画像から作成されたユーザB1の後姿SB1およびーザB2の後姿SB2が表示されている。
ユーザA1は視線A1vの方向で表示装置Dに表示されるユーザB2を視認しており、表示装置DにはユーザA1の視線A1vの方向にユーザB2の後姿SB2が表示されている。これにより地点Bに存在するB1およびB2は、ユーザA1がユーザB2を視認してコミュニケーションしていると認識できる。
(2.2.内部構成)
図6によると、情報処理システム1000は、地点Aに設けられる後姿カメラSCと、チャットカメラVCと、表示装置Dと、地点Bに設けられる後姿カメラSCと、チャットカメラVCと、表示装置Dと、制御部100と、を備える。
チャットカメラVC、VCは、各地点を撮像する機能を有する。チャットカメラVC、VCは、RGBカメラまたはサーモカメラ等の画像(静止画像又は動画像)を撮像する撮像装置であり、レンズ系、駆動系、及び撮像素子を有してもよい。チャットカメラSC、SCにより得られた撮像画像は、画像処理に使用されてもよく、表示装置D、Dにて表示するために使用されてもよい。
後姿カメラSC、SCは、各地点におけるユーザの後姿を撮像する機能を有する。チャットカメラVC、VCと同様の撮像装置であってよい。
表示装置D、Dは、制御部100の指示により、各地点において、他拠点のチャットカメラVC、VCにて撮像された撮像画像を表示し、かつ自拠点に存在する後姿カメラSC、SCにて撮像されたユーザの後姿を表示する機能を有する。具体的に、表示装置D、Dは、制御部100により生成された表示画像をユーザに対して視覚的に通知することが可能な装置で形成される。このような装置として、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、EL (electroluminescence)ディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置がある。
制御部100は、A地点およびB地点に設けられる各種装置から、各種データを取得して、表示装置を制御する機能を有する。制御部は、取得部110と、人物認識部120と、3D変換部130と、表示制御部140と、を有する。
取得部110は、後姿カメラSC、SCから撮像画像を取得する。また、取得部110は、チャットカメラVC、VCから撮像画像を取得する。取得部110は、例えば、通信により撮像画像を取得する。通信は、常時行われてもよく、不連続に適宜行われてもよい。取得部110は取得した撮像画像を人物認識部120に出力する。
人物認識部120は、チャットカメラVC、VCから取得された撮像画像を処理することで、ユーザの位置を特定する機能を有する。図7を参照して説明する。図7は、地点Aにおいて、人物認識部120が地点AのユーザA1を認識し、各種情報を取得する様子を示した図である。図7に示す地点Aでは、表示装置Dと、ユーザA1が対向している。図7の左図は、表示装置Dと、ユーザA1とを直上からみた上面視図であり、図7右図は、表示装置Dと、ユーザA1とを横からみた側面視図である。表示装置Dは、水平方向長さH、垂直方向長さVを有する。図7に示すように、表示装置Dの上部には、チャットカメラVCが設けられている。チャットカメラVCの水平方向の水平撮像画角θおよび垂直方向の垂直撮像画角φは、チャットカメラVCから任意の範囲を有する。
人物認識部120は、チャットカメラVCが撮像した撮像画像から、水平撮像画角θおよび垂直方向撮像画角φ内でユーザA1が存在する3次元空間の位置を認識する。人物認識部120は、表示装置Dに対してユーザA1が存在する位置を認識してもよい。
さらに、人物認識部120は、チャットカメラVCが撮像した撮像画像から、ユーザの視線関連情報を取得する機能を有する。ユーザの視線関連情報とは、ユーザの視線、視距離に関する情報を含む。ユーザの視線は、表示装置Dに対するユーザの視線方向、視線位置を含む。ユーザの視距離は、ユーザの目から表示装置Dまでの水平距離であってよい。図7左図を用いて説明すると、ユーザA1は視線A1vを表示装置Dに対して向けており、ユーザA1は、ユーザの目から表示装置Dまでの水平距離である視距離dA1で、表示装置Dを視認している。図7右図を用いて説明すると、床Fに直立するユーザA1は視線A1vを表示装置Dに対して向けており、ユーザA1は、ユーザの目から表示装置Dまでの水平距離である視距離dA1で、表示装置Dを視認している。このように人物認識部120は、ユーザの目から表示装置Dまでの水平距離を視距離として認識する。
人物認識部120は、チャットカメラVC、VCが撮像した撮像画像から、ユーザを検出する機能を有する。図8を用いて説明すると、地点Bにおいて、人物認識部120は、地点Bの撮像画像を画像処理することで、地点Bの空間内に存在する物体の中からユーザB1およびB2のような人物を検出し、ユーザB1およびB2をそれぞれ特定する。
人物認識部120は、チャットカメラVC、VCが撮像した撮像画像から、ユーザ検出するのと同様に、後姿カメラSC、SCにより撮像された撮像画像から、ユーザの後姿を検出する機能を有する。人物認識部120は、地点AのチャットカメラSCが撮像したユーザA1と地点Aの後姿カメラSCが撮像したユーザA1とが同一のユーザを示すことを認識し関連付けを行い得る。このような関連付けを行うことにより、後に説明する仮想3D空間における地点AのチャットカメラVCが撮像したユーザA1の位置にユーザA1の後姿を配置することが可能となる。
3D変換部130は、人物認識部120から取得した各種情報を用いて、地点Bの表示装置にて表示される表示画像を制御するための仮想撮像画像を生成し、生成した仮想撮像画像を表示制御部140へ出力する機能を有する。図9を用いて説明すると、3D変換部130は、仮想3D空間に、表示装置Dと表示装置Dを配置することで、ユーザA1の視距離dA1を用いて、ユーザオブジェクトであるユーザB1の後姿SB1、およびユーザB2の後姿SB2の表示位置を決定する。
図10および図11を参照して、3D変換部130が行う処理を詳しく説明する。図10は、仮想3D空間200を示している。仮想3D空間200では、A地点における表示装置DとユーザA1との位置関係を疑似的に再現する。仮想3D空間200には、実空間のA地点に配置された表示装置Dと同一の大きさを示す仮想第1表示装置Dが配置されている。ここで、仮想第1表示装置は表示装置Dと同一の大きさを示すため、同一の符号を付記している。
仮想第1表示装置Dと対向する位置には、仮想第2表示装置Dが配置される。仮想第2表示装置Dの配置位置は、地点Aにおける表示装置DとユーザA1との位置関係により決定する。具体的には、仮想第2表示装置Dは、地点Aにおける表示装置DとユーザA1との視距離dA1と同じ距離を置いて、仮想第1表示装置Dと離隔して配置される。
仮想第1表示装置Dには、地点Aのように、チャットカメラVCで撮像されたユーザB1、B2が表示されており、仮想第2表示装置Dには、地点Bのように地点Aのように、チャットカメラVCで撮像されたユーザA1が表示されている。
仮想3D空間における仮想第2表示装置Dの縦横サイズは、視距離と第1撮像画像を撮像する第1撮像装置の画角とにより決定される。つまり、仮想第2表示装置Dの横サイズHは、視距離dA1と仮想第1表示装置Dの水平撮像画角θとにより決定され、H=2dA1tan(θ/2)で表すことができる。一方、仮想第2表示装置Dの縦サイズVは、視距離dA1と仮想第1表示装置Dの垂直撮像画角φとにより決定され、V=2dA1tan(φ/2)で表すことができる。
3D変換部130は、図10に示した各仮想表示装置の配置と、該仮想表示装置に表示されるユーザA1、ユーザB1、ユーザB2とを用いて画像変換を行い、地点Bの表示装置Dに表示される画像を生成するための情報を表示制御部140に出力する。
3D変換部130は、上述した仮想3D空間においてさらに、表示起点を配置し、表示起点から仮想撮像装置(図示せず。)により撮像した仮想撮像画像を用いて、地点Bの表示装置Dに表示される画像を生成する。図11は、図10の仮想第1表示装置および仮想第2表示装置の配置に対してさらに表示起点Pを示した図である。表示起点Pは、仮想第2表示装置Dに表示される第1ユーザA1を起点として第1表示装置が配置される位置と同じ側にあり仮想第1表示装置よりも離れた位置に存在する。実空間の地点Bにおける表示装置Dに表示される画像は、仮想第1表示装置Dと仮想第2表示装置Dと、表示起点Pより撮像される仮想撮像画像と、に基づいて制御される。具体的には、仮想撮像画像Pvは、表示起点Pから撮像され、表示起点Pから視認される画角範囲内の物体を撮像した画像である。仮想撮像画像Pvは、表示起点Pから、人等が仮想第1表示装置の存在する方向を視認した場合に、仮想第1表示装置と仮想第2表示装置とが重畳される様子が示された画像である。
表示制御部140は、3D変換部130にて生成された仮想撮像画像を用いて、実空間の地点Bにおける表示装置Dに表示される画像を制御する。
図12および図13を参照して、仮想撮像画像と表示制御とに関して説明する。図12および図13は、表示起点Pから撮像される仮想撮像画像Pvに基づいて、表示装置DBに表示される画像が制御された一例を示した図である。図12の上図は、仮想撮像画像Pvを示している。これより、仮想撮像画像Pv内で、仮想第2表示装置に表示されるユーザA1と、仮想第2表示装置Dに表示されるユーザB1、B2とが表示される中で、ユーザA1とユーザB1の後姿とが重畳して表示されている。
表示制御部140は、図12の上図に示したように、仮想撮像画像Pv内で、ユーザA1にユーザB1またはB2の後姿が重なって表示されていたら、ユーザB1またはB2の後姿のサイズを変更して、図12の下図に示したように、ユーザA1にユーザB1またはB2の後姿が重ならないようにする。後姿の重なりの程度は、情報処理システム1000を利用するユーザにより適宜決定されてよい。例えば、表示制御部140は、少なくともユーザA1の目に重ならないように、後姿のサイズを変更すればよい。よって、表示制御部140は、認識されたユーザA1の目の位置から一定距離外にユーザB1またはB2の後姿が配置されるように、後姿のサイズを変更して良い。また例えば、表示制御部140は、ユーザB1、B2の後姿がユーザA1の顔の輪郭に重なるか否かでユーザB1、B2の後姿のサイズを変更するか否かを判断してよい。表示制御部140は、ユーザB1、B2の後姿がユーザA1の顔の輪郭に重なっていれば、ユーザB1、B2の後姿のサイズをユーザA1の顔の輪郭に重ならないように変更して良い。これにより、ユーザB1、B2は、ユーザA1の視線を確実に把握することができ、より快適なコミュニケーションが可能である。
また、表示制御部140は、図13に示したように、仮想撮像画像Pvにおいて、ユーザB1またはB2の後姿がフレームアウトした場合、フレームアウトしたユーザB1またはB2が仮想撮像画像Pv内に入るように、仮想撮像画像Pvの範囲を変更してもよい。この変更は、表示起点Pの移動により行われる。例えば、フレームアウトしたユーザB1またはB2を仮想撮像画像Pv内に入るようにするために、表示起点Pと仮想第2表示装置Dとが、より離隔して配置されてもよい。これにより、図13の下図に示したように、仮想第1表示装置Dおよび仮想第2表示装置Dを仮想撮像画像Pv内で縮小することができ、ユーザA1およびユーザB1、B2を明確に表示できる。
このような表示制御では、表示画像に違和感を生じさせずに表示することができる。また、変換処理を通した表示制御も処理負荷を軽減して実現可能である。
さらにまた、表示制御部140は、仮想撮像画像Pvにおいて、ユーザB1またはB2がフレームアウトした場合、フレームアウトしたユーザB1またはB2の後姿が仮想撮像画像Pv内に入るように、ユーザB1またはB2の後姿の表示位置を変更してもよい。該表示位置の変更は、ユーザA1の目線の先と後姿の位置とが対応する範囲で変更されてよい。なお、本実施形態では、B地点のユーザが視認する撮像画像に対してユーザの後姿を配置する箇所を表示制御部140により変更したが、かかる例に限定されない。表示制御部140はB地点のユーザの後姿を配置する箇所を予め決めておいて、B地点のユーザの後姿の配置箇所にA地点のユーザの視線を加工して、B地点のユーザの後姿と視線が合っているかのように、視線を加工してもよい。このとき、B地点にて視認されるA地点のユーザの視線の先に配置されるB地点のユーザの後姿のそれぞれは、タグ付けがされて、各ユーザを識別可能な状態として加工されてもよい。
その他にも、表示制御部140は、図12の上図に示したように、仮想撮像画像Pv内で、ユーザA1にユーザB1またはB2の後姿が重なって表示されていたら、後姿の透過度を変更することで、ユーザA1と後姿の視認性を保持してもよい。具体的には、表示制御部140は、ユーザA1と重なっている後姿の部分の透過度をより上昇させ、ユーザA1と重なっていない後姿部分の透過度を低下させてもよい。これにより、表示制御部140は、ユーザA1の視認性を保持して、後姿の視認性も保持することができる。
(3.動作フロー)
図14を用いて上述までに説明した各装置および各構成が行う動作フロー(S100)を説明する。
まず、地点Aでは、チャットカメラVCが地点Aを撮影する(S102)。また、地点Aでは、後姿カメラSCがユーザA1の後姿を撮影する(S104)。他方、地点Bでは、チャットカメラVCが地点Bを撮影する(S106)。また、地点Bでは、後姿カメラSCがユーザB1、B2の後姿を撮影する(S108)。
これらの動作は、同時に動作を開始してもよく、順次動作を開始してもよい。各動作が行われる順番は問わない。
次に、取得部が、チャットカメラVC、VCおよび後姿カメラSC、SCから撮像画像を取得する(S110)。
次に、人物認識部120が撮像画像からユーザを認識して、各種情報を検出する(S111)。
人物認識部120が、ユーザA1の視距離を検出する(S112)。このとき人物認識部120は、撮像画像からユーザA1を検出および特定し、チャットカメラVCとユーザA1との視距離を検出する。
人物認識部120が、撮像画像から撮像画像内のユーザの位置を特定する(S113)。このとき、人物認識部120は、撮像画像からユーザB1、B2を検出および特定し、撮像画像内の位置を特定する。なお、撮像画像内の位置は、地点Bにおける実空間内での位置であってもよい。
人物認識部120が、後姿カメラの撮像画像から後姿を抽出する(S114)。このとき人物認識部120は、撮像画像からユーザB1およびB2の人物部分を検出および特定し、撮像画像内のユーザB1およびB2の後姿と背景とを分離して抽出する。
次に、3D変換部が、A地点の表示装置とユーザA1との位置関係に基づいて、仮想3D空間に、仮想第1表示装置と仮想第2表示装置とを配置する(S116)。
次に、表示制御部が、配置された仮想第1表示装置と仮想第2表示装置の位置関係と、表示起点から撮像された仮想撮像画像とに基づいて、地点Bの表示装置Bで表示される画像を制御する(S120)。
各構成が上述したような動作フローを行うことにより、ユーザA1の顔に補正、画像処理などを加えることなく、表示画像に違和感を生じさせずに表示することができる。また、3D変換処理を通した表示制御も処理負荷を軽減して実現可能である。
(4.変形例)
以上までで、本実施形態にかかる情報処理装置および情報処理方法の説明を行った。本項では、図15および図16を参照して、本実施形態にかかる情報処理装置および情報処理方法の変形例の一例を説明する。
(4.1.視距離の優先順位)
上記実施形態においては、地点AにユーザA1と地点BにユーザB1、B2とが存在し、地点Aと地点Bとがコミュニケーションをとる一例を説明した。ここでは、図15を参照して、上記実施形態の変形例として、地点Aにユーザが複数いる場合の一例を説明する。図15は、地点Aにユーザが複数いる場合の一例を示した図である。
図15に示す地点Aには、床Fに直立し、表示装置Dを視認するユーザA1とユーザA2が存在する。ユーザA1およびユーザA2と表示装置Dとの距離が異なる。ユーザA1およびユーザA2と表示装置Dとの距離とは、ユーザA1およびユーザA2の表示装置Dに対する視距離であってよい。視距離とは、ユーザの目から表示装置Dまでの水平距離であってよい。
このように、地点Aに複数のユーザが存在する場合には、制御部100は、視距離が最も小さいユーザの視距離を優先して、表示制御を行ってよい。チャットカメラに近いほど、視線の向きの振れ幅が大きくなるため、上記のように視距離が最も小さいユーザの視距離を優先することで、振れ幅を抑制することができる。また、制御部100は、地点Aの複数のユーザの中から、話者を特定して、特定された話者の視距離を優先して、表示制御を行ってもよい。
(4.2.測距センサの使用)
上記実施形態の他の変形例の一例として、図16を参照して、後姿を作成する情報を取得する後姿カメラの代わりに、測距センサを使用した技術を説明する。
図16は、図5に示した表示装置Dと表示装置Dとに、測距センサ装置Kn、Knを備えた例を示している。測距センサ装置は、測距センサ装置からユーザの体の部位の距離までを測定可能な位置に配置される。測距センサ装置としては、ToF(Time of Flight)センサを例示することができる。例えば、ToFセンサは、ユーザの体に対して赤外光をパルス照射し、赤外光が体の表面で反射して返ってくるまでの時間を直接計測する方法(dToF法)、または赤外光を変調し、照射時の光の位相と、反射して返って来た光の位相との位相差に基づいて算出する方法(iToF法)等を用いて、ユーザの体までの距離を測定する。
制御部100は、測距センサ装置Kn、Knにより、ユーザの動きに関する情報を取得して、該情報に基づいて、アバターまたはアバターを一部加工したユーザオブジェクトを作成しても良い。ユーザが複数人いる場合は、チャットカメラVC、VCにより特定したユーザと、測距センサ装置Kn、Knによりユーザの動きに関する情報を取得したユーザとを関連づけて、リアルタイムにユーザの骨格の動き等を取得して、ユーザオブジェクトに反映させてよい。ユーザが複数人いる場合には、表示制御部140は、各ユーザに対応するユーザオブジェクトに各ユーザの視覚的な特徴を反映させても良い。これにより、それぞれのユーザオブジェクトに差異が生まれ、識別が可能となる。視覚的な特徴は、例えば、服のテクスチャまたは髪型などでよい。
なお、本変形例では、後姿カメラの代わりに、測距センサ装置を使用する例を説明したが、チャットカメラと測距センサ装置とが同一デバイスであってもよい。これによると、チャットカメラが撮像する撮像画像を画像認識および画像処理を行うことで、測距が可能であり、設置される装置の数を抑制することができる。
(4.3.グラス型表示装置の使用)
上記実施形態の他の変形例の一例として、図17を参照して、ユーザオブジェクトを表示制御する際に、グラス型表示装置を装着してユーザが視認をする技術を説明する。図17は、図1に示す本開示の技術概要の一例がグラス型の表示装置に適用された一例を示している。図17によると、ユーザ4は、透過型グラス300を装着している。ユーザ4は、表示装置Dに表示される撮像画像に対して透過型グラス300により重畳表示されたユーザオブジェクトSを視認する。これにより、ユーザが移動しても、ユーザの位置に応じて、ユーザオブジェクトSの表示位置を変化させることができ、より利便性が向上する。
(5.ハードウェア構成例)
図18を参照して、本実施形態に係る情報処理システムに含まれる情報処理装置の制御部のハードウェア構成の一例について説明する。図18は、本実施形態に係る制御部のハードウェア構成の一例を示すブロック図である。
図18に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、表示装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP若しくはASIC等の処理回路を有してもよい。
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図6に示す制御部を形成し得る。
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
表示装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置等がある。表示装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、表示装置907は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置を用いる場合は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。表示装置907は、例えば、図6に示す表示装置D若しくは表示装置Dである。
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図6に示す制御部100において、表示制御部140が表示装置D、表示装置Dを制御する際に使用する仮想撮像画像または、仮想撮像画像を生成する際に使用される各種パラメータ等を記憶する。
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913により、例えば、図6に示す、制御部100とA地点およびB地点の各種装置とは、各種情報の送受を行っている。この送受の際には、通信装置913のような装置が使用されてもよい。
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
また、情報処理装置900では、情報処理システム1000に内蔵されるCPU、ROM及びRAMなどのハードウェアを上述した本実施形態に係る情報処理システム1000の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記録媒体も本開示に係る技術の範疇に含まれ得る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、
前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示する、情報処理装置。
(2)
前記視線関連情報は、前記第1空間に存在する前記第1ユーザから前記第1ユーザが視認する第1表示装置までの視距離に関する情報を含み、
前記表示制御部は、前記視距離に関する情報に基づいて、前記第2ユーザに対応する前記第2ユーザオブジェクトの表示位置を制御する、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記視距離に関する情報に基づいて、前記第1撮像画像のサイズを制御する、前記(2)に記載の情報処理装置。
(4)
前記第1ユーザ、前記第1表示装置、前記第2表示装置、及び前記第2ユーザの位置関係を仮想的に同一空間で表した仮想3D空間を生成する3D変換部をさらに備え、
前記表示制御部は、前記仮想3D空間に配置される前記第1ユーザ、および前記仮想3D空間に配置され前記第1ユーザから前記視距離だけ離隔されて配置された前記第1表示装置の位置関係と、前記第1ユーザを起点として前記第1表示装置と同じ側にあり前記第1表示装置よりも離れた位置に配置された表示起点から仮想的に撮像される仮想撮像画像と、に基づいて、前記第2ユーザオブジェクトの前記表示位置と前記第1撮像画像の前記サイズとを制御する、前記(3)に記載の情報処理装置。
(5)
前記第2空間に存在する前記第2表示装置は、前記仮想3D空間では、前記第1ユーザに対応して、前記第1ユーザと同じ位置に配置され、
前記表示制御部は、前記仮想3D空間における前記第2表示装置と前記第1表示装置との位置関係を用いて、前記第2ユーザオブジェクトの前記表示位置と前記第1撮像画像の前記サイズとを制御する、前記(4)に記載の情報処理装置。
(6)
前記第2表示装置に表示される前記第1撮像画像のサイズは、前記視距離と前記第1撮像画像を撮像する第1撮像装置の画角とにより決定される、前記(2)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記表示制御部は、前記第1撮像画像に表示された前記第1ユーザと、前記第2ユーザオブジェクトとが重畳されないように、前記第2ユーザオブジェクトのサイズを変更する、前記(1)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記第2ユーザに対応する前記第2ユーザオブジェクトは、前記第2ユーザの後姿を撮像した第2ユーザ後姿撮像画像から抽出した前記第2ユーザの画像に基づいて作成される、前記(2)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第1撮像装置と前記第1表示装置とは、一体化して備えられる、前記(6)に記載の情報処理装置。
(10)
前記第2ユーザオブジェクトは、前記第2ユーザに対して照射して、前記第2ユーザから反射した赤外光から取得される情報を用いて作成される、前記(2)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、さらに、
前記第2空間に存在する少なくとも1以上の第2ユーザを撮像した第2撮像画像を表示する、第1空間に存在する第1表示装置を制御し、前記第1空間に存在する少なくとも1以上の前記第1ユーザに対応する第1ユーザオブジェクトを、前記第2ユーザの視線関連情報に応じて前記第2撮像画像に重畳表示する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御することと、
前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示することと、を含む情報処理方法。
(13)
コンピュータを、
第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、
前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示するように機能させるための、プログラム。
、D 表示装置
VC、VC チャット用カメラ
SC、SC 後姿用カメラが
100 制御部
110 取得部
120 人物認識部
130 変換部
140 表示制御部

Claims (13)

  1. 第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、
    前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示する、情報処理装置。
  2. 前記視線関連情報は、前記第1空間に存在する前記第1ユーザから前記第1ユーザが視認する第1表示装置までの視距離に関する情報を含み、
    前記表示制御部は、前記視距離に関する情報に基づいて、前記第2ユーザに対応する前記第2ユーザオブジェクトの表示位置を制御する、請求項1に記載の情報処理装置。
  3. 前記表示制御部は、前記視距離に関する情報に基づいて、前記第1撮像画像のサイズを制御する、請求項2に記載の情報処理装置。
  4. 前記第1ユーザ、前記第1表示装置、前記第2表示装置、及び前記第2ユーザの位置関係を仮想的に同一空間で表した仮想3D空間を生成する3D変換部をさらに備え、
    前記表示制御部は、前記仮想3D空間に配置される前記第1ユーザ、および前記仮想3D空間に配置され前記第1ユーザから前記視距離だけ離隔されて配置された前記第1表示装置の位置関係と、前記第1ユーザを起点として前記第1表示装置と同じ側にあり前記第1表示装置よりも離れた位置に配置された表示起点から仮想的に撮像される仮想撮像画像と、に基づいて、前記第2ユーザオブジェクトの前記表示位置と前記第1撮像画像の前記サイズとを制御する、請求項3に記載の情報処理装置。
  5. 前記第2空間に存在する前記第2表示装置は、前記仮想3D空間では、前記第1ユーザに対応して、前記第1ユーザと同じ位置に配置され、
    前記表示制御部は、前記仮想3D空間における前記第2表示装置と前記第1表示装置との位置関係を用いて、前記第2ユーザオブジェクトの前記表示位置と前記第1撮像画像の前記サイズとを制御する、請求項4に記載の情報処理装置。
  6. 前記第2表示装置に表示される前記第1撮像画像のサイズは、前記視距離と前記第1撮像画像を撮像する第1撮像装置の画角とにより決定される、請求項5に記載の情報処理装置。
  7. 前記表示制御部は、前記第1撮像画像に表示された前記第1ユーザと、前記第2ユーザオブジェクトとが重畳されないように、前記第2ユーザオブジェクトのサイズを変更する、請求項1に記載の情報処理装置。
  8. 前記第2ユーザに対応する前記第2ユーザオブジェクトは、前記第2ユーザの後姿を撮像した第2ユーザ後姿撮像画像から抽出した前記第2ユーザの画像に基づいて作成される、請求項2に記載の情報処理装置。
  9. 前記第1撮像装置と前記第1表示装置とは、一体化して備えられる、請求項6に記載の情報処理装置。
  10. 前記第2ユーザオブジェクトは、前記第2ユーザに対して照射して、前記第2ユーザから反射した赤外光から取得される情報を用いて作成される、請求項2に記載の情報処理装置。
  11. 前記表示制御部は、さらに、
    前記第2空間に存在する少なくとも1以上の第2ユーザを撮像した第2撮像画像を表示する、第1空間に存在する第1表示装置を制御し、前記第1空間に存在する少なくとも1以上の前記第1ユーザに対応する第1ユーザオブジェクトを、前記第2ユーザの視線関連情報に応じて前記第2撮像画像に重畳表示する、請求項1に記載の情報処理装置。
  12. 第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御することと、
    前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示することと、を含む情報処理方法。
  13. コンピュータを、
    第1空間に存在する少なくとも1以上の第1ユーザを撮像した第1撮像画像を表示する、第2空間に存在する第2表示装置を制御する表示制御部を備え、
    前記表示制御部は、前記第2空間に存在する少なくとも1以上の第2ユーザに対応する第2ユーザオブジェクトを、前記第1ユーザの視線関連情報に応じて前記第1撮像画像に重畳表示するように機能させるための、プログラム。
JP2020556719A 2018-11-09 2019-10-16 情報処理装置、情報処理方法及びプログラム Active JP7452434B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018211671 2018-11-09
JP2018211671 2018-11-09
PCT/JP2019/040620 WO2020095639A1 (ja) 2018-11-09 2019-10-16 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020095639A1 true JPWO2020095639A1 (ja) 2021-09-24
JP7452434B2 JP7452434B2 (ja) 2024-03-19

Family

ID=70612392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556719A Active JP7452434B2 (ja) 2018-11-09 2019-10-16 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US11589001B2 (ja)
JP (1) JP7452434B2 (ja)
CN (1) CN113170075B (ja)
DE (1) DE112019005617T5 (ja)
WO (1) WO2020095639A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022130798A1 (ja) * 2020-12-16 2022-06-23 ソニーグループ株式会社 表示装置、表示制御方法、およびプログラム
CN116107534A (zh) * 2021-11-10 2023-05-12 财团法人工业技术研究院 信息显示方法及其处理装置与信息显示系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055257A (ja) * 1996-08-09 1998-02-24 Nippon Telegr & Teleph Corp <Ntt> 3次元仮想空間表示方法
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
US8208007B2 (en) * 2004-04-21 2012-06-26 Telepresence Technologies, Llc 3-D displays and telepresence systems and methods therefore
JP2009065490A (ja) 2007-09-07 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> テレビ会議装置
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
JP5674300B2 (ja) 2009-09-30 2015-02-25 一般財団法人Nhkサービスセンター 情報伝達処理装置及び情報伝達処理システム並びにこれらに用いるコンピューター・プログラム
CN103140879B (zh) * 2010-09-30 2017-06-16 富士胶片株式会社 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序
US8665307B2 (en) * 2011-02-11 2014-03-04 Tangome, Inc. Augmenting a video conference
JP2013042250A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置および撮像方法
JP2013062640A (ja) * 2011-09-13 2013-04-04 Sony Corp 信号処理装置、信号処理方法、およびプログラム
JP2014191718A (ja) * 2013-03-28 2014-10-06 Sony Corp 表示制御装置、表示制御方法および記録媒体
JP2015002477A (ja) 2013-06-17 2015-01-05 キヤノン株式会社 情報処理装置、情報処理システムおよび情報処理方法
US10075656B2 (en) * 2013-10-30 2018-09-11 At&T Intellectual Property I, L.P. Methods, systems, and products for telepresence visualizations
WO2017115507A1 (ja) * 2015-12-28 2017-07-06 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US10942024B2 (en) * 2016-02-02 2021-03-09 Sony Corporation Information processing apparatus, information processing method, and recording medium
US10219095B2 (en) * 2017-05-24 2019-02-26 Glen A. Norris User experience localizing binaural sound during a telephone call
JP6392945B1 (ja) * 2017-07-19 2018-09-19 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
KR102271308B1 (ko) * 2017-11-21 2021-06-30 주식회사 하이퍼커넥트 영상통화 중에 상호작용 가능한 시각적 오브젝트를 제공하기 위한 방법, 및 이를 수행하는 상호작용 가능한 시각적 오브젝트 제공 시스템

Also Published As

Publication number Publication date
CN113170075B (zh) 2024-04-19
US11589001B2 (en) 2023-02-21
JP7452434B2 (ja) 2024-03-19
WO2020095639A1 (ja) 2020-05-14
CN113170075A (zh) 2021-07-23
US20210400234A1 (en) 2021-12-23
DE112019005617T5 (de) 2021-08-19

Similar Documents

Publication Publication Date Title
JP6780642B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
WO2017215295A1 (zh) 一种摄像机参数调整方法、导播摄像机及系统
US11924402B2 (en) Information processing apparatus and information processing method
JP2016213674A (ja) 表示制御システム、表示制御装置、表示制御方法、及びプログラム
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPWO2020095639A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2011097447A (ja) コミュニケーションシステム
US11317082B2 (en) Information processing apparatus and information processing method
US20190028690A1 (en) Detection system
JPWO2019230169A1 (ja) 表示制御装置、プログラムおよび表示制御方法
JPWO2019087513A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018216327A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20240202944A1 (en) Aligning scanned environments for multi-user communication sessions
WO2017203818A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2017098999A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、コンピュータープログラム
US20230401805A1 (en) Merged 3D Spaces During Communication Sessions
US10816814B2 (en) Imaging device
JP6950548B2 (ja) 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置
WO2024050280A1 (en) Dual camera tracking system
JP2018056907A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R151 Written notification of patent or utility model registration

Ref document number: 7452434

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151