JP2014233035A - 情報処理装置、表示制御方法及びプログラム - Google Patents

情報処理装置、表示制御方法及びプログラム Download PDF

Info

Publication number
JP2014233035A
JP2014233035A JP2013114007A JP2013114007A JP2014233035A JP 2014233035 A JP2014233035 A JP 2014233035A JP 2013114007 A JP2013114007 A JP 2013114007A JP 2013114007 A JP2013114007 A JP 2013114007A JP 2014233035 A JP2014233035 A JP 2014233035A
Authority
JP
Japan
Prior art keywords
content
display
user
display screen
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013114007A
Other languages
English (en)
Other versions
JP6229314B2 (ja
Inventor
誠司 鈴木
Seiji Suzuki
誠司 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2013114007A priority Critical patent/JP6229314B2/ja
Priority to EP14729731.1A priority patent/EP3005716B1/en
Priority to US14/892,851 priority patent/US10038874B2/en
Priority to CN201480029853.6A priority patent/CN105247881B/zh
Priority to PCT/JP2014/002564 priority patent/WO2014192239A1/en
Publication of JP2014233035A publication Critical patent/JP2014233035A/ja
Application granted granted Critical
Publication of JP6229314B2 publication Critical patent/JP6229314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザの利便性をより向上させることを可能とする。
【解決手段】ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出するトリガー動作検出部と、前記トリガー動作検出部によって検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える表示制御部と、を備える、情報処理装置を提供する。
【選択図】図1

Description

本開示は、情報処理装置、表示制御方法及びプログラムに関する。
近年、相手の顔を見ながら互いに通話を行うテレビ電話システム(ビデオチャットシステム)を、PC(Personal Computer)等の個人用の情報処理端末を用いて気軽に利用することが一般的になっている。ビデオチャットシステムにおいては、対話相手とのより円滑なコミュニケーションを実現するために、対話相手とあたかも対面しているかのように、ユーザに対して対面相手の画像を表示する技術が提案されている。例えば、特許文献1には、ユーザの視線(目の位置)の変化に応じて、表示画面の奥行き及びユーザの視線方向の奥行きを反映した対話相手の画像をユーザ側の表示画面に表示させる技術が提案されている。
特開2011−77710号公報
一方、近年、PC等の情報処理装置においては、複数のアプリケーションを同時に実行する楽しみ方が普及しつつある。例えば、ビデオチャットシステムにおいては、他のコンテンツ(例えば、放送局から配信されるテレビ番組等)を視聴しながらビデオチャットを行う楽しみ方が提案されている。
ここで、複数のアプリケーションを同時に実行する場合には、それらのアプリケーションに関する複数のコンテンツが表示画面に表示され得るため、ユーザの利便性の観点からは、ユーザにとってより自由度の高い表示制御が行われることが求められる。例えば、上記のビデオチャットの例であれば、他のコンテンツとビデオチャットの対話相手の撮像画像とを両方表示させたり、いずれか一方のみを表示させて必要に応じて表示を切り換えたりといった表示画面の表示制御が、よりユーザにとって簡易な方法によって行われることが望ましい。上記特許文献1には、このような他のコンテンツを視聴しながらビデオチャットを行う場合については言及されておらず、互いに異なる複数のコンテンツが表示画面に表示される際の表示制御におけるユーザの利便性については検討されていなかった。
そこで、互いに異なる複数のコンテンツが表示画面に表示される際の表示制御について、ユーザの利便性をより向上させることが望まれていた。本開示では、ユーザの利便性をより向上させることが可能な、新規かつ改良された情報処理装置、表示制御方法及びプログラムを提案する。
本開示によれば、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出するトリガー動作検出部と、前記トリガー動作検出部によって検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える表示制御部と、を備える、情報処理装置が提供される。
また、本開示によれば、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出することと、検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換えることと、を含む、表示制御方法が提供される。
また、本開示によれば、コンピュータに、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出する機能と、検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える機能と、を実現させるためのプログラムが提供される。
本開示によれば、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作が検出される。そして、検出された当該トリガー動作に応じて、表示画面に第1のコンテンツが表示されかつ第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とが切り換えられる表示制御が行われる。従って、比較的簡易なトリガー動作によって表示画面の表示を制御することが可能となる。
以上説明したように本開示によれば、ユーザの利便性をより向上させることが可能となる。
本開示の一実施形態に係る表示制御システム及び情報処理装置の一構成例を示す機能ブロック図である。 一般的な既存の表示制御処理における表示画面の一例を模式的に示す概略図である。 一般的な既存の表示制御処理における表示画面の一例を模式的に示す概略図である。 トリガー動作が覗き込み動作である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 トリガー動作が覗き込み動作である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 トリガー動作が覗き込み動作である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 ビデオチャットにおいて対話相手が複数である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 ビデオチャットにおいて対話相手が複数である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 第2の表示状態において互いに異なる複数の第2のコンテンツが表示される場合の表示制御処理における表示画面の一例を模式的に示す概略図である。 第2の表示状態におけるユーザ及び対話相手の表示の補正処理について説明するための説明図である。 本開示の一実施形態に係る表示制御方法の処理手順の一例を示すフロー図である。 本開示の一実施形態に係る情報処理装置のハードウェア構成を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.表示制御システム及び情報処理装置の構成
2.表示制御処理の具体例
2−1.一般的な既存の表示制御処理
2−2.本実施形態に係る表示制御処理
2−2−1.覗き込み動作による表示制御
2−2−2.複数の第2のコンテンツの表示
2−2−3.互いに異なる複数のコンテンツの表示
2−2−4.ユーザ及び対話相手の表示の補正
3.表示制御方法の処理手順
4.ハードウェア構成
5.まとめ
<1.表示制御システム及び情報処理装置の構成>
本開示の一実施形態においては、互いに異なる複数のコンテンツが表示され得る状況における表示画面の表示制御が行われる。具体的には、本実施形態においては、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作が検出される。そして、検出された当該トリガー動作に応じて、表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とが切り換えられる表示制御が行われる。以下の説明では、これらの各処理を少なくとも含む本実施形態における一連の処理のことを、表示制御処理と呼称する。
まず、本実施形態に係る表示制御処理を実現するための表示制御システムの一構成例について説明する。なお、以下の説明においては、ビデオチャットシステムを利用する場合を例に挙げて、他のコンテンツ(例えば放送局から配信されるテレビ番組等)を視聴しながらビデオチャットを行う際の表示画面の表示制御処理について説明する。また、ビデオチャット中に表示画面に表示される互いに異なる複数のコンテンツは、例えば、上記テレビ番組等の他のコンテンツ(以下、第1のコンテンツとも呼称する。)と、ビデオチャットの利用者(ユーザ及び対話相手)の撮像画像(以下、第2のコンテンツとも呼称する。)であるとする。従って、ビデオチャットシステムを利用する場合であれば、本実施形態に係る表示制御処理では、第1のコンテンツである他のコンテンツが表示されかつ第2のコンテンツであるビデオチャットにおける対話相手の撮像画像が表示されない第1の表示状態と、当該他のコンテンツと当該対話相手の撮像画像とが少なくとも表示された第2の表示状態とが切り換えられる。第1のコンテンツ及び第2のコンテンツは、ともにビデオチャット利用時に表示画面に表示され得るものであるから、互いに関連し合うコンテンツであると言える。ただし、本実施形態に係る表示制御処理は、ビデオチャットシステム利用時における表示画面の表示制御に限定されず、表示画面において互いに異なる複数のコンテンツの表示が切り換えられる表示制御であれば、他のシステムやアプリケーションの利用時における表示制御にも適用可能である。また、第1のコンテンツ及び第2のコンテンツも上記の例に限定されず、表示画面に表示されるコンテンツはあらゆる画像、映像、テキスト等のコンテンツであってよい。
図1を参照して、本実施形態に係る表示制御処理を実現するための表示制御システム、及び、当該表示制御システムを構成する情報処理装置の一構成例について説明する。図1は、本開示の一実施形態に係る表示制御システム及び情報処理装置の一構成例を示す機能ブロック図である。
図1を参照すると、本実施形態に係る表示制御システム1は、複数の情報処理装置10とシステム管理サーバ20とが、通信網(ネットワーク)30を介して互いに各種の情報を通信可能に(送受信可能に)接続されて構成される。
システム管理サーバ20は、ビデオチャットシステムにおける各種の情報や処理を統合的に管理、制御するサーバである。ここで、ビデオチャットシステムとは、情報処理装置10のユーザと少なくとも1人以上の対話相手とが、情報処理装置10を介してユーザ及び対話相手が撮影された撮像画像についての情報並びにユーザ及び対話相手が発した音声についての情報を少なくとも互いに送受信することが可能なシステムであり、いわゆるテレビ電話システムのことである。例えば、システム管理サーバ20は、当該ビデオチャットシステムの利用者のアカウント情報(ID情報、パスワード情報等)の管理や、利用者間のビデオチャットの接続や切断等の各種の処理を行う。更に、システム管理サーバ20は、一般的な公知のビデオチャットシステムのシステム管理サーバが行う各種の処理を行うことができる。なお、以下の説明では、ビデオチャットシステムにおいて情報処理装置10を介してユーザと対話相手との間でやり取りされる各種の情報について、ユーザ及び対話相手が撮影された撮像画像を含む画像に関する各種の情報を映像情報とも呼称し、ユーザ及び対話相手が発した音声を含む音声に関する各種の情報を音声情報とも呼称する。
情報処理装置10は、例えばPC等の情報処理端末であり、システム管理サーバ20の管理の下、ビデオチャットを行うための端末である。例えば、各情報処理装置10には、ビデオチャットシステムにおけるそれぞれ個別のアカウントが割り当てられている。当該アカウントに基づいて、システム管理サーバ20によって認証された複数の情報処理装置10が互いに映像情報及び音声情報等を送受信可能に接続されることにより、複数の情報処理装置10間におけるビデオチャットが可能となる。
図1に示す例では、簡単のため、2つの情報処理装置10がネットワーク30を介して接続される様子が図示されている。以下の説明では、便宜的に、一方の情報処理装置10を利用するユーザのことをユーザA、他方の情報処理装置10を利用するユーザのことをユーザBと呼称して、ビデオチャットにおける双方の利用者を区別する。また、以下では、主にユーザAの視点から本実施形態に係る表示制御処理について説明を行うこととするが、ユーザAの情報処理装置10において行われる各種の処理については、ユーザBの情報処理装置10においても同様の処理が行われてよい。また、以下の説明では、ユーザAのことを単に「ユーザ」とも呼称し、ユーザBのことを「対話相手」とも呼称する。
情報処理装置10の構成について詳しく説明する。図1を参照すると、本実施形態に係る情報処理装置10は、動作情報取得部110、表示部120、通信部130及び制御部140を備える。なお、図1では、簡単のため、一方の情報処理装置10(例えばユーザAの情報処理装置10)についてのみその構成を詳細に図示し、他方の情報処理装置10(例えばユーザBの情報処理装置10)についてはその詳細な構成の図示を省略しているが、各情報処理装置10は同様の構成を有する。ここでは、ユーザAの情報処理装置10を例に挙げてその構成について説明する。
動作情報取得部110は、ユーザが行う動作についての情報である動作情報を取得する。ここで、動作情報には、ユーザの動作に関する情報であればあらゆる情報が含まれてよい。例えば、動作情報には、ユーザの少なくとも体の一部位の動き(以下、単にユーザの動きとも呼称する。)についての情報や、ユーザが発した音声についての情報等が含まれ得る。
動作情報取得部110が動作情報を取得する方法について詳しく説明する。本実施形態では、動作情報取得部110は、撮像対象の画像を撮影する撮像部111を有する。
撮像部111は、撮像対象を静止画、動画等の形式で撮影することができるカメラ等の撮像手段である。本実施形態では、撮像部111の撮像対象は情報処理装置10のユーザであり、撮像部111はユーザの動きが少なくとも含まれる画像を撮影可能な位置に配設される。具体的には、ビデオチャット利用時には、ユーザは表示部120の表示画面と対向する場所に位置することが想定されるため、撮像部111は、当該表示画面と対向する空間を撮影範囲とするように、例えば表示画面の上部等に配設される。
動作情報取得部110は、撮像部111によって撮影された撮像画像に基づいてユーザの少なくとも体の一部位の動きについての情報を取得することにより、ユーザの動作情報を取得することができる。具体的には、動作情報取得部110は、撮像部111によって撮影された、例えば動画や連続撮影された画像等から画像内の物体の移動を表す動きベクトルを抽出することにより、当該動きベクトルに基づいて、ユーザの動きについての情報(例えば、ユーザの動きの方向や移動量についての情報)を取得することができる。なお、動作情報取得部110が撮像画像に基づいてユーザの動きについての情報を取得する方法は動きベクトルを利用するものに限定されず、画像解析により画像内の物体の移動を検出する各種の公知の方法が用いられてよい。
また、動作情報取得部110が取得する動作情報には、ユーザの体全体の動きについての情報だけでなく、ユーザの体の一部位の動きについての情報が含まれてもよい。例えば、動作情報には、ユーザの手や指の動き、頭部の動き、眼球の動き(すなわち、視線の動き)等、ユーザの体の各部位の動きが含まれ得る。
なお、図1に示す例では、動作情報取得部110が撮像部111を有し、撮像部111によって撮影された撮像画像に基づいてユーザの動作情報を取得する場合について説明したが、本実施形態はかかる例に限定されない。動作情報取得部110は、撮像部111以外の他の構成を有し、当該他の構成によって取得された情報に基づいて動作情報を取得してもよい。例えば、動作情報取得部110は、赤外線センサ装置や超音波センサ装置等の測距センサ装置を有し、当該測距センサ装置によって測定されたユーザまでの距離に基づいてユーザの動きについての情報を取得することにより、動作情報を取得してもよい。また、動作情報取得部110は、撮像部111と当該測距センサ装置とをともに有し、撮像画像及びユーザまでの距離に基づいてユーザの動きについての情報を取得してもよい。動作情報取得部110は、その他、あらゆる公知の動き検出方法を用いてユーザの動きについての情報を取得することができる。このように、動作情報取得部110が複数の動き検出方法を組み合わせてユーザの動きについての情報を取得することにより、動作情報におけるユーザの動きについての情報の精度を向上させることができる。
また、上述したように、動作情報にはユーザが発した音声についての情報等が含まれてもよい。動作情報取得部110は、例えばマイクロフォン装置等の集音装置を有し、当該集音装置によってユーザの音声についての情報を取得することにより動作情報を取得することができる。動作情報は、例えばユーザが特定の言葉を含む音声を発する動作であってもよい。
動作情報取得部110によって取得されたユーザの動作情報は、後述する制御部140のトリガー動作検出部141に送信される。また、撮像部111によって撮影された撮像画像についての情報及び/又は当該集音装置によって集音された音声についての情報は、通信部130に送信され、ビデオチャットにおいてやり取りされる映像情報及び/又は音声情報として、通信部130によってネットワーク30を介して対話相手の情報処理装置10に送信されてもよい。つまり、本実施形態では、撮像部111によって撮影された撮像画像についての情報がビデオチャットにおける映像情報として対話相手の情報処理装置10に送信され、当該撮像画像が対話相手の情報処理装置10の表示画面に表示されてもよい。また、上記集音部によって集音された音声についての情報がビデオチャットにおける音声情報として対話相手の情報処理装置10に送信され、当該音声が対話相手の情報処理装置10の音声出力装置から出力されてもよい。このように、撮像部111によって撮影された撮像画像についての情報及び/又は当該集音装置によって集音された音声についての情報は、動作情報取得部110による動作情報の取得に用いられるとともに、ビデオチャットにおける映像情報及び/又は音声情報としても用いられることができる。
表示部120は、各種の情報を画像、文字、グラフ等あらゆる形式でユーザに対して視覚的に表示する表示手段である。表示部120は、例えばディスプレイ装置等の表示装置を有し、当該表示装置の表示画面の表示は、後述する制御部140の表示制御部142によって制御される。本実施形態においては、表示部120は、第1のコンテンツとして、ビデオチャットにおける対話相手の撮像画像以外の他のコンテンツを表示画面に表示する。また、表示部120は、当該第1のコンテンツとともに、第2のコンテンツとしてビデオチャットにおける対話相手の撮像画像を表示画面に表示する。ユーザは、表示部120の表示画面を見ながらビデオチャットを行うことができる。表示部120の表示画面の表示制御については、表示制御部142の機能について説明する際に詳しく後述する。また、表示部120の表示画面の表示については、下記[3−2.本実施形態に係る表示制御処理]で、表示画面の具体的な表示例を図示しながら詳しく説明する。
通信部130は、情報処理装置10と他の外部の装置(外部装置)とを、各種の情報を互いに送受信可能に接続する通信手段である。本実施形態においては、通信部130は、ネットワーク30を介して、システム管理サーバ20及び他の情報処理装置10との間で、ビデオチャットに係る各種の情報や、表示制御処理に係る各種の情報を互いに送受信する。例えば、通信部130は、ネットワーク30を介して、システム管理サーバ20との間で、アカウント情報等、ビデオチャットの利用に必要な各種の情報を互いに送受信する。また、例えば、通信部130は、ネットワーク30を介して、対話相手の情報処理装置10との間で、ビデオチャットにおける映像情報及び/又は音声情報や、当該映像情報及び/又は音声情報の送受信についての応答要求並びに当該応答要求に対する応答等の情報を互いに送受信する。ここで、本実施形態において、応答要求とは、一方の情報処理装置10から他方の情報処理装置10に対して送信される要求であって、ビデオチャットにおいて映像情報及び/又は音声情報の送受信の可否を問う旨の要求である。当該応答要求を受信したユーザ又は対話相手は、映像情報及び/又は音声情報の送受信を許可する旨の応答を行い会話を開始することもできるし、何らかの事情によって会話ができない状況であれば当該送受信を許可しない旨の応答を行うこともできる。なお、当該応答要求及びそれに対する応答は、映像情報のみについて行われてもよいし、音声情報のみについて行われてもよい。
制御部140は、情報処理装置10を統合的に制御するとともに、本実施形態に係る表示制御処理における各種の処理を行う。なお、図1では、制御部140の構成について、本実施形態に係る表示制御処理に関係する構成について主に図示し、その他の構成については図示を省略している。ただし、制御部140は、図1には図示されない他の各種の構成を有してもよい。例えば、制御部140は、ビデオチャットを行うための各種の構成を更に有する。
制御部140の機能及び構成について詳細に説明する。図1を参照すると、制御部140は、トリガー動作検出部141及び表示制御部142を有する。
トリガー動作検出部141は、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出する。本実施形態では、トリガー動作検出部141は、動作情報取得部110によって取得されたユーザの動作情報に基づいて当該トリガー動作を検出することができる。
ここで、トリガー動作とは、後述する表示制御部142による制御により、表示部120の表示画面の表示が、第1の表示状態と第2の表示状態とで切り換えられるきっかけとなる動作のことである。本実施形態においては、トリガー動作は、ユーザの動作に関する特定の動作であればあらゆる動作であってよく、ユーザによって適宜設定可能である。例えば、トリガー動作にはユーザの視線に関する動作が含まれてもよい。具体的には、トリガー動作は、ユーザの視線が表示画面内の所定の領域に向けられる動作であってよい。ここで所定の領域とは、例えば表示画面の4隅や上下左右の少なくともいずれかの方向の端(辺)等に設定され得る。すなわち、トリガー動作は、ユーザの視線が表示画面の所定の端や隅に向けられる動作であってもよい。また、例えば、トリガー動作は、ユーザが、前記表示画面の少なくとも1辺の方向に視線を向け、前記表示画面における当該ユーザの視線方向の奥行きに対応する空間を覗き込む覗き込み動作であってもよい。当該覗き込み動作の詳細については、下記[2−2.本実施形態に係る表示制御処理]で図3A及び図3Bを参照して詳しく説明する。なお、トリガー動作検出部141は、例えば動作情報取得部110によって取得された動作情報に含まれるユーザの頭部及び視線の少なくともいずれかの動きについての情報に基づいて、当該覗き込み動作を検出することができる。
また、例えば、トリガー動作は、ユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作であってもよい。ここで、トリガー動作における第1の方向とは、例えば、表示部120の表示画面における上下方向又は左右方向と略平行な方向である。後述するが、本実施形態に係る表示制御処理においては、トリガー動作における第1の方向から表示画面に第2のコンテンツが挿入される表示制御が行われ得る。従って、第1の方向を表示部120の表示画面の上下方向又は左右方向と略平行な方向としてトリガー動作が設定されることにより、第2のコンテンツが挿入される方向が表示画面の上下方向又は左右方向となるため、表示画面内の第1のコンテンツ及び第2のコンテンツの表示の構成が秩序だったものとなり、ユーザにとってより視聴しやすいものとなる。ただし、本実施形態においては、トリガー動作における第1の方向はかかる例に限定されず、表示部120の表示画面に対して斜めの方向や略垂直な方向であってもよい。なお、以下の説明において、上下左右等の方向を示す言葉は、特に記載のない限り、表示部120の表示画面に対向するユーザから見た、当該表示画面を基準とした方向を意味するものとする。
また、トリガー動作は1つの動作に限定されず、互いに異なる複数の動作が、それぞれトリガー動作として設定されてもよい。トリガー動作検出部141は、動作情報に基づいて、トリガー動作として設定されている複数の動作をそれぞれ検出することができる。例えば、上述したような各トリガー動作のうちの複数の動作がトリガー動作としてそれぞれ設定されてもよい。また、トリガー動作が、ユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作である場合には、ユーザの少なくとも体の一部位が当該第1の方向とは異なる他の方向に沿って動く動作が、トリガー情報として更に設定されてもよい。トリガー動作検出部141は、ユーザの少なくとも体の一部位が表示画面に対して互いに異なる複数の方向に沿って動く動作を、それぞれトリガー動作として検出することができる。
また、トリガー動作には、ユーザが行ったトリガー動作をやめる動作が含まれてもよい。例えば、トリガー動作が上述した視線を所定の領域に向ける動作である場合には、ユーザが視線を当該所定の領域からそらす動作(例えば元々視線を向けていた方向に戻す動作)もトリガー動作であってもよい。また、例えば、トリガー動作が上述した覗き込み動作である場合には、ユーザが当該覗き込み動作をやめて元の姿勢に戻る動作もトリガー動作であってもよい。
また、トリガー動作は、ユーザの動きを伴う動作に限定されず、例えばユーザが音声を発する動作であってもよい。トリガー動作が音声を発する動作である場合、動作情報取得部110によってユーザが発した音声についての情報が取得され、トリガー動作検出部141は当該音声についての情報に基づいてトリガー動作を検出することができる。また、トリガー動作検出部141が音声認識機能を有し、ユーザが特定の言葉を含む音声を発する動作がトリガー動作として検出されてもよい。
トリガー動作検出部141は、トリガー動作が検出された旨の情報を、表示制御部142及び通信部130に送信する。上述したように、本実施形態においては、トリガー動作が検出されることにより、表示部120の表示画面の表示が、第1の表示状態と第2の表示状態とで切り換えられる。第2の表示状態では、第2のコンテンツであるビデオチャットにおける対話相手の撮像画像が表示画面に表示されるため、トリガー動作が検出された旨の情報を受信した通信部130は、対話相手の情報処理装置10から対話相手の撮像画像を得るために、対話相手の情報処理装置10との間でビデオチャットに関する各種の情報の送受信を行う。なお、本実施形態においては、第1の表示状態では映像情報の送受信は行われていないが、音声情報のみは送受信されていてもよいし、音声情報も映像情報と併せて送受信されていなくてもよい。また、通信部130は、表示部120の表示画面の表示が第1の表示状態から第2の表示状態に切り換えられる前に、ビデオチャットにおける映像情報及び/又は音声情報の送受信についての応答要求や当該応答要求に対する応答とを、対話相手の情報処理装置10との間でやり取りしてもよい。
表示制御部142は、トリガー動作検出部141によって検出されたトリガー動作に応じて、表示部120の表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、当該表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える表示制御を行う。なお、本実施形態では、第1の表示状態においては、第1のコンテンツのみが表示画面に表示されていてもよいし、第1のコンテンツとともに第2のコンテンツ以外の他のコンテンツが表示画面に表示されていてもよい。このように、本実施形態に係る表示制御部142は、表示部120の表示画面における第1のコンテンツと第2のコンテンツの表示を少なくとも制御する機能を有し、第1のコンテンツと第2のコンテンツのうちで第1のコンテンツのみが表示された第1の表示状態と、第1のコンテンツと第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える機能を有するものであってもよい。本実施形態においては、ユーザが、トリガー動作として設定されている動作を行うことにより、表示部120の表示画面の表示が制御される。
例えば、上述したように、本実施形態においては、第1のコンテンツはビデオチャットにおける対話相手の撮像画像以外の他のコンテンツであり、第2のコンテンツはビデオチャットにおける対話相手の撮像画像であってよい。従って、ユーザは、他のコンテンツ(例えばテレビ番組等)の視聴に集中したい場合には表示画面の状態を第1の表示状態にし、当該テレビ番組の感想について会話する等、ビデオチャットの相手とコミュニケーションを取りたい場合には表示画面の状態を第2の表示状態にする、といったように、トリガー動作を行うことによって、表示画面の表示を所望の表示状態に制御することができる。よって、ビデオチャットにおいてユーザにとって利便性の高い表示制御が実現される。
以下、表示制御部142による表示画面の表示制御について、より詳細に説明する。
例えば、表示制御部142は、第2の表示状態において、第1のコンテンツと第2のコンテンツとを、表示部120の表示画面内の互いに異なる領域にそれぞれ表示させてもよい。すなわち、表示制御部142は、第2の表示状態において、第1のコンテンツと第2のコンテンツとを重畳させないように表示させることができる。表示制御部142が第1のコンテンツと第2のコンテンツとを重畳させないように表示させることにより、ユーザの第1のコンテンツの視聴が第2のコンテンツの表示によって妨げられない。なお、第1のコンテンツ及び第2のコンテンツがそれぞれ表示される領域の大きさ(すなわち、表示画面における第1のコンテンツ及び第2のコンテンツの表示領域の比率)は、ユーザによって適宜設定可能であってよい。
また、トリガー動作が覗き込み動作である場合には、表示制御部142は、当該覗き込み動作においてユーザが覗き込んだ方向から表示画面に第2のコンテンツを挿入することにより、第1の表示状態から第2の表示状態への切り換えを行ってもよい。また、表示制御部142は、当該覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量(覗き込み量)に応じて、第2のコンテンツを表示画面に徐々に(段階的に)挿入させてもよい。このように、覗き込み動作における覗き込み量に応じて、表示画面上での第2のコンテンツの表示量が調整されるように表示が制御されることにより、ユーザはより簡便に第2の表示状態における第1のコンテンツと第2のコンテンツとの表示画面内における表示領域の比率を調整することが可能となる。なお、第2のコンテンツが表示画面に徐々に挿入される表示制御には、対話相手の撮像画像が徐々に表示されていく様態も含まれるし、対話相手の撮像画像の全体像は表示された状態でその表示領域が徐々に拡大されていく様態も含まれる。トリガー動作の詳細や、当該トリガー動作に応じて第2のコンテンツが表示画面に挿入される際の表示方法の詳細は、ユーザによって適宜設定され得る。
また、トリガー動作が覗き込み動作である場合には、表示制御部142は、第2の表示状態において、当該覗き込み動作におけるユーザの視線方向に、表示画面の奥行きを反映した3次元画像として前記第2のコンテンツを表示画面に表示させてもよい。更に、表示制御部142は、第2の表示状態において、当該覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量(覗き込み量)に応じて、第2のコンテンツの当該3次元画像の角度及び奥行き方向の位置の表示を変化させてもよい。このように、覗き込み動作と連動して第2のコンテンツである対話相手の撮像画像を3次元画像として表示させることにより、あたかもユーザと対話相手とが対面して会話をしているかのような臨場感をユーザに与えることができる。なお、このような覗き込み動作と連動した3次元画像の表示制御については、図3A、3Bを参照して詳しく後述する。
また、トリガー動作がユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作である場合には、表示制御部142は、当該第1の方向から表示画面に第2のコンテンツを挿入することにより、第1の表示状態から第2の表示状態への切り換えを行ってもよい。また、表示制御部142は、当該トリガー動作におけるユーザの少なくとも体の一部位の当該第1の方向への移動量に応じて、第2のコンテンツを表示画面に徐々に(段階的に)挿入させてもよい。このように、トリガー動作におけるユーザの少なくとも体の一部位の当該第1の方向への移動量に応じて、表示画面上での第2のコンテンツの表示量が調整されるように表示が制御されることにより、ユーザはより簡便に第2の表示状態における第1のコンテンツと第2のコンテンツとの表示画面内における表示領域の比率を調整することが可能となる。なお、第2のコンテンツが表示画面に徐々に挿入される表示制御には、対話相手の撮像画像が徐々に表示されていく様態も含まれるし、対話相手の撮像画像の全体像は表示された状態でその表示領域が徐々に拡大されていく様態も含まれる。トリガー動作の詳細や、当該トリガー動作に応じて第2のコンテンツが表示画面に挿入される際の表示方法の詳細は、ユーザによって適宜設定され得る。
また、表示制御部142は、第2の表示状態において、互いに異なる複数の第2のコンテンツを表示画面に表示させてもよい。例えば、3人以上でビデオチャットを行っている場合であれば、対話相手が複数存在するため、第2のコンテンツである対話相手の撮像画像も複数存在し得る。この場合、表示制御部142は、第2の表示状態において、第1のコンテンツとともに、複数の対話相手の撮像画像を表示画面に表示させてもよい。なお、第2の表示状態において、互いに異なる複数の第2のコンテンツが表示画面に表示される場合には、上述した覗き込み動作やユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作に応じた表示制御が、各第2のコンテンツの表示に対して行われてもよい。
また、表示制御部142は、第2の表示状態において、第1のコンテンツ及び第2のコンテンツとともに、当該第1のコンテンツ及び第2のコンテンツの少なくともいずれかと関連する第3のコンテンツを表示画面に更に表示させてもよい。例えば、第1のコンテンツがテレビ番組であり、第2のコンテンツがビデオチャットにおける対話相手の撮像画像である場合であれば、第3のコンテンツは、当該テレビ番組の番組情報を示す画像やテキストであってもよいし、当該対話相手のプロフィール情報を示す画像やテキストであってもよい。従って、表示制御部142は、第2の表示状態において、第1のコンテンツであるテレビ番組とともに、対話相手の撮像画像と、当該テレビ番組の番組情報を示す画像やテキストや対話相手のプロフィール情報を示す画像やテキストとを、表示画面に表示させてもよい。
また、表示制御部142は、第2の表示状態において、第1のコンテンツ及び第2のコンテンツのいずれとも関連しない他のコンテンツ(第4のコンテンツ)を更に表示画面に表示させてもよい。当該第4のコンテンツは、例えば他のアプリケーションにおける動作画面等である。第2の表示状態において、第1、第2、第3及び第4のコンテンツが表示画面に表示されることにより、ユーザは、例えばテレビ番組を視聴しながらビデオチャットを行うとともに、当該テレビ番組についての情報を参照したり、当該テレビ番組の感想をビデオチャットシステムとは異なる他のサービス(例えば各種のソーシャルネットワーキングサービス(Social Networking Service)、ソーシャルネットワーキングサイト(Social Networking Site)又はソーシャルメディア(Social Media)等)において投稿したりすることができ、ユーザにとってより自由なコンテンツの楽しみ方が実現される。このように、表示制御部142は、第2の表示状態において、第1のコンテンツ及び第2のコンテンツに加えて、他のコンテンツを表示画面に更に表示させることができる。なお、第2の表示状態において、互いに異なる複数のコンテンツが表示画面に表示される場合には、上述した覗き込み動作やユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作に応じた表示制御が、各コンテンツの表示に対して行われてもよい。
また、表示制御部142が、第2の表示状態において、第1のコンテンツ及び第2のコンテンツを含む互いに異なる複数のコンテンツを表示画面に表示する場合には、表示画面が少なくともコンテンツの数以上の領域に分割され、当該複数のコンテンツが、重畳表示されないように、それぞれ互いに異なる領域に表示されてもよい。表示画面において互いに異なる複数のコンテンツが重畳表示されないことにより、ユーザが各コンテンツを視認することが容易になる。なお、各コンテンツがそれぞれ表示される領域の大きさ(すなわち、表示画面における各コンテンツの表示領域の比率)は、ユーザによって適宜設定可能であってよい。
ここで、本実施形態においては、表示画面に第2のコンテンツがわずかでも表示されていれば第2の表示状態と言うことができる。従って、本実施形態では、表示画面の表示が、第1の表示状態から、表示画面内の所定の領域に第2のコンテンツが表示されている状態に瞬間的に変化する場合であっても、第1の表示状態から、表示画面に第2のコンテンツが徐々に挿入されるように表示状態が変化する場合であっても、いずれの場合も第1の表示状態から第2表示状態への切り換えと呼称することができる。
以上、表示制御部142による表示画面の表示制御について具体的に説明した。なお、表示制御部142による表示画面の表示制御については、下記[2−2.本実施形態に係る表示制御処理]で、表示画面の具体例を図示しながらより詳しく説明する。
以上、図1を参照して、本開示の一実施形態に係る表示制御システム1及び情報処理装置10の一構成例について詳細に説明した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、特に情報処理装置10の制御部140については、その各構成要素の機能をCPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
以上説明したように、本実施形態においては、トリガー動作検出部141によって、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作が検出される。そして、表示制御部142によって、検出された当該トリガー動作に応じて、表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とが切り換えられる表示制御が行われる。従って、第1の表示状態と第2の表示状態との切り換えを、ユーザの簡易な動作によってより容易に行うことが可能となり、ユーザの利便性が向上される。
また、本実施形態に係る表示制御処理は、ビデオチャットシステムの利用と組み合わせることができる。ビデオチャットシステムの利用時においては、例えば、第1のコンテンツがビデオチャットにおける対話相手の撮像画像以外の他のコンテンツ(例えばテレビ番組等)に設定され、第2のコンテンツがビデオチャットにおける対話相手の撮像画像に設定され得る。ユーザは、トリガー動作を行うことにより、例えば対話相手との会話を中断して他のコンテンツの視聴に集中したい場合には表示画面を第1の表示状態にし、当該他のコンテンツの内容について感想を伝える等、対話相手との会話を行いたい場合には表示画面を第2の表示状態にする、といったように、ユーザの意向に沿った表示画面の切り換えを容易に行うことが可能となる。また、トリガー動作という比較的簡易な動作によって第1の表示状態と第2の表示状態との切り換えが可能となるため、ユーザは、第1のコンテンツの視聴を妨げられることなくビデオチャットを行うことができる。従って、ビデオチャット利用時のユーザの利便性が向上される。
また、本実施形態においては、トリガー動作にはユーザの視線に関する動作が含まれてもよい。具体的には、トリガー動作はユーザの視線が表示画面内の所定の領域に向けられる動作であってもよいし、覗き込み動作であってもよい。また、本実施形態では、覗き込み動作における覗き込み量に応じて、第2のコンテンツが徐々に表示画面に挿入されるように表示制御が行われてもよい。従って、ユーザは、頭部及び/又は視線を動かすという比較的簡易な動作によって、第2の表示状態での表示画面における第1のコンテンツの表示領域と第2のコンテンツの表示領域との比率を、状況に応じてより簡便に調整することが可能となる。このように、本実施形態においては、ユーザの視線の位置に応じて、第2の表示状態での表示画面における第1のコンテンツの表示領域と第2のコンテンツの表示領域との比率が制御され得る。よって、ユーザにとってより自由度の高い表示制御処理が実現される。
なお、本実施形態に係る情報処理装置10の構成は図1に図示する構成に限定されない。情報処理装置10は、図1に示す構成に加えて、一般的なPC等の情報処理装置が有する公知の構成を更に備えてもよい。また、本実施形態においては、以上説明した情報処理装置10の各機能が1つの装置に搭載される必要はなく、図1に示す情報処理装置10の各構成要素が分離されるとともに複数の互いに異なる装置に搭載され、当該複数の装置によって情報処理装置10の各機能が実現されてもよい。例えば、図1に示す情報処理装置10が制御部140の構成を有する第1の装置とその他の構成を有する第2の装置とによって構成され、ユーザの下には当該第2の装置のみが設置され、当該第1の装置はネットワークを介して第2の装置と接続されるいわゆるクラウド(Cloud)上のサーバ等であってもよい。このように、本実施形態においては、表示制御処理を実現するための表示制御システム1及び情報処理装置10の構成は図1に示す例に限定されず、上記説明した表示制御処理が行われる限りにおいて、表示制御システム1及び情報処理装置10は任意の構成を取り得る。
<2.表示制御処理の具体例>
次に、本実施形態に係る表示制御処理について、表示画面の具体的な表示例を図示しながらより詳しく説明する。以下では、まず、本実施形態に係る表示制御処理をより明確なものとするために、[2−1.一般的な既存の表示制御処理]で、一般的な既存の表示制御処理について説明する。次いで、[2−2.本実施形態に係る表示制御処理]で、本実施形態に係る表示制御処理について説明する。なお、下記[2−1.一般的な既存の表示制御処理]及び[2−2.本実施形態に係る表示制御処理]における説明では、ビデオチャットシステムを利用する場合を例に挙げて、他のコンテンツ(例えば放送局から配信されるテレビ番組等)を視聴しながらビデオチャットを行う場合における表示画面の表示制御処理について説明する。
[2−1.一般的な既存の表示制御処理]
まず、図2A及び図2Bを参照して、一般的な既存の表示制御処理について説明する。図2A及び図2Bは、一般的な既存の表示制御処理における表示画面の一例を模式的に示す概略図である。
図2Aを参照すると、表示画面210及び表示画面210の上部に配設された撮像部220が図示されている。なお、実際には、表示画面210は表示装置や情報処理装置の一部であり、撮像部220は当該表示装置又は情報処理装置の一部位に設けられるものであるが、図2Aでは、簡単のため、表示制御処理の説明に主に必要な表示画面210及び撮像部220のみを模式的に図示することとし、他の構成は図示を省略している。なお、以下に示す図2Bにおいても、同様に、表示画面210及び撮像部220のみを模式的に図示するものとする。
撮像部220は、撮像対象を静止画、動画等の形式で撮影することができるカメラ等の撮像手段である。撮像部220は、ビデオチャットの利用者(ユーザ及び対話相手)を撮影し、その撮影画像が相手方に送信されることにより、ビデオチャットが行われる。ビデオチャット利用時には、ユーザは表示画面210と対向する場所に位置することが想定されるため、撮像部220は、表示画面と対向する空間を撮影範囲とするように、表示画面210の上部に配設されている。
表示画面210には第1のコンテンツ211と第2のコンテンツ212とが表示されている。図2Aに示す例では、第1のコンテンツは野球の試合の様子を中継するテレビ番組であり、第2のコンテンツはビデオチャットにおける対話相手の画像である。図2Aを参照すると、表示画面210において、第1のコンテンツの表示領域の一部領域に第2のコンテンツが重畳して表示されている。このような表示の重畳部分は、ユーザが、第1のコンテンツを視聴する際の妨げとなり得る。
また、図2Bは、一般的な表示制御処理における表示画面の、図2Aとは別の表示例を示している。図2Bを参照すると、表示画面210及び表示画面210の上部に配設された撮像部220が図示されている。なお、撮像部220の機能及び構成は図2Aに示す撮像部220の機能及び構成と同様であるため、詳細な説明は省略する。
図2Bを参照すると、表示画面210には第1のコンテンツ211と第2のコンテンツ212とが表示されている。ただし、図2Bに示す例では、図2Aに示す場合とは異なり、表示画面210が複数の領域に分割され、第1のコンテンツと第2のコンテンツとが互いに異なる領域にそれぞれ表示されている。このような分割表示では、第1のコンテンツが表示画面210全体に表示される場合と比べて縮小されて表示されるため、ユーザが第1のコンテンツを視聴する際の妨げとなり得る。
以上、図2A及び図2Bを参照して、一般的な表示制御処理における表示画面の具体的な表示例について説明した。図2A及び図2Bに示すように、一般的な表示制御処理においては、例えば、表示画面210に第1のコンテンツと第2のコンテンツとが重畳表示される、又は、互いに異なる領域にそれぞれ表示される。従って、ユーザによる第1のコンテンツの視聴が妨げられる可能性がある。よって、例えば、一旦ビデオチャットにおける会話を中断して第1のコンテンツの視聴に集中したい場合であっても、ユーザが第1のコンテンツを満足に視聴することが困難であり、ユーザの利便性が低下する原因となっていた。また、例えばリモコンやマウス、キーボード等の入力手段を用いた操作入力によって、図2Aや図2Bに示す状態から第1のコンテンツのみが表示される状態に表示画面210の表示を切り換えることは可能であるかもしれないが、表示画面210への集中を保ったままでも行えるような(表示画面210から目を離さなくても行えるような)、より簡便な表示状態の切り換え方法が求められていた。
一方、上記<1.表示制御システム及び情報処理装置の構成>で説明したように、本実施形態に係る表示制御処理では、トリガー動作検出部141によって、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作が検出される。そして、表示制御部142によって、検出された当該トリガー動作に応じて、表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とが切り換えられる表示制御が行われる。よって、第1のコンテンツの視聴に集中したい場合と、ビデオチャットの対話相手と会話したい場合とで、簡易なトリガー動作によって表示画面の表示状態を切り換えることが可能となる。従って、例えば、通常時は第1の表示状態で第1のコンテンツの視聴に集中し、必要なときにだけ簡易なトリガー動作によって第2の表示状態に切り換える、といったような、ユーザにとってより利便性の高い表示状態の制御が可能となる。
[2−2.本実施形態に係る表示制御処理]
次に、本実施形態に係る表示制御処理の具体例について、表示画面の表示例を図示しながらより詳しく説明する。
(2−2−1.覗き込み動作による表示制御)
まず、図3A−図3Cを参照して、トリガー動作が覗き込み動作である場合の表示制御処理について説明する。図3A−図3Cは、トリガー動作が覗き込み動作である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。なお、図3A−図3Cでは、覗き込み動作が検出されることによって、第1の表示状態から第2の表示状態に表示状態が切り換えられる場合を例に挙げて説明を行う。
図3Aは、第1の表示状態における表示画面の一例を示している。図3Aを参照すると、表示画面310及び表示画面310の上部に配設された撮像部320が図示されている。ここで、表示画面310は、図1に示す表示部120の表示画面に対応するものであり、撮像部320は、図1に示す撮像部111に対応するものであるため、その機能及び構成についての詳細な説明は省略する。なお、実際には、表示画面310は情報処理装置10の表示部120の一部であり、撮像部320は情報処理装置10の一部位に設けられるものであるが、図3Aでは、簡単のため、表示制御処理の説明に主に必要な表示画面310及び撮像部320のみを模式的に図示することとし、他の構成は図示を省略している。なお、以下に示す図3B、図3C、図4A、図4B、図5及び図6においても、同様に、表示画面310及び撮像部320のみを模式的に図示するものとする。また、以下に示す図3B、図3C、図4A、図4B、図5及び図6についての説明においては、表示画面310及び撮像部320の機能及び構成について重複する部分については詳細な説明を省略する。
撮像部320は、上述したように図1に示す撮像部111に対応するものであり、撮像対象を静止画、動画等の形式で撮影することができるカメラ等の撮像手段である。本実施形態においては、撮像部320によって撮影された撮像画像は、動作情報取得部110によるユーザの動作情報の取得に用いられるとともに、ビデオチャットにおける映像情報として用いられてもよい。ビデオチャット利用時には、ユーザは表示画面310と対向する場所に位置することが想定されるため、撮像部320は、表示画面と対向する空間を撮影範囲とするように、表示画面310の上部に配設されている。
図3Aを参照すると、表示画面310には、第1のコンテンツ311のみが表示されている。ユーザ330は、例えば表示画面310の略正面に位置し、第1のコンテンツを視聴している。なお、ユーザ330から出発している破線の矢印は、ユーザ330の視線の方向を模式的に表している。また、図3Aに示す例では、第1の表示状態として、表示画面310に第1のコンテンツのみが表示される場合について図示しているが、本実施形態では、第1の表示状態において、第1のコンテンツとともに第2のコンテンツ以外の他のコンテンツが表示画面310に表示されてもよい。
図3Bは、ユーザによって覗き込み動作が行われ、表示画面310の表示が第2の表示状態に変化した様子を示している。図3Bを参照すると、第2の表示状態においては、覗き込み動作におけるユーザの視線方向に、表示画面の奥行きを反映した3次元画像として第2のコンテンツが表示画面に表示されている。具体的には、表示画面310を仮想的な直方体の一面とみなした場合に、覗き込み動作の視線方向に位置する当該直方体の内側面の方向に第2のコンテンツが表示されているように、第2のコンテンツ312が表示画面310に表示される。つまり、表示画面310を部屋の「窓」に見立てて、表示画面310の向こう側に部屋(空間)が存在し、当該空間に第2のコンテンツが存在するかのような印象をユーザに与えるように、第2のコンテンツ312続いているようなイメージなお、図3Aでは、3次元的な表示についての説明を明確にするために、表示画面310の仮想的な奥行き(上述した仮想的な直方体)を示す破線を図示している。
また、図3Bに示す第2の表示状態においては、表示画面310上で第1のコンテンツ311が表示される領域が縮小されるとともに、当該縮小によって生じたスペースに、覗き込み動作におけるユーザの視線方向(すなわち覗き込んだ方向、図3Bに示す例では右方向)から第2のコンテンツ312が挿入されるように第2のコンテンツ312が表示されてよい。また、覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量(覗き込み量)に応じて、第2のコンテンツ312が表示画面に徐々に挿入されてもよい。また、覗き込み動作における覗き込み量に応じて、第2のコンテンツの3次元画像の角度及び奥行き方向の位置の表示を変化させてもよい。直感的には、覗き込み動作を行っていない場合、すなわち正面を見ており覗き込み量がほぼ0である場合には、表示画面310を一面とする仮想的な直方体の内側面はほぼ見えないであろう。一方、覗き込み量が大きくなるほど、当該仮想的な直方体の内側面が見える割合は大きくなると考えられる。本実施形態においては、このようなユーザの直感に従い、覗き込み量に応じて、表示画面310を一面とする仮想的な直方体の内側面に対応する第2のコンテンツ312の表示領域の面積を変化させてもよい(すなわち、第2のコンテンツ312を表示画面310に挿入させる量を変化させてもよい)。また、第2のコンテンツ312が3次元画像として表示される場合には、実際に3次元の物体を覗き込んでいるかのような感覚をユーザに与えるように、ユーザの覗き込み量(視線方向)に応じて、当該3次元画像の角度や奥行き方向の位置を変化させてもよい。
図3Bに示すように、覗き込み動作に連動して、第2のコンテンツ312である対話相手の撮像画像を3次元画像として表示し、当該3次元画像の表示を変化させることにより、あたかもユーザと対話相手とが対面して会話をしているかのような臨場感をユーザに与えることができる。
なお、本実施形態においては、第2のコンテンツ312は3次元画像として表示されなくてもよい。そのような本実施形態に係る表示制御処理における、図3Bに示す表示例とは異なる表示例について、図3Cを参照して説明する。
図3Cは、ユーザによって覗き込み動作が行われ、表示画面310の表示が第2の表示状態に変化した様子を示している。ただし、図3Cに示す例は、図3Bに示す場合とは異なり、第2のコンテンツは3次元画像ではなく、表示画面310内の所定の領域に2次元的に表示されている。
図3Cに示す第2の表示状態においても、図3Bに示す表示例と同様に、表示画面310上で第1のコンテンツ311が表示される領域が縮小されるとともに、当該縮小によって生じたスペースに、覗き込み動作におけるユーザの視線方向(すなわち覗き込んだ方向、図3Bに示す例では右方向図3Cに示す例では右方向)から第2のコンテンツ312が挿入されるように第2のコンテンツ312が表示されてよい。また、覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量(覗き込み量)に応じて、第2のコンテンツ312が表示画面に徐々に挿入されてもよい。
以上、図3A−図3Cを参照して、トリガー動作が覗き込み動作である場合の本実施形態に係る表示制御処理について説明した。以上説明したように、本実施形態においては、覗き込み動作という比較的簡易な動作によって、第1の表示状態と第2の表示状態とを切り換えることが可能となる。従って、ユーザにとってより利便性の高い表示制御処理が実現される。
また、本実施形態においては、覗き込み動作における覗き込み量に応じて、第2のコンテンツ312が徐々に表示画面310に挿入されるように表示制御が行われてもよい。従って、表示画面310における第1のコンテンツ311の表示領域と第2のコンテンツ312の表示領域との比率を、ユーザの頭部及び/又は視線の動きによって制御することが可能となる。よって、ユーザは、表示画面310における第1のコンテンツと第2のコンテンツとの表示比率を、状況に応じて比較的簡易な動作によって制御することができ、ユーザにとってより自由度の高い表示制御処理が実現される。
また、図3Bに示すように、本実施形態では、第2の表示状態において、覗き込み動作と連動して、第2のコンテンツ312が表示画面310の奥行きを反映した3次元画像として表示されてもよい。また、当該3次元画像の表示は、覗き込み動作における覗き込み量に応じて、ユーザの直感に合うように(ユーザが実際に3次元の物体を視点を変えて見ている感覚に合うように)その表示が変化され得る。従って、第2の表示状態に切り換えられた後のビデオチャットにおける対話相手とのコミュニケーションにおいて、あたかも対話相手と対面して会話しているかのような臨場感を得ることができる。
なお、図3B又は図3Cに示す第2の表示状態から再び図3Aに示す第1の表示状態に表示画面310の表示を切り換える表示制御は、例えば、覗き込み動作とは別の他のトリガー動作によって行われてもよい。本実施形態においては、第1の表示状態と第2の表示状態とを切り換えるためのトリガー動作をユーザによって適宜設定することが可能であり、簡易な動作によって第1の表示状態と第2の表示状態とを切り換えることが可能となる。なお、上述したように、本実施形態においては、覗き込み動作をやめる動作(すなわち、ユーザの頭部及び/又は視線を表示画面310を正面から見る状態に戻す動作)も、トリガー動作となり得る。従って、表示画面310の表示が、覗き込み動作によって第1の表示状態から第2の表示状態に切り換えられ、覗き込み動作をやめる動作によって第2の表示状態から第1の表示状態に切り換えられてもよい。
(2−2−2.複数の第2のコンテンツの表示)
次に、図4A及び図4Bを参照して、ビデオチャットにおいて対話相手が複数である場合の表示制御処理について説明する。図4A及び図4Bは、ビデオチャットにおいて対話相手が複数である場合の表示制御処理における表示画面の一例を模式的に示す概略図である。
本実施形態においては、ビデオチャットシステムにおいて、ユーザが複数の対話相手と会話を行うことも可能である。ユーザが複数の対話相手と会話を行う場合、その対話相手のそれぞれの撮像画像が、互いに異なる複数の第2のコンテンツとして表示画面に表示されてもよい。図4A及び図4Bは、このような対話相手が複数である場合における、第2の表示状態での表示画面の一例を示している。
図4Aを参照すると、表示画面310及び表示画面310の上部に配設された撮像部320が図示されている。表示画面310には、第1のコンテンツ311及び互いに異なる複数の第2のコンテンツ312が表示されている。例えば、互いに異なる複数の第2のコンテンツは、ビデオチャットシステムにおける互いに異なる複数の対話相手の撮像画像である。図4Aに示す例では、対話相手は2人であり、2つの第2のコンテンツ312が、表示画面310の左右に設けられた互いに異なる領域にそれぞれ表示されている。また、2つの第2のコンテンツ312は、図3Bに示した第2のコンテンツ312と同様に、3次元画像として表示されている。
また、図4Bは、対話相手が複数である場合における、第2の表示状態での表示画面の、図4Aとは異なる表示例を示している。図4Bを参照すると、表示画面310及び表示画面310の上部に配設された撮像部320が図示されている。表示画面310には、第1のコンテンツ311及び互いに異なる複数の第2のコンテンツ312が表示されている。例えば、互いに異なる複数の第2のコンテンツは、ビデオチャットシステムにおける互いに異なる複数の対話相手の撮像画像である。図4Bにおいても、図4Aに示す例と同様、対話相手が2人であり、2つの第2のコンテンツ312が表示画面310に表示されている。ただし、図4Bに示す例では、図4Aとは異なり、表示画面310の右側に設けられた領域内がパーティション315によって更に2つの領域に区切られており、そのそれぞれに2つの第2のコンテンツ312が表示されている。また、2つの第2のコンテンツ312は、図3Bに示した第2のコンテンツ312と同様に、3次元画像として表示されてもよい。このように、本実施形態においては、互いに異なる複数の第2のコンテンツが表示される方法は限定されず、図4Aに示すように表示画面310内の互いに異なる領域にそれぞれ表示されてもよいし、図4Bに示すように表示画面310内の同一の領域内に一緒に表示されてもよい。
また、第1の表示状態から、図4A及び図4Bに示す第2の表示状態に切り換わるためのトリガー動作は、例えば覗き込み動作であってもよい。例えば、図4Aに示す表示例であれば、表示画面310の右端を覗き込む覗き込み動作によって右側の第2のコンテンツ312が表示され、表示画面310の左端を覗き込む覗き込み動作によって左側の第2のコンテンツ312が表示されてもよい。また、表示画面の特定の方向への覗き込み動作によって特定の対話相手の撮像画像が表示されるように予め設定することも可能である。また、図4Bに示す表示例であれば、表示画面310の右端を覗き込む覗き込み動作によって第2のコンテンツ312が表示画面310の右側の領域に表示されるとともに、ユーザによるその他の動作(トリガー動作)や操作入力等によって、表示される第2のコンテンツ312の数や内容(すなわち、どの対話相手の撮像画像を選択するか)が調整されてもよい。また、覗き込み動作によって図4A及び図4Bに示す第2の表示状態に切り換わる場合には、3次元画像として表示されている複数の第2のコンテンツ312は、上記(2−2−1.覗き込み動作による表示制御)で説明した第2のコンテンツ312の表示制御と同様に、当該覗き込み動作における覗き込み量に応じてその表示が変化してもよい。
また、第1の表示状態から、図4A及び図4Bに示す第2の表示状態に切り換わるためのトリガー動作は、例えば、ユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作であってもよい。例えば、図4Aに示す表示例であれば、表示画面310の右方向から左方向に体の一部位が動く動作によって、一方の第2のコンテンツ312が表示画面310の右端の領域に表示されてもよく、表示画面310の左方向から右方向に体の一部位が動く動作によって、他方の第2のコンテンツ312が表示画面310の左端の領域に表示されてもよい。また、表示画面の特定の方向に少なくとも体の一部位を動かす動作によって特定の対話相手の撮像画像が表示されるように予め設定することも可能である。また、図4Bに示す表示例であれば、表示画面310の右方向から左方向への体の一部位の動作によって、第2のコンテンツ312が表示画面310の右端の領域に表示されるとともに、ユーザによるその他の動作(トリガー動作)や操作入力等によって、表示される第2のコンテンツ312の数や内容(すなわち、どの対話相手の撮像画像を選択するか)が調整されてもよい。
以上、図4A及び図4Bを参照して、ビデオチャットにおいて対話相手が複数である場合の表示制御処理について説明した。以上説明したように、本実施形態においては、ユーザが複数の対話相手と会話を行う場合に、第2の表示状態において、それぞれの対話相手の撮像画像が互いに異なる複数の第2のコンテンツとして表示画面に表示されてよい。また、トリガー動作やトリガー動作と他のトリガー動作との組み合わせによって、表示される第2のコンテンツの数や種類が制御されてよい。従って、ユーザは、比較的簡易なトリガー動作によって、第2の表示状態において表示される第2のコンテンツの数や種類の選択を行うことが可能となる。
なお、図4A及び図4Bに示す例では、第2の表示状態において2つの第2のコンテンツが表示されているが、本実施形態はかかる例に限定されない。第2の表示状態において表示される第2のコンテンツの数は図4A及び図4Bに示す例に限定されず、より多くの数の第2のコンテンツが第2の表示状態において表示画面310に表示されてよい。また、複数の第2のコンテンツの表示領域も、図4A及び図4Bに示す例に限定されず、表示画面310において複数の第2のコンテンツが表示される領域は、ユーザによって適宜設定可能であってよい。
(2−2−3.互いに異なる複数のコンテンツの表示)
次に、図5を参照して、第2の表示状態において互いに異なる複数の種類のコンテンツが表示される場合の表示制御処理について説明する。図5は、第2の表示状態において互いに異なる複数の種類のコンテンツが表示される場合の表示制御処理における表示画面の一例を模式的に示す概略図である。
図5を参照すると、表示画面310及び表示画面310の上部に配設された撮像部320が図示されている。表示画面310には、第1のコンテンツ311、第2のコンテンツ312、第3のコンテンツ313及び第4のコンテンツ314が、互いに異なる領域にそれぞれ表示されている。ここで、例えば、第1のコンテンツ311は、野球の試合を中継するテレビ番組である。また、第2のコンテンツ312は、ビデオチャットシステムにおける対話相手の撮像画像である。また、第3のコンテンツ313は、第1のコンテンツであるテレビ番組の番組情報(例えば出場選手のプロフィールや成績等)を示すテキストであり、例えば情報処理装置10の通信部130を介して当該テレビ番組の放送局や制作会社から取得される情報である。また、第4のコンテンツ314は、例えば各種のソーシャルネットワーキングサービス(Social Networking Service)、ソーシャルネットワーキングサイト(Social Networking Site)又はソーシャルメディア(Social Media)等において投稿されたコメントやメッセージ等であり、例えば第1のコンテンツ311であるテレビ番組に対する感想を含むコメントや、第2のコンテンツ312であるビデオチャットシステムの対話相手が投稿したコメント等である。
図5に示す例であれば、表示画面310の右側の領域に第2のコンテンツ312が表示され、上側の領域に第3のコンテンツ313が表示され、下側の領域に第4のコンテンツ314が表示されている。例えば、トリガー動作が覗き込み動作である場合には、表示画面310の右端、上端及び下端をそれぞれ覗き込む覗き込み動作によって、第2のコンテンツ312、第3のコンテンツ313及び第4のコンテンツ314が表示画面310の右端の領域、上端の領域及び下端の領域にそれぞれ表示されてもよい。また、例えば、トリガー動作がユーザの少なくとも体の一部位が表示画面に対して第1の方向に沿って動く動作である場合には、表示画面310の右方向から左方向、上方向から下方向及び下方向から上方向へのそれぞれの体の一部位の動作によって、第2のコンテンツ312、第3のコンテンツ313及び第4のコンテンツ314が表示画面310の右端の領域、上端の領域及び下端の領域にそれぞれ表示されてもよい。
このように、本実施形態においては、第2の表示状態において、互いに異なる種類の複数のコンテンツが表示画面310に表示されてもよい。また、これらの互いに異なる複数のコンテンツの表示は、互いに異なる複数のトリガー動作によってそれぞれ制御されてよい。なお、これらのコンテンツは、少なくともいずれかのコンテンツと互いに関連し合うコンテンツであってもよいし、いずれのコンテンツとも関連のないコンテンツであってもよい。
なお、図5に示す例では、表示画面310の右側の領域、上側の領域及び下側の領域に、それぞれ、第2のコンテンツ312、第3のコンテンツ313及び第4のコンテンツ314が表示されているが、本実施形態はかかる例に限定されない。本実施形態においては、第2の表示状態において表示画面310上に互いに異なる複数のコンテンツが表示される領域の数や場所はユーザによって適宜設定可能であってよい。また、表示画面310に表示される互いに異なる複数のコンテンツの種類も図5に示す例に限定されず、表示画面に表示されるコンテンツは、情報処理装置10によって取得可能なあらゆるコンテンツの中からユーザによって適宜選択されてよい。
以上、図5を参照して、第2の表示状態において互いに異なる複数のコンテンツが表示される場合の表示制御処理について説明した。以上説明したように、本実施形態においては、第2の表示状態において、互いに異なる複数の種類のコンテンツが表示画面310に表示されてもよい。また、その表示されるコンテンツの種類や数、表示領域の大きさや位置等は、ユーザによって適宜設定可能である。そして、それらの互いに異なる複数のコンテンツの表示制御が、ユーザによる簡易なトリガー動作によって実現される。従って、例えばテレビ番組を見ながらテレビチャットを行うだけでなく、更に当該テレビ番組の情報を取得したり、これらのコンテンツとは関連のない他のアプリケーションを実行したりといった、よりユーザにとって自由度の高い楽しみ方が実現される。
(2−2−4.ユーザ及び対話相手の表示の補正)
次に、図6を参照して、第2の表示状態におけるユーザ及び対話相手の表示の補正処理について説明する。図6は、第2の表示状態におけるユーザ及び対話相手の表示の補正処理について説明するための説明図である。
図6を参照すると、表示画面310及び表示画面310の上部及び左右に配設された撮像部320が図示されている。表示画面310には、第1のコンテンツ311及び第2のコンテンツ312が、互いに異なる領域にそれぞれ表示されている。図6に示す例では、第2のコンテンツ312は、図3Bに示す状態と同様、3次元画像として、表示画面310の右側の領域に表示されている。
ここで、トリガー動作が覗き込み動作である場合を想定する。トリガー動作が覗き込み動作である場合、図6に示すように、覗き込み動作に応じてユーザ330の上体が左右方向に移動することとなる。ビデオチャットシステムにおいては、撮像部320によって撮影されたユーザの撮像画像が対話相手の情報処理装置10の表示部120に表示されるが、覗き込み動作に伴うユーザ330の上体の動きによって、対話相手の表示部120に表示されるユーザの撮像画像の表示がずれたり歪んだりしてしまう可能性がある。逆に、対話相手が覗き込み動作を行う場合も考えられる。この場合にも同様に、対話相手の覗き込み動作によって、対話相手を撮影する撮像部320と対話相手との相対的な位置関係が変化するため、図6に示す第2のコンテンツ312が表示されている領域内での対話相手の像の位置がずれたり、当該領域から対話相手の像がはみ出してしまったり、といった不具合が生じる可能性がある。
そこで、本実施形態においては、覗き込み動作やその他のユーザ及び対話相手の体の移動に対して、ユーザ及び対話相手の撮像画像の偏りを補正する機能を有することができる。ここで、撮像画像の偏りとは、当該撮像画像の表示画面に対する向きのずれや表示領域内の位置のずれを含む。例えば、表示制御部142は、撮像部320によって撮影されたユーザ及び対話相手の撮像画像をそのまま表示画面310に表示させるのではなく、表示画面310上でのユーザ及び対話相手の像が略正面から撮像された像となるように撮像画像の向きを補正したり、ユーザ及び対話相手の像がその表示領域内の略中央にくるように撮像画像の位置を補正したりすることができる。表示制御部142は、第2の表示状態において、このような偏りが補正された後の撮像画像を第2のコンテンツとして表示画面に表示させてもよい。ここで、図6に示すように、本実施形態においては、表示画面310の上部及び左右に複数の撮像部320が設けられる。これらの複数の撮像部320によって得られた複数の異なる角度から撮影された撮像画像に基づいて適宜画像の合成処理等が行われることにより、上述したようなユーザ及び対話相手の撮像画像の偏りの補正が行われてもよい。また、当該撮像画像の偏りの補正に際しては、表示画面310の左右それぞれに設けられた撮像部320によってユーザ及び対話相手をステレオ撮影することにより、3次元的な補正が行われてもよい。
また、ユーザ及び対話相手の撮像画像の偏りを補正する他の方法として、撮影範囲を動的に変化させることが可能な可動機構を撮像部320に設け、撮像部320がユーザ及び撮像相手の動きを追従し、ユーザ及び撮像相手を可能な限り正面から撮影するように、撮像部320の動きが制御されてもよい。なお、当該方法を実行する場合には、図6に示すように複数の撮像部320を設ける必要はなく、例えば表示画面310の上部に可動機構を有する撮像部320を1つ設ければよい。
また、ユーザ及び対話相手の撮像画像の偏りを補正する更に他の方法として、図6に示すように表示画面310の左右それぞれに撮像部320を設け、正面を向いているときと覗き込み動作を行っているときとで、ユーザ及び撮像相手を撮影する撮像部320を切り換えてもよい。つまり、表示画面310の左右に設けられる撮像部320を、覗き込み動作を行った際にユーザ及び撮像相手を略正面から撮影可能な位置に設け、ユーザ及び撮像相手が正面を向いている場合には上部に設けられた撮像部320によってユーザ及び撮像相手を撮影し、ユーザ及び撮像相手が覗き込み動作を行っている場合には左右に設けられた撮像部320のうちの視線方向に対応する位置に設けられた撮像部320によってユーザ及び撮像相手を撮影することができる。
以上、図6を参照して、第2の表示状態におけるユーザ及び対話相手の表示の補正処理について説明した。以上説明したように、本実施形態においては、第2の表示状態においてユーザ及び対話相手の撮像画像が第2のコンテンツとして表示される場合に、覗き込み動作やその他のユーザ及び対話相手の体の移動に対して、ユーザ及び対話相手の撮像画像の偏りを補正することができる。従って、例えば覗き込み動作等のトリガー動作を行った場合であっても、第2のコンテンツの表示においてユーザ及び撮像相手の像の表示位置がずれたりはみ出してしまったりすることを防ぐことができ、ユーザにより快適なビデオチャットの利用を提供することが可能となる。
なお、トリガー動作が覗き込み動作である場合には、図6に示すように、撮像部320を複数、特に表示画面310の左右に設けることにより、トリガー動作の誤検出を防止する効果を得ることができる。例えば、覗き込み動作が、ユーザの頭部及び視線が、表示画面310のいずれか1辺を覗き込む動作として設定されているとする。しかしながら、例えば第1のコンテンツがテレビ番組のように画面内の事物の動きを伴うものである場合には、第1のコンテンツを視聴中にユーザの頭部や視線は、画面内の事物を追従して動くことが考えられる。従って、1つの撮像部320によってユーザの動作情報を取得していると、ユーザの意図しない動作が覗き込み動作として誤検出されてしまう可能性がある。そこで、図6に示すように撮像部320を複数設け、複数の角度からユーザの動きを捉えて動作情報を取得することにより、動作情報の精度が向上し、このような誤検出を防止することができる。特に、撮像部320を表示画面310の左右、すなわち、覗き込み動作における視線方向に対応する位置に設けることにより、覗き込み動作におけるユーザの視線の動きをより精度良く捉えることができるため、覗き込み動作の検出精度をより向上させることができる。
以上、図3A−図3C、図4A、図4B図5及び図6を参照して、本実施形態に係る表示制御処理の具体例について、表示画面の表示例を図示しながらより詳しく説明した。
<3.表示制御方法の処理手順>
次に、図7を参照して、本開示の一実施形態に係る表示制御方法の処理手順について説明する。図7は、本開示の一実施形態に係る表示制御方法の処理手順の一例を示すフロー図である。なお、以下の表示制御方法の処理手順についての説明においては、図1に示す表示制御システム1及び情報処理装置10によって本実施形態に係る表示制御方法が実現される場合を例に挙げて説明を行うが、表示制御システム1及び情報処理装置10の各構成部材の機能及び構成については、上記<1.表示制御システム及び情報処理装置の構成>で既に説明しているため、詳細な説明を省略する。
図7を参照すると、まず、ステップS401でビデオチャットシステムが開始される。本実施形態では、ビデオチャットシステム利用時における表示画面について表示制御処理が行われるため、ステップS401における処理は、本実施形態に係る表示制御方法が行われる前段階の処理であると言える。ステップS401における処理は、図1に示すシステム管理サーバ20によって提供されているビデオチャットシステムに則ったものであってよい。例えば、システム管理サーバ20によって、ビデオチャットを行おうとしている複数の情報処理装置10のアカウントの認証処理が行われ、当該情報処理装置10同士がビデオチャットシステムを利用可能な状態で接続される。
次いで、ステップS403で、表示制御部142によって、表示部120の表示画面の表示が第1の表示状態、すなわち、第1のコンテンツである他のコンテンツ(例えばテレビ番組)が表示され、かつ、第2のコンテンツであるビデオチャットにおける対話相手の撮像画像が表示されない状態に制御される。このように、本実施形態では、ビデオチャットシステム利用時における初期状態又はデフォルトの状態が第1の表示状態であってもよい。
次いで、ステップS405で、トリガー動作検出部141によってトリガー動作が検出されたかどうかが判断される。図7では、トリガー動作の一例として、トリガー動作検出部141によって覗き込み動作が検出される場合について図示している。なお、図7では、ステップS405の段階に至って初めてトリガー動作検出部141によってトリガー動作が検出されるかのように図示されているが、本実施形態においては、ステップS403に示す処理以降は、動作情報取得部110によって随時ユーザの動作情報が取得され、トリガー動作検出部141によって随時トリガー動作の検出処理が行われている。
ステップS405で覗き込み動作が検出されなかった場合は、ステップS403に戻り、表示画面の状態が第1の表示状態のまま保持される。なお、トリガー動作が検出されるまでは、ユーザと対話相手とは、表示画面の状態は第1の表示状態のまま、互いに音声による会話は行っていてもよい。一方、ステップS405で覗き込み動作が検出された場合は、ステップS407に進む。
ステップS407では、通信部130を介して、対話相手の情報処理装置10との間で通信が行われる。具体的には、ユーザの情報処理装置10から対話相手の情報処理装置10に対して、ビデオチャットにおける映像情報及び/又は音声情報の送受信についての応答要求が送信される。ステップS403に示す状態において、表示画面の状態は第1の表示状態のままユーザと対話相手とが互いに音声による会話を行っている場合には、既に音声情報の送受信は実行されている状態であるため、ユーザの情報処理装置10から対話相手の情報処理装置10に対して、映像情報の送受信についての応答要求が送信されてもよい。対話相手は、映像情報及び/又は音声情報の送受信を行うことを許可する場合には、その旨の応答をユーザの情報処理装置10に返信(応答)することができる。
次いで、ステップS409で、ステップS407での応答要求に対する対話相手からの応答の有無が判断される。対話相手は、何らかの事情により映像情報及び/又は音声情報の送受信を行うことを拒否する場合には、その旨の応答をユーザの情報処理装置10に返信することができる。送受信を拒否する旨の応答があった場合、又は、対話相手が情報処理装置10の近傍にいない(席を外している)等の理由により対話相手から応答がない場合には、ステップS403に戻り、表示画面の状態が第1の表示状態のまま保持される。対話相手と映像情報及び/又は音声情報の送受信を行いたい場合には、ユーザは、再度覗き込み動作を行い、ステップS405でその有無が再度検出される。
ステップS409で対話相手から映像情報及び/又は音声情報の送受信を行うことを許可する旨の応答があった場合には、ステップS411に進む。ステップS411では、表示制御部142によって表示画面の状態が第2の表示状態に制御される。すなわち、表示画面の状態が、第1のコンテンツが表示されかつ第2のコンテンツ(対話相手の撮像画像)が表示されない状態である第1の表示状態から、第1のコンテンツ及び第2のコンテンツ(対話相手の撮像画像)が少なくとも表示された状態である第2の表示状態に切り換えられる。第2の表示状態では、例えば図3Bに示すような表示が表示画面に表示されてよい。なお、ステップS411における第1の表示状態から第2の表示状態への切り換えにおいては、表示画面の表示が、第1の表示状態から表示画面内の所定の領域に第2のコンテンツが表示されている第2の表示状態に瞬間的に変化してもよいし、第1の表示状態から表示画面に第2のコンテンツが徐々に挿入されることによって第2の表示状態に変化してもよい。ユーザは、第1のコンテンツの視聴を継続しながら、第2のコンテンツである対話相手の撮像画像を参照してビデオチャットを行うことができる。また、第2の表示状態において、第2のコンテンツの表示は、上記<1.表示制御システム及び情報処理装置の構成>で説明したように、覗き込み動作に伴う覗き込み量に応じて制御されてもよい。
次いで、ステップS413で、更なる表示切り換え指示があったかどうかが判断される。ステップS413で言う表示切り換え処理とは、第2の表示状態から第1の表示状態に表示状態を切り換える(戻す)処理のことを意味している。本実施形態においては、第2の表示状態から第1の表示状態に表示状態を切り換えるための表示切り換え指示は、ユーザによって適宜設定可能である。第2の表示状態から第1の表示状態に表示状態を戻すための指示入力は、「覗き込み動作をやめる」というトリガー動作によって行われてもよいし、他の異なるトリガー動作によって行われてもよい。あるいは、リモコン等の情報処理装置10に備え付けられている入力装置による操作入力によって行われてもよい。表示切り換え指示がなかった場合には、ステップS411に戻り、表示画面の状態が第2の表示状態のまま保持される。一方、表示切り換え指示があった場合には、ステップS403に戻り、表示制御部142によって表示画面の表示が第1の表示状態に制御され、ステップS403以降の一連の処理が再度行われる。
ビデオチャットを終える場合には、リモコン等の情報処理装置10に備え付けられている入力装置によるユーザからの操作入力によって明示的に指示が与えられることにより、ユーザの情報処理装置10と対話相手の情報処理装置10との間の接続が切断されてもよい。また、ユーザによる所定の動作(例えば、表示画面に対して手を振る動作等)が検出されることにより、ビデオチャットが終了されてもよい。あるいは、第1のコンテンツがテレビ番組である場合には、当該テレビ番組が終了したタイミングや、他のテレビ番組に表示を切り換えたタイミングで、自動的にビデオチャットが終了されてもよい。
以上、図7を参照して、本開示の一実施形態に係る表示制御方法の処理手順について説明した。なお、上記では、ビデオチャットシステムにおける対話相手が1人である場合について説明したが、本実施形態はかかる例に限定されず、ユーザは複数の対話相手とビデオチャットを行ってもよい。対話相手が複数存在する場合には、例えばステップS407及びステップS409における応答要求及び応答が、対話相手ごとにそれぞれ行われる。そして、ステップS411では、映像情報及び/又は音声情報の送受信を許可する旨の応答があった対話相手の撮像画像のみが、第2のコンテンツとして表示画面に表示されてよい。また、互いに異なる複数の対話相手の撮像画像が第2のコンテンツとして表示画面に表示される場合には、例えば図4A及び図4Bに示すような表示が表示画面に表示されてよい。
また、上記では、トリガー動作が覗き込み動作である場合について説明したが、本実施形態はかかる例に限定されない。トリガー動作は他の動作であってもよく、ユーザによって適宜設定可能である。
また、上記では、第2の表示状態において第1のコンテンツと第2のコンテンツとが表示画面に表示される場合について説明したが、本実施形態はかかる例に限定されない。例えば、図5に示すように、互いに異なる複数のコンテンツが第2の表示状態において表示画面に表示されてもよい。また、第2の表示状態における、これらの互いに異なる複数のコンテンツの表示は、互いに異なる複数のトリガー動作によってそれぞれ制御されてもよい。
また、本実施形態においては、図7のフロー図に示す各処理のうち、ステップS407及びステップS409に示す処理は省略されてもよい。すなわち、本実施形態においては、ユーザの情報処理装置10と対話相手の情報処理装置10との間で、ビデオチャットにおける映像情報及び/又は音声情報の送受信についての応答要求及びその応答がやり取りされず、トリガー動作が検出されたことによって表示画面の表示が無条件に第1の表示状態から第2の表示状態に切り換えられてもよい。
<4.ハードウェア構成>
次に、図8を参照しながら、本開示の一実施形態に係る情報処理装置10のハードウェア構成について説明する。図8は、本開示の一実施形態に係る情報処理装置10のハードウェア構成を示す機能ブロック図である。
情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907、ブリッジ909、外部バス911、インターフェース913、撮像装置914、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925を備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般又はその一部を制御する。CPU901は、本実施形態では、例えば、図1に示す制御部140に対応するものであり、本実施形態に係る表示制御処理における各種の情報の処理を行う。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらCPU901、ROM903及びRAM905は、CPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。また、外部バス911には、インターフェース913を介して撮像装置914、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925が接続される。
撮像装置914は、撮影対象を動画や静止画の形式で撮影するカメラ等の撮像手段である。具体的には、撮像装置914は、2次元状に配列された複数の受光素子を有し、当該受光素子における光電変換により、撮影対象の画像を表す画像信号を取得するとともに、当該画像信号に各種の信号処理を施すことにより撮像対象の静止画や動画を生成することができる。撮像装置914は、本実施形態では、例えば、図1に示す撮像部111に対応するものであり、ユーザの動作情報を取得するための撮像画像を取得する。また、撮像部111によって撮影された撮像画像についての情報が、ビデオチャットにおける映像情報として使用され得る。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバー等、ユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路等から構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。本実施形態では、例えば、ユーザは入力装置915を介した操作入力により、表示制御処理に関する各種の指示や情報(例えば、トリガー動作の設定やビデオチャットにおける接続先の選択等)を入力することができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置や、プリンタ装置等がある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキスト、グラフ、画像等様々な形式で表示する。当該表示装置は、本実施形態では、例えば、図1に示す表示部120に対応するものであり、表示制御部142からの制御によって、第1のコンテンツ及び第2のコンテンツを含むあらゆるコンテンツを表示画面に表示する。一方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。当該音声出力装置からは、例えばビデオチャットにおける音声情報に基づいて、対話相手の音声が出力される。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ及び外部から取得した各種データ等を格納する。本実施形態においては、ストレージ装置919は、表示制御処理において処理される各種の情報を記憶することができる。また、ストレージ装置919は、ビデオチャットにおいて用いられる各種の情報、例えばユーザのアカウント情報等を記憶してもよい。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク又は半導体メモリ等のリムーバブル記録媒体927に各種の情報を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、Blu−ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ又はSDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。本実施形態においては、情報処理装置10は、ドライブ921を介して、表示制御処理に関する各種の情報を、リムーバブル記録媒体927から読み出したり、リムーバブル記録媒体927に書き込んだりすることができる。
接続ポート923は、外部の他の機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(登録商標)(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接各種の情報を取得したり、外部接続機器929に各種の情報を提供したりする。本実施形態においては、情報処理装置10は、接続ポート923を介して、表示制御処理に関する各種の情報を、外部接続機器929から取得したり、外部接続機器929に出力したりすることができる。
通信装置925は、例えば、通信網(ネットワーク)931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線若しくは無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続されるネットワーク931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。通信装置925は、本実施形態においては、例えば、図1に示す通信部130に対応するものである。また、ネットワーク931は、例えば、図1に示すネットワーク30に対応するものである。本実施形態においては、通信装置925は、表示制御処理に関する各種の情報をネットワーク931を介して接続される他の機器との間で送受信することができる。例えば、通信装置925は、ビデオチャットシステムを利用するための各種の情報を、図1に示すシステム管理サーバ20との間で送受信する。また、例えば、通信装置925は、ビデオチャットシステムにおける映像情報及び/又は音声情報の送受信に関する応答要求及び当該応答要求に対する応答を対話相手の情報処理装置10との間で送受信するとともに、当該送受信を許可する旨の応答があった場合には当該映像情報及び/又は音声情報を対話相手の情報処理装置10との間で送受信する。
また、図8には明示しないが、情報処理装置10は、ユーザとの距離を検出する測距センサ装置や、周囲の音声を取得するための集音装置を更に備えてもよい。当該測距センサ装置や当該集音装置は、例えば図2に示す動作情報取得部110に設けられ、これらの装置によって取得されたユーザとの距離についての情報や、ユーザの発した音声についての情報に基づいて、動作情報が取得されてもよい。また、当該集音装置によって集音された音声についての情報が、ビデオチャットにおける音声情報として使用され得る。
以上、図8を参照して、本開示の一実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置10の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
<5.まとめ>
以上説明したように、本実施形態においては以下の効果を得ることができる。
本実施形態においては、トリガー動作検出部141によって、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作が検出される。そして、表示制御部142によって、検出された当該トリガー動作に応じて、表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とが切り換えられる表示制御が行われる。従って、第1の表示状態と第2の表示状態との切り換えを、ユーザの簡易な動作によってより容易に行うことが可能となり、ユーザの利便性が向上される。
また、本実施形態に係る表示制御処理は、ビデオチャットシステムの利用と組み合わせることができる。ビデオチャットシステムの利用時においては、例えば、第1のコンテンツがビデオチャットにおける対話相手の撮像画像以外の他のコンテンツ(例えばテレビ番組等)に設定され、第2のコンテンツがビデオチャットにおける対話相手の撮像画像に設定され得る。ユーザは、トリガー動作を行うことにより、例えば対話相手との会話を中断して他のコンテンツの視聴に集中したい場合には表示画面を第1の表示状態にし、当該他のコンテンツの内容について感想を伝える等、対話相手との会話を行いたい場合には表示画面を第2の表示状態にする、といったように、ユーザの意向に沿った表示画面の切り換えを容易に行うことが可能となる。また、トリガー動作という比較的簡易な動作によって第1の表示状態と第2の表示状態との切り換えが可能となるため、ユーザは、第1のコンテンツの視聴を妨げられることなくビデオチャットを行うことができる。従って、ビデオチャット利用時のユーザの利便性が向上される。
また、本実施形態においては、トリガー動作にはユーザの視線に関する動作が含まれてもよい。具体的には、トリガー動作はユーザの視線が表示画面内の所定の領域に向けられる動作であってもよいし、覗き込み動作であってもよい。また、本実施形態では、覗き込み動作における覗き込み量に応じて、第2のコンテンツが徐々に表示画面に挿入されるように表示制御が行われてもよい。従って、ユーザは、頭部及び/又は視線を動かすという比較的簡易な動作によって、第2の表示状態での表示画面における第1のコンテンツの表示領域と第2のコンテンツの表示領域との比率を、状況に応じてより簡便に調整することが可能となる。このように、本実施形態においては、ユーザの視線の位置に応じて、第2の表示状態での表示画面における第1のコンテンツの表示領域と第2のコンテンツの表示領域との比率が制御され得る。よって、ユーザにとってより自由度の高い表示制御処理が実現される。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記では、情報処理装置10の動作情報取得部110が撮像部111を有し、トリガー動作がユーザの動きを伴う動作である場合について説明したが、本実施形態はかかる例に限定されない。例えば、動作情報取得部110がマイクロフォン装置等の集音装置を有するとともにトリガー動作検出部141が音声認識機能を有してもよく、ユーザが特定の言葉を含む音声を発する動作がトリガー動作として検出されてもよい。また、特定の動きを行う動作と特定の言葉を含む音声を発する動作とを組み合わせて、特定の動きを行いながら特定の言葉を発する動作がトリガー動作として設定されてもよい。
また、上記では、ビデオチャットシステム利用時における表示制御処理について説明したが、本実施形態はかかる例に限定されない。本実施形態に係る表示制御処理は、少なくとも互いに異なる2つのコンテンツが表示画面に表示され得る状況であれば、他のアプリケーションやシステムの利用時にも適用可能である。また、本実施形態に係る表示制御処理においては第1のコンテンツ、第2のコンテンツ及びその他の表示画面に表示され得るコンテンツの種類は限定されず、あらゆる種類のコンテンツの表示が制御されてよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出するトリガー動作検出部と、前記トリガー動作検出部によって検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える表示制御部と、を備える、情報処理装置。
(2)前記トリガー動作検出部は、ユーザの視線が表示画面内の所定の領域に向けられる動作を前記トリガー動作として検出する、前記(1)に記載の情報処理装置。
(3)前記トリガー動作は、ユーザが、前記表示画面の少なくとも1辺の方向に視線を向け、前記表示画面における当該ユーザの視線方向の奥行きに対応する空間を覗き込む覗き込み動作である、前記(1)又は(2)に記載の情報処理装置。
(4)前記表示制御部は、前記覗き込み動作においてユーザが覗き込んだ方向から前記表示画面に前記第2のコンテンツを挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、前記(3)に記載の情報処理装置。
(5)前記トリガー動作検出部は、前記動作情報に含まれるユーザの頭部及び視線の少なくともいずれかの動きについての情報に基づいて、前記覗き込み動作を検出する、前記(3)又は(4)に記載の情報処理装置。
(6)前記表示制御部は、前記覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量に応じて、前記第2のコンテンツを前記表示画面に徐々に挿入させる、前記(5)に記載の情報処理装置。
(7)前記表示制御部は、前記第2の表示状態において、前記覗き込み動作におけるユーザの視線方向に、前記表示画面の奥行きを反映した3次元画像として前記第2のコンテンツを前記表示画面に表示させる、前記(3)〜(6)のいずれか1項に記載の情報処理装置。
(8)前記表示制御部は、前記第2の表示状態において、前記覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量に応じて、前記第2のコンテンツの前記3次元画像の角度及び奥行き方向の位置の表示を変化させる、前記(7)に記載の情報処理装置。
(9)前記トリガー動作は、ユーザの少なくとも体の一部位が前記表示画面に対して第1の方向に沿って動く動作である、前記(1)又は(2)に記載の情報処理装置。
(10)前記表示制御部は、前記トリガー動作におけるユーザの少なくとも体の一部位の前記第1の方向への移動量に応じて、前記第1の方向から前記表示画面に前記第2のコンテンツを徐々に挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、前記(9)に記載の情報処理装置。
(11)前記表示制御部は、前記第2の表示状態において、前記第1のコンテンツと前記第2のコンテンツとを、前記表示画面内の互いに異なる領域にそれぞれ表示させる、前記(1)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記表示制御部は、前記第2の表示状態において、前記第1のコンテンツ及び前記第2のコンテンツに加えて、他のコンテンツを表示画面に更に表示させる、前記(1)〜(11)のいずれか1項に記載の情報処理装置。
(13)前記トリガー動作検出部は、ユーザの少なくとも体の一部位が前記表示画面に対して互いに異なる複数の方向に沿って動く動作を、それぞれ前記トリガー動作として検出し、前記表示制御部は、前記第2の表示状態において、前記トリガー動作におけるユーザの少なくとも体の一部位が動く方向から前記表示画面に前記第2のコンテンツ及び前記他のコンテンツをそれぞれ挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、前記(12)に記載の情報処理装置。
(14)前記第2のコンテンツは、前記ユーザと少なくとも1人以上の対話相手とが前記情報処理装置を介して前記ユーザ及び前記対話相手が撮影された撮像画像並びに前記ユーザ及び前記対話相手が発した音声を少なくとも互いに送受信するビデオチャットシステムにおける、前記対話相手の撮像画像である、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記表示制御部は、前記第2の表示状態において、互いに異なる複数の前記対話相手の撮像画像を前記表示画面に表示させる、前記(14)に記載の情報処理装置。
(16)前記表示制御部は、前記撮像画像の前記表示画面に対する向きのずれ及び前記撮像画像の表示領域内での位置のずれの少なくともいずれか含む前記撮像画像の偏りを補正し、当該偏りが補正された後の撮像画像を、前記第2の表示状態において前記第2のコンテンツとして前記表示画面に表示させる、前記(14)に記載の情報処理装置。
(17)前記動作情報を取得する動作情報取得部を更に備え、前記動作情報取得部は、撮像対象の画像を撮影する撮像部を含み、当該撮像部によって撮影された撮像画像に基づいて、ユーザの少なくとも体の一部位の動きについての情報を取得することにより前記動作情報を取得し、前記トリガー動作検出部は、前記動作情報取得部によって取得された前記動作情報に含まれるユーザの少なくとも体の一部位の動きについての情報に基づいて、前記トリガー動作を検出する、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)前記トリガー動作は、ユーザが、前記表示画面の少なくとも1辺の方向に視線を向け、前記表示画面から前記表示画面の外部に対応する空間を覗き込む覗き込み動作であり、前記撮像部は、前記覗き込み動作におけるユーザの視線方向に対応する位置に配設される、前記(17)に記載の情報処理装置。
(19)ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出することと、検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換えることと、を含む、表示制御方法。
(20)コンピュータに、ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出する機能と、検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える機能と、を実現させるためのプログラム。
1 表示制御システム
10 情報処理装置
20 システム管理サーバ
30 ネットワーク
110 動作情報取得部
111 撮像部
120 表示部
130 通信部
140 制御部
141 トリガー動作検出部
142 表示制御部

Claims (20)

  1. ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出するトリガー動作検出部と、
    前記トリガー動作検出部によって検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える表示制御部と、
    を備える、情報処理装置。
  2. 前記トリガー動作検出部は、ユーザの視線が表示画面内の所定の領域に向けられる動作を前記トリガー動作として検出する、
    請求項1に記載の情報処理装置。
  3. 前記トリガー動作は、ユーザが、前記表示画面の少なくとも1辺の方向に視線を向け、前記表示画面における当該ユーザの視線方向の奥行きに対応する空間を覗き込む覗き込み動作である、
    請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記覗き込み動作においてユーザが覗き込んだ方向から前記表示画面に前記第2のコンテンツを挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、
    請求項3に記載の情報処理装置。
  5. 前記トリガー動作検出部は、前記動作情報に含まれるユーザの頭部及び視線の少なくともいずれかの動きについての情報に基づいて、前記覗き込み動作を検出する、
    請求項3に記載の情報処理装置。
  6. 前記表示制御部は、前記覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量に応じて、前記第2のコンテンツを前記表示画面に徐々に挿入させる、
    請求項5に記載の情報処理装置。
  7. 前記表示制御部は、前記第2の表示状態において、前記覗き込み動作におけるユーザの視線方向に、前記表示画面の奥行きを反映した3次元画像として前記第2のコンテンツを前記表示画面に表示させる、
    請求項3に記載の情報処理装置。
  8. 前記表示制御部は、前記第2の表示状態において、前記覗き込み動作におけるユーザの頭部及び視線の少なくともいずれかの動きの移動量に応じて、前記第2のコンテンツの前記3次元画像の角度及び奥行き方向の位置の表示を変化させる、
    請求項7に記載の情報処理装置。
  9. 前記トリガー動作は、ユーザの少なくとも体の一部位が前記表示画面に対して第1の方向に沿って動く動作である、
    請求項1に記載の情報処理装置。
  10. 前記表示制御部は、前記トリガー動作におけるユーザの少なくとも体の一部位の前記第1の方向への移動量に応じて、前記第1の方向から前記表示画面に前記第2のコンテンツを徐々に挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、
    請求項9に記載の情報処理装置。
  11. 前記表示制御部は、前記第2の表示状態において、前記第1のコンテンツと前記第2のコンテンツとを、前記表示画面内の互いに異なる領域にそれぞれ表示させる、
    請求項1に記載の情報処理装置。
  12. 前記表示制御部は、前記第2の表示状態において、前記第1のコンテンツ及び前記第2のコンテンツに加えて、他のコンテンツを表示画面に更に表示させる、
    請求項1に記載の情報処理装置。
  13. 前記トリガー動作検出部は、ユーザの少なくとも体の一部位が前記表示画面に対して互いに異なる複数の方向に沿って動く動作を、それぞれ前記トリガー動作として検出し、
    前記表示制御部は、前記第2の表示状態において、前記トリガー動作におけるユーザの少なくとも体の一部位が動く方向から前記表示画面に前記第2のコンテンツ及び前記他のコンテンツをそれぞれ挿入することにより、前記第1の表示状態から前記第2の表示状態への切り換えを行う、
    請求項12に記載の情報処理装置。
  14. 前記第2のコンテンツは、前記ユーザと少なくとも1人以上の対話相手とが前記情報処理装置を介して前記ユーザ及び前記対話相手が撮影された撮像画像並びに前記ユーザ及び前記対話相手が発した音声を少なくとも互いに送受信するビデオチャットシステムにおける、前記対話相手の撮像画像である、
    請求項1に記載の情報処理装置。
  15. 前記表示制御部は、前記第2の表示状態において、互いに異なる複数の前記対話相手の撮像画像を前記表示画面に表示させる、
    請求項14に記載の情報処理装置。
  16. 前記表示制御部は、前記撮像画像の前記表示画面に対する向きのずれ及び前記撮像画像の表示領域内での位置のずれの少なくともいずれか含む前記撮像画像の偏りを補正し、当該偏りが補正された後の撮像画像を、前記第2の表示状態において前記第2のコンテンツとして前記表示画面に表示させる、
    請求項14に記載の情報処理装置。
  17. 前記動作情報を取得する動作情報取得部を更に備え、
    前記動作情報取得部は、撮像対象の画像を撮影する撮像部を含み、当該撮像部によって撮影された撮像画像に基づいて、ユーザの少なくとも体の一部位の動きについての情報を取得することにより前記動作情報を取得し、
    前記トリガー動作検出部は、前記動作情報取得部によって取得された前記動作情報に含まれるユーザの少なくとも体の一部位の動きについての情報に基づいて、前記トリガー動作を検出する、
    請求項1に記載の情報処理装置。
  18. 前記トリガー動作は、ユーザが、前記表示画面の少なくとも1辺の方向に視線を向け、前記表示画面から前記表示画面の外部に対応する空間を覗き込む覗き込み動作であり、
    前記撮像部は、前記覗き込み動作におけるユーザの視線方向に対応する位置に配設される、
    請求項17に記載の情報処理装置。
  19. ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出することと、
    検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換えることと、
    を含む、表示制御方法。
  20. コンピュータに、
    ユーザが行う動作についての情報である動作情報に基づいて、表示画面に対して行われる当該ユーザの特定の動作であるトリガー動作を検出する機能と、
    検出された前記トリガー動作に応じて、前記表示画面に第1のコンテンツが表示されかつ前記第1のコンテンツと関連する第2のコンテンツが表示されない第1の表示状態と、前記表示画面に前記第1のコンテンツと前記第2のコンテンツとが少なくとも表示された第2の表示状態とを切り換える機能と、
    を実現させるためのプログラム。


JP2013114007A 2013-05-30 2013-05-30 情報処理装置、表示制御方法及びプログラム Active JP6229314B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2013114007A JP6229314B2 (ja) 2013-05-30 2013-05-30 情報処理装置、表示制御方法及びプログラム
EP14729731.1A EP3005716B1 (en) 2013-05-30 2014-05-15 Information processing apparatus, display control method, and program
US14/892,851 US10038874B2 (en) 2013-05-30 2014-05-15 Information processing apparatus, display control method, and program
CN201480029853.6A CN105247881B (zh) 2013-05-30 2014-05-15 信息处理设备、显示控制方法以及程序
PCT/JP2014/002564 WO2014192239A1 (en) 2013-05-30 2014-05-15 Information processing apparatus, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013114007A JP6229314B2 (ja) 2013-05-30 2013-05-30 情報処理装置、表示制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014233035A true JP2014233035A (ja) 2014-12-11
JP6229314B2 JP6229314B2 (ja) 2017-11-15

Family

ID=50933458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013114007A Active JP6229314B2 (ja) 2013-05-30 2013-05-30 情報処理装置、表示制御方法及びプログラム

Country Status (5)

Country Link
US (1) US10038874B2 (ja)
EP (1) EP3005716B1 (ja)
JP (1) JP6229314B2 (ja)
CN (1) CN105247881B (ja)
WO (1) WO2014192239A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105451062A (zh) * 2015-09-15 2016-03-30 北京合盒互动科技有限公司 一种显示推送信息的方法及装置
JP2017055354A (ja) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 画像表示システム及び画像表示方法
JP7484377B2 (ja) 2020-04-22 2024-05-16 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9826277B2 (en) * 2015-01-23 2017-11-21 TCL Research America Inc. Method and system for collaborative and scalable information presentation
US10474310B2 (en) * 2015-04-27 2019-11-12 Adobe Inc. Non-modal toolbar control
EP3389261B1 (en) * 2015-12-11 2021-03-17 Sony Corporation Information processing device, information processing method, and program
US10771508B2 (en) 2016-01-19 2020-09-08 Nadejda Sarmova Systems and methods for establishing a virtual shared experience for media playback
JP2018101019A (ja) * 2016-12-19 2018-06-28 セイコーエプソン株式会社 表示装置及び表示装置の制御方法
JP6976719B2 (ja) * 2017-05-25 2021-12-08 キヤノン株式会社 表示制御装置、表示制御方法及びプログラム
CN110959286A (zh) * 2017-07-31 2020-04-03 索尼公司 图像处理装置、图像处理方法、程序以及远程通讯系统
JP7081099B2 (ja) * 2017-09-11 2022-06-07 富士フイルムビジネスイノベーション株式会社 情報処理装置、プログラム及び制御方法
US11134312B2 (en) * 2017-12-14 2021-09-28 Google Llc Methods, systems, and media for presenting contextual information in connection with media content
GB2571106A (en) * 2018-02-16 2019-08-21 Sony Corp Image processing apparatuses and methods
US11553158B2 (en) * 2018-11-09 2023-01-10 Sony Group Corporation Information processing apparatus, information processing method, and program
CN109819331B (zh) * 2019-01-21 2021-08-20 维沃移动通信有限公司 一种视频通话方法、装置、移动终端
US11023729B1 (en) * 2019-11-08 2021-06-01 Msg Entertainment Group, Llc Providing visual guidance for presenting visual content in a venue
JP7072550B2 (ja) * 2019-11-19 2022-05-20 株式会社ソニー・インタラクティブエンタテインメント 操作デバイス

Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123390A (ja) * 1993-08-30 1995-05-12 Canon Inc テレビ会議システムおよび画像入力装置のための制御装置
JPH08237629A (ja) * 1994-10-25 1996-09-13 At & T Corp 視差修正および存在感を提供するビデオ会議システムおよび方法
JPH11122594A (ja) * 1997-10-20 1999-04-30 Matsushita Electric Ind Co Ltd 電子会議装置
JP2004054134A (ja) * 2002-07-23 2004-02-19 Seiko Epson Corp ネットワーク対応表示装置および表示制御プログラム
JP2006165763A (ja) * 2004-12-03 2006-06-22 Konica Minolta Photo Imaging Inc 映像表示装置
JP2008294815A (ja) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd 情報端末装置
JP2010128778A (ja) * 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc 情報表示装置、情報表示装置の覗き見防止方法及び覗き見防止プログラム
WO2010103717A1 (ja) * 2009-03-11 2010-09-16 パナソニック株式会社 デジタル放送受信装置および映像表示方法
JP2011023883A (ja) * 2009-07-14 2011-02-03 Sharp Corp コンテンツ再生装置、プログラム、および記録媒体
US20110109619A1 (en) * 2009-11-12 2011-05-12 Lg Electronics Inc. Image display apparatus and image display method thereof
US20110242269A1 (en) * 2010-03-31 2011-10-06 Sony Corporation Television system, television set and method for operating a television system
JP2012042716A (ja) * 2010-08-19 2012-03-01 Fujifilm Corp 表示方法および装置
JP2012068991A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
WO2012117652A1 (ja) * 2011-02-28 2012-09-07 シャープ株式会社 画像表示装置セット
JP2013016123A (ja) * 2011-07-06 2013-01-24 Clarion Co Ltd 表示機器、及び、画面遷移方法
JP2013055403A (ja) * 2011-09-01 2013-03-21 Ricoh Co Ltd 伝送管理システム、伝送管理方法、プログラム、プログラム提供システム、及びメンテナンスシステム
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8537196B2 (en) 2008-10-06 2013-09-17 Microsoft Corporation Multi-device capture and spatial browsing of conferences
JP5237234B2 (ja) 2009-09-29 2013-07-17 日本電信電話株式会社 映像コミュニケーションシステム、及び映像コミュニケーション方法
US8917632B2 (en) * 2010-04-07 2014-12-23 Apple Inc. Different rate controller configurations for different cameras of a mobile device
US9232274B2 (en) * 2010-07-20 2016-01-05 At&T Intellectual Property I, L.P. Apparatus for adapting a presentation of media content to a requesting device
US9445046B2 (en) 2011-06-24 2016-09-13 At&T Intellectual Property I, L.P. Apparatus and method for presenting media content with telepresence
US20140002581A1 (en) * 2012-06-29 2014-01-02 Monkeymedia, Inc. Portable proprioceptive peripatetic polylinear video player

Patent Citations (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07123390A (ja) * 1993-08-30 1995-05-12 Canon Inc テレビ会議システムおよび画像入力装置のための制御装置
JPH08237629A (ja) * 1994-10-25 1996-09-13 At & T Corp 視差修正および存在感を提供するビデオ会議システムおよび方法
JPH11122594A (ja) * 1997-10-20 1999-04-30 Matsushita Electric Ind Co Ltd 電子会議装置
JP2004054134A (ja) * 2002-07-23 2004-02-19 Seiko Epson Corp ネットワーク対応表示装置および表示制御プログラム
JP2006165763A (ja) * 2004-12-03 2006-06-22 Konica Minolta Photo Imaging Inc 映像表示装置
JP2008294815A (ja) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd 情報端末装置
JP2010128778A (ja) * 2008-11-27 2010-06-10 Sony Ericsson Mobilecommunications Japan Inc 情報表示装置、情報表示装置の覗き見防止方法及び覗き見防止プログラム
WO2010103717A1 (ja) * 2009-03-11 2010-09-16 パナソニック株式会社 デジタル放送受信装置および映像表示方法
JP2011023883A (ja) * 2009-07-14 2011-02-03 Sharp Corp コンテンツ再生装置、プログラム、および記録媒体
US20110109619A1 (en) * 2009-11-12 2011-05-12 Lg Electronics Inc. Image display apparatus and image display method thereof
JP2013514585A (ja) * 2009-12-17 2013-04-25 マイクロソフト コーポレーション プレゼンテーション用カメラ・ナビゲーション
US20110242269A1 (en) * 2010-03-31 2011-10-06 Sony Corporation Television system, television set and method for operating a television system
JP2012042716A (ja) * 2010-08-19 2012-03-01 Fujifilm Corp 表示方法および装置
JP2012068991A (ja) * 2010-09-24 2012-04-05 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
WO2012117652A1 (ja) * 2011-02-28 2012-09-07 シャープ株式会社 画像表示装置セット
JP2013016123A (ja) * 2011-07-06 2013-01-24 Clarion Co Ltd 表示機器、及び、画面遷移方法
JP2013055403A (ja) * 2011-09-01 2013-03-21 Ricoh Co Ltd 伝送管理システム、伝送管理方法、プログラム、プログラム提供システム、及びメンテナンスシステム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017055354A (ja) * 2015-09-11 2017-03-16 大和ハウス工業株式会社 画像表示システム及び画像表示方法
CN105451062A (zh) * 2015-09-15 2016-03-30 北京合盒互动科技有限公司 一种显示推送信息的方法及装置
CN105451062B (zh) * 2015-09-15 2017-05-31 北京合盒互动科技有限公司 一种显示推送信息的方法及装置
JP7484377B2 (ja) 2020-04-22 2024-05-16 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Also Published As

Publication number Publication date
CN105247881B (zh) 2020-02-14
US20160182854A1 (en) 2016-06-23
EP3005716A1 (en) 2016-04-13
JP6229314B2 (ja) 2017-11-15
WO2014192239A1 (en) 2014-12-04
EP3005716B1 (en) 2020-01-01
US10038874B2 (en) 2018-07-31
CN105247881A (zh) 2016-01-13

Similar Documents

Publication Publication Date Title
JP6229314B2 (ja) 情報処理装置、表示制御方法及びプログラム
US11178462B2 (en) Display control device and display control method
JP5208810B2 (ja) 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
US9818225B2 (en) Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
TW202105331A (zh) 一種人體關鍵點檢測方法及裝置、電子設備和電腦可讀儲存介質
JP6126076B2 (ja) 各ユーザの視点に対する共有デジタルインターフェースのレンダリングのためのシステム
JP6459972B2 (ja) 表示制御装置、表示制御方法、およびプログラム
EP2731348A2 (en) Apparatus and method for providing social network service using augmented reality
US11218669B1 (en) System and method for extracting and transplanting live video avatar images
WO2018025458A1 (ja) 情報処理装置、情報処理方法、およびプログラム
TW200540458A (en) Motion sensor using dual camera inputs
US11423627B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
US20150244984A1 (en) Information processing method and device
JP6946684B2 (ja) 電子情報ボードシステム、画像処理装置、及びプログラム
JP2012070081A (ja) 画像表示装置、画像表示プログラム及び画像表示システム
US20220398816A1 (en) Systems And Methods For Providing Real-Time Composite Video From Multiple Source Devices Featuring Augmented Reality Elements
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP2011097447A (ja) コミュニケーションシステム
JP7452434B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20230260235A1 (en) Information processing apparatus, information processing method, and information processing system
WO2019138682A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN111432155B (zh) 视频通话方法、电子设备及计算机可读存储介质
JP7078036B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2011164695A (ja) 情報処理装置、入力装置、情報処理方法及び会議システム
WO2023075810A1 (en) System and method for extracting, transplanting live images for streaming blended, hyper-realistic reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171002

R151 Written notification of patent or utility model registration

Ref document number: 6229314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250