JP2018163461A - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
JP2018163461A
JP2018163461A JP2017059511A JP2017059511A JP2018163461A JP 2018163461 A JP2018163461 A JP 2018163461A JP 2017059511 A JP2017059511 A JP 2017059511A JP 2017059511 A JP2017059511 A JP 2017059511A JP 2018163461 A JP2018163461 A JP 2018163461A
Authority
JP
Japan
Prior art keywords
content
comment
information
comment input
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017059511A
Other languages
English (en)
Inventor
高橋 慧
Kei Takahashi
高橋  慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017059511A priority Critical patent/JP2018163461A/ja
Priority to US15/918,499 priority patent/US20180278995A1/en
Priority to DE102018106108.0A priority patent/DE102018106108A1/de
Priority to CN201810218430.9A priority patent/CN108628439A/zh
Publication of JP2018163461A publication Critical patent/JP2018163461A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/475End-user interface for inputting end-user data, e.g. personal identification number [PIN], preference data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4882Data services, e.g. news ticker for displaying messages, e.g. warnings, reminders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/632Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing using a connection between clients on a wide area network, e.g. setting up a peer-to-peer communication via Internet for retrieving video segments from the hard-disk of other client devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Abstract

【課題】コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示し、多くのコンテンツ視聴ユーザに特定画像領域を視聴させることを可能とした構成を実現する。
【解決手段】ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、データ処理部は、コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、コメント入力者視聴領域情報に基づいて、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する。誘導情報は、コメント入力ユーザの視聴領域の方向を示す矢印や、メッセージである。さらに、コメント入力可能モード、停止モードのモード切り換えを可能とした。
【選択図】図1

Description

本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、ネットワーク配信コンテンツを視聴するユーザのコメントをコンテンツに重畳表示する情報処理装置、および情報処理方法、並びにプログラムに関する。
昨今、インターネット等のネットワークを介したコンテンツの配信、および視聴が盛んに行われている。
また、最近、例えば複数のカメラからなる多視点カメラで撮影された多視点映像や、全天周カメラで撮影された全天周映像、もしくはパノラマ映像など、視線方向を変更可能な自由視点映像を提供するサービスが増えつつある。
例えば、頭部に装着して使用するヘッド・マウント・ディスプレイを用いて、自由視点映像を視聴することができる。例えば、実際に表示される表示画像よりも広角の広角画像を撮影する撮影系を備え、回転角センサで検出されたユーザの頭部の位置情報に基づいて、ユーザが見るべき表示画像を切り出して表示する頭部装着型表示システムに関する提案がなされている(例えば、特許文献1を参照のこと)。
また、自由視点映像の配信サービスに双方向通信を適用することで、インタラクティブな視聴サービスを実現することができる。例えば、ユーザ毎に視点位置や視線方向を切り替えた映像を配信して、多様なニーズに応えることができる(例えば、特許文献2を参照のこと)。
自由視点映像は、例えばスポーツやゲーム、コンサート、演劇などのエンターテインメント系のコンテンツとして利用することができる。また、撮影現場と視聴者との双方向通信により、コンテンツの視聴者から撮影者に対する指示や教示、案内、作業支援を行なうこともできる。
さらに、ネットワークを介して配信されるコンテンツを視聴するユーザのコメントをコンテンツに重畳表示することで、多くのユーザが同じコンテンツを視聴しながらコミュニケーションを行うことを可能としたシステムも多く利用されている。
特開平8−191419号公報 特開2013−255210号公報
本開示の一実施例においては、例えば、ネットワーク配信コンテンツを視聴するユーザのコメントをコンテンツに重畳表示するシステムにおいて、コメントと共にユーザの視聴領域を示す情報等を送信し、コメント送信者以外の視聴ユーザがコメント送信者の視聴領域を即座に視聴することを可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
さらに、本開示の一実施例においては、ネットワーク配信コンテンツを視聴するユーザが、コメント入力可能なコメント入力可能モードと、コメント入力を停止するコメント入力停止モードの2つのモードを切り換え可能とした情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
本開示の第1の側面は、
ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記データ処理部は、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理装置にある。
さらに、本開示の第2の側面は、
表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記データ処理部は、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理装置にある。
さらに、本開示の第3の側面は、
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、
ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記データ処理部が、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理方法にある。
さらに、本開示の第4の側面は、
情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、
表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記データ処理部は、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理方法にある。
さらに、本開示の第5の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、
ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記プログラムは、前記データ処理部に、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得する処理と、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する処理を実行させるプログラムにある。
さらに、本開示の第6の側面は、
情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、
表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行わせるプログラムにある。
なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
本開示の一実施例の構成によれば、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示し、多くのコンテンツ視聴ユーザに特定画像領域を視聴させることを可能とした構成が実現される。
具体的には、例えば、ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、データ処理部は、コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、コメント入力者視聴領域情報に基づいて、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する。誘導情報は、コメント入力ユーザの視聴領域の方向を示す矢印や、メッセージである。さらに、コメント入力可能モード、停止モードのモード切り換えを可能とした。
本構成により、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示し、多くのコンテンツ視聴ユーザに特定画像領域を視聴させることを可能とした構成が実現される。
なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
情報処理システム100の構成例を示す図である。 コンテンツ提供装置101構成例を示す図である。 コンテンツ出力装置102の構成例を示す図である。 コンテンツ配信処理のシーケンスについて説明する図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コメントを重畳表示するコンテンツの配信処理のシーケンスについて説明する図である。 コメントを重畳表示するコンテンツ配信処理のシーケンスについて説明する図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コメント入力可能/停止モードを切り換え可能とした構成について説明する図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 コンテンツ出力装置に表示される表示情報の例を示す図である。 情報処理装置のハードウェア構成例について説明する図である。
以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
1.情報処理システムの構成例について
2.コンテンツ提供装置とコンテンツ出力装置の構成例について
3.コンテンツの撮影、送信、および視聴処理のシーケンスについて
4.コンテンツ視聴ユーザのコメントをコンテンツに併せて出力する処理例について
5.コメント入力可能モード、コメント入力停止モードを切り換え可能としたコンテンツ出力装置の構成について
6.情報処理装置のハードウェア構成例について
7.本開示の構成のまとめ
[1.情報処理システムの構成例について]
図1は、本開示の情報処理装置を利用した情報処理システム100の構成例を示す図である。
情報処理システム100は、具体的には、例えば、自由視点映像配信システムとして構成される。
コンテンツ提供装置101(例えば、多視点カメラや全天周カメラなどの撮像装置)を用いて取得した自由視点映像などの画像情報は、ネットワーク105を介してコンテンツ配信サーバ111に送信され、さらに、コンテンツ配信サーバ111からコンテンツ出力装置102に送信される。コンテンツ出力装置102は、コンテンツ提供装置101の表示部にコンテンツを表示することができる。
なお、図1には、コンテンツ提供装置101、コンテンツ出力装置102を各々1つのみ示しているが、これらの装置は、ネットワーク上に多数、存在する。
すなわち、撮像画像情報の供給源となるコンテンツ提供装置101は、様々な位置に、多数、存在し、様々な位置で撮影した画像、音声等からなるコンテンツを送信する。
また、コンテンツ出力装置102もネットワーク上の様々な位置に多数、存在し、多くの視聴ユーザが同時にコンテンツ視聴を行うことができる。
コンテンツ提供装置101は、例えば撮像装置によるコンテンツ撮影者であるコンテンツ提供ユーザ(ボディ)10が存在する空間において、撮像画像情報を取得できればよく、種々の装置構成が採用され得る。
例えば、コンテンツ提供装置101は、一般的なカメラ装置や多視点カメラ、全天周カメラの他に、カメラ、もしくはイメージャなどの撮影手段を装備した、ヘッド・マウント・ディスプレイのように撮影者が着用するウェアラブル装置という形態をとることもある。
なお、コンテンツ提供装置101を用いてコンテンツ取得処理を行うユーザをコンテンツ提供ユーザ(ボディ(Body))10と呼ぶ。
一方、コンテンツ提供ユーザ(ボディ)の取得したコンテンツを視聴するユーザをコンテンツ視聴ユーザ(ゴースト(Ghost))20と呼ぶ。
コンテンツ提供ユーザ10としての撮影者は、実際に撮影の現場において、自らの身体を以って活動している(すなわち、身体が現場に実在する)ことから、「ボディ(Body)」と呼ぶ。なお、撮影者は、人(自然人)である以外に、車両(人が手動運転する車両、並びに自動運転、または無人運転する車両を含む)や船舶、飛行機、ロボット、ドローンなどの移動体装置であることも想定される。
一方、実際に撮影の現場にいることなく、例えば、ヘッド・マウント・ディスプレイの画面を介して表示されるコンテンツを視聴するユーザを「ゴースト(Ghost)」と呼ぶ。
コンテンツ視聴ユーザ(ゴースト)20は、現場で身体を以って活動する訳ではないが、コンテンツ提供ユーザである撮影者の視点から見た映像を視聴することによって現場に対する意識を持つことができる。このように、コンテンツ視聴ユーザは、現場には意識のみがある存在であることから、「ゴースト(Ghost)」と呼ぶ。
ボディ、ゴーストの呼称は、各ユーザを区別するための呼称である。
なお、コンテンツ提供ユーザ(ボディ)10が存在する空間は、基本的には実空間であるが、実空間に代えて仮想空間として定義することもできる。以下では、「実空間」、または「仮想空間」を単に「空間」として言及する場合がある。また、コンテンツ提供装置101で取得された撮影画像情報は、コンテンツ提供ユーザ10の空間に関連付けられたコンテンツ情報と言うこともできる。以下では、コンテンツ提供装置101で取得された撮影画像情報を「コンテンツ」とも呼ぶ。
本実施形態では、コンテンツ提供ユーザ10としての多数の撮影者が、それぞれPOI(Point Of Interest:誰かが便利、あるいは興味があると思った場所)に出向いて、そこで各々のコンテンツ提供装置101を用いて撮影作業を行なっていることを想定している。
ここで言うPOIとして、例えば観光名所、商業施設、もしくは商業施設内の各店舗、野球やサッカーなどのスポーツ競技が行なわれるスタジアム、ホール、コンサート会場、劇場などを挙げることができる。但し、撮影場所はPOIなどに限定される訳ではない。
コンテンツ配信サーバ111は、各コンテンツ提供装置101から送られてきたリアルタイム(ライブ映像)のコンテンツを、ネットワーク105経由で自由視点映像の各視聴者に向けてストリーミング配信する。
あるいは、コンテンツデータベースに格納されたコンテンツを、ネットワーク105経由で自由視点映像の各視聴者に向けて配信する。
コンテンツ視聴ユーザ(ゴースト)20は、コンテンツ出力装置102を介して、コンテンツ提供装置101において取得されたコンテンツを視聴する。
コンテンツ出力装置102は、例えばヘッド・マウント・ディスプレイ、あるいは例えばPCとヘッド・マウント・ディスプレイの組み合わせ等によって構成される。コンテンツ出力装置102は、例えばVR(Virtual Reality)映像を視聴可能な装置である。
例えば、ヘッド・マウント・ディスプレイ等のコンテンツ出力装置102は、ステレオカメラや9DoF(Degrees of Freedom)センサなどを搭載して自己位置推定が可能である。また、ヘッド・マウント・ディスプレイ等のコンテンツ出力装置102は、瞳孔角膜反射法などを用いて視聴者であるコンテンツ視聴ユーザの視線を検出し、左右の眼球の回転中心位置と視軸の向き(および頭部姿勢)から、コンテンツ視聴ユーザの視線方向を求めることができるものとする。あるいは、ジャイロ等を用いたヘッド・トラッキングで測定、または推定した頭部の姿勢に基づいて、前方をコンテンツ視聴ユーザの視線方向として扱うようにしてもよい。
例えば、コンテンツ出力装置102が、PCとヘッド・マウント・ディスプレイによって構成される場合、ヘッド・マウント・ディスプレイが自己位置と視線方向を取得して、取得情報を、遂次、PCへ送信する。PCは、ネットワーク105経由でコンテンツ配信サーバ111から自由視点映像のコンテンツ・ストリームを受信する。そして、PCは、ヘッド・マウント・ディスプレイから受信した自己位置と、規定のFoV(Field of View:視界)で自由視点映像をレンダリングする。そして、そのレンダリング結果は、ヘッド・マウント・ディスプレイのディスプレイに表示される。視聴者は、自分の頭部姿勢を変えることで、視点位置と視線方向を自由にコントロールすることができる。
なお、PCではなくヘッド・マウント・ディスプレイ内で、視聴者の自己位置および視線方向に基づく自由視点映像のレンダリング処理を行なうように構成することもできる。また、PCが介在せず、ヘッド・マウント・ディスプレイが直接ネットワーク105に接続するように構成することもできる。あるいは、ヘッド・マウント・ディスプレイを使用せず、PCやスマホに装備されたモニター・ディスプレイにレンダリング処理された自由視点映像を表示して、これを視聴者が視聴するようにしてもよい。
さらに、コンテンツ出力装置102の画面には、例えば、多数のコンテンツ提供装置101が撮影するコンテンツのリストなどからなる推薦情報を含んだUI(User Interface)が表示され、コンテンツ視聴ユーザ20はこのUI画面の操作を通じてコンテンツを選択することが可能となる。
推薦情報を表示するUIの画面構成は様々な構成が可能である。
例えば、コンテンツのタイトルや代表画像のサムネイルの一覧であってもよいし、自由視点映像の撮影場所(コンテンツ提供装置101の設置場所、もしくはコンテンツ提供ユーザの居場所)の表示であってもよいし、撮影者であるコンテンツ提供ユーザのユーザ名(ニックネームやハンドル名を含む)や顔画像のサムネイルの一覧であってもよい。
本明細書では、コンテンツ提供ユーザ10側で取得されたコンテンツをコンテンツ視聴ユーザ20が視聴する際のインタラクションの枠組みのことを、「JackIn(接続)」とも呼ぶ。コンテンツ視聴ユーザ20は、接続したコンテンツ提供ユーザ10の空間に関連付けられたコンテンツを視聴することができる。コンテンツ提供ユーザは、コンテンツ視聴ユーザ20に接続されると、自分の空間に関連付けられたコンテンツを配信する、と言い換えることもできる。
ユーザ同士が接続を行なう目的はさまざまである。例えば、コンテンツ視聴ユーザ20は、自分が存在しない空間に関連付けられたコンテンツや興味のあるコンテンツを単純に視聴すること(例えば、コンテンツ提供ユーザ10側で撮影されたスポーツ観戦)を目的とする他、コンテンツ提供ユーザ10に対して教示や作業支援を行なうことを目的として、コンテンツ提供ユーザ10に接続する場合もある。
さらに、コンテンツ視聴ユーザ20は、視聴しているコンテンツに対するコメントの入力を行うことが可能である。コメント入力は、コンテンツ出力装置102に備えられたマイクを介する音声入力、あるいはキーボードを介する入力などの処理によって行われる。
コンテンツ出力装置102に入力されたコメントは、ネットワーク105を介して、同一コンテンツを視聴している多数のユーザに伝えることができる。
コメントは、例えば表示部に表示されるコンテンツ上に文字データとして重畳して表示される。
図1に示すコメント管理サーバ113が、コンテンツ出力装置102から送信されるコメントデータを取得し、コメントデータベース114に格納する。
なお、詳細については後述するが、コンテンツ出力装置102は、コメントとともに、コメント入力時の視聴領域情報をコメント管理サーバ113に送信する。
さらに、コメントや、コメント入力時の視聴領域情報は、コメント管理サーバ113から、画像処理サーバ112に転送される。
画像処理サーバ112は、コメント入力時の視聴領域情報に基づいて、コメント入力者以外のコンテンツ視聴ユーザに、コメント入力ユーザの視聴領域に誘導するための誘導情報を設定したコンテンツを生成する。
その後、画像処理サーバ112の生成したコンテンツが、ネットワーク105を介して、多数のコンテンツ出力装置102や、コンテンツ提供主体であるコンテンツ提供装置101に送信される。
コメントに対応した処理の具体例および詳細については、後段で説明する。
[2.コンテンツ提供装置とコンテンツ出力装置の構成例について]
次に、図2以下を参照して、コンテンツ提供装置101とコンテンツ出力装置102の構成例について説明する。
図2には、コンテンツ提供装置101の構成例を示している。
コンテンツ提供装置101は、制御部121、入力部122、センサ123、出力部124、撮像部125、通信部126、記憶部127を有する。
制御部121は、コンテンツ提供装置101において実行する様々な処理の制御を実行する。例えば、記憶部127に格納されたプログラムに従って制御を実行する。
入力部122は、ユーザによる操作情報の入力、音声情報を入力する音声入力部(マイク)等によって構成される。音声入力部は、モノラルマイク、またはステレオマイクのいずれでもよいが、撮影時におけるコンテンツ提供ユーザの音声や、コンテンツ提供装置101で撮影している被写体が発生する音声などを集音する。
センサ123は、コンテンツ提供ユーザ近辺の状況を検出するセンサであり、気温や湿度、気圧、照度など、コンテンツ提供ユーザ10が存在する空間(もしくは、撮影時)の天候に関する情報を検出する各種の環境センサ類を含んでいる。また、センサ123は、体温や脈拍、発汗、呼気、脳波など撮影者の生体情報を検出する生体センサを含んでいてもよい。さらに、センサ123は、撮影者であるコンテンツ提供ユーザ本人や撮影者の同行者を撮影して、顔検出や顔認識などの処理を通じてユーザ本人、または同行者の情報を取得する、コンテンツ提供装置101以外の撮影装置を備えていてもよい。
また、センサ123は、コンテンツ提供装置101、もしくはコンテンツ提供ユーザ10の現在位置を計測する位置センサを含んでいてもよい。位置センサは、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度および高度を含む位置情報を生成する。あるいは、位置センサは、PlaceEngine(登録商標)などを利用して無線アクセスポイントからの電測情報に基づいて現在位置を特定してもよい。
センサ123が検出したセンサ情報は、コンテンツ提供ユーザ10の空間に対応付けた情報として扱うことができる。また、コンテンツの取得期間に対応付けた情報として扱うこともできる。
コンテンツ提供装置101、もしくはコンテンツ提供ユーザ10が存在する空間には、撮影者であるコンテンツ提供ユーザ10に対して映像の表示や音声出力などを通じて情報提示を行なうことができる出力部124が備えられる。
出力部124が装備する表示画面には、コンテンツの配信先(コンテンツへのアクセスを要求するコンテンツ視聴ユーザ)のリストなどからなる推薦情報を含んだUIが表示され、コンテンツ提供ユーザ10はUI画面の操作を通じてコンテンツの配信先を選択するようにしてもよい。
また、出力部124は、映像や音声出力の他に、振動や軽度の電気刺激、ハプティック(触覚)といった出力を行なうような構成を装備してもよい。さらに、出力部124は、外骨格装置のような、コンテンツ提供ユーザ10の四肢の少なくとも一部を支持、または拘束して、コンテンツ提供ユーザ10に動作を教示することができる装置を含んでいてもよい。出力部124は、コンテンツの視聴者であるコンテンツ視聴ユーザ側からの情報フィードバックや、コンテンツ視聴ユーザ20からのコンテンツ提供ユーザ10に対する指示や作業支援を行なうために活用することができる。
撮像部125は、画像撮影を行う撮像部である。
通信部126は、ネットワーク105に接続され、コンテンツ提供装置101で取得したコンテンツおよび入力部122で集音した撮像時の音声などからなるAVコンテンツの送信や、出力部124で出力すべき情報の受信を行なう。また、通信部126は、センサ部123で計測された環境情報などを送信するようにしてもよい。また、通信部126は、コンテンツ視聴ユーザ20からのコンテンツに対するアクセス要求(もしくは、接続要求)を、直接的に、あるいはコンテンツ配信サーバ111を介して間接的に受信することができる。
記憶部127は、例えば制御部121等において実行する処理のプログラムや、撮影画像等の記憶領域として利用される。さらに、各種処理において利用されるパラメータや、様々な処理のためのワークエリア等としても利用される。
図3には、コンテンツ出力装置102の構成例を示している。
コンテンツ出力装置102は、基本的には、撮影者としてのコンテンツ提供ユーザ10側で取得されたコンテンツの表示(もしくは、コンテンツ視聴ユーザ20による視聴)のために使用される。コンテンツ出力装置102は、コンテンツ表示機能に加えて、UI機能を備えており、例えばコンテンツ配信サーバ111が推薦するコンテンツに関連する情報の表示やコンテンツ視聴ユーザ20によるコンテンツ選択操作を行なうことができるものとする。
図3に示すように、コンテンツ出力装置102は、制御部141、入力部142、センサ143、出力部144、表示部145、通信部146、記憶部147を有する。
制御部141は、コンテンツ出力装置102において実行する処理の制御を実行する。例えば、記憶部147に格納されたプログラムに従って制御を実行する。
入力部142は、音声情報を入力する音声入力部(マイク)、コンテンツ視聴ユーザやその同伴者を撮影するカメラ、キーボード等の入力装置、マウスやタッチパネルなどの座標入力装置といった、各種の装置からなる。
例えば、自由視点映像を視聴中にコンテンツ視聴ユーザやその同伴者が発生した音声や文字情報、座標情報などが入力部142を介して取り込まれる。
なお、入力部142として、手袋や衣服のように視聴者の身体に装着して用いるタイプ、例えば、指先や胴体の動きを直接入力できるタイプの入力装置を含んでいてもよい。リアルタイムのコンテンツを視聴中のコンテンツ視聴ユーザ20は、そのコンテンツの撮影者であるコンテンツ提供ユーザ10に対する指示(作業支援など)を、入力部142で入力することができる。
入力部142に取り込まれた入力情報のうち少なくとも一部がコンテンツ提供装置101側に送信されると、コンテンツ提供ユーザ10の空間では、コンテンツ視聴ユーザ20からの指示が出力部124で出力される。
また、コンテンツ出力装置102、もしくはコンテンツ視聴ユーザ20が存在する空間には、視聴環境など動的に変化するコンテンツ視聴ユーザ20近辺の状況を検出するセンサ143が備えられている。センサ143は、気温や湿度、気圧、照度など、コンテンツ視聴ユーザ20が存在する空間(もしくは、コンテンツ視聴時)の天候に関する情報を検出する各種の環境センサ類を含んでいる。また、センサ143は、体温や脈拍、発汗、呼気、脳波など視聴者の生体情報を検出する生体センサを含んでいてもよい。さらに、センサ143は、視聴者であるコンテンツ視聴ユーザ20本人やその同伴者を撮影する撮影装置を備え、その撮像画像に対する顔検出や顔認識などの処理を通じてユーザ本人や同伴者の情報を取得するようにしてもよい。
また、センサ143は、コンテンツ出力装置102、もしくはコンテンツ視聴ユーザ20の現在位置を計測する位置センサを含んでいてもよい。位置センサは、例えば、GNSS衛星からのGNSS信号を受信して測位を実行し、車両の緯度、経度および高度を含む位置情報を生成する。あるいは、位置センサは、PlaceEngine(登録商標)などを利用して無線アクセスポイントからの電測情報に基づいて現在位置を特定してもよい。
センサ143が検出したセンサ情報は、コンテンツ視聴ユーザ20の空間に対応付いた情報として扱うことができる。また、コンテンツ出力装置102で受信コンテンツを表示している期間中、もしくは、コンテンツ視聴ユーザ20がコンテンツを視聴している期間中においてセンサ143が検出したセンサ情報を、コンテンツの視聴期間に対応付いた情報として扱うこともできる。
また、コンテンツ出力装置102、もしくはコンテンツ視聴ユーザ20が存在する空間には、出力部144が備えらる。
出力部144は、音声他の出力処理を行う。例えば、出力部144は、音声の他、様々な視聴環境を作りだすための環境情報の出力を行う構成とすることが好ましい。
例えば、温度や湿度を調整したり、視聴者に風(微風や向かい風、エア・ブラスト)や水しぶき(ウォター・ブラスト)を吹き付けたり、視聴者の身体に触覚(背中をつつくような効果、首筋や足元に何かが触れるような感覚など)や振動を印加したり、軽度の電気刺激を与えたり、匂いや香りを与えたりして、コンテンツ視聴ユーザ20の空間の環境をコントロールする手段(もしくは、マルチモーダルなインタフェース)である。
出力部144は、例えばコンテンツ提供装置101側のセンサ123で計測された環境情報に基づいて駆動して、視聴者にも撮影場所と同じようなリアルで臨場感のある体験をしてもらうことができる。また、出力部144は、コンテンツ出力装置102で表示するコンテンツを解析した結果に基づいて駆動して、コンテンツを視聴するコンテンツ視聴ユーザ20に対するエフェクトを加えるようにしてもよい。
また、出力部144は、スピーカなどの音声出力装置を装備しており、コンテンツを取得した撮影現場(もしくは、コンテンツ提供ユーザ10の空間)で集音された被写体の音声や、コンテンツ提供ユーザ10が撮影時に発した音声など、映像ストリームと一体となった音声信号を音声出力するものとする。この音声出力装置を多チャンネル・スピーカで構成して、音像を定位できるようにしてもよい。
表示部145は、コンテンツの表示、ユーザインタフェース(UI)の表示等に利用される。
通信部146は、ネットワーク105経由での情報伝送を行なう。
例えば、通信部146は、コンテンツ提供ユーザ10、またはコンテンツに対するアクセス要求を、コンテンツ提供装置101に直接的に、あるいはコンテンツ配信サーバ111を介して間接的に送信することができる。
また、通信部146は、コンテンツ視聴ユーザ20が映像の視聴中に入力部142に入力された入力情報を、ネットワーク105経由でコンテンツ提供装置101側に送信することができる。また、通信部146は、出力情報をネットワーク105経由で受信して、出力部144からコンテンツ視聴ユーザ20に対して出力することができる。
記憶部147は、例えば制御部141等において実行する処理のプログラム、各種処理において利用されるパラメータの記憶領域として利用される。さらに様々な処理のためのワークエリア等にも利用される。
[3.コンテンツの撮影、送信、および視聴処理のシーケンスについて]
次に、図1に示す情報処理システム100を利用して実行されるコンテンツの撮影処理、送信処理、および視聴処理のシーケンスについて説明する。
図4は、コンテンツの撮影処理、送信処理、および視聴処理のシーケンスについて説明するシーケンス図である。
図4には、左から、図1に示す以下の各構成要素を示している。
コンテンツ提供装置101、
コンテンツ配信サーバ111、
画像処理サーバ112、
コメント管理サーバ113、
コンテンツ出力装置102、
これらの各要素は、ネットワーク105を介した通信処理を行う。
まず、ステップS11において、コンテンツ提供装置101がコンテンツの撮影を行う。コンテンツは、例えば自由視点映像コンテンツである。コンテンツ提供装置101は、多視点カメラや全天周カメラなどの撮像部を備えており、自由視点映像コンテンツを撮影する。
ステップS12において、コンテンツ提供装置101が撮影したコンテンツが、ネットワーク1105を介してコンテンツ配信サーバ111に送信される。
コンテンツ配信サーバ111は、コンテンツ提供装置101から受信したコンテンツを、ネットワーク105を介してコンテンツ出力装置102に送信する。
なお、図4には、コンテンツ出力装置102を1つのみ示しているが、コンテンツ出力装置102はネットワーク105上に多数、存在しており、コンテンツ提供装置101が提供するコンテンツは、多数のコンテンツ出力装置102に送信され、多数のコンテンツ視聴ユーザ20によって視聴される。
ステップS14において、コンテンツ出力装置102は、受信コンテンツを表示部に表示し、コンテンツ視聴ユーザ202が表示コンテンツの視聴を行う。
なお、コンテンツ出力装置102は、前述したように、例えばヘッド・マウント・ディスプレイ、あるいは例えばPCとヘッド・マウント・ディスプレイの組み合わせ等によって構成される。コンテンツ出力装置102は、例えばVR(Virtual Reality)映像を視聴可能な装置である。
前述したように、ヘッド・マウント・ディスプレイ等のコンテンツ出力装置102は、例えば、ヘッド・トラッキング処理や、瞳孔角膜反射法などを用いて視聴者であるコンテンツ視聴ユーザの視線を検出し、左右の眼球の回転中心位置と視軸の向き(および頭部姿勢)から、コンテンツ視聴ユーザの視線方向を求め、その視線方向の画像を表示部に表示する。
すなわち、コンテンツ視聴ユーザ20は、視線方向を変えることで、様々な方向の画像を視聴することができる。
コンテンツ提供装置101において撮影された自由視点映像コンテンツと、コンテンツ出力装置102の表示画像の例について、図5を参照して説明する。
図5には、撮影コンテンツ301を示している。この撮影コンテンツ301は、コンテンツ提供装置101において撮影された自由視点映像コンテンツである。
図5に示す撮影コンテンツ301の内部の一部領域として示すコンテンツ出力装置表示領域302が、コンテンツ出力装置102の表示部に表示される画像の一例である。
コンテンツ出力装置表示領域302は、コンテンツ視聴ユーザ20の視聴している画像領域であるが、コンテンツ視聴ユーザ20が頭の方向や視線方向を変更することで、撮影コンテンツ301の他の画像領域を視聴することが可能となる。
すなわち、図5に示すコンテンツ出力装置表示領域302は、コンテンツ視聴ユーザ20が頭の方向や視線方向を変更することで、自由に移動することが可能であり、撮影コンテンツ301の全ての画像領域を観察することが可能となる。
図4、図5を参照して説明した処理は、自由視点映像の撮影、送信、視聴処理の一般的なシーケンスである。
なお、上述した例では、コンテンツ配信サーバ111の配信コンテンツは、コンテンツ提供装置101の撮影したリアルタイムコンテンツとした例を説明したが、コンテンツ配信サーバ111の配信コンテンツは、コンテンツデータベースに格納された予め撮影済みの録画コンテンツであってもよい。
[4.コンテンツ視聴ユーザのコメントをコンテンツに併せて出力する処理例について]
次に、コンテンツ視聴ユーザのコメントをコンテンツに併せて出力する処理例について説明する。
図6、図7に示すシーケンス図を参照して、コンテンツ視聴ユーザのコメントをコンテンツに重畳して表示する場合の処理シーケンスについて説明する。
図6、図7には、先に説明した図4と同様、左から、図1に示す以下の各構成要素を示している。
コンテンツ提供装置101、
コンテンツ配信サーバ111、
画像処理サーバ112、
コメント管理サーバ113、
コンテンツ出力装置102、
これらの各要素は、ネットワーク105を介した通信処理を行う。
なお、図6に示すステッップS21の処理の前に、図4を参照して説明したシーケンスに従った処理が実行済みであり、コンテンツ出力装置102には、例えば図5に示す自由視点映像コンテンツが表示され、コンテンツ視聴ユーザ20が視聴しているものとする。コンテンツ配信サーバ111の配信コンテンツは、コンテンツ提供装置101の撮影するリアルタイムコンテンツであっても、コンテンツデータベースに格納された撮影済みコンテンツのいずれでもよい。
以下、図6、図7に示すシーケンス中の各ステップの処理について、順次、説明する。
(ステップS21)
ステップS21において、コンテンツ視聴ユーザ20は、ステップS21において、コメントを入力する。
コメント入力は、例えば、音声入力、あるいはキーボード等を介した手入力のいずれかにより行う。
(ステップS22)
次に、ステップS22において、コンテンツ出力装置102は、コンテンツ視聴ユーザ20から入力されたコメントに、コメント入力時のコンテンツ出力装置102の表示画像領域情報、すなわちコメント入力時のコンテンツ視聴ユーザ20の視聴領域情報を付加情報として追加して、コメント管理サーバ113に送信する。
その他、送信データには、コメント対応の属性データとして、例えば、以下のデータが付加される。
コメント入力を行ったコンテンツ視聴ユーザ20のID、あるいはコンテンツ出力装置102のID、
コメント入力日時情報。
なお、コメント入力時のコンテンツ視聴ユーザ20の視聴領域情報は、具体的には、例えば、以下の情報によって構成される。
(1)コメント入力時のコンテンツ出力装置102の表示画像領域を示す座標情報、
(2)コメント入力時のコンテンツ視聴ユーザ20の頭部方向、または視線方向情報、
(3)コメント入力時のコンテンツ出力装置102の表示画像領域を規定する画像パラメータ(画角、ズーム倍率、表示モード等)、
なお、上記(3)に示す画像パラメータは、コンテンツ出力装置102側で算出してもよいし、コンテンツ提供装置101からコンテンツとともに送信される画像パラメータを利用する構成としてもよい。
図8を参照して、コンテンツ視聴ユーザ20のコメントと、コメント入力時のコンテンツ視聴ユーザ20の視聴領域情報の具体例について説明する。
図8に示す撮影コンテンツ301は、コンテンツ提供装置101の撮影した画像(自由視点映像)であり、コンテンツ視聴ユーザ20は、この撮影コンテンツ301の一部領域の画像をコンテンツ出力装置102に表示して視聴し、視聴領域内の画像に対するコメントを入力する。
図8には、コンテンツ視聴ユーザ20のコメント311として「飛行機がいる」というコメントが入力された例を示している。
このコメント入力時のコンテンツ視聴ユーザ20の視聴領域、すなわち、コンテンツ出力装置102に表示されている画像領域は、図に示すコメント入力視聴ユーザ視聴領域312、図に太線枠で示す領域である。
図に示すコメント入力視聴ユーザ視聴領域312は、コメント入力を実行したコンテンツ視聴ユーザ20の利用しているコンテンツ出力装置102に表示されている画像領域である。
このコメント入力視聴ユーザ視聴領域312を示す情報、具体的には、例えば上記(1)〜(3)で説明した座標情報等がコメントとともに、コメント管理サーバ113に送信される。
(ステップS23〜S24)
次に、ステップS23において、コメント管理サーバ113は、コンテンツ出力装置102の送信したコメント、および付加データ、すなわち、コメント入力時のコンテンツ出力装置102の表示画像領域情報を含む受信データをコメントデータベース114に格納し、ステップS24において、この受信データを画像処理サーバ112に転送する。
(ステップS25)
次に、画像処理サーバは、ステップS25において、コンテンツ提供装置101の撮影コンテンツに対して、コメント管理サーバ113から受信したコメントに付加された表示画像領域情報、すなわちコメントを入力したコンテンツ視聴ユーザ20がコメント入力時に視聴していた画像領域を、誘導先情報としてコンテンツの付加情報として設定する。
(ステップS26〜S28)
次のステップS26〜S28の処理について、図7を参照して説明する。
なお、図7には、処理の流れを理解し易くするため、図6に示すステップS25の処理を重複して示している。
まず、画像処理サーバ112は、ステップS26において、ステップS25で生成した誘導先情報を重畳したコンテンツを、コメントとともに、画像配信サーバ111に転送する。
画像配信サーバ111は、ステップS27〜S28において、画像処理サーバから受信した誘導先情報を有するコンテンツとコメントをネットワークに接続された多数のコンテンツ出力装置102に送信し、さらに、コンテンツ提供装置101にも送信する。
画像配信サーバ111の配信するコンテンツ、すなわち、コメントと誘導先情報を重畳したコンテンツの具体例について、図9を参照して説明する。
図9は、コメントを入力した視聴ユーザではない、その他のコンテンツ視聴ユーザのコンテンツ出力装置102の表示画像を説明する図である。
図9に示す撮影コンテンツ301は、コンテンツ提供装置101の撮影した画像(自由視点映像)であり、コンテンツ視聴ユーザ20は、この撮影コンテンツ301の一部領域の画像をコンテンツ出力装置102に表示して視聴する。
コンテンツ視聴ユーザ20の視聴領域、すなわち、コンテンツ出力装置102に表示されている画像領域は、図に示すコンテンツ出力装置表示領域321、図に太線枠で示す領域である。
コンテンツ出力装置102は、このコンテンツ出力装置表示領域321内部に、画像配信サーバ111から受信したコメントを表示する。さらに、配信コンテンツに付加された誘導先情報に基づいて、誘導先に案内する誘導情報を表示する。
すなわち図9に示す誘導先画像領域322に誘導させる誘導情報、例えば図に示す矢印を、コンテンツ出力装置表示領域321から、誘導先画像領域322に向けて表示する。
図9に示すコンテンツ出力装置表示領域321を視聴しているコンテンツ視聴ユーザ20は、誘導情報、例えば図に示す矢印を見つけ、この矢印に従って、頭の向き、あるいは視線を変更することで、図9に示す誘導先画像領域322の画像を見ることができる。すなわちコメント入力者と同じ画像を見ることが可能となる。
なお、この誘導先画像領域322を規定する誘導先情報については、先に説明した図7のステップS28に示すように、コンテンツ提供装置101にも送信され、コンテンツ提供者10も確認することが可能である。
なお、図9に示す例は、1つのコメントと、そのコメント対応の誘導先画像領域322が設定されている例であるが、多数のコメントと、そのコメント対応の多数の誘導先画像領域を設定する構成も可能である。
例えば多数のコメントがある場合、コンテンツ出力装置102は、コンテンツ出力装置表示領域321に、コメントリストを表示する。視聴者が、リストから1つのコメントを選択すると、コンテンツ出力装置102は、その選択コメントに応じた誘導先に誘導する矢印等の情報を表示する。
このような構成とすることが可能である。
さらに、コメントに併せて、実際の方向情報、例えば「水平方向左30度、垂直方向上20度」このような方向情報を表示する構成としてもよい。
さらに、画像処理サーバ112は、コメント以外の付加情報を生成して、各コンテンツ出力装置102に送信し、コンテンツ出力装置102が、この付加情報を表示する構成も可能である。
例えば、画像処理サーバ112は、同一コンテンツを表示している多数のコンテンツ出力装置の視聴領域情報を取得して、コメントが多数投稿されている表示領域(画角)等を解析する。さらに、画像処理サーバ112は、その領域の画像の視聴を推薦するコメントを付加情報として生成して、多くのコンテンツ出力装置102に提供する。
具体例について、図10を参照して説明する。
図10に示す撮影コンテンツ301は、図9と同様、コンテンツ提供装置101の撮影した画像(自由視点映像)であり、コンテンツ視聴ユーザ20は、この撮影コンテンツ301の一部領域の画像をコンテンツ出力装置102に表示して視聴する。
コンテンツ視聴ユーザ20の視聴領域、すなわち、コンテンツ出力装置102に表示されている画像領域は、図に示すコンテンツ出力装置表示領域321、図に太線枠で示す領域である。
コンテンツ出力装置102は、このコンテンツ出力装置表示領域321内部に、画像配信サーバ111から受信したコメントではなく、画像処理サーバの生成した付加情報を表示する。
図に示す「こっちが盛り上がっているよ」
これが、コメントが多数投稿されている表示領域に誘導するための付加情報であり、画像処理サーバ112が生成した付加情報である。
図10に示すコンテンツ出力装置表示領域321を視聴しているコンテンツ視聴ユーザ20は、この付加情報を見つけ、この付加情報に従って、頭の向き、あるいは視線を変更することで、図10に示す誘導先画像領域322の画像領域の画像を見ることができる。すなわちコメント入力者と同じ画像を見ることが可能となる。
[5.コメント入力可能モード、コメント入力停止モードを切り換え可能としたコンテンツ出力装置の構成について]
次に、コメント入力可能モード、コメント入力停止モードを切り換え可能としたコンテンツ出力装置の構成について説明する。
図11を参照して、コメント入力可能モード、コメント入力停止モードを切り換え可能としたコンテンツ出力装置102の構成について説明する。
図11に示すように、コンテンツ出力装置102は、以下の2つのモードに切り換え可能な構成を持つ。
(a)コメント入力可能モード
(b)コメント入力停止モード
図に示すように、コンテンツ出力装置102を装着してコンテンツ出力装置102の表示コンテンツを視聴するコンテンツ視聴ユーザ20が、斜め上(水平方向から上方向に角度α〜βの範囲)方向に視線を向けてコンテンツを見ると、(a)コメント入力可能モードの設定となり、コメント入力が可能となる。
一方、コンテンツ視聴ユーザ20が、ほぼ水平方向(水平方向から上方向に角度0〜αの範囲)に視線を向けてコンテンツを見ると、(b)コメント入力停止モードの設定となり、コメント入力が停止される。
例えば、コメントは、ユーザの発話によって行われるが、コンテンツ出力装置102は、(a)コメント入力可能モードに設定されている場合は、マイクを介して入力するユーザ発話をコメントとして認識し、このコメントを、ネットワーク105を介してコメント管理サーバ113に送信する。
一方、コンテンツ出力装置102が、(b)コメント入力停止モードに設定されている場合は、マイクを介して入力するユーザ発話をコメントとして認識せず、ネットワーク105を介してコメント管理サーバ113に送信する処理も行わない。すなわち、このモードでは、ユーザ発話は独り言として認識され、コメントとして処理されない。
このモード変更は、コンテンツ出力装置102に備えられたセンサの検出情報を入力して制御部が実行する。例えば、前述したように、ジャイロ等を用いたヘッド・トラッキング処理や、瞳孔角膜反射法などを用いた視線検出を行うセンサを適用して頭の向きや視線方向を検出し、この検出情報を用いてモード切り換えを行う。
なお、コンテンツ出力装置102を視聴しているコンテンツ視聴ユーザ20が、設定モードを認識可能とするため、コンテンツ出力装置102の表示部に設定モードを判別可能な情報を提示する構成とすることが好ましい。
具体例について、図12以下を参照して説明する。
図12に示す撮影コンテンツ301は、コンテンツ提供装置101の撮影した画像(自由視点映像)であり、コンテンツ視聴ユーザ20は、この撮影コンテンツ301の一部領域の画像をコンテンツ出力装置102に表示して視聴する。
コンテンツ視聴ユーザ20の視聴領域、すなわち、コンテンツ出力装置102に表示されている画像領域は、図に示すコンテンツ出力装置表示領域331である。
図12に示すように、撮影コンテンツ301の上部領域には、コメント入力可能モード設定識別情報351が表示される。
図12に示す例では、コンテンツ出力装置表示領域331が、コメント入力可能モード設定識別情報351の外部にあり、コメント入力停止モードとなる。
一方、図13に示す例は、コンテンツ出力装置表示領域331に、コメント入力可能モード設定識別情報351の一部が含まれて表示された例である。この表示により、コンテンツ視聴ユーザ20は、コンテンツ出力装置102がコメント入力可能モードに設定されているか、コメント入力停止モードに設定されているかを識別することが可能となる。
さらに、図14は、マイク画像352をコメント入力可能モード設定識別情報として利用した例である。
図14に示す例では、コンテンツ出力装置表示領域331には、マイク画像352が表示されず、コメント入力停止モードとなる。
一方、図15に示す例は、コンテンツ出力装置表示領域331に、コメント入力可能モード設定識別情報としてのマイク画像352が表示された例である。この表示により、コンテンツ視聴ユーザ20は、コンテンツ出力装置102がコメント入力可能モードに設定されているか、コメント入力停止モードに設定されているかを識別することが可能となる。
なお、例えばマイク画像352の一部のみが、コンテンツ出力装置表示領域331に含まれる場合、音声入力ゲインを小さくして、遠くからの声のように聞こえる設定とし、マイク画像352の全てが、コンテンツ出力装置表示領域331に含まれる場合、ゲイン設定を大きくして、近くからの声のように聞こえる設定とする制御を行う構成としてもよい。
なお、上述した例では、コンテンツ出力装置102が、コメント入力可能モード、コメント入力停止モードのモード切り換えを行う例として説明した。
このような処理構成に限らず、例えばコンテンツ出力装置102において入力した全てのコメントと、コメント入力時の、コメント入力者の視線方向情報を、コンテンツ出力装置102からコメント管理サーバ113に送信して、コメント管理サーバ113で、コメントがどのモードで入力されたかを判定して、コメント入力可能モードにおいて入力されたコメントのみを有効コメントとして、コメントデータベース114に格納する構成としてもよい。
[6.情報処理装置のハードウェア構成例について]
次に、図16を参照して、情報処理装置のハードウェア構成例について説明する。
図16を参照して説明するハードウェアは、先に図1を参照して説明した情報処理システムを構成するコンテンツ提供装置101や、コンテンツ出力装置102を構成する情報処理装置、さらに、コンテンツ配信サーバ111、画像処理さーば112、コメント管理サーバ113を構成する情報処理装置のハードウェア構成の一例である。
CPU(Central Processing Unit)501は、ROM(Read Only Memory)502、または記憶部508に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)503には、CPU501が実行するプログラムやデータなどが記憶される。これらのCPU501、ROM502、およびRAM503は、バス504により相互に接続されている。
CPU501はバス504を介して入出力インタフェース505に接続され、入出力インタフェース505には、各種スイッチ、キーボード、マウス、マイクロホン、センサなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507が接続されている。CPU501は、入力部506から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部507に出力する。
なお、コンテンツ提供装置101の場合、入力部506には撮像部が含まれる。
入出力インタフェース505に接続されている記憶部508は、例えばハードディスク等からなり、CPU501が実行するプログラムや各種のデータを記憶する。通信部509は、Wi−Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
入出力インタフェース505に接続されているドライブ510は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア511を駆動し、データの記録あるいは読み取りを実行する。
[7.本開示の構成のまとめ]
以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
なお、本明細書において開示した技術は、以下のような構成をとることができる。
(1) ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記データ処理部は、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理装置。
(2) 前記誘導情報は、
前記コメント入力ユーザの視聴領域の方向を示す矢印である(1)に記載の情報処理装置。
(3) 前記誘導情報は、
前記コメント入力ユーザの視聴領域に誘導するためのメッセージである(1)に記載の情報処理装置。
(4) 前記データ処理部は、
前記コメント入力ユーザのコメントとともに、前記誘導情報を前記コンテンツに重畳して表示する(1)〜(3)いずれかに記載の情報処理装置。
(5) 前記データ処理部は、
複数の異なるコメントのコメントリストを前記コンテンツに重畳して表示し、
コンテンツ視聴ユーザによって、前記コメントリストから選択されたコメントに対応するコメント入力ユーザの視聴領域に誘導する誘導情報を表示する(1)〜(4)いずれかに記載の情報処理装置。
(6) 前記ネットワーク配信コンテンツは、自由視点映像コンテンツであり、
コンテンツ視聴ユーザの視線方向に応じて、表示領域が変更されるコンテンツである(1)〜(5)いずれかに記載の情報処理装置。
(7) 表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記データ処理部は、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理装置。
(8) 前記データ処理部は、
前記コンテンツ視聴ユーザの視線方向に応じて、
コメント入力可能モードと、コメント入力停止モードのモード切り換えを実行し、
コメント入力可能モード期間に入力されたコメントのみを有効コメントと判定する処理を行う(7)に記載の情報処理装置。
(9) 前記データ処理部は、
前記コメント入力可能モード期間に入力されたコメントを、ネットワークを介して送信し、他のコンテンツ視聴ユーザによる確認を可能とする処理を行う(8)に記載の情報処理装置。
(10) 前記ネットワーク配信コンテンツは、自由視点映像コンテンツであり、
前記コンテンツ視聴ユーザの視線方向に応じて、表示領域が変更されるコンテンツであり、
前記表示領域の変更に応じて、前記コメント入力可能モードと、コメント入力停止モードのモード切り換えが実行される構成である(8)〜(9)いずれかに記載の情報処理装置。
(11) 前記データ処理部は、
前記コメント入力可能モードと、前記コメント入力停止モードのモード設定状態を識別可能としたモード識別情報を前記表示部に表示する(8)〜(10)いずれかに記載の情報処理装置。
(12) 前記データ処理部は、
前記モード識別情報としてマイク画像を利用し、
コメント入力可能モードでは、前記マイク画像を前記表示部に表示し、コメント入力停止モードでは、前記マイク画像を前記表示部に表示しない表示制御を行う(11)に記載の情報処理装置。
(13) 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、
ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記データ処理部が、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理方法。
(14) 情報処理装置において実行する情報処理方法であり、
前記情報処理装置は、
表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記データ処理部は、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理方法。
(15) 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、
ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
前記プログラムは、前記データ処理部に、
コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得する処理と、
前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する処理を実行させるプログラム。
(16) 情報処理装置において情報処理を実行させるプログラムであり、
前記情報処理装置は、
表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
前記プログラムは、前記データ処理部に、
前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行わせるプログラム。
また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
以上、説明したように、本開示の一実施例の構成によれば、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示し、多くのコンテンツ視聴ユーザに特定画像領域を視聴させることを可能とした構成が実現される。
具体的には、例えば、ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、データ処理部は、コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、コメント入力者視聴領域情報に基づいて、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する。誘導情報は、コメント入力ユーザの視聴領域の方向を示す矢印や、メッセージである。さらに、コメント入力可能モード、停止モードのモード切り換えを可能とした。
本構成により、コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示し、多くのコンテンツ視聴ユーザに特定画像領域を視聴させることを可能とした構成が実現される。
100 情報処理システム
101 コンテンツ提供装置
102 コンテンツ出力装置
105 ネットワーク
111 コンテンツ配信サーバ
112 画像処理サーバ
113 コメント管理サーバ
114 コメントデータベース
121 制御部
122 入力部
123 センサ
124 出力部
125 撮像部
126 通信部
127 記憶部
141 制御部
142 入力部
143 センサ
144 出力部
145 表示部
146 通信部
147 記憶部
501 CPU
502 ROM
503 RAM
504 バス
505 入出力インタフェース
506 入力部
507 出力部
508 記憶部
509 通信部
510 ドライブ
511 リムーバブルメディア

Claims (16)

  1. ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
    前記データ処理部は、
    コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
    前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理装置。
  2. 前記誘導情報は、
    前記コメント入力ユーザの視聴領域の方向を示す矢印である請求項1に記載の情報処理装置。
  3. 前記誘導情報は、
    前記コメント入力ユーザの視聴領域に誘導するためのメッセージである請求項1に記載の情報処理装置。
  4. 前記データ処理部は、
    前記コメント入力ユーザのコメントとともに、前記誘導情報を前記コンテンツに重畳して表示する請求項1に記載の情報処理装置。
  5. 前記データ処理部は、
    複数の異なるコメントのコメントリストを前記コンテンツに重畳して表示し、
    コンテンツ視聴ユーザによって、前記コメントリストから選択されたコメントに対応するコメント入力ユーザの視聴領域に誘導する誘導情報を表示する請求項1に記載の情報処理装置。
  6. 前記ネットワーク配信コンテンツは、自由視点映像コンテンツであり、
    コンテンツ視聴ユーザの視線方向に応じて、表示領域が変更されるコンテンツである請求項1に記載の情報処理装置。
  7. 表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
    前記データ処理部は、
    前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理装置。
  8. 前記データ処理部は、
    前記コンテンツ視聴ユーザの視線方向に応じて、
    コメント入力可能モードと、コメント入力停止モードのモード切り換えを実行し、
    コメント入力可能モード期間に入力されたコメントのみを有効コメントと判定する処理を行う請求項7に記載の情報処理装置。
  9. 前記データ処理部は、
    前記コメント入力可能モード期間に入力されたコメントを、ネットワークを介して送信し、他のコンテンツ視聴ユーザによる確認を可能とする処理を行う請求項8に記載の情報処理装置。
  10. 前記ネットワーク配信コンテンツは、自由視点映像コンテンツであり、
    前記コンテンツ視聴ユーザの視線方向に応じて、表示領域が変更されるコンテンツであり、
    前記表示領域の変更に応じて、前記コメント入力可能モードと、コメント入力停止モードのモード切り換えが実行される構成である請求項8に記載の情報処理装置。
  11. 前記データ処理部は、
    前記コメント入力可能モードと、前記コメント入力停止モードのモード設定状態を識別可能としたモード識別情報を前記表示部に表示する請求項8に記載の情報処理装置。
  12. 前記データ処理部は、
    前記モード識別情報としてマイク画像を利用し、
    コメント入力可能モードでは、前記マイク画像を前記表示部に表示し、コメント入力停止モードでは、前記マイク画像を前記表示部に表示しない表示制御を行う請求項11に記載の情報処理装置。
  13. 情報処理装置において実行する情報処理方法であり、
    前記情報処理装置は、
    ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
    前記データ処理部が、
    コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得し、
    前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する情報処理方法。
  14. 情報処理装置において実行する情報処理方法であり、
    前記情報処理装置は、
    表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
    前記データ処理部は、
    前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行う情報処理方法。
  15. 情報処理装置において情報処理を実行させるプログラムであり、
    前記情報処理装置は、
    ネットワーク配信コンテンツの表示制御を行うデータ処理部を有し、
    前記プログラムは、前記データ処理部に、
    コメント入力ユーザのコメント入力時の視聴領域を示すコメント入力者視聴領域情報を取得する処理と、
    前記コメント入力者視聴領域情報に基づいて、前記コメント入力ユーザの視聴領域に誘導するための誘導情報をコンテンツに重畳して表示する処理を実行させるプログラム。
  16. 情報処理装置において情報処理を実行させるプログラムであり、
    前記情報処理装置は、
    表示部に表示されたコンテンツに対するコンテンツ視聴ユーザのコメント処理を実行するデータ処理部を有し、
    前記プログラムは、前記データ処理部に、
    前記コンテンツ視聴ユーザの視線方向に応じて、入力コメントの有効性判断を行わせるプログラム。
JP2017059511A 2017-03-24 2017-03-24 情報処理装置、および情報処理方法、並びにプログラム Pending JP2018163461A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017059511A JP2018163461A (ja) 2017-03-24 2017-03-24 情報処理装置、および情報処理方法、並びにプログラム
US15/918,499 US20180278995A1 (en) 2017-03-24 2018-03-12 Information processing apparatus, information processing method, and program
DE102018106108.0A DE102018106108A1 (de) 2017-03-24 2018-03-15 Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN201810218430.9A CN108628439A (zh) 2017-03-24 2018-03-16 信息处理设备、信息处理方法及程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017059511A JP2018163461A (ja) 2017-03-24 2017-03-24 情報処理装置、および情報処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2018163461A true JP2018163461A (ja) 2018-10-18

Family

ID=63450320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017059511A Pending JP2018163461A (ja) 2017-03-24 2017-03-24 情報処理装置、および情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20180278995A1 (ja)
JP (1) JP2018163461A (ja)
CN (1) CN108628439A (ja)
DE (1) DE102018106108A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129261A (ja) * 2019-02-08 2020-08-27 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6572503B1 (ja) * 2018-09-26 2019-09-11 株式会社ドワンゴ サーバシステム、アプリケーションプログラム配信サーバ、閲覧用端末、コンテンツ閲覧方法、アプリケーションプログラム、配信方法、アプリケーションプログラム配信方法
CN111163306B (zh) * 2018-11-08 2022-04-05 华为技术有限公司 一种vr视频处理的方法及相关装置
CN113342221A (zh) * 2021-05-13 2021-09-03 北京字节跳动网络技术有限公司 评论信息引导方法、装置、存储介质及电子设备

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
JP2013255210A (ja) 2012-01-19 2013-12-19 Nippon Telegr & Teleph Corp <Ntt> 映像表示方法、映像表示装置および映像表示プログラム
CN104066485B (zh) * 2012-01-24 2017-03-08 索尼电脑娱乐公司 信息处理设备和信息处理系统
US10009644B2 (en) * 2012-12-04 2018-06-26 Interaxon Inc System and method for enhancing content using brain-state data
JP6304241B2 (ja) * 2013-04-04 2018-04-04 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US10349031B2 (en) * 2013-07-28 2019-07-09 Michael J. DeLuca Augmented reality based user interfacing
WO2015072195A1 (ja) * 2013-11-13 2015-05-21 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
CN103634690A (zh) * 2013-12-23 2014-03-12 乐视致新电子科技(天津)有限公司 智能电视中的用户信息处理方法、装置及系统
US9510032B2 (en) * 2014-04-25 2016-11-29 Verizon Patent And Licensing Inc. Program guide with gamification of user metadata
US10424103B2 (en) * 2014-04-29 2019-09-24 Microsoft Technology Licensing, Llc Display device viewer gaze attraction
WO2016164241A1 (en) * 2015-04-10 2016-10-13 Virzoom, Inc. Virtual reality exercise game
US20170053545A1 (en) * 2015-08-19 2017-02-23 Htc Corporation Electronic system, portable display device and guiding device
JP2017059511A (ja) 2015-09-18 2017-03-23 リチウム エナジー アンド パワー ゲゼルシャフト ミット ベシュレンクテル ハフッング ウント コンパニー コマンディトゲゼルシャフトLithium Energy and Power GmbH & Co. KG 蓄電素子
US10395428B2 (en) * 2016-06-13 2019-08-27 Sony Interactive Entertainment Inc. HMD transitions for focusing on specific content in virtual-reality environments
US10345898B2 (en) * 2016-09-22 2019-07-09 International Business Machines Corporation Context selection based on user eye focus
US20180095635A1 (en) * 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
KR102316327B1 (ko) * 2017-04-04 2021-10-22 엘지전자 주식회사 가상 공간의 캡쳐 방법 및 그 전자장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020129261A (ja) * 2019-02-08 2020-08-27 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体
JP7267764B2 (ja) 2019-02-08 2023-05-02 キヤノン株式会社 電子機器、電子機器の制御方法、プログラム、及び、記憶媒体

Also Published As

Publication number Publication date
DE102018106108A1 (de) 2018-09-27
US20180278995A1 (en) 2018-09-27
CN108628439A (zh) 2018-10-09

Similar Documents

Publication Publication Date Title
US9615177B2 (en) Wireless immersive experience capture and viewing
US10389937B2 (en) Information processing device, information processing method, and program
US10455184B2 (en) Display device and information processing terminal device
TWI610097B (zh) 電子系統、可攜式顯示裝置及導引裝置
US20180279004A1 (en) Information processing apparatus, information processing method, and program
JP2022000640A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7042644B2 (ja) 情報処理装置、画像生成方法およびコンピュータプログラム
US10547902B2 (en) Information processing apparatus and method, display control apparatus and method, reproducing apparatus and method, and information processing system
US20180196506A1 (en) Information processing method and apparatus, information processing system, and program for executing the information processing method on computer
JP2001008232A (ja) 全方位映像出力方法と装置
JP2018163461A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP6822410B2 (ja) 情報処理システム及び情報処理方法
WO2018135334A1 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
CN112272817A (zh) 用于在沉浸式现实中提供音频内容的方法和装置
JP2019128721A (ja) ユーザの動きをアバタに反映するためのプログラム、当該プログラムを実行するための情報処理装置、およびアバタを含む映像を配信するための方法
JPWO2017068925A1 (ja) 情報処理装置及び情報処理装置の制御方法、並びにコンピュータ・プログラム
WO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
CN111163280A (zh) 非对称性视频会议系统及其方法
US20230385011A1 (en) Information processing apparatus, information processing system, information processing method, and information processing terminal
JP6225242B1 (ja) 情報処理方法、装置、および当該情報処理方法をコンピュータに実行させるプログラム
JP6875029B1 (ja) 方法、プログラム、情報処理装置
JP2018067157A (ja) 通信装置およびその制御方法
JP6921204B2 (ja) 情報処理装置および画像出力方法
JP6321247B1 (ja) 仮想空間を移動するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラムおよび情報処理装置

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20170327