JP6919568B2 - 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム - Google Patents

情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP6919568B2
JP6919568B2 JP2017546471A JP2017546471A JP6919568B2 JP 6919568 B2 JP6919568 B2 JP 6919568B2 JP 2017546471 A JP2017546471 A JP 2017546471A JP 2017546471 A JP2017546471 A JP 2017546471A JP 6919568 B2 JP6919568 B2 JP 6919568B2
Authority
JP
Japan
Prior art keywords
information
terminal device
information terminal
image
ghost
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017546471A
Other languages
English (en)
Other versions
JPWO2017068928A1 (ja
Inventor
俊一 笠原
俊一 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority claimed from PCT/JP2016/078948 external-priority patent/WO2017068928A1/ja
Publication of JPWO2017068928A1 publication Critical patent/JPWO2017068928A1/ja
Application granted granted Critical
Publication of JP6919568B2 publication Critical patent/JP6919568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/60Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1069Session establishment or de-establishment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1076Screening of IP real time communications, e.g. spam over Internet telephony [SPIT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/40Support for services or applications
    • H04L65/403Arrangements for multi-party communication, e.g. for conferences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/611Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for multicast or broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/60Network streaming of media packets
    • H04L65/61Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio
    • H04L65/612Network streaming of media packets for supporting one-way streaming services, e.g. Internet radio for unicast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/438Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
    • H04N21/4383Accessing a communication channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)

Description

本明細書で開示する技術は、コンテンツ情報を提供する情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラムに関する。
ユーザが自分以外の視界光景(自分以外の移動体から見える光景)にアクセスする技術が知られている。
例えば、車両などの移動体に搭載された移動カメラにより撮像された画像を遠隔的に取得する移動カメラ・システムについて提案がなされている(例えば、特許文献1を参照のこと)。また、撮像センシング無線機器を配置したメガネを掛けた人が取得する視覚情報と同様の情報をヘッド・マウント・ディスプレイの装着者に提供する画像処理システムについて提案がなされている(例えば、特許文献2を参照のこと)。また、移動体の撮像画像を表示する表示装置側から移動体の撮像装置に対して撮像する視点位置及び視線方向、さらに撮影時の速度を指定する画像表示システムについて提案がなされている(例えば、特許文献3を参照のこと)。
さらに、遠隔地のロボットの視覚などの間隔を通じてその場にいるような感覚を伝送するとともに遠隔地の物体を操作するためのインターフェースを提供するテレプレゼンス技術についても提案がなされている(例えば、特許文献4を参照のこと)。
特開2006−186645号公報 特開2004−222254号公報 特開2008−154192号公報 特表2014−522053号公報 特開2014−104185号公報 特開2005−302103号公報
本明細書で開示する技術の目的は、コンテンツ情報を提供する情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラムを提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、
第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信部と、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御部と、
を具備する情報処理装置である。
また、本明細書で開示する技術の第2の側面は、
第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
を有する情報処理装置の制御方法である。
また、本明細書で開示する技術の第3の側面は、
第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムである。
本明細書で開示する技術によれば、コンテンツ情報を提供する情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラムを提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、本明細書で開示する技術を適用した視界情報共有システム100の概要を示した図である。 図2は、1対Nのネットワーク・トポロジーを模式的に示した図である。 図3は、N対1のネットワーク・トポロジーを模式的に示した図である。 図4は、N対Nのネットワーク・トポロジーを模式的に示した図である。 図5は、画像提供装置101と画像表示装置102の機能的構成例を示した図である。 図6は、BodyにJackInするGhostの数を定員に制限する仕組み(FIFO方式)を例示した図である。 図7は、BodyにJackInするGhostの数を定員に制限する仕組み(LIFO方式)を例示した図である。 図8は、BodyにJackInするGhostの数を定員に制限する仕組み(優先順位方式)を例示した図である。 図9は、定員外のGhostに対してBodyの過去の映像を配信する仕組みを示した図である。 図10は、Bodyに新規にJackInしてきたGhostに対して一人称映像を配信するための処理手順を示したフローチャートである。 図11は、360度の全天周を所定の角度毎の領域に分割して、全天周映像をチャンネル化して、各チャンネル・サーバを設置した様子を模式的に示した図である。 図12は、チャンネル・サーバ1101が、隣接するチャンネルch2、ch3の領域とオーバーラップする領域の映像を配信する様子を示した図である。 図13は、全天周映像のうち一部の視聴角度に視線が集中する様子を示した図である。 図14は、Ghostに対してBodyの全天周映像を配信するための処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
A.システム概要
図1には、本明細書で開示する技術を適用した視界情報共有システム100の概要を示している。図示の視界情報共有システム100は、現場を撮影した画像を提供する画像提供装置101と、画像提供装置101から提供される画像を表示する画像表示装置102の組み合わせで構成される。画像提供装置101は、情報処理装置あるいは情報端末装置とみなされてもよい。
画像提供装置101は、具体的には、実際に現場に居て活動する観察者111が頭部に着用するカメラ付きシースルー型のヘッド・マウント・ディスプレイで構成される。ここで言う「シースルー型」のヘッド・マウント・ディスプレイは、光学透過型であることを基本とするが、ビデオ・シースルー型であってもよい。ヘッド・マウント・ディスプレイに搭載されるカメラは、観察者111のほぼ視線方向を撮影した映像を提供する。すなわち、画像提供装置101は、ユーザにとって持ち運び可能な情報処理装置としてみなされてよい。なお、画像提供装置は、頭部に装着される装置に限定されず、観察者111の周囲の撮像情報を取得可能な装置であれば装置構成は特に限定されない。
一方、画像表示装置102は、現場すなわち画像提供装置101から離間して配置され、画像提供装置101と画像表示装置102はネットワーク経由で通信することを想定している。ここで言う「離間」には、遠隔地の他、同じ室内でわずかに(例えば、数メートル程度)離れている状況も含むものとする。また、図示しないサーバ装置を介して画像提供装置101と画像表示装置102の間でデータ交換を行なうことも想定される。
画像表示装置102は、例えば、現場には居ない人(撮影画像の視聴者)112が着用するヘッド・マウント・ディスプレイである。没入型のヘッド・マウント・ディスプレイを画像表示装置102に用いれば、視聴者112は、観察者111と同じ光景をよりリアルに体験することができる。但し、シースルー型のヘッド・マウント・ディスプレイを画像表示装置102に用いてもよい。
また、画像表示装置102は、ヘッド・マウント・ディスプレイには限定されず、例えば腕時計型のディスプレイであってもよい。あるいは、画像表示装置102は、ウェアラブル端末である必要はなく、スマートフォンやタブレットなどの多機能情報端末、コンピュータ・スクリーンやテレビジョン受像機などの一般的なモニター・ディスプレイ、ゲーム機、さらにはスクリーンに画像を投影するプロジェクターなどでもよい。本開示において、これらの端末あるいは装置の種類は、外部の情報処理装置(情報端末装置)の関連情報あるいは属性情報としてみなされてもよい。また、外部の情報処理装置の性能や出力形式も、情報処理装置の関連情報に含まれ得る。例えば、外部の情報処理装置の性能は、解像度、フレームレート、伝送レート、あるいはデコードレートといったパラメータを含み得る。外部の情報処理装置の出力形式は、音声出力、画像出力、触覚出力などを含んでよい。
観察者111は、実際に現場に居て、自らの身体を以って活動していることから、画像提供装置101(情報処理装置)のユーザである観察者111(又は、画像提供装置101)のことを、以下では「Body」とも呼ぶ。これに対し、視聴者112は、現場で身体を以って活動する訳ではないが、観察者111の視点から見た映像を視聴することによって現場に対する意識を持つことができる。したがって、画像表示装置102のユーザである視聴者112(又は、画像表示装置102)のことを、以下では「Ghost」とも呼ぶ。
Bodyは、自分の周辺状況をGhostに伝達し、さらに状況をGhostと共有する。一方のGhostは、Bodyとコミュニケーションをとって離間した場所から作業支援などのインタラクションを実現することができる。視界情報共有システム100において、GhostがBodyから送られてくる映像に対してインタラクションを行なうことを、以下では「JackIn」とも呼ぶ。
視界情報共有システム100は、BodyからGhostへ映像を送信しGhost側でも視聴・体験することと、BodyとGhost間でコミュニケーションをとることを基本的な機能とする。後者のコミュニケーション機能を利用して、Ghostは、Bodyの視界に介入する「視界介入」、Bodyの聴覚に介入する「聴覚介入」、Bodyの身体若しくは身体の一部を動作させたり刺激を与えたりする「身体介入」、GhostがBodyに代わって現場で話をする「代替会話」といった、遠隔地からの介入によって、Bodyに対するインタラクションを実現することができる。JackInでは、「視界介入」、「聴覚介入」、「身体介入」、「代替会話」といった複数のコミュニケーション・チャネルがあるということもできる。「視界介入」、「聴覚介入」、「身体介入」、「代替会話」それぞれの詳細については後述に譲る。
Ghostは、「視界介入」、「聴覚介入」、「身体介入」、「代替会話」を通じて、Bodyに対して現場での行動を指示することができる。例えば、外科手術などの医療現場や土木作業などの建築現場などさまざまな産業分野の作業支援、飛行機やヘリコプターの操縦の指示や誘導、自動車の運転者の案内、スポーツにおけるコーチング若しくはインストラクションなどの用途に視界情報共有システム100を活用することができる。
例えば、Bodyは、自分の視界を他人と共有したい場合の他、視覚介入などを通じて、現在行なっている作業に対して他人から支援や指示、誘導、案内を受けたい(若しくは、受けなければならない)場合に、自ら主導的に適当なGhostとのJackIn(Body initiative start)を実施する。
また、Ghostは、自分が出向くことなく現場の映像を視聴したい場合の他、視覚介入などを行なうことによって、他人が行なっている作業に対して支援や指示、誘導、案内を行ないたい(若しくは、行なわなければならない)場合に、自ら主導的に該当するBodyとのJackIn(Ghost initiative start)を実施する。
但し、Bodyは、無制限に自分の視界や聴覚、身体、会話に介入されると、自分の行動がGhostに邪魔され、あるいは自分の行動に支障をきたし危険な場合や、プライバシーが侵害されることもある。一方、Ghostにとっても、見たくない映像がある場合や、頼まれてもBodyに対して適切な支援や指示、誘導、案内などのサービスを提供できない場合がある。したがって、GhostのBodyへのJackInや、JackInした状態でのGhostからBodyへの介入に一定の制限を課すようにしてもよい。
なお、図1では簡素化のため、画像提供装置101と画像表示装置102がそれぞれ1台しか存在しない、BodyとGhostが1対1のネットワーク・トポロジーを描いている。図2に示すような、1つのBodyと複数(N)のGhostが同時にJackInする1対Nのネットワーク・トポロジーや、図3に示すような、複数(N)のBodyと1つのGhostが同時にJackInするN対1のネットワーク・トポロジー、図4に示すような、複数(N)のBodyと複数(N)のGhostが同時にJackInするN対Nのネットワーク・トポロジーも想定される。
また、1つの装置がBodyからGhostへ切り替わったり、逆にGhostからBodyへ切り替わったりすることや、同時にBodyとGhostの役割を持つことも想定される。1つの装置がGhostとしてあるBodyにJackInすると同時に、他のGhostに対してBodyとして機能して、3台以上の装置がディジーチェーン接続されるネットワーク・トポロジー(図示を省略)も想定される。いずれのネットワーク・トポロジーにおいても、BodyとGhost間にサーバ装置(図示しない)が介在することもある。
B.機能的構成
図5には、画像提供装置101と画像表示装置102の機能的構成例を示している。
画像提供装置101は、Bodyとしての役割を果たすユーザ(観察者112)の利用に供される装置である。図5に示す例では、画像提供装置101は、撮像部501と、画像処理部502と、出力部としての表示部503、第1の音声出力部504、駆動部505及び第2の音声出力部506と、位置検出部507と、通信部508と、制御部509と、設定部510を備えている。これらの画像提供装置101の各構成要素501〜510は、図1に示す通り所定の筐体に対して直接的あるいは間接的に設けられている。
撮像部501は、カメラで構成され、例えばBodyすなわち観察者111の視線方向を撮影するように、観察者111の頭部に取り付けられる。あるいは、撮像部501に全天周型カメラを用いて、Bodyの周囲360度の全天周画像を提供できるようにしてもよい。但し、全天周画像は必ずしも360度である必要はなく、一部の視野が欠けていてもよい。また、全天周画像は、情報の少ない床面を含まない半天球画像であってもよい(以下、同様)。なお、撮像部501は、例えばBodyすなわち観察者111が存在する実空間において、撮像画像情報を取得できればよく、種々の装置構成が採用され得る。後述の通り、Bodyすなわち観察者111が存在する空間は、実空間に代えて仮想空間として定義することもできる。前述の通り、撮像部501は、観察者111が存在する空間の情報を取得できればよく、直接的に画像提供装置101に設けられている必要はない。例えば、観察者111が存在する空間に設けられた撮像装置から撮像画像情報が取得されてよい。
画像処理部502は、撮像部501から出力される画像信号の処理を行なう。撮像部501で撮影される映像をそのままストリーミングする場合、Bodyは自分の意思で周辺を見渡したり視線方向を変えたりするので、Ghostは揺れの激しい映像を視聴することになり、健康被害が懸念される。また、Bodyが着目していない別の個所をGhostが視聴したい場合もある。そこで、画像処理部502は、撮像部501が撮影する連続画像から周辺の空間を疑似的に構築するようにしている。以下、「実空間」を単に「空間」として言及する場合がある。具体的には、画像処理部502は、撮像部501が撮影する映像(全天周画像)に対してリアルタイムにSLAM(Simultaneous Localization and Mapping)認識技術などに基づく空間認識を行ない、現在のビデオ・フレームと過去のビデオ・フレームを空間的につなぎ合わせることで、Ghostがコントロールする仮想的なカメラ視点からの映像をレンダリングする。仮想的なカメラ視点でレンダリングされた映像は、Bodyの視点から見た映像というよりも疑似的にBodyの体外に離脱した視点映像である。したがって、Ghost側ではBodyの動きとは独立にBodyの周囲環境を観察できるので、映像の揺れを安定化させて酔いを防ぐとともに、Bodyが着目していない別の個所を視聴することができる。
音声入力部521は、マイクなどで構成され、観察者111の周囲で発生する音声を集音する。音声処理部522は、音声入力部521から音声信号の信号処理を行ない、必要に応じてAAV(Advanced Audio Coding)などの音響符号化処理を施す。
表示部503は、画像表示装置102から送られてくる情報を表示出力して、GhostによるBodyの視界への介入を実現する。上述したように画像提供装置101がシースルー型のヘッド・マウント・ディスプレイとして構成される場合、表示部503は、Bodyと体験を共有するGhostの意識を表現したAR(Augmented Reality)画像を、観察者111の視界(すなわち、実世界の風景)に重畳表示する。AR画像は、例えばGhostが指し示した場所を示すポインターやアノテーションなどの画像からなる。したがって、Ghostは、Bodyとのコミュニケーションを通じてその視界に介入して、現場に居るBodyに対するインタラクションを行なうことができる。
第1の音声出力部504は、例えばイヤホンやヘッドホンなどで構成され、画像表示装置102から送られてくる情報をBodyに聴かせることで、GhostによるBodyの聴覚への介入を実現する。画像表示装置102からは、Bodyと体験を共有するGhostの意識に関する情報が送信される。画像提供装置101側では、受信した情報を音声信号に変換して、第1の音声出力部504から音声出力し、Bodyすなわち観察者111に聴かせる。あるいは、Bodyから送られてきた映像を視聴中のGhostが発話した音声信号が、そのまま画像表示装置102から送信される。画像提供装置101側では、受信した音声信号をそのまま第1の音声出力部504から音声出力し、Bodyすなわち観察者111に聴かせる。また、第1の音声出力部504から出力する音声の音量や音質、出力タイミングなどを適宜調整するようにしてもよい。あるいは、画像表示装置102から届く画像情報や文字情報(テキスト情報)を音声信号に変換して、第1の音声出力部504から音声出力するようにしてもよい。したがって、Ghostは、Bodyとのコミュニケーションを通じてその聴覚に介入して、現場に居るBodyに対するインタラクションを行なうことができる。
駆動部505は、Bodyの身体若しくは身体の一部を動作させたり刺激を与えたりして、GhostによるBodyの身体への介入を実現する。駆動部505は、例えば、観察者111の身体に対して、触覚(タクタイル)や(健康に害のない程度の軽微な)電気刺激を印加するアクチュエーターで構成される。あるいは、駆動部505は、観察者111が腕や手、脚などに装着するパワースーツや外骨格(exoskeleton)を駆動することで身体の運動を補助又は拘束する装置(例えば、特許文献5を参照のこと)で構成される。したがって、Ghostは、Bodyとのコミュニケーションを通じてその身体に介入して、現場に居るBodyに対するインタラクションを行なうことができる。
第2の音声出力部506は、例えばBodyが装着するウェアラブル・スピーカーなどで構成され、画像表示装置102から届く情報又は音声信号を外部に音声出力する。第2の音声出力部506から出力される音声は、現場では、あたかもBody本人が話しているように聴こえる。したがって、Ghostは、Bodyに代わって、Bodyが居る現場の人たちと会話したり、音声による指示を行なったりすること(代替会話)ができる。
位置検出部507は、例えばGPS(Global Positioning System)信号を用いて画像提供装置101(すなわちBody)の現在位置情報を検出する。検出された位置情報は、例えばGhostが所望する場所にいるBodyを検索する際に利用される。
通信部508は、ネットワーク経由で画像表示装置102と相互接続し、撮影部501で撮影した映像や空間情報の送信、画像表示装置102とのコミュニケーションを行なう。通信部508の通信手段は無線又は有線のいずれでもよく、また、特定の通信規格に限定されない。また、通信部508は、サーバ装置(図示しない)を介して画像表示装置102と情報通信する場合も想定される。
設定部510は、ネットワーク経由で相互接続される画像表示装置102(若しくは、そのユーザであるGhost)の認証処理やGhostの属性情報(関連情報)のチェックを行ない、画像表示装置102に提供する情報範囲を設定したり、画像表示装置102から受信する情報のうち出力部から出力する情報範囲を設定したりする。ここで、BodyからGhostに提供される各種情報は、Bodyに関連付けられたコンテンツ情報としてみなされてよい。また、本開示において、Ghostに提供される情報範囲は、Ghostに提供される情報量として定義されてよい。例えば、設定部510は、Ghostの属性情報に基づいて、撮像部501から入力された映像又は音声入力部521から入力された音声情報のうちいずれか一方又は両方を、画像表示装置102に対して提供する情報範囲に設定する。これにより、Ghostの属性情報(関連情報)に基づいて、BodyからGhostに提供される情報量が制限され得る。例えば、BosyからGhostに提供される音声情報、映像情報、触覚情報などの少なくとも1つが制限すなわち抑制され得る。また、設定部510は、画像表示装置102から受信する音声情報、テキスト情報、画像情報などの情報信号のうち出力部で出力する情報範囲を、Ghostの属性情報に基づいて設定する。これにより、GhostからのBodyに対する「視界介入」、「聴覚介入」、「身体介入」、あるいは「代替会話」のための出力を行なうか否か、すなわち各種出力部で出力する情報範囲が設定され得る。
また、設定部510は、画像表示装置102から受信したアクセス要求に関する所定の条件が満たされたときに、各画像表示装置102に対して情報を提供する優先順位の設定を行なう。以下、アクセス要求を単にアクセスという場合がある。ここで言う所定の条件とは、例えば画像提供装置101と画像表示装置102間のネットワークの通信帯域の容量が所定の制限を超えることや、アクセス数が所定の制限を超えることなどである。より具体的には、アクセス数が所定の制限を超えることは、画像提供装置101から提供されるコンテンツ情報に対してリアルタイムのアクセスを要求する画像表示装置102の台数がアクセス可能台数(すなわち上限台数)を超えることとみなされてよい。そして、設定部510は、ユーザの個人情報及び画像表示装置102の固有情報を含む、Ghostの属性情報などに基づいて、各画像表示装置102の優先順位を設定する。
制御部509は、例えばCPU(Central Processing Unit)とGPU(Graphic Processing Unit)に相当する機能を備えている。制御部509は、設定部510による認証結果に応じて設定した情報範囲に基づいて、出力部からの出力動作を制御する。また、制御部509は、画像表示装置102から受信したアクセス要求に関する所定の条件が満たされたときに、設定部510で設定された優先順位に基づいて、画像表示装置102それぞれへの情報提供を制御するものとみなされてよい。
例えば、認証処理の結果、画像情報が情報範囲に設定された場合(言い換えれば、画像表示装置102に視界介入のみが許容されている場合)には、制御部509は、表示部503からの表示出力のみを実行する。また、音声情報も情報範囲に設定された場合(言い換えれば、画像表示装置102に視界介入だけでなく聴覚介入も許容されている場合)には、制御部509は、表示部503からの表示出力とともに第1の音声出力部504からに音声出力も実行する。
画像提供装置101が画像表示装置102に提供する情報範囲や画像表示装置102から受信する情報範囲(言い換えれば、BodyがGhostからの介入を許容する範囲)は、permissionレベルとして定義される。一方、GhostがBodyに対して介入を行なう範囲は、missionレベルとして定義される(後述)。このGhostからBodyに対して介入、すなわちアクセスを行なうにあたって発行される各種信号は、GhostからBodyへのアクセス要求とみなされてよい。例えば、図5において、画像表示装置102から発行されるアクセス要求を受信するサーバ装置の構成要素が、アクセス受信部としてみなされてよい。あるいは、画像提供装置101の通信部508、設定部510、制御部509の少なくとも1つがアクセス受信部としてみなされてもよい。但し、設定部510及び制御部509による上記の処理を、画像提供装置101ではなく、画像提供装置101と画像表示装置102の間に介在するサーバ(図示しない)で実行するように、視界情報共有システム100を構成することも可能である。この場合、サーバ装置が本開示における情報処理装置としてみなされてもよい。なお、図5においては、画像提供装置101は、サーバ装置を介して間接的に、すなわちサーバ装置から直接的にGhostからのアクセス要求を受信する。本開示の技術はこれに限られず、画像提供装置101は画像表示装置から直接的にアクセス要求を受信してもよい。
また、制御部509は、通信帯域の容量が制限を超える、あるいはアクセス数が制限を超えるなど、発生したアクセスに関し所定の条件が満たされたときに設定部510により設定される優先順位に基づいて、画像表示装置102への情報(撮像部501で撮影された映像や音声入力部521で入力された音声など)の送信を実施する。
一方、画像表示装置102は、Ghostとしての役割を果たすユーザ(視聴者112)の利用に供される装置である。図5に示す例では、画像表示装置102は、通信部511と、画像復号部512と、表示部513と、ユーザ入力部514と、位置姿勢検出部515を備えている。
通信部511は、ネットワーク経由で画像提供装置101と相互接続し、画像提供装置101から映像の受信や、画像提供装置101とのコミュニケーションを行なう。通信部511の通信手段は無線又は有線のいずれでもよく、特定の通信規格に限定されないが、画像提供装置101側の通信部508と整合しているものとする。また、通信部511は、サーバ装置(図示しない)を介して画像提供装置101と情報通信する場合も想定される。
画像復号部512は、通信部511で画像提供装置101から受信した画像信号を復号処理する。表示部513は、画像復号部512で復号した後の全天周画像を表示出力する。なお、Bodyの視点映像からBodyの体外に離脱した視点映像をレンダリングする処理(前述)を、画像提供装置101側の画像処理部502ではなく、画像復号部512で行なうようにしてもよい。
位置姿勢検出部515は、視聴者112の頭部の位置及び姿勢を検出する。検出した位置及び姿勢は、Ghostの現在の視点位置及び視線方向に相当する。Bodyの視点映像から疑似的にBodyの体外に離脱した視点映像を作り出す際の仮想的なカメラ(前述)の視点位置及び視線方向を、位置姿勢検出部515で検出した視聴者112の頭部の位置及び姿勢に基づいてコントロールすることができる。
表示部513は、例えば、Ghostとしての視聴者112が着用するヘッド・マウント・ディスプレイで構成される。没入型のヘッド・マウント・ディスプレイを表示部513に用いれば、視聴者112は、観察者111と同じ光景をよりリアルに体験することができる。視聴者112すなわちGhostが視聴する映像は、Bodyの視点映像そのものではなく、その連続画像から疑似的に構築された周辺の空間(疑似的にBodyの体外に離脱した視点映像)であるとする(前述)。また、Ghostのヘッド・トラッキング、すなわち位置姿勢検出部515で検出した視聴者112の視点位置及び視線方向に追従するように仮想カメラを制御して、表示部513の表示画角を移動させることができる。
表示部513として、没入型のヘッド・マウント・ディスプレイに代えて、シースルー型のヘッド・マウント・ディスプレイや、腕時計型のディスプレイなどのウェアラブル端末を用いてもよい。あるいは、表示部513は、ウェアラブル端末である必要はなく、スマートフォンやタブレットなどの多機能情報端末、コンピュータ・スクリーンやテレビジョン受像機などの一般的なモニター・ディスプレイ、ゲーム機、さらにはスクリーンに画像を投影するプロジェクターなどでもよい。
ユーザ入力部514は、Ghostとしての視聴者112が、表示部513に表示されているBodyから送られてきた映像を観察したことに対して、Ghost自身の意図や意識を入力するためのデバイスである。
ユーザ入力部514は、例えばタッチパネルやマウス、ジョイスティックなどの座標入力装置で構成される。Ghostは、Bodyから送られてきた映像を表示する画面内で、特に関心のある場所を、タッチやマウスのクリック操作などにより直接指示することができる。Ghostは視聴している映像の画素座標上に指示を行なうが、Body側の撮影映像は常に変化するので意味をなさない。そこで、ユーザ入力部514は、Ghostが画面のタッチやクリック操作などにより指示した画素位置に対応する3次元空間上の位置情報を画像解析などにより特定し、その3次元空間上の位置情報を画像提供装置101に送信する。したがって、Ghostは、画素座標ではなく、空間に対して固定できるポインティングを行なうことができる。
また、ユーザ入力部514は、カメラによるGhostの顔の撮影画像や眼電位を用いて眼球運動を捕捉して、Ghostが熟視(gaze)している場所を割り出し、その場所を特定する情報を画像提供装置101に送信するようにしてもよい。その際も、ユーザ入力部514は、Ghostが熟視する画素位置に対応する3次元空間上の位置情報を画像解析などにより特定し、その3次元空間上の位置情報を画像提供装置101に送信する。したがって、Ghostは、画素座標ではなく、空間に対して固定できるポインティングを行なうことができる。
また、ユーザ入力部514は、キーボードなどの文字入力装置で構成される。Ghostは、送られてきた映像を視聴してBodyと同じ体験をしたときに、Bodyに伝えたい意図や抱いた意識などを、文字情報として入力することができる。ユーザ入力部514は、Ghostが入力した文字情報をそのまま画像提供装置101に送信してもよいし、音声信号など他の信号形式に置き換えてから画像提供装置101に送信するようにしてもよい。
また、ユーザ入力部514は、マイクなどの音声入力装置で構成され、Ghostが発話した音声を入力する。ユーザ入力部414は、入力された音声を、音声信号のままで、通信部511から画像提供装置101へ送信してもよい。あるいは、ユーザ入力部514は、入力音声を音声認識して文字情報に変換し、文字情報として画像提供装置101に送信するようにしてもよい。この音声情報の文字情報への変換により、Ghostが発生した音声からGhostの属性情報、すなわち個人情報がBodyに伝わることが抑制され得る。
Ghostは、Bodyから送られてきた映像を視聴しながら、「その」、「これ」といった指示語を使って事物を指し示すことが想定される。このような場合、ユーザ入力部514は、指示語が指し示す事物の3次元空間上の位置情報を言語解析並びに画像解析などにより特定し、その3次元空間上の位置情報を画像提供装置101に送信する。したがって、Ghostは、画素座標ではなく、空間に対して固定できるポインティングを行なうことができる。
また、ユーザ入力部514は、Ghostの身振りや手振りを入力するジェスチャー入力装置でもよい。ジェスチャーを捕捉する手段は特に限定されない。例えば、ユーザ入力部514は、Ghostの四肢の動きを撮影するカメラとその撮影画像を処理する画像認識装置を備えていてもよい。また、画像認識を容易にするために、Ghostの身体にマーカーを取り付けていてもよい。あるいは、ユーザ入力部514は、Ghostの身体に取り付けるジャイロ・センサーや加速度センサーで構成され、Ghostの身体の動きを検出する。
ユーザ入力部514は、入力されたジェスチャーを、例えばBodyの身体に介入する制御信号として、通信部511から画像提供装置101へ送信してもよい。また、ユーザ入力部514は、入力されたジェスチャーを、Bodyの視界に介入する画像情報(座標情報や、重畳表示するAR画像、又は文字情報など)や、Bodyの聴覚に介入する音声信号に変換して、通信部511から画像提供装置101へ送信してもよい。また、ユーザ入力部514は、Ghostがジェスチャーにより指示した画素位置に対応する3次元空間上の位置情報を画像解析などにより特定し、その3次元空間上の位置情報を画像提供装置101に送信する。したがって、Ghostは、画素座標ではなく、空間に対して固定できるポインティングを行なうことができる。
また、ユーザ入力部514は、カメラで撮影したGhostの画像解析や、Ghostの身体に取り付けるジャイロ・センサーや加速度センサーの検出結果などに基づいてえられるGhostの動作を、仮想空間(VR空間)上での移動などの指示として入力する。
視界情報共有システム100において展開されるJackInというサービスは、AR画像を重畳表示するという観点からは、一般的なAR技術に類似する。但し、JackInにおいては、人間(Ghost)が他の人間(Body)を拡張するという点で、コンピュータにより付与される通常のAR技術とは相違するものと思料する。
また、JackInは、テレプレゼンス(前述)と類似する点もある。但し、通常のテレプレゼンスは、ロボットのような機械の視点から世界を眺めるインターフェースであるのに対し、JackInは人間(Ghost)が他の人間(Body)の視点から眺めるという状況であるという点で相違する。また、テレプレゼンスでは、人間がマスターで機械がスレーブとなり、スレーブである機械は人間の動きを忠実に再現することを前提としている。これに対し、人間(Ghost)が他の人間(Body)にJackInする場合、BodyはGhostに従って動くとは限らず、独立性を許すインターフェースである。
上記の視界情報共有システム100において、画像提供装置101から画像表示装置102に提供される映像は、Bodyが現場で観察しているリアルタイム映像(すなわち、撮影部501が撮影するライブ映像)とは限らず、録画された過去の映像であってもよい。例えば、画像提供装置101が過去の映像を録画する大容量記憶装置(図示しない)を備え、画像提供装置101から過去の映像を配信するようにしてもよい。あるいは、BodyとGhost間のJackInを統制するJackInサーバ(仮称)、あるいはその他の記録サーバ上で画像提供装置101による過去の録画映像を蓄積しておき、これらのサーバからGhost(画像表示装置102)に過去の映像をストリーミング配信するようにしてもよい。但し、Ghostは、過去の映像を視聴する場合には、Bodyに対して視覚、聴覚を含む一切の介入が許されないものとみなされてもよい。何故ならば、Ghostが視聴している映像はBodyが現在作業を行なっている現場の映像ではなく、過去の映像に基づいて介入するとBodyの現在の作業に支障をきたすからである。
なお、2台の機器間における視界共有の詳細については、例えば本出願人に既に譲渡されている特願2013−78893号明細書も参照されたい。また、同システム100における視界介入(AR画像の表示)の詳細については、例えば本出願人に既に譲渡されている特願2013−78892号明細書、特願2013−78894号明細書、特願2013−191464号明細書も参照されたい。
C.Mission−Permission(BodyとGhostのマッチング)
JackInでは、「視界介入」、「聴覚介入」、「身体介入」、「代替会話」といった複数のコミュニケーション・チャネルがある。したがって、Bodyは、GhostとのJackInを開始することによって、自分の視界をGhostと共有できるとともに、視界介入などを通じて、現在行なっている作業に対してGhostから支援や指示、誘導、案内を受けることができる。また、Ghostは、BodyとのJackInを開始することによって、自分は現場に出向かなくてもBodyと同じ体験をすることができるとともに、視界介入などを通じてBodyの作業に対して支援や指示、誘導、案内を行なうことができる。
ところが、Bodyは、Ghostから無制限に自分の視界や聴覚、身体に介入されたり代替会話が行なわれたりすると、Body自身の行動がGhostに邪魔され、あるいは行動に支障をきたし危険にさらされる場合や、プライバシーが侵害されることもある。一方、Ghostにとっても、見たくない映像がある場合や、Bodyから頼まれても適切な支援や指示、誘導、案内などのサービスを提供できない場合がある。すなわち、BodyとGhostのミスマッチが問題となる。
そこで、本実施形態では、BodyとGhost間の適切なマッチングを実現するために、「permission」と「mission」を定義する。BodyがGhostからの介入を許容する範囲を「permission」として定義し、Ghostからの介入をpermissionで規定する範囲に限定する。一方、GhostがBodyに対して介入する操作の範囲を「mission」として定義し、GhostがBodyに介入できる範囲をmissionで規定する範囲に限定する。
C−1.Permission
まず、permissionについて説明する。各Bodyは、以下に例示するように介入を許容するレベルの異なるpermissionを、それぞれ適宜設定することができる。
(レベル1)視界交換しか許容しない。この場合、画像提供装置101は、撮像部501の撮像画像の送信のみを行ない、出力部を一切動作させない。
(レベル2)視界交換と視界介入までしか許容しない。この場合、画像提供装置101は、撮像部501の撮像画像を送信するとともに、表示部503の表示出力のみを行なう。
(レベル3)さらに聴覚介入も許容する。この場合、画像提供装置101は、撮像部501の撮像画像を送信するとともに、表示部503の表示出力並びに第1の音声出力部504からの音声出力を行なう。
(レベル4)身体介入及び代替会話を含む、すべての介入を許容する。この場合、画像提供装置101は、さらに駆動部505を駆動できるとともに、第2の音声出力部506から音声を外部出力することができる。
また、各Bodyは、すべてのGhostに対して一様なpermissionを与えるのではなく、Ghost毎に個別のpermissionを与えるようにしてもよい。
例えば、Bodyは、Ghostのユーザ属性に応じたpermissionを設定してもよい。ここで言うユーザ属性とは、年齢、性別、Bodyとの人間関係(続柄、友人、上司と部下など)、出身地、職業、資格といった個人情報の他、支援対象となる作業のスキルのレーティング情報、過去のGhost(アシスタントやインストラクターなど)としての実績(これまで何時間その作業を経験したか)や評価(review)、他のBodyによる評判(投稿や投票結果など)などの情報を含むものとする。
また、Bodyは、属性に応じたpermissionを設定するのではなく、個人単位でpermissionを設定してもよい(Aさん用のpermission、Bさん用のpermission、…など)。言い換えれば、BodyとGhostの組み合わせ毎にpermissionを設定してもよい。Bodyは、自分との人間関係に基づいてpermissionを設定してもよいし、Bodyが個人的に把握しているGhost自身の能力に基づいてpermissionを設定してもよい。また、BodyとGhost間での一対一のネゴシエーションや調停などにより、Ghostに一時的なpermissonを付与する方法(あるGhostに、所定期間だけ高レベルのpermissonを付与し、その期間が経過すると元のレベルのpermissionに戻す)も考えられる。また、Bodyは、自分へのJackInを禁止するユーザを設定できるようにしてもよい。
人間関係に基づくpermission設定の簡単な例を以下に挙げておく。
(例1)他人に対しては視界共有(レベル1のpermission)しか許容しない。
(例2)友人には視界介入並びに聴覚介入(レベル2又は3のpermission)まで許容する。
(例3)親しい友人や認証若しくは資格を得ている人には特別に身体介入(レベル4のpermission)を許容する。又は、一時的に代替会話を許容する。
permission設定の他の例として、BodyがJackInを有料サービス化(すなわちmonetize)する場合を挙げることができる。Ghostは、支払う利用料に応じて、上記のレベル1〜4のいずれかのpermissionが設定され、BodyとJackInすることができる。
(例4)5ドル支払うGhostに対しては、視界共有(レベル1のpermission)しか許容しない。
(例5)10ドル支払うGhostには、視界介入並びに聴覚介入(レベル2又は3のpermission)まで許容する。
(例6)100ドル支払うGhostには、身体介入(レベル4のpermission)を許容する。又は、一時的に代替会話を許容する。
C−2.Mission
次に、missionについて説明する。本実施形態では、GhostがBodyに対して介入する操作の範囲を「mission」として定義し、GhostがBodyに介入できる範囲をmissionで規定する範囲に限定する。Ghostのmissionは、例えば、Ghost自身が背負っている使命や能力の範囲で設定される。missionは、個々のGhostが自分で勝手に決めるものではなく、例えば権威のある機関などによって許可若しくは認証されていることが好ましい。Ghostに課された使命、職務、職業や、資格、介入のスキルのレーティング、過去のGhost(アシスタントやインストラクターなど)としての実績(Ghostとしての経験時間など)や評価(review)、Bodyによる評判(投稿や投票結果など)などに応じて、以下に例示するようなレベルの異なるmissionを定義することができる。
(レベル1)視界交換しか行なわない。この場合、画像表示装置102は、画像提供装置101から受信した画像の表示のみを行なう。
(レベル2)視界交換と視界介入まで行なう。この場合、画像表示装置102は、画像提供装置101から受信した画像を表示するとともに、画像提供装置101側で表示すべき画像(重畳表示して、視界に介入すべき画像)に関する情報を送信する。
(レベル3)さらに聴覚介入も行なう。この場合、画像表示装置102は、画像提供装置101で出力すべき音声( Bodyに聴かせるべき音声)に関する情報をさらに送信する。
(レベル4)身体介入及び代替会話を含む、すべての介入を行なう。この場合、画像表示装置102は、駆動部505を動作させる情報や、第2の音声出力部506から外部に出力すべき音声に関する情報をさらに送信する。
BodyがGhostとのJackInを開始する際には、Ghostの個人情報や属性情報に基づいてフィルタリングし、さらにはBodyが指定するpermissionとGhostが持つmissionを照合して、JackInの可否や、JackInした状態での介入可能な範囲を判定するようにすればよい。例えば、不特定多数のGhost(Large number Ghost)を対象にして、Bodyが主導的にJackInを開始するとき(Body initiative start)に、フィルタリング処理は有効である。なお、本明細書において、Ghostの属性情報は、ユーザの個人情報及び画像表示装置102の固有情報を含むものとみなされてよい。ここで、画像表示装置102の固有情報には、画像表示装置102毎のID、性能、情報の出力形式に関する情報が含まれ得る。
このようなフィルタリング処理は、Body側(すなわち、画像提供装置101)で行なうようにしてもよいし、多数のBody及び多数のGhost間のJackInを統制するJackInサーバ(仮称)が行なうようにしてもよい。
Bodyにpermissionを設定するとともに、Ghostにmissionを設定することによって、JackInを開始する際のGhostの選定や、Ghostが介入する範囲を決定する処理を自動化し易くなる。例えば、不特定多数のGhostがJackInしてくる際には、Bodyは各Ghostに介入を許容するレベルを機械的に判断することができ、便利である。勿論、あらかじめ設定したpermisson及びmissionなどの情報に基づいて機械的に判断するのではなく、BodyとGhost間の一対一のネゴシエーションや調停などにより、JackInの可否や介入のレベルをその場で取り決めを交わすようにしてもよい。
D.Ghostの定員処理
図2に示したように、1人のBodyに対して複数のGhostがJackInするケース、すなわち、1台の画像提供装置101で撮影された(一人称)映像を、同時に複数台の画像表示装置102に配信するケースが想定される。GhostがBodyの視覚や聴覚などに介入することなどを考慮すると、Bodyの映像をリアルタイムでGhostが視聴することが好ましい。
ところが、同時にJackInするGhostが多数になると、通信帯域の問題などにより、映像の伝送遅延が顕在化するという問題が生じる。
そこで、Bodyは、同時にJackInするGhostの定員(上限)を設定するようにしてもよい。JackInできるGhostに定員を設定した場合、定員を超えて新規にGhostがJackInしてきたときには、定員を超えたGhostを追い出して、リアルタイム映像を配信するGhostの数を定員以内に制限するようにする。
ここで、定員は、例えば、通信帯域の容量制限などに応じて決められる数である。あるいは、定員は、Bodyが自分への介入を許容するGhostの数であってもよい。
D−1.追い出すGhostの選定方法
JackInできるGhostに定員を設定する場合、定員を超えて新規にGhostがBodyにJackInしてきたときには、追い出すべきGhostを選定する処理が必要になる。すなわち、Ghostは、相対的に高い優先順位を有するGhostと、相対的に低い優先順位を有するGhostを少なくとも含むとみなされてよい。例えば、以下の方法を挙げることができる。
(1)FIFO(First In First Out:先入れ先出し)方式
(2)LIFO(Last In First Out:後入れ先出し)方式
(3)優先順位方式
FIFO方式によれば、先にJackInしてきたGhostから順に追い出して、新規のGhostがJackINすることができることになるので(図6を参照のこと)、Bodyと同じ一人称体験する機会が各Ghostに平等に割り当てられるというメリットがある。
一方、LIFO方式によれば、後からJackInしてきたGhostが追い出されるので(図7を参照のこと)、定員に達した以降は新規のGhostがJackInできる機会がなくなるが、先にJackInしてきてBodyへの支援などの習熟度が高くなったGhostからの支援や指示、誘導、案内を、Bodyが受け続けることができる、といったメリットがある。
図8には、優先順位方式でBodyにJackInするGhostの数を定員以内に抑える仕組みを図解している。同図では、優先順位を濃淡で表現している(濃い色のGhostほど高優先順位である)。新規にGhostがJackInしてくると、これよりも優先順位の低い方から順に追い出されていく。
優先順位方式を採用する場合、各Ghostに優先順位を割り当てるさまざまの方法が挙げられる。例えば、Bodyとの人間関係や、職業、資格、過去の実績や評価、評判などに応じて、各Ghostに優先順位を割り当てるようにしてもよい。また、BodyがJackInを有料サービス化(すなわちmonetize)している場合には、Ghostが支払う金額の高低に応じて優先順位を割り当てるようにすれば、サービスの運営を財政面でサポートし易くなる。勿論、各Ghostに割り当てる優先順位を動的に変更させるようにしてもよい。
D−2.追い出したGhostへの過去の映像配信
定員外として追い出したGhostをBodyの一人称映像から完全に分断させてもよいが、定員外のGhostに対して通信帯域に過度の負荷がかからない(定員以内のGhostへの映像配信に影響を与えない)方法により、映像配信を行なうようにしてもよい。
一例として、Bodyからのリアルタイム映像の伝送は行なわないが、過去の映像に代えて提供するという方法も考えられる。この方法によれば、定員からあふれたGhostを単に追い出すのではなく、「過去に追い出す」と表現することもできる。
具体的には、Bodyすなわち画像提供装置101から(定員以内の)Ghostに配信されるリアルタイム映像を外部装置で録画しておき、追い出されたGhostに対しては、Bodyではなく外部装置から過去の映像を配信するようにする(図9を参照のこと)。ここで言う外部装置は、例えばBodyとGhost間のJackInを統制するJackInサーバ(仮称)、あるいはその他の記録サーバである。定員外のGhostへの映像配信を記録サーバに委ねることによって、Bodyすなわち画像提供装置101の負荷を分散することができる。
外部装置からGhostへ届く映像は、録画などの処理のために遅延した過去の映像であり、ライブではないため、Bodyに対して視覚、聴覚を含む一切の介入が許されないとみなされてよい。しかしながら、Ghostは、時間の遅延を許容する限りにおいて、Bodyの一人称体験を追体験することができる。
また、定員以内のGhostが外れたことによって、定員(通信帯域の容量制限など)に余裕ができて、これまで定員外であったGhostが定員に入る(若しくは、定員に復帰する)ことができることも想定される。このような場合、Ghostへ配信する映像を過去の映像からリアルタイム映像に切り替えると、Ghostはその時間差分の映像の情報を失ってしまうことになる。そこで、過去の映像配信からリアルタイム映像配信に切り替える際には、いわゆる「追っかけ再生」若しくは「タイムシフト再生」の処理(例えば、特許文献6を参照のこと)を行なうことによって、Ghostが視聴する映像を過去の映像からリアルタイム映像に追いつかせるようにしてもよい。X倍速(但し、Xは1より大きい値)、例えば、1.0x倍速で追っかけ再生すれば、Ghostは、違和感なく追っかけ再生される映像を視聴できるとともに、シームレスにリアルタイム映像に切り替えて視聴することができる。
図10には、Bodyに新規にJackInしてきたGhostに対して一人称映像を配信するための処理手順をフローチャートの形式で示している。
Bodyは、自分に新規のGhostがJackInしてくると(ステップS1001のYes)、JackInしたGhostの総数がまだ定員以内かどうかをチェックする(ステップS1002)。
ここで、ステップS1001でJackInしたGhostを加えても定員を超えていない場合には(ステップS1002のNo)、Bodyは、ステップS1001でJackInしてきたGhostに対してリアルタイムの一人称映像の配信を開始する(ステップS1003)。
一方、ステップS1001でJackInしたGhostを加えるとBodyの定員を超えてしまう場合には(ステップS1002のYes)、Bodyは、ステップS1001でJackInしてきたGhostが定員以内か否か(言い換えれば、そのGhostを追い出すべきか否か)を定員判定処理する(ステップS1007)。Ghostを追い出すべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
ステップS1001でJackInしたGhostが定員以内であると判定された場合には(ステップS1008のYes)、Bodyは、そのGhostに対してリアルタイムの一人称映像の配信を開始する(ステップS1003)。
また、ステップS1001でJackInしたGhostが定員を外れる(すなわち、追い出すべき)と判定された場合には(ステップS1008のNo)、そのGhostに対して、(例えば記録サーバからの)過去の一人称映像の配信を開始する(ステップS1009)。Body(画像提供装置101)ではなく、記録サーバが過去の一人称映像を配信するので、映像伝送の負荷が分散される(前述)。
そして、ステップS1001でJackInしてきたGhostに対して過去の一人称映像の配信中に(ステップS1009)、BodyにJackInするGhostの数が減少して定員に空きが生じると(ステップS1010のYes)、Bodyは、ステップS1001でJackInしてきたGhostを定員の中に入れるべきか否かを定員判定処理する(ステップS1011)。Ghostを定員の中に入れるべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
ステップS1001でJackInしてきたGhostを定員の中に入れるべきでない(すなわち、追い出したままにすべき)と判定された場合には(ステップS1012のNo)、Bodyは、そのGhostに対し、継続して(記録サーバから)過去の一人称映像を配信する(ステップS1009)。
また、ステップS1001でJackInしてきたGhostを定員の中に入れるべきであると判定された場合には(ステップS1012のYes)、Bodyは、そのGhostに対して、記録サーバからの追っかけ再生(前述)を実施した後(ステップS1013)、リアルタイムの一人称映像の配信に切り替える(ステップS1003)。
また、ステップS1001でJackInしてきたGhostに対してリアルタイムの一人称映像の配信中に(ステップS1003)、BodyにJackInするGhostの数が増加して定員オーバーが生じると(ステップS1004のYes)、そのGhostを定員の中に入れたままで良いか否か(言い換えれば、追い出すべきか否か)を定員判定処理する(ステップS1005)。Ghostを定員の中に入れるべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
ステップS1001でJackInしてきたGhostを定員の中に入れたままで良いと判定された場合には(ステップS1006のYes)、Bodyは、そのGhostに対し、継続してリアルタイムの一人称映像を配信する(ステップS1003)。
また、ステップS1001でJackInしてきたGhostを追い出すべき判定された場合には(ステップS1006のNo)、Bodyは、そのGhostに対して、(例えば記録サーバからの)過去の一人称映像の配信に切り替える(ステップS1009)。
図10に示した処理手順に従えば、Bodyすなわち画像提供装置101の負荷分散のために追い出されたGhostに対しては、例えば記録サーバから5分などの時間遅延を持った状態で配信される映像を視聴することができる。そして、Ghostは、追い出された状態から復帰したときには、リアルタイム映像の視聴に即座に戻るのではなく、映像の速度を1.05倍の速度などにした追っかけ再生を実施して、徐々に(すなわち、シームレスに)現在時刻の映像に戻る。
D−3.全天周映像配信時における定員問題の解決
Bodyから配信する一人称映像が、360度の全天周映像の場合、Ghostへすべての映像を送ると伝送負荷が高い。一方、Ghostにとっても、360度すなわち全周囲の映像を観察できる訳ではなく、実際に見ることができるのは視線方向を中心にした所定の視野角内に限られる。したがって、360度の全天周映像を常に配信するのは無駄である。
そこで、図11に示すように、360度の全天周を所定の角度毎の領域に分割して、全天周映像をチャンネル化して、チャンネル(領域)毎の映像を配信するチャンネル・サーバ1101、1102、…を設置することによって、全天周映像を配信する際の負荷を分散する方法が考えられる。各Ghostに対しては、現在の視線方向に対応するチャンネル・サーバ1101、1102、…から映像が配信される。また、Ghost側で視線方向が変化すると、これに応じてチャンネル・サーバを切り替えることによって、視線方向に適合した映像を視聴することができる。
全天周を領域分割する角度(中心角)は、人間の視野角を十分カバーできる大きさであることが好ましい。図11に示す例では、図面の簡素化のため、全天周を90度毎に4つの領域のチャンネルch1、ch2、…に分割して、各領域の映像をそれぞれのチャンネル・サーバ1101、1102、…から配信するようにしている。また、チャンネル切り替えの際に、領域の境界が見えたり映像が途切れたりしないように、隣接する領域(チャンネル)の境界の映像がオーバーラップするように、各チャンネルの映像を制作することが好ましい。図12には、チャンネル・サーバ1101が、隣接するチャンネルch2、ch3の領域とオーバーラップする領域の映像を配信する様子を示している。
上記のように、全天周映像をチャンネル化して、チャンネル(領域)毎に別々のチャンネル・サーバから映像を配信するようにすることで、全天周映像の配信の負荷を分散することができる。
ところが、全天周のうちGhostの視聴角度が一箇所に集中するという事態が想定される。例えば、コンサートを鑑賞若しくは観覧しているBodyの全天周映像を配信する場合、Ghostの視聴角度はステージ上若しくは特定のアーティストに集中しがちである。
図13には、Bodyの全天周映像を視聴する各Ghostの視聴角度を例示している。同図中、矢印が中央の視点位置からの視線方向を示しているものとする。図示の例では、チャンネルch1内に視聴角度が集中しているため、チャンネル・サーバ1101に伝送負荷が集中する。
このような事態を回避するため、チャンネル・サーバ毎、言い換えれば全天周映像の領域毎に、視聴可能なGhostの定員を設定して、D−1項で説明したと同様のGhostの追い出し処理を実施するようにすればよい。上述したように、FIFO方式、LIFO方式、又は優先順位方式を用いて、領域から追い出すべきGhostを選定することができる。
このように、所定の条件を満たした特定の方向における映像に対するアクセス要求が制限されてよい。特定の方向は、視聴角度が集中している方向、すなわち特定の視聴方向としてみなされてもよい。
また、定員外として追い出したGhostをBodyの一人称映像から完全に分断させてもよいが、定員外のGhostに対して通信帯域に過度の負荷がかからない(定員以内のGhostへの映像配信に影響を与えない)方法により、映像配信を行なうようにしてもよい。
上記D−2項では定員外のGhostに対してBodyの過去の映像を配信することで負荷分散を図った。全天周映像を配信する場合には、定員外のGhostには隣接する領域の映像(すなわち、隣接する視線方向の映像)に置き換えて視聴してもらうようにすることで、チャンネル・サーバの負荷を分散させることができる。また、優先順位に応じて送信する映像の解像度を制御する(例えば、優先順位の低いGhostに対しては低解像度の映像度を送るようにする)ことで、チャンネル・サーバの負荷を低減して、なるべくGhostが希望するチャンネル・サーバからの映像を配信できるようにしてもよい。
また、定員以内のGhostが外れたことによって、チャンネル・サーバに定員(通信帯域の容量制限など)に余裕ができて、これまで定員外であったGhostが定員に入る(若しくは、定員に復帰する)ことができることも想定される。このような場合、Ghostへ配信する映像を隣接する領域の視聴角度から元の視聴角度の映像に即座に切り替えると、Ghostはその視聴角度間の映像の情報を失ってしまうことになる。そこで、視聴角度を切り替える際には、即座に元の視聴角度に戻るのではなく、隣接する領域の視聴角度から徐々に戻るようにしてもよい。徐々に視聴角度をシフトさせれば、Ghostは、違和感なく、シームレスに所望の視聴角度の映像に切り替えて視聴することができる。
図14には、Ghostに対してBodyの全天周映像を配信するための処理手順をフローチャートの形式で示している。
BodyにJackInしているGhostが視聴角度を変化させたとき(ステップS1401のYes)、その視聴角度を含む領域(チャンネル)を視聴しているGhostの総数がまだ定員以内かどうかをチェックする(ステップS1402)。ここで、「Ghostが視聴角度を変化させたとき」は、新規のGhostがBodyにJackInしてきた場合を含むものとする。
ここで、Ghostが変化させた後の視聴角度を含む領域(チャンネル)の定員を超えていない場合には(ステップS1402のNo)、Bodyは、そのGhostに対して希望通りの視聴角度での映像の配信を開始する(ステップS1403)。
一方、Ghostが変化させた後の視聴角度を含む領域(チャンネル)の定員を超えてしまう場合には(ステップS1402のYes)、Bodyは、そのGhostは当該領域(チャンネル)の定員以内か否か(言い換えれば、当該領域(チャンネル)から追い出すべきか否か)を定員判定処理する(ステップS1407)。Ghostを追い出すべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
ステップS1401で視聴角度を変更したGhostが該当する領域(チャンネル)の定員以内であると判定された場合には(ステップS1408のYes)、Bodyは、そのGhostに対して希望通りの視聴角度での映像の配信を開始する(ステップS1403)。
また、ステップS1401で視聴角度を変更したGhostが該当する領域(チャンネル)の定員を外れる(すなわち、追い出すべき)と判定された場合には(ステップS1408のNo)、そのGhostに対して、変更した視聴角度の領域ではなくこれに隣接する領域(チャンネル)の映像の配信を開始する(ステップS1409)。隣接する領域の映像は、定員をオーバーしていない別のチャンネル・サーバが配信するので、映像伝送の負荷が分散される(前述)。
そして、ステップS1401で視聴角度を変更したGhostに対して隣接する領域(チャンネル)の映像を配信中に(ステップS1409)、元の(すなわち、ステップS1401で変更した)視聴角度を含む領域(チャンネル)を視聴するGhostの数が減少して定員に空きが生じると(ステップS1410のYes)、Bodyは、ステップS1401で視聴角度を変更したGhostを希望通りの領域(チャンネル)の定員の中に入れるべきか否かを定員判定処理する(ステップS1411)。Ghostを定員の中に入れるべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
S1401で視聴角度を変更したGhostを希望通りの領域(チャンネル)の定員の中に入れるべきでない(すなわち、追い出したままにすべき)と判定された場合には(ステップS1412のNo)、Bodyは、そのGhostに対し、継続して隣接する領域(チャンネル)の映像を配信する(ステップS1409)。
また、ステップS1401で視聴角度を変更したGhostを希望通りの領域(チャンネル)の定員の中に入れるべきであると判定された場合には(ステップS1412のYes)、Bodyは、そのGhostに対して、視聴角度シフト再生を実施した後(ステップS1413)、希望通りの視聴角度での映像の配信に切り替える(ステップS1403)。
また、ステップS1401で視聴角度を変更したGhostに対して希望通りの領域(チャンネル)の映像の配信中に(ステップS1403)、他のGhostが同じ領域(チャンネル)内に視聴角度を変更してきて定員オーバーが生じると(ステップS1404のYes)、そのGhostを定員の中に入れたままで良いか否か(言い換えれば、追い出すべきか否か)を定員判定処理する(ステップS1405)。Ghostを定員の中に入れるべきか否かは、例えば上述したFIFO方式、LIFO方式、又は優先順位方式のいずれかにより判定すればよい。
ステップS1401で視聴角度を変更したGhostを定員の中に入れたままで良いと判定された場合には(ステップS1406のYes)、Bodyは、そのGhostに対し、継続して希望通りの視聴角度の映像を配信する(ステップS1403)。
また、ステップS1401で視聴角度を変更したGhostを追い出すべき判定された場合には(ステップS1406のNo)、Bodyは、そのGhostに対して、隣接する領域(チャンネル)に切り替えて映像を配信する(ステップS1409)。
図14に示した処理手順に従えば、チャンネル・サーバの負荷分散のために追い出されたGhostに対しては、隣接する領域の映像を視聴することができる。そして、Ghostは、追い出された状態から復帰したときには、希望通りの視聴角度の映像の視聴に即座に戻るのではなく、視聴角度シフト再生を実施して、徐々に希望通りの視聴角度の映像に戻る。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書で開示する技術は、例えば、外科手術などの医療現場、土木作業などの建築現場、飛行機やヘリコプターの操縦、自動車の運転者のナビゲーション、スポーツのインストラクションなど、さまざまな産業分野の作業支援などの用途に活用することができる。
また、本明細書では、身体を以って現場で活動するBodyに対して、Bodyの一人称画像を共有するGhostがBodyの視覚や聴覚などに介入するシステムに関する実施形態を中心に説明してきたが、本明細書で開示する技術の要旨はこれに限定されるものではない。ある人物の視界に他人からの支援や指示、誘導、案内に関する情報を表示するさまざまな情報処理装置に対しても、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)制御部と、
通信部と、
外部の情報処理装置からアクセスを受け付けるアクセス受信部と、
前記アクセス受信部が所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定部と、
を具備し、
前記制御部は、前記設定部が設定した優先順位に基づいて、前記撮像部から入力された画像情報を、前記通信部を介して前記情報処理装置に送信する、
撮像部と音声入力部と接続可能な情報端末装置。
(2)前記設定部は、前記所定の条件として前記通信部の通信帯域の容量制限又はアクセス数制限を超える情報処理装置からアクセスを受け付けたときに、前記優先順位の設定を行なう、
上記(1)に記載の情報端末装置。
(3)前記制御部は、前記優先順位に応じて、順番、再生時間、角度、又は解像度を変えて画像情報を前記通信部から送信する、
上記(1)に記載の情報端末装置。
(4)前記制御部は、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して現在の映像を前記通信部から送信し、前記所定の条件を超える情報処理装置に対して過去の映像を前記通信部から送信する、
上記(3)に記載の情報端末装置。
(5)前記制御部は、特定の視線方向の映像へのアクセスが所定の条件を超えたときに、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して前記特定の視線方向の映像を前記通信部から送信し、前記所定の条件を超える情報処理装置に対して前記特定の視線方向以外の映像を前記通信部から送信する、
上記(3)に記載の情報端末装置。
(6)前記制御部は、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して第1の解像度の映像を前記通信部から送信し、前記所定の条件を超える情報処理装置に対して前記第1の解像度よりも低い第2の解像度の映像を前記通信部から送信する、
上記(3)に記載の情報端末装置。
(7)前記設定部は、情報処理装置の固有情報又は情報処理装置の使用者の属性に関する情報に基づいて、各情報処理装置の優先順位を設定する、
上記(1)に記載の情報端末装置。
(8)前記設定部は、前記アクセス受信部がアクセスした順番に基づいて、各情報処理装置の優先順位を設定する、
上記(1)に記載の情報端末装置。
(9)外部の情報処理装置からアクセスを受け付けるアクセス受信ステップと、
前記アクセス受信ステップで所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定ステップと、
前記設定ステップで設定した優先順位に基づいて、前記撮像部から入力された画像情報の前記情報処理装置への送信を制御する制御ステップと、
を有する、撮像部と音声入力部と接続可能な情報端末装置の制御方法。
(10)制御部と、
通信部と、
前記情報端末装置にアクセスを送信するアクセス送信部と、
を具備し、
前記制御部は、前記アクセス送信部がアクセスした前記情報端末装置において所定の条件を超える場合に、前記情報処理装置に設定された優先順位に基づいて、前記撮像部から入力された画像情報を、前記通信部を介して前記情報端末装置から受信する、
撮像部と音声入力部を接続可能な情報端末装置にアクセスする情報処理装置。
(11)情報端末装置にアクセスを送信するアクセス送信ステップと、
前記アクセス送信ステップでアクセスした前記情報端末装置において所定の条件を超える場合に、前記情報処理装置に設定された優先順位に基づいて、前記撮像部から入力された画像情報を、前記通信部を介して前記情報端末装置から受信する情報受信ステップと、
を有する、撮像部と音声入力部を接続可能な情報端末装置にアクセスする情報処理装置の制御方法。
(12)情報処理装置から情報端末装置へのアクセスを受け付けるアクセス受信部と、
前記アクセス受信部が所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定部と、
前記設定部が設定した優先順位に基づいて、前記撮像部から前記情報端末装置に入力された画像情報の前記情報処理装置への伝送を制御する制御部と、
を具備する、撮像部と音声入力部と接続可能な情報端末装置と情報端末装置にアクセスする情報処理装置の間に介在するサーバ装置。
(13)情報処理装置から情報端末装置へのアクセスを受け付けるアクセス受信ステップと、
前記アクセス受信ステップで条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定ステップと、
前記設定ステップで設定した優先順位に基づいて、前記撮像部から前記情報端末装置に入力された画像情報の前記情報処理装置への伝送を制御する制御ステップと、
を有する、撮像部と音声入力部と接続可能な情報端末装置と情報端末装置にアクセスする情報処理装置の間に介在するサーバ装置の制御方法。
(14)第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信部と、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御部と、
を具備する情報処理装置。
(15)前記所定の条件は、前記受信したアクセス要求に関するパラメータが所定値を超えることである、
上記(14)に記載の情報処理装置。
(16)前記パラメータは、前記情報端末装置に対して前記コンテンツ情報の少なくとも一部を送信することで前記情報提供を行なう通信部の通信帯域の容量であり、
前記所定の条件は、前記通信帯域の容量が制限値を超えることである、
上記(15)に記載の情報処理装置。
(17)前記パラメータは、前記アクセス要求の数であり、
前記所定の条件は、前記アクセス要求の数が制限値を超えることである、
上記(15)に記載の情報処理装置。
(18)前記制限値は、前記コンテンツ情報に対しリアルタイムにアクセス可能な前記情報端末装置の上限台数である、
上記(17)に記載の情報処理装置。
(19)前記制御部は、前記設定された優先順位に応じて、前記情報提供に関する画像情報のパラメータを異ならせる、
上記(14)乃至(18)のいずれかに記載の情報処理装置。
(20)前記画像情報のパラメータは、前記情報端末装置への前記情報提供の順番、再生時間、提供される画像の角度、及び前記提供される画像の解像度のうち少なくとも1つを含む、
上記(19)に記載の情報処理装置。
(21)前記情報端末装置は、前記設定された優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置を少なくとも含む、
上記(14)乃至(20)のいずれかに記載の情報処理装置。
(22)前記制御部は、前記受信したアクセス要求が前記所定の条件を満たしたときに、前記第1の情報端末装置への現在の映像の情報提供を制御し、前記第2の情報端末装置への過去の映像の情報提供を制御する、
上記(21)に記載の情報処理装置。
(23)前記制御部は、前記コンテンツ情報としての特定の方向における映像に対するアクセス要求が前記所定の条件を満たしたときに、前記第1の情報端末装置への前記特定の方向における映像の情報提供を制御し、前記第2の情報端末装置への前記特定の方向の映像とは異なる映像の情報提供を制御する、
上記(21)に記載の情報処理装置。
(24)前記第1の情報端末装置は、前記第2の情報端末装置よりも早く前記コンテンツ情報に対するアクセス要求を行なった情報端末装置である、
上記(21)乃至(23)のいずれかに記載の情報処理装置。
(25)前記制御部は、前記第1の情報端末装置への第1の解像度を有する映像の情報提供を制御し、前記第2の情報端末装置への前記第1の解像度よりも低い第2の解像度を有する映像の情報提供を制御する、
上記(21)乃至(23)のいずれかに記載の情報処理装置。
(26)前記情報端末装置の関連情報に基づいて、前記情報端末装置それぞれの優先順位を設定する設定部をさらに備える、
上記(14)乃至(23)、(25)のいずれかに記載の情報処理装置。
(27)前記情報端末装置の関連情報は、前記情報端末装置の固有情報を含む、
上記(26)に記載の情報処理装置。
(28)前記情報端末装置の関連情報は、前記第2のユーザの属性情報を含む、
上記(26)に記載の情報処理装置。
(29)外部の装置としての前記情報端末装置と通信する通信部と、
前記設定部、前記通信部、及び前記アクセス受信部を前記第1のユーザにより持ち運び可能とする筐体と、
をさらに備え、
前記制御部は、前記情報処理装置に接続可能な撮像部及び音声入力部のうち少なくとも一方を制御する、
上記(14)乃至(28)のいずれかに記載の情報処理装置。
(30)前記情報処理装置は、前記第1のユーザの情報端末装置と前記第2のユーザの情報端末装置の間の通信を直接的又は間接的に接続する、ネットワーク上のサーバ装置である、
上記(14)乃至(29)のいずれかに記載の情報処理装置。
(31)第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
を有する情報処理装置の制御方法。
(32)第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
前記受信したアクセス要求に関する所定の条件が満たされたときに、設定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラム。
100…視界情報共有システム
101…画像提供装置、102…画像表示装置
501…撮像部、502…画像処理部、503…表示部
504…第1の音声出力部、505…駆動部
506…第2の音声出力部、507…位置検出部
508…通信部、509…制御部、510…設定部
511…通信部、512…画像復号部、513…表示部
514…ユーザ入力部、515…位置姿勢検出部
521…音声入力部、522…音声処理部

Claims (10)

  1. 撮像部と音声入力部と接続可能な情報端末装置であって、
    通信部と、
    外部の情報処理装置からアクセスを受け付けるアクセス受信部と、
    前記アクセス受信部が所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定部と、
    前記優先順位に基づいて、前記撮像部から入力された画像情報を前記通信部を介して前記情報処理装置に送信する制御部とを具備し、
    前記制御部は、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して現在の映像を前記通信部から送信し、前記所定の条件を超える情報処理装置に対して過去の映像を前記通信部から送信する、
    情報端末装置。
  2. 撮像部と音声入力部と接続可能な情報端末装置であって、
    通信部と、
    外部の情報処理装置からアクセスを受け付けるアクセス受信部と、
    前記アクセス受信部が所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定部と、
    前記優先順位に基づいて、前記撮像部から入力された画像情報を前記通信部を介して前記情報処理装置に送信する制御部とを具備し、
    前記制御部は、特定の視線方向の映像へのアクセスが所定の条件を超えたときに、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して前記特定の視線方向の映像を前記通信部から送信し、前記所定の条件を超える情報処理装置に対して前記特定の視線方向以外の映像を前記通信部から送信する、
    情報端末装置。
  3. 撮像部と音声入力部と接続可能な情報端末装置の制御方法であって、
    外部の情報処理装置からアクセスを受け付けるアクセス受信ステップと、
    前記アクセス受信ステップで所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定ステップと、
    記優先順位に基づいて、前記撮像部から入力された画像情報の前記情報処理装置への送信を制御する制御ステップと、を有
    前記制御ステップにおいて、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して現在の映像を前記情報処理装置へ送信し、前記所定の条件を超える情報処理装置に対して過去の映像を前記情報処理装置へ送信する、
    制御方法。
  4. 撮像部と音声入力部と接続可能な情報端末装置の制御方法であって、
    外部の情報処理装置からアクセスを受け付けるアクセス受信ステップと、
    前記アクセス受信ステップで所定の条件を超える情報処理装置からアクセスを受け付けたときに、各情報処理装置に対して情報を提供する優先順位を設定する設定ステップと、
    記優先順位に基づいて、前記撮像部から入力された画像情報の前記情報処理装置への送信を制御する制御ステップと、を有
    前記制御ステップにおいて、特定の視線方向の映像へのアクセスが所定の条件を超えたときに、前記優先順位に応じて、前記所定の条件以内の情報処理装置に対して前記特定の視線方向の映像を前記情報処理装置へ送信し、前記所定の条件を超える情報処理装置に対して前記特定の視線方向以外の映像を前記情報処理装置へ送信する、
    制御方法。
  5. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信部と、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御部と、を具備し、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御部は、前記アクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への現在の映像の情報提供を制御し、前記第2の情報端末装置への過去の映像の情報提供を制御する、
    情報処理装置。
  6. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信部と、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御部と、を具備し、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御部は、前記コンテンツ情報としての特定の方向における映像に対するアクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への前記特定の方向における映像の情報提供を制御し、前記第2の情報端末装置への前記特定の方向の映像とは異なる映像の情報提供を制御する、
    を具備する情報処理装置。
  7. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、を有し、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御ステップにおいて、前記アクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への現在の映像の情報提供を制御し、前記第2の情報端末装置への過去の映像の情報提供を制御する、
    情報処理装置の制御方法。
  8. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、を有し、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御ステップにおいて、前記コンテンツ情報としての特定の方向における映像に対するアクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への前記特定の方向における映像の情報提供を制御し、前記第2の情報端末装置への前記特定の方向の映像とは異なる映像の情報提供を制御する、
    情報処理装置の制御方法。
  9. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
    をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御ステップは、前記アクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への現在の映像の情報提供を制御し、前記第2の情報端末装置への過去の映像の情報提供を制御することを含む、
    コンピュータ・プログラム
  10. 第1のユーザに関連付けられたコンテンツ情報に対する、複数の第2のユーザの情報端末装置からの直接的又は間接的なアクセス要求を受信するアクセス受信ステップと、
    定された優先順位に基づいて、前記情報端末装置それぞれへの情報提供を制御する制御ステップと、
    をコンピュータ上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、
    前記情報端末装置は、前記優先順位において、相対的に高い優先順位を有する第1の情報端末装置と、相対的に低い優先順位を有する第2の情報端末装置とを含み、
    前記制御ステップは、前記コンテンツ情報としての特定の方向における映像に対するアクセス要求が所定の条件を満たしたときに、前記第1の情報端末装置への前記特定の方向における映像の情報提供を制御し、前記第2の情報端末装置への前記特定の方向の映像とは異なる映像の情報提供を制御することを含む、
    コンピュータ・プログラム
JP2017546471A 2015-10-21 2016-09-29 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム Active JP6919568B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2015206950 2015-10-21
JP2015206950 2015-10-21
JPPCT/JP2016/078737 2016-09-28
PCT/JP2016/078737 WO2017068926A1 (ja) 2015-10-21 2016-09-28 情報処理装置及びその制御方法、並びにコンピュータ・プログラム
PCT/JP2016/078948 WO2017068928A1 (ja) 2015-10-21 2016-09-29 情報処理装置及びその制御方法、並びにコンピュータ・プログラム

Publications (2)

Publication Number Publication Date
JPWO2017068928A1 JPWO2017068928A1 (ja) 2018-08-30
JP6919568B2 true JP6919568B2 (ja) 2021-08-18

Family

ID=58557288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017546471A Active JP6919568B2 (ja) 2015-10-21 2016-09-29 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム

Country Status (5)

Country Link
US (1) US10986206B2 (ja)
EP (1) EP3367690A1 (ja)
JP (1) JP6919568B2 (ja)
CN (2) CN108141628B (ja)
WO (1) WO2017068926A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11388209B2 (en) * 2020-03-19 2022-07-12 DTEN, Inc. Interactive broadcast
JP6828205B1 (ja) * 2020-05-14 2021-02-10 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔作業装置とそのプログラム

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729542A (en) * 1995-06-28 1998-03-17 Motorola, Inc. Method and apparatus for communication system access
US7738688B2 (en) * 2000-05-03 2010-06-15 Aperio Technologies, Inc. System and method for viewing virtual slides
JP4329264B2 (ja) * 2000-12-27 2009-09-09 セイコーエプソン株式会社 アクセス権限レベル制御装置及び方法
JP4232419B2 (ja) 2001-09-18 2009-03-04 ソニー株式会社 送信装置、送信方法、コンテンツ配信装置、コンテンツ配信方法、及びプログラム
US7437472B2 (en) * 2001-11-28 2008-10-14 Interactive Content Engines, Llc. Interactive broadband server system
JP2004222254A (ja) 2002-12-27 2004-08-05 Canon Inc 画像処理システム、方法及びプログラム
JP2005302103A (ja) 2004-04-08 2005-10-27 Sony Corp 追っかけ再生装置,テレビジョン受像機,および追っかけ再生方法
JP4926400B2 (ja) 2004-12-27 2012-05-09 京セラ株式会社 移動カメラシステム
US9715899B2 (en) * 2006-01-19 2017-07-25 Elizabeth T. Guckenberger Intellimarks universal parallel processes and devices for user controlled presentation customizations of content playback intervals, skips, sequencing, loops, rates, zooms, warpings, distortions, and synchronized fusions
WO2007135627A2 (en) * 2006-05-18 2007-11-29 Nxp B.V. Mobile phone used within a client-server system
EP1868363B1 (en) * 2006-06-16 2009-05-27 Ericsson AB System, method and node for limiting the number of audio streams in a teleconference
JP5245257B2 (ja) 2006-11-22 2013-07-24 ソニー株式会社 画像表示システム、表示装置、表示方法
US8154583B2 (en) * 2007-05-31 2012-04-10 Eastman Kodak Company Eye gazing imaging for video communications
CN101453621B (zh) * 2007-12-03 2011-05-11 北大方正集团有限公司 视频服务器资源共享的方法、系统及装置
US20090168752A1 (en) * 2007-12-31 2009-07-02 Jonathan Segel Method and apparatus for distributing content
US9740293B2 (en) * 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
US8897920B2 (en) * 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US20110063440A1 (en) * 2009-09-11 2011-03-17 Neustaedter Carman G Time shifted video communications
WO2011149558A2 (en) * 2010-05-28 2011-12-01 Abelow Daniel H Reality alternate
JP2012033141A (ja) 2010-07-06 2012-02-16 Dowango:Kk 操作情報転送サーバ、操作情報転送システム、操作情報転送方法
JP5520190B2 (ja) 2010-10-20 2014-06-11 株式会社ソニー・コンピュータエンタテインメント 画像処理システム、画像処理方法、動画像送信装置、動画像受信装置、プログラム及び情報記憶媒体
US8856813B2 (en) * 2010-11-23 2014-10-07 Verizon Patent And Licensing Inc. Adaptive video quality substitution
US9282352B2 (en) * 2010-11-23 2016-03-08 Verizon Patent And Licensing Inc. Under-the-bottom time-shifted delivery of video content
EP2466852A1 (en) 2010-12-17 2012-06-20 Swisscom AG Digital content management
US9384594B2 (en) * 2011-03-29 2016-07-05 Qualcomm Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
JP5741172B2 (ja) * 2011-04-19 2015-07-01 ソニー株式会社 情報処理装置、通信システムおよび情報処理方法
US9015746B2 (en) * 2011-06-17 2015-04-21 Microsoft Technology Licensing, Llc Interest-based video streams
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
US20180316948A1 (en) * 2012-04-24 2018-11-01 Skreens Entertainment Technologies, Inc. Video processing systems, methods and a user profile for describing the combination and display of heterogeneous sources
US9260122B2 (en) * 2012-06-06 2016-02-16 International Business Machines Corporation Multisensor evidence integration and optimization in object inspection
US20180048750A1 (en) * 2012-06-15 2018-02-15 Muzik, Llc Audio/video wearable computer system with integrated projector
JP2014104185A (ja) 2012-11-28 2014-06-09 Sony Corp 運動補助装置及び運動補助方法
US9189288B2 (en) * 2012-12-06 2015-11-17 International Business Machines Corporation Executing a collective operation algorithm in a parallel computer
WO2014165109A1 (en) * 2013-03-12 2014-10-09 Rivada Networks Llc Methods and systems for dynamic spectrum arbitrage
US9538160B1 (en) * 2013-04-11 2017-01-03 Nextvr Inc. Immersive stereoscopic video acquisition, encoding and virtual reality playback methods and apparatus
US20150032810A1 (en) 2013-07-29 2015-01-29 Microsoft Corporation Content distribution using social relationships
US9766463B2 (en) * 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
RU2683262C2 (ru) 2014-02-17 2019-03-27 Сони Корпорейшн Устройство обработки информации, способ обработки информации и программа
US9691181B2 (en) * 2014-02-24 2017-06-27 Sony Interactive Entertainment Inc. Methods and systems for social sharing head mounted display (HMD) content with a second screen
US10416666B2 (en) * 2014-03-26 2019-09-17 Unanimous A. I., Inc. Methods and systems for collaborative control of a remote vehicle
WO2016024288A1 (en) * 2014-08-14 2016-02-18 Vats Nitin Realistic viewing and interaction with remote objects or persons during telepresence videoconferencing
US20160065669A1 (en) * 2014-09-03 2016-03-03 Agt International Gmbh Location-oriented team intercommunication
CN104394441B (zh) * 2014-11-27 2019-06-14 北京奇艺世纪科技有限公司 一种视频内容分发的调度方法、装置及系统
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US10701318B2 (en) * 2015-08-14 2020-06-30 Pcms Holdings, Inc. System and method for augmented reality multi-view telepresence
US10491711B2 (en) * 2015-09-10 2019-11-26 EEVO, Inc. Adaptive streaming of virtual reality data
US10812755B2 (en) * 2015-10-14 2020-10-20 Utility Associates, Inc. Article of clothing with video recording device support
JP6124985B1 (ja) * 2015-12-24 2017-05-10 株式会社コロプラ 映像コンテンツ配信システム及びコンテンツ管理サーバ
US10334224B2 (en) * 2016-02-19 2019-06-25 Alcacruz Inc. Systems and method for GPU based virtual reality video streaming server
US9928660B1 (en) * 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
US10595069B2 (en) * 2016-12-05 2020-03-17 Adobe Inc. Prioritizing tile-based virtual reality video streaming using adaptive rate allocation
KR102553190B1 (ko) * 2016-12-29 2023-07-07 매직 립, 인코포레이티드 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어
CA3059234A1 (en) * 2017-04-19 2018-10-25 Magic Leap, Inc. Multimodal task execution and text editing for a wearable system
KR102666475B1 (ko) * 2017-07-26 2024-05-21 매직 립, 인코포레이티드 사용자 인터페이스 디바이스들의 표현들을 이용한 뉴럴 네트워크 트레이닝

Also Published As

Publication number Publication date
WO2017068926A1 (ja) 2017-04-27
US20190068749A1 (en) 2019-02-28
CN113422968A (zh) 2021-09-21
JPWO2017068928A1 (ja) 2018-08-30
CN108141628B (zh) 2021-07-02
US10986206B2 (en) 2021-04-20
EP3367690A4 (en) 2018-08-29
EP3367690A1 (en) 2018-08-29
CN108141628A (zh) 2018-06-08

Similar Documents

Publication Publication Date Title
US9686466B1 (en) Systems and methods for environment content sharing
US10771739B2 (en) Information processing device and information processing method
KR102516096B1 (ko) 정보 처리 시스템 및 정보 처리 방법
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
WO2017064926A1 (ja) 情報処理装置及び情報処理方法
JPWO2018216355A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JPWO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP6919568B2 (ja) 情報端末装置及びその制御方法、情報処理装置及びその制御方法、並びにコンピュータ・プログラム
CN116490249A (zh) 信息处理装置、信息处理系统、信息处理方法和信息处理终端
WO2017068928A1 (ja) 情報処理装置及びその制御方法、並びにコンピュータ・プログラム
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
US20240196045A1 (en) Video display system, observation device, information processing method, and recording medium
US20210354035A1 (en) Interaction in a multi-user environment
JP2024140478A (ja) プログラム、情報処理装置、及び、情報処理システム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190515

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210705

R151 Written notification of patent or utility model registration

Ref document number: 6919568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151