JP6809539B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents
情報処理装置、情報処理方法、およびプログラム Download PDFInfo
- Publication number
- JP6809539B2 JP6809539B2 JP2018561810A JP2018561810A JP6809539B2 JP 6809539 B2 JP6809539 B2 JP 6809539B2 JP 2018561810 A JP2018561810 A JP 2018561810A JP 2018561810 A JP2018561810 A JP 2018561810A JP 6809539 B2 JP6809539 B2 JP 6809539B2
- Authority
- JP
- Japan
- Prior art keywords
- real space
- display
- image
- moving image
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 45
- 238000003672 processing method Methods 0.000 title claims description 9
- 238000004891 communication Methods 0.000 description 58
- 238000000034 method Methods 0.000 description 26
- 238000001514 detection method Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 14
- 238000012986 modification Methods 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 238000011156 evaluation Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 230000033001 locomotion Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 9
- 230000000873 masking effect Effects 0.000 description 8
- 230000005484 gravity Effects 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- YYSFXUWWPNHNAZ-OSDRTFJJSA-N 851536-75-9 Chemical compound C1[C@@H](OC)[C@H](OCCOCC)CC[C@H]1C[C@@H](C)[C@H]1OC(=O)[C@@H]2CCCCN2C(=O)C(=O)[C@](O)(O2)[C@H](C)CCC2C[C@H](OC)/C(C)=C/C=C/C=C/[C@@H](C)C[C@@H](C)C(=O)[C@H](OC)[C@H](O)/C(C)=C/[C@@H](C)C(=O)C1 YYSFXUWWPNHNAZ-OSDRTFJJSA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/84—Camera processing pipelines; Components thereof for processing colour signals
- H04N23/88—Camera processing pipelines; Components thereof for processing colour signals for colour balance, e.g. white-balance circuits or colour temperature control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/73—Colour balance circuits, e.g. white balance circuits or colour temperature control
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
1.情報処理システムの構成
2.実施形態の詳細な説明
3.ハードウェア構成
4.変形例
まず、本開示の実施形態による情報処理システムの構成例について、図1を参照して説明する。図1に示すように、本実施形態による情報処理システムは、サーバ10、記録装置20、再生装置30、および、通信網32を有する。
記録装置20は、実空間のデプス情報および動画を記録するための装置である。記録装置20は、カメラ(RGBカメラ)を含み得る。そして、記録装置20は、例えばユーザの操作などに基いて、動画を撮影することが可能である。例えば、記録装置20は、当該カメラに含まれるレンズを介して、当該カメラに含まれる撮像素子に集光することにより、動画を撮影する。
サーバ10は、本開示における情報処理装置の一例である。サーバ10は、記録装置20により記録された動画などの情報を管理するための装置である。例えば、サーバ10は、受信された動画、デプスマップ、および、メタ情報を関連付けて管理する。
再生装置30は、記録装置20により記録された、動画およびデプスマップに応じた映像を表示するための装置である。例えば、再生装置30は、(再生装置30の)現在の位置情報の近辺で記録された動画およびデプスマップの提供をサーバ10に対して要求する。そして、再生装置30は、サーバ10から受信される動画およびデプスマップに応じた映像を表示する。
通信網32は、通信網32に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網32は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網32は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
以上、本実施形態による情報処理システムの構成について説明した。ところで、従来、VR(Virtual Reality)に関する技術が各種開発されている。この技術によれば、仮想空間の映像を視聴者に視聴させることにより、当該仮想空間に入り込むような体験を視聴者に提示することができる。
<2−1.構成:再生装置30>
次に、本実施形態による再生装置30の構成について詳細に説明する。図2は、本実施形態による再生装置30の構成例を示した機能ブロック図である。図2に示すように、再生装置30は、制御部300、通信部320、位置情報受信部322、センサ部324、表示部326、および、記憶部328を有する。
制御部300は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)などの処理回路を含んで構成され得る。制御部300は、再生装置30の動作を統括的に制御する。また、図2に示すように、制御部300は、位置情報取得部302、検出結果取得部304、認識部306、動画取得部308、および、表示制御部310を有する。
位置情報取得部302は、後述する位置情報受信部322による測定結果や、後述するセンサ部324によるセンシング結果に基いて、再生装置30の現在の位置情報を取得する。例えば、位置情報取得部302は、位置情報受信部322により受信された、一種類の衛星からの測位信号に基いて現在の位置情報を特定する。または、位置情報取得部302は、複数の種類の衛星から受信された測位信号の組合わせに基いて現在の位置情報を特定することも可能である。
検出結果取得部304は、センサ部324によるセンシング結果を取得する。例えば、検出結果取得部304は、センサ部324により撮影された画像、センシングされたデプスマップ、および、センシングされた(再生装置30の)姿勢や加速度などを取得する。
認識部306は、検出結果取得部304により取得されたセンシング結果に基いて、各種の認識処理を行う。例えば、認識部306は、センサ部324により撮影される、再生装置30を使用するユーザ(以下、視聴者と称する場合がある)の眼の画像に基いて、当該ユーザの視線方向を逐次認識する。また、検出結果取得部304は、センサ部324により集音された、視聴者の発話を音声認識し、そして、認識結果の意味を解析する。
動画取得部308は、位置情報取得部302により取得された位置情報に対応する、動画およびデプスマップをサーバ10から取得する。例えば、動画取得部308は、取得された位置情報を含む、動画の取得要求をサーバ10へ通信部320に送信させることにより、当該位置情報に対応する動画、および、当該動画に関連付けられているデプスマップをサーバ10から取得する。ここで、当該動画の取得要求は、さらに、検出結果取得部304により取得された再生装置30の姿勢の情報、および、認識部306による認識結果などを含んでもよい。
表示制御部310は、動画取得部308により取得された動画およびデプスマップに応じた映像を表示部326に表示させる。例えば、表示制御部310は、まず、取得された動画およびデプスマップに基いて三次元データを構成する。そして、表示制御部310は、当該三次元データと、表示部326の位置情報および姿勢情報とに基いて、表示部326に表示される映像を決定し、そして、当該映像を表示部326に表示させる。
通信部320は、例えば通信アンテナやネットワークカードなどを含んで構成され得る。通信部320は、他の装置との間で情報の送受信を行う。例えば、通信部320は、動画取得部308の制御に従って、動画の取得要求をサーバ10へ送信する。また、通信部320は、動画およびデプスマップをサーバ10から受信する。
位置情報受信部322は、例えばGPS、GLONASS、ガリレオ、北斗、または、みちびきなどの測位衛星から測位信号を受信する受信機を含んで構成され得る。なお、位置情報受信部322は、一種類の衛星から測位信号を受信することも可能であるし、または、複数の種類の衛星による測位信号を受信し、かつ、受信した信号を組み合わせて現在位置を測位することも可能である。
センサ部324は、例えば、カメラ(イメージセンサ)、デプスセンサ、マイクロフォン、加速度センサ、ジャイロスコープ、地磁気センサなどを含んで構成され得る。例えば、センサ部324は、外環境(例えば再生装置30の前方など)の画像を撮影したり、デプスマップをセンシングする。また、センサ部324は、外環境の音声を集音する。また、センサ部324は、再生装置30の姿勢や加速度などをセンシングする。
表示部326は、表示制御部310の制御に従って、映像を表示する。例えば、表示部326は、画像投影デバイスを有し、かつ、再生装置30は、左目用レンズおよび右目用レンズ(またはゴーグル型レンズ)を有し得る。この場合、当該画像投影デバイスは、左目用レンズおよび右目用レンズ(またはゴーグル型レンズ)のそれぞれ少なくとも一部の領域を投影面として映像を投影する。なお、左目用レンズおよび右目用レンズ(またはゴーグル型レンズ)は、例えば樹脂やガラスなどの透明材料により形成され得る。
記憶部328は、各種のデータや各種のソフトウェアを記憶する。
次に、本実施形態によるサーバ10の構成について詳細に説明する。図3は、本実施形態によるサーバ10の構成例を示した機能ブロック図である。図3に示すように、サーバ10は、制御部100、通信部120、および、記憶部122を有する。
制御部100は、例えば、後述するCPU150やGPUなどの処理回路を含んで構成され得る。制御部100は、サーバ10の動作を統括的に制御する。また、図3に示すように、制御部100は、登録部102、選択部104、決定部106、および、表示制御部108を有する。
登録部102は、記録装置20から受信される、動画、デプスマップ、および、メタ情報などを動画DB124に登録する。例えば、登録部102は、記録装置20から動画やデプスマップが取得される度に、当該動画やデプスマップを動画DB124に逐次登録する。
図4は、動画DB124の構成例を示した説明図である。図4に示したように、動画DB124では、例えば、位置情報1240、メタ情報1248、動画データ1250、および、デプスマップ1252が関連付けられる。ここで、位置情報1240には、該当の動画およびデプスマップが記録された位置情報が格納される。また、図4に示したように、位置情報1240は、例えば、緯度1242、経度1244、および、エリア1246などを含む。緯度1242および経度1244には、該当の動画およびデプスマップが記録された緯度および経度がそれぞれ格納される。また、エリア1246には、該当の動画およびデプスマップが記録された例えば施設内の具体的な位置(例えば、当該施設内の階や部屋の番号など)が格納される。
(2−2−3−1.位置情報に基づく選択)
‐選択例1
選択部104は、再生装置30から受信された、動画の取得要求に基いて、再生対象の動画を動画DB124から選択する。例えば、選択部104は、受信された、動画の取得要求に含まれる位置情報および姿勢情報に基いて、再生対象の動画を動画DB124から選択する。一例として、選択部104は、動画DB124に格納されている複数の動画のうち、受信された取得要求に含まれる位置情報の最も近くで撮影された動画を再生対象の動画として選択してもよい。または、選択部104は、受信された取得要求に含まれる位置情報と、撮影時の位置情報との差異、および、当該取得要求に含まれる姿勢情報と、撮影時の姿勢情報との差異の組み合わせが最も小さい動画を動画DB124において検索し、かつ、特定した動画を再生対象の動画として選択してもよい。
または、選択部104は、受信された、動画の取得要求に含まれる位置情報から所定の範囲内の位置情報に関連付けられている複数の動画の中から視聴者に指定された動画を、再生対象の動画として選択することも可能である。例えば、選択部104は、まず、受信された位置情報から所定の範囲内の位置情報に関連付けられている全ての動画を、再生対象の動画の候補として動画DB124から選択する。続いて、選択部104は、選択した再生対象の動画の候補の各々のメタ情報を再生装置30へ通信部120に送信させる。
または、受信された、動画の取得要求の中に、ユーザの指定情報(例えば動画の検索用キーワードなど)が含まれる場合には、選択部104は、当該指定情報に対応する動画を再生対象の動画として動画DB124から選択する。なお、当該指定情報に対応する動画が複数存在する場合には、選択部104は、当該複数の動画のうちのいずれか一つを再生対象の動画として選択してもよいし、または、当該複数の動画全てを、(同時に再生される)再生対象の動画として選択してもよい。
‐切り替え例1
また、選択部104は、再生装置30による再生中の動画を別の動画に動的に切り替えることも可能である。例えば、選択部104は、再生装置30によりセンシングされる位置情報の変化に基いて、再生中の動画とは異なる動画を再生対象の動画として動的に選択する。
なお、再生される動画が頻繁に切り替わると視聴者に不自然に知覚され得る。そこで、選択部104は、ヒステリシスを持たせて、再生中の動画を別の動画に切り替えてもよい。例えば、現在再生中の動画よりも、他のいずれかの動画の方が、算出された評価値が大きい状態の継続時間の長さが一定の時間よりも大きくなった場合に限り、選択部104は、再生中の動画を、評価値が最大である別の動画に切り替えてもよい。
決定部106は、選択部104により選択された再生対象の動画に応じた映像が再生装置30により表示される際の、当該映像の表示に関する設定を、所定の基準に基いて決定する。例えば、決定部106は、受信された、動画の取得要求に基いて、当該映像の表示に関する設定を決定する。
ここで、当該表示条件は、再生対象の動画が再生装置30により表示される際の表示位置や向きを含み得る。例えば、決定部106は、当該取得要求に含まれるデプスマップと、再生対象の動画に関連付けられているデプスマップとの比較に基いて、再生対象の動画が表示される位置や向きを決定する。一例として、決定部106は、当該取得要求に含まれるデプスマップ、および、当該動画に関連付けられているデプスマップから特定される共通の平面が一致するように、当該動画の表示位置や向きを調整することにより、再生対象の動画を表示させることを決定する。また、決定部106は、当該取得要求に含まれるデプスマップから特定される複数の特徴点のうちの一部と、当該動画に関連付けられているデプスマップから特定される複数の特徴点のうちの一部とが一致するように、当該動画の表示位置や向きを調整することにより、再生対象の動画を表示させることを決定する。
また、上記の表示条件は、再生装置30が位置する実空間において該当の動画が表示される表示領域を含み得る。この場合、決定部106は、当該取得要求に含まれるデプスマップに基づいて、当該表示領域を決定することが可能である。
例えば、決定部106は、当該取得要求に含まれるデプスマップから特定される平面に基づいて、該当の動画の表示領域を決定する。さらに、決定部106は、当該取得要求に含まれるデプスマップから特定される垂直方向(重力方向)に基いて、該当の動画の表示領域を決定することも可能である。例えば、決定部106は、当該取得要求に含まれるデプスマップから特定されるいずれかの平面と、当該デプスマップから特定される垂直方向とに基いた所定の三次元空間を、該当の動画の表示領域として決定する。
また、決定部106は、当該取得要求に含まれるデプスマップと、再生装置30により表示されるGUIに対する視聴者の操作の検出結果とに基いて、該当の動画の表示領域を決定することも可能である。なお、GUIは、本開示における操作画像の一例である。
図6は、GUIの表示例を示した説明図である。なお、図6に示した例では、ある部屋の中に再生装置30が位置しており、かつ、再生装置30の表示部326には、図6に示したようなGUI420が、当該部屋内のテーブルの天面上に表示されている例を示している。
図7は、GUIの別の表示例を示した説明図である。なお、図7に示した例では、該当の動画に関する特定の表示パラメータの値を視聴者が指定するためのメニュー430が、図6に示したGUI420とともに表示部326に表示される例を示している。図7に示したように、メニュー430は、例えば、該当の動画の表示領域を近傍の平面にスナップさせるか否かを指定するための指定欄432a、該当の動画の高さ方向を実空間の重力方向と一致させて表示させるか否かを指定するための指定欄432b、および、該当の動画の表示サイズを原寸大に設定するか否かを指定するための指定欄432cを含む。
また、決定部106は、当該取得要求に含まれるデプスマップに基づいて、該当の動画の表示領域の候補(以下、領域候補と称する)を複数決定し、そして、当該複数の領域候補の中から視聴者に選択されたと判定される領域候補に基いて、当該動画の表示領域を決定することも可能である。
また、(例えばユーザの指定などに基いて)複数の動画が同時に再生される場合には、決定部106は、当該複数の動画が所定の位置関係で整列して表示されるように、当該複数の動画の各々の表示領域を決定することも可能である。例えば、決定部106は、表示部326に表示されるGUIに対する操作の検出結果や音声コマンドの検出結果などに基いて、再生対象の複数の動画の各々の中心位置が一定の間隔で配置されるように、当該複数の動画の表示領域を決定する。または、決定部106は、当該複数の動画の各々の中心位置が一致したり、または、当該複数の動画の各々の中心位置に関して特定の軸方向が一致するように、当該複数の動画の表示領域を決定する。または、決定部106は、当該複数の動画の垂直方向(重力方向)が一致するように、当該複数の動画の表示領域を決定する。
また、決定部106は、所定の基準に基いて、再生対象の動画のうちの一部の領域のみを再生装置30に表示させることを決定することも可能である。例えば、決定部106は、再生対象の動画のうち、所定の基準に基いて定められた前景部分の領域のみを再生装置30に表示させることを決定してもよい。
‐‐仮想物に対する指示
ここで、前景部分に対応する空間は、動画ごとに、当該動画の撮影者により予め設定され得る。例えば、前景部分に対応する空間は、仮想物に対する撮影者(または当該動画の投稿者)の指示に基いて設定され得る。一例として、所定の操作画面に対する撮影者の入力に基づいて、前景部分に対応する空間が設定され得る。ここで、当該操作画面には、記録装置20によりセンシングされたデプスマップに基づいた映像が表示され得る。例えば図11に示したように、当該操作画面に表示されている映像中で、ユーザにより所定のオブジェクト(例えば立方体、球、または、メッシュなど)が配置された場合には、当該オブジェクトに対応する空間が前景として設定され得る。また、ユーザにより複数のオブジェクトが配置された場合には、当該複数のオブジェクトの合成(例えば和や積など)に対応する空間が前景部分として設定され得る。なお、動画の再生時刻ごとに、前景部分は別々に設定されてもよい。
または、前景部分に対応する空間は、実空間において撮影者が移動した経路の検出結果に基いて設定されてもよい。例えば、まず、実空間において撮影者が移動した経路がセンシングされ、そして、当該経路に対応する閉平面(閉領域)が特定され得る。そして、特定された閉平面と、重力方向と、高さの設定値(例えば床から天井までの高さ、または、予め設定されている上限値および下限値など)とに対応する空間が、前景部分に対応する空間として設定され得る。なお、この場合、設定された空間の範囲を示す表示が、撮影者が位置する実空間内の表示部(図示省略)により表示されてもよい。ここで、当該表示部は、撮影者が装着するHMDであってもよいし、または、プロジェクタなどであってもよい。なお、記録装置20が当該表示部を備えてもよい。
または、前景部分に対応する空間は、動画ごとに、当該動画、または、当該動画に関連付けられているデプスマップに基いた物体認識の結果に応じて設定されてもよい。
または、前景部分に対応する空間は、動画ごとに、当該動画、または、当該動画に関連付けられているデプスマップに基いた、物体の動きの認識結果に応じて設定されてもよい。例えば、当該デプスマップから生成されるポイントクラウドに基いて動きベクトルが認識され、そして、認識された動きベクトルに対応する空間が、前景部分に対応する空間として設定されてもよい。
または、前景部分に対応する空間は、再生対象の動画の撮影時の三次元情報と、当該動画が再生される際の三次元情報との比較結果に基いて設定されてもよい。
‐色温度の調整
なお、照明条件などが撮影時と再生時とで大きく異なる場合(例えば、夜に撮影した映像が昼に再生される場合など)には、再生対象の動画がそのまま、再生時の環境において表示されると、色調が大きく異なるので、視聴者に不自然に知覚され得る。そこで、決定部106は、再生対象の動画の背景部分をマスクする処理を行ったり、または、再生装置30のカメラにより撮影された画像に基いて、再生対象の動画に対して色変換を行ってもよい。
また、特に再生装置30が非透過型のHMDである場合において、再生装置30のカメラで撮影される画像の解像度と、該当の動画の解像度とが異なる場合には、決定部106は、解像度が低い方の解像度まで、もう一方の解像度を低下させる処理を行うことが可能である。
‐映像の表示態様の変更
また、決定部106は、さらに、視聴者の課金状態を示すデータ、または、視聴者の権限を示すデータに基いて、該当の動画の表示サイズを決定することが可能である。ここで、視聴者の課金状態を示すデータ、または、視聴者の権限を示すデータは、ユーザDB126に格納され得る。ここで、ユーザDB126は、各ユーザ(撮影者や視聴者など)に関する情報が格納されたデータベースである。
また、決定部106は、視聴者が支払った金額に応じて、該当の動画に対する視聴者による加工の可否を設定することも可能である。例えば、支払われた金額が所定の金額以上である場合には、決定部106は、視聴者が所定の仮想オブジェクト(例えば宣伝のノボリなど)を該当の動画に対して追加可能なように設定してもよい。なお、当該仮想のオブジェクトが追加された後は、該当の動画が他の視聴者により再生される場合に関しても、当該仮想のオブジェクトが追加された状態で該当の動画が再生され得る。
また、決定部106は、所定の基準に基いて、該当の動画の表示モードを決定することも可能である。例えば、空間固定モードおよび移動体固定モードの二種類の表示モードが予め用意され得る。この場合、決定部106は、ユーザの指定に基いて、当該二種類の表示モードのうちのいずれかを表示モードとして決定してもよい。または、決定部106は、決定された表示領域(例えば表示領域のサイズなど)に基いて、当該二種類の表示モードのうちのいずれかを表示モードとして自動的に決定してもよい。
また、決定部106は、再生対象の動画が再生装置30により表示が開始される際の再生開始タイミングを、所定の基準に基いて決定することも可能である。例えば、決定部106は、再生装置30によるセンシング結果(例えば、撮影された画像など)に基づいて、当該再生開始タイミングを決定する。一例として、該当の動画が折り紙のレクチャーの映像を含み、かつ、視聴者の手が前方へ差し出された画像が、再生装置30のカメラにより撮影された場合には、表示制御部108は、当該動画中の当該レクチャーの開始タイミングを当該再生開始タイミングとして決定してもよい。
(2−2−5−1.動画サイトの表示)
表示制御部108は、再生装置30に対する各種の情報の表示を制御する。例えば、表示制御部108は、再生装置30から受信される、動画の取得要求に基いて、当該取得要求に対応する動画の一覧を示す画面を再生装置30に表示させることが可能である。一例として、表示制御部108は、受信された取得要求に含まれる位置情報やキーワードなどを検索キーとして動画DB124において検索を行い、そして、検索された動画の一覧を示す画面(例えば各動画のタイトル、サムネイル、記録時の位置情報などを含む画面)を再生装置30に表示させる。
また、表示制御部108は、再生対象の動画、および、当該動画に関連付けられているデプスマップに応じた映像を、決定部106により決定された当該映像の表示に関する設定に基いて再生装置30に表示させる。例えば、表示制御部108は、まず、決定部106により決定された当該映像の表示領域において、かつ、決定された表示サイズで、当該映像を表示させるための制御情報を生成する。そして、表示制御部108は、再生対象の動画と、当該動画に関連付けられているデプスマップと、当該制御情報とを再生装置30へ通信部120に送信させる。
また、表示制御部108は、再生時の状況を示すデータに基いて、該当の映像の再生速度や再生位置を変更することも可能である。例えば、該当の動画中に手の画像が含まれる場合には、表示制御部108は、再生装置30のカメラにより撮影された画像に基いて認識された視聴者の手と、当該動画中の手の画像とがサイズが合うように、該当の映像のスケール(表示倍率)を変更してもよい。これにより、視聴者は、該当の映像における手の動きをより理解しやすくなる。
なお、変形例として、表示制御部108は、例えば再生装置30の位置や姿勢が、再生対象の動画の撮影時の記録装置20の位置や姿勢から大きく外れた場合などに、当該動画に応じた映像がより適切に見える位置や方向を示すガイド表示(例えば矢印のアイコンなど)や警告を、当該映像に重畳させて再生装置30に表示させることも可能である。ここで、ガイド表示は、再生装置30の位置および姿勢を、当該動画の撮影時の記録装置20の位置および姿勢に近づけるように視聴者をガイドするための表示であってもよい。
また、表示制御部108は、例えば広告、コメント、または、キャプションなどの仮想オブジェクトを、該当の映像に重畳させて再生装置30に表示させることも可能である。例えば、実空間における面(壁や道路など)、空中、または、実空間に設置されている所定のマーカーなどと関連付けて広告が予め所定のデータベース(図示省略)に登録され得る。この場合、表示制御部108は、例えば、再生装置30から受信された位置情報および姿勢情報に対応する広告を当該データベースから抽出し、そして、抽出した広告を該当の映像に重畳させて再生装置30(の表示部326)に表示させてもよい。さらに、サーバ10(の制御部100)は、視聴者が向いている方向や視聴者の視線方向の検出結果に対応する空間に関連付けられている広告が視聴者により閲覧されたと判定することにより、個々の広告のヒット率またはヒット回数などを算出することが可能である。これにより、広告会社は、算出されたヒット率やヒット回数に応じた広告料を、該当の動画の撮影者や投稿者に支払うことができる。
通信部120は、例えば、後述する通信装置162を含んで構成され得る。通信部120は、他の装置との間で情報の送受信を行う。例えば、通信部120は、動画、デプスマップ、および、メタ情報を記録装置20から受信する。また、通信部120は、動画の取得要求を再生装置30から受信する。また、通信部120は、表示制御部108の制御に従って、動画、デプスマップ、および、制御情報を再生装置30へ送信する。
記憶部122は、例えば、後述するストレージ装置160を含んで構成され得る。記憶部122は、各種のデータ、および、各種のソフトウェアを記憶する。例えば、図3に示したように、記憶部122は、動画DB124およびユーザDB126を記憶する。
以上、本実施形態の構成について説明した。次に、本実施形態による処理の流れの一例について、図15および図16を参照して説明する。なお、ここでは、再生装置30を使用するユーザが、サーバ10に登録されている動画の視聴を希望する場面における処理の流れの例について説明する。
{2−4−1.効果1}
以上説明したように、本実施形態によれば、サーバ10は、記録装置20によりセンシングされたデプスマップに応じた映像が再生装置30により表示される際の、当該映像の表示に関する設定を、再生装置30が位置する空間におけるセンシング結果に基いて決定する。このため、例えば、サーバ10は、再生装置30が位置する空間に最適化された映像を再生装置30に表示させることができる。
また、本実施形態によれば、視聴者は、サーバ10に登録されている動画を通常の2Dの動画として見るか、ARとして体験するか、または、VRとして体験するかを自由に選択することができる。
また、本実施形態によれば、視聴者は、動画が撮影された場所において撮影時の状況を追体験するのか、または、撮影された場所とは異なる場所において当該動画を視聴するのかを選択することができる。また、追体験することが選択された場合には、サーバ10は、視聴者の動作に合わせて該当の映像の再生速度やスケールをリアルタイムに変更することができる。このため、視聴者は、例えば当該映像に含まれる動きをより直接的、かつ、詳細に視聴することができる。
また、本実施形態によれば、従来の2次元の動画撮影と同様の作業手順で、3次元の映像を記録したり、再生することができる。また、例えば、ポイントクラウドのレジストレーションなど特殊な環境は不要である。
次に、本実施形態の適用例について、「2−5−1.適用例1」および「2−5−2.適用例2」において説明する。
まず、本実施形態の適用例1について説明する。この適用例1は、街頭で行われたスケートボーディングの様子が撮影された動画を、視聴者(ユーザA)が同じ場所で視聴する場面の適用例である。
次に、本実施形態の適用例2について説明する。この適用例2は、あるユーザ(ユーザA)が自分のダンスの動画を撮影し、そして、当該動画をサーバ10へアップロードする場面の適用例である。
以上、本実施形態の適用例について説明した。次に、本実施形態によるサーバ10のハードウェア構成について、図17を参照して説明する。図17に示すように、サーバ10は、CPU150、ROM(Read Only Memory)152、RAM154、バス156、インターフェース158、ストレージ装置160、および通信装置162を備える。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、同期して撮影された複数の動画が動画DB124に登録されている場合には、サーバ10(の選択部104)は、再生対象の動画として当該複数の動画を纏めて選択し、かつ、表示制御部108は、当該複数の動画を同時に再生装置30(の表示部326)に表示させてもよい。または、表示制御部108は、(当該複数の動画の代わりに)当該複数の動画に基いて生成される三次元情報(例えばデプスデータ、ポイントクラウド、または、メッシュなど)を再生装置30に表示させてもよい。この変形例によれば、例えば、再生装置30の位置や姿勢が、動画の撮影時の記録装置20の位置や姿勢から大きくズレたとしても、描画の破たんを軽減することができる。
また、サーバ10(の表示制御部108)は、例えばユーザの指示に基いて、再生対象の動画として選択された(単一の)動画に関して複数の再生開始時刻を設定してもよい。そして、表示制御部108は、当該複数の再生開始時刻の各々に関して、互いに異なる表示領域において当該動画を当該再生開始時刻で、再生装置30の表示部326に同時に表示させてもよい。つまり、当該複数の再生開始時刻の数だけ、単一の動画が同時に再生され得る。これにより、特にスポーツ選手のフォームを確認する場面や、監視カメラで撮影された動画を確認する場面などにおいて、視聴者は、動画中の動きの変化などを詳細に確認することができる。
また、上述した実施形態では、サーバ10が、再生対象の動画を選択したり、また、当該動画の表示領域を決定する例について説明したが、かかる例に限定されない。例えば、再生装置30が、再生対象の動画を選択したり、また、当該動画の表示領域を決定してもよい。つまり、上述した選択部104、決定部106、および、表示制御部108の機能の全部または一部は、サーバ10の代わりに、再生装置30が有してもよい。また、この場合、本開示における情報処理装置は、再生装置30であり得る。
また、上述した実施形態による情報処理システムの構成は、図1に示した例に限定されない。例えば、図1では、サーバ10が一台だけ図示されているが、かかる例に限定されず、複数台のコンピュータが協同して動作することにより、本実施形態によるサーバ10の機能が実現されてもよい。
また、上述した実施形態の処理の流れにおける各ステップは、必ずしも記載された順序に沿って処理されなくてもよい。例えば、各ステップは、適宜順序が変更されて処理されてもよい。また、各ステップは、時系列的に処理される代わりに、一部並列的に又は個別的に処理されてもよい。また、記載されたステップのうちの一部が省略されたり、または、別のステップがさらに追加されてもよい。
(1)
第1の実空間においてセンシングされた第1の三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基いて決定する決定部、
を備える、情報処理装置。
(2)
前記映像は、前記第1の三次元情報のセンシングと関連付けて前記第1の実空間において撮影された動画と、前記第1の三次元情報とに応じて生成される、前記(1)に記載の情報処理装置。
(3)
前記映像の表示に関する設定は、前記第2の実空間において前記映像が表示される表示領域に関する設定を含み、
前記決定部は、前記第2の実空間におけるセンシング結果に基いて、前記映像の表示領域を決定し、
前記第2の実空間内の表示部により、前記映像の表示領域と関連付けて前記映像は表示される、前記(2)に記載の情報処理装置。
(4)
前記第2の実空間におけるセンシング結果は、前記第2の実空間においてセンシングされた第2の三次元情報を含む、前記(3)に記載の情報処理装置。
(5)
前記決定部は、前記第2の実空間における平面のセンシング結果と、前記第2の実空間における垂直方向のセンシング結果とに基いて、前記映像の表示領域を決定する、前記(4)に記載の情報処理装置。
(6)
前記決定部は、前記第2の実空間におけるセンシング結果に基いて、前記第2の実空間において前記映像の表示領域の複数の候補を決定し、
前記情報処理装置は、前記映像の表示領域の前記複数の候補を前記表示部に表示させる表示制御部をさらに備え、
前記決定部は、前記映像の表示領域の前記複数の候補のうち、前記第2の実空間内のユーザに選択されたと判定される候補を前記映像の表示領域として決定する、前記(3)〜(5)のいずれか一項に記載の情報処理装置。
(7)
前記決定部は、さらに、前記第1の実空間においてセンシングされた複数の三次元情報に応じた複数の映像が前記第2の実空間において表示される際に、前記複数の映像の各々が所定の位置関係で表示されるように前記複数の映像の各々の表示領域を決定する、前記(3)〜(6)のいずれか一項に記載の情報処理装置。
(8)
前記映像の表示に関する設定は、さらに、前記映像の表示サイズに関する設定を含む、前記(3)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記決定部は、前記映像の表示領域のサイズに応じて前記映像の表示サイズを決定する、前記(8)に記載の情報処理装置。
(10)
前記映像の表示に関する設定は、さらに、前記映像の再生速度または再生開始タイミングに関する設定を含む、前記(9)に記載の情報処理装置。
(11)
前記映像の表示に関する設定は、さらに、前記映像の表示モードに関する設定を含み、
前記決定部は、前記第1の実空間内の所定の空間を基準とした映像が継続して表示される第1の表示モード、および、前記第1の実空間内の所定の移動体を基準とした映像が継続して表示される第2の表示モードのうちのいずれかを、前記第2の実空間におけるセンシング結果に基いて前記映像の表示モードとして決定する、前記(9)または(10)に記載の情報処理装置。
(12)
情報処理装置は、前記映像の表示領域と関連付けて前記映像を前記表示部に表示させる表示制御部をさらに備える、前記(9)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記表示制御部は、前記決定部により決定された前記映像の表示領域において、前記決定部により決定された表示サイズで前記映像を前記表示部に表示させる、前記(12)に記載の情報処理装置。
(14)
前記映像は、前記第1の三次元情報または前記動画に基づいて認識される所定の物体を含む、前記第1の実空間内の所定の空間に対応する映像である、前記(13)に記載の情報処理装置。
(15)
前記映像は、前記第1の実空間内の、ユーザに指定された所定の空間に対応する映像である、前記(13)に記載の情報処理装置。
(16)
前記第2の実空間におけるセンシング結果は、前記第2の実空間において撮影された画像を含み、
前記動画から特定される色温度と、当該撮影された画像から特定される色温度との比較に基いて前記動画の色情報が補正され、かつ、補正後の前記動画に応じて前記映像が生成される、前記(13)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記第2の実空間におけるセンシング結果は、前記第2の実空間の位置情報のセンシング結果を含み、
前記映像は、さらに、前記第1の実空間と前記第2の実空間との位置関係に応じて生成される、前記(2)〜(16)のいずれか一項に記載の情報処理装置。
(18)
前記第1の実空間は、前記第2の実空間から所定の閾値以内に位置する空間である、前記(17)に記載の情報処理装置。
(19)
第1の実空間においてセンシングされた第1の三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基いてプロセッサが決定すること、
を含む、情報処理方法。
(20)
コンピュータを、
第1の実空間においてセンシングされた第1の三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基いて決定する決定部、
として機能させるための、プログラム。
20 記録装置
30 再生装置
32 通信網
100、300 制御部
102 登録部
104 選択部
106 決定部
108、310 表示制御部
120、320 通信部
122、328 記憶部
124 動画DB
126 ユーザDB
302 位置情報取得部
304 検出結果取得部
306 認識部
308 動画取得部
322 位置情報受信部
324 センサ部
326 表示部
Claims (9)
- 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、を備え、
前記決定部は、前記第2の実空間における平面のセンシング結果と、前記第2の実空間における垂直方向のセンシング結果とに基づいて、前記映像の表示領域を決定する、
情報処理装置。 - 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、を備え、
前記決定部は、前記第2の実空間におけるセンシング結果に基づいて、前記第2の実空間において前記映像の表示領域の複数の候補を決定し、前記映像の表示領域の前記複数の候補のうち、前記第2の実空間内のユーザに選択されたと判定される候補を前記映像の表示領域として決定する、
情報処理装置。 - 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、を備え、
前記映像の表示に関する設定は、前記映像の表示モードに関する設定を含み、
前記決定部は、前記第1の実空間内の所定の空間を基準とした映像が継続して表示される第1の表示モード、および、前記第1の実空間内の所定の移動体を基準とした映像が継続して表示される第2の表示モードのうちのいずれかを、前記第2の実空間におけるセンシング結果に基づいて前記映像の表示モードとして決定する、
情報処理装置。 - 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいてプロセッサが決定すること、を含み、
前記プロセッサが、前記第2の実空間における平面のセンシング結果と、前記第2の実空間における垂直方向のセンシング結果とに基づいて、前記映像の表示領域を決定する、
情報処理方法。 - 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいてプロセッサが決定すること、を含み、
前記プロセッサが、前記第2の実空間におけるセンシング結果に基づいて、前記第2の実空間において前記映像の表示領域の複数の候補を決定し、前記映像の表示領域の前記複数の候補のうち、前記第2の実空間内のユーザに選択されたと判定される候補を前記映像の表示領域として決定する、
情報処理方法。 - 第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいてプロセッサが決定すること、を含み、
前記映像の表示に関する設定は、前記映像の表示モードに関する設定を含み、
前記プロセッサが、前記第1の実空間内の所定の空間を基準とした映像が継続して表示される第1の表示モード、および、前記第1の実空間内の所定の移動体を基準とした映像が継続して表示される第2の表示モードのうちのいずれかを、前記第2の実空間におけるセンシング結果に基づいて前記映像の表示モードとして決定する、
情報処理方法。 - コンピュータを、第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、として機能させるためのプログラムであって、
前記決定部は、前記第2の実空間における平面のセンシング結果と、前記第2の実空間における垂直方向のセンシング結果とに基づいて、前記映像の表示領域を決定する、
プログラム。 - コンピュータを、第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、として機能させるためのプログラムであって、
前記決定部は、前記第2の実空間におけるセンシング結果に基づいて、前記第2の実空間において前記映像の表示領域の複数の候補を決定し、前記映像の表示領域の前記複数の候補のうち、前記第2の実空間内のユーザに選択されたと判定される候補を前記映像の表示領域として決定する、
プログラム。 - コンピュータを、第1の実空間においてセンシングされた三次元情報に応じた映像が第2の実空間において表示される際の、前記映像の表示に関する設定を、前記第2の実空間におけるセンシング結果に基づいて決定する決定部、として機能させるためのプログラムであって、
前記映像の表示に関する設定は、前記映像の表示モードに関する設定を含み、
前記決定部は、前記第1の実空間内の所定の空間を基準とした映像が継続して表示される第1の表示モード、および、前記第1の実空間内の所定の移動体を基準とした映像が継続して表示される第2の表示モードのうちのいずれかを、前記第2の実空間におけるセンシング結果に基づいて前記映像の表示モードとして決定する、
プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017005077 | 2017-01-16 | ||
JP2017005077 | 2017-01-16 | ||
PCT/JP2017/037442 WO2018131238A1 (ja) | 2017-01-16 | 2017-10-17 | 情報処理装置、情報処理方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018131238A1 JPWO2018131238A1 (ja) | 2019-12-12 |
JP6809539B2 true JP6809539B2 (ja) | 2021-01-06 |
Family
ID=62840130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561810A Active JP6809539B2 (ja) | 2017-01-16 | 2017-10-17 | 情報処理装置、情報処理方法、およびプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US10868977B2 (ja) |
JP (1) | JP6809539B2 (ja) |
KR (1) | KR102355135B1 (ja) |
CN (1) | CN110168615B (ja) |
DE (1) | DE112017006836T5 (ja) |
WO (1) | WO2018131238A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3694208A1 (en) * | 2019-02-05 | 2020-08-12 | Jerry Nims | A method and system for simulating a 3-dimensional image sequence |
JP7360112B2 (ja) * | 2019-09-27 | 2023-10-12 | グリー株式会社 | コンピュータプログラム、サーバ装置、端末装置、及び方法 |
CN111325779B (zh) * | 2020-02-07 | 2020-12-11 | 贝壳找房(北京)科技有限公司 | 点云配准方法和装置、电子设备和存储介质 |
WO2021235316A1 (ja) * | 2020-05-21 | 2021-11-25 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
WO2022025296A1 (ja) * | 2020-07-31 | 2022-02-03 | 株式会社Jvcケンウッド | 表示装置、表示方法及びプログラム |
US20220212349A1 (en) * | 2021-01-07 | 2022-07-07 | Ford Global Technologies, Llc | Method and system for determining sensor placement for a workspace based on robot pose scenarios |
CN115240820A (zh) * | 2021-04-23 | 2022-10-25 | 中强光电股份有限公司 | 穿戴式装置及基于环境调整显示状态的方法 |
WO2023079853A1 (ja) * | 2021-11-04 | 2023-05-11 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および記録媒体 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011118834A (ja) * | 2009-12-07 | 2011-06-16 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
KR101082285B1 (ko) * | 2010-01-29 | 2011-11-09 | 주식회사 팬택 | 증강 현실 제공 단말기 및 방법 |
KR101619512B1 (ko) * | 2010-06-14 | 2016-05-10 | 주식회사 비즈모델라인 | 증강현실 장치 간 정보 공유 방법 |
JP5799521B2 (ja) * | 2011-02-15 | 2015-10-28 | ソニー株式会社 | 情報処理装置、オーサリング方法及びプログラム |
US10972680B2 (en) * | 2011-03-10 | 2021-04-06 | Microsoft Technology Licensing, Llc | Theme-based augmentation of photorepresentative view |
JP5594850B2 (ja) * | 2012-08-17 | 2014-09-24 | 独立行政法人理化学研究所 | 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体 |
JP6256339B2 (ja) * | 2012-09-21 | 2018-01-10 | ソニー株式会社 | 制御装置および記憶媒体 |
JP2014090386A (ja) | 2012-10-31 | 2014-05-15 | Sony Corp | 情報処理システム、情報処理装置、およびプログラム |
JP2014149712A (ja) * | 2013-02-01 | 2014-08-21 | Sony Corp | 情報処理装置、端末装置、情報処理方法及びプログラム |
JP2015116336A (ja) | 2013-12-18 | 2015-06-25 | マイクロソフト コーポレーション | 複合現実感アリーナ |
US10062208B2 (en) * | 2015-04-09 | 2018-08-28 | Cinemoi North America, LLC | Systems and methods to provide interactive virtual environments |
US10365490B2 (en) * | 2015-05-19 | 2019-07-30 | Maxell, Ltd. | Head-mounted display, head-up display and picture displaying method |
-
2017
- 2017-10-17 CN CN201780082814.6A patent/CN110168615B/zh active Active
- 2017-10-17 DE DE112017006836.3T patent/DE112017006836T5/de active Pending
- 2017-10-17 JP JP2018561810A patent/JP6809539B2/ja active Active
- 2017-10-17 KR KR1020197019387A patent/KR102355135B1/ko active IP Right Grant
- 2017-10-17 WO PCT/JP2017/037442 patent/WO2018131238A1/ja active Application Filing
- 2017-10-17 US US16/473,130 patent/US10868977B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
CN110168615B (zh) | 2024-06-21 |
US20190364224A1 (en) | 2019-11-28 |
KR20190107012A (ko) | 2019-09-18 |
DE112017006836T5 (de) | 2019-09-26 |
US10868977B2 (en) | 2020-12-15 |
CN110168615A (zh) | 2019-08-23 |
JPWO2018131238A1 (ja) | 2019-12-12 |
WO2018131238A1 (ja) | 2018-07-19 |
KR102355135B1 (ko) | 2022-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6809539B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US10936537B2 (en) | Depth sensing camera glasses with gesture interface | |
US10169923B2 (en) | Wearable display system that displays a workout guide | |
US10636185B2 (en) | Information processing apparatus and information processing method for guiding a user to a vicinity of a viewpoint | |
CN102473324B (zh) | 用于在真实环境中表示虚拟信息的方法 | |
US11272160B2 (en) | Tracking a point of interest in a panoramic video | |
JP2022119858A (ja) | ネットワークの拡張現実表現のためのシステムおよび方法 | |
US9268406B2 (en) | Virtual spectator experience with a personal audio/visual apparatus | |
US11636644B2 (en) | Output of virtual content | |
US20110102460A1 (en) | Platform for widespread augmented reality and 3d mapping | |
CN107111740A (zh) | 用于使用增强现实和对象辨别来检索内容项并使之与真实世界对象相关联的方案 | |
JPWO2015145544A1 (ja) | 表示制御装置、制御方法、プログラム及び記憶媒体 | |
JP2010170518A (ja) | 画像データベース形成方法、ナビゲーション方法、データベースシステム、ナビゲーション用モバイル装置、ナビゲーションシステムおよび画像データベースを形成するためのプログラム | |
US20200257121A1 (en) | Information processing method, information processing terminal, and computer-readable non-transitory storage medium storing program | |
US11232636B2 (en) | Methods, devices, and systems for producing augmented reality | |
JP2009192448A (ja) | 情報表示装置及び情報提供システム | |
WO2019204372A1 (en) | R-snap for production of augmented realities | |
JP2023017832A (ja) | 映像表示装置及び映像表示方法 | |
CN112684893A (zh) | 信息展示方法、装置、电子设备及存储介质 | |
JP2018200699A (ja) | 表示制御装置、制御方法、プログラム及び記憶媒体 | |
CN114935972A (zh) | 一种mr/ar/vr标注和搜寻控制方法、移动终端与可读存储介质 | |
US10614308B2 (en) | Augmentations based on positioning accuracy or confidence | |
KR20140058870A (ko) | 디지털 디바이스 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200817 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201102 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201123 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6809539 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |