JP2024040601A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2024040601A JP2024040601A JP2022145046A JP2022145046A JP2024040601A JP 2024040601 A JP2024040601 A JP 2024040601A JP 2022145046 A JP2022145046 A JP 2022145046A JP 2022145046 A JP2022145046 A JP 2022145046A JP 2024040601 A JP2024040601 A JP 2024040601A
- Authority
- JP
- Japan
- Prior art keywords
- virtual space
- image
- electronic device
- space
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003190 augmentative effect Effects 0.000 claims abstract description 88
- 238000000034 method Methods 0.000 claims description 74
- 238000012545 processing Methods 0.000 claims description 73
- 230000008569 process Effects 0.000 description 49
- 230000006870 function Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 239000002131 composite material Substances 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010034719 Personality change Diseases 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想空間(または拡張現実空間)の画像を含む複数の画像を好適に管理できるようにする電子機器を提供する。【解決手段】本発明の電子機器は、仮想空間独自の情報を取得する取得手段と、前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御する制御手段とを有することを特徴とする。【選択図】図5
Description
本発明は電子機器に関し、特に仮想空間(または拡張現実空間)の画像を含む複数の画像を管理する技術に関する。
仮想現実(VR)は、ユーザが仮想オブジェクトと相互に作用しあえる環境を、コンピュータが生成(シミュレーション)する技術である。この技術では、ユーザに対して、現実空間に類似した3次元(3D)空間である仮想空間が提供される。仮想空間内では、映像、音、および触覚フィードバックによってユーザに疑似感覚が与えられる。
ユーザは、表示装置(例えばヘッドマウントディスプレイ)を用いて仮想空間を見ることができる。ユーザは、モーションセンサまたはコントローラを用いて、仮想空間内に配置された仮想オブジェクトと相互に作用しあえる。
仮想空間内では、ユーザは、アバターと呼ばれる仮想キャラクターを自身の分身として用いて、他のユーザとコミュニケーションをとることができる。また、仮想空間の画像を撮影可能なカメラ機能が提案されている。このカメラ機能を用いれば、ユーザは、仮想空間内において、現実空間内での撮影と同じように撮影を行うことができる。例えば、ユーザは、友人のアバターを撮影したり、仮想空間内における風景を撮影したりすることができ、撮影によって得られた画像(仮想空間の画像)を思い出として残すことができる。
拡張現実(AR)と呼ばれる技術も知られている。この技術では、現実空間(現実空間の画像)に重畳するように仮想オブジェクトが表示される。拡張現実でユーザに提供される3次元(3D)空間は、拡張現実空間と呼ばれる。
特許文献1には、現実空間を撮影した画像を車両のヘッドアップディスプレイに表示し、当該画像を保存する際に、現実空間内での位置情報を当該画像に付加する技術が開示されている。特許文献2には、仮想空間でのカメラ機能の例が開示されている。
しかしながら、従来技術では、仮想空間内での撮影によって得られた画像(仮想空間の画像)を含む複数の画像を好適に管理することができない。例えば、複数の画像が、仮想空間内での撮影によって得られた画像(仮想空間の画像)と、現実空間内での撮影によって得られた画像(現実空間の画像)とを含むとする。この場合には、仮想空間の画像のリアリティが高いと、仮想空間の画像と現実空間の画像とを容易に識別することができない。同様に、従来技術では、拡張現実空間の画像を含む複数の画像を好適に管理することができない。
本発明は、仮想空間(または拡張現実空間)の画像を含む複数の画像を好適に管理できるようにする電子機器を提供することを目的とする。
本発明の電子機器は、仮想空間独自の情報を取得する取得手段と、前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御する制御手段とを有することを特徴とする。
本発明によれば、仮想空間(または拡張現実空間)の画像を含む複数の画像を好適に管理できるようになる。
以下、図面を参照して本発明の実施形態を説明する。図1(a)は、電子機器100の前面斜視図である。電子機器100は、例えばスマートフォンまたはタブレット端末といった表示装置である。ディスプレイ105は画像および各種情報を表示する表示部である。ディスプレイ105はタッチパネル106aと一体的に構成されており、ディスプレイ105の表示面へのタッチ操作を検出できるようになっている。電子機器100は、VR画像(VRコンテンツ)をディスプレイ105においてVR表示することが可能である。操作部材106bは電子機器100の電源のオンとオフを切り替える操作を受け付ける電源ボタンである。操作部材106cと操作部材106dは、スピーカー112b、または音声出力端子112aに接続されたイヤホンまたは外部スピーカーから出力する音声のボリュームを増減するためのボリュームボタンである。操作部材106eは、ディスプレイ105にホーム画面を表示させるためのホームボタンである。音声出力端子112aはイヤホンジャックであり、イヤホンまたは外部スピーカーに音声信号を出力する端子である。スピーカー112bは音声を出力する本体内蔵スピーカーである。
図1(b)は、電子機器100の背面斜視図である。撮像部115は、現実空間を撮像可能なカメラである。
図1(c)は、電子機器100の構成を示すブロック図である。内部バス150に対してCPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記憶媒体I/F107、外部I/F109、および通信I/F110が接続されている。また、内部バス150に対して音声出力部112、姿勢検出部113、自己位置・周辺環境推定部114、および撮像部115も接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができるようにされている。
CPU101は、電子機器100の全体を制御する制御部であり、少なくとも1つのプロセッサまたは回路からなる。メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ)である。CPU101は、例えば、不揮発性メモリ103に格納されるプ
ログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データ、音声データ、その他のデータ、およびCPU101が動作するための各種プログラムといった様々な情報が格納される。不揮発性メモリ103は例えばフラッシュメモリまたはROMである。
ログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データ、音声データ、その他のデータ、およびCPU101が動作するための各種プログラムといった様々な情報が格納される。不揮発性メモリ103は例えばフラッシュメモリまたはROMである。
画像処理部104は、CPU101の制御に基づいて、不揮発性メモリ103または記憶媒体108に格納された画像、外部I/F109を介して取得した映像信号、または通信I/F110を介して取得した画像に対して各種画像処理を施す。各種画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、画像データの圧縮処理、画像データのデコード処理、画像データの拡大/縮小処理(リサイズ)、画像データのノイズ低減処理、および画像データの色変換処理が含まれる。また、各種画像処理には、全方位画像あるいは全方位ではないにせよ広範囲の映像を有する広範囲画像であるVR画像のパノラマ展開、マッピング処理、および変換も含まれる。画像処理部104は特定の画像処理を施すための専用の回路ブロックであってもよい。また、画像処理の種別によっては画像処理部104を用いずにCPU101がプログラムに従って画像処理を施すことも可能である。
ディスプレイ105は、CPU101の制御に基づいて、画像、およびGUI(Graphical User Interface)を構成するGUI画面を表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成してディスプレイ105に出力するように電子機器100の各部を制御する。ディスプレイ105は、生成されて出力された映像信号に基づいて映像を表示する。なお、電子機器100自体が備える構成としてはディスプレイ105に表示させるための映像信号を出力するためのインターフェースまでとし、ディスプレイ105は外付けのモニタ(例えばテレビまたはヘッドマウントディスプレイ)であってもよい。
操作部106は、ユーザ操作を受け付けるための様々な入力部を含む。例えば、操作部106は、文字情報入力デバイス(例えばキーボード)、ポインティングデバイス(例えばマウスまたはタッチパネル)、ボタン、ダイヤル、ジョイスティック、タッチセンサ、およびタッチパッドを含む。本実施形態では、操作部106は、タッチパネル106a、操作部材106b,106c,106d,106e、およびジェスチャ検出部106fを含む。
記憶媒体I/F107には、メモリーカード、CD、またはDVDといった記憶媒体108が着脱可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記憶媒体108からのデータの読み出し、および記憶媒体108に対するデータの書き込みを行う。記憶媒体108は、ディスプレイ105で表示するための画像を含む様々なデータを記憶する記憶部である。外部I/F109は、有線または無線で外部機器と接続し、映像信号および音声信号の入出力(データ通信)を行うためのインターフェースである。通信I/F110は、外部機器またはインターネット111と通信(無線通信)して、ファイルおよびコマンドといった各種データの送受信(データ通信)を行うためのインターフェースである。通信I/F110は、コントローラ116とも通信(無線通信)が可能である。
音声出力部112は、電子機器100で再生する動画または音楽データの音声、操作音、着信音、および各種通知音を出力する。音声出力部112には、イヤホンまたは外部スピーカーを接続する音声出力端子112a、およびスピーカー112bが含まれるものとするが、音声出力部112は無線通信で外部スピーカーに音声データを出力してもよい。
姿勢検出部113は、重力方向に対する電子機器100の姿勢(傾き)、またはヨー方
向、ピッチ方向、およびロール方向の各軸に対する電子機器100の姿勢を検出し、CPU101へ姿勢情報を通知する。姿勢検出部113で検出された姿勢に基づいて、電子機器100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、および斜めの姿勢になったかを判別可能である。また、ヨー方向、ピッチ方向、およびロール方向といった回転方向における電子機器100の傾きの有無および大きさ、および当該回転方向に電子機器100が回転したかを判別可能である。加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、および高度センサのうちの1つのセンサ、または複数のセンサの組み合わせを、姿勢検出部113として用いることができる。
向、ピッチ方向、およびロール方向の各軸に対する電子機器100の姿勢を検出し、CPU101へ姿勢情報を通知する。姿勢検出部113で検出された姿勢に基づいて、電子機器100が横に保持されているか、縦に保持されているか、上に向けられたか、下に向けられたか、および斜めの姿勢になったかを判別可能である。また、ヨー方向、ピッチ方向、およびロール方向といった回転方向における電子機器100の傾きの有無および大きさ、および当該回転方向に電子機器100が回転したかを判別可能である。加速度センサ、ジャイロセンサ、地磁気センサ、方位センサ、および高度センサのうちの1つのセンサ、または複数のセンサの組み合わせを、姿勢検出部113として用いることができる。
自己位置・周辺環境推定部114は、電子機器100または後述のVRゴーグル130の自己位置と周辺環境を推定する。
自己位置は、所定範囲の空間における電子機器100またはVRゴーグル130の位置である。例えば、自己位置は、所定範囲の空間内の所定の位置が原点となるように当該所定の位置で互いに直交するX軸、Y軸、およびZ軸の3軸によって定義した座標系における位置を表す3つのパラメータによって表現される。自己位置は、姿勢(向き)を表す3つのパラメータをさらに用いて表現されてもよい。
周辺環境は、障害物領域を含む。障害物領域は、電子機器100またはVRゴーグル130の周辺に存在する物体のうち、電子機器100を所持したユーザ、またはVRゴーグル130を装着したユーザにとって障害物となる物体の領域である。例えば、障害物領域は、所定範囲の空間内の所定の位置が原点となるように当該所定の位置で互いに直交するX軸、Y軸、およびZ軸の3軸によって定義した座標系における位置を表す3つのパラメータの複数の組によって表現される。
撮像部115は、現実空間を撮像可能なカメラである。現実空間を撮像した画像は、種々の検出処理に用いることができ、例えばジェスチャ検出部106fおよび自己位置・周辺環境推定部114によって使用される。また、現実空間を撮像した画像は、ディスプレイ105に表示することができる。
上述したように、操作部106にはタッチパネル106aが含まれる。タッチパネル106aは、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報が出力されるようにした入力デバイスである。CPU101はタッチパネル106aへの以下の操作、あるいは状態を検出できる。
・タッチパネル106aにタッチしていなかった操作体(例えば指またはペン)が新たにタッチパネル106aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル106aを操作体がタッチしている状態(以下、タッチオン(Touch-On)と称する)
・操作体がタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた操作体がタッチパネル106aから離れたこと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
・タッチパネル106aにタッチしていなかった操作体(例えば指またはペン)が新たにタッチパネル106aにタッチしたこと、すなわちタッチの開始(以下、タッチダウン(Touch-Down)と称する)
・タッチパネル106aを操作体がタッチしている状態(以下、タッチオン(Touch-On)と称する)
・操作体がタッチパネル106aをタッチしたまま移動していること(以下、タッチムーブ(Touch-Move)と称する)
・タッチパネル106aへタッチしていた操作体がタッチパネル106aから離れたこと、すなわちタッチの終了(以下、タッチアップ(Touch-Up)と称する)
・タッチパネル106aに何もタッチしていない状態(以下、タッチオフ(Touch-Off)と称する)
タッチダウンが検出されると、同時にタッチオンも検出される。タッチダウンの後、タッチアップが検出されない限りは、通常はタッチオンが検出され続ける。タッチムーブが検出された場合も、同時にタッチオンが検出される。タッチオンが検出されていても、タッチ位置が移動していなければタッチムーブは検出されない。タッチしていた全ての操作
体がタッチアップしたことが検出されると、タッチオフが検出される。
体がタッチアップしたことが検出されると、タッチオフが検出される。
これらの操作および状態と、タッチパネル106a上に操作体がタッチしている位置座標とは内部バスを通じてCPU101に通知される。CPU101は通知された情報に基づいてタッチパネル106a上にどのような操作(タッチ操作)が行われたかを判定する。タッチムーブについてはタッチパネル106a上で移動する操作体の移動方向についても、位置座標の変化に基づいて、タッチパネル106a上の垂直成分と水平成分のそれぞれについて判定できる。所定距離以上をタッチムーブしたことが検出された場合はスライド操作が行われたと判定するものとする。
タッチパネル106a上に操作体をタッチしたままある程度の距離だけ素早く動かして、そのまま離すといった操作をフリックと呼ぶ。フリックは、言い換えればタッチパネル106a上を操作体ではじくように素早くなぞる操作である。所定距離以上を、所定速度以上でタッチムーブしたことが検出され、そのままタッチアップが検出されるとフリックが行われたと判定できる(スライド操作に続いてフリックがあったものと判定できる)。
更に、複数箇所(例えば2点)を同時にタッチして、互いのタッチ位置を近づけるタッチ操作をピンチイン、互いのタッチ位置を遠ざけるタッチ操作をピンチアウトと称する。ピンチアウトとピンチインを総称してピンチ操作(あるいは単にピンチ)と称する。タッチパネル106aの方式は、抵抗膜方式、静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、および光センサ方式といった様々な方式のうちいずれの方式であってもよい。タッチパネルに対する接触があったことでタッチがあったと検出する方式や、タッチパネルに対する操作体の接近があったことでタッチがあったと検出する方式があるが、いずれの方式でもよい。
上述したように、操作部106にはジェスチャ検出部106fが含まれる。ジェスチャ検出部106fは、CPU101の制御に基づき、撮像部115によって取得された画像(現実空間を撮像した画像)から、ユーザ(例えばユーザの手)のジェスチャを検出する。CPU101は、検出されたジェスチャに応じて各種処理(制御)を行う。
図1(d)は、電子機器100を装着可能なVRゴーグル(ヘッドマウントアダプター)130の外観図である。電子機器100は、VRゴーグル130に装着することによって、ヘッドマウントディスプレイとして使用することも可能である。挿入口131は、電子機器100を差し込むための挿入口である。ディスプレイ105の表示面を、VRゴーグル130をユーザの頭部に固定するためのヘッドバンド132側(すなわちユーザ側)に向けて電子機器100の全体をVRゴーグル130に差し込むことができる。ユーザは、電子機器100が装着されたVRゴーグル130を頭部に装着した状態で、手で電子機器100を保持することなく、ディスプレイ105を視認することができる。この場合は、ユーザが頭部または体全体を動かすと、電子機器100の姿勢も変化する。姿勢検出部113はこの時の電子機器100の姿勢変化を検出し、この姿勢変化に基づいてCPU101がVR表示(表示モード「VRビュー」での表示)のための処理を行う。この場合に、姿勢検出部113が電子機器100の姿勢を検出することは、ユーザの頭部の姿勢(ユーザの視線が向いている方向)を検出することと同等である。VR表示(VRビュー)とは、VR画像のうち、表示装置の姿勢に応じた視野範囲の映像を表示する、表示範囲を変更可能な表示方法(表示モード)である。
なお、電子機器100自体が、VRゴーグル無しでも頭部に到着可能なヘッドマウントディスプレイであってもよい。電子機器100はユーザの視線または表情を検出可能であってもよく、ユーザは視線または表情で電子機器100を操作できてもよい。
図2(a)は、電子機器100と通信可能なコントローラ116の一例であるコントローラ240,250の外観図である。コントローラ240は、ユーザが左手で操作するグリップ型コントローラである。ユーザは、コントローラ240のホールド部241を左手で握り、操作面242に配置された操作部材を左手の指(例えば親指)で操作する。コントローラ240は、ユーザによって行われた操作を電子機器100に通知する。コントローラ250は、ユーザが右手で操作するグリップ型コントローラであり、コントローラ240と同様の構成(例えばコントローラ240を左右反転させた形態)を有する。
なお、コントローラ116として、図2(b)に示すコントローラ260が使用されてもよい。コントローラ260は、ユーザが指に装着して操作するリング型コントローラである。コントローラ260は、ユーザの指263に装着するためのリング部261と、操作部材262とを有する。操作部材262は、例えば、押下式のボタン、回転式のダイヤル、またはオプティカルトラックパッドである。オプティカルトラックパッドは、指の接触または接近を検知可能な操作部材の一種である。
以降では、電子機器100が装着されたVRゴーグル130をユーザが装着しているものとして、説明を行う。
図3は、電子機器100のOSモード処理を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することによって実現される。CPU101は、電子機器100がVRゴーグル130に装着されたことを検知した場合、または所定の操作が行われたことを検知した場合に、図3のOSモード処理を実行する。
ステップS301では、CPU101は、アプリケーション選択画面をディスプレイ105に表示する。
図7はアプリケーション選択画面701を示す。アプリケーション選択画面701は、仮想空間700に重畳されて表示されている。アプリケーション選択画面701には、電子機器100にインストールされている複数のアプリケーションにそれぞれ対応する複数のアイコン(アイコン702~707)が表示されている。アイコンを選択する操作が行われると、CPU101は、選択されたアイコンに対応するアプリケーションを起動する。例えば、アイコン702が選択されると、所定の仮想空間をユーザに提供する仮想空間アプリケーションが起動され、アイコン703が選択されると、電子機器100内に格納されている画像を再生する写真アプリケーションが起動される。なお、電子機器100には、複数の仮想空間アプリケーションがインストールされていてもよい。
ユーザは、電子機器100が装着されたVRゴーグル130を装着した状態でも、コントローラ116を用いて、ディスプレイ105に表示されるGUIを選択したり移動させたりすることができる。例えば、ユーザは、ユーザの姿勢、視線の向き、またはコントローラでの操作によって、図7のポインター710を任意の位置に移動させることができる。そして、ユーザは、ポインター710を任意のアイコンに近づけ(または重畳させ)、コントローラの操作部材を操作することによって、アイコンを選択することができる。
ステップS302では、CPU101は、仮想空間アプリケーションのアイコン702が選択されたか否かを判定する。CPU101は、アイコン702が選択されたと判定した場合はステップS303に処理を進め、そうでない場合はステップS304に処理を進める。
ステップS303では、CPU101は、仮想空間アプリケーション処理を実行する。
仮想空間アプリケーション処理の詳細は、図4を用いて後述する。
仮想空間アプリケーション処理の詳細は、図4を用いて後述する。
ステップS304では、CPU101は、写真アプリケーションのアイコン703が選択されたか否かを判定する。CPU101は、アイコン703が選択されたと判定した場合はステップS305に処理を進め、そうでない場合はステップS306に処理を進める。
ステップS305では、CPU101は、再生モード処理(写真アプリケーション処理)を実行する。ステップS305の再生モード処理では、記憶媒体108に格納されている全ての画像が再生対象(再生する画像)の候補とされる。再生モード処理の詳細は、図6を用いて後述する。
ステップS306では、CPU101は、他の操作が行われたか否かを判定する。他の操作は、例えば、電子機器100を外部機器(例えば電子機器100とは異なるスマートフォン)とペアリングする操作、および撮影によって得られた画像(撮影画像)をペアリングされた外部機器に自動で送信する機能を有効または無効にする操作を含む。CPU101は、他の操作が行われたと判定した場合はステップS307に処理を進め、そうでない場合はステップS308に処理を進める。
ステップS307では、CPU101は、他の処理(ステップS306で検知した操作に応じた処理)を行う。
ステップS308では、CPU101は、OSモード処理の終了操作が行われたか否かを判定する。CPU101は、終了操作が行われたと判定した場合は図3のOSモード処理を終了し、そうでない場合はステップS302に処理を進める。
図4は、電子機器100の仮想空間アプリケーション処理(図3のステップS303)を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することによって実現される。
ステップS401では、CPU101は、仮想空間アプリケーションの起動処理を行う。例えば、CPU101は、不揮発性メモリ103に格納された仮想空間アプリケーションのプログラムをメモリ102に展開して実行する。そして、CPU101は、仮想空間アプリケーションで使用する制御変数(例えばフラグ)を初期化する。
ステップS402では、CPU101は、ユーザのアカウント情報に基づいて、仮想空間アプリケーションのサービスを提供するサーバへのログイン処理を行う。そして、CPU101は、サーバから、ユーザの情報(例えばアバター情報および属性情報)をロードする。アバターは、ユーザが自身の分身として用いる仮想キャラクターである。
ステップS403では、CPU101は、仮想空間アプリケーション画面をディスプレイ105に表示する。
図8(a)は仮想空間アプリケーション画面を示す。図8(a)の仮想空間アプリケーション画面には、仮想空間800、仮想人物801、および仮想動物802が表示されている。仮想人物801と仮想動物802は、他のユーザのアバター(他のユーザからの指示に応じて挙動が制御される仮想キャラクター)であってもよいし、挙動が自動で制御される仮想キャラクターであってもよい。図8(a)の仮想空間アプリケーション画面は、当該仮想空間アプリケーション画面を見るユーザのアバターが表示されない一人称視点の画面である。仮想空間アプリケーション画面は、当該仮想空間アプリケーション画面を見
るユーザのアバターが表示される三人称視点の画面であってもよい。
るユーザのアバターが表示される三人称視点の画面であってもよい。
ステップS404では、CPU101は、仮想空間アプリケーション画面に、各種操作を行うためのGUIを表示する。
例えば、CPU101は、図8(a)のGUI803を、仮想空間800に重畳して表示する。GUI803は、複数の機能にそれぞれ対応する複数のアイコン(アイコン804~808)を含む。アイコン804はチャット機能に対応し、アイコン805はエモーション機能に対応する。チャット機能もエモーション機能も、他のユーザとコミュニケーションをとるための機能である。アイコン806は、仮想空間内でカメラ(仮想カメラ)による撮影を行うためのカメラ機能に対応する。アイコン807は、表示する空間を仮想空間(仮想現実(VR)空間)と拡張現実(AR)空間との間で切り替えるための切替ボタンである。アイコン807は、現在の空間を識別可能に表示される。図8(a)では仮想空間800が表示されているため、表示されている空間が仮想空間であること(仮想空間表示が行われていること)を示すアイテム807aが表示されている。そして、アイコン808は、仮想空間アプリケーションを終了するための終了ボタンである。
CPU101は、ユーザによって図8(a)のアイコン807が選択(操作)されると、表示する仮想空間アプリケーション画面を、図8(a)の画面から図8(d)の画面に遷移させる。図8(d)では、仮想人物801、仮想動物802、およびGUI803が重畳される背景として、仮想空間800ではなく、拡張現実空間850が表示されている。そのため、アイコン807では、表示されている空間が拡張現実空間であること(拡張現実空間表示が行われていること)を示すアイテム807bが表示されている。
ステップS405では、CPU101は、アイコン804、アイコン805、またはアイコン807が選択されたか否かを判定する。CPU101は、アイコン804、アイコン805、またはアイコン807が選択されたと判定した場合はステップS406に処理を進め、そうでない場合はステップS407に処理を進める。
ステップS406では、CPU101は、選択されたアイコン(アイコン804、アイコン805、またはアイコン807)に対応する処理を実行する。例えば、CPU101は、他のユーザとのコミュニケーションをとるための処理を行ったり、表示する空間を仮想空間と拡張現実空間との間で切り替える処理を行ったりする。
ステップS407では、CPU101は、カメラ機能のアイコン806が選択されたか否かを判定する。CPU101は、アイコン806が選択されたと判定した場合はステップS408に処理を進め、そうでない場合はステップS409に処理を進める。
ステップS408では、CPU101は、カメラモード処理を実行する。カメラモード処理の詳細は、図5を用いて後述する。
ステップS409では、CPU101は、他の操作が行われたか否かを判定する。CPU101は、他の操作が行われたと判定した場合はステップS410に処理を進め、そうでない場合はステップS411に処理を進める。
ステップS410では、CPU101は、他の処理(ステップS409で検知した操作に応じた処理)を行う。例えば、VRゴーグル130を装着したユーザが現実空間内で移動したとする。そうすると、CPU101は、現実空間内でのユーザの移動に応じて仮想空間内でのユーザの位置が変化するように、ディスプレイ105に表示する空間(仮想空間800または拡張現実空間850)の表示範囲を変更する。
ステップS411では、CPU101は、仮想空間アプリケーション処理の終了操作(アイコン808の選択)が行われたか否かを判定する。CPU101は、終了操作が行われたと判定した場合は図4の仮想アプリケーション処理を終了し、そうでない場合はステップS405に処理を進める。
図5は、電子機器100のカメラモード処理(図4のステップS408)を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することによって実現される。
ステップS501では、CPU101は、カメラモードの初期化処理を行う。例えば、CPU101は、ユーザが前回、カメラモードを使用した際に設定した各種パラメータを読み込む。
ステップS502では、CPU101は、仮想空間アプリケーション画面に仮想カメラを表示する。
ステップS503では、CPU101は、仮想カメラのディスプレイに仮想ライブビュー画像を表示する。
ステップS504では、CPU101は、仮想空間アプリケーション画面に、カメラモードの操作を行うためのGUIを表示する。
図8(b)は、カメラモードにおける仮想空間アプリケーション画面を示す。図8(b)の仮想空間アプリケーション画面では、仮想空間表示が行われている。図8(b)では、仮想カメラ810が、仮想手811で保持されているように表示されている。仮想カメラ名812と仮想ライブビュー画像813が、仮想カメラ810に重畳されて表示されている。そして、カメラモードの複数の機能にそれぞれ対応する複数のGUIが、仮想カメラ810の周辺に表示されている。図8(b)では、複数のGUIとして、撮影開始ボタン814、カメラモード終了ボタン815、メニューボタン816、再生モード起動ボタン817が表示されている。
図8(e)も、カメラモードにおける仮想空間アプリケーション画面を示す。図8(e)の仮想空間アプリケーション画面では、拡張現実空間表示が行われている。図8(e)でも、図8(b)と同様に、仮想カメラ810と仮想手811が表示されている。また、図8(b)と同様に、仮想カメラ名812、仮想ライブビュー画像813、撮影開始ボタン814、カメラモード終了ボタン815、メニューボタン816、および再生モード起動ボタン817も表示されている。
ステップS505では、CPU101は、メニューボタン816が操作されたか否かを判定する。CPU101は、メニューボタン816が操作されたと判定した場合はステップS506に処理を進め、そうでない場合はステップS507に処理を進める。
ステップS506では、CPU101は、メニュー画面をディスプレイ105に表示する。ユーザは、メニュー画面を用いて、カメラモード(仮想カメラ)に関する各種設定を行うことができる。例えば、ユーザは、メニュー画面を用いて、撮影画像の形式、撮影パラメータ、および撮影画像に付加する(紐づける)メタデータの形式を設定することができる。撮影画像の形式として、静止画、動画、2次元画像、3次元画像、360°画像、およびVR180画像(VR180規格の画像)の少なくともいずれかが設定される。撮影パラメータとして、シャッタースピード、絞り、ISO感度、露出補正ステップ値、ホ
ワイトバランス、およびフォーカスモードの少なくともいずれかが設定される。撮影パラメータとして、背景ぼかしおよび美肌効果といった画像処理が設定されてもよい。撮影画像に付加するメタデータの形式は後述する。
ワイトバランス、およびフォーカスモードの少なくともいずれかが設定される。撮影パラメータとして、背景ぼかしおよび美肌効果といった画像処理が設定されてもよい。撮影画像に付加するメタデータの形式は後述する。
ステップS507では、CPU101は、撮影開始ボタン814が操作されたか否かを判定する。CPU101は、撮影開始ボタン814が操作されたと判定した場合はステップS508に処理を進め、そうでない場合はステップS513に処理を進める。
ステップS508では、CPU101は、仮想カメラの撮影画像(記録する画像)を取得する。例えば、撮影画像として2次元画像を得る場合には、CPU101は、現在の仮想ライブビュー画像に対応する撮影画像を取得する。撮影画像として360°画像を得る場合には、CPU101は、仮想カメラの位置からの360°の見えを表す撮影画像を取得する。
ステップS509では、CPU101は、現在の表示が仮想空間表示であるか拡張現実空間表示であるかを判定する。CPU101は、仮想空間表示であると判定した場合はステップS510に処理を進め、そうでない場合(拡張現実空間表示であると判定した場合)はステップS511に処理を進める。
ステップS510では、CPU101は、仮想空間独自の情報を取得し、当該情報を含むメタデータをステップS508で取得した撮影画像に付加する。
ステップS511では、CPU101は、拡張現実空間独自の情報を取得し、当該情報を含むメタデータをステップS508で取得した撮影画像に付加する。
なお、メタデータは、仮想空間の画像と拡張現実空間の画像との少なくとも一方を識別可能にするように生成されればよく、メタデータの形式は特に限定されない。仮想空間の画像を識別可能にするには、ステップS510でメタデータに仮想空間独自の情報を含めればよい。その場合には、ステップS511で拡張現実空間独自の情報が取得されなくても、仮想空間の画像と非仮想空間の画像とが識別可能になる。非仮想空間は、仮想空間とは異なる空間であり、例えば現実空間または拡張現実空間である。同様に、拡張現実空間の画像を識別可能にするには、ステップS511でメタデータに拡張現実空間独自の情報を含めればよい。その場合には、ステップS510で仮想空間独自の情報が取得されなくても、拡張現実空間の画像と非拡張現実空間の画像とが識別可能になる。非拡張現実空間は、拡張現実空間とは異なる空間であり、例えば現実空間または仮想空間である。
仮想空間独自の情報は、例えば、仮想空間であることを示すフラグ、仮想空間内での位置情報、および仮想空間内での時刻情報を含む。拡張現実空間独自の情報は、例えば、拡張現実空間であることを示すフラグを含む。拡張現実空間内での位置情報として拡張現実空間独自の情報が使用されてもよいが、拡張現実空間内での位置情報は、一般的には現実空間内での位置情報と同じである。同様に、拡張現実空間内での時刻情報として拡張現実空間独自の情報が使用されてもよいが、拡張現実空間内での時刻情報は、一般的には現実空間内での時刻情報と同じである。
メタデータは、Exchangeable image file format(Exif)形式の情報(データ)であってもよいし、そうでなくてもよい。Exif形式の場合は、メタデータに、撮影時のシャッタースピード、絞り、ISO感度、および露出補正ステップ値といった様々なパラメータを含めることができる。撮影画像として動画を得る場合には、動画全体に対して1つのメタデータを付加してもよいし、動画のフレームごとにメタデータを付加してもよいし、動画のシーンごとにメタデータを付加してもよい。
ステップS512では、CPU101は、メタデータが付加された撮影画像のファイル(画像ファイル)を、記憶媒体108に記録(保存)する。ステップS508で取得された撮影画像(仮想カメラの撮影画像)のファイルは、他の画像(例えば撮像部115によって得られた現実空間の画像)のファイルと同じ領域に記録されてもよいし、異なる領域に記録されてもよい。ステップS508で取得された撮影画像は、仮想空間アプリケーション独自の領域に記録されてもよい。ステップS508で取得された撮影画像は、外部機器またはサーバに直接保存されてもよい。
ステップS513では、CPU101は、再生モード起動ボタン817が操作されたか否かを判定する。CPU101は、再生モード起動ボタン817が操作されたと判定した場合はステップS514に処理を進め、そうでない場合はステップS515に処理を進める。
ステップS514では、CPU101は、再生モード処理を実行する。ステップS514の再生モード処理はステップS305の再生モード処理とは異なる。例えば、ステップS514の再生モード処理は仮想空間アプリケーション独自の処理であり、ステップS305の再生モード処理はOSに含まれた写真アプリケーションの処理である。ステップS514の再生モード処理では、記憶媒体108に格納されている画像のうち、仮想空間アプリケーションによって記録された画像(仮想カメラの撮影画像)が再生対象(再生する画像)の候補とされる。再生モード処理の詳細は、図6を用いて後述する。
ステップS515では、CPU101は、他の操作が行われたか否かを判定する。CPU101は、他の操作が行われたと判定した場合はステップS516に処理を進め、そうでない場合はステップS517に処理を進める。
ステップS516では、CPU101は、他の処理(ステップS515で検知した操作に応じた処理)を行う。例えば、CPU101は、VRゴーグル130の姿勢変化、またはコントローラ116に対する操作に応じて、仮想ライブビュー画像の画角(被写体範囲)を変更する。
ステップS517では、CPU101は、カメラモード処理の終了操作(カメラモード終了ボタン815の操作)が行われたか否かを判定する。CPU101は、終了操作が行われたと判定した場合は図5のカメラモード処理を終了し、そうでない場合はステップS505に処理を進める。
図6は、電子機器100の再生モード処理(図3のステップS305、または図5のステップS514)を示すフローチャートである。この処理は、CPU101が不揮発性メモリ103に格納されたプログラムをメモリ102に展開して実行することによって実現される。
ステップS601では、CPU101は、再生モードの初期化処理を行う。例えば、CPU101は、ユーザが前回、再生モードを使用した際に閲覧していた画像のインデックス番号、および閲覧に関する各種パラメータを読み込む。
ステップS602では、CPU101は、記憶媒体108に(保存)されている画像ファイルの読み出しを行う。図3のステップS305の再生モード処理の場合は、記憶媒体108に格納されている全ての画像ファイルが読み出される。図5のステップS514の再生モード処理の場合は、記憶媒体108に格納されている画像ファイルのうち、仮想空間アプリケーションによって記録された画像ファイルが読み出される。
ステップS603では、CPU101は、ステップS602で読み出した画像ファイルのメタデータを解析する。
ステップS604では、CPU101は、ステップS602で読み出した画像ファイルを、ディスプレイ105に表示する。再生画面で1つの画像ファイルの画像(映像)を表示してもよいし、ファイル表示画面で複数の画像ファイルを一覧表示してもよい。ファイル表示画面には、画像ファイルを示すアイコンとして、当該画像ファイルの画像を圧縮したサムネイルを表示してもよい。
ステップS605では、CPU101は、ステップS602で読み出した画像(画像ファイル)が仮想空間の画像であるか非仮想空間の画像であるかを判定し、仮想空間の画像と非仮想空間の画像とを識別可能にするGUIを、ディスプレイ105に表示する。
図8(c)は、再生モードにおける画面を示す。図8(c)の画面には、再生モードのGUI820(ファイル表示画面)が表示されている。GUI820には、読み出された画像(画像ファイル)のサムネイル821~823が一覧表示されている。各画像のメタデータの解析結果に基づいて、仮想空間の画像のサムネイル821,823には、仮想空間の画像であることを示すアイテム821a,823aが重畳されて表示されている。そして、非仮想空間の画像のサムネイル822には、非仮想空間の画像であることを示すアイテム822aが重畳されて表示されている。図8(c)の画面は、再生モードにおける仮想空間アプリケーション画面、つまり図5のステップS514の再生モード処理において表示される画面である。そのため、非仮想空間の画像であることを示すアイテム822aとして、拡張現実空間の画像であることを示すアイテム(「AR」が記述されたアイテム)が表示されている。但し、図3のステップS305の再生モード処理の場合は、現実空間の画像のサムネイルが表示されることもある。そのため、非仮想空間の画像であることを示すアイテムとして、「AR」が記述されたアイテムではなく、例えば「Non-VR」が記述されたアイテムを表示してもよい。非仮想空間の画像であることを示すアイテムは表示しなくてもよい。また、図8(c)の仮想アプリケーション画面では仮想空間表示が行われているため、GUI820は仮想空間800に重畳されて表示されている。
また、サムネイル821にはカーソル824が重畳されて表示されている。そして、カーソル824が重畳されたサムネイル821に対応する画像(仮想空間の画像)の詳細情報(情報表示画面)が、サムネイル821~823の右側に表示されている。詳細情報として、設定情報825と撮影情報826が表示されている。設定情報825は撮影時におけるカメラの設定に関する情報を含み、撮影情報826は撮影時における他の情報を含む。サムネイル821の画像は仮想空間の画像であるため、設定情報825として、撮影時における仮想カメラの設定(例えば、撮影画像の形式、および撮影パラメータ)に関する情報が表示されている。そして、撮影情報826は、撮影時における仮想空間内での仮想カメラ(撮影者)の位置情報を含む。この位置情報は、仮想空間内の所定の位置が原点となるように当該所定の位置で互いに直交するX軸、Y軸、およびZ軸の3軸によって定義した座標系における位置を表す3つのパラメータによって、仮想空間内での仮想カメラ(撮影者)の位置を表現している。また、撮影情報826は、撮影者がログインしていたサーバ名、サーバの公開IPアドレス、仮想空間名(ワールド名)、およびサーバ内(仮想空間内)での時刻情報を含む。サーバ内での時刻情報は、電子機器100内(現実空間内)での時刻情報と略同一であってもよい。
なお、仮想空間独自の情報の少なくとも一部に基づく情報(例えばアイテム822aおよび撮影情報826)の表示によって、ファイル表示画面に仮想空間の画像のファイルを識別可能に表示する例を示したが、これに限られない。例えば、仮想空間の画像の再生画
面に、仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御してもよい。
面に、仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御してもよい。
図8(f)は、再生モードにおける画面(仮想アプリケーション画面)を示す。図8(f)の仮想アプリケーション画面では拡張現実空間表示が行われているため、GUI820(ファイル表示画面)が拡張現実空間850に重畳されて表示されている。図8(f)では、カーソル824がサムネイル822に重畳されて表示されている。そのため、サムネイル822に対応する画像(拡張現実空間の画像)の詳細情報(情報表示画面)が、サムネイル821~823の右側に表示されている。詳細情報として、設定情報825と撮影情報827が表示されている。本実施形態では、CPU101は、仮想空間の画像を記録する際には、仮想空間内での位置情報と時刻情報を記録し、非仮想空間の画像を記録する際には、現実空間内での位置情報と時刻情報を記録するとする。そのため、撮影情報827には、撮影時における現実空間内での仮想カメラ(撮影者)の位置情報が含まれている。この位置情報は、緯度、経度、および高度によって、現実空間内での仮想カメラ(撮影者)の位置を表現している。現実空間内での位置情報は、電子機器100またはVRゴーグル130の位置情報であってもよい。また、撮影情報827には、撮影方向を示す方角、および電子機器100内(現実空間内)での時刻情報を含む。
ステップS606では、CPU101は、画像送り操作が行われたか否かを判定する。CPU101は、画像送り操作が行われたと判定した場合はステップS607に処理を進め、そうでない場合はステップS608に処理を進める。
ステップS607では、CPU101は、ディスプレイ105に表示される画像(1つまたは複数の画像)を、次のインデックスの画像(1つまたは複数の画像)に切り替える(画像送り)。
ステップS608では、CPU101は、画像の共有・同期操作が行われたか否かを判定する。CPU101は、共有・同期操作が行われたと判定した場合はステップS609に処理を進め、そうでない場合はステップS610に処理を進める。
ステップS609では、CPU101は、外部機器またはサーバに画像ファイルを送信する。外部機器は、例えば、電子機器100とペアリングされたスマートフォンである。外部機器は、通信機能を有するストレージ装置(例えばHDD)であってもよい。サーバは、例えば、ソーシャル・ネットワーキング・サービス(SNS)のサーバである。サーバは、クラウド上のオンラインストレージであってもよい。
ステップS610では、CPU101は、他の操作が行われたか否かを判定する。CPU101は、他の操作が行われたと判定した場合はステップS611に処理を進め、そうでない場合はステップS612に処理を進める。
ステップS611では、CPU101は、他の処理(ステップS610で検知した操作に応じた処理)を行う。例えば、CPU101は、画像に対して、色味の変更およびトリミングといった編集処理を行う。
ステップS612では、CPU101は、再生モード処理の終了操作が行われたか否かを判定する。CPU101は、終了操作が行われたと判定した場合は図6の撮影モード処理を終了し、そうでない場合はステップS606に処理を進める。
なお、仮想空間の画像と非仮想空間の画像とが識別可能な表示を行う例を説明したが、拡張現実空間の画像と非拡張現実空間の画像とを識別可能な表示を行ってもよい。仮想空
間の画像、拡張現実空間の画像、および現実空間の画像の3種の画像を識別可能な表示を行ってもよい。
間の画像、拡張現実空間の画像、および現実空間の画像の3種の画像を識別可能な表示を行ってもよい。
図9(a)は、ファイル表示画面を示す。図9(a)では、電子機器100から、電子機器100とペアリングされたスマートフォン900に画像(画像ファイル)が送信され、スマートフォン900のディスプレイ901にファイル表示画面が表示されている。図9(a)のファイル表示画面には、電子機器100から送信された画像を含む複数の画像にそれぞれ対応する複数のサムネイル(サムネイル902~907)が一覧表示されている。仮想空間の画像のサムネイル902,904には、仮想空間の画像であることを示すアイテム902a,904aが重畳されて表示されている。拡張現実空間の画像のサムネイル903には、拡張現実空間の画像であることを示すアイテム903aが重畳されて表示されている。現実空間の画像のサムネイル905~907には、現実空間の画像であることを示すアイテム905a~907aが重畳されて表示されている。このような表示よれば、仮想空間の画像、拡張現実空間の画像、および現実空間の画像の3種の画像が識別可能となる。
また、画像の画角が識別可能となるような表示を行ってもよい。例えば、通常画角の画像と360°画像とが識別可能となるような表示を行ってもよい。2次元画像と3次元画像が識別可能となるような表示を行ってもよい。
図9(b)は、ファイル表示画面を示す。図9(b)では、電子機器100から、電子機器100とペアリングされたスマートフォン900に画像(画像ファイル)が送信され、スマートフォン900のディスプレイ901にファイル表示画面が表示されている。図9(a)のファイル表示画面と同様に、図9(b)のファイル表示画面には、電子機器100から送信された画像を含む複数の画像にそれぞれ対応する複数のサムネイル(サムネイル912~917)が一覧表示されている。仮想空間の画像のサムネイル912,914には、仮想空間の画像であることを示すアイテム912a,914aが重畳されて表示されている。拡張現実空間の画像のサムネイル913には、拡張現実空間の画像であることを示すアイテム913aが重畳されて表示されている。現実空間の画像のサムネイル915~917には、現実空間の画像であることを示すアイテム905a~907aが重畳されて表示されている。このような表示よれば、仮想空間の画像、拡張現実空間の画像、および現実空間の画像の3種の画像が識別可能となる。
さらに、通常画角で2次元の画像のサムネイル912,913,915,917には、2次元画像であることを示すアイテム912b,913b,915b,917bが重畳されて表示されている。そして、360°で且つ3次元の画像のサムネイル914,916には、360°画像であることを示すアイテム914b,916bが重畳されて表示されている。さらに、360°画像のサムネイル914,916の回転表示914c,916cが行われている。このような表示よれば、通常画角の画像と360°画像とが識別可能となる。2次元画像と3次元画像も識別可能となる。
なお、通常画角であることを示すアイテムを表示してもよいし、3次元画像であることを示すアイテムを表示してもよい。VR180画像が識別可能となるような表示を行ってもよい。例えば、VR180画像のサムネイルに、VR180画像であることを示すアイテムが重畳されて表示されてもよい。VR180画像のサムネイルの回転表示が行われてもよい。
なお、仮想空間の画像に対して仮想空間内での位置情報を付加し、非仮想空間の画像に対して現実空間内での位置情報を付加する例を説明したが、これに限られない。例えば、ユーザ(撮影者)が、現実空間内での位置情報と仮想空間内での位置情報とのどちらを記
録(付加)するのかを、予め設定できてもよい。サーバの管理者または仮想空間の管理者が、このような設定を、複数のユーザに対して一括で行うことができてもよい。例えば、現実空間を模した仮想空間の画像に対しては現実空間内での位置情報を付加し、仮想空間を模した現実空間の画像に対しては仮想空間内での位置情報を付加するようにしてもよい。仮想空間を構築するために使用される現実空間の画像(例えば、現実マンションの一室を仮想マンションの一室として配置するために使用される現実空間の画像)に対しても、仮想空間内での位置情報を付加してよい。画像に対して、仮想空間内での位置情報と、現実空間内での位置情報との両方を付加してもよい。その場合には、情報表示画面(例えば、図8(c)の撮影情報826、または図8(f)の撮影情報827)において、仮想空間内での位置情報と、現実空間内での位置情報との両方が表示されてもよい。
録(付加)するのかを、予め設定できてもよい。サーバの管理者または仮想空間の管理者が、このような設定を、複数のユーザに対して一括で行うことができてもよい。例えば、現実空間を模した仮想空間の画像に対しては現実空間内での位置情報を付加し、仮想空間を模した現実空間の画像に対しては仮想空間内での位置情報を付加するようにしてもよい。仮想空間を構築するために使用される現実空間の画像(例えば、現実マンションの一室を仮想マンションの一室として配置するために使用される現実空間の画像)に対しても、仮想空間内での位置情報を付加してよい。画像に対して、仮想空間内での位置情報と、現実空間内での位置情報との両方を付加してもよい。その場合には、情報表示画面(例えば、図8(c)の撮影情報826、または図8(f)の撮影情報827)において、仮想空間内での位置情報と、現実空間内での位置情報との両方が表示されてもよい。
仮想空間内での位置情報に限らず、仮想空間独自の情報を記録するか否かを設定できてもよい。例えば、CPU101は、撮影者(ユーザ)、サーバの管理者、または仮想空間の管理者からの指示に従って、仮想空間独自の情報を記録するか否かを設定する。
なお、仮想空間内での位置情報は、仮想空間内での仮想カメラの位置を示してもよいし、仮想空間内での撮影者(アバター)の位置を示してもよい。画像に対して仮想カメラの位置情報と撮影者の位置情報とのどちらを付加するのかを、撮影者(ユーザ)、サーバの管理者、または仮想空間の管理者が設定できてもよい。また、画像の空間と位置情報の空間とが異なる場合には、画像に対して、画像の空間と位置情報の空間とが異なることを示す情報をさらに付加してもよい。画像の空間と位置情報の空間が異なる場合とは、例えば、仮想空間の画像に対して現実空間内での位置情報が付加された場合、または現実空間の画像に対して仮想空間内での位置情報が付加された場合である。
なお、撮影者(アバター)の位置から離れた位置に仮想カメラが設置できてもよい。そして、撮影者から離れた位置に仮想カメラが設置された場合に、仮想カメラの位置情報を画像に付加するための設定が自動で行われてもよい。例えば、通常は、画像に対して、仮想カメラの位置情報は付加されずに、撮影者の位置情報が付加される。そして、撮影者から離れた位置に仮想カメラが設置されると、画像に対して、撮影者の位置情報は付加されずに、仮想カメラの位置情報が付加されるようになる。撮影者から離れた位置に仮想カメラが設置された場合に、画像に対して、撮影者の位置情報と仮想カメラの位置情報との両方が付加されてもよい。また、撮影画像の形式として、360°画像またはVR180画像といったVR形式が設定された場合に、仮想カメラの位置情報を画像に付加するための設定が自動で行われてもよい。
なお、仮想空間内での位置情報の形式は特に限定されない。仮想空間内での位置情報は極座標系の情報を含んでもよい。例えば、仮想空間内での位置情報は、仮想空間(3次元空間)の原点、原点からの距離、方角、仰角、および高度を含んでもよい。仮想地球上で撮影を行う場合には、仮想空間内での位置情報は仮想地球上での緯度と経度を含んでもよい。仮想空間内での位置情報は、仮想空間内でのエリアを示す情報であってもよい。仮想空間内での位置情報は、所定の位置からの距離を示す情報であってもよい。仮想空間内での位置情報は、X軸とY軸で定義される2次元空間内での位置またはエリアを示してもよい。
また、複数の仮想空間アプリケーションが存在する場合に、仮想空間独自の情報は、当該仮想空間を識別可能な情報(どのアプリケーション内の仮想空間かを一意に特定可能な情報)を含んでもよい。例えば、仮想空間独自の情報は、当該仮想空間を提供しているサーバのIPアドレスを含んでもよい。仮想空間を提供するサーバの数は1台であってもよいし、複数台であってもよい。仮想空間独自の情報は、グローバルIPアドレスを含んでもよいし、パブリックIPアドレスを含んでもよい。例えば、仮想空間の画像に対して、
複数のサーバにそれぞれ割り当てられた複数のパブリックIPアドレスのうち、撮影者がログインしていたサーバのパブリックIPアドレスを付加してもよい。仮想空間独自の情報は、サーバ内でのディレクトリ構成の情報を含んでもよい。インターネット上に公開された仮想空間の場合には、仮想空間独自の情報はURLを含んでもよい。
複数のサーバにそれぞれ割り当てられた複数のパブリックIPアドレスのうち、撮影者がログインしていたサーバのパブリックIPアドレスを付加してもよい。仮想空間独自の情報は、サーバ内でのディレクトリ構成の情報を含んでもよい。インターネット上に公開された仮想空間の場合には、仮想空間独自の情報はURLを含んでもよい。
なお、仮想空間内での時刻情報は、仮想空間内で一意に決まる時刻を示してもよいし、仮想空間内のエリア(ワールド)に対して設定された時刻を示してもよい。また、仮想空間内での時刻情報は、時間帯(朝、昼、または夜)を示す情報であってもよいし、季節を示す情報であってもよい。また、仮想空間内での時刻情報は、複数の仮想空間アプリケーションの間で共通の情報であってもよい。
なお、仮想空間内での位置情報は、Exif形式のメタデータにどのように格納されてもよい。例えば、図10(a)に示すように、仮想空間内での位置情報はメーカーノートに格納されてもよい。図10(b)に示すように、Exif形式のメタデータは、現実空間内での位置情報を格納する領域1001を含んでいてもよい。その場合に、仮想空間内での位置情報は領域1001に格納されてもよい。図10(c)に示すように、Exif形式のメタデータは、現実空間内での位置情報を格納する領域1001と、仮想空間内での位置情報を格納する領域1002と含んでいてもよい。その場合に、仮想空間内での位置情報は領域1002に格納されてもよい。図10(d)に示すように、現実空間内での位置情報が領域1001に格納され、仮想空間内での位置情報が領域1002に格納されてもよい。現実空間内での位置情報と仮想空間内での位置情報との2つの位置情報がメタデータに格納される場合には、2つの位置情報のどちらがメイン情報(再生モード処理(または再生機器の処理)で使用する情報)であるかを示す情報をメタデータに含めてもよい。
仮想空間内での時刻情報は、Exif形式のメタデータにどのように格納されてもよい。仮想空間内での時刻情報は、仮想空間内での位置情報と同様にメタデータに格納することができる。
なお、仮想空間にしか存在しない仮想カメラを使用する場合には、仮想空間独自の情報は、使用する仮想カメラの名称を含んでもよい。同様に、拡張現実空間にしか存在しない仮想カメラを使用する場合には、拡張現実空間独自の情報は、使用する仮想カメラの名称を含んでもよい。
仮想空間と非仮想空間を同時に撮影し、仮想空間の画像と非仮想空間の画像とが配置された合成画像を記録してもよい。例えば、仮想空間の画像と非仮想空間の画像とがピクチャーインピクチャー形式で配置された合成画像を記録してもよい。各々の画角が180°の仮想空間の画像と非仮想空間の画像とを合成することによって、合成画像として360°画像を生成してもよい。
なお、メタデータを画像に付加する例を説明したが、画像に紐づけられる形式で、画像ファイルとは別にメタデータのファイルが生成されて記録されてもよい。仮想空間独自の情報を記録する制御として、所定の命名規則で仮想空間の画像のファイル名を決定する処理を行ってもよい。例えば、ファイル名「AppX_VR_001.JPEG」のように、仮想空間アプリケーションAppXの仮想空間であることを示す文字列「AppX_VR」をファイル名に含めてもよい。同様に、拡張現実空間独自の情報を記録する制御として、所定の命名規則で拡張現実空間の画像のファイル名を決定する処理を行ってもよい。例えば、ファイル名「AppX_AR_001.JPEG」のように、仮想空間アプリケーションAppXの拡張現実空間であることを示す文字列「AppX_AR」をファイル名に含めてもよい。
なお、電子機器100(CPU101)は、画像(画像ファイル)を外部機器またはサーバに送信する際に、プライバシー保護のために、メタデータの一部または全部を送信しなくてもよい(削除してもよい)。例えば、電子機器100は、仮想空間の画像を外部機器またはサーバに送信する際に、メタデータに含まれた仮想空間独自の情報を送信しなくてもよい。電子機器100は、画像を特定の外部機器(例えば、電子機器100とペアリングされた外部機器)に送信する際にはメタデータを送信し(削除せず)、画像を特定の外部機器でない外部機器に送信する際にはメタデータを送信しない(削除する)としてもよい。そして、特定の外部機器が外部に画像を送信する際にメタデータが送信されない(削除される)ようにしてもよい。
また仮想空間上で、仮想カメラのディスプレイを他のユーザに見せる際には、相手ユーザには現実空間独自の情報を非表示にしてもよい。このとき、例えば仮想カメラのディスプレイに相手ユーザに公開するメニューを選択することで、仮想カメラのディスプレイを他のユーザに見せるよう操作する。あるいは、相手ユーザのアバターの位置と視線方向、および仮想カメラの位置とディスプレイの表示面の方向とから、相手ユーザの視界に表示される状態であるかどうかを自動的に計算し、相手のユーザに見える状態であれば自動的に現実空間独自の情報を非表示にしてもよい。
また、仮想空間上で他のユーザに画像を共有した場合(画像を他のユーザに送信する場合)は、現実空間独自の情報を送信しないようにしてもよい。例えば、現実空間独自の情報を削除し、仮想空間の情報を残した画像を生成して他のユーザに送信するようにしてもよい。
これとは反対に、現実空間上で、他のユーザに対して画像を表示、または共有する際には、仮想空間独自の情報を送信しないようにしてもよい(仮想空間独自の情報を削除してもよい)。更に、現実ユーザが任意のタイミングおよび操作でメタデータを削除できてもよい。
以上述べたように、本実施形態によれば、仮想空間(または拡張現実空間)の画像を記録する際に、仮想空間(または拡張現実空間)独自の情報が記録される。そして、仮想空間(または拡張現実空間)独自の情報に基づいて、記録された仮想空間(または拡張現実空間)の画像を識別可能な表示が行われる。こうすることにより、仮想空間(または拡張現実空間)の画像を含む複数の画像を好適に管理できるようになる。ひいては、画像の検索、編集、および共有が行いやすくなる。
なお、CPU101が行うものとして説明した上述の各種制御は、1つのハードウェアが行ってもよいし、複数のハードウェア(例えば、複数のプロセッサまたは回路)が処理を分担することで、装置全体の制御を行ってもよい。
また、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。さらに、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
仮想空間独自の情報を取得する取得手段と、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。
(構成2)
前記仮想空間独自の情報は、前記仮想空間であることを示すフラグを含む
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含む
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含む
ことを特徴とする構成1~3のいずれか1項に記載の電子機器。
(構成5)
前記仮想空間の画像を記録する前記制御は、仮想カメラを用いて前記仮想空間を撮影する制御である
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
前記仮想空間独自の情報は、前記仮想カメラの名称を含む
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記仮想空間独自の情報を記録する前記制御は、所定の命名規則で前記仮想空間の画像のファイル名を決定する処理を含む
ことを特徴とする構成1~6のいずれか1項に記載の電子機器。
(構成8)
前記仮想空間独自の情報を記録する前記制御は、Exif形式の情報を記録する制御を含む
ことを特徴とする構成1~7のいずれか1項に記載の電子機器。
(構成9)
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、メーカーノートに格納する
ことを特徴とする構成8に記載の電子機器。
(構成10)
前記Exif形式の情報は、現実空間内での位置情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、前記現実空間内での位置情報を格納する前記領域に格納する
ことを特徴とする構成8に記載の電子機器。
(構成11)
前記Exif形式の情報は、位置情報を格納する第1の領域と第2の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を前記第2の領域に格納する
ことを特徴とする構成8に記載の電子機器。
(構成12)
前記制御手段は、現実空間内での位置情報を前記第1の領域に格納する
ことを特徴とする構成11に記載の電子機器。
(構成13)
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、メーカーノートに格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成14)
前記Exif形式の情報は、現実空間内での時刻情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、前記現実空間内での時刻情報を格納する前記領域に格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成15)
前記Exif形式の情報は、時刻情報を格納する第3の領域と第4の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を前記第4の領域に格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成16)
前記制御手段は、現実空間内での時刻情報を前記第3の領域に格納する
ことを特徴とする構成15に記載の電子機器。
(構成17)
前記仮想空間独自の情報を記録するか否かを設定する設定手段をさらに有する
ことを特徴とする構成1~16のいずれか1項に記載の電子機器。
(構成18)
前記制御手段は、前記仮想空間の画像を外部機器に送信するように制御する際に、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする構成1~17のいずれか1項に記載の電子機器。
(構成19)
前記制御手段は、前記仮想空間の画像を特定の外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するように制御し、前記仮想空間の画像を前記特定の外部機器でない外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする構成1~17のいずれか1項に記載の電子機器。
(構成20)
前記特定の外部機器は、前記電子機器とペアリングされた外部機器である
ことを特徴とする構成19に記載の電子機器。
(構成21)
前記仮想空間独自の情報は、当該仮想空間を識別可能な情報を含む
ことを特徴とする構成1~20のいずれか1項に記載の電子機器。
(構成22)
前記制御手段は、前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する
ことを特徴とする構成1~21のいずれか1項に記載の電子機器。
(構成23)
前記制御手段は、前記仮想空間の画像の画角が識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行う
ことを特徴とする構成22に記載の電子機器。
(構成24)
前記制御手段は、前記仮想空間の画像が2次元画像であるか3次元画像であるかが識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行うことを特徴とする構成22に記載の電子機器。
(構成25)
前記制御手段は、前記仮想空間の画像の情報表示画面に、前記仮想空間独自の情報の少
なくとも一部に基づく情報を表示するように制御する
ことを特徴とする構成1~24のいずれか1項に記載の電子機器。
(構成26)
前記制御手段は、前記仮想空間の画像の再生画面に、前記仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御する
ことを特徴とする構成1~25のいずれか1項に記載の電子機器。
(構成27)
前記制御手段は、前記仮想空間の画像を記録するように制御する際には、仮想空間内での位置情報を記録するように制御し、前記仮想空間とは異なる空間の画像を記録するように制御する際には、現実空間内での位置情報を記録するように制御する
ことを特徴とする構成1~26のいずれか1項に記載の電子機器。
(構成28)
前記仮想空間とは異なる前記空間は拡張現実空間である
ことを特徴とする構成27に記載の電子機器。
(構成29)
拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。
(構成30)
仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得する取得手段と、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。
(構成31)
拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。
(方法1)
仮想空間独自の情報を取得するステップと、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法2)
拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法3)
仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得するステップと、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法4)
拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
(構成1)
仮想空間独自の情報を取得する取得手段と、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。
(構成2)
前記仮想空間独自の情報は、前記仮想空間であることを示すフラグを含む
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含む
ことを特徴とする構成1または2に記載の電子機器。
(構成4)
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含む
ことを特徴とする構成1~3のいずれか1項に記載の電子機器。
(構成5)
前記仮想空間の画像を記録する前記制御は、仮想カメラを用いて前記仮想空間を撮影する制御である
ことを特徴とする構成1~4のいずれか1項に記載の電子機器。
(構成6)
前記仮想空間独自の情報は、前記仮想カメラの名称を含む
ことを特徴とする構成5に記載の電子機器。
(構成7)
前記仮想空間独自の情報を記録する前記制御は、所定の命名規則で前記仮想空間の画像のファイル名を決定する処理を含む
ことを特徴とする構成1~6のいずれか1項に記載の電子機器。
(構成8)
前記仮想空間独自の情報を記録する前記制御は、Exif形式の情報を記録する制御を含む
ことを特徴とする構成1~7のいずれか1項に記載の電子機器。
(構成9)
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、メーカーノートに格納する
ことを特徴とする構成8に記載の電子機器。
(構成10)
前記Exif形式の情報は、現実空間内での位置情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、前記現実空間内での位置情報を格納する前記領域に格納する
ことを特徴とする構成8に記載の電子機器。
(構成11)
前記Exif形式の情報は、位置情報を格納する第1の領域と第2の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を前記第2の領域に格納する
ことを特徴とする構成8に記載の電子機器。
(構成12)
前記制御手段は、現実空間内での位置情報を前記第1の領域に格納する
ことを特徴とする構成11に記載の電子機器。
(構成13)
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、メーカーノートに格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成14)
前記Exif形式の情報は、現実空間内での時刻情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、前記現実空間内での時刻情報を格納する前記領域に格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成15)
前記Exif形式の情報は、時刻情報を格納する第3の領域と第4の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を前記第4の領域に格納する
ことを特徴とする構成8~12のいずれか1項に記載の電子機器。
(構成16)
前記制御手段は、現実空間内での時刻情報を前記第3の領域に格納する
ことを特徴とする構成15に記載の電子機器。
(構成17)
前記仮想空間独自の情報を記録するか否かを設定する設定手段をさらに有する
ことを特徴とする構成1~16のいずれか1項に記載の電子機器。
(構成18)
前記制御手段は、前記仮想空間の画像を外部機器に送信するように制御する際に、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする構成1~17のいずれか1項に記載の電子機器。
(構成19)
前記制御手段は、前記仮想空間の画像を特定の外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するように制御し、前記仮想空間の画像を前記特定の外部機器でない外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする構成1~17のいずれか1項に記載の電子機器。
(構成20)
前記特定の外部機器は、前記電子機器とペアリングされた外部機器である
ことを特徴とする構成19に記載の電子機器。
(構成21)
前記仮想空間独自の情報は、当該仮想空間を識別可能な情報を含む
ことを特徴とする構成1~20のいずれか1項に記載の電子機器。
(構成22)
前記制御手段は、前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する
ことを特徴とする構成1~21のいずれか1項に記載の電子機器。
(構成23)
前記制御手段は、前記仮想空間の画像の画角が識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行う
ことを特徴とする構成22に記載の電子機器。
(構成24)
前記制御手段は、前記仮想空間の画像が2次元画像であるか3次元画像であるかが識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行うことを特徴とする構成22に記載の電子機器。
(構成25)
前記制御手段は、前記仮想空間の画像の情報表示画面に、前記仮想空間独自の情報の少
なくとも一部に基づく情報を表示するように制御する
ことを特徴とする構成1~24のいずれか1項に記載の電子機器。
(構成26)
前記制御手段は、前記仮想空間の画像の再生画面に、前記仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御する
ことを特徴とする構成1~25のいずれか1項に記載の電子機器。
(構成27)
前記制御手段は、前記仮想空間の画像を記録するように制御する際には、仮想空間内での位置情報を記録するように制御し、前記仮想空間とは異なる空間の画像を記録するように制御する際には、現実空間内での位置情報を記録するように制御する
ことを特徴とする構成1~26のいずれか1項に記載の電子機器。
(構成28)
前記仮想空間とは異なる前記空間は拡張現実空間である
ことを特徴とする構成27に記載の電子機器。
(構成29)
拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。
(構成30)
仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得する取得手段と、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。
(構成31)
拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。
(方法1)
仮想空間独自の情報を取得するステップと、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法2)
拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法3)
仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得するステップと、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(方法4)
拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
100:電子機器 101:CPU
Claims (37)
- 仮想空間独自の情報を取得する取得手段と、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。 - 前記仮想空間独自の情報は、前記仮想空間であることを示すフラグを含む
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間独自の情報は、前記仮想空間内での位置情報を含む
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含む
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間の画像を記録する前記制御は、仮想カメラを用いて前記仮想空間を撮影する制御である
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間独自の情報は、前記仮想カメラの名称を含む
ことを特徴とする請求項5に記載の電子機器。 - 前記仮想空間独自の情報を記録する前記制御は、所定の命名規則で前記仮想空間の画像のファイル名を決定する処理を含む
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間独自の情報を記録する前記制御は、Exif形式の情報を記録する制御を含む
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、メーカーノートに格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記Exif形式の情報は、現実空間内での位置情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を、前記現実空間内での位置情報を格納する前記領域に格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記Exif形式の情報は、位置情報を格納する第1の領域と第2の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での位置情報を含み、
前記制御手段は、前記仮想空間内での位置情報を前記第2の領域に格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記制御手段は、現実空間内での位置情報を前記第1の領域に格納する
ことを特徴とする請求項11に記載の電子機器。 - 前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、メーカーノートに格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記Exif形式の情報は、現実空間内での時刻情報を格納する領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を、前記現実空間内での時刻情報を格納する前記領域に格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記Exif形式の情報は、時刻情報を格納する第3の領域と第4の領域を含み、
前記仮想空間独自の情報は、前記仮想空間内での時刻情報を含み、
前記制御手段は、前記仮想空間内での時刻情報を前記第4の領域に格納する
ことを特徴とする請求項8に記載の電子機器。 - 前記制御手段は、現実空間内での時刻情報を前記第3の領域に格納する
ことを特徴とする請求項15に記載の電子機器。 - 前記仮想空間独自の情報を記録するか否かを設定する設定手段をさらに有する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像を外部機器に送信するように制御する際に、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像を特定の外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するように制御し、前記仮想空間の画像を前記特定の外部機器でない外部機器に送信するように制御する際には、前記仮想空間独自の情報を前記外部機器に送信するようには制御しない
ことを特徴とする請求項1に記載の電子機器。 - 前記特定の外部機器は、前記電子機器とペアリングされた外部機器である
ことを特徴とする請求項19に記載の電子機器。 - 前記仮想空間独自の情報は、当該仮想空間を識別可能な情報を含む
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像の画角が識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行う
ことを特徴とする請求項22に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像が2次元画像であるか3次元画像であるかが識別可能となるように、前記仮想空間の画像のファイルを識別可能に表示する前記制御を行うことを特徴とする請求項22に記載の電子機器。
- 前記制御手段は、前記仮想空間の画像の情報表示画面に、前記仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像の再生画面に、前記仮想空間独自の情報の少なくとも一部に基づく情報を表示するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記仮想空間の画像を記録するように制御する際には、仮想空間内での位置情報を記録するように制御し、前記仮想空間とは異なる空間の画像を記録するように制御する際には、現実空間内での位置情報を記録するように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記仮想空間とは異なる前記空間は拡張現実空間である
ことを特徴とする請求項27に記載の電子機器。 - 拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御する制御手段と
を有することを特徴とする電子機器。 - 仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得する取得手段と、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。 - 拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得する取得手段と、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画像のファイルを識別可能に表示するように制御する制御手段と
を有することを特徴とする電子機器。 - 仮想空間独自の情報を取得するステップと、
前記仮想空間の画像を記録するように制御する際に、前記仮想空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。 - 拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間の画像を記録するように制御する際に、前記拡張現実空間独自の情報を記録するように制御するステップと
を有することを特徴とする電子機器の制御方法。 - 仮想空間の画像のファイルに紐づいた、前記仮想空間独自の情報を取得するステップと、
前記仮想空間独自の情報に基づいて、ファイル表示画面に、前記仮想空間の画像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。 - 拡張現実空間の画像のファイルに紐づいた、前記拡張現実空間独自の情報を取得するステップと、
前記拡張現実空間独自の情報に基づいて、ファイル表示画面に、前記拡張現実空間の画
像のファイルを識別可能に表示するように制御するステップと
を有することを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~31のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022145046A JP2024040601A (ja) | 2022-09-13 | 2022-09-13 | 電子機器 |
PCT/JP2023/022636 WO2024057650A1 (ja) | 2022-09-13 | 2023-06-19 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022145046A JP2024040601A (ja) | 2022-09-13 | 2022-09-13 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024040601A true JP2024040601A (ja) | 2024-03-26 |
Family
ID=90274554
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022145046A Pending JP2024040601A (ja) | 2022-09-13 | 2022-09-13 | 電子機器 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024040601A (ja) |
WO (1) | WO2024057650A1 (ja) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130222369A1 (en) * | 2012-02-23 | 2013-08-29 | Charles D. Huston | System and Method for Creating an Environment and for Sharing a Location Based Experience in an Environment |
JP2020119335A (ja) * | 2019-01-24 | 2020-08-06 | 株式会社バンダイナムコエンターテインメント | プログラム、カメラワークデータ生成方法および電子機器 |
-
2022
- 2022-09-13 JP JP2022145046A patent/JP2024040601A/ja active Pending
-
2023
- 2023-06-19 WO PCT/JP2023/022636 patent/WO2024057650A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024057650A1 (ja) | 2024-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12112443B2 (en) | Display control apparatus, display control method, and program | |
JP7498209B2 (ja) | 情報処理装置、情報処理方法およびコンピュータプログラム | |
US20100208033A1 (en) | Personal Media Landscapes in Mixed Reality | |
JP2022537614A (ja) | マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム | |
US20210352348A1 (en) | Methods, systems, and media for object grouping and manipulation in immersive environments | |
JP6392945B1 (ja) | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 | |
JP6337907B2 (ja) | 表示制御装置、表示制御方法およびプログラム | |
US20230400956A1 (en) | Displaying Representations of Environments | |
JP2018142230A (ja) | 情報処理装置、情報処理システム、情報処理方法及びプログラム | |
WO2018074045A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
EP3449390A1 (en) | Augmented media | |
JP6617547B2 (ja) | 画像管理システム、画像管理方法、プログラム | |
KR101459701B1 (ko) | 센서가 부착된 단말기에서의 뮤직비디오 생성 방법 | |
JP7527778B2 (ja) | 電子機器、電子機器の制御方法、プログラム、記憶媒体 | |
WO2024057650A1 (ja) | 電子機器 | |
JP2019021324A (ja) | 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置 | |
JP2024117559A (ja) | 情報処理装置、情報処理装置の制御方法およびプログラム | |
JP7400810B2 (ja) | 情報処理装置、情報処理方法、及び記録媒体 | |
JP5247907B1 (ja) | データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム | |
US11740773B2 (en) | Information processing device and method | |
WO2019044100A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2023134045A (ja) | 通信装置、通信システム、表示方法、及びプログラム | |
JP2024017866A (ja) | システムおよび方法 | |
KR20230029233A (ko) | 아바타 촬영 모드 전환을 위한 인터페이스 제공 방법, 장치, 및 컴퓨터 프로그램 | |
JP5475163B2 (ja) | データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム |