WO2023190468A1 - 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 - Google Patents

仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 Download PDF

Info

Publication number
WO2023190468A1
WO2023190468A1 PCT/JP2023/012414 JP2023012414W WO2023190468A1 WO 2023190468 A1 WO2023190468 A1 WO 2023190468A1 JP 2023012414 W JP2023012414 W JP 2023012414W WO 2023190468 A1 WO2023190468 A1 WO 2023190468A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
imaging device
display
virtual
live view
Prior art date
Application number
PCT/JP2023/012414
Other languages
English (en)
French (fr)
Inventor
充史 三沢
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023190468A1 publication Critical patent/WO2023190468A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Abstract

現実世界に仮想画像を重ね合わせ、撮像装置単体では表示できない画像を表示する仮想画像表示装置、撮像装置、仮想画像表示システム及び方法を提供する。プロセッサ及び第1ディスプレイを有する仮想画像表示装置(100)は、撮像装置(200)からのライブビュー画像を受信する。プロセッサは、ライブビュー画像を撮像装置(200)の表示領域に重ね合わせる際に使用する変換情報を取得し、その変換情報に基づいてライブビュー画像を幾何変換する。第1ディスプレイは、幾何変換されたライブビュー画像を表示する。ユーザは、光学系(146)を介して撮像装置(200)の表示領域に重ね合わされた仮想のライブビュー画像を視認することができる。

Description

仮想画像表示装置、撮像装置、仮想画像表示システム及び方法
 本発明は仮想画像表示装置、撮像装置、仮想画像表示システム及び方法に係り、特に現実世界に仮想画像を重ね合わせて表示する技術に関する。
 従来、仮想空間における撮影を実行し、撮影により生成された写真(画像)を容易に確認できる方法が提案されている(特許文献1)。
 特許文献1に記載の方法は、ヘッドマウントデバイス(HMD:Head-Mounted Device)を用いて提供される仮想空間の中心に仮想カメラを配置し、仮想カメラの位置及び姿勢から仮想カメラの撮影範囲に対応する画像を生成し、生成した画像を仮想カメラのプレビュー画面に表示する。そして、ユーザからの撮影指示により仮想空間での撮影が行われると、写真画像を生成してメモリに保存し、また、生成した写真画像を仮想空間の予め定めた位置に配置し、写真画像が配置された位置を、HMDを装着したユーザに通知する。
 特許文献1に記載の仮想カメラは、メモリモジュールに保存されたオブジェクト情報に基づいて生成され、仮想空間に配置されるカメラオブジェクトであり、アバターオブジェクトの手の部分に相当する手オブジェクトによりカメラオブジェクトに設けられたボタンの押下を受け付けると、仮想空間における撮影を実行する。尚、アバターオブジェクトの手の部分に相当する手オブジェクトは、ユーザの手の位置に連動するように移動する。また、特許文献1では、HMDデバイスを用いて仮想カメラの撮影映像を提供しているが、透過型スマートグラス、網膜投影等の方法も考えられる。
 また、特許文献2には、現実世界と仮想世界を融合させた拡張現実(AR:Augmented Reality)の技術を、ゲームなどに有効に活用する情報処理装置が提案されている。
 特許文献2に記載の情報処理装置は、実空間を撮影する背面カメラから撮影画像を取得し、撮影画像に含まれるマーカを検出すると、そのマーカに対応する情報処理(ゲーム)を開始し、マーカに対応するキャラクタ、アイコンの仮想オブジェクトを、被写空間に対応する3次元座標系に配置して撮影画像上に描画し、表面の表示装置に表示する。アイコンは、マーカが置かれている平面上に置かれているように表現し、表示画面上のタッチパッドに対する接触、あるいは指による被写空間における対応位置の指示のいずれかに基づき操作可能としている。
特開2019-21236号公報 特開2015-41126号公報
 本開示の技術に係る一つの実施形態は、現実世界に仮想画像を重ね合わせ、従来の撮像装置単体では表示できない画像を表示する仮想画像表示装置、撮像装置、仮想画像表示システム及び方法を提供する。
 第1態様に係る発明は、プロセッサ及び第1ディスプレイを有する仮想画像表示装置であって、仮想画像表示装置は、第1撮像装置からのライブビュー画像を受信し、プロセッサは、ライブビュー画像を第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得し、情報に基づいてライブビュー画像を変換し、第1ディスプレイは、変換されたライブビュー画像を表示する、仮想画像表示装置である。
 本発明の第2態様に係る仮想画像表示装置において、第1ディスプレイは、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであることが好ましい。
 本発明の第3態様に係る仮想画像表示装置において、ユーザの視野範囲を撮影する第2撮像装置を有し、プロセッサは、第2撮像装置が撮影した撮影画像を解析して表示領域を特定し、情報を取得する。
 本発明の第4態様に係る仮想画像表示装置において、プロセッサは、第2撮像装置が撮影した第1撮像装置のマーカの位置に基づいて情報を取得する。
 本発明の第5態様に係る仮想画像表示装置において、プロセッサは、第1ディスプレイを基準にした第1撮像装置の3次元位置及び姿勢を示す情報を取得し、3次元位置及び姿勢を示す情報に基づいて情報を取得する。
 本発明の第6態様に係る仮想画像表示装置において、第1撮像装置は、ライブビュー画像を表示する第2ディスプレイを有し、表示領域は、第2ディスプレイの表示領域であることが好ましい。
 本発明の第7態様に係る仮想画像表示装置において、第2ディスプレイは、第1撮像装置の装置本体との相対的な姿勢関係が回動によって変更可能な回動機構を備え、表示領域は、回動した第2ディスプレイの表示領域であることが好ましい。
 本発明の第8態様に係る仮想画像表示装置において、第1撮像装置は、ビューファインダを有し、表示領域は、ビューファインダの表示領域であることが好ましい。
 本発明の第9態様に係る仮想画像表示装置において、第1ディスプレイは、視野を透過するディスプレイであって、現実世界の視野に変換したライブビュー画像を表示することが好ましい。
 本発明の第10態様に係る仮想画像表示装置において、ユーザの視野範囲を撮影する第2撮像装置を備え、第1ディスプレイは、視野を覆う没入型のディスプレイであって、第2撮像装置が撮影した撮影画像に、変換したライブビュー画像を重ね合わせた合成画像を表示することが好ましい。
 本発明の第11態様に係る仮想画像表示装置において、プロセッサは、ライブビュー画像に仮想オブジェクト画像を合成することが好ましい。
 本発明の第12態様に係る発明は、プロセッサ、第1ディスプレイ及びユーザの視野範囲を撮影する第2撮像装置を有する仮想画像表示装置であって、プロセッサは、第2撮像装置が撮影した画像から、少なくともグリップ部を備えた仮想カメラの画角に対応する画像を切り出してライブビュー画像として取得し、ライブビュー画像を仮想カメラの表示領域に重ね合わせる際に使用する情報を取得し、情報に基づいてライブビュー画像を変換し、第1ディスプレイは、変換されたライブビュー画像を表示する、仮想画像表示装置である。
 本発明の第13態様に係る仮想画像表示装置において、変換は、幾何変換であることが好ましい。
 第14態様に係る発明は、ライブビュー画像を撮影する撮像部と、第1モードと第2モードとを切り替えるモード切替え部と、第1モードに切り替えられた場合にライブビュー画像を表示する第2ディスプレイ又はビューファインダと、第2モードに切り替えられた場合にライブビュー画像を、第1態様から第11態様のいずれかの仮想画像表示装置に送信する通信部と、を備えた撮像装置である。
 本発明の第15態様に係る撮像装置において、第2モードに切り替えられた場合に、第2ディスプレイ又はビューファインダにマーカを表示することが好ましい。
 第16態様に係る発明は、第1態様から第13態様のいずれかの仮想画像表示装置と、第14態様又は第15態様の撮像装置と、から構成された仮想画像表示システムである。
 本発明の第17態様に係る仮想画像表示システムにおいて、仮想画像表示装置のプロセッサは、ライブビュー画像に仮想オブジェクト画像を合成し、第2モードに切り替えられた状態で記録用の撮影が行われると、仮想オブジェクト画像を撮像装置に送信し、撮像装置は、第2モードに切り替えられた状態で記録用の撮影を行うと、撮影した画像と仮想画像表示装置から受信した仮想オブジェクト画像とを紐付けて記録し、又は撮影した画像に仮想オブジェクト画像を合成して記録することが好ましい。
 第18態様に係る発明は、第1態様から第11態様のいずれかの仮想画像表示装置と、仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、サーバは、実空間の3次元情報を有する3次元画像を管理し、プロセッサは、第1撮像装置の3次元位置及び姿勢を示す第1情報に基づいて、サーバが管理している3次元画像から、第1撮像装置の撮影領域に対応する3次元画像を切り出し、切り出した3次元画像を2次元画像に変換し、2次元画像をライブビュー画像として使用する、仮想画像表示システムである。
 第19態様に係る発明は、第12態様の仮想画像表示装置と、仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、サーバは、実空間の3次元情報を有する3次元画像を管理し、プロセッサは、仮想カメラの3次元位置及び姿勢を示す第1情報に基づいて、サーバが管理している3次元画像から、仮想カメラの撮影領域に対応する3次元画像を切り出し、切り出した3次元画像を2次元画像に変換し、2次元画像をライブビュー画像として使用する、仮想画像表示システムである。
 本発明の第20態様に係る仮想画像表示システムにおいて、サーバは、実空間に配置された多視点カメラ、監視カメラ、ドライブレコーダ、ドローンカメラ、又は携帯端末カメラを含む多数のカメラにより撮影された画像から最新の3次元画像を生成して管理することが好ましい。
 本発明の第21態様に係る仮想画像表示システムにおいて、サーバは、3次元画像に仮想オブジェクト画像を合成することが好ましい。
 第22態様に係る発明は、プロセッサ及び第1ディスプレイを有する仮想画像表示装置が実行する仮想画像表示方法であって、プロセッサが、第1撮像装置からのライブビュー画像を受信するステップと、プロセッサが、ライブビュー画像を第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得するステップと、プロセッサが、情報に基づいてライブビュー画像を変換するステップと、第1ディスプレイが、変換されたライブビュー画像を表示するステップと、を含む仮想画像表示方法である。
図1は、本発明に係る仮想画像表示システムのシステム構成を示す図である。 図2は、図1に示した撮像装置を前方から見た斜視図である。 図3は、撮像装置のモニタパネルの3つの開閉状態を示す図である。 図4は、仮想画像表示装置の第2撮像装置により撮像装置を含む視野画像を撮影する様子を示す図である。 図5は、撮像装置の特定の表示領域にライブビュー画像が重畳される様子を示す図である。 図6は、本発明に係る仮想画像表示システムを構成する仮想画像表示装置の実施形態を示すブロック図である。 図7は、本発明に係る撮像装置の実施形態を示すブロック図である。 図8は、本発明に係る仮想画像表示システムの第1実施形態を示す要部ブロック図である。 図9は、ライブビュー画像と視野画像と撮像装置の表示領域との幾何的な関係を示す図である。 図10は、ARマーカが設けられた撮像装置の外観を示す図である。 図11は、仮想画像表示装置のXRディスプレイの第1実施形態を示す図である。 図12は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第1表示例を示す図である。 図13は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第2表示例を示す図である。 図14は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第3表示例を示す図である。 図15は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第4表示例を示す図である。 図16は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。 図17は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。 図18は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第6表示例を示す図である。 図19は、撮像装置がXRモードに設定されている場合の撮像装置の第1外観例を示す図である。 図20は、撮像装置がXRモードに設定されている場合の撮像装置の第2外観例を示す図である。 図21は、撮像装置がXRモードに設定されている場合の撮像装置の第3外観例を示す図である。 図22は、撮像装置の外観を複数の領域に分割して変更する場合の概念図である。 図23は、XR環境での使用に対応した撮像装置の斜視図である。 図24は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す背面側からの斜視図である。 図25は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す前面側からの斜視図である。 図26は、本発明に係る仮想画像表示システムを構成する仮想カメラの他の実施形態を示す斜視図である。 図27は、仮想カメラが撮影するライブビュー画像の取得方法の実施形態を示す図である。 図28は、仮想画像表示装置のXRディスプレイの第2実施形態を示す図である。 図29は、本発明に係る仮想画像表示システムの第2実施形態を示すブロック図である。 図30は、本発明に係る仮想画像表示方法の第1実施形態を示すフローチャートである。 図31は、本発明に係る撮像装置による表示方法を示すフローチャートである。 図32は、本発明に係る仮想画像表示方法の第2実施形態を示すフローチャートである。 図33は、図32に示した撮像装置の確認を行うステップS300の処理の実施形態を示すサブルーチンである。 図34は、図32に示したライブビュー画像LV1の重ね合わせ表示を行うステップS3200の処理の実施形態を示すサブルーチンである。 図35は、図32に示した撮影情報INFOの重ね合わせ表示を行うステップS330の処理の実施形態を示すサブルーチンである。 図36は、図32に示した再生画像の重ね合わせ表示を行うステップS340の処理の実施形態を示すサブルーチンである。 図37は、撮像装置の外観変更方法の実施形態を示すフローチャートである。
 以下、添付図面に従って本発明に係る仮想画像表示装置、撮像装置、仮想画像表示システム及び方法の好ましい実施形態について説明する。
 [仮想画像表示システムの概要]
 図1は、本発明に係る仮想画像表示システムのシステム構成を示す図である。
 図1に示す仮想画像表示システム10は、仮想画像表示装置100と、第1撮像装置(以下、単に「撮像装置」という)200とから構成され、仮想画像表示装置100と撮像装置200とは相互に通信する。通信は、Bluetooth(登録商標)、Wi-Fi(Wireless Fidelity)(登録商標)等の規格の近距離無線通信が好ましいが、有線でもよい。
 この実施形態の仮想画像表示装置100は、メガネ型の仮想画像表示機能を有するウェアラブルデバイスであり、図示しないプロセッサ及び第1ディスプレイ、及び第2撮像装置(以下、「内蔵カメラ」という)を備えている。
 第1ディスプレイは、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、複合現実(MR:Mixed Reality)、又はAR、VR、MRの総称であるクロスリアリティ(XR:X Reality)を実現するためのディスプレイである。
 ARは、メガネを通して見える現実世界に仮想世界(仮想画像等)を重ね合わせることで、目の前にある現実世界を“仮想的に拡張する”技術であり、VRは、カメラにより撮影された映像等をVRゴーグルやVRヘッドセットに表示し、VRゴーグル等によって現実世界を遮断し、非現実の世界に深く没入できるという特徴がある。MRは、現実世界に仮想オブジェクトや情報を重ねて表示する技術であり、ARと同様であるが、ARを更に発展させた技術であり、ユーザの位置や動きに合わせてデジタル情報を表示したり、直接ユーザがデジタル情報を触って操作することが可能である。
 図1に示した仮想画像表示装置100の第1ディスプレイ(以下、「XRディスプレイ」という)は、グラス(メガネ)を通して見える現実世界に仮想世界を重ね合わせるAR又はMRの表示機能を有するものである。
 図1において、146は、仮想画像表示装置100(以下、「スマートグラス」ともいう)のハーフミラーを含む光学系であり、スマートグラスの表示素子に表示される映像(仮想画像)は、光学系146を介して現実世界に重ね合わされる。尚、スマートグラスの詳細については後述する。
 図2は、図1に示した撮像装置を前方から見た斜視図である。
 図1及び図2に示す撮像装置200は、交換レンズ202と、交換レンズ202が着脱自在なカメラ本体(装置本体)203とから構成されたミラーレスのデジタル一眼カメラである。尚、撮像装置200は、ミラーレスのデジタル一眼カメラに限らず、デジタル一眼レフカメラ、レンズ交換が不能なレンズ一体型のデジタルカメラでもよし、カメラ機能を有するスマートフォン、PDA(Personal Digital Assistants)でもよい。
 図1において、カメラ本体203の上面には、シャッターボタン232、シャッタースピード/感度ダイヤル234、露出補正ダイヤル236等が設けられている。
 また、カメラ本体203の一壁面である背面には、モニタパネル240が、図示しない回動機構を介して回動自在に配設されている。
 図3は、撮像装置のモニタパネルの3つの開閉状態を示す図である。
 図3に示すようにモニタパネル240は、カメラ本体203との相対的な姿勢関係が回動によって変更可能なチルト式のパネルである。
 図3(A)は、モニタパネル240が閉じている状態の撮像装置200を示しており、図3(B)及び(C)は、モニタパネル240が90°及び180°回動した状態の撮像装置200を示している。
 モニタパネル240が閉じているときに隠れるモニタパネル240の内側の面(裏面)には、メインモニタ(第2ディスプレイ)241が配設され、モニタパネル240が閉じているときにカメラ外観と略面一となる面(表面)には、サブモニタ242が配設されている。
 メインモニタ241は、図3(B)及び(C)に示すようにモニタパネル240が開いているときに動作可能となり、ライブビュー画像、記録済みの画像(再生画像)等を表示し、サブモニタ242は、図1及び図3(A)に示すようにモニタパネル240が閉じているときに動作可能となり、シャッタースピード、絞り値、ISO感度、その他の撮影に関する情報(撮影情報)を表示する。
 また、図1に示すようにカメラ本体203の背面には、ビューファインダ243の接眼部が配置されている。このビューファインダ243は、電子ビューファインダ(EVF:Electronic View Finder)と光学ファインダ(OVF:Optical View Finder)との切替えが可能なハイブリッドファインダである。
 更に、OVF表示では、電子式レンジファインダ(ERF:Electronic Range Finder)(EVFを表示する小窓)をOVFの一部に表示、又は非表示を選択することができる。ERFは、視野率100%、2.5倍拡大、6倍拡大の3通りの表示ができ、OVFでの撮影時にピントの確認、画角、露出及びホワイトバランスをモニタすることができる。
 図2に示すようにカメラ前面には、ビューファインダ243のEVFとOVFとの切替えを行うためのファインダ切替えレバー249が設けられている。
 図2上で、ファインダ切替えレバー249を時計回り方向に回動させると、EVFとOVFとの切替えを行うことができる。また、OVF表示のときに、図2上でファインダ切替えレバー249を反時計回り方向に回動させると、ERFの表示と非表示との切替えを行うことができる。
 更に、カメラ本体203の背面には、上下左右等の複数方向を指示するトグルスイッチ244、メニュー/実行ボタン245、再生ボタン246、表示/戻るボタン247等が設けられている。
 更にまた、各種の機能の割り当てが可能な複数のファンクションボタンが設けられている。
 [仮想画像表示システムの概要]
 図4は、仮想画像表示装置の第2撮像装置により撮像装置を含む視野画像を撮影する様子を示す図である。
 図4において、仮想画像表示装置100の内蔵カメラ101は、撮像装置200を含むユーザの視野に相当する視野画像を撮影する。内蔵カメラ101は、ユーザがスマートグラスを装着し、瞳が正面を向いている場合のユーザの視野に相当する視野画像を撮影する。
 ユーザは、撮像装置200を手に持ってフレーミング等の各種の操作を行う。
 撮像装置200は、XR環境での使用中の場合、撮像装置200の操作により生成されるライブビュー画像を、連続データとして仮想画像表示装置100に送信する。
 仮想画像表示装置100のプロセッサは、視野画像に存在する撮像装置200の画像(カメラ画像)に基づいて撮像装置200の表示領域を特定する。この表示領域は、図3に示した撮像装置200のメインモニタ241やサブモニタ242のように現実に画像の表示が可能な表示領域に限らず、例えば、カメラ本体203の一壁面である背面上に予め設定した領域であってもよい。
 ユーザは、スマートグラスを通して現実世界の撮像装置200を視認することができるが、プロセッサは、撮像装置200から受信したライブビュー画像を変換(幾何変換)し、スマートグラスに表示させることで、現実の撮像装置200の特定の表示領域に、スマートグラスの光学系146を介してライブビュー画像(仮想画像)を重ね合わせ表示させる。
 図5は、撮像装置の特定の表示領域にライブビュー画像が重畳される様子を示す図である。
 スマートグラスを装着したユーザの目の前の表示位置において、スマートグラスの光学系146を介して幾何変換されたライブビュー画像LV1を表示する。これにより、ユーザは、図5に示すように現実の撮像装置200を、スマートグラスを通して視認することができ、かつ撮像装置200の特定の表示領域に合成された(貼り付けられた)、実際には存在しないXR環境上の画像(ライブビュー画像LV1)が撮像装置200に表示されているように、ライブビュー画像LV1を観察することができる。
 図1及び図3に示した撮像装置200は、図5に示したようなサイズのライブビュー画像LV1を表示する現実のモニタを備えていないが、仮想画像表示装置100は、ライブビュー画像LV1を表示することで、ユーザは、撮像装置200が、あたかも図5に示したライブビュー画像LV1を表示するディスプレイを備えるものとして視認することができる。
 この仮想画像表示システム10によれば、ユーザは、撮像装置200の背面の特定の表示領域(現実世界)を見ているのではなく、特定の表示領域に合成されるライブビュー画像LV1をスマートグラスにより観察するため、現実の特定の表示領域が直射日光の照射により見にくい場合でも、ライブビュー画像LV1を良好に観察することができる。
 また、撮像装置200は、現実世界のカメラ製品であるため、作品志向の撮影操作を行うのに操作性がよく、撮影体験の質を高く維持することができる。更に、フレーミング等のために撮像装置200の位置や角度を動かしながら使用する場合であっても、撮像装置200に対してライブビュー画像LV1を追従してスマートグラスに表示することができ、すばやい撮像装置200の操作が要求される動きの激しい撮影(スポーツ撮影や流し撮り、子供、ペットなどの撮影)でもシャッターチャンスを逃さないようにすることができる。
 尚、スマートグラスの内蔵カメラ101が撮影する視野画像は、視野画像におけるカメラ画像の特定の表示領域(座標)を求め、ライブビュー画像を撮像装置200の特定の表示領域に重ね合わせる際に使用する情報(変換情報)の取得に使用され、また、スマートグラスの代わりに、視野(視界)を覆う没入型のディスプレイ(VRゴーグル)を使用する場合、VRゴーグルに表示する視野画像として使用される。
 <仮想画像表示装置の実施形態>
 図6は、本発明に係る仮想画像表示システムを構成する仮想画像表示装置の実施形態を示すブロック図である。
 図6に示す仮想画像表示装置100は、図1に示した外観形状を有する仮想画像表示装置100の内部構成を示すブロック図である。
 仮想画像表示装置100は、内蔵カメラ101、プロセッサ(XRプロセッサ)110、第1メモリ120、操作部130、仮想画像表示機能を有する第1ディスプレイであるXRディスプレイ140、表示制御部142、仮想オブジェクト生成部150、第1通信部160、GPS(Global Positioning System)受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176等を備えている。
 内蔵カメラ101は、撮影レンズ102、イメージセンサ104、及びAFE(Analog Front End)106を有する。
 内蔵カメラ101は、撮像装置200を手に持って撮影する場合、その撮像装置200(カメラ画像)を含む視野画像を撮影するもので、撮影レンズ102は、人間の視野角と同等以上の視野角を有することが好ましい。
 イメージセンサ104は、CMOS(Complementary Metal-Oxide Semiconductor)型のカラーイメージセンサにより構成することができる。尚、イメージセンサ104は、CMOS型に限らず、CCD(Charge Coupled Device)型のイメージセンサでもよい。
 撮影レンズ102によってイメージセンサ104の受光面に結像された被写体の光学像は、イメージセンサ104によって電気信号に変換される。イメージセンサ104の各画素には、入射する光量に応じた電荷が蓄積され、イメージセンサ104からは各画素に蓄積された電荷量(信号電荷)に応じた電気信号が画像信号として読み出される。
 AFE106は、イメージセンサ104から出力されるアナログの画像信号に対して各種のアナログ信号処理を施す。AFE106は、相関二重サンプリング回路、AGC(Automatic Gain Control)回路、アナログ-デジタル変換回路(A/D変換回路)(いずれも図示省略)を含む。相関二重サンプリング回路は、イメージセンサ104からのアナログ信号に対して相関二重サンプリング処理を施し、信号電荷のリセットに起因するノイズを除去する。AGC回路は、相関二重サンプリング回路によりノイズが除去されたアナログ信号を増幅し、アナログ信号の信号レベルが適切な範囲に入るようにする。A/D変換回路は、AGC回路でゲイン調整された画像信号をデジタル信号に変換する。
 尚、イメージセンサ104がCMOS型イメージセンサである場合、AFE106は、イメージセンサ104内に内蔵されていることが多い。
 XRプロセッサ110は、CPU(Central Processing Unit)等から構成され、各部を統括制御するとともに、撮像装置200から、第1通信部160を介して受信したライブビュー画像を、撮像装置200の特定の表示領域に重ね合わせる際に使用する情報(変換情報)を取得する処理、及びその情報に基づいてライブビュー画像を変換(幾何変換)してXRディスプレイ140に出力する処理等の各種の処理を行う。尚、XRプロセッサ110による処理の詳細については後述する。
 第1メモリ120は、フラッシュメモリ、ROM(Read-only Memory)、RAM(Random Access Memory)等を含む。フラッシュメモリ及びROMは、ファームウエアを含む各種のプログラム、パラメータ、アバターを含む各種の仮想オブジェクトを示す画像(仮想オブジェクト画像)等を記憶する不揮発性メモリである。
 RAMは、XRプロセッサ110による処理の作業領域として機能し、また、不揮発性メモリに格納されたファームウエア等を一時的に記憶する。尚、XRプロセッサ110が、第1メモリ120の一部(RAM)を内蔵していてもよい。
 操作部130は、各種の操作指令、パラメータの設定、アバターを含む仮想オブジェクトの選択、アバターのコントロール等を行う部分であり、マイクロフォンを備え、音声により操作入力を行う音声入力装置の他に、手や指などの身体の動きを、内蔵カメラ101が撮影する画像から読み取って操作入力とするジェスチャー入力部、スマートグラスのフレームに設けられるタッチパネル、XRディスプレイ140に表示されるGUI(Graphical User Interface)画面、及びGUI画面上のカーソル等を移動させる専用コントローラ等が考えられる。
 また、撮像装置200のジャイロセンサ272、加速度センサ274、及び地磁気センサ276等により撮像装置200の揺れ、振動、又は光線角度を検知し、検知した情報を各種の操作指令等として使用することができる。
 尚、撮像装置200の撮影操作中は両手が使用されているため、音声入力装置が好ましい。
 表示制御部142は、XRプロセッサ110からライブビュー画像、再生画像、撮影情報等を入力すると、表示用の信号形式に変換してXRディスプレイ140に出力する。
 XRディスプレイ140は、図示しない表示素子を有し、表示制御部142からの表示用の信号により駆動される表示素子にライブビュー画像等を表示する。表示素子に表示されるライブビュー画像は、スマートグラスの光学系146(図1参照)を介してグラス越しの現実世界に重ね合わされる。
 XRディスプレイ140は、ユーザの目の前の表示位置において、撮像装置200の特定の表示領域に重畳するように幾何変換されたライブビュー画像等を表示し、ユーザは、現実世界に重ね合わされたライブビュー画像等を観察することができる。
 仮想オブジェクト生成部150は、第1メモリ120に記憶されたアバターを含む各種の仮想オブジェクト画像からユーザにより指示された所望の仮想オブジェクト画像を読み出し、ライブビュー画像への合成用に加工した仮想オブジェクト画像を生成する。例えば、ユーザ自身を表すアバターが選択され、また、髪形や衣装が選択されると、その選択された髪形や衣装を纏ったアバターを生成し、更にアバターの位置、向き等が操作部130により指示される場合、その位置等にアバターを移動させる処理を行う。
 また、仮想オブジェクト生成部150は、撮像装置200の部品(外装部品、スイッチ類等)を示す仮想オブジェクトの選択指示を受け付け、選択された部品の画像(部品画像)を撮像装置200への合成用に加工した仮想オブジェクト画像を生成する。撮像装置200に部品画像を合成することで、XRディスプレイ140を通じて観察される撮像装置200の外観を変更することができる。
 第1通信部160は、撮像装置200との間で必要な情報を送受信する部分であり、撮像装置200がXR環境でライブビュー画像を撮影している場合、撮像装置200からライブビュー画像を受信する。また、第1通信部160は、撮像装置200がXR環境でシャッターボタン232(図1参照)が押下され、記録用の撮影が行われた場合には、シャッターレリーズ信号を受信する。シャッターレリーズ信号の受信時にライブビュー画像にアバターの画像を合成している場合には、第1通信部160は、そのアバターの画像を撮像装置200に送信する。
 GPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176は、XRディスプレイ140(内蔵カメラ101)の3次元位置及び姿勢を示す情報を検出するためのセンサ類である。XRディスプレイ140の3次元位置及び姿勢を示す情報は、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得するために使用する。XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報は、ライブビュー画像を幾何変換するための変換情報の算出に使用することができる。
 <撮像装置の実施形態>
 図7は、本発明に係る撮像装置の実施形態を示すブロック図である。
 図7に示す撮像装置200は、図1に示した仮想画像表示システム10を構成する撮像装置200の内部構成を示すブロック図である。
 撮像装置200は、撮像部201、カメラプロセッサ210、第2メモリ220、操作部230、表示制御部248、メインモニタ241、サブモニタ242、ビューファインダ243、画像処理部250、第2通信部(通信部)260、GPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276等を備えている。
 撮像部201は、交換レンズ202、イメージセンサ204、及びAFE206を有する。
 交換レンズ202は、カメラ本体203に装着されたものであり、カメラ本体203のレンズマウントに設けられた複数の信号端子を介してカメラ本体203との間で双方向通信を行うことができ、例えば、カメラ本体203からのリクエスト信号に応じて交換レンズ202のレンズ情報(焦点距離、フォーカス位置、絞り値等の情報)をカメラ本体203に送信し、また、カメラ本体203からの指令にしたがってフォーカスレンズ、絞り等を駆動する。
 イメージセンサ204は、CMOS型のカラーイメージセンサにより構成されているが、CMOS型に限らず、CCD型のイメージセンサでもよい。
 AFE206は、イメージセンサ204から出力されるアナログの画像信号に対して各種のアナログ信号処理を施した後にデジタルの画像信号に変換し、RAWデータとして出力する。
 カメラプロセッサ210は、CPU等から構成され、各部を統括制御するとともに、操作部230を使用したユーザ操作にしたがって各部を統括制御するとともに、AF(Auto Focus)制御、AE(Automatic Exposure)制御を含む各種の処理を行う。
 尚、AF制御及びAE制御は、それぞれ操作部230によりオートモードが設定されている場合に自動的に行われ、マニュアルモードが設定されている場合には、AF制御及びAE制御が行われないことは言うまでもない。
 操作部230は、図1に示したようにシャッターボタン232、シャッタースピード/感度ダイヤル234、露出補正ダイヤル236の他に、トグルスイッチ244、メニュー/実行ボタン245、再生ボタン246、表示/戻るボタン247等を含み、これらのボタン、ダイヤル等の操作により各種の指示、設定を行うことができる。
 本例の撮像装置200の操作部230は、撮像装置200を非XR環境(通常の環境)で使用する第1モード(非XRモード)とXR環境で使用する第2モード(XRモード)と、を切り替えるモード切替え部を有する点で、従来の撮像装置の操作部とは相違する。
 XRモード/非XRモードのモード切替え部は、XRモードの設定/解除が割り当てられたファンクションボタンを使用することができるが、専用のモード切替えレバーを設けるようにしてもよい。また、トグルスイッチ244及びメニュー/実行ボタン245を使用し、メニュー画面上でXRモードの設定/解除を行うものでもよい。
 専用のモード切替えレバーとしては、例えば、図2に示したファインダ切替えレバー249と同様の構成のモード切替えレバーをカメラ本体203の前面、背面又は上面に設けることができる。
 尚、XRモードが設定され、XR環境で使用する場合の撮像装置200の動作の詳細については後述する。
 第2メモリ220は、フラッシュメモリ、ROM、RAM等を含む。フラッシュメモリ及びROMは、ファームウエアを含む各種のプログラム、パラメータ及び撮影画像(静止画、動画)等を記憶する不揮発性メモリである。
 RAMは、カメラプロセッサ210による処理の作業領域として機能し、また、不揮発性メモリに格納されたファームウエア等を一時的に記憶する。尚、カメラプロセッサ210が、第2メモリ220の一部(RAM)を内蔵していてもよい。
 表示制御部248は、カメラプロセッサ210、又は画像処理部250からライブビュー画像、再生画像、撮影情報等を入力すると、表示用の信号形式に変換してメインモニタ241、サブモニタ242、及びビューファインダ243(EVF)に出力する。
 メインモニタ241は、図3(B)及び(C)に示すようにモニタパネル240が開いているときに動作可能となり、非XRモードの場合にカメラプロセッサ210からの指示にしたがってライブビュー画像、記録済みの画像(再生画像)等を表示する。
 サブモニタ242は、図3(A)に示すようにモニタパネル240が閉じているときに動作可能となり、非XRモードの場合にカメラプロセッサ210からの指示にしたがってシャッタースピード、絞り値、ISO感度等を示す撮影情報を表示する。
 ビューファインダ243は、ファインダ切替えレバーの操作によりEVFとOVFとの切替えが可能であり、EVFに切り替えられ、かつ非XRモードの場合にカメラプロセッサ210からの指示にしたがってライブビュー画像を表示する。
 したがって、モニタパネル240が閉じており、かつ非XRモードの場合には、ユーザは、ビューファインダ243で撮影範囲を確認しながらフレーミングを行うことができる。
 尚、非XRモードの場合にモニタパネル240が開いていても、ビューファインダ243に目を近づけると、アイセンサ(図示せず)の働きにより、自動的にビューファインダ243の表示に切り替え、目を離すとメインモニタ241の表示に切り替えることができる。
 一方、メインモニタ241及びサブモニタ242は、XRモードの場合には、それぞれライブビュー画像及び撮影情報を表示せず、例えば、カメラプロセッサ210からの指示にしたがってメインモニタ241又はサブモニタ242の表示領域を特定するマーカ(例えば、ARマーカ)を表示することができる。
 画像処理部250は、撮像部201から出力されるRAWデータに対してオフセット処理、ホワイトバランス補正、感度補正を含むゲイン・コントロール処理、ガンマ補正処理、デモザイク処理(デモザイキング処理)等のRAW現像処理を行う。また、シャッターボタン232の押下に基づいて取得されたRAWデータに対しては、画像処理部250は、RAW現像処理後に圧縮処理を行い、画像ファイルとして第2メモリ220又は図示しないメモリカードに記録する。
 また、撮像部201から出力される連続するRAWデータに対し、画像処理部250によりRAW現像処理された連続データは、ライブビュー画像LVとして表示制御部248を介してメインモニタ241、又は第2通信部260に出力される。
 第2通信部260は、仮想画像表示装置100との間で必要な情報を送受信する部分であり、撮像装置200がXRモードに設定され、XR環境でライブビュー画像を撮影している場合、第2通信部260は、ライブビュー画像LVを仮想画像表示装置100に送信する。
 また、第2通信部260は、撮像装置200がXR環境でシャッターボタン232(図1参照)が押下され、記録用の撮影が行われた場合には、シャッターレリーズ信号を仮想画像表示装置100に送信する。仮想画像表示装置100は、第1通信部160を介してシャッターレリーズ信号を受信し、その受信時にライブビュー画像にアバターの画像を合成している場合には、仮想画像表示装置100の第1通信部160からそのアバターの画像を撮像装置200に送信する。
 GPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276は、撮像装置200の3次元位置及び姿勢を示す情報を検出するためのセンサ類である。撮像装置200の3次元位置及び姿勢を示す情報は、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得するために使用する。XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報は、ライブビュー画像LVを幾何変換するための変換情報の算出に使用することができる。
 [仮想画像表示システムの第1実施形態]
 図8は、本発明に係る仮想画像表示システムの第1実施形態を示す要部ブロック図であり、図6に示した仮想画像表示装置100のXRプロセッサ110の機能を示す機能ブロック図である。
 図8において、XRプロセッサ110は、変換情報取得部112、合成部114、及び幾何変換部116として機能する。
 スマートグラスの内蔵カメラ101は、撮像装置200を含むユーザの視野に相当する視野画像IMを撮影し、撮影した視野画像IMを変換情報取得部112に出力する。
 撮像装置200は、撮像装置200がXR環境での使用中の場合、撮像装置200の操作により生成されるライブビュー画像LVを連続データとして送信し、第1通信部160は、撮像装置200からライブビュー画像LVを受信する。
 変換情報取得部112は、ライブビュー画像LVを撮像装置200の表示領域に重ね合わせる際に使用する変換情報を取得する部分であり、内蔵カメラ101から撮影画像(視野画像IM)を入力する。
 変換情報取得部112は、入力した視野画像IMを解析して撮像装置200の表示領域を示す領域情報を取得し、領域情報に基づいて変換情報を取得する。
 図9は、ライブビュー画像と視野画像と撮像装置の表示領域との幾何的な関係を示す図である。
 図9において、ライブビュー画像LVの画像座標系をXY座標系とし、視野画像IMの画像座標系をX’Y’座標系とする。また、ライブビュー画像LVの縦横の画像サイズをh1,w1とし、視野画像IMの縦横の画像サイズをh2,w2とする。尚、ライブビュー画像LVのXY座標系における4隅の点(特徴点)P1~P4の座標は、ライブビュー画像LVの画像サイズにより既知である。
 図9に示すように視野画像IMには、撮像装置200を示すカメラ画像が含まれている。
 変換情報取得部112は、視野画像IMにおける撮像装置200の特定の表示領域を示す領域情報として、例えば、表示領域の4隅の点(特徴点P1~P4に対応する対応点P1’~P4’)の座標を取得する。
 第1実施形態の変換情報取得部112は、ライブビュー画像LVの4隅の特徴点P1~P4に対応する対応点P1’~P4’として、視野画像IMを解析してモニタパネル240(図1参照)の四角形の輪郭を検出し、その輪郭の4隅の点を対応点P1’~P4’とすることができる。尚、本例では、閉じているモニタパネル240の四角形の輪郭で囲まれた領域を表示領域とするが、表示領域は適宜定義することができる。
 続いて、変換情報取得部112は、視野画像IMのカメラ画像上の表示領域(対応点P1’~P4’により特定されるモニタパネル240の領域)にライブビュー画像LVを重ね合わせる際に使用する変換情報を取得する。
 いま、ライブビュー画像LVを、アフィン変換により幾何変形させ、カメラ画像上の表示領域に重ね合わせる場合、アフィン変換のパラメータ(変換情報)を取得する必要がある。
 アフィン変換は、次式により行うことができる。
Figure JPOXMLDOC01-appb-M000001
 [数1]において、(x,y)は、ライブビュー画像LVの座標(XY座標系における座標)を示し、(x',y')は、アフィン変換後の座標(視野画像IMのX’Y’座標系における座標)を示す。
 また、[数1]において、パラメータa~dは、画像の拡大縮小、回転、スキュー(せん断)を示すパラメータであり、パラメータtx,tyは、平行移動を示すパラメータである。
 アフィン変換ではパラメータ推定のために2つの画像(本例では、ライブビュー画像LVと視野画像IM)のマッチング点(特徴点と対応点)を3組以上与える必要があるが、上記のライブビュー画像LVの特徴点P1~P4と、視野画像IMの対応点P1’~P4’の4組のマッチング点が得られるため、[数1]式に示したアフィン変換のパラメータa~d、tx,tyを求めることができる。
 変換情報取得部112は、このようにしてアフィン変換のパラメータa~d、tx,tyを、変換情報として取得することができる。
 また、2つの画像の間で幾何変換する他の方法として、例えば射影変換が考えられる。
 射影変換は、次式により行うことができる。
Figure JPOXMLDOC01-appb-M000002
 射影変換で、3×3の変換行列で表される9つのパラメータ(h11~h33)を全て求める必要があり、アフィン変換に比べて2つの画像間のマッチング点を多く求める必要があるが、アフィン変換よりも精度の高い幾何変換を行うことができる。
 図8に戻って、合成部114には、第1通信部160を介してライブビュー画像LVが加えられている。合成部114は、ライブビュー画像LVに仮想オブジェクトを合成する部分であり、合成部114の他の入力には、仮想オブジェクト生成部150により生成された仮想オブジェクトの画像が加えられている。
 仮想オブジェクト生成部150は、ユーザ指示により第1メモリ120から所望の仮想オブジェクト(例えば、アバター)の画像を読み出し、ライブビュー画像LVへの合成用に加工したアバターの画像を生成出力する。
 ユーザは、ユーザ自身を示すアバターの画像を第1メモリ120に登録することができる。ユーザ自身を示すアバターの画像は、ユーザ自身を撮影した画像でもよいし、アニメのキャラクタ、ロボット、ペット等の画像でもよい。
 また、ユーザは、操作部130での操作により髪形や衣装を適宜選択することができ、仮想オブジェクト生成部150は、ユーザにより選択指示された髪形や衣装を纏ったアバターの画像を生成することができる。更に、アバターの位置、向き等がユーザにより指示されると、仮想オブジェクト生成部150は、ロールプレイングゲーム中のアバターのように、その指示された位置等にアバターの画像を移動させる処理を行う。
 更に、仮想オブジェクト生成部150は、よりリアルなアバターの画像を生成する場合、ライブビュー画像LV等から得られる明るさや色味に合せて、アバターの画像の明るさや色味を調整するようにしてもよい。
 合成部114は、第1通信部160を介して加えられるライブビュー画像LVに、仮想オブジェクト生成部150により生成されたアバターを含む仮想オブジェクトの画像を合成し、合成したライブビュー画像LVを幾何変換部116に出力する。
 尚、合成部114は、仮想オブジェクト生成部150により仮想オブジェクトが生成されない場合には、入力したライブビュー画像LVをそのままライブビュー画像LVとして幾何変換部116に出力する。
 幾何変換部116は、変換情報取得部112により取得された変換情報に基づいて、合成部114を介して加えられるライブビュー画像LVを幾何変換する部分である。例えば、幾何変換部116による幾何変換がアフィン変換の場合、変換情報取得部112は、[数1]式に示したアフィン変換のパラメータ(a~d,tx,ty)を変換情報として取得し、幾何変換部116は、ライブビュー画像LVの座標(x,y)の画素を、上記変換情報に基づいてアフィン変換することで、視野画像IMの座標(x',y')の画素に変換する。また、幾何変換部116による幾何変換が射影変換の場合には、[数2]式に示した射影変換のパラメータ(h11~h33)を変換情報として取得し、幾何変換部116は、ライブビュー画像LVの座標(x,y)の画素を、上記変換情報に基づいて射影変換することで、視野画像IMの座標(x’,y’)の画素に変換する。
 幾何変換部116により幾何変換されたライブビュー画像LV(以下、「ライブビュー画像LV1」という)は、XRディスプレイ140に出力される。
 XRディスプレイ140は、幾何変換されたライブビュー画像LV1を、XRディスプレイ140の対応する画素位置に(内蔵カメラ101の視野画像IMに対応する画素位置)に表示する。図9に示した例では、ライブビュー画像LVのXY座標系の4つの座標P1~P4で表されるライブビュー画像LVは、視野画像IMのX’Y’座標系に座標変換され、4つの座標P1’~P4’で表されるライブビュー画像LV1として表示される。
 尚、ユーザがスマートグラスを装着している場合のユーザの視野範囲と、内蔵カメラ101が撮影する視野画像IMとはパララックスがあるため、XRディスプレイ140は、視野画像IMにおけるカメラ画像の大きさ(距離に相当)とカメラ画像の位置に応じてパララックスを補正することが好ましい。
 <変換情報取得部の第2実施形態>
 図8に示した第1実施形態の変換情報取得部112は、視野画像IMを解析してモニタパネル240の四角形の輪郭を検出し、その輪郭の4隅の点(図9のP1’~P4’)で囲まれた四角形の領域を、撮像装置200の表示領域Aとして設定し、変換情報を取得しているが、これに限らず、変換情報取得部112は、内蔵カメラ101が撮影した撮像装置200のマーカ(以下、「ARマーカ」という)の位置に基づいて変換情報を取得するものでもよい。
 図10は、ARマーカが設けられた撮像装置の外観を示す図である。
 図10に示す撮像装置200には、9つのARマーカM1~M9が設けられている。
 ARマーカは、予め登録されたイラストや画像等を示すマーカであり、位置情報と紐付けることができる。したがって、変換情報取得部112は、視野画像IMからARマーカM1~M9を読み取ることで、そのARマーカM1~M9が表示された位置の位置情報を取得することができ、撮像装置200の各面の傾き、位置、サイズ、中心座標などの情報を取得することができる。
 ARマーカM1~M9のうちのARマーカM1は、サブモニタ242に表示されたARマーカであり、ARマーカM2~M9は、予めカメラ本体203に設けられたARマーカである。
 ARマーカM2~M4は、モニタパネル240の4隅のうちの3箇所の位置を示すARマーカであり、モニタパネル240の領域をライブビュー画像LV1の表示領域Aとする場合、撮像装置200のライブビュー画像LV1の表示領域Aを特定するARマーカMとなる。
 尚、撮像装置200をXR環境で使用する場合、ARマーカM1をライブビュー画像LV1の表示領域Aを特定するマーカとして表示させることができる。また、サブモニタ242にARマーカMを表示する場合、そのARマーカMの個数は、1個に限らず、複数表示させることができる。更に、メインモニタ241(図3(B)及び(C)参照)を、ライブビュー画像LV1の表示領域とする場合、メインモニタ241の領域を特定する複数のARマーカMを表示させることができる。
 ARマーカM5は、カメラ本体203の上面に設けられたマーカであり、ARマーカM6は、カメラ本体203の背面上部に設けられたマーカであり、ARマーカM7はカメラ本体203の側面に設けられたマーカである。これらのARマーカM5~M7は、カメラ本体203の各面を特定するために設けられたマーカである。
 また、ARマーカM8は、シャッタースピード/感度ダイヤル234の上面に設けられたマーカであり、ARマーカM9は、露出補正ダイヤル236の上面に設けられたマーカである。これらのARマーカM8、M9は、ダイヤルの位置(回動位置を含む)を特定するために設けられたマーカである。
 ARマーカM4~M9は、カメラ本体203に仮想オブジェクト(外観を変更するスキン)を貼り付けるための領域を特定するために使用することができる。
 尚、ARマーカM1~M9の代わりに、二次元バーコード(例えば、「QRコード」(登録商標))によりマーカを構成してもよい。二次元バーコードを表示する場合、撮像装置200が何を表示しているかの情報、ライブビュー画像内に表示されるデータや指標(シャッタースピード、絞り値、ヒストグラムなどの数値情報)をコード化した二次元バーコードとすることができ、また、二次元バーコードは、データ表示の配置情報を組み込んだ情報を含んでいてもよい。
 また、ARマーカM1~M9の代わりに、位置の特定に適した他の形状を有するマーカでもよく、ARマーカMと二次元バーコードとが混在していてもよく、マーカの種類、位置、及び個数は、図10に示した実施形態に限定されない。
 <変換情報取得部の第3実施形態>
 ライブビュー画像LVを撮像装置200の表示領域Aに重ね合わせる際に使用する変換情報を取得する変換情報取得部は、内蔵カメラ101が撮影した視野画像IMを使用する場合に限らず、撮像装置200の3次元位置及び姿勢を示す情報と、XRディスプレイ140の3次元位置及び姿勢を示す情報とを取得し、XRディスプレイ140(第1ディスプレイ)を基準にした撮像装置200の相対的な3次元位置及び姿勢を示す情報を取得することで、変換情報を取得することができる。
 変換情報取得部は、仮想画像表示装置100のGPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176のセンサ出力に基づいてXRディスプレイ140の3次元位置及び姿勢を示す情報を取得することができ、同様に撮像装置200のGPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276のセンサ出力に基づいてXRディスプレイ140の3次元位置及び姿勢を示す情報を取得することができる。
 ここで、仮想画像表示装置100(XRディスプレイ140)をグローバル座標系で表し、撮像装置200をカメラ座標系(ローカル座標系)で表すものとすると、撮像装置200の大きさ、形状は既知であるため、ローカル座標系における撮像装置200の各部の3次元位置(例えば、)は、予め設定することができる。
 一方、XRディスプレイ140のグローバル座標系は、例えば、XRディスプレイ140の表示素子の中心を原点とし、表示素子の原点を通る表示素子の互いに直交する面内の方向をX軸及びY軸とし、表示素子の原点を通る法線方向をZ軸とするXYZの3軸直交座標系と定義することができる。
 前述したようにXRディスプレイ140の3次元位置及び姿勢を示す情報と、撮像装置200の3次元位置及び姿勢を示す情報とを取得すること(即ち、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報を取得すること)で、これらの情報に基づいてライブビュー画像LVを、撮像装置200の表示領域Aに重ね合わせる際に使用する変換情報を取得することができる。
 例えば、撮像装置200の表示領域Aのローカル座標系の3次元位置(即ち、ライブビュー画像LVの3次元位置)を、XRディスプレイ140を基準にした撮像装置200の3次元位置及び姿勢を示す情報に基づいて、XRディスプレイ140の座標系であるグローバル座標系の座標に変換する。続いて、グローバル座標系に座標変換した撮像装置200の表示領域Aの3次元位置(即ち、ライブビュー画像LVの3次元位置)を、XRディスプレイ140の表示素子のサイズ、光学系の焦点距離等の既知のパラメータに基づいてXRディスプレイ140の表示素子の表示面上に透視投影変換することで、変換後のライブビュー画像LV1を求めることができる。
 尚、XRディスプレイ140を基準にした撮像装置200の相対的な3次元位置及び姿勢を示す情報は、仮想画像表示装置100のGPS受信機170、ジャイロセンサ172、加速度センサ174、及び地磁気センサ176のセンサ出力、及び撮像装置200のGPS受信機270、ジャイロセンサ272、加速度センサ274、及び地磁気センサ276のセンサ出力に基づいて求める場合に限らず、仮想画像表示装置100(スマートグラス)に設けた光センシング計測装置(例えば、LiDAR(Light Detection And Ranging))が測定した計測データ、TOF(Time Of Flight)カメラが取得した距離画像、あるいはスマートグラスの左右に設けた内蔵カメラが取得したステレオ画像等により求めてもよい。
 <XRディスプレイの第1実施形態>
 図11は、仮想画像表示装置のXRディスプレイの第1実施形態を示す図である。
 図11に示すXRディスプレイ140は、視野を透過するディスプレイであって、現実世界の視野に幾何変換したライブビュー画像LV1を表示する、メガネ型のウェアラブルデバイス(スマートグラス)である。
 XRディスプレイ140は、表示素子144、レンズ146A及びハーフミラー146Bを含む光学系146と、を備えている。表示素子144に表示された幾何変換後のライブビュー画像LV1は、光学系146によりユーザの目の前の表示位置において、虚像として表示される。
 ユーザは、ハーフミラー146Bを介して透過する現実世界を視認することができるとともに、ハーフミラー146Bで反射して現実世界に重ね合わされたライブビュー画像LV1を視認することができる。尚、ライブビュー画像LV1は、現実世界の撮像装置200の表示領域Aに重ね合わされた画像であり、撮像装置200からの反射光線ではないため、仮想の画像である。
 また、図11に示す表示素子144は、有機EL(electro-luminescence)パネルや液晶パネルなどの面発光素子であるが、これに限らず、多数の可動式の微小鏡面(マイクロミラー)を、集積回路上に平面状に配列したDMD(Digital Micromirror Device)と、DMDに赤、緑、青の光を入射させる光源とで構成された表示素子でもよい。
 <XRモードにおける第1表示例>
 図12は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第1表示例を示す図である。
 図12(A)は、裸眼で撮像装置200を見た場合のイメージを示す図である。図12(A)では、モニタパネル240が閉じており、サブモニタ242に撮影情報が表示されている。XRモードが設定されている場合に、仮想画像表示装置100(スマートグラス)を装着していない場合、ユーザは、ライブビュー画像LV1を観察することができない。
 図12(B)は、仮想画像表示装置100を装着して撮像装置200を見た場合のイメージを示す図である。図12(B)に示す第1表示例は、撮像装置200の閉じているモニタパネル240の領域にライブビュー画像LV1を重ねて表示する場合に関して示している。
 この場合、ユーザは、仮想画像表示装置100を装着して撮像装置200を見ることで、あたかもモニタパネル240の領域にライブビュー画像LV1が表示されているように見える。
 尚、設定により現実世界に合成される画像をライブビュー画像LV1から切り替えて、別の表示形態に変更することも可能である。
 <XRモードにおける第2表示例>
 図13は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第2表示例を示す図である。
 図13に示す第2表示例は、撮像装置200のメインモニタ241の領域にライブビュー画像LV1を重ねて表示する場合に関して示している。また、図13は、モニタパネル240が90°回動した状態の撮像装置200を示している。この場合、モニタパネル240の内側のメインモニタ241を上方から視認でき、ローアングルの撮影に適している。
 撮像装置200がXRモードに設定されている場合、メインモニタ241にはライブビュー画像は表示されておらず、仮想画像表示装置100を装着することで、ユーザは、あたかもメインモニタ241の領域にライブビュー画像が表示されているように見える。
 図13に示す第2表示例によれば、生成されるライブビュー画像LV1は、撮像装置200のメインモニタ241の可動範囲に応じた制限を受けるが、メインモニタ241が自由に回転できないことによってライブビュー画像LV1の表示の向きなどが分からなくならず、実物の撮像装置200の操作方法と同じため操作性が良く、迷うことがない利点がある。
 また、実物のモニタパネル240の代わりに、ダミーのモニタパネルを表示させて、そのダミーのモニタパネルにライブビュー画像LV1を表示させることができる。この場合、実物のモニタパネル240の可動範囲よりもダミーのモニタパネルの可動範囲を大きく(例えば、+10度だけ大きく)することができる。更に、ダミーのモニタパネルの可動範囲を選択により切り替えたり(自由に、段階的に、…)、切り替えたことが分かるようにモニタパネルのフレームの色や形(リアルカメラライクと透明な額縁状など)を替えることが好ましい。
 <XRモードにおける第3表示例>
 図14は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第3表示例を示す図である。
 図14に示す第3表示例は、図12(B)に示した第1表示例の変形例であり、撮像装置200の閉じているモニタパネル240よりも大きいダミーのモニタパネル上にライブビュー画像LV1を重ねて表示する場合に関して示している。
 幾何変形して重ね合わせて表示するライブビュー画像LV1の大きさは、自由に設定可能であり、図14に示す第3表示例では、仮想画像表示装置100を装着することで、ユーザは、モニタパネル240のサイズよりも大きい、実在しない大きさのダミーのモニタパネルにライブビュー画像LV1が表示されているように見える。
 尚、ダミーのモニタパネルのサイズは、一定サイズに限らず、モニタパネル240の隅を引っ張るなどの拡大操作をすることに連動して、拡縮できるようにしてもよい。この場合、モニタパネル240に実際に画枠を引っ張った感触を感じさせる感触付与部材を持たせることが好ましい。
 この場合のモニタパネル240の隅を引っ張るなどの拡大操作を検出する方法としては、仮想画像表示装置100の内蔵カメラ101の画像認識によってジェスチャーコントロールの原理を用いて拡大縮小の動作に合わせてダミーのモニタパネルのサイズを拡大縮小させても良いし、撮像装置200のモニタパネル240に設けられたタッチパネルに対してピンチ操作を行ったことを検出して、それに連動させるなど、他の方法を用いても良い。
 また、モニタパネル240の隅を引っ張ると、ダミーのモニタパネルの縦横比は固定のまま、ダミーのモニタパネルを引っ張っている方向及び上に向かって拡大し、又は引っ張っている方向及び上下に均等に拡大し、又は下に向かって拡大するようにしてもよい。
 <XRモードにおける第4表示例>
 図15は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第4表示例を示す図である。
 図15に示す第4表示例は、実在しないモニタパネルの領域にライブビュー画像LV1を重ねて表示する場合に関して示している。
 モニタパネル240は、図3(B)及び(C)に示すようにカメラ本体203に対してチルトできる回動機構を備えているが、図15に示すようにライブビュー画像LV1を回動させる回動機構を備えていない。
 図15に示す第4表示例では、カメラ本体203の背面の右側に仮想の回動機構を設け、モニタパネルを適宜回動させている。これにより、ライブビュー画像LV1が、モニタパネル240の大きさとほぼ同じ大きさで、その一端が撮像装置200に固定されているように見えており、かつモニタパネルをチルト操作してユーザの方向に向けた状態のように、視線方向に対して正対して見えるように表示している。
 なお、図15においては左右の一辺を軸に横方向にチルトするように表示しているが、これは一例であり、上下の一辺を固定軸にして上下方向のチルトの表示をしても良いし、また、異なる2方向のチルトを組み合わせた不定形の表示を行っても良い。この場合は、モニタパネルはいずれかの辺で撮像装置200に固定されている様には見えず、ヒンジ機構で連結されているように仮想画像で表現しても良い。
 <XRモードにおける第5表示例>
 図16は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第5表示例を示す図である。
 図16に示す第5表示例は、図15に示した第4表示例の変形例であり、カメラ本体203の向きが逆向きの場合に関して示している。即ち、図16に示す第5表示例は、カメラ本体203の背面の左側に仮想の回動機構を設け、モニタパネルを適宜回動させている。これにより、ライブビュー画像LV1が、モニタパネル240の大きさとほぼ同じ大きさで、かつ視線方向に対して正対して見えるように表示している。
 このように、モニタパネルを回動させる仮想の2軸又は3軸のヒンジを設け、ライブビュー画像LV1が常に正対して見えるようにカメラ本体に対してモニタパネルを自動的に回動させて表示させることが好ましい。これにより、リアルカメラの使い勝手に近い操作感が得られ、戸惑うことがなく、また、空中にライブビュー画像LV1が浮かんでいるような不自然合成画像にならず、よりリアルな感覚の撮影が行えることで、撮影行為の質が向上する。
 図17は、図16に示したライブビュー画像等の第5表示例に対する変形例を示す図である。
 図17(A)は、図16に示したライブビュー画像等の第5表示例と同一の表示状態を示す図である。図17(A)に示すように撮像装置200は、撮像装置200全体が、XRディスプレイ140の視野内に入っている場合に関して示している。
 図17(B)は、図17(A)に示した撮像装置200が、XRディスプレイ140の視野に対して左側に移動し、撮像装置200の左半分が視野から外れた場合に関して示している。
 この場合でも、仮想画像表示装置100は、撮像装置200からライブビュー画像LVを受信することができるため、図17(B)に示すようにライブビュー画像LV1をXRディスプレイ140に表示することができる。即ち、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、本来の表示位置よりも図17(B)上で右側に移動させ、ライブビュー画像LV1全体を表示する。
 図17(C)は、図17(B)に示した撮像装置200が、更に左側に移動し.撮像装置200の左側の2/3が、XRディスプレイ140の視野から外れた場合に関して示している。この場合、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、図17(B)に示した表示位置よりも図17(C)上で更に右側に移動させ、ライブビュー画像LV1全体を表示する。
 図17(D)は、図17(C)に示した撮像装置200が、更に左側に移動し.撮像装置200全体が、XRディスプレイ140の視野から外れた場合に関して示している。この場合、仮想画像表示装置100は、撮像装置200に対してライブビュー画像LV1を、図17(C)に示した表示位置よりも図17(D)上で更に右側に移動させ、ライブビュー画像LV1全体を表示する。この場合、ライブビュー画像LV1の左端は、視野の左端と一致している。
 図17に示す表示例では、撮像装置200が左側に移動して視野から外れる場合に関して示しているが、これに限らず、撮像装置200が右側に移動して視野から外れる場合、上方に移動して視野から外れる場合、及び下方に移動して視野から外れる場合も、上記と同様にライブビュー画像LV1を移動させ、ライブビュー画像LV1全体を表示させることができる。
 また、図15に示したライブビュー画像等の第4表示例を含む他の表示例の場合も、上記と同様に撮像装置200が視野から外れる場合には、撮像装置200に対してライブビュー画像LV1を移動させることができる。
 これにより、撮像装置200が視野から外れても、視野から外れた位置の周辺にライブビュー画像LV1を表示し続けることでライブビューを見続けることができる。
 尚、図12から図17に示した第1表示例から第5表示例において、合成表示されるライブビュー画像LV1とともに、ライブビュー画像LV1の下端部において、撮影情報を表示することが可能である。
 <XRモードにおける第6表示例>
 図18は、撮像装置がXRモードに設定されている場合のライブビュー画像等の第6表示例を示す図である。
 図18に示す第6表示例は、撮像装置200の閉じているモニタパネル240のサブモニタ242(図1参照)よりも広い領域に、撮影情報INFOを重ねて表示する場合に関して示している。
 この撮影情報INFOは、通常のサブモニタ242に表示される撮影情報(図12(A)参照)に加えてヒストグラムを含んでいる。このヒストグラムは、現在撮影中のライブビュー画像の輝度の分布を示す輝度ヒストグラムである。ヒストグラムは、輝度ヒストグラムに限らず、R(赤)、G(緑)、B(青)の色ごとのRGBヒストグラムでもよい。
 また、撮影情報INFOは、シャッタースピード、絞り値、EV値(exposure value)などの撮影条件を示す情報に限らず、種々の撮影情報を含む。例えば、被写体情報を表すメタデータ、ISO感度、顔認識枠やAF枠などの検出エリア情報などを撮影情報INFOに含めることができる。
 仮想画像表示装置100は、撮像装置200から撮影情報INFOを示すテキストデータ又は画像を受信することができる。また、仮想画像表示装置100は、サブモニタ242に撮影情報INFOが表示されている場合、その撮影情報INFOを画像認識によって読み取ることで取得することができる。
 撮影情報INFOは、他の撮像装置のデータと区別するためのカメラ識別情報を含むことが好ましいが、撮影情報INFOを表示する際には、カメラ識別情報は非表示にする。
 一方、仮想画像表示装置100は、撮影情報INFOを合成して表示する場合、ビューファインダ243の領域にライブビュー画像LVを重ね合わせて表示させることが好ましい。
 これにより、仮想画像表示装置100を装着したユーザは、ビューファインダ243に目を近づけると、ビューファインダ243の接眼部からライブビュー画像LVを視認することができる。
 <撮像装置の第1外観例>
 図19は、撮像装置がXRモードに設定されている場合の撮像装置の第1外観例を示す図である。
 図10に示したように撮像装置200には、ARマーカM1~M9が設けられており、仮想画像表示装置100は、視野画像IMからARマーカM1~M9の位置を検出することで、撮像装置200の各面、又は撮像装置200の外観形状を示すポリゴンを特定することができる。
 仮想画像表示装置100は、ARマーカM1~M9に合せて撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、元の撮像装置200の外観とは異なる外観になるように表示させることができる。
 撮像装置200の外観とは異なる外観にする方法として、上述の例では撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成するという方法を記載したが、仮想オブジェクト画像(スキン)は張り付ける面に平面的に張り付いているものでなくても構わない。例えば、図19の撮像装200の前面に取り付けられているレンズ200Bのように、別部材が飛び出して見える、または別部材が取り付けられているような形状を持っていても構わない。
 また、1つのARマーカに対して仮想オブジェクト画像(スキン)は複数であっても構わない。
 また、レンズ200Bの部分が着脱可能であるように構成しても構わない。更に、レンズ200Bの部分を持って取り外すような操作(例えば回転して引き離すなど、レンズ交換を模したジェスチャー)を画像認識によって検出して,その操作に連動して着脱が行われるようにしても良い。
 また、図19に示す撮像装置200の第1外観例では、カメラ本体203の背面のモニタを大きくし、かつ背面のスイッチ類を変更している。
 <撮像装置の第2外観例>
 図20は、撮像装置がXRモードに設定されている場合の撮像装置の第2外観例を示す図である。
 仮想画像表示装置100は、図19に示した第1外観例と同様に、撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、撮像装置200の外観を変更させる。
 図20に示す撮像装置200の第2外観例では、カメラ本体203の上面がシャッターボタン232のみのシンプルな形状に変更されている。図20に示す第2外観例の場合、図1等に示したシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236は見えなくなる。
 撮像装置200がXRモードに設定され、外観の変更により撮像装置200の一部の操作系が見えなくなる場合には、撮像装置200は、見えなくなる操作系(実物のシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236等)を動作不能にすることが好ましい。
 <撮像装置の第3外観例>
 図21は、撮像装置がXRモードに設定されている場合の撮像装置の第3外観例を示す図である。
 仮想画像表示装置100は、図19に示した第1外観例と同様に、撮像装置200の外観を示す仮想オブジェクト画像(スキン)を貼り付け合成することで、撮像装置200の外観を変更させる。
 図21に示す撮像装置200の第3外観例では、ビューファインダの位置が左端から中央部に変更されており、また、カメラ本体203の背面のモニタや操作系が削除されている。
 <撮像装置の外観第3外観例>
 図22は、撮像装置の外観を複数の領域に分割して変更する場合の概念図である。
 仮想画像表示装置100の第1メモリ120は、撮像装置200の外観を複数の領域に分割した分割領域毎に外観を示す仮想オブジェクト画像を記憶している。
 図0に示す例では、仮想オブジェクト画像として、交換レンズ部151、皮革外装部152、操作ダイヤル部153、上部外装部154、ファインダ部155、モニタ部156が、第1メモリ120に記憶されている。
 交換レンズ部151は、広角レンズ、望遠レンズ等の種類の異なる複数の交換レンズ部を含む。皮革外装部152は、黒レザー、茶レザー、赤レザー、クロコダイル柄等を含む。上部外装部154は、シルバー、ブラック、ゴールド、ツートン等の質感、色の外装を含む。ファインダ部155及びモニタ部156も種々の形状、及び大きさのものを含む。
 ユーザは、これらの分割領域毎の外観を示す仮想オブジェクト画像を、操作部230での操作により選択して組み合わせることで、撮像装置200の外観をオリジナルの外観にすることができる。
 即ち、XRプロセッサ110は、操作部230でのユーザ操作により、外観を示す1乃至複数の仮想オブジェクト画像を受け付け、これらの仮想オブジェクト画像を、撮像装置200の3次元位置及び姿勢により適宜幾何変換し、XRディスプレイ140に出力する。これにより、ユーザは、XRディスプレイ140を介して視認される撮像装置を、ユーザが選択した仮想オブジェクト画像の外観を有するものとして認識することができる。
 また、複数種類の仮想オブジェクト画像を組み合わせる場合、予め効果的な組合せを複数用意しておき、ユーザは、複数の組合せの中から選択するようにしてもよい。この場合、XRプロセッサ110は、複数の組合せの中から選択された組合せの仮想オブジェクト画像を受け付け、これらの仮想オブジェクト画像を、撮像装置200の3次元位置及び姿勢により適宜幾何変換し、XRディスプレイ140に出力する。
 更にまた、複数種類の仮想オブジェクト画像の効果的な組合せは、過去の学習結果により決定(AI(artificial intelligence)により決定)して登録し、又は更新するようにしてもよい。
 過去の組合せデータ(AIには限定しないが)によって、GUIの操作性や外観の変更を行うことにより、過去のデータによって得られたユーザの好みやユーザの操作性に合った、仮想オブジェクト画像の効果的な組合せを提供することができる。この学習をAIによって行うことで、より操作性が高く好みに合ったものにすることができる。
 また、これらの技術をさらに多数のユーザに対して過去の組合せデータを集めることで多くのユーザの好みをデータサーバー上に持っておけば、必要に応じて不特定多数のユーザや、特定のユーザグループ(左利きのユーザ、女性ユーザ、子供ユーザ、高齢者ユーザなど)の使勝手に対する外観や操作性の向上につながるようにカスタマイズすることもできる。また、これらをメニュー画面や設定画面で選択的に、あるいはAIがユーザに合わせて自動的に行う方法を用いても良い。
 更に、仮想オブジェクト画像の交換だけでなく、例えば、図1等に示したシャッタースピード/感度ダイヤル234及び露出補正ダイヤル236を入れ替えるなどの配置の変更を行えるように構成しても構わない。
 また、ユーザは、これら撮像装置200の外観をオリジナルの外観にする操作を、分割領域毎の外観を示す仮想オブジェクト画像を、操作部230での操作により選択して組み合わせることで行うことが出来ると記載したが、オリジナルの外観にする操作を直感的に行うために、画像認識技術を用いたジェスチャーコントロールで行えるようにしてもよい。すなわち、仮想画像表示装置100に設けられた内蔵カメラ101の視野画像IMから画像認識によりユーザが外観を示す仮想オブジェクト画像を変更するジェスチャーを行ったことを認識して、ジェスチャーに対応する外観を示す仮想オブジェクト画像を移動させたり交換させたりするように表示を制御することで、仮想外観を変化させても良い。
 更に、いずれの分割領域に仮想オブジェクト画像(スキン)が貼り付けられたが直感的に分かるようにXRディスプレイ140に、表示される撮像装置200の画像の輝度を上げて表示、あるいは内側の部分が光っていることを表す光芒の表現を周囲に表示するなどによって、画像視野内の使用している撮像装置200の画像を光って見えるようにしてもよい。
 尚、これらの仮想オブジェクト画像は、撮像装置200の3次元位置及び姿勢により適宜、幾何変換されて合成される。
 また、交換レンズ部151を、例えば、実際の広角レンズからバーチャルの望遠レンズに交換することで、仮想画像表示装置100は、ライブビュー画像LV1を望遠レンズで撮影されたように拡大表示することができる。
 <XR環境での使用に対応した撮像装置>
 図23は、XR環境での使用に対応した撮像装置の斜視図である。
 図23に示す撮像装置280は、ダミーレンズ281、3つの実レンズ282、及びダミーモニタ283を備えている。
 ダミーレンズ281は、外観のみを構成するレンズであり、撮影機能がない。
 3つの実レンズ282は、それぞれ焦点距離が異なるレンズであり、ユーザは、適宜選択して使用することができる。実レンズ282により撮影されたライブビュー画像は、仮想画像表示装置100に送信される。
 ダミーモニタ283は、表示機能がなく、カメラ本体に対して回動可能な可変ダミーモニタである。
 前述した撮像装置200は、XR環境で使用する場合、メインモニタ241等にはライブビュー画像を表示せず、仮想画像表示装置100が、ライブビュー画像LV1を撮像装置200の表示領域に重ね合わせて表示するが、本例の撮像装置280の場合、仮想画像表示装置100は、撮像装置280のダミーモニタ283にライブビュー画像を重ね合わせて表示する。
 また、仮想画像表示装置100は、ダミーモニタ283が回動するとその回動したダミーモニタ283にライブビュー画像を重ね合わせて表示させることができる。これにより、図13、図15及び図17に示した場合と同様のライブビュー画像LV1を表示させることができる。
 <仮想カメラ>
 図24は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す背面側からの斜視図である。
 図24に示す仮想カメラ290は、少なくとも手で把持できるグリップ部を備えた仮想カメラであり、操作スイッチ類が設けられている。この場合、「仮想カメラ」という言葉は用いているが、グリップ部には実態があり、仮想表示によるカメラという意味ではない。
 仮想カメラ290は、レンズ、撮像素子等の撮像部を備えておらず、カメラ機能がないダミーカメラであり、本例の仮想カメラ290は、グリップ部のみの外観形状を有する。
 仮想カメラ290のグリップ部には、少なくともシャッターボタンを含む操作部材が設けられているが、操作部材は、ユーザ操作により可動するが、操作信号を発生しないダミースイッチである。
 仮想カメラ290は、レンズや撮像素子が不要で、通信部も大幅に簡易化でき、軽量化も可能であり、折り畳みなどの適用により小型化も容易に可能である。また、ユーザは、カメラ機能がない仮想カメラ290であっても通常のカメラと同様にフレーミングや操作部材の操作感が得られる。
 本実施形態の仮想カメラ290の操作部材は、ユーザ操作により可動するが、操作信号を発生しないダミースイッチであるが、他の実施形態として、仮想カメラ290の各操作部材は実際に操作感覚が得られるように操作可能となっており、ユーザ操作を検出する操作検出部と操作信号を送信する(ライブビュー画像の送信は含まない)通信部を有することで、ユーザが行った仮想カメラ290の各操作部材に対する操作内容を、通信部を介して仮想画像表示装置100(または仮想画像表示システム10または後述するXRサーバ300)に送信することによってユーザが行った操作をリアルタイムで反映させることが出来るようにしてもよい。
 また、ユーザが行った操作をリアルタイムで反映させる方法としては、この方法に限らず、他のバリエーションとして、仮想カメラ290の各操作部材は実際に操作感覚が得られるように操作可能であるが、操作を検出する操作検出部や通信部は持たないものであっても、操作感覚の質を向上させることが出来る。この場合は、仮想画像表示装置100や仮想画像表示システム10が有する撮像装置200や、画像認識用のカメラアイを用いてユーザの指の動きや操作部材の操作状況を画像認識によって検出することでユーザが行った操作をリアルタイムに反映させることが可能である。この場合の反映にかかる時間や反映のエラー率は操作検出手部及び通信部を有するものに対して一般的には性能が劣るが、画像認識の性能によっては実用上遜色がないものにすることができる。
 図25は、本発明に係る仮想画像表示システムを構成する仮想カメラの実施形態を示す正面側からの斜視図である。
 図25(A)に示す仮想カメラ290は、図24に示した背面側からの仮想カメラ290を正面側から見た斜視図である。
 前述したように仮想カメラ290は、撮影レンズ、撮像素子等の撮像部を備えておらず、カメラ機能がないダミーカメラである。
 図25(B)に示す仮想カメラ290Bは、スマートフォンに搭載されているような小型カメラ293Bを、グリップの前面であって、グリップを把持した手によって隠れない部分に内蔵している。
 この場合、ユーザ操作を検出する操作検出部に加えて、画像送信を含む通信部を有することで、ユーザが行った撮像装置290Bの各操作部材に対する操作内容及び小型カメラ293Bによって取得されたライブビュー画像等を、通信部を介して仮想画像表示装置100(または仮想画像表示システム10または後述するXRサーバ300)に送信することができる。以降の流れは、後述するスマートフォンを併用する実施形態と同様である。
 また、仮想カメラ290Bは、カメラ付きグリップ部が備えているカメラ機能を使用した、現実の撮像装置として使用することができる。また、カメラ付きグリップ部のカメラ機能を使用する場合、カメラ付きグリップ部により撮影されるライブビュー画像に対して、後述するスマートフォンを使用する実施形態のように、仮想画像表示装置100の内蔵カメラ101の視野画像IMや、XRサーバ300から取得されるライブビュー画像によって補完や解像度強化、白飛び、黒つぶれ補正などを施して最終的な画像としてもよい。
 図25(C)に示す仮想カメラ290Cは、画像認識用の小型カメラ293Cを、グリップの前面であって、グリップを把持した手によって隠れない部分に内蔵している。この小型カメラ293Cは、図25(B)に示した小型カメラ293Bよりも解像度が低いものでもよい。
 仮想カメラ290Cは、操作を検出する操作検出部に加えて通信部を有するが、この場合の通信部は、画像送信を行うものでなくてもよい。通信部は画像送信を含まない場合は、ユーザが行った仮想カメラ290Cの各操作部材に対する操作内容及び、小型カメラ293Cによって取得された画像データを送信するのではなく、小型カメラ293によって取得された画像データから、画像認識などを用いて、仮想カメラ290Cが向けられている被写体の情報や、設定された画角の範囲情報などを数値化や文字化して、各操作部材に対する操作内容とともに通信部を介して仮想画像表示装置100(または仮想画像表示システム10またはXRサーバ300)に送信することができる。これにより、画像送信を含む通信部に比べて小型、ローコストな構成にすることができる。以降の処理の流れに関しては、カメラ機能がないダミーカメラによる実施形態と、後述するスマートフォンを使用する実施形態との処理の組み合わせによって実現できるため、その説明は省略する。
 図26は、本発明に係る仮想画像表示システムを構成する仮想カメラの他の実施形態を示す斜視図である。
 図26に示す仮想カメラ292は、図24に示した仮想カメラ290にスマートフォン291を合体させたものである。
 この仮想カメラ292は、カメラ機能を備えていない仮想カメラとして使用したり、スマートフォン291が備えているカメラ機能を使用した、現実の撮像装置として使用することができる。また、スマートフォン291のカメラ機能を使用する場合、スマートフォン291により撮影されるライブビュー画像に対して、後述するように仮想画像表示装置100の内蔵カメラ101の視野画像IMや、XRサーバ300から取得されるライブビュー画像によって補完や解像度強化、白飛び、黒つぶれ補正などを施して最終的な画像としてもよい。
 図24に示した仮想カメラ290、及びスマートフォン291のカメラ機能を使用しない場合の仮想カメラ292は、ライブビュー画像を撮影することができないが、仮想の撮像部を設定することで、仮想カメラ290、292の画角に対応する画像(ライブビュー画像)を取得することができる。
 図27は、仮想カメラが撮影するライブビュー画像の取得方法の実施形態を示す図である。
 前述したように仮想画像表示装置100の内蔵カメラ101は、仮想カメラ290を含むユーザの視野に相当する視野画像IMを撮影し、撮影した視野画像IMを取得する。図27において、L1は、内蔵カメラ101の光軸である。
 仮想カメラ290がカメラ機能を有する場合に撮影するライブビュー画像は、仮想カメラ290の3次元位置、姿勢(撮影方向)、及び画角により特定することができる。図27において、L2は、仮想カメラ290において仮定した光軸であり、仮想カメラ290の3次元位置及び姿勢から求めることができる。
 仮想画像表示装置100は、撮像装置200と同様に、XRディスプレイ140を基準にした仮想カメラ290の3次元位置及び姿勢を示す情報を取得することができる。
 したがって、仮想カメラ290の画角を設定すれば、仮想カメラ290の3次元位置及、姿勢及び画角により撮影されるライブビュー画像が、内蔵カメラ101により撮影される視野画像IMのどの範囲に相当するかを求めることができる。
 即ち、仮想画像表示装置100は、内蔵カメラ101が撮影した視野画像IMから、仮想カメラ290の画角に対応する画像を切り出してライブビュー画像として取得することができる。尚、内蔵カメラ101の画角は、仮想カメラ290に設定する画角よりも広く、視野画像IMは、仮想カメラ290が撮影するライブビュー画像を含むものとする。
 このように、仮想画像表示装置100は、仮想カメラ290が仮に撮像部を有する場合に撮影することができるライブビュー画像を、内蔵カメラ101が撮影した視野画像IMから取得することができる。
 仮想画像表示装置100は、取得したライブビュー画像を幾何変換し、仮想カメラ290に対して設定した表示領域(例えば、仮想カメラ290であるグリップ部に隣接する領域)に表示させることができる。
 また、仮想画像表示装置100は、図26に示した仮想カメラ292の場合、取得したライブビュー画像を幾何変換し、仮想カメラ292のスマートフォン291の表示領域に重ね合わせて表示することができる。
 更に、仮想画像表示装置100は、内蔵カメラ101が撮影した視野画像IMを解析することで、仮想カメラ290におけるスイッチ類のユーザ操作(ジェスチャー)を検出することができ、スイッチ類のユーザ操作に基づく記録用の撮影、保存及びその他の処理を実施することができる。
 また、仮想カメラは、グリップ部だけのものに限らず、外観形状、大きさ、スイッチ類の配置や有無が異なる種々のものが考えられる。
 尚、本例の仮想カメラ290は、カメラ機能を備えていないが、本物のスイッチ類及び通信部等を備え、スイッチ類の操作情報は、仮想カメラ290に備えた簡易の通信部を介して仮想画像表示装置100に送信するようにしてもよい。
 <XRディスプレイの第2実施形態>
 図28は、仮想画像表示装置のXRディスプレイの第2実施形態を示す図である。
 図28に示すXRディスプレイ141は、視野を覆う没入型のディスプレイであって、ゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであり、内蔵カメラ101、画像合成部143、表示素子145、及び光学系147から構成されている。
 内蔵カメラ101が撮影した撮影画像(視野画像IM)は、画像合成部143に出力される。
 画像合成部143の他の入力には、幾何変換されたライブビュー画像LV1が加えられており、画像合成部143は、視野画像IMに含まれるカメラ画像の表示領域にライブビュー画像LV1を合成し(貼り付け)、表示素子145に出力する。
 表示素子145は、ライブビュー画像LV1が合成された視野画像IMを表示する。この視野画像IMは、光学系147によりユーザの目の前の表示位置において、虚像として表示される。
 ゴーグル型のXRディスプレイ141を装着したユーザは、光学系147を通じて表示素子145に表示された視野画像IMの虚像を視認することができる。ユーザは、ゴーグル型のXRディスプレイ141により視野が覆われるため、視野画像IM以外を見ることができず、非現実の世界に深く没入することができる。
 尚、図28では、1つのXRディスプレイ141のみを示したが、ゴーグル型の場合、両目に対応する左右一対のXRディスプレイ141を備える。したがって、内蔵カメラ101等もそれぞれ左右に設けられ、ライブビュー画像LV1も左右用のライブビュー画像が生成されることになる。
 [仮想画像表示システムの第2実施形態]
 図29は、本発明に係る仮想画像表示システムの第2実施形態を示すブロック図である。
 図29に示す仮想画像表示システム11は、仮想画像表示装置180、仮想カメラ290、及びサーバ(XRサーバ)300から構成されている。
 仮想画像表示装置180は、図6に示した仮想画像表示装置100とほぼ共通するが、XRサーバ300との間で必要な情報を送受信する点で、仮想画像表示装置100と相違する。
 図29において、XRサーバ300は、実空間の3次元情報を有する3次元画像(XR空間構築データ)を管理するデータベース(DB:database)302を備える。
 XRサーバ300は、実空間に配置された多視点カメラ320、監視カメラ330、ドライブレコーダ340、ドローンカメラ310、又は携帯端末カメラを含む多数のカメラにより撮影された画像を収集し、最新のXR空間構築データを生成してデータベース302にて管理している。
 データベース302は、街区、都市、商店街、観光地等をデジタル化し、XR空間構築データとして管理する。また、複数のXRサーバ300を連携させ、より広域のXR空間構築データを管理することが好ましい。
 仮想画像表示装置180のXRプロセッサ111は、図6に示した仮想画像表示装置100のXRプロセッサ110と同様の機能を備えるが、更に仮想カメラ290の3次元位置、姿勢、及び画角を示す情報(第1情報)に基づいて、XRサーバ300が管理しているXR空間構築データから、仮想カメラ290の撮影領域に対応するXR空間構築データを切り出し、切り出した3次元のXR空間構築データを2次元画像に変換し、この2次元画像をライブビュー画像として使用する。
 XRプロセッサ111は、データベース302から読み出した3次元のXR空間構築データを、仮想カメラ290の3次元位置及び姿勢(撮影方向)に基づいて、仮想カメラ290のカメラ内部パラメータ(本例では、予め設定した画角又は焦点距離)を使用して透視投影変換することで2次元画像に変換し、これをライブビュー画像LVとする。
 また、XRプロセッサ111は、内蔵カメラ101が撮影した視野画像IMを解析して仮想カメラ290の表示領域を特定し、ライブビュー画像LVを、仮想カメラ290の表示領域に重ね合わせる際に使用する変換情報を取得し、取得した変換情報に基づいてライブビュー画像LVを幾何変換するが、仮想画像表示装置180のXRディスプレイ140と仮想カメラ290との相対的な3次元位置及び姿勢に基づいて変換情報を取得し、かつXRディスプレイにて視野画像IMを使用しない場合には、内蔵カメラ101は省略することができる。XRプロセッサ111は、周囲にいる他の人の撮像装置から送信される画像データを用いてより良いライブビュー画像を生成するようにしてもよい。
 また、XRサーバ300は、最新のXR空間構築データを生成する際に、多視点カメラ320等の画像として現在画像だけでなく過去に記録した画像も用い複数の画像のコンポジット合成によって単体よりも高画質のXR空間構築データを構築することが好ましい。複数の画像を用いて、わずかな画素のずれを利用して加工及び合成することによって画像の画素数を増やすことができる。
 複数の画像を用いて、補完画像を作成する際に、白飛び、黒つぶれなどの相互補完を行い、画像データの得られない、または品質の悪い部分を補完し、更に品質の悪い部分を補完する際に、光の強弱によって発生する明暗の上下関係が逆転しないように補完画像の明るさを補正することが好ましい。更に、補完画像の明るさを補正する際に、全体の表示ラチチュード(印刷ラチチュードの中)に納まるようにガンマカーブを補正し、あるいは全体の印刷ラチチュードの中に納まるように印刷パラメータカーブを補正することが好ましい。
 主被写体画像と合成する際に、明るさ、光線方向、色温度、ガンマカーブ(印刷パラメータ)を多視点カメラ320等の画像に合わせる補正を行うことが好ましい。更に、多視点カメラ320の過去画像及び現在画像から主要被写体以外を画像合成する場合、現在画像から天気や時刻等の変化する条件を検出し、検出した天気や時刻等の変化する条件に合わせて、過去画像やXR空間構築データを変換して合成することが好ましい。
 また、XRサーバ300は、XR空間構築データに仮想オブジェクト画像を合成するようにしてもよい。例えば、XRサーバ300は、XR空間構築データが人物の画像を含んでいる場合、その人物を模したアバターの画像に変換し、人物の画像に代えてアバターの画像に変更することができる。また、XRサーバ300は、人物の画像から人物を特定し、かつ特定した人物が自分のアバターの画像をXRサーバ300に登録している場合には、人物の画像を登録されたアバターの画像に変更することができる。
 これにより、仮想画像表示装置180は、XRサーバ300からアバターの画像を含むライブビュー画像LVを取得することができる。
 尚、自分が入っている画像が他者によって使用される場合が考えられるが、この場合には、その旨を仮想画像表示装置100にて報知し、又は警告することが好ましい。また、自分が入っている画像の許可/不許可の設定が可能であり、許可に設定されている場合には報知等は省略することができる。
 また、自分が入っている画像が他者によって使用される場合、不許可に設定されている場合には、その旨を相手に報知し、警告し、又は相手の撮影をロックする信号を送信し、あるいは自分の画像部分にモザイクを掛けさせる信号、相手側の画像を生成させない生成禁止信号を送信することができる。相手側の装置は、生成禁止信号を受信すると、禁止被写体の画像を生成しない(消す、背景で塗り潰す等)ように画像処理を行うことが好ましい。
 更に、この実施形態では、仮想画像表示装置180が、XRサーバ300からライブビュー画像LVを取得するようにしているが、これに限らず、仮想画像表示装置180は、ライブビュー画像LVの抽出に必要な情報をXRサーバ300に送信し、XRサーバ300がライブビュー画像LVを取得し、仮想画像表示装置180に送信するようにしてもよいし、ライブビュー画像LVを幾何変換し、幾何変換したライブビュー画像LV1を仮想画像表示装置100に送信するようにしてもよい。
 また、XRサーバ30は、XRディスプレイ140の視野範囲を示す情報を取得することで、ライブビュー画像LVを取得する方法と同様にして視野画像IMを取得し、仮想画像表示装置100に送信するようにしてもよい。
 更にまた、この実施形態では、仮想カメラ290を使用しているが、撮像装置200を使用する場合にも適用できる。この場合、撮像装置200がXR環境で使用されている場合、撮像装置200はライブビュー画像を撮影せず、XRサーバ300から取得することになる。
 また、XRサーバ300のデータベース302には、最新のXR空間構築データが登録されるが、必ずしもリアルタイムのXR空間構築データではないため、最新のXR空間構築データから生成されるライブビュー画像LVも必ずしもリアルタイムの画像ではない。
 したがって、仮想画像表示装置180は、例えば、内蔵カメラ101で撮影される視野画像IMと明るさや色味に合わせて、ライブビュー画像LVの明るさや色味を調整することが好ましい。
 尚、仮想カメラ290の姿勢は、仮想カメラ290を手に持ってユーザが任意に操作することができるが、仮想カメラ290の3次元位置も現実の位置ではなく、ユーザ操作により任意の位置に変更可能にすることにより、ユーザは、自宅に居ながら観光地等の撮影を楽しむことができる。
 [仮想画像表示方法の第1実施形態]
 図30は、本発明に係る仮想画像表示方法の第1実施形態を示すフローチャートである。
 図30に示す第1実施形態の仮想画像表示方法は、仮想画像表示装置100により行われ、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 図30において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得する(ステップS100)。
 XRプロセッサ110は、視野画像IMを解析して、視野画像IMに含まれる撮像装置200を示すカメラ画像を抽出する(ステップS102)。撮像装置200を手に持って撮像装置200によりライブビュー画像を撮影する場合、図9に示すように内蔵カメラ101により撮影される視野画像IMには、通常、撮像装置200を示すカメラ画像が含まれている。
 XRプロセッサ110は、抽出したカメラ画像から撮像装置200が、XR対応カメラか否かを判別する(ステップS104)。この判別は、例えば、抽出したカメラ画像と第1メモリ120に予め保存されたXR対応カメラの外観データとを比較することにより行うことができる。また、撮像装置200に設けられたARマーカMが、予め登録されたARマーカMと一致するか否かにより判別することができる。
 XRプロセッサ110は、内蔵カメラ101により撮影された撮像装置200がXR対応カメラであると判別すると(「Yes」の場合)、続いて撮像装置200がXRモードか、又は非XRモードかを検出する(ステップS106)。
 XRモード/非XRモードの検出は、撮像装置200がXRモードに設定され、メインモニタ241又はサブモニタ242にARマーカMを表示する場合には、そのARマーカMを検出することで行うことができる。また、撮像装置200が専用のモード切替えレバーを有している場合、モード切替えレバーの位置を画像認識することで行うことができる。更に、視野画像IMからカメラ画像が抽出された場合に、XRプロセッサ110は、仮想画像表示装置100から自動的に撮像装置200に対して無線接続し、撮像装置200との通信結果に基づいてXRモード/非XRモードの検出を行うことができる。例えば、仮想画像表示装置100からの発呼に対して撮像装置200から応答がない場合には、撮像装置200はXRモードに設定されていないと判別することができる。
 ステップS108において、XRモード/非XRモードの検出結果から、撮像装置200がXRモードに設定されていないと判別されると(「No」の場合)、XRプロセッサ110は、仮想画像表示装置100(スマートグラス)におけるライブビュー画像の重ね合わせ合成機能をOFFにし(ステップS110)、ステップS100に戻る。これにより、ユーザは、スマートグラスを透過する現実世界のみを見ることができる。
 一方、ステップS108において、XRモード/非XRモードの検出結果から、撮像装置200がXRモードに設定されていると判別されると(「Yes」の場合)、抽出したカメラ画像に基づいて撮像装置200の表示領域A(図10参照)を特定する。表示領域Aの特定は、モニタパネル240の四角形の輪郭を検出し、あるいは撮像装置200に付されたARマーカM2~M4を検出することで行うことができる。
 次に、XRプロセッサ110は、ライブビュー画像LVを、撮像装置200の表示領域Aに重ね合わせる際にしようする変換情報を取得する。ライブビュー画像LVをアフィン変換して表示領域Aに重ね合わせる場合には、アフィン変換のパラメータ(変換行列)を変換情報として取得し、ライブビュー画像LVを射影変換して表示領域Aに重ね合わせる場合には、射影変換の変換行列を変換情報として取得する。尚、変換行列は、ライブビュー画像LVの複数の特徴点の座標と、複数の特徴点に対応する表示領域Aにおける複数の対応点の座標から求めることができる。
 続いて、XRプロセッサ110は、撮像装置200からライブビュー画像LVを受信する(ステップS116)。ライブビュー画像LVは連続データであるが、ステップS116では、1フレーム分の画像データを受信する。
 XRプロセッサ110は、ステップS114で取得した変換情報に基づいて、ライブビュー画像LV(1フレームの画像データ)を幾何変換し、幾何変換したライブビュー画像LV1をXRディスプレイ140に出力する(ステップS118)。
 XRディスプレイ140は、図11に示すように幾何変換されたライブビュー画像LV1を入力して表示素子144に表示する(ステップS120)。ユーザは、XRディスプレイ140の光学系146を通じて現実世界(撮像装置200の表示領域A)に重ね合わされたライブビュー画像LV1を視認することができる。
 XRプロセッサ110は、XRディスプレイ140によるライブビュー画像LV1の画像表示を終了する否かを判別する(ステップS122)。画像表示を終了させない場合には、ステップS100に遷移させ、ステップS100からステップS122の処理を、ライブビュー画像LVの1フレーム毎に繰り返す。画像表示を終了させない場合には、仮想画像表示装置100による処理を終了させる。
 [撮像装置による表示方法]
 図31は、本発明に係る撮像装置による表示方法を示すフローチャートである。
 尚、図30に示す撮像装置による表示方法は、主として図7に示した撮像装置200のカメラプロセッサ210により行われる方法である。
 図31において、カメラプロセッサ210は、まず、モード切替え部によりXRモードが設定されているか否かを判別する(ステップS200)。
 ユーザは、明るい場所などでメインモニタ241が見えにくい場合、実際のメインモニタ241よりも大きく仮想モニタにライブビュー画像LV1を表示したい場合、あるいはアバターを含む各種の仮想オブジェクトを撮影したい場合にXRモードを設定し、より自然な使い勝手を優先させ、現実のメインモニタ241に表示されるライブビュー画像等を観察したい場合に非XRモードに設定することで、XRモードと非XRモードのメリット/デメリットに応じて撮像装置200を使い分けることができる。
 ステップS200において、XRモードが設定されていると判別されると(「Yes」の場合)、カメラプロセッサ210は、閉じているモニタパネル240のサブモニタ242にARマーカMを表示させる。このARマーカMは、ライブビュー画像LV1の表示領域Aを特定するマーカとして利用することができ、及び/又は他の撮像装置と区別するためのカメラ識別情報として利用することができる。
 続いて、カメラプロセッサ210は、撮像部201により撮影され、RAW現像処理されたライブビュー画像LVを、第2通信部260を介して仮想画像表示装置100に送信する(ステップS220)。
 一方、ステップS200において、XRモードが設定されていないと判別されると(非XRモードの場合)には、カメラプロセッサ210は、チルト可能なモニタパネル240が開いているか否かを判別する(ステップS230)。モニタパネル240が開いていると判別すると、カメラプロセッサ210は、撮像部201により撮影され、RAW現像処理されたライブビュー画像LVをメインモニタ241に出力し、メインモニタ241にライブビュー画像LV1を表示させる。これにより、ユーザは、メインモニタ241に表示されたライブビュー画像LVにより現在の撮影範囲等を確認することができる。
 一方、モニタパネル240が開いていないと判別すると(「No」の場合)、カメラプロセッサ210は、続いてハイブリッドファインダであるビューファインダ243が、EVFに切り替えられているか、又はOVFに切り替えられているかを判別する(ステップS250)。この判別は、ファインダ切替えレバーのユーザ操作に基づいて行うことができる。
 カメラプロセッサ210は、ビューファインダ243がEVFに切り替えられている場合には、EVFにライブビュー画像LV1を表示させる(ステップS260)。一方、ビューファインダ243がOVFに切り替えられている場合には、OVFに光学像(ファインダ像)が表示される(ステップS270)。この場合、ライブビュー画像LV1を生成する処理は停止させることができる。
 ユーザは、ビューファインダ243の接眼部を覗くことで、EVFに表示されたライブビュー画像LV1、又はOVFに表示されるファインダ像を確認することができる。
 [仮想画像表示方法の第2実施形態]
 図32は、本発明に係る仮想画像表示方法の第2実施形態を示すフローチャートである。
 図32に示す第2実施形態の仮想画像表示方法は、図30に示した第1実施形態と同様に、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 図32において、XRプロセッサ110は、まず、撮像装置200の確認を行う(ステップS300)。
 図33は、図32に示した撮像装置の確認を行うステップS300の処理の実施形態を示すサブルーチンである。
 図33において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得し(ステップS301)、視野画像IMに存在する撮像装置200のカメラ画像を抽出する(ステップS302)。
 続いて、XRプロセッサ110は、カメラ画像を画像解析し、ARマーカMの抽出処理を行う(ステップS303)。本例のXR対応カメラである撮像装置200には、ARマーカMが付されているため、ARマーカMの有無から撮像装置200の有無の確認が可能である。
 ステップS304において、ARマーカMの「有り」が判別されると(「Yes」の場合)、ステップS305に遷移し、ここで、XRプロセッサ110は、ARマーカMを有する対象機器との通信を開始する。
 続いて、XRプロセッサ110は、対象機器がユーザの撮像装置200であるか否かを通信により確認する(ステップS306)。XRプロセッサ110は、例えば、一度、ペアリングした機器同士か否か確認することで、対象機器がユーザの撮像装置200であるか否かを確認することができる。尚、仮想画像表示装置100とユーザの撮像装置200とは、公知の方法によりペアリングすることができる。
 ステップS307において、対象機器がユーザの撮像装置200であると判別されると(「Yes」の場合)、XRプロセッサ110は、視野画像IMに含まれるカメラ画像が、ユーザの撮像装置200であると確認する(ステップS308)。
 一方、ステップS304において、視野画像IM(カメラ画像)内にARマーカMが無いと判別され(「No」の場合)、又はステップS307において、対象機器がユーザの撮像装置200ではないと判別されると(「No」の場合)、XRプロセッサ110は、ユーザの撮像装置200を確認することができなかった(未確認)とする(ステップS309)。
 図32に戻って、ステップS310において、ユーザの撮像装置200の存在の確認がとれると(「Yes」の場合)、XRプロセッサ110は、撮像装置200がXRモードか否かを判別する(ステップS312)。XRモードの判別方法は、前述した方法と同様に行うことができるため、ここではその説明は省略する。
 ステップS312において、撮像装置200がXRモードに設定されていると判別された場合(「Yes」の場合)、XRプロセッサ110は、撮像装置200の表示領域Aに、ライブビュー画像を重ね合わせて表示すべきか、再生画像を重ね合わせて表示すべきか、又は撮影情報INFOを重ね合わせて表示すべきかを確認する(ステップS314)。
 撮像装置200は、XR環境で使用する場合において、ライブビュー画像、再生画像、又は撮影情報INFOのいずれを、撮像装置200の表示領域Aに表示させるかのユーザ指示を受け付けることができ、受け付けたユーザ指示に対応する情報(ライブビュー画像、再生画像、又は撮影情報INFO)を仮想画像表示装置100に送信する。
 したがって、XRプロセッサ110は、撮像装置200から受信した情報(ライブビュー画像等)に基づいて、撮像装置200の表示領域Aに、ライブビュー画像を重ね合わせて表示すべきか、再生画像を重ね合わせて表示すべきか、又は撮影情報INFOを重ね合わせて表示すべきかを確認することができる。
 ステップS318において、ライブビュー画像を表示すると判別されると、XRプロセッサ110は、ステップS320に遷移させ、撮像装置200から受信したライブビュー画像をXRディスプレイ140に重ね合わせ表示する。
 図34は、図32に示したライブビュー画像LV1の重ね合わせ表示を行うステップS3200の処理の実施形態を示すサブルーチンである。
 図34において、XRプロセッサ110は、撮像装置200からライブビュー画像LVを受信する(ステップS321)。
 続いて、XRプロセッサ110は、受信したライブビュー画像LVに対応する撮影情報INFOを取得する(ステップS322)。ここで、撮影情報INFOは、例えば、テキスト情報であり、ライブビュー画像LVの1フレーム又は複数フレーム毎に対応付けられた付属情報である。
 ステップS323において、撮影情報INFOの「有り」が判別されると(「Yes」の場合)、XRプロセッサ110は、ステップS324に遷移させ、ここで、ライブビュー画像LVの周辺領域に撮影情報INFOを合成する(ステップS324)。
 一方、ステップS323において、撮影情報INFOの「無し」が判別されると(「No」の場合)、XRプロセッサ110は、ステップS324を飛ばしてステップS325に遷移させる。
 尚、XRプロセッサ110は、撮影情報INFOを取得しも、撮影情報INFOの受け渡し情報が、「非表示」を表す情報を含む場合には、撮影情報INFO「無し」と判別し、ステップS324を飛ばしてステップS325に遷移させる。また、XRサーバ300から取得したデータを元に撮像装置200の操作によってライブビュー画像を作り出す場合において、そのライブビュー画像の撮影情報INFOを取得しても、撮像装置200の操作により生成されたライブビュー画像の撮影情報INFOである場合には、撮影情報INFO「無し」と判別し、ステップS324を飛ばしてステップS325に遷移させる。
 ステップS325において、XRプロセッサ110は、内蔵カメラ101から視野画像IMを取得し、取得した視野画像IMに基づいて撮像装置200上の複数のARマーカMの位置を検出する。
 その後、XRプロセッサ110は、ステップS326~S329の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aにライブビュー画像LV1を重ね合わせて表示する。尚、ステップS326~S329の処理は、図30に示したフローチャートのステップS112、S114、S118,及びS120の処理と同様であるため、その詳細な説明は省略する。
 図32に戻って、ステップS318において、撮影情報表示と判別されると、XRプロセッサ110は、ステップS330に遷移させ、撮像装置200から受信した撮影情報INFOをXRディスプレイ140に重ね合わせ表示する。
 図35は、図32に示した撮影情報INFOの重ね合わせ表示を行うステップS330の処理の実施形態を示すサブルーチンである。
 図35において、XRプロセッサ110は、仮想画像表示装置100におけるライブビュー画像LV1の重ね合わせ表示機能をOFFにし、撮影情報INFOの重ね合わせ表示機能をONにする(ステップS331)。
 続いて、XRプロセッサ110は、撮像装置200からテキストデータの撮影情報INFOを受信する(ステップS332)。
 XRプロセッサ110は、受信した撮影情報INFOから撮影情報INFOを示す撮影情報画像(ラスター画像又はベクター画像)を生成する(ステップS333)。
 その後、XRプロセッサ110は、ステップS334~S338の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aに撮影情報INFOを示す撮影情報画像を重ね合わせて表示する。尚、ステップS334~S338の処理は、図34に示したフローチャートのステップS325~329の処理とは、ライブビュー画像LV1の代わりに撮影情報画像を表示する点で相違する(即ち、表示する画像が相違する)が、その他の処理は共通するため、その詳細な説明は省略する。
 図32に戻って、ステップS318において、再生画像表示と判別されると、XRプロセッサ110は、ステップS340に遷移させ、撮像装置200から受信した再生画像をXRディスプレイ140に重ね合わせ表示する。
 図36は、図32に示した再生画像の重ね合わせ表示を行うステップS340の処理の実施形態を示すサブルーチンである。
 図36において、撮像装置200のカメラプロセッサ210は、撮像装置200において選択された再生画像は、撮像装置200の画像(撮像装置200の第2メモリ220に記録された撮影画像)か、又は図示しないネットワーク上の画像(ネットワーク上のサーバで管理されているユーザの画像)か、を識別する(ステップS280)。尚、この場合の撮像装置200は、ネットワークと接続可能であり、ネットワーク上のサーバに撮影画像を保存し、又はサーバから撮影画像を読み出すことができるものとする。
 ステップS281において、撮像装置200内の画像と判別されると、カメラプロセッサ210は、ユーザ操作にしたがって撮像装置200の第2メモリ220から再生画像を読み出す(ステップS282)。尚、内蔵メモリである第2メモリ220の代わりに、撮像装置200に着脱自在なメモリカードから再生画像を読み出すようにしてもよい。
 一方、ステップS281において、ネットワーク上の画像と判別されると、カメラプロセッサ210は、ユーザ操作にしたがってネットワークに保存されたユーザの画像群から再生画像を読み出す(ステップS283)。
 カメラプロセッサ210は、ステップS282又はS283で読み出した再生画像を仮想画像表示装置100に送信する(ステップS284)。
 上記ステップS280~S284の処理は、撮像装置200での処理であり、以下の各処理が、仮想画像表示装置100による処理である。
 仮想画像表示装置100のXRプロセッサ110は、撮像装置200から送信された再生画像を受信する(ステップS341)。
 その後、XRプロセッサ110は、ステップS342~S346の処理を行うことで、XRディスプレイ140により観察される撮像装置200の表示領域Aに再生画像を重ね合わせて表示する。尚、ステップS342~S346の処理は、図34に示したフローチャートのステップS325~329の処理とは、ライブビュー画像LV1の代わりに再生画像を表示する点で相違する(即ち、表示する画像が相違する)が、その他の処理は共通するため、その詳細な説明は省略する。
 このようにして仮想画像表示装置100は、XRディスプレイ140により観察される撮像装置200の表示領域Aにライブビュー画像LV1、撮影情報INFO、又は再生画像を重ね合わせ表示することができ、仮想画像表示装置100(スマートグラス)を装着したユーザは、スマートグラスを透過する現実世界に重ね合わされたライブビュー画像LV1等を視認することができる。
 <撮像装置の外観変更方法>
 図37は、撮像装置の外観変更方法の実施形態を示すフローチャートである。
 図37に示す撮像装置200の外観変更方法は、主として図6に示した仮想画像表示装置100のXRプロセッサ110により行われる方法である。
 尚、本例の撮像装置200の外観変更方法は、物理的に撮像装置200の外観を変更するのではなく、仮想画像表示装置100(スマートグラス)により観察される撮像装置200の外観を画像上で変更するものである。
 図37において、XRプロセッサ110は、内蔵カメラ101により撮影した視野画像IMを取得し(ステップS350)、視野画像IMに存在する撮像装置200のカメラ画像を抽出する(ステップS352)。
 XRプロセッサ110は、抽出したカメラ画像から撮像装置200が、XR対応カメラか否かを判別する(ステップS354)。この判別は、例えば、抽出したカメラ画像と第1メモリ120に予め保存されたXR対応カメラの外観データとを比較することにより行うことができる。
 ステップS354において、内蔵カメラ101により撮影された撮像装置200がXR対応カメラであると判別されると(「Yes」の場合)、XRプロセッサ110は、撮像装置200のXR対応データを取得する(ステップS356)。XR対応データは、撮像装置200の交換レンズ部、皮革外装部、操作ダイヤル部、上部外装部、ファインダ部、モニタ部等の外観形状を示すデータを含む。
 一方、ステップS354において、内蔵カメラ101により撮影された撮像装置200がXR対応カメラでないと判別されると(「No」の場合)、XRプロセッサ110は、仮想画像表示装置100(スマートグラス)におけるライブビュー画像の重ね合わせ合成機能をOFFにし(ステップS358)、ステップS350に戻る。これにより、ユーザは、スマートグラスを透過する現実世界のみ(実物の撮像装置200)を見ることができる。
 次に、XRプロセッサ110は、ステップS352により抽出したカメラ画像と、ステップS356で取得したXR対応データに基づいて、カメラ画像を分割した複数の領域を表示領域として特定する(ステップS360)。即ち、XR対応データに対応する、交換レンズ部、皮革外装部、操作ダイヤル部、上部外装部、ファインダ部、モニタ部等の領域を表示領域として特定する。
 続いて、XRプロセッサ110は、ユーザの選択操作に基づいて撮像装置200における複数の表示領域のうちの1以上の表示領域に合成する部品画像を取得する(ステップS362)。仮想画像表示装置100の第1メモリ120には、撮像装置200の外観を複数の領域に分割した分割領域毎に外観を示す部品画像(仮想オブジェクト画像)が記憶されており、ユーザは、第1メモリ120に記憶された複数の部品画像をメインモニタ241に表示させ、操作部230により表示領域に合成する部品画像を選択することができる。尚、部品画像は、部品の3次元モデルの表面に画像が貼り付けられたものとすることができる。
 XRプロセッサ110は、3次元の部品画像をその部品画像に対応する2次元の表示領域に重ね合わせる際に使用する変換情報を取得する(ステップS364)。部品画像の3次元データは既知であり、表示領域の2次元データも検出することができるため、3次元の部品画像を対応する表示領域に合致するように投影する変換情報は取得することができる。
 XRプロセッサ110は、ステップS364で取得した変換情報に基づいて部品画像を幾何変換し、幾何変換した部品画像をXRディスプレイ140に出力する(ステップS366)。
 XRディスプレイ140は、幾何変換された部品画像を入力して表示素子144に表示することで、部品画像を撮像装置200の表示領域に重ね合わせ表示する(ステップS368)。ユーザは、XRディスプレイ140の光学系146を通じて現実世界(撮像装置200の表示領域)に重ね合わされた部品画像(外観を変更するスキン)を視認することができる。即ち、ユーザは自分好みの外観を有する、オリジナルの撮像装置にすることができる。また、1つの撮像装置を何通りもの外観で使い分けることができる。
 尚、撮像装置の外観を変更しつつ、撮像装置のモニタ部の表示領域にライブビュー画像LV1等を重ね合わせ表示することができることは言うまでもない。
 [その他]
 本実施形態の撮像装置200は、XRモードが設定された場合において、自撮り撮影を行うことができる。この場合、撮像装置200の前面に設定した表示領域、又は180°回動させたモニタパネル240のサブモニタ242側の表示領域Aに、ライブビュー画像LV1を表示させることができる。また、ユーザは、スマートグラスやVRゴーグルを装着しているが、ユーザの顔領域にはアバターの顔画像を合成することが好ましい。
 また、撮像装置200は、非XR環境において、メインモニタ241にライブビュー画像LVに撮影情報INFOを合成して表示させる表示態様と、メインモニタ241にライブビュー画像LVのみを表示させる表示態様と、撮影情報INFOのみを表示させる表示態様と、表示/戻るボタン247を押す毎に切り替える機能を有するが、仮想画像表示装置100は、撮像装置200をXR環境で使用する場合、非XR環境で設定された表示態様に合わせてライブビュー画像LV1等を表示させることが好ましい。
 仮想画像表示装置100のXRプロセッサ110は、内蔵カメラ101により取り込んだ視野画像IMの明るさ情報に応じて、撮像装置200の表示領域Aが明るい時は明るく、暗い時は暗くなるように、合成するライブビュー画像LV1の明るさを変化させることが好ましく、白飛びや黒つぶれが生じる明るさの場合は白飛びや黒つぶれが生じないようにあらかじめ設定された閾値を超えない範囲でライブビュー画像LV1の明るさを制御することが好ましい。
 更に、本実施形態において、例えば、CPU(Central Processing Unit)等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 更に、本発明は上述した実施形態を複数備え、本発明の撮影装置、またはシステムを適用できるものであれば、選択的、または両立に作用する変形が可能であることは言うまでもない。
 また、仮想画像表示装置の「第1ディスプレイ」は、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスであり、HMDデバイスや透過型スマートグラスを用いて仮想画像を含む映像を提供しているが、それ以外の方法(例えば、スマートグラス等に内蔵された網膜投影装置や、第1ディスプレイのディスプレイ方式としてプロジェクターを使用することにより、プロジェクションマッピングの原理によって仮想画像を表示する方法など、本発明の撮影装置、またはシステムを適用でき、本発明の本質である表示を実現できるものであれば、第1ディスプレイとしての表示部は如何なるものでもよい。
 更に、本実施形態では、仮想画像表示装置100が、ライブビュー画像LVを幾何変換し、幾何変換したライブビュー画像LV1をXRディスプレイ140に出力するが、仮想画像表示装置100は、前述したようにXRサーバ300から幾何変換されたライブビュー画像LV1を取得してもよいし、撮像装置200から幾何変換されたライブビュー画像LV1を取得するようにしてもよい。この場合、撮像装置200は、ライブビュー画像LVを幾何変換する処理を行うために、仮想画像表示装置100から視野画像IMを取得し、又は仮想画像表示装置100と撮像装置200との相対的な3次元位置及び姿勢の情報を取得する必要がある。
 また、仮想画像表示装置100は、撮像装置200がXR環境で使用される場合(XRモードが設定されている場合)に、XRディスプレイ140にて撮像装置100の表示領域にライブビュー画像LV1を重ね合わせて表示させるが、撮像装置200が非XR環境(通常の環境)で使用される場合(非XRモードが設定されている場合)にも、仮想画像表示装置100におけるライブビュー画像LV1の重ね合わせ合成機能をONできるようにしてもよい。これにより、撮像装置200を通常の環境で使用する場合に、撮像装置200のディスプレイが直射日光の照射により見にくい場合でも、ライブビュー画像LV1を良好に観察することができるというメリットがある。
 更に、この技術を用いたものを「XR環境での使用中」であっても、自動的にはライブビュー画像LVを仮想画像表示装置100に送信しないモードを設けて、選択的に撮像装置100のディスプレイにライブビュー画像を表示することが出来るような構成であっても構わない。
 更にまた、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10、11…仮想画像表示システム
100…仮想画像表示装置
101…内蔵カメラ
102…撮影レンズ
104…イメージセンサ
110、111…XRプロセッサ
112…変換情報取得部
114…合成部
116…幾何変換部
120…第1メモリ
130、230…操作部
140、141…XRディスプレイ
142…表示制御部
143…画像合成部
144、145…表示素子
146、147…光学系
146A…レンズ
146B…ハーフミラー
150…仮想オブジェクト生成部
151…交換レンズ部
152…皮革外装部
153…操作ダイヤル部
154…上部外装部
155…ファインダ部
156…モニタ部
160…第1通信部
170、270…GPS受信機
172、272…ジャイロセンサ
174、274…加速度センサ
176、276…地磁気センサ
180…仮想画像表示装置
200、280…撮像装置
201…撮像部
202…交換レンズ
203…カメラ本体
204…イメージセンサ
210…カメラプロセッサ
220…第2メモリ
232…シャッターボタン
234…感度ダイヤル
236…露出補正ダイヤル
240…モニタパネル
241…メインモニタ
242…サブモニタ
243…ビューファインダ
244…トグルスイッチ
245…実行ボタン
246…再生ボタン
247…ボタン
248…表示制御部
250…画像処理部
260…第2通信部
281…ダミーレンズ
282…実レンズ
283…ダミーモニタ
290、290B、290C、292…仮想カメラ
291…スマートフォン
300…XRサーバ
302…データベース
310…ドローンカメラ
320…多視点カメラ
330…監視カメラ
340…ドライブレコーダ
A…表示領域
IM…視野画像
INFO…撮影情報
LV、LV1…ライブビュー画像
M、M1~M9…ARマーカ
P1~P4…特徴点
P1'~P4'…対応点
S100~S122、S200~S284、S300~S368…ステップ

Claims (22)

  1.  プロセッサ及び第1ディスプレイを有する仮想画像表示装置であって、
     前記仮想画像表示装置は、第1撮像装置からのライブビュー画像を受信し、
     前記プロセッサは、
     前記ライブビュー画像を前記第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得し、
     前記情報に基づいて前記ライブビュー画像を変換し、
     前記第1ディスプレイは、前記変換された前記ライブビュー画像を表示する、
     仮想画像表示装置。
  2.  前記第1ディスプレイは、メガネ型又はゴーグル型の仮想画像表示機能を有するウェアラブルデバイスである、
     請求項1に記載の仮想画像表示装置。
  3.  ユーザの視野範囲を撮影する第2撮像装置を有し、
     前記プロセッサは、前記第2撮像装置が撮影した撮影画像を解析して前記表示領域を特定し、前記情報を取得する、
     請求項1又は2に記載の仮想画像表示装置。
  4.  前記プロセッサは、前記第2撮像装置が撮影した前記第1撮像装置のマーカの位置に基づいて前記情報を取得する、
     請求項3に記載の仮想画像表示装置。
  5.  前記プロセッサは、前記第1ディスプレイを基準にした前記第1撮像装置の3次元位置及び姿勢を示す情報を取得し、前記3次元位置及び姿勢を示す情報に基づいて前記情報を取得する、
     請求項1又は2に記載の仮想画像表示装置。
  6.  前記第1撮像装置は、前記ライブビュー画像を表示する第2ディスプレイを有し、
     前記表示領域は、前記第2ディスプレイの表示領域である、
     請求項1から5のいずれか1項に記載の仮想画像表示装置。
  7.  前記第2ディスプレイは、前記第1撮像装置の装置本体との相対的な姿勢関係が回動によって変更可能な回動機構を備え、
     前記表示領域は、回動した前記第2ディスプレイの表示領域である、
     請求項6に記載の仮想画像表示装置。
  8.  前記第1撮像装置は、ビューファインダを有し、
     前記表示領域は、前記ビューファインダの表示領域である、
     請求項1から5のいずれか1項に記載の仮想画像表示装置。
  9.  前記第1ディスプレイは、視野を透過するディスプレイであって、現実世界の視野に前記変換した前記ライブビュー画像を表示する、
     請求項1から8のいずれか1項に記載の仮想画像表示装置。
  10.  ユーザの視野範囲を撮影する第2撮像装置を備え、
     前記第1ディスプレイは、視野を覆う没入型のディスプレイであって、前記第2撮像装置が撮影した撮影画像に、前記変換した前記ライブビュー画像を重ね合わせた合成画像を表示する、
     請求項1から8のいずれか1項に記載の仮想画像表示装置。
  11.  前記プロセッサは、前記ライブビュー画像に仮想オブジェクト画像を合成する、
     請求項1から10のいずれか1項に記載の仮想画像表示装置。
  12.  プロセッサ、第1ディスプレイ及びユーザの視野範囲を撮影する第2撮像装置を有する仮想画像表示装置であって、
     前記プロセッサは、
     前記第2撮像装置が撮影した画像から、少なくともグリップ部を備えた仮想カメラの画角に対応する画像を切り出してライブビュー画像として取得し、
     前記ライブビュー画像を前記仮想カメラの表示領域に重ね合わせる際に使用する情報を取得し、
     前記情報に基づいて前記ライブビュー画像を変換し、
     前記第1ディスプレイは、前記変換された前記ライブビュー画像を表示する、
     仮想画像表示装置。
  13.  前記変換は、幾何変換である、
     請求項1から12のいずれか1項に記載の仮想画像表示装置。
  14.  ライブビュー画像を撮影する撮像部と、
     第1モードと第2モードとを切り替えるモード切替え部と、
     前記第1モードに切り替えられた場合に前記ライブビュー画像を表示する第2ディスプレイ又はビューファインダと、
     前記第2モードに切り替えられた場合に前記ライブビュー画像を、請求項1から11のいずれか1項に記載の仮想画像表示装置に送信する通信部と、
     を備えた撮像装置。
  15.  前記第2モードに切り替えられた場合に、前記第2ディスプレイ又は前記ビューファインダにマーカを表示する、
     請求項14に記載の撮像装置。
  16.  請求項1から13のいずれか1項に記載の仮想画像表示装置と、請求項14又は15に記載の撮像装置と、から構成された、
     仮想画像表示システム。
  17.  前記仮想画像表示装置の前記プロセッサは、前記ライブビュー画像に仮想オブジェクト画像を合成し、
     前記第2モードに切り替えられた状態で記録用の撮影が行われると、前記仮想オブジェクト画像を前記撮像装置に送信し、
     前記撮像装置は、前記第2モードに切り替えられた状態で記録用の撮影を行うと、前記撮影した画像と前記仮想画像表示装置から受信した前記仮想オブジェクト画像とを紐付けて記録し、又は前記撮影した画像に前記仮想オブジェクト画像を合成して記録する、
     請求項16に記載の仮想画像表示システム。
  18.  請求項1から11のいずれか1項に記載の仮想画像表示装置と、前記仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、
     前記サーバは、実空間の3次元情報を有する3次元画像を管理し、
     前記プロセッサは、
     前記第1撮像装置の3次元位置及び姿勢を示す第1情報に基づいて、前記サーバが管理している前記3次元画像から、前記第1撮像装置の撮影領域に対応する3次元画像を切り出し、
     前記切り出した前記3次元画像を2次元画像に変換し、前記2次元画像を前記ライブビュー画像として使用する、
     仮想画像表示システム。
  19.  請求項12に記載の仮想画像表示装置と、前記仮想画像表示装置と通信するサーバと、から構成された仮想画像表示システムであって、
     前記サーバは、実空間の3次元情報を有する3次元画像を管理し、
     前記プロセッサは、
     前記仮想カメラの3次元位置及び姿勢を示す第1情報に基づいて、前記サーバが管理している前記3次元画像から、前記仮想カメラの撮影領域に対応する3次元画像を切り出し、
     前記切り出した前記3次元画像を2次元画像に変換し、前記2次元画像を前記ライブビュー画像として使用する、
     仮想画像表示システム。
  20.  前記サーバは、実空間に配置された多視点カメラ、監視カメラ、ドライブレコーダ、ドローンカメラ、又は携帯端末カメラを含む多数のカメラにより撮影された画像から最新の前記3次元画像を生成して管理する、
     請求項18又は19に記載の仮想画像表示システム。
  21.  前記サーバは、前記3次元画像に仮想オブジェクト画像を合成する、
     請求項18から20のいずれか1項に記載の仮想画像表示システム。
  22.  プロセッサ及び第1ディスプレイを有する仮想画像表示装置が実行する仮想画像表示方法であって、
     前記プロセッサが、第1撮像装置からのライブビュー画像を受信するステップと、
     前記プロセッサが、前記ライブビュー画像を前記第1撮像装置の表示領域に重ね合わせる際に使用する情報を取得するステップと、
     前記プロセッサが、前記情報に基づいて前記ライブビュー画像を変換するステップと、
     前記第1ディスプレイが、前記変換された前記ライブビュー画像を表示するステップと、
     を含む仮想画像表示方法。
PCT/JP2023/012414 2022-03-31 2023-03-28 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法 WO2023190468A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022060129 2022-03-31
JP2022-060129 2022-03-31

Publications (1)

Publication Number Publication Date
WO2023190468A1 true WO2023190468A1 (ja) 2023-10-05

Family

ID=88202496

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012414 WO2023190468A1 (ja) 2022-03-31 2023-03-28 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法

Country Status (1)

Country Link
WO (1) WO2023190468A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
JP2017224913A (ja) * 2016-06-14 2017-12-21 キヤノン株式会社 撮像システム、情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017122513A1 (ja) * 2016-01-15 2017-07-20 富士フイルム株式会社 撮像システム、レンズ装置及びレンズ装置の作動方法
JP2017224913A (ja) * 2016-06-14 2017-12-21 キヤノン株式会社 撮像システム、情報処理装置
JP2019021236A (ja) * 2017-07-21 2019-02-07 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置

Similar Documents

Publication Publication Date Title
US9530249B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing system, and image processing method
JP5739674B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
WO2018051815A1 (ja) 情報処理装置および方法、並びにプログラム
JP5232669B2 (ja) カメラ
JP5835384B2 (ja) 情報処理方法、情報処理装置、およびプログラム
CN109218606B (zh) 摄像控制设备、其控制方法及计算机可读介质
CN105979123A (zh) 图像处理系统、图像处理方法
JP2005079719A (ja) 撮影画像処理装置及びその方法
CN114095662B (zh) 拍摄指引方法及电子设备
JP2023512966A (ja) 画像処理方法、電子機器及びコンピュータ可読記憶媒体
US20200120269A1 (en) Double-selfie system for photographic device having at least two cameras
DE102022118817A1 (de) Bildaufnahmevorrichtung, die als Action-Kamera verwendet wird, Steuerverfahren für diese und Speichermedium, das ein Steuerprogramm für diese speichert
JP6792253B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP5602702B2 (ja) 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法
JP2017084422A (ja) 装置、方法、およびプログラム
WO2023190468A1 (ja) 仮想画像表示装置、撮像装置、仮想画像表示システム及び方法
JP7383911B2 (ja) 撮像システム、画像処理装置、撮像装置およびプログラム
JP6583486B2 (ja) 情報処理方法、情報処理プログラムおよび情報処理装置
JP2020204874A (ja) 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム
JP7128347B2 (ja) 画像処理装置、画像処理方法及びプログラム、撮影装置
JP6673459B2 (ja) 画像処理装置、画像処理システム及びプログラム
JP2013168969A (ja) 画像表示方法、および画像表示装置
CN112887663A (zh) 图像显示方法、图像通信系统、摄影装置、以及存储介质
JP2019204560A (ja) プログラム
JP2014022982A (ja) 撮影機能を有する電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780477

Country of ref document: EP

Kind code of ref document: A1