JP2022082127A - 撮像システム及び表示装置とその制御方法 - Google Patents
撮像システム及び表示装置とその制御方法 Download PDFInfo
- Publication number
- JP2022082127A JP2022082127A JP2020193494A JP2020193494A JP2022082127A JP 2022082127 A JP2022082127 A JP 2022082127A JP 2020193494 A JP2020193494 A JP 2020193494A JP 2020193494 A JP2020193494 A JP 2020193494A JP 2022082127 A JP2022082127 A JP 2022082127A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- live view
- displayed
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 61
- 238000003384 imaging method Methods 0.000 claims description 38
- 230000005540 biological transmission Effects 0.000 claims description 8
- 239000004984 smart glass Substances 0.000 abstract description 72
- 238000012545 processing Methods 0.000 description 37
- 238000004891 communication Methods 0.000 description 35
- 230000006870 function Effects 0.000 description 30
- 238000010586 diagram Methods 0.000 description 8
- 239000011521 glass Substances 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000001052 transient effect Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
Abstract
【課題】被写体をフレーム内に収める作業と撮像画像の確認作業を容易に行うことができる撮像システムを提供する。
【解決手段】スマートフォン100とスマートグラス110を備える撮像システムにおいて、スマートフォン100はライブビュー画像を生成してスマートグラス110へ送信すると共にスマートフォン100での操作情報を送信する。スマートグラス110の画像生成部502は、受信したライブビュー画像に基づいて表示部402が表示する表示画像を生成し、表示制御部503が表示画像を表示部402に表示させる。画像生成部502は、スマートフォン100から受信した操作情報に応じて、生成する表示画像の透明度、サイズ、表示位置の少なくとも1つを変更する。
【選択図】図7
【解決手段】スマートフォン100とスマートグラス110を備える撮像システムにおいて、スマートフォン100はライブビュー画像を生成してスマートグラス110へ送信すると共にスマートフォン100での操作情報を送信する。スマートグラス110の画像生成部502は、受信したライブビュー画像に基づいて表示部402が表示する表示画像を生成し、表示制御部503が表示画像を表示部402に表示させる。画像生成部502は、スマートフォン100から受信した操作情報に応じて、生成する表示画像の透明度、サイズ、表示位置の少なくとも1つを変更する。
【選択図】図7
Description
本発明は、撮像システム及び表示装置とその制御方法に関し、特に頭部装着型の表示装置を装着したユーザが、表示装置を通して実風景を視認すると共に撮像装置により取得される撮像画像を視認することが可能な撮像システムに関する。
目線よりも高い位置にカメラを構えて撮像を行うハイアングル撮影では、動きの速い被写体を撮像することが容易ではない。その理由の1つは、カメラに備えられたバリアングル式の表示部に表示されるライブビュー画像をユーザ(撮影者)が見る視線と、被写体をユーザが見る視線とが離れていることである。つまり、ユーザはライブビュー画像と被写体を同じ視線上で一緒に確認することができず、その結果、被写体をフレーム内に収める作業が難しくなってしまう。
この問題を解決する1つの手法として、近年普及が進んでいる仮想現実グラス(以下では「ARグラス」という)を活用する手法が考えられる。例えば、ARグラスの表示部にカメラのライブビュー画像を表示させ、被写体を見る視線と同じ軸線上でライブビュー画像を確認しながらカメラでの撮像を行うことができるようにする手法が考えられる。
ARグラスへのライブビュー画像の表示手法には、例えば、特許文献1に記載されているような、透過型ディスプレイに付加情報を重畳して表示する技術を適用することができる。例えば、透過型ディスプレイとしてのARグラスに半透明化させたライブビュー画像を表示する。これにより、ユーザは、実風景の被写体をライブビュー画像に透かして見ることが可能になることで、実風景での被写体とライブビュー画像内の被写体とを同一視線上で確認することができる。
しかしながら、ライブビュー画像を半透明化させてARグラスに表示する際に、ライブビュー画像の透明度が高いと、ユーザにとってはライブビュー画像と実風景画像の区別が容易でなくなる事態が想定される。この場合、例えば、フレーム(撮像画角)の外郭がわかり難くなってフレームに被写体が意図したように収まっているか等、問題なく撮像することができているか否かを判断が難しくなる。一方、ライブビュー画像の透明度が低いと、ライブビュー画像の背後に位置する実風景が隠れてしまう。この場合には、結果的に被写体を実風景では視認することが容易でなくなるため、被写体をフレーム内に収める作業が難しくなる事態が生じてしまうことが想定される。
本発明は、被写体をフレーム内に収める作業と撮像画像の確認作業を容易に行うことができる撮像システムを提供することを目的とする。
本発明に係る撮像システムは、撮像装置と頭部装着型の表示装置を有する撮像システムであって、前記撮像装置は、ライブビュー画像を生成する第1の画像生成手段と、前記ライブビュー画像を前記表示装置へ送信する画像送信手段と、撮像処理を操作する操作手段と、前記操作手段による操作の操作情報を送信する情報送信手段と、を備え、前記表示装置は、表示部と、前記撮像装置から前記ライブビュー画像と前記操作情報を受信する受信手段と、前記受信手段が受信したライブビュー画像に基づいて前記表示部が表示する表示画像を生成する第2の画像生成手段と、前記第2の画像生成手段が生成した表示画像を前記表示部に表示させる表示制御手段と、を備え、前記第2の画像生成手段は、前記受信手段が受信した操作情報に応じて前記表示部に表示する表示画像を変更することを特徴とする。
本発明によれば、被写体をフレーム内に収める作業と撮像画像の確認作業を容易に行うことができる撮像システムを実現することができる。
以下、本発明の実施形態について、添付図面を参照して詳細に説明する。
図1は、本発明の実施形態に係る撮像システムの概略構成を示す図である。撮像システムは、スマートフォン100とスマートグラス110を有し、スマートフォン100とスマートグラス110が無線通信経路120を通じて双方向に通信可能に接続されることにより構成されている。
スマートフォン100は、撮像装置の一例である。撮像システムを構成する撮像装置は、スマートフォン100に限られず、デジタルカメラやビデオカメラ、撮像機能を搭載した無人航空機(ドローン)等の撮像機能を有する別の装置であってもよい。また、スマートグラス110は、頭部装着型表示装置の一例である。撮像システムを構成する頭部装着型表示装置は、スマートグラス110のような眼鏡型に限られず、頭部全体に被るヘルメット型の形状の表示装置等の、眼鏡型の形状以外の画像表示機能を有する表示装置であってもよい。
無線通信経路120は、スマートフォン100とスマートグラス110との間で通信を行うための通信経路である。無線通信経路120における無線通信は、Bluetooth(登録商標)による直接通信や、アクセスポイント装置(不図示)を介した無線LAN通信等を用いることができる。本実施形態に係る撮像システムにおいて、スマートフォン100からスマートグラス110へ送信される情報には、スマートフォン100で撮像された画像(撮影画像)や撮像中のライブビュー画像等の画像情報がある。また、スマートフォン100からスマートグラス110へ送信される情報としては、スマートフォン100で撮像操作を行った際の操作情報(画像データの記憶指示や撮影の準備指示(ピント調整指示、露出調整指示、ホワイトバランス調整指示等))が挙げられる。なお、本実施形態での説明では、スマートフォン100からスマートグラス110へ送信される画像を、撮影画像かライブビュー画像かを区別しない場合に、撮像画像と称呼する。
次に、スマートフォン100の構成について説明する。図2(a)はスマートフォン100の正面図であり、図2(b)はスマートフォン100の背面図である。スマートフォン100は、ハウジング200を有する。ハウジング200は、正面側のフロントフェイス201、背面側のバックフェイス202、及び、フロントフェイス201とバックフェイス202とを接続するサイドフェイス203から構成される。
フロントフェイス201には、タッチスクリーンディスプレイ210、ボタン221、照度センサ231、近接センサ232、レシーバ233、マイク234及びインカメラ242が設けられている。バックフェイス202には、スピーカ241及びアウトカメラ243が設けられている。サイドフェイス203には、ボタン222,223,224及びコネクタ244が設けられている。
タッチスクリーンディスプレイ210は、ディスプレイ210A及びタッチスクリーン210Bから構成される。ディスプレイ210A及びタッチスクリーン210Bのそれぞれの形状は、本実施形態では略長方形状であるが、これに限定されるものではなく、例えば、正方形や円形等のどのような形状も取り得る。また、ディスプレイ210Aとタッチスクリーン210Bは、タッチスクリーンディスプレイ210では重ねて配置されているが、これに限られず、例えば、並べて配置されてもよいし離して配置されていてもよい。更に、ディスプレイ210Aとタッチスクリーン210Bは、それらの表面と直交する方向から見た場合に、実質的に全領域で重なるように配置されているが、ディスプレイ210Aとタッチスクリーン210Bの重ね方はこれに限定されない。例えば、ディスプレイ210Aとタッチスクリーン210Bは、一部で重ならないように配置されてもよい。
ディスプレイ210Aは、液晶ディスプレイ、有機ELディスプレイ又は無機ELディスプレイ等の表示デバイスである。ディスプレイ210Aには、文字や画像、記号、図形等が表示される。タッチスクリーン210Bは、タッチスクリーン210Bに対する指やペン、スタイラスペン等(以下「接触オブジェクト」という)の接触を検出し、その際に接触オブジェクトの接触位置を検出する。タッチスクリーン210Bへの接触オブジェクトの接触の有無及び接触位置の検出には、静電容量方式抵抗膜方式、表面弾性波方式(超音波方式)、赤外線方式、電磁誘導方式及び荷重検出方式等の周知の方式から選択された任意の方式を用いることができる。以下の説明では、便宜上、ユーザはタッチスクリーン210Bに対して自身の指を接触させて、スマートフォン100の各種の操作を行うものとする。
図3は、スマートフォン100の機能ブロックを説明する図である。スマートフォン100は、図2に示したように、タッチスクリーンディスプレイ210、照度センサ231、近接センサ232、レシーバ233、マイク234、スピーカ241、インカメラ242、アウトカメラ243及びコネクタ244を備える。また、スマートフォン100は、コントローラ300、ストレージ310、ボタン320、通信ユニット341、加速度センサ331、方位センサ332及びジャイロスコープ333を備える。なお、図3のブロック図に示されるスマートフォン100の構成要素について、図2を参照して説明済みのものについては、ここでの説明を省略する。
コントローラ300は、スマートフォン100に対する操作(以下「ジェスチャ」という)を検出する。具体的には、コントローラ300は、タッチスクリーン210Bと協働して、タッチスクリーン210B(タッチスクリーンディスプレイ210)に対するジェスチャを検出する。ボタン320は、図2に示したボタン221~224を含む。スマートフォン100のユーザは、ボタン320を操作することにより、ボタン320に割り当てられた各種の命令(コマンド)をコントローラ300へ指示することができる。コントローラ300は、ボタン320と協働して、ボタン320に対する操作を検出する。ボタン320に対する操作には、クリック、ダブルクリック、トリプルクリック、プッシュ及びマルチプッシュ等があるが、これらに限定されない。ボタン221は、例えば、ホームボタンである。ボタン222は、例えば、スマートフォン100のパワーオン/オフボタンである。ボタン223,224は、例えば、音量ボタンである。
照度センサ231は、スマートフォン100の周囲光の照度(光の強さ、明るさ又は輝度)を検出する。照度センサ231により検出された周囲光の照度は、例えば、ディスプレイ210Aの輝度の調整に用いられる。近接センサ232は、スマートフォン100に近隣する物体の存在を、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて、非接触で検出する。例えば、近接センサ232は、タッチスクリーンディスプレイ210がユーザの顔に近付けられたことを検出する。なお、照度センサ231と近接センサ232は、1つのセンサとして構成されてもよい。また、照度センサ231は、スマートフォン100に近隣する物体の存在を検出すること、つまり、照度センサ231を近接センサとしても用いること、も可能である。
通信ユニット341は、各種の無線通信規格に準拠して、無線通信経路120を通じて外部機器との無線通信を行う。スマートグラス110は、スマートフォン100の通信ユニット341と無線通信を行う外部機器の1つである。本実施形態では、後述するように、通信ユニット341は、スマートフォン100で生成されるライブビュー画像とスマートフォン100での操作情報をスマートグラス110へ送信する画像送信手段及び情報送信手段として機能する。
通信ユニット341によってサポートされる通信方式には、3G、4G,5G等のセルラーフォンの通信規格があり、代表的な通信規格として、LTEやW-CDMA、CDMA2000、PDC、PHS等が挙げられる。また、別の無線通信規格として、WiMAX(登録商標)、IEEE802.11、IrDA、NFC等が挙げられる。通信ユニット341は、上述した通信規格の1つ又は複数をサポートしてもよい。
レシーバ233とスピーカ241は、コントローラ300から送信される音信号を音として出力する音声出力手段である。レシーバ233は、例えば、通話時に相手の声を出力する。スピーカ241は、着信音や音楽等を出力する。レシーバ233とスピーカ241の一方が他方の機能を兼ねた構成としてもよい。マイク234は、利用者の音声や環境音(スマートフォン100の周囲の音)等を音信号へ変換してコントローラ300へ送信するための音声入力部である。
ストレージ310は、プログラム及びデータを記憶する記憶部である。ストレージ310は、コントローラ300の処理結果を一時的に記憶する作業領域としても利用される。ストレージ310は、半導体記憶媒体や磁気記憶媒体等の任意の非一過的な記憶媒体を含んでいてもよいし、複数類の記憶媒体を含んでいてもよい。また、ストレージ310は、メモリカードや光ディスク、光磁気ディスク等の可搬性のある記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでいてもよい。更に、ストレージ310はRAM等の一時的な記憶領域として利用される記憶装置を含んでいてもよい。
ストレージ310に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ210Aに画像等を表示させ、タッチスクリーン210Bを介して検出されるジェスチャに応じた処理をコントローラ300に実行させる。制御プログラムは、例えば、OSである。
アプリケーション及び制御プログラムは、通信ユニット341による無線通信又は非一過的な記憶媒体を介してストレージ310にインストールされてもよい。また、アプリケーション及び制御プログラムの全部又は一部は、ストレージ310に含まれる読取装置で読取可能な非一過的な記憶媒体に記憶されていてもよし、コネクタ244に接続される読取装置が読取可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体としては、例えば、光ディスクや光磁気ディスク、磁気記憶媒体、メモリカード、ソリッドステート記憶媒体が挙げられるが、これらに限定されるものではない。ストレージ310は、例えば、制御プログラム311、顔認識プログラム312、コンタクトデータ313及び設定データ314を記憶する。
制御プログラム311は、スマートフォン100を稼働させるための各種制御に関する機能を提供する。制御プログラム311は、例えば、通信ユニット341、レシーバ233及びマイク234等を制御することによって通話(電話機能)を実現させる。制御プログラム311が提供する機能には、タッチスクリーン210Bを介して検出されたジェスチャに応じて、ディスプレイ210Aに表示されている情報を変更する制御を行う機能等が含まれる。なお、制御プログラム311が提供する機能は、音質調整プログラム及び電話アプリケーション等の他のプログラムが提供する機能と組み合わせて利用されることがある。
顔認識プログラム312は、インカメラ242とアウトカメラ243により撮像されるライブビュー画像に含まれる顔画像を抽出する機能や、抽出した顔画像から顔を認識する機能等を提供する。顔認識プログラム312は、例えば、撮像された人物が所有者であるかを識別するために用いられる。顔認識プログラム312の顔認識機能は、例えば、抽出された顔画像が示す顔の特徴と、登録されている所有者の顔の特徴とのパターンマッチングを行うことにより実現される。撮像された画像に複数の顔画像が含まれる場合、顔認識機能は、所有者とは異なる人物の顔画像を含んでいるか否かを判別する機能を含む。
コンタクトデータ313は、スマートフォン100の利用者が他の人物と連絡を取るための情報や緊急時の所定登録先の情報を含む。所定登録先の情報は、例えば、メールアドレスや電話番号等を含む。なお、コンタクトデータ313には、画像データ、住所、勤務先、生年月日等の各種の個人情報が含まれていてもよい。設定データ314は、スマートフォン100の動作に関する各種の設定に関する情報を含む。
コントローラ300は、例えば、CPUやSoC、MCU、FPGA等の演算処理装置であるが、これらに限定されるものではなく、また、複数の演算処理装置を含んでいてもよい。コントローラ300は、スマートフォン100の動作を統括的に制御して各種の機能を実現する。具体的には、コントローラ300は、ストレージ310に記憶されたデータを必要に応じて参照しながら、ストレージ310に記憶されているプログラムに含まれる命令を実行し、データ及び命令に応じて所定の機能部を制御して動作させる。ここで、機能部は、例えば、ディスプレイ210A、通信ユニット341、レシーバ233及びスピーカ241を含むが、これらに限定されるものではない。
また、コントローラ300は、適宜、検出部の検出結果に応じて制御を変更する。検出部には、タッチスクリーン210B、ボタン320、照度センサ231、近接センサ232、マイク234、インカメラ242、アウトカメラ243、加速度センサ331、方位センサ332及びジャイロスコープ333が含まれるが、これらに限定されない。コントローラ300は、例えば、制御プログラム311を実行することにより、タッチスクリーン210Bを介して検出されたジェスチャに応じて、ディスプレイ210Aに表示されている情報を変更する等の制御も行う。
インカメラ242は、フロントフェイス201に面している物体を撮像するカメラである。アウトカメラ243は、バックフェイス202に面している物体を撮像するカメラである。コネクタ244は、外部装置を接続するための端子であり、例えば、USB端子やイヤホンマイクコネクタ等の汎用的な端子であってもよいし、Dockコネクタ等の専用端子であってもよい。コネクタ244に接続される外部装置としては、外部ストレージやスピーカ、通信装置が挙げられるが、これらに限定されるものではない。
加速度センサ331は、スマートフォン100に作用する加速度の向きと大きさを検出する。方位センサ332は、地磁気の向きを検出する。ジャイロスコープ333は、スマートフォン100の角度及び角速度を検出する。加速度センサ331、方位センサ332及びジャイロスコープ333の検出結果は、スマートフォン100の位置及び姿勢の変化を検出するために、組み合わせて利用される。
次に、スマートグラス110の構成について説明する。図4は、スマートグラス110の外観斜視図である。スマートグラス110は、フレーム401、右表示部402R、左表示部402L、右画像生成ユニット403R、左画像生成ユニット403L及び無線通信部410を備える。なお、以下の説明では、右表示部402Rと左表示部402Lとを合わせて「表示部402」と称呼し、右画像生成ユニット403Rと左画像生成ユニット403Lとを合わせて「画像生成ユニット403」と称呼する。また、スマートグラス110についての「上下左右」は、ユーザがスマートグラス110を装着した状態の、ユーザにとっての上下左右であるとする。よって、ユーザがスマートグラス110を装着すると、右表示部402Rはユーザの右目の眼前に、左表示部402Lはユーザの左目の眼前にそれぞれ位置するようになる。
スマートグラス110は、眼鏡型のヘッドマウントディスプレイ(HMD)として構成されている。つまり、スマートグラス110は、ユーザが表示部402に表示された画像(以下「表示画像」という)を視認すると同時に外景を直接視認することができる光学透過型HMDとして構成されている。
フレーム401は、眼鏡のレンズに相当する部分である表示部402の縁を支持する部分と、眼鏡のテンプルに相当する部分を含む。なお、スマートグラス110では、右画像生成ユニット403Rと左画像生成ユニット403Lも、フレーム401の一部を構成している。
表示部402は、フレーム401に支持されてユーザの眼前に配置されており、画像生成ユニット403によって生成された画像を表示する。表示部402は、透明な材料で形成されており、表示画像が表示されていない状態ではユーザの視界を遮らない。なお、表示部402の透明度は、後述する表示画像の表示制御での効果が得られる範囲で、例えばサングラスのように意図的に透明度を下げる等して、任意の透明度に設定することができる。ユーザがスマートグラス110を装着した状態で、右表示部402Rはユーザの右眼の眼前に配置され、左表示部402Lはユーザの左眼の眼前に配置される。なお、表示部402は、ユーザの両眼の眼前に配置される一体型のディスプレイであってもよい。
また、表示部402は、眼鏡のレンズに相当する部分ではなく、眼鏡のテンプルに相当する部分に配置されていてもよい。その場合、眼鏡のレンズに相当する部分には、ハーフミラー等が配置される。さらに、本実施形態のようなディスプレイの像をユーザの眼の網膜に結像するタイプの表示部ではなく、網膜を走査することにより網膜に像を描画するタイプの表示部であってもよい。
画像生成ユニット403は、フレーム401に支持され、表示部402に表示される画像を生成して表示部402に供給し、表示部402に表示させる。画像生成ユニット403は、無線通信部410を介してスマートフォン100と通信可能に接続され、スマートフォン100によって撮像された画像を取得する。なお、右画像生成ユニット403Rは、右表示部402Rに表示される画像を生成して右表示部402Rに供給し、左画像生成ユニット403Lは、左表示部402Lに表示される画像を生成して左表示部402Lに供給する。なお、画像生成ユニット403は、本実施形態のように左右(2つ)に分ける必要はなく、一体的に構成されて配置されていてもよい。
無線通信部410は、スマートフォン100に対する電波の送出を行うアンテナ(右画像生成ユニット403Rの上面からの突出部)を含み、スマートフォン100で撮像された画像や各種の操作情報等のデータを受信する。なお、無線通信部410のアンテナは、フレーム401又は画像生成ユニット403に内蔵されて配置されていてもよい。
図5は、スマートグラス110の機能ブロックを説明する図である。画像生成ユニット403は、画像取得部501、画像生成部502及び表示制御部503を有する。画像取得部501、画像生成部502及び表示制御部503は互いにデータの授受可能に接続されており、表示制御部503は表示部402(右表示部402R、左表示部402L)に接続されている。
なお、画像生成ユニット403は、CPU、ROM、RAM等で構成されており、CPUがROMに記憶されている所定のプログラムを実行することにより、画像取得部501、画像生成部502及び表示制御部503の各機能が実現される。つまり、スマートグラス110では、画像生成ユニット403がスマートグラス110での全体的な制御を行うコントローラの役割を担う。
画像取得部501は、表示部402に表示される表示画像の元となる画像(元画像データ)を無線通信部410から取得する。元画像は、スマートフォン100のアプリケーションによって生成された画像や他の機器から取得した画像である。元画像には、例えば、スマートフォン100によって撮像された撮像画像に基づいて生成された表示情報が含まれる。
画像生成部502は、元画像から表示画像を生成する。表示画像は、表示画像が表示部402に表示された際に画像が表示されない領域である非表示領域と、表示画像が表示部402に表示された際に画像が表示される領域である表示領域とを含む。画像生成部502は、元画像に画像マスクを含むマスクレイヤーを重畳させることによって、画像マスクに相当する元画像の領域を非表示領域とし、画像マスクに相当しない元画像の領域を表示領域とすることができる。
画像生成部502はまた、元画像に対して画像加工処理を行うことができる。画像加工処理としては、元画像の透明度を変更する処理や、元画像の画像サイズを変更する処理等が挙げられるが、これらに限られない。透明度の変更処理には、元画像の明度や輝度レベルを変更する処理や、背景が透かして表示されるように特定の画素を間引く処理等の既知の透明度変更処理を用いることができる。画像生成部502は、生成した表示画像を表示制御部503に供給する。
表示制御部503は、表示画像を表示部402に供給し、表示させる。表示部402は透過型ディスプレイであるので、表示画像において画像マスクに相当する非表示領域には画像は表示されず、よって、ユーザは非表示領域を通じて外界を直接視認することができる。一方、表示領域には元画像が含まれるため、ユーザは元画像に含まれる表示情報を視認することができる。つまり、ユーザは、非表示領域を介して外界を視認すると同時に、表示部402に表示される表示情報を確認することができる。
<第1実施形態>
次に、撮像システムでの第1実施形態に係る撮像処理フローについて説明する。図6は、撮像システムによる撮像時にスマートフォン100が行う第1実施形態に係る処理のフローチャートである。図7は、撮像システムによる撮像時にスマートグラス110が行う第1実施形態に係る処理のフローチャートである。
次に、撮像システムでの第1実施形態に係る撮像処理フローについて説明する。図6は、撮像システムによる撮像時にスマートフォン100が行う第1実施形態に係る処理のフローチャートである。図7は、撮像システムによる撮像時にスマートグラス110が行う第1実施形態に係る処理のフローチャートである。
図6のフローチャートにS番号で示す各処理(ステップ)は、コントローラ300がストレージ310に格納された所定のプログラムを実行して、スマートフォン100の各部の動作を統括的に制御することにより実現される。また、図7のフローチャートにS番号で示す各処理は、画像生成ユニット403により実行される。つまり、画像生成ユニット403において、CPUがROMに格納された所定のプログラムを実行して、スマートグラス110の各部の動作を統括的に制御することにより実現される。
なお、図6及び図7のフローチャートは、静止画の撮像処理、動画の撮像処理、及び、静止画と動画の両方の撮像処理の流れを表している。また、図6及び図7のフローチャートは、スマートフォン100とスマートグラス110との間のペアリング処理が完了して、スマートフォン100側又はスマートグラス110側から撮像処理の開始指示が行われた後の処理について示されている。
先ず、スマートフォン100での処理(図6)について説明する。S601でコントローラ300は、インカメラ242又はアウトカメラ243により被写体となる物体や人物等の撮像画像(映像)を取得し、撮像中のライブビュー画像を生成する。S602でコントローラは、生成したライブビュー画像を通信ユニット341を介してスマートグラス110へ送信する。なお、S602の処理によりスマートフォン100からスマートグラス110へ送信されたライブビュー画像は、スマートグラス110でのS703の処理の判定基準となる。
その後、S603でコントローラ300は、タッチスクリーンディスプレイ210(タッチスクリーン210B)に対するタッチ操作があったか否かを判定する。なお、ここでのタッチ操作は、具体的には、ピントを合わせる被写体に対するタッチオン操作である。コントローラ300は、タッチ操作があったと判定した場合(S603でYES)、処理をS604へ進め、タッチ操作はないと判定した場合(S603でNO)、処理をS606へ進める。
なお、ライブビュー画像を取得する際には、スマートフォン100が備えるオートフォーカス機能により、コントローラ300が判断した主被写体に対してピントを合わせる処理が連続して行われる。S603でのタッチ操作は、主被写体に対するものである場合もあれば、主被写体ではない別の被写体に対するものである場合もある。
S604でコントローラ300は、タッチ操作があったタッチスクリーンディスプレイ210の位置に表示されている被写体に対してピント調整を行う。ピント調整は、コントローラ300が、使用中のカメラ(インカメラ242又はアウトカメラ243)のレンズの絞りや焦点距離等を調整して、被写界深度を調整する等の既知の制御を行うことによって行われる。S605でコントローラ300は、S604でのピント調整が行われたことを示す操作情報をスマートグラス110へ送信する。なお、S605の処理によってスマートグラス110へ送信された操作情報は、スマートグラス110においてS704及びそれ以降の処理に必要に応じて用いられる。
S606でコントローラ300は、記録指示ボタンが押下されたか否かを判定する。ここでは、記録指示ボタンの機能はボタン221に割り当てられているものとする。なお、S603からS606へ直接に処理が進められる場合とは、ピント調整を行わずに被写体に対するインカメラ242又はアウトカメラ243の位置や向きを調整して、被写体をフレーム内に収める作業が引き続き行われる場合である。コントローラ300は、記録指示ボタンが押下されたと判定した場合(S606でYES)、処理をS607へ進め、記録指示ボタンは押下されていないと判定した場合(S606でNO)、処理をS609へ進める。
S607でコントローラ300は、スマートフォン100へ送信しているライブビュー画像の記憶処理を行う。ライブビュー画像の記憶処理は、スマートフォン100へ送信中のライブビュー画像データをストレージ310のデータ記憶領域に格納することにより行われる。静止画を記憶する場合には、ボタン221が押下されたタイミングのフレーム画像のみが記憶される。動画を記憶する場合には、記録指示ボタンが押下されたタイミングから撮像終了指示の操作が行われるタイミングまでの期間のフレーム画像が記憶される。
S608でコントローラ300は、S607で記憶した撮影画像をスマートグラス110へ送信する。なお、S608の処理によってスマートグラス110へ送信された撮影画像は、スマートグラス110においてS704及びそれ以降の処理に用いられる。
S609でコントローラ300は、撮像終了指示を受け付けたか否かを判定する。撮像処理の終了指示は、例えば、スマートフォン100のボタン320が押下されるか、又は、タッチスクリーンディスプレイ210に表示されるボタン画面にタッチする等の操作によって行われるが、これらに限られない。コントローラ300は、撮像終了指示を受け付けていないと判定した場合(S609でNO)、処理をS601へ戻す。つまり、引き続き、被写体に対するインカメラ242又はアウトカメラ243の位置や向きを調整して、被写体をフレーム内に収める作業が続けられる。一方、コントローラ300は、撮像終了指示を受け付けたと判定した場合(S609でYES)、処理をS610へ進める。
S610でコントローラ300は、撮像終了の操作が行われたことを示す操作情報をスマートグラス110へ送信し、その後、本処理を終了させる。なお、S610の処理によってスマートグラス110へ送信された操作情報は、スマートグラス110においてS709の処理に用いられる。
次に、スマートグラス110での処理(図7)について説明する。S701で画像生成ユニット403は、スマートフォン100からライブビュー画像を受信することが可能な状態で待機する。S702で画像生成ユニット403は、スマートフォン100からライブビュー画像を受信したか否かを判定する。画像生成ユニット403は、ライブビュー画像を受信していないと判定した場合(S702でNO)、処理をS701へ戻し、ライブビュー画像を受信したと判定した場合(S702でYES)、処理をS703へ進める。
S703で画像生成ユニット403は、スマートフォン100からピント調整の操作情報を受信したか否かを判定する。画像生成ユニット403は、ピント調整の操作情報を受信したと判定した場合(S703でYES)、処理をS704へ進め、ピント調整の操作情報を受信していないと判定した場合(S703でNO)、処理をS705へ進める。
S704とS705では、受信したライブビュー画像の透明度を変更する処理が行われる。具体的には、S704で画像生成ユニット403は、画像生成部502として機能し、ライブビュー画像の透明度が低くなるように透明度を変更し、その後、処理をS706へ進める。一方、S705で画像生成ユニット403は、画像生成部502として機能し、ライブビュー画像の透明度が高くなるように透明度を変更し、その後、処理をS706へ進める。
なお、透明度が低いライブビュー画像が表示部402に表示されている場合、ユーザは、ライブビュー画像が表示されている領域では実風景を視認することが難しくなる。つまり、透明度の低いライブビュー画像が表示されている領域は実風景の視認を妨げる。一方、透明度が高いライブビュー画像が表示部402に表示された場合、ユーザは、ライブビュー画像が表示されている領域を通して、実風景も視認することが可能になる。つまり、ユーザは、実風景にライブビュー画像が重なった状態を視認することが可能になる。
S706で画像生成ユニット403は、表示制御部503として機能し、S704又はS705にて透明度の変更が行われたライブビュー画像を表示部402に表示する。表示部402においてライブビュー画像は、図8を参照して後述するように、右表示部402Rと左表示部402Lに跨がるように、表示部402の中央付近に表示される。
S707で画像生成ユニット403は、スマートフォン100において記憶された撮影画像をスマートフォン100から受信したか否かを判定する。画像生成ユニット403は、記憶された撮影画像を受信したと判定した場合(S707でYES)、処理をS708へ進め、記憶された撮影画像を受信していないと判定した場合(S707でNO)、処理をS709へ進める。
S708で画像生成ユニット403は、スマートフォン100において記憶された撮影画像を表示部402に表示する。S709で画像生成ユニット403は、スマートフォン100から撮影終了の操作情報を受信したか否かを判定する。画像生成ユニット403は、撮影終了の操作情報を受信したと判定した場合(S709でYES)、本処理を終了させて、表示部402へのライブビュー画像や撮影画像の表示を終了する。一方、画像生成ユニット403は、撮影終了の操作情報を受信していないと判定した場合(S709でNO)、処理をS701へ戻し、表示部402へのライブビュー画像等の表示を続ける。
次に、図6及び図7のフローチャートに従う処理実行中のスマートフォン100及びスマートグラス110での画像表示例について説明する。
図8(a)は、スマートフォン100のタッチスクリーンディスプレイ210にS603でのタッチ操作が行われていない場合(S703での判定が‘NO’)のスマートグラス110における画像表示例を示す図である。図8(b)は、スマートフォン100のタッチスクリーンディスプレイ210にS603でのタッチ操作が行われた場合(S703での判定が‘YES’)のスマートグラス110における画像表示例を示す図である。なお、前述したように、S603でのタッチ操作は、ライブビュー画像内の被写体に対するピント調整を行うためのタッチ操作である。
図8(a)に示すライブビュー表示画像800は、スマートフォン100で撮像されて表示部402に表示されるライブビュー画像の表示画像である。図8(a)では、特定の被写体に対するピント調整操作が行われていない(オートフォーカス機能によるピント合わせは行われている)。そのため、S705の処理によって透明度が高くなるように処理が施されたライブビュー表示画像800が表示部402に表示されている。この場合、ユーザは表示部402の全領域において実風景を視認することができる。つまり、ユーザは、ライブビュー表示画像800が表示されている領域では、ライブビュー表示画像800を透かして実風景を視認することができる。
図8(a)には、スマートフォン100で撮像されている被写体の周囲のオブジェクト(人や物)としての第1のオブジェクト801Aを、ユーザがライブビュー表示画像800を透かして実風景内に視認することが可能な状態が模式的に示されている。ユーザは、ライブビュー表示画像800と第1のオブジェクト801Aの両方を同時に視認することができる。これにより、ユーザは、動く被写体の周囲の状況を見ながらフレーム内に所望の被写体(オブジェクト)を収めるためのスマートフォン100の作業を容易に行うことができる。
ユーザは、スマートグラス110の表示部402に表示されたライブビュー表示画像800を確認して、記録対象の被写体がフレーム内に収まっていると判断した場合に、スマートフォン100を操作して記録対象の被写体に対するピント調整操作を行う。具体的には、S603での処理について説明したように、ユーザはタッチスクリーンディスプレイ210において記録対象の被写体が表示されている位置にタッチオン操作を行う。
ユーザは、ピント調整を行った後のライブビュー表示画像800を画像として記録するか否かの確認を行う。その際、透明度の高いライブビュー表示画像800が表示されたままであると、ライブビュー表示画像800の背後に位置する第1のオブジェクト801Aが透けて見えてしまう。その結果、第1のオブジェクト801Aが実風景のものかライブビュー表示画像800のものかを区別することが容易でなくなり、記録対象の被写体を間違えてしまう可能性が生じる。例えば、第1のオブジェクト801Aと第2のオブジェクト801Bのどちらが記録対象であるかの区別が容易でなくなるおそれがある。
そこで、スマートグラス110は、被写体に対するピント調整結果としてスマートフォン100からピント調整の操作情報を受信すると、S704にてライブビュー表示画像800を透明度が低くなるように変更したライブビュー表示画像810を生成する。こうして、図8(b)に示すように、透明度が低くなるように処理が施されたライブビュー表示画像810が表示部402に表示される。ライブビュー表示画像810では、表示部402においてライブビュー表示画像810が表示されている領域では、ほぼライブビュー表示画像810のみが表示され、実風景を確認することが容易でなくなる。よって、ユーザは、記録対象の被写体の周囲のオブジェクトの影響を受けずにライブビュー表示画像810のみを確認することができるため、フレーム内での記録対象の被写体についての記録前の最終確認作業を容易に行うことができる。
ユーザは、スマートグラス110の表示部402に表示されたライブビュー表示画像810を確認した結果として、被写体像を静止画又は動画として記録すると判断した場合、スマートフォン100に対して撮影画像を記録するための操作(S607)を行う。具体的には、前述したように、ユーザはボタン221を押下する。なお、記録開始を指示する機能は、ボタン211に限られず、その他のボタン222~224に割り当てられていてもよい。また、タッチスクリーンディスプレイ210に表示させた操作アイコンに対するタッチオンがあった場合に記録が開始されるように構成されていてもよい。
撮影画像が記憶されると、前述したように、S608の処理によって撮影画像がスマートグラス110へ送信され、S708の処理によって表示部402に撮影画像が表示される。その際、撮影画像は、ライブビュー表示画像800,810が表示される領域に表示されるようにしてもよいし、これとは異なる領域に表示するようにしても構わない。また、動画を記録する場合には、ユーザは記録の開始タイミング、終了タイミング、及び、記録中か否かの判断ができれば十分である。そのため、記録した撮影画像の送信(S608)を行わずに、S708において撮影画像の記録中であることを示すマークを表示部402に表示するのみとしても構わない。
以上の通り、第1実施形態では、撮像システムは、スマートグラス110に表示するライブビュー画像の透明度を、ピント調整操作前は透明度を高くし、ピント調整操作後は透明度を低くするように制御される。これにより、動く被写体をフレーム内に収める作業と、ピント調整後で記憶前の撮影画像の最終確認の作業とを容易に行うことが可能になる。このような撮像システムを用いた撮像手法は、スマートフォン100に表示されるライブビュー画像をユーザが見る視線と、被写体をユーザが見る視線とが離れているハイアングル撮影等の撮影シーンで特に有用である。
<第2実施形態>
次に、撮像システムでの第2実施形態に係る撮像処理フローについて説明する。第1実施形態では、スマートグラス110の表示部402に表示するライブビュー画像の透明度をピント調整操作の前後で変更するよう制御した。これに対して第2実施形態では、スマートグラス110の表示部402に表示するライブビュー画像の大きさと表示位置をピント調整操作の前後で変更するよう制御する。なお、第2実施形態での制御において、スマートフォン100で実行される制御は、第1実施形態でのスマートフォン100で実行される制御(図6)と同じであるため、説明を省略する。
次に、撮像システムでの第2実施形態に係る撮像処理フローについて説明する。第1実施形態では、スマートグラス110の表示部402に表示するライブビュー画像の透明度をピント調整操作の前後で変更するよう制御した。これに対して第2実施形態では、スマートグラス110の表示部402に表示するライブビュー画像の大きさと表示位置をピント調整操作の前後で変更するよう制御する。なお、第2実施形態での制御において、スマートフォン100で実行される制御は、第1実施形態でのスマートフォン100で実行される制御(図6)と同じであるため、説明を省略する。
図9は、撮像システムで撮像処理を行う際にスマートグラス110が行う処理のフローチャートである。図9のフローチャートにS番号で示す各処理は、スマートグラス110の画像生成ユニット403が所定のプログラムを実行して、スマートグラス110の各部の動作を統括的に制御することにより実現される。
S901~S903の処理は、第1実施形態でのS701~703の処理と同じであるため、ここでの説明を省略する。S904とS905では、画像生成ユニット403は、受信したライブビュー画像の表示サイズと表示位置を変更する処理を行う。具体的には、S904で画像生成ユニット403は、画像生成部502として機能して、小さい表示サイズのライブビュー画像の生成し、生成したライブビュー画像の表示位置を表示部402の端部(左端又は右端)に設定する。一方、S905で画像生成ユニット403は、画像生成部502として機能して、S904で生成されるライブビュー画像よりも表示サイズの大きなライブビュー画像を生成し、生成したライブビュー画像の表示位置を表示部402の中央に設定する。表示位置を表示部402の中央に設定することにより、ライブビュー画像の表示位置がユーザの視野の中央に近付くことになる。
なお、「小さい表示サイズ」の詳細については後述する。また、S904とS905でそれぞれ生成されるライブビュー画像は、S705の処理に準じて、透明度を低くして生成される。
S906で画像生成ユニット403は、S904又はS905での設定に従って、ライブビュー画像を表示部402に表示する。S907~S909の処理は、第1実施形態でのS706~709の処理と同じであるため、ここでの説明を省略する。
次に、図6及び図9のフローチャートに従う処理実行中のスマートグラス110での画像表示例について説明する。図10(a)は、スマートフォン100のタッチスクリーンディスプレイ210にS603でのタッチ操作が行われていない場合(S903での判定が‘NO’)のスマートグラス110での画像表示例を示す図である。図10(b)は、スマートフォン100のタッチスクリーンディスプレイ210にS603でのタッチ操作が行われた場合(S903での判定が‘YES’)のスマートグラス110での画像表示例を示す図である。なお、前述したように、S603でのタッチ操作は、ライブビュー画像内の記録対象の被写体に対するピント調整を行うためのタッチ操作である。
図10(a)に示すように、ピント調整操作前には、表示部402の端にサイズの小さいライブビュー表示画像1000が表示される。ライブビュー表示画像1000の縦方向サイズは、例えば、表示部402の高さ幅の1/2以下、望ましくは1/3以下とすることが望ましい。一方で、ライブビュー表示画像1000内の被写体を容易に確認することができるように、ライブビュー表示画像1000の縦方向サイズは、表示部402の高さ幅の1/4以上とすることが望ましい。ライブビュー表示画像1000の横方向サイズは、スマートフォン100での撮像画像のアスペクト比に準じて調整される。
第2実施形態では、ピント調整操作前のライブビュー表示画像1000は、表示サイズが小さく、且つ、表示部402の端に表示される。そのため、ユーザは、第1のオブジェクト801Aを含む実風景全体を、ライブビュー表示画像1000に遮られることなく視認することができる。なお、ライブビュー表示画像1000の表示サイズを小さく設定することにより、表示画像を明確に視認することが可能になる。こうして、ライブビュー表示画像1000と第1のオブジェクト801Aと第2のオブジェクト801Bを含む実風景とを確認することができるため、動く被写体の周囲の状況を見ながらフレーム内に被写体を収める作業を容易に行うことが可能になる。
図10(b)に示すピント調整操作後のライブビュー表示画像1010は、図8(b)中のライブビュー表示画像810と、表示サイズ、表示位置及び透明度において、同等である。つまり、透明度の低いライブビュー表示画像1010が、ライブビュー表示画像1000よりも大きな表示サイズで、表示部402の中央付近に表示される。よって、表示部402におけるライブビュー表示画像1010の表示領域では、実風景はライブビュー表示画像1010に隠れて実質的に見えなくなる。これにより、ライブビュー表示画像1010の背後にある第1のオブジェクト801Aの影響を受けずに、ライブビュー表示画像1010のみを確認することができるため、フレーム内の記録対象の被写体の記録前の最終確認作業を容易に行うことができる。
以上説明したように、第2の実施形態によれば、スマートグラス110に表示するライブビュー画像のサイズと位置について、ピント調整の操作前は小さく且つ端に表示し、ピント調整の操作後は大きく且つ中央付近に表示するように制御する。これにより、動く被写体をフレーム内に収める作業と、ピント調整後の記憶前の撮影画像の最終確認の作業が、行い易くなる。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。更に、上述した各実施形態は本発明の一実施形態を示すものにすぎず、各実施形態を適宜組み合わせることも可能である。
例えば、上記実施形態では、撮像装置としてスマートフォンを取り上げたが、撮像装置はこれに限られず、デジタルスチルカメラやデジタルビデオカメラ(以下「デジタルカメラ」という)であってもよい。デジタルカメラの場合には、例えば、ピント調整等の撮影準備指示に関する操作はレリーズボタンの半押し操作に、記録等の撮影指示に関する操作はレリーズボタンの全押し操作に置き換える構成としても構わない。一方、スマートフォン100のタッチスクリーンディスプレイ210に相当するディスプレイがデジタルカメラに設けられている場合には、デジタルカメラをスマートフォン100と同様に取り扱うことができる。ライブビュー画像に限らず、デジタルカメラでの撮像条件(絞り値、ISO値、シャッタ速度等の情報を、スマートグラス110の表示部402において実風景及び表示画像の視認を妨げない領域に表示するように構成してもよい。
また、上記実施形態では、スマートグラスで表示されるライブビュー画像等の撮像画像の表示形態(透明度、表示位置、表示サイズ)の変更のトリガーとなる操作の一例として、ピント調整指示を取り上げた。しかし、そのトリガーとなる操作は、ピント調整指示に限られず、その他の撮影の準備指示や画像データの記憶指示であってもよい。
さらに、上記実施形態では、撮像画像の表示形態をスマートグラス側の画像生成ユニットで変更するシステムを一例として取り上げた。しかし、撮像画像の表示形態をスマートフォン側の画像生成ユニットで変更する構成としてもよい。その構成を採用した場合、スマートフォンからスマートグラスへ操作情報を送信しなくてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 スマートフォン
110 スマートグラス
300 コントローラ
341 通信ユニット
402 表示部
403 画像生成ユニット
410 無線通信部
501 画像取得部
502 画像生成部
503 表示制御部
110 スマートグラス
300 コントローラ
341 通信ユニット
402 表示部
403 画像生成ユニット
410 無線通信部
501 画像取得部
502 画像生成部
503 表示制御部
Claims (13)
- 撮像装置と頭部装着型の表示装置を有する撮像システムであって、
前記撮像装置は、
ライブビュー画像を生成する第1の画像生成手段と、
前記ライブビュー画像を前記表示装置へ送信する画像送信手段と、
撮像処理を操作する操作手段と、
前記操作手段による操作の操作情報を送信する情報送信手段と、を備え、
前記表示装置は、
表示部と、
前記撮像装置から前記ライブビュー画像と前記操作情報を受信する受信手段と、
前記受信手段が受信したライブビュー画像に基づいて前記表示部が表示する表示画像を生成する第2の画像生成手段と、
前記第2の画像生成手段が生成した表示画像を前記表示部に表示させる表示制御手段と、を備え、
前記第2の画像生成手段は、前記受信手段が受信した操作情報に応じて前記表示部に表示する表示画像を変更することを特徴とする撮像システム。 - 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の透明度を変更することを特徴とする請求項1に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の表示位置を変更することを特徴とする請求項1又は2に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の表示サイズを変更することを特徴とする請求項1乃至3のいずれか1項に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の透明度を低くすることを特徴とする請求項2に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の表示位置をユーザの視野の中央に近づけることを特徴とする請求項3に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像の表示サイズを大きくすることを特徴とする請求項4に記載の撮像システム。
- 前記第2の画像生成手段は、前記操作情報に応じて前記表示画像に含まれているライブビュー画像の透明度、表示位置、又は表示サイズを変更することを特徴とする請求項2乃至7のいずれか1項に記載の撮像システム。
- 前記操作手段による操作は、撮影の準備指示に関する操作を含むことを特徴とする請求項1乃至8のいずれか1項に記載の撮像システム。
- 前記操作手段による操作は、画像の記憶指示に関する操作を含むことを特徴とする請求項1乃至8のいずれかに記載の撮像システム。
- 撮像装置と頭部装着型の表示装置とを有する撮像システムであって、
前記撮像装置は、
撮像画像を生成する第1の画像生成手段と、
前記撮像画像を前記表示装置へ送信する画像送信手段と、を有し、
前記表示装置は、
前記撮像装置から前記撮像画像を受信する受信手段と、
前記受信手段が受信した前記撮像画像をユーザの眼に表示する表示手段と、を有し、
前記表示手段は、前記撮像装置による撮影の準備指示または前記撮像装置による画像の記憶指示をユーザが入力した場合、ユーザの眼に表示する前記撮像画像の透明度を低下させることを特徴とする撮像システム。 - 頭部装着型の表示装置であって、
表示部と、
外部の撮像装置から前記撮像装置で撮像中のライブビュー画像と前記撮像装置での操作情報を受信する受信手段と、
前記受信手段が受信したライブビュー画像に基づいて前記表示部が表示する表示画像を生成する画像生成手段と、
前記画像生成手段が生成した表示画像を前記表示部に表示させる表示制御手段と、を備え、
前記画像生成手段は、前記操作情報に応じて前記表示部に表示する表示画像を変更することを特徴とする表示装置。 - 頭部装着型の表示装置の制御方法であって、
外部の撮像装置から前記撮像装置で撮像中のライブビュー画像と前記撮像装置での操作情報を受信する受信ステップと、
前記受信ステップで受信したライブビュー画像に基づいて表示部が表示する表示画像を生成する画像生成ステップと、
前記画像生成ステップで生成した表示画像を前記表示部に表示させる表示ステップと、を有し、
前記画像生成ステップでは、前記操作情報に応じて前記表示部に表示する表示画像を変更することを特徴とする表示装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020193494A JP2022082127A (ja) | 2020-11-20 | 2020-11-20 | 撮像システム及び表示装置とその制御方法 |
US17/521,621 US11624924B2 (en) | 2020-11-20 | 2021-11-08 | Image capturing system including head-mount type display device, and display device and method of controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020193494A JP2022082127A (ja) | 2020-11-20 | 2020-11-20 | 撮像システム及び表示装置とその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022082127A true JP2022082127A (ja) | 2022-06-01 |
JP2022082127A5 JP2022082127A5 (ja) | 2023-11-27 |
Family
ID=81658480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020193494A Pending JP2022082127A (ja) | 2020-11-20 | 2020-11-20 | 撮像システム及び表示装置とその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11624924B2 (ja) |
JP (1) | JP2022082127A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4401403A1 (en) | 2023-01-13 | 2024-07-17 | Canon Kabushiki Kaisha | Electronic device |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5005213A (en) * | 1986-07-10 | 1991-04-02 | Varo, Inc. | Head mounted video display and remote camera system |
US4786966A (en) * | 1986-07-10 | 1988-11-22 | Varo, Inc. | Head mounted video display and remote camera system |
JP4364002B2 (ja) * | 2004-02-06 | 2009-11-11 | オリンパス株式会社 | 頭部装着型カメラ及び頭部装着型カメラによる撮影方法 |
JP4760973B2 (ja) * | 2008-12-16 | 2011-08-31 | カシオ計算機株式会社 | 撮像装置及び画像処理方法 |
US20120194418A1 (en) * | 2010-02-28 | 2012-08-02 | Osterhout Group, Inc. | Ar glasses with user action control and event input based control of eyepiece application |
US20160187654A1 (en) * | 2011-02-28 | 2016-06-30 | Microsoft Technology Licensing, Llc | See-through near-eye display glasses with a light transmissive wedge shaped illumination system |
TWI466094B (zh) * | 2012-05-28 | 2014-12-21 | Acer Inc | 透明顯示裝置及其透明度調整方法 |
TWI576771B (zh) * | 2012-05-28 | 2017-04-01 | 宏碁股份有限公司 | 透明顯示裝置及其透明度調整方法 |
US9343043B2 (en) * | 2013-08-01 | 2016-05-17 | Google Inc. | Methods and apparatus for generating composite images |
KR20150034558A (ko) * | 2013-09-26 | 2015-04-03 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 제어 방법 |
US9319980B1 (en) * | 2013-10-30 | 2016-04-19 | Google Inc. | Efficient digital image distribution |
JP2015091055A (ja) | 2013-11-06 | 2015-05-11 | キヤノン株式会社 | 撮像装置及び画像処理装置 |
US20170318325A1 (en) * | 2016-04-28 | 2017-11-02 | Mesa Digital, Llc | Wirelessly streaming venue-based data to client devices |
WO2018170353A1 (en) * | 2017-03-17 | 2018-09-20 | Gentex Corporation | Dual display reverse camera system |
US10720125B2 (en) * | 2017-07-24 | 2020-07-21 | Intel Corporation | Method and system of wireless data transmission for virtual or augmented reality head mounted displays |
-
2020
- 2020-11-20 JP JP2020193494A patent/JP2022082127A/ja active Pending
-
2021
- 2021-11-08 US US17/521,621 patent/US11624924B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4401403A1 (en) | 2023-01-13 | 2024-07-17 | Canon Kabushiki Kaisha | Electronic device |
Also Published As
Publication number | Publication date |
---|---|
US11624924B2 (en) | 2023-04-11 |
US20220163802A1 (en) | 2022-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10318028B2 (en) | Control device and storage medium | |
KR101678861B1 (ko) | 이동단말기 및 그 제어방법 | |
CN103595909B (zh) | 移动终端及其控制方法 | |
KR102114377B1 (ko) | 전자 장치에 의해 촬영된 이미지들을 프리뷰하는 방법 및 이를 위한 전자 장치 | |
CN111183632A (zh) | 图像捕捉方法及电子设备 | |
KR20170035237A (ko) | 이동 단말기 및 그 제어방법 | |
KR20190008610A (ko) | 이동 단말기 및 그 제어 방법 | |
CN112614057A (zh) | 一种图像虚化处理方法及电子设备 | |
CN108399349A (zh) | 图像识别方法及装置 | |
US10424268B2 (en) | Mobile terminal and controlling method thereof | |
KR20150077646A (ko) | 이미지 처리 장치 및 방법 | |
KR102661185B1 (ko) | 전자 장치 및 그의 이미지 촬영 방법 | |
US11272116B2 (en) | Photographing method and electronic device | |
KR20180023310A (ko) | 이동 단말기 및 그 제어방법 | |
KR20170025177A (ko) | 이동단말기 및 그 제어방법 | |
CN105323372A (zh) | 移动终端及其控制方法 | |
CN113741681B (zh) | 一种图像校正方法与电子设备 | |
KR20190021108A (ko) | 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법 | |
CN111566693A (zh) | 一种皱纹检测方法及电子设备 | |
CN112351188B (zh) | 根据对象显示图形元素的装置和方法 | |
KR20150131837A (ko) | 이동 단말기 및 그것의 제어 방법 | |
CN112135191A (zh) | 视频编辑方法、装置、终端及存储介质 | |
KR20160017463A (ko) | 이동 단말기 및 그 제어 방법 | |
KR20170082228A (ko) | 이동 단말기 및 그 제어방법 | |
US11624924B2 (en) | Image capturing system including head-mount type display device, and display device and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231115 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240826 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240910 |