JP2023143437A - 制御装置、制御方法、及び制御プログラム - Google Patents

制御装置、制御方法、及び制御プログラム Download PDF

Info

Publication number
JP2023143437A
JP2023143437A JP2022050808A JP2022050808A JP2023143437A JP 2023143437 A JP2023143437 A JP 2023143437A JP 2022050808 A JP2022050808 A JP 2022050808A JP 2022050808 A JP2022050808 A JP 2022050808A JP 2023143437 A JP2023143437 A JP 2023143437A
Authority
JP
Japan
Prior art keywords
image
display device
control
photographed
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022050808A
Other languages
English (en)
Inventor
宏輔 ▲高▼橋
Kosuke Takahashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2022050808A priority Critical patent/JP2023143437A/ja
Priority to EP23162119.4A priority patent/EP4250754A1/en
Priority to CN202310286257.7A priority patent/CN116805964A/zh
Priority to US18/188,833 priority patent/US12135912B2/en
Publication of JP2023143437A publication Critical patent/JP2023143437A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】第1のユーザによる観察に適した第1画像、及び第2のユーザによる観察に適した第2画像をそれぞれに提供することができる制御装置、制御方法、及び制御プログラムを提供する。
【解決手段】少なくとも1つのプロセッサを含み、前記プロセッサは、眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが前記眼鏡型表示装置により観察し、かつ、第2のユーザが前記眼鏡型表示装置と異なる表示装置で前記撮影画像を観察する場合に、前記撮影画像内の第1領域を基準にして撮影制御をした第1画像を前記眼鏡型表示装置に出力し、前記撮影画像内の第2領域を基準にして撮影制御をした第2画像を前記表示装置に出力する制御を行う制御装置。
【選択図】図11

Description

本開示は、制御装置、制御方法、及び制御プログラムに関する。
従来、特定のユーザが眼鏡型表示装置により観察する画像を、特定のユーザ以外のユーザも観察することができる技術が知られている。例えば、特許文献1には、ヘッドマウントディスプレイを装着したプレイヤーが視認している仮想現実コンテンツ内のコンテンツをその他の観客と共有する技術が記載されている。特許文献1に記載の技術では、観客の位置に応じて観客に提供する画像をスケールアップ、またはスケールダウンする。
特表2019-516159号公報
特許文献1に記載の技術によれば、観客の位置に応じて表示される画像の大きさが適切な大きさとなるものの、当該観客が観察するのに適切な画像とは言えない場合があった。
本開示は、以上の事情を鑑みて成されたものであり、第1のユーザによる観察に適した第1画像、及び第2のユーザによる観察に適した第2画像をそれぞれに提供することができる制御装置、制御方法、及び制御プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1の態様の制御装置は、少なくとも1つのプロセッサを含み、プロセッサは、眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが眼鏡型表示装置により観察し、かつ、第2のユーザが眼鏡型表示装置と異なる表示装置で撮影画像を観察する場合に、撮影画像内の第1領域を基準にして撮影制御をして得られた第1画像を眼鏡型表示装置に出力し、撮影画像内の第2領域を基準にして撮影制御をして得られた第2画像を表示装置に出力する制御を行う。
本開示の第2の態様の制御装置は、第1の態様の制御装置において、プロセッサは、撮影制御として、第1領域に写る被写体の撮影及び第2領域に写る被写体の撮影に適応するダイナミックレンジでカメラにより1枚の撮影画像を撮影させる制御を行い、1枚の撮影画像から得られた第1画像及び第2画像を出力する制御を行う。
本開示の第3の態様の制御装置は、第2の態様の制御装置において、プロセッサは、1枚の撮影画像の輝度値を眼鏡型表示装置用に調整して第1画像を生成し、1枚の撮影画像の輝度値を表示装置用に調整して第2画像を生成する。
本開示の第4の態様の制御装置は、第1の態様の制御装置において、プロセッサは、撮影制御として、カメラの光学系の合焦位置を、第1領域に写る被写体にピントが合う第1合焦位置と、第2領域に写る被写体にピントが合う第2合焦位置との間に設定し、合焦位置が設定された状態でカメラにより1枚の撮影画像を撮影させる制御を行い、1枚の撮影画像から得られた第1画像及び第2画像を出力する制御を行う。
本開示の第5の態様の制御装置は、第1の態様の制御装置において、プロセッサは、第1領域に写る被写体に基づいてカメラの露出を制御して撮影された第1の撮影画像を第1画像とし、第2領域に写る被写体に基づいてカメラの露出を制御して撮影された第2の撮影画像を第2画像とする。
本開示の第6の態様の制御装置は、第1の態様から第5の態様のいずれか1態様の制御装置において、第2画像は、撮影画像から第2領域を切り出した部分画像である。
本開示の第7の態様の制御装置は、第1の態様から第6の態様のいずれか1態様の制御装置において、プロセッサは、視線検出装置によって検出された第1のユーザの視線に基づいて、第1領域を決定する。
上記目的を達成するために、本開示の第8の態様の制御方法は、制御装置が備えるプロセッサによる制御方法であって、眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが眼鏡型表示装置により観察し、かつ、第2のユーザが眼鏡型表示装置と異なる表示装置で撮影画像を観察する場合に、撮影画像内の第1領域を基準にして撮影制御をして得られた第1画像を眼鏡型表示装置に出力し、撮影画像内の第2領域を基準にして撮影制御をして得られた第2画像を表示装置に出力する制御を行う方法である。
上記目的を達成するために、本開示の第9の態様の制御プログラムは、制御装置が備えるプロセッサが実行する画像処理プログラムであって、眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが眼鏡型表示装置により観察し、かつ、第2のユーザが眼鏡型表示装置と異なる表示装置で撮影画像を観察する場合に、撮影画像内の第1領域を基準にして撮影制御をして得られた第1画像を眼鏡型表示装置に出力し、撮影画像内の第2領域を基準にして撮影制御をして得られた第2画像を表示装置に出力する制御を行うものである。
本開示によれば、第1のユーザによる観察に適した第1画像、及び第2のユーザによる観察に適した第2画像をそれぞれに提供することができる。
実施形態の画像表示システムの構成の一例を示す構成図である。 ARグラス及びスマートフォンの構成の一例を示す構成図である。 実施形態のARグラスの一例を示す斜視図である。 ARグラスで視認する撮影画像について説明するための図である。 実施形態のスマートフォンのハードウェア構成の一例を示すブロック図である。 ARグラスのディスプレイ及び画像表示装置のディスプレイによる現実世界の視認について説明するための図である。 実施形態のスマートフォンの構成の一例を示すブロック図である。 第1実施形態の第1画像及び第2画像を説明するための図である。 実施形態の画像表示装置のハードウェア構成の一例を示すブロック図である。 実施形態の画像表示装置の構成の一例を示すブロック図である。 第1実施形態のスマートフォンで実行される制御処理及び画像表示装置で実行される表示制御処理の一例を示すフローチャートである。 第2実施形態の第1画像及び第2画像を説明するための図である。 第2実施形態のスマートフォンで実行される制御処理及び画像表示装置で実行される表示制御処理の一例を示すフローチャートである。 第3実施形態の第1画像及び第2画像を説明するための図である。 第3実施形態のスマートフォンで実行される制御処理及び画像表示装置で実行される表示制御処理の一例を示すフローチャートである。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
[第1実施形態]
図1を参照して、本実施形態の画像表示システム1の構成を説明する。図1に示すように、本実施形態の画像表示システム1は、AR(Augmented Reality)グラス10、スマートフォン12、及び画像表示装置14を備える。スマートフォン12及び画像表示装置14は、ネットワーク19を介して有線通信または無線通信により接続されている。本実施形態のARグラス10が、本開示の眼鏡型表示装置の一例であり、本実施形態のスマートフォン12が、本開示の制御装置の一例である。また、本実施形態の画像表示装置14が、本開示の眼鏡型表示装置と異なる表示装置の一例である。
本実施形態の画像表示システム1は、ARグラス10のカメラ27により現実の世界を撮影した撮影画像を、ARグラス10のディスプレイ20及び画像表示装置14のディスプレイ56に表示する機能を有する。すなわち、本実施形態の画像表示システム1によれば、ARグラス10のユーザが視認する現実の世界を、画像表示装置14のユーザも視認することができる。以下、ARグラス10を使用するユーザを「第1のユーザ」といい、画像表示装置14を使用するユーザを「第2のユーザ」といい、両者を区別せずに総称する場合、単に「ユーザ」という。
図2を参照して、本実施形態のARグラス10及びスマートフォン12の構成を説明する。ARグラス10は、OLED(Organic Light Emitting Diode)26Lから左眼用レンズ22Lに左眼用投影画像を投影し、また右眼用OLED26Rから右眼用レンズ22Rに右眼用投影画像を投影することにより、各投影画像に応じた画像のユーザによる視認を可能にする装置である。なお、以下では、「左眼用投影画像」及び「右眼用投影画像」について総称する場合は、「投影画像」という。
図3には、本実施形態のARグラス10の一例の斜視図が示されている。図2及び図3に示すように、ARグラス10は、ディスプレイ20と、左眼用OLED26Lと、右眼用OLED26Rと、カメラ27と、視線検出センサ28と、を備える。また、ディスプレイ20は、左眼用レンズ22L及び左眼用導光板24Lと、右眼用レンズ22R及び右眼用導光板24Rと、を含む。
左眼用導光板24Lの一端には、左眼用OLED26Lから投影された左眼用投影画像に応じた光が入射される。左眼用導光板24Lの中を伝播した光は、出射部(図示省略)において向きを変えて、第1のユーザの左眼の方向に出射される。左眼用導光板24Lから出射された左眼用投影画像に応じた光は、左眼用レンズ22Lを透過し、第1のユーザの左眼に導かれる。同様に、右眼用導光板24Rの一端には、右眼用OLED26Rから投影された右眼用投影画像に応じた光が入射される。右眼用導光板24Rの中を伝播した光は、出射部(図示省略)において向きを変えて、第1のユーザの右眼の方向に出射される。右眼用導光板24Rから出射された右眼用投影画像に応じた光は、右眼用レンズ22Rを透過し、第1のユーザの右眼に導かれる。そのため、左眼用OLED26L及び右眼用OLED26Rの各々から投影画像が投影されている間は、第1のユーザの左右の眼によって各投影画像に応じた表示画像、例えば、カメラ27によって撮影された撮影画像が視認される。
上述のように、左眼用OLED26L及び右眼用OLED26Rの各々は、ディスプレイ20に表示する表示画像に応じた投影画像を右眼用導光板24R及び右眼用OLED26Rに投影する。第1のユーザが左眼用導光板24Lに左眼用OLED26Lから投影された左眼用投影画像を左眼で視認し、右眼用導光板24Rに右眼用OLED26Rから投影された右眼用投影画像を右眼で視認することで、第1のユーザの脳内で表示画像が合成され、表示画像を視認した状態となる。例えば、図4に示すように、現実の世界100をカメラ27によって撮影した撮影画像101を表示画像としてディスプレイ20に表示させる場合、左眼用OLED26Lは、撮影画像101の左部分の画像を左眼用投影画像101Lとして左眼用導光板24Lに投影し、右眼用OLED26Rは、撮影画像101の右部分の画像を右眼用投影画像101Rとして右眼用導光板24Rに投影する。第1のユーザは、左眼で左眼用導光板24Lに投影された左眼用投影画像101Lを視認し、右眼で右眼用導光板24Rに投影された右眼用投影画像101Rを視認することで、結果として撮影画像101を視認することができる。
カメラ27は、第1のユーザが観察する現実の世界を撮影するカメラである。カメラ27としては、例えば、CMOS(Complementary Metal Oxide Semiconductor)カメラ等のデジタル式カメラが挙げられる。本実施形態では、現実の世界を表す画像をユーザに提供するため、カメラ27はカラー画像の撮影が可能である。また、本実施形態のカメラ27は、第1のユーザの視界の範囲と同等の領域を撮影範囲とすることができる、いわゆる魚眼レンズや広角レンズを用いたカメラである。このように本実施形態では、カメラ27の撮影範囲として、第1のユーザの視界の範囲と同等の領域としているが本形態に限定されず、第1のユーザの視界の範囲よりも広い領域であってもよいし、狭い領域であってもよい。なお、第1のユーザに現実の世界の視認を少なくとも提供するために、カメラ27の撮影範囲は、第1のユーザの視界の範囲と同等以上であることが好ましい。カメラ27により撮影された撮影画像の画像データは、スマートフォン12に出力される。なお、本実施形態において、「撮影画像」とは、カメラ27により撮影された画像のことをいう。
視線検出センサ28は、第1のユーザの視線を検出するセンサである。視線検出センサ28としては、公知のセンサを適用することができ、例えば、虹彩や瞳孔の位置に基づいて第1のユーザの視線方向を検出するセンサ等が挙げられる。一例として、本実施形態のARグラス10は、第1のユーザの右眼の視線を検出する。視線検出センサ28の検出結果は、スマートフォン12に出力される。
一方、スマートフォン12は、ARグラス10の制御を行うプロセッサ40を備える。図5には、スマートフォン12における本実施形態の機能に関する構成の一例を表したブロック図が示されている。図5に示すように、スマートフォン12は、プロセッサ40、メモリ42、I/F(InterFace)部43、記憶部44、ディスプレイ46、及び入力装置48を備える。プロセッサ40、メモリ42、I/F部43、記憶部44、ディスプレイ46、及び入力装置48は、システムバスやコントロールバス等のバス49を介して相互に各種情報の授受が可能に接続されている。
プロセッサ40は、記憶部44に記憶された制御プログラム45を含む各種のプログラムをメモリ42へ読み出し、読み出したプログラムにしたがった処理を実行する。メモリ42は、プロセッサ40が処理を実行するためのワークメモリである。
記憶部44には、制御プログラム45、及びカメラ27により撮影された撮影画像の画像データ等の各種の画像データ(図示省略)や、その他の各種情報等が記憶される。記憶部44の具体例としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)等が挙げられる。
I/F部43は、無線通信または有線通信により、左眼用OLED26L、右眼用OLED26R、カメラ27、視線検出センサ28、及び画像表示装置14各々との間で各種情報の通信を行う。ディスプレイ46及び入力装置48はユーザインタフェースとして機能する。ディスプレイ46は、ユーザに対して、投影画像の投影に関する各種の情報を提供する。ディスプレイ46は特に限定されるものではなく、液晶モニタ及びLED(Light Emitting Diode)モニタ等が挙げられる。また、入力装置48は、各種の指示を入力するためにユーザによって操作される。入力装置48は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、スマートフォン12では、ディスプレイ46と入力装置48とを一体化したタッチパネルディスプレイを採用している。
また、本実施形態のスマートフォン12の機能について説明する。
本実施形態のスマートフォン12は、カメラ27により撮影した撮影画像を、第1のユーザがARグラス10により観察し、かつ、第2のユーザが画像表示装置14で観察する場合に、撮影画像内の第1領域を基準にして撮影制御をして得られた第1画像をARグラス10に出力する制御を行う。また、スマートフォン12は、撮影画像内の第2領域を基準にして撮影制御をして得られた第2画像を画像表示装置14に出力する制御を行う。
ここで、図6を参照して、スマートフォン12がARグラス10に出力する第1画像120及び画像表示装置14に出力する第2画像140について説明する。図6には、第1のユーザがARグラス10を用いて現実の世界100の観察を行い、現実の世界100に存在する被写体102を注視している場合が示されている。
スマートフォン12は、カメラ27により現実の世界100を撮影した撮影画像110を取得する。画像表示装置14は、スマートフォン12から撮影画像110を取得してディスプレイ56に表示させる。これにより、第2のユーザは、撮影画像110によって現実の世界100を観察することができる。図6には、第2のユーザが撮影画像110内の被写体画像105を注視することで、現実の世界100の被写体104の観察を行う場合が示されている。
現実の世界100に存在する被写体102と被写体104とは、存在する位置や光源の位置等により、撮影画像110に含まれる被写体102に対応する被写体画像103及び被写体104に対応する被写体画像105の写り方が異なる場合がある。例えば、撮影画像110が、被写体画像103及び被写体画像105の一方についてのみ、明るさやピント等が適切な画像となる場合がある。
そこで、本実施形態のスマートフォン12は、撮影画像110内の被写体画像103を含む第1領域112を基準にしてカメラ27に対して撮影制御を行うことにより、第1領域112の画像を適切にした第1画像120を得てARグラス10に出力する。ARグラス10のディスプレイ20には、第1画像120が表示され第1のユーザによって視認される。また、スマートフォン12は、撮影画像110内の被写体画像105を含む第2領域114を基準にしてカメラ27に対して撮影制御を行うことにより、第2領域114の画像を適切にした第2画像140を得て画像表示装置14に出力する。画像表示装置14のディスプレイ56には、第2画像140が表示され第2のユーザによって視認される。
これにより、本実施形態のスマートフォン12によれば、ARグラス10を使用する第1のユーザには、第1のユーザの視認に適した第1画像120を提供し、また画像表示装置14を使用する第2のユーザには、第2のユーザの視認に適した第2画像140を提供することができる。
図7には、本実施形態のスマートフォン12の機能に係る構成の一例を表す機能ブロック図が示されている。図7に示すようにスマートフォン12は、撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80を備える。一例として本実施形態のスマートフォン12は、プロセッサ40が記憶部44に記憶されている制御プログラム45を実行することにより、プロセッサ40が撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80として機能する。
撮影制御部60は、カメラ27による撮影画像の撮影を制御する機能を有する。撮影制御部60は、ARグラス10のディスプレイ20に表示された画像により第1のユーザが現実の世界100を観察している間は、カメラ27を制御して動画像として複数フレームの撮影画像を撮影する。
撮影画像取得部62は、カメラ27が撮影した撮影画像を取得する機能を有する。具体的には、撮影画像取得部62は、カメラ27が撮影した撮影画像110を表す画像データを、I/F部43を介してカメラ27から取得する。撮影画像取得部62は、取得した撮影画像110を、表示制御部64、画像送信部66、第1画像生成部78、及び第2画像生成部80に、適宜、出力する。
表示制御部64は、ARグラス10のディスプレイ20に撮影画像110または第1画像120を表示する制御を行う機能を有する。
画像送信部66は、画像表示装置14に対して撮影画像110及び第2画像140を送信する機能を有する。具体的には、画像送信部66は、撮影画像取得部62が取得した撮影画像110を表す画像データを、I/F部43を介して画像表示装置14に送信する。また、画像送信部66は、第2画像生成部80が生成した第2画像140を表す画像データを、I/F部43を介して画像表示装置14に送信する。
視線検出部68は、視線検出センサ28の検出結果に基づいて、第1のユーザの右眼の視線方向を検出する機能を有する。視線検出部68は、検出結果を第1領域決定部70に出力する。
第1領域決定部70は、視線検出部68の検出結果に基づいて、撮影画像110内の第1領域112を決定する機能を有する。図7に示した場合では、視線検出部68は、視線検出センサ28の検出結果に基づいて、被写体102が存在する方向を視線方向として検出する。一例として、本実施形態では、視線検出センサ28が検出した視線方向に対応する撮影画像110中の位置を中心位置とした所定の大きさの領域を第1領域112として決定する。なお、第1領域112として決定する所定の大きさは特に限定されず、例えば、ARグラス10の設計上、または実験的に予め定めておいてもよい。図7に示した例では、第1領域決定部70によって決定された第1領域112には、被写体102に対応する被写体画像103が含まれている。第1領域決定部70は、決定した第1領域112を表す情報を、撮影条件決定部76及び第1画像生成部78に出力する。
第2領域情報受信部72は、画像表示装置14から第2領域114を表す情報を受信する機能を有する。具体的には、第2領域情報受信部72は、第2領域114を表す情報を、I/F部43を介して画像表示装置14から受信する。第2領域情報受信部72は、受信した第2領域114を表す情報を第2領域決定部74に出力する。
第2領域決定部74は、第2領域114を表す情報に基づいて、撮影画像110内の第2領域114を決定する機能を有する。例えば、図7に示した場合では、第2領域情報受信部72は、第2領域114を表す情報を画像表示装置14から受信する。第2領域決定部74は、第2領域情報受信部72が受信した第2領域114を表す情報に基づいて、撮影画像110内の第2領域114を決定する。第2領域決定部74は、決定した第2領域114を表す情報を、撮影条件決定部76及び第2画像生成部80に出力する。
撮影条件決定部76は、図8に示すように、撮影画像110の第1領域112及び第2領域114に基づいて、第1画像120及び第2画像140の元となる撮影画像111をカメラ27により撮影する撮影条件を決定する機能を有する。本実施形態の撮影条件決定部76は、撮影画像110の第1領域112に含まれる被写体画像103に対応する被写体102の撮影、及び第2領域114に含まれる被写体画像105に対応する被写体104の撮影に適応するダイナミックレンジを撮影条件として決定する。撮影条件決定部76は、決定した撮影条件を撮影制御部60に出力する。なお、以下では、簡略化のため、第1領域112に含まれる被写体画像103に対応する被写体102について、「第1領域112に含まれる被写体102」といい、第2領域114に含まれる被写体画像105に対応する被写体104について、「第2領域114に含まれる被写体104」という。
第1画像生成部78は、撮影条件決定部76が決定した撮影条件によりカメラ27によって撮影された撮影画像111から、第1領域決定部70が決定した第1領域112に基づいて、第1画像120を生成する機能を有する。第1画像生成部78は、生成した第1画像120を表示制御部64に出力する。
第2画像生成部80は、撮影条件決定部76が決定した撮影条件によりカメラ27によって撮影された撮影画像111から、第2領域決定部74が決定した第2領域114に基づいて、第2画像140を生成する機能を有する。第2画像生成部80は、生成した第2画像140を画像送信部66に出力する。
一方、画像表示装置14は、上述したように、第2のユーザが、ARグラス10のカメラ27が撮影した撮影画像110や第2画像140を観察するために用いられる。
図9には、画像表示装置14の機能に係る構成の一例を表す機能ブロック図が示されている。図9に示すように、画像表示装置14は、プロセッサ50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58を備える。プロセッサ50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58は、システムバスやコントロールバス等のバス59を介して相互に各種情報の授受が可能に接続されている。
プロセッサ50は、記憶部54に記憶された表示制御プログラム55を含む各種のプログラムをメモリ52へ読み出し、読み出したプログラムにしたがった処理を実行する。メモリ52は、プロセッサ50が処理を実行するためのワークメモリである。
記憶部54には、表示制御プログラム55、及びスマートフォン12から受信した各種画像の画像データや、その他の各種情報等が記憶される。記憶部54の具体例としては、HDDやSSD等が挙げられる。
I/F部53は、無線通信または有線通信により、スマートフォン12との間で各種情報の通信を行う。ディスプレイ56及び入力装置58はユーザインタフェースとして機能する。ディスプレイ56は、スマートフォン12から受信した各種の画像を表示する。ディスプレイ56は特に限定されるものではなく、液晶モニタ及びLEDモニタ等が挙げられる。また、入力装置58は、第2領域114に関する各種の指示を入力するために第2のユーザによって操作される。入力装置58は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、ディスプレイ56と入力装置58とを一体化したタッチパネルディスプレイを採用してもよい。
図10には、本実施形態の画像表示装置14の機能に係る構成の一例を表す機能ブロック図が示されている。図10に示すように画像表示装置14は、画像受信部90、表示制御部92、第2領域情報受付部94、及び第2領域情報送信部96を備える。一例として本実施形態の画像表示装置14は、プロセッサ50が記憶部54に記憶されている表示制御プログラム55を実行することにより、プロセッサ50が画像受信部90、表示制御部92、第2領域情報受付部94、及び第2領域情報送信部96として機能する。
画像受信部90は、スマートフォン12から、撮影画像110及び第2画像140を受信する機能を有する。具体的には、画像受信部90は、撮影画像110を表す画像データまたは第2画像140を表す画像データを、I/F部53を介してスマートフォン12から受信する。画像受信部90は、受信した撮影画像110及び第2画像140を表示制御部92に出力する。
表示制御部92は、画像受信部90が受信した撮影画像110または第2画像140をディスプレイ56に表示する制御を行う機能を有する。
第2領域情報受付部94は、入力装置58を用いて第2のユーザにより入力された第2領域114を表す情報を受け付ける機能を有する。第2領域情報受付部94は、受け付けた第2領域114を表す情報を第2領域情報送信部96に出力する。
第2領域情報送信部96は、第2領域114を表す情報をスマートフォン12に出力する機能を有する。具体的には、第2領域情報送信部96は、第2領域情報受付部94から入力された第2領域114を表す情報を、I/F部53を介してスマートフォン12に出力する。
次に、本実施形態のスマートフォン12及び画像表示装置14の作用を説明する。図11には、本実施形態のスマートフォン12により実行される制御処理、及び画像表示装置14により実行される表示制御処理の一例を示すフローチャートが示されている。スマートフォン12は、記憶部44に記憶されている制御プログラム45を実行することにより、図11に示した制御処理を実行する。また、画像表示装置14は、記憶部54に記憶されている表示制御プログラム55を実行することにより、図11に示した表示制御処理を実行する。一例として本実施形態では、第1のユーザが入力装置48により行ったARグラス10及び画像表示装置14への撮影画像の表示指示をスマートフォン12が受け付けた場合等に、図11に示した制御処理及び表示制御処理が実行される。
図11のステップS100で撮影制御部60は、カメラ27に対して撮影画像110の撮影開始を指示する。カメラ27は、スマートフォン12から入力された撮影開始の指示に応じて、撮影を開始する。この場合、カメラ27は、AE(Automatic Exposure)やAF(Autofocus)等、予め定められた撮影条件に基づいて、所定のフレームレートで撮影画像110の撮影を行う。
次のステップS102で撮影画像取得部62は、上述したように、スマートフォン12から撮影画像110の取得を開始する。
次のステップS104で表示制御部64は、ARグラス10のディスプレイ20に対して上記ステップS102で取得した撮影画像110の表示を開始させるための撮影画像表示開始指示をARグラス10の左眼用OLED26L及び右眼用OLED26Rに出力する。
具体的には、撮影画像110をARグラス10のディスプレイ20に表示させるために、上述したように表示制御部64は、撮影画像110の部分画像である左眼用投影画像を左眼用OLED26Lに出力し、撮影画像110の部分画像である右眼用投影画像を右眼用OLED26Rに出力する。
次のステップS106で画像送信部66は、上記ステップS100で取得した撮影画像110を画像表示装置14に送信する。詳細は後述するが、画像表示装置14では、スマートフォン12から受信した撮影画像110をディスプレイ56に表示させ、第2のユーザから撮影画像110内の第2領域114を受け付け、スマートフォン12に第2領域114を表す情報を送信する(ステップS206)。
そこで、次のステップS108で第2領域情報受信部72は、画像表示装置14から送信された第2領域114を表す情報を受信する。第2領域114を表す情報は、例えば、画像表示装置14内における、第2領域114の位置及び大きさを表す座標の情報等が挙げられる。
次のステップS110で第2領域決定部74は、第2領域情報受信部72が受信した第2領域114を表す情報に基づいて、撮影画像110内の第2領域114を決定する。
次のステップS112で視線検出部68は、視線検出センサ28の検出結果に基づいて、第1のユーザの視線方向を検出する。
次のステップS114で第1領域決定部70は、上記ステップS112で検出した第1ユーザの視線方向に基づいて、上述したように、撮影画像110内の第1領域112を決定する。
次のステップS116で撮影条件決定部76は、撮影画像110内の第1領域112及び第2領域114を基準にして、撮影画像111を撮影させるための撮影条件を決定する。本実施形態の撮影条件決定部76は、上述したように、第1領域112に写る被写体102の撮影及び第2領域114に写る被写体104の撮影の両方の撮影に適応するダイナミックレンジで撮影を行うための撮影条件を決定する。
次のステップS118で撮影制御部60は、上記ステップS116で決定した撮影条件での撮影画像111の撮影開始を指示する。カメラ27は、スマートフォン12から入力された撮影開始の指示に応じて、指示された撮影条件を設定すると、撮影画像111の撮影を開始し、所定のフレームレートで撮影画像111の撮影を行う。
次のステップS120で撮影画像取得部62は、上記ステップS118の撮影開始指示に応じてカメラ27が撮影した撮影画像111を取得する。
次のステップS122で第1画像生成部78は、上記ステップS120で取得した撮影画像111から、第1領域112に基づいて、第1画像120を生成する。一例として、本実施形態の第1画像生成部78は、撮影画像111の第1領域112内の画素の輝度値に基づいて、撮影画像111の画素の輝度値をARグラス10用に調整して第1画像120を生成する。具体的には、本実施形態の第1画像生成部78は、撮影画像111の第1領域112内の画素の輝度値を予め定められたARグラス10用の輝度値以上とするための倍率の最低値を導出し、撮影画像111の各画素の輝度値に、導出した最低値を乗算した値を各画素の輝度値とすることで、第1領域112を生成する。
次のステップS124で表示制御部64は、上記ステップS122で生成した第1画像120をARグラス10のディスプレイ20に表示させるための指示を行う。具体的には、第1画像120をARグラス10のディスプレイ20に表示させるために、表示制御部64は、第1画像120の部分画像である左眼用投影画像を左眼用OLED26Lに出力し、第1画像120の部分画像である右眼用投影画像を右眼用OLED26Rに出力する。
次のステップS126で第2画像生成部80は、上記ステップS120で取得した撮影画像111から、上記ステップS110で決定した第2領域114に基づいて、第2画像140を生成する。一例として、本実施形態の第2画像生成部80は、撮影画像111の第2領域114内の画素の輝度値に基づいて、撮影画像111の画素の輝度値を画像表示装置14用に調整して第2画像140を生成する。具体的には、本実施形態の第2画像生成部80は、撮影画像111の第2領域114内の画素の輝度値を予め定められた画像表示装置14用の輝度値以上とするための倍率の最低値を導出し、撮影画像111の各画素の輝度値に、導出した最低値を乗算した値を各画素の輝度値とした画像表示装置14用の撮影画像を生成する。また、一例として、本実施形態の第2画像140は、撮影画像111から、第2領域114の部分を切り出した部分画像としている。そのため、第2画像生成部80は、画像表示装置14用の撮影画像111から、第2領域114の部分を切り出して第2画像140を生成する。
次のステップS128で画像送信部66は、上記ステップS126で生成した第2画像140を画像表示装置14に送信する。詳細は後述するが、画像表示装置14では、スマートフォン12から受信した第2画像140をディスプレイ56に表示させる(S210)。
次のステップS130で撮影画像取得部62は、図11に示した制御処理を終了するか否か判定する。本実施形態では、所定の終了条件を満たす場合に、図11に示した制御処理を終了する。所定の終了条件としては、例えば、第1のユーザが入力装置48により行ったARグラス10による第1画像120の表示終了の指示をスマートフォン12が受け付けた場合等が挙げられる。所定の終了条件を満たすまで、ステップS130の判定が否定判定となり、ステップS120に戻りステップS120~S128の処理を繰り返す。一方、所定の終了条件を満たす場合、ステップS130の判定が肯定判定となり、ステップS132へ移行する。
ステップS132で画像送信部66は、ARグラス10において第1画像120の表示を終了することを表す終了情報を画像表示装置14に送信する。
次のステップS134で表示制御部64は、ARグラス10のディスプレイ20に表示されている第1画像120の表示を終了させるための指示をARグラス10に出力する。ステップS134の処理が終了すると、図11に示した制御処理が終了する。
一方、画像表示装置14では、図11のステップS200で画像受信部90は、上述のスマートフォン12において実行される制御処理のステップS106の処理によりスマートフォン12から送信された撮影画像110の受信を開始する。
次のステップS202で表示制御部92は、上記ステップS200で取得した撮影画像110のディスプレイ56への表示を開始する。第2のユーザは、ディスプレイ56に表示された撮影画像110を観察し、入力装置58を用いて撮影画像110内の第2領域114を指定する。
そこで、次のステップS204で第2領域情報受付部94は、入力装置58を用いて行われた第2領域114の指定を受け付けたか否かを判定する。第2領域114の指定を受け付けるまでステップS204の判定が否定判定となる。一方、第2領域114の指定を受け付けた場合、ステップS204の判定が肯定判定となり、ステップS206へ移行する。
ステップS206で第2領域情報送信部96は、第2領域情報受付部94が受け付けた第2領域114を表す情報をスマートフォン12へ送信する。これにより、上述したように、制御処理のステップS108では、第2領域情報受信部72が第2領域114を表す情報を受信する。
次のステップS208で画像受信部90は、上述の制御処理のステップS128の処理によりスマートフォン12から送信された第2画像140を受信する。
次のステップS210で表示制御部92は、上記ステップS208で受信した第2画像140をディスプレイ56に表示させる。なお、一例として本実施形態の表示制御部92は、図6及び図8に示したように、撮影画像110と共に、第2画像140をディスプレイ56に表示させる。
次のステップS212で画像受信部90は、上述の制御処理のステップS132の処理によりスマートフォン12から送信された終了情報を受信したか否かを判定する。終了情報を受信していない場合、ステップS212の判定が否定判定となり、ステップS208に戻り、ステップS208、S210の処理を繰り返す。一方、終了情報を受信した場合、ステップS212の判定が肯定判定となり、ステップS214へ移行する。
ステップS214で表示制御部92は、ディスプレイ56に表示されている第2画像140及び撮影画像110の表示を終了するか否か判定する。一例として本実施形態では、第2のユーザが入力装置58により行った撮影画像110及び第2画像140の表示終了の指示を表示制御部92が受け付けた場合に、撮影画像110及び第2画像140の表示を終了する。そこで、第2のユーザが入力装置58により行った表示終了の指示を表示制御部92が受け付けるまで、ステップS214の処理が否定判定となる。一方、第2のユーザが入力装置58により行った表示終了の指示を表示制御部92が受け付けるとステップS214の処理が肯定判定となり、ステップS216へ移行する。ステップS216で表示制御部92は、ディスプレイ56における撮影画像110及び第2画像140の表示を終了する。ステップS216の処理が終了すると、図11に示した表示制御処理が終了する。
このように本実施形態のスマートフォン12の撮影条件決定部76は、第1領域112に写る被写体102の撮影及び第2領域114に写る被写体104の撮影に適応するダイナミックレンジを撮影条件として決定する。撮影制御部60は、決定した撮影条件でカメラ27により1枚の撮影画像111を撮影させる制御を行う。第1画像生成部78は、1枚の撮影画像111から第1画像120を生成し、表示制御部64は、ARグラス10のディスプレイ20に第1画像120を表示させる制御を行う。また、第2画像生成部80は、1枚の撮影画像111から第2画像140を生成し、画像送信部66は、画像表示装置14に第2画像140を出力する。
これにより、本実施形態のスマートフォン12によれば、第1のユーザによる観察に適した第1画像120、及び第2のユーザによる観察に適した第2画像140をそれぞれに提供することができる。
[第2実施形態]
本実施形態の画像表示装置14の構成は、第1実施形態の画像表示装置14の構成(図9及び図10参照)と同様であるため説明は省略する。また、ARグラス10の構成は、第1実施形態のARグラス10の構成(図1及び図2参照)と同様であるため説明は省略する。一方、本実施形態のスマートフォン12のハードウェア構成は、第1実施形態のスマートフォン12のハードウェア構成(図5参照)と同様である。一方、スマートフォン12の機能に係る構成は、第1実施形態と同様に撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80を備える(図7参照)が、その機能の一部が異なっているため、異なる機能について説明する。
本実施形態の撮影条件決定部76は、図12に示すように、カメラ27の光学系の合焦位置を、撮影画像110の第1領域112(図12では、図示省略)に写る被写体102にピントが合う第1合焦位置と、撮影画像110の第2領域114(図12では、図示省略)に写る被写体104にピントが合う第2合焦位置との間の共通合焦位置に設定する。そして、撮影条件決定部76は、共通合焦位置が設定された状態でカメラ27により1枚の撮影画像121を撮影させる制御を行う。換言すると、撮影条件決定部76は、カメラ27の被写界深度を少なくとも被写体102及び被写体104が含まれる範囲とする。
第1画像生成部78は、共通合焦位置が設定された状態でカメラ27により撮影され、撮影画像取得部62が取得した撮影画像121から第1画像120を得る。一例として、本実施形態の第1画像生成部78は、撮影画像121を第1画像120とする。
第2画像生成部80は、共通合焦位置が設定された状態でカメラ27により撮影され、撮影画像取得部62が取得した撮影画像121から第2領域114を切り出すことで第2画像140を生成する。
図13には、本実施形態のスマートフォン12により実行される制御処理、及び画像表示装置14により実行される表示制御処理の一例を示すフローチャートが示されている。
図13に示すように、本実施形態の画像表示装置14が実行する表示制御処理は第1実施形態の画像表示装置14が実行する表示制御処理(図11参照)と同様の処理であるため説明は省略する。一方、本実施形態のスマートフォン12が実行する制御処理は、図13に示すように、第一実施形態のスマートフォン12が実行する制御処理(図11参照)と一部が異なっている。本実施形態のスマートフォン12が実行する制御処理は、ステップS116に代わりステップS116Aを備え、ステップS122を備えず、ステップS126に代わりステップS127を備える点で、第一実施形態のスマートフォン12が実行する制御処理(図11参照)と一部が異なっている。
図13のステップS106Aで撮影条件決定部76は、撮影画像110内の第1領域112及び第2領域114を基準にして、撮影画像111を撮影させるための撮影条件を決定する。本実施形態の撮影条件決定部76は、上述したように、カメラ27の光学系の合焦位置を被写体102にピントが合う第1合焦位置と被写体104にピントが合う第2合焦位置との間の共通合焦位置とする撮影条件を決定する。
また、本実施形態の制御処理では、ステップS120で取得した、共通合焦位置が設定された状態でカメラ27により撮影された撮影画像121を第1画像120としているため、上述したように第1実施形態の制御処理で実行されていたステップS122の処理が省略される。
また、ステップS127で第2画像生成部80は、上記ステップS120で取得した撮影画像121から、第2領域114の部分を切り出して第2画像140を生成する。これにより、次のステップS128では、撮影画像121から切り出された第2画像140が画像表示装置14に送信される。
このように、本実施形態のスマートフォン12の撮影条件決定部76は、撮影条件として、カメラ27の光学系の共通合焦位置を、第1領域112に写る被写体102にピントが合う第1合焦位置と、第2領域114に写る被写体104にピントが合う第2合焦位置との間として決定する。撮影制御部60は、共通合焦位置が設定された状態でカメラ27により1枚の撮影画像121を撮影させる制御を行う。第1画像生成部78は、撮影画像121を第1画像120とする。表示制御部64は、ARグラス10のディスプレイ20に第1画像120を表示させる制御を行う。また、第2画像生成部80は、1枚の撮影画像121から第2画像140を切り出し、画像送信部66は、画像表示装置14に第2画像140を出力する。
これにより、本実施形態のスマートフォン12によれば、第1のユーザによる観察に適した第1画像120、及び第2のユーザによる観察に適した第2画像140をそれぞれに提供することができる。
なお、本実施形態においても、撮影画像121に対して、ARグラス10のディスプレイ用の画像処理を施して第1画像120を生成し、また、画像表示装置14のディスプレイ56用の画像処理を施して第2画像140を生成してもよい。
[第3実施形態]
本実施形態の画像表示装置14の構成は、第1実施形態の画像表示装置14の構成(図9及び図10参照)と同様であるため説明は省略する。また、ARグラス10の構成は、第1実施形態のARグラス10の構成(図1及び図2参照)と同様であるため説明は省略する。一方、本実施形態のスマートフォン12のハードウェア構成は、第1実施形態のスマートフォン12のハードウェア構成(図5参照)と同様である。一方、スマートフォン12の機能に係る構成は、第1実施形態と同様に撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80を備える(図7参照)が、その機能の一部が異なっているため、異なる機能について説明する。
本実施形態の撮影条件決定部76は、図14に示すように、被写体102に基づいて、カメラ27の露出を制御する第1撮影条件と、被写体104に基づいて、カメラ27の露出を制御する第2撮影条件とを撮影条件として決定する。
第1画像生成部78は、被写体102に基づいて、カメラ27の露出を制御する第1撮影条件によりカメラ27により撮影された撮影画像131を、第1画像120とする。本実施形態の撮影画像131が、本開示の第1撮影画像の一例である。
第2画像生成部80は、被写体104に基づいて、カメラ27の露出を制御する第2撮影条件によりカメラ27により撮影された撮影画像131から第2領域114を切り出すことで第2画像140を生成する。本実施形態の撮影画像131が、本開示の第2撮影画像の一例である。
図15には、本実施形態のスマートフォン12により実行される制御処理、及び画像表示装置14により実行される表示制御処理の一例を示すフローチャートが示されている。
図15に示すように、本実施形態の画像表示装置14が実行する表示制御処理は第1実施形態の画像表示装置14が実行する表示制御処理(図11参照)と同様の処理であるため説明は省略する。一方、本実施形態のスマートフォン12が実行する制御処理は、図15に示すように、第一実施形態のスマートフォン12が実行する制御処理(図11参照)と一部が異なっている。本実施形態のスマートフォン12が実行する制御処理は、ステップS110とステップS112との間にステップS111を備え、ステップS116に代わりステップS115を備え、ステップS116~S122の代わりにステップS117及びS119を備え、S126の代わりにステップS125A、S125B、S127を備える点で、第一実施形態のスマートフォン12が実行する制御処理(図11参照)と一部が異なっている。
図15のステップS111で撮影条件決定部76は、上述したように、撮影画像110の第2領域114に含まれる被写体104に基づいて、カメラ27の露出を制御する第2撮影条件を決定する。
また、図15のステップS115で撮影条件決定部76は、上述したように、撮影画像110の第1領域112に含まれる被写体102に基づいて、カメラ27の露出を制御する第1撮影条件を決定する。
次のステップS117で撮影制御部60は、上記ステップS115で決定した第1撮影条件での撮影画像131の撮影(第1撮影)を指示する。カメラ27は、スマートフォン12から入力された第1撮影の指示に応じて、指示された第1撮影条件を設定すると、撮影画像131の撮影を行う。
次のステップS119で撮影画像取得部62は、上記ステップS117の第1撮影の指示に応じてカメラ27が撮影した撮影画像131を取得する。また、上述したように、第1画像生成部78は、撮影画像131を、第1画像120とする。これにより次のステップS124で表示制御部64は、撮影画像131である第1画像120をARグラス10のディスプレイ20に表示させるための指示を行う。
また、図15のステップS125Aで撮影制御部60は、上記ステップS111で決定した第2撮影条件での撮影画像131の撮影(第2撮影)を指示する。カメラ27は、スマートフォン12から入力された第2撮影の指示に応じて、指示された第2撮影条件を設定すると、撮影画像131撮影を行う。
次のS125Bで撮影画像取得部62は、上記ステップS125Aの第2撮影の指示に応じてカメラ27が撮影した撮影画像131を取得する。
次のステップS127で第2画像生成部80は、上述したように、上記ステップS125Bで取得した撮影画像131から、第2領域114の部分を切り出して第2画像140を生成する。これにより、次のステップS128では、撮影画像131から切り出された第2画像140が画像表示装置14に送信される。
このように、本実施形態のスマートフォン12の撮影条件決定部76は、第1撮影条件として、第1領域112に写る被写体102に基づいてカメラ27の露出を決定する。撮影制御部60は、第1撮影条件によりカメラ27により第1撮影画像131を撮影させる制御を行う。第1画像生成部78は、第1撮影画像131を第1画像120とし、表示制御部64は、ARグラス10のディスプレイ20に第1画像120を表示させる制御を行う。
また、撮影条件決定部76は、第2撮影条件として、第2領域114に写る被写体104に基づいてカメラ27の露出を決定する。撮影制御部60は、第2撮影条件によりカメラ27により第2撮影画像131を撮影させる制御を行う。第2画像生成部80は、第2撮影画像131から第2画像140を切り出し、画像送信部66は、画像表示装置14に第2画像140を出力する。
これにより、本実施形態のスマートフォン12によれば、第1のユーザによる観察に適した第1画像120、及び第2のユーザによる観察に適した第2画像140をそれぞれに提供することができる。
以上説明したように、本実施形態のスマートフォン12は、プロセッサ40を含む。プロセッサ40は、ARグラス10のカメラ27により撮影した撮影画像を、第1のユーザがARグラス10により観察し、かつ、第2のユーザがARグラス10と異なる画像表示装置14で撮影画像を観察する場合に、撮影画像110内の第1領域112を基準にして撮影制御をして得られた第1画像120をARグラス10に出力し、撮影画像110内の第2領域114を基準にして撮影制御をして得られた第2画像140を画像表示装置14に出力する制御を行う。
例えば、第1のユーザが観察する被写体102と、第2のユーザが観察する被写体104とが離間した位置にいる等、被写体102及び被写体104の周囲の環境が異なっており、撮影画像110の第1領域112及び第2領域114の見え方が異なる場合がある。このような場合であっても、本実施形態のスマートフォン12によれば、ARグラス10を使用する第1のユーザによる観察に適した第1画像120、及び画像表示装置14を使用する第2のユーザによる観察に適した第2画像140をそれぞれに提供することができる。
上記各形態では、本開示の眼鏡型表示装置の一例として、ARグラス10を適用した形態について説明したが、眼鏡型表示装置は、ARグラス10に限定されず、ヘッドマウントディスプレイのように種々の形態に適用できる。
また、「眼鏡型表示装置」における「眼鏡」という単語は、機能的に、画像を取得する第1センサ(人間の目)と、第1センサの視野を含み、かつ第1センサとほぼ同一の視線方向で撮影画像を取得する第2センサ(ARグラス10のカメラ27)を実現することを意味している。なお、眼鏡型表示装置の形状は、一般的な眼鏡の形状や用途や装着部位に限定されない。また、眼鏡型表示装置は、単眼型でも複眼型でもよく、上記各形態では、両眼で、投影画像を視認する形態について示したが、一方の眼により投影画像を視認する形態であってもよい。ゴーグルのように左右がつながった形状でもよい。また、いわゆるヘッドマウントディスプレイのように、人間の頭部に装着するものに限定されない(例えば、人の機能を模しつつ、外形は犬であるロボットで、人間の目の機能が、ロボットの膝に有るカメラで実現されるならば、本開示の表示装置は膝に装着される。このような表示装置も、本開示の技術に含まれる。
また、上記各形態では、ARグラス10が1つのカメラ27を備え、1つのカメラ27が第1のユーザの視野全体に対応する撮影画像110、111を撮影する形態について説明したが、ARグラス10が備えるカメラは、本形態に限定されない。例えば、左眼用投影画像を撮影するカメラと、右眼用投影画像を撮影するカメラと、2つのカメラを備える形態としてもよい。この場合、左眼用投影画像及び右眼用投影画像の一方に第2領域114が含まれる場合、例えば、第3実施形態では、第2領域114が含まれる方の投影画像のみを撮影する形態としてもよい。
また、上記各形態では、第1ユーザと第2ユーザとが異なる場合について説明したが、第1ユーザと第2ユーザとは同一であってもよい。また、上記各形態では、第1ユーザと第2ユーザが、各々が単独の場合について説明したが、第1ユーザと第2ユーザは、各々が複数であってもよい。
また、上記各形態では、画像表示システム1が備える画像表示装置14が1つの形態について説明したが、画像表示システム1が備える画像表示装置14の数は限定されるものではない。画像表示システム1が複数の画像表示装置14を備える場合、上記各形態で説明したスマートフォン12が画像表示装置14に対して行った動作を、画像表示システム1が備える各画像表示装置14に対し、順次、行えばよい。
また、上記各形態では、それぞれ、第2画像140を、撮影画像111、121、131の各々から切り出した画像としているが、本形態に限定されず、撮影画像111、121、131を、第2画像140としてもよい。
また、上記各形態では、撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80、の各機能をスマートフォン12が備える形態としたが、これら各部の機能の一部または全部を他の装置が備える形態としてもよい。他の装置としては、例えば、画像表示装置14であってもよいし、クラウド上に設けられたサーバコンピュータ等であってもよい。例えば、上記各形態では、スマートフォン12が第2画像140を生成する形態としているが、第2画像140を生成するための情報と、撮影画像111、121、131の各々とを画像表示装置14に送信し、画像表示装置14が、受信した第2画像140を生成するための情報に基づいて、撮影画像111、121、131から第2画像140を生成する形態としてもよい。
また、上記各形態において、例えば、スマートフォン12の撮影制御部60、撮影画像取得部62、表示制御部64、画像送信部66、視線検出部68、第1領域決定部70、第2領域情報受信部72、第2領域決定部74、撮影条件決定部76、第1画像生成部78、及び第2画像生成部80、または画像表示装置14の画像受信部90、表示制御部92、第2領域情報受付部94、及び第2領域情報送信部96といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記各形態では、制御プログラム45が記憶部44に、また、表示制御プログラム55が記憶部54に予め記憶(インストール)されている態様を説明したが、これに限定されない。制御プログラム45及び表示制御プログラム55は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、制御プログラム45及び表示制御プログラム55は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 画像表示システム
10 ARグラス
12 スマートフォン
14 画像表示装置
19 ネットワーク
20 ディスプレイ
22L 左眼用レンズ、22R 右眼用レンズ
24L 左眼用導光板、24R 右眼用導光板
26L 左眼用OLED、26R 右眼用OLED
27 カメラ
28 視線検出センサ
40、50 プロセッサ
42、52 メモリ
43、53 I/F部
44、54 記憶部
45 制御プログラム
46、56 ディスプレイ
48、58 入力装置
49、59 バス
55 表示制御プログラム
60 撮影制御部
62 撮影画像取得部
64 表示制御部
66 画像送信部
68 視線検出部
70 第1領域決定部
72 第2領域情報受信部
74 第2領域決定部
76 撮影条件決定部
78 第1画像生成部
80 第2画像生成部
90 画像受信部
92 表示制御部
94 第2領域情報受付部
96 第2領域情報送信部
100 現実の世界
101、110、111、121、131、131 撮影画像
101L 左眼用投影画像、101R 右眼用投影画像
102、104 被写体
103、105 被写体画像
112 第1領域
114 第2領域
120 第1画像
140 第2画像

Claims (9)

  1. 少なくとも1つのプロセッサを含み、
    前記プロセッサは、
    眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが前記眼鏡型表示装置により観察し、かつ、第2のユーザが前記眼鏡型表示装置と異なる表示装置で前記撮影画像を観察する場合に、
    前記撮影画像内の第1領域を基準にして撮影制御をした第1画像を前記眼鏡型表示装置に出力し、
    前記撮影画像内の第2領域を基準にして撮影制御をした第2画像を前記表示装置に出力する制御を行う
    制御装置。
  2. 前記プロセッサは、
    前記撮影制御として、前記第1領域に写る被写体の撮影及び前記第2領域に写る被写体の撮影に適応するダイナミックレンジで前記カメラにより1枚の撮影画像を撮影させる制御を行い、
    前記1枚の撮影画像に応じた前記第1画像及び前記第2画像を出力する制御を行う
    請求項1に記載の制御装置。
  3. 前記プロセッサは、
    前記1枚の撮影画像の輝度値を前記眼鏡型表示装置用に調整して前記第1画像を生成し、
    前記1枚の撮影画像の輝度値を前記表示装置用に調整して前記第2画像を生成する
    請求項2に記載の制御装置。
  4. 前記プロセッサは、
    前記撮影制御として、前記カメラの光学系の合焦位置を、前記第1領域に写る被写体にピントが合う第1合焦位置と、前記第2領域に写る被写体にピントが合う第2合焦位置との間に設定し、前記合焦位置が設定された状態で前記カメラにより1枚の撮影画像を撮影させる制御を行い、
    前記1枚の撮影画像に応じた前記第1画像及び前記第2画像を出力する制御を行う
    請求項1に記載の制御装置。
  5. 前記プロセッサは、
    前記第1領域に写る被写体に基づいて前記カメラの露出を制御して撮影された第1の撮影画像を前記第1画像とし、
    前記第2領域に写る被写体に基づいて前記カメラの露出を制御して撮影された第2の撮影画像を前記第2画像とする、
    請求項1に記載の制御装置。
  6. 前記第2画像は、撮影画像から前記第2領域を切り出した部分画像である
    請求項1から請求項5のいずれか1項に記載の制御装置。
  7. 前記プロセッサは、
    視線検出装置によって検出された前記第1のユーザの視線に基づいて、前記第1領域を決定する
    請求項1から請求項6のいずれか1項に記載の制御装置。
  8. 制御装置が備えるプロセッサによる制御方法であって、
    眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが前記眼鏡型表示装置により観察し、かつ、第2のユーザが前記眼鏡型表示装置と異なる表示装置で前記撮影画像を観察する場合に、
    前記撮影画像内の第1領域を基準にして撮影制御をした第1画像を前記眼鏡型表示装置に出力し、
    前記撮影画像内の第2領域を基準にして撮影制御をした第2画像を前記表示装置に出力する制御を行う、
    制御方法。
  9. 制御装置が備えるプロセッサが実行する画像処理プログラムであって、
    眼鏡型表示装置のカメラにより撮影した撮影画像を、第1のユーザが前記眼鏡型表示装置により観察し、かつ、第2のユーザが前記眼鏡型表示装置と異なる表示装置で前記撮影画像を観察する場合に、
    前記撮影画像内の第1領域を基準にして撮影制御をした第1画像を前記眼鏡型表示装置に出力し、
    前記撮影画像内の第2領域を基準にして撮影制御をした第2画像を前記表示装置に出力する制御を行う、
    制御プログラム。
JP2022050808A 2022-03-25 2022-03-25 制御装置、制御方法、及び制御プログラム Pending JP2023143437A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022050808A JP2023143437A (ja) 2022-03-25 2022-03-25 制御装置、制御方法、及び制御プログラム
EP23162119.4A EP4250754A1 (en) 2022-03-25 2023-03-15 Control device, control method, and control program
CN202310286257.7A CN116805964A (zh) 2022-03-25 2023-03-22 控制装置、控制方法及存储介质
US18/188,833 US12135912B2 (en) 2022-03-25 2023-03-23 Control device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022050808A JP2023143437A (ja) 2022-03-25 2022-03-25 制御装置、制御方法、及び制御プログラム

Publications (1)

Publication Number Publication Date
JP2023143437A true JP2023143437A (ja) 2023-10-06

Family

ID=85703822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022050808A Pending JP2023143437A (ja) 2022-03-25 2022-03-25 制御装置、制御方法、及び制御プログラム

Country Status (3)

Country Link
EP (1) EP4250754A1 (ja)
JP (1) JP2023143437A (ja)
CN (1) CN116805964A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7855743B2 (en) * 2006-09-08 2010-12-21 Sony Corporation Image capturing and displaying apparatus and image capturing and displaying method
US10112111B2 (en) 2016-03-18 2018-10-30 Sony Interactive Entertainment Inc. Spectator view perspectives in VR environments
US20170308157A1 (en) * 2016-04-25 2017-10-26 Seiko Epson Corporation Head-mounted display device, display system, control method for head-mounted display device, and computer program
JP6919222B2 (ja) * 2017-02-27 2021-08-18 セイコーエプソン株式会社 表示装置、及び、表示装置の制御方法

Also Published As

Publication number Publication date
US20230305793A1 (en) 2023-09-28
CN116805964A (zh) 2023-09-26
EP4250754A1 (en) 2023-09-27

Similar Documents

Publication Publication Date Title
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
US11612317B2 (en) Ophthalmic surgery using light-field microscopy
US9990037B1 (en) Display apparatus and method using portable electronic device
WO2012001970A1 (ja) 画像処理装置および方法並びにプログラム
JP2016134668A (ja) 電子眼鏡および電子眼鏡の制御方法
CN110088662B (zh) 成像系统和产生背景图像和聚焦图像的方法
CN109255838B (zh) 避免增强现实显示设备观看重影的方法及设备
WO2020189450A1 (ja) 複数のマーカを備えたデバイス
JP2023143437A (ja) 制御装置、制御方法、及び制御プログラム
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
US12135912B2 (en) Control device, control method, and control program
US20220252884A1 (en) Imaging system, display device, imaging device, and control method for imaging system
JP2024018720A (ja) 画像処理装置、眼鏡型情報表示装置、画像処理方法、及び画像処理プログラム
JP2024018719A (ja) 制御装置、眼鏡型情報表示装置、制御方法、及び制御プログラム
US12058452B2 (en) Image blending
EP4387220A1 (en) Head-mounted electronic device with display recording capability
JP6705929B2 (ja) 表示制御装置及び表示制御方法
CN118574016A (zh) 处理器、显示控制方法及记录介质
JP2022140424A (ja) 撮像装置及びその制御方法並びにプログラム
CN117808993A (zh) 处理器、信息处理方法及非暂时性存储介质
JP2016133541A (ja) 電子眼鏡および電子眼鏡の制御方法
JP2024017297A (ja) 撮像装置、ウェアラブルデバイス、制御方法、プログラムおよびシステム
JP2022183552A (ja) 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体