JP2023132596A - 表示装置、表示方法およびプログラム - Google Patents

表示装置、表示方法およびプログラム Download PDF

Info

Publication number
JP2023132596A
JP2023132596A JP2022038011A JP2022038011A JP2023132596A JP 2023132596 A JP2023132596 A JP 2023132596A JP 2022038011 A JP2022038011 A JP 2022038011A JP 2022038011 A JP2022038011 A JP 2022038011A JP 2023132596 A JP2023132596 A JP 2023132596A
Authority
JP
Japan
Prior art keywords
image
display
section
unit
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022038011A
Other languages
English (en)
Inventor
浩史 野口
Hirofumi Noguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2022038011A priority Critical patent/JP2023132596A/ja
Priority to PCT/JP2023/008959 priority patent/WO2023171734A1/ja
Publication of JP2023132596A publication Critical patent/JP2023132596A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】仮想空間の画像の少なくとも一部に現実空間の画像を最適表示させる。【解決手段】仮想空間の画像を表示する表示部と、現実空間にある対象物を検出する検出部と、検出部が検出した対象物が表示部を透過して視認できる表示部の領域の透過状態を変更する透過制御部と、を備える。【選択図】図2

Description

本発明は、表示装置、表示方法およびプログラムに関する。
近年、仮想現実(VR:Virtual Reality)を実現したVR空間を複数のユーザで共有することで、VR空間を利用した会議、ゲーム、ショッピングなどが増加している。ユーザは、頭部にヘッドマウント型の表示装置(ヘッドマウントディスプレイ:HMD:Head Mounted Display)を装着し、VR空間を利用した会議などに参加する。このような表示装置としては、例えば、下記特許文献1に記載されたものがある。
特開2020-106587号公報
ユーザが仮想空間を利用した会議に参加した場合、仮想空間に設けられた表示スクリーンに各種の資料を表示する。ところが、表示装置の解像度が低いと、表示スクリーンに表示された資料の鮮明度が低くなり、ユーザは、表示スクリーンに表示された資料を読むことが困難となる。そのため、ユーザは、自分が使用しているパーソナルコンピュータのディスプレイを用いて資料を見たいという要望がある。
本発明は、上記に鑑みてなされたものであって、仮想空間の画像の少なくとも一部に現実空間の画像を最適表示させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る表示装置は、仮想空間の画像を表示する表示部と、現実空間にある対象物を検出する検出部と、前記検出部が検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更する透過制御部と、を備える。
本発明に係る表示方法は、表示部に仮想空間の画像を表示するステップと、現実空間にある対象物を検出するステップと、検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更するステップと、を含む。
本発明に係るプログラムは、表示部に仮想空間の画像を表示するステップと、現実空間にある対象物を検出するステップと、検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更するステップと、を表示装置として動作するコンピュータに実行させる。
本発明によれば、仮想空間の画像の少なくとも一部に現実空間の画像を最適表示させることができるという効果を奏する。
図1は、本実施形態に係る表示装置の具体的な構成を表す概略図である。 図2は、本実施形態に係る表示装置の構成を表すブロック図である。 図3は、本実施形態に係る表示方法を表すフローチャートである。 図4は、仮想空間の画像を表す概略図である。 図5は、現実空間の画像を表す概略図である。 図6は、仮想空間の画像に現実空間の画像を重ねた画像の概略図である。
以下に添付図面を参照して、本発明に係る表示装置、表示方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
<表示装置の具体的構成>
図1は、本実施形態に係る表示装置の具体的な構成を表す概略図である。本実施形態では、表示装置にヘッドマウント型の表示装置に適用して説明するが、この構成に限定されるものではない。
図1に示すように、表示装置10は、表示部11と、遮光部12とを有する。
表示部11は、外装20に支持される。表示部11は、表示パネル21と、ハーフミラー22と、コンバイナミラー23とを有する。表示パネル21は、外装20の上部に水平をなして配置される。表示パネル21は、平面形状をなし、例えば、液晶パネル、有機ELパネル、プラズマパネルなど、各種の表示パネルが適用可能である。表示パネル21は、下面に仮想空間画像Aの画像を表示可能な表示面21aを有する。表示面21aは、下方、つまり、外装20の内部に向けて表示光Laを照射可能である。
ハーフミラー22は、外装20の内部で、表示パネル21の下方に配置される。ハーフミラー22は、表示パネル21に対して所定の角度に傾斜して配置される。ハーフミラー22は、上面側に反射コート22aが設けられ、下面側に反射防止コート22bが設けられる。ハーフミラー22は、上方からの光を反射し、前方からの光を透過する。つまり、ハーフミラー22は、表示パネル21から照射された表示光Laをコンバイナミラー23に向けて反射する。また、ハーフミラー22は、コンバイナミラー23で反射された反射光Lbを後方に透過する。
コンバイナミラー23は、外装20の内部で、ハーフミラー22の前方に配置される。コンバイナミラー23は、外装20の前部に鉛直をなして配置される。コンバイナミラー23は、凹面形状をなす。コンバイナミラー23は、内面側に反射コート23aが設けられる。コンバイナミラー23は、表示パネル21から照射されてハーフミラー22で反射された表示光Laを反射し、反射光Lbとしてハーフミラー22に向けて照射する。
表示部11は、表示パネル21から照射された表示光Laをハーフミラー22により前方に反射させ、表示光Laをコンバイナミラー23により後方に反射させ、反射光Lbとしてハーフミラー22を透過させて使用者の眼球に導光させる。そのため、使用者は、表示部11により表示された仮想空間画像Aが、表示装置10の前方に位置するように視認する。
また、コンバイナミラー23は、現実空間画像Bを構成する実像光Lcを外部からハーフミラー22側に透過して取り込む。現実空間画像Bは、後述する対象物を含む画像である。表示部11は、現実空間画像Bを構成する実像光Lcがコンバイナミラー23およびハーフミラー22を透過して使用者の左右の眼球に到達させる。そのため、使用者は、現実空間画像Bに存在する対象物の画像を直接視認する。
このとき、仮想空間画像Aを生成する反射光Lb(表示光La)と、現実空間画像Bを生成する実像光Lcが使用者の眼球に到達する。そのため、使用者は、仮想空間画像Aに現実空間画像Bが重なった合成画像を視認する。
遮光部12は、遮光パネル25を有する。遮光パネル25は、外装20の前部に鉛直方向に沿って支持される。遮光パネル25は、コンバイナミラー23の外側に所定間隔を空けて配置される。遮光パネル25は、平面形状をなし、例えば、液晶パネル、有機ELパネル、プラズマパネルなど、各種の表示パネルが適用可能である。遮光パネル25は、マトリックス状に画素が設けられ、それぞれの画素は、透明から不透明に調整制御可能である。遮光パネル25は、全ての領域、または、指定する一部の透過率調整制御可能である。
遮光パネル25は、例えば、一方の面に透明な画素電極がアレイ状に配置され、他方の面に透明な対向電極が配置されて構成され、各電極に遮光制御信号に応じた電圧が印加される。遮光領域に対応する画素と、透過領域に対応する画素とで遮光制御信号の電圧が異なる。遮光制御信号に基づいて、遮光パネル25の各画素が現実空間画像Bを生成する実像光Lcを遮光または透過する。遮光パネル25は、遮光制御信号に応じて透過率を0%~100%の間で調整可能である。
遮光パネル25の透過率が0%であるとき、遮光パネル25により現実空間画像Bを生成する外部からの実像光Lcが遮断され、使用者は、現実空間画像Bだけを視認する。一方、遮光パネル25の透過率が100%であるとき、遮光パネル25により現実空間画像Bを生成する外部からの実像光Lcが全て透過され、使用者は、仮想空間画像Aに現実空間画像Bが重なった合成画像を視認する。また、遮光パネル25の透過率が0%~100%の間で調整されるとき、遮光パネル25により現実空間画像Bを生成する外部からの実像光Lcの透過率が調整され、使用者は、仮想空間画像Aに所定の透過率に調整された現実空間画像Bが重なった合成画像を視認する。
[表示装置の処理構成]
図2は、本実施形態に係る表示装置の構成を表すブロック図である。
図2に示すように、表示装置10は、仮想空間構成システム100との間で各種の情報の送受信を行う。仮想空間構成システム100は、VR空間の情報を生成する。仮想空間構成システム100は、例えば、サーバなどである。また、仮想空間構成システム100は、複数のユーザのパーソナルコンピュータで生成されたアバターの3次元モデルに基づいてVR空間の情報を生成する。仮想空間構成システム100は、生成したVR空間の情報を表示装置10へ出力する。
表示装置10は、仮想空間構成システム100から取得したVR空間の情報をもとに、ユーザ自身から見たVR空間の画像を表示する。
表示装置10は、前述した表示部11と、遮光部12に加えて、仮想空間画像取得部31と、画像処理部32と、カメラ41と、現実空間画像処理部42と、機器検出部43と、透過画像生成部44と、遮光制御部45と、画像判定部46とを有する。また、表示装置10は、ユーザ画像生成部51と、信号合成部52と、信号送信部53とを有する。
ここで、画像処理部32、現実空間画像処理部42、機器検出部43、透過画像生成部と、遮光制御部45、画像判定部46、ユーザ画像生成部51、信号合成部52は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、RAM(Random Access Memory)、ROM(Read Only Memory)の少なくとも一つによって構成される。
仮想空間画像取得部31は、仮想空間構成システム100に接続されると共に、画像処理部32に接続される。仮想空間画像取得部31は、例えば、通信モジュールであって、仮想空間構成システム100および画像処理部32とネットワーク(例えば、インターネットなど)を介して接続される。仮想空間画像取得部31は、仮想空間構成システム100からVR空間の情報を取得する。仮想空間画像取得部31は、仮想空間構成システム100から取得したVR空間の情報を画像処理部32に出力する。
画像処理部32は、VR空間の情報に基づいて表示画像データを生成し、表示画像データを表示信号として表示部11に出力する。表示部11は、画像処理部32から入力された表示信号に基づいて仮想空間画像Aを表示する。
カメラ41は、スラム(SLAM:Simultaneous Localization and Mapping)を行うためのカメラである。カメラ41は、RGB画像を撮影することで取得、撮影画像データとして出力する。カメラ41は、例えば、表示装置10としてのHMDに装着される。カメラ41は、例えば、単眼カメラ(広角カメラ、魚眼カメラ、全天球カメラ)、複眼カメラ(ステレオカメラ、マルチカメラ)、RGB-Dカメラ(深度カメラやToFカメラ)などが適用される。
カメラ41は、現実空間画像処理部42に接続される。現実空間画像処理部42は、カメラ41が撮影した撮影画像データを取得する。現実空間画像処理部42は、撮影画像データを用いてビジュアルスラム処理を実行し、現実空間のマッピングおよび自己位置・ヘッドトラッキング推定を行う。
また、カメラ41は、機器検出部43に接続される。機器検出部43は、カメラ41が撮影した撮影画像データを取得する。機器検出部43は、撮影画像データを用いて現実空間の画像に写っている各種機器を検出する。ここで、機器とは、パーソナルコンピュータのディスプレイ、キーボード、マウスなどのである。検出する機器は、予め設定されており、教示データが記憶される。機器検出部43は、例えば、機械学習により教示テータを用いた機器を特定する。
現実空間画像処理部42および機器検出部43は、透過画像生成部44に接続される。透過画像生成部44は、現実空間画像処理部42が処理した現実空間マッピング結果および自己位置・ヘッドトラッキング結果と、機器検出部43が検出した機器の検出結果が入力される。透過画像生成部44は、現実空間マッピング結果および自己位置・ヘッドトラッキング結果と、機器の検出結果に基づいて、透過画像データを生成する。透過画像データは、表示部11の一部または全部を透過して表示させる画像データである。
透過画像生成部44は、遮光制御部45に接続される。遮光制御部45は、透過画像生成部44が生成した透過画像データに基づいて、遮光部12の透過領域および透過率を設定する。遮光部12の透過領域および透過率は、現実空間画像Bが表示部11を透過して
使用者の左右の眼球に到達する面積および鮮明度である。透過領域および透過率は、予め設定されており、必要に応じて調整される。例えば、初期透過領域は、表示部11の下部の左右方向の中間位置で、表示部全体の20%の面積である。初期透過率は、70%である。遮光制御部45は、透過領域および透過率からなる透過画像データを透過信号として遮光部12に出力する。遮光部12は、遮光制御部45から入力された遮光信号に基づいて所定の領域を透過する。
画像判定部46は、画像処理部32と透過画像生成部44に接続される。画像判定部46は、画像処理部32が生成した表示画像データと、透過画像生成部44が生成した透過画像データが入力される。画像判定部46は、画像処理部32が生成して表示部11に表示される仮想空間画像Aの変化度合い(例えば、変化量、変化率)が予め設定された第1しきい値よりも少ないか否かを判定する。また、画像判定部46は、透過画像生成部44が生成して表示部11を透過する現実空間画像Bの変化度合い(例えば、変化量、変化率)が予め設定された第2しきい値よりも少ないか否かを判定する。ここで、仮想空間画像Aの変化度合いおよび現実空間画像Bの変化度合いとは、時間の経過により切替る2個のフレームレート間の画素数の差である。この場合、2個のフレームレート間の画素数の変化量、または、画素数の変化率で表される。なお、2個のフレームレート間は、連続するものであってもよく、所定のフレームレート数だけ離間していてもよい。
また、第1しきい値および第2しきい値は、適宜設定される。第1しきい値は、例えば、VR空間で開催される会議にて、表示スクリーンの映像が切替ったときに変動する仮想空間画像Aのフレームレート間の画素数の差などとする。また、第2しきい値は、例えば、現実空間にて、パーソナルコンピュータのディスプレイの映像が切替ったときに変動する現実空間画像Bのフレームレート間の画素数の差などとする。
画像判定部46は、遮光制御部45に接続される。画像判定部46は、仮想空間画像Aの変化度合いの判定結果および現実空間画像Bの変化度合い判定結果を遮光制御部45に出力する。すなわち、画像判定部46は、仮想空間画像Aの変化度合いが第1しきい値よりも少ないと判定したとき、遮光部12(表示部11)の透過領域を広く、または、遮光部12(表示部11)の透過率を高くする調整信号を遮光制御部45に出力する。なお、画像判定部46は、仮想空間画像Aの変化度合いが第1しきい値よりも少なく、且つ、現実空間画像Bの変化度合いが第2しきい値よりも多いと判定したとき、遮光部12(表示部11)の透過領域を広く、または、遮光部12(表示部11)の透過率を高くする調整信号を遮光制御部45に出力する。
遮光制御部45は、画像判定部46の判定結果に基づいて遮光部12の透過領域や遮光部12の透過率を変更する。本実施形態では、遮光制御部45により遮光部12の透過領域および透過率を変更することで、表示部11を透過して視認できる表示部11の領域の透過状態を変更している。但し、この構成に限定されるものではない。例えば、表示部11が遮光部12を含むように構成し、遮光制御部45が表示部11の透過領域や透過率を変更するようにしてもよい。
なお、画像判定部46は、仮想空間画像Aの変化度合いが第1しきい値よりも多かったり、現実空間画像Bの変化度合いが第2しきい値よりも少なかったりしたとき、遮光部12(表示部11)の透過領域を狭く、または、遮光部12(表示部11)の透過率を低くする調整信号を遮光制御部45に出力してもよい。
また、ユーザ画像生成部51は、ユーザのアバターデータ(三次元データ)を生成する。ユーザ画像生成部51は、信号合成部52に接続される。信号合成部52は、現実空間画像処理部42が処理した現実空間マッピング結果および自己位置・ヘッドトラッキング結果と、ユーザ画像生成部51が生成したユーザのアバターデータとを合成し、VR空間表示画像データを生成する。
信号合成部52は、信号送信部53に接続される。信号送信部53は、信号合成部が生成したVR空間表示画像データをストリーム信号として仮想空間構成システム100に送信する。
仮想空間構成システム100は、バーチャルコミュニケーション空間の所定の位置にVR空間表示画像データに基づいた3次元画像、つまり、ユーザのアバター画像を表示する。そして、上述した仮想空間画像取得部31は、仮想空間構成システム100からのVR空間の情報、つまり、ユーザの顔の向きから見える現実空間において見える仮想空間の画像信号をストリーム信号として取得する。
[表示方法]
図3は、本実施形態に係る表示方法を表すフローチャート、図4は、仮想空間の画像を表す概略図、図5は、現実空間の画像を表す概略図、図6は、仮想空間の画像に現実空間の画像を重ねた画像の概略図である。
図1から図3に示すように、ステップS11にて、仮想空間画像取得部31は、仮想空間構成システム100からVR空間の情報を取得し、画像処理部32に出力する。ステップS12にて、画像処理部32は、VR空間の情報に基づいて表示画像データを生成し、表示部11に出力する。ステップS13にて、表示部11は、画像処理部32から入力された表示信号に基づいて仮想空間画像Aを表示する。例えば、図4に示すように、仮想空間画像Aは、仮想空間での会議の画像であり、スクリーンに対して複数のユーザのアバターを表示する画像である。
ステップS14にて、カメラ41は、ユーザが見ている領域の画像を取得し、撮影画像データを現実空間画像処理部42および機器検出部43に出力する。ステップS15にて、現実空間画像処理部42は、カメラ41の撮影画像データを用いてビジュアルスラム処理を実行し、現実空間のマッピングおよび自己位置・ヘッドトラッキング推定を行い、透過画像生成部44に出力する。一方、ステップS16にて、機器検出部43は、カメラ41の撮影画像データを用いて各種機器(パーソナルコンピュータのディスプレイなど)を検出して特定し、透過画像生成部44に出力する。
ステップS17にて、透過画像生成部44は、現実空間画像処理部42が処理した処理画像と機器検出部43が検出した機器に基づいて、透過画像データを生成し、遮光制御部45に出力する。例えば、図5に示すように、現実空間画像Bは、ユーザの前の画像である。テーブルの上に載置されたパーソナルコンピュータのディスプレイ、キーボード、マウスなどを表示する画像である。ステップS18にて、遮光制御部45は、透過画像生成部44が生成した透過画像データに基づいて、遮光部12の透過領域および透過率を設定する。ステップS19にて、遮光部12は、所定の透過領域と所定の透過率が設定されることで、現実空間一部画像B1が遮光部12を通して表示部11に入力される。
遮光制御部45が遮光部12の透過領域を全域とした場合、ユーザは、表示部11の全体にわたって表示される仮想空間画像Aを見ることができると共に、表示部11の全域を透過して表示される現実空間一部画像B1を見ることができる。すなわち、ユーザは、仮想空間画像A(図4)の全領域を通して現実空間一部画像B1(図5)を見ることができる。また、遮光制御部45が遮光部12の透過領域を一部とした場合、ユーザは、表示部11の全体にわたって表示される仮想空間画像Aを見ることができると共に、表示部11の一部を透過して表示される現実空間一部画像B1を見ることができる。すなわち、図6に示すように、ユーザは、仮想空間での会議の画像である仮想空間画像Aの下部が一部切り取られ、切り取られた領域にパーソナルコンピュータのディスプレイとキーボードとマウスの画像である現実空間一部画像B1を見ることができる。
ステップS20にて、画像判定部46は、画像処理部32が生成した表示画像データと、透過画像生成部44が生成した透過画像データを取得する。ステップS21にて、画像判定部46は、仮想空間画像Aの変化度合いが予め設定された第1しきい値よりも少ないか否かを判定する。すなわち、画像判定部46は、仮想空間画像Aのフレームレート間の画素数の差Paが第1しきい値Ps1よりも少ないか否かを判定する。ここで、画像判定部46は、仮想空間画像Aのフレームレート間の画素数の差Paが第1しきい値P1よりも少ないと判定(Yes)すると、ステップS22に移行する。
ステップS22にて、画像判定部46は、透過画像生成部44が生成して遮光部12(表示部11)を透過する現実空間画像Bの変化度合いが第2しきい値よりも多いか否かを判定する。すなわち、画像判定部46は、現実空間画像Bのフレームレート間の画素数の差Pbが第2しきい値P2よりも多いか否かを判定する。ここで、画像判定部46は、現実空間画像Bのフレームレート間の画素数の差Pbが第2しきい値P2よりも多いと判定(Yes)すると、ステップS23にて、遮光部12(表示部11)の透過領域を広く、または、遮光部12(表示部11)の透過率を高くする調整信号を遮光制御部45に出力する。
一方、ステップS21にて、画像判定部46は、仮想空間画像Aのフレームレート間の画素数の差Paが第1しきい値P1よりも少なくない判定(No)すると、そのままルーチンを抜ける。また、ステップS22にて、画像判定部46は、現実空間画像Bのフレームレート間の画素数の差Pbが第2しきい値P2よりも多くないと判定(No)すると、そのままルーチンを抜ける。
ステップS24にて、遮光制御部45は、画像判定部46の判定結果に基づいて遮光部12(表示部11)の透過領域や遮光部12(表示部11)の透過率を変更する。
なお、ステップS21にて、画像判定部46が仮想空間画像Aのフレームレート間の画素数の差Paが第1しきい値P1よりも少なくない判定(No)したとき、または、ステップS22にて、画像判定部46が現実空間画像Bのフレームレート間の画素数の差Pbが第2しきい値P2よりも多くないと判定(No)したとき、遮光部12(表示部11)の透過領域を狭く、または、遮光部12(表示部11)の透過率を低くする調整信号を遮光制御部45に出力してもよい。
[実施形態の作用効果]
本実施形態の表示装置は、仮想空間画像Aを表示する表示部11と、現実空間画像Bにある対象物を検出する機器検出部(検出部)43と、機器検出部43が検出した対象物が表示部11を透過して視認できる表示部11の透過領域の透過状態を変更する遮光制御部(透過制御部)45とを備える。
そのため、表示部11に仮想空間画像Aを表示することができると共に、表示部11の一部領域または全部領域を透過して現実空間画像Bにある対象物を表示することができ、仮想空間の画像の少なくとも一部に現実空間の画像を最適表示させることができる。
本実施形態の表示装置は、遮光制御部45は、仮想空間画像Aの変化度合いが予め設定された第1しきい値よりも少ないとき、遮光部12(表示部11)の透過領域を広く、または、遮光部12(表示部11)の透過率を高くする。そのため、仮想空間画像Aの変化状況に応じて現実空間画像Bにある対象物を鮮明に表示することができる。
本実施形態の表示装置は、遮光制御部45は、仮想空間画像Aの変化度合いが第1しきい値よりも少なく、且つ、現実空間画像Bの変化度合いが予め設定された第2しきい値よりも多いとき、遮光部12(表示部11)の透過領域を広く、または、遮光部12(表示部11)の透過率を高くする。そのため、仮想空間画像Aの変化状況および現実空間画像Bの変化状況に応じて現実空間画像Bにある対象物を鮮明に表示することができる。
これまで本発明に係る表示装置について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよい。
図示した表示装置の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
表示装置の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
10表示装置
11 表示部
12 遮光部
21 表示パネル
22 ハーフミラー
23 コンバイナミラー
25 遮光パネル
31 仮想空間画像取得部
32 画像処理部
41 カメラ
42 現実空間画像処理部
43 機器検出部
44 透過画像生成部
45 遮光制御部(透過制御部)
46 画像判定部
51 ユーザ画像生成部
52 信号合成部
53 信号送信部
A 仮想空間画像
B 現実空間画像
La 表示光
Lb 反射光
Lc 実像光

Claims (5)

  1. 仮想空間の画像を表示する表示部と、
    現実空間にある対象物を検出する検出部と、
    前記検出部が検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更する透過制御部と、
    を備える表示装置。
  2. 前記透過制御部は、仮想空間の画像の変化度合いが予め設定された第1しきい値よりも少ないとき、前記領域を広く、または、前記表示部の透過率を高くする、
    請求項1に記載の表示装置。
  3. 前記透過制御部は、仮想空間の画像の変化度合いが前記第1しきい値よりも少なく、且つ、現実空間の画像の変化度合いが予め設定された第2しきい値よりも多いとき、前記領域を広く、または、前記表示部の透過率を高くする、
    請求項1または請求項2に記載の表示装置。
  4. 表示部に仮想空間の画像を表示するステップと、
    現実空間にある対象物を検出するステップと、
    検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更するステップと、
    を含む表示方法。
  5. 表示部に仮想空間の画像を表示するステップと、
    現実空間にある対象物を検出するステップと、
    検出した対象物が前記表示部を透過して視認できる前記表示部の領域の透過状態を変更するステップと、
    を表示装置として動作するコンピュータに実行させるプログラム。
JP2022038011A 2022-03-11 2022-03-11 表示装置、表示方法およびプログラム Pending JP2023132596A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022038011A JP2023132596A (ja) 2022-03-11 2022-03-11 表示装置、表示方法およびプログラム
PCT/JP2023/008959 WO2023171734A1 (ja) 2022-03-11 2023-03-09 表示装置、表示方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022038011A JP2023132596A (ja) 2022-03-11 2022-03-11 表示装置、表示方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023132596A true JP2023132596A (ja) 2023-09-22

Family

ID=87935278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038011A Pending JP2023132596A (ja) 2022-03-11 2022-03-11 表示装置、表示方法およびプログラム

Country Status (2)

Country Link
JP (1) JP2023132596A (ja)
WO (1) WO2023171734A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9147111B2 (en) * 2012-02-10 2015-09-29 Microsoft Technology Licensing, Llc Display with blocking image generation
WO2014188798A1 (ja) * 2013-05-21 2014-11-27 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2020106587A (ja) * 2018-12-26 2020-07-09 株式会社Jvcケンウッド ヘッドマウントディスプレイ、表示方法、及び表示システム

Also Published As

Publication number Publication date
WO2023171734A1 (ja) 2023-09-14

Similar Documents

Publication Publication Date Title
US8581966B2 (en) Tracking-enhanced three-dimensional display method and system
US10204452B2 (en) Apparatus and method for providing augmented reality-based realistic experience
US6005607A (en) Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US20100225743A1 (en) Three-Dimensional (3D) Imaging Based on MotionParallax
EP3323111B1 (en) Communication system
US20080246693A1 (en) System and method of enhanced virtual reality
KR100656342B1 (ko) 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
US20040223218A1 (en) Visualization of three dimensional images and multi aspect imaging
US20180246331A1 (en) Helmet-mounted display, visual field calibration method thereof, and mixed reality display system
WO2008132724A1 (en) A method and apparatus for three dimensional interaction with autosteroscopic displays
CN114730094A (zh) 具有人工现实内容的变焦显示的人工现实系统
CN112041788B (zh) 使用眼睛注视来选择文本输入字段
KR20120075829A (ko) 적응적 부화소 렌더링 장치 및 방법
WO2018202943A2 (en) Display apparatus and method using image renderers and optical combiners
CN111226187A (zh) 通过镜子与用户交互的系统和方法
US20230156176A1 (en) Head mounted display apparatus
CN115529835A (zh) 用于新颖视图合成的神经混合
KR20070016712A (ko) 입체영상 표시장치 및 그의 구동방법
WO2023171734A1 (ja) 表示装置、表示方法およびプログラム
WO2017191702A1 (ja) 画像処理装置
KR20070010306A (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
CN114020150A (zh) 图像显示方法、装置、电子设备及介质
JP2018191079A (ja) 多焦点視覚出力方法、多焦点視覚出力装置
EP3961572A1 (en) Image rendering system and method
WO2024071208A1 (ja) 表示装置、表示方法及びプログラム