JP2023124678A - 画像処理装置、画像処理方法、及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法、及び画像処理プログラム Download PDF

Info

Publication number
JP2023124678A
JP2023124678A JP2022028599A JP2022028599A JP2023124678A JP 2023124678 A JP2023124678 A JP 2023124678A JP 2022028599 A JP2022028599 A JP 2022028599A JP 2022028599 A JP2022028599 A JP 2022028599A JP 2023124678 A JP2023124678 A JP 2023124678A
Authority
JP
Japan
Prior art keywords
image
image processing
transmissive display
processor
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022028599A
Other languages
English (en)
Inventor
毅 神谷
Takeshi Kamiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2022028599A priority Critical patent/JP2023124678A/ja
Priority to US18/173,341 priority patent/US20230276020A1/en
Priority to CN202310160521.2A priority patent/CN116661143A/zh
Priority to EP23158774.2A priority patent/EP4235393A1/en
Publication of JP2023124678A publication Critical patent/JP2023124678A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/026Control of mixing and/or overlay of colours in general
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1407General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • G09G2340/125Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels wherein one of the images is motion video

Abstract

【課題】透過ディスプレイでの視認状態を精度良く再現することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供する。【解決手段】仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、前記透過ディスプレイを介した前記仮想像の透過状態を模擬した画像を生成する合成処理を実行するプロセッサを備えた画像処理装置。【選択図】図2

Description

本開示は、画像処理装置、画像処理方法、及び画像処理プログラムに関する。
従来、現実の世界に、画像を重ね合わせた状態で表示する、拡張現実(AR:Augmented Reality)機器等のディスプレイが知られている。拡張現実機器で表示した表示状態を他の表示装置で再現する技術が知られている。
例えば、特許文献1には、拡張現実(AR:Augmented Reality)である虚像を生成し、表示部に表示させる表示システムにおいて、カメラによって撮影された画像と表示させた虚像とを記録しておき、ユーザの指定に応じて画像及び虚像を他の表示装置に表示させる技術が知られている。
特開2021-51764号公報
特許文献1に記載の技術によれば、透過型ディスプレイに表示させた虚像を非透過型ディスプレイで再現する場合、再現具合が十分とは言えない場合があった。
本開示は、以上の事情を鑑みて成されたものであり、透過ディスプレイでの視認状態を精度良く再現することができる画像処理装置、画像処理方法、及び画像処理プログラムを提供することを目的とする。
上記目的を達成するために、本開示の第1の態様の画像処理装置は、仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、透過ディスプレイを介した仮想像の透過状態を模擬した画像を生成する合成処理を実行するプロセッサを備える。
本開示の第2の態様の画像処理装置は、第1の態様の画像処理装置において、透過ディスプレイは、光を透過させることにより観察者に現実像を提供する透過部と、透過部に情報を投影し仮想像を生成する投影部とを備え、プロセッサは、透過ディスプレイを使用する観察者が視認する視認像であって、現実像の視野に情報が挿入された視認像を再現し、透過部に投影される情報を表す第1画像と、第1画像の背景となる第2画像とを重ね合わせることにより、合成処理を実行する。
本開示の第3の態様の画像処理装置は、第1の態様の画像処理装置において、プロセッサは、第1画像及び第2画像の少なくとも一方の輝度の次元のデータに画像処理を行い重ね合わせる。
本開示の第4の態様の画像処理装置は、第3の態様の画像処理装置において、投影部が出力する第1画像の輝度a1と、人間が感じる第1画像の輝度として予め設定された輝度a2との比率をaとし、第2画像の輝度b1と、透過部を通じて人間によって視認され第2画像の輝度として予め設定された輝度b2との比率をbとし、プロセッサは、透過ディスプレイの機種固有のa/bを用いて、第1画像の透過度を決定する。
本開示の第5の態様の画像処理装置は、第4の態様の画像処理装置において、プロセッサは、a/bに加えて、透過ディスプレイにおけるa/bとは機種の特性を示す別のパラメータを用いて合成処理を行う。
本開示の第6の態様の画像処理装置は、第5の態様の画像処理装置において、機種の特性を示す別のパラメータは、収差、フレア、迷光、及び散乱のうちの少なくとも一つのパラメータである。
本開示の第7の態様の画像処理装置は、第4の態様から第6の態様のいずれか1態様の画像処理装置において、プロセッサは、a/bに基づいて、第1画像に対して空間的な間引き処理を行う。
本開示の第8の態様の画像処理装置は、第4の態様から第7の態様のいずれか1態様の画像処理装置において、第1画像の複数のフレームを、間隔を開けて表示する場合において、プロセッサは、a/bに基づいて、1つのフレームの表示時間を決定する。
本開示の第9の態様の画像処理装置は、第4の態様から第8の態様のいずれか1態様の画像処理装置において、a、及びbは、透過ディスプレイの表示面内における空間的な分布を有する。
本開示の第10の態様の画像処理装置は、第4の態様から第9の態様のいずれか1態様の画像処理装置において、透過ディスプレイに、現実像を撮影するカメラが設けられている場合には、第2画像は、カメラによって撮影される画像であり、b1は、カメラによって撮影される第2画像の輝度である。
本開示の第11の態様の画像処理装置は、第1の態様から第9の態様のいずれか1態様の画像処理装置において、透過ディスプレイに、現実像を撮影するカメラが設けられているか否かに関わらず、第2画像は、透過ディスプレイに設けられたカメラとは別のカメラで撮影された画像であるか、あるいは、CG(Computer Graphics)によって作成された画像である。
本開示の第12の態様の画像処理装置は、第1の態様から第11の態様のいずれか1態様の画像処理装置において、第2画像は動画像である。
本開示の第13の態様の画像処理装置は、第1の態様から第12の態様のいずれか1態様の画像処理装置において、プロセッサは、現実像に含まれる被写体の現実空間における位置を空間認識センサにより検出した検出結果を基準として、第1画像と第2画像とを重ね合わせる。
上記目的を達成するために、本開示の第14の態様の画像処理方法は、プロセッサにより、仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、透過ディスプレイを介した仮想像の透過状態を模擬した画像を生成する合成処理を実行する方法である。
本開示の第15の態様の画像処理方法は、第14の態様の画像処理方法において、透過ディスプレイは、光を透過させることにより観察者に現実像を提供する透過部と、透過部に情報を投影し仮想像を生成する投影部とを備え、プロセッサは、透過ディスプレイを使用する観察者が視認する視認像であって、現実像の視野に情報が挿入された視認像を再現し、透過部に投影される情報を表す第1画像と、第1画像の背景となる第2画像とを重ね合わせることにより、合成処理を実行する。
上記目的を達成するために、本開示の第16の態様の画像処理プログラムは、仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、透過ディスプレイを介した仮想像の透過状態を模擬した画像を生成する合成処理を実行させるためのものである。
本開示の第17の態様の画像処理プログラムは、第16の態様の画像処理プログラムにおいて、透過ディスプレイは、光を透過させることにより観察者に現実像を提供する透過部と、透過部に情報を投影し仮想像を生成する投影部とを備え、プロセッサは、透過ディスプレイを使用する観察者が視認する視認像であって、現実像の視野に情報が挿入された視認像を再現し、透過部に投影される情報を表す第1画像と、第1画像の背景となる第2画像とを重ね合わせることにより、合成処理を実行させるためのものである。
本開示によれば、透過ディスプレイでの視認状態を精度良く再現することができる。
実施形態の画像表示システムの構成の一例を示す構成図である。 眼鏡型情報表示装置の構成の一例を示す構成図である。 実施形態のARグラスの一例を示す斜視図である。 実施形態のスマートフォンの構成の一例を示すブロック図である。 実施形態のスマートフォンのハードウェア構成の一例を示すブロック図である。 実施形態の画像処理装置のハードウェア構成の一例を示すブロック図である。 ARグラスの特性を示すパラメータについて説明するための説明図である。 ARグラスのユーザにより視認される視認像を説明するための図である。 合成画像の画像データの生成について、従来の生成方法を説明するための図である。 非透過ディスプレイで撮影画像及び投影画像を表示させた例を説明するための図である。 合成画像の画像データの生成について、本実施形態の生成方法を説明するための図である。 本実施形態の合成画像を説明するための図である。 実施形態の画像処理装置で実行される画像処理の一例を示すフローチャートである。 合成画像の画像データの生成について、変形例1の生成方法を説明するための図である。 合成画像の画像データの生成について、変形例2の生成方法を説明するための図である。 合成画像の画像データの生成について、変形例2の生成方法を説明するための図である。
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
図1を参照して、本実施形態の画像表示システム1の構成を説明する。図1に示すように、本実施形態の画像表示システム1は、眼鏡型情報表示装置2、画像処理装置14、スマートフォン16、及びプリンタ18を備える。眼鏡型情報表示装置2、画像処理装置14、スマートフォン16、及びプリンタ18は、ネットワーク19を介して有線通信または無線通信により接続されている。
眼鏡型情報表示装置2は、ARグラス10により現実像を視認するユーザに、スマートフォン12から提供した投影画像を投影することにより、ユーザは、現実像の視野に仮想像が重畳された状態を視認することができる。
画像処理装置14は、仮想像の基となる投影画像と、現実像を表す撮影画像とから、眼鏡型情報表示装置2の機種の特性を示すパラメータに基づいて、眼鏡型情報表示装置2を介した仮想像の透過状態を模擬した画像を生成する。以下、眼鏡型情報表示装置2を介した仮想像の透過状態を模擬した画像を合成画像という。
スマートフォン16は、画像処理装置14により生成された合成画像を取得することで、眼鏡型情報表示装置2のARグラス10によりユーザが視認した視認像であって、現実像及び仮想像が合成された視認像をディスプレイ16Aで表示することができる。また、プリンタ18は、画像処理装置14により生成された合成画像を取得することで、眼鏡型情報表示装置2のARグラス10によりユーザが視認した視認像であって、現実像及び仮想像が合成された視認像を印刷することができる。
図2を参照して、本実施形態の眼鏡型情報表示装置2の構成を説明する。図2に示すように、本実施形態の眼鏡型情報表示装置2は、AR(Augmented Reality)グラス10及びスマートフォン12を備える。
ARグラス10は、OLED(Organic Light Emitting Diode)26から投影された投影画像を現実像に重畳させた状態でユーザによる視認を可能にする装置である。図3には、本実施形態のARグラス10の一例の斜視図が示されている。図2及び図3に示すように、ARグラス10は、一対の左眼用透過部20L及び右眼用透過部20Rと、OLED26と、カメラ28と、空間認識センサ29と、を備える。本実施形態の右眼用透過部20Rが、本開示の透過部の一例である。
OLED26は、右眼用透過部20Rを通じてユーザによって視認される現実像の視野内に重畳的に情報を挿入するために、右眼用透過部20Rに情報を表す画像(投影画像)を投影する。本実施形態のOLED26が本開示の投影部の一例であり、OLED26が投影する投影画像が、本開示の第1画像の一例である。
右眼用透過部20Rは、右眼用レンズ22R及び導光板24を含む。導光板24の一端には、OLED26から投影された投影画像に応じた光が入射される。導光板24の中を伝播した光は、出射部(図示省略)において向きを変えて、ユーザの眼の方向に出射される。導光板24から出射された投影画像に応じた光は、右眼用レンズ22Rを透過し、ユーザの右眼に導かれる。また、ユーザは、右眼用レンズ22Rを通した現実の世界を現実像として右目で視認する。
そのため、OLED26から投影画像が投影されている間は、ユーザの右眼によって視認される視認像は、右眼用レンズ22Rを通した現実の世界を表す現実像と、導光板24に投影された投影画像とが重畳された状態となる。また、OLED26から投影画像が投影されていない間は、ユーザによって視認される視認像は、右眼用レンズ22R及び導光板24を通した現実の世界を表す現実像となる。
カメラ28は、ユーザが視認する現実の世界を撮影するカメラである。カメラ28としては、例えば、CMOS(Complementary Metal Oxide Semiconductor)カメラ等のデジタル式カメラが挙げられ、カラー画像の撮影が可能であることが好ましい。カメラ28により撮影された撮影画像の画像データは、スマートフォン12に出力される。本実施形態のカメラ28が撮影する現実像を表す撮影画像が、本開示の第2画像の一例である。
空間認識センサ29は、ユーザが視認する現実世界に存在する被写体までの距離を検出するセンサである。空間認識センサ29としては、例えば、単眼カメラ、ステレオカメラ、及びTOFカメラ等が挙げられる。空間認識センサ29の検出結果は、スマートフォン12に出力される。なお、空間認識センサ29の検出結果は、現実世界に存在する被写体の位置を表すデータであるため、以下、「位置データ」という。
なお、OLED26により投影画像の投影中は、カメラ28により撮影画像を撮影し、空間認識センサ29により位置データを取得する。撮影画像の画像データ及び空間認識センサ29の位置データは、投影された投影画像の画像データに対応付けて、スマートフォン12に記憶される。
また、左眼用透過部20Lは、左眼用レンズ22Lを含む。ユーザは、左眼用レンズ22Lを通した現実の世界を左眼で視認する。
一方、スマートフォン12は、プロセッサ40を備える。本実施形態のプロセッサ40は、OLED26から導光板24に投影画像を投影させる制御を、OLED26に対して行う。また、プロセッサ40は、OLED26が導光板24に投影画像を投影している最中に、ユーザが視認している現実の世界を撮影させる制御を、カメラ28に対して行い、また、ユーザが視認している現実の世界に存在する被写体までの距離を検出させる制御を、空間認識センサ29に対して行う。
図4には、スマートフォン12における、投影画像の投影に係わる機能に関する構成の一例を表したブロック図が示されている。図4に示すように、スマートフォン12は、プロセッサ40、メモリ42、I/F(InterFace)部43、記憶部44、ディスプレイ46、及び入力装置48を備える。プロセッサ40、メモリ42、I/F部43、記憶部44、ディスプレイ46、及び入力装置48は、システムバスやコントロールバス等のバス49を介して相互に各種情報の授受が可能に接続されている。
プロセッサ40は、記憶部44に記憶された表示制御プログラム45を含む各種のプログラムをメモリ42へ読み出し、読み出したプログラムにしたがった処理を実行する。これにより、プロセッサ40は、OLED26による投影画像の投影の制御を行う。メモリ42は、プロセッサ40が処理を実行するためのワークメモリである。
記憶部44には、表示制御プログラム45、及びOLED26から投影する投影画像の画像データ(図示省略)や、その他の各種情報等が記憶される。記憶部44の具体例としては、HDD(Hard Disk Drive)やSSD(Solid State Drive)等が挙げられる。
I/F部43は、無線通信または有線通信により、OLED26、カメラ28、空間認識センサ29、及び画像処理装置14各々との間で各種情報の通信を行う。ディスプレイ46及び入力装置48はユーザインタフェースとして機能する。ディスプレイ46は、ユーザに対して、投影画像の投影に関する各種の情報を提供する。ディスプレイ46は特に限定されるものではなく、液晶モニタ及びLED(Light Emitting Diode)モニタ等が挙げられる。また、入力装置48は、投影画像の投影に関する各種の指示を入力するためにユーザによって操作される。入力装置48は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、スマートフォン12では、ディスプレイ46と入力装置48とを一体化したタッチパネルディスプレイを採用している。
一方、画像処理装置14は、上述したように、眼鏡型情報表示装置2を介した仮想像の透過状態を模擬した合成画像を生成する機能を有する。
図5には、画像処理装置14における、合成画像の生成に係わる機能に関する構成の一例を表したブロック図が示されている。図5に示すように、画像処理装置14は、プロセッサ50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58を備える。プロセッサ50、メモリ52、I/F部53、記憶部54、ディスプレイ56、及び入力装置58は、システムバスやコントロールバス等のバス59を介して相互に各種情報の授受が可能に接続されている。
プロセッサ50は、記憶部54に記憶された画像処理プログラム55を含む各種のプログラムをメモリ52へ読み出し、読み出したプログラムにしたがった処理を実行する。これにより、プロセッサ50は、合成画像を生成する処理を行う。メモリ52は、プロセッサ50が処理を実行するためのワークメモリである。
記憶部54には、画像処理プログラム55、及び眼鏡型情報表示装置2においてOLED26により投影された投影画像の画像データ及びカメラ28により撮影された撮影画像の画像データや、その他の各種情報等が記憶される。記憶部54の具体例としては、HDDやSSD等が挙げられる。
I/F部53は、無線通信または有線通信により、スマートフォン12、スマートフォン16、及びプリンタ18各々との間で各種情報の通信を行う。ディスプレイ56及び入力装置58はユーザインタフェースとして機能する。ディスプレイ56は、ユーザに対して、合成画像の生成に関する各種の情報を提供する。ディスプレイ56は特に限定されるものではなく、液晶モニタ及びLEDモニタ等が挙げられる。また、入力装置58は、合成画像の生成に関する各種の指示を入力するためにユーザによって操作される。入力装置58は特に限定されるものではなく、例えば、キーボード、タッチペン、及びマウス等が挙げられる。なお、ディスプレイ56と入力装置58とを一体化したタッチパネルディスプレイを採用してもよい。
図6には、本実施形態の画像処理装置14の機能に係る構成の一例を表す機能ブロック図が示されている。図6に示すように画像処理装置14は、画像取得部60、特性パラメータ取得部62、合成部64、及び画像出力部66を備える。一例として本実施形態の画像処理装置14は、プロセッサ50が記憶部54に記憶されている画像処理プログラム55を実行することにより、プロセッサ50が画像取得部60、特性パラメータ取得部62、合成部64、及び画像出力部66として機能する。
画像取得部60は、スマートフォン12から、OLED26が投影する投影画像の画像データを取得する機能を有する。一例として、本実施形態の画像処理装置14は所定のタイミングで、スマートフォン12から投影画像の画像データと、当該投影画像の投影中にカメラ28により撮影した撮影画像の画像データと、位置データとを対応付けて取得し、取得した投影画像の画像データ、撮影画像の画像データ、及び位置データを記憶部54に記憶する。そのため、画像取得部60は、任意のタイミングで投影画像の画像データ及び撮影画像の画像データをI/F部53を介して、スマートフォン12から取得する。また、画像取得部60は、合成画像の生成を行う場合、記憶部54から投影画像の画像データ、撮影画像の画像データ、及び位置データを取得する。画像取得部60は、合成画像の生成を行う場合、取得した投影画像の画像データ、撮影画像の画像データ、及び位置データを合成部64に出力する。
特性パラメータ取得部62は、スマートフォン12から、眼鏡型情報表示装置2の特性を示すパラメータ(以下、「特性パラメータ」という)を取得する機能を有する。本実施形態では特性パラメータの一例として、図7に示すように、OLED26が投影する投影画像の輝度a1(cd/m)と、ユーザが感じる投影画像の輝度として予め設定された輝度a2(cd/m)と、カメラ28が撮影する撮影画像の輝度b1(cd/m)と、導光板24を通じて人間によって視認される投影画像の輝度として予め設定された輝度b2(cd/m)と、を取得する。特性パラメータ取得部62は、取得した特性パラメータを、合成部64に出力する。
なお、具体的な、輝度a1、a2、b1、b2の値は、各部材の透過率や反射率に基づいて設計的に導出したり、試作品を測定して得られた値を設定したり、ここのARグラス10等を測定して得られた値を設定したりすればよい。
また、特性パラメータ取得部62が特性パラメータを取得する方法は、特に限定されない。例えば、眼鏡型情報表示装置2のスマートフォン12が特性パラメータ(輝度a1、a2、b1、b2)を記憶しており、投影画像の画像データに対応付けられている場合、特性パラメータ取得部62は、画像取得部60が取得した投影画像に対応付けられている特性パラメータを取得する形態としてもよい。また例えば、ARグラス10の機種を表す情報が投影画像の画像データに対応付けられている場合、特性パラメータ取得部62は、投影画像の画像データに対応付けられているARグラス10の機種を表す情報を取得し、取得した機種を表す情報に対応する特性パラメータを、例えば、ネットワーク19を介して外部の装置等から取得する形態としてもよい。
合成部64は、投影画像及び撮影画像の少なくとも一方の輝度の次元のデータに画像処理を行い重ね合わせることにより、合成画像を生成する機能を有する。一例として、本実施形態の合成部64は、特性パラメータに基づいて、撮影画像に投影画像を合成した合成画像を生成する機能を有する。合成画像は、ARグラス10を使用するユーザの現実像の視野に投影画像が挿入された視認像が再現された画像である。すなわち、本実施形態の合成部64により生成される合成画像は、視認像における投影画像の見え具合、換言すると仮想像の透過状態を模擬した画像である。
ここで、仮想像の透過状態である投影画像の見え具合について説明する。
図8には、ARグラス10によりユーザが視認した視認像74の一例が示されている。ARグラス10が透過ディスプレイであるため、OLED26により投影画像が投影されたことにより導光板24を介して視認される仮想像72は、現実像70が透過した状態で視認される。
この状態において従来では、図9に示すように、カメラ28により撮影された撮影画像76の画像データに、OLED26により投影された投影画像78の画像データをそのまま合成して合成画像の画像データを生成する。図9のようにして生成された従来の合成画像79では、図10に示すように、撮影画像76に対する投影画像78の見え方が、現実像70に対する仮想像72の見え方と異なってしまう場合がある。特に、スマートフォン16のディスプレイ16A等の非透過ディスプレイに表示した場合や、プリンタ18により印刷した場合等、図9に示したように、撮影画像76の画像データに、投影画像78の画像データをそのまま合成すると合成画像79が生成されてしまう。この場合、投影画像78と重畳する撮影画像76が透けて見えることがない。また、透過ディスプレイに表示する場合であっても、ARグラス10における透過ディスプレイと、投影画像78及び撮影画像76を表示する透過ディスプレイとで機種が異なる場合、特性を示すパラメータが異なると、投影画像78の透過状態が、仮想像72の透過状態と異なる場合がある。
そこで、本実施形態の画像処理装置14は、ARグラス10を介した仮想像72の透過状態を模擬した、撮影画像76及び投影画像78を合成した合成画像を生成する。
本実施形態の合成部64は、図11に示すように、特性パラメータに基づいて、投影画像の画像データを間引いて、ARグラス10によりユーザが視認する仮想像の透過状態を模擬した間引き画像を生成する。具体的には、眼鏡型情報表示装置2の機種固有の輝度比率a/bに基づいて、投影画像の画像データを間引きする。こここでaは、OLED26が出力した投影画像の輝度a1と、ユーザが感じる投影画像の輝度a2の比率であり、下記(1)式で表される。また、bは、カメラ28が撮影する撮影画像の輝度b1と、ユーザが感じる現実像の輝度b2の比率であり、下記(2)式で表される。なお、a、bは、ARグラス10の表示面内における空間的な分布を有していてもよい。
a=a2/a1 ・・・(1)
b=b2/b1 ・・・(2)
また、合成部64は、図11に示すように、間引き画像の画像データと撮影画像の画像データとを位置データに基づいて位置合わせを行い、合成することで合成画像の画像データを生成する。
図12には、合成部64により合成された合成画像80の一例が示されている。図12に示すように、撮影画像76に間引き画像73が重畳されているため、撮影画像76に対する間引き画像73の見え方が、現実像70に対する仮想像72の見え方(図8参照)と同様になる。
画像出力部66は、合成部64が生成した合成画像を表す画像データ、任意の装置に出力する機能を有する。本実施形態の画像出力部66は、合成画像の画像データをスマートフォン16及びプリンタ18の少なくとも一方に出力する。
次に、本実施形態の画像処理装置14の作用を説明する。図13には、本実施形態の画像処理装置14のプロセッサ50による画像処理の流れの一例を表したフローチャートが示されている。一例として本実施形態の画像処理装置14では、スマートフォン16またはプリンタ18から合成画像の表示の指示を受けた場合、プロセッサ50が、記憶部54に記憶されている画像処理プログラム55を実行することにより、図13に一例を示した画像処理を実行する。
図13のステップS100で画像取得部60は、上述したように、投影画像の画像データと、対応付けられている撮影画像の画像データ及び位置データを記憶部54から取得する。
次のステップS102で特性パラメータ取得部62は、上述したように、上記ステップS100で取得した投影画像の投影を行った眼鏡型情報表示装置2の特性パラメータを取得する。
次のステップS104で合成部64は、上述したように、上記(1)式及び(2)式を用いて、眼鏡型情報表示装置2の機種固有の輝度比率a/bを導出する。
次のステップS106で合成部64は、上記ステップS104で導出したa/bに基づいて、投影画像の間引いて間引き画像を生成する。具体的には、a/bに基づいて、N画素毎に、1画素の割合で輝度値を0にした間引き画像を生成する。Nは0以上であり、a/bに応じて予め定められている。なお、本実施形態と異なり、輝度値を0にするのに代えて、元の値より低減する形態としてもよい。この場合、例えば、a/bに応じてどの程度低減するかを予め定めておけばよい。なお、間引き画像に対して、階調変換等の処理を行うことが好ましい。
次のステップS108で合成部64は、上記ステップS106で生成した間引き画像と、上記ステップS100で取得した撮影画像とを位置データに基づいて位置合わせをして合成し、合成画像を生成する。具体的には、位置データに基づいて、現実空間の被写体の空間位置を基準として、撮影画像に対して、間引き画像を合成する。なお、投影画像と撮影画像とを合成する合成方法は得に限定されず、例えば、アルファチャンネルを用いた画像合成(アルファブレンディング)技術等を適用すればよい。アルファブレンディングに関する技術としては、例えば、特開2019-185365号に記載されている技術が上げられる。
次のステップS110で画像出力部66は、上記ステップS108で生成した合成画像の画像データを、合成画像の表示の指示が行われたスマートフォン16またはプリンタ18に出力する。ステップS110の処理が終了すると、図13に示した画像処理が終了する。
[変形例1]
合成部64が合成画像を生成する方法は、上記形態に限定されない。上記形態では、合成部64が、a/bに基づいて、間引き画像を生成する形態について説明したが本形態に限定されない。例えば、図14に示したように、投影画像の画像データと撮影画像の画像データとを位置データに基づいて位置合わせを行い、a/bに応じたアルファ値を用いたアルファブレンディングにより合成し、合成画像の画像データを生成する形態としてもよい。この場合、a/bの値と、アルファ値との対応関係を予め定めておけばよい。なお、一般的にアルファ値が0~255の範囲で表される場合、アルファ値が1の場合が、完全に透明な状態を示し、アルファ値が255の場合が、完全に不透明な状態を示している。
[変形例2]
上記形態では、仮想像の透過状態を模擬した画像として、実際にユーザが視認した視認像を模擬した合成画像を生成する形態について説明したが、仮想像の透過状態が模擬されていればよく、生成する画像は特に限定されない。例えば、ある特定の現実世界をARグラス10によりユーザが視認している場合、視認像がどのようになるかをシミュレーションするためにその現実世界を撮影した撮影画像の画像データと、投影画像の画像データとを上述のように合成し、仮想像の透過状態を模擬した合成画像の画像データを生成する形態としてもよい。また、図15に示すように、CG(Computer Graphics)により生成されたCG画像の画像データと、投影画像の画像データとを上述のように合成し、仮想像の透過状態を模擬した合成画像の画像データを生成する形態としてもよい。なお、この場合、投影画像の画像データと、CG画像の画像データとの位置合わせは、合成画像を生成する操作者が適宜調整する形態としてもよい。また、特性パラメータであるa/bも、想定されるARグラス10に応じて適宜、設定すればよい。なお、投影画像の画像データも、CGにより仮に生成した画像であってもよい。
このように、本変形例によれば、実際にユーザが視認した視認像に限らず、ARグラス10を使用した場合にユーザによって視認される視認像を表す合成画像を生成することができる。
[変形例3]
投影画像は、複数のフレームを有し、複数のフレームの各々を、間隔を開けて表示する形態であってもよく、例えば、動画像であってもよい。この場合、図16に示すように、合成部64、投影画像の1つのフレームの表示時間をa/bに基づいて決定する。表示時間に応じて、撮影画像の画像データと投影画像の画像データとを合成して合成画像の合成画像データを生成する。なお、表示時間とa/bとの対応関係は、予め定めておけばよい。
以上説明したように、本実施形態の画像処理装置14は、仮想像の基となる投影画像と、現実像を表す撮影画像とから、眼鏡型情報表示装置2の機種の特性を示すパラメータに基づいて、眼鏡型情報表示装置2を介した仮想像の透過状態を模擬した画像を生成する合成処理を実行する。
このように、本実施形態の画像処理装置14によれば、眼鏡型情報表示装置2の機種の特性パラメータを用いるため、適切に、仮想像の透過状態を模擬することができる。従って本実施形態の画像処理装置14によれば、透過ディスプレイでの視認状態を精度良く再現することができる
なお、上記形態では、合成部64は、特性パラメータとしてa/bに基づいて合成画像を生成する形態について説明したが、特性パラメータとして、a/bに加えて、さらに機種の特性を示す別のパラメータも用いてもよい。別のパラメータとしては、例えば、収差、フレア、迷光、及び散乱のうちの少なくとも一つが挙げられる。いずれのパラメータを用いるかは、合成画像における仮想像の透過状態の模擬精度、及び眼鏡型情報表示装置2の特性等に応じて適宜、定めることができる。
なお、上記形態では、ユーザの右眼で投影画像を視認する形態について説明したが、本形態に限定されず、ユーザの左眼で投影画像を視認する形態であってもよい。この場合、左眼用透過部20Lが本開示の透過部の一例である。
なお、撮影画像は静止画像であってもよいし、動画像であってもよい。
また、合成部64は、投影画像と撮影画像とを合成する際の位置合わせとして、空間認識センサ29の検出結果(位置データ)を用いる形態に限定されない。例えば、撮影画像上の予め定められた位置に投影画像を重畳する形態としてもよい。
また、上記各形態では、画像処理装置14が、画像取得部60、特性パラメータ取得部62、合成部64、及び画像出力部66を備える形態について説明したが、これらの機能部の一部または全部を、スマートフォン12、スマートフォン16、及びプリンタ18の少なくとも1つが備える形態としてもよい。
また、上記形態において、例えば、画像取得部60、特性パラメータ取得部62、合成部64、及び画像出力部66といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記各形態では、画像処理プログラム55が記憶部54に予め記憶(インストール)されている態様を説明したが、これに限定されない。画像処理プログラム55は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、画像処理プログラム55は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
1 画像表示システム
2 眼鏡型情報表示装置
10 ARグラス
12 スマートフォン
14 画像処理装置
16 スマートフォン、16A ディスプレイ
18 プリンタ
19 ネットワーク
20L 左眼用透過部、20R 右眼用透過部
22L 左眼用レンズ、22R 右眼用レンズ
24 導光板
26 OLED
28 カメラ
29 空間認識センサ
40、50 プロセッサ
42、52 メモリ
43、53 I/F部
44、54 記憶部
45 表示制御プログラム
46、56 ディスプレイ
48、58 入力装置
49、59 バス
55 画像処理プログラム
60 画像取得部
62 特性パラメータ取得部
64 合成部
66 画像出力部
70 現実像
72 仮想像
73 間引き画像
74 視認像
76 撮影画像
78 投影画像
79、80 合成画像

Claims (17)

  1. 仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、前記透過ディスプレイを介した前記仮想像の透過状態を模擬した画像を生成する合成処理を実行するプロセッサを備えた
    画像処理装置。
  2. 前記透過ディスプレイは、光を透過させることにより観察者に前記現実像を提供する透過部と、前記透過部に情報を投影し前記仮想像を生成する投影部とを備え、
    前記プロセッサは、前記透過ディスプレイを使用する観察者が視認する視認像であって、前記現実像の視野に前記情報が挿入された視認像を再現し、
    前記透過部に投影される情報を表す前記第1画像と、前記第1画像の背景となる前記第2画像とを重ね合わせることにより、前記合成処理を実行する
    請求項1に記載の画像処理装置。
  3. 前記プロセッサは、前記第1画像及び前記第2画像の少なくとも一方の輝度の次元のデータに画像処理を行い重ね合わせる
    請求項1に記載の画像処理装置。
  4. 投影部が出力する第1画像の輝度a1と、人間が感じる第1画像の輝度として予め設定された輝度a2との比率をaとし、
    第2画像の輝度b1と、透過部を通じて人間によって視認され第2画像の輝度として予め設定された輝度b2との比率をbとし、
    前記プロセッサは、前記透過ディスプレイの機種固有のa/bを用いて、前記第1画像の透過度を決定する
    請求項3に記載の画像処理装置。
  5. 前記プロセッサは、a/bに加えて、前記透過ディスプレイにおけるa/bとは機種の特性を示す別のパラメータを用いて前記合成処理を行う
    請求項4に記載の画像処理装置。
  6. 前記機種の特性を示す別のパラメータは、収差、フレア、迷光、及び散乱のうちの少なくとも一つのパラメータである、
    請求項5に記載の画像処理装置。
  7. 前記プロセッサは、a/bに基づいて、前記第1画像に対して空間的な間引き処理を行う
    請求項4から請求項6のいずれか1項に記載の画像処理装置。
  8. 前記第1画像の複数のフレームを、間隔を開けて表示する場合において、
    前記プロセッサは、a/bに基づいて、1つのフレームの表示時間を決定する
    請求項4から請求項7のいずれか1項に記載の画像処理装置。
  9. 前記a、及び前記bは、前記透過ディスプレイの表示面内における空間的な分布を有する
    請求項4から請求項8のいずれか1項に記載の画像処理装置。
  10. 前記透過ディスプレイに、前記現実像を撮影するカメラが設けられている場合には、
    前記第2画像は、前記カメラによって撮影される画像であり、
    前記b1は、前記カメラによって撮影される前記第2画像の輝度である
    請求項4から請求項9のいずれか1項に記載の画像処理装置。
  11. 前記透過ディスプレイに、前記現実像を撮影するカメラが設けられているか否かに関わらず、
    前記第2画像は、前記透過ディスプレイに設けられたカメラとは別のカメラで撮影された画像であるか、あるいは、CGによって作成された画像である
    請求項1から請求項9のいずれか1項に記載の画像処理装置。
  12. 前記第2画像は動画像である
    請求項1から請求項11のいずれか1項に記載の画像処理装置。
  13. 前記プロセッサは、
    前記現実像に含まれる被写体の現実空間における位置を空間認識センサにより検出した検出結果を基準として、前記第1画像と前記第2画像とを重ね合わせる
    請求項1から請求項12のいずれか1項に記載の画像処理装置。
  14. プロセッサにより、
    仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、前記透過ディスプレイを介した前記仮想像の透過状態を模擬した画像を生成する合成処理を実行する
    画像処理方法。
  15. 前記透過ディスプレイは、光を透過させることにより観察者に前記現実像を提供する透過部と、前記透過部に情報を投影し前記仮想像を生成する投影部とを備え、
    前記プロセッサは、前記透過ディスプレイを使用する観察者が視認する視認像であって、前記現実像の視野に前記情報が挿入された視認像を再現し、
    前記透過部に投影される情報を表す前記第1画像と、前記第1画像の背景となる前記第2画像とを重ね合わせることにより、前記合成処理を実行する
    請求項14に記載の画像処理方法。
  16. 仮想像の基となる第1画像と、現実像を表す第2画像とから、透過ディスプレイの機種の特性を示すパラメータに基づいて、前記透過ディスプレイを介した前記仮想像の透過状態を模擬した画像を生成する合成処理を実行する
    処理をプロセッサに実行させるための画像処理プログラム。
  17. 前記透過ディスプレイは、光を透過させることにより観察者に前記現実像を提供する透過部と、前記透過部に情報を投影し前記仮想像を生成する投影部とを備え、
    前記プロセッサは、前記透過ディスプレイを使用する観察者が視認する視認像であって、前記現実像の視野に前記情報が挿入された視認像を再現し、
    前記透過部に投影される情報を表す前記第1画像と、前記第1画像の背景となる前記第2画像とを重ね合わせることにより、前記合成処理を実行する
    処理をさらにプロセッサに実行させるための請求項16に記載の画像処理プログラム。
JP2022028599A 2022-02-25 2022-02-25 画像処理装置、画像処理方法、及び画像処理プログラム Pending JP2023124678A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022028599A JP2023124678A (ja) 2022-02-25 2022-02-25 画像処理装置、画像処理方法、及び画像処理プログラム
US18/173,341 US20230276020A1 (en) 2022-02-25 2023-02-23 Image processing device, image processing method, and image processing program
CN202310160521.2A CN116661143A (zh) 2022-02-25 2023-02-23 图像处理装置、图像处理方法及存储介质
EP23158774.2A EP4235393A1 (en) 2022-02-25 2023-02-27 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022028599A JP2023124678A (ja) 2022-02-25 2022-02-25 画像処理装置、画像処理方法、及び画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2023124678A true JP2023124678A (ja) 2023-09-06

Family

ID=85384618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022028599A Pending JP2023124678A (ja) 2022-02-25 2022-02-25 画像処理装置、画像処理方法、及び画像処理プログラム

Country Status (4)

Country Link
US (1) US20230276020A1 (ja)
EP (1) EP4235393A1 (ja)
JP (1) JP2023124678A (ja)
CN (1) CN116661143A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024018720A (ja) * 2022-07-29 2024-02-08 富士フイルム株式会社 画像処理装置、眼鏡型情報表示装置、画像処理方法、及び画像処理プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482859B2 (en) * 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
EP3547299A3 (en) * 2018-03-27 2019-11-27 Ricoh Company, Ltd. Display device, display system, mobile object, display-brightness control method, and carrier means storing program code
JP2019185365A (ja) 2018-04-09 2019-10-24 キヤノン株式会社 情報処理装置、プリンタドライバ、情報処理方法
JP7094349B2 (ja) 2020-12-04 2022-07-01 マクセル株式会社 情報記録装置

Also Published As

Publication number Publication date
US20230276020A1 (en) 2023-08-31
EP4235393A1 (en) 2023-08-30
CN116661143A (zh) 2023-08-29

Similar Documents

Publication Publication Date Title
US11978175B2 (en) Mixed reality system with color virtual content warping and method of generating virtual content using same
US11379948B2 (en) Mixed reality system with virtual content warping and method of generating virtual content using same
AU2022200841B2 (en) Mixed reality system with multi-source virtual content compositing and method of generating virtual content using same
JP7201869B1 (ja) 前の目線からのレンダリングされたコンテンツおよびレンダリングされなかったコンテンツを使用した新しいフレームの生成
US20230276020A1 (en) Image processing device, image processing method, and image processing program