JP2023089521A - 情報処理装置、情報処理装置の制御方法、及び、プログラム - Google Patents
情報処理装置、情報処理装置の制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP2023089521A JP2023089521A JP2021204056A JP2021204056A JP2023089521A JP 2023089521 A JP2023089521 A JP 2023089521A JP 2021204056 A JP2021204056 A JP 2021204056A JP 2021204056 A JP2021204056 A JP 2021204056A JP 2023089521 A JP2023089521 A JP 2023089521A
- Authority
- JP
- Japan
- Prior art keywords
- image
- noise
- real space
- space
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 36
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 103
- 238000003384 imaging method Methods 0.000 claims abstract description 70
- 230000009467 reduction Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 25
- 238000003702 image correction Methods 0.000 description 22
- 238000005259 measurement Methods 0.000 description 22
- 230000035945 sensitivity Effects 0.000 description 19
- 238000011156 evaluation Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 11
- 239000003550 marker Substances 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 239000002131 composite material Substances 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000035807 sensation Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000002789 length control Methods 0.000 description 2
- 238000009966 trimming Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/327—Calibration thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想空間の映像として現実空間の映像に合ったノイズ感の映像を生成することができ、ひいては、現実空間の映像に仮想空間の映像を重畳した映像として、ノイズ感に違和感の無い映像を得ることができる技術を提供する。【解決手段】本発明の情報処理装置は、現実空間の映像に重畳する仮想空間の映像を生成する生成手段と、前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性と前記現実空間の映像に施す画像処理との少なくとも一方に基づく特性でノイズを付加する付加手段とを有することを特徴とする。【選択図】図1
Description
本発明は、情報処理装置、情報処理装置の制御方法、及び、プログラムに関する。
現実空間と仮想空間との繋ぎ目のない結合を目的とした複合現実感(MR:Mixed
Reality)に関する技術の1つとして、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いるMRシステムが知られている。これは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成したコンピュータグラフィックス(CG)の映像を重畳表示し、それをHMDのディスプレイなどの表示装置を通して観察するものである。
Reality)に関する技術の1つとして、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いるMRシステムが知られている。これは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成したコンピュータグラフィックス(CG)の映像を重畳表示し、それをHMDのディスプレイなどの表示装置を通して観察するものである。
ビデオシースルー方式のHMDを用いたMRシステムにおいて、現実空間映像とCG映像をそのまま重畳表示すると、見た目に違和感のある映像となることが多い。これは、現実空間映像とCG映像との間で、階調特性、ホワイトバランス、ノイズ感、解像感などの画質に関わる特性が異なるために生じる。
例えば、ノイズ感の異なる現実空間映像とCG映像(例えばノイズのある現実空間映像とノイズの無いCG映像)をそのまま重畳表示するとする。その場合には、図9に示すように、CG映像とその周辺の現実空間映像とでノイズ感が異なるため、ノイズ感に違和感のある映像が表示されることになる。このような違和感(現実空間映像とCG映像を重畳表示する際の、ノイズ感の違和感)を軽減する技術は、特許文献1に開示されている。
しかしながら、特許文献1に開示の技術などの従来技術では、予め定められた固定の基準で仮想空間映像(仮想空間の映像;CG映像)にノイズが付加される。そのため、従来技術では、現実空間映像(現実空間の映像)とはノイズ感の異なる仮想空間映像が生成され、現実空間映像に仮想空間映像を重畳した映像として、ノイズ感に違和感のある映像が得られることがある。
本発明は、仮想空間の映像として現実空間の映像に合ったノイズ感の映像を生成することができ、ひいては、現実空間の映像に仮想空間の映像を重畳した映像として、ノイズ感に違和感の無い映像を得ることができる技術を提供することを目的とする。
本発明の第1の態様は、現実空間の映像に重畳する仮想空間の映像を生成する生成手段と、前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性に基づく特性でノイズを付加する付加手段とを有することを特徴とする情報処理装置である。本発明の第2の態様は、現実空間の映像に重畳する仮想空間の映像を生成する生成手段と、前記仮想空間の映像に、前記現実空間の映像に施す画像処理に基づく特性でノイズを付加する付加手段とを有することを特徴とする情報処理装置である。
本発明の第3の態様は、現実空間の映像に重畳する仮想空間の映像を生成するステップ
と、前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性に基づく特性でノイズを付加するステップとを有することを特徴とする情報処理装置の制御方法である。本発明の第4の態様は、現実空間の映像に重畳する仮想空間の映像を生成するステップと、前記仮想空間の映像に、前記現実空間の映像に施す画像処理に基づく特性でノイズを付加するステップとを有することを特徴とする情報処理装置の制御方法である。
と、前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性に基づく特性でノイズを付加するステップとを有することを特徴とする情報処理装置の制御方法である。本発明の第4の態様は、現実空間の映像に重畳する仮想空間の映像を生成するステップと、前記仮想空間の映像に、前記現実空間の映像に施す画像処理に基づく特性でノイズを付加するステップとを有することを特徴とする情報処理装置の制御方法である。
本発明の第5の態様は、コンピュータを、上述した情報処理装置の各手段として機能させるためのプログラムである。本発明の第6の態様は、上述した情報処理装置と、前記付加手段によりノイズが付加された仮想空間の映像を、現実空間の映像に重畳して表示する表示手段とを有することを特徴とするヘッドマウントディスプレイである。
本発明によれば、仮想空間の映像として現実空間の映像に合ったノイズ感の映像を生成することができ、ひいては、現実空間の映像に仮想空間の映像を重畳した映像として、ノイズ感に違和感の無い映像を得ることができる。
以下に、本発明の実施形態を、添付の図面に基づいて詳細に説明する。
ノイズ感の異なる現実空間映像(現実空間の映像)に仮想空間映像(仮想空間の映像)をそのまま重畳すると、ノイズ感に違和感のある映像が得られる。そして、このような違和感を軽減する技術として、予め定められた固定の基準で仮想空間映像にノイズを付加する技術が提案されている。
しかしながら、現実空間映像を撮像する撮像部のノイズ特性には個体差があるため、複数の撮像装置の間で現実空間映像のノイズ感(ノイズ特性)はばらつく。また、現実空間映像に画像処理を施すことよって現実空間映像のノイズ感は変化するが、現実空間映像に施す画像処理が複数の撮像装置の間で同じであるとは限らない。この理由からも、複数の撮像装置の間で現実空間映像のノイズ感はばらつく。そのため、従来技術では、現実空間映像(現実空間の映像)とはノイズ感の異なる仮想空間映像が生成され、現実空間映像に仮想空間映像を重畳した映像として、ノイズ感に違和感のある映像が得られることがある。
そこで、以下の実施形態では、撮像部に固有のノイズ特性や、現実空間映像に施す画像処理などを考慮して、仮想空間映像にノイズを付加する。こうすることで、仮想空間の映像として現実空間の映像に合ったノイズ感の映像を生成することができ、ひいては、現実空間の映像に仮想空間の映像を重畳した映像として、ノイズ感に違和感の無い映像を得ることができる。
(第一の実施形態)
本発明の第一の実施形態について説明する。図1は、第一の実施形態における情報処理システムとしての複合現実感(MR:Mixed Reality)システムの構成例を示すブロック図である。図1に示すMRシステムは、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いたMRシステムである。図1に示すMRシステムは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成した仮想空間映像としてのコンピュータグラフィックス(CG)の映像を重畳した複合現実映像をHMDにより表示しユーザーに提供する。複合現実映像の表示は、現実空間映像とCG映像の重畳表示とも言える。
本発明の第一の実施形態について説明する。図1は、第一の実施形態における情報処理システムとしての複合現実感(MR:Mixed Reality)システムの構成例を示すブロック図である。図1に示すMRシステムは、ビデオシースルー方式のヘッドマウントディスプレイ(HMD)を用いたMRシステムである。図1に示すMRシステムは、ビデオカメラなどの撮像装置が撮像した現実空間映像上に、撮像装置の位置姿勢に応じて生成した仮想空間映像としてのコンピュータグラフィックス(CG)の映像を重畳した複合現実映像をHMDにより表示しユーザーに提供する。複合現実映像の表示は、現実空間映像とCG映像の重畳表示とも言える。
図1に示すように、本実施形態におけるMRシステムは、情報処理装置100及びHMD110を有する。なお、図1に示す構成は一例であり、例えば、HMD110の中に情報処理装置100の機能の一部もしくはすべてが含まれる構成であってもよい。
HMD110は、ビデオシースルー方式のHMDであり、撮像部111及び表示部112を有する。撮像部111は、現実空間を撮像して現実空間映像を取得し、それを情報処理装置100に送信する。撮像部111から情報処理装置100への現実空間映像の送信は、有線通信により行ってもよいし、無線通信により行ってもよい。表示部112は、映像を表示するディスプレイ等であり、例えば、情報処理装置100から受信する表示映像を表示する。
図2は、撮像部111の構成例を示すブロック図である。
光学系201は複数のレンズと絞り機構とを含む光学系であり、具体的には、フォーカスに用いるフォーカスレンズ、ズームに用いるズームレンズ、及び、絞り機構を含む。
撮像素子202はCCDやCMOS等の撮像センサーであり、アナログ信号をデジタル信号に変換するA/D変換器を含む。撮像素子202の表面には、例えばベイヤー配列のRGBカラーフィルタが形成されており、カラー撮影が可能となっている。被写体像が撮像素子202の撮像面に結像されると、撮像素子202は、画像データ(画像信号)を生成して出力する。撮像素子202から出力された画像データはメモリ203に記憶される。
本実施形態では、撮像素子202の撮像面は、現実空間映像を撮像するための領域(映像領域;上述した被写体像が結像される領域)と、光学的に遮光された領域(遮光領域;オプティカルブラック(OB)領域)とを含む。そして、撮像素子202からは、映像領域の画像データ(現実空間映像のデータ)と、OB領域の画像データとが出力される。OB領域の画像データは、いわゆる黒画像のデータであり、最低輝度の画素値を示す画像データとして出力される。
OB領域の画像データには、撮像部111に固有の特性のノイズ(例えば撮像素子202やその周辺の電気回路等で発生したノイズ)が混在する。そのため、実際には、OB領域の画像データは、最低輝度の画素値(固定値)ではなく、ノイズによって変動する画素値を示す。そして、OB領域の少なくとも一部に設定される所定の領域の全画素間での画素値のばらつき(例えば標準偏差)は、現実空間映像のフレーム画像のノイズ(いわゆるダークノイズ)量として計測することができる。
そこで、本実施形態では、撮像部111に固有の特性のノイズ(現実空間映像の各フレーム画像のノイズ)をOB領域の撮像結果から推定し、その推定結果に基づくノイズをCG映像に付加する。具体的には、OB領域をノイズ計測領域として用いてノイズ量を計測
し、ノイズ量計測結果(ノイズ量の計測結果)に基づくノイズをCG映像に付加する。こうすることにより、撮像部111に固有の特性に基づく特性で、現実空間映像と同等のノイズを、CG映像に付加することができる。ノイズ量の計測は常に(例えば現実空間映像のフレームごとに)行われてもよいし、定期的に(例えば現実空間映像の複数フレームごとに)行われてもよい。
し、ノイズ量計測結果(ノイズ量の計測結果)に基づくノイズをCG映像に付加する。こうすることにより、撮像部111に固有の特性に基づく特性で、現実空間映像と同等のノイズを、CG映像に付加することができる。ノイズ量の計測は常に(例えば現実空間映像のフレームごとに)行われてもよいし、定期的に(例えば現実空間映像の複数フレームごとに)行われてもよい。
メモリ203は、撮像素子202から出力された画像データや、撮像部111の処理全般に必要なデータなどを保持することができる。メモリ203は、前述のノイズ量計測結果や後述の画像処理設定情報も保持することができる。
画像処理回路204は、メモリ203に保持された画像データ(現実空間映像)に対して所定の画素補間処理や色変換処理等の画像処理を施す。画像処理回路204は、撮像した画像データを用いて所定の演算処理を行い、得られた演算結果に基づいて撮影条件を決定し、システム制御部205に撮影条件を通知することもできる。画像処理回路204は、画像の解析、フィルタ処理、ノイズリダクション処理、エッジ強調処理、コントラスト調整処理、合成処理などを行うこともできる。例えば、画像処理回路204は、OB領域のノイズ量計測結果をメモリ203から読み出し後、当該ノイズ量計測結果に基づいて現実空間映像のノイズ特性に合ったノイズリダクション処理を行う。
ユーザーは、画像処理回路204に行わせる画像処理やその強度を選択して設定することができ、好みの画質の現実空間映像を得ることができる。そして、上述したように、画像処理回路204が行う画像処理に依って、現実空間映像のノイズ特性は変化する。
そこで、本実施形態では、画像処理回路204が行う画像処理に基づく特性でCG映像にノイズを付加する。画像処理に基づく特性は、ノイズリダクション設定やエッジ強調設定、コントラスト調整設定などの画像処理設定に基づく特性である。こうすることで、画像処理後の現実空間映像と同等のノイズを、CG映像に付加することができる。
また、画像処理回路204は、デジタルズームを行うことができる。デジタルズームは、光学系201のズームレンズを制御する光学ズームとは異なり、ズームレンズを制御せずにズームしたように見える画像を取得する画像処理であり、例えばバイキュービックなどによる拡大処理や、画像トリミングなどである。したがって、デジタルズーム倍率(デジタルズームの拡大倍率)に依って、ノイズの粒子の大きさが変化する。機能を選択し、デジタルズーム倍率を適宜変更することもできる。
そこで、本実施形態では、デジタルズーム倍率を考慮したノイズを生成して、CG映像に付加する。例えば、ノイズをデジタルズーム倍率と同じ倍率で拡大して、CG映像に付加する。
システム制御部205は、撮像部111全体を制御する。システム制御部205は、画像処理回路204が決定した撮影条件で撮影を行うために、シャッター速度、絞り機構、フォーカスレンズ、及び、ズームレンズを制御するよう指示を出力する。具体的には、システム制御部205は、露光量制御部206、フォーカスレンズ制御部207、及び、焦点距離制御部208に対して指示を出力する。
また、システム制御部205は、OB領域の画像データをメモリ203から読み出してOB領域のノイズ量を計測し、ノイズ量計測結果をメモリ203に格納することができる。システム制御部205は、ユーザー操作に基づいて画像処理回路204の画像処理設定(デジタルズーム倍率設定を含む)を変更することもできる。システム制御部205は、メモリ203からノイズ量計測結果を読み出し、画像処理回路204から画像処理設定情
報(画像処理設定に関する情報)を読み出し、それらをCG映像補正部106(後述)に通知することもできる。
報(画像処理設定に関する情報)を読み出し、それらをCG映像補正部106(後述)に通知することもできる。
露光量制御部206は、光学系201の絞り機構、撮像素子202の露光時間、及び、撮像感度(いわゆるISO感度)を調整し、適切な露光量制御を行う。
フォーカスレンズ制御部207は、光学系201のフォーカスレンズを制御する。
焦点距離制御部208は、システム制御部205の指示に従って光学系201のズームレンズを制御することで、焦点距離を変更する。
操作部材209は、ボタンやタッチパネル等であり、撮影指示や画像処理の設定変更指示などのユーザー操作を受け付ける。システム制御部205は、操作部材209により受け付けたユーザー操作に従って、撮像部111の動作の決定や変更を行う。タッチパネルは表示部112に対して一体的に設けられていてもよい。
図1において、情報処理装置100は、撮像映像取得部101、マーカー検出部102、位置姿勢推定部103、CGデータ保持部104、CG映像生成部105、CG映像補正部106、及び、表示映像生成部107を有する。
撮像映像取得部101は、HMD110の撮像部111により撮像された現実空間映像を取得し、取得した現実空間映像をマーカー検出部102及び表示映像生成部107に送信する。
マーカー検出部102は、取得した現実空間映像から、撮像装置としてのHMD110の位置姿勢の推定に用いられるマーカー(2次元コード)が映り込んだ箇所を特定する。マーカーとは、図3の301に示すように、白い背景に黒字でコードが記述されているものである。マーカー検出部102は、検出したマーカー301の位置や向き等を示す情報(いわゆる、マーカー箇所情報)を、現実空間映像と共に位置姿勢推定部103に送信する。
位置姿勢推定部103は、マーカー検出部102で検出したマーカー箇所情報と現実空間映像から、HMD110の位置姿勢を求める。位置姿勢を推定する方法に関しては、種々の研究報告が行われており、どの手法を用いてもよい。また、位置姿勢情報の精度を上げるため、磁気式センサーや光学式センサーなどを併用するようにしてもよい。位置姿勢推定部103は、求めた位置姿勢情報をCG映像生成部105に送信する。
CG映像生成部105は、CGデータ保持部104からCGデータを取得して、移動や回転や拡大縮小などの処理を行い、現実空間映像に重畳する、HMD110から見たとしたときの仮想空間の映像であるCG映像を生成する。なお、CG映像生成部105は、CG映像の生成処理において、位置姿勢推定部103から取得した位置姿勢情報に加え、あらかじめ保存してある主点位置、焦点距離情報などを、撮像部111のシステム制御部205を介してメモリ203から読み出して用いる。そして、CG映像生成部105は、生成したCG映像をCG映像補正部106に送信する。
CG映像補正部106は、撮像部111のシステム制御部205から通知された、現実空間映像のノイズに関わる情報をもとにノイズを生成し、CG映像にノイズを付加する。ノイズに関わる情報は、例えば、OB領域のノイズ量計測結果と、ユーザー操作(ユーザー指示)による画像処理設定の情報とを含む。
本実施形態におけるMRシステムは、このCG映像補正部106によりCG映像を現実空間映像に合わせるようにCG映像にノイズを付加することで、現実空間映像と仮想空間映像としてのCG映像とを重畳表示する際の違和感を軽減する。CG映像補正部106は、補正したCG映像を表示映像生成部107に送信する。
表示映像生成部107は、撮像映像取得部101から取得した現実空間映像に、CG映像補正部106から取得したCG映像(ノイズが付加されたCG映像)を重畳し、現実空間映像とCG映像とからなる複合現実映像を表示映像として生成する。表示映像生成部107は、生成した複合現実映像を、HMD110の表示部112に送信する。
図4はCG映像補正部106の構成例を示すブロック図である。CG映像補正部106は、ノイズ特性評価部401、ノイズ付加量算出部402、及び、ノイズ付加処理部403を有する。
ノイズ特性評価部401は、撮像部111のシステム制御部205からノイズに関わる情報を取得して、当該情報に基づいて、CG映像の画素値と当該画素値に付加するノイズ量との相関関係(対応関係)を決定する。図5は、ノイズ特性評価部401の動作(相関関係を決定する動作)の一例を示すフローチャートである。
図5のS501では、ノイズ特性評価部401は、撮像素子202に設定されている撮像感度(ISO感度)の情報を、メモリ203からシステム制御部205を介して取得する。ISO感度情報もノイズに関わる情報の一つである。一般的には、ISO感度の数値が増加すると、撮像素子202の受光感度が向上し、微弱な光が検出できるようになるが、撮像画像データに重畳されるノイズ量は増大(悪化)する。
S502では、ノイズ特性評価部401は、画像処理回路204における現在の画像処理設定の情報を、画像処理回路204からシステム制御部205を介して取得する。例えば、画像処理設定情報は、ノイズリダクションの強弱の設定情報を含む。画像処理設定情報は、ノイズ特性に関わる情報であればよく、例えばエッジ強調やコントラスト調整の強弱の設定情報を含んでもよい。画像処理設定情報は情報を1つだけを含んでもよいし、複数の情報を含んでもよい。画像処理設定情報は、デジタルズーム倍率の設定情報を含んでもよい。また、画像処理設定情報は、画像処理設定を示す情報以外の情報を含んでもよい。画像処理回路204が行う画像処理に依って撮像部111の温度(撮像素子202の温度)が変化し、撮像部111に固有のノイズ特性(撮像素子202のノイズ特性)も変化する。そのため、画像処理設定情報は、撮像部111の温度情報を含んでもよい。撮像部111の温度情報を用いて、例えば、過去に計測されたOB領域のノイズ量から現在のノイズ量を推定することができる。
S503では、ノイズ特性評価部401は、OB領域のノイズ量計測結果を、メモリ203からシステム制御部205を介して取得する。
S504では、ノイズ特性評価部401は、S501~S503で取得した3種類の情報をもとに、CG映像の画素値と当該画素値に付加するノイズ量(ノイズ付加量)との相関関係を決定する。
本実施形態では、上記3種類の情報をもとに画素値とノイズ付加量との相関関係を決定したが、これに限られない。例えば、S502で取得する画像処理設定情報と、S503で取得するノイズ量計測結果との一方を使用せずに相関関係を決定してもよい。所定のISO感度範囲内において撮像素子202のノイズ特性の個体差が小さい場合には、画像処理設定情報のみを取得して相関関係を決定してもよい。また、ISO感度設定と画像処理
設定が固定(変更不可)である場合など、ISO感度設定と画像処理設定が所定の設定である場合には、ノイズ量計測結果のみを取得して相関関係を決定してもよい。
設定が固定(変更不可)である場合など、ISO感度設定と画像処理設定が所定の設定である場合には、ノイズ量計測結果のみを取得して相関関係を決定してもよい。
図6(a),6(b)は、S504で決定される相関関係の一例を示す。図6(a)は、ISO感度「X」且つノイズリダクション設定「弱」の場合における、CG映像の画素値とノイズ付加量の相関関係を示す相関グラフである。図6(b)は、ISO感度「X」且つノイズリダクション設定「強」の場合における、CG映像の画素値とノイズ付加量の相関関係を示す相関グラフである。図6(a),6(b)において、実線は、「ノイズ量計測結果1」の場合の相関関係を示し、破線は、「ノイズ量計測結果2」の場合の相関関係を示す。
例えば、ある撮影シーンにおいて図5の動作を実施したときに、S501でISO感度「X」の情報、S502でノイズリダクション設定「弱」の情報、S503で「ノイズ量計測結果1」の情報が取得されたとする。この場合、S504では、図6(a)の実線の相関関係が決定され、当該相関関係の情報がノイズ付加量算出部402に送信される。
本実施形態では、ISO感度と画像処理設定情報とノイズ量計測結果の複数の組み合わせにそれぞれ対応する複数の相関関係の情報が、ノイズ特性評価部401の不図示のメモリに予め格納されるとする。相関関係の情報は、表形式で相関関係を示す情報(テーブル)であるとする。相関関係の情報は、所定のチャート画像などの撮像結果に基づいて生成することができる。S504では、ノイズ特性評価部401は、メモリに格納されている複数の相関関係の情報のうち、S501~S503で取得した3種類の情報の組み合わせに対応する相関関係の情報を選択して取得する。
なお、上記相関関係を決定する代わりに、関数f(N,ISO,X,Y)を用いてノイズ付加量を算出してもよい。関数f(N,ISO,X,Y)は、「N」と「ISO」と「X」と「Y」を入力とし、ノイズ付加量を出力とする所定の関数である。「N」と「ISO」と「X」のうちの1つまたは2つは入力から除外してもよい。関数f(N,ISO,X,Y)は、例えば、以下のように表される。
f(N,ISO,X,Y)=a(N)×b(ISO)×c(X)×f0(Y)
N:ノイズ量計測結果
ISO:ISO感度
X:画像処理設定情報(画像処理に関連したパラメータ)
Y:CG映像の画素値
f0(Y):ノイズ付加量を算出するための基準関数
a(N):ノイズ量計測結果に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
b(ISO):ISO感度に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
c(X):画像処理設定情報に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
f(N,ISO,X,Y)=a(N)×b(ISO)×c(X)×f0(Y)
N:ノイズ量計測結果
ISO:ISO感度
X:画像処理設定情報(画像処理に関連したパラメータ)
Y:CG映像の画素値
f0(Y):ノイズ付加量を算出するための基準関数
a(N):ノイズ量計測結果に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
b(ISO):ISO感度に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
c(X):画像処理設定情報に応じた重み(f0(Y)に対する重み付け係数)を算出するための関数
基準関数f0(Y)は、所定のISO感度(例えばISO100)、所定の画像処理設定情報(例えばノイズリダクション設定「弱」)、及び、所定のノイズ量(例えば代表的な撮像素子のOB領域のノイズ量)の組み合わせに対応する相関関係を示す。関数a(N),b(ISO),c(X)は、いずれも、ノイズ量が多くなる条件の場合に大きい重みが得られ且つノイズ量が少なくなる条件の場合に小さい重みが得られるように定められている。
関数f(N,ISO,X,Y)を用いることができれば、複数の相関関係のテーブルを
ノイズ特性評価部401のメモリに予め格納する必要がない。そのため、ノイズ特性評価部401のメモリの使用量を減らすことができ、ハード負荷軽減の効果が期待できる。図5のS501~S503で取得した情報を関数f(N,ISO,X,Y)に入力することにより、CG映像の画素値とノイズ付加量の相関関係を示す関数が一意に決定される。
ノイズ特性評価部401のメモリに予め格納する必要がない。そのため、ノイズ特性評価部401のメモリの使用量を減らすことができ、ハード負荷軽減の効果が期待できる。図5のS501~S503で取得した情報を関数f(N,ISO,X,Y)に入力することにより、CG映像の画素値とノイズ付加量の相関関係を示す関数が一意に決定される。
図4のノイズ付加量算出部402は、ノイズ特性評価部401により決定された相関関係に従って、CG映像の各フレーム画像の各画素に付加するノイズ量(ノイズ付加量)を決定する。ノイズ量は時間的に変動する。本実施形態においては、図6(a),6(b)のグラフの横軸が示す画素値Yごとに定められた、当該グラフの縦軸が示すノイズ量は、時間的に変動するノイズ量の標準偏差σ(Y)であるとする。例えば、上述した関数f(N,ISO,X,Y)により算出されるノイズ付加量も、標準偏差σ(Y)である。ノイズ付加量算出部402は、CG映像生成部105から出力されたCG映像の画素ごとに、以下の式1を用いて、CG映像の画素値Yに対応するノイズ量σ(Y)と、ランダム関数RANDとから、ノイズ量σ’(Y)を算出する。ランダム関数RANDは、正規分布に従ってランダムに値を決定する関数である。式1を用いることで、CG映像の各画素に対して、ノイズ特性評価部401により決定された相関関係を反映したランダムなノイズ量を決定することができる。なお、ランダム関数RANDは、正規分布とは異なる分布に従ってランダムに値を決定する関数であってもよい。現実空間映像のノイズ特性を考慮して、ランダム関数RANDとして使用する関数を決定することが好ましい。
σ’(Y)=σ(Y)×RAND ・・・(式1)
σ’(Y)=σ(Y)×RAND ・・・(式1)
ノイズ付加処理部403は、以下の式2を用いて、CG映像生成部105から出力されたCG映像の各画素の画素値Yに、ノイズ付加量算出部402により決定されたノイズ量σ’(Y)を加算して、ノイズ付加後のCG映像の各画素の画素値Y’を得る。
Y’=Y+σ’(Y)=Y+σ(Y)×RAND ・・・(式2)
Y’=Y+σ’(Y)=Y+σ(Y)×RAND ・・・(式2)
以上のようにして、撮像部111のシステム制御部205から通知された現実空間映像のノイズに関連する種々の情報をもとに、現実空間映像相当のノイズをCG映像に付加することができる。そして、ノイズを付加したCG映像をCG映像補正部106から表示映像生成部107に送信して、現実空間映像と同様のノイズを付加したCG映像による複合現実映像を生成し、HMD110の表示部112に表示することができる。
図5のS502で取得された画像処理設定情報が、デジタルズーム倍率の設定情報を含む場合について、以下に説明する。ノイズ付加量算出部402は、ランダムノイズσ’(Y)からなるノイズ映像を生成し、当該ノイズ映像に対しデジタルズーム倍率で拡大処理を施す。そして、ノイズ付加量算出部402は、拡大処理後のノイズ映像に対し、CG映像の画像サイズに合うようにトリミング処理を施し、トリミング処理後のノイズ映像をノイズ付加処理部403に送信する。ノイズ付加処理部403は、CG映像生成部105からのCG映像に対し、ノイズ付加量算出部402からのノイズ映像によるノイズを付加することにより、拡大されたノイズが付加されたCG映像を生成する。これにより、デジタルズームにより拡大された現実空間映像のノイズと同様の見えを有するノイズを、現実空間映像に重畳されるCG映像に付加することができ、デジタルズーム時においても違和感のない複合現実映像を得ることができる。
上述したCG映像補正処理(CG映像へノイズを付加する一連の処理)は、ある一定の処理時間を必要とし、この処理を実現するために十分な容量のメモリなどのハードウェアリソースも必要とするため、装置コストの増加をまねく。これらのデメリット(装置コストの増加)を抑制するために、CG映像補正部106は、S503で取得したOB領域のノイズ量計測結果に基づいて、CG映像補正処理を実施するか否かを判定してもよい。撮像部111が低感度で撮像を行う場合には、撮像部111で撮像される現実空間映像には
ノイズはほとんど見られず、ノイズのないCG映像をそのまま重畳しても、違和感のほとんどない複合現実映像が得られる。そのため、S503で取得するOB領域のノイズ量が所定の閾値よりも小さい場合は、CG映像補正部106は、CG映像補正処理を実施せずに、CG映像を現実空間映像にそのまま合成したものを複合現実映像として取得する。一方で、OB領域のノイズ量が所定の閾値よりも大きい場合は、CG映像補正部106は、CG映像補正処理を実施して、複合現実映像を取得する。これにより、上述のデメリット(装置コストの増加)を最小限に抑えることができる。OB領域のノイズ量が所定の閾値と等しい場合は、CG映像補正処理は実施してもよいし、実施しなくてもよい。
ノイズはほとんど見られず、ノイズのないCG映像をそのまま重畳しても、違和感のほとんどない複合現実映像が得られる。そのため、S503で取得するOB領域のノイズ量が所定の閾値よりも小さい場合は、CG映像補正部106は、CG映像補正処理を実施せずに、CG映像を現実空間映像にそのまま合成したものを複合現実映像として取得する。一方で、OB領域のノイズ量が所定の閾値よりも大きい場合は、CG映像補正部106は、CG映像補正処理を実施して、複合現実映像を取得する。これにより、上述のデメリット(装置コストの増加)を最小限に抑えることができる。OB領域のノイズ量が所定の閾値と等しい場合は、CG映像補正処理は実施してもよいし、実施しなくてもよい。
(第二の実施形態)
本発明の第二の実施形態について説明する。図7は、第二の実施形態における情報処理システムとしてのMRシステムの構成例を示すブロック図である。本実施形態におけるMRシステムは、第一の実施形態の表示映像生成部107を有していない。そして、第一の実施形態とは異なり、撮像部111が現実空間映像にCG映像を重畳した複合現実映像を生成し、表示部112に送信する。第一の実施形態と同一符号が付された、その他の各モジュールは、第一の実施形態と同様に動作する。
本発明の第二の実施形態について説明する。図7は、第二の実施形態における情報処理システムとしてのMRシステムの構成例を示すブロック図である。本実施形態におけるMRシステムは、第一の実施形態の表示映像生成部107を有していない。そして、第一の実施形態とは異なり、撮像部111が現実空間映像にCG映像を重畳した複合現実映像を生成し、表示部112に送信する。第一の実施形態と同一符号が付された、その他の各モジュールは、第一の実施形態と同様に動作する。
図8は、本実施形態における撮像部111の構成例を示すブロック図である。本実施形態における撮像部111は、第一の実施形態と異なり、現実空間映像にCG映像を重畳して複合現実映像を生成する複合映像生成部210を有する。さらに、本実施形態では、複合映像生成部210で生成された複合現実映像は、画像処理回路204を介してシステム制御部205に送信され、表示部112に送信される。第一の実施形態と同一符号が付された、その他の各モジュールは、第一の実施形態と同様に動作する。
本実施形態におけるMRシステムの動作例を説明する。
まず、撮像素子202が撮像を行う。これにより、光学系201を経由して撮像素子202で取得した現実空間映像の画像データ、及び、OB領域の画像データがメモリ203に保持される。次に、システム制御部205が、OB領域の画像データからOB領域のノイズ量を計測し、その計測結果(ノイズ量計測結果)もメモリ203に格納する。その後、システム制御部205は、画像処理回路204を経ることなく、もしくは、画像処理回路204に画像処理を実施させずに、現実空間映像の画像データ、ISO感度情報、及び、ノイズ量計測結果を、情報処理装置100に送信する。画像処理回路204の画像処理は実施されないため、画像処理設定情報は情報処理装置100に送信されない。
情報処理装置100では、第一の実施形態と同様に、各モジュールの動作を実行して、ノイズが付加されたCG映像をCG映像補正部106から出力する。但し、ノイズが付加されたCG映像は、CG映像補正部106から撮像部111に送信される。また、情報処理装置100では、撮像部111の画像処理設定情報を考慮せずに、CC映像にノイズが付加される。CG映像に付加されたノイズは、撮像部111に固有の特性のノイズであり、画像処理回路204の画像処理が施される前の現実空間映像に合ったノイズである。
情報処理装置100から撮像部111に送信されたCG映像(ノイズが付加されたCG映像)は、撮像部111の複合映像生成部210に送信される。複合映像生成部210は、メモリ203に保持された現実空間映像に、このCG画像を重畳して、複合現実映像を生成する。ここでは、画像処理回路204の画像処理が施される前の現実空間映像にCG映像を重畳した複合現実映像が生成される。
複合映像生成部210で生成された複合現実映像の画像データは、画像処理回路204に送信され、ユーザー指示による画像処理が実施される。その後、システム制御部205
は、画像処理後の画像データを介して表示部112に送信して、複合現実映像を表示部112に表示する。
は、画像処理後の画像データを介して表示部112に送信して、複合現実映像を表示部112に表示する。
以上述べたように、第二の実施形態によれば、画像処理前に、現実空間映像と同様のノイズを付加したCG画像による複合現実映像が生成され、この複合現実映像に対して画像処理が実施される。これにより、CG映像にノイズを付加する際に画像処理設定情報を用いなくても、違和感のない複合現実映像を得ることができる。
なお、上述した実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上述した構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上述した構成を適宜組み合わせて得られる構成も、本発明に含まれる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:情報処理装置 105:CG映像生成部 106:CG映像補正部
Claims (14)
- 現実空間の映像に重畳する仮想空間の映像を生成する生成手段と、
前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性に基づく特性でノイズを付加する付加手段と
を有することを特徴とする情報処理装置。 - 前記撮像部は、前記現実空間の映像を撮像するための領域と、遮光領域とを撮像し、
前記撮像部に固有の特性のノイズは、前記遮光領域の撮像結果から推定される
ことを特徴とする請求項1に記載の情報処理装置。 - 現実空間の映像に重畳する仮想空間の映像を生成する生成手段と、
前記仮想空間の映像に、前記現実空間の映像に施す画像処理に基づく特性でノイズを付加する付加手段と
を有することを特徴とする情報処理装置。 - 前記画像処理に基づく特性は、ノイズリダクション設定、エッジ強調設定、コントラスト調整設定、及び、前記現実空間の映像を撮像する撮像部の温度の少なくともいずれかに基づく特性である
ことを特徴とする請求項3に記載の情報処理装置。 - 前記付加手段は、前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性と前記現実空間の映像に施す画像処理とに基づく特性で、ノイズを付加する
ことを特徴とする請求項3または4に記載の情報処理装置。 - 前記現実空間の映像を撮像する撮像部に固有の特性のノイズと前記現実空間の映像に施す画像処理との少なくとも一方に基づいて、前記仮想空間の映像の画素値と当該画素値に付加するノイズ量との対応関係を決定する決定手段
をさらに有し、
前記付加手段は、前記対応関係に従って、前記仮想空間の映像にノイズを付加する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 - 画素値とノイズ量の複数の対応関係が予め定められており、
前記決定手段は、前記現実空間の映像を撮像する撮像部に固有の特性のノイズと前記現実空間の映像に施す画像処理との少なくとも一方に基づいて、前記複数の対応関係のいずれかを選択する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記現実空間の映像を撮像する撮像部に固有の特性のノイズ量と前記現実空間の映像に施す画像処理に関連したパラメータとの少なくとも一方、及び、前記仮想空間の映像の画素値を入力とし、当該画素値に付加するノイズ量を出力とする所定の関数を用いて、前記仮想空間の映像に付加するノイズ量を算出する算出手段
をさらに有する
ことを特徴とする請求項1~5のいずれか1項に記載の情報処理装置。 - 前記付加手段は、現実空間の映像に拡大処理が施される場合に、ノイズを前記拡大処理と同じ拡大倍率で拡大して、前記仮想空間の映像に付加する
ことを特徴とする請求項1~8のいずれか1項に記載の情報処理装置。 - 前記付加手段は、
前記現実空間の映像を撮像する撮像部に固有の特性のノイズ量が閾値よりも小さい場合には、前記仮想空間の映像にノイズを付加せず、
前記現実空間の映像を撮像する撮像部に固有の特性のノイズ量が閾値よりも大きい場合に、前記仮想空間の映像にノイズを付加する
ことを特徴とする請求項1~9のいずれか1項に記載の情報処理装置。 - 現実空間の映像に重畳する仮想空間の映像を生成するステップと、
前記仮想空間の映像に、前記現実空間の映像を撮像する撮像部に固有の特性に基づく特性でノイズを付加するステップと
を有することを特徴とする情報処理装置の制御方法。 - 現実空間の映像に重畳する仮想空間の映像を生成するステップと、
前記仮想空間の映像に、前記現実空間の映像に施す画像処理に基づく特性でノイズを付加するステップと
を有することを特徴とする情報処理装置の制御方法。 - コンピュータを、請求項1~10のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
- 請求項1~10のいずれか1項に記載の情報処理装置と、
前記付加手段によりノイズが付加された仮想空間の映像を、現実空間の映像に重畳して表示する表示手段と
を有することを特徴とするヘッドマウントディスプレイ。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021204056A JP2023089521A (ja) | 2021-12-16 | 2021-12-16 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
GB2217128.4A GB2614945B (en) | 2021-12-16 | 2022-11-16 | Information processing apparatus, control method of information processing apparatus, and program |
US18/061,515 US20230196517A1 (en) | 2021-12-16 | 2022-12-05 | Information processing apparatus, control method of information processing apparatus, and non-transitory computer readable medium |
CN202211626089.3A CN116266864A (zh) | 2021-12-16 | 2022-12-15 | 信息处理设备及其控制方法、介质和头戴式显示器 |
DE102022133422.8A DE102022133422A1 (de) | 2021-12-16 | 2022-12-15 | Informationsverarbeitungsvorrichtung, steuerungsverfahren einer informationsverarbeitungsvorrichtung und programm |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021204056A JP2023089521A (ja) | 2021-12-16 | 2021-12-16 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023089521A true JP2023089521A (ja) | 2023-06-28 |
Family
ID=84840073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021204056A Pending JP2023089521A (ja) | 2021-12-16 | 2021-12-16 | 情報処理装置、情報処理装置の制御方法、及び、プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230196517A1 (ja) |
JP (1) | JP2023089521A (ja) |
CN (1) | CN116266864A (ja) |
DE (1) | DE102022133422A1 (ja) |
GB (1) | GB2614945B (ja) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002010060A (ja) * | 2000-06-20 | 2002-01-11 | Mitsubishi Electric Corp | 画像融合装置及び画像融合方法 |
GB2473263B (en) * | 2009-09-07 | 2012-06-06 | Sony Comp Entertainment Europe | Image processing apparatus, system, and method |
JP6082642B2 (ja) * | 2013-04-08 | 2017-02-15 | 任天堂株式会社 | 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法 |
CN111612915B (zh) * | 2019-02-25 | 2023-09-15 | 苹果公司 | 渲染对象以匹配相机噪声 |
US11062525B1 (en) * | 2020-01-28 | 2021-07-13 | United States Of America, As Represented By The Secretary Of The Army | Method for generating an augmented set of images |
-
2021
- 2021-12-16 JP JP2021204056A patent/JP2023089521A/ja active Pending
-
2022
- 2022-11-16 GB GB2217128.4A patent/GB2614945B/en active Active
- 2022-12-05 US US18/061,515 patent/US20230196517A1/en active Pending
- 2022-12-15 DE DE102022133422.8A patent/DE102022133422A1/de active Pending
- 2022-12-15 CN CN202211626089.3A patent/CN116266864A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20230196517A1 (en) | 2023-06-22 |
GB2614945A (en) | 2023-07-26 |
DE102022133422A1 (de) | 2023-06-22 |
GB202217128D0 (en) | 2022-12-28 |
CN116266864A (zh) | 2023-06-20 |
GB2614945B (en) | 2024-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7003238B2 (ja) | 画像処理方法、装置、及び、デバイス | |
KR102642993B1 (ko) | 야경 촬영 방법, 장치, 전자설비, 및 저장 매체 | |
CN109005364B (zh) | 成像控制方法、装置、电子设备以及计算机可读存储介质 | |
JP5767485B2 (ja) | 画像処理装置及び制御方法 | |
JP6047025B2 (ja) | 撮像装置及びその制御方法 | |
JP2016059046A (ja) | 画像合成装置、画像合成方法、画像合成プログラム及び記録媒体 | |
JP5882789B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR20100061361A (ko) | 화상 처리 장치, 화상 처리 방법 및 프로그램을 기억하는 기억 매체 | |
KR20100060140A (ko) | 영상 처리 장치에서의 광역 역광 보정 영상 획득 장치 및 방법 | |
JP2013031154A (ja) | 画像処理装置、画像処理方法、撮像装置およびプログラム | |
WO2019124289A1 (ja) | 装置、制御方法および記憶媒体 | |
JP2019047169A (ja) | ハイダイナミックレンジ画像を作成する装置、方法、及びプログラム | |
JP2015231118A (ja) | 画像合成装置、画像合成システム及び画像合成方法 | |
JP6541501B2 (ja) | 画像処理装置、撮像装置、及び画像処理方法 | |
CN108513062B (zh) | 终端的控制方法及装置、可读存储介质和计算机设备 | |
JP2023089521A (ja) | 情報処理装置、情報処理装置の制御方法、及び、プログラム | |
TWI471848B (zh) | 顏色校正方法與影像處理裝置 | |
JP7204387B2 (ja) | 画像処理装置およびその制御方法 | |
JP2012085205A (ja) | 画像処理装置、撮像装置、画像処理方法および画像処理プログラム | |
JP2014155000A (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP2016208118A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6494388B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7214407B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP7059239B2 (ja) | 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 | |
JP2019149719A (ja) | 画像処理装置及び方法、及び撮像装置 |