JP2023132730A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2023132730A
JP2023132730A JP2022038230A JP2022038230A JP2023132730A JP 2023132730 A JP2023132730 A JP 2023132730A JP 2022038230 A JP2022038230 A JP 2022038230A JP 2022038230 A JP2022038230 A JP 2022038230A JP 2023132730 A JP2023132730 A JP 2023132730A
Authority
JP
Japan
Prior art keywords
image
visible light
depth information
light images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022038230A
Other languages
English (en)
Inventor
宏 中岡
Hiroshi Nakaoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022038230A priority Critical patent/JP2023132730A/ja
Priority to US18/178,370 priority patent/US20230291981A1/en
Publication of JP2023132730A publication Critical patent/JP2023132730A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】視点の異なる複数の可視光画像および非可視光画像と対応する深度情報を容易に得ることができる画像処理装置及び画像処理方法を提供する。【解決手段】画像処理装置は、複数視点の可視光画像と、複数視点の非可視光画像と、複数視点の可視光画像に対応した可視光画像のメタ情報と、複数視点の非可視光画像に対応した非可視光画像のメタ情報を、1つのファイルとして記録する。【選択図】図2

Description

本発明は、複数の波長でとらえられた複数の視差画像と、関連する情報を記録する画像処理装置及び画像処理装置の制御方法に関するものである。
赤外線などの非可視領域に感度を持ったセンサで画像信号を取得し、通常人間の目には見えない情報を得る技術が知られている。特許文献1では、可視領域と非可視領域の両方にピントが合った画像を取得するため、どちらかのピント位置に応じてフォーカスレンズ位置と絞りを制御し、どちらも被写界深度内に入るようにする画像処理システムが提案されている。
特開2017-003749号公報
レンズ等の集光光学系は光の波長によって焦点位置が異なる。さらに、特許文献1に記載の構成のように、像を形成する光学系が1つしかない場合は、可視領域と非可視領域のいずれか一方に焦点を合わせると、他方は焦点が合わずにぼやけた像となってしまう。特許文献1では絞り機構を利用して光束の径を小さくしてしまうため、被写体からの光量が少なくなってしまい、像から得られる画像信号の品質が悪化してしまうという課題がある。そこで、本発明の目的は、画像信号の品質悪化を低減させつつ、可視領域と非可視領域の画像信号を同時に得られることを可能にした画像処理システムを提供することである
上記課題を解決するため、本発明の画像処理装置は、視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像とを取得する第1の取得手段と、前記複数の可視光画像に対応した可視光画像の深度情報と、該可視光画像の深度情報に対応し、かつ前記複数の非可視光画像に対応した非可視光画像の深度情報とを取得する第2の取得手段と、前記複数の可視光画像、前記可視光画像の深度情報、前記複数の非可視光画像および前記非可視光画像の深度情報を含む1つのファイルを生成する生成手段と、を有することを特徴とする。
本発明によれば、視点の異なる複数の可視光画像および非可視光画像と対応する深度情報を容易に得ることができる。
第1の実施形態の構成を表すブロック線図である。 第1の実施形態の処理フローを示すフローチャートである。 第1の実施形態における撮像素子のカラーフィルタの配置例を示した模式図である。 第1の実施形態における撮像素子の画素部の構造を示した模式図である。 第1の実施形態におけるデフォーカス量と像ずれ量の関係を示した模式図である。 第1の実施形態における光の波長と像ずれ量の関係を示した模式図である。 第1の実施形態における絞りと像ずれ量の変化の関係を示した模式図である。 第1の実施形態における調整パラメータの例を示したグラフである。 第1の実施形態におけるF値ごとの補正データの例を示したグラフである。 第1の実施形態における像高ごとの補正データの例を示したグラフである。 第1の実施形態における補正データを近似式で表現したときの係数のテーブルである。 第1の実施形態における記録ファイル形式を模式的に示したものである。 第1の実施形態におけるリフォーカス処理を説明するための模式図である。 第2の実施形態の構成を表すブロック線図である。 第2の実施形態の処理フローを示すフローチャートである。 第2の実施形態における記録ファイル形式を模式的に示したものである。
(第1の実施形態)
以下、本発明の第1の実施形態を図面に参照し、説明していく。図1に第1の実施形態の画像処理システムのブロック図を示す。なお、図1に示す機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイ(PLA)などのハードウェアによって実現されてもよいし、CPUやMPU等のプログラマブルプロセッサがソフトウェアを実行することによって実現されてもよい。また、ソフトウェアとハードウェアの組み合わせによって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。
光学系101は、フォーカスレンズやズームレンズ、絞り機構等で構成される光学系であり、被写体からの光束をレンズ等を用いて集光し像信号を作る。撮像素子102は、被写体像を光電変換により電気信号に変換して、画像信号として出力する撮像素子である。撮像素子102は、複数の光電変換素子を備え、光電変換素子は、複数の入射方向から入射される光束を捕らえて受光するように構成されている。撮像素子102は、入射方向が異なる光束ごとに各々視差画像として出力することもできるし、複数の光電変換素子で受光し電気信号に変換された画像信号をまとめて1つの画像信号として出力することもできる。像ズレマップ生成部103は、撮像素子102で得られた可視光領域、あるいは非可視光領域の光束を受光し得られた視差画像から像ずれマップを生成する。補正データ記憶部104は、像ずれマップ生成部103で生成された像ずれマップを調整して新たな像ずれマップを生成するための調整パラメータに必要な補正データやその他のデータを記憶する。調整パラメータ生成部105は、補正データ記憶部104から取得した補正データに基づいて、像ずれマップ生成部103で生成された像ずれマップを調整するための、調整パラメータを生成する。システム制御部106は、本実施形態における画像処理システム全体の制御をつかさどる。またシステム制御部106は、撮影状況に応じて、後述する光学系制御部に対して光学系101を制御するための光学系制御情報を送信する。また、調整パラメータ生成部105に対して、光学系101を構成する絞り機構に関わる情報を光学情報として送信する。
光学系制御部107は、システム制御部106から送信されてくる光学系制御情報に基づいて光学系101を構成するフォーカスレンズやズームレンズ、絞り機構に対して光学系制御信号を送信する。記録制御部108は、画像信号、像ずれマップ、調整パラメータを受け取り、後述する記録媒体へ記録するための制御を行う。一時記憶部109は、画像信号や例えば像ずれマップ、調整パラメータを一時的に記憶しておく。記録媒体110は、記録制御部108から出力されるデータを記憶しておく記録媒体であり、メモリカードに代表される補助記憶装置である。
ファイル取得部111は記録媒体110に記録されたファイルを読み込み、読み込んだファイルから必要なデータを、後段の信号処理部に出力する。像ズレ量調整部112は、ファイル取得部111から出力される可視領域の像ずれマップとファイルから出力される調整パラメータをもとに、可視領域の像ずれマップを調整して赤外領域(非可視光領域)の像ずれマップを生成する。再構成部113は、ファイル取得部111から出力される例えば赤外領域の視差画像(非可視光画像)と像ずれ量調整部112から出力される赤外領域の像ずれマップをもとに、リフォーカス処理によって画像を再構成する。現像処理部114は、再構成部113から出力された例えば赤外領域のリフォーカス画像を後述する表示部で表示できるように現像処理を行う、表示部115は現像部114で現像処理された例えば赤外領域の現像画像をユーザーへ表示する。表示部115は例えば液晶パネルで構成される。
次に、図2を参照して、第1の実施形態における処理フローについて説明する。各ステップの処理はシステム制御部106あるいはシステム制御部106の指示により各部で行われる。
ステップ201では、撮像素子102から可視領域の視差画像信号と赤外領域の視差画像信号を取得する。図3は撮像素子102の画素部の配列を模式的に示したものである。受光部301はフォトダイオードに代表される光電変換素子が二次元上に配列され、各光電変換素子上部には被写体からの光束のうち特定の波長帯域を透過させるためにカラーフィルタが備えられている。カラーフィルタ302は赤色等可視光を透過するカラーフィルタ、赤外フィルタ303は赤外光を透過する、可視領域に比べて赤外領域により高い受光感度を有するフィルタである。カラーフィルタ302としてはそのほかにも緑色を透過するフィルタ(G)や青色を透過するフィルタ(B)が規則的に配置されている。これらカラーフィルタを透過した光束は、それぞれのカラーフィルタの直下に配置された光電変換部で光電子変換され、電気信号として撮像素子102から出力される。図4は撮像素子102を構成する光電変換素子とマイクロレンズとの関係を示した図である。図4のように、撮像素子102は2つの光電変換部401、402に共通で1つのマイクロレンズ404を備えて画素部403を形成している。前述したカラーフィルタ302や赤外フィルタ303は画素部に対して1対1でマイクロレンズ404の上部に形成されている。すなわち、カラーフィルタ302が配された画素部からの信号は、可視領域の視差画像(視点の異なる複数の可視光画像)の画素信号として取得される。また、赤外フィルタ303の配された画素部からの信号は、非可視領域の視差画像(視点の異なる複数の非可視光画像、赤外光画像)の画素信号として取得される。同様に、2つの光電変換部405、406に共通で1つのマイクロレンズ408を備え、画素部407を形成している。この構造によってペアとなっている各々の光電変換部から個別に信号を取り出すことで入射方向の異なる光束を受光した画像信号を取得できる。また、ペアとなっている各々の光電変換部からの信号を混合することで、画像処理装置や撮像装置で表示したり記録するための画像信号を取得できる。なお、撮像素子102上に存在する他の画素部についても、図示した位置関係で構成され、撮像素子102上の水平方向及び垂直方向に繰り返し配置されている。ステップ201では、このような構成の撮像素子102から各々の光電変換部で変換された電気信号を画像信号として出力する。第1の実施形態では、光電変換部401や405に位置する画像信号を第1視差画像として出力し、光電変換部402や406に位置する画像信号を第2視差画像として出力する。このような構成とすることで、撮像素子102から可視領域の視差画像と赤外領域の視差画像を両方とも同時に取得することができる。
ステップ202では、可視領域の視差画像から像ずれマップ(可視領域の像ずれマップ)を生成する。像ずれマップ生成部103は、撮像素子102から得られた可視領域の第1視差画像と第2視差画像をもとに、両画像間の像のずれ量を算出し、像ずれ量を2次元マップ化した像ずれマップとして記録制御部108に出力する。
図5は、第1視差画像と第2視差画像の像ずれ量を示した図である。図5において撮像素子102は、撮像面501に配置される。光学系101の射出瞳は、瞳部分領域504と瞳部分領域505に2分割される。図5において、dはデフォーカス量を示しており、結像位置から撮像面までの距離である。被写体502は合焦状態(d=0)となる被写体の位置を示している。被写体503は前ピン状態(d<0)となる被写体の位置を示している。また、前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)と呼ぶ。前ピン状態(d<0)では、被写体503からの光束のうち瞳部分領域504を通過した光束が一度集光した後、光束の重心位置G1を中心として幅Γ1に広がり、撮像面501でぼけた像となる。ぼけた像は、撮像素子102に配列された各画素403を構成する光電変換部401により受光され、第1視差画像が生成される。よって、第1視差画像は、撮像面501上の重心位置G1の近傍において、被写体503がぼけ幅Γ1にわたってぼけた被写体像として記録される。被写体像のぼけ幅Γ1は、デフォーカス量dの絶対値|d|にほぼ比例する。同様に、瞳部分領域505を通過した光束は、光束の重心位置G2を中心として幅Γ2に広がる。ぼけた像は、光電変換部402より受光され、第2視差画像が生成される。よって、第2視差画像は、撮像面501上の重心位置G2の近傍において、被写体502がぼけ幅Γ2にわたってぼけた被写体像として記録される。被写体像のぼけ幅Γ2も、デフォーカス量dの大きさ|d|にほぼ比例する。よって、第1視差画像と第2視差画像との間の被写体像の像ずれ量p(=光束の重心位置の差G1-G2)の絶対値|p|も、デフォーカス量dの絶対値|d|にほぼ比例する。なお、後ピン状態(d>0)の場合も、第1視差画像と第2視差画像との間の被写体像の像ずれ方向が前ピン状態と反対となる点を除き、同様である。このようにデフォーカス状態にある被写体502の1点から放出された放射光束は、撮像面501上で第1視差画像と第2視差画像間で像間の重心がずれることになる。
ステップ202では、像ずれマップ生成部103において、第1視差画像と第2視差画像の画像間でSAD(Sum ofAbsolute Difference)演算に代表される相関演算処理を行い、相関度合いに基づいて2つの像の間の像ずれ量を算出する。像ずれ量は第1視差画像や第2視差画像を構成する1画素単位の粒度で求めてもよいし、所定の画素数で領域を定義し各領域単位で算出するようにしてもよい。
次に、視差画像間の像ずれ量について、光の波長ごとの性質について説明する。図6は、視差画像間の像ずれ量を、可視領域と非可視領域のそれぞれで図示したものである。図6において、レンズ601を通過する被写体からの光束602のうち可視領域の光束603は、レンズの屈折によって605の位置で結像し、撮像面607上では可視領域の視差画像間の像ずれ量として像ずれ量608が得られる。一方で、被写体からの光束602に含まれる赤外領域の光束は、レンズ601の屈折率の波長依存性により、可視領域の光束603と異なった光束604となり、可視領域の結像位置605とは異なる606の位置で結像する。すると、撮像面607上では赤外領域の視差画像間の像ずれ量として可視領域の像ずれ量608とは異なる像ずれ量609が得られる。このように、屈折率の波長依存性に起因した結像位置のずれは、撮像面において視差画像間の像ずれ量の波長依存性を生じることになる。これは、例えば、可視領域で結像面が撮像面と一致していたとしても、赤外領域では結像面と撮像面が一致しないため、視差画像間では像ずれが発生することを示す。
ステップ203では、調整パラメータ生成部105はシステム制御部106から撮影時の光学情報を取得する。調整パラメータ生成部105は補正データ記憶部104から補正データを取得する前に、システム制御部106から光学系101に関する光学情報として光学系101のF値を取得する。F値とは光学系101の焦点距離を光学系101の有効口径で正規化した値である。図7は、光学的な条件が変化した場合の像ずれ量の変化について示した図であり、特には光学系101を構成する絞り機構が変化した場合の様子を模式的に示している。701が絞り機構であり、被写体からの光束602の一部を遮断して光量を調節するために使われる。絞り機構701で絞ったときの光束を702で示しており、絞る前の結像位置605で結像したのちに撮像面607で像を結ぶ。この時、絞り機構701で絞る前の像ずれ量608と絞ったときの像ずれ量703を比較すると、絞ったときのほうが像ずれ量が小さくなる。このように同一焦点距離であっても光学系101の有効径が変化すると、撮像面607上で現れる像ずれ量が変化する特徴がある。また、可視領域と赤外領域のそれぞれで考えると、可視領域の視差画像から得られる像ずれ量も赤外領域の視差画像から得られる像ずれ量もいずれも変化する。したがって、調整パラメータ生成部105は、撮像素子102から可視領域の視差画像と赤外領域の視差画像を取得するときの光学情報であるF値をシステム制御部106から取得する。なお、F値は光学系101を構成する絞り機構の変化だけでなく、定義で示されているように光学系101の焦点距離によっても変化する。このため、例えばズームレンズなどに代表される焦点距離が可変である光学系の場合は、システム制御部106から焦点距離情報を得るようにしてもよい。
ステップ204では、調整パラメータ生成部105はシステム制御部106から得られた光学情報に基づいて、補正データ記憶部104から補正データを取得し調整パラメータを決定し記録制御部108へ出力する。
図8は、可視領域の視差画像から得られる像ずれ量と、赤外領域の視差画像から得られる像ずれ量の関係を示した図である。横軸に可視領域の光束基準で設定したデフォーカス量に対する、可視領域の視差画像から得られる像ずれ量(可視領域の像ずれ量)の様子と、赤外領域の視差画像から得られる像ずれ量(非可視領域の像ずれ量)の様子を模式的に示している。可視領域の視差画像から得られる像ずれ量について、デフォーカス量が0の時は結像面と撮像面が一致しているため、像ずれ量も0となる。デフォーカス量が増加するに従い、結像面と撮像面が一致しなくなるため、801で示す特性を持つ。実際は光学系101や撮像素子102の持つ光学特性によって直線とはならない場合があるが、説明のため原点を通る直線で図示している。一方で、図6で説明した様に、赤外領域の視差画像から得られる像ずれ量は、可視領域の光束基準で設定したデフォーカス量が0の場合でも、光学系101の屈折率の波長依存性によって0とはならない。そして802に示すように可視領域の視差画像から得られる像ずれ量とは異なる特性を示す。これを、とある設定のデフォーカス量803を基準としてみれば、可視領域の視差画像から得られる像ずれ量と、赤外領域の視差画像から得られる像ずれ量には804で示す差分が見られる。したがって、この差分情報を調整パラメータとして可視領域の視差画像から得られる像ずれ量に適用することで、赤外領域の視差画像から得られる像ずれ量を推定して求めることが可能になる。
次に図9で補正データ記憶部104に記憶されている補正データについて説明する。図9は、可視領域の視差画像から得られる像ずれ量に対する、赤外領域の視差画像から得られる像ずれ量との差分、をグラフで模式的に示したものである。901がその例で、可視領域の視差画像から得られる像ずれ量に対応して離散的に差分情報を補正データとして補正データ記憶部104に保持している。なお、補正データはあらかじめ不図示の不揮発性記憶装置に記憶しておき、画像処理システムの起動時に補正データ記憶部104へ転送するようにしてもよい。また、図7で説明したように、光学系101の光学条件によって差分情報が変化する場合は、902に示すように光学条件ごとに補正データを補正データ記憶部104に記憶する。図9では2種類の光学条件として、F値が2.0の場合(901)とF値が4.0の場合(902)を補正データとして補正データ記憶部104に記憶させておく。また、調整パラメータ生成部105はシステム制御部106から得られる光学条件に応じて、補正データ記憶部104に記憶されてある複数の補正データのうち最適なものを読み出して、調整パラメータとして記録制御部108へ出力する。
また、補正データは離散的なので、必要に応じて既知の線形補間演算やバイキュービック補間などの補間処理によって間の補正データを生成し、それら補間処理を行ったものを調整パラメータとして記録制御部108へ出力するようにしてもよい。図10では、光学条件として、撮像面607上における光軸中心からの距離である像高に応じて補正データを持つ場合について図示している。光学系101のF値が同じであっても、撮像面607上では像高によって射出瞳の形状が異なり、その結果、像ずれ量も像高によって異なる場合がある。その場合は図10に示すように、像高位置が0の補正データ901とは別に、像高位置が10mmの補正データ1001、像高位置が20mmの補正データをそれぞれ用意して、補正データ記憶部104に記憶する。これにより、視差画像の画素位置に応じた適切な調整パラメータを生成することが可能となる。
さらに図11は、図9や図10で示した、可視領域の視差画像から得られる像ずれ量と補正データの関係を近似関数で表現したときの近似関数の係数のテーブルを示したものである。可視領域の視差画像から得られる像ずれ量をxとしたときの補正データをp_iとし、一次関数で近似する場合は式1で示す関数となる。
Figure 2023132730000002
f(r)は一次関数の傾き、g(r)は一次関数の切片を示している。rは撮像面607上の光軸中心からの距離である像高を示していて、傾きf(r)および切片g(r)は像高rの関数として、式2および式3の様に一次関数で近似している。
Figure 2023132730000003
Figure 2023132730000004
添え字_iはF値のバリエーションを示しており、a_i,b_i,α_i,β_iはいずれも図11に示すようにF値ごとにテーブル化して補正データ記憶部104に記憶させておく。システム制御部106は、調整パラメータ生成部105から光学情報であるF値を取得したのちに、F値に応じて図11のテーブルから4つの補正データを取得する。このようにすることで、調整パラメータ生成部105は、より少ない補正データをもとに近似式に基づいて調整パラメータを演算し記録制御部108へ出力することも可能になる。あるいは、読み出した4つの補正データをそのまま調整パラメータとして記録制御部108へ出力するようにしてもよい。
ステップ205では、記録制御部108は、可視領域の視差画像と、赤外領域の視差画像と、可視領域の像ずれマップと、赤外領域用(非可視領域用)の調整パラメータを記録媒体110に記録する。また、記録媒体110に記録するために、一時記憶部109を使ってあらかじめ決められたファイルフォーマットとなるように一時的にバッファリングしてから記録するようにしてもよい。図12は記録媒体110へ記録するファイル形式を模式的に示したものである。1つのファイル形式の中には、可視領域の第1視差画像VISIBLE_PARALLAX0と、可視領域の第2視差画像VISIBLE_PARALLAX1と、それら2つの画像と関連づけられた、可視領域の像ずれマップVISIBLE_DISPARITYを格納する。合わせて、赤外領域の第1視差画像UNVISIBLE_PARALLAX0と、赤外領域の第2視差画像UNVISIBLE_PARALLAX1を格納し、それらに関連した調整パラメータCORRECTION_PARAMETERを一緒に格納する。また、調整パラメータが可視領域の像ずれマップを生成するためのものなのか、赤外領域の像ずれマップを生成するためのものなのかを示すヘッダ情報と合わせて記録するようにしてもよい。また、像ずれマップ生成部103において可視領域の視差画像から像ずれマップを生成する際に、所定領域毎に像ずれ量を生成する場合がある。このとき、生成された像ずれマップの画像サイズと赤外領域の視差画像の画像サイズとが異なる場合があるため、生成された像ずれマップの画像サイズの関係性を示すサイズ情報を像ずれマップデータのヘッダ情報として一緒に記録するようにしてもよい。あるいは、両画像間の画像サイズの比率をヘッダ情報として記録するようにしてもよい。
以下のステップS206~S210は、記録媒体110に記録された画像ファイルから画像や対応するメタ情報を読み出し、表示等を行うステップであり、記録媒体110に画像ファイルを記録する画像処理装置とは別途設けられた装置により実行されてもよい。本実施形態では、同一の撮像装置において再生時に画像ファイル等を読み出して処理を行う形態について例示する。
ステップ206では、ファイル取得部111は記録媒体110に記録されているファイルを読み込む。読み込んだファイルから、可視領域の第1視差画像VISIBLE_PARALLAX0と、可視領域の第2視差画像VISIBLE_PARALLAX1と、それら2つの画像と関連づけられた、可視領域の像ずれマップVISIBLE_DISPARITY、赤外領域の第1視差画像UNVISIBLE_PARALLAX0と、赤外領域の第2視差画像UNVISIBLE_PARALLAX1と、調整パラメータCORRECTION_PARAMETERをそれぞれ分離する。
ステップ207では、像ずれ量調整部112は、調整パラメータと、可視領域の像ずれマップをもとに、赤外領域の像ずれマップを生成する。ファイル取得部111から出力された調整パラメータを、像ずれ量調整部112内の不図示の一次記憶部に記憶しておき、可視領域の像ずれマップに対して、赤外領域用の調整パラメータを適用して赤外領域の像ずれマップを生成する。調整パラメータは、可視領域の視差画像間の像ずれ量と赤外領域の視差画像間の像ずれ量の差分で表現しているので、加算演算によって赤外領域の像ずれマップを得ることができる。
ステップ208では、再構成部113は、赤外領域の像ずれマップと赤外領域の視差画像をもとに、赤外領域のリフォーカス画像を生成する。再構成部113は、赤外領域の像ずれマップをもとに第1視差画像と第2視差画像に対してシフト加算処理を行うことで画像を再構成する。図13は、シフト加算処理の仕組みを示した模式図である。
図13では、iを整数として、撮像面1301に配置された撮像素子102のi列目の画素部403で得られる第1視差画像をAi、第2視差画像をBiとして模式的に表している。第1視差画像Aiは、図5の瞳部分領域504に対応する主光線角度θaでi番目の画素部403に入射した光束に基づく画像信号である。第2視差画像Biは、図5の瞳部分領域505に対応する主光線角度θbでi番目の画素部403に入射した光束に基づく画像信号である。なお、主光線角度θa、θbは、撮像面1301に対する垂線と入射する光束の重心に相当する線とがなす角である。
第1視差画像Aiと第2視差画像Biは、光強度分布情報だけでなく、入射角度情報をも有している。よって、以下のような処理を考えることにより、仮想結像面1302での再構成画像(仮想結像面1302に撮像面1301が移動した場合に得られる画像)を生成可能であることが理解できる。まず、第1視差画像Aiを光束の向きに沿って仮想結像面1302まで平行移動させる。次に、第2視差画像Biを光束の向きに沿って仮想結像面1302の位置まで平行移動させる。これらの視差画像を加算することで、仮想結像面1302における再構成画像を生成することができる。
このときの並行移動の量が第1視差画像Ai、第2視差画像Biとも水平方向に0.5画素分であるものとする。この場合、第1視差画像Aiを光束に沿って仮想結像面1302まで平行移動させることは、水平方向に+0.5画素だけシフトさせることと等価である。第2視差画像Biを光束に沿って仮想結像面1302まで平行移動させることは、水平方向に-0.5画素だけシフトさせることと等価である。したがって、第1視差画像Aiと第2視差画像Biとを相対的に+1画素シフトさせる、すなわち、第1視差画像Aiと第2視差画像Bi+1を対応させて加算することで、仮想結像面1302における再構成画像を生成することができる。また、第1視差画像Aiと第2視差画像Biをシフト加算することで結像面を移動させる際の像面移動量と、シフト量との対応関係は、主光線角度θaと主光線角度θbの大きさにより決定される。
上述のシフト加算のシフト量をs、行番号をj、列番号をiとし、j行i列の第1視差画像をA(j,i)、第2視差画像をB(j,i)と表記する。これらをシフト加算して得られた再構成画像をI(j、i;s)とすることで、シフト加算の処理は以下の式4で表される。
Figure 2023132730000005
第1視差画像A(j,i)と第2視差画像B(j,i)がベイヤー配列であるため、シフト量sを2の倍数とすることで同色の視差画像を加算することができる。すなわち、s=2n(nは整数)と表すことができる。
さらに、視差画像間の像ずれ量に応じて、シフト量sを変えることにより、画素ごとあるいは領域ごとに像面移動量を変化させることができる。
像ずれ量調整部112から像ずれ量としてシフト量sを受け取り、シフト量sに基づいて画素単位あるいは領域単位で上述のシフト加算処理をすることで、像ずれ量に応じた像面移動、すなわちリフォーカス処理が可能となる。
また、第1視差画像A(j,i)と第2視差画像B(j,i)の各画素間の補間信号を生成してから再構成画像を生成してもよい。これにより、シフト量sを非整数とすることができ、シフト量sの設定自由度が向上する。
ステップ209では、表示用に、現像部114でリフォーカス処理後の赤外領域の画像の現像処理を行う。現像処理は表示部115が受け取れるフォーマットへの変換を指しており、例えばYUVフォーマットに代表されるような輝度信号と色差信号への変換処理を行う。赤外領域画像の場合、単一波長で構成されているため、モノクロ画像として現像される。
ステップ210では、表示部115で現像後の赤外領域画像を表示する。
以上で説明した処理により、以下の効果が得られる。撮像素子102から可視領域の視差画像と赤外領域の視差画像を同時に取得する。可視領域の視差画像をもとに視差画像間の像ずれ量を算出して像ずれマップを生成する。一方で赤外領域の視差画像からは像ずれマップを生成せずに、可視領域の視差画像から得られる像ずれ量に対する調整パラメータを生成する。調整パラメータは可視領域の視差画像の像ずれ量と、赤外領域の視差画像の像ずれ量の関係が示されており、可視領域の像ずれマップから調整パラメータを使って赤外領域の像ずれ量を推定することが可能となる。これにより、赤外領域の像ずれ量算出に係る処理負荷を低減し、かつファイルのデータ量を削減することで、メモリカードなどに代表される有限記録領域を持つ記録媒体を有効に活用することが可能となる。
また、本実施形態では1つの撮像素子102を使い射出瞳分割による視差画像を取得するシステムで説明をしたが、視点の異なる2つ以上の撮像素子102を使った視差画像を取得するシステムにおいても、同じ課題を解決する方法として有効である。
本実施形態では、可視領域の視差画像の像ずれマップを元に、赤外領域の視差画像の像ずれ量を推定可能にするための調整パラメータを生成する方法について説明した。しかしこれに限らず、赤外領域の視差画像の像ずれマップを元に、可視領域の視差画像の像ずれ量を推定可能にするための調整パラメータを生成するようにしてもよい。つまり可視光画像と非可視光画像のいずれか一方の深度情報と他方の画像用の調整パラメータを生成するという構成であればよい。可視領域を基準とするか、赤外領域を基準とするかの違いは、補正データ記憶部104に記憶させておく補正データを可視領域基準のデータとするか、赤外領域基準のデータとするかの相対的な違いだけであるので、本実施形態の説明の範疇で実現可能である。
また、本実施形態では記録媒体110に対して可視領域の像ずれマップと調整パラメータを記録したが、記録容量の削減を求めず調整パラメータの代わりに赤外領域の像ずれマップを記録するようにしてもよい。赤外領域(非可視領域)の像ずれマップが直接記録されていることで、調整パラメータを読み取り可視領域の像ずれマップを調整する手間やシステムが、画像ファイルを受け取り処理する後段の装置で必要なくなるという利点がある。像ずれマップ生成部103において、可視領域および赤外領域のそれぞれの像ずれマップを生成し記録することにより、例えば、赤外領域でしか撮影することのできない物体のリフォーカス処理が可能となる。また、記録媒体110に記録するファイルのデータ量を削減するために、調整パラメータを記録するか、赤外領域の像ずれマップを記録するかを、切り替えるようにしてもよい。
また、本実施形態では各画像に対応するマップ、調整パラメータを像ずれ量(像ずれマップ)で持っているが、像ずれ量に対してF値で換算しデフォーカス量(デフォーカスマップ)で持ってもよい。これにより調整パラメータもF値依存の無い補正データとなり、データ量を削減することも可能である。さらにデフォーカス量をレンズのパラメータ(焦点距離等)で換算した撮像装置と被写体までの距離(被写体距離)に換算し被写体距離(被写体距離マップ)やその調整パラメータで持ってもよい。本実施形態ではこれら像ずれ量、デフォーカス量、被写体距離をまとめて深度情報とよび、それらのマップを深度マップとよぶことにする。また、本実施形態では非可視光画像として赤外領域の光を受光した赤外光画像を例示した。しかしこれに限らず、赤外領域の中でも近赤外や遠赤外と分類されさらに非可視領域としては紫外領域などマルチスペクトルカメラ等で扱われるような非可視光の領域であればいずれの波長領域に対応する画像および対応する深度情報であってもよい。
(第2の実施形態)
以下、本発明の第2の実施形態を図面に参照し説明していく。第2の実施形態は、調整パラメータを記録媒体110へ記録せずに、記録後のファイルを読み出した後に調整パラメータを生成する場合についての実施形態である。
図14に第2の実施形態の撮像装置のブロック図を示す。図1と同じ番号を振った図面については説明を省略する。1401は記録媒体110に記録されたファイルを読み込み、読み込んだファイルから必要なデータを、後段の信号処理部に出力するファイル取得部である。1402は、ファイル取得部1401から出力された光学情報をもとに、調整パラメータを生成する調整パラメータ生成部であり、1403は、調整パラメータを生成するための補正データを記憶する補正データ記憶部である。1404は、ファイル取得部1401から出力される可視領域の像ずれマップと調整パラメータ生成部1402から出力される調整パラメータをもとに、赤外領域の像ずれマップを生成する像ずれ量調整部である。
次に、図15を参照して、第2の実施形態における処理フローについて説明する。図2と同じ符号を付しているものについては説明を省略する。
ステップ1501では、記録制御部108は、撮影時の光学条件をシステム制御部106から取得する。取得した光学情報は記録制御部108を介して記録媒体110に記録される。第1の実施形態と異なり、記録されるファイルは、図16に示すように調整パラメータCORRECTION_PARAMETERではなく、光学情報OPTICAL_INFORMATIONとなる。光学情報とは第1の実施形態で説明した光学系101のF値や焦点距離などである。
ステップ1502では、ファイル取得部1401は記録媒体110に記録されているファイルを読み込む。読み込んだファイルから、可視領域の第1視差画像VISIBLE_PARALLAX0と、可視領域の第2視差画像VISIBLE_PARALLAX1と、それら2つの画像と関連づけられた、可視領域の像ずれマップVISIBLE_DISPARITY、赤外領域の第1視差画像UNVISIBLE_PARALLAX0と、赤外領域の第2視差画像UNVISIBLE_PARALLAX1と、光学情報OPTICAL_INFORMATIONをそれぞれ分離する。
ステップ1503では、調整パラメータ生成部1402は補正データと、光学情報をもとに調整パラメータを生成する。第1の実施形態のステップ204と同様に、ファイル取得部1401から可視領域の視差画像が撮影されたときの光学情報を取得し、光学情報を元に補正データ記憶部1403から補正データを取得する。取得した補正データをもとに、可視領域の像ずれマップから、赤外領域の像ずれマップを推定するための調整パラメータを生成して出力する。
ステップ1504では、像ずれ量調整部1404は、調整パラメータと、可視領域の像ずれマップをもとに、赤外領域の像ずれマップを生成する。調整パラメータ生成部1402から出力された調整パラメータを、像ずれ量調整部1404内の不図示の一次記憶部に記憶しておき、可視領域の像ずれマップに対して、調整パラメータを適用して赤外領域の像ずれマップを生成する。調整パラメータは、第1の実施形態で示したように、可視領域の視差画像間の像ずれ量と赤外領域の視差画像間の像ずれ量の差分で表現しているので、加算演算によって赤外領域の像ずれマップを得ることができる。
本実施形態では視差画像を取得する画像処理システム側で像ずれ量を補正するための補正データを持っていたが、本実施形態によれば視差画像を撮影する画像処理システム側で補正データを持たなくてよい。代わりに、記録媒体110に記録されたファイルを読み込む画像処理システム側で補正データを持って置くことで、ファイルのデータ容量のさらなる低減が実現できる。
また、補正データ記憶部1403は記録されたファイルを読み込む画像処理システム内に無い構成としてもよい。例えば、ネットワーク上の不図示のデータサーバーに一括して記憶してあっても同等の効果が得られるうえ、補正データを一元管理できるので管理運営上好ましい。
(他の実施形態)
本発明の目的は以下のようにしても達成できる。すなわち、前述した各実施形態の機能を実現するための手順が記述されたソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給する。そしてそのシステムまたは装置のコンピュータ(またはCPU、MPU等)が記憶媒体に格納されたプログラムコードを読み出して実行するのである。
この場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した記憶媒体およびプログラムは本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスクなどが挙げられる。また、CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD-R、磁気テープ、不揮発性のメモリカード、ROM等も用いることができる。
また、コンピュータが読み出したプログラムコードを実行可能とすることにより、前述した各実施形態の機能が実現される。さらに、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれる。
更に、以下の場合も含まれる。まず記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う。
また、本発明はデジタルカメラのような撮影を主目的とした機器にかぎらず、携帯電話、パーソナルコンピュータ(ラップトップ型、デスクトップ型、タブレット型など)、ゲーム機など、撮像装置を内蔵もしくは外部接続する任意の機器に適用可能である。従って、本明細書における「撮像装置」は、撮像機能を備えた任意の電子機器を包含することが意図されている。
101 光学系
102 撮像素子
103 像ずれマップ生成部
104 補正データ記憶部
105 調整パラメータ生成部
106 システム制御部
107 光学系制御部
108 記録制御部
109 一次記憶部
110 記録媒体
111 ファイル取得部
112 像ずれ量調整部
113 再構成部
114 現像部
115 表示部

Claims (16)

  1. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像とを取得する第1の取得手段と、
    前記複数の可視光画像に対応した可視光画像の深度情報と、該可視光画像の深度情報に対応し、かつ前記複数の非可視光画像に対応した非可視光画像の深度情報とを取得する第2の取得手段と、
    前記複数の可視光画像、前記可視光画像の深度情報、前記複数の非可視光画像および前記非可視光画像の深度情報を含む1つのファイルを生成する生成手段と、を有することを特徴とする画像処理装置。
  2. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像とを取得する第1の取得手段と、
    前記可視光画像と前記非可視光画像のいずれか一方の深度情報と、前記いずれか一方の深度情報から他方の画像に対応する深度情報を生成するための調整パラメータとを取得する第3の取得手段と、
    前記複数の可視光画像、前記複数の非可視光画像、前記いずれか一方の深度情報および前記調整パラメータを含む1つのファイルを生成する生成手段と、を有することを特徴とする画像処理装置。
  3. 前記第3の取得手段は、前記可視光画像および前記非可視光画像が撮像された際の光学情報に基づいて前記調整パラメータを算出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記光学情報は、F値と焦点距離であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記深度情報は、前記複数の可視光画像または前記複数の非可視光画像の像ずれ量をマップ化したものであることを特徴とする、請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記深度情報は、前記複数の可視光画像または前記複数の非可視光画像のデフォーカス量または被写体距離をマップ化したものであることを特徴とする、請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記調整パラメータは、前記複数の可視光画像の深度情報と、前記複数の非可視光画像の深度情報の差であることを特徴とする請求項2に記載の画像処理装置。
  8. 前記調整パラメータは、像高をパラメータとした近似関数の係数をF値や焦点距離ごとに持つことを特徴とする請求項2に記載の画像処理装置。
  9. 前記可視光画像および前記非可視光画像いずれか一方の画像のサイズと、他方の画像のサイズの関係性を示すサイズ情報を、前記調整パラメータとして記録することを特徴とする請求項2に記載の画像処理装置。
  10. 前記非可視光画像は、赤外領域に可視領域に比べてより高い受光感度を有する画素から得られた赤外光画像であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像と、前記可視光画像と前記非可視光画像のいずれか一方の深度情報と、前記いずれか一方の深度情報から他方の画像に対応する深度情報を生成するための調整パラメータとを含む画像ファイルを取得する取得手段と、
    前記いずれか一方の深度情報及び前記調整パラメータを用いて、他方の画像に対応する深度情報を生成する生成手段と、
    前記他方の画像に対応する深度情報に基づいて画像処理を行う画像処理手段と、
    を有することを特徴とする画像処理装置。
  12. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像とを取得する第1の取得ステップと、
    前記複数の可視光画像に対応した可視光画像の深度情報と、該可視光画像の深度情報に対応し、かつ前記複数の非可視光画像に対応した非可視光画像の深度情報とを取得する第2の取得ステップと、
    前記複数の可視光画像、前記可視光画像の深度情報、前記複数の非可視光画像および前記非可視光画像の深度情報を含む1つのファイルを生成する生成ステップと、を有することを特徴とする画像処理装置の制御方法。
  13. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像とを取得する第1の取得ステップと、
    前記可視光画像と前記非可視光画像のいずれか一方の深度情報と、前記いずれか一方の深度情報から他方の画像に対応する深度情報を生成するための調整パラメータとを取得する第3の取得ステップと、
    前記複数の可視光画像、前記複数の非可視光画像、前記いずれか一方の深度情報および前記調整パラメータを含む1つのファイルを生成する生成ステップと、を有することを特徴とする画像処理装置の制御方法。
  14. 視点の異なる複数の可視光画像と、該複数の可視光画像に対応する、視点の異なる複数の非可視光画像と、前記可視光画像と前記非可視光画像のいずれか一方の深度情報と、前記いずれか一方の深度情報から他方の画像に対応する深度情報を生成するための調整パラメータとを含む画像ファイルを取得する取得ステップと、
    前記いずれか一方の深度情報及び前記調整パラメータを用いて、他方の画像に対応する深度情報を生成する生成ステップと、
    前記他方の画像に対応する深度情報に基づいて画像処理を行う画像処理ステップと、
    を有することを特徴とする画像処理装置の制御方法。
  15. 請求項12乃至14のいずれか1項に記載の画像処理装置の制御方法の手順が記述されたコンピュータで実行可能なプログラム。
  16. コンピュータに、請求項12乃至14のいずれか1項に記載の画像処理装置の制御方法の各工程を実行させるためのプログラムが記憶されたコンピュータが読み取り可能な記憶媒体。
JP2022038230A 2022-03-11 2022-03-11 画像処理装置及び画像処理方法 Pending JP2023132730A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022038230A JP2023132730A (ja) 2022-03-11 2022-03-11 画像処理装置及び画像処理方法
US18/178,370 US20230291981A1 (en) 2022-03-11 2023-03-03 Apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022038230A JP2023132730A (ja) 2022-03-11 2022-03-11 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2023132730A true JP2023132730A (ja) 2023-09-22

Family

ID=87931419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022038230A Pending JP2023132730A (ja) 2022-03-11 2022-03-11 画像処理装置及び画像処理方法

Country Status (2)

Country Link
US (1) US20230291981A1 (ja)
JP (1) JP2023132730A (ja)

Also Published As

Publication number Publication date
US20230291981A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
US11822211B2 (en) Imaging optical system storing information on its aberration, imaging apparatus, and control method thereof
US9936122B2 (en) Control apparatus, control method, and non-transitory computer-readable storage medium for performing focus control
US10313578B2 (en) Image capturing apparatus and method for controlling image capturing apparatus
US9641769B2 (en) Image capture apparatus and method for controlling the same
US20180241933A1 (en) Focusing adjustment apparatus and focusing adjustment method
JP6555863B2 (ja) 撮像装置及び撮像装置の制御方法
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
JP6843604B2 (ja) 情報処理装置及び情報処理方法
CN104702824A (zh) 摄像装置及摄像装置的控制方法
KR20150047112A (ko) 촬상장치, 그 제어 방법 및 기억매체
US20150287208A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium
JP2013097154A (ja) 距離測定装置、撮像装置、距離測定方法
JP6103969B2 (ja) 撮像装置、その制御方法およびプログラム
JP2023132730A (ja) 画像処理装置及び画像処理方法
JP6744933B2 (ja) レンズ部およびその制御方法
US10027881B2 (en) Image processing apparatus, image processing method, and storage medium
JP6685769B2 (ja) 情報処理装置、撮像装置及び情報処理方法
JP2023133024A (ja) 撮像装置及びその制御方法とプログラム
JP2018050231A (ja) 撮像装置、撮像方法および撮像制御プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213