JP2024040284A - 撮像装置、コンピュータプログラム、および撮像制御方法 - Google Patents

撮像装置、コンピュータプログラム、および撮像制御方法 Download PDF

Info

Publication number
JP2024040284A
JP2024040284A JP2024016683A JP2024016683A JP2024040284A JP 2024040284 A JP2024040284 A JP 2024040284A JP 2024016683 A JP2024016683 A JP 2024016683A JP 2024016683 A JP2024016683 A JP 2024016683A JP 2024040284 A JP2024040284 A JP 2024040284A
Authority
JP
Japan
Prior art keywords
area
tilt
focus lens
focus
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024016683A
Other languages
English (en)
Inventor
直樹 丸山
Naoki Maruyama
俊介 千野
Shunsuke Chino
諒 川崎
Ryo Kawasaki
夏子 佐藤
Natsuko Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019204141A external-priority patent/JP7433848B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2024040284A publication Critical patent/JP2024040284A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/958Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging
    • H04N23/959Computational photography systems, e.g. light-field imaging systems for extended depth of field imaging by adjusting depth of field during image capture, e.g. maximising or setting range based on scene characteristics
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/06Swinging lens about normal to the optical axis
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • G02B27/0068Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration having means for controlling the degree of correction, e.g. using phase modulators, movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • G02B7/09Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification adapted for automatic focusing or varying magnification
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/02Focusing arrangements of general interest for cameras, projectors or printers moving lens along baseboard
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/08Swing backs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Focusing (AREA)
  • Lens Barrels (AREA)

Abstract

【課題】被写体が変化した場合などシーンが変わっても、フォーカス位置とあおり角度をともに制御することで高速で最適なあおり制御装置を提供することである。【解決手段】上記目的を達成するために、実施例の撮像装置は、撮像素子または撮像光学系の少なくとも一つを駆動し、あおり制御を行うあおり制御手段と、フォーカスレンズを駆動するフォーカスレンズ駆動手段と、前記あおり制御手段と前記フォーカスレンズ駆動手段の少なくとも一つを用いてフォーカス補正を行うための複数の制御モードを有するとともに、撮影画面内の被写体領域の数に応じて、前記複数の制御モードの一つを選択する制御手段と、を有することを特徴とする。【選択図】図11

Description

本発明は、あおり制御の可能な撮像装置等に関するものである。
従来、監視カメラを天井などの高所に設置し、カメラの光軸を斜め下側に向け、道路を通行する人を監視したり、車やそのナンバープレートを撮影したりすることがある。この場合、カメラの光軸が斜め下向きとなるため、撮像を行う際のピントが合うピント面は光軸に垂直な面であり、実際に撮像を行う対象となる被写体の撮像面とは合致しない場合が多い。
そのため、ピントが合う領域は画面の一部となり、その他の領域はピントが合っていない状態となる。
このような課題に対し、レンズもしくは撮像素子を相対的に傾ける制御(以下、あおり制御)によって被写界深度範囲を広げる、シャインプルーフの定理を適用した撮像装置が一般的に知られている。
しかし、近距離の被写体から遠距離の被写体まで一定の角度であおり制御を行っても被写体の存在する位置の高低差や被写体自体の高さの違いなどがあり、近距離、遠距離でピントの合ったあおり角度が複数存在する場合がある。そのため、一種類のあおり角度では近距離から遠距離の被写体までピントの合った状態にあおり制御することができない。ただ、監視カメラとしては近距離から遠距離まで被写体を認識できることが重要となる。
また、被写体が変化することが考えられ、その時々に応じて適切なあおり制御を行うことが必要となる。その場合にあおり角度だけ制御すると、複数の被写体のうち一つの被写体には合わせることができるが、複数の領域の被写体に合わせることができない。そのため、あおり角度を変更するだけでなく、同時にフォーカスレンズを制御することが必要となる。
特許文献1には、撮影エリア内で複数の領域のフォーカス情報を取得し、所定の期間内にフォーカス情報を使用し、オートフォーカスを行い、あおり制御とオートフォーカスは別のタイミングで行う技術が記載されている。
特開平11-242154号公報
しかしながら、特許文献1に記載された撮像装置では、あおり制御とオートフォーカスを同時に制御することはできない。従って、オートフォーカスでピントが合わせた後にその状態であおり制御を行っているため、オートフォーカス、あおり制御と時間がかかり、被写体の変化に対してリアルタイムで追従するのが困難であるという課題がある。
そこで本発明の目的は、被写体が変化した場合などでも、フォーカスレンズ駆動とあおり制御を最適化することができ、高速で最適なあおり制御が可能な撮像装置を提供することにある。
上記目的を達成するために、本発明の撮像装置は、
撮像素子を傾けて、前記撮像素子と撮像光学系の光軸と直交する面との間の角度であるあおり角を変更するあおり制御を行うあおり角制御手段と、
フォーカスレンズを駆動するフォーカスレンズ駆動手段と、
ユーザーによって撮影画像上で指定された第1領域の位置情報およびユーザーによって前記撮影画像上で指定された第2領域の位置情報を取得する位置情報取得手段と、
前記第1領域および前記第2領域のそれぞれにおいてデフォーカス量を検出するデフォーカス量検出手段と、
前記第1領域の位置情報、前記第2領域の位置情報および前記デフォーカス量から前記あおり角および前記フォーカスレンズの駆動量を算出する算出手段と、
前記あおり角制御手段により、前記算出手段によって算出されたあおり角となるように前記撮像素子を傾け、前記フォーカスレンズ駆動手段により、前記算出手段によって算出されたフォーカスレンズの駆動量で前記フォーカスレンズを駆動する制御手段と、を備え、
前記第1領域の位置情報は、前記撮影画像内のあおり軸に対応する位置から前記第1領域までの距離であり、前記第2領域の位置情報は、前記撮影画像内の前記あおり軸に対応する位置から第2領域までの距離であり、
前記第1領域は、前記撮影画像内において、前記あおり軸に対応する前記位置の上方にあり、前記第2領域は、記あおり軸に対応する前記位置の下方にあることを特徴とする。
本発明によれば、被写体が変化した場合などでも、フォーカスレンズ駆動とあおり制御を最適化することができ、高速で最適なあおり制御が可能な撮像装置を得ることができる。
本発明の実施例1の撮像装置の構成例を示すブロック図である。 あおり制御を行うシーンの例を示す図である。 あおり制御方法を説明する図である。 複数のあおり角度が存在する例1を示した図である。 複数のあおり角度が存在する例2を示した図である。 撮影シーンの例を示す図である。 撮影シーンの他の例を示す図である。 本発明の実施例1に係るフォーカスレンズ駆動とあおり制御を説明する図である。 被写体が3つ以上ある場合のフォーカスレンズ駆動とあおり制御を説明する図である。 被写体がいない場合などの合わせたい代表的な平面例を示す図である。 本発明の実施例1に係る複数の制御モードを説明するフローチャートである。 実施例2における撮影シーンの一例を示した図である。 実施例3の処理フローの一例を示したフローチャートである。
以下に、本発明の好ましい実施の形態を、添付の図面に基づき実施例を用いて詳細に説明する。
<実施例1>
図1は、本発明の実施例1にかかわる撮像装置の構成を示すブロック図である。
本実施例の撮像光学系としてのレンズユニットは、光軸方向に移動して焦点距離を変更するズームレンズ101と、光軸方向に移動してピントの制御を行うフォーカスレンズ102と、光量を調整する絞りユニット103とを有する。図1における撮像光学系は、その一例を示したものであり、ズームレンズ101、フォーカスレンズ102、絞りユニット103のうちの一部がなくても良い。
撮像光学系を通過した光は、バンドパスフィルタ(以下、BPF)104およびカラーフィルタ105を介して撮像素子106上に光学像としての被写体像を形成する。
BPF104は撮像光学系の光路に対し進退可能なものもある。被写体像は、撮像素子106により光電変換され撮像信号を形成する。
撮像素子106から出力されたアナログの撮像信号は、AGC(Auto Gain Control)107によりゲイン調整され、AD変換器108によりデジタル信号に変換された後、カメラ信号処理部109に入力される。
カメラ信号処理部109では、デジタル撮像信号に対して各種画像処理(例えばガンマ変換やホワイトバランス調整など)を行って映像信号を生成する。この映像信号を不図示の表示部に画像として表示することによって撮影画面を表示することができる。
映像信号は、通信部110を介して、有線または無線通信によりネットワークを介して監視モニタ装置111に出力される。また通信部110は、外部PC等の外部制御装置からのコマンドを受けて撮像装置内のあおり/フォーカス制御部115にコマンドなどの制御信号を渡す。
本実施例では監視モニタ装置111等まで含めたシステムを撮像装置と呼ぶ。一方図1において監視モニタ装置111以外は一つの筐体に収納されており監視カメラを構成している。
フォーカス評価値算出部112はAD変換器108やカメラ信号処理部109からRGBの画素値や輝度値を受け取り、あおり制御やオートフォーカス(以下、AF)で使用するためのフォーカス評価値を算出する。フォーカス評価値は例えば監視モニタ装置111の不図示の表示部に表示される撮影画面を複数の被写体領域に分割し、被写体領域ごとに画像のコントラストや高周波成分を基に算出される。フォーカス評価値としては、フォーカス調整に用いることができる評価値であれば位相差AF方式や赤外光AF方式など、どのような方式によって取得しても構わない。
なお、撮影画面を表示するための不図示の表示部を例えばカメラ信号処理部109の出力側に選択的に接続し監視カメラ側でも撮影画面をモニタできるようにしても良い。
被写体判定部113はカメラ信号処理部109からの映像信号を画像認識して、撮影画面内から特定の被写体の検出を行う。特定の被写体としては、ユーザーにより任意に指定された、もしくは予めデフォルトとして設定された被写体(例えば人、顔、車など)であるが、これらの例に限らない。
あおり/フォーカスレンズ駆動量算出部114は、フォーカス評価値算出部112からのフォーカス評価値と被写体判定部113からの被写体認識結果が入力される。また、フォーカス評価値、被写体認識結果、あおり/フォーカス制御部115からのあおり角度情報とフォーカス位置情報を用いて、シーンに応じた最適なあおり角度とフォーカス位置の算出を行う。算出されたあおり角度とフォーカス位置をあおり/フォーカス制御部115に伝えて、あおり角度とフォーカス位置が制御される。
あおり/フォーカス制御部115は、コンピュータとしてのCPUが内蔵されており、不図示のメモリに記憶されたコンピュータプログラムに基づき装置全体の各種動作を制御手段として実行する。あおり/フォーカス制御部115は、通信部110を介して外部PCなどの外部制御装置からの指示に基づき、AFやマニュアルフォーカス(以下、MF)でのフォーカスレンズ駆動を行う。また、撮像素子駆動部116やフォーカス駆動部117から現在のレンズ位置情報を受け取り、あおり/フォーカスレンズ駆動量算出部114に現在の位置を伝える。また、あおり/フォーカスレンズ駆動量算出部114で算出されたあおり角度、フォーカス位置を撮像素子駆動部116、フォーカス駆動部117に対して送り駆動制御する。
撮像素子駆動部116はあおり制御手段(あおり角制御手段)として機能し、あおり/フォーカス制御部115から指示されたあおり角度に基づいて撮像素子106をチルトする。即ち、撮像素子106を傾けて、撮像素子106と撮像光学系の光軸と直交する面との間の角度であるあおり角(チルト角)を変更する。
本実施例では、撮像素子106をチルトするための回転軸は撮影画面の中心を通る水平方向の(撮像素子の長手方向に沿った)軸であり、この回転軸を中心に撮像素子106は撮像光学系に対して相対的にチルト制御される。
なお、あおり制御をするためには撮像素子側ではなく撮像光学系の一部のレンズを撮像素子に対して相対的にチルト制御しても良い。
フォーカス駆動部117はあおり/フォーカス制御部115から指示されたフォーカスの設定位置に基づいてフォーカスレンズ102の位置を制御する。
あおり制御を行うシーンの例として図2のようなシーンを想定する。図2はあおり制御を行うシーンの例を示す図である。
近距離、遠距離に被写体がいる場合である。あおり制御を行わずAFやMFでのピント合わせでは近距離か遠距離のどちらかの被写体にピントを合わせることになってしまう。
一方、図3はあおり制御方法を説明する図であり、あおり制御とは図3に示すように例えば撮像素子106をチルトすることによって、ピントの合った面を地面などの水平面に平行にする制御である。これにより地面と平行な面に関して、近距離から遠距離の被写体まで被写界深度内に入り、ピントの合った状態を維持することができる。
あおり角度bはシャインプルーフの定理より、次式(1)で算出される。
b=arctan(f/(Ltanα)) (式1)
なお、fは焦点距離、Lは被写体距離、αは光軸とピント面の角度である。
図4、図5は複数の最適なあおり角度が存在する例1、例2を示した図である。図4のように被写体が歩いている面の高さが変化する場合や、図5のように高さの異なる被写体が複数存在する場合などには被写体ごとに最適なあおり角度が異なってしまう。同様に、撮像素子106のあおり用の回転軸が通る撮像素子の撮影画面の中央の被写体にAFやMFでピントが合っていない場合などにも、被写体ごとに最適なあおり角度が異なってしまう。つまり、撮影画面内で被写体により複数の最適なあおり角度が存在することになる。図6、図7はそれぞれ撮影シーンの例を示す図であるが、図6、図7のように高さの異なる複数の被写体が異なる距離にそれぞれ存在する場合などにはピントが合わなくなる場合がある。
更には各被写体が時間とともにそれぞれ移動したりいなくなったりする場合にも、そのシーン変化に応じてそれまでのあおり制御ではピントが合わなくなる場合がある。
また、高さの異なる被写体が複数存在する場合には、あおり制御だけでは最適な制御ができない場合が多い。
その一例を、図8を用いて説明する。図8はフォーカスレンズ駆動とあおり制御を説明する図である。
対象とする被写体として、画面内に被写体人801(第1領域)と被写体車802(第2領域)が存在する場合を想定する。現在のあおり角度とフォーカスレンズ102の位置が図8の上部の位置関係になっている。xが被写体人801に対してピントを合わせるために必要な、撮像光学系の結像面からのフォーカス補正量(デフォーカス量)となっている。また、yが被写体車802に対してピントを合わせるために必要な撮像光学系の結像面からのフォーカス補正量(デフォーカス量)となっている。あおり制御だけでは被写体人801、被写体車802両方にピントを合わせることは困難な場合が多い。
そのため、本実施例ではフォーカスレンズによるフォーカス補正とあおり制御によるフォーカス補正をともに行う。その場合の各々の駆動量の算出方法例を説明する。図8の上部のように撮像素子106の撮像面の中心を通るあおり軸から被写体までの距離(像高)を被写体人801に対してk1[um]、被写体車802に対してk2[um]とする。ここで、k1、k2はそれぞれ撮影画面の第1領域の位置情報および撮影画面の第2領域の位置情報に相当する。また、フォーカスレンズ102の移動による結像面上でのフォーカス補正量をβとする。
βの算出例としては、フォーカスレンズ102の敏感度とフォーカスレンズ102の駆動量の積から算出することが挙げられる。一方、あおり角度によるフォーカス補正量は、あおり角度をθ[°]とすると、α=tanθと、あおり軸から被写体までの距離k1、k2の積となる。
以上から、
x=k1×α+β (式2)
y=k2×α-β (式3)
となり、連立方程式を解くと、
β=(k2×x-k1×y)/(k1+k2) (式4)
α=(x+y)/(k1+k2) (式5)
よって、あおり角度θは
θ=arctan((x+y)/(k1+k2)) (式6)
により算出できる。また、フォーカスレンズの駆動量(フォーカスレンズ駆動量)γを近似的に算出するには、例えばγ=β/(フォーカスレンズの敏感度)で算出できる。なお、正確に算出するためには敏感度に応じた高次方程式や多項式を解くようにしても良い。
なお、フォーカスレンズ駆動量γの算出方法に関しては種々の変形及び近似等が可能であり、それらの変形や近似等を用いた算出方法であっても良い。
さらに被写体が3つ以上ある場合について説明する。図9は被写体が3つ以上ある場合のフォーカスレンズ駆動とあおり制御を説明する図である。図9のように近距離から遠距離まで被写体がいる場合、あおり制御とフォーカスレンズ駆動だけでは全ての被写体にピントを合わせることができない。
遠距離の被写体人901、被写体人902、近距離の被写体人903それぞれに対する撮像光学系の結像面からのフォーカス補正量(ずれ量、ボケ量)をa[um]、b[um]、c[um]とする。
この場合の制御方法の例を説明する。まず、第一の方法としては、a[um]、b[um]、c[um]などのフォーカス補正量の最大値が最小になるように制御する方法である。フォーカスレンズ駆動とあおり制御を行い、a[um]、b[um]、c[um]の最大値が最小になるように制御する。この方法により、図9のようなシーンにおいて被写体のボケを最小に抑えることができる。第二の方法としては、ピントが合っていると判断(許容)される量、つまり被写界深度を算出して、a[um]、b[um]、c[um]などのフォーカス補正量が被写界深度に収まるように制御する方法である。
被写界深度は、撮像素子106の1画素あたりのセルピッチと絞り値によって決められる値である。被写界深度をFΔとすると、下記式のように解くことにより計算できる。
FΔ≧k1’×α+β (式6)
FΔ≧k2’×α+β (式7)
FΔ≧k3’×α-β (式8)
上記の式6~式8を解いてα、βを算出し、更にα、βからあおり角θ、フォーカスレンズ駆動量γを算出すればよい。
a[um]、b[um]、c[um]が被写界深度に収まるとユーザーからはピントのボケが分からないし、第一の方法のようにa[um]、b[um]、c[um]の最大値が最小になるように追い込む必要がない。第二の方法で制御を行い、撮影したい被写体が被写界深度に入らない場合に、第一の方法で追い込む制御も考えられる。
一般的に近距離と遠距離では遠距離側の方があおり制御に対する被写界深度が深くなるため、近距離の被写体を優先してあおり制御またはフォーカスレンズ駆動を行うことも有効である。そのためには、被写体までの距離を測定する測距手段を備え、複数の被写体の距離をそれぞれ測定し、その中で撮像素子に相対的に近い被写体を優先してあおり制御またはフォーカスレンズ駆動を行う。
また、被写体が変わるということは、いなくなることも考えられる。その場合には、地面などの平面にピントが合ってしまう可能性がある。また、本来、ピントを合わせたい平面から離れてしまう場合もあるため、固定のフォーカスレンズの位置、あおり角度に制御する方法が考えらえる。
図10は被写体がいない場合などの合わせたい代表的な平面例を示す図である。図10のようにカメラの設置されたシーン、主とする被写体によって、合わせたい平面を例えば地面から1.6m上に平行に移動した平面とする、などと設定することが可能となる。前記平面に合うように制御することで、ピントの合った部分の画面内の割合を増やしたりできる。あるいは大きくボケてしまうことを防止できる。ピントを合わせたい平面に関しては、ユーザーが決める方法でも構わないし、予め決められた平面でも構わない。その他にも過去に停止していた頻度の高いフォーカスレンズの位置、あおり角度の履歴を不図示のメモリから読み出して、重み付けして設定することでそのシーンに応じて有効な平面に対してフォーカスレンズ駆動を実現する方法も考えられる。
次に図11のフローチャートを参照して実施例1に係る複数の制御モードの選択の例を説明する。
本実施例においては、あおり制御手段と前記フォーカスレンズ駆動手段の少なくとも一つを用いてフォーカス補正を行うための複数の制御モードを有する。さらに、撮影画面内の被写体領域の数に応じて、前記複数の制御モードの一つを選択する点に特徴を有する。
S1101でスキャンを行う。スキャンとは撮像素子106のあおり角度またはフォーカスレンズ102を一方向に徐々に変化させるように駆動する制御である。S1102でスキャン中にフォーカス評価値算出部112にて画面内の複数の領域に対して領域ごとに評価値を算出する。
S1103で被写体判定部113にて被写体のいる領域を判別する。被写体のいる領域とはS1102で算出された領域ごとの評価値の高い領域または、画像認識に基づく被写体判別によって、人物や車など注目すべき被写体が存在すると判別された領域である。
S1104で、被写体のいる領域数(被写体領域の数)を判定する。S1104で1つであると判定された場合、S1105にて、被写体のいる領域にピントが合うようにあおり制御かフォーカスレンズ駆動のいずれかを用いてフォーカス補正を行う第1の制御モードを選択する。
具体的には、例えば被写体が画面上下中央付近にいない場合にはあおり制御によってフォーカス補正を行う。すなわち被写体の画面内の上下の中央からの距離(像高)が所定値より大きい場合にはあおり制御を行い、被写体の画面内の上下の中央からの距離(像高)が前記所定値より小さい場合にはフォーカスレンズ駆動によってフォーカス補正を行う。
S1104で被写体のいる領域数が2つである場合には、S1106にて第2の制御モードを選択する。即ち、あおり制御とフォーカスレンズ駆動の両方を用いてフォーカス補正を行う。具体的には、例えば式2~式5を用いて前述の通り被写体のいる領域にピントが合うように、被写体のいる領域のフォーカス補正量を算出する。
即ち、S1102で算出された領域ごとの評価値を使用し、領域毎の評価値がピーク値となるフォーカスレンズの位置を例えば式2、式3におけるx、yとして取得する。画面内の領域の位置に基づき式2、式3におけるk1、k2を取得する。更に式4、式5によりあおり角度θ、フォーカスレンズ駆動量γを算出する。
そして、上記のあおり角度θ、フォーカスレンズ駆動量γになるようにあおり制御とフォーカスレンズ駆動を行う。
なお、領域ごとのフォーカス補正量の計算としては、前述の方法に限ったものでなく、外測センサや、各画素が視差を有する複数の光電変換部から構成された撮像素子を用いた、いわゆる撮像面位相差方式によって被写体距離を取得するものであっても構わない。
上記S1104で被写体のいる領域の数が3つ以上であると判定された場合、S1107にてS1106と同様、第2の制御モードを選択する。即ち、あおり制御とフォーカスレンズ駆動の両方を用いてフォーカス補正を行う。ただし同じ第2の制御モードを選択しているが、具体的な演算方法(演算アルゴリズム)がS1106とは異なる。前述のように被写体のいる領域のフォーカス補正量(ボケ量)の最大値が最小になるように例えば式6~式8などを用いてあおり角度θ、フォーカスレンズ駆動量γを算出する。そして算出されたあおり角度θ、フォーカスレンズ駆動量γになるようにあおり制御とフォーカスレンズ駆動を行う。
この場合、被写体のいる領域が許容錯乱円径に収まるように制御する。なお、本実施例では被写体のいる領域の数が所定数以上の場合に、S1107のステップに進み、所定数として3と設定しているが、前記所定数はたとえば4以上の数であっても良い。その場合、被写体のいる領域の数が2または3の場合にはS1106に進むことになる。また、被写体のいる領域の数が2以上の場合に、S1107のステップに進むようにし、S1106のステップは使わないようにしても良い。
上記S1104で、被写体のいる領域がない場合、すなわち被写体が画面内に存在しないと判別された場合には、S1108にて、予め設定したフォーカス補正量となるように制御する第3の制御モードを選択する。即ち、スキャンなどの制御開始直前の過去のフォーカスレンズ駆動位置やあおり角度に戻す。あるいは過去のフォーカスレンズ駆動、あおり制御で最も多く停止していた位置を記憶しておいて、最も多く停止していた位置をデフォルトとしてフォーカスレンズ駆動、あおり制御を行っても良い。即ち、不図示のメモリに過去のフォーカスレンズ駆動位置やあおり角度や、過去のフォーカス補正量の履歴を記憶しておき、その履歴情報に基づきフォーカス位置やあおり角度を制御する。
なお、被写体の領域に変化がない場合も被写体のいる領域がない場合と同様の制御を行っても構わない。
以上説明したように、実施例1においては、S1103によって撮影画面内の被写体領域の数を自動的に判別している。そして、その数に応じて、あおり制御手段とフォーカスレンズ駆動手段の少なくとも一方を用いた複数のフォーカス補正のための制御モードのうちの一つを選択している。従って、被写体の変化によってピントがずれてしまったりせず、状況に応じた最適なあおり制御とフォーカスレンズ駆動を実現することができる。
<実施例2>
次に、本発明の実施例2を、図12に基づいて説明する。実施例2は、ユーザーにより撮像画像の任意の領域を指定して、フォーカス位置とあおり角度を制御するものである。
図12は、実施例2における撮影シーンの一例を示した図である。図12中に映っている被写体A1201、被写体B1202に対して、この2つの領域をユーザーが領域指定手段(タッチパネルやマウス等)を用いて領域指定する。本実施例では、ユーザーが領域指定手段を用いて領域の原点やコーナー、幅、高さ等を指定することで指定領域の設定を行う。
また、位置の指定方法としては、あらかじめ指定枠幅を決めておいて、その枠を任意の位置へ移動させるようにしても良い。上記のような方法により例えば1つ目の指定領域1203を設定し、続いて2つ目の指定領域1204の設定を同様に行う。
このように図11のステップS1101~S1103における、撮影画面内の被写体領域の自動判別を実行する代わりに、ユーザーによって撮影画面内の被写体領域を手動で指定するようにしても良い。その場合には、ユーザーが指定した撮影画面内の被写体領域の数が、ステップS1104において、被写体のいる領域の数に相当することになる。
<実施例3>
実施例2ではユーザーによって撮影画面内の被写体領域を手動で指定した後、ステップS1104で被写体のいる領域の数を判別するようにしているが、実施例3では、領域の数を判別せずにあおり角とフォーカス位置を制御する。
図13は実施例3の処理フローの一例を示したフローチャートである。
まずS1301において上記で述べたようにユーザーが図12に示すような任意の2つの指定領域A(第1領域)(1203)、指定領域B(第2領域)(1204)を設定する。ここで指定領域Aを評価枠A、指定領域Bを評価枠Bと呼ぶ。
次にS1302で、2つの指定領域(評価枠)それぞれの像高から実施例1に記載のk1、k2を取得する。即ち、撮像素子106の撮像面の中心を通るあおり軸から評価枠Aの中心までの距離(像高)をk1[um]、評価枠Bの中心までの距離(像高)をk2[um]とする。即ち、S1302は撮影画面の第1領域の位置情報および撮影画面の第2領域の位置情報を取得する位置情報取得手段として機能している。
そしてS1303では初期フォーカス位置を記憶し、S1304で評価枠Aのピント面上での補正量(デフォーカス量)xを算出し、続いてS1305にて評価枠Bのピント面上での補正量(デフォーカス量)yを算出する。即ち、S1303は第1領域および第2領域のそれぞれにおいてデフォーカス量を検出するデフォーカス量検出手段として機能している。
算出方法は実施例1に記載の通りである。
S1306ではあおり角(チルト角)θとフォーカス補正量βを算出する。
あおり角θは実施例1に記載したように、式6から、
θ=arctan((x+y)/(k1+k2))
で求められる。
以上の算出結果の値に基づいて、S1307であおり角とフォーカス位置を制御することであおり制御が可能となる。
本実施例3では、被写体が2つの場合を示したが複数の被写体の中から任意の被写体を選ぶことで、ユーザーが注目したい被写体に対してピントを合わせる事も可能である。
また、本実施例で説明しなかった2つよりも多い領域もしくは2つよりも少ない領域を選択した場合の処理に関しては、実施例1に記載の複数ピント位置での処理と同様の対応で対処することが可能である。
さらに指定領域の設定に関しても、本実施例では矩形で説明を行ったが領域を指定するうえで、その目的が果たせるものであれば指定の方法、形状はどのようなものでも構わない。
以上の実施例1~3において、あおり制御は例えば撮像素子のあおり角(チルト角度)を変えたがレンズのチルト角度を変えるのでも構わない。また、水平方向のあおり制御だけでなく、垂直方向を加えた2軸のあおり制御についても同様の制御することで2平面において被写体の認識性を維持したあおり制御を実現することが可能となる。
なお以上の実施例1~3において、式を用いてCPU等で演算を行うことによって演算結果を導出する例を説明した。しかし、式を用いた演算の代わりに、予め不図示のメモリにこれらの式に対応したテーブルを記憶しておき、そのテーブルを用いて式に基づく演算結果と同様の結果を直接導出しても良い。
また、本発明は上記実施形態に限定されるものではなく、本発明の主旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。
また、本実施例における制御の一部または全部を上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して撮像装置や撮像制御装置に供給するようにしてもよい。そしてその撮像装置や撮像制御装置におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。
101 ズームレンズ
102 フォーカスレンズ
103 絞りユニット
104 バンドパスフィルタ
105 カラーフィルタ
106 撮像素子
107 AGC
108 AD変換機
109 カメラ信号処理部
110 通信部
111 監視モニタ装置
112 フォーカス評価値算出部
113 被写体判定部
114 あおり/フォーカスレンズ駆動量算出部
115 あおり/フォーカス制御部
116 撮像素子駆動部
117 フォーカス駆動部

Claims (7)

  1. 撮像素子を傾けて、前記撮像素子と撮像光学系の光軸と直交する面との間の角度であるあおり角を変更するあおり制御を行うあおり角制御手段と、
    フォーカスレンズを駆動するフォーカスレンズ駆動手段と、
    ユーザーによって撮影画像上で指定された第1領域の位置情報およびユーザーによって前記撮影画像上で指定された第2領域の位置情報を取得する位置情報取得手段と、
    前記第1領域および前記第2領域のそれぞれにおいてデフォーカス量を検出するデフォーカス量検出手段と、
    前記第1領域の位置情報、前記第2領域の位置情報および前記デフォーカス量から前記あおり角および前記フォーカスレンズの駆動量を算出する算出手段と、
    前記あおり角制御手段により、前記算出手段によって算出されたあおり角となるように前記撮像素子を傾け、前記フォーカスレンズ駆動手段により、前記算出手段によって算出されたフォーカスレンズの駆動量で前記フォーカスレンズを駆動する制御手段と、を備え、
    前記第1領域の位置情報は、前記撮影画像内のあおり軸に対応する位置から前記第1領域までの距離であり、前記第2領域の位置情報は、前記撮影画像内の前記あおり軸に対応する位置から第2領域までの距離であり、
    前記第1領域は、前記撮影画像内において、前記あおり軸に対応する前記位置の上方にあり、前記第2領域は、前記あおり軸に対応する前記位置の下方にあることを特徴とする撮像装置。
  2. θをあおり角、xを第1領域におけるデフォーカス量、yを第2領域におけるデフォーカス量、k1、k2を撮像面の中心を通るあおり軸からそれぞれ第1、第2の領域までの距離としたときに以下の式
    θ=arctan((x+y)/(k1+k2))
    を満たすように、前記制御手段が、前記あおり角制御手段とフォーカスレンズ駆動手段とを制御することを特徴とする、請求項1に記載の撮像装置。
  3. 前記制御手段は、前記デフォーカス量検出手段が前記デフォーカス量を検出する前に、前記フォーカスレンズの初期フォーカス位置を記憶することを特徴とする請求項1に記載の撮像装置。
  4. 前記あおり軸は、前記撮像素子の撮像面の中心を通ることを特徴とする請求項1に記載の撮像装置。
  5. 前記第1領域の位置情報は、前記撮影画像の前記あおり軸に対応する位置から前記第1領域の中心までの距離と、前記第2領域の位置情報は、前記撮影画像の前記あおり軸に対応する位置から前記第2領域の中心までの距離であることを特徴とする請求項1に記載の撮像装置。
  6. ユーザーによって撮影画像上で指定された第1領域の位置情報およびユーザーによって前記撮影画像上で指定された第2領域の位置情報を取得する位置情報取得ステップと、
    前記第1領域および前記第2領域のそれぞれにおいてデフォーカス量を検出するデフォーカス量検出ステップと、
    前記第1領域の位置情報、前記第2領域の位置情報および前記デフォーカス量から前記あおり角および前記フォーカスレンズの駆動量を算出する算出ステップと、
    前記算出ステップによって算出されたあおり角となるように前記撮像素子を傾けるあおり制御を行うあおり制御、および、前記算出ステップによって算出されたフォーカスレンズの駆動量で前記フォーカスレンズを駆動するフォーカスレンズ駆動を行う制御ステップと、を備え、
    前記第1領域の位置情報は、前記撮影画像内のあおり軸に対応する位置から前記第1領域までの距離であり、前記第2領域の位置情報は、前記撮影画像内の前記あおり軸に対応する位置から第2領域までの距離であり、
    前記第1領域は、前記撮影画像内において、前記あおり軸に対応する前記位置の上方にあり、前記第2領域は、前記あおり軸に対応する前記位置の下方にあることを特徴とする、撮像装置の制御方法。
  7. 請求項1~5のいずれか1項に記載の撮像装置の各手段としてコンピュータを機能させるためのコンピュータプログラム。

JP2024016683A 2019-03-15 2024-02-06 撮像装置、コンピュータプログラム、および撮像制御方法 Pending JP2024040284A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019048401 2019-03-15
JP2019048401 2019-03-15
JP2019204141A JP7433848B2 (ja) 2019-03-15 2019-11-11 撮像装置、コンピュータプログラム、記憶媒体および撮像制御方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019204141A Division JP7433848B2 (ja) 2019-03-15 2019-11-11 撮像装置、コンピュータプログラム、記憶媒体および撮像制御方法

Publications (1)

Publication Number Publication Date
JP2024040284A true JP2024040284A (ja) 2024-03-25

Family

ID=69804606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2024016683A Pending JP2024040284A (ja) 2019-03-15 2024-02-06 撮像装置、コンピュータプログラム、および撮像制御方法

Country Status (4)

Country Link
US (2) US11381731B2 (ja)
EP (1) EP3722871B1 (ja)
JP (1) JP2024040284A (ja)
CN (1) CN111698417B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102510704B1 (ko) * 2018-10-30 2023-03-16 캐논 가부시끼가이샤 촬상 장치
JP7271159B2 (ja) * 2018-12-14 2023-05-11 キヤノン株式会社 制御装置、撮像装置、レンズ装置、プログラム、および制御装置の制御方法
JP7305485B2 (ja) 2019-08-29 2023-07-10 キヤノン株式会社 制御装置、撮像装置、レンズ装置、制御方法、および、プログラム
JP7362360B2 (ja) 2019-08-29 2023-10-17 キヤノン株式会社 制御装置、撮像装置、レンズ装置、および、プログラム
JP7336330B2 (ja) 2019-09-24 2023-08-31 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
JP7471799B2 (ja) * 2019-11-12 2024-04-22 キヤノン株式会社 制御装置、撮像装置、制御方法、および、プログラム
CN114095645B (zh) * 2020-08-24 2023-04-18 浙江大华技术股份有限公司 景深调整方法以及摄像器件、存储装置
EP3968624B1 (en) * 2020-09-14 2023-11-15 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
US20220345633A1 (en) * 2021-04-21 2022-10-27 Canon Kabushiki Kaisha Image pickup apparatus, control method, and memory medium
US11722775B2 (en) * 2021-08-17 2023-08-08 Canon Kabushiki Kaisha Image pickup apparatus and controlling method thereof
JP2023140195A (ja) * 2022-03-22 2023-10-04 キヤノン株式会社 制御装置、レンズ装置、撮像装置、カメラシステム、制御方法、及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0437935A (ja) 1990-06-01 1992-02-07 Hitachi Ltd キャッシュメモリを有する計算機
JP3733228B2 (ja) * 1997-12-25 2006-01-11 キヤノン株式会社 アオリ機構付き撮像装置、方法、及び記憶媒体
DE69820871T2 (de) 1998-07-08 2004-12-16 Hewlett-Packard Co. (N.D.Ges.D.Staates Delaware), Palo Alto Kamera mit Vorrichtung zur Korrektur des Trapezoidalbildfehlers
JP3207169B2 (ja) 1998-12-09 2001-09-10 オリンパス光学工業株式会社 撮像装置
US6985177B2 (en) 2000-07-04 2006-01-10 Canon Kabushiki Kaisha Image sensing system and its control method
JP4297630B2 (ja) 2001-04-25 2009-07-15 株式会社リコー 電子撮像装置
JP3639574B2 (ja) 2002-10-24 2005-04-20 オリンパス株式会社 カメラ
JP2008165142A (ja) * 2007-01-05 2008-07-17 Elmo Co Ltd 撮影装置および焦点調整方法
JP2008205569A (ja) 2007-02-16 2008-09-04 Fujifilm Corp 撮像装置及び方法
JP5627652B2 (ja) * 2012-06-06 2014-11-19 キヤノン株式会社 撮像装置およびその制御方法、並びにレンズ装置およびその制御方法
JP5938281B2 (ja) * 2012-06-25 2016-06-22 キヤノン株式会社 撮像装置およびその制御方法ならびにプログラム
JP6391304B2 (ja) 2014-06-05 2018-09-19 キヤノン株式会社 撮像装置、制御方法およびプログラム
US9955057B2 (en) * 2015-12-21 2018-04-24 Qualcomm Incorporated Method and apparatus for computational scheimpflug camera
US10341567B2 (en) * 2016-03-16 2019-07-02 Ricoh Imaging Company, Ltd. Photographing apparatus
EP3507765A4 (en) * 2016-09-01 2020-01-01 Duelight LLC SYSTEMS AND METHODS FOR FOCUS ADJUSTMENT BASED ON TARGET DEVELOPMENT INFORMATION
JP2019048401A (ja) 2017-09-08 2019-03-28 キヤノンファインテックニスカ株式会社 記録装置および記録方法
US10887503B2 (en) 2017-09-27 2021-01-05 Canon Kabushiki Kaisha Control apparatus, image capturing apparatus, and control method
JP7034705B2 (ja) * 2017-12-22 2022-03-14 キヤノン株式会社 レンズ装置、撮像装置及びカメラシステム
JP2019204141A (ja) 2018-05-21 2019-11-28 京セラドキュメントソリューションズ株式会社 著作物提示装置及び著作物提示プログラム
KR102510704B1 (ko) 2018-10-30 2023-03-16 캐논 가부시끼가이샤 촬상 장치
JP7271159B2 (ja) 2018-12-14 2023-05-11 キヤノン株式会社 制御装置、撮像装置、レンズ装置、プログラム、および制御装置の制御方法

Also Published As

Publication number Publication date
US11750939B2 (en) 2023-09-05
CN111698417A (zh) 2020-09-22
CN111698417B (zh) 2022-08-19
US20200296296A1 (en) 2020-09-17
US11381731B2 (en) 2022-07-05
EP3722871A1 (en) 2020-10-14
US20220321790A1 (en) 2022-10-06
EP3722871B1 (en) 2023-01-18

Similar Documents

Publication Publication Date Title
JP2024040284A (ja) 撮像装置、コンピュータプログラム、および撮像制御方法
EP3648450B1 (en) Imaging apparatus
US9830947B2 (en) Image-capturing device
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US9253410B2 (en) Object detection apparatus, control method therefor, image capturing apparatus, and storage medium
US20140267869A1 (en) Display apparatus
JP7433848B2 (ja) 撮像装置、コンピュータプログラム、記憶媒体および撮像制御方法
US8711274B2 (en) Image processing apparatus and method configured to calculate defocus amount of designated area
JP6863284B2 (ja) 検出装置、検出方法、検出プログラムおよび撮像装置
JP2013013050A (ja) 撮像装置及びこの撮像装置を用いた表示方法
US11582394B2 (en) Control apparatus, control method, and storage medium for providing tilt control
US20140192162A1 (en) Single-eye stereoscopic imaging device, imaging method and recording medium
WO2016002355A1 (ja) 撮影装置及び撮影方法
JP5936358B2 (ja) 画像表示装置、画像表示方法、撮像装置およびその制御方法、プログラムおよびそれを記憶する記憶媒体
JP2020134904A (ja) 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
JP6833801B2 (ja) 撮像装置、撮像方法、プログラムおよび記録媒体
JP4582295B2 (ja) 撮影装置及びそのプログラム
JP2015014672A (ja) カメラ制御装置、カメラシステム、カメラ制御方法、及びプログラム
JP6501536B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2020144158A (ja) 撮像装置及びその制御装置
US11012629B2 (en) Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus
JP2005308777A (ja) 撮影装置及びそのプログラム
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP2021019214A (ja) 撮像装置、コンピュータプログラムおよび記憶媒体
JP2022128941A (ja) 撮像装置、コンピュータプログラム、記憶媒体及び撮像装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240209