JP2022086802A - レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム - Google Patents

レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2022086802A
JP2022086802A JP2020199008A JP2020199008A JP2022086802A JP 2022086802 A JP2022086802 A JP 2022086802A JP 2020199008 A JP2020199008 A JP 2020199008A JP 2020199008 A JP2020199008 A JP 2020199008A JP 2022086802 A JP2022086802 A JP 2022086802A
Authority
JP
Japan
Prior art keywords
information
lens
reward
unit
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020199008A
Other languages
English (en)
Inventor
潤二 重田
Junji Shigeta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020199008A priority Critical patent/JP2022086802A/ja
Priority to US17/530,584 priority patent/US11849218B2/en
Publication of JP2022086802A publication Critical patent/JP2022086802A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/021Mountings, adjusting means, or light-tight connections, for optical elements for lenses for more than one lens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/02Mountings, adjusting means, or light-tight connections, for optical elements for lenses
    • G02B7/04Mountings, adjusting means, or light-tight connections, for optical elements for lenses with mechanism for focusing or varying magnification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • H04N23/651Control of camera operation in relation to power supply for reducing power consumption by affecting camera operations, e.g. sleep mode, hibernation mode or power off of selective parts of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/685Vibration or motion blur correction performed by mechanical compensation
    • H04N23/687Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0053Driving means for the movement of one or more optical element
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2205/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B2205/0053Driving means for the movement of one or more optical element
    • G03B2205/0069Driving means for the movement of one or more optical element using electromagnetic actuators, e.g. voice coils
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B5/00Adjustment of optical system relative to image or object surface other than for focusing
    • G03B5/02Lateral adjustment of lens

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Lens Barrels (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】学習済モデルを得るのに有利なレンズ装置を提供する。【解決手段】光学部材と、光学部材を駆動する駆動部と、第1の学習済モデルに基づいて、駆動部を制御する制御部とを有するレンズ装置であって、第1の学習済モデルは、レンズ装置とは異なる装置に関する学習により得られた第2の学習済モデルを初期の学習済モデルとしてレンズ装置に関する学習により得られた学習済モデルであることを特徴とするレンズ装置。【選択図】図15

Description

本発明は、レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラムに関する。
従来、デジタルカメラは静止画の撮影を、ビデオカメラは動画の撮影をそれぞれ行うべく棲み分けがなされていた。しかしながら、近年、デジタルカメラにおいても動画を撮影して記録できるものが製品化されている。
さらに、静止画撮影は、速写性を重要視するために、オートフォーカスや絞り、電動ズームなどの高速動作が必要となる。一方、動画撮影は、フォーカスや絞り、ズーム等の駆動部の作動音が大きいと、その作動音が、ノイズとして、記録されるべき音声とともに記録されてしまう。特許文献1には、この二つの課題を解決するレンズ装置が開示されている。
また、撮影装置において、光学部材の駆動部に求められる性能は多岐にわたる。例えば、追従性のための駆動速度、正確な撮影条件設定のための光学部材位置決め精度、撮影時間確保のための低消費電力、動画撮影のための静音性能が挙げられる。それらの性能には、相互に依存関係がある。特許文献1に記載のレンズ装置は、動画撮影において、光学部材を駆動する速度や加速度を制限することにより、静音性能を実現している。
ところが、求められる静音性能は、ユーザにより異なりうる。また、求められる速度や加速度も、ユーザやレンズ装置の状態により異なりうる。さらに、求められる光学部材の位置決め精度も、ユーザやレンズ装置の状態により異なりうる。
特開2007-6305号公報
ここで、レンズ装置を用いて行われた機械学習により得られた機械学習モデル(学習済モデル)に基づいてレンズ装置の駆動制御を行いうるところ、当該機械学習のためにはレンズ装置に多くの駆動が必要となりうる。
本発明は、例えば、学習済モデルを得るのに有利なレンズ装置を提供することを目的とする。
本発明の一実施態様に係るレンズ装置は、光学部材と、前記光学部材を駆動する駆動部と、第1の学習済モデルに基づいて、前記駆動部を制御する制御部とを有するレンズ装置であって、前記第1の学習済モデルは、前記レンズ装置とは異なる装置に関する学習により得られた第2の学習済モデルを初期の学習済モデルとして前記レンズ装置に関する学習により得られた学習済モデルであることを特徴とする。
本発明によれば、例えば、学習済モデルを得るのに有利なレンズ装置を提供することができる。
実施例1に係るシステム構成を示すブロック図である。 フォーカスレンズ制御に要求される位置精度を説明するための図である。 フォーカスレンズ制御に要求される速度を説明するための図である。 位置精度と、速度、消費電力、及び静音との関係を説明するための図である。 速度と、位置精度、消費電力、及び静音との関係を説明するための図である。 ニューラルネットワークの入出力の一例を示す。 実施例1に係る一連の撮影処理の流れを示すフローチャートである。 実施例1に係る報酬情報の一例を示す。 機器制約報酬情報及びユーザ要望報酬情報のデータ構造の一例を示す。 報酬情報決定処理の流れを示すフローチャート図である。 機器制約報酬情報データベースのデータ構造の一例を示す。 ユーザ要望情報データベースの構造の一例を示す。 ユーザ要望報酬変換情報データベースのデータ構造の一例を示す。 報酬情報データベースのデータ構造の一例を示す。 機械学習処理の流れを示すフローチャート図である。 機械学習モデルデータベースのデータ構造の一例を示す。 ウエイト初期値決定処理の流れを示すフローチャート図である。 報酬情報におけるユーザ要望報酬情報の値の一例を示す。 ユーザ要望情報におけるユーザ要望の値の一例を示す。 実施例2に係るシステム構成を示すブロック図である。 実施例3に係るシステム構成を示すブロック図である。
以下、本発明を実施するための例示的な実施例を、図面を参照して詳細に説明する。ただし、以下の実施例で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更できる。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。
なお、以下において、学習済モデルとは、ディープラーニング等の任意の機械学習アルゴリズムに従った機械学習モデルに対して、事前にトレーニング(学習)を行ったモデルをいう。ただし、学習済モデルは、事前に学習を行っているが、それ以上の学習を行わないものではなく、追加の学習を行うこともできるものとする。
以下、図1乃至図19を参照して、本発明の実施例1に係る撮像システムについて説明する。本実施例では、撮像システムの一例としてカメラシステムについて説明する。
<カメラシステムの構成>
以下、図1を参照して、本実施例に係るカメラシステムのシステム構成について説明する。図1は、本実施例に係るカメラシステムのシステム構成を示すブロック図である。
本実施例に係るカメラシステムには、撮像装置の一例であるカメラ本体200と、レンズ装置の一例であるレンズ100とが設けられている。カメラ本体200とレンズ100は、結合機構であるマウント300を介して機械的及び電気的に接続されている。カメラ本体200は、マウント300に設けられた不図示の電源端子部を介してレンズ100に電源を供給する。また、カメラ本体200とレンズ100はマウント300に設けられた不図示の通信端子部を介して相互に通信を行う。
レンズ100は、撮像光学系を有する。撮像光学系は、焦点調節を行うフォーカスレンズ101、変倍を行うズームレンズ102、光量を調節する絞りユニット103、及び像振れ補正レンズ104を含む。フォーカスレンズ101とズームレンズ102は、不図示のレンズ保持枠によって保持されている。レンズ保持枠は、不図示のガイド軸により光軸方向(図中に破線で示す)に移動可能にガイドされている。
フォーカスレンズ101は、フォーカスレンズ駆動部105を介して光軸方向に移動される。フォーカスレンズ101の位置は、フォーカスレンズ検出部106によって検出される。
ズームレンズ102は、ズームレンズ駆動部107を介して光軸方向に移動される。ズームレンズ102の位置は、ズームレンズ検出部108によって検出される。
絞りユニット103には、絞り羽根が設けられており、絞り駆動部109を介して絞り羽根を駆動し、光量調節動作を行う。絞りのF値は、絞り検出部110によって検出される。
像振れ補正レンズ104は、像振れ補正レンズ駆動部112を介して光軸に直交する方向に移動され、手振れ等に起因する像振れを低減する。像振れ補正レンズ104の位置は、像揺れ補正レンズ検出部113によって検出される。
フォーカスレンズ駆動部105、ズームレンズ駆動部107、絞り駆動部109、及び像振れ補正レンズ駆動部112には、例えば超音波モータが用いられている。なお、本実施例では超音波モータを用いたが、他のモータ(ボイスコイルモータ、DCモータ、又はステッピングモータ等)を用いてもよい。
フォーカスレンズ検出部106、ズームレンズ検出部108、絞り検出部110、及び像揺れ補正レンズ検出部113は、例えばポテンションメーターやエンコーダを含む。また、駆動部がステッピングモータ等の、所定の駆動量をフィードバック無しに駆動できるモータを用いて構成されている場合は、駆動部の駆動量に基づいてレンズ等の位置を検出する手段を設けてもよい。この場合には、フォトインタラプタ等の検出センサを設けた所定位置まで光学部材を初期駆動し、初期駆動後は、モータ駆動量を基に光学部材の位置を特定することができる。
揺れセンサ111は、レンズ100の揺れを検出するセンサである。揺れセンサ111は、例えばジャイロセンサ等を用いて構成されてよい。
次に、レンズ100の駆動及び通信を制御するレンズマイクロコンピュータ(以下、レンズマイコン120という)について説明する。レンズマイコン120には、NN制御部121、レンズ装置情報管理部122、NNデータ記憶部123、動作ログ管理部124、制御部125、通信部126、及びレンズ個体情報管理部127が設けられている。
NN制御部121は、フォーカスレンズ101の位置を制御する制御部である。NN制御部121には、ニューラルネットワーク(以下、NN)アルゴリズムが実装されており、NN制御部121は、フォーカスレンズ101の目標位置等に基づいて、NNアルゴリズムによりフォーカスレンズ駆動部105の駆動指令を決定する。NNアルゴリズムの詳細については後述する。
レンズ装置情報管理部122は、NN制御部121で使用するレンズ装置情報を管理する管理部である。ここで、レンズ装置情報は、撮影映像に影響を与えるレンズ装置の撮影条件に関する情報であって、例えば、焦点深度やフォーカス敏感度等を含む。
NNデータ記憶部123は、NNの結合重み付け係数であるウエイトを保持する記憶部である。また、動作ログ管理部124は、フォーカスレンズ101の駆動制御に関係する動作ログ情報を管理する管理部である。ここで、動作ログ情報は、NNアルゴリズムの制御結果を点数化する上で、点数を決める対象となる制御結果情報である。動作ログ情報は、例えば、フォーカスレンズの目標位置及び位置情報、フォーカスレンズの駆動速度及び加速度、並びにフォーカスレンズ駆動部105の消費電力等を含むことができる。
制御部125は、ズームレンズ102、絞りユニット103、及び像振れ補正レンズ104のそれぞれの位置を制御するとともに、レンズ100とカメラ本体200との情報伝達を制御する。制御部125は、例えば、制御対象の目標位置又は速度と、制御対象の現在の位置又は速度との偏差に対して、PID(Proportional-Integral-Differential)制御により駆動指令を生成し、制御対象の制御を行う。
通信部126は、カメラ本体200と通信するための通信部である。また、レンズ個体情報管理部127は、レンズ100のレンズ機種及び個体識別番号の少なくとも一方を示す情報であるレンズ個体情報(レンズ情報)を管理する管理部である。
次に、カメラ本体200について説明する。カメラ本体200には、撮像素子201、A/D変換回路202、信号処理回路203、記録部204、表示部205、操作部206、カメラマイクロコンピュータ(以下、カメラマイコン210という)、及び学習部220が設けられている。
撮像素子201は、レンズ100から入射した光を映像電気信号に変換する撮像素子である。撮像素子201は、例えばCCDセンサやCMOSセンサである。A/D変換回路202は、撮像素子201から出力された映像電気信号をデジタル信号に変換するための変換回路である。信号処理回路203は、A/D変換回路202から出力されたデジタル信号を映像データに変換する信号処理回路である。
記録部204は、信号処理回路203から出力された映像データを記録する記録部である。表示部205は、信号処理回路203から出力された映像データやユーザ要望情報等の各種情報を表示するための表示部である。表示部205は、公知の任意のモニタを用いて構成されてよい。
操作部206は、ユーザがカメラを操作するための操作部である。操作部206は、例えばボタン等の公知の任意の入力部材を用いて構成されてよい。また、タッチパネルを用いて表示部205を構成する場合には、操作部206は表示部205と一体的に構成されてもよい。
カメラマイクロコンピュータ(以下、カメラマイコン210)は、カメラ本体200を制御する制御マイクロコンピュータである。カメラマイコン210には、制御部211、及び通信部212が設けられている。
制御部211は、信号処理回路203からの映像データ及び操作部206からのユーザの操作情報に基づいてレンズ100への駆動指令を行う制御部である。また、制御部211は、学習部220に対しての指令や情報伝達を制御も行う。
通信部212は、レンズ100との通信を行うための通信部である。より具体的には、通信部212は、制御部211からの駆動指令を制御コマンドとしてレンズ100へ送信する。また、通信部212は、レンズ100からの情報の受信も行う。
学習部220は、プロセッサ及び記憶装置を用いて構成されることができる。ここで、プロセッサは、CPU(Central Processing Unit)やGPU(Graphic Processing Unit)等の任意のプロセッサであってよい。また、記憶装置は、ROM(Read Only Memory)やRAM(Random Access Memory)、HDD(Hard Disc Drive)等の任意の記憶媒体を用いて構成されてよい。
学習部220には、学習処理部221、動作ログ保持部222、報酬管理部223、機器制約報酬管理部224、ユーザ要望報酬管理部225、ユーザ要望管理部226、ユーザ要望保持部227、及び機器制約報酬情報保持部228が設けられている。また、学習部220には、ユーザ要望報酬変換情報保持部229、報酬情報保持部230、機械学習モデル保持部231、及び機械学習初期値管理部232が設けられている。なお、学習部220の各構成要素は、CPUやMPU等のプロセッサが記憶装置に記憶されたソフトウェアモジュールを実行することで実現されてよい。また、プロセッサは、例えば、GPUやFPGA(Field-Programmable Gate Array)等であってもよい。さらに、学習部220の各構成要素は、ASIC(Application Specific Integrated Circuit)等の特定の機能を果たす回路等によって構成されてもよい。
学習処理部221は、NN制御部121に設けられたNNの学習処理を行う。本実施例では、学習処理部221は、NNを用いたフォーカスレンズ101の制御に関して、レンズ装置毎の機器的な制約情報及びユーザによる要望情報に基づく報酬情報に応じた動作の評価値を報酬とし、報酬が最大となるようにNNに対して強化学習を行う。
機器制約報酬管理部224は、レンズ装置毎の機器的な制約情報に関する報酬情報である機器制約報酬情報を管理する。具体的には、機器制約報酬管理部224は、レンズ個体情報に含まれるレンズ機種情報に応じて、機器制約報酬情報保持部228に保持された機器制約報酬情報データベースから、レンズ100に対応する機器制約報酬情報を決定する。なお、機器制約報酬情報データベースには、レンズ機種情報と機器制約報酬情報が関連付けて記憶されている。
ユーザ要望報酬管理部225は、ユーザによる要望情報に関する報酬情報であるユーザ要望報酬情報を管理する。ユーザ要望報酬変換情報保持部229は、レンズ個体情報のレンズ機種情報とユーザ要望報酬変換情報が関連付けて記憶されているユーザ要望報酬変換情報データベースを保持する。また、ユーザ要望報酬変換情報保持部229は、レンズ個体情報のレンズ機種情報に応じて、ユーザ要望報酬変換情報データベースからレンズ100に対応するユーザ要望報酬変換情報を決定する。ユーザ要望報酬変換情報保持部229は、決定したユーザ要望報酬変換情報を参照してユーザによって設定されたユーザ要望情報をユーザ要望報酬情報に変換する。ユーザ要望報酬管理部225は、ユーザによって設定されたユーザ要望情報に対応付けて、変換されたユーザ要望報酬情報を管理する。
ユーザ要望管理部226は、ユーザによって設定された、現在の制御に適用されるべきユーザ要望情報を管理する。ユーザ要望保持部227は、ユーザによって設定されたユーザ要望情報を記憶したユーザ要望情報データベースを保持する。
報酬管理部223は、機器制約報酬情報とユーザ要望報酬情報を結合し、報酬情報を決定し、管理する。報酬情報保持部230は、報酬情報を記憶した報酬情報データベースを保持する。
機械学習モデル保持部231は、機械学習モデルを記憶した機械学習データベースを保持する。また、機械学習モデル保持部231は、レンズ個体情報及びユーザの要望に応じて、機械学習モデルデータベースから、NNの機械学習の初期値を定めるのに用いる学習済モデルを選択する。機械学習初期値管理部232は、機械学習モデル保持部231が選択した学習済モデルのウエイトを、NN制御部121のNNの機械学習を行う際のウエイトの初期値(機械学習初期値)として管理する。なお、機械学習モデルデータベースには、レンズ個体情報と、ユーザ要望情報と、報酬情報と、機械学習モデルとが対応付けて記憶されている。なお、機械学習モデルデータベースに記憶される報酬情報は、報酬情報データベースに記憶された報酬情報の識別番号等であってよい。
動作ログ保持部222は、駆動指令に応じたフォーカスレンズ101の駆動制御に関する動作ログ情報を保持する。学習部220の記憶装置には、学習部220の各種構成要素を実装するためのプログラム、及び動作ログ保持部222が保持している動作ログ情報等の学習部220の各構成要素が保持する各種情報や各種データベース等が記憶されている。
<撮影映像記録及び表示>
以下、図1に示したカメラシステムにおける撮影映像記録及び表示について説明する。レンズ100に入射した光は、フォーカスレンズ101、ズームレンズ102、絞りユニット103、及び像振れ補正レンズ104を通過し、撮像素子201に結像する。撮像素子201に結像した光は、撮像素子201にて電気信号に変換され、A/D変換回路202にてデジタル信号に変換され、信号処理回路203にて映像データに変換される。信号処理回路203から出力される映像データは記録部204に記録される。また、表示部205は、信号処理回路203から出力される映像データを基に映像を表示する。
<フォーカス制御>
次に、カメラ本体200がレンズ100のフォーカスを制御する方法について説明する。制御部211は、信号処理回路203から出力された映像データを基に、AF(オートフォーカス)制御を行う。
具体的には、制御部211は、映像データのコントラストの明暗差が最も大きくなるように、フォーカスレンズ101を動かして、撮影被写体にフォーカスが合うように制御する。まず、制御部211は、フォーカスレンズ101を動かすためのフォーカス駆動量を駆動指令として通信部212に出力する。通信部212は、制御部211から駆動指令を受け取ると、フォーカス駆動の駆動指令を制御コマンドに変換し、マウント300の通信接点部を介してレンズ100へ送信する。
レンズ100の通信部126は、通信部212からの制御コマンドを受信すると、制御コマンドをフォーカス駆動の駆動指令に変換し、制御部125を介してNN制御部121に出力する。NN制御部121は、フォーカス駆動の駆動指令と、フォーカスレンズ検出部106が検出したフォーカスレンズ位置と、後述する撮影条件とをNNへの入力として用いて駆動信号を決定し、フォーカスレンズ駆動部105へ駆動信号を出力する。ここで、駆動信号の決定に用いられるNNは、NNデータ記憶部123に記憶されている学習済モデルのウエイトを有することで、当該学習済モデルと同様の処理を行うことができる。このため、NNは、学習の傾向に従ってレンズ100の構成及びユーザの要望に応じたフォーカスレンズの駆動量を出力することができる。
以上により、制御部211からの駆動指令に従い、フォーカスレンズ101が駆動される。このような動作により、制御部211は、映像データのコントラストの明暗差が最も大きくなるようにフォーカスレンズ101を動かすことで、適切なAF制御を行うことができる。また、駆動信号の決定に学習済モデルのウエイトを有するNNを用いることで、レンズ100の構成及びユーザの要望に応じたAF制御を行うことができる。
<絞り制御>
次にカメラ本体200がレンズ100の絞りを制御する方法について説明する。制御部211は、信号処理回路203から出力された映像データを基に、露出制御を行う。具体的には、制御部211は、映像データの輝度値が一定となるように、目標となるF値を決定する。制御部211は、決定したF値を駆動指令として通信部212に出力する。通信部212は、制御部211から駆動指令を受け取ると、F値の駆動指令を制御コマンドに変換し、マウント300の通信接点部を介してレンズ100へ送信する。
レンズ100の通信部126は、通信部212からの制御コマンドを受信すると、F値の駆動指令に変換し、制御部125に出力する。制御部125は、F値の駆動指令と絞り検出部110が検出した絞りのF値とを基に駆動信号を決定し、絞り駆動部109へ駆動信号を出力する。以上により、映像データの輝度値が一定となるように、F値が制御され、適切な露光制御を行うことができる。
<ズーム制御>
次にカメラ本体200がレンズ100のズームを制御する方法について説明する。まず、ユーザが、操作部206を介してズーム操作を行う。制御部211は、操作部206から出力されたズーム操作量を基にズームレンズ102を動かすためのズーム駆動量を決定し、ズーム駆動量を駆動指令として通信部212に出力する。通信部212は、制御部211から駆動指令を受け取ると、ズーム駆動の駆動指令を制御コマンドに変換し、マウント300の通信接点部を介してレンズ100へ送信する。
レンズ100の通信部126は、通信部212からの制御コマンドを受信すると、ズーム駆動の駆動指令に変換し、制御部125に出力する。制御部125は、ズーム駆動の駆動指令とズームレンズ検出部108が検出したズームレンズ位置とを基に駆動信号を決定し、ズームレンズ駆動部107へ駆動信号を出力する。以上により、操作部206に入力されたズーム操作に従い、ズームレンズ102が駆動され、ユーザがズームを操作することができる。
<防振制御>
次にレンズ100が防振制御を行う方法について説明する。制御部125は、揺れセンサ111から出力されたレンズ100の揺れ信号を基に、レンズ100の揺れを打ち消すように、像揺れ補正レンズ目標位置を決定する。制御部125は、像揺れ補正レンズ検出部113が検出した像揺れ補正レンズ位置と決定した像揺れ補正レンズ目標位置とを基に駆動信号を決定し、像振れ補正レンズ駆動部112へ駆動信号を出力する。以上により、防振が正しく制御され、撮像素子201にて撮影された像揺れを防ぐことができる。
<フォーカスレンズ制御に要求される4つの指標>
次に、フォーカスレンズ制御に要求される事項について説明する。フォーカスレンズ制御には、位置精度、速度、消費電力、及び静音の4つの要求事項がある。フォーカスレンズ制御では、それぞれの要求事項をバランスよく制御することが求められる。以下、それぞれの要求事項について説明する。
<フォーカスレンズ制御に要求される位置精度>
フォーカスレンズ制御に関する位置精度とは、フォーカスレンズを目標位置へ駆動する際に、目標位置に対してどれだけ正確にフォーカスレンズを駆動できるかを表す指標である。以下、フォーカスレンズ制御に関する位置精度について、図2(a)及び図2(b)を参照して説明する。図2(a)は焦点深度が浅い場合、図2(b)は焦点深度が深い場合におけるフォーカスレンズとフォーカス位置の関係を示している。図2(a)及び図2(b)は、レンズ構成は同じで、F値のみ異なる場合のフォーカスレンズとフォーカス位置の関係を示している。また、図2(a)及び図2(b)において、共通のものに対しては同じ参照符号を付している。
図2(a)及び図2(b)において、フォーカスレンズ目標位置Gは、光軸上の主被写体の点物体Sの像が、撮像素子201上に合焦するフォーカスレンズ位置を示している。これに対し、フォーカスレンズ位置Cは、フォーカスレンズ目標位置Gを目標に駆動した後のフォーカス位置を示している。フォーカスレンズ位置Cは、フォーカスレンズ目標位置Gに対して、制御誤差Erの分だけ点物体S側の位置となっている。フォーカス位置Bpは、フォーカスレンズ位置がフォーカスレンズ位置Cのときの点物体Sの結像位置を示している。錯乱円δは撮像素子201上の錯乱円である。
図2(a)におけるF値Faは、図2(b)におけるF値Fbよりも明るい値(小さい値)となっている。そのため、図2(a)における焦点深度幅2Faδは、図2(b)における焦点深度幅2Fbδよりも狭い範囲となっている。図2(a)における光線Cla及び光線Glaは、それぞれ、フォーカスレンズ位置C及びフォーカスレンズ目標位置Gにおける点物体Sの光線のうち、一番外側の光線を示している。また、図2(b)における光線Clb及び光線Glbは、それぞれ、フォーカスレンズ位置C及びフォーカスレンズ目標位置Gにおける点物体Sの光線のうち、一番外側の光線を示している。
図2(a)において、点像直径Iaは、フォーカスレンズがフォーカスレンズ位置Cにあるときの点物体Sの撮像素子201上の点像の直径を示す。また、図2(b)において、点像直径Ibは、フォーカスレンズがフォーカスレンズ位置Cにあるときの点物体Sの撮像素子201上の点像の直径を示す。
ここで、図2(a)においては、フォーカス位置Bpは焦点深度幅2Faδの範囲外となっており、点像直径Iaは錯乱円δより大きく、中心の画素に収まらず隣の画素へ光が入射している。以上により、図2(a)においては、フォーカスレンズ位置Cでは点物体Sは非合焦となる。一方、図2(b)においては、フォーカス位置Bpは焦点深度幅2Fbδの範囲内となっており、点像直径Ibは錯乱円δより小さく、中心の画素に全ての光線が集光している。以上により、図2(b)において、フォーカスレンズ位置Cでは点物体Sは合焦となる。
以上の通り、同じ位置精度を達成したとしても、F値等の撮影条件により、非合焦又は合焦に合焦状態が変化する。このことから、撮影条件により、フォーカスレンズ制御に要求される位置精度が変化することが分かる。
<フォーカスレンズ制御に要求される速度>
次に、フォーカスレンズ制御に関する速度について、図3(a)及び図3(b)を参照して説明する。ここで、フォーカスレンズ制御に関する速度とは、フォーカスレンズを駆動する際の移動速度(フォーカスレンズの駆動速度)のことである。なお、移動速度は、単位時間あたりの移動量と考えることで移動量に置き換えることができる。また、フォーカスが合っている位置の光軸方向の移動量のことをフォーカス移動量、移動速度をフォーカス移動速度とする。フォーカスレンズ移動量はフォーカス移動量と比例関係にある。フォーカスレンズ移動量とフォーカス移動量の比例定数をフォーカス敏感度という。フォーカス敏感度は、レンズの構成する光学系の位置関係(レンズ装置の構成)によって変化する。ここで、フォーカス移動量ΔBp、フォーカス敏感度Se、及びフォーカスレンズ移動量ΔPの関係は、フォーカス移動量ΔBp=フォーカス敏感度Se×フォーカスレンズ移動量ΔP(式1)で表すことができる。
図3(a)はフォーカス敏感度Seが小さい場合、図3(b)はフォーカス敏感度Seが大きい場合におけるフォーカスレンズとフォーカス位置の関係を示している。図3(a)及び図3(b)は、レンズ構成は同じで、レンズと点物体Sとの距離が異なる場合を示している。また、図3(a)及び図3(b)において、共通のものに対しては同じ参照符号を付している。
図3(a)において、フォーカス位置をフォーカス位置Bp1からフォーカス位置Bp2へ移動させる場合、フォーカスレンズをフォーカスレンズ位置LPa1からフォーカスレンズ位置LPa2へ移動する必要がある。このとき、フォーカスレンズの移動量ΔPaとフォーカス移動量ΔBpとの関係は式1に示す関係となる。同様に、図3(b)において、フォーカス位置をフォーカス位置Bp1からフォーカス位置Bp2へ移動させる場合、フォーカスレンズをフォーカスレンズ位置LPb1からフォーカスレンズ位置LPb2へ移動する必要がある。このときのフォーカスレンズの移動量ΔPaとフォーカス移動量ΔBpの関係も式1に示す関係となる。
図3(a)及び図3(b)に示す通り、フォーカス敏感度Seがより小さい場合には、同じフォーカス移動量ΔBp動かすために必要となるフォーカスレンズの移動量ΔPは大きくなる。つまり、図3(a)に示す場合に比べ、図3(b)に示す場合は、単位時間当たりのフォーカス移動量ΔBpを少なくできるため、結果としてフォーカスレンズ駆動速度が遅くしても、フォーカス移動速度としては同じにすることができる。
以上の通り、特定のフォーカス移動速度を達成するために必要となるフォーカスレンズ駆動速度は、フォーカス敏感度等の撮影条件により異なる。このことから、撮影条件により、求められるフォーカスレンズ駆動速度が変化することが分かる。
<フォーカスレンズ制御に要求される消費電力>
フォーカスレンズ制御に関する消費電力とは、フォーカスレンズを駆動するために消費する電力のことである。消費電力は、フォーカスレンズの駆動時間、駆動速度又は駆動加速度変化に応じて変化する。例えば、駆動時間が長い場合、駆動速度が速い場合、及び駆動加速度変化が多い場合には、消費電力が多くなる。一方、消費電力を抑えることでバッテリ容量を有効活用することでき、メリットとして1回の充電で撮影可能な枚数を増やすことやバッテリを更に小型化することができる。
<フォーカスレンズ制御に要求される静音>
フォーカスレンズ制御に関する静音とは、フォーカスレンズを駆動する際の駆動音の指標である。フォーカスレンズを駆動する際には、振動や摩擦などで駆動音が発生する。駆動音は、駆動速度又は駆動加速度変化に応じて変化する。例えば、駆動速度が速い場合や駆動加速度変化が多い場合には、駆動音が大きくなる。また、フォーカスレンズが停止する時間が長い程、駆動音が発生しない時間が長くなる。
<位置精度と、速度、消費電力、及び静音との関係>
次に、フォーカスレンズ制御に関する位置精度と、フォーカスレンズ制御に関する速度、消費電力、及び静音との関係について、図4(a)及び図4(b)を参照して説明する。図4(a)は焦点深度が浅い場合、図4(b)は焦点深度が深い場合において、動きのある被写体に合焦し続けるためのフォーカスレンズ制御の動きの一例を示している。図4(a)及び図4(b)の横軸は時間経過を示し、縦軸はフォーカスレンズ位置を示す。ここで、図4(a)及び図4(b)において、フォーカスレンズ位置が紙面上側に行くと無限方向にフォーカスが合い、紙面下側に行くと至近方向にフォーカスが合う。なお、図4(a)及び図4(b)において、共通のものに対しては同じ参照符号を付している。
図4(a)及び図4(b)において、フォーカスレンズ目標位置Gは、被写体の像を撮像素子201上に合焦させるときのフォーカスレンズ位置を示している。なお、図4(a)及び図4(b)の焦点深度幅は、それぞれ2Faδ,2Fbδである。図4(a)において、フォーカスレンズ目標位置Gを基準に、フォーカス位置が焦点深度の無限側の境界となるフォーカスレンズ位置を位置GalimI、至近側の境界となるフォーカスレンズ位置を位置GalimMで示す。同様に、図4(b)において、フォーカスレンズ目標位置Gを基準に、フォーカス位置が焦点深度の無限側の境界となるフォーカスレンズ位置を位置GblimI、至近側の境界となるフォーカスレンズ位置を位置GblimMで示す。また、図4(a)及び図4(b)には、それぞれ被写体が焦点深度内に収まるように制御されたフォーカスレンズ位置Ca,Cbが示されている。
図4(b)に示す場合には、焦点深度が深いため、フォーカスレンズがフォーカスレンズ位置Cbの示す軌跡に制御されたとしても、被写体の像が焦点深度から外れることはない。一方、図4(a)に示す場合には、焦点深度が浅いため、図4(b)に示す場合に比べ、フォーカスレンズ位置Cbの軌跡をフォーカスレンズ目標位置Gとの偏差が少ない軌跡で制御する必要がある。
図4(a)及び図4(b)に示す場合においては、共に被写体がフォーカスから外れることはないが、図4(b)に示すフォーカスレンズ位置Cbの制御の方が、図4(a)に示すフォーカスレンズ位置Caの制御よりも駆動量及び駆動速度を少なくできる。このように、求められる位置精度が低い撮影条件下においては、低速、低消費電力、及び静音の状態でフォーカスレンズを制御することができる。
<速度と、位置精度、消費電力、及び静音との関係>
次に、フォーカスレンズ制御に関する速度と、フォーカスレンズ制御に関する位置精度、消費電力、静音との関係について、図5(a)及び図5(b)を参照して説明する。図5(a)及び図5(b)の横軸は、時間経過を示し、縦軸はフォーカスレンズ位置を示す。図5(a)は、図3(a)に示すフォーカスレンズ位置LPa1からフォーカスレンズ位置LPa2へ、時間T0~T1の間に駆動したフォーカスレンズ位置Caの変化を示している。同様に、図5(b)は、図3(b)に示すフォーカスレンズ位置LPb1からフォーカスレンズ位置LPb2へ、時間T0~T1の間に駆動したフォーカスレンズ位置Cbの変化を示している。また、図5(a)及び図5(b)のそれぞれにおいて、フォーカスレンズ位置Ca,Cbの変化の傾きはフォーカスレンズ速度を示す。
ここで、図3(a)及び図3(b)に示す通り、フォーカスレンズ位置LPa1からフォーカスレンズ位置LPa2へ移動したときのフォーカス移動量ΔBpは、フォーカスレンズ位置LPb1からフォーカスレンズ位置LPb2へ移動したときのフォーカス移動量ΔBpと同じである。これに対し、図5(a)に示されるフォーカスレンズ位置Caの変化の傾きは、図5(b)に示されるフォーカスレンズ位置Cbの変化の傾きよりも大きくなっており、図5(a)に示す例ではフォーカスレンズ速度が速いことが分かる。
図5(a)及び図5(b)に示す通り、時間T0~T1の間に同じフォーカス移動量ΔBpだけ動かすためのフォーカスレンズ移動速度は、フォーカスレンズ位置Caの制御ではフォーカスレンズ位置Cbの制御に比べて速くフォーカスレンズを動かす必要がある。また、フォーカスレンズ位置Caの制御では速度が速いため、目標位置であるフォーカスレンズ位置LPa2到達後、位置が安定するまでにある程度に時間が必要となる。一方、フォーカスレンズ位置Cbの制御では速度が遅いため、目標位置であるフォーカスレンズ位置LPb2に到達後、直ぐに位置が安定する。これは位置精度に影響する。また、フォーカスレンズ位置Caの制御では、フォーカスレンズを速く駆動することから停止時において加速度変化が大きくなるため、フォーカスレンズ位置Cbの制御に比べ、消費電力が多くなり、駆動音も大きくなる。従って、求められる速度が低い撮影条件下においては、高い位置精度、低消費電力、及び静音の状態でフォーカスレンズを制御することができる。
<レンズ装置情報>
次に、撮影条件に関連するレンズ装置情報について説明する。レンズ装置情報は、撮影映像に影響を与えるレンズ装置の撮影条件に関する情報である。本実施例では、フォーカスレンズ制御における要求事項をバランスよく制御するために、フォーカスレンズ制御で求められる位置精度及び速度を決めるためのレンズ装置情報を基にフォーカスレンズ制御を行う。レンズ装置情報は、レンズ装置情報管理部122により決定される。レンズ装置情報は、例えば、焦点深度やフォーカス敏感度等を含む。
レンズ装置情報管理部122は、現在のF値と錯乱円の情報から式1に示す通り、焦点深度を決定することができる。また、レンズ装置情報管理部122は、フォーカス敏感度とフォーカスレンズ位置及びズームレンズ位置との関係を示す不図示の変換テーブルを保持し、フォーカスレンズ位置及びズームレンズ位置からフォーカス敏感度を決定することができる。なお、焦点深度やフォーカス敏感度の決定方法は、公知の任意の方法を用いて決定されてよい。
上述のように、フォーカスレンズ制御の要求事項は撮影条件の影響を受ける。このため、これらの撮影条件に関するレンズ装置情報を基にフォーカスレンズ制御を行うことで、撮影条件によって撮影映像が受ける影響を加味して、位置精度、速度、消費電力、及び静音のそれぞれの要求事項をバランスよく制御することができる。
<NNアルゴリズムとウエイト>
以下に、NN制御部121がNNアルゴリズムを用いて駆動指令を決定する方法について説明する。上述のように、NN制御部121にはNNが実装されている。NN制御部121は、NNデータ記憶部123に記録された学習済モデルの結合重み付け係数であるウエイトを参照し、参照したウエイトをNNのウエイトとして用いる。これにより、NN制御部121は、NNを学習済のNNとして用いることができる。NN制御部121は、学習済のNNにより駆動指令を決定することで、学習済モデルの学習の傾向に従って、レンズ100の構成及びユーザの要望に応じた駆動指令を決定することができる。
図6は、本実施例に係るNNを用いたNN制御部121の入出力の構造を示す概念図である。目標位置X1は、制御部125から出力されたフォーカス駆動の駆動指令目標位置である。現在位置X2は、フォーカスレンズ検出部106から得られたフォーカスレンズ101の現在位置である。焦点深度X3はレンズ装置情報に含まれる焦点深度であり、フォーカス敏感度X4はレンズ装置情報に含まれるフォーカス敏感度である。また、駆動信号Y1はフォーカスレンズ101の駆動信号である。
このように、本実施例では、フォーカス駆動の駆動指令、フォーカスレンズ101の現在位置、焦点深度、及びフォーカス敏感度を入力として、学習済モデルの出力として駆動信号が決定される。NN制御部121は、撮影条件に関するレンズ装置情報もNNへの入力として用いることで、撮影条件によって撮影映像が受ける影響を加味して、フォーカスレンズ101の制御を行うことができる。
<撮影処理の流れ>
次に、図7を参照して、本実施例に係る一連の撮影処理について説明する。図7は、本実施例に係る一連の撮影処理の流れを示すフローチャートである。本実施例では、ユーザの操作に応じて撮影処理が開始されると、処理がステップS701に移行する。
ステップS701では、NNを用いた制御に影響を与える撮影条件が設定される。例えば、本実施例に係る制御部211は、ステップS701において、信号処理回路203から出力された映像データを基に、露出制御を行い、F値を設定する。F値が設定されることで、焦点深度が設定される。なお、F値は、ユーザによる操作部206の操作に応じて設定されてもよい。
ステップS702では、制御部211が、ユーザによる操作部206の操作に応じて機械学習を実施するか否かを判断する。制御部211が、機械学習を実施すると判断した場合には、処理はステップS703に移行する。
ステップS703では、本実施例に係るフォーカスレンズ制御に用いるNNの学習に関する報酬情報を決定する。上述のように、本実施例では、機械学習処理として、レンズ装置毎の機器的な制約情報及びユーザによる要望情報に基づく報酬情報に応じた動作の評価値を報酬とし、報酬が最大となるようにNNに対して強化学習を行う。そのため、本実施例では、機械学習処理に先立ち、レンズ100の構成及びユーザの要望に応じて報酬情報を決定する。具体的には、機器制約報酬管理部224、ユーザ要望報酬管理部225、及び報酬管理部223によって、レンズ個体情報及びユーザによって設定されたユーザ要望情報に基づいて、報酬情報を決定する。なお、報酬情報及び報酬情報の決定処理の詳細については、後述する。ステップS703において、報酬情報が決定されると、処理はステップS704に移行する。
ステップS704においては、学習部220によって、NNに対する機械学習処理が行われる。ここで、上述のように、レンズ装置を使用して機械学習を行う場合、機械学習時には多くの駆動が必要となり、駆動部が摩耗し駆動部の性能劣化に繋がることがある。また、機械学習には多くの時間が必要となるため、ユーザが実際に撮影したい時に撮影できない等、ユーザに負担が発生することがある。そこで本実施例では、学習部220が、予め学習を行った複数の学習済モデルから、レンズ100の構成及びユーザの要望に似た構成及び要望に対応する報酬情報を用いて学習を行った学習済モデルを選択する。学習部220は、選択した学習済モデルのウエイトを、NNのウエイトの初期値として用いる。
その後、学習部220は、ウエイトの初期値を設定したNNを備えたレンズ100を用いてフォーカス制御の動作ログ情報を取得し、ステップS703で決定した報酬情報に基づいて、フォーカス制御の評価値を報酬とした追加の学習を行う。このように、本実施例では、レンズ100の構成及びユーザの要望に一致又は類似する構成及び要望に対応する報酬情報を用いて学習を行った学習済モデルを用いて、いわゆる転移学習を行うことで、機械学習時における駆動部の駆動回数を減らすことができる。そのため、機械学習時における駆動部の摩耗を抑制することができるとともに、機械学習に係る時間を短くすることができる。なお、機械学習処理の詳細については、後述する。
一方で、ステップS702において、制御部211が、機械学習を実施しないと判断した場合には、処理はステップS705に移行する。ステップS705では、制御部211が、ユーザの操作に応じて、NN制御部121について用いる学習済モデルを選択する。例えば、表示部205は、機械学習モデル保持部231が保持する機械学習モデルデータベースに記憶されている学習済モデルを学習済モデルの選択肢として表示する。ユーザは表示部205に表示される学習済モデルの選択肢から使用する学習済モデルを選択することができ、NN制御部121は選択された学習済モデルのウエイトをNNのウエイトとして用いることで、学習傾向に従った駆動制御を行うことができる。ここで、表示部205が、学習済モデルの選択肢を表示する際には、学習済モデルの説明として、学習時のユーザ要望情報等を表示してもよい。
なお、ステップS705での学習済モデルの選択は、前回用いられた学習済モデルを自動的に選択するように行われてもよい。この場合には、ユーザの選択を省略することができ、ユーザによる操作の手間を低減することができる。また、制御部211は、例えば、レンズ100と一致又は類似するレンズ機種のレンズ装置、及びステップS701で設定された撮影条件と類似する撮影条件で取得されたデータを用いて学習が行われた学習済モデルを自動的に選択してもよい。ステップS704又はステップS705での処理が終了すると、処理はステップS706に移行する。
ステップS706では、ユーザの操作に応じて、撮影処理を行う。撮影処理では、ユーザの操作に従って、ズームや、揺れの補正、及びNN制御部121によるAFフォーカス制御が行われる。また、ユーザの操作に従って、撮像素子201を用いた映像データの取得や、記録部204への映像データの記憶、表示部205への映像の表示等が行われる。
ステップS707では、制御部211が、操作部206を介してユーザから撮影終了の指示が入力された否かを判断する。制御部211によって撮影終了の指示が入力されていないと判断された場合には、処理はステップS706に戻り、撮影処理が継続される。これに対し、制御部211によって撮影終了の指示が入力されたと判断された場合には、制御部211は、一連の撮影処理を終了する。
このような、本実施例に係る一連の撮影処理では、予め学習を行っていた学習済モデルのウエイトをNNのウエイトの初期値として用いることで、NNの学習時における駆動部の駆動の回数を低減し、駆動部の摩耗を抑制することができる。また、機械学習に係る時間を短くすることができ、ユーザの負担を低減することができる。さらに、NNのウエイトの初期値を設定する際に、ユーザの要望に一致又は類似する要望に対応する報酬情報を用いて学習を行った学習済モデルのウエイトを参照することで、ユーザの要望に即したフォーカス制御を実現することができる。
なお、本実施例では、撮影条件の設定は機械学習の実施判断の前に行う構成としたが、撮影条件の設定を行うタイミングはこれに限られない。撮影条件の設定は、ステップS704での機械学習処理及びステップS705での学習済モデルの選択の前に行われていればよい。そのため、例えば、ステップS702での機械学習実施の判断処理やステップS703での報酬情報の決定処理の後に撮影条件の設定が行われてもよい。
<報酬情報>
次に、図8及び図9を参照して、報酬情報の詳細について説明する。報酬情報は、動作ログ情報から得られるNNアルゴリズムの制御結果を点数化(評価)する上で、点数の基準となる情報である。報酬情報は、NNアルゴリズムの制御結果に対して、点数の境界値とその境界値で区切られた範囲毎に割り当てられた点数の情報を持つ。ここで、図8を参照して、報酬情報について説明する。
図8の(a1)、(b1)、(c1)、及び(d1)は、それぞれ、NNアルゴリズムの制御結果を示す項目である位置精度、速度、加速度、及び消費電力に対して、学習時における時間経過に伴う変化と点数の境界値との関係の例を示している。ここで、図8の(a1)、(b1)、(c1)、及び(d1)の横軸は時間経過を示す。
図8の(a2)、(b2)、(c2)、及び(d2)は、それぞれ、位置精度、速度、加速度、及び消費電力に対しての報酬情報のデータ構造の一例を示している。報酬情報のデータは、複数の境界値と、境界値で区切られた範囲で獲得できる点数で構成される。本実施例では、報酬情報のデータが2つの境界値と3つの点数で構成される例を示す。
ここで、NNの学習は、制御結果の獲得点数(評価値)が高得点となるように行われるため、境界値が各対象となる項目の目標に近い程、より高精度な制御となるように学習が行われる。例えば、位置精度の境界値が0に近い値になる程、位置精度が高い制御となるように学習される。また、報酬情報において、ある項目について他の項目に比べて点数を高く設定することにより、他の項目よりも学習の優先度が高いことを示すこともできる。例えば、位置精度よりも消費電力の点数を高くすることで、位置精度よりも消費電力を優先させる制御となるように学習が行われる。
図8の(a1)に示す縦軸は、フォーカスレンズの目標位置と現在位置との差である位置精度Eの値を示している。位置精度Eの正の方向は、目標位置に対して、現在位置が無限側にある場合を示し、負の方向は、目標位置に対して、現在位置が至近側にある場合を示す。なお、図8の(a1)では、位置精度Eが0に近い程、駆動制御における位置精度が高いことを示している。
図8の(a2)は、位置精度の報酬情報である位置精度報酬情報REのデータ構造の一例を示している。本実施例では、位置精度報酬情報REは、位置精度の報酬範囲を決める境界値E1,E2と、報酬範囲において獲得できる点数SE1,SE2,SE3により構成される。
境界値E1,E2は、それぞれ、位置精度Eの報酬として与えられる点数の境界値を示している。ここで、-E1~E1の範囲を範囲AE1とし、範囲AE1を除く-E2~E2の範囲AE2とし、範囲AE1及び範囲AE2以外の範囲を範囲AE3とする。位置精度Eが、範囲AE1,AE2,AE3の範囲内の場合には、それぞれ、図8の(a2)が示す点数SE1,SE2,SE3が報酬として与えられる。ここで、点数SE1,SE2,SE3の関係は、点数SE1>点数SE2>点数SE3となり、位置精度Eが0に近い程、高い点数となるように設定される。
図8の(a1)に示す通り、任意の時間TP1,TP2,Tp3における位置精度Eは、それぞれ、範囲AE2,AE3,AE1の範囲内である。従って、任意の時間TP1,TP2,Tp3において、獲得できる報酬はそれぞれ点数SE2,SE3,SE1となる。
ここで、例えば、境界値E1は±Fδ/2、及び境界値E2は±Fδの値が設定されることができる。この場合には、フォーカスレンズの目標位置に対して、現在位置が焦点深度内に制御されていれば、高い得点が加算され、焦点深度外となった場合に低い点数が加算される。また、フォーカスレンズが目標位置に近い程、獲得できる点数が高くなる。
次に、図8の(b1)の縦軸は、フォーカスレンズの駆動速度Vの値を示している。駆動速度Vの正の方向は無限方向への駆動速度を示し、負の方向は至近方向への駆動速度を示している。駆動速度Vが0に近い程、駆動音が小さくなる。
図8の(b2)は速度の報酬情報である速度報酬情報RVのデータ構造の一例を示している。本実施例では、速度報酬情報RVは速度の報酬範囲を決める境界値V1,V2と、報酬範囲において獲得できる点数SV1,SV2,SV3により構成される。
境界値V1,V2は、それぞれ、駆動速度Vの報酬として与えられる点数の境界値を示している。ここで、-V1~V1の範囲を範囲AV1とし、範囲AV1を除く-V2~V2の範囲を範囲AV2とし、範囲AV1及び範囲AV2以外の範囲を範囲AV3とする。駆動速度Vが、範囲AV1,AV2,AV3の範囲内の場合には、それぞれ、図8の(b2)が示す点数SV1,SV2,SV3が報酬として与えられる。ここで、点数SV1,SV2,SV3の点数の関係は点数SV1>点数SV2>点数SV3となり、駆動速度Vが0に近い程、高い点数となるように設定される。
図8の(b1)が示す通り、任意の時間TP1,TP2,Tp3における駆動速度Vは、それぞれ、範囲AV2,AV3,AV1の範囲内である。従って、任意の時間TP1,TP2,Tp3において、駆動音に関連する駆動速度Vについて獲得できる報酬はそれぞれ点数SV2,SV3,SV1となる。
ここで、例えば、境界値V1,V2は駆動速度と駆動音の関係に基づいて決定され、駆動速度を遅く制御する程、獲得できる点数が高くなるように点数が設定される。一般的に、駆動速度が遅い程、駆動音が小さくなるため、獲得した点数が高い程、静音を重視した制御が行えていることを示す。
次に、図8の(c1)の縦軸は、フォーカスレンズの駆動加速度Aの値を示している。駆動加速度Aの正の方向は無限方向への駆動加速度を示し、負の方向は至近方向への駆動加速度を示している。駆動加速度Aが0に近い程、駆動音が小さくなる。
図8の(c2)は、加速度の報酬情報である加速度報酬情報RAのデータ構造の一例を示している。本実施例では、加速度報酬情報RAは、加速度の報酬範囲を決める境界値A1,A2と、報酬範囲において獲得できる点数SA1,SA2,SA3により構成される。
境界値A1,A2は、それぞれ、駆動加速度Aの報酬として与えられる点数の境界値を示している。ここで、-A1~A1の範囲を範囲AA1とし、範囲AA1を除く-A2~A2の範囲を範囲AA2とし、範囲AA1及び範囲AA2以外の範囲を範囲AA3とする。駆動加速度Aが、範囲AA1,AA2,AA3の範囲内の場合には、それぞれ、図8の(c2)が示す点数SA1,SA2,SA3が報酬として与えられる。ここで、点数SA1,SA2,SA3の点数の関係は、点数SA1>点数SA2>点数SA3となり、駆動加速度Aが0に近い程、高い点数となるように設定される。
図8の(c1)が示す通り、任意の時間TP1,TP2,Tp3における駆動加速度Aは、それぞれ、範囲AA1,AA3,AA2の範囲内である。従って、任意の時間TP1,TP2,Tp3において、駆動音に関連する駆動加速度Aについて獲得できる報酬はそれぞれ点数SA1,SA3,SA2となる。
ここで、例えば、境界値A1,A2は駆動加速度と駆動音の関係に基づいて決定され、駆動加速度を小さく制御する程、獲得できる点数が高くなるように点数が設定される。一般的に、駆動加速度が小さい程、駆動音が小さくなるため、獲得した点数が高い程、静音を重視した制御が行えていることを示す。
次に、図8の(d1)の縦軸は、フォーカスレンズの消費電力Pの値を示している。消費電力Pが0に近い程、消費電力が小さくなる。
図8の(d2)は、消費電力の報酬情報である消費電力報酬情報RPのデータ構造の一例を示している。本実施例において、消費電力報酬情報RPは、消費電力の報酬範囲を決める境界値P1,P2と、報酬範囲において獲得できる点数SP1,SP2,SP3により構成される。
境界値P1,P2は、それぞれ、消費電力Pの報酬として与えられる点数の境界値を示している。ここで、0~P1の範囲を範囲AP1とし、P1~P2の範囲を範囲AP2とし、範囲AP1及び範囲AP2以外の範囲を範囲AP3とする。消費電力Pが、それぞれ、範囲AP1,AP2,AP3の範囲内の場合には、図8の(d2)が示す点数SP1,SP2,SP3が報酬として与えられる。ここで、点数SP1,SP2,SP3の点数の関係は、点数SP1>点数SP2>点数SP3となり、消費電力Pが0に近い程、高い点数となるように設定される。
図8の(d1)が示す通り、任意の時間TP1,TP2,TP3における消費電力Pは、それぞれ、範囲AP1,AP3,AP2の範囲内である。従って、任意の時間TP1,TP2,TN3において、消費電力Pについて獲得できる報酬はそれぞれ点数SP1,SP3,SP2となる。
ここで、例えば、境界値P1、P2は任意に決定され、消費電力を小さく制御する程、獲得できる点数が高くなるように点数が設定される。従って、獲得した点数が高くなる程、低消費電力を重視した制御が行えていることを示す。
以上に示すように、位置制御誤差、速度、加速度、及び消費電力等の制御結果に対して、点数化するための報酬情報が設定される。学習処理部221は、このような報酬情報を用いて、学習時のフォーカスレンズ駆動に関する動作ログ情報を基にNNアルゴリズムの制御結果を単位時間毎に点数化し、単位時間毎の点数を累計することで、NNアルゴリズムの制御結果の累計点数(累積評価値)を決定することができる。また、NNアルゴリズムの制御結果に関して、位置制御誤差、速度、加速度、及び消費電力のそれぞれの得点を加算して合計得点を評価値とすることで、NNアルゴリズムのトータルとしての制御結果を点数化することができる。
ここでは、消費電力を制御結果の一つとして使用している例を示しているが、速度及び加速度と消費電力との関係から、速度及び加速度の結果を用いて消費電力に対しての報酬情報を設定してもよい。
なお、本実施例では、境界値の数を2つとしているが、境界値の数はこれに限られず、所望の構成に応じて3つ以上としてもよいし、境界値の数は必要に応じて可変としてもよい。また、本実施例では、点数を境界値により決定しているが、位置精度E、駆動速度V、駆動加速度A、及び消費電力Pを点数に変換する変換関数を用いて点数化する方法でもよい。この場合は、報酬情報として境界値及び境界値で区切られた範囲で獲得できる点数ではなく、変換関数及びその係数が報酬情報として設定される。
ここで、本実施例では、レンズ装置の構成及びユーザの要望に即した学習を行うため報酬情報に、レンズ装置毎の機器的な制約情報に基づく機器制約報酬情報と、ユーザによる要望情報に基づくユーザ要望報酬情報とが含まれる。図9は、本実施例に係る報酬情報に含まれる機器制約報酬情報及びユーザ要望報酬情報のデータ構造の一例を示す。
まず、ユーザ要望報酬情報は、ユーザによって設定されるユーザ要望情報に応じて変更可能な報酬情報である。なお、ユーザ要望情報は、上述のように、ユーザ要望報酬変換情報を用いてユーザ要望報酬情報に変換される。ここで、ユーザ要望報酬変換情報は、レンズ機種ごとに予め設定されており、ユーザ要望報酬変換情報保持部229が保持するユーザ要望報酬変換情報データベースにおいて、レンズ機種情報と関連付けて記憶されている。なお、ユーザ要望報酬変換情報は、例えば、ユーザ要望情報をユーザ要望報酬情報に変換するための変換テーブルであってよい。
一方、機器制約報酬情報は、機器として、最低限守るべき制御を規定するための報酬情報である。そのため、機器制約報酬情報は、ユーザ要望報酬情報よりも境界値で決定する範囲が広い一方で、期待する目標から逸脱する場合に負の値を含む低い点数が設定される。本実施例では、機器制約報酬情報は、レンズ機種ごとに予め設定されており、機器制約報酬情報保持部228が保持する機器制約報酬情報データベースにおいて、レンズ機種情報と関連付けて記憶されている。なお、機器制約報酬情報は、例えば、レンズ機種ごとに駆動制御の実験を行った結果に基づいて設定されてよい。
図9に示すように、本実施例では、機器制約報酬情報は、位置精度報酬情報REb、速度報酬情報RVb、加速度報酬情報RAb、及び消費電力報酬情報RPbで構成されている。また、ユーザ要望報酬情報は、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuで構成されている。
ここで、位置精度報酬情報REb及び位置精度報酬情報REuは、図8の(a2)に示す位置精度報酬情報REと同様のデータ構造を有する。具体的には、位置精度報酬情報REbは、境界値Eb1,Eb2を有し、境界値で区切られた範囲で獲得できる点数SEb1,SEb2,SEb3を有する。位置精度報酬情報REuは、境界値Eu1,Eu2を有し、境界値で区切られた範囲で獲得できる点数SEu1,SEu2,SEu3を有する。
速度報酬情報RVb及び速度報酬情報RVuは、図8の(b2)に示す速度報酬情報RVと同様のデータ構造を有する。具体的には、速度報酬情報RVbは、境界値Vb1,Vb2を有し、境界値で区切られた範囲で獲得できる点数SVb1,SVb2,SVb3を有する。速度報酬情報RVuは、境界値Vu1,Vu2を有し、境界値で区切られた範囲で獲得できる点数SVu1,SVu2,SVu3を有する。
加速度報酬情報RAb及び加速度報酬情報RAuは、図8の(c2)に示す加速度報酬情報RAと同様のデータ構造を有する。具体的には、加速度報酬情報RAbは、境界値Ab1,Ab2を有し、境界値で区切られた範囲で獲得できる点数SAb1,SAb2,SAb3を有する。加速度報酬情報RAuは、境界値Au1,Au2を有し、境界値で区切られた範囲で獲得できる点数SAu1,SAu2,SAu3を有する。
消費電力報酬情報RPb及び消費電力報酬情報RPuは、図8の(d2)に示す消費電力報酬情報RPと同様のデータ構造を有する。具体的には、消費電力報酬情報RPbは、境界値Pb1,Pb2を有し、境界値で区切られた範囲で獲得できる点数SPb1,SPb2,SPb3を有する。消費電力報酬情報RPuは、境界値Pu1,Pu2を有し、境界値で区切られた範囲で獲得できる点数SPu1,SPu2,SPu3を有する。
<報酬情報の決定処理>
次に、図10乃至図14を参照して、ステップS703における報酬情報の決定処理について説明する。図10は、報酬情報の決定処理の流れを示すフローチャートである。
まず、ステップS703において報酬情報の決定処理が開始されると、処理はステップS1001に移行する。ステップS1001では、レンズ100がカメラ本体200に装着された状態において、学習部220が、レンズ個体情報管理部127から制御部125、通信部126、通信部212、及び制御部211を介してレンズ個体情報を取得する。
ステップS1002では、機器制約報酬管理部224が、レンズ個体情報のレンズ機種情報に応じて、機器制約報酬情報保持部228が保持する機器制約報酬情報データベースからレンズ100に対応する機器制約報酬情報を決定する。ここで、図11(a)乃至図11(d)を参照して、機器制約情報データベース及び機器制約情報データベースを用いた機器制約情報の決定方法について説明する。図11(a)乃至図11(d)は、機器制約報酬管理部224に保持されている機器制約報酬情報データベースのデータ構造の一例を示している。
図11(a)は、位置精度報酬情報REbのデータベースのデータ構造の一例を示している。位置精度報酬情報REbのデータベースは、レンズ機種毎に、境界値及び点数が異なる複数の位置精度報酬情報REbで構成されている。図11(b)は、速度報酬情報RVbのデータベースのデータ構造の一例を示している。速度報酬情報RVbのデータベースは、レンズ機種毎に、境界値及び点数が異なる複数の速度報酬情報RVbで構成されている。図11(c)は、加速度報酬情報RAbのデータベースのデータ構造の一例を示している。加速度報酬情報RAbのデータベースは、レンズ機種毎に、境界値及び点数が異なる複数の加速度報酬情報RAbで構成されている。図11(d)は、消費電力報酬情報RPbのデータベースのデータ構造の一例を示している。消費電力報酬情報RPbのデータベースは、レンズ機種毎に、境界値及び点数が異なる複数の消費電力報酬情報RPbで構成されている。
機器制約報酬管理部224は、レンズ個体情報のレンズ機種情報に応じて、位置精度報酬情報REbデータベースからレンズ100のレンズ機種に対応した位置精度報酬情報REbを決定する。例えば、機器制約報酬管理部224は、レンズ100が機種Aの場合には、位置精度報酬情報REbの境界値Eb1,Eb2をEb1TA,Eb2TAとし、点数SEb1,SEb2,SEb3をSEb1TA,SEb2TA,SEb3TAとする。
同様に、機器制約報酬管理部224は、速度報酬情報RVbデータベース、加速度報酬情報RAbデータベース、及び消費電力報酬情報RPbデータベースのそれぞれから、速度報酬情報RVb、加速度報酬情報RAb、及び消費電力報酬情報RPbを決定する。なお、本実施例では、レンズ機種ごとに機器制約報酬情報データベースを構成する例を示したが、レンズ個体ごとに機器制約報酬情報データベースを構成してもよい。この場合には、機器制約報酬管理部224は、レンズ個体情報に含まれる個体識別番号により機器制約報酬情報を決定することができる。
次に、ステップS1003では、ユーザが操作部206を用いて、所定のユーザ要望情報のうちのいずれかを現在適用するユーザ要望情報として設定する。ユーザ要望管理部226は、制御部211を介して、ユーザによって選択されたユーザ要望情報を取得し、取得したユーザ要望情報を現在適用するユーザ要望情報として決定する。ここで、ユーザ要望情報には位置精度、静音、及び消費電力の各レベル情報が含まれる。レベル情報とは、要望情報に含まれる位置精度、静音、及び消費電力ごとに達成することが要求されるレベルを示す情報である。例えば、位置精度についてのレベル情報として、高、中、及び低のレベルに対応するレベル1、レベル2、及びレベル3が予め設定され、ユーザは位置精度について達成することが望まれるいずれかのレベルを選択することができる。
ここで、図12を参照して、ユーザ要望情報データベースを用いたユーザ要望情報の設定方法について説明する。ここで、ユーザ要望情報は、フォーカスレンズの駆動制御に対して、ユーザによって要求される達成すべきレベルを示すレベル情報を含む。本実施例では、ユーザ要望項目である、位置精度、静音、及び消費電力に対しての要求されるレベルを示す情報をユーザ要望情報の例として挙げている。
図12は、ユーザ要望保持部227が保持しているユーザ要望情報データベースの構造の一例を示している。ユーザ要望情報データベースは、一つのユーザ要望情報データに対して、ユーザ要望ID、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、消費電力ユーザ要望情報Pu、ユーザ識別情報、撮影条件、及び作成日時情報で構成されている。
ここでユーザ要望IDは、ユーザ要望情報データを一意に決定するユニークな数値が割り当てられる。位置精度ユーザ要望情報Euは、ユーザ要望項目の位置精度に対して要求されるレベルを示している。静音ユーザ要望情報Suは、ユーザ要望項目の静音に対して要求されるレベルを示している。消費電力ユーザ要望情報Puは、ユーザ要望項目の消費電力に対して要求されるレベルを示している。
ユーザ識別情報は、ユーザ要望情報データの設定を行ったユーザを一意に識別する情報である。ユーザ識別情報は、ユーザ要望情報を生成する時に、ユーザによって設定される情報である。
撮影条件は、ユーザ要望情報を設定するときの撮影条件を示す情報である。撮影条件は、例えば、レンズ100の設定であるズーム位置、フォーカス位置、絞り値、及び像揺れ補正状態等の撮影映像に影響を与える設定を含むことができる。また、撮影条件は、カメラ本体200の設定である動画撮影又は静止画撮影を示す情報、撮影モード、シャッタースピード、オートフォーカス制御、及び露光制御の設定等の撮影映像に影響を与える設定を含むことができる。作成日時情報は、ユーザ要望情報データが作成された日時を示す情報が記録されている。
図12に示す例では、ユーザ要望情報データベースは、ユーザ要望情報u1,u2,u3の3つのユーザ要望情報で構成されている。ただし、ユーザ要望情報の数はこれに限られず、ユーザによって任意に増やしたり減らしたりされてよい。
以上のユーザ要望情報データベース構成により、一つのユーザ要望情報に対して、ユーザ要望情報のレベルの値及びユーザ要望情報を生成した時の情報を管理することができる。また、以上のデータベース構成により、学習済みの機械学習モデルで使用したユーザ要望情報のそれぞれの関連を容易に確認することができる。さらに、類似したユーザ要望情報により生成された報酬情報を用いて学習が行われた学習済モデルの検索を容易にすることができる。
次に、複数のユーザ要望情報から現在適用するユーザ要望情報を設定する方法について説明する。ユーザは、操作部206を操作し、ユーザ要望情報u1,u2,u3のうちいずれかを選択する。選択されたユーザ要望情報は、制御部211を介してユーザ要望管理部226に伝えられる。ユーザ要望管理部226は、選択されたユーザ要望情報を現在適用するユーザ要望情報として管理する。以下では、一例として、ユーザがユーザ要望情報u1を選択したものとする。
次に、現在適用するユーザ要望情報に対して、ユーザ要望項目のレベルの変更方法について説明する。ユーザは、操作部206を操作し、選択したユーザ要望情報u1の位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puのレベルの設定を行う。
ユーザが設定したレベルの情報は、制御部211を介してユーザ要望管理部226に伝えられる。ユーザ要望管理部226は、ユーザが設定したレベルの情報を現在適用するユーザ要望情報として決定し、ユーザ要望報酬管理部225に伝達する。図12に示す例では、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puについて、それぞれ、レベル1、レベル2、及びレベル3が設定された場合を示している。
以上により、ユーザは、ユーザ要望情報としてユーザ要望情報u1を選択し、それぞれのユーザ要望項目に対してレベルを設定することができる。また、ユーザ要望管理部226は、ユーザが設定したレベル情報に従い、ユーザ要望保持部227に対して、ユーザ要望情報データベースのユーザ要望情報u1の更新を要求することができる。この場合、ユーザ要望保持部227は、ユーザ要望情報u1の更新の要求に応じて、ユーザ要望情報データベースを更新することができる。
本実施例では、既にユーザ要望情報データベースに存在しているユーザ要望情報を変更する場合について説明したが、所定のレベルで初期化されたユーザ要望情報を新規に作成し、各要望事項のレベル等を変更してもよい。また、別のユーザ要望情報をコピーして新たなユーザ要望情報を作成し、各要望事項のレベル等を変更してもよい。
次に、ステップS1004において、ユーザ要望報酬管理部225は、ステップS1001において取得されたレンズ個体情報に基づいて、レンズ100のレンズ機種を特定する。また、ユーザ要望報酬管理部225は、現在適用するユーザ要望をユーザ要望管理部226から受け取る。ユーザ要望報酬管理部225は、レンズ個体情報と、受け取ったユーザ要望情報とに応じて、ユーザ要望報酬情報を決定する。
より具体的には、ユーザ要望報酬管理部225は、ユーザ要望情報に含まれる位置精度、静音、及び消費電力の各レベル情報を受け取ると、レンズ機種情報とともにユーザ要望報酬変換情報保持部229に伝達する。ユーザ要望報酬変換情報保持部229は、まず、レンズ機種情報に応じて、ユーザ要望報酬変換情報データベースから、ユーザ要望情報の変換に用いるユーザ要望報酬変換情報を決定する。その後、ユーザ要望報酬変換情報保持部229は、決定したユーザ要望報酬変換情報を参照してユーザ要望情報に含まれる各レベル情報をユーザ要望報酬情報に変換する。
ここで、図13(a)乃至図13(c)を参照して、ユーザ要望報酬変換情報データベース及びユーザ要望報酬変換情報データベースを用いたユーザ要望報酬情報の決定方法について説明する。図13(a)乃至図13(c)は、ユーザ要望報酬変換情報データベースのデータ構造の一例を示している。
図13(a)は、位置精度ユーザ要望報酬変換情報UREuのデータベースのデータ構造の一例を示している。位置精度ユーザ要望報酬変換情報UREuは、レベルごとに、境界値及び点数が異なる複数の位置精度報酬情報REuで構成されている。また、位置精度ユーザ要望報酬変換情報UREuのデータベースは、レンズ機種ごとの位置精度ユーザ要望報酬変換情報UREuで構成されている。例えば、機種Aに対して、位置精度ユーザ要望情報がレベル1であるときに使用される位置精度報酬情報REuは、位置精度報酬情報REuTAL1となる。
図13(b)は、静音ユーザ要望報酬変換情報URSuのデータベースのデータ構造の一例を示している。静音ユーザ要望報酬変換情報URSuは、速度ユーザ要望報酬変換情報URVu及び加速度ユーザ要望報酬変換情報URAuで構成されている。速度ユーザ要望報酬変換情報URVu及び加速度ユーザ要望報酬変換情報URAuは、レベルごとに、境界値及び点数が異なる複数の速度報酬情報RVu及び加速度報酬情報RAuで構成されている。また、静音ユーザ要望報酬変換情報URSuデータベースは、レンズ機種ごとの速度ユーザ要望報酬変換情報URVu及び加速度ユーザ要望報酬変換情報URAuで構成されている。例えば、機種Aに対して、静音ユーザ要望情報がレベル1であるときに使用される速度報酬情報RVu及び加速度報酬情報RAuは、それぞれ、速度報酬情報RVuTAL1及び加速度報酬情報RAuTAL1となる。
図13(c)は、消費電力ユーザ要望報酬変換情報URPuのデータベースのデータ構造の一例を示している。消費電力ユーザ要望報酬変換情報URPuは、レベルごとに、境界値及び点数が異なる複数の消費電力報酬情報RPuで構成されている。また、消費電力ユーザ要望報酬変換情報URPuデータベースは、レンズ機種ごとの消費電力ユーザ要望報酬変換情報URPuで構成されている。例えば、機種Aに対して、消費電力ユーザ要望情報がレベル1であるときに使用される消費電力報酬情報RPuは、消費電力報酬情報RPuTAL1となる。
ここで、位置精度ユーザ要望報酬変換情報UREu、静音ユーザ要望報酬変換情報URSu、及び消費電力ユーザ要望報酬変換情報URPuは、レベル1、レベル2、レベル3の順にユーザ要望が高くなるように境界値及び点数の値が決定されている。具体的にはレベル1は、他に比べ、境界値が各項目の目標に近い値となっており、点数については高い点数となっている。
例えば、レンズ100が機種Aの場合は、図13(a)乃至図13(b)に示す例では、ユーザ要望報酬変換情報保持部229は、ユーザ要望報酬変換情報データベースから機種Aに対応するユーザ要望報酬変換情報を決定する。ここで、ユーザが選択したユーザ要望情報がユーザ要望情報u1のときは、図12に示す例では、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puのレベルは、それぞれレベル1、レベル2、及びレベル3となる。この場合には、図13(a)乃至図13(b)に示す例では、ユーザ要望報酬変換情報保持部229は、機種Aに対応するユーザ要望報酬変換情報を参照して、ユーザ要望情報に含まれる各レベル情報をユーザ要望報酬情報に変換する。これにより、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuは、それぞれ、位置精度報酬情報REuTAL1、速度報酬情報RVuTAL2、加速度報酬情報RAuTAL2、及び消費電力報酬情報RPuTAL3となる。
なお、レンズ100がカメラ本体200に装着された後に、ユーザがユーザ要望情報を選択しなかった場合は、以前に装着されていたレンズの学習時に使用されたユーザ要望情報が使用されてよい。ユーザ要望情報は、レンズ機種に依存しない情報であるため、レンズ100の交換時に変更せず、そのまま使用することができる。また、レンズ交換前後において、ユーザは同じ要望を持つことが多いため、ユーザ要望情報を変更しないことで、ユーザに煩雑なユーザ要望設定を省略させることができる。
また、本実施例では、レンズ機種ごとにユーザ要望報酬変換情報データベースを構成する例を示したが、レンズ個体ごとにユーザ要望報酬変換情報データベースを構成し、レンズ個体情報の個体識別番号によりユーザ要望報酬変換情報を決定してもよい。この場合には、ユーザ要望報酬管理部225は、レンズ個体情報に含まれる個体識別番号によりユーザ要望報酬情報を決定することができる。
ステップS1004において、ユーザ要望報酬情報が決定されると、処理はステップS1005に移行する。ステップS1005では、報酬管理部223が、ステップS1002で決定した機器制約報酬情報と、ステップS1004で決定したユーザ要望報酬情報を結合し、図9に示すような報酬情報を決定する。なお、ステップS1002での機器制約報酬情報決定処理の前に、ステップS1003でのユーザ要望情報の取得処理及びステップS1004でのユーザ要望報酬情報の決定処理が行われてもよい。
前述したNNの学習では、図8を用いて説明したように、このように決定した機器制約報酬情報及びユーザ要望報酬情報のそれぞれの報酬情報を用いてフォーカス制御結果の点数を決定する。その後、決定したそれぞれの点数を加算し、累計点数を最終的な制御結果の点数(累計評価値)として決定する。そして、最終的な制御結果の点数を報酬として、報酬が最大となるように強化学習が行われる。
ここで、図14を参照して、上述した報酬情報を記憶する報酬情報データベースについて説明する。図14は、報酬情報データベースのデータ構造の一例を示している。報酬情報データベースは、一つの報酬情報データに対して、報酬情報ID、作成日時情報、機種情報、ユーザ要望情報u、機器制約報酬情報Rb、ユーザ要望報酬情報Ru、及びユーザ要望報酬変換情報URuで構成されている。
ここで、報酬情報IDは、報酬情報データを一意に決定するユニークな数値が割り当てられる。作成日時情報は、報酬情報が作成された日時を示す情報が記録されている。機種情報は、報酬情報データの対象となるレンズ装置に関するレンズ個体情報のレンズ機種情報が記録されている。本実施例では機種情報として、レンズ機種を記録している例を示すが、個体識別番号等の報酬情報データの対象となるレンズ個体を識別する情報を記録してもよい。
ユーザ要望情報uは、報酬情報データを生成するときに使用されたユーザ要望情報が記録されている。機器制約報酬情報Rbは、報酬情報に含まれる機器制約報酬情報を示す値が記録されている。ユーザ要望報酬情報Ruは、報酬情報に含まれるユーザ要望報酬情報を示す値が記録されている。ユーザ要望報酬変換情報URuは、ユーザ要望報酬情報Ruを生成するときに使用されたユーザ要望報酬変換情報が記録されている。
図14に示す例において、例えば、報酬情報IDがRID1の報酬情報は、作成日時Date1のときに作成され、機器制約報酬情報RbA1及びユーザ要望報酬情報Ru1A1を含む。また、当該報酬情報について、ユーザ要望報酬情報Ru1A1を生成するときに使用されたユーザ要望情報u及びユーザ要望報酬変換情報URuは、それぞれ、ユーザ要望情報u1及びユーザ要望報酬変換情報URu1となる。
また、報酬情報IDがRID3及びRID4の報酬情報は、機種情報及びユーザ要望情報は同じであるが、機器制約報酬情報データベース及びユーザ要望報酬変換情報データベースがバージョンアップ等により変化した場合の報酬情報を示している。機器制約報酬情報データベース及びユーザ要望報酬変換情報データベースが変化した場合には、機種情報及びユーザ要望情報は同じでも、機器制約報酬情報Rb、ユーザ要望報酬情報Ru、及びユーザ要望報酬変換情報URuが変化する。
以上の報酬情報データベースのデータ構造により、一つの報酬情報に対して、報酬情報の値及び報酬情報を生成したときの各種情報を管理することができる。本実施例では、機種情報、ユーザ要望情報u、機器制約報酬情報Rb、ユーザ要望報酬情報Ru、及びユーザ要望報酬変換情報URuに対して、実際の情報が記録された例を示している。しかしながら、機種情報、ユーザ要望情報u、機器制約報酬情報Rb、ユーザ要望報酬情報Ru、及びユーザ要望報酬変換情報URuの情報データ自体はそれぞれのデータベースで保持されてもよい。この場合には、報酬情報データベースには、それぞれデータベースから各種情報を一意に識別するID情報を含めることでこれら情報を管理することができる。
例えば、機種情報及びユーザ要望報酬情報のデータベースは不図示の情報保持部で保持されてよい。また、ユーザ要望情報u、機器制約報酬情報Rb、ユーザ要望報酬変換情報URuのデータベースは、それぞれ、ユーザ要望保持部227、機器制約報酬情報保持部228、ユーザ要望報酬変換情報保持部229に保持されてよい。
以上のデータベース構成により、学習済の機械学習モデルで使用した報酬情報のそれぞれの関連を容易に確認することができる。さらに、類似した報酬情報を用いて学習が行われた学習済モデルの検索を容易にすることができる。
<機械学習処理>
次に、図15乃至図19を参照して、本実施例に係る機械学習処理について説明する。図15は、本実施例に係る機械学習処理の流れを示すフローチャートである。ステップS704において機械学習処理が開始されると、処理はステップS1501に移行する。
ステップS1501において、機械学習初期値管理部232は、ステップS1001で取得したレンズ個体情報を基に、過去に学習した又は予め記録された学習済モデルの中から初期モデルとなる学習済モデルを選択する。また、機械学習初期値管理部232は、初期モデルとして選択した学習済モデルのウエイトをウエイトの初期値として決定し、学習処理部221に送る。なお、ウエイト初期値決定処理の詳細については後述する。
ステップS1502では、学習処理部221が、制御部211へ、ウエイトの初期値を出力する。制御部211は、学習処理部221からウエイトの初期値を受け取ると、通信部212を介してレンズ100へウエイトの初期値を送る。レンズ100は、通信部126にてウエイトの初期値を受け取ると、制御部125を介してウエイトの初期値をNNデータ記憶部123に記憶させる。
ステップS1503では、学習処理部221が、制御部211及び通信部212を介して、レンズ100へフォーカスレンズ101の駆動指令の送信及び動作ログ情報の取得要求を行う。ここで、学習処理部221は、フォーカスレンズ101の駆動指令として、予め学習用に決められた開始位置から停止位置まで特定の駆動パターンを保持し、保持している駆動パターンに従い駆動指令を送ることができる。なお、駆動パターンはランダムのパターンであってもよい。また、学習処理部221は、AF(オートフォーカス)制御を実行するためのフォーカスレンズ101の駆動指令を送ってもよい。
レンズ100では、通信部126がフォーカスレンズ101の駆動指令を受信すると、制御部125がNN制御部121に対してフォーカスレンズ101の駆動指令を送る。NN制御部121は、駆動指令を受け取ると、NNデータ記憶部123に記憶されたウエイトをNNのウエイトとして用いて、フォーカスレンズ101の駆動制御を行う。
また、レンズ100では、通信部126が動作ログ情報の取得要求を受信すると、制御部125が動作ログ管理部124に対して動作ログ情報の出力要求を行う。ここで、動作ログ情報について説明する。動作ログ情報は、NNアルゴリズムの制御結果を点数化する上で、点数を決める対象となる制御結果情報である。
動作ログ管理部124は、図6に示す目標位置X1、現在位置X2、焦点深度X3、フォーカス敏感度X4、及び駆動信号Y1に対応するNNアルゴリズムの入出力情報を、NNアルゴリズムの制御周期毎に収集し記録する。例えば、動作ログ管理部124は、NN制御部121に入力された駆動指令やフォーカスレンズ検出部106によって検出されるフォーカスレンズの位置情報を動作ログ情報として記録する。さらに、例えば、動作ログ管理部124は、駆動指令からフォーカスレンズの目標位置、位置情報、及び位置精度Eを決定し、動作ログ情報として記録する。また、例えば、動作ログ管理部124は、フォーカスレンズの位置情報から、フォーカスレンズの速度及び加速度を算出し、動作ログ情報として記録する。さらに、フォーカスレンズ駆動部105の消費電力を測定するために不図示の電力検出部を設ける場合には、動作ログ管理部124は、電力検出部から得られるフォーカスレンズ駆動部105の消費電力の情報も動作ログ情報として記録することができる。
動作ログ管理部124は、動作ログ情報の出力要求を受けると、フォーカスレンズ101の駆動時に記録した動作ログ情報を、制御部125及び通信部126を介してカメラ本体200に送信する。カメラ本体200に送られた動作ログ情報は、通信部212及び制御部211を介して、動作ログ保持部222に送られ、動作ログ保持部222によって保持される。
次に、ステップS1504において、学習処理部221は、報酬管理部223が保持している報酬情報及び動作ログ保持部222が保持している動作ログ情報を基に、初期値のウエイトに基づくNNアルゴリズムの制御結果を点数化する。なお、制御結果の点数化に関しては、上述したように、報酬情報を用いて、動作ログ情報を基にNNアルゴリズムの制御結果を単位時間毎に点数化し、単位時間毎の点数を累計することで、NNアルゴリズムの制御結果の累計点数を決定することができる。
次に、ステップS1505において、学習処理部221は、NNアルゴリズム制御結果の累計点数が最大化されるようにウエイトを更新する。ウエイトの更新には誤差逆伝搬法(Back Propagation)を使用するが、本実施例に係るウエイトの更新方法はこれに限定されるものではなく、公知の任意の手法を用いてよい。生成されたウエイトはS1502と同様の手順でNNデータ記憶部123に記憶される。
ステップS1506では、学習処理部221は、ウエイトの学習が完了したか否かを判断する。学習完了は、学習(ウエイトの更新)の反復回数が規定値に達したか、又は、更新時の動作ログ情報中の累計点数の変化量が規定値より小さいかなどにより判断することができる。学習処理部221によって学習が完了していないと判断された場合には、処理はステップS1503へ戻り、機械学習処理が続けられる。一方で、学習処理部221によって学習が完了したと判断された場合には、機械学習処理を終了させる。なお、学習が完了した機械学習モデルは、学習部220の記憶装置に記憶される機械学習モデルデータベースに追加され保持される。
このような処理により、レンズ100の構成に基づく機器制約報酬情報、及びユーザ設定により変更されたユーザ要望に応じたユーザ要望報酬情報を基にNNの機械学習処理が実施される。これにより、レンズ100の構成及びユーザ要望に応じた適切な制御が行えるNNが生成される。なお、当該機械学習処理において更新された学習済モデル(NN)のウエイトは、ステップS1505で述べたように、カメラ本体200からレンズ100に送られてNNデータ記憶部123に記憶され、フォーカス駆動制御に使用されることができる。
なお、本実施例に係る機械学習の具体的なアルゴリズムとしては、NNを利用して、学習するための特徴量や結合重み付け係数を自ら生成する深層学習(ディープラーニング)が挙げられる。また、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなども挙げられる。適宜、上記アルゴリズムのうち利用できるものを本実施例に適用することができる。
なお、GPUはデータをより多く並列処理することで効率的な演算を行うことができるので、ディープラーニングのような学習モデルを用いて複数回にわたり学習を行う場合にはGPUで処理を行うことが有効である。そこで、学習処理部221による処理にはCPUに加えてGPUを用いてもよい。具体的には、学習モデルを含む学習プログラムを実行する場合に、CPUとGPUが協働して演算を行うことで学習を行ってよい。なお、学習処理部221の処理はCPU又はGPUのみにより演算が行われてもよい。
次に、図16を参照して、機械学習モデルデータベースについて説明する。図16は、機械学習モデルデータベースのデータ構造の一例を示している。機械学習モデルデータベースは、一つの機械学習モデルデータに対して、機械学習モデルID、作成日時情報、報酬情報ID、機械学習モデルNN、及び機械学習モデル初期値NNiで構成されている。なお、機械学習モデルデータベースに記録されている機械学習モデルは、学習が行われた学習済モデルである。
機械学習モデルIDは、機械学習モデルデータを一意に決定するユニークな数値が割り当てられる。作成日時情報は、機械学習モデルが作成された日時を示す情報が記録されている。報酬情報IDは、機械学習モデルの生成に使用された図14に示す報酬情報を一意に決定するユニークな数値である。機械学習モデルNNは、機械学習モデルのウエイトを示す情報である。機械学習モデル初期値NNiは、機械学習モデルの生成時に機械学習モデルの初期値として使用された機械学習モデルのウエイトを示す情報である。ここで、機械学習モデルの生成に使用されたレンズ個体情報、ユーザ要望情報、ユーザ要望報酬変換情報、及び報酬情報は、報酬情報IDに基づいて報酬情報データベースより取得可能である。
図16に示す例において、例えば、機械学習モデルIDがNNID1である機械学習モデルは、作成日時Date1のときに生成され、機械学習モデルのウエイト情報は機械学習モデルNN1となる。また、学習時に使用された報酬情報は報酬情報RID1であり、学習開始時の機械学習モデルのウエイト情報は機械学習モデル初期値NNi1となる。
以上の機械学習モデルデータベースのデータ構造により、一つの学習済モデルに対して、学習済モデルのウエイトを示す情報及び学習済モデルを生成したときの情報を管理することができる。本実施例では、機械学習モデル初期値NNiについて、実際のウエイトを示す情報を用いる例を示したが、初期モデルを示す機械学習モデルIDを用いてもよい。また、報酬情報IDではなく、実際の報酬情報IDが示す報酬情報データベースに記録している値を用いてもよい。また、機械学習モデルNN及び機械学習モデル初期値NNiとしては、ウエイトを示す情報だけでなく、ニューラルネットワーク構造の情報又はニューラルネットワーク構造のロジック情報を含めてもよい。
以上のデータベース構成により、学習済の機械学習モデルのそれぞれの関連を容易に確認することができる。さらに、類似した学習済の機械学習モデルの検索を容易にすることができる。
<ウエイト初期値決定処理>
次に、図17を参照して、ステップS1501におけるNNのウエイト初期値決定処理の詳細について説明する。図17は、ウエイト初期値決定処理の流れを示すフローチャートである。ステップS1501においてウエイト初期値決定処理が開始されると、処理はステップS1701に移行する。
ステップS1701では、機械学習初期値管理部232は、機械学習モデル保持部231に対して、学習済モデルの生成に使用されたレンズ装置のレンズ個体情報が、ステップS1001で取得したレンズ個体情報と一致する学習済モデルの選択を要求する。機械学習モデル保持部231は、機械学習モデルデータベース及び報酬情報データベースを参照して、学習済モデルの生成に使用されたレンズ装置のレンズ個体情報がレンズ100のレンズ個体情報と一致する機械学習モデルを選択する。
次に、ステップS1702において、機械学習モデル保持部231は、選択した学習済モデルが複数あるか否かを判断する。機械学習モデル保持部231が、選択した学習済モデルが複数あると判断した場合には処理はステップS1703に移行する。一方で、機械学習モデル保持部231が、選択した学習済モデルは複数ではないと判断した場合には、処理はステップS1704に移行する。
ステップS1703では、機械学習モデル保持部231が、現在適用する報酬情報又はユーザ要望情報に最も近い報酬情報又はユーザ要望情報を用いて学習を行った学習済モデルを選択する。当該学習済モデルを選択方法の詳細については後述する。機械学習モデル保持部231が、現在適用する報酬情報又はユーザ要望情報に最も近い報酬情報又はユーザ要望情報を用いて学習を行った学習済モデルを選択すると、処理はステップS1705に移行する。
これに対し、ステップS1704では、機械学習モデル保持部231は、ステップS1701で選択した学習済モデルがあるか否かを判断する。機械学習モデル保持部231が、ステップS1701で選択した学習済モデルがあると判断した場合には、処理はステップS1705に移行する。一方、機械学習モデル保持部231が、ステップS1701で選択した学習済モデルがないと判断した場合には、処理はステップS1706に移行する。
ステップS1705では、機械学習初期値管理部232が、機械学習モデル保持部231が選択した学習済モデルのウエイトをNNのウエイトの初期値として決定する。一方で、ステップS1706では、機械学習初期値管理部232が、予め決められたウエイトをNNのウエイトの初期値として決定する。なお、ステップS1706において、機械学習初期値管理部232は、予め決められたウエイトではなく、レンズ100が現在使用しているNNのウエイトをNNのウエイトの初期値としてもよい。
以上により、機械学習初期値管理部232は、レンズ個体情報と、報酬情報又はユーザ要望情報とから、NNのウエイトの初期値を決定することができる。このような処理によれば、NN制御部121が用いるNNは、制御目標に最も近い学習済モデルのウエイトから機械学習を開始することができ、機械学習時の駆動部の駆動回数を低減し、機械学習時間を短くすることができる。
なお、本実施例では、ステップS1701において、レンズ個体情報と一致している機種のレンズ装置を学習に用いた学習済モデルを選択した例を示した。これに対し、レンズ個体情報に類似製品の情報を予め含み、レンズ100の類似製品を学習に用いた学習済モデルを選択できるようにしてもよい。また、本実施例では、ステップS1704の判断処理をステップS1702の判断処理の後に行っているが、ステップS1704の判断処理をステップS1702の判断処理の前に行ってもよい。
<報酬情報が最も近い学習済モデルの選択方法>
次に、図18(a)乃至図18(d)を参照して、ステップS1703において、機械学習モデル保持部231が、現在適用する報酬情報に最も近い報酬情報を用いて学習を行った学習済モデルを選択する方法について説明する。図18(a)乃至図18(d)は、報酬情報RID1~RID3におけるユーザ要望報酬情報の値の一例を示している。ここでは、ユーザ要望報酬情報は、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuで構成され、図18(a)乃至図18(d)はそれぞれの報酬情報のデータ構造の一例を示している。以下では、報酬情報RID1が、実際に機械学習に用いられる報酬情報である例について説明する。
この場合、機械学習モデル保持部231は、報酬情報RID2~RID3の中から報酬情報RID1に最も近い報酬情報を選択する。例えば、機械学習モデル保持部231は、報酬情報RID1の境界値Eu1R1,Eu2R1のそれぞれに対して、比較される報酬情報の境界値Eu1,Eu2との絶対値としての差を算出する。
また、点数の値により、学習結果が変化する。このため、例えば、機械学習モデル保持部231は、報酬情報RID1の点数SEu1R1,SEu2R1,SEu3R1の比率を算出し、比較される報酬情報の点数SEu1,SEu2,SEu3の比率を算出する。さらに、機械学習モデル保持部231は、これらの算出した比率の絶対値としての差を算出する。
ここで、上記境界値Eu1,Eu2に関する差及び点数SEu1,SEu2,SEu3の比率に関する差に関して、それぞれの差が小さい報酬情報ほど、報酬情報RID1に近い報酬情報となる。このため、機械学習モデル保持部231は、境界値Eu1,Eu2に関する差及び点数SEu1,SEu2,SEu3の比率に関する差を、それぞれの差が小さいほど報酬情報同士の類似度が大きくなるように、類似度を示す点数に変換する。この場合、類似度を示す点数が最も高い報酬情報が、報酬情報RID1に最も近い報酬情報となる。
機械学習モデル保持部231は、上記点数化を、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuに対しても実施する。その後、機械学習モデル保持部231は、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuについての類似度を示す点数の加算値が最も高い報酬情報を選択する。
以上の方法で、報酬情報RID2~RID3の中から報酬情報RID1に最も近い報酬情報を選択することができる。機械学習モデル保持部231は、このようにして選択された報酬情報を用いて学習が行われた学習済モデルを、ステップS1703における、現在適用する報酬情報に最も近い報酬情報を用いて学習を行った学習済モデルとして選択する。
なお、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuの点数化に関しては、境界値の差及び点数比率の差のそれぞれに対して、機械学習結果の影響度に応じて、それぞれ固有の固定係数を乗算してもよい。また、境界値の差及び点数比率との差に関して予め決められた多項式関数から点数を算出してもよい。
さらに、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuのお互いの報酬情報の影響度を考慮し、それぞれについて算出された類似度を示す点数に対して、固有の固定係数を乗算してもよい。また、算出された類似度を示す点数に関して予め設定された多項式関数から報酬情報の影響度を考慮した点数を算出してもよい。
また、本実施例では、報酬情報におけるユーザ要望報酬情報のみを用いて、現在適用する報酬情報に最も近い報酬情報を選択した。これに対して、報酬情報におけるユーザ要望報酬情報と機器制約報酬情報の両方から類似度を示す点数を算出し、当該点数に応じて、現在適用する報酬情報に最も近い報酬情報を選択してもよい。
なお、本実施例では、類似度を示す点数を算出したが、単純に境界値に関する差のみ又は点数の比率に関する差のみに基づいて、最も近い報酬情報を選択してもよい。また、この場合、位置精度報酬情報REu、速度報酬情報RVu、加速度報酬情報RAu、及び消費電力報酬情報RPuのそれぞれについて最も近い報酬情報を選択し、最も近い報酬情報として選択された項目が多い報酬情報を、総合的に最も近い報酬情報として選択してもよい。この場合も、報酬情報の影響度を考慮し、固定係数や多項式関数を用いて、総合的に最も近い報酬情報を選択してもよい。
<ユーザ要望情報が最も近い学習済モデルのを選択方法>
次に、図19を参照して、ステップS1703において、機械学習モデル保持部231が、現在適用するユーザ要望情報に最も近いユーザ要望情報を用いて学習を行った学習済モデルを選択する方法について説明する。図19は、ユーザ要望情報u1~u3におけるユーザ要望の値の一例を示している。ここで、ユーザ要望情報は、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puで構成されている。以下では、ユーザ要望情報u1が、実際に機械学習に用いられる報酬情報の生成に使用されたユーザ要望情報である例について説明する。
この場合、機械学習モデル保持部231は、ユーザ要望情報u2~u3の中からユーザ要望情報u1に最も近いユーザ要望情報を選択する。例えば、機械学習モデル保持部231は、ユーザ要望情報u1の位置精度ユーザ要望情報Euが示すレベル1に対して、比較されるユーザ要望情報の位置精度ユーザ要望情報Euとの絶対値としての差を算出する。
ここで、上記位置精度ユーザ要望情報Euに関する差は、差が小さいユーザ要望情報ほど、ユーザ要望情報u1に近いユーザ要望情報となる。このため、機械学習モデル保持部231は、位置精度ユーザ要望情報Euに関する差を、当該差が小さいほどユーザ要望情報同士の類似度が大きくなるように、類似度を示す点数に変換する。この場合、類似度を示す点数が最も高いユーザ要望情報が、ユーザ要望情報u1に最も近いユーザ要望情報となる。
機械学習モデル保持部231は、上記点数化を、静音ユーザ要望情報Su及び消費電力ユーザ要望情報Puに対しても実施する。その後、機械学習モデル保持部231は、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puについての類似度を示す点数の加算値が最も高いユーザ要望情報を選択する。
以上の方法で、ユーザ要望情報u2~u3の中からユーザ要望情報u1に最も近いユーザ要望情報を選択することができる。機械学習モデル保持部231は、このようにして選択されたユーザ要望情報を用いて学習が行われた学習済モデルを、ステップS1703における、現在適用するユーザ要望情報に最も近いユーザ要望情報を用いて学習を行った学習済モデルとして選択する。
なお、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puの点数化に関しては、算出された絶対値としての差に対して、固有の固定係数を乗算してもよい。また、算出された絶対値としての差に関して予め決められた多項式関数から点数を算出してもよい。
さらに、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puのお互いのユーザ要望情報の影響度を考慮し、それぞれについて算出された類似度を示す点数に対して、固有の固定係数を乗算してもよい。また、算出された類似度を示す点数に関して予め設定された多項式関数からユーザ要望情報の影響を考慮した点数を算出してもよい。
なお、本実施例では、類似度を示す点数を算出したが、単純にユーザ要望情報に関する差のみに基づいて、最も近いユーザ要望情報を選択してもよい。また、この場合、位置精度ユーザ要望情報Eu、静音ユーザ要望情報Su、及び消費電力ユーザ要望情報Puのそれぞれについて最も近いユーザ要望情報を選択し、最も近いユーザ要望情報として選択された項目が多いユーザ要望情報を、総合的に最も近いユーザ要望情報として選択してもよい。この場合も、ユーザ要望情報の影響度を考慮し、固定係数や多項式関数を用いて、総合的に最も近いユーザ要望情報を選択してもよい。
また、現在適用する報酬情報又はユーザ要望情報に最も近い報酬情報又はユーザ要望情報を用いて学習を行った学習済モデルを選択する方法としては、報酬情報又はユーザ要望情報とのうちのいずれに基づいて学習済モデルを選択するかが予め決められていてよい。また、例えば、ユーザ要望情報が最も近い学習済モデルについて複数の学習済モデルが選択された場合に、当該選択された複数の学習済モデルの中から報酬情報が最も近い学習済モデルを更に選択してもよい。これに対して、報酬情報が最も近い学習済モデルについて複数の学習済モデルが選択された場合に、当該選択された複数の学習済モデルの中からユーザ要望情報が最も近い学習済モデルを更に選択してもよい。
さらに、報酬情報又はユーザ要望情報が最も近い学習済モデルについて複数の学習済モデルが選択された場合は、当該選択された複数の学習済モデルの中から一番新しく生成された学習済モデルを選択してもよい。また、学習済モデルと学習済モデルを用いて撮影された撮影映像と関連付けて管理し、上述のような処理により選択された複数の学習済モデルの中から、ユーザに撮影映像に基づいて学習済モデルを指定させ、指定された学習済モデルを選択してもよい。
上記のように、本実施例に係るカメラシステムは、レンズ100と、レンズ100により形成された像を撮る撮像素子201を備えるカメラ本体200とを備える撮像装置の一例として機能する。レンズ100は、光学部材と、光学部材を駆動する駆動部と、第1の学習済モデルに基づいて、駆動部を制御する制御部とを備える。ここで、第1の学習済モデルは、レンズ100とは異なる装置に関する学習により得られた第2の学習済モデルを初期の学習済モデルとしてレンズ100に関する学習により得られた学習済モデルである。本実施例では、フォーカスレンズ101は、レンズ100の光学部材の一例として機能し、フォーカスレンズ駆動部105は、レンズ100の光学部材を駆動する駆動部の一例として機能する。また、レンズ100のNN制御部121や制御部125は、第1の学習済モデルに基づいて、フォーカスレンズ駆動部105を制御する制御部の一部を構成することができる。
また、カメラ本体200は、レンズ100が着脱可能に装着されるカメラ装置の一例として機能する。さらに、カメラ本体200は、第1の学習済モデルを取得する制御部の一例として機能する学習部220を備える。学習部220は、第2の学習済モデルを取得し、該第2の学習済モデルを初期の学習済モデルとして、ユーザの要望に従った報酬情報に基づいて第1の学習済モデルを生成することができる。なお、制御部211及び学習部220は、第1の学習済モデルを取得する制御部の一部を構成することができる。
ここで、学習部220は、学習済モデルの群から、レンズ装置であるレンズ100に関する情報に基づいて第2の学習済モデルを選択する。学習部220は、学習済モデルの学習に用いられたレンズ装置に関する情報、学習済モデルの初期値に関する情報、学習済モデルの学習に用いられたユーザの要望に関する情報、学習済モデルの学習に用いられた報酬に関する情報、及び学習日時に関する情報のうち少なくとも1つに基づいて、第2の学習済モデルを選択することができる。また、学習部220は、学習済モデルの群から、第1の学習済モデルを得るための学習に用いられる報酬及びユーザの要望のうち少なくとも一方に関する情報に基づいて、第2の学習済モデルを選択することができる。なお、レンズ装置に関する情報は、レンズ装置の機種及び個体を示す情報の一例であるレンズ個体情報を含むことができる。なお、学習部220の機械学習モデル保持部231は、学習済モデルの群から、第2の学習済モデルを選択する選択部の一例として機能することができる。
なお、本実施例では、NN制御部121におけるNNに対して、第1の学習済モデルのウエイトに対応する、レンズ100に関する学習により更新されたウエイトを適用して第1の学習済モデルを取得する。このため、カメラ本体200から第1の学習済モデルのウエイトを取得する、NN制御部121、NNデータ記憶部123、及び制御部125のは、第1の学習済モデルを取得するレンズ100の制御部の一部を構成することができる。
このような構成から、本実施例に係るカメラシステムは、過去に生成された学習済モデルの中から、学習を行うレンズ100と一致又は類似するレンズ装置を用いて学習を行った学習済モデルをNNの初期値として決定する。これにより、レンズ100のNNについて、当該レンズ100を用いた学習後の学習済モデルに近い学習済モデルから学習を開始することができる。
以上により、本実施例に係るカメラシステムは、固定の機械学習モデルから学習を開始する場合に比べ、少ない学習回数で最終的な学習済モデルを得ることができる。結果として、機械学習時の駆動部の駆動を抑制することができる。そのため、本実施例によれば、学習済モデルを得るのに有利なレンズ装置及びカメラ装置を含む撮像装置を提供することができる。また、本実施例に係るカメラシステムは、ユーザ要望に応じた報酬情報を学習に用いることで、ユーザー要望に即した駆動の制御を行うことができる。
なお、本実施例では、レンズ個体情報は、レンズ機種及びレンズ個体の少なくとも一方を含む。また、第1の学習済モデルは、レンズ100を示すレンズ情報と一致するレンズ情報を有するレンズ装置を用いて取得された情報を用いた学習を行った学習済モデルであるとすることができる。さらに、レンズ100の構成に基づく報酬情報は、レンズ個体情報を用いて特定されることができる。また、ユーザの要望に基づく報酬情報は、レンズ個体情報を用いて特定された変換情報に基づいてユーザ要望情報を変換したユーザ要望報酬情報である。
さらに、本実施例に係るカメラシステムは、複数の学習済モデルを管理するモデル管理部の一例として機能する機械学習モデル保持部231を更に備える。機械学習モデル保持部231は、機械学習モデル保持部231が保持する機械学習モデルデータベースにより、複数の学習済モデルと、それぞれの学習済モデルの学習に用いられたレンズ装置のレンズ個体情報と、学習関連情報とを関連付けて管理することができる。ここで、学習関連情報は、上述した機械学習モデルデータベースに含まれる事項を含むことができる。例えば、学習関連情報には、それぞれの学習モデルの初期値、ユーザ要望情報、ユーザ要望情報の変換に用いたユーザ要望報酬変換情報、報酬情報、及び学習日時の少なくとも1つが含まれる。この場合、機械学習モデル保持部231は、学習済モデルの群から、レンズ個体情報及び学習関連情報に基づいて第2の学習済モデルを選択することができる。
このような構成では、過去に生成した学習済モデルを、機械学習時に関連した情報と紐づけて管理することにより、容易に所望の学習済モデルを検索することができる。そのため、過去に生成された学習済モデルの群の中から、これから行う機械学習の初期値として適切な学習済モデルを容易に選択することができる。
また、本実施例に係る機械学習モデル保持部231は、学習済モデルの群から、レンズ個体情報と、レンズ100の構成及びユーザ要望情報を示すユーザ要望報酬情報の少なくとも一方とを用いて、第2の学習済モデルを選択することができる。そのため、過去に生成された学習済モデルの群の中から、これから行う機械学習の初期値として適切な学習済モデルを容易に選択することができる。
さらに、本実施例に係るカメラシステムは、複数の報酬情報を管理する報酬管理部223を更に備える。報酬管理部223は、報酬情報保持部230が保持する報酬情報データベースにより、複数の報酬情報と、それぞれの報酬情報に対応するレンズ情報と、報酬生成情報とを関連付けて管理することができる。ここで、報酬生成情報は、上述した報酬情報データベースに含まれる事項を含むことができる。例えば、報酬生成情報には、ユーザーの要望、ユーザの要望の変換に用いた変換情報、及び報酬情報の作成日時の少なくとも1つが含まれる。この場合、機械学習モデル保持部231は、学習済モデルの群から、レンズ個体情報及び報酬生成情報に基づいて第2の学習済モデルを選択することができる。
このような構成では、過去に生成した報酬情報を、報酬情報生成時に関連した情報と紐づけて管理することにより、容易に所望の報酬情報を検索することができる。そのため、過去に生成された報酬情報の中から、これから行う機械学習に使用される報酬情報と最も近い報酬情報を容易に選択することができ、最も近い報酬情報を基に生成された機械学習モデルを容易に選択することができる。
また、本実施例に係るカメラシステムは、複数のユーザの要望の情報を管理する要望管理部の一例として機能するユーザ要望管理部226を更に備える。ユーザ要望管理部226は、ユーザ要望保持部227が保持するユーザ要望情報データベースにより、複数のユーザの要望の情報と、それぞれのユーザの要望の情報を設定したときのレンズ情報と、要望関連情報とを関連付けて管理することができる。ここで、要望関連情報は、上述したユーザ要望情報データベースに含まれる事項を含むことができる。例えば、要望関連情報は、ユーザ識別情報、要望の情報を設定したときの撮影条件、及び要望の情報を設定したときの日時の少なくとも1つが含まれる。この場合、機械学習モデル保持部231は、学習済モデルの群から、レンズ個体情報及び要望関連情報に基づいて第2の学習済モデルを選択することができる。
このような構成では、過去に作成したユーザ要望情報を、ユーザ要望情報作成時に関連した情報と紐づけて管理することにより、容易に所望のユーザ要望情報を検索することができる。そのため、過去に作成されたユーザ要望情報の中から、これから行う機械学習に使用される報酬情報の基となるユーザ要望情報と最も近いユーザ要望情報を容易に選択することができる。さらに、最も近いユーザ要望情報を基に生成された機械学習モデルを容易に選択することができる。
このように、報酬生成情報や要望関連情報に基づいて、第2の学習済モデルを選択することで、報酬情報又やユーザ要望情報が最も近い機械学習モデルを初期値として決定することができる。このため、レンズ100を用いた学習後の学習済モデルに更に近い学習済学習モデルから学習を開始することができ、機械学習時の駆動部の駆動をより抑制することができる。
本実施例では、機械学習モデル保持部231が、レンズ個体情報を用いて第2の学習済モデルを選択する選択部及び複数の学習済モデルを管理するモデル管理部の一例として機能するように構成された。これに対し、選択部及びモデル管理部を別々の構成要素として設けてもよい。この場合、機械学習モデル保持部231は、選択部及びモデル管理部を含むことができる。
なお、本実施例では、フォーカスレンズ制御に要求される4つの指標に関して、撮影条件として、例えば、F値、フォーカス敏感度、並びにフォーカスレンズの駆動時間、移動速度、及び加速度変化といった撮影条件を挙げた。しかしながら、制御に関する撮影条件はこれに限られず、所望の構成に応じて変更されてよい。
また、本実施例では、レンズ100内の構成に応じて取得できる、フォーカスレンズの現在位置や焦点深度、フォーカス敏感度をNNへの入力として学習に使用していたが、撮影映像から得られた情報を学習に用いてもよい。具体的には、録音した音声とアクチュエータ駆動音とのS/N比や、撮影時のデフォーカス量をNNへの入力として学習に用いてもよい。
さらに、NNへの入力はこれに限られず、例えば、姿勢差、温度、及び周囲環境の音量を用いてもよい。姿勢差については、各種レンズや絞りを駆動するときの重力の影響が変化するため、姿勢差に応じてモータに必要な駆動トルクが変化する。温度については、各種レンズや絞りの駆動連結部に使用される潤滑油の特性が変化するため、温度に応じてモータに必要な駆動トルクが変化する。
また、例えば、周囲環境が静かな場所での撮影においては、ユーザが駆動音を不快に感じてしまうという問題が発生する。また、動画撮影時は録音も同時に行われるため、撮影映像に不要となる駆動音が収録されてしまうという問題が発生する。従って、撮影状況によっては駆動音をできるだけ少なくする静音が要求される。一方で、例えば、モータの駆動音を抑えるために各種レンズや絞りの駆動速度を制限している場合において、モータの駆動音が周囲環境の音量に対して小さい範囲であれば、駆動速度の制限を外しても撮影映像に影響しない。そのため、周囲環境の音量に応じて、駆動速度の最高速制限を変化させる制御も有用である。
このようにNNへの入力事項に他の事項を加えたり、上述の事項を減らしたりする場合には、報酬を算出する際に用いる事項を、当該NNへの入力事項に応じて変更することができる。これにより、当該変更された事項に基づいて、所望の撮影条件や撮影状況に応じた制御を行うことができる。
また、レンズ100が異なるレンズ装置に取り換えられた場合には、カメラ本体200は、取り換えられたレンズ装置のレンズ個体情報に基づいてユーザ要望報酬情報を変更することができる。具体的には、カメラ本体200の学習部220は、ユーザの要望に基づく報酬情報として、当該取り換えられたレンズ装置を示すレンズ個体情報を用いて特定されたユーザ要望報酬変換情報に基づいてユーザの要望を変換した報酬情報を学習に用いる。これにより、レンズ装置が交換された場合であっても、レンズ交換毎にユーザ要望を設定することを省略できる。そのため、レンズ交換時において、過去に使用されたユーザ要望をそのまま使うことができ、ユーザに新たなユーザ要望を設定させる手間を防ぐことができる。
また、レンズ交換時に、レンズ機種やレンズ個体に応じた機器制約報酬情報及びユーザ要望報酬変換情報に切り替えることで、機械学習に使用される報酬情報をレンズ機種やレンズ個体に最適化させることができる。
なお、本実施例では、フォーカスレンズを駆動対象としたフォーカス制御について学習済モデルを用いた制御を行う構成とした。しかしながら、本実施例に係る学習済モデルを用いた制御は、他の制御(ズーム制御、防振制御、及び絞り制御等)に対しても適用されてよい。
静音及び消費電力については、ズームレンズ等の光学部材をアクチュエータにより駆動する場合はフォーカスレンズの駆動の制御と同様の課題を有している。また、位置精度に関しても、それぞれの制御において課題を有している。例えば、ズーム制御においては、位置精度に関して、画角変化における被写体の拡大変化量の関係により要求される位置精度が変化する。さらに、ズームレンズ駆動量と画角変化量との関係により要求される位置精度が変化する。また、防振制御においては、焦点距離と映像のシフト量の関係の情報により要求される位置精度が変化する。さらに、絞り制御においては、絞り駆動量と映像の輝度変化量の関係により要求される位置精度が変化する。
そのため、フォーカス制御以外の制御(ズーム制御、防振制御、及び絞り制御等)に対して、本実施例に係る学習済モデルを用いた制御を適用することで、要求される位置精度、静音、及び消費電力に関する事項をバランスよく制御することができる。なお、上述した様々な変形例に関する事項は、以下の実施例にも適宜適用することができる。
(実施例2)
以下、図20を参照して、本発明の実施例2に係るカメラシステムについて説明する。図20は、本実施例に係るカメラシステムのシステム構成を示すブロック図である。本実施例は、レンズ装置が機械学習処理を行う学習部を備える点で、実施例1と異なる。なお、本実施例に係るカメラシステムは、レンズ装置が学習部と操作部を備える点を除き、実施例1に係るカメラシステムと同様の構成を有するため、実施例1と同様の構成については共通の記号を付与し、その説明は省略する。以下、本実施例に係るカメラシステムに関し、実施例1に係るカメラシステムと異なる点について説明する。
本実施例に係るカメラシステムでは、カメラ本体200は、学習部220を備えていない。一方、本実施例に係るレンズ100には、レンズマイコン1120、操作部1206、及び学習部1220が設けられている。
レンズマイコン1120には、実施例1に係るレンズマイコン120に係る制御部125とは異なる制御部1125が設けられている。また、レンズマイコン1120は、操作部1206及び学習部1220と接続され、それぞれとの情報伝達を行う点で実施例1に係るレンズマイコン120と異なる。
制御部1125は、ズームレンズ102、絞りユニット103、及び像振れ補正レンズ104のそれぞれの位置を制御するとともに、学習部1220及びカメラ本体200との情報伝達を制御する制御部である。また、操作部1206は、ユーザがレンズ100を操作するための操作部であり、ユーザは操作部1206を操作することで、ユーザ要望情報の設定等の機械学習に係る操作を行うことができる。
学習部1220は、プロセッサ(CPU、GPU)及び記憶装置(ROM、RAM、HDD)を用いて構成されることができる。学習部1220には、学習処理部1221、動作ログ保持部1222、報酬管理部1223、機器制約報酬管理部1224、ユーザ要望報酬管理部1225、ユーザ要望管理部1226、及びユーザ要望保持部1227が設けられている。また、学習部1220には、報酬情報保持部1230、機械学習モデル保持部1231、及び機械学習初期値管理部1232が設けられている。
なお、学習部1220の各構成要素は、CPUやMPU等のプロセッサが記憶装置に記憶されたソフトウェアモジュールを実行することで実現されてよい。なお、プロセッサは、例えば、GPUやFPGA等であってもよい。また、学習部1220の各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。さらに、学習部1220の記憶装置には、学習部1220の各種構成要素を実装するためのプログラム、及び動作ログ保持部1222が保持している動作ログ情報等の学習部1220の各構成要素が保持する各種情報や各種データベース等が記憶されている。
学習部1220は、機器制約報酬情報保持部228及びユーザ要望報酬変換情報保持部229を備えない。学習部1220の動作は、機器制約報酬情報及びユーザ要望報酬変換情報がレンズ機種に依存しない点以外、実施例1の学習部220の動作と同じである。
本実施例では、機械学習を行う学習部1220がレンズ100に構成されている。従って、実施例1におけるカメラマイコン210と学習部220との間の情報伝達と同様の情報伝達が、ズームレンズ102と学習部1220との間で行われる。
また、本実施例では、学習部1220はレンズ100を用いた学習を行うため、学習に用いるレンズ装置の機種及びレンズの個体は一意に決定される。従って、レンズ機種毎の機器制約報酬情報データベース及びユーザ要望報酬変換情報データベースは存在せず、レンズ100についての機器制約報酬情報及びユーザ要望報酬変換情報が一意に決定される。
本実施例では、NN制御部121、制御部1125、及び学習部1220は、レンズ100の制御部の一部を構成することができる。このため、レンズ100の制御部は、第1の学習済モデルに基づいて、駆動部を制御することができる。また、レンズ100の制御部は、第1の学習済モデルを取得することができる。具体的には、レンズ100の制御部は、第2の学習済モデルを取得し、該第2の学習済モデルを初期の学習済モデルとして、ユーザの要望に従った報酬情報に基づいて前記第1の学習済モデルを生成することができる。さらに、レンズ100の制御部は、学習済モデルの群から、レンズ100に関する情報に基づいて第2の学習済モデルを選択することができる。なお、第2学習済モデルの選択方法は、実施例1で述べた方法と同様の方法であってよい。
学習部1220がレンズ100に構成されている本実施例の構成においても、実施例1に係る機械学習処理と同様の処理を行うことで、固定の機械学習モデルから学習を開始する場合に比べ、少ない学習回数で最終的な学習済モデルを得ることができる。結果として、機械学習時の駆動部の駆動回数を低減することができる。そのため、本実施例によれば、学習済モデルを得るのに有利なレンズ装置を提供することができる。また、レンズ100は、ユーザ要望に応じた報酬情報を学習に用いることで、ユーザー要望に即した駆動の制御を行うことができる。
(実施例3)
以下に、図21を参照して、本発明の実施例3に係るカメラシステムについて説明する。図21は、本実施例に係るカメラシステムのシステム構成を示すブロック図である。本実施例は、遠隔装置が機械学習処理を行う学習部を備える点で、実施例1と異なる。
なお、本実施例に係るカメラシステムは、遠隔装置が学習部と操作部を備える点を除き、実施例1に係るカメラシステムと同様の構成を有するため、実施例1と同様の構成については共通の記号を付与し、その説明は省略する。以下、本実施例に係るカメラシステムに関し、実施例1に係るカメラシステムと異なる点について説明する。
本実施例に係るカメラシステムには、レンズ100及びカメラ本体200に加えて、遠隔装置400が設けられている。ここで、遠隔装置400は、例えば携帯端末やパソコン端末である。また、遠隔装置400は、例えばクラウドサーバ、フォグサーバ、又はエッジサーバ等の任意のサーバであってもよい。
本実施例に係るカメラ本体200は、学習部220を備えていない。一方で、カメラ本体200には、通信部240が設けられている。通信部240は、遠隔装置400と通信するための通信部である。
遠隔装置400には、表示部401、操作部402、遠隔装置マイクロコンピュータ(以下、遠隔装置マイコン410という)、及び学習部420が設けられている。表示部401は、遠隔装置400の表示部であり、遠隔装置400のユーザに各種情報を表示することができる。操作部402は、ユーザが遠隔装置400を操作するための操作部である。
遠隔装置マイコン410には、制御部411及び通信部412が設けられている。制御部411は、遠隔装置400を制御する制御部である。通信部412は、カメラ本体200と通信するための通信部である。
学習部420は、プロセッサ(CPU、GPU)、及び記憶装置(ROM、RAM、HDD)を用いて構成されることができる。学習部420には、学習処理部421、動作ログ保持部422、報酬管理部423、機器制約報酬管理部424、ユーザ要望報酬管理部425、ユーザ要望管理部426、ユーザ要望保持部427、及び機器制約報酬情報保持部428が設けられている。また、学習部420には、ユーザ要望報酬変換情報保持部429、報酬情報保持部430、機械学習モデル保持部431、及び機械学習初期値管理部432が設けられている。
なお、学習部420の各構成要素は、CPUやMPU等のプロセッサが記憶装置に記憶されたソフトウェアモジュールを実行することで実現されてよい。なお、プロセッサは、例えば、GPUやFPGA等であってもよい。また、学習部420の各構成要素は、ASIC等の特定の機能を果たす回路等によって構成されてもよい。また、学習部420の記憶装置には、学習部420の各種構成要素を実装するためのプログラム、及び動作ログ保持部422が保持している動作ログ情報等の学習部420の各構成要素が保持する各種情報や各種データベース等が記憶されている。
ここで、学習部420の動作は、実施例1に係る学習部220の動作と同様である。なお、通信部240と通信部412とは、無線通信にて接続されている。無線通信は、Bluetooth(登録商標)やWi-Fi等の近距離無線通信や、公衆無線LAN等の公衆無線通信であってよい。なお、通信部240と通信部412の間の通信は有線通信であってもよい。
本実施例では、機械学習を行う学習部420が遠隔装置400に構成されている。従って、実施例1におけるカメラマイコン210と学習部220との間の情報伝達が、カメラマイコン210と学習部420との間で行われる。また、信号処理回路203から出力される映像データは、制御部211、通信部240、及び通信部412を介して制御部411に送信されることができる。制御部411に送信された映像データは、表示部401に表示されることができる。
また、操作部206又は操作部402によりユーザが設定した位置精度、静音、及び消費電力の各レベル情報をユーザ要望情報は、制御部411を介してユーザ要望報酬管理部425に送られる。ユーザ要望報酬管理部425は、受け取ったユーザ要望情報に基づいてユーザ要望情報データベースを更新する。
さらに、ユーザが操作部206又は操作部402から機械学習実施を示す操作を行うと、機械学習実施の指令が制御部411を介して学習部420に伝えられる。学習部420は、機械学習実施の指令を受けると、実施例1に係る学習部220での処理と同様に、報酬情報を決定し、ウエイト初期値を決定し、機械学習処理を開始する。
このように、本実施例でも、実施例1と同様の動作にて、ユーザが設定したユーザ要望報酬情報を基に適切な機械学習の初期値が決定され、NNアルゴリズムの学習が実施される。学習部420による機械学習処理において更新された学習済モデルのウエイトは、遠隔装置400から、カメラ本体200を介してレンズ100に送られ、NNデータ記憶部123で記憶され、フォーカス駆動制御に使用されることができる。以上の動作により、ユーザは遠隔地において撮影映像を確認しながら、ユーザ設定に応じて適切な制御を行えるNNを生成することができる。この場合、遠隔装置400から第1の学習済モデルのウエイトを取得する、カメラ本体200の制御部211は、第1の学習済モデルを取得するカメラ装置の制御部の一例として機能する。
なお、操作部206を使用して、ユーザがカメラ本体200から、機械学習実施を示す操作及びユーザ要望報酬情報の設定を行うことも可能である。この場合、学習に関する高速演算処理のみを遠隔装置400で行うことができる。また、本実施例では、大容量のデータベースを、レンズ100及びカメラ本体200とは別の遠隔装置400に構成することができ、レンズ100及びカメラ本体200の小型化を実現することができる。
学習部420が遠隔装置400に構成されている本実施例の構成においても、実施例1に係る機械学習処理と同様の処理を行うことで、固定の機械学習モデルから学習を開始する場合に比べ、少ない学習回数で最終的な学習済モデルを得ることができる。結果として、機械学習時の駆動部の駆動回数を低減することができる。そのため、本実施例によれば、学習済モデルを得るのに有利なレンズ装置、カメラ装置、及び遠隔装置を含む撮像システムを提供することができる。また、本実施例に係るカメラシステムは、ユーザ要望に応じた報酬情報を学習に用いることで、ユーザー要望に即した駆動の制御を行うことができる。
なお、ユーザ要望管理部426、ユーザ要望保持部427、機器制約報酬管理部424、機器制約報酬情報保持部428、ユーザ要望報酬管理部425、ユーザ要望報酬変換情報保持部429、報酬管理部423、報酬情報保持部430の全て又は一部をレンズ100、カメラ本体200、及び遠隔装置400とは別の遠隔装置に構成してもよい。同様に、動作ログ保持部422、機械学習モデル保持部431、及び機械学習初期値管理部432の全て又は一部をレンズ100、カメラ本体200、遠隔装置400とは別の遠隔装置に構成してもよい。また、本実施例では、レンズ100は、カメラ本体200を介して遠隔装置400と通信を行ったが、遠隔装置400と直接通信を行ってもよい。この場合、遠隔装置400から第1の学習済モデルのウエイトを取得する、NN制御部121、NNデータ記憶部123、及び制御部125は、第1の学習済モデルを取得するレンズ100の制御部の一部を構成することができる。
上記実施例1乃至3では、レンズ100におけるNN制御部121が備えるNNを用いてフォーカスレンズの制御を行う構成について説明した。しかしながら、NNはレンズ装置内に設けられていなくてもよい。例えば、NNは、カメラ本体200や遠隔装置400、その他の遠隔装置に実装されてもよい。この場合、レンズ100のNN制御部121又は制御部125が、通信部126を介して、当該NNに上述したNNへの入力を送信し、NNから出力されるフォーカスレンズの駆動指令を受け取って、フォーカスレンズ駆動部105を駆動してもよい。また、同様の動作が、上述のように、他の制御(ズーム制御、防振制御、及び絞り制御等)に適用されてもよい。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、実施例を参照して本発明について説明したが、本発明は上記実施例に限定されるものではない。本発明の趣旨に反しない範囲で変更された発明、及び本発明と均等な発明も本発明に含まれる。また、上述の各実施例及び変形例は、本発明の趣旨に反しない範囲で適宜組み合わせることができる。
100:レンズ(レンズ装置)、105:フォーカスレンズ(光学部材)、105:フォーカスレンズ駆動部(駆動部)

Claims (16)

  1. 光学部材と、
    前記光学部材を駆動する駆動部と、
    第1の学習済モデルに基づいて、前記駆動部を制御する制御部と、
    を有するレンズ装置であって、
    前記第1の学習済モデルは、前記レンズ装置とは異なる装置に関する学習により得られた第2の学習済モデルを初期の学習済モデルとして前記レンズ装置に関する学習により得られた学習済モデルであることを特徴とするレンズ装置。
  2. 前記制御部は、前記第1の学習済モデルを取得することを特徴とする請求項1に記載のレンズ装置。
  3. 前記制御部は、前記第2の学習済モデルを取得し、該第2の学習済モデルを初期の学習済モデルとして、ユーザの要望に従った報酬情報に基づいて前記第1の学習済モデルを生成することを特徴とする請求項2に記載のレンズ装置。
  4. 前記制御部は、前記学習済モデルの群から、前記レンズ装置に関する情報に基づいて前記第2の学習済モデルを選択することを特徴とする請求項2に記載のレンズ装置。
  5. 前記制御部は、学習済モデルの学習に用いられたレンズ装置に関する情報、学習済モデルの初期値に関する情報、学習済モデルの学習に用いられたユーザの要望に関する情報、学習済モデルの学習に用いられた報酬に関する情報、及び学習日時に関する情報のうち少なくとも1つに基づいて、前記第2の学習済モデルを選択することを特徴とする請求項4に記載のレンズ装置。
  6. 前記制御部は、前記学習済モデルの群から、前記第1の学習済モデルを得るための学習に用いられる報酬及びユーザの要望のうち少なくとも一方に関する情報に基づいて、前記第2の学習済モデルを選択することを特徴とする請求項4又は5に記載のレンズ装置。
  7. 前記レンズ装置に関する情報は、前記レンズ装置の機種及び個体を示す情報を含むことを特徴とする請求項4乃至6のうちいずれか1項に記載のレンズ装置。
  8. 請求項1乃至7のうちいずれか1項に記載のレンズ装置と、
    前記レンズ装置により形成された像を撮る撮像素子とを有することを特徴とする撮像装置。
  9. 請求項1に記載のレンズ装置が着脱可能に装着されるカメラ装置であって、
    前記第1の学習済モデルを取得する制御部を有することを特徴とするカメラ装置。
  10. 前記カメラ装置の制御部は、前記第2の学習済モデルを取得し、該第2の学習済モデルを初期の学習済モデルとして、ユーザの要望に従った報酬情報に基づいて前記第1の学習済モデルを生成することを特徴とする請求項9に記載のカメラ装置。
  11. 前記カメラ装置の制御部は、前記学習済モデルの群から、前記レンズ装置に関する情報に基づいて前記第2の学習済モデルを選択することを特徴とする請求項10に記載のカメラ装置。
  12. 前記カメラ装置の制御部は、学習済モデルの学習に用いられたレンズ装置に関する情報、学習済モデルの初期値に関する情報、学習済モデルの学習に用いられたユーザの要望に関する情報、学習済モデルの学習に用いられた報酬に関する情報、及び学習日時に関する情報のうち少なくとも1つに基づいて、前記第2の学習済モデルを選択することを特徴とする請求項11に記載のカメラ装置。
  13. 前記カメラ装置の制御部は、前記学習済モデルの群から、前記第1の学習済モデルを得るための学習に用いられる報酬及びユーザの要望のうち少なくとも一方に関する情報に基づいて、前記第2の学習済モデルを選択することを特徴とする請求項11又は12に記載のカメラ装置。
  14. 前記レンズ装置に関する情報は、前記レンズ装置の機種及び個体を示す情報を含むことを特徴とする請求項11乃至13のうちいずれか1項に記載のカメラ装置。
  15. レンズ装置における光学部材の駆動の制御を行うことと、
    前記制御に用いられる第1の学習済モデルを生成することとを含み、
    前記第1の学習済モデルは、前記レンズ装置とは異なる装置に関する学習により得られた第2の学習済モデルを初期の学習済モデルとして前記レンズ装置に関する学習により得られた学習済モデルであることを特徴とする制御方法。
  16. 請求項15に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。
JP2020199008A 2020-11-30 2020-11-30 レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム Pending JP2022086802A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020199008A JP2022086802A (ja) 2020-11-30 2020-11-30 レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム
US17/530,584 US11849218B2 (en) 2020-11-30 2021-11-19 Lens apparatus, image pickup apparatus, camera apparatus, controlling method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020199008A JP2022086802A (ja) 2020-11-30 2020-11-30 レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022086802A true JP2022086802A (ja) 2022-06-09

Family

ID=81751694

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020199008A Pending JP2022086802A (ja) 2020-11-30 2020-11-30 レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム

Country Status (2)

Country Link
US (1) US11849218B2 (ja)
JP (1) JP2022086802A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022095433A (ja) * 2020-12-16 2022-06-28 キヤノン株式会社 光学機器および生成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4756932B2 (ja) 2005-06-27 2011-08-24 キヤノン株式会社 撮像装置及び交換レンズ
US10771757B2 (en) * 2012-12-10 2020-09-08 Mediatek Inc. Method and appartus for stereoscopic focus control of stereo camera
CN107680053A (zh) * 2017-09-20 2018-02-09 长沙全度影像科技有限公司 一种基于深度学习分类的模糊核优化迭代初始值估计方法
JP2021105660A (ja) * 2019-12-26 2021-07-26 キヤノン株式会社 レンズ装置、撮像装置、制御方法、およびプログラム
WO2022030274A1 (ja) * 2020-08-05 2022-02-10 キヤノン株式会社 振動型アクチュエータの制御装置及びそれを有する振動型駆動装置、交換用レンズ、撮像装置、自動ステージ
JP2022095433A (ja) * 2020-12-16 2022-06-28 キヤノン株式会社 光学機器および生成方法
JP2022134512A (ja) * 2021-03-03 2022-09-15 キヤノン株式会社 振動型アクチュエータの制御装置及びそれを有する振動型駆動装置、交換用レンズ、撮像装置、自動ステージ
JP2023019697A (ja) * 2021-07-29 2023-02-09 キヤノン株式会社 振動型アクチュエータの制御装置、撮像装置、及び自動ステージ

Also Published As

Publication number Publication date
US20220174207A1 (en) 2022-06-02
US11849218B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
JP5948645B2 (ja) レンズ制御装置およびレンズ制御装置を備えた交換レンズ
JP4802598B2 (ja) 撮像光学系および撮像装置
US11762165B2 (en) Lens apparatus, image pickup apparatus, control method, and computer-readable storage medium
JP2013152279A (ja) 撮影レンズ系及びそれを備えた撮像装置
US9411138B2 (en) Telephoto zoom lens system and electronic apparatus including the same
JP2022086802A (ja) レンズ装置、撮像装置、カメラ装置、制御方法、及びプログラム
JP2006171432A (ja) 撮影レンズ及びそれを有する撮像装置
JP6639117B2 (ja) 光学機器およびフォーカス制御プログラム
US11843851B2 (en) Optical apparatus and generating method
US20120133820A1 (en) Autofocus method and an image capturing system
JP2023024748A (ja) 中間アクセサリ装置、撮像装置、撮像システム、処理方法、およびプログラム
CN102420943B (zh) 摄影装置以及图像呈现方法
JP2022151257A (ja) 制御装置、撮像装置、レンズ装置、制御方法、およびプログラム
JP2022151256A (ja) 制御装置、撮像装置、レンズ装置、制御方法、およびプログラム
JP2014235317A (ja) 焦点調節装置、プログラムおよび焦点調節方法
JP2003329924A (ja) 望遠マクロレンズ光学系
JP2021136648A (ja) レンズ装置、撮像装置、処理装置、処理方法、およびプログラム
JP2021173820A (ja) 処理装置、光学装置、撮像装置、処理方法およびプログラム
JP2017054066A (ja) 制御装置および制御方法、光学機器、カメラシステム、プログラム、記憶媒体
JP2013238802A (ja) テレビレンズ装置のカウンターウェイト装置
JP2013122565A (ja) レンズ装置および撮像装置
JP6399851B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2019179183A (ja) レンズ装置および撮像装置
JP2022006612A (ja) 学習装置、撮像装置、レンズ装置、学習方法、プログラム、および製造方法
JP6604372B2 (ja) レンズ鏡筒および撮影装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20220630

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240520