JP2022021869A - 電子機器、撮像装置、電子機器の制御方法およびプログラム - Google Patents

電子機器、撮像装置、電子機器の制御方法およびプログラム Download PDF

Info

Publication number
JP2022021869A
JP2022021869A JP2020125733A JP2020125733A JP2022021869A JP 2022021869 A JP2022021869 A JP 2022021869A JP 2020125733 A JP2020125733 A JP 2020125733A JP 2020125733 A JP2020125733 A JP 2020125733A JP 2022021869 A JP2022021869 A JP 2022021869A
Authority
JP
Japan
Prior art keywords
subject
electronic device
learning
unit
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020125733A
Other languages
English (en)
Inventor
睦 三河
Atsushi Mikawa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020125733A priority Critical patent/JP2022021869A/ja
Priority to US17/365,102 priority patent/US11954935B2/en
Priority to CN202110830217.5A priority patent/CN113973174A/zh
Publication of JP2022021869A publication Critical patent/JP2022021869A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00183Photography assistance, e.g. displaying suggestions to the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Abstract

【課題】特定の機能を実行する際の被写体の検出性能を向上させることを目的とする。【解決手段】電子機器は、画像データから1以上の被写体を検出する検出手段と、検出された1以上の被写体の特徴量の評価を行う評価手段と、評価の結果に基づいて、1以上の被写体のうち特定の機能の実行に関する所定の基準を満たす被写体を特定する特定手段と、特定された被写体が特定の機能の実行条件を満たすと判定した場合、特定の機能を実行する制御を行う制御手段と、を含む。【選択図】図2

Description

本発明は、電子機器、撮像装置、電子機器の制御方法およびプログラムに関する。
例えば、デジタルカメラは、被写体としての人物の笑顔を自動的に検出し、人物の笑顔が検出されたときに自動的に撮影を行う笑顔シャッター機能を有している場合がある。笑顔シャッター機能を使用して撮影が行われるときに、状況によっては、撮影対象の人物の他に、人の顔が印刷されたポスター等も被写体として検出されることがある。このとき、笑顔シャッター機能により、ポスターに印刷された顔をデジタルカメラが検出し、ユーザが意図しない撮影が行われることがある。関連する技術として、特許文献1の技術が提案されている。特許文献1の技術は、撮像画面内の顔の面積と被写体までの距離とに基づいて、検出した顔が主被写体の顔であるか他の被写体の顔であるかを判定し、主被写体または他の被写体を除く被写体に焦点を合わせている。
特開2015-219487号公報
ここで、特許文献1の技術では、笑顔シャッター機能等のような特定の機能を使用した撮影が行われる場合、撮影シーンによっては、撮影対象の被写体が適切に検出されないことがある。例えば、顔抜き等身大パネルのような顔出しパネルの穴に、撮影対象の人物の顔があるような状況で撮影が行われる場合、パネルを基準として人物の顔も平面的になる。このため、特許文献1の技術のように、撮像画面内の顔の面積と被写体までの距離とに基づいて、撮影対象の人物の顔を検出することは難しい。また、撮像装置の撮影範囲に立体的な人物の造形物があるような場合も同様に、特許文献1の技術では、撮影対象の人物の顔と造形物とを区別することが難しい。以上のような場合、笑顔シャッター機能等のような特定の機能を実行する際の被写体の検出精度が低下する。
本発明は、特定の機能を実行する際の被写体の検出性能を向上させることを目的とする。
上記目的を達成するために、本発明の電子機器は、画像データから1以上の被写体を検出する検出手段と、検出された前記1以上の被写体の特徴量の評価を行う評価手段と、前記評価の結果に基づいて、前記1以上の被写体のうち特定の機能の実行に関する所定の基準を満たす被写体を特定する特定手段と、特定された前記被写体が前記特定の機能の実行条件を満たすと判定した場合、前記特定の機能を実行する制御を行う制御手段と、を備えることを特徴とする。
本発明によれば、特定の機能を実行する際の被写体の検出性能を向上させることができる。
システム全体の構成図である。 システムを構成する各装置のハードウェア構成図である。 モデル生成サーバおよびデジタルカメラの機能を示すブロック図である。 学習モデルの入出力を示す図である。 学習データセットの一例を示す図である。 被写体評価モデルの更新についてのシステム全体の動作の流れを示す図である。 デジタルカメラが実行する処理の流れを示すフローチャートである。 UI表示の一例を示す図である。 複数の機能のそれぞれに対応した所定の基準の一例を示す図である。 モデル生成サーバが実行する処理の流れを示すフローチャートである。
以下、本発明の実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は実施形態に記載されている構成によって限定されることはない。
図1は、本実施形態のシステム全体の構成図である。図1に示されるように、デジタルカメラ100とモデル生成サーバ102とがネットワーク101を介して接続されている。デジタルカメラ100は撮像装置である。ただし、本実施形態のデジタルカメラ100は、撮像装置には限定されず、スマートフォンやタブレット端末、パーソナルコンピュータ、PDA等の電子機器であってもよい。モデル生成サーバ102は、被写体を推定する学習モデルを生成するサーバ装置である。モデル生成サーバ102は、クラウドサーバやエッジコンピュータ等であってもよい。モデル生成サーバ102は、単一のコンピュータで実現されてもよいし、複数のコンピュータに機能が分散されて実現されてもよい。モデル生成サーバ102も、例えば、スマートフォンやタブレット端末等により実現されてもよい。
デジタルカメラ100は、被写体の撮影を行い、画像データを取得し、画像データから特徴量を抽出する。デジタルカメラ100は、インターネット等のネットワーク101を介して、画像データまたは画像データと特徴量との両者をモデル生成サーバ102に送信する。モデル生成サーバ102は、被写体を推定する学習モデルを生成し、生成した学習モデルをデジタルカメラ100に送信する。また、デジタルカメラ100は、受信した学習モデルを用いて被写体を検出する。このとき、デジタルカメラ100は、検出された1以上の被写体から、特定の機能を使用した撮影を行う対象とならない被写体を除外する。そして、デジタルカメラ100は、被写体の状態を判定し、笑顔シャッター機能等の特定の機能の実行条件を満たすときに、撮影を実行する。
図2は、システムを構成する各装置のハードウェア構成図である。まず、デジタルカメラ100について説明する。デジタルカメラ100は、撮像系として、バリア210、撮影レンズ211、シャッター212、ND213および撮像部214を含む。バリア210は、撮像系を覆うことにより、バリア210、撮影レンズ211、シャッター212、ND213および撮像部214の汚れや破損等を防ぐための保護部材である。撮影レンズ211は、ズームレンズやフォーカスレンズ等を含むレンズ群である。シャッター212は、絞り機能を有する。ND213は、撮影時に減光するために用いられるフィルタである。撮像部214は、光学像を電気信号(アナログ信号)に変換するCCDやCMOS素子等で構成される撮像素子である。A/D変換器215は、撮像部214が出力したアナログ信号をデジタル信号に変換する。
画像処理部219は、A/D変換器215が出力したデジタル信号やメモリ制御部218から入力されたデータに対して、所定の画素補間、縮小といったリサイズ処理や色変換処理等を行う。また、画像処理部219は、撮像した画像データ(デジタル信号)を用いて所定の演算処理を行う。システム制御部250は、画像処理部219が演算した演算結果に基づいて、露光制御や測距制御等を行う。これにより、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理やAE(自動露出)処理、EF(フラッシュプリ発光)処理が行われる。さらに、画像処理部219は、撮像した画像データを用いて所定の演算処理を行い、演算結果に基づいてTTL方式のAWB(オートホワイトバランス)処理を行う。
A/D変換器215からの出力データは、画像処理部219およびメモリ制御部218を介して、またはメモリ制御部218を介してメモリ220に書き込まれる。メモリ220は、A/D変換器215が変換した画像データや、画像データに関連付けて記録されたメタデータ、表示部217に表示するための画像データを記憶する。メモリ220は、所定枚数の静止画像データや所定時間の動画像データ(音声データを含む)を記憶するために十分な記憶容量を有している。また、メモリ220は、画像表示用のメモリ(ビデオメモリ)を兼ねている。D/A変換器216は、メモリ220に記憶されている画像表示用のデータをアナログ信号に変換して表示部217に供給する。これにより、メモリ220に記憶された表示用の画像データは、D/A変換器216を介して表示部217に表示される。
表示部217は、LCD等の表示器上に、D/A変換器216からのアナログ信号に応じた表示を行う。A/D変換器215がA/D変換して、メモリ220に蓄積されたデジタル信号をD/A変換器216がアナログ変換し、表示部217に逐次転送する。これにより、表示部217は、電子ビューファインダとして機能し、スルー画像表示(ライブビュー表示(LV表示))を行う。不揮発性メモリ228は、電気的に消去および記録可能なメモリである。不揮発性メモリ228としては、EEPROM等が適用される。不揮発性メモリ228には、システム制御部250の動作用の定数やプログラム等が記憶される。不揮発性メモリ228に記憶されるプログラムは、本実施形態の処理を実行するためのコンピュータプログラムである。
システム制御部250は、少なくとも1つのプロセッサまたは回路を有する。システム制御部250は、推論処理を行うためのGPU(グラフィックス・プロセッシング・ユニット)を有していてもよい。システム制御部250は、デジタルカメラ100全体を制御する。システム制御部250は、検出手段、評価手段、特定手段および制御手段に対応する。システムメモリ229には、例えばRAMが用いられる。システムメモリ229には、システム制御部250の動作用の定数や変数、不揮発性メモリ228から読み出したプログラム等が展開される。システム制御部250がシステムメモリ229に展開されたプログラムを実行することで、本実施形態の各処理が実現される。また、システム制御部250は、メモリ220やD/A変換器216、表示部217等を制御することにより表示制御も行う。システムタイマー230は各種制御に用いる時間や、内蔵された時計の時間を計測する。
モード切替スイッチ223やトリガーボタン222、操作部227はシステム制御部250に各種の動作指示を入力するための操作部材である。モード切替スイッチ223は、システム制御部250の動作モードを切り替えるためのモード切替信号を発生する。システム制御部250は、モード切替信号により、動作モードを記録モードや再生モード等のうち何れかに切り替える。トリガーボタン222は、システム制御部250に対して、静止画の撮影の指示や動画の撮影開始または終了の指示を行うためのトリガー(レリーズ)信号を発生する。システム制御部250は、トリガー信号により、撮影処理の一連の動作を開始し、撮影処理の一連の動作を終了させる。撮影処理は、撮像部214や画像処理部219、メモリ制御部218を介してメモリ220に蓄積されたエンコード済み画像データを、記録媒体232に書き込む処理である。
操作部227の各操作部材は、表示部217に表示される種々の機能アイコンを選択操作すること等により、場面ごとに適宜機能が割り当てられ、各種機能ボタンとして作用する。機能ボタンとしては、終了ボタンや戻るボタン、画像送りボタン、ジャンプボタン、絞込みボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部217に表示される。ユーザは、表示部217に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行うことができる。
タッチパネル221は、表示部217に対する接触を検知可能なタッチパネルである。タッチパネル221と表示部217とは一体的に構成することができる。システム制御部250は、タッチパネル221に対する各種の操作を検出できる。タッチパネル221には、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルが適用され得る。外部インターフェース233は、デジタルカメラ100と外部装置とを接続するために設けられる。図2において、インターフェースは「I/F」と表記される。外部インターフェース233は、例えば、コンポジットビデオ入出力やHDMI(登録商標)のような映像入出力端子であってもよいし、USBや赤外線や無線通信のインターフェースであってもよい。外部インターフェース233にマウス等のポインティングデバイスが接続されることで、ポインティングデバイスをタッチパネル221の代わりの入力手段として扱うこともできる。この場合、システム制御部250は、外部インターフェース233に接続されたマウスの入力を受けて表示部217にポインタを表示する。さらに、システム制御部250は、マウスの移動やクリック信号を受けて、タッチパネル221による操作と同等の制御を行う。
電源制御部225は、電池検出回路やDC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成され、電池の装着の有無や電池の種類、電池残量の検出等を行う。また、電源制御部225は、上記の検出の結果やシステム制御部250からの指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体232を含む各部へ供給する。電源部226は、アルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等により実現される電源である。
記録媒体インターフェース231は、メモリカードやハードディスク等の記録媒体232と接続するために設けられる。記録媒体232は、メモリ220に記憶された画像データや画像データに付随するメタデータ等を記録する記録媒体であり、半導体メモリや光ディスク、磁気ディスク等から構成される。記録媒体232に記録されたデータは、記録媒体インターフェース231により読み出されて、メモリ220に転送される。メタデータの記録方式としては、静止画ではExif、動画ではAVCHD規格に準じた方式が適用され得る。通信部234は、外部装置(モデル生成サーバ102等)と、無線または有線ケーブルにより通信を行う。通信部234を介して、映像信号や音声信号等の送受信が行われる。通信部234は、無線LAN(Local Area Network)やインターネットとも接続可能である。通信部234は撮像部214で撮像された画像(スルー画像を含む)や、記録媒体232に記録された画像を送信することができる。また、通信部234は、外部装置から画像データやその他の各種情報を受信することができる。
次に、モデル生成サーバ102について説明する。モデル生成サーバ102は、CPU202、ROM203、RAM204、HDD205、NIC206、入力部207、表示部208およびGPU209を有する。CPU202は、モデル生成サーバ102の全体を制御する。ROM203は、モデル生成サーバ102が実行するプログラムや各種のパラメータを記憶する。RAM204は、ネットワーク101を介して、外部装置から供給されるプログラムやデータを一時的に記憶する。RAM204は、ROM203から読み出されたプログラムやデータを一時的に記憶してもよい。RAM204に読み出されたプログラムをCPU202が実行することで、モデル生成サーバ102の各処理が実現される。
HDD205は、モデル生成サーバ102に内蔵されるハードディスクドライブである。HDD205の代わりに、光ディスクや磁気カード、光カード、ICカード等が用いられてもよい。NIC206は、ネットワーク101等の回線に接続するためのネットワークインターフェースカードである。入力部207は、各種データを入力するポインティングデバイスやキーボード等の入力デバイスを用いたユーザによる操作を受け付ける。表示部208は、モデル生成サーバ102が保持するデータや供給されたデータを表示するための表示装置(例えば、ディスプレイ)との間のインターフェースである。表示部208は、インターフェースではなく表示装置であってもよい。GPU209は、多くの並列処理を行うことが可能であり、高速に演算を行うことができる。GPU209は、表示機能に用いられることが多いが、例えば、ディープラーニングの処理にも好適である。
図3は、モデル生成サーバ102およびデジタルカメラ100の機能を示すブロック図である。デジタルカメラ100は、データ送受信部301、撮像部302、画像処理部303、UI表示部304、データ記憶部305、被写体検出部306、被写体評価部307およびカメラ制御部308を有する。データ送受信部301は、デジタルカメラ100が撮影した画像データや操作部227が受け付けたユーザ指示に関する情報をモデル生成サーバ102に送信する。また、データ送受信部301は、モデル生成サーバ102が送信した各種のデータを受信する。データ送受信部301は、例えば、通信部234に対応する。撮像部302は外界の情報を光情報として取得し、画像データに変換する。撮像部302は、例えば、撮像部214に対応する。
画像処理部303は、撮像部302が変換した画像データに対して画像処理を施し、また画像データに対して付帯情報(メタデータ等)を付与する。画像処理部303は、例えば、画像処理部219に対応する。UI表示部304は、操作部227で使用するユーザインターフェースの表示や各種情報表示等を行う。UI表示部304は、例えば、表示部217およびタッチパネル221に対応する。データ記憶部305は、被写体評価部307が使用する各種の学習モデルのパラメータや撮像部302が撮像した画像データを記憶する。データ記憶部305は、例えば、システムメモリ229やメモリ220、記録媒体232等により実現される。
被写体検出部306は、撮像部302が撮像した画像を後述する被写体検出モデル401に入力して、画像内に含まれる被写体を検出する。被写体評価部307は、被写体検出部306が検出した被写体を含む被写体画像を後述する被写体評価モデル402に入力して、各被写体の評価値を算出する。被写体検出部306および被写体評価部307は、例えば、システム制御部250やデジタルカメラ100に内蔵されているGPU等の専用プロセッサ等により実現される。カメラ制御部308は、本実施形態のデジタルカメラ100の各種の制御を行う。カメラ制御部308は、例えば、システム制御部250に対応する。
次に、モデル生成サーバ102について説明する。モデル生成サーバ102は、データ送受信部311、データ記憶部312、学習用データ生成部313、学習部314およびサーバ制御部315を含む。データ送受信部311は、デジタルカメラ100から画像データを含む各種データや被写体評価部307に適用される学習モデルの再学習要求等を受信する。また、データ送受信部311は、学習モデルのパラメータ等の各種のデータをデジタルカメラ100に送信する。データ送受信部311は、例えば、NIC206に対応する。
データ記憶部312は、学習部314が機械学習を行う際に使用する教師データやデジタルカメラ100から受信した画像データ、画像データの特徴量等を記憶する。データ記憶部312は、例えば、RAM204やHDD205等により実現される。学習用データ生成部313は、デジタルカメラ100から受信した画像データ等の各種データに基づいて、学習部314が機械学習を行うための学習データセットを生成する。生成された学習データセットは、データ記憶部312に記憶される。学習部314は、データ記憶部312に記憶された多くの学習データセットを用いて学習モデルの機械学習を行う。本実施形態では、学習部314は被写体検出モデルおよび被写体評価モデルの2つの学習モデルの機械学習を行う。被写体検出モデルおよび被写体評価モデルについては、既に学習済みの学習モデルが用いられる。この場合、学習部314は、被写体検出モデルおよび被写体評価モデルの機械学習を行う。また、学習部314は、デジタルカメラ100から受信した再学習要求に基づき、被写体評価モデルの再学習を行う。
本実施形態では、学習部314が行う機械学習は、ニューラルネットワークの機械学習(深層学習)であるものとする。ただし、学習部314は、サポートベクターマシンや決定木等の機械学習手法を用いて学習モデルの機械学習を行ってもよい。学習部314による機械学習は、CPU202により行われてもよいし、GPU209により行われてもよいし、CPU202とGPU209との協働動作により行われてもよい。学習モデルの機械学習が実行される際には、演算処理が多くなるため、GPU209が用いられることが好ましい。サーバ制御部315は、本実施形態のモデル生成サーバ102の各種の制御を行う。サーバ制御部315は、例えば、CPU202に対応する。
図4は、学習モデルの入出力を示す図である。本実施形態では、被写体検出モデルと被写体評価モデルとの2つの学習モデルが用いられる。図4の例では、被写体検出モデル401および被写体評価モデル402は、ニューラルネットワークの例を示しているが、ニューラルネットワーク以外の学習モデルであってもよい。
まず、図4(A)の被写体検出モデル401の機械学習について説明する。検出手段としての被写体検出モデル401の機械学習には、画像データと教師データとの学習データセットが用いられる。図5は、学習データセットの一例を示す図であり、図5(A)は、被写体検出モデル401の機械学習が行われる際の学習データセットの一例を示す。図5(A)に示される画像(画像データ)に、教師データとしての正解ラベルが関連付けられている。被写体検出モデル401の機械学習に用いられる画像データは、学習用の全体的な画像(全体画像)である。学習用の画像データは、例えば、デジタルカメラ100が撮像した画像データが用いられてもよいし、予めモデル生成サーバ102が記憶している画像データが用いられてもよい。また、モデル生成サーバ102は、学習用の画像データを、外部装置から取得してもよい。
図5(A)の例では、学習データセットとして6つの学習データセット(Data1~Data6)が示されている。本実施形態では、検出する被写体は人物(例えば、自活している人物)であるものとする。このため、画像データに人物の被写体が含まれている学習データセットの教師データには、正解ラベルとして「1」が設定される。一方、画像データに人物の被写体が含まれていない学習データセットの教師データには、正解ラベルとして「0」が設定される。例えば、画像データに、人が描かれた絵画やポスター、立体像である人型の像等が含まれているものの人物が含まれていない場合、教師データには、正解ラベルとして「0」が設定される。教師データが「0」に対応する画像データは被写体検出の対象にならない画像データであり、教師データが「1」に対応する画像データは被写体検出の対象になる画像データである。
以上の学習データセットを用いて、モデル生成サーバ102の学習部314は、被写体検出モデル401の機械学習を行う。使用される学習データセットの数は任意であってよいが、例えば、数千~数万である。被写体検出モデル401の機械学習が繰り返し行われることにより、被写体検出モデル401からの出力の誤差が小さくなるように、被写体検出モデル401のパラメータが適正に調整される。例えば、学習部314は、上記の誤差が所定値以下となるまで、繰り返し機械学習を行う。
以上の機械学習が行われた被写体検出モデル401に、未知の画像データ(全体画像)が入力されると、被写体検出モデル401は、未知の画像データの推論処理を行う。そして、被写体検出モデル401は、検出した人物の被写体を、被写体検出結果として「0~1」の間の数値で出力する。当該数値は、検出した被写体が人物である確率を示す。被写体検出モデル401は、確率が一定値以上の被写体を検出してもよい。
次に、図4(B)の被写体評価モデル402について説明する。評価手段としての被写体評価モデル402は学習モデルであり、機械学習が行われる。本実施形態では、被写体評価モデル402の機械学習には、図5(B)のような学習データセットが用いられる。図5(B)に示されるように、被写体評価モデル402の機械学習に用いられる学習用の画像データは、全体画像ではなく、被写体領域を含む部分的な被写体画像である。また、教師データとしては、特徴量1~3が用いられる。特徴量1~3は、図5(B)の学習用の画像データの輝度情報や色情報等に基づいて特定することができる。例えば、特徴量1は髪の艶感であり、特徴量2は顔の陰影であり、特徴量3は瞳の光沢感である。特徴量1~3には「0~1」の間の数値が、例えばユーザ等により設定されている。特徴量1~3の数値は、被写体画像の被写体についての各特徴量の尤度を示す。学習データセットの特徴量は、図5(B)の例には限定されない。
モデル生成サーバ102は、図5(B)のような学習データセットを用いて、被写体評価モデル402の機械学習を行う。これにより、被写体評価モデル402のパラメータが適正に調整される。以上のように機械学習が行われた被写体評価モデル402に対して、未知の被写体画像が入力されると、被写体評価モデル402は推論処理を行い、評価値として「0~1」の数値を出力する。評価値は、各特徴量に対応する確率を示す値である。機械学習された被写体評価モデル402に未知の被写体画像が入力されると、被写体評価モデル402は、各特徴量のそれぞれに対応する評価値を出力する。
以上において、被写体検出モデル401および被写体評価モデル402の機械学習に用いられる学習データセットは、ユーザにより設定されてもよいし、学習部314が機械学習を行った結果から得られてもよい。例えば、学習部314が、図5(A)のような学習データセットを用いて被写体検出モデル401の機械学習を行う。そして、学習用データ生成部313が、機械学習された被写体検出モデル401からの出力値に基づいて、図5(B)の各特徴量を解析してもよい。
本実施形態では、被写体検出モデル401および被写体評価モデル402の機械学習は、モデル生成サーバ102の学習部314により行われる。そして、デジタルカメラ100は、モデル生成サーバ102から学習済みの被写体検出モデル401および被写体評価モデル402を取得する。デジタルカメラ100は、取得した学習済みの被写体検出モデル401および被写体評価モデル402をデータ記憶部305に記憶する。デジタルカメラ100の被写体検出部306は、データ記憶部305に記憶された学習済みの被写体検出モデル401を用いて、推論処理を行う。また、被写体評価部307は、データ記憶部305に記憶された学習済みの被写体評価モデル402を用いて、推論処理を行う。被写体評価モデル402は、再学習により学習済みのパラメータが更新される。この点の詳細は後述する。また、デジタルカメラ100とモデル生成サーバ102とは分離した構成でなく、一体の構成であってもよい。
次に、被写体評価モデル402の更新についてのシステム全体の動作について説明する。図6は、被写体評価モデル402の更新についてのシステム全体の動作の流れを示す図である。まず、デジタルカメラ100の電源がONになっている間、被写体検出部306は、撮像部302が撮影している画像データを入力として、被写体検出を行う。被写体評価部307は、検出された被写体を含む被写体画像を入力として、特徴量の評価値を算出し、出力する。システム制御部250は、出力された評価値が所定の基準を満たしているかを判定する。所定の基準は、特定の機能を実行するための基準である。例えば、システム制御部250は、被写体評価部307が出力した評価値が所定の閾値以上であるときに、上記の所定の基準が満たされていると判定してもよい。所定の閾値は、任意の値に設定されてもよい。
本実施形態では、上記の特定の機能は、被写体としての人物が笑顔のときに撮影を行う笑顔シャッター機能であるとする。ただし、特定の機能は、笑顔シャッターには限定されない。システム制御部250は、上記の所定の基準が満たされていると判定した場合、撮像部302が撮像した画像データをデータ記憶部305に記憶する。ここで、図6の1番として、システム制御部250は、UI表示部304を介して、ユーザからの特定の操作を受け付けたかを判定する。特定の操作としては、例えば、検出された被写体を被写体から除外する操作や記憶した画像データを消去する操作、笑顔シャッター機能を無効にする操作等がある。これらの特定の操作は、特定の機能に関する操作である。システム制御部250は、特定の操作を受け付けた場合、データ記憶部305に記憶されている画像データのうち、検出された被写体を含む一定領域の被写体画像および再学習要求をモデル生成サーバ102に送信する制御を行う。これにより、データ送受信部301は、図6の2番として、モデル生成サーバ102に被写体画像および再学習要求を送信する。このとき、データ送受信部301は、さらに評価値をモデル生成サーバ102に送信してもよい。
モデル生成サーバ102の学習用データ生成部313は、図6の3番として、受信した被写体画像から抽出された被写体の特徴量を抽出する。そして、学習用データ生成部313は、抽出した特徴量に正解ラベルとして所定の値を設定する。所定の値は、「0」または「1」である。そして、学習用データ生成部313は、図6の4番として、受信した被写体画像を学習用の画像データとし、抽出された特徴量に設定された正解ラベルを教師データとして、データ記憶部312に既に記憶されている学習データセットに追加する。これにより、新たな学習用の画像データと教師データとが追加された学習データセットが生成される。学習部314は、新たに生成された学習データセットを用いて、被写体評価モデル402の再学習を行う。学習部314は、図6の5番として、新たに生成された学習データセットを用いて、被写体評価モデル402の再学習を行う。学習部314が被写体評価モデル402の再学習を行うことにより、被写体評価モデル402のパラメータが生成される。このとき、学習部314は、最新の学習データセットを用いて被写体検出モデル401の機械学習を行ってもよい。
データ送受信部301は、図6の6番として、再学習された被写体評価モデル402をデジタルカメラ100に送信する。また、データ送受信部301は、機械学習された被写体検出モデル401をデジタルカメラ100に送信してもよい。カメラ制御部308は、図6の7番として、データ記憶部305に記憶されている被写体評価モデル402を、受信した被写体評価モデル402に置換する。これにより、デジタルカメラ100に記憶されている被写体評価モデル402が更新される。
次に、デジタルカメラ100が実行する処理の流れについて説明する。図7は、デジタルカメラ100が実行する処理の流れを示すフローチャートである。S701で、システム制御部250は、モデル生成サーバ102から更新された被写体評価モデル402を受信したかを判定する。システム制御部250は、S701でYESと判定した場合、フローをS702に進める。S702で、システム制御部250は、デジタルカメラ100に記憶されている被写体評価モデル402を、受信した新たな被写体評価モデル402に更新する。このとき、システム制御部250は、ユーザ操作に基づいて、被写体評価モデル402を更新するか否かを制御してもよい。
図8は、UI表示の一例を示す図である。S702の処理を実行する前に、システム制御部250は、図8(A)に示されるUI(ユーザインターフェース)をUI表示部304に表示してもよい。UI表示部304には、更新メッセージ800が表示される。更新メッセージ800は、NOボタン801およびYESボタン802を含む。更新メッセージ800は、被写体評価モデルの更新を示すメッセージであり、この更新の許可をユーザに対して促すメッセージである。NOボタン801が押下された場合には、システム制御部250は、被写体評価モデルの更新を行わず、受信した被写体評価モデルを破棄する。一方、YESボタン802が押下された場合には、システム制御部250は、被写体評価モデルの更新を行う。
図7に示されるように、システム制御部250は、S701でNOと判定した場合、またはS703の処理を実行した後、フローをS703に進める。S703で、システム制御部250は、撮像部302から取得した画像信号を画像処理部303に入力して、画像データとして現像処理を行うことで、画像データを取得する。S704で、システム制御部250は、画像データを被写体検出モデル401に入力し、被写体検出モデル401により被写体が検出されたかを判定する。システム制御部250は、被写体検出モデル401が被写体を検出したと判定した場合、S704でYESと判定し、フローをS705に進める。一方、システム制御部250は、被写体検出部306が被写体を検出していないと判定した場合、S704でNOと判定し、フローをS701に戻す。
S705で、システム制御部250は、特定の機能が有効になっているかを判定する。特定の機能は、上述した特定の機能であり、被写体の状態に依存する機能である。上述したように、特定の機能は、被写体としての人物の表情を解析し、笑顔である場合に撮影を行う笑顔シャッター機能である。システム制御部250は、特定の機能が有効になっていると判定した場合、S705でYESと判定し、フローをS706に進める。一方、システム制御部250は、特定の機能が有効になっていないと判定した場合、S705でNOと判定し、フローをS701に戻す。
S706で、システム制御部250は、検出された被写体の領域を含む被写体画像を被写体評価モデル402に入力して、被写体画像の被写体を評価する。被写体評価モデル402に被写体画像が入力されると、被写体評価モデル402は各特徴量のそれぞれに関する評価値を出力する。
S707で、システム制御部250は、被写体評価部307が出力した評価値が所定の基準を満たすかを判定する。本実施形態では、複数種類の評価値があるものとする。ただし、評価値は1種類であってもよい。評価値は、例えば、図5の特徴量1(髪の艶感)、特徴量2(顔の陰影)および特徴量3(瞳の光沢感)のそれぞれについての評価値である。各評価値は、「0~1」の数値で表される。所定の基準は、各評価値のそれぞれに対応して、所定の閾値として、予め設定されている。システム制御部250は、被写体評価部307が出力した3つの評価値のうち何れか1つまたは複数が、対応する所定の閾値以上である場合、評価値が所定の基準を満たすと判定してもよい。
ここで、被写体検出モデル401は、画像データ(全体画像)から1以上の被写体を検出する。以下、被写体検出モデル401は複数の被写体を検出するものとして説明するが、被写体検出モデル401は1つの被写体を検出してもよい。図9は、複数の機能のそれぞれに対応した所定の基準の一例を示す図である。例えば、特定の機能が笑顔シャッターである場合、被写体は人物である。このため、システム制御部250は、髪の艶感や瞳の光沢感等の評価値が所定の閾値以上であるかに基づいて、評価値が所定の基準を満たすかを判定する。例えば、システム制御部250は、図9の笑顔シャッターに対応する2つの判定パラメータを満たす被写体を、評価値が所定の基準を満たすと判定する。ただし、評価値が所定の基準を満たすかの判定は、図9の例には限定されない。
図7に示されるように、システム制御部250は、被写体の評価値が所定の基準を満たすと判定した場合、S707でYESと判定し、フローをS709に進める。一方、システム制御部250は、評価値が所定の基準を満たさない被写体があると判定した場合、S707でNOと判定し、フローをS708に進める。S708で、システム制御部250は、所定の基準を満たさないと判定した被写体を、特定の機能の実行対象から除外する。システム制御部250がS707およびS708の処理を実行することにより、画像データから検出された1以上の被写体のうち、特定の機能の実行に関する所定の基準を満たす被写体を特定する。
例えば、被写体画像に、実際の人物、人物が描かれたポスターおよび人物の造形物が含まれているとする。この場合、人物が描かれたポスターおよび人物の造形物の2つの被写体は、髪の艶感や瞳の光沢感等の評価値から、評価値が所定の基準を満たさないと判定される可能性が高い。一方、実際の人物の被写体は、髪の艶感や瞳の光沢感等の評価値から、評価値が所定の基準を満たすと判定される可能性が高い。この場合、システム制御部250は、人物が描かれたポスターおよび人物の造形物の2つの被写体を、特定の機能の実行対象から除外する。つまり、システム制御部250は、笑顔シャッター機能等の特定の機能の実行に関する所定の基準を満たす被写体を特定できる。
S709で、システム制御部250は、被写体が特定の機能の実行条件を満たしているかを判定する。システム制御部250がS708を実行した場合には、S709の判定対象の被写体は除外されなかった被写体になる。特定の機能の実行条件は、被写体に依存する機能の実行条件である。例えば、特定の機能が笑顔シャッター機能である場合、システム制御部250は、判定対象の被写体が笑顔であるかを判定する。このとき、システム制御部250は、判定対象の被写体(人物)の目じり付近の曲線や口元の曲線が一定基準を超えている場合に、特定の機能の実行条件を満たしていると判定してもよい。特定の機能が笑顔シャッター機能でない場合、システム制御部250は、他の判定指標に基づいて、S709の判定を行う。特定の機能が笑顔シャッター機能である場合であっても、システム制御部250は、上記の判定指標とは異なる判定指標に基づいて、S709の判定を行ってもよい。
システム制御部250は、S709でNOと判定した場合、特定の機能の実行条件を満たす被写体がないため、フローをS701に戻す。一方、システム制御部250は、S709でYESと判定した場合、特定の機能の実行条件を満たす被写体があるため、フローをS710に進める。S710で、システム制御部250は、撮像部302から取得した画像信号を現像処理して画像データとして、記録媒体232や不揮発性メモリ228等に記憶する。
次に、S711で、システム制御部250は、画像データを記憶した後に、対象とする被写体を変更する操作を受け付けたかを判定する。被写体を変更する操作は、特定の操作であり、例えば、ユーザが、UI表示部304を介して行われる。被写体を変更する操作は、UI表示部304に表示されている被写体を再選択する操作や除外する操作等である。また、被写体を変更する操作は、記憶された画像データを削除する操作や特定の機能を無効にする操作等であってもよい。図8(B)は、UI画面の表示例を示す。図8(B)のUI画面において、画像データを削除するか否かを促すポップアップウィンドウ803が表示されている。ポップアップウィンドウ803はNOボタン804およびYESボタン805を含む。例えば、YESボタン805が押下された場合、表示されている画像データ(選択された画像データ)を削除する。画像データの削除は、例えば、デジタルカメラ100に割り当てられた画像削除機能を示すボタンが押下された場合等に実行されてもよい。
システム制御部250は、S711でYESと判定した場合、フローをS712に進める。一方、システム制御部250は、S711でNOと判定した場合、フローをS713に進める。S712で、システム制御部250は、再学習要求、S706で用いられた被写体画像および被写体評価モデル402が出力した評価値を、モデル生成サーバ102に送信する制御を行う。これにより、再学習要求、被写体画像および評価値がモデル生成サーバ102に送信される。S712で、システム制御部250は、S706で用いられた被写体画像および被写体評価モデル402が出力した評価値を、モデル生成サーバ102に送信する制御を行う。このとき、システム制御部250は、再学習要求を送信しないように制御する。S712およびS713において、評価値は送信されなくてもよい。この場合、モデル生成サーバ102のCPU202は、受信した被写体画像を解析して、評価値を算出する。以上により、デジタルカメラ100の処理は終了する。
次に、モデル生成サーバ102が実行する処理の流れについて説明する。図10は、モデル生成サーバ102が実行する処理の流れを示すフローチャートである。S1001で、CPU202は、デジタルカメラ100から被写体画像等のデータを受信したかを判定する。CPU202は、S1001でNOと判定した場合、フローをS1001に戻し、デジタルカメラ100からデータを受信するまで待機する。一方、CPU202は、S1001でYESと判定した場合、フローをS1002に進める。
S1002で、CPU202は、デジタルカメラ100から受信したデータに再学習要求が含まれているかを判定する。CPU202は、S1002でYESと判定した場合、フローをS1003に進める。一方、CPU202は、S1002でNOと判定した場合、フローをS1006に進める。S1003で、CPU202は、デジタルカメラ100から受信した被写体画像および当該被写体画像に対応する各特徴量に所定の値として「0」を設定して、学習データセットに追加する。上述したように、デジタルカメラ100は、被写体の変更操作がされた場合に、再学習の要求をモデル生成サーバ102に送信する。このため、CPU202は、S1003で、被写体画像に対応する各特徴量を「0」として学習データセットに追加する。つまり、受信した被写体画像の被写体は、特定の機能の実行に関しては不正解になる。以上により、学習データセットが更新される。
S1004で、CPU202は、更新された学習データセットを用いた機械学習を学習部314に実行させる制御を行う。これにより、更新された学習データセットを用いて、被写体評価モデル402の機械学習(再学習)が行われる。このとき、被写体評価モデル402の再学習は、既にHDD205等に記憶されている全ての学習データセットを用いて機械学習を行ってもよい。また、被写体評価モデル402の再学習は、更新された分の学習データセットを用いて機械学習を行って生成されるパラメータを、学習済みのパラメータに反映することにより行われてもよい。
S1005で、CPU202は、再学習された被写体評価モデル402をデジタルカメラ100に送信する制御を行う。これにより、再学習された被写体評価モデル402がデジタルカメラ100に送信される。S1006で、CPU202は、デジタルカメラ100から受信した被写体画像および当該被写体画像に対応する各特徴量に所定の値として「1」を設定して、学習データセットに追加する。CPU202は、再学習の要求を受信していないため、受信した被写体画像に対応する各特徴量を「1」に設定する。以上により、モデル生成サーバ102の処理が終了する。
以上のように、本実施形態では、デジタルカメラ100が特定の機能を実行する際、検出された被写体の特徴量に関する評価値が所定の基準を満たさない被写体は除外される。これにより、笑顔シャッター機能等の特定の機能を使用した撮影を行う際の被写体の検出性能を向上させることができ、被写体を誤認識することを抑制できる。その結果、被写体の誤認識による笑顔シャッター機能等の特定の機能を使用した撮影が行われることを抑制できる。つまり、ユーザが意図しない撮影を抑制することができる。例えば、デジタルカメラ100の撮影範囲に、ポスターに印刷された人物の顔や立体的な人物の造形物が含まれていたとしても、笑顔シャッター機能を使用した撮影の被写体として認識しないため、意図しない撮影を抑制することができる。また、ユーザ操作に基づき、被写体評価モデル402の再学習が行われるため、ユーザの意図に沿った被写体検出ができるとともに、ユーザの操作性も向上する。
上述した実施形態では、被写体の評価に用いられる特徴量としては、髪の艶感、顔の陰影および瞳の光沢感について説明したが、被写体の評価に用いられる特徴量は他の要素であってもよい。例えば、顔の産毛の状態や黒子の有無、血管のライン、手のささくれ、肌の皺、化粧の有無等が、被写体の評価に用いられる特徴量として用いられてもよい。また、時間的に連続して撮影された画像データの差分に基づく被写体の変化(顔の表情変化や四肢の動き等)についての特徴量が被写体の評価に用いられてもよい。さらに、被写体の評価に用いられる特徴量としては、デジタルカメラ100が有する機能から得られる情報や外部インターフェースに接続される外部機器から取得可能な情報から抽出されてもよい。例えば、被写体までの距離情報や、現在地のGPS情報や被写体の温度情報、外気温の情報等が被写体の評価に用いられる特徴量として用いられてもよい。
また、上述した実施形態では、被写体検出部306および被写体評価部307には被写体検出モデル401および被写体評価モデル402が用いられる例を説明したが、被写体検出部306および被写体評価部307には学習モデルが用いられなくてもよい。例えば、被写体検出部306および被写体評価部307は、ルールベースに基づくプログラムをシステム制御部250が実行することにより実現されてもよい。また、被写体検出部306はルールベースに基づく被写体検出を行い、被写体評価部307は被写体評価モデル402を用いた評価を行ってもよい。
また、上述した実施形態では、特定の機能として、笑顔シャッター機能が適用される例について説明したが、それぞれ異なる複数の機能について、共通の被写体評価モデル402を用いることができる。例えば、一定数の被写体が集合した際に撮影を行う集合写真モードや監視カメラシステム等に導入されている被写体を注視して撮影を行う追尾モードといった各機能に、共通の被写体評価モデル402を用いることができる。
以上、本発明の好ましい実施の形態について説明したが、本発明は上述した各実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。本発明は、上述の各実施の形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステム又は装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 デジタルカメラ
102 モデル生成サーバ
202 CPU
214 撮像部
250 システム制御部
306 被写体検出部
307 被写体評価部
314 学習部
401 被写体検出モデル
402 被写体評価モデル

Claims (15)

  1. 画像データから1以上の被写体を検出する検出手段と、
    検出された前記1以上の被写体の特徴量の評価を行う評価手段と、
    前記評価の結果に基づいて、前記1以上の被写体のうち特定の機能の実行に関する所定の基準を満たす被写体を特定する特定手段と、
    特定された前記被写体が前記特定の機能の実行条件を満たすと判定した場合、前記特定の機能を実行する制御を行う制御手段と、
    を備えることを特徴とする電子機器。
  2. 前記特徴量の評価は、学習用の画像データおよび教師データとしての特徴量を含む複数の学習データセットを用いて機械学習された学習モデルにより行われることを特徴とする請求項1に記載の電子機器。
  3. 被写体に関する特定の操作を受け付けた場合、前記学習モデルの再学習を要求することを特徴とする請求項2に記載の電子機器。
  4. 前記特定の操作は、検出された前記1以上の被写体の何れかを除外する操作であることを特徴とする請求項3に記載の電子機器。
  5. 前記特定の操作は、検出された前記被写体を含む画像データを削除する操作であることを特徴とする請求項3に記載の電子機器。
  6. 前記特定の操作は、前記特定の機能を無効にする操作であることを特徴とする請求項3に記載の電子機器。
  7. 前記学習モデルは、前記再学習の要求とともに送信された前記特定の操作に対応する画像データおよび所定の値が設定された特徴量を追加して、前記再学習がされることを特徴とする請求項3乃至6のうち何れか1項に記載の電子機器。
  8. 前記制御手段は、前記再学習がされた学習モデルを受信した場合、受信した当該学習モデルへの更新の許可を促す画面を表示する制御を行うことを特徴とする請求項7に記載の電子機器。
  9. 前記更新の許可がされなった場合、前記再学習がされた学習モデルは破棄されることを特徴とする請求項8に記載の電子機器。
  10. それぞれ異なる複数の前記特定の機能に関する特徴量の評価には、共通の前記学習モデルが用いられることを特徴とする請求項2乃至9のうち何れか1項に記載の電子機器。
  11. 前記被写体の特徴量は、髪の艶感と、顔の陰影と、瞳の光沢感と、顔の産毛の状態と、黒子の有無と、血管のラインと、手のささくれと、肌の皺と、化粧の有無と、GPS情報と、被写体の温度情報と、外気温の情報とのうち何れかまたは組み合わせであることを特徴とする請求項1乃至10のうち何れか1項に記載の電子機器。
  12. 前記被写体の特徴量は、連続した前記画像データの差分に基づく被写体の変化の特徴量であることを特徴とする請求項1乃至10のうち何れか1項に記載の電子機器。
  13. 撮像部と、
    請求項1乃至12のうち何れか1項に記載の電子機器と、
    を備えることを特徴とする撮像装置。
  14. 画像データから1以上の被写体を検出する工程と、
    検出された前記1以上の被写体の特徴量の評価を行う工程と、
    前記評価の結果に基づいて、前記1以上の被写体のうち特定の機能の実行に関する所定の基準を満たす被写体を特定する工程と、
    特定された前記被写体が前記特定の機能の実行条件を満たすと判定した場合、前記特定の機能を実行する制御を行う工程と、
    を備えることを特徴とする電子機器の制御方法。
  15. 請求項1乃至12のうち何れか1項に記載の電子機器の各手段をコンピュータに実行させるためのプログラム。
JP2020125733A 2020-07-22 2020-07-22 電子機器、撮像装置、電子機器の制御方法およびプログラム Pending JP2022021869A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020125733A JP2022021869A (ja) 2020-07-22 2020-07-22 電子機器、撮像装置、電子機器の制御方法およびプログラム
US17/365,102 US11954935B2 (en) 2020-07-22 2021-07-01 Electronic device improved in object detection performance, image capturing apparatus, method of controlling electronic device, and storage medium
CN202110830217.5A CN113973174A (zh) 2020-07-22 2021-07-22 电子装置、摄像设备、电子装置的控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020125733A JP2022021869A (ja) 2020-07-22 2020-07-22 電子機器、撮像装置、電子機器の制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2022021869A true JP2022021869A (ja) 2022-02-03

Family

ID=79586335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020125733A Pending JP2022021869A (ja) 2020-07-22 2020-07-22 電子機器、撮像装置、電子機器の制御方法およびプログラム

Country Status (3)

Country Link
US (1) US11954935B2 (ja)
JP (1) JP2022021869A (ja)
CN (1) CN113973174A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023204083A1 (ja) * 2022-04-18 2023-10-26 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5129683B2 (ja) * 2008-08-05 2013-01-30 キヤノン株式会社 撮像装置及びその制御方法
JP5218353B2 (ja) * 2009-09-14 2013-06-26 ソニー株式会社 情報処理装置、表示方法及びプログラム
JP2015219487A (ja) 2014-05-21 2015-12-07 キヤノン株式会社 撮像装置、及びその制御方法
EP3864618A1 (en) * 2018-10-12 2021-08-18 The Medical College of Wisconsin, Inc. Medical image segmentation using deep learning models trained with random dropout and/or standardized inputs
KR20200131664A (ko) * 2019-05-14 2020-11-24 삼성전자주식회사 차량의 주행을 보조하는 전자 장치 및 방법
US11557208B2 (en) * 2019-10-02 2023-01-17 Samsara Networks Inc. Facial recognition technology for improving motor carrier regulatory compliance
US11419495B2 (en) * 2019-10-30 2022-08-23 Nikon Corporation Image processing method, image processing device, and storage medium
US11276498B2 (en) * 2020-05-21 2022-03-15 Schler Baruch Methods for visual identification of cognitive disorders

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023204083A1 (ja) * 2022-04-18 2023-10-26 キヤノン株式会社 画像処理装置、撮像装置および画像処理方法

Also Published As

Publication number Publication date
CN113973174A (zh) 2022-01-25
US20220027607A1 (en) 2022-01-27
US11954935B2 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
JP5159515B2 (ja) 画像処理装置およびその制御方法
WO2022028184A1 (zh) 一种拍摄控制方法、装置、电子设备及存储介质
JP6132490B2 (ja) 認証装置、認証方法、およびプログラム
CN112954210B (zh) 拍照方法、装置、电子设备及介质
US11165948B2 (en) Imaging apparatus for controlling an imaging function that affects an imaging result
JP7129294B2 (ja) 電子機器および領域選択方法
CN111669495B (zh) 拍照方法、拍照装置和电子设备
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
US20160381281A1 (en) Image capture control apparatus and control method of the same
US8508602B2 (en) Photographing apparatus method, and computer usable medium for photographing an object within a detection area based on a change of the object
US11954935B2 (en) Electronic device improved in object detection performance, image capturing apparatus, method of controlling electronic device, and storage medium
JP2014186580A (ja) 認証装置、撮像装置、認証用データの登録方法、プログラム、および、記憶媒体
WO2023149135A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP7091168B2 (ja) 装置、撮影装置、モデルの学習方法及びプログラム
JP6708516B2 (ja) 電子装置、その制御方法およびプログラム
US11595570B2 (en) Image capture apparatus, information processing apparatus and control method
JP6296941B2 (ja) 記録装置、その制御方法およびプログラム
US20220277537A1 (en) Apparatus, image apparatus, method for apparatus, and storage medium
US11457137B2 (en) Electronic apparatus and control method for electronic apparatus
US20220319148A1 (en) Image processing apparatus and method for controlling the same
WO2022110059A1 (zh) 视频处理、景别识别方法、终端设备和拍摄系统
US20230316542A1 (en) Image processing apparatus, imaging apparatus, control method, and storage medium for performing detection of subject
JP2017192020A (ja) 撮像装置、その制御方法、および制御プログラム
JP6472248B2 (ja) 撮像装置、その制御方法、及びプログラム、並びに記憶媒体
JP2015133625A (ja) 画像再生装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230719