JP7395910B2 - 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7395910B2
JP7395910B2 JP2019176855A JP2019176855A JP7395910B2 JP 7395910 B2 JP7395910 B2 JP 7395910B2 JP 2019176855 A JP2019176855 A JP 2019176855A JP 2019176855 A JP2019176855 A JP 2019176855A JP 7395910 B2 JP7395910 B2 JP 7395910B2
Authority
JP
Japan
Prior art keywords
image data
subject
information processing
learning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019176855A
Other languages
English (en)
Other versions
JP2021057672A (ja
Inventor
貴 辻村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2019176855A priority Critical patent/JP7395910B2/ja
Priority to CN202080065651.2A priority patent/CN114424518A/zh
Priority to EP20745324.2A priority patent/EP4011057A1/en
Priority to PCT/JP2020/027288 priority patent/WO2021059679A1/en
Priority to US17/753,882 priority patent/US20230353872A1/en
Publication of JP2021057672A publication Critical patent/JP2021057672A/ja
Application granted granted Critical
Publication of JP7395910B2 publication Critical patent/JP7395910B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本開示は、情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラムに関する。
デジタルカメラやデジタルビデオカメラ等に代表される電子機器には、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサ等の撮像装置が搭載される。撮像装置は、自動的に焦点調整を行うオートフォーカス(AF)機能を有する。オートフォーカスでは、レンズを駆動させることで、焦点が適切に調整されて、ピントの合った(合焦した)画像を取得することが可能になる。
特開2017-005443号公報
しかしながら、従来のオートフォーカスでは、対象となる被写体によって、必ずしもユーザが望んだ通りの箇所に自動的に焦点調整されるとは限らなかった。この場合、撮影時にユーザが焦点調整のための操作をしなければならず、ユーザは構図やシャッターチャンスに専念して撮影することができなかった。そのため、撮影時にユーザが焦点調整のための操作をしなくても、ユーザが望んだ通りの箇所に自動的に焦点調整されるように、オートフォーカス機能を向上させる技術が求められている。
そこで、本開示では、オートフォーカス機能を向上させることができる情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラムを提案する。
本開示に係る情報処理装置は、画像データを収集する収集部と、収集部で収集された複数の画像データを用い、画像データに含まれる被写体位置を抽出し、画像データと被写体位置との関係について学習処理を行い、画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成する学習部と、学習部で作成された学習済モデルを要求した機器に出力する出力部とを備える。
本開示に係る電子機器は、自動焦点調整用の学習済モデルを記憶する記憶部と、記憶部に記憶された学習済モデルに基づいて自動焦点調整を実施する制御部と、制御部からの制御に応じて被写体の所定の部位に合焦する光学系とを備える。
本開示に係る端末装置は、情報処理装置と通信可能な通信部と、通信部を介して、情報処理装置から自動焦点調整用の学習済モデルを取得する制御部と、情報処理装置から取得した学習済モデルを、学習済モデルに基づいて自動焦点調整を実施する電子機器に提供する提供部とを備える。
本開示に係る情報処理システムは、情報処理装置と、端末装置と、電子機器とを含む。情報処理装置は、画像データを収集し、収集された複数の画像データを用い、画像データに含まれる被写体位置を抽出し、画像データと被写体位置との関係について学習処理を行い、画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、学習済モデルを要求した機器に出力する。端末装置は、情報処理装置から画像データに基づく学習済モデルを取得する。電子機器は、端末装置から学習済モデルを取得し、学習済モデルに基づいて自動焦点調整を実施する。
本開示に係る情報処理システムは、情報処理装置と、電子機器とを含む。情報処理装置は、画像データを収集し、収集された複数の画像データを用い、画像データに含まれる被写体位置を抽出し、画像データと被写体位置との関係について学習処理を行い、画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、学習済モデルを要求した機器に出力する。電子機器は、情報処理装置から自動焦点調整用の学習済モデルを取得し、学習済モデルに基づいて自動焦点調整を実施する。
本開示に係る情報処理方法は、画像データを収集することと、収集された複数の画像データを用いて学習処理を行い、画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成することと、作成された学習済モデルを要求した機器に出力することとを含む。
本開示に係るプログラムは、画像データを収集する処理と、収集された複数の画像データを用い、画像データに含まれる被写体位置を抽出し、画像データと被写体位置との関係について学習処理を行い、画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成する処理と、作成された学習済モデルを要求した機器に出力する処理とをコンピュータに実行させる。
本開示の第1実施形態に係る情報処理システムの構成の一例を示すブロック図である。 本開示の第1実施形態に係る電子機器及び端末装置の構成の一例を示すブロック図である。 本開示の第1実施形態に係る情報処理装置の構成の一例を示すブロック図である。 本開示の第1実施形態に係る学習済モデル導入の手順の一例を示すフローチャートである。 本開示の第1実施形態に係る撮影画像確認の手順の一例を示すフローチャートである。 動物の体の色や模様の度合いとAF検出率との関係について説明するための図である。 画像データ及びその集計状況を公開するWeb画面について説明するための図である。 動物の画像に対してAFポイント(測距点)を指定する事例について説明するための図である。 乗り物の画像に対してAFポイントを指定する事例について説明するための図である。 学習済モデルに基づくオートフォーカスの検出度合いの確認について説明するための図である。 画像データのアップロード前のAFポイント指定の手順の一例を示すフローチャートである。 モデル用ネットワーク学習に用いる画像データの一部を、アノテーション用の一般的なネットワーク学習に流用する事例について説明するための図である。 本開示の第2実施形態に係る情報処理システムの構成の一例を示すブロック図である。 本開示の第2実施形態に係る電子機器の構成の一例を示すブロック図である。
以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
なお、説明は以下の順序で行うものとする。
[1.第1実施形態]
[1-1.第1実施形態に係るシステムの構成]
[1-1-1.第1実施形態に係る電子機器の構成]
[1-1-2.第1実施形態に係る端末装置の構成]
[1-1-3.第1実施形態に係る情報処理装置の構成]
[1-2.第1実施形態に係る学習済モデル導入の手順]
[1-3.第1実施形態に係る撮影画像確認の手順]
[1-4.第1実施形態の変形例(1)]
[1-4-1.画像データのアップロード前のAFポイント指定]
[1-5.第1実施形態の変形例(2)]
[1-5-1.学習の半自動化]
[2.第2実施形態]
[2-1.第2実施形態に係るシステムの構成]
[2-1-1.第2実施形態に係る電子機器の構成]
[2-2.第2実施形態に係る学習済モデル導入の手順]
[3.むすび]
[1.第1実施形態]
[1-1.第1実施形態に係るシステムの構成]
図1は、本開示の第1実施形態に係る情報処理システムの構成の一例を示すブロック図である。図1に示すように、情報処理システム100は、電子機器1と、端末装置20と、情報処理装置30と、を含む。電子機器1及び端末装置20はユーザ側に存在し、情報処理装置30はネットワーク側に存在する。
電子機器1は、静止画、動画を含む画像を撮影する機能を有する機器である。電子機器1は、例えば、デジタルカメラ、デジタルビデオカメラ、Webカメラ、撮像機能付きのスマートフォン、タブレット端末又は携帯型ゲーム機等である。電子機器1は、監視カメラや車載用カメラ、医療用のカメラ等でもよい。電子機器1は、オートフォーカス(AF:自動焦点調整)機能を有し、撮影の際に被写体に自動的にピントを合わせる(合焦する)。電子機器1は、USB(Universal Serial Bus)やSD(Secure Digital)メモリカードを介して、あるいは有線通信、無線通信により、端末装置20との間で各種データのやり取りを行う。本実施形態の電子機器1は、端末装置20からオートフォーカス用の学習済モデルMDを受け取る。電子機器1は、端末装置20に画像データを提供する。
端末装置20は、例えば、デスクトップパソコン(PC)やノートパソコン、スマートフォン、タブレット端末、デジタルテレビや映像録画再生機等のAV機器、又は家庭用ゲーム機(据置型ゲーム機)等のコンピュータである。端末装置20は、演算処理機能、記憶機能、出力機能、通信機能等を備える。端末装置20は、ネットワークNWを介して情報処理装置30との間で各種データの送受信を行う。本実施形態では、端末装置20は、情報処理装置30から学習済モデルMDをダウンロードする。また、端末装置20は、ダウンロードした学習済モデルMDを電子機器1に出力する。また、端末装置20は、情報処理装置30に画像データを出力する。
情報処理装置30は、例えば、PCサーバやGPU(Graphics Processing Unit)サーバ等のサーバ、あるいはメインフレーム又はワークステーション等である。また、情報処理装置30は、分散コンピューティングやクラウドコンピューティングを実現する複数台のサーバのうちの一台でもよい。情報処理装置30は、電子機器1及び端末装置20よりも高性能である。情報処理装置30は、ネットワークNW経由で電子機器1及び端末装置20に各種サービスを提供する。本実施形態では、情報処理装置30は、ネットワークNW経由でアクセス可能な状態で学習済モデルMDをWeb上に公開し、当該学習済モデルMDを要求した機器に出力する。また、情報処理装置30は、ネットワークNW経由で各種画像データを収集することもできる。
[1-1-1.第1実施形態に係る電子機器の構成]
図2は、本開示の第1実施形態に係る電子機器及び端末装置の構成の一例を示すブロック図である。図2に示すように、電子機器1は、光学系2と、制御部3と、撮像素子4と、画像処理部5と、メモリ6と、記憶部7と、表示部8と、I/F部9と、入力デバイス10と、を備える。
光学系2は、1枚又は複数枚のレンズの組み合わせによる主レンズと、主レンズを駆動するための機構と、を含み、被写体OBJからの像光(入射光)を、主レンズを介して撮像素子4の受光面上に結像させる。また、光学系2は、制御信号に従いフォーカスを調整するオートフォーカス機構や、制御信号に従いズーム率を変更するズーム機構を備える。また、電子機器1は、光学系2を着脱可能とし、他の光学系2と交換できるようにしてもよい。
撮像素子4は、例えば格子状の配列で配置される複数の光電変換素子を含む。光電変換素子は、受光した光を光電変換にて電荷に変換する。撮像素子4は、この複数の光電変換素子を駆動する駆動回路と、複数の光電変換素子それぞれから電荷を読み出し、読み出した電荷に基づきRAWデータ(未加工の画像データ)を生成する信号処理回路と、を含む。
画像処理部5は、例えば画像処理エンジン等であって、撮像素子4から出力されたRAWデータに対して所定の画像処理を実行する。例えば、画像処理部5は、RAM(Random Access Memory)等のメモリ6が接続され、撮像素子4から出力されたRAWデータをメモリ6に書き込む。また、画像処理部5は、メモリ6に書き込まれたRAWデータに対して所定の画像処理を実行し、画像処理により生成された画像データをメモリ6に書き込む。また、電子機器1ではなく端末装置20がRAWデータに対して所定の画像処理を実行する場合には、画像処理部5は、I/F部9を介して端末装置20にRAWデータを提供してもよい。
記憶部7は、例えばフラッシュメモリ(Flash Memory)等の不揮発性メモリであって、画像処理部5から出力されたRAWデータや画像データを永続的に記憶する。表示部8は、例えばLCD(Liquid Crystal Display)やOELD(Organic Electro-Luminescence Display)等を用いた表示デバイスと、当該表示デバイスを駆動する駆動回路と、を含み、画像処理部5から出力された画像データに基づく画像を表示することができる。I/F部9は、端末装置20との間で各種データをやり取りするためのインタフェースである。I/F部9としては、例えばUSBポートやSDメモリカードスロット等を適用することができる。また、I/F部9は、有線通信又は無線通信により通信可能なインタフェースであってもよい。例えば、I/F部9は、近距離無線通信規格に対応したインタフェースであってもよい。
入力デバイス10は、ユーザ入力を受け付けるための操作子等を含む。電子機器1が例えばデジタルカメラ、デジタルビデオカメラ、撮像機能付きの携帯電話やスマートフォン、タブレット端末、携帯型ゲーム機等であれば、入力デバイス10は、撮像素子4による撮像を指示するためのシャッタボタン、あるいは、シャッタボタンの機能を実現するための操作子を含むことができる。
制御部3は、例えばCPU(Central Processing Unit)等のプロセッサであって、ROM(Read Only Memory)に予め記憶されたプログラムに従い、キャッシュメモリ又はRAMをワークメモリとして用いて、この電子機器1の全体の動作を制御する。なお、制御部3は、一部又は全部がSoC(System-on-a-chip)、ASIC(Application Specific Integrated Circuit)又は(Field Programmable Gate Array)等のハードウェアで構成されてもよい。例えば、制御部3は、入力デバイス10に受け付けられたユーザ入力に応じて、電子機器1の動作を制御することができる。また、制御部3は、記憶部7に記憶されたRAWデータや画像データを、I/F部9を介して端末装置20に提供することができる。また、制御部3は、I/F部9を介して端末装置20から提供された学習済モデルMDを記憶部7に記憶し、記憶部7に記憶された学習済モデルMDに基づいて光学系2のオートフォーカス機構を制御することができる。
[1-1-2.第1実施形態に係る端末装置の構成]
図2に示すように、端末装置20は、I/F部21と、AS制御部22と、AS記憶部23と、通信部24と、入力部25と、表示部26と、を備える。
I/F部21は、電子機器1のI/F部9との間で各種データをやり取りするためのインタフェースである。すなわち、I/F部21は、I/F部9に対応するインタフェースである。I/F部21の例については、I/F部9と同様である。
AS制御部22は、例えばCPU等のプロセッサであって、AS記憶部23に予め記憶されたプログラムに従い、キャッシュメモリ又はRAMをワークメモリとして用いて、この端末装置20の全体の動作を制御する。また、AS制御部22は、情報処理装置30と画像データのやり取りを行うための専用アプリケーションソフトウェアASを実行し、情報処理装置30にアップロードする画像データの登録を行う。さらに、AS制御部22は、情報処理装置30から学習済モデルMDをダウンロードする。
AS記憶部23は、例えばSSD(Solid State Drive)やHDD(Hard Disk Drive)等のストレージ装置、又はフラッシュメモリ等の不揮発性メモリであって、AS制御部22で実行される専用アプリケーションソフトウェアASや、情報処理装置30にアップロードする画像データ等を記憶する。AS記憶部23は、端末装置に内蔵されていてもよいし、外付けの記憶装置であってもよい。また、AS記憶部23は、光ディスク等の記憶媒体(メディア)と、その駆動装置(ドライブ)との組合せであってもよい。例えば、専用アプリケーションソフトウェアASは、光ディスク等の記憶媒体に記憶されていてもよい。
通信部24は、有線通信又は無線通信によりネットワークNWに接続可能なインタフェースである。通信部24としては、例えばNIC(Network Interface Card)等のネットワークアダプタやアンテナ等を適用することができる。
入力部25は、例えばキーボードやマウス、キーパッド、その他のボタン等の入力装置であって、ユーザの入力操作に応じた信号をAS制御部22に出力する。また、入力部25は、表示部26に表示されたソフトウェアキーや、表示部26と連携したタッチパネルであってもよい。表示部26は、例えばGPU等の画像処理プロセッサと、LCDやOELD等の表示装置と、を含み、AS制御部22からの出力信号に応じて、画像等を表示する。
[1-1-3.第1実施形態に係る情報処理装置の構成]
図3は、本開示の第1実施形態に係る情報処理装置の構成の一例を示すブロック図である。図3に示すように、情報処理装置30は、通信部31と、制御部32と、記憶部33と、を備える。
通信部31は、有線通信又は無線通信によりネットワークNWに接続可能なインタフェースである。通信部31は、ネットワークNWを介して、端末装置20の通信部24との間で各種データを送受信する。通信部31の例については、通信部24と同様である。
制御部32は、例えばCPUやGPU等のプロセッサを含み、記憶部33に予め記憶されたプログラムに従い、キャッシュメモリ又はRAMをワークメモリとして用いて、情報処理装置30の全体の動作を制御する。また、制御部32は、オートフォーカスの精度を向上させるための学習処理を実行する。
制御部32は、収集部321と、付与部322と、学習部323と、評価部324と、出力部325と、を含む。収集部321は、通信部31を介して、ネットワークNW経由で端末装置20やその他の情報源から画像データを収集する。付与部322は、収集部321で収集した画像データの妥当性をチェックし、アノテーション(注釈)を付与する。学習部323は、収集部321で収集した画像データを基に、電子機器1のオートフォーカスの精度を向上させるための学習処理を行い、その学習結果として学習済モデルMDを生成する。学習部323は、GPUを用いて実現されてもよい。GPUは単純な計算を並列で計算できるため、特にディープラーニングではCPUよりもGPUのほうが適している。評価部324は、学習部323で生成された学習済モデルMDを評価する。出力部325は、ネットワークNWを介してダウンロード可能に学習済モデルMDを出力する。出力部325は、各部で演算した結果、例えば、収集部321で収集した画像データの蓄積データ、画像データも出力する。
記憶部33は、例えばSSDやHDD等の記のストレージ装置であって、ネットワークNW経由で収集した画像データや、制御部32で実行される各種プログラム、制御部32での処理の結果として生成された各種データ等を記憶する。記憶部33は、専用のファイルサーバとして情報処理装置30から独立していてもよい。記憶部33は、画像記憶部331と、AFポイント記憶部332と、モデル記憶部333と、を含む。画像記憶部331は、収集部321で収集した画像データを記憶する。モデル記憶部333は、学習部323で生成された学習済モデルMDを記憶する。
[1-2.第1実施形態に係る学習済モデル導入の手順]
次に、図4を用いて、本開示の第1実施形態に係る学習済モデル導入の手順の一例について説明する。図4は、本開示の第1実施形態に係る学習済モデル導入の手順の一例を示すフローチャートである。なお、図4では、端末装置20で実行される処理と、情報処理装置30で実行される処理を1つの処理として説明するが、情報処理装置30で実行する処理は、端末装置20の処理とは別で実行してもよい。具体的には、図4のステップS103からステップS111の処理を独立して実行してもよい。
ユーザは、端末装置20上で専用アプリケーションソフトウェアASを起動する(ステップS101)。このとき、AS制御部22は、入力部25からの信号に応じて、AS記憶部23に記憶された専用アプリケーションソフトウェアASを読み出して実行し、表示部26に専用のアプリケーション画面のウィンドウ(window)を表示する。
ユーザは、入力部25を用いて、表示部26に表示された専用のアプリケーション画面上で操作を行い、電子機器1のオートフォーカスにおいて認識して欲しい被写体OBJの画像データを学習用画像データGDとして登録する(ステップS102)。被写体OBJの画像データは、事前にAS記憶部23に記憶された画像データでもよいし、I/F部21又は通信部24を介して取得した画像データでもよい。このとき、AS制御部22は、入力部25からの信号に応じて、通信部24を介して学習用画像データGDを情報処理装置30にアップロードする。なお、AS制御部22は、AS記憶部23に用意されたアップロード用のフォルダに学習用画像データGDを格納するようにしてもよい。例えば、AS制御部22は、専用アプリケーションソフトウェアASの機能により、アップロード用のフォルダに格納された学習用画像データGDを、周期的に情報処理装置30にアップロードするようにしてもよい。
次に、画像データがアップロードされた情報処理装置30での処理について、説明する。情報処理装置30は、専用アプリケーションソフトウェアASを導入している端末装置20からアップロードされた学習用画像データGDを収集する(ステップS103)。なお、情報処理装置30は、クローリング等により、専用アプリケーションソフトウェアASを導入している複数の端末装置20を巡回して、AS記憶部23に用意されたアップロード用のフォルダに格納されている学習用画像データGDを収集するようにしてもよい。このとき、収集部321は、通信部31を介してネットワークNW経由で端末装置20から学習用画像データGDを受信して、画像記憶部331に記憶する。さらに、収集部321は、通信部31を介して、ネットワークNW上に公開された画像データを学習用画像データGDとして収集して、画像記憶部331に記憶してもよい。また、収集部321は、光ディスク等の記憶媒体に記憶された画像データを学習用画像データGDとして収集してもよい。
収集部321は、端末装置20からアップロードされた学習用画像データGDを、自動的にカテゴリや種別毎に振り分ける。出力部325は、Web上で学習用画像データGD及びその集計状況の公開可能なデータを作成する(ステップS104)。ステップS104のデータの作成は、画像の収集ごとに行ってもよいが、公開情報へのアクセスが行われた場合に実行してもよい。ユーザは、図7に示すように、表示部26に表示された専用のアプリケーション画面上の公開画面261で、情報処理装置30に収集された学習用画像データGD及びその集計状況を確認することができる。このとき、ユーザは、自身ではなく他のユーザによりアップロードされた学習用画像データGDを確認することもできる。また、ユーザは、自身がアップロードした学習用画像データGDを非公開に設定することもできる。非公開に設定された学習用画像データGDは、他のユーザには公開されないが、公開された学習用画像データGDと共に学習処理には使用される。
次に、収集部321は、収集した画像データのAFポイントを指定する(ステップS105)。収集部321は、ユーザが画像データに対して指定したAFポイントの情報を読み出す。情報処理装置30は、画像データに対して画像解析を行い、AFポイントを指定してもよい。また、情報処理装置30は、ユーザが登録していない画像、つまりデータベースに記憶済みの画像データに対してAFポイントの情報を登録してもよい。以下、画像データにAFポイントを指定する処理の一例を説明する。ユーザは、入力部25を用いて、表示部26に表示された専用のアプリケーション画面上で操作を行い、情報処理装置30に収集された学習用画像データGDに対して、ピントを合わせることを所望する位置をAFポイントP(測距点)として指定する。このとき、AS制御部22は、表示部26に表示された専用のアプリケーション画面上に、登録された学習用画像データGDを表示し、入力部25からの信号に応じて、その学習用画像データGDの上に表示されたAFポイントPを移動させることで指定する。例えば、AS制御部22は、図7に示すような公開画面261に公開された学習用画像データGDの中から所望の学習用画像データGDが選択されたときに、AFポイント指定画面262にその学習用画像データGDとAFポイントPとを表示する。
本実施形態では、図8及び図9に示すように、ユーザは、1枚の学習用画像データGDに対し、優先順位を決めて複数のAFポイントPを指定することができる。指定できるAFポイントPの数は任意である。本実施形態では、ユーザは、第1優先のAFポイントP1、第2優先のAFポイントP2、第3優先のAFポイントP3の順に、最大3つのAFポイントPを指定する。図8では動物(犬)の学習用画像データGD_D1を例示し、図9では乗り物(レーシングカー)の学習用画像データGD_C1を例示する。例えば、図8の(例1)に示すように、アップロードされた動物(犬)の学習用画像データGD_D1に対し、Web上で複数のAFポイントPを予め表示して、表示されたAFポイントPをユーザが移動させることで指定する。AFポイントPをいくつ表示させるかは、ユーザが指定できるようにしてもよい。あるいは、図8の(例2)に示すように、動物(犬)の学習用画像データGD_D1に対応する動物(犬)のイラスト画像データGD_D2に対し、Web上で複数のAFポイントPを予め表示するようにしてもよい。また、図9の(例1)及び(例2)に示すように、これらのAFポイントPの位置及び優先順位は、ユーザが任意に変更可能である。
制御部32は、学習用画像データGDに対して指定されたAFポイントPを示すAFポイントデータPDを、学習用画像データGDと関連付ける(ステップS106)。制御部32は、関連付けたデータをAFポイント記憶部332に記憶する。例えば、AFポイントデータPDは、AFポイントPの識別名、優先順位、フォーカス位置やオフセット等のパラメータに関する情報を含む。AFポイントデータPDは、学習用画像データGDの識別情報と共に、データベース内のテーブルを構成するレコードの中に記憶されていてもよい。
付与部322は、学習用画像データGDとAFポイントデータPDと分類等の妥当性をチェックし、画像データにしてアノテーションを付与する(ステップS107)。付与部322は、通信部31を介して、外部からアノテーションの付与に関する指示を受けてもよい。アノテーションとしては、画像の分類を示す情報、AFポイントデータPDに対応着いた情報等が含まれる。
収集部321は、学習用画像データGDについてカテゴリや種別毎に所定の枚数が集まったか確認する(ステップS108)。所定の枚数は、特に限定はないが、例えば1万枚が例示される。また、少数の画像データで学習済みプログラムを作成できる場合は、所定枚数を数枚としてもよい。収集部321は、所定の枚数が集まっていない場合(ステップS108でNo)、学習用画像データGDの収集を継続する(ステップS103に戻る)。つまり、情報処理装置30は、対象の分類について、所定枚枚数の画像データが集まるまで、学習済みプログラムを作成しない。
収集部321は、学習用画像データGDについてカテゴリや種別毎に所定の枚数が集まった場合(ステップS108でYes)、これらの学習用画像データGDとそのAFポイントデータPDを学習用のデータセットとして、学習部323に学習処理の開始を指示する(ステップS109に移行)。
学習部323は、これらの学習用画像データGDと、それぞれの学習用画像データGDに関連付けられたAFポイントデータPDとを基に学習処理を実施し、その学習処理の結果として学習済モデルMDを作成する(ステップS109)。例えば、学習部323は、AFポイントPの検出アルゴリズムを検討し、学習済モデルMDとして検出コードやパラメータを生成する。このように、学習部323は、AFポイントPが指定された学習用画像データGDを用いて学習処理を行う。また、学習部323は、カテゴリや種別毎に学習済モデルMDをそれぞれ作成する。このとき、学習部323は、カテゴリや種別毎に、ユーザ毎の学習済モデルMDと、全ユーザに共通の学習済モデルMDとをそれぞれ作成するようにしてもよい。ユーザ毎の学習済モデルMDは、そのユーザが指定したAFポイントPを優先的に検出する学習済モデルMDとする。全ユーザに共通の学習済モデルMDは、各ユーザが指定したAFポイントPの最大公約数的なAFポイントPを検出する学習済モデルMDとする。例えば、全ユーザに共通の学習済モデルMDは、最も多くのユーザが指定したAFポイントPを検出する学習済モデルMDとしてもよい。作成された学習済モデルMDは、モデル記憶部333に記憶される。
評価部324は、モデル記憶部333に記憶された学習済モデルMDの評価処理を行う(ステップS110)。例えば、評価部324は、学習済モデルMDに学習用画像データGDを入力して、その学習済モデルMDから結果を出力として受け取る。評価部324は、評価処理の結果、NGと判断された場合には(ステップS110でNo)、再度、学習部323に学習処理の開始を指示し、改めて学習済モデルMDを作成する(ステップS109に戻る)。一方、評価部324は、評価処理の結果、OKと判断された場合(ステップS110でYes)には、出力部325にその学習済モデルMDの公開を指示する(ステップS111に移行)。
出力部325は、その学習済モデルMDを、専用アプリケーションソフトウェアASを導入している端末装置20からのみアクセス可能な状態でネットワークNW上に公開し、当該学習済モデルMDを要求した機器に出力する(ステップS111)。このとき、出力部325は、学習済モデルMDにアクセス制限を付与し、専用アプリケーションソフトウェアASを導入している端末装置20からのアクセス、又は専用アプリケーションソフトウェアASを介してのアクセスに対してのみ、アクセスを許可するようにして、通信部31を介してネットワークNW上に学習済モデルMDを公開し、当該学習済モデルMDを要求した機器に出力する。例えば、出力部325は、専用アプリケーションソフトウェアASを実行することで表示されるアプリケーション画面上にのみ、学習済モデルMDが選択可能な状態で表示されるようにしてもよい。
ユーザは、入力部25を用いて、表示部26に表示された専用のアプリケーション画面上で操作を行い、学習済モデルMDを選択してダウンロードし、ダウンロードした学習済モデルMDに基づくオートフォーカスの検出度合い(精度)を確認する(ステップS112)。このとき、AS制御部22は、入力部25からの信号に応じて、通信部24を介して学習済モデルMDを取得してAS記憶部23に記憶する。そして、AS制御部22は、入力部25からの信号に応じて、表示部26に表示された専用のアプリケーション画面上で、AS記憶部23に記憶した学習済モデルMDに学習用画像データGDを入力して、図10に示すように、その学習済モデルMDからの結果を表示する。なお、AS制御部22は、表示部26に表示された専用のアプリケーション画面上で、AS記憶部23に記憶した学習済モデルMDに基づいて、電子機器1のオートフォーカスのエミュレーション(emulation)を実行するようにしてもよい。
なお、実際には、学習済モデルMDをダウンロードする前に、端末装置20側ではなく、情報処理装置30側で学習済モデルMDに基づくオートフォーカスの検出度合いを確認するようにしてもよい。この場合、制御部32は、通信部31を介してネットワークNW経由でユーザにより選択された学習済モデルMDに学習用画像データGDを入力して、その学習済モデルMDからの結果を端末装置20に出力する。AS制御部22は、情報処理装置30から出力された学習済モデルMDの結果を、表示部26に表示された専用のアプリケーション画面上に表示する。
ユーザは、学習済モデルMDに基づくオートフォーカスの検出度合いを確認した結果、NGと判断した場合(ステップS112でNo)には、当該学習済モデルMDを採用しない。このとき、AS制御部22は、AS記憶部23に記憶した学習済モデルMDを削除してもよい。一方、ユーザは、学習済モデルMDに基づくオートフォーカスの検出度合いを確認した結果、OKと判断した場合(ステップS112でYes)には、当該学習済モデルMDを採用する(ステップS113に移行)。
ユーザは、電子機器1に学習済モデルMDを導入する(ステップS113)。このとき、AS制御部22は、入力部25からの信号に応じて、AS記憶部23に記憶した学習済モデルMDを、I/F部21を介して電子機器1に書き出す。制御部3は、I/F部9を介して学習済モデルMDを取得して記憶部7に記憶し、オートフォーカスに使用するように設定する。既に同じカテゴリや種別の学習済モデルMDが設定されている場合には、その学習済モデルMDを更新する。ここで、一連の処理を終了する。
電子機器1は、情報処理装置30が保有する全て(全カテゴリ/全種別)の学習済モデルMDを一度に更新する必要はなく、ユーザの選択に基づいて、必要なモードに対応する学習済みプログラムMDを取得すればよい。これにより、ユーザは、自身が撮影することが想定される被写体の学習済モデルMDのみを選択的に電子機器1に導入することができる。
[1-3.第1実施形態に係る撮影画像確認の手順]
次に、図5を用いて、本開示の第1実施形態に係る撮影画像確認の手順の一例について説明する。図5は、本開示の第1実施形態に係る撮影画像確認の手順の一例を示すフローチャートである。
ユーザは、学習済モデルMDを導入した電子機器1を用いて被写体OBJを撮影する(ステップS201)。電子機器1は、新たに書き込まれた学習済モデルMDに基づいて、オートフォーカスを実施し、被写体OBJの所定の位置にピントを合わせる。このとき、制御部3は、入力デバイス10からの信号に応じて、記憶部7に記憶された学習済モデルMDに基づき、光学系2のオートフォーカス機構を制御するための制御信号を出力し、フォーカスを調整する。その後、電子機器1は、被写体OBJを撮像し、画像データ(RAWデータでも可)を生成する。
ユーザは、電子機器1で撮影した被写体OBJの画像データのうち、意図した箇所(部位)にピントが合わなかった画像データ(非合焦画像データ)の有無を確認する(ステップS202)。非合焦画像データがない場合には(ステップS202でNo)、そのまま処理を終了する。
ユーザは、非合焦画像データがある場合には(ステップS202でYes)、その非合焦画像データを、新たな学習用画像データGDとして登録する(図4のステップS101に移行)。すなわち、ユーザは、入力部25を用いて、端末装置20上で専用アプリケーションソフトウェアASを起動し(図4のステップS101に相当)、表示部26に表示された専用のアプリケーション画面上で操作を行い、新たな学習用画像データGDを登録する(図4のステップS102に相当)。このとき、AS制御部22は、入力部25からの信号に応じて、AS記憶部23に記憶された専用アプリケーションソフトウェアASを読み出して実行し、表示部26に専用のアプリケーション画面のウィンドウを表示し、I/F部21又は通信部24を介して学習用画像データGDを取得してAS記憶部23に記憶する。その後、図4のステップS103の処理に移行する。
図4に示す学習済モデル導入の手順と図5に示す撮影画像確認の手順とを繰り返すことで、累積的に学習済モデルMDの精度が向上するため、オートフォーカスの精度を向上させることができる。
[1-4.第1実施形態の変形例(1)]
[1-4-1.画像データのアップロード前のAFポイント指定]
上記の説明では、図4のステップS105において、情報処理装置30上で学習用画像データGDに対してAFポイントPを指定するようにしているが、更に、図4のステップS102において、学習用画像データGDのアップロード前に、端末装置20上で学習用画像データGDに対してAFポイントPを指定するようにしてもよい。
図11を用いて、第1実施形態の変形例(1)に係る図4のステップS102の処理の一例について説明する。図11は、図4のステップS102の処理の一例を示すフローチャートである。
ユーザは、入力部25を用いて、表示部26に表示された専用のアプリケーション画面上で操作を行い、電子機器1のオートフォーカスにおいて認識して欲しい被写体OBJの画像データを学習用画像データGDとして登録する(ステップS102A)。被写体OBJの画像データは、事前にAS記憶部23に記憶された画像データでもよいし、I/F部21又は通信部24を介して取得した画像データでもよい。
ユーザは、入力部25を用いて、表示部26に表示された専用のアプリケーション画面上で操作を行い、登録された学習用画像データGDに対して、ピントを合わせることを所望する位置をAFポイントPとして指定する(ステップS102B)。このとき、AS制御部22は、表示部26に表示された専用のアプリケーション画面上に、登録された学習用画像データGDを表示し、入力部25からの信号に応じて、その学習用画像データGDの上に表示されたAFポイントPを移動させることで指定する。AFポイントPの表示及び指定については、図8及び図9に示す通りである。
AS制御部22は、学習用画像データGDに対して指定されたAFポイントPを示すAFポイントデータPDを、学習用画像データGDと関連付けてAS記憶部23に記憶する(ステップS102C)。AFポイントデータPDについては、上述した通りである。なお、AFポイントデータPDは、メタデータ(metadata)として学習用画像データGDに組み込まれていてもよい。
AS制御部22は、入力部25からの信号に応じて、通信部24を介して学習用画像データGDを、それに関連付けられたAFポイントデータPDと共に情報処理装置30にアップロードする(ステップS102D)。
この場合、図4のステップS103において、情報処理装置30は、専用アプリケーションソフトウェアASを導入している端末装置20からアップロードされた学習用画像データGD及びAFポイントデータPDを収集する。このとき、収集部321は、通信部31を介してネットワークNW経由で端末装置20から受信した学習用画像データGDを画像記憶部331に記憶し、それに関連付けられたAFポイントデータPDをAFポイント記憶部332に記憶する。
これにより、学習用画像データGDのアップロード前と、アップロード後との2段階でAFポイント指定ができる。ユーザは、アップロード前には、自身が保有する学習用画像データGDに対してAFポイントPを指定し、アップロード後には、自身がアップロードした学習用画像データGDのAFポイントPを修正したり、他のユーザがアップロードした学習用画像データGDに対してAFポイントPを指定したりすることができる。
また、1人のユーザが、情報処理装置30に集計状況と共に公開された学習用画像データGDの全てに目を通してAFポイントPを指定するのは多大な労力を伴うことが予想される。そのため、アップロード前にユーザ自身が保有する学習用画像データGDに対してAFポイントPを指定してもらうことで、ユーザ側の負担を軽減することができる。これにより、公開された学習用画像データGDの各々について、少なくともアップロードしたユーザからのAFポイント指定が実施されている状態にすることができる。各ユーザは、その学習用画像データGDをアップロードしたユーザが指定したAFポイントPに不服がなければ、それを承認することで、自身が指定したAFポイントPとすることができる。
[1-5.第1実施形態の変形例(2)]
[1-5-1.学習の半自動化]
情報処理装置30は、付与部322でのアノテーション付与と、学習部323での学習処理とを、並列に行うようにしてもよい。例えば、図12に示すように、ユーザから集めた学習用画像データGDは、学習済モデルMDを作成するため、ユーザの学習済モデル作成用のネットワーク学習に使われるが、これらの学習用画像データGDの一部(又は全部)を流用して自動アノテーションの一般的なネットワーク学習にも用いることにより、アノテーションの自動化を図る。ネットワーク学習とは、ニューラルネットワークを利用した機械学習のことであり、ディープニューラルネットワークを利用したディープラーニングも含まれる。一般的なネットワーク学習は、複数の手法を並行して実施してもよい。なお、自動アノテーションで未検出の場合には、手動でアノテーションを行う。これにより、学習の半自動化ができるようになる。
[2.第2実施形態]
[2-1.第2実施形態に係るシステムの構成]
図13は、本開示の第2実施形態に係る情報処理システムの構成の一例を示すブロック図である。図13に示すように、情報処理システム100は、電子機器1と、情報処理装置30と、を含む。電子機器1はユーザ側に存在し、情報処理装置30はネットワーク側に存在する。
本開示の第2実施形態では、本開示の第1実施形態における端末装置20に相当する構成を、例えばアプリケーションプロセッサのような形で電子機器1の内部に設ける。すなわち、電子機器1が、端末装置20の機能も有する。本実施形態では、電子機器1として、撮像機能付きのスマートフォンやタブレット端末等、又は通信機能を有するデジタルカメラやデジタルビデオカメラ等のハイエンド機種を想定している。情報処理装置30については、第1実施形態と同様である。すなわち、本開示の第2実施形態に係る電子機器1と、本開示の第1実施形態に係る端末装置20とは、ネットワークNW経由で同じ情報処理装置30に接続可能である。したがって、本開示の第1実施形態と第2実施形態とは同時に実施可能である。
[2-1-1.第2実施形態に係る電子機器の構成]
図14は、本開示の第2実施形態に係る電子機器の構成の一例を示すブロック図である。図14に示すように、電子機器1は、光学系2と、制御部3と、撮像素子4と、画像処理部5と、メモリ6と、記憶部7と、表示部8と、入力デバイス10と、通信部11と、を備える。
光学系2、制御部3、撮像素子4、画像処理部5、メモリ6、記憶部7、表示部8、及び入力デバイス10の動作については、基本的に第1実施形態と同様である。さらに、本実施形態では、制御部3が第1実施形態におけるAS制御部22に相当し、記憶部7が第1実施形態におけるAS記憶部23に相当する。すなわち、制御部3が専用アプリケーションソフトウェアASを実行し、記憶部7が専用アプリケーションソフトウェアASを記憶する。また、表示部8が第1実施形態における表示部26に相当し、入力デバイス10が第1実施形態における入力部25に相当する。通信部11は、第1実施形態における通信部24に相当する。すなわち、通信部11は、有線通信又は無線通信によりネットワークNWに接続可能なインタフェースである。
[2-2.第2実施形態に係る学習済モデル導入の手順]
次に、第1実施形態と同様に、図4を用いて、第2実施形態に係る学習済モデル導入の手順の一例について説明する。本実施形態では、電子機器1の内部に端末装置20の機能を組み込んだ形であるため、電子機器1自体が端末装置20の役割も果たすという点で動作の主体は変わるが、基本的な処理の手順は同じである。
図4のステップS101では、ユーザは、電子機器1上で専用アプリケーションソフトウェアASを起動する。このとき、制御部3は、入力デバイス10からの信号に応じて、記憶部7に記憶された専用アプリケーションソフトウェアASを読み出して実行し、表示部8に専用のアプリケーション画面のウィンドウを表示する。
図4のステップS102では、ユーザは、入力デバイス10を用いて、表示部8に表示された専用のアプリケーション画面上で操作を行い、電子機器1のオートフォーカスにおいて認識して欲しい被写体OBJの画像データを学習用画像データGDとして登録する。このとき、制御部3は、入力デバイス10からの信号に応じて、通信部11を介して学習用画像データGDを情報処理装置30にアップロードする。
図4のステップS103では、情報処理装置30は、専用アプリケーションソフトウェアASを導入している電子機器1からアップロードされた学習用画像データGDを収集する。このとき、収集部321は、通信部31を介してネットワークNW経由で電子機器1から学習用画像データGDを受信して、画像記憶部331に記憶する。
図4のステップS104では、収集部321は、電子機器1からアップロードされた学習用画像データGDを、自動的にカテゴリや種別毎に振り分け、Web上で学習用画像データGD及びその集計状況を公開する(ステップS104)。
図4のステップS105では、ユーザは、入力デバイス10を用いて、表示部8に表示された専用のアプリケーション画面上で操作を行い、情報処理装置30に収集された学習用画像データGDに対して、ピントを合わせることを所望する位置をAFポイントPとして指定する。このとき、制御部3は、表示部8に表示された専用のアプリケーション画面上に、登録された学習用画像データGDを表示し、入力デバイス10からの信号に応じて、その学習用画像データGDの上に表示されたAFポイントPを移動させることで指定する。
図4のステップS108では、制御部32は、学習用画像データGDに対して指定されたAFポイントPを示すAFポイントデータPDを、学習用画像データGDと関連付けてAFポイント記憶部332に記憶する。
図4のステップS109では、付与部322は、学習用画像データGDとAFポイントデータPDとの妥当性をチェックし、アノテーションを付与する。
図4のステップS110では、収集部321は、学習用画像データGDについてカテゴリや種別毎に所定の枚数(例えば1万枚)が集まったか確認する。収集部321は、所定の枚数が集まっていない場合には(ステップS110でNo)、学習用画像データGDの収集を継続する(ステップS103に戻る)。一方、収集部321は、学習用画像データGDについてカテゴリや種別毎に所定の枚数が集まった場合には(ステップS110でYes)、これらの学習用画像データGDとそのAFポイントデータPDを学習用のデータセットとして、学習部323に学習処理の開始を指示する(ステップS109に移行)。
図4のステップS109では、学習部323は、これらの学習用画像データGDと、それぞれの学習用画像データGDに関連付けられたAFポイントデータPDとを基に学習処理を実施し、その学習処理の結果として学習済モデルMDを作成する。
図4のステップS110では、評価部324は、モデル記憶部333に記憶された学習済モデルMDの評価処理を行う。評価部324は、評価処理の結果、NGと判断された場合には(ステップS110でNo)、再度、学習部323に学習処理の開始を指示し、改めて学習済モデルMDを作成する(ステップS109に戻る)。一方、評価部324は、評価処理の結果、OKと判断された場合(ステップS110でYes)には、出力部325にその学習済モデルMDの公開を指示する(ステップS111に移行)。
図4のステップS111では、出力部325は、その学習済モデルMDを、専用アプリケーションソフトウェアASを導入している電子機器1からのみアクセス可能な状態でネットワークNW上に公開し、当該学習済モデルMDを要求した機器に出力する。
図4のステップS112では、ユーザは、入力デバイス10を用いて、表示部8に表示された専用のアプリケーション画面上で操作を行い、学習済モデルMDを選択してダウンロードし、ダウンロードした学習済モデルMDに基づくオートフォーカスの検出度合いを確認する。このとき、制御部3は、入力デバイス10からの信号に応じて、通信部11を介して学習済モデルMDを取得して記憶部7に記憶し、表示部8に表示された専用のアプリケーション画面上で、記憶部7に記憶した学習済モデルMDに学習用画像データGDを入力して、その学習済モデルMDからの結果を表示する。
ユーザは、学習済モデルMDに基づくオートフォーカスの検出度合いを確認した結果、NGと判断した場合(ステップS112でNo)には、当該学習済モデルMDを採用しない。このとき、制御部3は、記憶部7に記憶した学習済モデルMDを削除してもよい。一方、ユーザは、学習済モデルMDに基づくオートフォーカスの検出度合いを確認した結果、OKと判断した場合(ステップS112でYes)には、当該学習済モデルMDを採用する(ステップS113に移行)。
図4のステップS113では、ユーザは、電子機器1に学習済モデルMDを導入する。このとき、制御部3は、入力デバイス10からの信号に応じて、記憶部7に記憶した学習済モデルMDを、オートフォーカスに使用するように設定する。ここで、一連の処理を終了する。
本実施形態においても、情報処理装置30が保有する全て(全カテゴリ/全種別)の学習済モデルMDを一度に電子機器1に導入するのは、電子機器1の記憶容量を考慮すると現実的ではない。しかし、本実施形態では、電子機器1が直接、情報処理装置30から学習済モデルMDをダウンロードできるため、ユーザは、事前に想定していなかった被写体と遭遇した際にも、その場で(リアルタイムで)情報処理装置30からその被写体の学習済モデルMDをダウンロードして電子機器1に導入することができる。また、その被写体のカテゴリや種別が不明な場合にも、その被写体を撮影してその画像データを学習用画像データGDとして情報処理装置30にアップロードすることで、集計状況の公開画面にてその被写体のカテゴリや種別を知ることができる。
[3.むすび]
以上説明したように、本開示の各実施形態によれば、オートフォーカス機能が向上し、ユーザの要望に副った特定の被写体が検出できるようになる。そして、その被写体に対しユーザが意図した箇所(部位)に自動的に合焦できるようになる。その結果、ユーザは構図やシャッターチャンスに専念して撮影できるようになる。
電子機器1は、オートフォーカス機能により、被写体が人や動物等の生物である場合には、狙った被写体を認識して、その瞳にピントを合わせる。しかし、被写体が特に動物、鳥、魚、昆虫等の場合には、被写体の種類が膨大であり、その体の形状や模様、色彩等のバリエーションが無数にあるので、1台の電子機器1が全ての種類を学習して、全ての種類に対してその瞳に合焦する性能を維持することは困難である。
また、図6に示すように、犬、猫などのペットの場合、体の色(漆黒等)や模様の度合いによって検出率が低下する。例えば、無地明瞭な被写体のグループAであれば、その被写体の瞳の検出率は80%程度である。しかし、漆黒の被写体のグループBは、瞳と模様との区別が困難で、その被写体の瞳の検出率は50%程度にまで落ち込む。また、模様が雑多な猫の場合には、非検出の割合がさらに増える可能性がある。したがって、オートフォーカスにおいてペットが非検出の場合、個々のユーザでは適切な学習処理を行うことができない。
また、被写体が植物や、乗り物や建築物等の人工物である場合には、狙った被写体を認識して、予め設定した箇所(部位)でピントを合わせる。例えば、被写体が車の場合には、ヘッドライト等でピントを合わせる。しかし、この場合にも、上記の動物等の場合と同様に、形や色などのバリエーションが豊富なため、1台の電子機器1が全ての種類を学習して、合焦する箇所を設定し、全ての種類に対してその設定箇所に合焦する性能を維持することが困難である。
また、電子機器1の性能は年々向上しているが、一般的に使用されている電子機器1は未だ処理能力等の点で情報処理装置30の性能には及ばない。さらに、電子機器1の記憶容量は、情報処理装置30と比べて少ないため、1台の電子機器1が一度に保有できる画像データの数には限界がある。そのため、1台の電子機器1が保有している画像データを基にオートフォーカスの精度を向上させるための学習処理を行ったとしても、ユーザが満足するだけの十分な学習結果を得ることはできない。
本実施形態は、電子機器1よりも高性能で、かつ、電子機器1よりも多数の画像データを保有して処理できる情報処理装置30上でオートフォーカスの精度を向上させるための学習処理を行う。そして、その学習結果である学習済モデルMDを電子機器1にフィードバックすることで、本来、電子機器1単体では得られない高精度な学習済モデルMDを電子機器1に導入し、オートフォーカスの精度を向上させることを可能にする。
例えば、情報処理装置30は、多数の画像データを収集し、収集した画像データの数が所定の数に達した段階で、これらの画像データを基に電子機器1のオートフォーカスの精度を向上させるための学習処理を行い、その学習結果として生成された学習済モデルMDを、ネットワークNW経由で端末装置20に提供する。電子機器1のユーザは、端末装置20を用いて、端末装置20又は情報処理装置30上で学習済モデルMDに基づくオートフォーカスの動作確認を行い、その動作確認の結果としてオートフォーカスの精度が向上していると判断した場合、端末装置20経由でその学習済モデルMDを電子機器1に導入する。電子機器1は、導入された学習済モデルMDを基にオートフォーカスを実施する。
情報処理装置30は、端末装置20に提供した専用のアプリケーションソフトウェアを介して、ネットワークNW経由で、不特定多数の端末装置20から画像データを収集することができる。なお、情報処理装置30が学習処理に使用する画像データは、端末装置20から収集した画像データに限らない。情報処理装置30は、例えば、ネットワークNW上に公開されている自由に利用可能な画像データや、一般に市販されている画像データ等を基に、オートフォーカスの精度を向上させるための学習処理を行ってもよい。
情報処理装置30が実施する学習処理としては、ディープニューラルネットワーク(DNN)を利用したディープラーニング(深層学習)等の機械学習を適用することができる。また、他の学習方法やアルゴリズム等を適用することもできる。
上記各実施形態によれば、提供済みの検出器では十分に検出できなかった被写体に対する検出の精度が向上し、その被写体を十分に検出できるようになる(検出改善)。また、上記各実施形態によれば、検出器が未提供で非検出の被写体に対する検出機能を提供できるようになり、その被写体を検出できるようになる(新被写体検出)。例えば、ワイルドライフ撮影において、野生動物や野鳥、その他の野生生物などの瞳に合焦することができるようになる。メニュー等で新たに被写体となる動物を選択して使用する。
また、上記各実施形態によれば、検出できた被写体の中から、特定の被写体を見分けられるようになる(被写体識別)。例えば、運動会等のイベント撮影などで、自分の子供を優先させて、その瞳に合焦することができるようになる。身近な人やペット等が被写体の場合には、日常的に撮影した際に登録し、普段から最優先に設定しておく。
また、上記各実施形態によれば、検出した被写体(特に生物以外の被写体)に対し、AFポイントが指定できるようになる(AFポイント指定)。例えば、モータースポーツ撮影において、又は電車や飛行機の撮影において、ユーザが狙った被写体で意図する箇所に合焦することができるようになる。メニュー等で被写体となる乗り物とAFポイントを選択して使用する。
また、上記各実施形態によれば、学習に用いられる画像データが蓄積し増大していくことで継続して改善させることができるため、オートフォーカス機能を累積的に向上させることができる(累積的向上)。さらに、上記各実施形態によれば、身近な人やペット等について、ユーザが定期的に撮影し画像データを更新することで、被写体の経年変化(成長)にも対応可能である(経年変化対応)。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、本技術は以下のような構成も取ることができる。
(1)
画像データを収集する収集部と、
前記収集部で収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成する学習部と、
前記学習部で作成された前記学習済モデルを要求した機器に出力する出力部と
を備える情報処理装置。
(2)
前記収集部は、収集した前記画像データを被写体の区分毎に自動的に振り分けて蓄積し、
前記学習部は、前記被写体の区分毎に、前記収集部により収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始する、(1)に記載の情報処理装置。
(3)
前記収集部は、前記被写体の区分毎に、収集した前記画像データ及びその集計状況を公開する、(2)に記載の情報処理装置。
(4)
前記学習処理に用いられる前記画像データには、測距点が指定されている、(1)に記載の情報処理装置。
(5)
前記測距点は、複数指定可能であり、優先順位が決められている、(4)に記載の情報処理装置。
(6)
複数指定された前記測距点の優先順位は、変更可能である、(5)に記載の情報処理装置。
(7)
前記収集部は、前記測距点が指定された前記画像データを収集する、(4)に記載の情報処理装置。
(8)
前記学習部での前記学習処理に用いられる前記画像データを利用して、前記画像データに自動的に注釈を付与する付与部を更に備える、(1)に記載の情報処理装置。
(9)
自動焦点調整用の学習済モデルを記憶する記憶部と、
前記記憶部に記憶された前記学習済モデルに基づいて自動焦点調整を実施する制御部と、
前記制御部からの制御に応じて被写体の所定の部位に合焦する光学系と
を備える電子機器。
(10)
情報処理装置と通信可能な通信部と、
前記通信部を介して、前記情報処理装置から自動焦点調整用の学習済モデルを取得する制御部と、
前記情報処理装置から取得した前記学習済モデルを、前記学習済モデルに基づいて自動焦点調整を実施する電子機器に提供する提供部と
を備える端末装置。
(11)
前記制御部は、前記通信部を介して、前記情報処理装置に画像データを登録し、前記情報処理装置から前記画像データに基づく前記学習済モデルを取得する、(10)に記載の端末装置。
(12)
前記画像データを表示する表示部と、
ユーザの入力操作に応じた信号を前記制御部に出力する入力部と
を更に備え、
前記制御部は、前記入力部からの信号に応じて、前記表示部に表示された前記画像データに対して測距点を指定する、(11)に記載の端末装置。
(13)
前記表示部は、前記情報処理装置が公開した前記画像データを表示し、
前記制御部は、前記入力部からの信号に応じて、前記情報処理装置が公開した前記画像データに対して前記測距点を指定する、(12)に記載の端末装置。
(14)
前記表示部は、前記情報処理装置に登録前の前記画像データを表示し、
前記制御部は、前記入力部からの信号に応じて、前記情報処理装置に登録前の前記画像データに対して前記測距点を指定し、前記通信部を介して前記情報処理装置に、前記測距点が指定された前記画像データを登録する、(12)に記載の端末装置。
(15)
画像データを収集し、収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、前記学習済モデルを要求した機器に出力する情報処理装置と、
前記情報処理装置から前記学習済モデルを取得する端末装置と、
前記端末装置から前記学習済モデルを取得し、前記学習済モデルに基づいて自動焦点調整を実施する電子機器と
を含む情報処理システム。
(16)
画像データを収集し、収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、前記学習済モデルを要求した機器に出力する情報処理装置と、
前記情報処理装置から前記学習済モデルを取得し、前記学習済モデルに基づいて自動焦点調整を実施する電子機器と
を含む情報処理システム。
(17)
画像データを収集することと、
収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成することと、
作成された前記学習済モデルを要求した機器に出力することと
を含む情報処理方法。
(18)
画像データを収集する処理と、
収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成する処理と、
作成された前記学習済モデルを要求した機器に出力する処理と
をコンピュータに実行させるプログラム。
1 電子機器
2 光学系
3 制御部
7 記憶部
9 I/F部
20 端末装置
21 I/F部
22 AS制御部
23 AS記憶部
24 通信部
25 入力部
26 表示部
30 情報処理装置
31 通信部
32 制御部
321 収集部
322 付与部
323 学習部
324 評価部
325 出力部
33 記憶部
331 画像記憶部
332 AFポイント記憶部
333 モデル記憶部
100 情報処理システム

Claims (10)

  1. 画像データを収集する収集部と、
    前記収集部で収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成する学習部と、
    前記学習部で作成された前記学習済モデルを要求した機器に出力する出力部と
    を備え
    前記収集部は、前記収集された前記画像データを前記被写体の区分毎に自動的に振り分けて蓄積し、
    前記学習部は、前記被写体の区分毎に、前記収集部により収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始し、
    前記学習処理に用いられる前記画像データには、前記学習部に入力される前に測距点が指定されている、
    情報処理装置。
  2. 前記出力部は、前記被写体の区分毎に、収集した前記画像データ及びその集計状況を出力する、請求項に記載の情報処理装置。
  3. 前記測距点は、複数指定可能であり、優先順位が決められている、請求項に記載の情報処理装置。
  4. 複数指定された前記測距点の優先順位は、変更可能である、請求項に記載の情報処理装置。
  5. 前記収集部は、前記測距点が指定された前記画像データを収集する、請求項に記載の情報処理装置。
  6. 前記学習部での前記学習処理に用いられる前記画像データを利用して、前記画像データに自動的に注釈を付与する付与部を更に備える、請求項1に記載の情報処理装置。
  7. 画像データを収集し、収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、前記学習済モデルを要求した機器に出力する情報処理装置と、
    前記情報処理装置から前記学習済モデルを取得する端末装置と、
    前記端末装置から前記学習済モデルを取得し、前記学習済モデルに基づいて自動焦点調整を実施する電子機器と
    を含み、
    前記収集された前記画像データは、前記被写体の区分毎に自動的に振り分けて蓄積され、
    前記学習処理は、前記被写体の区分毎に、前記収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始し、
    前記学習処理に用いられる前記画像データには、前記学習処理が行われる前に測距点が指定されている、
    情報処理システム。
  8. 画像データを収集し、収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成し、前記学習済モデルを要求した機器に出力する情報処理装置と、
    前記情報処理装置から前記学習済モデルを取得し、前記学習済モデルに基づいて自動焦点調整を実施する電子機器と
    を含み、
    前記収集された前記画像データは、前記被写体の区分毎に自動的に振り分けて蓄積され、
    前記学習処理は、前記被写体の区分毎に、前記収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始し、
    前記学習処理に用いられる前記画像データには、前記学習処理が行われる前に測距点が指定されている、
    情報処理システム。
  9. 画像データを収集することと、
    収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する自動焦点調整用の学習済モデルを作成することと、
    作成された前記学習済モデルを要求した機器に出力することと
    を含み、
    前記収集することは、前記収集された前記画像データを前記被写体の区分毎に自動的に振り分けて蓄積し、
    前記学習処理は、前記被写体の区分毎に、前記収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始し、
    前記学習処理に用いられる前記画像データには、前記学習処理が行われる前に測距点が指定されている、
    情報処理方法。
  10. 画像データを収集する処理と、
    収集された複数の前記画像データを用い、前記画像データに含まれる被写体位置を抽出し、前記画像データと前記被写体位置との関係について学習処理を行い、前記画像データから被写体を特定して焦点位置を特定する電子機器の自動焦点調整用の学習済モデルを作成する処理と、
    作成された前記学習済モデルを要求した機器に出力する処理とを含み、
    前記収集された前記複数の前記画像データは前記被写体の区分毎に自動的に振り分けて蓄積され、
    前記学習処理は、前記被写体の区分毎に、前記収集された前記画像データが所定の数に達した時に、前記被写体に対する前記学習処理を開始し、
    前記学習処理に用いられる前記画像データには、前記学習処理が行われる前に測距点が指定されている、
    をコンピュータに実行させるプログラム。
JP2019176855A 2019-09-27 2019-09-27 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム Active JP7395910B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2019176855A JP7395910B2 (ja) 2019-09-27 2019-09-27 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム
CN202080065651.2A CN114424518A (zh) 2019-09-27 2020-07-13 信息处理装置、电子设备、终端装置、信息处理系统、信息处理方法和程序
EP20745324.2A EP4011057A1 (en) 2019-09-27 2020-07-13 Information processing apparatus, electronic device, terminal apparatus, information processing system, information processing method, and program
PCT/JP2020/027288 WO2021059679A1 (en) 2019-09-27 2020-07-13 Information processing apparatus, electronic device, terminal apparatus, information processing system, information processing method, and program
US17/753,882 US20230353872A1 (en) 2019-09-27 2020-07-13 Information processing apparatus, electronic device, terminal apparatus, information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019176855A JP7395910B2 (ja) 2019-09-27 2019-09-27 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021057672A JP2021057672A (ja) 2021-04-08
JP7395910B2 true JP7395910B2 (ja) 2023-12-12

Family

ID=71784600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019176855A Active JP7395910B2 (ja) 2019-09-27 2019-09-27 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20230353872A1 (ja)
EP (1) EP4011057A1 (ja)
JP (1) JP7395910B2 (ja)
CN (1) CN114424518A (ja)
WO (1) WO2021059679A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024060470A1 (zh) * 2022-09-22 2024-03-28 范孝徐 数据分析系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169853A1 (en) 2011-12-29 2013-07-04 Verizon Corporate Services Group Inc. Method and system for establishing autofocus based on priority
WO2020104521A2 (de) 2018-11-20 2020-05-28 Leica Microsystems Cms Gmbh Lernender autofokus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2761391B2 (ja) * 1988-10-04 1998-06-04 オリンパス光学工業株式会社 焦点検出装置
US20120044354A1 (en) * 2010-08-22 2012-02-23 Fred Cheng Versatile dual mode wireless camera hotspot device
WO2012099175A1 (ja) * 2011-01-18 2012-07-26 富士フイルム株式会社 オートフォーカスシステム
US9202281B2 (en) * 2012-03-17 2015-12-01 Sony Corporation Integrated interactive segmentation with spatial constraint for digital image analysis
JP6682770B2 (ja) 2015-06-09 2020-04-15 ソニー株式会社 撮像装置、及び撮像方法
CN107734507A (zh) * 2016-08-12 2018-02-23 索尼公司 无线场景识别装置和方法以及无线通信设备和系统
CN109698901B (zh) * 2017-10-23 2020-07-10 广东顺德工业设计研究院(广东顺德创新设计研究院) 自动对焦方法、装置、存储介质和计算机设备
US10440276B2 (en) * 2017-11-02 2019-10-08 Adobe Inc. Generating image previews based on capture information
CN109963072B (zh) * 2017-12-26 2021-03-02 Oppo广东移动通信有限公司 对焦方法、装置、存储介质及电子设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169853A1 (en) 2011-12-29 2013-07-04 Verizon Corporate Services Group Inc. Method and system for establishing autofocus based on priority
WO2020104521A2 (de) 2018-11-20 2020-05-28 Leica Microsystems Cms Gmbh Lernender autofokus

Also Published As

Publication number Publication date
CN114424518A (zh) 2022-04-29
JP2021057672A (ja) 2021-04-08
US20230353872A1 (en) 2023-11-02
EP4011057A1 (en) 2022-06-15
WO2021059679A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
CN101421730B (zh) 基于相机用户输入的图像价值指数
JP4577173B2 (ja) 情報処理装置および方法、並びにプログラム
CN102148935B (zh) 构图判定设备、构图判定方法
JP5364573B2 (ja) 不完全なデータからの評価指標
US20120321131A1 (en) Image-related handling support system, information processing apparatus, and image-related handling support method
CN110659581B (zh) 一种图像处理方法、装置、设备和存储介质
JP7064346B2 (ja) 撮像装置、情報端末、撮像装置の制御方法、および情報端末の制御方法
CN102158650A (zh) 图像处理设备和图像处理方法
US20200184354A1 (en) Profile data camera adjustment
US10798293B2 (en) Image pickup apparatus and image pickup method
JP2012050012A (ja) 画像撮影システム、画像撮影システムの制御方法、撮影装置、撮影装置の制御方法、およびプログラム
JP5096863B2 (ja) 検索装置
JP7395910B2 (ja) 情報処理装置、電子機器、端末装置、情報処理システム、情報処理方法及びプログラム
CN110581950B (zh) 相机、选择相机设置的系统和方法
JP2006101156A (ja) 情報処理装置及び情報処理プログラム
JP5262308B2 (ja) 評価装置、評価方法、評価プログラムおよび評価システム
JP2019191933A (ja) 学習装置、撮像装置、画像処理装置、および学習方法
JP5523122B2 (ja) 画像管理装置、方法及びプログラム
JP7166951B2 (ja) 学習依頼装置、学習装置、推論モデル利用装置、推論モデル利用方法、推論モデル利用プログラム及び撮像装置
JP7166837B2 (ja) 教師データ作成装置、教師データ作成方法、教師データ作成プログラム、学習装置及び撮像装置
JP7200030B2 (ja) 学習装置、撮像装置、学習システム、ai情報提供装置、学習方法及び学習プログラム
JP2006252025A (ja) 画像管理装置、画像管理方法、および画像管理プログラム
JP2014182651A (ja) 画像共有装置、画像共有装置の制御方法、およびプログラム
JP7154844B2 (ja) 撮影装置、情報処理装置、情報処理方法及び情報処理システム
JP2007288409A (ja) 画像データ分類機能を備えた撮像装置およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R151 Written notification of patent or utility model registration

Ref document number: 7395910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151