JP2023182685A - 処理装置、処理方法、及び処理プログラム - Google Patents

処理装置、処理方法、及び処理プログラム Download PDF

Info

Publication number
JP2023182685A
JP2023182685A JP2023168892A JP2023168892A JP2023182685A JP 2023182685 A JP2023182685 A JP 2023182685A JP 2023168892 A JP2023168892 A JP 2023168892A JP 2023168892 A JP2023168892 A JP 2023168892A JP 2023182685 A JP2023182685 A JP 2023182685A
Authority
JP
Japan
Prior art keywords
detection process
area
detection
processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023168892A
Other languages
English (en)
Inventor
優馬 小宮
Yuma KOMIYA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2023182685A publication Critical patent/JP2023182685A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B3/00Focusing arrangements of general interest for cameras, projectors or printers
    • G03B3/10Power-operated focusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】画像データに含まれる特定被写体の検出頻度を向上させて、検出した特定被写体に応じた処理を高頻度で行う処理装置、方法及びプログラムを提供する。【解決手段】処理装置(デジタルカメラ100)において、システム制御部(11)のプロセッサは、撮像素子(5)から取得した画像データから検出対象物の第一エリアを検出する被写体検出処理と、撮像素子(5)から取得した画像データから、第一エリアに基づいた第二エリアを検出する追尾処理と、被写体検出処理にて検出された第一エリアを利用した第一処理と、追尾処理にて検出された第二エリアを利用した第二処理と、を行い、更に、被写体検出処理を続けて行い、第一タイミングで開始された被写体検出処理によって第一エリアが検出されてから、第一タイミングの次に開始される被写体検出処理によって第一エリアが検出されるまでの各期間に追尾処理を行う。【選択図】図1

Description

本発明は、処理装置、処理方法、及び処理プログラムに関する。
特許文献1には、解像度変換処理が施された画像データを用いて、被写体追尾動作を開始する初期フレームにおいて、その画像データに基づく画像に含まれる被写体を検出する被写体検出部と、初期フレームにおいて被写体検出部により生成された被写体画像データと、解像度変換処理が施された画像データとを用いて、テンプレートマッチング処理を実行することで、初期フレームに続くフレームから被写体を検出する被写体追尾部と、を備える撮像装置が記載されている。
特許文献2には、入力画像が平坦か否かに応じて異なるトラッキング方法で追尾対象の被写体を検出する画像処理装置が記載されている。
特許文献3には、メモリに記憶された被写体の画像データを複数の領域に分割する画像分割部と、分割された複数の領域が有する各々の特徴情報に基づいて、撮像部により逐次生成される画像フレームから各領域に対応する対応領域を夫々特定する領域特定部と、特定された対応領域に基づいて、画像フレームにおけるその対応領域を有する画像領域を追跡対象として追跡する被写体追跡部とを備える撮像装置が記載されている。
特許文献4には、繰り返し得られる複数の画像から特定の対象に相当するパターンを繰り返し検出することにより対象を追尾し、対象の色と輝度との少なくとも一方を基準情報とし、この基準情報に基づいて複数の画像から対象の像を繰り返し検出することにより対象の像を追尾し、対象の追尾を開始した後、対象の追尾が不可能となった場合に、対象の像の追尾に変更して制御する画像追尾装置が記載されている。
特許文献5には、撮像光学系により形成された被写体の光学像を光電変換することで順次生成される複数の画像のそれぞれにおいて上記被写体に対応する画像領域を検出する検出手段と、上記画像領域に基づいて、上記被写体に対する上記撮像光学系の合焦状態を維持するようにフォーカス追尾制御を行う制御手段とを有し、上記制御手段は、上記画像領域において上記被写体が第1の被写体からその第1の被写体とは異なる第2の被写体に変化することに応じて、上記第1の被写体に対する上記フォーカス追尾制御から上記第2の被写体に対する上記フォーカス追尾制御に移行し、上記第2の被写体に対する上記フォーカス追尾制御を、上記撮像光学系の上記第1の被写体に対するデフォーカス状態が所定の条件を満たす場合に限って行うことを特徴とする光学機器が記載されている。
日本国特開2015-69064号公報 日本国特開2011-150594号公報 日本国特開2011-258180号公報 日本国特開2014-95907号公報 日本国特開2017-26914号公報
本発明の目的は、画像データに含まれる特定被写体の検出頻度を向上させて、検出した特定被写体に応じた処理を高頻度で行うことを可能にする処理装置、処理方法、及び処理プログラムを提供することにある。
本発明の一態様の処理装置は、プロセッサと、メモリと、を有する処理装置であって、前記プロセッサは、撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、を行い、更に、前記第一検出処理を続けて行い、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行うものである。
本発明の一態様の処理方法は、撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、を行い、更に、前記第一検出処理を続けて行い、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行うものである。
本発明の一態様の処理プログラムは、撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、をプロセッサに実行させ、更に、前記プロセッサに、前記第一検出処理を続けて行わせ、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行わせるものである。
本発明によれば、画像データに含まれる特定被写体の検出頻度を向上させて、検出した特定被写体に応じた処理を高頻度で行うことが可能になる。
本発明の処理装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。 図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第一例を説明するためのタイミングチャートである。 参考例のデジタルカメラのライブビュー画像表示中の動作を説明するためのタイミングチャートである。 図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第二例を説明するためのタイミングチャートである。 図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第三例を説明するためのタイミングチャートである。 図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第四例を説明するためのタイミングチャートである。 本発明の処理装置の別実施形態であるスマートフォン200の外観を示すものである。 図7に示すスマートフォン200の構成を示すブロック図である。
以下、本発明の実施形態について図面を参照して説明する。
図1は、本発明の処理装置の一実施形態であるデジタルカメラ100の概略構成を示す図である。
図1に示すデジタルカメラ100は、撮像レンズ1と、絞り2と、レンズ制御部4と、レンズ駆動部8と、絞り駆動部9と、を有するレンズ装置40を備える。
レンズ装置40は、デジタルカメラ100の本体に着脱可能なものであってもよいし、デジタルカメラ100の本体と一体化されたものであってもよい。
撮像レンズ1と絞り2は撮像光学系を構成し、撮像光学系は光軸方向に移動可能なフォーカスレンズを含む。このフォーカスレンズは、撮像光学系の焦点を調節するためのレンズであり、単一のレンズ又は複数のレンズで構成される。フォーカスレンズが光軸方向に移動することで、フォーカスレンズの主点の位置が光軸方向に沿って変化し、被写体側の焦点位置の変更が行われる。なお、フォーカスレンズとしては、電気的な制御により、光軸方向の主点の位置を変更可能な液体レンズが用いられてもよい。
レンズ装置40のレンズ制御部4は、デジタルカメラ100の本体のシステム制御部11と有線又は無線によって通信可能に構成される。レンズ制御部4は、システム制御部11からの指令にしたがい、レンズ駆動部8を介して撮像レンズ1に含まれるフォーカスレンズを駆動してフォーカスレンズの主点の位置を変更(焦点制御)したり、絞り駆動部9を介して絞り2の開口量を制御したりする。
デジタルカメラ100の本体は、撮像光学系を通して被写体を撮像するCCD(Charge Coupled Device)型イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)型イメージセンサ等の撮像素子5と、撮像素子5に接続された相関二重サンプリング処理等のアナログ信号処理を行うアナログ信号処理部6と、アナログ信号処理部6から出力されるアナログ信号をデジタル信号に変換するアナログデジタル変換回路7と、撮像素子駆動部10と、全体を統括制御するシステム制御部11と、操作部14と、を備える。
アナログ信号処理部6、アナログデジタル変換回路7、及び撮像素子駆動部10は、システム制御部11によって制御される。アナログ信号処理部6及びアナログデジタル変換回路7は、撮像素子5に内蔵される場合もある。
撮像素子5は、複数の画素が二次元状に配置された撮像面を有し、撮像光学系によってこの撮像面に結像される被写体像をこの複数の画素によって電気信号(画素信号)に変換して出力する。
システム制御部11は、撮像素子駆動部10を介して撮像素子5を駆動し、撮像光学系を通して撮像した被写体像を撮像画像信号(画素信号の集合体)として出力させる。システム制御部11には、操作部14を通してユーザからの指示信号が入力される。
システム制御部11は、プロセッサと、RAM(Random Access Memory)及び、フラッシュメモリ(Flash Memory)等のROM (Read ON Memory)メモリと、を備える。
システム制御部11は、内蔵するフラッシュメモリに格納された処理プログラムを含むプログラムをプロセッサが実行することで、後述する各機能を実現する。プロセッサとしては、プログラムを実行して各種処理を行う汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、又はASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。プロセッサの構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。システム制御部11は、上述したプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAの組み合わせ)で構成されてもよい。
更に、デジタルカメラ100の電気制御系は、メインメモリ16と、メインメモリ16へのデータ記憶及びメインメモリ16からのデータ読み出しの制御を行うメモリ制御部15と、アナログデジタル変換回路7から出力される撮像画像信号に対しデジタル信号処理を行ってJPEG(Joint Photographic Experts Group)形式等の各種フォーマットにしたがった画像データを生成するデジタル信号処理部17と、記憶媒体21へのデータ記憶及び記憶媒体21からのデータ読み出しの制御を行う外部メモリ制御部20と、有機EL(electroluminescence)ディスプレイ又は液晶ディスプレイ等で構成される表示装置23と、表示装置23の表示を制御する表示制御部22と、を備える。表示装置23は、デジタルカメラ100の本体の背面側表面に搭載されるものであるが、デジタルカメラ100の本体に内蔵されて、デジタルカメラ100の本体に設けられる接眼窓から観察可能なものであってもよい。デジタルカメラ100には、本体の背面側表面に搭載される表示装置23と、本体に内蔵される表示装置23とが設けられていてもよい。
記憶媒体21は、デジタルカメラ100に内蔵されるフラッシュメモリ等の半導体メモリ又はデジタルカメラ100に着脱可能な可搬型の半導体メモリ等であるがこれに限定されず、有線通信または無線通信で接続されたPC(Personal Computer)などの記憶装置を用いても良い。
メモリ制御部15、デジタル信号処理部17、外部メモリ制御部20、及び表示制御部22は、制御バス24及びデータバス25によって相互に接続され、システム制御部11からの指令によって制御される。
デジタルカメラ100は、静止画像を記憶媒体21に記憶する静止画モードと、動画像を記憶媒体21に記憶する動画モードとを有し、いずれのモードにおいても、撮像中の被写体のライブビュー画像を表示装置23に表示させる。デジタルカメラ100は、ライブビュー画像を表示装置23に表示させる場合には、デジタル信号処理部17により生成された画像データから主要被写体のエリアを検出し、検出した主要被写体のエリアを示す検出枠画像(例えば矩形枠の画像)をライブビュー画像に重ねて表示させる制御を行う。また、デジタルカメラ100は、検出した主要被写体のエリアに基づいて、焦点制御を行ったり、露出制御を行ったり、ホワイトバランス制御を行ったりする。主要被写体とは、人物の顔、動物の顔、及び乗り物等である。
主要被写体の検出処理は、システム制御部11が行う。システム制御部11は、主要被写体の検出処理として、第一検出処理を構成する被写体検出処理と第二検出処理を構成する追尾処理を選択的に行う。
被写体検出処理は、撮像素子5から出力されてデジタル信号処理されて得られた画像データ(以下、検出用画像データと記載)から、機械学習によって生成された画像認識アルゴリズム等に基づいて、検出対象物のエリア(第一エリア)を主要被写体のエリアとして検出する処理である。検出対象物は、上述した主要被写体と同じであり、人物の顔、動物の顔、及び乗り物等である。
追尾処理は、検出用画像データから、被写体検出処理によって検出された第一エリアに基づいた第二エリアを、主要被写体のエリアとして検出する処理である。具体的には、システム制御部11は、被写体検出処理によって検出した第一エリアの画像を基準画像としてメモリに記憶し、検出用画像データからこの基準画像に類似する類似エリアを探索し、探索された類似エリアを第二エリアとして検出する。
システム制御部11は、ライブビュー画像表示時には、被写体検出処理を続けて行い、第一タイミングで開始された被写体検出処理によって第一エリアが検出されてから、この第一タイミングの次に開始される被写体検出処理によって第一エリアが検出されるまでの各期間に、追尾処理を行う。
被写体検出処理を行う頻度は、被写体検出処理に要する時間(被写体検出処理が開始されてから検出結果が得られるまでの時間)に基づいて決められている。被写体検出処理に要する時間は、検出用画像データの内容及びシステム制御部11の処理負荷等の条件によって変動し得るが、代表値(中央値又は平均値等)は決まっている。本明細書では、この代表値を、被写体検出処理に要する時間として定義する。デジタルカメラ100では、被写体検出処理に要する時間が、ライブビュー画像表示時の撮像素子5による撮像の間隔(垂直同期信号の周期(以下、フレーム周期と記載))よりも長くなっている。そのため、被写体検出処理の周期は、フレーム周期の倍以上に設定されている。つまり、被写体検出処理は、複数回の撮像に1回の頻度で行われる。
なお、追尾処理は、被写体検出処理よりも高速に処理結果を得ることが可能である。つまり、追尾処理に要する時間(追尾処理が開始されてから検出結果が得られるまでの時間)は、被写体検出処理に要する時間よりも短い。追尾処理に要する時間は、システム制御部11の処理負荷等の条件によって変動し得るが、代表値(中央値又は平均値等)は決まっている。本明細書では、この代表値を、追尾処理に要する時間として定義する。
以下、ライブビュー画像表示時のデジタルカメラ100の動作についてタイミングチャートを参照して説明する。図2は、図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第一例を説明するためのタイミングチャートである。
図2中の“撮像処理”のチャートにおいて、“F# 露光・取込(#は1~7)”を記した期間は、#フレーム目の撮像素子5の露光が行われ、その露光によって生成された画素信号が撮像素子5から出力されてデジタル信号処理部17に取り込まれる期間を示している。この期間の長さが、フレーム間隔に相当する。
図2中の“表示装置”のチャートにおいて、“F# 表示”を記した期間は、“F# 露光・取込”の期間で撮像素子5から出力される画素信号を処理して得られるライブビュー画像が表示装置23に表示される期間を示している。
図2中の“検出用画像データ生成”のチャートにおいて、“f#”を記した期間は、“F# 露光・取込”の期間で撮像素子5から出力された撮像画像信号を処理して検出用画像データf#を生成する期間を示している。
1フレーム目の露光が開始され、この露光が終了して画素信号の読み出しが開始されると、デジタル信号処理部17によってライブビュー画像データの生成が順次行われ、生成されたライブビュー画像データの表示装置23への表示が行われる。この露光による全ての画素信号の読み出しが完了すると、デジタル信号処理部17によって検出用画像データf1が生成され、この検出用画像データf1がシステム制御部11によって取得される。このような動作が、2フレーム目以降も繰り返し行われる。
システム制御部11は、検出用画像データf1を取得すると、期間T11に示すように、検出用画像データf1から検出対象物を検出する被写体検出処理を開始する。前述したように、この被写体検出処理に要する時間はフレーム間隔よりも長い。このため、期間T11が終了するまでの間に、次の検出用画像データf2がシステム制御部11により取得される。
システム制御部11は、検出用画像データf1から検出対象物のエリアを検出すると、期間T12において、そのエリアを示す検出枠画像PD(f1)を生成し、その後の期間T13において、生成した検出枠画像PD(f1)を表示装置23に表示させる処理を行う。この処理により、4フレーム目の撮像処理によって生成されているライブビュー画像に、検出枠画像PD(f1)が重畳して表示される。
また、システム制御部11は、検出用画像データf1から検出対象物のエリアを検出すると、期間T14において、そのエリアの画像Dr(f1)を基準画像としてメモリに記憶する。システム制御部11は、メモリに過去の基準画像が記憶されている場合には、この過去の基準画像を画像Dr(f1)によって上書きして基準画像を更新する。続いて、システム制御部11は、期間T21において、検出用画像データf2からこの基準画像と類似する類似エリアを探索する追尾処理を行う。図示省略しているが、システム制御部11は、期間T11の終了後、検出用画像データf1から検出した検出対象物のエリアの画像Dr(f1)に基づいて、焦点制御を行ったり、露出制御を行ったり、ホワイトバランス制御を行ったりする。
システム制御部11は、期間T21において、検出用画像データf2から基準画像と類似する類似エリアを検出すると、その類似エリアの画像を基準画像としてメモリに上書きし、更に、期間T22において、その類似エリアを示す検出枠画像PT(f2)を生成する。続いて、システム制御部11は、期間T23において、生成した検出枠画像PT(f2)を表示装置23に表示させる処理を行う。この処理により、5フレーム目の撮像処理によって生成されているライブビュー画像に、検出枠画像PT(f2)が重畳して表示される。
以降、システム制御部11は同様の処理を繰り返し行う。
つまり、システム制御部11は、検出用画像データf3を取得すると、検出用画像データf3から検出対象物を検出する被写体検出処理を開始し(期間T31)、検出用画像データf3から検出対象物のエリアを検出すると、そのエリアを示す検出枠画像PD(f3)を生成し(期間T32)、生成した検出枠画像PD(f3)を表示装置23に表示させる処理を行う(期間T33)。
また、システム制御部11は、期間T31において、検出用画像データf3から検出対象物のエリアを検出すると、そのエリアの画像Dr(f3)を基準画像としてメモリに記憶する(期間T34)。続いて、システム制御部11は、検出用画像データf4からこの基準画像と類似する類似エリアを探索する追尾処理を行う(期間T41)。システム制御部11は、検出用画像データf4から基準画像と類似する類似エリアを検出すると、その類似エリアの画像を基準画像としてメモリに上書きし、更に、その類似エリアを示す検出枠画像PT(f4)を生成し(期間T42)、生成した検出枠画像PT(f4)を表示装置23に表示させる処理を行う(期間T43)。
システム制御部11は、検出用画像データf5を取得すると、検出用画像データf5から検出対象物を検出する被写体検出処理を開始し(期間T51)、検出用画像データf5から検出対象物のエリアを検出すると、そのエリアを示す検出枠画像PD(f5)を生成し(期間T52)、生成した検出枠画像PD(f5)を表示装置23に表示させる処理を行う(期間T53)。また、システム制御部11は、検出用画像データf5から検出対象物のエリアを検出すると、そのエリアの画像Dr(f5)を基準画像としてメモリに記憶する(期間T54)。
以上の動作により、ライブビュー画像に重畳される主要被写体の位置を示す検出枠画像は、4フレーム目のライブビュー画像が表示されて以降、表示の1フレーム毎に更新されることになる。
図3は、参考例のデジタルカメラの動作を説明するためのタイミングチャートである。この参考例のデジタルカメラの構成は、デジタルカメラ100と同じであり、システム制御部11の機能のみが異なる。参考例のデジタルカメラのシステム制御部11は、主要被写体の検出処理として、追尾処理は行わず、被写体検出処理のみを行う。図3は、図2において、期間T14、期間T21~期間T23、期間T34、期間T41~期間T43、及び期間T54が削除されたものとなっている。
参考例のデジタルカメラの動作では、被写体検出処理に要する時間がフレーム間隔よりも長いために、表示の2フレームに1回の頻度で検出枠画像の更新が行われることになる。また、検出用画像データf2、f4、f6からは主要被写体の検出を行うことができず、被写体の変化に迅速に対応することが難しい。
これに対し、デジタルカメラ100では、連続して行う被写体検出処理同士の間(期間T11の終了から期間T31の終了までの期間と、期間T31の終了から期間T51の終了までの期間)において追尾処理を行い、この追尾処理の結果を利用して検出枠画像の更新を行っている。このため、検出枠画像の更新や主要被写体に基づいた焦点制御等を高頻度で行うことができ、ライブビュー画像の品質向上と撮像品質の向上を図ることが可能となる。また、検出用画像データf2、f4、f6からも主要被写体の検出を行うことができるため、被写体の変化に迅速に対応可能となり、撮像品質を向上させることができる。
図4は、図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第二例を説明するためのタイミングチャートである。図4は、期間T31にて行われる被写体検出処理に時間がかかっており、期間T31が長くなっている点が、図2との第1相違点である。また、検出用画像データf5に対する被写体検出処理は行われず、期間T31の被写体検出処理の後には、期間T61において、検出用画像データf6に対する被写体検出処理が行われる点が、図2との第2相違点である。
図4の動作では、期間T21において基準画像は更新されているため、期間T31が終了するよりも前に、検出用画像データf4に対するこの基準画像を用いた追尾処理と、その追尾処理の結果に基づく検出枠画像の更新(“F6 表示”の期間における検出枠画像の更新)を行うことは可能である。しかし、デジタルカメラ100では、期間T31が終了するまでは次の追尾処理は開始しない。これにより、検出用画像データf4から検出された主要被写体に基づいて生成される検出枠画像が、検出用画像データf3から検出された主要被写体に基づいて生成される検出枠画像よりも先に表示装置23に表示されてしまうのを防ぐことができる。
期間T31の終了後は、期間T34において基準画像の更新が行われ、その後の期間T41において、検出用画像データf4から基準画像と類似する類似エリアを探索する追尾処理が行われる。そして、この追尾処理の結果に基づく検出枠画像が、8フレーム目のライブビュー画像に重畳表示される。その後は、期間T61で検出される主要被写体に基づく検出枠画像が表示される。このように、被写体検出処理の時間が長くなる場合でも、その被写体検出処理が終了してから次の被写体検出処理が終了するまでの期間に追尾処理を行うことで、検出枠画像のベースとなる検出用画像データの順番が前後するのを防ぐことができ、ライブビュー画像の品質を向上させることができる。
図5は、図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第三例を説明するためのタイミングチャートである。前述の図4の例は、期間T31が図2よりも長くなる場合を示したが、図5の例は、期間T31が図2よりも短くなる場合を示している。
図5の例では、期間T21にて行われる追尾処理の終了よりも先に、期間T31にて行われる被写体検出処理が終了している。このような場合には、システム制御部11は、期間T21にて行っている追尾処理を途中で終了(停止)する。したがって、この追尾処理の結果に基づく検出枠画像の表示処理や焦点制御等の処理は非作動となる。これにより、検出用画像データf2から検出された主要被写体に基づいて生成される検出枠画像が、検出用画像データf3から検出された主要被写体に基づいて生成される検出枠画像よりも後に表示装置23に表示されてしまうのを防ぐことができる。
図6は、図1に示すデジタルカメラ100のライブビュー画像表示中の動作の第四例を説明するためのタイミングチャートである。図6の例では、図2の動作に対し、システム制御部11の処理負荷等によって、2回目以降の被写体検出処理(図2における期間T31と期間T51の処理)が実行できなくなった場合の動作を示している。
図6の動作において、システム制御部11は、期間T21の終了後、期間T31aにおいて、検出用画像データf3から基準画像(期間T21の追尾処理にて検出された主要被写体の画像)と類似する類似エリアを探索し、類似エリアを検出すると、その類似エリアの画像を基準画像としてメモリに上書きする。続いて、システム制御部11は、期間T32aにおいて、その類似エリアを示す検出枠画像PT(f3)を生成する。続いて、システム制御部11は、期間T33aにおいて、生成した検出枠画像PT(f3)を表示装置23に表示させる処理を行う。この処理により、6フレーム目の撮像処理によって生成されているライブビュー画像に、検出枠画像PT(f3)が重畳して表示される。
期間T31aの後の期間T41aにおいて、システム制御部11は、検出用画像データf4から基準画像(期間T31aの追尾処理にて検出された主要被写体の画像)と類似する類似エリアを探索し、類似エリアを検出すると、その類似エリアの画像を基準画像としてメモリに上書きする。続いて、システム制御部11は、期間T42aにおいて、その類似エリアを示す検出枠画像PT(f4)を生成する。続いて、システム制御部11は、期間T43aにおいて、生成した検出枠画像PT(f4)を表示装置23に表示させる処理を行う。この処理により、7フレーム目の撮像処理によって生成されているライブビュー画像に、検出枠画像PT(f4)が重畳して表示される。
このように、図6の動作では、被写体検出処理の結果に基づく検出枠画像PD(f1)が表示された後は、追尾処理の結果に基づく検出枠画像PT(f2)、PT(f3)、PT(f4)、・・・が順次表示されていく。このように、被写体検出処理が何らかの理由で作動しない場合でも、主要被写体の検出を高頻度で行って検出枠画像の更新等を行うことができる。
なお、システム制御部11は、図6に例示したように、被写体検出処理を行うことができず、追尾処理を連続して行う場合には、各追尾処理にて検出される主要被写体のエリアの信頼度を判定し、信頼度が閾値以上の場合に、そのエリアを利用した処理(検出枠画像の更新、焦点制御、露出制御、及びホワイトバランス制御等)を行うことが好ましい。信頼度は、例えば基準画像との類似度等を用いることができる。このようにすることで、被写体検出処理で検出された主要被写体とは別の被写体に検出枠画像が重畳されるのを防ぐことができる。
ここまでの説明では、被写体検出処理や追尾処理によって検出した最新の主要被写体のエリアから検出枠画像を生成するものとした。しかし、検出枠画像は、過去に生成したものと、最新の主要被写体のエリアから生成したものとを用いて、生成することが好ましい。
図2の例で説明すると、システム制御部11は、例えば、期間T22では、検出枠画像PT(f2)と、検出枠画像PD(f1)とを平均化した検出枠画像を生成し、期間T23にて、この検出枠画像を表示させる処理を行う。
また、システム制御部11は、期間T32では、検出枠画像PD(f3)と、検出枠画像PT(f2)と、検出枠画像PD(f1)と、を平均化した検出枠画像を生成し、期間T33にて、この検出枠画像を表示させる処理を行う。
また、システム制御部11は、期間T42では、検出枠画像PT(f4)と、検出枠画像PD(f3)と、検出枠画像PT(f2)と、を平均化した検出枠画像を生成し、期間T43にて、この検出枠画像を表示させる処理を行う。
このように、過去複数フレーム分の検出用画像データから検出した主要被写体のエリアの情報に基づいて検出枠画像を生成することで、検出枠画像の表示位置が細かく変動するのを防ぐことができ、ライブビュー画像の品質を向上させることができる。被写体検出処理の結果だけで検出枠画像を生成する場合や、追尾処理の結果だけで検出枠画像を生成する場合と比べて、被写体検出処理の結果と追尾処理の結果とを一元的に扱って検出枠画像を生成することで、処理を簡略化することができる。
ここまでは、ライブビュー画像表示時において被写体検出処理と追尾処理を組み合わせて実行する例を説明した。しかし、例えば、記憶媒体21に記憶された動画データを表示装置23にて再生する際にも、同様に、被写体検出処理と追尾処理を組み合わせて実行することで、検出枠画像を高頻度で更新したり、ホワイトバランスを高頻度で更新したりすることができる。また、ライブビュー画像表示時に限らず、動画撮像時にも同様に被写体検出処理と追尾処理を組み合わせて実行することで、撮像条件を主要被写体に応じて最適化できる。
次に、本発明の処理装置の別実施形態としてスマートフォンの構成について説明する。
図7は、スマートフォン200の外観を示すものである。図7に示すスマートフォン200は、平板状の筐体201を有し、筐体201の一方の面に表示部としての表示パネル202と、入力部としての操作パネル203とが一体となった表示入力部204を備えている。
また、この様な筐体201は、スピーカ205と、マイクロホン206と、操作部207と、カメラ部208とを備えている。なお、筐体201の構成はこれに限定されず、例えば、表示部と入力部とが独立した構成を採用したり、折り畳み構造又はスライド機構を有する構成を採用したりすることもできる。
図8は、図7に示すスマートフォン200の構成を示すブロック図である。
図8に示すように、スマートフォンの主たる構成要素として、無線通信部210と、表示入力部204と、通話部211と、操作部207と、カメラ部208と、記憶部212と、外部入出力部213と、GNSS(Global Navigation Satellite System)受信部214と、モーションセンサ部215と、電源部216と、主制御部220とを備える。
また、スマートフォン200の主たる機能として、図示省略の基地局装置BSと図示省略の移動通信網NWとを介した移動無線通信を行う無線通信機能を備える。
無線通信部210は、主制御部220の指示にしたがって、移動通信網NWに収容された基地局装置BSに対し無線通信を行うものである。この無線通信を使用して、音声データ、画像データ等の各種ファイルデータ、電子メールデータ等の送受信、ウェブデータ又はストリーミングデータ等の受信を行う。
表示入力部204は、主制御部220の制御により、画像(静止画像及び動画像)又は文字情報等を表示して視覚的にユーザに情報を伝達するとともに、表示した情報に対するユーザ操作を検出する、いわゆるタッチパネルであって、表示パネル202と、操作パネル203とを備える。
表示パネル202は、LCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)等を表示デバイスとして用いたものである。
操作パネル203は、表示パネル202の表示面上に表示される画像を視認可能に載置され、ユーザの指又は尖筆によって操作される一又は複数の座標を検出するデバイスである。このデバイスをユーザの指又は尖筆によって操作すると、操作に起因して発生する検出信号を主制御部220に出力する。次いで、主制御部220は、受信した検出信号に基づいて、表示パネル202上の操作位置(座標)を検出する。
図8に示すように、本発明の撮影装置の一実施形態として例示しているスマートフォン200の表示パネル202と操作パネル203とは一体となって表示入力部204を構成しているが、操作パネル203が表示パネル202を完全に覆うような配置となっている。
係る配置を採用した場合、操作パネル203は、表示パネル202外の領域についても、ユーザ操作を検出する機能を備えてもよい。換言すると、操作パネル203は、表示パネル202に重なる重畳部分についての検出領域(以下、表示領域と称する)と、それ以外の表示パネル202に重ならない外縁部分についての検出領域(以下、非表示領域と称する)とを備えていてもよい。
なお、表示領域の大きさと表示パネル202の大きさとを完全に一致させても良いが、両者を必ずしも一致させる必要は無い。また、操作パネル203が、外縁部分と、それ以外の内側部分の2つの感応領域を備えていてもよい。さらに、外縁部分の幅は、筐体201の大きさ等に応じて適宜設計されるものである。
さらにまた、操作パネル203で採用される位置検出方式としては、マトリクススイッチ方式、抵抗膜方式、表面弾性波方式、赤外線方式、電磁誘導方式、静電容量方式等が挙げられ、いずれの方式を採用することもできる。
通話部211は、スピーカ205又はマイクロホン206を備え、マイクロホン206を通じて入力されたユーザの音声を主制御部220にて処理可能な音声データに変換して主制御部220に出力したり、無線通信部210あるいは外部入出力部213により受信された音声データを復号してスピーカ205から出力させたりするものである。
また、図7に示すように、例えば、スピーカ205を表示入力部204が設けられた面と同じ面に搭載し、マイクロホン206を筐体201の側面に搭載することができる。
操作部207は、キースイッチ等を用いたハードウェアキーであって、ユーザからの指示を受け付けるものである。例えば、図7に示すように、操作部207は、スマートフォン200の筐体201の側面に搭載され、指等で押下されるとオンとなり、指を離すとバネ等の復元力によってオフ状態となる押しボタン式のスイッチである。
記憶部212は、主制御部220の制御プログラム及び制御データ、アプリケーションソフトウェア、通信相手の名称又は電話番号等を対応づけたアドレスデータ、送受信した電子メールのデータ、WebブラウジングによりダウンロードしたWebデータ、ダウンロードしたコンテンツデータを記憶し、またストリーミングデータ等を一時的に記憶するものである。また、記憶部212は、スマートフォン内蔵の内部記憶部217と着脱自在な外部メモリスロットを有する外部記憶部218により構成される。
なお、記憶部212を構成するそれぞれの内部記憶部217と外部記憶部218は、フラッシュメモリタイプ(flash memory type)、ハードディスクタイプ(hard disk type)、マルチメディアカードマイクロタイプ(multimedia card micro type)、カードタイプのメモリ(例えば、MicroSD(登録商標)メモリ等)、RAM(Random Access Memory)、ROM(Read Only Memory)等の格納媒体を用いて実現される。
外部入出力部213は、スマートフォン200に連結される全ての外部機器とのインターフェースの役割を果たすものであり、他の外部機器に通信等(例えば、ユニバーサルシリアルバス(USB)、IEEE1394、ブルートゥース(Bluetooth)(登録商標)、RFID(Radio Frequency Identification)、赤外線通信(Infrared Data Association:IrDA)(登録商標)、UWB(Ultra Wideband)(登録商標)、ジグビー(ZigBee)(登録商標)等)又はネットワーク(例えば、イーサネット(登録商標)、無線LAN(Local Area Network)等)により直接的又は間接的に接続するためのものである。
スマートフォン200に連結される外部機器としては、例えば、有/無線ヘッドセット、有/無線外部充電器、有/無線データポート、カードソケットを介して接続されるメモリカード(Memory card)、SIM(Subscriber Identity Module Card)/UIM(User Identity Module Card)カード、オーディオ・ビデオI/O(Input/Output)端子を介して接続される外部オーディオ・ビデオ機器、無線接続される外部オーディオ・ビデオ機器、有/無線接続されるスマートフォン、有/無線接続されるパーソナルコンピュータ、有/無線接続されるパーソナルコンピュータ、イヤホン等がある。
外部入出力部213は、このような外部機器から伝送を受けたデータをスマートフォン200の内部の各構成要素に伝達したり、スマートフォン200の内部のデータが外部機器に伝送されるようにしたりすることができる。
GNSS受信部214は、主制御部220の指示にしたがって、GNSS衛星ST1~STnから送信されるGNSS信号を受信し、受信した複数のGNSS信号に基づく測位演算処理を実行し、スマートフォン200の緯度、経度、高度からなる位置を検出する。GNSS受信部214は、無線通信部210又は外部入出力部213(例えば、無線LAN)から位置情報を取得できる時には、その位置情報を用いて位置を検出することもできる。
モーションセンサ部215は、例えば、3軸の加速度センサ等を備え、主制御部220の指示にしたがって、スマートフォン200の物理的な動きを検出する。スマートフォン200の物理的な動きを検出することにより、スマートフォン200の動く方向又は加速度が検出される。係る検出結果は、主制御部220に出力されるものである。
電源部216は、主制御部220の指示にしたがって、スマートフォン200の各部に、バッテリ(図示しない)に蓄えられる電力を供給するものである。
主制御部220は、マイクロプロセッサを備え、記憶部212が記憶する制御プログラム及び制御データにしたがって動作し、スマートフォン200の各部を統括して制御するものである。また、主制御部220は、無線通信部210を通じて、音声通信又はデータ通信を行うために、通信系の各部を制御する移動通信制御機能と、アプリケーション処理機能を備える。
アプリケーション処理機能は、記憶部212が記憶するアプリケーションソフトウェアにしたがって主制御部220が動作することにより実現するものである。アプリケーション処理機能としては、例えば、外部入出力部213を制御して対向機器とデータ通信を行う赤外線通信機能、電子メールの送受信を行う電子メール機能、又はウェブページを閲覧するウェブブラウジング機能等がある。
また、主制御部220は、受信データ又はダウンロードしたストリーミングデータ等の画像データ(静止画像又は動画像のデータ)に基づいて、映像を表示入力部204に表示する等の画像処理機能を備える。
画像処理機能とは、主制御部220が、上記画像データを復号し、この復号結果に画像処理を施して、画像を表示入力部204に表示する機能のことをいう。
さらに、主制御部220は、表示パネル202に対する表示制御と、操作部207、操作パネル203を通じたユーザ操作を検出する操作検出制御を実行する。
表示制御の実行により、主制御部220は、アプリケーションソフトウェアを起動するためのアイコン又はスクロールバー等のソフトウェアキーを表示したり、あるいは電子メールを作成したりするためのウィンドウを表示する。
なお、スクロールバーとは、表示パネル202の表示領域に収まりきれない大きな画像等について、画像の表示部分を移動する指示を受け付けるためのソフトウェアキーのことをいう。
また、操作検出制御の実行により、主制御部220は、操作部207を通じたユーザ操作を検出したり、操作パネル203を通じて、上記アイコンに対する操作と上記ウィンドウの入力欄に対する文字列の入力を受け付けたり、あるいは、スクロールバーを通じた表示画像のスクロール要求を受け付けたりする。
さらに、操作検出制御の実行により主制御部220は、操作パネル203に対する操作位置が、表示パネル202に重なる重畳部分(表示領域)か、それ以外の表示パネル202に重ならない外縁部分(非表示領域)かを判定し、操作パネル203の感応領域又はソフトウェアキーの表示位置を制御するタッチパネル制御機能を備える。
また、主制御部220は、操作パネル203に対するジェスチャ操作を検出し、検出したジェスチャ操作に応じて、予め設定された機能を実行することもできる。
ジェスチャ操作とは、従来の単純なタッチ操作ではなく、指等によって軌跡を描いたり、複数の位置を同時に指定したり、あるいはこれらを組み合わせて、複数の位置から少なくとも1つについて軌跡を描く操作を意味する。
カメラ部208は、図1に示したデジタルカメラにおける外部メモリ制御部20、記憶媒体21、表示制御部22、表示装置23、及び操作部14以外の構成を含む。
カメラ部208によって生成された撮像画像データは、記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることができる。
図7に示すスマートフォン200において、カメラ部208は表示入力部204と同じ面に搭載されているが、カメラ部208の搭載位置はこれに限らず、表示入力部204の背面に搭載されてもよい。
また、カメラ部208はスマートフォン200の各種機能に利用することができる。例えば、表示パネル202にカメラ部208で取得した画像を表示したり、操作パネル203の操作入力のひとつとして、カメラ部208の画像を利用したりすることができる。
また、GNSS受信部214が位置を検出する際に、カメラ部208からの画像を参照して位置を検出することもできる。さらには、カメラ部208からの画像を参照して、3軸の加速度センサを用いずに、或いは、3軸の加速度センサと併用して、スマートフォン200のカメラ部208の光軸方向を判断したり、現在の使用環境を判断したりすることもできる。勿論、カメラ部208からの画像をアプリケーションソフトウェア内で利用することもできる。
その他、静止画又は動画の画像データにGNSS受信部214により取得した位置情報、マイクロホン206により取得した音声情報(主制御部等により、音声テキスト変換を行ってテキスト情報となっていてもよい)、モーションセンサ部215により取得した姿勢情報等を付加して記憶部212に記憶したり、外部入出力部213又は無線通信部210を通じて出力したりすることもできる。
以上のような構成のスマートフォン200においても、主要被写体の検出を高頻度にて行うことができる。
処理装置の実施形態としてはデジタルカメラやスマートフォン等の撮像装置に限らず、システム制御部11が実行する処理プログラムを実行可能なプロセッサを持つ装置であればよい。例えば、監視カメラにネットワークを介して接続されたパーソナルコンピュータのプロセッサが、監視カメラにより撮像された動画データのフレームを取得して、被写体検出処理と追尾処理を組み合わせた主要被写体の検出処理を実行し、検出結果に応じた処理(例えば主要被写体エリアの解析や保存)を行うようにしてもよい。
以上説明してきたように、本明細書には少なくとも以下の事項が記載されている。なお、括弧内には、上記した実施形態において対応する構成要素等を示しているが、これに限定されるものではない。
(1)
プロセッサ(システム制御部11のプロセッサ)と、メモリ(システム制御部11のメモリ)と、を有する処理装置(デジタルカメラ100)であって、
上記プロセッサは、
撮像素子(撮像素子5)から取得した画像データ(検出用画像データ)から検出対象物の第一エリアを検出する第一検出処理(被写体検出処理)と、
上記撮像素子から取得した画像データから、上記第一エリアに基づいた第二エリアを検出する第二検出処理(追尾処理)と、
上記第一検出処理にて検出された上記第一エリアを利用した第一処理(検出枠画像の表示処理、焦点制御、露出制御、ホワイトバランス制御)と、
上記第二検出処理にて検出された上記第二エリアを利用した第二処理(検出枠画像の表示処理、焦点制御、露出制御、ホワイトバランス制御)と、を行い、
更に、上記第一検出処理を続けて行い、第一タイミングで開始された上記第一検出処理によって上記第一エリアが検出されてから、上記第一タイミングの次に開始される上記第一検出処理によって上記第一エリアが検出されるまでの各期間に、上記第二検出処理を行う処理装置。
(2)
(1)記載の処理装置であって、
上記プロセッサは、上記第一検出処理が終了した後、その第一検出処理に用いられる上記画像データの後に取得した画像データに対する上記第二検出処理を行う処理装置。
(3)
(1)又は(2)記載の処理装置であって、
上記プロセッサは、上記第一検出処理の終了タイミングに基づいて、連続する2回の上記第一処理の間に行う上記第二処理の回数を制御する処理装置。
(4)
(3)記載の処理装置であって、
上記プロセッサは、上記第一検出処理の終了タイミングが、その第一検出処理に用いられる上記画像データの前に取得した画像データに対する上記第二検出処理の終了タイミングよりも早い場合には、その第二検出処理の結果に基づく上記第二処理を非作動とする処理装置。
(5)
(1)から(4)のいずれか1つに記載の処理装置であって、
上記プロセッサは、上記第一検出処理が行われた後に上記第一検出処理が非作動となる場合には、上記第二検出処理を連続して行う処理装置。
(6)
(5)記載の処理装置であって、
上記プロセッサは、上記第二検出処理を連続して行う場合には、上記第二検出処理により検出される上記第二エリアの信頼度が閾値以上の場合に、その第二エリアを利用した上記第二処理を行う処理装置。
(7)
(1)から(6)のいずれか1つに記載の処理装置であって、
上記第一処理は、上記第一検出処理によって検出された上記第一エリアと、その第一検出処理よりも前に検出された上記第一エリア及び上記第二エリアとに基づく画像(検出枠画像)を出力させる処理であり、
上記第二処理は、上記第二検出処理によって検出された上記第二エリアと、その第二検出処理よりも前に検出された上記第一エリア及び上記第二エリアとに基づく画像(検出枠画像)を出力させる処理である処理装置。
(8)
(7)記載の処理装置であって、
上記第一処理と上記第二処理は、それぞれ、上記画像を表示装置に表示させる処理である処理装置。
(9)
(1)から(8)のいずれか1つに記載の処理装置であって、
上記第一検出処理を行う頻度は、上記第一検出処理に要する時間に基づいて決められている処理装置。
(10)
(1)から(9)のいずれか1つに記載の処理装置であって、
上記第一検出処理に要する時間は、上記第二検出処理に要する時間よりも長い処理装置。
(11)
撮像素子から取得した画像データから検出対象物の第一エリアを検出する第一検出処理、上記撮像素子から取得した画像データから上記第一エリアに基づいた第二エリアを検出する第二検出処理、上記第一検出処理にて検出された上記第一エリアを利用した第一処理、及び上記第二検出処理にて検出された上記第二エリアを利用した第二処理を行い、
更に、上記第一検出処理を続けて行い、第一タイミングで開始された上記第一検出処理によって上記第一エリアが検出されてから、上記第一タイミングの次に開始される上記第一検出処理によって上記第一エリアが検出されるまでの各期間に、上記第二検出処理を行う処理方法。
(12)
(11)記載の処理方法であって、
上記第一検出処理が終了した後、その第一検出処理に用いられる上記画像データの後に取得した画像データに対する上記第二検出処理を行う処理方法。
(13)
(11)又は(12)記載の処理方法であって、
上記第一検出処理の終了タイミングに基づいて、連続する2回の上記第一処理の間に行う上記第二処理の回数を制御する処理方法。
(14)
(13)記載の処理方法であって、
上記第一検出処理の終了タイミングが、その第一検出処理に用いられる上記画像データの前に取得した画像データに対する上記第二検出処理の終了タイミングよりも早い場合には、その第二検出処理の結果に基づく上記第二処理を非作動とする処理方法。
(15)
(11)から(14)のいずれか1つに記載の処理方法であって、
上記第一検出処理が行われた後に上記第一検出処理が非作動となる場合には、上記第二検出処理を連続して行う処理方法。
(16)
(15)記載の処理方法であって、
上記第二検出処理を連続して行う場合には、上記第二検出処理により検出される上記第二エリアの信頼度が閾値以上の場合に、その第二エリアを利用した上記第二処理を行う処理方法。
(17)
(11)から(16)のいずれか1つに記載の処理方法であって、
上記第一処理は、上記第一検出処理によって検出された上記第一エリアと、その第一検出処理よりも前に検出された上記第一エリア及び上記第二エリアとに基づく画像を出力させる処理であり、
上記第二処理は、上記第二検出処理によって検出された上記第二エリアと、その第二検出処理よりも前に検出された上記第一エリア及び上記第二エリアとに基づく画像を出力させる処理である処理方法。
(18)
(17)記載の処理方法であって、
上記第一処理と上記第二処理は、それぞれ、上記画像を表示装置に表示させる処理である処理方法。
(19)
(11)から(18)のいずれか1つに記載の処理方法であって、
上記第一検出処理を行う頻度は、上記第一検出処理に要する時間に基づいて決められている処理方法。
(20)
(11)から(19)のいずれか1つに記載の処理方法であって、
上記第一検出処理に要する時間は、上記第二検出処理に要する時間よりも長い処理方法。
(21)
撮像素子から取得した画像データから検出対象物の第一エリアを検出する第一検出処理、上記撮像素子から取得した画像データから上記第一エリアに基づいた第二エリアを検出する第二検出処理、上記第一検出処理にて検出された上記第一エリアを利用した第一処理、及び上記第二検出処理にて検出された上記第二エリアを利用した第二処理をプロセッサに実行させ、
更に、上記プロセッサに、上記第一検出処理を続けて行わせ、第一タイミングで開始された上記第一検出処理によって上記第一エリアが検出されてから、上記第一タイミングの次に開始される上記第一検出処理によって上記第一エリアが検出されるまでの各期間に、上記第二検出処理を行わせる処理プログラム。
以上、図面を参照しながら各種の実施の形態について説明したが、本発明はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上記実施の形態における各構成要素を任意に組み合わせてもよい。
なお、本出願は、2021年1月15日出願の日本特許出願(特願2021-005137)に基づくものであり、その内容は本出願の中に参照として援用される。
1 撮像レンズ
2 絞り
4 レンズ制御部
5 撮像素子
6 アナログ信号処理部
7 アナログデジタル変換回路
8 レンズ駆動部
9 絞り駆動部
10 撮像素子駆動部
11 システム制御部
14 操作部
15 メモリ制御部
16 メインメモリ
17 デジタル信号処理部
20 外部メモリ制御部
21 記憶媒体
22 表示制御部
23 表示装置
24 制御バス
25 データバス
40 レンズ装置
T11、T12、T13、T14 期間
T21、T22、T23 期間
T31、T32、T33、T34 期間
T31a、T32a、T33a 期間
T41、T42、T43 期間
T41a、T42a、T43a 期間
T51、T52、T53、T54 期間
T61 期間
200 スマートフォン
201 筐体
202 表示パネル
203 操作パネル
204 表示入力部
205 スピーカ
206 マイクロホン
207 操作部
208 カメラ部
210 無線通信部
211 通話部
212 記憶部
213 外部入出力部
214 GNSS受信部
215 モーションセンサ部
216 電源部
217 内部記憶部
218 外部記憶部
220 主制御部
ST1~STn GNSS衛星

Claims (17)

  1. プロセッサと、メモリと、を有する処理装置であって、
    前記プロセッサは、
    撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、
    前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、
    前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、
    前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、を行い、
    更に、前記第一検出処理を続けて行い、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行う処理装置。
  2. 請求項1記載の処理装置であって、
    前記プロセッサは、前記第一検出処理の終了タイミングに基づいて、連続する2回の前記第一処理の間に行う前記第二処理の回数を制御する処理装置。
  3. 請求項2記載の処理装置であって、
    前記プロセッサは、前記第一検出処理の終了タイミングが、当該第一検出処理に用いられる前記画像データの前に取得した画像データに対する前記第二検出処理の終了タイミングよりも早い場合には、当該第二検出処理の結果に基づく前記第二処理を非作動とする処理装置。
  4. 請求項1から3のいずれか1項記載の処理装置であって、
    前記プロセッサは、前記第一検出処理が行われた後に前記第一検出処理が非作動となる場合には、前記第二検出処理を連続して行う処理装置。
  5. 請求項4記載の処理装置であって、
    前記プロセッサは、前記第二検出処理を連続して行う場合には、前記第二検出処理により検出される前記第二エリアの信頼度が閾値以上の場合に、当該第二エリアを前記表示装置に出力する前記第二処理を行う処理装置。
  6. 請求項1から5のいずれか1項記載の処理装置であって、
    前記第一処理は、前記第一検出処理によって検出された前記第一エリアと、当該第一検出処理よりも前に検出された前記第一エリア及び前記第二エリアとに基づく画像を出力させる処理であり、
    前記第二処理は、前記第二検出処理によって検出された前記第二エリアと、当該第二検出処理よりも前に検出された前記第一エリア及び前記第二エリアとに基づく画像を出力させる処理である処理装置。
  7. 請求項1から6のいずれか1項記載の処理装置であって、
    前記第一検出処理を行う頻度は、前記第一検出処理に要する時間に基づいて決められている処理装置。
  8. 請求項1から7のいずれか1項記載の処理装置であって、
    前記第一検出処理に要する時間は、前記第二検出処理に要する時間よりも長い処理装置。
  9. 撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、
    前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、
    前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、
    前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、を行い、
    更に、前記第一検出処理を続けて行い、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行う処理方法。
  10. 請求項9記載の処理方法であって、
    前記第一検出処理の終了タイミングに基づいて、連続する2回の前記第一処理の間に行う前記第二処理の回数を制御する処理方法。
  11. 請求項10記載の処理方法であって、
    前記第一検出処理の終了タイミングが、当該第一検出処理に用いられる前記画像データの前に取得した画像データに対する前記第二検出処理の終了タイミングよりも早い場合には、当該第二検出処理の結果に基づく前記第二処理を非作動とする処理方法。
  12. 請求項9から11のいずれか1項記載の処理方法であって、
    前記第一検出処理が行われた後に前記第一検出処理が非作動となる場合には、前記第二検出処理を連続して行う処理方法。
  13. 請求項12記載の処理方法であって、
    前記第二検出処理を連続して行う場合には、前記第二検出処理により検出される前記第二エリアの信頼度が閾値以上の場合に、当該第二エリアを利用した前記第二処理を行う処理方法。
  14. 請求項9から13のいずれか1項記載の処理方法であって、
    前記第一処理は、前記第一検出処理によって検出された前記第一エリアと、当該第一検出処理よりも前に検出された前記第一エリア及び前記第二エリアとに基づく画像を出力させる処理であり、
    前記第二処理は、前記第二検出処理によって検出された前記第二エリアと、当該第二検出処理よりも前に検出された前記第一エリア及び前記第二エリアとに基づく画像を出力させる処理である処理方法。
  15. 請求項9から14のいずれか1項記載の処理方法であって、
    前記第一検出処理を行う頻度は、前記第一検出処理に要する時間に基づいて決められている処理方法。
  16. 請求項9から15のいずれか1項記載の処理方法であって、
    前記第一検出処理に要する時間は、前記第二検出処理に要する時間よりも長い処理方法。
  17. 撮像素子から出力された撮像画像信号をデジタル信号処理して生成された画像データから検出対象物の第一エリアを検出する第一検出処理と、
    前記第一検出処理に用いた前記撮像画像信号の後に前記撮像素子から出力された撮影画像信号の画像データから、前記第一エリアの画像を基準画像として、前記基準画像に類似する第二エリアを検出する第二検出処理と、
    前記第一検出処理にて検出された前記第一エリアを、撮像画像を表示中の表示装置に出力する第一処理と、
    前記第二検出処理にて検出された前記第二エリアを前記表示装置に出力する第二処理と、をプロセッサに実行させ、
    更に、前記プロセッサに、前記第一検出処理を続けて行わせ、第一タイミングで開始した前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力してから、前記第一タイミングの次に開始する前記第一検出処理により検出した前記第一エリアを、前記第一処理により前記表示装置に出力するまでの期間に、前記第二検出処理及び第二処理を行わせる処理プログラム。

JP2023168892A 2021-01-15 2023-09-28 処理装置、処理方法、及び処理プログラム Pending JP2023182685A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021005137 2021-01-15
JP2021005137 2021-01-15
PCT/JP2022/000389 WO2022153946A1 (ja) 2021-01-15 2022-01-07 処理装置、処理方法、及び処理プログラム
JP2022575572A JP7359975B2 (ja) 2021-01-15 2022-01-07 処理装置、処理方法、及び処理プログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022575572A Division JP7359975B2 (ja) 2021-01-15 2022-01-07 処理装置、処理方法、及び処理プログラム

Publications (1)

Publication Number Publication Date
JP2023182685A true JP2023182685A (ja) 2023-12-26

Family

ID=82448459

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022575572A Active JP7359975B2 (ja) 2021-01-15 2022-01-07 処理装置、処理方法、及び処理プログラム
JP2023168892A Pending JP2023182685A (ja) 2021-01-15 2023-09-28 処理装置、処理方法、及び処理プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2022575572A Active JP7359975B2 (ja) 2021-01-15 2022-01-07 処理装置、処理方法、及び処理プログラム

Country Status (3)

Country Link
US (1) US20230360222A1 (ja)
JP (2) JP7359975B2 (ja)
WO (1) WO2022153946A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5029137B2 (ja) * 2007-05-17 2012-09-19 カシオ計算機株式会社 撮像装置及びプログラム
JP5247569B2 (ja) * 2009-04-09 2013-07-24 富士フイルム株式会社 人物追跡装置、人物追跡方法及びプログラム
JP2017045326A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 表示装置及びその制御方法、プログラム、並びに記憶媒体

Also Published As

Publication number Publication date
WO2022153946A1 (ja) 2022-07-21
JPWO2022153946A1 (ja) 2022-07-21
US20230360222A1 (en) 2023-11-09
JP7359975B2 (ja) 2023-10-11

Similar Documents

Publication Publication Date Title
US9912859B2 (en) Focusing control device, imaging device, focusing control method, and focusing control program
US9854161B2 (en) Photographing device and method of controlling the same
JP6569022B2 (ja) 撮像装置、撮像方法、及び撮像プログラム
US10863095B2 (en) Imaging apparatus, imaging method, and imaging program
US10848692B2 (en) Global shutter and rolling shutter drive start timings for imaging apparatus, imaging method, and imaging program
US10715737B2 (en) Imaging device, still image capturing method, and still image capturing program
US10742876B2 (en) Imaging device, imaging method, and imaging program
JP7359975B2 (ja) 処理装置、処理方法、及び処理プログラム
JP7210517B2 (ja) 撮像装置、撮像制御方法、撮像制御プログラム
WO2020170945A1 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
WO2020209097A1 (ja) 画像表示装置、画像表示方法、及びプログラム
US12062209B2 (en) Face region detection device, imaging apparatus, face region detection method, and face region detection program
JP7085651B2 (ja) 撮像装置の制御装置、撮像装置、撮像装置の制御方法、撮像装置の制御プログラム
JP7042368B2 (ja) 表示制御装置、撮像装置、表示制御方法、及び表示制御プログラム
JPWO2015052959A1 (ja) 撮像装置、撮像システム、撮像方法、及び撮像プログラム
JPWO2019181299A1 (ja) 撮像制御装置、撮像装置、撮像制御方法、及び撮像制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230928