JP5564987B2 - 被写体追尾装置及び撮像装置 - Google Patents

被写体追尾装置及び撮像装置 Download PDF

Info

Publication number
JP5564987B2
JP5564987B2 JP2010042438A JP2010042438A JP5564987B2 JP 5564987 B2 JP5564987 B2 JP 5564987B2 JP 2010042438 A JP2010042438 A JP 2010042438A JP 2010042438 A JP2010042438 A JP 2010042438A JP 5564987 B2 JP5564987 B2 JP 5564987B2
Authority
JP
Japan
Prior art keywords
image
region
regions
motion vector
subject tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010042438A
Other languages
English (en)
Other versions
JP2010226709A (ja
Inventor
宏 竹内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2010042438A priority Critical patent/JP5564987B2/ja
Publication of JP2010226709A publication Critical patent/JP2010226709A/ja
Application granted granted Critical
Publication of JP5564987B2 publication Critical patent/JP5564987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、被写体の追尾を行う被写体追尾装置及び撮像装置に関する。
従来、連続的に撮像された画像を用いて、それらの画像に撮像されている所望の被写体を、画像情報(例えば、色情報、背景との差分又は動きベクトル等)に基づいて追尾する様々な技術が開発されている。
例えば、特許文献1では、特徴点に基づいた領域追跡手法が適用できない条件下である場合には、色情報に基づいた領域追跡手法によって追跡対象領域を算出することで、精度良く被写体を追跡できる技術が開示されている。
特開2005−309746号公報
しかしながら、従来技術の追尾手法は、追尾対象である被写体の状況によって向き不向きがある(例えば、被写体がランダムに大きく動いている場合や被写体と背景の一部の色とが類似しているような場合等)。したがって、特定の追尾手法のみを用いる場合はもちろん、特許文献1のように、一の追尾手法を最初に用いて、その一の追尾手法が適用できない条件下になると他の追跡手法が用いられるとしても、確実に所望の被写体を追尾することができない場合がある。
上記従来技術が有する問題に鑑み、本発明の目的は、所望の被写体を確度高く追尾することができる技術を提供することにある。
発明を例示する被写体追尾装置の一態様は、撮像された第1の画像と設定された基準画像とのそれぞれの特徴量に基づいて、第1の画像内の基準画像に類似する領域を抽出する領域抽出部と、第1の画像とは異なる時刻に撮像された第2の画像と第1の画像とから、第1の画像内の複数の領域の各々における動きベクトルを算出する動きベクトル算出部と、領域抽出部での抽出結果と動きベクトル算出部での算出結果とに基づいて、第1の画像における被写体追尾の対象領域を決定する制御部と、を備える。さらに、制御部は、領域抽出部によって抽出された基準画像と類似する複数の領域から、動きベクトル算出部による第1の画像の複数の領域の各々における動きベクトルに基づいて、被写体追尾の対象領域から除外する領域を決定する。
また、制御部は、領域抽出部によって抽出された基準画像と類似する複数の領域のうち、周囲に動きベクトルの向きが略同一の領域が多い領域を被写体追尾の対象領域から除外する領域としても良い。
また、制御部は、被写体追尾の対象領域から除外する領域がないと判断した場合は、第1の画像より前に撮像された画像における被写体追尾の対象領域と同一の位置にある領域を、被写体追尾の対象領域として決定しても良い。
本発明を例示する被写体追尾装置の別態様は、撮像された第1の画像と設定された基準画像とのそれぞれの特徴量に基づいて、第1の画像内の基準画像に類似する領域を抽出する領域抽出部と、第1の画像とは異なる時刻に撮像された第2の画像と第1の画像とから、第1の画像内の複数の領域の各々における動きベクトルを算出する動きベクトル算出部と、領域抽出部での抽出結果と動きベクトル算出部での算出結果とに基づいて、第1の画像における被写体追尾の対象領域を決定する制御部と、を備える。さらに、制御部は、領域抽出部によって抽出された基準画像と類似する複数の領域のうち、周囲に動きベクトルの向きが異なる領域が多い領域を被写体追尾の対象領域に決定する
また、撮像された画像内の領域を基準画像として抽出する抽出部を、さらに備えても良い。
また、第2の画像は、第1の画像よりも前に撮像された画像であっても良い。
また、画像の特徴量を算出する特徴量算出部を有し、特徴量算出部は、基準画像及び第1の画像の各々を所定の大きさの領域に分割して、所定の大きさの領域毎に特徴量を算出し、領域抽出部は、特徴量算出部によって算出された、基準画像及び第1の画像それぞれの所定の大きさの領域毎に求めた特徴量に基づいて、基準画像と第1の画像との相関を取り、第1の画像のうち相関の値が相対的に大きい領域を、基準画像に類似する領域として抽出しても良い。
また、動きベクトル算出部は、第1の画像と第2の画像とをそれぞれ複数の領域に分割して、対応する分割された領域毎における相関を取ることによって、第1の画像の複数の領域の各々における動きベクトルを算出しても良い。
また、制御部は、第1の画像の複数の領域の各々における動きベクトルのうち、互いに略同一である複数の動きベクトルを用いて平均動きベクトルを算出して、第2の画像の複数の領域の各々を平均動きベクトル分ずらし、複数の領域毎に第1の画像と第2の画像との差分を求めることによって、被写体追尾の対象領域を決定しても良い。
また、第1の画像及び第2の画それぞれは、連続的に撮像された複数の画像のうちの1つであっても良い。
本発明を例示する撮像装置の一態様は、被写体像を撮像して画像を取得する撮像部と、本発明の被写体追尾装置と、を備える。
本発明によれば、所望の被写体を確度高く追尾することができる。
本発明の一の実施形態に係るデジタルカメラ1の構成例を示す模式図 撮像領域におけるAF領域の配列の一例を示す図 本実施形態に係るデジタルカメラ1の被写体追尾処理のフローチャート 本実施形態における測光センサ10によって撮像された画像における基準画像と類似する領域の位置関係を示す図 画像を小領域毎に分割し各小領域における動きベクトルの算出結果の一例を示す図 算出された動きベクトルが全ての小領域で同じになる場合の一例を示す図
以下、図面を用いて本発明の実施形態について説明する。以下の実施形態では、本発明のカメラの一例として、一眼レフタイプのデジタルカメラを用いて説明する。
図1は、本発明の一の実施形態に係るデジタルカメラ1の構成を示す図である。図1に示すように、デジタルカメラ1は、カメラ本体1aと交換レンズ部1bとから構成される。
交換レンズ部1bは、撮像レンズ2、絞り3、レンズ駆動部4、距離検出部5、絞り制御部6及びレンズ側CPU7からなる。一方、カメラ本体1aは、ペンタプリズム8、再結像レンズ9、測光センサ10、クイックリターンミラー11、サブミラー12、焦点板13、シャッタ14、接眼レンズ15、撮像素子16、画像処理部17、焦点検出部18、本体側CPU19、シャッタ制御部20及び記憶部21からなる。デジタルカメラ1の各構成要素は、交換レンズ部1bのレンズ側CPU7又はカメラ本体1aの本体側CPU19と情報伝達可能に接続される。また、レンズ側CPU7と本体側CPU19とは、接続点を介して接続されている。なお、図1はデジタルカメラ1の主要部分のみを示す。例えば、図1において、本体側CPU19の指令に従って、撮像素子16に撮影指示のタイミングパルスを発するタイミングジェネレータ及び撮像した画像や構図確認用で低解像度画像(スルー画)等を表示する表示部等は省略されている。
撮像レンズ2は、複数の光学レンズにより構成され、被写体からの光束を撮像素子16の受光面に結像する。
測光センサ10は、図1に示すようにクイックリターンミラー11が下がった状態で、焦点板13に結像されるファインダ像の画面を、再結像レンズ9を介して、細かく分割して測光し、画面内の明るさや色等といった測光情報を検出する。本実施形態における測光センサ10には、例えば、1000〜数十万画素を有するものを用いる。また、測光センサ10は、後述する撮像素子16と同じく、CCDやCMOSの半導体のイメージセンサ等を適宜選択して用いることができるとともに、その受光面の前面には、R(赤)、G(緑)、B(青)のカラーフィルタがアレイ状に設けられている。
後述するように、本実施形態の測光センサ10は、対象となる被写体を追尾するための画像を所定のフレームレート(例えば、10fps等)で撮像する。測光センサ10によって撮像された画像データは、A/D変換部(不図示)によってデジタル信号に変換されて画像処理部17に転送される。
焦点検出部18は、例えば、位相差方式による焦点検出を行う。撮像領域内の複数の領域における被写体に対する撮像レンズ2の焦点状態を表すデフォーカス量を出力可能である。ここで、図2(a)は、本実施形態のデジタルカメラ1の撮像領域25における複数のAF領域A11〜A75の配置を示す。各複数のAF領域A11〜A75又はユーザによって指定された1つのAF領域におけるデフォーカス量を検出する。本体側CPU19は、検出したデフォーカス量に基づいて、レンズ側CPU7を介して、レンズ駆動部4や絞り制御部6に、撮像レンズ2及び絞り3をそれぞれ駆動させ、撮像素子16の受光面に被写体を結像させる。本体側CPU19は、その時の焦点距離、被写体までの撮像距離及び絞り値を、レンズ側CPU7を介して、レンズ駆動部4、距離検出部5及び絞り制御部6からそれぞれ取得する。なお、レンズ側CPU7及び本体側CPU19は、一般的なコンピュータのCPUを使用することができる。レンズ側CPU7及び本体側CPU19のそれぞれには、各不図示のメモリが備えられ、各構成要素を制御するためのプログラムがあらかじめ記録されているものとする。
クイックリターンミラー11は、撮影を行わない場合には、図1に示すように、撮影レンズ2の光軸方向に対して45°の角度に配置される。そして、撮影レンズ2および絞り3を通過してきた光束は、クイックリターンミラー11で反射され、焦点板13上にファインダ像が投影される。その投影されたファインダ像は、ペンタプリズム8を介して、測光センサ10及び接眼レンズ15に導かれる。ユーザは、接眼レンズ15を介して被写体の像を目視することにより構図確認を行う。同時に、上述したように、再結像レンズ9を介して、測光センサ10の撮像面上にも再結像される。また、クイックリターンミラー11を透過した一部の光束は、サブミラー12を介して焦点検出部18に導かれる。
一方、撮影時には、本体側CPU19の指示に基づいて、クイックリターンミラー11は撮像レンズ2からの光束の光路から退避して、シャッタ制御部21によってシャッタ14が開放される。そして、撮影レンズ2からの光束は、撮像素子16に導かれる。
撮像素子16は、本体側CPU19の指令を受けて、タイミングジェネレータ(不図示)が発するタイミングパルスに基づいて動作し、前方に設けられた撮像レンズ2によって結像された被写体を撮像する。
一方、デジタルカメラ1のカメラ本体1aには、不図示であるが操作部材が設けられており、ユーザによる部材操作の内容に応じた操作信号を本体側CPU19に出力する。不図示の操作部材には、例えば、電源釦、撮影モード等のモード設定釦及びレリーズ釦等の操作部材を有する。なお、操作部材(不図示)は、液晶画面等の表示部(不図示)の画面の前面に設けられるタッチパネル形式の釦であっても良い。
測光センサ10及び撮像素子16によって撮像された画像のデータは、それぞれのA/D変換部(不図示)によってデジタル信号に変換され、画像処理部17に転送される。画像処理部17は、測光センサ10又は撮像素子16から転送されてきた画像データに対して補間処理やホワイトバランス処理等の画像処理を施して、画像の撮像されている被写体を追尾するために必要となる画像の特徴量を算出する。
本体側CPU19は、画像処理部17によって求められた特徴量に基づいて、被写体を追跡する。なお、本実施形態では、上述したように、本体側CPU19に備えられたメモリ(不図示)に、各構成要素を制御するためのプログラムとともに、画像処理部17によって求められた特徴量に基づいて、被写体を追跡するためのプログラムが、あらかじめ記録されているものとする。また、本実施形態における本体側CPU19に、画像処理部17の画像処理を行わせるようにしても良い。
次に、本実施形態に係るデジタルカメラ1の被写体追尾の処理について、図3のフローチャートを参照しながら説明する。なお、本実施形態では、測光センサ10が連続的に撮像した画像を用いる場合について説明する。
ステップS10:ユーザが操作部材(不図示)のレリーズ釦を一度半押しすると、デジタルカメラ1の電源が入れられて、レンズ側CPU7及び本体側CPU19は、それぞれの不図示のメモリに記憶されている制御プログラムを読み込み、デジタルカメラ1のカメラ本体1a及び交換レンズ部1bをそれぞれ初期化する。同時に、本体側CPU19は、レンズ側CPU7を介して、レンズ駆動部4、距離検出部5及び絞り制御部6から焦点距離、撮像距離及び絞り値をそれぞれ取得するとともに、焦点検出部18から撮像レンズ2の焦点状態を取得する。
ステップS11:ユーザは、接眼レンズ15を介して、電子ビューファインダ(不図示)等で被写体の像を目視して構図確認しながら、操作部材(不図示)の釦操作を行い、焦点を合わせたいAF領域A11〜A75のうちの1つを選択する。例えば、ユーザは、電子ビューファインダ(不図示)等を覗きながら、不図示の操作部材である十字釦等でカーソルを操作することによって、焦点を合わせたいAF領域を決定する。本体側CPU19は、いずれのAF領域が選択されたかの信号を受信する。なお、本実施形態では、AF領域A34が選択されるものとする。ユーザは、操作部材(不図示)のレリーズ釦を半押しする。
ステップS12:本体側CPU19は、ユーザによって操作部材(不図示)のレリーズ釦が半押しされた信号を受信すると、測光センサ10によって最初のフレームの画像30aを撮像する。同時に、本体側CPU19は、焦点検出部18による位相差方式の焦点検出に基づいて、AF領域A34で合焦するように、交換レンズ部1bのレンズ側CPU7を介して、レンズ駆動部4及び絞り制御部6に撮像レンズ2及び絞り3を駆動させて、AF動作を開始させる。なお、焦点検出部18による位相差方式の焦点検出に基づいてAF動作するとしたが、測光センサ10によりコントラスト方式による焦点検出を行っても良く、いずれの方式の焦点検出を用いるかは、ユーザによる操作設定によって、あらかじめ決められていることが好ましい。或いは、デジタルカメラ1は、位相差方式の焦点検出とコントラスト方式の焦点検出とを組み合わせて撮影レンズ2の焦点状態を検出する構成としても良い。
ステップS13:本体側CPU19は、測光センサ10によって撮像された画像30aのデータを、A/D変換部(不図示)でデジタル信号に変換し画像処理部17へ転送する。画像処理部17は、転送されてきた画像30aに対して、補間処理やホワイトバランス処理等の画像処理を行う。
ステップS14:本体側CPU19は、ステップS12で開始したAF動作が完了したか否かを判定する。すなわち焦点検出部18から出力されるAF領域A34に対応するデフォーカス量に基づいて、AF領域A34において合焦したか否かを判定する。本体側CPU19は、AF領域A34において合焦したと判定した場合、ステップS15(YES側)へ移行する。一方、本体側CPU19は、合焦していないと判定した場合、ステップS12(NO側)へ移行して、合焦と判定されるまで、ステップS12〜ステップS13の処理を行う。
ステップS15:本体側CPU19は、測光センサ10によって撮像された画像30aのうち、図4(a)に示すように、被写体追尾の基準となるAF領域A34に対応する部分を中心とした所定の大きさの矩形領域の基準画像40を抽出し、基準画像40として記憶部21に記録する。本体側CPU19は、抽出した基準画像40を画像処理部17へ転送する。画像処理部17は、基準画像40を、例えば3×3の領域に分割し、各領域における色情報RGr(i,j)とBGr(i,j)及び輝度情報LogYr(i,j)の特徴量を、次式(1)及び次式(2)と、領域毎に平均された各カラーフィルタの画素値の平均値R(i,j)、G(i,j)及びB(i,j)とを用いて算出し、記憶部21に画像30a及びそれらの特徴量を記録する。
Figure 0005564987
Figure 0005564987
なお、(i,j)は、各領域の位置を表し、i及びj=0,1,2の数である。また、式(2)の各係数K1、K2及びK3は製造段階までにあらかじめ決定される値である。また、基準画像の大きさは、本体側CPU19の処理能力や要求される追尾精度に応じて適宜設定するのが好ましい。本実施形態においては、例えば、AF領域A34の大きさの3〜5倍くらいの大きさとしている。また、記憶部21には、RAM(Random Access Memory)等の半導体メモリを適宜選択して用いることができる。
ステップS16:本体側CPU19は、測光センサ10に次のフレームの画像30bを撮像させる。
ステップS17:本体側CPU19は、測光センサ10によって撮像された画像30bのデータを、A/D変換部(不図示)でデジタル信号に変換し画像処理部17へ転送する。画像処理部17は、転送されてきた画像データに対して、補間処理やホワイトバランス処理等の画像処理を行う。同時に、画像処理部17は、画像30bを、例えば、基準画像40を3×3の領域に分解した時と同じ大きさの領域に分割して、各領域における色情報RG(x,y)とBG(x,y)及び輝度情報LogY(x,y)の特徴量を、式(1)及び式(2)と領域毎に平均された各カラーフィルタの画素値の平均値R(x,y)、G(x,y)及びB(x,y)とを用いて算出し、記憶部21にそれらの特徴量を記録する。なお、(x,y)は、各領域の位置を表し、x=1,2,…,M−2及びy=1,2,…,N−2(M及びNは、1,2,3,…自然数の自然数)である。
ステップS18:本体側CPU19は、基準画像40の特徴量RGr(i,j)、BGr(i,j)及びLogYr(i,j)と、画像30bのRG(x,y)、BG(x,y)及びLogY(x,y)とを用い、次式(3)による位置(x,y)での特徴量の差分絶対値和Diff(x,y)を算出する。
Figure 0005564987
本体側CPU19は、式(3)で求めた、各位置(x,y)における特徴量の差分絶対値和Diff(x、y)のうち、最も小さい値となった位置の画像30bの領域が、基準画像40との相関が高く類似している領域50と判断する。
ステップS19:本体側CPU19は、ステップS18における相関処理によって、基準画像40と類似する領域50が1つであるか否かを判定する。即ち、ステップS18における相関処理は、矩形領域毎に出力を平均化した値を用いて行っているので、被写体の形状の変化(例えば、人物の姿勢の変化等)に対してはあまり影響を受けない。しかしながら、例えば、図4(b)のような画像30bにおいて、被写体の服の色と背景の色とが似ているために領域60が、領域50とともに類似する領域として判定される等の場合がある。
そこで、本体側CPU19は、類似する領域50が1つであると判定した場合、領域50を被写体追尾の対象領域として、ステップS22(YES側)へ移行する。一方、本体側CPU19は、類似する領域50とともに、1以上の領域60があると判定した場合、ステップS20(NO側)へ移行する。
ステップS20:本体側CPU19は、例えば、図4(b)に示すように、ステップS18において領域50と領域60との2つの領域が抽出された場合において、いずれの領域が基準画像40に類似する領域であるかを決定するために、画像30aとの相関処理に基づいて、画像30bにおける動きベクトルを算出する。具体的には、本体側CPU19は、画像30aと画像30bとを、例えば、図5に示すように、画像30a及び画像30bを複数の小領域70に分割する。本体側CPU19は、画像30aと画像30bとで互いに対応する小領域70毎に、次式(4)による相関処理を行い、各小領域70でのVDiff(u,v)が最小となる(u,v)(動きベクトル)を算出する。なお、小領域70の大きさは、任意の大きさに決めることができ、本実施形態においては、例えば、9×6の領域に分割できる大きさとした。
Figure 0005564987
ここで、Ra(x1,y1)、Ga(x1,y1)及びBa(x1,y1)は画像30aの各カラーフィルタの画素値を表し、Rb(x1,y1)、Gb(x1,y1)及びBb(x1,y1)は画像30bの各カラーフィルタの画素値を表し、(x1,y1)は各画像の画素の位置の座標である。Sは、小領域70を示している。また、式(4)は、各小領域70におけるそれぞれの画素値の差の絶対値和を算出するため、画像30bのように被写体の形状が大きく変化することなく、且つデジタルカメラ1のフレーミングが動いているような場合には、正確に動きベクトルを算出することができる。
ステップS21:本体側CPU19は、ステップS20で算出された、画像30bの各小領域70における動きベクトルに基づいて、領域50と領域60のうち、背景領域であるのはどちらかを判定する処理を行う。この処理は、領域50と略同一の動きを示す領域内の小領域70の数と、領域60と略同一の動きを示す領域内の小領域70の数とを比べた場合に、数が多い方の領域(以下、この領域を「動き同一領域」という)を背景領域であると判定する。以下、その判定について具体的に説明する。
例1の現画像30bは、デジタルカメラ1を動かさない(構図を変えない)状態で、被写体の人物が左へ移動した場合を示す。なお、図5の前の画像30aは図4(a)に対応し、図5の例1の現画像30bは図4(b)に対応する。例1の現画像30bの右図は、式(4)による前の画像30aと例1の現画像30bとの相関処理によって求めた、各小領域70における動きベクトルの算出結果を示す。各小領域70内に記載された矢印は、算出された動きベクトルの方向を示している。矢印が記載されていない小領域70は、動きが非常に小さい(動きベクトル≒0)領域であることを示している。以下の例2の場合も同様である。
例1の場合、被写体の人物を含む領域50では、人物の移動に伴って左方向に向く動きベクトルが算出されている。そして、領域50と隣接する小領域70では、領域50と同様の方向に向く動きベクトルが算出されるが、その隣接する小領域70より領域50から離れた小領域70は、領域50と異なる方向の動きベクトル(動きベクトル≒0の領域)が多くなる。
一方、領域60では、動きベクトル≒0が算出され、領域60の周囲の小領域70でも、領域60と同様の動きベクトル(動きベクトル≒0)が算出されるが、領域60の周辺における領域60と同様の動きベクトルの小領域70の数は、領域50の周辺における領域50と同様の動きベクトルの小領域70の数よりも多い。
以上のように、領域60と同様の動きベクトルの小領域70の方が多いことから、領域60と同様の動きベクトルの小領域70によって形成されている領域が、動き同一領域(すなわち、背景領域)と判定される。その結果、領域60は被写体追尾の対象領域から除外される。
一方、図5の例2の現画像30bは、被写体の人物が動いたので、前の画像と同様の位置に人物像を持ってくるようにデジタルカメラ1を動かした(構図変更した)場合を示す。例2の現画像30bの右図は、式(4)による前の画像30aと例2の現画像30bとの相関処理によって求めた、各小領域70における動きベクトルの算出結果を示す。
例2の場合、被写体の人物を含む領域50は、人物の移動に追従させるようにデジタルカメラ1を動かしたため、動きベクトル≒0が算出されている。そして、領域50と隣接する小領域70では動きベクトル≒0が算出されるが、その隣接する小領域70より領域50から離れた小領域70は、領域50と異なる方向の動きベクトル(右方向に向く動きベクトル)が算出される小領域70が多くなる。
一方、領域60では、デジタルカメラ1を動かした量に応じた右方向に向く動きベクトルが算出されている。そして、領域60の周囲の小領域70でも、領域60と同様の動きベクトルが算出されるが、領域60の周辺における領域60と同様の動きベクトルの小領域70の数は、領域50の周辺における領域50と同様の動きベクトルの小領域70の数よりも多い。
以上のように、領域60と同様の動きベクトルの小領域70の方が多いことから、領域60と同様の動きベクトルの小領域70によって形成されている領域が、動き同一領域(すなわち、背景領域)と判定される。その結果、領域60は被写体追尾の対象領域から除外される。
このような本体側CPU19での判断の結果、ステップS18で基準画像40と相関が高く類似していると判定された領域50及び領域60のうち、領域50が被写体追尾の対象領域であると決定される。
ステップS22:本体側CPU19は、ステップS18の検索結果又はステップS21の決定によって被写体追尾の対象領域とされた領域50に基づいて、焦点を合わせるべきAF領域がAF領域A34から移動すべきか否かを判定する。即ち、図4(b)に示すように、領域50が、左方向に大きくずれた場合には、本体側CPU19は、焦点を合わせるべきAF領域をAF領域A34からAF領域A24へ移動する(図2(b))。そして、本体側CPU19は、位相差方式の焦点検出に基づいて、AF領域A24で合焦するように、交換レンズ部1bのレンズ側CPU7を介して、レンズ駆動部4及び絞り制御部6に撮像レンズ2及び絞り3を駆動させてAF動作させる。同時に、本体側CPU19は、不図示の電子ビューファインダやデジタルカメラ1の背面に設けられる表示部(不図示)に、AF領域が変更されたことを知らせるメッセージ又は記号等を表示して、ユーザに知らせる。また、本体側CPU19は、画像30bを、次のフレームで撮像される画像において、ステップS20で式(4)による相関処理に基づいて動きベクトルを求めるための画像30aとして、記憶部21に記録する。
ステップS23:本体側CPU19は、ユーザによって不図示の操作部材であるレリーズ釦が半押し状態が維持されているか否かを判定する。本体側CPU19は、ユーザがレリーズ釦の半押しを維持している場合、ステップS15(NO側)へ移行し、測光センサ10によって次のフレームの画像を撮像して、ステップS15〜ステップS22の被写体追尾を行う。一方、本体側CPU19は、ユーザによるレリーズ釦の半押し解除の信号、又はユーザによってレリーズ釦が全押しされ本撮像の指示の信号を受信した場合(NO側)、一連の被写体追尾の処理を終了する。
このように本実施形態では、被写体追尾の基準となる領域の画像を基準画像40として抽出し、その基準画像40の特徴量と撮像された画像30bの特徴量とに基づいて、基準画像40に類似する画像30bにおける被写体追尾の対象領域である領域50を検索するとともに、たとえ画像30bにおいて複数の類似する被写体追尾の対象領域が検索されたとしても、画像30bとその画像30bが撮像された直前のフレームの画像30aとの相関処理により動きベクトルを求めることにより、基準画像40に類似し被写体追尾の対象領域を領域50の1つに決定することができ、所望の被写体を確度高く追尾することができる。
また、基準画像40の特徴量と撮像された画像30bの特徴量とに基づいて、基準画像40に類似する画像30bにおける被写体追尾の対象領域である領域50を検索するにあたり、領域毎に平均された各カラーフィルタの画素値の平均値を用いて、式(3)による相関処理を行うために、処理の高速化とともに、大きな記憶部21の記憶容量を必要としないことから、回路規模の小型化を図ることができる。
さらに、画像30bとその画像30bが撮像された直前のフレームの画像30aとの相関処理により動きベクトルを求める際には、画像30a及び画像30bのデータの個々の画素値を用いることから、たとえ追尾対象の被写体の色情報又は輝度情報の特徴量が背景の一部のものと類似していたとしても、類似している背景の一部を誤追尾してしまうということを回避することができる。
≪実施形態の補足事項≫
本実施形態では、ステップS20において、式(4)を用いて求めた動きベクトルに基づいて、動き同一領域は背景領域であると推定できる。しかしながら、追尾対象の被写体が静止している、デジタルカメラ1が三脚等に固定されている、デジタルカメラ1のフレーミングを変えている、或いは、特徴的な構造のない被写体(例えば、空など)を撮像する等の場合には、図6に示すように、ステップS21において、本体側CPU19は、画像30b全体が動き同一領域であると判定する。そこで、このような場合には、画像30bの直前のフレームで撮像された画像30aにおける被写体追尾の対象領域である領域50を、画像30bの被写体追尾の対象領域として用いても良い。
また、全て又は大部分の小領域70が動き同一領域である場合、本体側CPU19は、動き同一領域である小領域70全ての動きベクトルを用いて平均動きベクトルを求め、画像30aをその平均動きベクトル分ずらして、小領域70毎に画像30bの各画素値との差の絶対値和を算出する。そして、本体側CPU19は、その各小領域70の差の絶対値和のうち、所定値より大きい小領域70を被写体が背景に対して動いている領域、及び所定値以下の小領域70を背景領域である動き同一領域と推定することで、ステップS17で求めた特徴量の差分絶対値和Diff(x,y)の値と併せて、被写体追尾の対象領域である領域50を決定しても良い。
なお、本実施形態では、図2(a)及び(b)に示すように、デジタルカメラ1の撮像領域25にマトリックス状にAF領域が配列されていたが、二次元状に任意の配列で分布させても良い。
なお、本実施形態では、焦点を合わせたいAF領域を、ユーザが電子ビューファインダ等を覗きながら、不図示の操作部材である十字釦等でカーソルを操作して焦点を合わせたいAF領域を決定するとしたが、次のようにしても良い。例えば、あらかじめユーザによって指定されていても良いし、表示部(不図示)の前面に設けられるタッチパネルを、ユーザが触れることによってAF領域が指定されるようにしても良い。
なお、本実施形態では、ステップS14において、本体側CPU19が選択されたAF領域において合焦したと判定した場合、ステップS15以降の処理を行うとしたが、次のようにしても良い。例えば、不図示の操作部材は追尾開始釦を備え、ユーザが、選択したAF領域で被写体を捉えたと判断した場合、その追尾開始釦を押すことにより、ステップS15以降の処理が行われるようにしても良い。或いは、ユーザが、選択したAF領域で合焦したと判断した場合、再度レリーズ釦を半押しすることによって、ステップS15以降の処理が行われるようにしても良い。
なお、本実施形態では、被写体追尾を測光センサ10によって撮像された画像に基づいて行ったが、次のようにしても良い。例えば、撮像素子16によるスルー画を用いて行われても良い。この場合、ユーザが操作部材(不図示)のレリーズ釦を半押しすると、本体側CPU19の指示に基づいて、クイックリターンミラー11を撮像レンズ2からの光束の光路から退避し、シャッタ制御部21によってシャッタ14を開放され、撮影レンズ2からの光束が撮像素子16に導かれることで、所定のフレームレート(例えば、30fps)によるスルー画の撮像が開始するように設定されるのが好ましい。
なお、本実施形態では、基準画像40の大きさを、AF領域の大きさの3〜5倍等としたが、例えば、次のように、本体側CPU19や画像処理部17の処理能力や求められる精度に応じて、任意の大きさで基準画像40を抽出しても良い。
なお、本実施形態では、基準画像40を、3×3の領域に分割して、各領域における色情報RGr(i,j)とBGr(i,j)及び輝度情報LogYr(i,j)の特徴量を求めたが、例えば、次のように、2×2や4×4等の領域に分割して、各領域についてそれらの特徴量を求めても良い。
なお、本実施形態では、画像30aと画像30bとの相関処理によって動きベクトルを求めるにあたり、図5に示すように、画像30a及び画像30bそれぞれを9×6の小領域70に分割したが、例えば、次のように、20×15や30×20等の小領域70に分割して、各小領域70の動きベクトルを求めても良い。
なお、本実施形態では、ステップS20において、画像30a及び画像30bを分割した全ての小領域70毎に動きベクトルを算出したが、次のように行っても良い。例えば、全ての小領域70についてではなく、例えば、1つおき等の一部の小領域70についての動きベクトルのみを算出しても良い。これにより、動きベクトルを算出するための本体側CPU19の演算負荷を小さくすることができるとともに、処理の高速化を図ることができる。
なお、本発明は、その精神又はその主要な特徴から逸脱することなく他の様々な形で実施することができる。そのため、上述した実施形態はあらゆる点で単なる例示にすぎず、限定的に解釈されてはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内である。
1 デジタルカメラ、1a カメラ本体、1b 交換レンズ部1b、2 撮像レンズ、3絞り、4 レンズ駆動部、5 距離検出部、6 絞り制御部、7 レンズ側CPU、8 ペンタプリズム、9 再結像レンズ、10 測光センサ、11 クイックリターンミラー、12 サブミラー、13 焦点板、14 シャッタ、15 接眼レンズ、16 撮像素子、17 画像処理部、18 焦点検出部、19 本体側CPU、20 シャッタ制御部、21 記憶部

Claims (11)

  1. 撮像された第1の画像と設定された基準画像とのそれぞれの特徴量に基づいて、前記第1の画像内の前記基準画像に類似する領域を抽出する領域抽出部と、
    前記第1の画像とは異なる時刻に撮像された第2の画像と前記第1の画像とから、前記第1の画像内の複数の領域の各々における動きベクトルを算出する動きベクトル算出部と、
    前記領域抽出部での抽出結果と前記動きベクトル算出部での算出結果とに基づいて、前記第1の画像における被写体追尾の対象領域を決定する制御部と、を備え、
    前記制御部は、
    前記領域抽出部によって抽出された前記基準画像と類似する複数の領域から、前記動きベクトル算出部による前記第1の画像の複数の領域の各々における動きベクトルに基づいて、前記被写体追尾の対象領域から除外する領域を決定する
    とを特徴とする被写体追尾装置。
  2. 請求項1に記載の被写体追尾装置において、
    前記制御部は、
    前記領域抽出部によって抽出された前記基準画像と類似する複数の領域のうち周囲に動きベクトルの向きが略同一の領域が多い領域を前記被写体追尾の対象領域から除外する領域する
    ことを特徴とする被写体追尾装置。
  3. 請求項2に記載の被写体追尾装置において、
    前記制御部は、
    前記被写体追尾の対象領域から除外する領域がないと判断した場合は、前記第1の画像より前に撮像された画像における前記被写体追尾の対象領域と同一の位置にある領域を前記被写体追尾の対象領域として決定する
    ことを特徴とする被写体追尾装置。
  4. 撮像された第1の画像と設定された基準画像とのそれぞれの特徴量に基づいて、前記第1の画像内の前記基準画像に類似する領域を抽出する領域抽出部と、
    前記第1の画像とは異なる時刻に撮像された第2の画像と前記第1の画像とから、前記第1の画像内の複数の領域の各々における動きベクトルを算出する動きベクトル算出部と、
    前記領域抽出部での抽出結果と前記動きベクトル算出部での算出結果とに基づいて、前記第1の画像における被写体追尾の対象領域を決定する制御部と、を備え、
    前記制御部は、
    前記領域抽出部によって抽出された前記基準画像と類似する複数の領域のうち、周囲に動きベクトルの向きが異なる領域が多い領域前記被写体追尾の対象領域決定する
    ことを特徴とする被写体追尾装置。
  5. 請求項1ないし請求項4のいずれか1項に記載の被写体追尾装置において、
    撮像された画像内の領域を前記基準画像として抽出する抽出部を、さらに備え
    ことを特徴とする被写体追尾装置。
  6. 請求項1ないし請求項5のいずれか1項に記載の被写体追尾装置において、
    前記第2の画像は、前記第1の画像よりも前に撮像された画像であ
    ことを特徴とする被写体追尾装置。
  7. 請求項1ないし請求項6のいずれか1項に記載の被写体追尾装置において、
    画像の特徴量を算出する特徴量算出部を有し、
    前記特徴量算出部は、前記基準画像及び前記第1の画像の各々を所定の大きさの領域に分割して、前記所定の大きさの領域毎に前記特徴量を算出し、
    前記領域抽出部は、前記特徴量算出部によって算出された、前記基準画像及び前記第1の画像それぞれの前記所定の大きさの領域毎に求めた前記特徴量に基づいて、前記基準画像と前記第1の画像との相関を取り、前記第1の画像のうち前記相関の値が相対的に大きい領域を、前記基準画像に類似する領域として抽出す
    ことを特徴とする被写体追尾装置。
  8. 請求項1ないし請求項7のいずれか1項に記載の被写体追尾装置において、
    前記動きベクトル算出部は、前記第1の画像と前記第2の画像とをそれぞれ前記複数の領域に分割して、対応する分割された前記領域毎における相関を取ることによって、前記第1の画像の複数の領域の各々における動きベクトルを算出する
    ことを特徴とする被写体追尾装置。
  9. 請求項1ないし請求項8のいずれか1項に記載の被写体追尾装置において、
    前記制御部は
    記第1の画像の複数の領域の各々における動きベクトルのうち、互いに略同一である複数の前記動きベクトルを用いて平均動きベクトルを算出して、前記第2の画像前記複数の領域の各々を前記平均動きベクトル分ずらし前記複数の領域毎に前記第1の画像と前記第2の画像との差分を求めることによって、前記被写体追尾の対象領域を決定する
    ことを特徴とする被写体追尾装置。
  10. 請求項1ないし請求項9のいずれか1項に記載の被写体追尾装置において
    前記第1の画像及び前記第2の画像それぞれは、連続的に撮像された複数の画像のうちの1つであ
    ことを特徴とする被写体追尾装置。
  11. 被写体像を撮像して画像を取得する撮像部と、
    請求項1ないし請求項10のいずれか1項に記載の被写体追尾装置と、
    を備えることを特徴とする撮像装置。
JP2010042438A 2009-02-26 2010-02-26 被写体追尾装置及び撮像装置 Active JP5564987B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010042438A JP5564987B2 (ja) 2009-02-26 2010-02-26 被写体追尾装置及び撮像装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009044391 2009-02-26
JP2009044391 2009-02-26
JP2010042438A JP5564987B2 (ja) 2009-02-26 2010-02-26 被写体追尾装置及び撮像装置

Publications (2)

Publication Number Publication Date
JP2010226709A JP2010226709A (ja) 2010-10-07
JP5564987B2 true JP5564987B2 (ja) 2014-08-06

Family

ID=42730732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010042438A Active JP5564987B2 (ja) 2009-02-26 2010-02-26 被写体追尾装置及び撮像装置

Country Status (2)

Country Link
US (1) US8605942B2 (ja)
JP (1) JP5564987B2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5347834B2 (ja) * 2009-08-25 2013-11-20 株式会社ニコン 画像追尾装置
US20110299737A1 (en) * 2010-06-04 2011-12-08 Acer Incorporated Vision-based hand movement recognition system and method thereof
KR101710624B1 (ko) * 2010-07-27 2017-02-27 삼성전자주식회사 객체의 모션 벡터를 이용하여 자동 촬영 기능을 수행하는 디지털 영상 촬영 방법, 디지털 영상 촬영 장치 및 상기 방법을 기록한 기록 매체
JP5616743B2 (ja) * 2010-10-12 2014-10-29 オリンパスイメージング株式会社 撮像装置および画像処理方法
JP5569357B2 (ja) * 2010-11-19 2014-08-13 富士通株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2013020527A (ja) * 2011-07-13 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
JP5375897B2 (ja) * 2011-08-25 2013-12-25 カシオ計算機株式会社 画像生成方法、画像生成装置及びプログラム
JP5930683B2 (ja) * 2011-12-01 2016-06-08 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US9236024B2 (en) 2011-12-06 2016-01-12 Glasses.Com Inc. Systems and methods for obtaining a pupillary distance measurement using a mobile computing device
US9286715B2 (en) 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
US9311746B2 (en) 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9483853B2 (en) 2012-05-23 2016-11-01 Glasses.Com Inc. Systems and methods to display rendered images
CN104641275B (zh) * 2012-09-11 2017-12-12 索尼公司 成像控制装置、成像设备和成像控制装置执行的控制方法
US9160942B2 (en) * 2013-07-11 2015-10-13 Canon Kabushiki Kaisha Solid-state imaging sensor, ranging device, and imaging apparatus
IN2015CH03209A (ja) * 2015-06-25 2015-07-10 Wipro Ltd
WO2017110260A1 (ja) 2015-12-22 2017-06-29 富士フイルム株式会社 合焦制御装置、撮像装置、合焦制御方法、及び、合焦制御プログラム
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
JP6995618B2 (ja) * 2017-12-28 2022-01-14 キヤノン株式会社 撮像装置、レンズ装置およびこれらの制御方法
JP6922951B2 (ja) * 2019-08-09 2021-08-18 フジテック株式会社 画像処理装置および画像処理方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3227478B2 (ja) * 1995-05-17 2001-11-12 シャープ株式会社 静止画撮像装置
US5717463A (en) * 1995-07-24 1998-02-10 Motorola, Inc. Method and system for estimating motion within a video sequence
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
TR199700058A3 (tr) * 1997-01-29 1998-08-21 Onural Levent Kurallara dayali hareketli nesne bölütlemesi.
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
US6233007B1 (en) * 1998-06-22 2001-05-15 Lucent Technologies Inc. Method and apparatus for tracking position of a ball in real time
US6711278B1 (en) * 1998-09-10 2004-03-23 Microsoft Corporation Tracking semantic objects in vector image sequences
EP0991011B1 (en) * 1998-09-28 2007-07-25 Matsushita Electric Industrial Co., Ltd. Method and device for segmenting hand gestures
US6766037B1 (en) * 1998-10-02 2004-07-20 Canon Kabushiki Kaisha Segmenting moving objects and determining their motion
JP3657463B2 (ja) * 1999-06-29 2005-06-08 シャープ株式会社 動作認識システムおよび動作認識プログラムを記録した記録媒体
US6424370B1 (en) * 1999-10-08 2002-07-23 Texas Instruments Incorporated Motion based event detection system and method
US6584213B2 (en) * 2001-07-23 2003-06-24 Pulsent Corporation Motion matching method
US7362374B2 (en) * 2002-08-30 2008-04-22 Altera Corporation Video interlacing using object motion estimation
JP4373840B2 (ja) 2004-04-21 2009-11-25 日本電信電話株式会社 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JP4578864B2 (ja) * 2004-06-03 2010-11-10 パナソニック株式会社 自動追尾装置及び自動追尾方法
JP3987057B2 (ja) * 2004-06-14 2007-10-03 本田技研工業株式会社 車両周辺監視装置
JP2009508450A (ja) * 2005-09-13 2009-02-26 ヴェリフィコン コーポレーション 物体のトラッキングおよび活動分析のためのシステムおよび方法
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
DE102006053286A1 (de) * 2006-11-13 2008-05-15 Robert Bosch Gmbh Verfahren zur Detektion von bewegungsauffälligen Bildbereichen, Vorrichtung sowie Computerprogramm zur Durchführung des Verfahrens
JP2010009134A (ja) * 2008-06-24 2010-01-14 Sony Corp 画像処理システム及び画像処理方法、並びに、プログラム
JP4542207B1 (ja) * 2009-01-09 2010-09-08 パナソニック株式会社 移動体検出方法および移動体検出装置

Also Published As

Publication number Publication date
US8605942B2 (en) 2013-12-10
US20100232646A1 (en) 2010-09-16
JP2010226709A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
JP5564987B2 (ja) 被写体追尾装置及び撮像装置
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
JP4894661B2 (ja) 撮像装置
JP5843486B2 (ja) 撮像装置およびその制御方法
JP5950664B2 (ja) 撮像装置およびその制御方法
JP2009017155A (ja) 画像認識装置、焦点調節装置および撮像装置
JP2010045625A (ja) 撮像装置
JP2017138379A (ja) 像振れ補正装置およびその制御方法、撮像装置、プログラム、記憶媒体
JP2019186911A (ja) 画像処理装置および画像処理方法、ならびに撮像装置
JP6076106B2 (ja) 撮像装置及び撮像方法
JP4888249B2 (ja) 焦点検出装置および撮像装置
JP2012208507A (ja) 画像追尾装置
JP5800600B2 (ja) 撮像装置、撮像方法およびプログラム
JP4935380B2 (ja) 画像追尾装置および撮像装置
JP5070856B2 (ja) 撮像装置
JP2019087923A (ja) 撮像装置、撮像方法およびプログラム
JP6590899B2 (ja) 撮像装置、撮像方法およびプログラム
JP5446660B2 (ja) 画像認識装置、および、撮像装置
JP2009017093A (ja) 画像認識装置、焦点調節装置および撮像装置
JP5573311B2 (ja) カメラ
JP5447579B2 (ja) 追尾装置、焦点調節装置および撮影装置
JP7022534B2 (ja) 画像処理装置および画像処理方法
JP2023086270A (ja) 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
JP5360191B2 (ja) 撮像装置
JP2015204579A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140602

R150 Certificate of patent or registration of utility model

Ref document number: 5564987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250