JP6991746B2 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP6991746B2
JP6991746B2 JP2017113870A JP2017113870A JP6991746B2 JP 6991746 B2 JP6991746 B2 JP 6991746B2 JP 2017113870 A JP2017113870 A JP 2017113870A JP 2017113870 A JP2017113870 A JP 2017113870A JP 6991746 B2 JP6991746 B2 JP 6991746B2
Authority
JP
Japan
Prior art keywords
region
frame image
moving object
line
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017113870A
Other languages
English (en)
Other versions
JP2018205648A (ja
JP2018205648A5 (ja
Inventor
潔 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017113870A priority Critical patent/JP6991746B2/ja
Publication of JP2018205648A publication Critical patent/JP2018205648A/ja
Publication of JP2018205648A5 publication Critical patent/JP2018205648A5/ja
Application granted granted Critical
Publication of JP6991746B2 publication Critical patent/JP6991746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、動きのある物体(以下、動体と呼ぶ)を被写体として撮影する撮像装置に関し、特に視線入力情報を用いたオートフォーカスに関する。
動画撮影やライブビューにおいて、画像から得られる特徴量によって動体を被写体として追尾する際、人物の顔など識別しやすい領域が検出できない場合の動体の被写体認識には様々な方法がある。その方法は、大体において、ユーザーに指定された被写体領域にある色・輝度などの画像的特徴量の配置パターンを記憶しておき、フレーム画像間で配置パターンの変化量が少ない領域を被写体領域として識別している。
従来、動体の追尾においては光源や被写体のサイズが刻々と移り変わるため、画像的特徴量の配置パターンも新しいフレーム画像を得るたびに更新が必要となり、徐々に被写体認識領域と実際の被写体の位置がずれてしまうという問題があった。被写体認識領域がずれてしまう理由を、図2を用いて説明する。
図2の201、202、203、204は動画やライブビューのフレーム画像である。フレーム画像201の点線の枠221はカメラが動きのある被写体として識別している領域、すなわち被写体認識領域を示している。ユーザーは画面をタッチするなどして被写体212が追尾対象の被写体であることをカメラに指示し、被写体を画面内に収めながら動画を撮影する。動体を被写体として追尾しはじめた直後は、被写体認識領域221と被写体212の位置は一致している。
フレーム画像202では、被写体212が移動して、被写体認識において追尾の基準としている物体の大きさ、色・輝度の配置パターンがよく似た背景物体231と重なっている。被写体認識においては、背景と被写体の区別がつかないため、点線の楕円で示す領域251部分は被写体の一部として認識し、次フレームで被写体認識に用いる特徴量の配置パターンに背景が含まれてしまう。
フレーム画像203では、被写体212が更に移動して背景物体231を追い越そうとしているが、被写体212と背景物体231が被写体認識において同化してしまう領域252に引きずられて実際の被写体の位置からずれてしまう。
フレーム画像204では被写体212と背景物体231は重なっていないが、追尾対象の画像的特徴量の配置パターンは更新されているため、被写体認識領域224は実際の被写体212の位置からずれたままになってしまう。
このように、被写体認識に用いている動体の大きさ・色・輝度といった画像的特徴量の配置パターンが更新されていくことで、被写体認識領域は実際の被写体からずれてしまうことになる。
動きのある被写体を追尾するため、特許文献1には、視線検出を用いて主被写体をフォーカスし、さらに、まばたきした時など視線検出できない状況ではこれまでの視線入力から推定される追尾位置の情報を用いて主被写体追尾を行う発明が開示されている。
特許文献2には、視線入力による被写体認識位置と、光の強度分布などで得られた追尾位置とを比較して、撮影者が被写体を変更したか否かを判定する発明が開示されている。
特開平5-232374号公報 特開平5-53043号公報
しかしながら、上述の特許文献1に開示された従来技術では、視線検出できた場合必ず視線位置にフォーカスしてしまうため、ユーザーがなにかに気を取られてよそ見をした場合、意図せず追尾対象が切り替わってしまうという問題があった。
特許文献2で開示された従来技術では、視線入力による被写体認識位置と、光の強度分布などで得られた追尾位置を比較して、撮影者が被写体を変更したか否かを判定する処理が追加されているが、被写体の位置予測の補正については考慮されていないという問題があった。
そこで、本発明の目的は、視線入力情報を用いて動きのある被写体を追尾する際、ユーザーがよそ見をしても追尾対象の被写体が不本意に切り替わることがなく、また、被写体認識位置のずれを自動的に補正するカメラを提供することにある。
上記の目的を達成するために、本発明に係る画像処理装置は、撮像データに基づく複数のフレーム画像を取得する取得手段と、視線入力情報を取得する視線入力手段と、前記視線入力情報から前記複数のフレーム画像内の注目領域を決定する注目領域決定手段と、前記複数のフレーム画像内で、動体に対応する動体領域を検出する動体検出手段と、前記フレーム画像と、該フレーム画像内の前記注目領域と、該フレーム画像内の前記動体領域とを表示部に表示する表示制御手段と、前記注目領域と前記動体領域の位置を記憶する記憶手段と、前記動体検出手段により検出された前記動体領域と前記注目領域とに基づく領域を主被写体領域として決定し、該主被写体領域を追尾する追尾手段とを備え、前記追尾手段は、第一のフレーム画像における前記動体領域が予め定めたサイズよりも大きい場合、前記記憶手段に記憶された前記第一のフレーム画像における前記動体領域と前記注目領域の位置関係と、前記第一のフレーム画像とは異なる第二のフレーム画像における前記動体領域と前記注目領域の位置関係との変化に基づいて前記第二のフレーム画像における該主被写体領域を決定し、前記第一のフレーム画像における前記動体領域が予め定めたサイズ以下の場合、前記第二フレーム画像における前記動体領域を該主被写体領域として決定することを特徴とする。
また、本発明に係る画像処理装置の制御方法は、撮像データに基づく複数のフレーム画像を取得する取得ステップと、視線入力情報を取得する視線入力ステップと、前記視線入力情報から前記複数のフレーム画像内の注目領域を決定する注目領域決定ステップと、前記複数のフレーム画像内で、動体に対応する動体領域を検出する動体検出ステップと、前記フレーム画像と、該フレーム画像内の前記注目領域と、該フレーム画像内の前記動体領域とを表示部に表示する表示制御ステップと、前記注目領域と前記動体領域の位置を記憶する記憶ステップと、前記動体検出手段により検出された前記動体領域と前記注目領域とに基づく領域を主被写体領域として決定し、該主被写体領域を追尾する追尾ステップとを備え、前記追尾ステップは、第一のフレーム画像における前記動体領域が予め定めたサイズよりも大きい場合、前記記憶手段に記憶された前記第一のフレーム画像における前記動体領域と前記注目領域の位置関係と、前記第一のフレーム画像とは異なる第二のフレーム画像における前記動体領域と前記注目領域の位置関係との変化に基づいて前記第二のフレーム画像における該主被写体領域を決定し、前記第一のフレーム画像における前記動体領域が予め定めたサイズ以下の場合、前記第二フレーム画像における前記動体領域を該主被写体領域として決定することを特徴とする。
本発明によれば、動きのある被写体の追尾は画像認識を用いて行い、視線入力を用いて継続して被写体認識位置のズレを補正するため、追従性が良く、意図しない追尾対象の変更を防ぐカメラを提供することができる。
ハードウェア構成図 従来の問題現象を説明する図 実施例1の動作を説明する図 実施例1の動作を説明する図 実施例1の動作を説明する図 注目領域算出を説明する図 実施例1の処理を説明するフローチャート 実施例1の処理を説明するフローチャート 実施例1の処理を説明するフローチャート 実施例2の動作を説明する図
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわるハードウェア構成図である。
以下、図1を参照して、本発明の第1の実施例による、ハードウェア構成について説明する。図1は視線入力機能を備えるカメラ100のハードウェア構成図である。
制御部101は中央演算処理装置で、制御部101のプログラムを格納しているROM109、および、制御部101が動作中の様々なデータを保持するRAM110を内蔵している。
撮像部105は不図示の撮像素子や撮像データを一時的に保存するバッファなどで構成される。ユーザーが操作部113を操作することで制御部101がシャッター103を動作させると、レンズ102から入力された光束を撮像部105で受光し撮像データを生成する。撮像部105は撮像データの生成が完了すると、撮像データを生成したことを制御部101に通知する。
制御部101は、撮像部105から撮像データ生成の通知を受けて、撮像部105から撮像データを取得してRAM110に記録する。制御部101はRAM110に記録した撮像データをJPEG(Joint Photographic Experts Group)等の形式に加工した後、ファイルとして記憶媒体107に記録する。
また、ユーザーが操作部113を操作することによって画像ファイルの表示を指示されると、制御部101は、記憶媒体107に記録されたファイルを読み出して表示部106に表示する。制御部101は画像ファイルを表示する際、必要があれば関連付けられたデータファイルなどを記憶媒体107から読み出して利用する。
視線検出部104はユーザーの視線方向を一定周期で検出し、視線検出部が内蔵する不図示のCCD上の座標を出力する機能をもつ。ユーザーが操作部113を操作して視線入力を必要とするモードに切り替えた場合、制御部101は視線検出部104を制御して撮影者の視線検出を開始する。視線検出部から得たCCD上の座標を撮像面上の座標に変換し、視線入力情報としてRAM110に連続的に記録する。
以下、図5のフローと、図3を参照して実施例1の動作の説明を行う。
図3(a)の301、302、303、304は制御部101が表示部106に表示させる動画またはライブビューのフレーム画像である。制御部101がフレーム画像301を表示部106に表示させた時点では、制御部101はまだオートフォーカスで追尾する主被写体を決定していない状態である。この状態から、追尾する被写体を決定する処理を図5(a)のフローに沿って説明する。
制御部101が表示部106にフレーム画像301を表示するまでの間、制御部101は視線検出部104から単一乃至複数の視線入力情報を取得し、RAM110に蓄積する(S501、S502)。フレーム画像を更新するタイミングで、制御部101は撮像部105から新しいフレーム画像301を取得し、表示部106に表示する。(S503)。
制御部101はフレーム画像301を表示するタイミングまでRAM110に蓄積した視線入力情報を基にユーザーの注目領域308を算出する(S504)。制御部101はRAM110に記憶しておいた一つ前のフレーム画像とフレーム画像301を比較し、画像内の特徴量の配置の推移から画像内の動体領域305、306、307を検出する(S505)。動体領域306の重心位置と注目領域308の重心位置の距離が閾値2より小さい場合(S506)、制御部101はRAM110上に保持するカウンタをインクリメントする(S507)。制御部101は動体領域306のように注目領域308に近傍する動体領域が検出されない場合(S506)はRAM110上に保持するカウンタをクリア(S508)して次のステップにすすむ。
フレーム画像302、303、304のように、同じ動体領域306が注目領域308と近傍する回数が既定の回数以上になった場合(S509)、制御部101は動体領域を主被写体領域310として追尾を開始する(S510)。また、次フレーム画像における動体検出のために、主被写体領域の画像の特徴量の配置パターンをRAM110に記憶し(S511)、主被写体領域の位置ズレの補正に利用するため主被写体領域の重心位置と注目領域308の重心位置をRAM110に記憶する(S512)。
次に、図3(b)を用いて被写体領域のズレを補正する処理を図5(b)のフローに沿って説明する。
図3(b)は制御部101が既に一つの動体を主被写体として追尾中の状態である。
図3(b)の311、312、313、314は動画またはライブビューのフレーム画像である。
フレーム画像311において、視線入力情報から算出した注目領域の重心位置は331、フレーム画像間の特徴量の推移から算出した動体領域である現主被写体領域は315、主被写体領域315の重心位置を321で示している。ユーザーは動きのある被写体を撮影しており背景が移り変わる状況で、主被写体を構成する画像の特徴量の配置パターンがよく似た背景物325が写りこんでいる。
表示部106にフレーム画像311を表示してから、フレーム画像312を表示するまでの間、制御部101は視線検出部104から単一乃至複数の視線入力情報を取得し、RAM110に蓄積する(S513、S514)。フレーム画像を更新するタイミングで、制御部101は撮像部105から新しいフレーム画像312を取得し、表示部106に表示する(S515)。また、制御部101はRAM110に蓄積した視線入力情報からユーザーの注目領域を算出する(S516)。
制御部101は、フレーム画像311とフレーム画像312の特徴量の配置パターンの推移から、フレーム画像312上の主被写体領域316を検出する(S517)。フレーム画像312では主被写体と背景物325が重なっているため、制御部101で実施する動体検出において主被写体領域316は背景物325に引きずられて位置と大きさにズレが生じており、記憶する特徴量の配置パターンにも歪みが生じている。しかしこの時点では注目領域の重心位置332と主被写体領域322の重心位置の距離は閾値1以上離れていない、すなわち大きくずれてはいないため、制御部101は注目領域の補正は行わない(S518)。
フレーム画像313では、被写体と背景物325が重なっており、注目領域の重心位置333と主被写体領域317の重心位置323が既定の距離を超えてずれている。そのため(S518)、制御部101は図3(a)のS512でRAM110に記憶した注目領域の重心位置と主被写体領域の重心位置の位置関係を崩さないように主被写体領域の位置を318の位置に補正する(S519)。補正後の主被写体領域318を基に、制御部101は主被写体の特徴量の配置パターンをRAM110に記憶して(S520)次のフレーム画像取得に向けて視線検出部104からの視線入力情報取得とRAM110への蓄積を再開する(S513)。
次に、図3(c)を用いて主被写体を変更する処理を図5(c)のフローに沿って説明する。
図3(c)の340、341、342、343はフレーム画像である。フレーム画像340において、現在の主被写体領域は345であるが、ユーザーは動体360に視線を移している状況となっている。
撮像部105からフレーム画像340を取得した後、フレーム画像341を取得するまでの間制御部101は視線検出部104から視線入力情報を取得しRAM110に蓄積する(S521、S522)。
フレーム画像更新タイミングが来た時(S522)、制御部101は撮像部105からフレーム画像341を取得して表示部106に表示する(S523)。制御部101は、RAM110に蓄積した視線入力情報からフレーム画像341上のユーザーの注目領域を算出する(S524)。
フレーム画像340とフレーム画像341の特徴量の配置パターンの推移から、制御部101は画像内の動体領域を検出する(S525)。この時、制御部101は注目領域の重心位置361と現在の主被写体領域の重心位置349の距離を算出する。主被写体領域より注目領域に近傍する別の動体領域350の重心位置351と注目領域の重心位置が閾値2で示す距離より近い場合(S526)、制御部101はRAM110上のカウンタをインクリメントする(S528)。それ以外の場合はRAM110上のカウンタをクリアし(S527)、RAM上に記録していた主被写体の特徴量の配置パターンを更新する(S532)。
続いてフレーム画像342、フレーム画像343と表示を更新(S523)した時、カウンタが既定の回数を超えたため(S529)、制御部101はユーザーが主被写体を切り替えたとみなし、動体領域350を主被写体領域348として追尾を開始する(S530)。また、制御部101はRAM上に記憶していた主被写体領域と注目領域の位置関係を更新する(S531)。続いて制御部101は主被写体の特徴量の配置パターンをRAM110に記憶し(S532)、次のフレーム画像取得に向けて視線検出部104から取得した視線入力情報をRAM110に蓄積する(S521)。
続いて、図4を用いてフレーム画像毎に蓄積した視線入力情報から注目領域を算出する方法について説明する。
制御部101は、撮影部105からフレーム画像401を取得するまでの間、視線検出部104から視線入力情報を複数回取得する。図4における403のような黒い点は一つ一つが視線入力された位置をフレーム画像に重ねて表示したものである。
この実施例では、フレーム画像のどこに視線が集中しているかを判定するため、フレーム画像のピクセルの集合を等間隔のブロックで分割し、ブロック内に含まれる視線入力の個数をカウントする。図中410は、視線入力カウント数の上位3ブロックを斜線で表したものである。ユーザーの視線はこれらのブロックに集中しているため、ここを注目領域とみることができる。また、注目領域の重心位置は、注目領域に含まれるブロックの中心座標の平均によって求めることができる。
この例のように、注目領域を直接オートフォーカスの追尾領域にするのではなく、動体領域として検出した領域の補正のために注目領域を用いることで、ユーザーがよそ見をした時に追尾位置が過剰に反応してしまう問題を解決することができる。
また、フレーム画像間の画像の特徴量の配置パターンの推移から動体を検出する場合、光源の位置や光の強度が刻々と変化するため特徴量である色・輝度といった情報にはある程度の幅を持たせる必要がある。そのため、背景と近似している領域は動体領域として認識できない場合がある。注目領域と主被写体領域の位置関係を維持するように動体領域を補正することでこの問題を解決することができる。
主被写体領域が大きい場合、動体領域全体を追尾対象とするとフォーカシングが不十分となる。このような場合の被写体追尾について図6を用いて説明する。
フレーム画像601において、点線の矩形602は検出された動体領域を表している。その動体領域において注目領域は点線の矩形603に集中している。黒点610が注目領域の重心位置、黒点620が動体領域の重心位置である。
動体領域が一定のサイズを超える場合、動体の重心位置でフォーカスを合わせてしてしまうとピントが甘くなってしまう可能性があるため、追尾する領域は注目領域であることが望ましい。しかし、注目領域をそのまま追尾対象領域とすると、ユーザーがよそ見をした時に敏感に反応しすぎてしまう。
よって、動体領域が一定サイズを超える場合、制御部101は動体領域602を主被写体領域と決定した時にRAM110に記憶した動体領域と注目領域の重心位置(620、610)の位置関係と、現在の主被写体領域と注目領域の重心位置の位置関係を比較する。被写体領域の重心位置620から見た注目領域の重心位置610の距離と方向が、主被写体領域決定時のものと比較してそれぞれ既定の範囲内に収まっている場合、制御部101は注目領域603でフォーカシングを行う。また、制御部101は、RAM110記憶していた主被写体領域と注目領域の重心位置の位置関係を最新のものに更新する。被写体領域の重心位置620から見た注目領域の重心位置610の距離と方向が、主被写体領域決定時のものと比較して既定の範囲外の場合、制御部101は主被写体領域の重心位置620からの相対位置に正しい主被写体領域があるものとしてフォーカシングを行う。
このように、主被写体である動体が大きな場合は、主被写体領域を決定した時の位置関係を利用して動体の位置から追尾位置を決定することで、ユーザーがよそ見をした時に追尾位置が過剰に反応してしまう問題を解決することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 カメラ、101 制御部、102 レンズ、103 シャッター、
104 視線検出部、105 撮像部、106 表示部、107 記憶媒体、
109 制御部101が内蔵するROM、
110 制御部101が内蔵するRAM、113 操作部

Claims (9)

  1. 撮像データに基づく複数のフレーム画像を取得する取得手段と、
    視線入力情報を取得する視線入力手段と、
    前記視線入力情報から前記複数のフレーム画像内の注目領域を決定する注目領域決定手段と、
    前記複数のフレーム画像内で、動体に対応する動体領域を検出する動体検出手段と、
    前記フレーム画像と、該フレーム画像内の前記注目領域と、該フレーム画像内の前記動体領域とを表示部に表示する表示制御手段と、
    前記注目領域と前記動体領域の位置を記憶する記憶手段と、
    前記動体検出手段により検出された前記動体領域と前記注目領域とに基づく領域を主被写体領域として決定し、該主被写体領域を追尾する追尾手段とを備え、
    前記追尾手段は、第一のフレーム画像における前記動体領域が予め定めたサイズよりも大きい場合、前記記憶手段に記憶された前記第一のフレーム画像における前記動体領域と前記注目領域の位置関係と、前記第一のフレーム画像とは異なる第二のフレーム画像における前記動体領域と前記注目領域の位置関係との変化に基づいて前記第二のフレーム画像における該主被写体領域を決定し、前記第一のフレーム画像における前記動体領域が予め定めたサイズ以下の場合、前記第二フレーム画像における前記動体領域を該主被写体領域として決定することを特徴とする画像処理装置。
  2. 前記追尾手段は、前記第一のフレーム画像における前記位置関係と、前記第二のフレーム画像における前記位置関係の変化が予め定めた値の範囲内であるとき、前記注目領域を前記主被写体領域として決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記位置関係は前記動体領域の重心位置と前記注目領域の重心位置との間の距離、および前記動体領域の重心位置から見た前記注目領域の重心位置の向きであることを特徴とする請求項1または2に記載の画像処理装置。
  4. レンズを介して入力された光束から前記撮像データを生成する撮像手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記視線入力手段は、ユーザーの視線方向を検出するセンサを備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記視線入力手段は、前記センサから得た前記センサ上の座標を前記撮像データ上の座標に変換し前記視線入力情報として取得することを特徴とする請求項5に記載の画像処理装置。
  7. 前記視線入力手段は、前記視線入力情報を必要とするモードへの変更がなされたことに応じて、前記視線入力情報の取得を開始することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記視線入力手段が取得する前記視線入力情報はRAMに複数蓄積されることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 撮像データに基づく複数のフレーム画像を取得する取得ステップと、
    視線入力情報を取得する視線入力ステップと、
    前記視線入力情報から前記複数のフレーム画像内の注目領域を決定する注目領域決定ステップと、
    前記複数のフレーム画像内で、動体に対応する動体領域を検出する動体検出ステップと、
    前記フレーム画像と、該フレーム画像内の前記注目領域と、該フレーム画像内の前記動体領域とを表示部に表示する表示制御ステップと、
    前記注目領域と前記動体領域の位置を記憶する記憶ステップと、
    前記動体検出ステップにて検出された前記動体領域と前記注目領域とに基づく領域を主被写体領域として決定し、該主被写体領域を追尾する追尾ステップとを備え、
    前記追尾ステップは、第一のフレーム画像における前記動体領域が予め定めたサイズよりも大きい場合、前記記憶ステップにて記憶された前記第一のフレーム画像における前記動体領域と前記注目領域の位置関係と、前記第一のフレーム画像とは異なる第二のフレーム画像における前記動体領域と前記注目領域の位置関係との変化に基づいて前記第二のフレーム画像における該主被写体領域を決定し、前記第一のフレーム画像における前記動体領域が予め定めたサイズ以下の場合、前記第二フレーム画像における前記動体領域を該主被写体領域として決定することを特徴とする画像処理装置の制御方法。
JP2017113870A 2017-06-09 2017-06-09 撮像装置 Active JP6991746B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113870A JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113870A JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Publications (3)

Publication Number Publication Date
JP2018205648A JP2018205648A (ja) 2018-12-27
JP2018205648A5 JP2018205648A5 (ja) 2020-07-27
JP6991746B2 true JP6991746B2 (ja) 2022-01-13

Family

ID=64957083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113870A Active JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Country Status (1)

Country Link
JP (1) JP6991746B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7301615B2 (ja) * 2019-06-17 2023-07-03 キヤノン株式会社 電子機器およびその制御方法
JP7433788B2 (ja) * 2019-07-03 2024-02-20 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム
JP7379028B2 (ja) 2019-09-06 2023-11-14 キヤノン株式会社 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP7358130B2 (ja) * 2019-09-12 2023-10-10 キヤノン株式会社 電子機器およびその制御方法
JP7497196B2 (ja) 2020-04-10 2024-06-10 キヤノン株式会社 表示装置およびその制御方法、プログラムならびに記憶媒体
JP2023003735A (ja) 2021-06-24 2023-01-17 キヤノン株式会社 視線検出装置、撮像装置、視線検出方法、プログラム、および、記憶媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116985A (ja) 1999-10-21 2001-04-27 Canon Inc 被写体認識機能を有するカメラおよび被写体認識方法
CN103516985A (zh) 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
US20140226858A1 (en) 2013-02-14 2014-08-14 Samsung Electronics Co., Ltd. Method of tracking object using camera and camera system for object tracking
JP2016024677A (ja) 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
JP2017034569A (ja) 2015-08-05 2017-02-09 キヤノン株式会社 撮像装置及びその制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3163668B2 (ja) * 1991-08-27 2001-05-08 株式会社ニコン 被写体認識装置およびカメラ
JPH05304631A (ja) * 1991-12-09 1993-11-16 Canon Inc 撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001116985A (ja) 1999-10-21 2001-04-27 Canon Inc 被写体認識機能を有するカメラおよび被写体認識方法
US20140226858A1 (en) 2013-02-14 2014-08-14 Samsung Electronics Co., Ltd. Method of tracking object using camera and camera system for object tracking
CN103516985A (zh) 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
JP2016024677A (ja) 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
JP2017034569A (ja) 2015-08-05 2017-02-09 キヤノン株式会社 撮像装置及びその制御方法

Also Published As

Publication number Publication date
JP2018205648A (ja) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6991746B2 (ja) 撮像装置
US20200280681A1 (en) Zoom control device, control method of zoom control device, and recording medium
EP2037320B1 (en) Imaging apparatus, imaging apparatus control method, and computer program
CN107800957B (zh) 摄像设备和运动矢量检测方法
US9106830B2 (en) Image capture apparatus and method for tracking a subject
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
US20160191811A1 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US20140176612A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2006211139A (ja) 撮像装置
US8620030B2 (en) Image processing apparatus and image processing method
JP6157288B2 (ja) 画像処理装置およびその制御方法、撮像装置
JP7154758B2 (ja) 画像処理装置及びその制御方法
US20110102454A1 (en) Image processing device, image processing method, image processing program, and imaging device
JP5830632B1 (ja) 撮像装置、撮像方法、およびプログラム
JP6516426B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2019201387A (ja) 追尾制御装置
US12096124B2 (en) Subject tracking device, subject tracking method, and storage medium
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5003666B2 (ja) 撮像装置、撮像方法、画像信号再生装置および画像信号再生方法
JP2017121042A (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
JP6406868B2 (ja) 撮像装置及び撮像方法
JP6808482B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5278483B2 (ja) 撮像装置、撮像方法及び撮像プログラム
JP5015121B2 (ja) 撮像装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R151 Written notification of patent or utility model registration

Ref document number: 6991746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151