JP2018205648A - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP2018205648A
JP2018205648A JP2017113870A JP2017113870A JP2018205648A JP 2018205648 A JP2018205648 A JP 2018205648A JP 2017113870 A JP2017113870 A JP 2017113870A JP 2017113870 A JP2017113870 A JP 2017113870A JP 2018205648 A JP2018205648 A JP 2018205648A
Authority
JP
Japan
Prior art keywords
area
main subject
moving object
subject
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017113870A
Other languages
English (en)
Other versions
JP6991746B2 (ja
JP2018205648A5 (ja
Inventor
潔 飯田
Kiyoshi Iida
飯田  潔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017113870A priority Critical patent/JP6991746B2/ja
Publication of JP2018205648A publication Critical patent/JP2018205648A/ja
Publication of JP2018205648A5 publication Critical patent/JP2018205648A5/ja
Application granted granted Critical
Publication of JP6991746B2 publication Critical patent/JP6991746B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Automatic Focus Adjustment (AREA)

Abstract

【課題】視線入力情報を用いて動きのある被写体を追尾する際、ユーザーがよそ見をしても追尾対象の被写体が不本意に切り替わることがなく、また、被写体認識位置のずれを自動的に補正するカメラを提供すること。【解決手段】入力する光束から動画フレーム画像を生成する撮像手段(105)と、視線入力情報を取得する視線入力手段(104)と、動画フレーム画像毎に単一乃至複数の視線入力情報群を蓄積する視線入力蓄積手段(101、110)と、視線入力情報群から注目領域を算出する注目領域算出手段(101、110)と、フレーム画像内の単一乃至複数の動体領域を検出する動体検出手段(101、110)と、前記動体の内の一つを主被写体として追尾する追尾手段(101、102、110)と、注目領域と主被写体の位置が第1の閾値以上に離れた場合、注目領域の位置情報を基に動体領域の位置を補正する補正手段(101、110)と、を備えることを特徴とする。【選択図】図1

Description

本発明は、動きのある物体(以下、動体と呼ぶ)を被写体として撮影する撮像装置に関し、特に視線入力情報を用いたオートフォーカスに関する。
動画撮影やライブビューにおいて、画像から得られる特徴量によって動体を被写体として追尾する際、人物の顔など識別しやすい領域が検出できない場合の動体の被写体認識には様々な方法がある。その方法は、大体において、ユーザーに指定された被写体領域にある色・輝度などの画像的特徴量の配置パターンを記憶しておき、フレーム画像間で配置パターンの変化量が少ない領域を被写体領域として識別している。
従来、動体の追尾においては光源や被写体のサイズが刻々と移り変わるため、画像的特徴量の配置パターンも新しいフレーム画像を得るたびに更新が必要となり、徐々に被写体認識領域と実際の被写体の位置がずれてしまうという問題があった。被写体認識領域がずれてしまう理由を、図2を用いて説明する。
図2の201、202、203、204は動画やライブビューのフレーム画像である。フレーム画像201の点線の枠221はカメラが動きのある被写体として識別している領域、すなわち被写体認識領域を示している。ユーザーは画面をタッチするなどして被写体212が追尾対象の被写体であることをカメラに指示し、被写体を画面内に収めながら動画を撮影する。動体を被写体として追尾しはじめた直後は、被写体認識領域221と被写体212の位置は一致している。
フレーム画像202では、被写体212が移動して、被写体認識において追尾の基準としている物体の大きさ、色・輝度の配置パターンがよく似た背景物体231と重なっている。被写体認識においては、背景と被写体の区別がつかないため、点線の楕円で示す領域251部分は被写体の一部として認識し、次フレームで被写体認識に用いる特徴量の配置パターンに背景が含まれてしまう。
フレーム画像203では、被写体212が更に移動して背景物体231を追い越そうとしているが、被写体212と背景物体231が被写体認識において同化してしまう領域252に引きずられて実際の被写体の位置からずれてしまう。
フレーム画像204では被写体212と背景物体231は重なっていないが、追尾対象の画像的特徴量の配置パターンは更新されているため、被写体認識領域224は実際の被写体212の位置からずれたままになってしまう。
このように、被写体認識に用いている動体の大きさ・色・輝度といった画像的特徴量の配置パターンが更新されていくことで、被写体認識領域は実際の被写体からずれてしまうことになる。
動きのある被写体を追尾するため、特許文献1には、視線検出を用いて主被写体をフォーカスし、さらに、まばたきした時など視線検出できない状況ではこれまでの視線入力から推定される追尾位置の情報を用いて主被写体追尾を行う発明が開示されている。
特許文献2には、視線入力による被写体認識位置と、光の強度分布などで得られた追尾位置とを比較して、撮影者が被写体を変更したか否かを判定する発明が開示されている。
特開平5−232374号公報 特開平5−53043号公報
しかしながら、上述の特許文献1に開示された従来技術では、視線検出できた場合必ず視線位置にフォーカスしてしまうため、ユーザーがなにかに気を取られてよそ見をした場合、意図せず追尾対象が切り替わってしまうという問題があった。
特許文献2で開示された従来技術では、視線入力による被写体認識位置と、光の強度分布などで得られた追尾位置を比較して、撮影者が被写体を変更したか否かを判定する処理が追加されているが、被写体の位置予測の補正については考慮されていないという問題があった。
そこで、本発明の目的は、視線入力情報を用いて動きのある被写体を追尾する際、ユーザーがよそ見をしても追尾対象の被写体が不本意に切り替わることがなく、また、被写体認識位置のずれを自動的に補正するカメラを提供することにある。
上記の目的を達成するために、本発明に係るカメラは、
入力する光束から動画フレーム画像を生成する撮像手段(105)と、
視線入力情報を取得する視線入力手段(104)と、
動画フレーム画像毎に単一乃至複数の視線入力情報群を蓄積する視線入力蓄積手段(101、110)と、
視線入力情報群から注目領域を算出する注目領域算出手段(101、110)と、
フレーム画像内の単一乃至複数の動体領域を検出する動体検出手段(101、110)と、
前記動体の内の一つを主被写体として追尾する追尾手段(101、102、110)と、
注目領域と主被写体の位置が第1の閾値以上に離れた場合、注目領域の位置情報を基に動体領域の位置を補正する補正手段(101、110)と
を備えることを特徴とする。
また、主被写体が決定していない状況で、注目領域と動体の距離が連続して第2の閾値内にある動画フレーム画像の数をカウントし、カウントが一定数を超えた場合、動体を追尾対象として決定する主被写体決定手段(101、110)を備えることを特徴とする。
更に、主被写体よりも注目領域の近くに位置しており、かつ、注目領域と第2の閾値以内の位置に、主被写体とは異なる動体がある動画フレーム画像が連続する回数をカウントし、カウントが一定数を超えた場合、これまでの主被写体を破棄し、連続して注目領域の近くにある動体を追尾対象とする主被写体変更手段(101、110)を備えることを特徴とする。
更に、前記追尾手段において、主被写体領域が一定のサイズを超える場合、動体を主被写体と決定した時の動体領域と注目領域の位置関係を基に、主被写体領域の位置からの相対位置を求めて追尾位置とすることを特徴とする。
本発明によれば、動きのある被写体の追尾は画像認識を用いて行い、視線入力を用いて継続して被写体認識位置のズレを補正するため、追従性が良く、意図しない追尾対象の変更を防ぐカメラを提供することができる。
ハードウェア構成図 従来の問題現象を説明する図 実施例1の動作を説明する図 実施例1の動作を説明する図 実施例1の動作を説明する図 注目領域算出を説明する図 実施例1の処理を説明するフローチャート 実施例1の処理を説明するフローチャート 実施例1の処理を説明するフローチャート 実施例2の動作を説明する図
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。図1は、本発明の実施形態にかかわるハードウェア構成図である。
以下、図1を参照して、本発明の第1の実施例による、ハードウェア構成について説明する。図1は視線入力機能を備えるカメラ100のハードウェア構成図である。
制御部101は中央演算処理装置で、制御部101のプログラムを格納しているROM109、および、制御部101が動作中の様々なデータを保持するRAM110を内蔵している。
撮像部105は不図示の撮像素子や撮像データを一時的に保存するバッファなどで構成される。ユーザーが操作部113を操作することで制御部101がシャッター103を動作させると、レンズ102から入力された光束を撮像部105で受光し撮像データを生成する。撮像部105は撮像データの生成が完了すると、撮像データを生成したことを制御部101に通知する。
制御部101は、撮像部105から撮像データ生成の通知を受けて、撮像部105から撮像データを取得してRAM110に記録する。制御部101はRAM110に記録した撮像データをJPEG(Joint Photographic Experts Group)等の形式に加工した後、ファイルとして記憶媒体107に記録する。
また、ユーザーが操作部113を操作することによって画像ファイルの表示を指示されると、制御部101は、記憶媒体107に記録されたファイルを読み出して表示部106に表示する。制御部101は画像ファイルを表示する際、必要があれば関連付けられたデータファイルなどを記憶媒体107から読み出して利用する。
視線検出部104はユーザーの視線方向を一定周期で検出し、視線検出部が内蔵する不図示のCCD上の座標を出力する機能をもつ。ユーザーが操作部113を操作して視線入力を必要とするモードに切り替えた場合、制御部101は視線検出部104を制御して撮影者の視線検出を開始する。視線検出部から得たCCD上の座標を撮像面上の座標に変換し、視線入力情報としてRAM110に連続的に記録する。
以下、図5のフローと、図3を参照して実施例1の動作の説明を行う。
図3(a)の301、302、303、304は制御部101が表示部106に表示させる動画またはライブビューのフレーム画像である。制御部101がフレーム画像301を表示部106に表示させた時点では、制御部101はまだオートフォーカスで追尾する主被写体を決定していない状態である。この状態から、追尾する被写体を決定する処理を図5(a)のフローに沿って説明する。
制御部101が表示部106にフレーム画像301を表示するまでの間、制御部101は視線検出部104から単一乃至複数の視線入力情報を取得し、RAM110に蓄積する(S501、S502)。フレーム画像を更新するタイミングで、制御部101は撮像部105から新しいフレーム画像301を取得し、表示部106に表示する。(S503)。
制御部101はフレーム画像301を表示するタイミングまでRAM110に蓄積した視線入力情報を基にユーザーの注目領域308を算出する(S504)。制御部101はRAM110に記憶しておいた一つ前のフレーム画像とフレーム画像301を比較し、画像内の特徴量の配置の推移から画像内の動体領域305、306、307を検出する(S505)。動体領域306の重心位置と注目領域308の重心位置の距離が閾値2より小さい場合(S506)、制御部101はRAM110上に保持するカウンタをインクリメントする(S507)。制御部101は動体領域306のように注目領域308に近傍する動体領域が検出されない場合(S506)はRAM110上に保持するカウンタをクリア(S508)して次のステップにすすむ。
フレーム画像302、303、304のように、同じ動体領域306が注目領域308と近傍する回数が既定の回数以上になった場合(S509)、制御部101は動体領域を主被写体領域310として追尾を開始する(S510)。また、次フレーム画像における動体検出のために、主被写体領域の画像の特徴量の配置パターンをRAM110に記憶し(S511)、主被写体領域の位置ズレの補正に利用するため主被写体領域の重心位置と注目領域308の重心位置をRAM110に記憶する(S512)。
次に、図3(b)を用いて被写体領域のズレを補正する処理を図5(b)のフローに沿って説明する。
図3(b)は制御部101が既に一つの動体を主被写体として追尾中の状態である。
図3(b)の311、312、313、314は動画またはライブビューのフレーム画像である。
フレーム画像311において、視線入力情報から算出した注目領域の重心位置は331、フレーム画像間の特徴量の推移から算出した動体領域である現主被写体領域は315、主被写体領域315の重心位置を321で示している。ユーザーは動きのある被写体を撮影しており背景が移り変わる状況で、主被写体を構成する画像の特徴量の配置パターンがよく似た背景物325が写りこんでいる。
表示部106にフレーム画像311を表示してから、フレーム画像312を表示するまでの間、制御部101は視線検出部104から単一乃至複数の視線入力情報を取得し、RAM110に蓄積する(S513、S514)。フレーム画像を更新するタイミングで、制御部101は撮像部105から新しいフレーム画像312を取得し、表示部106に表示する(S515)。また、制御部101はRAM110に蓄積した視線入力情報からユーザーの注目領域を算出する(S516)。
制御部101は、フレーム画像311とフレーム画像312の特徴量の配置パターンの推移から、フレーム画像312上の主被写体領域316を検出する(S517)。フレーム画像312では主被写体と背景物325が重なっているため、制御部101で実施する動体検出において主被写体領域316は背景物325に引きずられて位置と大きさにズレが生じており、記憶する特徴量の配置パターンにも歪みが生じている。しかしこの時点では注目領域の重心位置332と主被写体領域322の重心位置の距離は閾値1以上離れていない、すなわち大きくずれてはいないため、制御部101は注目領域の補正は行わない(S518)。
フレーム画像313では、被写体と背景物325が重なっており、注目領域の重心位置333と主被写体領域317の重心位置323が既定の距離を超えてずれている。そのため(S518)、制御部101は図3(a)のS512でRAM110に記憶した注目領域の重心位置と主被写体領域の重心位置の位置関係を崩さないように主被写体領域の位置を318の位置に補正する(S519)。補正後の主被写体領域318を基に、制御部101は主被写体の特徴量の配置パターンをRAM110に記憶して(S520)次のフレーム画像取得に向けて視線検出部104からの視線入力情報取得とRAM110への蓄積を再開する(S513)。
次に、図3(c)を用いて主被写体を変更する処理を図5(c)のフローに沿って説明する。
図3(c)の340、341、342、343はフレーム画像である。フレーム画像340において、現在の主被写体領域は345であるが、ユーザーは動体360に視線を移している状況となっている。
撮像部105からフレーム画像340を取得した後、フレーム画像341を取得するまでの間制御部101は視線検出部104から視線入力情報を取得しRAM110に蓄積する(S521、S522)。
フレーム画像更新タイミングが来た時(S522)、制御部101は撮像部105からフレーム画像341を取得して表示部106に表示する(S523)。制御部101は、RAM110に蓄積した視線入力情報からフレーム画像341上のユーザーの注目領域を算出する(S524)。
フレーム画像340とフレーム画像341の特徴量の配置パターンの推移から、制御部101は画像内の動体領域を検出する(S525)。この時、制御部101は注目領域の重心位置361と現在の主被写体領域の重心位置349の距離を算出する。主被写体領域より注目領域に近傍する別の動体領域350の重心位置351と注目領域の重心位置が閾値2で示す距離より近い場合(S526)、制御部101はRAM110上のカウンタをインクリメントする(S528)。それ以外の場合はRAM110上のカウンタをクリアし(S527)、RAM上に記録していた主被写体の特徴量の配置パターンを更新する(S532)。
続いてフレーム画像342、フレーム画像343と表示を更新(S523)した時、カウンタが既定の回数を超えたため(S529)、制御部101はユーザーが主被写体を切り替えたとみなし、動体領域350を主被写体領域348として追尾を開始する(S530)。また、制御部101はRAM上に記憶していた主被写体領域と注目領域の位置関係を更新する(S531)。続いて制御部101は主被写体の特徴量の配置パターンをRAM110に記憶し(S532)、次のフレーム画像取得に向けて視線検出部104から取得した視線入力情報をRAM110に蓄積する(S521)。
続いて、図4を用いてフレーム画像毎に蓄積した視線入力情報から注目領域を算出する方法について説明する。
制御部101は、撮影部105からフレーム画像401を取得するまでの間、視線検出部104から視線入力情報を複数回取得する。図4における403のような黒い点は一つ一つが視線入力された位置をフレーム画像に重ねて表示したものである。
この実施例では、フレーム画像のどこに視線が集中しているかを判定するため、フレーム画像のピクセルの集合を等間隔のブロックで分割し、ブロック内に含まれる視線入力の個数をカウントする。図中410は、視線入力カウント数の上位3ブロックを斜線で表したものである。ユーザーの視線はこれらのブロックに集中しているため、ここを注目領域とみることができる。また、注目領域の重心位置は、注目領域に含まれるブロックの中心座標の平均によって求めることができる。
この例のように、注目領域を直接オートフォーカスの追尾領域にするのではなく、動体領域として検出した領域の補正のために注目領域を用いることで、ユーザーがよそ見をした時に追尾位置が過剰に反応してしまう問題を解決することができる。
また、フレーム画像間の画像の特徴量の配置パターンの推移から動体を検出する場合、光源の位置や光の強度が刻々と変化するため特徴量である色・輝度といった情報にはある程度の幅を持たせる必要がある。そのため、背景と近似している領域は動体領域として認識できない場合がある。注目領域と主被写体領域の位置関係を維持するように動体領域を補正することでこの問題を解決することができる。
主被写体領域が大きい場合、動体領域全体を追尾対象とするとフォーカシングが不十分となる。このような場合の被写体追尾について図6を用いて説明する。
フレーム画像601において、点線の矩形602は検出された動体領域を表している。その動体領域において注目領域は点線の矩形603に集中している。黒点610が注目領域の重心位置、黒点620が動体領域の重心位置である。
動体領域が一定のサイズを超える場合、動体の重心位置でフォーカスを合わせてしてしまうとピントが甘くなってしまう可能性があるため、追尾する領域は注目領域であることが望ましい。しかし、注目領域をそのまま追尾対象領域とすると、ユーザーがよそ見をした時に敏感に反応しすぎてしまう。
よって、動体領域が一定サイズを超える場合、制御部101は動体領域602を主被写体領域と決定した時にRAM110に記憶した動体領域と注目領域の重心位置(620、610)の位置関係と、現在の主被写体領域と注目領域の重心位置の位置関係を比較する。被写体領域の重心位置620から見た注目領域の重心位置610の距離と方向が、主被写体領域決定時のものと比較してそれぞれ既定の範囲内に収まっている場合、制御部101は注目領域603でフォーカシングを行う。また、制御部101は、RAM110記憶していた主被写体領域と注目領域の重心位置の位置関係を最新のものに更新する。被写体領域の重心位置620から見た注目領域の重心位置610の距離と方向が、主被写体領域決定時のものと比較して既定の範囲外の場合、制御部101は主被写体領域の重心位置620からの相対位置に正しい主被写体領域があるものとしてフォーカシングを行う。
このように、主被写体である動体が大きな場合は、主被写体領域を決定した時の位置関係を利用して動体の位置から追尾位置を決定することで、ユーザーがよそ見をした時に追尾位置が過剰に反応してしまう問題を解決することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 カメラ、101 制御部、102 レンズ、103 シャッター、
104 視線検出部、105 撮像部、106 表示部、107 記憶媒体、
109 制御部101が内蔵するROM、
110 制御部101が内蔵するRAM、113 操作部

Claims (4)

  1. 入力する光束から動画フレーム画像を生成する撮像手段(105)と、
    視線入力情報を取得する視線入力手段(104)と、
    動画フレーム画像毎に単一乃至複数の視線入力情報群を蓄積する視線入力蓄積手段(101、110)と、
    視線入力情報群から注目領域を算出する注目領域算出手段(101、110)と、
    フレーム画像内の単一乃至複数の動体領域を検出する動体検出手段(101、110)と、
    前記動体の内の一つを主被写体として追尾する追尾手段(101、102、110)と、
    注目領域と主被写体の位置が第1の閾値以上に離れた場合、注目領域の位置情報を基に動体領域の位置を補正する補正手段(101、110)と、
    を備えることを特徴とするカメラ。
  2. 主被写体が決定していない状況で、注目領域と動体の距離が連続して第2の閾値内にある動画フレーム画像の数をカウントし、カウントが一定数を超えた場合、動体を追尾対象として決定する主被写体決定手段(101、110)を備えることを特徴とする請求項1に記載のカメラ。
  3. 主被写体よりも注目領域の近くに位置しており、かつ、注目領域と第2の閾値以内の位置に、主被写体とは異なる動体がある動画フレーム画像が連続する回数をカウントし、
    カウントが一定数を超えた場合、これまでの主被写体を破棄し、連続して注目領域の近くにある動体を追尾対象とする主被写体変更手段(101、110)を備えることを特徴とする請求項1に記載のカメラ。
  4. 前記追尾手段において、主被写体領域が一定のサイズを超える場合、動体を主被写体と決定した時の動体領域と注目領域の位置関係を基に、主被写体領域の位置からの相対位置を求めて追尾位置とすることを特徴とする請求項1に記載のカメラ。
JP2017113870A 2017-06-09 2017-06-09 撮像装置 Active JP6991746B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017113870A JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017113870A JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Publications (3)

Publication Number Publication Date
JP2018205648A true JP2018205648A (ja) 2018-12-27
JP2018205648A5 JP2018205648A5 (ja) 2020-07-27
JP6991746B2 JP6991746B2 (ja) 2022-01-13

Family

ID=64957083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017113870A Active JP6991746B2 (ja) 2017-06-09 2017-06-09 撮像装置

Country Status (1)

Country Link
JP (1) JP6991746B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112104809A (zh) * 2019-06-17 2020-12-18 佳能株式会社 电子装置、电子装置的控制方法及存储介质
JP2021012229A (ja) * 2019-07-03 2021-02-04 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム
WO2021044763A1 (ja) 2019-09-06 2021-03-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP2021043368A (ja) * 2019-09-12 2021-03-18 キヤノン株式会社 電子機器およびその制御方法
US11930266B2 (en) 2021-06-24 2024-03-12 Canon Kabushiki Kaisha Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7497196B2 (ja) 2020-04-10 2024-06-10 キヤノン株式会社 表示装置およびその制御方法、プログラムならびに記憶媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0553043A (ja) * 1991-08-27 1993-03-05 Nikon Corp 被写体認識装置およびカメラ
JPH05304631A (ja) * 1991-12-09 1993-11-16 Canon Inc 撮像装置
JP2001116985A (ja) * 1999-10-21 2001-04-27 Canon Inc 被写体認識機能を有するカメラおよび被写体認識方法
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
US20140226858A1 (en) * 2013-02-14 2014-08-14 Samsung Electronics Co., Ltd. Method of tracking object using camera and camera system for object tracking
JP2016024677A (ja) * 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
JP2017034569A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0553043A (ja) * 1991-08-27 1993-03-05 Nikon Corp 被写体認識装置およびカメラ
JPH05304631A (ja) * 1991-12-09 1993-11-16 Canon Inc 撮像装置
JP2001116985A (ja) * 1999-10-21 2001-04-27 Canon Inc 被写体認識機能を有するカメラおよび被写体認識方法
US20140226858A1 (en) * 2013-02-14 2014-08-14 Samsung Electronics Co., Ltd. Method of tracking object using camera and camera system for object tracking
CN103516985A (zh) * 2013-09-18 2014-01-15 上海鼎为软件技术有限公司 移动终端及其获取图像的方法
JP2016024677A (ja) * 2014-07-22 2016-02-08 サクサ株式会社 撮像装置及び判定方法
JP2017034569A (ja) * 2015-08-05 2017-02-09 キヤノン株式会社 撮像装置及びその制御方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112104809A (zh) * 2019-06-17 2020-12-18 佳能株式会社 电子装置、电子装置的控制方法及存储介质
CN112104809B (zh) * 2019-06-17 2023-04-21 佳能株式会社 电子装置、电子装置的控制方法及存储介质
JP2021012229A (ja) * 2019-07-03 2021-02-04 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム
JP7433788B2 (ja) 2019-07-03 2024-02-20 キヤノン株式会社 制御装置、撮像装置、制御方法、プログラム
WO2021044763A1 (ja) 2019-09-06 2021-03-11 キヤノン株式会社 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP2021044602A (ja) * 2019-09-06 2021-03-18 キヤノン株式会社 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
KR20220047656A (ko) 2019-09-06 2022-04-18 캐논 가부시끼가이샤 전자기기, 전자기기의 제어 방법, 및 컴퓨터 판독 가능한 기억 매체
JP2021043368A (ja) * 2019-09-12 2021-03-18 キヤノン株式会社 電子機器およびその制御方法
JP7358130B2 (ja) 2019-09-12 2023-10-10 キヤノン株式会社 電子機器およびその制御方法
US11930266B2 (en) 2021-06-24 2024-03-12 Canon Kabushiki Kaisha Line-of-sight detection apparatus, imaging apparatus, line-of-sight detection method, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP6991746B2 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6991746B2 (ja) 撮像装置
EP2037320B1 (en) Imaging apparatus, imaging apparatus control method, and computer program
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US7929042B2 (en) Imaging apparatus, control method of imaging apparatus, and computer program
US9823331B2 (en) Object detecting apparatus, image capturing apparatus, method for controlling object detecting apparatus, and storage medium
US8810709B2 (en) Image capturing apparatus and control method thereof
US10277823B2 (en) Zoom control device, imaging apparatus, control method of zoom control device, and recording medium
US20150304551A1 (en) Image capture apparatus and method for tracking a subject
US10163222B2 (en) Image capturing apparatus, tracking device, control method, and storage medium
JP2011107396A (ja) オートフォーカスシステム
JP4452836B2 (ja) 瞳孔を検出する方法及び装置
JP2011027902A (ja) 画像処理装置、撮像装置及び画像処理方法
JP2019121860A (ja) 画像処理装置及びその制御方法
US20110102454A1 (en) Image processing device, image processing method, image processing program, and imaging device
JP6525809B2 (ja) 焦点検出装置及びその制御方法
JP2007067559A (ja) 画像処理方法、画像処理装置、及び撮像装置の制御方法
JP5830632B1 (ja) 撮像装置、撮像方法、およびプログラム
JP2017034569A (ja) 撮像装置及びその制御方法
JP2019201387A (ja) 追尾制御装置
JP6833483B2 (ja) 被写体追尾装置、その制御方法、および制御プログラム、並びに撮像装置
US12096124B2 (en) Subject tracking device, subject tracking method, and storage medium
US20220086361A1 (en) Electronic apparatus, camera, and program
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP6406868B2 (ja) 撮像装置及び撮像方法
JP5003666B2 (ja) 撮像装置、撮像方法、画像信号再生装置および画像信号再生方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200605

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211208

R151 Written notification of patent or utility model registration

Ref document number: 6991746

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151