JP2021184564A - 画像追尾装置 - Google Patents

画像追尾装置 Download PDF

Info

Publication number
JP2021184564A
JP2021184564A JP2020089692A JP2020089692A JP2021184564A JP 2021184564 A JP2021184564 A JP 2021184564A JP 2020089692 A JP2020089692 A JP 2020089692A JP 2020089692 A JP2020089692 A JP 2020089692A JP 2021184564 A JP2021184564 A JP 2021184564A
Authority
JP
Japan
Prior art keywords
face
tracking
subject
image
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020089692A
Other languages
English (en)
Other versions
JP6785481B1 (ja
Inventor
淳平 松田
Junpei Matsuda
清和 佐々木
Kiyokazu Sasaki
充義 岡本
Mitsuyoshi Okamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020089692A priority Critical patent/JP6785481B1/ja
Application granted granted Critical
Publication of JP6785481B1 publication Critical patent/JP6785481B1/ja
Priority to US17/324,552 priority patent/US11538172B2/en
Publication of JP2021184564A publication Critical patent/JP2021184564A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】画像データにおいて被写体を追尾する精度を良くすることができる画像追尾装置を提供する。【解決手段】被写体が撮像された動画像において被写体を追尾する画像追尾装置(100)であって、動画像を示す画像データを取得する画像取得部(115)と、取得された画像データにおいて少なくとも1つの被写体の顔に対応する顔領域を検出して、動画像において顔領域を追尾する第1検出部(122)と、画像データにおいて、少なくとも1つの被写体の顔を包含する頭部に対応する頭部領域を検出して、動画像において頭部領域を追尾する第2検出部(124)と、第1検出部による顔領域の追尾結果と第2検出部による頭部領域の追尾結果とを互いに切り替えるように用いて、被写体を追尾する制御部(135)とを備える。【選択図】図2

Description

本開示は、画像データにおいて被写体を追尾する画像追尾装置に関する。
特許文献1は、画像データ中の2つの領域を用いて被写体を追尾する追尾装置を開示している。特許文献1の追尾装置は、被写体の顔部を追尾する顔追尾部と、胸部などの顔部以外の周辺部位を追尾する周辺追尾部とを備え、顔部の追尾が出来ない場合に周辺部位の追尾に切り替えている。周辺追尾部の追尾対象とする周辺部位は、予め設定された距離だけ顔部から下方に離れた位置というような位置関係により設定される。これにより、特許文献1の追尾装置は、追尾中の周辺部位から設定された距離だけ上方に顔部が存在するという推定に基づいて、推定された位置で顔部又は顔部に対応する肌色の色情報が検出されたときに、顔部の追尾に戻っている。
特開2013−12941号公報
本開示は、画像データにおいて被写体を追尾する精度を良くすることができる画像追尾装置を提供する。
本開示の一態様における画像追尾装置は、被写体が撮像された動画像において被写体を追尾する画像追尾装置であって、動画像を示す画像データを取得する画像取得部と、取得された画像データにおいて少なくとも1つの被写体の顔に対応する顔領域を検出して、動画像において顔領域を追尾する第1検出部と、画像データにおいて、少なくとも1つの被写体の顔を包含する頭部に対応する頭部領域を検出して、動画像において頭部領域を追尾する第2検出部と、第1検出部による顔領域の追尾結果と第2検出部による頭部領域の追尾結果とを互いに切り替えるように用いて、被写体を追尾する制御部とを備える。
本開示の別の態様における画像追尾装置は、被写体が撮像された動画像において被写体を追尾する画像追尾装置であって、動画像を示す画像データを取得する画像取得部と、取得された画像データにおいて被写体の顔領域を検出して、動画像において顔領域を追尾する第1検出部と、画像データにおいて被写体の頭部領域を検出して、動画像において頭部領域を追尾する第2検出部と、主要被写体を指定するユーザ操作を入力する操作部と、第1及び第2検出部の追尾結果に基づいて、画像データにおいて主要被写体を特定する情報である主要被写体情報を管理して、動画像において主要被写体を追尾する制御部とを備える。第1及び第2検出部により複数の被写体に対応する複数の領域が追尾された状態において、主要被写体を変更するユーザ操作が入力された場合、制御部は、当該ユーザ操作が入力されたときの第1又は第2検出部の追尾結果に基づいて、変更前の主要被写体を特定する情報を、変更後の主要被写体を特定する情報に置き換えるように主要被写体情報を更新する。
本開示に係る画像追尾装置によると、第1検出部による顔領域の追尾結果と第2検出部による頭部領域の追尾結果とにより、画像データにおいて被写体を追尾する精度を良くすることができる
実施の形態1に係るデジタルカメラの構成を示す図 デジタルカメラの動作の概要を説明するための図 デジタルカメラにおける被写体追尾処理を例示するフローチャート 被写体追尾処理においてデジタルカメラが保持するデータを例示する図 デジタルカメラにおける被写体追尾処理を説明するための図 デジタルカメラにおける主要被写体判定の処理を例示するフローチャート デジタルカメラにおける主要被写体判定の処理を説明するための図 デジタルカメラにおける主要被写体選択の処理を例示するフローチャート デジタルカメラにおける主要被写体選択の処理を説明するための図 デジタルカメラにおける顔追尾処理を例示するフローチャート デジタルカメラにおける顔認識情報を例示する図 デジタルカメラにおける同一候補判定の処理を例示するフローチャート デジタルカメラにおける頭部追尾処理を例示するフローチャート デジタルカメラにおける頭部認識情報を例示する図
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施の形態1)
実施の形態1では、本開示に係る画像追尾装置の一例として、画像認識技術に基づいて被写体の顔及び頭部を検出し、顔及び頭部の検出結果を用いて被写体を追尾するデジタルカメラについて説明する。
1.構成
図1は、本実施形態に係るデジタルカメラ100の構成を示す図である。本実施形態のデジタルカメラ100は、イメージセンサ115と、画像処理エンジン120と、表示モニタ130と、コントローラ135とを備える。さらに、デジタルカメラ100は、バッファメモリ125と、カードスロット140と、フラッシュメモリ145と、操作部150と、通信モジュール155とを備える。また、デジタルカメラ100は、例えば光学系110及びレンズ駆動部112を備える。
光学系110は、フォーカスレンズ、ズームレンズ、光学式手ぶれ補正レンズ(OIS)、絞り、シャッタ等を含む。フォーカスレンズは、イメージセンサ115上に形成される被写体像のフォーカス状態を変化させるためのレンズである。ズームレンズは、光学系で形成される被写体像の倍率を変化させるためのレンズである。フォーカスレンズ等は、それぞれ1枚又は複数枚のレンズで構成される。
レンズ駆動部112は、光学系110におけるフォーカスレンズ等を駆動する。レンズ駆動部112はモータを含み、コントローラ135の制御に基づいてフォーカスレンズを光学系110の光軸に沿って移動させる。レンズ駆動部112においてフォーカスレンズを駆動する構成は、DCモータ、ステッピングモータ、サーボモータ、または超音波モータなどで実現できる。
イメージセンサ115は、光学系110を介して形成された被写体像を撮像して、撮像データを生成する。撮像データは、イメージセンサ115による撮像画像を示す画像データを構成する。イメージセンサ115は、所定のフレームレート(例えば、30フレーム/秒)で新しいフレームの画像データを生成する。イメージセンサ115における、撮像データの生成タイミングおよび電子シャッタ動作は、コントローラ135によって制御される。イメージセンサ115は、CMOSイメージセンサ、CCDイメージセンサ、またはNMOSイメージセンサなど、種々のイメージセンサを用いることができる。
イメージセンサ115は、動画像、静止画像の撮像動作、スルー画像の撮像動作等を実行する。スルー画像は主に動画像であり、ユーザが例えば静止画像の撮像のための構図を決めるために表示モニタ130に表示される。スルー画像は、本実施形態における動画像の一例である。イメージセンサ115は、本実施形態において撮像部として構成される画像取得部の一例である。
画像処理エンジン120は、イメージセンサ115から出力された撮像データに対して各種の処理を施して画像データを生成したり、画像データに各種の処理を施して、表示モニタ130に表示するための画像を生成したりする。各種処理としては、ホワイトバランス補正、ガンマ補正、YC変換処理、電子ズーム処理、圧縮処理、伸張処理等が挙げられるが、これらに限定されない。画像処理エンジン120は、ハードワイヤードな電子回路で構成してもよいし、プログラムを用いたマイクロコンピュータ、プロセッサなどで構成してもよい。
本実施形態において、画像処理エンジン120は、撮像画像の画像認識によって人の顔及び頭部といった被写体の検出機能と追尾機能とを実現する顔認識部122及び頭部認識部124を含む。顔認識部122及び頭部認識部124は、それぞれ本実施形態における第1検出部及び第2検出部の一例である。
顔認識部122は、例えば、テンプレートマッチングといったルールベースの画像認識処理によって顔検出を行う。顔検出は、種々の画像認識アルゴリズムによって行われてもよい。例えば、目及び口など顔の局所領域に注目した特徴量ベースの手法を用いることができる。顔認識部122は、後述するように、顔検出に基づく顔追尾処理を行う。
頭部認識部124は、例えば、畳み込みニューラルネットワーク等のニューラルネットワークによる学習済みモデルによって頭部検出を行う。頭部認識部124は、後述するように、頭部検出に基づく頭部追尾処理を行う。
頭部認識部124の学習済みモデルは、例えば、横顔、後頭部を含む全方向の頭部が映った画像を正解とする正解ラベルを関連付けた画像データを教師データとして用いた教師あり学習によって得ることができる。学習済みモデルは、検出結果に関する信頼度或いは尤度を生成してもよい。頭部認識部124の学習済みモデルはニューラルネットワークに限らず、種々の画像認識に関する機械学習モデルであってもよい。
本実施形態のデジタルカメラ100において、頭部認識部124の学習済みモデルは、ルールベース等による顔認識部122と比較して処理負荷が大きいことから、顔認識部122よりも実行周期を長く設定している。そこで本実施形態における頭部認識部124は、学習済みモデルの実行周期でない場合に、学習済みモデルによる検出結果を用いて検出結果の補間を行う。頭部認識部124は、例えば高精度に補間をするための動き検出部を備えてもよい。動き検出部は、例えば画像データのフレーム間の動きベクトルを用いて、学習済みモデルの検出結果における位置の変化を算出する。
なお、顔認識部122及び頭部認識部124は、画像処理エンジン120とは別に構成されてもよく、コントローラ135と一体的に構成されてもよい。また、顔認識部122及び頭部認識部124は、人に限らず、動物を被写体として検出と追尾を行ってもよい。
表示モニタ130は、種々の情報を表示する表示部の一例である。例えば、表示モニタ130は、イメージセンサ115で撮像され、画像処理エンジン120で画像処理された画像データが示す画像(スルー画像)を表示する。また、表示モニタ130は、ユーザがデジタルカメラ100に対して種々の設定を行うためのメニュー画面等を表示する。表示モニタ130は、例えば、液晶ディスプレイデバイスまたは有機ELデバイスで構成できる。
操作部150は、デジタルカメラ100の外装に設けられた操作釦や操作ダイヤル等の少なくとも1つの操作インタフェースの総称であり、使用者による操作を受け付ける。操作部150は、例えば、レリーズ釦、モードダイヤル、表示モニタ130のタッチパネル、ジョイスティックなどを含む。操作部150はユーザによる操作を受け付けると、ユーザ操作に対応した操作信号をコントローラ135に送信する。
コントローラ135は、ハードウェアコントローラであり、デジタルカメラ100全体の動作を統括制御する。コントローラ135はCPU等を含み、CPUがプログラム(ソフトウェア)を実行することで所定の機能を実現する。コントローラ135は、CPUに代えて、所定の機能を実現するように設計された専用の電子回路で構成されるプロセッサを含んでもよい。すなわち、コントローラ135は、CPU、MPU、GPU、DSU、FPGA、ASIC等の種々のプロセッサで実現できる。コントローラ135は1つまたは複数のプロセッサで構成してもよい。また、コントローラ135は、画像処理エンジン120などと共に1つの半導体チップで構成してもよい。
バッファメモリ125は、画像処理エンジン120やコントローラ135のワークメモリとして機能する記録媒体である。バッファメモリ125は、DRAM(Dynamic Random Access Memory)などにより実現される。フラッシュメモリ145は不揮発性の記録媒体である。バッファメモリ125は、例えば後述する主要被写体情報D0、顔追尾情報D2及び頭部追尾情報D4を格納する。
また、図示していないが、コントローラ135は各種の内部メモリを有してもよく、例えばROMを内蔵してもよい。ROMには、コントローラ135が実行する様々なプログラムが記憶されている。また、コントローラ135は、CPUの作業領域として機能するRAMを内蔵してもよい。
カードスロット140は、着脱可能なメモリカード142が挿入される手段である。カードスロット140は、メモリカード142を電気的及び機械的に接続可能である。メモリカード142は、内部にフラッシュメモリ等の記録素子を備えた外部メモリである。メモリカード142は、画像処理エンジン120で生成される画像データなどのデータを格納できる。
通信モジュール155は、通信規格IEEE802.11またはWi−Fi規格等に準拠した通信を行う通信モジュール(回路)である。デジタルカメラ100は、通信モジュール155を介して、他の機器と通信することができる。デジタルカメラ100は、通信モジュール155を介して、他の機器と直接通信を行ってもよいし、アクセスポイント経由で通信を行ってもよい。通信モジュール155は、インターネット等の通信ネットワークに接続可能であってもよい。
2.動作
以上のように構成されるデジタルカメラ100の動作について説明する。
デジタルカメラ100は、光学系110を介して形成された被写体像をイメージセンサ115で撮像して撮像データを生成する。画像処理エンジン120は、イメージセンサ115により生成された撮像データに対して各種処理を施して画像データを生成する。コントローラ135は、例えば静止画像の撮像動作において、画像処理エンジン120にて生成された画像データをカードスロット140に装着されたメモリカード142に記録する。
また、デジタルカメラ100は、スルー画像の撮像動作において、表示モニタ130にスルー画像を表示させる。ユーザは、表示モニタ130のスルー画像により、静止画像の撮像のための構図を確認することができる。コントローラ135は、例えばユーザによるレリーズボタンの操作に応じて、光学系110のフォーカスレンズを駆動するレンズ駆動部112を制御する合焦動作を行う。
2−1.動作の概要
以上のような撮像動作時に、本実施形態のデジタルカメラ100は、例えばオートフォーカス(AF)制御に用いるために、スルー画像等の撮像画像Imに対する画像認識を行って、動画像において被写体を追尾する。例えば合焦の対象となる主要被写体が、追尾によって継続的に特定される。図2を用いて、本実施形態に係るデジタルカメラ100の追尾の動作の概要を説明する。
図2(A)は、デジタルカメラ100の主要被写体としての人物10が撮像される動画像を時間軸に沿って例示する。図2(B)は、図2(A)の例における顔認識部122の追尾結果を示す。図2(C)は、同例における頭部認識部124の追尾結果を示す。
図2(A)は、人物10が時刻t1〜t7の間に、デジタルカメラ100に対して正面方向から横を向いた(t1〜t4)後、再び正面方向を向く(t4〜t7)例を示す。時刻t1〜t7の間隔は、例えば撮像画像Imのフレーム周期に対応する。なお、図2では時刻t2,t3,t5,t6における人物10の図示を省略している。
図2(B),(C)に示すように、本実施形態のデジタルカメラ100では、顔認識部122と頭部認識部124が並行して、それぞれ顔追尾処理と頭部追尾処理を行う。顔追尾処理では、顔認識部122が、撮像画像Imにおいて顔が映っている領域を示す顔領域Rf1を認識する画像認識処理を繰り返す。頭部追尾処理では、頭部認識部124が、撮像画像Imにおいて頭部が映っている領域を示す顔領域Rh1を認識する画像認識処理を繰り返す。
図2(A)〜(C)の例の時刻t1〜t3において、本実施形態のデジタルカメラ100は、顔認識部122による追尾結果を用いて、主要被写体としての人物10を追尾する。ここで、人物10の顔向き或いは姿勢が変化する等により、動画像に人物10は映っているが正面を示す顔が映らなくなる場合が生じ得る。この場合、図2(B)に例示するように、顔認識部122が顔領域を追尾できない(即ち顔追尾のロストが生じる)事態が想定される。
そこで、本実施形態のデジタルカメラ100は、図2(B),(C)に例示するように、顔追尾のロストが生じた時刻t4において、顔認識部122の追尾結果の代わりに頭部認識部124の追尾結果を用いる切り替えを行う。この際、デジタルカメラ100は、顔認識部122の追尾結果と頭部認識部124の追尾結果が、同一の被写体を示すか否かを判定する。例えば、図2(B),(C)では、時刻t3の顔領域Rf1が人物10の顔に対応し、時刻t4の頭部領域Rh1が同じ人物10の顔を包含した頭部に対応することに応じた各領域Rf1,Rh1の位置関係に基づき、被写体の同一性を判定できる。
このように本実施形態のデジタルカメラ100は、人物10の顔向き及び姿勢等によって顔認識部122による被写体の追尾が困難な場合であっても、頭部認識部124の追尾結果を用いて被写体を継続して追尾することができる。
また、本実施形態のデジタルカメラ100は、頭部認識部124の追尾結果による被写体の追尾中に、再び顔認識部122の追尾結果が得られると、顔認識部122の追尾結果を用いた被写体の追尾に戻す。図2(B),(C)の例では、顔認識部122による追尾結果が得られる時刻t6から、再び顔認識部122の追尾結果を用いた追尾が行われる。この際、デジタルカメラ100は、顔認識部122から頭部認識部124の追尾結果に切り替える場合と同様に、被写体の同一性を判定する。
以上のようなデジタルカメラ100によると、被写体の姿勢が変化して顔認識部122の追尾結果が得られない場合に、並行して頭部追尾処理を行う頭部認識部124の追尾結果を用いることで、主要被写体といった特定の被写体を継続して追尾することができる。これにより、画像データにおける特定の被写体の位置を継続して得ることができるため、例えば合焦動作を精度良く行うことができる。
なお、本実施形態において、例えばフレーム周期より遅い周期で頭部検出を実行する頭部認識部124は、前回の検出時における頭部領域Rh1の情報を、例えば動き検出部によって補正して用いることで、追尾結果を補間してもよい。図2(A)〜(C)の例では、フレーム周期に対応して顔認識部122の追尾結果が得られる一方で、時刻t2,t3,t5,t6では頭部検出が実行されないため、当該時刻の頭部認識部124の追尾結果が補間される。また、頭部認識部124は、前回の頭部領域Rh1の情報を、動き検出部による補正を行わずに、そのまま用いて追尾結果を補間してもよい。
2−2.被写体追尾処理
本実施形態のデジタルカメラ100は、以上のように顔認識部122及び頭部認識部124の追尾結果に基づいて被写体を追尾する被写体追尾処理を行う。被写体追尾処理において、デジタルカメラ100は、各認識部122,124の追尾結果に基づいて、主要被写体を追尾するとともに、他の被写体を主要被写体の候補として追尾する。本実施形態における被写体追尾処理について、図3,図4及び図5を用いて説明する。
図3は、本実施形態のデジタルカメラ100における被写体追尾処理を例示するフローチャートである。図4は、被写体追尾処理においてデジタルカメラ100が用いるデータを例示する図である。図5は、デジタルカメラ100における被写体追尾処理を説明するための図である。以下では、図5の撮像画像Imにおいて、人物10が主要被写体である場合を例に説明する。
図3のフローチャートに示す被写体追尾処理は、例えば並列に実行される顔追尾処理および頭部追尾処理(詳細は後述)と同期して、所定の周期で繰り返し実行される。所定の周期は、例えば撮像画像Imのフレーム周期である。本フローチャートの各処理は、例えばデジタルカメラ100のコントローラ135により実行される。
まず、デジタルカメラ100のコントローラ135は、例えばバッファメモリ125から、前回の被写体追尾処理の結果として得られた前のフレームに関する主要被写体情報及び副被写体情報を取得する(S1)。主要被写体情報は、主要被写体を特定する情報を示す。副被写体情報は、主要被写体以外の被写体の情報を示す。図4(A)に、ステップS1で取得された主要被写体情報D0を例示する。
本実施形態において、図4(A)に例示するような主要被写体情報D0、及び副被写体情報(図示せず)は、被写体追尾処理が実行される毎に繰り返し更新される。主要被写体情報D0は、例えば前回の顔認識部122の追尾結果に応じて設定される、主要被写体に対応した顔領域の位置及びサイズを含む。なお、被写体追尾処理の初回実行時には、主要被写体情報D0と副被写体情報は、例えば顔認識部122または頭部認識部124の追尾結果に基づいて設定可能である。
主要被写体情報D0と副被写体情報における顔領域または頭部領域の位置は、例えば撮像画像Im上の水平位置X及び垂直位置Yで規定され、例えば矩形状の顔領域Rf1,頭部領域Rh1の中心位置を示す。顔領域または頭部領域のサイズは、例えば矩形状の顔領域Rf1,頭部領域Rh1の幅W及び高さHを示す。
図3に戻り、コントローラ135は、顔認識部122から、現在のフレームを処理対象とした今回の顔追尾処理により生成された顔追尾情報D2を取得する(S2)。顔追尾情報D2は、顔認識部122による追尾結果を示す情報であり、例えば図4(B)に示すように顔領域の位置及びサイズと関連付けて含む。顔追尾情報D2は、複数の被写体に関する複数の顔領域の情報を含んでもよい。
コントローラ135は、取得した前回の主要被写体情報D0と今回の顔追尾情報D2とに基づいて、顔追尾情報D2から今回の主要被写体と判定される顔領域の有無を決定する主要被写体判定の処理(S3)を行う。コントローラ135は、今回の顔追尾情報D2における各顔領域の位置及びサイズと、前回の主要被写体情報D0の位置及びサイズとを比較して、顔追尾情報D2において、前回の主要被写体と同じ被写体と特定できる顔領域を、今回の主要被写体として判定する。主要被写体判定の処理(S3)の詳細については後述する。
コントローラ135は、主要被写体判定の処理(S3)の結果に基づき、顔追尾情報D2において主要被写体があるか否かを判断する(S4)。
顔追尾情報D2において主要被写体があると判断した場合(S4でYES)、コントローラ135は、顔追尾情報D2における顔領域の位置及びサイズに基づいて、主要被写体情報D0を更新する(S9)。
図5(A)は、顔追尾情報D2において、主要被写体である人物10の顔領域Rf1がある場合(S4でYES)の撮像画像Imを例示する。図5(A)の例では、主要被写体情報D0は、図4(B)に例示する顔領域Rf1の位置(Xf1,Yf1)及びサイズWf1,Hf1に、図4(A)に例示した位置(Xm1,Ym1)及びサイズWm1,Hm1を書き換えるように更新される(S9)。
一方、コントローラ135は、顔追尾情報D2において主要被写体がないと判断した場合(S4でNO)、頭部認識部124から現在のフレームを処理対象とした今回の頭部追尾処理により生成された頭部追尾情報D4を取得する(S5)。頭部追尾情報D4は、頭部認識部124による追尾結果を示す情報であり、例えば図4(C)に示すように頭部領域の位置及びサイズと関連付けて含む。顔追尾情報D2と同様に、頭部追尾情報D4は、複数の頭部領域の情報を含んでもよい。
図5(B)は、撮像画像Imにおける人物10の頭部領域Rh1を例示する。本実施形態のデジタルカメラ100において、頭部領域Rh1は、顔を包含する頭部全体に対応する領域として認識されるため、図5(A)に例示するように顔のみに対応する領域として認識される顔領域Rf1よりもサイズが大きい。そこで、各種頭部領域において顔に相当する部分を顔領域と比較可能にする観点から、コントローラ135は、頭部追尾情報D4における頭部領域のサイズを所定の割合だけ小さく補正する(S6)。所定の割合は、例えば頭部全体のうち顔の部分に相当すると想定される割合である(例えば9割)。
次に、コントローラ135は、ステップS3における顔追尾情報D2の代わりに、補正後の頭部追尾情報D4を用いて、ステップS3と同様に主要被写体判定の処理(S7)を行う。コントローラ135は、前回の主要被写体と同じ被写体と特定できる(補正後の)頭部領域を、今回の主要被写体として判定する。
コントローラ135は、主要被写体判定の処理(S7)の結果に基づき、補正後の頭部追尾情報D4において主要被写体があるか否かを判断する(S8)。
補正後の頭部追尾情報D4において主要被写体があると判断した場合(S8でYES)、コントローラ135は、補正後の頭部追尾情報D4における頭部領域の位置及びサイズに基づいて、主要被写体情報D0を更新する(S9)。図5(B)の例では、主要被写体情報D0は、図4(C)に例示する頭部領域Rh1のサイズWh1,Hh1からステップS6で補正したサイズに、図4(A)に例示するサイズWm1,Hm1を書き換えるように更新される。この際、主要被写体情報D0における位置(Xm1,Ym1)は、例えば頭部領域Rh1の位置(Xh1,Yh1)に書き換えられる。
一方、コントローラ135は、頭部追尾情報D4において主要被写体がないと判断した場合(S8でNO)、ステップS10に進む。
コントローラ135は、顔追尾情報D2または頭部追尾情報D4に基づいて主要被写体の他の被写体があるか否かを判断する(S10)。例えば、コントローラ135は、例えば顔追尾情報D2に基づき主要被写体があると判断した場合(S4でYES)には、顔追尾情報D2において他の顔領域の有無を判断する。一方、コントローラ135は、頭部追尾情報D4に基づき主要被写体があると判断した場合(S8でYES)には、頭部追尾情報D4において他の頭部領域の有無を判断する。
顔追尾情報D2または頭部追尾情報D4に基づき主要被写体の他の被写体があると判断した場合(S10でYES)、コントローラ135は、当該他の被写体としての顔領域または頭部領域に基づき、副被写体情報を更新する(S11)。副被写体情報は、例えば、顔領域または頭部領域と、各顔領域または頭部領域に関連付けられた位置及びサイズとを含み、頭部追尾情報D4において主要被写体以外の頭部領域がある場合には、ステップS6における補正後のサイズによって更新される。
図5(C)は、頭部追尾情報D4において主要被写体の他に頭部領域がある場合(S10でYES)の撮像画像Imを例示する。本例では、頭部追尾情報D4において主要被写体の頭部領域Rh1の他に、頭部領域Rh2,Rh3があるため、頭部領域Rh2,Rh3と関連付けられた位置及びサイズによって副被写体情報が更新される(S11)。
コントローラ135は、副被写体情報の更新(S11)後、現在のフレームにおける被写体追尾処理を終了する。また、コントローラ135は、顔追尾情報D2または頭部追尾情報D4において主要被写体の他に顔領域または頭部領域がないと判断する(S10)と、現在のフレームにおける被写体追尾処理を終了する。その後、次のフレームについて、ステップS1以降の処理が繰り返される。フレーム毎の被写体追尾処理によって主要被写体情報D0を逐次更新して管理することにより、主要被写体が追尾される。
以上の被写体追尾処理によると、前回の主要被写体情報D0と顔追尾情報D2とを比較して主要被写体判定の処理(S3)を行い、主要被写体がある場合(S4でYES)には、顔追尾情報D2により主要被写体情報D0を更新する(S9)。顔追尾情報D2において主要被写体がない場合(S4でNO)には、頭部追尾情報D4を用いた主要被写体判定の処理(S7)によって主要被写体があると(S8でYES)、頭部追尾情報D4に基づき主要被写体情報D0が更新される(S9)。これにより、顔追尾情報D2による主要被写体の追尾ができない場合であっても、頭部追尾情報D4に基づいて主要被写体の追尾を継続することができる。
また、上記のステップS8において主要被写体があると判定された場合(S8でYES)、補正後の頭部追尾情報D4によって主要被写体情報D0が更新される(S9)。これにより、次回以降の被写体追尾処理において取得する顔追尾情報D2との間で、顔追尾情報D2により主要被写体情報D0を更新した場合と同様に被写体の同一性を判定することができる(S3)。これにより、顔追尾情報D2において主要被写体がある(S4でYES)場合、顔認識部122の追尾結果を用いた被写体の追尾に戻ることができる。
なお、上記のステップS10では、コントローラ135は、ステップS4の判断に応じて、顔追尾情報D2または頭部追尾情報D4において他の被写体があるか否かを判断する例を説明した。ステップS10において他の被写体があるか否かの判断は、特にこれに限らず、例えば顔追尾情報D2及び頭部追尾情報D4の両方に基づいて行われてもよい。
2−3.主要被写体判定
図6は、デジタルカメラ100における主要被写体判定の処理(S3,S7)を例示するフローチャートである。図6に示すフローチャートによる各処理は、図3のステップS2で顔追尾情報D2を取得した後、及びステップS6で頭部追尾情報D4における頭部領域のサイズを補正した後、例えばデジタルカメラ100のコントローラ135によって実行される。
ステップS3の処理は、前のフレームの主要被写体情報D0と現在のフレームの顔追尾情報D2が保持された状態で開始する。一方、ステップS7の処理は、上記の顔追尾情報D2の代わりにサイズ補正(S6)後の頭部追尾情報D4が保持された状態で開始する。
例えばステップS3の処理においては、まず、コントローラ135は、顔追尾情報D2から1つの顔領域を選択する(S20)。
次に、コントローラ135は、顔追尾情報D2において選択した顔領域に関連付けられた位置と、主要被写体情報D0が示す前回の主要被写体の位置との間の差分を示す位置差分が所定距離以内であるか否かを判断する(S21)。所定距離は、例えば連続する2フレーム間で同じ被写体の顔領域の位置を互いに比較した結果から、同じ被写体の位置であるとみなせる程度に小さい距離として予め設定される。
前回の主要被写体からの位置差が所定距離内である場合(S21でYES)、コントローラ135は、選択した顔領域のサイズと、主要被写体情報D0のサイズとの間の比率を示すサイズ比を算出して、サイズ比が所定範囲内であるか否かを判定する(S22)。所定範囲は、例えばフレーム間で同じ被写体が映り得るサイズの変動とみなす範囲を規定する観点から、「1」よりも大きい上限値と「1」よりも小さい下限値で規定される。
前回の主要被写体からのサイズ比が所定範囲内である場合(S22でYES)、コントローラ135は、ステップS20で選択した顔領域を、現在のフレームにおける主要被写体の候補である主要被写体候補に決定する(S23)。主要被写体候補を示す情報は、例えばバッファメモリ125に保持される。
一方、前回の主要被写体からの位置差が所定距離内でない場合(S21でNO)、又は前回の主要被写体からのサイズ比が所定距離内でない場合(S22でNO)、選択した顔領域が、前回の主要被写体と同じ被写体ではないと判定できる。こうした場合、コントローラ135は、ステップS23の主要被写体候補の決定をせずにステップS24に進む。
コントローラ135は、顔追尾情報D2における全ての顔領域が選択済みか否かを判断する(S24)。コントローラ135は、選択されていない顔領域がなくなるまで(S24でNO)、ステップS20〜S24の処理を繰り返す。
全ての顔領域が選択済みになると(S24でYES)、コントローラ135は、例えば、バッファメモリ125を参照して主要被写体候補があるか否かを判断する(S25)。
主要被写体候補がある場合(S25でYES)、コントローラ135は、主要被写体候補から、現在の主要被写体を決定する(S26)。主要被写体候補が1つの場合、当該候補が主要被写体に決定される。複数の主要被写体候補がある場合、コントローラ135は、顔領域の位置が主要被写体情報D0の位置に最も近い候補を主要被写体に決定する。
一方、コントローラ135は、主要被写体候補がないと判断すると(S25でNO)、主要被写体がロストしたと決定する(S27)。この場合、例えば被写体追尾処理(図3)のステップS4において主要被写体がない(S4でNO)と判断される。
コントローラ135は、主要被写体の決定(S26)或いは主要被写体のロストの決定(S27)後、例えば図3のステップS3の主要被写体判定の処理を終了して、ステップS4に進む。
一方、ステップS7の処理においては、コントローラ135は、ステップS20において顔追尾情報D2から顔領域を選択する代わりにサイズ補正後(S6)の頭部追尾情報D4から頭部領域を選択して、以降の処理を上述と同様に行う(S21〜S27)。この場合、前回の主要被写体からの位置差及びサイズ比を用いた比較(S21,S22)は、顔が頭部よりも小さいことを考慮して補正済みの頭部領域を用いることにより、例えば顔領域の場合と同様の所定距離及び所定範囲を基準として実行できる。コントローラ135は、ステップS7の主要被写体判定の処理の終了後、図3のステップS8に進む。
以上の主要被写体判定の処理によると、前のフレームでの主要被写体を示す主要被写体情報D0と、現在のフレームでの顔追尾情報D2における顔領域または頭部追尾情報D4における頭部領域との間で、位置及びサイズの比較が行われる(S21,S22)。これにより、顔追尾情報D2または頭部追尾情報D4において、顔領域または頭部領域の位置とサイズが主要被写体情報D0と同程度である被写体を、現在のフレームでの主要被写体として決定することができる。
図7は、本実施形態のデジタルカメラ100における主要被写体判定の処理を説明するための図である。図7は、顔認識部122の追尾結果から頭部認識部124の追尾結果に切り替える場合の主要被写体判定の処理(S7)における撮像画像Imを例示する。図7(A)は、主要被写体判定の処理の開始時に、前のフレームでの主要被写体情報D0として顔領域Rf1の位置及びサイズが保持されている例を示す。図7(B)は、図7(A)の例から、現在のフレームでの頭部追尾情報D4における頭部領域Rh1’が選択された(S20)例を示す。図7(B)では、補正前後の頭部領域Rh1,Rh1’を例示している。補正後の頭部領域Rh1’は、補正前の頭部領域Rhの内部で顔と想定される程度のサイズWh1’,Hh1’を有する。
図7(B)の例では、主要被写体情報D0の位置(Xf1,Yf1)と、選択された頭部領域Rh1’の位置(Xh1,Yh1)とが近く、位置差が所定距離内である場合(S21でYES)を示す。さらに、主要被写体情報D0のサイズWf1,Hf1が選択された頭部領域Rh1’のサイズWh1’,Hh1’と同程度で、サイズ比が所定範囲内である場合(S22でYES)を例示する。このような場合、図7(B)に例示するように、顔領域Rf1及び補正後の頭部領域Rh1’といった被写体の顔に対応する領域は、同被写体の頭部に対応する頭部領域Rh1に実質的に包含されるような位置関係となり得る。
こうした観点から、図7(B)の例では、被写体の顔と頭部に対応して撮像画像Im上で重畳する顔領域Rf1と頭部領域Rh1の位置及びサイズの関係に応じて、頭部領域Rh1’は、顔領域Rf1に基づく主要被写体情報D0と同一の被写体として主要被写体に決定される(S26)。
以上のように、本実施形態のデジタルカメラ100は、顔認識部122及び頭部認識部124により追尾されている被写体の中で、追尾結果の位置とサイズに基づく主要被写体判定の処理を行うことで、主要被写体情報の更新(S9)に利用することができる。なお、主要被写体情報D0の比較対象として、補正後の頭部領域Rh1’の代わりに、補正前の頭部領域Rh1が用いられてもよい。この場合、例えばステップS22でサイズ比の基準とする所定範囲が、サイズ補正の分に応じて変更されてもよい。
2−4.主要被写体選択
本実施形態のデジタルカメラ100は、被写体追尾処理において顔追尾情報D2または頭部追尾情報D4に複数の顔領域または頭部領域が含まれる場合、前述したように、主要被写体情報D0に加えて、副被写体情報を更新する。これによりデジタルカメラ100は、副被写体情報から1つの被写体に対応する顔領域または頭部領域を選択するユーザ操作を受け付け、被写体追尾処理における新たな追尾対象として、選択された被写体を主要被写体に切り替える主要被写体選択の機能を提供する。
図8及び図9を用いて、本実施形態のデジタルカメラ100における主要被写体選択の処理について説明する。
図8は、本実施形態のデジタルカメラ100における主要被写体選択の処理を例示するフローチャートである。図8のフローチャートは、例えば所定の周期で実行される被写体追尾処理(図3)において、ステップS11の後に実行される。本フローチャートによる各処理は、例えばデジタルカメラ100のコントローラ135によって実行される。
図9は、デジタルカメラ100における主要被写体選択の処理を説明するための図である。図9(A)は、図5(C)に例示するように主要被写体情報D0及び副被写体情報を更新した場合に、デジタルカメラ100の表示モニタ130においてリアルタイムに表示される一例を示す。本表示例において、デジタルカメラ100は表示モニタ130に、AF対象のような主要被写体を示すAF枠30及び副被写体情報に基づく候補枠40を、撮像画像Im上に重畳して表示している。デジタルカメラ100は、AF枠30及び候補枠40を異なる表示態様で表示させることで、被写体追尾処理において追尾している主要被写体と、それ以外に認識した被写体とをユーザに可視化する。
図9(B)は、図9(A)の表示例においてユーザが被写体の選択操作を行う例を示す。図9(C)は、図9(B)の選択操作に応じて主要被写体が図9(A)から変更された状態の表示例を示す。被写体の選択操作は、例えば表示モニタ130に表示させたスルー画像上の候補枠40から、操作部150によりユーザが1つの候補枠40を選択する操作を受けて実行することができる。
図8のフローチャートにおいて、コントローラ135は、まず、例えばバッファメモリ125から主要被写体情報D0と副被写体情報を取得する(S40)。図9(A)の例では、主要被写体情報D0に基づき人物10に対応してAF枠30が表示され、副被写体情報に基づき人物11及び人物12に対応して候補枠40が表示されている。
次に、コントローラ135は、例えば操作部150(タッチパネル、ジョイスティック等)を介してユーザによる被写体の選択操作があったか否かを判断する(S41)。
ユーザによる被写体の選択操作があった場合(S41でYES)、コントローラ135は、選択された候補枠40により主要被写体情報D0と副被写体情報を更新する(S42)。具体的には、コントローラ135は、主要被写体情報D0の位置及びサイズをAF枠30に対応する顔領域または頭部領域と関連付けて、副被写体情報に格納する。コントローラ135は、さらに、副被写体情報における選択された候補枠40を副被写体情報から削除して、候補枠40に対応する位置及びサイズにより、主要被写体情報D0として更新する。
図9(B)は、人物11の候補枠40が選択された状態を例示する。図9(B)に例示するように、デジタルカメラ100は、選択された候補枠40を、選択枠50としてAF枠30及び他の候補枠40とは異なる表示態様で表示させる。図9(C)の表示例では、図9(B)の選択操作に応じて、主要被写体となった人物11に対応してAF枠30が表示され、人物10に対応して候補枠40が表示されている。
コントローラ135は、主要被写体情報D0と副被写体情報を更新した(S42)後、またはユーザによる選択操作がないと判断すると(S41でNO)、本フローチャートに示す処理を終了して、例えば図3のステップS1以降を繰り返す。
以上の主要被写体選択の処理によると、被写体追尾処理において保持する副被写体情報を用いて、副被写体に応じて候補枠40を表示させ、ユーザによる選択操作を受け付けることで、主要被写体情報D0を更新する。これにより、被写体追尾処理において追尾する主要被写体をユーザの意図に応じて切り替えることができる。
なお、本実施形態のデジタルカメラ100において、AF枠30、候補枠40及び選択枠50は、被写体が顔認識部122または頭部認識部124の何れにより認識されたかによっては特に区別されることなく表示される。
2−5.顔追尾処理
本実施形態のデジタルカメラ100は、顔認識部122による顔検出に基づいて顔追尾処理を行う。顔追尾処理について、図10〜図12を用いて説明する。
図10は、本実施形態のデジタルカメラ100における顔追尾処理を例示するフローチャートである。図10のフローチャートに示す処理は、例えば被写体追尾処理(図3)と同様の周期で繰り返し実行される。本フローチャートの各処理は、例えば顔認識部122によって実行される。
図11は、本実施形態のデジタルカメラ100における顔認識情報D22を例示する。顔認識情報D22は、顔認識部122による認識結果を管理する情報であり、顔追尾処理において逐次更新される。顔認識情報D22は、顔追尾情報D2と同様の顔領域の位置及びサイズに加えて、例えば顔認識部122による追尾の状態を管理する「追尾フラグ」を含む。例えば、顔認識情報D22において追尾フラグが「オン」の顔領域に関する情報は、顔追尾情報D2を構成し、上述した被写体追尾処理に用いられる。顔認識情報D22は、例えばバッファメモリ125に保持される。
図10のフローチャートにおいて、まず、顔認識部122は、例えばバッファメモリ125から、前のフレームを対象とする前回の顔追尾処理において更新した顔認識情報D22を取得する(S61)。
次に、顔認識部122は、現在のフレームにおいて顔検出の画像認識処理を行う(S62)。顔認識部122は、例えば顔検出の検出結果として、認識された顔領域毎に、顔追尾情報D2と同様に各顔領域に関連付けられた位置及びサイズとを含む情報を生成する。
顔認識部122は、前回の顔認識情報D22から1つの顔領域を選択する(S63)。
顔認識部122は、選択した顔領域について同一候補判定の処理(S64)を行う。同一候補判定の処理では、前回の顔認識情報D22から選択した顔領域と、今回の顔検出の検出結果における顔領域とを比較して、検出結果の顔領域における同一顔候補が決定される。同一顔候補は、今回の検出結果の顔領域の中で、顔認識情報D22から選択した顔領域と同一の被写体の候補となる顔領域を示す。今回の検出結果に複数の顔領域が含まれる場合、同一顔候補は、複数の顔領域を含む場合がある。同一候補判定の処理(S64)の詳細については後述する。
顔認識部122は、同一候補判定の処理(S64)の結果に基づいて、同一顔候補があるか否かを判断する(S65)。
同一顔候補がある場合(S65でYES)、顔認識部122は、同一顔候補において、顔認識情報D22から選択した顔領域と最も位置が近い顔領域を示す同一顔領域を決定する(S66)。
次に、顔認識部122は、決定した同一顔領域の位置及びサイズによって、顔認識情報D22において選択した顔領域の位置及びサイズを更新する(S67)。
一方、検出結果における同一顔候補がない場合(S65でNO)、顔認識部122は、選択した顔領域に関して顔追尾のロストが生じたことを認識し、例えば顔認識情報D22から、選択した顔領域を削除する(S68)。
顔認識部122は、顔認識情報D22における全ての顔領域を選択したか否かを判断する(S69)。顔認識部122は、全ての顔領域を選択するまで(S69でNO)、ステップS63〜S69の処理を繰り返す。
顔認識部122は、顔認識情報D22の全ての顔領域を選択した(S69でYES)後、検出結果において顔認識情報D22の何れかの顔領域と同一顔領域に決定されなかった顔領域を、追尾対象の候補として顔認識情報D22に追加する新規顔登録を行う(S70)。新規顔登録では、顔認識部122は、例えば顔認識情報D22に追尾フラグを「オフ」として顔領域を追加する。
顔認識部122は、新規顔登録を行った(S70)後、今回の顔追尾処理を終了する。その後、顔認識部122は、更新した顔認識情報D22に基づいて、次回の顔追尾処理を実行する。
本実施形態の顔認識部122は、例えば連続して2回以上検出した顔領域を追尾対象とする。顔認識部122は、ステップS70で顔認識情報D22に追加した顔領域と、次回の顔追尾処理において検出した顔領域が同一顔領域に決定されると、顔認識情報D22の追尾フラグをオンにして、以降の顔追尾処理における追尾対象に設定する。これにより、顔認識部122は、過去の追尾結果に存在せず、新たに検出した被写体も追尾対象とすることができる。
以上の顔追尾処理によると、顔認識部122は、顔検出(S62)の結果に基づき、過去の顔認識情報D22と顔領域の同一性を判定して(S64)、顔認識情報D22を更新する(S67)ことで、顔領域の追尾を継続する。これにより、例えば被写体追尾処理(図3)及び主要被写体選択の処理(図8)において、コントローラ135は、顔認識情報D22における追尾フラグがオンの顔領域を、顔追尾情報D2として利用することができる。
2−5−1.同一候補判定
図12を用いて、同一候補判定の処理(S64)の詳細を説明する。
図12は、本実施形態のデジタルカメラ100における同一候補判定の処理(S64)を例示するフローチャートである。本フローチャートは、顔追尾処理において、顔検出(S62)の検出結果を保持した状態で、前回の顔認識情報D22から顔領域が選択された(S63)後、開始される。以下では、図11に例示する顔認識情報D22において、顔領域Rf1が選択された場合の例を説明する。
まず、顔認識部122は、今回の顔検出の検出結果(S62)から1つの顔領域を選択する(S641)。
次に、顔認識部122は、今回の検出結果から選択した顔領域と、前回の顔認識情報D22の顔領域Rf1との間の位置差が、所定距離内であるか否かを判断する(S642)。所定距離は、例えば主要被写体判定の処理(S3,S7)におけるステップS21と同様に設定される。
前回の顔領域Rf1からの位置差が、所定距離内である(S642でYES)場合、顔認識部122は、選択した顔領域と前回の顔領域Rf1とのサイズ比が所定範囲内であるか否かを判断する(S643)。所定範囲は、例えば主要被写体判定の処理(S3,S7)におけるステップS22と同様に設定される。
前回の顔領域Rf1からのサイズ比が所定範囲内である(S643でYES)場合、顔認識部122は、選択した顔領域を同一顔候補に決定する(S644)。
一方、顔認識部122は、前回の顔領域Rf1からの位置差が所定距離よりも大きい場合(S642でNO)、又はサイズ比率が所定範囲内にない場合(S643でNO)、ステップS655に進む。
顔認識部122は、今回の検出結果における全ての顔領域が選択されたか否かを判断する(S645)。顔認識部122は、選択されていない顔領域がなくなるまで(S645でNO)、ステップS641〜S645の処理を繰り返す。
顔認識部122は、検出結果における全ての顔領域が選択された(S645でYES)後、同一候補判定の処理(S64)を終了して、顔追尾処理(図10)のステップS65に進む。
以上の同一候補判定の処理(S64)によると、顔認識部122による検出結果の顔領域から、顔認識情報D22において選択されている顔領域との比較により同一顔候補が決定される。これにより、同一顔候補から、顔追尾処理において追尾されている顔領域と同一の被写体と考えらえる顔領域を決定することができる(S66)。
2−6.頭部追尾処理
本実施形態のデジタルカメラ100は、顔認識部122による顔検出の代わりに頭部認識部124による頭部検出に基づいて、顔認識情報D22に代わる頭部認識情報を、顔追尾処理と同様に更新するように頭部追尾処理を行う。以下、頭部追尾処理について、図13及び図14を用いて、顔追尾処理と同様の説明は適宜省略して説明する。
図13は、本実施形態のデジタルカメラ100における頭部追尾処理を例示するフローチャートである。図13のフローチャートは、例えば顔追尾処理と同様に、被写体追尾処理(図3)と並行して同周期で繰り返し実行される。本フローチャートの各処理は、例えば頭部認識部124により実行される。
図14は、本実施形態のデジタルカメラ100における頭部認識情報D24を例示する図である。頭部認識情報D24は、頭部認識部124による認識結果を管理する情報であり、頭部検出の結果における頭部領域に関して、は顔認識情報D22と同様に位置、サイズ及び追尾フラグを含む。頭部認識情報D24において追尾フラグが「オン」の頭部領域に関する情報は、頭部追尾情報D4を構成する。
図13に例示する頭部追尾処理では、頭部認識部124が、図10のフローチャートに示す処理と同様の処理において、顔検出(S62)の代わりに、頭部検出の画像認識処理(S62A)を、顔検出の周期よりも長く設定された周期において実行する(S81)。頭部認識部124は、前回の頭部追尾処理で更新された頭部認識情報D24を取得して(S61A)、頭部検出の周期に到る毎に(S81でYES)、頭部検出(S62A)の検出結果に基づき、ステップS63〜S70と同様の処理を行う(S63〜S70)。
頭部認識部124は、頭部検出の周期において検出結果を出力する学習済みモデルを用いて頭部検出(S62A)を行う。頭部認識部124の学習済みモデルの実行周期を顔検出よりも長く設定することにより、例えば顔認識部122よりも大きい処理負荷の影響を緩和できる。
一方、頭部検出の周期でない場合(S81でNO)、頭部認識部124は、前回の学習済みモデルによる頭部検出において検出された位置に基づいて、例えば動き検出部により頭部領域の位置を補間する(S82)。
頭部認識部124は、学習済みモデルによる検出結果を補間し(S82)、その補間した位置により、頭部認識情報D24における頭部領域の位置を更新する(S83)。その後、頭部認識部124は、本フローチャートの処理を終了する。
頭部検出の周期である(S81でYES)場合には、頭部認識部124は、前回の頭部認識情報D24の頭部領域を選択して(S63A)、今回の頭部検出(S62A)の検出結果における頭部領域との間で同一候補判定の処理(S64A)を行う。ステップS64Aの同一候補判定では、図10のS64における顔検出の結果と顔認識情報D22に代えて、頭部検出による検出結果の頭部領域の中で、頭部認識情報D24から選択した頭部領域と同一の被写体の候補となる同一頭部候補が決定される。
同一頭部候補がある(S65AでYES)場合、頭部認識部124は、同一頭部候補から同一頭部領域を決定する(S66A)。頭部認識部124は、決定した同一頭部領域の位置及びサイズにより、頭部認識情報D24を更新する(S67A)。一方、同一頭部候補がない(S65AでNO)場合、頭部認識情報D24は、頭部認識情報D24から選択した頭部領域を削除する(S68A)。
頭部認識部124は、頭部認識情報D24における全ての頭部領域を選択するまで(S69でNO)、ステップS63A〜S69Aの処理を繰り返す。頭部認識情報D24から全ての頭部領域を選択すると(S69AでYES)、頭部認識部124は、新規顔登録(S70)での顔領域と顔認識情報D22の代わりに、追尾対象の候補となる頭部領域を頭部認識情報D24に追加する新規頭部登録(S70A)を行う。
以上の頭部追尾処理によると、頭部認識部124は、頭部検出(S62A)の結果に基づいて頭部認識情報D24を更新する(S67A,S83)ことで、頭部領域の追尾を継続する。
3.効果等
以上のように、実施の形態1のデジタルカメラ100は、被写体が撮像された動画像において被写体を追尾する画像追尾装置の一例であって、イメージセンサ115(画像取得部)と、顔認識部122(第1検出部)と、頭部認識部124(第2検出部)と、コントローラ135(制御部)とを備える。イメージセンサ115は、動画像を示す画像データを取得する。顔認識部122は、取得された画像データにおいて少なくとも1つの被写体の顔に対応する顔領域を検出して、動画像において顔領域を追尾する(S61〜S70)。頭部認識部124は、画像データにおいて、少なくとも1つの被写体の顔を包含する頭部に対応する頭部領域を検出して、動画像において頭部領域を追尾する(S61A〜S70A)。コントローラ135は、顔認識部122による顔領域の追尾結果と頭部認識部124による頭部領域の追尾結果とを互いに切り替えるように用いて、被写体を追尾する(S1〜S11)。
以上のデジタルカメラ100によると、それぞれ顔領域と頭部領域を追尾する顔認識部122と頭部認識部124の追尾結果を、互いに切り替えて用いることで、被写体が継続的に特定される。これにより、画像データにおいて被写体を追尾する精度を良くすることができる。
本実施形態において、コントローラ135は、顔認識部122によって顔領域が追尾されたとき、顔認識部122の追尾結果を用いて被写体を追尾し、顔認識部122によって顔領域が追尾されなくなったとき、顔認識部122の追尾結果から頭部認識部124の追尾結果に切り替える(S1〜S9)。これにより、被写体の顔向き或いは姿勢が変化する等により、動画像に被写体は映っているが顔が映らなくなる場合が生じても、頭部認識部124の追尾結果を用いることで、被写体を継続して追尾することができる。
本実施形態において、コントローラ135は、頭部認識部124の追尾結果に切り替えた後で顔認識部122によって顔領域が追尾されたとき、頭部認識部124の追尾結果から顔認識部122の追尾結果に切り替える(S1〜S4,S9)。これにより、顔認識部122の追尾結果を優先して用いた被写体の追尾を行うことができる。
本実施形態において、コントローラ135は、顔認識部122の追尾結果と頭部認識部124の追尾結果との間の切り替え前後において、顔領域が頭部領域に包含される位置関係にある場合、切り替え後の追尾結果を用いて被写体を追尾する。この際、コントローラ135は、顔領域の位置及びサイズと、頭部領域の位置及びサイズとに基づいて、顔領域が頭部領域に包含される位置関係にあるか否かを判断する(S3,S7)。これにより、顔領域と頭部領域がそれぞれ被写体の顔と顔を包含した頭部に対応することに応じて、顔領域と頭部領域の位置関係に基づき、切り替え前後における被写体の同一性を判定することができる。
本実施形態において、顔認識部122は複数の被写体の各顔領域を追尾し、及び/又は、頭部認識部124は複数の被写体の各頭部領域を追尾し、コントローラ135は、顔認識部122の追尾結果と頭部認識部124の追尾結果に基づいて、複数の被写体において主要被写体と他の被写体とをそれぞれ追尾する(S9,S11)。これにより、複数の被写体から被写体を選択するユーザの操作に応じて、主要被写体を他の被写体に変更することができる(S40〜S42)。
本実施形態において、顔認識部122が顔領域を検出する周期は、頭部認識部124が頭部領域を検出する周期よりも短い。これにより、例えば顔認識部122よりも大きい頭部認識部124の処理負荷の影響を緩和しながら、顔認識部122の追尾結果を優先して用いて被写体を精度良く追尾することができる。
本実施形態において、頭部認識部124は、動画像における被写体の動きに応じて頭部領域の検出結果を補間して、頭部領域を追尾する(S81〜S83)。これにより、補間した検出結果に基づく頭部領域の追尾結果を用いて被写体を追尾する精度を良くすることができる。
本実施形態において、頭部認識部124は、人と人以外の動物との少なくとも一方を含む被写体の頭部が撮像された画像データに基づく機械学習による学習済みモデルを用いて、頭部領域を検出する。これにより、例えば横顔、後頭部を含む全方向の顔向きの画像データを学習させた学習済みモデルを用いることで、被写体の顔向き或いは姿勢によらずに頭部領域を検出することができる。
本実施形態において、イメージセンサ115(画像取得部)は、被写体を撮像して画像データを生成する撮像部の一例である。本実施形態のデジタルカメラ100は、イメージセンサ115で撮像された画像データにおいて、画像追尾装置として被写体をリアルタイムに追尾する撮像装置を構成する。なお、画像取得部は、イメージセンサ115に限らず、画像データを取得するインタフェース回路として構成されてもよい。
また、実施の形態1のデジタルカメラ100は、被写体が撮像された動画像において被写体を追尾する画像追尾装置の一例であって、イメージセンサ115(画像取得部)と、顔認識部122(第1検出部)と、頭部認識部124(第2検出部)と、操作部150と、コントローラ135(制御部)とを備える。イメージセンサ115は、動画像を示す画像データを取得する。顔認識部122は、取得された画像データにおいて被写体の顔領域を検出して、動画像において顔領域を追尾する(S61〜S70)。頭部認識部124は、画像データにおいて被写体の頭部領域を検出して、動画像において頭部領域を追尾する(S61A〜S70A)。操作部150は、主要被写体を指定するユーザ操作を入力する。コントローラ135は、顔認識部122及び頭部認識部124の追尾結果に基づいて、画像データにおいて主要被写体を特定する情報である主要被写体情報D0を管理して、動画像において主要被写体を追尾する(S1〜S11)。顔認識部122及び頭部認識部124により複数の被写体に対応する複数の領域が追尾された状態において、主要被写体を変更するユーザ操作が入力された場合(S41でYES)、コントローラ135は、当該ユーザ操作が入力されたときの顔認識部122又は頭部認識部124の追尾結果に基づいて、変更前の主要被写体を特定する情報を、変更後の主要被写体を特定する情報に置き換えるように主要被写体情報D0を更新する(S42)。
以上のデジタルカメラ100によると、顔認識部122と頭部認識部124の何れの追尾結果を用いたとしても、主要被写体情報D0を管理することによって、主要被写体が追尾される(S1〜S11)。複数の被写体が存在する場合にユーザによる被写体の選択操作が行われると(S41でYES)、ユーザ操作に応じて主要被写体情報D0を変更することで(S42)、変更後の主要被写体の追尾を支障なく実現することができる。このように、ユーザ操作に応じて追尾する主要被写体の切り替えが容易に実現でき、所望の被写体を追尾する精度を良くすることができる。
本実施形態において、顔認識部122の追尾結果は、画像データにおける顔領域の位置及びサイズを含み、頭部認識部124の追尾結果は、画像データにおける頭部領域の位置及びサイズを含む。これにより、顔認識部122と頭部認識部124の何れの追尾結果を用いても、主要被写体の位置及びサイズを示す主要被写体情報D0を管理することができる(S1〜S11)。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施の形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態1で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
実施の形態1では、顔追尾処理において連続して2回以上検出した顔領域を追尾の対象とする顔認識部122を説明した。本実施形態において、顔認識部122は、連続して所定回数以上検出した顔領域を追尾の対象としてもよい。所定回数は、例えば顔検出の精度及び周期等に応じて予め設定される2回より多い回数である。この場合、顔認識部122は、例えば顔認識情報D22の顔領域に、ステップS62で検出され且つステップS66において同一顔領域に決定された回数を関連付けて保持しておき、当該回数が所定回数以上である顔領域の追尾フラグをオンにしてもよい。また、本実施形態の頭部認識部124においても、顔追尾処理における顔領域の代わりに、追尾対象の頭部領域が同様に決定されてもよい。
上記の実施形態では、顔追尾処理において、顔領域に追尾フラグを関連付けた顔認識情報D22を用いて、連続して2回以上検出した顔領域を追尾の対象とする顔認識部122を説明した。本実施形態の顔認識部122は、顔追尾処理において、顔認識情報D22を用いずに、検出した顔領域を追尾の対象として顔追尾情報D2を更新してもよい。また、本実施形態の頭部認識部124においても、顔追尾処理における顔領域の代わりに、検出した頭部領域を追尾の対象として、顔追尾処理と同様に頭部追尾情報D4が更新されてもよい。
実施の形態1では、被写体追尾処理により主要被写体を継続して特定することで、AF制御に用いるデジタルカメラ100を説明した。本実施形態では、デジタルカメラ100は、AF制御に限らず、主要被写体の追尾に基づき、ホワイトバランス(WB)の制御及び/または自動露出(AE)を実行してもよい。
実施の形態1では、スルー画像等の撮像画像Imに対する画像認識を行って、被写体を追尾するデジタルカメラ100を説明した。本実施形態では、デジタルカメラ100は、メモリカード142に過去に記憶した画像データにおいて画像認識を行い、被写体追尾処理を適用してもよい。
実施の形態1では、光学系110及びレンズ駆動部112を備えるデジタルカメラ100を例示した。本実施形態の撮像装置は、光学系110及びレンズ駆動部112を備えなくてもよく、例えば交換レンズ式のカメラであってもよい。
実施の形態1では、画像追尾装置の例としてデジタルカメラを説明したが、これに限定されない。本開示の撮像装置は、画像取得機能を有する電子機器(例えば、ビデオカメラ、スマートフォン、タブレット端末等)であればよい。
実施の形態1では、画像追尾装置の一例として、画像取得部が撮像部としてイメージセンサ115により構成されるデジタルカメラ100を説明した。本実施形態では、画像追尾装置は、例えば画像データを取得するインタフェース回路として構成された画像取得部を有する情報処理装置であってもよい。情報処理装置は、例えばPCである。本実施形態において画像追尾装置は、例えば追尾装置の外部にある撮像素子からインタフェース回路を介して取得した画像データに、被写体追尾等の処理を適用してもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示は、画像データにおいて被写体を追尾する画像追尾装置に適用可能である。
100 デジタルカメラ
115 イメージセンサ
120 画像処理エンジン
122 顔認識部
124 頭部認識部
125 バッファメモリ
130 表示モニタ
135 コントローラ
145 フラッシュメモリ
150 操作部

Claims (11)

  1. 被写体が撮像された動画像において前記被写体を追尾する画像追尾装置であって、
    前記動画像を示す画像データを取得する画像取得部と、
    取得された画像データにおいて少なくとも1つの被写体の顔に対応する顔領域を検出して、前記動画像において前記顔領域を追尾する第1検出部と、
    前記画像データにおいて、少なくとも1つの被写体の顔を包含する頭部に対応する頭部領域を検出して、前記動画像において前記頭部領域を追尾する第2検出部と、
    前記第1検出部による前記顔領域の追尾結果と前記第2検出部による前記頭部領域の追尾結果とを互いに切り替えるように用いて、前記被写体を追尾する制御部と
    を備える画像追尾装置。
  2. 前記制御部は、
    前記第1検出部によって前記顔領域が追尾されたとき、前記第1検出部の追尾結果を用いて前記被写体を追尾し、
    前記第1検出部によって前記顔領域が追尾されなくなったとき、前記第1検出部の追尾結果から前記第2検出部の追尾結果に切り替える
    請求項1に記載の画像追尾装置。
  3. 前記制御部は、前記第2検出部の追尾結果に切り替えた後で前記第1検出部によって前記顔領域が追尾されたとき、前記第2検出部の追尾結果から前記第1検出部の追尾結果に切り替える
    請求項2に記載の画像追尾装置。
  4. 前記制御部は、前記第1検出部の追尾結果と前記第2検出部の追尾結果との間の切り替え前後において、前記顔領域が前記頭部領域に包含される位置関係にある場合、切り替え後の追尾結果を用いて前記被写体を追尾する
    請求項2又は3に記載の画像追尾装置。
  5. 前記第1検出部は複数の被写体の各顔領域を追尾し、及び/又は、前記第2検出部は複数の被写体の各頭部領域を追尾し、
    前記制御部は、前記第1検出部の追尾結果と前記第2検出部の追尾結果に基づいて、前記複数の被写体において主要被写体と他の被写体とをそれぞれ追尾する
    請求項1から4のいずれか1項に記載の画像追尾装置。
  6. 前記第1検出部が前記顔領域を検出する周期は、前記第2検出部が前記頭部領域を検出する周期よりも短い
    請求項1から5のいずれか1項に記載の画像追尾装置。
  7. 前記第2検出部は、前記動画像における前記被写体の動きに応じて前記頭部領域の検出結果を補間して、前記頭部領域を追尾する
    請求項6に記載の画像追尾装置。
  8. 前記第2検出部は、人と人以外の動物との少なくとも一方を含む被写体の頭部が撮像された画像データに基づく機械学習による学習済みモデルを用いて、前記頭部領域を検出する
    請求項1から7のいずれか1項に記載の画像追尾装置。
  9. 前記画像取得部は、前記被写体を撮像して画像データを生成する撮像部である
    請求項1から8のいずれか1項に記載の画像追尾装置。
  10. 被写体が撮像された動画像において前記被写体を追尾する画像追尾装置であって、
    前記動画像を示す画像データを取得する画像取得部と、
    取得された画像データにおいて被写体の顔領域を検出して、前記動画像において前記顔領域を追尾する第1検出部と、
    前記画像データにおいて被写体の頭部領域を検出して、前記動画像において前記頭部領域を追尾する第2検出部と、
    主要被写体を指定するユーザ操作を入力する操作部と、
    前記第1及び第2検出部の追尾結果に基づいて、前記画像データにおいて前記主要被写体を特定する情報である主要被写体情報を管理して、前記動画像において前記主要被写体を追尾する制御部とを備え、
    前記第1及び第2検出部により複数の被写体に対応する複数の領域が追尾された状態において、前記主要被写体を変更するユーザ操作が入力された場合、
    前記制御部は、当該ユーザ操作が入力されたときの前記第1又は第2検出部の追尾結果に基づいて、変更前の主要被写体を特定する情報を、変更後の主要被写体を特定する情報に置き換えるように前記主要被写体情報を更新する
    画像追尾装置。
  11. 前記第1検出部の追尾結果は、前記画像データにおける前記顔領域の位置及びサイズを含み、前記第2検出部の追尾結果は、前記画像データにおける前記頭部領域の位置及びサイズを含む、請求項1から10のいずれか1項に記載の画像追尾装置。
JP2020089692A 2020-05-22 2020-05-22 画像追尾装置 Active JP6785481B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020089692A JP6785481B1 (ja) 2020-05-22 2020-05-22 画像追尾装置
US17/324,552 US11538172B2 (en) 2020-05-22 2021-05-19 Image tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020089692A JP6785481B1 (ja) 2020-05-22 2020-05-22 画像追尾装置

Publications (2)

Publication Number Publication Date
JP6785481B1 JP6785481B1 (ja) 2020-11-18
JP2021184564A true JP2021184564A (ja) 2021-12-02

Family

ID=73219980

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020089692A Active JP6785481B1 (ja) 2020-05-22 2020-05-22 画像追尾装置

Country Status (2)

Country Link
US (1) US11538172B2 (ja)
JP (1) JP6785481B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021197623A (ja) * 2020-06-12 2021-12-27 キヤノン株式会社 撮像装置及びその制御方法及びプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006179023A (ja) * 2006-02-13 2006-07-06 Nec Corp ロボット装置
JP2008026974A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法
JP2011166305A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置
WO2012002047A1 (ja) * 2010-06-30 2012-01-05 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
CN102317976A (zh) * 2009-02-17 2012-01-11 思科技术公司 视频会议的水平凝视估计
JP2012156704A (ja) * 2011-01-25 2012-08-16 Nikon Corp 画像処理装置、撮像装置およびプログラム
JP2019022116A (ja) * 2017-07-19 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2019201387A (ja) * 2018-05-18 2019-11-21 株式会社ザクティ 追尾制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4830650B2 (ja) 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
JP5771461B2 (ja) 2011-06-29 2015-09-02 オリンパス株式会社 追尾装置、追尾方法及び追尾プログラム
US8929598B2 (en) 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
KR101598159B1 (ko) * 2015-03-12 2016-03-07 라인 가부시키가이샤 영상 제공 방법 및 영상 제공 장치
EP3142040A1 (en) * 2015-09-11 2017-03-15 Canon Kabushiki Kaisha Information processing apparatus, method of controlling the same, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006179023A (ja) * 2006-02-13 2006-07-06 Nec Corp ロボット装置
JP2008026974A (ja) * 2006-07-18 2008-02-07 Mitsubishi Electric Corp 人物追跡装置
WO2009098894A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 電子カメラおよび画像処理方法
CN102317976A (zh) * 2009-02-17 2012-01-11 思科技术公司 视频会议的水平凝视估计
JP2011166305A (ja) * 2010-02-05 2011-08-25 Sony Corp 画像処理装置および撮像装置
WO2012002047A1 (ja) * 2010-06-30 2012-01-05 Necソフト株式会社 属性判定方法、属性判定装置、プログラム、記録媒体および属性判定システム
JP2012156704A (ja) * 2011-01-25 2012-08-16 Nikon Corp 画像処理装置、撮像装置およびプログラム
JP2019022116A (ja) * 2017-07-19 2019-02-07 キヤノン株式会社 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2019201387A (ja) * 2018-05-18 2019-11-21 株式会社ザクティ 追尾制御装置

Also Published As

Publication number Publication date
US20210366131A1 (en) 2021-11-25
JP6785481B1 (ja) 2020-11-18
US11538172B2 (en) 2022-12-27

Similar Documents

Publication Publication Date Title
US8102465B2 (en) Photographing apparatus and photographing method for photographing an image by controlling light irradiation on a subject
JP6532217B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
JP4732303B2 (ja) 撮像装置
JP2007072606A (ja) 画像処理装置及び方法
JP2007081682A (ja) 画像処理装置、画像処理方法、及び、情報処理装置が実行可能なプログラム
CN106713740B (zh) 定位跟踪摄像方法与系统
JP2009268086A (ja) 撮像装置
US11450131B2 (en) Electronic device
JP2011258180A (ja) 被写体追跡装置、被写体追跡方法及びプログラム
US9521329B2 (en) Display device, display method, and computer-readable recording medium
JP7113364B2 (ja) 撮像装置
JP6785481B1 (ja) 画像追尾装置
JP5880135B2 (ja) 検出装置、検出方法及びプログラム
JP6817590B1 (ja) 撮像装置
JP2019201387A (ja) 追尾制御装置
JP2021150760A (ja) 撮像装置およびその制御方法
US20220408027A1 (en) Imaging apparatus
US11394869B2 (en) Imaging device with focusing operation based on subject and predetermined region
JP2021128537A (ja) 画像処理装置および画像処理方法、プログラム並びに記憶媒体
JP2011188258A (ja) カメラシステム
RU2761187C1 (ru) Устройство обработки изображения и устройство захвата изображения
JP2020067534A (ja) 撮像装置
JP7117593B1 (ja) 撮像装置
US11917293B2 (en) Imaging device
JP2021105850A (ja) 画像処理装置及び方法、及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200529

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200529

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201013

R151 Written notification of patent or utility model registration

Ref document number: 6785481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151