JP6649864B2 - 画像処理装置、電子機器、画像処理方法及びプログラム - Google Patents

画像処理装置、電子機器、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6649864B2
JP6649864B2 JP2016207077A JP2016207077A JP6649864B2 JP 6649864 B2 JP6649864 B2 JP 6649864B2 JP 2016207077 A JP2016207077 A JP 2016207077A JP 2016207077 A JP2016207077 A JP 2016207077A JP 6649864 B2 JP6649864 B2 JP 6649864B2
Authority
JP
Japan
Prior art keywords
tracking
output frame
tracking position
moving image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016207077A
Other languages
English (en)
Other versions
JP2017085564A (ja
Inventor
康浩 黒田
康浩 黒田
暁人 百武
暁人 百武
滝澤 成温
成温 滝澤
良 大野
良 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Morpho Inc
Original Assignee
Morpho Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Morpho Inc filed Critical Morpho Inc
Publication of JP2017085564A publication Critical patent/JP2017085564A/ja
Application granted granted Critical
Publication of JP6649864B2 publication Critical patent/JP6649864B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、動画像中の対象物を追跡する画像処理装置等に関する。
従来より、動画像の中から目的の対象物を追跡する画像処理装置が知られている(例えば、特許文献1〜特許文献3)。
国際公開第2012/127618号 米国特許出願公開第2013/0222621号明細書 特開2012−205037号公報
上記の特許文献に開示されているような従来の画像処理装置では、動画像の中から対象物をどのように追跡するかについての追跡手法(追跡アルゴリズム)については開示されているが、対象物を追跡した結果をどのように応用するかについては考慮されていないという問題がある。
本発明は上記の課題に鑑みてなされたものであり、その目的とするところは、動画像中の対象物を追跡した上で、その追跡結果の新たな利用方法を提案することにある。
上記課題を解決すべく、以下の手段を採った。なお、後述する発明を実施するための形態の説明及び図面で使用した符号を参考のために括弧書きで付記するが、本発明の構成要素は該付記したものには限定されない。
第1の発明は、
画像処理装置(図1の画像処理装置1)であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する(図4のA3)追跡領域設定手段(図1の追跡領域設定部11)と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する(図4のA5)色情報取得手段(図1の色情報取得部12)と、
前記色情報取得手段によって取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する(図5のB3)追跡位置推定手段(図1の追跡位置推定部14)と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する(図5のB19)出力枠設定手段(図1の出力枠設定部17)と、
前記出力枠設定手段によって更新される出力枠を基準とした動画像を生成する(図4のA11)動画像生成手段(図1の照準動画像生成部18)と、
前記追跡位置推定手段によって推定された追跡位置の適否を判定する追跡位置適否判定手段と、
前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定手段と、
を備え
前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理装置である。
また、他の発明として、
電子機器であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
前記出力枠を基準とした動画像を生成する動画像生成手段と、
タッチパネルが一体的に構成された表示手段と、
前記表示手段を表示制御する表示制御手段と、
前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
を備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
電子機器を構成してもよい。
また、他の発明として、
画像処理方法であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定すること(図4のA3)と、
前記設定された追跡領域の色情報を取得すること(図4のA5)と、
前記取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定すること(図5のB3)と、
前記設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新すること(図5のB19)と、
前記更新される出力枠を基準とした動画像を生成すること(図4のA11)と、
前記推定された追跡位置の適否を判定することと、
前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定することと、
を含み
前記追跡位置を推定することは、前記再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠を設定することは、前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置を再推定することは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理方法を構成してもよい。
また、他の発明として、
コンピュータ(各種の装置のプロセッサ)に、画像処理を実行させるためのプログラム(図9の対象物追跡プログラム811)であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定ステップ(図4のA3)と、
前記追跡領域設定ステップで設定された追跡領域の色情報を取得する色情報取得ステップ(図4のA5)と、
前記色情報取得ステップで取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定ステップ(図5のB3)と、
前記追跡領域設定ステップで設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定ステップ(図5のB19)と、
前記出力枠を基準とした動画像を生成する動画像生成ステップ(図4のA11)と、
前記追跡位置推定ステップで推定された追跡位置の適否を判定する追跡位置適否判定ステップと、
前記追跡位置適否判定ステップで前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定ステップと、
を実行させ
前記追跡位置推定ステップでは、前記追跡位置再推定ステップで再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定ステップでは、前記追跡位置再推定ステップで前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定ステップで推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定ステップでは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
プログラムを構成してもよい。
この第1の発明等によれば、元動画像を構成するフレーム画像中の対象物に設定された追跡領域の色情報を用いて、追跡領域を基準とする追跡位置をフレーム画像毎に推定する。また、設定した追跡領域を含む出力枠を設定するとともに、追跡位置が推定される毎に、推定された追跡位置に基づいて出力枠を更新する。そして、元動画像を用いて、更新される出力枠を基準とした動画像を生成することで、対象物の追跡結果を、対象物に照準した照準動画像として提供することが可能となる。
また、第2の発明として、
第1の発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報を用いて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定する(図5のB3)、
画像処理装置を構成してもよい。
この第2の発明によれば、元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定した上で、複数の追跡領域それぞれの色情報を用いて、複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定することで、対象物の追跡をより確実(ロバスト)に行うことが可能となる。
また、第3の発明として、
第1又は第2の発明の画像処理装置であって、
前記追跡位置推定手段によって推定された追跡位置の適否を判定する(図5のB11)追跡位置適否判定手段(図1の追跡位置適否判定部15)と、
前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する(図5のB23)追跡位置再推定手段(図1の追跡位置再推定部16)と、
を更に備えた、
画像処理装置を構成してもよい。
この第3の発明によれば、推定された追跡位置が適当な位置であるか否かを判定することができる。そして、適当な位置ではないと判定した場合には、追跡位置を再推定することで、適当な位置を取得することが可能となる。
また、第4の発明として、
第3の発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し(図5のB3)
前記追跡位置適否判定手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記追跡位置推定手段によって推定された追跡位置の相対的な位置関係(推定追跡位置間の距離が近距離条件を満たすか否か)に基づいて適否判定を行う、
画像処理装置を構成してもよい。
この第4の発明によれば、複数の追跡領域それぞれについて推定された追跡位置の相対的な位置関係に基づいて適否判定を行うことで、推定された追跡位置の適否を適切に判定することができる。
また、第5の発明として、
第3又は第4の発明の画像処理装置であって、
前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断する(図5のB25)、
画像処理装置を構成してもよい。
この第5の発明によれば、再推定された追跡位置が不適当な位置であった場合に、この不適当な追跡位置に基づいて出力枠が生成され、その結果、追跡物とは関係の無い物体が出力されてしまうことを防止できる。
また、第6の発明として、
第5の発明の画像処理装置であって、
前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し(図5のB23→B25→B21→B3)、
前記出力枠設定手段は、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開する(図5のB5;Yes→B7;Yes→B9)、
画像処理装置を構成してもよい。
この第6の発明によれば、再推定された追跡位置に基づいて追跡位置を推定することで適当な追跡位置が推定された場合に、この適当な追跡位置に基づいて出力枠が生成されるため、追跡物を適切に出力することが可能となる。また、仮に再推定された追跡位置に基づいて推定された追跡位置が不適当な位置であった場合には、この不適当な追跡位置に基づいて出力枠が生成されることを防止し、追跡物とは関係のない物体が出力されてしまうことを防止できる。
また、第7の発明として、
第6の発明の画像処理装置であって、
前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理装置を構成してもよい。
この第7の発明によれば、更新が再開された際の出力枠を基準として、出力枠の更新が中断したときの追跡位置を遡って再推定することで、出力枠の更新が中断していた期間における追跡位置を補完的に求めることができる。
また、第8の発明として、
第1〜第7の何れかの発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の複数の対象物に追跡領域を設定し、
前記複数の対象物に追跡の優先度を設定する優先度設定手段(画像処理装置1の不図示の優先度設定部)を更に備え、
前記出力枠設定手段は、前記優先度設定手段によって設定された優先度に基づいて、更新する出力枠を決定する、
画像処理装置を構成してもよい。
この第8の発明によれば、複数の対象物について追跡を行うことができる。また、複数の対象物に優先度を設定し、設定した優先度に基づいて更新する出力枠を決定することで、優先度の高い対象物に照準した照準動画像を生成することができる。
また、第9の発明として、
第1〜第8の何れかの発明の画像処理装置(図8の画像処理装置1)であって、
前記追跡領域設定手段によって設定された追跡領域の形状情報を取得する形状情報取得手段(図8の形状情報取得部13)を更に備え、
前記追跡位置推定手段は、前記形状情報取得手段によって取得された形状情報を更に用いて、前記追跡位置をフレーム画像毎に推定する、
画像処理装置を構成してもよい。
この第9の発明によれば、追跡領域の形状情報を追跡位置の推定に用いることで、対象物の形状を考慮した追跡を実現することが可能となる。
また、第10の発明として、
第1〜第9の何れかの発明の画像処理装置であって、
前記出力枠設定手段によって更新される出力枠位置の変位量に基づいて、前記出力枠の位置を修正する出力枠位置修正手段(画像処理装置1の不図示の出力枠位置修正部)を更に備え、
前記動画像生成手段は、前記出力枠位置修正手段によって位置が修正された出力枠を基準とした動画像を生成する、
画像処理装置を構成してもよい。
この第10の発明によれば、更新される出力枠の変位に基づいて出力枠の位置を修正することで、生成される照準動画像にがたつきが生じてしまうことを防止できる。
また、第11の発明として、
第1〜第10の何れかの発明の画像処理装置(図1、図8の画像処理装置1)と、
タッチパネル(図9のタッチパネル250)が一体的に構成された表示手段(図9の表示部300)と、
前記表示手段を表示制御する表示制御手段(図9の表示制御部190)と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記追跡領域を設定し(図11のF5;Yes→F7→F9)、
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる(図10のE11)動画像表示制御手段を有する、
電子機器を構成してもよい。
この第11の発明によれば、ユーザー操作に基づいて設定した追跡領域に基づいて対象物を追跡することが可能となる。また、対象物に照準した照準動画像をユーザーが確認できるようにすることができる。
また、第12の発明として、
第11の発明の電子機器であって、
前記表示制御手段は、前記追跡領域設定手段によって設定された追跡領域を特定可能な表示態様(追跡領域を包含する追跡領域枠に色を付して表示)で前記動画像に重畳表示させる(図10のE11)追跡領域表示制御手段を有する、
電子機器を構成してもよい。
この第12の発明によれば、設定された追跡領域を照準動画像においてユーザーが確認できるようにすることができる。
また、第13の発明として、
第1〜第10の何れかの発明の画像処理装置(図1、図8の画像処理装置1)と、
タッチパネル(図9のタッチパネル250)が一体的に構成された表示手段(図9の表示部300)と、
前記表示手段を表示制御する表示制御手段(図9の表示制御部190)と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し(図5のB3)
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する(図10のE11)
電子機器を構成してもよい。
この第13の発明によれば、ユーザー操作に基づいて設定した複数の追跡領域に基づいて対象物を追跡することが可能となる。また、対象物に照準した照準動画像をユーザーが確認できるようにすることができる。
また、第14の発明として、
第13の発明の電子機器であって、
前記表示制御手段は、前記追跡領域設定手段によって設定された複数の追跡領域をそれぞれ区別して特定可能な表示態様(複数の追跡領域それぞれを包含する追跡領域枠に色を付して表示)で前記動画像に重畳表示させる追跡領域表示制御手段(図9の表示制御部190)を有する、
電子機器を構成してもよい。
この第14の発明によれば、設定された複数の追跡領域を照準動画像においてユーザーが確認できるようにすることができる。
また、第15の発明として、
第11〜第14の何れかの発明の電子機器であって、
前記表示制御手段は、前記出力枠設定手段によって更新される出力枠を特定可能な表示態様(枠線に色を付して表示)で前記動画像に重畳表示させる第1の出力枠表示制御手段(図9の表示制御部190)を有する、
電子機器を構成してもよい。
この第15の発明によれば、更新される出力枠を照準動画像においてユーザーが確認できるようにすることができる。
また、第16の発明として、
第15の発明の電子機器であって、
前記動画像表示制御手段は、前記出力枠を含む所定領域を拡大した動画像を前記表示手段に表示させ、
前記第1の出力枠表示制御手段は、前記拡大された所定領域に適応するように大きさを調整した出力枠を前記動画像に重畳表示させる、
電子機器を構成してもよい。
この第16の発明によれば、出力枠を含む所定領域(出力対象領域)が拡大された照準動画像をユーザーが閲覧することが可能となる。また、拡大された所定領域(出力対象領域)に適応した大きさで出力枠を照準動画像に重畳表示させることが可能となる。
また、第17の発明として、
第11〜第16の何れかの発明の電子機器であって、
前記表示制御手段は、
前記元動画像を前記表示手段に表示させる元動画像表示制御手段(図9の表示制御部190)と、
前記出力枠設定手段によって更新される出力枠を特定可能な表示態様(出力枠の枠線に色を付して表示)で前記元動画像に重畳表示させる第2の出力枠表示制御手段(図9の表示制御部190)と、
を有する、
電子機器を構成してもよい。
この第17の発明によれば、更新される出力枠を元動画像においてユーザーが確認できるようにすることができる。
また、第18の発明として、
第17の発明の電子機器であって、
前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する(図14のH1)移動操作判定手段(図9の処理部100)と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する(図14のH5)物体検出手段(図9の処理部100)と、
を更に備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し(図14のH9)、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する(図14のH11)、
電子機器を構成してもよい。
この第18の発明によれば、ユーザーが出力枠を移動させる移動操作を行い、出力枠内に存在する物体を検出させ、その色情報に基づいて、対象物の追跡を行わせることができる。
画像処理装置の機能構成の一例を示す図。 追跡領域設定の説明図。 追跡処理に用いる確率分布の説明図。 画像処理の流れの一例を示すフローチャート。 追跡処理の流れの一例を示すフローチャート。 追跡位置再推定処理の流れの一例を示すフローチャート。 出力枠の説明図。 画像処理装置の機能構成の別例を示す図。 スマートフォンの機能構成の一例を示す図。 カメラモード処理の流れの一例を示すフローチャート。 対象物追跡処理の流れの一例を示すフローチャート。 スマートフォンの表示画面の一例を示す図。 第2のカメラモード処理の流れの一例を示すフローチャート。 第2の対象物追跡処理の流れの一例を示すフローチャート。 記録媒体の一例を示す図。
以下、図面を参照して、本発明を適用した好適な実施形態の一例について説明する。なお、図面の説明において同一の要素には同一の符号を付して、重複する説明を省略する場合がある。また、図面の寸法比率は、説明のものと必ずしも一致していない。また、本発明を適用可能な形態が、以下説明する実施形態に限定されるわけではないことは勿論である。
[1.画像処理装置]
本実施形態における画像処理装置は、動画像中の対象物を追跡するものである。本実施形態において対象物の追跡を行う動画像は、定点から撮像(定点撮像)された動画像とするのが好適である。これは、本実施形態における画像処理装置は、主として色情報を用いて対象物の追跡を行うため、手振れによるブラーの発生や光の影響等により対象物の色に変化が生じてしまうと、追跡の精度が低下するためである。
なお、必ずしも定点撮像された動画像でなくとも、本実施形態の手法を用いることで、対象物の追跡を行うことは可能である。動画像中の明るさの変化の影響についてはホワイトバランスの調整、動画像中に発生する手ぶれに対しては手振れ補正といった調整を行うことで、定点観測とほぼ同様の性能で対象物の追跡を実現することができる。
本実施形態に係る画像処理装置は、例えば、スマートフォン等の携帯電話機、デジタルカメラ、タブレット端末、PDA(Personal Digital Assistant)等、リソースに制限のあるモバイル端末に具備させることが可能であるが、これらに限られるものではなく、例えば通常のコンピュータシステムに具備させてもよい。
[1−1.機能構成]
図1は、本実施形態における画像処理装置1の機能構成の一例を示すブロック図である。
画像処理装置1は、元動画像取得部10と、追跡領域設定部11と、色情報取得部12と、追跡位置推定部14と、追跡位置適否判定部15と、追跡位置再推定部16と、出力枠設定部17と、照準動画像生成部18とを備える。これらは、画像処理装置1の処理部(処理装置)が有する機能部(機能ブロック)であり、処理部は、CPUやDSP等のプロセッサーやASIC等の集積回路を有して構成される。
元動画像取得部10は、元動画像メモリ20に保存されている元動画像の中から一の元動画像(元動画像のデータ)を取得する。元動画像は複数のフレーム画像から構成される。本明細書では、後述する照準動画像と区別することを目的として、対象物の追跡に用いる動画像を元動画像と表現する。
追跡領域設定部11は、元動画像取得部10によって取得された元動画像を構成するフレーム画像中の対象物に追跡領域を設定する。追跡領域設定部11が設定する追跡領域は、単一の領域とすることも、2以上の領域とすることも可能である。本実施形態では、1つの対象物に2つの追跡領域を設定する場合は、この2つの追跡領域を、それぞれ「第1の追跡領域」、「第2追跡領域」として説明する。
図2は、追跡領域設定の原理を説明するための図である。
図2(1)には、元動画像を構成するフレーム画像の一例を示しており、このフレーム画像には、A、Bの2人の人物が写し出されている。人物Aを対象物として追跡を行う場合、例えば、人物Aの上半身と下半身の2か所に追跡領域を設定する。本実施形態では、主として対象物の色情報を用いて対象物の追跡を行うが、人物Aの上半身と下半身の2か所に追跡領域を設定する理由は、人が上半身に着用するシャツと、下半身に着用するズボンとは、異なる色をしている場合が多いためである。例えば、上半身のシャツの一部に第1の追跡領域R1を設定し、下半身のズボンの一部に第2の追跡領域R2を設定する。
人物Aが人物Bと一緒にスポーツを行い、それをスマートフォン等の電子機器を用いて動画撮影したとする。そして、スポーツ中における人物Aの動きを確認するために、人物Aをクローズアップした動画を確認したい場合がある。これを実現するために、本実施形態では、上記のようにして図2(1)に示すように設定した第1の追跡領域R1と第2の追跡領域R2の色情報に基づいて、対象物である人物Aを追跡する。具体的には、図2(2)に示すように、人物Aが移動した場合に、図2(1)において設定した第1の追跡領域R1及び第2の追跡領域R2を基準とする追跡位置を推定することで、対象物である人物Aを追跡する。
色情報取得部12は、追跡領域設定部11によって設定された追跡領域に含まれる画素の色情報を取得する。具体的には、色情報取得部12は、追跡領域設定部11によって設定された追跡領域の統計的な色の出現頻度を算出する。
本実施形態では、画素値がHSV(H:色相、S:彩度、V:明度)色空間で表現され、H、S、Vの成分値がそれぞれ8ビットの0〜255の範囲であることとして説明する。この場合、色情報取得部12は、一のフレーム画像における追跡領域に含まれる画素のH、S、Vの各成分それぞれについて、追跡領域内での当該成分の出現頻度を示すヒストグラムを生成する。そして、生成したヒストグラムと、別フレーム画像における追跡領域の近傍の所定範囲の領域(以下、「近傍領域」という。)の各画素の画素値(H、S、V)とに基づいて、フレーム画像中のどの座標値において追跡領域と同じ色が存在する確率が高いかを示す確率分布を算出する。別フレーム画像は、例えば一のフレーム画像に連続する次のフレーム画像とすればよい。
追跡領域の近傍領域に含まれる画素に基づいて確率分布を算出することにしているのは、
(1)追跡領域になるべく近い領域から追跡領域と同じ色の領域を探索したい。
(2)追跡処理に要するデータ処理量を削減したい。
の2つの理由があるためである。
図3は、色情報取得部12によって算出される確率分布の一例を示す図であり、説明の簡明化のために、一次元の確率分布を示している。
この図には、横軸を確率変数xとし、縦軸を確率Pとする確率分布φ(x)を図示している。確率変数xは、例えば、フレーム画像の横方向の座標値xに対応する。この確率分布φ(x)は、どの座標値xに追跡領域と同じ色が存在する確率が高いかを示す確率分布関数であり、一番高い山の頂点に対応する座標値において追跡領域と同一の色が存在する確率が最も高いことを示している。但し、画像は2次元であるため、実際には、フレーム画像の2次元の座標値(x、y)を成分とする確率分布φ(x、y)が算出される。
本実施形態では、単色モデルと多色モデルと称する2種類の色モデルに基づいて、確率分布φ(x、y)を算出することが可能に構成されている。単色モデルは、追跡領域内の色分布の中で最も出現頻度の高い色を、追跡のための色情報として使用する色モデルである。つまり、単色モデルでは、単一の色情報を追跡に使用して、対象物を追跡するモデルである。但し、本実施形態では、単色モデルで追跡に使用する色のH、S、V成分それぞれについて一定範囲の幅を設けることとし、このH、S、V成分に一定範囲の幅を設けた色を追跡に使用する。
それに対し、多色モデルは、追跡領域内で一定の面積を占める特定領域内(例えば矩形領域)の全ての画素の色分布を、追跡のための色情報として使用する色モデルである。つまり、多色モデルでは、複数の色を含む特定領域の色情報を追跡に用いて、対象物を追跡するモデルである。
ここで、本実施形態における単色モデルでは、対象物が有する色のうちの単一の色を追跡に用いるが、上記のように、H、S、V成分に一定範囲の幅を設けた色を追跡に使用することで、光の変化に強くすることができる。H、S、V成分のうち、色の種類に相当するH(色相)成分は特に光の影響を受け易い。このため、H、S、V成分に一定範囲の幅を設けることで、光の影響を軽減している。このため、本実施形態における単色モデルは、屋外で撮像された動画像における対象物の追跡に適していると言える。
それに対し、本実施形態における多色モデルでは、対象物が持つ複数の色情報を追跡に用いるため、対象物が複数の色の組み合わせで表現されている場合における対象物の追跡に適している。これは、例えば対象物である人物の服装の色が、単色ではなく複数の色が組み合わされた模様となっている場合である。また、多色モデルは、上記の単色モデルと比較すると光の変化による影響を受け易いという特徴がある。このため、本実施形態における多色モデルは、屋内で撮像された動画像における対象物の追跡に適していると言える。
上記の理由から、動画像がどのような撮像環境で撮像された動画像であるかに応じて適用する色モデルを単色モデルと多色モデルとで切り替えて、対象物の追跡を行うようにすると好適である。その場合は、色情報取得部12が対象物の追跡領域の色の分布の大小及び輝度変化の大小から、単色モデル、多色モデルの何れかを自動的に選択するように設定する。または、ユーザーが撮像環境及び対象物の追跡領域の色から判断して、図示しない操作部を操作して単色モデル、多色モデルの何れかを選択するように設定する。または、色情報取得部12が対象物の追跡領域の色の分布の大小及び輝度変化の大小から選択した推奨モデルを表示画面に表示し、それを参照したユーザーが単色モデル、多色モデルの何れかを選択するように設定してもよい。または、表示画面にメニュー画面を表示し、ユーザーがメニュー画面の案内に従って、撮像環境が屋内か屋外か、対象物の追跡領域が単色か多色かを選択することで、単色モデル、多色モデルの何れかが選択されるように設定してもよい。なお、上記の用途で使用する表示画面及びユーザー操作を受け付ける操作部は、図1の画像処理装置1の内部に設けてもよいし、外部に設けて有線又は無線による通信手段で画像処理装置1に接続してもよい。
追跡位置推定部14は、色情報取得部12によって算出された確率分布φ(x,y)に基づき、Mean−Shift法を利用して、追跡領域を基準とする追跡位置を推定する。また、追跡位置推定部14は、追跡位置再推定部16によって再推定された追跡位置に基づいて、追跡領域を基準とする追跡位置を推定する。追跡位置推定部14によって推定された追跡位置を「推定追跡位置」という。なお、Mean−Shift法それ自体は従来公知であり、例えば、本願出願人が先に出願した国際公開第2012/127618号においてMean−Shift法を利用した対象物の追跡手法が開示されているため、ここでは詳細な説明を省略する。
簡単に説明すると、単色モデルでは、追跡に使用する色(単一の色)と同一の色を有する画素を、対象とするフレーム画像内で最新の(前回の)推定追跡位置の近傍領域から探索する。この際、追跡に使用する色のHSVの各成分それぞれを、近傍領域に含まれる画素のHSV成分とそれぞれ比較し、その比較結果に基づいて、各画素それぞれについて尤度を算出する。そして、算出した尤度が大きい画素、例えば、算出した尤度が最も大きい画素又は所定の閾値よりも大きい画素の位置を推定追跡位置とする。
それに対し、多色モデルでは、追跡に使用するHSV色空間内の色分布を追跡領域の色に関する確率分布とみなし、近傍領域に含まれる画素のHSV成分に該当する、当該確率分布の値を得ることで、各画素それぞれについて尤度を算出する。そして、算出した尤度が大きい画素、例えば、算出した尤度が最も大きい画素又は所定の閾値よりも大きい画素の位置を推定追跡位置とする。
追跡位置適否判定部15は、追跡位置推定部14によって求められた推定追跡位置の適否(適当な位置であるか否か)を判定する。具体的には、上記のようにして算出された尤度を用いて、第1の追跡領域を基準として推定された追跡位置(以下、「第1の推定追跡位置」という。)の信頼度と第2の追跡領域を基準として推定された追跡位置(以下、「第2の推定追跡位置」という。)の信頼度とをそれぞれ算出する。
ここで、推定追跡位置の信頼度は、当該推定追跡位置について算出された尤度そのものとしてもよいし、尤度に他の指標値、例えば、追跡領域から取得した色情報の動き量を加味した値としてもよい。そして、追跡位置適否判定部15は、第1の推定追跡位置の信頼度及び第2の推定追跡位置の信頼度に基づいて、推定追跡位置の適否を判定する。また、追跡位置適否判定部15は、第1の推定追跡位置と第2の推定追跡位置との相対的な位置関係に基づいて、推定追跡位置の適否を判定する。
追跡推定位置再推定部16は、追跡位置適否判定部15によって推定追跡位置が不適当と判定された場合に、追跡位置を再推定する。
出力枠設定部17は、追跡領域設定部11によって設定された追跡領域を含む出力枠を設定する。出力枠のサイズは、追跡領域及び対象物を包含する所定サイズとすると好適である。また、出力枠設定部17は、追跡位置推定部14によって推定された追跡位置に基づいて、追跡領域を含む出力枠を更新する。ここで、出力枠とは、フレーム画像内に表示され、対象物がそのメイン部分となるように、撮影された動画像から抽出されたサブフレームであり、出力領域と言うこともできる。また、その役割に関連付けて、追跡枠または照準枠と称してもよい。
照準動画像生成部18は、元動画像メモリ20に記憶された元動画像を用いて、出力枠設定部17によって更新される出力枠に照準した動画像(以下、「照準動画像」という。)を生成する。すなわち、照準動画像は、出力枠を基準とした動画像であり、元動画像とは別の動画像として生成される。出力枠に注目した動画像であることから、照準動画像は、出力動画像、対象動画像、追跡動画像と称してもよい。
[1−2.処理の流れ]
図4は、画像処理装置1が実行する画像処理の流れの一例を示すフローチャートである。
最初に、元動画像取得部10が、元動画像取得処理を実行する(A1)。具体的には、元動画像メモリ20に保存されている複数の元動画像の中から一の元動画像を取得する。または、図示しない入力部からリアルタイムで入力され、図示しない表示部にリアルタイムで表示される動画像(以下、リアルタイム動画像と称する)を以下の処理に使用してもよい。
次いで、追跡領域設定部11が、追跡領域設定処理を実行する(A3)。具体的には、A1で取得された動画像を構成するフレーム画像のうち、対象物の追跡を開始するフレーム画像に第1の追跡領域と第2の追跡領域の2つの追跡領域を設定する。
具体的には、動画を再生中に、ユーザーが追跡領域設定を行う旨を入力した時点で動画を静止し、その静止フレーム画像を、対象物の追跡領域を設定し、追跡処理を開始する静止フレーム画像として設定すると好適である。
リアルタイム動画像の場合は、静止フレーム画像において対象物の追跡領域を設定する間に継続して入力されるリアルタイム動画像を元画像メモリ20に記憶させておく。追跡領域設定の終了後に、静止フレーム画像はリアルタイム動画像に戻る。その際、静止フレーム表示中に元画像メモリ20に記憶させたリアルタイム動画像に対して追跡処理を行って、追跡処理がリアルタイムの表示に追いつくようにすることが好ましい。なお、静止フレーム画像を表示する時間は、元画像メモリ20の記憶容量に応じて、例えば5秒間と設定し、設定時間経過後は追跡領域設定を中断してリアルタイム再生に戻るように設定すると好適である。
追跡領域を設定する際は、第1の追跡領域と第2の追跡領域において違う色を設定するようにすることが好ましい。そのために、以下のような表示機能及びガイダンス機能を設けることが有効である。表示機能としては、まず、追跡領域設定部11は、ユーザーが第1の追跡領域を設定後に、第1の追跡領域の色情報を図示しない表示画面に表示する。次に、ユーザーは、表示された第1の追跡領域の色情報を参考にして、第2の追跡領域を設定する。ここで、色情報の表示は、単色モードの場合は一つの色を、多色モードの場合は複数の色を、例えば文字情報として表示する。または、ユーザーが一見して視認できるように、色情報が青ならば青色のサブウィンドウ画面を表示画面に表示させる。また、第2の追跡領域を設定後に、第1の追跡領域の色情報と第2の追跡領域の色情報の両方を表示させ、第1及び第2の追跡領域の組み合わせが好適であるかどうかをユーザーに確認させるステップを設ける。組み合わせが好適であるとユーザーが判断した場合は、追跡領域設定を終了して、次の処理に移行する。組み合わせが好適ではないとユーザーが判断した場合は、追跡領域設定の再設定を行うようにする。
ガイダンス機能としては、ユーザーが第1の追跡領域を設定した後に、第1の追跡領域の色とは異なる色を持つ領域を第2の追跡領域として設定するように促す報知を行うようにする。また、ユーザーが第1及び第2の追跡領域を設定した後に、追跡領域設定部11が第1及び第2の追跡領域の組み合わせが好適であるかどうかを判断し、好適でない場合は、追跡領域の再設定を促す報知を行うようにする。
図2(1)に示すように、同一の追跡対象物に対して第1及び第2の追跡領域を設定する場合は、これら2つの追跡領域は近傍にあることは明らかである。そのため、ユーザーが第1の追跡領域を設定した後、追跡領域設定部11が第2の追跡領域の設定可能範囲を第1の追跡領域の近傍に限定してもよい。ユーザーが第2の追跡領域の設定可能範囲から外れた領域を第2の追跡領域として設定した場合は、追跡領域設定部11が追跡領域設定エラー報知を行うようにする。また、設定可能範囲を矩形などの図形で静止フレーム画像上に重畳表示すると共に、ユーザーに第2の追跡領域の好適な設定を促す報知を行うようにしてもよい。このようにすることにより、ユーザーが誤って不適切な追跡領域設定を行うことを防止することが可能となる。
また、同一の追跡対象物に対して第1及び第2の追跡領域を設定する場合は、ユーザーが第1の追跡領域を設定した後、追跡領域設定部11が第1の追跡領域の近傍から第2の追跡領域を自動的に選択することとしてもよい。このような場合は、第1の追跡領域とは異なる(例えば二つの追跡処理を区別可能な程度に十分に異なる)色情報となるような領域を第2の追跡領域として設定することが好ましい。
なお、ユーザーが第1及び第2の追跡領域の両方を設定するか、ユーザーが第1の追跡領域を設定し、追跡領域設定部11が第2の追跡領域を設定するかは、表示画面にメニューを表示して、ユーザーに予め選択させるようにすればよい。
対象物を公知の人物検出、顔検出方法等によって検出した後、上記の追跡領域設定を行うようにしてもよい。検出された対象物が一つである場合は、追跡領域設定部11が自動的にその対象物を追跡対象物として設定する。検出された対象物が複数の場合は検出した対象物をそれぞれ含む矩形等の図形(以下、対象物検出枠と称する)を静止フレーム画像上に重畳表示させ、ユーザーが所望の対象物を追跡対象物として選択するようにすればよい。
上記の対象物検出は、静止フレーム画像が設定された直後に自動的に行うようにすると好適である。または、動画を再生中に、ユーザーが追跡領域設定を行う旨を入力した時点から所定の時間周期、例えば5秒毎に、上記の対象物検出及び対象物検出枠の表示を自動的に行うように設定してもよい。このように、所定の時間周期で動画像上に対象物検出枠を重畳表示することで、ユーザーに対して動画像中のどの位置に追跡領域の候補があるかを報知することができる。
対象物検出の結果を利用して、追跡領域の設定及び単色モデル、多色モデルの選択を、対象物の種類に応じて自動的に行うようにしてもよい。例えば、検出された対象物が人物であれば、第1の追跡領域をその人物の上半身の位置に、第2の追跡領域をその人物の下半身の位置となるように、2つの追跡領域を追跡領域設定部11が自動的に選択する。また、例えば検出された対象物が人物であれば多色モデルで追跡領域は二つと設定し、検出された対象物が自動車であれば単色モデルで追跡領域は一つと設定する。ユーザーが上記のように自動的選択されたを変更したい場合は、画像処理装置1が追跡処理を実行する前に変更できるようにすると好適である。
その後、色情報取得部12が、色情報取得処理を実行する(A5)。具体的には、A3で設定された第1の追跡領域及び第2の追跡領域の2つの追跡領域それぞれについて、当該追跡領域に含まれる画素のH、S、V成分及び座標値に基づいて、単色モデル又は多色モデルに基づき確率分布φ(x,y)を算出する。
次いで、出力枠設定部17が、初期出力枠設定処理を実行する(A7)。具体的には、例えば、A3で設定された第1の追跡領域と第2の追跡領域とを包含する所定サイズの出力枠を設定する。出力枠のサイズは、第1の追跡領域と第2の追跡領域及び対象物を包含するサイズとすると好適である。また、第1の追跡領域と第2の追跡領域は、出力枠の中心付近に包含されることが好適である。そのため、第1の追跡領域の中心位置と第2の追跡領域の中心位置とを結ぶ線分の中点に対応する座標値が、所定サイズの出力枠の中心または中心から所定の範囲内となるように初期出力枠を設定するようにしてもよい。その後、追跡処理の実行を開始する(A9)。
図5は、追跡処理の流れの一例を示すフローチャートである。
最初に、画像処理装置1は、現在のフレーム画像の次のフレーム画像(次のフレーム画像のデータ)を取得し、取得したフレーム画像を対象フレーム画像とする(B1)。
次いで、追跡位置推定部14が、追跡位置推定処理を実行する(B3)。具体的には、B1で取得した対象フレーム画像について、第1の追跡領域及び第2の追跡領域それぞれについて、確率分布φ(x,y)に基づくMean−Shift法を利用して、追跡位置を推定する。
その後、出力枠設定部17は、出力枠更新フラグが「OFF」であるか否かを判定する(B5)。出力枠更新フラグは、出力枠を更新するか否かを示すフラグであり、初期設定では「ON」に設定されており、後述する追跡位置再推定処理が実行された場合に「OFF」に設定される。
出力枠更新フラグが「OFF」であると判定したならば(B5;Yes)、出力枠設定部17は、追跡位置推定処理で求められた第1の推定追跡位置と第2の推定追跡位置との中点に対応する位置(以下、「中点位置」という。)を算出し、算出した中点位置が出力枠に含まれるか否かを判定する(B7)。ここで、この判定は算出した中点位置が出力枠を基準とした所定範囲内、例えば、出力枠から所定距離の範囲内又は出力枠の中心から所定距離の範囲内に含まれるかどうかで判定してもよい。即ち、算出した中点位置は出力枠の外側であっても、出力枠の更新が可能な程度に出力枠の近くに位置していればよい。
算出した中点位置が出力枠に含まれると判定したならば(B7;Yes)、出力枠設定部17は、出力枠更新フラグを「ON」に設定する(B9)。一方、B5において出力枠更新フラグが「OFF」ではないと判定した場合(B5;No)、又は、B7において中点位置が出力枠に含まれないと判定したならば(B7;No)、追跡位置適否判定処理(B11)へと処理を移す。
その後、追跡位置適否判定部15が、追跡位置適否判定処理を実行する(B11)。具体的には、第1の適否判定条件として、前述した第1の推定追跡位置の信頼度と第2の推定追跡位置の信頼度とがそれぞれ所定の閾値信頼度以上(又は閾値信頼度超)となる高信頼度条件を満たすか否かを判定する。また、第2の適否判定条件として、第1の推定追跡位置と第2の推定追跡位置との間の距離が所定の閾値距離以下(又は閾値距離未満)となる近距離条件を満たすか否かを判定する。第1の適否判定条件と第2の適否判定条件の両方が成立した場合には、推定追跡位置は適当であると判定し、少なくとも何れか一方の適否判定条件が成立しない場合には、推定追跡位置は不適当であると判定する。
図2で説明したように、例えば、人物の上半身と下半身との2か所に追跡領域を設定した場合、人物が移動しても上半身と下半身との相対的な位置関係は変化しないため、第1の追跡領域と第2の追跡領域との相対的な位置関係も変化しないはずである。そこで、第2の適否判定条件では、第1の推定追跡位置と第2の推定追跡位置との間の距離が近距離条件を満たすか否かを判定することにしている。
なお、上記のように、第1の適否判定条件と第2の適否判定条件との2つの適否判定条件に基づいて推定追跡位置の適否判定を行うのではなく、何れか一方の適否判定条件のみに基づいて推定追跡位置の適否判定を行うようにしてもよい。例えば、第2の適否判定条件のみに基づいて推定追跡位置の適否判定を行うようにしてもよい。
また、第1の適否判定条件として第1の推定追跡位置の信頼度と第2の推定追跡位置の信頼度の合計値が所定の閾値以上となるか否かによって適否判定を行うようにしてもよい。さらに、信頼度に重みを設定することも効果的である。例えば、第2の追跡位置の信頼度よりも第1の追跡位置の信頼度に重みを付け、2つの信頼度の合計値が閾値以上となるか否かによって適否判定を行うようにすると好適である。重みの設定は、ユーザーが第1または第2の追跡位置の信頼度の何れかに、より重みを付けるかを選択するようにしてもよいし、追跡位置適否判定部15が自動的に行うようにしてもよい。自動的に行う場合は、例えば対象物が人物の場合は、下半身に設定した第2追跡領域よりも上半身に設定した第1追跡領域をより重要とする設定を予め行っておき、その設定情報を基に、追跡位置適否判定部15が、第2の追跡位置の信頼度よりも第1の追跡位置の信頼度に重みを付けるように設定すればよい。このようにすることにより、第1及び第2の推定追跡位置の信頼度を含んだ総合的な追跡位置適否判定を行うことが可能となる。
追跡位置適否判定処理の判定結果が適当であった場合には(B13;適当)、追跡位置推定部14は、B3で新たに推定された推定追跡位置の座標値で、記憶されている推定追跡位置の座標値を更新する(B15)。
その後、出力枠設定部17は、出力枠更新フラグが「ON」であるか否かを判定し(B17)、「ON」であると判定したならば(B17;Yes)、B15で更新された追跡領域の座標値に基づいて、現在設定されている出力枠を更新する(B19)。具体的には、例えば、直近の所定数(例えば過去15個)のフレーム画像について推定された追跡位置を平均演算した位置を中心位置とする所定サイズの出力枠の表示位置を算出し、算出した出力枠で、現在設定されている出力枠を更新する。出力枠のサイズ設定について、詳しくは後述するが、ユーザーが所定の範囲内で任意に設定可能としてもよい。
次いで、画像処理装置1は、現在のフレーム画像の次のフレーム画像(次のフレーム画像のデータ)を取得し、取得したフレーム画像を対象フレーム画像として(B21)、追跡位置推定処理(B3)に処理を戻す。
一方、追跡位置適否判定処理の判定結果が不適当であった場合には(B13;不適当)、追跡位置再推定部16が、追跡位置再推定処理を実行する(B23)。
図6は、追跡位置再推定処理の流れの一例を示すフローチャートである。
追跡位置再推定部16は、第1の追跡領域の色情報と、第2の追跡領域の色情報とに基づいて、対象フレーム画像について、第1の追跡領域及び第2の追跡領域それぞれについて、全範囲探索を実行して、第1の追跡位置と第2の追跡位置とを再推定する(C1)。具体的には、対象フレーム画像について追跡領域の色に類似する色を有する領域を、対象フレーム画像の中から探索する。
次いで、追跡位置再推定部16は、C1の全範囲探索によって再推定された追跡位置(以下、「再推定追跡位置」という。)について、第1の追跡領域を基準として再推定された追跡位置(以下、「第1の再推定追跡位置」という。)と、第2の追跡領域を基準として再推定された追跡位置(以下、「第2の再推定追跡位置」という。)とが近距離条件を満たす追跡位置が見つかったか否かを判定する(C3)。
近距離条件を満たす追跡位置が見つからなかったと判定したならば(C3;No)、追跡位置再推定部16は、対象フレーム画像の次のフレーム画像(次のフレーム画像のデータ)を取得し、取得したフレーム画像を対象フレーム画像として(C5)、C1に処理を戻す。
一方、近距離条件を満たす追跡位置が見つかったと判定したならば(C3;Yes)、追跡位置再推定部16は、再推定追跡位置の座標値で、現在記憶されている推定追跡位置の座標値を更新する(C7)。そして、追跡位置再推定部16は、追跡位置再推定処理を終了する。
なお、本実施形態においては、説明を簡便にするために全範囲探索を行うと説明しているが、探索の範囲は必ずしも対象フレーム画像の全範囲である必要はない。すなわち、追跡位置推定処理(B3)において最初に設定した第1の追跡位置または第2の追跡位置の近傍から探索を実行して再推定を行い、近距離条件を満たす追跡位置が見つかった時点で探索を終了すればよい。具体的には、まず、最初に設定した第1の追跡位置または第2の追跡位置の近傍の所定範囲内を探索し、近距離条件を満たす追跡位置が見つかったか否かを判定する(C3)。近距離条件を満たす追跡位置が見つからなかったと判定したならば(C3;No)、その後さらに探索範囲を広げて探索を行い、近距離条件を満たす追跡位置が見つかったか否かを判定する(C3)。近距離条件を満たす追跡位置が見つかったと判定された時点で(C3;Yes)、探索を終了し、追跡位置再推定部16は、再推定追跡位置の座標値で、現在記憶されている推定追跡位置の座標値を更新する(C7)。
また、ユーザーが探索範囲を指定し、追跡位置再推定部16が指定された探索範囲の探索を行うようにしてもよい。
図5に戻り、追跡位置再推定処理を実行したならば、出力枠設定部17が、出力枠更新フラグを「OFF」に設定する(B25)。そして、B21に処理を移す。
追跡位置適否判定処理の判定結果は不適当であるということは(B13;不適当)、追跡位置の推定が正しく行われなかったことを意味する。本明細書では、このように追跡位置の推定が正しく行われなかったことを「ロスト」と称する。
ロストが発生するのは、主に対象物以外の物体が対象物と重なり、当該物体が対象物の手前側に位置することとなった結果、手前側の物体によって背後の対象物が隠れて見えなくなる、いわゆる「オクルージョン」が発生する場合である。本実施形態では、対象物の色情報に基づいて追跡を行うため、手前側に位置することとなった物体の色が対象物の色と類似している場合、手前側の物体を対象物と誤認し、追跡対象が当該物体に移ってしまう場合がある。
そこで、この場合には、追跡位置再推定処理を実行して(B23)、追跡位置を再推定する。ここで、追跡位置再推定処理では、追跡領域の色情報に基づく全範囲探索を行って追跡位置を再推定するが、このようにして再推定される追跡位置は、必ずしも対象物が存在する位置となっているとは限らない。このため、出力枠更新フラグを「OFF」に設定することで(B25)、出力枠が更新されないようにする(B19)。つまり、出力枠の更新を中断し、その位置に出力枠を固定する。
しかし、追跡位置を再推定した後、順次に次のフレーム画像を読み出して追跡位置推定処理で追跡位置を推定した際に(B3)、対象物が移動したことなどに起因して、新たに推定された追跡位置が、ロスト前の最後の出力枠に再度含まれることになる場合がある(B7;Yes)。そこで、この場合には、出力枠更新フラグを「ON」に設定することで(B9)、出力枠が再び更新されるようにする。つまり、固定していた出力枠の更新を再開する。なお、上述したように、追跡位置が出力枠に含まれるかどうかの判定(B7)は、中点位置が出力枠を基準とした所定範囲内、例えば出力枠から所定距離の範囲内又は出力枠の中心から所定距離の範囲内に含まれるかどうかで判定してもよい。
また、上記の説明では、追跡位置適否判定処理の判定結果が不適当であった場合には(B13;不適当)、追跡位置再推定部16が、追跡位置再推定処理を実行する(B23)として説明したが、以下のような処理を実行してもよい。追跡位置適否判定処理の判定結果が不適当であった場合(B13;不適当)、画像処理装置1が、現在のフレーム画像の次のフレーム画像(次のフレーム画像のデータ)を取得し、取得したフレーム画像を対象フレーム画像として(B21)、追跡位置推定処理(B3)に処理を戻すようにする。次のフレーム画像についての追跡位置適否判定処理の判定結果が不適当であった場合には(B13;不適当)、判定結果が適当となるまで(B13;適当)、画像処理装置1は、さらに次のフレーム画像を取得し、取得したフレーム画像を対象フレーム画像として(B21)、追跡位置推定処理(B3)に処理を戻す処理を繰り返すようにしてもよい。また、追跡位置適否判定処理の判定結果が適当となるまでの間は、現在のフレーム画像の表示を続けるようにする。さらに、この繰り返し処理が所定の回数以上となった場合、追跡位置をロストしたと判定し、追跡位置再推定部16が、追跡位置再推定処理を実行する(B23)ようにすると好適である。
図4に戻り、追跡処理の実行を開始した後、照準動画像生成部18が、照準動画像生成処理を実行する(A11)。具体的には、元動画像を構成するフレーム画像から、追跡処理で設定・更新された出力枠が中心付近に位置するように出力枠を含む出力対象領域(例えば規定サイズの矩形領域)を切り取ったサブフレーム画像を生成する処理を、元動画像を構成するフレーム画像それぞれについて実行し、これら一連のサブフレーム画像で構成される動画像を照準動画像として生成する。そして、画像処理装置1は、画像処理を終了する。
図7は、出力枠の説明図である。これらの図には、図2と同様に、人物A及び人物Bを含む動画像を構成するフレーム画像を示している。
図7(1)に示すように、追跡領域設定処理において、人物Aの上半身に第1の追跡領域R1が、下半身に第2の追跡領域R2がそれぞれ設定されることで(図4のA3)、第1の追跡領域R1の色情報と第2の追跡領域R2の色情報とがそれぞれ取得され(図4のA5)、第1の追跡領域R1と第2の追跡領域R2と人物Aとを包含するような矩形で示される初期出力枠F0が設定される(図4のA7)。
なお、出力枠のサイズについては、ユーザーが所定の範囲内で所望のサイズに設定可能とすると好適である。また、出力枠を所定のサイズで表示した後、ユーザーが所定の範囲内で所望のサイズに変更できるようにしてもよい。
出力枠を所定のサイズで表示する場合は、例えば、第1の推定追跡位置と第2の推定追跡位置間の距離に対応したサイズとすればよい。その場合は、例えば、第1の推定追跡位置と第2の推定追跡位置間の距離の4倍の長さを出力枠の縦の長さとし、2倍の長さを横の長さに設定する。また、出力枠のサイズ設定値を元動画像に関連付けて元画像メモリ20に記憶しておき、同じ元画像を使用する場合は、過去に使用した出力枠のサイズ設定値をデフォルト値として使用するようにしてもよい。
その後、次のフレーム画像について追跡位置推定処理が実行され、第1の推定追跡位置P1と第2の推定追跡位置P2とが求められる(図5のB3)。その結果、第1の推定追跡位置P1の信頼度と第2の推定追跡位置P2の信頼度とが高信頼度条件を満たし、且つ、第1の推定追跡位置P1と第2の推定追跡位置P2との間の距離dが近距離条件を満たす場合には、追跡位置適否判定処理において適否判定条件が成立したと判定され、推定追跡位置は適当であると判定される(図5のB13;適当)。この場合は、新たな推定追跡位置の座標値で前回の推定追跡位置の座標値が更新される(図5のB15)。そして、更新された推定追跡位置の座標値に基づいて、図7(2)に示すように、初期出力枠F0が新たな出力枠F1に更新される(図5のB17;Yes→B19)。
その後、図7(3)に示すように、さらに次のフレーム画像について追跡位置推定処理が実行され、第1の推定追跡位置P1と第2の推定追跡位置P2とが求められる(図5のB3)。この場合、人物Bが人物Aの手前側に移動することによって人物Aが背後に隠れて見えなくなるオクルージョンが発生し、例えば、人物Bの下半身に第2の推定追跡位置P2が求められてしまったとする。そして、その結果、第1の推定追跡位置P1と第2の推定追跡位置P2との間の距離dが近距離条件を満たさなくなったとする。この場合は、追跡位置適否判定処理において適否判定条件が成立しないと判定されるため、推定追跡位置は不適当であり、人物Aをロストした状態と判定される(図5のB13;不適当)。この場合、追跡位置再推定処理が実行されるが(図5のB23)、出力枠更新フラグが「OFF」に設定されることで(図5のB25)、図7(3)に示すように、出力枠F1の更新が中断され、出力枠F1はその位置で固定される。すなわち、出力枠F1の位置は、図7(2)に示した位置と同じ位置で維持されるため、図7(3)の出力枠F1には人物Aは表示されない状態となる。
ここで、追跡対象物ロスト後の表示を以下のようにしてもよい。すなわち、ロストした時点で出力枠F1を固定するのではなく、ロストした時点から所定の時間の間は、ロストする直前の動きを継続して、徐々に動きが遅くなってから止まるような表示とする。さらに、動きが遅くなるとともに、出力枠F1のサイズを徐々に大きくするようにし、最終的にはフレーム画像全体に出力枠F1を表示するようにしてもよい。出力枠F1のサイズ拡大中に、再度追跡位置適否判定処理において適否判定条件が成立した場合は、出力枠F1のサイズを拡大前の元のサイズに戻す。その際、急激にサイズを戻すのではなく、所定の時間をかけて徐々に戻すようにすると好適である。また、拡大については、ロストした時点でフレーム画像全体に出力枠F1を表示するようにしてもよい。
その後は、図7(4)に示すように、出力枠F1は更新されず、追跡位置再推定処理で再推定された再推定追跡位置に基づいて、追跡位置推定処理が実行されることになる(図5のB23→B25→B3)。そして、図7(5)に示すように、追跡位置推定処理で得られた第1の推定追跡位置P1と第2の推定追跡位置P2との中点位置Pcが出力枠F1に含まれることとなった場合には(図5のB5;Yes→B7;Yes)、出力枠更新フラグが「ON」に設定されることで(図5のB9)、出力枠F1の固定が解除され、出力枠F1の更新が再開される。
その後、追跡位置推定処理で求められた第1の推定追跡位置P1の信頼度と第2の推定追跡位置P2の信頼度とが高信頼度条件を満たし、且つ、第1の推定追跡位置P1と第2の推定追跡位置P2との間の距離dが近距離条件を満たす場合には、推定追跡位置は適当であると判定される(図15のB13;適当)。この場合、今回推定された追跡位置の座標値で、推定追跡位置の座標値が更新される(図5のB15)。そして、図7(6)に示すように、出力枠F1が新たな出力枠F2に更新される(図5のB19)。
以降は、この繰り返しである。
[1−3.作用効果]
画像処理装置1は、元動画像を構成するフレーム画像において追跡領域を設定する追跡領域設定部11と、追跡領域設定部11によって設定された追跡領域の色情報を取得する色情報取得部12と、色情報取得部12によって取得された色情報を用いて、追跡領域を基準とする追跡位置をフレーム画像毎に順次に推定する追跡位置推定部14と、追跡領域設定部11によって設定された追跡領域を含む出力枠を設定し、追跡位置推定部14によって追跡位置が順次に推定される毎に、推定された追跡位置に基づいて出力枠を更新する出力枠設定部17と、元動画像を用いて、出力枠設定部17によって順次に更新される出力枠に照準した照準動画像を生成する照準動画像生成部18と、を備える。
これによれば、対象物の追跡結果を、対象物に照準した照準動画像として提供することが可能となる。
[1−4.変形例]
[1−4−1.形状追跡]
図8は、上記の画像処理装置1の機能構成の別の一例を示している。この画像処理装置1は、図1で説明した機能部の他に、形状情報取得部13を備えて構成される。
形状情報取得部13は、追跡領域設定部11によって設定された追跡領域の形状情報を取得する。形状情報は、追跡領域の形状をモデル化したものであり、例えば、追跡領域を所定の縮尺で縮小した画像の画素値のデータで構成される。
この場合、追跡位置推定部14は、追跡位置推定処理において、対象フレーム画像について、1つ前のフレーム画像について推定追跡位置に基づいて更新された追跡領域の近傍所定範囲から、パターンマッチング等の手法を用いて、追跡領域の形状に最も類似する形状を有する領域(以下、「形状類似領域」という。)を推定する。
次いで、追跡位置推定部14は、形状類似領域の中心位置の座標値(x´、y´)を特定する。そして、追跡位置推定部14は、色情報取得部12によって取得された色モデルに基づき算出されるフレーム画像の画素値(x、y)を成分とする確率分布φ(x、y)と、形状類似領域の中心位置の座標値(x´、y´)とを用いて、次式(1)に従って、追跡領域の推定に用いる第2の確率分布φ´(x、y)を算出する。
φ´(x、y)=G(x、y;x´、y´、σ)*φ(x、y)・・(1)
ここで、“G(x、y;x´、y´、σ)”は、平均を(x´、y´)、分散を“σ”とする2次元の正規分布を示すガウス関数である。また、“*”は、畳み込み演算(コンボリューション)を示す。つまり、第2の確率分布φ´(x、y)は、色モデルに基づく確率分布に、形状モデルに基づくガウス分布を畳み込み演算することで算出される。
この場合、追跡位置推定部14は、第2の確率分布φ´(x、y)に基づき、Mean−Shift法を利用して、追跡位置を推定する。この場合、式(1)で示される第2の確率分布φ´(x、y)における分散σの値を小さく設定して追跡位置を推定することで、追跡領域の形状を強く反映させた追跡領域の推定を行うことができる。つまり、対象物の形状を重視した追跡領域の推定を行うことが可能となる。
上記の色情報と形状情報とを併用した追跡領域の推定は、どの方向から見ても色及び形状が変化しにくい対象物を追跡する際に特に有用である。例えば、ある人物がボール競技(バスケットボール等)を行っている場面を撮像した動画像について対象物の追跡を行う場合に、ボールの色や形状はどの方向から見ても変化しないため、例えばフレーム画像においてボールが写し出された領域を追跡領域として設定して、ボールを対象物として追跡する追跡処理を実行するようにしてもよい。この場合、ボールの色が一色であるならば、色モデルとして、多色モデルではなく、単色モデルを用いて追跡処理を実行するようにすると好適である。
上記の他にも、移動する剛体(例えば自動車)に追跡領域を設定して、この剛体を追跡物として、追跡処理を実行するようにしてもよい。
[1−4−2.優先度の設定]
1つの対象物に複数の追跡領域を設定するのではなく、複数の対象物に追跡領域を設定するようにしてもよい。例えば、上記のように、ある人物がボール競技を行っている場面を撮像した元動画像について対象物の追跡を行う場合に、人物の一部分とボールの一部分とに第1の追跡領域及び第2の追跡領域をそれぞれ設定し、人物とボールとを対象物として、追跡処理を実行するようにしてもよい。
この場合、人物に設定された第1の追跡領域とボールに設定された第2の追跡領域とが、それぞれの色情報に基づいて追跡されるが、人物とボールとの位置関係は随時変化するものと考えられる。つまり、人物とボールとは、互いに近づいたり、互いに遠のいたりする。このため、人物の位置とボールの位置とが大きく離れたような場合には、人物について求められた第1の推定追跡位置と、ボールについて求められた第2の推定追跡位置との間の距離があまりに大きくなってしまうため、ユーザーが注目したいシーン(ボール周りのプレイ等)を接写状態で閲覧することができなくなるおそれがある。
そこで、画像処理装置1の機能部として、優先度設定部を構成してもよい。
優先度設定部は、対象物に追跡の優先度を設定する。そして、出力枠設定部17が、優先度設定部によって設定された優先度に基づいて、更新する出力枠を決定する。この場合、追跡の優先度の他に、複数の対象物間の最大許容距離を設定するようにしてもよい。上記の例では、人物とボールに追跡の優先度を設定し、また、人物とボールとの間の最大許容距離を設定する。そして、人物について推定された追跡位置とボールについて推定された追跡位置との間の距離が最大許容距離を超えていない場合には、両方の対象物を包含するように出力枠を更新し、最大許容距離を超えている場合には、優先度の高い方の対象物を包含するように出力枠を更新する。
なお、追跡領域を設定する対象物が何れも形状が変化するものである場合には、色情報のみを用いた追跡処理を適用し、追跡領域を設定する対象物が何れも形状が変化しないものである場合には、形状情報のみを用いた追跡処理を適用し、追跡領域を設定する対象物の何れかに形状が変化する対象物が存在する場合には、色情報と形状情報とを併用した追跡処理を適用するといったように、対象物の性質に応じて、適用する追跡処理を切り替えるようにしてもよい。
また、対象物の形状が変化する場合であっても、例えば、毎フレーム毎に対象物の形状情報を更新するようにすることで、形状情報を用いた追跡処理を適用することも可能である。
[1−4−3.適否判定条件]
上記の追跡位置適否判定処理における適否判定条件として、例えば、第1の推定追跡位置と第2の推定追跡位置との上下の関係が逆転しないことを定めておいてもよい。例えば、前述したように、人物の上半身と下半身との2か所に追跡領域を設定して追跡処理を実行する場合、人物が移動しても、上半身と下半身とが逆となるケースは少ないと考えられる。
そこで、上半身に設定された追跡領域について推定された第1の推定追跡位置と、下半身に設定された追跡領域について推定された第2の推定追跡位置との上下の関係を判定する。そして、上下の関係が逆転していない場合に、追跡位置の推定結果は適当であると判定するようにしてもよい。
なお、場合によっては、人物の上半身と下半身との上下の関係が逆転する場合も有り得る。例えば、人物が体操競技を行う場合において、床競技や鉄棒競技では、上半身と下半身との上下の関係が逆転する場合がある。このため、この場合には、上記の適否判定条件を適用しない方がよい。従って、どのような場面において対象物の追跡を行うかに応じて、適否判定条件を適宜設定変更可能にすると好適である。
[1−4−4.例外処理]
追跡位置を推定する場合の例外処理として、以下に説明するような例外処理を適用することとしてもよい。
(A)推定追跡位置の何れか一方の信頼度が高信頼度条件を満たさない場合
第1の推定追跡位置と第2の推定追跡位置との2つの推定追跡位置の何れか一方の信頼度が高信頼度条件を満たさない場合には、信頼度が高信頼度条件を満たさない方の推定追跡位置がロスト状態となったと判定し、信頼度が高信頼度条件を満たす方の推定追跡位置を正しい追跡位置として、当該追跡位置のみについて追跡を継続するようにするようにしてもよい。これは、第1の推定追跡位置と第2の推定追跡位置の何れか一方がロスト状態となった場合に一律に推定追跡位置を不適当として追跡位置再推定処理を実行することにしてしまうと、それまでの追跡が無駄になってしまうためである。
(B)推定追跡位置が近距離条件を満たさない場合
第1の推定追跡位置と第2の推定追跡位置との間の距離が近距離条件を満たさない場合には、以下の2つの追跡位置探索処理を実行する。
(1)第2の推定追跡位置を含む第2の追跡領域の上側に一定範囲の探索領域を設定し、この探索領域内で、第1の推定追跡位置を探索する第1の追跡位置探索処理を実行する。
(2)第1の推定追跡位置を含む第1の追跡領域の下側に一定範囲の探索領域を設定し、この探索領域内で、第2の推定追跡位置を探索する第2の追跡位置探索処理を実行する。
上記の2つの処理を実行することにより、追跡位置推定処理で推定された第1の推定追跡位置及び第2の推定追跡位置と、追跡位置探索処理で探索された第1の探索追跡位置及び第2の探索追跡位置との、合計4つの追跡位置が得られる。
そして、これら4つの追跡位置について、<第1の推定追跡位置、第2の探索追跡位置>、<第1の探索追跡位置、第2の推定追跡位置>の2つの組合せの中から、確率分布に基づき算出される信頼度が最も低いものが含まれていない組合せを選択し、選択した組合せに含まれる追跡位置をそれぞれ新たな第1の推定追跡位置及び第2の推定追跡位置として、追跡を継続する。
[1−4−5.追跡位置の再推定]
リアルタイムに元動画像が入力され、且つ、リアルタイムに出力が求められる場合でなければ、追跡処理を後処理として実行することが可能である。そこで、追跡位置再推定部16が、出力枠の更新が再開されたタイミングから更新が中断されたタイミングまで遡って、追跡位置を再推定するようにしてもよい。
具体的には、追跡位置再推定部16は、ロストが発生した際の追跡位置の推定に利用していた色情報を用いて、Mean−Shift法を利用した追跡処理を実行して、出力枠の更新が中断されてから再開されるまでの期間における追跡位置を、時間を遡って再推定する。これを図7を用いて説明すると、追跡が再開されたフレームである図7(5)から、その前のフレームである図7(4)、さらに前のロストが発生したフレームである図7(3)の順に時間を遡って追跡位置の再推定を行うことを意味する。
また、時間を遡って追跡位置を再推定することで、人物や自動車などの対象物が過去においてどのような挙動をしていたかを閲覧することが可能となる。その場合は、対象物及び追跡領域の設定を行い、さらに閲覧対象とする過去の時間を、元画像メモリ20の記憶容量に応じて例えば現在から過去1分間に設定する。それらの情報を基に、追跡位置再推定部16は上記の方法で追跡処理を実行して、現在から過去1分間の期間における追跡位置を再推定する。再推定が完了すれば、過去一分前から現在までの対象物の動きを動画表示することが可能である。この方法によれば、現在表示されているフレームにおいて対象物及び追跡領域の設定を行うため、過去一分前のフレームを表示して対象物及び追跡領域を設定するよりも、ユーザーにとって効率がよく、使いやすいという利点がある。
[1−4−6.出力枠の位置の修正]
Mean−Shift法を利用した追跡処理を行うと、どうしても推定追跡位置が細かく変動するノイズが残ってしまう傾向がある。このようにして求められた推定追跡位置に基づいて出力枠を更新した場合、生成される照準動画像においてがたつきが生ずる要因となる。
そこで、画像処理装置1の機能部として、出力枠位置修正部を構成してもよい。
出力枠位置修正部は、フレーム画像間の出力枠の座標の変化に基づいて、フレーム画像間の出力枠の動き量を算出する。そして、出力枠修正部は、直近の過去所定分(例えば過去30フレーム分)の出力枠の動き量を平均処理し、この平均処理で得られた平均動き量に基づいて、フレーム画像毎に更新された出力枠の位置を修正する。このようにして位置が修正された出力枠に照準した照準動画像を照準動画像生成部18が生成することで、がたつきのない照準動画像を提供することが可能となる。
[2.実施例]
次に、上記の画像処理装置1を備える電子機器の一例として、スマートフォン2の実施例について説明する。但し、本発明を適用可能な実施例が、以下説明する実施例に限定されるわけでないことは勿論である。
[2−1.機能構成]
図9は、スマートフォン2の機能構成の一例を示すブロック図である。
スマートフォン2は、処理部100と、操作部200と、表示部300と、音出力部400と、撮像部500と、通信部600と、時計部700と、記憶部800とを備える。
処理部100は、記憶部800に記憶されているシステムプログラム等の各種プログラムに従ってスマートフォン2の各部を統括的に制御したり、画像処理に係る各種の処理を行う処理装置であり、CPUやDSP等のプロセッサーやASIC等の集積回路を有して構成される。
処理部100は、主要な機能部として、追跡領域設定部110と、色情報取得部120と、形状情報取得部130と、追跡位置推定部140と、追跡位置適否判定部150と、追跡位置再推定部160と、出力枠設定部170と、照準動画像生成部180と、表示制御部190とを有する。追跡領域設定部110〜照準動画像生成部180は、図8の画像処理装置1の機能部である追跡領域設定部11〜照準動画像生成部18にそれぞれ対応している。
操作部200は、操作ボタンや操作スイッチ、マウスといった、ユーザーがスマートフォン2に対する各種の操作入力を行うための入力装置を有して構成される。また、操作部200は、表示部300と一体的に構成されたタッチパネル250を有し、このタッチパネル250はユーザーとスマートフォン2との間の入力インターフェースとして機能する。操作部200からは、ユーザー操作に従った操作信号が処理部100に出力される。
表示部300は、LCD(Liquid Crystal Display)等を有して構成される表示装置であり、処理部100から出力される表示信号に基づいた各種の表示を行う。表示部300は、タッチパネル250と一体的に構成されてタッチスクリーンを形成している。表示部300には、撮像画像や修正画像等の各種の画像が表示される。
音出力部400は、スピーカ等を有して構成される音出力装置であり、処理部100から出力される音出力信号に基づいた各種の音出力を行う。
撮像部500は、任意のシーンの画像を撮影可能に構成された撮像装置であり、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary MOS)イメージセンサ等の撮像素子を有して構成される。撮像部500は、光信号を電気信号に変換し、デジタル化した撮像画像のデータを処理部100に出力する。
通信部600は、装置内部で利用される情報を外部の情報処理装置及び画像表示装置との間で送受するための通信装置である。通信部600の通信方式としては、所定の通信規格に準拠したケーブルを介して有線接続する形式や、クレイドルと呼ばれる充電器と兼用の中間装置を介して接続する形式、近距離無線通信を利用して無線接続する形式等、種々の方式を適用可能である。
時計部700は、スマートフォン2の内部時計であり、例えば水晶振動子及び発振回路である水晶発振器を有して構成される。時計部700の計時時刻は、処理部100に随時出力される。
記憶部800は、ROMやフラッシュROM、RAM等の揮発性又は不揮発性のメモリや、ハードディスク装置等を有して構成される記憶装置である。記憶部800は、処理部100がスマートフォン2を制御するためのシステムプログラムや、各種の画像処理を行うためのプログラムやデータを記憶する。
本実施例において、記憶部800には、処理部100によって読み出され、カメラモード処理として実行されるカメラモード処理プログラム810が記憶されている。カメラモード処理プログラム810は、処理部100により読み出され、対象物追跡処理として実行される対象物追跡プログラム811をサブルーチンとして含む。
また、記憶部800には、撮像部500から処理部100に入力された動画像のデータが格納される元動画像データベース830が記憶される。
[2−2.処理の流れ]
図10は、処理部100が、記憶部800に記憶されているカメラモード処理プログラム810に従って実行するカメラモード処理の流れの一例を示すフローチャートである。このカメラモード処理は、ユーザーによりカメラのアプリケーションが起動されることにより実行される処理である。
最初に、処理部100は、ユーザーにより操作部200を介して選択されたモードが追跡モードであるか否かを判定する(E1)。追跡モードは、ユーザーがある地点にスマートフォン2を固定して動画像を撮像する動画像撮像モードで撮像された元動画像を対象として、対象物の追跡を行って、出力枠に照準した照準動画像を表示部300に表示させるモードである。
追跡モードであると判定したならば(E1;Yes)、処理部100は、追跡用設定画面を表示部300に表示させる制御を行う(E3)。具体的には、追跡用設定画面として、「色モデル」と「色モデル+形状モデル」とのいずれの設定で追跡を行うかをユーザーに選択させる画面とを表示させる。
次いで、処理部100は、追跡用設定処理を実行する(E5)。具体的には、追跡用設定画面における操作部200へのユーザーの選択操作に従って、追跡を行うための設定を行う。
その後、処理部100は、対象物の追跡を実行するか否かを判定する(E7)。具体的には、操作部200へのユーザーの実行操作を検出したか否かに基づいて、対象物の追跡を実行するか否かを判定する。
対象物の追跡を実行すると判定したならば(E7;Yes)、処理部100は、記憶部800に記憶されている対象物追跡プログラム811に従って、対象物追跡処理を実行する(E9)。
図11は、対象物追跡処理の流れの一例を示すフローチャートである。
最初に、表示制御部190は、記憶部800に記憶されている元動画像データベース830に記憶されている元動画像の一覧を表示部300に表示させ、ユーザーに対象物の追跡を実行させる元動画像を選択させる元動画像選択処理を実行する(F1)。
次いで、表示制御部190は、ユーザーにより選択された元動画像のデータをデコードし、元動画像を構成するフレーム画像を表示部300に順次に表示させる(F3)。
その後、処理部100は、タッチパネル250の対するタップ操作を検出したか否かを判定し(F5)、検出したと判定したならば(F5;Yes)、表示中のフレーム画像の中から、タップ操作でタップされたタップ位置を特定する(F7)。
次いで、追跡領域設定部110が、追跡領域設定処理を実行する(F9)。具体的には、F7で特定したタップ位置の座標値を含む一群の領域を追跡領域として設定する(F11)。ここで設定される追跡領域は、1回目のタップ操作で設定される追跡領域であるため、第1の追跡領域となる。
次いで、処理部100は、E5で設定された追跡用設定を判定し(F11)、追跡用設定が「色モデル」であると判定したならば(F11;色モデル)、色情報取得部120が、色情報取得処理を実行する(F13)。一方、追跡用設定が「色モデル+形状モデル」であると判定したならば(F11;色モデル+形状モデル)、色情報取得部120が、色情報取得処理を実行する(F15)。そして、形状情報取得部130が、形状情報取得処理を実行する(F17)。
F13又はF17の後、処理部100は、2つの追跡領域が設定されたか否かを判定し(F19)、設定されていないと判定したならば(F19;No)、F5に処理を戻す。この場合、ユーザーにより2回目のタップ操作がなされると、F9において追跡領域が設定される。ここで設定される追跡領域は、2回目のタップ操作で設定される追跡領域であるため、第2の追跡領域となる。
2つの追跡領域が設定されたと判定したならば(F19;Yes)、出力枠設定部170が、初期出力枠設定処理を実行する(F21)。また、処理部100が、追跡処理の実行を開始する(F23)。また、照準動画像生成処理部180が、照準動画像生成処理を実行する(F25)。これらの処理は、画像処理装置1の処理で説明した通りである。そして、処理部100は、対象物追跡処理を終了する。
図10に戻り、対象物追跡処理を実行したならば、表示制御部190が、動画像表示処理を実行する(E11)。具体的には、照準動画像生成処理で生成された照準動画像を表示部300に表示させる。
または、照準動画像生成処理で生成された照準動画像を通信部600を介して、有線又は無線接続で外部の表示端末装置に表示させてもよい。または、照準動画像を通信部600を介して、ネットワーク経由で外部の表示端末装置に出力させてもよい。この場合、スマートフォン2の表示部300には、フレーム中に出力枠が表示されている形式、すなわち、図7に示すようなフレーム動画像が表示され、外部の表示端末装置には、照準動画像が表示される。
この際、表示制御部190は、照準動画像を構成するフレーム画像毎の追跡領域の変化をユーザーが把握可能とするために、追跡領域を包含する追跡領域枠を照準動画像中に重畳表示させる。
ここで、追跡領域には、第1の追跡領域と第2の追跡領域との2つの追跡領域が存在するため、それぞれの追跡領域をユーザーが把握可能とするために、第1の追跡領域を包含する第1の追跡領域枠と、第2の追跡領域を包含する第2の追跡領域枠とを照準動画像中に重畳表示させる。この際、追跡領域枠の枠線に所定の色(例えば青色)を付して表示する。
なお、第1の追跡領域枠と第2の追跡領域枠とをユーザーが区別することができるように、第1の追跡領域枠の枠線と第2の追跡領域枠の枠線とにそれぞれ異なる色(例えば、一方を青色、他方を黄色)を付して表示させるようにしてもよい。また、追跡領域枠の枠線に色を付して表示するのではなく、枠線を実線や点線で表示するようにしてもよい。
また、表示制御部190は、照準動画像を構成するフレーム画像毎の出力枠の変化をユーザーが把握可能とするために、照準動画像に出力枠を重畳表示させる。この際、上記の追跡領域枠と出力枠とをユーザーが区別することができるように、追跡領域枠の枠線に付した色とは異なる色(例えば赤色)を付して出力枠の枠線を表示する。
なお、この場合も、出力枠の枠線に色を付して表示するのではなく、枠線を実線や点線で表示するようにしてもよい。
その後、処理部100は、追跡モードを終了するか否かを判定し(E13)、終了しないと判定したならば(E13;No)、E7に処理を戻す。また、追跡モードを終了すると判定したならば(E13;Yes)、処理部100は、処理を終了するか否かを判定し(E19)、処理を継続すると判定したならば(E19;No)、E1に処理を戻す。また、処理を終了すると判定したならば(E19;Yes)、処理部100は、対象物追跡処理を終了する。
一方、E1において追跡モードが選択されなかったと判定したならば(E1;No)、処理部100は、動画像撮像モードが選択されたか否かを判定し(E15)、選択されたと判定したならば(E15;Yes)、動画像撮像処理を実行する(E17)。具体的には、ユーザー操作に従って、撮像部500に動画像の撮像を実行させ、撮像された動画像を記憶部800の元動画像データベース830に記憶させる。そして、処理部100は、E19へと処理を移す。
この場合、E11の照準動画像表示処理において、例えば、表示部300の画面全体に照準動画像を表示部300に表示させるようにしてもよい。つまり、出力枠を含む出力対象領域(例えば規定サイズの矩形領域)を表示部300の画面サイズに拡大したサブフレーム画像で構成される照準動画像を表示部300に表示させるようにしてもよい。この場合は、出力対象領域の大きさに適応するように出力枠の大きさを調整する必要があるため、出力対象領域と同じ拡大率で出力枠を拡大した上で、対応する位置に出力枠を重畳表示させるようにすればよい。
追跡領域枠の表示についても同様である。
また、ユーザー操作に従って、拡縮を変えて照準動画像を表示部300に表示させることを可能としてもよい。具体的には、例えば、拡縮を変更するための拡縮用ゲージをユーザーがスライド操作可能な操作バーとともに表示部300に表示させ、ユーザーによって拡縮用ゲージの操作バーをスライドする操作がなされた場合に、そのスライド操作に応じた拡大率で出力対象領域を拡大したサブフレーム画像で構成される照準動画像を表示部300に表示させるようにしてもよい。
[2−3.表示画面]
図12は、スマートフォン2の表示部300に表示される表示画面の一例を示す図である。
図12(1)には、A、B、Cの3人の人物が写し出された元動画像の一場面を表示した表示画面を図示している。この表示画面において、ユーザーが、タッチパネル250に対して人物Aの胴体部(上半身)をタップすることにより、第1の追跡領域R1が設定される。また、ユーザーがタッチパネル250に対して人物Aの脚部(下半身)をタップすることにより、第2の追跡領域R2が設定される。このようにして設定された第1の追跡領域R1及び第2の追跡領域R2に基づいて人物Aを追跡する追跡処理が実行され、照準動画像生成処理が実行されることで、対象物である人物Aに照準された照準動画像が生成される。
図12(2)には、照準動画像の一場面を表示した表示画面を図示している。この表示画面には、図12(1)に示した第1の追跡領域R1を包含する矩形の追跡領域枠Fr1と、第2の追跡領域R2を包含する矩形の追跡領域枠Fr2とが表示されている。この第1の追跡領域枠Fr1と第2の追跡領域枠Fr2の枠線は、例えばそれぞれ青色で示されている。また、この表示画面には、矩形の出力枠Fが表示されている。この出力枠Fの枠線は、例えば赤色で示されている。
[2−4.作用効果]
スマートフォン2は、タッチパネル250が一体的に構成された表示部300と、表示部300を表示制御する表示制御部190とを備える。そして、追跡領域設定部110は、タッチパネル250に対するタップ操作に基づいて追跡領域を設定し、表示制御部190は、照準動画像生成部180によって生成された照準動画像を表示部300に表示させる。
これによれば、ユーザーのタップ操作に基づいて設定した追跡領域に基づいて、対象物を追跡することが可能となる。また、対象物に照準した照準動画像をユーザーが確認できるようにすることができる。
[3.第2実施例]
第2実施例は、第1実施例のスマートフォン2において、ユーザーに表示中の動画像において出力枠を移動させる操作を行わせることを可能とし、この出力枠の移動操作に従って、半自動で対象物を設定することを可能にする実施例である。
[3−1.処理の流れ]
図13は、スマートフォン2の処理部100が、カメラモード処理に代えて実行する第2のカメラモード処理の流れの一例を示すフローチャートである。なお、カメラモード処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
E11において照準動画像表示処理を実行した後、処理部100は、ユーザーにより元動画像に表示を切り替える操作がなされたか否かを判定する(G13)。
切り替える操作がなされたと判定したならば(G13;Yes)、表示制御部190が、元動画像表示処理を実行する(G15)。具体的には、元画像選択処理で選択された元動画像を表示部300に表示させる。この際、表示制御部190は、元動画像を構成するフレーム画像毎の追跡領域の変化をユーザーが把握可能とするために、追跡領域を包含する追跡領域枠Fを元動画像中に重畳表示させる。この場合も、照準動画像と同様に、追跡領域枠Fには、枠線に所定の色(例えば青色)を付して表示する。
また、表示制御部190は、元動画像を構成するフレーム画像毎の出力枠の変化をユーザーが把握可能とするために、元動画像に出力枠を重畳表示させる。この場合も、上記の追跡領域枠と出力枠とをユーザーが区別することができるように、追跡領域枠の枠線に付した色とは異なる色(例えば赤色)を付して出力枠を表示する。
その後、処理部100は、タッチパネル操作を検出したか否かを判定し(G17)、検出したと判定したならば(G17;Yes)、第2の対象物追跡処理を実行する(G19)。
図14は、第2の対象物追跡処理の流れの一例を示すフローチャートである。
最初に、処理部100は、検出したタッチパネル操作が、元動画像に表示中の出力枠を任意の位置に移動させる操作(以下、「出力枠移動操作」という。)であるか否かを判定する(H1)。具体的には、出力枠の表示位置が所定時間(例えば1秒間)タッチされた後、続けてドラッグ操作がなされたことを検出した場合に、出力枠移動操作がなされたと判定する。
出力枠移動操作がなされたと判定したならば(H1;Yes)、処理部100は、出力枠移動操作が完了したか否かを判定する(H3)。具体的には、ドラッグ操作が停止し、タッチパネル250への入力がなくなったことを検出した場合に、出力枠移動操作が完了したと判定する。
出力枠移動操作が完了したと判定したならば(H3;Yes)、処理部100は、移動された出力枠内に存在する物体を検出する物体検出処理を実行する(H5)。物体検出処理は、人物やその他の物体をモデル化したモデルデータを用いたパターンマッチング等の従来公知の手法を用いて実現することができる。
次いで、追跡領域設定部110が、追跡領域設定処理を実行する(H7)。具体的には、H5で検出された物体を構成する各画素の色情報に基づいて、当該物体を構成する領域の中から、均一する色で構成される2つの領域を探索し、探索した2つの領域をそれぞれ第1の追跡領域及び第2の追跡領域として設定する。
その後、色情報取得部120が、色情報取得処理を実行する(H9)。具体的には、H7で設定された2つの追跡領域について、上記の実施形態と同様に、色情報を取得する。そして、処理部100は、追跡処理の実行を開始し(H11)、照準動画像生成部180が、照準動画像生成処理を実行する(H13)。そして、処理部100は、第2の対象物追跡処理を終了する。
なお、上記の説明では、出力枠移動操作が完了したと判定したならば(H3;Yes)、処理部100は、移動された出力枠内に存在する物体を検出する物体検出処理を実行する(H5)としたが、本実施例はこれに限られるものではない。例えば、出力枠移動操作が検出された時点(H1;Yes)から物体検出処理(H5)を開始し、対象物が検出された時点で、次の追跡領域設定処理の実行(H7)以降の処理を実行するようにしてもよい。この場合、追跡処理開始(H7)は、出力枠移動操作完了の判定(H3;Yes)後に開始されるように設定してもよい。
また、物体検出処理(H5)によって対象物が検出された時点で、出力枠の枠線の色を変化させることで、ユーザーに対して対象物が検出されたことを報知するようにしてもよい。また、処理部100による追跡処理の実行時と、ユーザー操作による出力枠移動時において、出力枠の表示態様を異ならせるとよい。その場合は、例えば、処理部100による追跡処理の実行時は出力枠の枠線を実線表示とし、ユーザー操作による出力枠移動時は出力枠の枠線を破線表示とすればよい。また、出力枠の枠線の色を異ならせるようにしてもよい。
図13に戻り、第2の対象物追跡処理を実行した後、処理部100は、元動画像の表示を終了する操作がなされたか否かを判定し(G21)、なされなかったと判定したならば(G21;No)、G17に処理を戻す。
また、元動画像の表示を終了する操作がなされたと判定したならば(G21;Yes)、処理部100は、照準動画像に表示を切り替える操作がなされたか否かを判定し(G23)、なされたと判定したならば(G23;Yes)、E11に処理を戻す。また、照準動画像に表示を切り替える操作がなされなかったと判定したならば(G23;No)、処理部100は、E13へと処理を移す。
なお、上記の処理において、物体検出処理において追跡対象とする物体を検出する際に、元動画像上で予め設定された複数の追跡対象物のうち、出力枠内に存在する一又は複数の物体を検出するようにしてもよい。例えば、スポーツが行われている場面を撮像する場合において、予め撮像された動画像や静止画像の中から注目選手等の動被写体を、ユーザーが手動で抽出したり、全自動/半自動で抽出し、この抽出した動被写体の色情報を登録しておく。そして、物体検出処理では、このようにして登録された動被写体を検出するようにする。この場合、動被写体の色情報を予め登録しておけば、H9の色情報取得処理を実行する必要はなく、H5の物体検出処理を実行するだけで済む。
[3−2.変形例]
上記の第2実施例において、追跡位置推定部140がバックグラウンドで追跡位置を推定している間に出力枠移動操作がなされたと判定した場合に、実行中の追跡位置の推定よりも出力枠移動操作を優先して、追跡位置を推定するようにしてもよい。つまり、自動で推定される追跡位置に基づき更新される出力枠の位置よりも、手動で移動される出力枠の位置を優先して、追跡位置を推定するようにしてもよい。
この場合、出力枠移動操作が完了したと判定したならば、移動された出力枠に推定追跡位置が含まれたタイミングで、それ以降、推定追跡位置に追従するように出力枠を更新するようにすればよい。このようにすることで、追跡されている対象物が正しくないと判断した場合に、ユーザーは出力枠を正しい対象物の位置に移動させて追跡位置を推定させることが可能となり、セミオートによる対象物の追跡を実現することができる。
[4.第3実施例]
対象物のロストが発生して出力枠の更新が中断された場合、対象フレーム画像の全範囲探索を行って追跡を継続したとしても、対象物とは異なる物体を誤って追跡してしまう場合がある。この場合には、追跡位置が出力枠内に入らない状態が継続する、又は、追跡位置が出力枠に入ったとしても、誤った対象を追跡し続けてしまう場合がある。しかし、リアルタイムに元動画像が入力され、且つ、リアルタイムに出力が求められる場合でなければ、追跡処理を撮像及び元画像の保存後に実行することが可能であることを利用して、以下のようにして、追跡位置を再推定するようにしてもよい。
例えば、前述したオクルージョンによるロストが発生した後、オクルージョンが解消して対象物が画面に再度現れたタイミングで、対象物が出力枠に含まれるように出力枠を移動させる出力枠移動操作がユーザーによってなされたとする(図14のH1;Yes)。この場合、出力枠移動操作が完了した時点で(図14のH3;Yes)、図14のH5〜H13の処理が実行されるが、図14のH9の色情報取得処理で取得された色情報に基づいて、出力枠移動操作によって対象物が指定されたタイミングから遡って、時間軸上で逆方向に追跡位置を再推定する。そして、再推定した追跡位置に基づいて、ロストが発生してからユーザーによって対象物が指定されるまでの期間における出力枠の位置を補完的に推定する。
この場合、ロストが発生したフレーム画像付近で、時間軸上で順方向に再推定した追跡位置と逆方向に再推定した追跡位置とが近い領域に収束する可能性が高まる。これに対し、前述した全範囲探索を行って追跡位置を再推定する場合には、対象フレーム画像の全範囲を対象として追跡位置を再推定するため、対象物から離れた場所の色が類似する領域を対象物と誤認識する可能性がある。このため、上記の処理を行うことで、全範囲探索によって追跡位置を再推定する場合と比べて、追跡の精度を向上させることができる。
[5.他の実施形態]
本発明を適用可能な実施形態は、上記の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能であることは勿論である。以下、他の実施形態について説明する。
[5−1.電子機器]
本発明に係る画像処理装置1は、スマートフォンやカメラ、デジタルカメラ、タブレット端末、PDA、パソコン等の各種の電子機器に具備させて利用することができる。
[5−2.元動画像]
上記の実施形態で説明した対象物追跡処理は、予め撮像された保存された元動画像について実行することとしてもよいし、リアルタイムに撮像される元動画像について実行することとしてもよい。例えば、サッカー競技を固定カメラで撮像した動画像について、注目の選手を対象物として対象物追跡処理を行い、この注目の選手に照準した照準動画像を生成して、放送することなどが考えられる。
また、複数のカメラで撮像した動画像を合成することで得られる合成動画像を元動画像として、対象物追跡処理を実行するようにしてもよい。
また、魚眼レンズを用いて撮像した動画像を元動画像として、対象物追跡処理を実行するようにしてもよい。魚眼レンズを用いて撮像した動画像では、端部に近いほど歪みが大きくなるが、本願発明の手法では色情報に基づいて対象物の追跡を行うため、歪みの影響はほぼ排除することができる。
また、スマートフォン2とは異なる別途のカメラで撮像した動画像をスマートフォンに送信するようにし、スマートフォン2が、受信した動画像を元動画像として上記の対象物追跡処理を行うようにすることも可能である。この場合、別途のカメラで撮像された元動画像をユーザーがスマートフォンで閲覧した上で、前述した出力枠の移動操作等を行って、対象物に照準した照準動画像をスマートフォンで確認することが可能となる。また、この場合において、ロストが発生した場合に、照準動画像から元動画像に表示を切り替えるなどしてもよい。
また、別途のカメラで撮像した動画像を元動画像として当該カメラが上記の対象物追跡処理を行い、元動画像や照準動画像を当該カメラの表示部に表示させるようにしてもよい。この場合、元動画像をユーザーがカメラで閲覧した上で、前述した出力枠の移動操作等を行って、対象物に照準した照準動画像をカメラで確認することが可能となる。また、出力枠のデータを元動画像や照準動画像のデータをともにエンコードして保存したり、エンコードしたデータを外部装置に送信し、外部装置側でこれらのデータをデコードすることで、外部装置において元動画像や照準動画像をユーザーが確認することを可能としてもよい。また、本実施形態において対象物の追跡を行う動画像は、定点撮像された動画像とするのが好適であると説明したが、動画像を撮像するカメラを固定せずに移動可能とし、例えば、フレーム内の出力枠の位置がフレーム端にならないように、カメラを移動させるようにしてもよい。
[5−3.追跡領域]
上記の実施形態では、対象物を追跡するために、対象物に2つの追跡領域を設定することとして説明したが、これはあくまでも一例に過ぎない。対象物に単一の追跡領域を設定するようにしてもよいし、対象物に3以上の追跡領域を設定するようにしてもよい。
例えば、対象物に単一の追跡領域を設定する場合には、設定した単一の追跡領域を基準とする追跡位置を推定するようにすればよい。この場合、追跡位置推定処理で求められた推定追跡位置の適否判定は、当該推定追跡位置について算出された信頼度が高信頼度条件を満たすか否かに基づいて判定するようにすればよい。
上記の説明では、同一の追跡対象物に対して第1及び第2の追跡領域の2つからなる一組の追跡領域を設定したが、複数の組を設定してもよい。即ち、上記のように最初に第1及び第2の追跡領域の2つからなる一組の追跡領域を設定した後、第3及び第4の追跡領域から成る別の一組の追跡領域をフレーム画像上でユーザーが設定する。続いて、同様に、異なる追跡領域の組み合わせから成る別の一組の追跡領域を更に設定することで、複数の組の追跡領域が設定できる。または、最初に第1及び第2の追跡領域の2つからなる一組の追跡領域を設定した後、追跡領域設定部11が最初の一組の追跡領域の近傍の色情報をもとにして、最初の一組とは異なる追跡領域の組み合わせからなる別の一組の追跡領域を自動的に設定するようにすればよい。このようにすることにより、最初の一組の追跡領域を用いた追跡がロストした場合、改めて追跡領域設定を行う手順を踏むことなく、別の一組の追跡領域を用いた対象物の再追跡が可能となる。また、複数の組の追跡領域を追跡し、所定期間ごとに各追跡領域の推定追跡位置の信頼度を判定することで各組の使用優先度を判定し、使用優先度の高い組を自動的に選択するように設定してもよい。
[5−4.色空間]
上記の実施形態では、フレーム画像の画素値がHSV色空間で表現されており、このHSV色空間で表現された画素値に基づいて色情報を取得することとして説明したが、これはあくまでも一例に過ぎない。例えば、フレーム画像の画素値をYUV色空間で表現することとし、このYUV空間で表現された画素値に基づいて色情報を取得するようにしてもよいし、フレーム画像の画素値をRGB色空間で表現することとし、このRGB空間で表現された画素値に基づいて色情報を取得するようにしてもよい。
[5−5.追跡領域情報の表示]
上記の実施例では、照準動画像や元動画像に、色を付した追跡領域枠を表示させることによってユーザーが追跡領域を認識できるようにしたが、これはあくまでも一例に過ぎない。必ずしも追跡領域枠を表示させる必要はなく、設定した追跡領域そのものを表示させるようにしてもよいし、追跡領域に対応する位置、例えば中心位置に印となるアイコン等を表示させるようにしてもよい。
また、追跡領域から取得した追跡に使用する色(色情報取得部12によって取得された色)を、表示部300に表示してもよく、例えば照準動画像の端部に表示させるようにしてもよい。このようにすることで、ユーザーは、どの色が追跡に用いられるのかを一見して容易に認識することができる。また、意図しない色が表示された場合には、ユーザーは指定した位置がずれていると判断して、位置を指定し直すことができる。
また、推定追跡位置の信頼度の度合いに応じて、出力枠の枠線の色を変化させるようにしてもよい。例えば、追跡位置適否判定部15が、複数の信頼度の閾値を設定し、信頼度の度合いを判定できるようにする。そして、例えば、追跡位置適否判定部15が、当該推定位置の信頼度が、ある信頼度の閾値は超えているものの、あまり信頼度が高くない状態であると判定した場合、又はそのような信頼度が高くない状態が所定期間続いていると判定した場合は、ユーザーに対して、異なる色を含む追跡領域を再設定するように促す報知を行うようにする。または、追跡位置適否判定部15が、当該追跡領域の近傍から、異なる色を含む追跡領域を再設定するようにしてもよい。
[5−6.出力枠の表示]
また、上記の実施例では、照準動画像や元動画像に、色を付した出力枠を表示させることによってユーザーが出力枠を認識できるようにしたが、これはあくまでも一例に過ぎない。必ずしも出力枠を表示させる必要はなく、出力枠の中心位置や、その時点で追跡している対象物を表示させるようにしてもよい。
[5−7.記録媒体]
上記の実施形態では、画像処理に係る各種のプログラムやデータが、画像処理装置1の記憶部や、スマートフォン2の記憶部800に記憶されており、処理部がこれらのプログラムを読み出して実行することで、上記の各実施形態における画像処理が実現された。この場合、各装置の記憶部は、ROMやフラッシュROM、ハードディスク、RAMといった内部記憶装置の他に、メモリカード(SDカード)やコンパクトフラッシュ(登録商標)カード、メモリスティック、USBメモリ、CD−RW(光学ディスク)、MO(光磁気ディスク)といった記録媒体(記録メディア、外部記憶装置)を有していてもよく、これらの記録媒体に上記の各種のプログラムやデータを記憶させることとしてもよい。
図15は、この場合における記録媒体の一例を示す図である。
スマートフォン2には、メモリカード9を挿入するためのカードスロット910が設けられており、カードスロット910に挿入されたメモリカード9に記憶された情報を読み取る又はメモリカード9に情報を書き込むためのカードリーダライタ(R/W)920が設けられている。カードリーダライタ920は、処理部100の制御に従って、記憶部800に記録されたプログラムやデータをメモリカード9に書き込む動作を行う。メモリカード9に記録されたプログラムやデータは、スマートフォン2以外の外部装置(例えばパソコン)で読み取ることで、当該外部装置において上記の実施形態における照準動画像の生成を実現することが可能に構成されている。
1 画像処理装置
2 スマートフォン
9 メモリカード
10 元動画像取得部
11 追跡領域設定部
12 色情報取得部
13 形状情報取得部
14 追跡位置推定部
15 追跡位置適否判定部
16 追跡位置再推定部
17 出力枠設定部
18 照準動画像生成部
20 元動画像メモリ
100 処理部
200 操作部
250 タッチパネル
300 表示部
400 音出力部
500 撮像部
600 通信部
700 時計部
800 記憶部
910 カードスロット
920 カードリーダライタ

Claims (17)

  1. 画像処理装置であって、
    元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
    前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
    前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
    前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
    前記出力枠を基準とした動画像を生成する動画像生成手段と、
    前記追跡位置推定手段によって推定された追跡位置の適否を判定する追跡位置適否判定手段と、
    前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定手段と、
    を備え
    前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
    前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
    前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
    画像処理装置。
  2. 前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し、
    前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し、
    前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定する、
    請求項1に記載の画像処理装置。
  3. 前記追跡位置適否判定手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記追跡位置推定手段によって推定された追跡位置の相対的な位置関係に基づいて適否判定を行う、
    請求項に記載の画像処理装置。
  4. 前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の複数の対象物に追跡領域を設定し、
    前記複数の対象物に追跡の優先度を設定する優先度設定手段を更に備え、
    前記出力枠設定手段は、前記優先度設定手段によって設定された優先度に基づいて、更新する出力枠を決定する、
    請求項1〜の何れか一項に記載の画像処理装置。
  5. 前記追跡領域設定手段によって設定された追跡領域の形状情報を取得する形状情報取得手段を更に備え、
    前記追跡位置推定手段は、前記形状情報取得手段によって取得された形状情報を更に用いて、前記追跡位置をフレーム画像毎に推定する、
    請求項1〜の何れか一項に記載の画像処理装置。
  6. 前記出力枠設定手段によって更新される出力枠位置の変位量に基づいて、前記出力枠の位置を修正する出力枠位置修正手段を更に備え、
    前記動画像生成手段は、前記出力枠位置修正手段によって位置が修正された出力枠を基準とした動画像を生成する、
    請求項1〜の何れか一項に記載の画像処理装置。
  7. 請求項1〜の何れか一項に記載の画像処理装置と、
    タッチパネルが一体的に構成された表示手段と、
    前記表示手段を表示制御する表示制御手段と、
    を備え、
    前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記追跡領域を設定し、
    前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する、
    電子機器。
  8. 前記表示制御手段は、前記追跡領域設定手段によって設定された追跡領域を特定可能な表示態様で前記動画像に重畳表示させる追跡領域表示制御手段を有する、
    請求項に記載の電子機器。
  9. 請求項1〜の何れか一項に記載の画像処理装置と、
    タッチパネルが一体的に構成された表示手段と、
    前記表示手段を表示制御する表示制御手段と、
    を備え、
    前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し、
    前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し、
    前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し、
    前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する、
    電子機器。
  10. 前記表示制御手段は、前記追跡領域設定手段によって設定された複数の追跡領域をそれぞれ区別して特定可能な表示態様で前記動画像に重畳表示させる追跡領域表示制御手段を有する、
    請求項に記載の電子機器。
  11. 前記表示制御手段は、前記出力枠設定手段によって更新される出力枠を特定可能な表示態様で前記動画像に重畳表示させる第1の出力枠表示制御手段を有する、
    請求項〜1の何れか一項に記載の電子機器。
  12. 前記動画像表示制御手段は、前記出力枠を含む所定領域を拡大した動画像を前記表示手段に表示させ、
    前記第1の出力枠表示制御手段は、前記拡大された所定領域に適応するように大きさを調整した出力枠を前記動画像に重畳表示させる、
    請求項1に記載の電子機器。
  13. 前記表示制御手段は、
    前記元動画像を前記表示手段に表示させる元動画像表示制御手段と、
    前記出力枠設定手段によって更新される出力枠を特定可能な表示態様で前記元動画像に重畳表示させる第2の出力枠表示制御手段と、
    を有する、
    請求項〜1の何れか一項に記載の電子機器。
  14. 前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
    前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
    を更に備え、
    前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
    前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
    請求項1に記載の電子機器。
  15. 電子機器であって、
    元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
    前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
    前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
    前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
    前記出力枠を基準とした動画像を生成する動画像生成手段と、
    タッチパネルが一体的に構成された表示手段と、
    前記表示手段を表示制御する表示制御手段と、
    前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
    前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
    を備え、
    前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
    前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
    電子機器。
  16. 画像処理方法であって、
    元動画像を構成するフレーム画像中の対象物に追跡領域を設定することと、
    前記設定された追跡領域の色情報を取得することと、
    前記取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定することと、
    前記設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新することと、
    前記出力枠を基準とした動画像を生成することと、
    前記推定された追跡位置の適否を判定することと、
    前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定することと、
    を含み
    前記追跡位置を推定することは、前記再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
    前記出力枠を設定することは、前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
    前記追跡位置を再推定することは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
    画像処理方法。
  17. コンピュータに、画像処理を実行させるためのプログラムであって、
    元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定ステップと、
    前記追跡領域設定ステップで設定された追跡領域の色情報を取得する色情報取得ステップと、
    前記色情報取得ステップで取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定ステップと、
    前記追跡領域設定ステップで設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定ステップと、
    前記出力枠を基準とした動画像を生成する動画像生成ステップと、
    前記追跡位置推定ステップで推定された追跡位置の適否を判定する追跡位置適否判定ステップと、
    前記追跡位置適否判定ステップで前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定ステップと、
    を実行させ
    前記追跡位置推定ステップでは、前記追跡位置再推定ステップで再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
    前記出力枠設定ステップでは、前記追跡位置再推定ステップで前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定ステップで推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
    前記追跡位置再推定ステップでは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
    プログラム。
JP2016207077A 2015-10-23 2016-10-21 画像処理装置、電子機器、画像処理方法及びプログラム Active JP6649864B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015209412 2015-10-23
JP2015209412 2015-10-23

Publications (2)

Publication Number Publication Date
JP2017085564A JP2017085564A (ja) 2017-05-18
JP6649864B2 true JP6649864B2 (ja) 2020-02-19

Family

ID=58561837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207077A Active JP6649864B2 (ja) 2015-10-23 2016-10-21 画像処理装置、電子機器、画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US10319097B2 (ja)
JP (1) JP6649864B2 (ja)
KR (1) KR101889470B1 (ja)
CN (1) CN107037962B (ja)
TW (1) TWI621101B (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6988146B2 (ja) * 2016-05-25 2022-01-05 ソニーグループ株式会社 演算処理装置及び演算処理方法
KR101877232B1 (ko) * 2017-05-29 2018-07-12 국방과학연구소 영상 유사도 및 추적 지점 변화량 기반의 영상 추적기 시스템 및 그의 추적 안정도 판별 방법
KR101999338B1 (ko) * 2017-06-27 2019-07-11 주식회사 아이피엘 실시간 객체 트래킹 방법 및 장치
JP6690622B2 (ja) * 2017-09-26 2020-04-28 カシオ計算機株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
WO2019111976A1 (ja) 2017-12-08 2019-06-13 日本電気通信システム株式会社 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム
JP7110657B2 (ja) * 2018-03-26 2022-08-02 カシオ計算機株式会社 画像処理装置、画像処理方法およびプログラム
US11651589B2 (en) 2018-05-07 2023-05-16 Google Llc Real time object detection and tracking
CN108874136B (zh) * 2018-06-13 2022-02-18 北京百度网讯科技有限公司 动态图像生成方法、装置、终端和存储介质
CN111273837A (zh) * 2018-12-04 2020-06-12 浙江宇视科技有限公司 图像处理方法及装置
TWI739052B (zh) 2018-12-26 2021-09-11 華碩電腦股份有限公司 電子裝置及其操作方法
CN109831622B (zh) * 2019-01-03 2021-06-22 华为技术有限公司 一种拍摄方法及电子设备
JP7012673B2 (ja) * 2019-01-10 2022-01-28 Kddi株式会社 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法
CN111435283A (zh) * 2019-01-11 2020-07-21 敦泰电子有限公司 一种操作意图确定方法、装置及电子设备
CN111488776B (zh) * 2019-01-25 2023-08-08 北京地平线机器人技术研发有限公司 对象检测方法、对象检测装置和电子设备
JP7238962B2 (ja) * 2019-03-13 2023-03-14 日本電気株式会社 物体追跡装置、物体追跡方法、及び、プログラム
JP7334432B2 (ja) * 2019-03-15 2023-08-29 オムロン株式会社 物体追跡装置、監視システムおよび物体追跡方法
JP7438684B2 (ja) * 2019-07-30 2024-02-27 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN110610202B (zh) * 2019-08-30 2022-07-26 联想(北京)有限公司 一种图像处理方法及电子设备
CN110691197A (zh) * 2019-11-04 2020-01-14 上海摩象网络科技有限公司 一种拍摄追踪的方法、装置、电子设备
CN112991485B (zh) * 2019-12-13 2023-06-20 浙江宇视科技有限公司 轨迹绘制方法、装置、可读存储介质及电子设备
JP2022130038A (ja) * 2021-02-25 2022-09-06 キヤノン株式会社 撮像装置、制御方法、プログラム
CN117615255B (zh) * 2024-01-19 2024-04-19 深圳市浩瀚卓越科技有限公司 基于云台的拍摄追踪方法、装置、设备及存储介质

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659639A (en) * 1993-11-24 1997-08-19 Xerox Corporation Analyzing an image showing editing marks to obtain category of editing operation
JP2004282535A (ja) * 2003-03-18 2004-10-07 Mitsubishi Electric Corp 画角調整装置
JP2007274543A (ja) 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、プログラム、並びに記録媒体
JP5111088B2 (ja) * 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
US7609814B2 (en) * 2008-01-15 2009-10-27 Siemens Medical Solutions Usa, Inc. Adaptive medical image and mask data processing system
JP5047007B2 (ja) * 2008-03-03 2012-10-10 三洋電機株式会社 撮像装置
CN101965576B (zh) * 2008-03-03 2013-03-06 视频监控公司 用于追踪、索引及搜寻的物件匹配
CN101750845B (zh) * 2008-12-12 2012-02-15 三星电机株式会社 自动聚焦方法
US8626236B2 (en) * 2010-10-08 2014-01-07 Blackberry Limited System and method for displaying text in augmented reality
JP4855556B1 (ja) * 2011-03-22 2012-01-18 株式会社モルフォ 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム
JP2012205037A (ja) 2011-03-25 2012-10-22 Olympus Imaging Corp 画像処理装置および画像処理方法
US8929598B2 (en) * 2011-06-29 2015-01-06 Olympus Imaging Corp. Tracking apparatus, tracking method, and storage medium to store tracking program
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP2013172446A (ja) * 2012-02-23 2013-09-02 Sony Corp 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法
JP2014209707A (ja) * 2013-03-25 2014-11-06 パナソニック株式会社 映像再生装置および映像再生方法
TW201523459A (zh) * 2013-12-06 2015-06-16 Utechzone Co Ltd 物件追蹤方法及電子裝置

Also Published As

Publication number Publication date
TWI621101B (zh) 2018-04-11
KR101889470B1 (ko) 2018-08-20
US20170116749A1 (en) 2017-04-27
TW201715473A (zh) 2017-05-01
CN107037962B (zh) 2020-06-16
JP2017085564A (ja) 2017-05-18
CN107037962A (zh) 2017-08-11
US10319097B2 (en) 2019-06-11
KR20170048209A (ko) 2017-05-08

Similar Documents

Publication Publication Date Title
JP6649864B2 (ja) 画像処理装置、電子機器、画像処理方法及びプログラム
JP6621798B2 (ja) 画像処理装置、画像処理方法及びプログラム
US8842213B2 (en) Image capture device, image capture device focus control method, and integrated circuit
JP6468865B2 (ja) 画像処理装置及び画像処理方法
CN105744180B (zh) 图像生成装置、电子设备及图像生成方法
JP5935779B2 (ja) 画像処理装置、画像処理方法及びプログラム
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US20150116517A1 (en) Image processing device, image processing method, and program
JP5142825B2 (ja) 画像表示装置及び画像表示方法
JP2014033265A (ja) 撮像装置、撮像方法およびプログラム
KR20160115694A (ko) 이미지 처리 장치, 이미지 처리 방법 및 기록 매체에 저장된 컴퓨터 프로그램
JP6808482B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP6441570B2 (ja) ゴルフスイングの分析システム、プログラム及び方法
JP5222429B2 (ja) 被写体追跡装置及びその制御方法
US11553136B2 (en) Subject tracking device, subject tracking method, and storage medium
JP4983672B2 (ja) 撮像装置及びそのプログラム
US11785346B2 (en) Imaging device and imaging control method
JP6322964B2 (ja) 撮像装置、撮像制御方法及びプログラム
US20230269472A1 (en) Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium
JP6724527B2 (ja) 撮影装置、撮影制御方法及びプログラム
JP6682874B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2011077790A (ja) 撮像装置、補正処理プログラム及び記録媒体
JP2024033748A (ja) 画像処理装置、撮像装置、画像処理方法および撮像装置の制御方法、プログラム
JP6217533B2 (ja) 画像処理装置、画像処理方法、プログラム及びカメラ
JP2015194837A (ja) 画像処理装置、画像処理方法、プログラム及びカメラ

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200117

R150 Certificate of patent or registration of utility model

Ref document number: 6649864

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250