JP6649864B2 - 画像処理装置、電子機器、画像処理方法及びプログラム - Google Patents
画像処理装置、電子機器、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP6649864B2 JP6649864B2 JP2016207077A JP2016207077A JP6649864B2 JP 6649864 B2 JP6649864 B2 JP 6649864B2 JP 2016207077 A JP2016207077 A JP 2016207077A JP 2016207077 A JP2016207077 A JP 2016207077A JP 6649864 B2 JP6649864 B2 JP 6649864B2
- Authority
- JP
- Japan
- Prior art keywords
- tracking
- output frame
- tracking position
- moving image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Description
画像処理装置(図1の画像処理装置1)であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する(図4のA3)追跡領域設定手段(図1の追跡領域設定部11)と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する(図4のA5)色情報取得手段(図1の色情報取得部12)と、
前記色情報取得手段によって取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する(図5のB3)追跡位置推定手段(図1の追跡位置推定部14)と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する(図5のB19)出力枠設定手段(図1の出力枠設定部17)と、
前記出力枠設定手段によって更新される出力枠を基準とした動画像を生成する(図4のA11)動画像生成手段(図1の照準動画像生成部18)と、
前記追跡位置推定手段によって推定された追跡位置の適否を判定する追跡位置適否判定手段と、
前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定手段と、
を備え、
前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理装置である。
また、他の発明として、
電子機器であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
前記出力枠を基準とした動画像を生成する動画像生成手段と、
タッチパネルが一体的に構成された表示手段と、
前記表示手段を表示制御する表示制御手段と、
前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
を備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
電子機器を構成してもよい。
画像処理方法であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定すること(図4のA3)と、
前記設定された追跡領域の色情報を取得すること(図4のA5)と、
前記取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定すること(図5のB3)と、
前記設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新すること(図5のB19)と、
前記更新される出力枠を基準とした動画像を生成すること(図4のA11)と、
前記推定された追跡位置の適否を判定することと、
前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定することと、
を含み、
前記追跡位置を推定することは、前記再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠を設定することは、前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置を再推定することは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理方法を構成してもよい。
コンピュータ(各種の装置のプロセッサ)に、画像処理を実行させるためのプログラム(図9の対象物追跡プログラム811)であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定ステップ(図4のA3)と、
前記追跡領域設定ステップで設定された追跡領域の色情報を取得する色情報取得ステップ(図4のA5)と、
前記色情報取得ステップで取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定ステップ(図5のB3)と、
前記追跡領域設定ステップで設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定ステップ(図5のB19)と、
前記出力枠を基準とした動画像を生成する動画像生成ステップ(図4のA11)と、
前記追跡位置推定ステップで推定された追跡位置の適否を判定する追跡位置適否判定ステップと、
前記追跡位置適否判定ステップで前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定ステップと、
を実行させ、
前記追跡位置推定ステップでは、前記追跡位置再推定ステップで再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定ステップでは、前記追跡位置再推定ステップで前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定ステップで推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定ステップでは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
プログラムを構成してもよい。
第1の発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報を用いて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定する(図5のB3)、
画像処理装置を構成してもよい。
第1又は第2の発明の画像処理装置であって、
前記追跡位置推定手段によって推定された追跡位置の適否を判定する(図5のB11)追跡位置適否判定手段(図1の追跡位置適否判定部15)と、
前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する(図5のB23)追跡位置再推定手段(図1の追跡位置再推定部16)と、
を更に備えた、
画像処理装置を構成してもよい。
第3の発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し(図5のB3)
前記追跡位置適否判定手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記追跡位置推定手段によって推定された追跡位置の相対的な位置関係(推定追跡位置間の距離が近距離条件を満たすか否か)に基づいて適否判定を行う、
画像処理装置を構成してもよい。
第3又は第4の発明の画像処理装置であって、
前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断する(図5のB25)、
画像処理装置を構成してもよい。
第5の発明の画像処理装置であって、
前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し(図5のB23→B25→B21→B3)、
前記出力枠設定手段は、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開する(図5のB5;Yes→B7;Yes→B9)、
画像処理装置を構成してもよい。
第6の発明の画像処理装置であって、
前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理装置を構成してもよい。
第1〜第7の何れかの発明の画像処理装置であって、
前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の複数の対象物に追跡領域を設定し、
前記複数の対象物に追跡の優先度を設定する優先度設定手段(画像処理装置1の不図示の優先度設定部)を更に備え、
前記出力枠設定手段は、前記優先度設定手段によって設定された優先度に基づいて、更新する出力枠を決定する、
画像処理装置を構成してもよい。
第1〜第8の何れかの発明の画像処理装置(図8の画像処理装置1)であって、
前記追跡領域設定手段によって設定された追跡領域の形状情報を取得する形状情報取得手段(図8の形状情報取得部13)を更に備え、
前記追跡位置推定手段は、前記形状情報取得手段によって取得された形状情報を更に用いて、前記追跡位置をフレーム画像毎に推定する、
画像処理装置を構成してもよい。
第1〜第9の何れかの発明の画像処理装置であって、
前記出力枠設定手段によって更新される出力枠位置の変位量に基づいて、前記出力枠の位置を修正する出力枠位置修正手段(画像処理装置1の不図示の出力枠位置修正部)を更に備え、
前記動画像生成手段は、前記出力枠位置修正手段によって位置が修正された出力枠を基準とした動画像を生成する、
画像処理装置を構成してもよい。
第1〜第10の何れかの発明の画像処理装置(図1、図8の画像処理装置1)と、
タッチパネル(図9のタッチパネル250)が一体的に構成された表示手段(図9の表示部300)と、
前記表示手段を表示制御する表示制御手段(図9の表示制御部190)と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記追跡領域を設定し(図11のF5;Yes→F7→F9)、
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる(図10のE11)動画像表示制御手段を有する、
電子機器を構成してもよい。
第11の発明の電子機器であって、
前記表示制御手段は、前記追跡領域設定手段によって設定された追跡領域を特定可能な表示態様(追跡領域を包含する追跡領域枠に色を付して表示)で前記動画像に重畳表示させる(図10のE11)追跡領域表示制御手段を有する、
電子機器を構成してもよい。
第1〜第10の何れかの発明の画像処理装置(図1、図8の画像処理装置1)と、
タッチパネル(図9のタッチパネル250)が一体的に構成された表示手段(図9の表示部300)と、
前記表示手段を表示制御する表示制御手段(図9の表示制御部190)と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し(図4のA3)、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し(図4のA5)、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し(図5のB3)
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する(図10のE11)
電子機器を構成してもよい。
第13の発明の電子機器であって、
前記表示制御手段は、前記追跡領域設定手段によって設定された複数の追跡領域をそれぞれ区別して特定可能な表示態様(複数の追跡領域それぞれを包含する追跡領域枠に色を付して表示)で前記動画像に重畳表示させる追跡領域表示制御手段(図9の表示制御部190)を有する、
電子機器を構成してもよい。
第11〜第14の何れかの発明の電子機器であって、
前記表示制御手段は、前記出力枠設定手段によって更新される出力枠を特定可能な表示態様(枠線に色を付して表示)で前記動画像に重畳表示させる第1の出力枠表示制御手段(図9の表示制御部190)を有する、
電子機器を構成してもよい。
第15の発明の電子機器であって、
前記動画像表示制御手段は、前記出力枠を含む所定領域を拡大した動画像を前記表示手段に表示させ、
前記第1の出力枠表示制御手段は、前記拡大された所定領域に適応するように大きさを調整した出力枠を前記動画像に重畳表示させる、
電子機器を構成してもよい。
第11〜第16の何れかの発明の電子機器であって、
前記表示制御手段は、
前記元動画像を前記表示手段に表示させる元動画像表示制御手段(図9の表示制御部190)と、
前記出力枠設定手段によって更新される出力枠を特定可能な表示態様(出力枠の枠線に色を付して表示)で前記元動画像に重畳表示させる第2の出力枠表示制御手段(図9の表示制御部190)と、
を有する、
電子機器を構成してもよい。
第17の発明の電子機器であって、
前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する(図14のH1)移動操作判定手段(図9の処理部100)と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する(図14のH5)物体検出手段(図9の処理部100)と、
を更に備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し(図14のH9)、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する(図14のH11)、
電子機器を構成してもよい。
本実施形態における画像処理装置は、動画像中の対象物を追跡するものである。本実施形態において対象物の追跡を行う動画像は、定点から撮像(定点撮像)された動画像とするのが好適である。これは、本実施形態における画像処理装置は、主として色情報を用いて対象物の追跡を行うため、手振れによるブラーの発生や光の影響等により対象物の色に変化が生じてしまうと、追跡の精度が低下するためである。
図1は、本実施形態における画像処理装置1の機能構成の一例を示すブロック図である。
画像処理装置1は、元動画像取得部10と、追跡領域設定部11と、色情報取得部12と、追跡位置推定部14と、追跡位置適否判定部15と、追跡位置再推定部16と、出力枠設定部17と、照準動画像生成部18とを備える。これらは、画像処理装置1の処理部(処理装置)が有する機能部(機能ブロック)であり、処理部は、CPUやDSP等のプロセッサーやASIC等の集積回路を有して構成される。
図2(1)には、元動画像を構成するフレーム画像の一例を示しており、このフレーム画像には、A、Bの2人の人物が写し出されている。人物Aを対象物として追跡を行う場合、例えば、人物Aの上半身と下半身の2か所に追跡領域を設定する。本実施形態では、主として対象物の色情報を用いて対象物の追跡を行うが、人物Aの上半身と下半身の2か所に追跡領域を設定する理由は、人が上半身に着用するシャツと、下半身に着用するズボンとは、異なる色をしている場合が多いためである。例えば、上半身のシャツの一部に第1の追跡領域R1を設定し、下半身のズボンの一部に第2の追跡領域R2を設定する。
(1)追跡領域になるべく近い領域から追跡領域と同じ色の領域を探索したい。
(2)追跡処理に要するデータ処理量を削減したい。
の2つの理由があるためである。
この図には、横軸を確率変数xとし、縦軸を確率Pとする確率分布φ(x)を図示している。確率変数xは、例えば、フレーム画像の横方向の座標値xに対応する。この確率分布φ(x)は、どの座標値xに追跡領域と同じ色が存在する確率が高いかを示す確率分布関数であり、一番高い山の頂点に対応する座標値において追跡領域と同一の色が存在する確率が最も高いことを示している。但し、画像は2次元であるため、実際には、フレーム画像の2次元の座標値(x、y)を成分とする確率分布φ(x、y)が算出される。
図4は、画像処理装置1が実行する画像処理の流れの一例を示すフローチャートである。
最初に、元動画像取得部10が、元動画像取得処理を実行する(A1)。具体的には、元動画像メモリ20に保存されている複数の元動画像の中から一の元動画像を取得する。または、図示しない入力部からリアルタイムで入力され、図示しない表示部にリアルタイムで表示される動画像(以下、リアルタイム動画像と称する)を以下の処理に使用してもよい。
リアルタイム動画像の場合は、静止フレーム画像において対象物の追跡領域を設定する間に継続して入力されるリアルタイム動画像を元画像メモリ20に記憶させておく。追跡領域設定の終了後に、静止フレーム画像はリアルタイム動画像に戻る。その際、静止フレーム表示中に元画像メモリ20に記憶させたリアルタイム動画像に対して追跡処理を行って、追跡処理がリアルタイムの表示に追いつくようにすることが好ましい。なお、静止フレーム画像を表示する時間は、元画像メモリ20の記憶容量に応じて、例えば5秒間と設定し、設定時間経過後は追跡領域設定を中断してリアルタイム再生に戻るように設定すると好適である。
ガイダンス機能としては、ユーザーが第1の追跡領域を設定した後に、第1の追跡領域の色とは異なる色を持つ領域を第2の追跡領域として設定するように促す報知を行うようにする。また、ユーザーが第1及び第2の追跡領域を設定した後に、追跡領域設定部11が第1及び第2の追跡領域の組み合わせが好適であるかどうかを判断し、好適でない場合は、追跡領域の再設定を促す報知を行うようにする。
なお、ユーザーが第1及び第2の追跡領域の両方を設定するか、ユーザーが第1の追跡領域を設定し、追跡領域設定部11が第2の追跡領域を設定するかは、表示画面にメニューを表示して、ユーザーに予め選択させるようにすればよい。
最初に、画像処理装置1は、現在のフレーム画像の次のフレーム画像(次のフレーム画像のデータ)を取得し、取得したフレーム画像を対象フレーム画像とする(B1)。
追跡位置再推定部16は、第1の追跡領域の色情報と、第2の追跡領域の色情報とに基づいて、対象フレーム画像について、第1の追跡領域及び第2の追跡領域それぞれについて、全範囲探索を実行して、第1の追跡位置と第2の追跡位置とを再推定する(C1)。具体的には、対象フレーム画像について追跡領域の色に類似する色を有する領域を、対象フレーム画像の中から探索する。
また、ユーザーが探索範囲を指定し、追跡位置再推定部16が指定された探索範囲の探索を行うようにしてもよい。
以降は、この繰り返しである。
画像処理装置1は、元動画像を構成するフレーム画像において追跡領域を設定する追跡領域設定部11と、追跡領域設定部11によって設定された追跡領域の色情報を取得する色情報取得部12と、色情報取得部12によって取得された色情報を用いて、追跡領域を基準とする追跡位置をフレーム画像毎に順次に推定する追跡位置推定部14と、追跡領域設定部11によって設定された追跡領域を含む出力枠を設定し、追跡位置推定部14によって追跡位置が順次に推定される毎に、推定された追跡位置に基づいて出力枠を更新する出力枠設定部17と、元動画像を用いて、出力枠設定部17によって順次に更新される出力枠に照準した照準動画像を生成する照準動画像生成部18と、を備える。
[1−4−1.形状追跡]
図8は、上記の画像処理装置1の機能構成の別の一例を示している。この画像処理装置1は、図1で説明した機能部の他に、形状情報取得部13を備えて構成される。
φ´(x、y)=G(x、y;x´、y´、σ)*φ(x、y)・・(1)
1つの対象物に複数の追跡領域を設定するのではなく、複数の対象物に追跡領域を設定するようにしてもよい。例えば、上記のように、ある人物がボール競技を行っている場面を撮像した元動画像について対象物の追跡を行う場合に、人物の一部分とボールの一部分とに第1の追跡領域及び第2の追跡領域をそれぞれ設定し、人物とボールとを対象物として、追跡処理を実行するようにしてもよい。
優先度設定部は、対象物に追跡の優先度を設定する。そして、出力枠設定部17が、優先度設定部によって設定された優先度に基づいて、更新する出力枠を決定する。この場合、追跡の優先度の他に、複数の対象物間の最大許容距離を設定するようにしてもよい。上記の例では、人物とボールに追跡の優先度を設定し、また、人物とボールとの間の最大許容距離を設定する。そして、人物について推定された追跡位置とボールについて推定された追跡位置との間の距離が最大許容距離を超えていない場合には、両方の対象物を包含するように出力枠を更新し、最大許容距離を超えている場合には、優先度の高い方の対象物を包含するように出力枠を更新する。
上記の追跡位置適否判定処理における適否判定条件として、例えば、第1の推定追跡位置と第2の推定追跡位置との上下の関係が逆転しないことを定めておいてもよい。例えば、前述したように、人物の上半身と下半身との2か所に追跡領域を設定して追跡処理を実行する場合、人物が移動しても、上半身と下半身とが逆となるケースは少ないと考えられる。
追跡位置を推定する場合の例外処理として、以下に説明するような例外処理を適用することとしてもよい。
第1の推定追跡位置と第2の推定追跡位置との2つの推定追跡位置の何れか一方の信頼度が高信頼度条件を満たさない場合には、信頼度が高信頼度条件を満たさない方の推定追跡位置がロスト状態となったと判定し、信頼度が高信頼度条件を満たす方の推定追跡位置を正しい追跡位置として、当該追跡位置のみについて追跡を継続するようにするようにしてもよい。これは、第1の推定追跡位置と第2の推定追跡位置の何れか一方がロスト状態となった場合に一律に推定追跡位置を不適当として追跡位置再推定処理を実行することにしてしまうと、それまでの追跡が無駄になってしまうためである。
第1の推定追跡位置と第2の推定追跡位置との間の距離が近距離条件を満たさない場合には、以下の2つの追跡位置探索処理を実行する。
(1)第2の推定追跡位置を含む第2の追跡領域の上側に一定範囲の探索領域を設定し、この探索領域内で、第1の推定追跡位置を探索する第1の追跡位置探索処理を実行する。
(2)第1の推定追跡位置を含む第1の追跡領域の下側に一定範囲の探索領域を設定し、この探索領域内で、第2の推定追跡位置を探索する第2の追跡位置探索処理を実行する。
リアルタイムに元動画像が入力され、且つ、リアルタイムに出力が求められる場合でなければ、追跡処理を後処理として実行することが可能である。そこで、追跡位置再推定部16が、出力枠の更新が再開されたタイミングから更新が中断されたタイミングまで遡って、追跡位置を再推定するようにしてもよい。
Mean−Shift法を利用した追跡処理を行うと、どうしても推定追跡位置が細かく変動するノイズが残ってしまう傾向がある。このようにして求められた推定追跡位置に基づいて出力枠を更新した場合、生成される照準動画像においてがたつきが生ずる要因となる。
出力枠位置修正部は、フレーム画像間の出力枠の座標の変化に基づいて、フレーム画像間の出力枠の動き量を算出する。そして、出力枠修正部は、直近の過去所定分(例えば過去30フレーム分)の出力枠の動き量を平均処理し、この平均処理で得られた平均動き量に基づいて、フレーム画像毎に更新された出力枠の位置を修正する。このようにして位置が修正された出力枠に照準した照準動画像を照準動画像生成部18が生成することで、がたつきのない照準動画像を提供することが可能となる。
次に、上記の画像処理装置1を備える電子機器の一例として、スマートフォン2の実施例について説明する。但し、本発明を適用可能な実施例が、以下説明する実施例に限定されるわけでないことは勿論である。
図9は、スマートフォン2の機能構成の一例を示すブロック図である。
スマートフォン2は、処理部100と、操作部200と、表示部300と、音出力部400と、撮像部500と、通信部600と、時計部700と、記憶部800とを備える。
図10は、処理部100が、記憶部800に記憶されているカメラモード処理プログラム810に従って実行するカメラモード処理の流れの一例を示すフローチャートである。このカメラモード処理は、ユーザーによりカメラのアプリケーションが起動されることにより実行される処理である。
最初に、表示制御部190は、記憶部800に記憶されている元動画像データベース830に記憶されている元動画像の一覧を表示部300に表示させ、ユーザーに対象物の追跡を実行させる元動画像を選択させる元動画像選択処理を実行する(F1)。
追跡領域枠の表示についても同様である。
図12は、スマートフォン2の表示部300に表示される表示画面の一例を示す図である。
スマートフォン2は、タッチパネル250が一体的に構成された表示部300と、表示部300を表示制御する表示制御部190とを備える。そして、追跡領域設定部110は、タッチパネル250に対するタップ操作に基づいて追跡領域を設定し、表示制御部190は、照準動画像生成部180によって生成された照準動画像を表示部300に表示させる。
第2実施例は、第1実施例のスマートフォン2において、ユーザーに表示中の動画像において出力枠を移動させる操作を行わせることを可能とし、この出力枠の移動操作に従って、半自動で対象物を設定することを可能にする実施例である。
図13は、スマートフォン2の処理部100が、カメラモード処理に代えて実行する第2のカメラモード処理の流れの一例を示すフローチャートである。なお、カメラモード処理と同一のステップについては同一の符号を付して、再度の説明を省略する。
最初に、処理部100は、検出したタッチパネル操作が、元動画像に表示中の出力枠を任意の位置に移動させる操作(以下、「出力枠移動操作」という。)であるか否かを判定する(H1)。具体的には、出力枠の表示位置が所定時間(例えば1秒間)タッチされた後、続けてドラッグ操作がなされたことを検出した場合に、出力枠移動操作がなされたと判定する。
上記の第2実施例において、追跡位置推定部140がバックグラウンドで追跡位置を推定している間に出力枠移動操作がなされたと判定した場合に、実行中の追跡位置の推定よりも出力枠移動操作を優先して、追跡位置を推定するようにしてもよい。つまり、自動で推定される追跡位置に基づき更新される出力枠の位置よりも、手動で移動される出力枠の位置を優先して、追跡位置を推定するようにしてもよい。
対象物のロストが発生して出力枠の更新が中断された場合、対象フレーム画像の全範囲探索を行って追跡を継続したとしても、対象物とは異なる物体を誤って追跡してしまう場合がある。この場合には、追跡位置が出力枠内に入らない状態が継続する、又は、追跡位置が出力枠に入ったとしても、誤った対象を追跡し続けてしまう場合がある。しかし、リアルタイムに元動画像が入力され、且つ、リアルタイムに出力が求められる場合でなければ、追跡処理を撮像及び元画像の保存後に実行することが可能であることを利用して、以下のようにして、追跡位置を再推定するようにしてもよい。
本発明を適用可能な実施形態は、上記の実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲で適宜変更可能であることは勿論である。以下、他の実施形態について説明する。
本発明に係る画像処理装置1は、スマートフォンやカメラ、デジタルカメラ、タブレット端末、PDA、パソコン等の各種の電子機器に具備させて利用することができる。
上記の実施形態で説明した対象物追跡処理は、予め撮像された保存された元動画像について実行することとしてもよいし、リアルタイムに撮像される元動画像について実行することとしてもよい。例えば、サッカー競技を固定カメラで撮像した動画像について、注目の選手を対象物として対象物追跡処理を行い、この注目の選手に照準した照準動画像を生成して、放送することなどが考えられる。
上記の実施形態では、対象物を追跡するために、対象物に2つの追跡領域を設定することとして説明したが、これはあくまでも一例に過ぎない。対象物に単一の追跡領域を設定するようにしてもよいし、対象物に3以上の追跡領域を設定するようにしてもよい。
上記の実施形態では、フレーム画像の画素値がHSV色空間で表現されており、このHSV色空間で表現された画素値に基づいて色情報を取得することとして説明したが、これはあくまでも一例に過ぎない。例えば、フレーム画像の画素値をYUV色空間で表現することとし、このYUV空間で表現された画素値に基づいて色情報を取得するようにしてもよいし、フレーム画像の画素値をRGB色空間で表現することとし、このRGB空間で表現された画素値に基づいて色情報を取得するようにしてもよい。
上記の実施例では、照準動画像や元動画像に、色を付した追跡領域枠を表示させることによってユーザーが追跡領域を認識できるようにしたが、これはあくまでも一例に過ぎない。必ずしも追跡領域枠を表示させる必要はなく、設定した追跡領域そのものを表示させるようにしてもよいし、追跡領域に対応する位置、例えば中心位置に印となるアイコン等を表示させるようにしてもよい。
また、上記の実施例では、照準動画像や元動画像に、色を付した出力枠を表示させることによってユーザーが出力枠を認識できるようにしたが、これはあくまでも一例に過ぎない。必ずしも出力枠を表示させる必要はなく、出力枠の中心位置や、その時点で追跡している対象物を表示させるようにしてもよい。
上記の実施形態では、画像処理に係る各種のプログラムやデータが、画像処理装置1の記憶部や、スマートフォン2の記憶部800に記憶されており、処理部がこれらのプログラムを読み出して実行することで、上記の各実施形態における画像処理が実現された。この場合、各装置の記憶部は、ROMやフラッシュROM、ハードディスク、RAMといった内部記憶装置の他に、メモリカード(SDカード)やコンパクトフラッシュ(登録商標)カード、メモリスティック、USBメモリ、CD−RW(光学ディスク)、MO(光磁気ディスク)といった記録媒体(記録メディア、外部記憶装置)を有していてもよく、これらの記録媒体に上記の各種のプログラムやデータを記憶させることとしてもよい。
スマートフォン2には、メモリカード9を挿入するためのカードスロット910が設けられており、カードスロット910に挿入されたメモリカード9に記憶された情報を読み取る又はメモリカード9に情報を書き込むためのカードリーダライタ(R/W)920が設けられている。カードリーダライタ920は、処理部100の制御に従って、記憶部800に記録されたプログラムやデータをメモリカード9に書き込む動作を行う。メモリカード9に記録されたプログラムやデータは、スマートフォン2以外の外部装置(例えばパソコン)で読み取ることで、当該外部装置において上記の実施形態における照準動画像の生成を実現することが可能に構成されている。
2 スマートフォン
9 メモリカード
10 元動画像取得部
11 追跡領域設定部
12 色情報取得部
13 形状情報取得部
14 追跡位置推定部
15 追跡位置適否判定部
16 追跡位置再推定部
17 出力枠設定部
18 照準動画像生成部
20 元動画像メモリ
100 処理部
200 操作部
250 タッチパネル
300 表示部
400 音出力部
500 撮像部
600 通信部
700 時計部
800 記憶部
910 カードスロット
920 カードリーダライタ
Claims (17)
- 画像処理装置であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
前記出力枠を基準とした動画像を生成する動画像生成手段と、
前記追跡位置推定手段によって推定された追跡位置の適否を判定する追跡位置適否判定手段と、
前記追跡位置適否判定手段によって前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定手段と、
を備え、
前記追跡位置推定手段は、前記追跡位置再推定手段によって再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定手段は、前記追跡位置再推定手段によって前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定手段によって推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定手段は、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理装置。 - 前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定する、
請求項1に記載の画像処理装置。 - 前記追跡位置適否判定手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記追跡位置推定手段によって推定された追跡位置の相対的な位置関係に基づいて適否判定を行う、
請求項2に記載の画像処理装置。 - 前記追跡領域設定手段は、前記元動画像を構成するフレーム画像中の複数の対象物に追跡領域を設定し、
前記複数の対象物に追跡の優先度を設定する優先度設定手段を更に備え、
前記出力枠設定手段は、前記優先度設定手段によって設定された優先度に基づいて、更新する出力枠を決定する、
請求項1〜3の何れか一項に記載の画像処理装置。 - 前記追跡領域設定手段によって設定された追跡領域の形状情報を取得する形状情報取得手段を更に備え、
前記追跡位置推定手段は、前記形状情報取得手段によって取得された形状情報を更に用いて、前記追跡位置をフレーム画像毎に推定する、
請求項1〜4の何れか一項に記載の画像処理装置。 - 前記出力枠設定手段によって更新される出力枠位置の変位量に基づいて、前記出力枠の位置を修正する出力枠位置修正手段を更に備え、
前記動画像生成手段は、前記出力枠位置修正手段によって位置が修正された出力枠を基準とした動画像を生成する、
請求項1〜5の何れか一項に記載の画像処理装置。 - 請求項1〜6の何れか一項に記載の画像処理装置と、
タッチパネルが一体的に構成された表示手段と、
前記表示手段を表示制御する表示制御手段と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記追跡領域を設定し、
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する、
電子機器。 - 前記表示制御手段は、前記追跡領域設定手段によって設定された追跡領域を特定可能な表示態様で前記動画像に重畳表示させる追跡領域表示制御手段を有する、
請求項7に記載の電子機器。 - 請求項1〜6の何れか一項に記載の画像処理装置と、
タッチパネルが一体的に構成された表示手段と、
前記表示手段を表示制御する表示制御手段と、
を備え、
前記追跡領域設定手段は、前記タッチパネルに対するユーザー操作に基づいて、前記元動画像を構成するフレーム画像中の対象物に複数の追跡領域を設定し、
前記色情報取得手段は、前記追跡領域設定手段によって設定された複数の追跡領域それぞれについて前記色情報を取得し、
前記追跡位置推定手段は、前記色情報取得手段によって取得された前記複数の追跡領域それぞれの色情報に基づいて、前記複数の追跡領域それぞれを基準とする追跡位置をフレーム画像毎に推定し、
前記表示制御手段は、前記動画像生成手段によって生成された動画像を前記表示手段に表示させる動画像表示制御手段を有する、
電子機器。 - 前記表示制御手段は、前記追跡領域設定手段によって設定された複数の追跡領域をそれぞれ区別して特定可能な表示態様で前記動画像に重畳表示させる追跡領域表示制御手段を有する、
請求項9に記載の電子機器。 - 前記表示制御手段は、前記出力枠設定手段によって更新される出力枠を特定可能な表示態様で前記動画像に重畳表示させる第1の出力枠表示制御手段を有する、
請求項7〜10の何れか一項に記載の電子機器。 - 前記動画像表示制御手段は、前記出力枠を含む所定領域を拡大した動画像を前記表示手段に表示させ、
前記第1の出力枠表示制御手段は、前記拡大された所定領域に適応するように大きさを調整した出力枠を前記動画像に重畳表示させる、
請求項11に記載の電子機器。 - 前記表示制御手段は、
前記元動画像を前記表示手段に表示させる元動画像表示制御手段と、
前記出力枠設定手段によって更新される出力枠を特定可能な表示態様で前記元動画像に重畳表示させる第2の出力枠表示制御手段と、
を有する、
請求項7〜12の何れか一項に記載の電子機器。 - 前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
を更に備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
請求項13に記載の電子機器。 - 電子機器であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定手段と、
前記追跡領域設定手段によって設定された追跡領域の色情報を取得する色情報取得手段と、
前記色情報取得手段によって取得された色情報に基づいて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定手段と、
前記追跡領域設定手段によって設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定手段と、
前記出力枠を基準とした動画像を生成する動画像生成手段と、
タッチパネルが一体的に構成された表示手段と、
前記表示手段を表示制御する表示制御手段と、
前記タッチパネルへのユーザー操作により、前記元動画像に表示中の出力枠を移動させる移動操作がなされたか否かを判定する移動操作判定手段と、
前記移動操作判定手段によって出力枠の移動操作がなされたと判定された場合に、出力枠内に存在する物体を検出する物体検出手段と、
を備え、
前記色情報取得手段は、前記物体検出手段によって検出された物体の色情報を取得し、
前記追跡位置推定手段は、前記物体検出手段によって検出された物体が存在する領域を前記追跡領域として、前記追跡位置をフレーム画像毎に推定する、
電子機器。 - 画像処理方法であって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定することと、
前記設定された追跡領域の色情報を取得することと、
前記取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定することと、
前記設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新することと、
前記出力枠を基準とした動画像を生成することと、
前記推定された追跡位置の適否を判定することと、
前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定することと、
を含み、
前記追跡位置を推定することは、前記再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠を設定することは、前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置を再推定することは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
画像処理方法。 - コンピュータに、画像処理を実行させるためのプログラムであって、
元動画像を構成するフレーム画像中の対象物に追跡領域を設定する追跡領域設定ステップと、
前記追跡領域設定ステップで設定された追跡領域の色情報を取得する色情報取得ステップと、
前記色情報取得ステップで取得された色情報を用いて、前記追跡領域を基準とする追跡位置をフレーム画像毎に推定する追跡位置推定ステップと、
前記追跡領域設定ステップで設定された追跡領域を含む出力枠を設定し、推定された追跡位置に基づいて前記出力枠を更新する出力枠設定ステップと、
前記出力枠を基準とした動画像を生成する動画像生成ステップと、
前記追跡位置推定ステップで推定された追跡位置の適否を判定する追跡位置適否判定ステップと、
前記追跡位置適否判定ステップで前記推定された追跡位置が不適当と判定された場合に、前記追跡位置を再推定する追跡位置再推定ステップと、
を実行させ、
前記追跡位置推定ステップでは、前記追跡位置再推定ステップで再推定された追跡位置に基づいて前記追跡位置をフレーム画像毎に推定し、
前記出力枠設定ステップでは、前記追跡位置再推定ステップで前記追跡位置が再推定された場合に、前記出力枠の更新を中断し、前記追跡位置推定ステップで推定された追跡位置が前記出力枠を基準とした所定範囲に含まれることとなった場合に、前記出力枠の更新を再開し、
前記追跡位置再推定ステップでは、更新が再開された際の前記出力枠を基準として、前記出力枠の更新が中断されてから再開されるまでの期間における追跡位置を遡って再推定する、
プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015209412 | 2015-10-23 | ||
JP2015209412 | 2015-10-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017085564A JP2017085564A (ja) | 2017-05-18 |
JP6649864B2 true JP6649864B2 (ja) | 2020-02-19 |
Family
ID=58561837
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016207077A Active JP6649864B2 (ja) | 2015-10-23 | 2016-10-21 | 画像処理装置、電子機器、画像処理方法及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10319097B2 (ja) |
JP (1) | JP6649864B2 (ja) |
KR (1) | KR101889470B1 (ja) |
CN (1) | CN107037962B (ja) |
TW (1) | TWI621101B (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6988146B2 (ja) * | 2016-05-25 | 2022-01-05 | ソニーグループ株式会社 | 演算処理装置及び演算処理方法 |
KR101877232B1 (ko) * | 2017-05-29 | 2018-07-12 | 국방과학연구소 | 영상 유사도 및 추적 지점 변화량 기반의 영상 추적기 시스템 및 그의 추적 안정도 판별 방법 |
KR101999338B1 (ko) * | 2017-06-27 | 2019-07-11 | 주식회사 아이피엘 | 실시간 객체 트래킹 방법 및 장치 |
JP6690622B2 (ja) * | 2017-09-26 | 2020-04-28 | カシオ計算機株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
WO2019111976A1 (ja) | 2017-12-08 | 2019-06-13 | 日本電気通信システム株式会社 | 対象物検出装置、予測モデル作成装置、対象物検出方法及びプログラム |
JP7110657B2 (ja) * | 2018-03-26 | 2022-08-02 | カシオ計算機株式会社 | 画像処理装置、画像処理方法およびプログラム |
US11651589B2 (en) | 2018-05-07 | 2023-05-16 | Google Llc | Real time object detection and tracking |
CN108874136B (zh) * | 2018-06-13 | 2022-02-18 | 北京百度网讯科技有限公司 | 动态图像生成方法、装置、终端和存储介质 |
CN111273837A (zh) * | 2018-12-04 | 2020-06-12 | 浙江宇视科技有限公司 | 图像处理方法及装置 |
TWI739052B (zh) | 2018-12-26 | 2021-09-11 | 華碩電腦股份有限公司 | 電子裝置及其操作方法 |
CN109831622B (zh) * | 2019-01-03 | 2021-06-22 | 华为技术有限公司 | 一种拍摄方法及电子设备 |
JP7012673B2 (ja) * | 2019-01-10 | 2022-01-28 | Kddi株式会社 | 映像に応じたコンテキスト識別エンジンを選択する映像識別プログラム、装置及び方法 |
CN111435283A (zh) * | 2019-01-11 | 2020-07-21 | 敦泰电子有限公司 | 一种操作意图确定方法、装置及电子设备 |
CN111488776B (zh) * | 2019-01-25 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 对象检测方法、对象检测装置和电子设备 |
JP7238962B2 (ja) * | 2019-03-13 | 2023-03-14 | 日本電気株式会社 | 物体追跡装置、物体追跡方法、及び、プログラム |
JP7334432B2 (ja) * | 2019-03-15 | 2023-08-29 | オムロン株式会社 | 物体追跡装置、監視システムおよび物体追跡方法 |
JP7438684B2 (ja) * | 2019-07-30 | 2024-02-27 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
CN110610202B (zh) * | 2019-08-30 | 2022-07-26 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
CN110691197A (zh) * | 2019-11-04 | 2020-01-14 | 上海摩象网络科技有限公司 | 一种拍摄追踪的方法、装置、电子设备 |
CN112991485B (zh) * | 2019-12-13 | 2023-06-20 | 浙江宇视科技有限公司 | 轨迹绘制方法、装置、可读存储介质及电子设备 |
JP2022130038A (ja) * | 2021-02-25 | 2022-09-06 | キヤノン株式会社 | 撮像装置、制御方法、プログラム |
CN117615255B (zh) * | 2024-01-19 | 2024-04-19 | 深圳市浩瀚卓越科技有限公司 | 基于云台的拍摄追踪方法、装置、设备及存储介质 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659639A (en) * | 1993-11-24 | 1997-08-19 | Xerox Corporation | Analyzing an image showing editing marks to obtain category of editing operation |
JP2004282535A (ja) * | 2003-03-18 | 2004-10-07 | Mitsubishi Electric Corp | 画角調整装置 |
JP2007274543A (ja) | 2006-03-31 | 2007-10-18 | Sony Corp | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP5111088B2 (ja) * | 2007-12-14 | 2012-12-26 | 三洋電機株式会社 | 撮像装置及び画像再生装置 |
US7609814B2 (en) * | 2008-01-15 | 2009-10-27 | Siemens Medical Solutions Usa, Inc. | Adaptive medical image and mask data processing system |
JP5047007B2 (ja) * | 2008-03-03 | 2012-10-10 | 三洋電機株式会社 | 撮像装置 |
CN101965576B (zh) * | 2008-03-03 | 2013-03-06 | 视频监控公司 | 用于追踪、索引及搜寻的物件匹配 |
CN101750845B (zh) * | 2008-12-12 | 2012-02-15 | 三星电机株式会社 | 自动聚焦方法 |
US8626236B2 (en) * | 2010-10-08 | 2014-01-07 | Blackberry Limited | System and method for displaying text in augmented reality |
JP4855556B1 (ja) * | 2011-03-22 | 2012-01-18 | 株式会社モルフォ | 動体検出装置、動体検出方法、動体検出プログラム、動体追跡装置、動体追跡方法及び動体追跡プログラム |
JP2012205037A (ja) | 2011-03-25 | 2012-10-22 | Olympus Imaging Corp | 画像処理装置および画像処理方法 |
US8929598B2 (en) * | 2011-06-29 | 2015-01-06 | Olympus Imaging Corp. | Tracking apparatus, tracking method, and storage medium to store tracking program |
JP5978639B2 (ja) * | 2012-02-06 | 2016-08-24 | ソニー株式会社 | 画像処理装置、画像処理方法、プログラム、及び記録媒体 |
JP2013172446A (ja) * | 2012-02-23 | 2013-09-02 | Sony Corp | 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法 |
JP2014209707A (ja) * | 2013-03-25 | 2014-11-06 | パナソニック株式会社 | 映像再生装置および映像再生方法 |
TW201523459A (zh) * | 2013-12-06 | 2015-06-16 | Utechzone Co Ltd | 物件追蹤方法及電子裝置 |
-
2016
- 2016-10-21 JP JP2016207077A patent/JP6649864B2/ja active Active
- 2016-10-21 TW TW105133985A patent/TWI621101B/zh active
- 2016-10-21 CN CN201610920019.7A patent/CN107037962B/zh active Active
- 2016-10-24 KR KR1020160138725A patent/KR101889470B1/ko active IP Right Grant
- 2016-10-24 US US15/331,923 patent/US10319097B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
TWI621101B (zh) | 2018-04-11 |
KR101889470B1 (ko) | 2018-08-20 |
US20170116749A1 (en) | 2017-04-27 |
TW201715473A (zh) | 2017-05-01 |
CN107037962B (zh) | 2020-06-16 |
JP2017085564A (ja) | 2017-05-18 |
CN107037962A (zh) | 2017-08-11 |
US10319097B2 (en) | 2019-06-11 |
KR20170048209A (ko) | 2017-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6649864B2 (ja) | 画像処理装置、電子機器、画像処理方法及びプログラム | |
JP6621798B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US8842213B2 (en) | Image capture device, image capture device focus control method, and integrated circuit | |
JP6468865B2 (ja) | 画像処理装置及び画像処理方法 | |
CN105744180B (zh) | 图像生成装置、电子设备及图像生成方法 | |
JP5935779B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US10275917B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
US20150116517A1 (en) | Image processing device, image processing method, and program | |
JP5142825B2 (ja) | 画像表示装置及び画像表示方法 | |
JP2014033265A (ja) | 撮像装置、撮像方法およびプログラム | |
KR20160115694A (ko) | 이미지 처리 장치, 이미지 처리 방법 및 기록 매체에 저장된 컴퓨터 프로그램 | |
JP6808482B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP6441570B2 (ja) | ゴルフスイングの分析システム、プログラム及び方法 | |
JP5222429B2 (ja) | 被写体追跡装置及びその制御方法 | |
US11553136B2 (en) | Subject tracking device, subject tracking method, and storage medium | |
JP4983672B2 (ja) | 撮像装置及びそのプログラム | |
US11785346B2 (en) | Imaging device and imaging control method | |
JP6322964B2 (ja) | 撮像装置、撮像制御方法及びプログラム | |
US20230269472A1 (en) | Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium | |
JP6724527B2 (ja) | 撮影装置、撮影制御方法及びプログラム | |
JP6682874B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2011077790A (ja) | 撮像装置、補正処理プログラム及び記録媒体 | |
JP2024033748A (ja) | 画像処理装置、撮像装置、画像処理方法および撮像装置の制御方法、プログラム | |
JP6217533B2 (ja) | 画像処理装置、画像処理方法、プログラム及びカメラ | |
JP2015194837A (ja) | 画像処理装置、画像処理方法、プログラム及びカメラ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6649864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |