JP2015069432A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2015069432A
JP2015069432A JP2013203332A JP2013203332A JP2015069432A JP 2015069432 A JP2015069432 A JP 2015069432A JP 2013203332 A JP2013203332 A JP 2013203332A JP 2013203332 A JP2013203332 A JP 2013203332A JP 2015069432 A JP2015069432 A JP 2015069432A
Authority
JP
Japan
Prior art keywords
images
frame
image
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013203332A
Other languages
Japanese (ja)
Other versions
JP5935779B2 (en
JP2015069432A5 (en
Inventor
正規 石原
Masanori Ishihara
正規 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013203332A priority Critical patent/JP5935779B2/en
Priority to KR1020140126242A priority patent/KR101645806B1/en
Priority to US14/500,513 priority patent/US9367746B2/en
Priority to CN201410515141.7A priority patent/CN104519278B/en
Publication of JP2015069432A publication Critical patent/JP2015069432A/en
Publication of JP2015069432A5 publication Critical patent/JP2015069432A5/ja
Application granted granted Critical
Publication of JP5935779B2 publication Critical patent/JP5935779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To specify a desired image without using a special device.SOLUTION: An imaging apparatus 100 includes: an image acquisition unit 5a for acquiring a plurality of images formed by capturing motions of a subject in a row; an area setting unit 5b for setting areas in a plurality of predetermined positions in each of the acquired images; and an image specifying unit 5f which specifies a plurality of images relating to a predetermined motion time point of the subject out of the images, on the basis of changes in pixel value between a plurality of images in each of the set areas.

Description

本発明は、所定の時点に関連する画像を特定する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for specifying an image related to a predetermined time point.

従来、一連のスイング動作をしている被写体を撮像した動画像のデータから、インパクト時の画像を特定する装置が知られている(例えば、特許文献1参照)。具体的には、当該装置は、動画像のデータをリングバッファに記憶しつつドップラセンサによりボール速度を測定し、ボール速度の測定に掛かった処理時間に基づいて、インパクト時のフレーム画像を特定する。   2. Description of the Related Art Conventionally, an apparatus that identifies an image at the time of impact from moving image data obtained by capturing a subject performing a series of swing operations is known (see, for example, Patent Document 1). Specifically, the apparatus measures the ball speed by a Doppler sensor while storing moving image data in a ring buffer, and identifies a frame image at the time of impact based on the processing time taken for measuring the ball speed. .

特開2011−30669号公報JP 2011-30669 A

しかしながら、上記特許文献1の場合、動画像のデータの中で一連のスイング動作中の所定の瞬間の画像を特定するためには、ドップラセンサのような特殊なデバイスが必要であった。   However, in the case of the above-mentioned Patent Document 1, a special device such as a Doppler sensor is required to specify an image at a predetermined moment during a series of swing operations in moving image data.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、特殊なデバイスを用いなくとも所望の画像を特定することができる画像処理装置、画像処理方法及びプログラムを提供することである。   The present invention has been made in view of such problems, and an object of the present invention is to provide an image processing apparatus, an image processing method, and a program capable of specifying a desired image without using a special device. It is to be.

上記課題を解決するため、本発明に係る画像処理装置は、
被写体の動作が連続的に撮像された複数の画像を取得する取得手段と、前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段と、前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、を備えたことを特徴としている。
In order to solve the above problems, an image processing apparatus according to the present invention provides:
An acquisition unit that acquires a plurality of images obtained by continuously capturing the motion of the subject, a region setting unit that sets a region at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition unit, and the region setting Specifying means for specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the means; It is characterized by having.

また、本発明に係る画像処理方法は、
画像処理装置を用いた画像処理方法であって、被写体の動作が連続的に撮像された複数の画像を取得する処理と、取得された複数の画像の各々における複数の所定位置に領域を設定する処理と、設定された前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、を含むことを特徴としている。
The image processing method according to the present invention includes:
An image processing method using an image processing apparatus, which acquires a plurality of images obtained by continuously capturing the motion of a subject, and sets areas at a plurality of predetermined positions in each of the acquired plurality of images Processing and processing for specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the set regions. It is characterized by including.

また、本発明に係るプログラムは、
画像処理装置のコンピュータを、被写体の動作が連続的に撮像された複数の画像を取得する取得手段、前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段、前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、として機能させることを特徴としている。
The program according to the present invention is
An acquisition unit that acquires a plurality of images in which a subject's motion is continuously captured, and a region setting that sets a region at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition unit. And a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting unit. It is characterized by functioning as a specifying means for specifying.

本発明によれば、特殊なデバイスを用いなくとも所望の画像を特定することができる。   According to the present invention, a desired image can be specified without using a special device.

本発明を適用した一実施形態の撮像装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the imaging device of one Embodiment to which this invention is applied. 図1の撮像装置による撮像処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an imaging process by the imaging apparatus of FIG. 1. 図2の撮像処理における画像特定処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image specifying process in the imaging process of FIG. 図2の撮像処理に係るライブビュー画像の一例を模式的に示す図である。It is a figure which shows typically an example of the live view image which concerns on the imaging process of FIG. 図2の撮像処理に係る動画像の一例を模式的に示す図である。It is a figure which shows typically an example of the moving image which concerns on the imaging process of FIG. 図3の画像特定処理に係るフレーム画像の一例を模式的に示す図である。It is a figure which shows typically an example of the frame image which concerns on the image specific process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の撮像装置100の概略構成を示すブロック図である。
図1に示すように、本実施形態の撮像装置100は、中央制御部1と、メモリ2と、撮像部3と、画像データ生成部4と、画像処理部5と、画像記録部6と、表示部7と、操作入力部8とを備えている。
また、中央制御部1、メモリ2、撮像部3、画像データ生成部4、画像処理部5、画像記録部6及び表示部7は、バスライン9を介して接続されている。
FIG. 1 is a block diagram illustrating a schematic configuration of an imaging apparatus 100 according to an embodiment to which the present invention is applied.
As illustrated in FIG. 1, the imaging apparatus 100 according to the present embodiment includes a central control unit 1, a memory 2, an imaging unit 3, an image data generation unit 4, an image processing unit 5, an image recording unit 6, A display unit 7 and an operation input unit 8 are provided.
The central control unit 1, the memory 2, the imaging unit 3, the image data generation unit 4, the image processing unit 5, the image recording unit 6, and the display unit 7 are connected via a bus line 9.

中央制御部1は、撮像装置100の各部を制御するものである。具体的には、中央制御部1は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、撮像装置100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the imaging device 100. Specifically, although not shown, the central control unit 1 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and includes various processing programs (illustrated) for the imaging apparatus 100. Various control operations are performed according to (omitted).

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部1や画像処理部5等の各部によって処理されるデータ等を一時的に記憶するものである。   The memory 2 is configured by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by each unit such as the central control unit 1 and the image processing unit 5.

撮像部3は、背景内に存在する被写体(例えば、ゴルフクラブのクラブヘッドC;図4参照)を撮像する。具体的には、撮像部3は、レンズ部3aと、電子撮像部3bと、撮像制御部3cとを備えている。   The imaging unit 3 images a subject (eg, a club head C of a golf club; see FIG. 4) that exists in the background. Specifically, the imaging unit 3 includes a lens unit 3a, an electronic imaging unit 3b, and an imaging control unit 3c.

レンズ部3aは、例えば、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CMOS(Complementary Metal-oxide Semiconductor)やCCD(Charge Coupled Device)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens, for example.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a complementary metal-oxide semiconductor (CMOS) or a charge coupled device (CCD), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

撮像制御部3cは、撮像部3による被写体の撮像を制御する。即ち、撮像制御部3cは、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部3cは、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部4に出力させる。   The imaging control unit 3c controls imaging of the subject by the imaging unit 3. In other words, the imaging control unit 3c includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 3c scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b every predetermined period, and the electronic imaging unit 3b. The frame image is read from the imaging area for each screen and is output to the image data generation unit 4.

画像データ生成部4は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。また、画像データ生成部4は、動画像を構成する複数のフレーム画像の各々を所定形式(例えば、MPEG形式やモーションJPEG形式等)で符号化して、動画像の画像データを生成する。
また、画像データ生成部4は、生成した画像データをバッファメモリとして使用されるメモリ2に転送する。
The image data generation unit 4 appropriately adjusts the gain for each RGB color component with respect to the analog value signal of the frame image transferred from the electronic imaging unit 3b, and then performs sample holding by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data). Further, the image data generation unit 4 encodes each of a plurality of frame images constituting the moving image in a predetermined format (for example, MPEG format, motion JPEG format, etc.), and generates moving image image data.
In addition, the image data generation unit 4 transfers the generated image data to the memory 2 used as a buffer memory.

画像処理部5は、画像取得部5aと、領域設定部5bと、復号部5cと、閾値設定部5dと、フレーム番号特定部5eと、画像特定部5fとを具備している。
なお、画像処理部5の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 5 includes an image acquisition unit 5a, a region setting unit 5b, a decoding unit 5c, a threshold setting unit 5d, a frame number specifying unit 5e, and an image specifying unit 5f.
Note that each unit of the image processing unit 5 includes, for example, a predetermined logic circuit, but the configuration is an example and the present invention is not limited thereto.

画像取得部5aは、画像特定処理の処理対象となる画像を取得する。
即ち、画像取得部(取得手段)5aは、被写体の動作が連続的に撮像された複数のフレーム画像F1〜F5(図5(a)〜図5(e)参照)を取得する。具体的には、画像取得部5aは、例えば、被写体による所定のスポーツの一連の動作(例えば、ゴルフのスイングにおけるクラブヘッドCの動作等)が撮像部3により撮像されて画像データ生成部4により生成された複数のフレーム画像からなる動画像の画像データを、画像特定処理の処理対象として取得する。
例えば、撮像部3は、被写体による所定のスポーツの一連の動作を所定の撮像フレームレート(例えば、1000fps等)で撮像し、画像データ生成部4は、フレーム番号が対応付けられた複数のフレーム画像からなる動画像の画像データを生成してメモリ2に転送する。ここで、撮像部3による被写体の撮像の際に、表示部7は、例えば、ゴルフクラブのクラブヘッドCやボールBの初期位置を合わせるための指標Mをライブビュー画像Lに重畳させてOSD(on-screen display)表示させても良い(図4参照)。
そして、画像取得部5aは、メモリ2に格納されている動画像の画像データを読み出して、画像特定処理の処理対象として取得する。
なお、画像取得部5aは、撮像部3による被写体の撮像後に画像記録部6に記録されている動画像の画像データを読み出して、画像特定処理の処理対象として取得しても良い。
The image acquisition unit 5a acquires an image to be processed by the image specifying process.
That is, the image acquisition unit (acquisition unit) 5a acquires a plurality of frame images F1 to F5 (see FIGS. 5A to 5E) in which the motion of the subject is continuously captured. Specifically, for example, the image acquisition unit 5 a captures a series of motions of a predetermined sport by a subject (for example, the motion of the club head C in a golf swing) by the image capturing unit 3 and the image data generation unit 4. Image data of a moving image composed of a plurality of generated frame images is acquired as a processing target of image specifying processing.
For example, the imaging unit 3 captures a series of operations of a predetermined sport by a subject at a predetermined imaging frame rate (for example, 1000 fps), and the image data generation unit 4 includes a plurality of frame images associated with frame numbers. Is generated and transferred to the memory 2. Here, when the subject is imaged by the imaging unit 3, the display unit 7 superimposes an index M for aligning the initial positions of the club head C and the ball B of the golf club on the live view image L, for example, OSD ( on-screen display) (see FIG. 4).
Then, the image acquisition unit 5a reads out the image data of the moving image stored in the memory 2 and acquires it as a processing target of the image specifying process.
Note that the image acquisition unit 5a may read out the image data of the moving image recorded in the image recording unit 6 after the imaging of the subject by the imaging unit 3 and acquire it as a processing target of the image specifying process.

領域設定部5bは、被写体の検出領域を設定する。
即ち、領域設定部(領域設定手段)5bは、画像取得部5aにより取得された動画像を構成する複数のフレーム画像の各々について所定位置に、被写体(例えば、クラブヘッドC等)が存在する時点のフレーム番号(識別情報)を特定するための複数の検出領域を設定する。具体的には、領域設定部5bは、例えば、複数のフレーム画像の各々について上下方向略中央部の左右方向両端寄りの位置に、略矩形状の検出領域を二つ設定する(図6(a)〜図6(c)参照)。ここで、被写体の検出領域の位置は、例えば、被写体の一連の動作における当該被写体の移動方向を基準として設定される。つまり、領域設定部5bは、例えば、左右方向に移動する被写体に対しては各フレーム画像の左右方向両端寄りの位置に少なくとも二つの検出領域A1、A2を設定し、上下方向に移動する被写体に対しては各フレーム画像の上下方向両端寄りの位置に少なくとも二つの検出領域(図示略)を設定する。
また、領域設定部5bは、複数のフレーム画像のうち、最初のフレーム画像F1(図6(a)参照)の所定位置に被写体の検出領域を設定することで、残りのフレーム画像についても同様に、最初のフレーム画像F1の検出領域に対応する位置に検出領域を適用して設定する。
なお、上記した検出領域の配置、個数、形状等は、一例であってこれに限られるものではなく、適宜任意に変更可能である。
The area setting unit 5b sets a subject detection area.
That is, the area setting unit (area setting unit) 5b is a time point when a subject (for example, a club head C) exists at a predetermined position for each of a plurality of frame images constituting the moving image acquired by the image acquisition unit 5a. A plurality of detection areas for specifying the frame number (identification information) is set. Specifically, the area setting unit 5b sets two substantially rectangular detection areas, for example, at positions near the both ends in the left-right direction of the substantially central part in the up-down direction for each of the plurality of frame images (FIG. 6A). ) To FIG. 6 (c)). Here, the position of the detection area of the subject is set with reference to the moving direction of the subject in a series of movements of the subject, for example. That is, for example, the area setting unit 5b sets at least two detection areas A1 and A2 at positions near the both ends of each frame image for a subject moving in the left-right direction, On the other hand, at least two detection areas (not shown) are set at positions near both ends in the vertical direction of each frame image.
In addition, the region setting unit 5b sets the subject detection region at a predetermined position of the first frame image F1 (see FIG. 6A) among the plurality of frame images, and similarly for the remaining frame images. The detection area is applied and set at a position corresponding to the detection area of the first frame image F1.
Note that the arrangement, number, shape, and the like of the detection regions described above are merely examples, and are not limited thereto, and can be arbitrarily changed as appropriate.

復号部5cは、複数のフレーム画像からなる動画像の画像データを復号する。
具体的には、復号部5cは、例えば、画像取得部5aにより取得された所定形式(例えば、MPEG形式やモーションJPEG形式等)で符号化されている動画像の画像データに対して、当該動画像データの符号化方式に応じた復号処理を施して、複数のフレーム画像のYUVデータを生成する。
このとき、復号部5cは、例えば、表示パネル7aの表示解像度等に基づいて各フレーム画像を所定サイズ(例えば、VGAやQVGAサイズ)に縮小する処理を行っても良い。
The decoding unit 5c decodes moving image image data including a plurality of frame images.
Specifically, for example, the decoding unit 5c applies the moving image to the moving image image data encoded in a predetermined format (for example, MPEG format or motion JPEG format) acquired by the image acquisition unit 5a. A decoding process according to the image data encoding method is performed to generate YUV data of a plurality of frame images.
At this time, the decoding unit 5c may perform a process of reducing each frame image to a predetermined size (for example, VGA or QVGA size) based on, for example, the display resolution of the display panel 7a.

閾値設定部5dは、被写体の検出用の閾値を設定する。
即ち、閾値設定部(閾値設定手段)5dは、複数のフレーム画像のうち、所定期間内の所定数のフレーム画像における検出領域の画素値の代表値を被写体の検出用の閾値として設定する。具体的には、閾値設定部5dは、例えば、復号部5cにより復号された最初のフレーム画像F1から所定数(例えば、n個;nは自然数)分のフレーム画像について、検出領域毎に隣合うフレーム画像との画素値(例えば、輝度値)の差分二乗和SSD(Sum of Squared Differences)を算出する。そして、閾値設定部(算出手段)5dは、検出領域毎に、算出された複数(例えば、n−1個)の差分二乗和SSDの代表値(例えば、平均値、中央値等)を演算して、被写体が検出領域に存在する時点のフレーム番号を特定するための閾値として設定する。
The threshold setting unit 5d sets a threshold for detecting a subject.
That is, the threshold setting unit (threshold setting means) 5d sets the representative value of the pixel value of the detection region in a predetermined number of frame images within a predetermined period among the plurality of frame images as a threshold for detecting the subject. Specifically, for example, the threshold setting unit 5d is adjacent to each detection region for a predetermined number (for example, n; n is a natural number) of frame images from the first frame image F1 decoded by the decoding unit 5c. The sum of squared differences (SSD) of pixel values (for example, luminance values) from the frame image is calculated. Then, the threshold value setting unit (calculation unit) 5d calculates a representative value (for example, an average value, a median value, etc.) of a plurality of (for example, n−1) difference square sums SSD calculated for each detection region. Thus, it is set as a threshold value for specifying the frame number when the subject is present in the detection area.

なお、上記した閾値の算出方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。また、例えば、フレーム画像における背景の色が一色の場合や模様が一様の場合等には、閾値設定部5dは、何れか一の検出領域(例えば、左側の検出領域A1等)について算出された代表値(閾値)を他の検出領域(例えば、右側の検出領域A2等)について適用しても良い。   Note that the above-described threshold value calculation method is an example and is not limited to this, and can be arbitrarily changed as appropriate. For example, when the background color in the frame image is one color or the pattern is uniform, the threshold setting unit 5d is calculated for any one detection area (for example, the left detection area A1). The representative value (threshold value) may be applied to other detection areas (for example, the right detection area A2).

フレーム番号特定部5eは、検出領域内に被写体が存在する時点のフレーム番号を特定する。
即ち、フレーム番号特定部5eは、領域設定部5bにより設定された複数の検出領域における各検出領域の画素値の変動に基づいて、当該各検出領域内に被写体が存在する時点のフレーム番号(フレームインの時点のフレーム番号又はフレームアウトの時点のフレーム番号)を特定する。具体的には、フレーム番号特定部(判定手段)5eは、検出領域毎に、当該検出領域毎の画素値が閾値設定部5dにより設定された各閾値に対して大きいか否かを判定する。そして、検出領域毎の画素値が閾値設定部5dにより設定された各閾値に対して大きいと判定されると、当該検出領域の画素値が閾値設定部5dにより設定された閾値を超えた時点のフレーム番号を特定する(図6(b)及び図6(c)参照)。
例えば、フレーム番号特定部5eは、復号部5cにより復号された各フレーム画像について隣合うフレーム画像との検出領域の画素値(例えば、輝度値)の差分二乗和SSDを評価値として算出する。続けて、フレーム番号特定部5eは、算出された評価値と閾値設定部5dにより設定された閾値とを比較して、評価値が閾値よりも大きいか否かを判定する。当該判定の結果、フレーム番号特定部5eは、評価値が閾値を超えた時点のフレーム番号を特定する。例えば、ゴルフのスイングの場合、左右方向に移動するクラブヘッドCが検出領域を通過することで、評価値が閾値よりも大きくなる。
また、フレーム番号特定部5eは、評価値が閾値よりも大きいと判定された時点のフレーム番号のうち、当該閾値に対する相違度が最も大きい時点のフレーム番号を特定する。即ち、例えば、左右方向に移動するクラブヘッドCが検出領域を通過することで、評価値が閾値よりも大きくなり、当該クラブヘッドCと検出領域との重なり領域が最も大きくなると相違度が最も大きくなる。ここで、打ち出されたボールBが一方の検出領域(後述するフレームアウト側の検出領域A2)を通過する際にも評価値が閾値よりも大きくなるが、クラブヘッドCが通過する際の評価値の方がボールBの評価値に比して大きくなるため、閾値に対する相違度が最も大きくなった評価値に対応するフレーム画像の検出領域内には、クラブヘッドCが存在すると考えられる。
The frame number specifying unit 5e specifies the frame number when the subject is present in the detection area.
That is, the frame number specifying unit 5e determines the frame number (frame) at the time when the subject is present in each detection area based on the change in the pixel value of each detection area in the plurality of detection areas set by the area setting unit 5b. Frame number at the time of in or frame number at the time of frame out). Specifically, the frame number specifying unit (determination unit) 5e determines, for each detection region, whether the pixel value for each detection region is larger than each threshold set by the threshold setting unit 5d. When it is determined that the pixel value for each detection region is larger than each threshold set by the threshold setting unit 5d, the pixel value of the detection region at the time when the pixel value exceeds the threshold set by the threshold setting unit 5d. The frame number is specified (see FIGS. 6B and 6C).
For example, the frame number specifying unit 5e calculates, as the evaluation value, the difference square sum SSD of the pixel values (for example, luminance values) in the detection area of each frame image decoded by the decoding unit 5c with the adjacent frame image. Subsequently, the frame number specifying unit 5e compares the calculated evaluation value with the threshold set by the threshold setting unit 5d, and determines whether or not the evaluation value is larger than the threshold. As a result of the determination, the frame number specifying unit 5e specifies the frame number at the time when the evaluation value exceeds the threshold value. For example, in the case of a golf swing, the evaluation value becomes larger than the threshold value when the club head C moving in the left-right direction passes through the detection region.
Also, the frame number specifying unit 5e specifies the frame number at the time when the degree of difference with respect to the threshold is the largest among the frame numbers at the time when the evaluation value is determined to be larger than the threshold. That is, for example, when the club head C that moves in the left-right direction passes through the detection area, the evaluation value becomes larger than the threshold value, and when the overlapping area between the club head C and the detection area becomes the largest, the degree of difference is the largest. Become. Here, the evaluation value also becomes larger than the threshold value when the hit ball B passes through one detection region (a detection region A2 on the frame-out side described later), but the evaluation value when the club head C passes through. Since this is larger than the evaluation value of the ball B, it is considered that the club head C exists in the detection area of the frame image corresponding to the evaluation value having the largest difference with respect to the threshold value.

ここで、左右二つの検出領域A1、A2内におけるフレームイン及びフレームアウトの時点のフレーム番号の特定処理は、当該被写体のフレームアウト側に対応する検出領域A2(図6(b)参照)から先に行われても良い。即ち、例えば、ゴルフのスイングの場合、右利きの人のスイングでは、クラブヘッドCが左側からフレームインして右側からフレームアウトする軌道を描くことから、右側の検出領域A2から先に特定処理が行われ、その一方で、左利きの人のスイングでは、逆に左側の検出領域A1から先に特定処理が行われる。
このとき、フレーム番号特定部5eは、検出領域A2を用いたフレームアウトの時点のフレーム番号の特定処理については(図6(b)参照)、復号部5cにより復号された全てのフレーム画像を処理対象とする。その一方で、フレーム番号特定部5eは、検出領域A1を用いたフレームインの時点のフレーム番号の特定処理については(図6(b)参照)、特定されたフレームアウトの時点のフレーム番号を基準とした所定数のフレーム画像を処理対象とする。例えば、フレーム番号特定部5eは、ゴルフの標準的なスイングスピード(例えば、30〜40m/s等)、撮像部3の撮像フレームレートや画角等を考慮して、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像から所定数分のフレームを遡ったフレーム画像を特定し、当該特定されたフレーム画像以降のフレームであって、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像の一つ前のフレーム画像までを処理対象とする。
これにより、ゴルフのスイングの場合、テイクバックと振り下ろしの各々の動作にてフレームイン側の検出領域A1を通過することとなるが、テイクバックの際にクラブヘッドCが当該検出領域A1内に存在するフレーム画像のフレーム番号がフレームインの時点のフレーム番号として誤って特定されることを抑制することができる。
Here, the frame number identification processing at the time of frame-in and frame-out in the left and right detection areas A1 and A2 starts from the detection area A2 (see FIG. 6B) corresponding to the frame-out side of the subject. May be done. That is, for example, in the case of a golf swing, a right-handed person's swing draws a trajectory in which the club head C frames in from the left side and out from the right side, so that the specific processing is performed first from the detection area A2 on the right side. On the other hand, in the left-handed person's swing, on the contrary, the specific processing is performed first from the left detection area A1.
At this time, the frame number specifying unit 5e processes all frame images decoded by the decoding unit 5c for the frame number specifying process at the time of frame out using the detection area A2 (see FIG. 6B). set to target. On the other hand, the frame number specifying unit 5e uses the frame number at the time of the specified frame-out as a reference for the process of specifying the frame number at the time of frame-in using the detection area A1 (see FIG. 6B). A predetermined number of frame images are processed. For example, the frame number specifying unit 5e is specified using the detection area A2 in consideration of the standard swing speed (for example, 30 to 40 m / s) of golf, the imaging frame rate and the angle of view of the imaging unit 3, and the like. A frame image that is traced back a predetermined number of frames from the frame image corresponding to the frame number at the time of the specified frame-out is specified, and is a frame after the specified frame image and specified using the detection area A2. The frame image preceding the frame image corresponding to the frame number at the time of frame out is the processing target.
Thus, in the case of a golf swing, the take-back and swing-down operations pass through the detection area A1 on the frame-in side, but the club head C is within the detection area A1 during take-back. It is possible to prevent the frame number of an existing frame image from being erroneously specified as the frame number at the time of frame-in.

画像特定部5fは、被写体の動作における所定の時点を基準とする複数のフレーム画像を特定する。
即ち、画像特定部(特定手段)5fは、フレーム番号特定部5eによるフレームイン及びフレームアウトの時点のフレーム番号の特定結果に基づいて、複数の画像内で被写体の動作における所定の時点(例えば、クラブヘッドCによりボールBを打った瞬間のインパクト等)に関連するフレーム画像を複数特定する。具体的には、例えば、画像特定部5fは、検出領域A1、A2を用いた被写体(例えば、クラブヘッドC)のフレームイン及びフレームアウトの時点のフレーム番号の特定結果に基づいて、当該フレームイン及びフレームアウトの時点のフレーム番号に対応するフレーム画像F2、F4をそれぞれ特定する。そして、画像特定部5fは、所定の時点に関連するフレーム画像F2、F4に基づいて、複数のフレーム画像のうち当該所定の時点を基準とする複数のフレーム画像を特定する。例えば、画像特定部(抽出手段)5fは、特定された二つのフレーム番号に基づいて、複数のフレーム画像から当該二つのフレーム番号間の複数のフレーム画像を特定し、動画像として抽出する。
このとき、画像特定部5fは、フレーム番号特定部5eによる複数の検出領域を用いて特定されたフレームイン及びフレームアウトの時点のフレーム番号の順序が所定の順序であった場合に、所定の時点に関連するフレーム画像を特定する。つまり、検出領域A1を用いて特定されたフレームインの時点のフレーム番号の方が、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号よりも小さい場合に、当該二つのフレーム番号に対応するフレーム画像F2、F4間には、クラブヘッドCによりボールBを打った瞬間のインパクトの時点(所定の時点)に対応するフレーム画像F3が含まれていることとなる。
The image specifying unit 5f specifies a plurality of frame images based on a predetermined time point in the movement of the subject.
That is, the image specifying unit (specifying unit) 5f determines a predetermined time point (for example, in the motion of the subject in the plurality of images) based on the result of specifying the frame number at the time of frame in and frame out by the frame number specifying unit 5e. A plurality of frame images related to the impact at the moment of hitting the ball B by the club head C) are specified. Specifically, for example, the image specifying unit 5f, based on the result of specifying the frame number at the time of frame-in and frame-out of the subject (for example, the club head C) using the detection areas A1 and A2, And frame images F2 and F4 corresponding to the frame numbers at the time of frame-out are specified. Then, the image specifying unit 5f specifies a plurality of frame images based on the predetermined time point among the plurality of frame images based on the frame images F2 and F4 related to the predetermined time point. For example, the image specifying unit (extraction unit) 5f specifies a plurality of frame images between the two frame numbers from the plurality of frame images based on the two specified frame numbers, and extracts them as moving images.
At this time, the image specifying unit 5f, when the order of the frame numbers at the time of frame-in and frame-out specified using the plurality of detection areas by the frame number specifying unit 5e is a predetermined order, The frame image related to the is specified. In other words, when the frame number at the time of frame-in specified using the detection area A1 is smaller than the frame number at the time of frame-out specified using the detection area A2, the two frame numbers are set. Between the corresponding frame images F2 and F4, a frame image F3 corresponding to the impact time (predetermined time) at the moment of hitting the ball B by the club head C is included.

なお、画像特定部5fは、例えば、ボールBや初期状態のクラブヘッドの位置と二つの検出領域A1、A2との相対的な位置関係を考慮して、二つのフレーム画像F2、F4間にてボールBを打った瞬間のインパクトに対応するフレーム画像F3自体を特定しても良い。例えば、ボールBが二つの検出領域A1、A2の略中間に配置されている場合には、二つのフレーム画像F2、F4間の略中間にボールBを打った瞬間のインパクトに対応するフレーム画像F3が存在すると考えられる。   The image specifying unit 5f considers the relative positional relationship between the position of the ball B or the club head in the initial state and the two detection areas A1 and A2, for example, between the two frame images F2 and F4. The frame image F3 itself corresponding to the impact at the moment of hitting the ball B may be specified. For example, when the ball B is arranged approximately in the middle of the two detection areas A1 and A2, the frame image F3 corresponding to the impact at the moment of hitting the ball B approximately in the middle between the two frame images F2 and F4. Is considered to exist.

画像記録部6は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されている。また、画像記録部6は、画像データ生成部4の符号化部(図示略)により所定の符号化方式で符号化された各種の画像の画像データを記録する。
具体的には、画像記録部6は、例えば、撮像部3により被写体の一連の動作が連続された動画像の画像データや、当該動画像から抽出され、所定の時点を基準とする所定数のフレーム画像からなる動画像の画像データ等を記録する。
The image recording unit 6 is configured by, for example, a nonvolatile memory (flash memory). The image recording unit 6 records image data of various images encoded by a coding unit (not shown) of the image data generation unit 4 using a predetermined coding method.
Specifically, the image recording unit 6 is, for example, image data of a moving image in which a series of movements of a subject are continued by the imaging unit 3, or a predetermined number of images extracted from the moving image and based on a predetermined time point. Image data of a moving image composed of frame images is recorded.

なお、画像記録部6は、例えば、記録媒体(図示略)が着脱自在に構成され、装着された記録媒体からのデータの読み出しや記録媒体に対するデータの書き込みを制御する構成であっても良い。   The image recording unit 6 may be configured, for example, such that a recording medium (not shown) is detachable and controls reading of data from the mounted recording medium and writing of data to the recording medium.

表示部7は、静止画像や動画像を表示する。具体的には、表示部7は、表示パネル7aと、表示制御部7bとを具備している。   The display unit 7 displays still images and moving images. Specifically, the display unit 7 includes a display panel 7a and a display control unit 7b.

表示パネル7aは、表示領域内に画像を表示する。具体的には、表示部7は、静止画撮像モードや動画撮像モードにて、撮像部3による被写体の撮像により生成された複数の画像フレームを所定の再生フレームレートで逐次更新しながらライブビュー画像Lを表示する。
なお、表示パネル7aとしては、例えば、液晶表示パネルや有機EL表示パネルなどが挙げられるが、一例であってこれらに限られるものではない。
The display panel 7a displays an image in the display area. Specifically, the display unit 7 updates the live view image while sequentially updating a plurality of image frames generated by imaging the subject by the imaging unit 3 in the still image capturing mode and the moving image capturing mode. L is displayed.
Examples of the display panel 7a include a liquid crystal display panel and an organic EL display panel, but are not limited to these examples.

表示制御部7bは、画像記録部6から読み出され画像処理部5により復号された所定サイズの画像データに基づいて、所定の画像を表示パネル7aの表示画面に表示させる制御を行う。具体的には、表示制御部7bは、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、画像処理部5により復号されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから読み出して、これらのデータを元にビデオ信号を発生して表示パネル7aに出力する。   The display control unit 7b performs control to display a predetermined image on the display screen of the display panel 7a based on the image data of a predetermined size read from the image recording unit 6 and decoded by the image processing unit 5. Specifically, the display control unit 7b includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads out the luminance signal Y and the color difference signals Cb and Cr decoded by the image processing unit 5 and stored in the VRAM (not shown) from the VRAM via the VRAM controller, and stores these data. Originally, a video signal is generated and output to the display panel 7a.

操作入力部8は、装置本体に対して各種指示を入力するためのものである。
具体的には、操作入力部8は、例えば、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等を具備する操作部(図示略)を備えている。
そして、ユーザにより操作部の各種ボタンが操作されると、操作入力部8は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部8から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像等)を各部に実行させる。
なお、操作入力部8は、表示部7の表示パネル7aと一体となって設けられたタッチパネル(図示略)を有して構成されていても良い。
The operation input unit 8 is for inputting various instructions to the apparatus main body.
Specifically, the operation input unit 8 includes, for example, an operation unit (not shown) including up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, and the like.
When the user operates various buttons on the operation unit, the operation input unit 8 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject) in accordance with an operation instruction output from the operation input unit 8 and input.
The operation input unit 8 may include a touch panel (not shown) provided integrally with the display panel 7a of the display unit 7.

次に、撮像処理について、図2〜図6を参照して説明する。
図2は、撮像処理に係る動作の一例を示すフローチャートである。
Next, imaging processing will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the imaging process.

以下に説明する撮像処理は、ユーザによる操作入力部8の所定操作に基づいて、メニュー画面(図示略)に表示された複数の動作モードの中からインパクト画像抽出モードが選択指示された場合に実行される処理である。   The imaging processing described below is executed when an impact image extraction mode is selected from a plurality of operation modes displayed on a menu screen (not shown) based on a predetermined operation of the operation input unit 8 by the user. Process.

<撮像処理>
図2のフローチャートに示すように、先ず、表示制御部7bは、例えば、クラブヘッドCやボールBの初期位置を合わせるための指標M(例えば、クラブヘッド形状やボール形状の枠表示等)をライブビュー画像Lに重畳させて表示パネル7aにOSD表示させる(ステップS1;図4参照)。この状態で、撮像者は、クラブヘッドCやボールBの初期位置が指標Mと重なるように、当該装置本体と被写体との距離や撮像部3の画角等を調整する。
そして、ユーザによる操作入力部8の所定操作に基づいて、当該装置本体と被写体との距離や撮像部3の画角等の調整の完了指示が入力されると、表示制御部7bは、指標MのOSD表示を停止する。
なお、指標MのOSD表示は、動作する人の利き手に応じて用意されており、図4は右利きの人用である。また、被写体の撮像は、当該装置本体を三脚に固定して行っても良いし、撮像者が手持ちで行っても良い。
<Imaging processing>
As shown in the flowchart of FIG. 2, the display control unit 7b first displays an index M (for example, a club head shape or a ball shape frame display) for aligning the initial positions of the club head C and the ball B, for example. Overlaid on the view image L, OSD display is performed on the display panel 7a (step S1; see FIG. 4). In this state, the imager adjusts the distance between the apparatus main body and the subject, the angle of view of the imaging unit 3, and the like so that the initial positions of the club head C and the ball B overlap the index M.
Then, when an instruction to complete adjustment of the distance between the apparatus main body and the subject, the angle of view of the imaging unit 3, and the like is input based on a predetermined operation of the operation input unit 8 by the user, the display control unit 7b displays the index M. The OSD display of is stopped.
The OSD display of the index M is prepared according to the dominant hand of the person who operates, and FIG. 4 is for right-handed persons. Further, the subject may be imaged with the apparatus main body fixed to a tripod, or may be performed by the imager by hand.

次に、ユーザによる操作入力部8の所定操作に基づいて撮像が指示されると、撮像部3は、ゴルフのスイングの動作を所定の撮像フレームレート(例えば、1000fps等)で撮像して、画像データ生成部4は、複数のフレーム画像を所定の符号化方式で符号化した動画像の画像データを生成する(ステップS2)。
そして、画像データ生成部4は、生成された動画像の画像データをメモリ2に転送する。
Next, when imaging is instructed based on a predetermined operation of the operation input unit 8 by the user, the imaging unit 3 captures a golf swing motion at a predetermined imaging frame rate (for example, 1000 fps), The data generation unit 4 generates image data of a moving image obtained by encoding a plurality of frame images using a predetermined encoding method (step S2).
Then, the image data generation unit 4 transfers the generated moving image image data to the memory 2.

続けて、画像処理部5は、動画像の画像データから所定数のフレーム画像を特定して抽出する画像特定処理(図3参照)を行う(ステップS3)。
なお、画像特定処理については、後述する。
Subsequently, the image processing unit 5 performs an image specifying process (see FIG. 3) for specifying and extracting a predetermined number of frame images from the image data of the moving image (step S3).
The image specifying process will be described later.

そして、表示制御部7bは、画像特定部5fにより特定され抽出された所定数のフレーム画像に基づいて、動画像を表示パネル7aに表示させる(ステップS4)。
これにより、撮像処理を終了する。
Then, the display control unit 7b displays a moving image on the display panel 7a based on the predetermined number of frame images specified and extracted by the image specifying unit 5f (step S4).
Thereby, the imaging process is terminated.

<画像特定処理>
以下に、画像特定処理について、図3を参照して詳細に説明する。
図3は、画像特定処理に係る動作の一例を示すフローチャートである。
<Image identification processing>
Hereinafter, the image specifying process will be described in detail with reference to FIG.
FIG. 3 is a flowchart illustrating an example of an operation related to the image specifying process.

図3に示すように、画像取得部5aは、ゴルフのスイングの動作が連続的に撮像された複数のフレーム画像からなる動画像の画像データをメモリ2から読み出して、画像特定処理の処理対象として取得する(ステップS11)。
次に、領域設定部5bは、動画像の画像データを構成する複数のフレーム画像の各々について、上下方向略中央部の左右方向両端寄りの位置に略矩形状の検出領域を二つ設定する(ステップS12)。ここで、右利きの人の場合、左側の検出領域A1がフレームイン側となり、右側の検出領域A2がフレームアウト側となる。
As shown in FIG. 3, the image acquisition unit 5 a reads out image data of a moving image composed of a plurality of frame images obtained by continuously capturing golf swing motions from the memory 2, and uses it as a processing target for image specifying processing. Obtain (step S11).
Next, the region setting unit 5b sets two substantially rectangular detection regions at positions near both ends in the left-right direction at the substantially central portion in the vertical direction for each of the plurality of frame images constituting the image data of the moving image ( Step S12). Here, in the case of a right-handed person, the left detection area A1 is the frame-in side, and the right detection area A2 is the frame-out side.

続けて、復号部5cは、動画像の画像データを構成する最初のフレーム画像F1から所定数(例えば、n個;nは自然数)分のフレーム画像を復号して(ステップS13)、閾値設定部5dは、左右の検出領域A1、A2の各々について、隣合うフレーム画像との画素値(例えば、輝度値)の差分二乗和SSDを算出する(ステップS14)。そして、閾値設定部5dは、左右の検出領域A1、A2の各々について、算出された複数(例えば、n−1個)の差分二乗和SSDの代表値(例えば、平均値又は中央値等)をフレームイン及びフレームアウトの時点のフレーム番号の特定のための閾値として設定する(ステップS15)。   Subsequently, the decoding unit 5c decodes a predetermined number (for example, n; n is a natural number) of frame images from the first frame image F1 constituting the moving image data (step S13), and a threshold setting unit 5d calculates a difference square sum SSD of pixel values (for example, luminance values) with the adjacent frame images for each of the left and right detection areas A1 and A2 (step S14). Then, the threshold value setting unit 5d calculates a representative value (for example, an average value or a median value) of a plurality of (for example, n-1) difference square sums SSD for each of the left and right detection areas A1 and A2. It is set as a threshold value for specifying the frame number at the time of frame-in and frame-out (step S15).

次に、復号部5cは、動画像の画像データを構成する全てのフレーム画像を最初のフレーム画像F1から順次復号していき(ステップS16)、フレーム番号特定部5eは、復号されたフレーム画像について、一つ前のフレーム画像とのフレームアウト側に対応する検出領域A2の画素値(例えば、輝度値)の差分二乗和SSDを評価値として逐次算出する(ステップS17)。続けて、フレーム番号特定部5eは、算出された評価値が閾値設定部5dにより設定されたフレームアウト側に対応する検出領域A2の閾値よりも大きいか否かを判定する(ステップS18)。
ここで、評価値が閾値よりも大きくないと判定されると(ステップS18;NO)、画像処理部5は、処理をステップS16に戻し、それ以降の各処理を実行する。つまり、フレームアウト側に対応する検出領域A2内で画素値の変動がないため、クラブヘッドCが検出領域A2を通過していないと考えられる。これに対して、フレームアウト側に対応する検出領域A2内で画素値の変動があると、検出領域A2にクラブヘッドCが存在すると考えられる。
Next, the decoding unit 5c sequentially decodes all the frame images constituting the image data of the moving image from the first frame image F1 (step S16), and the frame number specifying unit 5e determines the decoded frame image. Then, the difference square sum SSD of the pixel values (for example, luminance values) in the detection area A2 corresponding to the frame-out side of the previous frame image is sequentially calculated as an evaluation value (step S17). Subsequently, the frame number specifying unit 5e determines whether or not the calculated evaluation value is larger than the threshold value of the detection area A2 corresponding to the frame-out side set by the threshold value setting unit 5d (step S18).
Here, if it is determined that the evaluation value is not greater than the threshold value (step S18; NO), the image processing unit 5 returns the process to step S16, and executes each subsequent process. That is, it is considered that the club head C does not pass through the detection area A2 because there is no change in the pixel value in the detection area A2 corresponding to the frame-out side. On the other hand, if the pixel value varies within the detection area A2 corresponding to the frame-out side, it is considered that the club head C exists in the detection area A2.

ステップS18にて、評価値が閾値よりも大きいと判定されると(ステップS18;YES)、フレーム番号特定部5eは、当該評価値と閾値との相違度を算出して、相違度が最大の評価値に対応する時点のフレーム番号を特定し、当該フレーム番号に対応するフレーム画像を識別するためのフレーム番号を、当該フレーム画像のフレーム番号で更新して所定の格納手段(例えば、メモリ2等)に一時的に格納する(ステップS19)。
続けて、画像処理部5は、全てのフレーム画像について上記の各処理を行ったか否かを判定する(ステップS20)。
If it is determined in step S18 that the evaluation value is larger than the threshold value (step S18; YES), the frame number identification unit 5e calculates the degree of difference between the evaluation value and the threshold value, and the degree of difference is the largest. The frame number at the time corresponding to the evaluation value is specified, and the frame number for identifying the frame image corresponding to the frame number is updated with the frame number of the frame image, and predetermined storage means (for example, the memory 2 or the like) ) Temporarily (step S19).
Subsequently, the image processing unit 5 determines whether or not each of the above processes has been performed for all the frame images (step S20).

ステップS20にて、全てのフレーム画像について行っていないと判定されると(ステップS20;NO)、画像処理部5は、処理をステップS16に戻し、それ以降の各処理を実行する。
上記の各処理は、ステップS20にて、全てのフレーム画像について行ったと判定されるまで(ステップS20;YES)、繰り返し実行される。
これにより、左右方向に移動するクラブヘッドCとフレームアウト側の検出領域A2との重なり領域が最も大きくなることにより、評価値と閾値との相違度が最大となった時点のフレーム番号のフレーム画像F4(図6(b)参照)のフレーム番号が特定される。
If it is determined in step S20 that all frame images have not been performed (step S20; NO), the image processing unit 5 returns the process to step S16, and executes the subsequent processes.
Each of the above processes is repeatedly executed until it is determined in step S20 that the process has been performed for all frame images (step S20; YES).
As a result, the frame image of the frame number at the time when the difference between the evaluation value and the threshold value is maximized due to the largest overlap area between the club head C moving in the left-right direction and the detection area A2 on the frame-out side. The frame number of F4 (see FIG. 6B) is specified.

次に、復号部5cは、検出領域A2を用いて特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像F4から所定数分のフレームを遡ったフレーム画像を復号の開始フレーム画像として指定する(ステップS21)。また、復号部5cは、指定された開始フレーム画像以降のフレーム画像であって、特定されたフレームアウトの時点のフレーム番号に対応するフレーム画像F4の一つ前のフレーム画像までを復号処理の対象画像として指定する。
そして、復号部5cは、指定された開始フレーム画像以降のフレーム画像を順次復号していき(ステップS22)、フレーム番号特定部5eは、復号されたフレーム画像について、一つ前のフレーム画像とのフレームイン側に対応する検出領域A1の画素値(例えば、輝度値)の差分二乗和SSDを評価値として逐次算出する(ステップS23)。続けて、フレーム番号特定部5eは、算出された評価値が閾値設定部5dにより設定されたフレームイン側に対応する検出領域A1の閾値よりも大きいか否かを判定する(ステップS24)。
ここで、評価値が閾値よりも大きくないと判定されると(ステップS24;NO)、画像処理部5は、処理をステップS22に戻し、それ以降の各処理を実行する。つまり、検出領域A1内で画素値の変動がないため、クラブヘッドCが検出領域A2を通過していないと考えられる。これに対して、検出領域A1内で画素値の変動があると、クラブヘッドCが存在すると考えられる。
Next, the decoding unit 5c designates a frame image that goes back a predetermined number of frames from the frame image F4 corresponding to the frame number at the time of frame-out specified using the detection area A2, as a decoding start frame image. (Step S21). In addition, the decoding unit 5c performs decoding processing up to a frame image after the designated start frame image and up to the frame image immediately preceding the frame image F4 corresponding to the frame number at the time of the specified frame-out. Specify as an image.
Then, the decoding unit 5c sequentially decodes the frame images after the designated start frame image (step S22), and the frame number specifying unit 5e sets the decoded frame image to the previous frame image. The difference square sum SSD of the pixel values (for example, luminance values) of the detection area A1 corresponding to the frame-in side is sequentially calculated as an evaluation value (step S23). Subsequently, the frame number specifying unit 5e determines whether or not the calculated evaluation value is larger than the threshold value of the detection area A1 corresponding to the frame-in side set by the threshold value setting unit 5d (step S24).
Here, if it is determined that the evaluation value is not greater than the threshold value (step S24; NO), the image processing unit 5 returns the process to step S22, and executes the subsequent processes. That is, it is considered that the club head C does not pass through the detection area A2 because there is no change in the pixel value in the detection area A1. On the other hand, it is considered that the club head C exists when the pixel value varies within the detection area A1.

ステップS24にて、評価値が閾値よりも大きいと判定されると(ステップS24;YES)、フレーム番号特定部5eは、当該評価値と閾値との相違度を算出して、相違度が最大の評価値に対応するフレーム番号を特定し、フレームイン側のフレーム画像を識別するためのフレーム番号を、当該フレーム画像のフレーム番号で更新して所定の格納手段(例えば、メモリ2等)に一時的に格納する(ステップS25)。
続けて、画像処理部5は、処理対象の全てのフレーム画像について上記の各処理を行ったか否かを判定する(ステップS26)。
If it is determined in step S24 that the evaluation value is larger than the threshold value (step S24; YES), the frame number identification unit 5e calculates the difference between the evaluation value and the threshold value, and the difference is the largest. The frame number corresponding to the evaluation value is specified, the frame number for identifying the frame image on the frame-in side is updated with the frame number of the frame image, and temporarily stored in a predetermined storage means (for example, the memory 2). (Step S25).
Subsequently, the image processing unit 5 determines whether or not each of the above processes has been performed for all the frame images to be processed (step S26).

ステップS26にて、処理対象の全てのフレーム画像について行っていないと判定されると(ステップS26;NO)、画像処理部5は、処理をステップS22に戻し、それ以降の各処理を実行する。
上記の各処理は、ステップS26にて、処理対象の全てのフレーム画像について行ったと判定されるまで(ステップS26;YES)、繰り返し実行される。
これにより、左右方向に移動するクラブヘッドCと検出領域A1との重なり領域が最も大きくなることで評価値と閾値との相違度が最大となったフレーム画像F2(図6(c)参照)のフレーム番号が特定される。
If it is determined in step S26 that all the frame images to be processed have not been performed (step S26; NO), the image processing unit 5 returns the process to step S22, and executes the subsequent processes.
Each of the above processes is repeatedly executed until it is determined in step S26 that the process has been performed for all the frame images to be processed (step S26; YES).
As a result, the frame image F2 (see FIG. 6C) in which the degree of difference between the evaluation value and the threshold value is maximized due to the largest overlap area between the club head C moving in the left-right direction and the detection area A1. A frame number is specified.

次に、画像特定部5fは、特定されたフレームイン側及びフレームアウト側の各々のフレーム番号に基づいて、複数のフレーム画像から当該二つのフレーム番号間の所定数のフレーム画像を特定し、動画像として抽出する(ステップS27)。具体的には、例えば、画像特定部5fは、特定されたフレームイン側のフレーム番号よりも所定数前のフレーム番号のフレーム画像から、特定されたフレームアウト側のフレーム番号よりも所定数後ろのフレーム番号のフレーム画像までを動画像として抽出する。
ここで、フレームイン側のフレーム番号とフレームアウト側のフレーム番号との間隔、即ち、二つのフレーム画像F2、F4間の画像数が所定値よりも多かったり、対応する時間間隔が所定値よりも長い場合には、クラブヘッドC以外のものが検出領域を通過している虞もあるため、画像特定部5fは、フレーム画像数や時間間隔が所定値以内である場合に、動画像を抽出する構成であっても良い。
Next, the image specifying unit 5f specifies a predetermined number of frame images between the two frame numbers from a plurality of frame images based on the specified frame numbers on the frame-in side and the frame-out side, Extracted as an image (step S27). Specifically, for example, the image specifying unit 5f starts from a frame image having a frame number that is a predetermined number before the frame number on the specified frame-in side, a predetermined number after the frame number on the specified frame-out side. Up to the frame number frame image is extracted as a moving image.
Here, the interval between the frame number on the frame-in side and the frame number on the frame-out side, that is, the number of images between the two frame images F2 and F4 is larger than the predetermined value, or the corresponding time interval is larger than the predetermined value. If it is long, there is a possibility that something other than the club head C has passed through the detection region, so the image specifying unit 5f extracts a moving image when the number of frame images and the time interval are within predetermined values. It may be a configuration.

その後、画像記録部6は、画像特定部5fにより抽出された、所定の時点を基準とする所定数のフレーム画像からなる動画像の画像データを記録して(ステップS28)、当該画像特定処理を終了する。   Thereafter, the image recording unit 6 records the image data of the moving image composed of a predetermined number of frame images with reference to a predetermined time point extracted by the image specifying unit 5f (step S28), and performs the image specifying process. finish.

以上のように、本実施形態の撮像装置100によれば、被写体の動作が連続的に撮像された複数のフレーム画像の各フレーム画像における複数の所定位置に検出領域を設定し、設定された複数の検出領域の各々における複数のフレーム画像間の画素値の変動に基づいて、複数のフレーム画像のうち被写体の動作における所定の時点に関連するフレーム画像を複数特定するので、複数のフレーム画像の各々の所定位置に設定された検出領域の画素値の変動を利用することで、特殊なデバイスを用いなくともユーザ所望のフレーム画像(例えば、フレーム画像F2〜F4)を特定することができる。
例えば、ゴルフのスイングの場合、実際にボールBを打たない素振りであっても、仮にボールBを打ったらインパクトの瞬間となるであろうフレーム画像を含むユーザ所望のフレーム画像を特定することができる。
As described above, according to the imaging apparatus 100 of the present embodiment, detection areas are set at a plurality of predetermined positions in each frame image of a plurality of frame images in which the motion of the subject is continuously captured, and the set plurality Since a plurality of frame images related to a predetermined point in time of the operation of the subject are identified among the plurality of frame images based on fluctuations in pixel values between the plurality of frame images in each of the detection regions, each of the plurality of frame images By using the change in the pixel value of the detection area set at the predetermined position, it is possible to specify user-desired frame images (for example, frame images F2 to F4) without using a special device.
For example, in the case of a golf swing, it is possible to specify a user-desired frame image including a frame image that will be the moment of impact if the ball B is hit, even if the ball B is not actually hit. it can.

また、複数の検出領域の各々に被写体が存在するフレーム画像をそれぞれ特定し、特定された各検出領域に被写体が存在するフレーム画像のフレーム番号が所定の順序であった場合に、所定の時点に関連するフレーム画像を複数特定するので、複数の検出領域内からの被写体の検出の順序を利用して、被写体の動作が所定の動作以外であるか否かを判断することができる。
例えば、ゴルフのスイングの動作の場合、一般的に、フレームイン側(例えば、右利きのスイングにおける左側)の検出領域A1からフレームアウト側(例えば、右利きのスイングにおける右側)の検出領域A2へとクラブヘッドCが動作する。これに対して、単にクラブヘッドCを左右にぶらぶら動かすと、先にフレームアウト側の検出領域A2にてクラブヘッドCが検出された後、フレームイン側の検出領域A1にてクラブヘッドCが検出される虞もあるが、複数の検出領域を用いてクラブヘッドCが検出される順序がフレームイン側の検出領域A1が先でフレームアウト側の検出領域A2が後である場合に、所定の時点に関連するフレーム画像を複数特定することで、単にクラブヘッドCを左右にぶらぶら動かす動作(例えば、ワッグル等)に対応するフレーム画像が誤って特定されることを抑制することができる。
Further, when a frame image in which a subject is present in each of the plurality of detection areas is specified, and the frame number of the frame image in which the subject is present in each specified detection area is in a predetermined order, Since a plurality of related frame images are specified, it is possible to determine whether or not the motion of the subject is other than a predetermined motion using the order of detection of the subject from the plurality of detection areas.
For example, in the case of a golf swing action, generally, the detection area A1 on the frame-in side (for example, the left side in a right-handed swing) moves to the detection area A2 on the frame-out side (for example, the right side in a right-handed swing). And the club head C operates. On the other hand, when the club head C is simply moved to the left and right, the club head C is detected in the detection area A1 on the frame-in side after the club head C is detected in the detection area A2 on the frame-out side. Although there is a possibility that the club head C is detected using a plurality of detection areas, the detection area A1 on the frame-in side is first, and the detection area A2 on the frame-out side is later. By specifying a plurality of frame images related to, it is possible to suppress erroneously specifying a frame image corresponding to an operation of simply moving the club head C to the left or right (for example, waggle or the like).

また、複数のフレーム画像のうち、所定期間内の所定数の画像における検出領域の画素値の代表値をフレームイン又はフレームアウトの時点のフレーム番号を特定するための閾値として設定し、当該閾値を基準としてフレームイン又はフレームアウトの時点のフレーム番号を特定して、各検出領域に被写体が存在するフレーム画像をそれぞれ特定することができる。特に、閾値よりも各検出領域の画素値が大きいと判定された場合に、検出領域によりフレームイン又はフレームアウトの時点のフレーム番号を適正に検出することができ、これにより、検出領域に被写体が存在するフレーム画像を所定の時点に関連するフレーム画像として特定することができる。
即ち、例えば、被写体が検出領域に存しない状態では、当該検出領域の画素値の変動が生じ難いのに対して、被写体が検出領域に存在する状態では、当該検出領域の画素値の変動が生じるため、当該検出領域の画素値の代表値を閾値とし、検出領域の画素値の変動を利用することで、フレームイン又はフレームアウトの時点のフレーム番号の検出を適正に行うことができる。
Further, among the plurality of frame images, a representative value of the pixel values of the detection region in a predetermined number of images within a predetermined period is set as a threshold value for specifying a frame number at the time of frame-in or frame-out, and the threshold value is set. A frame number at the time of frame-in or frame-out can be specified as a reference, and a frame image in which a subject exists in each detection region can be specified. In particular, when it is determined that the pixel value of each detection area is larger than the threshold value, the frame number at the time of frame-in or frame-out can be properly detected by the detection area. An existing frame image can be specified as a frame image related to a predetermined time point.
That is, for example, when the subject does not exist in the detection region, the pixel value of the detection region hardly changes, whereas when the subject exists in the detection region, the pixel value of the detection region changes. Therefore, the frame number at the time of frame-in or frame-out can be properly detected by using the representative value of the pixel value of the detection region as a threshold and using the variation of the pixel value of the detection region.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態では、検出領域に設定された閾値を基準として、フレームイン及びフレームアウトの時点のフレーム番号を特定するようにしたが、一例であってこれに限られるものではなく、フレームイン及びフレームアウトの時点のフレーム番号の特定に際して閾値を設定するか否かは適宜任意に変更可能である。即ち、撮像装置100は、検出領域の画素値の変動に基づいて、フレームイン及びフレームアウトの時点のフレーム番号を特定可能な構成であれば、必ずしも閾値設定部5dを具備する必要はない。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above embodiment, the frame number at the time of frame-in and frame-out is specified based on the threshold value set in the detection area. However, this is an example, and the present invention is not limited to this. Whether or not to set a threshold value when specifying the frame number at the time of frame-out can be arbitrarily changed as appropriate. That is, the imaging apparatus 100 does not necessarily have to include the threshold setting unit 5d as long as the frame number at the time of frame-in and frame-out can be specified based on the change in the pixel value of the detection area.

また、上記実施形態では、左右二つの検出領域A1、A2内によるフレームイン及びフレームアウトの時点のフレーム番号の特定処理は、当該被写体のフレームアウト側に対応する検出領域A2から先に行うようにしたが、一例であってこれに限られるものではなく、例えば、被写体のフレームイン側に対応する検出領域A1から先に行うようにしても良い。この場合、フレーム番号特定部5eは、検出領域A1によるフレームインの時点のフレーム番号の特定処理については、復号部5cにより復号された全てのフレーム画像を処理対象とする一方で、検出領域A2によるフレームアウトの時点のフレーム番号の特定処理については、フレームインの時点のフレーム番号を基準としても良い。   In the above embodiment, the frame number identification process at the time of frame-in and frame-out in the two left and right detection areas A1 and A2 is performed first from the detection area A2 corresponding to the frame-out side of the subject. However, this is only an example, and the present invention is not limited to this. For example, the detection may be performed first from the detection area A1 corresponding to the frame-in side of the subject. In this case, the frame number specifying unit 5e sets all frame images decoded by the decoding unit 5c as processing targets for the frame number specifying process at the time of frame-in by the detection region A1, while using the detection region A2. The frame number identifying process at the time of frame-out may be based on the frame number at the time of frame-in.

また、フレーム番号特定部5eは、評価値が閾値よりも大きいと判定されたフレーム番号のうち、当該閾値に対する相違度が最も大きいフレーム番号を特定するようにしたが、閾値も超えた評価値のうち最も大きい評価値に近接する評価値が複数あるときは、所定の処理を行うことでフレームイン及びフレームアウトの時点のフレーム番号を特定するようにしても良い。
つまり、フレームインの時点のフレーム番号の特定においては、最も大きい評価値に近接する複数の評価値のフレーム番号のうち、最も後のフレーム番号をフレームインの時点のフレーム番号として特定するような処理を加えることで、例えば、スイング動作におけるアドレス−トップ間、及びトップ−インパクト間での動作のうち、アドレス−トップ間の動作を所望のフレームインの時点のフレーム番号として誤って検出することを抑制できる。また、フレームアウトの時点のフレーム番号の特定においては、同様に、最も大きい評価値に近接する複数の評価値のフレーム番号のうち、最も後のフレーム番号をフレームアウトの時点のフレーム番号として特定するような処理を加えることで、インパクト以降にボールが検出領域を用いて検出された時点のフレーム番号を所望のフレームアウトの時点のフレーム番号として誤って検出することを抑制できる。
Further, the frame number specifying unit 5e specifies the frame number having the largest difference from the threshold among the frame numbers determined to have the evaluation value larger than the threshold. When there are a plurality of evaluation values close to the largest evaluation value, the frame number at the time of frame-in and frame-out may be specified by performing a predetermined process.
That is, in specifying the frame number at the time of frame-in, a process of specifying the last frame number as the frame number at the time of frame-in among the frame numbers of a plurality of evaluation values adjacent to the largest evaluation value. For example, it is possible to suppress erroneous detection of an address-top operation as a frame number at a desired frame-in among address-top and top-impact operations in a swing operation. it can. Similarly, in specifying the frame number at the time of frame-out, the last frame number is specified as the frame number at the time of frame-out among the frame numbers of a plurality of evaluation values adjacent to the largest evaluation value. By adding such processing, it is possible to suppress erroneous detection of the frame number at the time when the ball is detected using the detection area after the impact as the frame number at the desired frame-out time.

さらに、上記実施形態では、画像特定部5fは、所定の時点(例えば、クラブヘッドCによりボールBを打った瞬間のインパクト等)に関連するフレーム画像F2、F4の識別情報(例えば、フレームイン及びフレームアウトの時点のフレーム番号)を特定した後、当該識別情報に対応するフレーム画像F2、F4を特定するようにしたが、一例であってこれに限られるものではなく、必ずしもフレーム画像F2、F4を特定する必要はない。また、画像特定部5fは、例えば、フレーム番号特定部5eによる特定結果に基づいて、直接、動画像の画像データを構成する複数のフレーム画像から被写体の動作における所定の時点に関連するフレーム画像を特定しても良い。   Furthermore, in the above-described embodiment, the image specifying unit 5f has the identification information (for example, frame-in and The frame images F2 and F4 corresponding to the identification information are specified after specifying the frame number at the time of frame-out. However, this is only an example, and the frame images F2 and F4 are not necessarily limited thereto. There is no need to specify. In addition, the image specifying unit 5f directly selects a frame image related to a predetermined point in the motion of the subject from a plurality of frame images constituting the image data of the moving image directly based on the specifying result by the frame number specifying unit 5e. You may specify.

さらに、撮像装置100の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。さらに、画像処理装置として、撮像装置100を例示したが、これに限られるものではない。   Furthermore, the configuration of the imaging apparatus 100 is merely an example illustrated in the above embodiment, and is not limited thereto. Furthermore, although the imaging device 100 is illustrated as an image processing device, it is not limited to this.

加えて、上記実施形態にあっては、取得手段、領域設定手段、特定手段としての機能を、中央制御部1の制御下にて、画像取得部5a、領域設定部5b、画像特定部5fが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、領域設定処理ルーチン、特定処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部1のCPUを、被写体の動作が連続的に撮像された複数の画像を取得する手段として機能させるようにしても良い。また、領域設定処理ルーチンにより中央制御部1のCPUを、取得された複数の画像の各々における複数の所定位置に領域を設定する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1のCPUを、設定された複数の領域の各々における複数の画像間の画素値の変動に基づいて、複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the acquisition unit, the region setting unit, and the specifying unit are controlled by the image acquisition unit 5a, the region setting unit 5b, and the image specifying unit 5f under the control of the central control unit 1. The configuration realized by driving is not limited to this, and may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.
That is, a program memory (not shown) that stores a program stores a program including an acquisition processing routine, an area setting processing routine, and a specific processing routine. Then, the CPU of the central control unit 1 may function as a means for acquiring a plurality of images obtained by continuously capturing the motion of the subject by an acquisition process routine. Further, the CPU of the central control unit 1 may function as means for setting an area at a plurality of predetermined positions in each of a plurality of acquired images by an area setting processing routine. In addition, the CPU of the central control unit 1 at a predetermined time in the operation of the subject among the plurality of images based on the variation of the pixel value between the plurality of images in each of the plurality of set areas by the specific processing routine. You may make it function as a means to specify two or more related images.

同様に、閾値設定手段、判定手段、算出手段、抽出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the threshold setting unit, the determination unit, the calculation unit, and the extraction unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
被写体の動作が連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段と、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記特定手段は、更に、
前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、当該複数の領域の各々に被写体が存在する画像をそれぞれ特定し、特定された各領域に被写体が存在する画像のフレーム番号が所定の順序であった場合に、前記所定の時点に関連する画像を複数特定することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記複数の画像のうち、所定期間内の所定数の画像における前記領域の画素値の代表値を被写体の検出用の閾値として設定する閾値設定手段を更に備え、
前記特定手段は、前記閾値設定手段により設定された閾値を基準として、前記各領域に被写体が存在する画像をそれぞれ特定することを特徴とする請求項2に記載の画像処理装置。
<請求項4>
前記各領域の画素値が前記閾値設定手段により設定された閾値よりも大きいか否かを判定する判定手段を更に備え、
前記特定手段は、前記判定手段により前記各領域の画素値が前記閾値よりも大きいと判定されると、当該領域に被写体が存在する画像を前記所定の時点に関連する画像として特定することを特徴とする請求項3に記載の画像処理装置。
<請求項5>
前記取得手段により取得された複数の画像から所定数の画像における前記領域の画素値の平均値又は中央値を算出する算出手段を更に備え、
前記閾値設定手段は、前記算出手段により算出された平均値又は中央値を前記代表値として設定することを特徴とする請求項3又は4に記載の画像処理装置。
<請求項6>
前記特定手段により特定された所定の時点に関連する複数の画像を動画像として抽出する抽出手段を更に備えたことを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。
<請求項7>
画像処理装置を用いた画像処理方法であって、
被写体の動作が連続的に撮像された複数の画像を取得する処理と、
取得された複数の画像の各々における複数の所定位置に領域を設定する処理と、
設定された前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、
を含むことを特徴とする画像処理方法。
<請求項8>
画像処理装置のコンピュータを、
被写体の動作が連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Acquisition means for acquiring a plurality of images in which the motion of the subject is continuously captured;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
An image processing apparatus comprising:
<Claim 2>
The specifying means further includes:
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions, an image in which a subject exists in each of the plurality of regions is specified, and an image in which the subject exists in each specified region The image processing apparatus according to claim 1, wherein a plurality of images related to the predetermined time point are specified when the frame numbers are in a predetermined order.
<Claim 3>
A threshold setting unit configured to set a representative value of pixel values of the region in a predetermined number of images within a predetermined period of the plurality of images as a threshold for detecting a subject;
The image processing apparatus according to claim 2, wherein the specifying unit specifies an image in which a subject is present in each of the regions based on the threshold set by the threshold setting unit.
<Claim 4>
Determination means for determining whether or not the pixel value of each region is larger than a threshold set by the threshold setting means;
When the determination unit determines that the pixel value of each region is larger than the threshold value, the specifying unit specifies an image in which a subject is present in the region as an image related to the predetermined time point. The image processing apparatus according to claim 3.
<Claim 5>
A calculation unit that calculates an average value or a median value of the pixel values of the region in a predetermined number of images from the plurality of images acquired by the acquisition unit;
The image processing apparatus according to claim 3, wherein the threshold value setting unit sets an average value or a median value calculated by the calculation unit as the representative value.
<Claim 6>
6. The image processing apparatus according to claim 1, further comprising an extraction unit that extracts a plurality of images related to a predetermined time point specified by the specifying unit as a moving image.
<Claim 7>
An image processing method using an image processing apparatus,
Processing to acquire a plurality of images in which the motion of the subject is continuously captured;
A process of setting a region at a plurality of predetermined positions in each of a plurality of acquired images;
A process of specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set;
An image processing method comprising:
<Claim 8>
The computer of the image processing device
Acquisition means for acquiring a plurality of images obtained by continuously capturing the motion of the subject;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
A program characterized by functioning as

100 撮像装置
1 中央制御部
5a 画像取得部
5b 領域設定部
5d 閾値設定部
5e フレーム番号特定部
5f 画像特定部
A1、A2 検出領域
DESCRIPTION OF SYMBOLS 100 Imaging device 1 Central control part 5a Image acquisition part 5b Area setting part 5d Threshold setting part 5e Frame number specific | specification part 5f Image specific part A1, A2 Detection area

Claims (8)

被写体の動作が連続的に撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段と、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段と、
を備えたことを特徴とする画像処理装置。
Acquisition means for acquiring a plurality of images in which the motion of the subject is continuously captured;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
An image processing apparatus comprising:
前記特定手段は、更に、
前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、当該複数の領域の各々に被写体が存在する画像をそれぞれ特定し、特定された各領域に被写体が存在する画像のフレーム番号が所定の順序であった場合に、前記所定の時点に関連する画像を複数特定することを特徴とする請求項1に記載の画像処理装置。
The specifying means further includes:
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions, an image in which a subject exists in each of the plurality of regions is specified, and an image in which the subject exists in each specified region The image processing apparatus according to claim 1, wherein a plurality of images related to the predetermined time point are specified when the frame numbers are in a predetermined order.
前記複数の画像のうち、所定期間内の所定数の画像における前記領域の画素値の代表値を被写体の検出用の閾値として設定する閾値設定手段を更に備え、
前記特定手段は、前記閾値設定手段により設定された閾値を基準として、前記各領域に被写体が存在する画像をそれぞれ特定することを特徴とする請求項2に記載の画像処理装置。
A threshold setting unit configured to set a representative value of pixel values of the region in a predetermined number of images within a predetermined period of the plurality of images as a threshold for detecting a subject;
The image processing apparatus according to claim 2, wherein the specifying unit specifies an image in which a subject is present in each of the regions based on the threshold set by the threshold setting unit.
前記各領域の画素値が前記閾値設定手段により設定された閾値よりも大きいか否かを判定する判定手段を更に備え、
前記特定手段は、前記判定手段により前記各領域の画素値が前記閾値よりも大きいと判定されると、当該領域に被写体が存在する画像を前記所定の時点に関連する画像として特定することを特徴とする請求項3に記載の画像処理装置。
Determination means for determining whether or not the pixel value of each region is larger than a threshold set by the threshold setting means;
When the determination unit determines that the pixel value of each region is larger than the threshold value, the specifying unit specifies an image in which a subject is present in the region as an image related to the predetermined time point. The image processing apparatus according to claim 3.
前記取得手段により取得された複数の画像から所定数の画像における前記領域の画素値の平均値又は中央値を算出する算出手段を更に備え、
前記閾値設定手段は、前記算出手段により算出された平均値又は中央値を前記代表値として設定することを特徴とする請求項3又は4に記載の画像処理装置。
A calculation unit that calculates an average value or a median value of the pixel values of the region in a predetermined number of images from the plurality of images acquired by the acquisition unit;
The image processing apparatus according to claim 3, wherein the threshold value setting unit sets an average value or a median value calculated by the calculation unit as the representative value.
前記特定手段により特定された所定の時点に関連する複数の画像を動画像として抽出する抽出手段を更に備えたことを特徴とする請求項1〜5の何れか一項に記載の画像処理装置。   6. The image processing apparatus according to claim 1, further comprising an extraction unit that extracts a plurality of images related to a predetermined time point specified by the specifying unit as a moving image. 画像処理装置を用いた画像処理方法であって、
被写体の動作が連続的に撮像された複数の画像を取得する処理と、
取得された複数の画像の各々における複数の所定位置に領域を設定する処理と、
設定された前記複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する処理と、
を含むことを特徴とする画像処理方法。
An image processing method using an image processing apparatus,
Processing to acquire a plurality of images in which the motion of the subject is continuously captured;
A process of setting a region at a plurality of predetermined positions in each of a plurality of acquired images;
A process of specifying a plurality of images related to a predetermined time point in the operation of the subject among the plurality of images based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set;
An image processing method comprising:
画像処理装置のコンピュータを、
被写体の動作が連続的に撮像された複数の画像を取得する取得手段、
前記取得手段により取得された複数の画像の各々における複数の所定位置に領域を設定する領域設定手段、
前記領域設定手段により設定された複数の領域の各々における前記複数の画像間の画素値の変動に基づいて、前記複数の画像のうち前記被写体の動作における所定の時点に関連する画像を複数特定する特定手段、
として機能させることを特徴とするプログラム。
The computer of the image processing device
Acquisition means for acquiring a plurality of images obtained by continuously capturing the motion of the subject;
Area setting means for setting areas at a plurality of predetermined positions in each of the plurality of images acquired by the acquisition means;
Based on fluctuations in pixel values between the plurality of images in each of the plurality of regions set by the region setting means, a plurality of images related to a predetermined time point in the operation of the subject are specified from the plurality of images. Specific means,
A program characterized by functioning as
JP2013203332A 2013-09-30 2013-09-30 Image processing apparatus, image processing method, and program Active JP5935779B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013203332A JP5935779B2 (en) 2013-09-30 2013-09-30 Image processing apparatus, image processing method, and program
KR1020140126242A KR101645806B1 (en) 2013-09-30 2014-09-22 Image processing apparatus, image processing method and computer readable recording medium having program thereof
US14/500,513 US9367746B2 (en) 2013-09-30 2014-09-29 Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images
CN201410515141.7A CN104519278B (en) 2013-09-30 2014-09-29 Image processing apparatus, image processing method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203332A JP5935779B2 (en) 2013-09-30 2013-09-30 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2015069432A true JP2015069432A (en) 2015-04-13
JP2015069432A5 JP2015069432A5 (en) 2015-07-09
JP5935779B2 JP5935779B2 (en) 2016-06-15

Family

ID=52740234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203332A Active JP5935779B2 (en) 2013-09-30 2013-09-30 Image processing apparatus, image processing method, and program

Country Status (4)

Country Link
US (1) US9367746B2 (en)
JP (1) JP5935779B2 (en)
KR (1) KR101645806B1 (en)
CN (1) CN104519278B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017130134A (en) * 2016-01-22 2017-07-27 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
US9934582B2 (en) 2014-09-22 2018-04-03 Casio Computer Co., Ltd. Image processing apparatus which identifies characteristic time points from variations of pixel values in images, image processing method, and recording medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150063466A1 (en) 2012-04-06 2015-03-05 Sony Corporation Decoding device and decoding method, and encoding device and encoding method
US11979340B2 (en) 2017-02-12 2024-05-07 Mellanox Technologies, Ltd. Direct data placement
US10516710B2 (en) 2017-02-12 2019-12-24 Mellanox Technologies, Ltd. Direct packet placement
US10210125B2 (en) 2017-03-16 2019-02-19 Mellanox Technologies, Ltd. Receive queue with stride-based data scattering
CN107040787B (en) * 2017-03-30 2019-08-02 宁波大学 A kind of 3D-HEVC inter-frame information hidden method of view-based access control model perception
CN107067424B (en) * 2017-04-18 2019-07-12 北京动视科技有限公司 A kind of batting image generating method and system
US11252464B2 (en) * 2017-06-14 2022-02-15 Mellanox Technologies, Ltd. Regrouping of video data in host memory
US20180367589A1 (en) * 2017-06-14 2018-12-20 Mellanox Technologies, Ltd. Regrouping of video data by a network interface controller
US10367750B2 (en) 2017-06-15 2019-07-30 Mellanox Technologies, Ltd. Transmission and reception of raw video using scalable frame rate
CN110062170B (en) * 2019-05-29 2021-12-24 维沃移动通信有限公司 Image processing method, image processing device, mobile terminal and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005160017A (en) * 2003-10-30 2005-06-16 Canon Inc Image motion detecting apparatus, image motion detecting method, program and recording medium
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2013101419A (en) * 2011-11-07 2013-05-23 Mitsubishi Electric Corp Image signal processor
JP2013138742A (en) * 2011-12-29 2013-07-18 Dunlop Sports Co Ltd Diagnosing method of golf swing

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6417853B1 (en) * 1998-02-05 2002-07-09 Pinnacle Systems, Inc. Region based moving image editing system and method
KR20010016275A (en) * 2000-11-29 2001-03-05 김형모 Dynamic fusion detector algorithm
KR100696728B1 (en) * 2003-06-09 2007-03-20 가부시키가이샤 히다치 고쿠사이 덴키 Apparatus and method for sending monitoring information
JP4482795B2 (en) * 2004-03-05 2010-06-16 ソニー株式会社 Image processing apparatus, moving object tracking method, moving object tracking program, monitoring apparatus, and game apparatus
JP4538008B2 (en) * 2005-08-12 2010-09-08 株式会社ソニー・コンピュータエンタテインメント Face image display device, face image display method, and face image display program
US8442318B2 (en) * 2006-02-13 2013-05-14 Snell Limited Method and apparatus for modifying a moving image sequence
JP2009005152A (en) * 2007-06-22 2009-01-08 Olympus Corp Image processing device
JP4534172B2 (en) * 2008-04-03 2010-09-01 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5205337B2 (en) * 2009-06-18 2013-06-05 富士フイルム株式会社 Target tracking device, image tracking device, operation control method thereof, and digital camera
JP5515490B2 (en) 2009-07-30 2014-06-11 株式会社セガ Golf practice equipment
JP2011109397A (en) * 2009-11-17 2011-06-02 Sony Corp Image transmission method, image reception method, image transmission device, image reception device, and image transmission system
KR101183781B1 (en) * 2009-12-22 2012-09-17 삼성전자주식회사 Method and apparatus for object detecting/tracking using real time motion estimation of camera
JP5375744B2 (en) * 2010-05-31 2013-12-25 カシオ計算機株式会社 Movie playback device, movie playback method and program
JP5750864B2 (en) * 2010-10-27 2015-07-22 ソニー株式会社 Image processing apparatus, image processing method, and program
WO2013047066A1 (en) * 2011-09-30 2013-04-04 富士フイルム株式会社 Tracking frame initial position setting device and operation control method for same
JP5776903B2 (en) * 2012-03-02 2015-09-09 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6071616B2 (en) * 2012-03-22 2017-02-01 キヤノン株式会社 Imaging apparatus, control method therefor, program, and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005160017A (en) * 2003-10-30 2005-06-16 Canon Inc Image motion detecting apparatus, image motion detecting method, program and recording medium
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2013101419A (en) * 2011-11-07 2013-05-23 Mitsubishi Electric Corp Image signal processor
JP2013138742A (en) * 2011-12-29 2013-07-18 Dunlop Sports Co Ltd Diagnosing method of golf swing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9934582B2 (en) 2014-09-22 2018-04-03 Casio Computer Co., Ltd. Image processing apparatus which identifies characteristic time points from variations of pixel values in images, image processing method, and recording medium
JP2017130134A (en) * 2016-01-22 2017-07-27 カシオ計算機株式会社 Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
CN104519278B (en) 2017-11-28
US20150092995A1 (en) 2015-04-02
KR20150037549A (en) 2015-04-08
JP5935779B2 (en) 2016-06-15
CN104519278A (en) 2015-04-15
US9367746B2 (en) 2016-06-14
KR101645806B1 (en) 2016-08-04

Similar Documents

Publication Publication Date Title
JP5935779B2 (en) Image processing apparatus, image processing method, and program
JP6024728B2 (en) Detection apparatus, detection method, and program
JP5625995B2 (en) Subject tracking device, subject tracking method and program
JP5331128B2 (en) Imaging device
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP6652039B2 (en) Imaging device, imaging method, and program
US20170048466A1 (en) Image processing device that generates a composite image
CN107087103B (en) Image pickup apparatus, image pickup method, and computer-readable storage medium
JP6500535B2 (en) Image processing apparatus, image processing method and program
US10401174B2 (en) Posture estimating apparatus for estimating posture, posture estimating method and recording medium
JP6693071B2 (en) Imaging device, imaging control method, and program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP6322964B2 (en) Imaging apparatus, imaging control method, and program
JP6682874B2 (en) Image processing apparatus, image processing method, and program
JP6597262B2 (en) Image processing apparatus, image processing method, and program
JP2020115679A (en) Object detection device, detection control method, and program
JP2012151704A (en) Imaging assisting device, imaging assisting method, and program
JP2009098850A (en) Arithmetic device and program of same
JP6314438B2 (en) Display control apparatus, display control method, and program
JP2016092685A (en) Imaging apparatus, imaging control method, and program
JP2017198872A (en) Imaging apparatus, imaging control method, and program
JP5879730B2 (en) Remote operation device, remote operation method and program
JP2017200077A (en) Output device, output processing method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150526

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160425

R150 Certificate of patent or registration of utility model

Ref document number: 5935779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150