JP2014063275A - Image specifying device, image specifying method, and program - Google Patents

Image specifying device, image specifying method, and program Download PDF

Info

Publication number
JP2014063275A
JP2014063275A JP2012207061A JP2012207061A JP2014063275A JP 2014063275 A JP2014063275 A JP 2014063275A JP 2012207061 A JP2012207061 A JP 2012207061A JP 2012207061 A JP2012207061 A JP 2012207061A JP 2014063275 A JP2014063275 A JP 2014063275A
Authority
JP
Japan
Prior art keywords
image data
subject
setting
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012207061A
Other languages
Japanese (ja)
Other versions
JP2014063275A5 (en
JP6060585B2 (en
Inventor
Norio Endo
典夫 遠藤
Koichi Nakagome
浩一 中込
Tomohiko Murakami
智彦 村上
Yoshihiro Kawamura
義裕 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012207061A priority Critical patent/JP6060585B2/en
Publication of JP2014063275A publication Critical patent/JP2014063275A/en
Publication of JP2014063275A5 publication Critical patent/JP2014063275A5/ja
Application granted granted Critical
Publication of JP6060585B2 publication Critical patent/JP6060585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor capable of reducing a processing load for specifying an image obtained by capturing a predetermined form in the action of a desired object.SOLUTION: An image processor 1 comprises: an acquisition part 41; a setting part 48; a calculation part 49; and a specifying part 50. The acquisition part 41 acquires a plurality of image data obtained by consecutively capturing a series of actions of an object. The setting part 48 sets an evaluation area corresponding to the size and position of the object to each of the plurality of image data acquired by the acquisition part 41. The calculation part 49 calculates an evaluation value between the plurality of image data in the evaluation areas set by the setting part 48, respectively. The specifying part 50 specifies the image data of a predetermined state in a series of actions, based on the evaluation values calculated by the calculation part 49, respectively.

Description

本発明は、画像を特定するする画像特定装置、画像特定方法及びプログラムに関する。   The present invention relates to an image specifying device, an image specifying method, and a program for specifying an image.

近年、ユーザは、ゴルフにおける一連の動作であるスイングが撮像された画像を見て、自己のスイングフォームを確認することができる。
このようなゴルフのスイングフォームを撮像する装置として、撮影された被験者の動画の中から、被験者が行う一連のスイング動作に関わるフレームをスイングデータとして抽出し、このスイングデータにおける各フレームと基準の画像とを比較した差分画像における移動部分画像の解析結果に応じて、スイング動作中の特定動作点毎に対応するフレームを抽出する装置が提案されている(特許文献1参照)。
In recent years, a user can check his / her own swing form by looking at an image in which a swing, which is a series of actions in golf, is captured.
As a device for imaging such a golf swing form, a frame related to a series of swing motions performed by the subject is extracted as swing data from the captured subject's video, and each frame and reference image in the swing data is extracted. There has been proposed an apparatus for extracting a frame corresponding to each specific operation point during a swing motion according to the analysis result of the moving partial image in the difference image compared with (see Patent Document 1).

特開2003−117045号公報JP 2003-1117045 A

しかしながら、上記特許文献1では、基準の画像全体とスイング動作に関わるフレームの画像全体との差分を算出することでスイングフォームの特定動作点に対応する画像を抽出するため、演算量が大きくなることから、スイングフォームの特定動作点を特定する処理負担が重くなる虞がある。   However, in Patent Document 1, an image corresponding to a specific operation point of the swing form is extracted by calculating a difference between the entire reference image and the entire frame image related to the swing motion, which increases the amount of calculation. Therefore, there is a possibility that the processing load for specifying the specific operation point of the swing form becomes heavy.

本発明は、このような状況に鑑みてなされたものであり、被写体の一連の動作が連続して撮像された画像から所定の状態の画像を特定する処理負担を軽くすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to reduce the processing burden of specifying an image in a predetermined state from images obtained by continuously capturing a series of movements of a subject.

上記目的を達成するため、本発明の一態様の画像処理装置は、
被写体の一連の動作が連続して撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々に、前記被写体の大きさ及び位置に応じた評価領域を設定する設定手段と、
前記設定手段により設定された評価領域における前記複数の画像データ間の評価値を夫々算出する第1の算出手段と、
前記第1の算出手段により夫々算出された評価値に基づいて、前記一連の動作における所定の状態の画像データを特定する特定手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
Acquisition means for acquiring a plurality of image data obtained by continuously imaging a series of movements of a subject;
Setting means for setting an evaluation area corresponding to the size and position of the subject in each of a plurality of image data acquired by the acquisition means;
First calculation means for calculating an evaluation value between the plurality of image data in the evaluation region set by the setting means;
Identification means for identifying image data in a predetermined state in the series of operations based on the evaluation values calculated by the first calculation means;
It is provided with.

本発明によれば、被写体の一連の動作が連続して撮像された画像から所定の状態の画像を特定する処理負担を軽くできる。   According to the present invention, it is possible to reduce the processing burden of specifying an image in a predetermined state from images obtained by continuously capturing a series of actions of a subject.

本発明に係る画像処理装置の一実施形態としての画像処理装置のハードウェアの構成を示すブロック図である。1 is a block diagram showing a hardware configuration of an image processing apparatus as an embodiment of an image processing apparatus according to the present invention. 図1の画像処理装置が実行する画像特定処理の概要を説明する図である。It is a figure explaining the outline | summary of the image specific process which the image processing apparatus of FIG. 1 performs. 図1の画像処理装置が画像特定処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for the image processing apparatus of FIG. 1 to perform an image specific process. 図1の画像処理装置が表示するセッティング画面の一例を示す図である。It is a figure which shows an example of the setting screen which the image processing apparatus of FIG. 1 displays. アドレス検出識別器を構築するための学習サンプルの一例を示す図である。It is a figure which shows an example of the learning sample for constructing | assembling an address detection discriminator. 設定部における差分算出領域を設定する機能的構成を説明する図である。It is a figure explaining the functional structure which sets the difference calculation area | region in a setting part. 差分算出領域1における差分評価値の分布の一例を示す図である。It is a figure which shows an example of distribution of the difference evaluation value in the difference calculation area. 図3の画像処理装置が実行する画像特定処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of image specifying processing executed by the image processing apparatus of FIG. 3. 図3の画像処理装置が実行する第2基準点設定処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of a second reference point setting process executed by the image processing apparatus of FIG. 3. 図3の画像処理装置が実行する第1基準点設定処理の流れを説明するフローチャートである。4 is a flowchart illustrating a flow of a first reference point setting process executed by the image processing apparatus of FIG. 3. 図3の画像処理装置が実行する差分算出領域3設定処理の流れを説明するフローチャートである。4 is a flowchart illustrating a flow of a difference calculation area 3 setting process executed by the image processing apparatus of FIG. 3.

以下、本発明の一実施形態を図面に基づいて説明する。
図1は、本発明に係る画像処理装置の一実施形態としての画像処理装置1のハードウェアの構成を示すブロック図である。画像処理装置1は、例えばデジタルカメラにより構成することができる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a hardware configuration of an image processing apparatus 1 as an embodiment of an image processing apparatus according to the present invention. The image processing apparatus 1 can be configured by a digital camera, for example.

画像処理装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、操作部18と、表示部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The image processing apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging. A unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are provided.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。RAM13にはまた、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13. The RAM 13 also stores data necessary for the CPU 11 to execute various processes as appropriate.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
ここで、本実施形態では、画像処理装置1による画像の処理単位は一枚の静止画像であり、このような処理単位としての静止画像が、本明細書では「フレーム画像」と呼ばれている。即ち、本実施形態では、動画像は複数のフレーム画像から構成されており、フレーム画像毎に処理が実行される。そこで、以下、特に断りがない限り、画像とはフレーム画像を意味するものとし、画像データとはフレーム画像のデータを意味するものとする。
例えば、画像処理部14は、後述する撮像部17から出力される画像データに対して、ノイズ低減、ホワイトバランス、手ぶれ補正等の画像処理を施す。
The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.
Here, in this embodiment, the processing unit of the image by the image processing apparatus 1 is one still image, and the still image as such a processing unit is referred to as a “frame image” in this specification. . That is, in the present embodiment, the moving image is composed of a plurality of frame images, and processing is executed for each frame image. Therefore, hereinafter, unless otherwise specified, an image means a frame image and an image data means frame image data.
For example, the image processing unit 14 performs image processing such as noise reduction, white balance, and camera shake correction on image data output from the imaging unit 17 described later.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、操作部18、表示部19、記憶部20、通信部21、及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an operation unit 18, a display unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
なお、以下、撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。したがって、撮像部17からは画像データが出力されて、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Hereinafter, the output signal of the imaging unit 17 is referred to as “captured image data”. Therefore, image data is output from the imaging unit 17 and is appropriately supplied to the CPU 11, the image processing unit 14, and the like.

操作部18は、各種釦等で構成され、ユーザの指示操作を受け付ける。
表示部19は、液晶ディスプレイ等で構成され、各種画像を表示する。
記憶部20は、DRAM(Dynamic Random Access Memory)等で構成され、画像処理部14等から出力された画像のデータを一時的に記憶する。また、記憶部20は、画像処理部14等の処理に必要な各種データも記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The operation unit 18 includes various buttons and the like, and accepts user instruction operations.
The display unit 19 is composed of a liquid crystal display or the like and displays various images.
The storage unit 20 is configured by a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores image data output from the image processing unit 14 or the like. The storage unit 20 also stores various data necessary for processing by the image processing unit 14 and the like.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなるリムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像データ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

このような構成を有する画像処理装置1は、撮像の前後を通じて、ライブビュー撮像処理及びライブビュー表示処理を開始する。
即ち、画像処理装置1は、撮像部17による撮像動作を継続させ、その間、当該撮像部17を介して画像処理部14からフレーム画像の単位で順次出力される画像データを、メモリ(本実施形態では記憶部20)に一時的に記憶させる。このような一連の処理が、ここでいう「ライブビュー撮像処理」である。
また、画像処理装置1は、ライブビュー撮像時にメモリ(本実施形態では記憶部20)に一時的にフレーム画像の単位で記録された各画像データを順次読み出して、各々に対応するフレーム画像を表示部19に順次表示させる。このような一連の制御処理が、ここでいう「ライブビュー表示処理」である。なお、ライブビュー表示処理により表示部19に表示されているフレーム画像を、以下、「ライブビュー画像」と呼ぶ。
The image processing apparatus 1 having such a configuration starts live view imaging processing and live view display processing before and after imaging.
That is, the image processing apparatus 1 continues the imaging operation by the imaging unit 17, and during that time, image data sequentially output from the image processing unit 14 in units of frame images via the imaging unit 17 is stored in a memory (this embodiment). Then, it is temporarily stored in the storage unit 20). Such a series of processes is a “live view imaging process” referred to herein.
In addition, the image processing apparatus 1 sequentially reads out each image data temporarily recorded in units of frame images in the memory (storage unit 20 in the present embodiment) at the time of live view imaging, and displays a corresponding frame image. Displayed sequentially on the unit 19. Such a series of control processes is the “live view display process” referred to herein. The frame image displayed on the display unit 19 by the live view display process is hereinafter referred to as “live view image”.

ユーザは、ライブビュー画像をみながら構図を決めた後、操作部18のシャッタスイッチ(図示せず)を下限まで押下することで、画像データの記録の指示をすることができる。なお、このように、シャッタスイッチを下限まで押下する操作を、以下、「全押し操作」又は単に「全押し」と呼ぶ。
なお、以下、ライブビュー撮像処理及びライブビュー表示処理のための撮像と区別すべく、全押し操作により記録の指示がなされたときの撮像を、「記録用撮像」と呼ぶ。
The user can instruct to record image data by determining the composition while viewing the live view image and then pressing a shutter switch (not shown) of the operation unit 18 to the lower limit. The operation of pressing the shutter switch to the lower limit in this way is hereinafter referred to as “full press operation” or simply “full press”.
Hereinafter, in order to distinguish from imaging for live view imaging processing and live view display processing, imaging when a recording instruction is issued by a full-press operation is referred to as “recording imaging”.

画像処理装置1は、全押し操作により記録の指示がなされたとき、記録用撮像として、被写体の一連の動作を撮像した連続する複数の画像データを、記憶部20又はリムーバブルメディア31に記録する。ここで、本実施形態において、「連続する複数の画像データ」は、動画又は連写された静止画の画像データである。   When a recording instruction is given by a full-press operation, the image processing apparatus 1 records a plurality of continuous image data obtained by capturing a series of movements of a subject in the storage unit 20 or the removable medium 31 as a recording image. Here, in the present embodiment, “a plurality of continuous image data” is image data of a moving image or a continuously shot still image.

図2は、図1の画像処理装置1が実行する画像特定処理の概要を説明する図である。
画像特定処理は、被写体の一連の動作が連続して撮像された複数の画像データの中から、一連の動作における所定の状態の画像データを特定する処理である。
具体的には、画像特定処理は、例えば、被写体であるユーザのゴルフクラブのスイングにおける一連の動作が連続して撮像された複数の画像データの中から、例えば、所定の状態として、ハーフウェイバック(バックスイングでクラブが地面と並行になった状態)、トップ(バックスイングでクラブのヘッドが頂点にきた状態)、フォロースルー(ボールを打った後、クラブが地面と並行になった状態)等の状態を撮像した画像を特定する処理である。
なお、画像特定処理は、ハーフウェイダウン(ダウンスイングでクラブが地面と並行になった状態)が撮像された画像データを特定することもできる。
FIG. 2 is a diagram for explaining an outline of the image specifying process executed by the image processing apparatus 1 of FIG.
The image specifying process is a process of specifying image data in a predetermined state in a series of operations from a plurality of image data obtained by continuously capturing a series of operations of a subject.
Specifically, the image specifying process is performed by, for example, halfway back as a predetermined state from a plurality of pieces of image data obtained by continuously capturing a series of operations in a swing of a user's golf club as a subject. (Back swing with the club parallel to the ground), Top (back swing with the club head at the top), Follow-through (after hitting the ball, the club parallel to the ground), etc. It is the process which specifies the image which imaged this state.
The image specifying process can also specify image data obtained by capturing a halfway down (a state in which the club is parallel to the ground by a downswing).

画像処理装置1は、被写体であるユーザの一連の動作(ゴルフクラブのスイング)を連続して撮像した複数の画像データを記憶部20又はリムーバブルメディア31から取得する。
そして、画像処理装置1は、この取得された複数の画像データの各々に、被写体に応じた複数の差分算出領域群を設定する。本実施形態では、画像処理装置1は、差分算出領域群1、2及び3を設定する。
The image processing apparatus 1 acquires, from the storage unit 20 or the removable medium 31, a plurality of image data obtained by continuously capturing a series of actions (golf club swing) of a user who is a subject.
Then, the image processing apparatus 1 sets a plurality of difference calculation area groups corresponding to the subject in each of the acquired plurality of image data. In the present embodiment, the image processing apparatus 1 sets the difference calculation area groups 1, 2, and 3.

具体的には、画像処理装置1は、例えば、ユーザのアドレス(ボールの前に立ち、ゴルフクラブのヘッドをボールの脇に添えた状態)を撮像した画像データにおける、ユーザの頭の位置に基づく点Aとボールの位置に基づく点Bとからユーザの大きさと位置を決定する。
そして、画像処理装置1は、この決定したユーザの大きさと位置に応じた差分算出領域群1、2及び3を設定する。
Specifically, the image processing apparatus 1 is based on, for example, the position of the user's head in image data obtained by imaging the user's address (a state in which the user stands in front of the ball and the golf club head is attached to the side of the ball). The size and position of the user are determined from the point A and the point B based on the position of the ball.
Then, the image processing apparatus 1 sets the difference calculation area groups 1, 2, and 3 according to the determined size and position of the user.

差分算出領域群1は、ハーフウェイバックの状態が撮像された画像データを特定するために設定される複数の差分算出領域(SWb1,SWb2,SWb3,・・・,SWbn)から成る。なお、差分算出領域群1は、ハーフウェイダウンが撮像された画像データを特定するために用いてもよい。
差分算出領域群2は、フォロースルーの状態が撮像された画像データを特定するために設定される複数の差分算出領域(SWf1,SWf2,SWf3,・・・,SWfn)から成る。
差分算出領域3は、トップの状態が撮像された画像データを特定するために設定される複数の差分算出領域(SWt1,SWt2,SWt3,・・・,SWtn)から成る。
また、画像処理装置1は、トップの状態が撮像された画像データを特定するために、まず、複数の1次差分算出領域から成る1次差分算出領域群を設定し、これら複数の1次差分算出領域の中から、クラブのヘッドの移動が反転する位置を含む1次差分算出領域群を決定する。そして、画像処理装置1は、この決定された1次差分算出領域群において、差分算出領域群3を設定する。
The difference calculation area group 1 includes a plurality of difference calculation areas (SWb1, SWb2, SWb3,..., SWbn) set in order to specify image data in which the halfway back state is captured. Note that the difference calculation area group 1 may be used to specify image data obtained by capturing a halfway down.
The difference calculation area group 2 includes a plurality of difference calculation areas (SWf1, SWf2, SWf3,..., SWfn) set in order to specify image data in which the follow-through state is captured.
The difference calculation area 3 includes a plurality of difference calculation areas (SWt1, SWt2, SWt3,..., SWtn) set in order to specify image data in which the top state is captured.
The image processing apparatus 1 first sets a primary difference calculation area group composed of a plurality of primary difference calculation areas in order to identify image data in which the top state is captured, and the plurality of primary differences. A primary difference calculation area group including a position where the movement of the club head is reversed is determined from the calculation areas. Then, the image processing apparatus 1 sets the difference calculation area group 3 in the determined primary difference calculation area group.

次に、画像処理装置1は、設定された差分算出領域群毎に、連続する画像データ間における同一領域中の画素の成分の差分値を算出する。
具体的には、画像処理装置1は、差分算出領域群1、2及び3のそれぞれについて、設定された差分算出領域毎(例えば、SWb1,SWb2,SWb3,・・・,SWbn毎)に、連続する画像データ間における同一領域中の画素の色成分の差分値を算出する。
Next, the image processing apparatus 1 calculates the difference value of the component of the pixel in the same area | region between continuous image data for every set difference calculation area group.
Specifically, for each of the difference calculation area groups 1, 2, and 3, the image processing apparatus 1 continues for each set difference calculation area (for example, for each SWb 1, SWb 2, SWb 3,..., SWbn). The difference value of the color component of the pixel in the same area | region between the image data to perform is calculated.

そして、画像処理装置1は、算出された差分値に基づいて、一連の動作における所定の状態の画像データを特定する。具体的には、画像処理装置1は、差分算出領域1において算出した差分値に基づき、ハーフウェイバックの状態が撮像された画像データを特定する。また、画像処理装置1は、差分算出領域2において算出した差分値に基づき、フォロースルーの状態が撮像された画像データを特定する。また、画像処理装置1は、差分算出領域3群において算出した差分値に基づき、トップの状態が撮像された画像データを特定する。   Then, the image processing apparatus 1 identifies image data in a predetermined state in a series of operations based on the calculated difference value. Specifically, the image processing apparatus 1 identifies image data in which a halfway back state is captured based on the difference value calculated in the difference calculation area 1. Further, the image processing apparatus 1 identifies image data in which the follow-through state is captured based on the difference value calculated in the difference calculation area 2. Further, the image processing apparatus 1 specifies image data in which the top state is imaged based on the difference values calculated in the difference calculation region 3 group.

そして、画像処理装置1は、例えば、ユーザの操作に基づき、ハーフウェイバックの状態が撮像された画像データによるフレーム画像、フォロースルーの状態が撮像された画像データによるフレーム画像又はトップの状態が撮像された画像データによるフレーム画像を、表示部19に表示する。   The image processing apparatus 1 captures, for example, a frame image based on image data in which the halfway back state is captured, a frame image based on image data in which the follow-through state is captured, or a top state based on a user operation. A frame image based on the image data thus displayed is displayed on the display unit 19.

図3は、図1の画像処理装置1が画像特定処理を実行するための機能的構成を示す機能ブロック図である。
図3においては、図1の画像処理装置1の構成のうち、CPU11と、画像処理部14と、撮像部17と、操作部18と、表示部19と、記憶部20と、のみが図示されている。画像処理装置1は、CPU11と画像処理部14とが協働し、記憶部20に記憶されたデータを参照して、画像特定処理を実行する。
FIG. 3 is a functional block diagram showing a functional configuration for the image processing apparatus 1 of FIG. 1 to execute the image specifying process.
3, only the CPU 11, the image processing unit 14, the imaging unit 17, the operation unit 18, the display unit 19, and the storage unit 20 are illustrated in the configuration of the image processing apparatus 1 in FIG. 1. ing. In the image processing apparatus 1, the CPU 11 and the image processing unit 14 cooperate to execute image specifying processing with reference to data stored in the storage unit 20.

CPU11においては、画像特定処理が実行される場合、制御部51が機能する。
画像処理装置1は、操作部18において、ユーザにより、解析モードが選択された場合、ライブビュー画像を表示部19に表示し、画像特定処理を開始する。本実施形態において、「解析モード」とは、画像特定処理が実行されるモードである。具体的には、ユーザは、操作部18において「解析モード」を選択することで、一連の動作であるゴルフクラブのスイングを撮像し、所定の状態であるハーフウェイバック、フォロースルー及びトップの状態が撮像された画像を表示部19に表示できる。
In the CPU 11, the control unit 51 functions when the image specifying process is executed.
When the analysis mode is selected by the user in the operation unit 18, the image processing apparatus 1 displays a live view image on the display unit 19 and starts an image specifying process. In the present embodiment, the “analysis mode” is a mode in which image specifying processing is executed. Specifically, the user selects a “analysis mode” in the operation unit 18 to image a swing of a golf club as a series of operations, and is in a predetermined state of halfway back, follow-through, and top state. Can be displayed on the display unit 19.

制御部51は、ユーザにより解析モードが選択されると、画像特定処理を開始し、表示部19にセッティング画面を表示する制御を行う。
図4は、図1の画像処理装置1が表示するセッティング画面の一例を示す図である。
制御部51は、セッティング画面において、ボールから画像処理装置1の設置位置までの距離を指示する表示とともに、例えば、円形状の枠を表示し、ボールが当該枠内に入るように画像処理装置1を設置する指示を表示する。このような表示は、解析モードにおいて、適正な画角を得るように、画像処理装置1を設置するときの目安となる。また、制御部51は、セッティング画面において、上記枠内にボールが入るように画像処理装置1を設置した後に、操作部18(図4の文字表示における「校正ボタン」)を操作する指示を表示する。
When the analysis mode is selected by the user, the control unit 51 starts image specifying processing and performs control to display a setting screen on the display unit 19.
FIG. 4 is a diagram illustrating an example of a setting screen displayed by the image processing apparatus 1 of FIG.
On the setting screen, the control unit 51 displays, for example, a circular frame along with a display for instructing the distance from the ball to the installation position of the image processing apparatus 1 so that the ball enters the frame. Displays instructions for installing the. Such a display is a guideline for installing the image processing apparatus 1 so as to obtain an appropriate angle of view in the analysis mode. Further, the control unit 51 displays an instruction to operate the operation unit 18 (“calibration button” in the character display of FIG. 4) after setting the image processing apparatus 1 so that the ball enters the frame on the setting screen. To do.

図3に戻って、ユーザにより操作部18が操作されると、画像処理部14においては、取得部41と、基準被写体領域設定部42と、第2基準点設定部43と、基準領域設定部44と、検出部45と、第1基準点設定部46と、決定部47と、設定部48と、算出部49と、特定部50と、が機能する。   Returning to FIG. 3, when the operation unit 18 is operated by the user, in the image processing unit 14, the acquisition unit 41, the reference subject region setting unit 42, the second reference point setting unit 43, and the reference region setting unit 44, the detection unit 45, the first reference point setting unit 46, the determination unit 47, the setting unit 48, the calculation unit 49, and the specifying unit 50 function.

取得部41は、背景より明るい色で形成された基準被写体を撮像した基準画像データを取得する。本実施形態において、「背景より明るい色で形成された基準被写体」とは、通常、白色であるゴルフボールである。また、本実施形態において、「基準画像データ」とは、セッティング画面において上記枠内にボールが入るように画像処理装置1を設置し、ユーザによる操作部18の操作を契機に、撮像部17により撮像された画像データである。
なお、基準画像データは、人が撮像されていない画像データであることが望ましい。これにより、後述する第2基準点設定部43による第2基準点の設定精度が向上し、これに伴い、最終的に所定の状態が撮像された画像データを特定する精度が向上する。
The acquisition unit 41 acquires reference image data obtained by capturing an image of a reference subject formed in a brighter color than the background. In the present embodiment, the “reference subject formed in a brighter color than the background” is a golf ball that is usually white. Further, in the present embodiment, “reference image data” means that the image processing unit 1 is installed so that the ball enters the frame on the setting screen, and triggered by the operation of the operation unit 18 by the user. It is the imaged image data.
Note that the reference image data is desirably image data in which a person is not imaged. Thereby, the setting precision of the 2nd reference point by the 2nd reference point setting part 43 mentioned below improves, and the precision which specifies finally the image data by which the predetermined state was imaged improves.

基準被写体領域設定部42は、基準画像データにおいて、基準被写体を含む領域(以下、「基準被写体領域」と呼ぶ)を設定する。具体的には、基準被写体領域設定部42は、セッティング画面において表示されていた枠内の領域を、基準被写体領域として設定する。   The reference subject region setting unit 42 sets a region including the reference subject (hereinafter referred to as “reference subject region”) in the reference image data. Specifically, the reference subject area setting unit 42 sets the area within the frame displayed on the setting screen as the reference subject area.

第2基準点設定部43は、基準被写体領域設定部42により設定された基準被写体領域において、輝度が所定の閾値以上の画素からなる画素群の重心を算出し、当該重心の位置に第2基準点を設定する。
ここで、本実施形態において、基準画像データは、YUV形式(Y:輝度信号、U:輝度信号と青色成分の差、V:輝度信号と赤色成分の差)の画像データである。なお、基準画像データは、YUV形式に限らず、RGB形式(R:赤、G:緑、B:青)の画像データであってもよい。
The second reference point setting unit 43 calculates the center of gravity of a pixel group including pixels having a luminance equal to or higher than a predetermined threshold in the reference subject region set by the reference subject region setting unit 42, and sets the second reference point at the position of the center of gravity. Set a point.
Here, in the present embodiment, the reference image data is image data in YUV format (Y: luminance signal, U: difference between luminance signal and blue component, V: difference between luminance signal and red component). The reference image data is not limited to the YUV format, and may be image data in the RGB format (R: red, G: green, B: blue).

詳細には、第2基準点設定部43は、YUV形式の基準画像データから、基準被写体領域の各画素の輝度を計測しヒストグラムを作成する。ここで、基準画像データの基準被写体領域には、人が入っていなければ、通常、ゴルフボールが設置される緑色の芝と、緑色より輝度が高い白色のゴルフボールが撮像されている。
第2基準点設定部43は、ヒストグラムにおいて、輝度が高い方から、所定量の画素が含まれる輝度の下限値を閾値に設定する。そして、第2基準点設定部43は、基準被写体領域において、輝度が所定の閾値以上の画素からなる画素群の重心を算出し、当該重心の位置に第2基準点(例えば、図1中点B)を設定する。即ち、第2基準点は、基準画像データにおけるゴルフボールの中心座標である。
なお、当該ヒストグラムが適正に算出できるのであれば、セッティング画面において表示される枠によらなくともゴルフボールの中心座標が算出可能である。
Specifically, the second reference point setting unit 43 measures the luminance of each pixel in the reference subject area from the reference image data in the YUV format and creates a histogram. Here, if the person is not in the reference subject area of the reference image data, the green grass on which the golf ball is placed and the white golf ball having a higher luminance than green are usually imaged.
In the histogram, the second reference point setting unit 43 sets the lower limit value of the luminance including a predetermined amount of pixels as the threshold value from the higher luminance. Then, the second reference point setting unit 43 calculates the center of gravity of the pixel group composed of pixels having a luminance equal to or higher than a predetermined threshold in the reference subject region, and sets the second reference point (for example, the middle point in FIG. 1) at the position of the center of gravity. B) is set. That is, the second reference point is the center coordinate of the golf ball in the reference image data.
If the histogram can be calculated appropriately, the center coordinates of the golf ball can be calculated without using the frame displayed on the setting screen.

CPU11の制御部51は、第2基準点設定部43が第2基準点を設定すると、表示部19において、ユーザにゴルフスイングを促す画面を表示する制御を行うとともに、撮像部17を制御して記録用撮像を開始する。   When the second reference point setting unit 43 sets the second reference point, the control unit 51 of the CPU 11 controls the display unit 19 to display a screen that prompts the user to make a golf swing and controls the imaging unit 17. Start recording imaging.

取得部41は、撮像部17により、被写体の一連の動作であるゴルフスイングが連続して撮像された複数の画像データを取得する。
基準領域設定部44は、取得部41により取得された画像データ内において、被写体を含む所定の大きさの基準領域を設定する。
ここで、本実施形態において、「基準領域」とは、例えば、セッティング画面(図4参照)でユーザに指示した位置に画像処理装置1が設置された場合において、アドレス姿勢のユーザ及びゴルフボールを囲む矩形形状の領域である。
The acquisition unit 41 acquires a plurality of pieces of image data in which a golf swing, which is a series of actions of the subject, is continuously captured by the imaging unit 17.
The reference area setting unit 44 sets a reference area having a predetermined size including the subject in the image data acquired by the acquisition unit 41.
Here, in the present embodiment, the “reference area” refers to, for example, the user and golf ball in the address posture when the image processing apparatus 1 is installed at the position designated by the user on the setting screen (see FIG. 4). This is an enclosing rectangular area.

記憶部20は、一連の動作における初期状態を検出するための検出用情報を記憶する。
ここで、本実施形態において、「初期状態」とは、一連の動作であるゴルフスイングにおけるユーザのアドレス姿勢である。また、本実施形態において、「検出用情報」とは、アドレス姿勢の画像データを検出するためのアドレス検出識別器である。
The storage unit 20 stores detection information for detecting an initial state in a series of operations.
Here, in the present embodiment, the “initial state” is a user's address posture in a golf swing that is a series of operations. In the present embodiment, “detection information” is an address detection discriminator for detecting image data of an address posture.

アドレス検出識別器は、学習サンプルとして、アドレス姿勢の画像データ群であるポジティブサンプルと、アドレス姿勢以外の画像データ群であるネガティブサンプルを用いて、例えば、HOG(Histograms of Oriented Gradients)特徴量とAdaBoost(Adaptive Boosting)よる機械学習により構築される。アドレス検出識別器は、詳細には、ポジティブサンプル及びネガティブサンプルの各画像データのエッジ方向ヒストグラムの特徴であるHOG特徴量を算出して弱識別器を構築し、構築した弱識別器に重み付けをすることで構築された強識別器である。   The address detection discriminator uses, as learning samples, a positive sample that is an image data group of an address posture and a negative sample that is an image data group other than the address posture, for example, HOG (Histograms of Oriented Gradients) feature quantity and AdaBoost. It is constructed by machine learning by (Adaptive Boosting). Specifically, the address detection discriminator constructs a weak discriminator by calculating the HOG feature quantity that is a feature of the edge direction histogram of each image data of the positive sample and the negative sample, and weights the constructed weak discriminator. It is a strong classifier constructed by this.

図5は、アドレス検出識別器を構築するための学習サンプルの一例を示す図である。図5中、(a)及び(b)はポジティブサンプルを示し、(c)及び(d)はネガティブサンプルを示す。
ポジティブサンプルは、図5(a)及び(b)に示すように、様々な人のゴルフスイングのアドレス姿勢の画像データを含む。また、ネガティブサンプルは、図5(c)に示すように、人が全く含まれていない画像データに加えて、(d)に示すように、アドレス姿勢でない人の画像データも含む。このような学習サンプルを用いて機械学習することで、アドレス姿勢に近い姿勢ほど、厳密に識別できる強識別機を形成できる。
また、図5に示す矩形の枠は、基準領域設定部44により設定される基準領域と同じ画素数で形成された領域であり、アドレス検出識別器は、当該領域の画素を学習サンプルとして構築される。
FIG. 5 is a diagram illustrating an example of a learning sample for constructing an address detection discriminator. In FIG. 5, (a) and (b) show positive samples, and (c) and (d) show negative samples.
As shown in FIGS. 5A and 5B, the positive sample includes image data of address postures of various people's golf swings. Further, as shown in FIG. 5C, the negative sample includes image data of a person who is not in an address posture, as shown in FIG. 5D, in addition to image data that does not contain any person. By performing machine learning using such learning samples, it is possible to form a strong classifier that can be more accurately identified as the posture is closer to the address posture.
The rectangular frame shown in FIG. 5 is an area formed with the same number of pixels as the reference area set by the reference area setting unit 44, and the address detection discriminator is constructed using the pixels in the area as learning samples. The

検出部45は、記憶部20に記憶された検出用情報としてのアドレス検出識別器を用いて、取得部41により取得された複数の画像データの中から、基準領域設定部44により設定された基準領域における特徴量が最も高い初期状態の画像データをアドレス時の画像データとして検出する。
検出部45は、具体的には、取得部41により取得された複数の画像データそれぞれに対して、記憶部20に記憶されたアドレス検出識別器を時系列順に使用してアドレス姿勢の画像データか否かの識別を行い、出力が最も高かった画像データを初期状態の画像データとして検出する。
The detection unit 45 uses the address detection discriminator as detection information stored in the storage unit 20 and uses the reference region set by the reference region setting unit 44 from among a plurality of image data acquired by the acquisition unit 41. Image data in an initial state having the highest feature amount in the region is detected as image data at the time of addressing.
Specifically, the detection unit 45 uses the address detection discriminator stored in the storage unit 20 for each of the plurality of image data acquired by the acquisition unit 41 in time series order to determine whether the image data of the address posture is used. The image data with the highest output is detected as the initial image data.

第1基準点設定部46は、検出部45により検出された初期状態の画像データの基準領域において、第1基準点(例えば、図2中点A)を自動的に設定する。
ここで、本実施形態において、「第1基準点」は、基準領域の内部において、予め設定された位置であり、基準領域の上端近傍の中央、即ち、アドレス姿勢をとる人の頭部がくると推定される位置である。
ここで、例えば、アドレス検出識別器により検出されたアドレス姿勢の画像データの領域中の所定の位置を頭部の位置と予め設定することで、第1基準点を自動的に設定することができる。
このように、第1基準点が設定されることにより画像データ中の被写体の位置を決定することができる。
The first reference point setting unit 46 automatically sets a first reference point (for example, point A in FIG. 2) in the reference region of the initial image data detected by the detection unit 45.
Here, in the present embodiment, the “first reference point” is a preset position within the reference region, and the center near the upper end of the reference region, that is, the head of a person taking an address posture comes. This is the estimated position.
Here, for example, the first reference point can be automatically set by presetting a predetermined position in the image data area of the address posture detected by the address detection discriminator as the position of the head. .
Thus, the position of the subject in the image data can be determined by setting the first reference point.

決定部47は、第1基準点設定部46により設定された第1基準点(例えば、図2中点A)と、第2基準点設定部43により設定された第2基準点(例えば、図2中点B)とに基づき、被写体の大きさと位置を決定する。   The determination unit 47 includes a first reference point set by the first reference point setting unit 46 (for example, the point A in FIG. 2) and a second reference point set by the second reference point setting unit 43 (for example, FIG. 2 middle point B), the size and position of the subject are determined.

設定部48は、取得部41により取得された複数の画像データの各々に、被写体に応じた複数の差分算出領域群を設定する。詳細には、設定部48は、決定部47により決定された被写体の大きさと位置に応じた複数の差分算出領域群を設定する。即ち、設定部48は、第1基準点設定部46により設定された第1基準点に基づき、差分算出領域群を設定する。   The setting unit 48 sets a plurality of difference calculation area groups corresponding to the subject in each of the plurality of image data acquired by the acquisition unit 41. Specifically, the setting unit 48 sets a plurality of difference calculation area groups according to the size and position of the subject determined by the determination unit 47. That is, the setting unit 48 sets a difference calculation region group based on the first reference point set by the first reference point setting unit 46.

図6は、設定部48における差分算出領域群を設定する機能的構成を説明する図である。
具体的には、設定部48は、決定部47により決定された被写体の大きさと位置に応じた矩形形状の差分算出領域群1、2及び3を設定する。
FIG. 6 is a diagram illustrating a functional configuration for setting the difference calculation area group in the setting unit 48.
Specifically, the setting unit 48 sets rectangular difference calculation region groups 1, 2, and 3 according to the size and position of the subject determined by the determination unit 47.

差分算出領域群1は、ハーフウェイバックの状態が撮像された画像データを特定するために設定される複数の差分算出領域(SWb1,・・・,SWbn)から成る。
差分算出領域群2は、フォロースルーの状態が撮像された画像データを特定するために設定される複数の差分算出領域(SWf1,・・・,SWfn)から成る。
差分算出領域群3は、トップが撮像された画像データを特定するために設定される複数の差分算出領域(SWt1,・・・,SWtn)から成る。
また、設定部48は、トップが撮像された画像データを特定するために、まず、複数の1次差分算出領域から成る1次差分算出領域群を設定し、これら複数の1次差分算出領域の中から、クラブのヘッドの移動が反転する位置を含む1次差分算出領域を決定する。そして、設定部48は、この決定された1次差分算出領域において、差分算出領域群3を設定する。
つまり、設定部48は、決定された1次差分算出領域から他の差分算出領域群(差分算出領域群3)に変更するように設定をする。
The difference calculation area group 1 includes a plurality of difference calculation areas (SWb1,..., SWbn) set in order to specify image data in which a halfway back state is captured.
The difference calculation area group 2 includes a plurality of difference calculation areas (SWf1,..., SWfn) set in order to specify image data in which the follow-through state is captured.
The difference calculation area group 3 includes a plurality of difference calculation areas (SWt1,..., SWtn) set in order to specify image data in which the top is imaged.
The setting unit 48 first sets a primary difference calculation area group composed of a plurality of primary difference calculation areas in order to specify image data in which the top is imaged, and sets the plurality of primary difference calculation areas. A primary difference calculation area including a position where the movement of the club head is reversed is determined. Then, the setting unit 48 sets the difference calculation area group 3 in the determined primary difference calculation area.
That is, the setting unit 48 performs setting so as to change from the determined primary difference calculation area to another difference calculation area group (difference calculation area group 3).

設定部48は、決定部47により決定された被写体の大きさと位置に応じて、差分算出領域群1の、例えば、SWbnの中心座標(wb1xn,wb1yn)を以下の数式により算出する。   The setting unit 48 calculates, for example, the center coordinates (wb1xn, wb1yn) of the SWbn of the difference calculation area group 1 according to the following formulas according to the size and position of the subject determined by the determination unit 47.

(数1)
wb1xn=ave_x+bs1x
wb1yn=ave_y+bs1y+N*D
ave_x=(Mx+in_head_x)/2
ave_y=(My+in_head_y)/2
bs1x=−float(cor_y)*P1
bs1y=−cor_y/2
cor_y=My−in_head_y
(Equation 1)
wb1xn = ave_x + bs1x
wb1yn = ave_y + bs1y + N * D
ave_x = (Mx + in_head_x) / 2
ave_y = (My + in_head_y) / 2
bs1x = −float (cor_y) * P1
bs1y = −cor_y / 2
cor_y = My-in_head_y

数1における「ave_x」及び「ave_y」は、第1基準点(図6中点A:人の頭の中心点)と、第2基準点(図6中点B:ゴルフボールの中心点)とから算出される人体位置調整項である。
「Mx」は、点BのX位置を示す。「in_head_x」は、点AのX位置を示す。即ち、「ave_x」は、スイングする人の中心X位置を示す。
「My」は、点BのY位置を示す。「in_head_y」は、点AのY位置を示す。即ち、「ave_y」は、スイングする人の中心Y位置を示す。
“Ave_x” and “ave_y” in Equation 1 are the first reference point (point A in FIG. 6: center point of the human head) and the second reference point (point B in FIG. 6: center point of the golf ball). It is a human body position adjustment term calculated from
“Mx” indicates the X position of the point B. “In_head_x” indicates the X position of the point A. That is, “ave_x” indicates the center X position of the swinging person.
“My” indicates the Y position of the point B. “In_head_y” indicates the Y position of the point A. That is, “ave_y” indicates the center Y position of the person who swings.

数1における「bs1x」は、スイングする人の中心位置に対する、差分算出領域群1の中心位置の距離調整幅(横方向)を示す。「bs1x」は、腕を伸ばした位置が差分算出領域群1の右端になるように設定される。
「float(cor_y)」は、点BのY位置から点AのY位置までの距離である被写体の大きさを示し、具体的には、スイングする人の身長と仮定する値である。
「P1」は、差分算出領域群1にゴルフクラブのシャフトのみが入るように、予め設定されたパラメータであり、1より小さい値で設定される。差分算出領域群1にゴルフクラブのシャフトのみが入るようにすることで、差分算出領域群1における連続する画像データ間の画素の色成分の差分が明確になり、後述する特定部50による画像データの特定の精度を向上できる。
“Bs1x” in Equation 1 indicates the distance adjustment width (lateral direction) of the center position of the difference calculation region group 1 with respect to the center position of the person who swings. “Bs1x” is set so that the position where the arm is extended becomes the right end of the difference calculation region group 1.
“Float (cor_y)” indicates the size of the subject, which is the distance from the Y position of the point B to the Y position of the point A, and is specifically a value assumed to be the height of the person who swings.
“P1” is a parameter set in advance so that only the shaft of the golf club enters the difference calculation region group 1, and is set to a value smaller than 1. By allowing only the golf club shaft to enter the difference calculation area group 1, the difference in pixel color components between successive image data in the difference calculation area group 1 becomes clear, and image data by the specifying unit 50 to be described later The specific accuracy of can be improved.

数1における「bs1y」は、スイングする人の中心位置に対する、差分算出領域1の中心位置の距離調整幅(縦方向)を示す。「bs1y」は、頭の位置とボール位置のほぼ中心が差分算出領域1の中心になるように設定される。
「cor_y」は、点BのY位置から点AのY位置までの距離である被写体の大きさを示し、具体的には、スイングする人の身長と仮定する値である。
“Bs1y” in Equation 1 indicates the distance adjustment width (vertical direction) of the center position of the difference calculation region 1 with respect to the center position of the person who swings. “Bs1y” is set so that the approximate center of the head position and the ball position is the center of the difference calculation area 1.
“Cor_y” indicates the size of the subject, which is the distance from the Y position of the point B to the Y position of the point A, and is specifically a value assumed to be the height of the person who swings.

数1における「N」は、差分算出領域1における複数の領域の段数を示す。段数は、Y軸プラス方向最上段の領域を1とし、例えば、Y軸マイナス方向に向かって1段下がると2となり、2段下がると3となる。
数1における「D」は、ずらし幅を示す。ずらし幅は、例えば、所定のドット数(例えば、5ドット)に予め設定されている。
“N” in Equation 1 indicates the number of stages of a plurality of regions in the difference calculation region 1. The number of steps is set to 1 in the uppermost region in the Y-axis plus direction, for example, 2 when lowered by 1 step in the Y-axis minus direction, and 3 when lowered by 2 steps.
“D” in Equation 1 indicates a shift width. For example, the shift width is set in advance to a predetermined number of dots (for example, 5 dots).

本実施形態では、差分算出領域群1は、SWb1からY軸マイナス方向に5ドットずつずらして9段の領域(SWb1〜SWb9)が設定されている。また、複数の領域(SWb1〜SWb9)は、互いに一部重複するように設定されている。
このように、差分算出領域における複数の領域を互いに一部重複するように設定することで、被写体(例えば、スイングする人)の微妙な大きさ(例えば、スイングする人の体格)や一連の動作(スイングの癖等)の違いがあっても、確実に一連の動作における所定の状態(ハーフウェイバック、トップ、フォロースルーの状態)を撮像した画像データを特定できる。
In the present embodiment, the difference calculation area group 1 is set with nine stages of areas (SWb1 to SWb9) that are shifted by 5 dots from SWb1 in the negative Y-axis direction. The plurality of areas (SWb1 to SWb9) are set so as to partially overlap each other.
In this way, by setting a plurality of areas in the difference calculation area so as to partially overlap each other, a subtle size of the subject (for example, a swinging person) (for example, the physique of a swinging person) and a series of operations Even if there is a difference (such as swinging habits), it is possible to reliably identify image data obtained by imaging a predetermined state (half-way back, top, follow-through state) in a series of operations.

図6に示すように、設定部48は、矩形状の領域SWbnのX軸方向マイナス側端部の座標bxsnを中心座標wb1xnから所定値hb_downを減算した値に設定する。
また、設定部48は、矩形状の領域SWbnのX軸方向プラス側端部の座標bxenを中心座標wb1xnに所定値hb_downを加算した値に設定する。
また、設定部48は、矩形状の領域SWbnのY軸方向プラス側端部の座標bysnを中心座標wb1ynに所定値vbを加算した値に設定する。
また、設定部48は、矩形状の領域SWbnのY軸方向マイナス側端部の座標byenを中心座標wb1ynから所定値vdを減算した値に設定する。
As illustrated in FIG. 6, the setting unit 48 sets the coordinate bxsn of the X-axis direction minus side end of the rectangular area SWbn to a value obtained by subtracting a predetermined value hb_down from the center coordinate wb1xn.
Further, the setting unit 48 sets the coordinate bxen of the X-axis direction plus side end of the rectangular area SWbn to a value obtained by adding the predetermined value hb_down to the center coordinate wb1xn.
In addition, the setting unit 48 sets the coordinate bysn of the Y axis direction plus side end of the rectangular area SWbn to a value obtained by adding the predetermined value vb to the center coordinate wb1yn.
In addition, the setting unit 48 sets the coordinate byen of the negative end portion in the Y-axis direction of the rectangular region SWbn to a value obtained by subtracting the predetermined value vd from the center coordinate wb1yn.

設定部48は、決定部47により決定された被写体の大きさと位置に応じて、差分算出領域群2の、例えば、SWfnの中心座標(wf1xn,wf1yn)を以下の数式により算出する。   The setting unit 48 calculates, for example, the center coordinates (wf1xn, wf1yn) of the SWfn of the difference calculation area group 2 according to the following formulas according to the size and position of the subject determined by the determination unit 47.

(数2)
wf1xn=ave_x+fs1x
wf1yn=ave_y+fs1y+N*D
fs1x=cor_y*P2
fs1y=−cor_y/2
(Equation 2)
wf1xn = ave_x + fs1x
wf1yn = ave_y + fs1y + N * D
fs1x = cor_y * P2
fs1y = −cor_y / 2

以下、数2に示す数式について説明するが、数2において、数1の数式と同じ文字で示される値は数1の値と同じ値であるので説明を省略する。
数2における「fs1x」は、スイングする人の中心位置に対する、差分算出領域群2の中心位置の距離調整幅(横方向)を示す。「fs1x」は、腕を伸ばした位置が差分算出領域群2の左端になるように設定される。
「P2」は、差分算出領域2にゴルフクラブのシャフトのみが入るように、予め設定されたパラメータであり、1より小さい値で設定される。「P2」は、フォロースルーの状態が撮像された画像データを特定するために設定されため、ハーフウェイバックの状態が撮像された画像データを特定するための上記P1とは値が異なる。差分算出領域群2にゴルフクラブのシャフトのみが入るようにすることで、差分算出領域群2における連続する画像データ間の画素の色成分の差分が明確になり、後述する特定部50による画像データの特定の精度を向上できる。
In the following, the mathematical formula shown in Formula 2 will be described. In Formula 2, the value indicated by the same character as in Formula 1 is the same as the value in Formula 1, and the description thereof will be omitted.
“Fs1x” in Equation 2 indicates the distance adjustment width (lateral direction) of the center position of the difference calculation region group 2 with respect to the center position of the person who swings. “Fs1x” is set so that the position where the arm is extended becomes the left end of the difference calculation area group 2.
“P2” is a parameter set in advance so that only the golf club shaft enters the difference calculation region 2 and is set to a value smaller than 1. “P2” is set in order to identify the image data in which the follow-through state is captured, and thus has a value different from that of P1 for identifying the image data in which the half-way back state is captured. By allowing only the golf club shaft to enter the difference calculation area group 2, the difference in pixel color components between successive image data in the difference calculation area group 2 is clarified, and image data by the specifying unit 50 described later. The specific accuracy of can be improved.

数2における「fs1y」は、スイングする人の中心位置に対する、差分算出領域群2の中心位置の距離調整幅(縦方向)を示す。「fs1y」は、頭の位置とボール位置のほぼ中心が差分算出領域群2の中心になるように設定される。   “Fs1y” in Equation 2 indicates the distance adjustment width (vertical direction) of the center position of the difference calculation area group 2 with respect to the center position of the person who swings. “Fs1y” is set so that the approximate center between the head position and the ball position is the center of the difference calculation area group 2.

本実施形態では、差分算出領域群2は、SWf1からY軸マイナス方向に5ドットずつずらして9ヶ所の領域(SWf1〜SWf9)を設定している。   In this embodiment, the difference calculation area group 2 sets nine areas (SWf1 to SWf9) that are shifted by 5 dots in the Y-axis minus direction from SWf1.

図6に示すように、設定部48は、矩形状の領域SWfnのX軸方向マイナス側端部の座標fxsnを中心座標wf1xnから所定値hb_forwを減算した値に設定する。
また、設定部48は、矩形状の領域SWfnのX軸方向プラス側端部の座標fxenを中心座標wf1xnに所定値hb_forwを加算した値に設定する。
また、設定部48は、矩形状の領域SWfnのY軸方向プラス側端部の座標fysnを中心座標wf1ynに所定値vbを加算した値に設定する。
また、設定部48は、矩形状の領域SWfnのY軸方向マイナス側端部の座標fyenを中心座標wf1ynから所定値vbを減算した値に設定する。
As illustrated in FIG. 6, the setting unit 48 sets the coordinate fxsn of the negative end portion in the X-axis direction of the rectangular region SWfn to a value obtained by subtracting a predetermined value hb_forw from the center coordinate wf1xn.
Also, the setting unit 48 sets the coordinate fxen of the X-axis direction plus side end of the rectangular area SWfn to a value obtained by adding the predetermined value hb_forw to the center coordinate wf1xn.
Further, the setting unit 48 sets the coordinate fysn of the positive end portion in the Y-axis direction of the rectangular region SWfn to a value obtained by adding the predetermined value vb to the center coordinate wf1yn.
In addition, the setting unit 48 sets the coordinate fien of the negative end portion in the Y-axis direction of the rectangular area SWfn to a value obtained by subtracting the predetermined value vb from the center coordinate wf1yn.

ここで、一般的にゴルフのスイングでは、トップの状態のゴルフクラブの位置は、ハーフウェイバックやフォロースルーに比べ、非常に個人差があり、決定部47により決定された被写体の大きさと位置だけに基づき差分算出領域の設定した場合には、検出精度が期待できない場合が存在する。
このため、設定部48は、以下に機能的構成により、差分算出領域群3を設定する。
Here, in general, in the golf swing, the position of the golf club in the top state is very different from that of the half way back and follow-through, and only the size and position of the subject determined by the determination unit 47 are present. When the difference calculation area is set based on the above, there are cases where the detection accuracy cannot be expected.
For this reason, the setting part 48 sets the difference calculation area group 3 by a functional structure below.

設定部48は、第1基準点設定部46により設定された第1基準点(図6中点A)上方に、互いに重ならない複数の1次差分算出領域(図6中の細い点線で示す枠)を設定する。設定部48は、後述する算出部49により算出された、連続する画像データ間の差分評価値の平均値を算出する。設定部48は、算出した平均値が最小に切り替わる直前の1次差分算出領域を検出する。この検出した1次差分算出領域は、ゴルフクラブのヘッドが反転する位置と推定できる。そして、設定部48は、検出した1次差分算出領域に、差分算出領域群3を設定する。設定部48は、差分算出領域群1及び差分算出領域群2と同様の処理により差分算出領域群3を設定する。
これにより、トップの姿勢(状態)が撮像された画像データの検出精度が向上する。
The setting unit 48 includes a plurality of primary difference calculation areas (frames indicated by thin dotted lines in FIG. 6) that do not overlap each other above the first reference point (point A in FIG. 6) set by the first reference point setting unit 46. ) Is set. The setting unit 48 calculates an average value of difference evaluation values between successive image data calculated by a calculation unit 49 described later. The setting unit 48 detects the primary difference calculation area immediately before the calculated average value is switched to the minimum. This detected primary difference calculation area can be estimated as a position where the head of the golf club is reversed. Then, the setting unit 48 sets the difference calculation area group 3 in the detected primary difference calculation area. The setting unit 48 sets the difference calculation area group 3 by the same processing as the difference calculation area group 1 and the difference calculation area group 2.
Thereby, the detection accuracy of the image data in which the top posture (state) is imaged is improved.

算出部49は、設定部48により設定された差分算出領域群毎に、連続する画像データ間における同一領域の画素の色成分の差分値を算出する。
詳細には、算出部49は、差分算出領域群1、2及び3の各領域群における、画像データ間の差分評価値を算出する。
また、算出部49は、設定部48が設定した1次差分算出領域群における、画像データ間の差分評価値を算出する。
本実施形態において、「差分評価値」は、n番目(nは整数を示す)の画像データとn−1番目の画像データ間における各色成分の差分絶対値と、n番目の画像データとn+1番目の画像データ間における各色成分の差分絶対値との乗算値が、所定の閾値を超えた領域におけるピクセル数の総和である。
なお、算出部49は、連続する画像データ間における同一領域中の画素の各色成分の差分値の合計値を算出し、算出した合計値の変化量に応じて加算される値を、差分評価値として算出してもよい。
また、算出部49は、算出した差分評価値に対して、LowPassフィルタをかけ、所定の閾値より高い値を除去してもよい。これにより、後述する特定部50が誤った画像データを特定することを防止できる。
また、差分評価値の算出において、差分絶対値は、差分二乗値とすることもできる。また、差分評価値の算出において、乗算値は、加算値とすることもできる。
The calculation unit 49 calculates the difference value of the color components of the pixels in the same region between successive image data for each difference calculation region group set by the setting unit 48.
Specifically, the calculation unit 49 calculates a difference evaluation value between image data in each of the difference calculation region groups 1, 2, and 3.
Further, the calculation unit 49 calculates a difference evaluation value between image data in the primary difference calculation region group set by the setting unit 48.
In the present embodiment, the “difference evaluation value” is the difference absolute value of each color component between the nth (n represents an integer) image data and the (n−1) th image data, the nth image data, and the (n + 1) th image data. The sum of the number of pixels in a region where the product of the difference absolute value of each color component between the image data exceeds a predetermined threshold.
Note that the calculation unit 49 calculates the total value of the difference values of the respective color components of the pixels in the same region between successive image data, and calculates the value added according to the calculated change amount of the total value as the difference evaluation value. May be calculated as
Further, the calculation unit 49 may apply a LowPass filter to the calculated difference evaluation value to remove a value higher than a predetermined threshold value. Thereby, it can prevent that the specific | specification part 50 mentioned later specifies incorrect image data.
In the calculation of the difference evaluation value, the difference absolute value can be a difference square value. Further, in the calculation of the difference evaluation value, the multiplication value can be an addition value.

図7は、差分算出領域1における差分評価値の分布の一例を示す図である。
図7の例では、353番目の画像データにおける、差分算出領域1の領域SWb6の差分評価値が最も高くなっている。
FIG. 7 is a diagram illustrating an example of a distribution of difference evaluation values in the difference calculation area 1.
In the example of FIG. 7, the difference evaluation value of the area SWb6 of the difference calculation area 1 in the 353rd image data is the highest.

また、算出部49は、まず、差分算出領域群3(トップ姿勢が撮像された画像データを特定するための領域)において、差分評価値を算出する。算出部49は、次に、一連の動作が撮像された複数の画像データのうち、検出部45により初期状態の画像データ(アドレス姿勢が撮像された画像データ)として検出された画像データと、差分算出領域群3において差分評価値が最も高かった画像データとの間の複数の画像データにおいて、差分算出領域群1(ハーフウェイバックが撮像された画像データを特定するための領域群)の差分評価値を算出する。そして、算出部49は、次に、一連の動作が撮像された複数の画像データのうち、差分算出領域群3において差分評価値が最も高かった画像データ以降の複数の画像データにおいて、差分算出領域群2(フォローが撮像された画像データを特定するための領域)の差分評価値を算出する。
このように、差分評価値を算出する複数の画像データの範囲を限定することで、演算量も少なく、かつ高い精度で、所定の状態が撮像された画像データの特定が可能となる。
First, the calculation unit 49 calculates a difference evaluation value in the difference calculation region group 3 (region for specifying image data in which the top posture is captured). Next, the calculation unit 49 calculates a difference from the image data detected as the initial image data (image data in which the address posture is imaged) by the detection unit 45 among the plurality of image data in which a series of operations has been imaged. Difference evaluation of the difference calculation area group 1 (area group for specifying the image data obtained by capturing the halfway back) in a plurality of image data with the image data having the highest difference evaluation value in the calculation area group 3 Calculate the value. Then, the calculation unit 49 next calculates a difference calculation area in a plurality of image data after the image data having the highest difference evaluation value in the difference calculation area group 3 among the plurality of image data obtained by capturing a series of operations. A difference evaluation value of group 2 (region for specifying image data in which follow is imaged) is calculated.
Thus, by limiting the range of the plurality of image data for calculating the difference evaluation value, it is possible to specify the image data in which the predetermined state is captured with a small amount of calculation and high accuracy.

図3に戻って、特定部50は、算出部49により算出された差分値に基づいて、一連の動作における所定の状態が撮像された画像データを特定する。
詳細には、特定部50は、差分算出領域群1、2及び3のそれぞれにおいて、差分評価値が最も高くなっている画像データを特定する。
例えば、特定部50は、図7の例では、差分算出領域群1において、353番目の画像データを特定する。即ち、特定部50は、一連の動作における所定の状態としてハーフウェイバックの状態が撮像された画像データを特定する。
Returning to FIG. 3, the specifying unit 50 specifies image data obtained by capturing a predetermined state in a series of operations based on the difference value calculated by the calculating unit 49.
Specifically, the specifying unit 50 specifies the image data having the highest difference evaluation value in each of the difference calculation region groups 1, 2, and 3.
For example, in the example of FIG. 7, the specifying unit 50 specifies the 353rd image data in the difference calculation area group 1. That is, the specifying unit 50 specifies image data in which a half-way back state is captured as a predetermined state in a series of operations.

制御部51は、例えば、ユーザの操作部18の操作に基づき、画像処理部14の特定部50が特定した画像データの画像を表示部19に表示する。   For example, the control unit 51 displays the image of the image data specified by the specifying unit 50 of the image processing unit 14 on the display unit 19 based on the operation of the operation unit 18 by the user.

次に、図8を参照して、画像処理装置1の処理のうち、このような図3の機能的構成により実現される画像特定処理について説明する。
図8は、図3の画像処理装置1が実行する画像特定処理の流れを説明するフローチャートである。
Next, with reference to FIG. 8, the image specifying process realized by the functional configuration of FIG. 3 will be described among the processes of the image processing apparatus 1.
FIG. 8 is a flowchart for explaining the flow of the image specifying process executed by the image processing apparatus 1 of FIG.

図8の画像特定処理は、撮像部17による撮像が行われる場合に実行される処理である。
即ち、画像処理装置1は、操作部18において、ユーザにより、解析モードが選択された場合、ライブビュー画像を表示部19に表示し、画像特定処理を開始する。
The image specifying process in FIG. 8 is a process executed when the imaging unit 17 performs imaging.
That is, when the analysis mode is selected by the user in the operation unit 18, the image processing apparatus 1 displays a live view image on the display unit 19 and starts an image specifying process.

ステップS1において、制御部51は、表示部19にセッティング画面(図4参照)を表示する制御を行う。
ステップS2において、取得部41、基準被写体領域設定部42及び第2基準点設定部43は、第2基準点設定処理を実行する。
In step S <b> 1, the control unit 51 performs control to display a setting screen (see FIG. 4) on the display unit 19.
In step S2, the acquisition unit 41, the reference subject region setting unit 42, and the second reference point setting unit 43 execute a second reference point setting process.

図9は、図3の画像処理装置1が実行する第2基準点設定処理の流れを説明するフローチャートである。
ステップS21において、取得部41は、背景より明るい色で形成された基準被写体を撮像した基準画像データを取得する。
ステップS22において、基準被写体領域設定部42は、ステップS21で取得部41が取得した基準画像データにおいて、基準被写体領域を設定する。
ステップS23において、第2基準点設定部43は、ステップS22で基準被写体領域設定部42により設定された基準被写体領域において、輝度が所定の閾値以上の画素からなる画素群の重心を算出し、当該重心の位置に第2基準点(図6中点B)を設定する。
FIG. 9 is a flowchart for explaining the flow of the second reference point setting process executed by the image processing apparatus 1 of FIG.
In step S <b> 21, the acquisition unit 41 acquires reference image data obtained by imaging a reference subject that is formed in a brighter color than the background.
In step S22, the reference subject region setting unit 42 sets a reference subject region in the reference image data acquired by the acquisition unit 41 in step S21.
In step S23, the second reference point setting unit 43 calculates the center of gravity of the pixel group composed of pixels having a luminance equal to or higher than a predetermined threshold in the reference subject region set by the reference subject region setting unit 42 in step S22. A second reference point (point B in FIG. 6) is set at the position of the center of gravity.

図8に戻って、ステップS3において、制御部51は、表示部19において、ユーザにゴルフスイングを促す画面を表示する制御を行うとともに、撮像部17を制御して記録用撮像を開始する。
ステップS4において、取得部41は、撮像部17により、被写体の一連の動作であるゴルフスイングが連続して撮像された複数の画像データを取得する。
ステップS5において、基準領域設定部44、検出部45及び第1基準点設定部46は、第1基準点設定処理を実行する。
Returning to FIG. 8, in step S <b> 3, the control unit 51 controls the display unit 19 to display a screen that prompts the user to make a golf swing, and controls the imaging unit 17 to start imaging for recording.
In step S <b> 4, the acquisition unit 41 acquires a plurality of image data in which a golf swing that is a series of movements of the subject is continuously captured by the imaging unit 17.
In step S5, the reference area setting unit 44, the detection unit 45, and the first reference point setting unit 46 execute a first reference point setting process.

図10は、図3の画像処理装置1が実行する第1基準点設定処理の流れを説明するフローチャートである。
ステップS51において、基準領域設定部44は、ステップS4で取得部41により取得された画像データ内において、被写体を含む所定の大きさの基準領域を設定する。
ステップS52において、検出部45は、記憶部20に記憶されたアドレス検出識別器を用いて、ステップS4で取得部41により取得された複数の画像データの中から、ステップS51で基準領域設定部44により設定された基準領域における特徴量が最も高い初期状態の画像データを検出する。
ステップS53において、第1基準点設定部46は、ステップS52で検出部45により検出された初期状態の画像データの基準領域において、第1基準点(図6中点A)を設定する。
FIG. 10 is a flowchart for explaining the flow of the first reference point setting process executed by the image processing apparatus 1 of FIG.
In step S51, the reference area setting unit 44 sets a reference area having a predetermined size including the subject in the image data acquired by the acquisition unit 41 in step S4.
In step S52, the detection unit 45 uses the address detection discriminator stored in the storage unit 20 to select the reference area setting unit 44 in step S51 from the plurality of image data acquired by the acquisition unit 41 in step S4. The image data in the initial state having the highest feature amount in the reference region set by (1) is detected.
In step S53, the first reference point setting unit 46 sets the first reference point (point A in FIG. 6) in the reference region of the image data in the initial state detected by the detection unit 45 in step S52.

図8に戻って、ステップS6において、決定部47は、ステップS53で第1基準点設定部46により設定された第1基準点(図6中点A)と、ステップS23で第2基準点設定部43により設定された第2基準点(図6中点B)と、に基づき、被写体の大きさと位置を決定する。
ステップS7において、設定部48は、ステップS4で取得部41により取得された複数の画像データの各々に、ステップS6で決定部47により決定された被写体の大きさと位置に応じた複数の差分算出領域群1、2を設定する。
ステップS8において、設定部48及び算出部49は、差分算出領域群3設定処理を実行する。
Returning to FIG. 8, in step S6, the determining unit 47 sets the first reference point (point A in FIG. 6) set by the first reference point setting unit 46 in step S53 and the second reference point setting in step S23. Based on the second reference point (point B in FIG. 6) set by the unit 43, the size and position of the subject are determined.
In step S7, the setting unit 48 adds a plurality of difference calculation areas corresponding to the size and position of the subject determined by the determination unit 47 in step S6 to each of the plurality of image data acquired by the acquisition unit 41 in step S4. Groups 1 and 2 are set.
In step S8, the setting unit 48 and the calculation unit 49 execute a difference calculation area group 3 setting process.

図11は、図3の画像処理装置1が実行する差分算出領域3設定処理の流れを説明するフローチャートである。
ステップS81において、設定部48は、ステップS53で第1基準点設定部46により設定された第1基準点(図6中点A)上方に、互いに重ならない複数の1次差分算出領域(図6中の細い点線で示す枠)を設定する。
ステップS82において、算出部49は、ステップS81で設定部48が設定した1次差分算出領域における、画像データ間の差分評価値を算出する。
ステップS83において、設定部48は、ステップS82で算出部49により算出された、連続する画像データ間の差分評価値の平均値を算出する。そして、設定部48は、算出した平均値が最小に切り替わる直前の1次差分算出領域を検出し、この検出した1次差分算出領域の位置に重複するように、差分算出領域3群を設定する。
FIG. 11 is a flowchart for explaining the flow of the difference calculation area 3 setting process executed by the image processing apparatus 1 of FIG.
In step S81, the setting unit 48 includes a plurality of primary difference calculation areas (FIG. 6) that do not overlap each other above the first reference point (point A in FIG. 6) set by the first reference point setting unit 46 in step S53. Set the frame indicated by the thin dotted line inside.
In step S82, the calculation unit 49 calculates a difference evaluation value between image data in the primary difference calculation region set by the setting unit 48 in step S81.
In step S83, the setting unit 48 calculates the average value of the difference evaluation values between successive image data calculated by the calculation unit 49 in step S82. Then, the setting unit 48 detects the primary difference calculation area immediately before the calculated average value switches to the minimum, and sets the difference calculation area 3 group so as to overlap the position of the detected primary difference calculation area. .

図8に戻って、ステップS9において、算出部49は、ステップS7及びステップS83設定部48により設定された差分算出領域群1、2及び3毎に、連続する画像データ間における同一領域中の差分評価値を算出する。
ステップS10において、特定部50は、ステップS9で算出部49により算出された差分値に基づいて、一連の動作における所定の状態が撮像された画像データを特定する。
ステップS11において、制御部51は、画像処理部14の特定した画像データの画像を表示部19に表示する。
Returning to FIG. 8, in step S <b> 9, the calculation unit 49 calculates the difference in the same region between successive image data for each of the difference calculation region groups 1, 2, and 3 set by the step S <b> 7 and step S <b> 83 setting unit 48. An evaluation value is calculated.
In step S10, the specifying unit 50 specifies image data obtained by capturing a predetermined state in a series of operations based on the difference value calculated by the calculating unit 49 in step S9.
In step S <b> 11, the control unit 51 displays an image of the image data specified by the image processing unit 14 on the display unit 19.

以上説明したように、本実施形態の画像処理装置1は、取得部41と、設定部48と、算出部49と、特定部50と、を備える。
取得部41は、被写体の一連の動作が連続して撮像された複数の画像データを取得する。
設定部48は、取得部41により取得された複数の画像データの各々に、被写体の大きさ及び位置に応じた評価領域を設定する。
算出部49は、設定部48により設定された評価領域における複数の画像データ間の評価値を夫々算出する。
特定部50は、算出部49により夫々算出された評価値に基づいて、一連の動作における所定の状態の画像データを特定する。
As described above, the image processing apparatus 1 according to the present embodiment includes the acquisition unit 41, the setting unit 48, the calculation unit 49, and the specifying unit 50.
The acquisition unit 41 acquires a plurality of pieces of image data obtained by continuously capturing a series of actions of the subject.
The setting unit 48 sets an evaluation area corresponding to the size and position of the subject in each of the plurality of image data acquired by the acquisition unit 41.
The calculation unit 49 calculates an evaluation value between a plurality of image data in the evaluation region set by the setting unit 48.
The specifying unit 50 specifies image data in a predetermined state in a series of operations based on the evaluation values calculated by the calculating unit 49.

これにより、複数の画像データの中から、所定の状態が撮像された画像を特定する処理において、被写体に応じた複数の差分算出領域群だけで、連続する画像データ間における同一領域の差分値を算出する。よって、画像データ全体において、連続する画像データ間の差分値を算出した場合に比べ、画像処理装置1の処理負担を軽減できる。
したがって、所望の被写体の動作における所定の状態が撮像された画像を特定する処理負担を軽くできる。
また、このように処理負担を軽減することで、比較的処理能力の低いCPUを備える携帯端末においても、所定の状態が撮像された画像を特定する処理が可能となる。
Thereby, in the process of specifying an image in which a predetermined state is captured from a plurality of image data, the difference value of the same region between successive image data can be obtained only by a plurality of difference calculation region groups corresponding to the subject. calculate. Therefore, the processing load of the image processing apparatus 1 can be reduced as compared with the case where the difference value between successive image data is calculated in the entire image data.
Therefore, it is possible to reduce the processing load for specifying an image obtained by capturing a predetermined state in the operation of a desired subject.
In addition, by reducing the processing load in this way, it is possible to specify a captured image of a predetermined state even in a portable terminal having a CPU with relatively low processing capability.

また、本実施形態の画像処理装置1は、更に、基準領域設定部44と、記憶部20と、検出部45と、第1基準点設定部46と、を備える。
基準領域設定部44は、取得部41により取得された画像データ内において、被写体を含む所定の大きさの基準領域を設定する。
記憶部20は、一連の動作における初期状態を検出するための検出用情報を記憶する。
検出部45は、記憶部20に記憶された検出用情報を用いて、取得部41により取得された複数の画像データの中から、基準領域設定部44により設定された基準領域における特徴量が最も高い初期状態の画像データを検出する。
第1基準点設定部46は、検出部45により検出された初期状態の画像データの基準領域において、第1基準点を設定する。
設定部48は、第1基準点設定部46により設定された第1基準点に基づき、差分算出領域群を設定する。
The image processing apparatus 1 according to the present embodiment further includes a reference area setting unit 44, a storage unit 20, a detection unit 45, and a first reference point setting unit 46.
The reference area setting unit 44 sets a reference area having a predetermined size including the subject in the image data acquired by the acquisition unit 41.
The storage unit 20 stores detection information for detecting an initial state in a series of operations.
The detection unit 45 uses the detection information stored in the storage unit 20, and the feature amount in the reference region set by the reference region setting unit 44 is the largest among the plurality of image data acquired by the acquisition unit 41. Detect high initial image data.
The first reference point setting unit 46 sets the first reference point in the reference region of the image data in the initial state detected by the detection unit 45.
The setting unit 48 sets a difference calculation region group based on the first reference point set by the first reference point setting unit 46.

これにより、一連の動作における初期状態(例えば、ゴルフクラブのスイングにおけるアドレス姿勢の状態)が撮像された初期状態の画像データを検出できる。そして、この初期状態画像データの基準領域において、被写体(例えば、スイングをする人)の大きさと位置を決定する基準となる第1基準点(例えば、スイングをする人の頭の位置)を設定することで、当該被写体による所定の状態が撮像された画像を特定する処理の精度を向上できる。   Thereby, it is possible to detect image data in an initial state in which an initial state in a series of operations (for example, an address posture state in a swing of a golf club) is captured. Then, in the reference area of the initial state image data, a first reference point (for example, the position of the head of the person performing the swing) is set as a reference for determining the size and position of the subject (for example, the person performing the swing). Thus, it is possible to improve the accuracy of processing for specifying an image in which a predetermined state of the subject is captured.

また、本実施形態の画像処理装置1は、更に、基準被写体領域設定部42と、第2基準点設定部43と、決定部47と、を備える。
取得部41は、背景より明るい色で形成された基準被写体を撮像した基準画像データを取得する。
基準被写体領域設定部42は、基準画像データにおいて、基準被写体領域を設定する。
第2基準点設定部43は、基準被写体領域設定部42により設定された基準被写体領域において、輝度が所定の閾値以上の画素からなる画素群の重心を算出し、当該重心の位置に第2基準点を設定する。
決定部47は、第1基準点設定部46により設定された第1基準点と、第2基準点設定部43により設定された第2基準点とに基づき、被写体の大きさと位置を決定する。
設定部48は、決定部47により決定された被写体の大きさと位置に応じた複数の差分算出領域群を設定する。
The image processing apparatus 1 according to the present embodiment further includes a reference subject region setting unit 42, a second reference point setting unit 43, and a determination unit 47.
The acquisition unit 41 acquires reference image data obtained by capturing an image of a reference subject formed in a brighter color than the background.
The reference subject area setting unit 42 sets a reference subject area in the reference image data.
The second reference point setting unit 43 calculates the center of gravity of a pixel group including pixels having a luminance equal to or higher than a predetermined threshold in the reference subject region set by the reference subject region setting unit 42, and sets the second reference point at the position of the center of gravity. Set a point.
The determination unit 47 determines the size and position of the subject based on the first reference point set by the first reference point setting unit 46 and the second reference point set by the second reference point setting unit 43.
The setting unit 48 sets a plurality of difference calculation area groups according to the size and position of the subject determined by the determination unit 47.

これにより、基準被写体領域の中で、輝度により基準被写体(例えば、ゴルフボール)の重心を算出し、この重心を第2基準点(例えば、ゴルフボールの中心位置)に設定できる。よって、基準被写体の検出範囲を基準被写体領域に限定することで、検出範囲を画像データ全体として場合に比べて、第2基準点を設定する処理速度を向上できる。
また、被写体の大きさと位置を仮定する基準となる第1基準点及び第2基準点の2点に基づき被写体の大きさと位置を決定することで、当該被写体による所定の状態が撮像された画像を特定する処理の精度を更に向上できる。
As a result, the center of gravity of the reference subject (eg, golf ball) can be calculated based on the luminance in the reference subject region, and this center of gravity can be set as the second reference point (eg, the center position of the golf ball). Therefore, by limiting the detection range of the reference subject to the reference subject region, the processing speed for setting the second reference point can be improved as compared with the case where the detection range is the entire image data.
Also, by determining the size and position of the subject based on two points, the first reference point and the second reference point, which serve as a reference for assuming the size and position of the subject, an image in which a predetermined state of the subject is captured can be obtained. The accuracy of the specified process can be further improved.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、画像処理装置1が実行する画像特定処理の対象である一連の動作は、ゴルフクラブのスイングとしたが、これに限らず、例えば、野球のバットのスイング、各種スポーツやダンスのフォーム等であってもよい。   In the above-described embodiment, the series of operations that are the target of the image specifying process executed by the image processing apparatus 1 is a golf club swing, but is not limited to this, for example, a baseball bat swing, various sports and dances. It may be a form or the like.

また、上述の実施形態では、制御部51は、表示部19に表示したセッティング画面において、円形状の枠を表示し、ボールが当該枠内に入るように画像処理装置1を設置する指示を表示するが、これに限らず、例えば、表示部19をユーザの操作を受け付け可能なタッチパネルで構成し、制御部51は、セッティング画面において、上記枠の位置を、ユーザのタッチパネル操作で受け付けることができる。   In the above-described embodiment, the control unit 51 displays a circular frame on the setting screen displayed on the display unit 19 and displays an instruction to install the image processing apparatus 1 so that the ball enters the frame. However, the present invention is not limited to this. For example, the display unit 19 is configured by a touch panel that can accept a user operation, and the control unit 51 can accept the position of the frame on the setting screen by a user touch panel operation. .

また、上述の実施形態では、制御部51は、表示部19にセッティング画面を表示するが、これに限らず、例えば、1打目のボールの位置を記憶部20に記憶し、2打目以降では、セッティング画面の表示を省略し、記憶部20に記憶されたボールの位置にボールが設置されたと判断した場合に、撮像部17を制御して記録用撮像を開始してもよい。   In the above-described embodiment, the control unit 51 displays the setting screen on the display unit 19. However, the present invention is not limited to this. For example, the control unit 51 stores the position of the first hit ball in the storage unit 20 and the second and subsequent shots. Then, the display of the setting screen may be omitted, and when it is determined that the ball is installed at the position of the ball stored in the storage unit 20, the imaging unit 17 may be controlled to start recording for recording.

また、上述の実施形態では、決定部47は、第1基準点設定部46により設定された第1基準点(スイングする人の頭の位置)と、第2基準点設定部43により設定された第2基準点(ボールの中心)とに基づき、被写体の大きさと位置を決定するが、これに限らず、例えば、表示部19をユーザの操作を受け付け可能なタッチパネルで構成し、決定部47は、ユーザのタッチパネル操作で受け付けた第1基準点及び/又は第2基準点に基づき、被写体の大きさと位置を決定してもよい。   In the above-described embodiment, the determination unit 47 is set by the first reference point (the position of the person's head that swings) set by the first reference point setting unit 46 and the second reference point setting unit 43. The size and position of the subject are determined based on the second reference point (the center of the ball). However, the present invention is not limited to this, and for example, the display unit 19 is configured with a touch panel that can accept a user operation. The size and position of the subject may be determined based on the first reference point and / or the second reference point received by the user's touch panel operation.

また、上述の実施形態では、差分算出領域1をハーフウェイバックが撮像された画像データを特定するための領域として用いているが、これに限らず、差分算出領域1をハーフウェイダウンの状態が撮像された画像データを特定するための領域として用いてもよい。これにより、所定の状態としてハーフウェイダウンが撮像された画像データを特定できる。
また、上述の実施形態に加え、インパクト(ゴルフクラブのヘッドがボールに当たった瞬間)が撮像された画像データを特定してもよい。この場合、設定部48は、第2基準点設定部43により設定された第2基準点(アドレス時のボールの中心)に基づき、差分算出領域群を設定する。算出部49は、この設定部48により設定された差分算出領域群における、連続する画像データ間の差分値を解析する。具体的には、この解析において、ボールの有無の差分を検出する。そして、特定部50は、ボールが撮像された最後の画像データを、インパクトが撮像された画像データとして特定する。
また、上記の場合、算出部49は、差分算出領域群3において、差分評価値が最も高かった画像データ以降の複数の画像データ間の差分値を解析し、ボールの有無の差分を検出する。次に、差分算出領域群3において差分評価値が最も高かった画像データと、ボールが検出された最後の画像データとの間の複数の画像データにおいて、差分算出領域群1(ハーフウェイダウンが撮像された画像データを特定するための領域)の差分評価値を算出する。そして、算出部49は、次に、ボールが検出された最後の画像データ以降の複数の画像データにおいて、差分算出領域群2(フォローが撮像された画像データを特定するための領域)の差分評価値を算出する。
このように、特定する所定状態が複数ある場合でも、差分評価値を算出する複数の画像データの範囲を限定することで、演算量も少なく、かつ高い精度で、所定の状態が撮像された画像データの特定が可能となる。
In the above-described embodiment, the difference calculation area 1 is used as an area for specifying image data obtained by capturing a halfway back. However, the present invention is not limited to this, and the difference calculation area 1 is in a halfway down state. You may use as an area | region for specifying the imaged image data. Thereby, the image data in which the halfway down is imaged as the predetermined state can be specified.
In addition to the above-described embodiment, image data in which an impact (the moment when the golf club head hits the ball) may be specified. In this case, the setting unit 48 sets the difference calculation area group based on the second reference point (the center of the ball at the time of address) set by the second reference point setting unit 43. The calculation unit 49 analyzes the difference value between successive image data in the difference calculation area group set by the setting unit 48. Specifically, in this analysis, a difference in presence or absence of a ball is detected. Then, the specifying unit 50 specifies the last image data in which the ball is imaged as image data in which the impact is imaged.
In the above case, in the difference calculation area group 3, the calculation unit 49 analyzes a difference value between a plurality of pieces of image data after the image data having the highest difference evaluation value, and detects a difference in presence or absence of the ball. Next, in a plurality of pieces of image data between the image data having the highest difference evaluation value in the difference calculation area group 3 and the last image data in which the ball is detected, the difference calculation area group 1 (halfway down is imaged). The difference evaluation value of the area for specifying the image data obtained is calculated. Then, the calculation unit 49 next performs difference evaluation of the difference calculation region group 2 (region for specifying image data in which the follow is captured) in a plurality of image data after the last image data in which the ball is detected. Calculate the value.
As described above, even when there are a plurality of predetermined states to be specified, by limiting the range of the plurality of image data for calculating the difference evaluation value, an image in which the predetermined state is captured with a small amount of calculation and high accuracy. Data can be specified.

また、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラ等の画像処理装置として構成される例として説明した。しかしながら、本発明は、画像処理装置に特に限定されず、撮像機能の有無を問わず(撮像画像のデータは別の装置から取得してもよい)、上述の画像処理を実行可能な電子機器一般に適用することができる。具体的には例えば、本発明は、パーソナルコンピュータ、ビデオカメラ、携帯型ナビゲーション装置、ポータブルゲーム機等に適用可能である。   In the above-described embodiment, the image processing apparatus to which the present invention is applied has been described as an example configured as an image processing apparatus such as a digital camera. However, the present invention is not particularly limited to an image processing apparatus, and in general, an electronic apparatus that can execute the above-described image processing regardless of the presence or absence of an imaging function (data of captured images may be acquired from another apparatus). Can be applied. Specifically, for example, the present invention can be applied to a personal computer, a video camera, a portable navigation device, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が画像処理装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 3 is merely an example, and is not particularly limited. That is, it is sufficient that the image processing apparatus 1 has a function capable of executing the above-described series of processes as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG. .
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明の実施形態について説明したが、この実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although embodiment of this invention was described, this embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
被写体の一連の動作が連続して撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々に、前記被写体の大きさ及び位置に応じた評価領域を設定する設定手段と、
前記設定手段により設定された評価領域における前記複数の画像データ間の評価値を夫々算出する第1の算出手段と、
前記第1の算出手段により夫々算出された評価値に基づいて、前記一連の動作における所定の状態の画像データを特定する特定手段と、
を備えたことを特徴とする画像特定装置。
[付記2]
前記画像データに基づいて、前記被写体を決定する被写体決定手段を更に備え、
前記設定手段は、前記被写体決定手段により決定された被写体の大きさ及び位置に応じた評価領域を設定する、
ことを特徴とする付記1に記載の画像特定装置。
[付記3]
前記画像データ中の第1基準点を設定する第1基準点設定手段を更に備え、
前記被写体決定手段は、前記第1基準点設定手段により設定された第1基準点に基づいて、前記被写体の位置を決定する、
ことを特徴とする付記2に記載の画像特定装置。
[付記4]
前記取得手段により取得された画像データ内において、前記被写体を含む所定の大きさの領域を設定する基準領域設定手段と、
前記一連の動作における特定の状態を検出するための検出用情報を記憶する記憶手段と、
前記記憶手段に記憶された前記検出用情報を用いて、前記取得手段により取得された複数の画像データの中から、前記基準領域設定手段により設定された領域における特徴量が高い画像データを前記特定の状態の画像データとして検出する検出手段と、
を更に備え、
前記第1基準点設定手段は、前記検出手段により検出された画像データ中の前記基準領域設定手段により設定された領域において、前記第1基準点を設定する、
ことを特徴とする付記3に記載の画像処理装置。
[付記5]
前記画像データ中の第2基準点を設定する第2基準点設定手段を更に備え、
前記被写体決定手段は、前記第1基準点設定手段により設定された第1基準点と、前記第2基準点設定手段により設定された第2基準点とに基づいて、前記被写体の大きさ及び位置を決定する、
ことを特徴とする付記3又は4に記載の画像処理装置。
[付記6]
前記取得手段は、基準被写体の画像データを取得し、
前記取得手段により取得された画像データにおいて、前記基準被写体を含む領域を設定する領域設定手段と、
前記領域設定手段により設定された領域において、特定の画素群の重心を算出する重心算出手段と、
を更に備え、
前記第2基準点設定手段は、前記重心算出手段により算出された重心の位置に第2基準点を設定し、
前記被写体決定手段は、前記第1基準点設定手段により設定された前記第1基準点と、前記第2基準点設定手段により算出された前記第2基準点とに基づいて、前記被写体の大きさ及び位置を決定する、
ことを特徴とする付記5に記載の画像処理装置。
[付記7]
前記設定手段は、前記被写体に応じた複数の評価領域を設定し、
前記第1の算出手段は、前記設定手段により設定された複数の評価領域における前記複数の画像データ間の評価値を夫々算出する、
ことを特徴とする付記1から6のうち何れか1つに記載の画像特定装置。
[付記8]
前記設定手段は、前記被写体に応じた複数の評価領域を各々の評価領域が一部重複するように設定する、
ことを特徴とする付記1から7のうち何れか1つに記載の画像特定装置。
[付記9]
前記設定手段は、互いに近接する複数の評価領域を設定し、
前記第1の算出手段は、前記設定手段により設定された複数の評価領域における前記複数の画像データ間の評価値を夫々算出し、
前記第1の算出手段により夫々算出された評価値に基づいて、前記設定手段により設定された複数の評価領域から、互いに重複する複数の評価領域に変更する領域変更手段と、
前記領域変更手段により変更された複数の評価領域における前記複数の画像データ間の評価値を夫々算出する第2の算出手段と、
を更に備え、
前記特定手段は、前記第2の算出手段により夫々算出された評価値に基づいて、前記所定の状態の画像データを特定する、
ことを特徴とする付記1から8のうち何れか1つに記載の画像特定装置。
[付記10]
前記第1の算出手段は、前記評価値として、前記評価領域における前記複数の画像データ間の画素の差分値を算出する、
ことを特徴とする付記1から9のうち何れか1つ記載の画像処理装置。
[付記11]
被写体の一連の動作における所定の状態が撮像された画像データを特定する画像処理装置が実行する画像処理方法であって、
前記一連の動作が連続して撮像された複数の画像データを取得する取得ステップと、
前記取得ステップで取得した複数の前記画像データの各々に、前記被写体の大きさ及び位置に応じた複数の評価領域を設定する設定ステップと、
前記設定ステップで設定した評価領域における前記複数の画像データ間の評価値を算出する算出ステップと、
前記算出ステップで夫々算出した評価値に基づいて、前記所定の状態の画像データを特定する特定ステップと、
を含むことを特徴とする画像処理方法。
[付記12]
被写体の一連の動作における所定の状態が撮像された画像データを特定する画像処理を制御するコンピュータを、
被写体の一連の動作が連続して撮像された複数の画像データを取得する取得手段、
前記取得手段により取得された複数の画像データの各々に、前記被写体の大きさ及び位置に応じた評価領域を設定する設定手段、
前記設定手段により設定された評価領域における前記複数の画像データ間の評価値を夫々算出する算出手段、
前記算出手段により夫々算出された評価値に基づいて、前記所定の状態の画像データを特定する特定手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
Acquisition means for acquiring a plurality of image data obtained by continuously imaging a series of movements of a subject;
Setting means for setting an evaluation area corresponding to the size and position of the subject in each of a plurality of image data acquired by the acquisition means;
First calculation means for calculating an evaluation value between the plurality of image data in the evaluation region set by the setting means;
Identification means for identifying image data in a predetermined state in the series of operations based on the evaluation values calculated by the first calculation means;
An image specifying apparatus comprising:
[Appendix 2]
Subject determination means for determining the subject based on the image data;
The setting means sets an evaluation area according to the size and position of the subject determined by the subject determination means;
The image specifying device according to Supplementary Note 1, wherein
[Appendix 3]
A first reference point setting means for setting a first reference point in the image data;
The subject determining means determines the position of the subject based on the first reference point set by the first reference point setting means;
The image specifying device according to Supplementary Note 2, wherein
[Appendix 4]
Reference area setting means for setting an area of a predetermined size including the subject in the image data acquired by the acquisition means;
Storage means for storing detection information for detecting a specific state in the series of operations;
Using the detection information stored in the storage unit, the image data having a high feature amount in the region set by the reference region setting unit is identified from the plurality of image data acquired by the acquiring unit. Detecting means for detecting image data in the state of
Further comprising
The first reference point setting means sets the first reference point in an area set by the reference area setting means in the image data detected by the detection means;
The image processing apparatus according to appendix 3, characterized in that:
[Appendix 5]
A second reference point setting means for setting a second reference point in the image data;
The subject determination unit is configured to determine the size and position of the subject based on the first reference point set by the first reference point setting unit and the second reference point set by the second reference point setting unit. To decide,
The image processing apparatus according to appendix 3 or 4, characterized in that:
[Appendix 6]
The acquisition means acquires image data of a reference subject,
Area setting means for setting an area including the reference subject in the image data obtained by the obtaining means;
Centroid calculating means for calculating the centroid of a specific pixel group in the area set by the area setting means;
Further comprising
The second reference point setting means sets a second reference point at the position of the center of gravity calculated by the center of gravity calculating means;
The subject determining unit is configured to determine the size of the subject based on the first reference point set by the first reference point setting unit and the second reference point calculated by the second reference point setting unit. And determine the position,
The image processing apparatus according to appendix 5, characterized in that:
[Appendix 7]
The setting means sets a plurality of evaluation areas according to the subject,
The first calculation unit calculates an evaluation value between the plurality of image data in the plurality of evaluation regions set by the setting unit, respectively.
The image specifying device according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
The setting means sets a plurality of evaluation areas corresponding to the subject such that each evaluation area partially overlaps,
The image specifying device according to any one of supplementary notes 1 to 7, characterized in that:
[Appendix 9]
The setting means sets a plurality of evaluation areas close to each other,
The first calculation unit calculates an evaluation value between the plurality of image data in the plurality of evaluation regions set by the setting unit, respectively.
Based on the evaluation values respectively calculated by the first calculation means, area changing means for changing from a plurality of evaluation areas set by the setting means to a plurality of overlapping evaluation areas;
Second calculation means for calculating evaluation values between the plurality of image data in the plurality of evaluation areas changed by the area changing means;
Further comprising
The specifying means specifies the image data in the predetermined state based on the evaluation values calculated by the second calculating means,
The image specifying device according to any one of supplementary notes 1 to 8, characterized in that:
[Appendix 10]
The first calculation means calculates, as the evaluation value, a pixel difference value between the plurality of image data in the evaluation region.
The image processing apparatus according to any one of supplementary notes 1 to 9, wherein
[Appendix 11]
An image processing method executed by an image processing apparatus that identifies image data obtained by capturing a predetermined state in a series of movements of a subject,
An acquisition step of acquiring a plurality of image data obtained by continuously imaging the series of operations;
A setting step of setting a plurality of evaluation areas according to the size and position of the subject in each of the plurality of image data acquired in the acquisition step;
A calculation step for calculating an evaluation value between the plurality of image data in the evaluation region set in the setting step;
A specifying step of specifying the image data in the predetermined state based on the evaluation values calculated in the calculating step;
An image processing method comprising:
[Appendix 12]
A computer that controls image processing for identifying image data in which a predetermined state in a series of movements of a subject is captured
Acquisition means for acquiring a plurality of image data in which a series of actions of a subject are continuously captured;
Setting means for setting an evaluation area corresponding to the size and position of the subject in each of a plurality of image data acquired by the acquisition means;
Calculating means for calculating evaluation values between the plurality of image data in the evaluation area set by the setting means;
Identification means for identifying the image data in the predetermined state based on the evaluation values respectively calculated by the calculation means;
A program characterized by functioning as

1・・・画像処理装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、17・・・撮像部、17・・・操作部、19・・・表示部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、41・・・取得部、42・・・基準被写体領域設定部、43・・・第2基準点設定部、44・・・基準領域設定部、45・・・検出部、46・・・第1基準点設定部、47・・・決定部、48・・・設定部、49・・・算出部、50・・・特定部   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 17 ... Imaging part, 17 ... Operation part, 19 * -Display unit, 20 ... Storage unit, 21 ... Communication unit, 22 ... Drive, 31 ... Removable media, 41 ... Acquisition unit, 42 ... Reference subject area setting unit, 43 ... 2nd reference point setting part, 44 ... Reference area setting part, 45 ... Detection part, 46 ... 1st reference point setting part, 47 ... Determination part, 48 ... Setting part 49 ... calculation unit, 50 ... specification unit

Claims (12)

被写体の一連の動作が連続して撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々に、前記被写体の大きさ及び位置に応じた評価領域を設定する設定手段と、
前記設定手段により設定された評価領域における前記複数の画像データ間の評価値を夫々算出する第1の算出手段と、
前記第1の算出手段により夫々算出された評価値に基づいて、前記一連の動作における所定の状態の画像データを特定する特定手段と、
を備えたことを特徴とする画像特定装置。
Acquisition means for acquiring a plurality of image data obtained by continuously imaging a series of movements of a subject;
Setting means for setting an evaluation area corresponding to the size and position of the subject in each of a plurality of image data acquired by the acquisition means;
First calculation means for calculating an evaluation value between the plurality of image data in the evaluation region set by the setting means;
Identification means for identifying image data in a predetermined state in the series of operations based on the evaluation values calculated by the first calculation means;
An image specifying apparatus comprising:
前記画像データに基づいて、前記被写体を決定する被写体決定手段を更に備え、
前記設定手段は、前記被写体決定手段により決定された被写体の大きさ及び位置に応じた評価領域を設定する、
ことを特徴とする請求項1に記載の画像特定装置。
Subject determination means for determining the subject based on the image data;
The setting means sets an evaluation area according to the size and position of the subject determined by the subject determination means;
The image specifying device according to claim 1.
前記画像データ中の第1基準点を設定する第1基準点設定手段を更に備え、
前記被写体決定手段は、前記第1基準点設定手段により設定された第1基準点に基づいて、前記被写体の位置を決定する、
ことを特徴とする請求項2に記載の画像特定装置。
A first reference point setting means for setting a first reference point in the image data;
The subject determining means determines the position of the subject based on the first reference point set by the first reference point setting means;
The image specifying device according to claim 2.
前記取得手段により取得された画像データ内において、前記被写体を含む所定の大きさの領域を設定する基準領域設定手段と、
前記一連の動作における特定の状態を検出するための検出用情報を記憶する記憶手段と、
前記記憶手段に記憶された前記検出用情報を用いて、前記取得手段により取得された複数の画像データの中から、前記基準領域設定手段により設定された領域における特徴量が高い画像データを前記特定の状態の画像データとして検出する検出手段と、
を更に備え、
前記第1基準点設定手段は、前記検出手段により検出された画像データ中の前記基準領域設定手段により設定された領域において、前記第1基準点を設定する、
ことを特徴とする請求項3に記載の画像処理装置。
Reference area setting means for setting an area of a predetermined size including the subject in the image data acquired by the acquisition means;
Storage means for storing detection information for detecting a specific state in the series of operations;
Using the detection information stored in the storage unit, the image data having a high feature amount in the region set by the reference region setting unit is identified from the plurality of image data acquired by the acquiring unit. Detecting means for detecting image data in the state of
Further comprising
The first reference point setting means sets the first reference point in an area set by the reference area setting means in the image data detected by the detection means;
The image processing apparatus according to claim 3.
前記画像データ中の第2基準点を設定する第2基準点設定手段を更に備え、
前記被写体決定手段は、前記第1基準点設定手段により設定された第1基準点と、前記第2基準点設定手段により設定された第2基準点とに基づいて、前記被写体の大きさ及び位置を決定する、
ことを特徴とする請求項3又は4に記載の画像処理装置。
A second reference point setting means for setting a second reference point in the image data;
The subject determination unit is configured to determine the size and position of the subject based on the first reference point set by the first reference point setting unit and the second reference point set by the second reference point setting unit. To decide,
The image processing apparatus according to claim 3, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、基準被写体の画像データを取得し、
前記取得手段により取得された画像データにおいて、前記基準被写体を含む領域を設定する領域設定手段と、
前記領域設定手段により設定された領域において、特定の画素群の重心を算出する重心算出手段と、
を更に備え、
前記第2基準点設定手段は、前記重心算出手段により算出された重心の位置に第2基準点を設定し、
前記被写体決定手段は、前記第1基準点設定手段により設定された前記第1基準点と、前記第2基準点設定手段により算出された前記第2基準点とに基づいて、前記被写体の大きさ及び位置を決定する、
ことを特徴とする請求項5に記載の画像処理装置。
The acquisition means acquires image data of a reference subject,
Area setting means for setting an area including the reference subject in the image data obtained by the obtaining means;
Centroid calculating means for calculating the centroid of a specific pixel group in the area set by the area setting means;
Further comprising
The second reference point setting means sets a second reference point at the position of the center of gravity calculated by the center of gravity calculating means;
The subject determining unit is configured to determine the size of the subject based on the first reference point set by the first reference point setting unit and the second reference point calculated by the second reference point setting unit. And determine the position,
The image processing apparatus according to claim 5.
前記設定手段は、前記被写体に応じた複数の評価領域を設定し、
前記第1の算出手段は、前記設定手段により設定された複数の評価領域における前記複数の画像データ間の評価値を夫々算出する、
ことを特徴とする請求項1から6のうち何れか1つに記載の画像特定装置。
The setting means sets a plurality of evaluation areas according to the subject,
The first calculation unit calculates an evaluation value between the plurality of image data in the plurality of evaluation regions set by the setting unit, respectively.
The image specifying device according to claim 1, wherein the image specifying device is one of the following.
前記設定手段は、前記被写体に応じた複数の評価領域を各々の評価領域が一部重複するように設定する、
ことを特徴とする請求項1から7のうち何れか1つに記載の画像特定装置。
The setting means sets a plurality of evaluation areas corresponding to the subject such that each evaluation area partially overlaps,
The image specifying device according to claim 1, wherein the image specifying device is an image specifying device.
前記設定手段は、互いに近接する複数の評価領域を設定し、
前記第1の算出手段は、前記設定手段により設定された複数の評価領域における前記複数の画像データ間の評価値を夫々算出し、
前記第1の算出手段により夫々算出された評価値に基づいて、前記設定手段により設定された複数の評価領域から、互いに重複する複数の評価領域に変更する領域変更手段と、
前記領域変更手段により変更された複数の評価領域における前記複数の画像データ間の評価値を夫々算出する第2の算出手段と、
を更に備え、
前記特定手段は、前記第2の算出手段により夫々算出された評価値に基づいて、前記所定の状態の画像データを特定する、
ことを特徴とする請求項1から8のうち何れか1つに記載の画像特定装置。
The setting means sets a plurality of evaluation areas close to each other,
The first calculation unit calculates an evaluation value between the plurality of image data in the plurality of evaluation regions set by the setting unit, respectively.
Based on the evaluation values respectively calculated by the first calculation means, area changing means for changing from a plurality of evaluation areas set by the setting means to a plurality of overlapping evaluation areas;
Second calculation means for calculating evaluation values between the plurality of image data in the plurality of evaluation areas changed by the area changing means;
Further comprising
The specifying means specifies the image data in the predetermined state based on the evaluation values calculated by the second calculating means,
The image specifying device according to claim 1, wherein the image specifying device is one of the following.
前記第1の算出手段は、前記評価値として、前記評価領域における前記複数の画像データ間の画素の差分値を算出する、
ことを特徴とする請求項1から9のうち何れか1つ記載の画像処理装置。
The first calculation means calculates, as the evaluation value, a pixel difference value between the plurality of image data in the evaluation region.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
被写体の一連の動作における所定の状態が撮像された画像データを特定する画像処理装置が実行する画像処理方法であって、
前記一連の動作が連続して撮像された複数の画像データを取得する取得ステップと、
前記取得ステップで取得した複数の前記画像データの各々に、前記被写体の大きさ及び位置に応じた複数の評価領域を設定する設定ステップと、
前記設定ステップで設定した評価領域における前記複数の画像データ間の評価値を算出する算出ステップと、
前記算出ステップで夫々算出した評価値に基づいて、前記所定の状態の画像データを特定する特定ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus that identifies image data obtained by capturing a predetermined state in a series of movements of a subject,
An acquisition step of acquiring a plurality of image data obtained by continuously imaging the series of operations;
A setting step of setting a plurality of evaluation areas according to the size and position of the subject in each of the plurality of image data acquired in the acquisition step;
A calculation step for calculating an evaluation value between the plurality of image data in the evaluation region set in the setting step;
A specifying step of specifying the image data in the predetermined state based on the evaluation values calculated in the calculating step;
An image processing method comprising:
被写体の一連の動作における所定の状態が撮像された画像データを特定する画像処理を制御するコンピュータを、
被写体の一連の動作が連続して撮像された複数の画像データを取得する取得手段、
前記取得手段により取得された複数の画像データの各々に、前記被写体の大きさ及び位置に応じた評価領域を設定する設定手段、
前記設定手段により設定された評価領域における前記複数の画像データ間の評価値を夫々算出する算出手段、
前記算出手段により夫々算出された評価値に基づいて、前記所定の状態の画像データを特定する特定手段、
として機能させることを特徴とするプログラム。
A computer that controls image processing for identifying image data in which a predetermined state in a series of movements of a subject is captured;
Acquisition means for acquiring a plurality of image data in which a series of actions of a subject are continuously captured;
Setting means for setting an evaluation area corresponding to the size and position of the subject in each of a plurality of image data acquired by the acquisition means;
Calculating means for calculating evaluation values between the plurality of image data in the evaluation area set by the setting means;
Identification means for identifying the image data in the predetermined state based on the evaluation values respectively calculated by the calculation means;
A program characterized by functioning as
JP2012207061A 2012-09-20 2012-09-20 Image identification device, image identification method, and program Active JP6060585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012207061A JP6060585B2 (en) 2012-09-20 2012-09-20 Image identification device, image identification method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012207061A JP6060585B2 (en) 2012-09-20 2012-09-20 Image identification device, image identification method, and program

Publications (3)

Publication Number Publication Date
JP2014063275A true JP2014063275A (en) 2014-04-10
JP2014063275A5 JP2014063275A5 (en) 2015-11-05
JP6060585B2 JP6060585B2 (en) 2017-01-18

Family

ID=50618471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012207061A Active JP6060585B2 (en) 2012-09-20 2012-09-20 Image identification device, image identification method, and program

Country Status (1)

Country Link
JP (1) JP6060585B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2010082430A (en) * 2008-09-02 2010-04-15 Yokohama Rubber Co Ltd:The Method of selecting golf club and system for selecting golf club
JP2011254151A (en) * 2010-05-31 2011-12-15 Casio Comput Co Ltd Moving image reproduction device, moving image reproduction method, and program
JP2012094130A (en) * 2010-10-01 2012-05-17 Raytron:Kk Operation analyzing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009200713A (en) * 2008-02-20 2009-09-03 Sony Corp Image processing device, image processing method, and program
JP2010082430A (en) * 2008-09-02 2010-04-15 Yokohama Rubber Co Ltd:The Method of selecting golf club and system for selecting golf club
JP2011254151A (en) * 2010-05-31 2011-12-15 Casio Comput Co Ltd Moving image reproduction device, moving image reproduction method, and program
JP2012094130A (en) * 2010-10-01 2012-05-17 Raytron:Kk Operation analyzing device

Also Published As

Publication number Publication date
JP6060585B2 (en) 2017-01-18

Similar Documents

Publication Publication Date Title
US8988529B2 (en) Target tracking apparatus, image tracking apparatus, methods of controlling operation of same, and digital camera
JP4748244B2 (en) Image selection apparatus, image selection method, and program
JP4900014B2 (en) Imaging apparatus and program thereof
JP5240328B2 (en) Imaging apparatus and program
US9367746B2 (en) Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images
JP5625995B2 (en) Subject tracking device, subject tracking method and program
JP5842807B2 (en) Image analysis device, information notification device, image analysis method, information notification method, and program
US9679383B2 (en) Display control apparatus displaying image
KR101642854B1 (en) Image processing apparatus, image processing method, and storage medium
US10382704B2 (en) Image processing device that generates a composite image
KR102420094B1 (en) Image processing apparatus, image processing method, and program
US20140285718A1 (en) Moving image extracting apparatus extracting moving image of predetermined period from moving image
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
US11388331B2 (en) Image capture apparatus and control method thereof
JP5970890B2 (en) Exercise count measuring device, exercise count measuring method and program
JP2015012482A (en) Image processing apparatus and image processing method
JP5880135B2 (en) Detection apparatus, detection method, and program
US20140186005A1 (en) Display control apparatus that displays image corresponding to predetermined motion
JP6060585B2 (en) Image identification device, image identification method, and program
JP5884759B2 (en) Image processing apparatus, image processing method, and program
JP6168127B2 (en) Image analysis apparatus, image analysis method, and program
JP5906861B2 (en) Information processing apparatus, information processing method, and program
US20160269624A1 (en) Image Photographing Apparatus and Method for Photographing Image Thereof
US20230276127A1 (en) Image processing apparatus and image processing method
JP6727890B2 (en) Image recognition device, image recognition method, and image recognition program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150917

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161128

R150 Certificate of patent or registration of utility model

Ref document number: 6060585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150