JP5884759B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5884759B2
JP5884759B2 JP2013060125A JP2013060125A JP5884759B2 JP 5884759 B2 JP5884759 B2 JP 5884759B2 JP 2013060125 A JP2013060125 A JP 2013060125A JP 2013060125 A JP2013060125 A JP 2013060125A JP 5884759 B2 JP5884759 B2 JP 5884759B2
Authority
JP
Japan
Prior art keywords
separation
degree
frame
ball
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013060125A
Other languages
Japanese (ja)
Other versions
JP2014187484A (en
Inventor
優一 宮本
優一 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013060125A priority Critical patent/JP5884759B2/en
Publication of JP2014187484A publication Critical patent/JP2014187484A/en
Application granted granted Critical
Publication of JP5884759B2 publication Critical patent/JP5884759B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、計測物体の領域を検出する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for detecting a region of a measurement object.

従来より、ゴルフやテニス等の球技におけるユーザのフォームが連続画像として撮像され、当該連続画像が解析され、その解析結果に基づいてユーザのフォームのアドバイス等が行われている。
このような連続画像の解析の1つとして、連続画像から、移動するボールを検出する技術が知られている(例えば特許文献1及び2参照)。
Conventionally, a user's form in a ball game such as golf or tennis is captured as a continuous image, the continuous image is analyzed, and advice of the user's form is performed based on the analysis result.
As one of such continuous image analyses, a technique for detecting a moving ball from a continuous image is known (see, for example, Patent Documents 1 and 2).

特開2008−60974号公報JP 2008-60974 A 特開2008−60982号公報JP 2008-60982 A

しかしながら、特許文献1を含め従来の技術では、連続画像に含まれる移動物体がボールだけの場合には一定の精度でボールを検出することができるものの、ゴルフクラブ等、ボールと略等しい速度の移動物体がボールとは別に存在するような場合には、ボールの検出の精度が悪化したり、ボールの検出がうまくできなくなる虞があった。
そこで、計測対象の物体以外の動体が画像中に存在する場合でも、精度良く計測対象の物体を検出することが要望されている。
However, in the conventional techniques including Patent Document 1, when the moving object included in the continuous image is only a ball, the ball can be detected with a certain accuracy. When the object exists separately from the ball, there is a possibility that the accuracy of detecting the ball deteriorates or the ball cannot be detected well.
Therefore, there is a demand for detecting an object to be measured with high accuracy even when moving objects other than the object to be measured are present in the image.

本発明は、このような状況に鑑みてなされたものであり、計測対象の物体以外の動体が画像中に存在する場合でも精度良く計測対象の物体を検出できるようにすることを目的とする。   The present invention has been made in view of such a situation, and an object of the present invention is to enable detection of an object to be measured with high accuracy even when a moving object other than the object to be measured exists in an image.

上記目的を達成するため、本発明の一態様の画像処理装置は、
連続的に撮像された複数の画像の分離度を算出する分離度算出手段と、
前記分離度算出手段により算出された分離度の前記複数の画像間における差分値を算出する分離度差分値算出手段と、
前記連続的に撮像された複数の画像から、前記分離度差分値算出手段により算出された前記分離度差分値に基づいて、計測対象の物体のフレームアウト直前の画像を特定する特定手段と、
前記特定手段により特定された前記フレームアウト直前の画像を基準として、前記連続的に撮像された前記複数の画像の夫々から前記計測対象の物体の領域を検出する検出手段と、
を備えることを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
A degree-of-separation calculating means for calculating the degree of separation of a plurality of images captured continuously;
A degree-of-separation difference value calculating means for calculating a difference value between the plurality of images of the degree of separation calculated by the degree-of-separation calculating means ;
A specifying unit for specifying an image immediately before the frame-out of the object to be measured based on the separation degree difference value calculated by the separation degree difference value calculating unit from the plurality of images captured continuously;
Detecting means for detecting a region of the object to be measured from each of the plurality of images taken continuously with reference to the image immediately before the frame-out specified by the specifying means;
It is characterized by providing.

本発明によれば、計測対象の物体以外の動体が画像中に存在する場合でも精度良く計測対象の物体を検出することが可能になる。   According to the present invention, it is possible to accurately detect an object to be measured even when a moving object other than the object to be measured exists in the image.

本発明の画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the imaging device which concerns on one Embodiment of the image processing apparatus of this invention. 図1の撮像装置の機能的構成のうち、ボール速度推定処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing a ball speed estimation process among the functional structures of the imaging device of FIG. 図2の撮像装置によりボールの軌跡及び速度が算出する際に用いられる指標値の算出の手法を説明するための図であって、処理対象の所定フレームに対応する差分分離度マップの一例を示す図である。FIG. 3 is a diagram for explaining a technique for calculating an index value used when calculating the trajectory and speed of a ball by the imaging apparatus of FIG. 2, and shows an example of a difference resolution map corresponding to a predetermined frame to be processed. FIG. 図2の撮像装置によりボールの軌跡及び速度が算出する際に用いられるボールの検出の手法を説明するための、終端画像の一例を示す図である。It is a figure which shows an example of the termination | terminus image for demonstrating the detection method of the ball | bowl used when the locus | trajectory and speed | velocity | rate of a ball | bowl are calculated with the imaging device of FIG. 図2の撮像装置によりボールの軌跡及び速度が算出する際に用いられるボールの検出の手法を説明するための図であって、検出領域の一例を示す図である。It is a figure for demonstrating the detection method of the ball | bowl used when the locus | trajectory and speed of a ball | bowl are calculated with the imaging device of FIG. 2, Comprising: It is a figure which shows an example of a detection area. 図2の機能的構成を有する図1の撮像装置が実行するボール速度推定処理の流れを説明するフローチャートである。3 is a flowchart for explaining a flow of ball speed estimation processing executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 2. 図6のボール速度推定処理のうち、ショット前部分の速度算出処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of the speed calculation process of the part before a shot among the ball speed estimation processes of FIG. 図6のボール速度推定処理のうち、ショット後部分のボール検出処理の詳細な流れを説明するフローチャートである。It is a flowchart explaining the detailed flow of the ball detection process of the part after a shot among the ball speed estimation processes of FIG. 図8のショット後部分のボール検出処理のうち、逆時系列順のボール検出処理の詳細な流れを説明するフローチャートである。FIG. 9 is a flowchart for explaining a detailed flow of a ball detection process in reverse chronological order among the ball detection processes in the post-shot portion of FIG. 8.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の画像処理装置の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus according to an embodiment of the image processing apparatus of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、画像処理部14と、バス15と、入出力インターフェース16と、撮像部17と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging device 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an image processing unit 14, a bus 15, an input / output interface 16, and an imaging unit. 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.
The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

画像処理部14は、DSP(Digital Signal Processor)や、VRAM(Video Random Access Memory)等から構成されており、CPU11と協働して、画像のデータに対して各種画像処理を施す。
例えば、画像処理部41は、撮像部17から出力される画像のデータに対して、ノイズ低減、ホワイトバランスの調整、手ぶれ補正等の画像処理を施す。
The image processing unit 14 is configured by a DSP (Digital Signal Processor), a VRAM (Video Random Access Memory), and the like, and performs various image processing on image data in cooperation with the CPU 11.
For example, the image processing unit 41 performs image processing such as noise reduction, white balance adjustment, and camera shake correction on the image data output from the imaging unit 17.

CPU11、ROM12、RAM13及び画像処理部14は、バス15を介して相互に接続されている。このバス15にはまた、入出力インターフェース16も接続されている。入出力インターフェース16には、撮像部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, RAM 13, and image processing unit 14 are connected to each other via a bus 15. An input / output interface 16 is also connected to the bus 15. An imaging unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 16.

撮像部17は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 17 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部17の出力信号として出力される。
このような撮像部17の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や画像処理部14等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. A digital signal is generated by various signal processing and output as an output signal of the imaging unit 17.
Such an output signal of the imaging unit 17 is hereinafter referred to as “captured image data”. The captured image data is appropriately supplied to the CPU 11, the image processing unit 14, and the like.

入力部18は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 18 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 19 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

図2は、このような撮像装置1の機能的構成のうち、ボール速度推定処理を実行するための機能的構成を示す機能ブロック図である。   FIG. 2 is a functional block diagram illustrating a functional configuration for executing the ball speed estimation process among the functional configurations of the imaging apparatus 1 as described above.

ここで、ボール速度推定処理とは、例えばゴルフのスイングの動作が高速撮影された連続画像(例えば本実施形態では、複数のフレームから構成される動画像であるとする)が処理対象の画像とされて、処理対象の画像における移動(飛行)するボールの軌跡及び速度が算出されるまでに実行される一連の処理をいう。
本実施形態では、精度良いボールの追跡を可能にすべく、撮像装置1は、移動するボールがカメラの撮像範囲から外れて撮像されなくなった(被写体として含まれなくなった)フレーム(以下、「フレームアウト画像」と呼ぶ)を特定する。そして、撮像装置1は、当該フレームアウト画像に基づいて、ボール速度推定アルゴリズムを逆時系列順に適用することで、ボールの軌跡及び速度を算出する。
ここで、ボール速度推定アルゴリズムとは、処理対象の連続画像の輝度画像から、分離度マップ(処理対象と同一解像度の画像であって、各画素値として分離度が採用されている画像)を生成し、ボールが等速直線運動をしているという仮定の下で分離度の高い地点(画素)を結ぶことによって、ボールの軌跡を算出すると共に、当該ボールの速度を算出するためのアルゴリズムをいう。分離度を含め、ボール速度推定アルゴリズムの詳細は、特許文献1に既に開示されているので、ここではその説明は省略する。
詳細については後述するが、本実施形態では、ボール速度推定アルゴリズムが適用されるに際し、ゴルフクラブとボールとの関係から適応的に各種閾値が自動的に設定されて用いられるので、特許文献1における場合と比較して推定の精度が向上する。
Here, the ball speed estimation process is, for example, a continuous image (for example, a moving image composed of a plurality of frames in the present embodiment) obtained by shooting a golf swing motion at a high speed and an image to be processed. It means a series of processes executed until the trajectory and speed of the moving (flighting) ball in the image to be processed are calculated.
In the present embodiment, in order to enable accurate tracking of the ball, the imaging apparatus 1 uses a frame (hereinafter referred to as “frame”) in which the moving ball is no longer imaged out of the imaging range of the camera. (Referred to as “out image”). Then, the imaging apparatus 1 calculates the trajectory and speed of the ball by applying the ball speed estimation algorithm in reverse time series based on the frame-out image.
Here, the ball speed estimation algorithm generates a separability map (an image having the same resolution as the processing target and using the separability as each pixel value) from the luminance image of the continuous image to be processed. An algorithm for calculating the trajectory of the ball and calculating the velocity of the ball by connecting points (pixels) with a high degree of separation under the assumption that the ball is moving at a constant linear velocity. . Since details of the ball speed estimation algorithm including the degree of separation have already been disclosed in Patent Document 1, the description thereof is omitted here.
Although details will be described later, in the present embodiment, when the ball speed estimation algorithm is applied, various threshold values are automatically set and used adaptively from the relationship between the golf club and the ball. The accuracy of estimation is improved compared to the case.

このようなボール速度算出処理が実行される場合、図2に示すように、CPU11又は画像処理部14においては、画像読み込み部51と、分離度算出部52と、差分分離度算出部53と、クラブ速度算出部54と、指標値算出部55と、フレームアウト画像特定部56と、閾値設定部57と、ボール検出部58と、ボール速度算出部59とが機能する。
記憶部20の一領域として、動画記憶部61と、対象画像記憶部62とが設けられる。
動画記憶部61には、ゴルフのスイングの動作の様子が夫々映る1以上の動画像のデータが予め記憶されている。なお、動画記憶部61に記憶される動画像のデータは、撮像部17により撮像された撮像画像のデータであってもよいし、図示せぬ他の装置から送信されて通信部21に受信された画像のデータであってもよい。
対象画像記憶部62には、動画記憶部61に記憶された1以上の動画像のデータのうち、ボール速度算出処理の対象となるデータ、即ちボールの軌跡及び速度の算出の対象となる動画像のデータが記憶される。
When such a ball speed calculation process is executed, as shown in FIG. 2, in the CPU 11 or the image processing unit 14, an image reading unit 51, a separation degree calculation unit 52, a difference separation degree calculation unit 53, A club speed calculation unit 54, an index value calculation unit 55, a frame-out image specifying unit 56, a threshold setting unit 57, a ball detection unit 58, and a ball speed calculation unit 59 function.
As one area of the storage unit 20, a moving image storage unit 61 and a target image storage unit 62 are provided.
The moving image storage unit 61 stores in advance data of one or more moving images in which the state of the golf swing operation is shown. The moving image data stored in the moving image storage unit 61 may be data of a captured image captured by the imaging unit 17, or may be transmitted from another device (not shown) and received by the communication unit 21. The image data may also be used.
The target image storage unit 62 stores data to be subjected to ball speed calculation processing among the data of one or more moving images stored in the moving image storage unit 61, that is, moving images to be subjected to ball trajectory and speed calculation. Are stored.

画像読み込み部51は、ボール速度算出処理の対象となる動画像のデータを動画記憶部61から読み込み、対象画像記憶部62に記憶させる。   The image reading unit 51 reads the moving image data to be subjected to the ball speed calculation process from the moving image storage unit 61 and stores it in the target image storage unit 62.

ここで、ボール速度算出処理は、ボールのショットのシーンの前後についての、次の2つの処理に大別される。
即ち、ボールのショットのシーンの前の処理として、ショットの前まではボールは静止しており速度は0であるため、ショット直前のゴルフクラブの速度を算出する処理が実行される。以下、このような処理を、「ショット前の速度算出処理」と呼ぶ。
一方、ボールのショットのシーンの後の処理として、ショット後に移動する(飛んでいく)ボールの軌跡を算出する処理(以下、「ショット後のボール検出処理」と呼ぶ)が実行されて、ボールの速度を算出する処理が実行される。
Here, the ball speed calculation process is roughly divided into the following two processes before and after the scene of the ball shot.
That is, as the process before the shot scene of the ball, since the ball is stationary and the speed is 0 before the shot, the process of calculating the speed of the golf club immediately before the shot is executed. Hereinafter, such processing is referred to as “speed calculation processing before shot”.
On the other hand, as a process after the ball shot scene, a process of calculating a trajectory of the ball that moves (flys) after the shot (hereinafter referred to as a “ball detection process after the shot”) is executed. Processing for calculating the speed is executed.

ショット前部分の速度算出処理が実行される場合、図2の機能ブロックのうち、特に、画像読み込み部51、分離度算出部52、差分分離度算出部53、及びクラブ速度算出部54が機能する。   When the speed calculation process for the pre-shot portion is executed, among the functional blocks in FIG. 2, in particular, the image reading unit 51, the separation degree calculation unit 52, the difference separation degree calculation unit 53, and the club speed calculation unit 54 function. .

画像読み込み部51は、対象画像記憶部62に記憶されている動画像のデータのうち、ショット前の様子が映る所定区間の動画像のデータ、例えばショットフレーム直前の4フレームのデータを処理対象として読み込む。
ここで、ショットフレームとは、ショットの瞬間が映るフレームであり、既知のアルゴリズムにより特定されているものとする。また、ショットフレーム内のボールの位置も既に特定されているものとする。
The image reading unit 51 uses moving image data stored in the target image storage unit 62 as a processing target, such as moving image data in a predetermined section in which a state before a shot is reflected, for example, data of four frames immediately before the shot frame. Read.
Here, the shot frame is a frame in which the moment of the shot is shown, and is assumed to be specified by a known algorithm. It is also assumed that the position of the ball in the shot frame has already been specified.

分離度算出部52は、処理対象の各フレームのデータ毎に、画素単位で分離度を算出することで、分離度マップを夫々生成する。即ち、ショット前部分の速度算出処理では、ショットフレーム直前の4フレームの夫々に対応して、分離度マップが夫々生成される。   The degree-of-separation calculation unit 52 generates a degree-of-separation map by calculating the degree of separation in units of pixels for each data of each frame to be processed. That is, in the speed calculation process for the pre-shot portion, a separability map is generated for each of the four frames immediately before the shot frame.

分離度の算出の手法は、特に限定されないが、本実施形態では、特許文献1に記載の手法が採用されているものとする。
以下、特許文献1に記載の分離度の算出の手法の概要について説明する。
例えば、所定のフレーム(画像)における所定の座標(x,y)に位置する画素が、注目画素に設定されるものとする。移動物体の半径が「ro」とされ、移動物体の振れ幅範囲が「r」とされた場合、注目画素を中心として、座標(x−2r,y−2r0)、座標(x−2r,y+2r0)、座標(x+2r,y−2r0)、及び座標(x+2r,y+2r0)の夫々4点を頂点とする矩形領域が全体領域A0に設定される。また、全体領域A0のうち、座標(x−r,y−r0)、座標(x−r,y+r0)、座標(x+r,y−r0)、及び座標(x+r,y+r0)を頂点とする矩形領域が第1領域A1に設定され、第1領域A1以外の領域が第2領域A2に設定される。
ここで、全体領域A0について、画素数が「N」と、各画素値(輝度値)が「Pi」と、画素値平均が「Pmave」と、夫々記述され、第1領域A1について、画素数が「n1」と、画素値平均が「P1ave」と、夫々記述され、第2領域A2について、画素数が「n2」と、画素値平均が「P2ave」と、夫々記述された場合に、注目画素の分離度ηは、次式(1)により算出される。

Figure 0005884759
なお、画素値としては、輝度値に代えて、例えば特定の色成分や色相等を利用してもよい。
式(1)の分離度ηは、全体領域A0全体の変動に占める第1領域A1と第2領域A2との領域間の変動の割合を示しており、領域間を最良に分離するときに最大値をとるようになっている。
ここで、式(1)の分離度ηは、0〜1の範囲に正規化された値であるため、異なる大きさや形状の領域に適用しても単純に比較することができる点で有用である。
なお、当該手法のさらなる詳細については、特許文献1を参照するとよい。 The method of calculating the degree of separation is not particularly limited, but in the present embodiment, the method described in Patent Document 1 is adopted.
The outline of the method for calculating the degree of separation described in Patent Document 1 will be described below.
For example, a pixel located at a predetermined coordinate (x, y) in a predetermined frame (image) is set as the target pixel. When the radius of the moving object is “ro” and the swing range of the moving object is “r”, the coordinates (x−2r, y−2r0) and the coordinates (x−2r, y + 2r0) are centered on the target pixel. ), Coordinates (x + 2r, y−2r0), and coordinates (x + 2r, y + 2r0), a rectangular area having apexes at four points is set as the entire area A0. Further, in the entire area A0, a rectangular area having coordinates (x−r, y−r0), coordinates (x−r, y + r0), coordinates (x + r, y−r0), and coordinates (x + r, y + r0) as vertices. Is set as the first area A1, and the area other than the first area A1 is set as the second area A2.
Here, for the entire area A0, the number of pixels is described as “N”, each pixel value (luminance value) is “Pi”, and the average pixel value is “Pmave”, and the number of pixels for the first area A1. When “n1” is described as “P1ave” and the pixel value average is described as “P1ave”, and for the second area A2, the number of pixels is described as “n2” and the pixel value average is “P2ave”. The pixel separation η is calculated by the following equation (1).
Figure 0005884759
As the pixel value, for example, a specific color component or hue may be used instead of the luminance value.
The degree of separation η in Expression (1) indicates the ratio of the variation between the first region A1 and the second region A2 in the variation of the entire region A0, and is the maximum when the regions are best separated. It is supposed to take a value.
Here, the degree of separation η in equation (1) is a value normalized to a range of 0 to 1, and is useful in that it can be simply compared even when applied to regions of different sizes and shapes. is there.
For further details of the method, Patent Document 1 may be referred to.

処理対象の各フレーム毎に、全画素が注目画素に順次設定されて、その都度分離度ηが算出されることによって、分離度マップが夫々生成される。即ち、1枚のフレームに対応して、各分離度ηを各画素値として有する画像のデータが分離度マップとして生成される。   For each frame to be processed, all the pixels are sequentially set as the target pixel, and the degree of separation η is calculated each time, thereby generating a degree of separation map. That is, image data having each degree of separation η as each pixel value is generated as a degree of separation map corresponding to one frame.

差分分離度算出部53は、処理対象の各フレームのデータ毎に、所定フレームに対応する分離度マップと、その直前のフレームに対応する分離度マップとの間で、いわゆるフレーム間差分値(対応する画素位置での各分離度の差分)を算出する。なお、この算出の結果得られる、分離度の差分値を各画素値として有する画像のデータを、以下、「差分分離度マップ」と呼ぶ。
このように差分分離度マップが算出される理由は、静止物体の影響を除去することができるからである。つまり、背景に移動物体と大きさが略等しい静止物体(或いは、図柄模様を有する物体等)が存在する場合には、当該静止物体の領域における分離度が、移動物体の領域と同様に高くなり、分離度に基づくボールの位置の算出が行われる場合には、当該静止物体の位置がボールの位置と誤認されるおそれがある。そこで、隣接するフレームに対応する各分離度マップの差分を取ることで、即ち差分分離度マップが生成されることで、この静止物体の領域における差分値は略0になるため、当静止静物体の影響を除去することが可能になる。
なお、分離度の差分のさらなる詳細については、特許文献1を参照するとよい。
For each frame data to be processed, the difference separation degree calculation unit 53 generates a so-called interframe difference value (correspondence between a separation degree map corresponding to a predetermined frame and a separation degree map corresponding to the immediately preceding frame). Difference of each degree of separation at the pixel position to be calculated). Note that image data obtained as a result of this calculation and having a difference value of the degree of separation as each pixel value is hereinafter referred to as a “difference degree of separation map”.
The reason why the difference separation degree map is calculated in this way is that the influence of a stationary object can be removed. In other words, when there is a stationary object (or an object having a design pattern, etc.) that is approximately the same size as the moving object in the background, the degree of separation in the area of the stationary object is high as in the area of the moving object. When the position of the ball is calculated based on the degree of separation, the position of the stationary object may be mistaken for the position of the ball. Therefore, by calculating the difference between the respective separability maps corresponding to adjacent frames, that is, by generating the differential separability map, the difference value in the area of the stationary object becomes approximately 0. It becomes possible to remove the influence of.
Note that Patent Document 1 may be referred to for further details of the difference in the degree of separation.

クラブ速度算出部54は、処理対象の各フレームの夫々に対応する各差分分離度マップを用いて、ゴルフクラブを移動物体として、当該ゴルフクラブの速度を算出する。
即ち、差分分離度マップで表される各画素位置の分離度の差分は、背景画像中の静止物体の影響が除去された、各画素位置の移動物体(ここではゴルフクラブ)が存する確度に係る評価値を表している。
そこで、クラブ速度算出部54は、ゴルフクラブの移動が予測される領域内において、評価値を累積し、その累積値に基づいてゴルフクラブの速度を算出する。
なお、移動物体(ここではゴルフクラブ)の速度の算出の手法のさらなる詳細については、特許文献1を参照するとよい。
The club speed calculation unit 54 calculates the speed of the golf club using the difference separation degree map corresponding to each frame to be processed using the golf club as a moving object.
That is, the difference in the degree of separation at each pixel position represented by the difference degree of separation map relates to the probability that the moving object (here, a golf club) at each pixel position from which the influence of the stationary object in the background image has been removed exists. Represents an evaluation value.
Therefore, the club speed calculation unit 54 accumulates the evaluation value within the region where the movement of the golf club is predicted, and calculates the golf club speed based on the accumulated value.
For further details of the method of calculating the speed of the moving object (here, the golf club), Patent Document 1 may be referred to.

このようにして、画像読み込み部51、分離度算出部52、差分分離度算出部53、及びクラブ速度算出部54により、ショット前部分の速度算出処理が実行されると、ボールのショットの後の処理として、上述したように、ショット後のボール検出処理が実行されて、ボールの速度を算出する処理が実行される。   In this way, when the speed calculation process for the pre-shot portion is executed by the image reading unit 51, the separation degree calculation unit 52, the difference separation degree calculation unit 53, and the club speed calculation unit 54, As the processing, as described above, the ball detection processing after the shot is executed, and the processing for calculating the velocity of the ball is executed.

ショット後のボール検出処理が実行される場合、図2の機能ブロックのうち、特に、画像読み込み部51、分離度算出部52、差分分離度算出部53、指標値算出部55、フレームアウト画像特定部56、閾値設定部57、及びボール検出部58が機能する。   When the ball detection process after a shot is executed, among the functional blocks in FIG. 2, in particular, the image reading unit 51, the separation degree calculation unit 52, the difference separation degree calculation unit 53, the index value calculation unit 55, and the frame-out image specification The unit 56, the threshold setting unit 57, and the ball detection unit 58 function.

画像読み込み部51は、対象画像記憶部62に記憶されている動画像のデータのうち、ショット後の様子が映る所定区間の動画像のデータ、例えばショットフレーム直後の15フレームのデータを処理対象として読み込む。
その後、処理対象の各フレームのデータ毎に、分離度算出部52により分離度マップが夫々算出され、差分分離度算出部53により差分分離度マップが夫々算出される。
The image reading unit 51 processes moving image data in a predetermined section in which the state after the shot is reflected, for example, data of 15 frames immediately after the shot frame, among the moving image data stored in the target image storage unit 62. Read.
Thereafter, the separation degree calculation unit 52 calculates a separation degree map for each processing target frame data, and the difference separation degree calculation unit 53 calculates a difference separation degree map.

指標値算出部55は、処理対象の各フレームの各々に対応する差分分離度マップについて、ゴルフのボールの移動が予想される領域において、差分分離度(評価値)を累積した値を、当該ボールが存する確度の指標を示す値(以下、「指標値」と呼ぶ)として算出する。   The index value calculation unit 55 uses a value obtained by accumulating the difference separation degree (evaluation value) in the region where the golf ball is expected to move in the difference separation degree map corresponding to each frame to be processed. Is calculated as a value indicating an accuracy index (hereinafter referred to as “index value”).

図3は、指標値の算出の手法を説明するための、処理対象の所定フレームに対応する差分分離度マップの一例を示している。
例えば、処理対象の所定フレームに対応する差分分離度マップFTのうち、右下の領域CAが、ゴルフのボールの移動が予想される領域であるものとする。この領域CAは、座標(x1,y1)、座標(xn,y1)、座標(x1,ym)、及び座標(xn,ym)の夫々4点を頂点とする矩形領域とされている。ここで、nは、1以上の整数値であるものとする。即ち、領域CAの長辺の長さ(X軸方向の長さ)は、n画素分の長さとされている。具体的には例えば、本実施形態では、nは、水平ラインの全画素数の4/5であるものとする。一方、mは、1以上の整数値であってnとは独立した整数値であるものとする。即ち、領域CAの短辺の長さ(Y軸方向の長さ)は、m画素分の長さとされている。具体的には例えば、本実施形態では、mは、垂直ラインの全画素数の1/2であるものとする。
この場合、指標値算出部55は、処理対象の所定フレームに対応する差分分離度マップFTのうち、領域CAの各X座標毎に、Y軸方向への差分分離度の累積加算値を、指標値として算出する。
即ち、X座標xi(iは、1乃至nのうち何れかの整数値)における指標値T[xi]は、次の式(2)により算出される。

Figure 0005884759
式(2)において、D[xi,yj]は、処理対象の所定フレームにおける座標(xi,yj)に位置する画素についての、差分分離度を示している。
即ち、処理対象の所定フレームについて、n個(領域CAのX方向の画素数分)の指標値T[x1]乃至T[xn]が算出される。つまり、本実施形態では、処理対象の15フレーム毎に、n個の指標値T[x1]乃至T[xn]が夫々算出される。 FIG. 3 shows an example of a difference separation degree map corresponding to a predetermined frame to be processed for explaining a technique for calculating an index value.
For example, in the difference separation degree map FT corresponding to a predetermined frame to be processed, the lower right area CA is an area where a golf ball is expected to move. This area CA is a rectangular area having apexes at four points of coordinates (x1, y1), coordinates (xn, y1), coordinates (x1, ym), and coordinates (xn, ym). Here, n is an integer value of 1 or more. That is, the length of the long side of the area CA (the length in the X-axis direction) is a length corresponding to n pixels. Specifically, for example, in this embodiment, n is assumed to be 4/5 of the total number of pixels in the horizontal line. On the other hand, m is an integer value of 1 or more and is an integer value independent of n. That is, the length of the short side (the length in the Y-axis direction) of the area CA is set to m pixels. Specifically, for example, in the present embodiment, m is assumed to be 1/2 of the total number of pixels in the vertical line.
In this case, the index value calculation unit 55 calculates the cumulative addition value of the difference separation degree in the Y-axis direction for each X coordinate of the area CA in the difference separation degree map FT corresponding to the predetermined frame to be processed. Calculate as a value.
That is, the index value T [xi] at the X coordinate xi (i is any integer value from 1 to n) is calculated by the following equation (2).
Figure 0005884759
In Expression (2), D [xi, yj] represents the difference separation degree for the pixel located at the coordinates (xi, yj) in the predetermined frame to be processed.
That is, n index values T [x1] to T [xn] (for the number of pixels in the X direction of the area CA) are calculated for a predetermined frame to be processed. That is, in this embodiment, n index values T [x1] to T [xn] are calculated for every 15 frames to be processed.

図2に戻り、フレームアウト画像特定部56は、指標値算出部55の算出結果に基づいて、処理対象の15フレームの中から、ゴルフのボールがカメラの撮像範囲外まで移動(飛行)した結果として当該ボールが含まれなくなったフレームを、フレームアウト画像として特定する。
具体的には本実施形態では、フレームアウト画像特定部56は、処理対象の15フレームの中から、指標値T[x1]乃至T[xn]の中に閾値以上のものが存在するフレームを特定する。
ここで、閾値は、ボールが存在する確度が一定以上となる指標値に基づいて任意に設定される。なお、当該閾値を、後述の他の閾値と明確に区別すべく、「第1閾値」と呼ぶ。即ち、注目フレームにおいて第1閾値以上の指標値T[xi]があるということは、注目フレームにおける領域CAのX座標xiの位置(Y軸方向についてはY座標y1乃至ymのうちの何れかの位置)に、一定の確度以上でボールが位置することを意味する。
従って、ゴルフのボールが、動画像においては相対的に左から右方向に移動していくものとすると、当該ボールがカメラの撮像範囲内で移動中の場合(その様子が映っているフレームが連続している場合)、第1閾値以上の指標値T[xi]のx座標xiは、直前のフレームに対して右に移行しているはずである。そして、当該ボールがカメラの撮像範囲の外に移動した段階のフレーム、即ちフレームアウト画像になると、第1閾値以上の指標値T[xi]は急に存在しなくなるはずである。
そこで、フレームアウト画像特定部56は、処理対象の15フレームの中から、第1閾値以上の指標値T[xi]が存在するフレームを特定すると、次以降のフレームについて、第1閾値以上の指標値T[xi]を追跡していき、それが右に移動していき急に存在しなくなると、その時点のフレームをフレームアウト画像と特定する。
なお、フレームアウト画像の特定のより詳細な処理については、図8のフローチャートを参照して後述する。
Returning to FIG. 2, based on the calculation result of the index value calculation unit 55, the frame-out image specifying unit 56 results from the movement (flight) of the golf ball from the 15 frames to be processed to the outside of the imaging range of the camera. The frame in which the ball is no longer included is specified as a frame-out image.
Specifically, in the present embodiment, the frame-out image specifying unit 56 specifies a frame in which index values T [x1] to T [xn] are greater than or equal to a threshold value from 15 frames to be processed. To do.
Here, the threshold value is arbitrarily set based on an index value with which the accuracy of the presence of the ball becomes a certain level or more. The threshold value is referred to as a “first threshold value” in order to clearly distinguish it from other threshold values described later. That is, when there is an index value T [xi] that is greater than or equal to the first threshold in the frame of interest, the position of the X coordinate xi of the area CA in the frame of interest (any of Y coordinates y1 to ym in the Y-axis direction). Position) means that the ball is positioned with a certain degree of accuracy.
Therefore, if a golf ball moves relatively from left to right in a moving image, the ball is moving within the imaging range of the camera (the frames in which the state is shown are continuous). The x coordinate xi of the index value T [xi] equal to or greater than the first threshold value should have shifted to the right with respect to the immediately preceding frame. Then, when it becomes a frame at a stage where the ball has moved out of the imaging range of the camera, that is, a frame-out image, the index value T [xi] greater than or equal to the first threshold value should not suddenly exist.
Therefore, when the frame-out image specifying unit 56 specifies a frame in which the index value T [xi] is equal to or greater than the first threshold from the 15 frames to be processed, the index equal to or greater than the first threshold is set for the subsequent frames. When the value T [xi] is tracked and moves to the right and suddenly disappears, the frame at that time is identified as a frame-out image.
The specific detailed processing of the frame-out image will be described later with reference to the flowchart of FIG.

閾値設定部57は、上述の第1閾値を可変設定してフレームアウト画像特定部56に適宜通知する他、後述のボール検出部58において用いられる閾値(第1閾値と明確に区別すべく以下「第2閾値」と呼ぶ)を可変設定してボール検出部58に適宜通知する。
閾値の可変設定の手法は、特に限定されないが、本実施形態では、対象画像記憶部62に記憶されている動画像の各データの輝度に基づいて閾値を設定する、という手法が採用されている。これにより、対象画像記憶部62に記憶されている動画像に応じた、即ち処理対象に応じた適切な閾値の設定が可能になる。
The threshold value setting unit 57 variably sets the first threshold value described above and notifies the frame-out image specifying unit 56 as appropriate. In addition, the threshold value setting unit 57 uses a threshold value used in a ball detection unit 58 described later (to be clearly distinguished from the first threshold value below. The second detection threshold value ”is variably set and notified to the ball detection unit 58 as appropriate.
The method for variably setting the threshold is not particularly limited, but in the present embodiment, a method is adopted in which the threshold is set based on the brightness of each data of the moving image stored in the target image storage unit 62. . Accordingly, it is possible to set an appropriate threshold value according to the moving image stored in the target image storage unit 62, that is, according to the processing target.

ボール検出部58は、フレームアウト画像の1つ前のフレーム、即ちボールが最後に写っていると思われるフレーム(以下、「終端画像」と呼ぶ)を基点として、逆時系列順にボールを検出する。
以下、図4及び図5を適宜参照しつつ、ボールの検出の手法の一例について説明する。
The ball detection unit 58 detects the balls in reverse chronological order using the frame immediately before the frame-out image, that is, the frame in which the ball is considered to be reflected last (hereinafter referred to as “terminal image”) as a base point. .
Hereinafter, an example of a ball detection method will be described with reference to FIGS. 4 and 5 as appropriate.

図4は、ボールの検出の手法を説明するための図であって、終端画像の一例を示す図である。
ボール検出部58は、終端画像FFの領域CA内で、差分分離度が第2閾値以上の画素を検出する。
ここで、第2閾値は、ボールが存在する確度が一定以上となる分離度に基づいて任意に閾値設定部57により、第1閾値とは独立して別途設定される。即ち、終端画像FFの領域CAにおいて第2閾値以上の差分分離度を有する画素とは、一定の確度以上でボール(その少なくとも一部)を示す画素、即ち(動画像中で最後に写っている)ボールの画素の候補であることを意味する。
そこで、ボール検出部58は、先ず、終端画像FFの領域CAの中から、第2閾値以上の差分分離度を有する1以上の画素の各々を、(動画像中で最後に写っている)ボールの画素の候補として検出する。なお、図4の例では、領域CAのうち白い領域が、第2閾値以上の差分分離度を有しているので、当該白い領域内の各画素が検出されることになる。
FIG. 4 is a diagram for explaining a ball detection technique, and shows an example of a terminal image.
The ball detection unit 58 detects pixels having a difference separation degree equal to or higher than the second threshold in the area CA of the terminal image FF.
Here, the second threshold value is arbitrarily set independently from the first threshold value by the threshold value setting unit 57 based on the degree of separation at which the accuracy of the presence of the ball becomes a certain level or more. That is, a pixel having a difference separation degree equal to or greater than the second threshold in the area CA of the terminal image FF is a pixel that shows a ball (at least a part thereof) with a certain accuracy or more, that is, the last image in the moving image. ) Means a pixel candidate for the ball.
Therefore, the ball detection unit 58 firstly selects each of one or more pixels having a difference separation degree equal to or greater than the second threshold from the area CA of the terminal image FF (which is the last in the moving image). Is detected as a pixel candidate. In the example of FIG. 4, the white area in the area CA has a difference separation degree equal to or greater than the second threshold value, so that each pixel in the white area is detected.

次に、ボール検出部58は、終端画像FFにおける(動画像中で最後に写っている)ボールの画素の候補を始点として、処理対象の各フレームを逆時系列の順に辿って、当該ボールの画素の候補を追跡していくことで、ボールの移動の軌跡の候補を検出する。
この場合、ボール検出部58による検出の範囲は、フレーム全体とされてもよいが、範囲が広がるほど処理量が増大して処理時間を要するようになる。そこで、本実施形態では、処理量の軽減及び処理時間の短縮等を目的として、図5に示すように、ボールの移動の軌跡が含まれている可能性が高い平行四辺形の領域が、ボール検出部58による検出の範囲の領域(以下、「検出領域」と呼ぶ)として採用されている。
図5は、ボールの検出の手法を説明するための図であって、検出領域の一例を示す図である。
図5の例では、終端画像FFにおける(動画像中で最後に写っている)ボールの画素の候補が始点とされて、ボールの初期位置(ショットフレーム内のボールの位置)の方向に伸ばされた平行四辺形の領域が、検出領域として設定されている。ここで、長さaは、始点と初期位置までの距離と、ボールの大きさ(フレーム内の相対的なサイズ)とが加算された長さが設定される。長さbは、ボールの大きさに準じて設定される。
なお、本実施形態で検出領域として平行四辺形が採用されている理由は、次の通りである。即ち、ボールは最初に置かれていた点(初期位置)から直線で移動する(飛んでいく)と予測されるので、終端画像でボールがあると指定される点(ボールの画素の候補の点)からボールの初期位置までの直線上でボールが検出される。ただし、実際には全くずれなく直線状にボールの軌跡が乗っていることは稀であるので、ボールの直径程度の長さa(高さa)を持った平行四辺形が検出領域として採用されるのである。
Next, the ball detection unit 58 traces each frame to be processed in the reverse time series starting from the candidate for the pixel of the ball in the terminal image FF (shown last in the moving image) in the reverse time series. By tracking pixel candidates, ball trajectory candidates are detected.
In this case, the range of detection by the ball detection unit 58 may be the entire frame, but the processing amount increases as the range increases, requiring processing time. Therefore, in the present embodiment, for the purpose of reducing the processing amount and the processing time, as shown in FIG. 5, the parallelogram region that is likely to include the trajectory of the ball movement is a ball. It is adopted as an area of a detection range by the detection unit 58 (hereinafter referred to as “detection area”).
FIG. 5 is a diagram for explaining a ball detection method and illustrates an example of a detection region.
In the example of FIG. 5, the candidate for the pixel of the ball in the terminal image FF (shown last in the moving image) is taken as the starting point and extended toward the initial position of the ball (the position of the ball in the shot frame). The parallelogram area is set as the detection area. Here, the length a is set by adding the distance from the starting point to the initial position and the size of the ball (relative size in the frame). The length b is set according to the size of the ball.
The reason why the parallelogram is adopted as the detection region in the present embodiment is as follows. That is, since the ball is predicted to move (fly) in a straight line from the point (initial position) where it was initially placed, the point designated as having the ball in the end image (the candidate point of the ball pixel) ) To the initial position of the ball, the ball is detected. However, since it is rare that the trajectory of the ball is in a straight line without any deviation in practice, a parallelogram having a length a (height a) about the diameter of the ball is adopted as the detection region. It is.

次に、ボール検出部58は、平行四辺形の検出領域の範囲内を通過する複数の線分の組み合わせを考え、当該組み合わせに属する複数の線分の各々を順次注目線分に設定する。ボール検出部58は、注目線分上で、処理対象の各フレームを逆時系列順に辿りながら、空間的に等間隔となるように差分分離度を累積加算していき、その累積加算値を求める。
即ち、平行四辺形の検出領域の範囲内の当該組み合わせに属する複数の線分の夫々について、累積加算値が1つずつ求められる。
ここで、空間的に等間隔となるように差分分離度を累積加算するとは、次のような演算をいう。即ち、例えば第1のフレームについての第1の差分分離度が加算されて、第2のフレーム(再生順番的には第1のフレームに対して1つ前のフレーム)についての第2の差分分離度が加算され、さらに第3のフレーム(再生順番的には第2のフレームに対して1つ前のフレーム)についての第3の差分分離度が加算されるものとする。この場合、第1の差分分離度の第1画素(第1のフレーム内)、第2の差分分離度の第2画素(第2のフレーム内)、及び第3の差分分離度の第3画素(第3のフレーム内)は、注目線分上で等間隔に配置された各点になる。即ち、前回のフレーム(再生順番的には1つ後のフレーム)において差分分離度が累積加算された注目線分上の点(前回のフレーム内の画素)の対応点が今回のフレーム内の画素から特定され、当該今回のフレーム内において、当該対応点に対して、等間隔で左下側に離れた点(今回のフレーム内の画素)における差分分離度が累積加算される。
この場合注目線分上において等間隔で分割される数は、終端画像からショット画像までの枚数に応じて可変に設定され、また、その幅は、事前のクラブ速度算出部54により実行されたショット前の速度算出処理の結果に応じて設定される。即ち、その幅はゴルフクラブの速度(動き)から算出されるボールの速度に応じて可変に設定される。
ボール検出部58は、平行四辺形の検出領域の範囲内の複数の線分のうち、最大の累積加算値となる線分を、ボールの軌跡の候補を示す線分として特定する。
ここで、終端画像にはボールの候補となる複数の画素が存在する場合がある、この場合、複数の画素毎に(ボールの各候補毎に)、平行四辺形の検出領域が1つずつ設定される。従って、複数の平行四辺形の検出領域毎に、ボールの軌跡の候補を示す線分が1つずつ特定されることになる。
そこで、ボール検出部58は、これら複数の平行四辺形の検出領域毎の、ボールの軌跡の候補を示す線分のうち、最大の累積加算値となる線分を、ボールの軌跡として特定する。
Next, the ball detection unit 58 considers a combination of a plurality of line segments passing through the range of the parallelogram detection area, and sequentially sets each of the plurality of line segments belonging to the combination as a target line segment. The ball detection unit 58 cumulatively adds the difference separation degrees so as to be spatially equidistant while tracing each frame to be processed in reverse time series on the attention line segment, and obtains the cumulative addition value. .
That is, one cumulative addition value is obtained for each of a plurality of line segments belonging to the combination within the parallelogram detection area.
Here, cumulative addition of the difference separation degree so as to be spatially equidistant means the following calculation. That is, for example, the first difference separation degree for the first frame is added, and the second difference separation for the second frame (the frame immediately before the first frame in the reproduction order) is added. It is assumed that the degree is added, and further, the third difference separation degree for the third frame (one frame before the second frame in the reproduction order) is added. In this case, the first pixel (within the first frame) having the first difference separation degree, the second pixel (within the second frame) having the second difference separation degree, and the third pixel having the third difference separation degree. (In the third frame) is points arranged at equal intervals on the line of interest. That is, the corresponding point of the point (pixel in the previous frame) on the attention line segment in which the difference separation degree is cumulatively added in the previous frame (the next frame in the reproduction order) is the pixel in the current frame. In the current frame, the difference separation degree is cumulatively added at points (pixels in the current frame) that are spaced to the lower left side at equal intervals with respect to the corresponding point.
In this case, the number divided at equal intervals on the line of interest is variably set according to the number of images from the terminal image to the shot image, and the width thereof is a shot executed by the club speed calculation unit 54 in advance. It is set according to the result of the previous speed calculation process. That is, the width is variably set according to the speed of the ball calculated from the speed (movement) of the golf club.
The ball detection unit 58 identifies a line segment that is the maximum cumulative addition value among a plurality of line segments within the parallelogram detection area as a line segment that indicates a candidate for the trajectory of the ball.
Here, there may be a plurality of pixels that are candidates for the ball in the terminal image. In this case, one parallelogram detection area is set for each of the plurality of pixels (for each candidate for the ball). Is done. Therefore, one line segment indicating a candidate for the trajectory of the ball is specified for each of the plurality of parallelogram detection areas.
Therefore, the ball detection unit 58 identifies the line segment that is the maximum cumulative addition value among the line segments that indicate candidate ball trajectories for each of the plurality of parallelogram detection areas as the ball trajectory.

このようにして、ボール速度算出処理が実行される場合、図2に示すCPU11又は画像処理部14においては、画像読み込み部51と、分離度算出部52と、差分分離度算出部53と、クラブ速度算出部54と、指標値算出部55と、フレームアウト画像特定部56と、閾値設定部57と、ボール検出部58と、ボール速度算出部59とが機能して、ボールの軌跡が算出される。
ボールの軌跡が算出されると、図2に示すCPU11又は画像処理部14においては、ボール速度算出部59が機能する。
ボール速度算出部59は、ボールの軌跡の算出結果に基づいて、ボールの速度を算出する。
When the ball speed calculation process is executed in this way, in the CPU 11 or the image processing unit 14 shown in FIG. 2, the image reading unit 51, the separation degree calculation unit 52, the difference separation degree calculation unit 53, and the club The velocity calculation unit 54, the index value calculation unit 55, the frame-out image specifying unit 56, the threshold setting unit 57, the ball detection unit 58, and the ball speed calculation unit 59 function to calculate the ball trajectory. The
When the trajectory of the ball is calculated, the ball speed calculation unit 59 functions in the CPU 11 or the image processing unit 14 shown in FIG.
The ball speed calculation unit 59 calculates the speed of the ball based on the calculation result of the ball trajectory.

次に、図6を参照して、このような図2の機能的構成を有する撮像装置1の動作の詳細として、ボール速度算出処理について説明する。
図6は、図2の機能的構成を有する画像処理装置1が実行する、ボール速度算出処理の流れを説明するフローチャートである。
ボール速度算出処理は、ゴルフのフォームの動画像のデータが図2の動画記憶部61に1つ以上記録された状態で、所定の条件を満たすと開始され、次のような一連の処理が実行される。
Next, with reference to FIG. 6, a ball speed calculation process will be described as details of the operation of the imaging apparatus 1 having the functional configuration of FIG.
FIG. 6 is a flowchart for explaining the flow of the ball speed calculation process executed by the image processing apparatus 1 having the functional configuration of FIG.
The ball speed calculation process is started when a predetermined condition is satisfied in a state in which one or more moving image data of a golf form is recorded in the moving image storage unit 61 in FIG. 2, and the following series of processes is executed. Is done.

ステップS1において、画像読み込み部51は、動画記憶部61に記憶された、ゴルフのフォームの動画像のデータの中から、処理対象を決定して読み込み、対象画像記憶部62に記憶させる。   In step S <b> 1, the image reading unit 51 determines and reads a processing target from the moving image data of the golf form stored in the moving image storage unit 61, and stores the processing target in the target image storage unit 62.

ステップS2において、画像読み込み部51乃至クラブ速度算出部54は、処理対象の動画像のデータについて、ショット前部分の速度算出処理を実行する。
ショット前部分の速度算出処理の詳細については、図7を参照して後述する。
In step S <b> 2, the image reading unit 51 through the club speed calculation unit 54 execute the speed calculation process for the pre-shot portion of the moving image data to be processed.
Details of the speed calculation process for the pre-shot portion will be described later with reference to FIG.

ステップS3において、画像読み込み部51乃至差分分離度算出部53及び指標値算出部55乃至ボール検出部58は、処理対象の動画像のデータについて、ショット後部分のボール検出処理を実行する。
ショット後部分のボール検出処理の詳細については、図8及び図9を参照して後述する。
In step S <b> 3, the image reading unit 51 to the difference separation degree calculation unit 53 and the index value calculation unit 55 to the ball detection unit 58 execute a ball detection process for the post-shot portion on the moving image data to be processed.
Details of the ball detection process for the post-shot portion will be described later with reference to FIGS.

ステップS4において、ボール速度算出部59は、ショット後部分のボール検出処理の結果等に基づいて、処理対象の動画像に映るボールの速度を算出する。
これにより、ボール速度算出処理は終了となる。
In step S4, the ball speed calculation unit 59 calculates the speed of the ball appearing in the moving image to be processed based on the result of the ball detection process for the post-shot portion.
As a result, the ball speed calculation process ends.

次に、図7を参照して、このような図6のボール速度算出処理のうち、ステップS2のショット前部分の速度算出処理の詳細について説明する。
図7は、図6のボール速度算出処理のうち、ステップS2のショット前部分の速度算出処理の詳細な流れを説明するフローチャートである。
ステップS2のショット前部分の速度算出処理は、ステップS1において処理対象の動画像のデータが決定されて対象画像記憶部62に記憶されると開始され、次のような一連の処理が実行される。
Next, with reference to FIG. 7, the details of the speed calculation process of the pre-shot portion in step S2 in the ball speed calculation process of FIG. 6 will be described.
FIG. 7 is a flowchart for explaining the detailed flow of the speed calculation process for the pre-shot portion in step S2 in the ball speed calculation process of FIG.
The speed calculation processing of the pre-shot portion in step S2 is started when the moving image data to be processed is determined and stored in the target image storage unit 62 in step S1, and the following series of processing is executed. .

ステップ21において、画像読み込み部51は、ショットフレーム直前の4フレームを処理対象として各データを対象画像記憶部62から読み込む。   In step 21, the image reading unit 51 reads each data from the target image storage unit 62 with the four frames immediately before the shot frame as processing targets.

ステップ22において、分離度算出部52は、処理対象の輝度画像から分離度マップを生成する。即ち、ショットフレーム直前の4フレーム毎に、分離度マップが1枚ずつ生成される。   In step 22, the degree-of-separation calculating unit 52 generates a degree-of-separation map from the luminance image to be processed. That is, one separation degree map is generated for every four frames immediately before the shot frame.

ステップ23において、差分分離度算出部53は、分離度マップから差分分離度マップを生成する。即ち、ショットフレーム直前の4フレーム毎に、差分分離度マップが1枚ずつ生成される。   In step 23, the difference separation degree calculation unit 53 generates a difference separation degree map from the separation degree map. That is, one difference separation degree map is generated every four frames immediately before the shot frame.

ステップ24において、クラブ速度算出部54は、差分分離度マップから、上述したように、ショット直前のゴルフクラブの速度を算出する。
これにより、ショット前部分の速度算出処理が終了し、即ち図6のステップS2の処理が終了し、処理はステップS3に進む。
In step 24, the club speed calculation unit 54 calculates the speed of the golf club immediately before the shot, as described above, from the difference separation degree map.
As a result, the speed calculation process for the pre-shot portion ends, that is, the process of step S2 in FIG. 6 ends, and the process proceeds to step S3.

次に、図6のボール速度算出処理のうち、ステップS3のショット後部分のボール検出処理の詳細について説明する。
図8は、図6のボール速度算出処理のうち、ステップS3のショット後部分のボール検出処理の詳細な流れを説明するフローチャートである。
ステップS3のショット後部分のボール検出処理は、上述したようにステップS2のショット前部分の速度算出処理が終了すると開始され、次のような一連の処理が実行される。
Next, details of the ball detection process for the post-shot portion in step S3 in the ball speed calculation process of FIG. 6 will be described.
FIG. 8 is a flowchart for explaining the detailed flow of the ball detection process for the post-shot portion in step S3 in the ball speed calculation process of FIG.
The ball detection process for the post-shot part in step S3 is started when the speed calculation process for the pre-shot part in step S2 is completed as described above, and the following series of processes is executed.

ステップ41において、画像読み込み部51は、ショットフレーム直後の15フレームを処理対象として各データを対象画像記憶部62から読み込む。   In step 41, the image reading unit 51 reads each data from the target image storage unit 62 with 15 frames immediately after the shot frame as a processing target.

ステップ42において、分離度算出部52は、処理対象の輝度画像から分離度マップを生成する。即ち、ショットフレーム直後の15フレーム毎に、分離度マップが1枚ずつ生成される。   In step 42, the separation degree calculation unit 52 generates a separation degree map from the luminance image to be processed. That is, one separation degree map is generated every 15 frames immediately after the shot frame.

ステップ43において、差分分離度算出部53は、分離度マップから差分分離度マップを生成する。即ち、ショットフレーム直後の15フレーム毎に、差分分離度マップが1枚ずつ生成される。   In step 43, the difference separation degree calculation unit 53 generates a difference separation degree map from the separation degree map. That is, one difference separation degree map is generated every 15 frames immediately after the shot frame.

ステップ44において、指標値算出部55は、処理対象の15フレームの夫々について、所定領域の各X座標毎(図3の例では領域CAのX座標x1乃至Xn毎)に、Y軸方向への差分分離度の累積加算値を、指標値として算出する。例えば図3の例では、上述の式(2)が算出されて、1枚のフレームにつき、n個の指標値T[x1]乃至T[xn]が夫々算出される。   In step 44, the index value calculation unit 55 performs the process in the Y-axis direction for each of the 15 frames to be processed for each X coordinate of the predetermined area (in the example of FIG. 3, for each of the X coordinates x1 to Xn of the area CA). The cumulative addition value of the difference separation degree is calculated as an index value. For example, in the example of FIG. 3, the above equation (2) is calculated, and n index values T [x1] to T [xn] are calculated for each frame.

ステップ45において、フレームアウト画像特定部56は、処理対象の15フレームのうち1枚目のフレーム、即ちショットフレームの次のフレームを注目フレームに設定する。   In step 45, the frame-out image specifying unit 56 sets the first frame among the 15 frames to be processed, that is, the frame next to the shot frame, as the frame of interest.

ステップ46において、フレームアウト画像特定部56は、注目フレームのn個の指標値の中に、第1閾値以上のものがあるか否かを判定する。
注目フレームのn個の指標値の中に、第1閾値以上のものが1つも存在しない場合、注目フレームの所定領域の中に、移動するボールが未だ含まれていないと判断され、ステップS46においてNOであると判定されて、処理はステップS47に進む。ステップS47において、フレームアウト画像特定部56は、次のフレームを注目フレームに設定する。これにより、処理はステップS46に戻され、それ以降の処理が繰り返される。
即ち、ショットフレーム直後の処理対象の15フレームの夫々が時系列の順番(順再生の順番)で注目フレームに順次設定されていき、第1閾値以上の指標値が存在するか否かが順次判定されていく。
第1閾値以上の指標値が存在するフレームが注目フレームになると、当該注目フレームの移動するボールが含まれていると判断され、ステップS46においてYESであると判定されて、処理はステップS48に進む。
In step 46, the frame-out image specifying unit 56 determines whether or not there are n index values in the frame of interest that are greater than or equal to the first threshold value.
If none of the n index values of the frame of interest is greater than or equal to the first threshold value, it is determined that the moving ball is not yet included in the predetermined area of the frame of interest, and in step S46 If it is determined as NO, the process proceeds to step S47. In step S47, the frame-out image specifying unit 56 sets the next frame as the frame of interest. Thereby, the process returns to step S46, and the subsequent processes are repeated.
That is, each of the 15 frames to be processed immediately after the shot frame is sequentially set to the frame of interest in the chronological order (forward playback order), and it is sequentially determined whether or not an index value equal to or greater than the first threshold exists. It will be done.
When a frame having an index value equal to or greater than the first threshold value becomes a target frame, it is determined that the moving ball of the target frame is included, it is determined as YES in step S46, and the process proceeds to step S48. .

ステップ46において、フレームアウト画像特定部56は、注目フレームの次のフレームのn個の指標値の中に、第1閾値以上のものがあるか否かを判定する。   In step 46, the frame-out image specifying unit 56 determines whether or not the n index values of the next frame after the frame of interest are greater than or equal to the first threshold value.

注目フレームの次のフレームのn個の指標値の中に、第1閾値以上のものが1つも存在しない場合、注目フレームの所定領域では、移動するボールが含まれていたのに対して、その次のフレームの所定領域では、移動するボールが(外部に出てしまって)含まれなくなったと判断され、ステップS48においてNOであると判定されて、処理はステップS51に進む。
ステップS51において、フレームアウト画像特定部56は、注目フレームの次のフレームを、フレームアウト画像として特定する。
これにより、処理は、ステップS52の逆時系列順のボール検出処理に進む。ただし、ステップS52以降の処理については、図9を参照して後述する。
If there is no n index value in the next frame of the frame of interest that is greater than or equal to the first threshold value, the predetermined area of the frame of interest contains a moving ball. In the predetermined area of the next frame, it is determined that the moving ball is not included (has gone out), it is determined NO in step S48, and the process proceeds to step S51.
In step S51, the frame-out image specifying unit 56 specifies a frame next to the frame of interest as a frame-out image.
As a result, the process proceeds to the ball detection process in the reverse chronological order in step S52. However, the processing after step S52 will be described later with reference to FIG.

これに対して、注目フレームの次のフレームのn個の指標値の中に、第1閾値以上のものが1つでも存在する場合、当該注目フレームの次のフレームに、移動するボールが含まれていると判断され、ステップS48においてYESであると判定されて、処理はステップS49に進む。
ステップS49において、フレームアウト画像特定部56は、第1閾値以上の指標値のX座標が、注目フレームよりも次のフレームの方が右方にあるか否かを判定する。
第1閾値以上の指標値のX座標が、注目フレームよりも次のフレームの方が右方にある場合とは、注目フレームとその次のフレームの何れにも、ゴルフクラブでショットされて右方向に移動し続けるボールが含まれている場合、即ち次のフレームは未だフレームアウト画像ではない場合である。
このような場合、ステップS49においてYESであると判定されて、処理はステップS50に進む。ステップS50において、フレームアウト画像特定部56は、次のフレームを注目フレームに設定する。これにより、処理はステップS48に戻され、それ以降の処理が繰り返される。
即ち、所定領域にボールが含まれる(第1閾値以上の指標値が存在する)と判断された後の処理対象の各々の夫々が時系列の順番(順再生の順番)で注目フレームに順次設定されていき、第1閾値以上の指標値が存在するか否かが順次判定されていく。第1閾値以上の指標値のX座標(ボールが存在すると算出されるX座標)が、注目フレームと比較して次のフレームの方が右方にあり続ける場合には、注目フレームとその次のフレームの何れにも、ゴルフクラブでショットされて右方向に移動し続けるボールが含まれていると判断されて、ステップS48乃至S50のループ処理が繰り返し実行される。
On the other hand, when at least one of the n index values in the frame following the frame of interest has a value equal to or greater than the first threshold, the moving ball is included in the frame following the frame of interest. If it is determined that the answer is YES in step S48, the process proceeds to step S49.
In step S49, the frame-out image specifying unit 56 determines whether or not the X frame of the index value equal to or greater than the first threshold is on the right side of the next frame relative to the frame of interest.
When the X coordinate of the index value equal to or greater than the first threshold is on the right side of the next frame relative to the frame of interest, it is shot in the right direction when shot with a golf club in both the frame of interest and the next frame. Is included when the ball continues to move, that is, the next frame is not yet a frame-out image.
In such a case, it is determined as YES in Step S49, and the process proceeds to Step S50. In step S50, the frame-out image specifying unit 56 sets the next frame as the frame of interest. Thereby, the process returns to step S48, and the subsequent processes are repeated.
That is, each of the processing targets after it is determined that a ball is included in a predetermined area (an index value greater than or equal to the first threshold value) is sequentially set to the frame of interest in chronological order (forward playback order). Then, it is sequentially determined whether or not there is an index value greater than or equal to the first threshold value. If the X coordinate of the index value equal to or greater than the first threshold (the X coordinate calculated when the ball is present) continues to the right of the next frame compared to the frame of interest, the frame of interest and the next It is determined that any of the frames includes a ball that has been shot with a golf club and continues to move in the right direction, and the loop processing of steps S48 to S50 is repeatedly executed.

そして、注目フレームの次のフレームにおいて、第1閾値以上の指標値が存在しなくなるか、又は、第1閾値以上の指標値が存在しても注目フレームよりも右方に存在しない場合、ステップS48又はステップS49においてNOであると判定される。
ここで、ステップS48においてNOであると判定される場合とは、上述したように、注目フレームの所定領域では、移動するボールが含まれていたのに対して、その次のフレームの所定領域では、移動するボールが(外部に出てしまって)含まれなくなったと判断される場合を意味する。また、ステップS49においてNOであると判定される場合とは、注目フレームの次のフレームの所定領域に含まれる第1の閾値以上の指標値は、移動するボールについてのものではなく(ボールが急激に逆移動するとは考えにくく)、ノイズや別の移動物体についてのものであり、結果として、その次のフレームの所定領域では、移動するボールが(外部に出てしまって)含まれなくなったと判断される場合を意味する。
従って、ステップS48又はステップS49においてNOであると判定されると、処理はステップS51に進む。
ステップS51において、フレームアウト画像特定部56は、注目フレームの次のフレームを、フレームアウト画像として特定する。
If the index value equal to or greater than the first threshold no longer exists in the frame following the frame of interest, or if the index value equal to or greater than the first threshold exists but does not exist to the right of the frame of interest, step S48. Or it determines with it being NO in step S49.
Here, in the case where it is determined as NO in step S48, as described above, in the predetermined area of the target frame, the moving ball was included, whereas in the predetermined area of the next frame, , Which means that it is determined that the moving ball is not included (being out of the outside). Further, when it is determined as NO in step S49, the index value equal to or higher than the first threshold included in the predetermined area of the next frame of the frame of interest is not for the moving ball (the ball is abruptly It is about noise and other moving objects, and as a result, it is judged that the moving ball is no longer included in the predetermined area of the next frame. Means when
Therefore, if it is determined as NO in step S48 or step S49, the process proceeds to step S51.
In step S51, the frame-out image specifying unit 56 specifies a frame next to the frame of interest as a frame-out image.

ステップS52において、ボール検出部58は、逆時系列順のボール検出処理を実行する。   In step S52, the ball detection unit 58 performs a ball detection process in reverse time series.

次に、図8のショット後部分のボール検出処理のうち、ステップS52の逆時系列順のボール検出処理の詳細について説明する。
図9は、図8のショット後部分のボール検出処理のうち、ステップS52の逆時系列順のボール検出処理の詳細な流れを説明するフローチャートである。
ステップS52の逆時系列順のボール検出処理は、上述したようにステップS51においてフレームアウト画像が特定されると開始され、次のような一連の処理が実行される。
Next, details of the ball detection processing in the reverse time series of step S52 in the ball detection processing in the post-shot portion of FIG. 8 will be described.
FIG. 9 is a flowchart for explaining the detailed flow of the ball detection process in the reverse time series of step S52 in the ball detection process for the post-shot part of FIG.
The reverse time-series ball detection process in step S52 is started when a frame-out image is specified in step S51 as described above, and the following series of processes is executed.

ステップS61において、ボール検出部58は、終端画像内で差分分離度が第2閾値よりも高い画素のうち、注目画素に設定されていないものが存在するか否かを判定する。
上述したように、終端画像内で分離度が第2閾値よりも高い画素とは、終端画像内でのボール(その少なくとも一部)を示す画素の候補(以下、「ボール画素候補」と呼ぶ)であることを意味している。
従って、終端画像内で差分分離度が第2閾値よりも高い画素が存在しない場合とは、ボール画素候補が存在しない場合を意味している。この場合、ステップS61においてNOであると判定されて、逆時系列順のボール検出処理は終了となる。即ち、図8のショット後のボール検出処理自体も終了となり、処理は図2のステップS3からS4に進む。
In step S <b> 61, the ball detection unit 58 determines whether there is a pixel that has a difference separation degree higher than the second threshold in the terminal image and is not set as the target pixel.
As described above, a pixel whose degree of separation is higher than the second threshold in the terminal image is a pixel candidate indicating a ball (at least a part thereof) in the terminal image (hereinafter referred to as a “ball pixel candidate”). It means that.
Therefore, the case where there is no pixel having a difference separation degree higher than the second threshold in the terminal image means a case where there is no ball pixel candidate. In this case, it is determined as NO in Step S61, and the ball detection process in the reverse chronological order ends. That is, the ball detection process itself after the shot in FIG. 8 is also terminated, and the process proceeds from step S3 to S4 in FIG.

これに対して、終端画像内で差分分離度が第2閾値よりも高い画素が1つ以上存在する場合には、ステップS61においてYESであると判定されて、処理はステップS62に進む。
ステップS62において、ボール検出部58は、終端画像内で差分分離度が第2閾値よりも高い画素のうち、未だ注目画素に設定されていない画素を、注目画素に設定する。即ち、所定の1つのボール画素候補が注目画素に設定される。
On the other hand, if there is one or more pixels having a difference separation degree higher than the second threshold in the terminal image, it is determined as YES in Step S61, and the process proceeds to Step S62.
In step S <b> 62, the ball detection unit 58 sets a pixel that has not been set as a target pixel among pixels whose difference separation degree is higher than the second threshold in the terminal image as a target pixel. That is, a predetermined one ball pixel candidate is set as a target pixel.

ステップS63において、ボール検出部58は、注目画素を始点として、平行四辺形の検出領域を設定する。
ステップS64において、ボール検出部58は、逆時系列に処理対象の複数のフレームを順次辿りながら、検出領域内での等間隔の分離度の累積加算値が最大となる線分と間隔の組合せを算出する。
即ち、ステップS64において算出された組合せが、注目画素がボール画素候補とされている場合における、ボールの軌跡の候補として最も確度が高い組合せを意味する。
In step S63, the ball detection unit 58 sets a parallelogram detection region starting from the target pixel.
In step S64, the ball detection unit 58 sequentially traces a plurality of frames to be processed in reverse time series, and finds a combination of a line segment and an interval that maximizes the cumulative addition value of the equidistant separation within the detection region. calculate.
That is, the combination calculated in step S64 means a combination having the highest accuracy as a ball trajectory candidate when the target pixel is a ball pixel candidate.

ステップS65において、ボール検出部58は、直前のステップS64において算出された組合せの累積加算値は、保存された組合せの累積加算値よりも大きいか否かを判定する。   In step S65, the ball detection unit 58 determines whether or not the cumulative addition value of the combination calculated in the previous step S64 is larger than the cumulative addition value of the stored combination.

直前のステップS64において算出された組合せの累積加算値が、保存された組合せの累積加算値よりも小さい場合とは、終端画像内の他の画素がボール画素候補とされた際に求められたボールの軌跡の候補(保存された組合せにより特定されるボールの軌跡の候補)の方が、今回の注目画素がボール画素候補とされた際に直前のステップS64の処理で求められたボールの軌跡の候補(直前のステップS64により算出された組合せにより特定されるボールの軌跡の候補)よりも確度が高い場合を意味する。
よって、この場合、ボールの軌跡の候補としては、既に保存された組合せが採用されるので、ステップS65においてNOであると判定されて、処理はステップS61に戻され、それ以降の処理が繰り返される。即ち、終端画像内の別のボール画素候補について、ステップS61乃至S66の処理が実行されて、ボールの軌跡の候補が求められる。
The case where the cumulative addition value of the combination calculated in the immediately preceding step S64 is smaller than the cumulative addition value of the stored combination is the ball obtained when other pixels in the terminal image are ball pixel candidates. The trajectory candidate (the ball trajectory candidate specified by the stored combination) is the ball trajectory obtained in the immediately preceding step S64 when the current pixel of interest is the ball pixel candidate. This means that the accuracy is higher than the candidate (candidate for the locus of the ball specified by the combination calculated in the immediately preceding step S64).
Therefore, in this case, since the combination that has already been stored is adopted as the candidate for the trajectory of the ball, it is determined as NO in step S65, the process returns to step S61, and the subsequent processes are repeated. . That is, the process of steps S61 to S66 is executed for another ball pixel candidate in the terminal image, and a ball locus candidate is obtained.

これに対して、直前のステップS64において算出された組合せの累積加算値が、保存された組合せの累積加算値よりも小さい場合とは、今回の注目画素がボール画素候補とされた際に直前のステップS64の処理で求められたボールの軌跡の候補(直前のステップS64により算出された組合せにより特定されるボールの軌跡の候補)の方が、終端画像内の他の画素がボール画素候補とされた際に求められたボールの軌跡の候補(保存された組合せにより特定されるボールの軌跡の候補)よりも確度が高い場合を意味する。
よって、この場合、ボールの軌跡の候補としては、今回の直前のステップS64において算出された組合せに更新されるべく、ステップS65においてYESであると判定されて、処理はステップS66に進む。
ステップS65において、ボール検出部58は、直前のステップS64において算出された組合せを、その累積加算値と対応付けて保存(上書き)する。
これにより、処理はステップS61に戻され、それ以降の処理が繰り返される。
On the other hand, the case where the cumulative addition value of the combination calculated in the immediately preceding step S64 is smaller than the cumulative addition value of the stored combination is the case where the current pixel of interest is the ball pixel candidate. In the ball trajectory candidate obtained in the process of step S64 (candidate of the ball trajectory specified by the combination calculated in the immediately preceding step S64), other pixels in the terminal image are set as ball pixel candidates. This means a case where the accuracy is higher than the ball trajectory candidate (candidate ball trajectory specified by the stored combination) obtained at the time.
Therefore, in this case, as a candidate for the trajectory of the ball, in order to be updated to the combination calculated in step S64 immediately before this time, it is determined as YES in step S65, and the process proceeds to step S66.
In step S65, the ball detection unit 58 stores (overwrites) the combination calculated in the immediately preceding step S64 in association with the accumulated addition value.
Thereby, a process is returned to step S61 and the process after it is repeated.

以上説明したように、本実施形態の撮像装置1は、フレームアウト画像特定部56と、ボール検出部58とを備えている。
フレームアウト画像特定部56は、連続的に撮像された各画像から、計測対象の物体の一例であるボールが存在しなくなる、フレームアウト画像の直前の画像(例えば上述の終端画像)を特定する。
ボール検出部58は、フレームアウト画像の直前の画像を基準として、連続的に撮像された各画像から計測対象の物体の領域を検出する。
このように、計測対象の物体が存在しなくなるフレームアウト画像が基準として、計測対象の物体が検出されるので、計測対象の物体以外の動体が画像中に存在する場合でも精度良く計測対象の物体を検出できるという効果を奏することが可能になる。
特にこの効果は、次のような条件で本発明が適用される場合に顕著なものとなる。
例えば、ゴルフクラブ等、ボールと同じような速度、大きさ、或いは分離度で移動する別の物体が存在する場合、薄暗い夜や明るい日中等様々な照明条件が課される場合、ゴルフ練習場等でのショット解析が目的とされた場合に、上述の効果は顕著なものとなる。
また例えば、ゴルフクラブとボールの速度がショットによってばらばらで、単純に閾値等では分離することができないような場合、ゴルフクラブの軌跡は楕円であるが、ショット後の数フレームの動きはほぼ直線であり円運動と直線運動で分けることができないような場合、上述の効果は顕著なものとなる。
さらにまた、次のような効果も奏する。即ち、1つのアルゴリズムで既存技術や単純な閾値設定では困難であったボールの軌跡が精度良く追跡されるようになるため、ユーザが事前に設定を行う必要がなく、簡単に速度や軌跡を知ることができる。また、フォーム解析等に用いられる画像と同じ画像が利用可能となるため、システム全体の省スペース化や省コストが実現可能になる。
As described above, the imaging apparatus 1 according to the present embodiment includes the frame-out image specifying unit 56 and the ball detection unit 58.
The frame-out image specifying unit 56 specifies an image immediately before the frame-out image (for example, the above-described end image) from which the ball, which is an example of the object to be measured, does not exist, from each of the continuously captured images.
The ball detection unit 58 detects the region of the measurement target object from each of the continuously captured images with reference to the image immediately before the frame-out image.
In this way, since the measurement target object is detected based on the frame-out image in which the measurement target object does not exist, the measurement target object can be accurately obtained even when moving objects other than the measurement target object exist in the image. The effect that can be detected can be achieved.
In particular, this effect becomes significant when the present invention is applied under the following conditions.
For example, when there is another object that moves at the same speed, size, or separation as a golf club, when a variety of lighting conditions are imposed such as a dim night or a bright day, a golf driving range, etc. The above-mentioned effect becomes remarkable when the shot analysis is performed with the objective.
Also, for example, when the golf club and ball velocities vary from shot to shot and cannot be separated simply by a threshold, etc., the golf club trajectory is an ellipse, but the movement of several frames after the shot is almost linear. When the circular motion and the linear motion cannot be separated, the above-described effect becomes remarkable.
Furthermore, the following effects are also achieved. In other words, the ball trajectory, which was difficult with existing algorithms and simple threshold settings, can be accurately tracked with a single algorithm, so the user does not need to make settings in advance and can easily know the speed and trajectory. be able to. Further, since the same image as that used for form analysis or the like can be used, space saving and cost saving of the entire system can be realized.

また、ボール検出部58は、フレームアウト直前の画像より以前の画像から、計測対象の物体の領域を時系列とは逆順に前記物体の領域を検出することができる。
このように、逆時系列順に計測対象の物体が検出されるので、計測対象の物体の検出精度が向上する。
即ち、仮にショットフレームが基準となり時系列に検出された場合には、ボールとゴルフクラブを誤認識してしまい、ボールの検出自体が失敗する場合が多い。特に、ボールがゴルフクラブにより打たれてから時間が経過すればするほど、ゴルフクラブとボールとの間の距離が離れていくので、誤認識の度合が高くなる。これに対して、本実施形態では、その逆に、ゴルフクラブとボールとの間の距離が最も離れたフレームアウト画像の前の所定の画像から計測対象の物体の候補が検出され、ゴルフクラブとボールとの間の距離が短縮される方向にボールが検出されていくので、計測対象の物体の誤認識の度合が軽減され、その結果、計測対象の物体の検出精度が向上する。
Further, the ball detection unit 58 can detect the region of the object to be measured from the image before the frame out immediately before the region of the object to be measured in reverse order of the time series.
As described above, the objects to be measured are detected in reverse time-series order, so that the detection accuracy of the objects to be measured is improved.
That is, if shot frames are detected in time series as a reference, the ball and the golf club are erroneously recognized, and the ball detection itself often fails. In particular, as the time elapses after the ball is hit by the golf club, the distance between the golf club and the ball increases, so the degree of erroneous recognition increases. On the other hand, in the present embodiment, conversely, the object candidate to be measured is detected from a predetermined image before the frame-out image in which the distance between the golf club and the ball is the longest, and the golf club Since the ball is detected in the direction in which the distance to the ball is shortened, the degree of erroneous recognition of the measurement target object is reduced, and as a result, the detection accuracy of the measurement target object is improved.

また、本実施形態の撮像装置1のボール検出部58は、検出された物体の領域に基づき、当該物体の軌跡が含まれ得る所定の領域(上述の例では図5の検出領域)を生成する生成手段を有する。そして、本実施形態の撮像装置1は、生成手段により生成された所定の領域に基づいて、物体の軌跡、及び/又は、前記物体の速度を算出する。
これにより、計測対象の物体の検出精度がさらに向上すると共に、検出の範囲が限定されることになるので、それ以降の処理の負担が軽減し、処理時間の短縮にもつながる。
In addition, the ball detection unit 58 of the imaging apparatus 1 according to the present embodiment generates a predetermined area (the detection area in FIG. 5 in the above example) in which the locus of the object can be included based on the detected object area. It has a generation means. And the imaging device 1 of this embodiment calculates the locus | trajectory of an object and / or the speed of the said object based on the predetermined area | region produced | generated by the production | generation means.
As a result, the detection accuracy of the object to be measured is further improved, and the detection range is limited, so that the processing load thereafter is reduced and the processing time is shortened.

また、本実施形態の撮像装置1は、連続的に撮像された各画像の分離度を算出する分離度算出部52を更に備える。また、フレームアウト画像特定部56は、算出された分離度が閾値(上述の例では第2閾値)以上か否かを判定する判定手段を備える。
ボール検出部58は、判定手段により所定の閾値以上と判定された領域を、物体の領域として検出する。
これにより、計測対象の物体の検出精度がさらに向上する。即ち、逆時系列順で検出が行われる場合の検出精度は、基準となるフレームアウト画像の前の所定の画像から、計測対象の物体の候補の検出精度に依存する。即ち、計測対象の物体の検出精度を向上させるためには、当該所定の画像から、如何にして正確に対象の物体の候補が検出できるのかが、鍵となる。この点、所定の画像のうち、分離度が閾値以上の領域が、計測対象の物体の候補として検出されるので、当該候補の検出精度は良くなり、その結果として、計測対象の物体の検出精度がさらに向上する。
In addition, the imaging apparatus 1 according to the present embodiment further includes a degree-of-separation calculation unit 52 that calculates the degree of separation of each image captured continuously. Further, the frame-out image specifying unit 56 includes a determination unit that determines whether or not the calculated degree of separation is greater than or equal to a threshold value (second threshold value in the above example).
The ball detection unit 58 detects an area determined by the determination unit as being equal to or greater than a predetermined threshold as an object area.
Thereby, the detection accuracy of the object to be measured is further improved. That is, the detection accuracy when detection is performed in reverse time-series order depends on the detection accuracy of the object candidate to be measured from the predetermined image before the reference frame-out image. That is, in order to improve the detection accuracy of the object to be measured, the key is how to accurately detect the target object candidate from the predetermined image. In this respect, in the predetermined image, an area having a degree of separation equal to or greater than the threshold is detected as a candidate for the object to be measured, so that the detection accuracy of the candidate is improved, and as a result, the detection accuracy of the object to be measured Is further improved.

また、本実施形態の撮像装置1は、連続的に撮像された前記各画像に基づいて、前記閾値(上述の例では第2閾値)を可変設定する閾値設定部57をさらに備えることができる。
これにより、適切な閾値が設定されれば、基準となるフレームアウト画像の前の所定の画像から、計測対象の物体の候補の検出精度がさらに向上し、その結果として、計測対象の物体の検出精度がさらに向上する。
さらに、閾値が厳しめに設定されれば、計測対象の物体の候補として検出される画素の数は、その分だけ減少するので、それ以降の処理の負担が軽減し、処理時間の短縮にもつながる。
In addition, the imaging apparatus 1 of the present embodiment can further include a threshold setting unit 57 that variably sets the threshold (second threshold in the above example) based on the images that are continuously captured.
As a result, if an appropriate threshold value is set, the detection accuracy of the object to be measured is further improved from the predetermined image before the reference frame-out image, and as a result, the object to be measured is detected. The accuracy is further improved.
Furthermore, if the threshold value is set strictly, the number of pixels detected as a candidate for the object to be measured is reduced by that amount, reducing the processing load thereafter and shortening the processing time. Connected.

また、閾値設定部57は、連続的に撮像された各画像の輝度に基づいて、閾値を可変設定することができる。
これにより、より適切な閾値の設定が可能になる。
Further, the threshold setting unit 57 can variably set the threshold based on the luminance of each image captured continuously.
Thereby, a more appropriate threshold value can be set.

また、本実施形態の撮像装置1のボール検出部58は、各画像に共通する部分領域(上述の例では図5の検出領域)を設定する領域設定手段を備える。ボール検出部58は、領域設定手段により設定された部分領域で物体の領域を検出する。
これにより、計測対象の物体の検出精度がさらに向上すると共に、検出の範囲が限定されることになるので、それ以降の処理の負担が軽減し、処理時間の短縮にもつながる。
Further, the ball detection unit 58 of the imaging apparatus 1 of the present embodiment includes an area setting unit that sets a partial area common to each image (the detection area in FIG. 5 in the above example). The ball detection unit 58 detects the area of the object in the partial area set by the area setting means.
As a result, the detection accuracy of the object to be measured is further improved, and the detection range is limited, so that the processing load thereafter is reduced and the processing time is shortened.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、終端画像内での計測対象の物体の候補(上述の例ではボール)を検出するための第2閾値は、処理対象の動画像の輝度に基づいて設定されたが、特にこれに限定されない。
例えば、第2閾値は、動画像全体の輝度ではなく所定区間の範囲内の動画像の輝度に基づいて設定されてもよいし、フレーム全体ではなくフレームの一部の領域の輝度に基づいて設定されてもよい。
また例えば、ショット前部分の速度算出処理(図7参照)により、ショット直前のゴルフクラブの速度が算出されているので、第2閾値は、当該ゴルフクラブの速度に基づいて設定されてもよい。
また例えば、動画像全体の分離度マップ(差分分離度マップでもよい)のうち、上位数パーセントの分布(フレーム内に占めるボールの画素数程度)となる分離度に基づいて、第2閾値が設定されてもよい。
In the above-described embodiment, the second threshold value for detecting the candidate object to be measured (the ball in the above example) in the terminal image is set based on the luminance of the moving image to be processed. It is not limited to this.
For example, the second threshold value may be set based on the luminance of a moving image within a predetermined section instead of the luminance of the entire moving image, or set based on the luminance of a partial area of the frame instead of the entire frame. May be.
Further, for example, since the speed of the golf club immediately before the shot is calculated by the speed calculation process of the portion before the shot (see FIG. 7), the second threshold value may be set based on the speed of the golf club.
Further, for example, the second threshold value is set based on the degree of separation having a distribution of the upper few percent (about the number of pixels of the ball in the frame) in the whole degree separation map (or the difference separation degree map). May be.

上述の実施形態では、逆時系列の順にボールが検出される検出領域は、終端画像のボール画素候補に基づいて生成される平行四辺形の領域とされたが、特にこれに限定されない。
例えば、ショット前部分の速度算出処理(図7参照)により、ショット直前のゴルフクラブの速度が算出されているので、当該ゴルフクラブの速度に応じて可変するような領域が、検出領域として採用されてもよい。具体的には例えば、ショット直前のクラブの速度から想定されるショット後のゴルフクラブとボールの各速度から画像(フレーム)毎に可変に設定されるような領域が、検出領域として採用されてもよい。
また例えば、ボールは最初に置かれていた点から直線で移動する(飛んでいく)と考えられるので、終端画像でボールがあると思われる点(ボール画素候補)からボールの初期位置までの線分そのものが、検出領域として採用されてもよい。ただし、実際には全くずれなく線分上にボールが乗っていることは稀なので、上述の実施形態のように、ボールの直径程の高さ(図5の長さb)を有する平行四辺形の形状が検出領域として採用された方が好適である。
In the above-described embodiment, the detection area in which the balls are detected in the order of the reverse time series is the parallelogram area generated based on the ball pixel candidates of the terminal image, but is not particularly limited thereto.
For example, since the speed of the golf club immediately before the shot is calculated by the speed calculation process of the portion before the shot (see FIG. 7), an area that varies according to the speed of the golf club is employed as the detection area. May be. Specifically, for example, an area that is variably set for each image (frame) from each speed of the golf club and the ball after the shot assumed from the speed of the club immediately before the shot may be adopted as the detection area. Good.
In addition, for example, since the ball is considered to move (fly) in a straight line from the point at which it was initially placed, the line from the point (ball pixel candidate) where the ball appears to be in the terminal image to the initial position of the ball The minute itself may be adopted as the detection area. However, since it is rare that the ball is actually on the line segment without any deviation at all, a parallelogram having a height about the diameter of the ball (length b in FIG. 5) as in the above-described embodiment. It is preferable that the above shape is adopted as the detection region.

上述の実施形態では、フレームアウト画像は、ショット前部分の速度算出処理の実行後、ショット後部分のボール検出処理の実行中に特定されたが、その特定タイミングは特に限定されない。
例えば、差分分離度マップが生成される毎にフレームアウト画像の特定が行われてもよい。この場合、処理の高速化や、使用メモリの節約に寄与することになる。
In the above-described embodiment, the frame-out image is specified during the execution of the speed calculation process for the pre-shot portion and during the ball detection process for the post-shot portion, but the specific timing is not particularly limited.
For example, the frame-out image may be specified every time the difference separation degree map is generated. In this case, it contributes to speeding up of processing and saving of used memory.

上述の実施形態では、ショット前部分の速度算出処理やショット後部分のボール検出処理において、ボールの存在を推定するための評価値として、分離度が用いられたが、特にこれに限定されない。
例えば、算出された分離度そのものではなく、必要に応じて加工された分離度が用いられてもよい。具体的には例えば、背景が白とびを起こしている領域をボールが通過した場合、ボールの色よりも白とび部分の輝度が高いため、分離度の符号が逆になってしまう。そのような領域では、符号を逆にした(そのように加工された)分離度が用いられてもよい。
また、分離度以外の例として、例えばテンプレートマッチング等によって、差分二乗和を領域画素数で除算したものを正規化した適合率等が用いられてもよい。
In the above-described embodiment, the degree of separation is used as the evaluation value for estimating the presence of the ball in the speed calculation process for the pre-shot part and the ball detection process for the post-shot part. However, the present invention is not particularly limited to this.
For example, not the calculated degree of separation itself but a degree of separation processed as necessary may be used. Specifically, for example, when the ball passes through an area where the background is overexposed, the brightness of the overexposed portion is higher than the color of the ball, so the sign of the degree of separation is reversed. In such a region, a degree of separation with the sign reversed (processed as such) may be used.
As an example other than the degree of separation, for example, a matching ratio obtained by normalizing a sum of squared differences by the number of area pixels by template matching or the like may be used.

上述の実施形態では、計測対象の物体はボールとされたが、計測量は速度とされたが、特にこれらに限定されない。計測対象は、動画像に映る移動物体であれば任意のものを採用され得るし、計測量についても移動に関する量であれば任意のものが採用され得る。   In the above-described embodiment, the measurement target object is a ball, but the measurement amount is a speed, but is not particularly limited thereto. As the measurement target, any object can be adopted as long as it is a moving object reflected in a moving image, and any measurement object can be adopted as long as it is an amount related to movement.

また、上述の実施形態では、本発明が適用される画像処理装置は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、画像処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the image processing apparatus to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having an image processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disk is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disk), or the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
Further, in the present specification, the term “system” means an overall apparatus configured by a plurality of devices, a plurality of means, and the like.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalents thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
連続的に撮像された各画像から、計測対象の物体のフレームアウト直前の画像を特定する特定手段と、
前記特定手段により特定された前記フレームアウト直前の画像を基準として、前記連続的に撮像された各画像から前記計測対象の物体の領域を検出する検出手段と、
を備えることを特徴とする画像処理装置。
[付記2]
前記検出手段は、
前記フレームアウト直前の画像より以前の画像から、前記計測対象の物体の領域を時系列とは逆順に前記物体の領域を検出する
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記検出手段により検出された物体の領域に基づき、当該物体の軌跡が含まれ得る所定の領域を生成する生成手段と、
前記生成手段により生成された所定の領域に基づいて、前記物体の軌跡、及び/又は、前記物体の速度を算出する算出手段と
を更に備えることを特徴とする付記2に記載の画像処理装置。
[付記4]
前記連続的に撮像された各画像の分離度を算出する分離度算出手段と、
前記分離度算出手段により算出された分離度が閾値以上か否かを判定する判定手段と、
を更に備え、
前記検出手段は、前記判定手段により所定の閾値以上と判定された領域を、前記物体の領域として検出する、
ことを特徴とする付記1乃至3のうちの何れか1つに記載の画像処理装置。
[付記5]
前記連続的に撮像された各画像に基づいて、前記閾値を可変設定する閾値設定手段を更に備える、
ことを特徴とする付記4に記載の画像処理装置。
[付記6]
前記閾値設定手段は、前記連続的に撮像された各画像の輝度に基づいて、前記閾値を可変に設定する、
ことを特徴とする付記5に記載の画像処理装置。
[付記7]
前記各画像に共通する部分領域を設定する領域設定手段を更に備え、
前記検出手段は、前記領域設定手段により設定された部分領域で前記物体の領域を検出する、
ことを特徴とする付記1乃至6のうちの何れか1つに記載の画像処理装置。
[付記8]
画像処理装置が実行する画像処理方法であって、
連続的に撮像された各画像から、計測対象の物体のフレームアウト直前の画像を特定する特定ステップと、
前記特定ステップにおいて特定された前記フレームアウト直前の画像を基準として、前記前記各画像から前記計測対象の物体の領域を検出する検出ステップと、
を含むことを特徴とする画像処理方法。
[付記9]
コンピュータを、
連続的に撮像された各画像から、計測対象の物体のフレームアウト直前の画像を特定する特定手段、
前記特定手段により特定された前記フレームアウト直前の画像を基準として、前記各画像から前記計測対象の物体の領域を検出する検出手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
A specifying means for specifying an image immediately before the frame out of the object to be measured from each of the continuously captured images;
Detecting means for detecting an area of the object to be measured from each of the continuously captured images with reference to the image immediately before the frame-out specified by the specifying means;
An image processing apparatus comprising:
[Appendix 2]
The detection means includes
The image processing apparatus according to appendix 1, wherein an area of the object to be measured is detected in an order reverse to time series from an image before the image immediately before the frame out.
[Appendix 3]
Generating means for generating a predetermined area that can include a trajectory of the object based on the area of the object detected by the detecting means;
The image processing apparatus according to appendix 2, further comprising: a calculation unit that calculates a trajectory of the object and / or a velocity of the object based on the predetermined region generated by the generation unit.
[Appendix 4]
A degree-of-separation calculating means for calculating the degree of separation of each of the continuously captured images;
Determination means for determining whether the degree of separation calculated by the degree of separation calculation means is equal to or greater than a threshold;
Further comprising
The detection means detects an area determined by the determination means as being equal to or greater than a predetermined threshold as the area of the object.
The image processing apparatus according to any one of supplementary notes 1 to 3, wherein:
[Appendix 5]
Threshold setting means for variably setting the threshold value based on the continuously captured images.
The image processing apparatus according to appendix 4, wherein
[Appendix 6]
The threshold value setting means variably sets the threshold value based on the luminance of each of the continuously captured images;
The image processing apparatus according to appendix 5, characterized in that:
[Appendix 7]
An area setting means for setting a partial area common to the images;
The detection means detects the area of the object in the partial area set by the area setting means;
The image processing apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
An image processing method executed by an image processing apparatus,
A specific step of identifying an image immediately before the frame out of the object to be measured from each of the continuously captured images;
A detection step of detecting a region of the object to be measured from each of the images with reference to the image immediately before the frame-out specified in the specifying step;
An image processing method comprising:
[Appendix 9]
Computer
A specifying means for specifying an image immediately before the frame-out of the object to be measured from each of the continuously captured images;
Detecting means for detecting a region of the object to be measured from each image based on the image immediately before the frame-out specified by the specifying means;
A program characterized by functioning as

1・・・撮像装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・画像処理部、17・・・撮像部、18・・・入力部、19・・・出力部、20・・・記憶部、21・・・通信部、22・・・ドライブ、31・・・リムーバブルメディア、51・・・画像読み込み部、52・・・分離度算出部、53・・・差分分離度算出部、54・・・クラブ速度算出部、55・・・指標値算出部、56・・・フレームアウト画像特定部、57・・・閾値設定部、58・・・ボール検出部、59・・・ボール速度算出部、61・・・動画記憶部、62・・・対象画像記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Image processing part, 17 ... Imaging part, 18 ... Input part, 19 ... -Output unit, 20 ... Storage unit, 21 ... Communication unit, 22 ... Drive, 31 ... Removable media, 51 ... Image reading unit, 52 ... Separation degree calculation unit, 53 .. Difference separation degree calculation unit, 54... Club speed calculation unit, 55... Index value calculation unit, 56... Frame-out image specifying unit, 57. Unit, 59... Ball speed calculation unit, 61... Moving image storage unit, 62.

Claims (9)

連続的に撮像された複数の画像の分離度を算出する分離度算出手段と、
前記分離度算出手段により算出された分離度の前記複数の画像間における差分値を算出する分離度差分値算出手段と、
前記連続的に撮像された複数の画像から、前記分離度差分値算出手段により算出された前記分離度差分値に基づいて、計測対象の物体のフレームアウト直前の画像を特定する特定手段と、
前記特定手段により特定された前記フレームアウト直前の画像を基準として、前記連続的に撮像された前記複数の画像の夫々から前記計測対象の物体の領域を検出する検出手段と、
を備えることを特徴とする画像処理装置。
A degree-of-separation calculating means for calculating the degree of separation of a plurality of images captured continuously;
A degree-of-separation difference value calculating means for calculating a difference value between the plurality of images of the degree of separation calculated by the degree-of-separation calculating means ;
A specifying unit for specifying an image immediately before the frame-out of the object to be measured based on the separation degree difference value calculated by the separation degree difference value calculating unit from the plurality of images captured continuously;
Detecting means for detecting a region of the object to be measured from each of the plurality of images taken continuously with reference to the image immediately before the frame-out specified by the specifying means;
An image processing apparatus comprising:
前記検出手段は、
前記フレームアウト直前の画像より以前の画像から、前記計測対象の物体の領域を時系列とは逆順に前記物体の領域を検出する、
ことを特徴とする請求項1に記載の画像処理装置。
The detection means includes
From the image before the image immediately before the frame out, the region of the object to be measured is detected in the reverse order of the time series of the region of the object to be measured.
The image processing apparatus according to claim 1.
前記検出手段により検出された物体の領域に基づき、当該物体の軌跡が含まれ得る所定の領域を生成する生成手段と、
前記生成手段により生成された所定の領域に基づいて、前記物体の軌跡、及び/又は、前記物体の速度を算出する算出手段と、
を更に備えることを特徴とする請求項2に記載の画像処理装置。
Generating means for generating a predetermined area that can include a trajectory of the object based on the area of the object detected by the detecting means;
Calculation means for calculating the trajectory of the object and / or the speed of the object based on the predetermined region generated by the generation means;
The image processing apparatus according to claim 2, further comprising:
前記分離度算出手段により算出された分離度が閾値以上か否かを判定する判定手段と、
を更に備え、
前記検出手段は、前記判定手段により所定の閾値以上と判定された領域を、前記物体の領域として検出する、
ことを特徴とする請求項1乃至3のうちの何れか1項に記載の画像処理装置。
Determination means for determining whether the degree of separation calculated by the degree of separation calculation means is equal to or greater than a threshold;
Further comprising
The detection means detects an area determined by the determination means as being equal to or greater than a predetermined threshold as the area of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記連続的に撮像された各画像に基づいて、前記閾値を可変設定する閾値設定手段を更に備える、
ことを特徴とする請求項4に記載の画像処理装置。
Threshold setting means for variably setting the threshold value based on the continuously captured images.
The image processing apparatus according to claim 4.
前記閾値設定手段は、前記連続的に撮像された各画像の輝度に基づいて、前記閾値を可変に設定する、
ことを特徴とする請求項5に記載の画像処理装置。
The threshold value setting means variably sets the threshold value based on the luminance of each of the continuously captured images;
The image processing apparatus according to claim 5.
前記各画像に共通する部分領域を設定する領域設定手段を更に備え、
前記検出手段は、前記領域設定手段により設定された部分領域で前記物体の領域を検出する、
ことを特徴とする請求項1乃至6のうちの何れか1項に記載の画像処理装置。
An area setting means for setting a partial area common to the images;
The detection means detects the area of the object in the partial area set by the area setting means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
画像処理装置が実行する画像処理方法であって、
連続的に撮像された複数の画像の分離度を算出する分離度算出ステップと、
前記分離度算出ステップにより算出された分離度の前記複数の画像間における差分値を算出する分離度差分値算出ステップと、
前記連続的に撮像された複数の画像から、前記分離度差分値算出ステップにより算出された前記分離度差分値に基づいて、計測対象の物体のフレームアウト直前の画像を特定する特定ステップと、
前記特定ステップにおいて特定された前記フレームアウト直前の画像を基準として、前記連続的に撮像された前記複数の画像の夫々から前記計測対象の物体の領域を検出する検出ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing apparatus,
A degree-of-separation calculating step for calculating the degree of separation of a plurality of images captured continuously;
A separation degree difference value calculation step of calculating a difference value between the plurality of images of the separation degree calculated by the separation calculating step,
A specifying step for identifying an image immediately before the frame-out of the object to be measured based on the separation degree difference value calculated by the separation degree difference value calculation step from the plurality of images captured continuously;
A detection step of detecting a region of the object to be measured from each of the plurality of images taken continuously with reference to the image immediately before the frame-out specified in the specifying step;
An image processing method comprising:
コンピュータを、
連続的に撮像された複数の画像の分離度を算出する分離度算出手段、
前記分離度算出手段により算出された分離度の前記複数の画像間における差分値を算出する分離度差分値算出手段、
前記連続的に撮像された複数の画像から、前記分離度差分値算出手段により算出された前記分離度差分値に基づいて、計測対象の物体のフレームアウト直前の画像を特定する特定手段、
前記特定手段により特定された前記フレームアウト直前の画像を基準として、前記連続的に撮像された前記複数の画像の夫々から前記計測対象の物体の領域を検出する検出手段、
として機能させることを特徴とするプログラム。
Computer
A degree-of-separation calculating means for calculating the degree of separation of a plurality of images captured continuously;
A degree-of-separation difference value calculating unit that calculates a difference value between the plurality of images of the degree of separation calculated by the degree-of-separation calculating unit;
A specifying unit for specifying an image immediately before the frame-out of the object to be measured based on the separation degree difference value calculated by the separation degree difference value calculation unit from the plurality of continuously captured images;
Detecting means for detecting an area of the object to be measured from each of the plurality of images taken continuously with reference to the image immediately before the frame-out specified by the specifying means;
A program characterized by functioning as
JP2013060125A 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and program Active JP5884759B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013060125A JP5884759B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013060125A JP5884759B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014187484A JP2014187484A (en) 2014-10-02
JP5884759B2 true JP5884759B2 (en) 2016-03-15

Family

ID=51834621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013060125A Active JP5884759B2 (en) 2013-03-22 2013-03-22 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5884759B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6606985B2 (en) * 2015-11-06 2019-11-20 富士通株式会社 Image processing method, image processing program, and image processing apparatus
WO2020059029A1 (en) * 2018-09-18 2020-03-26 マクセル株式会社 Distance measurement device, imaging device, distance measurement system, distance measurement method, and imaging method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4148903B2 (en) * 2004-01-06 2008-09-10 株式会社東芝 Image processing apparatus, image processing method, and digital camera
JP4529728B2 (en) * 2005-02-23 2010-08-25 パナソニック電工株式会社 Method and apparatus for inspecting foreign matter in container
JP2006314060A (en) * 2005-05-09 2006-11-16 Nissan Motor Co Ltd Image processing apparatus and noise detecting method
JP4714872B2 (en) * 2006-01-12 2011-06-29 国立大学法人 東京大学 Method and apparatus for dividing moving object superimposed on image

Also Published As

Publication number Publication date
JP2014187484A (en) 2014-10-02

Similar Documents

Publication Publication Date Title
JP5284048B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US9674441B2 (en) Image processing apparatus, image processing method, and storage medium
JP5240328B2 (en) Imaging apparatus and program
US11070729B2 (en) Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus
JP5842807B2 (en) Image analysis device, information notification device, image analysis method, information notification method, and program
JP2010079655A (en) Image processing apparatus, image processing method, image pickup device, and program
JP6577852B2 (en) Motion vector detection device and control method thereof
KR20140043665A (en) Image processing device, image processing method, and storage medium
JP6720845B2 (en) Image processing apparatus, image processing method and program
KR20160034819A (en) Image processing apparatus, image processing method, and program
JP2012212373A (en) Image processing device, image processing method and program
JP2011135553A (en) Imaging apparatus, image processing method, and computer program
KR101202642B1 (en) Method and apparatus for estimating global motion using the background feature points
US9706121B2 (en) Image processing apparatus and image processing method
JP5884759B2 (en) Image processing apparatus, image processing method, and program
JP5173549B2 (en) Image processing apparatus and imaging apparatus
JP2008217330A (en) Speed estimation method and speed estimation program
JP6631190B2 (en) Image evaluation device, image evaluation method, and program
JP6168127B2 (en) Image analysis apparatus, image analysis method, and program
JP2017161458A (en) Measuring device, measuring method, and program
JP4752685B2 (en) Imaging apparatus and program
JP2005063036A (en) Object-tracking device
JP6668700B2 (en) Imaging device, image evaluation method, and program
JP7324066B2 (en) IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, AND IMAGING APPARATUS
JP4743048B2 (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160125

R150 Certificate of patent or registration of utility model

Ref document number: 5884759

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150