JP2016123637A - Image processor, image processing method and program - Google Patents

Image processor, image processing method and program Download PDF

Info

Publication number
JP2016123637A
JP2016123637A JP2014266672A JP2014266672A JP2016123637A JP 2016123637 A JP2016123637 A JP 2016123637A JP 2014266672 A JP2014266672 A JP 2014266672A JP 2014266672 A JP2014266672 A JP 2014266672A JP 2016123637 A JP2016123637 A JP 2016123637A
Authority
JP
Japan
Prior art keywords
image data
swing
image processing
processing apparatus
auxiliary line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014266672A
Other languages
Japanese (ja)
Inventor
石毛 善樹
Yoshiki Ishige
善樹 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014266672A priority Critical patent/JP2016123637A/en
Publication of JP2016123637A publication Critical patent/JP2016123637A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To reduce a user's burden when setting an indicator to be reference to be displayed in an image.SOLUTION: An imaging device 1 includes an auxiliary line setting processing part 51. The auxiliary line setting processing part 51 acquires a plurality of pieces of image data in which a series of movements of an object are picked up. The auxiliary line setting processing part 51 also divides each of the acquired plurality of pieces of image data into a plurality of regions. The auxiliary line setting processing part 51 specifies a region having change between a plurality of pieces of image data among the plurality of regions. The auxiliary line setting processing part 51 generates an indicator for being overlapped on any of the plurality of pieces of image data with the specified region as reference.SELECTED DRAWING: Figure 4

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

従来より、録画されたゴルフスイングの動画像上に当該スイングのチェックのための基準線を表示させる技術が知られている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for displaying a reference line for checking a swing on a recorded moving image of a golf swing is known (see Patent Document 1).

特開平10−201898号公報JP-A-10-201898

しかしながら、上記特許文献1の技術は、動画像上に表示される基準線を手動で調整する必要があるため、当該調整を行うユーザに負担がかかるという問題があった。   However, the technique disclosed in Patent Document 1 has a problem in that it is necessary to manually adjust the reference line displayed on the moving image, which places a burden on the user who performs the adjustment.

本発明は、上記のような問題に鑑みてなされたものであり、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to reduce the burden on the user when setting a reference index to be displayed on an image.

上記目的を達成するため、本発明の一態様の画像処理装置は、
物体の一連の動作が撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
It is provided with.

本発明によれば、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することができる。   ADVANTAGE OF THE INVENTION According to this invention, the burden of the user at the time of setting the parameter | index used as the reference | standard displayed on an image can be reduced.

本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the imaging device which concerns on one Embodiment of this invention. 本実施形態における補助線の設定手法を説明するための模式図である。It is a schematic diagram for demonstrating the setting method of the auxiliary line in this embodiment. 本実施形態におけるスイングの評価手法を説明するための模式図である。It is a schematic diagram for demonstrating the evaluation method of the swing in this embodiment. 図1の撮像装置の機能的構成のうち、スイング評価結果報知処理を実行するための機能的構成を示す機能ブロック図である。It is a functional block diagram which shows the functional structure for performing swing evaluation result alerting | reporting process among the functional structures of the imaging device of FIG. 図4の機能的構成を有する図1の撮像装置が実行するスイング評価結果報知処理の流れを説明するフローチャートである。5 is a flowchart for explaining the flow of a swing evaluation result notification process executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG. 4. 評価結果報知処理のうち、補助線設定処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of an auxiliary line setting process among evaluation result alerting | reporting processes. 評価結果報知処理のうち、スイングポイント検出処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of a swing point detection process among evaluation result alerting | reporting processes.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an input unit 17. An output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11 or an image processing unit (not shown).

入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 17 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.
The storage unit 19 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 20 controls communication performed with other devices (not shown) via a network including the Internet.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

このように構成される撮像装置1においては、ゴルフのスイングを撮影した動画像において、スイングの評価を行うための補助線を自動的に設定することができる機能を有する。   The imaging apparatus 1 configured as described above has a function capable of automatically setting an auxiliary line for evaluating a swing in a moving image obtained by shooting a golf swing.

ここで、補助線の設定について説明する。
本実施形態において設定される補助線は、アドレス時のクラブヘッドの位置からスイングを行っている者(以下、単に「被写体」という。)の肩へ向かって設定されるシャフトラインとなる第1補助線L1と、腰に向かって設定されるスイングプレーンとなる第2補助線L2とで構成される。
Here, the setting of the auxiliary line will be described.
The auxiliary line set in the present embodiment is a first auxiliary line that becomes a shaft line set toward the shoulder of a person who is swinging from the position of the club head at the time of addressing (hereinafter simply referred to as “subject”). The line L1 and the second auxiliary line L2 serving as a swing plane set toward the waist.

図2は、本実施形態における補助線の設定手法を説明するための模式図である。なお、本実施形態においては、被写体を後方から撮影して、後方からのスイングに対して、補助線の設定やスイングの評価を行う。補助線を設定する動画像には、図2(a)に示すように、出力部18のライブビュー画面に表示される人型グリッドHG(本実施形態においては、人型グリッドHGの足から腰までの部分)に被写体が一致するようにして撮影されたものが用いられる。   FIG. 2 is a schematic diagram for explaining an auxiliary line setting method in the present embodiment. In the present embodiment, the subject is photographed from the rear, and an auxiliary line is set and a swing is evaluated for the swing from the rear. As shown in FIG. 2A, the moving image for setting the auxiliary line includes a humanoid grid HG displayed on the live view screen of the output unit 18 (in this embodiment, from the legs of the humanoid grid HG. The part photographed so that the subject coincides with the above part) is used.

補助線の設定は、まず、図2(b)に示す動画像に対して、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。   For the setting of the auxiliary line, first, with respect to the moving image shown in FIG. 2B, a region GR (in this embodiment, a lattice-like shape) is used to determine a change in motion as shown in FIG. Divide into grid areas GR).

その後、図2(d)〜(f)に示すように動画像のコマを進めて再生して、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。ゴルフのスイングにおいては、後方からの場合、振り上げから振り下ろしの動作となるために、アドレスの姿勢においてクラブヘッドが右下にあった場合には、斜め上の左上への振り上げ時の動作が動きのあった領域MRとして抽出されることになる。   After that, as shown in FIGS. 2D to 2F, the frame of the moving image is advanced and reproduced, and the region MR that has moved is extracted from the series of swings as shown in FIG. . When swinging from the back, when swinging from the rear, the swinging action is from swinging up to swinging down. When the club head is at the lower right in the address posture, the swinging action at the upper left of the club moves upward. The extracted region MR is extracted.

次に、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。   Next, as shown in FIG. 2 (h), in the extracted area MR, the point that is most distant from the subject OB in the horizontal direction at the takeback timing is set as the club head position, and the auxiliary line A region SR including the start point is determined.

次に、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。   Next, as shown in FIG. 2 (i), a line passing through the shoulder of the humanoid grid HG from the region SR including the determined starting point of the auxiliary line is set as a first auxiliary line L1 serving as a shaft line. Is set as an auxiliary line of the second auxiliary line L2, which is an ideal swing plane (swing trajectory).

最後に、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。
このように、人型グリッドHGに基づいて撮影した被写体から、補助線の始点を含む領域SRを決定し、人型グリッドHGに基づいて、補助線を設定することで、自動的に補助線を設定することができ、ユーザの利便性を向上させることができる。また、人型グリッドHGに基づいて、補助線を設定することで、グリッド基準の正確な補助線を設定することができる。
Finally, as shown in FIG. 2 (j), the first auxiliary line L1 that becomes the set shaft line and the second auxiliary line L2 that becomes the swing plane are drawn in a superimposed manner on the moving image, and the auxiliary line is drawn. Set.
As described above, the region SR including the starting point of the auxiliary line is determined from the subject photographed based on the humanoid grid HG, and the auxiliary line is automatically set by setting the auxiliary line based on the humanoid grid HG. The user convenience can be improved. Further, by setting an auxiliary line based on the human grid HG, an accurate auxiliary line based on the grid can be set.

また、撮像装置1においては、撮影した動画像からスイングポイントを特定し、設定した補助線等を用いて、スイングポイントを特定して、スイングの評価を自動的に行うことができる機能を有する。スイングの評価は、スイングが適切な範囲のものであるかの評価と、インサイドアウトやアウトサイドイン等のスイングの軌道の種類の評価を行うものである。   In addition, the imaging apparatus 1 has a function of specifying a swing point from a captured moving image, specifying a swing point using a set auxiliary line or the like, and automatically evaluating a swing. The evaluation of the swing is to evaluate whether the swing is in an appropriate range and to evaluate the type of the trajectory of the swing such as inside-out and outside-in.

ここで、本実施形態におけるスイングの評価手法について説明する。
図3は、本実施形態におけるスイングの評価手法を説明するための模式図である。
Here, a swing evaluation method in the present embodiment will be described.
FIG. 3 is a schematic diagram for explaining a swing evaluation method in the present embodiment.

スイングの評価においては、まず、図3(a)及び(b)に示すように、補助線が設定された状態において、動画像から動きのあった領域を抽出する。   In the evaluation of the swing, first, as shown in FIGS. 3A and 3B, in the state in which the auxiliary line is set, an area that has moved is extracted from the moving image.

次に、図3(c)及び(d)に示すように、検出したテイクバック、インパクト、フォロー等の各スイングポイントにおいて、第1補助線L1及び第2補助線L2から構成される検出エリアからのクラブヘッドの距離を割り出す。なお、各スイングポイントは、クラブヘッドである変換点が人型グリッドHGの位置と、補助線L1,L2の始点SRとの位置関係で特定する。具体的には、図3(c)のように変化点(クラブヘッド)が人型グリッドHGに対して、補助線L1,L2の始点SR寄りにある場合は、テイクバックとし、図3(d)のように変化点(クラブヘッド)が人型グリッドHGに対して、補助線L1,L2の始点SR寄りでない場合は、トップとする。   Next, as shown in FIGS. 3C and 3D, at the detected swing points such as takeback, impact, and follow, from the detection area constituted by the first auxiliary line L1 and the second auxiliary line L2. Determine the club head distance. Each swing point is specified by a positional relationship between the position of the human grid HG at which the conversion point, which is a club head, and the start point SR of the auxiliary lines L1 and L2. Specifically, as shown in FIG. 3C, when the change point (club head) is near the starting point SR of the auxiliary lines L1 and L2 with respect to the human-type grid HG, the takeback is performed, and FIG. If the change point (club head) is not close to the starting point SR of the auxiliary lines L1 and L2 with respect to the human-type grid HG as shown in FIG.

次に、図3(e)及び(f)に示すように、割り出した検出エリアからのクラブヘッドの距離が所定値以上であるか否かを判定して、スイングの評価を行う。検出エリアからのクラブヘッドの距離が所定値以上である場合には、評価が悪くなり、検出エリアからのクラブヘッドの距離が所定値内である場合には、評価が良くなる。   Next, as shown in FIGS. 3E and 3F, it is determined whether or not the distance of the club head from the determined detection area is equal to or greater than a predetermined value, and the swing is evaluated. The evaluation is poor when the distance of the club head from the detection area is equal to or greater than a predetermined value, and the evaluation is good when the distance of the club head from the detection area is within the predetermined value.

また、本実施形態のスイング評価においては、各スイングの評価に加えて、スイングの軌道の種類の評価も行う。具体的には、図3(g)に示すように、検出エリアとクラブヘッドの位置変化から、アウトサイドインやインサイドアウト等のスイングの軌道を評価する。「アウトサイドイン」とは、バックスイングやダウンスイングですでに飛球線を越えていて、インパクト以降のフォロースルーではインサイドに入ってくるスイングの軌道の種類であり、「インサイドアウト」とは、バックスイングやダウンスイングでクラブが飛球線よりも内側で、インパクトで飛球線に接しインパクト以降のフォロースルー時は、飛球線の内側に入っているスイングの軌道の種類である。   Further, in the swing evaluation of this embodiment, in addition to the evaluation of each swing, the type of the swing trajectory is also evaluated. Specifically, as shown in FIG. 3G, the trajectory of the swing such as outside-in and inside-out is evaluated from the position change of the detection area and the club head. “Outside-in” is the type of trajectory of the swing that has already crossed the flying line in the backswing or downswing and enters the inside in the follow-through after the impact. “Inside-out” When the backswing or downswing causes the club to be on the inside of the flying ball line, the impact is in contact with the flying ball line, and the follow-through after the impact is the type of the orbit of the swing that is inside the flying ball line.

このような撮像装置1では、このような評価の結果を、出力部18を介して映像や音声で報知/警告する機能を有する。具体的には、撮像装置1では、評価結果の程度(例えば、スイング全体又はスイングの各スイングポイントでの良否,当該良否の程度やスイングの軌道の良否,当該良否の程度)に応じた種々の報知/警告を行う。   Such an imaging apparatus 1 has a function of notifying / warning the result of such evaluation via video or audio via the output unit 18. Specifically, in the imaging device 1, various evaluations are performed according to the degree of the evaluation result (for example, the quality of the entire swing or each swing point of the swing, the degree of the quality, the quality of the swing path, the degree of the quality). Alert / warn.

図4は、このような撮像装置1の機能的構成のうち、スイング評価結果報知処理を実行するための機能的構成を示す機能ブロック図である。
「スイング評価結果報知処理」とは、補助線を動画像に設定し、設定した補助線に基づいて、動画像内のスイングを評価し、当該評価結果を報知する一連の処理をいう。
「スイング評価結果報知処理」は、「補助線設定処理」を含む。「補助線設定処理」とは、動画像の被写体上に補助線を設定する一連の処理である。「補助線設定処理」は、「スイングポイント検出処理」を含む。「スイングポイント検出処理」とは、テイクバックスターとのタイミングと、インパクトのタイミングのスイングポイントの検出を行う一連の処理である。
FIG. 4 is a functional block diagram illustrating a functional configuration for executing the swing evaluation result notification process among the functional configurations of the imaging apparatus 1 as described above.
The “swing evaluation result notifying process” refers to a series of processes for setting an auxiliary line in a moving image, evaluating a swing in the moving image based on the set auxiliary line, and notifying the evaluation result.
The “swing evaluation result notification process” includes an “auxiliary line setting process”. The “auxiliary line setting process” is a series of processes for setting an auxiliary line on a moving image subject. The “auxiliary line setting process” includes a “swing point detection process”. The “swing point detection process” is a series of processes for detecting the swing point at the timing of the takeback star and the timing of the impact.

スイング評価結果報知処理を実行する場合には、図4に示すように、CPU11において、補助線設定処理部51と、スイングポイント検出処理部52と、検出エリア設定部53と、スイング判定部54と、報知制御部55と、スイング軌道判定部56が機能する。   When executing the swing evaluation result notification process, as shown in FIG. 4, in the CPU 11, the auxiliary line setting processing unit 51, the swing point detection processing unit 52, the detection area setting unit 53, and the swing determination unit 54 The notification control unit 55 and the swing trajectory determination unit 56 function.

また、記憶部19の一領域には、画像記憶部71と、判定情報記憶部72と、が設定される。   An image storage unit 71 and a determination information storage unit 72 are set in one area of the storage unit 19.

画像記憶部71には、判定対象となる動画像のデータが記憶される。なお、画像記憶部71に記憶される動画像は、ライブビュー画像に重畳的に表示した図2(a)に示すような人型グリッドHGのガイドに合うように後方からゴルフのスイングをしている被写体を撮影した動画像である。   The image storage unit 71 stores moving image data to be determined. In addition, the moving image memorize | stored in the image memory | storage part 71 carries out the golf swing from back so that it may fit the guide of the human-type grid HG as shown to Fig.2 (a) superimposed on the live view image. This is a moving image obtained by photographing a subject.

判定情報記憶部72には、設定した補助線と各スイングポイント(テイクバック・トップ・インパクト・フォロー)との距離の情報が記憶される。   The determination information storage unit 72 stores information on the distance between the set auxiliary line and each swing point (takeback, top, impact, follow).

補助線設定処理部51は、補助線設定処理を実行する。補助線設定処理の実行の結果、動画像上にスイングの判定基準となる補助線が設定される。   The auxiliary line setting processing unit 51 executes an auxiliary line setting process. As a result of the execution of the auxiliary line setting process, an auxiliary line serving as a swing criterion is set on the moving image.

詳細には、補助線設定処理部51は、検出したスイングポイント(テイクバックのスタートのタイミングとインパクトのタイミング)のフレーム付近の各フレームを、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。そして、補助線設定処理部51は、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。   Specifically, the auxiliary line setting processing unit 51 determines a change in movement of each frame near the frame of the detected swing point (takeback start timing and impact timing) as shown in FIG. In order to do so, it is divided into regions GR (in the present embodiment, a grid-like grid region GR). Then, the auxiliary line setting processing unit 51 extracts a region MR that has moved out of a series of swings as shown in FIG.

また、補助線設定処理部51は、被写体からテイクバックタイミングで水平方向に最も離れたポイントを補助線の始点として決定する。即ち、補助線設定処理部51は、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。   Further, the auxiliary line setting processing unit 51 determines the point that is farthest from the subject in the horizontal direction at the takeback timing as the starting point of the auxiliary line. That is, as shown in FIG. 2 (h), the auxiliary line setting processing unit 51 sets the point farthest away from the subject OB in the horizontal direction at the takeback timing in the extracted area MR. As a position, a region SR including the starting point of the auxiliary line is determined.

また、補助線設定処理部51は、決定した補助線の始点から人型グリッドHGを結ぶように補助線を設定する。即ち、補助線設定処理部51は、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。その結果、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画することで、各補助線を設定する。   In addition, the auxiliary line setting processing unit 51 sets the auxiliary line so as to connect the human grid HG from the determined starting point of the auxiliary line. That is, the auxiliary line setting processing unit 51 sets a line passing through the shoulder of the human grid HG from the region SR including the determined starting point of the auxiliary line as shown in FIG. As the first auxiliary line L1, a line passing through the waist is set, and an auxiliary line of the second auxiliary line L2 that is an ideal swing plane (swing trajectory) is set. As a result, as shown in FIG. 2 (j), the first auxiliary line L1 serving as the set shaft line and the second auxiliary line L2 serving as the swing plane are drawn on the moving image in a superimposed manner, so that each auxiliary line is drawn. Set the line.

スイングポイント検出処理部52は、スイングポイント検出処理を実行する。スイングポイント検出処理の実行の結果、スイングポイント(テイクバックのスタート及びインパクトのタイミング)のフレームが検出される。
詳細には、スイングポイント検出処理部52は、人型グリッドHGの位置からクラブが通過するインパクト付近に検出エリアを設定する。そして、スイングポイント検出処理部52は、動画像フレームを順次比較して変化を検出する。さらに、スイングポイント検出処理部52は、検出の回数に応じて、スイングポイント(1回目:テイクバックのスタート、2回目:インパクトのタイミング)のフレームが検出される。
The swing point detection processing unit 52 performs a swing point detection process. As a result of the execution of the swing point detection process, a frame of a swing point (takeback start and impact timing) is detected.
Specifically, the swing point detection processing unit 52 sets a detection area in the vicinity of the impact through which the club passes from the position of the human grid HG. Then, the swing point detection processing unit 52 detects the change by sequentially comparing the moving image frames. Further, the swing point detection processing unit 52 detects a frame of a swing point (first time: start of takeback, second time: timing of impact) according to the number of times of detection.

検出エリア設定部53は、補助線設定処理部51によって設定された両補助線付近の領域にスイングの検出エリアを設定する。   The detection area setting unit 53 sets a swing detection area in a region near both auxiliary lines set by the auxiliary line setting processing unit 51.

スイング判定部54は、変化点であるクラブのヘッドの位置により、スイングポイントを特定する。具体的には、スイング判定部54は、テイクバックスタート後において、変化点であるクラブヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、図3(c)に示すような人型グリッドHGよりも補助線L1,L2の始点SR寄りである場合には、テイクバックであり、図3(d)に示すような人型グリッドHGよりも補助線の始点寄りでない人型グリッドHGよりも先にある場合には、トップとする。
また、スイング判定部54は、トップとされて、テイクバックスタート後でないときにおいて、変化点であるクラブのヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、人型グリッドHGよりも補助線始点寄りである場合には、インパクト(本実施形態においては、インパクト直前)であり、人型グリッドHGよりも補助線L1,L2の始点SR寄りでない人型グリッドHGよりも先にある場合には、フォローとする。
The swing determination unit 54 specifies a swing point based on the position of the club head, which is the changing point. Specifically, after the takeback start, the swing determination unit 54 determines whether or not the club head that is the change point is closer to the start point SR of the auxiliary lines L1 and L2 than the humanoid grid HG, and FIG. ) Is closer to the starting point SR of the auxiliary lines L1 and L2 than the humanoid grid HG as shown in FIG. 3), it is a takeback, and the starting point of the auxiliary line is higher than the humanoid grid HG as shown in FIG. If it is ahead of the human grid HG that is not close, it will be top.
In addition, the swing determination unit 54 determines whether or not the club head, which is the changing point, is closer to the starting point SR of the auxiliary lines L1 and L2 than the human-type grid HG when it is set to the top and not after the start of takeback. If it is closer to the starting point of the auxiliary line than the humanoid grid HG, it is an impact (in the present embodiment, just before the impact), and the humanoid grid is not closer to the starting point SR of the auxiliary lines L1 and L2 than the humanoid grid HG. If it is ahead of HG, follow it.

また、スイング判定部54は、設定した補助線と各スイングポイント(テイクバック・トップ・インパクト・フォロー)との距離を判定する。具体的には、スイング判定部54は、特定した各スイングポイントのシーンにおけるクラブヘッドの位置から、設定した補助線との距離を算出する。
また、スイング判定部54は、算出された各スイングポイントでの補助線からの距離を判定情報記憶部72に記憶させる。
Further, the swing determination unit 54 determines the distance between the set auxiliary line and each swing point (take back, top, impact, follow). Specifically, the swing determination unit 54 calculates the distance from the set auxiliary line from the position of the club head in the scene of each identified swing point.
In addition, the swing determination unit 54 causes the determination information storage unit 72 to store the calculated distance from the auxiliary line at each swing point.

また、スイング判定部54は、判定情報記憶部72に記憶させた各スイングポイントでの補助線からの距離が所定値以上であるか否かを判定する。判定の結果、各スイングポイントでの補助線からの距離が所定値以上である場合には、異常なスイングであると判定され、所定値以内である場合には、正常なスイングであると判定される。   Further, the swing determination unit 54 determines whether or not the distance from the auxiliary line at each swing point stored in the determination information storage unit 72 is greater than or equal to a predetermined value. As a result of the determination, if the distance from the auxiliary line at each swing point is greater than or equal to a predetermined value, it is determined that the swing is abnormal, and if it is within the predetermined value, it is determined that the swing is normal. The

報知制御部55は、正常である旨の報知や異常である旨の報知として警告を発するように出力部18を制御する。具体的には、報知制御部55は、スイング判定部54による各スイングポイントでの補助線からの距離が所定値以上であるか否かの判定結果において正常なスイングである場合には、正常である旨の報知を行い、異常なスイングである場合には、警告を発するように出力部18を制御する。この際、報知制御部55は、例えば、音で報知/警告を行う場合、正常時と異常時で異なる音や色に鳴り分けをしたり、正常時には発音せず、異常時のみ発音したり正常/異常で異なる報知/警告をするように出力部18を制御することもできる。
また、補助線からの距離の程度から、正常/異常の中に程度を設けた場合には、報知制御部55は、正常/異常の程度に対応して、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
また、報知制御部55は、各スイングポイントにおいて個別に正常/異常の可否を判定している場合には、各スイングポイントの別、正常/異常の別、正常/異常の程度の別で、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
また、報知制御部55は、各スイングポイントでの評価を総合的な結果として出力する場合には、単純に正常/異常の別で報知/警告する他に、総合的な評価がどの程度の要素で構成されているかの割合で、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
その結果、出力部18では、正常である旨の報知や警告が出力される。
The notification control unit 55 controls the output unit 18 so as to issue a warning as a notification that it is normal or a notification that it is abnormal. Specifically, the notification control unit 55 is normal when the swing determination unit 54 determines that the distance from the auxiliary line at each swing point is equal to or greater than a predetermined value and is a normal swing. A notification to that effect is given, and if the swing is abnormal, the output unit 18 is controlled to issue a warning. At this time, for example, when performing notification / warning by sound, the notification control unit 55 sounds differently in different sounds and colors at normal time and abnormal time, does not sound at normal time, and generates sound only at abnormal time or normal It is also possible to control the output unit 18 so as to give different notifications / warnings due to abnormalities.
In addition, when the degree is set in the normal / abnormality from the degree of the distance from the auxiliary line, the notification control unit 55 corresponds to the normal / abnormal degree, the frequency / size of the notification / warning, The output unit 18 is controlled to perform notification / warning by changing the sound quality.
In addition, when the notification control unit 55 determines whether each swing point is normal / abnormal individually, the notification control unit 55 notifies each swing point according to whether it is normal / abnormal or normal / abnormal. / The output unit 18 is controlled to perform notification / warning by changing the frequency, size, and sound quality of the warning.
In addition, when the evaluation at each swing point is output as a comprehensive result, the notification control unit 55 simply reports / warns according to normal / abnormal, and how much the comprehensive evaluation is. The output unit 18 is controlled so as to perform notification / warning by changing the frequency, size, and sound quality of the notification / warning according to the ratio of the above.
As a result, the output unit 18 outputs a notification or warning indicating that the output is normal.

また、報知制御部55は、スイング軌道判定部56で判定されたスイングの軌道を表示するように出力部18を制御する。
その結果、出力部18では、図3(h)に示すように、スイングの軌道をイメージした絵柄として表示出力される。なお、この際、報知制御部55は、スイングの軌道の評価結果の報知/警告を、単なる音、アナウンス音、スイングの軌道をイメージしたサウンド、文字情報等で行うように出力部18を制御することができる。
Further, the notification control unit 55 controls the output unit 18 so as to display the swing trajectory determined by the swing trajectory determination unit 56.
As a result, as shown in FIG. 3 (h), the output unit 18 displays and outputs it as a picture inspired by the swing trajectory. At this time, the notification control unit 55 controls the output unit 18 so that the notification / warning of the evaluation result of the swing trajectory is performed using simple sounds, announcement sounds, sounds that image the swing trajectory, character information, and the like. be able to.

スイング軌道判定部56は、スイングのクラブヘッドの位置のズレ量から、スイングの軌道の種類を判定する。具体的には、スイング軌道判定部56は、検出エリアとクラブヘッドの位置変化から、アウトサイドインやインサイドアウト等のスイングの軌道を評価する。   The swing trajectory determination unit 56 determines the type of the swing trajectory from the amount of deviation of the position of the swing club head. Specifically, the swing trajectory determination unit 56 evaluates the trajectory of a swing such as outside-in or inside-out from the change in the position of the detection area and the club head.

図5は、図4の機能的構成を有する図1の撮像装置が実行するスイング評価結果報知処理の流れを説明するフローチャートである。
スイング評価結果報知処理は、ユーザによる入力部17へのスイング評価結果報知処理開始の操作により開始される。また、本実施形態においては、ライブビュー画像に重畳的に表示した図2(a)に示すような人型グリッドHGのガイドに合うように後方からゴルフのスイングをしている被写体を撮影した動画像が画像記憶部71に記憶され、当該動画像を処理対象の動画像として用いる。
FIG. 5 is a flowchart for explaining the flow of the swing evaluation result notification process executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG.
The swing evaluation result notification process is started by an operation of starting a swing evaluation result notification process to the input unit 17 by the user. Further, in the present embodiment, a moving image in which a subject swinging a golf swing from the rear so as to fit a guide of a humanoid grid HG as shown in FIG. The image is stored in the image storage unit 71, and the moving image is used as a moving image to be processed.

ステップS11において、補助線設定処理部51は、画像記憶部71から判定対象となる動画像を取得して、補助線設定処理を実行する。補助線設定処理の結果、動画像上に補助線が重畳的に描画されて設定される。具体的には、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。
補助線設定処理の流れについては後述する。
In step S <b> 11, the auxiliary line setting processing unit 51 acquires a moving image to be determined from the image storage unit 71 and executes auxiliary line setting processing. As a result of the auxiliary line setting process, auxiliary lines are drawn and set on the moving image in a superimposed manner. Specifically, as shown in FIG. 2 (j), the first auxiliary line L1 serving as the set shaft line and the second auxiliary line L2 serving as the swing plane are drawn in a superimposed manner on the moving image to assist. Set the line.
The flow of the auxiliary line setting process will be described later.

ステップS12において、検出エリア設定部53は、設定した補助線付近に検出エリアを設定する。   In step S12, the detection area setting unit 53 sets a detection area near the set auxiliary line.

ステップS13において、スイング判定部54は、動画像内のシーン(フレーム)がテイクバックスタート後である否かを判定する。詳細には、スイング判定部54は、判定対象となるフレームがスイングポイント検出処理で決定されたテイクバックスタート後であるか否かを判定する。
テイクバックスタート後でない場合には、ステップS13においてNOと判定されて、処理はステップS17に進む。ステップS17以降の処理は後述する。
テイクバックスタート後である場合には、ステップS13においてYESと判定されて、処理はステップS14に進む。
In step S13, the swing determination unit 54 determines whether or not the scene (frame) in the moving image is after the start of takeback. Specifically, the swing determination unit 54 determines whether or not the frame to be determined is after the takeback start determined in the swing point detection process.
If it is not after the takeback start, NO is determined in step S13, and the process proceeds to step S17. The processing after step S17 will be described later.
If it is after the start of takeback, YES is determined in step S13, and the process proceeds to step S14.

ステップS14において、スイング判定部54は、変化点が人型グリッドHGより補助線の始点寄りであるか否かを判定する。即ち、スイング判定部54は、テイクバックスタート後において、変化点であるクラブヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、図3(c)に示すような人型グリッドHGよりも補助線L1,L2の始点SR寄りである場合には、テイクバックであり、図3(d)に示すような人型グリッドHGよりも補助線の始点寄りでない人型グリッドHGよりも先にある場合には、トップとする。
変化点が人型グリッドHGより補助線の始点寄りである場合には、ステップS14においてYESと判定されて、処理はステップS15に進む。
変化点が人型グリッドHGより補助線の始点寄りでない場合には、ステップS14においてNOと判定されて、処理はステップS16に進む。
In step S14, the swing determination unit 54 determines whether or not the changing point is closer to the starting point of the auxiliary line than the human grid HG. That is, after the takeback start, the swing determination unit 54 determines whether or not the club head that is the change point is closer to the start point SR of the auxiliary lines L1 and L2 than the human grid HG, as shown in FIG. A person who is closer to the starting point SR of the auxiliary lines L1 and L2 than the humanoid grid HG is a takeback and is not closer to the starting point of the auxiliary line than the humanoid grid HG as shown in FIG. If it is ahead of the grid HG, it is top.
If the change point is closer to the starting point of the auxiliary line than the human-type grid HG, it is determined as YES in Step S14, and the process proceeds to Step S15.
If the change point is not closer to the starting point of the auxiliary line than the humanoid grid HG, NO is determined in step S14, and the process proceeds to step S16.

ステップS15において、スイング判定部54は、テイクバックスタートの補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。   In step S <b> 15, the swing determination unit 54 determines the distance from the takeback start auxiliary line, and causes the determination information storage unit 72 to record the determination result.

ステップS16において、スイング判定部54は、トップ補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。   In step S <b> 16, the swing determination unit 54 determines the distance from the top auxiliary line and causes the determination information storage unit 72 to record the determination result.

ステップS17において、スイング判定部54は、変化点が人型グリッドHGより補助線の始点寄りであるか否かを判定する。
変化点が人型グリッドHGより補助線の始点寄りである場合には、ステップS17においてYESと判定されて、処理はステップS18に進む。
変化点が人型グリッドHGより補助線の始点寄りでない場合には、ステップS17においてNOと判定されて、処理はステップS19に進む。
In step S17, the swing determination unit 54 determines whether or not the changing point is closer to the starting point of the auxiliary line than the human grid HG.
If the change point is closer to the starting point of the auxiliary line than the humanoid grid HG, YES is determined in step S17, and the process proceeds to step S18.
If the change point is not closer to the starting point of the auxiliary line than the humanoid grid HG, NO is determined in step S17, and the process proceeds to step S19.

ステップS18において、スイング判定部54は、インパクト直前の補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。   In step S <b> 18, the swing determination unit 54 determines the distance from the auxiliary line immediately before the impact, and records the determination result in the determination information storage unit 72.

ステップS19において、スイング判定部54は、フォローの補助線からの距離を判定し、当該判定結果を判定情報記憶部72に記録させる。   In step S <b> 19, the swing determination unit 54 determines the distance from the follow auxiliary line, and records the determination result in the determination information storage unit 72.

ステップS20において、スイング判定部54は、それぞれの補助線からの距離が所定値以上であるか否かを判定する。
それぞれの補助線からの距離が所定値以上である場合には、ステップS20においてYESと判定されて、処理はステップS21に進む。
それぞれの補助線からの距離が所定値以上でない場合には、ステップS20においてNOと判定されて、処理はステップS22に進む。
In step S20, the swing determination unit 54 determines whether the distance from each auxiliary line is equal to or greater than a predetermined value.
If the distance from each auxiliary line is equal to or greater than the predetermined value, YES is determined in step S20, and the process proceeds to step S21.
If the distance from each auxiliary line is not equal to or greater than the predetermined value, NO is determined in step S20, and the process proceeds to step S22.

ステップS21において、報知制御部55は、異常である旨を報知したり、補助線からの距離(ズレ量)を加味した異常を報知したりして、警告を発するように出力部18を制御する。その結果、出力部18から警告音が出力される。   In step S <b> 21, the notification control unit 55 controls the output unit 18 to issue a warning by notifying that there is an abnormality or notifying an abnormality that takes into account the distance (displacement amount) from the auxiliary line. . As a result, a warning sound is output from the output unit 18.

ステップS22において、報知制御部55は、正常である旨を報知したり、補助線からの距離(ズレ量)を加味した正常の報知をしたりするように出力部18を制御する。その結果、出力部18から正常である旨の報知音が出力される。   In step S <b> 22, the notification control unit 55 controls the output unit 18 so as to notify that it is normal or perform normal notification that takes into account the distance from the auxiliary line (deviation amount). As a result, a notification sound indicating that the output unit 18 is normal is output.

ステップS23において、スイング軌道判定部56は、スイングポイントごとのズレ量からスイング軌道を判定する。   In step S23, the swing trajectory determination unit 56 determines the swing trajectory from the amount of deviation for each swing point.

ステップS24において、報知制御部55は、インサイドアウト/アウトサイドインなどの状態を報知したり、スイングポイントごとのズレ量を加味して、インサイドアウト/アウトサイドインなどの状態の程度を報知したりするように出力部18を制御する。その結果、出力部18から警告音等が出力される。
その後、スイング判定処理は終了する。
In step S24, the notification control unit 55 notifies a state such as inside-out / outside-in, or notifies the degree of the state such as inside-out / outside-in, taking into account the amount of deviation for each swing point. Thus, the output unit 18 is controlled. As a result, a warning sound or the like is output from the output unit 18.
Thereafter, the swing determination process ends.

図6は、スイング評価結果報知処理のうち、補助線設定処理の流れを説明するフローチャートである。   FIG. 6 is a flowchart for explaining the flow of the auxiliary line setting process in the swing evaluation result notification process.

ステップS41において、スイングポイント検出処理部52は、スイングポイント検出処理を実行する。スイングポイント検出処理の実行の結果、動画像からスイングポイントか検出される。
スイングポイント検出処理の流れについては後述する。
In step S41, the swing point detection processing unit 52 performs a swing point detection process. As a result of the swing point detection process, a swing point is detected from the moving image.
The flow of the swing point detection process will be described later.

ステップS42において、補助線設定処理部51は、スイングポイント検出付近のエリアを分割してクラブヘッド通過ポイントを抽出する。具体的には、補助線設定処理部51は、検出したスイングポイント(テイクバックのタイミングスタートとインパクトのタイミング)のフレーム付近の各フレームを、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。そして、補助線設定処理部51は、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。   In step S42, the auxiliary line setting processing unit 51 divides an area near the swing point detection and extracts a club head passage point. Specifically, the auxiliary line setting processing unit 51 determines a change in motion of each frame near the frame of the detected swing point (takeback timing start and impact timing) as shown in FIG. In order to do so, it is divided into regions GR (in the present embodiment, a grid-like grid region GR). Then, the auxiliary line setting processing unit 51 extracts a region MR that has moved out of a series of swings as shown in FIG.

ステップS43において、補助線設定処理部51は、被写体からテイクバックタイミングで水平方向に最も離れたポイントを補助線の始点として決定する。具体的には、補助線設定処理部51は、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。   In step S43, the auxiliary line setting processing unit 51 determines a point farthest from the subject in the horizontal direction at the takeback timing as the starting point of the auxiliary line. Specifically, the auxiliary line setting processing unit 51, as shown in FIG. 2 (h), in the extracted region MR that has moved, is the point that is most distant from the subject OB at the takeback timing. Is determined as the position of the club head, and the region SR including the starting point of the auxiliary line is determined.

ステップS44において、補助線設定処理部51は、補助線始点から人型グリッドHGを結ぶように補助線を設定する。具体的には、補助線設定処理部51は、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。そして、補助線設定処理部51は、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。   In step S44, the auxiliary line setting processing unit 51 sets auxiliary lines so as to connect the human grid HG from the auxiliary line start point. Specifically, the auxiliary line setting processing unit 51 sets a line passing through the shoulder of the humanoid grid HG from the region SR including the determined starting point of the auxiliary line as shown in FIG. As the first auxiliary line L1, the line passing through the waist is set, and the auxiliary line of the second auxiliary line L2 that is an ideal swing plane (swing trajectory) is set. Then, as shown in FIG. 2J, the auxiliary line setting processing unit 51 superimposes the first auxiliary line L1 serving as the set shaft line and the second auxiliary line L2 serving as the swing plane on the moving image. Draw and set auxiliary lines.

図7は、スイング評価結果報知処理のうち、スイングポイント検出処理の流れを説明するフローチャートである。   FIG. 7 is a flowchart for explaining the flow of the swing point detection process in the swing evaluation result notification process.

ステップS61において、スイングポイント検出処理部52は、人型グリッドHGの位置からクラブヘッドが通過するインパクト付近の領域にクラブヘッドの変化を検出する変化検出エリアを設定する。   In step S61, the swing point detection processing unit 52 sets a change detection area for detecting a change in the club head in a region near the impact through which the club head passes from the position of the human grid HG.

ステップS62において、スイングポイント検出処理部52は、動画像を構成するフレームを順次比較して変化を検出する。   In step S62, the swing point detection processing unit 52 detects a change by sequentially comparing the frames constituting the moving image.

ステップS63において、スイングポイント検出処理部52は、変化を検出したか否かを判定する。
変化を検出しない場合には、ステップS63においてNOと判定されて、処理はステップS62に戻る。
変化を検出した場合には、ステップS63においてYESと判定されて、処理はステップS64に進む。
In step S63, the swing point detection processing unit 52 determines whether or not a change is detected.
If no change is detected, NO is determined in step S63, and the process returns to step S62.
When a change is detected, it determines with YES in step S63, and a process progresses to step S64.

ステップS64において、スイングポイント検出処理部52は、検出された変化が1回目か否かを判定する。
1回目の場合には、ステップS64においてYESと判定されて、処理はステップS65に進む。
1回目でない場合には、ステップS64においてNOと判定されて、処理はステップS66に進む。
In step S64, the swing point detection processing unit 52 determines whether or not the detected change is the first time.
In the case of the first time, YES is determined in step S64, and the process proceeds to step S65.
If it is not the first time, NO is determined in step S64, and the process proceeds to step S66.

ステップS65において、スイングポイント検出処理部52は、検出された変化が1回目であるためクラブを振り上げるテイクバックスタートであると判定する。その後、処理はインパクトタイミングを検出するためにステップS62に戻る。   In step S65, the swing point detection processing unit 52 determines that the takeback start is to swing up the club because the detected change is the first time. Thereafter, the process returns to step S62 in order to detect the impact timing.

ステップS66において、スイングポイント検出処理部52は、検出された変化が2回目であるか否かを判定する。
2回目の場合には、ステップS66においてYESと判定されて、処理はステップS67に進む。
In step S66, the swing point detection processing unit 52 determines whether or not the detected change is the second time.
In the second case, YES is determined in step S66, and the process proceeds to step S67.

ステップS67において、スイングポイント検出処理部52は、検出された変化が1回目であるためクラブを振り下ろしたインパクトタイミングと判定する。   In step S67, the swing point detection processing unit 52 determines the impact timing when the club is swung down because the detected change is the first time.

これに対して、2回目でない場合には、テイクバックでもインパクトでもないためテイクバックでもステップS66においてNOと判定されて、スイングポイント検出処理は終了する。   On the other hand, if it is not the second time, neither takeback nor impact is made, so that it is determined NO in step S66 even in the takeback, and the swing point detection process ends.

したがって、撮像装置1においては、事前にスイングプレーンとシャフトラインの補助線の設定をする。詳細には、クラブヘッドから腰へのラインとクラブヘッドから肩へのラインを補助線として自動で設定する。そして、スイングの開始時を判定し、画面内の動作の切り替わりによってスイングフェーズを判定する。
また、撮像装置1においては、スイングフェーズ(スタート・インパクト)は特定エリアの画像差分で判断し、補助線を設定したエリア外の画像差分を検出してどの程度補助線から離れているか記録する。この際、補助線から一定以上離れている場合にスイングエラーと判断し警告を発し、該当するフェーズでライン外にスイングがはみ出た場合、警告を発し、スイングポイントごとのズレ量からインサイドアウトやアウトサイドインを判定し、警告を発するように構成する。即ち、撮像装置1は、ゴルフにおいて理想的なスイング軌道から外れた場合に警告する機能を有する。
Therefore, in the imaging device 1, auxiliary lines for the swing plane and the shaft line are set in advance. Specifically, a line from the club head to the waist and a line from the club head to the shoulder are automatically set as auxiliary lines. Then, the start time of the swing is determined, and the swing phase is determined by the switching of the operation in the screen.
Further, in the imaging apparatus 1, the swing phase (start / impact) is determined by the image difference in the specific area, and the image difference outside the area where the auxiliary line is set is detected and the extent to which the auxiliary line is separated is recorded. At this time, if the swing line is separated from the auxiliary line by more than a certain level, it is judged as a swing error and a warning is issued. It is configured to determine a side-in and issue a warning. That is, the imaging device 1 has a function of warning when the golf club deviates from an ideal swing path in golf.

以上のように構成される撮像装置1は、補助線設定処理部51を備える。
補助線設定処理部51は、物体の一連の動作が撮像された複数の画像データを取得する。
また、補助線設定処理部51は、取得された複数の画像データの各々を複数の領域に区分けする。
補助線設定処理部51は、複数の領域から、複数の画像データ間で変化がある領域を特定する。
補助線設定処理部51は、特定された領域を基準として、複数の画像データの何れかに重畳させるための指標を生成する。
これにより、撮像装置1においては、自動的に指標を生成することができるために、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することができる。
The imaging device 1 configured as described above includes an auxiliary line setting processing unit 51.
The auxiliary line setting processing unit 51 acquires a plurality of pieces of image data obtained by capturing a series of actions of the object.
Further, the auxiliary line setting processing unit 51 divides each of the acquired plurality of image data into a plurality of regions.
The auxiliary line setting processing unit 51 identifies an area where there is a change between the plurality of image data from the plurality of areas.
The auxiliary line setting processing unit 51 generates an index to be superimposed on any of the plurality of image data with the specified region as a reference.
Thereby, in the imaging device 1, since an index can be automatically generated, it is possible to reduce a burden on the user when setting an index serving as a reference displayed in an image.

また、補助線設定処理部51は、複数の画像データ間で変化がある複数の領域を抽出する。
また、補助線設定処理部51は、抽出された複数の領域のうち、物体から所定方向に離れた領域を変化がある領域として特定する。
これにより、撮像装置1においては、より簡単に自動的に指標を生成することができる。
In addition, the auxiliary line setting processing unit 51 extracts a plurality of areas that vary between a plurality of image data.
Further, the auxiliary line setting processing unit 51 identifies an area away from the object in a predetermined direction as an area having a change among the extracted areas.
Thereby, in the imaging device 1, an index can be automatically generated more easily.

補助線設定処理部51は、複数の変化がある領域のうち、物体から所定方向に最も遠い領域を特定する。
これにより、撮像装置1においては、簡単に指標を生成することができる。
The auxiliary line setting processing unit 51 identifies a region farthest from the object in a predetermined direction among regions having a plurality of changes.
Thereby, in the imaging device 1, an index can be easily generated.

また、補助線設定処理部51は、取得された複数の画像データの各々に共通する部分領域である検出エリアを設定する。
また、補助線設定処理部51は、設定された複数の画像データ間の部分領域である検出エリア間で変化があった複数の時点から所定の時点を特定する。
また、補助線設定処理部51は、特定された所定の時点に基づいて、変化がある領域を特定する。
これにより、撮像装置1においては、所定の時点に基づいて、変化がある領域を特定することで、簡単に指標を生成することができる。
In addition, the auxiliary line setting processing unit 51 sets a detection area that is a partial area common to each of the acquired plurality of image data.
In addition, the auxiliary line setting processing unit 51 identifies a predetermined time point from a plurality of time points where there is a change between detection areas that are partial areas between the plurality of set image data.
In addition, the auxiliary line setting processing unit 51 identifies an area where there is a change based on the identified predetermined time point.
Thereby, in the imaging device 1, an index can be easily generated by specifying a region having a change based on a predetermined time point.

指標は、物体の動作を評価する基準となる指標である。
これにより、撮像装置1においては、物体の動作を評価することができる。
The index is an index serving as a reference for evaluating the motion of the object.
Thereby, in the imaging device 1, the motion of the object can be evaluated.

補助線設定処理部51は、物体の一連の動作のうち、所定の動作に対応した複数の領域において、複数の画像データ間の変化がある領域を特定する。
これにより、撮像装置1においては、効率的に複数の画像データ間の変化がある領域を特定することができる。
The auxiliary line setting processing unit 51 identifies an area where there is a change between a plurality of image data in a plurality of areas corresponding to a predetermined action among a series of actions of the object.
Thereby, in the imaging device 1, the area | region with a change between several image data can be pinpointed efficiently.

物体の一連の動作とは、ゴルフのスイングの動作である。
これにより、撮像装置1においては、ゴルフのスイングの動作の指標を生成することができる。
The series of movements of the object is a golf swing movement.
Thereby, in the imaging device 1, the golf swing motion index can be generated.

補助線設定処理部51は、物体の所定の状態を模した基準に基づいて、指標を生成する。
これにより、撮像装置1においては、物体の所定の状態を模した基準に基づいて、指標を生成するために、正確な指標を生成することができる。
The auxiliary line setting processing unit 51 generates an index based on a standard simulating a predetermined state of the object.
Thereby, in the imaging device 1, since an index is generated based on a standard imitating a predetermined state of an object, an accurate index can be generated.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、処理対象の画像として、動画像を例示したが、例えば、連写した画像を処理対象の画像としてもよい。   In the above-described embodiment, the moving image is exemplified as the processing target image. However, for example, a continuously shot image may be used as the processing target image.

また、上述の実施形態では、テイクバック直線の静止状態のクラブヘッドを抽出して、補助線の始点としたがこれに限られず、例えば、ボールを抽出して補助線の始点としてもよい。   In the above-described embodiment, the club head in a stationary state of the takeback straight line is extracted and used as the starting point of the auxiliary line. However, the present invention is not limited to this. For example, a ball may be extracted and used as the starting point of the auxiliary line.

また、上述の実施形態では、同一の動画像を用いて、補助線の設定及びスイングの評価を行ったが、例えば、事前に補助線の設定用にスイングをして補助線の設定を行って、評価対象のスイングをリアルタイムに評価するように構成することもできる。そして、評価結果が良い場合や悪い場合に、音等で報知するように構成することができる。   In the above-described embodiment, the auxiliary line is set and the swing is evaluated using the same moving image. For example, the auxiliary line is set by swinging in advance for setting the auxiliary line. The swing to be evaluated can be evaluated in real time. And when an evaluation result is good or bad, it can comprise so that it may alert | report with a sound.

また、上述の実施形態では、異常と判定されたフレームにおいて、クラブヘッドの位置を強調表示してエラー箇所を表示するように構成してもよい。また、上述の実施形態では、検出エリアからはみ出した位置や量(補助線との距離)によって警告の種類・音量を変えるように構成してもよい。
また、検出エリアからはみ出した時点のスイングの種類によって警告の種類・音量を変えるようにしても良い。
In the above-described embodiment, the position of the club head may be highlighted and the error location may be displayed in the frame determined to be abnormal. In the above-described embodiment, the type and volume of the warning may be changed depending on the position or amount (distance from the auxiliary line) that protrudes from the detection area.
Further, the type and volume of the warning may be changed depending on the type of swing at the time of protruding from the detection area.

また、上述の実施形態では、音を報知/警告の例としたがこれに限られず、人間が知覚することができる手段で報知/警告が行われればよく、例えば、音の他に、ライト等による光、バイブレーション等による振動等で報知/警告を行うことができる。   In the above-described embodiment, the sound is notified / warned as an example. However, the present invention is not limited to this, and it is sufficient that the sound / warning is performed by means that can be perceived by humans. Notification / warning can be performed by light caused by vibration, vibration caused by vibration, or the like.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、スイング評価結果報知処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a swing evaluation result notification processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 4 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in this. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preliminarily incorporated in the apparatus main body includes, for example, the ROM 12 in FIG. 1 in which a program is recorded, the hard disk included in the storage unit 19 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
物体の一連の動作が撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする画像処理装置。
[付記2]
前記複数の領域から、前記複数の画像データ間で変化がある複数の領域を抽出する抽出手段を更に備え、
前記第1の特定手段は、前記抽出手段により抽出された複数の領域のうち、前記物体から所定方向に離れた領域を前記変化がある領域として特定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記第1の特定手段は、複数の変化がある領域のうち、前記物体から所定方向に最も遠い領域を特定する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記取得手段により取得された複数の画像データの各々に共通する部分領域を設定する設定手段と、
前記設定手段により設定された前記複数の画像データ間の部分領域間で変化があった複数の時点から所定の時点を特定する第2の特定手段と、
を備え、
前記第1の特定手段は、前記第2の特定手段により特定された所定の時点に基づいて、前記変化がある領域を特定する、
ことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
[付記5]
前記指標は、前記物体の動作を評価する基準となる指標である、
ことを特徴とする付記1乃至4の何れか1つに記載の画像処理装置。
[付記6]
前記第1の特定手段は、前記物体の一連の動作のうち、所定の動作に対応した前記複数の領域において、前記複数の画像データ間の変化がある領域を特定する、
ことを特徴とする付記1乃至5の何れか1つに記載の画像処理装置。
[付記7]
前記物体の一連の動作とは、ゴルフのスイングの動作である、
ことを特徴とする付記1乃至6の何れか1つに記載の画像処理装置。
[付記8]
前記生成手段は、前記物体の所定の状態を模した基準に基づいて、前記指標を生成する、
ことを特徴とする付記1乃至7の何れか1つに記載の画像処理装置。
[付記9]
物体の一連の動作が撮像された複数の画像データを取得する取得ステップと、
前記取得ステップにより取得された複数の画像データの各々を複数の領域に区分けする区分けステップと、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定ステップと、
前記特定ステップにより特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
[付記10]
物体の一連の動作が撮像された複数の画像データを取得する取得手段、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定手段、
前記特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
An image processing apparatus comprising:
[Appendix 2]
An extraction means for extracting a plurality of regions having a change between the plurality of image data from the plurality of regions;
The first specifying unit specifies a region away from the object in a predetermined direction as the region having the change among the plurality of regions extracted by the extracting unit.
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The first specifying means specifies a region farthest from the object in a predetermined direction among regions having a plurality of changes.
The image processing apparatus according to Supplementary Note 2, wherein
[Appendix 4]
Setting means for setting a partial area common to each of the plurality of image data acquired by the acquisition means;
Second specifying means for specifying a predetermined time point from a plurality of time points that have changed between partial areas between the plurality of image data set by the setting means;
With
The first specifying unit specifies a region having the change based on a predetermined time point specified by the second specifying unit.
The image processing apparatus according to any one of supplementary notes 1 to 3, wherein
[Appendix 5]
The index is an index serving as a reference for evaluating the motion of the object.
The image processing apparatus according to any one of appendices 1 to 4, wherein
[Appendix 6]
The first specifying means specifies a region where there is a change between the plurality of image data in the plurality of regions corresponding to a predetermined operation among a series of operations of the object.
The image processing apparatus according to any one of appendices 1 to 5, wherein:
[Appendix 7]
The series of motions of the object is a golf swing motion.
The image processing apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
The generating means generates the index based on a standard imitating a predetermined state of the object.
The image processing apparatus according to any one of appendices 1 to 7, wherein
[Appendix 9]
An acquisition step of acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing step of dividing each of the plurality of image data acquired by the acquiring step into a plurality of regions;
A specifying step of specifying a region having a change between the plurality of image data from the plurality of regions;
A generation step of generating an index to be superimposed on any of the plurality of image data with the region specified in the specifying step as a reference;
An image processing method comprising:
[Appendix 10]
Acquisition means for acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing means for dividing each of the plurality of image data acquired by the acquiring means into a plurality of regions;
A specifying means for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the specifying means;
A program characterized by functioning as

1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・補助線設定処理部,52・・・スイングポイント検出処理部,53・・・エリア検出部,54・・・スイング判定部,55・・・報知制御部,56・・・スイング軌道判定部,71・・・画像記憶部,72・・・判定情報記憶部   DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input-output interface, 16 ... Imaging part, 17 ... Input unit 18 ... Output unit 19 ... Storage unit 20 ... Communication unit 21 ... Drive 31 ... Removable media 51 ... Auxiliary line setting processing unit 52 ... Swing point detection processing unit, 53... Area detection unit, 54... Swing determination unit, 55 .. notification control unit, 56... Swing trajectory determination unit, 71. ..Judgment information storage unit

Claims (10)

物体の一連の動作が撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする画像処理装置。
An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
An image processing apparatus comprising:
前記複数の領域から、前記複数の画像データ間で変化がある複数の領域を抽出する抽出手段を更に備え、
前記第1の特定手段は、前記抽出手段により抽出された複数の領域のうち、前記物体から所定方向に離れた領域を前記変化がある領域として特定する、
ことを特徴とする請求項1に記載の画像処理装置。
An extraction means for extracting a plurality of regions having a change between the plurality of image data from the plurality of regions;
The first specifying unit specifies a region away from the object in a predetermined direction as the region having the change among the plurality of regions extracted by the extracting unit.
The image processing apparatus according to claim 1.
前記第1の特定手段は、複数の変化がある領域のうち、前記物体から所定方向に最も遠い領域を特定する、
ことを特徴とする請求項2に記載の画像処理装置。
The first specifying means specifies a region farthest from the object in a predetermined direction among regions having a plurality of changes.
The image processing apparatus according to claim 2.
前記取得手段により取得された複数の画像データの各々に共通する部分領域を設定する設定手段と、
前記設定手段により設定された前記複数の画像データ間の部分領域間で変化があった複数の時点から所定の時点を特定する第2の特定手段と、
を備え、
前記第1の特定手段は、前記第2の特定手段により特定された所定の時点に基づいて、前記変化がある領域を特定する、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
Setting means for setting a partial area common to each of the plurality of image data acquired by the acquisition means;
Second specifying means for specifying a predetermined time point from a plurality of time points that have changed between partial areas between the plurality of image data set by the setting means;
With
The first specifying unit specifies a region having the change based on a predetermined time point specified by the second specifying unit.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記指標は、前記物体の動作を評価する基準となる指標である、
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
The index is an index serving as a reference for evaluating the motion of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第1の特定手段は、前記物体の一連の動作のうち、所定の動作に対応した前記複数の領域において、前記複数の画像データ間の変化がある領域を特定する、
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
The first specifying means specifies a region where there is a change between the plurality of image data in the plurality of regions corresponding to a predetermined operation among a series of operations of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記物体の一連の動作とは、ゴルフのスイングの動作である、
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
The series of motions of the object is a golf swing motion.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記生成手段は、前記物体の所定の状態を模した基準に基づいて、前記指標を生成する、
ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
The generating means generates the index based on a standard imitating a predetermined state of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
物体の一連の動作が撮像された複数の画像データを取得する取得ステップと、
前記取得ステップにより取得された複数の画像データの各々を複数の領域に区分けする区分けステップと、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定ステップと、
前記特定ステップにより特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
An acquisition step of acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing step of dividing each of the plurality of image data acquired by the acquiring step into a plurality of regions;
A specifying step of specifying a region having a change between the plurality of image data from the plurality of regions;
A generation step of generating an index to be superimposed on any of the plurality of image data with the region specified in the specifying step as a reference;
An image processing method comprising:
物体の一連の動作が撮像された複数の画像データを取得する取得手段、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定手段、
前記特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段、
として機能させることを特徴とするプログラム。
Acquisition means for acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing means for dividing each of the plurality of image data acquired by the acquiring means into a plurality of regions;
A specifying means for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the specifying means;
A program characterized by functioning as
JP2014266672A 2014-12-26 2014-12-26 Image processor, image processing method and program Pending JP2016123637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014266672A JP2016123637A (en) 2014-12-26 2014-12-26 Image processor, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014266672A JP2016123637A (en) 2014-12-26 2014-12-26 Image processor, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016123637A true JP2016123637A (en) 2016-07-11

Family

ID=56357213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014266672A Pending JP2016123637A (en) 2014-12-26 2014-12-26 Image processor, image processing method and program

Country Status (1)

Country Link
JP (1) JP2016123637A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109716250A (en) * 2016-09-20 2019-05-03 株式会社斯库林集团 Processing substrate managing device, processing substrate management method and processing substrate management program
JP7011030B1 (en) 2020-12-28 2022-01-26 楽天グループ株式会社 Golf swing analysis system, golf swing analysis method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244214A (en) * 2010-05-18 2011-12-01 Casio Comput Co Ltd Motion picture reproducing apparatus, motion picture reproducing method and program
JP2011254151A (en) * 2010-05-31 2011-12-15 Casio Comput Co Ltd Moving image reproduction device, moving image reproduction method, and program
US20120040317A1 (en) * 2010-08-12 2012-02-16 Gary Anderson Motion training schematic and method of instruction
JP2014131245A (en) * 2012-12-28 2014-07-10 Casio Comput Co Ltd Display control apparatus, display control method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011244214A (en) * 2010-05-18 2011-12-01 Casio Comput Co Ltd Motion picture reproducing apparatus, motion picture reproducing method and program
JP2011254151A (en) * 2010-05-31 2011-12-15 Casio Comput Co Ltd Moving image reproduction device, moving image reproduction method, and program
US20120040317A1 (en) * 2010-08-12 2012-02-16 Gary Anderson Motion training schematic and method of instruction
JP2014131245A (en) * 2012-12-28 2014-07-10 Casio Comput Co Ltd Display control apparatus, display control method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109716250A (en) * 2016-09-20 2019-05-03 株式会社斯库林集团 Processing substrate managing device, processing substrate management method and processing substrate management program
JP7011030B1 (en) 2020-12-28 2022-01-26 楽天グループ株式会社 Golf swing analysis system, golf swing analysis method and program
JP2022104414A (en) * 2020-12-28 2022-07-08 楽天グループ株式会社 Golf swing analysis system, golf swing analysis method and program

Similar Documents

Publication Publication Date Title
JP5754439B2 (en) Information notification apparatus, information notification method, and program
KR101539043B1 (en) Image photography apparatus and method for proposing composition based person
JP5206095B2 (en) Composition determination apparatus, composition determination method, and program
JP6439235B2 (en) Information notification apparatus, information notification method, and program
JP2009094725A5 (en)
CN110475073A (en) Method for videograph and Assistant Editor
JP5794215B2 (en) Image processing apparatus, image processing method, and program
JP5874476B2 (en) Image processing apparatus, image processing method, and program
CN104052908B (en) Photographic device and display method
CN108079547B (en) Image processing apparatus, analysis system, image processing method, and recording medium
JP2019176249A (en) Image processing device, image processing method, image processing program, and imaging device
JP5042896B2 (en) Image processing apparatus and image processing program
JP2010114752A (en) Device and method of imaging and program
JP2009171428A (en) Control method and program for digital camera apparatus and electronic zoom
JP2007049631A (en) Imaging apparatus
JP2016123637A (en) Image processor, image processing method and program
JP2014187551A (en) Image acquisition device, image acquisition method and program
JP2011227692A (en) Size measurement device
JP2009260630A (en) Image processor and image processing program
JP2016126509A (en) Notification control device, notification control method, and program
JP2017174094A (en) Image processing device, image processing method, and program
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP2021105850A (en) Image processing device and method, and imaging device
JP2015146642A (en) Display control apparatus, display control method, and program
JP2015061237A (en) Device and method for image synthesis, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171211

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604