JP2016123637A - Image processor, image processing method and program - Google Patents
Image processor, image processing method and program Download PDFInfo
- Publication number
- JP2016123637A JP2016123637A JP2014266672A JP2014266672A JP2016123637A JP 2016123637 A JP2016123637 A JP 2016123637A JP 2014266672 A JP2014266672 A JP 2014266672A JP 2014266672 A JP2014266672 A JP 2014266672A JP 2016123637 A JP2016123637 A JP 2016123637A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- swing
- image processing
- processing apparatus
- auxiliary line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program.
従来より、録画されたゴルフスイングの動画像上に当該スイングのチェックのための基準線を表示させる技術が知られている(特許文献1参照)。 2. Description of the Related Art Conventionally, a technique for displaying a reference line for checking a swing on a recorded moving image of a golf swing is known (see Patent Document 1).
しかしながら、上記特許文献1の技術は、動画像上に表示される基準線を手動で調整する必要があるため、当該調整を行うユーザに負担がかかるという問題があった。 However, the technique disclosed in Patent Document 1 has a problem in that it is necessary to manually adjust the reference line displayed on the moving image, which places a burden on the user who performs the adjustment.
本発明は、上記のような問題に鑑みてなされたものであり、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to reduce the burden on the user when setting a reference index to be displayed on an image.
上記目的を達成するため、本発明の一態様の画像処理装置は、
物体の一連の動作が撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする。
In order to achieve the above object, an image processing apparatus according to an aspect of the present invention includes:
An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
It is provided with.
本発明によれば、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することができる。 ADVANTAGE OF THE INVENTION According to this invention, the burden of the user at the time of setting the parameter | index used as the reference | standard displayed on an image can be reduced.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る撮像装置のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 1 is a block diagram showing a hardware configuration of an imaging apparatus according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.
撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。
The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a
CPU11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。
The
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。
The
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the
Hereinafter, the output signal of the
入力部17は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
記憶部19は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部20は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。
A
このように構成される撮像装置1においては、ゴルフのスイングを撮影した動画像において、スイングの評価を行うための補助線を自動的に設定することができる機能を有する。 The imaging apparatus 1 configured as described above has a function capable of automatically setting an auxiliary line for evaluating a swing in a moving image obtained by shooting a golf swing.
ここで、補助線の設定について説明する。
本実施形態において設定される補助線は、アドレス時のクラブヘッドの位置からスイングを行っている者(以下、単に「被写体」という。)の肩へ向かって設定されるシャフトラインとなる第1補助線L1と、腰に向かって設定されるスイングプレーンとなる第2補助線L2とで構成される。
Here, the setting of the auxiliary line will be described.
The auxiliary line set in the present embodiment is a first auxiliary line that becomes a shaft line set toward the shoulder of a person who is swinging from the position of the club head at the time of addressing (hereinafter simply referred to as “subject”). The line L1 and the second auxiliary line L2 serving as a swing plane set toward the waist.
図2は、本実施形態における補助線の設定手法を説明するための模式図である。なお、本実施形態においては、被写体を後方から撮影して、後方からのスイングに対して、補助線の設定やスイングの評価を行う。補助線を設定する動画像には、図2(a)に示すように、出力部18のライブビュー画面に表示される人型グリッドHG(本実施形態においては、人型グリッドHGの足から腰までの部分)に被写体が一致するようにして撮影されたものが用いられる。 FIG. 2 is a schematic diagram for explaining an auxiliary line setting method in the present embodiment. In the present embodiment, the subject is photographed from the rear, and an auxiliary line is set and a swing is evaluated for the swing from the rear. As shown in FIG. 2A, the moving image for setting the auxiliary line includes a humanoid grid HG displayed on the live view screen of the output unit 18 (in this embodiment, from the legs of the humanoid grid HG. The part photographed so that the subject coincides with the above part) is used.
補助線の設定は、まず、図2(b)に示す動画像に対して、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。 For the setting of the auxiliary line, first, with respect to the moving image shown in FIG. 2B, a region GR (in this embodiment, a lattice-like shape) is used to determine a change in motion as shown in FIG. Divide into grid areas GR).
その後、図2(d)〜(f)に示すように動画像のコマを進めて再生して、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。ゴルフのスイングにおいては、後方からの場合、振り上げから振り下ろしの動作となるために、アドレスの姿勢においてクラブヘッドが右下にあった場合には、斜め上の左上への振り上げ時の動作が動きのあった領域MRとして抽出されることになる。 After that, as shown in FIGS. 2D to 2F, the frame of the moving image is advanced and reproduced, and the region MR that has moved is extracted from the series of swings as shown in FIG. . When swinging from the back, when swinging from the rear, the swinging action is from swinging up to swinging down. When the club head is at the lower right in the address posture, the swinging action at the upper left of the club moves upward. The extracted region MR is extracted.
次に、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。 Next, as shown in FIG. 2 (h), in the extracted area MR, the point that is most distant from the subject OB in the horizontal direction at the takeback timing is set as the club head position, and the auxiliary line A region SR including the start point is determined.
次に、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。 Next, as shown in FIG. 2 (i), a line passing through the shoulder of the humanoid grid HG from the region SR including the determined starting point of the auxiliary line is set as a first auxiliary line L1 serving as a shaft line. Is set as an auxiliary line of the second auxiliary line L2, which is an ideal swing plane (swing trajectory).
最後に、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。
このように、人型グリッドHGに基づいて撮影した被写体から、補助線の始点を含む領域SRを決定し、人型グリッドHGに基づいて、補助線を設定することで、自動的に補助線を設定することができ、ユーザの利便性を向上させることができる。また、人型グリッドHGに基づいて、補助線を設定することで、グリッド基準の正確な補助線を設定することができる。
Finally, as shown in FIG. 2 (j), the first auxiliary line L1 that becomes the set shaft line and the second auxiliary line L2 that becomes the swing plane are drawn in a superimposed manner on the moving image, and the auxiliary line is drawn. Set.
As described above, the region SR including the starting point of the auxiliary line is determined from the subject photographed based on the humanoid grid HG, and the auxiliary line is automatically set by setting the auxiliary line based on the humanoid grid HG. The user convenience can be improved. Further, by setting an auxiliary line based on the human grid HG, an accurate auxiliary line based on the grid can be set.
また、撮像装置1においては、撮影した動画像からスイングポイントを特定し、設定した補助線等を用いて、スイングポイントを特定して、スイングの評価を自動的に行うことができる機能を有する。スイングの評価は、スイングが適切な範囲のものであるかの評価と、インサイドアウトやアウトサイドイン等のスイングの軌道の種類の評価を行うものである。 In addition, the imaging apparatus 1 has a function of specifying a swing point from a captured moving image, specifying a swing point using a set auxiliary line or the like, and automatically evaluating a swing. The evaluation of the swing is to evaluate whether the swing is in an appropriate range and to evaluate the type of the trajectory of the swing such as inside-out and outside-in.
ここで、本実施形態におけるスイングの評価手法について説明する。
図3は、本実施形態におけるスイングの評価手法を説明するための模式図である。
Here, a swing evaluation method in the present embodiment will be described.
FIG. 3 is a schematic diagram for explaining a swing evaluation method in the present embodiment.
スイングの評価においては、まず、図3(a)及び(b)に示すように、補助線が設定された状態において、動画像から動きのあった領域を抽出する。 In the evaluation of the swing, first, as shown in FIGS. 3A and 3B, in the state in which the auxiliary line is set, an area that has moved is extracted from the moving image.
次に、図3(c)及び(d)に示すように、検出したテイクバック、インパクト、フォロー等の各スイングポイントにおいて、第1補助線L1及び第2補助線L2から構成される検出エリアからのクラブヘッドの距離を割り出す。なお、各スイングポイントは、クラブヘッドである変換点が人型グリッドHGの位置と、補助線L1,L2の始点SRとの位置関係で特定する。具体的には、図3(c)のように変化点(クラブヘッド)が人型グリッドHGに対して、補助線L1,L2の始点SR寄りにある場合は、テイクバックとし、図3(d)のように変化点(クラブヘッド)が人型グリッドHGに対して、補助線L1,L2の始点SR寄りでない場合は、トップとする。 Next, as shown in FIGS. 3C and 3D, at the detected swing points such as takeback, impact, and follow, from the detection area constituted by the first auxiliary line L1 and the second auxiliary line L2. Determine the club head distance. Each swing point is specified by a positional relationship between the position of the human grid HG at which the conversion point, which is a club head, and the start point SR of the auxiliary lines L1 and L2. Specifically, as shown in FIG. 3C, when the change point (club head) is near the starting point SR of the auxiliary lines L1 and L2 with respect to the human-type grid HG, the takeback is performed, and FIG. If the change point (club head) is not close to the starting point SR of the auxiliary lines L1 and L2 with respect to the human-type grid HG as shown in FIG.
次に、図3(e)及び(f)に示すように、割り出した検出エリアからのクラブヘッドの距離が所定値以上であるか否かを判定して、スイングの評価を行う。検出エリアからのクラブヘッドの距離が所定値以上である場合には、評価が悪くなり、検出エリアからのクラブヘッドの距離が所定値内である場合には、評価が良くなる。 Next, as shown in FIGS. 3E and 3F, it is determined whether or not the distance of the club head from the determined detection area is equal to or greater than a predetermined value, and the swing is evaluated. The evaluation is poor when the distance of the club head from the detection area is equal to or greater than a predetermined value, and the evaluation is good when the distance of the club head from the detection area is within the predetermined value.
また、本実施形態のスイング評価においては、各スイングの評価に加えて、スイングの軌道の種類の評価も行う。具体的には、図3(g)に示すように、検出エリアとクラブヘッドの位置変化から、アウトサイドインやインサイドアウト等のスイングの軌道を評価する。「アウトサイドイン」とは、バックスイングやダウンスイングですでに飛球線を越えていて、インパクト以降のフォロースルーではインサイドに入ってくるスイングの軌道の種類であり、「インサイドアウト」とは、バックスイングやダウンスイングでクラブが飛球線よりも内側で、インパクトで飛球線に接しインパクト以降のフォロースルー時は、飛球線の内側に入っているスイングの軌道の種類である。 Further, in the swing evaluation of this embodiment, in addition to the evaluation of each swing, the type of the swing trajectory is also evaluated. Specifically, as shown in FIG. 3G, the trajectory of the swing such as outside-in and inside-out is evaluated from the position change of the detection area and the club head. “Outside-in” is the type of trajectory of the swing that has already crossed the flying line in the backswing or downswing and enters the inside in the follow-through after the impact. “Inside-out” When the backswing or downswing causes the club to be on the inside of the flying ball line, the impact is in contact with the flying ball line, and the follow-through after the impact is the type of the orbit of the swing that is inside the flying ball line.
このような撮像装置1では、このような評価の結果を、出力部18を介して映像や音声で報知/警告する機能を有する。具体的には、撮像装置1では、評価結果の程度(例えば、スイング全体又はスイングの各スイングポイントでの良否,当該良否の程度やスイングの軌道の良否,当該良否の程度)に応じた種々の報知/警告を行う。
Such an imaging apparatus 1 has a function of notifying / warning the result of such evaluation via video or audio via the
図4は、このような撮像装置1の機能的構成のうち、スイング評価結果報知処理を実行するための機能的構成を示す機能ブロック図である。
「スイング評価結果報知処理」とは、補助線を動画像に設定し、設定した補助線に基づいて、動画像内のスイングを評価し、当該評価結果を報知する一連の処理をいう。
「スイング評価結果報知処理」は、「補助線設定処理」を含む。「補助線設定処理」とは、動画像の被写体上に補助線を設定する一連の処理である。「補助線設定処理」は、「スイングポイント検出処理」を含む。「スイングポイント検出処理」とは、テイクバックスターとのタイミングと、インパクトのタイミングのスイングポイントの検出を行う一連の処理である。
FIG. 4 is a functional block diagram illustrating a functional configuration for executing the swing evaluation result notification process among the functional configurations of the imaging apparatus 1 as described above.
The “swing evaluation result notifying process” refers to a series of processes for setting an auxiliary line in a moving image, evaluating a swing in the moving image based on the set auxiliary line, and notifying the evaluation result.
The “swing evaluation result notification process” includes an “auxiliary line setting process”. The “auxiliary line setting process” is a series of processes for setting an auxiliary line on a moving image subject. The “auxiliary line setting process” includes a “swing point detection process”. The “swing point detection process” is a series of processes for detecting the swing point at the timing of the takeback star and the timing of the impact.
スイング評価結果報知処理を実行する場合には、図4に示すように、CPU11において、補助線設定処理部51と、スイングポイント検出処理部52と、検出エリア設定部53と、スイング判定部54と、報知制御部55と、スイング軌道判定部56が機能する。
When executing the swing evaluation result notification process, as shown in FIG. 4, in the
また、記憶部19の一領域には、画像記憶部71と、判定情報記憶部72と、が設定される。
An image storage unit 71 and a determination
画像記憶部71には、判定対象となる動画像のデータが記憶される。なお、画像記憶部71に記憶される動画像は、ライブビュー画像に重畳的に表示した図2(a)に示すような人型グリッドHGのガイドに合うように後方からゴルフのスイングをしている被写体を撮影した動画像である。 The image storage unit 71 stores moving image data to be determined. In addition, the moving image memorize | stored in the image memory | storage part 71 carries out the golf swing from back so that it may fit the guide of the human-type grid HG as shown to Fig.2 (a) superimposed on the live view image. This is a moving image obtained by photographing a subject.
判定情報記憶部72には、設定した補助線と各スイングポイント(テイクバック・トップ・インパクト・フォロー)との距離の情報が記憶される。
The determination
補助線設定処理部51は、補助線設定処理を実行する。補助線設定処理の実行の結果、動画像上にスイングの判定基準となる補助線が設定される。
The auxiliary line
詳細には、補助線設定処理部51は、検出したスイングポイント(テイクバックのスタートのタイミングとインパクトのタイミング)のフレーム付近の各フレームを、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。そして、補助線設定処理部51は、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。
Specifically, the auxiliary line
また、補助線設定処理部51は、被写体からテイクバックタイミングで水平方向に最も離れたポイントを補助線の始点として決定する。即ち、補助線設定処理部51は、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。
Further, the auxiliary line
また、補助線設定処理部51は、決定した補助線の始点から人型グリッドHGを結ぶように補助線を設定する。即ち、補助線設定処理部51は、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。その結果、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画することで、各補助線を設定する。
In addition, the auxiliary line
スイングポイント検出処理部52は、スイングポイント検出処理を実行する。スイングポイント検出処理の実行の結果、スイングポイント(テイクバックのスタート及びインパクトのタイミング)のフレームが検出される。
詳細には、スイングポイント検出処理部52は、人型グリッドHGの位置からクラブが通過するインパクト付近に検出エリアを設定する。そして、スイングポイント検出処理部52は、動画像フレームを順次比較して変化を検出する。さらに、スイングポイント検出処理部52は、検出の回数に応じて、スイングポイント(1回目:テイクバックのスタート、2回目:インパクトのタイミング)のフレームが検出される。
The swing point
Specifically, the swing point
検出エリア設定部53は、補助線設定処理部51によって設定された両補助線付近の領域にスイングの検出エリアを設定する。
The detection
スイング判定部54は、変化点であるクラブのヘッドの位置により、スイングポイントを特定する。具体的には、スイング判定部54は、テイクバックスタート後において、変化点であるクラブヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、図3(c)に示すような人型グリッドHGよりも補助線L1,L2の始点SR寄りである場合には、テイクバックであり、図3(d)に示すような人型グリッドHGよりも補助線の始点寄りでない人型グリッドHGよりも先にある場合には、トップとする。
また、スイング判定部54は、トップとされて、テイクバックスタート後でないときにおいて、変化点であるクラブのヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、人型グリッドHGよりも補助線始点寄りである場合には、インパクト(本実施形態においては、インパクト直前)であり、人型グリッドHGよりも補助線L1,L2の始点SR寄りでない人型グリッドHGよりも先にある場合には、フォローとする。
The
In addition, the
また、スイング判定部54は、設定した補助線と各スイングポイント(テイクバック・トップ・インパクト・フォロー)との距離を判定する。具体的には、スイング判定部54は、特定した各スイングポイントのシーンにおけるクラブヘッドの位置から、設定した補助線との距離を算出する。
また、スイング判定部54は、算出された各スイングポイントでの補助線からの距離を判定情報記憶部72に記憶させる。
Further, the
In addition, the
また、スイング判定部54は、判定情報記憶部72に記憶させた各スイングポイントでの補助線からの距離が所定値以上であるか否かを判定する。判定の結果、各スイングポイントでの補助線からの距離が所定値以上である場合には、異常なスイングであると判定され、所定値以内である場合には、正常なスイングであると判定される。
Further, the
報知制御部55は、正常である旨の報知や異常である旨の報知として警告を発するように出力部18を制御する。具体的には、報知制御部55は、スイング判定部54による各スイングポイントでの補助線からの距離が所定値以上であるか否かの判定結果において正常なスイングである場合には、正常である旨の報知を行い、異常なスイングである場合には、警告を発するように出力部18を制御する。この際、報知制御部55は、例えば、音で報知/警告を行う場合、正常時と異常時で異なる音や色に鳴り分けをしたり、正常時には発音せず、異常時のみ発音したり正常/異常で異なる報知/警告をするように出力部18を制御することもできる。
また、補助線からの距離の程度から、正常/異常の中に程度を設けた場合には、報知制御部55は、正常/異常の程度に対応して、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
また、報知制御部55は、各スイングポイントにおいて個別に正常/異常の可否を判定している場合には、各スイングポイントの別、正常/異常の別、正常/異常の程度の別で、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
また、報知制御部55は、各スイングポイントでの評価を総合的な結果として出力する場合には、単純に正常/異常の別で報知/警告する他に、総合的な評価がどの程度の要素で構成されているかの割合で、報知/警告の頻度、大きさ、音質を変えて、報知/警告を行うように出力部18を制御する。
その結果、出力部18では、正常である旨の報知や警告が出力される。
The
In addition, when the degree is set in the normal / abnormality from the degree of the distance from the auxiliary line, the
In addition, when the
In addition, when the evaluation at each swing point is output as a comprehensive result, the
As a result, the
また、報知制御部55は、スイング軌道判定部56で判定されたスイングの軌道を表示するように出力部18を制御する。
その結果、出力部18では、図3(h)に示すように、スイングの軌道をイメージした絵柄として表示出力される。なお、この際、報知制御部55は、スイングの軌道の評価結果の報知/警告を、単なる音、アナウンス音、スイングの軌道をイメージしたサウンド、文字情報等で行うように出力部18を制御することができる。
Further, the
As a result, as shown in FIG. 3 (h), the
スイング軌道判定部56は、スイングのクラブヘッドの位置のズレ量から、スイングの軌道の種類を判定する。具体的には、スイング軌道判定部56は、検出エリアとクラブヘッドの位置変化から、アウトサイドインやインサイドアウト等のスイングの軌道を評価する。
The swing
図5は、図4の機能的構成を有する図1の撮像装置が実行するスイング評価結果報知処理の流れを説明するフローチャートである。
スイング評価結果報知処理は、ユーザによる入力部17へのスイング評価結果報知処理開始の操作により開始される。また、本実施形態においては、ライブビュー画像に重畳的に表示した図2(a)に示すような人型グリッドHGのガイドに合うように後方からゴルフのスイングをしている被写体を撮影した動画像が画像記憶部71に記憶され、当該動画像を処理対象の動画像として用いる。
FIG. 5 is a flowchart for explaining the flow of the swing evaluation result notification process executed by the imaging apparatus of FIG. 1 having the functional configuration of FIG.
The swing evaluation result notification process is started by an operation of starting a swing evaluation result notification process to the
ステップS11において、補助線設定処理部51は、画像記憶部71から判定対象となる動画像を取得して、補助線設定処理を実行する。補助線設定処理の結果、動画像上に補助線が重畳的に描画されて設定される。具体的には、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。
補助線設定処理の流れについては後述する。
In step S <b> 11, the auxiliary line
The flow of the auxiliary line setting process will be described later.
ステップS12において、検出エリア設定部53は、設定した補助線付近に検出エリアを設定する。
In step S12, the detection
ステップS13において、スイング判定部54は、動画像内のシーン(フレーム)がテイクバックスタート後である否かを判定する。詳細には、スイング判定部54は、判定対象となるフレームがスイングポイント検出処理で決定されたテイクバックスタート後であるか否かを判定する。
テイクバックスタート後でない場合には、ステップS13においてNOと判定されて、処理はステップS17に進む。ステップS17以降の処理は後述する。
テイクバックスタート後である場合には、ステップS13においてYESと判定されて、処理はステップS14に進む。
In step S13, the
If it is not after the takeback start, NO is determined in step S13, and the process proceeds to step S17. The processing after step S17 will be described later.
If it is after the start of takeback, YES is determined in step S13, and the process proceeds to step S14.
ステップS14において、スイング判定部54は、変化点が人型グリッドHGより補助線の始点寄りであるか否かを判定する。即ち、スイング判定部54は、テイクバックスタート後において、変化点であるクラブヘッドが人型グリッドHGよりも補助線L1,L2の始点SR寄りか否かを判定し、図3(c)に示すような人型グリッドHGよりも補助線L1,L2の始点SR寄りである場合には、テイクバックであり、図3(d)に示すような人型グリッドHGよりも補助線の始点寄りでない人型グリッドHGよりも先にある場合には、トップとする。
変化点が人型グリッドHGより補助線の始点寄りである場合には、ステップS14においてYESと判定されて、処理はステップS15に進む。
変化点が人型グリッドHGより補助線の始点寄りでない場合には、ステップS14においてNOと判定されて、処理はステップS16に進む。
In step S14, the
If the change point is closer to the starting point of the auxiliary line than the human-type grid HG, it is determined as YES in Step S14, and the process proceeds to Step S15.
If the change point is not closer to the starting point of the auxiliary line than the humanoid grid HG, NO is determined in step S14, and the process proceeds to step S16.
ステップS15において、スイング判定部54は、テイクバックスタートの補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。
In step S <b> 15, the
ステップS16において、スイング判定部54は、トップ補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。
In step S <b> 16, the
ステップS17において、スイング判定部54は、変化点が人型グリッドHGより補助線の始点寄りであるか否かを判定する。
変化点が人型グリッドHGより補助線の始点寄りである場合には、ステップS17においてYESと判定されて、処理はステップS18に進む。
変化点が人型グリッドHGより補助線の始点寄りでない場合には、ステップS17においてNOと判定されて、処理はステップS19に進む。
In step S17, the
If the change point is closer to the starting point of the auxiliary line than the humanoid grid HG, YES is determined in step S17, and the process proceeds to step S18.
If the change point is not closer to the starting point of the auxiliary line than the humanoid grid HG, NO is determined in step S17, and the process proceeds to step S19.
ステップS18において、スイング判定部54は、インパクト直前の補助線からの距離を判定、当該判定結果を判定情報記憶部72に記録させる。
In step S <b> 18, the
ステップS19において、スイング判定部54は、フォローの補助線からの距離を判定し、当該判定結果を判定情報記憶部72に記録させる。
In step S <b> 19, the
ステップS20において、スイング判定部54は、それぞれの補助線からの距離が所定値以上であるか否かを判定する。
それぞれの補助線からの距離が所定値以上である場合には、ステップS20においてYESと判定されて、処理はステップS21に進む。
それぞれの補助線からの距離が所定値以上でない場合には、ステップS20においてNOと判定されて、処理はステップS22に進む。
In step S20, the
If the distance from each auxiliary line is equal to or greater than the predetermined value, YES is determined in step S20, and the process proceeds to step S21.
If the distance from each auxiliary line is not equal to or greater than the predetermined value, NO is determined in step S20, and the process proceeds to step S22.
ステップS21において、報知制御部55は、異常である旨を報知したり、補助線からの距離(ズレ量)を加味した異常を報知したりして、警告を発するように出力部18を制御する。その結果、出力部18から警告音が出力される。
In step S <b> 21, the
ステップS22において、報知制御部55は、正常である旨を報知したり、補助線からの距離(ズレ量)を加味した正常の報知をしたりするように出力部18を制御する。その結果、出力部18から正常である旨の報知音が出力される。
In step S <b> 22, the
ステップS23において、スイング軌道判定部56は、スイングポイントごとのズレ量からスイング軌道を判定する。
In step S23, the swing
ステップS24において、報知制御部55は、インサイドアウト/アウトサイドインなどの状態を報知したり、スイングポイントごとのズレ量を加味して、インサイドアウト/アウトサイドインなどの状態の程度を報知したりするように出力部18を制御する。その結果、出力部18から警告音等が出力される。
その後、スイング判定処理は終了する。
In step S24, the
Thereafter, the swing determination process ends.
図6は、スイング評価結果報知処理のうち、補助線設定処理の流れを説明するフローチャートである。 FIG. 6 is a flowchart for explaining the flow of the auxiliary line setting process in the swing evaluation result notification process.
ステップS41において、スイングポイント検出処理部52は、スイングポイント検出処理を実行する。スイングポイント検出処理の実行の結果、動画像からスイングポイントか検出される。
スイングポイント検出処理の流れについては後述する。
In step S41, the swing point
The flow of the swing point detection process will be described later.
ステップS42において、補助線設定処理部51は、スイングポイント検出付近のエリアを分割してクラブヘッド通過ポイントを抽出する。具体的には、補助線設定処理部51は、検出したスイングポイント(テイクバックのタイミングスタートとインパクトのタイミング)のフレーム付近の各フレームを、図2(c)に示すように動きの変化を判定するために領域GR(本実施形態においては、格子状のグリッド領域GR)に分割する。そして、補助線設定処理部51は、図2(g)に示すように一連のスイングのうち、動きのあった領域MRを抽出する。
In step S42, the auxiliary line
ステップS43において、補助線設定処理部51は、被写体からテイクバックタイミングで水平方向に最も離れたポイントを補助線の始点として決定する。具体的には、補助線設定処理部51は、図2(h)に示すように、抽出された動きのあった領域MRのうち、テイクバックのタイミングで最も被写体OBから水平方向に離れたポイントをクラブヘッドの位置として、補助線の始点を含む領域SRを決定する。
In step S43, the auxiliary line
ステップS44において、補助線設定処理部51は、補助線始点から人型グリッドHGを結ぶように補助線を設定する。具体的には、補助線設定処理部51は、図2(i)に示すように、決定した補助線の始点を含む領域SRから人型グリッドHGの肩を通過する線を設定してシャフトラインとなる第1補助線L1とし、腰を通過する線を設定して理想的なスイングプレーン(スイングの軌道)となる第2補助線L2の補助線を設定する。そして、補助線設定処理部51は、図2(j)に示すように、当該設定したシャフトラインとなる第1補助線L1及びスイングプレーンとなる第2補助線L2を動画像上に重畳的に描画して、補助線を設定する。
In step S44, the auxiliary line
図7は、スイング評価結果報知処理のうち、スイングポイント検出処理の流れを説明するフローチャートである。 FIG. 7 is a flowchart for explaining the flow of the swing point detection process in the swing evaluation result notification process.
ステップS61において、スイングポイント検出処理部52は、人型グリッドHGの位置からクラブヘッドが通過するインパクト付近の領域にクラブヘッドの変化を検出する変化検出エリアを設定する。
In step S61, the swing point
ステップS62において、スイングポイント検出処理部52は、動画像を構成するフレームを順次比較して変化を検出する。
In step S62, the swing point
ステップS63において、スイングポイント検出処理部52は、変化を検出したか否かを判定する。
変化を検出しない場合には、ステップS63においてNOと判定されて、処理はステップS62に戻る。
変化を検出した場合には、ステップS63においてYESと判定されて、処理はステップS64に進む。
In step S63, the swing point
If no change is detected, NO is determined in step S63, and the process returns to step S62.
When a change is detected, it determines with YES in step S63, and a process progresses to step S64.
ステップS64において、スイングポイント検出処理部52は、検出された変化が1回目か否かを判定する。
1回目の場合には、ステップS64においてYESと判定されて、処理はステップS65に進む。
1回目でない場合には、ステップS64においてNOと判定されて、処理はステップS66に進む。
In step S64, the swing point
In the case of the first time, YES is determined in step S64, and the process proceeds to step S65.
If it is not the first time, NO is determined in step S64, and the process proceeds to step S66.
ステップS65において、スイングポイント検出処理部52は、検出された変化が1回目であるためクラブを振り上げるテイクバックスタートであると判定する。その後、処理はインパクトタイミングを検出するためにステップS62に戻る。
In step S65, the swing point
ステップS66において、スイングポイント検出処理部52は、検出された変化が2回目であるか否かを判定する。
2回目の場合には、ステップS66においてYESと判定されて、処理はステップS67に進む。
In step S66, the swing point
In the second case, YES is determined in step S66, and the process proceeds to step S67.
ステップS67において、スイングポイント検出処理部52は、検出された変化が1回目であるためクラブを振り下ろしたインパクトタイミングと判定する。
In step S67, the swing point
これに対して、2回目でない場合には、テイクバックでもインパクトでもないためテイクバックでもステップS66においてNOと判定されて、スイングポイント検出処理は終了する。 On the other hand, if it is not the second time, neither takeback nor impact is made, so that it is determined NO in step S66 even in the takeback, and the swing point detection process ends.
したがって、撮像装置1においては、事前にスイングプレーンとシャフトラインの補助線の設定をする。詳細には、クラブヘッドから腰へのラインとクラブヘッドから肩へのラインを補助線として自動で設定する。そして、スイングの開始時を判定し、画面内の動作の切り替わりによってスイングフェーズを判定する。
また、撮像装置1においては、スイングフェーズ(スタート・インパクト)は特定エリアの画像差分で判断し、補助線を設定したエリア外の画像差分を検出してどの程度補助線から離れているか記録する。この際、補助線から一定以上離れている場合にスイングエラーと判断し警告を発し、該当するフェーズでライン外にスイングがはみ出た場合、警告を発し、スイングポイントごとのズレ量からインサイドアウトやアウトサイドインを判定し、警告を発するように構成する。即ち、撮像装置1は、ゴルフにおいて理想的なスイング軌道から外れた場合に警告する機能を有する。
Therefore, in the imaging device 1, auxiliary lines for the swing plane and the shaft line are set in advance. Specifically, a line from the club head to the waist and a line from the club head to the shoulder are automatically set as auxiliary lines. Then, the start time of the swing is determined, and the swing phase is determined by the switching of the operation in the screen.
Further, in the imaging apparatus 1, the swing phase (start / impact) is determined by the image difference in the specific area, and the image difference outside the area where the auxiliary line is set is detected and the extent to which the auxiliary line is separated is recorded. At this time, if the swing line is separated from the auxiliary line by more than a certain level, it is judged as a swing error and a warning is issued. It is configured to determine a side-in and issue a warning. That is, the imaging device 1 has a function of warning when the golf club deviates from an ideal swing path in golf.
以上のように構成される撮像装置1は、補助線設定処理部51を備える。
補助線設定処理部51は、物体の一連の動作が撮像された複数の画像データを取得する。
また、補助線設定処理部51は、取得された複数の画像データの各々を複数の領域に区分けする。
補助線設定処理部51は、複数の領域から、複数の画像データ間で変化がある領域を特定する。
補助線設定処理部51は、特定された領域を基準として、複数の画像データの何れかに重畳させるための指標を生成する。
これにより、撮像装置1においては、自動的に指標を生成することができるために、画像に表示される基準となる指標を設定する際のユーザの負担を軽減することができる。
The imaging device 1 configured as described above includes an auxiliary line
The auxiliary line
Further, the auxiliary line
The auxiliary line
The auxiliary line
Thereby, in the imaging device 1, since an index can be automatically generated, it is possible to reduce a burden on the user when setting an index serving as a reference displayed in an image.
また、補助線設定処理部51は、複数の画像データ間で変化がある複数の領域を抽出する。
また、補助線設定処理部51は、抽出された複数の領域のうち、物体から所定方向に離れた領域を変化がある領域として特定する。
これにより、撮像装置1においては、より簡単に自動的に指標を生成することができる。
In addition, the auxiliary line
Further, the auxiliary line
Thereby, in the imaging device 1, an index can be automatically generated more easily.
補助線設定処理部51は、複数の変化がある領域のうち、物体から所定方向に最も遠い領域を特定する。
これにより、撮像装置1においては、簡単に指標を生成することができる。
The auxiliary line
Thereby, in the imaging device 1, an index can be easily generated.
また、補助線設定処理部51は、取得された複数の画像データの各々に共通する部分領域である検出エリアを設定する。
また、補助線設定処理部51は、設定された複数の画像データ間の部分領域である検出エリア間で変化があった複数の時点から所定の時点を特定する。
また、補助線設定処理部51は、特定された所定の時点に基づいて、変化がある領域を特定する。
これにより、撮像装置1においては、所定の時点に基づいて、変化がある領域を特定することで、簡単に指標を生成することができる。
In addition, the auxiliary line
In addition, the auxiliary line
In addition, the auxiliary line
Thereby, in the imaging device 1, an index can be easily generated by specifying a region having a change based on a predetermined time point.
指標は、物体の動作を評価する基準となる指標である。
これにより、撮像装置1においては、物体の動作を評価することができる。
The index is an index serving as a reference for evaluating the motion of the object.
Thereby, in the imaging device 1, the motion of the object can be evaluated.
補助線設定処理部51は、物体の一連の動作のうち、所定の動作に対応した複数の領域において、複数の画像データ間の変化がある領域を特定する。
これにより、撮像装置1においては、効率的に複数の画像データ間の変化がある領域を特定することができる。
The auxiliary line
Thereby, in the imaging device 1, the area | region with a change between several image data can be pinpointed efficiently.
物体の一連の動作とは、ゴルフのスイングの動作である。
これにより、撮像装置1においては、ゴルフのスイングの動作の指標を生成することができる。
The series of movements of the object is a golf swing movement.
Thereby, in the imaging device 1, the golf swing motion index can be generated.
補助線設定処理部51は、物体の所定の状態を模した基準に基づいて、指標を生成する。
これにより、撮像装置1においては、物体の所定の状態を模した基準に基づいて、指標を生成するために、正確な指標を生成することができる。
The auxiliary line
Thereby, in the imaging device 1, since an index is generated based on a standard imitating a predetermined state of an object, an accurate index can be generated.
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
上述の実施形態では、処理対象の画像として、動画像を例示したが、例えば、連写した画像を処理対象の画像としてもよい。 In the above-described embodiment, the moving image is exemplified as the processing target image. However, for example, a continuously shot image may be used as the processing target image.
また、上述の実施形態では、テイクバック直線の静止状態のクラブヘッドを抽出して、補助線の始点としたがこれに限られず、例えば、ボールを抽出して補助線の始点としてもよい。 In the above-described embodiment, the club head in a stationary state of the takeback straight line is extracted and used as the starting point of the auxiliary line. However, the present invention is not limited to this. For example, a ball may be extracted and used as the starting point of the auxiliary line.
また、上述の実施形態では、同一の動画像を用いて、補助線の設定及びスイングの評価を行ったが、例えば、事前に補助線の設定用にスイングをして補助線の設定を行って、評価対象のスイングをリアルタイムに評価するように構成することもできる。そして、評価結果が良い場合や悪い場合に、音等で報知するように構成することができる。 In the above-described embodiment, the auxiliary line is set and the swing is evaluated using the same moving image. For example, the auxiliary line is set by swinging in advance for setting the auxiliary line. The swing to be evaluated can be evaluated in real time. And when an evaluation result is good or bad, it can comprise so that it may alert | report with a sound.
また、上述の実施形態では、異常と判定されたフレームにおいて、クラブヘッドの位置を強調表示してエラー箇所を表示するように構成してもよい。また、上述の実施形態では、検出エリアからはみ出した位置や量(補助線との距離)によって警告の種類・音量を変えるように構成してもよい。
また、検出エリアからはみ出した時点のスイングの種類によって警告の種類・音量を変えるようにしても良い。
In the above-described embodiment, the position of the club head may be highlighted and the error location may be displayed in the frame determined to be abnormal. In the above-described embodiment, the type and volume of the warning may be changed depending on the position or amount (distance from the auxiliary line) that protrudes from the detection area.
Further, the type and volume of the warning may be changed depending on the type of swing at the time of protruding from the detection area.
また、上述の実施形態では、音を報知/警告の例としたがこれに限られず、人間が知覚することができる手段で報知/警告が行われればよく、例えば、音の他に、ライト等による光、バイブレーション等による振動等で報知/警告を行うことができる。 In the above-described embodiment, the sound is notified / warned as an example. However, the present invention is not limited to this, and it is sufficient that the sound / warning is performed by means that can be perceived by humans. Notification / warning can be performed by light caused by vibration, vibration caused by vibration, or the like.
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、スイング評価結果報知処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a swing evaluation result notification processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図4の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図4の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 4 is merely an example, and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional block is used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図1のROM12や、図1の記憶部19に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、さらに、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
物体の一連の動作が撮像された複数の画像データを取得する取得手段と、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする画像処理装置。
[付記2]
前記複数の領域から、前記複数の画像データ間で変化がある複数の領域を抽出する抽出手段を更に備え、
前記第1の特定手段は、前記抽出手段により抽出された複数の領域のうち、前記物体から所定方向に離れた領域を前記変化がある領域として特定する、
ことを特徴とする付記1に記載の画像処理装置。
[付記3]
前記第1の特定手段は、複数の変化がある領域のうち、前記物体から所定方向に最も遠い領域を特定する、
ことを特徴とする付記2に記載の画像処理装置。
[付記4]
前記取得手段により取得された複数の画像データの各々に共通する部分領域を設定する設定手段と、
前記設定手段により設定された前記複数の画像データ間の部分領域間で変化があった複数の時点から所定の時点を特定する第2の特定手段と、
を備え、
前記第1の特定手段は、前記第2の特定手段により特定された所定の時点に基づいて、前記変化がある領域を特定する、
ことを特徴とする付記1乃至3の何れか1つに記載の画像処理装置。
[付記5]
前記指標は、前記物体の動作を評価する基準となる指標である、
ことを特徴とする付記1乃至4の何れか1つに記載の画像処理装置。
[付記6]
前記第1の特定手段は、前記物体の一連の動作のうち、所定の動作に対応した前記複数の領域において、前記複数の画像データ間の変化がある領域を特定する、
ことを特徴とする付記1乃至5の何れか1つに記載の画像処理装置。
[付記7]
前記物体の一連の動作とは、ゴルフのスイングの動作である、
ことを特徴とする付記1乃至6の何れか1つに記載の画像処理装置。
[付記8]
前記生成手段は、前記物体の所定の状態を模した基準に基づいて、前記指標を生成する、
ことを特徴とする付記1乃至7の何れか1つに記載の画像処理装置。
[付記9]
物体の一連の動作が撮像された複数の画像データを取得する取得ステップと、
前記取得ステップにより取得された複数の画像データの各々を複数の領域に区分けする区分けステップと、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定ステップと、
前記特定ステップにより特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成ステップと、
を含むことを特徴とする画像処理方法。
[付記10]
物体の一連の動作が撮像された複数の画像データを取得する取得手段、
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定手段、
前記特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
An image processing apparatus comprising:
[Appendix 2]
An extraction means for extracting a plurality of regions having a change between the plurality of image data from the plurality of regions;
The first specifying unit specifies a region away from the object in a predetermined direction as the region having the change among the plurality of regions extracted by the extracting unit.
The image processing apparatus according to appendix 1, wherein:
[Appendix 3]
The first specifying means specifies a region farthest from the object in a predetermined direction among regions having a plurality of changes.
The image processing apparatus according to Supplementary Note 2, wherein
[Appendix 4]
Setting means for setting a partial area common to each of the plurality of image data acquired by the acquisition means;
Second specifying means for specifying a predetermined time point from a plurality of time points that have changed between partial areas between the plurality of image data set by the setting means;
With
The first specifying unit specifies a region having the change based on a predetermined time point specified by the second specifying unit.
The image processing apparatus according to any one of supplementary notes 1 to 3, wherein
[Appendix 5]
The index is an index serving as a reference for evaluating the motion of the object.
The image processing apparatus according to any one of appendices 1 to 4, wherein
[Appendix 6]
The first specifying means specifies a region where there is a change between the plurality of image data in the plurality of regions corresponding to a predetermined operation among a series of operations of the object.
The image processing apparatus according to any one of appendices 1 to 5, wherein:
[Appendix 7]
The series of motions of the object is a golf swing motion.
The image processing apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 8]
The generating means generates the index based on a standard imitating a predetermined state of the object.
The image processing apparatus according to any one of appendices 1 to 7, wherein
[Appendix 9]
An acquisition step of acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing step of dividing each of the plurality of image data acquired by the acquiring step into a plurality of regions;
A specifying step of specifying a region having a change between the plurality of image data from the plurality of regions;
A generation step of generating an index to be superimposed on any of the plurality of image data with the region specified in the specifying step as a reference;
An image processing method comprising:
[Appendix 10]
Acquisition means for acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing means for dividing each of the plurality of image data acquired by the acquiring means into a plurality of regions;
A specifying means for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the specifying means;
A program characterized by functioning as
1・・・撮像装置,11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・撮像部,17・・・入力部,18・・・出力部,19・・・記憶部,20・・・通信部,21・・・ドライブ,31・・・リムーバブルメディア,51・・・補助線設定処理部,52・・・スイングポイント検出処理部,53・・・エリア検出部,54・・・スイング判定部,55・・・報知制御部,56・・・スイング軌道判定部,71・・・画像記憶部,72・・・判定情報記憶部
DESCRIPTION OF SYMBOLS 1 ... Imaging device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input-output interface, 16 ... Imaging part, 17 ...
Claims (10)
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段と、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する第1の特定手段と、
前記第1の特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段と、
を備えたことを特徴とする画像処理装置。 An acquisition means for acquiring a plurality of image data obtained by imaging a series of actions of an object;
A dividing unit for dividing each of the plurality of image data acquired by the acquiring unit into a plurality of regions;
A first specifying unit for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the first specifying means;
An image processing apparatus comprising:
前記第1の特定手段は、前記抽出手段により抽出された複数の領域のうち、前記物体から所定方向に離れた領域を前記変化がある領域として特定する、
ことを特徴とする請求項1に記載の画像処理装置。 An extraction means for extracting a plurality of regions having a change between the plurality of image data from the plurality of regions;
The first specifying unit specifies a region away from the object in a predetermined direction as the region having the change among the plurality of regions extracted by the extracting unit.
The image processing apparatus according to claim 1.
ことを特徴とする請求項2に記載の画像処理装置。 The first specifying means specifies a region farthest from the object in a predetermined direction among regions having a plurality of changes.
The image processing apparatus according to claim 2.
前記設定手段により設定された前記複数の画像データ間の部分領域間で変化があった複数の時点から所定の時点を特定する第2の特定手段と、
を備え、
前記第1の特定手段は、前記第2の特定手段により特定された所定の時点に基づいて、前記変化がある領域を特定する、
ことを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。 Setting means for setting a partial area common to each of the plurality of image data acquired by the acquisition means;
Second specifying means for specifying a predetermined time point from a plurality of time points that have changed between partial areas between the plurality of image data set by the setting means;
With
The first specifying unit specifies a region having the change based on a predetermined time point specified by the second specifying unit.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。 The index is an index serving as a reference for evaluating the motion of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。 The first specifying means specifies a region where there is a change between the plurality of image data in the plurality of regions corresponding to a predetermined operation among a series of operations of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。 The series of motions of the object is a golf swing motion.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
ことを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。 The generating means generates the index based on a standard imitating a predetermined state of the object.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記取得ステップにより取得された複数の画像データの各々を複数の領域に区分けする区分けステップと、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定ステップと、
前記特定ステップにより特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成ステップと、
を含むことを特徴とする画像処理方法。 An acquisition step of acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing step of dividing each of the plurality of image data acquired by the acquiring step into a plurality of regions;
A specifying step of specifying a region having a change between the plurality of image data from the plurality of regions;
A generation step of generating an index to be superimposed on any of the plurality of image data with the region specified in the specifying step as a reference;
An image processing method comprising:
前記取得手段により取得された複数の画像データの各々を複数の領域に区分けする区分け手段、
前記複数の領域から、前記複数の画像データ間で変化がある領域を特定する特定手段、
前記特定手段により特定された領域を基準として、前記複数の画像データの何れかに重畳させるための指標を生成する生成手段、
として機能させることを特徴とするプログラム。 Acquisition means for acquiring a plurality of image data obtained by imaging a series of movements of an object;
A dividing means for dividing each of the plurality of image data acquired by the acquiring means into a plurality of regions;
A specifying means for specifying a region having a change between the plurality of image data from the plurality of regions;
Generating means for generating an index to be superimposed on any of the plurality of image data with reference to the area specified by the specifying means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014266672A JP2016123637A (en) | 2014-12-26 | 2014-12-26 | Image processor, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014266672A JP2016123637A (en) | 2014-12-26 | 2014-12-26 | Image processor, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016123637A true JP2016123637A (en) | 2016-07-11 |
Family
ID=56357213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014266672A Pending JP2016123637A (en) | 2014-12-26 | 2014-12-26 | Image processor, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016123637A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109716250A (en) * | 2016-09-20 | 2019-05-03 | 株式会社斯库林集团 | Processing substrate managing device, processing substrate management method and processing substrate management program |
JP7011030B1 (en) | 2020-12-28 | 2022-01-26 | 楽天グループ株式会社 | Golf swing analysis system, golf swing analysis method and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011244214A (en) * | 2010-05-18 | 2011-12-01 | Casio Comput Co Ltd | Motion picture reproducing apparatus, motion picture reproducing method and program |
JP2011254151A (en) * | 2010-05-31 | 2011-12-15 | Casio Comput Co Ltd | Moving image reproduction device, moving image reproduction method, and program |
US20120040317A1 (en) * | 2010-08-12 | 2012-02-16 | Gary Anderson | Motion training schematic and method of instruction |
JP2014131245A (en) * | 2012-12-28 | 2014-07-10 | Casio Comput Co Ltd | Display control apparatus, display control method, and program |
-
2014
- 2014-12-26 JP JP2014266672A patent/JP2016123637A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011244214A (en) * | 2010-05-18 | 2011-12-01 | Casio Comput Co Ltd | Motion picture reproducing apparatus, motion picture reproducing method and program |
JP2011254151A (en) * | 2010-05-31 | 2011-12-15 | Casio Comput Co Ltd | Moving image reproduction device, moving image reproduction method, and program |
US20120040317A1 (en) * | 2010-08-12 | 2012-02-16 | Gary Anderson | Motion training schematic and method of instruction |
JP2014131245A (en) * | 2012-12-28 | 2014-07-10 | Casio Comput Co Ltd | Display control apparatus, display control method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109716250A (en) * | 2016-09-20 | 2019-05-03 | 株式会社斯库林集团 | Processing substrate managing device, processing substrate management method and processing substrate management program |
JP7011030B1 (en) | 2020-12-28 | 2022-01-26 | 楽天グループ株式会社 | Golf swing analysis system, golf swing analysis method and program |
JP2022104414A (en) * | 2020-12-28 | 2022-07-08 | 楽天グループ株式会社 | Golf swing analysis system, golf swing analysis method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5754439B2 (en) | Information notification apparatus, information notification method, and program | |
KR101539043B1 (en) | Image photography apparatus and method for proposing composition based person | |
JP5206095B2 (en) | Composition determination apparatus, composition determination method, and program | |
JP6439235B2 (en) | Information notification apparatus, information notification method, and program | |
JP5794215B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009094725A5 (en) | ||
CN110475073A (en) | Method for videograph and Assistant Editor | |
CN104052908B (en) | Photographic device and display method | |
CN108079547B (en) | Image processing apparatus, analysis system, image processing method, and recording medium | |
JP2019176249A (en) | Image processing device, image processing method, image processing program, and imaging device | |
JP2010114752A (en) | Device and method of imaging and program | |
JP2013198014A (en) | Image processing device, image processing method, and program | |
JP5042896B2 (en) | Image processing apparatus and image processing program | |
JP2009171428A (en) | Control method and program for digital camera apparatus and electronic zoom | |
JP2007049631A (en) | Imaging apparatus | |
JP2016123637A (en) | Image processor, image processing method and program | |
JP2014187551A (en) | Image acquisition device, image acquisition method and program | |
JP2011227692A (en) | Size measurement device | |
JP2017169203A (en) | Image processing system, image processing method and program | |
JP2009260630A (en) | Image processor and image processing program | |
JP2016126509A (en) | Notification control device, notification control method, and program | |
JP2017174094A (en) | Image processing device, image processing method, and program | |
JP2011151482A (en) | Imaging apparatus and method for controlling the same | |
JP6372176B2 (en) | Image processing apparatus, image processing method, and program | |
JP6787072B2 (en) | Image processing equipment, analysis system, image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171211 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180919 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180925 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190604 |