JP2015126812A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2015126812A JP2015126812A JP2013273314A JP2013273314A JP2015126812A JP 2015126812 A JP2015126812 A JP 2015126812A JP 2013273314 A JP2013273314 A JP 2013273314A JP 2013273314 A JP2013273314 A JP 2013273314A JP 2015126812 A JP2015126812 A JP 2015126812A
- Authority
- JP
- Japan
- Prior art keywords
- information
- evaluation
- sight
- line
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、人物の動作を評価する情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program for evaluating a person's action.
従来の技術として、ゴルフのスイングにおける動作の確認のためにゴルフボールを挟んでユーザに対向するように外部装置を設けることで、ユーザが自身の動作のチェックを行う技術が知られている(例えば、特許文献1参照)。 As a conventional technique, there is known a technique in which a user checks his / her own movement by providing an external device so as to face the user with a golf ball sandwiched in order to confirm a movement in a golf swing (for example, , See Patent Document 1).
しかしながら、特許文献1の技術では、外部装置をリアルタイムに利用したときのみにしか動作の状態を確認できないためユーザの動作を評価できる時が当該動作中に限られてしまうという問題があった。
However, the technique disclosed in
このような状況に鑑みてなされたものであり、対象の動作を当該動作中でなくとも容易に評価できるようにすることを目的とする。 The present invention has been made in view of such a situation, and an object thereof is to make it possible to easily evaluate a target operation even if the operation is not in progress.
上記目的を達成するため、本発明の一態様の情報処理装置は、
動作の評価対象となる人物の視線の情報を取得する第1の取得手段と、
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする。
In order to achieve the above object, an information processing apparatus of one embodiment of the present invention provides:
First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
It is characterized by providing.
本発明によれば、対象の動作を当該動作中でなくとも容易に評価することができる。 According to the present invention, it is possible to easily evaluate a target operation even if the target operation is not in progress.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<第1の実施形態>
本実施形態においては、対象者の一連の動作を評価する。評価の手法は、動作中の対象者の視線の状態に基づいて行う。即ち、対象者の視線を検出して、好適な視線の状態となっているかを評価することにより行う。
本例では、対象者の一連の動作として、ゴルフのスイング(以下、単に「スイング」という。)を対象とする。ゴルフのスイングにおいては、アドレスからフィニッシュまでの一連のスイングの動作中において視線の変化がないことが好ましいとされる。したがって、視線の変化がないことが好適な視線の状態となるため、視線の変化を解析することにより対象者の一連の動作を評価する。
<First Embodiment>
In the present embodiment, a series of actions of the subject is evaluated. The evaluation method is performed based on the state of the line of sight of the subject in operation. In other words, it is performed by detecting the line of sight of the subject and evaluating whether the line of sight is suitable.
In this example, a golf swing (hereinafter simply referred to as “swing”) is targeted as a series of actions of the subject. In a golf swing, it is preferable that the line of sight does not change during a series of swing operations from the address to the finish. Accordingly, since it is preferable that there is no change in the line of sight, the state of the subject is evaluated by analyzing the change in the line of sight.
また、スイングにおいては、視線が所定の方向、即ち、ボールに向いていることも好ましいとされる。したがって、視線がボールの方向に向いていることも好適な視線の状態となる。 In the swing, it is also preferable that the line of sight is in a predetermined direction, that is, toward the ball. Therefore, it is also a suitable line of sight that the line of sight is directed toward the ball.
更に、スイングにおいては、視線の変化の生じにくい状態や視線がボールに向きやすい状態を作り出すために、顔の向きが動作中に変化しないことや顔がボール方向に向いていることが付加的な要素となる。 Furthermore, in the swing, in order to create a state in which the line of sight hardly changes or a state in which the line of sight tends to face the ball, it is additionally necessary that the face direction does not change during the operation or the face is directed toward the ball. Become an element.
そこで、本実施形態においては、スイングを行っている者(以下、「プレーヤ」ともいう。)の視線を検出して、視線の状態を解析することにより、スイングの動作を評価する。 Therefore, in this embodiment, the swing motion is evaluated by detecting the line of sight of the person who is performing the swing (hereinafter also referred to as “player”) and analyzing the state of the line of sight.
視線の検出については、例えば、角膜の反射像を評価するIROG法や、虹彩の模様を評価するVOG法等の既存の手法を用いることで検出する。近年においては、専用機を用いずに、高精細・高精度の撮像機能を備えた装置で撮影した画像を解析しても検出することができる。
また、顔の向きの検出についても、例えば、ボールを含むプレーヤの全身や、ボールとプレーヤの位置を加味してプレーヤの顔を含む一部を撮影した画像を解析して検出することができる。
The line of sight is detected by using an existing method such as an IROG method for evaluating a reflection image of the cornea and a VOG method for evaluating an iris pattern. In recent years, it can be detected by analyzing an image photographed by a device having a high-definition and high-precision imaging function without using a dedicated machine.
The face orientation can also be detected by analyzing, for example, an image of the whole body of the player including the ball or a part of the player including the face of the player in consideration of the position of the ball and the player.
図1は、検出装置を用いて対象者の動作の評価を行っている状態を示す模式図である。
本実施形態では、図1(a)の例に示すように、プレーヤ(対象者)Hに正対して視線・顔の向き・スイングの動作を検出可能な地面等に検出装置1を配置して、視線・顔の向き・スイングの動作を検出する。
また、スイングにより顔の向きが変化した場合に、検出装置の設置の仕方次第ではすべて視線が検出できなくなる虞があるために、図1(b)に示すように、複数の検出装置1A,1Bを用いて多視点から視線と顔の向きを検出するように構成することができる。
FIG. 1 is a schematic diagram illustrating a state in which the motion of the subject is evaluated using the detection device.
In the present embodiment, as shown in the example of FIG. 1A, the
Further, when the orientation of the face changes due to the swing, there is a possibility that the line of sight cannot be detected at all depending on the installation method of the detection device. Therefore, as shown in FIG. 1B, a plurality of
図2は、本発明の一実施形態に係る検出装置である撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 2 is a block diagram illustrating a hardware configuration of the
The
撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。
The
CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。
The
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、センサ部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。
The
撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。
Although not shown, the
光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.
イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the
Hereinafter, the output signal of the
センサ部17は、加速度を検出可能に構成され、ピエゾ抵抗型もしくは静電容量型の検出機構を備えており、当該検出機構を用いて、加速度の3軸(X,Y,Z)成分を検出し、その検出結果を示すデータを出力する。
The
入力部18は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイ、スピーカ、バイブレータ、LEDランプ等で構成され、画像、音声、振動、光等を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The
The
The
The
ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。
A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the
以上のように構成される検出装置である撮像装置1は、例えば、スイングの動作等のプレーヤの動作を評価することができ、当該評価に対してのアドバイスを提供することができる機能を有する。
The
図3は、このような撮像装置1の機能的構成のうち、被写体評価処理を実行するための機能的構成を示す機能ブロック図である。
被写体評価処理とは、視線等の解析情報を撮像部16から取得し、取得した解析情報に基づいて、被写体の評価を行い、評価結果を出力するまでの処理をいう。
FIG. 3 is a functional block diagram illustrating a functional configuration for executing subject evaluation processing among the functional configurations of the
The subject evaluation process refers to a process from obtaining analysis information such as a line of sight from the
被写体評価処理は、図3に示すように、CPU11において、撮像制御部51と、解析情報取得部52と、解析評価処理部53と、出力制御部54と、が機能する。
また、記憶部20の一領域には、解析情報記憶部71と、評価情報記憶部72と、が設定される。
解析情報記憶部71には、被写体の評価のための解析に必要な情報(以下、「解析情報」という。)が記憶される。解析情報は、例えば、撮像部16から取得した動画等である。
評価情報記憶部72には、評価結果及び評価結果を表示する際に必要な情報(以下、「必要情報」という。)が記憶される。必要情報は、例えば、プロの視線情報や顔の向きの情報等の評価対象となった対象者との比較を行うための情報である。
As shown in FIG. 3, in the subject evaluation process, the
An analysis information storage unit 71 and an evaluation
The analysis information storage unit 71 stores information (hereinafter referred to as “analysis information”) necessary for analysis for subject evaluation. The analysis information is, for example, a moving image acquired from the
The evaluation
撮像制御部51は、動画を撮影するように撮像部16を制御する。撮像部16により撮影された動画は、解析情報記憶部71に記憶される。
The
解析情報取得部52は、解析情報記憶部71から解析情報を取得する。
具体的には、解析情報記憶部71から、解析情報として動画を構成する画像のうち、インパクト近辺に対応する画像を取得する。
The analysis
Specifically, an image corresponding to the vicinity of the impact is acquired from the analysis information storage unit 71 among the images constituting the moving image as the analysis information.
解析評価処理部53は、解析情報取得部52により取得された解析情報を解析し、当該解析結果に基づいて、被写体の評価を行う。そして、解析評価処理部53は、評価結果を評価情報記憶部72に記憶させる。
詳細には、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、視線の変化を解析する。各画像における視線の解析は、視線がどの方向を向いているかを画像から解析する。
視線の解析は、例えば、視線の動きを解析したり、角膜の反射像を評価するIROG法や虹彩の模様を評価するVOG法等の既存の手法を用いたりする。
また、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、顔の向きの変化を解析する。
なお、インパクト等のスイングの時点の特定は、例えば、画像から姿勢検出して行う等の既存の技術を用いて行う。
The analysis
Specifically, the analysis
The analysis of the line of sight uses, for example, an existing method such as an analysis of the movement of the line of sight, an IROG method for evaluating a reflection image of the cornea, and a VOG method for evaluating an iris pattern.
In addition, the analysis
Note that the swing time such as impact is specified using an existing technique such as detecting the posture from an image.
また、解析評価処理部53は、解析結果に基づいて、被写体の評価を行う。
詳細には、解析評価処理部53は、解析した視線に基づいて、視線の適否を評価する。視線の適否は、解析された視線とボールとの位置関係で行う。ゴルフにおいて視線は、ボールから離れていないことが良いとされているため、ボールに近いほど高い評価をする。
The analysis
Specifically, the analysis
出力制御部54は、解析評価結果を表示するように出力部19を制御する。詳細には、出力制御部54は、解析評価処理部53により解析された視線の方向を表示し、更に、評価された視線とボールとの位置関係及び評価に対応するアドバイスを表示するように出力部19を制御する。
The
図4は、出力部19に表示される解析評価結果の表示例である。
解析評価結果は、図4の例に示すように、インパクト時のプレーヤを頭上から見下ろした模式図に、解析結果である視線方向L1と、視線とボールとの位置関係(「視線がボールから早く離れています。」)及びアドバイス(「もっとボールを良く見ましょう。」)を表示する。
FIG. 4 is a display example of the analysis evaluation result displayed on the
As shown in the example of FIG. 4, the analysis evaluation result is shown in a schematic view of the player at the time of impact looking down from the overhead, and the visual line direction L1 as the analysis result and the positional relationship between the line of sight and the ball (“ "I'm away.") And advice ("Look better at the ball.").
図5は、出力部19に表示される解析評価結果の他の表示例である。
解析評価結果は、図5の例に示すように、インパクト近辺の視線の変化をグラフで表示してもよい。この際、見本となるプロの視線の変化を同時に表示させるように構成してもよい。
なお、本例では、表示により評価結果を提示したが、音声、振動、光等によって、評価の善し悪しのみを報知するように構成してもよい。これは、プレーヤが動作時に自己の動作の評価を確認する場合に有効である。
FIG. 5 is another display example of the analysis evaluation result displayed on the
As shown in the example of FIG. 5, the analysis evaluation result may display a change in the line of sight near the impact in a graph. At this time, a change in professional line of sight as a sample may be displayed simultaneously.
In this example, the evaluation result is presented by display, but it may be configured to notify only whether the evaluation is good or bad by voice, vibration, light, or the like. This is effective when the player confirms the evaluation of his / her movement at the time of movement.
図6は、図3の機能的構成を有する図2の撮像装置1が実行する被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザによる入力部18からの所定の操作により開始される。
FIG. 6 is a flowchart for explaining the flow of subject evaluation processing executed by the
The subject evaluation process is started by a predetermined operation from the
ステップS11において、CPU11は、入力部18からの撮影開始操作があったか否かを判定する。
撮影開始操作がない場合には、ステップS11においてNOと判定されて、撮影開始操作があるまで待機状態となる。
撮影開始操作があった場合には、ステップS11においてYESと判定されて、処理はステップS12に進む。
In step S <b> 11, the
If there is no shooting start operation, it is determined as NO in step S11, and a standby state is entered until there is a shooting start operation.
If there has been a shooting start operation, YES is determined in step S11, and the process proceeds to step S12.
ステップS12において、撮像制御部51は、スイング撮影を開始するように撮像部16を制御する。撮影された動画は、解析情報記憶部71に記憶される。
In step S12, the
ステップS13において、CPU11は、入力部18からの撮影終了操作があったか否かを判定する。
撮影終了操作がない場合には、ステップS13においてNOと判定されて、撮影終了操作があるまで待機状態となる。
撮影終了操作があった場合には、ステップS13においてYESと判定されて、処理はステップS14に進む。
In step S <b> 13, the
If there is no photographing end operation, it is determined as NO in step S13, and a standby state is entered until there is a photographing end operation.
If there is a photographing end operation, YES is determined in step S13, and the process proceeds to step S14.
ステップS14において、解析情報取得部52は、解析情報記憶部71に記憶される動画を構成する画像のうち、インパクト近辺に対応する画像を取得する。
In step S <b> 14, the analysis
ステップS15において、解析評価処理部53は、解析情報から視線の変化を解析する。詳細には、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、視線の変化を解析する。各画像における視線の解析は、視線がどの方向を向いているかを画像から解析する。
In step S15, the analysis
ステップS16において、解析評価処理部53は、被写体の評価を出力する。詳細には、解析評価処理部53は、解析した視線に基づいて、視線の適否を評価する。視線の適否は、解析された視線の変化及び視線とボールとの位置関係で行う。ゴルフにおいて視線は、変化が少ないことやボールから離れていないことが良いとされているため、視線に変化が少なく、かつ、ボールに近いほど高い評価をする。
解析評価処理部53は、被写体の評価結果を評価情報記憶部72に記憶させる。
In step S16, the analysis
The analysis
ステップS17において、出力制御部54は、評価情報記憶部72に記憶される被写体の評価結果に基づいて、解析評価結果を表示するように出力部19を制御する。詳細には、出力制御部54は、解析評価結果として、解析評価処理部53により解析された視線の方向を表示し、更に、評価された視線とボールとの位置関係及び評価に対応する図5や図6等に示すようなアドバイスを表示するように出力部19を制御する。
その後、被写体評価処理は終了する。
In step S <b> 17, the
Thereafter, the subject evaluation process ends.
<変形例>
上述した第1の実施形態では、インパクト時の視線の変化に基づいて被写体の評価を行っていたが、本変形例では、アドレスからフィニッシュまでのスイングの7つの時点(以下、「7つの時点」という。)における視線と、顔の向きについての評価を行うように構成される。
<Modification>
In the first embodiment described above, the subject is evaluated based on the change in the line of sight at the time of impact. However, in this modified example, seven time points of the swing from the address to the finish (hereinafter referred to as “seven time points”). It is configured to evaluate the line of sight and the orientation of the face.
具体的には、解析情報取得部52は、解析情報として、解析情報記憶部71に記憶される動画を構成する画像のうち、7つの時点に対応する画像を取得する。
Specifically, the analysis
解析評価処理部53は、解析情報取得部52により取得された7つの時点に対応する画像を解析して、視線の変化及び顔の向きを解析する。各画像における視線の解析は、視線がどの方向を向いているかと、顔がどの方向を向いているかを画像から解析する。
The analysis
解析評価処理部53は、解析した視線及び顔の向きの適否を評価する。視線及び顔の向きの適否は、評価情報記憶部72に記憶される手本となるプロの視線及び顔の向きと一致するか否かで評価する。本例では、手本となるプロの視線及び顔の向きの情報についてはプレーヤと同様の手法で取得する。即ち、予めスイングを撮影して7つの時点における視線の変化及び顔の向きを解析して取得する。なお、比較対象となるプロの視線及び顔の向きの情報については、本例では撮影から解析までを撮像装置1で行って取得したが、外部装置から取得するように構成してもよい。
The analysis
出力制御部54は、各時点の画像に解析評価処理部53により解析された視線及び顔の向きを表示し、更に、比較対象となったプロの画像を表示し、視線及び顔の向きが一致するか否かの評価を表示するように出力部19を制御する。
The
図7は、出力部19に表示される解析評価結果の表示例である。
解析評価結果は、図7(a)乃至(c)の例に示すように、各時点に対応する画像に視線を模式的に表示し、対比可能にお手本となるプロの画像に視線を模式的に示して表示する。
FIG. 7 is a display example of the analysis evaluation result displayed on the
As shown in the examples of FIGS. 7A to 7C, the analysis evaluation results are displayed schematically on the image corresponding to each time point, and the image is schematically displayed on the professional image that can be compared. Is displayed.
図8は、図3の機能的構成を有する図2の撮像装置1が実行する他の変形例における被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザによる入力部18への所定の操作により開始される。
FIG. 8 is a flowchart for explaining the flow of subject evaluation processing in another modification executed by the
The subject evaluation process is started by a predetermined operation on the
ステップS31において、CPU11は、入力部18からの撮影開始操作があったか否かを判定する。
撮影開始操作がない場合には、ステップS31においてNOと判定されて、撮影開始操作があるまで待機状態となる。
撮影開始操作があった場合には、ステップS31においてYESと判定されて、処理はステップS32に進む。
In step S <b> 31, the
If there is no shooting start operation, it is determined NO in step S31, and a standby state is entered until there is a shooting start operation.
If there is a shooting start operation, YES is determined in step S31, and the process proceeds to step S32.
ステップS32において、撮像制御部51は、撮影を開始するように撮像部16を制御する。撮影された動画は、解析情報記憶部71に記憶される。
In step S32, the
ステップS33において、CPU11は、入力部18からの撮影終了操作があったか否かを判定する。
撮影終了操作がない場合には、ステップS33においてNOと判定されて、撮影終了操作があるまで待機状態となる。
撮影終了操作があった場合には、ステップS33においてYESと判定されて、処理はステップS34に進む。
In step S <b> 33, the
If there is no shooting end operation, it is determined as NO in step S33, and a standby state is entered until there is a shooting end operation.
If there is a photographing end operation, YES is determined in step S33, and the process proceeds to step S34.
ステップS34において、解析情報取得部52は、解析情報を取得する。詳細には、解析情報取得部52は、解析情報記憶部71に記憶される動画を構成する画像のうち、7つの時点に対応する画像を取得する。
In step S34, the analysis
ステップS35において、解析評価処理部53は、解析情報取得部52により取得された7つの時点に対応する画像を解析して、視線の変化及び顔の向きを解析する。各画像における視線の解析は、視線がどの方向を向いているかと、顔がどの方向を向いているかを画像から解析する。
In step S <b> 35, the analysis /
ステップS36において、CPU11は、入力部18からの比較操作があったか否かを判定する。
比較操作がない場合には、ステップS36においてNOと判定されて、比較操作があるまで待機状態となる。
比較操作があった場合には、ステップS36においてYESと判定されて、処理はステップS37に進む。
In step S <b> 36, the
When there is no comparison operation, it is determined as NO in Step S36, and it is in a standby state until there is a comparison operation.
If there is a comparison operation, YES is determined in step S36, and the process proceeds to step S37.
ステップS37において、解析評価処理部53は、視線・顔の向きの比較解析処理を行う。解析評価処理部53は、視線・顔の向きの比較解析処理として、別途スイングを撮影して7つの時点における視線の変化及び顔の向きを解析したプロのお手本画像との比較を行う処理を行う。お手本画像との比較は、各ポイントについて視線が一致しているか、顔の向きが一致しているかを判断して行う。
In step S37, the analysis /
ステップS38において、出力制御部54は、解析評価結果を比較表示するように出力部19を制御する。比較表示では、例えば、図7(a)乃至(c)に示すように、各ポイントでのプレーヤとプロの画像とを比較可能に並列的に表示し、さらに、比較結果(視線・顔の向きの一致不一致)も表示する。
In step S <b> 38, the
なお、本例では、図1(a)に示すように、1台の検出装置である撮像装置1で、7つの時点、並びに各時点での視線及び顔の向きを検出するように構成する。
しかしながら、7つの時点、並びに各時点での視線及び顔の向きの検出はこれに限られない。
In this example, as shown in FIG. 1A, the
However, the detection of the seven time points and the gaze and face orientation at each time point is not limited to this.
図9は、検出手法の他の例を示す模式図である。
図9(a)の例に示すように、スイングの時点の検出と顔の向きの検出に用いる検出装置1Cと、視線の検出に用いる検出装置1Dにより構成してもよい。
また、図9(b)の例に示すように、スイング時点の検出をプレーヤHに取り付けたモーションを検出可能な検出装置1Eで行い、視線及び顔の向きの検出には検出装置1Fを用いるように構成してもよい。
FIG. 9 is a schematic diagram illustrating another example of the detection method.
As shown in the example of FIG. 9A, a
Further, as shown in the example of FIG. 9B, the detection of the swing time is performed by the
<第2の実施形態>
上述した実施形態においては、視線の変化や顔の向きからフォームの評価として被写体の評価を行うように構成した。本例においては、視線や頭部の変化から集中を評価して被写体の評価を行う。
<Second Embodiment>
In the above-described embodiment, the subject is evaluated as the form evaluation based on the change in the line of sight and the face direction. In this example, the subject is evaluated by evaluating the concentration from changes in the line of sight and the head.
本実施形態における被写体の評価は、本実施形態においては、例えば、ビリヤードを行っているものを被写体とする場合には、キューをボールに当てようとしている場面において集中しているか否かを評価することにより行う。集中の評価は、視線と頭部の動きから行う。即ち、集中の評価は、視線の動きの変化が少なく安定していること、頭部の動きの変化が少なく安定していること基準とする。 In this embodiment, the evaluation of the subject in this embodiment is, for example, evaluating whether or not the subject is concentrating in a scene where the cue is being applied to the ball when the subject is a billiard player. By doing. Concentration is evaluated from the line of sight and head movement. That is, the evaluation of concentration is based on the fact that the change in the movement of the line of sight is stable with little change, and the change in the movement of the head is stable with little change.
図10は、本実施形態における被写体の評価を行っている様子を示した模式図である。
被写体の評価は、図10に示すように、所定の位置から被写体を撮影し、撮影した動画等から視線の動きを評価し、被写体の頭部に設けたセンサ部17からセンシングの結果から頭部の動きを評価する。即ち、撮像装置1では、視線の動きを撮像部16からの出力結果を解析することにより評価し、頭部の動きをセンサ部17からの出力結果を解析することにより行う。
なお、本実施形態においては、頭部の動きを撮像装置1が備えるセンサ部17により検出したがこれに限られず、例えば、外部装置から取得してもよく、頭部の動きを撮像部16からの出力結果から取得するように構成してもよい。
FIG. 10 is a schematic diagram showing a state in which the subject is evaluated in the present embodiment.
As shown in FIG. 10, the evaluation of the subject is performed by photographing the subject from a predetermined position, evaluating the movement of the line of sight from the photographed video and the like, and detecting the head from the
In the present embodiment, the movement of the head is detected by the
また、本実施形態において、撮像装置1は、例えば、所定の基準を満たないような悪い評価結果の場合等の評価結果を撮像装置1の出力部19を介して、光や音声や振動等の出力でフィードバックする。
被写体であるビリヤードのプレーヤは、例えば、悪い評価結果には、集中を欠いているとして、プレイの軌道修正等を行う。即ち、プレーヤは、被写体である自己の動作を容易に確認することができる。
また、撮像装置1では、評価結果を保持し、出力部19で表示出力することで、事後的に、被写体の動作を当該動作中でなくとも容易に確認することができる。
Further, in the present embodiment, the
The billiard player, who is the subject, corrects the trajectory of play, for example, assuming that the poor evaluation result lacks concentration. In other words, the player can easily check his / her own motion as the subject.
Further, in the
本実施形態における機能ブロックは、第1の実施形態の機能ブロックと同様であるため図示を省略する。また、撮像制御部51についても機能が同じであるため説明を省略する。即ち、以下、第1の実施形態と異なる部分のみ説明するものとする。
The functional blocks in this embodiment are the same as the functional blocks in the first embodiment, and are not shown. Also, the
本実施形態の被写体評価処理とは、撮像部16やセンサ部17から取得した出力結果に基づいて、被写体の評価を行い、評価結果を出力するまでの処理をいう。
The subject evaluation processing of the present embodiment refers to processing from evaluation of a subject based on output results acquired from the
解析情報取得部52は、撮像部16から出力される動画から、視線の変化方向の情報(以下、「視線情報」という。)と、センサ部17から出力される動画のデータに時間的に対応した加速度情報を解析情報として取得する。
The analysis
解析評価処理部53は、解析情報記憶部71に記憶される解析情報に基づいて、被写体の解析及び解析結果の評価を行う。
具体的には、解析評価処理部53は、解析情報のうち動画を構成する画像から視線の動きを解析する。詳細には、解析評価処理部53は、動画のうち、解析を行う箇所を構成する画像(例えば、キューでボールを打つ姿勢になった場面等に対応する画像)における視線の動きを解析する。
視線の動きの解析は、本実施形態においては、視線の静止時間を計測し、当該視線の静止時間が所定の時間(以下、「第1の静止時間」という。)に達するまでに要した時間(以下、「第1の所要時間」という。)を導き出すことにより行う。
また、解析評価処理部53は、解析情報のうち解析を行う箇所を構成する画像に対応する時点での加速度情報から頭部の動きを解析する。
頭部の動きの評価は、本実施形態においては、頭部の静止時間を計測し、当該頭部の静止時間が所定の時間(以下、「第2の静止時間」という。)に達するまでに要した時間(以下、「第2の所要時間」という。)を導き出すことにより行う。
The analysis
Specifically, the analysis
In the present embodiment, the movement of the line of sight is measured by measuring the stasis time of the sight line, and the time required until the stasis time of the line of sight reaches a predetermined time (hereinafter referred to as “first rest time”). (Hereinafter referred to as “first required time”).
Further, the analysis
In this embodiment, the movement of the head is evaluated by measuring the stationary time of the head and until the stationary time of the head reaches a predetermined time (hereinafter referred to as “second stationary time”). This is done by deriving the required time (hereinafter referred to as “second required time”).
解析評価処理部53は、視線の動きと頭部の動きの解析結果を各々評価し、当該評価した評価結果を総合的に判断して、被写体の評価を行う。
詳細には、解析評価処理部53は、視線及び頭部の所要時間を時間帯に分けてスコア分けして、視線及び頭部の集中度スコアを決定する。スコア分けの基準は、例えば、静止してから所定の時間に達するまでに要した時間が短ければ短いほど、集中している蓋然性が高いために、高いスコアになるように構成される。
そして、視線及び頭部の集中度スコアから、総合的な集中度のスコアである安定性評価スコアを決定する。
その後、安定性評価スコアが集中の基準値以上であるか否かを判定することで、被写体の評価を行う。安定性評価スコアが基準値以上となった場合には、集中しているとする被写体の評価し、安定性評価スコアが基準値未満である場合には、集中していないとする被写体の評価をする。
The analysis /
Specifically, the analysis /
Then, a stability evaluation score, which is a score of total concentration, is determined from the gaze and head concentration scores.
Thereafter, the subject is evaluated by determining whether or not the stability evaluation score is equal to or higher than the concentration reference value. If the stability evaluation score is equal to or higher than the reference value, the subject that is concentrated is evaluated. If the stability evaluation score is less than the reference value, the subject that is not concentrated is evaluated. To do.
図11は、各種スコア(集中度スコア及び安定性評価スコア)を示す図である。
本実施形態において、視線及び頭部の各集中度スコアは、図11(a)の例に示すように、予め決定された所要時間と集中度スコアからなるテーブルを参照して決定する。
例えば、集中度スコアは、所要時間が0秒から1秒であった場合には、対応する箇所を参照して100点となるように決定される。
その結果、図11(c)に示すように、視線及び頭部の各集中度スコアが決定される。
FIG. 11 is a diagram showing various scores (concentration score and stability evaluation score).
In this embodiment, each concentration score of the line of sight and the head is determined with reference to a table including predetermined time and concentration score as shown in the example of FIG.
For example, when the required time is from 0 second to 1 second, the concentration score is determined so as to be 100 points with reference to the corresponding portion.
As a result, as shown in FIG. 11C, the concentration scores for the line of sight and the head are determined.
また、本実施形態において、安全性評価スコアは、図11(b)の例に示すように、予め決定された視線の集中度スコアと頭部の集中度スコアからなるテーブルを参照して決定する。
その結果、図11(c)に示すように、安全性評価スコアが決定される。
In this embodiment, as shown in the example of FIG. 11B, the safety evaluation score is determined with reference to a table including a predetermined gaze concentration score and a head concentration score. .
As a result, the safety evaluation score is determined as shown in FIG.
出力制御部54は、解析評価処理部53による被写体の評価結果に基づいて、出力部19における出力を制御する。
具体的には、出力制御部54は、安全性評価スコアが基準値以上であった場合には、集中していると被写体の評価がされて、動作の邪魔をしないようにアナウンスは行わずに、出力部19における出力を行わない。
これに対して、出力制御部54は、安全性評価スコアが基準値未満であった場合には、集中してないと被写体が評価され、注意喚起を促すように、スピーカからの音声、LEDランプからの光、バイブレータからの振動等の出力を行うように出力部19を制御する。
The
Specifically, when the safety evaluation score is equal to or higher than the reference value, the
On the other hand, when the safety evaluation score is less than the reference value, the
図12は、図3の機能的構成を有する図2の撮像装置1が実行する第2の実施形態における被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザから入力部18への所定の操作により開始される。
FIG. 12 is a flowchart for explaining the flow of subject evaluation processing in the second embodiment executed by the
The subject evaluation process is started by a predetermined operation from the user to the
ステップS51において、撮像制御部51は、撮影を開始するように撮像部16を制御する。
In step S51, the
ステップS52において、解析情報取得部52は、解析情報として、撮像部16から出力される動画のデータと、センサ部17から出力される動画のデータに対応した時間帯の加速度情報を取得する。
In step S <b> 52, the analysis
ステップS53において、解析評価処理部53は、安定性評価処理を実行する。安定性評価処理の処理については、後述する。
In step S53, the analysis
ステップS54において、解析評価処理部53は、算出した集中度スコアと基準値とを比較する。
In step S54, the analysis
ステップS55において、解析評価処理部53は、算出した集中度スコアが基準値以上であるか否かを判定する。本ステップにおいて、基準値以上と判定されると、集中しているとして被写体の評価がされ、基準値未満であると判定されると、集中していないとして被写体の評価がされる。
基準値未満である場合には、ステップS55においてNOと判定されて、処理はステップS56に進む。
In step S55, the analysis
If it is less than the reference value, NO is determined in step S55, and the process proceeds to step S56.
ステップS56において、出力制御部54は、基準値未満であり、集中していないとして被写体が評価されたために、被写体への注意喚起の意味合いで、出力を行うように出力部19を制御する。
In step S56, the
これに対して、基準値以上である場合には、ステップS55においてYESと判定されて、ステップS57に進む。 On the other hand, if it is greater than or equal to the reference value, YES is determined in step S55, and the process proceeds to step S57.
ステップS57において、CPU11は、撮影が終了したか否かを判定する。
撮影が終了していない場合には、ステップS57においてNOと判定されて、処理はステップS52に戻る。
撮影が終了している場合には、ステップS57においてYESと判定されて、被写体評価処理は終了する。
In step S57, the
If shooting has not ended, NO is determined in step S57, and the process returns to step S52.
If shooting has been completed, YES is determined in step S57, and the subject evaluation process ends.
図13は、被写体評価処理のうち、安定性評価処理の流れを説明するフローチャートである。 FIG. 13 is a flowchart for explaining the flow of the stability evaluation process in the subject evaluation process.
ステップS71において、解析評価処理部53は、解析情報記憶部71から解析情報のうち視線情報を取得する。具体的には、解析評価処理部53は、ボールをショットしようとしている期間の視線情報を取得する。
In step S <b> 71, the analysis
ステップS72において、解析評価処理部53は、取得した各視線情報を解析して、第1の静止時間を計測する。
In step S <b> 72, the analysis /
ステップS73において、解析評価処理部53は、第1の静止時間が基準時間に達するまでに要した時間(第1の所要時間)を算出する。
In step S73, the analysis /
ステップS74において、解析評価処理部53は、図11(a)に示すようなテーブルに基づいて、算出した第1の静止時間が基準時間に達するまでに要した時間(第1の所要時間)に対応する視線の集中度スコアを決定する。
In step S74, the analysis /
ステップS75において、解析評価処理部53は、解析情報記憶部71から解析情報のうち加速度情報を取得する。具体的には、解析評価処理部53は、視線情報に対応する時間帯の加速度情報を取得する。
In step S <b> 75, the analysis
ステップS76において、解析評価処理部53は、取得した各加速度情報を解析して、第2の静止時間を計測する。
In step S76, the analysis
ステップS77において、解析評価処理部53は、第2の静止時間が基準時間に達するまでに要した時間を算出する。
In step S77, the analysis /
ステップS78において、解析評価処理部53は、図11(a)に示すようなテーブルに基づいて、算出した第2の静止時間が基準時間に達するまでに要した時間に対応する頭部の集中度スコアを決定する。
In step S78, the analysis
ステップS79において、解析評価処理部53は、図11(b)に示すようなテーブルに基づいて、決定された視線の集中度スコアと頭部の集中度スコアから、安定性評価スコアを決定する。
In step S79, the analysis
以上のように構成される撮像装置1は、解析情報取得部52と、解析評価処理部53と、を備える。
解析情報取得部52は、動作の評価対象となる人物の視線の情報である解析情報を取得する。
解析評価処理部53は、解析情報取得部52により取得された解析情報に基づいて、人物の動作の評価を行う。
これにより、撮像装置1においては、対象者の視線の状態が被写体の動作に影響を与えるため、対象者の動作を評価することができるようになる。
ひいては、撮像装置1においては、対象者の動作を当該動作中でなくとも客観的に容易に確認することができるようになる。
The
The analysis
The analysis
Thereby, in the
As a result, in the
解析情報取得部52は、複数の画像を取得する。
解析評価処理部53は、取得した複数の画像中の各画像から視線の情報を取得する。また、解析評価処理部53は、解析情報取得部52により取得された各画像の視線の情報同士を比較し、比較結果に応じた動作の評価を行う。
なお、上述した実施形態においては、撮像部16から、画像を取得するように構成したが、外部装置等から画像を取得するように構成してもよい。
したがって、撮像装置1においては、例えば、お手本となる画像と比較をして評価を行うことができる。
The analysis
The analysis
In the above-described embodiment, an image is acquired from the
Therefore, in the
また、解析情報取得部52は、人物の顔の向きの情報又は頭の位置の情報を解析情報として取得する。
また、解析評価処理部53は、解析された人物の顔の向きの情報又は頭の情報に基づいて、人物の動作の評価を行う。
これにより、撮像装置1では、更に補強的な要素が加わることで、対象の動作の評価の精度を高めることができる。
The analysis
Further, the analysis
Thereby, in the
また、解析評価処理部53は、人物の視線の状態として、視線の変化又は特定対象と視線との位置関係を解析する。また、解析評価処理部53は、視線の変化が少ない、又は特定対象と視線とが近いほど人物の動作を高く評価する。
これにより、撮像装置1では、更に、対象の動作の評価の精度を高めることができる。
Further, the analysis
Thereby, in the
また、解析評価処理部53は、被写体の動作の評価を行う構成要素を評価する。
また、解析評価処理部53は、構成要素の評価を統合する。
また、解析評価処理部53は、統合された構成要素の評価から人物の評価を行う。
これにより、撮像装置1においては、各構成要素の評価に基づいて、総合的な評価を行うことができ、質の高い評価を行うことができる。
Further, the analysis
In addition, the analysis
The analysis
Thereby, in the
また、撮像装置1は、解析評価処理部53による被写体の動作の評価に対応したアドバイス情報を出力制御時に生成する出力制御部54を備える。
これにより、撮像装置1では、解析して評価した結果に対するアドバイスを提供することができる。
In addition, the
Thereby, in the
また、撮像装置1は、出力制御部54により出力制御時に生成されたアドバイス情報を出力する出力部19を備える。
これにより、撮像装置1では、評価結果に対するアドバイス情報を自機で表示出力することができる。
The
As a result, the
また、撮像装置1は、解析評価処理部53による被写体の動作の評価を対象者である本人に音や振動等で報知する出力部19を備える。
これにより、撮像装置1では、プレーヤがプレイ中である場合にも、例えば、ネガティブな評価がされたときに報知することで、視線を動かすことなくプレイを中断せずに注意喚起することができる。
In addition, the
Thereby, in the
また、解析情報取得部52は、撮像部16により撮像された画像から解析情報として取得する。
これにより、撮像装置1では、他機器を用いずに、自機で解析情報の取得から評価までを一貫して行うことができる。
Further, the analysis
As a result, the
なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。 In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.
上述の実施形態では、被写体の評価をゴルフやビリヤードのプレーヤを対象とした例にしたがこれに限られない。
図14は、被写体の評価の他の例を示す模式図である。
図14(a)の例に示すような野球のピッチングや図14(b)に示すようなバッティングにおける被写体の評価に用いることもできる。
具体的には、上述した被写体の動作は、ゴルフ、ビリヤード又は野球のスポーツにおけるプレーヤの動作である。
In the above-described embodiment, the evaluation of the subject is an example for golf or billiard players, but is not limited thereto.
FIG. 14 is a schematic diagram illustrating another example of subject evaluation.
It can also be used to evaluate a subject in baseball pitching as shown in the example of FIG. 14 (a) or batting as shown in FIG. 14 (b).
Specifically, the motion of the subject described above is the motion of the player in golf, billiards or baseball sports.
また、上述の実施形態では、プレーヤを撮影して被写体となっていることが前提として説明をしたがこれに限られない。視線や顔の向き検出を画像解析に寄らずに行った場合には、検出結果に基づいてプレーヤの評価を行うように構成する。 In the above-described embodiment, the description has been made on the assumption that the player is photographed and becomes a subject. However, the present invention is not limited to this. In the case where gaze and face direction detection is performed without performing image analysis, the player is evaluated based on the detection result.
また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、被写体評価処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the
For example, the present invention can be applied to general electronic devices having a subject evaluation processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部20に含まれるハードディスク等で構成される。
The recording medium including such a program is not only constituted by the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.
以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
動作の評価対象となる人物の視線の情報を取得する第1の取得手段と、
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする情報処理装置。
[付記2]
複数の画像を取得する画像取得手段を更に備え、
前記第1の取得手段は、前記画像取得手段により取得された複数の画像中の各画像から前記視線の情報を取得し、
前記評価手段は、
前記第1の取得手段により取得された各画像の前記視線の情報同士を比較する比較手段を更に有し、
前記比較手段による比較結果に応じた前記動作の評価を行う、
ことを特徴とする付記1に記載の情報処理装置。
[付記3]
前記人物の顔の向きの情報又は頭の位置の情報を取得する第2の取得手段を更に備え、
前記評価手段は、前記第1の取得手段により取得された視線の情報と、前記第2の取得手段により取得された顔の向きの情報又は頭の位置の情報に基づいて、前記人物の動作の評価を行う、
ことを特徴とする付記1又は2に記載の情報処理装置。
[付記4]
前記人物の視線の状態として、視線の変化又は特定対象と視線との位置関係を解析する解析手段を更に備え、
前記評価手段は、前記視線の変化が少ない、又は特定対象と視線とが近いほど前記人物の動作を高く評価する、
ことを特徴とする付記1乃至3のいずれか1つに記載の情報処理装置。
[付記5]
前記評価手段は、
前記人物の動作の評価を行う構成要素を評価する要素評価手段と、
前記要素評価手段による構成要素の評価を統合する統合手段を更に有し、
前記統合手段により統合された構成要素の評価から前記人物の動作の評価を行う、
ことを特徴とする付記1乃至4のいずれか1つに記載の情報処理装置。
[付記6]
前記評価手段による前記人物の動作の評価に対応したアドバイス情報を生成する生成手段を備える、
ことを特徴とする付記1乃至5のいずれか1つに記載の情報処理装置。
[付記7]
前記生成手段により生成された前記アドバイス情報を出力する出力手段を備える、
ことを特徴とする付記6に記載の情報処理装置。
[付記8]
前記評価手段による前記人物の動作の評価を前記人物に報知する報知手段を備える、
ことを特徴とする付記1乃至5のいずれか1つに記載の情報処理装置。
[付記9]
前記第1の取得手段は、撮像手段で撮像された画像から前記視線の情報として取得する、
ことを特徴とする付記1乃至6のいずれか1つに記載の情報処理装置。
[付記10]
前記人物の動作は、ゴルフ、ビリヤード又は野球のスポーツにおけるプレーヤの動作である、
ことを特徴とする付記1乃至9のいずれか1つに記載の情報処理装置。
[付記11]
動作の評価対象となる人物の視線の情報を取得する取得ステップと、
前記取得ステップにおいて取得された視線の情報に基づいて、前記人物の動作の評価を行う評価ステップと、
を含むことを特徴とする情報処理方法。
[付記12]
コンピュータを、
動作の評価対象となる人物の視線の情報を取得する取得手段、
前記取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
An information processing apparatus comprising:
[Appendix 2]
It further comprises image acquisition means for acquiring a plurality of images,
The first acquisition unit acquires the line-of-sight information from each image in the plurality of images acquired by the image acquisition unit,
The evaluation means includes
A comparison unit that compares the line-of-sight information of each image acquired by the first acquisition unit;
The operation is evaluated according to the comparison result by the comparison means.
The information processing apparatus according to
[Appendix 3]
A second acquisition means for acquiring information on the orientation of the person's face or information on the position of the head;
The evaluation unit is configured to determine the movement of the person based on the line-of-sight information acquired by the first acquisition unit and the face orientation information or the head position information acquired by the second acquisition unit. Do the evaluation,
The information processing apparatus according to
[Appendix 4]
Analyzing means for analyzing the positional relationship between the gaze change or the specific target and the gaze as the gaze state of the person,
The evaluation means highly evaluates the movement of the person as the change in the line of sight is small, or the specific object and the line of sight are closer.
The information processing apparatus according to any one of
[Appendix 5]
The evaluation means includes
Element evaluation means for evaluating a component for evaluating the movement of the person;
Further comprising integration means for integrating evaluations of components by the element evaluation means;
Evaluating the movement of the person from the evaluation of the components integrated by the integration means;
The information processing apparatus according to any one of
[Appendix 6]
A generating unit that generates advice information corresponding to the evaluation of the movement of the person by the evaluating unit;
The information processing apparatus according to any one of
[Appendix 7]
Output means for outputting the advice information generated by the generating means;
The information processing apparatus according to appendix 6, wherein:
[Appendix 8]
Informing means for informing the person of the evaluation of the action of the person by the evaluating means,
The information processing apparatus according to any one of
[Appendix 9]
The first acquisition unit acquires the line-of-sight information from an image captured by the imaging unit.
The information processing apparatus according to any one of
[Appendix 10]
The movement of the person is a movement of a player in golf, billiards or baseball sports.
The information processing apparatus according to any one of
[Appendix 11]
An acquisition step of acquiring gaze information of a person to be evaluated for movement;
An evaluation step for evaluating the movement of the person based on the line-of-sight information acquired in the acquisition step;
An information processing method comprising:
[Appendix 12]
Computer
Acquisition means for acquiring information on the line of sight of the person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information of the line of sight acquired by the acquisition means;
A program characterized by functioning as
1・・・検出装置(撮像装置),11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・センサ部,17・・・撮像部,18・・・入力部,19・・・出力部,20・・・記憶部,21・・・通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・解析情報取得部,53・・・解析評価処理部,54・・・出力制御部,71・・・解析情報記憶部,72・・・評価情報記憶部
DESCRIPTION OF
Claims (12)
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする情報処理装置。 First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
An information processing apparatus comprising:
前記第1の取得手段は、前記画像取得手段により取得された複数の画像中の各画像から前記視線の情報を取得し、
前記評価手段は、
前記第1の取得手段により取得された各画像の前記視線の情報同士を比較する比較手段を更に有し、
前記比較手段による比較結果に応じた前記動作の評価を行う、
ことを特徴とする請求項1に記載の情報処理装置。 It further comprises image acquisition means for acquiring a plurality of images,
The first acquisition unit acquires the line-of-sight information from each image in the plurality of images acquired by the image acquisition unit,
The evaluation means includes
A comparison unit that compares the line-of-sight information of each image acquired by the first acquisition unit;
The operation is evaluated according to the comparison result by the comparison means.
The information processing apparatus according to claim 1.
前記評価手段は、前記第1の取得手段により取得された視線の情報と、前記第2の取得手段により取得された顔の向きの情報又は頭の位置の情報に基づいて、前記人物の動作の評価を行う、
ことを特徴とする請求項1又は2に記載の情報処理装置。 A second acquisition means for acquiring information on the orientation of the person's face or information on the position of the head;
The evaluation unit is configured to determine the movement of the person based on the line-of-sight information acquired by the first acquisition unit and the face orientation information or the head position information acquired by the second acquisition unit. Do the evaluation,
The information processing apparatus according to claim 1 or 2.
前記評価手段は、前記視線の変化が少ない、又は特定対象と視線とが近いほど前記人物の動作を高く評価する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 Analyzing means for analyzing the positional relationship between the gaze change or the specific target and the gaze as the gaze state of the person,
The evaluation means highly evaluates the movement of the person as the change in the line of sight is small, or the specific object and the line of sight are closer.
The information processing apparatus according to any one of claims 1 to 3.
前記人物の動作の評価を行う構成要素を評価する要素評価手段と、
前記要素評価手段による構成要素の評価を統合する統合手段を更に有し、
前記統合手段により統合された構成要素の評価から前記人物の動作の評価を行う、
ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。 The evaluation means includes
Element evaluation means for evaluating a component for evaluating the movement of the person;
Further comprising integration means for integrating evaluations of components by the element evaluation means;
Evaluating the movement of the person from the evaluation of the components integrated by the integration means;
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 A generating unit that generates advice information corresponding to the evaluation of the movement of the person by the evaluating unit;
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
ことを特徴とする請求項6に記載の情報処理装置。 Output means for outputting the advice information generated by the generating means;
The information processing apparatus according to claim 6.
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。 Informing means for informing the person of the evaluation of the action of the person by the evaluating means,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 The first acquisition unit acquires the line-of-sight information from an image captured by the imaging unit.
The information processing apparatus according to any one of claims 1 to 6.
ことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。 The movement of the person is a movement of a player in golf, billiards or baseball sports.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記取得ステップにおいて取得された視線の情報に基づいて、前記人物の動作の評価を行う評価ステップと、
を含むことを特徴とする情報処理方法。 An acquisition step of acquiring gaze information of a person to be evaluated for movement;
An evaluation step for evaluating the movement of the person based on the line-of-sight information acquired in the acquisition step;
An information processing method comprising:
動作の評価対象となる人物の視線の情報を取得する取得手段、
前記取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段、
として機能させることを特徴とするプログラム。 Computer
Acquisition means for acquiring information on the line of sight of the person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information of the line of sight acquired by the acquisition means;
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273314A JP2015126812A (en) | 2013-12-27 | 2013-12-27 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013273314A JP2015126812A (en) | 2013-12-27 | 2013-12-27 | Information processing device, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015126812A true JP2015126812A (en) | 2015-07-09 |
JP2015126812A5 JP2015126812A5 (en) | 2017-02-09 |
Family
ID=53837119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013273314A Pending JP2015126812A (en) | 2013-12-27 | 2013-12-27 | Information processing device, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015126812A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018099416A (en) * | 2016-12-21 | 2018-06-28 | カシオ計算機株式会社 | Motion analysis apparatus, motion analysis method and program |
JP2021115224A (en) * | 2020-01-24 | 2021-08-10 | 日本電信電話株式会社 | Motion performance evaluation device, motion performance evaluation method and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009125507A (en) * | 2007-11-27 | 2009-06-11 | Panasonic Electric Works Co Ltd | Golf improvement support device |
US20120051597A1 (en) * | 2009-03-03 | 2012-03-01 | The Ohio State University | Gaze tracking measurement and training system and method |
-
2013
- 2013-12-27 JP JP2013273314A patent/JP2015126812A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009125507A (en) * | 2007-11-27 | 2009-06-11 | Panasonic Electric Works Co Ltd | Golf improvement support device |
US20120051597A1 (en) * | 2009-03-03 | 2012-03-01 | The Ohio State University | Gaze tracking measurement and training system and method |
Non-Patent Citations (1)
Title |
---|
川島一明: "ゴルフスイングの動作分析とゴルフプレーヤーの身体特性に関する研究", 博士学位論文(早稲田大学大学院), JPN7017003456, January 2004 (2004-01-01), JP, pages 92 - 99, ISSN: 0003830257 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018099416A (en) * | 2016-12-21 | 2018-06-28 | カシオ計算機株式会社 | Motion analysis apparatus, motion analysis method and program |
JP2021115224A (en) * | 2020-01-24 | 2021-08-10 | 日本電信電話株式会社 | Motion performance evaluation device, motion performance evaluation method and program |
JP7306280B2 (en) | 2020-01-24 | 2023-07-11 | 日本電信電話株式会社 | Exercise performance evaluation device, exercise performance evaluation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5754439B2 (en) | Information notification apparatus, information notification method, and program | |
US9017079B2 (en) | Information notification apparatus that notifies information of data of motion | |
JP5754458B2 (en) | Moving image extraction apparatus, moving image extraction method, and program | |
CN105450911B (en) | Image processing apparatus, image processing method | |
CN105407268B (en) | Image correction apparatus, method for correcting image and recording medium | |
JP5842807B2 (en) | Image analysis device, information notification device, image analysis method, information notification method, and program | |
JP2014064110A (en) | Image processing device, image processing method, and program | |
KR20100064162A (en) | Apparatus and method for correcting sports posture in digital image processing device | |
US11388331B2 (en) | Image capture apparatus and control method thereof | |
JP6149365B2 (en) | Information generating apparatus, information generating method and program | |
JP5811654B2 (en) | Image processing apparatus, image processing method, and program | |
JP5733298B2 (en) | Display control apparatus, display control method, and program | |
JP2015126812A (en) | Information processing device, information processing method, and program | |
JP2014187551A (en) | Image acquisition device, image acquisition method and program | |
JP6149891B2 (en) | Display control apparatus, display control method, and program | |
KR20120030181A (en) | System and method for analyzing golf swing | |
JP6384564B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017174094A (en) | Image processing device, image processing method, and program | |
JP2016123637A (en) | Image processor, image processing method and program | |
JP6720509B2 (en) | Image evaluation apparatus, image evaluation method and program | |
JP2019217150A (en) | Swing analysis device, swing analysis method, and swing analysis system | |
JP6168127B2 (en) | Image analysis apparatus, image analysis method, and program | |
JP6372176B2 (en) | Image processing apparatus, image processing method, and program | |
JP6127410B2 (en) | Image processing apparatus, image processing method, and program | |
JP2016126509A (en) | Notification control device, notification control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161222 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171107 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180703 |