JP2015126812A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2015126812A
JP2015126812A JP2013273314A JP2013273314A JP2015126812A JP 2015126812 A JP2015126812 A JP 2015126812A JP 2013273314 A JP2013273314 A JP 2013273314A JP 2013273314 A JP2013273314 A JP 2013273314A JP 2015126812 A JP2015126812 A JP 2015126812A
Authority
JP
Japan
Prior art keywords
information
evaluation
sight
line
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013273314A
Other languages
Japanese (ja)
Other versions
JP2015126812A5 (en
Inventor
磨 野嶋
Migaku Nojima
磨 野嶋
河村 義裕
Yoshihiro Kawamura
義裕 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013273314A priority Critical patent/JP2015126812A/en
Publication of JP2015126812A publication Critical patent/JP2015126812A/en
Publication of JP2015126812A5 publication Critical patent/JP2015126812A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily evaluate a target operation even when the target operation is not performed.SOLUTION: An imaging device 1 has an analysis information acquisition section 52, and an analysis evaluation processing section 53. The analysis information acquisition section 52 acquires information on the line of sight of a person whose operation is to be an evaluation target. The analysis evaluation processing section 53 evaluates operation of the person on the basis of the information on the line of sight of the person which is acquired by the analysis information acquisition section 52. Therefore, the imaging device 1 can easily evaluate a target operation even when the operation is not performed.

Description

本発明は、人物の動作を評価する情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program for evaluating a person's action.

従来の技術として、ゴルフのスイングにおける動作の確認のためにゴルフボールを挟んでユーザに対向するように外部装置を設けることで、ユーザが自身の動作のチェックを行う技術が知られている(例えば、特許文献1参照)。   As a conventional technique, there is known a technique in which a user checks his / her own movement by providing an external device so as to face the user with a golf ball sandwiched in order to confirm a movement in a golf swing (for example, , See Patent Document 1).

特開2004−321767号公報JP 2004-321767 A

しかしながら、特許文献1の技術では、外部装置をリアルタイムに利用したときのみにしか動作の状態を確認できないためユーザの動作を評価できる時が当該動作中に限られてしまうという問題があった。   However, the technique disclosed in Patent Document 1 has a problem that the time when the user's operation can be evaluated is limited to the operation only because the operation state can be confirmed only when the external device is used in real time.

このような状況に鑑みてなされたものであり、対象の動作を当該動作中でなくとも容易に評価できるようにすることを目的とする。   The present invention has been made in view of such a situation, and an object thereof is to make it possible to easily evaluate a target operation even if the operation is not in progress.

上記目的を達成するため、本発明の一態様の情報処理装置は、
動作の評価対象となる人物の視線の情報を取得する第1の取得手段と、
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする。
In order to achieve the above object, an information processing apparatus of one embodiment of the present invention provides:
First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
It is characterized by providing.

本発明によれば、対象の動作を当該動作中でなくとも容易に評価することができる。   According to the present invention, it is possible to easily evaluate a target operation even if the target operation is not in progress.

検出装置を用いて対象者の動作の評価を行っている状態を示す模式図である。It is a schematic diagram which shows the state which is evaluating the operation | movement of a subject using a detection apparatus. 本発明の一実施形態に係る検出装置である撮像装置のハードウェアの構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the imaging device which is a detection apparatus which concerns on one Embodiment of this invention. 図3は、図2の撮像装置の機能的構成のうち、被写体評価処理を実行するための機能的構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a functional configuration for executing subject evaluation processing among the functional configurations of the imaging apparatus in FIG. 2. 出力部に表示される解析評価結果の表示例である。It is an example of a display of the analysis evaluation result displayed on an output part. 出力部に表示される解析評価結果の他の表示例である。It is another example of a display of the analysis evaluation result displayed on an output part. 図3の機能的構成を有する図2の撮像装置が実行する被写体評価処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of subject evaluation processing executed by the imaging apparatus of FIG. 2 having the functional configuration of FIG. 3. 出力部に表示される解析評価結果の他の表示例である。It is another example of a display of the analysis evaluation result displayed on an output part. 図3の機能的構成を有する図2の撮像装置が実行する他の変形例における被写体評価処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of subject evaluation processing in another modification executed by the imaging apparatus of FIG. 2 having the functional configuration of FIG. 3. 検出手法の他の例を示す模式図である。It is a schematic diagram which shows the other example of a detection method. 第2の実施形態における被写体の評価を行っている様子を示した模式図である。It is the schematic diagram which showed a mode that the evaluation of the to-be-photographed object in 2nd Embodiment is performed. 各種スコアを説明するための図である。It is a figure for demonstrating various scores. 図3の機能的構成を有する図2の撮像装置が実行する第2の実施形態における被写体評価処理の流れを説明するフローチャートである。4 is a flowchart for explaining a flow of subject evaluation processing in a second embodiment executed by the imaging apparatus of FIG. 2 having the functional configuration of FIG. 3. 被写体評価処理のうち、安定性評価処理の流れを説明するフローチャートである。It is a flowchart explaining the flow of stability evaluation processing among subject evaluation processing. 被写体の評価の他の例を示す模式図である。It is a schematic diagram which shows the other example of evaluation of a to-be-photographed object.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<第1の実施形態>
本実施形態においては、対象者の一連の動作を評価する。評価の手法は、動作中の対象者の視線の状態に基づいて行う。即ち、対象者の視線を検出して、好適な視線の状態となっているかを評価することにより行う。
本例では、対象者の一連の動作として、ゴルフのスイング(以下、単に「スイング」という。)を対象とする。ゴルフのスイングにおいては、アドレスからフィニッシュまでの一連のスイングの動作中において視線の変化がないことが好ましいとされる。したがって、視線の変化がないことが好適な視線の状態となるため、視線の変化を解析することにより対象者の一連の動作を評価する。
<First Embodiment>
In the present embodiment, a series of actions of the subject is evaluated. The evaluation method is performed based on the state of the line of sight of the subject in operation. In other words, it is performed by detecting the line of sight of the subject and evaluating whether the line of sight is suitable.
In this example, a golf swing (hereinafter simply referred to as “swing”) is targeted as a series of actions of the subject. In a golf swing, it is preferable that the line of sight does not change during a series of swing operations from the address to the finish. Accordingly, since it is preferable that there is no change in the line of sight, the state of the subject is evaluated by analyzing the change in the line of sight.

また、スイングにおいては、視線が所定の方向、即ち、ボールに向いていることも好ましいとされる。したがって、視線がボールの方向に向いていることも好適な視線の状態となる。   In the swing, it is also preferable that the line of sight is in a predetermined direction, that is, toward the ball. Therefore, it is also a suitable line of sight that the line of sight is directed toward the ball.

更に、スイングにおいては、視線の変化の生じにくい状態や視線がボールに向きやすい状態を作り出すために、顔の向きが動作中に変化しないことや顔がボール方向に向いていることが付加的な要素となる。   Furthermore, in the swing, in order to create a state in which the line of sight hardly changes or a state in which the line of sight tends to face the ball, it is additionally necessary that the face direction does not change during the operation or the face is directed toward the ball. Become an element.

そこで、本実施形態においては、スイングを行っている者(以下、「プレーヤ」ともいう。)の視線を検出して、視線の状態を解析することにより、スイングの動作を評価する。   Therefore, in this embodiment, the swing motion is evaluated by detecting the line of sight of the person who is performing the swing (hereinafter also referred to as “player”) and analyzing the state of the line of sight.

視線の検出については、例えば、角膜の反射像を評価するIROG法や、虹彩の模様を評価するVOG法等の既存の手法を用いることで検出する。近年においては、専用機を用いずに、高精細・高精度の撮像機能を備えた装置で撮影した画像を解析しても検出することができる。
また、顔の向きの検出についても、例えば、ボールを含むプレーヤの全身や、ボールとプレーヤの位置を加味してプレーヤの顔を含む一部を撮影した画像を解析して検出することができる。
The line of sight is detected by using an existing method such as an IROG method for evaluating a reflection image of the cornea and a VOG method for evaluating an iris pattern. In recent years, it can be detected by analyzing an image photographed by a device having a high-definition and high-precision imaging function without using a dedicated machine.
The face orientation can also be detected by analyzing, for example, an image of the whole body of the player including the ball or a part of the player including the face of the player in consideration of the position of the ball and the player.

図1は、検出装置を用いて対象者の動作の評価を行っている状態を示す模式図である。
本実施形態では、図1(a)の例に示すように、プレーヤ(対象者)Hに正対して視線・顔の向き・スイングの動作を検出可能な地面等に検出装置1を配置して、視線・顔の向き・スイングの動作を検出する。
また、スイングにより顔の向きが変化した場合に、検出装置の設置の仕方次第ではすべて視線が検出できなくなる虞があるために、図1(b)に示すように、複数の検出装置1A,1Bを用いて多視点から視線と顔の向きを検出するように構成することができる。
FIG. 1 is a schematic diagram illustrating a state in which the motion of the subject is evaluated using the detection device.
In the present embodiment, as shown in the example of FIG. 1A, the detection device 1 is arranged on the ground or the like that can detect the line of sight, the face direction, and the swing motion directly facing the player (target person) H. Detect gaze / face orientation / swing motion.
Further, when the orientation of the face changes due to the swing, there is a possibility that the line of sight cannot be detected at all depending on the installation method of the detection device. Therefore, as shown in FIG. 1B, a plurality of detection devices 1A, 1B Can be used to detect the direction of the line of sight and the face from multiple viewpoints.

図2は、本発明の一実施形態に係る検出装置である撮像装置1のハードウェアの構成を示すブロック図である。
撮像装置1は、例えばデジタルカメラとして構成される。
FIG. 2 is a block diagram illustrating a hardware configuration of the imaging apparatus 1 which is a detection apparatus according to an embodiment of the present invention.
The imaging device 1 is configured as a digital camera, for example.

撮像装置1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、撮像部16と、入力部18と、出力部19と、記憶部20と、通信部21と、ドライブ22と、を備えている。   The imaging apparatus 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an imaging unit 16, and an input unit 18. An output unit 19, a storage unit 20, a communication unit 21, and a drive 22.

CPU11は、ROM12に記録されているプログラム、又は、記憶部20からRAM13にロードされたプログラムに従って各種の処理を実行する。   The CPU 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 20 to the RAM 13.

RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the CPU 11 to execute various processes.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、撮像部16、センサ部17、入力部18、出力部19、記憶部20、通信部21及びドライブ22が接続されている。   The CPU 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. An imaging unit 16, a sensor unit 17, an input unit 18, an output unit 19, a storage unit 20, a communication unit 21, and a drive 22 are connected to the input / output interface 15.

撮像部16は、図示はしないが、光学レンズ部と、イメージセンサと、を備えている。   Although not shown, the imaging unit 16 includes an optical lens unit and an image sensor.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。
フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。
光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。
The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject.
The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range.
The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等から構成される。
光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、ディジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、CPU11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like.
The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. Data of the captured image is appropriately supplied to the CPU 11 or an image processing unit (not shown).

センサ部17は、加速度を検出可能に構成され、ピエゾ抵抗型もしくは静電容量型の検出機構を備えており、当該検出機構を用いて、加速度の3軸(X,Y,Z)成分を検出し、その検出結果を示すデータを出力する。   The sensor unit 17 is configured to be able to detect acceleration, and includes a piezoresistive type or electrostatic capacitance type detection mechanism, and detects the three-axis (X, Y, Z) components of acceleration using the detection mechanism. Then, data indicating the detection result is output.

入力部18は、各種釦等で構成され、ユーザの指示操作に応じて各種情報を入力する。
出力部19は、ディスプレイ、スピーカ、バイブレータ、LEDランプ等で構成され、画像、音声、振動、光等を出力する。
記憶部20は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、各種画像のデータを記憶する。
通信部21は、インターネットを含むネットワークを介して他の装置(図示せず)との間で行う通信を制御する。
The input unit 18 includes various buttons and the like, and inputs various types of information according to user instruction operations.
The output unit 19 includes a display, a speaker, a vibrator, an LED lamp, and the like, and outputs an image, sound, vibration, light, and the like.
The storage unit 20 is configured by a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various image data.
The communication unit 21 controls communication with other devices (not shown) via a network including the Internet.

ドライブ22には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ22によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部20にインストールされる。また、リムーバブルメディア31は、記憶部20に記憶されている画像のデータ等の各種データも、記憶部20と同様に記憶することができる。   A removable medium 31 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 22. The program read from the removable medium 31 by the drive 22 is installed in the storage unit 20 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 20 in the same manner as the storage unit 20.

以上のように構成される検出装置である撮像装置1は、例えば、スイングの動作等のプレーヤの動作を評価することができ、当該評価に対してのアドバイスを提供することができる機能を有する。   The imaging device 1 that is the detection device configured as described above has a function of being able to evaluate a player's motion such as a swing motion and provide advice on the evaluation.

図3は、このような撮像装置1の機能的構成のうち、被写体評価処理を実行するための機能的構成を示す機能ブロック図である。
被写体評価処理とは、視線等の解析情報を撮像部16から取得し、取得した解析情報に基づいて、被写体の評価を行い、評価結果を出力するまでの処理をいう。
FIG. 3 is a functional block diagram illustrating a functional configuration for executing subject evaluation processing among the functional configurations of the imaging apparatus 1 as described above.
The subject evaluation process refers to a process from obtaining analysis information such as a line of sight from the imaging unit 16, evaluating a subject based on the obtained analysis information, and outputting an evaluation result.

被写体評価処理は、図3に示すように、CPU11において、撮像制御部51と、解析情報取得部52と、解析評価処理部53と、出力制御部54と、が機能する。
また、記憶部20の一領域には、解析情報記憶部71と、評価情報記憶部72と、が設定される。
解析情報記憶部71には、被写体の評価のための解析に必要な情報(以下、「解析情報」という。)が記憶される。解析情報は、例えば、撮像部16から取得した動画等である。
評価情報記憶部72には、評価結果及び評価結果を表示する際に必要な情報(以下、「必要情報」という。)が記憶される。必要情報は、例えば、プロの視線情報や顔の向きの情報等の評価対象となった対象者との比較を行うための情報である。
As shown in FIG. 3, in the subject evaluation process, the imaging control unit 51, the analysis information acquisition unit 52, the analysis evaluation processing unit 53, and the output control unit 54 function in the CPU 11.
An analysis information storage unit 71 and an evaluation information storage unit 72 are set in one area of the storage unit 20.
The analysis information storage unit 71 stores information (hereinafter referred to as “analysis information”) necessary for analysis for subject evaluation. The analysis information is, for example, a moving image acquired from the imaging unit 16.
The evaluation information storage unit 72 stores evaluation results and information necessary for displaying the evaluation results (hereinafter referred to as “necessary information”). The necessary information is, for example, information for comparison with a target person who has been evaluated such as professional line-of-sight information and face orientation information.

撮像制御部51は、動画を撮影するように撮像部16を制御する。撮像部16により撮影された動画は、解析情報記憶部71に記憶される。   The imaging control unit 51 controls the imaging unit 16 to shoot a moving image. The moving image shot by the imaging unit 16 is stored in the analysis information storage unit 71.

解析情報取得部52は、解析情報記憶部71から解析情報を取得する。
具体的には、解析情報記憶部71から、解析情報として動画を構成する画像のうち、インパクト近辺に対応する画像を取得する。
The analysis information acquisition unit 52 acquires analysis information from the analysis information storage unit 71.
Specifically, an image corresponding to the vicinity of the impact is acquired from the analysis information storage unit 71 among the images constituting the moving image as the analysis information.

解析評価処理部53は、解析情報取得部52により取得された解析情報を解析し、当該解析結果に基づいて、被写体の評価を行う。そして、解析評価処理部53は、評価結果を評価情報記憶部72に記憶させる。
詳細には、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、視線の変化を解析する。各画像における視線の解析は、視線がどの方向を向いているかを画像から解析する。
視線の解析は、例えば、視線の動きを解析したり、角膜の反射像を評価するIROG法や虹彩の模様を評価するVOG法等の既存の手法を用いたりする。
また、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、顔の向きの変化を解析する。
なお、インパクト等のスイングの時点の特定は、例えば、画像から姿勢検出して行う等の既存の技術を用いて行う。
The analysis evaluation processing unit 53 analyzes the analysis information acquired by the analysis information acquisition unit 52 and evaluates the subject based on the analysis result. Then, the analysis evaluation processing unit 53 stores the evaluation result in the evaluation information storage unit 72.
Specifically, the analysis evaluation processing unit 53 analyzes the image corresponding to the vicinity of the impact acquired by the analysis information acquisition unit 52, and analyzes the change in the line of sight. In the analysis of the line of sight in each image, the direction in which the line of sight is directed is analyzed from the image.
The analysis of the line of sight uses, for example, an existing method such as an analysis of the movement of the line of sight, an IROG method for evaluating a reflection image of the cornea, and a VOG method for evaluating an iris pattern.
In addition, the analysis evaluation processing unit 53 analyzes the image corresponding to the vicinity of the impact acquired by the analysis information acquisition unit 52, and analyzes the change in the orientation of the face.
Note that the swing time such as impact is specified using an existing technique such as detecting the posture from an image.

また、解析評価処理部53は、解析結果に基づいて、被写体の評価を行う。
詳細には、解析評価処理部53は、解析した視線に基づいて、視線の適否を評価する。視線の適否は、解析された視線とボールとの位置関係で行う。ゴルフにおいて視線は、ボールから離れていないことが良いとされているため、ボールに近いほど高い評価をする。
The analysis evaluation processing unit 53 evaluates the subject based on the analysis result.
Specifically, the analysis evaluation processing unit 53 evaluates the suitability of the line of sight based on the analyzed line of sight. The suitability of the line of sight is determined by the positional relationship between the analyzed line of sight and the ball. In golf, it is good that the line of sight is not far from the ball, so the closer to the ball, the higher the evaluation.

出力制御部54は、解析評価結果を表示するように出力部19を制御する。詳細には、出力制御部54は、解析評価処理部53により解析された視線の方向を表示し、更に、評価された視線とボールとの位置関係及び評価に対応するアドバイスを表示するように出力部19を制御する。   The output control unit 54 controls the output unit 19 to display the analysis evaluation result. Specifically, the output control unit 54 displays the direction of the line of sight analyzed by the analysis evaluation processing unit 53, and further outputs so as to display the positional relationship between the evaluated line of sight and the ball and advice corresponding to the evaluation. The unit 19 is controlled.

図4は、出力部19に表示される解析評価結果の表示例である。
解析評価結果は、図4の例に示すように、インパクト時のプレーヤを頭上から見下ろした模式図に、解析結果である視線方向L1と、視線とボールとの位置関係(「視線がボールから早く離れています。」)及びアドバイス(「もっとボールを良く見ましょう。」)を表示する。
FIG. 4 is a display example of the analysis evaluation result displayed on the output unit 19.
As shown in the example of FIG. 4, the analysis evaluation result is shown in a schematic view of the player at the time of impact looking down from the overhead, and the visual line direction L1 as the analysis result and the positional relationship between the line of sight and the ball (“ "I'm away.") And advice ("Look better at the ball.").

図5は、出力部19に表示される解析評価結果の他の表示例である。
解析評価結果は、図5の例に示すように、インパクト近辺の視線の変化をグラフで表示してもよい。この際、見本となるプロの視線の変化を同時に表示させるように構成してもよい。
なお、本例では、表示により評価結果を提示したが、音声、振動、光等によって、評価の善し悪しのみを報知するように構成してもよい。これは、プレーヤが動作時に自己の動作の評価を確認する場合に有効である。
FIG. 5 is another display example of the analysis evaluation result displayed on the output unit 19.
As shown in the example of FIG. 5, the analysis evaluation result may display a change in the line of sight near the impact in a graph. At this time, a change in professional line of sight as a sample may be displayed simultaneously.
In this example, the evaluation result is presented by display, but it may be configured to notify only whether the evaluation is good or bad by voice, vibration, light, or the like. This is effective when the player confirms the evaluation of his / her movement at the time of movement.

図6は、図3の機能的構成を有する図2の撮像装置1が実行する被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザによる入力部18からの所定の操作により開始される。
FIG. 6 is a flowchart for explaining the flow of subject evaluation processing executed by the imaging apparatus 1 of FIG. 2 having the functional configuration of FIG.
The subject evaluation process is started by a predetermined operation from the input unit 18 by the user.

ステップS11において、CPU11は、入力部18からの撮影開始操作があったか否かを判定する。
撮影開始操作がない場合には、ステップS11においてNOと判定されて、撮影開始操作があるまで待機状態となる。
撮影開始操作があった場合には、ステップS11においてYESと判定されて、処理はステップS12に進む。
In step S <b> 11, the CPU 11 determines whether or not there has been a shooting start operation from the input unit 18.
If there is no shooting start operation, it is determined as NO in step S11, and a standby state is entered until there is a shooting start operation.
If there has been a shooting start operation, YES is determined in step S11, and the process proceeds to step S12.

ステップS12において、撮像制御部51は、スイング撮影を開始するように撮像部16を制御する。撮影された動画は、解析情報記憶部71に記憶される。   In step S12, the imaging control unit 51 controls the imaging unit 16 to start swing shooting. The captured moving image is stored in the analysis information storage unit 71.

ステップS13において、CPU11は、入力部18からの撮影終了操作があったか否かを判定する。
撮影終了操作がない場合には、ステップS13においてNOと判定されて、撮影終了操作があるまで待機状態となる。
撮影終了操作があった場合には、ステップS13においてYESと判定されて、処理はステップS14に進む。
In step S <b> 13, the CPU 11 determines whether or not a photographing end operation has been performed from the input unit 18.
If there is no photographing end operation, it is determined as NO in step S13, and a standby state is entered until there is a photographing end operation.
If there is a photographing end operation, YES is determined in step S13, and the process proceeds to step S14.

ステップS14において、解析情報取得部52は、解析情報記憶部71に記憶される動画を構成する画像のうち、インパクト近辺に対応する画像を取得する。   In step S <b> 14, the analysis information acquisition unit 52 acquires an image corresponding to the vicinity of the impact among the images constituting the moving image stored in the analysis information storage unit 71.

ステップS15において、解析評価処理部53は、解析情報から視線の変化を解析する。詳細には、解析評価処理部53は、解析情報取得部52により取得されたインパクト近辺に対応する画像を解析して、視線の変化を解析する。各画像における視線の解析は、視線がどの方向を向いているかを画像から解析する。   In step S15, the analysis evaluation processing unit 53 analyzes the change in the line of sight from the analysis information. Specifically, the analysis evaluation processing unit 53 analyzes the image corresponding to the vicinity of the impact acquired by the analysis information acquisition unit 52, and analyzes the change in the line of sight. In the analysis of the line of sight in each image, the direction in which the line of sight is directed is analyzed from the image.

ステップS16において、解析評価処理部53は、被写体の評価を出力する。詳細には、解析評価処理部53は、解析した視線に基づいて、視線の適否を評価する。視線の適否は、解析された視線の変化及び視線とボールとの位置関係で行う。ゴルフにおいて視線は、変化が少ないことやボールから離れていないことが良いとされているため、視線に変化が少なく、かつ、ボールに近いほど高い評価をする。
解析評価処理部53は、被写体の評価結果を評価情報記憶部72に記憶させる。
In step S16, the analysis evaluation processing unit 53 outputs the evaluation of the subject. Specifically, the analysis evaluation processing unit 53 evaluates the suitability of the line of sight based on the analyzed line of sight. The suitability of the line of sight is determined by the change in the line of sight analyzed and the positional relationship between the line of sight and the ball. In golf, it is considered good that the line of sight has little change or is not separated from the ball. Therefore, the evaluation is high as the line of sight changes little and is closer to the ball.
The analysis evaluation processing unit 53 stores the evaluation result of the subject in the evaluation information storage unit 72.

ステップS17において、出力制御部54は、評価情報記憶部72に記憶される被写体の評価結果に基づいて、解析評価結果を表示するように出力部19を制御する。詳細には、出力制御部54は、解析評価結果として、解析評価処理部53により解析された視線の方向を表示し、更に、評価された視線とボールとの位置関係及び評価に対応する図5や図6等に示すようなアドバイスを表示するように出力部19を制御する。
その後、被写体評価処理は終了する。
In step S <b> 17, the output control unit 54 controls the output unit 19 to display the analysis evaluation result based on the evaluation result of the subject stored in the evaluation information storage unit 72. Specifically, the output control unit 54 displays the direction of the line of sight analyzed by the analysis evaluation processing unit 53 as the analysis evaluation result, and further corresponds to the positional relationship and evaluation between the evaluated line of sight and the ball. The output unit 19 is controlled so as to display advice as shown in FIG.
Thereafter, the subject evaluation process ends.

<変形例>
上述した第1の実施形態では、インパクト時の視線の変化に基づいて被写体の評価を行っていたが、本変形例では、アドレスからフィニッシュまでのスイングの7つの時点(以下、「7つの時点」という。)における視線と、顔の向きについての評価を行うように構成される。
<Modification>
In the first embodiment described above, the subject is evaluated based on the change in the line of sight at the time of impact. However, in this modified example, seven time points of the swing from the address to the finish (hereinafter referred to as “seven time points”). It is configured to evaluate the line of sight and the orientation of the face.

具体的には、解析情報取得部52は、解析情報として、解析情報記憶部71に記憶される動画を構成する画像のうち、7つの時点に対応する画像を取得する。   Specifically, the analysis information acquisition unit 52 acquires, as analysis information, images corresponding to seven time points out of images constituting a moving image stored in the analysis information storage unit 71.

解析評価処理部53は、解析情報取得部52により取得された7つの時点に対応する画像を解析して、視線の変化及び顔の向きを解析する。各画像における視線の解析は、視線がどの方向を向いているかと、顔がどの方向を向いているかを画像から解析する。   The analysis evaluation processing unit 53 analyzes the images corresponding to the seven time points acquired by the analysis information acquisition unit 52, and analyzes the change in the line of sight and the orientation of the face. In the analysis of the line of sight in each image, the direction in which the line of sight is directed and the direction in which the face is directed are analyzed from the image.

解析評価処理部53は、解析した視線及び顔の向きの適否を評価する。視線及び顔の向きの適否は、評価情報記憶部72に記憶される手本となるプロの視線及び顔の向きと一致するか否かで評価する。本例では、手本となるプロの視線及び顔の向きの情報についてはプレーヤと同様の手法で取得する。即ち、予めスイングを撮影して7つの時点における視線の変化及び顔の向きを解析して取得する。なお、比較対象となるプロの視線及び顔の向きの情報については、本例では撮影から解析までを撮像装置1で行って取得したが、外部装置から取得するように構成してもよい。   The analysis evaluation processing unit 53 evaluates the suitability of the analyzed line of sight and face orientation. Whether the line of sight and the orientation of the face are appropriate is evaluated based on whether or not it matches the professional line of sight and the direction of the face as a model stored in the evaluation information storage unit 72. In this example, information on the professional line of sight and face orientation as models is obtained by the same method as the player. That is, a swing is imaged in advance, and changes in line of sight and face orientation at seven time points are analyzed and acquired. Note that the information on the professional line of sight and the orientation of the face to be compared is acquired by performing from the imaging to the analysis in the imaging apparatus 1 in this example, but may be configured to be acquired from an external apparatus.

出力制御部54は、各時点の画像に解析評価処理部53により解析された視線及び顔の向きを表示し、更に、比較対象となったプロの画像を表示し、視線及び顔の向きが一致するか否かの評価を表示するように出力部19を制御する。   The output control unit 54 displays the line of sight and the face direction analyzed by the analysis evaluation processing unit 53 on the image at each time point, and further displays the professional image to be compared, so that the line of sight and the face direction match. The output unit 19 is controlled to display an evaluation of whether or not to do so.

図7は、出力部19に表示される解析評価結果の表示例である。
解析評価結果は、図7(a)乃至(c)の例に示すように、各時点に対応する画像に視線を模式的に表示し、対比可能にお手本となるプロの画像に視線を模式的に示して表示する。
FIG. 7 is a display example of the analysis evaluation result displayed on the output unit 19.
As shown in the examples of FIGS. 7A to 7C, the analysis evaluation results are displayed schematically on the image corresponding to each time point, and the image is schematically displayed on the professional image that can be compared. Is displayed.

図8は、図3の機能的構成を有する図2の撮像装置1が実行する他の変形例における被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザによる入力部18への所定の操作により開始される。
FIG. 8 is a flowchart for explaining the flow of subject evaluation processing in another modification executed by the imaging apparatus 1 of FIG. 2 having the functional configuration of FIG.
The subject evaluation process is started by a predetermined operation on the input unit 18 by the user.

ステップS31において、CPU11は、入力部18からの撮影開始操作があったか否かを判定する。
撮影開始操作がない場合には、ステップS31においてNOと判定されて、撮影開始操作があるまで待機状態となる。
撮影開始操作があった場合には、ステップS31においてYESと判定されて、処理はステップS32に進む。
In step S <b> 31, the CPU 11 determines whether or not there has been a shooting start operation from the input unit 18.
If there is no shooting start operation, it is determined NO in step S31, and a standby state is entered until there is a shooting start operation.
If there is a shooting start operation, YES is determined in step S31, and the process proceeds to step S32.

ステップS32において、撮像制御部51は、撮影を開始するように撮像部16を制御する。撮影された動画は、解析情報記憶部71に記憶される。   In step S32, the imaging control unit 51 controls the imaging unit 16 to start shooting. The captured moving image is stored in the analysis information storage unit 71.

ステップS33において、CPU11は、入力部18からの撮影終了操作があったか否かを判定する。
撮影終了操作がない場合には、ステップS33においてNOと判定されて、撮影終了操作があるまで待機状態となる。
撮影終了操作があった場合には、ステップS33においてYESと判定されて、処理はステップS34に進む。
In step S <b> 33, the CPU 11 determines whether or not a photographing end operation has been performed from the input unit 18.
If there is no shooting end operation, it is determined as NO in step S33, and a standby state is entered until there is a shooting end operation.
If there is a photographing end operation, YES is determined in step S33, and the process proceeds to step S34.

ステップS34において、解析情報取得部52は、解析情報を取得する。詳細には、解析情報取得部52は、解析情報記憶部71に記憶される動画を構成する画像のうち、7つの時点に対応する画像を取得する。   In step S34, the analysis information acquisition unit 52 acquires analysis information. Specifically, the analysis information acquisition unit 52 acquires images corresponding to seven time points out of the images constituting the moving image stored in the analysis information storage unit 71.

ステップS35において、解析評価処理部53は、解析情報取得部52により取得された7つの時点に対応する画像を解析して、視線の変化及び顔の向きを解析する。各画像における視線の解析は、視線がどの方向を向いているかと、顔がどの方向を向いているかを画像から解析する。   In step S <b> 35, the analysis / evaluation processing unit 53 analyzes the images corresponding to the seven time points acquired by the analysis information acquisition unit 52, and analyzes the changes in the line of sight and the face direction. In the analysis of the line of sight in each image, the direction in which the line of sight is directed and the direction in which the face is directed are analyzed from the image.

ステップS36において、CPU11は、入力部18からの比較操作があったか否かを判定する。
比較操作がない場合には、ステップS36においてNOと判定されて、比較操作があるまで待機状態となる。
比較操作があった場合には、ステップS36においてYESと判定されて、処理はステップS37に進む。
In step S <b> 36, the CPU 11 determines whether or not there has been a comparison operation from the input unit 18.
When there is no comparison operation, it is determined as NO in Step S36, and it is in a standby state until there is a comparison operation.
If there is a comparison operation, YES is determined in step S36, and the process proceeds to step S37.

ステップS37において、解析評価処理部53は、視線・顔の向きの比較解析処理を行う。解析評価処理部53は、視線・顔の向きの比較解析処理として、別途スイングを撮影して7つの時点における視線の変化及び顔の向きを解析したプロのお手本画像との比較を行う処理を行う。お手本画像との比較は、各ポイントについて視線が一致しているか、顔の向きが一致しているかを判断して行う。   In step S37, the analysis / evaluation processing unit 53 performs a comparative analysis process of the line of sight / face orientation. The analysis / evaluation processing unit 53 performs comparison processing with a professional model image obtained by separately capturing a swing and analyzing the change in the line of sight and the direction of the face at seven time points, as a comparative analysis process of the line of sight / face orientation. . The comparison with the model image is performed by judging whether the line of sight matches the direction of each point.

ステップS38において、出力制御部54は、解析評価結果を比較表示するように出力部19を制御する。比較表示では、例えば、図7(a)乃至(c)に示すように、各ポイントでのプレーヤとプロの画像とを比較可能に並列的に表示し、さらに、比較結果(視線・顔の向きの一致不一致)も表示する。   In step S <b> 38, the output control unit 54 controls the output unit 19 so as to compare and display the analysis evaluation result. In the comparison display, for example, as shown in FIGS. 7A to 7C, the player and professional images at each point are displayed in parallel so that they can be compared, and the comparison result (line of sight / face orientation) is displayed. Match / mismatch) is also displayed.

なお、本例では、図1(a)に示すように、1台の検出装置である撮像装置1で、7つの時点、並びに各時点での視線及び顔の向きを検出するように構成する。
しかしながら、7つの時点、並びに各時点での視線及び顔の向きの検出はこれに限られない。
In this example, as shown in FIG. 1A, the imaging apparatus 1 that is one detection apparatus is configured to detect seven time points, and the gaze and face orientation at each time point.
However, the detection of the seven time points and the gaze and face orientation at each time point is not limited to this.

図9は、検出手法の他の例を示す模式図である。
図9(a)の例に示すように、スイングの時点の検出と顔の向きの検出に用いる検出装置1Cと、視線の検出に用いる検出装置1Dにより構成してもよい。
また、図9(b)の例に示すように、スイング時点の検出をプレーヤHに取り付けたモーションを検出可能な検出装置1Eで行い、視線及び顔の向きの検出には検出装置1Fを用いるように構成してもよい。
FIG. 9 is a schematic diagram illustrating another example of the detection method.
As shown in the example of FIG. 9A, a detection device 1C used for detection of the time of swing and detection of the orientation of the face and a detection device 1D used for detection of the line of sight may be used.
Further, as shown in the example of FIG. 9B, the detection of the swing time is performed by the detection device 1E capable of detecting the motion attached to the player H, and the detection device 1F is used for detection of the line of sight and the face orientation. You may comprise.

<第2の実施形態>
上述した実施形態においては、視線の変化や顔の向きからフォームの評価として被写体の評価を行うように構成した。本例においては、視線や頭部の変化から集中を評価して被写体の評価を行う。
<Second Embodiment>
In the above-described embodiment, the subject is evaluated as the form evaluation based on the change in the line of sight and the face direction. In this example, the subject is evaluated by evaluating the concentration from changes in the line of sight and the head.

本実施形態における被写体の評価は、本実施形態においては、例えば、ビリヤードを行っているものを被写体とする場合には、キューをボールに当てようとしている場面において集中しているか否かを評価することにより行う。集中の評価は、視線と頭部の動きから行う。即ち、集中の評価は、視線の動きの変化が少なく安定していること、頭部の動きの変化が少なく安定していること基準とする。   In this embodiment, the evaluation of the subject in this embodiment is, for example, evaluating whether or not the subject is concentrating in a scene where the cue is being applied to the ball when the subject is a billiard player. By doing. Concentration is evaluated from the line of sight and head movement. That is, the evaluation of concentration is based on the fact that the change in the movement of the line of sight is stable with little change, and the change in the movement of the head is stable with little change.

図10は、本実施形態における被写体の評価を行っている様子を示した模式図である。
被写体の評価は、図10に示すように、所定の位置から被写体を撮影し、撮影した動画等から視線の動きを評価し、被写体の頭部に設けたセンサ部17からセンシングの結果から頭部の動きを評価する。即ち、撮像装置1では、視線の動きを撮像部16からの出力結果を解析することにより評価し、頭部の動きをセンサ部17からの出力結果を解析することにより行う。
なお、本実施形態においては、頭部の動きを撮像装置1が備えるセンサ部17により検出したがこれに限られず、例えば、外部装置から取得してもよく、頭部の動きを撮像部16からの出力結果から取得するように構成してもよい。
FIG. 10 is a schematic diagram showing a state in which the subject is evaluated in the present embodiment.
As shown in FIG. 10, the evaluation of the subject is performed by photographing the subject from a predetermined position, evaluating the movement of the line of sight from the photographed video and the like, and detecting the head from the sensor unit 17 provided on the subject's head. Evaluate the movement. That is, in the imaging apparatus 1, the movement of the line of sight is evaluated by analyzing the output result from the imaging unit 16, and the movement of the head is performed by analyzing the output result from the sensor unit 17.
In the present embodiment, the movement of the head is detected by the sensor unit 17 included in the imaging apparatus 1, but the present invention is not limited to this. For example, the movement of the head may be acquired from the imaging unit 16. You may comprise so that it may acquire from the output result of.

また、本実施形態において、撮像装置1は、例えば、所定の基準を満たないような悪い評価結果の場合等の評価結果を撮像装置1の出力部19を介して、光や音声や振動等の出力でフィードバックする。
被写体であるビリヤードのプレーヤは、例えば、悪い評価結果には、集中を欠いているとして、プレイの軌道修正等を行う。即ち、プレーヤは、被写体である自己の動作を容易に確認することができる。
また、撮像装置1では、評価結果を保持し、出力部19で表示出力することで、事後的に、被写体の動作を当該動作中でなくとも容易に確認することができる。
Further, in the present embodiment, the imaging apparatus 1 uses the output unit 19 of the imaging apparatus 1 to output an evaluation result such as a bad evaluation result that does not satisfy a predetermined standard, for example, light, sound, vibration, or the like. Feedback on output.
The billiard player, who is the subject, corrects the trajectory of play, for example, assuming that the poor evaluation result lacks concentration. In other words, the player can easily check his / her own motion as the subject.
Further, in the imaging apparatus 1, by holding the evaluation result and displaying it on the output unit 19, it is possible to easily confirm the operation of the subject later even if the operation is not being performed.

本実施形態における機能ブロックは、第1の実施形態の機能ブロックと同様であるため図示を省略する。また、撮像制御部51についても機能が同じであるため説明を省略する。即ち、以下、第1の実施形態と異なる部分のみ説明するものとする。   The functional blocks in this embodiment are the same as the functional blocks in the first embodiment, and are not shown. Also, the imaging control unit 51 has the same function, and therefore description thereof is omitted. That is, only parts different from the first embodiment will be described below.

本実施形態の被写体評価処理とは、撮像部16やセンサ部17から取得した出力結果に基づいて、被写体の評価を行い、評価結果を出力するまでの処理をいう。   The subject evaluation processing of the present embodiment refers to processing from evaluation of a subject based on output results acquired from the imaging unit 16 and the sensor unit 17 until output of the evaluation results.

解析情報取得部52は、撮像部16から出力される動画から、視線の変化方向の情報(以下、「視線情報」という。)と、センサ部17から出力される動画のデータに時間的に対応した加速度情報を解析情報として取得する。   The analysis information acquisition unit 52 temporally corresponds to the information on the change direction of the line of sight (hereinafter referred to as “line of sight information”) from the moving image output from the imaging unit 16 and the moving image data output from the sensor unit 17. The acquired acceleration information is acquired as analysis information.

解析評価処理部53は、解析情報記憶部71に記憶される解析情報に基づいて、被写体の解析及び解析結果の評価を行う。
具体的には、解析評価処理部53は、解析情報のうち動画を構成する画像から視線の動きを解析する。詳細には、解析評価処理部53は、動画のうち、解析を行う箇所を構成する画像(例えば、キューでボールを打つ姿勢になった場面等に対応する画像)における視線の動きを解析する。
視線の動きの解析は、本実施形態においては、視線の静止時間を計測し、当該視線の静止時間が所定の時間(以下、「第1の静止時間」という。)に達するまでに要した時間(以下、「第1の所要時間」という。)を導き出すことにより行う。
また、解析評価処理部53は、解析情報のうち解析を行う箇所を構成する画像に対応する時点での加速度情報から頭部の動きを解析する。
頭部の動きの評価は、本実施形態においては、頭部の静止時間を計測し、当該頭部の静止時間が所定の時間(以下、「第2の静止時間」という。)に達するまでに要した時間(以下、「第2の所要時間」という。)を導き出すことにより行う。
The analysis evaluation processing unit 53 performs subject analysis and analysis result evaluation based on the analysis information stored in the analysis information storage unit 71.
Specifically, the analysis evaluation processing unit 53 analyzes the movement of the line of sight from the images constituting the moving image in the analysis information. Specifically, the analysis / evaluation processing unit 53 analyzes the movement of the line of sight in an image (for example, an image corresponding to a scene or the like in a posture where a ball is hit with a cue) that constitutes a portion to be analyzed in a moving image.
In the present embodiment, the movement of the line of sight is measured by measuring the stasis time of the sight line, and the time required until the stasis time of the line of sight reaches a predetermined time (hereinafter referred to as “first rest time”). (Hereinafter referred to as “first required time”).
Further, the analysis evaluation processing unit 53 analyzes the movement of the head from the acceleration information at the time corresponding to the image constituting the portion to be analyzed in the analysis information.
In this embodiment, the movement of the head is evaluated by measuring the stationary time of the head and until the stationary time of the head reaches a predetermined time (hereinafter referred to as “second stationary time”). This is done by deriving the required time (hereinafter referred to as “second required time”).

解析評価処理部53は、視線の動きと頭部の動きの解析結果を各々評価し、当該評価した評価結果を総合的に判断して、被写体の評価を行う。
詳細には、解析評価処理部53は、視線及び頭部の所要時間を時間帯に分けてスコア分けして、視線及び頭部の集中度スコアを決定する。スコア分けの基準は、例えば、静止してから所定の時間に達するまでに要した時間が短ければ短いほど、集中している蓋然性が高いために、高いスコアになるように構成される。
そして、視線及び頭部の集中度スコアから、総合的な集中度のスコアである安定性評価スコアを決定する。
その後、安定性評価スコアが集中の基準値以上であるか否かを判定することで、被写体の評価を行う。安定性評価スコアが基準値以上となった場合には、集中しているとする被写体の評価し、安定性評価スコアが基準値未満である場合には、集中していないとする被写体の評価をする。
The analysis / evaluation processing unit 53 evaluates each analysis result of the movement of the line of sight and the movement of the head, and comprehensively determines the evaluated evaluation results to evaluate the subject.
Specifically, the analysis / evaluation processing unit 53 divides the time required for the line of sight and the head into time zones, and determines the concentration score of the line of sight and the head. The criterion for scoring is configured so that, for example, the shorter the time required to reach a predetermined time after being stationary, the higher the probability of concentration, the higher the score.
Then, a stability evaluation score, which is a score of total concentration, is determined from the gaze and head concentration scores.
Thereafter, the subject is evaluated by determining whether or not the stability evaluation score is equal to or higher than the concentration reference value. If the stability evaluation score is equal to or higher than the reference value, the subject that is concentrated is evaluated. If the stability evaluation score is less than the reference value, the subject that is not concentrated is evaluated. To do.

図11は、各種スコア(集中度スコア及び安定性評価スコア)を示す図である。
本実施形態において、視線及び頭部の各集中度スコアは、図11(a)の例に示すように、予め決定された所要時間と集中度スコアからなるテーブルを参照して決定する。
例えば、集中度スコアは、所要時間が0秒から1秒であった場合には、対応する箇所を参照して100点となるように決定される。
その結果、図11(c)に示すように、視線及び頭部の各集中度スコアが決定される。
FIG. 11 is a diagram showing various scores (concentration score and stability evaluation score).
In this embodiment, each concentration score of the line of sight and the head is determined with reference to a table including predetermined time and concentration score as shown in the example of FIG.
For example, when the required time is from 0 second to 1 second, the concentration score is determined so as to be 100 points with reference to the corresponding portion.
As a result, as shown in FIG. 11C, the concentration scores for the line of sight and the head are determined.

また、本実施形態において、安全性評価スコアは、図11(b)の例に示すように、予め決定された視線の集中度スコアと頭部の集中度スコアからなるテーブルを参照して決定する。
その結果、図11(c)に示すように、安全性評価スコアが決定される。
In this embodiment, as shown in the example of FIG. 11B, the safety evaluation score is determined with reference to a table including a predetermined gaze concentration score and a head concentration score. .
As a result, the safety evaluation score is determined as shown in FIG.

出力制御部54は、解析評価処理部53による被写体の評価結果に基づいて、出力部19における出力を制御する。
具体的には、出力制御部54は、安全性評価スコアが基準値以上であった場合には、集中していると被写体の評価がされて、動作の邪魔をしないようにアナウンスは行わずに、出力部19における出力を行わない。
これに対して、出力制御部54は、安全性評価スコアが基準値未満であった場合には、集中してないと被写体が評価され、注意喚起を促すように、スピーカからの音声、LEDランプからの光、バイブレータからの振動等の出力を行うように出力部19を制御する。
The output control unit 54 controls the output in the output unit 19 based on the evaluation result of the subject by the analysis evaluation processing unit 53.
Specifically, when the safety evaluation score is equal to or higher than the reference value, the output control unit 54 evaluates the subject when concentrating, and does not make an announcement so as not to disturb the operation. The output in the output unit 19 is not performed.
On the other hand, when the safety evaluation score is less than the reference value, the output control unit 54 evaluates the subject if it is not concentrated, so that the voice from the speaker, the LED lamp, The output unit 19 is controlled to output light such as light from the vibrator and vibration from the vibrator.

図12は、図3の機能的構成を有する図2の撮像装置1が実行する第2の実施形態における被写体評価処理の流れを説明するフローチャートである。
被写体評価処理は、ユーザから入力部18への所定の操作により開始される。
FIG. 12 is a flowchart for explaining the flow of subject evaluation processing in the second embodiment executed by the imaging apparatus 1 of FIG. 2 having the functional configuration of FIG.
The subject evaluation process is started by a predetermined operation from the user to the input unit 18.

ステップS51において、撮像制御部51は、撮影を開始するように撮像部16を制御する。   In step S51, the imaging control unit 51 controls the imaging unit 16 to start shooting.

ステップS52において、解析情報取得部52は、解析情報として、撮像部16から出力される動画のデータと、センサ部17から出力される動画のデータに対応した時間帯の加速度情報を取得する。   In step S <b> 52, the analysis information acquisition unit 52 acquires, as analysis information, acceleration data in a time zone corresponding to moving image data output from the imaging unit 16 and moving image data output from the sensor unit 17.

ステップS53において、解析評価処理部53は、安定性評価処理を実行する。安定性評価処理の処理については、後述する。   In step S53, the analysis evaluation processing unit 53 executes stability evaluation processing. The stability evaluation process will be described later.

ステップS54において、解析評価処理部53は、算出した集中度スコアと基準値とを比較する。   In step S54, the analysis evaluation processing unit 53 compares the calculated concentration score with the reference value.

ステップS55において、解析評価処理部53は、算出した集中度スコアが基準値以上であるか否かを判定する。本ステップにおいて、基準値以上と判定されると、集中しているとして被写体の評価がされ、基準値未満であると判定されると、集中していないとして被写体の評価がされる。
基準値未満である場合には、ステップS55においてNOと判定されて、処理はステップS56に進む。
In step S55, the analysis evaluation processing unit 53 determines whether or not the calculated concentration score is greater than or equal to a reference value. In this step, if it is determined that the reference value is equal to or greater than the reference value, the subject is evaluated as being concentrated, and if it is determined to be less than the reference value, the subject is evaluated as not being concentrated.
If it is less than the reference value, NO is determined in step S55, and the process proceeds to step S56.

ステップS56において、出力制御部54は、基準値未満であり、集中していないとして被写体が評価されたために、被写体への注意喚起の意味合いで、出力を行うように出力部19を制御する。   In step S56, the output control unit 54 controls the output unit 19 to perform output in the sense of alerting the subject because the subject is evaluated as being less concentrated than the reference value and not concentrated.

これに対して、基準値以上である場合には、ステップS55においてYESと判定されて、ステップS57に進む。   On the other hand, if it is greater than or equal to the reference value, YES is determined in step S55, and the process proceeds to step S57.

ステップS57において、CPU11は、撮影が終了したか否かを判定する。
撮影が終了していない場合には、ステップS57においてNOと判定されて、処理はステップS52に戻る。
撮影が終了している場合には、ステップS57においてYESと判定されて、被写体評価処理は終了する。
In step S57, the CPU 11 determines whether or not shooting has been completed.
If shooting has not ended, NO is determined in step S57, and the process returns to step S52.
If shooting has been completed, YES is determined in step S57, and the subject evaluation process ends.

図13は、被写体評価処理のうち、安定性評価処理の流れを説明するフローチャートである。   FIG. 13 is a flowchart for explaining the flow of the stability evaluation process in the subject evaluation process.

ステップS71において、解析評価処理部53は、解析情報記憶部71から解析情報のうち視線情報を取得する。具体的には、解析評価処理部53は、ボールをショットしようとしている期間の視線情報を取得する。   In step S <b> 71, the analysis evaluation processing unit 53 acquires line-of-sight information from the analysis information from the analysis information storage unit 71. Specifically, the analysis / evaluation processing unit 53 acquires line-of-sight information for a period in which a ball is about to be shot.

ステップS72において、解析評価処理部53は、取得した各視線情報を解析して、第1の静止時間を計測する。   In step S <b> 72, the analysis / evaluation processing unit 53 analyzes the acquired line-of-sight information and measures the first stationary time.

ステップS73において、解析評価処理部53は、第1の静止時間が基準時間に達するまでに要した時間(第1の所要時間)を算出する。   In step S73, the analysis / evaluation processing unit 53 calculates the time (first required time) required for the first stationary time to reach the reference time.

ステップS74において、解析評価処理部53は、図11(a)に示すようなテーブルに基づいて、算出した第1の静止時間が基準時間に達するまでに要した時間(第1の所要時間)に対応する視線の集中度スコアを決定する。   In step S74, the analysis / evaluation processing unit 53 calculates the time required for the calculated first stationary time to reach the reference time (first required time) based on the table shown in FIG. Determine the concentration score for the corresponding line of sight.

ステップS75において、解析評価処理部53は、解析情報記憶部71から解析情報のうち加速度情報を取得する。具体的には、解析評価処理部53は、視線情報に対応する時間帯の加速度情報を取得する。   In step S <b> 75, the analysis evaluation processing unit 53 acquires acceleration information from the analysis information from the analysis information storage unit 71. Specifically, the analysis evaluation processing unit 53 acquires acceleration information in a time zone corresponding to the line-of-sight information.

ステップS76において、解析評価処理部53は、取得した各加速度情報を解析して、第2の静止時間を計測する。   In step S76, the analysis evaluation processing unit 53 analyzes each acquired acceleration information and measures the second stationary time.

ステップS77において、解析評価処理部53は、第2の静止時間が基準時間に達するまでに要した時間を算出する。   In step S77, the analysis / evaluation processing unit 53 calculates the time required for the second stationary time to reach the reference time.

ステップS78において、解析評価処理部53は、図11(a)に示すようなテーブルに基づいて、算出した第2の静止時間が基準時間に達するまでに要した時間に対応する頭部の集中度スコアを決定する。   In step S78, the analysis evaluation processing unit 53 determines the concentration of the head corresponding to the time required for the calculated second stationary time to reach the reference time based on the table as shown in FIG. Determine the score.

ステップS79において、解析評価処理部53は、図11(b)に示すようなテーブルに基づいて、決定された視線の集中度スコアと頭部の集中度スコアから、安定性評価スコアを決定する。   In step S79, the analysis evaluation processing unit 53 determines a stability evaluation score from the determined gaze concentration score and head concentration score based on the table shown in FIG. 11B.

以上のように構成される撮像装置1は、解析情報取得部52と、解析評価処理部53と、を備える。
解析情報取得部52は、動作の評価対象となる人物の視線の情報である解析情報を取得する。
解析評価処理部53は、解析情報取得部52により取得された解析情報に基づいて、人物の動作の評価を行う。
これにより、撮像装置1においては、対象者の視線の状態が被写体の動作に影響を与えるため、対象者の動作を評価することができるようになる。
ひいては、撮像装置1においては、対象者の動作を当該動作中でなくとも客観的に容易に確認することができるようになる。
The imaging device 1 configured as described above includes an analysis information acquisition unit 52 and an analysis evaluation processing unit 53.
The analysis information acquisition unit 52 acquires analysis information that is information on the line of sight of a person who is an object of motion evaluation.
The analysis evaluation processing unit 53 evaluates the movement of the person based on the analysis information acquired by the analysis information acquisition unit 52.
Thereby, in the imaging device 1, since the state of the subject's line of sight affects the motion of the subject, the motion of the subject can be evaluated.
As a result, in the imaging device 1, the operation of the subject can be easily and objectively confirmed even during the operation.

解析情報取得部52は、複数の画像を取得する。
解析評価処理部53は、取得した複数の画像中の各画像から視線の情報を取得する。また、解析評価処理部53は、解析情報取得部52により取得された各画像の視線の情報同士を比較し、比較結果に応じた動作の評価を行う。
なお、上述した実施形態においては、撮像部16から、画像を取得するように構成したが、外部装置等から画像を取得するように構成してもよい。
したがって、撮像装置1においては、例えば、お手本となる画像と比較をして評価を行うことができる。
The analysis information acquisition unit 52 acquires a plurality of images.
The analysis evaluation processing unit 53 acquires line-of-sight information from each of the acquired images. The analysis evaluation processing unit 53 compares the line-of-sight information of each image acquired by the analysis information acquisition unit 52, and evaluates the operation according to the comparison result.
In the above-described embodiment, an image is acquired from the imaging unit 16, but an image may be acquired from an external device or the like.
Therefore, in the imaging apparatus 1, for example, evaluation can be performed by comparing with an image as a model.

また、解析情報取得部52は、人物の顔の向きの情報又は頭の位置の情報を解析情報として取得する。
また、解析評価処理部53は、解析された人物の顔の向きの情報又は頭の情報に基づいて、人物の動作の評価を行う。
これにより、撮像装置1では、更に補強的な要素が加わることで、対象の動作の評価の精度を高めることができる。
The analysis information acquisition unit 52 acquires information on the face direction of the person or information on the position of the head as analysis information.
Further, the analysis evaluation processing unit 53 evaluates the movement of the person based on the analyzed information on the face direction of the person or the information on the head.
Thereby, in the imaging device 1, the precision of evaluation of operation | movement of object can be raised by adding a further reinforcing element.

また、解析評価処理部53は、人物の視線の状態として、視線の変化又は特定対象と視線との位置関係を解析する。また、解析評価処理部53は、視線の変化が少ない、又は特定対象と視線とが近いほど人物の動作を高く評価する。
これにより、撮像装置1では、更に、対象の動作の評価の精度を高めることができる。
Further, the analysis evaluation processing unit 53 analyzes the change in the line of sight or the positional relationship between the specific target and the line of sight as the state of the line of sight of the person. In addition, the analysis evaluation processing unit 53 evaluates a person's movement higher as the change in the line of sight is small or the specific target is closer to the line of sight.
Thereby, in the imaging device 1, the accuracy of the evaluation of the target operation can be further increased.

また、解析評価処理部53は、被写体の動作の評価を行う構成要素を評価する。
また、解析評価処理部53は、構成要素の評価を統合する。
また、解析評価処理部53は、統合された構成要素の評価から人物の評価を行う。
これにより、撮像装置1においては、各構成要素の評価に基づいて、総合的な評価を行うことができ、質の高い評価を行うことができる。
Further, the analysis evaluation processing unit 53 evaluates a component that evaluates the motion of the subject.
In addition, the analysis evaluation processing unit 53 integrates the evaluation of the constituent elements.
The analysis evaluation processing unit 53 evaluates a person based on the evaluation of the integrated component.
Thereby, in the imaging device 1, comprehensive evaluation can be performed based on evaluation of each component, and high quality evaluation can be performed.

また、撮像装置1は、解析評価処理部53による被写体の動作の評価に対応したアドバイス情報を出力制御時に生成する出力制御部54を備える。
これにより、撮像装置1では、解析して評価した結果に対するアドバイスを提供することができる。
In addition, the imaging apparatus 1 includes an output control unit 54 that generates advice information corresponding to the evaluation of the motion of the subject by the analysis evaluation processing unit 53 during output control.
Thereby, in the imaging device 1, the advice with respect to the result analyzed and evaluated can be provided.

また、撮像装置1は、出力制御部54により出力制御時に生成されたアドバイス情報を出力する出力部19を備える。
これにより、撮像装置1では、評価結果に対するアドバイス情報を自機で表示出力することができる。
The imaging apparatus 1 further includes an output unit 19 that outputs advice information generated during output control by the output control unit 54.
As a result, the imaging apparatus 1 can display and output advice information for the evaluation result by itself.

また、撮像装置1は、解析評価処理部53による被写体の動作の評価を対象者である本人に音や振動等で報知する出力部19を備える。
これにより、撮像装置1では、プレーヤがプレイ中である場合にも、例えば、ネガティブな評価がされたときに報知することで、視線を動かすことなくプレイを中断せずに注意喚起することができる。
In addition, the imaging apparatus 1 includes an output unit 19 that notifies the subject person of the evaluation of the motion of the subject by the analysis evaluation processing unit 53 by sound, vibration, or the like.
Thereby, in the imaging device 1, even when the player is playing, for example, by notifying when a negative evaluation is made, it is possible to call attention without moving the line of sight and without interrupting the play. .

また、解析情報取得部52は、撮像部16により撮像された画像から解析情報として取得する。
これにより、撮像装置1では、他機器を用いずに、自機で解析情報の取得から評価までを一貫して行うことができる。
Further, the analysis information acquisition unit 52 acquires as analysis information from the image captured by the imaging unit 16.
As a result, the imaging apparatus 1 can consistently perform analysis information acquisition and evaluation by itself without using other devices.

なお、本発明は、上述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。   In addition, this invention is not limited to the above-mentioned embodiment, The deformation | transformation in the range which can achieve the objective of this invention, improvement, etc. are included in this invention.

上述の実施形態では、被写体の評価をゴルフやビリヤードのプレーヤを対象とした例にしたがこれに限られない。
図14は、被写体の評価の他の例を示す模式図である。
図14(a)の例に示すような野球のピッチングや図14(b)に示すようなバッティングにおける被写体の評価に用いることもできる。
具体的には、上述した被写体の動作は、ゴルフ、ビリヤード又は野球のスポーツにおけるプレーヤの動作である。
In the above-described embodiment, the evaluation of the subject is an example for golf or billiard players, but is not limited thereto.
FIG. 14 is a schematic diagram illustrating another example of subject evaluation.
It can also be used to evaluate a subject in baseball pitching as shown in the example of FIG. 14 (a) or batting as shown in FIG. 14 (b).
Specifically, the motion of the subject described above is the motion of the player in golf, billiards or baseball sports.

また、上述の実施形態では、プレーヤを撮影して被写体となっていることが前提として説明をしたがこれに限られない。視線や顔の向き検出を画像解析に寄らずに行った場合には、検出結果に基づいてプレーヤの評価を行うように構成する。   In the above-described embodiment, the description has been made on the assumption that the player is photographed and becomes a subject. However, the present invention is not limited to this. In the case where gaze and face direction detection is performed without performing image analysis, the player is evaluated based on the detection result.

また、上述の実施形態では、本発明が適用される撮像装置1は、デジタルカメラを例として説明したが、特にこれに限定されない。
例えば、本発明は、被写体評価処理機能を有する電子機器一般に適用することができる。具体的には、例えば、本発明は、ノート型のパーソナルコンピュータ、プリンタ、テレビジョン受像機、ビデオカメラ、携帯型ナビゲーション装置、携帯電話機、スマートフォン、ポータブルゲーム機等に適用可能である。
In the above-described embodiment, the imaging apparatus 1 to which the present invention is applied has been described using a digital camera as an example, but is not particularly limited thereto.
For example, the present invention can be applied to general electronic devices having a subject evaluation processing function. Specifically, for example, the present invention can be applied to a notebook personal computer, a printer, a television receiver, a video camera, a portable navigation device, a mobile phone, a smartphone, a portable game machine, and the like.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図2の機能的構成は例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行できる機能が撮像装置1に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図2の例に限定されない。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
The series of processes described above can be executed by hardware or can be executed by software.
In other words, the functional configuration of FIG. 2 is merely an example and is not particularly limited. That is, it is sufficient that the imaging apparatus 1 has a function capable of executing the above-described series of processing as a whole, and what functional blocks are used to realize this function is not particularly limited to the example of FIG.
In addition, one functional block may be constituted by hardware alone, software alone, or a combination thereof.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えば汎用のパーソナルコンピュータであってもよい。
When a series of processing is executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer incorporated in dedicated hardware. The computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose personal computer.

このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図1のリムーバブルメディア31により構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。リムーバブルメディア31は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk),Blu−ray(登録商標) Disc(ブルーレイディスク)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図2のROM12や、図2の記憶部20に含まれるハードディスク等で構成される。   The recording medium including such a program is not only constituted by the removable medium 31 of FIG. 1 distributed separately from the apparatus main body in order to provide the program to the user, but also in a state of being incorporated in the apparatus main body in advance. It is comprised with the recording medium etc. which are provided in. The removable medium 31 is composed of, for example, a magnetic disk (including a floppy disk), an optical disk, a magneto-optical disk, or the like. The optical disc is composed of, for example, a CD-ROM (Compact Disk-Read Only Memory), a DVD (Digital Versatile Disc), a Blu-ray (registered trademark) Disc (Blu-ray Disc), and the like. The magneto-optical disk is configured by an MD (Mini-Disk) or the like. In addition, the recording medium provided to the user in a state of being preinstalled in the apparatus main body includes, for example, the ROM 12 in FIG. 2 in which the program is recorded, the hard disk included in the storage unit 20 in FIG.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in time series along the order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

以上、本発明のいくつかの実施形態について説明したが、これらの実施形態は、例示に過ぎず、本発明の技術的範囲を限定するものではない。本発明はその他の様々な実施形態を取ることが可能であり、更に、本発明の要旨を逸脱しない範囲で、省略や置換等種々の変更を行うことができる。これら実施形態やその変形は、本明細書等に記載された発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although several embodiment of this invention was described, these embodiment is only an illustration and does not limit the technical scope of this invention. The present invention can take other various embodiments, and various modifications such as omission and replacement can be made without departing from the gist of the present invention. These embodiments and modifications thereof are included in the scope and gist of the invention described in this specification and the like, and are included in the invention described in the claims and the equivalent scope thereof.

以下に、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[付記1]
動作の評価対象となる人物の視線の情報を取得する第1の取得手段と、
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする情報処理装置。
[付記2]
複数の画像を取得する画像取得手段を更に備え、
前記第1の取得手段は、前記画像取得手段により取得された複数の画像中の各画像から前記視線の情報を取得し、
前記評価手段は、
前記第1の取得手段により取得された各画像の前記視線の情報同士を比較する比較手段を更に有し、
前記比較手段による比較結果に応じた前記動作の評価を行う、
ことを特徴とする付記1に記載の情報処理装置。
[付記3]
前記人物の顔の向きの情報又は頭の位置の情報を取得する第2の取得手段を更に備え、
前記評価手段は、前記第1の取得手段により取得された視線の情報と、前記第2の取得手段により取得された顔の向きの情報又は頭の位置の情報に基づいて、前記人物の動作の評価を行う、
ことを特徴とする付記1又は2に記載の情報処理装置。
[付記4]
前記人物の視線の状態として、視線の変化又は特定対象と視線との位置関係を解析する解析手段を更に備え、
前記評価手段は、前記視線の変化が少ない、又は特定対象と視線とが近いほど前記人物の動作を高く評価する、
ことを特徴とする付記1乃至3のいずれか1つに記載の情報処理装置。
[付記5]
前記評価手段は、
前記人物の動作の評価を行う構成要素を評価する要素評価手段と、
前記要素評価手段による構成要素の評価を統合する統合手段を更に有し、
前記統合手段により統合された構成要素の評価から前記人物の動作の評価を行う、
ことを特徴とする付記1乃至4のいずれか1つに記載の情報処理装置。
[付記6]
前記評価手段による前記人物の動作の評価に対応したアドバイス情報を生成する生成手段を備える、
ことを特徴とする付記1乃至5のいずれか1つに記載の情報処理装置。
[付記7]
前記生成手段により生成された前記アドバイス情報を出力する出力手段を備える、
ことを特徴とする付記6に記載の情報処理装置。
[付記8]
前記評価手段による前記人物の動作の評価を前記人物に報知する報知手段を備える、
ことを特徴とする付記1乃至5のいずれか1つに記載の情報処理装置。
[付記9]
前記第1の取得手段は、撮像手段で撮像された画像から前記視線の情報として取得する、
ことを特徴とする付記1乃至6のいずれか1つに記載の情報処理装置。
[付記10]
前記人物の動作は、ゴルフ、ビリヤード又は野球のスポーツにおけるプレーヤの動作である、
ことを特徴とする付記1乃至9のいずれか1つに記載の情報処理装置。
[付記11]
動作の評価対象となる人物の視線の情報を取得する取得ステップと、
前記取得ステップにおいて取得された視線の情報に基づいて、前記人物の動作の評価を行う評価ステップと、
を含むことを特徴とする情報処理方法。
[付記12]
コンピュータを、
動作の評価対象となる人物の視線の情報を取得する取得手段、
前記取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims at the beginning of the filing of the present application will be appended.
[Appendix 1]
First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
An information processing apparatus comprising:
[Appendix 2]
It further comprises image acquisition means for acquiring a plurality of images,
The first acquisition unit acquires the line-of-sight information from each image in the plurality of images acquired by the image acquisition unit,
The evaluation means includes
A comparison unit that compares the line-of-sight information of each image acquired by the first acquisition unit;
The operation is evaluated according to the comparison result by the comparison means.
The information processing apparatus according to appendix 1, wherein
[Appendix 3]
A second acquisition means for acquiring information on the orientation of the person's face or information on the position of the head;
The evaluation unit is configured to determine the movement of the person based on the line-of-sight information acquired by the first acquisition unit and the face orientation information or the head position information acquired by the second acquisition unit. Do the evaluation,
The information processing apparatus according to appendix 1 or 2, characterized in that:
[Appendix 4]
Analyzing means for analyzing the positional relationship between the gaze change or the specific target and the gaze as the gaze state of the person,
The evaluation means highly evaluates the movement of the person as the change in the line of sight is small, or the specific object and the line of sight are closer.
The information processing apparatus according to any one of supplementary notes 1 to 3, wherein
[Appendix 5]
The evaluation means includes
Element evaluation means for evaluating a component for evaluating the movement of the person;
Further comprising integration means for integrating evaluations of components by the element evaluation means;
Evaluating the movement of the person from the evaluation of the components integrated by the integration means;
The information processing apparatus according to any one of supplementary notes 1 to 4, wherein
[Appendix 6]
A generating unit that generates advice information corresponding to the evaluation of the movement of the person by the evaluating unit;
The information processing apparatus according to any one of supplementary notes 1 to 5, wherein:
[Appendix 7]
Output means for outputting the advice information generated by the generating means;
The information processing apparatus according to appendix 6, wherein:
[Appendix 8]
Informing means for informing the person of the evaluation of the action of the person by the evaluating means,
The information processing apparatus according to any one of supplementary notes 1 to 5, wherein:
[Appendix 9]
The first acquisition unit acquires the line-of-sight information from an image captured by the imaging unit.
The information processing apparatus according to any one of supplementary notes 1 to 6, wherein:
[Appendix 10]
The movement of the person is a movement of a player in golf, billiards or baseball sports.
The information processing apparatus according to any one of appendices 1 to 9, characterized in that:
[Appendix 11]
An acquisition step of acquiring gaze information of a person to be evaluated for movement;
An evaluation step for evaluating the movement of the person based on the line-of-sight information acquired in the acquisition step;
An information processing method comprising:
[Appendix 12]
Computer
Acquisition means for acquiring information on the line of sight of the person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information of the line of sight acquired by the acquisition means;
A program characterized by functioning as

1・・・検出装置(撮像装置),11・・・CPU,12・・・ROM,13・・・RAM,14・・・バス,15・・・入出力インターフェース,16・・・センサ部,17・・・撮像部,18・・・入力部,19・・・出力部,20・・・記憶部,21・・・通信部,22・・・ドライブ,31・・・リムーバブルメディア,51・・・撮像制御部,52・・・解析情報取得部,53・・・解析評価処理部,54・・・出力制御部,71・・・解析情報記憶部,72・・・評価情報記憶部   DESCRIPTION OF SYMBOLS 1 ... Detection apparatus (imaging device), 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Sensor part, 17 ... Imaging unit, 18 ... Input unit, 19 ... Output unit, 20 ... Storage unit, 21 ... Communication unit, 22 ... Drive, 31 ... Removable media, 51. .. Imaging control unit, 52... Analysis information acquisition unit, 53... Analysis evaluation processing unit, 54... Output control unit, 71... Analysis information storage unit, 72.

Claims (12)

動作の評価対象となる人物の視線の情報を取得する第1の取得手段と、
前記第1の取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段と、
を備えることを特徴とする情報処理装置。
First acquisition means for acquiring information on the line of sight of a person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information on the line of sight acquired by the first acquisition means;
An information processing apparatus comprising:
複数の画像を取得する画像取得手段を更に備え、
前記第1の取得手段は、前記画像取得手段により取得された複数の画像中の各画像から前記視線の情報を取得し、
前記評価手段は、
前記第1の取得手段により取得された各画像の前記視線の情報同士を比較する比較手段を更に有し、
前記比較手段による比較結果に応じた前記動作の評価を行う、
ことを特徴とする請求項1に記載の情報処理装置。
It further comprises image acquisition means for acquiring a plurality of images,
The first acquisition unit acquires the line-of-sight information from each image in the plurality of images acquired by the image acquisition unit,
The evaluation means includes
A comparison unit that compares the line-of-sight information of each image acquired by the first acquisition unit;
The operation is evaluated according to the comparison result by the comparison means.
The information processing apparatus according to claim 1.
前記人物の顔の向きの情報又は頭の位置の情報を取得する第2の取得手段を更に備え、
前記評価手段は、前記第1の取得手段により取得された視線の情報と、前記第2の取得手段により取得された顔の向きの情報又は頭の位置の情報に基づいて、前記人物の動作の評価を行う、
ことを特徴とする請求項1又は2に記載の情報処理装置。
A second acquisition means for acquiring information on the orientation of the person's face or information on the position of the head;
The evaluation unit is configured to determine the movement of the person based on the line-of-sight information acquired by the first acquisition unit and the face orientation information or the head position information acquired by the second acquisition unit. Do the evaluation,
The information processing apparatus according to claim 1 or 2.
前記人物の視線の状態として、視線の変化又は特定対象と視線との位置関係を解析する解析手段を更に備え、
前記評価手段は、前記視線の変化が少ない、又は特定対象と視線とが近いほど前記人物の動作を高く評価する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。
Analyzing means for analyzing the positional relationship between the gaze change or the specific target and the gaze as the gaze state of the person,
The evaluation means highly evaluates the movement of the person as the change in the line of sight is small, or the specific object and the line of sight are closer.
The information processing apparatus according to any one of claims 1 to 3.
前記評価手段は、
前記人物の動作の評価を行う構成要素を評価する要素評価手段と、
前記要素評価手段による構成要素の評価を統合する統合手段を更に有し、
前記統合手段により統合された構成要素の評価から前記人物の動作の評価を行う、
ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
The evaluation means includes
Element evaluation means for evaluating a component for evaluating the movement of the person;
Further comprising integration means for integrating evaluations of components by the element evaluation means;
Evaluating the movement of the person from the evaluation of the components integrated by the integration means;
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記評価手段による前記人物の動作の評価に対応したアドバイス情報を生成する生成手段を備える、
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
A generating unit that generates advice information corresponding to the evaluation of the movement of the person by the evaluating unit;
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記生成手段により生成された前記アドバイス情報を出力する出力手段を備える、
ことを特徴とする請求項6に記載の情報処理装置。
Output means for outputting the advice information generated by the generating means;
The information processing apparatus according to claim 6.
前記評価手段による前記人物の動作の評価を前記人物に報知する報知手段を備える、
ことを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
Informing means for informing the person of the evaluation of the action of the person by the evaluating means,
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記第1の取得手段は、撮像手段で撮像された画像から前記視線の情報として取得する、
ことを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
The first acquisition unit acquires the line-of-sight information from an image captured by the imaging unit.
The information processing apparatus according to any one of claims 1 to 6.
前記人物の動作は、ゴルフ、ビリヤード又は野球のスポーツにおけるプレーヤの動作である、
ことを特徴とする請求項1乃至9のいずれか1項に記載の情報処理装置。
The movement of the person is a movement of a player in golf, billiards or baseball sports.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
動作の評価対象となる人物の視線の情報を取得する取得ステップと、
前記取得ステップにおいて取得された視線の情報に基づいて、前記人物の動作の評価を行う評価ステップと、
を含むことを特徴とする情報処理方法。
An acquisition step of acquiring gaze information of a person to be evaluated for movement;
An evaluation step for evaluating the movement of the person based on the line-of-sight information acquired in the acquisition step;
An information processing method comprising:
コンピュータを、
動作の評価対象となる人物の視線の情報を取得する取得手段、
前記取得手段により取得された視線の情報に基づいて、前記人物の動作の評価を行う評価手段、
として機能させることを特徴とするプログラム。
Computer
Acquisition means for acquiring information on the line of sight of the person to be evaluated for movement;
Evaluation means for evaluating the movement of the person based on the information of the line of sight acquired by the acquisition means;
A program characterized by functioning as
JP2013273314A 2013-12-27 2013-12-27 Information processing device, information processing method, and program Pending JP2015126812A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013273314A JP2015126812A (en) 2013-12-27 2013-12-27 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013273314A JP2015126812A (en) 2013-12-27 2013-12-27 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2015126812A true JP2015126812A (en) 2015-07-09
JP2015126812A5 JP2015126812A5 (en) 2017-02-09

Family

ID=53837119

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013273314A Pending JP2015126812A (en) 2013-12-27 2013-12-27 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2015126812A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099416A (en) * 2016-12-21 2018-06-28 カシオ計算機株式会社 Motion analysis apparatus, motion analysis method and program
JP2021115224A (en) * 2020-01-24 2021-08-10 日本電信電話株式会社 Motion performance evaluation device, motion performance evaluation method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009125507A (en) * 2007-11-27 2009-06-11 Panasonic Electric Works Co Ltd Golf improvement support device
US20120051597A1 (en) * 2009-03-03 2012-03-01 The Ohio State University Gaze tracking measurement and training system and method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009125507A (en) * 2007-11-27 2009-06-11 Panasonic Electric Works Co Ltd Golf improvement support device
US20120051597A1 (en) * 2009-03-03 2012-03-01 The Ohio State University Gaze tracking measurement and training system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
川島一明: "ゴルフスイングの動作分析とゴルフプレーヤーの身体特性に関する研究", 博士学位論文(早稲田大学大学院), JPN7017003456, January 2004 (2004-01-01), JP, pages 92 - 99, ISSN: 0003830257 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018099416A (en) * 2016-12-21 2018-06-28 カシオ計算機株式会社 Motion analysis apparatus, motion analysis method and program
JP2021115224A (en) * 2020-01-24 2021-08-10 日本電信電話株式会社 Motion performance evaluation device, motion performance evaluation method and program
JP7306280B2 (en) 2020-01-24 2023-07-11 日本電信電話株式会社 Exercise performance evaluation device, exercise performance evaluation method, and program

Similar Documents

Publication Publication Date Title
JP5754439B2 (en) Information notification apparatus, information notification method, and program
US9017079B2 (en) Information notification apparatus that notifies information of data of motion
JP5754458B2 (en) Moving image extraction apparatus, moving image extraction method, and program
CN105450911B (en) Image processing apparatus, image processing method
CN105407268B (en) Image correction apparatus, method for correcting image and recording medium
JP5842807B2 (en) Image analysis device, information notification device, image analysis method, information notification method, and program
JP2014064110A (en) Image processing device, image processing method, and program
KR20100064162A (en) Apparatus and method for correcting sports posture in digital image processing device
US11388331B2 (en) Image capture apparatus and control method thereof
JP6149365B2 (en) Information generating apparatus, information generating method and program
JP5811654B2 (en) Image processing apparatus, image processing method, and program
JP5733298B2 (en) Display control apparatus, display control method, and program
JP2015126812A (en) Information processing device, information processing method, and program
JP2014187551A (en) Image acquisition device, image acquisition method and program
JP6149891B2 (en) Display control apparatus, display control method, and program
KR20120030181A (en) System and method for analyzing golf swing
JP6384564B2 (en) Image processing apparatus, image processing method, and program
JP2017174094A (en) Image processing device, image processing method, and program
JP2016123637A (en) Image processor, image processing method and program
JP6720509B2 (en) Image evaluation apparatus, image evaluation method and program
JP2019217150A (en) Swing analysis device, swing analysis method, and swing analysis system
JP6168127B2 (en) Image analysis apparatus, image analysis method, and program
JP6372176B2 (en) Image processing apparatus, image processing method, and program
JP6127410B2 (en) Image processing apparatus, image processing method, and program
JP2016126509A (en) Notification control device, notification control method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180302

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703