JP2011194105A - Gazing point measuring device, gazing point measuring method, program, and storage medium - Google Patents

Gazing point measuring device, gazing point measuring method, program, and storage medium Download PDF

Info

Publication number
JP2011194105A
JP2011194105A JP2010065732A JP2010065732A JP2011194105A JP 2011194105 A JP2011194105 A JP 2011194105A JP 2010065732 A JP2010065732 A JP 2010065732A JP 2010065732 A JP2010065732 A JP 2010065732A JP 2011194105 A JP2011194105 A JP 2011194105A
Authority
JP
Japan
Prior art keywords
point
mesh
original
plane
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010065732A
Other languages
Japanese (ja)
Other versions
JP5604923B2 (en
Inventor
Yuji Tsuzuki
勇司 都築
Noriko Yoshioka
典子 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2010065732A priority Critical patent/JP5604923B2/en
Publication of JP2011194105A publication Critical patent/JP2011194105A/en
Application granted granted Critical
Publication of JP5604923B2 publication Critical patent/JP5604923B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform appropriate measurement without a wearer of an eye tracking device unconsciously turning eyes to a marker, and to accurately and automatically measure the position of a gazing point in an original form image of a target object even if the target object is deformed.SOLUTION: In the gazing point measuring device, in a corresponding point retrieval process 31, a real space characteristic point 51a and an original form characteristic point 51b are extracted, and a set of a real space corresponding point 42a and an original form corresponding point 42b are retrieved. In a planar projective transformation matrix computing process 33, a planar projective transformation matrix 44 for planar-projective-transforming coordinates of a visual field image 4 to coordinates of the original form image 3 is output. In a curved face mesh generating process 35, a planar mesh 45 is generated by the planar projective transformation of an original form mesh 43 based on the planar projective transformation matrix 44, and a planar corresponding point 42c is computed by the planar projective transformation of the rear space corresponding point 42a, and a curved face mesh 46 is generated by deforming the planar mesh 45 based on the displacement 54 between the planar corresponding point 42c and the real space corresponding point 42a.

Description

本発明は、アイトラッキング装置を用いて商品等に関する媒体の分析を行うときに、注視点の位置を計測する注視点計測装置等に関するものである。   The present invention relates to a gazing point measurement device or the like that measures the position of a gazing point when a medium relating to a product or the like is analyzed using an eye tracking device.

従来から、商品またはサービスに関するブランドを消費者に対して適切に訴求するために、商品等のパッケージデザイン、パンフレット、リーフレット、およびチラシ等、様々な場所に掲示されるポスターおよび看板等、店頭等で用いられるPOP(Point of purchase advertising)、雑誌および新聞等に掲載する広告、ならびに商品の取扱説明書およびサービスの説明文書など(以下、「訴求媒体」という。)の分析が行われている。
訴求媒体の分析では、消費者の消費行動において、商品の認知から選択、購買、使用(またはサービスの認知から選択、契約、利用)までの行動、心理などを分析し、ブランドの価値が消費者に適切に伝えられているかどうかを把握することが重要である。
Traditionally, in order to appropriately appeal to consumers about brands related to products or services, such as poster designs and signboards posted in various places such as product package designs, brochures, leaflets, and flyers, etc. Analysis of used POP (Point of purchase advertising), advertisements published in magazines, newspapers, etc., and product instruction manuals and service explanation documents (hereinafter referred to as “appeal medium”) is performed.
In the analysis of the appeal medium, the consumer's consumption behavior is analyzed from the product recognition to selection, purchase, use (or service recognition to selection, contract, use), psychology, etc., the brand value is the consumer It is important to know if it is properly communicated to.

訴求媒体の分析を行うための手法の一つとして、アイトラッキングシステムを利用することが挙げられる。アイトラッキングシステムは、消費者の眼球の動きを測定、分析することで、消費者が無意識に行っている行動も含めて、消費者の行動などを解析するシステムである。
例えば、消費者が商品のパンフレットを手に取り、商品を認知するまでの行動などを分析する場合を考える。アイトラッキングシステムによって、パンフレットに対する消費者の視線の注視点、軌跡、視線停留時間などを知ることで、「消費者がパンフレットで伝えたい部分を見ているのか」、「どのような順序でパンフレットを見ているのか」、「パンフレットの中で見ている時間が最も長い部分はどこか」などを把握することができる。
One method for analyzing appeal media is to use an eye tracking system. The eye tracking system is a system for analyzing the behavior of the consumer including the behavior that the consumer is performing unconsciously by measuring and analyzing the movement of the eyeball of the consumer.
For example, consider a case where a consumer takes a product brochure and analyzes the behavior until the consumer recognizes the product. By using the eye tracking system to know the gaze point, trajectory, and gaze stop time of the consumer ’s line of sight with respect to the pamphlet, it is possible to determine whether the consumer is viewing the part that the pamphlet wants to convey. You can see, “Which are you watching?” And “Which part is the longest time in the brochure?”

例えば、頭部装着型のアイトラッキング装置では、顔が向いている方向をカメラによって撮影し、撮影した映像に装着者の視線の注視点をマッピングすることができる。訴求媒体の分析を行うためには、装着者が対象物体のどの位置を見ているのかを示す情報(対象物体内の注視点の位置)が非常に重要であるが、頭部の動きに合わせてカメラも動くため、撮影した映像における対象物体の位置が変化する。その為、対象物体内の注視点の位置は、分析者が目視によって確認、または特定することが一般的である。しかしながら、分析における人的負荷が非常に大きく、時間と費用の面で大きな課題となっている。   For example, in a head-mounted eye tracking device, the direction in which the face is facing can be photographed by a camera, and the gaze point of the wearer's line of sight can be mapped to the photographed image. In order to analyze the appeal medium, information indicating the position of the target object that the wearer is looking at (the position of the gazing point in the target object) is very important. Since the camera also moves, the position of the target object in the captured image changes. For this reason, the position of the gazing point in the target object is generally confirmed or specified by an analyst visually. However, the human load in the analysis is very large, which is a big problem in terms of time and cost.

前述の人的負荷をなくすために、対象物体内の注視点の位置をコンピュータによって自動的に特定する技術がいくつか開発されている。
例えば、特許文献1に記載の技術では、対象物体の四隅にマーカーを付ける。アイカメラによって撮影された映像の1フレーム目からマーカーの座標を認識し、対象物体内の注視点座標に変換するパラメータを算出する。2フレーム目以降は、1フレーム目からのマーカーのずれに合わせて、対象物体内の注視点座標への変換をずらす。
また、例えば、特許文献2に記載の技術では、アイカメラによって撮影された映像のフレームごとにマーカーの座標を認識し、対象物体内の注視点座標に変換するパラメータをフレームごとに算出し直す。
In order to eliminate the above-described human load, several techniques for automatically specifying the position of a gazing point in a target object by a computer have been developed.
For example, in the technique described in Patent Document 1, markers are attached to the four corners of the target object. The coordinates of the marker are recognized from the first frame of the video imaged by the eye camera, and the parameters to be converted into the gazing point coordinates in the target object are calculated. In the second and subsequent frames, the conversion to the gazing point coordinates in the target object is shifted in accordance with the marker shift from the first frame.
Further, for example, in the technique described in Patent Document 2, the coordinates of the marker are recognized for each frame of the video captured by the eye camera, and the parameters to be converted into the gazing point coordinates in the target object are recalculated for each frame.

昭62−53630号公報Sho 62-53630

平3−77533号公報Hei 3-77533

しかしながら、特許文献1に記載の技術では、マーカーの平行移動によるずれにのみ対応している為、頭部や対象物体の回転に対応できない。これに対して、特許文献2に記載の技術では、頭部や対象物体の回転に対応することはできる。しかし、特許文献1および特許文献2に記載の技術では、ともに、対象物体の四隅にマーカーが必要である。マーカーは、画像処理で自動的に認識する必要があるため、目立つ形状や色にする必要がある。マーカーが訴求媒体よりも目立つことから、無意識にマーカーに視線が向いてしまい、適切な計測を行うことができない。また、アイトラッキング装置によって撮影された映像(以下、「視野映像」という。)からマーカーが外れた場合に計測を行うことができない。
更に、特許文献1および特許文献2に記載の技術は、平面かつ変形しない対象物体にしか適用できない。
However, since the technique described in Patent Document 1 supports only the displacement caused by the parallel movement of the marker, it cannot cope with the rotation of the head or the target object. On the other hand, the technique described in Patent Document 2 can cope with the rotation of the head and the target object. However, both of the techniques described in Patent Document 1 and Patent Document 2 require markers at the four corners of the target object. Since the marker needs to be automatically recognized by image processing, it must have a conspicuous shape and color. Since the marker is more conspicuous than the appealing medium, the line of sight unconsciously turns to the marker, and appropriate measurement cannot be performed. In addition, measurement cannot be performed when a marker is removed from an image captured by an eye tracking device (hereinafter referred to as “field-of-view image”).
Furthermore, the techniques described in Patent Document 1 and Patent Document 2 can be applied only to a target object that is flat and does not deform.

前述したように、パンフレットなどの訴求媒体については、消費者が手に取って観察することが通常であり、訴求媒体の端が湾曲したり、訴求媒体の内部に凹凸が生じたりするなど平行移動や回転とは異なる変形が起こる。
一方、訴求媒体の分析を行う際は、レイアウトソフトなどによって作成された訴求媒体のレイアウト画像など、対象物体(=訴求媒体)の原形(変形していない状態)の画像(以下、「原形画像」という。)を準備し、視野映像内のアイマークの位置と対応付けて、原形画像における注視点の位置を特定する。仮に、視野映像における対象物体の変形を無視すると、対象物体の原形画像における注視点の位置は正確に特定することができない。
従って、シート、紙、フィルムなど剛性が低い素材の訴求媒体の分析においては、依然として、分析者が目視によって視野映像と原形画像を比較し、原形画像における注視点の位置の特定をしなくてはならない。
As mentioned above, for appealing media such as pamphlets, it is normal for consumers to pick up and observe, and the edges of the appealing media are curved or the inside of the appealing media is uneven. Deformation different from rotation occurs.
On the other hand, when analyzing the appeal medium, the original image (hereinafter referred to as “original image”) of the target object (= appeal medium) such as the layout image of the appeal medium created by layout software or the like. And the position of the gazing point in the original image is specified in association with the position of the eye mark in the visual field image. If the deformation of the target object in the visual field image is ignored, the position of the gazing point in the original image of the target object cannot be specified accurately.
Therefore, in the analysis of appealing media of low-rigidity materials such as sheets, paper, and films, the analyst still has to visually compare the visual field image with the original image and specify the position of the gazing point in the original image. Don't be.

本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、アイトラッキング装置の装着者の視線が無意識にマーカーに向いてしまうことがなく、視野映像からマーカーが外れても適切な計測を行うことができる注視点計測装置等を提供することである。また、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる注視点計測装置等を提供することである。   The present invention has been made in view of the above-described problems, and the purpose of the present invention is to prevent the eye gaze of the wearer of the eye tracking device from unconsciously facing the marker, so that the marker deviates from the visual field image. Is to provide a gaze point measuring device or the like that can perform appropriate measurement. In addition, when the target object is a low-rigidity appeal medium, even if the target object is deformed, it is possible to automatically and accurately measure the position of the point of interest in the original image of the target object. It is to provide a device or the like.

前述した目的を達成するために第1の発明は、アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測装置であって、前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索手段と、前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出手段と、を具備することを特徴とする注視点計測装置である。
第1の発明では、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。
In order to achieve the above-described object, the first invention relates to the original image of the target object included in the visual field image in association with the position of the eye mark in the visual field image that is an image captured by the eye tracking device. A gaze point measuring apparatus for measuring a position of a viewpoint, wherein a real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and the set of the real space feature points and Based on the set of original feature points, as a set of corresponding points for associating the visual field image with the original image, corresponding to the real space corresponding point of the visual field image and original correspondence corresponding point of the original image Corresponding point search means for searching for a set of points, and plane projection conversion of the coordinates of the visual field image to the coordinates of the original image based on a set of the set of the corresponding points of the real space and the original shape A transformation matrix calculation unit configured to calculate a plane projective transformation matrix, a gazing point measuring apparatus characterized by comprising a.
In the first invention, since a marker for specifying the position of the gazing point is unnecessary, the wearer of the eye tracking device does not unintentionally turn his / her line of sight to the marker, and appropriate measurement can be performed.

第1の発明は、前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成手段と、前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成手段と、前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成手段と、を更に具備することが望ましい。
これによって、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる。
According to a first aspect of the present invention, there is provided an original mesh generating means for generating an original mesh that is a mesh of the original image, and planar projection transformation based on the planar projection transformation matrix with respect to the original mesh so that the planar mesh of the visual field image is obtained. A plane mesh generation means for generating a plane corresponding point by performing the plane projective transformation on the real space corresponding point, and based on a positional deviation between the plane corresponding point and the real space corresponding point It is desirable to further comprise curved surface mesh generating means for generating a curved surface mesh of the visual field image by deforming a planar mesh.
Accordingly, when the appeal medium made of a material having low rigidity is used as the target object, the position of the gazing point in the original image of the target object can be accurately and automatically measured even when the target object is deformed.

また、第1の発明における前記曲面メッシュ生成手段は、前記平面対応点と前記実空間対応点との位置ずれと変形の複雑度とを含む判定式に基づいて前記平面メッシュを繰り返し変形することで、最適な前記曲面メッシュを生成することが望ましい。
これによって、滑らかな変形によって位置ずれの修正を行うことができる。
Further, the curved mesh generation means in the first invention repeatedly deforms the planar mesh based on a determination formula including a positional shift between the plane corresponding point and the real space corresponding point and a deformation complexity. It is desirable to generate the optimal curved mesh.
As a result, the displacement can be corrected by smooth deformation.

また、第1の発明における前記曲面メッシュ生成手段は、例えば、前記平面対応点と前記実空間対応点との位置ずれが閾値よりも大きい対応点の組は、前記判定式の算出処理に採用しない。これによって、誤って対応づけられた可能性が高い対応点の組を除外して、判定式の算出処理に採用する対応点の組を選択することができる。
この場合、前記閾値は、前記平面メッシュの変形を繰り返すごとに小さくしていくことが望ましい。これによって、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点の組を使用して適切な変形を行うことができる。
Further, the curved surface mesh generation means in the first invention does not employ, for example, a pair of corresponding points whose positional deviation between the plane corresponding points and the real space corresponding points is larger than a threshold value in the calculation processing of the determination formula. . Accordingly, it is possible to select a pair of corresponding points to be employed in the determination formula calculation process by excluding a pair of corresponding points that are highly likely to be associated by mistake.
In this case, it is preferable that the threshold value is decreased every time the deformation of the planar mesh is repeated. Thereby, in each case of the beginning of the repetition and the end of the repetition, an appropriate deformation can be performed using an appropriate set of corresponding points.

また、第1の発明における前記曲面メッシュ生成手段は、例えば、前記平面対応点と前記実空間対応点との位置ずれが大きい方から一定の数の対応点の組は、前記判定式の算出処理に採用しない。これによって、誤って対応づけられた可能性が高い対応点の組を除外して、判定式の算出処理に採用する対応点の組を選択することができる。
この場合、前記一定の数は、前記平面メッシュの変形を繰り返すごとに増やしていくことが望ましい。これによって、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点の組を使用して適切な変形を行うことができる。
Further, the curved surface mesh generation means according to the first aspect of the invention includes, for example, a process of calculating the determination formula using a fixed number of corresponding points from the one having a larger positional deviation between the plane corresponding points and the real space corresponding points. Not adopted for. Accordingly, it is possible to select a pair of corresponding points to be employed in the determination formula calculation process by excluding a pair of corresponding points that are highly likely to be associated by mistake.
In this case, it is desirable to increase the certain number every time the deformation of the planar mesh is repeated. Thereby, in each case of the beginning of the repetition and the end of the repetition, an appropriate deformation can be performed using an appropriate set of corresponding points.

また、第1の発明は、前記視野映像内のアイマークを含む前記平面メッシュまたは前記曲面メッシュの要素と対応する前記原形メッシュの要素が、前記注視点を含むものとして前記注視点の位置を特定する注視点位置特定手段、を更に具備することが望ましい。
これによって、注視点を含む原形メッシュの要素を注視点の位置として特定することができる。注視点の位置は、メッシュの大きさを細かく設定することで、より詳細に特定することができる。
In the first invention, the position of the gazing point is specified on the assumption that the element of the original mesh corresponding to the element of the planar mesh or the curved mesh including the eye mark in the visual field image includes the gazing point. It is desirable to further include a gazing point position specifying means.
Thereby, the element of the original mesh including the gazing point can be specified as the position of the gazing point. The position of the gazing point can be specified in more detail by finely setting the size of the mesh.

第2の発明は、アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測方法であって、前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索ステップと、前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出ステップと、を含むことを特徴とする注視点計測方法である。
第2の発明では、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。
According to a second aspect of the present invention, a gaze point that measures a position of a gaze point in an original image of a target object included in the field-of-view image in association with a position of an eye mark in the field-of-view image that is a video photographed by the eye tracking device. A measurement method that extracts a real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image, and is based on the set of the real space feature points and the set of the original feature points As a set of corresponding points for associating the visual field image with the original image, corresponding points for searching a set of corresponding points of the real image corresponding to the visual field image and a corresponding point of the original shape corresponding to the original image Based on the search step and a set of the real space corresponding points and the original corresponding points, a plane projective transformation matrix for plane projecting the coordinates of the visual field image to the coordinates of the original image is calculated. A transformation matrix calculation step, a gazing point measuring method, which comprises a.
In the second invention, since a marker for specifying the position of the gazing point is not necessary, the wearer of the eye tracking device does not unintentionally point the line of sight to the marker, and appropriate measurement can be performed.

第2の発明は、前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成ステップと、前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成ステップと、前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成ステップと、を更に含むことが望ましい。
これによって、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる。
According to a second aspect of the present invention, there is provided an original mesh generation step of generating an original mesh that is a mesh of the original image, and planar projection transformation based on the planar projection transformation matrix is performed on the original mesh so that the planar mesh of the visual field image A plane mesh generation step of generating a plane corresponding point by performing the plane projective transformation on the real space corresponding point, and based on a positional deviation between the plane corresponding point and the real space corresponding point Preferably, the method further includes a curved mesh generation step of generating a curved mesh of the visual field image by deforming the planar mesh.
Accordingly, when the appeal medium made of a material having low rigidity is used as the target object, the position of the gazing point in the original image of the target object can be accurately and automatically measured even when the target object is deformed.

第3の発明は、コンピュータを第1の発明の注視点計測装置として機能させるためのプログラムである。
ネットワークを介して第3の発明を配布し、汎用的なコンピュータにインストールすることで、第1の発明の注視点計測装置を提供することができる。
The third invention is a program for causing a computer to function as the gazing point measuring device of the first invention.
By distributing the third invention through a network and installing it on a general-purpose computer, the gaze point measuring device of the first invention can be provided.

第4の発明は、コンピュータを第1の発明の注視点計測装置として機能させるためのプログラムを記憶したコンピュータ読取可能な記憶媒体である。
汎用的なコンピュータが備える記憶媒体読取装置に第4の発明を装着し、汎用的なコンピュータに第4の発明が記憶するプログラムをインストールすることで、第1の発明の注視点計測装置を提供することができる。
A fourth invention is a computer-readable storage medium storing a program for causing a computer to function as the gazing point measuring device of the first invention.
A gazing point measurement device according to the first invention is provided by mounting the fourth invention on a storage medium reader provided in a general-purpose computer and installing the program stored in the fourth invention in a general-purpose computer. be able to.

本発明により、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、視野映像からマーカーが外れても適切な計測を行うことができる注視点計測装置等を提供することができる。また、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる注視点計測装置等を提供することができる。   According to the present invention, it is possible to provide a gaze point measuring device and the like capable of performing appropriate measurement even when the eye tracking device wearer does not unintentionally turn his / her line of sight to the marker and the marker is removed from the visual field image. it can. In addition, when the target object is a low-rigidity appeal medium, even if the target object is deformed, it is possible to automatically and accurately measure the position of the point of interest in the original image of the target object. A device or the like can be provided.

本発明に係る注視点計測システムの概要を示す図The figure which shows the outline | summary of the gaze point measuring system which concerns on this invention 原形画像3と視野映像4の模式図Schematic diagram of original image 3 and visual field image 4 注視点計測装置1のハードウエア構成図Hardware configuration diagram of gaze point measuring device 1 アイトラッキング装置2のハードウエア構成図Hardware configuration diagram of eye tracking device 2 注視点計測装置1に係るデータと処理の流れを示す図The figure which shows the data concerning the gaze point measuring device 1, and the flow of a process 対応点検索処理31を説明する図The figure explaining the corresponding point search process 31 原形メッシュ43の模式図Schematic diagram of original mesh 43 平面射影変換行列算出処理33の流れを示すフローチャートThe flowchart which shows the flow of the plane projection transformation matrix calculation process 33 平面射影変換行列44の一例を示す図The figure which shows an example of the plane projection transformation matrix 44 平面射影変換行列44の一例を示す図The figure which shows an example of the plane projection transformation matrix 44 平面メッシュ生成処理34、曲面メッシュ生成処理35の流れを示すフローチャートThe flowchart which shows the flow of the plane mesh generation process 34 and the curved surface mesh generation process 35 平面メッシュ45の一例を示す図The figure which shows an example of the plane mesh 45 実空間対応点42aと平面対応点42cとの位置ずれ54を説明する図The figure explaining position shift 54 of real space corresponding point 42a and plane corresponding point 42c 曲面メッシュ46の一例を示す図The figure which shows an example of the curved surface mesh 46 注視点位置48の算出処理の一例を説明する図The figure explaining an example of a calculation process of the gaze point position 48 判定式の算出処理に採用する対応点の組の選択処理の第1の例を示すフローチャートThe flowchart which shows the 1st example of the selection process of the corresponding point group employ | adopted as calculation processing of a judgment formula 判定式の算出処理に採用する対応点の組の選択処理の第2の例を示すフローチャートThe flowchart which shows the 2nd example of the selection process of the corresponding point group employ | adopted as calculation processing of a judgment formula

以下図面に基づいて、本発明の実施形態を詳細に説明する。
図1は、本発明に係る注視点計測システムの概要を示す図である。図2は、原形画像3と視野映像4の模式図である。
図1に示すように、本発明に係る注視点計測システムは、注視点計測装置1、アイトラッキング装置2等から構成される。
本発明に係る注視点計測システムは、図2に示す対象物体5が、剛性が低い素材の訴求媒体であるときに最適である。本発明によって訴求媒体の注視点計測を行うことで、訴求媒体の分析における人的負荷が飛躍的に軽減される。ここで、剛性が低い素材とは、人力によって容易に変形できる程度の素材を意味する。剛性が低い素材の一例としては、シート、紙、フィルムなどが挙げられるが、これらの例に限定されるわけではない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an outline of a gazing point measurement system according to the present invention. FIG. 2 is a schematic diagram of the original image 3 and the visual field image 4.
As shown in FIG. 1, the gazing point measurement system according to the present invention includes a gazing point measurement device 1, an eye tracking device 2, and the like.
The gazing point measurement system according to the present invention is optimal when the target object 5 shown in FIG. 2 is an appeal medium made of a material having low rigidity. By performing the gaze point measurement of the appeal medium according to the present invention, the human burden in analyzing the appeal medium is drastically reduced. Here, a material having low rigidity means a material that can be easily deformed by human power. Examples of the material having low rigidity include sheets, paper, and films, but are not limited to these examples.

注視点計測装置1は、アイトラッキング装置2によって撮影された映像である視野映像4内のアイマーク6の位置と対応付けて、対象物体5の静止画像である原形画像3における注視点7の位置を計測する。
原形画像3とは、対象物体5の原形の画像、すなわち人力などによって変形されていない画像である。原形画像3は、文字、図形、記号、写真などを含む。対象物体5が訴求媒体の場合、原形画像3は、例えば、レイアウトソフトをインストールしたコンピュータによって生成されるレイアウト画像である。原形画像3は、注視点計測装置1に格納されている。
The gazing point measurement device 1 associates the position of the gazing point 7 in the original image 3 that is a still image of the target object 5 with the position of the eye mark 6 in the field-of-view image 4 that is an image taken by the eye tracking device 2. Measure.
The original image 3 is an original image of the target object 5, that is, an image that is not deformed by human power or the like. The original image 3 includes characters, figures, symbols, photographs, and the like. When the target object 5 is an appeal medium, the original image 3 is a layout image generated by a computer in which layout software is installed, for example. The original image 3 is stored in the gazing point measurement apparatus 1.

アイトラッキング装置2は、例えば、頭部装着型であって、装着者の顔が向いている方向をカメラによって撮影し、撮影した視野映像4に装着者の視線の注視点をアイマークとしてマッピングする。撮影した視野映像4は、注視点計測装置1に送信される。   The eye tracking device 2 is, for example, a head-mounted type, which captures a direction in which the wearer's face is facing by a camera, and maps the gaze point of the wearer's line of sight as an eye mark on the captured visual field image 4. . The captured visual field image 4 is transmitted to the gazing point measurement apparatus 1.

図2に示すように、原形画像3は、2次元平面の形状を有する。図2では、原形画像3を模式的に示している。原形画像3の上部の斜線部は、同様の模様および色彩が付されていることを示している。原形画像3内部の矩形は、写真を示している。原形画像3内部の複数の横線は、文章を示している。   As shown in FIG. 2, the original image 3 has a two-dimensional plane shape. FIG. 2 schematically shows the original image 3. The hatched portion at the top of the original image 3 indicates that the same pattern and color are given. A rectangle inside the original image 3 indicates a photograph. A plurality of horizontal lines inside the original image 3 indicate sentences.

また、図2に示すように、視野映像4は、対象物体5を含む。図2では、視野映像4を模式的に示している。視野映像4に含まれる対象物体5は、人力などによって不規則に変形され、端が湾曲したり、訴求媒体の内部に凹凸が生じたりしている。尚、図面を分かりやすくする為、人間の手やテーブルなど、実際には実空間に存在する物体を省略し、対象物体5を除く領域は全て空白としている。   In addition, as shown in FIG. 2, the visual field image 4 includes a target object 5. In FIG. 2, the visual field image 4 is schematically shown. The target object 5 included in the field-of-view image 4 is irregularly deformed by human power or the like, and has a curved end or unevenness in the appeal medium. In order to make the drawing easy to understand, objects such as human hands and tables that are actually present in the real space are omitted, and all areas except the target object 5 are left blank.

アイトラッキング装置2は、視野映像4内において、対象物体5と、その他の物体や背景とを区別することができない。アイトラッキング装置2は、単にアイトラッキング装置2の装着者が視野映像4内のどこを見ているかをアイマーク6としてマッピングするのみである。従って、例えば、装着者が対象物体5から目を離せば、アイマーク6が対象物体5ではない領域にマッピングされるが、アイトラッキング装置2は、装着者が対象物体5から目を離したことは認識できない。   The eye tracking device 2 cannot distinguish the target object 5 from other objects and the background in the visual field image 4. The eye tracking device 2 simply maps, as an eye mark 6, where the wearer of the eye tracking device 2 is looking in the visual field image 4. Therefore, for example, if the wearer keeps an eye on the target object 5, the eye mark 6 is mapped to a region that is not the target object 5, but the eye tracking device 2 indicates that the wearer has taken the eye off the target object 5. Is not recognized.

次に、図3、図4を参照しながら、注視点計測装置1およびアイトラッキング装置2のハードウエア構成について説明する。
図3は、注視点計測装置1のハードウエア構成図である。尚、図3のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
Next, the hardware configuration of the gazing point measurement device 1 and the eye tracking device 2 will be described with reference to FIGS. 3 and 4.
FIG. 3 is a hardware configuration diagram of the gazing point measurement apparatus 1. Note that the hardware configuration of FIG. 3 is an example, and various configurations can be adopted depending on the application and purpose.

注視点計測装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。   The gazing point measurement apparatus 1 includes a control unit 11, a storage unit 12, a media input / output unit 13, a communication control unit 14, an input unit 15, a display unit 16, a peripheral device I / F unit 17, and the like connected via a bus 18. Is done.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。   The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、注視点計測装置1が行う後述する処理を実現する。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
The CPU calls and executes a program stored in the storage unit 12, ROM, recording medium, or the like to a work memory area on the RAM, drives and controls each device connected via the bus 18, and controls the gazing point measurement device 1. The process to be described later is realized.
The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like.
The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the storage unit 12, ROM, recording medium, and the like, and includes a work area used by the control unit 11 for performing various processes.

記憶部12は、HDD(ハードディスクドライブ)であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OS(オペレーティングシステム)に相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。
これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
また、記憶部12には、原形画像3が格納されている。
The storage unit 12 is an HDD (hard disk drive), and stores a program executed by the control unit 11, data necessary for program execution, an OS (operating system), and the like. With respect to the program, a control program corresponding to an OS (operating system) and an application program for causing a computer to execute processing described later are stored.
Each of these program codes is read by the control unit 11 as necessary, transferred to the RAM, read by the CPU, and executed as various means.
The original image 3 is stored in the storage unit 12.

メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。
通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。
The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices.
The communication control unit 14 includes a communication control device, a communication port, and the like, and is a communication interface that mediates communication between a computer and a network, and performs communication control between other computers via the network. The network may be wired or wireless.

入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。
入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。
表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
The input unit 15 inputs data and includes, for example, a keyboard, a pointing device such as a mouse, and an input device such as a numeric keypad.
An operation instruction, an operation instruction, data input, and the like can be performed on the computer via the input unit 15.
The display unit 16 includes a display device such as a liquid crystal panel, and a logic circuit or the like (video adapter or the like) for realizing a video function of the computer in cooperation with the display device.

周辺機器I/F(インタフェース)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器としては、例えば、アイトラッキング装置2等がある。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F (interface) unit 17 is a port for connecting a peripheral device to the computer, and the computer transmits and receives data to and from the peripheral device via the peripheral device I / F unit 17. An example of the peripheral device is the eye tracking device 2. The peripheral device I / F unit 17 is configured by USB, IEEE 1394, RS-232C, or the like, and usually includes a plurality of peripheral devices I / F. The connection form with the peripheral device may be wired or wireless.
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.

図4は、アイトラッキング装置2のハードウエア構成図である。尚、図4のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。   FIG. 4 is a hardware configuration diagram of the eye tracking device 2. Note that the hardware configuration in FIG. 4 is merely an example, and various configurations can be adopted depending on the application and purpose.

アイトラッキング装置2は、制御部21、記憶部22、視野カメラ23、アイマーク検出部24、電源部25、スイッチ26、外部出力部27等が、バス28を介して接続される。   In the eye tracking device 2, a control unit 21, a storage unit 22, a visual field camera 23, an eye mark detection unit 24, a power supply unit 25, a switch 26, an external output unit 27, and the like are connected via a bus 28.

制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。   The control unit 21 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPUは、記憶部22、ROM等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス28を介して接続されたアイトラッキング装置2の各装置を駆動制御現する。
ROMは、不揮発性メモリであり、プログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部22、ROM等からロードしたプログラム、データ、視野カメラ23が撮影した視野映像4、アイマーク検出部24が検出したアイマーク6の位置を示す座標データ等を一時的に保持するとともに、制御部21が各種処理を行う為に使用するワークエリアを備える。
The CPU calls and executes a program stored in the storage unit 22, ROM, or the like in the work memory area on the RAM, and drives and controls each device of the eye tracking device 2 connected via the bus 28.
The ROM is a non-volatile memory and permanently holds programs, data, and the like.
The RAM is a volatile memory, and programs and data loaded from the storage unit 22 and ROM, field-of-view video 4 captured by the field-of-view camera 23, coordinate data indicating the position of the eye mark 6 detected by the eye mark detection unit 24, and the like. And a work area used by the control unit 21 to perform various processes.

記憶部22は、制御部21が実行するプログラム、プログラム実行に必要なデータ等が格納される。各プログラムコードは、制御部21により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。   The storage unit 22 stores a program executed by the control unit 21, data necessary for program execution, and the like. Each program code is read by the control unit 21 as necessary, transferred to the RAM, and read and executed by the CPU.

視野カメラ23は、装着者の顔が向いている方向を撮影する。
アイマーク検出部24は、装着者の眼球を撮影し、撮影された眼球画像から装着者の眼球運動、向き(視線)を解析し、視野映像4にアイマーク6を重ねて記憶するとともに、アイマーク6の位置を示す座標データを記憶する。
The field-of-view camera 23 photographs the direction in which the wearer's face is facing.
The eye mark detection unit 24 shoots the eyeball of the wearer, analyzes the eyeball movement and direction (line of sight) of the wearer from the photographed eyeball image, stores the eyemark 6 on the visual field image 4 and stores it. Coordinate data indicating the position of the mark 6 is stored.

電源部25は、アイトラッキング装置2の起電力を供給する。電源部25は、内蔵型のバッテリでも良いし、外部からの電力を伝送するアダプタでも良い。
スイッチ26は、アイトラッキング装置2の電源のON、OFFや、各種のキャリブレーションなどを行うための入力装置である。
外部出力部27は、視野映像4、アイマーク6の位置を示す座標データなどを外部に出力する。外部出力部27は、有線であっても良いし、無線であっても良い。
The power supply unit 25 supplies the electromotive force of the eye tracking device 2. The power supply unit 25 may be a built-in battery or an adapter that transmits power from the outside.
The switch 26 is an input device for turning on / off the power of the eye tracking device 2 and performing various calibrations.
The external output unit 27 outputs, for example, coordinate data indicating the position of the visual field image 4 and the eye mark 6 to the outside. The external output unit 27 may be wired or wireless.

次に、図5から図17を参照しながら、注視点計測装置1が行う処理について説明する。
図5は、注視点計測装置1に係るデータと処理の流れを示す図である。図5に示すように、注視点計測装置1の制御部11は、対応点検索処理31、原形メッシュ生成処理32、平面射影変換行列算出処理33、平面メッシュ生成処理34、曲面メッシュ生成処理35、注視点位置特定処理36、表示処理37等を実行する。
Next, processing performed by the gazing point measurement apparatus 1 will be described with reference to FIGS.
FIG. 5 is a diagram illustrating a flow of data and processing related to the gazing point measurement apparatus 1. As shown in FIG. 5, the control unit 11 of the gazing point measurement device 1 includes a corresponding point search process 31, an original mesh generation process 32, a plane projection transformation matrix calculation process 33, a plane mesh generation process 34, a curved surface mesh generation process 35, A gazing point position specifying process 36, a display process 37, and the like are executed.

対応点検索処理31では、制御部11は、アイトラッキング装置2から受信する視野映像4、記憶部12に格納されている原形画像3を入力し、視野映像4と原形画像3とを対応づける点である対応点42の組を出力する。   In the corresponding point search process 31, the control unit 11 inputs the visual field image 4 received from the eye tracking device 2 and the original image 3 stored in the storage unit 12, and associates the visual field image 4 with the original image 3. A set of corresponding points 42 is output.

図6は、対応点検索処理31を説明する図である。
対応点検索処理31では、制御部11は、視野映像4の特徴点である実空間特徴点51aおよび原形画像3の特徴点である原形特徴点51bを抽出し、実空間特徴点51aおよび原形特徴点51bの集合に基づいて、視野映像4と原形画像3とを対応づける対応点42の組として、視野映像4の対応点42である実空間対応点42aおよび原形画像3の対応点42である原形対応点42bの組を検索する。
図6では、実空間特徴点51aおよび原形特徴点51bを黒丸によって示している。
FIG. 6 is a diagram for explaining the corresponding point search processing 31.
In the corresponding point search processing 31, the control unit 11 extracts the real space feature point 51a that is the feature point of the visual field image 4 and the original feature point 51b that is the feature point of the original image 3, and the real space feature point 51a and the original feature Based on the set of points 51 b, as a set of corresponding points 42 for associating the visual field image 4 with the original image 3, the corresponding point 42 of the visual field image 4 is the real space corresponding point 42 a and the corresponding point 42 of the original image 3. A set of original corresponding points 42b is searched.
In FIG. 6, the real space feature points 51a and the original feature points 51b are indicated by black circles.

対応点検索処理31を実現する手法としては、例えば、SIFT(Scale Invariant Feature Transfrom)などが知られている。SIFTでは、画像中から特徴点の抽出と特徴量の記述を行う手法である。各特徴点には、スケールと、様々な特徴量を示す128次元ベクトルが定義される。そして、128次元ベクトル間のユークリッド距離を用いて、実空間特徴点51aの集合および原形特徴点51bの集合から対応点42の組を探索する。最も小さい距離の組(実空間特徴点51aと原形特徴点51bの組)が対応点42の組の候補となるが、2番目に小さい距離を持つ組との差が一定の値以上の場合にのみ、対応点42の組と判定する。すなわち、対応点42の組と判定されない実空間特徴点51a、原形特徴点51bが存在する。これは、特徴量の近い特徴点が複数存在する場合、誤って対応づけることを防止するためである。
後述する平面射影変換行列算出処理33の入力としては、4つ以上の対応点42の組が存在すれば良い。対応点42の組が少ないことよりも、誤って対応づけた対応点42の組が存在することの方が、平面射影変換行列算出処理33の精度を低くする為、対応点検索処理31では、出来る限り、誤って対応づけた対応点42の組を出力しないようにする。
As a method for realizing the corresponding point search processing 31, for example, SIFT (Scale Invariant Feature Transform) is known. SIFT is a technique for extracting feature points from an image and describing feature quantities. Each feature point is defined with a scale and a 128-dimensional vector indicating various feature amounts. Then, using the Euclidean distance between the 128-dimensional vectors, a set of corresponding points 42 is searched from the set of real space feature points 51a and the set of original feature points 51b. The pair with the smallest distance (the pair of the real space feature point 51a and the original feature point 51b) is a candidate for the pair of corresponding points 42, but the difference from the pair with the second smallest distance is a certain value or more. Only a pair of corresponding points 42 is determined. That is, there are a real space feature point 51a and an original feature point 51b that are not determined as a set of corresponding points 42. This is to prevent erroneous association when there are a plurality of feature points having similar feature amounts.
As an input of the planar projective transformation matrix calculation process 33 described later, it is sufficient if there are four or more sets of corresponding points 42. In order to reduce the accuracy of the plane projection transformation matrix calculation process 33 when there is a pair of corresponding points 42 that are associated with each other in error rather than when there are fewer pairs of corresponding points 42, in the corresponding point search process 31, As much as possible, a set of corresponding points 42 that are erroneously associated is not output.

SIFTは、対象物体5の回転、サイズ変化、照明変化の影響を受けにくいという効果がある。但し、本発明に係る対応点検索処理31は、SIFTに限定されるわけではなく、適宜公知の技術を適用することができる。   SIFT has an effect that it is not easily affected by the rotation, size change, and illumination change of the target object 5. However, the corresponding point search processing 31 according to the present invention is not limited to SIFT, and a known technique can be applied as appropriate.

図5の説明に戻る。
原形メッシュ生成処理32では、制御部11は、記憶部12に格納されている原形画像3を入力し、原形画像3のメッシュである原形メッシュ43を出力する。メッシュとは、任意の多角形(例えば、三角形、四角形など)を最小単位として、計算対象領域が細かく分割されたものである。メッシュサイズ(正三角形、正四角形などであれば、一辺の大きさ)は、用途に応じてユーザが適宜決定することができる。
原形メッシュ生成処理32では、公知の技術により、例えば、原形画像3を任意の多角形によって等分割する。
Returning to the description of FIG.
In the original mesh generation process 32, the control unit 11 inputs the original image 3 stored in the storage unit 12 and outputs an original mesh 43 that is a mesh of the original image 3. The mesh is obtained by finely dividing a calculation target region with an arbitrary polygon (for example, a triangle, a quadrangle, etc.) as a minimum unit. The mesh size (the size of one side in the case of regular triangles, regular squares, etc.) can be appropriately determined by the user according to the application.
In the original mesh generation process 32, for example, the original image 3 is equally divided into arbitrary polygons by a known technique.

図7は、原形メッシュ43の模式図である。図7に示す原形メッシュ43は、図6に示す原形画像3を三角形によってメッシュ分割したものである。制御部11は、各三角形を識別するIDとともに、各三角形の頂点の座標を記憶部12に記憶する。   FIG. 7 is a schematic diagram of the original mesh 43. The original mesh 43 shown in FIG. 7 is obtained by dividing the original image 3 shown in FIG. The control unit 11 stores the coordinates of the vertices of each triangle in the storage unit 12 together with an ID for identifying each triangle.

図5の説明に戻る。
平面射影変換行列算出処理33では、制御部11は、原形メッシュ生成処理32によって出力される対応点42の組を入力し、実空間対応点42aおよび原形対応点42bの組の集合に基づいて、視野映像4の座標を原形画像3の座標に平面射影変換するための平面射影変換行列44を出力する。
Returning to the description of FIG.
In the plane projective transformation matrix calculation process 33, the control unit 11 inputs a set of corresponding points 42 output by the original mesh generation process 32, and based on a set of a set of real space corresponding points 42a and original corresponding points 42b, A plane projection transformation matrix 44 for planar projection transformation of the coordinates of the visual field image 4 to the coordinates of the original image 3 is output.

前述の対応点検索処理31では、誤って対応づけられた対応点42の組が出力される可能性がある。平面射影変換行列算出処理33において、誤って対応づけられた対応点42の組を採用して計算すると、正確な平面射影変換行列44を得ることはできない。本発明の平面射影変換行列算出処理33では、誤って対応づけられた対応点42の組を採用して計算しないように、例えば、RANSAC(RANdom SAmple Consensus)と呼ばれる手法を用いる。   In the corresponding point search process 31 described above, there is a possibility that a set of corresponding points 42 that are erroneously associated with each other is output. In the plane projective transformation matrix calculation process 33, if a pair of corresponding points 42 that are erroneously associated is employed for calculation, an accurate plane projective transformation matrix 44 cannot be obtained. In the planar projective transformation matrix calculation process 33 of the present invention, for example, a technique called RANSAC (RANdom Sample Sample Consensus) is used so as not to calculate by adopting a pair of corresponding points 42 that are incorrectly associated.

図8は、平面射影変換行列算出処理33の流れを示すフローチャートである。図9、図10は、平面射影変換行列44の一例を示す図である。
図8に示すフローチャートは、基本的には、RANSACによる算出処理を示している。図9、図10において、碁盤の目のように引かれた罫線は、平面の変形や各点の位置を把握し易いように付したものである。
FIG. 8 is a flowchart showing the flow of the planar projective transformation matrix calculation process 33. 9 and 10 are diagrams illustrating an example of the planar projective transformation matrix 44.
The flowchart shown in FIG. 8 basically shows calculation processing by RANSAC. In FIG. 9 and FIG. 10, ruled lines drawn like a grid are attached so that it is easy to grasp the deformation of the plane and the position of each point.

制御部11は、全ての対応点42の組の中から平面射影変換行列44の計算に採用する点を乱数によって決定する(S101)。
図9、図10では、視野映像4における実空間対応点42aが、番号が付された正方形によって示されている。図9、図10に示す例では、6つの実空間対応点42aが存在する。制御部11は、平面射影変換行列44の計算に採用する点として、6つの実空間対応点42aの中から、例えば、4つの実空間対応点42aを乱数によって決定する。
図9の例では、「1」、「2」、「3」、「4」の実空間対応点42aを行列計算に採用する点としている。また、図10の例では、「1」、「3」、「4」、「6」の実空間対応点42aを行列計算に採用する点としている。
The control unit 11 determines a point to be adopted for calculation of the plane projective transformation matrix 44 from among a set of all corresponding points 42 (S101).
9 and 10, the real space corresponding point 42a in the visual field image 4 is indicated by a numbered square. In the example shown in FIGS. 9 and 10, there are six real space corresponding points 42a. The control unit 11 determines, for example, four real space corresponding points 42a from among the six real space corresponding points 42a as random points to be employed in the calculation of the planar projective transformation matrix 44 by random numbers.
In the example of FIG. 9, the real space corresponding points 42a of “1”, “2”, “3”, and “4” are used for matrix calculation. In the example of FIG. 10, the real space corresponding points 42a of “1”, “3”, “4”, and “6” are used for matrix calculation.

次に、制御部11は、算出した平面射影変換行列44を用いて、視野映像4の全ての対応点42の組を変換し、原形画像3における変換点52とする(S102)。
図9、図10では、原形画像3における変換点52が、番号が付された正方形によって示されている。また、図9、図10では、後述するS103にて参照される、原形画像3における原形対応点42bが、番号が付された円によって示されている。
Next, the control unit 11 converts the set of all corresponding points 42 of the visual field image 4 using the calculated plane projective transformation matrix 44, and sets the converted points 52 in the original image 3 (S102).
9 and 10, the conversion points 52 in the original image 3 are indicated by numbered squares. 9 and 10, the original corresponding point 42b in the original image 3 referred to in S103 described later is indicated by a numbered circle.

次に、制御部11は、原形対応点42bと位置が一致する変換点52の数を算出する(S103)。ここで、位置が一致するとは、x座標とy座標が完全一致する場合だけでなく、原形対応点42bと変換点52とのユークリッド距離が一定の値以内の場合も含むものとする。また、位置が一致するどうかの比較対象は、変換点52の変換元である実空間対応点42aと対応づけられている原形対応点42bのみとする。
図9、図10では、原形対応点42bと変換点52の位置が一致していることを円と正方形の重なりによって示している。
図9の例では、原形対応点42bと位置が一致する変換点52の数は、「2」の1つだけである。また、図10の例では、原形対応点42bと位置が一致する変換点52の数は、「1」、「3」、「6」の3つである。
Next, the control unit 11 calculates the number of conversion points 52 whose positions coincide with the original corresponding points 42b (S103). Here, “the positions match” includes not only the case where the x coordinate and the y coordinate completely match, but also the case where the Euclidean distance between the original corresponding point 42b and the conversion point 52 is within a certain value. Further, the comparison target of whether the positions match is only the original corresponding point 42b associated with the real space corresponding point 42a that is the conversion source of the conversion point 52.
9 and 10, the positions of the original corresponding point 42 b and the conversion point 52 coincide with each other by overlapping circles and squares.
In the example of FIG. 9, the number of conversion points 52 whose positions coincide with the original corresponding point 42 b is only “2”. In the example of FIG. 10, the number of conversion points 52 whose positions coincide with the original corresponding point 42b is three, “1”, “3”, and “6”.

次に、制御部11は、終了条件を満たすかどうか確認する(S104)。
終了条件は、例えば、繰り返し処理の回数、すなわち、S101からS103までの処理を所定の回数実行することである。
また、終了条件は、例えば、原形対応点42bと位置が一致する変換点52の数、すなわち、S103の算出結果が所定の数を上回ることである。
終了条件を満たさない場合(S104のNo)、制御部11は、S101から繰り返す。
終了条件を満たす場合(S104のYes)、制御部11は、S105に進む。
Next, the control part 11 confirms whether completion | finish conditions are satisfy | filled (S104).
The end condition is, for example, the number of repetition processes, that is, the processes from S101 to S103 are executed a predetermined number of times.
The end condition is, for example, that the number of conversion points 52 whose positions coincide with the original corresponding point 42b, that is, the calculation result of S103 exceeds a predetermined number.
When the termination condition is not satisfied (No in S104), the control unit 11 repeats from S101.
When the end condition is satisfied (Yes in S104), the control unit 11 proceeds to S105.

次に、制御部11は、原形対応点42bと位置が一致する変換点52の数が最も多い平面射影変換行列44を最適解として記憶部12またはRAMに保存する(S105)。
図9、図10の例を比較すると、図10の方が、原形対応点42bと一致する変換点52の数が多いことから、「1」、「3」、「4」、「6」の実空間対応点42aを採用して算出した平面射影変換行列44が最適解となる。
尚、図2で対象物体5が湾曲等をしていない平面であれば、平面射影変換行列44が求められると、前述した原形メッシュ生成処理32、および後述する平面メッシュ生成処理34、曲面メッシュ生成処理35を行わなくても、視野映像4内のアイマーク6の位置座標から原形画像3の注視点7を求めることができる。
Next, the control unit 11 stores the planar projection transformation matrix 44 having the largest number of transformation points 52 whose positions coincide with the original corresponding point 42b as the optimal solution in the storage unit 12 or the RAM (S105).
Comparing the examples of FIG. 9 and FIG. 10, since the number of conversion points 52 matching the original shape corresponding point 42b is larger in FIG. 10, “1”, “3”, “4”, “6” The plane projection transformation matrix 44 calculated by adopting the real space corresponding point 42a is the optimal solution.
If the plane projection transformation matrix 44 is obtained if the target object 5 is a plane that is not curved or the like in FIG. 2, the above-described original mesh generation process 32, plane mesh generation process 34 described later, and curved mesh generation are performed. Even if the process 35 is not performed, the gazing point 7 of the original image 3 can be obtained from the position coordinates of the eye mark 6 in the visual field image 4.

図5の説明に戻る。
平面メッシュ生成処理34では、制御部11は、平面射影変換行列算出処理33によって出力される平面射影変換行列44、対応点検索処理31によって出力される対応点42の組、原形メッシュ生成処理32によって出力される原形メッシュ43を入力し、視野映像4の平面メッシュ45を出力する。
また、曲面メッシュ生成処理35では、制御部11は、平面メッシュ生成処理3によって出力される平面メッシュ45を入力し、視野映像4の曲面メッシュ46を出力する。
Returning to the description of FIG.
In the plane mesh generation process 34, the control unit 11 performs a set of the plane projection conversion matrix 44 output by the plane projection conversion matrix calculation process 33, the set of corresponding points 42 output by the corresponding point search process 31, and the original mesh generation process 32. The original mesh 43 to be output is input, and the planar mesh 45 of the visual field image 4 is output.
In the curved surface mesh generation process 35, the control unit 11 inputs the planar mesh 45 output by the planar mesh generation process 3 and outputs the curved surface mesh 46 of the visual field image 4.

図11は、平面メッシュ生成処理34、曲面メッシュ生成処理35の流れを示すフローチャートである。図12は、平面メッシュ45の一例を示す図である。図13は、実空間対応点42aと平面対応点42cとの位置ずれ54を説明する図である。図14は、曲面メッシュ46の一例を示す図である。   FIG. 11 is a flowchart showing the flow of the plane mesh generation process 34 and the curved surface mesh generation process 35. FIG. 12 is a diagram illustrating an example of the planar mesh 45. FIG. 13 is a diagram for explaining the positional deviation 54 between the real space corresponding point 42a and the plane corresponding point 42c. FIG. 14 is a diagram illustrating an example of the curved mesh 46.

平面メッシュ生成処理34では、制御部11は、原形メッシュ43に対して平面射影変換行列44に基づく平面射影変換を行うことで視野映像4の平面メッシュ45を生成する。
また、曲面メッシュ生成処理35では、制御部11は、平面メッシュ45に対して、実空間対応点42aに対して平面射影変換を行うことで平面対応点42cを算出し、平面対応点42cと実空間対応点42aとの位置ずれ54に基づいて平面メッシュ45を変形することで視野映像4の曲面メッシュ46を生成する。
In the plane mesh generation process 34, the control unit 11 generates a plane mesh 45 of the visual field image 4 by performing plane projection conversion on the original mesh 43 based on the plane projection conversion matrix 44.
Further, in the curved surface mesh generation processing 35, the control unit 11 calculates a plane corresponding point 42c by performing plane projective transformation on the real space corresponding point 42a with respect to the plane mesh 45, and calculates the plane corresponding point 42c and the real corresponding point 42c. The curved mesh 46 of the visual field image 4 is generated by deforming the planar mesh 45 based on the positional deviation 54 with respect to the space corresponding point 42a.

図11に示すように、制御部11は、図8のS105にて算出した平面射影変換行列44の最適解の逆行列を用いて、原形メッシュ43の平面射影変換を行うことで平面メッシュ45を生成する(S201)。
図12では、原形メッシュ43から平面メッシュ45への変換を示している。説明の都合上、平面メッシュ45は、視野映像4における対象物体5に重ねて示している。
図2に示すように、対象物体5の端が湾曲したり、内部に凹凸が生じたりしている場合、図12に示すように、平面メッシュ45は、不規則に変形した視野映像4の対象物体5とずれが生じる。これに対して、後述する曲面メッシュ生成処理35を行うことで、対象物体5の端が湾曲したり、内部に凹凸が生じたりすることによるずれを修正し、注視点7の位置を正確に特定することできる。
As shown in FIG. 11, the control unit 11 performs the planar projective transformation of the original mesh 43 using the inverse matrix of the optimal solution of the planar projective transformation matrix 44 calculated in S105 of FIG. Generate (S201).
In FIG. 12, conversion from the original mesh 43 to the planar mesh 45 is shown. For convenience of explanation, the plane mesh 45 is shown superimposed on the target object 5 in the visual field image 4.
As shown in FIG. 2, when the end of the target object 5 is curved or has irregularities inside, the planar mesh 45 is subject to irregularly deformed visual field image 4 as shown in FIG. 12. Deviation from the object 5 occurs. On the other hand, by performing a curved mesh generation process 35, which will be described later, the deviation due to the end of the target object 5 being curved or uneven inside is corrected, and the position of the gazing point 7 is accurately specified. Can do.

次に、制御部11は、平面メッシュ45を対応点42の組の集合(実空間対応点42aおよび平面対応点42cの集合)に合わせて位置合わせを行う(S202)。
具体的には、制御部11は、平面対応点42cと実空間対応点42aとの位置ずれ54と、変形の複雑度とを含む判定式に基づいて平面メッシュ45を変形する。判定式は、次に示す式(1)である。
Next, the control unit 11 aligns the plane mesh 45 with a set of corresponding points 42 (set of real space corresponding points 42a and plane corresponding points 42c) (S202).
Specifically, the control unit 11 deforms the planar mesh 45 based on a determination formula including the positional deviation 54 between the planar corresponding point 42c and the real space corresponding point 42a and the complexity of the deformation. The determination formula is the following formula (1).

Figure 2011194105
Figure 2011194105

式(1)のSは、平面メッシュ45の各要素の頂点の集合であって、行列である。ε(S)が判定式である。λは、調整用パラメータである。ε(S)は、変形の複雑度である。ε(S)は、実空間対応点42aと平面対応点42cとの位置ずれ54に基づく値である。
式(2)のnは、平面メッシュ45の各要素を示す添字である。Nは、平面メッシュ45の要素数である。ε(S(n))は、式(2)に示すように、例えば、変形前後の各辺の差の二乗和の平方根である。差の二乗和の平方根に代えて、差の二乗和、分散、標準偏差などを採用しても良い。l(n)は、要素nの変形前の辺の長さである。l´(n)は、要素nの変形後の辺の長さである。要素が三角形の場合、辺が3つなので、i=1〜3である。また、要素が四角形の場合、辺が4つなので、i=1〜4となる。
式(3)のkは、対応点42の組を示す添字である。Kは、対応点42の組の数である。ε(S(k))は、式(3)に示すように、例えば、実空間対応点42aと平面対応点42cとのユークリッド距離である。x(k)、y(k)は、実空間対応点42aのx座標、y座標である。x(k)、y(k)は、平面対応点42cのx座標、y座標である。
S in Expression (1) is a set of vertices of each element of the planar mesh 45 and is a matrix. ε (S) is a judgment formula. λ D is an adjustment parameter. ε D (S) is the complexity of the deformation. ε C (S) is a value based on the positional deviation 54 between the real space corresponding point 42a and the plane corresponding point 42c.
N in the formula (2) is a subscript indicating each element of the planar mesh 45. N is the number of elements of the planar mesh 45. ε D (S (n)) is, for example, the square root of the sum of squares of the difference between the sides before and after deformation, as shown in Expression (2). Instead of the square root of the sum of squares of the differences, a sum of squares of the differences, variance, standard deviation, or the like may be employed. l i (n) is the length of the side of the element n before deformation. l i ′ (n) is the length of the side of the element n after deformation. When the element is a triangle, i = 1 to 3 because there are three sides. If the element is a quadrangle, i = 1 to 4 because there are four sides.
In Expression (3), k is a subscript indicating a set of corresponding points 42. K is the number of sets of corresponding points 42. ε C (S (k)) is, for example, the Euclidean distance between the real space corresponding point 42a and the plane corresponding point 42c, as shown in Expression (3). x 1 (k) and y 1 (k) are the x coordinate and y coordinate of the real space corresponding point 42a. x 2 (k) and y 2 (k) are the x coordinate and y coordinate of the plane corresponding point 42c.

ε(S)は、変形が複雑であれば、値が大きくなる。また、ε(S)は、位置ずれ54が大きければ、値が大きくなる。
制御部11は、単純な変形、すなわち滑らかな変形によって、平面対応点42cと実空間対応点42aとの位置ずれ54を小さくし、平面対応点42cの位置と実空間対応点42aの位置が合うように位置合わせする為、式(1)に示す判定式ε(S)を最小化するSを算出する。従って、制御部11は、式(1)に示す判定式ε(S)の偏微分が0となるSを算出する。
ε D (S) increases in value if the deformation is complicated. Further, the value of ε C (S) increases as the positional deviation 54 increases.
The controller 11 reduces the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a by simple deformation, that is, smooth deformation, and the position of the plane corresponding point 42c matches the position of the real space corresponding point 42a. In order to perform alignment, S that minimizes the determination equation ε (S) shown in Equation (1) is calculated. Therefore, the control unit 11 calculates S at which the partial differential of the determination formula ε (S) shown in Formula (1) becomes zero.

次に、制御部11は、S202における位置合わせの結果に基づいて、平面メッシュ45を変形する(S203)。ここでは、制御部11は、S202にて算出された平面メッシュ45の各要素の頂点の集合Sに基づいて、平面メッシュ45の各要素の頂点を移動させれば良い。S203の変形では、要素の数は変わらないが、要素の面積、形状が変化する。   Next, the control unit 11 deforms the planar mesh 45 based on the alignment result in S202 (S203). Here, the control part 11 should just move the vertex of each element of the plane mesh 45 based on the set S of the vertex of each element of the plane mesh 45 calculated in S202. In the modification of S203, the number of elements does not change, but the area and shape of the elements change.

次に、制御部11は、終了条件を満たすかどうか確認する(S204)。
終了条件は、例えば、繰り返し処理の回数、すなわち、S202からS203までの処理を所定の回数実行することである。
また、終了条件は、例えば、位置ずれ54の最大値、すなわち、S202において算出する平面対応点42cと実空間対応点42aとの位置ずれ54の最大値が一定の値以下になることである。
終了条件を満たさない場合(S204のNo)、制御部11は、S202から繰り返す。
終了条件を満たす場合(S204のYes)、制御部11は、S205に進む。
Next, the control part 11 confirms whether completion | finish conditions are satisfy | filled (S204).
The end condition is, for example, the number of repetition processes, that is, the process from S202 to S203 is executed a predetermined number of times.
The termination condition is, for example, that the maximum value of the positional deviation 54, that is, the maximum value of the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a calculated in S202 is equal to or less than a certain value.
When the termination condition is not satisfied (No in S204), the control unit 11 repeats from S202.
When the end condition is satisfied (Yes in S204), the control unit 11 proceeds to S205.

図13では、実空間対応点42aが、番号が付された正方形によって示され、平面対応点42cが、番号が付された円によって示されている。図13の例では、対応点42の組の識別番号が「1」、「2」、「5」、「6」については、平面対応点42cと実空間対応点42aとの位置ずれ54が大きい。一方、対応点42の識別番号が「3」、「4」については、平面対応点42cと実空間対応点42aとの位置ずれ54が小さい。
制御部11がS202からS203の処理を繰り返すことで、図13に示す位置ずれ54は、次第に小さくなっていく。
In FIG. 13, the real space corresponding point 42a is indicated by a numbered square, and the plane corresponding point 42c is indicated by a numbered circle. In the example of FIG. 13, for the identification numbers “1”, “2”, “5”, and “6” of the pair of corresponding points 42, the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a is large. . On the other hand, for the identification numbers “3” and “4” of the corresponding points 42, the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a is small.
As the control unit 11 repeats the processing from S202 to S203, the positional deviation 54 shown in FIG. 13 gradually decreases.

次に、制御部11は、現時点での変形した平面メッシュ45を曲面メッシュ46として記憶部12に保存する(S205)。制御部11は、平面メッシュ45を繰り返し変形することで、最適な曲面メッシュ46を生成する。
図14では、曲面メッシュ46の模式図を示している。図11に示す処理を行うことで、視野映像4の対象物体5が正確に表現された曲面メッシュ46が生成される。図14に示すように、曲面メッシュ46の領域は、視野映像4の対象物体5の領域と一致している。また、曲面メッシュ46の各要素は、平面メッシュ45の各要素と比較して、対象物体5の端の湾曲や内部の凹凸などの変形に応じて、位置、大きさ、形状が変形されている。
Next, the control unit 11 stores the deformed planar mesh 45 at the current time in the storage unit 12 as the curved mesh 46 (S205). The control unit 11 repeatedly deforms the plane mesh 45 to generate an optimal curved surface mesh 46.
FIG. 14 shows a schematic diagram of the curved mesh 46. By performing the processing shown in FIG. 11, a curved mesh 46 in which the target object 5 of the visual field image 4 is accurately expressed is generated. As shown in FIG. 14, the area of the curved mesh 46 coincides with the area of the target object 5 in the visual field image 4. Further, each element of the curved mesh 46 is deformed in position, size, and shape in accordance with the deformation of the end of the target object 5 and the unevenness inside the object, as compared with the elements of the planar mesh 45. .

図5の説明に戻る。
注視点位置特定処理36では、制御部11は、アイトラッキング装置2から受信するアイマーク位置47、曲面メッシュ生成処理35によって出力される曲面メッシュ46(または、平面メッシュ生成処理34によって出力される平面メッシュ45)を入力し、注視点位置48を出力する。
図14に示すように、視野映像4におけるアイマーク位置47に基づいて、曲面メッシュ46(または平面メッシュ45)のアイマークを含む要素56が判定できる。曲面メッシュ46(または平面メッシュ45)と原形メッシュ43の各要素は、それぞれ対応づけられているので、曲面メッシュ46(または平面メッシュ45)のアイマークを含む要素56と対応する原形メッシュ43の要素が、注視点を含む要素57と特定される。そして、制御部11は、アイマークを含む要素56、注視点を含む要素57、およびアイマーク位置47に基づいて、注視点位置48を算出し、出力する。
Returning to the description of FIG.
In the gazing point position specifying process 36, the control unit 11 detects the eye mark position 47 received from the eye tracking device 2, the curved surface mesh 46 output by the curved surface mesh generating process 35 (or the plane output by the planar mesh generating process 34). The mesh 45) is input and the gaze point position 48 is output.
As illustrated in FIG. 14, the element 56 including the eye mark of the curved mesh 46 (or the planar mesh 45) can be determined based on the eye mark position 47 in the visual field image 4. Since each element of the curved mesh 46 (or the planar mesh 45) and the original mesh 43 are associated with each other, the element of the original mesh 43 corresponding to the element 56 including the eye mark of the curved mesh 46 (or the planar mesh 45). Is identified as the element 57 including the gaze point. Then, the control unit 11 calculates and outputs a gaze point position 48 based on the element 56 including the eye mark, the element 57 including the gaze point, and the eye mark position 47.

図15は、注視点位置48の算出処理の一例を説明する図である。
図15には、アイマークを含む要素56と注視点を含む要素57が図示されている。点A、B、Cは、アイマークを含む要素56(曲面メッシュ46または平面メッシュ45の三角形)の頂点であり、点A、B、Cの座標は既知である。同様に、点A’、B’、C’は、注視点を含む要素57(原形メッシュ43の三角形)の頂点であり、点A’、B’、C’の座標は既知である。また、点Pはアイマーク位置47であり、点Pの座標は既知である。
ここで、三角形PBC、PCA、PABの面積比を(α、β、γ)とすると、点A、B、C、Pの座標が既知であることから、(α、β、γ)は算出可能である。
更に、点P’を注視点位置48とする。また、三角形P’B’C’、P’C’A’、P’A’B’の面積比を(α’、β’、γ’)とする。
制御部11は、例えば、(α’、β’、γ’)=(α、β、γ)となる点P’の座標を算出し、注視点位置48の座標として出力する。
但し、注視点位置48の算出処理は、この例に限定されるわけではなく、適宜公知の技術を適用することができる。
FIG. 15 is a diagram for explaining an example of the calculation process of the gazing point position 48.
FIG. 15 shows an element 56 including an eye mark and an element 57 including a gazing point. Points A, B, and C are vertices of an element 56 (triangle of the curved mesh 46 or the planar mesh 45) including the eye mark, and the coordinates of the points A, B, and C are known. Similarly, the points A ′, B ′, and C ′ are the vertices of the element 57 (the triangle of the original mesh 43) that includes the gazing point, and the coordinates of the points A ′, B ′, and C ′ are known. The point P is the eye mark position 47, and the coordinates of the point P are known.
Here, if the area ratio of the triangles PBC, PCA, and PAB is (α, β, γ), the coordinates of the points A, B, C, and P are known, so (α, β, γ) can be calculated. It is.
Further, the point P ′ is set as the gazing point position 48. Further, the area ratio of the triangles P′B′C ′, P′C′A ′, and P′A′B ′ is (α ′, β ′, γ ′).
For example, the control unit 11 calculates the coordinates of the point P ′ where (α ′, β ′, γ ′) = (α, β, γ), and outputs the coordinates as the coordinates of the gazing point position 48.
However, the calculation process of the gazing point position 48 is not limited to this example, and a known technique can be applied as appropriate.

前述した位置合わせ処理(図11のS202)の説明では、式(3)のε(S)は、全ての対応点42の組(k=1、・・・、K)を用いて算出したが、本発明はこの例に限定されない。
前述したように、対応点検索処理31では、誤って対応づけられた対応点42の組が出力される可能性がある。誤って対応づけられた対応点42の組は、平面対応点42cと実空間対応点42aとの位置ずれ54が大きくなる。一方、図11のS202では、平面対応点42cと実空間対応点42aとの位置ずれ54を小さくするように位置合わせを行う。従って、制御部11は、誤って対応づけられた対応点42の組の位置を合わせるように処理を行ってしまい、正確な曲面メッシュ46を生成することができない場合がある。
In the description of the alignment process described above (S202 in FIG. 11), ε C (S) in Expression (3) is calculated using a set of all corresponding points 42 (k = 1,..., K). However, the present invention is not limited to this example.
As described above, in the corresponding point search process 31, there is a possibility that a set of corresponding points 42 associated with each other may be output. In the pair of corresponding points 42 that are erroneously associated with each other, the positional deviation 54 between the planar corresponding point 42c and the real space corresponding point 42a becomes large. On the other hand, in S202 of FIG. 11, alignment is performed so as to reduce the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a. Therefore, the control unit 11 may perform processing so as to match the positions of the pair of corresponding points 42 that are erroneously associated with each other, and may not be able to generate an accurate curved surface mesh 46.

以下では、図16、図17を参照しながら、誤って対応づけられた対応点42の組を判定式の算出から除外するために、判定式の算出処理に採用する対応点42の組の選択処理について説明する。   In the following, with reference to FIGS. 16 and 17, the selection of the pair of corresponding points 42 to be employed in the determination formula calculation process in order to exclude the pair of corresponding points 42 incorrectly associated from the calculation of the determination formula. Processing will be described.

図16は、判定式の算出処理に採用する対応点の組の選択処理の第1の例を示すフローチャートである。
制御部11は、対応点42の組を1つ選択し(S301)、平面対応点42cと実空間対応点42aとの位置ずれ54を算出する(S302)。
次に、制御部11は、S302の算出結果が閾値以内かどうか確認する(S303)。
S302の算出結果が閾値以内の場合(S303のYes)、制御部11は、S301にて選択した対応点42の組を判定式の算出処理に採用し(S304)、S305に進む。
S302の算出結果が閾値よりも大きい場合(S303のNo)、制御部11は、S301にて選択した対応点42の組を判定式の算出処理に採用せずに、S305に進む。
FIG. 16 is a flowchart illustrating a first example of a process for selecting a pair of corresponding points employed in the determination formula calculation process.
The control unit 11 selects one set of corresponding points 42 (S301), and calculates a positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a (S302).
Next, the control unit 11 checks whether or not the calculation result of S302 is within a threshold value (S303).
When the calculation result in S302 is within the threshold (Yes in S303), the control unit 11 employs the pair of corresponding points 42 selected in S301 for the determination formula calculation process (S304), and proceeds to S305.
When the calculation result in S302 is larger than the threshold (No in S303), the control unit 11 proceeds to S305 without adopting the set of corresponding points 42 selected in S301 in the determination formula calculation process.

次に、制御部11は、全ての対応点42の組に対して処理が終了したかどうか確認する(S305)。
全ての対応点42の組に対して処理が終了していない場合(S305のNo)、制御部11は、S301から処理を繰り返す。
全ての対応点42の組に対して処理が終了している場合(S305のYes)、制御部11は、処理を終了する。
Next, the control part 11 confirms whether the process was complete | finished with respect to the group of all the corresponding points 42 (S305).
If the process has not been completed for all the pairs of corresponding points 42 (No in S305), the control unit 11 repeats the process from S301.
When the process has been completed for all the pairs of corresponding points 42 (Yes in S305), the control unit 11 ends the process.

図16の処理によって、誤って対応づけられた可能性が高い対応点42の組を除外して、判定式の算出処理に採用する対応点42の組を選択することができる。   By the process of FIG. 16, it is possible to select a pair of corresponding points 42 to be employed in the determination formula calculation process by excluding a pair of corresponding points 42 that are highly likely to be associated by mistake.

尚、S303の閾値は、平面メッシュ45の変形を繰り返すごとに小さくしていくことが望ましい。
閾値を適切に変更していくことで、繰り返しの序盤では、多くの対応点42の組(誤って対応づけられた対応点42の組もある程度含む。)を使用して大まかな変形を行うことができる。
また、繰り返しの終盤では、少ない対応点42の組(誤って対応づけられた対応点42の組がほとんどない。)を使用して正確に細かい変形を行うことができる。
Note that it is desirable that the threshold value in S303 be reduced as the deformation of the planar mesh 45 is repeated.
By appropriately changing the threshold value, in the early iterations, a rough deformation is performed using a set of many corresponding points 42 (including a set of corresponding points 42 erroneously associated to some extent). Can do.
Further, in the final stage of the repetition, it is possible to accurately perform fine deformation using a set of a few corresponding points 42 (there are few sets of corresponding points 42 that are erroneously associated).

図17は、判定式の算出処理に採用する対応点の組の選択処理の第2の例を示すフローチャートである。
制御部11は、対応点42の組を1つ選択し(S401)、平面対応点42cと実空間対応点42aとの位置ずれ54を算出する(S402)。
次に、制御部11は、全ての対応点42の組に対して処理が終了したかどうか確認する(S403)。
全ての対応点42の組に対して処理が終了していない場合(S403のNo)、制御部11は、S401から処理を繰り返す。
全ての対応点42の組に対して処理が終了している場合(S403のYes)、制御部11は、S404に進む。
FIG. 17 is a flowchart illustrating a second example of the corresponding point pair selection process employed in the determination formula calculation process.
The control unit 11 selects one set of corresponding points 42 (S401), and calculates a positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a (S402).
Next, the control unit 11 checks whether or not the processing has been completed for all the pairs of corresponding points 42 (S403).
When the process has not been completed for all the pairs of corresponding points 42 (No in S403), the control unit 11 repeats the process from S401.
When the processing has been completed for all pairs of corresponding points 42 (Yes in S403), the control unit 11 proceeds to S404.

次に、制御部11は、位置ずれ54が最も大きい対応点42の組を除く対応点42の組を判定式の算出処理に採用する(S404)。ここで、除外する対応点42の組は、位置ずれ54が最も大きい対応点42の組ではなく、位置ずれ54が大きい方から一定の数の対応点42の組としても良い。   Next, the control unit 11 employs the pair of corresponding points 42 excluding the pair of corresponding points 42 having the largest positional deviation 54 in the determination formula calculation process (S404). Here, the set of corresponding points 42 to be excluded is not a set of corresponding points 42 with the largest positional deviation 54, but may be a set of a certain number of corresponding points 42 from the one with the largest positional deviation 54.

図17の処理によって、誤って対応づけられた可能性が高い対応点42の組を除外して、判定式の算出処理に採用する対応点42の組を選択することができる。   With the processing in FIG. 17, it is possible to select a pair of corresponding points 42 to be employed in the determination formula calculation process by excluding a pair of corresponding points 42 that are highly likely to be associated by mistake.

尚、S404において、位置ずれ54が大きい方から一定の数の対応点42の組を除外する場合、一定の数は、平面メッシュ45の変形を繰り返すごとに増やしていくことが望ましい。
一定の数を適切に変更していくことで、第1の例と同様、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点42の組を使用して適切な変形を行うことができる。
In S404, when a certain number of pairs of corresponding points 42 are excluded from the larger position deviation 54, it is desirable to increase the certain number every time the deformation of the plane mesh 45 is repeated.
By appropriately changing a certain number, as in the first example, an appropriate transformation is performed using an appropriate set of corresponding points 42 in each case of the beginning of the iteration and the end of the iteration. Can do.

第1の例および第2の例において適切な変形を行うことができる理由は、次の通りである。誤って対応づけられた対応点42は、位置合わせの修正がばらばらになる。一方、正しく対応づけられた対応点42は、同じ方向に修正を行うため、誤って対応づけられた対応点42が含まれていても、全体としては正しい方向への修正量が大きくなる。   The reason why appropriate modifications can be made in the first example and the second example is as follows. Corresponding points 42 that are erroneously associated with each other have different alignment corrections. On the other hand, since the corresponding points 42 correctly associated are corrected in the same direction, even if the corresponding points 42 incorrectly associated are included, the correction amount in the correct direction as a whole increases.

以上、詳細に説明した通り、本発明に係る注視点計測装置1は、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置2の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。また、剛性が低い素材の訴求媒体を対象物体5としたときに、対象物体5が変形した場合であっても、対象物体5の原形画像3における注視点の位置を正確に自動計測することができる。   As described above in detail, the gaze point measuring apparatus 1 according to the present invention does not require a marker for specifying the position of the gaze point, so that the wearer of the eye tracking device 2 unconsciously directs his / her line of sight to the marker. Therefore, appropriate measurement can be performed. Further, when the appeal medium made of a material having low rigidity is set as the target object 5, even if the target object 5 is deformed, the position of the gazing point in the original image 3 of the target object 5 can be automatically and accurately measured. it can.

以上、添付図面を参照しながら、本発明に係る注視点計測装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the gaze point measuring apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.

1………注視点計測装置
2………アイトラッキング装置
3………原形画像
4………視野映像
5………対象物体
6………アイマーク
7………注視点
31………対応点検索処理
32………原形メッシュ生成処理
33………平面射影変換行列算出処理
34………平面メッシュ生成処理
35………曲面メッシュ生成処理
36………注視点位置特定処理
42………対応点
42a………実空間対応点
42b………原形対応点
42c………平面対応点
43………原形メッシュ
44………平面射影変換行列
45………平面メッシュ
46………曲面メッシュ
47………アイマーク位置
48………注視点位置
51a………実空間特徴点
51b………原形特徴点
52………変換点
54………位置ずれ
56………アイマークを含む要素
57………注視点を含む要素
1 ……… Gaze point measuring device 2 ……… Eye tracking device 3 ……… Original image 4 ……… Field of view image 5 ……… Target object 6 ……… Eye mark 7 ……… Gaze point 31 ……… Correspondence Point search process 32 ... Original mesh generation process 33 ... Planar projective transformation matrix calculation process 34 ... Plane mesh generation process 35 ... ... Curved mesh generation process 36 ... ... Gaze point specifying process 42 ... ... Corresponding point 42a ......... Real space corresponding point 42b ......... Original shape corresponding point 42c ......... Plane corresponding point 43 ......... Original mesh 44 ......... Plane projection transformation matrix 45 ......... Plane mesh 46 ......... Surface mesh 47 ......... Eye mark position 48 ......... Gaze point position 51a ......... Real space feature point 51b ......... Original feature point 52 ......... Transformation point 54 ......... Position shift 56 ......... Elements including eye marks 57 ……… Note Element containing viewpoint

Claims (12)

アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測装置であって、
前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索手段と、
前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出手段と、
を具備することを特徴とする注視点計測装置。
A gazing point measurement device that measures a position of a gazing point in an original image of a target object included in the field-of-view image in association with the position of an eye mark in the field-of-view image that is an image photographed by an eye tracking device,
A real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and based on the set of the real space feature point and the original feature point, the visual field image Corresponding point search means for searching for a set of corresponding points that correspond to the original image and a corresponding set of real space corresponding points of the visual field image and a corresponding point of original shapes that are corresponding points of the original image;
Transformation matrix calculation means for calculating a plane projective transformation matrix for plane projective transformation of the coordinates of the visual field image to the coordinates of the original image based on a set of sets of the real space corresponding points and the original corresponding points;
A gaze point measuring apparatus comprising:
前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成手段と、
前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成手段と、
前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成手段と、
を更に具備することを特徴とする請求項1に記載の注視点計測装置。
Original mesh generation means for generating an original mesh that is a mesh of the original image;
Plane mesh generation means for generating a plane mesh of the visual field image by performing plane projection conversion based on the plane projection conversion matrix for the original mesh;
A plane corresponding point is calculated by performing the plane projective transformation on the real space corresponding point, and the plane mesh is deformed based on a positional deviation between the plane corresponding point and the real space corresponding point, and the field of view is obtained. Curved surface mesh generating means for generating a curved mesh of an image;
The gazing point measurement apparatus according to claim 1, further comprising:
前記曲面メッシュ生成手段は、前記平面対応点と前記実空間対応点との位置ずれと変形の複雑度とを含む判定式に基づいて前記平面メッシュを繰り返し変形することで、最適な前記曲面メッシュを生成することを特徴とする請求項2に記載の注視点計測装置。   The curved mesh generation means repeatedly deforms the planar mesh based on a determination formula including a positional deviation between the plane corresponding point and the real space corresponding point and a complexity of deformation, thereby obtaining an optimal curved mesh. The gaze point measuring device according to claim 2, wherein the gaze point measuring device is generated. 前記曲面メッシュ生成手段は、前記平面対応点と前記実空間対応点との位置ずれが閾値よりも大きい対応点の組は、前記判定式の算出処理に採用しないことを特徴とする請求項3に記載の注視点計測装置。   The curved surface mesh generation means does not employ a pair of corresponding points in which a positional deviation between the plane corresponding point and the real space corresponding point is larger than a threshold value in the calculation process of the determination formula. The gaze point measuring device described. 前記閾値は、前記平面メッシュの変形を繰り返すごとに小さくしていくことを特徴とする請求項4に記載の注視点計測装置。   The gaze point measuring apparatus according to claim 4, wherein the threshold value is decreased every time the deformation of the planar mesh is repeated. 前記曲面メッシュ生成手段は、前記平面対応点と前記実空間対応点との位置ずれが大きい方から一定の数の対応点の組は、前記判定式の算出処理に採用しないことを特徴とする請求項3に記載の注視点計測装置。   The curved surface mesh generation means does not employ a certain number of pairs of corresponding points in the calculation process of the determination formula from the one with the larger positional deviation between the plane corresponding points and the real space corresponding points. Item 4. The gaze point measuring device according to item 3. 前記一定の数は、前記平面メッシュの変形を繰り返すごとに増やしていくことを特徴とする請求項6に記載の注視点計測装置。   The gaze point measuring apparatus according to claim 6, wherein the certain number is increased each time the deformation of the planar mesh is repeated. 前記視野映像内のアイマークを含む前記平面メッシュまたは前記曲面メッシュの要素と対応する前記原形メッシュの要素が、前記注視点を含むものとして前記注視点の位置を特定する注視点位置特定手段、
を更に具備することを特徴とする請求項1から請求項7のいずれかに記載の注視点計測装置。
Gazing point position specifying means for specifying the position of the gazing point as an element of the original mesh corresponding to the element of the planar mesh or the curved surface mesh including the eye mark in the visual field image includes the gazing point;
The gazing point measurement apparatus according to claim 1, further comprising:
アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測方法であって、
前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索ステップと、
前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出ステップと、
を含むことを特徴とする注視点計測方法。
A gazing point measurement method for measuring a position of a gazing point in an original image of a target object included in the field-of-view image in association with the position of an eye mark in the field-of-view image that is an image photographed by an eye tracking device,
A real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and based on the set of the real space feature point and the original feature point, the visual field image Corresponding point search step for searching for a set of corresponding points that correspond to the original image and a set of corresponding points of the original image that correspond to real space corresponding points of the visual field image and a corresponding point of the original image;
A transformation matrix calculating step for calculating a plane projective transformation matrix for plane projective transformation of the coordinates of the visual field image to the coordinates of the original image based on a set of the real space corresponding point and the original shape corresponding point;
A gaze point measuring method characterized by including
前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成ステップと、
前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成ステップと、
前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成ステップと、
を更に含むことを特徴とする請求項9に記載の注視点計測方法。
An original mesh generation step of generating an original mesh that is a mesh of the original image;
A plane mesh generation step of generating a plane mesh of the visual field image by performing plane projection conversion based on the plane projection conversion matrix with respect to the original mesh;
A plane corresponding point is calculated by performing the plane projective transformation on the real space corresponding point, and the plane mesh is deformed based on a positional deviation between the plane corresponding point and the real space corresponding point, and the field of view is obtained. A curved mesh generation step for generating a curved mesh of the video;
The gazing point measurement method according to claim 9, further comprising:
コンピュータを請求項1から請求項8のいずれかに記載の注視点計測装置として機能させるためのプログラム。   A program for causing a computer to function as the gazing point measurement device according to any one of claims 1 to 8. コンピュータを請求項1から請求項8のいずれかに記載の注視点計測装置として機能させるためのプログラムを記憶したコンピュータ読取可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to function as the gazing point measurement device according to any one of claims 1 to 8.
JP2010065732A 2010-03-23 2010-03-23 Gaze point measurement device, gaze point measurement method, program, and storage medium Expired - Fee Related JP5604923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010065732A JP5604923B2 (en) 2010-03-23 2010-03-23 Gaze point measurement device, gaze point measurement method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010065732A JP5604923B2 (en) 2010-03-23 2010-03-23 Gaze point measurement device, gaze point measurement method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2011194105A true JP2011194105A (en) 2011-10-06
JP5604923B2 JP5604923B2 (en) 2014-10-15

Family

ID=44873034

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010065732A Expired - Fee Related JP5604923B2 (en) 2010-03-23 2010-03-23 Gaze point measurement device, gaze point measurement method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP5604923B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228992A (en) * 2014-06-05 2015-12-21 大日本印刷株式会社 Visual axis analysis system and visual axis analysis device
JP2016073357A (en) * 2014-10-02 2016-05-12 富士通株式会社 Sight-line position detection device, sight-line position detection method, and sight-line position detection program
JP2017146939A (en) * 2016-02-19 2017-08-24 富士通株式会社 Image display device, display control method and display control program
JP7431714B2 (en) 2020-10-16 2024-02-15 株式会社日立製作所 Gaze analysis device, gaze analysis method, and gaze analysis system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253630A (en) * 1985-09-03 1987-03-09 日本電気株式会社 Method and apparatus for measuring position of steady gaze point
JP2000508557A (en) * 1996-04-12 2000-07-11 アイライト リサーチ ナムローゼ フェンノートシャップ Measuring and processing data in response to stimuli
JP2005045723A (en) * 2003-07-25 2005-02-17 Fuji Xerox Co Ltd Image correcting apparatus
JP2007140613A (en) * 2005-11-14 2007-06-07 National Institute Of Advanced Industrial & Technology Method for recognizing several advertising signs in screen image
JP2008161266A (en) * 2006-12-27 2008-07-17 Ritsumeikan Image processor, computer program and image processing method
JP2009205479A (en) * 2008-02-28 2009-09-10 Kddi Corp Calibration equipment, method, and program for image pickup device
WO2010006727A1 (en) * 2008-07-15 2010-01-21 Institut Pasteur Korea Method and apparatus for imaging of features on a substrate

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6253630A (en) * 1985-09-03 1987-03-09 日本電気株式会社 Method and apparatus for measuring position of steady gaze point
JP2000508557A (en) * 1996-04-12 2000-07-11 アイライト リサーチ ナムローゼ フェンノートシャップ Measuring and processing data in response to stimuli
JP2005045723A (en) * 2003-07-25 2005-02-17 Fuji Xerox Co Ltd Image correcting apparatus
JP2007140613A (en) * 2005-11-14 2007-06-07 National Institute Of Advanced Industrial & Technology Method for recognizing several advertising signs in screen image
JP2008161266A (en) * 2006-12-27 2008-07-17 Ritsumeikan Image processor, computer program and image processing method
JP2009205479A (en) * 2008-02-28 2009-09-10 Kddi Corp Calibration equipment, method, and program for image pickup device
WO2010006727A1 (en) * 2008-07-15 2010-01-21 Institut Pasteur Korea Method and apparatus for imaging of features on a substrate

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015228992A (en) * 2014-06-05 2015-12-21 大日本印刷株式会社 Visual axis analysis system and visual axis analysis device
JP2016073357A (en) * 2014-10-02 2016-05-12 富士通株式会社 Sight-line position detection device, sight-line position detection method, and sight-line position detection program
JP2017146939A (en) * 2016-02-19 2017-08-24 富士通株式会社 Image display device, display control method and display control program
JP7431714B2 (en) 2020-10-16 2024-02-15 株式会社日立製作所 Gaze analysis device, gaze analysis method, and gaze analysis system

Also Published As

Publication number Publication date
JP5604923B2 (en) 2014-10-15

Similar Documents

Publication Publication Date Title
Dominio et al. Combining multiple depth-based descriptors for hand gesture recognition
US9913578B2 (en) Eye gaze detecting device and eye gaze detection method
CN102739951B (en) Image processing apparatus and image processing method
US20080192990A1 (en) Gaze detection apparatus and the method of the same
Hasan et al. Detection, segmentation, and 3D pose estimation of surgical tools using convolutional neural networks and algebraic geometry
JP6094106B2 (en) Gaze analysis apparatus, gaze measurement system, method, program, and recording medium
CN109426835B (en) Information processing apparatus, control method of information processing apparatus, and storage medium
US20150278167A1 (en) Automatic measure of visual similarity between fonts
EP2499963A1 (en) Method and apparatus for gaze point mapping
JP5762730B2 (en) Human detection device and human detection method
US20170287154A1 (en) Image processing apparatus and image processing method
CN105593787A (en) Systems and methods of direct pointing detection for interaction with digital device
JP2016506260A (en) Markerless tracking of robotic surgical instruments
JP2007233997A (en) Facial feature point detecting system and method thereof
MX2014005478A (en) System and method for interactive image annotation.
JP5604923B2 (en) Gaze point measurement device, gaze point measurement method, program, and storage medium
Schoob et al. Soft tissue motion tracking with application to tablet-based incision planning in laser surgery
Potesil et al. Improved Anatomical Landmark Localization in Medical Images Using Dense Matching of Graphical Models.
JP6915611B2 (en) Information processing equipment, information processing methods and programs
US20210118038A1 (en) Self-service kiosk for determining glove size
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
KR20150108556A (en) Apparatus for providing a display effect based on posture of object, method thereof and computer readable medium having computer program recorded therefor
US10796435B2 (en) Image processing method and image processing apparatus
JP6946912B2 (en) Estimator program, estimator, and estimation method
US20230394721A1 (en) Information processing apparatus, program, and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140729

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140811

R150 Certificate of patent or registration of utility model

Ref document number: 5604923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees