JP2011194105A - Gazing point measuring device, gazing point measuring method, program, and storage medium - Google Patents
Gazing point measuring device, gazing point measuring method, program, and storage medium Download PDFInfo
- Publication number
- JP2011194105A JP2011194105A JP2010065732A JP2010065732A JP2011194105A JP 2011194105 A JP2011194105 A JP 2011194105A JP 2010065732 A JP2010065732 A JP 2010065732A JP 2010065732 A JP2010065732 A JP 2010065732A JP 2011194105 A JP2011194105 A JP 2011194105A
- Authority
- JP
- Japan
- Prior art keywords
- point
- mesh
- original
- plane
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、アイトラッキング装置を用いて商品等に関する媒体の分析を行うときに、注視点の位置を計測する注視点計測装置等に関するものである。 The present invention relates to a gazing point measurement device or the like that measures the position of a gazing point when a medium relating to a product or the like is analyzed using an eye tracking device.
従来から、商品またはサービスに関するブランドを消費者に対して適切に訴求するために、商品等のパッケージデザイン、パンフレット、リーフレット、およびチラシ等、様々な場所に掲示されるポスターおよび看板等、店頭等で用いられるPOP(Point of purchase advertising)、雑誌および新聞等に掲載する広告、ならびに商品の取扱説明書およびサービスの説明文書など(以下、「訴求媒体」という。)の分析が行われている。
訴求媒体の分析では、消費者の消費行動において、商品の認知から選択、購買、使用(またはサービスの認知から選択、契約、利用)までの行動、心理などを分析し、ブランドの価値が消費者に適切に伝えられているかどうかを把握することが重要である。
Traditionally, in order to appropriately appeal to consumers about brands related to products or services, such as poster designs and signboards posted in various places such as product package designs, brochures, leaflets, and flyers, etc. Analysis of used POP (Point of purchase advertising), advertisements published in magazines, newspapers, etc., and product instruction manuals and service explanation documents (hereinafter referred to as “appeal medium”) is performed.
In the analysis of the appeal medium, the consumer's consumption behavior is analyzed from the product recognition to selection, purchase, use (or service recognition to selection, contract, use), psychology, etc., the brand value is the consumer It is important to know if it is properly communicated to.
訴求媒体の分析を行うための手法の一つとして、アイトラッキングシステムを利用することが挙げられる。アイトラッキングシステムは、消費者の眼球の動きを測定、分析することで、消費者が無意識に行っている行動も含めて、消費者の行動などを解析するシステムである。
例えば、消費者が商品のパンフレットを手に取り、商品を認知するまでの行動などを分析する場合を考える。アイトラッキングシステムによって、パンフレットに対する消費者の視線の注視点、軌跡、視線停留時間などを知ることで、「消費者がパンフレットで伝えたい部分を見ているのか」、「どのような順序でパンフレットを見ているのか」、「パンフレットの中で見ている時間が最も長い部分はどこか」などを把握することができる。
One method for analyzing appeal media is to use an eye tracking system. The eye tracking system is a system for analyzing the behavior of the consumer including the behavior that the consumer is performing unconsciously by measuring and analyzing the movement of the eyeball of the consumer.
For example, consider a case where a consumer takes a product brochure and analyzes the behavior until the consumer recognizes the product. By using the eye tracking system to know the gaze point, trajectory, and gaze stop time of the consumer ’s line of sight with respect to the pamphlet, it is possible to determine whether the consumer is viewing the part that the pamphlet wants to convey. You can see, “Which are you watching?” And “Which part is the longest time in the brochure?”
例えば、頭部装着型のアイトラッキング装置では、顔が向いている方向をカメラによって撮影し、撮影した映像に装着者の視線の注視点をマッピングすることができる。訴求媒体の分析を行うためには、装着者が対象物体のどの位置を見ているのかを示す情報(対象物体内の注視点の位置)が非常に重要であるが、頭部の動きに合わせてカメラも動くため、撮影した映像における対象物体の位置が変化する。その為、対象物体内の注視点の位置は、分析者が目視によって確認、または特定することが一般的である。しかしながら、分析における人的負荷が非常に大きく、時間と費用の面で大きな課題となっている。 For example, in a head-mounted eye tracking device, the direction in which the face is facing can be photographed by a camera, and the gaze point of the wearer's line of sight can be mapped to the photographed image. In order to analyze the appeal medium, information indicating the position of the target object that the wearer is looking at (the position of the gazing point in the target object) is very important. Since the camera also moves, the position of the target object in the captured image changes. For this reason, the position of the gazing point in the target object is generally confirmed or specified by an analyst visually. However, the human load in the analysis is very large, which is a big problem in terms of time and cost.
前述の人的負荷をなくすために、対象物体内の注視点の位置をコンピュータによって自動的に特定する技術がいくつか開発されている。
例えば、特許文献1に記載の技術では、対象物体の四隅にマーカーを付ける。アイカメラによって撮影された映像の1フレーム目からマーカーの座標を認識し、対象物体内の注視点座標に変換するパラメータを算出する。2フレーム目以降は、1フレーム目からのマーカーのずれに合わせて、対象物体内の注視点座標への変換をずらす。
また、例えば、特許文献2に記載の技術では、アイカメラによって撮影された映像のフレームごとにマーカーの座標を認識し、対象物体内の注視点座標に変換するパラメータをフレームごとに算出し直す。
In order to eliminate the above-described human load, several techniques for automatically specifying the position of a gazing point in a target object by a computer have been developed.
For example, in the technique described in
Further, for example, in the technique described in
しかしながら、特許文献1に記載の技術では、マーカーの平行移動によるずれにのみ対応している為、頭部や対象物体の回転に対応できない。これに対して、特許文献2に記載の技術では、頭部や対象物体の回転に対応することはできる。しかし、特許文献1および特許文献2に記載の技術では、ともに、対象物体の四隅にマーカーが必要である。マーカーは、画像処理で自動的に認識する必要があるため、目立つ形状や色にする必要がある。マーカーが訴求媒体よりも目立つことから、無意識にマーカーに視線が向いてしまい、適切な計測を行うことができない。また、アイトラッキング装置によって撮影された映像(以下、「視野映像」という。)からマーカーが外れた場合に計測を行うことができない。
更に、特許文献1および特許文献2に記載の技術は、平面かつ変形しない対象物体にしか適用できない。
However, since the technique described in
Furthermore, the techniques described in
前述したように、パンフレットなどの訴求媒体については、消費者が手に取って観察することが通常であり、訴求媒体の端が湾曲したり、訴求媒体の内部に凹凸が生じたりするなど平行移動や回転とは異なる変形が起こる。
一方、訴求媒体の分析を行う際は、レイアウトソフトなどによって作成された訴求媒体のレイアウト画像など、対象物体(=訴求媒体)の原形(変形していない状態)の画像(以下、「原形画像」という。)を準備し、視野映像内のアイマークの位置と対応付けて、原形画像における注視点の位置を特定する。仮に、視野映像における対象物体の変形を無視すると、対象物体の原形画像における注視点の位置は正確に特定することができない。
従って、シート、紙、フィルムなど剛性が低い素材の訴求媒体の分析においては、依然として、分析者が目視によって視野映像と原形画像を比較し、原形画像における注視点の位置の特定をしなくてはならない。
As mentioned above, for appealing media such as pamphlets, it is normal for consumers to pick up and observe, and the edges of the appealing media are curved or the inside of the appealing media is uneven. Deformation different from rotation occurs.
On the other hand, when analyzing the appeal medium, the original image (hereinafter referred to as “original image”) of the target object (= appeal medium) such as the layout image of the appeal medium created by layout software or the like. And the position of the gazing point in the original image is specified in association with the position of the eye mark in the visual field image. If the deformation of the target object in the visual field image is ignored, the position of the gazing point in the original image of the target object cannot be specified accurately.
Therefore, in the analysis of appealing media of low-rigidity materials such as sheets, paper, and films, the analyst still has to visually compare the visual field image with the original image and specify the position of the gazing point in the original image. Don't be.
本発明は、前述した問題点に鑑みてなされたもので、その目的とすることは、アイトラッキング装置の装着者の視線が無意識にマーカーに向いてしまうことがなく、視野映像からマーカーが外れても適切な計測を行うことができる注視点計測装置等を提供することである。また、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる注視点計測装置等を提供することである。 The present invention has been made in view of the above-described problems, and the purpose of the present invention is to prevent the eye gaze of the wearer of the eye tracking device from unconsciously facing the marker, so that the marker deviates from the visual field image. Is to provide a gaze point measuring device or the like that can perform appropriate measurement. In addition, when the target object is a low-rigidity appeal medium, even if the target object is deformed, it is possible to automatically and accurately measure the position of the point of interest in the original image of the target object. It is to provide a device or the like.
前述した目的を達成するために第1の発明は、アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測装置であって、前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索手段と、前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出手段と、を具備することを特徴とする注視点計測装置である。
第1の発明では、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。
In order to achieve the above-described object, the first invention relates to the original image of the target object included in the visual field image in association with the position of the eye mark in the visual field image that is an image captured by the eye tracking device. A gaze point measuring apparatus for measuring a position of a viewpoint, wherein a real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and the set of the real space feature points and Based on the set of original feature points, as a set of corresponding points for associating the visual field image with the original image, corresponding to the real space corresponding point of the visual field image and original correspondence corresponding point of the original image Corresponding point search means for searching for a set of points, and plane projection conversion of the coordinates of the visual field image to the coordinates of the original image based on a set of the set of the corresponding points of the real space and the original shape A transformation matrix calculation unit configured to calculate a plane projective transformation matrix, a gazing point measuring apparatus characterized by comprising a.
In the first invention, since a marker for specifying the position of the gazing point is unnecessary, the wearer of the eye tracking device does not unintentionally turn his / her line of sight to the marker, and appropriate measurement can be performed.
第1の発明は、前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成手段と、前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成手段と、前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成手段と、を更に具備することが望ましい。
これによって、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる。
According to a first aspect of the present invention, there is provided an original mesh generating means for generating an original mesh that is a mesh of the original image, and planar projection transformation based on the planar projection transformation matrix with respect to the original mesh so that the planar mesh of the visual field image is obtained. A plane mesh generation means for generating a plane corresponding point by performing the plane projective transformation on the real space corresponding point, and based on a positional deviation between the plane corresponding point and the real space corresponding point It is desirable to further comprise curved surface mesh generating means for generating a curved surface mesh of the visual field image by deforming a planar mesh.
Accordingly, when the appeal medium made of a material having low rigidity is used as the target object, the position of the gazing point in the original image of the target object can be accurately and automatically measured even when the target object is deformed.
また、第1の発明における前記曲面メッシュ生成手段は、前記平面対応点と前記実空間対応点との位置ずれと変形の複雑度とを含む判定式に基づいて前記平面メッシュを繰り返し変形することで、最適な前記曲面メッシュを生成することが望ましい。
これによって、滑らかな変形によって位置ずれの修正を行うことができる。
Further, the curved mesh generation means in the first invention repeatedly deforms the planar mesh based on a determination formula including a positional shift between the plane corresponding point and the real space corresponding point and a deformation complexity. It is desirable to generate the optimal curved mesh.
As a result, the displacement can be corrected by smooth deformation.
また、第1の発明における前記曲面メッシュ生成手段は、例えば、前記平面対応点と前記実空間対応点との位置ずれが閾値よりも大きい対応点の組は、前記判定式の算出処理に採用しない。これによって、誤って対応づけられた可能性が高い対応点の組を除外して、判定式の算出処理に採用する対応点の組を選択することができる。
この場合、前記閾値は、前記平面メッシュの変形を繰り返すごとに小さくしていくことが望ましい。これによって、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点の組を使用して適切な変形を行うことができる。
Further, the curved surface mesh generation means in the first invention does not employ, for example, a pair of corresponding points whose positional deviation between the plane corresponding points and the real space corresponding points is larger than a threshold value in the calculation processing of the determination formula. . Accordingly, it is possible to select a pair of corresponding points to be employed in the determination formula calculation process by excluding a pair of corresponding points that are highly likely to be associated by mistake.
In this case, it is preferable that the threshold value is decreased every time the deformation of the planar mesh is repeated. Thereby, in each case of the beginning of the repetition and the end of the repetition, an appropriate deformation can be performed using an appropriate set of corresponding points.
また、第1の発明における前記曲面メッシュ生成手段は、例えば、前記平面対応点と前記実空間対応点との位置ずれが大きい方から一定の数の対応点の組は、前記判定式の算出処理に採用しない。これによって、誤って対応づけられた可能性が高い対応点の組を除外して、判定式の算出処理に採用する対応点の組を選択することができる。
この場合、前記一定の数は、前記平面メッシュの変形を繰り返すごとに増やしていくことが望ましい。これによって、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点の組を使用して適切な変形を行うことができる。
Further, the curved surface mesh generation means according to the first aspect of the invention includes, for example, a process of calculating the determination formula using a fixed number of corresponding points from the one having a larger positional deviation between the plane corresponding points and the real space corresponding points. Not adopted for. Accordingly, it is possible to select a pair of corresponding points to be employed in the determination formula calculation process by excluding a pair of corresponding points that are highly likely to be associated by mistake.
In this case, it is desirable to increase the certain number every time the deformation of the planar mesh is repeated. Thereby, in each case of the beginning of the repetition and the end of the repetition, an appropriate deformation can be performed using an appropriate set of corresponding points.
また、第1の発明は、前記視野映像内のアイマークを含む前記平面メッシュまたは前記曲面メッシュの要素と対応する前記原形メッシュの要素が、前記注視点を含むものとして前記注視点の位置を特定する注視点位置特定手段、を更に具備することが望ましい。
これによって、注視点を含む原形メッシュの要素を注視点の位置として特定することができる。注視点の位置は、メッシュの大きさを細かく設定することで、より詳細に特定することができる。
In the first invention, the position of the gazing point is specified on the assumption that the element of the original mesh corresponding to the element of the planar mesh or the curved mesh including the eye mark in the visual field image includes the gazing point. It is desirable to further include a gazing point position specifying means.
Thereby, the element of the original mesh including the gazing point can be specified as the position of the gazing point. The position of the gazing point can be specified in more detail by finely setting the size of the mesh.
第2の発明は、アイトラッキング装置によって撮影された映像である視野映像内のアイマークの位置と対応付けて、前記視野映像に含まれる対象物体の原形画像における注視点の位置を計測する注視点計測方法であって、前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索ステップと、前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出ステップと、を含むことを特徴とする注視点計測方法である。
第2の発明では、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。
According to a second aspect of the present invention, a gaze point that measures a position of a gaze point in an original image of a target object included in the field-of-view image in association with a position of an eye mark in the field-of-view image that is a video photographed by the eye tracking device. A measurement method that extracts a real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image, and is based on the set of the real space feature points and the set of the original feature points As a set of corresponding points for associating the visual field image with the original image, corresponding points for searching a set of corresponding points of the real image corresponding to the visual field image and a corresponding point of the original shape corresponding to the original image Based on the search step and a set of the real space corresponding points and the original corresponding points, a plane projective transformation matrix for plane projecting the coordinates of the visual field image to the coordinates of the original image is calculated. A transformation matrix calculation step, a gazing point measuring method, which comprises a.
In the second invention, since a marker for specifying the position of the gazing point is not necessary, the wearer of the eye tracking device does not unintentionally point the line of sight to the marker, and appropriate measurement can be performed.
第2の発明は、前記原形画像のメッシュである原形メッシュを生成する原形メッシュ生成ステップと、前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成ステップと、前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成ステップと、を更に含むことが望ましい。
これによって、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる。
According to a second aspect of the present invention, there is provided an original mesh generation step of generating an original mesh that is a mesh of the original image, and planar projection transformation based on the planar projection transformation matrix is performed on the original mesh so that the planar mesh of the visual field image A plane mesh generation step of generating a plane corresponding point by performing the plane projective transformation on the real space corresponding point, and based on a positional deviation between the plane corresponding point and the real space corresponding point Preferably, the method further includes a curved mesh generation step of generating a curved mesh of the visual field image by deforming the planar mesh.
Accordingly, when the appeal medium made of a material having low rigidity is used as the target object, the position of the gazing point in the original image of the target object can be accurately and automatically measured even when the target object is deformed.
第3の発明は、コンピュータを第1の発明の注視点計測装置として機能させるためのプログラムである。
ネットワークを介して第3の発明を配布し、汎用的なコンピュータにインストールすることで、第1の発明の注視点計測装置を提供することができる。
The third invention is a program for causing a computer to function as the gazing point measuring device of the first invention.
By distributing the third invention through a network and installing it on a general-purpose computer, the gaze point measuring device of the first invention can be provided.
第4の発明は、コンピュータを第1の発明の注視点計測装置として機能させるためのプログラムを記憶したコンピュータ読取可能な記憶媒体である。
汎用的なコンピュータが備える記憶媒体読取装置に第4の発明を装着し、汎用的なコンピュータに第4の発明が記憶するプログラムをインストールすることで、第1の発明の注視点計測装置を提供することができる。
A fourth invention is a computer-readable storage medium storing a program for causing a computer to function as the gazing point measuring device of the first invention.
A gazing point measurement device according to the first invention is provided by mounting the fourth invention on a storage medium reader provided in a general-purpose computer and installing the program stored in the fourth invention in a general-purpose computer. be able to.
本発明により、アイトラッキング装置の装着者が無意識にマーカーに視線を向けてしまうことがなく、視野映像からマーカーが外れても適切な計測を行うことができる注視点計測装置等を提供することができる。また、剛性が低い素材の訴求媒体を対象物体としたときに、対象物体が変形した場合であっても、対象物体の原形画像における注視点の位置を正確に自動計測することができる注視点計測装置等を提供することができる。 According to the present invention, it is possible to provide a gaze point measuring device and the like capable of performing appropriate measurement even when the eye tracking device wearer does not unintentionally turn his / her line of sight to the marker and the marker is removed from the visual field image. it can. In addition, when the target object is a low-rigidity appeal medium, even if the target object is deformed, it is possible to automatically and accurately measure the position of the point of interest in the original image of the target object. A device or the like can be provided.
以下図面に基づいて、本発明の実施形態を詳細に説明する。
図1は、本発明に係る注視点計測システムの概要を示す図である。図2は、原形画像3と視野映像4の模式図である。
図1に示すように、本発明に係る注視点計測システムは、注視点計測装置1、アイトラッキング装置2等から構成される。
本発明に係る注視点計測システムは、図2に示す対象物体5が、剛性が低い素材の訴求媒体であるときに最適である。本発明によって訴求媒体の注視点計測を行うことで、訴求媒体の分析における人的負荷が飛躍的に軽減される。ここで、剛性が低い素材とは、人力によって容易に変形できる程度の素材を意味する。剛性が低い素材の一例としては、シート、紙、フィルムなどが挙げられるが、これらの例に限定されるわけではない。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing an outline of a gazing point measurement system according to the present invention. FIG. 2 is a schematic diagram of the
As shown in FIG. 1, the gazing point measurement system according to the present invention includes a gazing
The gazing point measurement system according to the present invention is optimal when the
注視点計測装置1は、アイトラッキング装置2によって撮影された映像である視野映像4内のアイマーク6の位置と対応付けて、対象物体5の静止画像である原形画像3における注視点7の位置を計測する。
原形画像3とは、対象物体5の原形の画像、すなわち人力などによって変形されていない画像である。原形画像3は、文字、図形、記号、写真などを含む。対象物体5が訴求媒体の場合、原形画像3は、例えば、レイアウトソフトをインストールしたコンピュータによって生成されるレイアウト画像である。原形画像3は、注視点計測装置1に格納されている。
The gazing
The
アイトラッキング装置2は、例えば、頭部装着型であって、装着者の顔が向いている方向をカメラによって撮影し、撮影した視野映像4に装着者の視線の注視点をアイマークとしてマッピングする。撮影した視野映像4は、注視点計測装置1に送信される。
The
図2に示すように、原形画像3は、2次元平面の形状を有する。図2では、原形画像3を模式的に示している。原形画像3の上部の斜線部は、同様の模様および色彩が付されていることを示している。原形画像3内部の矩形は、写真を示している。原形画像3内部の複数の横線は、文章を示している。
As shown in FIG. 2, the
また、図2に示すように、視野映像4は、対象物体5を含む。図2では、視野映像4を模式的に示している。視野映像4に含まれる対象物体5は、人力などによって不規則に変形され、端が湾曲したり、訴求媒体の内部に凹凸が生じたりしている。尚、図面を分かりやすくする為、人間の手やテーブルなど、実際には実空間に存在する物体を省略し、対象物体5を除く領域は全て空白としている。
In addition, as shown in FIG. 2, the
アイトラッキング装置2は、視野映像4内において、対象物体5と、その他の物体や背景とを区別することができない。アイトラッキング装置2は、単にアイトラッキング装置2の装着者が視野映像4内のどこを見ているかをアイマーク6としてマッピングするのみである。従って、例えば、装着者が対象物体5から目を離せば、アイマーク6が対象物体5ではない領域にマッピングされるが、アイトラッキング装置2は、装着者が対象物体5から目を離したことは認識できない。
The
次に、図3、図4を参照しながら、注視点計測装置1およびアイトラッキング装置2のハードウエア構成について説明する。
図3は、注視点計測装置1のハードウエア構成図である。尚、図3のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
Next, the hardware configuration of the gazing
FIG. 3 is a hardware configuration diagram of the gazing
注視点計測装置1は、制御部11、記憶部12、メディア入出力部13、通信制御部14、入力部15、表示部16、周辺機器I/F部17等が、バス18を介して接続される。
The gazing
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。
The
CPUは、記憶部12、ROM、記録媒体等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス18を介して接続された各装置を駆動制御し、注視点計測装置1が行う後述する処理を実現する。
ROMは、不揮発性メモリであり、コンピュータのブートプログラムやBIOS等のプログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部12、ROM、記録媒体等からロードしたプログラム、データ等を一時的に保持するとともに、制御部11が各種処理を行う為に使用するワークエリアを備える。
The CPU calls and executes a program stored in the
The ROM is a non-volatile memory and permanently holds a computer boot program, a program such as BIOS, data, and the like.
The RAM is a volatile memory, and temporarily stores programs, data, and the like loaded from the
記憶部12は、HDD(ハードディスクドライブ)であり、制御部11が実行するプログラム、プログラム実行に必要なデータ、OS(オペレーティングシステム)等が格納される。プログラムに関しては、OS(オペレーティングシステム)に相当する制御プログラムや、後述する処理をコンピュータに実行させるためのアプリケーションプログラムが格納されている。
これらの各プログラムコードは、制御部11により必要に応じて読み出されてRAMに移され、CPUに読み出されて各種の手段として実行される。
また、記憶部12には、原形画像3が格納されている。
The
Each of these program codes is read by the
The
メディア入出力部13(ドライブ装置)は、データの入出力を行い、例えば、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW等)等のメディア入出力装置を有する。
通信制御部14は、通信制御装置、通信ポート等を有し、コンピュータとネットワーク間の通信を媒介する通信インタフェースであり、ネットワークを介して、他のコンピュータ間との通信制御を行う。ネットワークは、有線、無線を問わない。
The media input / output unit 13 (drive device) inputs / outputs data, for example, media such as a CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, etc.) Has input / output devices.
The
入力部15は、データの入力を行い、例えば、キーボード、マウス等のポインティングデバイス、テンキー等の入力装置を有する。
入力部15を介して、コンピュータに対して、操作指示、動作指示、データ入力等を行うことができる。
表示部16は、液晶パネル等のディスプレイ装置、ディスプレイ装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。
The
An operation instruction, an operation instruction, data input, and the like can be performed on the computer via the
The
周辺機器I/F(インタフェース)部17は、コンピュータに周辺機器を接続させるためのポートであり、周辺機器I/F部17を介してコンピュータは周辺機器とのデータの送受信を行う。周辺機器としては、例えば、アイトラッキング装置2等がある。周辺機器I/F部17は、USBやIEEE1394やRS−232C等で構成されており、通常複数の周辺機器I/Fを有する。周辺機器との接続形態は有線、無線を問わない。
バス18は、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The peripheral device I / F (interface)
The bus 18 is a path that mediates transmission / reception of control signals, data signals, and the like between the devices.
図4は、アイトラッキング装置2のハードウエア構成図である。尚、図4のハードウエア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
FIG. 4 is a hardware configuration diagram of the
アイトラッキング装置2は、制御部21、記憶部22、視野カメラ23、アイマーク検出部24、電源部25、スイッチ26、外部出力部27等が、バス28を介して接続される。
In the
制御部21は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成される。
The
CPUは、記憶部22、ROM等に格納されるプログラムをRAM上のワークメモリ領域に呼び出して実行し、バス28を介して接続されたアイトラッキング装置2の各装置を駆動制御現する。
ROMは、不揮発性メモリであり、プログラム、データ等を恒久的に保持している。
RAMは、揮発性メモリであり、記憶部22、ROM等からロードしたプログラム、データ、視野カメラ23が撮影した視野映像4、アイマーク検出部24が検出したアイマーク6の位置を示す座標データ等を一時的に保持するとともに、制御部21が各種処理を行う為に使用するワークエリアを備える。
The CPU calls and executes a program stored in the
The ROM is a non-volatile memory and permanently holds programs, data, and the like.
The RAM is a volatile memory, and programs and data loaded from the
記憶部22は、制御部21が実行するプログラム、プログラム実行に必要なデータ等が格納される。各プログラムコードは、制御部21により必要に応じて読み出されてRAMに移され、CPUに読み出されて実行される。
The
視野カメラ23は、装着者の顔が向いている方向を撮影する。
アイマーク検出部24は、装着者の眼球を撮影し、撮影された眼球画像から装着者の眼球運動、向き(視線)を解析し、視野映像4にアイマーク6を重ねて記憶するとともに、アイマーク6の位置を示す座標データを記憶する。
The field-of-
The eye
電源部25は、アイトラッキング装置2の起電力を供給する。電源部25は、内蔵型のバッテリでも良いし、外部からの電力を伝送するアダプタでも良い。
スイッチ26は、アイトラッキング装置2の電源のON、OFFや、各種のキャリブレーションなどを行うための入力装置である。
外部出力部27は、視野映像4、アイマーク6の位置を示す座標データなどを外部に出力する。外部出力部27は、有線であっても良いし、無線であっても良い。
The
The
The
次に、図5から図17を参照しながら、注視点計測装置1が行う処理について説明する。
図5は、注視点計測装置1に係るデータと処理の流れを示す図である。図5に示すように、注視点計測装置1の制御部11は、対応点検索処理31、原形メッシュ生成処理32、平面射影変換行列算出処理33、平面メッシュ生成処理34、曲面メッシュ生成処理35、注視点位置特定処理36、表示処理37等を実行する。
Next, processing performed by the gazing
FIG. 5 is a diagram illustrating a flow of data and processing related to the gazing
対応点検索処理31では、制御部11は、アイトラッキング装置2から受信する視野映像4、記憶部12に格納されている原形画像3を入力し、視野映像4と原形画像3とを対応づける点である対応点42の組を出力する。
In the corresponding point search process 31, the
図6は、対応点検索処理31を説明する図である。
対応点検索処理31では、制御部11は、視野映像4の特徴点である実空間特徴点51aおよび原形画像3の特徴点である原形特徴点51bを抽出し、実空間特徴点51aおよび原形特徴点51bの集合に基づいて、視野映像4と原形画像3とを対応づける対応点42の組として、視野映像4の対応点42である実空間対応点42aおよび原形画像3の対応点42である原形対応点42bの組を検索する。
図6では、実空間特徴点51aおよび原形特徴点51bを黒丸によって示している。
FIG. 6 is a diagram for explaining the corresponding point search processing 31.
In the corresponding point search processing 31, the
In FIG. 6, the real space feature points 51a and the original feature points 51b are indicated by black circles.
対応点検索処理31を実現する手法としては、例えば、SIFT(Scale Invariant Feature Transfrom)などが知られている。SIFTでは、画像中から特徴点の抽出と特徴量の記述を行う手法である。各特徴点には、スケールと、様々な特徴量を示す128次元ベクトルが定義される。そして、128次元ベクトル間のユークリッド距離を用いて、実空間特徴点51aの集合および原形特徴点51bの集合から対応点42の組を探索する。最も小さい距離の組(実空間特徴点51aと原形特徴点51bの組)が対応点42の組の候補となるが、2番目に小さい距離を持つ組との差が一定の値以上の場合にのみ、対応点42の組と判定する。すなわち、対応点42の組と判定されない実空間特徴点51a、原形特徴点51bが存在する。これは、特徴量の近い特徴点が複数存在する場合、誤って対応づけることを防止するためである。
後述する平面射影変換行列算出処理33の入力としては、4つ以上の対応点42の組が存在すれば良い。対応点42の組が少ないことよりも、誤って対応づけた対応点42の組が存在することの方が、平面射影変換行列算出処理33の精度を低くする為、対応点検索処理31では、出来る限り、誤って対応づけた対応点42の組を出力しないようにする。
As a method for realizing the corresponding point search processing 31, for example, SIFT (Scale Invariant Feature Transform) is known. SIFT is a technique for extracting feature points from an image and describing feature quantities. Each feature point is defined with a scale and a 128-dimensional vector indicating various feature amounts. Then, using the Euclidean distance between the 128-dimensional vectors, a set of corresponding points 42 is searched from the set of real space feature points 51a and the set of original feature points 51b. The pair with the smallest distance (the pair of the real space feature point 51a and the original feature point 51b) is a candidate for the pair of corresponding points 42, but the difference from the pair with the second smallest distance is a certain value or more. Only a pair of corresponding points 42 is determined. That is, there are a real space feature point 51a and an original feature point 51b that are not determined as a set of corresponding points 42. This is to prevent erroneous association when there are a plurality of feature points having similar feature amounts.
As an input of the planar projective transformation matrix calculation process 33 described later, it is sufficient if there are four or more sets of corresponding points 42. In order to reduce the accuracy of the plane projection transformation matrix calculation process 33 when there is a pair of corresponding points 42 that are associated with each other in error rather than when there are fewer pairs of corresponding points 42, in the corresponding point search process 31, As much as possible, a set of corresponding points 42 that are erroneously associated is not output.
SIFTは、対象物体5の回転、サイズ変化、照明変化の影響を受けにくいという効果がある。但し、本発明に係る対応点検索処理31は、SIFTに限定されるわけではなく、適宜公知の技術を適用することができる。
SIFT has an effect that it is not easily affected by the rotation, size change, and illumination change of the
図5の説明に戻る。
原形メッシュ生成処理32では、制御部11は、記憶部12に格納されている原形画像3を入力し、原形画像3のメッシュである原形メッシュ43を出力する。メッシュとは、任意の多角形(例えば、三角形、四角形など)を最小単位として、計算対象領域が細かく分割されたものである。メッシュサイズ(正三角形、正四角形などであれば、一辺の大きさ)は、用途に応じてユーザが適宜決定することができる。
原形メッシュ生成処理32では、公知の技術により、例えば、原形画像3を任意の多角形によって等分割する。
Returning to the description of FIG.
In the original mesh generation process 32, the
In the original mesh generation process 32, for example, the
図7は、原形メッシュ43の模式図である。図7に示す原形メッシュ43は、図6に示す原形画像3を三角形によってメッシュ分割したものである。制御部11は、各三角形を識別するIDとともに、各三角形の頂点の座標を記憶部12に記憶する。
FIG. 7 is a schematic diagram of the original mesh 43. The original mesh 43 shown in FIG. 7 is obtained by dividing the
図5の説明に戻る。
平面射影変換行列算出処理33では、制御部11は、原形メッシュ生成処理32によって出力される対応点42の組を入力し、実空間対応点42aおよび原形対応点42bの組の集合に基づいて、視野映像4の座標を原形画像3の座標に平面射影変換するための平面射影変換行列44を出力する。
Returning to the description of FIG.
In the plane projective transformation matrix calculation process 33, the
前述の対応点検索処理31では、誤って対応づけられた対応点42の組が出力される可能性がある。平面射影変換行列算出処理33において、誤って対応づけられた対応点42の組を採用して計算すると、正確な平面射影変換行列44を得ることはできない。本発明の平面射影変換行列算出処理33では、誤って対応づけられた対応点42の組を採用して計算しないように、例えば、RANSAC(RANdom SAmple Consensus)と呼ばれる手法を用いる。 In the corresponding point search process 31 described above, there is a possibility that a set of corresponding points 42 that are erroneously associated with each other is output. In the plane projective transformation matrix calculation process 33, if a pair of corresponding points 42 that are erroneously associated is employed for calculation, an accurate plane projective transformation matrix 44 cannot be obtained. In the planar projective transformation matrix calculation process 33 of the present invention, for example, a technique called RANSAC (RANdom Sample Sample Consensus) is used so as not to calculate by adopting a pair of corresponding points 42 that are incorrectly associated.
図8は、平面射影変換行列算出処理33の流れを示すフローチャートである。図9、図10は、平面射影変換行列44の一例を示す図である。
図8に示すフローチャートは、基本的には、RANSACによる算出処理を示している。図9、図10において、碁盤の目のように引かれた罫線は、平面の変形や各点の位置を把握し易いように付したものである。
FIG. 8 is a flowchart showing the flow of the planar projective transformation matrix calculation process 33. 9 and 10 are diagrams illustrating an example of the planar projective transformation matrix 44.
The flowchart shown in FIG. 8 basically shows calculation processing by RANSAC. In FIG. 9 and FIG. 10, ruled lines drawn like a grid are attached so that it is easy to grasp the deformation of the plane and the position of each point.
制御部11は、全ての対応点42の組の中から平面射影変換行列44の計算に採用する点を乱数によって決定する(S101)。
図9、図10では、視野映像4における実空間対応点42aが、番号が付された正方形によって示されている。図9、図10に示す例では、6つの実空間対応点42aが存在する。制御部11は、平面射影変換行列44の計算に採用する点として、6つの実空間対応点42aの中から、例えば、4つの実空間対応点42aを乱数によって決定する。
図9の例では、「1」、「2」、「3」、「4」の実空間対応点42aを行列計算に採用する点としている。また、図10の例では、「1」、「3」、「4」、「6」の実空間対応点42aを行列計算に採用する点としている。
The
9 and 10, the real space corresponding point 42a in the
In the example of FIG. 9, the real space corresponding points 42a of “1”, “2”, “3”, and “4” are used for matrix calculation. In the example of FIG. 10, the real space corresponding points 42a of “1”, “3”, “4”, and “6” are used for matrix calculation.
次に、制御部11は、算出した平面射影変換行列44を用いて、視野映像4の全ての対応点42の組を変換し、原形画像3における変換点52とする(S102)。
図9、図10では、原形画像3における変換点52が、番号が付された正方形によって示されている。また、図9、図10では、後述するS103にて参照される、原形画像3における原形対応点42bが、番号が付された円によって示されている。
Next, the
9 and 10, the conversion points 52 in the
次に、制御部11は、原形対応点42bと位置が一致する変換点52の数を算出する(S103)。ここで、位置が一致するとは、x座標とy座標が完全一致する場合だけでなく、原形対応点42bと変換点52とのユークリッド距離が一定の値以内の場合も含むものとする。また、位置が一致するどうかの比較対象は、変換点52の変換元である実空間対応点42aと対応づけられている原形対応点42bのみとする。
図9、図10では、原形対応点42bと変換点52の位置が一致していることを円と正方形の重なりによって示している。
図9の例では、原形対応点42bと位置が一致する変換点52の数は、「2」の1つだけである。また、図10の例では、原形対応点42bと位置が一致する変換点52の数は、「1」、「3」、「6」の3つである。
Next, the
9 and 10, the positions of the original corresponding point 42 b and the conversion point 52 coincide with each other by overlapping circles and squares.
In the example of FIG. 9, the number of conversion points 52 whose positions coincide with the original corresponding point 42 b is only “2”. In the example of FIG. 10, the number of conversion points 52 whose positions coincide with the original corresponding point 42b is three, “1”, “3”, and “6”.
次に、制御部11は、終了条件を満たすかどうか確認する(S104)。
終了条件は、例えば、繰り返し処理の回数、すなわち、S101からS103までの処理を所定の回数実行することである。
また、終了条件は、例えば、原形対応点42bと位置が一致する変換点52の数、すなわち、S103の算出結果が所定の数を上回ることである。
終了条件を満たさない場合(S104のNo)、制御部11は、S101から繰り返す。
終了条件を満たす場合(S104のYes)、制御部11は、S105に進む。
Next, the
The end condition is, for example, the number of repetition processes, that is, the processes from S101 to S103 are executed a predetermined number of times.
The end condition is, for example, that the number of conversion points 52 whose positions coincide with the original corresponding point 42b, that is, the calculation result of S103 exceeds a predetermined number.
When the termination condition is not satisfied (No in S104), the
When the end condition is satisfied (Yes in S104), the
次に、制御部11は、原形対応点42bと位置が一致する変換点52の数が最も多い平面射影変換行列44を最適解として記憶部12またはRAMに保存する(S105)。
図9、図10の例を比較すると、図10の方が、原形対応点42bと一致する変換点52の数が多いことから、「1」、「3」、「4」、「6」の実空間対応点42aを採用して算出した平面射影変換行列44が最適解となる。
尚、図2で対象物体5が湾曲等をしていない平面であれば、平面射影変換行列44が求められると、前述した原形メッシュ生成処理32、および後述する平面メッシュ生成処理34、曲面メッシュ生成処理35を行わなくても、視野映像4内のアイマーク6の位置座標から原形画像3の注視点7を求めることができる。
Next, the
Comparing the examples of FIG. 9 and FIG. 10, since the number of conversion points 52 matching the original shape corresponding point 42b is larger in FIG. 10, “1”, “3”, “4”, “6” The plane projection transformation matrix 44 calculated by adopting the real space corresponding point 42a is the optimal solution.
If the plane projection transformation matrix 44 is obtained if the
図5の説明に戻る。
平面メッシュ生成処理34では、制御部11は、平面射影変換行列算出処理33によって出力される平面射影変換行列44、対応点検索処理31によって出力される対応点42の組、原形メッシュ生成処理32によって出力される原形メッシュ43を入力し、視野映像4の平面メッシュ45を出力する。
また、曲面メッシュ生成処理35では、制御部11は、平面メッシュ生成処理3によって出力される平面メッシュ45を入力し、視野映像4の曲面メッシュ46を出力する。
Returning to the description of FIG.
In the plane mesh generation process 34, the
In the curved surface mesh generation process 35, the
図11は、平面メッシュ生成処理34、曲面メッシュ生成処理35の流れを示すフローチャートである。図12は、平面メッシュ45の一例を示す図である。図13は、実空間対応点42aと平面対応点42cとの位置ずれ54を説明する図である。図14は、曲面メッシュ46の一例を示す図である。 FIG. 11 is a flowchart showing the flow of the plane mesh generation process 34 and the curved surface mesh generation process 35. FIG. 12 is a diagram illustrating an example of the planar mesh 45. FIG. 13 is a diagram for explaining the positional deviation 54 between the real space corresponding point 42a and the plane corresponding point 42c. FIG. 14 is a diagram illustrating an example of the curved mesh 46.
平面メッシュ生成処理34では、制御部11は、原形メッシュ43に対して平面射影変換行列44に基づく平面射影変換を行うことで視野映像4の平面メッシュ45を生成する。
また、曲面メッシュ生成処理35では、制御部11は、平面メッシュ45に対して、実空間対応点42aに対して平面射影変換を行うことで平面対応点42cを算出し、平面対応点42cと実空間対応点42aとの位置ずれ54に基づいて平面メッシュ45を変形することで視野映像4の曲面メッシュ46を生成する。
In the plane mesh generation process 34, the
Further, in the curved surface mesh generation processing 35, the
図11に示すように、制御部11は、図8のS105にて算出した平面射影変換行列44の最適解の逆行列を用いて、原形メッシュ43の平面射影変換を行うことで平面メッシュ45を生成する(S201)。
図12では、原形メッシュ43から平面メッシュ45への変換を示している。説明の都合上、平面メッシュ45は、視野映像4における対象物体5に重ねて示している。
図2に示すように、対象物体5の端が湾曲したり、内部に凹凸が生じたりしている場合、図12に示すように、平面メッシュ45は、不規則に変形した視野映像4の対象物体5とずれが生じる。これに対して、後述する曲面メッシュ生成処理35を行うことで、対象物体5の端が湾曲したり、内部に凹凸が生じたりすることによるずれを修正し、注視点7の位置を正確に特定することできる。
As shown in FIG. 11, the
In FIG. 12, conversion from the original mesh 43 to the planar mesh 45 is shown. For convenience of explanation, the plane mesh 45 is shown superimposed on the
As shown in FIG. 2, when the end of the
次に、制御部11は、平面メッシュ45を対応点42の組の集合(実空間対応点42aおよび平面対応点42cの集合)に合わせて位置合わせを行う(S202)。
具体的には、制御部11は、平面対応点42cと実空間対応点42aとの位置ずれ54と、変形の複雑度とを含む判定式に基づいて平面メッシュ45を変形する。判定式は、次に示す式(1)である。
Next, the
Specifically, the
式(1)のSは、平面メッシュ45の各要素の頂点の集合であって、行列である。ε(S)が判定式である。λDは、調整用パラメータである。εD(S)は、変形の複雑度である。εC(S)は、実空間対応点42aと平面対応点42cとの位置ずれ54に基づく値である。
式(2)のnは、平面メッシュ45の各要素を示す添字である。Nは、平面メッシュ45の要素数である。εD(S(n))は、式(2)に示すように、例えば、変形前後の各辺の差の二乗和の平方根である。差の二乗和の平方根に代えて、差の二乗和、分散、標準偏差などを採用しても良い。li(n)は、要素nの変形前の辺の長さである。li´(n)は、要素nの変形後の辺の長さである。要素が三角形の場合、辺が3つなので、i=1〜3である。また、要素が四角形の場合、辺が4つなので、i=1〜4となる。
式(3)のkは、対応点42の組を示す添字である。Kは、対応点42の組の数である。εC(S(k))は、式(3)に示すように、例えば、実空間対応点42aと平面対応点42cとのユークリッド距離である。x1(k)、y1(k)は、実空間対応点42aのx座標、y座標である。x2(k)、y2(k)は、平面対応点42cのx座標、y座標である。
S in Expression (1) is a set of vertices of each element of the planar mesh 45 and is a matrix. ε (S) is a judgment formula. λ D is an adjustment parameter. ε D (S) is the complexity of the deformation. ε C (S) is a value based on the positional deviation 54 between the real space corresponding point 42a and the plane corresponding point 42c.
N in the formula (2) is a subscript indicating each element of the planar mesh 45. N is the number of elements of the planar mesh 45. ε D (S (n)) is, for example, the square root of the sum of squares of the difference between the sides before and after deformation, as shown in Expression (2). Instead of the square root of the sum of squares of the differences, a sum of squares of the differences, variance, standard deviation, or the like may be employed. l i (n) is the length of the side of the element n before deformation. l i ′ (n) is the length of the side of the element n after deformation. When the element is a triangle, i = 1 to 3 because there are three sides. If the element is a quadrangle, i = 1 to 4 because there are four sides.
In Expression (3), k is a subscript indicating a set of corresponding points 42. K is the number of sets of corresponding points 42. ε C (S (k)) is, for example, the Euclidean distance between the real space corresponding point 42a and the plane corresponding point 42c, as shown in Expression (3). x 1 (k) and y 1 (k) are the x coordinate and y coordinate of the real space corresponding point 42a. x 2 (k) and y 2 (k) are the x coordinate and y coordinate of the plane corresponding point 42c.
εD(S)は、変形が複雑であれば、値が大きくなる。また、εC(S)は、位置ずれ54が大きければ、値が大きくなる。
制御部11は、単純な変形、すなわち滑らかな変形によって、平面対応点42cと実空間対応点42aとの位置ずれ54を小さくし、平面対応点42cの位置と実空間対応点42aの位置が合うように位置合わせする為、式(1)に示す判定式ε(S)を最小化するSを算出する。従って、制御部11は、式(1)に示す判定式ε(S)の偏微分が0となるSを算出する。
ε D (S) increases in value if the deformation is complicated. Further, the value of ε C (S) increases as the positional deviation 54 increases.
The
次に、制御部11は、S202における位置合わせの結果に基づいて、平面メッシュ45を変形する(S203)。ここでは、制御部11は、S202にて算出された平面メッシュ45の各要素の頂点の集合Sに基づいて、平面メッシュ45の各要素の頂点を移動させれば良い。S203の変形では、要素の数は変わらないが、要素の面積、形状が変化する。
Next, the
次に、制御部11は、終了条件を満たすかどうか確認する(S204)。
終了条件は、例えば、繰り返し処理の回数、すなわち、S202からS203までの処理を所定の回数実行することである。
また、終了条件は、例えば、位置ずれ54の最大値、すなわち、S202において算出する平面対応点42cと実空間対応点42aとの位置ずれ54の最大値が一定の値以下になることである。
終了条件を満たさない場合(S204のNo)、制御部11は、S202から繰り返す。
終了条件を満たす場合(S204のYes)、制御部11は、S205に進む。
Next, the
The end condition is, for example, the number of repetition processes, that is, the process from S202 to S203 is executed a predetermined number of times.
The termination condition is, for example, that the maximum value of the positional deviation 54, that is, the maximum value of the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a calculated in S202 is equal to or less than a certain value.
When the termination condition is not satisfied (No in S204), the
When the end condition is satisfied (Yes in S204), the
図13では、実空間対応点42aが、番号が付された正方形によって示され、平面対応点42cが、番号が付された円によって示されている。図13の例では、対応点42の組の識別番号が「1」、「2」、「5」、「6」については、平面対応点42cと実空間対応点42aとの位置ずれ54が大きい。一方、対応点42の識別番号が「3」、「4」については、平面対応点42cと実空間対応点42aとの位置ずれ54が小さい。
制御部11がS202からS203の処理を繰り返すことで、図13に示す位置ずれ54は、次第に小さくなっていく。
In FIG. 13, the real space corresponding point 42a is indicated by a numbered square, and the plane corresponding point 42c is indicated by a numbered circle. In the example of FIG. 13, for the identification numbers “1”, “2”, “5”, and “6” of the pair of corresponding points 42, the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a is large. . On the other hand, for the identification numbers “3” and “4” of the corresponding points 42, the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a is small.
As the
次に、制御部11は、現時点での変形した平面メッシュ45を曲面メッシュ46として記憶部12に保存する(S205)。制御部11は、平面メッシュ45を繰り返し変形することで、最適な曲面メッシュ46を生成する。
図14では、曲面メッシュ46の模式図を示している。図11に示す処理を行うことで、視野映像4の対象物体5が正確に表現された曲面メッシュ46が生成される。図14に示すように、曲面メッシュ46の領域は、視野映像4の対象物体5の領域と一致している。また、曲面メッシュ46の各要素は、平面メッシュ45の各要素と比較して、対象物体5の端の湾曲や内部の凹凸などの変形に応じて、位置、大きさ、形状が変形されている。
Next, the
FIG. 14 shows a schematic diagram of the curved mesh 46. By performing the processing shown in FIG. 11, a curved mesh 46 in which the
図5の説明に戻る。
注視点位置特定処理36では、制御部11は、アイトラッキング装置2から受信するアイマーク位置47、曲面メッシュ生成処理35によって出力される曲面メッシュ46(または、平面メッシュ生成処理34によって出力される平面メッシュ45)を入力し、注視点位置48を出力する。
図14に示すように、視野映像4におけるアイマーク位置47に基づいて、曲面メッシュ46(または平面メッシュ45)のアイマークを含む要素56が判定できる。曲面メッシュ46(または平面メッシュ45)と原形メッシュ43の各要素は、それぞれ対応づけられているので、曲面メッシュ46(または平面メッシュ45)のアイマークを含む要素56と対応する原形メッシュ43の要素が、注視点を含む要素57と特定される。そして、制御部11は、アイマークを含む要素56、注視点を含む要素57、およびアイマーク位置47に基づいて、注視点位置48を算出し、出力する。
Returning to the description of FIG.
In the gazing point position specifying process 36, the
As illustrated in FIG. 14, the element 56 including the eye mark of the curved mesh 46 (or the planar mesh 45) can be determined based on the eye mark position 47 in the
図15は、注視点位置48の算出処理の一例を説明する図である。
図15には、アイマークを含む要素56と注視点を含む要素57が図示されている。点A、B、Cは、アイマークを含む要素56(曲面メッシュ46または平面メッシュ45の三角形)の頂点であり、点A、B、Cの座標は既知である。同様に、点A’、B’、C’は、注視点を含む要素57(原形メッシュ43の三角形)の頂点であり、点A’、B’、C’の座標は既知である。また、点Pはアイマーク位置47であり、点Pの座標は既知である。
ここで、三角形PBC、PCA、PABの面積比を(α、β、γ)とすると、点A、B、C、Pの座標が既知であることから、(α、β、γ)は算出可能である。
更に、点P’を注視点位置48とする。また、三角形P’B’C’、P’C’A’、P’A’B’の面積比を(α’、β’、γ’)とする。
制御部11は、例えば、(α’、β’、γ’)=(α、β、γ)となる点P’の座標を算出し、注視点位置48の座標として出力する。
但し、注視点位置48の算出処理は、この例に限定されるわけではなく、適宜公知の技術を適用することができる。
FIG. 15 is a diagram for explaining an example of the calculation process of the gazing point position 48.
FIG. 15 shows an element 56 including an eye mark and an element 57 including a gazing point. Points A, B, and C are vertices of an element 56 (triangle of the curved mesh 46 or the planar mesh 45) including the eye mark, and the coordinates of the points A, B, and C are known. Similarly, the points A ′, B ′, and C ′ are the vertices of the element 57 (the triangle of the original mesh 43) that includes the gazing point, and the coordinates of the points A ′, B ′, and C ′ are known. The point P is the eye mark position 47, and the coordinates of the point P are known.
Here, if the area ratio of the triangles PBC, PCA, and PAB is (α, β, γ), the coordinates of the points A, B, C, and P are known, so (α, β, γ) can be calculated. It is.
Further, the point P ′ is set as the gazing point position 48. Further, the area ratio of the triangles P′B′C ′, P′C′A ′, and P′A′B ′ is (α ′, β ′, γ ′).
For example, the
However, the calculation process of the gazing point position 48 is not limited to this example, and a known technique can be applied as appropriate.
前述した位置合わせ処理(図11のS202)の説明では、式(3)のεC(S)は、全ての対応点42の組(k=1、・・・、K)を用いて算出したが、本発明はこの例に限定されない。
前述したように、対応点検索処理31では、誤って対応づけられた対応点42の組が出力される可能性がある。誤って対応づけられた対応点42の組は、平面対応点42cと実空間対応点42aとの位置ずれ54が大きくなる。一方、図11のS202では、平面対応点42cと実空間対応点42aとの位置ずれ54を小さくするように位置合わせを行う。従って、制御部11は、誤って対応づけられた対応点42の組の位置を合わせるように処理を行ってしまい、正確な曲面メッシュ46を生成することができない場合がある。
In the description of the alignment process described above (S202 in FIG. 11), ε C (S) in Expression (3) is calculated using a set of all corresponding points 42 (k = 1,..., K). However, the present invention is not limited to this example.
As described above, in the corresponding point search process 31, there is a possibility that a set of corresponding points 42 associated with each other may be output. In the pair of corresponding points 42 that are erroneously associated with each other, the positional deviation 54 between the planar corresponding point 42c and the real space corresponding point 42a becomes large. On the other hand, in S202 of FIG. 11, alignment is performed so as to reduce the positional deviation 54 between the plane corresponding point 42c and the real space corresponding point 42a. Therefore, the
以下では、図16、図17を参照しながら、誤って対応づけられた対応点42の組を判定式の算出から除外するために、判定式の算出処理に採用する対応点42の組の選択処理について説明する。 In the following, with reference to FIGS. 16 and 17, the selection of the pair of corresponding points 42 to be employed in the determination formula calculation process in order to exclude the pair of corresponding points 42 incorrectly associated from the calculation of the determination formula. Processing will be described.
図16は、判定式の算出処理に採用する対応点の組の選択処理の第1の例を示すフローチャートである。
制御部11は、対応点42の組を1つ選択し(S301)、平面対応点42cと実空間対応点42aとの位置ずれ54を算出する(S302)。
次に、制御部11は、S302の算出結果が閾値以内かどうか確認する(S303)。
S302の算出結果が閾値以内の場合(S303のYes)、制御部11は、S301にて選択した対応点42の組を判定式の算出処理に採用し(S304)、S305に進む。
S302の算出結果が閾値よりも大きい場合(S303のNo)、制御部11は、S301にて選択した対応点42の組を判定式の算出処理に採用せずに、S305に進む。
FIG. 16 is a flowchart illustrating a first example of a process for selecting a pair of corresponding points employed in the determination formula calculation process.
The
Next, the
When the calculation result in S302 is within the threshold (Yes in S303), the
When the calculation result in S302 is larger than the threshold (No in S303), the
次に、制御部11は、全ての対応点42の組に対して処理が終了したかどうか確認する(S305)。
全ての対応点42の組に対して処理が終了していない場合(S305のNo)、制御部11は、S301から処理を繰り返す。
全ての対応点42の組に対して処理が終了している場合(S305のYes)、制御部11は、処理を終了する。
Next, the
If the process has not been completed for all the pairs of corresponding points 42 (No in S305), the
When the process has been completed for all the pairs of corresponding points 42 (Yes in S305), the
図16の処理によって、誤って対応づけられた可能性が高い対応点42の組を除外して、判定式の算出処理に採用する対応点42の組を選択することができる。 By the process of FIG. 16, it is possible to select a pair of corresponding points 42 to be employed in the determination formula calculation process by excluding a pair of corresponding points 42 that are highly likely to be associated by mistake.
尚、S303の閾値は、平面メッシュ45の変形を繰り返すごとに小さくしていくことが望ましい。
閾値を適切に変更していくことで、繰り返しの序盤では、多くの対応点42の組(誤って対応づけられた対応点42の組もある程度含む。)を使用して大まかな変形を行うことができる。
また、繰り返しの終盤では、少ない対応点42の組(誤って対応づけられた対応点42の組がほとんどない。)を使用して正確に細かい変形を行うことができる。
Note that it is desirable that the threshold value in S303 be reduced as the deformation of the planar mesh 45 is repeated.
By appropriately changing the threshold value, in the early iterations, a rough deformation is performed using a set of many corresponding points 42 (including a set of corresponding points 42 erroneously associated to some extent). Can do.
Further, in the final stage of the repetition, it is possible to accurately perform fine deformation using a set of a few corresponding points 42 (there are few sets of corresponding points 42 that are erroneously associated).
図17は、判定式の算出処理に採用する対応点の組の選択処理の第2の例を示すフローチャートである。
制御部11は、対応点42の組を1つ選択し(S401)、平面対応点42cと実空間対応点42aとの位置ずれ54を算出する(S402)。
次に、制御部11は、全ての対応点42の組に対して処理が終了したかどうか確認する(S403)。
全ての対応点42の組に対して処理が終了していない場合(S403のNo)、制御部11は、S401から処理を繰り返す。
全ての対応点42の組に対して処理が終了している場合(S403のYes)、制御部11は、S404に進む。
FIG. 17 is a flowchart illustrating a second example of the corresponding point pair selection process employed in the determination formula calculation process.
The
Next, the
When the process has not been completed for all the pairs of corresponding points 42 (No in S403), the
When the processing has been completed for all pairs of corresponding points 42 (Yes in S403), the
次に、制御部11は、位置ずれ54が最も大きい対応点42の組を除く対応点42の組を判定式の算出処理に採用する(S404)。ここで、除外する対応点42の組は、位置ずれ54が最も大きい対応点42の組ではなく、位置ずれ54が大きい方から一定の数の対応点42の組としても良い。
Next, the
図17の処理によって、誤って対応づけられた可能性が高い対応点42の組を除外して、判定式の算出処理に採用する対応点42の組を選択することができる。 With the processing in FIG. 17, it is possible to select a pair of corresponding points 42 to be employed in the determination formula calculation process by excluding a pair of corresponding points 42 that are highly likely to be associated by mistake.
尚、S404において、位置ずれ54が大きい方から一定の数の対応点42の組を除外する場合、一定の数は、平面メッシュ45の変形を繰り返すごとに増やしていくことが望ましい。
一定の数を適切に変更していくことで、第1の例と同様、繰り返しの序盤、繰り返しの終盤のそれぞれの場合において、適切な対応点42の組を使用して適切な変形を行うことができる。
In S404, when a certain number of pairs of corresponding points 42 are excluded from the larger position deviation 54, it is desirable to increase the certain number every time the deformation of the plane mesh 45 is repeated.
By appropriately changing a certain number, as in the first example, an appropriate transformation is performed using an appropriate set of corresponding points 42 in each case of the beginning of the iteration and the end of the iteration. Can do.
第1の例および第2の例において適切な変形を行うことができる理由は、次の通りである。誤って対応づけられた対応点42は、位置合わせの修正がばらばらになる。一方、正しく対応づけられた対応点42は、同じ方向に修正を行うため、誤って対応づけられた対応点42が含まれていても、全体としては正しい方向への修正量が大きくなる。 The reason why appropriate modifications can be made in the first example and the second example is as follows. Corresponding points 42 that are erroneously associated with each other have different alignment corrections. On the other hand, since the corresponding points 42 correctly associated are corrected in the same direction, even if the corresponding points 42 incorrectly associated are included, the correction amount in the correct direction as a whole increases.
以上、詳細に説明した通り、本発明に係る注視点計測装置1は、注視点の位置を特定するためのマーカーが不要な為、アイトラッキング装置2の装着者が無意識にマーカーに視線を向けてしまうことがなく、適切な計測を行うことができる。また、剛性が低い素材の訴求媒体を対象物体5としたときに、対象物体5が変形した場合であっても、対象物体5の原形画像3における注視点の位置を正確に自動計測することができる。
As described above in detail, the gaze
以上、添付図面を参照しながら、本発明に係る注視点計測装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the gaze point measuring apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these naturally belong to the technical scope of the present invention. Understood.
1………注視点計測装置
2………アイトラッキング装置
3………原形画像
4………視野映像
5………対象物体
6………アイマーク
7………注視点
31………対応点検索処理
32………原形メッシュ生成処理
33………平面射影変換行列算出処理
34………平面メッシュ生成処理
35………曲面メッシュ生成処理
36………注視点位置特定処理
42………対応点
42a………実空間対応点
42b………原形対応点
42c………平面対応点
43………原形メッシュ
44………平面射影変換行列
45………平面メッシュ
46………曲面メッシュ
47………アイマーク位置
48………注視点位置
51a………実空間特徴点
51b………原形特徴点
52………変換点
54………位置ずれ
56………アイマークを含む要素
57………注視点を含む要素
1 ……… Gaze point measuring
Claims (12)
前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索手段と、
前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出手段と、
を具備することを特徴とする注視点計測装置。 A gazing point measurement device that measures a position of a gazing point in an original image of a target object included in the field-of-view image in association with the position of an eye mark in the field-of-view image that is an image photographed by an eye tracking device,
A real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and based on the set of the real space feature point and the original feature point, the visual field image Corresponding point search means for searching for a set of corresponding points that correspond to the original image and a corresponding set of real space corresponding points of the visual field image and a corresponding point of original shapes that are corresponding points of the original image;
Transformation matrix calculation means for calculating a plane projective transformation matrix for plane projective transformation of the coordinates of the visual field image to the coordinates of the original image based on a set of sets of the real space corresponding points and the original corresponding points;
A gaze point measuring apparatus comprising:
前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成手段と、
前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成手段と、
を更に具備することを特徴とする請求項1に記載の注視点計測装置。 Original mesh generation means for generating an original mesh that is a mesh of the original image;
Plane mesh generation means for generating a plane mesh of the visual field image by performing plane projection conversion based on the plane projection conversion matrix for the original mesh;
A plane corresponding point is calculated by performing the plane projective transformation on the real space corresponding point, and the plane mesh is deformed based on a positional deviation between the plane corresponding point and the real space corresponding point, and the field of view is obtained. Curved surface mesh generating means for generating a curved mesh of an image;
The gazing point measurement apparatus according to claim 1, further comprising:
を更に具備することを特徴とする請求項1から請求項7のいずれかに記載の注視点計測装置。 Gazing point position specifying means for specifying the position of the gazing point as an element of the original mesh corresponding to the element of the planar mesh or the curved surface mesh including the eye mark in the visual field image includes the gazing point;
The gazing point measurement apparatus according to claim 1, further comprising:
前記視野映像の特徴点である実空間特徴点および前記原形画像の特徴点である原形特徴点を抽出し、前記実空間特徴点の集合および前記原形特徴点の集合に基づいて、前記視野映像と前記原形画像とを対応づける対応点の組として、前記視野映像の対応点である実空間対応点および前記原形画像の対応点である原形対応点の組を検索する対応点検索ステップと、
前記実空間対応点および前記原形対応点の組の集合に基づいて、前記視野映像の座標を前記原形画像の座標に平面射影変換するための平面射影変換行列を算出する変換行列算出ステップと、
を含むことを特徴とする注視点計測方法。 A gazing point measurement method for measuring a position of a gazing point in an original image of a target object included in the field-of-view image in association with the position of an eye mark in the field-of-view image that is an image photographed by an eye tracking device,
A real space feature point that is a feature point of the visual field image and an original feature point that is a feature point of the original image are extracted, and based on the set of the real space feature point and the original feature point, the visual field image Corresponding point search step for searching for a set of corresponding points that correspond to the original image and a set of corresponding points of the original image that correspond to real space corresponding points of the visual field image and a corresponding point of the original image;
A transformation matrix calculating step for calculating a plane projective transformation matrix for plane projective transformation of the coordinates of the visual field image to the coordinates of the original image based on a set of the real space corresponding point and the original shape corresponding point;
A gaze point measuring method characterized by including
前記原形メッシュに対して前記平面射影変換行列に基づく平面射影変換を行うことで前記視野映像の平面メッシュを生成する平面メッシュ生成ステップと、
前記実空間対応点に対して前記平面射影変換を行うことで平面対応点を算出し、前記平面対応点と前記実空間対応点との位置ずれに基づいて前記平面メッシュを変形することで前記視野映像の曲面メッシュを生成する曲面メッシュ生成ステップと、
を更に含むことを特徴とする請求項9に記載の注視点計測方法。 An original mesh generation step of generating an original mesh that is a mesh of the original image;
A plane mesh generation step of generating a plane mesh of the visual field image by performing plane projection conversion based on the plane projection conversion matrix with respect to the original mesh;
A plane corresponding point is calculated by performing the plane projective transformation on the real space corresponding point, and the plane mesh is deformed based on a positional deviation between the plane corresponding point and the real space corresponding point, and the field of view is obtained. A curved mesh generation step for generating a curved mesh of the video;
The gazing point measurement method according to claim 9, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065732A JP5604923B2 (en) | 2010-03-23 | 2010-03-23 | Gaze point measurement device, gaze point measurement method, program, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010065732A JP5604923B2 (en) | 2010-03-23 | 2010-03-23 | Gaze point measurement device, gaze point measurement method, program, and storage medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011194105A true JP2011194105A (en) | 2011-10-06 |
JP5604923B2 JP5604923B2 (en) | 2014-10-15 |
Family
ID=44873034
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010065732A Expired - Fee Related JP5604923B2 (en) | 2010-03-23 | 2010-03-23 | Gaze point measurement device, gaze point measurement method, program, and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5604923B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228992A (en) * | 2014-06-05 | 2015-12-21 | 大日本印刷株式会社 | Visual axis analysis system and visual axis analysis device |
JP2016073357A (en) * | 2014-10-02 | 2016-05-12 | 富士通株式会社 | Sight-line position detection device, sight-line position detection method, and sight-line position detection program |
JP2017146939A (en) * | 2016-02-19 | 2017-08-24 | 富士通株式会社 | Image display device, display control method and display control program |
JP7431714B2 (en) | 2020-10-16 | 2024-02-15 | 株式会社日立製作所 | Gaze analysis device, gaze analysis method, and gaze analysis system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6253630A (en) * | 1985-09-03 | 1987-03-09 | 日本電気株式会社 | Method and apparatus for measuring position of steady gaze point |
JP2000508557A (en) * | 1996-04-12 | 2000-07-11 | アイライト リサーチ ナムローゼ フェンノートシャップ | Measuring and processing data in response to stimuli |
JP2005045723A (en) * | 2003-07-25 | 2005-02-17 | Fuji Xerox Co Ltd | Image correcting apparatus |
JP2007140613A (en) * | 2005-11-14 | 2007-06-07 | National Institute Of Advanced Industrial & Technology | Method for recognizing several advertising signs in screen image |
JP2008161266A (en) * | 2006-12-27 | 2008-07-17 | Ritsumeikan | Image processor, computer program and image processing method |
JP2009205479A (en) * | 2008-02-28 | 2009-09-10 | Kddi Corp | Calibration equipment, method, and program for image pickup device |
WO2010006727A1 (en) * | 2008-07-15 | 2010-01-21 | Institut Pasteur Korea | Method and apparatus for imaging of features on a substrate |
-
2010
- 2010-03-23 JP JP2010065732A patent/JP5604923B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6253630A (en) * | 1985-09-03 | 1987-03-09 | 日本電気株式会社 | Method and apparatus for measuring position of steady gaze point |
JP2000508557A (en) * | 1996-04-12 | 2000-07-11 | アイライト リサーチ ナムローゼ フェンノートシャップ | Measuring and processing data in response to stimuli |
JP2005045723A (en) * | 2003-07-25 | 2005-02-17 | Fuji Xerox Co Ltd | Image correcting apparatus |
JP2007140613A (en) * | 2005-11-14 | 2007-06-07 | National Institute Of Advanced Industrial & Technology | Method for recognizing several advertising signs in screen image |
JP2008161266A (en) * | 2006-12-27 | 2008-07-17 | Ritsumeikan | Image processor, computer program and image processing method |
JP2009205479A (en) * | 2008-02-28 | 2009-09-10 | Kddi Corp | Calibration equipment, method, and program for image pickup device |
WO2010006727A1 (en) * | 2008-07-15 | 2010-01-21 | Institut Pasteur Korea | Method and apparatus for imaging of features on a substrate |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015228992A (en) * | 2014-06-05 | 2015-12-21 | 大日本印刷株式会社 | Visual axis analysis system and visual axis analysis device |
JP2016073357A (en) * | 2014-10-02 | 2016-05-12 | 富士通株式会社 | Sight-line position detection device, sight-line position detection method, and sight-line position detection program |
JP2017146939A (en) * | 2016-02-19 | 2017-08-24 | 富士通株式会社 | Image display device, display control method and display control program |
JP7431714B2 (en) | 2020-10-16 | 2024-02-15 | 株式会社日立製作所 | Gaze analysis device, gaze analysis method, and gaze analysis system |
Also Published As
Publication number | Publication date |
---|---|
JP5604923B2 (en) | 2014-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dominio et al. | Combining multiple depth-based descriptors for hand gesture recognition | |
US9913578B2 (en) | Eye gaze detecting device and eye gaze detection method | |
CN102739951B (en) | Image processing apparatus and image processing method | |
US20080192990A1 (en) | Gaze detection apparatus and the method of the same | |
Hasan et al. | Detection, segmentation, and 3D pose estimation of surgical tools using convolutional neural networks and algebraic geometry | |
JP6094106B2 (en) | Gaze analysis apparatus, gaze measurement system, method, program, and recording medium | |
CN109426835B (en) | Information processing apparatus, control method of information processing apparatus, and storage medium | |
US20150278167A1 (en) | Automatic measure of visual similarity between fonts | |
EP2499963A1 (en) | Method and apparatus for gaze point mapping | |
JP5762730B2 (en) | Human detection device and human detection method | |
US20170287154A1 (en) | Image processing apparatus and image processing method | |
CN105593787A (en) | Systems and methods of direct pointing detection for interaction with digital device | |
JP2016506260A (en) | Markerless tracking of robotic surgical instruments | |
JP2007233997A (en) | Facial feature point detecting system and method thereof | |
MX2014005478A (en) | System and method for interactive image annotation. | |
JP5604923B2 (en) | Gaze point measurement device, gaze point measurement method, program, and storage medium | |
Schoob et al. | Soft tissue motion tracking with application to tablet-based incision planning in laser surgery | |
Potesil et al. | Improved Anatomical Landmark Localization in Medical Images Using Dense Matching of Graphical Models. | |
JP6915611B2 (en) | Information processing equipment, information processing methods and programs | |
US20210118038A1 (en) | Self-service kiosk for determining glove size | |
US20230326251A1 (en) | Work estimation device, work estimation method, and non-transitory computer readable medium | |
KR20150108556A (en) | Apparatus for providing a display effect based on posture of object, method thereof and computer readable medium having computer program recorded therefor | |
US10796435B2 (en) | Image processing method and image processing apparatus | |
JP6946912B2 (en) | Estimator program, estimator, and estimation method | |
US20230394721A1 (en) | Information processing apparatus, program, and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140401 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140508 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140811 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5604923 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |