JP2016122380A - Position detection device, position detection method, gazing point detection device, and image generation device - Google Patents
Position detection device, position detection method, gazing point detection device, and image generation device Download PDFInfo
- Publication number
- JP2016122380A JP2016122380A JP2014262787A JP2014262787A JP2016122380A JP 2016122380 A JP2016122380 A JP 2016122380A JP 2014262787 A JP2014262787 A JP 2014262787A JP 2014262787 A JP2014262787 A JP 2014262787A JP 2016122380 A JP2016122380 A JP 2016122380A
- Authority
- JP
- Japan
- Prior art keywords
- reflector
- cameras
- light emitter
- light
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 94
- 230000010365 information processing Effects 0.000 claims abstract description 56
- 238000003384 imaging method Methods 0.000 claims abstract description 18
- 238000000034 method Methods 0.000 claims description 22
- 210000004087 cornea Anatomy 0.000 claims description 19
- 238000012545 processing Methods 0.000 abstract description 8
- 210000001747 pupil Anatomy 0.000 description 21
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010041349 Somnolence Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本発明は、検出対象の位置を検出する位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置に関する。 The present invention relates to a position detection device that detects the position of a detection target, a position detection method, a gaze point detection device, and an image generation device.
近年、パーソナルコンピュータ等の情報処理装置において、画像処理によって物体の位置を特定する技術が利用されている。下記の非特許文献1には、パーソナルコンピュータのディスプレイ装置の四隅にマーカーを取り付けて、カメラを用いて使用者を撮像し、得られた画像を基にして、使用者の角膜に映るそれらのマーカーの位置関係と虹彩輪郭と眼球モデルとからカメラに対する対象者の目の位置を求める技術が記載されている。さらに、この技術では、得られた画像におけるマーカーの位置の情報を基にして、ディスプレイの位置と方向を決定している。
In recent years, a technology for specifying the position of an object by image processing has been used in an information processing apparatus such as a personal computer. Non-Patent
しかしながら、上記の非特許文献1に記載の技術では、カメラで撮像されたマーカーの位置関係と眼球モデルとを用いているため、対象物であるディスプレイの位置計算の精度が使用者によってばらつく傾向にある。また、位置計算の処理が複雑化し計算時間が長くなりがちである。
However, since the technique described in Non-Patent
本発明は、上記課題に鑑みて為されたものであり、簡易な計算処理により対象物の位置計算の精度を高めることが可能な位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置を提供することを目的とする。 The present invention has been made in view of the above problems, and a position detection device, a position detection method, a gazing point detection device, and an image generation capable of improving the accuracy of position calculation of an object by simple calculation processing. An object is to provide an apparatus.
上記課題を解決するため、本発明の一形態にかかる位置検出装置は、発光体が取り付けられた検出対象の位置を検出する位置検出装置であって、検出対象に向けて配置された凸面を有する反射体を撮像する第1及び第2のカメラと、第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、反射体の三次元位置をステレオマッチングによって計算するとともに、第1及び第2の画像のそれぞれにおける発光体の反射点と第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、反射体の三次元位置と第1及び第2の画像における傾きとを基に発光体の位置を計算する情報処理部と、を備える。 In order to solve the above-described problem, a position detection device according to an embodiment of the present invention is a position detection device that detects the position of a detection target to which a light emitter is attached, and has a convex surface arranged toward the detection target. Images were taken by the first and second cameras that image the reflector, the first and second light sources whose positions relative to the first and second cameras are known, and the first and second cameras, respectively. Based on the first and second images, the three-dimensional position of the reflector is calculated by stereo matching, and the reflection point of the light emitter and the reflection of the first and second light sources in each of the first and second images. An information processing unit that specifies an inclination of a line connecting the points and calculates the position of the light emitter based on the three-dimensional position of the reflector and the inclinations in the first and second images.
或いは、本発明の他の形態にかかる位置検出方法は、発光体が取り付けられた検出対象の位置を検出する位置検出方法であって、第1及び第2のカメラが、第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源を点灯させた状態で、検出対象に向けて配置された凸面を有する反射体を撮像するステップと、情報処理部が、第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、反射体の三次元位置をステレオマッチングによって計算するとともに、第1及び第2の画像のそれぞれにおける発光体の反射点と第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、反射体の三次元位置と第1及び第2の画像における傾きとを基に発光体の位置を計算するステップと、を備える。 Or the position detection method concerning the other form of this invention is a position detection method which detects the position of the detection target to which the light-emitting body was attached, Comprising: 1st and 2nd cameras are 1st and 2nd With the first and second light sources whose positions relative to the cameras are known turned on, the step of imaging a reflector having a convex surface arranged toward the detection target, Based on the first and second images captured by each of the two cameras, the three-dimensional position of the reflector is calculated by stereo matching, and the reflection point of the light emitter in each of the first and second images Identifying the slope of the line connecting the reflection points of the first and second light sources, and calculating the position of the light emitter based on the three-dimensional position of the reflector and the slope in the first and second images; Is provided.
上記形態の位置検出装置或いは位置検出方法によれば、第1及び第2のカメラによって検出対象に向く凸面を有する反射体が撮像される。そして、情報処理部によって、得られた画像における第1及び第2の光源の反射点を基に、反射体の三次元位置が計算されるとともに、得られた画像における検出対象に取り付けられた発光体の反射点と第1及び第2の光源の反射点とを結ぶ線の傾きが特定される。さらに、情報処理部によって反射体の三次元位置と線の傾きとを使って発光体の位置が計算される。このように、第1及び第2のカメラによって得られた画像における2つの反射点を結ぶ線の傾きを使って検出対象の位置が計算されるので、高精度の位置検出結果を簡易な計算で得ることができる。 According to the position detection device or the position detection method of the above aspect, the first and second cameras image a reflector having a convex surface facing the detection target. Then, the information processing unit calculates the three-dimensional position of the reflector based on the reflection points of the first and second light sources in the obtained image and emits light attached to the detection target in the obtained image. The slope of the line connecting the reflection point of the body and the reflection points of the first and second light sources is specified. Further, the position of the light emitter is calculated by the information processing unit using the three-dimensional position of the reflector and the inclination of the line. Thus, since the position of the detection target is calculated using the slope of the line connecting the two reflection points in the images obtained by the first and second cameras, the highly accurate position detection result can be calculated with a simple calculation. Can be obtained.
ここで、第1及び第2の光源は、それぞれ、反射体上の反射点が第1及び第2のカメラのピンホールと反射体とを結ぶ直線上に現れる程度において、第1及び第2のカメラの近傍に位置するように配置されている、こうすれば、位置検出結果の精度をさらに向上させることができる。 Here, the first and second light sources have the first and second light sources so that the reflection point on the reflector appears on a straight line connecting the pinhole and the reflector of the first and second cameras. In this way, the accuracy of the position detection result can be further improved.
また、情報処理部は、発光体の三次元位置と第1の画像における傾きとを基に、第1の光源と反射体と発光体とを通る第1の平面を特定し、発光体の三次元位置と第2の画像における傾きとを基に、第2の光源と反射体と発光体とを通る第2の平面を特定した後に、第1及び第2の平面の交線を基に発光体の位置を計算することとしてもよい。この場合には、第1及び第2のカメラによって得られた画像における2つの反射点を結ぶ線の傾きを使って2つの平面が特定され、その2つの平面の交線によって検出対象の位置が計算されるので、反射体の形状に関係なく高精度の位置検出結果を簡易な計算で得ることができる。 The information processing unit identifies a first plane that passes through the first light source, the reflector, and the light emitter based on the three-dimensional position of the light emitter and the inclination in the first image, and the third order of the light emitter. After specifying the second plane passing through the second light source, the reflector, and the light emitter based on the original position and the inclination in the second image, light is emitted based on the intersection of the first and second planes. The position of the body may be calculated. In this case, two planes are specified using the inclination of the line connecting the two reflection points in the images obtained by the first and second cameras, and the position of the detection target is determined by the intersection of the two planes. Since it is calculated, a highly accurate position detection result can be obtained by simple calculation regardless of the shape of the reflector.
また、第1及び第2のカメラは、位置が変更された1つ以上の反射体を連続的に2回以上撮像する方法、位置の異なる2つ以上の反射体を撮像する方法のいずれかの方法を用いるように動作し、情報処理部は、第1及び第2のカメラによって撮像された画像を基に、第1の光源と反射体と発光体とを通る第3の平面を特定し、第2の光源と反射体と発光体とを通る第4の平面を特定した後に、第1及び第2の平面の交線と第3及び第4の交線とを基に発光体の位置を計算することとしてもよい。この場合には、第1及び第2のカメラによって得られた画像における2つの反射点を結ぶ線の傾きを使って4つの平面が特定され、それらから得られた2つの交線によって検出対象の位置が計算されるので、検出対象の三次元位置を高精度に得ることができる。 The first and second cameras may be either a method of continuously imaging one or more reflectors whose positions have been changed twice or more, or a method of imaging two or more reflectors having different positions. The information processing unit operates to use the method, specifies the third plane passing through the first light source, the reflector, and the light emitter based on the images captured by the first and second cameras, After specifying the fourth plane passing through the second light source, the reflector, and the light emitter, the position of the light emitter is determined based on the intersection line of the first and second planes and the third and fourth intersection lines. It may be calculated. In this case, four planes are specified using the slopes of the lines connecting the two reflection points in the images obtained by the first and second cameras, and the detection target is detected by the two intersecting lines obtained from them. Since the position is calculated, the three-dimensional position of the detection target can be obtained with high accuracy.
また、第1及び第2の光源は、それぞれ、第1及び第2のカメラの開口部近傍に設けられ、情報処理部は、第1及び第2の画像における第1及び第2の光源の反射点の位置を基に反射体の三次元位置をステレオマッチングにより計算することとしてもよい。この場合には、反射体の三次元位置をより単純な計算で得ることができるので、その結果、検出対象の位置をより簡易に得ることができる。 The first and second light sources are provided near the openings of the first and second cameras, respectively, and the information processing unit reflects the first and second light sources in the first and second images. The three-dimensional position of the reflector may be calculated by stereo matching based on the position of the point. In this case, the three-dimensional position of the reflector can be obtained by simpler calculation, and as a result, the position of the detection target can be obtained more easily.
或いは、本発明の他の形態にかかる注視点検出装置は、発光体が取り付けられた表示画面上の対象者の注視点を検出する注視点検出装置であって、対象者の角膜球を撮像する第1及び第2のカメラと、第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、角膜球の三次元位置をステレオマッチングによって計算するとともに、第1及び第2の画像のそれぞれにおける発光体の反射点と第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、角膜球の三次元位置と第1及び第2の画像における傾きとを基に発光体の位置を計算する情報処理部と、情報処理部によって計算された発光体の位置を基に表示画面の位置を特定し、表示画面の位置を用いて注視点を検出する注視点計算部と、を備える。 Or the gaze point detection apparatus concerning the other form of this invention is a gaze point detection apparatus which detects the subject's gaze point on the display screen to which the light-emitting body was attached, Comprising: A target person's corneal sphere is imaged. The first and second cameras, the first and second light sources whose positions relative to the first and second cameras are known, and the first and second images captured by the first and second cameras, respectively. The three-dimensional position of the corneal sphere is calculated by stereo matching based on the image of, and the line connecting the reflection point of the light emitter and the reflection point of the first and second light sources in each of the first and second images An information processing unit that calculates the position of the illuminant based on the three-dimensional position of the corneal sphere and the inclinations in the first and second images, and the position of the illuminant calculated by the information processing unit The position of the display screen is specified based on the display screen. And a gaze point calculation unit for detecting a gaze point using the position.
上記形態の注視点検出装置によれば、表示画面の位置を高精度かつ簡易に得ることができ、その結果、その表示画面上の注視点を正確に得ることができる。 According to the gaze point detection device of the above aspect, the position of the display screen can be obtained with high accuracy and simplicity, and as a result, the gaze point on the display screen can be obtained accurately.
或いは、本発明の他の形態にかかる画像生成装置は、発光体が取り付けられた表示画面上に画像を表示させる画像生成装置であって、検出対象に向けて配置された凸面を有する反射体を撮像する第1及び第2のカメラと、第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、反射体の三次元位置をステレオマッチングによって計算するとともに、第1及び第2の画像のそれぞれにおける発光体の反射点と第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、反射体の三次元位置と第1及び第2の画像における傾きとを基に発光体の位置を計算する情報処理部と、情報処理部によって計算された発光体の位置を基に表示画面の位置を特定し、表示画面の位置を用いて表示画面上に画像を表示させる画像生成部と、を備える。 Alternatively, an image generation apparatus according to another aspect of the present invention is an image generation apparatus that displays an image on a display screen to which a light emitter is attached, and includes a reflector having a convex surface arranged toward a detection target. First and second cameras to be imaged, first and second light sources whose positions relative to each of the first and second cameras are known, and first and second images captured by the first and second cameras, respectively. Based on the second image, the three-dimensional position of the reflector is calculated by stereo matching, and the reflection point of the light emitter and the reflection point of the first and second light sources in each of the first and second images are calculated. An information processing unit that identifies the inclination of the connecting line, calculates the position of the light emitter based on the three-dimensional position of the reflector and the inclination in the first and second images, and the light emitter calculated by the information processing unit Display screen position based on position Identified, and an image generating unit for displaying an image on a display screen by using the position of the display screen.
上記形態の画像生成装置によれば、表示画面の位置を高精度かつ簡易に得ることができ、その結果、その表示画面の位置に応じて表示画面上に適切な画像を表示させることができる。 According to the image generation apparatus of the above aspect, the position of the display screen can be easily obtained with high accuracy, and as a result, an appropriate image can be displayed on the display screen according to the position of the display screen.
本発明によれば、簡易な計算処理により対象物の位置計算の精度を高めることができる。 ADVANTAGE OF THE INVENTION According to this invention, the precision of the position calculation of a target object can be raised by simple calculation processing.
以下、図面を参照しつつ本発明に係る位置検出装置、位置検出方法、注視点検出装置、及び画像生成装置の好適な実施形態について詳細に説明する。なお、図面の説明においては、同一又は相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, preferred embodiments of a position detection device, a position detection method, a gaze point detection device, and an image generation device according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.
図1は、本発明の好適な一実施形態に係る注視点検出装置1の斜視図である。注視点検出装置1は、ディスプレイ装置の表示画面上の対象者の注視点を検出するコンピュータシステムであり、このシステムにより、本実施形態にかかる位置検出装置及び位置検出方法が実現される。対象者とは、注視点を検出する対象となる人であり、被験者ともいうことができる。注視点検出装置1の利用目的は様々なものが想定され、例えば、コンピュータシステムへのデータ入力、商品の興味の度合いの調査、運転者(対象者)の眠気の検出、及びよそ見運転の検出等が挙げられる。
FIG. 1 is a perspective view of a gazing
同図に示すように、注視点検出装置1は、ステレオカメラとして機能する一対のカメラ(第1のカメラおよび第2のカメラ)10と、情報処理装置20と、情報処理装置20から出力された情報を表示させるディスプレイ装置30とを含んで構成される。以下では、必要に応じて、一対のカメラ10を、対象者Aの左側にある左カメラ10Lと、対象者Aの右側にある右カメラ10Rとに区別する。本実施形態では、注視点検出装置1は、その利用目的が上記のように想定されるので、対象者Aの視線の先にあるものはディスプレイ装置30には限定されず、例えば自動車のフロントガラス等であってもよい。従って、ディスプレイ装置30は注視点検出装置1の必須の要素ではない。それぞれのカメラ10は、情報処理装置20と有線または無線により接続され、カメラ10と情報処理装置20との間で各種のデータ又は命令が送受信される。
As shown in the figure, the gazing
カメラ10は、対象者Aの瞳孔B、角膜球C、及びそれらの周辺を撮像するために用いられる。一対のカメラ10は水平方向に沿って所定の間隔をおいて配置され、かつ、対象者Aが確実に撮像できるように対象者Aの顔より低い位置に設けられる。水平方向に対するカメラの仰角は、瞳孔B及び角膜球Cの確実な検出と対象者Aの視野範囲の妨げの回避との双方を考慮して、例えば20〜30度の範囲に設定される。各カメラ10に対しては予めTsaiのカメラ較正手法等によりカメラ較正が行われ、カメラ10の内部パラメータが決定される。さらに、予め規定された空間上の位置を決定するための世界座標系における外部パラメータ(位置、方向)が予め決定されている。
The
本実施形態では、カメラ10は、インターレーススキャン方式の一つであるNTSC方式のカメラである。NTSC方式では、1秒間に30枚得られる1フレームの画像データは、奇数番目の水平画素ラインで構成される奇数フィールドと、偶数番目の水平画素ラインで構成される偶数フィールドとから構成され、奇数フィールドの画像と偶数フィールドの画像とが1/60秒の間隔で交互に撮像されることで生成される。したがって、一つのフレームは、一対の奇数フィールドおよび偶数フィールドに相当する。なお、1つのフレームが奇数フィールドおよび偶数フィールドの両方を含むすべての水平画素ラインから構成されていてもよい。カメラ10は、情報処理装置20からの命令に応じて対象者Aを撮像し、その結果生成した画像データを情報処理装置20に出力する。
In this embodiment, the
各カメラ10の開口部周辺のレンズ部分を図2に模式的に示す。この図に示すように、カメラ10では、対物レンズ11が円形状の開口部12に収容され、開口部12近傍の外側に光源13が設けられる。この光源13は、カメラ10の開口部12に対する位置が既知であり、具体的には、リング状を構成する光源13全体の中心と開口部12の中心が一致するように設けられている。光源13は、対象者Aの顔に向けて照明光を照射するための機器であり、対象者Aの角膜球Cの位置を特定するためのものでもある。光源13は、複数の発光素子13aと複数の発光素子13bとからなる。発光素子13aは、出力光の波長が850nmの半導体発光素子(LED)であり、開口部12の縁に沿って等間隔でリング状に配される。発光素子13bは、出力光の波長が940nmの半導体発光素子(LED)であり、発光素子13aの外側に等間隔でリング状に配される。従って、カメラ10の光軸から発光素子13bまでの距離は、該光軸から発光素子13aまでの距離よりも大きい。それぞれの発光素子13a,13bは、カメラ10の光軸に沿って照明光を出射するように設けられる。なお、光源13の配置は、図2に示す構成に限定されず、カメラをピンホールモデルとみなすことができれば他の配置であってもよい。以下では、必要に応じて、左カメラ10Lの開口部近傍に設けられる光源13Lと、右カメラ10Rの開口部近傍に設けられる光源13Rとに区別する。
A lens portion around the opening of each
図1に戻って、情報処理装置20による位置検出の対象であるディスプレイ装置30には、その表示画面30aの周辺に対象者Aに向けて光を照射する1以上の発光素子(発光体)40が取り付けられている。発光素子40のディスプレイ装置30に対する取り付け位置および個数は、任意の位置、任意の個数でよく、例えば、矩形の表示画面30aの周辺の四隅に4つ取り付けられる。発光素子40の出力光の波長はカメラ10で検出できる波長であれば任意の波長が選択されるが、対象者Aに対する影響(まぶしさ等)を軽減させるという点で近赤外領域の波長が選択される。この1以上の発光素子40は、情報処理装置20によって発光タイミングが個別に制御可能に構成される。なお、本実施形態の発光体は、ディスプレイ装置30と別個の素子である発光素子40によって実現されているが、表示画面30a上の所定位置に情報処理装置20の制御によって発光点を表示させ、その発光点を発光体として機能させてもよい。
Returning to FIG. 1, the
情報処理装置20は、カメラ10の制御と、ディスプレイ装置30の位置の検出と、検出したディスプレイ装置30の位置を基にした対象者Aの注視点の検出とを実行するコンピュータである。情報処理装置20は、据置型または携帯型のパーソナルコンピュータ(PC)により構築されてもよいし、ワークステーションにより構築されてもよいし、他の種類のコンピュータにより構築されてもよい。あるいは、情報処理装置20は複数台の任意の種類のコンピュータを組み合わせて構築されてもよい。複数台のコンピュータを用いる場合には、これらのコンピュータはインターネットやイントラネットなどの通信ネットワークを介して接続される。
The
情報処理装置20の一般的なハードウェア構成を図3に示す。情報処理装置20は、オペレーティングシステムやアプリケーション・プログラムなどを実行するCPU(プロセッサ)101と、ROMおよびRAMで構成される主記憶部102と、ハードディスクやフラッシュメモリなどで構成される補助記憶部103と、ネットワークカードあるいは無線通信モジュールで構成される通信制御部104と、キーボードやマウスなどの入力装置105と、ディスプレイ装置30やプリンタなどの出力装置106とを備える。
A general hardware configuration of the
後述する情報処理装置20の各機能要素は、CPU101または主記憶部102の上に所定のソフトウェアを読み込ませ、CPU101の制御の下で通信制御部104や入力装置105、出力装置106などを動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶部102または補助記憶部103内に格納される。
Each functional element of the
図4に示すように、情報処理装置20は機能的構成要素として画像取得部21、位置計算部(情報処理部)22、および注視点計算部23を備える。画像取得部21は、カメラ10の撮影タイミングとカメラ10の光源13の発光タイミングとディスプレイ装置30の発光素子40の発光タイミングとを制御することで、カメラ10から画像データを取得する機能要素である。位置計算部22は、画像データを参照して各種計算処理を実行することにより、ディスプレイ装置30の発光素子40の位置を計算する機能要素である。注視点計算部23は、画像データを参照して各種計算処理を実行することにより、対象者Aの視線方向を検出し、位置計算部22によって計算された発光素子40の位置及び視線方向を基に、対象者Aの表示画面30a上の注視点を計算する機能要素である。視線とは、対象者Aの瞳孔Bの中心と該対象者Aの注視点(対象者が見ている点)とを結ぶ線である。情報処理装置20による計算結果の出力先は何ら限定されない。例えば、情報処理装置20は、計算結果を画像、図形、またはテキストで表示画面30a上に表示してもよいし、メモリやデータベースなどの記憶装置に格納してもよいし、通信ネットワーク経由で他のコンピュータシステムに送信してもよい。
As illustrated in FIG. 4, the
以下、情報処理装置20による、発光素子40の位置計算処理及び注視点計算処理の詳細について説明する。
Hereinafter, details of the position calculation process and the gaze point calculation process of the
[発光素子40の位置計算処理] [Position calculation processing of light emitting element 40]
情報処理装置20の画像取得部21の制御により、各カメラ10の撮影タイミングと当該カメラ10の光源13の発光タイミングとを同期させることによって、対象者Aの瞳孔Bの周辺の画像が明瞳孔画像及び暗瞳孔画像として取得される。具体的には、各カメラの1フレームの撮影タイミング内で発光素子13aと発光素子13bとが交互に点灯させることにより、奇数フィールドと偶数フィールドとに明瞳孔画像及び暗瞳孔画像が得られる。明瞳孔画像及び暗瞳孔画像の検出は、本発明者による国際公開2012/077713号公報に記載のメカニズムを利用している。
By controlling the
さらに、情報処理装置20の画像取得部21の制御により、左カメラ10Lと右カメラ10Rとにおいて交互に1フレームの画像が撮像されると同時に、ディスプレイ装置30に取り付けられた発光素子40が点灯される。図5には、画像取得部21によって制御された動作タイミングを示しており、(a)は、左カメラ10Lの光源13Lの点灯タイミングを示すタイミングチャート、(b)は、右カメラ10Rの光源13Rの点灯タイミングを示すタイミングチャート、(c)は、発光素子40の点灯タイミングを示すタイミングチャート、(d)は、左カメラ10Lの1フレームの撮像タイミングを示すタイミングチャート、(e)は、右カメラ10Rの1フレームの撮像タイミングを示すタイミングチャートをそれぞれ示している。このように、左カメラ10Lの光源13Lの点灯タイミングに合わせて左カメラ10Lで画像が取得され、右カメラ10Rの光源13Rの点灯タイミングに合わせて右カメラ10Rで画像が取得され、2つのカメラ10L,10Rの撮像時には、発光素子40が点灯される。図5(c)では、2つのカメラ10L,10Rの撮像タイミングに重なるように発光素子40の点灯タイミングが設定されているが、それぞれのカメラ10L,10Rの撮像タイミングの一部に重なるように発光素子40の点灯タイミングが設定されてもよい。なお、詳細には、それぞれのカメラ10L,10Rにおいては、1フレーム内において明瞳孔画像及び暗瞳孔画像が1つずつ得られる。
Furthermore, the control of the
上記のタイミング制御の結果、画像取得部21によってそれぞれのカメラ10L,10Rによって生成された画像データが取得される。そして、それぞれのカメラ10によって生成された暗瞳孔画像の画像データを基に、位置計算部22により、発光素子40の位置計算処理が実行される。なお、位置計算処理は、明瞳孔画像の画像データを基に実行されてもよい。図6(a)には、カメラ10と対象者Aの角膜球Cと発光素子40との位置関係を示しており、図6(b)には、右カメラ10Rによって得られた画像データのイメージを示しており、図6(c)には、左カメラ10Lによって得られた画像データのイメージを示している。このように、カメラ10の前面には人間の角膜球Cが球面(凸面)を有する反射体として位置することになり、この角膜球Cを含む画像には、カメラ10の光源13の反射点と発光素子40の反射点とが映ることになる。ここで、光源13はリング状に配列されているが、角膜球C上では点状の反射点として映る。そして、角膜球C等の反射体の凸面の形状が(球面には限定されず)既知であれば、光の反射の法則から凸面に映る発光体の位置から反射体の中心から見た発光体の方向が分かる。なお、ここで角膜球Cは、角膜を一部とした球体として想定しているモデルであり、実際にカメラ10の光源13の反射点と発光素子40の反射点とが映るのは角膜(凸面)であるが、本明細書ではこのモデルのことを、以後角膜球と記す。
As a result of the timing control, the
すなわち、画像取得部21によって取得された画像データ上には、図6(b)又は図6(c)に示すように、対象者Aの角膜球Cの表面上に光源13の反射点R1と発光素子40の反射点R2とが現れる。ここで、左カメラ10Lに対する左カメラ10Lの光源13Lの位置、および右カメラ10Rに対する右カメラ10Rの光源13Rの位置は既知であり、左カメラ10Lの光源13Lと右カメラ10Rの光源13Rとは、それぞれ、左カメラ10Lと右カメラ10Rの位置に対して図6(a)に示す関係とみなせる程度において十分に近傍に位置するように配置されている。このため、これらの反射点R1は、図6(a)に示すように、カメラ10をピンホールモデルで考えた場合、カメラ10R,10LのピンホールOR,OLのそれぞれと、角膜球Cの中心C1とを結ぶ直線LC1,LC2上に現れる。
That is, on the image data acquired by the
そこで、位置計算部22は、2つのカメラ10R,10Lから得られた画像データを用いて、対象者Aの角膜球Cの中心C1の三次元位置をステレオマッチングによって計算する。ステレオマッチングとは、カメラのレンズの焦点距離、画像中心、画素サイズなどの内部パラメータと、カメラの位置や姿勢等の外部パラメータとを予め計測しておき、複数台のステレオカメラで対象物を撮影したときに、画像中の点の座標を基に、内部パラメータおよび外部パラメータを用いてその点の空間上の位置を決定する方法である。
Therefore, the
位置計算部22がステレオマッチングを用いて角膜球Cの中心C1の三次元座標を計算する際には、図7に示すような座標系を用いる。同図に示す世界座標系(XW,YW,ZW)は、2台のカメラ10が共有する原点OWが例えばディスプレイ装置30の画面中央に位置する座標系である。カメラ座標系(X,Y,Z)は、その原点OCが各カメラ10の光学中心(ピンホール)とされ、Z軸が光学中心から画像面に垂直に引いた光軸と平行とされた座標系である。画像座標系(XG,YG)は、カメラ10の撮像素子が置かれる画像面に沿ってXY平面と平行にされ、光軸と画像面の交点(画像中心)を原点Ciとする座標系である。点Pが目標点である角膜球Cの中心C1の座標とすると、カメラ10を用いた際の画像座標系への投影点(Xd,Yd)は、画像のゆがみにより理想的な投影点(Xu,Yu)からずれることになる。したがって、ステレオ法を用いた三次元位置計測を精度良く行うためには、目標点Pの世界座標とその画像座標との対応づけを記録したキャリブレーションデータを予め取得する必要がある。例えば、外部パラメータとしての世界座標に対するカメラ座標系の平行移動ベクトルおよび世界座標系に対するカメラ座標系の回転行列や、内部パラメータとしての焦点距離、画像中心座標、スケール係数、レンズひずみ係数、撮像素子間隔等がキャリブレーションデータとして予め取得され、位置計算部22に記憶される。
If the
位置計算部22は、2台のカメラ10からの画像データを基に検出した画像座標系における光源13の反射点R1の座標と、世界座標系における角膜球Cの中心C1の座標との関係式を、キャリブレーションデータを参照しながら取得する。次に、位置計算部22は、2つの関係式から世界座標系における対象者Aの角膜球Cの中心C1の三次元座標を計算する。
The
さらに、位置計算部22は、計算した角膜球Cの中心C1の三次元座標と、各カメラ10から取得した画像データを基に検出した画像座標系における発光素子40の反射点R2の座標とを基に、各カメラ10のピンホール(光源13の中心)と角膜球Cの中心C1と発光素子40とを通る平面を、各カメラ10ごとに特定する。具体的には、位置計算部22は、右カメラ10Rから、図8に示すような画像データが得られた際に、画像座標系における反射点R1と反射点R2とを結ぶ直線LR1の水平線(X軸)からの傾きε1を計算により特定する。そして、位置計算部22は、図9に示すように、角膜球Cの中心C1の三次元位置に基づいて、カメラ10RのピンホールORを原点とし、その原点と中心C1とを結ぶ基準線ORC1を法線とする仮想平面X’−Y’を設定する。そして、位置計算部22は、仮想平面X’−Y’上で原点ORを通り水平軸X’との傾きがε1となるような直線LR2を決定する。このようにして決定した直線LR2は、カメラ10RのピンホールORと、角膜球Cの中心C1と、発光素子40とを通る平面上に位置することになる。このような性質を利用して、位置計算部22は、決定した直線LR2と角膜球Cの中心C1とを通る平面PL1の位置及び傾きを特定する。同様にして、位置計算部22は、左カメラ10Lから得られた画像データを基に、カメラ10LのピンホールOLと、角膜球Cの中心C1と、発光素子40とを通る平面PL2を特定する。
Further, the
次に、位置計算部22は、特定した平面PL1と平面PL2との交線LI1を求め(図6(a))、この交線LI1の位置及び傾きを基に、発光素子40の位置を計算する。これは、交線LI1が角膜球Cの中心C1と発光素子40とを通るという性質を利用している。例えば、発光素子40の世界座標系におけるZW座標の値が既知の場合には、発光素子40の三次元位置を計算することができる。
Next, the
さらに、位置計算部22は、画像取得部21によって連続したフレームで複数の発光素子40を順次点灯させることによって得られた画像データを用いて、上述した位置計算処理を繰り返すこともできる。これにより、複数の発光素子40の位置を連続的に計算することができる。
Further, the
また、画像取得部21によって1つのフレームで複数の発光素子40を同時に点灯させることによって得られた画像データを用いて、複数の発光素子40の反射点R2毎に上述した位置計算処理を繰り返してもよい。ただし、複数の発光素子40を同時に点灯させた場合には、発光素子40の反射点R2とカメラ10の光源13の反射点R1との判別が難しくなる。そのような場合は、位置計算部22は、テンプレートマッチング等の画像処理により反射点R2と反射点R1とを区別する。また、位置計算部22は、幾何学的方法により反射点R2と反射点R1とを区別してもよい。例えば、位置計算部22は、注視点計算部23により計算された画像データ上の対象者Aの瞳孔の中心座標を用いて、画像データ上の全ての反射点から計算された角膜球Cの中心C1と瞳孔の中心座標とを通る候補ベクトルを計算する。そして、位置計算部22は、候補ベクトルの方向及び長さが所定の範囲内である候補ベクトルを判別する。その結果、判別された候補ベクトルの計算に用いられた反射点をカメラ10の光源13の反射点R1と判別し、それ以外の反射点を発光素子40の反射点R2と判別する。
Further, the position calculation process described above is repeated for each reflection point R 2 of the plurality of
[注視点計算処理] [Gaze point calculation processing]
情報処理装置20の注視点計算部23は、画像取得部21によって取得される画像データと、位置計算部22によって計算された発光素子40の位置とを基に、対象者Aの表示画面30a上の注視点を計算する。すなわち、注視点計算部23は、各カメラから得られた画像データを参照して、対象者Aの瞳孔像を検出する。この瞳孔像の検出は明瞳孔画像と暗瞳孔画像の差分画像を用いて検出される。さらに、注視点計算部23は、検出した瞳孔像の位置と画像データ上の光源13の反射点R1との位置とを利用して、対象者Aの視線ベクトル(視線方向)を計算する。この視線方向の計算には、本発明者による国際公開2012/077713号公報に記載の注視点検出方法が用いられる。その後、注視点計算部23は、発光素子40の位置によって特定される表示画面30aの位置と、計算した視線ベクトルとの交点を対象者Aの注視点として計算する。
The gazing
以上説明した注視点検出装置1によれば、カメラ10によって対象者Aの角膜球Cが撮像され、位置計算部22によって、得られた画像におけるカメラ10に取り付けられた光源13の反射点を基に、角膜球Cの三次元位置が計算される。それとともに、位置計算部22によって、得られた画像における発光素子40の反射点と光源13の反射点とを結ぶ線の傾きが特定される。さらに、位置計算部22によって角膜球Cの三次元位置と線の傾きとを使って発光素子40の位置が計算される。このように、カメラ10によって得られた画像における2つの反射点を結ぶ線の傾きを使って検出対象の位置が計算されるので、高精度の位置検出結果を簡易な計算で得ることができる。その結果、その表示画面上の注視点を正確に得ることができる。
According to the gazing
また、カメラ10によって得られた画像における2つの反射点を結ぶ線の傾きを使って2つの平面が特定され、その2つの平面の交線によって検出対象の位置が計算されるので、対象者Aの角膜球Cの形状に関係なく高精度の位置検出結果を簡易な計算で得ることができる。さらに、光源13がカメラ10の開口部近傍に設けられており、位置計算部22は、カメラ10から得られた画像における光源13の反射点の位置を基に角膜球Cの三次元位置を計算する。このような構成によって、角膜球Cの三次元位置をより単純な計算で得ることができるので、その結果、検出対象の位置をより簡易に得ることができる。
In addition, since two planes are specified using the inclination of a line connecting two reflection points in the image obtained by the
次に、本発明の実施形態の変形例について説明する。上記実施形態に係る注視点検出装置1では、撮像対象の反射体として1つの角膜球Cのみとしていたが、複数の反射体を撮像対象としてもよい。例えば、対象者Aの左右の眼の角膜球CR,CLを同時或いは連続的に撮像し、その結果得られた画像データを基に発光素子40の三次元位置を計算してもよい。
Next, a modification of the embodiment of the present invention will be described. In the gazing
すなわち、図10に示すように、情報処理装置20の画像取得部21は、各カメラ10R,10Lから、対象者Aの右の角膜球CRの周辺の画像データと左の角膜球CLの周辺の画像データとを取得する。そして、情報処理装置20の位置計算部22は、上述した実施形態と同様にして、右の角膜球CRの周辺の画像データを基に、カメラ10の光源13と右の角膜球CRの中心CR1と発光素子40とを通る2つの平面PL1,PL2とを特定し、2つの平面PL1,PL2の交線LI1を求める。さらに、位置計算部22は、左の角膜球CLの周辺の画像データを基に、カメラ10の光源13と左の角膜球CLの中心CL1と発光素子40とを通る2つの平面PL3,PL4とを特定し、2つの平面PL3,PL4の交線LI2を求める。そして、位置計算部22は、求めた2つの交線LI1,LI2の交点或いは最接近点を発光素子40の三次元位置として計算する。このような変形例によれば、発光素子40の位置が未知の場合であっても確実に三次元座標を導き出すことができる。
That is, as shown in FIG. 10, the
ここで、注視点検出装置1では、撮像対象の1つの角膜球C等の1つの反射体のみとし、その反射体の位置を変更させながら異なる位置に配置させた反射体を連続的に撮像するように機能してもよい。このように動作する注視点検出装置1によっても、各カメラ10R,10Lかにおいて連続的に得られた画像データを基に、上記と同様にして発光素子40の三次元位置を計算することができる。
Here, in the gazing
また、注視点検出装置1では、カメラ10と光源13の組み合わせがもう一組設けられていてもよい。この場合、情報処理装置20において新たに設けられた光源13と発光素子40とを通る平面がさらに特定され、これらの平面から求められる交線を基にして交点や最接近点を求めることでさらに位置計算の精度を高めることができる。
Further, in the gazing
また、注視点検出装置1の前面に位置する反射体としては対象者Aの角膜球Cには限定されず、注視点検出装置1に向かい合う凸面を有する反射体であれば、球面ミラー、鉄球等であってもよい。この場合、平板上に複数の球面ミラーを配置された部材を用意し、その部材を注視点検出装置1に向けて配置させれば、発光素子40の位置を精度よく計算することができる。ここで、複数の球面ミラーの間隔が既知であれば、それを拘束条件として、ステレオマッチングにより求めた各々の球面ミラーの3次元位置を補正することができ、ステレオマッチングで求めた球面ミラーの3次元位置を基にした光源位置推定の精度を上げることができる。
Further, the reflector positioned in front of the gazing
また、球面ミラー或いは対象者Aの角膜球Cを注視点検出装置1の前面で移動させながら連続して画像データを取得するように注視点検出装置1を動作させてもよい。このような構成によれば、短時間で反射体から発光素子40に向かう直線を多く求めることができるので、それらの総当たりの最接近点の平均値もしくは中間値を計算することにより、位置計算精度を向上させることができる。
Further, the gazing
さらに、注視点検出装置1の前面に配置される反射体は3つ以上であってもよい。例えば、3つの球面ミラーが注視点検出装置1の前面に配置された場合には、各球面ミラーの中心から発光素子40までの直線が3本求まることになるので、情報処理装置20の位置計算部22は、それらの直線の最接近点を3組求め、それらの中点を発光素子40の位置として求める。このように動作すれば、反射体の個数が増加するほど位置検出精度を向上させることができる。
Furthermore, three or more reflectors may be disposed on the front surface of the gazing
図11は、本発明の変形例に係る情報処理装置20Aの機能構成を示す図である。同図に示す情報処理装置20Aは、情報処理装置20における注視点計算機能の代わりに(又はそれに加えて)、検出した発光素子40の位置を基にして表示画面30a上に表示される画像の位置を制御する機能を有する。具体的には、同図に示す画像生成部23Aは、検出された発光素子40の位置を基に表示画面30aの位置を特定し、その位置に対応した画像を表示画面上30a上に表示させるようにディスプレイ装置30を制御する。例えば、ディスプレイの表示画面30a上の対象者Aに近い位置に特定の画像を表示させるように制御する。さらに、表示画面30a上の対象者Aの注視点の検出機能を有する場合には、その注視点上に特定の画像を表示させるように制御してもよい。
FIG. 11 is a diagram showing a functional configuration of an
上記のような変形例では、ディスプレイ装置30の代わりにプロジェクタ装置用のスクリーンや任意の立体物を位置検出の対象としてもよい。このような場合には、情報処理装置20Aは、計算した発光素子40の位置を基にその対象物の位置を特定し、その位置に対応した画像を対象物に向けて投影する。これにより、対象物の位置に応じて対象物上に適切な画像を表示させることができる。
In the above modification, instead of the
1…注視点検出装置、10,10L,10R…カメラ、13,13L,13R…光源、13a,13b…発光素子、20,20A…情報処理装置、22…位置計算部(情報処理部)、23…注視点計算部、23A…画像生成部、30…ディスプレイ装置、30a…表示画面、40…発光素子(発光体)、A…対象者、C,CR,CL…角膜球、LC1,LC2…直線、LI1,LI2…交線、PL1,PL2,PL3,PL4…平面、R1,R2…反射点。 1 ... gaze point detection device, 10, 10 L, 10 R ... camera, 13, 13 L, 13 R ... light source, 13a, 13b ... light emitting element, 20, 20A ... information processing apparatus, 22 ... position calculating section (information processing Part), 23 ... gazing point calculation part, 23A ... image generation part, 30 ... display device, 30a ... display screen, 40 ... light emitting element (illuminant), A ... subject, C, C R , C L ... corneal sphere , LC 1 , LC 2 ... straight line, LI 1 , LI 2 ... intersection line, PL 1 , PL 2 , PL 3 , PL 4 ... plane, R 1 , R 2 ... reflection point.
Claims (10)
前記検出対象に向けて配置された凸面を有する反射体を撮像する第1及び第2のカメラと、
前記第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、
前記第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、前記反射体の三次元位置をステレオマッチングによって計算するとともに、前記第1及び第2の画像のそれぞれにおける前記発光体の反射点と前記第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、前記反射体の三次元位置と第1及び第2の画像における前記傾きとを基に前記発光体の位置を計算する情報処理部と、
を備える位置検出装置。 A position detection device for detecting a position of a detection target to which a light emitter is attached,
First and second cameras for imaging a reflector having a convex surface arranged toward the detection target;
First and second light sources whose positions relative to each of the first and second cameras are known;
Based on the first and second images captured by the first and second cameras, respectively, the three-dimensional position of the reflector is calculated by stereo matching, and each of the first and second images is calculated. An inclination of a line connecting the reflection point of the light emitter and the reflection points of the first and second light sources is specified, and based on the three-dimensional position of the reflector and the inclination in the first and second images. An information processing unit for calculating the position of the light emitter;
A position detection device comprising:
請求項1記載の位置検出装置。 The first and second light sources have the first and second light sources as long as a reflection point on the reflector appears on a straight line connecting the pinholes of the first and second cameras and the reflector. It is arranged so that it is located in the vicinity of 2 cameras.
The position detection device according to claim 1.
請求項1又は2記載の位置検出装置。 The information processing unit specifies a first plane passing through the first light source, the reflector, and the light emitter based on the three-dimensional position of the light emitter and the inclination in the first image, Based on the three-dimensional position of the light emitter and the inclination in the second image, after specifying the second plane passing through the second light source, the reflector, and the light emitter, the first and first Calculating the position of the light emitter based on the intersection of two planes;
The position detection device according to claim 1 or 2.
前記情報処理部は、前記第1及び第2のカメラによって撮像された画像を基に、前記第1の光源と前記反射体と前記発光体とを通る第3の平面を特定し、前記第2の光源と前記反射体と前記発光体とを通る第4の平面を特定した後に、前記第1及び第2の平面の交線と前記第3及び第4の交線とを基に前記発光体の位置を計算する、
請求項3記載の位置検出装置。 The first and second cameras are either a method of continuously imaging one or more reflectors whose positions have been changed twice or more, or a method of imaging two or more reflectors having different positions. Work to use the method of
The information processing unit specifies a third plane that passes through the first light source, the reflector, and the light emitter based on images captured by the first and second cameras, and the second After the fourth plane passing through the light source, the reflector and the light emitter is specified, the light emitter based on the intersection line of the first and second planes and the third and fourth intersection line Calculate the position of the
The position detection device according to claim 3.
前記情報処理部は、前記第1及び第2の画像における前記第1及び第2の光源の反射点の位置を基に前記反射体の三次元位置をステレオマッチングにより計算する、
請求項1〜4のいずれか1項に記載の位置検出装置。 The first and second light sources are provided in the vicinity of openings of the first and second cameras, respectively.
The information processing unit calculates a three-dimensional position of the reflector by stereo matching based on the positions of reflection points of the first and second light sources in the first and second images;
The position detection apparatus of any one of Claims 1-4.
請求項1〜5のいずれか1項に記載の位置検出装置。 The reflector is a spherical body, and the three-dimensional position of the reflector is the center of the spherical body;
The position detection apparatus of any one of Claims 1-5.
請求項1〜6のいずれか1項に記載の位置検出装置。 The reflector is a human cornea;
The position detection apparatus of any one of Claims 1-6.
第1及び第2のカメラが、前記第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源を点灯させた状態で、前記検出対象に向けて配置された凸面を有する反射体を撮像するステップと、
情報処理部が、前記第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、前記反射体の三次元位置をステレオマッチングによって計算するとともに、前記第1及び第2の画像のそれぞれにおける前記発光体の反射点と前記第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、前記反射体の三次元位置と第1及び第2の画像における前記傾きとを基に前記発光体の位置を計算するステップと、
を備える位置検出方法。 A position detection method for detecting a position of a detection target to which a light emitter is attached,
The first and second cameras have convex surfaces arranged toward the detection target in a state where the first and second light sources whose positions relative to the first and second cameras are known are turned on. Imaging a reflector;
The information processing unit calculates the three-dimensional position of the reflector by stereo matching based on the first and second images captured by the first and second cameras, respectively, and the first and second The inclination of the line connecting the reflection point of the light emitter and the reflection point of the first and second light sources in each of the two images is specified, and the three-dimensional position of the reflector and the first and second images Calculating the position of the light emitter based on the tilt;
A position detection method comprising:
前記対象者の角膜球を撮像する第1及び第2のカメラと、
前記第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、
前記第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、前記角膜球の三次元位置をステレオマッチングによって計算するとともに、前記第1及び第2の画像のそれぞれにおける前記発光体の反射点と前記第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、前記角膜球の三次元位置と第1及び第2の画像における前記傾きとを基に前記発光体の位置を計算する情報処理部と、
前記情報処理部によって計算された前記発光体の位置を基に前記表示画面の位置を特定し、前記表示画面の位置を用いて前記注視点を検出する注視点計算部と、
を備える注視点検出装置。 A gaze point detection device for detecting a gaze point of a subject on a display screen to which a light emitter is attached,
First and second cameras for imaging the corneal sphere of the subject;
First and second light sources whose positions relative to each of the first and second cameras are known;
Based on the first and second images captured by each of the first and second cameras, the three-dimensional position of the corneal sphere is calculated by stereo matching, and each of the first and second images is calculated. The inclination of the line connecting the reflection point of the luminous body and the reflection point of the first and second light sources is specified, and the three-dimensional position of the corneal sphere and the inclination in the first and second images are determined. An information processing unit for calculating the position of the light emitter;
A gazing point calculation unit that identifies the position of the display screen based on the position of the light emitter calculated by the information processing unit, and detects the gazing point using the position of the display screen;
A gazing point detection device.
前記検出対象に向けて配置された凸面を有する反射体を撮像する第1及び第2のカメラと、
前記第1及び第2のカメラのそれぞれに対する位置が既知の第1及び第2の光源と、
前記第1及び第2のカメラのそれぞれによって撮像された第1及び第2の画像を基に、前記反射体の三次元位置をステレオマッチングによって計算するとともに、前記第1及び第2の画像のそれぞれにおける前記発光体の反射点と前記第1及び第2の光源の反射点とを結ぶ線の傾きを特定し、前記反射体の三次元位置と第1及び第2の画像における前記傾きとを基に前記発光体の位置を計算する情報処理部と、
前記情報処理部によって計算された前記発光体の位置を基に前記表示画面の位置を特定し、前記表示画面の位置を用いて前記表示画面上に画像を表示させる画像生成部と、
を備える画像生成装置。 An image generation device that displays an image on a display screen to which a light emitter is attached,
First and second cameras for imaging a reflector having a convex surface arranged toward the detection target;
First and second light sources whose positions relative to each of the first and second cameras are known;
Based on the first and second images captured by the first and second cameras, respectively, the three-dimensional position of the reflector is calculated by stereo matching, and each of the first and second images is calculated. An inclination of a line connecting the reflection point of the light emitter and the reflection points of the first and second light sources is specified, and based on the three-dimensional position of the reflector and the inclination in the first and second images. An information processing unit for calculating the position of the light emitter;
An image generation unit that specifies the position of the display screen based on the position of the light emitter calculated by the information processing unit, and displays an image on the display screen using the position of the display screen;
An image generation apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014262787A JP6430813B2 (en) | 2014-12-25 | 2014-12-25 | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014262787A JP6430813B2 (en) | 2014-12-25 | 2014-12-25 | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016122380A true JP2016122380A (en) | 2016-07-07 |
JP6430813B2 JP6430813B2 (en) | 2018-11-28 |
Family
ID=56327444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014262787A Active JP6430813B2 (en) | 2014-12-25 | 2014-12-25 | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6430813B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095747A1 (en) * | 2018-11-05 | 2020-05-14 | 京セラ株式会社 | Controller, position determination device, position determination system, display system, program, and recording medium |
US20210223022A1 (en) * | 2020-01-16 | 2021-07-22 | Kabushiki Kaisha Toshiba | System and method |
CN114820513A (en) * | 2022-04-25 | 2022-07-29 | 深圳市迪佳医疗智能科技有限公司 | Vision detection method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02134130A (en) * | 1988-11-16 | 1990-05-23 | A T R Tsushin Syst Kenkyusho:Kk | Non-contact sight line detector |
US20060038881A1 (en) * | 2004-08-19 | 2006-02-23 | Microsoft Corporation | Stereoscopic image display |
WO2012077713A1 (en) * | 2010-12-08 | 2012-06-14 | 国立大学法人静岡大学 | Method for detecting point of gaze and device for detecting point of gaze |
WO2013176265A1 (en) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
-
2014
- 2014-12-25 JP JP2014262787A patent/JP6430813B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02134130A (en) * | 1988-11-16 | 1990-05-23 | A T R Tsushin Syst Kenkyusho:Kk | Non-contact sight line detector |
US20060038881A1 (en) * | 2004-08-19 | 2006-02-23 | Microsoft Corporation | Stereoscopic image display |
WO2012077713A1 (en) * | 2010-12-08 | 2012-06-14 | 国立大学法人静岡大学 | Method for detecting point of gaze and device for detecting point of gaze |
WO2013176265A1 (en) * | 2012-05-25 | 2013-11-28 | 国立大学法人静岡大学 | Pupil detection method, corneal reflex detection method, facial posture detection method, and pupil tracking method |
Non-Patent Citations (1)
Title |
---|
福元清剛ほか3名: ""遠隔注視点検出装置における真の瞳孔−角膜反射ペアーの決定法とその有効性"", SSII2014 第20回画像センシングシンポジウム 講演論文集 [CD−ROM], JPN6018031932, 11 June 2014 (2014-06-11), JP, pages 2 - 33, ISSN: 0003902702 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020095747A1 (en) * | 2018-11-05 | 2020-05-14 | 京セラ株式会社 | Controller, position determination device, position determination system, display system, program, and recording medium |
JP2020077055A (en) * | 2018-11-05 | 2020-05-21 | 京セラ株式会社 | Controller, position determination device, position determination system, display system, program, and storage medium |
JP7173836B2 (en) | 2018-11-05 | 2022-11-16 | 京セラ株式会社 | Controller, position determination device, position determination system, display system, program, and recording medium |
US11551375B2 (en) | 2018-11-05 | 2023-01-10 | Kyocera Corporation | Controller, position determination device, position determination system, and display system for determining a position of an object point in a real space based on cornea images of a first eye and a second eye of a user in captured image |
US20210223022A1 (en) * | 2020-01-16 | 2021-07-22 | Kabushiki Kaisha Toshiba | System and method |
CN114820513A (en) * | 2022-04-25 | 2022-07-29 | 深圳市迪佳医疗智能科技有限公司 | Vision detection method |
Also Published As
Publication number | Publication date |
---|---|
JP6430813B2 (en) | 2018-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5858433B2 (en) | Gaze point detection method and gaze point detection device | |
JP6631951B2 (en) | Eye gaze detection device and eye gaze detection method | |
JP5467303B1 (en) | Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium | |
JP6963820B2 (en) | Line-of-sight detector | |
US9959678B2 (en) | Face and eye tracking using facial sensors within a head-mounted display | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
US10499808B2 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP5915981B2 (en) | Gaze point detection method and gaze point detection device | |
JP2019141620A (en) | Fixation point determination method and device on three-dimensional object | |
CN108354585B (en) | Computer-implemented method for detecting corneal vertex | |
EP3252566A1 (en) | Face and eye tracking and facial animation using facial sensors within a head-mounted display | |
US10430988B2 (en) | Facial animation using facial sensors within a head-mounted display | |
JP6560463B1 (en) | Face and eye tracking and facial animation using face sensors in head mounted displays | |
JP7030317B2 (en) | Pupil detection device and pupil detection method | |
EP3542308B1 (en) | Method and device for eye metric acquisition | |
JP5818233B2 (en) | Gaze measurement apparatus and method | |
JP6430813B2 (en) | Position detection apparatus, position detection method, gazing point detection apparatus, and image generation apparatus | |
JP2016099759A (en) | Face detection method, face detection device, and face detection program | |
JP7046347B2 (en) | Image processing device and image processing method | |
JP6288770B2 (en) | Face detection method, face detection system, and face detection program | |
JP6780161B2 (en) | Line-of-sight detection device and line-of-sight detection method | |
JP2012029940A (en) | Method and apparatus for measuring visual axis | |
JP4055858B2 (en) | Gaze detection system | |
JP2016057906A (en) | Measurement method and system of viewpoint position | |
JP2002017677A (en) | Convergence angle measurement instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180711 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180821 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181023 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6430813 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |