JP2014064634A - Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method - Google Patents

Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method Download PDF

Info

Publication number
JP2014064634A
JP2014064634A JP2012210554A JP2012210554A JP2014064634A JP 2014064634 A JP2014064634 A JP 2014064634A JP 2012210554 A JP2012210554 A JP 2012210554A JP 2012210554 A JP2012210554 A JP 2012210554A JP 2014064634 A JP2014064634 A JP 2014064634A
Authority
JP
Japan
Prior art keywords
image
pupil
infrared
light emitting
infrared light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012210554A
Other languages
Japanese (ja)
Inventor
Takeshi Shimada
健史 島田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2012210554A priority Critical patent/JP2014064634A/en
Publication of JP2014064634A publication Critical patent/JP2014064634A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a pupil image even under an influence of external light.SOLUTION: An image processing apparatus (10) comprises: an infrared emission unit (40); an infrared camera (42) for imaging a user's pupil with infrared light emitted from the infrared emission unit (40); and a CPU (24). While controlling on/off of the infrared emission unit (S5, S11), the CPU (24) detects the pupil image (S15) on the basis of comparison between a first image (72) imaged by the infrared camera while the infrared emission unit is turned on and a second image (74) imaged by the infrared camera while the infrared emission unit is turned off.

Description

この発明は、画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法に関し、特にたとえば、赤外線発光部と、赤外線発光部から照射される赤外線でユーザの瞳を撮像する赤外線カメラとを有する、画像処理装置、ならびに、このような画像処理装置のための瞳画像検出プログラムおよび方法に関する。   The present invention relates to an image processing device, a line-of-sight identification device, and a pupil image detection program and method, and in particular, an image having an infrared light emitting unit and an infrared camera that images a user's pupil with infrared rays emitted from the infrared light emitting unit. The present invention relates to a processing apparatus, and a pupil image detection program and method for such an image processing apparatus.

従来のこの種の装置が、特許文献1〜3に開示されている。特許文献1の背景技術では、光源により照明された瞳孔をカメラで撮影し、撮影された画像から瞳孔を検出して楕円近似を行うことにより、カメラに対する視線ベクトルを計測している。特許文献2の背景技術では、光源以外からの光(外光:たとえば太陽光に含まれる赤外線)の入射により視線検出の精度が低下するのを防止するために、集光レンズへの外光の入射を制限するフィルムを設けている。特許文献3の背景技術では、視線検出の精度を向上させるために、LCDの前段に赤外発光ダイオードからの赤外線の波長域をカットする赤外線カットフィルタを設けている。
特開2005−13752号公報[A61B 3/113] 特開平6−294928号公報[G02B 7/28, A61B 3/113, G03B 13/36] 特開平10−179521号公報[A61B 3/113, H04N 5/225]
Conventional devices of this type are disclosed in Patent Documents 1 to 3. In the background art of Patent Document 1, a pupil illuminated by a light source is photographed by a camera, and the eye vector to the camera is measured by detecting the pupil from the photographed image and performing elliptic approximation. In the background art of Patent Document 2, in order to prevent the accuracy of line-of-sight detection from being deteriorated due to the incidence of light from outside the light source (external light: for example, infrared rays contained in sunlight), A film for limiting incidence is provided. In the background art of Patent Document 3, in order to improve the accuracy of line-of-sight detection, an infrared cut filter that cuts the wavelength range of infrared rays from the infrared light emitting diode is provided in front of the LCD.
Japanese Patent Laying-Open No. 2005-13752 [A61B 3/113] JP-A-6-294928 [G02B 7/28, A61B 3/113, G03B 13/36] JP-A-10-179521 [A61B 3/113, H04N 5/225]

しかし、特許文献1の背景技術には、太陽光などの外光の影響により、瞳孔の検出ひいては視線ベクトルの計測が困難となる問題があり、他方、特許文献2,3の背景技術には、外光を制限ないしカットするのにフィルムやフィルタを用いるので、構成要素が多い問題があった。   However, the background art of Patent Document 1 has a problem that it becomes difficult to detect the pupil and thus the gaze vector due to the influence of external light such as sunlight. Since a film or a filter is used to limit or cut outside light, there is a problem that there are many components.

それゆえに、この発明の主たる目的は、新規な、画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法を提供することである。   Therefore, a main object of the present invention is to provide a novel image processing apparatus and line-of-sight identification apparatus, and a pupil image detection program and method.

この発明の他の目的は、外光の影響下でも瞳画像を検出できる、画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法を提供することである。   Another object of the present invention is to provide an image processing device, a line-of-sight identification device, and a pupil image detection program and method capable of detecting a pupil image even under the influence of external light.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために後述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. Note that reference numerals in parentheses, supplementary explanations, and the like indicate correspondence with embodiments to be described later in order to help understanding of the present invention, and do not limit the present invention.

第1の態様は、赤外線発光部、赤外線発光部から発せられる赤外線でユーザの瞳を撮像する赤外線カメラ、赤外線発光部のオン/オフを制御する制御部、および赤外線発光部がオン状態のとき赤外線カメラで撮像された第1画像と赤外線発光部がオフ状態のとき赤外線カメラで撮像された第2画像との比較に基づいて瞳の画像を検出する第1検出部を備える、画像処理装置である。   The first aspect is an infrared light emitting unit, an infrared camera that images a user's pupil with infrared rays emitted from the infrared light emitting unit, a control unit that controls on / off of the infrared light emitting unit, and an infrared ray when the infrared light emitting unit is in an on state. An image processing apparatus including a first detection unit that detects a pupil image based on a comparison between a first image captured by a camera and a second image captured by an infrared camera when the infrared light emitting unit is in an off state. .

第1の態様では、赤外線発光部(40)と赤外線発光部から発せられる赤外線でユーザの瞳を撮像する赤外線カメラ(42)とを有する画像処理装置(10)において、たとえばCPU(24)が視線検出プログラム(54)を実行することで、制御部および第1検出部が実現される。制御部は、赤外線発光部のオン/オフを制御し(S5,S11)、第1検出部は、赤外線発光部がオン状態のとき赤外線カメラで撮像された第1画像(72)と、赤外線発光部がオフ状態のとき赤外線カメラで撮像された第2画像(74)との比較に基づいて、瞳の画像を検出する(S15)。   In the first aspect, in the image processing apparatus (10) including the infrared light emitting unit (40) and the infrared camera (42) that images the user's pupil with infrared rays emitted from the infrared light emitting unit, for example, the CPU (24) By executing the detection program (54), the control unit and the first detection unit are realized. The control unit controls on / off of the infrared light emitting unit (S5, S11), and the first detection unit and the first image (72) captured by the infrared camera when the infrared light emitting unit is in the on state and the infrared light emission. A pupil image is detected based on the comparison with the second image (74) captured by the infrared camera when the unit is in the off state (S15).

したがって、第1画像に、赤外線発光部からの赤外線による瞳画像と、外光による反射画像とが含まれていても、第2画像には、赤外線発光部からの赤外線による瞳画像は含まれず、外光による反射画像だけが含まれているので、両者を互いに比較することで、赤外線発光部からの赤外線による瞳画像を、フィルタ等を用いることなく検出することができる。   Therefore, even if the first image includes the pupil image by the infrared light from the infrared light emitting unit and the reflected image by the external light, the second image does not include the pupil image by the infrared light from the infrared light emitting unit, Since only the reflected image by the external light is included, the pupil image by the infrared rays from the infrared light emitting unit can be detected without using a filter or the like by comparing the two images with each other.

第1の態様によれば、外光の影響下でも瞳画像を検出できるようになる。   According to the first aspect, a pupil image can be detected even under the influence of external light.

第2の態様は、第1の態様において、制御部は、赤外線発光部を第1周期でオン/オフし、第1検出部は、第1周期の1つの周期における、赤外線発光部がオン状態であるオン期間に撮像された第1画像と、赤外線発光部がオフ状態であるオフ期間に撮像された第2画像とを比較して、瞳の画像を検出する。   The second mode is that, in the first mode, the control unit turns on / off the infrared light emitting unit in the first cycle, and the first detection unit is in the on state of the infrared light emitting unit in one cycle of the first cycle. The first image captured during the ON period is compared with the second image captured during the OFF period when the infrared light emitting unit is in the OFF state, and the pupil image is detected.

第2の態様によれば、1つの周期を構成するオン期間およびオフ期間にそれぞれ撮像された第1画像および第2画像、つまり時間的に近接する第1画像および第2画像が比較されるので、視線の動きが速くても、瞳画像を検出できる。   According to the second aspect, the first image and the second image captured in the on period and the off period constituting one cycle are compared, that is, the first image and the second image that are close in time are compared. Even if the movement of the line of sight is fast, the pupil image can be detected.

なお、他の態様では、時間的に離れた第1画像および第2画像を比較してもよい。第1画像および第2画像の間の時間的な距離に対して、視線の動きが十分遅ければ、瞳画像を検出できる。   In another aspect, the first image and the second image that are separated in time may be compared. If the movement of the line of sight is sufficiently slow with respect to the temporal distance between the first image and the second image, the pupil image can be detected.

第3の態様は、第2の態様において、赤外線カメラに第1周期の半分の長さである第2周期で撮像を行わせる撮像制御部をさらに備える。   In a second aspect, the third aspect further includes an imaging control unit that causes the infrared camera to perform imaging in a second period that is half the length of the first period.

第3の態様では、撮像制御部がさらに実現され、撮像制御部は、赤外線カメラに第1周期の半分の長さである第2周期で撮像を行わせる(S7,S13)。   In the third aspect, an imaging control unit is further realized, and the imaging control unit causes the infrared camera to perform imaging in a second period that is half the length of the first period (S7, S13).

第3の態様によれば、赤外線カメラに、第1周期つまり赤外線発光部のオン/オフ周期の半分の長さである第2周期で撮像を行わせることで、無駄なオン期間がなくなり、かつオン期間およびオフ期間に各1回撮像が行われるので、視線検出のための撮像を効率的に行える。   According to the third aspect, by causing the infrared camera to perform imaging in the first period, that is, the second period that is half the on / off period of the infrared light emitting unit, there is no useless on period, and Since the imaging is performed once in each of the on period and the off period, the imaging for detecting the line of sight can be performed efficiently.

なお、他の態様では、赤外線カメラに、第1周期の半分の長さよりも短い第2周期で撮像を行わせ、赤外線カメラの撮像結果をオン期間およびオフ期間に各1回の割合でサンプリングしてもよい。   In another aspect, the infrared camera is caused to pick up an image in the second period shorter than half the length of the first period, and the image pickup result of the infrared camera is sampled once in the on period and in the off period. May be.

第4の態様は、第1ないし3のいずれかの態様において、第1検出部は、第1画像の画像データの値から第2画像の画像データの値を減算して、減算後の画像データの値による第3画像(76)に基づき瞳の画像を検出する。   According to a fourth aspect, in any one of the first to third aspects, the first detection unit subtracts the value of the image data of the second image from the value of the image data of the first image, and obtains the image data after the subtraction. A pupil image is detected based on the third image (76) with the value of.

第4の態様によれば、減算によって外光の反射画像が減殺され、第3画像には瞳画像だけが含まれる結果となるので、瞳画像を容易に検出できる。   According to the fourth aspect, the reflected image of the external light is reduced by the subtraction, and only the pupil image is included in the third image. Therefore, the pupil image can be easily detected.

第5の態様は、第1ないし4のいずれかの態様に係る画像処理装置によって検出される瞳の画像に基づいてユーザの視線を特定する視線特定装置であって、第1検出部によって検出された瞳の画像から瞳孔の画像と瞳に映った赤外線発光部の画像とを検出する第2検出部、および第2検出部によって検出された瞳孔の画像および赤外線発光部の画像の位置関係に基づいてユーザの視線を特定する特定部を備える。   A fifth aspect is a line-of-sight identifying apparatus that identifies a user's line of sight based on an image of a pupil detected by the image processing apparatus according to any one of the first to fourth aspects, and is detected by the first detection unit. A second detection unit that detects a pupil image and an infrared light emitting unit image reflected on the pupil from the pupil image, and a positional relationship between the pupil image and the infrared light emitting unit image detected by the second detection unit A specifying unit for specifying the user's line of sight.

第5の態様では、第1ないし4のいずれかの態様に係る画像処理装置によって検出される瞳の画像に基づいてユーザの視線を特定する視線特定装置(10)において、たとえばCPU(24)が視線検出プログラム(54)を実行することで、第2検出部および特定部が実現される。なお、画像処理装置および視線特定装置は、互いに独立でも、一方が他方に包含されてもよい。   In the fifth aspect, in the line-of-sight identifying device (10) that identifies the line of sight of the user based on the pupil image detected by the image processing apparatus according to any one of the first to fourth aspects, for example, the CPU (24) By executing the line-of-sight detection program (54), the second detection unit and the identification unit are realized. Note that the image processing device and the line-of-sight specifying device may be independent from each other, or one may be included in the other.

第2検出部は、第1検出部によって検出された瞳の画像から、瞳孔の画像と、瞳に映った赤外線発光部の画像とを検出する(S17)。特定部は、第2検出部によって検出された瞳孔の画像および赤外線発光部の画像の位置関係に基づいて、ユーザの視線を特定する(S19)。   The second detection unit detects the image of the pupil and the image of the infrared light emitting unit reflected in the pupil from the pupil image detected by the first detection unit (S17). The specifying unit specifies the line of sight of the user based on the positional relationship between the pupil image and the infrared light emitting unit image detected by the second detection unit (S19).

一般に、視線が動くと、瞳孔の画像と、瞳に映った赤外線発光部の画像つまり光点画像との位置関係が変化する。第5の態様によれば、両者の位置関係に基づいて、精度よく視線を特定できる。なお、視線の移動に伴い、瞳孔画像や光点画像の扁平率も変化するため、視線を特定する際、必要に応じて瞳孔画像や光点画像の扁平率なども考慮されてよい。   In general, when the line of sight moves, the positional relationship between the image of the pupil and the image of the infrared light emitting part reflected on the pupil, that is, the light spot image changes. According to the fifth aspect, the line of sight can be accurately identified based on the positional relationship between the two. As the line of sight moves, the flatness of the pupil image and the light spot image also changes. Therefore, when specifying the line of sight, the flatness of the pupil image and the light spot image may be taken into consideration as necessary.

第6の態様は、赤外線発光部(40)と赤外線発光部から発せられる赤外線でユーザの瞳を撮像する赤外線カメラ(42)とを有する画像処理装置(10)のCPU(24)を、赤外線発光部のオン/オフを制御する制御部(S5,S11)、および赤外線発光部がオン状態のとき赤外線カメラで撮像された第1画像(72)と赤外線発光部がオフ状態のとき赤外線カメラで撮像された第2画像(74)との比較に基づいて瞳の画像を検出する第1検出部(S15)として機能させる、瞳画像検出プログラム(52)である。   In the sixth aspect, the CPU (24) of the image processing apparatus (10) having an infrared light emitting unit (40) and an infrared camera (42) that captures an image of the user's pupil with infrared rays emitted from the infrared light emitting unit emits infrared light. The control unit (S5, S11) for controlling the on / off of the unit, and the first image (72) captured by the infrared camera when the infrared light emitting unit is on and the infrared camera when the infrared light emitting unit is off A pupil image detection program (52) that functions as a first detection unit (S15) that detects a pupil image based on a comparison with the second image (74).

第7の態様は、赤外線発光部(40)と赤外線発光部から照射される赤外線でユーザの瞳を撮像する赤外線カメラ(42)とを有する画像処理装置(10)によって行われる瞳検出方法であって、赤外線発光部のオン/オフを制御する制御ステップ(S5,S11)、および赤外線発光部がオン状態のとき赤外線カメラで撮像された第1画像(72)と赤外線発光部がオフ状態のとき赤外線カメラで撮像された第2画像(74)との比較に基づいて瞳の画像を検出する第1検出ステップ(S15)を含む。   The seventh aspect is a pupil detection method performed by an image processing apparatus (10) having an infrared light emitting unit (40) and an infrared camera (42) that images the user's pupil with infrared rays emitted from the infrared light emitting unit. The control step (S5, S11) for controlling on / off of the infrared light emitting unit, and the first image (72) captured by the infrared camera when the infrared light emitting unit is on and the infrared light emitting unit are off A first detection step (S15) for detecting a pupil image based on a comparison with the second image (74) captured by the infrared camera is included.

第6および7の各態様によっても、第1の態様と同様に、簡単な構成で、外光の影響下でも瞳画像を検出できるようになる。   According to each of the sixth and seventh aspects, similarly to the first aspect, the pupil image can be detected with a simple configuration even under the influence of external light.

この発明によれば、外光の影響下でも瞳画像を検出できる、画像処理装置および視線特定装置ならびに瞳画像検出プログラムおよび方法が実現される。   According to the present invention, an image processing device, an eye gaze identification device, and a pupil image detection program and method that can detect a pupil image even under the influence of external light are realized.

この発明の一実施例である携帯端末の構成を示すブロック図である。It is a block diagram which shows the structure of the portable terminal which is one Example of this invention. 携帯端末の一方主面(前面)に設けられたディスプレイ,赤外線LEDおよび赤外線カメラを示す図解図である。It is an illustration figure which shows the display, infrared LED, and infrared camera which were provided in the one main surface (front surface) of the portable terminal. 赤外線カメラで撮像される瞳の構造と瞳に映った赤外線LEDの像(光点)を示す図解図である。It is an illustration figure which shows the structure of the pupil imaged with an infrared camera, and the image (light spot) of the infrared LED reflected on the pupil. 赤外線LEDのオン/オフ制御と赤外線カメラの撮像タイミングを示す図解図である。It is an illustration figure which shows on / off control of infrared LED, and the imaging timing of an infrared camera. 赤外線LEDのオン期間に撮像した画像からオフ期間に撮像した画像を減算した結果に基づいて瞳孔画像および光点画像を検出する方法を説明するための図解図であり、(A)がオン期間に撮像した画像を、(B)がオフ時に撮像した画像を、そして(C)が(A)の画像から(B)の画像を減算した結果(減算後の画像)を示す。It is an illustration figure for demonstrating the method to detect a pupil image and a light spot image based on the result which subtracted the image imaged in the off period from the image imaged in the on period of infrared LED, (A) is an on period. The captured image is the image captured when (B) is off, and (C) shows the result of subtracting the image of (B) from the image of (A) (image after subtraction). 携帯端末のメインメモリの内容を示すメモリマップ図である。It is a memory map figure which shows the content of the main memory of a portable terminal. 携帯端末のCPUによる視線入力処理を示すフロー図である。It is a flowchart which shows the gaze input process by CPU of a portable terminal.

図1には、携帯端末10のハードウエア構成が示される。図1を参照して、この発明の一実施例である携帯端末10はCPU24を含む。CPU24には、キー入力装置26、タッチパネル32、メインメモリ34、フラッシュメモリ36、赤外線カメラ42および画像処理回路44が接続され、さらに、無線通信回路14を介してアンテナ12が、A/Dコンバータ16を介してマイク18が、D/Aコンバータ20を介してスピーカ22が、ドライバ28を介してディスプレイ30が、そしてLEDドライバ38を介して赤外線LED40が、それぞれ接続される。   FIG. 1 shows a hardware configuration of the mobile terminal 10. Referring to FIG. 1, mobile terminal 10 according to an embodiment of the present invention includes a CPU 24. The CPU 24 is connected to a key input device 26, a touch panel 32, a main memory 34, a flash memory 36, an infrared camera 42 and an image processing circuit 44, and the antenna 12 is connected to the A / D converter 16 via the wireless communication circuit 14. Are connected to the microphone 18, the D / A converter 20 to the speaker 22, the driver 28 to the display 30, and the LED driver 38 to the infrared LED 40.

アンテナ12は、図示しない基地局からの無線信号を捕捉(受信)し、また、無線通信回路14からの無線信号を放出(送信)する。無線通信回路14は、アンテナ12で受信された無線信号を復調および復号化し、また、CPU24からの信号を符号化および変調する。マイク18は、音波をアナログの音声信号に変換し、A/Dコンバータ16は、マイク18からの音声信号をディジタルの音声データに変換する。D/Aコンバータ20は、CPU24からの音声データをアナログの音声信号に変換し、スピーカ22は、D/Aコンバータ20からの音声信号を音波に変換する。   The antenna 12 captures (receives) a radio signal from a base station (not shown) and emits (transmits) a radio signal from the radio communication circuit 14. The radio communication circuit 14 demodulates and decodes a radio signal received by the antenna 12, and encodes and modulates a signal from the CPU 24. The microphone 18 converts the sound wave into an analog audio signal, and the A / D converter 16 converts the audio signal from the microphone 18 into digital audio data. The D / A converter 20 converts the audio data from the CPU 24 into an analog audio signal, and the speaker 22 converts the audio signal from the D / A converter 20 into a sound wave.

キー入力装置26は、ユーザによって操作される各種のキー,ボタン(図示せず)などで構成され、操作に応じた信号(コマンド)をCPU24に入力する。ドライバ28は、CPU24からの信号に応じた画像をディスプレイ30に表示する。タッチパネル32は、ディスプレイ30の表示面に設けられ、タッチ点の位置を示す信号をCPU24に入力する。   The key input device 26 includes various keys and buttons (not shown) operated by the user, and inputs a signal (command) corresponding to the operation to the CPU 24. The driver 28 displays an image corresponding to the signal from the CPU 24 on the display 30. The touch panel 32 is provided on the display surface of the display 30 and inputs a signal indicating the position of the touch point to the CPU 24.

LEDドライバ38は、CPU24からの命令に応じて赤外線LED40をオン(点灯)/オフ(消灯)させる。赤外線カメラ42は、赤外線LED40から発せられる赤外線でユーザの瞳を撮像する。画像処理回路44は、赤外線カメラ42で撮像された画像(撮像画像)に二値化などの画像処理を施す。   The LED driver 38 turns on (turns on) / off (turns off) the infrared LED 40 in accordance with a command from the CPU 24. The infrared camera 42 images the user's pupil with infrared rays emitted from the infrared LED 40. The image processing circuit 44 performs image processing such as binarization on an image (captured image) captured by the infrared camera 42.

メインメモリ34は、たとえばSDRAMなどで構成され、CPU24に各種の処理を実行させるためのプログラム,データなど(図6参照)を記憶する共に、CPU24に必要な作業領域を提供する。フラッシュメモリ36は、たとえばNAND型のフラッシュメモリで構成され、プログラムやデータの保存領域として利用される。   The main memory 34 is composed of, for example, an SDRAM or the like, and stores programs, data, and the like (see FIG. 6) for causing the CPU 24 to execute various processes, and provides a necessary work area for the CPU 24. The flash memory 36 is composed of, for example, a NAND flash memory and is used as a storage area for programs and data.

CPU24は、メインメモリ34に記憶されたプログラム(52)およびデータ(62,72〜76)に基づいて、他のハードウエア(12〜22,26〜44)を利用しつつ各種の処理を実行する。処理の実行に必要な現在時刻情報やタイミング信号は、RTC(Real Time Clock)24aから供給される。   Based on the program (52) and data (62, 72-76) stored in the main memory 34, the CPU 24 executes various processes while using other hardware (12-22, 26-44). . Current time information and timing signals necessary for execution of processing are supplied from an RTC (Real Time Clock) 24a.

以上のように構成された携帯端末10では、図示しないメニュー画面を通して、通話を行う通話モード、データ通信を行うデータ通信モード、および情報処理を実行する情報処理モードなどを選択することができる。   With the mobile terminal 10 configured as described above, a call mode for performing a call, a data communication mode for performing data communication, an information processing mode for performing information processing, and the like can be selected through a menu screen (not shown).

通話モードが選択されると、携帯端末10は、通話装置として機能する。詳しくは、キー入力装置26またはタッチパネル32によって発呼操作が行われると、CPU24は、無線通信回路14を制御して発呼信号を出力する。出力された発呼信号は、アンテナ12を介して出力され、図示しない移動通信網を経て相手の電話機に伝達される。電話機は、着信音などによる呼び出しを開始する。相手が着呼操作を行うと、CPU24は通話処理を開始する。一方、相手からの発呼信号がアンテナ12によって捕捉されると、無線通信回路14は着信をCPU24に通知し、CPU24は、スピーカ22からの着信音や図示しないバイブレータの振動などによる呼び出しを開始する。キー入力装置26またはタッチパネル32によって着呼操作が行われると、CPU24は通話処理を開始する。   When the call mode is selected, the mobile terminal 10 functions as a call device. Specifically, when a call operation is performed by the key input device 26 or the touch panel 32, the CPU 24 controls the wireless communication circuit 14 to output a call signal. The output call signal is output via the antenna 12 and transmitted to the other telephone through a mobile communication network (not shown). The telephone starts ringing with a ring tone or the like. When the other party performs an incoming call operation, the CPU 24 starts a call process. On the other hand, when the call signal from the other party is captured by the antenna 12, the wireless communication circuit 14 notifies the CPU 24 of the incoming call, and the CPU 24 starts calling by a ringing tone from the speaker 22 or vibration of a vibrator (not shown). . When an incoming call operation is performed by the key input device 26 or the touch panel 32, the CPU 24 starts a call process.

通話処理は、たとえば、次のように行われる。相手から送られてきた受話音声信号は、アンテナ12によって捕捉され、無線通信回路14によって復調および復号化を施された後、D/Aコンバータ20を経てスピーカ22に与えられる。これにより、スピーカ22から受話音声が出力される。一方、マイク18によって取り込まれた送話音声信号は、A/Dコンバータ16を経て無線通信回路14に送られ、無線通信回路14によって符号化および変調を施された後、アンテナ12を通して相手に送信される。相手の電話機でも、送話音声信号の復調および復号化が行われ、送話音声が出力される。   Call processing is performed as follows, for example. The received voice signal sent from the other party is captured by the antenna 12, demodulated and decoded by the wireless communication circuit 14, and then given to the speaker 22 via the D / A converter 20. As a result, the received voice is output from the speaker 22. On the other hand, the transmitted voice signal captured by the microphone 18 is sent to the wireless communication circuit 14 via the A / D converter 16, encoded and modulated by the wireless communication circuit 14, and then transmitted to the other party through the antenna 12. Is done. The other party's telephone also demodulates and decodes the transmitted voice signal and outputs the transmitted voice.

データ通信モードが選択されると、携帯端末10はデータ通信装置として機能する。詳しくは、CPU24は、無線通信回路14を介してインターネット上のメールサーバやWebサーバ(図示せず)とデータ通信を行うことでメールデータやハイパーテキストデータを取得し、これに基づく電子メールやHTML文書をドライバ28を介してディスプレイ30に表示する。   When the data communication mode is selected, the mobile terminal 10 functions as a data communication device. Specifically, the CPU 24 performs data communication with a mail server or web server (not shown) on the Internet via the wireless communication circuit 14 to acquire mail data and hypertext data, and based on this, e-mail and HTML The document is displayed on the display 30 via the driver 28.

情報処理モードが選択されると、携帯端末10は情報処理装置として機能する。詳しくは、CPU24は、キー入力装置26やタッチパネル32の操作に応じて各種の情報処理を実行し、処理結果に基づく画面をドライバ28を介してディスプレイ30に表示する。   When the information processing mode is selected, the mobile terminal 10 functions as an information processing device. Specifically, the CPU 24 executes various types of information processing according to operations of the key input device 26 and the touch panel 32, and displays a screen based on the processing result on the display 30 via the driver 28.

また、ユーザは、上記のような通話モード,データ通信モードまたは情報処理モードなどが選択された状態で、キー操作等によりメニュー画面を呼び出し、視線入力機能をオンすると、以降、各種の画面でアイコンを選択したりソフトキーを押したりする操作は、赤外線LED40および赤外線カメラ42を利用した視線入力により行うことができるようになる。   Further, when the user calls the menu screen by a key operation or the like with the call mode, the data communication mode, the information processing mode, or the like selected as described above, and turns on the line-of-sight input function, the icon is displayed on various screens thereafter. The operation of selecting or pressing a soft key can be performed by line-of-sight input using the infrared LED 40 and the infrared camera 42.

詳しくは、視線入力機能がオンされると、CPU24の制御下で、LEDドライバ38は赤外線LED40の駆動(オン/オフ制御)を開始し、これと同時または略同時に赤外線カメラ42も起動して、撮像を開始する。赤外線カメラ42によって撮像された画像(撮像画像)は、画像処理回路44に入力され、そこで二値化などの画像処理を施される。CPU24は、画像処理を施された後の撮像画像から瞳画像を検出して、ユーザの視線を特定し、画面上のアイコン等が選択されたと判断される場合に、その選択されたアイコン等に関連付けられた処理を実行する。   Specifically, when the line-of-sight input function is turned on, under the control of the CPU 24, the LED driver 38 starts to drive the infrared LED 40 (on / off control), and at the same time or substantially simultaneously, the infrared camera 42 is activated, Start imaging. An image (captured image) captured by the infrared camera 42 is input to an image processing circuit 44 where image processing such as binarization is performed. The CPU 24 detects the pupil image from the captured image after the image processing is performed, identifies the user's line of sight, and determines that the icon or the like on the screen has been selected. Perform the associated process.

瞳画像の検出および視線の特定は、たとえば次のように行われる。赤外線LED40および赤外線カメラ42は、図2に示すように、ディスプレイ30の右上および左下にそれぞれ配置され、ユーザの瞳(黒目)には、図3に示すように、赤外線LED40からの赤外線を眼球内に取り込む瞳孔と、瞳孔の周りを囲む虹彩とが含まれる。   The detection of the pupil image and the identification of the line of sight are performed as follows, for example. As shown in FIG. 2, the infrared LED 40 and the infrared camera 42 are respectively arranged on the upper right and lower left of the display 30. The user's pupil (black eye) receives infrared rays from the infrared LED 40 in the eyeball as shown in FIG. 3. And the iris surrounding the pupil.

なお、図2に示す配置は一例であり、ディスプレイ30,赤外線LED40および赤外線カメラ42が同じ面(通常は前面)に設けられていれば(赤外線LED40の光軸および赤外線カメラ42の光軸が互いに平行または略平行であり、かつ、これらの光軸がディスプレイ30の画面に対して直角または一定以下の傾斜角であれば)、視線入力は可能である。   The arrangement shown in FIG. 2 is an example, and if the display 30, the infrared LED 40, and the infrared camera 42 are provided on the same surface (usually the front surface) (the optical axis of the infrared LED 40 and the optical axis of the infrared camera 42 are mutually aligned). If the optical axes are parallel or substantially parallel and these optical axes are perpendicular to the screen of the display 30 or an inclination angle equal to or less than a certain angle), the line of sight can be input.

ユーザの視線がディスプレイ30の画面を向いているとき、赤外線LED40をオンすると、赤外線LED40から発せられた赤外線は、ユーザの瞳(特に瞳孔)で反射され、この反射光が赤外線カメラ42により捉えられる。このため、赤外線LED40をオンした状態で赤外線カメラ42により撮像された画像では、瞳内の瞳孔の画像(瞳孔画像)と、瞳に映った赤外線LED40の画像(光点画像)とが、周囲と比べて明るく写る(際立つ)結果となる(図5(A)参照:後述)。したがって、撮像画像に対し二値化などの画像処理を施せば、撮像画像から瞳孔画像および光点画像を検出することができる。なお、この実施例では、こうして撮像画像から検出される瞳孔画像および光点画像を“瞳画像”のように総称する場合がある。   When the infrared LED 40 is turned on while the user's line of sight is facing the screen of the display 30, the infrared light emitted from the infrared LED 40 is reflected by the user's pupil (particularly the pupil), and this reflected light is captured by the infrared camera 42. . For this reason, in the image captured by the infrared camera 42 with the infrared LED 40 turned on, the image of the pupil in the pupil (pupil image) and the image of the infrared LED 40 reflected in the pupil (light spot image) As a result, the result is brighter (conspicuous) (see FIG. 5A: described later). Therefore, if image processing such as binarization is performed on the captured image, a pupil image and a light spot image can be detected from the captured image. In this embodiment, the pupil image and the light spot image thus detected from the captured image may be collectively referred to as “pupil image”.

次に、検出された瞳孔画像および光点画像の位置関係(たとえば光点画像の中心Aから瞳孔画像の中心Bに向かうベクトル)さらには形状(たとえば瞳および光点に対する瞳孔画像および光点画像の扁平率)などから、ユーザの視線(たとえば瞳孔の法線とディスプレイ30の画面との交点の位置)が特定される。なお、具体的な特定方法は、この実施例の本質的な内容ではないため、説明を省略する。   Next, the positional relationship between the detected pupil image and the light spot image (for example, a vector from the center A of the light spot image to the center B of the pupil image) and the shape (for example, the pupil image and the light spot image with respect to the pupil and the light spot). From the flatness, etc., the user's line of sight (for example, the position of the intersection of the normal of the pupil and the screen of the display 30) is specified. The specific identification method is not an essential content of this embodiment, and thus the description thereof is omitted.

ただし、晴天時の屋外、あるいは白熱灯,電気ストーブといった赤外線源が置かれた室内で視線入力を行おうとすると、図5(A)に示されるように、赤外線LED40による瞳孔画像および光点画像に加えて、太陽その他の赤外線源からの光(外光)の反射画像も明るく写るため、外光の反射画像がノイズとなって、瞳画像の検出は困難となる可能性がある。   However, if an attempt is made to input a line of sight outdoors in a sunny day or in a room where an infrared source such as an incandescent lamp or an electric heater is placed, a pupil image and a light spot image by the infrared LED 40 are displayed as shown in FIG. In addition, since the reflected image of light (external light) from the sun and other infrared sources appears bright, the reflected image of external light becomes noise, which may make it difficult to detect a pupil image.

そこで、この実施例では、赤外線カメラ42による撮像を、赤外線LED40を繰り返しオン/オフしながら(間欠発光させながら)行い、赤外線LED40がオン状態のとき撮像された画像(“LEDオン時の画像”または“第1画像”と呼ぶ場合もある)の画像データの値からオフ状態のとき撮像された画像(“LEDオフ時の画像”または“第2画像”と呼ぶ場合もある)の画像データの値を減算して、この減算後の画像データの値による画像(“第3画像”と呼ぶ場合もある)に基づき瞳の画像を検出する。   Therefore, in this embodiment, imaging by the infrared camera 42 is performed while the infrared LED 40 is repeatedly turned on / off (intermittent light emission), and an image captured when the infrared LED 40 is in an on state (“image when LED is on”). Or the image data of the image captured in the off state (sometimes called “image when LED is off” or “second image”) from the value of the image data of the image data (may be called “first image”) A value is subtracted, and an image of a pupil is detected based on an image (sometimes referred to as a “third image”) based on the value of the image data after the subtraction.

詳しくは、視線入力機能がオンされると、CPU24は、赤外線カメラ42を起動し、これと同時または略同時に、図4に示すような、赤外線LED40のオン/オフ制御を開始する。赤外線カメラ42は、CPU24の制御下で、1つのオン/オフ周期を構成するオン期間およびオフ期間にそれぞれ撮像を行う動作を繰り返す。   Specifically, when the line-of-sight input function is turned on, the CPU 24 activates the infrared camera 42 and starts ON / OFF control of the infrared LED 40 as shown in FIG. 4 simultaneously or substantially simultaneously. Under the control of the CPU 24, the infrared camera 42 repeats an operation of performing imaging in an on period and an off period constituting one on / off cycle.

赤外線LED40のオン/オフは、たとえば200μ秒周期(オン期間100μ秒+オフ期間100μ秒)で行われ、赤外線カメラ42による撮像は、たとえば100μ秒周期(つまりオン/オフ周期の半値)で行われる。この場合、1つのオン/オフ周期につき、赤外線LED40がオンの状態で1回、および赤外線LED40がオフの状態で1回の、計2回撮像が行われ、こうしてLEDオン時に撮像された画像(第1画像:図5(A)参照)と、LEDオフ時に撮像された画像(第2画像:図5(B)参照)とが、CPU24に与えられることになる。   For example, the infrared LED 40 is turned on / off at a cycle of 200 μs (on period 100 μs + off period 100 μs), and imaging by the infrared camera 42 is performed, for example, at a cycle of 100 μs (that is, a half value of the on / off cycle). . In this case, in one on / off cycle, imaging is performed twice in total, once when the infrared LED 40 is turned on and once when the infrared LED 40 is turned off. Thus, an image ( The first image (see FIG. 5A) and the image captured when the LED is off (second image: see FIG. 5B) are given to the CPU 24.

なお、1つのオン/オフ周期を構成するオン期間およびオフ期間は、図4の例では互いに同じ長さ(それぞれ100μ秒)であるが、互いに異なる長さ(たとえばオン期間80μ秒+オフ期間120μ秒など)でもよい。   In the example of FIG. 4, the on period and the off period constituting one on / off cycle are the same length (each 100 μsec), but are different from each other (for example, the on period 80 μsec + off period 120 μm). Seconds).

変形例では、赤外線カメラ42は、赤外線LED40のオン/オフ周期(たとえば200μ秒)よりも短い周期(たとえば20μ秒周期)で撮像を行い、画像処理回路44において、撮像画像に対しオン/オフ周期の半値(たとえば100μ秒周期)でサンプリングを行うようにしてもよい。   In the modification, the infrared camera 42 captures an image with a cycle (for example, 20 μsec cycle) shorter than the on / off cycle (for example, 200 μsec) of the infrared LED 40, and the image processing circuit 44 performs an on / off cycle for the captured image. Sampling may be performed at half the value (for example, a cycle of 100 μs).

また、1つのオン/オフ周期を構成するオン期間およびオフ期間に各1回撮像(サンプリング)を行う代わりに、オン期間に複数回、そしてオフ期間にも同じ回数だけ撮像(サンプリング)を行い、オン期間およびオフ期間それぞれで撮像された複数の第1画像および複数の第2画像を平均して、平均された第1画像および平均された第2画像をCPU24に与えてもよい。   Also, instead of performing imaging (sampling) once in each of the on period and the off period constituting one on / off cycle, imaging (sampling) is performed a plurality of times in the on period and the same number of times in the off period, The plurality of first images and the plurality of second images captured in each of the on period and the off period may be averaged, and the averaged first image and the averaged second image may be provided to the CPU 24.

CPU24は、図5(A)に示すような、赤外線LED40がオンの状態で撮像された第1画像から、図5(B)に示すような、赤外線LED40がオフの状態で撮像された第2画像を減算する。第1画像には、赤外線LED40からの赤外線に基づく瞳孔画像および光点画像と、太陽などの外光の反射画像とが含まれており、他方、第2画像には、外光の反射画像だけが含まれ、瞳孔画像および光点画像は含まれていないので、第1画像から第2画像を減算した後の第3画像では、図5(C)に示すように、外光の反射画像(ノイズ)は減殺(キャンセル)されて、瞳孔画像および光点画像だけが残る(際立つ)結果となる。したがって、外光の影響下でも、瞳画像(瞳孔画像および光点画像)を検出して、視線を特定できるので、問題なく視線入力が行える。   The CPU 24 takes a second image captured with the infrared LED 40 off as shown in FIG. 5B from a first image captured with the infrared LED 40 turned on as shown in FIG. Subtract images. The first image includes a pupil image and a light spot image based on infrared rays from the infrared LED 40, and a reflection image of external light such as the sun, while the second image includes only a reflection image of external light. Since the pupil image and the light spot image are not included, in the third image after subtracting the second image from the first image, as shown in FIG. (Noise) is reduced (cancelled), resulting in only the pupil image and light spot image remaining (prominent). Therefore, even under the influence of external light, the eyes can be identified by detecting the pupil image (pupil image and light spot image), so that the eyes can be input without any problem.

以上のような瞳画像の検出および視線の特定を含む視線入力は、たとえば、メインメモリ34に記憶された図6に示すプログラム(52)およびデータ(62,72〜76)に基づいて、CPU24が図7に示すフローに従う視線入力処理を実行することにより実現される。   The visual line input including the detection of the pupil image and the identification of the visual line as described above is performed by the CPU 24 based on, for example, the program (52) and data (62, 72 to 76) shown in FIG. This is realized by executing a line-of-sight input process according to the flow shown in FIG.

詳しくは、まず図6を参照して、メインメモリ34はプログラム領域50,非遷移データ領域60および遷移データ領域70を含み、プログラム領域50には視線入力プログラム52が、非遷移データ領域60はオン/オフ周期情報62が、そして遷移データ領域70にはLEDオン時の画像72(“第1画像”ともいう),LEDオフ時の画像74(“第2画像”ともいう)および減算後の画像76(“第3画像”ともいう)が、それぞれ記憶される。   Specifically, referring to FIG. 6, first, the main memory 34 includes a program area 50, a non-transition data area 60, and a transition data area 70. The line-of-sight input program 52 is in the program area 50, and the non-transition data area 60 is on. / Off period information 62, and in the transition data area 70, an LED 72 image 72 (also referred to as “first image”), an LED OFF image 74 (also referred to as “second image”), and an image after subtraction. 76 (also referred to as “third image”) are stored.

視線入力プログラム52は、赤外線LED40を繰り返しオン/オフしつつ赤外線カメラ42でユーザの瞳を撮像し、オン期間に撮像された画像からオフ期間に撮像された画像を減算することで瞳画像を検出し、検出された瞳画像に基づきユーザの視線を特定し、そして特定された視線に対応するコマンドを入力するためのプログラムであり、図7のフローチャートに対応する。   The line-of-sight input program 52 detects the pupil image by subtracting the image captured in the off period from the image captured in the off period from the image captured in the on period while the infrared LED 40 is repeatedly turned on / off. A program for specifying the user's line of sight based on the detected pupil image and inputting a command corresponding to the specified line of sight, and corresponds to the flowchart of FIG.

なお、図示は省略するが、プログラム領域50には、上述した通話モード,データ通信モードおよび情報処理モードなどを実現するための各種の制御プログラムや、キー入力装置26等を介してユーザ操作を受け付けたり、ドライバ28を介して各種の画面をディスプレイ30に表示するための入出力制御プログラムなども記憶される。   Although not shown, the program area 50 accepts user operations via various control programs for realizing the above-described call mode, data communication mode, information processing mode, and the like, the key input device 26, and the like. In addition, an input / output control program for displaying various screens on the display 30 via the driver 28 is also stored.

オン/オフ周期情報62は、赤外線LED40をオン/オフする周期を示す情報であり、たとえば図4のオン/オフ周期を示す“200μ秒(オン期間=100μ秒,オフ期間=100μ秒)”といった数値(または波形データ)が記述される。   The on / off cycle information 62 is information indicating the cycle of turning on / off the infrared LED 40. For example, “200 μs (on period = 100 μs, off period = 100 μs)” indicating the on / off cycle of FIG. Numerical values (or waveform data) are described.

LEDオン時の画像72は、赤外線LED40がオンの状態で撮像された画像(第1画像)であり、たとえば図5(A)に示すように、赤外線LED40からの赤外線による瞳孔画像および光点画像と、外光の反射画像とを含む。LEDオフ時の画像74は、赤外線LED40がオフの状態で撮像された画像(第2画像)であり、たとえば図5(B)に示すように、外光の反射画像を含むが、赤外線LED40からの赤外線による瞳孔画像および光点画像は含まない。減算後の画像76は、第1画像から第2画像を減算した後の画像(第3画像)であり、たとえば図5(C)に示すように、外光の反射画像は含まれず、瞳孔画像および光点画像だけを含む。   The image 72 when the LED is on is an image (first image) captured in a state where the infrared LED 40 is on. For example, as shown in FIG. 5A, a pupil image and a light spot image by infrared rays from the infrared LED 40. And a reflection image of outside light. The image 74 when the LED is off is an image (second image) captured in a state in which the infrared LED 40 is off. For example, as shown in FIG. The infrared pupil image and light spot image are not included. The subtracted image 76 is an image (third image) after the second image is subtracted from the first image. For example, as shown in FIG. 5C, the reflected image of the outside light is not included, and the pupil image And light spot images only.

図7を参照して、視線入力機能がオンされると、CPU24は、最初、ステップS1で、赤外線カメラ42をオン(起動コマンドを発行)し、次に、ステップS3で、オン/オフ周期情報62に記述されたオン/オフ周期とRTC24aからの現在時刻情報とに基づいて、赤外線LED40をオンするタイミングが到来したか否かを判別し、NOであれば所定の待機時間を経て同様の判別を繰り返す。   Referring to FIG. 7, when the line-of-sight input function is turned on, CPU 24 first turns on infrared camera 42 (issues an activation command) in step S1, and then in step S3, on / off cycle information. 62 is determined based on the ON / OFF cycle described in 62 and the current time information from the RTC 24a, and it is determined whether the timing for turning on the infrared LED 40 has arrived. If NO, the same determination is made after a predetermined waiting time. repeat.

ステップS3でYESであれば、ステップS5で赤外線LED40をオン(LEDドライバ38を介して赤外線LED40に電圧を印加)し、さらにステップS7で赤外線カメラ42に撮像命令を発行する。赤外線カメラ42は、撮像命令に応じて撮像を行い、撮像された画像は、画像処理回路44で二値化などの画像処理を施された後、LEDオン時の画像72(第1画像)として遷移データ領域70に書き込まれる。   If “YES” in the step S3, the infrared LED 40 is turned on (a voltage is applied to the infrared LED 40 via the LED driver 38) in a step S5, and an imaging command is issued to the infrared camera 42 in a step S7. The infrared camera 42 performs imaging in accordance with an imaging command, and the captured image is subjected to image processing such as binarization by the image processing circuit 44, and is then used as an image 72 (first image) when the LED is on. It is written in the transition data area 70.

次に、ステップS9で、オン/オフ周期情報62に記述されたオン/オフ周期とRTC24aからの現在時刻情報とに基づいて、赤外線LED40をオフするタイミングが到来したか否かを判別し、NOであれば所定の待機時間を経て同様の判別を繰り返す。   Next, in step S9, based on the on / off cycle described in the on / off cycle information 62 and the current time information from the RTC 24a, it is determined whether or not the timing for turning off the infrared LED 40 has arrived. If so, the same determination is repeated after a predetermined waiting time.

ステップS9でYESであれば、ステップS11で赤外線LED40をオフ(赤外線LED40への電圧印加を停止)し、さらにステップS13で赤外線カメラ42に撮像命令を発行する。赤外線カメラ42は、撮像命令に応じて撮像を行い、撮像された画像は、画像処理回路44で二値化などの画像処理を施された後、LEDオフ時の画像74(第2画像)として遷移データ領域70に書き込まれる。   If YES in step S9, the infrared LED 40 is turned off in step S11 (voltage application to the infrared LED 40 is stopped), and an imaging command is issued to the infrared camera 42 in step S13. The infrared camera 42 performs imaging in accordance with an imaging command, and the captured image is subjected to image processing such as binarization by the image processing circuit 44, and is then used as an image 74 (second image) when the LED is off. It is written in the transition data area 70.

こうして、LEDオン時の画像72およびLEDオフ時の画像74が遷移データ領域70に記憶されると、ステップS15に進み、LEDオン時の画像72からLEDオフ時の画像74を(ピクセル毎に)減算する。減算結果は、減算後の画像76(第3画像)として遷移データ領域70に書き込まれる。   When the LED-on image 72 and the LED-off image 74 are stored in the transition data area 70 in this way, the process proceeds to step S15, and the LED-on image 72 is changed (for each pixel) from the LED-on image 72. Subtract. The subtraction result is written in the transition data area 70 as an image 76 (third image) after subtraction.

次に、ステップS17で、減算後の画像76に基づき瞳孔および光点(図3参照)を検出し、さらにステップS19で、瞳孔および光点の位置関係から視線を特定する。減算後の画像76には、外光の反射画像は含まれず、瞳孔画像および光点画像だけが含まれる(瞳孔画像および光点画像はサイズが異なるため区別可能である)ので、瞳孔および光点の検出および視線の特定を問題なく行える。   Next, in step S17, the pupil and the light spot (see FIG. 3) are detected based on the subtracted image 76, and in step S19, the line of sight is specified from the positional relationship between the pupil and the light spot. Since the image 76 after subtraction does not include the reflected image of the external light, but includes only the pupil image and the light spot image (the pupil image and the light spot image can be distinguished because they have different sizes). Detection and gaze identification without problems.

具体的には、たとえば、光点画像の中心Aから瞳孔画像の中心Bに向かうベクトルを求め、必要であれば瞳孔画像および光点画像の扁平率なども考慮して、瞳孔の法線を計算する。この法線の向きをユーザの視線の向きと見なせば、法線とディスプレイ30の画面との交点を求めることで、ユーザの視線(視線が向けられた画面上のアイコン等)を特定することができる。   Specifically, for example, a vector from the center A of the light spot image to the center B of the pupil image is obtained, and if necessary, the normal of the pupil is calculated in consideration of the flatness of the pupil image and the light spot image. To do. If the direction of the normal is regarded as the direction of the user's line of sight, the user's line of sight (such as an icon on the screen where the line of sight is directed) is determined by obtaining the intersection of the normal and the screen of the display 30. Can do.

こうして特定された視線に対応するコマンドの入力をステップS21で受け付けた後、ステップS3に戻って上記と同様の処理を繰り返す。なお、入力されたコマンドに対応する処理は、図示しない別のプログラムの制御下で実行される。   After accepting an input of a command corresponding to the line of sight thus identified in step S21, the process returns to step S3 to repeat the same processing as described above. The process corresponding to the input command is executed under the control of another program (not shown).

なお、本発明の実施例に限定されるものではなく、例えば、変形例として、ステップS1で赤外線カメラ42をオンした直後、赤外線LED40のオン/オフ周期の半値よりも短い周期(たとえば20μ秒周期)で撮像する動作を開始させ、ステップS7およびS13では、撮像命令に代えて、画像処理回路44に対するサンプリング実行命令を発行してもよい。   Note that the present invention is not limited to the embodiment of the present invention. For example, as a modification, immediately after the infrared camera 42 is turned on in step S1, a cycle shorter than the half value of the on / off cycle of the infrared LED 40 (for example, a cycle of 20 μs) In step S7 and S13, a sampling execution command for the image processing circuit 44 may be issued instead of the imaging command.

以上から明らかなように、この実施例の携帯端末10は、赤外線LED40と、赤外線LED40から発せられる赤外線でユーザの瞳を撮像する赤外線カメラ42とを有する。このような携帯端末10のCPU24は、赤外線LED40を繰り返しオン/オフしながら(S5,S11)、赤外線LED40がオン状態のとき赤外線カメラ42で撮像された第1画像(LEDオン時の画像72)と、赤外線LED40がオフ状態のとき赤外線カメラ42で撮像された第2画像(LEDオフ時の画像74)との比較に基づいて、瞳の画像(より特定的には瞳孔の画像および瞳に映った赤外線LED40の画像)を検出する(S15,S17)。   As is clear from the above, the portable terminal 10 of this embodiment includes the infrared LED 40 and the infrared camera 42 that images the user's pupil with infrared rays emitted from the infrared LED 40. The CPU 24 of the portable terminal 10 turns on / off the infrared LED 40 repeatedly (S5, S11), and the first image captured by the infrared camera 42 when the infrared LED 40 is on (image 72 when the LED is on). And the second image captured by the infrared camera 42 when the infrared LED 40 is in the off state (image 74 when the LED is off), more specifically, the pupil image (more specifically, the pupil image and the pupil). The image of the infrared LED 40) is detected (S15, S17).

したがって、第1画像に、赤外線LED40からの赤外線による瞳画像と、外光による反射画像とが含まれていても、第2画像には、赤外線LED40からの赤外線による瞳画像は含まれず、外光による反射画像だけが含まれるので、両者を互いに比較することで、赤外線LED40による瞳画像を、フィルタ等を用いることなく検出できる。これにより、簡単な構成で、外光の影響下でも瞳画像を検出できるようになる。   Therefore, even if the first image includes the pupil image by the infrared light from the infrared LED 40 and the reflected image by the external light, the second image does not include the pupil image by the infrared light from the infrared LED 40 and the external light. Therefore, by comparing the two images with each other, the pupil image by the infrared LED 40 can be detected without using a filter or the like. As a result, the pupil image can be detected with a simple configuration even under the influence of external light.

好ましくは、CPU24は、赤外線LED40を第1周期(たとえば200μ秒周期:オン期間=100μ秒,オフ期間=100μ秒)でオン/オフしながら、1つの第1周期の、赤外線LED40がオン状態であるオン期間に撮像された第1画像と、赤外線LED40がオフ状態であるオフ期間に撮像された第2画像とを互いに比較して、瞳の画像を検出する。こうして、1つの周期を構成するオン期間およびオフ期間にそれぞれ撮像された第1画像および第2画像、つまり時間的に近接する第1画像および第2画像を比較することで、視線の動きが速くても、瞳画像を検出することができる。なお、視線の動きが遅ければ、時間的に離れた第1画像および第2画像を比較しても、瞳画像の検出は可能である。   Preferably, the CPU 24 turns on / off the infrared LED 40 in a first period (for example, 200 μsec period: on period = 100 μsec, off period = 100 μsec), and the infrared LED 40 of one first period is in an on state. A first image captured during an on period and a second image captured during an off period when the infrared LED 40 is in an off state are compared with each other to detect a pupil image. Thus, by comparing the first image and the second image captured in the on period and the off period constituting one cycle, that is, the first image and the second image that are close in time, the movement of the line of sight is faster. However, the pupil image can be detected. If the movement of the line of sight is slow, the pupil image can be detected even by comparing the first image and the second image that are separated in time.

より好ましくは、CPU24は、赤外線カメラ42に、第1周期つまり赤外線LED40のオン/オフ周期の半値(半分の長さ)である第2周期(たとえば100μ秒:図4参照)で撮像を行わせる(S7,S13)。これにより、無駄なオン期間がなくなり、かつオン期間およびオフ期間に各1回撮像が行われるので、視線検出のための撮像を効率的に行えるようになる。   More preferably, the CPU 24 causes the infrared camera 42 to perform imaging in a first period, that is, a second period (for example, 100 μsec: see FIG. 4) that is a half value (half length) of the on / off period of the infrared LED 40. (S7, S13). As a result, the useless on-period is eliminated, and imaging is performed once in each of the on-period and the off-period, so that it is possible to efficiently perform imaging for eye-gaze detection.

以上では、携帯端末10について説明したが、この発明は、赤外線発光部(LED,有機ELなど)と、赤外線発光部から照射される赤外線でユーザの瞳を撮像する赤外線カメラとを有する、各種の画像処理装置(スマートフォン,タブレットPC,携帯電話端末,携帯情報端末,情報家電など)に適用できる。   In the above, although the portable terminal 10 was demonstrated, this invention has an infrared rays light emission part (LED, organic EL, etc.) and an infrared camera which images a user's pupil with the infrared rays irradiated from an infrared light emission part. It can be applied to image processing devices (smartphones, tablet PCs, mobile phone terminals, portable information terminals, information appliances, etc.).

10 …携帯端末
24 …CPU
30 …ディスプレイ
34 …メインメモリ
40 …赤外線LED
42 …赤外線カメラ
44 …画像処理回路
10 ... mobile terminal 24 ... CPU
30 ... Display 34 ... Main memory 40 ... Infrared LED
42: Infrared camera 44: Image processing circuit

Claims (7)

赤外線発光部、
前記赤外線発光部から発せられる赤外線でユーザの瞳を撮像する赤外線カメラ、
前記赤外線発光部のオン/オフを制御する制御部、および
前記赤外線発光部がオン状態のとき前記赤外線カメラで撮像された第1画像と前記赤外線発光部がオフ状態のとき前記赤外線カメラで撮像された第2画像との比較に基づいて前記瞳の画像を検出する第1検出部を備える、画像処理装置。
Infrared light emitting section,
An infrared camera that images the user's pupil with infrared rays emitted from the infrared light emitting unit;
A control unit that controls on / off of the infrared light emitting unit; and a first image captured by the infrared camera when the infrared light emitting unit is on and an image captured by the infrared camera when the infrared light emitting unit is off. An image processing apparatus comprising: a first detection unit that detects an image of the pupil based on a comparison with the second image.
前記制御部は、前記赤外線発光部を第1周期でオン/オフし、
前記第1検出部は、前記第1周期の1つの周期における、前記赤外線発光部がオン状態であるオン期間に撮像された前記第1画像と、前記赤外線発光部がオフ状態であるオフ期間に撮像された前記第2画像とを比較して、前記瞳の画像を検出する、請求項1記載の画像処理装置。
The control unit turns on / off the infrared light emitting unit in a first cycle,
The first detection unit includes the first image captured in the on period in which the infrared light emitting unit is in an on state and the off period in which the infrared light emitting unit is in an off state in one cycle of the first period. The image processing apparatus according to claim 1, wherein the image of the pupil is detected by comparing the captured second image.
前記赤外線カメラに前記第1周期の半分の長さである第2周期で撮像を行わせる撮像制御部をさらに備える、請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, further comprising an imaging control unit that causes the infrared camera to perform imaging in a second period that is half the length of the first period. 前記第1検出部は、前記第1画像の画像データの値から前記第2画像の画像データの値を減算して、減算後の画像データの値による第3画像に基づき前記瞳の画像を検出する、請求項1ないし3のいずれかに記載の画像処理装置。   The first detection unit subtracts the value of the image data of the second image from the value of the image data of the first image, and detects the image of the pupil based on the third image based on the value of the image data after the subtraction. The image processing apparatus according to any one of claims 1 to 3. 請求項1ないし4のいずれかに記載の画像処理装置によって検出される前記瞳の画像に基づいて前記ユーザの視線を特定する視線特定装置であって、
前記第1検出部によって検出された前記瞳の画像から瞳孔の画像と前記瞳に映った前記赤外線発光部の画像とを検出する第2検出部、および
前記第2検出部によって検出された前記瞳孔の画像および前記赤外線発光部の画像の位置関係に基づいて前記ユーザの視線を特定する特定部を備える、視線特定装置。
A line-of-sight specifying device that specifies the line of sight of the user based on the image of the pupil detected by the image processing device according to claim 1,
A second detector for detecting an image of a pupil and an image of the infrared light emitting part reflected in the pupil from the image of the pupil detected by the first detector; and the pupil detected by the second detector A line-of-sight specifying device comprising: a specifying unit that specifies the line of sight of the user based on a positional relationship between the image of the image and the image of the infrared light emitting unit.
赤外線発光部と、前記赤外線発光部から発せられる赤外線でユーザの瞳を撮像する赤外線カメラとを有する画像処理装置のCPUを、
前記赤外線発光部のオン/オフを制御する制御部、および
前記赤外線発光部がオン状態のとき前記赤外線カメラで撮像された第1画像と前記赤外線発光部がオフ状態のとき前記赤外線カメラで撮像された第2画像との比較に基づいて前記瞳の画像を検出する第1検出部として機能させる、瞳画像検出プログラム。
A CPU of an image processing apparatus having an infrared light emitting unit and an infrared camera that images a user's pupil with infrared rays emitted from the infrared light emitting unit;
A control unit that controls on / off of the infrared light emitting unit; and a first image captured by the infrared camera when the infrared light emitting unit is on and an image captured by the infrared camera when the infrared light emitting unit is off. A pupil image detection program that functions as a first detection unit that detects an image of the pupil based on comparison with the second image.
赤外線発光部と前記赤外線発光部から照射される赤外線でユーザの瞳を撮像する赤外線カメラとを有する画像処理装置によって行われる瞳検出方法であって、
前記赤外線発光部のオン/オフを制御する制御ステップ、および
前記赤外線発光部がオン状態のとき前記赤外線カメラで撮像された第1画像と前記赤外線発光部がオフ状態のとき前記赤外線カメラで撮像された第2画像との比較に基づいて前記瞳の画像を検出する第1検出ステップを含む、瞳画像検出方法。
A pupil detection method performed by an image processing apparatus having an infrared light emitting unit and an infrared camera that images a user's pupil with infrared rays emitted from the infrared light emitting unit,
A control step for controlling on / off of the infrared light emitting unit; and a first image captured by the infrared camera when the infrared light emitting unit is on and an image captured by the infrared camera when the infrared light emitting unit is off. A pupil image detection method including a first detection step of detecting an image of the pupil based on a comparison with the second image.
JP2012210554A 2012-09-25 2012-09-25 Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method Pending JP2014064634A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012210554A JP2014064634A (en) 2012-09-25 2012-09-25 Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012210554A JP2014064634A (en) 2012-09-25 2012-09-25 Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method

Publications (1)

Publication Number Publication Date
JP2014064634A true JP2014064634A (en) 2014-04-17

Family

ID=50741657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012210554A Pending JP2014064634A (en) 2012-09-25 2012-09-25 Image processing apparatus, line-of-sight specifying apparatus, and pupil image detecting program and method

Country Status (1)

Country Link
JP (1) JP2014064634A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107003752A (en) * 2014-12-17 2017-08-01 索尼公司 Information processor, information processing method and program
WO2017141730A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Image processing device and method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259225A (en) * 1998-03-09 1999-09-24 Shimadzu Corp Device for inputting line of sight
JP2009244959A (en) * 2008-03-28 2009-10-22 Toyota Motor Corp Driving support device and driving support method
JP2012065719A (en) * 2010-09-21 2012-04-05 Fujitsu Ltd View line detection device, view line detection method, view line-detecting computer program and mobile terminal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11259225A (en) * 1998-03-09 1999-09-24 Shimadzu Corp Device for inputting line of sight
JP2009244959A (en) * 2008-03-28 2009-10-22 Toyota Motor Corp Driving support device and driving support method
JP2012065719A (en) * 2010-09-21 2012-04-05 Fujitsu Ltd View line detection device, view line detection method, view line-detecting computer program and mobile terminal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107003752A (en) * 2014-12-17 2017-08-01 索尼公司 Information processor, information processing method and program
US10452137B2 (en) 2014-12-17 2019-10-22 Sony Corporation Information processing apparatus and information processing method
CN107003752B (en) * 2014-12-17 2020-04-10 索尼公司 Information processing apparatus, information processing method, and program
US11635806B2 (en) 2014-12-17 2023-04-25 Sony Corporation Information processing apparatus and information processing method
WO2017141730A1 (en) * 2016-02-18 2017-08-24 ソニー株式会社 Image processing device and method, and program
US10694110B2 (en) 2016-02-18 2020-06-23 Sony Corporation Image processing device, method

Similar Documents

Publication Publication Date Title
JP6834056B2 (en) Shooting mobile terminal
EP2288126B1 (en) Mobile terminal and controlling method thereof
CN106104663B (en) The method of the display brightness of the display of electronic equipment and setting electronic equipment
JP6105953B2 (en) Electronic device, line-of-sight input program, and line-of-sight input method
KR101712529B1 (en) Method, device, terminal, program and computer-readable recording medium for controlling flash
US20160156837A1 (en) Alternative camera function control
US20150177865A1 (en) Alternative input device for press/release simulations
JPWO2014084224A1 (en) Electronic device and line-of-sight input method
US8931907B2 (en) Projecting device for detecting brightness regions of a projecting surface and projecting method therefor
US10379602B2 (en) Method and device for switching environment picture
EP3147802B1 (en) Method and apparatus for processing information
CN109040524B (en) Artifact eliminating method and device, storage medium and terminal
JP2014027386A (en) Portable terminal, power saving control program, and power saving control method
EP3264774A1 (en) Live broadcasting method and device for live broadcasting
JP6285160B2 (en) Device having camera function, photographing control method and program
WO2018171112A1 (en) Viewing angle switching method and device
JP6099948B2 (en) Electronic device, control program, and display control method
JP2010022043A (en) Mobile terminal
WO2022160638A1 (en) Target object exposure method and apparatus, and storage medium, device and program
CN109543666A (en) Structure light assembly control method and device
CN111176513B (en) Control method and electronic equipment
CN109120864B (en) Light supplement processing method and device, storage medium and mobile terminal
CN106412546A (en) Mobile terminal equipped with a camera and controlling method thereof
CN108510266A (en) A kind of Digital Object Unique Identifier recognition methods and mobile terminal
CN106953991A (en) Display mode switching method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160920