JP2014228949A - Information processing device and processing execution method - Google Patents

Information processing device and processing execution method Download PDF

Info

Publication number
JP2014228949A
JP2014228949A JP2013106379A JP2013106379A JP2014228949A JP 2014228949 A JP2014228949 A JP 2014228949A JP 2013106379 A JP2013106379 A JP 2013106379A JP 2013106379 A JP2013106379 A JP 2013106379A JP 2014228949 A JP2014228949 A JP 2014228949A
Authority
JP
Japan
Prior art keywords
line
sight
user
partner
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013106379A
Other languages
Japanese (ja)
Inventor
美木子 中西
Mikiko Nakanishi
美木子 中西
真治 木村
Shinji Kimura
真治 木村
倉掛 正治
Masaharu Kurakake
正治 倉掛
堀越 力
Tsutomu Horikoshi
力 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2013106379A priority Critical patent/JP2014228949A/en
Publication of JP2014228949A publication Critical patent/JP2014228949A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To execute predetermined processing using the sight line of a user.SOLUTION: According to an eyeglasses-type communication terminal 100, an own sight line detection unit 102 and an opposite person sight line detection unit 103 detect the sight line of a user, an operation object, and the sight line of an opposite person with whom the user is going to communicate, respectively. A sight line meeting determination unit 104 determines whether the sight line of the user and the sight line of the opposite person met or not, and if it was determined the sight lines met, a processing starting unit 105 executes predetermined processing. In an embodiment, for example, a communication unit 106 executes communication processing with the opposite person whose sight line met with that of the user.

Description

本発明は、ユーザの視線をトリガーとして所定の処理を実行する情報処理装置および処理実行方法に関する。   The present invention relates to an information processing apparatus and a process execution method that execute a predetermined process using a user's line of sight as a trigger.

視線を検出する技術やそれを利用する技術が考えられている。特許文献1に記載の技術は、注視点検出システムに関するものであって、テストシーンにおけるユーザの注視点を検出することについての記載がある。   A technique for detecting the line of sight and a technique using the same are considered. The technique described in Patent Document 1 relates to a gazing point detection system, and there is a description about detecting a gazing point of a user in a test scene.

特表2012−515579号Special table 2012-515579

一般的に、何らかの処理を実行したい場合、例えば通信相手と通信確立を行いたい場合、通信端末を相手に向けて端末同士の位置を合わせたり、操作ボタン等を利用して操作する必要がある。また、赤外線通信などを行う場合には、その位置合わせをするための処理が必要である。しかしながら、このような操作や位置合わせをすることは大変手間のかかるものである。   Generally, when executing some processing, for example, when establishing communication with a communication partner, it is necessary to align the positions of the terminals with the communication terminal facing the partner, or to operate using operation buttons or the like. Moreover, when performing infrared communication etc., the process for the position alignment is required. However, such operations and positioning are very time-consuming.

ここで、従来から知られている視線を検出する技術を利用して、何らかの処理を実行することが考えられる。上述特許文献1においては、視線を検出することの記載があるが、これは人の行動を検出するためのものであって、検出した視線をトリガーに、何らかの処理を実行するものではない。   Here, it is conceivable to perform some processing using a conventionally known technique for detecting a line of sight. In the above-mentioned Patent Document 1, there is a description of detecting a line of sight, but this is for detecting a human action, and does not execute any processing by using the detected line of sight as a trigger.

そこで、本発明においては、ユーザの視線を利用してあらかじめ定められた処理を実行する情報処理装置および処理実行方法を提供することを目的とする。   Therefore, an object of the present invention is to provide an information processing apparatus and a process execution method that execute a predetermined process using a user's line of sight.

上術の課題を解決するために、本発明の情報処理装置は、ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置であって、相手の視線を検出する相手視線検出手段と、前記相手視線検出手段により検出された相手の視線に基づいて視線合致判断処理を実行する視線判断手段と、前記視線判断手段により視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行手段と、を備えている。   In order to solve the above-described problem, an information processing apparatus according to the present invention is an information processing apparatus that is carried by a user and acquires information on the other party through the user's operation, and detects the other party's line of sight detection. A line-of-sight determination means for executing line-of-sight match determination processing based on the line-of-sight of the opponent detected by the line-of-sight eye detection means, and a predetermined process when the line-of-sight determination means determines that the line of sight matches. Processing execution means to execute.

また、本発明の処理実行方法は、ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置における処理実行方法であって、操作対象者であるユーザの視線を検出する自分視線検出ステップと、相手の視線を検出する相手視線検出ステップと、前記相手視線検出ステップにより検出された相手の視線に基づいて視線合致判断処理を実行する視線判断ステップと、前記視線判断ステップにより視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行ステップと、を備えている。   Also, the processing execution method of the present invention is a processing execution method in an information processing apparatus that is carried by a user and acquires information on the other party by the user's operation, and that detects the line of sight of the user who is the operation target The line of sight is detected by a detection step, a line of sight detection step of detecting the line of sight of the other party, a line of sight determination step for executing a line of sight match determination process based on the line of sight of the partner detected by the line of sight detection of the other party, A process execution step for executing a predetermined process when it is determined that they match.

この発明によれば、相手の視線を検出し、相手の視線に基づいて、視線合致判断処理を行い、視線が合ったと判断されると、あらかじめ定められた処理を実行する。これにより、その処理のための操作を行うことなく、相手の視線を検出するといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。   According to the present invention, the line of sight of the other party is detected, the line-of-sight matching determination process is performed based on the line of sight of the other party, and when it is determined that the line of sight is met, a predetermined process is executed. Thereby, it is possible to execute the process with a simple and natural operation of detecting the other party's line of sight without performing an operation for the process. Further, since an explicit operation for the processing is not performed, the processing can be executed without informing the surrounding people what is being done.

また、本発明の情報処理装置は、前記ユーザの視線を検出する自分視線検出手段を更に備え、前記視線判断手段は、前記自分視線検出手段により検出された前記ユーザの視線と、前記相手視線検出手段により検出された前記相手の視線とが合ったか否かを判断するための視線合致判断処理を実行する。   The information processing apparatus according to the present invention further includes a self-gaze detection unit that detects the gaze of the user, and the gaze determination unit detects the gaze of the user detected by the self-gaze detection unit and the partner gaze detection A line-of-sight match determination process is performed to determine whether or not the line of sight of the opponent detected by the means matches.

これにより、自分と相手との視線の合致を判断することができ、正確な視線の判断処理を行うことができる。よって、一方的に相手から見られている場合において、そのあらかじめ定められた処理を実行するといったことを防止することができる。   As a result, it is possible to determine the match of the line of sight between the user and the opponent, and an accurate line-of-sight determination process can be performed. Therefore, it is possible to prevent the predetermined processing from being executed when the image is viewed unilaterally.

また、本発明の情報処理装置において、前記自分視線検出手段は、ユーザの視線としてユーザの視線ベクトルを算出し、前記相手視線検出手段は、相手の視線として、相手の視線ベクトルを算出し、前記視線判断手段は、前記ユーザの視線のベクトルと、前記相手の視線のベクトルとに基づいて、視線合致判断処理を実行する。   In the information processing apparatus of the present invention, the self gaze detection unit calculates a user gaze vector as the user gaze, and the partner gaze detection unit calculates a partner gaze vector as the partner gaze, The line-of-sight determination means executes a line-of-sight match determination process based on the user's line-of-sight vector and the opponent's line-of-sight vector.

この発明によれば、ユーザの視線のベクトルと、相手の視線のベクトルとをそれぞれ算出し、これらベクトルに基づいて、視線合致判断処理を実行する。これにより、視線が合ったか否かの判断を演算により判断することができる。   According to the present invention, the user's line-of-sight vector and the opponent's line-of-sight vector are respectively calculated, and the line-of-sight matching determination process is executed based on these vectors. Thereby, it is possible to determine whether or not the line of sight has been met by calculation.

また、本発明の情報処理装置は、所定範囲の映像を取得するカメラ手段をさらに備え、前記視線判断手段は、前記カメラ手段により取得された映像に基づいて、前記相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。   The information processing apparatus of the present invention further includes camera means for acquiring a predetermined range of video, and the line-of-sight determination means determines that the partner is not within the predetermined range based on the video acquired by the camera means. If so, it is determined not to perform the line-of-sight match determination process or determine that the line of sight does not match.

この発明によれば、所定範囲の映像を取得しておき、取得された映像に基づいて、相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。例えば、視線が相互に対向した関係にあり、視線そのものだけ見ると、視線が合っているように見える場合があるが、お互いの位置がずれているため、視線が合っているとは一般的には言えない場合がある。こういった場合には、視線があるという処理を行うと不自然であるため、相手の位置関係に応じて視線があったとは判断しない、または視線合致判断処理を行わないようにする。   According to the present invention, when a video of a predetermined range is acquired and it is determined that the other party is not within the predetermined range based on the acquired video, the line-of-sight match determination processing is not performed or the line of sight is Judge that does not fit. For example, the lines of sight are in opposition to each other, and if you look at the line of sight itself, the lines of sight may appear to be in alignment. There are cases where it cannot be said. In such a case, since it is unnatural to perform the process that there is a line of sight, it is not determined that there was a line of sight according to the positional relationship of the other party, or the line-of-sight matching determination process is not performed.

また、本発明の情報処理装置は、前記自分視線検出手段により検出された視線に基づいて視認範囲を生成する視認範囲生成手段をさらに備え、前記相手が、前記カメラ手段により撮影された映像に基づいて前記所定範囲にいると判断できるとともに、前記視認範囲生成手段により生成された視認範囲にいる場合、前記視線判断手段は、視線の合致判断処理を行う。   The information processing apparatus according to the present invention further includes a visual range generation unit that generates a visual range based on the line of sight detected by the self-gaze detection unit, and the partner is based on an image captured by the camera unit. When it is determined that the user is within the predetermined range and is within the visual range generated by the visual range generation unit, the visual line determination unit performs a visual line match determination process.

この発明によれば、検出された視線に基づいて生成された視認範囲に基づいて、相手が、映像に基づいてその範囲にいるとともに、カメラ手段で定義された所定範囲にいると判断できる場合、視線の合致判断処理を行う。これにより、所定範囲にいる場合は一般的には、お互いの視線があう関係にいるのであるが、そうではない場合もあり、自然に視線がある関係にある位置関係を視認範囲および所定範囲で定義づけることにより、適切な位置関係にいる者同士の視線の合致判断処理を行うことができる。よって、自然な動作による処理を実行することができる。   According to this invention, based on the viewing range generated based on the detected line of sight, it can be determined that the other party is in the range based on the video and is in the predetermined range defined by the camera means. Line-of-sight match determination processing is performed. As a result, when in the predetermined range, the line-of-sight is generally in a relationship where the lines of sight are in contact with each other. By defining, it is possible to perform a line-of-sight match determination process between persons in an appropriate positional relationship. Therefore, processing by a natural operation can be executed.

また、本発明の情報処理装置において、前記自分視線検出手段は、当該ユーザの向いている方向を視線として検出し、前記相手視線検出手段は、当該相手の向いている方向を視線として検出する。   In the information processing apparatus according to the present invention, the self gaze detection unit detects a direction in which the user is facing as a gaze, and the partner gaze detection unit detects a direction in which the partner is facing as a gaze.

この発明によれば、当該ユーザの向いている方向を視線として検出し、当該相手の向いている方向を視線として検出することで、目の動き等を検出するといった複雑な処理を行うことなく、顔の向いている方向を検出するなど簡易な方法で得た向きを視線とすることで、その処理構成を簡易なものとすることができる。   According to the present invention, by detecting the direction of the user as a line of sight and detecting the direction of the other party as a line of sight, without performing complicated processing such as detecting eye movements, By setting the direction obtained by a simple method such as detecting the direction in which the face is facing as the line of sight, the processing configuration can be simplified.

また、本発明の情報処理装置において、指向性を有する光を視線に応じた方向に発光する発光手段と、相手装置から発光される光を検出する検出手段と、を更に備え、前記相手視線検出手段は、前記相手装置から発光された光を前記相手の視線として検出し、前記視線判断手段は、前記相手視線検出手段が前記相手装置から発光された光を検出した場合に、前記ユーザの視線と前記相手の視線とが合ったと判断する。   The information processing apparatus according to the present invention further includes: a light emitting unit that emits directional light in a direction corresponding to the line of sight; and a detection unit that detects light emitted from the counterpart device, wherein the partner line of sight detection is performed. The means detects the light emitted from the counterpart device as the line of sight of the counterpart, and the visual line determination means detects the user's line of sight when the counterpart visual line detection means detects the light emitted from the counterpart device. And the line of sight of the opponent match.

この発明によれば、指向性を有する光をお互いに発光することになり、相手の眼球および自分の眼球のそれぞれの動きを検出することがなく、簡易に視線の検出を行うことができる。   According to the present invention, light having directivity is emitted from each other, and it is possible to easily detect the line of sight without detecting the movements of the partner's eyeball and own eyeball.

本発明によれば、所望の処理のための操作を行うことなく、視線を合わせるといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。   According to the present invention, it is possible to execute a process with a simple and natural operation of adjusting the line of sight without performing an operation for a desired process. Further, since an explicit operation for the processing is not performed, the processing can be executed without informing the surrounding people what is being done.

本実施形態の情報処理装置であるメガネ型通信端末100の外観図である。1 is an external view of a glasses-type communication terminal 100 that is an information processing apparatus of the present embodiment. メガネ型通信端末100を用いて通信を実行するときを模式的に示した説明図である。It is explanatory drawing which showed typically when performing communication using the glasses-type communication terminal 100. FIG. 本実施形態のメガネ型通信端末100の機能を示すブロック図である。It is a block diagram which shows the function of the glasses-type communication terminal 100 of this embodiment. メガネ型通信端末100のハードウェア構成図である。2 is a hardware configuration diagram of a glasses-type communication terminal 100. FIG. 視線合致判定についての処理概念図である。It is a processing conceptual diagram about a line-of-sight match determination. 視線合致判定についての変形例を示す説明図である。It is explanatory drawing which shows the modification about a gaze match determination. 視線合致判定における第2の変形例を示す説明図である。It is explanatory drawing which shows the 2nd modification in a line-of-sight match determination. メガネ型通信端末100の処理を示すフローチャートである。3 is a flowchart showing processing of the glasses-type communication terminal 100.

添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。   Embodiments of the present invention will be described with reference to the accompanying drawings. Where possible, the same parts are denoted by the same reference numerals, and redundant description is omitted.

図1は、本実施形態の情報処理装置であるメガネ型通信端末100の外観図である。図1に示される通り、このメガネ型通信端末100は、カメラ101を備えており、通信相手を映像としてとらえることができる。   FIG. 1 is an external view of a glasses-type communication terminal 100 that is an information processing apparatus of the present embodiment. As shown in FIG. 1, the glasses-type communication terminal 100 includes a camera 101 and can capture a communication partner as an image.

図2は、このメガネ型通信端末100を用いて通信を実行するときを模式的に示したものである。図1に示される通り、ユーザAおよびユーザBは、メガネ型通信端末100aおよび100bをそれぞれかけている。そして、メガネ型通信端末100aのカメラ101は、ユーザBの眼球等を撮影することにより、ユーザBの視線を検出することができる。また、メガネ型通信端末100aは、ユーザAの視線を、そのレンズ内部に備えられているセンサ(図示せず)を利用することによりその眼球を検出し、視線を検出することができる。   FIG. 2 schematically shows a time when communication is performed using the glasses-type communication terminal 100. As shown in FIG. 1, user A and user B wear glasses-type communication terminals 100a and 100b, respectively. The camera 101 of the glasses-type communication terminal 100a can detect the user B's line of sight by photographing the user's B eyeball and the like. The glasses-type communication terminal 100a can detect the line of sight of the user A by using a sensor (not shown) provided in the lens to detect the line of sight.

そして、メガネ型通信端末100aは、ユーザAの視線とユーザBの視線とのマッチングをとることにより、視線が合った場合に、通信を行うことができる。   The glasses-type communication terminal 100a can perform communication when the line of sight is matched by matching the line of sight of the user A and the line of sight of the user B.

なお、本実施形態においては、メガネ型通信端末100aが、ユーザBの視線を検出して、ユーザAの視線とのマッチングをとることにより、通信実行を行うようにしているが、逆でもよく、メガネ型通信端末100bがユーザAの視線を検出するようにしてもよい。また、メガネ型通信端末100aおよび100bの両方において、相互に相手の視線を検出し、両方において検出した場合に、通信実行を行うようにしてもよい。   In the present embodiment, the glasses-type communication terminal 100a detects the user B's line of sight and performs matching by matching with the user A's line of sight. The glasses-type communication terminal 100b may detect the user A's line of sight. Further, in both the glasses-type communication terminals 100a and 100b, the other party's line of sight may be detected from each other, and communication may be executed when both are detected.

つぎに、このメガネ型通信端末100の機能構成を示す。図3は、本実施形態のメガネ型通信端末100の機能を示すブロック図である。図3に示される通り、カメラ101(カメラ手段)、自分視線検出部102(自分視線検出手段)、相手視線検出部103(相手視線検出手段、視認範囲生成手段)、視線合致判定部104(視線判断手段)、処理開始部105(処理実行手段)、通信部106(処理実行手段)、通信内容蓄積部107、通信内容選択部108および表示部109を含んで構成されている。   Next, a functional configuration of the glasses-type communication terminal 100 is shown. FIG. 3 is a block diagram illustrating functions of the glasses-type communication terminal 100 of the present embodiment. As shown in FIG. 3, the camera 101 (camera unit), the self gaze detection unit 102 (self gaze detection unit), the partner gaze detection unit 103 (partner gaze detection unit, viewing range generation unit), the gaze match determination unit 104 (gaze) A determination unit), a process start unit 105 (process execution unit), a communication unit 106 (process execution unit), a communication content storage unit 107, a communication content selection unit 108, and a display unit 109.

図4は、メガネ型通信端末100のハードウェア構成図である。図3に示されるメガネ型通信端末100は、物理的には、図4に示すように、1または複数のCPU11、主記憶装置であるRAM12及びROM13、入力デバイスであるキーボード及びマウス等の入力装置14、ディスプレイ等の出力装置15、ネットワークカード等のデータ送受信デバイスである通信モジュール16、半導体メモリ等の補助記憶装置17などを含むコンピュータシステムとして構成されている。図3における各機能は、図4に示すCPU11、RAM12等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU11の制御のもとで入力装置14、出力装置15、通信モジュール16を動作させるとともに、RAM12や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。以下、図3に示す機能ブロックに基づいて、各機能ブロックを説明する。   FIG. 4 is a hardware configuration diagram of the glasses-type communication terminal 100. As shown in FIG. 4, the glasses-type communication terminal 100 shown in FIG. 3 physically includes one or a plurality of CPUs 11, a RAM 12 and a ROM 13 as main storage devices, and input devices such as a keyboard and a mouse as input devices. 14, a computer system including an output device 15 such as a display, a communication module 16 that is a data transmission / reception device such as a network card, an auxiliary storage device 17 such as a semiconductor memory, and the like. Each function in FIG. 3 operates the input device 14, the output device 15, and the communication module 16 under the control of the CPU 11 by reading predetermined computer software on the hardware such as the CPU 11 and the RAM 12 shown in FIG. In addition, it is realized by reading and writing data in the RAM 12 and the auxiliary storage device 17. Hereinafter, each functional block will be described based on the functional blocks shown in FIG.

カメラ101は、通信相手となるユーザBの眼球の動きを撮影する部分である。本実施形態においては、カメラ101は、ユーザAの目の前の所定範囲を撮影することができ、当該所定範囲にユーザBがいる場合、そのユーザBおよびその眼球を撮影することができる。   The camera 101 is a part that captures the movement of the eyeball of the user B who is a communication partner. In the present embodiment, the camera 101 can shoot a predetermined range in front of the user A, and when the user B is in the predetermined range, the camera 101 can shoot the user B and the eyeball.

自分視線検出部102は、レンズ内側に備えられている自分(ユーザA)の眼球の動きをとらえるセンサ(図示せず)に基づいて、視線を検出する部分であり、例えば、視線ベクトルを生成する。   The self gaze detection unit 102 is a part that detects a gaze based on a sensor (not shown) that captures the movement of the eyeball of the user (user A) provided inside the lens, and generates a gaze vector, for example. .

相手視線検出部103は、カメラ101において撮影された所定範囲にユーザBがいる場合の、そのユーザBの眼球の動きに従って、通信相手の視線を検出する部分であり、例えば、視線ベクトルを生成する。なお、これに限らず、光照射部(図示せず)が相手に赤外線光や光を相手に照射し、その反射光により視線を検出するようにしてもよい。   The partner line-of-sight detection unit 103 is a part that detects the line of sight of the communication partner in accordance with the movement of the eyeball of the user B when the user B is within a predetermined range captured by the camera 101. For example, a line-of-sight vector is generated. . However, the present invention is not limited to this, and a light irradiation unit (not shown) may irradiate the other party with infrared light or light and detect the line of sight with the reflected light.

視線合致判定部104は、自分視線検出部102により検出された自分の視線、および相手視線検出部103により検出された相手の視線に基づいて合致の判定を行う部分である。例えば、自分の視線ベクトルと相手の視線ベクトルとで内積演算を行うことにより、それらベクトルが形成する角度が所定角度以下であるか否かを判定する。   The line-of-sight match determination unit 104 is a part that performs a match determination based on one's line of sight detected by the self-line-of-sight detection unit 102 and the line of sight of the other party detected by the partner's line-of-sight detection unit 103. For example, by calculating the inner product between the own line-of-sight vector and the partner's line-of-sight vector, it is determined whether or not the angle formed by these vectors is equal to or smaller than a predetermined angle.

処理開始部105は、視線合致判定部104により判定された結果に基づいて処理を開始する部分である。例えば、通信部106による通信を実行するよう制御する。   The processing start unit 105 is a part that starts processing based on the result determined by the line-of-sight match determination unit 104. For example, the communication unit 106 is controlled to execute communication.

通信部106は、視線の合った相手と通信を実行する部分である。この通信部106は、ネットワークを介した通信を行ったり、または近距離無線通信を行うことができる。例えば、通信部106は、視線が合ったことをトリガーに、視線の合った相手の通信端末との接続確立処理を開始する。自分のメガネ型通信端末100aは、一定範囲内にある他メガネ型通信端末100bと常に接続している状態であることを前提に、視線が合った相手とのみキー(ID・パスワードなど)交換をすることにより通信を実行することができる。   The communication unit 106 is a part that performs communication with a partner whose line of sight matches. The communication unit 106 can perform communication via a network or perform short-range wireless communication. For example, the communication unit 106 starts a connection establishment process with the communication terminal of the other party with the line of sight triggered by the line of sight. Assuming that your glasses-type communication terminal 100a is always connected to another glasses-type communication terminal 100b within a certain range, exchange keys (ID, password, etc.) only with the person whose line of sight matches. By doing so, communication can be executed.

そのほか、通信部106は、視線が合ったことをトリガーに、あらかじめ定めたサーバ(図示せず)に通信開始のための自己のIDやアドレス等を通知するようにしてもよい。通信相手も同様の処理構成をとったものとして、サーバは、自分と通信相手とのIDを取得する。この場合、サーバでは、どの相手にIDを開示するかを判定する必要が有り、サーバにおいては、各ユーザの位置および顔や目(メガネ)の向きを管理しておく必要があるため、メガネ型通信端末においては、位置や顔・目の向きをID等とともに通知することになる。   In addition, the communication unit 106 may notify a predetermined server (not shown) of its own ID, address, and the like for starting communication using a line of sight as a trigger. Assuming that the communication partner has the same processing configuration, the server acquires the IDs of itself and the communication partner. In this case, in the server, it is necessary to determine to which partner the ID is disclosed, and in the server, it is necessary to manage the position of each user and the orientation of the face and eyes (glasses). In the communication terminal, the position and the face / eye orientation are notified together with the ID and the like.

そして、通信部106は、これら情報を用いてサーバを経由して通信相手と通信することができる。なお、これ以外にもサーバから通信相手のIDを取得し、このIDを利用して近接無線通信を実行することにより通信相手を特定することもできる。   And the communication part 106 can communicate with a communicating party via a server using such information. In addition to this, it is also possible to specify the communication partner by acquiring the ID of the communication partner from the server and performing close proximity wireless communication using this ID.

通信内容蓄積部107は、通信部106が通信するための通信内容を記憶する部分である。   The communication content storage unit 107 is a part that stores communication content for the communication unit 106 to communicate.

通信内容選択部108は、通信内容蓄積部107に記憶されている通信内容から一または複数の通信内容を選択する部分である。この通信内容選択部108は、音声により通信内容を選択指示してもよいし、表示部109に表示されているメニュー画面等から選択してもよい。この場合、操作ボタン等は、メガネ型通信端末100の弦部分や、リモコン等により操作選択するようにしてもよい。そのほか、カメラやセンターを使ってジェスチャーにより指定してもよい。   The communication content selection unit 108 is a part that selects one or a plurality of communication content from the communication content stored in the communication content storage unit 107. The communication content selection unit 108 may instruct to select communication content by voice, or may select from a menu screen or the like displayed on the display unit 109. In this case, the operation button or the like may be selected by operating the string portion of the glasses-type communication terminal 100, a remote controller, or the like. In addition, you may specify by gesture using a camera or a center.

表示部109は、各種情報を表示する部分であり、例えば、通信内容を選択するためのメニュー画面を表示したり、視線検出中などの、実行状況を表示したりすることができる。また、通信相手を選択するための選択肢を表示するようにしてもよい。この表示部109は、メガネ型通信端末100のレンズ内側に各種データを投影することにより表示機能を実現することができる。ユーザはレンズ内側に投影されたデータを見ることができる。   The display unit 109 is a part that displays various types of information. For example, the display unit 109 can display a menu screen for selecting communication contents, or can display an execution status such as when a line of sight is being detected. In addition, options for selecting a communication partner may be displayed. The display unit 109 can realize a display function by projecting various data inside the lens of the glasses-type communication terminal 100. The user can see the data projected inside the lens.

ここで、自分視線検出部102および相手視線検出部103による視線の検出方法について説明する。   Here, a gaze detection method by the self gaze detection unit 102 and the partner gaze detection unit 103 will be described.

視線を検出する方法に、角膜反射光法という方法がある。一般的に、人の角膜表面は平面性が良好で光を良く反射する。この方法は、この特性を利用して、外部光源からの光を角膜表面にあて、その反射光を記録することにより視線を検出しようとするものである。なお、この記録された反射像を角膜反射像またはプルキンエ像と呼ぶ。   As a method for detecting the line of sight, there is a method called corneal reflection light method. In general, the surface of a human cornea has good flatness and reflects light well. This method uses this characteristic to detect the line of sight by applying light from an external light source to the cornea surface and recording the reflected light. This recorded reflected image is called a corneal reflection image or Purkinje image.

また、安定して視線を測定するために、瞳孔の中心を基準点として、瞳孔中心とプルキンエ像の距離を計測する方法がある。一般的に瞳孔の検出は、カメラで撮影した被験者の目の画像から画像処理を行うことによって検出される。   In order to stably measure the line of sight, there is a method of measuring the distance between the center of the pupil and the Purkinje image using the center of the pupil as a reference point. In general, detection of a pupil is performed by performing image processing from an image of a subject's eye taken by a camera.

さらに、カメラで眼球の一部ないしは全部を撮影し、撮影された画像中から虹彩や瞳孔など目の特徴的部分を検出することにより視線を検出する方法がある。これは、カメラ撮影法といわれるものである。例えば、瞳孔の形状によりその視線を判断することができる。一般的に、瞳孔の形状は真円形に近く、眼球が動いても撮影された形状は楕円形に近似でき、近似された楕円の長軸・短軸・軸の傾きなどのパラメータから視線の向きを求めることができる。   Further, there is a method of detecting a line of sight by photographing a part or all of the eyeball with a camera and detecting characteristic parts of the eye such as an iris and a pupil from the photographed image. This is called a camera photographing method. For example, the line of sight can be determined from the shape of the pupil. In general, the shape of the pupil is close to a perfect circle, and the captured shape can be approximated to an ellipse even when the eyeball moves, and the direction of the line of sight can be determined from parameters such as the major axis, minor axis, and axis tilt of the approximated ellipse Can be requested.

また、瞳孔中心位置と目頭位置との相対距離に着目するものもある。   Some focus on the relative distance between the pupil center position and the eye position.

さらに、ステレオカメラを用いる方法がある。ステレオカメラで頭部を撮像し、あらかじめ用意されている顔の3次元顔モデルと3次元観測値のモデルフィッティング処理により、頭部の位置・姿勢の6自由度を求め、顔のトラッキングを行なう。顔トラッキングにより顔の位置・姿勢を計測し、眼球の中心位置を推定する。画像から得られる虹彩の中心位置と推定された眼球中心位置の関係より、水平・垂直の視線角度がわかるので、三次元ベクトルとして視線が得られる。   Furthermore, there is a method using a stereo camera. The head is imaged by a stereo camera, and the face tracking is performed by obtaining six degrees of freedom of the head position and posture by a model fitting process of a three-dimensional face model and a three-dimensional observation value prepared in advance. The face position / posture is measured by face tracking, and the center position of the eyeball is estimated. Since the horizontal and vertical line-of-sight angles are known from the relationship between the center position of the iris obtained from the image and the estimated center position of the eyeball, the line of sight can be obtained as a three-dimensional vector.

以上の視線を検出する方法は公知の手法であり、本実施形態においてはいずれの方法をも採用することができる。また、自分と相手とは必ずしも同じ視線取得方法をとる必要はなく、自分の視線は精度の高いプルキンエ像を利用した方法を用い、相手視線の検出はカメラのみを利用した方法を利用してもよい。プルキニエ像を取得するには、赤外光を眼球に当てなければならないため、相手の目が視線取得装置から遠くにいる場合、その測定は困難であるためである。   The method of detecting the above line of sight is a known method, and any method can be adopted in the present embodiment. Also, it is not always necessary for you and your opponent to use the same line-of-sight acquisition method. Your line-of-sight uses a high-precision Purkinje image, and the opponent's line-of-sight can be detected using only a camera. Good. This is because, in order to acquire a Purkinje image, it is necessary to irradiate the eyeball with infrared light. Therefore, when the partner's eyes are far from the line-of-sight acquisition device, measurement is difficult.

つぎに、視線合致判定部104による処理について説明する。図5は、視線合致判定についての処理概念図である。図5(a)は、視線が合っている場合の概念図である。ここではユーザAの視線と、ユーザBの視線とが合ったとしている。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとで形成される角度は、180度である場合、視線が合ったと判断することができる。   Next, processing by the line-of-sight match determination unit 104 will be described. FIG. 5 is a conceptual diagram of processing for line-of-sight matching determination. FIG. 5A is a conceptual diagram when the line of sight is correct. Here, it is assumed that the user A's line of sight matches the user B's line of sight. That is, when the angle formed by the user A's line-of-sight vector and the user B's line-of-sight vector is 180 degrees, it can be determined that the line of sight is in line.

図5(b)は、視線が概ね合っている場合の概念図である。ここではユーザAの視線と、ユーザBの視線とは少しずれた角度であるが、概ね視線が合っていると判断できる場合である。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとは、そのベクトル方向が逆方向でありつつ、その方向が少しずれている場合である。図5(b)では、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとのそれぞれの終点を合わせた場合、それらベクトルは、角度αをもって交差している関係にある。この角度αが所定角度以下である場合には、ユーザAとユーザBとは視線が合っていると判断することができる。   FIG. 5B is a conceptual diagram when the lines of sight are generally matched. Here, the line of sight of the user A and the line of sight of the user B are slightly deviated from each other, but it is a case where it can be determined that the line of sight is almost the same. That is, the user A's line-of-sight vector and the user B's line-of-sight vector are in the case where the vector directions are opposite but the directions are slightly shifted. In FIG. 5B, when the end points of the user A's line-of-sight vector and the user B's line-of-sight vector are combined, the vectors intersect each other with an angle α. When the angle α is equal to or smaller than the predetermined angle, it can be determined that the user A and the user B are in line of sight.

図5(c)は、視線が合っていない場合の概念図である。ここではユーザAの視線と、ユーザBの視線とは、図5(b)の例よりも大きくずれた角度であるため、一致していないと判断できる場合である。すなわち、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとは、そのベクトル方向が逆方向でありつつ、その方向が大きくずれている場合である。図5(c)では、ユーザAの視線ベクトルと、ユーザBの視線ベクトルとのそれぞれの終点を合わせた場合、それらベクトルは、角度βをもって交差している関係にある。この角度βが所定角度以上である場合には、ユーザAとユーザBとは視線が合っていないと判断することができる。   FIG. 5C is a conceptual diagram when the line of sight does not match. Here, since the line of sight of user A and the line of sight of user B are at an angle greatly shifted from the example of FIG. 5B, it can be determined that they do not match. In other words, the user A's line-of-sight vector and the user B's line-of-sight vector are in the case where the vector directions are opposite but the directions are greatly deviated. In FIG. 5C, when the end points of the user A's line-of-sight vector and the user B's line-of-sight vector are combined, the vectors intersect each other with an angle β. When the angle β is equal to or larger than the predetermined angle, it can be determined that the user A and the user B are not in line of sight.

このようにして、視線ベクトルが多少ずれていても、視線が合っているとみなすことで、視線合致の判断を容易にすることができる。   In this way, even if the line-of-sight vector is slightly shifted, it is possible to easily determine the line-of-sight match by regarding the line-of-sight as being in line.

一方で、視線ベクトルのみで判断すると、実際に視線が合っていない場合であっても、視線が合っているとの誤判断をしてしまう場合がある。図6は、視線合致判定についての変形例を示す説明図である。図6(a)では、ユーザAの視線ベクトルv1、ユーザBの視線ベクトルv2が示されている。これら視線ベクトルv1と視線ベクトルv2とは、その向きが正反対であることから、視線が一致していると判断してもよい。しかしながら、ユーザAとユーザBとはその位置が大きくずれていることから、実際には視線は合っていない。   On the other hand, if it is determined only by the line-of-sight vector, it may be erroneously determined that the line of sight is correct even if the line of sight does not actually match. FIG. 6 is an explanatory diagram showing a modification of the line-of-sight match determination. In FIG. 6A, the line-of-sight vector v1 of user A and the line-of-sight vector v2 of user B are shown. Since the direction of the line-of-sight vector v1 and the line-of-sight vector v2 are opposite to each other, it may be determined that the lines of sight match. However, since the positions of the user A and the user B are greatly shifted, the line of sight is not actually matched.

よって、このような場合には、視線が合っていないと判断することが自然である。そこで、図6(b)に示される通り、カメラ101により撮影された所定範囲外にユーザBがいる場合には、視線ベクトルに基づいて視線が合ったと判断できる場合でも、視線が合っていないと判断するように制御する。   Therefore, in such a case, it is natural to determine that the line of sight is not correct. Therefore, as shown in FIG. 6B, when the user B is out of the predetermined range captured by the camera 101, the line of sight is not matched even when the line of sight can be determined based on the line of sight vector. Control to judge.

具体的には、図6(b)には、カメラ101により撮影された撮影範囲Sが示されている。ユーザBは、この撮影範囲Sの範囲外にいるため、視線ベクトルに基づいた視線合致判定で視線が合ったと判断できる場合でも、視線があったとは判断しないようにすることができる。よって、より実際の状況にあった判断を行うことができる。 Specifically, FIG. 6B shows a shooting range S 1 shot by the camera 101. User B, because this are outside the range of the shooting range S 1, even if it can be determined that the line of sight matches line of sight matches the determination based on the line-of-sight vector, and had a line of sight can be prevented is judged. Therefore, it is possible to make a judgment that is more suitable for the actual situation.

一方で、この撮影範囲Sの定義の仕方によっては、視線が合ったのにもかかわらず、視線が合っていないと判断してしまう場合もあり得る。 On the other hand, the depending on how definition the photographing range S 1, even though the suit gaze may sometimes become judged not to match the line of sight.

例えば、図6(c)に示されているように、撮影範囲Sの範囲外に、ユーザBはいるが、その視線ベクトルvはユーザAの方を向いており、一方で、ユーザAの視線ベクトルvもユーザBの方を向いている。こういった場合、視線が合っていると判断することが妥当であるが、ユーザBが撮影範囲Sの範囲外にいるため、視線が合っていないと判断することになる。 For example, as shown in FIG. 6 (c), outside the photographing range S 1, will enter the user B, the line-of-sight vector v 2 is facing the user A, on the other hand, the user A The line-of-sight vector v 1 also faces the user B. In these cases, although it is reasonable to determine that there is line-of-sight, since the user B are outside the scope of the photographing range S 1, will be determined that no match line of sight.

そこで、図7に示されるように、撮影範囲Sを撮影範囲Sより大きくとることが考えられる。図7は、視線合致判定における第2の変形例を示す説明図である。図7(a)では、ユーザAのカメラ101により撮影された範囲のうち、相手視線検出部103により撮影範囲Sが定義付けされている。ここでの例では、撮影範囲SにはユーザBが位置している。 Therefore, as shown in FIG. 7, it is conceivable to take a photographing range S 2 greater than photographing range S 1. FIG. 7 is an explanatory diagram showing a second modification in the line-of-sight match determination. In FIG. 7A, the shooting range S < b > 2 is defined by the partner line-of-sight detection unit 103 in the range shot by the camera 101 of the user A. In the example here, the user B is located in the imaging range S 2.

一方、ユーザAは、視線ベクトルvで示される方向を見ており、この視線ベクトルvに基づいて視認範囲Sが定義されている。この視認範囲Sは、視線ベクトルvを中心線とした所定の視野角で形成された領域で定義されたものである。図7(a)においては、ユーザBは、撮影範囲Sの範囲内にいつつも、視認範囲Sの範囲外にいるため、視線ベクトルに基づいて視線が合っていると判断できる場合であっても、視線は合っていないと判断することになる。 On the other hand, the user A is looking at the direction indicated by the eye vector v 1, visible range S 3 is defined on the basis of the line-of-sight vector v 1. The viewable S 3 are those defined in area formed at a predetermined viewing angle centered line sight vector v 1. In FIG. 7 (a), the user B also while are in the range of photographing range S 2, because you are outside the range of the visible range S 3, there if it can be determined that the matching line of sight on the basis of the line-of-sight vector However, it is determined that the line of sight is not correct.

これに対して、図7(b)においては、ユーザBは、撮影範囲Sの範囲内にいるとともに、視認範囲Sの範囲内にいるため、視線ベクトルに基づいて、視線が合っていると判断できることになる。 On the other hand, in FIG. 7B, the user B is in the shooting range S 2 and in the viewing range S 3 , so the line of sight is in line with the line-of-sight vector. It can be judged.

このように視線合致判定処理を行うことにより、精度よく視線が合ったか否かを判断することができる。   By performing the line-of-sight matching determination process in this way, it is possible to determine whether or not the line of sight has been met with high accuracy.

つぎに、このようなメガネ型通信端末100の処理実行方法について説明する。図8は、その処理を示すフローチャートである。ユーザ操作に従って通信内容選択部108により選択された通信内容が通信内容蓄積部107から指定される(S101)。そして、自分視線検出部102により、自分の視線が検出される(S102)。また、相手視線検出部103により相手ユーザの視線検出が行われる(S103)。なお、S102とS103との処理順は逆でもよい。   Next, a processing execution method of such glasses-type communication terminal 100 will be described. FIG. 8 is a flowchart showing the processing. The communication content selected by the communication content selection unit 108 according to the user operation is designated from the communication content storage unit 107 (S101). Then, the self gaze detection unit 102 detects his gaze (S102). In addition, the other party's gaze detection unit 103 detects the other user's gaze (S103). Note that the processing order of S102 and S103 may be reversed.

視線合致判定部104により、自分の視線と相手ユーザの視線とが合致したか否かが判断される(S104)。ここで合致したと判断されると、通信部106により通信確立処理が行われる(S105)。ここでは通信部106は近接無線を行うものであることから、近接無線で通信内容が送受信され(S106)、メガネ型通信端末100においては、受信内容が表示部109に表示される(S107)。   The line-of-sight match determination unit 104 determines whether or not the user's line of sight matches the line of sight of the other user (S104). If it is determined that the data match, the communication unit 106 performs communication establishment processing (S105). Here, since the communication unit 106 performs close proximity wireless communication, the communication content is transmitted and received by the close proximity wireless communication (S106), and in the glasses-type communication terminal 100, the received content is displayed on the display unit 109 (S107).

つぎに、具体的な視線を検出することなく、視線を検出する方法の変形例について説明する。上述の例では、眼球などの動きを検出することにより視線を検出していた。しかしながら、上述の方法では、検出が難しい場合がある。この変形例では、簡易な視線の検出方法について説明する。この変形例においては、実際の視線を検出するのではなく、メガネ型通信端末100の向き、すなわちメガネ(ユーザの顔)の向きを視線の向きとして検出する。よって、メガネ(ユーザの顔)の向きを検出することができればよい。   Next, a modified example of a method for detecting a line of sight without detecting a specific line of sight will be described. In the above example, the line of sight is detected by detecting the movement of the eyeball or the like. However, the above-described method may be difficult to detect. In this modification, a simple gaze detection method will be described. In this modification, the actual line of sight is not detected, but the direction of the glasses-type communication terminal 100, that is, the direction of the glasses (user's face) is detected as the direction of the line of sight. Therefore, it is only necessary to detect the direction of the glasses (user's face).

具体的には、この変形例におけるメガネ型通信端末100は、自分視線検出部102を備えていない。そして、自分の視線を検出することなく、相手視線検出部103は相手が自分の方を向いているか否かを検出する。例えば、カメラ101が、所定範囲にいるメガネ型通信端末を掛けている相手ユーザの画像を取得して、相手視線検出部103が、相手の視線により自分の方に向いている判断できたら視線が合ったと判断する。また、カメラ101が取得した画像における相手が正面を向いているか否かを判断できる場合には、相手視線検出部103は、視線が合ったと判断するようにしてもよい。   Specifically, the glasses-type communication terminal 100 in this modification does not include the self-gaze detection unit 102. Then, without detecting his / her own line of sight, the other party's line-of-sight detection unit 103 detects whether or not the other party is facing him / her. For example, if the camera 101 acquires an image of the partner user who is wearing the glasses-type communication terminal within a predetermined range, and the partner line-of-sight detection unit 103 determines that the partner's line of sight is facing the user, the line of sight is Judgment is met. Further, when it can be determined whether or not the partner in the image acquired by the camera 101 is facing the front, the partner line-of-sight detection unit 103 may determine that the line of sight is in line.

また、別の方法として、メガネ型通信端末100aおよび100bは、指向性の高い光源を視線(例えば眼球または顔の向き)と一致するように(すなわち、メガネ型通信端末100aのレンズと直交する向きに)発光する発光手段を有する。通信相手となるメガネ型通信端末100bが発光した光を自分のメガネ型通信端末100aにおいては、相手視線検出部103がその指向性の高い光源の光を相手の視線として検出し、視線合致判定部104は、その光を検出した場合に、視線が合ったと判断してもよい。なお、この発光される光に各種情報をのせておき、可視光通信を行ったり、また、相手の通信アドレスなどを取得して、通信部106による通信を行わせることにも利用することができる。   Further, as another method, the glasses-type communication terminals 100a and 100b are arranged so that a light source with high directivity matches the line of sight (for example, the direction of the eyeball or face) (that is, the direction orthogonal to the lens of the glasses-type communication terminal 100a). A) a light emitting means for emitting light; In the glasses-type communication terminal 100a of the glasses-type communication terminal 100a that is the communication partner, in the glasses-type communication terminal 100a, the partner line-of-sight detection unit 103 detects the light of the highly directional light source as the partner's line of sight, 104 may determine that the line of sight has been met when the light is detected. Various information can be put on the emitted light to perform visible light communication, or to acquire the communication address of the other party and perform communication by the communication unit 106. .

つぎに、本実施形態のメガネ型通信端末100の作用効果について説明する。このメガネ型通信端末100によれば、自分視線検出部102および相手視線検出部103が、それぞれ操作対象者であるユーザの視線、相手の視線を検出する。視線合致判定部104は、これらユーザの視線と、相手の視線とが合ったか否かを判断し、視線が合ったと判断されると、処理開始部105は、あらかじめ定められた処理を実行する。本実施形態では、例えば通信部106が、視線の合った相手との間で通信処理を実行する。これにより、その処理のための操作を行うことなく、視線を合わせるといった簡易且つ自然な動作をもって処理実行を可能にする。また、その処理のための明示的な操作を行わないため、周囲の人たちに何をしているのかを知らせることがなく、処理実行を可能にする。   Next, operational effects of the glasses-type communication terminal 100 of the present embodiment will be described. According to the glasses-type communication terminal 100, the self gaze detection unit 102 and the partner gaze detection unit 103 detect the gaze of the user who is the operation target and the gaze of the other party, respectively. The line-of-sight match determination unit 104 determines whether or not the user's line of sight matches the line of sight of the other party. If it is determined that the line of sight matches, the process start unit 105 executes a predetermined process. In the present embodiment, for example, the communication unit 106 performs communication processing with a partner whose line of sight matches. Thus, the process can be executed with a simple and natural operation such as matching the line of sight without performing an operation for the process. Further, since an explicit operation for the processing is not performed, the processing can be executed without informing the surrounding people what is being done.

なお、上述実施形態においては、通信処理について説明しているが、これに限るものではない。通信相手と直接通信することのほか、サーバから通信相手の情報を取得するものでもよいし、別の処理であってもよい。   In the above-described embodiment, the communication process has been described. However, the present invention is not limited to this. In addition to communicating directly with the communication partner, information on the communication partner may be acquired from the server, or another process may be performed.

また、変形例におけるメガネ型通信端末100によれば、自分の視線を検出することなく、相手の視線のみに基づいて、視線合致判定処理を行うようにしてもよい。例えば、相手の視線が自分の方向に向いている場合に、視線が合ったとみなすことができる。   Further, according to the glasses-type communication terminal 100 according to the modification, the line-of-sight matching determination process may be performed based only on the line of sight of the other party without detecting his / her line of sight. For example, it can be considered that the line of sight has been met when the line of sight of the other party is facing his / her direction.

また、本実施形態のメガネ型通信端末100によれば、自分視線検出部102は、ユーザの視線ベクトルv1を算出し、相手視線検出部103は、相手の視線ベクトルv2を算出する。そして、視線合致判定部104は、これらベクトルに基づいて、視線合致判断処理を実行する。これにより、視線が合ったか否かの判断を演算により判断することができる。   Further, according to the glasses-type communication terminal 100 of the present embodiment, the self gaze detection unit 102 calculates the user's gaze vector v1, and the partner gaze detection unit 103 calculates the partner's gaze vector v2. The line-of-sight match determination unit 104 executes line-of-sight match determination processing based on these vectors. Thereby, it is possible to determine whether or not the line of sight has been met by calculation.

また、本実施形態のメガネ型通信端末100によれば、カメラ101により、相手の視線を検出するために、所定範囲の映像(例えば、ユーザの目の前の映像)を取得しておく。そして、視線合致判定部104は、取得された映像に基づいて、相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する。例えば、図6(a)に示されるように、視線が相互に対向した関係にあり、視線そのものだけ見ると、視線が合っているように見える場合があるが、お互いの位置がずれているため、視線が合っているとは一般的には言えない場合がある。こういった場合には、視線があるという処理を行うと不自然であるため、相手の位置関係に応じて視線があったとは判断しない、または視線合致判断処理を行わないようにする。   Further, according to the glasses-type communication terminal 100 of the present embodiment, the camera 101 acquires a predetermined range of video (for example, video in front of the user's eyes) in order to detect the partner's line of sight. The line-of-sight match determination unit 104 determines that the line-of-sight line-of-sight match determination process is not performed or the line of sight does not match when it is determined that the other party is not within the predetermined range based on the acquired video. For example, as shown in FIG. 6 (a), the lines of sight are in opposition to each other, and when only the line of sight is viewed, the lines of sight may appear to be in alignment, but their positions are shifted. In general, it may not be said that the line of sight is in line. In such a case, since it is unnatural to perform the process that there is a line of sight, it is not determined that there was a line of sight according to the positional relationship of the other party, or the line-of-sight matching determination process is not performed.

また、本実施形態のメガネ型通信端末100によれば、まず、自分視線検出部102は、ユーザの視線を検出するとともに、その視線を中心線とした所定の視認範囲を定義づける。そして、視線合致判定部104は、検出されたユーザの視線に基づいて生成された視認範囲に基づいて、相手が、映像に基づいてその範囲にいるとともに、カメラ101により撮影された映像に基づいて相手視線検出部103により定義された所定範囲にいると判断できる場合、視線の合致判断処理を行う。これにより、所定範囲にいる場合は一般的には、お互いの視線が合う関係にいるのであるが、そうではない場合もあり、自然に視線がある関係にある位置関係を視認範囲および所定範囲で定義づけることにより、適切な位置関係にいる者同士の視線の合致判断処理を行うことができる。よって、自然な動作による処理を実行することができる。   Also, according to the glasses-type communication terminal 100 of the present embodiment, first, the self-gaze detection unit 102 detects the user's gaze and defines a predetermined viewing range with the gaze as the center line. Then, the line-of-sight match determination unit 104 is based on the viewing range generated based on the detected user's line of sight, and the other party is in that range based on the video and based on the video captured by the camera 101. When it can be determined that the user is within the predetermined range defined by the partner line-of-sight detection unit 103, line-of-sight matching determination processing is performed. As a result, when they are within the predetermined range, they are generally in a relationship in which their lines of sight match each other, but there are cases where this is not the case. By defining, it is possible to perform a line-of-sight match determination process between persons in an appropriate positional relationship. Therefore, processing by a natural operation can be executed.

また、このメガネ型通信端末100によれば、自分視線検出部102は、当該ユーザの向いている方向を視線として検出し、相手視線検出部103は、当該相手の向いている方向を視線として検出することで、目の動き等を検出するといった複雑な処理を行うことなく、顔の向いている方向を検出するなど簡易な方法で得た向きを視線とすることで、その処理構成を簡易なものとすることができる。   Further, according to the glasses-type communication terminal 100, the self-gaze detection unit 102 detects the direction in which the user is facing as a gaze, and the partner gaze detection unit 103 detects the direction in which the partner is facing as a gaze. By doing so, it is possible to simplify the processing configuration by setting the direction obtained by a simple method such as detecting the direction the face is facing, without performing complicated processing such as detecting eye movements. Can be.

100a…メガネ型通信端末、100b…メガネ型通信端末、101…カメラ、102…自分視線検出部、103…相手視線検出部、104…視線合致判定部、105…処理開始部、106…通信部、107…通信内容蓄積部、108…通信内容選択部、109…表示部。
DESCRIPTION OF SYMBOLS 100a ... Glasses type communication terminal, 100b ... Glasses type communication terminal, 101 ... Camera, 102 ... Self gaze detection part, 103 ... Opposite gaze detection part, 104 ... Gaze coincidence determination part, 105 ... Processing start part, 106 ... Communication part, 107: Communication content storage unit, 108: Communication content selection unit, 109: Display unit.

Claims (7)

ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置であって、
前記相手の視線を検出する相手視線検出手段と、
前記相手視線検出手段により検出された相手の視線に基づいて視線合致判断処理を実行する視線判断手段と、
前記視線判断手段により視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行手段と、
を備える情報処理装置。
An information processing apparatus that is carried by a user and acquires information on the other party through the user's operation,
Partner line-of-sight detection means for detecting the line of sight of the other party;
Line-of-sight determination means for executing line-of-sight match determination processing based on the line of sight of the other party detected by the partner line-of-sight detection means;
A process execution unit that executes a predetermined process when the line of sight determination unit determines that the line of sight matches;
An information processing apparatus comprising:
前記ユーザの視線を検出する自分視線検出手段を更に備え、
前記視線判断手段は、前記自分視線検出手段により検出された前記ユーザの視線と、前記相手視線検出手段により検出された前記相手の視線とが合ったか否かを判断するための視線合致判断処理を実行する
ことを特徴とする請求項1に記載の情報処理装置。
It further comprises self-gaze detection means for detecting the gaze of the user,
The line-of-sight determination means performs a line-of-sight match determination process for determining whether or not the line of sight of the user detected by the line of sight detection means matches the line of sight of the other party detected by the partner line of sight detection means. The information processing apparatus according to claim 1, wherein the information processing apparatus is executed.
前記自分視線検出手段は、ユーザの視線としてユーザの視線ベクトルを算出し、
前記相手視線検出手段は、相手の視線として、相手の視線ベクトルを算出し、
前記視線判断手段は、前記ユーザの視線のベクトルと、前記相手の視線のベクトルとに基づいて、視線合致判断処理を実行する
ことを特徴とする請求項2に記載の情報処理装置。
The self gaze detection means calculates a user's gaze vector as the user's gaze,
The partner line-of-sight detection means calculates the partner's line-of-sight vector as the partner's line of sight,
The information processing apparatus according to claim 2, wherein the line-of-sight determination unit performs line-of-sight matching determination processing based on the user's line-of-sight vector and the opponent's line-of-sight vector.
相手の視線を検出するために、所定範囲の映像を取得するカメラ手段をさらに備え、
前記視線判断手段は、前記カメラ手段により取得された映像に基づいて、前記相手が所定範囲にいないと判断する場合には、視線の視線合致判断処理を行わない、または視線が合わないと判断する
ことを特徴とする請求項1〜3のいずれか一項に記載の情報処理装置。
In order to detect the other party's line of sight, it further comprises camera means for acquiring a predetermined range of video,
The line-of-sight determination means determines that the line-of-sight match determination processing is not performed or the line of sight does not match when it is determined that the partner is not within a predetermined range based on the video acquired by the camera means. The information processing apparatus according to any one of claims 1 to 3.
相手の視線を検出するために、所定範囲の映像を取得するカメラ手段と、
前記自分視線検出手段により検出された視線に基づいて視認範囲を生成する視認範囲生成手段とをさらに備え、
前記相手が、前記カメラ手段により撮影された映像に基づいて前記所定範囲にいると判断できるとともに、前記視認範囲生成手段により生成された視認範囲にいる場合、前記視線判断手段は、視線の合致判断処理を行う
ことを特徴とする請求項2または3に記載の情報処理装置。
Camera means for acquiring a predetermined range of video in order to detect the opponent's line of sight;
A visual range generation unit that generates a visual range based on the line of sight detected by the self-gaze detection unit;
When it can be determined that the opponent is within the predetermined range based on the video imaged by the camera means, and the visual line determination means is in the visual recognition range generated by the visual recognition range generation means, the visual line determination means The information processing apparatus according to claim 2, wherein the information processing apparatus performs processing.
指向性を有する光を視線に応じた方向に発光する発光手段と、
相手装置から発光される光を検出する検出手段と、を更に備え、
前記相手視線検出手段は、前記相手装置から発光された光を前記相手の視線として検出し、
前記視線判断手段は、前記相手視線検出手段が前記相手装置から発光された光を検出した場合に、前記ユーザの視線と前記相手の視線とが合ったと判断する
ことを特徴とする請求項1〜5のいずれか一項に記載の情報処理装置。
A light emitting means for emitting light having directivity in a direction according to the line of sight;
Detecting means for detecting light emitted from the counterpart device;
The counterpart line-of-sight detection means detects light emitted from the counterpart device as the line of sight of the counterpart,
The line-of-sight determination unit determines that the line of sight of the user and the line of sight of the other party are matched when the partner line-of-sight detection unit detects light emitted from the partner apparatus. The information processing apparatus according to any one of claims 5 to 6.
ユーザに携帯され、該ユーザの操作により相手の情報を取得する情報処理装置における処理実行方法であって、
前記相手の視線を検出する相手視線検出ステップと、
前記相手視線検出ステップにより検出された相手の視線に基づいて視線合致判断処理を実行する視線判断ステップと、
前記視線判断ステップにより視線が合ったと判断されると、あらかじめ定められた処理を実行する処理実行ステップと、
を備える処理実行方法。
A processing execution method in an information processing apparatus that is carried by a user and acquires information on the other party by the user's operation,
An opponent gaze detection step of detecting the opponent's gaze;
A line-of-sight determination step for performing a line-of-sight match determination process based on the line of sight of the other party detected in the partner line-of-sight detection step;
A process execution step for executing a predetermined process when it is determined by the line-of-sight determination step that the line of sight has been matched;
A process execution method comprising:
JP2013106379A 2013-05-20 2013-05-20 Information processing device and processing execution method Pending JP2014228949A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013106379A JP2014228949A (en) 2013-05-20 2013-05-20 Information processing device and processing execution method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013106379A JP2014228949A (en) 2013-05-20 2013-05-20 Information processing device and processing execution method

Publications (1)

Publication Number Publication Date
JP2014228949A true JP2014228949A (en) 2014-12-08

Family

ID=52128766

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013106379A Pending JP2014228949A (en) 2013-05-20 2013-05-20 Information processing device and processing execution method

Country Status (1)

Country Link
JP (1) JP2014228949A (en)

Similar Documents

Publication Publication Date Title
KR102469507B1 (en) Information processing apparatus, information processing method and program
US12105875B2 (en) Display systems and methods for determining vertical alignment between left and right displays and a user&#39;s eyes
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US20140152558A1 (en) Direct hologram manipulation using imu
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
EP2991027B1 (en) Image processing program, image processing method and information terminal
TW202127105A (en) Content stabilization for head-mounted displays
JPWO2014156146A1 (en) Electronic mirror device
JP2013258614A (en) Image generation device and image generation method
JP2017102768A (en) Information processor, display device, information processing method, and program
JPWO2011158511A1 (en) Instruction input device, instruction input method, program, recording medium, and integrated circuit
KR20160094190A (en) Apparatus and method for tracking an eye-gaze
WO2015194017A1 (en) Wearable device and authentication method
JPWO2012137801A1 (en) Input device, input method, and computer program
WO2015051605A1 (en) Image collection and locating method, and image collection and locating device
WO2017130514A1 (en) Information processing device, information processing method, and computer-readable recording medium containing program
JP2018099174A (en) Pupil detector and pupil detection method
JP2019066618A (en) Image display system, image display method and image display program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
WO2021237952A1 (en) Augmented reality display system and method
JP5730086B2 (en) Input device and input method
KR20210150881A (en) Electronic apparatus and operaintg method thereof
JP2017102731A (en) Gaze detection device and gaze detection method
TW201807540A (en) Information processing system, operation method, and operation program
JP2014228949A (en) Information processing device and processing execution method