JP6662411B2 - Mobile information terminals and programs - Google Patents

Mobile information terminals and programs Download PDF

Info

Publication number
JP6662411B2
JP6662411B2 JP2018109338A JP2018109338A JP6662411B2 JP 6662411 B2 JP6662411 B2 JP 6662411B2 JP 2018109338 A JP2018109338 A JP 2018109338A JP 2018109338 A JP2018109338 A JP 2018109338A JP 6662411 B2 JP6662411 B2 JP 6662411B2
Authority
JP
Japan
Prior art keywords
unit
sight
line
user
communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018109338A
Other languages
Japanese (ja)
Other versions
JP2018186510A (en
Inventor
正永 中村
正永 中村
薫 梅津
薫 梅津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Publication of JP2018186510A publication Critical patent/JP2018186510A/en
Application granted granted Critical
Publication of JP6662411B2 publication Critical patent/JP6662411B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯情報端末およびプログラムに関する。   The present invention relates to a portable information terminal and a program.

携帯端末には、基地局との通信に使用される通信手段だけでなく、近距離の端末と直接通信ができる無線LAN(LocalArea Network)、Bluetooth(登録商標)、赤外線、NFC(NearField Communication)など多くの通信手段が内蔵されている。これら近距離通信を用いて携帯端末間で連絡先を交換することが、広く行われている。   Mobile terminals include not only communication means used for communication with base stations, but also wireless LANs (Local Area Network), Bluetooth (registered trademark), infrared rays, NFC (Near Field Communication), etc., which can directly communicate with short-range terminals. Many communication means are built-in. Exchange of contacts between portable terminals using such short-range communication is widely performed.

例えば特許文献1に開示の発明によれば、通信範囲内の携帯端末と無線により連絡先を交換することができる。しかし、通信範囲内に複数の携帯端末が存在する場合には、携帯端末の使用者に確認を取らなければ、どの携帯端末と連絡先を交換しているかが明らかでないという問題がある。   For example, according to the invention disclosed in Patent Document 1, it is possible to wirelessly exchange contact information with a portable terminal within a communication range. However, when there are a plurality of mobile terminals within the communication range, there is a problem that it is not clear which mobile terminal to exchange contacts with without checking the user of the mobile terminal.

特表2009−536484Table 2009-536484

周囲に通信可能な端末が複数ある状態では、自分との通信を意図している者が存在したとしても知ることができない。   When there are a plurality of terminals that can communicate with each other, it is impossible to know even if there is a person who intends to communicate with the terminal.

本発明の第1の態様による携帯情報端末は、撮影部と、前記撮影部で撮影した映像に基づいて特定の方向への視線を検出する視線検出部と、前記視線検出部が前記視線を検出すると報知する報知部と、前記撮影部が撮影した顔の特徴を算出する特徴量算出部と、前記特徴量算出部によって算出した前記顔の特徴を記憶する記憶部とを備え、前記報知部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶部に記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する。
本発明の第2の態様によるプログラムは、撮影する撮影手順と、前記撮影手順で撮影した映像に基づいて特定の方向への視線を検出する視線検出手順と、前記視線検出手順で前記視線を検出すると報知する報知手順と、前記撮影手順で撮影した顔の特徴を算出する特徴量算出手順と、前記特徴量算出手順で算出した前記顔の特徴を記憶する記憶手順とを備え、前記報知手順は、前記視線検出手順が前記撮影手順で撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶手順で記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する手順を含み、各手順をコンピュータに実行させる。
A portable information terminal according to a first aspect of the present invention includes a photographing unit, a line-of-sight detecting unit that detects a line of sight in a specific direction based on an image photographed by the photographing unit, and the line-of-sight detecting unit detects the line of sight. Then, an informing unit for informing, a feature amount calculating unit for calculating a feature of the face photographed by the photographing unit, and a storage unit for storing the feature of the face calculated by the feature amount calculating unit, wherein the informing unit is The gaze detection unit detects a gaze in the specific direction based on an image captured by the imaging unit, and when the person having the gaze is similar to the feature stored in the storage unit, the use of the portable information terminal. Notify others.
According to a second aspect of the present invention, there is provided a program that includes: a shooting procedure for shooting; a gaze detection procedure for detecting a gaze in a specific direction based on an image captured in the shooting procedure; and a gaze detection procedure for detecting the gaze in the gaze detection procedure. Then, there is provided an informing procedure for informing, a feature amount calculating procedure for calculating a feature of the face photographed in the photographing procedure, and a storage procedure for storing the face feature calculated in the feature amount calculating procedure, wherein the informing procedure is The gaze detection procedure detects a gaze in the specific direction based on an image captured in the imaging procedure, and when the person having the gaze is similar to the feature stored in the storage procedure, the use of the portable information terminal Including a procedure for notifying the user, causes the computer to execute each procedure .

本発明によれば、自分に視線を向けている者を容易に判断できる。   ADVANTAGE OF THE INVENTION According to this invention, the person who turns his / her eyes can be easily determined.

第1の実施の形態における携帯端末のブロック図Block diagram of a mobile terminal according to the first embodiment 携帯端末の使用状況および映像表示部の動作例を示す図(a:使用状況、b:通常モード、c:マーカーモード)Diagram showing the usage status of the mobile terminal and an operation example of the video display unit (a: usage status, b: normal mode, c: marker mode) 第1の実施の形態における主な動作を表すフローチャートFlowchart showing main operations in the first embodiment 図3に示す工程の詳細を表すフローチャートFlow chart showing details of the process shown in FIG. 第1の実施の形態において2台の携帯端末が通信を開始するまでの動作を表す図FIG. 7 is a diagram illustrating an operation until two mobile terminals start communication in the first embodiment. 変形例5における映像表示部の動作例を示す図The figure which shows the operation example of the video display part in the modification 5. 変形例6におけるインタフェース表示の例を示す図The figure which shows the example of the interface display in the modification 6. 変形例6における携帯端末のブロック図Block diagram of mobile terminal in modification 6 第2の実施の形態における主な動作を表すフローチャートFlowchart showing main operations in the second embodiment 第3の実施の形態における学習動作を表すフローチャート11 is a flowchart illustrating a learning operation according to the third embodiment. 第3の実施の形態における主な動作を表すフローチャートFlow chart showing main operations in the third embodiment 変形例9における携帯端末のブロック図Block diagram of mobile terminal in modification 9 第4の実施の形態におけるシステムのブロック図Block diagram of a system according to a fourth embodiment 第4の実施の形態における携帯端末の探索イメージ図Image of search for mobile terminal in fourth embodiment 第4の実施の形態における携帯端末の動作を表すフローチャート11 is a flowchart illustrating the operation of the mobile terminal according to the fourth embodiment. 第4の実施の形態におけるマッチングサーバの動作を表すフローチャート17 is a flowchart illustrating the operation of the matching server according to the fourth embodiment.

(第1の実施の形態)
以下、図1〜図5を参照して、本発明の第1の実施の形態について説明する。
まず、本発明の第1の実施の形態の構成について説明する。
図1は、携帯端末100の構成を示すブロック図である。携帯端末100は、体に装着できる携帯端末であり、例えばメガネのように頭に固定する。
(First Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
First, the configuration of the first exemplary embodiment of the present invention will be described.
FIG. 1 is a block diagram illustrating a configuration of the mobile terminal 100. The mobile terminal 100 is a mobile terminal that can be worn on the body, and is fixed to the head like glasses, for example.

映像撮影部101は、図示しないカメラを備え、制御部114が、携帯端末100を身につけた者(以下、ユーザという)の周囲の被写体を撮影する。カメラは目の付近にあるので、カメラで撮影して得られた映像の中心への視線は、携帯端末100を装着している者の目への視線とみなすことができる。カメラは広角を撮影できるレンズを装着していること、もしくは複数台のカメラを備えることが望ましい。   The image capturing unit 101 includes a camera (not shown), and the control unit 114 captures an image of a subject around a person (hereinafter, referred to as a user) wearing the portable terminal 100. Since the camera is near the eyes, the line of sight to the center of the image captured by the camera can be regarded as the line of sight to the eyes of the person wearing the portable terminal 100. It is desirable that the camera be equipped with a lens capable of shooting a wide angle, or be equipped with a plurality of cameras.

映像表示部102は、図示しない小型ディスプレイなどを備え、2つの動作モードを有する。通常モードでは、映像撮影部101で撮影したリアルタイム映像をそのまま表示し、マーカーモードでは、映像撮影部101で撮影したリアルタイム映像にマーカーを付して表示する。このマーカーの表示位置は制御部114から指定される。また、ユーザが入力部106から入力した情報も映像表示部102に表示される。制御部114が表示位置を指定して映像表示部102にデータを出力すると、映像表示部102の指定された位置に表示される。   The video display unit 102 includes a small display (not shown) and the like, and has two operation modes. In the normal mode, the real-time video captured by the video capturing unit 101 is displayed as it is. In the marker mode, the real-time video captured by the video capturing unit 101 is displayed with a marker. The display position of this marker is designated by the control unit 114. Information input by the user from the input unit 106 is also displayed on the video display unit 102. When the control unit 114 specifies the display position and outputs the data to the video display unit 102, the data is displayed at the specified position on the video display unit 102.

本発明の実施の形態に係る携帯端末100は、信号待ちや電車の中など、不特定多数が短時間だけ近距離(数メートル程度)にいる場合に主に使用される。ユーザ同士は、視線が合うと、直接話しかけたり物理的な接触をすることなく、無線により相互に情報交換をすることができる。
この実現のために指向性通信を用いる。この理由は以下のとおりである。周囲の端末に一斉に情報を送信することは容易に実現できるが、意図しない人にも受信される恐れがあり、また受信しても誰が送信したのかが不明である。そこで次にネットワーク上の識別子を用いて、1:1の通信をすることが考えられるが、事前の情報交換をしないので相手のネットワーク上の識別子が不明である。さらに、通信を暗号化することも考えられるが、事前に情報の共有を行わないため、暗号化キー(パスワード)が不明である。そのため、指向性通信を行う。
The mobile terminal 100 according to the embodiment of the present invention is mainly used when an unspecified large number is in a short distance (about several meters) for a short time, such as when waiting for a signal or in a train. When the eyes are aligned, the users can exchange information with each other wirelessly without directly speaking or making physical contact.
To achieve this, directional communication is used. The reason is as follows. It is easy to simultaneously transmit information to peripheral terminals, but there is a risk that unintended persons may receive the information, and it is unknown who transmitted the information. Then, it is conceivable to perform 1: 1 communication using the identifier on the network next time, but since the information is not exchanged in advance, the identifier on the partner network is unknown. Further, communication may be encrypted. However, since information is not shared in advance, an encryption key (password) is unknown. Therefore, directional communication is performed.

図2a〜図2cは、携帯端末100の使用状況および、映像表示部102の動作モードの違いによる表示の変化例を示したものである。図2aに示すように、携帯端末100を装着した甲の前に同じく携帯端末100を装着した乙、丙、丁、戊の4人が立っており、左から3番目の丁だけが甲に視線を送っている。図2bおよび図2cは甲が装着する携帯端末100の映像表示部に表示されている映像である。図2bに示す通常モードでは、撮影した映像がそのまま表示され、図2cに示すマーカーモードでは、制御部114が視線を検出した位置を映像表示部102に指定し、マーカーMを付した映像が表示される。   2A to 2C show an example of a change in display due to a use state of the mobile terminal 100 and a difference in an operation mode of the video display unit 102. As shown in FIG. 2A, four persons, who are also equipped with the portable terminal 100, namely, B, H, D, and Bo, are standing in front of the instep equipped with the portable terminal 100, and only the third cave from the left is looking into the instep. Has been sent. 2B and 2C are images displayed on the image display unit of the portable terminal 100 worn by the instep. In the normal mode shown in FIG. 2B, the captured image is displayed as it is. In the marker mode shown in FIG. 2C, the position at which the control unit 114 detects the line of sight is specified to the image display unit 102, and the image with the marker M is displayed. Is done.

他者視線検出部103は、既知の視線検出手法により、映像撮影部101で撮影した映像から、映像の中心への視線を有する者の有無、および画面上の位置を制御部114に出力する。例えば以下の手法による。
まず、映像撮影部101で撮影した映像から静止画を切り出し、エッジ検出やパターン検出などの手法により、この静止画から人の顔を検出する。次に、検出した人の顔の画像に対して、黒目と目尻の位置から注視方向を判別することができる(特開2003−25682号公報)。この視線の方向が映像の中心と合致すれば、その者の顔の位置を制御部114に出力し、視線の方向が合致しない、もしくは顔を検出できなかった場合は「視線なし」と制御部114に出力する。
The other person's line of sight detection unit 103 outputs to the control unit 114 the presence or absence of a person having a line of sight to the center of the image and the position on the screen from the image captured by the image capturing unit 101 using a known line of sight detection method. For example, the following method is used.
First, a still image is cut out from a video shot by the video shooting unit 101, and a human face is detected from the still image by a technique such as edge detection or pattern detection. Next, the gaze direction can be determined based on the positions of the iris and the outer corner of the eye with respect to the detected human face image (Japanese Patent Application Laid-Open No. 2003-25682). If the direction of the line of sight matches the center of the image, the position of the person's face is output to the control unit 114. If the direction of the line of sight does not match or the face cannot be detected, the control unit determines that there is no line of sight. Output to 114.

自己視線検出部104は、図示しない赤外線カメラなどを備え、ユーザの視線の方向を制御部114に出力する。赤外線カメラでユーザの眼球を撮影し、既知の視線検出手法によりユーザの視線の方向を検出する。例えば、瞳孔の中心と角膜曲率中心位置から視線を検出する手法が知られている。この検出された視線と、映像撮影部101で撮影する映像とを組み合わせることによって、ユーザが見ている対象が特定される。   The self-line-of-sight detection unit 104 includes an infrared camera (not shown) or the like, and outputs the direction of the user's line of sight to the control unit 114. The user's eyeball is photographed by an infrared camera, and the direction of the user's line of sight is detected by a known line-of-sight detection method. For example, a method of detecting a line of sight from the center of the pupil and the center of the corneal curvature is known. By combining the detected line of sight with a video image captured by the video image capturing unit 101, an object viewed by the user is specified.

通信部105は、図示しない通信用回路、無指向性アンテナ、指向性アンテナおよびアンテナ可動装置などを備える。制御部114により、通信の開始および停止だけでなく、アンテナ可動装置の制御およびアンテナの電気的接続が制御される。すなわち、携帯端末100は制御部114により、アンテナの向きを変えることによる特定の方向への通信や、電気的な回路切換えによる無指向性通信/指向性通信の切換えがなされる。制御部114によるアンテナの操作は、以下に示すフローチャートによる動作だけでなく、携帯端末100のユーザによるマニュアル操作も受け付けるため、制御部114を介して携帯端末100のユーザが指向性アンテナを利用して通信する方向を自由に操作できる。   The communication unit 105 includes a communication circuit (not shown), a non-directional antenna, a directional antenna, an antenna movable device, and the like. The control unit 114 controls not only the start and stop of communication but also the control of the antenna movable device and the electrical connection of the antenna. That is, in the mobile terminal 100, the control unit 114 performs communication in a specific direction by changing the direction of the antenna, and switches between omnidirectional communication and directional communication by electric circuit switching. The operation of the antenna by the control unit 114 accepts not only the operation according to the flowchart described below but also a manual operation by the user of the mobile terminal 100. Therefore, the user of the mobile terminal 100 uses the directional antenna via the control unit 114. You can freely control the direction of communication.

入力部106は、タッチセンサなどを備え、ユーザがタッチセンサを触るタイミング、長さ、間隔などを制御部114に伝達する。また、映像撮影部101で撮影されたユーザの特定の指の動きや、自己視線検出部104で検出された、ユーザの特定の黒目の動きなどを、制御部114に入力として伝達することもできる。   The input unit 106 includes a touch sensor or the like, and transmits the timing, length, interval, and the like of the user touching the touch sensor to the control unit 114. In addition, the movement of a specific finger of the user photographed by the video photographing unit 101 or the movement of a specific black eye of the user detected by the self-gaze detecting unit 104 can be transmitted to the control unit 114 as an input. .

顔特徴量算出部107は、目、鼻、唇の各端点や相互位置関係、顔の輪郭、顔の色彩や明度の分布などを既知の手法により、顔の特徴量として算出する。   The face feature amount calculation unit 107 calculates the end points of the eyes, the nose, and the lips, the mutual positional relationship, the contour of the face, the distribution of the color and brightness of the face, and the like by a known method as the feature amount of the face.

顔特徴データベース108は、年齢や性別で分類された人の顔の画像を顔特徴量算出部107に入力し、得られた特徴量を保存しており、性別・年代推定部110にて利用される。また、映像撮影部101で撮影した映像を顔特徴量算出部107に入力し、得られた特徴量を新たに保存することができる。   The face feature database 108 inputs an image of a person's face classified by age or gender to the face feature amount calculation unit 107 and stores the obtained feature amounts, and is used by the gender / age estimation unit 110. You. In addition, the image captured by the image capturing unit 101 can be input to the facial feature amount calculation unit 107, and the obtained feature amount can be newly stored.

顔類似度判定部109は、後述する2つにグループ分けされた複数の特徴量を用いて学習し、新たに入力された特徴量がどちらのグループに近いかを判定し、制御部114に出力する。この判定には、既知の手法を用いることができ、例えば特開2004−222118号公報に開示されている、サポートベクタマシンを利用する手法を用いることができる。   The face similarity determination unit 109 learns using a plurality of feature amounts divided into two groups, which will be described later, determines which group the newly input feature amount is closer to, and outputs the group to the control unit 114. I do. For this determination, a known method can be used. For example, a method using a support vector machine disclosed in JP-A-2004-222118 can be used.

性別・年代推定部110は、入力された顔の性別および年代を既知の手法により判定し、制御部114に出力する。顔特徴データベース108には、性別・年代が既知である複数の顔の特徴量が登録されているので、例えば顔類似度判定部109を利用して、判断対象の顔の特徴量が、任意に形成する2グループのどちらに属するかを繰り返し判定し、性別と年代を判定できる。   The gender / age estimation unit 110 determines the gender and age of the input face by a known method, and outputs the determined gender and age to the control unit 114. Since the face feature database 108 has registered therein feature values of a plurality of faces whose genders and ages are known, the feature amount of the face to be determined can be arbitrarily determined using, for example, the face similarity determination unit 109. It is possible to repeatedly determine which of the two groups to form, and determine the gender and age.

データ保存部111は、図示しないフラッシュメモリなどを備え、図3以降に示すフローチャートを実行するプログラム等を格納している。これらのプログラムは、制御部114により実行される。   The data storage unit 111 includes a flash memory (not shown) or the like, and stores a program for executing the flowcharts illustrated in FIG. These programs are executed by the control unit 114.

報知部112は、図示しないスピーカー、ランプ、振動子などを備え、制御部114からの制御により動作する。位置検出部113は、図示しないGPS(GlobalPositioning System)受信機などを備え、制御部114による携帯端末100の位置算出に使用される。   The notification unit 112 includes a speaker, a lamp, a vibrator, and the like (not shown), and operates under the control of the control unit 114. The position detection unit 113 includes a GPS (Global Positioning System) receiver (not shown) and the like, and is used by the control unit 114 to calculate the position of the mobile terminal 100.

制御部114は、図示しないCPU、ROM、RAMなどを備える。CPUは、ROMやデータ保存部111に保存したプログラムをRAMに展開して実行する。   The control unit 114 includes a CPU, a ROM, a RAM, and the like (not shown). The CPU loads the program stored in the ROM or the data storage unit 111 into the RAM and executes the program.

以下、第1の実施の形態の動作を説明する。
制御部114が実行する処理を、図3を参照し説明する。制御部114は、一定時間ごと(例えば1分ごと)に図3のフローチャートで示すプログラムを実行する。ただし前回の実行が完了していない場合には、完了するまで実行を待機する。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the first embodiment will be described.
The processing executed by the control unit 114 will be described with reference to FIG. The control unit 114 executes the program shown in the flowchart of FIG. 3 at regular intervals (for example, every minute). However, if the previous execution has not been completed, the execution waits until it is completed. Unless otherwise specified in the following description, the subject of execution of each step is the CPU of the control unit 114.

ステップS201では、制御部114は、他者視線検出部103からユーザを見ている視線についての情報(視線なし、もしくは視線を有する顔の位置)を受け取り、ステップS202に進む。   In step S201, the control unit 114 receives information on the line of sight looking at the user from the other person's line of sight detecting unit 103 (there is no line of sight or the position of the face having the line of sight), and the process proceeds to step S202.

ステップS202では、制御部114は、視線の検出の有無を判断し、ユーザへの視線がある場合にはステップS203へ進み、ユーザへの視線がない場合はステップS208に進む。   In step S202, the control unit 114 determines whether or not a line of sight has been detected, and proceeds to step S203 if there is a line of sight to the user, and proceeds to step S208 if there is no line of sight to the user.

ステップS203では、制御部114は、映像表示部102をマーカーモードにセットし、他者視線検出部103が出力した顔の位置をマーカー位置として映像表示部102に指示してステップS204に進む。そのため、映像表示部102が通常モードに変更されるまでは、映像表示部102には、映像撮影部101が撮影したリアルタイムの映像に、制御部114が指定した位置に固定のマーカーを付したものが表示される。   In step S203, the control unit 114 sets the video display unit 102 to the marker mode, instructs the video display unit 102 to use the position of the face output by the other person's gaze detection unit 103 as the marker position, and proceeds to step S204. Therefore, until the image display unit 102 is changed to the normal mode, the image display unit 102 is a real-time image captured by the image capturing unit 101 with a fixed marker attached to a position designated by the control unit 114. Is displayed.

ステップS204では、制御部114は、ステップS201において視線を検出した者と通信をするために、通信部105の図示しない指向性アンテナを物理的および電気的に操作し、ステップS205へ進む。物理的には、指向性アンテナの強く電波を放射する方向を、ステップS201において視線を検出した者の方向へ向ける。電気的には、指向性アンテナと通信用半導体とを接続する。   In step S204, the control unit 114 physically and electrically operates a directional antenna (not shown) of the communication unit 105 to communicate with the person who has detected the line of sight in step S201, and proceeds to step S205. Physically, the direction in which the directional antenna emits strong radio waves is directed to the direction of the person who has detected the line of sight in step S201. Electrically, the directional antenna is connected to the communication semiconductor.

ステップS205では、制御部114は、通信部105を用いて通信を試み、その後にステップ206に進む。このとき通信部105は、一定時間ごとに送信または受信をランダムに切り替えて、ある期間が経過するまで通信を試みる。第1の実施の形態においては事前に通信相手と、通信方式や各種パラメータをそろえることはできるが、通信のタイミングおよび通信の方向(送信側/受信側)を決めることができないためである。ステップS205の詳細は図4を使用して後に説明する。   In step S205, the control unit 114 attempts communication using the communication unit 105, and then proceeds to step 206. At this time, the communication unit 105 randomly switches between transmission and reception at regular time intervals, and attempts communication until a certain period elapses. This is because, in the first embodiment, the communication method and various parameters can be prepared in advance with the communication partner, but the communication timing and the communication direction (transmission side / reception side) cannot be determined. Details of step S205 will be described later with reference to FIG.

ステップS206では、図4における通信の可否を判断し、通信が成立した場合はステップS207に進み、通信が失敗した場合は図3のフローチャートを終了する。   In step S206, it is determined whether or not the communication in FIG. 4 is possible. If the communication is established, the process proceeds to step S207. If the communication is unsuccessful, the flowchart in FIG. 3 ends.

ステップS207では、制御部114は、相手と連絡先や写真の交換、もしくは写真撮影の許可を与える。連絡先とは、電話番号、メールアドレス、SNS(SocialNetworking Service)アカウントなどである。これらの全ての情報を交換してもよいが、携帯端末100のユーザが予め一部だけを選択、もしくは連絡先を交換する際に入力部から選択してもよい。   In step S207, the control unit 114 gives permission to exchange contact information and pictures with the other party, or to permit photographing. The contact information is a telephone number, a mail address, an SNS (Social Networking Service) account, or the like. All of these pieces of information may be exchanged, or the user of the portable terminal 100 may select only a part in advance, or may select from the input unit when exchanging contact information.

ステップS208では、ユーザの方向に向く視線が検出されなかったので、制御部114は、映像表示部102を通常モードにセットして図3のフローチャートを終了する。そのため、映像表示部102がマーカーモードに変更されるまでは、映像撮影部101で撮影したリアルタイムの映像が、そのまま映像表示部102に表示される。   In step S208, since the line of sight facing the user is not detected, the control unit 114 sets the video display unit 102 to the normal mode and ends the flowchart of FIG. Therefore, until the video display unit 102 is changed to the marker mode, the real-time video captured by the video capturing unit 101 is displayed on the video display unit 102 as it is.

図4は、図3のステップS205において実行する、通信の試行を説明するフローチャートである。このフローチャートで示すプログラムにより、制御部114は通信が成立するかを確認する。   FIG. 4 is a flowchart illustrating a trial of communication executed in step S205 of FIG. According to the program shown in this flowchart, the control unit 114 checks whether communication is established.

ステップS301では、制御部114は、事前に決めていた通信パラメータ、応答待ち時間T、最大試行回数Nをデータ保存部111から読み込み、ステップS302に進む。通信パラメータとは例えば、赤外線通信(IrDA−InfraredData Association)の場合には通信速度やパリティビットなどである。   In step S301, the control unit 114 reads the communication parameters, the response waiting time T, and the maximum number of trials N determined in advance from the data storage unit 111, and proceeds to step S302. The communication parameters include, for example, a communication speed and a parity bit in the case of infrared communication (IrDA-InfraredData Association).

ステップS302では、制御部114は、通信モードをランダムに決定してステップS303に進む。例えば、通信モードを送信にするのか受信にするのかをランダムに決定する。   In step S302, the control unit 114 randomly determines the communication mode, and proceeds to step S303. For example, it is determined at random whether to set the communication mode to transmission or reception.

ステップS303では、制御部114は、ステップS301で読み込んだ通信パラメータを用いて時間Tの期間通信を試み、ステップS304に進む。なお、通信が成立することを確かめることが目的であるため、電文内容は特に問わない。   In step S303, the control unit 114 attempts communication for a period of time T using the communication parameters read in step S301, and proceeds to step S304. Since the purpose is to confirm that communication is established, the content of the electronic message is not particularly limited.

ステップS304では、制御部114は、ステップS303での通信(送信または受信)が成功したか否かを判断する。通信が成立した場合には「通信が成立した」として図4のフローチャートを終了して図3のステップS206に戻り、通信が失敗した場合にはステップS305に進む。   In step S304, the control unit 114 determines whether the communication (transmission or reception) in step S303 has been successful. If the communication has been established, it is determined that “communication has been established”, the flow chart of FIG. 4 ends, and the process returns to step S206 of FIG. 3, and if the communication has failed, the process proceeds to step S305.

ステップS305では、制御部114は、通信の試行回数が最大試行回数Nを超過しているかを判断する。超過している場合は「通信が失敗した」として図4のフローチャートを終了して図3のステップS206に戻り、超過していない場合は、ステップS302に戻り、通信の試行を続ける。   In step S305, the control unit 114 determines whether the number of communication attempts exceeds the maximum number of attempts N. If it has exceeded, it is determined that “communication has failed”, the flow chart of FIG. 4 is terminated, and the process returns to step S206 of FIG. 3, and if it does not exceed, the process returns to step S302 to keep trying the communication.

なお、応答待ち時間Tおよび最大試行回数Nは、使用する通信規格の接続確立時間、および携帯端末100の使用環境における人の流動性の高さにより調整する。応答待ち時間Tは、通信する2台の携帯端末100の周期ずれを考慮すると、使用する通信規格の接続確立時間の約2倍が望ましい。   Note that the response waiting time T and the maximum number of trials N are adjusted based on the connection establishment time of the communication standard to be used and the level of mobility of a person in the usage environment of the mobile terminal 100. The response waiting time T is desirably about twice as long as the connection establishment time of the communication standard to be used, in consideration of a cycle shift between the two portable terminals 100 communicating with each other.

次に、携帯端末100を所持する者同士の通信の例を図3および図5を参照して説明する。
図5は甲の所持する携帯端末100aと丁の所持する携帯端末100bとの通信が始まるまでの過程を示している。図5の左側が携帯端末100aもしくは甲の動作を、図5の右側が携帯端末100bもしくは丁の動作を表す。また、図の上から下に向かって時間が流れており、図中の電気(雷)マークは通信用の電波発信を開始したことを、目のマークは甲または乙が相手の目を見はじめたことを示す。
Next, an example of communication between persons having the portable terminal 100 will be described with reference to FIGS. 3 and 5.
FIG. 5 shows a process until communication between the portable terminal 100a possessed by Party A and the portable terminal 100b possessed by Ding starts. The left side of FIG. 5 shows the operation of the portable terminal 100a or the instep, and the right side of FIG. In addition, time flows from the top to the bottom of the figure, and the electric (lightning) mark in the figure indicates that transmission of radio waves for communication has started, and the eye mark indicates that Party A or Party B is looking at the other party's eyes. Indicates that

時刻t1において、甲の携帯端末100aの制御部114は、甲への他者視線検出を試みたが(図3のステップS201)視線を検出できなかったので映像表示部102を通常モード(図3のステップS208)とした。そのため、携帯端末100aの映像表示部102には、映像撮影部101が撮影したままの映像(図2b)が表示されている。   At time t1, the control unit 114 of the portable terminal 100a on the instep attempts to detect another person's line of sight to the instep (step S201 in FIG. 3), but fails to detect the line of sight. Step S208). Therefore, the video (FIG. 2B) as captured by the video capturing unit 101 is displayed on the video display unit 102 of the mobile terminal 100a.

時刻t2において、丁が甲を見はじめたが、携帯端末100aの他者視線検出のタイミングではなかったため、携帯端末100aの映像表示部102に変化はない。   At time t2, the Ding begins to look at the instep, but since it is not the timing of detecting the other person's line of sight of the mobile terminal 100a, the image display unit 102 of the mobile terminal 100a does not change.

時刻t3において、携帯端末100aの制御部114は、再び他者視線検出を行い(図3のステップS201)、丁の視線を検出した。そのため、携帯端末100aの制御部114は、映像内での乙の位置を特定し、映像表示部102に対してマーカーモードに変更すること、およびマーカーを表示すべき位置を指定した(図3のステップS203)。   At time t3, the control unit 114 of the mobile terminal 100a performs another person's line-of-sight detection again (step S201 in Fig. 3), and detects the line of sight of the Ding. Therefore, the control unit 114 of the mobile terminal 100a specifies the position of the second party in the video, changes the video display unit 102 to the marker mode, and specifies the position where the marker is to be displayed (see FIG. 3). Step S203).

時刻t4において、先の処理に継続して、携帯端末100aの制御部114は、アンテナの向きを丁に向け(図3のステップS204)、丁に向けて通信を試行する(図3のステップS205)。しかし、このとき丁の携帯端末100bは、まだ通信を開始していないため通信は成立しない(図3のステップS206:NO)。   At time t4, following the previous process, the control unit 114 of the mobile terminal 100a directs the antenna toward the dent (step S204 in FIG. 3) and attempts communication toward the dent (step S205 in FIG. 3). ). However, at this time, communication is not established because the portable terminal 100b has not started communication yet (step S206: NO in FIG. 3).

すでに時刻t4において携帯端末100aの映像表示部102は、マーカーモードになっており、図2cに示すように、甲を見ている丁にマーカーMが付されている。しかし、甲は表示されたその瞬間には気づくことができなかった。
時刻t5において、甲は映像表示部102に表示されており、マーカーが付された丁に気付き、丁を見た。
At time t4, the video display unit 102 of the portable terminal 100a is already in the marker mode, and the marker M is attached to the din looking at the instep as shown in FIG. 2C. However, the former could not notice at the moment when it was displayed.
At time t5, the instep is displayed on the video display unit 102, and notices and looks at the claw with the marker.

時刻t6において、丁の携帯端末100bの制御部114は、他者視線検出(図3のステップS201)により甲の視線を検出したので(図3のステップS202:YES)、甲の位置を特定して映像表示部102のモードを変更した。さらに、甲に指向性アンテナを向けて(図3のステップS204)、時刻t7に甲の携帯端末100aとの通信試行(図3のステップS205)を開始した。   At time t6, since the control unit 114 of the portable terminal 100b detects the line of sight of the instep by detecting the line of sight of another party (step S201 in FIG. 3) (step S202 in FIG. 3: YES), the control unit 114 specifies the position of the instep. The mode of the video display unit 102 was changed. Further, the directional antenna is pointed at the instep A (step S204 in FIG. 3), and a communication trial with the instep portable terminal 100a (step S205 in FIG. 3) is started at time t7.

このとき、携帯端末100aの制御部114は、丁の視線を検出し続けているため、携帯端末100bに向けた通信の試行を継続しており、時刻t7において通信が成立する(図3のステップ206:YES)。したがって、このあと甲と丁でデータ交換(図3のステップ207)を行う。   At this time, since the control unit 114 of the mobile terminal 100a continues to detect the line of sight of the toe, it continues to try to communicate with the mobile terminal 100b, and communication is established at time t7 (step in FIG. 3). 206: YES). Therefore, after that, data exchange (step 207 in FIG. 3) is performed between Party A and Party D.

この第1の実施の形態によれば、携帯端末100は、周囲の被写体を撮影する映像撮影部101と、映像撮影部101で撮影した映像を表示する映像表示部102と、映像撮影部101で撮影した映像から視線を検出する他者視線検出部103と、指向性の通信が可能な通信部105とを備え、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、通信部105が通信を開始するので、携帯端末100を装着しており視線が合った者同士で通信をすることができる。   According to the first embodiment, the portable terminal 100 includes a video photographing unit 101 for photographing a surrounding subject, a video display unit 102 for displaying a video photographed by the video photographing unit 101, and a video photographing unit 101. The camera includes a third-party gaze detection unit 103 that detects a line of sight from a captured image, and a communication unit 105 that can perform directivity communication. The third-party gaze detection unit 103 moves in a specific direction from the image captured by the image capturing unit 101. When the line of sight is detected, the communication unit 105 starts communication, so that it is possible to perform communication between persons wearing the portable terminal 100 and matching the line of sight.

また、携帯端末100は、映像撮影部101により撮影した映像から他者視線検出部103により特定の方向への視線を検出した際に、その特定の方向への視線の始点を示すマーカーを映像表示部102に表示するため、携帯端末100の所持者は自分へ視線を注いでいる者の存在をいち早く知ることができる。また、撮影映像にマーカーを重ねて表示しているため、携帯端末100の所持者は、自分へ視線を向けている者を容易に判断できる。   In addition, when the other person's line of sight detecting unit 103 detects a line of sight in a specific direction from the image captured by the image capturing unit 101, the mobile terminal 100 displays a marker indicating the starting point of the line of sight in the specific direction on the image. Since the information is displayed on the unit 102, the owner of the mobile terminal 100 can quickly know the presence of the person who is looking at the user. In addition, since the marker is superimposed on the captured video and displayed, the holder of the mobile terminal 100 can easily determine who is looking at the user.

(変形例1)
第1の実施の形態では、通信の試行(図4のステップS303)において、電文内容を特に問わなかったが、通信の暗号化に必要な情報の送受信をして、後の通信(図3のステップS207)では暗号化された通信を行ってもよい。例えば、無線LANのSSID(Service Set Identifier)および暗号化キー(パスワード)を送受信する。そして、後の通信においては無指向性アンテナを用い、上記SSIDおよび暗号化キーを用いて通信してもよい。
この変形例1によれば、通信先の装置を限定したままで、安定した高速な通信を行うことができる。指向性アンテナは、通信先の装置を限定するために用いたが、携帯端末100の位置や姿勢の変化、通信先の端末の位置や姿勢の変化により通信速度が低下することや通信が切断される恐れがある。そこで、無指向性アンテナを用いながらも暗号化された通信に必要な情報を送受信することで、通信先を限定したままで安定した通信を行うことができる。
(Modification 1)
In the first embodiment, in the trial of communication (step S303 in FIG. 4), the content of the message is not particularly limited. However, information necessary for encrypting the communication is transmitted and received, and the subsequent communication (FIG. 3 in FIG. 3) is performed. In step S207), encrypted communication may be performed. For example, a wireless LAN SSID (Service Set Identifier) and an encryption key (password) are transmitted and received. Then, in the subsequent communication, an omnidirectional antenna may be used, and communication may be performed using the SSID and the encryption key.
According to the first modification, stable high-speed communication can be performed while limiting the communication destination device. Although the directional antenna is used to limit the communication destination device, the communication speed is reduced or the communication is disconnected due to a change in the position or orientation of the mobile terminal 100 or a change in the position or the orientation of the communication destination terminal. There is a risk that. Therefore, by transmitting and receiving information necessary for encrypted communication while using the omni-directional antenna, stable communication can be performed while limiting the communication destination.

(変形例2)
映像撮影部101は、全周囲を撮影できるカメラとしてもよい。例えば携帯端末100をメガネ型として、メガネの前面、左右のテンプルに小型カメラを埋め込み、水平360度を撮影できるカメラとしてもよい。
この変形例2によれば、ユーザの視界外から視線を受けていても、ユーザはその視線に気づくことができる。他者視線検出部103が視線を検出すると、ユーザへ視線を送っている者にマーカーを付して、映像表示部102に表示するからである。
(Modification 2)
The video photographing unit 101 may be a camera that can photograph the entire circumference. For example, the portable terminal 100 may be of a glasses type, and a small camera may be embedded in the temples on the front and left and right sides of the glasses to capture 360 degrees horizontally.
According to the second modification, even if the user receives a line of sight from outside the field of view of the user, the user can notice the line of sight. This is because, when the other person's line of sight detecting unit 103 detects the line of sight, the person sending the line of sight to the user is marked with a marker and displayed on the video display unit 102.

(変形例3)
ユーザが図3のステップS207に示すデータ交換に成功した後で、新たに人物データベースを構築して、得られた情報を保存してもよい。また、年齢および性別を性別・年代推定部110により判定し、その出力をあわせて保存してもよい。さらに、通信部105が図3のステップS205に示す通信を開始した際に位置検出部113により位置を検出し、映像撮影部101がユーザへ視線を送っている者を撮影した映像、もしくはその映像から切り出した画像とともに保存してもよい。
この変形例3によれば、データ交換をした相手の写真とデータがあわせて保存されるため、その人物を思い出しやすいという利点がある。さらに多少離れた位置から相手を撮影することにより、全身を撮影できるため、服装や持ち物も同時に記録されることとなり、その人物について思い出すきっかけを多く得ることができる。
(Modification 3)
After the user succeeds in the data exchange shown in step S207 in FIG. 3, a new person database may be constructed and the obtained information may be stored. Further, the age and gender may be determined by the gender / age estimation unit 110, and the output may be stored together. Further, when the communication unit 105 starts the communication shown in step S205 of FIG. 3, the position is detected by the position detection unit 113, and the video image capturing unit 101 captures an image of a person who is looking at the user, or an image of the video. May be stored together with the image cut out from the image.
According to the third modification, since the photograph and the data of the data exchange partner are stored together, there is an advantage that the person can be easily remembered. Furthermore, by photographing the other party from a slightly distant position, the whole body can be photographed, so that clothes and belongings are also recorded at the same time, and it is possible to obtain many opportunities to remember the person.

(変形例4)
携帯端末100の形状はメガネのように頭に固定できる端末に限定されず、肩や胸に固定する端末や、板状や折り畳み形状の手で保持する端末でもよい。この場合は、映像撮影部101のカメラの位置と携帯端末100の所持者の目の位置が一致しないので、両者の位置関係を予めユーザが携帯端末100に入力し、他者視線検出部103が検出すべき視線の方向を補正する。
また、手で保持する端末の場合は、使用時にユーザの顔の前に保持することにより、第1の実施形態における携帯端末100と同じ働きをさせることができる。
変形例4によれば、多彩な端末を使用することができる。
(Modification 4)
The shape of the portable terminal 100 is not limited to a terminal that can be fixed to the head like glasses, but may be a terminal that is fixed to the shoulder or the chest, or a terminal that is held by a plate-shaped or folded hand. In this case, since the position of the camera of the video photographing unit 101 and the position of the eyes of the holder of the portable terminal 100 do not match, the user inputs in advance the positional relationship between the two to the portable terminal 100, and the other party's gaze detecting unit 103 The direction of the line of sight to be detected is corrected.
In the case of a terminal held by hand, the same function as the portable terminal 100 in the first embodiment can be performed by holding the terminal in front of the user's face during use.
According to the fourth modification, various terminals can be used.

(変形例5)
第1の実施の形態では、映像表示部102がマーカーモードにセットされると、映像表示部102は制御部114から指定された位置、すなわち制御部114が視線を検出した位置にマーカーMを付して映像が表示を表示したが、マーカーモードにおける映像表示部102の表示はこれに限定されない。以下のようにして、図6に示すように、制御部114が視線を検出した者の心拍数を模式化したものをマーカーMに併記してもよい。
心拍により顔の血液が増加すると顔表面の光吸収量が増加し、顔の血液が減少すると顔表面の光吸収量が減少することを利用する。他者視線検出部103が視線を検出した位置の周囲、すなわちユーザへの視線を有する者の顔を対象として、映像撮影部101により撮影され映像を解析し、制御部114が顔の光の吸収量の増加と減少のサイクル数をカウントすることにより、ユーザへの視線を有する者の心拍数を測定できる。そして、制御部114が心拍数の多さを5段階評価し、心拍数が多いほど多くのハートマークをマーカーMに併記するように映像表示部102に出力する。
(Modification 5)
In the first embodiment, when the video display unit 102 is set to the marker mode, the video display unit 102 attaches the marker M to a position designated by the control unit 114, that is, a position at which the control unit 114 detects a line of sight. Although the video is displayed as a display, the display of the video display unit 102 in the marker mode is not limited to this. As shown below, as shown in FIG. 6, the control unit 114 may also describe, on the marker M, a schematic representation of the heart rate of the person whose gaze is detected.
This is based on the fact that the light absorption on the face surface increases when the blood on the face increases due to the heartbeat, and decreases when the blood on the face decreases. The surroundings of the position where the other person's line of sight has detected the line of sight, that is, the face of the person having the line of sight to the user, are analyzed by the image photographing unit 101 and the image is analyzed. By counting the number of increasing and decreasing cycles, the heart rate of a person having a line of sight to the user can be measured. Then, the control unit 114 evaluates the number of heart rates on a five-point scale, and outputs to the video display unit 102 such that as the heart rate increases, more heart marks are written on the marker M.

(変形例6)
第1の実施の形態では、通信が成立すると(図3のステップS206:YES)ユーザが入力部106への入力により送信する連絡先情報を選択していたが、選択方法は入力部106からの選択に限定されない。通信が成立すると制御部11が図7に示すインタフェース900を映像表示部102に表示させる位置を指定して映像表示部102に表示させ、ユーザによる目の動作により送信項目および写真撮影可否を選択してもよい。
(Modification 6)
In the first embodiment, when the communication is established (step S206 in FIG. 3: YES), the user has selected the contact information to be transmitted by inputting to the input unit 106. Not limited to choice. When the communication is established, the control unit 11 specifies a position at which the interface 900 shown in FIG. 7 is to be displayed on the video display unit 102 and causes the video display unit 102 to display the interface 900. You may.

インタフェース900には、写真撮影を行うか否かの選択を行うフィールド、およびユーザに関する情報の送信を行うか否かの選択を行うフィールド、および決定ボタンが設けられている。ユーザに関する情報は、たとえばニックネーム、メールアドレス、電話番号、SNSアカウント、本名、などがある。写真撮影を行う場合は、マーカーMを含む映像表示部102に表示されている画像、もしくはマーカーが付されている人物のみの画像が、データ保存部111に保存される。図7に示すインタフェース900では鉤括弧が選択状態を表しており、現在の設定は写真撮影を行い、ニックネームの送信は行うが、メールアドレス、電話番号、SNSアカウント、および本名は送信しないことを表している。初期状態では全てNOが選択されており、写真撮影も、いずれのデータの送信も行わない設定になっている。   The interface 900 is provided with a field for selecting whether or not to take a picture, a field for selecting whether or not to transmit information about the user, and a decision button. Information about the user includes, for example, a nickname, a mail address, a telephone number, an SNS account, a real name, and the like. When taking a photograph, an image displayed on the video display unit 102 including the marker M or an image of only a person with a marker is stored in the data storage unit 111. In the interface 900 shown in FIG. 7, the brackets indicate the selected state, the current setting indicates that a photograph is taken, the nickname is transmitted, but the e-mail address, telephone number, SNS account, and real name are not transmitted. ing. In the initial state, NO is selected in all cases, so that neither photography nor transmission of any data is performed.

ユーザによる目の動作は、たとえば、ウインクと注視がある。ウインクは、意図的に目を短い時間閉じる行為であり、生理的な現象であるまばたきに比べて目が閉じられている時間が長い。注視は、映像表示部102へ表示された図7に示すインタフェース900への、ユーザの注視である。変形例6において携帯端末100は、図8に示すように自己ウインク検出部121と表示注視検出部122とをさらに備える。   Eye movements by the user include, for example, wink and gaze. Winking is an act of intentionally closing the eyes for a short time, and the time during which the eyes are closed is longer than blinking, which is a physiological phenomenon. The gaze is a gaze of the user on the interface 900 shown in FIG. In the sixth modification, the mobile terminal 100 further includes a self wink detection unit 121 and a display fixation detection unit 122, as shown in FIG.

ウインクを検出する自己ウインク検出部121は、左右の目に対応する2つの反射型フォトインタラプタを備え、ウインクを検出すると左右どちらの目かの情報とともに制御部114にウインクの検出を出力する。反射型フォトインタラプタは、赤外線を照射し、物体により反射された赤外線を受光する。眼球と皮膚では赤外線の反射率が異なるため、反射型フォトインタラプタが照射する赤外線を常時目に当てて赤外線の受光量を監視することで、目を閉じていた時間を計測することができる。目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして認識することができる。   The self wink detecting unit 121 for detecting wink includes two reflective photointerrupters corresponding to the left and right eyes. When detecting wink, the self wink detecting unit 121 outputs the wink detection to the control unit 114 together with information on the left or right eye. The reflection type photo interrupter emits infrared rays and receives the infrared rays reflected by the object. Since the reflectance of infrared rays differs between the eyeball and the skin, the time during which the eyes are closed can be measured by constantly irradiating the infrared rays emitted by the reflective photointerrupter to the eyes and monitoring the amount of received infrared rays. A case where the eyes are closed for a predetermined time, for example, 0.2 seconds to 1.0 seconds can be recognized as a wink.

制御部114は、たとえば左目のウインクが自己ウインク検出部121から出力されるとカーソルCを一段下に移動させ、右目のウインクが出力されると選択子のトグル動作を行う。左目のウインクによりカーソルCが「決定」に移動された状態において、右目のウインクが出力されると、制御部114は選択した項目の送信、および選択にしたがった写真撮影が行われる。すなわち、図7に示すようにカーソルCがニックネームの欄にある場合に、自己ウインク検出部121から制御部114に左目のウインク検出が出力されると、カーソルCはメールアドレスの欄に移動する。また、図7に示す状態において自己ウインク検出部121から制御部114に右目のウインク検出が出力されると、ニックネーム欄においてNOが選択される。図7に示す状態において、「決定」にカーソルCをあわせられている状態において右目のウインクが出力されると、写真撮影およびニックネームの送信が行われる。なお、片目のウインクのみを検出し、ウインクを検出した時間の間隔により2種類のウインクを判別してもよい。   For example, the control unit 114 moves the cursor C one step down when the left eye wink is output from the self wink detection unit 121, and performs a toggle operation of the selector when the right eye wink is output. When the right-eye wink is output in a state where the cursor C is moved to “determination” by the left-eye wink, the control unit 114 performs transmission of the selected item and photography in accordance with the selection. That is, as shown in FIG. 7, when the wink detection is output from the self wink detection unit 121 to the control unit 114 when the cursor C is in the nickname column, the cursor C moves to the mail address column. When the wink detection of the right eye is output from the self wink detection unit 121 to the control unit 114 in the state shown in FIG. 7, NO is selected in the nickname column. In the state shown in FIG. 7, when the wink of the right eye is output in a state where the cursor C is set to "OK", photographing and transmission of a nickname are performed. Alternatively, only the wink of one eye may be detected, and two types of winks may be determined based on the time interval at which the wink was detected.

注視を検出する表示注視検出部122は、自己視線検出部104が出力するユーザの視線の方向、および映像表示部102にインタフェース900を表示させた位置を制御部114から取得する。そして、ユーザの視線が所定の時間、たとえば2秒間動かなかった場合にユーザが何かに注視していると判断して、ユーザの注視している対象をユーザの視線の方向および映像表示部102にインタフェース900を表示させた位置から判別し、制御部114に出力する。制御部114は、表示注視検出部122からユーザが注視した対象が出力されると、注視対象が選択項目であれば注視対象を選択状態にし、注視対象が「決定」であれば選択した項目の送信、および選択にしたがった写真撮影を行う。すなわち図7に示す状態において、ユーザが電話番号の欄のYESを注視したこと、およびその後に「決定」を注視したことを表示注視検出部122が検出すると、制御部114は表示注視検出部122の出力を受けて、写真撮影およびニックネームと電話番号の送信を行う。   The display gaze detection unit 122 that detects gaze acquires the direction of the user's gaze output from the self-gaze detection unit 104 and the position where the interface 900 is displayed on the video display unit 102 from the control unit 114. If the user's line of sight does not move for a predetermined time, for example, two seconds, it is determined that the user is gazing at something, and the user's gazing direction is determined by the direction of the user's line of sight and the image display unit 102. Is determined from the position where the interface 900 is displayed, and output to the control unit 114. When the target gazed by the user is output from the display gazing detection unit 122, the control unit 114 sets the gazing target to a selected state if the gazed target is a selection item, and sets the selected item if the gazing target is “determined”. Send and take a picture according to your selection. That is, in the state shown in FIG. 7, when the display gaze detecting unit 122 detects that the user gazes at YES in the column of the telephone number and thereafter gazes at “decision”, the control unit 114 sets the display gaze detecting unit 122 In response to the output, a photograph is taken and a nickname and a telephone number are transmitted.

以上説明した変形例6によれば、以下の作用効果を奏する。
(1)撮影した映像を記録するデータ保存部111と、携帯端末100のユーザが注視している映像表示部102の位置を検出する表示注視検出部122と、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に、ユーザに関する情報の送信の有無および/または写真撮影の有無を選択するインタフェース900を映像表示部102に出力する制御部114と、を備える。制御部114は、ユーザによるインタフェース900における選択を表示注視検出部122により検出する。そして、ユーザの選択に基づいて、映像撮影部101により特定の方向への視線を有する者を撮影してデータ保存部111に記録、および/またはユーザが選択したユーザに関する情報を通信部105により送信する。
According to the sixth modification described above, the following operation and effect can be obtained.
(1) The data storage unit 111 that records the captured video, the display gaze detection unit 122 that detects the position of the video display unit 102 that the user of the mobile terminal 100 is watching, and the other person's gaze detection unit 103 capture the video. A control unit 114 for outputting to the video display unit 102 an interface 900 for selecting whether or not to transmit information about the user and / or whether or not to take a photo when detecting a gaze to the user based on the video captured by the unit 101; , Is provided. The control unit 114 detects the user's selection on the interface 900 by the display gaze detection unit 122. Then, based on the user's selection, the video photographing unit 101 photographs a person having a line of sight in a specific direction and records the photographed person in the data storage unit 111, and / or transmits information about the user selected by the user through the communication unit 105. I do.

そのため、ユーザは注視するだけで写真撮影の有無や送信項目を選択することができ、操作が簡便である。また、両手に荷物を持っている場合や電車で吊革につかまっている場合など、手を使用できない場合にも操作をすることができる。   Therefore, the user can select whether or not to take a picture and select a transmission item only by watching, and the operation is simple. In addition, the operation can be performed even when the hand cannot be used, such as when holding a baggage in both hands or holding on a hanging strap on a train.

(2)撮影した映像を記録するデータ保存部111と、ユーザのウインク動作を検出する自己ウインク検出部121と、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に、ユーザに関する情報の送信の有無および/または写真撮影の有無を選択するインタフェース900を映像表示部102に出力する制御部114と、をさらに備える。制御部114は、ユーザによるインタフェース900における選択を自己ウインク検出部121により検出する。そして、ユーザの選択に基づいて、映像撮影部101により特定の方向への視線を有する者を撮影してデータ保存部111に記録、および/またはユーザが選択したユーザに関する情報を通信部105により送信する。 (2) A data storage unit 111 that records a captured image, a self wink detection unit 121 that detects a wink operation of the user, and a user's line of sight detection unit 103 that transmits to the user based on the image captured by the image capturing unit 101. The control unit 114 further outputs, to the video display unit 102, an interface 900 for selecting whether or not to transmit information on the user and / or whether or not to take a picture when the gaze is detected. The control unit 114 detects the user's selection on the interface 900 by the self wink detection unit 121. Then, based on the user's selection, the video photographing unit 101 photographs a person having a line of sight in a specific direction and records the photographed person in the data storage unit 111, and / or transmits information about the user selected by the user through the communication unit 105. I do.

そのため、ユーザはウインクをするだけで写真撮影の有無や送信項目を選択することができ、操作が簡便である。また、ウインク動作は素早い動作が可能なため、操作が短時間で済む利点がある。   Therefore, the user can select whether or not to take a picture or to select a transmission item simply by winking, and the operation is simple. In addition, since the wink operation can be performed quickly, there is an advantage that the operation can be performed in a short time.

なお、ウインクの検出に自己視線検出部104の備える赤外線カメラを利用し、赤外線カメラが得た画像からユーザの黒目を認識できない場合にユーザが目を閉じていると判断し、ウインクを検出してもよい。
なお、送信項目および写真撮影可否の選択は、ウインクと注視を併用してもよいし、いずれか片方のみを使用してもよい。インタフェース900に表示する項目は、送信の可否を選択する送信項目と写真撮影の可否を選択する項目の少なくとも1つを含む。
It should be noted that the wink is detected by using an infrared camera provided in the self-line-of-sight detection unit 104, and when the user cannot recognize the black eye of the user from the image obtained by the infrared camera, it is determined that the user has closed his eyes, and the wink is detected. Is also good.
Note that the selection of the transmission item and the availability of photographing may be performed using both wink and gaze, or only one of them may be used. The items displayed on the interface 900 include at least one of a transmission item for selecting whether transmission is possible and an item for selecting whether photography is permitted.

(変形例7)
第1の実施の形態では、ユーザへ視線を送っている者へ送信するのはユーザに関する情報であったが(図3のステップS207)、送信する情報はこれに限定されない。たとえば、ユーザへ視線を送っている者へメッセージを送信してもよい。また、ユーザへ視線を送っている者からその者に関する情報のほかにメッセージが送信された場合は、その両方を受信してもよい。
(Modification 7)
In the first embodiment, information about the user is transmitted to the person sending the line of sight to the user (step S207 in FIG. 3), but the information to be transmitted is not limited to this. For example, a message may be sent to a person who is looking at the user. Further, when a message is transmitted in addition to information on the person sending the line of sight to the user, both of them may be received.

図3のステップS207において、送信する情報を入力部から選択する際に、メッセージの作成および送信を選択肢の1つとして設ける。ユーザによりメッセージの作成および送信が選択され、入力部からの文字入力、または不図示のマイクによる音声入力が行われると、制御部114はこれをメッセージとして送信する。
この変形例7によると、以下の作用効果を奏する。
In step S207 in FIG. 3, when information to be transmitted is selected from the input unit, message creation and transmission are provided as one of the options. When creation and transmission of a message are selected by the user and character input from the input unit or voice input by a microphone (not shown) is performed, the control unit 114 transmits this as a message.
According to the seventh modification, the following operation and effect can be obtained.

(1)他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に通信部105により開始される通信には、音声または文字によるメッセージの送信または/および受信を含む。
そのため、ユーザはユーザに関する情報の授受だけでなく即座にメッセージの送受信により意思疎通を図ることができ、即時性が求められるコミュニケーションにおいて有用である。また、入手したユーザの情報、たとえば携帯電話のメールアドレスを使用してメッセージを送信することもできるが、通信回線の混雑などにより相手が即座には受信できないこともあるため、変形例7によれば他の通信手段の障害に影響されることなくメッセージを伝達できる利点がある。さらに、メールアドレスなどユーザに関する情報を互いに一切知らせることなくメッセージを伝達できる利点がある。
(1) The communication started by the communication unit 105 when the other person's line of sight detecting unit 103 detects the line of sight to the user based on the image captured by the image capturing unit 101 includes transmission of a message by voice or text or / And receiving.
For this reason, the user can communicate not only by transmitting and receiving information about the user but also by immediately transmitting and receiving a message, which is useful in communication requiring immediacy. Although the message can be transmitted using the obtained user information, for example, the mail address of the mobile phone, the other party may not be able to receive the message immediately due to the congestion of the communication line. For example, there is an advantage that a message can be transmitted without being affected by a failure of another communication means. Further, there is an advantage that the message can be transmitted without informing the user of information such as an e-mail address at all.

(第2の実施の形態)
以下、図9を参照して本発明の第2の実施の形態を説明する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIG.

第2の実施の形態における構成は、第1の実施の形態における構成とほぼ同一で、携帯端末100のブロック図は第1の実施の形態で説明した図1と同一である。ただし、データ保存部111に保存されているプログラムが異なる。また、データ保存部111には、ユーザが入力する、好みの性別および年代も保存されている。   The configuration in the second embodiment is almost the same as the configuration in the first embodiment, and the block diagram of the portable terminal 100 is the same as that in FIG. 1 described in the first embodiment. However, the programs stored in the data storage unit 111 are different. The data storage unit 111 also stores the preferred gender and age entered by the user.

以下、第2の実施の形態の動作を説明する。
図9のフローチャートに示すプログラムは、第1の実施の形態における図3のフローチャートに示すプログラムに代わって、第2の実施の形態において制御部114が実行する。第1の実施の形態の図3の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。すなわち、第2の実施の形態では、第1の実施の形態のステップS202の後にステップS401とステップS402が追加された点のみが異なる。
Hereinafter, the operation of the second embodiment will be described.
The program shown in the flowchart of FIG. 9 is executed by the control unit 114 in the second embodiment, instead of the program shown in the flowchart of FIG. 3 in the first embodiment. Steps having the same contents as the processing in FIG. 3 of the first embodiment are denoted by the same step numbers, and description thereof is omitted. That is, the second embodiment is different from the first embodiment only in that steps S401 and S402 are added after step S202 of the first embodiment.

ステップS401では、制御部114は、ステップS201で他者視線検出部103に視線を検出された者の顔画像を、性別・年代推定部110に入力して性別と年代を推定し、ステップS402に進む。   In step S401, the control unit 114 inputs the face image of the person whose gaze is detected by the other person's gaze detection unit 103 in step S201 to the gender / age estimation unit 110 to estimate gender and age, and proceeds to step S402. move on.

ステップS402では、制御部114は、ステップS401で推定した性別および年代が、データ保存部111に保存している、好みの性別および年代と一致するかを判断する。性別と年代の両方が一致する場合はステップS203に進み、いずれか一方でも一致しなければステップS208に進む。   In step S402, the control unit 114 determines whether the gender and age estimated in step S401 match the preferred gender and age stored in the data storage unit 111. If both the gender and the age match, the process proceeds to step S203. If any one does not match, the process proceeds to step S208.

この第2の実施の形態によれば、携帯端末100は、ユーザが好みの性別と年代とを入力する入力部106と、映像撮影部101により撮影した映像から性別および年代を推定する性別・年代推定部110とを更に備え、他者視線検出部103が映像撮影部101で撮影した映像から特定の方向への視線を検出した際に、性別・年代推定部110がその視線を有する者の性別および年代を推定し、それらが入力した性別および年代と一致した場合に通信部105が通信を開始することを特徴とする。   According to the second embodiment, the portable terminal 100 includes an input unit 106 for the user to input his / her favorite gender and age, and a gender / age for estimating the gender and age from the video captured by the video capturing unit 101. When the gaze / age estimation unit 110 detects a gaze in a specific direction from the video captured by the video imaging unit 101, the gender / age estimation unit 110 further includes an estimation unit 110. The communication unit 105 starts communication when the estimated gender and age are matched with the input gender and age.

そのため、ユーザが好む性別・年代以外の人からの視線を検出しても、携帯端末100はあたかも視線を検出しなかったかのように振舞う。すなわち、通信を開始しないだけでなく、映像表示部102にマーカーも表示しないので、ユーザは不要な情報を目にすることがなくなる。   Therefore, even if the user detects a line of sight from a person other than the gender and age preferred by the user, the portable terminal 100 behaves as if the line of sight has not been detected. That is, not only does the communication not start, but also the marker is not displayed on the video display unit 102, so that the user does not see unnecessary information.

(第3の実施の形態)
以下、図10〜図11を参照して、本発明の第3の実施の形態を説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS.

第3の実施の形態における構成は、第1の実施の形態における構成とほぼ同一で、携帯端末100のブロック図は第1の実施の形態で説明した図1と同一である。ただし、データ保存部111に保存されているプログラムは異なる。また、顔特徴データベース108には、ユーザが注視した顔の特徴量を保存する顔特徴データベース108Pと、ユーザが注視しなかった顔の特徴量を保存する顔特徴データベース108Nを含む。   The configuration in the third embodiment is almost the same as the configuration in the first embodiment, and the block diagram of the portable terminal 100 is the same as that in FIG. 1 described in the first embodiment. However, the programs stored in the data storage unit 111 are different. Further, the face feature database 108 includes a face feature database 108P for storing the feature amount of the face watched by the user, and a face feature database 108N for storing the feature value of the face not watched by the user.

以下、第3の実施の形態の動作を説明する。
図10は、制御部114が実行するプログラムの処理を示すフローチャートである。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the third embodiment will be described.
FIG. 10 is a flowchart illustrating processing of a program executed by the control unit 114. Unless otherwise specified in the following description, the subject of execution of each step is the CPU of the control unit 114.

制御部114は、一定時間ごと(例えば1分ごと)に図10のフローチャートを実行して、ユーザの注視の有無によりユーザの好む顔のタイプであるかを判断し、ユーザの好む顔のタイプの顔特徴データベース108Pと、そうではないタイプの顔特徴データベース108Nを構築する。   The control unit 114 executes the flowchart of FIG. 10 at regular time intervals (for example, every one minute) to determine whether the user is looking at the face type based on the presence or absence of the user's gaze. The face feature database 108P and the other type of face feature database 108N are constructed.

ステップS501では、制御部114は、ある長さの時間にわたって、繰り返し自己視線検出部104によりユーザの視線を検出して、ステップS502に進む。例えば、図10のフローチャートを1分ごとに実行する場合は、50秒間視線を検出する。このとき、視線を検出するのは片目だけでもよいが、ステップS502においてユーザが注視していた対象を精度よく特定するために両目が望ましい。   In step S501, the control unit 114 repeatedly detects the user's line of sight by the self-line-of-sight detection unit 104 for a certain length of time, and proceeds to step S502. For example, when the flowchart of FIG. 10 is executed every minute, the line of sight is detected for 50 seconds. At this time, only one eye may detect the line of sight, but it is desirable to use both eyes in order to accurately specify the target that the user is gazing at in step S502.

ステップS502では、制御部114は、映像撮影部101が撮影した映像とユーザの視線が一定時間固定されていた位置の情報を組み合わせて、ユーザが注視していた対象を特定し、ステップS503に進む。   In step S502, the control unit 114 specifies the target that the user gazes at by combining the video captured by the video capturing unit 101 and information on the position where the user's line of sight has been fixed for a certain period of time, and proceeds to step S503. .

ステップS503では、制御部114は、ユーザが注視していた対象が人か否かを判断する。例えばエッジ検出やパターン検出などの手法により、ユーザが注視していた対象が人の顔であると推定できた場合は、ユーザが注視していた対象が人であると判断できる。注視していた対象が人の場合はステップS504に、注視していた対象が人でない場合はステップS506に進む。   In step S503, the control unit 114 determines whether or not the target watched by the user is a person. For example, when it is estimated that the target watched by the user is a human face by a method such as edge detection or pattern detection, it can be determined that the target watched by the user is a human. If the target being watched is a person, the process proceeds to step S504. If the target is not a person, the process proceeds to step S506.

ステップS504では、制御部114は、ユーザが注視していた人の顔の特徴量を顔特徴量算出部107により算出し、ステップS505に進む。ステップS505では、ステップS504で算出した特徴量を顔特徴データベース108Pに保存して、ステップS506に進む。   In step S504, the control unit 114 calculates the feature amount of the face of the person watched by the user by the face feature amount calculation unit 107, and proceeds to step S505. In step S505, the feature amount calculated in step S504 is stored in the face feature database 108P, and the process proceeds to step S506.

ステップS506では、映像撮影部101で撮影した映像内に、ユーザが注視した人の他にも映像撮影部101へ顔を向けていた人がいたかを判断する。他にも顔を向けていた人がいた場合にはステップS507に進み、他に顔を向けていた人がいない場合は図10のフローチャートを終了する。   In step S <b> 506, it is determined whether there is a person who has turned his / her face to the image capturing unit 101 in the image captured by the image capturing unit 101, in addition to the person who watched the user. If there is another person facing the face, the process proceeds to step S507, and if there is no other person facing the face, the flowchart of FIG. 10 ends.

ステップS507では、ステップS504と同様に顔特徴量を算出し、ステップS508ではそれを顔特徴データベース108Nに保存して、図10のフローチャートを終了する。   In step S507, the face feature amount is calculated in the same manner as in step S504. In step S508, it is stored in the face feature database 108N, and the flowchart in FIG. 10 ends.

図11のフローチャートに示すプログラムは、第1の実施の形態における図3のフローチャートに示すプログラムに代わって、第3の実施の形態において制御部114が実行する。第1の実施の形態の図3の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。すなわち、第3の実施の形態では、第1の実施の形態のステップS202の後にステップS601〜ステップS603が追加された点のみが異なる。   The program shown in the flowchart of FIG. 11 is executed by the control unit 114 in the third embodiment instead of the program shown in the flowchart of FIG. 3 in the first embodiment. Steps having the same contents as the processing in FIG. 3 of the first embodiment are denoted by the same step numbers, and description thereof is omitted. That is, the third embodiment is different from the first embodiment only in that steps S601 to S603 are added after step S202 of the first embodiment.

ステップS601では、制御部114は、ステップS201で他者視線検出部103に視線を検出された者の顔画像を顔特徴量算出部107に入力して顔特徴量を算出し、ステップS602に進む。ステップS602では、制御部114は、ステップS601で算出した特徴量が、顔特徴データベース108Pに保存されている特徴量と、顔特徴データベース108Nに保存されている特徴量の、どちらに近いかを判断する。この判断には、顔類似度判定部109を用いることができる。その判断の結果、顔特徴データベース108Pに近い場合はステップS603に、顔特徴データベース108Nに近い場合はステップS208に進む。ステップS603では、制御部114は、報知部112を始動して音や振動によりユーザに過去に注視した人と似ている人の存在を知らせて、ステップS203に進む。   In step S601, the control unit 114 inputs the face image of the person whose gaze is detected by the other person's gaze detection unit 103 in step S201 to the face feature amount calculation unit 107 to calculate the face feature amount, and proceeds to step S602. . In step S602, the control unit 114 determines which of the feature amount calculated in step S601 is closer to the feature amount stored in the face feature database 108P or the feature amount stored in the face feature database 108N. I do. The face similarity determination unit 109 can be used for this determination. If the result of the determination is that the face is close to the face feature database 108P, the process proceeds to step S603. If the result is close to the face feature database 108N, the process proceeds to step S208. In step S603, the control unit 114 activates the notification unit 112 to notify the user of the presence of a person similar to the person who has watched in the past by sound or vibration, and proceeds to step S203.

この第3の実施の形態によれば、携帯端末100は、携帯端末100を使用する者に報知する報知部112と、映像撮影部101が撮影した者の顔特徴量を算出する顔特徴量算出部107と、顔の特徴を蓄積する顔特徴データベース108と、顔の類似度を判定する顔類似度判定部109とを更に備え、映像撮影部101が撮影した者のうち、注視対象検出処理(図10のステップS501およびS502)により検出した者の顔の特徴を顔特徴データベース108に保存し、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、顔類似度判定部109がその視線を有する者はデータベースに保存した顔と類似すると判定する場合は(図11のステップS602:YES)、報知部112が当該端末の使用者に報知することを特徴とする。
そのため、注視することによりユーザの好みの顔がデータベースとして構築され、その視線を検出した際にはアラームや振動により報知されるので、ユーザは好みの顔を見逃すことがなく、連絡先を交換することができる。
According to the third embodiment, the portable terminal 100 includes a notifying unit 112 for notifying a person using the portable terminal 100 and a face feature amount calculating unit for calculating a face feature amount of a person photographed by the video photographing unit 101. Unit 107, a face feature database 108 for accumulating face features, and a face similarity determination unit 109 for determining the similarity of faces. Among persons photographed by the video photographing unit 101, a gaze target detection process ( The features of the person's face detected in steps S501 and S502 in FIG. 10 are stored in the face feature database 108, and the other person's eye gaze detecting unit 103 detects a gaze in a specific direction from the video captured by the video capturing unit 101. At this time, when the face similarity determination unit 109 determines that the person having the line of sight is similar to the face stored in the database (step S602 in FIG. 11: YES), the notification unit 112 Characterized in that it informs the user of the terminal.
Therefore, the user's favorite face is constructed as a database by gazing, and when the gaze is detected, the user is notified by an alarm or vibration, so that the user does not miss the favorite face and exchanges contact information. be able to.

(変形例8)
第1〜第3のいずれの実施の形態においても、他者視線検出部103が視線を検出するとユーザの明示の行動がなく通信を開始していたが、通信部105は、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、自己視線検出部104がその特定の方向への視線を有する者への視線を検出し、一定時間視線が固定されていると通信を開始するようにしてもよい。
この変形例8によれば、ユーザが注視しなければ通信が開始されないので、意図しない相手との通信を避けることができる。
(Modification 8)
In any of the first to third embodiments, when the other person's line of sight detecting unit 103 detects the line of sight, the communication is started without any explicit action of the user. When 103 detects a line of sight in a specific direction from an image captured by the image capturing unit 101, the self-line-of-sight detection unit 104 detects a line of sight to a person having a line of sight in the specific direction, and the line of sight is The communication may be started when it is fixed.
According to the eighth modification, since communication is not started unless the user gazes, communication with an unintended partner can be avoided.

(変形例9)
第1〜第3のいずれの実施の形態においても、他者視線検出部103がユーザへの視線を1回でも検出すると、ユーザへの視線を有する者との通信を開始していたが、通信の開始条件はこれに限定されない。所定回数の視線の検出、瞳孔の拡大、ウインクのそれぞれ、もしくはこれらの組合せで通信を開始する条件としてもよい。さらに、携帯端末100のユーザによる、ユーザへの視線を有する者への視線の検出、瞳孔の拡大、ウインクのそれぞれ、もしくはこれらの組合せがあることを条件として通信を開始してもよい。これは、興味を持った対象を何度も見る、好意を持った相手にウインクをすることがある、興味を持った対象を見る際には瞳孔が拡大する、という人間の習性を利用するものである。
(Modification 9)
In any of the first to third embodiments, when the other person's line of sight detecting unit 103 detects the line of sight to the user even once, communication with the person having the line of sight to the user is started. Is not limited to this. The condition may be that communication is started with a predetermined number of gaze detections, pupil enlargement, winking, or a combination thereof. Furthermore, communication may be started on the condition that the user of the mobile terminal 100 detects a line of sight to a person having a line of sight to the user, enlarges the pupil, winks, or a combination thereof. This is based on the human habit of seeing an object of interest many times, sometimes winking at a favored partner, and expanding the pupil when viewing an object of interest. It is.

図12は、変形例9における携帯端末100の構成を示すブロック図である。第1の実施の形態における図1に示した携帯端末100の構成に加えて、自己ウインク検出部121と、他者ウインク検出部123と、自己瞳孔測定部124と、他者瞳孔測定部125とをさらに備える。他の構成は第1の実施の形態と同様なので説明を省略する。   FIG. 12 is a block diagram illustrating a configuration of the mobile terminal 100 according to the ninth modification. In addition to the configuration of the mobile terminal 100 shown in FIG. 1 according to the first embodiment, a self wink detection unit 121, another person wink detection unit 123, a self pupil measurement unit 124, and another person pupil measurement unit 125 Is further provided. The other configuration is the same as that of the first embodiment, and the description is omitted.

携帯端末100のユーザのウインクを検出する自己ウインク検出部121は、左右の目に対応する2つの反射型フォトインタラプタを備え、ウインクを検出すると左右どちらの目かの情報とともに制御部114にウインクの検出を出力する。反射型フォトインタラプタは、赤外線を照射し、物体により反射された赤外線を受光する。眼球と皮膚では赤外線の反射率が異なるため、反射型フォトインタラプタが照射する赤外線を常時目に当てて赤外線の受光量を監視することで、目を閉じていた時間を計測することができる。目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして検出することができる。   The self wink detecting unit 121 that detects the wink of the user of the mobile terminal 100 includes two reflective photointerrupters corresponding to the left and right eyes. Output detection. The reflection type photo interrupter emits infrared rays and receives the infrared rays reflected by the object. Since the reflectance of infrared rays differs between the eyeball and the skin, the time during which the eyes are closed can be measured by constantly irradiating the infrared rays emitted by the reflective photointerrupter to the eyes and monitoring the amount of received infrared rays. A case in which the eyes are closed for a predetermined time, for example, 0.2 seconds to 1.0 seconds can be detected as wink.

ユーザへの視線を有する者のウインクを検出する他者ウインク検出部123は、映像撮影部101から映像を取得し、ユーザへの視線を有する者を特定し、その者の目の動きを監視する。目の瞳の色と肌の色は異なるので、目を閉じている状態と目を開いている状態は色により判別することができる。そして、目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして検出することができる。   The other person wink detecting unit 123 that detects a wink of a person having a line of sight to the user acquires an image from the image capturing unit 101, specifies a person having a line of sight to the user, and monitors the eye movement of the person. . Since the color of the eyes is different from the color of the skin, the state in which the eyes are closed and the state in which the eyes are open can be determined by the color. Then, a case where the time during which the eyes are closed is a predetermined time, for example, 0.2 to 1.0 seconds can be detected as wink.

携帯端末100のユーザの瞳孔の大きさを測定する自己瞳孔測定部124は、不図示のカメラを備え、ユーザの目を撮影して瞳孔の大きさを制御部114に出力する。瞳孔は黒色であり、瞳孔の周囲には瞳孔を中心とした放射状の直線模様を有する円形の虹彩を有する。そのため、撮影された目の画像から、2つの同心円であって、内側の円の内部が黒く塗りつぶされており、外側の円には放射状の直線模様を有する形状を探索し、その内側の円を瞳孔と判断できる。そして、その瞳孔の大きさを撮影された画像の画素数で制御部114に出力する。なお変形例9では、相対的な大きさの変化を検出するために瞳孔の大きさを測定しているので、物理的な大きさの情報は必要としない。   The self-pupil measurement unit 124 that measures the size of the pupil of the user of the mobile terminal 100 includes a camera (not shown), captures the eyes of the user, and outputs the size of the pupil to the control unit 114. The pupil is black and has a circular iris around the pupil having a radial linear pattern centered on the pupil. Therefore, from the photographed eye image, two concentric circles, the inside of the inner circle is painted black, and the outer circle is searched for a shape having a radial straight line pattern, and the inner circle is searched for. It can be determined as a pupil. Then, the size of the pupil is output to the control unit 114 by the number of pixels of the captured image. In the ninth modification, since the size of the pupil is measured in order to detect a change in the relative size, information on the physical size is not required.

ユーザへの視線を有する者の瞳孔の大きさを測定する他者瞳孔測定部125は、不図示のカメラ、電動ズームレンズ、および電動雲台を備え、ユーザへの視線を有する者の目を撮影して瞳孔の大きさを制御部114に出力する。他者瞳孔測定部125は、映像撮影部101から映像を取得してユーザへの視線を有する者を特定し、その者の目ができるだけ大きく撮影されるように電動ズームレンズおよび電動雲台を制御し、ユーザへの視線を有する者の目を撮影する。瞳孔の検出方法は自己瞳孔測定部124と同様である。   The other person's pupil measurement unit 125 that measures the size of the pupil of a person having a line of sight to the user includes a camera, a motorized zoom lens, and a motorized pan head (not shown), and photographs the eyes of the person having a line of sight to the user. Then, the size of the pupil is output to the control unit 114. The other person's pupil measurement unit 125 acquires an image from the image photographing unit 101, specifies a person having a line of sight to the user, and controls the electric zoom lens and the electric pan head so that the person's eyes are photographed as large as possible. Then, an eye of a person having a line of sight to the user is photographed. The pupil detection method is the same as that of the self-pupil measurement unit 124.

第1〜第3の実施の形態において図3、図9、および図11のステップS202は、他者視線検出部103によるユーザへの視線の有無を判断したが、以下のA〜Cのいずれかの条件、またはA〜Cを組み合わせた条件を満たすか否かを判断してもよい。
A)他者視線検出部103がユーザへの視線を所定の時間内に所定の回数以上検出すること。たとえば、ユーザへの視線を1分間に3回以上検出すること。ただし、ユーザへ視線を送り続けている場合は一定時間、たとえば10秒間ごとに1回と換算する。また、所定の時間とは1回目に視線を検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
In the first to third embodiments, step S202 in FIGS. 3, 9, and 11 determines presence / absence of a line of sight to the user by the other person's line of sight detecting unit 103. It may be determined whether or not the above condition or a condition combining A to C is satisfied.
A) The other person's line of sight detecting unit 103 detects the line of sight to the user a predetermined number of times or more within a predetermined time. For example, detecting the line of sight to the user three times or more per minute. However, if the user keeps sending the line of sight to the user, the conversion is performed once for a certain period of time, for example, every 10 seconds. In addition, the predetermined time is the time after the first detection of the line of sight. If the predetermined number of times is one, there is no time limit.

B)他者ウインク検出部123がユーザへの視線を有する者のウインク動作を所定の時間内に所定の回数以上検出すること。たとえば1分間に2回以上検出すること。ただし、所定の時間とは1回目にウインクを検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。   B) The other person's wink detection unit 123 detects a wink operation of a person having a line of sight to the user a predetermined number of times or more within a predetermined time. For example, detecting twice or more in one minute. However, the predetermined time is the time after the wink is first detected, and if the predetermined number of times is one, there is no time limit.

C)他者瞳孔測定部125がユーザへの視線を有する者の瞳孔の直径を一定時間測定し、測定時間における最大径が最小径に対して所定の比率以上であること。たとえば1分間の測定における瞳孔の最大径が最小径の1.2倍以上であること。
すなわち、上記のAとBを組み合わせて、他者視線検出部103がユーザへの視線を1分間に2回以上検出し、さらに他者ウインク検出部123がユーザへの視線を有する者のウインク動作を1回以上検出するか否かを、図3、図9、および図11のステップS202の判断条件としてもよい。
C) The other person's pupil measurement unit 125 measures the diameter of the pupil of a person having a line of sight to the user for a certain period of time, and the maximum diameter in the measurement time is equal to or more than a predetermined ratio with respect to the minimum diameter. For example, the maximum diameter of the pupil in one-minute measurement is 1.2 times or more the minimum diameter.
That is, by combining the above A and B, the other person's line of sight detecting unit 103 detects the line of sight to the user twice or more in one minute, and the other person's wink detecting unit 123 further performs the wink operation of the person having the line of sight to the user. Whether or not is detected once or more may be used as the determination condition in step S202 in FIGS. 3, 9, and 11.

さらに、図3、図9、および図11のステップS203の直前、または直後に以下のD〜Fのいずれかの条件、またはD〜Fを組み合わせた条件を満たすか否かを判断し、条件を満たすと判断した場合のみ処理を継続し、条件を満たさないと判断した場合はフローチャートを終了してもよい。   Further, immediately before or immediately after step S203 in FIGS. 3, 9, and 11, it is determined whether any of the following conditions D to F or a condition combining D to F is satisfied. The process may be continued only when it is determined that the condition is satisfied, and may be terminated when it is determined that the condition is not satisfied.

D)自己視線検出部104がユーザへの視線を有する者への注視を所定の時間内に所定の回数以上検出すること。たとえば、ユーザへの視線を有する者への注視を1分間に2回以上検出すること。ただし、注視を続けている場合は一定時間、たとえば10秒間ごとに1回と換算する。また、所定の時間とは1回目に視線を検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。   D) The self-line-of-sight detection unit 104 detects a gaze at a person having a line of sight to the user a predetermined number of times or more within a predetermined time. For example, detecting gaze at a person having a line of sight to a user twice or more in one minute. However, when gaze is continued, conversion is performed once for a certain period of time, for example, every 10 seconds. In addition, the predetermined time is the time after the first detection of the line of sight. If the predetermined number of times is one, there is no time limit.

E)自己視線検出部104がユーザへの視線を有する者への注視を検出した後の所定の時間内に、自己ウインク検出部121がユーザのウインク動作を所定の回数以上検出すること。たとえば1分間に2回以上検出すること。ただし、所定の時間とは1回目にウインクを検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
F)自己視線検出部104がユーザへの視線を有する者への注視を検出した後の所定の時間内に、自己瞳孔測定部124がユーザの瞳孔の直径を一定時間測定し、測定時間における最大径が最小径に対して所定の比率以上であること。たとえば1分間の測定における瞳孔の最大径が最小径の1.2倍以上であること。
E) The self wink detection unit 121 detects the user's wink operation a predetermined number of times or more within a predetermined time after the self-gaze detection unit 104 detects gaze at a person having a gaze to the user. For example, detecting twice or more in one minute. However, the predetermined time is the time after the wink is first detected, and if the predetermined number of times is one, there is no time limit.
F) The self-pupil measuring unit 124 measures the diameter of the user's pupil for a certain period of time within a predetermined time after the self-gaze detecting unit 104 detects gaze at a person having a line of sight to the user. The diameter is equal to or greater than a predetermined ratio with respect to the minimum diameter. For example, the maximum diameter of the pupil in one-minute measurement is 1.2 times or more the minimum diameter.

すなわち、上記のDとEを組み合わせて、自己視線検出部104がユーザへの視線を有する者への注視を1分間に2回以上検出し、さらに自己ウインク検出部121がユーザのウインク動作を1回以上検出したと判断する場合に処理を継続してもよく、この条件を満たさないと判断する場合は図3、図9および図11のフローチャートを終了してもよい。   That is, by combining the above D and E, the self-gaze detection unit 104 detects the gaze of the person having the gaze to the user twice or more in one minute, and further, the self-wink detection unit 121 detects the user's wink operation by one. The process may be continued when it is determined that the detection has been performed more than once, and when it is determined that this condition is not satisfied, the flowcharts of FIGS. 3, 9 and 11 may be ended.

さらに、ステップS202における上記A〜Cの判断条件の置き換え、およびステップS203の直前または直後への上記D〜Fの判断の追加を組み合わせてもよい。
この変形例9によれば、以下の作用効果を奏する。
(1)通信部105は、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を第1の所定の期間内に第1の所定の回数以上検出した際に、自己視線検出部104がユーザへの視線を有する者への注視を第2の所定の期間内に第2の所定の回数以上検出すると、通信を開始する。
そのため、偶然視線があっただけでは通信が開始されず、興味を持って複数回視線を合わせた場合のみ通信が開始されるため、不要な通信を削減することができる。
Further, the replacement of the determination conditions of A to C in step S202 and the addition of the determination of D to F immediately before or immediately after step S203 may be combined.
According to the ninth modification, the following operation and effect can be obtained.
(1) When the communication unit 105 detects a line of sight to the user at a first predetermined number of times or more within a first predetermined period based on the video captured by the video capturing unit 101 by the other party's visual line detection unit 103, When the self-line-of-sight detection unit 104 detects the gaze of the person having the line of sight to the user at least a second predetermined number of times within the second predetermined period, the communication is started.
Therefore, the communication is not started only when the line of sight is accidentally detected, but is started only when the line of sight is adjusted a plurality of times with an interest, so that unnecessary communication can be reduced.

(2)携帯端末100は、携帯端末100のユーザのウインク動作を検出する自己ウインク検出部121と、映像撮影部101により撮影した映像からユーザへの視線を有する者のウインク動作を検出する他者ウインク検出部123と、をさらに備える。通信部105は、他者ウインク検出部123がウインク動作を検出し、かつ自己視線検出部104がユーザのウインク動作を検出すると、通信を開始する。
そのため、好意を明確に示す手段であるウインクを検出することにより、互いに興味を持っている場合のみ通信が開始されるため、好意が明確ではない相手との通信を回避することができる。
(2) The portable terminal 100 detects the wink operation of the user of the portable terminal 100 by a self-wink detecting unit 121, and the other detects the wink operation of a person having a line of sight to the user from the video image captured by the video capturing unit 101. A wink detection unit 123. The communication unit 105 starts communication when the wink detection unit 123 detects a wink operation and the self-line-of-sight detection unit 104 detects a wink operation of the user.
Therefore, by detecting wink, which is a means of clearly indicating the favor, communication is started only when there is an interest in each other, and communication with a partner whose friendship is not clear can be avoided.

(3)通信部105は、第3の所定の期間内に他者ウインク検出部123がユーザへの視線を有する者のウインク動作を第3の所定の回数以上検出し、かつ自己視線検出部104がユーザへの視線を有する者への注視を検出した後の第4の所定の期間内に自己ウインク検出部121がユーザのウインク動作を第4の所定の回数以上検出すると、通信を開始する。
そのため、第3の所定の回数を多く設定することにより、より積極的にウインクにより行為を示す者とのみ通信を行うことができる。
(3) The communication unit 105 causes the other person's wink detection unit 123 to detect the wink operation of the person having the line of sight to the user for a third predetermined number of times or more within the third predetermined period, and to perform the self-line-of-sight detection unit 104 When the self wink detection unit 121 detects the user's wink operation for a fourth predetermined number of times or more within a fourth predetermined period after detecting the gaze at a person having a line of sight to the user, communication is started.
Therefore, by setting the third predetermined number of times to be large, it is possible to more positively communicate only with a person who shows an action by winking.

(第4の実施の形態)
以下、図13〜図16を参照して本発明の第4の実施の形態を説明する。
第4の実施の形態は、通信対象の探索をマッチングサーバが行う点が特徴である。
(Fourth embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to FIGS.
The fourth embodiment is characterized in that a matching server searches for a communication target.

第4の実施の形態における構成を図13に示す。
図13に示す通信システムは、複数の携帯端末100と、マッチングサーバ200により構成され、それらは互いにIP(Internet Protocol)網により接続されている。以下の説明では、複数存在する携帯端末100を区別する必要がある場合は、末尾にa、bを付加して100a、100bと表現して区別する。
FIG. 13 shows a configuration according to the fourth embodiment.
The communication system illustrated in FIG. 13 includes a plurality of mobile terminals 100 and a matching server 200, which are connected to each other by an IP (Internet Protocol) network. In the following description, when it is necessary to distinguish a plurality of mobile terminals 100, a and b are added to the end and expressed as 100a and 100b.

携帯端末100の構成は第1の実施の形態で説明した図1と以下の4点以外は同一である。1点目に、位置検出部113が方位計を更に備えている。2点目に、データ保存部111に保存されているプログラムが異なる。3点目に、通信部105は、無指向性通信ができればよいので、指向性アンテナおよびアンテナ可動装置はなくてもよい。4点目に、データ保存部111は、携帯端末100の固有識別情報をさらに保存している。
携帯端末100は、定常的に位置情報として、携帯端末100の位置およびその携帯端末100の固有識別情報、の2つをマッチングサーバ200に送信している。また、携帯端末100は、ユーザが注視している対象を特定すると、携帯端末100の位置、携帯端末100の向いている方向、注視していた時刻、携帯端末100の固有識別情報、そして注視対象者の撮影画像、の5つを注視情報としてマッチングサーバ200に送信する。
The configuration of the mobile terminal 100 is the same as FIG. 1 described in the first embodiment except for the following four points. At the first point, the position detection unit 113 further includes a compass. Second, the programs stored in the data storage unit 111 are different. Third, since the communication unit 105 only needs to be able to perform omnidirectional communication, the directional antenna and the antenna movable device may not be provided. Fourth, the data storage unit 111 further stores the unique identification information of the mobile terminal 100.
The mobile terminal 100 constantly transmits to the matching server 200 two pieces of position information, that is, the position of the mobile terminal 100 and the unique identification information of the mobile terminal 100. When specifying the target that the user is gazing at, the mobile terminal 100 determines the position of the mobile terminal 100, the direction in which the mobile terminal 100 is facing, the time at which the user is gazing, the unique identification information of the mobile terminal 100, and the gazing target. The photographed image of the person is transmitted to the matching server 200 as gaze information.

以下、マッチングサーバ200の構成を説明する。
通信部201は、携帯端末100との通信に使用される。位置データベース202には、携帯端末100から送信される前述の位置情報、すなわち携帯端末100の位置およびその携帯端末100の固有識別情報が記録される。
Hereinafter, the configuration of the matching server 200 will be described.
The communication unit 201 is used for communication with the mobile terminal 100. In the position database 202, the above-described position information transmitted from the portable terminal 100, that is, the position of the portable terminal 100 and the unique identification information of the portable terminal 100 are recorded.

注視対象探索部203は、携帯端末100aから送信された前述の注視情報および位置データベース202をもとに、その携帯端末100aのユーザが注視している他の携帯端末100bを探索する。例えば、注視対象者が携帯端末100bを保持していると仮定すれば、以下の手順により携帯端末100bを保持している注視対象者を発見することができる。   The gaze target search unit 203 searches for another mobile terminal 100b that the user of the mobile terminal 100a is watching, based on the above-mentioned gaze information and the position database 202 transmitted from the mobile terminal 100a. For example, assuming that the watch target holds the mobile terminal 100b, the watch target holding the mobile terminal 100b can be found by the following procedure.

まず注視情報に含まれる携帯端末100aの位置および向いていた方角から、携帯端末100bを探索する始点および方向を決定する。そして、注視情報に含まれる注視対象者の撮影画像の大きさ(例えば、全身が何ピクセルで表されているか)から、携帯端末100aと携帯端末100bの距離Lを推定する。さらに、注視情報に含まれる注視していた時刻と位置データベース202に保存されている全ての携帯端末100の位置を参照すれば、該当する携帯端末100bを発見できる。
例えば、携帯端末100aから送信された前述の注視情報および位置データベース202を可視化すると図14のようになる。全ての携帯端末100の位置は位置データベース202から明らかであり、注視している者の所持する携帯端末100aの位置、携帯端末100aの向いている方向、携帯端末100aから携帯端末100bまでの距離Lが既知なので、図14に示すとおり携帯端末100bを発見できる。
そして、探索の結果注視対象の携帯端末100bが見つかった場合には、マッチングデータベース204に、注視していた者の所持する携帯端末100aの固有識別情報(以下、注視端末情報)、注視対象者の所持する携帯端末100bの固有識別情報(以下、被注視端末情報)、注視していた時刻、の3つを書き込む。さらに、これら3つの情報を、注視対象の携帯端末100bに送信する。
First, a starting point and a direction for searching for the mobile terminal 100b are determined from the position and the facing direction of the mobile terminal 100a included in the gaze information. Then, the distance L between the mobile terminal 100a and the mobile terminal 100b is estimated from the size of the captured image of the gaze target person included in the gaze information (for example, how many pixels represent the whole body). Furthermore, by referring to the time of gazing contained in the gaze information and the positions of all the mobile terminals 100 stored in the position database 202, the corresponding mobile terminal 100b can be found.
For example, when the above-mentioned gaze information and the position database 202 transmitted from the mobile terminal 100a are visualized, the result is as shown in FIG. The positions of all the mobile terminals 100 are clear from the position database 202, and the positions of the mobile terminals 100a possessed by the watcher, the direction in which the mobile terminals 100a are facing, the distance L from the mobile terminals 100a to the mobile terminals 100b. Is known, the portable terminal 100b can be found as shown in FIG.
When the mobile terminal 100b to be watched is found as a result of the search, the unique identification information (hereinafter, watched terminal information) of the mobile terminal 100a possessed by the watcher is stored in the matching database 204. The three pieces of information of the unique identification information of the portable terminal 100b possessed (hereinafter, watched terminal information) and the time of watching are written. Further, these three pieces of information are transmitted to the portable terminal 100b to be watched.

マッチング判定部205は、マッチングデータベースを検索し、固有識別情報を用いて相互に注視している携帯端末の組が有ることを判定したら、相互にネットワーク上の識別子、例えばIPアドレスを交換させて携帯端末100同士で通信をさせる。
制御部206は、図示しないCPU,ROM,RAMを備え、常に通信部201が受信するデータを監視し、そのデータが位置情報であれば位置データベース202に格納し、注視情報であれば注視対象探索部203を起動する。
The matching determination unit 205 searches the matching database and determines, using the unique identification information, that there is a pair of mobile terminals that are gazing at each other. The terminals 100 communicate with each other.
The control unit 206 includes a CPU, ROM, and RAM (not shown). The control unit 206 constantly monitors data received by the communication unit 201. If the data is position information, the data is stored in the position database 202. The unit 203 is started.

以下、第4の実施の形態の動作を説明する。
図15のフローチャートに示すプログラムは、第4の実施の形態において携帯端末100の制御部114が実行する。第1の実施の形態の図3の処理、および第3の実施の形態の図10の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the fourth embodiment will be described.
The program shown in the flowchart of FIG. 15 is executed by the control unit 114 of the mobile terminal 100 in the fourth embodiment. Steps having the same contents as the processing in FIG. 3 of the first embodiment and the processing in FIG. 10 of the third embodiment are denoted by the same step numbers, and description thereof is omitted. Unless otherwise specified in the following description, the subject of execution of each step is the CPU of the control unit 114.

ステップS701では、位置検出部113で検出した携帯端末100の位置、および携帯端末100の固有識別情報をマッチングサーバ200に送信してステップS501に進む。この情報はマッチングサーバ200の位置データベース202に保存される。これに続くステップS501〜ステップS502においてユーザが注視している対象を特定し、続くステップS503ではその対象が人であった場合はステップS702に、それ以外の場合はステップS704に進む。   In step S701, the position of the mobile terminal 100 detected by the position detection unit 113 and the unique identification information of the mobile terminal 100 are transmitted to the matching server 200, and the process proceeds to step S501. This information is stored in the position database 202 of the matching server 200. In steps S501 to S502 following this, the target that the user is gazing at is specified. In step S503, if the target is a person, the process proceeds to step S702; otherwise, the process proceeds to step S704.

ステップS702では、ユーザが注視している状態における携帯端末100aが向いている方位を位置検出部113の方位計により検出し、ステップS703に進む。ステップS703では、前述の注視情報、すなわち携帯端末100aの位置、携帯端末100aの向いている方位、注視していた時刻、携帯端末100aの固有識別情報、そして注視対象者の撮影画像をマッチングサーバ200に送信する。   In step S702, the azimuth of the mobile terminal 100a while the user is gazing is detected by the azimuth meter of the position detection unit 113, and the process proceeds to step S703. In step S703, the above-mentioned gaze information, that is, the position of the mobile terminal 100a, the orientation of the mobile terminal 100a, the time of gaze, the unique identification information of the mobile terminal 100a, and the captured image of the gaze target are stored in the matching server 200. Send to

続くステップS704では、前回のステップS704の実行以後に、マッチングサーバ200から視線を受けている旨の通知があったかを判断する。通知を受けていた場合はステップS203に、通知を受けていなかった場合はステップS208に進む。また、視線を受けている旨の通知には、視線を送っている者と通知を受けた者との相対位置関係を示す情報が含まれているため、制御部114は、その相対位置関係から映像撮影部101に表示される位置を推定し、その位置をマーカー位置として映像表示部102に指示する。   In a succeeding step S704, it is determined whether or not the matching server 200 has notified that the line of sight has been received since the execution of the previous step S704. If the notification has been received, the process proceeds to step S203. If the notification has not been received, the process proceeds to step S208. In addition, since the notification that the line of sight is received includes information indicating the relative positional relationship between the person sending the line of sight and the person receiving the notification, the control unit 114 The position displayed on the video photographing unit 101 is estimated, and the position is instructed to the video display unit 102 as the marker position.

ステップS203またはステップS208のあとに実行するステップS705では、前回のステップS705の実行以後に、マッチングサーバ200から通信相手の情報を受信したかを判断する。その受信があった場合は受信した通信情報を用いてステップS207のデータ交換を行う。その受信がなかった場合は図15のフローチャートを終了する。   In step S705 executed after step S203 or step S208, it is determined whether or not communication partner information has been received from matching server 200 since the previous execution of step S705. If the information has been received, the data exchange of step S207 is performed using the received communication information. If not received, the flow chart of FIG. 15 ends.

次にマッチングサーバ200の注視対象探索部203の動作を説明する。図16は、注視対象探索部203が実行するプログラムの動作を表すフローチャートである。通信部201は常に携帯端末100からの通信を待ち受けているので、携帯端末100から注視情報を受信すると、図16のフローチャートで示すプログラムが制御部206により起動される。   Next, the operation of the gaze target search unit 203 of the matching server 200 will be described. FIG. 16 is a flowchart illustrating the operation of the program executed by the fixation target search unit 203. Since the communication unit 201 is always waiting for communication from the mobile terminal 100, when the gaze information is received from the mobile terminal 100, the program illustrated in the flowchart of FIG.

ステップS801では、注視対象探索部203は、携帯端末100aから送信された前述の注視情報および位置データベース202をもとに、その携帯端末100aのユーザが注視している他の携帯端末100bを探索する。   In step S801, the gaze target search unit 203 searches for another mobile terminal 100b that the user of the mobile terminal 100a is watching, based on the above-described gaze information and the position database 202 transmitted from the mobile terminal 100a. .

続くステップS802では、ステップS801で該当する携帯端末100bを発見できたかを判断し、発見できた場合はステップS803に、発見できなかった場合は図16に示すフローチャートを終了する。
ステップS803では、注視対象探索部203は、発見した携帯端末100bに対して注視されていたこと、および注視していた者の使用している携帯端末100aの位置を通知し、ステップS804に進む。
In a succeeding step S802, it is determined whether or not the corresponding portable terminal 100b has been found in the step S801. When the portable terminal 100b can be found, the process proceeds to the step S803.
In step S803, the gaze target search unit 203 notifies the found portable terminal 100b that the user has been gazing and the position of the portable terminal 100a used by the gazing person, and proceeds to step S804.

ステップS804では、注視対象探索部203は、マッチングデータベース204に注視端末情報として100aを、被注視端末情報として100bを、そして注視していた時刻を保存して、図16に示すフローチャートを終了する。   In step S804, the gaze target search unit 203 stores 100a as the gaze terminal information, 100b as the gaze target terminal information, and the time of gaze in the matching database 204, and terminates the flowchart illustrated in FIG.

最後に、マッチングサーバ200のマッチング判定部205の動作を説明する。マッチング判定部205は、マッチングデータベース204の書き込みを監視しており、何らかの書き込みがあるとマッチングデータベース204の全体を読み込む。そして、注視端末情報と被注視端末情報に記載の固有識別情報が入れ替わっている組合せ、すなわち双方向に注視している組合せを探索する。そのような組み合わせを発見すると、それらの携帯端末100のネットワーク上の識別情報(例えばIPアドレス)を双方の携帯端末100に伝える。   Finally, the operation of the matching determination unit 205 of the matching server 200 will be described. The matching determination unit 205 monitors the writing of the matching database 204, and reads the entire matching database 204 when there is any writing. Then, a combination in which the unique identification information described in the watched terminal information and the watched terminal information is switched, that is, a combination in which the user is gazing in both directions is searched. When such a combination is found, the identification information (for example, IP address) of those portable terminals 100 on the network is transmitted to both portable terminals 100.

この第4の実施の形態によれば、マッチングサーバ200が注視対象者の携帯端末100を探索するので、携帯端末100は無指向性通信が行える装置を備えていればよく、指向性アンテナおよびアンテナ可動装置が不要になる。そのため、携帯端末100の製造コストおよび故障の割合が低減される。また、マッチングデータベース204に注視した情報を残すことができるので、両者が同時には注視せず、数秒違いで互いを注視した場合や異なる日に注視した場合にでも連絡先を交換をすることができる。   According to the fourth embodiment, since the matching server 200 searches for the mobile terminal 100 of the watching target, the mobile terminal 100 only needs to have a device capable of performing omnidirectional communication. No moving devices are required. Therefore, the manufacturing cost and the rate of failure of the portable terminal 100 are reduced. In addition, since the gazed information can be left in the matching database 204, the two can not exchange information at the same time, and can exchange contacts even when gazed at each other for a few seconds or gazed at a different day. .

(変形例10)
第4の実施の形態では、マッチング判定部205は双方向に注視している組合せを発見すると、それらの携帯端末100に他方の携帯端末100のネットワーク上の識別情報を伝えて、それ以後は携帯端末100相互間で通信を行わせたが、この通信はマッチングサーバ200を介してもよい。
この変形例10によれば、互いのネットワーク上の識別情報を知ることがなく、さらに通信の記録をマッチングサーバ200に残すこともできるため、セキュリティ上優れているという利点がある。
(Modification 10)
In the fourth embodiment, when the matching determination unit 205 finds a combination that is being watched in both directions, the matching determination unit 205 transmits the identification information of the other mobile terminal 100 on the network to those mobile terminals 100, and thereafter, the mobile terminal 100 Although the communication is performed between the terminals 100, the communication may be performed via the matching server 200.
According to the tenth modification, since it is possible to leave the record of communication in the matching server 200 without knowing the identification information on each other's network, there is an advantage that security is excellent.

100…携帯端末、101…映像撮影部、102…映像表示部、103…他者視線検出部、104…自己視線検出部、105…通信部、106…入力部、107…顔特徴量算出部、108…顔特徴データベース、109…顔類似度判定部、110…性別・年代推定部、111…データ保存部、112…報知部、113…位置検出部、114…制御部、121…自己ウインク検出部、122…表示注視検出部、123…他者ウインク検出部、124…自己瞳孔測定部、125…他者瞳孔測定部、200…マッチングサーバ、201…通信部、202…位置データベース、203…注視対象探索部、204…マッチングデータベース、205…マッチング判定部、206…制御部
Reference Signs List 100: portable terminal, 101: video photographing unit, 102: video display unit, 103: other person's line of sight detection unit, 104: self-line of sight detection unit, 105: communication unit, 106: input unit, 107: face feature amount calculation unit, 108: face feature database, 109: face similarity determination unit, 110: gender / age estimation unit, 111: data storage unit, 112: notification unit, 113: position detection unit, 114: control unit, 121: self wink detection unit , 122: display gaze detection unit, 123: wink detection unit of another person, 124: self-pupil measurement unit, 125: pupil measurement unit of another person, 200: matching server, 201: communication unit, 202: position database, 203: gaze target Searching unit, 204: matching database, 205: matching determining unit, 206: control unit

Claims (10)

撮影部と、
前記撮影部で撮影した映像に基づいて特定の方向への視線を検出する視線検出部と、
前記視線検出部が前記視線を検出すると報知する報知部と、
前記撮影部が撮影した顔の特徴を算出する特徴量算出部と、
前記特徴量算出部によって算出した前記顔の特徴を記憶する記憶部とを備え、
前記報知部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶部に記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する携帯情報端末。
A shooting unit,
A gaze detection unit that detects a gaze in a specific direction based on an image captured by the imaging unit,
A notification unit that notifies that the line-of-sight detection unit detects the line-of-sight,
A feature amount calculation unit that calculates a feature of the face imaged by the imaging unit,
A storage unit that stores the features of the face calculated by the feature amount calculation unit,
The notifying unit detects a line of sight in the specific direction based on an image captured by the line of sight detecting unit by the image capturing unit, and when the person having the line of sight is similar to the feature stored in the storage unit, the mobile unit may perform mobile communication. A portable information terminal that notifies the user of the information terminal.
請求項1に記載の携帯情報端末であって、
前記特定の方向とは、前記携帯情報端末の使用者の目への方向である携帯情報端末。
The mobile information terminal according to claim 1,
The portable information terminal is a direction toward the eyes of a user of the portable information terminal.
請求項1または2に記載の携帯情報端末であって、
前記報知部は、前記特定の方向への視線を検出すると、前記特定の方向への視線の視点の位置を示す指標を表示する表示部を備える携帯情報端末。
The mobile information terminal according to claim 1 or 2,
A portable information terminal comprising: a display unit that, when detecting a line of sight in the specific direction, displays an index indicating a position of a viewpoint of the line of sight in the specific direction.
請求項1から3までのいずれか一項に記載の携帯情報端末であって、
前記記憶部には、性別と年代とが記憶され、
前記視線検出部により前記特定の方向への視線が検出された場合に、前記撮影部で撮影した映像に基づいて、その視線を有する者の性別および年代を推定する性別年代推定部と、
前記性別年代推定部で推定した性別および年代が前記記憶部に記憶した性別および年代と一致するかを判定する判定部とを更に備え、
前記報知部は、前記判定部が前記撮影部により撮影した映像に基づく性別および年代が前記記憶部に記憶した性別および年代と一致すると判定された場合に報知する携帯情報端末。
The portable information terminal according to any one of claims 1 to 3 , wherein
The storage unit stores gender and age ,
When the line of sight in the specific direction is detected by the line of sight detection unit, based on an image captured by the image capturing unit, a gender age estimation unit that estimates the gender and age of the person having the line of sight,
A determination unit that determines whether the gender and age estimated by the gender age estimation unit match the gender and age stored in the storage unit ,
The portable information terminal that notifies , when the determination unit determines that the gender and age based on the video imaged by the imaging unit match the gender and age stored in the storage unit .
請求項4に記載の携帯情報端末であって、
前記判定部が、前記撮影部により撮影した映像に基づく性別および年代が前記記憶部に記憶した性別および年代と一致すると判定した場合に通信を行う通信部を更に備える携帯情報端末。
The mobile information terminal according to claim 4, wherein
The determination unit further comprises a portable information terminal a communication unit that performs communication when sex and age based on the image captured is determined to be consistent with gender and age stored in the storage unit by the imaging unit.
請求項1から4までのいずれか一項に記載の携帯情報端末であって、
前記携帯情報端末の使用者が注視する対象を検出する注視対象検出部と、
前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記注視対象検出部が前記特定の方向への視線を有する者への注視を検出すると、通信を行う通信部とを更に備える携帯情報端末。
The portable information terminal according to any one of claims 1 to 4 ,
A gaze target detection unit that detects a target gazed by the user of the portable information terminal,
When the sight line detection unit, said detecting a line of sight to a specific direction based on the image taken by the imaging unit, the gaze target detection unit detects a gaze of the person having a line of sight of the specific direction, A portable information terminal further comprising a communication unit for performing communication.
請求項6に記載の携帯情報端末であって、
前記通信部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を第1の期間内に第1の回数以上検出し、前記注視対象検出部が検出した注視対象と前記視線検出部が検出した前記特定の方向への視線を有する者が同一である回数が第2の期間内に第2の回数を超えると、通信を行う携帯情報端末。
The portable information terminal according to claim 6, wherein
The communication unit detects the line of sight in the specific direction at least a first number of times within a first period based on an image captured by the line of sight detection unit by the imaging unit, and the gaze target detection unit detects the line of sight. A portable information terminal that performs communication when the number of times that a gaze target and a person having a line of sight in the specific direction detected by the line of sight detection unit are the same exceeds a second number within a second period.
請求項6またはに記載の携帯情報端末であって、
前記携帯情報端末の使用者のウインク動作を検出する第1のウインク検出部と、
前記撮影部により撮影した映像から前記特定の方向への視線を有する者のウインク動作を検出する第2のウインク検出部と、を更に備え、
前記通信部は、前記第2のウインク検出部がウインク動作を検出し、かつ前記第1のウインク検出部がウインク動作を検出すると、通信を行う携帯情報端末。
The portable information terminal according to claim 6 or 7 ,
A first wink detection unit that detects a wink operation of a user of the portable information terminal;
A second wink detection unit that detects a wink operation of a person having a line of sight in the specific direction from the image captured by the imaging unit,
The portable information terminal, wherein the communication unit communicates when the second wink detection unit detects a wink operation and the first wink detection unit detects a wink operation.
請求項に記載の携帯情報端末であって、
前記通信部は、第3の期間内に前記第2のウインク検出部が前記特定の方向への視線を有する者のウインク動作を第3の回数以上検出し、かつ前記注視対象検出部が前記特定の方向への視線を有する者への注視を検出した後の第4の期間内に前記第1のウインク検出部が前記携帯情報端末の使用者のウインク動作を第4の回数以上検出すると、通信を行う携帯情報端末。
The portable information terminal according to claim 8 , wherein:
In the communication unit, the second wink detection unit detects a wink operation of a person having a line of sight in the specific direction at least a third number of times within a third period, and the gaze target detection unit detects the wink operation. When the first wink detection unit detects a wink operation of the user of the portable information terminal by a fourth number of times or more within a fourth period after detecting gaze at a person having a line of sight in the direction of Personal digital assistant to do.
撮影する撮影手順と、
前記撮影手順で撮影した映像に基づいて特定の方向への視線を検出する視線検出手順と、
前記視線検出手順で前記視線を検出すると報知する報知手順と、
前記撮影手順で撮影した顔の特徴を算出する特徴量算出手順と、
前記特徴量算出手順で算出した前記顔の特徴を記憶する記憶手順とを備え、
前記報知手順は、前記視線検出手順が前記撮影手順で撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶手順で記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する手順を含み、各手順をコンピュータに実行させるためのプログラム。
Shooting procedure to shoot,
A gaze detection procedure for detecting a gaze in a specific direction based on the video taken in the shooting procedure,
A notification procedure for notifying that the visual axis is detected in the visual axis detection procedure,
A feature amount calculating procedure for calculating features of the face photographed in the photographing procedure,
Storing a feature of the face calculated in the feature amount calculation procedure,
The notifying step detects a line of sight in the specific direction based on the image captured in the image capturing step by the line of sight detection step, and when the person having the line of sight is similar to the feature stored in the storage step, the mobile terminal performs A program that includes a procedure for notifying a user of an information terminal and causes a computer to execute each procedure .
JP2018109338A 2013-10-23 2018-06-07 Mobile information terminals and programs Active JP6662411B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013219838 2013-10-23
JP2013219838 2013-10-23

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014035381A Division JP6349777B2 (en) 2013-10-23 2014-02-26 Portable terminal device for information exchange

Publications (2)

Publication Number Publication Date
JP2018186510A JP2018186510A (en) 2018-11-22
JP6662411B2 true JP6662411B2 (en) 2020-03-11

Family

ID=53439677

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014035381A Active JP6349777B2 (en) 2013-10-23 2014-02-26 Portable terminal device for information exchange
JP2018109338A Active JP6662411B2 (en) 2013-10-23 2018-06-07 Mobile information terminals and programs

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014035381A Active JP6349777B2 (en) 2013-10-23 2014-02-26 Portable terminal device for information exchange

Country Status (1)

Country Link
JP (2) JP6349777B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0749744A (en) * 1993-08-04 1995-02-21 Pioneer Electron Corp Head mounting type display input device
JP2006155170A (en) * 2004-11-29 2006-06-15 Olympus Corp Information distribution method, information distribution device, information terminal device and information distribution system
JP4973299B2 (en) * 2007-01-19 2012-07-11 ソニー株式会社 Optical communication apparatus and optical communication method
JP2008176681A (en) * 2007-01-22 2008-07-31 Fujifilm Corp Glasses-type communication support device
JP4396720B2 (en) * 2007-03-26 2010-01-13 ソニー株式会社 Image processing apparatus, image processing method, and program
JP2009157242A (en) * 2007-12-27 2009-07-16 Fujifilm Corp Imaging apparatus
JP2010081480A (en) * 2008-09-29 2010-04-08 Fujifilm Corp Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program
JP5458664B2 (en) * 2009-05-20 2014-04-02 株式会社ニコン Head mounted display device and communication system

Also Published As

Publication number Publication date
JP2018186510A (en) 2018-11-22
JP6349777B2 (en) 2018-07-04
JP2015109626A (en) 2015-06-11

Similar Documents

Publication Publication Date Title
JP6992761B2 (en) Servers, client terminals, control methods, storage media, and programs
US10809530B2 (en) Information processing apparatus and information processing method
US8690321B2 (en) Fixation-based control of electroactive spectacles
JP5564946B2 (en) Video providing system and video providing method
CN104333846B (en) Position reminding method and device
CN107113354B (en) Communication system comprising a head-mounted device
KR102056221B1 (en) Method and apparatus For Connecting Devices Using Eye-tracking
JP6022530B2 (en) Portable electronic device and information processing method
JP6662411B2 (en) Mobile information terminals and programs
CN108140124A (en) Prompt information determination method and device, electronic equipment and computer program product
JP5885480B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP6435640B2 (en) Congestion degree estimation system
WO2015105075A1 (en) Information processing apparatus and electronic device
JP2022015647A (en) Information processing apparatus and image display method
JP6941715B2 (en) Display device, display program, display method and display system
JP5989725B2 (en) Electronic device and information display program
JP6262177B2 (en) Wearable terminal, method and system
CN111344776A (en) Information processing apparatus, information processing method, and program
JP6744271B2 (en) Display device, display program, display method, and display system
JP2018041507A (en) Wearable terminal, method, and system
Kim et al. Eyeball tracking and object detection in smart glasses
JP6778150B2 (en) Head-mounted display device, authentication method, and authentication program
JP2014228949A (en) Information processing device and processing execution method
JP2022139766A (en) wireless communication system
JP2021090179A (en) Control device, imaging apparatus, imaging system, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180607

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200127

R150 Certificate of patent or registration of utility model

Ref document number: 6662411

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250