JP6662411B2 - Mobile information terminals and programs - Google Patents
Mobile information terminals and programs Download PDFInfo
- Publication number
- JP6662411B2 JP6662411B2 JP2018109338A JP2018109338A JP6662411B2 JP 6662411 B2 JP6662411 B2 JP 6662411B2 JP 2018109338 A JP2018109338 A JP 2018109338A JP 2018109338 A JP2018109338 A JP 2018109338A JP 6662411 B2 JP6662411 B2 JP 6662411B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- sight
- line
- user
- communication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004891 communication Methods 0.000 claims description 136
- 238000001514 detection method Methods 0.000 claims description 90
- 238000000034 method Methods 0.000 claims description 63
- 210000001508 eye Anatomy 0.000 claims description 39
- 238000003860 storage Methods 0.000 claims description 11
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000000007 visual effect Effects 0.000 claims description 3
- 238000010295 mobile communication Methods 0.000 claims 1
- 239000003550 marker Substances 0.000 description 27
- 230000008569 process Effects 0.000 description 27
- 230000004048 modification Effects 0.000 description 26
- 238000012986 modification Methods 0.000 description 26
- 210000001747 pupil Anatomy 0.000 description 25
- 230000005540 biological transmission Effects 0.000 description 16
- 238000013500 data storage Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 10
- 230000008901 benefit Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 235000002673 Dioscorea communis Nutrition 0.000 description 2
- 241000544230 Dioscorea communis Species 0.000 description 2
- 208000035753 Periorbital contusion Diseases 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 239000008280 blood Substances 0.000 description 2
- 210000004369 blood Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000004397 blinking Effects 0.000 description 1
- 210000000078 claw Anatomy 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Description
本発明は、携帯情報端末およびプログラムに関する。 The present invention relates to a portable information terminal and a program.
携帯端末には、基地局との通信に使用される通信手段だけでなく、近距離の端末と直接通信ができる無線LAN(LocalArea Network)、Bluetooth(登録商標)、赤外線、NFC(NearField Communication)など多くの通信手段が内蔵されている。これら近距離通信を用いて携帯端末間で連絡先を交換することが、広く行われている。 Mobile terminals include not only communication means used for communication with base stations, but also wireless LANs (Local Area Network), Bluetooth (registered trademark), infrared rays, NFC (Near Field Communication), etc., which can directly communicate with short-range terminals. Many communication means are built-in. Exchange of contacts between portable terminals using such short-range communication is widely performed.
例えば特許文献1に開示の発明によれば、通信範囲内の携帯端末と無線により連絡先を交換することができる。しかし、通信範囲内に複数の携帯端末が存在する場合には、携帯端末の使用者に確認を取らなければ、どの携帯端末と連絡先を交換しているかが明らかでないという問題がある。 For example, according to the invention disclosed in Patent Document 1, it is possible to wirelessly exchange contact information with a portable terminal within a communication range. However, when there are a plurality of mobile terminals within the communication range, there is a problem that it is not clear which mobile terminal to exchange contacts with without checking the user of the mobile terminal.
周囲に通信可能な端末が複数ある状態では、自分との通信を意図している者が存在したとしても知ることができない。 When there are a plurality of terminals that can communicate with each other, it is impossible to know even if there is a person who intends to communicate with the terminal.
本発明の第1の態様による携帯情報端末は、撮影部と、前記撮影部で撮影した映像に基づいて特定の方向への視線を検出する視線検出部と、前記視線検出部が前記視線を検出すると報知する報知部と、前記撮影部が撮影した顔の特徴を算出する特徴量算出部と、前記特徴量算出部によって算出した前記顔の特徴を記憶する記憶部とを備え、前記報知部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶部に記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する。
本発明の第2の態様によるプログラムは、撮影する撮影手順と、前記撮影手順で撮影した映像に基づいて特定の方向への視線を検出する視線検出手順と、前記視線検出手順で前記視線を検出すると報知する報知手順と、前記撮影手順で撮影した顔の特徴を算出する特徴量算出手順と、前記特徴量算出手順で算出した前記顔の特徴を記憶する記憶手順とを備え、前記報知手順は、前記視線検出手順が前記撮影手順で撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶手順で記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する手順を含み、各手順をコンピュータに実行させる。
A portable information terminal according to a first aspect of the present invention includes a photographing unit, a line-of-sight detecting unit that detects a line of sight in a specific direction based on an image photographed by the photographing unit, and the line-of-sight detecting unit detects the line of sight. Then, an informing unit for informing, a feature amount calculating unit for calculating a feature of the face photographed by the photographing unit, and a storage unit for storing the feature of the face calculated by the feature amount calculating unit, wherein the informing unit is The gaze detection unit detects a gaze in the specific direction based on an image captured by the imaging unit, and when the person having the gaze is similar to the feature stored in the storage unit, the use of the portable information terminal. Notify others.
According to a second aspect of the present invention, there is provided a program that includes: a shooting procedure for shooting; a gaze detection procedure for detecting a gaze in a specific direction based on an image captured in the shooting procedure; and a gaze detection procedure for detecting the gaze in the gaze detection procedure. Then, there is provided an informing procedure for informing, a feature amount calculating procedure for calculating a feature of the face photographed in the photographing procedure, and a storage procedure for storing the face feature calculated in the feature amount calculating procedure, wherein the informing procedure is The gaze detection procedure detects a gaze in the specific direction based on an image captured in the imaging procedure, and when the person having the gaze is similar to the feature stored in the storage procedure, the use of the portable information terminal Including a procedure for notifying the user, causes the computer to execute each procedure .
本発明によれば、自分に視線を向けている者を容易に判断できる。 ADVANTAGE OF THE INVENTION According to this invention, the person who turns his / her eyes can be easily determined.
(第1の実施の形態)
以下、図1〜図5を参照して、本発明の第1の実施の形態について説明する。
まず、本発明の第1の実施の形態の構成について説明する。
図1は、携帯端末100の構成を示すブロック図である。携帯端末100は、体に装着できる携帯端末であり、例えばメガネのように頭に固定する。
(First Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS.
First, the configuration of the first exemplary embodiment of the present invention will be described.
FIG. 1 is a block diagram illustrating a configuration of the
映像撮影部101は、図示しないカメラを備え、制御部114が、携帯端末100を身につけた者(以下、ユーザという)の周囲の被写体を撮影する。カメラは目の付近にあるので、カメラで撮影して得られた映像の中心への視線は、携帯端末100を装着している者の目への視線とみなすことができる。カメラは広角を撮影できるレンズを装着していること、もしくは複数台のカメラを備えることが望ましい。
The
映像表示部102は、図示しない小型ディスプレイなどを備え、2つの動作モードを有する。通常モードでは、映像撮影部101で撮影したリアルタイム映像をそのまま表示し、マーカーモードでは、映像撮影部101で撮影したリアルタイム映像にマーカーを付して表示する。このマーカーの表示位置は制御部114から指定される。また、ユーザが入力部106から入力した情報も映像表示部102に表示される。制御部114が表示位置を指定して映像表示部102にデータを出力すると、映像表示部102の指定された位置に表示される。
The
本発明の実施の形態に係る携帯端末100は、信号待ちや電車の中など、不特定多数が短時間だけ近距離(数メートル程度)にいる場合に主に使用される。ユーザ同士は、視線が合うと、直接話しかけたり物理的な接触をすることなく、無線により相互に情報交換をすることができる。
この実現のために指向性通信を用いる。この理由は以下のとおりである。周囲の端末に一斉に情報を送信することは容易に実現できるが、意図しない人にも受信される恐れがあり、また受信しても誰が送信したのかが不明である。そこで次にネットワーク上の識別子を用いて、1:1の通信をすることが考えられるが、事前の情報交換をしないので相手のネットワーク上の識別子が不明である。さらに、通信を暗号化することも考えられるが、事前に情報の共有を行わないため、暗号化キー(パスワード)が不明である。そのため、指向性通信を行う。
The
To achieve this, directional communication is used. The reason is as follows. It is easy to simultaneously transmit information to peripheral terminals, but there is a risk that unintended persons may receive the information, and it is unknown who transmitted the information. Then, it is conceivable to perform 1: 1 communication using the identifier on the network next time, but since the information is not exchanged in advance, the identifier on the partner network is unknown. Further, communication may be encrypted. However, since information is not shared in advance, an encryption key (password) is unknown. Therefore, directional communication is performed.
図2a〜図2cは、携帯端末100の使用状況および、映像表示部102の動作モードの違いによる表示の変化例を示したものである。図2aに示すように、携帯端末100を装着した甲の前に同じく携帯端末100を装着した乙、丙、丁、戊の4人が立っており、左から3番目の丁だけが甲に視線を送っている。図2bおよび図2cは甲が装着する携帯端末100の映像表示部に表示されている映像である。図2bに示す通常モードでは、撮影した映像がそのまま表示され、図2cに示すマーカーモードでは、制御部114が視線を検出した位置を映像表示部102に指定し、マーカーMを付した映像が表示される。
2A to 2C show an example of a change in display due to a use state of the
他者視線検出部103は、既知の視線検出手法により、映像撮影部101で撮影した映像から、映像の中心への視線を有する者の有無、および画面上の位置を制御部114に出力する。例えば以下の手法による。
まず、映像撮影部101で撮影した映像から静止画を切り出し、エッジ検出やパターン検出などの手法により、この静止画から人の顔を検出する。次に、検出した人の顔の画像に対して、黒目と目尻の位置から注視方向を判別することができる(特開2003−25682号公報)。この視線の方向が映像の中心と合致すれば、その者の顔の位置を制御部114に出力し、視線の方向が合致しない、もしくは顔を検出できなかった場合は「視線なし」と制御部114に出力する。
The other person's line of
First, a still image is cut out from a video shot by the
自己視線検出部104は、図示しない赤外線カメラなどを備え、ユーザの視線の方向を制御部114に出力する。赤外線カメラでユーザの眼球を撮影し、既知の視線検出手法によりユーザの視線の方向を検出する。例えば、瞳孔の中心と角膜曲率中心位置から視線を検出する手法が知られている。この検出された視線と、映像撮影部101で撮影する映像とを組み合わせることによって、ユーザが見ている対象が特定される。
The self-line-of-
通信部105は、図示しない通信用回路、無指向性アンテナ、指向性アンテナおよびアンテナ可動装置などを備える。制御部114により、通信の開始および停止だけでなく、アンテナ可動装置の制御およびアンテナの電気的接続が制御される。すなわち、携帯端末100は制御部114により、アンテナの向きを変えることによる特定の方向への通信や、電気的な回路切換えによる無指向性通信/指向性通信の切換えがなされる。制御部114によるアンテナの操作は、以下に示すフローチャートによる動作だけでなく、携帯端末100のユーザによるマニュアル操作も受け付けるため、制御部114を介して携帯端末100のユーザが指向性アンテナを利用して通信する方向を自由に操作できる。
The
入力部106は、タッチセンサなどを備え、ユーザがタッチセンサを触るタイミング、長さ、間隔などを制御部114に伝達する。また、映像撮影部101で撮影されたユーザの特定の指の動きや、自己視線検出部104で検出された、ユーザの特定の黒目の動きなどを、制御部114に入力として伝達することもできる。
The
顔特徴量算出部107は、目、鼻、唇の各端点や相互位置関係、顔の輪郭、顔の色彩や明度の分布などを既知の手法により、顔の特徴量として算出する。
The face feature
顔特徴データベース108は、年齢や性別で分類された人の顔の画像を顔特徴量算出部107に入力し、得られた特徴量を保存しており、性別・年代推定部110にて利用される。また、映像撮影部101で撮影した映像を顔特徴量算出部107に入力し、得られた特徴量を新たに保存することができる。
The
顔類似度判定部109は、後述する2つにグループ分けされた複数の特徴量を用いて学習し、新たに入力された特徴量がどちらのグループに近いかを判定し、制御部114に出力する。この判定には、既知の手法を用いることができ、例えば特開2004−222118号公報に開示されている、サポートベクタマシンを利用する手法を用いることができる。
The face
性別・年代推定部110は、入力された顔の性別および年代を既知の手法により判定し、制御部114に出力する。顔特徴データベース108には、性別・年代が既知である複数の顔の特徴量が登録されているので、例えば顔類似度判定部109を利用して、判断対象の顔の特徴量が、任意に形成する2グループのどちらに属するかを繰り返し判定し、性別と年代を判定できる。
The gender /
データ保存部111は、図示しないフラッシュメモリなどを備え、図3以降に示すフローチャートを実行するプログラム等を格納している。これらのプログラムは、制御部114により実行される。
The
報知部112は、図示しないスピーカー、ランプ、振動子などを備え、制御部114からの制御により動作する。位置検出部113は、図示しないGPS(GlobalPositioning System)受信機などを備え、制御部114による携帯端末100の位置算出に使用される。
The
制御部114は、図示しないCPU、ROM、RAMなどを備える。CPUは、ROMやデータ保存部111に保存したプログラムをRAMに展開して実行する。
The
以下、第1の実施の形態の動作を説明する。
制御部114が実行する処理を、図3を参照し説明する。制御部114は、一定時間ごと(例えば1分ごと)に図3のフローチャートで示すプログラムを実行する。ただし前回の実行が完了していない場合には、完了するまで実行を待機する。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the first embodiment will be described.
The processing executed by the
ステップS201では、制御部114は、他者視線検出部103からユーザを見ている視線についての情報(視線なし、もしくは視線を有する顔の位置)を受け取り、ステップS202に進む。
In step S201, the
ステップS202では、制御部114は、視線の検出の有無を判断し、ユーザへの視線がある場合にはステップS203へ進み、ユーザへの視線がない場合はステップS208に進む。
In step S202, the
ステップS203では、制御部114は、映像表示部102をマーカーモードにセットし、他者視線検出部103が出力した顔の位置をマーカー位置として映像表示部102に指示してステップS204に進む。そのため、映像表示部102が通常モードに変更されるまでは、映像表示部102には、映像撮影部101が撮影したリアルタイムの映像に、制御部114が指定した位置に固定のマーカーを付したものが表示される。
In step S203, the
ステップS204では、制御部114は、ステップS201において視線を検出した者と通信をするために、通信部105の図示しない指向性アンテナを物理的および電気的に操作し、ステップS205へ進む。物理的には、指向性アンテナの強く電波を放射する方向を、ステップS201において視線を検出した者の方向へ向ける。電気的には、指向性アンテナと通信用半導体とを接続する。
In step S204, the
ステップS205では、制御部114は、通信部105を用いて通信を試み、その後にステップ206に進む。このとき通信部105は、一定時間ごとに送信または受信をランダムに切り替えて、ある期間が経過するまで通信を試みる。第1の実施の形態においては事前に通信相手と、通信方式や各種パラメータをそろえることはできるが、通信のタイミングおよび通信の方向(送信側/受信側)を決めることができないためである。ステップS205の詳細は図4を使用して後に説明する。
In step S205, the
ステップS206では、図4における通信の可否を判断し、通信が成立した場合はステップS207に進み、通信が失敗した場合は図3のフローチャートを終了する。 In step S206, it is determined whether or not the communication in FIG. 4 is possible. If the communication is established, the process proceeds to step S207. If the communication is unsuccessful, the flowchart in FIG. 3 ends.
ステップS207では、制御部114は、相手と連絡先や写真の交換、もしくは写真撮影の許可を与える。連絡先とは、電話番号、メールアドレス、SNS(SocialNetworking Service)アカウントなどである。これらの全ての情報を交換してもよいが、携帯端末100のユーザが予め一部だけを選択、もしくは連絡先を交換する際に入力部から選択してもよい。
In step S207, the
ステップS208では、ユーザの方向に向く視線が検出されなかったので、制御部114は、映像表示部102を通常モードにセットして図3のフローチャートを終了する。そのため、映像表示部102がマーカーモードに変更されるまでは、映像撮影部101で撮影したリアルタイムの映像が、そのまま映像表示部102に表示される。
In step S208, since the line of sight facing the user is not detected, the
図4は、図3のステップS205において実行する、通信の試行を説明するフローチャートである。このフローチャートで示すプログラムにより、制御部114は通信が成立するかを確認する。
FIG. 4 is a flowchart illustrating a trial of communication executed in step S205 of FIG. According to the program shown in this flowchart, the
ステップS301では、制御部114は、事前に決めていた通信パラメータ、応答待ち時間T、最大試行回数Nをデータ保存部111から読み込み、ステップS302に進む。通信パラメータとは例えば、赤外線通信(IrDA−InfraredData Association)の場合には通信速度やパリティビットなどである。
In step S301, the
ステップS302では、制御部114は、通信モードをランダムに決定してステップS303に進む。例えば、通信モードを送信にするのか受信にするのかをランダムに決定する。
In step S302, the
ステップS303では、制御部114は、ステップS301で読み込んだ通信パラメータを用いて時間Tの期間通信を試み、ステップS304に進む。なお、通信が成立することを確かめることが目的であるため、電文内容は特に問わない。
In step S303, the
ステップS304では、制御部114は、ステップS303での通信(送信または受信)が成功したか否かを判断する。通信が成立した場合には「通信が成立した」として図4のフローチャートを終了して図3のステップS206に戻り、通信が失敗した場合にはステップS305に進む。
In step S304, the
ステップS305では、制御部114は、通信の試行回数が最大試行回数Nを超過しているかを判断する。超過している場合は「通信が失敗した」として図4のフローチャートを終了して図3のステップS206に戻り、超過していない場合は、ステップS302に戻り、通信の試行を続ける。
In step S305, the
なお、応答待ち時間Tおよび最大試行回数Nは、使用する通信規格の接続確立時間、および携帯端末100の使用環境における人の流動性の高さにより調整する。応答待ち時間Tは、通信する2台の携帯端末100の周期ずれを考慮すると、使用する通信規格の接続確立時間の約2倍が望ましい。
Note that the response waiting time T and the maximum number of trials N are adjusted based on the connection establishment time of the communication standard to be used and the level of mobility of a person in the usage environment of the
次に、携帯端末100を所持する者同士の通信の例を図3および図5を参照して説明する。
図5は甲の所持する携帯端末100aと丁の所持する携帯端末100bとの通信が始まるまでの過程を示している。図5の左側が携帯端末100aもしくは甲の動作を、図5の右側が携帯端末100bもしくは丁の動作を表す。また、図の上から下に向かって時間が流れており、図中の電気(雷)マークは通信用の電波発信を開始したことを、目のマークは甲または乙が相手の目を見はじめたことを示す。
Next, an example of communication between persons having the
FIG. 5 shows a process until communication between the
時刻t1において、甲の携帯端末100aの制御部114は、甲への他者視線検出を試みたが(図3のステップS201)視線を検出できなかったので映像表示部102を通常モード(図3のステップS208)とした。そのため、携帯端末100aの映像表示部102には、映像撮影部101が撮影したままの映像(図2b)が表示されている。
At time t1, the
時刻t2において、丁が甲を見はじめたが、携帯端末100aの他者視線検出のタイミングではなかったため、携帯端末100aの映像表示部102に変化はない。
At time t2, the Ding begins to look at the instep, but since it is not the timing of detecting the other person's line of sight of the
時刻t3において、携帯端末100aの制御部114は、再び他者視線検出を行い(図3のステップS201)、丁の視線を検出した。そのため、携帯端末100aの制御部114は、映像内での乙の位置を特定し、映像表示部102に対してマーカーモードに変更すること、およびマーカーを表示すべき位置を指定した(図3のステップS203)。
At time t3, the
時刻t4において、先の処理に継続して、携帯端末100aの制御部114は、アンテナの向きを丁に向け(図3のステップS204)、丁に向けて通信を試行する(図3のステップS205)。しかし、このとき丁の携帯端末100bは、まだ通信を開始していないため通信は成立しない(図3のステップS206:NO)。
At time t4, following the previous process, the
すでに時刻t4において携帯端末100aの映像表示部102は、マーカーモードになっており、図2cに示すように、甲を見ている丁にマーカーMが付されている。しかし、甲は表示されたその瞬間には気づくことができなかった。
時刻t5において、甲は映像表示部102に表示されており、マーカーが付された丁に気付き、丁を見た。
At time t4, the
At time t5, the instep is displayed on the
時刻t6において、丁の携帯端末100bの制御部114は、他者視線検出(図3のステップS201)により甲の視線を検出したので(図3のステップS202:YES)、甲の位置を特定して映像表示部102のモードを変更した。さらに、甲に指向性アンテナを向けて(図3のステップS204)、時刻t7に甲の携帯端末100aとの通信試行(図3のステップS205)を開始した。
At time t6, since the
このとき、携帯端末100aの制御部114は、丁の視線を検出し続けているため、携帯端末100bに向けた通信の試行を継続しており、時刻t7において通信が成立する(図3のステップ206:YES)。したがって、このあと甲と丁でデータ交換(図3のステップ207)を行う。
At this time, since the
この第1の実施の形態によれば、携帯端末100は、周囲の被写体を撮影する映像撮影部101と、映像撮影部101で撮影した映像を表示する映像表示部102と、映像撮影部101で撮影した映像から視線を検出する他者視線検出部103と、指向性の通信が可能な通信部105とを備え、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、通信部105が通信を開始するので、携帯端末100を装着しており視線が合った者同士で通信をすることができる。
According to the first embodiment, the
また、携帯端末100は、映像撮影部101により撮影した映像から他者視線検出部103により特定の方向への視線を検出した際に、その特定の方向への視線の始点を示すマーカーを映像表示部102に表示するため、携帯端末100の所持者は自分へ視線を注いでいる者の存在をいち早く知ることができる。また、撮影映像にマーカーを重ねて表示しているため、携帯端末100の所持者は、自分へ視線を向けている者を容易に判断できる。
In addition, when the other person's line of
(変形例1)
第1の実施の形態では、通信の試行(図4のステップS303)において、電文内容を特に問わなかったが、通信の暗号化に必要な情報の送受信をして、後の通信(図3のステップS207)では暗号化された通信を行ってもよい。例えば、無線LANのSSID(Service Set Identifier)および暗号化キー(パスワード)を送受信する。そして、後の通信においては無指向性アンテナを用い、上記SSIDおよび暗号化キーを用いて通信してもよい。
この変形例1によれば、通信先の装置を限定したままで、安定した高速な通信を行うことができる。指向性アンテナは、通信先の装置を限定するために用いたが、携帯端末100の位置や姿勢の変化、通信先の端末の位置や姿勢の変化により通信速度が低下することや通信が切断される恐れがある。そこで、無指向性アンテナを用いながらも暗号化された通信に必要な情報を送受信することで、通信先を限定したままで安定した通信を行うことができる。
(Modification 1)
In the first embodiment, in the trial of communication (step S303 in FIG. 4), the content of the message is not particularly limited. However, information necessary for encrypting the communication is transmitted and received, and the subsequent communication (FIG. 3 in FIG. 3) is performed. In step S207), encrypted communication may be performed. For example, a wireless LAN SSID (Service Set Identifier) and an encryption key (password) are transmitted and received. Then, in the subsequent communication, an omnidirectional antenna may be used, and communication may be performed using the SSID and the encryption key.
According to the first modification, stable high-speed communication can be performed while limiting the communication destination device. Although the directional antenna is used to limit the communication destination device, the communication speed is reduced or the communication is disconnected due to a change in the position or orientation of the
(変形例2)
映像撮影部101は、全周囲を撮影できるカメラとしてもよい。例えば携帯端末100をメガネ型として、メガネの前面、左右のテンプルに小型カメラを埋め込み、水平360度を撮影できるカメラとしてもよい。
この変形例2によれば、ユーザの視界外から視線を受けていても、ユーザはその視線に気づくことができる。他者視線検出部103が視線を検出すると、ユーザへ視線を送っている者にマーカーを付して、映像表示部102に表示するからである。
(Modification 2)
The
According to the second modification, even if the user receives a line of sight from outside the field of view of the user, the user can notice the line of sight. This is because, when the other person's line of
(変形例3)
ユーザが図3のステップS207に示すデータ交換に成功した後で、新たに人物データベースを構築して、得られた情報を保存してもよい。また、年齢および性別を性別・年代推定部110により判定し、その出力をあわせて保存してもよい。さらに、通信部105が図3のステップS205に示す通信を開始した際に位置検出部113により位置を検出し、映像撮影部101がユーザへ視線を送っている者を撮影した映像、もしくはその映像から切り出した画像とともに保存してもよい。
この変形例3によれば、データ交換をした相手の写真とデータがあわせて保存されるため、その人物を思い出しやすいという利点がある。さらに多少離れた位置から相手を撮影することにより、全身を撮影できるため、服装や持ち物も同時に記録されることとなり、その人物について思い出すきっかけを多く得ることができる。
(Modification 3)
After the user succeeds in the data exchange shown in step S207 in FIG. 3, a new person database may be constructed and the obtained information may be stored. Further, the age and gender may be determined by the gender /
According to the third modification, since the photograph and the data of the data exchange partner are stored together, there is an advantage that the person can be easily remembered. Furthermore, by photographing the other party from a slightly distant position, the whole body can be photographed, so that clothes and belongings are also recorded at the same time, and it is possible to obtain many opportunities to remember the person.
(変形例4)
携帯端末100の形状はメガネのように頭に固定できる端末に限定されず、肩や胸に固定する端末や、板状や折り畳み形状の手で保持する端末でもよい。この場合は、映像撮影部101のカメラの位置と携帯端末100の所持者の目の位置が一致しないので、両者の位置関係を予めユーザが携帯端末100に入力し、他者視線検出部103が検出すべき視線の方向を補正する。
また、手で保持する端末の場合は、使用時にユーザの顔の前に保持することにより、第1の実施形態における携帯端末100と同じ働きをさせることができる。
変形例4によれば、多彩な端末を使用することができる。
(Modification 4)
The shape of the
In the case of a terminal held by hand, the same function as the
According to the fourth modification, various terminals can be used.
(変形例5)
第1の実施の形態では、映像表示部102がマーカーモードにセットされると、映像表示部102は制御部114から指定された位置、すなわち制御部114が視線を検出した位置にマーカーMを付して映像が表示を表示したが、マーカーモードにおける映像表示部102の表示はこれに限定されない。以下のようにして、図6に示すように、制御部114が視線を検出した者の心拍数を模式化したものをマーカーMに併記してもよい。
心拍により顔の血液が増加すると顔表面の光吸収量が増加し、顔の血液が減少すると顔表面の光吸収量が減少することを利用する。他者視線検出部103が視線を検出した位置の周囲、すなわちユーザへの視線を有する者の顔を対象として、映像撮影部101により撮影され映像を解析し、制御部114が顔の光の吸収量の増加と減少のサイクル数をカウントすることにより、ユーザへの視線を有する者の心拍数を測定できる。そして、制御部114が心拍数の多さを5段階評価し、心拍数が多いほど多くのハートマークをマーカーMに併記するように映像表示部102に出力する。
(Modification 5)
In the first embodiment, when the
This is based on the fact that the light absorption on the face surface increases when the blood on the face increases due to the heartbeat, and decreases when the blood on the face decreases. The surroundings of the position where the other person's line of sight has detected the line of sight, that is, the face of the person having the line of sight to the user, are analyzed by the
(変形例6)
第1の実施の形態では、通信が成立すると(図3のステップS206:YES)ユーザが入力部106への入力により送信する連絡先情報を選択していたが、選択方法は入力部106からの選択に限定されない。通信が成立すると制御部11が図7に示すインタフェース900を映像表示部102に表示させる位置を指定して映像表示部102に表示させ、ユーザによる目の動作により送信項目および写真撮影可否を選択してもよい。
(Modification 6)
In the first embodiment, when the communication is established (step S206 in FIG. 3: YES), the user has selected the contact information to be transmitted by inputting to the
インタフェース900には、写真撮影を行うか否かの選択を行うフィールド、およびユーザに関する情報の送信を行うか否かの選択を行うフィールド、および決定ボタンが設けられている。ユーザに関する情報は、たとえばニックネーム、メールアドレス、電話番号、SNSアカウント、本名、などがある。写真撮影を行う場合は、マーカーMを含む映像表示部102に表示されている画像、もしくはマーカーが付されている人物のみの画像が、データ保存部111に保存される。図7に示すインタフェース900では鉤括弧が選択状態を表しており、現在の設定は写真撮影を行い、ニックネームの送信は行うが、メールアドレス、電話番号、SNSアカウント、および本名は送信しないことを表している。初期状態では全てNOが選択されており、写真撮影も、いずれのデータの送信も行わない設定になっている。
The
ユーザによる目の動作は、たとえば、ウインクと注視がある。ウインクは、意図的に目を短い時間閉じる行為であり、生理的な現象であるまばたきに比べて目が閉じられている時間が長い。注視は、映像表示部102へ表示された図7に示すインタフェース900への、ユーザの注視である。変形例6において携帯端末100は、図8に示すように自己ウインク検出部121と表示注視検出部122とをさらに備える。
Eye movements by the user include, for example, wink and gaze. Winking is an act of intentionally closing the eyes for a short time, and the time during which the eyes are closed is longer than blinking, which is a physiological phenomenon. The gaze is a gaze of the user on the
ウインクを検出する自己ウインク検出部121は、左右の目に対応する2つの反射型フォトインタラプタを備え、ウインクを検出すると左右どちらの目かの情報とともに制御部114にウインクの検出を出力する。反射型フォトインタラプタは、赤外線を照射し、物体により反射された赤外線を受光する。眼球と皮膚では赤外線の反射率が異なるため、反射型フォトインタラプタが照射する赤外線を常時目に当てて赤外線の受光量を監視することで、目を閉じていた時間を計測することができる。目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして認識することができる。
The self
制御部114は、たとえば左目のウインクが自己ウインク検出部121から出力されるとカーソルCを一段下に移動させ、右目のウインクが出力されると選択子のトグル動作を行う。左目のウインクによりカーソルCが「決定」に移動された状態において、右目のウインクが出力されると、制御部114は選択した項目の送信、および選択にしたがった写真撮影が行われる。すなわち、図7に示すようにカーソルCがニックネームの欄にある場合に、自己ウインク検出部121から制御部114に左目のウインク検出が出力されると、カーソルCはメールアドレスの欄に移動する。また、図7に示す状態において自己ウインク検出部121から制御部114に右目のウインク検出が出力されると、ニックネーム欄においてNOが選択される。図7に示す状態において、「決定」にカーソルCをあわせられている状態において右目のウインクが出力されると、写真撮影およびニックネームの送信が行われる。なお、片目のウインクのみを検出し、ウインクを検出した時間の間隔により2種類のウインクを判別してもよい。
For example, the
注視を検出する表示注視検出部122は、自己視線検出部104が出力するユーザの視線の方向、および映像表示部102にインタフェース900を表示させた位置を制御部114から取得する。そして、ユーザの視線が所定の時間、たとえば2秒間動かなかった場合にユーザが何かに注視していると判断して、ユーザの注視している対象をユーザの視線の方向および映像表示部102にインタフェース900を表示させた位置から判別し、制御部114に出力する。制御部114は、表示注視検出部122からユーザが注視した対象が出力されると、注視対象が選択項目であれば注視対象を選択状態にし、注視対象が「決定」であれば選択した項目の送信、および選択にしたがった写真撮影を行う。すなわち図7に示す状態において、ユーザが電話番号の欄のYESを注視したこと、およびその後に「決定」を注視したことを表示注視検出部122が検出すると、制御部114は表示注視検出部122の出力を受けて、写真撮影およびニックネームと電話番号の送信を行う。
The display
以上説明した変形例6によれば、以下の作用効果を奏する。
(1)撮影した映像を記録するデータ保存部111と、携帯端末100のユーザが注視している映像表示部102の位置を検出する表示注視検出部122と、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に、ユーザに関する情報の送信の有無および/または写真撮影の有無を選択するインタフェース900を映像表示部102に出力する制御部114と、を備える。制御部114は、ユーザによるインタフェース900における選択を表示注視検出部122により検出する。そして、ユーザの選択に基づいて、映像撮影部101により特定の方向への視線を有する者を撮影してデータ保存部111に記録、および/またはユーザが選択したユーザに関する情報を通信部105により送信する。
According to the sixth modification described above, the following operation and effect can be obtained.
(1) The
そのため、ユーザは注視するだけで写真撮影の有無や送信項目を選択することができ、操作が簡便である。また、両手に荷物を持っている場合や電車で吊革につかまっている場合など、手を使用できない場合にも操作をすることができる。 Therefore, the user can select whether or not to take a picture and select a transmission item only by watching, and the operation is simple. In addition, the operation can be performed even when the hand cannot be used, such as when holding a baggage in both hands or holding on a hanging strap on a train.
(2)撮影した映像を記録するデータ保存部111と、ユーザのウインク動作を検出する自己ウインク検出部121と、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に、ユーザに関する情報の送信の有無および/または写真撮影の有無を選択するインタフェース900を映像表示部102に出力する制御部114と、をさらに備える。制御部114は、ユーザによるインタフェース900における選択を自己ウインク検出部121により検出する。そして、ユーザの選択に基づいて、映像撮影部101により特定の方向への視線を有する者を撮影してデータ保存部111に記録、および/またはユーザが選択したユーザに関する情報を通信部105により送信する。
(2) A
そのため、ユーザはウインクをするだけで写真撮影の有無や送信項目を選択することができ、操作が簡便である。また、ウインク動作は素早い動作が可能なため、操作が短時間で済む利点がある。 Therefore, the user can select whether or not to take a picture or to select a transmission item simply by winking, and the operation is simple. In addition, since the wink operation can be performed quickly, there is an advantage that the operation can be performed in a short time.
なお、ウインクの検出に自己視線検出部104の備える赤外線カメラを利用し、赤外線カメラが得た画像からユーザの黒目を認識できない場合にユーザが目を閉じていると判断し、ウインクを検出してもよい。
なお、送信項目および写真撮影可否の選択は、ウインクと注視を併用してもよいし、いずれか片方のみを使用してもよい。インタフェース900に表示する項目は、送信の可否を選択する送信項目と写真撮影の可否を選択する項目の少なくとも1つを含む。
It should be noted that the wink is detected by using an infrared camera provided in the self-line-of-
Note that the selection of the transmission item and the availability of photographing may be performed using both wink and gaze, or only one of them may be used. The items displayed on the
(変形例7)
第1の実施の形態では、ユーザへ視線を送っている者へ送信するのはユーザに関する情報であったが(図3のステップS207)、送信する情報はこれに限定されない。たとえば、ユーザへ視線を送っている者へメッセージを送信してもよい。また、ユーザへ視線を送っている者からその者に関する情報のほかにメッセージが送信された場合は、その両方を受信してもよい。
(Modification 7)
In the first embodiment, information about the user is transmitted to the person sending the line of sight to the user (step S207 in FIG. 3), but the information to be transmitted is not limited to this. For example, a message may be sent to a person who is looking at the user. Further, when a message is transmitted in addition to information on the person sending the line of sight to the user, both of them may be received.
図3のステップS207において、送信する情報を入力部から選択する際に、メッセージの作成および送信を選択肢の1つとして設ける。ユーザによりメッセージの作成および送信が選択され、入力部からの文字入力、または不図示のマイクによる音声入力が行われると、制御部114はこれをメッセージとして送信する。
この変形例7によると、以下の作用効果を奏する。
In step S207 in FIG. 3, when information to be transmitted is selected from the input unit, message creation and transmission are provided as one of the options. When creation and transmission of a message are selected by the user and character input from the input unit or voice input by a microphone (not shown) is performed, the
According to the seventh modification, the following operation and effect can be obtained.
(1)他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を検出した際に通信部105により開始される通信には、音声または文字によるメッセージの送信または/および受信を含む。
そのため、ユーザはユーザに関する情報の授受だけでなく即座にメッセージの送受信により意思疎通を図ることができ、即時性が求められるコミュニケーションにおいて有用である。また、入手したユーザの情報、たとえば携帯電話のメールアドレスを使用してメッセージを送信することもできるが、通信回線の混雑などにより相手が即座には受信できないこともあるため、変形例7によれば他の通信手段の障害に影響されることなくメッセージを伝達できる利点がある。さらに、メールアドレスなどユーザに関する情報を互いに一切知らせることなくメッセージを伝達できる利点がある。
(1) The communication started by the
For this reason, the user can communicate not only by transmitting and receiving information about the user but also by immediately transmitting and receiving a message, which is useful in communication requiring immediacy. Although the message can be transmitted using the obtained user information, for example, the mail address of the mobile phone, the other party may not be able to receive the message immediately due to the congestion of the communication line. For example, there is an advantage that a message can be transmitted without being affected by a failure of another communication means. Further, there is an advantage that the message can be transmitted without informing the user of information such as an e-mail address at all.
(第2の実施の形態)
以下、図9を参照して本発明の第2の実施の形態を説明する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIG.
第2の実施の形態における構成は、第1の実施の形態における構成とほぼ同一で、携帯端末100のブロック図は第1の実施の形態で説明した図1と同一である。ただし、データ保存部111に保存されているプログラムが異なる。また、データ保存部111には、ユーザが入力する、好みの性別および年代も保存されている。
The configuration in the second embodiment is almost the same as the configuration in the first embodiment, and the block diagram of the
以下、第2の実施の形態の動作を説明する。
図9のフローチャートに示すプログラムは、第1の実施の形態における図3のフローチャートに示すプログラムに代わって、第2の実施の形態において制御部114が実行する。第1の実施の形態の図3の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。すなわち、第2の実施の形態では、第1の実施の形態のステップS202の後にステップS401とステップS402が追加された点のみが異なる。
Hereinafter, the operation of the second embodiment will be described.
The program shown in the flowchart of FIG. 9 is executed by the
ステップS401では、制御部114は、ステップS201で他者視線検出部103に視線を検出された者の顔画像を、性別・年代推定部110に入力して性別と年代を推定し、ステップS402に進む。
In step S401, the
ステップS402では、制御部114は、ステップS401で推定した性別および年代が、データ保存部111に保存している、好みの性別および年代と一致するかを判断する。性別と年代の両方が一致する場合はステップS203に進み、いずれか一方でも一致しなければステップS208に進む。
In step S402, the
この第2の実施の形態によれば、携帯端末100は、ユーザが好みの性別と年代とを入力する入力部106と、映像撮影部101により撮影した映像から性別および年代を推定する性別・年代推定部110とを更に備え、他者視線検出部103が映像撮影部101で撮影した映像から特定の方向への視線を検出した際に、性別・年代推定部110がその視線を有する者の性別および年代を推定し、それらが入力した性別および年代と一致した場合に通信部105が通信を開始することを特徴とする。
According to the second embodiment, the
そのため、ユーザが好む性別・年代以外の人からの視線を検出しても、携帯端末100はあたかも視線を検出しなかったかのように振舞う。すなわち、通信を開始しないだけでなく、映像表示部102にマーカーも表示しないので、ユーザは不要な情報を目にすることがなくなる。
Therefore, even if the user detects a line of sight from a person other than the gender and age preferred by the user, the
(第3の実施の形態)
以下、図10〜図11を参照して、本発明の第3の実施の形態を説明する。
(Third embodiment)
Hereinafter, a third embodiment of the present invention will be described with reference to FIGS.
第3の実施の形態における構成は、第1の実施の形態における構成とほぼ同一で、携帯端末100のブロック図は第1の実施の形態で説明した図1と同一である。ただし、データ保存部111に保存されているプログラムは異なる。また、顔特徴データベース108には、ユーザが注視した顔の特徴量を保存する顔特徴データベース108Pと、ユーザが注視しなかった顔の特徴量を保存する顔特徴データベース108Nを含む。
The configuration in the third embodiment is almost the same as the configuration in the first embodiment, and the block diagram of the
以下、第3の実施の形態の動作を説明する。
図10は、制御部114が実行するプログラムの処理を示すフローチャートである。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the third embodiment will be described.
FIG. 10 is a flowchart illustrating processing of a program executed by the
制御部114は、一定時間ごと(例えば1分ごと)に図10のフローチャートを実行して、ユーザの注視の有無によりユーザの好む顔のタイプであるかを判断し、ユーザの好む顔のタイプの顔特徴データベース108Pと、そうではないタイプの顔特徴データベース108Nを構築する。
The
ステップS501では、制御部114は、ある長さの時間にわたって、繰り返し自己視線検出部104によりユーザの視線を検出して、ステップS502に進む。例えば、図10のフローチャートを1分ごとに実行する場合は、50秒間視線を検出する。このとき、視線を検出するのは片目だけでもよいが、ステップS502においてユーザが注視していた対象を精度よく特定するために両目が望ましい。
In step S501, the
ステップS502では、制御部114は、映像撮影部101が撮影した映像とユーザの視線が一定時間固定されていた位置の情報を組み合わせて、ユーザが注視していた対象を特定し、ステップS503に進む。
In step S502, the
ステップS503では、制御部114は、ユーザが注視していた対象が人か否かを判断する。例えばエッジ検出やパターン検出などの手法により、ユーザが注視していた対象が人の顔であると推定できた場合は、ユーザが注視していた対象が人であると判断できる。注視していた対象が人の場合はステップS504に、注視していた対象が人でない場合はステップS506に進む。
In step S503, the
ステップS504では、制御部114は、ユーザが注視していた人の顔の特徴量を顔特徴量算出部107により算出し、ステップS505に進む。ステップS505では、ステップS504で算出した特徴量を顔特徴データベース108Pに保存して、ステップS506に進む。
In step S504, the
ステップS506では、映像撮影部101で撮影した映像内に、ユーザが注視した人の他にも映像撮影部101へ顔を向けていた人がいたかを判断する。他にも顔を向けていた人がいた場合にはステップS507に進み、他に顔を向けていた人がいない場合は図10のフローチャートを終了する。
In step S <b> 506, it is determined whether there is a person who has turned his / her face to the
ステップS507では、ステップS504と同様に顔特徴量を算出し、ステップS508ではそれを顔特徴データベース108Nに保存して、図10のフローチャートを終了する。 In step S507, the face feature amount is calculated in the same manner as in step S504. In step S508, it is stored in the face feature database 108N, and the flowchart in FIG. 10 ends.
図11のフローチャートに示すプログラムは、第1の実施の形態における図3のフローチャートに示すプログラムに代わって、第3の実施の形態において制御部114が実行する。第1の実施の形態の図3の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。すなわち、第3の実施の形態では、第1の実施の形態のステップS202の後にステップS601〜ステップS603が追加された点のみが異なる。
The program shown in the flowchart of FIG. 11 is executed by the
ステップS601では、制御部114は、ステップS201で他者視線検出部103に視線を検出された者の顔画像を顔特徴量算出部107に入力して顔特徴量を算出し、ステップS602に進む。ステップS602では、制御部114は、ステップS601で算出した特徴量が、顔特徴データベース108Pに保存されている特徴量と、顔特徴データベース108Nに保存されている特徴量の、どちらに近いかを判断する。この判断には、顔類似度判定部109を用いることができる。その判断の結果、顔特徴データベース108Pに近い場合はステップS603に、顔特徴データベース108Nに近い場合はステップS208に進む。ステップS603では、制御部114は、報知部112を始動して音や振動によりユーザに過去に注視した人と似ている人の存在を知らせて、ステップS203に進む。
In step S601, the
この第3の実施の形態によれば、携帯端末100は、携帯端末100を使用する者に報知する報知部112と、映像撮影部101が撮影した者の顔特徴量を算出する顔特徴量算出部107と、顔の特徴を蓄積する顔特徴データベース108と、顔の類似度を判定する顔類似度判定部109とを更に備え、映像撮影部101が撮影した者のうち、注視対象検出処理(図10のステップS501およびS502)により検出した者の顔の特徴を顔特徴データベース108に保存し、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、顔類似度判定部109がその視線を有する者はデータベースに保存した顔と類似すると判定する場合は(図11のステップS602:YES)、報知部112が当該端末の使用者に報知することを特徴とする。
そのため、注視することによりユーザの好みの顔がデータベースとして構築され、その視線を検出した際にはアラームや振動により報知されるので、ユーザは好みの顔を見逃すことがなく、連絡先を交換することができる。
According to the third embodiment, the
Therefore, the user's favorite face is constructed as a database by gazing, and when the gaze is detected, the user is notified by an alarm or vibration, so that the user does not miss the favorite face and exchanges contact information. be able to.
(変形例8)
第1〜第3のいずれの実施の形態においても、他者視線検出部103が視線を検出するとユーザの明示の行動がなく通信を開始していたが、通信部105は、他者視線検出部103が映像撮影部101により撮影した映像から特定の方向への視線を検出した際に、自己視線検出部104がその特定の方向への視線を有する者への視線を検出し、一定時間視線が固定されていると通信を開始するようにしてもよい。
この変形例8によれば、ユーザが注視しなければ通信が開始されないので、意図しない相手との通信を避けることができる。
(Modification 8)
In any of the first to third embodiments, when the other person's line of
According to the eighth modification, since communication is not started unless the user gazes, communication with an unintended partner can be avoided.
(変形例9)
第1〜第3のいずれの実施の形態においても、他者視線検出部103がユーザへの視線を1回でも検出すると、ユーザへの視線を有する者との通信を開始していたが、通信の開始条件はこれに限定されない。所定回数の視線の検出、瞳孔の拡大、ウインクのそれぞれ、もしくはこれらの組合せで通信を開始する条件としてもよい。さらに、携帯端末100のユーザによる、ユーザへの視線を有する者への視線の検出、瞳孔の拡大、ウインクのそれぞれ、もしくはこれらの組合せがあることを条件として通信を開始してもよい。これは、興味を持った対象を何度も見る、好意を持った相手にウインクをすることがある、興味を持った対象を見る際には瞳孔が拡大する、という人間の習性を利用するものである。
(Modification 9)
In any of the first to third embodiments, when the other person's line of
図12は、変形例9における携帯端末100の構成を示すブロック図である。第1の実施の形態における図1に示した携帯端末100の構成に加えて、自己ウインク検出部121と、他者ウインク検出部123と、自己瞳孔測定部124と、他者瞳孔測定部125とをさらに備える。他の構成は第1の実施の形態と同様なので説明を省略する。
FIG. 12 is a block diagram illustrating a configuration of the
携帯端末100のユーザのウインクを検出する自己ウインク検出部121は、左右の目に対応する2つの反射型フォトインタラプタを備え、ウインクを検出すると左右どちらの目かの情報とともに制御部114にウインクの検出を出力する。反射型フォトインタラプタは、赤外線を照射し、物体により反射された赤外線を受光する。眼球と皮膚では赤外線の反射率が異なるため、反射型フォトインタラプタが照射する赤外線を常時目に当てて赤外線の受光量を監視することで、目を閉じていた時間を計測することができる。目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして検出することができる。
The self
ユーザへの視線を有する者のウインクを検出する他者ウインク検出部123は、映像撮影部101から映像を取得し、ユーザへの視線を有する者を特定し、その者の目の動きを監視する。目の瞳の色と肌の色は異なるので、目を閉じている状態と目を開いている状態は色により判別することができる。そして、目を閉じていた時間が所定の時間、たとえば0.2秒から1.0秒の場合をウインクとして検出することができる。
The other person
携帯端末100のユーザの瞳孔の大きさを測定する自己瞳孔測定部124は、不図示のカメラを備え、ユーザの目を撮影して瞳孔の大きさを制御部114に出力する。瞳孔は黒色であり、瞳孔の周囲には瞳孔を中心とした放射状の直線模様を有する円形の虹彩を有する。そのため、撮影された目の画像から、2つの同心円であって、内側の円の内部が黒く塗りつぶされており、外側の円には放射状の直線模様を有する形状を探索し、その内側の円を瞳孔と判断できる。そして、その瞳孔の大きさを撮影された画像の画素数で制御部114に出力する。なお変形例9では、相対的な大きさの変化を検出するために瞳孔の大きさを測定しているので、物理的な大きさの情報は必要としない。
The self-
ユーザへの視線を有する者の瞳孔の大きさを測定する他者瞳孔測定部125は、不図示のカメラ、電動ズームレンズ、および電動雲台を備え、ユーザへの視線を有する者の目を撮影して瞳孔の大きさを制御部114に出力する。他者瞳孔測定部125は、映像撮影部101から映像を取得してユーザへの視線を有する者を特定し、その者の目ができるだけ大きく撮影されるように電動ズームレンズおよび電動雲台を制御し、ユーザへの視線を有する者の目を撮影する。瞳孔の検出方法は自己瞳孔測定部124と同様である。
The other person's
第1〜第3の実施の形態において図3、図9、および図11のステップS202は、他者視線検出部103によるユーザへの視線の有無を判断したが、以下のA〜Cのいずれかの条件、またはA〜Cを組み合わせた条件を満たすか否かを判断してもよい。
A)他者視線検出部103がユーザへの視線を所定の時間内に所定の回数以上検出すること。たとえば、ユーザへの視線を1分間に3回以上検出すること。ただし、ユーザへ視線を送り続けている場合は一定時間、たとえば10秒間ごとに1回と換算する。また、所定の時間とは1回目に視線を検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
In the first to third embodiments, step S202 in FIGS. 3, 9, and 11 determines presence / absence of a line of sight to the user by the other person's line of
A) The other person's line of
B)他者ウインク検出部123がユーザへの視線を有する者のウインク動作を所定の時間内に所定の回数以上検出すること。たとえば1分間に2回以上検出すること。ただし、所定の時間とは1回目にウインクを検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
B) The other person's
C)他者瞳孔測定部125がユーザへの視線を有する者の瞳孔の直径を一定時間測定し、測定時間における最大径が最小径に対して所定の比率以上であること。たとえば1分間の測定における瞳孔の最大径が最小径の1.2倍以上であること。
すなわち、上記のAとBを組み合わせて、他者視線検出部103がユーザへの視線を1分間に2回以上検出し、さらに他者ウインク検出部123がユーザへの視線を有する者のウインク動作を1回以上検出するか否かを、図3、図9、および図11のステップS202の判断条件としてもよい。
C) The other person's
That is, by combining the above A and B, the other person's line of
さらに、図3、図9、および図11のステップS203の直前、または直後に以下のD〜Fのいずれかの条件、またはD〜Fを組み合わせた条件を満たすか否かを判断し、条件を満たすと判断した場合のみ処理を継続し、条件を満たさないと判断した場合はフローチャートを終了してもよい。 Further, immediately before or immediately after step S203 in FIGS. 3, 9, and 11, it is determined whether any of the following conditions D to F or a condition combining D to F is satisfied. The process may be continued only when it is determined that the condition is satisfied, and may be terminated when it is determined that the condition is not satisfied.
D)自己視線検出部104がユーザへの視線を有する者への注視を所定の時間内に所定の回数以上検出すること。たとえば、ユーザへの視線を有する者への注視を1分間に2回以上検出すること。ただし、注視を続けている場合は一定時間、たとえば10秒間ごとに1回と換算する。また、所定の時間とは1回目に視線を検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
D) The self-line-of-
E)自己視線検出部104がユーザへの視線を有する者への注視を検出した後の所定の時間内に、自己ウインク検出部121がユーザのウインク動作を所定の回数以上検出すること。たとえば1分間に2回以上検出すること。ただし、所定の時間とは1回目にウインクを検出してからの時間とし、所定の回数が1回ならば時間の制限は設けない。
F)自己視線検出部104がユーザへの視線を有する者への注視を検出した後の所定の時間内に、自己瞳孔測定部124がユーザの瞳孔の直径を一定時間測定し、測定時間における最大径が最小径に対して所定の比率以上であること。たとえば1分間の測定における瞳孔の最大径が最小径の1.2倍以上であること。
E) The self
F) The self-
すなわち、上記のDとEを組み合わせて、自己視線検出部104がユーザへの視線を有する者への注視を1分間に2回以上検出し、さらに自己ウインク検出部121がユーザのウインク動作を1回以上検出したと判断する場合に処理を継続してもよく、この条件を満たさないと判断する場合は図3、図9および図11のフローチャートを終了してもよい。
That is, by combining the above D and E, the self-
さらに、ステップS202における上記A〜Cの判断条件の置き換え、およびステップS203の直前または直後への上記D〜Fの判断の追加を組み合わせてもよい。
この変形例9によれば、以下の作用効果を奏する。
(1)通信部105は、他者視線検出部103が映像撮影部101により撮影した映像に基づいてユーザへの視線を第1の所定の期間内に第1の所定の回数以上検出した際に、自己視線検出部104がユーザへの視線を有する者への注視を第2の所定の期間内に第2の所定の回数以上検出すると、通信を開始する。
そのため、偶然視線があっただけでは通信が開始されず、興味を持って複数回視線を合わせた場合のみ通信が開始されるため、不要な通信を削減することができる。
Further, the replacement of the determination conditions of A to C in step S202 and the addition of the determination of D to F immediately before or immediately after step S203 may be combined.
According to the ninth modification, the following operation and effect can be obtained.
(1) When the
Therefore, the communication is not started only when the line of sight is accidentally detected, but is started only when the line of sight is adjusted a plurality of times with an interest, so that unnecessary communication can be reduced.
(2)携帯端末100は、携帯端末100のユーザのウインク動作を検出する自己ウインク検出部121と、映像撮影部101により撮影した映像からユーザへの視線を有する者のウインク動作を検出する他者ウインク検出部123と、をさらに備える。通信部105は、他者ウインク検出部123がウインク動作を検出し、かつ自己視線検出部104がユーザのウインク動作を検出すると、通信を開始する。
そのため、好意を明確に示す手段であるウインクを検出することにより、互いに興味を持っている場合のみ通信が開始されるため、好意が明確ではない相手との通信を回避することができる。
(2) The
Therefore, by detecting wink, which is a means of clearly indicating the favor, communication is started only when there is an interest in each other, and communication with a partner whose friendship is not clear can be avoided.
(3)通信部105は、第3の所定の期間内に他者ウインク検出部123がユーザへの視線を有する者のウインク動作を第3の所定の回数以上検出し、かつ自己視線検出部104がユーザへの視線を有する者への注視を検出した後の第4の所定の期間内に自己ウインク検出部121がユーザのウインク動作を第4の所定の回数以上検出すると、通信を開始する。
そのため、第3の所定の回数を多く設定することにより、より積極的にウインクにより行為を示す者とのみ通信を行うことができる。
(3) The
Therefore, by setting the third predetermined number of times to be large, it is possible to more positively communicate only with a person who shows an action by winking.
(第4の実施の形態)
以下、図13〜図16を参照して本発明の第4の実施の形態を説明する。
第4の実施の形態は、通信対象の探索をマッチングサーバが行う点が特徴である。
(Fourth embodiment)
Hereinafter, a fourth embodiment of the present invention will be described with reference to FIGS.
The fourth embodiment is characterized in that a matching server searches for a communication target.
第4の実施の形態における構成を図13に示す。
図13に示す通信システムは、複数の携帯端末100と、マッチングサーバ200により構成され、それらは互いにIP(Internet Protocol)網により接続されている。以下の説明では、複数存在する携帯端末100を区別する必要がある場合は、末尾にa、bを付加して100a、100bと表現して区別する。
FIG. 13 shows a configuration according to the fourth embodiment.
The communication system illustrated in FIG. 13 includes a plurality of
携帯端末100の構成は第1の実施の形態で説明した図1と以下の4点以外は同一である。1点目に、位置検出部113が方位計を更に備えている。2点目に、データ保存部111に保存されているプログラムが異なる。3点目に、通信部105は、無指向性通信ができればよいので、指向性アンテナおよびアンテナ可動装置はなくてもよい。4点目に、データ保存部111は、携帯端末100の固有識別情報をさらに保存している。
携帯端末100は、定常的に位置情報として、携帯端末100の位置およびその携帯端末100の固有識別情報、の2つをマッチングサーバ200に送信している。また、携帯端末100は、ユーザが注視している対象を特定すると、携帯端末100の位置、携帯端末100の向いている方向、注視していた時刻、携帯端末100の固有識別情報、そして注視対象者の撮影画像、の5つを注視情報としてマッチングサーバ200に送信する。
The configuration of the
The
以下、マッチングサーバ200の構成を説明する。
通信部201は、携帯端末100との通信に使用される。位置データベース202には、携帯端末100から送信される前述の位置情報、すなわち携帯端末100の位置およびその携帯端末100の固有識別情報が記録される。
Hereinafter, the configuration of the matching
The
注視対象探索部203は、携帯端末100aから送信された前述の注視情報および位置データベース202をもとに、その携帯端末100aのユーザが注視している他の携帯端末100bを探索する。例えば、注視対象者が携帯端末100bを保持していると仮定すれば、以下の手順により携帯端末100bを保持している注視対象者を発見することができる。
The gaze
まず注視情報に含まれる携帯端末100aの位置および向いていた方角から、携帯端末100bを探索する始点および方向を決定する。そして、注視情報に含まれる注視対象者の撮影画像の大きさ(例えば、全身が何ピクセルで表されているか)から、携帯端末100aと携帯端末100bの距離Lを推定する。さらに、注視情報に含まれる注視していた時刻と位置データベース202に保存されている全ての携帯端末100の位置を参照すれば、該当する携帯端末100bを発見できる。
例えば、携帯端末100aから送信された前述の注視情報および位置データベース202を可視化すると図14のようになる。全ての携帯端末100の位置は位置データベース202から明らかであり、注視している者の所持する携帯端末100aの位置、携帯端末100aの向いている方向、携帯端末100aから携帯端末100bまでの距離Lが既知なので、図14に示すとおり携帯端末100bを発見できる。
そして、探索の結果注視対象の携帯端末100bが見つかった場合には、マッチングデータベース204に、注視していた者の所持する携帯端末100aの固有識別情報(以下、注視端末情報)、注視対象者の所持する携帯端末100bの固有識別情報(以下、被注視端末情報)、注視していた時刻、の3つを書き込む。さらに、これら3つの情報を、注視対象の携帯端末100bに送信する。
First, a starting point and a direction for searching for the
For example, when the above-mentioned gaze information and the
When the mobile terminal 100b to be watched is found as a result of the search, the unique identification information (hereinafter, watched terminal information) of the
マッチング判定部205は、マッチングデータベースを検索し、固有識別情報を用いて相互に注視している携帯端末の組が有ることを判定したら、相互にネットワーク上の識別子、例えばIPアドレスを交換させて携帯端末100同士で通信をさせる。
制御部206は、図示しないCPU,ROM,RAMを備え、常に通信部201が受信するデータを監視し、そのデータが位置情報であれば位置データベース202に格納し、注視情報であれば注視対象探索部203を起動する。
The matching
The
以下、第4の実施の形態の動作を説明する。
図15のフローチャートに示すプログラムは、第4の実施の形態において携帯端末100の制御部114が実行する。第1の実施の形態の図3の処理、および第3の実施の形態の図10の処理と同じ内容のステップには同じステップ番号を付してその説明を省略する。以下の説明で特に明示しない場合は、各ステップの実行主体は制御部114のCPUである。
Hereinafter, the operation of the fourth embodiment will be described.
The program shown in the flowchart of FIG. 15 is executed by the
ステップS701では、位置検出部113で検出した携帯端末100の位置、および携帯端末100の固有識別情報をマッチングサーバ200に送信してステップS501に進む。この情報はマッチングサーバ200の位置データベース202に保存される。これに続くステップS501〜ステップS502においてユーザが注視している対象を特定し、続くステップS503ではその対象が人であった場合はステップS702に、それ以外の場合はステップS704に進む。
In step S701, the position of the
ステップS702では、ユーザが注視している状態における携帯端末100aが向いている方位を位置検出部113の方位計により検出し、ステップS703に進む。ステップS703では、前述の注視情報、すなわち携帯端末100aの位置、携帯端末100aの向いている方位、注視していた時刻、携帯端末100aの固有識別情報、そして注視対象者の撮影画像をマッチングサーバ200に送信する。
In step S702, the azimuth of the
続くステップS704では、前回のステップS704の実行以後に、マッチングサーバ200から視線を受けている旨の通知があったかを判断する。通知を受けていた場合はステップS203に、通知を受けていなかった場合はステップS208に進む。また、視線を受けている旨の通知には、視線を送っている者と通知を受けた者との相対位置関係を示す情報が含まれているため、制御部114は、その相対位置関係から映像撮影部101に表示される位置を推定し、その位置をマーカー位置として映像表示部102に指示する。
In a succeeding step S704, it is determined whether or not the matching
ステップS203またはステップS208のあとに実行するステップS705では、前回のステップS705の実行以後に、マッチングサーバ200から通信相手の情報を受信したかを判断する。その受信があった場合は受信した通信情報を用いてステップS207のデータ交換を行う。その受信がなかった場合は図15のフローチャートを終了する。
In step S705 executed after step S203 or step S208, it is determined whether or not communication partner information has been received from matching
次にマッチングサーバ200の注視対象探索部203の動作を説明する。図16は、注視対象探索部203が実行するプログラムの動作を表すフローチャートである。通信部201は常に携帯端末100からの通信を待ち受けているので、携帯端末100から注視情報を受信すると、図16のフローチャートで示すプログラムが制御部206により起動される。
Next, the operation of the gaze
ステップS801では、注視対象探索部203は、携帯端末100aから送信された前述の注視情報および位置データベース202をもとに、その携帯端末100aのユーザが注視している他の携帯端末100bを探索する。
In step S801, the gaze
続くステップS802では、ステップS801で該当する携帯端末100bを発見できたかを判断し、発見できた場合はステップS803に、発見できなかった場合は図16に示すフローチャートを終了する。
ステップS803では、注視対象探索部203は、発見した携帯端末100bに対して注視されていたこと、および注視していた者の使用している携帯端末100aの位置を通知し、ステップS804に進む。
In a succeeding step S802, it is determined whether or not the corresponding
In step S803, the gaze
ステップS804では、注視対象探索部203は、マッチングデータベース204に注視端末情報として100aを、被注視端末情報として100bを、そして注視していた時刻を保存して、図16に示すフローチャートを終了する。
In step S804, the gaze
最後に、マッチングサーバ200のマッチング判定部205の動作を説明する。マッチング判定部205は、マッチングデータベース204の書き込みを監視しており、何らかの書き込みがあるとマッチングデータベース204の全体を読み込む。そして、注視端末情報と被注視端末情報に記載の固有識別情報が入れ替わっている組合せ、すなわち双方向に注視している組合せを探索する。そのような組み合わせを発見すると、それらの携帯端末100のネットワーク上の識別情報(例えばIPアドレス)を双方の携帯端末100に伝える。
Finally, the operation of the matching
この第4の実施の形態によれば、マッチングサーバ200が注視対象者の携帯端末100を探索するので、携帯端末100は無指向性通信が行える装置を備えていればよく、指向性アンテナおよびアンテナ可動装置が不要になる。そのため、携帯端末100の製造コストおよび故障の割合が低減される。また、マッチングデータベース204に注視した情報を残すことができるので、両者が同時には注視せず、数秒違いで互いを注視した場合や異なる日に注視した場合にでも連絡先を交換をすることができる。
According to the fourth embodiment, since the matching
(変形例10)
第4の実施の形態では、マッチング判定部205は双方向に注視している組合せを発見すると、それらの携帯端末100に他方の携帯端末100のネットワーク上の識別情報を伝えて、それ以後は携帯端末100相互間で通信を行わせたが、この通信はマッチングサーバ200を介してもよい。
この変形例10によれば、互いのネットワーク上の識別情報を知ることがなく、さらに通信の記録をマッチングサーバ200に残すこともできるため、セキュリティ上優れているという利点がある。
(Modification 10)
In the fourth embodiment, when the matching
According to the tenth modification, since it is possible to leave the record of communication in the matching
100…携帯端末、101…映像撮影部、102…映像表示部、103…他者視線検出部、104…自己視線検出部、105…通信部、106…入力部、107…顔特徴量算出部、108…顔特徴データベース、109…顔類似度判定部、110…性別・年代推定部、111…データ保存部、112…報知部、113…位置検出部、114…制御部、121…自己ウインク検出部、122…表示注視検出部、123…他者ウインク検出部、124…自己瞳孔測定部、125…他者瞳孔測定部、200…マッチングサーバ、201…通信部、202…位置データベース、203…注視対象探索部、204…マッチングデータベース、205…マッチング判定部、206…制御部
Reference Signs List 100: portable terminal, 101: video photographing unit, 102: video display unit, 103: other person's line of sight detection unit, 104: self-line of sight detection unit, 105: communication unit, 106: input unit, 107: face feature amount calculation unit, 108: face feature database, 109: face similarity determination unit, 110: gender / age estimation unit, 111: data storage unit, 112: notification unit, 113: position detection unit, 114: control unit, 121: self wink detection unit , 122: display gaze detection unit, 123: wink detection unit of another person, 124: self-pupil measurement unit, 125: pupil measurement unit of another person, 200: matching server, 201: communication unit, 202: position database, 203: gaze target Searching unit, 204: matching database, 205: matching determining unit, 206: control unit
Claims (10)
前記撮影部で撮影した映像に基づいて特定の方向への視線を検出する視線検出部と、
前記視線検出部が前記視線を検出すると報知する報知部と、
前記撮影部が撮影した顔の特徴を算出する特徴量算出部と、
前記特徴量算出部によって算出した前記顔の特徴を記憶する記憶部とを備え、
前記報知部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶部に記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する携帯情報端末。 A shooting unit,
A gaze detection unit that detects a gaze in a specific direction based on an image captured by the imaging unit,
A notification unit that notifies that the line-of-sight detection unit detects the line-of-sight,
A feature amount calculation unit that calculates a feature of the face imaged by the imaging unit,
A storage unit that stores the features of the face calculated by the feature amount calculation unit,
The notifying unit detects a line of sight in the specific direction based on an image captured by the line of sight detecting unit by the image capturing unit, and when the person having the line of sight is similar to the feature stored in the storage unit, the mobile unit may perform mobile communication. A portable information terminal that notifies the user of the information terminal.
前記特定の方向とは、前記携帯情報端末の使用者の目への方向である携帯情報端末。 The mobile information terminal according to claim 1,
The portable information terminal is a direction toward the eyes of a user of the portable information terminal.
前記報知部は、前記特定の方向への視線を検出すると、前記特定の方向への視線の視点の位置を示す指標を表示する表示部を備える携帯情報端末。 The mobile information terminal according to claim 1 or 2,
A portable information terminal comprising: a display unit that, when detecting a line of sight in the specific direction, displays an index indicating a position of a viewpoint of the line of sight in the specific direction.
前記記憶部には、性別と年代とが記憶され、
前記視線検出部により前記特定の方向への視線が検出された場合に、前記撮影部で撮影した映像に基づいて、その視線を有する者の性別および年代を推定する性別年代推定部と、
前記性別年代推定部で推定した性別および年代が前記記憶部に記憶した性別および年代と一致するかを判定する判定部とを更に備え、
前記報知部は、前記判定部が前記撮影部により撮影した映像に基づく性別および年代が前記記憶部に記憶した性別および年代と一致すると判定された場合に報知する携帯情報端末。 The portable information terminal according to any one of claims 1 to 3 , wherein
The storage unit stores gender and age ,
When the line of sight in the specific direction is detected by the line of sight detection unit, based on an image captured by the image capturing unit, a gender age estimation unit that estimates the gender and age of the person having the line of sight,
A determination unit that determines whether the gender and age estimated by the gender age estimation unit match the gender and age stored in the storage unit ,
The portable information terminal that notifies , when the determination unit determines that the gender and age based on the video imaged by the imaging unit match the gender and age stored in the storage unit .
前記判定部が、前記撮影部により撮影した映像に基づく性別および年代が前記記憶部に記憶した性別および年代と一致すると判定した場合に通信を行う通信部を更に備える携帯情報端末。 The mobile information terminal according to claim 4, wherein
The determination unit further comprises a portable information terminal a communication unit that performs communication when sex and age based on the image captured is determined to be consistent with gender and age stored in the storage unit by the imaging unit.
前記携帯情報端末の使用者が注視する対象を検出する注視対象検出部と、
前記視線検出部が、前記撮影部により撮影した映像に基づいて前記特定の方向への視線を検出し、前記注視対象検出部が前記特定の方向への視線を有する者への注視を検出すると、通信を行う通信部とを更に備える携帯情報端末。 The portable information terminal according to any one of claims 1 to 4 ,
A gaze target detection unit that detects a target gazed by the user of the portable information terminal,
When the sight line detection unit, said detecting a line of sight to a specific direction based on the image taken by the imaging unit, the gaze target detection unit detects a gaze of the person having a line of sight of the specific direction, A portable information terminal further comprising a communication unit for performing communication.
前記通信部は、前記視線検出部が前記撮影部により撮影した映像に基づいて前記特定の方向への視線を第1の期間内に第1の回数以上検出し、前記注視対象検出部が検出した注視対象と前記視線検出部が検出した前記特定の方向への視線を有する者が同一である回数が第2の期間内に第2の回数を超えると、通信を行う携帯情報端末。 The portable information terminal according to claim 6, wherein
The communication unit detects the line of sight in the specific direction at least a first number of times within a first period based on an image captured by the line of sight detection unit by the imaging unit, and the gaze target detection unit detects the line of sight. A portable information terminal that performs communication when the number of times that a gaze target and a person having a line of sight in the specific direction detected by the line of sight detection unit are the same exceeds a second number within a second period.
前記携帯情報端末の使用者のウインク動作を検出する第1のウインク検出部と、
前記撮影部により撮影した映像から前記特定の方向への視線を有する者のウインク動作を検出する第2のウインク検出部と、を更に備え、
前記通信部は、前記第2のウインク検出部がウインク動作を検出し、かつ前記第1のウインク検出部がウインク動作を検出すると、通信を行う携帯情報端末。 The portable information terminal according to claim 6 or 7 ,
A first wink detection unit that detects a wink operation of a user of the portable information terminal;
A second wink detection unit that detects a wink operation of a person having a line of sight in the specific direction from the image captured by the imaging unit,
The portable information terminal, wherein the communication unit communicates when the second wink detection unit detects a wink operation and the first wink detection unit detects a wink operation.
前記通信部は、第3の期間内に前記第2のウインク検出部が前記特定の方向への視線を有する者のウインク動作を第3の回数以上検出し、かつ前記注視対象検出部が前記特定の方向への視線を有する者への注視を検出した後の第4の期間内に前記第1のウインク検出部が前記携帯情報端末の使用者のウインク動作を第4の回数以上検出すると、通信を行う携帯情報端末。 The portable information terminal according to claim 8 , wherein:
In the communication unit, the second wink detection unit detects a wink operation of a person having a line of sight in the specific direction at least a third number of times within a third period, and the gaze target detection unit detects the wink operation. When the first wink detection unit detects a wink operation of the user of the portable information terminal by a fourth number of times or more within a fourth period after detecting gaze at a person having a line of sight in the direction of Personal digital assistant to do.
前記撮影手順で撮影した映像に基づいて特定の方向への視線を検出する視線検出手順と、
前記視線検出手順で前記視線を検出すると報知する報知手順と、
前記撮影手順で撮影した顔の特徴を算出する特徴量算出手順と、
前記特徴量算出手順で算出した前記顔の特徴を記憶する記憶手順とを備え、
前記報知手順は、前記視線検出手順が前記撮影手順で撮影した映像に基づいて前記特定の方向への視線を検出し、前記視線を有する者が前記記憶手順で記憶した前記特徴と類似すると、携帯情報端末の使用者に報知する手順を含み、各手順をコンピュータに実行させるためのプログラム。 Shooting procedure to shoot,
A gaze detection procedure for detecting a gaze in a specific direction based on the video taken in the shooting procedure,
A notification procedure for notifying that the visual axis is detected in the visual axis detection procedure,
A feature amount calculating procedure for calculating features of the face photographed in the photographing procedure,
Storing a feature of the face calculated in the feature amount calculation procedure,
The notifying step detects a line of sight in the specific direction based on the image captured in the image capturing step by the line of sight detection step, and when the person having the line of sight is similar to the feature stored in the storage step, the mobile terminal performs A program that includes a procedure for notifying a user of an information terminal and causes a computer to execute each procedure .
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013219838 | 2013-10-23 | ||
JP2013219838 | 2013-10-23 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014035381A Division JP6349777B2 (en) | 2013-10-23 | 2014-02-26 | Portable terminal device for information exchange |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018186510A JP2018186510A (en) | 2018-11-22 |
JP6662411B2 true JP6662411B2 (en) | 2020-03-11 |
Family
ID=53439677
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014035381A Active JP6349777B2 (en) | 2013-10-23 | 2014-02-26 | Portable terminal device for information exchange |
JP2018109338A Active JP6662411B2 (en) | 2013-10-23 | 2018-06-07 | Mobile information terminals and programs |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014035381A Active JP6349777B2 (en) | 2013-10-23 | 2014-02-26 | Portable terminal device for information exchange |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP6349777B2 (en) |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0749744A (en) * | 1993-08-04 | 1995-02-21 | Pioneer Electron Corp | Head mounting type display input device |
JP2006155170A (en) * | 2004-11-29 | 2006-06-15 | Olympus Corp | Information distribution method, information distribution device, information terminal device and information distribution system |
JP4973299B2 (en) * | 2007-01-19 | 2012-07-11 | ソニー株式会社 | Optical communication apparatus and optical communication method |
JP2008176681A (en) * | 2007-01-22 | 2008-07-31 | Fujifilm Corp | Glasses-type communication support device |
JP4396720B2 (en) * | 2007-03-26 | 2010-01-13 | ソニー株式会社 | Image processing apparatus, image processing method, and program |
JP2009157242A (en) * | 2007-12-27 | 2009-07-16 | Fujifilm Corp | Imaging apparatus |
JP2010081480A (en) * | 2008-09-29 | 2010-04-08 | Fujifilm Corp | Portable suspicious individual detecting apparatus, suspicious individual detecting method, and program |
JP5458664B2 (en) * | 2009-05-20 | 2014-04-02 | 株式会社ニコン | Head mounted display device and communication system |
-
2014
- 2014-02-26 JP JP2014035381A patent/JP6349777B2/en active Active
-
2018
- 2018-06-07 JP JP2018109338A patent/JP6662411B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018186510A (en) | 2018-11-22 |
JP6349777B2 (en) | 2018-07-04 |
JP2015109626A (en) | 2015-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6992761B2 (en) | Servers, client terminals, control methods, storage media, and programs | |
US10809530B2 (en) | Information processing apparatus and information processing method | |
US8690321B2 (en) | Fixation-based control of electroactive spectacles | |
JP5564946B2 (en) | Video providing system and video providing method | |
CN104333846B (en) | Position reminding method and device | |
CN107113354B (en) | Communication system comprising a head-mounted device | |
KR102056221B1 (en) | Method and apparatus For Connecting Devices Using Eye-tracking | |
JP6022530B2 (en) | Portable electronic device and information processing method | |
JP6662411B2 (en) | Mobile information terminals and programs | |
CN108140124A (en) | Prompt information determination method and device, electronic equipment and computer program product | |
JP5885480B2 (en) | Information processing apparatus, control method for information processing apparatus, and program | |
JP6435640B2 (en) | Congestion degree estimation system | |
WO2015105075A1 (en) | Information processing apparatus and electronic device | |
JP2022015647A (en) | Information processing apparatus and image display method | |
JP6941715B2 (en) | Display device, display program, display method and display system | |
JP5989725B2 (en) | Electronic device and information display program | |
JP6262177B2 (en) | Wearable terminal, method and system | |
CN111344776A (en) | Information processing apparatus, information processing method, and program | |
JP6744271B2 (en) | Display device, display program, display method, and display system | |
JP2018041507A (en) | Wearable terminal, method, and system | |
Kim et al. | Eyeball tracking and object detection in smart glasses | |
JP6778150B2 (en) | Head-mounted display device, authentication method, and authentication program | |
JP2014228949A (en) | Information processing device and processing execution method | |
JP2022139766A (en) | wireless communication system | |
JP2021090179A (en) | Control device, imaging apparatus, imaging system, control method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180607 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190611 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190729 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191009 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6662411 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |