JP2015018489A - Information processor and information processing method - Google Patents

Information processor and information processing method Download PDF

Info

Publication number
JP2015018489A
JP2015018489A JP2013146554A JP2013146554A JP2015018489A JP 2015018489 A JP2015018489 A JP 2015018489A JP 2013146554 A JP2013146554 A JP 2013146554A JP 2013146554 A JP2013146554 A JP 2013146554A JP 2015018489 A JP2015018489 A JP 2015018489A
Authority
JP
Japan
Prior art keywords
detected
sight
information processing
line
partner
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013146554A
Other languages
Japanese (ja)
Other versions
JP5784077B2 (en
Inventor
淳太 木下
Junta Kinoshita
淳太 木下
満里子 藤田
Mariko Fujita
満里子 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2013146554A priority Critical patent/JP5784077B2/en
Publication of JP2015018489A publication Critical patent/JP2015018489A/en
Application granted granted Critical
Publication of JP5784077B2 publication Critical patent/JP5784077B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To more accurately develop a new human relationship at a low risk.SOLUTION: The information processor constructed as a wearable device includes; visual line detection means for detecting the visual line of the wearer of the information processor and the visual lines of surrounding people; contact detection means for detecting an eye contact equal to or more than a predetermined reference on the basis of the detected visual line of the wearer and the detected visual lines of the surrounding people; other party identification means for acquiring the identification information of the other party whose eye contact has been detected; and mediation means for mediating a chat with the detected other party by using the acquired identification information.

Description

本発明は、情報技術を用いた人間関係の形成に関する。   The present invention relates to the formation of human relationships using information technology.

近年、リアル世界での知人と、通信ネットワークを介した交流を促進する技術として、SNS、及びスマートデバイス(例えば、スマートフォンやタブレットPCなど)用のチャットサービスその他が知られている。チャットサービスは、アプリケーションプログラム又はウェブサービスとして提供される(例えば、特許文献1及び非特許文献1参照)。   2. Description of the Related Art In recent years, SNS, chat services for smart devices (for example, smartphones and tablet PCs), and the like are known as techniques for promoting exchanges with acquaintances in the real world through communication networks. The chat service is provided as an application program or a web service (see, for example, Patent Document 1 and Non-Patent Document 1).

特開2009−176066号JP 2009-176066 A 特開2010−081480号JP 2010-081480 A

株式会社カカオジャパン、「カカオトーク - KakaoTalk」、[online]、[2013年3月22日検索]、インターネット<URL: http://www.kakao.co.jp/>Kakao Japan Co., Ltd., “KakaoTalk”, [online], [March 22, 2013 search], Internet <URL: http://www.kakao.co.jp/>

しかし、初対面又は殆ど接点がない相手とは、日常生活において興味を惹かれ目が合うことがあっても、その後特別な機会がない限り、人間関係を形成することは不可能であった。直接話しかけることはもちろん、難しい場合が多く、各種のリスクも大きい。ウェアラブルデバイスにおいて、一定時間以上カメラを見ている顔を不審者と判定する提案はあるが(例えば、特許文献2参照)、人間関係を形成する技術ではなかった。   However, even if there is a first-time meeting or a person who has almost no contact, it may not be possible to form a human relationship unless there is a special opportunity after that, even if there is an interest in everyday life. Of course, it is difficult to talk directly, and there are various risks. In a wearable device, there is a proposal for determining a face looking at the camera for a certain period of time as a suspicious person (see, for example, Patent Document 2), but this is not a technique for forming a human relationship.

本発明の目的は、低いリスクでより確実に新しい人間関係を形成することである。   The object of the present invention is to form new relationships more reliably with low risk.

上記の目的をふまえ、本発明の一態様(1)である情報処理装置は、ウェアラブルデバイスとして構成された情報処理装置であって、情報処理装置の装着者の視線と、周囲の他人の視線と、を検出する視線検出手段と、検出された前記装着者の視線及び他人の視線に基づいて、予め定められた基準以上のアイコンタクトを検出するコンタクト検出手段と、アイコンタクトが検出された前記相手の識別情報を取得する相手識別手段と、検出された前記相手とのチャットを、取得された前記識別情報を用いて斡旋する斡旋手段と、を備えたことを特徴とする。   Based on the above object, an information processing apparatus according to one aspect (1) of the present invention is an information processing apparatus configured as a wearable device, and includes a line of sight of a wearer of the information processing apparatus and a line of sight of others around the apparatus. Gaze detection means for detecting the eye contact, contact detection means for detecting an eye contact exceeding a predetermined reference based on the detected gaze of the wearer and the gaze of the other person, and the partner from which the eye contact has been detected The other party identifying means for acquiring the identification information and the mediating means for mediating chat with the detected partner using the obtained identification information.

本発明の他の態様(5)である情報処理方法は、上記態様を方法のカテゴリで捉えたもので、ウェアラブルデバイスとして構成され、コンピュータを備えた情報処理装置における情報処理方法であって、情報処理装置の装着者の視線と、周囲の他人の視線と、を検出する視線検出処理と、検出された前記装着者の視線及び他人の視線に基づいて、予め定められた基準以上のアイコンタクトを検出するコンタクト検出処理と、アイコンタクトが検出された前記相手の識別情報を取得する相手識別処理と、検出された前記相手とのチャットを、取得された前記識別情報を用いて斡旋する斡旋処理と、をコンピュータが実行することを特徴とする。   An information processing method according to another aspect (5) of the present invention is an information processing method in which an information processing apparatus is configured as a wearable device and includes a computer. Eye contact detection processing for detecting the line of sight of the wearer of the processing device and the line of sight of others around the eye, and eye contact that exceeds a predetermined reference based on the line of sight of the wearer and the line of sight of the other person detected. Contact detection processing to detect, partner identification processing to acquire identification information of the partner from whom eye contact is detected, and mediation processing to interrogate chat with the detected partner using the acquired identification information Are executed by a computer.

また、本発明の他の態様(2)は、上記いずれかの態様において、前記装着者のバイタルサインを取得するバイタル取得手段と、前記アイコンタクトが前記コンタクト検出手段により検出された後における前記バイタルサインの変化から前記相手への関心度を判定する関心度判定手段と、を備え、前記斡旋手段は、判定された前記関心度が予め定められた基準以上ならチャットを斡旋することを特徴とする。   According to another aspect (2) of the present invention, in any one of the above aspects, the vital acquisition means for acquiring the wearer's vital sign, and the vital sign after the eye contact is detected by the contact detection means. Interest level determination means for determining the level of interest in the other party from a change in sign, wherein the mediation means mediates chat if the determined level of interest is greater than a predetermined reference .

本発明の他の態様(3)は、上記いずれかの態様において、前記相手識別手段は、前記アイコンタクトが検出された前記相手が帯びている情報処理装置との近距離無線通信により前記相手の識別情報を取得することを特徴とする。   According to another aspect (3) of the present invention, in any one of the above aspects, the partner identification unit is configured to transmit the partner by short-range wireless communication with an information processing apparatus on which the partner has detected the eye contact. The identification information is acquired.

本発明の他の態様(4)は、上記いずれかの態様において、前記相手識別手段は、前記アイコンタクトが検出された位置及び時刻を取得してサーバへ送信することにより前記識別情報を取得することを特徴とする。   In another aspect (4) of the present invention, in any one of the above aspects, the partner identification unit acquires the identification information by acquiring the position and time at which the eye contact was detected and transmitting the acquired position and time to the server. It is characterized by that.

本発明によれば、低いリスクでより確実に新しい人間関係を形成することができる。   According to the present invention, a new human relationship can be formed more reliably with low risk.

本発明の実施形態について構成を示す機能ブロック図。The functional block diagram which shows a structure about embodiment of this invention. 本発明の実施形態におけるデータの例を示す図。The figure which shows the example of the data in embodiment of this invention. 本発明の実施形態における処理手順を示すフローチャート。The flowchart which shows the process sequence in embodiment of this invention. 本発明の実施形態における画面例を示す図。The figure which shows the example of a screen in embodiment of this invention. 本発明の実施形態における画面例を示す図。The figure which shows the example of a screen in embodiment of this invention.

次に、本発明を実施するための形態(「実施形態」と呼ぶ)について図に沿って例示する。なお、背景技術や課題などで既に述べた内容と共通の前提事項は適宜省略する。   Next, a mode for carrying out the present invention (referred to as “embodiment”) will be illustrated along the drawings. In addition, the assumptions common to the contents already described in the background art and problems are omitted as appropriate.

〔1.構成〕
図1は、本実施形態における情報処理装置(「本装置1」とも呼ぶ)の構成を示す。本装置1は、ウェアラブルデバイスとして構成されユーザが身につける情報処理装置であって、図示しないヘッドマウントユニット又はその他の部分に設けられたカメラCを備え、目が合った相手とのチャットを斡旋するものである。
[1. Constitution〕
FIG. 1 shows a configuration of an information processing apparatus (also referred to as “present apparatus 1”) in the present embodiment. The apparatus 1 is an information processing apparatus that is configured as a wearable device and is worn by a user. The apparatus 1 includes a camera C that is provided in a head mount unit (not shown) or other part, and provides a chat with a partner who meets the eye. To do.

ウェアラブルデバイスとしての具体的な構成は限定されないが、例えば、頭にはめる湾曲部やヘッドパッド、メガネのボディ、各種のベルトやストラップその他を適宜含む。   Although the specific structure as a wearable device is not limited, For example, the curved part and head pad which fit on a head, the body of glasses, various belts, a strap, etc. are included suitably.

端末Tは、本装置1と連動するスマートデバイス(例えば、スマートフォン、タブレットPCその他)であり、メッセンジャーアプリ(例えば、非特許文献1参照)によって実現されるチャット手段Kを備えている。多数のユーザが、本装置1を身につけ、かつ端末Tを携帯して外出する想定とする。サーバ2は、通信ネットワークN(インターネット、携帯電話網など)を介し、本装置1からの照会(後述)に応じるサーバ装置である。   The terminal T is a smart device (for example, a smart phone, a tablet PC, or the like) that is linked to the apparatus 1, and includes a chat means K that is realized by a messenger application (for example, see Non-Patent Document 1). It is assumed that a large number of users wear this device 1 and carry the terminal T out. The server 2 is a server device that responds to an inquiry (described later) from the device 1 via a communication network N (Internet, mobile phone network, etc.).

本装置1は、コンピュータの構成すなわち、CPUなどの演算制御部6と、主メモリや補助記憶装置等の記憶装置7と、通信ネットワークNとの通信装置8(通信機器や通信アダプタなど)と、を備える。サーバ2及び端末Tも、仕様は異なるが同様にコンピュータの構成を有する(図示省略)。本装置1では、記憶装置7に記憶されている図示しないコンピュータプログラムを演算制御部6が実行することで、図1に示す各要素を実現する。   The apparatus 1 includes a computer configuration, that is, an arithmetic control unit 6 such as a CPU, a storage device 7 such as a main memory and an auxiliary storage device, a communication device 8 (such as a communication device and a communication adapter) with a communication network N, Is provided. The server 2 and the terminal T also have the same computer configuration although the specifications are different (not shown). In the present apparatus 1, each element shown in FIG. 1 is realized by the arithmetic control unit 6 executing a computer program (not shown) stored in the storage device 7.

実現される要素のうち、情報の記憶手段は、本装置1内のいわゆるローカル記憶に限らず、ネットワーク・コンピューティング(クラウド)などによるリモート記憶でもよい。また、本出願に示す記憶手段は、説明の便宜に合わせた単位、かつ主なものである。実際の記憶手段は、情報の記憶に付随する入出力や管理などの機能を含んでもよいし、構成の単位を分割または一体化してもよいし、ワークエリアなど他の記憶手段を適宜用いてもよい。   Among the realized elements, the information storage means is not limited to the so-called local storage in the apparatus 1 but may be remote storage by network computing (cloud) or the like. Further, the storage means shown in the present application is a unit that is convenient for explanation and is a main one. The actual storage means may include functions such as input / output and management associated with information storage, the unit of the configuration may be divided or integrated, and other storage means such as a work area may be used as appropriate. Good.

記憶手段のうち、識別情報記憶手段45は、目が合った相手の識別情報及びそれに関連する情報を記憶する手段である(例えば図2)。   Among the storage means, the identification information storage means 45 is means for storing the identification information of the other party with the eye and information related thereto (for example, FIG. 2).

なお、図1及びその他の図中の矢印は、データ又は制御その他の流れの主な方向の例示で、他の流れの否定も方向の限定も意味しない。また、記憶手段以外の各手段は、以下に述べる情報処理の機能又は作用を実現又は実行する処理手段であるが、これら機能又は作用は、専ら説明のための単位で、実際のハードウェア及びソフトウェアの要素との一致は問わない。   Note that the arrows in FIG. 1 and other drawings are examples of main directions of data or control and other flows, and do not mean the denial of other flows or limitation of directions. In addition, each means other than the storage means is a processing means for realizing or executing the following information processing functions or operations, but these functions or operations are units for explanation only, actual hardware and software. It doesn't matter if it matches the element.

〔2.作用〕
図3は、本装置1の動作を示すフローチャートである。図4及び図5は、本実施形態においてチャットを斡旋する画面の例を示す。まず、図3のフローチャートに沿って、一部のステップを省略して、動作の概要を説明する。
[2. Action)
FIG. 3 is a flowchart showing the operation of the apparatus 1. 4 and 5 show examples of screens for mediating chat in the present embodiment. First, an outline of the operation will be described along the flowchart of FIG.

〔2−1.概要〕
視線検出手段20は、カメラCにより、本装置1の装着者(以下「自分」とも呼ぶ)の視線と、周囲の他人の視線と、を検出する(ステップS11)。視線の検出に用いるカメラCは、自分の視線用と他人の視線用が別でもよいし、魚眼カメラその他視界の広いカメラで自分と他人の視線を両方検出してもよい。
[2-1. Overview〕
The line-of-sight detection means 20 detects the line of sight of the wearer of the present apparatus 1 (hereinafter also referred to as “self”) and the line of sight of others around the camera C (step S11). The camera C used for the detection of the line of sight may be different for one's line of sight and another's line of sight, or may detect both the line of sight of oneself and another with a fisheye camera or other cameras with a wide field of view.

コンタクト検出手段30が、視線検出手段20により検出された装着者の視線及び他人の視線に基づいて、予め定められた基準以上のアイコンタクトすなわち目が合ったことを検出すると(ステップS12:「YES」)、相手識別手段40が、アイコンタクトが検出された相手の識別情報を取得し(ステップS17又はS18)、識別情報記憶手段45に記憶させる(図2)。   When the contact detection unit 30 detects that the eye contact exceeds the predetermined reference, that is, the eye is matched based on the wearer's line of sight and the other person's line of sight detected by the line of sight detection unit 20 (step S12: "YES" The partner identification unit 40 acquires the identification information of the partner whose eye contact is detected (step S17 or S18) and stores it in the identification information storage unit 45 (FIG. 2).

アイコンタクトの検出は、例えば、既知のアイトラッキング技術を用い、装着者の視線が他人の目に向いていて、かつ、その他人の視線が装着者の目に向いていることを条件とする。アイコンタクトを検出する基準としては、例えば、所定時間(例えば3秒)以上、継続して目が合ったこと、その他が考えられる。   The eye contact is detected using, for example, a known eye tracking technique on the condition that the wearer's line of sight is directed to the eyes of the other person and the other person's line of sight is directed to the wearer's eyes. As a reference for detecting the eye contact, for example, it is conceivable that the eye is continuously in contact for a predetermined time (for example, 3 seconds) or more.

斡旋手段50は、検出された相手とのチャット(例えば、非特許文献1参照)を、取得され識別情報記憶手段45に記憶されている識別情報を用いて斡旋する(ステップS20)。   The mediating means 50 mediates a chat with the detected partner (for example, see Non-Patent Document 1) using the identification information acquired and stored in the identification information storage means 45 (step S20).

チャットの斡旋は、例えば、識別情報を動作の引数として端末Tのチャット手段Kを、パケット通信、赤外線通信又は近距離無線通信その他の通信により起動することで行う。識別情報は、例えば、チャットに用いるユーザIDその他であり、英数字の文字列などである。プライバシー保護のためにワンタイムすなわち使い捨ての識別情報(例えば、仮ID)を用いてもよい。以下、上記の説明で省略した他のステップについても説明する。   For example, the chat is performed by activating the chat means K of the terminal T by packet communication, infrared communication, near field communication, or other communication using the identification information as an operation argument. The identification information is, for example, a user ID used for chatting, and is an alphanumeric character string or the like. One-time or disposable identification information (for example, temporary ID) may be used for privacy protection. Hereinafter, other steps omitted in the above description will also be described.

〔2−2.関心度の判定〕
本実施形態では、チャットの斡旋は、装着者のバイタルサインから判定される相手への関心度が高いことを条件とする。具体的には、目が合ったことが検出されると(ステップS12:「YES」)、バイタル取得手段60が、装着者のバイタルサイン(例えば、発汗、脈拍、呼吸数、血圧など)を取得する(ステップS13)。
[2-2. (Determining interest)
In the present embodiment, the mediation of the chat is made on the condition that the degree of interest in the partner determined from the wearer's vital sign is high. Specifically, when eye contact is detected (step S12: “YES”), the vital acquisition means 60 acquires the wearer's vital signs (eg, sweating, pulse, respiratory rate, blood pressure, etc.). (Step S13).

そして、関心度判定手段70は、アイコンタクトがコンタクト検出手段30により検出された後におけるバイタルサインの変化を計算し、この変化に基づいて相手への関心度を判定する(ステップS14)。例えば、目が合った後数十秒以内に、バイタルサインの所定の項目が呈した変化率又は変化量が、複数の閾値区分のいずれに属するかで、関心度の程度区分(例えば「強」「弱」など)を判定する。   Then, the interest level determination unit 70 calculates a change in vital sign after the eye contact is detected by the contact detection unit 30, and determines the level of interest in the partner based on this change (step S14). For example, within a few tens of seconds after eye contact, the degree of interest degree classification (for example, “strong”) is determined by which of a plurality of threshold classifications the change rate or change amount exhibited by a predetermined item of vital signs belongs to. Etc.).

斡旋手段50は、判定された関心度が所定基準以上(例えば上記の「強」)なら(ステップS15:「YES」)、チャットを斡旋する(ステップS20)。   If the determined interest level is equal to or greater than a predetermined reference (for example, “strong” above) (step S15: “YES”), the mediating means 50 mediates chat (step S20).

〔2−3.識別情報の取得〕
チャットの斡旋に用いる相手の識別情報は、次のように取得される。すなわち、相手識別手段40は、アイコンタクトが検出された相手が帯びている本装置1との近距離無線通信を試みて応答があれば(ステップS16:「YES」)、近距離無線通信により相手の識別情報を、装着者の識別情報と交換に取得する(ステップS17)。
[2-3. Acquisition of identification information)
The other party's identification information used for chat placement is acquired as follows. In other words, the partner identification means 40, if there is a response after attempting a short-range wireless communication with the apparatus 1 on which the partner whose eye contact has been detected is born (step S16: “YES”), Is acquired in exchange for the wearer's identification information (step S17).

相手識別手段40は、近距離無線通信による応答がない場合(ステップS16:「NO」)、アイコンタクトが検出された位置及び時刻を取得して自分の識別情報と共にサーバ2へ送信することにより相手の識別情報を照会して識別情報を取得する(ステップS18)。この場合、サーバ2は、アイコンタクトの当事者双方の本装置1を照会元として、位置及び時刻がほぼ一致する照会を受信し、その一致を確認のうえ各照会元に他方の識別情報を回答する。   If there is no response by short-range wireless communication (step S16: “NO”), the partner identification means 40 acquires the position and time at which the eye contact was detected and transmits it to the server 2 together with its own identification information. The identification information is obtained by referring to the identification information (step S18). In this case, the server 2 receives a query whose position and time are substantially the same, using the devices 1 of both parties of the eye contact as a query source, confirms the match, and returns the other identification information to each query source. .

〔2−4.チャットの斡旋〕
図4及び図5は、チャットを斡旋する画面の例である。例えば、昼間、目が合ったユーザの一方が用いている端末Tに、夜、図4の画面が表示され、ユーザがボタンB41をタップすると、相手の端末Tに図5の画面が表示される。
[2-4. (Chat triumph)
4 and 5 are examples of screens for mediating chat. For example, the screen shown in FIG. 4 is displayed at night on the terminal T used by one of the users who met each other in the daytime. When the user taps the button B41, the screen shown in FIG. .

相手が図5中のボタンB51をタップすると、双方の画面が図示しないチャット画面(図示省略)に遷移し、文字や、スタンプと呼ばれる画像を用いたチャットが可能となる。チャット画面では仮IDが表示され、お互いに納得すれば本来のユーザIDを交換する。   When the partner taps button B51 in FIG. 5, both screens transition to a chat screen (not shown), and chat using characters or images called stamps becomes possible. A temporary ID is displayed on the chat screen, and if the user agrees with each other, the original user ID is exchanged.

〔3.効果〕
(1)以上のように、本実施形態では、常に一緒に行動し周囲をモニタできるウェアラブルデバイスで人の目線を基準に、興味を持った当事者を検出し、通信ネットワークを介したチャットというリスクの少ない間接的なコミュニケーション機会を提供することにより(例えば図4及び図5)、低いリスクでより確実に、新しい人間関係を形成することができる。
[3. effect〕
(1) As described above, in this embodiment, a wearable device that can always act together and monitor the surroundings can detect interested parties based on the eyes of a person, and can reduce the risk of chatting via a communication network. By providing fewer indirect communication opportunities (eg, FIGS. 4 and 5), new relationships can be formed more reliably with lower risk.

(2)また、本実施形態では、装着者のバイタルサインから判定する相手への関心度が高ければ(例えば、図3のステップS15:「YES」)チャットを斡旋することにより(ステップS20)、新しい人間関係が形成される確率を大きくできる。 (2) Further, in this embodiment, if the degree of interest in the partner to be determined from the wearer's vital sign is high (eg, step S15 in FIG. 3: “YES”), the chat is arranged (step S20). The probability that a new relationship will be formed can be increased.

(3)また、本実施形態では、近距離無線通信により相手の情報処理装置から識別情報を直接取得することにより(例えば、図3のステップS16:「YES」及びS17)、チャットの斡旋を早くでき、通信ネットワーク上を識別情報が移動する際の情報漏洩リスクも最小限化できる。 (3) Further, in this embodiment, by directly obtaining identification information from the information processing apparatus of the other party by short-range wireless communication (for example, steps S16: “YES” and S17 in FIG. 3), the chat arrangement can be quickly performed. It is possible to minimize the risk of information leakage when the identification information moves on the communication network.

(4)また、本実施形態では、当事者の情報処理装置がそれぞれアイコンタクトの位置及び時刻をサーバへ送信し、双方の位置及び時刻の照合を基にサーバから相手の識別情報を取得することにより(例えば、図3のステップS18)、近くに偶然位置していた他の情報処理装置と相手の情報処理装置との混同を防止し、高精度なマッチングが可能となる。 (4) Also, in this embodiment, the information processing apparatus of the party transmits the position and time of the eye contact to the server, respectively, and acquires the identification information of the other party from the server based on the collation of both positions and times. (For example, step S18 in FIG. 3), it is possible to prevent confusion between another information processing apparatus that was accidentally located nearby and the other information processing apparatus, and to perform high-precision matching.

〔4.他の実施形態〕
なお、上記実施形態や図の内容は例示に過ぎず、各要素の有無や配置、処理の順序や内容などは適宜変更可能である。このため、本発明は、以下に例示する変形例やそれ以外の他の実施形態も含むものである。
[4. Other embodiments]
In addition, the content of the said embodiment and figure is only an illustration, and the presence or absence and arrangement | positioning of each element, the order and content of a process, etc. can be changed suitably. For this reason, this invention also includes the modification illustrated below and other embodiment other than that.

例えば、本装置1と端末Tは一体でもよい。また、相手への関心度は、バイタルサインに基づく判断に限らず、目が合った後の装着者の視線その他の要素を基に判断してもよい。また、近距離無線通信による相手の識別情報の取得(ステップS17)に失敗した場合(ステップS19:「NO」)、識別情報をサーバへ照会(ステップS18)するようにしてもよい。   For example, the device 1 and the terminal T may be integrated. In addition, the degree of interest in the partner is not limited to determination based on vital signs, but may be determined based on the line of sight of the wearer after eye contact and other factors. If acquisition of the identification information of the other party through short-range wireless communication (step S17) fails (step S19: “NO”), the identification information may be referred to the server (step S18).

また、本発明の各態様は、明記しない他のカテゴリ(方法、プログラム、端末を含むシステムなど)としても把握できる。方法やプログラムのカテゴリでは、装置のカテゴリで示した「手段」を「処理」や「ステップ」のように適宜読み替えるものとする。また、「手段」の全部又は任意の一部を「部」(ユニット、セクション、モジュール等)と読み替えることができる。   Moreover, each aspect of the present invention can be understood as other categories (methods, programs, systems including terminals, etc.) that are not specified. In the category of method or program, “means” shown in the category of apparatus is appropriately read as “process” or “step”. In addition, all or any part of “means” can be read as “part” (unit, section, module, etc.).

また、実施形態に示した処理やステップについても、順序を変更したり、いくつかをまとめて実行しもしくは一部分ずつ分けて実行するなど変更可能である。また、個々の手段、処理やステップを実現、実行するハードウェア要素などは共通でもよいし、手段、処理やステップごとにもしくはタイミングごとに異なってもよい。   Also, the processes and steps shown in the embodiment can be changed by changing the order, executing some of them collectively, or executing them part by part. In addition, hardware elements that implement and execute individual means, processes, and steps may be common, or may differ for each means, process, step, or timing.

また、本出願で示す個々の手段は、外部のサーバが提供している機能をAPI(アプリケーションプログラムインタフェース)やネットワーク・コンピューティング(いわゆるクラウドなど)で呼び出して実現してもよい。さらに、手段などの要素は、コンピュータに限らず、現在のまたは将来登場する他の情報処理機構で実現してもよい。   The individual means shown in the present application may be realized by calling a function provided by an external server by an API (Application Program Interface) or network computing (so-called cloud or the like). Furthermore, elements such as means are not limited to computers, and may be realized by other information processing mechanisms that appear now or in the future.

1 情報処理装置(本装置)
2 サーバ
6 演算制御部
7 記憶装置
8 通信装置
20 視線検出手段
30 コンタクト検出手段
40 相手識別手段
45 識別情報記憶手段
50 斡旋手段
60 バイタル取得手段
70 関心度判定手段
B41−B51 ボタン
C カメラ
K チャット手段
N 通信ネットワーク
T 端末
1. Information processing device (this device)
2 Server 6 Arithmetic control unit 7 Storage device 8 Communication device 20 Line of sight detection means 30 Contact detection means 40 Partner identification means 45 Identification information storage means 50 Trimming means 60 Vital acquisition means 70 Interest level determination means B41-B51 Button C Camera K Chat means N Communication network T Terminal

Claims (5)

ウェアラブルデバイスとして構成された情報処理装置であって、
情報処理装置の装着者の視線と、周囲の他人の視線と、を検出する視線検出手段と、
検出された前記装着者の視線及び他人の視線に基づいて、予め定められた基準以上のアイコンタクトを検出するコンタクト検出手段と、
アイコンタクトが検出された前記相手の識別情報を取得する相手識別手段と、
検出された前記相手とのチャットを、取得された前記識別情報を用いて斡旋する斡旋手段と、
を備えたことを特徴とする情報処理装置。
An information processing apparatus configured as a wearable device,
A line-of-sight detection means for detecting the line of sight of the wearer of the information processing device and the line of sight of others around;
Contact detection means for detecting an eye contact above a predetermined reference based on the detected line of sight of the wearer and the line of sight of another person;
Partner identification means for acquiring identification information of the partner in which the eye contact is detected;
A mediating means for mediating a chat with the detected partner using the acquired identification information;
An information processing apparatus comprising:
前記装着者のバイタルサインを取得するバイタル取得手段と、
前記アイコンタクトが前記コンタクト検出手段により検出された後における前記バイタルサインの変化から前記相手への関心度を判定する関心度判定手段と、
を備え、
前記斡旋手段は、判定された前記関心度が予め定められた基準以上ならチャットを斡旋することを特徴とする請求項1記載の情報処理装置。
Vital acquisition means for acquiring a vital sign of the wearer;
Interest level determination means for determining the degree of interest in the opponent from the change in the vital sign after the eye contact is detected by the contact detection means;
With
The information processing apparatus according to claim 1, wherein the mediating unit mediates a chat if the determined degree of interest is equal to or greater than a predetermined reference.
前記相手識別手段は、前記アイコンタクトが検出された前記相手が帯びている情報処理装置との近距離無線通信により前記相手の識別情報を取得することを特徴とする請求項1又は2記載の情報処理装置。   3. The information according to claim 1, wherein the partner identification unit obtains identification information of the partner by short-range wireless communication with an information processing apparatus on which the partner having the eye contact is detected. Processing equipment. 前記相手識別手段は、前記アイコンタクトが検出された位置及び時刻を取得してサーバへ送信することにより前記識別情報を取得することを特徴とする請求項1から3のいずれか一項に記載の情報処理装置。   The said other party identification means acquires the said identification information by acquiring the position and time when the said eye contact was detected, and transmitting to a server, The description of any one of Claim 1 to 3 characterized by the above-mentioned. Information processing device. ウェアラブルデバイスとして構成され、コンピュータを備えた情報処理装置における情報処理方法であって、
情報処理装置の装着者の視線と、周囲の他人の視線と、を検出する視線検出処理と、
検出された前記装着者の視線及び他人の視線に基づいて、予め定められた基準以上のアイコンタクトを検出するコンタクト検出処理と、
アイコンタクトが検出された前記相手の識別情報を取得する相手識別処理と、
検出された前記相手とのチャットを、取得された前記識別情報を用いて斡旋する斡旋処理と、
をコンピュータが実行することを特徴とする情報処理方法。
An information processing method in an information processing apparatus configured as a wearable device and provided with a computer,
A line-of-sight detection process for detecting the line of sight of the wearer of the information processing device and the line of sight of others around the information processing apparatus;
A contact detection process for detecting an eye contact above a predetermined reference based on the detected line of sight of the wearer and the line of sight of another person;
Partner identification processing for obtaining identification information of the partner in which the eye contact is detected;
A mediating process for mediating chat with the detected partner using the acquired identification information;
An information processing method characterized in that a computer executes.
JP2013146554A 2013-07-12 2013-07-12 Information processing apparatus and method Active JP5784077B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013146554A JP5784077B2 (en) 2013-07-12 2013-07-12 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013146554A JP5784077B2 (en) 2013-07-12 2013-07-12 Information processing apparatus and method

Publications (2)

Publication Number Publication Date
JP2015018489A true JP2015018489A (en) 2015-01-29
JP5784077B2 JP5784077B2 (en) 2015-09-24

Family

ID=52439406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013146554A Active JP5784077B2 (en) 2013-07-12 2013-07-12 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5784077B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162038A1 (en) * 2019-02-06 2020-08-13 パナソニックIpマネジメント株式会社 Communicating method, program, recording medium, and communication system
WO2023195488A1 (en) * 2022-04-06 2023-10-12 国立大学法人千葉大学 Bidirectional gaze position determination device, bidirectional gaze position determination method, and training method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155170A (en) * 2004-11-29 2006-06-15 Olympus Corp Information distribution method, information distribution device, information terminal device and information distribution system
JP2006209368A (en) * 2005-01-27 2006-08-10 Aisin Seiki Co Ltd Vehicle drive support device
JP2013088906A (en) * 2011-10-14 2013-05-13 Cyber Ai Entertainment Inc Knowledge information processing server system with image recognition system
JP2013099373A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Non-verbal information analyzing device, non-verbal information analyzing program and non-verbal information analyzing method
JP2013521576A (en) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド Local advertising content on interactive head-mounted eyepieces

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006155170A (en) * 2004-11-29 2006-06-15 Olympus Corp Information distribution method, information distribution device, information terminal device and information distribution system
JP2006209368A (en) * 2005-01-27 2006-08-10 Aisin Seiki Co Ltd Vehicle drive support device
JP2013521576A (en) * 2010-02-28 2013-06-10 オスターハウト グループ インコーポレイテッド Local advertising content on interactive head-mounted eyepieces
JP2013088906A (en) * 2011-10-14 2013-05-13 Cyber Ai Entertainment Inc Knowledge information processing server system with image recognition system
JP2013099373A (en) * 2011-11-07 2013-05-23 Fujitsu Ltd Non-verbal information analyzing device, non-verbal information analyzing program and non-verbal information analyzing method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020162038A1 (en) * 2019-02-06 2020-08-13 パナソニックIpマネジメント株式会社 Communicating method, program, recording medium, and communication system
WO2023195488A1 (en) * 2022-04-06 2023-10-12 国立大学法人千葉大学 Bidirectional gaze position determination device, bidirectional gaze position determination method, and training method

Also Published As

Publication number Publication date
JP5784077B2 (en) 2015-09-24

Similar Documents

Publication Publication Date Title
US11799652B2 (en) Encryption and decryption of visible codes for real time augmented reality views
CN107087431B (en) System and method for discriminating eye signals and continuous biometric identification
JP6490023B2 (en) Biological information communication apparatus, server, biometric information communication method, and biometric information communication program
EP3237991B1 (en) Communication system comprising head wearable devices
KR20210047373A (en) Wearable apparatus and methods for analyzing images
US20140294257A1 (en) Methods and Systems for Obtaining Information Based on Facial Identification
US20150102981A1 (en) Eye tracking
JP2014085796A (en) Information processing device and program
US10432569B2 (en) Portable electronic device, information processing method, and program
AU2014243708A1 (en) Social data-aware wearable display system
JP5784077B2 (en) Information processing apparatus and method
JP2015082729A (en) Portable terminal
Deshpande et al. Google glass
KR20210070119A (en) Meditation guide system using smartphone front camera and ai posture analysis
KR102293416B1 (en) Communication device, server and communication method thereof
Morabito et al. Wearable technologies
KR101483447B1 (en) Information processing system and method for processing information
US20240056444A1 (en) System and method for generating a connection
JP2015192348A (en) Person identification system and person identification method
AGNIHOTRI et al. Google Glass
CN105721401B (en) Communication means and communication system between wearable device

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20150220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150721

R150 Certificate of patent or registration of utility model

Ref document number: 5784077

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350