JP4277301B2 - Communication system, method and program - Google Patents
Communication system, method and program Download PDFInfo
- Publication number
- JP4277301B2 JP4277301B2 JP2003431220A JP2003431220A JP4277301B2 JP 4277301 B2 JP4277301 B2 JP 4277301B2 JP 2003431220 A JP2003431220 A JP 2003431220A JP 2003431220 A JP2003431220 A JP 2003431220A JP 4277301 B2 JP4277301 B2 JP 4277301B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- use candidate
- candidate
- image
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本発明は、使用者の視線を検出することにより使用者が利用する機器とのアイコンタクトの有無を判別するコミュニケーションシステム、方法及びプログラムに関する。 The present invention, Turkey Myunikeshon system to determine the presence or absence of eye contact with the device for the user to use by detecting a user's line of sight, to a method and a program.
従来、視線を検出することにより使用者たる人間と機械との情報通信を行う視線認識コミュニケーション装置としては、例えば特開平6−51901号公報(特許文献1)や、特公昭60−17125号公報(特許文献2)がある。これら特許文献1及び2に示されているように、眼球の方向に基づき使用者の視線を検出するものが知られている。
上記技術では、マウスなどのポインティングデバイスの代替として視線による注視を用いることを目的としたものであり、高精度な視線検出を考慮している反面、眼球に近い位置に検出装置を設置する必要がある。したがって、特殊な眼鏡を必要としたり、頭部と表示装置の正確な位置関係を保つため、表示装置を使用者の頭部に設置する必要があるなどの問題点がある。 The above technique is intended to use gaze by gaze as an alternative to a pointing device such as a mouse, and while considering high-precision gaze detection, it is necessary to install a detection device at a position close to the eyeball. is there. Therefore, there are problems such as requiring special glasses or installing the display device on the user's head in order to maintain the correct positional relationship between the head and the display device.
しかしながら、視線認識を機械とのコミュニケーションに用いる実際の状況を考えてみると、表示装置上の正確な画素単位の位置を指定する前に、使用者が機器とのコミュニケーションや操作を開始する時点を検出することが必要である。また、現在では、複数の機械、複数の使用者が同一場所に存在する状況が多く存在する。この場合に使用者がどの機器を操作するつもりであるか、あるいは複数の使用者のうち操作権を持つのは誰かを特定したいといった用途においては、使用者と機器とのアイコンタクトにより使用者がどの機器を注視しているのか、反対に機器を注視しているのはどの使用者であるのかを同定する必要がある。 However, considering the actual situation where gaze recognition is used for communication with the machine, before specifying the exact pixel unit position on the display device, the time when the user starts communication and operation with the device is determined. It is necessary to detect. At present, there are many situations where a plurality of machines and a plurality of users exist in the same place. In this case, in an application where the user intends to operate which device or who wants to identify who has the operation right among multiple users, the user is in contact with the user through the eye contact between the user and the device. It is necessary to identify which user is watching, and on the contrary, which user is watching the device.
本発明は上記課題を解決するためになされたもので、その目的とするところは、簡便な装置構成で使用者と機器とのアイコンタクトの有無を判断するコミュニケーションシステム、方法及びプログラムを提供することにある。 The present invention has been made to solve the above problems, it is an object of providing a Turkey Myunikeshon system, method and program to determine the presence or absence of eye contact between the user and the device with a simple apparatus configuration There is to do.
本発明のある観点によれば、使用者の視野を撮像して第1の画像データを出力する第1のカメラ(視野画像取得カメラ)と、前記使用者が利用する機器に搭載され、該機器を操作可能な位置の映像を撮像して第2の画像データを出力する第2のカメラ(使用者画像取得カメラ)と、前記第1の画像データに基づき前記使用者の視野内における前記機器の有無を認識して機器認識結果を得る機器認識手段と、前記第2の画像データに基づき前記機器を操作可能な位置に前記使用者が存在するか否かを認識して使用者認識結果を得る使用者認識手段と、前記機器認識結果が前記使用者の視野内に前記機器が存在することを示し、かつ前記使用者認識結果が前記機器を操作可能な位置に使用者が存在することを示す状態が閾値以上の時間経過したか否かを判定する判定手段とを具備してなることを特徴とするコミュニケーションシステムが提供される。 According to an aspect of the present invention, a first camera that outputs a first image data by imaging a field of view of the user (field image obtaining camera) mounted on equipment that the user is available, the instrument the second camera that outputs a second image data by imaging the image of the operable position (user image acquisition camera), the equipment in the user in the field of view based on the first image data Device recognition means for recognizing presence / absence and obtaining a device recognition result, and obtaining a user recognition result by recognizing whether or not the user exists at a position where the device can be operated based on the second image data. User recognition means, and the device recognition result indicates that the device exists within the user's field of view, and the user recognition result indicates that the user exists at a position where the device can be operated. Whether the status has exceeded the threshold Or wherein the to Turkey Myunikeshon system to become comprises a determination means for determining is provided.
この発明によれば、使用者画像取得カメラで撮影した画像内に使用者が写っているだけでは、使用者が機器の方向を向いているかどうか判断できないが、視野画像取得カメラで撮影した画像も利用することにより、アイコンタクトの有無を簡便かつ容易に判断することができる。 According to the present invention, it is not possible to determine whether the user is facing the direction of the device simply by showing the user in the image captured by the user image acquisition camera. By using it, the presence or absence of eye contact can be easily and easily determined.
望ましくは、前記機器認識手段、使用者認識手段及び判定手段は、前記使用者により携帯されるか又は前記機器に搭載された1台の情報処理装置に設けられており、前記第1のカメラと前記第2のカメラ及び前記情報処理装置はネットワーク接続可能に構成されていることにより、画像処理を行うための機器認識手段、使用者認識手段及び判定手段として機能する情報処理装置を1台で実現できる。 Preferably, the device recognition unit, the user recognition unit, and the determination unit are provided in one information processing device that is carried by the user or mounted on the device, and the first camera and by the second camera and the information processing apparatus that is configured to be a network connection, device recognition unit for performing image processing, an information processing apparatus that functions as a user recognition unit及beauty-size constant means one Can be realized.
また望ましくは、前記視野画像取得カメラを使用者の頭部に取り付ける固定装置を備える。 Preferably, a fixing device for attaching the visual field image acquisition camera to the user's head is provided.
また望ましくは、前記機器に設けられ、機器を認識するためのマーカを表示する表示装置と、使用者により携帯され、前記機器認識手段で認識された機器の前記表示装置のうち、使用者が注視した部分の画像を表示する携帯表示部とをさらに備え、前記機器認識手段は、前記視野画像データに含まれる前記マーカの撮像画像に基づき機器及び使用者の注視部分を認識する。これにより、使用者が注視している部分の表示画像を使用者側で確認できる。 Preferably, the display device of the apparatus provided on the device and displaying a marker for recognizing the device and the display device of the device carried by the user and recognized by the device recognition means are watched by the user. And a portable display unit for displaying the image of the portion, and the device recognition means recognizes the device and the user's gaze portion based on the captured image of the marker included in the visual field image data. Thereby, the display image of the part which the user is gazing at can be confirmed on the user side.
また望ましくは、前記使用者が複数の前記機器を利用する場合に、前記視野画像取得カメラは前記複数の機器の各々に設けられ、前記機器認識手段は、前記使用者の視野内における前記複数の機器の有無を認識する。これにより、複数の使用者あるいは機器を含むコミュニケーションシステムにおける複数の使用者を識別し、また複数の機器を識別することができる。 Preferably, when the user uses a plurality of the devices, the field-of-view image acquisition camera is provided in each of the plurality of devices, and the device recognition means includes the plurality of devices in the field of view of the user. to recognize the presence or absence of equipment. Thereby, a plurality of users in a communication system including a plurality of users or devices can be identified, and a plurality of devices can be identified.
また、上記本発明は、上記コミュニケーションシステムを用いて実現されるコミュニケーション方法、該方法を実現するためのコミュニケーションプログラムとしても成立する。 The present invention is also established as a communication method realized using the communication system and a communication program for realizing the method.
本発明によれば、簡便な装置構成で使用者と機器とのアイコンタクトの有無を判断することができる。 According to the present invention, it is possible to determine the presence or absence of eye contact between a user and a device with a simple device configuration.
以下、図面を参照しながら本発明の実施形態を説明する。
(第1実施形態)
図1は本発明の第1実施形態に係るアイコンタクトコミュニケーションシステム100の全体構成を示す図である。図1に示すように、視野画像取得カメラ1と、情報処理装置2と、操作の対象とする機器3と、使用者画像取得カメラ4と、情報処理装置5とから構成される。情報処理装置2と5は通信ネットワーク6で接続されている。通信ネットワーク6は有線でも無線でもよく、例えばイーサネット、無線LANなど、既知の情報通信手段が用いられる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(First embodiment)
FIG. 1 is a diagram showing an overall configuration of an eye contact communication system 100 according to the first embodiment of the present invention. As shown in FIG. 1, the camera includes a field-of-view
視野画像取得カメラ1は、機器3の使用者10である人間の頭部に設置される。設置の際に、使用者10の顔が向いている方向の映像を視野画像として撮像する。撮像された画像は情報処理装置2に出力される。使用者画像取得カメラ4は機器3に搭載され、機器3を操作可能な位置の映像を撮像する。撮像された画像は情報処理装置5に出力される。
The field-of-view
図2は使用者10に対する視野画像取得カメラ1の固定手法例を示す図である。図2(a)の場合、視野画像取得カメラ1をカメラ固定バンド11に通した上でカメラ固定バンド11を頭に巻き付ける。また、図2(b)の場合、視野画像取得カメラ1をカメラ固定バンド12に通した上で首の下で止める。このように、視野画像取得カメラ1を固定する固定装置としてカメラ固定バンド11や12を用いて視野画像取得カメラ1の撮像方向を使用者10の視野にあわせて固定することにより、視野画像取得カメラ1が使用者10の動きにあわせてその使用者10の顔が向いている方向、すなわち使用者10の視野を撮像することができる。
FIG. 2 is a diagram illustrating an example of a fixing method of the field-of-view
図3は情報処理装置2及び5の詳細な構成を示す図である。情報処理装置2は、視野画像取得カメラ1と同様に使用者が携帯可能に構成されている。情報処理装置2は、例えば携帯電話端末、携帯情報端末などで実現される。情報処理装置5は、使用者画像取得カメラ4に接続されて機器3に搭載されている。
FIG. 3 is a diagram showing a detailed configuration of the
情報処理装置2は、プロセッサ21と、データベース22と、表示部23からなる。
The
プロセッサ21は、データベース22からプログラムを読み出すことにより画像管理手段21a、機器認識手段21b、アイコンタクト判定手段21c、通信制御手段21d及び使用者用アプリケーション21eとして機能する。
The processor 21 functions as an
視野画像取得カメラ1で撮像された視野画像信号はプロセッサ21に入力される。画像管理手段21aは、視野画像取得カメラ1からの視野画像信号を視野画像データとしてデータベース22に格納する。機器認識手段21bは、データベース22に格納された視野画像データに基づき視野に機器が存在するか否かを判定し、機器認識結果を得る。機器認識手段21bにおける認識処理は、周知の画像認識処理を用いる。機器認識結果は、機器認識可と、機器認識不可の2つの状態からなる。認識すべき機器が複数ある場合には、機器認識手段21bは、どの機器であるかを識別する。機器認識手段21bは、機器認識可と、機器認識不可の2つの状態のいずれかに識別した機器の機器IDを対応付けてこの機器認識結果を得る。
The visual field image signal captured by the visual field
アイコンタクト判定手段21cは、機器認識手段21bで得られた機器認識結果と、情報処理装置5から受信した使用者認識結果とに基づき、アイコンタクトの有無を判定する。判定結果は、アイコンタクト有り、アイコンタクト無しの2つの状態からなる。得られた判定結果は、通信制御手段21dを介して情報処理装置5に送信される。なお、認識すべき使用者又は機器が複数の場合、判定結果も、判定の対象とする機器を識別する機器ID又は判定の対象とする使用者を識別する使用者IDに対応付けて得られる。
The eye
使用者用アプリケーション21eは、アイコンタクト判定手段21cで得られた判定結果における機器に関する機器データをデータベース22から読み出し表示部23に表示する。認識される機器が複数ある場合には、データベース22の機器データは機器IDに対応付けられて機器毎に格納される。使用者用アプリケーション21eは、判定結果に含まれる機器IDに基づき、その機器IDに対応付けられた機器データをデータベース22から読み出し表示する。
The
また、使用者用アプリケーション21eは、情報処理装置5から受信した機器部分表示データを表示部23に表示する。さらに望ましくは、使用者用アプリケーション21eは、画像管理手段21aで得られた視野画像データを表示部23に表示する。この場合、機器認識手段21bにおける機器認識結果をあわせて表示するのが望ましい。図4は表示部23に表示された視野画像の一例を示す図である。図4(a)は機器3が含まれる視野画像7aであり、視野認識結果は機器認識可である。図4(b)は機器3が含まれない視野画像7bであり、視野認識結果は機器認識不可である。
In addition, the
通信制御手段21dは、使用者認識結果及び機器部分表示データを情報処理装置5から受信する。
The
情報処理装置5は、プロセッサ51と、データベース52と、表示部53からなる。
The
プロセッサ51は、データベース52からプログラムを読み出すことにより画像管理手段51a、使用者認識手段51b、通信制御手段51c及び機器用アプリケーション51dとして機能する。
The processor 51 functions as an
使用者画像取得カメラ4で撮像された使用者画像信号はプロセッサ51に入力される。画像管理手段51aは、使用者画像取得カメラ4からの使用者画像信号を視野画像データとしてデータベース52に格納する。使用者認識手段51bは、データベース52に格納された使用者画像データに基づき機器3の操作位置、すなわち機器3の視野内に使用者が存在するか否かを判定し、使用者認識結果を得る。使用者認識手段51bにおける認識処理は、周知の顔画像認識処理を用いる。使用者認識結果は、使用者認識可と、使用者認識不可の2つの状態からなる。認識すべき使用者が複数ある場合には、使用者認識手段51bは、どの使用者であるかを識別する。使用者認識手段51bは、使用者認識可と、使用者認識不可の2つの状態のいずれかに識別した使用者の使用者IDを対応付けてこの使用者認識結果を得る。
A user image signal captured by the user
図5は、画像管理手段51aで得られた使用者画像データの一例を示す図である。図5(a)は使用者10が含まれる使用者画像8aであり、使用者認識結果は使用者認識可である。図5(b)は使用者10が含まれない使用者画像8bであり、使用者認識結果は使用者認識不可である。この図5に示される使用者画像8a,8bは、必要に応じて機器用アプリケーション51dにより表示装置53に表示されてもよいし、情報処理装置2に通信制御手段51cを介して送信され、使用者用アプリケーション21eにより表示部23に表示されてもよい。
FIG. 5 is a diagram showing an example of user image data obtained by the image management means 51a. FIG. 5A shows a user image 8a including the user 10, and the user recognition result can be recognized by the user. FIG. 5B shows a user image 8b in which the user 10 is not included, and the user recognition result cannot be recognized by the user. The user images 8a and 8b shown in FIG. 5 may be displayed on the
通信制御手段51cは、使用者認識手段51bで得られた使用者認識結果を情報処理装置2に送信する。また、通信制御手段51cは、情報処理装置2から判定結果を受信し、機器用アプリケーション51dで得られた機器部分表示データを情報処理装置2に送信する。
The
機器用アプリケーション51dは、情報処理装置2から受信した判定結果に含まれる機器と、その判定結果に含まれる視野画像中の機器3の位置に基づき、機器表示データから機器部分表示データを抽出する。得られた機器部分表示データは通信制御手段51cを介して情報処理装置2に送信される。機器用アプリケーション51dは、例えばその機器3での作業内容などの機器表示データを表示装置53に表示する。
The
望ましくは、機器用アプリケーション51dは、機器表示データとともに、マーカデータを含めて表示装置53に表示する。マーカデータを表示する場合、機器認識手段21bは、視野画像データにマーカ画像が含まれるか否かを機器認識結果に反映させてもよい。すなわち、視野画像データにマーカ画像が含まれる場合には機器認識可、マーカ画像が含まれない場合には機器認識不可と判定されるようにしてもよい。また、認識されるべき機器が複数ある場合には、各機器3は、表示装置53に異なるマーカ画像を表示すればよい。この場合、機器認識手段21bは、視野画像データに含まれるマーカ画像の種別を判別することにより、複数の機器を識別できる。データベース22には、予め各マーカ画像の特徴データを格納しておき、この特徴データと視野画像データに含まれるマーカ画像とを比較することにより、マーカ画像の種別を判別できる。
Desirably, the
図6はこのマーカ画像を含めた機器認識を行う場合の機器3側の構成例である。図6の例では、機器3が情報処理装置5そのものである場合を示す例である。プロセッサ51と、このプロセッサ51に接続された表示装置53を備え、この表示装置53上には使用者画像取得カメラ4が設置されている。表示装置53に表示される機器の作業内容などの機器表示画像30に加えて、マーカ画像35が表示装置53中央近傍に位置するように表示されている。機器表示画像30として、マーカ画像35に対して左上、右上、左下、右下の領域にそれぞれ部分表示画像31乃至34が表示される。
FIG. 6 is a configuration example on the
図7は機器認識を行う場合のマーカ画像を含む視野画像7の一例を示す図である。図7(a)はマーカ画像35が含まれる視野画像7cの一例を示し、視野認識結果は機器認識可である。さらに使用者認識結果が使用者認識可である場合、判定結果はアイコンタクト有りとなる。したがって、図3において説明した通り、当該機器に関する機器部分表示データが抽出される。この機器部分表示データは、機器表示データのうち、視野画像7cのうち、視野の比較的中心にある部分を抽出するのが望ましい。そこで、例えば図7(a)の場合、マーカ画像35が視野画像7cの右下に表示されていることから、この視野画像7cのうちの左上に表示されている機器表示データを部分的に抽出すればよい。 FIG. 7 is a diagram illustrating an example of a visual field image 7 including a marker image when device recognition is performed. FIG. 7A shows an example of the visual field image 7c including the marker image 35, and the visual field recognition result is device recognition possible. Further, when the user recognition result is user recognizable, the determination result is that there is an eye contact. Therefore, as described with reference to FIG. 3, device partial display data relating to the device is extracted. It is desirable to extract the device partial display data from the device display data from the visual field image 7c. Therefore, for example, in the case of FIG. 7A, since the marker image 35 is displayed at the lower right of the visual field image 7c, the device display data displayed at the upper left of the visual field image 7c is partially extracted. do it.
具体的には、表示装置53の部分表示画像31に表示されている画像データを、部分表示画像31の画像データを機器部分表示データとして通信制御手段51cを介して情報処理装置2に送信する。この機器部分表示データの抽出を行うため、機器認識結果には、マーカ画像35の視野画像7c内の位置を含めておけばよい。このマーカ画像の視野画像中の位置は、機器認識結果とともに情報処理装置5に送信され、機器用アプリケーション51dがそのマーカ画像位置に基づき抽出すべき機器部分表示データを抽出する。例えば視野画像7cが右上、左上、左下、右下の順に領域111、112、113及び114に分割して判定される場合には、次のように抽出処理を行う。すなわち、領域114にマーカ画像位置が検出される場合には部分表示画像31に対応する表示データが、領域113にマーカ画像位置が検出される場合には部分表示画像32に対応する表示データが、領域112にマーカ画像位置が検出される場合には部分表示画像33に対応する表示データが、領域111にマーカ画像位置が検出される場合には部分表示画像34に対応する表示データが抽出される。
Specifically, the image data displayed on the
使用者用アプリケーション21eは、通信制御手段21dを介して受信したこの機器部分表示データを表示部23に表示する。図7(a)の37は表示部23の表示画面である。表示画面37には、機器部分表示データ38が表示されている。
The
なお、この使用者10の注視する部分のデータ抽出は、情報処理装置5のデータベース52から抽出する場合に限られない。例えば、上記機器用アプリケーション51dで行われた判定手法に基づき、情報処理装置2の使用者用アプリケーション21eが対応する領域の視野画像データを部分的に抽出し、その抽出画像を表示部23に表示してもよい。注視部分の判定は、上記機器用アプリケーション51dで行われる判定手法と共通する。
Note that the data extraction of the portion that the user 10 is watching is not limited to extraction from the
図7(b)はマーカ画像35が含まれない視野画像7dの一例を示す。この場合、機器3の一部である表示装置53が視野画像7dに一部含まれているが、マーカ画像35が含まれていないため、認識処理結果は機器認識不可である。
FIG. 7B shows an example of a visual field image 7 d that does not include the marker image 35. In this case, the
上記実施形態に係るコミュニケーションシステム100のアイコンタクトの判定の詳細を図8のフローチャートに沿って説明する。 Details of the eye contact determination of the communication system 100 according to the embodiment will be described with reference to the flowchart of FIG.
まず、使用者10の頭部に取り付けられた視野画像取得カメラ1により、視野画像を撮像する(s1)。一方、機器3に搭載された使用者画像取得カメラ4により、機器3の操作位置に映る使用者画像を撮像する(s2)。使用者10側の情報処理装置2内の機器認識手段21bは、得られた視野画像データに基づき機器認識処理を行い機器認識結果を得る(s3)。一方、機器3側の情報処理装置5内の使用者認識手段51bは、得られた使用者画像データに基づき使用者認識処理を行い使用者認識結果を得る(s4)。使用者10側の情報処理装置2内のアイコンタクト判定手段21cは、これら機器認識結果及び使用者認識結果に基づきアイコンタクトの成立の可否を判定する(s5)。アイコンタクトの成立は、機器認識結果が機器認識可で、使用者認識結果が使用者認識可の場合であって、その状態の経過時間Tが閾値Tth以上になるか否かで判定される(s6)。
First, a visual field image is captured by the visual field
具体的には、機器認識手段21bで得られた機器認識結果が機器認識不可、あるいは使用者認識手段51bで得られた使用者認識結果が使用者認識不可のいずれかである場合には、アイコンタクト判定手段21cはアイコンタクト不成立と判定する(s8)。 Specifically, if the device recognition result obtained by the device recognition means 21b is either device recognition impossible or the user recognition result obtained by the user recognition means 51b is either user recognition impossible, The contact determination means 21c determines that the eye contact is not established (s8).
機器認識手段21bで得られた機器認識結果が機器認識可で、かつ使用者認識手段51bで得られた使用者認識結果が使用者認識可の場合、アイコンタクト判定手段21cは、機器認識可で使用者認識可である時間が閾値Tthを超えたか否かを判定する。閾値Tthを超えた場合、アイコンタクト判定手段21cはアイコンタクト成立と判定し(s7)、閾値Tthを超えない場合、アイコンタクト不成立と判定する(s8)。 When the device recognition result obtained by the device recognition means 21b is device recognition possible and the user recognition result obtained by the user recognition means 51b is user recognition possible, the eye contact determination means 21c is capable of device recognition. It is determined whether the time during which the user can be recognized exceeds a threshold value Tth . When the threshold value Tth is exceeded, the eye contact determination means 21c determines that eye contact is established (s7), and when the threshold value Tth is not exceeded, it is determined that eye contact is not established (s8).
アイコンタクト成立と判定された場合、例えば使用者用アプリケーション21eや機器用アプリケーション51dのうちの機器使用時のアプリケーションが起動し、機器3の通常の使用が開始される(s9)。
When it is determined that the eye contact is established, for example, an application at the time of use of the device among the
このように本実施形態によれば、使用者画像取得カメラ4で撮影した画像内に使用者10が写っているだけでは使用者10が機器3の方向を向いているかどうかを判断できないが、視野画像取得カメラ1の画像をあわせて利用することにより、アイコンタクトの成立の可否を容易に判断することができる。すなわち、機器3が使用者10の視野内に検出され、かつ使用者10が機器3の操作可能な位置を含む視野内に検出されている状態がある一定時間継続していることに基づきアイコンタクトの有無を判別できる。これにより、機器に近づき操作するなどの手間を必要とせず、アイコンタクトで機器の選択や、操作の開始を行うことができる。
As described above, according to the present embodiment, it is not possible to determine whether the user 10 is facing the direction of the
また、機器を認識するためのマーカを表示装置53に表示させることにより、携帯情報端末などの情報処理装置2側にそのマーカの使用者画像中の位置に基づき使用者が注視している部分を特定することができるため、注視している部分の情報を選択して情報処理装置2側、すなわち使用者10の手元で表示することができる。これにより、表示装置53に近づくことなく、見たい部分を拡大して手元で確認することができる。
In addition, by displaying a marker for recognizing the device on the
また、本発明は、複数の機器、複数人の使用者が存在する環境においても、機器に近づけたり、使用者間で機器を交換することなく、ある程度遠隔から使用したい機器を選択し、操作可能とすることができる。 In addition, even in an environment where there are multiple devices and multiple users, the present invention can select and operate a device to be used remotely to some extent without approaching the device or exchanging devices between users. It can be.
なお、本実施形態では、アイコンタクト判定手段21cを情報処理装置2側に配置する場合を示したが、これに限定されない。情報処理装置5側に配置してもよい。
In the present embodiment, the case where the eye
図9は情報処理装置5側にアイコンタクト判定手段51eの配置構成例を示す図である。アイコンタクト判定手段51eの機能はアイコンタクト判定手段21cと共通する。また、他の構成は上記図3に示される構成と共通し、同一構成は同一符号を付している。
FIG. 9 is a diagram illustrating an arrangement configuration example of the eye
図9に示す構成の場合、画像管理手段21aが視野画像データをデータベース22に格納し、機器認識手段21bが機器認識結果を生成する点は共通する。この機器認識結果は通信制御手段21dを介して情報処理装置5に送信される。
In the configuration shown in FIG. 9, the image management means 21a stores the field image data in the
情報処理装置5側では、画像管理手段51aが使用者画像データを得てデータベース52に格納する点、使用者認識手段51bが使用者認識結果を生成する点は共通する。
On the
情報処理装置5側では、情報処理装置2から送信された機器認識結果と使用者認識手段51bで得られた使用者認識結果に基づきアイコンタクト成立の可否を図3の場合と同様に判定する。得られた判定結果は通信制御手段51cを介して情報処理装置2に送信される。情報処理装置2の使用者用アプリケーション21eは、通信制御手段21dを介して受信された判定結果を表示部23に表示する。また、情報処理装置5側の機器用アプリケーション51dは、アイコンタクト判定手段51eで得られた判定結果と情報処理装置2から送信された機器認識結果に基づき機器表示データ52から機器部分表示データを抽出し、通信制御手段51cを介して情報処理装置2に送信する。情報処理装置2の使用者用アプリケーション21eは、通信制御手段21dを介して受信した機器部分表示データを表示部23に表示する。
On the
アイコンタクト判定処理のための各処理内容は図8に示したものと共通する。また、上記で特に言及していない処理については、図3に基づき説明した処理と共通する。 Each processing content for the eye contact determination processing is the same as that shown in FIG. Further, the processing not particularly mentioned above is common to the processing described based on FIG.
このように、アイコンタクト判定手段51eを情報処理装置5側に配置しても、上記実施形態と同様に、簡便な装置構成で使用者と機器とのアイコンタクトの有無を判断することができる。
As described above, even if the eye
(第2実施形態)
本実施形態は第1実施形態の変形例に係わる。本実施形態は、視野画像取得カメラ1及び使用者画像取得カメラ4に替えてネットワーク接続可能な視野画像取得カメラ60及び使用者画像取得カメラ70を用いる。この場合、機器3側に情報処理装置5を設ける必要がないため、使用者10側の情報処理装置80が1台でアイコンタクトの成立を判定できる。
(Second Embodiment)
This embodiment relates to a modification of the first embodiment. In the present embodiment, a visual field image acquisition camera 60 and a user image acquisition camera 70 that can be connected to a network are used instead of the visual field
図10は本実施形態に係るアイコンタクトコミュニケーションシステム200の構成を示す図である。図10に示すように、視野画像取得カメラ60で取得された視野画像信号と、使用者画像取得カメラ70で取得された使用者画像信号のいずれも無線通信などにより情報処理装置80に送信される。
FIG. 10 is a diagram showing a configuration of the eye
図11は視野画像取得カメラ60、使用者画像取得カメラ70及び情報処理装置80の詳細な構成を示す図である。視野画像取得カメラ60及び使用者画像取得カメラ70は、情報処理装置80と無線により通信可能とするために通信制御手段61b及び71bをそれぞれ備える。また、情報処理装置80の各構成は機器認識手段21bの代わりに認識手段210bを備える以外ほぼ同じであるが、各構成の処理内容が若干異なる。
FIG. 11 is a diagram illustrating detailed configurations of the field-of-view image acquisition camera 60, the user image acquisition camera 70, and the
視野画像取得カメラ60では、画像取得手段61aで取得された視野画像信号は、通信制御手段61bを介して情報処理装置80に無線により送信される。
In the visual field image acquisition camera 60, the visual field image signal acquired by the image acquisition unit 61a is wirelessly transmitted to the
使用者画像取得カメラ70では、画像取得手段71aで取得された使用者画像信号は、通信制御手段71bを介して情報処理装置80に無線により送信される。
In the user image acquisition camera 70, the user image signal acquired by the image acquisition means 71a is wirelessly transmitted to the
情報処理装置80の通信制御手段21dは、視野画像取得カメラ60から視野画像信号を受信し、使用者画像取得カメラ70から使用者画像信号を受信する。画像管理手段21aは、これら視野画像信号と使用者画像信号を視野画像データ及び使用者画像データとしてデータベース22に格納する。認識手段210bは、図3に示す機器認識手段21bと使用者認識手段51bとをあわせた機能を備える。すなわち、認識手段210bは、データベース22に格納された視野画像データに基づき機器認識を行い、機器認識結果を得るとともに、データベース22に格納された使用者画像データに基づき使用者認識を行い、使用者認識結果を得る。アイコンタクト判定手段21cは、認識手段210bで得られた機器認識結果及び使用者認識結果に基づきアイコンタクトの有無を判定する。使用者用アプリケーション21eは、アイコンタクト判定手段21cで得られた判定結果に基づき機器データ22を取得し、あるいは視野画像データの一部を含む機器部分表示データを生成して表示部23に表示する。機器部分表示データの生成は、上記第1実施形態と共通する。
The
このように本実施形態によれば、第1実施形態のアイコンタクトコミュニケーションシステム100と同様の作用効果を奏するのみならず、情報処理装置80が1台のみでアイコンタクトコミュニケーションシステム200が実現可能である。
As described above, according to the present embodiment, not only the same effects as the eye contact communication system 100 of the first embodiment can be achieved, but also the eye
本発明は上記実施形態に限定されない。 The present invention is not limited to the above embodiment.
上記実施形態では、各プログラムがデータベース22及び52から読み出されてプロセッサ21及び51で実行される例として示したが、これら各プログラムはプロセッサ21又は51に接続された不図示の記録媒体読取装置から、記録媒体に記録されたプログラムを読み出すことにより実行されてもよい。
In the above-described embodiment, each program is read from the
また、上記実施形態では使用者10を認識する使用者認識結果を得る処理については特に詳細に言及しなかったが、図6や図7を用いて説明したマーカを用いた機器3を認識する処理を使用者10の認識に適用してもよい。この場合、使用者10にマーカを付す必要があるが、例えばカメラ固定バンド11,12の一部や、視野画像取得カメラ1や60の一部をマーカとしたり、視野画像取得カメラ1にマーカを付してもよい。マーカは、他の部分に比して画像処理で顕著に相違が生じるようなもの、すなわち他の部分とは異なる部材などで構成すればよい。また、機器3でも同様に、他の部分とは異なる部材で構成されたマーカを用いれば、表示装置53にマーカ画像を表示する必要がない。
In the above embodiment, the process for obtaining the user recognition result for recognizing the user 10 is not particularly described in detail, but the process for recognizing the
また、認識されるべき使用者10が複数ある場合にマーカを用いるためには、各使用者10は、異なるマーカを用いればよい。この場合、使用者認識手段51b又は認識手段210bは、使用者画像データに含まれるマーカ画像の種別を判別することにより、複数の使用者を識別できる。データベース52又は22には、予め各マーカ画像の特徴データを格納しておき、この特徴データと使用者画像データに含まれるマーカ画像とを比較することにより、マーカ画像の種別を判別できる。
Moreover, in order to use a marker when there are a plurality of users 10 to be recognized, each user 10 may use a different marker. In this case, the user recognizing unit 51b or the recognizing
また、第2実施形態では、使用者10側に情報処理装置80を設けることにより一括処理する形態を示したが、これに限定されない。情報処理装置80に相当する構成を機器3側に設置してもよい。
Moreover, in 2nd Embodiment, although the form which batch-processes by providing the
また、機器認識手段21b、使用者認識手段51b、認識手段210bは、機器認識結果と使用者認識結果を2値、すなわち機器や使用者を認識できたか否かのみを判定する場合を示したが、これに限定されない。例えば認識の程度に応じてこれら機器認識結果と使用者認識結果を多値化し、アイコンタクトの判定に用いてもよい。
In addition, the
また、使用者画像取得カメラ4及び情報処理装置5は機器3側に搭載され、固定される場合を示しているが、機器3が移動する構成である場合には、この移動する機器3にあわせて使用者画像取得カメラ4及び情報処理装置5が移動するように構成してもよい。
In addition, the user
また、使用者10と機器3との間でのアイコンタクトを例に説明したが、使用者10同士のアイコンタクトに用いてもよい。この場合、例えば第1実施形態では使用者画像取得カメラ4の代わりに視野画像取得カメラ1を用い、2つの視野画像取得カメラ1を2人の使用者10にそれぞれ固定すればよい。
Moreover, although the eye contact between the user 10 and the
以上説明したようにこの発明は、使用者の視線を検出することにより使用者が利用する機器とのアイコンタクトの有無を判別するアイコンタクトコミュニケーションシステムの技術分野に有効である。 As described above, the present invention is effective in the technical field of an eye contact communication system that determines the presence or absence of eye contact with a device used by a user by detecting the user's line of sight.
1…視野画像取得カメラ、2…情報処理装置、3…機器、4…使用者画像取得カメラ、5…情報処理装置、6…通信ネットワーク、10…使用者、11,12…カメラ固定バンド、100…アイコンタクトシミュレーションシステム
DESCRIPTION OF
Claims (8)
複数の利用候補機器にそれぞれ搭載され、該利用候補機器を操作可能な位置の映像を撮像して第2の画像データを出力する複数の第2のカメラと、
前記第1の画像データに基づき少なくとも一人の使用候補者の視野内に、第1のデータベースに設定された、前記複数の利用候補機器のうちの特定の利用候補機器、が存在するか否かを認識して機器認識結果を得る機器認識手段と、
前記第2の画像データに基づき少なくとも一つの利用候補機器を操作可能な位置に、第2のデータベースに設定された、前記複数の使用候補者のうちの、前記特定の利用候補機器を使用する特定の使用候補者、が存在するか否かを認識して使用者認識結果を得る使用者認識手段と、
前記機器認識結果が前記少なくとも一人の使用候補者の視野内に前記特定の利用候補機器が存在することを示し、かつ前記使用者認識結果が前記少なくとも一つの利用候補機器を使用可能な位置に前記特定の使用候補者が存在することを示す状態が閾値以上の時間経過したか否かを判定する判定手段と
を具備してなることを特徴とするコミュニケーションシステム。 A plurality of first camera that outputs a first image data by imaging a plurality of use candidates viewing respectively,
Each is mounted on a plurality of available candidate device, a plurality of second camera that outputs a second image data by imaging the image of the operable position the utilization apparatus candidates,
Whether or not there is a specific use candidate device among the plurality of use candidate devices set in the first database within the field of view of at least one use candidate based on the first image data. Device recognition means for recognizing and obtaining device recognition results;
Identification using the specific usage candidate device among the plurality of usage candidates set in the second database at a position where at least one usage candidate device can be operated based on the second image data User recognition means for recognizing whether or not there is a use candidate, and obtaining a user recognition result;
Wherein said indicating that the particular use candidate devices exist, and that can use the user recognition result is at least one available apparatus candidates positioned in the device recognition result within the field of view of said at least one of the use candidate A communication system comprising: determination means for determining whether or not a state indicating that there is a specific use candidate has passed a time equal to or greater than a threshold value.
使用候補者により携帯され、前記機器認識手段で認識された前記特定の利用候補機器に設けられた前記表示装置のうち、使用候補者の注視部分の画像を表示する携帯表示部とをさらに備え、
前記機器認識手段は、前記視野画像データに含まれる前記マーカの撮像画像に基づき前記利用候補機器及び前記使用候補者の注視部分を認識することを特徴とする請求項1又は2に記載のコミュニケーションシステム。 Provided the use candidate device, a display device for displaying a marker for recognizing the use candidate device,
A portable display unit that displays an image of a gaze portion of the use candidate among the display devices provided in the specific use candidate device that is carried by the use candidate and recognized by the device recognition unit,
The device recognition unit, communication system according to claim 1 or 2, characterized in that to recognize the use candidate device and gazing portion of the use candidate based on the captured image of the marker contained in the visual field image data .
複数の利用候補機器にそれぞれ搭載された複数の第2のカメラが、該利用候補機器を操作可能な位置の映像を撮像して第2の画像データを出力するステップと、
機器認識手段が、前記第1の画像データに基づき少なくとも一人の使用候補者の視野内に、第1のデータベースに設定された、前記複数の利用候補機器のうちの特定の利用候補機器、が存在するか否かを認識して機器認識結果を得るステップと、
使用者認識手段が、前記第2の画像データに基づき少なくとも一つの利用候補機器を操作可能な位置に、第2のデータベースに設定された、前記複数の使用候補者のうちの、前記特定の利用候補機器を使用する特定の使用候補者、が存在するか否かを認識して使用者認識結果を得るステップと、
判定手段が、前記機器認識結果が前記少なくとも一人の使用候補者の視野内に前記特定の利用候補機器が存在することを示し、かつ前記使用者認識結果が前記少なくとも一つの利用候補機器を使用可能な位置に前記特定の使用候補者が存在することを示す状態が閾値以上の時間経過したか否かを判定するステップと
を具備してなることを特徴とするコミュニケーション方法。 A step in which a plurality of first camera outputs the first image data by imaging a plurality of use candidates viewing respectively,
A plurality of second cameras respectively mounted on a plurality of use candidate devices, taking images of positions where the use candidate devices can be operated and outputting second image data;
The device recognition means has a specific use candidate device among the plurality of use candidate devices set in the first database within the field of view of at least one use candidate based on the first image data. Recognizing whether or not to obtain a device recognition result; and
The specific use of the plurality of use candidates set in the second database at a position where the user recognition means can operate at least one use candidate device based on the second image data. Recognizing whether a specific use candidate using the candidate device exists and obtaining a user recognition result;
The determination unit indicates that the device recognition result indicates that the specific use candidate device exists within the field of view of the at least one use candidate , and the user recognition result can use the at least one use candidate device. Communication method characterized by state indicating said that a particular use candidates present in Do position is by and a step of determining whether elapsed threshold over time.
複数の第1のカメラが複数の使用候補者の視野をそれぞれ撮像して得られる第1の画像データに基づき、少なくとも一人の使用候補者の視野内に、第1のデータベースに設定された、複数の利用候補機器のうちの特定の利用候補機器、が存在するか否かを認識して機器認識結果を得る機器認識手段と、
前記複数の利用候補機器にそれぞれ搭載された複数の第2のカメラが該利用候補機器を操作可能な位置の映像を撮像して得られる第2の画像データに基づき、少なくとも一つの利用候補機器を操作可能な位置に、第2のデータベースに設定された、前記複数の使用候補者のうちの、前記特定の利用候補機器を使用する特定の使用候補者、が存在するか否かを認識して使用者認識結果を得る使用者認識手段と、
前記機器認識結果が前記少なくとも一人の使用候補者の視野内に前記特定の利用候補機器が存在することを示し、かつ前記使用者認識結果が前記少なくとも一つの利用候補機器を使用可能な位置に前記特定の使用候補者が存在することを示す状態が閾値以上の時間経過したか否かを判定する判定手段と
として機能させるためのプログラム。 Computer
The plurality of first cameras set in the first database in the field of view of at least one use candidate based on the first image data obtained by imaging the fields of view of the plurality of use candidates by the plurality of first cameras, respectively. Device recognition means for recognizing whether there is a specific use candidate device among the use candidate devices, and obtaining a device recognition result;
Based on the second image data obtained by capturing images of positions where the plurality of second cameras respectively mounted on the plurality of use candidate devices can operate the use candidate devices , at least one use candidate device is selected. Recognizing whether there is a specific use candidate that uses the specific use candidate device among the plurality of use candidates set in the second database at an operable position A user recognition means for obtaining a user recognition result;
Wherein said indicating that the particular use candidate devices exist, and that can use the user recognition result is at least one available apparatus candidates positioned in the device recognition result within the field of view of said at least one of the use candidate A program for functioning as a determination means for determining whether or not a state indicating that a specific use candidate exists has passed a time equal to or greater than a threshold value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003431220A JP4277301B2 (en) | 2003-12-25 | 2003-12-25 | Communication system, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003431220A JP4277301B2 (en) | 2003-12-25 | 2003-12-25 | Communication system, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005190205A JP2005190205A (en) | 2005-07-14 |
JP4277301B2 true JP4277301B2 (en) | 2009-06-10 |
Family
ID=34789356
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003431220A Expired - Fee Related JP4277301B2 (en) | 2003-12-25 | 2003-12-25 | Communication system, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4277301B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5928551B2 (en) * | 2014-04-01 | 2016-06-01 | カシオ計算機株式会社 | Information processing system, information device, wearable information device, information device function execution method, wearable information device information notification method, wearable information device information device control method, wearable information device image transmission method, and program |
-
2003
- 2003-12-25 JP JP2003431220A patent/JP4277301B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005190205A (en) | 2005-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4751776B2 (en) | Electronic imaging device and personal identification system | |
KR20150055543A (en) | Gesture recognition device and gesture recognition device control method | |
JP5004845B2 (en) | Monitoring terminal device and display processing method thereof, program, memory | |
CN101911670A (en) | Digital camera focusing using stored object recognition | |
US10127424B2 (en) | Image processing apparatus, image processing method, and image processing system | |
KR20140114832A (en) | Method and apparatus for user recognition | |
EP2533533A1 (en) | Display Control Device, Display Control Method, Program, and Recording Medium | |
JP2019153920A (en) | Information processing apparatus, control method thereof, subject detection system, and program | |
WO2015111655A1 (en) | Head-mounted display device | |
EP3576419A1 (en) | Image processing apparatus, information processing apparatus, information processing method, and program | |
JP2010218039A (en) | System and method for authenticating face | |
JP2008209306A (en) | Camera | |
JP2007172378A (en) | Apparatus for specifying object to be gazed at | |
JP2022003526A (en) | Information processor, detection system, method for processing information, and program | |
JP4277301B2 (en) | Communication system, method and program | |
US9076031B2 (en) | Image capture apparatus, control method of image capture apparatus, and recording medium | |
JP2011259384A (en) | Imaging apparatus, display device, program, and recording media | |
JP5376689B2 (en) | Information processing apparatus, apparatus search method, apparatus search support method, and recording medium | |
JP2005033682A (en) | Video display system | |
US10609231B2 (en) | Image processing apparatus acquiring biological information and associating same with operating state | |
JP2018045271A (en) | Portable terminal for maintenance work and display control method of portable terminal for maintenance work | |
JP7094759B2 (en) | System, information processing method and program | |
US20200186766A1 (en) | Information processing apparatus, image capturing apparatus, and information processing method | |
JP2019101783A (en) | Information processing device and method | |
CN104205799A (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080205 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080909 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081106 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20081215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090227 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120319 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4277301 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140319 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |