JP2016177565A - Communication control device, communication control method, and program - Google Patents

Communication control device, communication control method, and program Download PDF

Info

Publication number
JP2016177565A
JP2016177565A JP2015057583A JP2015057583A JP2016177565A JP 2016177565 A JP2016177565 A JP 2016177565A JP 2015057583 A JP2015057583 A JP 2015057583A JP 2015057583 A JP2015057583 A JP 2015057583A JP 2016177565 A JP2016177565 A JP 2016177565A
Authority
JP
Japan
Prior art keywords
communication
user
communication device
information
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015057583A
Other languages
Japanese (ja)
Inventor
喜多 一記
Kazunori Kita
一記 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015057583A priority Critical patent/JP2016177565A/en
Publication of JP2016177565A publication Critical patent/JP2016177565A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To simply perform information communication with a communication apparatus.SOLUTION: An eyeglass-type communication terminal 1 comprises: a line-of-sight direction estimation unit 104a for estimating the direction of the line-of-sight of a user; a positioning unit 106b for detecting a current position; and a communication control unit 108 for, on the basis of the estimated direction of the line-of-sight of the user, the detected current position, and specific information on at least one communication apparatus 2 stored in a storage unit 103, if it is considered that the one communication apparatus has entered the eyesight of the user, connecting with the one communication apparatus in an information communication possible manner.SELECTED DRAWING: Figure 3

Description

本発明は、通信制御装置、通信制御方法及びプログラムに関する。   The present invention relates to a communication control device, a communication control method, and a program.

従来、通信可能範囲内に存する通信機器との情報通信を制御する通信制御装置が知られている。また、近年では、使用者に装着されるウェアラブルコンピューター端末として、眼鏡型通信端末も知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a communication control device that controls information communication with a communication device existing within a communicable range is known. In recent years, eyeglass-type communication terminals are also known as wearable computer terminals worn by users (see, for example, Patent Document 1).

特開2014−90386号公報JP 2014-90386 A

ところで、眼鏡型通信端末として、例えば、使用者の視線を検出して、他の通信機器との情報通信を制御するものもあるが、視線検出の精度によって誤操作が生じてしまい、使い勝手が悪いといった問題がある。   By the way, some glasses-type communication terminals, for example, detect the user's line of sight and control information communication with other communication devices. There's a problem.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、通信機器との情報通信を簡便に行うことができる通信制御装置、通信制御方法及びプログラムを提供することである。   This invention is made | formed in view of such a problem, and the subject of this invention is providing the communication control apparatus, the communication control method, and program which can perform information communication with a communication apparatus simply. is there.

上記課題を解決するため、本発明に係る通信制御装置は、
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶されている記憶手段と、
使用者の視線の方向を推定する推定手段と、
現在位置を検出する検出手段と、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段と、
を備えたことを特徴としている。
In order to solve the above problems, a communication control device according to the present invention provides:
Storage means for storing specific information including position information of at least one communication device capable of information communication;
An estimation means for estimating the direction of the user's line of sight;
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
It is characterized by having.

また、本発明に係る通信制御方法は、
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置を用いた通信制御方法であって、
使用者の視線の方向を推定するステップと、
現在位置を検出するステップと、
推定された視線の方向、検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続するステップと、
を含むことを特徴としている。
Further, the communication control method according to the present invention includes:
A communication control method using a communication control device including a storage unit storing specific information including position information of at least one communication device capable of information communication,
Estimating the direction of the user's line of sight;
Detecting the current position;
Based on the estimated line-of-sight direction, the detected current position, and the specific information of the at least one communication device stored in the storage unit, the one communication device is regarded as having entered the user's field of view. If so, the step of connecting to the one communication device so that information communication is possible,
It is characterized by including.

また、本発明に係るプログラムは、
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置が有するコンピュータを、
使用者の視線の方向を推定する推定手段、
現在位置を検出する検出手段、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段、
として機能させることを特徴としている。
The program according to the present invention is
A computer included in a communication control device including storage means in which specific information including position information of at least one communication device capable of information communication is stored.
An estimation means for estimating the direction of the line of sight of the user,
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
It is characterized by making it function as.

本発明によれば、通信機器との情報通信を簡便に行うことができる。   According to the present invention, information communication with a communication device can be easily performed.

本発明を適用した一実施形態の通信制御システムの概略構成を示す図である。It is a figure which shows schematic structure of the communication control system of one Embodiment to which this invention is applied. 図1の通信制御システムを構成する眼鏡型通信端末を示す斜視図である。It is a perspective view which shows the spectacles type communication terminal which comprises the communication control system of FIG. 図2の眼鏡型通信端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the spectacles type communication terminal of FIG. 図1の通信制御システムによる通信制御処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the communication control process by the communication control system of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

図1は、本発明を適用した一実施形態の通信制御システム100の概略構成を示す図である。
図1に示すように、本実施形態の通信制御システム100は、眼鏡型通信端末(図2及び図3参照)1と、複数の通信機器2、…とを備えている。
複数の通信機器2、…は、例えば、自宅に配設され、眼鏡型通信端末1と無線通信回線(例えば、Bluetooth(登録商標)等の無線PAN(Personal Area Network))を介して情報通信可能となっている。
FIG. 1 is a diagram showing a schematic configuration of a communication control system 100 according to an embodiment to which the present invention is applied.
As shown in FIG. 1, the communication control system 100 of the present embodiment includes a glasses-type communication terminal (see FIGS. 2 and 3) 1 and a plurality of communication devices 2.
A plurality of communication devices 2,... Are installed at home, for example, and can communicate with the glasses-type communication terminal 1 via a wireless communication line (for example, a wireless PAN (Personal Area Network) such as Bluetooth (registered trademark)). It has become.

先ず、眼鏡型通信端末1について、図2及び図3を参照して説明する。
図2は、眼鏡型通信端末1がユーザMの頭部に装着された状態を示す斜視図である。また、図3は、眼鏡型通信端末1の概略構成を示すブロック図である。
First, the glasses-type communication terminal 1 will be described with reference to FIGS.
FIG. 2 is a perspective view showing a state in which the glasses-type communication terminal 1 is mounted on the head of the user M. FIG. 3 is a block diagram illustrating a schematic configuration of the glasses-type communication terminal 1.

図2に示すように、眼鏡型通信端末1は、所謂、ユーザMに装着されるウェアラブルコンピューターシステムであり、特に頭部装着型コンピューターシステム(ヘッドマウンティドディスプレイ)である。より具体的には、この眼鏡型通信端末1は、眼鏡のようにして頭部に装着可能に構成されている。   As shown in FIG. 2, the glasses-type communication terminal 1 is a so-called wearable computer system worn by a user M, and particularly a head-mounted computer system (head-mounted display). More specifically, the glasses-type communication terminal 1 is configured to be worn on the head like glasses.

図3に示すように、眼鏡型通信端末1は、中央制御部101と、メモリ102と、記憶部103と、撮像部104と、表示部105と、測位処理部106と、機器特定部107と、通信制御部108と、操作入力部109等を備えている。
また、中央制御部101、メモリ102、記憶部103、撮像部104、表示部105、測位処理部106、機器特定部107及び通信制御部108は、バスライン110を介して接続されている。
As shown in FIG. 3, the glasses-type communication terminal 1 includes a central control unit 101, a memory 102, a storage unit 103, an imaging unit 104, a display unit 105, a positioning processing unit 106, and a device specifying unit 107. A communication control unit 108, an operation input unit 109, and the like.
The central control unit 101, the memory 102, the storage unit 103, the imaging unit 104, the display unit 105, the positioning processing unit 106, the device specifying unit 107, and the communication control unit 108 are connected via a bus line 110.

中央制御部101は、眼鏡型通信端末1の各部を制御するものである。具体的には、中央制御部101は、図示は省略するが、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)を備え、眼鏡型通信端末1用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 101 controls each unit of the glasses-type communication terminal 1. Specifically, although not shown, the central control unit 101 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory), and various processing programs for the glasses-type communication terminal 1. Various control operations are performed in accordance with (not shown).

メモリ102は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部101の他、当該眼鏡型通信端末1の各部によって処理されるデータ等を一時的に記憶するものである。   The memory 102 is configured by, for example, a DRAM (Dynamic Random Access Memory) or the like, and temporarily stores data processed by each unit of the glasses-type communication terminal 1 in addition to the central control unit 101.

記憶部103は、例えば、SSD(Solid State Drive)等から構成され、各種情報を記憶する。具体的には、記憶部103は、通信機器データ103aを記憶している。   The memory | storage part 103 is comprised from SSD (Solid State Drive) etc., for example, and memorize | stores various information. Specifically, the storage unit 103 stores communication device data 103a.

通信機器データ103aは、情報通信可能に接続される通信機器2に係るデータである。具体的には、具体的には、通信機器データ103aは、例えば、情報通信可能に接続される複数の通信機器2(例えば、通信機器A1〜A3等)の名称と、各々の通信機器2の識別情報と、各々の通信機器2の位置情報とが対応付けられている。
位置情報は、例えば、各通信機器2が配設されている位置の座標(例えば、緯度、経度や高度等)を含む情報である。
このように、記憶部103は、情報通信が可能な少なくとも一の通信機器2の位置情報を含む特定情報が記憶されている記憶手段を構成している。
The communication device data 103a is data related to the communication device 2 connected so as to be capable of information communication. Specifically, for example, the communication device data 103a includes, for example, names of a plurality of communication devices 2 (for example, communication devices A1 to A3) that are connected so as to be capable of information communication, and information on each communication device 2. The identification information is associated with the position information of each communication device 2.
The position information is information including coordinates (for example, latitude, longitude, altitude, etc.) of the position where each communication device 2 is disposed.
As described above, the storage unit 103 constitutes storage means in which specific information including position information of at least one communication device 2 capable of information communication is stored.

なお、通信機器データ103aには、例えば、表示部105に表示され、当該通信機器2を識別可能な指標(例えば、アイコン等;図示略)が対応付けられて記憶されていても良い。
また、上記した通信機器データ103aのデータ構成や情報通信可能な通信機器2は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、自宅以外の場所(例えば、職場や商業施設やイベント会場や乗り物等)に配設される通信機器(図示略)に関連する情報が記憶されていても良い。
The communication device data 103a may be stored in association with an index (for example, an icon or the like; not shown) that is displayed on the display unit 105 and can identify the communication device 2, for example.
Further, the data configuration of the communication device data 103a and the communication device 2 capable of information communication are merely examples and are not limited thereto, and can be arbitrarily changed as appropriate. For example, information related to communication devices (not shown) arranged in places other than home (for example, workplaces, commercial facilities, event venues, vehicles, etc.) may be stored.

撮像部(撮像手段)104は、当該眼鏡型通信端末1本体を装着したユーザMの視界A(図1等参照)に対応する範囲を撮像する。具体的には、撮像部104は、例えば、図示は省略するが、レンズ部と、電子撮像部と、撮像制御部とを備えている。   The imaging unit (imaging unit) 104 images a range corresponding to the field of view A (see FIG. 1 and the like) of the user M wearing the glasses-type communication terminal 1 main body. Specifically, for example, the imaging unit 104 includes a lens unit, an electronic imaging unit, and an imaging control unit (not shown).

レンズ部は、例えば、ズームレンズやフォーカスレンズ等の複数のレンズ(図示略)から構成されている。
電子撮像部は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサ(図示略)から構成され、レンズ部の各種レンズを通過した光学像を二次元の画像信号に変換する。
The lens unit includes a plurality of lenses (not shown) such as a zoom lens and a focus lens.
The electronic imaging unit includes, for example, an image sensor (not shown) such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-oxide Semiconductor), and an optical image passing through various lenses of the lens unit is converted into a two-dimensional image signal. Convert to

撮像制御部は、例えば、タイミング発生器、ドライバ等(図示略)を備えている。そして、撮像制御部は、タイミング発生器、ドライバにより電子撮像部を走査駆動して、所定周期毎にレンズ部により結像された光学像を電子撮像部により二次元の画像信号に変換させ、当該電子撮像部の撮像領域から1画面分ずつフレーム画像を読み出してメモリ102に出力させる。なお、各フレーム画像は、図示しない画像処理部により逐次処理されて、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)に変換される。   The imaging control unit includes, for example, a timing generator, a driver, and the like (not shown). Then, the imaging control unit scans and drives the electronic imaging unit with a timing generator and a driver, converts an optical image formed by the lens unit at predetermined intervals into a two-dimensional image signal with the electronic imaging unit, and A frame image is read from the imaging area of the electronic imaging unit for each screen and is output to the memory 102. Each frame image is sequentially processed by an image processing unit (not shown) and converted into a digital luminance signal Y and color difference signals Cb, Cr (YUV data).

また、撮像部104は、視線方向推定部104aを具備している。
視線方向推定部(推定手段)104aは、ユーザMの視線Eの方向を推定する。すなわち、視線方向推定部104aは、当該撮像部104により撮像されたフレーム画像をユーザMの視界Aに対応する範囲として推定する。そして、視線方向推定部104aは、推定された範囲内の所定位置に向かう方向をユーザMの視線Eの方向として推定する。具体的には、視線方向推定部104aは、撮像部104により撮像された視界Aに対応する範囲であるフレーム画像中の基準位置(例えば、中心等)と、当該眼鏡型通信端末1本体を頭部に装着した姿勢から想定されるユーザMの瞳の位置とを通る直線を特定する。そして、視線方向推定部104aは、特定された直線の方向をユーザMの視線Eの方向として推定する。
In addition, the imaging unit 104 includes a line-of-sight direction estimation unit 104a.
The line-of-sight direction estimation unit (estimating unit) 104a estimates the direction of the line of sight E of the user M. That is, the gaze direction estimation unit 104 a estimates the frame image captured by the imaging unit 104 as a range corresponding to the field of view A of the user M. Then, the line-of-sight direction estimation unit 104a estimates the direction toward the predetermined position within the estimated range as the direction of the line of sight E of the user M. Specifically, the line-of-sight direction estimation unit 104a uses the reference position (for example, the center) in the frame image that is a range corresponding to the field of view A captured by the imaging unit 104 and the eyeglass-type communication terminal 1 main body as a head. A straight line passing through the position of the pupil of the user M assumed from the posture attached to the part is specified. Then, the line-of-sight direction estimation unit 104a estimates the direction of the identified straight line as the direction of the line of sight E of the user M.

なお、上記したユーザMの視線Eの方向の推定手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、3軸加速度センサ(図示略)を用いて重力軸方向並びに当該重力軸方向に対する各軸の傾きを検出することで、当該眼鏡型通信端末1本体の傾きを特定し、特定された眼鏡型通信端末1本体の傾きを考慮してユーザMの視線Eの方向を推定しても良いし、単に当該眼鏡型通信端末1の正面方向をユーザMの視線Eの方向としても良い。   Note that the above-described method for estimating the direction of the line of sight E of the user M is an example, and is not limited thereto, and can be arbitrarily changed as appropriate. For example, by detecting the gravity axis direction and the inclination of each axis with respect to the gravity axis direction using a three-axis acceleration sensor (not shown), the inclination of the glasses-type communication terminal 1 main body is specified, and the specified glasses type The direction of the line of sight E of the user M may be estimated in consideration of the inclination of the communication terminal 1 main body, or the front direction of the eyeglass-type communication terminal 1 may be simply set as the direction of the line of sight E of the user M.

表示部105は、映像の光と視界Aに対応する外界像の光とを重畳して表示領域に透過表示する。
具体的には、表示部105は、眼鏡本体1aのレンズの前に配置されている光学素子を備えている。光学素子は、ホログラフィック光学素子であり、ユーザMの前の外界の像の光が光学素子を通過してユーザMの瞳へ到達するとともに、表示制御部(図示略)によって生成された映像(例えば、関連情報)の光が光学素子によってユーザMの瞳へ導かれる(回折反射される)。そのため、外界像の光と映像の光が重畳され、外界像及び映像が合成されてユーザMの瞳に映る。
The display unit 105 superimposes the light of the image and the light of the external image corresponding to the field of view A, and transmits and displays them in the display area.
Specifically, the display unit 105 includes an optical element disposed in front of the lens of the spectacle body 1a. The optical element is a holographic optical element, and light of an external image in front of the user M passes through the optical element and reaches the pupil of the user M, and an image (not shown) generated by a display control unit (not shown). For example, light of related information) is guided (diffracted and reflected) to the pupil of the user M by the optical element. Therefore, the light of the external world image and the light of the video are superimposed, and the external world image and the video are synthesized and reflected on the pupil of the user M.

また、表示部105は、表示制御部により生成された映像信号が入力され、その映像信号に基づく映像を生成(表示)する。例えば、表示部105は、表示コントローラ、表示素子(例えば、液晶表示素子、デジタル・マイクロミラー・デバイス等の空間光変調素子)及び光源装置等(図示略)を備えている。表示コントローラは、映像信号に基づいて光源装置及び表示素子を制御し、光源装置が原色光(例えば赤色光、青色光及び緑色光)を表示素子に照射し、表示素子が表示コントローラによって駆動されることによって、表示素子に照射される光が画素毎に変調制御される。これにより、表示素子によって映像が生成される。なお、表示部105の表示素子が時発光型表示素子であれば、光源装置が表示部105に設けられていない。
そして、表示部(特に、表示素子)105によって生成された映像は、光学素子及び投影レンズによってユーザMの瞳に投影される。
The display unit 105 receives the video signal generated by the display control unit, and generates (displays) a video based on the video signal. For example, the display unit 105 includes a display controller, a display element (for example, a spatial light modulation element such as a liquid crystal display element or a digital micromirror device), and a light source device (not shown). The display controller controls the light source device and the display element based on the video signal, the light source device irradiates the display element with primary color light (for example, red light, blue light, and green light), and the display element is driven by the display controller. Thus, the light applied to the display element is modulated and controlled for each pixel. As a result, an image is generated by the display element. Note that if the display element of the display unit 105 is a time-emitting display element, the light source device is not provided in the display unit 105.
The video generated by the display unit (in particular, the display element) 105 is projected onto the pupil of the user M by the optical element and the projection lens.

測位処理部106は、例えば、GPS(Global Positioning System)等のGNSS(Global Navigation Satellite System)を利用して、当該眼鏡型通信端末1本体の存する現在位置を測位する。
すなわち、測位処理部106は、例えば、地球低軌道に打ち上げられた複数の測位衛星Sから送信される信号(例えば、C/A(Coarse and Acquisitions)コードやP(Precise)コード等の測位符号、アルマナック情報(概略軌道情報)やエフェメリス情報(詳細軌道情報)等の航法メッセージなど)を所定のタイミングで受信アンテナ106aにより受信する。
The positioning processing unit 106 measures the current position of the glasses-type communication terminal 1 main body using, for example, a GNSS (Global Navigation Satellite System) such as GPS (Global Positioning System).
That is, the positioning processing unit 106, for example, signals transmitted from a plurality of positioning satellites S launched in low earth orbit (for example, positioning codes such as C / A (Coarse and Acquisitions) code and P (Precise) code), Almanac information (schematic trajectory information) and ephemeris information (detailed trajectory information) are received by the receiving antenna 106a at a predetermined timing.

測位処理部106の測位部106bは、受信アンテナ106aにより受信された信号に基づいて、例えば、3次元測位モードで眼鏡型通信端末1本体の3次元の現在位置(緯度、経度、高度)を測位する測位処理を行う。具体的には、測位部106bは、受信アンテナ106aにより受信された信号に含まれる航法メッセージ(例えば、エフェメリス情報等)に基づいて所定の演算を行って各測位衛星Sの位置を算出する。そして、例えば、3次元測位モードの場合、測位部106bは、4つ以上の測位衛星Sの各々に対応する擬似距離情報を算出した後、各測位衛星Sの位置に基づいて所定の演算を行うことで、当該眼鏡型通信端末1本体の存する現在位置の3次元の座標(x、y、z)や眼鏡型通信端末1本体の時計の誤差等を算出する。このように、測位部106bは、検出手段として、眼鏡型通信端末1本体の存する現在位置を検出する。
また、測位処理部106は、測位部106bにより生成された眼鏡型通信端末1本体の存する現在位置の位置情報をメモリ102に出力しても良い。
The positioning unit 106b of the positioning processing unit 106 measures, for example, the three-dimensional current position (latitude, longitude, altitude) of the glasses-type communication terminal 1 main body in the three-dimensional positioning mode based on the signal received by the receiving antenna 106a. Perform the positioning process. Specifically, the positioning unit 106b calculates a position of each positioning satellite S by performing a predetermined calculation based on a navigation message (for example, ephemeris information) included in a signal received by the receiving antenna 106a. For example, in the case of the three-dimensional positioning mode, the positioning unit 106b calculates pseudorange information corresponding to each of the four or more positioning satellites S, and then performs a predetermined calculation based on the position of each positioning satellite S. Thus, the three-dimensional coordinates (x, y, z) of the current position where the glasses-type communication terminal 1 main body exists, the error of the clock of the glasses-type communication terminal 1 main body, and the like are calculated. Thus, the positioning part 106b detects the present position where the spectacles type communication terminal 1 main body exists as a detection means.
Further, the positioning processing unit 106 may output the position information of the current position of the glasses-type communication terminal 1 main body generated by the positioning unit 106 b to the memory 102.

機器特定部107は、当該眼鏡型通信端末1と情報通信可能な通信対象を特定する。
すなわち、機器特定部107は、視線方向推定部104aにより推定されたユーザMの視線Eの方向及び測位処理部106により検出された当該眼鏡型通信端末1本体の現在位置に基づいて、通信可能として検出された通信機器2の中から通信対象を特定する。具体的には、機器特定部107は、視線方向推定部104aにより推定されたユーザMの視線Eの方向及び測位処理部106により検出された眼鏡型通信端末1本体の現在位置に基づいて、眼鏡型通信端末1本体の現在位置を基準とするユーザMの視界A(図1における、扇形状の範囲に相当)を特定する。また、機器特定部107は、測位処理部106により検出された眼鏡型通信端末1本体の現在位置と記憶部103の通信機器データ103aに記憶されている各々の通信機器2の位置情報に基づいて、当該眼鏡型通信端末1に対する各通信機器2の相対位置及び相対方向を算出する。そして、機器特定部107は、算出された各通信機器2の相対位置及び相対方向に基づいて、通信可能として検出された少なくとも一の通信機器2の中から当該ユーザMの視界Aに入ったとみなされる通信機器2(例えば、通信機器A2等)を通信対象として特定する。
なお、ここで通信可能として検出される通信機器2は、記憶部103に記憶されている通信機器2だけに限らず、記憶部103に記憶されていない通信機器2であっても検出するようにしても良い。
The device specifying unit 107 specifies a communication target capable of information communication with the glasses-type communication terminal 1.
That is, the device specifying unit 107 can communicate based on the direction of the line of sight E of the user M estimated by the line-of-sight direction estimation unit 104a and the current position of the glasses-type communication terminal 1 main body detected by the positioning processing unit 106. A communication target is specified from the detected communication devices 2. Specifically, the device specifying unit 107 determines the spectacles based on the direction of the line of sight E of the user M estimated by the line-of-sight direction estimation unit 104 a and the current position of the glasses-type communication terminal 1 main body detected by the positioning processing unit 106. The field of view A (corresponding to the fan-shaped range in FIG. 1) of the user M relative to the current position of the main body of the type communication terminal 1 is specified. Further, the device specifying unit 107 is based on the current position of the glasses-type communication terminal 1 main body detected by the positioning processing unit 106 and the position information of each communication device 2 stored in the communication device data 103 a of the storage unit 103. Then, the relative position and the relative direction of each communication device 2 with respect to the glasses-type communication terminal 1 are calculated. Then, the device specifying unit 107 is regarded as having entered the field of view A of the user M from at least one communication device 2 detected as communicable based on the calculated relative position and relative direction of each communication device 2. Communication device 2 (for example, communication device A2) is identified as a communication target.
Note that the communication device 2 detected as communicable here is not limited to the communication device 2 stored in the storage unit 103 but may be detected even if the communication device 2 is not stored in the storage unit 103. May be.

なお、上記した通信対象の特定手法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、機器特定部107は、撮像部3により撮像された各フレーム画像の画像データに対して所定の特徴抽出処理(例えば、エッジ抽出処理等)などの画像処理を行うことで通信機器2を抽出して特定しても良い。また、機器特定部107は、計時部(図示略)により計時された現在の時刻を基準とする時間帯を考慮して、例えば、早朝の場合、ユーザMがニュースをチェックしたいと考えられるので、テレビやオーディオ機器やPCを特定対象とし、ニュースを発信しない機器を特定対象から除外するような処理を行っても良い。   Note that the above-described method for specifying a communication target is an example, and is not limited thereto, and can be arbitrarily changed as appropriate. For example, the device specifying unit 107 extracts the communication device 2 by performing image processing such as predetermined feature extraction processing (for example, edge extraction processing) on the image data of each frame image captured by the imaging unit 3. You may specify. In addition, the device specifying unit 107 considers the time zone based on the current time measured by the time measuring unit (not shown), and, for example, in the early morning, the user M wants to check the news. A process may be performed in which televisions, audio devices, and PCs are specified targets, and devices that do not transmit news are excluded from the specified targets.

通信制御部108は、所定の無線通信回線(例えば、Bluetooth等の無線PAN(Personal Area Network))を介して接続された通信機器2等の外部機器との情報の通信制御を行う。
具体的には、通信制御部108は、例えば、通信アンテナ108aを介して通信機器2との間で無線通信を行うための制御モジュールを具備している。この通信制御部108は、例えば、予めペアリングと呼ばれる通信設定処理を行うことで、互いのデバイス情報や認証鍵のデータを無線信号により通信相手と交換する。これにより、その後、通信設定処理を毎回行わなくとも、例えば、眼鏡型通信端末1と通信相手とが電波が届かない範囲に離れれば通信接続が解除される一方で、電波が届く範囲に近づけば自動的に通信接続される。例えば、通信制御部(通信制御手段)108は、機器特定部107によりユーザMの視界Aに入ったとみなされて通信対象として特定された通信機器2(例えば、通信機器A2等)を通信相手として通信設定処理を行い、当該通信機器2と情報通信可能に接続する。
The communication control unit 108 performs communication control of information with an external device such as the communication device 2 connected via a predetermined wireless communication line (for example, a wireless PAN (Personal Area Network) such as Bluetooth).
Specifically, the communication control unit 108 includes, for example, a control module for performing wireless communication with the communication device 2 via the communication antenna 108a. For example, the communication control unit 108 performs communication setting processing called pairing in advance, thereby exchanging device information and authentication key data with a communication partner using a wireless signal. As a result, even if the communication setting process is not performed every time thereafter, for example, if the glasses-type communication terminal 1 and the communication partner are separated from each other within a range where the radio wave does not reach, the communication connection is released, while the communication connection is canceled. Communication connection is automatically established. For example, the communication control unit (communication control unit) 108 uses the communication device 2 (for example, the communication device A2) identified as the communication target by the device specifying unit 107 as being considered to have entered the field of view A of the user M as a communication partner. A communication setting process is performed, and the communication device 2 is connected so that information communication is possible.

ここで、ブルートゥースによる通信の規格には、通信速度や適用可能なプロファイルの種類(図示略)等が異なる「1.x」、「2.x」、「2.x+EDR」、「3.x」、「3.x+EDR」、「3.x+HS」、「4.x」等の複数のバージョンがある。これらのバージョンについての詳細な説明は省略するが、通信制御部108は、例えば、下位互換性を有する「Bluetooth Classic」と呼ばれるバージョンの一つである「2.x+EDR」と、他のバージョンとは互換性を有しない「Bluetooth Low Energy(BLE)」と呼ばれるバージョンである「4.x」の両方の機能に対応している。そして、通信制御部108は、通信速度や省電力性能等を考慮して、通信機器2とは「2.x+EDR」の規格(「Bluetooth Classic」)でのブルートゥースによる通信を行う。   Here, the Bluetooth communication standards include “1.x”, “2.x”, “2.x + EDR”, “3.x”, which are different in communication speed, applicable profile type (not shown), and the like. , “3.x + EDR”, “3.x + HS”, “4.x”, and the like. Although a detailed description of these versions is omitted, the communication control unit 108, for example, is “2.x + EDR”, which is one of the versions called “Bluetooth Classic” having backward compatibility, and other versions. It supports both functions of “4.x”, which is a version called “Bluetooth Low Energy (BLE)” that is not compatible. Then, the communication control unit 108 performs communication with the communication device 2 based on the “2.x + EDR” standard (“Bluetooth Classic”) in consideration of the communication speed, power saving performance, and the like.

なお、通信制御部108は、例えば、無線LANモジュール等から構成され、外部のアクセスポイントを経由せずに直接通信機器2との間で無線通信回線を構築するPeer to Peer(アドホックモード)で動作しても良い。   The communication control unit 108 is composed of, for example, a wireless LAN module and operates in a peer-to-peer (ad hoc mode) that directly establishes a wireless communication line with the communication device 2 without going through an external access point. You may do it.

操作入力部109は、眼鏡型通信端末1本体に対して各種指示を入力するためのものである。
具体的には、操作入力部109は、眼鏡型通信端末1本体の電源のON/OFFに係る電源ボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部109は、操作されたボタンに応じた操作指示を中央制御部101に出力する。中央制御部101は、操作入力部109から出力され入力された操作指示に従って所定の動作を各部に実行させる。
The operation input unit 109 is for inputting various instructions to the glasses-type communication terminal 1 main body.
Specifically, the operation input unit 109 includes various buttons (such as a power button for turning on / off the power of the glasses-type communication terminal 1 main body, and up / down / left / right cursor buttons and a determination button for selecting instructions such as modes and functions). All of them are not shown).
When various buttons are operated by the user, the operation input unit 109 outputs an operation instruction corresponding to the operated button to the central control unit 101. The central control unit 101 causes each unit to execute a predetermined operation in accordance with an operation instruction output from the operation input unit 109 and input.

次に、通信機器2について説明する。
通信機器2は、眼鏡型通信端末1と無線通信回線(例えば、Bluetooth等の無線PAN)を介して情報通信可能なものであれば如何なるものであっても良い。すなわち、通信機器2は、上記した眼鏡型通信端末1に備わる通信制御部108と略同様に、ブルートゥース通信を行うための制御モジュール(図示略)を具備している。
Next, the communication device 2 will be described.
The communication device 2 may be any device that can communicate information with the glasses-type communication terminal 1 via a wireless communication line (for example, a wireless PAN such as Bluetooth). That is, the communication device 2 includes a control module (not shown) for performing Bluetooth communication in substantially the same manner as the communication control unit 108 provided in the above-described glasses-type communication terminal 1.

また、自宅に配設される通信機器2(例えば、通信機器A1〜A3等)としては、例えば、テレビ、オーディオ機器、PC、体重計、体脂肪率計、心拍計、血圧計、自動洗浄式トイレ(何れも図示略)等が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。   Moreover, as the communication apparatus 2 (for example, communication apparatus A1-A3 etc.) arrange | positioned at home, a television, an audio apparatus, PC, a weight scale, a body fat rate meter, a heart rate monitor, a blood pressure meter, an automatic washing type, for example A toilet (none of which is not shown) can be mentioned, but it is an example, and the present invention is not limited thereto, and can be arbitrarily changed as appropriate.

<通信制御処理>
次に、通信制御システム100による通信制御処理について、図4を参照して説明する。
図4は、通信制御処理に係る動作の一例を示すフローチャートである。
<Communication control processing>
Next, communication control processing by the communication control system 100 will be described with reference to FIG.
FIG. 4 is a flowchart illustrating an example of an operation related to the communication control process.

図4に示すように、先ず、眼鏡型通信端末1にあっては、視線方向推定部104aは、撮像部104により撮像されたフレーム画像をユーザMの視界Aに対応する範囲として推定し、推定された範囲内の所定位置(例えば、中心)に向かう方向をユーザMの視線Eの方向として推定する(ステップS1)。
続けて、測位処理部106の測位部106bは、受信アンテナ106aにより受信された信号に基づいて、眼鏡型通信端末1本体の3次元の現在位置を測位して位置情報を生成する(ステップS2)。
As shown in FIG. 4, first, in the eyeglass-type communication terminal 1, the line-of-sight direction estimation unit 104a estimates the frame image captured by the imaging unit 104 as a range corresponding to the field of view A of the user M, and estimates A direction toward a predetermined position (for example, the center) within the range is estimated as the direction of the line of sight E of the user M (step S1).
Subsequently, the positioning unit 106b of the positioning processing unit 106 determines the three-dimensional current position of the glasses-type communication terminal 1 main body based on the signal received by the receiving antenna 106a, and generates position information (step S2). .

なお、ステップS1におけるユーザMの視線Eの方向の推定と、ステップS2における眼鏡型通信端末1本体の現在位置の測位の順序は、一例であってこれに限られるものではなく、例えば、逆であっても良い。   The order of the direction of the line of sight E of the user M in step S1 and the positioning of the current position of the main body of the glasses-type communication terminal 1 in step S2 are examples and are not limited to this. There may be.

次に、機器特定部107は、ユーザMの視線Eの方向及び眼鏡型通信端末1本体の現在位置に基づいて、眼鏡型通信端末1本体の現在位置を基準とするユーザMの視界Aを特定する(ステップS3)。続けて、機器特定部107は、記憶部103から通信機器データ103aを読み出して取得し、各々の通信機器2(例えば、通信機器A1〜A3等)の位置情報と眼鏡型通信端末1本体の現在位置の位置情報に基づいて、当該眼鏡型通信端末1に対する各通信機器2の相対位置及び相対方向を算出する(ステップS4)。   Next, the device identification unit 107 identifies the field of view A of the user M based on the current position of the glasses-type communication terminal 1 main body based on the direction of the line of sight E of the user M and the current position of the glasses-type communication terminal 1 main body. (Step S3). Subsequently, the device specifying unit 107 reads out and acquires the communication device data 103a from the storage unit 103, and acquires the position information of each communication device 2 (for example, communication devices A1 to A3) and the current state of the glasses-type communication terminal 1 main body. Based on the position information of the position, the relative position and relative direction of each communication device 2 with respect to the eyeglass-type communication terminal 1 are calculated (step S4).

そして、機器特定部107は、算出された各通信機器2の相対位置及び相対方向に基づいて、現在通信可能として検出された通信機器2(例えば、通信機器A1〜A3等)の中から当該ユーザMの視界A内に通信機器2が存するか否かを判定する(ステップS5)。例えば、ユーザMの視界Aが図1の二点鎖線で示すような範囲の場合には、ユーザMの視界A内に何れの通信機器2も存しない状態となる。一方、ユーザMが頭を右方向に回転させてユーザMの視界Aが図1の一点鎖線で示すような範囲となると、ユーザMの視界A内に通信機器A2が存する状態となる。
ステップS5にて、ユーザMの視界A内に通信機器2が存しないと判定されると(ステップS5;NO)、中央制御部101のCPUは、処理をステップS1に戻し、それ以降の各処理を実行する。すなわち、ステップS1にて、視線方向推定部104aは、ユーザMの視線Eの方向を推定し、ステップS2にて、測位部106bは、眼鏡型通信端末1本体の現在位置を測位する。そして、機器特定部107は、ステップS3にて、眼鏡型通信端末1本体の現在位置を基準とするユーザMの視界Aを特定し、ステップS4にて、当該眼鏡型通信端末1に対する各通信機器2の相対位置及び相対方向を算出する。
上記の各処理は、ステップS5にて、ユーザMの視界A内に通信機器2が存すると判定(ステップS5;YES)されるまで、繰り返し実行される。
The device specifying unit 107 then selects the user from the communication devices 2 (for example, communication devices A1 to A3) detected as currently communicable based on the calculated relative position and relative direction of each communication device 2. It is determined whether or not the communication device 2 exists in the M field of view A (step S5). For example, when the field of view A of the user M is in a range indicated by a two-dot chain line in FIG. 1, no communication device 2 exists in the field of view A of the user M. On the other hand, when the user M rotates his / her head in the right direction and the field of view A of the user M is in a range as indicated by the one-dot chain line in FIG. 1, the communication device A2 exists in the field of view A of the user M.
If it is determined in step S5 that the communication device 2 does not exist in the field of view A of the user M (step S5; NO), the CPU of the central control unit 101 returns the process to step S1, and the subsequent processes. Execute. That is, in step S1, the line-of-sight direction estimation unit 104a estimates the direction of the line of sight E of the user M, and in step S2, the positioning unit 106b measures the current position of the glasses-type communication terminal 1 main body. In step S3, the device specifying unit 107 specifies the field of view A of the user M with reference to the current position of the main body of the glasses-type communication terminal 1, and in step S4, each communication device for the glasses-type communication terminal 1 is specified. 2 relative position and relative direction are calculated.
Each of the above processes is repeatedly executed until it is determined in step S5 that the communication device 2 exists in the field of view A of the user M (step S5; YES).

一方、ステップS5にて、ユーザMの視界A内に通信機器2が存すると判定されると(ステップS5;YES)、機器特定部107は、ユーザMの視界A内に存する通信機器2(例えば、通信機器A2等)を通信対象の候補として、当該通信機器2の識別情報を表示部105に出力し、表示部105は、入力された通信機器2の識別情報に対応する指標(例えば、アイコン等)を通信機器データ103aから取得して表示する(ステップS6)。
次に、中央制御部1のCPUは、通信対象の候補として表示部105に表示されている指標に対応する通信機器2を通信対象とする指示が入力されたか否かを判定する(ステップS7)。ここで、通信対象とする指示の入力は、ユーザMによる操作入力部109の所定操作に基づいて行われても良いし、GUI(グラフィカルユーザーインターフェース)等を用いて指標にユーザMの視線が重なったことを検出して行われても良いし、音声入力等を用いて行われても良い。
On the other hand, if it is determined in step S5 that the communication device 2 is present in the field of view A of the user M (step S5; YES), the device identification unit 107 determines that the communication device 2 exists in the field of view A of the user M (for example, , Communication device A2 or the like) as a candidate for communication, the identification information of the communication device 2 is output to the display unit 105, and the display unit 105 displays an index (for example, an icon) corresponding to the input identification information of the communication device 2 Etc.) is acquired from the communication device data 103a and displayed (step S6).
Next, the CPU of the central control unit 1 determines whether or not an instruction to communicate with the communication device 2 corresponding to the index displayed on the display unit 105 as a candidate for communication is input (step S7). . Here, the input of the instruction to be communicated may be performed based on a predetermined operation of the operation input unit 109 by the user M, or the line of sight of the user M overlaps the index using a GUI (graphical user interface) or the like. This may be performed by detecting the fact, or may be performed using voice input or the like.

ステップS7にて、指標に対応する通信機器2を通信対象とする指示が入力されていないと判定されると(ステップS7;NO)、中央制御部101のCPUは、処理をステップS1に戻し、それ以降の各処理を実行する。
一方、ステップS7にて、指標に対応する通信機器2を通信対象とする指示が入力されたと判定されると(ステップS7;YES)、通信制御部108は、通信対象とする指示が入力された通信機器2(例えば、通信機器A2等)を通信相手として通信設定処理(例えば、ペアリング等)を行って、当該通信機器2と情報通信可能に無線接続する(ステップS8)。
If it is determined in step S7 that the instruction to communicate with the communication device 2 corresponding to the index is not input (step S7; NO), the CPU of the central control unit 101 returns the process to step S1, Each subsequent process is executed.
On the other hand, when it is determined in step S7 that an instruction to communicate with the communication device 2 corresponding to the index is input (step S7; YES), the communication control unit 108 receives an instruction to communicate. Communication setting processing (for example, pairing or the like) is performed with the communication device 2 (for example, the communication device A2) as a communication partner, and wireless communication is established with the communication device 2 so that information communication is possible (step S8).

なお、眼鏡型通信端末1と通信機器2(例えば、通信機器A2等)との無線通信は、例えば、眼鏡型通信端末1と通信機器2とが電波が届かない範囲に離れたり、新たな通信機器2(例えば、通信機器A1等)と情報通信可能に無線接続されることにより解除される。   Note that the wireless communication between the glasses-type communication terminal 1 and the communication device 2 (for example, the communication device A2) is, for example, within a range where the glasses-type communication terminal 1 and the communication device 2 do not reach radio waves, or new communication. It is canceled by wirelessly connecting to the device 2 (for example, the communication device A1 or the like) so that information communication is possible.

以上のように、本実施形態の通信制御システム100によれば、眼鏡型通信端末1は、ユーザMの視線Eの方向及び当該眼鏡型通信端末1本体の現在位置、記憶部103の通信機器データ103aに記憶されている少なくとも一の通信機器2の特定情報に基づいて、一の通信機器2がユーザMの視界Aに入ったとみなされた場合に、当該一の通信機器2と情報通信可能に接続するので、ユーザMの視線Eの方向を推定し、当該眼鏡型通信端末1本体の現在位置を検出するだけで情報通信可能な通信機器2(例えば、通信機器A2等)を特定して接続することができる。すなわち、ユーザMの視線Eが眼鏡型通信端末1と情報通信したいユーザ所望の通信機器2に向けられるだけで、当該通信機器2を識別して情報通信可能に接続することができる。したがって、従来のように視線検出の精度によって誤操作が生じる虞がなくなり、眼鏡型通信端末1と通信機器2との情報通信を簡便に行うことができる。   As described above, according to the communication control system 100 of the present embodiment, the glasses-type communication terminal 1 includes the direction of the line of sight E of the user M, the current position of the glasses-type communication terminal 1 main body, and the communication device data in the storage unit 103. Based on the specific information of at least one communication device 2 stored in 103a, when it is considered that one communication device 2 has entered the field of view A of the user M, information communication with the one communication device 2 is possible. Since the connection is made, the direction of the line of sight E of the user M is estimated, and the communication device 2 (for example, the communication device A2 etc.) capable of information communication only by detecting the current position of the glasses-type communication terminal 1 main body is specified and connected. can do. That is, the communication device 2 can be identified and connected so as to be able to communicate information only by directing the line of sight E of the user M to the communication device 2 desired by the user who wants to communicate information with the glasses-type communication terminal 1. Therefore, there is no possibility of erroneous operation depending on the accuracy of the line-of-sight detection as in the prior art, and information communication between the glasses-type communication terminal 1 and the communication device 2 can be easily performed.

また、ユーザMの視界Aに対応する範囲を推定し、当該範囲内の所定位置に向かう方向をユーザMの視線Eの方向として推定するので、ユーザMの視線Eの方向の推定を適正に行うことができる。具体的には、例えば、ユーザMの頭部に装着可能に構成された眼鏡型通信端末1を用いて、ユーザMの視界Aに対応する範囲を撮像することで、撮像された範囲の画像に基づいてユーザMの視線Eの方向の推定を精度良く且つ簡便に行うことができる。   Further, since the range corresponding to the field of view A of the user M is estimated and the direction toward the predetermined position in the range is estimated as the direction of the line of sight E of the user M, the direction of the line of sight E of the user M is appropriately estimated. be able to. Specifically, for example, by using the glasses-type communication terminal 1 configured to be worn on the head of the user M, the range corresponding to the field of view A of the user M is captured, so that an image of the captured range is obtained. Based on this, the direction of the line of sight E of the user M can be estimated accurately and easily.

なお、本発明は、上記実施形態に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態にあっては、情報通信可能に接続される少なくとも一の通信機器2をその位置情報と対応付けて通信機器データ103aとして記憶するようにしたが、一例であってこれに限られるものではなく、例えば、当該通信機器データ103aを外部機器(例えば、外部サーバ等;図示略)に記憶しておき、眼鏡型通信端末1は、当該外部機器と通信して通信対象を特定するような構成であっても良い。
The present invention is not limited to the above-described embodiment, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the above-described embodiment, at least one communication device 2 connected so as to be capable of information communication is stored as communication device data 103a in association with the position information. For example, the communication device data 103a is stored in an external device (for example, an external server or the like; not shown), and the glasses-type communication terminal 1 communicates with the external device to identify a communication target. Such a configuration may be adopted.

また、上記した図4の通信制御処理のステップS7にて、指標に対応する通信機器2を通信対象とする指示が入力されたと判定されると、通信制御部108は、通信対象とする指示が入力された通信機器2を通信相手として通信設定処理行って、当該通信機器2と情報通信可能に無線接続するようにしたが、一例であってこれに限られるものではなく、指標に対応する通信機器2と自動的に情報通信可能に無線接続するようにしても良い。   If it is determined in step S7 of the communication control process in FIG. 4 that an instruction to communicate with the communication device 2 corresponding to the index is input, the communication control unit 108 receives the instruction to communicate. The communication setting process is performed using the input communication device 2 as a communication partner, and wireless connection is established with the communication device 2 so as to perform information communication. However, the communication device 2 is an example, and the communication corresponding to the index is not limited thereto. A wireless connection may be automatically established with the device 2 so that information communication is possible.

また、通信制御システム100の構成や当該通信制御システム100が有する眼鏡型通信端末(通信制御装置)1の構成は、上記実施形態に例示したものは一例であり、これに限られるものではない。
すなわち、眼鏡型通信端末1の代わりに、例えば、スマートフォン、携帯電話やPHS(Personal Handy-phone System)、PDA(Personal Data Assistants)等を適用しても良い。また、上記実施形態にあっては、ユーザMの頭部に装着可能な眼鏡型通信端末1を例示したが、例えば、ユーザMの他の部位(例えば、肩や胸等)に装着可能な構成であっても良い。
Further, the configuration of the communication control system 100 and the configuration of the eyeglass-type communication terminal (communication control device) 1 included in the communication control system 100 are merely examples, and are not limited thereto.
That is, instead of the glasses-type communication terminal 1, for example, a smartphone, a mobile phone, a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), or the like may be applied. Moreover, in the said embodiment, although the spectacles type | mold communication terminal 1 which can be mounted | worn on the user's M head was illustrated, the structure which can be mounted | worn to the other site | part (for example, a shoulder, a chest, etc.) of the user M, for example. It may be.

また、上記実施形態にあっては、通信機器2として、自宅に配設されたものを例示したが、一例であってこれに限られるものではなく、適宜任意に変更可能である。すなわち、例えば、PCやタブレット端末、キーボード、マウス、プリンタ(何れも図示略)等の職場に配設される通信機器(図示略)であっても良いし、「i-Beacon(登録商標)」タグなどのビーコン送信機、この送信機が設置された店舗(商業施設)、公共施設、設備、座席、商品(何れも図示略)等のイベント会場に配設される通信機器(図示略)であっても良い。また、自動車、電車、飛行機等の乗り物に搭載されている通信機器(図示略)であっても良い。   Moreover, in the said embodiment, although what was arrange | positioned at home was illustrated as the communication apparatus 2, it is an example and it is not restricted to this, It can change arbitrarily arbitrarily. That is, for example, it may be a communication device (not shown) disposed in the workplace such as a PC, a tablet terminal, a keyboard, a mouse, a printer (all not shown), or “i-Beacon (registered trademark)”. Beacon transmitters such as tags, communication equipment (not shown) installed in event venues such as stores (commercial facilities) where this transmitter is installed, public facilities, equipment, seats, products (all not shown) There may be. Moreover, the communication apparatus (illustration omitted) mounted in vehicles, such as a motor vehicle, a train, and an airplane, may be sufficient.

加えて、上記実施形態にあっては、推定手段、検出手段、通信制御手段としての機能を、眼鏡型通信端末1の中央制御部101の制御下にて、視線方向推定部104a、測位部106b、通信制御部108が駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部101によって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムメモリ(図示略)に、推定処理ルーチン、検出処理ルーチン、通信制御処理ルーチンを含むプログラムを記憶しておく。そして、推定処理ルーチンにより中央制御部101のCPUを、ユーザMの視線Eの方向を推定する手段として機能させるようにしても良い。また、検出処理ルーチンにより中央制御部101のCPUを、現在位置を検出する手段として機能させるようにしても良い。また、通信制御処理ルーチンにより中央制御部101のCPUを、推定された視線Eの方向、検出された現在位置及び記憶されている少なくとも一の通信機器2の特定情報に基づいて、一の通信機器2がユーザMの視界Aに入ったとみなされた場合、一の通信機器2と情報通信可能に接続する手段として機能させるようにしても良い。
In addition, in the above-described embodiment, the functions as the estimation unit, the detection unit, and the communication control unit are controlled by the central control unit 101 of the glasses-type communication terminal 1, and the line-of-sight direction estimation unit 104a and the positioning unit 106b. However, the configuration is realized by driving the communication control unit 108. However, the configuration is not limited to this, and may be realized by executing a predetermined program or the like by the central control unit 101.
That is, a program including an estimation processing routine, a detection processing routine, and a communication control processing routine is stored in a program memory (not shown). Then, the CPU of the central control unit 101 may function as a means for estimating the direction of the line of sight E of the user M by an estimation processing routine. Further, the CPU of the central control unit 101 may function as a means for detecting the current position by a detection processing routine. Further, the communication control processing routine allows the CPU of the central control unit 101 to change one communication device based on the estimated direction of the line of sight E, the detected current position, and the stored specific information of at least one communication device 2. When 2 is considered to have entered the field of view A of the user M, it may function as a means for connecting to one communication device 2 so as to be able to communicate information.

同様に、撮像手段についても、眼鏡型通信端末1の中央制御部101のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the imaging means may be realized by executing a predetermined program or the like by the CPU of the central control unit 101 of the glasses-type communication terminal 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記憶媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory, a portable storage medium such as a CD-ROM, in addition to a ROM or a hard disk, is applied. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
<請求項1>
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶されている記憶手段と、
使用者の視線の方向を推定する推定手段と、
現在位置を検出する検出手段と、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段と、
を備えたことを特徴とする通信制御装置。
<請求項2>
前記推定手段は、更に、使用者の視界に対応する範囲を推定し、当該範囲内の所定位置に向かう方向を視線の方向として推定することを特徴とする請求項1に記載の通信制御装置。
<請求項3>
使用者の視界に対応する範囲を撮像する撮像手段を備え、
前記推定手段は、前記撮像手段により撮像された範囲の画像に基づいて、前記使用者の視線の方向を推定することを特徴とする請求項1又は2に記載の通信制御装置。
<請求項4>
使用者の所定位置に装着可能に構成されていることを特徴とする請求項1〜3の何れか一項に記載の通信制御装置。
<請求項5>
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置を用いた通信制御方法であって、
使用者の視線の方向を推定するステップと、
現在位置を検出するステップと、
推定された視線の方向、検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続するステップと、
を含むことを特徴とする通信制御方法。
<請求項6>
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置が有するコンピュータを、
使用者の視線の方向を推定する推定手段、
現在位置を検出する検出手段、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段、
として機能させることを特徴とするプログラム。
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
[Appendix]
<Claim 1>
Storage means for storing specific information including position information of at least one communication device capable of information communication;
An estimation means for estimating the direction of the user's line of sight;
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
A communication control apparatus comprising:
<Claim 2>
The communication control apparatus according to claim 1, wherein the estimation unit further estimates a range corresponding to a user's field of view, and estimates a direction toward a predetermined position within the range as a line-of-sight direction.
<Claim 3>
An imaging means for imaging a range corresponding to the user's field of view;
The communication control apparatus according to claim 1, wherein the estimation unit estimates a direction of the line of sight of the user based on an image in a range captured by the imaging unit.
<Claim 4>
The communication control device according to claim 1, wherein the communication control device is configured to be attachable to a predetermined position of a user.
<Claim 5>
A communication control method using a communication control device including a storage unit storing specific information including position information of at least one communication device capable of information communication,
Estimating the direction of the user's line of sight;
Detecting the current position;
Based on the estimated line-of-sight direction, the detected current position, and the specific information of the at least one communication device stored in the storage unit, the one communication device is regarded as having entered the user's field of view. If so, the step of connecting to the one communication device so that information communication is possible,
The communication control method characterized by including.
<Claim 6>
A computer included in a communication control device including storage means in which specific information including position information of at least one communication device capable of information communication is stored.
An estimation means for estimating the direction of the line of sight of the user,
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
A program characterized by functioning as

100 通信制御システム
1 眼鏡型通信端末
101 中央制御部
104 撮像部
104a 視線方向推定部
106 測位処理部
106b 測位部
107 機器特定部
108 通信制御部
2 通信機器
DESCRIPTION OF SYMBOLS 100 Communication control system 1 Eyeglass-type communication terminal 101 Central control part 104 Imaging part 104a Gaze direction estimation part 106 Positioning process part 106b Positioning part 107 Device identification part 108 Communication control part 2 Communication equipment

Claims (6)

情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶されている記憶手段と、
使用者の視線の方向を推定する推定手段と、
現在位置を検出する検出手段と、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段と、
を備えたことを特徴とする通信制御装置。
Storage means for storing specific information including position information of at least one communication device capable of information communication;
An estimation means for estimating the direction of the user's line of sight;
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
A communication control apparatus comprising:
前記推定手段は、更に、使用者の視界に対応する範囲を推定し、当該範囲内の所定位置に向かう方向を視線の方向として推定することを特徴とする請求項1に記載の通信制御装置。   The communication control apparatus according to claim 1, wherein the estimation unit further estimates a range corresponding to a user's field of view, and estimates a direction toward a predetermined position within the range as a line-of-sight direction. 使用者の視界に対応する範囲を撮像する撮像手段を備え、
前記推定手段は、前記撮像手段により撮像された範囲の画像に基づいて、前記使用者の視線の方向を推定することを特徴とする請求項1又は2に記載の通信制御装置。
An imaging means for imaging a range corresponding to the user's field of view;
The communication control apparatus according to claim 1, wherein the estimation unit estimates a direction of the line of sight of the user based on an image in a range captured by the imaging unit.
使用者の所定位置に装着可能に構成されていることを特徴とする請求項1〜3の何れか一項に記載の通信制御装置。   The communication control device according to claim 1, wherein the communication control device is configured to be attachable to a predetermined position of a user. 情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置を用いた通信制御方法であって、
使用者の視線の方向を推定するステップと、
現在位置を検出するステップと、
推定された視線の方向、検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続するステップと、
を含むことを特徴とする通信制御方法。
A communication control method using a communication control device including a storage unit storing specific information including position information of at least one communication device capable of information communication,
Estimating the direction of the user's line of sight;
Detecting the current position;
Based on the estimated line-of-sight direction, the detected current position, and the specific information of the at least one communication device stored in the storage unit, the one communication device is regarded as having entered the user's field of view. If so, the step of connecting to the one communication device so that information communication is possible,
The communication control method characterized by including.
情報通信が可能な少なくとも一の通信機器の位置情報を含む特定情報が記憶された記憶手段を備える通信制御装置が有するコンピュータを、
使用者の視線の方向を推定する推定手段、
現在位置を検出する検出手段、
前記推定手段により推定された視線の方向、前記検出手段により検出された現在位置及び前記記憶手段に記憶されている前記少なくとも一の通信機器の特定情報に基づいて、前記一の通信機器が前記使用者の視界に入ったとみなされた場合、前記一の通信機器と情報通信可能に接続する通信制御手段、
として機能させることを特徴とするプログラム。
A computer included in a communication control device including storage means in which specific information including position information of at least one communication device capable of information communication is stored.
An estimation means for estimating the direction of the line of sight of the user,
Detection means for detecting the current position;
Based on the direction of the line of sight estimated by the estimation means, the current position detected by the detection means, and the specific information of the at least one communication equipment stored in the storage means, the one communication device uses the use Communication control means for connecting to the one communication device so as to be able to communicate information,
A program characterized by functioning as
JP2015057583A 2015-03-20 2015-03-20 Communication control device, communication control method, and program Pending JP2016177565A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015057583A JP2016177565A (en) 2015-03-20 2015-03-20 Communication control device, communication control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015057583A JP2016177565A (en) 2015-03-20 2015-03-20 Communication control device, communication control method, and program

Publications (1)

Publication Number Publication Date
JP2016177565A true JP2016177565A (en) 2016-10-06

Family

ID=57071219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015057583A Pending JP2016177565A (en) 2015-03-20 2015-03-20 Communication control device, communication control method, and program

Country Status (1)

Country Link
JP (1) JP2016177565A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022018941A1 (en) 2020-07-22 2022-01-27 横河電機株式会社 Device, system, method, and program
EP3985487A1 (en) 2020-10-13 2022-04-20 Yokogawa Electric Corporation Apparatus, method and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022018941A1 (en) 2020-07-22 2022-01-27 横河電機株式会社 Device, system, method, and program
EP3985487A1 (en) 2020-10-13 2022-04-20 Yokogawa Electric Corporation Apparatus, method and program
US11663900B2 (en) 2020-10-13 2023-05-30 Yokogawa Electric Corporation Apparatus, method and storage medium for detecting when a viewed equipment is different from an equipment to be inspected

Similar Documents

Publication Publication Date Title
JP5929933B2 (en) Display system, display terminal, display method and program
US11340072B2 (en) Information processing apparatus, information processing method, and recording medium
US8634852B2 (en) Camera enabled headset for navigation
US10536807B1 (en) Techniques for allocating positioning tasks among a plurality of mobile devices
WO2011158639A1 (en) Location-related display system, mobile device and mobile device program
US10045154B2 (en) Proximity based device usage
US10291320B2 (en) Positioning using light capturing sensors
JP5528057B2 (en) Device discovery method
US10641865B2 (en) Computer-readable recording medium, display control method and display control device
US20120032795A1 (en) Communication system and communication terminal
US11143507B2 (en) Information processing apparatus and information processing method
JP2016177565A (en) Communication control device, communication control method, and program
CN111344776B (en) Information processing device, information processing method, and program
JP2011209622A (en) Device and method for providing information, and program
WO2018079043A1 (en) Information processing device, image pickup device, information processing system, information processing method, and program
US10760913B2 (en) Determining and reducing inertial navigation system drift
JP6439744B2 (en) Display system, information apparatus, display method, and program
JP6541704B2 (en) System including terminal device for displaying virtual object and server device
JP2018056791A (en) Display device, reception device, program, and control method of reception device
JP2022152222A (en) Augmented reality glasses, augmented reality glasses control method and control program
JP2020201723A (en) Image processing apparatus, wearable device, image processing program, image processing method, object recognition apparatus, object recognition program, and object recognition method
WO2020079418A1 (en) Location method, portable device and system