JP2015125464A - Wearable device - Google Patents

Wearable device Download PDF

Info

Publication number
JP2015125464A
JP2015125464A JP2013267223A JP2013267223A JP2015125464A JP 2015125464 A JP2015125464 A JP 2015125464A JP 2013267223 A JP2013267223 A JP 2013267223A JP 2013267223 A JP2013267223 A JP 2013267223A JP 2015125464 A JP2015125464 A JP 2015125464A
Authority
JP
Japan
Prior art keywords
unit
wearable device
user
detection unit
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013267223A
Other languages
Japanese (ja)
Other versions
JP6120444B2 (en
Inventor
松木 友明
Tomoaki Matsuki
友明 松木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013267223A priority Critical patent/JP6120444B2/en
Publication of JP2015125464A publication Critical patent/JP2015125464A/en
Application granted granted Critical
Publication of JP6120444B2 publication Critical patent/JP6120444B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a wearable device configured to ensure safety of a user.SOLUTION: A wearable device 1 includes an eyeglass-like frame 10 to be worn on the face of a user. A face section includes an electronic device 11 having an imaging section 12 which images a subject. The electronic device 11 includes a transmissive display unit 13 arranged at a tip. The electronic device 11 includes a detection section, a notification section, and a control section, in addition to the imaging section 12 and the display unit 13.

Description

本発明は、体に装着するウェアラブルデバイスに関する。   The present invention relates to a wearable device attached to a body.

近年、ユーザの体に装着して利用するウェアラブルデバイスがある。
ウェアラブルデバイスの一つに、ユーザの頭部に装着され、ユーザの視界内に映像を表示するヘッドマウントディスプレイ(HMD)がある。
In recent years, there are wearable devices that are worn on a user's body.
One of the wearable devices is a head mounted display (HMD) that is mounted on the user's head and displays an image in the user's field of view.

ここで、撮像装置で捉えた映像を表示する外界光透過型のHMDにおいて、映像を認識する機能を備えて対象物に関する各種の情報を自動的に表示する技術が提案されている(特許文献1を参照。)   Here, in an external light transmissive HMD that displays an image captured by an imaging device, a technique for automatically displaying various types of information related to an object with a function of recognizing the image has been proposed (Patent Document 1). See.)

特許文献1によれば、視線方向の対象物を電子的に捉える撮像装置と、この電子データから対象物を認識する映像認識手段を備え、予め記憶手段に記憶された対象物に関する情報を表示する技術が提案されている。   According to Patent Literature 1, an imaging device that electronically captures an object in the line-of-sight direction and a video recognition unit that recognizes the object from the electronic data are displayed, and information related to the object stored in advance in the storage unit is displayed. Technology has been proposed.

特開2006−267887号公報JP 2006-267887 A

ところで、HMD等のウェアラブルデバイスを装着したまま移動するユーザは、表示される映像や情報に集中するあまり、周囲への注意力が散漫になり、怪我等をするおそれがある。
本発明は、上述のような使用によってもユーザの安全性を図ることができるウェアラブルデバイスを提供することを目的とする。
By the way, a user who moves while wearing a wearable device such as an HMD concentrates on the displayed video and information, and his attention to the surroundings is distracted, which may cause injury.
An object of this invention is to provide the wearable device which can aim at a user's safety | security by use as mentioned above.

本発明に係るウェアラブルデバイスは、上述の課題を解決するために、メガネ型フレームに配置される撮像部と、前記撮像部によって撮像された画像を解析し、予め定められている物体を検出する検出部と、報知部と、前記検出部の検出結果に基づいて、前記報知部から所定の報知を行うように制御する制御部とを備える構成である。   In order to solve the above-described problem, a wearable device according to the present invention analyzes an image captured by an image capturing unit disposed in a glasses-type frame and an image captured by the image capturing unit, and detects a predetermined object. A control unit that controls to perform predetermined notification from the notification unit based on a detection result of the detection unit.

また、ウェアラブルデバイスでは、ユーザの目の動きを検出し、視線の向きを検出する視線検出部を備え、前記視線検出部は、前記メガネ型フレームのフェイス部に配置され、前記制御部は、前記検出部の検出結果と、前記視線検出部の検出結果に基づいて、前記報知部から所定の報知を行うように制御する構成でもよい。   Further, the wearable device includes a line-of-sight detection unit that detects the eye movement of the user and detects the direction of the line of sight, the line-of-sight detection unit is disposed on a face part of the glasses-type frame, and the control unit includes Based on the detection result of the detection unit and the detection result of the line-of-sight detection unit, the notification unit may perform control so that predetermined notification is performed.

また、ウェアラブルデバイスでは、前記検出部は、所定の標識を検出することより、前記予め定められている物体を検出する構成でもよい。   In the wearable device, the detection unit may detect the predetermined object by detecting a predetermined sign.

まだ、ウェアラブルデバイスでは、前記検出部は、予め定められている物体が所定の距離内に近接したことを検出する構成でもよい。   Still further, in the wearable device, the detection unit may be configured to detect that a predetermined object approaches within a predetermined distance.

本発明によれば、ユーザの安全性を図ることができる。   According to the present invention, user safety can be achieved.

ウェアラブルデバイスの外観を示す図である。It is a figure which shows the external appearance of a wearable device. ウェアラブルデバイスの構成を示すブロック図である。It is a block diagram which shows the structure of a wearable device.

ウェアラブルデバイス(wearable device)とは、ユーザの身体に装着して利用することが想定された端末(デバイス)の総称である。デバイスは「端末」又は「装置」という意味の概念である。また、ウェアラブルデバイスは、ウェアラブルコンピュータ、スマートデバイス等と実質的に同義である。
以下に、ウェアラブルデバイスの構成と動作について説明する。
A wearable device is a generic term for a terminal (device) that is assumed to be worn on a user's body. A device is a concept meaning “terminal” or “apparatus”. A wearable device is substantially synonymous with a wearable computer, a smart device, and the like.
The configuration and operation of the wearable device will be described below.

ウェアラブルデバイス1は、図1に示すように、ユーザの顔に装着するメガネ型フレーム10により構成されている。
メガネ型フレーム10には、被写体を撮像する撮像部12を備える電子デバイス11が配置される。撮像部12は、ユーザの視界範囲を含めて、広い範囲の空間を撮像する。なお、撮像部12は、ユーザの正面、両側面及び背面の360度すべてを撮像する構成でもよい。
As shown in FIG. 1, the wearable device 1 includes a glasses-type frame 10 that is worn on a user's face.
An electronic device 11 including an imaging unit 12 that images a subject is disposed on the glasses-type frame 10. The imaging unit 12 captures a wide range of space including the user's field of view. The imaging unit 12 may be configured to capture all 360 degrees on the front, both sides, and the back of the user.

電子デバイス11は、先端部に透過型のディスプレイ13が備えられている。電子デバイス11は、図示しないが、通信機能を備え、インターネット等に接続し、情報検索が行えてもよいし、さらに、地図アプリケーション等が内蔵されており、道案内等を行う機能が備えられていてもよい。ディスプレイ13は、情報検索の結果や道案内表示等を表示する。
また、電子デバイス11は、撮像部12及びディスプレイ13の他に、図2に示すように、検出部14と、報知部15と、制御部16とを備える。
The electronic device 11 is provided with a transmissive display 13 at the tip. Although not shown, the electronic device 11 has a communication function, may be connected to the Internet or the like to perform information search, and further has a built-in map application and the like, and a function for performing route guidance and the like. May be. The display 13 displays a result of information search, a route guidance display, and the like.
In addition to the imaging unit 12 and the display 13, the electronic device 11 includes a detection unit 14, a notification unit 15, and a control unit 16 as illustrated in FIG. 2.

検出部14は、撮像部12によって撮像された画像を解析し、予め定められている物体を検出する。予め定められている物体とは、例えば、電柱、壁、人、車、段差、標識等である。また、予め定められている物体は、ユーザが任意に設定できてもよい。
検出部14は、画像認識(image recognition)を行う機能を有しており、撮像部12で撮像された画像の構造を分析して特徴を抽出し、抽出した画像特徴の属性やそれらの関係、画像特徴と認識対象との対応(パターン・マッチング)等の処理を行って、画像中に予め定められている物体が含まれているかどうかを検出する。
The detection unit 14 analyzes the image picked up by the image pickup unit 12 and detects a predetermined object. Examples of the predetermined object include a power pole, a wall, a person, a car, a step, and a sign. The predetermined object may be arbitrarily set by the user.
The detection unit 14 has a function of performing image recognition, analyzes the structure of the image captured by the imaging unit 12 and extracts features, attributes of the extracted image features and their relationships, Processing such as correspondence (pattern matching) between image features and recognition targets is performed to detect whether or not a predetermined object is included in the image.

報知部15は、スピーカ、バイブレータ等によって構成され、外部に報知を行う機能を有している。
制御部16は、検出部14の検出結果に基づいて、報知部15から所定の報知を行うように制御する。
例えば、報知部15がスピーカで構成されている場合には、報知部15は、制御部16の制御に基づいて、ビープ音等を出力する。
ユーザは、報知部15から報知されるビープ音によって予め定められている物体に気づき、回避行動等をとることができ、衝突や転倒を回避することができる。
このようにして、ウェアラブルデバイス1は、ユーザの安全性を図ることができる。
なお、撮像部12は、メガネ型フレーム10のいずれかの場所に配置されていればよく、電子デバイス11と一体型で構成されていなくてもよい。
The alerting | reporting part 15 is comprised by a speaker, a vibrator, etc., and has the function to alert | report outside.
The control unit 16 controls the notification unit 15 to perform predetermined notification based on the detection result of the detection unit 14.
For example, when the notification unit 15 is configured by a speaker, the notification unit 15 outputs a beep sound or the like based on the control of the control unit 16.
The user can notice a predetermined object by a beep sound notified from the notification unit 15 and can take an avoidance action or the like, and can avoid a collision or a fall.
In this way, the wearable device 1 can improve user safety.
Note that the imaging unit 12 may be arranged at any location on the glasses-type frame 10 and may not be configured integrally with the electronic device 11.

ウェアラブルデバイス1は、図2に示すように、ユーザの目の動きを検出し、視線の向きを検出する視線検出部17を備える。視線検出部17は、メガネ型フレーム10のフェイス部Aに配置され、ユーザの目を撮影するカメラ部と、視線を検出する処理部によって構成されている。   As shown in FIG. 2, the wearable device 1 includes a line-of-sight detection unit 17 that detects the movement of the user's eyes and detects the direction of the line of sight. The line-of-sight detection unit 17 is disposed on the face part A of the eyeglass-type frame 10 and includes a camera unit that captures the eyes of the user and a processing unit that detects the line of sight.

視線検出部17は、目の動かない部分(基準点)と動く部分(動点)を検出し、基準点に対する動点の位置に基づいて、ユーザの視線の向きを検出する。
具体的には、視線検出部17は、可視光カメラ部によって撮像したユーザの顔画像に基づいて、目頭を基準点にし、虹彩を動点にして、目頭に対する虹彩の位置に基づいて、ユーザの視線の向きを検出する。
The line-of-sight detection unit 17 detects a part where the eyes do not move (reference point) and a part (movement point) that moves, and detects the direction of the user's line of sight based on the position of the movement point with respect to the reference point.
Specifically, the line-of-sight detection unit 17 uses the eyes as a reference point and the iris as a moving point based on the user's face image captured by the visible light camera unit, and based on the position of the iris with respect to the eye. Detect the direction of gaze.

なお、視線の検出は、上記構成以外でもよい。例えば、視線検出部17は、赤外線照射部によって赤外線が照射されているユーザの顔を赤外線カメラ部によって撮影し、撮影したユーザの顔画像に基づいて、角膜反射を基準点にし、瞳孔を動点にして、角膜反射に対する瞳孔の位置に基づいて、ユーザの視線の向きを検出する。   The line-of-sight detection may be other than the above configuration. For example, the line-of-sight detection unit 17 captures the user's face irradiated with infrared rays by the infrared irradiation unit with the infrared camera unit, and based on the photographed user's face image, uses corneal reflection as a reference point and moves the pupil as a moving point. Thus, the direction of the user's line of sight is detected based on the position of the pupil with respect to the corneal reflection.

制御部16は、検出部14の検出結果と、視線検出部17の検出結果に基づいて、報知部15から所定の報知を行うように制御する。
例えば、制御部16は、視線検出部17の検出結果に基づいて、ユーザの視線の向きが検出部14により検出された物体に向かっていないと判断した場合に、報知部15から所定の報知を行うように制御する。なお、ユーザの視線の向きが検出部14により検出された物体に向かっていない場合には、ユーザの視線が他の情報(例えば、ディスプレイ13に表示されている各種情報)に向いていて、注意が疎かになっている可能性がある。
The control unit 16 controls the notification unit 15 to perform predetermined notification based on the detection result of the detection unit 14 and the detection result of the line-of-sight detection unit 17.
For example, when the control unit 16 determines that the direction of the user's line of sight is not directed toward the object detected by the detection unit 14 based on the detection result of the line-of-sight detection unit 17, a predetermined notification is issued from the notification unit 15. Control to do. Note that when the direction of the user's line of sight is not toward the object detected by the detection unit 14, the user's line of sight is directed to other information (for example, various types of information displayed on the display 13). May be sparse.

このようにして、ウェアラブルデバイス1は、予め定められている物体に気づいていないユーザに対して、注意を発することができ、予め定められている物体に対する衝突や転倒を回避させることができる。   In this way, the wearable device 1 can give attention to a user who is not aware of the predetermined object, and can avoid a collision or a fall with respect to the predetermined object.

また、ウェアラブルデバイス1は、ユーザの視線が予め定められている物体に向かっているときには、注意を発しないので、ユーザに違和感を与えることがない。なお、ウェアラブルデバイス1は、ユーザの設定によっては、ユーザの視線が予め定められている物体に向かっているときにも、注意を発してもよい。   Wearable device 1 does not give a sense of incongruity to the user because the user's line of sight is directed toward a predetermined object. Note that the wearable device 1 may give attention even when the user's line of sight is heading toward a predetermined object depending on the setting of the user.

検出部14は、所定の標識を検出することより、予め定められている物体を検出する。標識とは、情報や指示を与える記述をいい、看板等に表示されているマーク等が該当する。   The detection unit 14 detects a predetermined object by detecting a predetermined sign. A sign refers to a description that gives information or instructions, and corresponds to a mark displayed on a signboard or the like.

また、所定の標識には、注意を示す標識、案内の標識、警戒の標識、指示の標識等がある。例えば、注意を示す標識には、段差や階段を示す標識がある。
よって、検出部14は、所定の標識として段差や階段を示す標識を検出した場合、予め定められている物体を検出したものとして、制御部16に通知する。
制御部16は、検出結果にも基づいて、報知部15により報知する。
Further, the predetermined signs include a warning sign, a guidance sign, a warning sign, an instruction sign, and the like. For example, a sign indicating attention includes a sign indicating a step or a staircase.
Therefore, when detecting a sign indicating a step or a staircase as a predetermined sign, the detecting part 14 notifies the control part 16 that a predetermined object has been detected.
The control part 16 alert | reports by the alerting | reporting part 15 based also on a detection result.

ウェアラブルデバイス1は、段差や階段等の存在に気が付かないで歩行しているユーザに対して、段差や階段の存在を報知する。ユーザは、この報知によって、段差や階段等に気づかずに怪我をすることを回避することができる。このようにして、ウェアラブルデバイス1は、ユーザの安全性を図ることができる。   The wearable device 1 notifies the user who is walking without noticing the presence of a step or a staircase to the presence of the step or the staircase. By this notification, the user can avoid being injured without noticing a step or a staircase. In this way, the wearable device 1 can improve user safety.

なお、ウェアラブルデバイス1は、上述したユーザの安全性を図る機能を利用して、ユーザが探している物(例えば、自動販売機、タクシー、落し物等)を検出し、それを通知してもよい。この場合には、自動販売機やタクシーや落し物等を予め定められている物体として登録しておく。   Note that the wearable device 1 may detect and notify an object that the user is looking for (for example, a vending machine, a taxi, a lost article, etc.) using the above-described function for improving the safety of the user. . In this case, vending machines, taxis, and lost items are registered as predetermined objects.

また、検出部14は、点字ブロック等を検出することにより、予め定められている物体を検出する構成でもよい。このような構成の場合には、ウェアラブルデバイス1は、報知部15を利用して、方向や点字ブロックに沿った道案内等を音声によって行う。   The detection unit 14 may be configured to detect a predetermined object by detecting a Braille block or the like. In the case of such a configuration, the wearable device 1 uses the notification unit 15 to perform direction guidance and road guidance along a Braille block by voice.

検出部14は、予め定められている物体が所定の距離内に近接したことを検出する。
例えば、予め定められている物体として人、自動車及び自転車等を登録しておく。
ウェアラブルデバイス1は、人、自動車及び自転車等の存在に気が付かないで歩行しているユーザに対して、人、自動車及び自転車等が所定の距離内に近接したことを検出して報知する。ユーザは、この報知によって、人、自動車及び自転車等との衝突を回避することができる。このようにして、ウェアラブルデバイス1は、ユーザの安全性を図ることができる。
The detection unit 14 detects that a predetermined object has approached within a predetermined distance.
For example, people, automobiles, bicycles, and the like are registered as predetermined objects.
The wearable device 1 detects and informs a user who is walking without being aware of the presence of a person, a car, a bicycle, or the like that a person, a car, a bicycle, or the like has come within a predetermined distance. The user can avoid collisions with people, automobiles, bicycles, and the like by this notification. In this way, the wearable device 1 can improve user safety.

また、本実施例では、主にユーザの安全を図るためのウェアラブルデバイスの構成と動作について説明したが、これに限られず、各構成要素を備え、ユーザの安全を図るための方法、及びプログラムとして構成されてもよい。   Further, in the present embodiment, the configuration and operation of the wearable device mainly for the safety of the user have been described. However, the present invention is not limited to this. It may be configured.

さらに、ウェアラブルデバイスの機能を実現するためのプログラムをコンピュータで読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。   Furthermore, the program for realizing the function of the wearable device may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by the computer system and executed.

ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータで読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   The “computer system” here includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a hard disk built in the computer system.

さらに「コンピュータで読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時刻の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時刻プログラムを保持しているものも含んでもよい。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Furthermore, “computer-readable recording medium” means that a program is dynamically held for a short time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It is also possible to include one that holds a program for a certain time, such as a volatile memory inside a computer system that becomes a server or client in that case. Further, the program may be for realizing a part of the above-described functions, and may be capable of realizing the above-described functions in combination with a program already recorded in the computer system. .

1 ウェアラブルデバイス
10 メガネ型フレーム
11 電子デバイス
12 撮像部
13 ディスプレイ
14 検出部
15 報知部
16 制御部
17 視線検出部
DESCRIPTION OF SYMBOLS 1 Wearable device 10 Glasses type frame 11 Electronic device 12 Imaging part 13 Display 14 Detection part 15 Notification part 16 Control part 17 Gaze detection part

Claims (4)

メガネ型フレームに配置される撮像部と、
前記撮像部によって撮像された画像を解析し、予め定められている物体を検出する検出部と、
報知部と、
前記検出部の検出結果に基づいて、前記報知部から所定の報知を行うように制御する制御部とを備えるウェアラブルデバイス。
An imaging unit arranged in a glasses-type frame;
A detection unit that analyzes an image captured by the imaging unit and detects a predetermined object;
A notification unit;
A wearable device comprising: a control unit that controls to perform predetermined notification from the notification unit based on a detection result of the detection unit.
ユーザの目の動きを検出し、視線の向きを検出する視線検出部を備え、
前記視線検出部は、前記メガネ型フレームのフェイス部に配置され、
前記制御部は、前記検出部の検出結果と、前記視線検出部の検出結果に基づいて、前記報知部から所定の報知を行うように制御する請求項1記載のウェアラブルデバイス。
A line-of-sight detection unit that detects the movement of the user's eyes and detects the direction of the line of sight,
The line-of-sight detection unit is disposed on a face part of the glasses-type frame,
The wearable device according to claim 1, wherein the control unit controls the notification unit to perform predetermined notification based on the detection result of the detection unit and the detection result of the line-of-sight detection unit.
前記検出部は、所定の標識を検出することより、前記予め定められている物体を検出する請求項1記載のウェアラブルデバイス。   The wearable device according to claim 1, wherein the detection unit detects the predetermined object by detecting a predetermined sign. 前記検出部は、予め定められている物体が所定の距離内に近接したことを検出する請求項1記載のウェアラブルデバイス。   The wearable device according to claim 1, wherein the detection unit detects that a predetermined object approaches within a predetermined distance.
JP2013267223A 2013-12-25 2013-12-25 Wearable device Active JP6120444B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013267223A JP6120444B2 (en) 2013-12-25 2013-12-25 Wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013267223A JP6120444B2 (en) 2013-12-25 2013-12-25 Wearable device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017054544A Division JP6321848B2 (en) 2017-03-21 2017-03-21 Wearable device

Publications (2)

Publication Number Publication Date
JP2015125464A true JP2015125464A (en) 2015-07-06
JP6120444B2 JP6120444B2 (en) 2017-04-26

Family

ID=53536159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267223A Active JP6120444B2 (en) 2013-12-25 2013-12-25 Wearable device

Country Status (1)

Country Link
JP (1) JP6120444B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033334A (en) * 2015-08-03 2017-02-09 株式会社オプティム Head-mounted display, data output method, and program for head-mounted display
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
WO2017122508A1 (en) * 2016-01-15 2017-07-20 株式会社東芝 Information display system and information display method
WO2019039591A1 (en) * 2017-08-24 2019-02-28 株式会社オトングラス Read-out system and read-out method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338615A (en) * 1998-05-25 1999-12-10 Techno Works:Kk On-vehicle system using gazed point detecting means by image processing
JP2002207732A (en) * 2001-01-10 2002-07-26 Hiroshi Ono Translation device
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2006267887A (en) * 2005-03-25 2006-10-05 Konica Minolta Photo Imaging Inc Head mount display equipped with video recognition means
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2009238251A (en) * 2009-07-16 2009-10-15 Olympus Corp User support device
JP2011014082A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2012155654A (en) * 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program
JP2013517575A (en) * 2010-01-14 2013-05-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Apparatus and method for assisting safe operation of transportation means

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11338615A (en) * 1998-05-25 1999-12-10 Techno Works:Kk On-vehicle system using gazed point detecting means by image processing
JP2002207732A (en) * 2001-01-10 2002-07-26 Hiroshi Ono Translation device
JP2006155238A (en) * 2004-11-29 2006-06-15 Hiroshima Univ Information processor, processing method, and processing program, portable terminal, and computer-readable recording medium
JP2006267887A (en) * 2005-03-25 2006-10-05 Konica Minolta Photo Imaging Inc Head mount display equipped with video recognition means
WO2007105792A1 (en) * 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2011014082A (en) * 2009-07-06 2011-01-20 Toshiba Tec Corp Wearable terminal device and program
JP2009238251A (en) * 2009-07-16 2009-10-15 Olympus Corp User support device
JP2013517575A (en) * 2010-01-14 2013-05-16 トヨタ モーター エンジニアリング アンド マニュファクチャリング ノース アメリカ,インコーポレイティド Apparatus and method for assisting safe operation of transportation means
JP2012155654A (en) * 2011-01-28 2012-08-16 Sony Corp Information processing device, notification method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017033334A (en) * 2015-08-03 2017-02-09 株式会社オプティム Head-mounted display, data output method, and program for head-mounted display
JP2017091433A (en) * 2015-11-17 2017-05-25 セイコーエプソン株式会社 Head-mounted type display device, method of controlling head-mounted type display device, and computer program
WO2017122508A1 (en) * 2016-01-15 2017-07-20 株式会社東芝 Information display system and information display method
WO2019039591A1 (en) * 2017-08-24 2019-02-28 株式会社オトングラス Read-out system and read-out method

Also Published As

Publication number Publication date
JP6120444B2 (en) 2017-04-26

Similar Documents

Publication Publication Date Title
CN106471419B (en) Management information is shown
JP4633043B2 (en) Image processing device
JP6747551B2 (en) Eyeglass-type wearable terminal, its control program, and notification method
US8525874B2 (en) Assistance system for visually handicapped persons
US8744113B1 (en) Communication eyewear assembly with zone of safety capability
US20130169536A1 (en) Control of a wearable device
CN106716513A (en) Pedestrian information system
CN103731659B (en) head-mounted display apparatus
KR101821496B1 (en) safe driving support system operating method
JP6120444B2 (en) Wearable device
CN104427960A (en) Adaptive visual assistive device
EP2629241A1 (en) Control of a wearable device
KR20170028942A (en) Secure wearable computer interface
JP2005136695A (en) Portable information equipment, portable telephone system and display control method
US20180063625A1 (en) Wireless Earpiece and Smart Glasses System and Method
JP6321848B2 (en) Wearable device
KR20160008448A (en) Method and program for restricting photography of built-in camera of wearable glass device
Foerster et al. Spareeye: enhancing the safety of inattentionally blind smartphone users
CN114762000A (en) Line-of-sight detection method, line-of-sight detection device, and control program
US20200242847A1 (en) Information processing device and information processing method
CN112269472A (en) Method and system for constructing virtual boundary object and VR glasses thereof
TW201543423A (en) Warning method for avoiding collision and system thereof
US20200159318A1 (en) Information processing device, information processing method, and computer program
JPWO2019021973A1 (en) Terminal device, risk prediction method, program
US20210290129A1 (en) State estimation device, method and computer program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170327

R150 Certificate of patent or registration of utility model

Ref document number: 6120444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150