JP7360775B2 - Smart glasses, program and display control method - Google Patents

Smart glasses, program and display control method Download PDF

Info

Publication number
JP7360775B2
JP7360775B2 JP2020190020A JP2020190020A JP7360775B2 JP 7360775 B2 JP7360775 B2 JP 7360775B2 JP 2020190020 A JP2020190020 A JP 2020190020A JP 2020190020 A JP2020190020 A JP 2020190020A JP 7360775 B2 JP7360775 B2 JP 7360775B2
Authority
JP
Japan
Prior art keywords
display
user
display information
smart glasses
face area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020190020A
Other languages
Japanese (ja)
Other versions
JP2022079067A (en
Inventor
剣明 呉
朋広 小原
亮一 川田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020190020A priority Critical patent/JP7360775B2/en
Publication of JP2022079067A publication Critical patent/JP2022079067A/en
Application granted granted Critical
Publication of JP7360775B2 publication Critical patent/JP7360775B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、スマートグラスの技術に関する。特に、拡張現実(Augmented Reality)ウェアラブルコンピュータとしてのシースルー型のスマートグラスに関する。 The present invention relates to smart glasses technology. In particular, it relates to see-through smart glasses that can be used as augmented reality wearable computers.

スマートグラスは、装着元ユーザの視界前方に眼鏡のように装着され、カメラと網膜投射型ディスプレイとを搭載する。装着元ユーザから見ると、非現実空間を表示する仮想現実(Virtual Reality)と異なって、現実空間の視界に重畳的に情報が表示される。スマートグラスによっては、自然言語の音声認識機能を搭載し、ユーザは自らの発話によって操作することもできる。 Smart glasses are worn like glasses in front of the wearer's field of vision, and are equipped with a camera and a retinal projection display. From the wearer's perspective, information is displayed superimposed on the field of view of the real space, unlike virtual reality, which displays an unreal space. Some smart glasses are equipped with natural language voice recognition functionality, allowing users to operate them using their own utterances.

近年、高齢者介護施設や医療機関では、被介護者の増加や介護者の人手不足に伴って、介護サービスの質の低下が社会的課題となっている。特に介護者は、施設内の位置や時間帯に応じて、被介護者各々に適した異なる応対をする必要がある。しかし、多数の被介護者が入居する介護施設では、介護者が、被介護者各々の特性を覚えきれない場合も当然に多い。 In recent years, deterioration in the quality of nursing care services has become a social issue at elderly care facilities and medical institutions due to an increase in the number of people being cared for and a shortage of caregivers. In particular, caregivers need to respond differently to each person being cared for, depending on the location within the facility and the time of day. However, in nursing care facilities where a large number of care recipients reside, caregivers are often unable to remember the characteristics of each care recipient.

これに対し、施設の中で、監視対象者(被介護者)の挙動を監視する技術がある(例えば特許文献1参照)。この技術によれば、施設内に複数のカメラを設置し、その映像に映り込む監視対象者を顔認識によって特定し、その監視対象者のケア関連情報を、監視者(介護者)へ通知することができる。また、カメラによって撮影された画像を解析し、被介護者の定型的な動作を認識し、その動作に応じた通知情報が監視者へ送信される。ここでは、監視対象者のプライバシに配慮し、撮影した監視画像そのものではなく、当該監視画像を解析した解析結果のみを監視者に通知する。また、監視対象者毎に異なるケア水準に応じたケアの必要度に係る情報を、監視者に通知することができる。 On the other hand, there is a technique for monitoring the behavior of a person to be monitored (a person being cared for) in a facility (for example, see Patent Document 1). According to this technology, multiple cameras are installed in a facility, the person being monitored is identified in the images through facial recognition, and information related to the person's care is notified to the supervisor (caregiver). be able to. The system also analyzes images taken by the camera, recognizes typical movements of the cared person, and sends notification information based on the movements to the supervisor. Here, in consideration of the privacy of the person to be monitored, the person being monitored is not notified of the captured monitoring image itself, but only of the analysis results obtained by analyzing the monitoring image. Furthermore, the supervisor can be notified of information related to the degree of care required according to the level of care that differs for each person to be monitored.

特許6579411号公報Patent No. 6579411

しかしながら、特許文献1に記載の技術によれば、介護施設のような生活場所に、監視用カメラを配置する必要があり、被介護者にとっては違和感を持つ場合がある。また、被介護者に電子タグやセンサなどのウェアラブルデバイスを貼り付けることもできるが、同様に、被介護者にとっては抵抗感及び嫌悪感を持つ場合もある。一方で、例えば大規模な介護施設の場合、介護者が、全ての被介護者について氏名や症状などの個人情報を認識しておくことは難しい。 However, according to the technique described in Patent Document 1, it is necessary to arrange a monitoring camera in a living place such as a nursing care facility, which may make the person being cared for feel uncomfortable. Furthermore, wearable devices such as electronic tags and sensors can be affixed to the cared person, but the cared person may similarly feel a sense of resistance and aversion. On the other hand, in the case of a large-scale nursing care facility, for example, it is difficult for caregivers to know personal information such as names and symptoms of all care recipients.

これに対し、本願の発明者らは、介護者から見て、目の前の被介護者を迅速に同定し、その被介護者の個人情報を直ぐに認識することができるように、スマートグラスを用いることができないか、と考えた。このとき、介護者が、その被介護者について必要とする情報は、施設内の位置や時間帯に応じて異なるであろう、と考えた。 In response, the inventors of the present application developed smart glasses that allow caregivers to quickly identify the care recipient in front of them and immediately recognize the care recipient's personal information. I thought it might be possible to use it. At this time, we thought that the information that a caregiver would need about the care recipient would differ depending on the location within the facility and the time of day.

そこで、本発明は、装着元ユーザが、視界先ユーザを迅速に同定し、その視界先ユーザの個人情報を直ぐに認識することができるスマートグラス、プログラム及び表示制御方法を提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, the present invention aims to provide smart glasses, a program, and a display control method that allow a wearer to quickly identify a user in front of the user's view and immediately recognize personal information of the user in front of the user's view. .

本発明によれば、視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスにおいて、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
現在位置を検知するセンシング手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する表示制御手段と
を有することを特徴とする。
According to the present invention, see-through smart glasses have a camera that captures an image of the line of sight, and a display that projects display information in the field of view of the user wearing the glasses.
Display information storage means that stores in advance display information according to a user ID (identifier) and display information according to a position ;
a face recognition means for recognizing a human face area from a video, detecting the size of the face area, and identifying a user ID from the face area;
Sensing means for detecting the current position;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. It is characterized by having a display control means.

本発明のスマートグラスにおける他の実施形態によれば、
表示情報は、文字、画像及び/又は映像であってもよい。
According to another embodiment of the smart glasses of the present invention,
The displayed information may be text, images, and/or videos.

本発明のスマートグラスにおける他の実施形態によれば、
表示情報記憶手段は、
各ユーザIDについて、位置及び時間帯の組毎に応じた表示情報と、
各位置について、時間帯に応じた表示情報と
を記憶しており、
表示制御手段は、認識された顔領域のサイズが第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイに表示し、そうでない場合、現在位置及び時間帯に応じた表示情報をディスプレイに表示する
ことも好ましい。
According to another embodiment of the smart glasses of the present invention,
The display information storage means is
For each user ID, display information according to each set of location and time zone,
For each location, display information according to the time zone is stored.
The display control means displays display information corresponding to the user ID, current location, and time on the display when the size of the recognized face area is equal to or larger than a first predetermined range; otherwise , display information corresponding to the current location and time is displayed on the display. It is also preferable to display display information according to the band on the display.

本発明のスマートグラスにおける他の実施形態によれば、
装着元ユーザの聴覚へ音声を出力するスピーカを更に有し、
表示制御手段は、認識された顔領域のサイズが第2の所定範囲よりも小さい場合、ディスプレイに表示すべき表示情報が文字である場合、音声合成によって音声に変換し、当該音声をスピーカから出力する
ことも好ましい。
According to another embodiment of the smart glasses of the present invention,
It further includes a speaker that outputs audio to the hearing of the user who is wearing it,
If the size of the recognized face area is smaller than the second predetermined range, and if the display information to be displayed on the display is text, the display control means converts it into speech by speech synthesis and outputs the speech from the speaker. It is also preferable to do so.

本発明のスマートグラスにおける他の実施形態によれば、
スピーカは、骨伝導スピーカであってもよい。
According to another embodiment of the smart glasses of the present invention,
The speaker may be a bone conduction speaker.

本発明のスマートグラスにおける他の実施形態によれば、
顔認識手段によって認識された人の顔領域のサイズが大きいほど、当該人と装着元ユーザとの間の距離が近く、サイズが小さいほど、当該人と装着元ユーザとの間の距離が遠く、
顔領域のサイズの第1の所定範囲は、当該人と装着元ユーザとの間の距離に基づくものである
ことも好ましい。
According to another embodiment of the smart glasses of the present invention,
The larger the size of the face area of the person recognized by the face recognition means, the shorter the distance between the person and the user who wears it, and the smaller the size, the farther the distance between the person and the user who wears it.
It is also preferable that the first predetermined range of the size of the face area is based on the distance between the person and the wearer user.

本発明のスマートグラスにおける他の実施形態によれば、
装着元ユーザが移動可能な周辺環境に、位置に応じて無線タグが配置されており、
表示制御手段は、
位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶した位置テーブルを有し、
複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定するか、
又は、電波強度が強い順に無線信号を受信する3つの無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する
ことも好ましい。
According to another embodiment of the smart glasses of the present invention,
Wireless tags are placed in the surrounding environment where the user wearing them can move, depending on their location.
The display control means is
It has a position table storing the MAC address and/or tag ID of the wireless tag for each position,
When multiple wireless tags are detected, the location is identified using a position table based on the MAC address and/or tag ID of the wireless tag that receives the wireless signal with the strongest radio field strength, or
Alternatively, it is also preferable to specify the position by triangulation using a position table from the MAC addresses and/or tag IDs of three wireless tags that receive wireless signals in descending order of radio field strength.

本発明のスマートグラスにおける他の実施形態によれば、
無線ネットワークを介してサーバに接続する無線通信インタフェースを更に有し、
表示情報記憶手段は、無線通信ネットワークを介してサーバから、ユーザIDに応じた表示情報を予め受信する
ことも好ましい。
According to another embodiment of the smart glasses of the present invention,
further comprising a wireless communication interface connecting to the server via a wireless network;
It is also preferable that the display information storage means receives the display information corresponding to the user ID in advance from the server via the wireless communication network.

本発明によれば、
視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスに搭載されたコンピュータを機能させるプログラムにおいて、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
現在位置を検知するセンシング手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する表示制御手段と
してコンピュータを機能させることを特徴とする。
According to the invention,
In a program that operates a computer installed in see-through smart glasses that have a camera that captures images of the line of sight and a display that displays information in the field of view of the user wearing the glasses,
Display information storage means that stores in advance display information according to a user ID (identifier) and display information according to a position ;
a face recognition means for recognizing a human face area from a video, detecting the size of the face area, and identifying a user ID from the face area;
Sensing means for detecting the current position;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. It is characterized in that a computer functions as a display control means.

本発明によれば、
視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスの表示制御方法において、
スマートグラスは、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶部を有し、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定すると共に、現在位置を検知する第1のステップと、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する第2のステップと
を実行することを特徴とする。
According to the invention,
In a display control method for see-through smart glasses that have a camera that captures an image of the line of sight and a display that projects display information in the field of view of a user who wears the glasses,
Smart glasses are
It has a display information storage section that stores in advance display information according to a user ID (identifier) and display information according to a position ,
A first step of recognizing a person's face area from the video, detecting the size of the face area, identifying a user ID from the face area , and detecting the current position ;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. The second step is performed.

本発明のスマートグラス、プログラム及び表示制御方法によれば、装着元ユーザが、視界先ユーザを迅速に同定し、その視界先ユーザの個人情報を直ぐに認識することができる。 According to the smart glasses, program, and display control method of the present invention, the user who wears the glasses can quickly identify the user who is in the field of view, and immediately recognize the personal information of the user in the field of view.

本発明におけるスマートグラスの外観図である。FIG. 2 is an external view of smart glasses according to the present invention. スマートグラスのディスプレイの表示を表す説明図である。It is an explanatory diagram showing a display of a display of smart glasses. 本発明におけるスマートグラスの機能構成図である。FIG. 2 is a functional configuration diagram of smart glasses according to the present invention. 顔認識部の処理機能を表す説明図である。FIG. 3 is an explanatory diagram showing processing functions of a face recognition unit. 対面する被介護者との距離に応じたディスプレイの表示を表す説明図である。FIG. 3 is an explanatory diagram illustrating a display display according to the distance from the cared person facing the person. 表示制御部における位置テーブルの説明図である。FIG. 3 is an explanatory diagram of a position table in the display control unit. 表示制御部における表示項目を表す説明図である。FIG. 3 is an explanatory diagram showing display items in a display control unit. 装着元ユーザの視界に応じた表示項目の切り替わりを表す説明である。This is an explanation showing the switching of display items according to the field of view of the wearer user.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail using the drawings.

図1は、本発明におけるスマートグラスの外観図である。 FIG. 1 is an external view of smart glasses according to the present invention.

スマートグラス1は、ユーザの視線に映像を表示することができるシースルー型である。
図1によれば、スマートグラス1は、ハードウェアとして、ディスプレイ101と、カメラ102と、スピーカ103と、センシング部104と、無線通信インタフェース105とを有する。
ディスプレイ101は、特定の表示情報を、装着元ユーザの視界に映し出す。表示情報としては、一般的には文字であるが、勿論、画像や映像であってもよい。
カメラ102は、装着元ユーザにおける視界先の映像を撮影する。映像には、視界先ユーザが映り込む場合もあれば、視界先にユーザが存在せずに施設設備のみが映り込む場合もある。
スピーカ103は、音声信号を、装着元ユーザの聴覚へ発声する。音声信号は、ディスプレイ101への表示情報が文字である場合、その文字を音声合成によって変換したものである。また、スピーカ103は、骨電動スピーカであってもよい。装着元ユーザのこめかみに接して振動させることによって、装着元ユーザに聴覚的に文字を認識させることができる。これによって、視界先ユーザに聞こえることなく、装着元ユーザに文字を認識させることができる。
センシング部104は、例えばBluetooth(登録商標)であって、BLE(Bluetooth Low Energy)タグから発信される無線信号を受信する。BLEタグは、装着元ユーザが移動する施設内の各箇所に予め配置されているとする。これによって、スマートグラス1は、現在位置を検知することができる。
無線通信インタフェース105は、無線LANのアクセスポイント又は携帯電話網の基地局を介して、インターネットに接続されたユーザ管理サーバ2と通信する。ユーザ管理サーバ2は、スマートグラス1のディスプレイ101への表示情報を、ユーザ毎に管理するものである。
The smart glasses 1 are of a see-through type that can display images in the user's line of sight.
According to FIG. 1, the smart glasses 1 include a display 101, a camera 102, a speaker 103, a sensing unit 104, and a wireless communication interface 105 as hardware.
The display 101 projects specific display information in the field of view of the wearer user. The display information is generally text, but may of course be images or videos.
The camera 102 captures an image of the field of view of the wearer user. In some cases, the user in the visual field is reflected in the video, and in other cases, only facility equipment is reflected in the video without the user in the visual field.
The speaker 103 emits an audio signal to the auditory sense of the wearer user. When the information displayed on the display 101 is text, the audio signal is obtained by converting the text by speech synthesis. Moreover, the speaker 103 may be a bone electric speaker. By vibrating in contact with the temple of the wearing user, the wearing user can audibly recognize the characters. This allows the wearer user to recognize the characters without being heard by the user in sight.
The sensing unit 104 is, for example, Bluetooth (registered trademark), and receives a wireless signal transmitted from a BLE (Bluetooth Low Energy) tag. It is assumed that the BLE tag is placed in advance at each location within the facility where the user who wears it moves. Thereby, the smart glasses 1 can detect the current position.
The wireless communication interface 105 communicates with the user management server 2 connected to the Internet via a wireless LAN access point or a mobile phone network base station. The user management server 2 manages information displayed on the display 101 of the smart glasses 1 for each user.

図2は、スマートグラスのディスプレイの表示を表す説明図である。 FIG. 2 is an explanatory diagram showing the display of the smart glasses.

図2によれば、例えば介護施設の中で、介護者(装着元ユーザ)が、スマートグラス1を装着しているとする。また、介護者の視界先には、被介護者Aさんが居るとする。
このとき、介護者から見ると、スマートグラス1を介した視界に、被介護者Aさんが見えると同時に、その被介護者Aさんの「個人情報」が映り込むように表示されている。個人情報としては、例えば被介護者Aさんの介護に必要な症状などの情報である。
これによって、介護者は、被介護者Aさんが視界に入った時点で直ぐに、被介護者Aさんに対して適切な声かけをすることができる。
According to FIG. 2, it is assumed that a caregiver (wearer user) is wearing the smart glasses 1, for example, in a nursing care facility. Further, it is assumed that Mr. A, who is cared for, is within the field of view of the caregiver.
At this time, from the caregiver's perspective, the cared person A is visible through the smart glasses 1, and at the same time, the cared person A's "personal information" is displayed so as to be reflected therein. The personal information is, for example, information such as symptoms necessary for care recipient A's care.
As a result, the caregiver can make an appropriate call to the cared person A as soon as the cared person A comes into view.

図3は、本発明におけるスマートグラスの機能構成図である。 FIG. 3 is a functional configuration diagram of smart glasses according to the present invention.

図3によれば、スマートグラス1は、顔認識部11と、ユーザ特徴量蓄積部110と、表示制御部12と、表示情報記憶部120とを有する。これら機能構成部は、スマートグラスに搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これらの機能構成部の処理の流れは、スマートグラスの表示制御方法としても理解できる。 According to FIG. 3, the smart glasses 1 include a face recognition section 11, a user feature accumulation section 110, a display control section 12, and a display information storage section 120. These functional components are realized by executing a program that causes a computer installed in the smart glasses to function. Furthermore, the processing flow of these functional components can also be understood as a display control method for smart glasses.

[顔認識部11]
顔認識部11は、映像から人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザID(IDentifier、識別子)を特定する。特定されたユーザIDは、表示制御部12へ出力される。
[Face recognition unit 11]
The face recognition unit 11 recognizes a human face area from a video, detects the size of the face area, and identifies a user ID (IDentifier) from the face area. The identified user ID is output to the display control unit 12.

図4は、顔認識部の処理機能を表す説明図である。
図4によれば、顔認識部11の処理機能として、顔領域検出部111と、顔特徴検出部112と、ユーザ特徴量蓄積部110と、高速識別器113とを有する。
FIG. 4 is an explanatory diagram showing the processing functions of the face recognition section.
According to FIG. 4, the processing functions of the face recognition unit 11 include a face area detection unit 111, a facial feature detection unit 112, a user feature accumulation unit 110, and a high-speed classifier 113.

(顔領域検出部111)
顔領域検出部111は、カメラ102によって撮影された映像フレームの画像から、顔領域(例えばバウンディングボックス)を切り出す。具体的には、R-CNN(Regions with Convolutional Neural Networks)やSSD(Single Shot Multibox Detector)を用いる。
R-CNNは、四角形の顔領域を畳み込みニューラルネットワークの特徴と組み合わせて、顔領域のサブセットを検出する(領域提案)。次に、領域提案からCNN特徴量を抽出する。そして、CNN特徴量を用いて予め学習したサポートベクタマシンによって、領域提案のバウンディングボックスを調整する。
SSDは、機械学習を用いた一般物体検知のアルゴリズムであって、デフォルトボックス(default boxes)という長方形の枠(バウンディングボックス)を決定する。1枚の画像上に、大きさの異なるデフォルトボックスを多数重畳させ、そのボックス毎に予測値を計算する。各デフォルトボックスについて、自身が物体からどのくらい離れていて、どのくらい大きさが異なるのか、とする位置の予測をすることができる。
(Face area detection unit 111)
The face area detection unit 111 cuts out a face area (for example, a bounding box) from the image of the video frame captured by the camera 102. Specifically, R-CNN (Regions with Convolutional Neural Networks) and SSD (Single Shot Multibox Detector) are used.
R-CNN combines rectangular face regions with convolutional neural network features to detect a subset of face regions (region proposal). Next, CNN features are extracted from the region proposal. Then, the bounding box of the region proposal is adjusted using a support vector machine trained in advance using CNN features.
SSD is a general object detection algorithm using machine learning, and determines rectangular frames (bounding boxes) called default boxes. A large number of default boxes of different sizes are superimposed on one image, and a predicted value is calculated for each box. For each default box, it is possible to predict the position of the box, such as how far it is from the object and how different its size will be.

(顔特徴検出部112)
(S2)顔特徴検出部112は、切り出された顔領域を、顔認識モデルを用いて、128/256/512次元の特徴量(ユークリッド距離)に変換する。距離が近いほど、同一人物と認識することができる。また、同一人物の顔画像として、Anchor(怒り),Positive(肯定),Negative(否定)の3つ組(Triplet)を作成し、Triplet Lossを最小にするように学習したものであってもよい。
顔認識モデルとしては、具体的にはGoogle(登録商標)のFacenet(登録商標)アルゴリズムを用いることもできる。これによって、顔領域から多次元ベクトルの特徴量に変換することができる。
(Facial feature detection unit 112)
(S2) The facial feature detection unit 112 converts the extracted facial region into a 128/256/512-dimensional feature amount (Euclidean distance) using a face recognition model. The closer the distance, the more likely it is that the person can be recognized as the same person. Alternatively, a triplet of Anchor, Positive, and Negative may be created as facial images of the same person, and training may be performed to minimize Triplet Loss. .
Specifically, Google's (registered trademark) Facenet (registered trademark) algorithm can also be used as a face recognition model. With this, it is possible to convert the facial region into a feature amount of a multidimensional vector.

(ユーザ特徴量蓄積部110)
ユーザ特徴量蓄積部110は、識別すべき実際のユーザの顔画像の特徴量を予め蓄積したものである。例えば施設内に入居する被介護者の顔画像の特徴量であってもよい。ユーザ特徴量蓄積部110に蓄積されたユーザのみが、識別対象となる。
(User feature accumulation unit 110)
The user feature amount storage unit 110 stores in advance feature amounts of facial images of actual users to be identified. For example, it may be a feature amount of a facial image of a cared person living in a facility. Only the users stored in the user feature storage unit 110 are to be identified.

(高速識別器113)
高速識別器113は、ユーザ特徴量蓄積部110を用いて、ユーザの顔の特徴量の集合と照合し、最も距離が短い又は所定閾値以下となる特徴量となるユーザIDを特定する。
(High-speed discriminator 113)
The high-speed discriminator 113 uses the user feature storage unit 110 to check against a set of features of the user's face, and identifies the user ID that has the shortest distance or a feature that is less than or equal to a predetermined threshold.

顔認識部11は、小型IoTデバイスに実装できるように、学習モデルが軽量化されている。学習済みモデルの中間層特徴の選別(レイヤの削除)と、軽量化アーキテクチャの置換とによって、計算量を大幅に削減している。具体的には、C++Nativeライブラリを用いて、スマートグラスのような小型デバイスであっても、1万人を1秒で識別可能となっている。 The face recognition unit 11 has a lightweight learning model so that it can be implemented in a small IoT device. The amount of calculation has been significantly reduced by selecting the middle layer features of the trained model (deleting layers) and replacing it with a lightweight architecture. Specifically, using the C++ Native library, even a small device like smart glasses can identify 10,000 people in one second.

[表示情報記憶部120]
表示情報記憶部120は、ユーザID毎の表示情報を予め記憶したものである。
「表示情報」としては、スマートトグラス1のディスプレイに表示可能な情報であって、「文字」であることが好ましい。勿論、それに限られず、画像又は映像であってもよい。
また、表示情報記憶部120は、無線通信インタフェース105を介して、ユーザ管理サーバ2から、ユーザID毎の表示情報を予めダウンロードして蓄積する。予めダウンロードしておくことによって、スマートグラス1をスタンドアロンで機能させることができる。勿論、表示情報記憶部120は、無線通信インタフェース105を介して常時、ユーザ管理サーバ2に接続されて通信可能なものであってもよい。
[Display information storage unit 120]
The display information storage unit 120 stores display information for each user ID in advance.
The "display information" is information that can be displayed on the display of the smart glasses 1, and is preferably "characters." Of course, the information is not limited thereto, and may be an image or video.
Further, the display information storage unit 120 downloads and stores display information for each user ID in advance from the user management server 2 via the wireless communication interface 105. By downloading it in advance, the smart glasses 1 can function as a standalone. Of course, the display information storage unit 120 may be always connected to the user management server 2 via the wireless communication interface 105 so as to be able to communicate therewith.

表示情報記憶部120は、ユーザ毎の個人情報を、時間帯及び/又は位置に応じた表示情報として更に記憶したものであってもよい。
(顔認識部11によってユーザIDを特定できた場合)
・時間帯に応じたユーザ毎の個人情報
・時間帯及び位置に応じたユーザ毎の個人情報
(顔認識部11によってユーザIDを特定できない場合)
・位置に応じた情報
・時間帯及び位置に応じた情報
The display information storage unit 120 may further store personal information for each user as display information according to time zone and/or location.
(When the user ID can be identified by the face recognition unit 11)
・Personal information for each user according to the time zone ・Personal information for each user according to the time zone and location (if the user ID cannot be identified by the face recognition unit 11)
・Information according to location ・Information according to time and location

[表示制御部12]
表示制御部12は、顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報を、ディスプレイ101に表示する。
顔認識部11によって認識された視界先ユーザの顔領域のサイズは、以下のように判断される。
(1)顔領域のサイズが大きいほど、視界先ユーザと装着元ユーザとの間の距離が近い。
(2)顔領域のサイズが小さいほど、視界先ユーザと装着元ユーザとの間の距離が遠い。
そのために、閾値となる顔領域のサイズの第1の所定範囲は、視界先ユーザと装着元ユーザとの間の距離に基づくものである。
[Display control unit 12]
When the size of the face area is equal to or larger than the first predetermined range, the display control unit 12 displays display information corresponding to the specified user ID on the display 101.
The size of the face area of the user in view recognized by the face recognition unit 11 is determined as follows.
(1) The larger the size of the face area, the shorter the distance between the user at the end of the field of view and the user at the wearer.
(2) The smaller the size of the face area, the greater the distance between the user at the end of the field of view and the user from whom the wearer is wearing.
For this purpose, the first predetermined range of the size of the face area, which is the threshold value, is based on the distance between the user in view and the wearer user.

表示制御部12は、以下のように表示を制御する。
(1)認識された顔領域のサイズが第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイ101に表示する。
(2)認識された顔領域のサイズが第1の所定範囲よりも小さい場合、検知された現在位置に応じた表示情報をディスプレイ101に表示する。このとき、現在位置に加えて、更に時間帯に応じた表示情報を表示することも好ましい。
The display control unit 12 controls the display as follows.
(1) When the size of the recognized face area is equal to or larger than the first predetermined range, display information corresponding to the user ID, current location, and time zone is displayed on the display 101.
(2) If the size of the recognized face area is smaller than the first predetermined range, display information corresponding to the detected current position is displayed on the display 101. At this time, it is also preferable to display display information according to the time zone in addition to the current location.

図5は、対面する被介護者との距離に応じたディスプレイの表示を表す説明図である。 FIG. 5 is an explanatory diagram showing the display according to the distance to the cared person facing each other.

図5(a)によれば、装着元ユーザにおけるスマートグラス1を介した視界先には、被介護者AさんとBさんとの2人が見える。このとき、Aさんの顔領域のサイズが第1の所定範囲以上となる場合、Aさんの個人情報(表示情報)を、ディスプレイ101に表示する。装着元ユーザの視界には、以下のようなAさんの個人情報が表示される。
[基本情報]:名前、年齢、要介護度、生年月日、部屋番号
[行動情報]:起床時間、食事有無、水分補給有無、服薬有無
[申し送り]:健康状態、体温、血圧、脈拍、症状、服薬情報、リハビリ情報
According to FIG. 5(a), two care recipients, Mr. A and Mr. B, can be seen in the field of view of the wearing source user through the smart glasses 1. At this time, if the size of Mr. A's face area exceeds the first predetermined range, Mr. A's personal information (display information) is displayed on the display 101. Mr. A's personal information, such as the following, is displayed in the field of view of the wearer.
[Basic information]: Name, age, level of care required, date of birth, room number [Behavior information]: Wake-up time, presence of meals, presence of hydration, presence of medication [Notification]: Health condition, body temperature, blood pressure, pulse, symptoms , medication information, rehabilitation information

図5(b)によれば、図5(a)と同様に、装着元ユーザには、被介護者AさんとBさんとの2人が見える。このとき、図5(a)と異なって、Aさん及びBさんの両方とも、顔領域のサイズが第1の所定範囲以上となっていない。このとき、装着元ユーザの視界には、Aさん及びBさんの名前のみが表示される。 According to FIG. 5(b), similarly to FIG. 5(a), the wearer user can see two care recipients, Mr. A and Mr. B. At this time, unlike in FIG. 5A, the size of the face area of both Mr. A and Mr. B is not larger than the first predetermined range. At this time, only the names of Mr. A and Mr. B are displayed in the field of view of the wearer user.

図6は、表示制御部における位置テーブルの説明図である。 FIG. 6 is an explanatory diagram of a position table in the display control section.

装着元ユーザが移動可能な周辺環境における各位置に、無線タグとして例えばBLEタグが配置されている。
これに対し、スマートグラス1の表示制御部12は、位置テーブルを有する。
「位置テーブル」は、位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶したものである。
For example, a BLE tag is placed as a wireless tag at each position in the surrounding environment where the wearer user can move.
On the other hand, the display control unit 12 of the smart glasses 1 has a position table.
The "location table" stores the MAC address and/or tag ID of a wireless tag for each location.

図6の位置テーブルによれば、タグID及びMACアドレス毎に、以下の情報が対応付けられている。
[タグID][MACアドレス]:位置区分、部屋番号、室内位置区分
スマートグラス1の装着元ユーザの現在位置は、以下のいずれかの方法で特定される。
(1)複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定する。
(2)電波強度(RSSI(Received Signal Strength Indication))が強い順に無線信号を受信する3つの無線タグのMAC(Media Access Control)アドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する。
According to the position table of FIG. 6, the following information is associated with each tag ID and MAC address.
[Tag ID] [MAC address]: Location classification, room number, indoor location classification The current location of the user wearing the smart glasses 1 is specified by one of the following methods.
(1) When a plurality of wireless tags are detected, the position is specified using a position table based on the MAC address and/or tag ID of the wireless tag that receives the wireless signal with the strongest radio field strength.
(2) The position is determined by triangulation using a position table based on the MAC (Media Access Control) addresses and/or tag IDs of the three wireless tags that receive wireless signals in order of radio field strength (RSSI (Received Signal Strength Indication)). Identify.

図7は、表示制御部における表示項目を表す説明図である。 FIG. 7 is an explanatory diagram showing display items in the display control section.

図7によれば、時間帯及び位置に応じて、装着元ユーザに見せる表示情報の表示項目を表す。これによって、時間帯(朝、昼、晩)及び位置(施設内、玄関、トイレ・風呂、寝室)に応じて、表示情報記憶部120の中から表示情報をカスタマイズして、装着元ユーザに見せることができる。 According to FIG. 7, display items of display information shown to the wearer user are shown according to the time zone and position. As a result, display information is customized from the display information storage unit 120 according to the time of day (morning, afternoon, evening) and location (inside the facility, entrance, toilet/bathroom, bedroom), and is shown to the wearer. be able to.

表示項目としては、以下の3つがある
(基本情報)
氏名、年齢、介護度、生年月日、部屋番号、ケアプラン
(行動情報)
起床時間、食事(済/未)、水分補給(済/未)、服薬(済/未)、
排泄(有/無)、入浴(済/未)、
(申し送り情報)
健康状態、体温、血圧(上・下)、脈拍、処置情報、症状、治療情報、
未排泄日数、排泄時刻、排泄異常(有/無)、朝/昼/夜食時刻、朝/昼/夜食量、
水分補給時刻、水分量、服薬時刻、入浴時刻、入浴異常(有/無)
There are the following three display items (basic information)
Name, age, level of care, date of birth, room number, care plan (behavior information)
Wake-up time, meals (completed/not yet), hydration (completed/not), medication (completed/not),
Excretion (present/absent), bathing (completed/unfinished),
(Transfer information)
Health status, body temperature, blood pressure (upper/lower), pulse, treatment information, symptoms, treatment information,
Number of days without defecation, time of defecation, abnormal excretion (presence/absence), time of morning/lunch/night meals, amount of breakfast/noon/night meals,
Hydration time, water amount, medication time, bathing time, abnormal bathing (presence/absence)

図7によれば、以下のように表示項目が規定されている。
時間帯に限らず、装着元ユーザから見て視界先ユーザが存在しているとする。このとき、顔領域のサイズが第1の所定範囲以上となって、ユーザIDが特定されている場合、図7の表示項目Aが表示対象となる。一方で、顔領域のサイズが第1の所定範囲よりも小さい場合、図7の表示項目B(氏名のみ)が表示対象となる。
朝の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Cが表示対象となり、現在位置が「寝室」である場合、表示項目Dが表示対象となる。
昼の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Eが表示対象となり、現在位置が「寝室」である場合、表示項目Fが表示対象となる。
夜の時間帯であって、装着元ユーザから見て視界先ユーザが存在していないとする。ここで、装着元ユーザについて、現在位置が「トイレ・風呂」である場合、表示項目Gが表示対象となり、現在位置が「寝室」である場合、表示項目Hが表示対象となる。
According to FIG. 7, display items are defined as follows.
Assume that there is a user in view from the wearer's perspective regardless of the time of day. At this time, if the size of the face area exceeds the first predetermined range and the user ID is specified, display item A in FIG. 7 becomes the display target. On the other hand, if the size of the face area is smaller than the first predetermined range, display item B (name only) in FIG. 7 becomes the display target.
Assume that it is morning time and that there is no visible user from the wearer's perspective. Here, for the wearer user, if the current location is "toilet/bath", display item C becomes the display target, and if the current location is "bedroom", display item D becomes the display target.
Assume that it is daytime and there is no visible user from the wearer's perspective. Here, for the wearer user, if the current location is "toilet/bath", display item E becomes the display target, and if the current location is "bedroom", display item F becomes the display target.
Assume that it is night time and there is no visible user from the wearer's perspective. Here, for the wearer user, if the current location is "toilet/bath", display item G becomes the display target, and if the current location is "bedroom", display item H becomes the display target.

図8は、装着元ユーザの視界に応じた表示項目の切り替わりを表す説明である。 FIG. 8 is an explanation showing switching of display items according to the field of view of the wearer user.

図8(a)によれば、装着元ユーザから見て、視界先ユーザの顔領域のサイズが第1の所定範囲以上であるので、特定されたユーザIDに応じた表示情報がディスプレイ101に表示されている。
図8(b)によれば、装着元ユーザから見て、視界先ユーザが存在しない。また、装着元ユーザは、現在、部屋201号室のトイレ・風呂に位置しているとする。このとき、図7の表示項目を用いて、時間帯及び位置に応じた表示項目がディスプレイ101に表示されている。
図8(c)によれば、装着元ユーザから見て、視界先ユーザが存在しない。また、装着元ユーザは、現在、部屋201号室の寝室に位置しているとする。このとき、図7の表示項目を用いて、時間帯及び位置に応じた表示項目がディスプレイ101に表示されている。
According to FIG. 8A, since the size of the face area of the sighted user is greater than or equal to the first predetermined range when viewed from the wearing source user, display information corresponding to the specified user ID is displayed on the display 101. has been done.
According to FIG. 8(b), there is no visible user from the wearer's perspective. Further, it is assumed that the wearer user is currently located in the toilet/bathroom of room 201. At this time, display items according to the time zone and location are displayed on the display 101 using the display items shown in FIG.
According to FIG. 8C, there is no visible user from the wearer's perspective. Further, it is assumed that the wearer user is currently located in the bedroom of room 201. At this time, display items according to the time zone and location are displayed on the display 101 using the display items shown in FIG.

前述した実施形態によれば、例えば文字の表示情報をディスプレイ101に表示するものとして説明した。これに対し、他の実施形態として、文字の表示情報を、装着元ユーザの耳から聴覚的に認識させるものであってもよい。 According to the embodiments described above, the display information of, for example, characters was described as being displayed on the display 101. On the other hand, as another embodiment, the display information of characters may be recognized aurally through the ear of the wearer user.

表示制御部12は、認識された顔領域のサイズが第2の所定範囲よりも小さい場合、ディスプレイに表示すべき表示情報を音声合成によって音声に変換し、当該音声をスピーカ103から出力する。
顔領域のサイズについて、第2の所定範囲は、第1の所定範囲と同じであってもよいし、第1の所定範囲よりも大きくても小さくてもよい。
また、音声合成については、IoT・組み込み向けマイコンボード単体に搭載されるような、軽量な日本語音声読み上げ機能を用いる。但し、人名など同形異音語については、読み仮名を付与することで適切に読上げ可能となるように制御する。例えば「小原さん」の場合、「コハラ」「オハラ」「オバラ」など多様な読み方が想定されるためである。
If the size of the recognized face area is smaller than the second predetermined range, the display control unit 12 converts the display information to be displayed on the display into audio by voice synthesis, and outputs the audio from the speaker 103.
Regarding the size of the face area, the second predetermined range may be the same as the first predetermined range, or may be larger or smaller than the first predetermined range.
In addition, for speech synthesis, we use a lightweight Japanese voice reading function that can be installed on a standalone microcomputer board for IoT/embedded devices. However, homographs such as personal names are controlled so that they can be read out appropriately by adding pronunciations. For example, in the case of ``Ohara-san'', various readings are assumed, such as ``Kohara'', ``Ohara'', and ``Obara''.

装着元ユーザと視界先ユーザとの間の距離が遠いほど(視界先ユーザの顔領域のサイズが小さいほど)、音声をスピーカ103から出力して、文字を読み上げるものであってもよい。一方で、装着元ユーザと視界先ユーザとの間の距離が近いほど(視界先ユーザの顔領域のサイズが大きいほど)、表示情報をディスプレイ101に表示する。
このように、装着元ユーザと視界先ユーザとの間の距離に応じて、装着元ユーザに対する情報の提示方法を動的に変化させることができる。
このような適用は、例えば介護施設の場合、介護者(装着元ユーザ)と被介護者(視界先ユーザ)とが対面する際に、近い距離では直接的に会話する場合が多いため、音声でスピーカ103から発声させると、介護者の注意力を分散させる恐れがあるためである。
The farther the distance between the wearing source user and the sighted user is (the smaller the size of the face area of the sighted user), the more the voice may be output from the speaker 103 to read out the characters. On the other hand, the closer the distance between the wearing source user and the sighted user is (the larger the size of the face area of the sighted user), the more display information is displayed on the display 101.
In this way, the method of presenting information to the wearer user can be dynamically changed depending on the distance between the wearer user and the sighted user.
For example, in the case of a nursing facility, when a caregiver (wearer user) and a cared person (viewer user) meet face-to-face, they often have a direct conversation at a close distance. This is because if the speaker 103 makes a sound, the caregiver's attention may be distracted.

以上、詳細に説明したように、本発明のスマートグラス、プログラム及び表示制御方法によれば、装着元ユーザが、視界先ユーザを迅速に同定し、その視界先ユーザの個人情報を直ぐに認識することができる。 As described above in detail, according to the smart glasses, program, and display control method of the present invention, the user who wears the glasses can quickly identify the user in front of the field of view and immediately recognize the personal information of the user in the front of the field of view. Can be done.

例えば介護施設における介護者は、本発明のスマートグラスを装着することによって、視界先の被介護者が誰かを直ぐに同定でき、その被介護者の個人情報(氏名や年齢、症状など)をハンズフリーで認識することができる。被介護者の心理的抵抗感を抑制すると知に、介護者に迅速且つ的確な情報を提示することができる。
また、視界先に被介護者が存在しなくても、施設内に配置されたBLEタグによって、現在位置に応じた情報を直ぐに認識することができる。
本発明のスマートグラスは、介護作業支援ARシステムや不審者検出システム(学校・保育園など)にも適用することができる。
For example, by wearing the smart glasses of the present invention, a caregiver at a nursing care facility can immediately identify the person being cared for within their field of view, and can also read personal information (name, age, symptoms, etc.) about that person hands-free. It can be recognized by It is possible to quickly and accurately present information to the caregiver while suppressing the psychological resistance of the care recipient.
Further, even if the cared person is not within the field of view, information according to the current position can be immediately recognized using the BLE tag placed within the facility.
The smart glasses of the present invention can also be applied to nursing care work support AR systems and suspicious person detection systems (schools, nursery schools, etc.).

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 Regarding the various embodiments of the present invention described above, various changes, modifications, and omissions within the scope of the technical idea and viewpoint of the present invention can be easily made by those skilled in the art. The above description is merely an example and is not intended to be limiting in any way. The invention is limited only by the claims and their equivalents.

1 スマートグラス
101 ディスプレイ
102 カメラ
103 スピーカ、骨電動スピーカ
104 センシング部
105 無線通信インタフェース
11 顔認識部
110 ユーザ特徴量蓄積部
111 顔領域検出部
112 顔特徴検出部
113 高速識別器
12 表示制御部
120 表示情報記憶部
2 ユーザ管理サーバ
1 Smart glasses 101 Display 102 Camera 103 Speaker, bone electric speaker 104 Sensing unit 105 Wireless communication interface 11 Face recognition unit 110 User feature storage unit 111 Face area detection unit 112 Face feature detection unit 113 High-speed classifier 12 Display control unit 120 Display Information storage unit 2 User management server

Claims (10)

視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスにおいて、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
現在位置を検知するセンシング手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する表示制御手段と
を有することを特徴とするスマートグラス。
See-through smart glasses have a camera that captures images of the line of sight, and a display that projects information into the user's field of vision.
Display information storage means that stores in advance display information according to the user ID (identifier) and display information according to the position ;
a face recognition means for recognizing a human face area from a video, detecting the size of the face area, and identifying a user ID from the face area;
Sensing means for detecting the current position;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. Smart glasses characterized by having display control means.
表示情報は、文字、画像及び/又は映像である
ことを特徴とする請求項1に記載のスマートグラス。
The smart glasses according to claim 1, wherein the displayed information is characters, images, and/or videos.
表示情報記憶手段は、
各ユーザIDについて、位置及び時間帯の組毎に応じた表示情報と、
各位置について、時間帯に応じた表示情報と
を記憶しており、
表示制御手段は、認識された顔領域のサイズが第1の所定範囲以上となる場合、ユーザID、現在位置及び時間帯に応じた表示情報をディスプレイに表示し、そうでない場合、現在位置及び時間帯に応じた表示情報をディスプレイに表示する
ことを特徴とする請求項1又は2に記載のスマートグラス。
The display information storage means is
For each user ID, display information according to each set of location and time zone,
For each location, display information according to the time zone is stored.
The display control means displays display information corresponding to the user ID, current location, and time on the display when the size of the recognized face area is equal to or larger than a first predetermined range; otherwise , display information corresponding to the current location and time is displayed on the display. The smart glasses according to claim 1 or 2, wherein display information corresponding to the band is displayed on the display.
装着元ユーザの聴覚へ音声を出力するスピーカを更に有し、
表示制御手段は、認識された顔領域のサイズが第2の所定範囲よりも小さい場合、ディスプレイに表示すべき表示情報が文字である場合、音声合成によって音声に変換し、当該音声をスピーカから出力する
ことを特徴とする請求項1からのいずれか1項に記載のスマートグラス。
It further includes a speaker that outputs audio to the hearing of the user who is wearing it,
If the size of the recognized face area is smaller than the second predetermined range, and if the display information to be displayed on the display is text, the display control means converts it into speech by speech synthesis and outputs the speech from the speaker. The smart glasses according to any one of claims 1 to 3 , characterized in that:
スピーカは、骨伝導スピーカである
ことを特徴とする請求項に記載のスマートグラス。
The smart glasses according to claim 4 , wherein the speaker is a bone conduction speaker.
顔認識手段によって認識された人の顔領域のサイズが大きいほど、当該人と装着元ユーザとの間の距離が近く、サイズが小さいほど、当該人と装着元ユーザとの間の距離が遠く、
顔領域のサイズの第1の所定範囲は、当該人と装着元ユーザとの間の距離に基づくものである
ことを特徴とする請求項1からのいずれか1項に記載のスマートグラス。
The larger the size of the face area of the person recognized by the face recognition means, the shorter the distance between the person and the user who wears it, and the smaller the size, the farther the distance between the person and the user who wears it.
6. The smart glasses according to claim 1, wherein the first predetermined range of the size of the face area is based on the distance between the person and the user wearing the smart glasses.
装着元ユーザが移動可能な周辺環境に、位置に応じて無線タグが配置されており、
表示制御手段は、
位置毎に、無線タグのMACアドレス及び/又はタグIDを記憶した位置テーブルを有し、
複数の無線タグを検出した際に、電波強度が最も強い無線信号を受信する無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて位置を特定するか、
又は、電波強度が強い順に無線信号を受信する3つの無線タグのMACアドレス及び/又はタグIDから、位置テーブルを用いて三角測量によって位置を特定する
ことを特徴とする請求項1からのいずれか1項に記載のスマートグラス。
Wireless tags are placed in the surrounding environment where the user wearing them can move, depending on their location.
The display control means is
It has a position table storing the MAC address and/or tag ID of the wireless tag for each position,
When multiple wireless tags are detected, the location is determined using a position table based on the MAC address and/or tag ID of the wireless tag that receives the wireless signal with the strongest radio field strength, or
Alternatively, the position is specified by triangulation using a position table from the MAC addresses and/or tag IDs of three wireless tags that receive wireless signals in order of strength of radio waves. The smart glasses according to item 1.
無線ネットワークを介してサーバに接続する無線通信インタフェースを更に有し、
表示情報記憶手段は、無線通信ネットワークを介してサーバから、ユーザIDに応じた表示情報を予め受信する
ことを特徴とする請求項1からのいずれか1項に記載のスマートグラス。
further comprising a wireless communication interface connecting to the server via a wireless network;
8. The smart glasses according to claim 1, wherein the display information storage means receives in advance display information corresponding to a user ID from a server via a wireless communication network.
視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスに搭載されたコンピュータを機能させるプログラムにおいて、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶手段と、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定する顔認識手段と、
現在位置を検知するセンシング手段と、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する表示制御手段と
してコンピュータを機能させることを特徴とするスマートグラスのプログラム。
In a program that operates a computer installed in see-through smart glasses that have a camera that captures images of the line of sight and a display that displays information in the field of view of the user wearing the glasses,
Display information storage means that stores in advance display information according to a user ID (identifier) and display information according to a position ;
a face recognition means for recognizing a human face area from a video, detecting the size of the face area, and identifying a user ID from the face area;
Sensing means for detecting the current position;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. A program for smart glasses characterized by causing a computer to function as a display control means.
視線先の映像を撮影するカメラと、装着元ユーザの視界に表示情報を映し出すディスプレイとを有するシースルー型のスマートグラスの表示制御方法において、
スマートグラスは、
ユーザID(識別子)に応じた表示情報、及び、位置に応じた表示情報を予め記憶した表示情報記憶部を有し、
映像から、人の顔領域を認識し、当該顔領域のサイズを検出し、当該顔領域からユーザIDを特定すると共に、現在位置を検知する第1のステップと、
顔領域のサイズが第1の所定範囲以上となる場合、特定されたユーザIDに応じた表示情報をディスプレイに表示し、そうでない場合、検知された現在位置に応じた表示情報をディスプレイに表示する第2のステップと
を実行することを特徴とするスマートグラスの表示制御方法。
In a display control method for see-through smart glasses that have a camera that captures an image of the line of sight and a display that projects display information in the field of view of a user who wears the glasses,
Smart glasses are
It has a display information storage section that stores in advance display information according to a user ID (identifier) and display information according to a position ,
A first step of recognizing a person's face area from the video, detecting the size of the face area, identifying a user ID from the face area , and detecting the current position ;
If the size of the face area is equal to or larger than the first predetermined range, display information corresponding to the specified user ID is displayed on the display; otherwise, display information corresponding to the detected current position is displayed on the display. A display control method for smart glasses, the method comprising: performing the second step.
JP2020190020A 2020-11-16 2020-11-16 Smart glasses, program and display control method Active JP7360775B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020190020A JP7360775B2 (en) 2020-11-16 2020-11-16 Smart glasses, program and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020190020A JP7360775B2 (en) 2020-11-16 2020-11-16 Smart glasses, program and display control method

Publications (2)

Publication Number Publication Date
JP2022079067A JP2022079067A (en) 2022-05-26
JP7360775B2 true JP7360775B2 (en) 2023-10-13

Family

ID=81707432

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020190020A Active JP7360775B2 (en) 2020-11-16 2020-11-16 Smart glasses, program and display control method

Country Status (1)

Country Link
JP (1) JP7360775B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116301391B (en) * 2023-05-26 2023-08-04 深圳鸿祥源科技有限公司 Intelligent flat panel display adjusting system based on data analysis

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357177A (en) 1999-06-16 2000-12-26 Ichikawa Jin Shoji Kk Grasping system for flow line in store
JP2006221541A (en) 2005-02-14 2006-08-24 Nec System Technologies Ltd Interest information generator, interest information generating system and interest information generating program
JP2010016432A (en) 2008-07-01 2010-01-21 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium
JP2012060240A (en) 2010-09-06 2012-03-22 Sony Corp Image processing apparatus, program, and image processing method
JP2013140438A (en) 2011-12-28 2013-07-18 Canon Inc Image processing device, imaging device, control method, and program
JP2015088096A (en) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント Information processor and information processing method
JP2016506565A (en) 2012-12-11 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Human-triggered holographic reminder
JP2017085204A (en) 2015-10-23 2017-05-18 キヤノン株式会社 Registration control of meta-data
JP2018097437A (en) 2016-12-08 2018-06-21 株式会社テレパシージャパン Wearable information display terminal and system including the same
JP2018106579A (en) 2016-12-28 2018-07-05 株式会社コロプラ Information providing method, program, and information providing apparatus
JP2019057057A (en) 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019061557A (en) 2017-09-27 2019-04-18 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019151452A (en) 2018-03-02 2019-09-12 日本電産株式会社 Management system of article
JP2020091690A (en) 2018-12-06 2020-06-11 学校法人東京電機大学 Display system and display method

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357177A (en) 1999-06-16 2000-12-26 Ichikawa Jin Shoji Kk Grasping system for flow line in store
JP2006221541A (en) 2005-02-14 2006-08-24 Nec System Technologies Ltd Interest information generator, interest information generating system and interest information generating program
JP2010016432A (en) 2008-07-01 2010-01-21 Olympus Corp Digital photograph frame, information processing system, control method, program, and information storage medium
JP2012060240A (en) 2010-09-06 2012-03-22 Sony Corp Image processing apparatus, program, and image processing method
JP2013140438A (en) 2011-12-28 2013-07-18 Canon Inc Image processing device, imaging device, control method, and program
JP2016506565A (en) 2012-12-11 2016-03-03 マイクロソフト テクノロジー ライセンシング,エルエルシー Human-triggered holographic reminder
JP2015088096A (en) 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント Information processor and information processing method
JP2017085204A (en) 2015-10-23 2017-05-18 キヤノン株式会社 Registration control of meta-data
JP2018097437A (en) 2016-12-08 2018-06-21 株式会社テレパシージャパン Wearable information display terminal and system including the same
JP2018106579A (en) 2016-12-28 2018-07-05 株式会社コロプラ Information providing method, program, and information providing apparatus
JP2019057057A (en) 2017-09-20 2019-04-11 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019061557A (en) 2017-09-27 2019-04-18 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program
JP2019151452A (en) 2018-03-02 2019-09-12 日本電産株式会社 Management system of article
JP2020091690A (en) 2018-12-06 2020-06-11 学校法人東京電機大学 Display system and display method

Also Published As

Publication number Publication date
JP2022079067A (en) 2022-05-26

Similar Documents

Publication Publication Date Title
US10311746B2 (en) Wearable apparatus and method for monitoring posture
KR20200026798A (en) Wearable device and method for analyzing images
CN107658016B (en) Nounou intelligent monitoring system for elderly healthcare companion
US9530299B2 (en) Methods and apparatuses for assisting a visually-impaired user
US20200221218A1 (en) Systems and methods for directing audio output of a wearable apparatus
KR101584685B1 (en) A memory aid method using audio-visual data
Chatterjee et al. Classification of wearable computing: A survey of electronic assistive technology and future design
US11670157B2 (en) Augmented reality system
US11875571B2 (en) Smart hearing assistance in monitored property
JP7360775B2 (en) Smart glasses, program and display control method
EP3893215A1 (en) Information processing device, information processing method, and program
JP7453192B2 (en) Mobile device, program and method for presenting information based on object recognition according to user's dynamic state
CN107016224A (en) The Nounou intelligent monitoring devices accompanied for health care for the aged
US20230260534A1 (en) Smart glass interface for impaired users or users with disabilities
O'Brien et al. Survey of assistive technology devices and applications for aging in place
US11493959B2 (en) Wearable apparatus and methods for providing transcription and/or summary
US20220024046A1 (en) Apparatus and method for determining interaction between human and robot
Vanderheiden Redefining assistive technology, accessibility and disability based on recent technical advances
JP7453193B2 (en) Mobile device, program, and method for controlling speech based on speech synthesis in conjunction with user's surrounding situation
Zeng et al. SHECS: A Local Smart Hands-free Elderly Care Support System on Smart AR Glasses with AI Technology
Goyal et al. An Integrated Approach to Home Security and Safety Systems
KR20160015704A (en) System and method for recognition acquaintance by wearable glass device
EP3882894B1 (en) Seeing aid for a visually impaired individual
WO2023182183A1 (en) Information processing device and information processing method
WO2023076824A1 (en) Response to sounds in an environment based on correlated audio and user events

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150