JP2023047410A - Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state - Google Patents

Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state Download PDF

Info

Publication number
JP2023047410A
JP2023047410A JP2021156306A JP2021156306A JP2023047410A JP 2023047410 A JP2023047410 A JP 2023047410A JP 2021156306 A JP2021156306 A JP 2021156306A JP 2021156306 A JP2021156306 A JP 2021156306A JP 2023047410 A JP2023047410 A JP 2023047410A
Authority
JP
Japan
Prior art keywords
image area
size
portable device
mobile device
presentation information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021156306A
Other languages
Japanese (ja)
Other versions
JP7453192B2 (en
Inventor
剣明 呉
Jiangming Wu
朋広 小原
Tomohiro Obara
亮一 川田
Ryoichi Kawada
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2021156306A priority Critical patent/JP7453192B2/en
Publication of JP2023047410A publication Critical patent/JP2023047410A/en
Application granted granted Critical
Publication of JP7453192B2 publication Critical patent/JP7453192B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

To provide a portable device, etc., for presenting information based on object recognition in accordance with a user's dynamic state.SOLUTION: There is provided, a portable device having a camera for capturing videos, the portable device comprising: presentation information storage means in which presentation information is preliminarily stored in association for object ID (identifier); object recognition means for recognizing an image region of an object from a video, detecting the size of the image region, and identifying an object ID from the image region; movement detection means for detecting whether or not the portable device is in progress of movement; object ID selection means for selecting an object ID on the basis of whether or not being in progress of movement and the selected object ID; and presentation means for presenting a user with presentation information that corresponds to the selected object ID. The object ID is an individual ID, the presentation information is individual information, and the image region in the object recognition means can be a face region.SELECTED DRAWING: Figure 2

Description

本発明は、物体認識に基づく情報をユーザに提示する技術に関する。特に、スマートグラスやスマートフォンに適する。 The present invention relates to technology for presenting information to a user based on object recognition. Especially suitable for smart glasses and smartphones.

スマートグラスは、拡張現実(Augmented Reality)ウェアラブルコンピュータとしてのシースルー型の眼鏡である。これは、ユーザ(装着者)の視界前方に装着され、レンズに対する投射型ディスプレイを搭載する。装着者から見ると、非現実空間を表示する仮想現実(Virtual Reality)と異なって、現実空間の視界に重畳的に情報が表示される。 Smart glasses are see-through type glasses as an augmented reality wearable computer. It is worn in front of the user's (wearer's) field of vision and carries a projection display to the lens. From the wearer's point of view, information is superimposed on the field of view of the real space, unlike the virtual reality that displays the unreal space.

近年、高齢者介護施設や医療機関では、被介護者の増加や介護者の人手不足に伴って、介護サービスの質の低下が社会的課題となっている。特に介護者は、被介護者毎に異なる応対をする必要がある。特に、多数の被介護者が入居する施設では、介護者が、被介護者各々の個人情報(例えば介護に必要な症状等の情報)を覚えきれないことは当然である。 In recent years, at nursing care facilities and medical institutions for the elderly, deterioration in the quality of nursing care services has become a social issue due to an increase in the number of care recipients and a shortage of caregivers. In particular, the caregiver needs to treat each care recipient differently. In particular, in a facility where a large number of care recipients live, it is natural that caregivers cannot remember the personal information of each care recipient (for example, information such as symptoms required for care).

これに対し、介護者がスマートグラスを装着し、そのレンズに、ハンズフリーで被介護者の個人情報を表示する技術がある(例えば非特許文献1参照)。この技術によれば、スマートグラスのカメラで撮影された被介護者の顔画像から、その被介護者を同定し、その被介護者の個人情報をレンズに直ぐに映し出すことができる。そのために、被介護者は、個人認識用の無線タグやマーカを装着する必要もない。 On the other hand, there is a technology in which a caregiver wears smart glasses and hands-free display of the personal information of the cared person on the lens (see, for example, Non-Patent Document 1). According to this technology, the cared person can be identified from the face image of the cared person captured by the camera of the smart glasses, and the cared person's personal information can be immediately projected onto the lens. Therefore, the cared person does not need to wear a wireless tag or marker for personal recognition.

図1は、スマートグラスを通した視界を表す説明図である。 FIG. 1 is an explanatory diagram showing the field of view through smart glasses.

例えば介護現場で、介護者がスマートグラス1を装着しているとする。このとき、介護者(装着者)は、スマートグラス1のレンズを通した視界に、被介護者を見ると同時に、レンズに映し出されたその被介護者の「個人情報」を見ることができる。これによって、介護者は、ハンズフリーで被介護者の個人情報を読み取りながら、介護作業を進めることができる。 For example, assume that a caregiver wears the smart glasses 1 at a care site. At this time, the caregiver (wearer) can see the cared person in the field of view through the lens of the smart glasses 1 and at the same time see the cared person's "personal information" projected on the lens. As a result, the caregiver can read the personal information of the cared person hands-free while carrying out the care work.

KDDI総合研究所・善光会 ニュースリリース「KDDI総合研究所と善光会、ARメガネを活用したハンズフリー介護作業支援システムを開発」(2021年2月2日)、[online]、[令和3年8月30日検索]、インターネット<URL:https://www.kddi-research.jp/newsrelease/2021/020201.html>KDDI Research Institute, Zenkokai News Release "KDDI Research Institute and Zenkokai Develop Hands-free Nursing Work Support System Using AR Glasses" (February 2, 2021), [online], [2021] Searched on August 30], Internet <URL: https://www.kddi-research.jp/newsrelease/2021/020201.html> 「内部パラメータ(焦点距離)の単位の話 ~pixelとmmの変換~」、[online]、[令和3年9月17日検索]、インターネット<URL:https://mem-archive.com/2018/02/25/post-201/>"The story of the unit of internal parameter (focal length) ~ conversion between pixel and mm ~", [online], [searched on September 17, 2021], Internet <URL: https://mem-archive.com/ 2018/02/25/post-201/> 「画像から3次元データを復元する技術の調査 三次元座標の算出の原理 ~エピポーラ幾何&カメラ姿勢の推定~」、[online]、[令和3年9月17日検索]、インターネット<URL: https://qiita.com/akaiteto/items/f5857c7774794a6e5f5e>``Investigation of technology to restore 3D data from images Principle of calculation of 3D coordinates-Epipolar geometry & estimation of camera pose-'', [online], [searched on September 17, 2021], Internet <URL: https://qiita.com/akaiteto/items/f5857c7774794a6e5f5e>

前述した非特許文献1に記載の技術によれば、カメラによって撮影された映像に、複数の対人や対象物が映り込んでいる場合、画像領域のサイズが最も大きい物体画像、又は、正面に映り込む物体画像について、その物体を認識しようとするものである。
これに対し、本願の発明者らは、カメラを搭載した携帯装置の動的状態によっては、映像に映り込む複数の物体の中で、ユーザが注目すべき物体が異なるのではないか、と考えた。即ち、携帯装置の動的状態と連動して、ユーザが注目すべき物体を選択し、その上で、その物体に関連する情報をユーザに表示すべきではないか、と考えた。
According to the technique described in Non-Patent Document 1 mentioned above, when a plurality of interpersonal persons or objects are captured in an image captured by a camera, an object image having the largest size of the image area or a front image is displayed. It tries to recognize the object given the object image.
On the other hand, the inventors of the present application have considered that, among a plurality of objects reflected in an image, different objects should be focused on by the user depending on the dynamic state of a mobile device equipped with a camera. rice field. In other words, it was thought that the user should select an object of interest in conjunction with the dynamic state of the mobile device, and then display information related to the object to the user.

そこで、本発明は、ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a mobile device, a program, and a method for presenting information based on object recognition according to the user's dynamic state.

本発明によれば、映像を撮影するカメラを有する携帯装置において、
物体ID(IDentifier、識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
を有することを特徴とする。
According to the present invention, in a portable device having a camera for capturing images,
presentation information storage means for pre-stored in association with presentation information for each object ID (IDentifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
and presenting means for presenting presentation information corresponding to the selected object ID to the user.

本発明の携帯装置における他の実施形態によれば、
物体IDは、個人IDであり、
提示情報は、個人情報であり、
物体認識手段における画像領域は、顔領域である
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The object ID is a personal ID,
Presented information is personal information,
It is also preferable that the image area in the object recognition means is a face area.

本発明の携帯装置における他の実施形態によれば、
物体ID選択手段は、
停止中の場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択し、
移動中の場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The object ID selection means is
When stopped, select an object ID whose image area size is greater than or equal to the first predetermined range,
When moving, it is also preferable to select an object ID whose image area size is equal to or less than the second predetermined range.

本発明の携帯装置における他の実施形態によれば、
第1の所定範囲及び第2の所定範囲は、被写体との間の距離に基づくものであり、被写体との間の距離が遠いほど画像領域のサイズが小さくなり、被写体との間の距離が近いほど画像領域のサイズが大きくなる
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The first predetermined range and the second predetermined range are based on the distance to the subject. The larger the distance to the subject, the smaller the size of the image area, and the shorter the distance to the subject. It is also preferable for the size of the image area to be as large as possible.

本発明の携帯装置における他の実施形態によれば、
移動検知手段は、移動速度を検知可能であり、
物体ID選択手段は、移動速度と画像領域のサイズとに基づいて、物体IDを選択する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The movement detection means is capable of detecting movement speed,
It is also preferable that the object ID selection means selects the object ID based on the moving speed and the size of the image area.

本発明の携帯装置における他の実施形態によれば、
物体ID選択手段は、移動速度が速いほど、画像領域のサイズが小さい物体IDを選択することも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferable that the object ID selection means selects an object ID having a smaller image area size as the movement speed increases.

本発明の携帯装置における他の実施形態によれば、
移動検知手段は、加速度センサであって、歩行中か否かを検知する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferable that the movement detection means is an acceleration sensor and detects whether or not the person is walking.

本発明の携帯装置における他の実施形態によれば、
視覚的に映し出すディスプレイを更に有し、
提示手段は、物体IDに対応する提示情報を、ディスプレイに表示する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
further comprising a visually projecting display;
It is also preferable that the presentation means displays the presentation information corresponding to the object ID on the display.

本発明の携帯装置における他の実施形態によれば、
カメラは、ユーザの視界の映像を撮影するべく一体的に搭載され、
ディスプレイは、ユーザの視界に提示情報を映し出すレンズであり、
当該携帯装置は、シースルー型のスマートグラスである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
A camera is integrally mounted to capture an image of the user's field of view,
A display is a lens that projects presentation information into the user's field of vision.
It is also preferable that the portable device is see-through type smart glasses.

本発明の携帯装置における他の実施形態によれば、
カメラ及び/又はディスプレイは、一体的に構成され、
当該携帯装置は、スマートフォンである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
the camera and/or display are integrally constructed,
It is also preferred that the mobile device is a smart phone.

本発明の携帯装置における他の実施形態によれば、
音声出力するスピーカを更に有し、
提示手段は、文の提示情報を読み上げて、スピーカから音声出力する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
further having a speaker for audio output,
It is also preferable that the presenting means reads out the presentation information in a sentence and outputs it by voice from a speaker.

本発明の携帯装置における他の実施形態によれば、
スピーカは、骨伝導スピーカである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferred that the speaker is a bone conduction speaker.

本発明によれば、映像を撮影するカメラを有する携帯装置に搭載されたコンピュータを機能させるプログラムにおいて、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in a program for functioning a computer mounted on a portable device having a camera for capturing images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
The present invention is characterized by causing the computer to function as presentation means for presenting presentation information corresponding to the selected object ID to the user.

本発明によれば、映像を撮影するカメラを有する携帯装置の情報提示方法において、
携帯装置は、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶しており、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する第1のステップと、
当該携帯装置が移動中か否かを検知する第2のステップと、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する第3のステップと、
選択された物体IDに対応する提示情報を、ユーザに提示する第4のステップと
を実行することを特徴とする。
According to the present invention, in an information presentation method for a mobile device having a camera for capturing images,
The mobile device
Presented information is associated with each object ID (identifier) and stored in advance,
a first step of recognizing an image area of an object from a video, detecting the size of the image area, and identifying an object ID from the image area;
a second step of detecting whether the mobile device is in motion;
a third step of selecting an object ID based on whether it is moving and the size of the image area;
and a fourth step of presenting presentation information corresponding to the selected object ID to the user.

本発明の携帯装置、プログラム及び方法によれば、ユーザの動的状態に応じて物体認識に基づく情報を提示することができる。 According to the portable device, program, and method of the present invention, information based on object recognition can be presented according to the user's dynamic state.

スマートグラスを通した視界を表す説明図である。It is an explanatory view showing a view through smart glasses. 本発明におけるスマートグラスの機能構成図である。1 is a functional configuration diagram of smart glasses in the present invention. FIG. 物体ID選択部のフローチャートである。It is a flow chart of an object ID selection part. 停止中にスマートグラスに提示された情報を表す説明図である。FIG. 5 is an explanatory diagram showing information presented on smart glasses while the vehicle is stopped; 移動中にスマートグラスに提示された情報を表す説明図である。FIG. 4 is an explanatory diagram showing information presented on smart glasses while moving; 移動中にスマートフォンに表示された情報を表す説明図である。FIG. 4 is an explanatory diagram showing information displayed on a smartphone while moving;

以下、本発明の実施の形態について、図面を用いて詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図2は、本発明におけるスマートグラスの機能構成図である。 FIG. 2 is a functional configuration diagram of smart glasses in the present invention.

スマートグラス1は、ユーザの視界に装着可能なシースルー型のものである。
図2によれば、スマートグラス1は、ハードウェアとして、レンズに情報を映し出すディスプレイ101と、対人や対象物を撮影するカメラ102と、装着者に音声を出力するスピーカ103とを搭載する。
また、スマートグラス1は、ソフトウェアとして、提示情報記憶部100と、物体認識部11と、移動検知部12と、物体ID選択部13と、提示部14とを有する。これら機能構成部は、スマートグラスに搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
The smart glasses 1 are of a see-through type that can be worn in the field of view of the user.
According to FIG. 2, the smart glasses 1 are equipped with, as hardware, a display 101 for projecting information on the lens, a camera 102 for photographing a person or an object, and a speaker 103 for outputting sound to the wearer.
The smart glasses 1 also have a presentation information storage unit 100, an object recognition unit 11, a movement detection unit 12, an object ID selection unit 13, and a presentation unit 14 as software. These functional components are implemented by executing a program that causes a computer mounted on smart glasses to function.

[ディスプレイ101]
ディスプレイ101は、スマートグラス1の装着者の視界を通すレンズに、提示情報を映し出すことができる。これによって、装着者は、提示情報を視覚的に認識することができる。提示情報としては、一般的には文字であるが、勿論、画像や映像であってもよい。
[Display 101]
The display 101 can project presentation information on lenses through which the wearer's field of view of the smart glasses 1 passes. This allows the wearer to visually recognize the presented information. The presentation information is generally text, but may of course be an image or video.

[カメラ102]
カメラ102は、スマートグラス1と一体的に構成されたものであってもよいし、又は、スマートグラス1の外部に接続されたものであってもよい。カメラ102は、装着者の視界の映像を撮影する。映像には、対人(例えば被介護者)が映り込む場合もあれば、物体(例えば施設設備)が映り込む場合もある。カメラ102は、撮影した映像を常時、物体認識部11へ出力する。
[Camera 102]
The camera 102 may be configured integrally with the smart glasses 1 or may be connected to the outside of the smart glasses 1 . Camera 102 captures an image of the wearer's field of view. An image may include an interpersonal person (for example, a cared person) or an object (for example, facility equipment). The camera 102 always outputs the captured image to the object recognition unit 11 .

[スピーカ103]
スピーカ103は、スマートグラス1の装着者の聴覚へ、音声信号を出力するものである。音声信号は、ディスプレイ101に表示すべき文字を、音声合成して変換したものであってもよい。
また、スピーカ103は、例えば骨伝導スピーカであってもよい。装着者のこめかみに接して振動させることによって、対人に聞こえることなく、装着者に聴覚的に音声を認識させることができる。
[Speaker 103]
The speaker 103 outputs an audio signal to the hearing of the wearer of the smart glasses 1 . The audio signal may be obtained by synthesizing and converting the characters to be displayed on the display 101 .
Also, the speaker 103 may be, for example, a bone conduction speaker. By vibrating the wearer's temple in contact with the wearer's temple, the wearer can be made to audibly recognize the voice without being heard by the other person.

[提示情報記憶部100]
提示情報記憶部100は、物体ID(識別子)毎に、提示情報を対応付けて予め記憶したものである。
物体IDは、個人IDであり、提示情報は、個人情報であってもよい。例えば介護現場を想定する場合、個人IDは、被介護者毎に付与されたIDであり、提示情報は、その被介護者の介護情報であってもよい。
[Presentation information storage unit 100]
The presentation information storage unit 100 stores in advance presentation information associated with each object ID (identifier).
The object ID may be a personal ID, and the presentation information may be personal information. For example, when assuming a nursing care site, the personal ID may be an ID assigned to each care recipient, and the presentation information may be the care information of the care recipient.

スマートグラス1は、個人ID毎の個人情報を、予め記憶したものであってもよいし(スタンドアロン型)、ネットワークを介してサーバにアクセスしてダウンロードする(サーバ-クライアント型)ものであってもよい。
被介護者の個人情報としては、例えば以下のようなものがある。
(基本情報)
氏名、年齢、介護度、生年月日、部屋番号、ケアプラン、等。
(行動情報)
起床時間、食事(済/未)、水分補給(済/未)、服薬(済/未)、排泄(有/無)、入浴(済/未)、等。
(申し送り情報)
健康状態、体温、血圧(上・下)、脈拍、処置情報、症状、治療情報、未排泄日数、排泄時刻、排泄異常(有/無)、朝/昼/夜食時刻、朝/昼/夜食量、水分補給時刻、水分量、服薬時刻、入浴時刻、入浴異常(有/無)、等。
The smart glasses 1 may store personal information for each personal ID in advance (stand-alone type), or access a server via a network and download it (server-client type). good.
Examples of the personal information of the care receiver include the following.
(basic information)
Name, age, care level, date of birth, room number, care plan, etc.
(action information)
Time to wake up, meals (done/not done), hydration (done/not done), medication (done/not done), excretion (yes/no), bathing (done/not done), etc.
(Transfer information)
Health condition, body temperature, blood pressure (upper/lower), pulse, treatment information, symptoms, treatment information, number of days without excretion, excretion time, excretion abnormality (presence/absence), morning/lunch/night meal time, morning/lunch/night meal amount , rehydration time, amount of water, medication time, bathing time, bathing abnormality (yes/no), etc.

[物体認識部11]
物体認識部11は、カメラ102によって撮影された映像から、対象物を認識する。
物体認識部11は、映像から1つ以上の物体の画像領域を認識し、各画像領域のサイズを検出し、各画像領域から物体IDを特定するものである。物体認識部11は、深層学習に基づく画像分類や顔認識に適用される、一般的な機械学習エンジンである。これは、映像に映り込んでいる特定のクラス(人や物のようなカテゴリ)を認識する。
尚、画像領域は、人の顔画像であり、認識対象は、人の同定であってもよい。
[Object recognition unit 11]
The object recognition unit 11 recognizes the target object from the image captured by the camera 102 .
The object recognition unit 11 recognizes image areas of one or more objects from a video, detects the size of each image area, and specifies an object ID from each image area. The object recognition unit 11 is a general machine learning engine applied to image classification and face recognition based on deep learning. It recognizes specific classes (categories like people and things) in the video.
The image area may be a face image of a person, and the recognition target may be identification of the person.

物体認識部11は、物体の画像領域を検出する<画像領域検出機能>と、その画像領域の物体を検出する<物体検出機能>とを有する。 The object recognition unit 11 has an <image area detection function> for detecting an image area of an object and an <object detection function> for detecting an object in the image area.

<画像領域検出機能>
画像領域検出機能は、映像から、対象物の画像領域を検出する。これは、映像フレームの画像から、物体領域(例えばバウンディングボックス)を切り出す。具体的には、R-CNN(Regions with Convolutional Neural Networks)やSSD(Single Shot Multibox Detector)を用いる。
R-CNNは、四角形の物体領域を畳み込みニューラルネットワークの特徴と組み合わせて、物体領域のサブセットを検出する(領域提案)。次に、領域提案からCNN特徴量を抽出する。そして、CNN特徴量を用いて予め学習したサポートベクタマシンによって、領域提案のバウンディングボックスを調整する。
SSDは、機械学習を用いた一般物体検知のアルゴリズムであって、デフォルトボックス(default boxes)という長方形の枠(バウンディングボックス)を決定する。1枚の画像上に、大きさの異なるデフォルトボックスを多数重畳させ、そのボックス毎に予測値を計算する。各デフォルトボックスについて、自身が物体からどのくらい離れていて、どのくらい大きさが異なるのか、とする位置の予測をすることができる。
<Image area detection function>
The image area detection function detects the image area of the object from the video. It cuts out the object region (eg, bounding box) from the image of the video frame. Specifically, R-CNN (Regions with Convolutional Neural Networks) and SSD (Single Shot Multibox Detector) are used.
R-CNN combines rectangular object regions with convolutional neural network features to detect subsets of object regions (region proposal). Next, CNN features are extracted from the region proposal. Then, the bounding box of the region proposal is adjusted by a support vector machine pre-trained using the CNN features.
SSD is a general object detection algorithm using machine learning, and determines a rectangular frame (bounding box) called a default box. A large number of default boxes with different sizes are superimposed on one image, and a predicted value is calculated for each box. For each default box, we can make a prediction of its position, how far it is from the object and how different it is in size.

<物体検出機能>
物体検出機能は、画像領域から、対象物を検出する。対象物としては、人体や顔であってもよいし、例えば設備のような物であってもよい。
本発明の実施形態としては、介護現場を想定しているので、物体検出機能は、映像から人の顔領域を認識し、その顔領域から個人IDを特定する。
物体検出機能は、識別すべき実際の個人の顔画像の特徴量を予め蓄積している。例えば、被介護者の顔画像の特徴量を蓄積している。
その上で、物体検出機能は、切り出された画像領域となる顔領域を、顔認識モデルを用いて、128/256/512次元の特徴量(ユークリッド距離)に変換する。顔認識モデルとしては、具体的にはGoogle(登録商標)のFacenet(登録商標)アルゴリズムを用いることもできる。これによって、顔領域から多次元ベクトルの特徴量に変換することができる。
そして、物体認識部11は、個人の顔の特徴量の集合と照合し、最も距離が短い又は所定閾値以下となる特徴量となる個人IDを特定する。
<Object detection function>
The object detection function detects objects from the image area. The object may be a human body, a face, or an object such as equipment.
Since the embodiment of the present invention assumes a nursing care site, the object detection function recognizes a person's face area from an image and identifies an individual ID from the face area.
The object detection function is preliminarily storing feature amounts of actual individual face images to be identified. For example, the feature amount of the care-receiver's face image is accumulated.
After that, the object detection function converts the cut-out face area, which is an image area, into a 128/256/512-dimensional feature quantity (Euclidean distance) using a face recognition model. Specifically, the Facenet (registered trademark) algorithm of Google (registered trademark) can also be used as the face recognition model. As a result, the facial region can be converted into a multidimensional vector feature quantity.
Then, the object recognition unit 11 collates with a set of facial feature amounts of the individual, and specifies an individual ID that has the shortest distance or a feature amount that is equal to or less than a predetermined threshold.

物体認識部11は、小型IoTデバイスに実装できるように、学習モデルが軽量化されている。学習済みモデルの中間層特徴の選別(レイヤの削除)と、軽量化アーキテクチャの置換とによって、計算量を大幅に削減している。具体的には、C++Nativeライブラリを用いて、スマートグラスのような小型デバイスであっても、1万人を1秒で識別可能となっている。 The learning model of the object recognition unit 11 is lightened so that it can be mounted on a small IoT device. The amount of computation is greatly reduced by selecting the intermediate layer features of the trained model (deleting layers) and replacing the lightweight architecture. Specifically, using a C++ native library, even a small device such as smart glasses can identify 10,000 people in 1 second.

ここで、対象物が映る画像領域のサイズと、対象物との間の距離との関係について説明する。
対象物を人の顔である場合、顔の横幅は15cm程度であるので、認識された顔の画像領域の横幅のピクセル数から、その人との間の距離を推測することができる(例えば非特許文献2参照)。カメラによっては、例えば10ピクセルが1cmであるとする仮定することもできる。勿論、特定の対象物のサイズを計っておき、その対象物を特定の距離から撮影し、その画像領域のサイズ(ピクセル数)から固定的にサイズと距離との比を算出しておくものであってもよい。
尚、画像領域のピクセル数は、カメラの解像度とは正比例する。そのために、カメラの解像度に応じて、距離に応じた画像領域のピクセル数を決定しておくこともできる。
また、他の実施形態として、特定の対象物のサイズを計ることなく、カメラからの映像の複数の画像を用いて距離を推測する技術もある(例えば非特許文献3参照)。この場合、複数の単眼カメラ画像から、3三次元座標を算出することでき、そのZ軸を、カメラから対象物までの距離として推測することもできる。
Here, the relationship between the size of the image area in which the object is captured and the distance from the object will be described.
If the object is a human face, the width of the face is about 15 cm. Therefore, the distance between the person and the person can be estimated from the number of pixels in the width of the image area of the recognized face. See Patent Document 2). Depending on the camera, for example, 10 pixels may be assumed to be 1 cm. Of course, the size of a specific object is measured, the object is photographed from a specific distance, and the size-to-distance ratio is fixedly calculated from the size of the image area (the number of pixels). There may be.
Note that the number of pixels in the image area is directly proportional to the resolution of the camera. Therefore, the number of pixels in the image area corresponding to the distance can be determined in accordance with the resolution of the camera.
Further, as another embodiment, there is also a technique of estimating the distance using a plurality of images of video from a camera without measuring the size of a specific object (see Non-Patent Document 3, for example). In this case, three-dimensional coordinates can be calculated from a plurality of monocular camera images, and the Z-axis can also be estimated as the distance from the camera to the object.

[移動検知部12]
移動検知部12は、スマートグラス1自体が「移動中」か否かを検知する。デバイスとしては、加速度センサであってもよい。特に、加速度センサによって検知される周期から、移動中か否かとして、「歩行中」か否かを検知するものであってもよい。
また、移動検知部12は、「移動速度」を検知可能なものであってもよい。例えばスマートグラス1自体を測位可能なものであって、単位時間における移動距離から、移動速度を導出するものであってもよい。
[Movement detection unit 12]
The movement detection unit 12 detects whether the smart glasses 1 themselves are "moving". The device may be an acceleration sensor. In particular, whether or not the person is "walking" may be detected as whether or not the person is moving, based on the cycle detected by the acceleration sensor.
Further, the movement detection unit 12 may be capable of detecting "moving speed". For example, the smart glasses 1 themselves may be positioned, and the movement speed may be derived from the movement distance per unit time.

[物体ID選択部13]
物体ID選択部13は、移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する。
[Object ID selection unit 13]
The object ID selection unit 13 selects an object ID based on whether the object is moving and the size of the image area.

<移動中/停止中と画像領域のサイズとに基づく物体IDの選択>
図3は、物体ID選択部のフローチャートである。
<Selection of Object ID Based on Moving/Standing and Size of Image Area>
FIG. 3 is a flowchart of the object ID selection section.

(S1)物体ID選択部13は、移動検知部12によって「停止中」と検知された場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択する。
所定範囲は、被写体との間の距離に基づくものである。被写体との間の距離が遠いほど画像領域のサイズが小さくなり、被写体との間の距離が近いほど画像領域のサイズが大きくなる。
(S1) The object ID selection unit 13 selects an object ID whose image area size is equal to or larger than a first predetermined range when the movement detection unit 12 detects that it is "stopping".
The predetermined range is based on the distance to the subject. The longer the distance to the subject, the smaller the size of the image area, and the closer the distance to the subject, the larger the size of the image area.

図4は、停止中にスマートグラスに提示された情報を表す説明図である。 FIG. 4 is an explanatory diagram showing information presented to the smart glasses while stopped.

図4によれば、例えば介護現場で、介護者(装着者)は、スマートグラス1を装着した視界に、被介護者「Aさん」と「Bさん」との2人が見えている。また、物体認識部11は、物体検出機能によって顔領域から被介護者「Aさん」と「Bさん」両方の個人IDを既に同定している。
ここで、介護者自身が停止中であるということは、介護者は、近い距離にある対人又は対象物に注目していると想定できる。例えば、介護者は、距離が近い被介護者との間で、対面して会話することが想定される。
According to FIG. 4 , for example, at a nursing care site, a caregiver (wearer) can see two care recipients “Mr. A” and “Mr. B” in the field of vision wearing the smart glasses 1 . Further, the object recognition unit 11 has already identified the individual IDs of both care recipients "Mr. A" and "Mr. B" from the face area by the object detection function.
Here, when the caregiver himself/herself is stopped, it can be assumed that the caregiver is paying attention to an interpersonal person or an object at a short distance. For example, it is assumed that a caregiver has a face-to-face conversation with a care-receiver who is close to him/her.

介護者が停止中であって、物体認識部11によって、画像領域のサイズが第1の所定範囲以上となる物体IDとして、被介護者「Aさん」が認識されたとする。即ち、被介護者「Aさん」との間の距離が近いと判定する。
このとき、スマートグラス1のレンズのディスプレイ101には、被介護者「Aさん」の「個人情報」が映り込むように表示される。個人情報としては、例えば被介護者Aさんの介護に必要な症状などの情報である。
これによって、介護者は、停止中に、比較的近くに位置する被介護者Aさんに対して、適切な声かけをすることができる。
Assume that the caregiver is stopped and the object recognition unit 11 recognizes the care recipient "Mr. A" as an object ID whose image area size is greater than or equal to the first predetermined range. That is, it is determined that the distance to the cared person "Mr. A" is short.
At this time, on the display 101 of the lens of the smart glasses 1, the "personal information" of the cared person "Mr. A" is displayed. The personal information is, for example, information such as symptoms necessary for caring for Mr. A, who is cared for.
As a result, the caregiver can appropriately speak to the care-receiver A, who is relatively nearby, while the car is stopped.

(S2)物体ID選択部13は、移動検知部12によって「移動中」と検知された場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する。 (S2) When the movement detection unit 12 detects that the movement detection unit 12 is moving, the object ID selection unit 13 selects an object ID whose image area size is equal to or smaller than the second predetermined range.

図5は、移動中にスマートグラスに提示された情報を表す説明図である。 FIG. 5 is an explanatory diagram showing information presented on smart glasses while moving.

図5によれば、図4と同様に、介護者(装着者)は、スマートグラス1を装着した視界に、被介護者「Aさん」と「Bさん」との2人が見えている。また、物体認識部11は、物体検出機能によって顔領域から被介護者「Aさん」と「Bさん」両方の個人IDを既に同定している。
ここで、介護者自身が移動中であるということは、介護者は、遠い距離にある対人又は対象物に注目していると想定できる。例えば距離が近い被介護者からは、直ぐに通り過ぎてしまうことが想定される。
According to FIG. 5 , as in FIG. 4 , the caregiver (wearer) can see two care recipients “Mr. A” and “Mr. B” in the field of vision wearing the smart glasses 1 . Further, the object recognition unit 11 has already identified the individual IDs of both care recipients "Mr. A" and "Mr. B" from the face area by the object detection function.
Here, it can be assumed that the caregiver himself/herself is moving means that the caregiver is paying attention to a distant person or object. For example, it is assumed that a cared person who is close to the cared person will quickly pass by.

介護者が移動中であって、物体認識部11によって、画像領域のサイズが第2の所定範囲以下となる物体IDとして、被介護者「Bさん」が認識されたとする。即ち、被介護者「Bさん」との間の距離が遠いと判定する。
このとき、スマートグラス1のレンズのディスプレイ101には、被介護者「Bさん」の「個人情報」が映り込むように表示される。個人情報としては、例えば被介護者Bさんの介護に必要な症状などの情報である。
これによって、介護者は、移動中に、比較的遠くに位置する被介護者Bさんに近づく前に、予め適切な情報を知っておくことができる。
Assume that the caregiver is moving, and the object recognition unit 11 recognizes the care recipient "Mr. B" as an object ID whose image area size is equal to or smaller than the second predetermined range. That is, it is determined that the distance from the cared person "Mr. B" is long.
At this time, on the display 101 of the lens of the smart glasses 1, the "personal information" of the cared person "Mr. B" is displayed so as to be reflected. The personal information is, for example, information such as symptoms necessary for care recipient B's care.
As a result, the caregiver can know appropriate information in advance before approaching the care-receiver B, who is located relatively far away, while moving.

具体的には、画像領域のサイズの第2の所定範囲に応じた距離としては、例えば4m程度とするものであってもよい。勿論、人によって異なるが、人の歩幅は、おおよそ身長×0.45と考えられている。そうすると、身長170cmの人の歩幅は、およそ77cmとなる。即ち、4m程度の距離とは、およそ5歩先を意味する。この場合、装着者は、5歩先よりも遠い距離にある対人に移動しながら近づいていることなるので、その対人の個人情報を予め知らせるようにする。 Specifically, the distance according to the second predetermined range of the size of the image area may be, for example, about 4 m. Of course, the stride length of a person is considered to be approximately height×0.45, although it differs from person to person. Then, the stride length of a 170 cm tall person is about 77 cm. In other words, a distance of about 4m means about 5 steps ahead. In this case, the wearer is approaching a person who is more than five steps ahead while moving, so the personal information of the person should be notified in advance.

<移動速度と画像領域のサイズとに基づく物体IDの選択>
他の実施形態として、物体ID選択部13は、移動速度と画像領域のサイズとに基づいて、物体IDを選択するものであってもよい。
物体ID選択部13は、移動速度が速いほど、画像領域のサイズが小さい物体IDを選択するように制御する。具体的には、移動速度が速いほど、第2の所定範囲が小さくなるように可変とすることが好ましい。装着者としては、移動速度が速いほど、遠くの距離にある対人や対象物に注目している可能性が高いためである。
<Selection of object ID based on moving speed and size of image area>
As another embodiment, the object ID selection unit 13 may select the object ID based on the moving speed and the size of the image area.
The object ID selection unit 13 performs control so that an object ID having a smaller image area size is selected as the movement speed increases. Specifically, it is preferable to make the second predetermined range variable so that the faster the moving speed, the smaller the second predetermined range. This is because the faster the movement speed, the higher the possibility that the wearer is paying attention to a distant person or object.

[提示部14]
提示部14は、選択された物体IDに対応する提示情報を、ユーザに提示する。
提示部14は、物体IDに対応する提示情報を、ディスプレイ101に表示するものであってもよいし、スピーカ103から音声合成によって出力するものであってもよい。
[Presentation unit 14]
The presentation unit 14 presents presentation information corresponding to the selected object ID to the user.
The presentation unit 14 may display the presentation information corresponding to the object ID on the display 101 or may output the presentation information from the speaker 103 by voice synthesis.

提示情報は、提示情報記憶部100に予め記憶されたものであって、文字や画像、映像であってもよい。物体IDが個人IDであって、被介護者を同定するものである場合、提示情報は、その被介護者の個人情報となる。例えば、以下のような個人情報が、提示情報として表示される。
[基本情報]:名前、年齢、要介護度、生年月日、部屋番号
[行動情報]:起床時間、食事有無、水分補給有無、服薬有無
[申し送り]:健康状態、体温、血圧、脈拍、症状、服薬情報、リハビリ情報
The presentation information is stored in advance in the presentation information storage unit 100, and may be characters, images, or videos. When the object ID is a personal ID that identifies a care recipient, the presentation information is the personal information of the care recipient. For example, the following personal information is displayed as presentation information.
[Basic information]: Name, age, level of nursing care required, date of birth, room number [Activity information]: Wake-up time, whether to eat, whether to drink water, whether to take medication , medication information, rehabilitation information

提示情報が文字である場合、音声合成によって、音声としてスピーカ103から出力することができる。音声合成については、IoT・組み込み向けマイコンボード単体に搭載されるような、軽量な日本語音声読み上げ機能を用いる。
即ち、音声合成に基づく音声は、装着者と対人又は対象物との間の距離に応じて、異なった情報が読み上げられるようになる。即ち、停止中であれば、近い距離の対人等の情報が読み上げられ、移動中であれば、遠い距離の対人等の情報が読み上げられることとなる。
When the presentation information is text, it can be output from the speaker 103 as voice by voice synthesis. For voice synthesis, we use a lightweight Japanese text-to-speech function that is installed on a single microcomputer board for IoT and embedded.
That is, the speech based on speech synthesis reads out different information depending on the distance between the wearer and the person or the object. That is, when the mobile phone is stopped, the information about interpersonal information at a short distance is read aloud, and when the mobile phone is moving, the information such as interpersonal information at a long distance is read aloud.

図6は、移動中にスマートフォンに表示された情報を表す説明図である。 FIG. 6 is an explanatory diagram showing information displayed on the smartphone while moving.

前述した実施形態によれば、本発明の携帯装置は、シースルー型のスマートグラスであるとして説明したが、それに限られず、スマートフォンのような携帯端末であってもよい。スマートフォンの場合、カメラ及び/又はディスプレイが、一体的に構成されている。 According to the above-described embodiments, the mobile device of the present invention is described as a see-through type smart glasses, but it is not limited to this, and may be a mobile terminal such as a smart phone. In the case of smartphones, the camera and/or the display are integrated.

以上、詳細に説明したように、本発明の携帯装置、プログラム及び方法によれば、ユーザの動的状態に応じて物体認識に基づく情報を提示することができる。
本発明によれば、携帯装置の動的状態と、カメラに映る対人や対象物との間の距離に応じて、ユーザに提示すべき情報を動的に変化させることができる。例えば介護現場の場合、介護者の視界に複数の被介護者が映り込む場合、介護者の動的状態と、被介護者との間の距離とに応じて、介護者に必要と思われる被介護者の個人情報を提示することができる。
As described in detail above, according to the portable device, program, and method of the present invention, it is possible to present information based on object recognition according to the user's dynamic state.
According to the present invention, it is possible to dynamically change the information to be presented to the user according to the dynamic state of the mobile device and the distance between the person or object captured by the camera. For example, in the case of a nursing care site, when multiple care recipients are reflected in the caregiver's field of vision, the caregiver's need for caregiver support is determined according to the caregiver's dynamic state and the distance between the caregiver and the caregiver. Personal information of the caregiver can be presented.

尚、これにより、例えば「介護現場における介護者が、スマートグラスやスマートフォンを装着することによって、その動的状態に応じて適切な被介護者の個人情報をハンズフリーで認識させることができる」ことから、国連が主導する持続可能な開発目標(SDGs)の目標3「あらゆる年齢のすべての人々の健康的な生活を確保し、福祉を推進する」に貢献することが可能となる。 It should be noted that, as a result, for example, ``a caregiver at a nursing care site can recognize appropriate personal information of the care recipient in a hands-free manner according to the dynamic state by wearing smart glasses or smartphones.'' From this, it will be possible to contribute to Goal 3 of the Sustainable Development Goals (SDGs) led by the United Nations, "Ensure healthy lives and promote well-being for all at all ages."

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 For the various embodiments of the present invention described above, various changes, modifications and omissions within the spirit and scope of the present invention can be easily made by those skilled in the art. The foregoing description is exemplary only and is not intended to be limiting. The invention is to be limited only as limited by the claims and the equivalents thereof.

1 スマートグラス
100 提示情報記憶部
101 ディスプレイ
102 カメラ
103 スピーカ
11 物体認識部
12 移動検知部
13 物体ID選択部
14 提示部

1 smart glasses 100 presentation information storage unit 101 display 102 camera 103 speaker 11 object recognition unit 12 movement detection unit 13 object ID selection unit 14 presentation unit

Claims (14)

映像を撮影するカメラを有する携帯装置において、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
を有することを特徴とする携帯装置。
In a portable device having a camera that captures images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
and presenting means for presenting presentation information corresponding to the selected object ID to a user.
物体IDは、個人IDであり、
提示情報は、個人情報であり、
物体認識手段における画像領域は、顔領域である
ことを特徴とする請求項1に記載の携帯装置。
The object ID is a personal ID,
Presented information is personal information,
2. The mobile device according to claim 1, wherein the image area in the object recognition means is a face area.
物体ID選択手段は、
停止中の場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択し、
移動中の場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する
ことを特徴とする請求項1又は2に記載の携帯装置。
The object ID selection means is
When stopped, select an object ID whose image area size is greater than or equal to the first predetermined range,
3. The mobile device according to claim 1, wherein, when the mobile device is moving, an object ID whose image area size is equal to or smaller than a second predetermined range is selected.
第1の所定範囲及び第2の所定範囲は、被写体との間の距離に基づくものであり、被写体との間の距離が遠いほど画像領域のサイズが小さくなり、被写体との間の距離が近いほど画像領域のサイズが大きくなる
ことを特徴とする請求項3に記載の携帯装置。
The first predetermined range and the second predetermined range are based on the distance to the subject. The larger the distance to the subject, the smaller the size of the image area, and the shorter the distance to the subject. 4. A portable device according to claim 3, wherein the size of the image area increases as the number increases.
移動検知手段は、移動速度を検知可能であり、
物体ID選択手段は、移動速度と画像領域のサイズとに基づいて、物体IDを選択する
ことを特徴とする請求項1から4のいずれか1項に記載の携帯装置。
The movement detection means is capable of detecting movement speed,
5. The portable device according to any one of claims 1 to 4, wherein the object ID selection means selects the object ID based on the moving speed and the size of the image area.
物体ID選択手段は、移動速度が速いほど、画像領域のサイズが小さい物体IDを選択する
ことを特徴とする請求項5に記載の携帯装置。
6. The portable device according to claim 5, wherein the object ID selection means selects an object ID having a smaller image area size as the moving speed is faster.
移動検知手段は、加速度センサであって、歩行中か否かを検知する
ことを特徴とする請求項1から6のいずれか1項に記載の携帯装置。
7. The portable device according to any one of claims 1 to 6, wherein the movement detection means is an acceleration sensor and detects whether or not the user is walking.
視覚的に映し出すディスプレイを更に有し、
提示手段は、物体IDに対応する提示情報を、ディスプレイに表示する
ことを特徴とする請求項1から7のいずれか1項に記載の携帯装置。
further comprising a visually projecting display;
8. The portable device according to any one of claims 1 to 7, wherein the presentation means displays the presentation information corresponding to the object ID on the display.
カメラは、ユーザの視界の映像を撮影するべく一体的に搭載され、
ディスプレイは、ユーザの視界に提示情報を映し出すレンズであり、
当該携帯装置は、シースルー型のスマートグラスである
ことを特徴とする請求項8に記載の携帯装置。
A camera is integrally mounted to capture an image of the user's field of view,
A display is a lens that projects presentation information into the user's field of vision.
9. The mobile device according to claim 8, wherein the mobile device is see-through type smart glasses.
カメラ及び/又はディスプレイは、一体的に構成され、
当該携帯装置は、スマートフォンである
ことを特徴とする請求項8に記載の携帯装置。
the camera and/or display are integrally constructed,
9. The mobile device of claim 8, wherein the mobile device is a smart phone.
音声出力するスピーカを更に有し、
提示手段は、文の提示情報を読み上げて、スピーカから音声出力する
ことを特徴とする請求項1から10のいずれか1項に記載の携帯装置。
further having a speaker for audio output,
11. The portable device according to any one of claims 1 to 10, wherein the presenting means reads out the presentation information in a sentence and outputs it by voice from a speaker.
スピーカは、骨伝導スピーカである
ことを特徴とする請求項11に記載の携帯装置。
12. The portable device of claim 11, wherein the speaker is a bone conduction speaker.
映像を撮影するカメラを有する携帯装置に搭載されたコンピュータを機能させるプログラムにおいて、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
してコンピュータを機能させることを特徴とするプログラム。
In a program that operates a computer mounted on a portable device having a camera that captures images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
A program for causing a computer to function as presentation means for presenting presentation information corresponding to a selected object ID to a user.
映像を撮影するカメラを有する携帯装置の情報提示方法において、
携帯装置は、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶しており、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する第1のステップと、
当該携帯装置が移動中か否かを検知する第2のステップと、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する第3のステップと、
選択された物体IDに対応する提示情報を、ユーザに提示する第4のステップと
を実行することを特徴とする情報提示方法。
In an information presentation method for a mobile device having a camera for capturing images,
The mobile device
Presented information is associated with each object ID (identifier) and stored in advance,
a first step of recognizing an image area of an object from a video, detecting the size of the image area, and identifying an object ID from the image area;
a second step of detecting whether the mobile device is in motion;
a third step of selecting an object ID based on whether it is moving and the size of the image area;
and a fourth step of presenting presentation information corresponding to the selected object ID to the user.
JP2021156306A 2021-09-27 2021-09-27 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state Active JP7453192B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021156306A JP7453192B2 (en) 2021-09-27 2021-09-27 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021156306A JP7453192B2 (en) 2021-09-27 2021-09-27 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Publications (2)

Publication Number Publication Date
JP2023047410A true JP2023047410A (en) 2023-04-06
JP7453192B2 JP7453192B2 (en) 2024-03-19

Family

ID=85779144

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021156306A Active JP7453192B2 (en) 2021-09-27 2021-09-27 Mobile device, program and method for presenting information based on object recognition according to user's dynamic state

Country Status (1)

Country Link
JP (1) JP7453192B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220092330A1 (en) * 2019-01-09 2022-03-24 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054494A (en) 2011-09-02 2013-03-21 Sony Corp Information processing apparatus, information processing method, program, recording medium, and information processing system
JP6051522B2 (en) 2011-12-28 2016-12-27 ブラザー工業株式会社 Head mounted display
JP2015213226A (en) 2014-05-02 2015-11-26 コニカミノルタ株式会社 Wearable display and display control program therefor
JP6651719B2 (en) 2015-07-02 2020-02-19 富士通株式会社 Display control method, display control program, and information processing terminal
JP2018097437A (en) 2016-12-08 2018-06-21 株式会社テレパシージャパン Wearable information display terminal and system including the same
CN110832438A (en) 2017-06-28 2020-02-21 株式会社OPTiM Wearable terminal display system, wearable terminal display method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220092330A1 (en) * 2019-01-09 2022-03-24 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device
US11972589B2 (en) * 2019-01-09 2024-04-30 Fuji Corporation Image processing device, work robot, substrate inspection device, and specimen inspection device

Also Published As

Publication number Publication date
JP7453192B2 (en) 2024-03-19

Similar Documents

Publication Publication Date Title
US20210378554A1 (en) Method and system for privacy-preserving health monitoring
Pham et al. Delivering home healthcare through a cloud-based smart home environment (CoSHE)
CN109475294B (en) Mobile and wearable video capture and feedback platform for treating mental disorders
CN111052194B (en) Method and system for detecting a hazardous situation
JP5863423B2 (en) Information processing apparatus, information processing method, and program
JP4682217B2 (en) Behavior control apparatus, method, and program
US20150320343A1 (en) Motion information processing apparatus and method
US10789458B2 (en) Human behavior recognition apparatus and method
JP2005237561A (en) Information processing device and method
JP6109288B2 (en) Information processing apparatus, information processing method, and program
KR20190118965A (en) System and method for eye-tracking
JP7453192B2 (en) Mobile device, program and method for presenting information based on object recognition according to user&#39;s dynamic state
JP7388297B2 (en) Communication support device, communication support method, and program
KR20210141197A (en) Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine
JP7360775B2 (en) Smart glasses, program and display control method
US11227148B2 (en) Information processing apparatus, information processing method, information processing program, and information processing system
US11954908B2 (en) Communication support device, communication support method, computer-readable storage medium including program, and server
KR20230154380A (en) System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results
JP7453193B2 (en) Mobile device, program, and method for controlling speech based on speech synthesis in conjunction with user&#39;s surrounding situation
Safarzadeh et al. Real-time fall detection and alert system using pose estimation
Nouisser et al. Deep learning and kinect skeleton-based approach for fall prediction of elderly physically disabled
CN113380383A (en) Medical monitoring method, device and terminal
Mule et al. In-house object detection system for visually impaired
Romaissa et al. Vision-based fall detection using body geometry
JP2020024117A (en) Information management server, information management method, program, information presentation terminal, and information communication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230714

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240307

R150 Certificate of patent or registration of utility model

Ref document number: 7453192

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150