JP2023047410A - Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state - Google Patents
Portable device, program and method for presenting information based on object recognition in accordance with user's dynamic state Download PDFInfo
- Publication number
- JP2023047410A JP2023047410A JP2021156306A JP2021156306A JP2023047410A JP 2023047410 A JP2023047410 A JP 2023047410A JP 2021156306 A JP2021156306 A JP 2021156306A JP 2021156306 A JP2021156306 A JP 2021156306A JP 2023047410 A JP2023047410 A JP 2023047410A
- Authority
- JP
- Japan
- Prior art keywords
- image area
- size
- portable device
- mobile device
- presentation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 8
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 239000004984 smart glass Substances 0.000 claims description 35
- 230000001133 acceleration Effects 0.000 claims description 4
- 210000000988 bone and bone Anatomy 0.000 claims description 3
- 230000006870 function Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000000474 nursing effect Effects 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 229940079593 drug Drugs 0.000 description 4
- 239000003814 drug Substances 0.000 description 4
- 230000029142 excretion Effects 0.000 description 4
- 208000024891 symptom Diseases 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 238000003287 bathing Methods 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000036571 hydration Effects 0.000 description 1
- 238000006703 hydration reaction Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、物体認識に基づく情報をユーザに提示する技術に関する。特に、スマートグラスやスマートフォンに適する。 The present invention relates to technology for presenting information to a user based on object recognition. Especially suitable for smart glasses and smartphones.
スマートグラスは、拡張現実(Augmented Reality)ウェアラブルコンピュータとしてのシースルー型の眼鏡である。これは、ユーザ(装着者)の視界前方に装着され、レンズに対する投射型ディスプレイを搭載する。装着者から見ると、非現実空間を表示する仮想現実(Virtual Reality)と異なって、現実空間の視界に重畳的に情報が表示される。 Smart glasses are see-through type glasses as an augmented reality wearable computer. It is worn in front of the user's (wearer's) field of vision and carries a projection display to the lens. From the wearer's point of view, information is superimposed on the field of view of the real space, unlike the virtual reality that displays the unreal space.
近年、高齢者介護施設や医療機関では、被介護者の増加や介護者の人手不足に伴って、介護サービスの質の低下が社会的課題となっている。特に介護者は、被介護者毎に異なる応対をする必要がある。特に、多数の被介護者が入居する施設では、介護者が、被介護者各々の個人情報(例えば介護に必要な症状等の情報)を覚えきれないことは当然である。 In recent years, at nursing care facilities and medical institutions for the elderly, deterioration in the quality of nursing care services has become a social issue due to an increase in the number of care recipients and a shortage of caregivers. In particular, the caregiver needs to treat each care recipient differently. In particular, in a facility where a large number of care recipients live, it is natural that caregivers cannot remember the personal information of each care recipient (for example, information such as symptoms required for care).
これに対し、介護者がスマートグラスを装着し、そのレンズに、ハンズフリーで被介護者の個人情報を表示する技術がある(例えば非特許文献1参照)。この技術によれば、スマートグラスのカメラで撮影された被介護者の顔画像から、その被介護者を同定し、その被介護者の個人情報をレンズに直ぐに映し出すことができる。そのために、被介護者は、個人認識用の無線タグやマーカを装着する必要もない。 On the other hand, there is a technology in which a caregiver wears smart glasses and hands-free display of the personal information of the cared person on the lens (see, for example, Non-Patent Document 1). According to this technology, the cared person can be identified from the face image of the cared person captured by the camera of the smart glasses, and the cared person's personal information can be immediately projected onto the lens. Therefore, the cared person does not need to wear a wireless tag or marker for personal recognition.
図1は、スマートグラスを通した視界を表す説明図である。 FIG. 1 is an explanatory diagram showing the field of view through smart glasses.
例えば介護現場で、介護者がスマートグラス1を装着しているとする。このとき、介護者(装着者)は、スマートグラス1のレンズを通した視界に、被介護者を見ると同時に、レンズに映し出されたその被介護者の「個人情報」を見ることができる。これによって、介護者は、ハンズフリーで被介護者の個人情報を読み取りながら、介護作業を進めることができる。
For example, assume that a caregiver wears the
前述した非特許文献1に記載の技術によれば、カメラによって撮影された映像に、複数の対人や対象物が映り込んでいる場合、画像領域のサイズが最も大きい物体画像、又は、正面に映り込む物体画像について、その物体を認識しようとするものである。
これに対し、本願の発明者らは、カメラを搭載した携帯装置の動的状態によっては、映像に映り込む複数の物体の中で、ユーザが注目すべき物体が異なるのではないか、と考えた。即ち、携帯装置の動的状態と連動して、ユーザが注目すべき物体を選択し、その上で、その物体に関連する情報をユーザに表示すべきではないか、と考えた。
According to the technique described in Non-Patent
On the other hand, the inventors of the present application have considered that, among a plurality of objects reflected in an image, different objects should be focused on by the user depending on the dynamic state of a mobile device equipped with a camera. rice field. In other words, it was thought that the user should select an object of interest in conjunction with the dynamic state of the mobile device, and then display information related to the object to the user.
そこで、本発明は、ユーザの動的状態に応じて物体認識に基づく情報を提示する携帯装置、プログラム及び方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a mobile device, a program, and a method for presenting information based on object recognition according to the user's dynamic state.
本発明によれば、映像を撮影するカメラを有する携帯装置において、
物体ID(IDentifier、識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
を有することを特徴とする。
According to the present invention, in a portable device having a camera for capturing images,
presentation information storage means for pre-stored in association with presentation information for each object ID (IDentifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
and presenting means for presenting presentation information corresponding to the selected object ID to the user.
本発明の携帯装置における他の実施形態によれば、
物体IDは、個人IDであり、
提示情報は、個人情報であり、
物体認識手段における画像領域は、顔領域である
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The object ID is a personal ID,
Presented information is personal information,
It is also preferable that the image area in the object recognition means is a face area.
本発明の携帯装置における他の実施形態によれば、
物体ID選択手段は、
停止中の場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択し、
移動中の場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The object ID selection means is
When stopped, select an object ID whose image area size is greater than or equal to the first predetermined range,
When moving, it is also preferable to select an object ID whose image area size is equal to or less than the second predetermined range.
本発明の携帯装置における他の実施形態によれば、
第1の所定範囲及び第2の所定範囲は、被写体との間の距離に基づくものであり、被写体との間の距離が遠いほど画像領域のサイズが小さくなり、被写体との間の距離が近いほど画像領域のサイズが大きくなる
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The first predetermined range and the second predetermined range are based on the distance to the subject. The larger the distance to the subject, the smaller the size of the image area, and the shorter the distance to the subject. It is also preferable for the size of the image area to be as large as possible.
本発明の携帯装置における他の実施形態によれば、
移動検知手段は、移動速度を検知可能であり、
物体ID選択手段は、移動速度と画像領域のサイズとに基づいて、物体IDを選択する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
The movement detection means is capable of detecting movement speed,
It is also preferable that the object ID selection means selects the object ID based on the moving speed and the size of the image area.
本発明の携帯装置における他の実施形態によれば、
物体ID選択手段は、移動速度が速いほど、画像領域のサイズが小さい物体IDを選択することも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferable that the object ID selection means selects an object ID having a smaller image area size as the movement speed increases.
本発明の携帯装置における他の実施形態によれば、
移動検知手段は、加速度センサであって、歩行中か否かを検知する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferable that the movement detection means is an acceleration sensor and detects whether or not the person is walking.
本発明の携帯装置における他の実施形態によれば、
視覚的に映し出すディスプレイを更に有し、
提示手段は、物体IDに対応する提示情報を、ディスプレイに表示する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
further comprising a visually projecting display;
It is also preferable that the presentation means displays the presentation information corresponding to the object ID on the display.
本発明の携帯装置における他の実施形態によれば、
カメラは、ユーザの視界の映像を撮影するべく一体的に搭載され、
ディスプレイは、ユーザの視界に提示情報を映し出すレンズであり、
当該携帯装置は、シースルー型のスマートグラスである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
A camera is integrally mounted to capture an image of the user's field of view,
A display is a lens that projects presentation information into the user's field of vision.
It is also preferable that the portable device is see-through type smart glasses.
本発明の携帯装置における他の実施形態によれば、
カメラ及び/又はディスプレイは、一体的に構成され、
当該携帯装置は、スマートフォンである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
the camera and/or display are integrally constructed,
It is also preferred that the mobile device is a smart phone.
本発明の携帯装置における他の実施形態によれば、
音声出力するスピーカを更に有し、
提示手段は、文の提示情報を読み上げて、スピーカから音声出力する
ことも好ましい。
According to another embodiment of the portable device of the present invention,
further having a speaker for audio output,
It is also preferable that the presenting means reads out the presentation information in a sentence and outputs it by voice from a speaker.
本発明の携帯装置における他の実施形態によれば、
スピーカは、骨伝導スピーカである
ことも好ましい。
According to another embodiment of the portable device of the present invention,
It is also preferred that the speaker is a bone conduction speaker.
本発明によれば、映像を撮影するカメラを有する携帯装置に搭載されたコンピュータを機能させるプログラムにおいて、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
してコンピュータを機能させることを特徴とする。
According to the present invention, in a program for functioning a computer mounted on a portable device having a camera for capturing images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
The present invention is characterized by causing the computer to function as presentation means for presenting presentation information corresponding to the selected object ID to the user.
本発明によれば、映像を撮影するカメラを有する携帯装置の情報提示方法において、
携帯装置は、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶しており、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する第1のステップと、
当該携帯装置が移動中か否かを検知する第2のステップと、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する第3のステップと、
選択された物体IDに対応する提示情報を、ユーザに提示する第4のステップと
を実行することを特徴とする。
According to the present invention, in an information presentation method for a mobile device having a camera for capturing images,
The mobile device
Presented information is associated with each object ID (identifier) and stored in advance,
a first step of recognizing an image area of an object from a video, detecting the size of the image area, and identifying an object ID from the image area;
a second step of detecting whether the mobile device is in motion;
a third step of selecting an object ID based on whether it is moving and the size of the image area;
and a fourth step of presenting presentation information corresponding to the selected object ID to the user.
本発明の携帯装置、プログラム及び方法によれば、ユーザの動的状態に応じて物体認識に基づく情報を提示することができる。 According to the portable device, program, and method of the present invention, information based on object recognition can be presented according to the user's dynamic state.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図2は、本発明におけるスマートグラスの機能構成図である。 FIG. 2 is a functional configuration diagram of smart glasses in the present invention.
スマートグラス1は、ユーザの視界に装着可能なシースルー型のものである。
図2によれば、スマートグラス1は、ハードウェアとして、レンズに情報を映し出すディスプレイ101と、対人や対象物を撮影するカメラ102と、装着者に音声を出力するスピーカ103とを搭載する。
また、スマートグラス1は、ソフトウェアとして、提示情報記憶部100と、物体認識部11と、移動検知部12と、物体ID選択部13と、提示部14とを有する。これら機能構成部は、スマートグラスに搭載されたコンピュータを機能させるプログラムを実行することによって実現される。
The
According to FIG. 2, the
The
[ディスプレイ101]
ディスプレイ101は、スマートグラス1の装着者の視界を通すレンズに、提示情報を映し出すことができる。これによって、装着者は、提示情報を視覚的に認識することができる。提示情報としては、一般的には文字であるが、勿論、画像や映像であってもよい。
[Display 101]
The
[カメラ102]
カメラ102は、スマートグラス1と一体的に構成されたものであってもよいし、又は、スマートグラス1の外部に接続されたものであってもよい。カメラ102は、装着者の視界の映像を撮影する。映像には、対人(例えば被介護者)が映り込む場合もあれば、物体(例えば施設設備)が映り込む場合もある。カメラ102は、撮影した映像を常時、物体認識部11へ出力する。
[Camera 102]
The
[スピーカ103]
スピーカ103は、スマートグラス1の装着者の聴覚へ、音声信号を出力するものである。音声信号は、ディスプレイ101に表示すべき文字を、音声合成して変換したものであってもよい。
また、スピーカ103は、例えば骨伝導スピーカであってもよい。装着者のこめかみに接して振動させることによって、対人に聞こえることなく、装着者に聴覚的に音声を認識させることができる。
[Speaker 103]
The
Also, the
[提示情報記憶部100]
提示情報記憶部100は、物体ID(識別子)毎に、提示情報を対応付けて予め記憶したものである。
物体IDは、個人IDであり、提示情報は、個人情報であってもよい。例えば介護現場を想定する場合、個人IDは、被介護者毎に付与されたIDであり、提示情報は、その被介護者の介護情報であってもよい。
[Presentation information storage unit 100]
The presentation
The object ID may be a personal ID, and the presentation information may be personal information. For example, when assuming a nursing care site, the personal ID may be an ID assigned to each care recipient, and the presentation information may be the care information of the care recipient.
スマートグラス1は、個人ID毎の個人情報を、予め記憶したものであってもよいし(スタンドアロン型)、ネットワークを介してサーバにアクセスしてダウンロードする(サーバ-クライアント型)ものであってもよい。
被介護者の個人情報としては、例えば以下のようなものがある。
(基本情報)
氏名、年齢、介護度、生年月日、部屋番号、ケアプラン、等。
(行動情報)
起床時間、食事(済/未)、水分補給(済/未)、服薬(済/未)、排泄(有/無)、入浴(済/未)、等。
(申し送り情報)
健康状態、体温、血圧(上・下)、脈拍、処置情報、症状、治療情報、未排泄日数、排泄時刻、排泄異常(有/無)、朝/昼/夜食時刻、朝/昼/夜食量、水分補給時刻、水分量、服薬時刻、入浴時刻、入浴異常(有/無)、等。
The
Examples of the personal information of the care receiver include the following.
(basic information)
Name, age, care level, date of birth, room number, care plan, etc.
(action information)
Time to wake up, meals (done/not done), hydration (done/not done), medication (done/not done), excretion (yes/no), bathing (done/not done), etc.
(Transfer information)
Health condition, body temperature, blood pressure (upper/lower), pulse, treatment information, symptoms, treatment information, number of days without excretion, excretion time, excretion abnormality (presence/absence), morning/lunch/night meal time, morning/lunch/night meal amount , rehydration time, amount of water, medication time, bathing time, bathing abnormality (yes/no), etc.
[物体認識部11]
物体認識部11は、カメラ102によって撮影された映像から、対象物を認識する。
物体認識部11は、映像から1つ以上の物体の画像領域を認識し、各画像領域のサイズを検出し、各画像領域から物体IDを特定するものである。物体認識部11は、深層学習に基づく画像分類や顔認識に適用される、一般的な機械学習エンジンである。これは、映像に映り込んでいる特定のクラス(人や物のようなカテゴリ)を認識する。
尚、画像領域は、人の顔画像であり、認識対象は、人の同定であってもよい。
[Object recognition unit 11]
The
The
The image area may be a face image of a person, and the recognition target may be identification of the person.
物体認識部11は、物体の画像領域を検出する<画像領域検出機能>と、その画像領域の物体を検出する<物体検出機能>とを有する。
The
<画像領域検出機能>
画像領域検出機能は、映像から、対象物の画像領域を検出する。これは、映像フレームの画像から、物体領域(例えばバウンディングボックス)を切り出す。具体的には、R-CNN(Regions with Convolutional Neural Networks)やSSD(Single Shot Multibox Detector)を用いる。
R-CNNは、四角形の物体領域を畳み込みニューラルネットワークの特徴と組み合わせて、物体領域のサブセットを検出する(領域提案)。次に、領域提案からCNN特徴量を抽出する。そして、CNN特徴量を用いて予め学習したサポートベクタマシンによって、領域提案のバウンディングボックスを調整する。
SSDは、機械学習を用いた一般物体検知のアルゴリズムであって、デフォルトボックス(default boxes)という長方形の枠(バウンディングボックス)を決定する。1枚の画像上に、大きさの異なるデフォルトボックスを多数重畳させ、そのボックス毎に予測値を計算する。各デフォルトボックスについて、自身が物体からどのくらい離れていて、どのくらい大きさが異なるのか、とする位置の予測をすることができる。
<Image area detection function>
The image area detection function detects the image area of the object from the video. It cuts out the object region (eg, bounding box) from the image of the video frame. Specifically, R-CNN (Regions with Convolutional Neural Networks) and SSD (Single Shot Multibox Detector) are used.
R-CNN combines rectangular object regions with convolutional neural network features to detect subsets of object regions (region proposal). Next, CNN features are extracted from the region proposal. Then, the bounding box of the region proposal is adjusted by a support vector machine pre-trained using the CNN features.
SSD is a general object detection algorithm using machine learning, and determines a rectangular frame (bounding box) called a default box. A large number of default boxes with different sizes are superimposed on one image, and a predicted value is calculated for each box. For each default box, we can make a prediction of its position, how far it is from the object and how different it is in size.
<物体検出機能>
物体検出機能は、画像領域から、対象物を検出する。対象物としては、人体や顔であってもよいし、例えば設備のような物であってもよい。
本発明の実施形態としては、介護現場を想定しているので、物体検出機能は、映像から人の顔領域を認識し、その顔領域から個人IDを特定する。
物体検出機能は、識別すべき実際の個人の顔画像の特徴量を予め蓄積している。例えば、被介護者の顔画像の特徴量を蓄積している。
その上で、物体検出機能は、切り出された画像領域となる顔領域を、顔認識モデルを用いて、128/256/512次元の特徴量(ユークリッド距離)に変換する。顔認識モデルとしては、具体的にはGoogle(登録商標)のFacenet(登録商標)アルゴリズムを用いることもできる。これによって、顔領域から多次元ベクトルの特徴量に変換することができる。
そして、物体認識部11は、個人の顔の特徴量の集合と照合し、最も距離が短い又は所定閾値以下となる特徴量となる個人IDを特定する。
<Object detection function>
The object detection function detects objects from the image area. The object may be a human body, a face, or an object such as equipment.
Since the embodiment of the present invention assumes a nursing care site, the object detection function recognizes a person's face area from an image and identifies an individual ID from the face area.
The object detection function is preliminarily storing feature amounts of actual individual face images to be identified. For example, the feature amount of the care-receiver's face image is accumulated.
After that, the object detection function converts the cut-out face area, which is an image area, into a 128/256/512-dimensional feature quantity (Euclidean distance) using a face recognition model. Specifically, the Facenet (registered trademark) algorithm of Google (registered trademark) can also be used as the face recognition model. As a result, the facial region can be converted into a multidimensional vector feature quantity.
Then, the
物体認識部11は、小型IoTデバイスに実装できるように、学習モデルが軽量化されている。学習済みモデルの中間層特徴の選別(レイヤの削除)と、軽量化アーキテクチャの置換とによって、計算量を大幅に削減している。具体的には、C++Nativeライブラリを用いて、スマートグラスのような小型デバイスであっても、1万人を1秒で識別可能となっている。
The learning model of the
ここで、対象物が映る画像領域のサイズと、対象物との間の距離との関係について説明する。
対象物を人の顔である場合、顔の横幅は15cm程度であるので、認識された顔の画像領域の横幅のピクセル数から、その人との間の距離を推測することができる(例えば非特許文献2参照)。カメラによっては、例えば10ピクセルが1cmであるとする仮定することもできる。勿論、特定の対象物のサイズを計っておき、その対象物を特定の距離から撮影し、その画像領域のサイズ(ピクセル数)から固定的にサイズと距離との比を算出しておくものであってもよい。
尚、画像領域のピクセル数は、カメラの解像度とは正比例する。そのために、カメラの解像度に応じて、距離に応じた画像領域のピクセル数を決定しておくこともできる。
また、他の実施形態として、特定の対象物のサイズを計ることなく、カメラからの映像の複数の画像を用いて距離を推測する技術もある(例えば非特許文献3参照)。この場合、複数の単眼カメラ画像から、3三次元座標を算出することでき、そのZ軸を、カメラから対象物までの距離として推測することもできる。
Here, the relationship between the size of the image area in which the object is captured and the distance from the object will be described.
If the object is a human face, the width of the face is about 15 cm. Therefore, the distance between the person and the person can be estimated from the number of pixels in the width of the image area of the recognized face. See Patent Document 2). Depending on the camera, for example, 10 pixels may be assumed to be 1 cm. Of course, the size of a specific object is measured, the object is photographed from a specific distance, and the size-to-distance ratio is fixedly calculated from the size of the image area (the number of pixels). There may be.
Note that the number of pixels in the image area is directly proportional to the resolution of the camera. Therefore, the number of pixels in the image area corresponding to the distance can be determined in accordance with the resolution of the camera.
Further, as another embodiment, there is also a technique of estimating the distance using a plurality of images of video from a camera without measuring the size of a specific object (see Non-Patent Document 3, for example). In this case, three-dimensional coordinates can be calculated from a plurality of monocular camera images, and the Z-axis can also be estimated as the distance from the camera to the object.
[移動検知部12]
移動検知部12は、スマートグラス1自体が「移動中」か否かを検知する。デバイスとしては、加速度センサであってもよい。特に、加速度センサによって検知される周期から、移動中か否かとして、「歩行中」か否かを検知するものであってもよい。
また、移動検知部12は、「移動速度」を検知可能なものであってもよい。例えばスマートグラス1自体を測位可能なものであって、単位時間における移動距離から、移動速度を導出するものであってもよい。
[Movement detection unit 12]
The
Further, the
[物体ID選択部13]
物体ID選択部13は、移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する。
[Object ID selection unit 13]
The object
<移動中/停止中と画像領域のサイズとに基づく物体IDの選択>
図3は、物体ID選択部のフローチャートである。
<Selection of Object ID Based on Moving/Standing and Size of Image Area>
FIG. 3 is a flowchart of the object ID selection section.
(S1)物体ID選択部13は、移動検知部12によって「停止中」と検知された場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択する。
所定範囲は、被写体との間の距離に基づくものである。被写体との間の距離が遠いほど画像領域のサイズが小さくなり、被写体との間の距離が近いほど画像領域のサイズが大きくなる。
(S1) The object
The predetermined range is based on the distance to the subject. The longer the distance to the subject, the smaller the size of the image area, and the closer the distance to the subject, the larger the size of the image area.
図4は、停止中にスマートグラスに提示された情報を表す説明図である。 FIG. 4 is an explanatory diagram showing information presented to the smart glasses while stopped.
図4によれば、例えば介護現場で、介護者(装着者)は、スマートグラス1を装着した視界に、被介護者「Aさん」と「Bさん」との2人が見えている。また、物体認識部11は、物体検出機能によって顔領域から被介護者「Aさん」と「Bさん」両方の個人IDを既に同定している。
ここで、介護者自身が停止中であるということは、介護者は、近い距離にある対人又は対象物に注目していると想定できる。例えば、介護者は、距離が近い被介護者との間で、対面して会話することが想定される。
According to FIG. 4 , for example, at a nursing care site, a caregiver (wearer) can see two care recipients “Mr. A” and “Mr. B” in the field of vision wearing the
Here, when the caregiver himself/herself is stopped, it can be assumed that the caregiver is paying attention to an interpersonal person or an object at a short distance. For example, it is assumed that a caregiver has a face-to-face conversation with a care-receiver who is close to him/her.
介護者が停止中であって、物体認識部11によって、画像領域のサイズが第1の所定範囲以上となる物体IDとして、被介護者「Aさん」が認識されたとする。即ち、被介護者「Aさん」との間の距離が近いと判定する。
このとき、スマートグラス1のレンズのディスプレイ101には、被介護者「Aさん」の「個人情報」が映り込むように表示される。個人情報としては、例えば被介護者Aさんの介護に必要な症状などの情報である。
これによって、介護者は、停止中に、比較的近くに位置する被介護者Aさんに対して、適切な声かけをすることができる。
Assume that the caregiver is stopped and the
At this time, on the
As a result, the caregiver can appropriately speak to the care-receiver A, who is relatively nearby, while the car is stopped.
(S2)物体ID選択部13は、移動検知部12によって「移動中」と検知された場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する。
(S2) When the
図5は、移動中にスマートグラスに提示された情報を表す説明図である。 FIG. 5 is an explanatory diagram showing information presented on smart glasses while moving.
図5によれば、図4と同様に、介護者(装着者)は、スマートグラス1を装着した視界に、被介護者「Aさん」と「Bさん」との2人が見えている。また、物体認識部11は、物体検出機能によって顔領域から被介護者「Aさん」と「Bさん」両方の個人IDを既に同定している。
ここで、介護者自身が移動中であるということは、介護者は、遠い距離にある対人又は対象物に注目していると想定できる。例えば距離が近い被介護者からは、直ぐに通り過ぎてしまうことが想定される。
According to FIG. 5 , as in FIG. 4 , the caregiver (wearer) can see two care recipients “Mr. A” and “Mr. B” in the field of vision wearing the
Here, it can be assumed that the caregiver himself/herself is moving means that the caregiver is paying attention to a distant person or object. For example, it is assumed that a cared person who is close to the cared person will quickly pass by.
介護者が移動中であって、物体認識部11によって、画像領域のサイズが第2の所定範囲以下となる物体IDとして、被介護者「Bさん」が認識されたとする。即ち、被介護者「Bさん」との間の距離が遠いと判定する。
このとき、スマートグラス1のレンズのディスプレイ101には、被介護者「Bさん」の「個人情報」が映り込むように表示される。個人情報としては、例えば被介護者Bさんの介護に必要な症状などの情報である。
これによって、介護者は、移動中に、比較的遠くに位置する被介護者Bさんに近づく前に、予め適切な情報を知っておくことができる。
Assume that the caregiver is moving, and the
At this time, on the
As a result, the caregiver can know appropriate information in advance before approaching the care-receiver B, who is located relatively far away, while moving.
具体的には、画像領域のサイズの第2の所定範囲に応じた距離としては、例えば4m程度とするものであってもよい。勿論、人によって異なるが、人の歩幅は、おおよそ身長×0.45と考えられている。そうすると、身長170cmの人の歩幅は、およそ77cmとなる。即ち、4m程度の距離とは、およそ5歩先を意味する。この場合、装着者は、5歩先よりも遠い距離にある対人に移動しながら近づいていることなるので、その対人の個人情報を予め知らせるようにする。 Specifically, the distance according to the second predetermined range of the size of the image area may be, for example, about 4 m. Of course, the stride length of a person is considered to be approximately height×0.45, although it differs from person to person. Then, the stride length of a 170 cm tall person is about 77 cm. In other words, a distance of about 4m means about 5 steps ahead. In this case, the wearer is approaching a person who is more than five steps ahead while moving, so the personal information of the person should be notified in advance.
<移動速度と画像領域のサイズとに基づく物体IDの選択>
他の実施形態として、物体ID選択部13は、移動速度と画像領域のサイズとに基づいて、物体IDを選択するものであってもよい。
物体ID選択部13は、移動速度が速いほど、画像領域のサイズが小さい物体IDを選択するように制御する。具体的には、移動速度が速いほど、第2の所定範囲が小さくなるように可変とすることが好ましい。装着者としては、移動速度が速いほど、遠くの距離にある対人や対象物に注目している可能性が高いためである。
<Selection of object ID based on moving speed and size of image area>
As another embodiment, the object
The object
[提示部14]
提示部14は、選択された物体IDに対応する提示情報を、ユーザに提示する。
提示部14は、物体IDに対応する提示情報を、ディスプレイ101に表示するものであってもよいし、スピーカ103から音声合成によって出力するものであってもよい。
[Presentation unit 14]
The
The
提示情報は、提示情報記憶部100に予め記憶されたものであって、文字や画像、映像であってもよい。物体IDが個人IDであって、被介護者を同定するものである場合、提示情報は、その被介護者の個人情報となる。例えば、以下のような個人情報が、提示情報として表示される。
[基本情報]:名前、年齢、要介護度、生年月日、部屋番号
[行動情報]:起床時間、食事有無、水分補給有無、服薬有無
[申し送り]:健康状態、体温、血圧、脈拍、症状、服薬情報、リハビリ情報
The presentation information is stored in advance in the presentation
[Basic information]: Name, age, level of nursing care required, date of birth, room number [Activity information]: Wake-up time, whether to eat, whether to drink water, whether to take medication , medication information, rehabilitation information
提示情報が文字である場合、音声合成によって、音声としてスピーカ103から出力することができる。音声合成については、IoT・組み込み向けマイコンボード単体に搭載されるような、軽量な日本語音声読み上げ機能を用いる。
即ち、音声合成に基づく音声は、装着者と対人又は対象物との間の距離に応じて、異なった情報が読み上げられるようになる。即ち、停止中であれば、近い距離の対人等の情報が読み上げられ、移動中であれば、遠い距離の対人等の情報が読み上げられることとなる。
When the presentation information is text, it can be output from the
That is, the speech based on speech synthesis reads out different information depending on the distance between the wearer and the person or the object. That is, when the mobile phone is stopped, the information about interpersonal information at a short distance is read aloud, and when the mobile phone is moving, the information such as interpersonal information at a long distance is read aloud.
図6は、移動中にスマートフォンに表示された情報を表す説明図である。 FIG. 6 is an explanatory diagram showing information displayed on the smartphone while moving.
前述した実施形態によれば、本発明の携帯装置は、シースルー型のスマートグラスであるとして説明したが、それに限られず、スマートフォンのような携帯端末であってもよい。スマートフォンの場合、カメラ及び/又はディスプレイが、一体的に構成されている。 According to the above-described embodiments, the mobile device of the present invention is described as a see-through type smart glasses, but it is not limited to this, and may be a mobile terminal such as a smart phone. In the case of smartphones, the camera and/or the display are integrated.
以上、詳細に説明したように、本発明の携帯装置、プログラム及び方法によれば、ユーザの動的状態に応じて物体認識に基づく情報を提示することができる。
本発明によれば、携帯装置の動的状態と、カメラに映る対人や対象物との間の距離に応じて、ユーザに提示すべき情報を動的に変化させることができる。例えば介護現場の場合、介護者の視界に複数の被介護者が映り込む場合、介護者の動的状態と、被介護者との間の距離とに応じて、介護者に必要と思われる被介護者の個人情報を提示することができる。
As described in detail above, according to the portable device, program, and method of the present invention, it is possible to present information based on object recognition according to the user's dynamic state.
According to the present invention, it is possible to dynamically change the information to be presented to the user according to the dynamic state of the mobile device and the distance between the person or object captured by the camera. For example, in the case of a nursing care site, when multiple care recipients are reflected in the caregiver's field of vision, the caregiver's need for caregiver support is determined according to the caregiver's dynamic state and the distance between the caregiver and the caregiver. Personal information of the caregiver can be presented.
尚、これにより、例えば「介護現場における介護者が、スマートグラスやスマートフォンを装着することによって、その動的状態に応じて適切な被介護者の個人情報をハンズフリーで認識させることができる」ことから、国連が主導する持続可能な開発目標(SDGs)の目標3「あらゆる年齢のすべての人々の健康的な生活を確保し、福祉を推進する」に貢献することが可能となる。 It should be noted that, as a result, for example, ``a caregiver at a nursing care site can recognize appropriate personal information of the care recipient in a hands-free manner according to the dynamic state by wearing smart glasses or smartphones.'' From this, it will be possible to contribute to Goal 3 of the Sustainable Development Goals (SDGs) led by the United Nations, "Ensure healthy lives and promote well-being for all at all ages."
前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。 For the various embodiments of the present invention described above, various changes, modifications and omissions within the spirit and scope of the present invention can be easily made by those skilled in the art. The foregoing description is exemplary only and is not intended to be limiting. The invention is to be limited only as limited by the claims and the equivalents thereof.
1 スマートグラス
100 提示情報記憶部
101 ディスプレイ
102 カメラ
103 スピーカ
11 物体認識部
12 移動検知部
13 物体ID選択部
14 提示部
1
Claims (14)
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
を有することを特徴とする携帯装置。 In a portable device having a camera that captures images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
and presenting means for presenting presentation information corresponding to the selected object ID to a user.
提示情報は、個人情報であり、
物体認識手段における画像領域は、顔領域である
ことを特徴とする請求項1に記載の携帯装置。 The object ID is a personal ID,
Presented information is personal information,
2. The mobile device according to claim 1, wherein the image area in the object recognition means is a face area.
停止中の場合、画像領域のサイズが第1の所定範囲以上となる物体IDを選択し、
移動中の場合、画像領域のサイズが第2の所定範囲以下となる物体IDを選択する
ことを特徴とする請求項1又は2に記載の携帯装置。 The object ID selection means is
When stopped, select an object ID whose image area size is greater than or equal to the first predetermined range,
3. The mobile device according to claim 1, wherein, when the mobile device is moving, an object ID whose image area size is equal to or smaller than a second predetermined range is selected.
ことを特徴とする請求項3に記載の携帯装置。 The first predetermined range and the second predetermined range are based on the distance to the subject. The larger the distance to the subject, the smaller the size of the image area, and the shorter the distance to the subject. 4. A portable device according to claim 3, wherein the size of the image area increases as the number increases.
物体ID選択手段は、移動速度と画像領域のサイズとに基づいて、物体IDを選択する
ことを特徴とする請求項1から4のいずれか1項に記載の携帯装置。 The movement detection means is capable of detecting movement speed,
5. The portable device according to any one of claims 1 to 4, wherein the object ID selection means selects the object ID based on the moving speed and the size of the image area.
ことを特徴とする請求項5に記載の携帯装置。 6. The portable device according to claim 5, wherein the object ID selection means selects an object ID having a smaller image area size as the moving speed is faster.
ことを特徴とする請求項1から6のいずれか1項に記載の携帯装置。 7. The portable device according to any one of claims 1 to 6, wherein the movement detection means is an acceleration sensor and detects whether or not the user is walking.
提示手段は、物体IDに対応する提示情報を、ディスプレイに表示する
ことを特徴とする請求項1から7のいずれか1項に記載の携帯装置。 further comprising a visually projecting display;
8. The portable device according to any one of claims 1 to 7, wherein the presentation means displays the presentation information corresponding to the object ID on the display.
ディスプレイは、ユーザの視界に提示情報を映し出すレンズであり、
当該携帯装置は、シースルー型のスマートグラスである
ことを特徴とする請求項8に記載の携帯装置。 A camera is integrally mounted to capture an image of the user's field of view,
A display is a lens that projects presentation information into the user's field of vision.
9. The mobile device according to claim 8, wherein the mobile device is see-through type smart glasses.
当該携帯装置は、スマートフォンである
ことを特徴とする請求項8に記載の携帯装置。 the camera and/or display are integrally constructed,
9. The mobile device of claim 8, wherein the mobile device is a smart phone.
提示手段は、文の提示情報を読み上げて、スピーカから音声出力する
ことを特徴とする請求項1から10のいずれか1項に記載の携帯装置。 further having a speaker for audio output,
11. The portable device according to any one of claims 1 to 10, wherein the presenting means reads out the presentation information in a sentence and outputs it by voice from a speaker.
ことを特徴とする請求項11に記載の携帯装置。 12. The portable device of claim 11, wherein the speaker is a bone conduction speaker.
物体ID(識別子)毎に、提示情報を対応付けて予め記憶した提示情報記憶手段と、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する物体認識手段と、
当該携帯装置が移動中か否かを検知する移動検知手段と、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する物体ID選択手段と、
選択された物体IDに対応する提示情報を、ユーザに提示する提示手段と
してコンピュータを機能させることを特徴とするプログラム。 In a program that operates a computer mounted on a portable device having a camera that captures images,
presentation information storage means for pre-stored in association with presentation information for each object ID (identifier);
an object recognition means for recognizing an image area of an object from an image, detecting the size of the image area, and specifying an object ID from the image area;
movement detection means for detecting whether the mobile device is moving;
an object ID selection means for selecting an object ID based on the presence or absence of movement and the size of the image area;
A program for causing a computer to function as presentation means for presenting presentation information corresponding to a selected object ID to a user.
携帯装置は、
物体ID(識別子)毎に、提示情報を対応付けて予め記憶しており、
映像から物体の画像領域を認識し、当該画像領域のサイズを検出し、当該画像領域から物体IDを特定する第1のステップと、
当該携帯装置が移動中か否かを検知する第2のステップと、
移動中の有無と、画像領域のサイズとに基づいて、物体IDを選択する第3のステップと、
選択された物体IDに対応する提示情報を、ユーザに提示する第4のステップと
を実行することを特徴とする情報提示方法。
In an information presentation method for a mobile device having a camera for capturing images,
The mobile device
Presented information is associated with each object ID (identifier) and stored in advance,
a first step of recognizing an image area of an object from a video, detecting the size of the image area, and identifying an object ID from the image area;
a second step of detecting whether the mobile device is in motion;
a third step of selecting an object ID based on whether it is moving and the size of the image area;
and a fourth step of presenting presentation information corresponding to the selected object ID to the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156306A JP7453192B2 (en) | 2021-09-27 | 2021-09-27 | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021156306A JP7453192B2 (en) | 2021-09-27 | 2021-09-27 | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023047410A true JP2023047410A (en) | 2023-04-06 |
JP7453192B2 JP7453192B2 (en) | 2024-03-19 |
Family
ID=85779144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021156306A Active JP7453192B2 (en) | 2021-09-27 | 2021-09-27 | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7453192B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220092330A1 (en) * | 2019-01-09 | 2022-03-24 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013054494A (en) | 2011-09-02 | 2013-03-21 | Sony Corp | Information processing apparatus, information processing method, program, recording medium, and information processing system |
JP6051522B2 (en) | 2011-12-28 | 2016-12-27 | ブラザー工業株式会社 | Head mounted display |
JP2015213226A (en) | 2014-05-02 | 2015-11-26 | コニカミノルタ株式会社 | Wearable display and display control program therefor |
JP6651719B2 (en) | 2015-07-02 | 2020-02-19 | 富士通株式会社 | Display control method, display control program, and information processing terminal |
JP2018097437A (en) | 2016-12-08 | 2018-06-21 | 株式会社テレパシージャパン | Wearable information display terminal and system including the same |
CN110832438A (en) | 2017-06-28 | 2020-02-21 | 株式会社OPTiM | Wearable terminal display system, wearable terminal display method, and program |
-
2021
- 2021-09-27 JP JP2021156306A patent/JP7453192B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220092330A1 (en) * | 2019-01-09 | 2022-03-24 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
US11972589B2 (en) * | 2019-01-09 | 2024-04-30 | Fuji Corporation | Image processing device, work robot, substrate inspection device, and specimen inspection device |
Also Published As
Publication number | Publication date |
---|---|
JP7453192B2 (en) | 2024-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210378554A1 (en) | Method and system for privacy-preserving health monitoring | |
Pham et al. | Delivering home healthcare through a cloud-based smart home environment (CoSHE) | |
CN109475294B (en) | Mobile and wearable video capture and feedback platform for treating mental disorders | |
CN111052194B (en) | Method and system for detecting a hazardous situation | |
JP5863423B2 (en) | Information processing apparatus, information processing method, and program | |
JP4682217B2 (en) | Behavior control apparatus, method, and program | |
US20150320343A1 (en) | Motion information processing apparatus and method | |
US10789458B2 (en) | Human behavior recognition apparatus and method | |
JP2005237561A (en) | Information processing device and method | |
JP6109288B2 (en) | Information processing apparatus, information processing method, and program | |
KR20190118965A (en) | System and method for eye-tracking | |
JP7453192B2 (en) | Mobile device, program and method for presenting information based on object recognition according to user's dynamic state | |
JP7388297B2 (en) | Communication support device, communication support method, and program | |
KR20210141197A (en) | Method, apparatur, computer program and computer readable recording medium for providing augmented reality interface for telemedicine | |
JP7360775B2 (en) | Smart glasses, program and display control method | |
US11227148B2 (en) | Information processing apparatus, information processing method, information processing program, and information processing system | |
US11954908B2 (en) | Communication support device, communication support method, computer-readable storage medium including program, and server | |
KR20230154380A (en) | System and method for providing heath-care services fitting to emotion states of users by behavioral and speaking patterns-based emotion recognition results | |
JP7453193B2 (en) | Mobile device, program, and method for controlling speech based on speech synthesis in conjunction with user's surrounding situation | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
Nouisser et al. | Deep learning and kinect skeleton-based approach for fall prediction of elderly physically disabled | |
CN113380383A (en) | Medical monitoring method, device and terminal | |
Mule et al. | In-house object detection system for visually impaired | |
Romaissa et al. | Vision-based fall detection using body geometry | |
JP2020024117A (en) | Information management server, information management method, program, information presentation terminal, and information communication system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230714 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240307 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7453192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |