JP6402718B2 - 情報処理装置、制御方法およびプログラム - Google Patents
情報処理装置、制御方法およびプログラム Download PDFInfo
- Publication number
- JP6402718B2 JP6402718B2 JP2015546313A JP2015546313A JP6402718B2 JP 6402718 B2 JP6402718 B2 JP 6402718B2 JP 2015546313 A JP2015546313 A JP 2015546313A JP 2015546313 A JP2015546313 A JP 2015546313A JP 6402718 B2 JP6402718 B2 JP 6402718B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- action
- processing apparatus
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
Description
1.本開示の一実施形態による行動推定システムの概要
2.基本構成
2−1.情報処理装置の構成
2−2.サーバの構成
3.動作処理
3−1.特徴量学習処理
3−2.行動推定処理
4.出力制御
4−1.危険回避のための表示制御
4−2.コミュニケーションの活性化
4−3.アプリケーションへの応用
5.まとめ
まず、本開示の一実施形態による行動推定システムの概要について図1を参照して説明する。図1に示すように、本実施形態による行動推定システムは、ユーザの頭部に装着される情報処理装置1と、サーバ20とを含む。
ここで、従来の技術では、携帯電話端末やスマートフォン等に搭載された重力加速度や緯度経度取得センサ等を用いてユーザの行動認識を行っていたが、携帯電話端末やスマートフォン等の保持の仕方や端末の使い方は一様に定まらないので、推定できるユーザの行動の種類は限られていた。また、同様の理由により、ユーザの行動の推定精度を向上させるためには多くのセンサデータが必要であった。
<2−1.情報処理装置の構成>
図2は、本実施形態による情報処理装置1の基本構成を示すブロック図である。図2に示すように、情報処理装置1は、主制御部10、表示部2、音声出力部3、撮像部4、音声入力部5、頭部センサ系6、振動部7、通信部12、および記憶部14を有する。
頭部センサ系6は、情報処理装置1がユーザに装着された状態でユーザの頭部の動きを検知するための各種センサである。頭部センサ系6は、例えば重力加速度センサ6a、ジャイロセンサ6b、または地磁気センサ等により実現される。
主制御部10は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ、インターフェース部を備えたマイクロコンピュータにより構成され、情報処理装置1の各構成を制御する。
通信部12は、無線/有線により外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部12は、サーバ20と接続し、例えば学習データに基づいて算出された行動特徴量を受信する。
撮像部4は、撮像レンズ4a、絞り、ズームレンズ、及びフォーカスレンズ等により構成されるレンズ系と、レンズ系に対してフォーカス動作やズーム動作を行わせる駆動系と、レンズ系で得られる撮像光を光電変換して撮像信号を生成する固体撮像素子アレイ等とを有する。固体撮像素子アレイは、例えばCCD(Charge Coupled Device)センサアレイや、CMOS(Complementary Metal Oxide Semiconductor)センサアレイにより実現されてもよい。
音声入力部5は、図1に示したマイクロホン5a、5bと、そのマイクロホン5a、5bで得られた音声信号を増幅処理するマイクアンプ部やA/D変換器を有し、音声データを主制御部10に出力する。主制御部10では、音声入力部5で得られた音声データに対して、ノイズ除去、音源分離等の処理を行った上で音声認識を行うことで、ユーザによる音声入力を可能にする。また、主制御部10では、音声入力部5で得られた音声データに対して、ノイズ除去、音源分離等の処理を行った上で音声データを記憶部14に記憶させることで、録音を可能にする。
表示部2は、出力制御部120による制御に従って、画像データを表示する。また、表示部2は、上述したように、透過型の表示デバイスであってもよい。
音声出力部3は、図1に示した一対のイヤホンスピーカ3a、3bと、そのイヤホンスピーカ3a、3bに対するアンプ回路を有する。また、音声出力部3は、いわゆる骨伝導スピーカとして構成されてもよい。音声出力部3は、出力制御部120による制御に従って、音声信号データを出力(再生)する。
振動部7は、情報処理装置1を振動させる機能を有し、例えば偏心モータ、リニアバイブレータ、ピエゾ素子等により実現される。振動部7は、出力制御部120による制御に従って、情報処理装置1を振動させてユーザに注意を促すことが可能である。
記憶部14は、主制御部10が各種処理を実行するためのプログラム等を記憶する。また、記憶部14は、頭部の動きの学習データに基づいて算出された行動特徴量を記憶していてもよい。
図8は、本実施形態によるサーバ20の基本構成を示すブロック図である。図8に示すように、サーバ20は、特徴量算出部26、通信部22、および教師データ記憶部24を有する。
通信部22は、外部装置と接続し、データの送受信を行う機能を有する。本実施形態による通信部22は、情報処理装置1と接続し、後述する特徴量算出部26により算出された各行動の特徴量を送信する。
教師データ記憶部24は、頭部の動きにより推定し得る各行動の教師データを記憶する。
特徴量算出部26は、教師データ記憶部24に記憶されている各行動の頭部の動きを示す教師データ、または通信部22を介して多数のユーザが装着する情報処理装置1から収集した各行動時の頭部の動きの検知データ等の学習データに基づいて、各行動時の頭部の動きの特徴量を算出(学習)する。特徴量の算出(学習)方法については特に限定しないが、例えばSVM(Support Vector Machine)や決定木等が用いて分析してもよい。具体的には、特徴量算出部26は、例えば頭部の動きの検知データ(加速度や角速度等)の強度、分散、または相関等を分析して特徴量を学習する。
<3−1.特徴量学習処理>
図9は、本実施形態による特徴量学習(算出)処理を示すフローチャートである。図9に示すように、まず、ステップS103において、サーバ20の特徴量算出部26は、教師データとなる各行動時のセンサ値(検知データ)を取得する。具体的には、例えば特徴量算出部26は、教師データ記憶部24から各行動時のセンサ値(検知データ)を抽出する。
図10は、本実施形態による基本的な行動推定処理を示すフローチャートである。図10に示すように、まず、ステップS203において、情報処理装置1の主制御部10は、ユーザの頭部に装着される情報処理装置1に搭載された頭部センサ系6から、各種センサ値(すなわち頭部の動き)を取得する。
<4−1.危険回避のための表示制御>
例えば行動推定部110により「階段を昇降している」と推定された場合、出力制御部120は、ユーザの視界のうち足元を隠さないような表示制御を行い、危険回避を実現する。ここで、階段昇降時の表示制御の一例を図11に示す。
続いて、推定された行動に応じた出力制御によりコミュニケーションを活性化する場合の具体例について説明する。
また、本実施形態による出力制御部120は、推定された行動に応じて、所定のアプリケーションを起動する制御を行ってもよい。具体的には、例えば、行動推定部110により「居眠りをしている」と推定された場合、出力制御部120は、居眠り防止のアプリケーションを起動させる。かかるアプリケーションに従って、出力制御部120は、例えば振動部7をONし、ユーザに振動を与えることで起床を促すことができる。
上述したように、本開示の実施形態による情報処理装置1は、ユーザの頭部に装着され、ユーザの頭部に特徴的な動きに基づいてユーザの行動をよりロバストに推定することができる。
(1)
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた制御を行う制御部と、
を備える、情報処理装置。
(2)
前記推定部は、前記検知されたデータと、予め教師データに基づいて算出された行動特徴量とを比較することで、前記ユーザの行動を推定する、前記(1)に記載の情報処理装置。
(3)
前記制御部は、前記推定された行動に応じた出力制御を行う、前記(1)または(2)に記載の情報処理装置。
(4)
前記出力制御は、表示内容の制御、音声出力制御、振動制御、または所定アプリケーションの起動制御の少なくともいずれかである、前記(3)に記載の情報処理装置。
(5)
前記行動特徴量は、学習データに基づいて分析された強度、分散、または相関の値である、前記(1)〜(4)のいずれか1項に記載の情報処理装置。
(6)
前記検知部は、ジャイロセンサ、加速度センサ、または地磁気センサの少なくともいずれかである、前記(1)〜(5)のいずれか1項に記載の情報処理装置。
(7)
前記情報処理装置は、
前記情報処理装置が前記ユーザの頭部に装着された際に、前記ユーザの眼前に配置される透過型の表示部をさらに備える、前記(1)〜(6)のいずれか1項に記載の情報処理装置。
(8)
前記制御部は、前記推定部により推定された行動に応じて、前記情報処理装置が前記ユーザの頭部に装着されるウェアラブルデバイスである場合に、前記ユーザの眼前に配置される透過型の表示部の表示内容を制御する、前記(1)〜(7)のいずれか1項に記載の情報処理装置。
(9)
前記制御部は、前記推定部により推定された行動に予め対応付けられたアプリケーションを起動するよう制御する、前記(1)〜(8)のいずれか1項に記載の情報処理装置。
(10)
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定するステップと、
前記推定された行動に応じた制御を行うステップと、
を含む、制御方法。
(11)
コンピュータを、
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた制御を行う制御部と、
として機能させるための、プログラム。
2(2a、2b) 表示部
3 音声出力部
3a、3b イヤホンスピーカ
4 撮像部
4a 撮像レンズ
5 音声入力部
5a、5b マイクロホン
6 頭部センサ系
6a 重力加速度センサ
6b ジャイロセンサ
7 振動部
10 主制御部
110 行動推定部
120 出力制御部
12 通信部
14 記憶部
20 サーバ
22 通信部
24 教師データ記憶部
26 特徴量算出部
Claims (17)
- ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた表示制御を行う制御部と、
を備え、
前記推定部は、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
前記制御部は、前記推定部により前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、情報処理装置。 - 前記制御部は、対象に注目する行動が推定された際、表示する情報の量を削減する制御を行う、請求項1に記載の情報処理装置。
- 前記制御部は、通知情報の内容は表示せず通知情報の存在有無を表示することで表示情報の量を削減する、請求項2に記載の情報処理装置。
- 前記制御部は、文字またはアイコンにより通知情報の存在を通知する、請求項3に記載の情報処理装置。
- 前記制御部は、対象に注目する行動が推定された際、情報の表示位置を制御する、請求項1〜4のいずれか1項に記載の情報処理装置。
- 前記制御部は、対象に注目する行動が推定された際、予め設定した固定位置に情報を表示するよう制御する、請求項5項に記載の情報処理装置。
- 前記制御部は、注目対象の位置に応じて情報の表示位置を制御する、請求項5項に記載の情報処理装置。
- 前記制御部は、前記注目対象を継続的に認識し、前記情報が重畳しないよう継続的に表示位置を制御する、請求項7に記載の情報処理装置。
- 前記ユーザが対象に注目する行動は、対話行動である、請求項2〜8のいずれか1項に記載の情報処理装置。
- 前記ユーザが対象に注目する行動は、対話行動であって、
前記注目対象は、前記ユーザが対話する相手の顔である、請求項7または8に記載の情報処理装置。 - 前記注目対象は、前記ユーザが見ている表示画面である、請求項7または8に記載の情報処理装置。
- 前記注目対象は、前記ユーザが操作している情報処理端末である、請求項7または8に記載の情報処理装置。
- 前記検知部は、ジャイロセンサ、加速度センサ、または地磁気センサの少なくともいずれかである、請求項1〜12のいずれか1項に記載の情報処理装置。
- 前記推定部は、前記検知部により検知された前記ユーザの頭部の3軸方向の動きが、対話中の頷きによる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対話中であると推定する、請求項13に記載の情報処理装置。
- 前記情報処理装置は、前記ユーザの頭部に装着される装置であって、
前記ユーザの眼前に位置する透過型の表示部をさらに備える、請求項1〜14のいずれか1項に記載の情報処理装置。 - プロセッサが、
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定するステップと、
前記推定された行動に応じた表示制御を行うステップと、
を含み、
前記推定するステップは、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
前記表示制御を行うステップは、前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、制御方法。 - コンピュータを、
ユーザの頭部に装着され頭部の動きを検知する検知部により検知されたデータと、学習データに基づいて算出された行動特徴量とを比較し、前記ユーザの行動を推定する推定部と、
前記推定部により推定された行動に応じた表示制御を行う制御部と、
として機能させ、
前記推定部は、前記検知部により検知された前記ユーザの頭部の動きが、所定の行動中に起こる頭部の特徴的な動きを示す行動特徴量と一致する場合、前記ユーザが対象に注目する行動中であると推定し、
前記制御部は、前記推定部により前記ユーザが対象に注目する行動が推定された際、当該ユーザの眼前に位置する表示部に表示する情報の態様を制御する、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013231711 | 2013-11-08 | ||
JP2013231711 | 2013-11-08 | ||
PCT/JP2014/070652 WO2015068440A1 (ja) | 2013-11-08 | 2014-08-05 | 情報処理装置、制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2015068440A1 JPWO2015068440A1 (ja) | 2017-03-09 |
JP6402718B2 true JP6402718B2 (ja) | 2018-10-10 |
Family
ID=53041225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015546313A Active JP6402718B2 (ja) | 2013-11-08 | 2014-08-05 | 情報処理装置、制御方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10359839B2 (ja) |
EP (1) | EP3067782B1 (ja) |
JP (1) | JP6402718B2 (ja) |
WO (1) | WO2015068440A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10973440B1 (en) * | 2014-10-26 | 2021-04-13 | David Martin | Mobile control using gait velocity |
JP6404196B2 (ja) * | 2015-09-16 | 2018-10-10 | グリー株式会社 | 仮想画像表示プログラム、仮想画像表示装置及び仮想画像表示方法 |
JP2017136142A (ja) * | 2016-02-02 | 2017-08-10 | セイコーエプソン株式会社 | 情報端末、動作評価システム、動作評価方法、動作評価プログラム、及び記録媒体 |
JP7074343B2 (ja) * | 2016-09-08 | 2022-05-24 | ソニーグループ株式会社 | 情報処理装置 |
US11183167B2 (en) | 2017-03-24 | 2021-11-23 | Sony Corporation | Determining an output position of a subject in a notification based on attention acquisition difficulty |
JP2019101811A (ja) * | 2017-12-04 | 2019-06-24 | 富士通株式会社 | 処理プログラム、処理方法及び処理装置、並びに表示プログラム、表示方法及び表示制御装置 |
JP2021165864A (ja) * | 2018-06-18 | 2021-10-14 | ソニーグループ株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP7271909B2 (ja) * | 2018-11-09 | 2023-05-12 | セイコーエプソン株式会社 | 表示装置、及び、表示装置の制御方法 |
US20230009290A1 (en) * | 2020-03-27 | 2023-01-12 | Sony Group Corporation | Display device and display method |
JP7460279B2 (ja) | 2020-07-09 | 2024-04-02 | アルプスアルパイン株式会社 | 監視装置 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0944297A (ja) * | 1995-07-25 | 1997-02-14 | Canon Inc | データ入力方法及びその装置 |
JPH09269889A (ja) * | 1996-04-02 | 1997-10-14 | Sharp Corp | 対話装置 |
JP2006333355A (ja) | 2005-05-30 | 2006-12-07 | Toshiba Corp | 携帯情報処理装置およびその操作方法 |
JP5036177B2 (ja) * | 2005-12-12 | 2012-09-26 | オリンパス株式会社 | 情報表示装置 |
JP2008067219A (ja) * | 2006-09-08 | 2008-03-21 | Sony Corp | 撮像装置、撮像方法 |
JP5236423B2 (ja) * | 2008-10-17 | 2013-07-17 | Kddi株式会社 | 表示システム、表示方法およびプログラム |
JP5481890B2 (ja) * | 2009-03-12 | 2014-04-23 | ブラザー工業株式会社 | ヘッドマウントディスプレイ装置、画像制御方法および画像制御プログラム |
US8964298B2 (en) * | 2010-02-28 | 2015-02-24 | Microsoft Corporation | Video display modification based on sensor input for a see-through near-to-eye display |
US20120206334A1 (en) * | 2010-02-28 | 2012-08-16 | Osterhout Group, Inc. | Ar glasses with event and user action capture device control of external applications |
JP5392157B2 (ja) | 2010-03-19 | 2014-01-22 | 富士通株式会社 | モーション判定装置、モーション判定方法、およびコンピュータプログラム |
JP2012203128A (ja) * | 2011-03-24 | 2012-10-22 | Seiko Epson Corp | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US8911087B2 (en) * | 2011-05-20 | 2014-12-16 | Eyefluence, Inc. | Systems and methods for measuring reactions of head, eyes, eyelids and pupils |
JP6031735B2 (ja) | 2011-06-13 | 2016-11-24 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
US8184070B1 (en) * | 2011-07-06 | 2012-05-22 | Google Inc. | Method and system for selecting a user interface for a wearable computing device |
JP5829097B2 (ja) | 2011-10-25 | 2015-12-09 | オリンパス株式会社 | 頭部装着型表示装置、プログラム及び画像処理システム |
US9445172B2 (en) * | 2012-08-02 | 2016-09-13 | Ronald Pong | Headphones with interactive display |
US9507426B2 (en) * | 2013-03-27 | 2016-11-29 | Google Inc. | Using the Z-axis in user interfaces for head mountable displays |
-
2014
- 2014-08-05 EP EP14860594.2A patent/EP3067782B1/en active Active
- 2014-08-05 US US15/025,512 patent/US10359839B2/en active Active
- 2014-08-05 JP JP2015546313A patent/JP6402718B2/ja active Active
- 2014-08-05 WO PCT/JP2014/070652 patent/WO2015068440A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JPWO2015068440A1 (ja) | 2017-03-09 |
EP3067782A1 (en) | 2016-09-14 |
EP3067782A4 (en) | 2017-07-26 |
EP3067782B1 (en) | 2021-05-05 |
WO2015068440A1 (ja) | 2015-05-14 |
US20160231808A1 (en) | 2016-08-11 |
US10359839B2 (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6402718B2 (ja) | 情報処理装置、制御方法およびプログラム | |
US11153431B2 (en) | Mobile terminal and method of operating the same | |
US20230333377A1 (en) | Display System | |
JP6574937B2 (ja) | 通信システム、制御方法、および記憶媒体 | |
KR102316327B1 (ko) | 가상 공간의 캡쳐 방법 및 그 전자장치 | |
JP6361649B2 (ja) | 情報処理装置、通知状態制御方法及びプログラム | |
WO2014156389A1 (ja) | 情報処理装置、提示状態制御方法及びプログラム | |
US20150381885A1 (en) | Glass-type terminal and method for controlling the same | |
US9529428B1 (en) | Using head movement to adjust focus on content of a display | |
CN110326300B (zh) | 信息处理设备、信息处理方法及计算机可读存储介质 | |
US10721347B2 (en) | Detecting patterns and behavior to prevent a mobile terminal drop event | |
JP6750697B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US11929087B2 (en) | Systems and methods for selectively attenuating a voice | |
US10778826B1 (en) | System to facilitate communication | |
JP6733662B2 (ja) | 情報処理装置、情報処理方法及びコンピュータプログラム | |
US11328187B2 (en) | Information processing apparatus and information processing method | |
KR20200031098A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
JP2005173419A (ja) | 手話解釈装置 | |
WO2018155128A1 (ja) | 表示装置、制御装置および車両 | |
JP2021099538A (ja) | 情報処理装置、情報処理方法およびプログラム | |
US20220311979A1 (en) | Wearable apparatus for projecting information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170622 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180508 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180827 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6402718 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |