JP6344530B2 - 入力装置、入力方法、及びプログラム - Google Patents
入力装置、入力方法、及びプログラム Download PDFInfo
- Publication number
- JP6344530B2 JP6344530B2 JP2017543167A JP2017543167A JP6344530B2 JP 6344530 B2 JP6344530 B2 JP 6344530B2 JP 2017543167 A JP2017543167 A JP 2017543167A JP 2017543167 A JP2017543167 A JP 2017543167A JP 6344530 B2 JP6344530 B2 JP 6344530B2
- Authority
- JP
- Japan
- Prior art keywords
- input
- sensor
- captured image
- user
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 89
- 230000033001 locomotion Effects 0.000 claims description 285
- 238000001514 detection method Methods 0.000 claims description 256
- 239000003550 marker Substances 0.000 claims description 80
- 230000010365 information processing Effects 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 20
- 239000000284 extract Substances 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 description 32
- 239000011521 glass Substances 0.000 description 27
- 238000003384 imaging method Methods 0.000 description 11
- 238000007689 inspection Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Social Psychology (AREA)
- Psychiatry (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Position Input By Displaying (AREA)
Description
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第3の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第4の入力装置は、1)ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記動き検出ステップにおいて、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第3の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記動き検出ステップにおいて、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第4の入力方法は、コンピュータによって実行される入力方法である。
当該入力方法は、1)ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、を有する。
前記撮像画像を生成するカメラは、前記センサとは別体として設けられる。
前記センサは、前記ユーザに取り付けられたデバイスに設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
本発明の第1のシステムは、センサ、カメラ、及び入力装置を有する。
前記入力装置は、1)前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサはユーザの身体に取り付けられる。
前記撮像画像は前記カメラによって生成される。
前記カメラと前記センサは互いに別体として設けられる。
前記動き検出手段は、前記撮像画像に含まれるマーカを検出し、前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する。
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である。
本発明の第2のシステムは、センサ、カメラ、及び入力装置を有する。
前記入力装置は、1)前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、2)前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、を有する。
前記センサはユーザの身体に取り付けられる。
前記撮像画像は前記カメラによって生成される。
前記カメラと前記センサは互いに別体として設けられる。
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更する。
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する。
図1は、実施形態1に係る入力装置2000を例示するブロック図である。図1において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
撮像画像に含まれるオブジェクトの動きのみを利用してユーザの入力操作を認識しようとすると、ユーザが入力操作のためにオブジェクトを動かしているのか、別の目的でオブジェクトを動かしているのかを区別することが難しい。そのため、ユーザが入力操作を行っていないにも関わらず入力操作が誤って認識されたり、ユーザが入力操作を行っているにも関わらず入力操作が認識されなかったりする可能性がある。
入力装置2000の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、入力装置2000の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、実施形態1の入力装置2000によって実行される処理の流れを例示するフローチャートである。動き検出部2020は、入力装置2000のユーザの身体に取り付けられたセンサ12の検出結果を把握する(S102)。動き検出部2020は撮像画像を取得する(S104)。動き検出部2020は、取得した撮像画像を用いて、センサ12の検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する(S106)。入力認識部2040は、検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する(S108)。
ユーザに身に付けられるセンサは、ユーザによる入力操作のタイミングを把握するために利用できる任意のセンサであり、前述した振動センサに限定されない。例えばセンサは、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサなどでもよい。加速度センサや振動スイッチは、振動センサと同様に、例えばデバイス10の内部に設けられる。圧力センサや静電容量センサは、例えばデバイス10のタッチパネルに設けられる。また例えば、圧力センサや静電容量センサは、ユーザの腕や手などに貼られたり巻き付けられたりするシートなどに設けられてもよい。また例えば、圧力センサや静電容量センサは、ユーザの衣服(袖など)に設けられてもよい。
動き検出部2020は、入力装置2000のユーザの身体に取り付けられたセンサの検出結果を把握する(S102)。動き検出部2020がセンサの検出結果を把握する方法は様々である。以下、その方法を例示する。
例えば動き検出部2020は、センサを内蔵するデバイス10と無線通信を行うことにより、センサの検出結果を示す情報を取得することで、センサ12の検出結果を把握する。例えば、デバイス10は、センサが所定の大きさ以上の振動を検出したタイミングで、動き検出部2020に対して所定の信号を送信する。この場合、動き検出部2020は、この所定の信号を受信することにより、「センサによって振動が検出された」というセンサの検出結果を取得することができる。
デバイス10は、センサ12による振動の検出に応じてデバイス10の外観を変化させてもよい。この場合、カメラ20を用いてデバイス10を撮像する。動き検出部2020は、デバイス10が含まれる画像を用いてデバイス10の外観の変化を検出することで、センサの検出結果(センサによって振動が検出されたこと)を把握する。
動き検出部2020は撮像画像を取得する(S104)。動き検出部2020が撮像画像を取得する方法は様々である。例えば動き検出部2020は、カメラ20から撮像画像を取得する。この場合、入力装置2000とカメラ20とは通信可能に接続されている。
動き検出部2020は、取得した撮像画像を用いて、センサ12の検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する(S106)。以下、1)何をオブジェクトとして扱うか、2)どの期間におけるオブジェクトの動きを検出するか、及び3)撮像画像からどのようにオブジェクトの動きを検出するかについて、それぞれ説明する。
動き検出部2020は、所定の物をオブジェクトとして扱う。例えば所定の物は、ユーザの指やペンなどである。この場合、ユーザは、カメラ20の撮像範囲内で指やペンなどを動かすことにより、入力操作を行う。
動き検出部2020は、センサの検出結果を取得する。そして、動き検出部2020は、センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを検出する。以下、「センサの検出結果に基づいて定まる期間」を検出対象期間と表記する。検出対象期間を定める方法を以下に例示する。
動き検出部2020は、検出対象期間において撮像されたオブジェクトが含まれる撮像画像を用いてオブジェクトの動きを検出する。検出対象期間において撮像されたオブジェクトが含まれる撮像画像が複数ある場合、例えば動き検出部2020は、それら複数の撮像画像それぞれについてオブジェクト認識を行い、各撮像画像に含まれるオブジェクトの位置を算出する。そして動き検出部2020は、オブジェクトの位置の変化を表す情報を、オブジェクトの動きを表す情報とする。オブジェクトの位置の変化を表す情報は、例えばオブジェクトの位置を時系列で並べた情報である。
入力認識部2040は、検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する(S108)。入力認識部2040は、1)検出したオブジェクトの動きに基づく形状を情報処理装置への入力として認識としてもよいし、2)検出したオブジェクトの動きに対応する所定の入力操作を、情報処理装置への入力として認識してもよい。
図8は、オブジェクトの動きによって定まる形状を入力として認識する様子を例示する図である。図8(a)では、入力認識部2040は、オブジェクトの動き40−Aが表す形状41や、動き40−Bが表す形状42を、情報処理装置への入力として認識する。例えばこの入力は、ユーザが情報処理装置へ手書き入力を行う際に利用される。
検出したオブジェクトの動きに対応する所定の入力操作は、いわゆるジェスチャ入力による入力操作である。図10は、ジェスチャ入力を例示する図である。図10(a)はフリック動作を表し、図10(b)はピンチイン・ピンチアウト動作を表している。
入力認識部2040は、1)オブジェクトを動かす動作が行われた位置に関係なく、そのオブジェクトの動きのみを入力として認識してもよいし、2)オブジェクトの動きと、そのオブジェクトを動かす動作が行われた位置との組み合わせを入力として認識してもよい。前者の場合、オブジェクトを動かす動作が撮像画像22上のどの場所で行われても、同じオブジェクトの動きは同じ入力を表す。一方後者の場合、オブジェクトを動かす動作が撮像画像22上のどの場所で行われたかが意味を持つこととなる。
図11は、実施形態2に係る入力装置2000を例示するブロック図である。図11において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
図13は、実施形態2の入力装置2000によって実行される処理の流れを例示するフローチャートである。入力認識部2040は、オブジェクトの動きに基づいて第1領域を描く入力を認識する(S202)。表示制御部2050は、第1領域に基づいて第2領域を生成する(S204)。表示制御部2050は、第2領域を表示画面に表示する(S206)。抽出部2060は、カメラ20によって生成される撮像画像から、第2領域に対応する範囲に含まれる部分画像を抽出する(S208)。
入力認識部2040は、オブジェクトの動きに基づいて第1領域を描く入力を認識する(S202)。例えば第1領域は、オブジェクトの動きそのものが表す領域である。また例えば、第1領域は、オブジェクトの動きによって定められる所定の形状を表す領域である。例えば第1領域は、図8で例示した形状42、矩形44、又は円形46などである。
<<第2領域の生成方法>>
表示制御部2050は、第1領域に基づいて第2領域を生成する(S204)。表示制御部2050が第1領域に基づいて第2領域を生成する方法は様々である。例えば表示制御部2050は、第1領域と同一の大きさ及び同一の形状の領域として、第2領域を生成する。
表示制御部2050は、第2領域を表示画面に表示する(S206)。ここで、表示制御部2050は、表示画面を見るユーザが、カメラ20によって生成される撮像画像と第2領域とが重畳された様子を見ることができるように、第2領域を表示する。
実施形態1で説明したように、入力認識部2040は、1)オブジェクトを動かす動作が行われた位置に関係なく、そのオブジェクトの動きのみを入力として認識してもよいし、2)オブジェクトの動きと、そのオブジェクトを動かす動作が行われた位置との組み合わせを入力として認識してもよい。1)の場合、ユーザによる入力は第2領域の形状を定めるものであり、第2領域の位置の指定を含まない。そのため、第2領域の表示位置はユーザによって指定されない。そこで表示制御部2050は、例えば表示画面上の所定位置(表示画面の中心など)に第2領域を表示する。
表示画面に表示された第2領域は、移動又は変形されてもよい。例えば表示制御部2050は、ユーザから、マウス等の入力デバイスを用いた操作や、実施形態1で説明した入力認識部2040に対する入力操作を受け付け、この操作に基づいて第2領域の移動又は変形を行う。第2領域を移動する操作は、例えばドラッグ操作である。第2領域を変形する操作は、例えばピンチイン・ピンチアウト操作である。第2領域を移動又は変形することにより、後述する抽出部2060によってユーザが意図した部分画像が抽出されるようにすることができる。
抽出部2060は、カメラ20によって生成される撮像画像から、第2領域に対応する範囲に含まれる部分画像を抽出する(S208)。第2領域が撮像画像上に重畳して表示される場合(表示画面が非透過型のヘッドマウントディスプレイの表示画面である場合など)、第2領域に対応する撮像画像上の範囲は、第2領域が重畳されている撮像画像上の範囲である。
図17は、実施形態2の入力装置2000を実現する計算機1000のハードウエア構成を例示する図である。この計算機1000の構成は、実施形態1の入力装置2000を実現する計算機1000の構成と同様である。ただし、実施形態2の計算機1000が有するストレージ1080は、本実施形態の入力装置2000が有する各機能を実現するためのプログラムモジュールをさらに有する。
本実施形態によれば、撮像画像から、ユーザによって行われた入力に基づく領域に対応する部分画像が抽出される。この構成により、ユーザは、撮像画像の中から抽出したい領域を容易に入力することができる。
以下、上述した入力装置2000を、より具体的な実施例に沿って説明する。なお、この実施例は入力装置2000の利用方法の一例であり、入力装置2000の利用方法を限定するものではない。
1. ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有する入力装置。
2. 前記動き検出手段は、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、1.に記載の入力装置。
3. 前記センサは振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、1.又は2.に記載の入力装置。
4. 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、1.乃至3.いずれか一つに記載の入力装置。
5. 前記入力認識手段は、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御手段と、
撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出手段を有する1.乃至4.いずれか一つに記載の入力装置。
6. 前記表示制御手段は、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
前記抽出手段は、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、5.に記載の入力装置。
7. 前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する、1.乃至6.いずれか一つに記載の入力装置。
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有する入力方法。
9. 前記動き検出ステップにおいて、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、8.に記載の入力方法。
10. 前記センサは振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、8.又は9.に記載の入力方法。
11. 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、8.乃至10.いずれか一つに記載の入力方法。
12. 前記入力認識ステップにおいて、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御ステップと、
撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出ステップを有する8.乃至11.いずれか一つに記載の入力方法。
13. 前記表示制御ステップにおいて、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
前記抽出ステップは、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、12.に記載の入力方法。
14. 前記動き検出ステップにおいて、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出する、8.乃至13.いずれか一つに記載の入力方法。
Claims (21)
- ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力装置。 - ユーザの身体が触れられたことを、前記ユーザの身体に取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力装置。 - 前記センサは、振動センサ、加速度センサ、振動スイッチ、圧力センサ、又は静電容量センサである、請求項1又は2に記載の入力装置。
- 前記動き検出手段は、前記オブジェクトによって前記ユーザの身体が触れられたことの検出の結果に基づいて定まる期間における、前記オブジェクトの動きを検出する、請求項1乃至3いずれか一項に記載の入力装置。
- 前記動き検出手段は、前記ユーザの身体に振動が加えられたことを前記センサによって検出することで、前記ユーザの身体が触れられたことを検出する、請求項1乃至4いずれか一項に記載の入力装置。
- ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力装置。 - ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力装置。 - 前記センサは振動センサ、加速度センサ、又は振動スイッチである、請求項6又は7に記載の入力装置。
- 前記動き検出手段は、前記センサの検出タイミングを用いて、検出する前記オブジェクトの動きの始点及び終点の少なくとも一方を決定する、請求項1乃至8いずれか一項に記載の入力装置。
- 前記オブジェクトは、ユーザの身体の一部又は前記センサが設けられているデバイスである、請求項1乃至9いずれか一項に記載の入力装置。
- 前記入力認識手段は、前記オブジェクトの動きに基づいて第1の領域を描く入力を認識し、
表示画面に前記第1の領域に基づいて定まる第2の領域を表示する表示制御手段と、
撮像画像から、前記第2の領域に対応する範囲に含まれる部分画像を抽出する抽出手段を有する請求項1乃至10いずれか一項に記載の入力装置。 - 前記表示制御手段は、前記第2の領域を撮像画像に重畳して前記表示画面に表示し、
前記抽出手段は、前記表示画面に表示される撮像画像において前記第2の領域が重畳されている範囲から、前記部分画像を抽出する、請求項11に記載の入力装置。 - 前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像における前記オブジェクトの位置を、前記マーカに基づいて定まる座標系における座標に変換し、前記座標系における前記オブジェクトの位置の変化を前記オブジェクトの動きとして検出する、請求項1又は6に記載の入力装置。 - 前記デバイスは、前記センサの検出結果に基づいて、前記デバイスに設けられているディスプレイ装置の表示を変更し、
前記動き検出手段は、前記デバイスのディスプレイ装置が撮像された撮像画像を用いて、そのディスプレイ装置の表示の変化を検出することにより、前記センサの検出結果を認識する、請求項2又は7に記載の入力装置。 - コンピュータによって実行される入力方法であって、
ユーザの身体が触れられたことを、前記ユーザに取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有し、
前記動き検出ステップにおいて、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力方法。 - コンピュータによって実行される入力方法であって、
ユーザの身体が触れられたことを、前記ユーザに取り付けられたセンサによって検出し、その検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有し、
前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力方法。 - コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有し、
前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
前記動き検出ステップにおいて、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、入力方法。 - コンピュータによって実行される入力方法であって、
ユーザの身体に取り付けられたセンサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出ステップと、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識ステップと、
を有し、
前記撮像画像を生成するカメラは、前記センサとは別体として設けられ、
前記センサは、前記ユーザに取り付けられたデバイスに設けられており、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記動き検出ステップにおいて、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、入力方法。 - コンピュータに、請求項15乃至18いずれか一項に記載の入力方法の各ステップを実行させるプログラム。
- センサ、カメラ、及び入力装置を有するシステムであって、
前記入力装置は、
前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記センサはユーザの身体に取り付けられており、
前記撮像画像は前記カメラによって生成され、
前記カメラと前記センサは互いに別体として設けられ、
前記動き検出手段は、
前記撮像画像に含まれるマーカを検出し、
前記撮像画像に含まれる領域のうち、前記マーカに基づいて定まる一部の領域から、前記オブジェクトの動きを検出し、
前記マーカは、前記ユーザの身体に取り付けられているデバイスのディスプレイ装置に表示される所定の画像である、システム。 - センサ、カメラ、及び入力装置を有するシステムであって、
前記入力装置は、
前記センサの検出結果に基づいて定まる期間におけるオブジェクトの動きを、前記オブジェクトが含まれる撮像画像を用いて検出する動き検出手段と、
前記検出したオブジェクトの動きに基づいて、情報処理装置への入力を認識する入力認識手段と、
を有し、
前記センサはユーザの身体に取り付けられたデバイスに設けられており、
前記撮像画像は前記カメラによって生成され、
前記カメラと前記センサは互いに別体として設けられ、
前記デバイスは、前記センサの検出結果に基づいて前記デバイスの外観を変更し、
前記動き検出手段は、前記デバイスが撮像された撮像画像を用いて前記デバイスの外観の変化を検出することにより、前記センサの検出結果を認識する、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015190238 | 2015-09-28 | ||
JP2015190238 | 2015-09-28 | ||
PCT/JP2016/077729 WO2017057106A1 (ja) | 2015-09-28 | 2016-09-20 | 入力装置、入力方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6344530B2 true JP6344530B2 (ja) | 2018-06-20 |
JPWO2017057106A1 JPWO2017057106A1 (ja) | 2018-07-05 |
Family
ID=58423673
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017543167A Active JP6344530B2 (ja) | 2015-09-28 | 2016-09-20 | 入力装置、入力方法、及びプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10168769B2 (ja) |
JP (1) | JP6344530B2 (ja) |
CN (1) | CN108027656B (ja) |
WO (1) | WO2017057106A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10234955B2 (en) * | 2015-09-28 | 2019-03-19 | Nec Corporation | Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program |
EP3557397A1 (de) * | 2018-04-20 | 2019-10-23 | Interactive Scape GmbH | Steuer- und verarbeitungseinheit für einen berührungsempfindlichen bildschirm, system damit und verfahren zur verwendung |
JP7117451B2 (ja) * | 2019-02-19 | 2022-08-12 | 株式会社Nttドコモ | 視線とジェスチャを用いた情報表示装置 |
US10948980B2 (en) * | 2019-05-10 | 2021-03-16 | Apple Inc. | Electronic device system with controllers |
KR102269466B1 (ko) * | 2019-05-21 | 2021-06-28 | 이진우 | 동작 인식 기반의 문자 입력 방법 및 그 장치 |
JP7472734B2 (ja) | 2020-09-17 | 2024-04-23 | サクサ株式会社 | 画像処理装置及びプログラム |
CN114967907A (zh) * | 2021-02-26 | 2022-08-30 | 华为技术有限公司 | 识别方法及电子设备 |
JP7052128B1 (ja) * | 2021-07-20 | 2022-04-11 | 株式会社あかつき | 情報処理システム、プログラム及び情報処理方法 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004192653A (ja) * | 1997-02-28 | 2004-07-08 | Toshiba Corp | マルチモーダルインタフェース装置およびマルチモーダルインタフェース方法 |
US6118888A (en) | 1997-02-28 | 2000-09-12 | Kabushiki Kaisha Toshiba | Multi-modal interface apparatus and method |
US6771294B1 (en) * | 1999-12-29 | 2004-08-03 | Petri Pulli | User interface |
US20040070563A1 (en) * | 2002-10-10 | 2004-04-15 | Robinson Ian Nevill | Wearable imaging device |
EP2039403B1 (en) * | 2002-10-30 | 2016-08-24 | NIKE Innovate C.V. | Clothes with concealable motion capture markers for computer games |
US20060007056A1 (en) * | 2004-07-09 | 2006-01-12 | Shu-Fong Ou | Head mounted display system having virtual keyboard and capable of adjusting focus of display screen and device installed the same |
JP2008067219A (ja) * | 2006-09-08 | 2008-03-21 | Sony Corp | 撮像装置、撮像方法 |
US8471868B1 (en) * | 2007-11-28 | 2013-06-25 | Sprint Communications Company L.P. | Projector and ultrasonic gesture-controlled communicator |
WO2010024028A1 (ja) * | 2008-08-29 | 2010-03-04 | 日本電気株式会社 | 位置情報入力装置および位置情報入力方法 |
US9569001B2 (en) * | 2009-02-03 | 2017-02-14 | Massachusetts Institute Of Technology | Wearable gestural interface |
US8310504B2 (en) | 2009-08-31 | 2012-11-13 | Fuji Xerox Co., Ltd. | System and method for panning and selecting on large displays using mobile devices without client software |
WO2011115035A1 (ja) | 2010-03-15 | 2011-09-22 | 日本電気株式会社 | 入力装置、入力方法及びプログラム |
US9958902B2 (en) * | 2010-03-15 | 2018-05-01 | Nec Corporation | Input device, input method, and program |
JP5790642B2 (ja) * | 2010-03-15 | 2015-10-07 | 日本電気株式会社 | 入力装置、入力方法及びプログラム |
JP2011257943A (ja) | 2010-06-08 | 2011-12-22 | Canon Inc | ジェスチャ操作入力装置 |
JP2012079138A (ja) * | 2010-10-04 | 2012-04-19 | Olympus Corp | ジェスチャ認識装置 |
US8884984B2 (en) * | 2010-10-15 | 2014-11-11 | Microsoft Corporation | Fusing virtual content into real content |
KR101591579B1 (ko) * | 2011-03-29 | 2016-02-18 | 퀄컴 인코포레이티드 | 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링 |
JP5510401B2 (ja) | 2011-06-27 | 2014-06-04 | 株式会社デンソー | 操作端末 |
US9069164B2 (en) * | 2011-07-12 | 2015-06-30 | Google Inc. | Methods and systems for a virtual input device |
JP5765133B2 (ja) * | 2011-08-16 | 2015-08-19 | 富士通株式会社 | 入力装置、入力制御方法及び入力制御プログラム |
EP2761362A4 (en) | 2011-09-26 | 2014-08-06 | Microsoft Corp | VIDEO DISPLAY CHANGE BASED ON SENSOR INPUT FOR TRANSPARENT EYE DISPLAY |
JP2013114467A (ja) * | 2011-11-29 | 2013-06-10 | Nikon Corp | 表示システム、表示方法およびプログラム |
JP5804638B2 (ja) * | 2011-11-29 | 2015-11-04 | コイト電工株式会社 | 物体判別方法 |
JP2013186646A (ja) * | 2012-03-07 | 2013-09-19 | Toshiba Corp | 情報処理装置および情報処理装置の制御方法 |
JP5148004B1 (ja) | 2012-04-26 | 2013-02-20 | 株式会社三菱東京Ufj銀行 | 情報処理装置、電子機器およびプログラム |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
WO2014127126A1 (en) * | 2013-02-14 | 2014-08-21 | New York University | Handphone |
US10262462B2 (en) * | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US9857971B2 (en) * | 2013-12-02 | 2018-01-02 | Industrial Technology Research Institute | System and method for receiving user input and program storage medium thereof |
JP5929933B2 (ja) * | 2014-01-16 | 2016-06-08 | カシオ計算機株式会社 | 表示システム、表示端末、表示方法及びプログラム |
JP6188151B2 (ja) * | 2014-02-27 | 2017-08-30 | Kddi株式会社 | 身体を伝播する信号の位相差に基づいて入力情報を決定可能な入力システム及び入力方法 |
EP2946266B1 (en) * | 2014-03-21 | 2023-06-21 | Samsung Electronics Co., Ltd. | Method and wearable device for providing a virtual input interface |
KR101909540B1 (ko) * | 2014-10-23 | 2018-10-18 | 삼성전자주식회사 | 가상의 입력 영역을 이용한 포터블 디바이스의 사용자 입력 방법 |
US10698535B2 (en) * | 2015-05-21 | 2020-06-30 | Nec Corporation | Interface control system, interface control apparatus, interface control method, and program |
US9971408B2 (en) * | 2016-01-27 | 2018-05-15 | Ebay Inc. | Simulating touch in a virtual environment |
JP6256497B2 (ja) * | 2016-03-04 | 2018-01-10 | 日本電気株式会社 | 情報処理システム、情報処理装置、制御方法、及びプログラム |
US10431007B2 (en) * | 2016-05-31 | 2019-10-01 | Augumenta Ltd. | Method and system for user interaction |
-
2016
- 2016-09-20 CN CN201680053087.6A patent/CN108027656B/zh active Active
- 2016-09-20 WO PCT/JP2016/077729 patent/WO2017057106A1/ja active Application Filing
- 2016-09-20 US US15/759,997 patent/US10168769B2/en active Active
- 2016-09-20 JP JP2017543167A patent/JP6344530B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JPWO2017057106A1 (ja) | 2018-07-05 |
US20180260033A1 (en) | 2018-09-13 |
WO2017057106A1 (ja) | 2017-04-06 |
CN108027656A (zh) | 2018-05-11 |
CN108027656B (zh) | 2021-07-06 |
US10168769B2 (en) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6344530B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6390799B2 (ja) | 入力装置、入力方法、及びプログラム | |
JP6288372B2 (ja) | インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム | |
JP6057396B2 (ja) | 3次元ユーザインタフェース装置及び3次元操作処理方法 | |
JP6350772B2 (ja) | 情報処理システム、情報処理装置、制御方法、及びプログラム | |
KR101844390B1 (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
JP5802667B2 (ja) | ジェスチャ入力装置およびジェスチャ入力方法 | |
US8648808B2 (en) | Three-dimensional human-computer interaction system that supports mouse operations through the motion of a finger and an operation method thereof | |
KR102147430B1 (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
KR101343748B1 (ko) | 포인터를 표시하지 않는 투명 디스플레이 가상 터치 장치 | |
US20150277570A1 (en) | Providing Onscreen Visualizations of Gesture Movements | |
JP2012238293A (ja) | 入力装置 | |
US20190156118A1 (en) | Information processing apparatus, control method, and program | |
JPWO2020080107A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2014029656A (ja) | 画像処理装置および画像処理方法 | |
JP2017219942A (ja) | 接触検出装置、プロジェクタ装置、電子黒板装置、デジタルサイネージ装置、プロジェクタシステム、接触検出方法、プログラム及び記憶媒体。 | |
JP2016126687A (ja) | ヘッドマウントディスプレイ、操作受付方法および操作受付プログラム | |
JPWO2014054317A1 (ja) | ユーザインタフェース装置及びユーザインタフェース方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A5211 Effective date: 20180320 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180320 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180322 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180329 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180424 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180507 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6344530 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |