JP6303772B2 - 入力制御装置、制御方法および制御プログラム - Google Patents

入力制御装置、制御方法および制御プログラム Download PDF

Info

Publication number
JP6303772B2
JP6303772B2 JP2014092079A JP2014092079A JP6303772B2 JP 6303772 B2 JP6303772 B2 JP 6303772B2 JP 2014092079 A JP2014092079 A JP 2014092079A JP 2014092079 A JP2014092079 A JP 2014092079A JP 6303772 B2 JP6303772 B2 JP 6303772B2
Authority
JP
Japan
Prior art keywords
indicator
space
shape
unit
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014092079A
Other languages
English (en)
Other versions
JP2015210684A (ja
Inventor
河合 淳
淳 河合
俊明 安東
俊明 安東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2014092079A priority Critical patent/JP6303772B2/ja
Priority to US14/686,493 priority patent/US20150309584A1/en
Publication of JP2015210684A publication Critical patent/JP2015210684A/ja
Application granted granted Critical
Publication of JP6303772B2 publication Critical patent/JP6303772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Description

本発明は、入力制御装置、制御方法および制御プログラムに関する。
3次元空間を利用した入力操作手法の一例として、ユーザのジェスチャによる操作がある。例えば、ユーザのジェスチャに対応するコマンドが決定され、決定されたコマンドに基づいて、画面に表示される画像オブジェクトが操作される技術が提案されている。
また、グローブにセンサを取り付け、グローブの形状あるいは位置に応じて、所望の操作を指示する技術が提案されている。また、画面の前面に広がる3次元空間を3つの層に分けて、それぞれの層にマウスコマンドを割り当てている技術が提案されている(例えば、特許文献1〜3参照)。
特表2011−517357号公報 特開平06−12177号公報 特開2004−303000号公報
3次元空間を利用したジェスチャによる入力操作を行うときに、入力操作の種類が多様になると、操作を特定するジェスチャの種類も多くなる。このとき、入力操作を行うための3次元空間が固定されていると、多種類のジェスチャにより入力操作を行うことが難しくなる。その結果、多様な入力操作を実現することが難しくなる。
本発明は、1つの側面では、空間を利用した多様な入力操作を実現することを目的とする。
1つの態様では、入力制御装置は、認識部と特定部と変更部とを備える。認識部は、表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識する。特定部は、前記認識部が認識した前記指示体の形状に割り当てられた操作を特定する。変更部は、前記特定部が特定した操作に応じて、前記操作を行う空間の大きさを変更する。
1つの側面として、空間を利用した多様な入力操作を実現することができる。
入力操作を行うシステムの一例を示す図(その1)である。 入力操作を行うシステムの一例を示す図(その2)である。 入力操作を行うシステムの一例を示す図(その3)である。 入力操作を行うシステムの一例を示す図(その4)である。 処理装置のハードウェア構成の一例を示す図である。 処理装置の機能ブロックの一例を示す図である。 指示体の形状の一例を示す図である。 選択空間の一例を示す図である。 操作空間の一例を示す図である。 指示体に割り当てられる操作の一例を示す図である。 実施形態の処理の流れの一例を示すフローチャート(その1)である。 実施形態の処理の流れの一例を示すフローチャート(その2)である。 実施形態の処理の流れの一例を示すフローチャート(その3)である。 実施形態の処理の流れの一例を示すフローチャート(その4)である。 実施形態の処理の流れの一例を示すフローチャート(その5)である。 表示面に表示されているオブジェクトの選択の一例である。 操作可能空間を最大限に広げた場合の一例である。 認識可能空間および操作可能空間の3次元モデルの一例である。 実施形態の具体例を説明する図(その1)である。 実施形態の具体例を説明する図(その2)である。 実施形態の具体例を説明する図(その3)である。 実施形態の具体例を説明する図(その4)である。 実施形態の具体例を説明する図(その5)である。 実施形態の具体例を説明する図(その6)である。 実施形態の具体例を説明する図(その7)である。 実施形態の具体例を説明する図(その8)である。 第1の応用例を説明する図である。 第2の応用例を説明する図である。 第4の応用例を説明する図である。 第5の応用例を説明する図である。 第6の応用例を説明する図(その1)である。 第6の応用例を説明する図(その2)である。 第7の応用例を説明する図(その1)である。 第7の応用例を説明する図(その2)である。 第7の応用例を説明する図(その3)である。 第7の応用例を説明する図(その4)である。 第8の応用例を説明する図である。
<情報入力操作を行うシステムの一例>
以下、図面を参照して、実施形態について説明する。図1は、3次元空間を利用した情報入力を行うシステムの一例を示している。処理装置1は、3次元空間を利用したユーザの指示に応じて、所定の入力操作の処理を行う。処理装置1は、入力制御装置の一例である。
処理装置1は、プロジェクタ2に接続されている。プロジェクタ2は、表示面3に情報を投影する。プロジェクタ2は、表示装置の一例である。表示面3は、例えばスクリーン等を適用することができる。表示面3は、表示部の一例である。
プロジェクタ2と表示面3との間には、指示体4がある。処理装置1は、指示体4の形状や動作、位置等を検出して、指示体4に基づく入力操作を検出する。実施形態では、指示体4は、入力操作を行うユーザの手指である。ユーザは、指示体4を3次元空間で操作することにより、入力操作を行う。
センサ5は、指示体4を認識する。センサ5は、指示体4の位置や形状、動作等を認識する。センサ5としては、距離センサや深度センサ等を適用することができる。なお、センサ5の代わりにカメラを適用してもよい。
表示面3には、プロジェクタ2によりオブジェクト3A〜3Fが表示されている。オブジェクト3A〜3Fは、操作対象の一例である。オブジェクト3A〜3Fとしては、例えばアイコン等がある。表示面3に表示されるオブジェクトの数は6つには限定されない。また、表示面3には、オブジェクト3A〜3F以外の情報が表示されてもよい。
図2は、図1の構成に対して、センサ6を追加した例である。従って、図2の場合は、2台のセンサ5およびセンサ6を用いて、指示体4の位置や形状、動作等を認識できる。よって、ステレオカメラで指示体4の位置や形状、動作等が認識されるため、指示体4の認識精度が図1の場合よりも向上する。
図3は、表示面3がディスプレイの場合の一例について示している。ディスプレイは処理装置1に接続されており、表示面3には処理装置1の制御により、オブジェクト3A〜3Fが表示される。図3の例では、プロジェクタ2は不要である。
図4は、表示面3がディスプレイであり、且つステレオセンサを有する場合の一例を示している。以下、情報入力操作を行うシステムとして、図1の構成を採用した場合について説明する。ただし、入力操作を行うシステムとしては、図2乃至図4の構成を採用してもよい。
次に、処理装置1のハードウェア構成の一例について説明する。図5の一例に示すように、処理装置1は、CPU(Central Processing Unit)11とRAM(Random Access Memory)12とGPU(Graphics Processing Unit)13と不揮発性メモリ14と補助記憶装置15と媒体接続装置16と入出力インタフェース17とを備えている。
CPU11またはGPU13は、プロセッサのような任意の処理回路である。CPU11およびGPU13は、RAM12に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を実現する制御プログラムを適用することができる。不揮発性メモリ14は、例えばROM(Read Only Memory)を適用することができる。
補助記憶装置15は、任意の情報を記憶する。補助記憶装置15としては、例えばハードディスクドライブを適用することができる。媒体接続装置16は、可搬型記録媒体18を接続することができる。
可搬型記録媒体18としては、可搬型のメモリや光学式ディスク(例えば、CD(Compact Disk)やDVD(Digital Video Disk)等)を適用することができる。実施形態の処理を行う制御プログラムは、コンピュータ読み取り可能な可搬型記録媒体18に記録されていてもよい。
RAM12等は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。入出力インタフェース17は、プロジェクタ2、センサ5、センサ6およびスピーカ19と接続されている。スピーカ19は、音を発生する装置である。
次に、図6を参照して、処理装置1の機能ブロックの一例を説明する。処理装置1は、指示体認識部21と装置処理部22と操作特定部23と範囲変更部24と表示制御部25と移動量制御部26と境界表示部27とスピーカ制御部28とを備えている。
センサ5は、指示体4をセンシングしている。指示体認識部21は、センサ5がセンシングした結果に基づいて、指示体4の位置や形状、動作等を認識する。センサ5が常にセンシングしている場合、指示体認識部21は、リアルタイムに指示体4の位置や形状、動作等を認識する。指示体認識部21は、認識部の一例である。
装置処理部22は、種々の制御を行う。装置処理部22は、処理部の一例である。操作特定部23は、指示体認識部21が認識した指示体4の形状または形状と動作との組み合わせに基づいて、操作を特定する。操作特定部23は、特定部の一例である。
指示体4の形状または形状と動作との組み合わせには予め操作が割り当てられており、操作特定部23は、認識された指示体4の形状または形状と動作との組み合わせに割り当てられた操作を特定する。指示体4と操作との対応関係は、例えば、図5で示したRAM12等に記憶されていてもよい。
範囲変更部24は、操作特定部23が特定した操作に応じて、指示体4が操作する空間の大きさを変更する。範囲変更部24は、指示体4の操作に応じて、指示体4が操作する空間を広げる場合もあり、狭める場合もある。
表示制御部25は、表示面3に種々の情報が表示されるように制御を行う。図1乃至図4の場合、表示制御部25は、表示面3にオブジェクト3A〜3Fを表示する制御を行う。境界表示部27は、指示体4により情報入力操作を行うことが可能な空間(以下、操作可能空間と称する)を明示的に表示する制御を行う。
スピーカ制御部28は、指示体4が操作可能空間の境界に位置したときに、音を発生するようにスピーカ19を制御する。スピーカ19が発生する音は、警告音の一種である。スピーカ制御部28は、スピーカ(音源)を制御する音源制御部の一例である。
移動量制御部26は、指示体4が操作するオブジェクトが操作可能空間の境界に近づいたときに、指示体4の移動量よりもオブジェクトの移動量が少なくするように制御する。以上の処理装置1の各部は、例えば、CPU11により実行されてもよい。
<指示体の形状の一例>
次に、指示体の形状の一例について、図7の一例を用いて説明する。指示体の形状には、主に選択形状と操作形状とがある。選択形状は、表示面3に表示されているオブジェクト3A〜3Fを選択する形状である。操作形状は、操作に割り当てられた指示体4の形状である。
図7の例では、選択形状は、第1の形として示している。第1の形は、指示体4の人差し指を伸ばした形状である。指示体4のうち、選択および操作を行うときの基準となる点を指示点と称する。図7の例では、人差し指の先端が指示点となっている(図7において、十字の交差部分が指示点を示す)。なお、指示点は、人差し指の先端には限定されない。
図7の例では、操作形状は、第2の形から第6の形までの5つの形状がある。それぞれ指示体4の形状が異なっている。従って、実施形態では、操作形状の指示点は、指示体4の重心位置とする。
選択形状および操作形状は、図7に示した例には限定されない。第1の形は、図7の形状と異なる形状であってもよい。第2の形〜第6の形も、図7の形状と異なる形状であってもよい。また、操作形状の数は、5つ以外であってもよい。
<指示体の変化に基づく操作範囲の変更の一例>
図8は、表示面3を基準として、4つの空間を設定した一例を示している。図8に示す4つの空間は、表示面3に表示されている操作対象であるオブジェクトを選択するために設定される空間である。この空間は選択空間とも称される。図8では、XYZ座標系を用いて、4つの空間を示している。表示面3は、XY平面に平行な面であり、Z軸上ではゼロの座標位置にあるものとする。
最初に、選択不能空間について説明する。選択不能空間は、指示体4が表示面3に表示されているオブジェクトを選択できない空間である。図8では、選択不能空間のZ軸方向の距離を区間1として示している。区間1は、Z軸方向において、閾値3よりも高い。指示体4が選択不能空間にあるときには、表示面3に対する選択を行うことはできない。
次に、選択可能空間について説明する。選択可能空間は、指示体4が表示面3に表示されているオブジェクトを選択することが可能な空間である。図8では、選択可能空間のZ軸方向の距離を区間2として示している。区間2は、Z軸方向において、閾値2と閾値3との間にある。選択可能空間は、第1の空間の一例である。
選択可能空間では、表示面3に表示されているオブジェクトを選択することができる。
指示体4の指示点を表示面3に投影した位置によりオブジェクトの選択が行われる。従って、指示体4が移動したことを指示体認識部21が認識すると、指示体4の指示点を表示面3に投影した位置が変化する。
表示面3で、指示体4の指示点を投影した位置とオブジェクトの位置とが重なると、オブジェクトが選択される。ただし、選択可能空間では、オブジェクトの選択は決定されない。指示体4が移動することにより、選択されるオブジェクト3A〜3Fは適宜変化する。オブジェクトが選択されると、表示制御部25は、選択されたオブジェクトを強調する表示を行う。
次に、選択固定空間について説明する。選択固定空間は、選択可能空間で選択したオブジェクトの選択状態を固定するための空間である。選択状態の固定は、選択状態のロックとも称される。図8では、選択固定空間のZ軸方向の距離を区間3として示している。区間3は、Z軸方向において、閾値1と閾値2との間にある。選択固定空間は、第2の空間の一例である。
例えば、指示体4の指示点がオブジェクト3Cを選択したまま、指示体4の指示点が選択可能空間から選択固定空間に移動したことを指示体認識部21が認識すると、選択されたオブジェクト3Cの選択が固定される。従って、オブジェクト3Cが選択された状態が固定される。
選択固定空間では、操作対象のオブジェクト3Cが選択されている。従って、指示体4が選択固定空間に位置しているときに、オブジェクト3Cに対する操作を行うことが可能になる。実施形態では、オブジェクトに対する選択を行う段階から、選択したオブジェクトに対する操作を行うとき段階に移行するときには、選択固定空間において、指示体4の形状が変化する。
次に、選択決定空間について説明する。選択決定空間は、選択されたオブジェクト3Cを決定する空間である。指示体4の指示点が、選択固定空間から選択決定空間に移動したことを指示体認識部21が認識したときに、オブジェクト3Cの選択が決定される。
図8では、選択決定空間のZ軸方向の距離を区間4として示している。区間4は、表示面3と閾値1との間にある。よって、選択決定空間は、表示面3に最も近い空間になる。以上の4つの空間は、装置処理部22が予め設定してもよい。
装置処理部22は、閾値1、閾値2および閾値3を予め設定することで、上記の4つの空間が設定される。装置処理部22は、閾値1、閾値2および閾値3を任意の値に設定することができる。
図8の例では、指示体4は、選択固定空間に位置している。つまり、オブジェクトの選択が行われ、選択されたオブジェクトが固定された状態になっている。図8の例では、指示体4の形状は、オブジェクトの選択を行うために、指示体4の形状は選択形状(第1の形)になっている。
次に、選択が固定されたオブジェクトに対して行われる操作について、図9の一例を参照して説明する。図9の一例に示すように、指示体4の形状は、選択形状から操作形状(第2の形)に変化している。指示体認識部21は、指示体4の形状が変化したことを認識する。指示体認識部21が認識する指示体4の形状は、図9の例では、第2の形である。
このとき、指示体認識部21が認識した指示体4の形状に基づいて、範囲変更部24は、表示面3を基準とした空間の設定を変更する。この空間を操作空間と称する。図9の操作空間の例では、区間1は選択不能空間になっている。
区間2は、操作不能空間になっている。操作不能空間は、指示体4による操作が不能な空間である。区間3は、操作可能空間になっている。操作可能空間は、指示体4によるオブジェクト3Cに対する操作が可能な空間である。区間4は、区間2と同様、操作不能空間になっている。区間4においても、指示体4に指示体4による操作は不能である。
範囲変更部24は、操作可能空間の設定を拡大する。このため、範囲変更部24は、区間2および区間4の空間設定を縮小する。つまり、指示体認識部21が指示体4の形状が、第2の形であることを認識したことにより、範囲変更部24は、区間1〜区間4を第2の形に割り当てられた操作に応じた3次元の範囲(空間)に設定変更する。
実施形態では、オブジェクトを移動する操作と拡大または縮小する操作とが第2の形に割り当てられているとする。指示体4が第2の形のまま水平方向に移動すると、指示体認識部21は指示体4の動作を認識して、表示制御部25が表示面3のオブジェクト3Cを水平方向に移動するように制御する。
また、指示体4が第2の形のまま垂直方向に移動すると、指示体認識部21は指示体4の動作を認識して、表示制御部25が表示面3のオブジェクト3Cを拡大または縮小するように制御する。
従って、指示体4が垂直方向に移動することにより、選択が固定されたオブジェクト3Cの拡大または縮小の操作が行われる。このため、拡大または縮小の操作を行うための十分な空間を垂直方向に確保することが好ましい。
指示体認識部21が第2の形を認識したときには、範囲変更部24は、第2の形に応じた広範な空間を操作可能空間として設定する。これにより、指示体4が移動する広範囲な空間を確保することができる。
つまり、指示体認識部21が認識した指示体4の形状に応じて、範囲変更部24は操作可能空間の大きさを変更する。例えば、操作で必要な移動量が微細な場合には、範囲変更部24は操作可能空間を狭い空間に設定してもよい。
従って、指示体4の形状に割り当てられた操作に適した空間に操作可能空間の大きさが変更される。これにより、多様な入力操作を実現することが可能になり、空間を利用した多様な入力操作を実現することが可能になる。
<指示体に割り当てられる操作の一例>
図10は、指示体4に割り当てられる操作の一例を示す。図10の例1および例2に示されるように、指示体4の形状と動作との組み合わせに操作が割り当てられている。図10の例1は、垂直方向(Z軸方向)に操作を割り当てる例を示しており、例2は、垂直方向に操作を割り当てない例を示している。
図10の例では、1つの指示体4の形状に1つの操作が割り当てられている場合もあり、指示体4の形状と動作との組み合わせに1つの操作が割り当てられている場合もある。例えば、例1では、指示体4が第2の形の形状と動作(水平面内移動または垂直方向移動)との組み合わせに対して異なる操作が割り当てられている。一方、縦横比独立の拡大または縮小の操作には、動作にかかわらず、第3の形が割り当てられている。
図10の例1および例2の両者とも、表示面3の位置指定およびオブジェクト指定は、第1の形が割り当てられている。つまり、位置指定およびオブジェクト指定は、指示体4が選択形状のときに行われる。
例えば、例1の場合、選択固定空間において、指示体4の形状が第2の形に変化したことを指示体認識部21が認識したときに、操作特定部23は、オブジェクト3Cの移動操作であるか、または縦横比を固定したオブジェクト3Cの拡大または縮小の操作であることを認識する。
そして、指示体4が第2の形のまま水平方向に移動したことを指示体認識部21が認識したときに、操作特定部23は、指示体4の操作はオブジェクト3Cの移動操作であることを特定する。これにより、表示制御部25は、表示面3に表示するオブジェクト3Cを移動させる。
一方、例2の場合において、指示体認識部21は、指示体4が第3の形で水平面内を斜めに移動したことを認識したとする。このとき、操作特定部23は、割り当てられた操作である、縦横比固定の拡大または縮小をオブジェクト3Aに対して行う。
例1の場合は、垂直方向に操作が割り当てられているため、指示体4を第2の形のまま垂直方向に移動させることで、オブジェクト3Aの拡大または縮小を行うことができる。一方、例2の場合は、垂直方向に操作が割り当てられていないため、指示体4を第3の形に変化させることで、オブジェクト3Aの拡大または縮小を行うことができる。
図10の例において、「操作状態維持」は、指示体4が直前の形と操作とを維持したまま、指示体4を移動可能な操作であることを示している。また、「操作キャンセル」は、指示体4により操作中の操作を操作開始前の状態に戻す操作であることを示している。
<実施形態の処理の一例>
次に、図11乃至図15に一例として示すフローチャートを参照して、実施形態の処理について説明する。最初に、図11のフローチャートについて説明する。表示制御部25は、表示面3に情報を表示する(ステップS1)。例えば、表示制御部25がプロジェクタ2を制御して、表示面3に所定の情報を表示する。実施形態では、表示面3にオブジェクト3A〜3Fが表示されるようにプロジェクタ2を制御する。
次に、処理装置1は、センサ5からの情報に基づいて、表示面3の位置および形状の認識を行う(ステップS2)。なお、表示面3の位置および形状の認識が既に行われている場合は、ステップS2は省略することができる。
指示体認識部21は、センサ5からの情報に基づいて、指示体4の形状を認識する(ステップS3)。初期的には、指示体4は、操作対象であるオブジェクトを選択するための形状(第1の形)をしている。以下、オブジェクトを選択するための形状を選択形状と称することもある。
指示体認識部21は、認識した形状が第1の形であるか否かを判定する(ステップS3−2)。認識した形状が第1の形の場合(ステップS3−2でYES)、処理は次のステップS4に進む。一方、認識した形状が第1の形でない場合(ステップS3−2でNO)、処理はステップS7に進む。
装置処理部22は、図8で一例として示したような空間設定を行う。装置処理部22は、ステップS3で認識した指示体の形状に対応する空間を設定する(ステップS4)。そして、指示体4は第1の形をしているため、指示体認識部21は、指示点を人差し指の指先に設定する(ステップS5)。指示点は、操作基準位置と称することもできる。
次に、指示体認識部21は、指示点の位置が区間1(選択不能空間)または操作可能領域外であるか否かを判定する(ステップS6)。実施形態では、表示制御部25は、表示面3を基準とした3次元空間における指示点の位置を表示面3に投影して表示する。ただし、指示点の位置が区間1または操作可能領域外にある場合(ステップS6でYES)、指示体4による操作対象であるオブジェクトを選択できない。このため、実施形態では、表示制御部25は、指示点の位置を表示面3に投影して表示しない(ステップS7)。
一方、指示点の位置が区間1でない場合、処理は「A」に進む。図12に一例として示すフローチャートを参照して、次の処理について説明する。指示体認識部21は、指示点の位置が区間2(選択可能空間)であるか否かを判定する(ステップS8)。
指示点の位置が区間2にある場合(ステップS8でYES)、表示制御部25は、指示体の水平方向の位置と高さに応じたカーソルを表示する(ステップS9)。指示体認識部21は、指示体4の水平方向の位置を認識する。ユーザは、指示体4を水平方向に移動することで、所望のオブジェクトの位置に指示点を移動させる。
指示体認識部21が認識する指示点の水平面上における位置が表示面3に表示されているオブジェクト3A〜3FのXY座標と重なったときに、指示点が示す水平方向に応じたオブジェクトが選択される(ステップS10)。実施形態では、表示制御部25は、選択されたオブジェクトを強調表示する制御を行う。
ステップS10において、オブジェクトが選択される。ただし、この時点で、オブジェクトの選択は決定されない。従って、指示体4の指示点の位置が別のオブジェクトの位置に移動した場合には、別のオブジェクトが選択される。指示体認識部21は、指示体4が操作可能領域の範囲外に移動したか否かを判定する(ステップS11)。操作可能領域は、センサ5が指示体4を認識して操作できる空間である。
指示体4が操作可能領域の範囲外に移動した場合(ステップS11でYES)、選択されたオブジェクトの選択解除が行われる(ステップS12)。なお、指示体4が選択不能空間に移動した場合にも、選択されたオブジェクトの選択解除が行われてもよい。一方、指示体4が認識可能空間の範囲外に移動していない場合(ステップS11でNO)、選択されたオブジェクトの選択解除は行われない。
ステップS11でNOの場合、またはステップS12の処理が終了した場合、処理は「C」に進む。「C」に処理が進んだ場合、図11のフローチャートの例に示すように、処理はステップS1に進む。
また、ステップS8において、指示体4の指示点が区間2に位置していない場合(ステップS8でNO)、処理は「B」に進む。「B」以降の処理について、図13のフローチャートを用いて説明する。
指示体認識部21は、指示体4の指示点が区間3に位置しているか否かを判定する(ステップS13)。指示体4の指示点が区間3に位置している場合(ステップS13でYES)、指示体認識部21は、指示体4の指示点が区間2から区間3に移動したか否かを判定する(ステップS14)。
つまり、ステップS14では、指示体4の指示点が選択可能空間から選択固定空間に移動したか否かが判定される。選択可能空間では、指示体4の指示点により、所望のオブジェクトが選択される。そして、指示体4の指示点が選択可能空間から選択固定空間に移動された場合(ステップS14でYES)、選択中のオブジェクトが固定される(ステップS15)。
これにより、操作対象であるオブジェクトが特定される。一方、指示体4の指示点が前状態から選択固定空間にある場合(ステップS14でNO)、指示体認識部21は、指示体4の形状を認識する(ステップS15−2)。指示体認識部21は、指示体の形状が予め定義された形状であるか否かを認識する(ステップS16)。指示体4の形状が不明であるか否かは、指示体4の形状に割り当てられている操作が特定できるか否かに基づいて、判定することができる。
操作対象であるオブジェクトに対する各操作は、指示体4の形状または指示体4の形状と動作との組み合わせに割り当てられている。従って、操作特定部23は、指示体認識部21が認識した指示体4の形状により操作を特定できないとき、指示体4の形状が不明であると判定される。例えば、指示体4を第1の形から第2の形に変化させている途中段階では、指示体4の形状に基づいて、操作特定部23は操作を特定できない。
操作特定部23は、操作が特定できない状態が一定時間以上連続しているか否かを判定する(ステップS16−2)。操作が特定できない状態が一定時間以上連続していない場合、処理はステップS15−2に進む。一方、操作が特定できない状態が一定時間以上連続している場合、処理は「C」へ進む。
次に、指示体認識部21は、認識した指示体4の形状が第1の形であるか否かを判定する(ステップS16−3)。認識した指示体4の形状が第1の形の場合(ステップS16−3でYES)、処理はステップS18−2に進む。
一方、指示体認識部21が認識した指示体4の形状または形状と動作との組み合わせに基づいて、操作特定部23は操作を特定する。そして、範囲変更部24は、操作特定部23が特定した操作に応じた操作可能空間を設定する(ステップS17)。上述したように、操作によっては、図9で一例として示した操作可能空間が広範に必要な場合もあり、狭小に設定する方が好ましい場合もある。このため、範囲変更部24は、操作可能空間の設定を操作に応じた範囲に変更する。
次に、指示体認識部21は、指示点を指示体4の重心位置に設定する(ステップS18)。選択形状では、オブジェクトを選択するため、指先を指示点としていた。一方、操作形状では、指示体4は種々の形状に変化する。例えば、図7で一例として示した第4の形では、指先は折り畳まれている状態になっている。
そこで、操作形状では、指示体認識部21は、指示点を指示体4の重心位置に設定する。これにより、指示体4がどのような形に変化したとしても、指示体認識部21は、安定的に指示点の認識を行うことが可能になる。
次に、指示点の位置により、指示体4の形状に対応付けられた操作を実行する(ステップS18−2)。指示体認識部21は、指示体4が操作可能空間から操作可能領域の範囲外に移動したか否かを判定する(ステップS19)。指示体4が操作可能空間から移動していないことを指示体認識部21が判定したときには(ステップS19でNO)、処理は「E」に進む。
一方、指示体4が操作可能空間から操作可能領域外に移動したことを指示体認識部21が認識した場合(ステップS19でYES)、指示体認識部21は、指示体4を再認識した際に、指示体4が操作可能領域の領域外から区間3に移動し、且つ最終形状と同じであるか否かを判定する(ステップS20)。
指示体4が、区間3(操作可能空間)の範囲外に移動したとしても、指示体4が操作可能空間の範囲外に移動したときの形状(最終形状)と同じ形状で戻った場合(ステップS20でYES)、ステップS18−2に処理が戻る。このとき、指示体4の最終形状に割り当てられた操作は有効にされる。一方、ステップS20でNOと判定された場合には、選択固定しているオブジェクトの選択を解除し(ステップS21)、処理は「C」に進む。つまり、図11のフローチャートのステップS1に処理が移る。
次に、ステップS20に続行する「E」の処理について、図14のフローチャートを参照して、説明する。指示体認識部21は、指示体4の指示点が区間3に位置しているか否かを判定する(ステップS22)。つまり、指示体4の指示点が操作可能空間に継続的に位置しているか否かが判定される。
指示体4の指示点が区間3に位置していると判定されたとき(ステップS22でYES)、指示体認識部21は指示体4の形状が変化しているか否かを判定する(ステップS23)。
指示体4の形状が変化していないと指示体認識部21が判定した場合(ステップS23でNO)、処理は「F」から図13のステップS18−2に進む。つまり、指示体4の形状または形状と動作との組み合わせに割り当てられた操作が続行される。
一方、指示体4の形状が変化したと指示体認識部21が判定した場合(ステップS23でYES)、指示体認識部21は、指示体の形状が第1の形以外の定義された形から第1の形に変化したか否かを判定する(ステップS23−2)。指示体4の形状が形1以外の定義された形状から、形1に変化した場合は(ステップ23−2でYES)、操作が確定される(ステップS26)。そして、処理「H」からステップS15−2に進む。
その他の形状変化の場合には、操作はキャンセルされる(ステップS24)。指示体4の形状が変化すると、操作は変化するため、指示体4の形状が変化したと認識されたときには、操作がキャンセルされる。
指示体認識部21は、指示体4の指示点が区間3に位置していないと判定した場合(ステップS22でNO)、指示体4の形状が第1の形であるか否かを判定する(ステップS22−2)。指示体4の形状が第1の形であると認識された場合、指示点が区間2に移動したか否かが判定される(ステップS25)。
指示点が区間2に移動したと判定した場合(ステップS25でYES)、指示点が選択可能空間に移動し、再選択が可能な状態になったことになる。よって、処理は「G」からステップS8−2に移行し、オブジェクトが選択可能な状態になる。ステップS22−2でNOの場合、操作可能空間から外れたということになる。よって、処理はステップS24に移行し、決定された操作がキャンセルされる。
一方、指示体4の指示点が区間2に移動していない場合(ステップS25でNO)、指示体の形状が第1の形で、指示点は区間3に位置しておらず、且つ区間2にも移動していなことになる。この場合、指示体4は区間4に位置していることになり、処理は「D」に進む。つまり、後述するステップS27が実行される。
図13のステップS13において、指示体4の指示点が区間3に位置していないと判定された場合(ステップS13でNO)、処理は「D」に進む。ステップS13でNOと判定されたときには、指示体4の指示点が区間1、区間2および区間3の何れにも位置していない。
よって、この場合、指示体4の指示点は区間4に位置している。指示体4の指示点が区間4に位置することにより、図15の一例に示すように、ステップS27で確定されたオブジェクトに対する操作が実行される(ステップS27)。そして、処理は「C」からステップS1に移行する。
以上により、オブジェクトを選択し、選択されたオブジェクトに対する操作が実行される。オブジェクトの選択および選択されたオブジェクトに対する操作の処理は、図11乃至図15に示したフローチャートの例には限定されない。
<オブジェクトの選択の一例>
次に、表示面3に表示されているオブジェクトの選択の一例について、図16を参照して説明する。指示体4が、表示面3を基準として最も遠い空間である選択不能空間にあるときは、表示制御部25はオブジェクト3A〜3Fの表示を変更しない。その一例を図16(A)に示す。
実施形態では、表示制御部25は、指示体認識部21が認識した指示体4の指示点を表示面に投影した位置にカーソルを表示する。なお、指示点の表示面3の投影位置を認識できれば、表示制御部25は、カーソル以外を表示してもよい。図16の一例では、指示体4が選択可能空間にあることを指示体認識部21が認識したとき、表示制御部25は、第1カーソルC1を表示面3に表示する。
図16(B)の例は、第1カーソルC1とオブジェクト3Eとが重なった状態を示している。この場合、表示制御部25は、オブジェクト3Eを強調表示する。指示体4が選択可能空間にあるときには、オブジェクトの選択は確定されない。
従って、指示体4の位置が移動したことを指示体認識部21が認識したとき、異なるオブジェクトが選択される。図16(C)の例は、指示体4は、オブジェクト3Cを選択した場合を示している。このため、指示体4が水平方向に移動されることにより、任意のオブジェクト3A〜3Fを選択することができる。
指示体4が選択可能空間から選択固定空間に移動したとことを指示体認識部21が認識したときには、表示制御部25は、第2カーソルC2を表示する。第2カーソルC2は、3次元空間における指示体4の位置を表示面3に投影した位置に表示される。
図16の例では、表示制御部25は、第1カーソルC1と第2カーソルC2とを異なる態様で表示する。これにより、表示面3に表示されるカーソルが、指示体4が選択可能空間にあるときの第1カーソルC1であるか、指示体4が選択固定空間にあるときの第2カーソルC2であるか、が明確に区別される。
図16(D)の例で、指示体4は、オブジェクト3Eを選択した状態で、選択可能空間から選択固定空間に移動したものとする。従って、オブジェクト3Eの選択が固定される。このため、図16(E)のように、指示体4の移動に伴い、第2カーソルC2が水平方向に移動したとしても、オブジェクト3Eの選択は固定されている。表示制御部25は、選択を固定したオブジェクト3Eを強調表示する。
図16(F)は、指示体4が選択決定空間に移動した場合の一例を示している。指示体4が選択固定空間から選択決定空間に移動したときに、オブジェクト3Eの選択が確定する。表示制御部25は、選択が確定したオブジェクト3Eを強調表示する。
表示制御部25は、指示体4が選択可能空間と選択固定空間と選択決定空間とにあるときとでオブジェクトの強調表示の態様を変化させている。オブジェクトの強調表示を空間ごとに変化させることで、指示体4が何れの空間があるかが明確になる。
<操作可能空間を最大限に広げた場合の一例>
図17は、操作可能空間を最大限に広げた場合の一例を示している。図17の例では、Z軸上における閾値1の座標は、表示面3と同じである。また、Z軸上における閾値2の座標は、閾値3と同じである。
これにより、選択不能空間と表示面3との間の広範な空間を操作可能空間に設定できる。例えば、水平方向および垂直方向に大きな動作が必要な操作の場合、操作可能空間を最大限に広げることにより、ダイナミックな動きを行うことができる。
<認識可能空間および操作可能空間の3次元モデルの一例>
図18は、認識可能空間および操作可能空間の3次元モデルの一例を示している。認識可能空間は、センサ5(ステレオセンサの場合は、センサ5およびセンサ6)により認識可能な空間を示している。操作可能空間は、認識可能空間よりも狭小な空間となっている。
<具体例>
次に、具体例について説明する。図19は、指示体4が選択形状(第1の形)をしている状態で、選択可能空間に位置している例を示している。指示体4の指示点を表示面3に投影した位置は、オブジェクト3Eと重なっている。従って、オブジェクト3Eは強調表示されている。
実施形態では、第1カーソルC1は、円と十字とを組み合わせたシンボルになっている。実施形態では、第1カーソルC1の大きさを、表示面3を基準とした位置に応じて変化させる。図19の例では、選択可能空間のうち、指示体4の指示点は、表示面3から遠い位置にある。このため、第1カーソルC1の円は大きくなっている。
図20は、選択可能空間において、指示体4が表示面3に近づいた場合を示している。この場合、表示制御部25は、第1カーソルC1の円を小さく表示する。これにより、選択可能空間において、指示体4の指示点と表示面3との距離関係が認識可能に表示される。
図21は、指示体4が選択可能空間から選択固定空間に移動した場合の例を示している。指示体認識部21は、指示体4の指示点が選択固定空間にあることを認識する。これにより、表示制御部25は、オブジェクト3Eを強調表示する。また、表示制御部25は、指示体4の指示点の表示面3の位置に第2カーソルC2を表示する。これにより、オブジェクト3Eの選択が固定される。
図22は、指示体4が選択固定空間から選択決定空間に移動した場合の例を示している。指示体認識部21は、指示体4の指示点が選択決定空間にあることを認識する。これにより、表示制御部25は、選択固定されたオブジェクト3Eを強調表示する。また、表示制御部25は、指示体4の指示点の表示面の位置に第3カーソルC3を表示する。
第3カーソルC3は、指示体4が選択決定空間にあることを示すカーソルである。第3カーソルC3は、第1カーソルC1および第2カーソルC2とは異なる態様で表示される。これにより、指示体4が選択決定空間にあることが明確になる。指示体4が選択固定空間から選択決定空間に移動したことにより、オブジェクト3Eの選択が確定し、オブジェクト3Eに割り当てられた機能を実行する。
図23は、オブジェクト3Eを水平方向に移動する操作の一例を示す。オブジェクト3Eに対する操作を行うときには、選択固定空間(区間3)において、指示体4の形状は、第1の形から変化する。図23の例では、指示体4の形状は、第2の形に変化している。
指示体認識部21は、指示体4の形状が第1の形から第2の形に変化したことを認識する。これにより、範囲変更部24は、操作可能空間(区間3)の大きさを、第2の形の操作に応じて拡大または縮小する。図23の例では、操作可能空間は拡大されている。
指示体4の形状が第2の形であり、且つ指示体4が水平方向に移動する動作を行ったときに、オブジェクト3Eは水平方向に移動する。また、指示体4の形状が第3の形であり、且つ指示体4が垂直方向に移動する動作を行ったときに、オブジェクト3Eは拡大または縮小する。
従って、指示体認識部21は、指示体4の形状が第2の形に変化したときには、指示体4が垂直方向に移動する動作を行うことが可能な空間を十分な空間を確保できるように、範囲変更部24は操作可能空間を拡大する。
操作特定部23は、指示体4の形状が第2の形であり、且つ指示体4が水平方向に移動する動作を行ったことを認識した場合には、オブジェクト3Eを水平方向に移動する。これにより、表示制御部25は、指示体4の移動に応じて、オブジェクト3Eを表示面3上で移動させる。
図24は、オブジェクト3Eを拡大する操作の一例を示している。指示体4の形状が第2の形であり、且つ指示体4は垂直方向に移動する動作を行ったことを指示体認識部21が認識する。これにより、操作特定部23は、オブジェクト3Eを拡大または縮小する操作を特定する。
指示体4が垂直方向に移動したときに、オブジェクト3Eの拡大または縮小の操作が行われる。このため、指示体4の第2の形に割り当てられた操作に応じて、操作可能空間が大きくなっているため、オブジェクト3Eの拡大または縮小の操作のための空間を十分に確保することができる。
図25は、オブジェクト3Eを回転する操作の一例を示している。指示体4の形状が第5の形であり、水平面内で指示体4が回転したことを指示体認識部21が認識した場合、表示制御部25は、表示面3に表示されているオブジェクト3Eを回転させる。
例えば、指示体4の第5の形が高速に水平面内で回転した場合、そのことを指示体認識部21が認識して、表示制御部25は、表示面3に表示されているオブジェクト3Eを高速に回転させてもよい。
上述した各種操作が行われると、最終的に操作を確定する。上述したフローチャートの例では、指示体4の形状で操作を変化させることで、指示体認識部21が認識したことにより、操作が確定する。図26は、その一例を示している。オブジェクト3Eに対して行った操作を確定する操作を指示体4の形状に割り当てることができる。例えば、図26の一例に示すように、指示体4が第6の形になったことを指示体認識部21が認識したときに、操作の確定を行ってもよい。これにより、オブジェクト3Eに対する回転操作が確定する。
一方、指示体4の指示点が区間4に移動することで操作を確定させるようにしてもよい。オブジェクト3Eに対して行った操作を確定する操作を指示体4の形状に割り当てることができる。
従って、範囲変更部24は、指示体4の形状または形状と操作との組み合わせに割り当てられた操作に応じて、操作可能空間を変更することで、操作の種類に適した3次元空間を確保することができる。これにより、多様な入力操作を実現することができる。
また、指示体4の指示点は、選択可能空間に位置しているときに決定されない。指示体4の指示点が選択可能空間でオブジェクトを選択し、選択固定空間でオブジェクトの選択が固定されたときに、オブジェクトが選択される。このため、正確な指示位置でオブジェクトの選択を行うことができる。
<第1の応用例>
次に、図27を参照して、第1の応用例について説明する。図27(A)は、表示面3に表示されているオブジェクト3Aおよび3Bの一例を示している。また、図27(A)には、第1の領域と第2の領域とが示されている。第1の領域および第2の領域を示す情報は表示面3には表示されない。ただし、当該情報は表示されてもよい。第2の領域は第1の領域よりも狭い領域になっている。
第1の領域は、指示体4によるオブジェクトの操作が可能な空間である。第1の領域を超えて、指示体4による操作を行うことはできない。第2の領域は、第1の領域よりも狭い空間に設定される。第2の領域の内側では、指示体4によるオブジェクトの操作が可能である。
第1の応用例は、オブジェクト3Aおよびオブジェクト3Bを移動する操作を行う例を示している。従って、指示体4の形状は、第2の形となっている。ユーザは、指示体4を第2の形のまま、選択されたオブジェクト3Aまたは3Bを移動する。
第2の領域の内側にあるオブジェクトは、指示体認識部21が認識する指示体4の移動量に適した移動量で移動する。つまり、第2の領域の内側では、指示体4の移動速度に応じた速度でオブジェクトが表示面3上を移動する。
一方、オブジェクトが第2の領域と第1の領域との間に移動すると、指示体4の移動量に対してオブジェクトの移動量は逐次的に遅くなる。そして、オブジェクトが第1の領域の境界に到達すると、オブジェクトの操作が不能になる。
従って、図27(A)のオブジェクト3Bは、指示体4の移動速度と比べて、遅い速度で移動する。そして、オブジェクト3Bの移動速度は逐次的に減少し、オブジェクト3Bが第1の領域に到達した時点で、オブジェクト3Bに対する操作が不能になる。
図27(B)は、第1の領域と第2の領域との間におけるオブジェクト移動量の一例を示している。オブジェクトが第2の領域の境界に到達するまでは、指示体4の移動速度に適した速度でオブジェクトは移動する。一方、オブジェクトが第2の境界を越えると、移動量が逐次的に減少する。そして、第1の領域に到達すると、移動量はゼロになる。
従って、オブジェクトが第2の領域を超えると、指示体4の移動量に対して、オブジェクトの移動量が逐次的に減少するため、ユーザは、移動量の減少に基づいて、オブジェクトの操作可能な領域の境界に近づいていることを認識することができる。つまり、ユーザは、オブジェクトの移動量に基づいて、操作可能な領域を認識できる。
<第2の応用例>
次に、図28を参照して、第2の応用例について説明する。図28は、指示体4が第1の領域の境界に位置している場合を示している。つまり、指示体4は、操作可能な領域の境界に位置している。なお、第2の応用例も、オブジェクトに対する操作が行われるものとする。従って、指示体4の形状は操作形状になっている。
指示体認識部21は、指示体4の位置を認識する。境界表示部27は、指示体認識部21が認識した位置に対して、境界を示す映像を投影するように、プロジェクタ2を制御する。図28の例では、プロジェクタ2は、指示体4に対して、楕円形の映像Pを投影している。
図28は、楕円形の映像Pのうち、第1の領域の内側の部分と外側の部分とでは異なる色で、プロジェクタ2は映像Pを投影している例を示している。これにより、第1の領域の境界を認識することができる。
図28の例では、映像Pは楕円形の例を示したが、映像Pは楕円形には限定されない。例えば、投影される映像Pは円形や四角形等であってもよい。また、図28の例では、映像Pのうち、第1の領域の内側と外側とで異なる色の例を説明したが、一方を点滅、他方を非点滅とするようにしてもよい。
また、図28の例では、映像Pのうち第1の領域の内側と外側とで表示態様を異ならせているが、表示態様を異ならせなくてもよい。この場合、第1の領域の境界は明示されないが、ユーザは、指示体4が操作可能な領域の境界近傍にあることを認識することができる。
<第3の応用例>
次に、第3の応用例について説明する。第3の応用例でも、指示体4の形状は操作形状になっているものとする。指示体認識部21は、指示体4が第1の領域の境界に位置したことを認識したときに、スピーカ制御部28にその旨を通知する。スピーカ制御部28は、この通知に基づいて、スピーカ19を制御して、音を発生させる。これにより、ユーザは、指示体4が操作可能な領域の境界にあることを認識することができる。
<第4の応用例>
次に、図29を参照して、第4の応用例について説明する。図29は、指示体4の形状および動作に割り当てられる操作の一例を示している。オブジェクトを選択する選択形状は、第1の形である。選択されたオブジェクトに対する操作を行う操作形状は、第2の形〜第4の形である。
オブジェクトに対する移動操作と拡大または縮小を行う操作と回転操作とは第2の形に割り当てられている。これら3つの操作は、指示体4が第2の形をしているときに、指示体4の動作によって区別がされる。
指示体4が第2の形のまま水平面内を移動したことを指示体認識部21が認識したときに、操作特定部23はオブジェクトの移動操作であることを特定する。指示体4が第2の形のまま垂直方向に移動したことを指示体認識部21が認識したときに、操作特定部23はオブジェクトの拡大または縮小操作であることを特定する。指示体4が第2の形のまま水平面内で回転したことを指示体認識部21が認識したときに、操作特定部23はオブジェクトの回転操作であることを特定する。
そして、例1の場合、指示体4の形状が第1の形になったことを指示体認識部21が認識したときに、操作特定部23は、操作確定であることを特定する。また、指示体4の形状が第4の形になったことを指示体認識部21が認識したときに、操作特定部23は、操作キャンセルであることを特定する。
以上のように、操作形状において、オブジェクトに対する各種操作と操作確定と操作キャンセルとに異なる指示体4の形状が割り当てられてもよい。これにより、オブジェクトに対する各種操作(上記の3つの操作)は、1つの指示体4の形状で行うことができる。これにより、オブジェクトに対する操作によって指示体4の形状を変化させなくてもよい。
<第5の応用例>
次に、図30を参照して、第5の応用例について説明する。図30は、指示体4の形状に割り当てられる操作の一例を示している。オブジェクトを選択する選択形状は、第1の形である。選択されたオブジェクトに対する操作を行う操作形状は、第2の形〜第6の形である。
第5の応用例では、指示体4の形状ごとに操作が割り当てられている。図10または図29の例では、指示体4の形状と動作との組み合わせごとに操作が割り当てられていたが、指示体4の形状ごとに操作が割り当てられてもよい。
例えば、例1の場合、オブジェクトの移動操作には第2の形が割り当てられている。オブジェクトに対する拡大または縮小を行う操作には第3の形が割り当てられている。オブジェクトに対する回転操作には第4の形が割り当てられている。操作確定には第5の形が割り当てられている。操作キャンセルには第6の形が割り当てられている。
第5の応用例では、指示体4の形状ごとに操作が割り当てられているため、ユーザは、操作と指示体4の形状との対応関係をシンプルに認識することができる。従って、第4の応用例のように、指示体4の形状と動作との組み合わせごとに操作が割り当てられてもよいし、第5の応用例のように、指示体4の形状ごとに操作が割り当てられてもよい。
<第6の応用例>
次に、図31および図32を参照して、第6の応用例について説明する。図31の例では、選択固定空間(区間3)が垂直方向に2つの空間に分割されている。選択可能空間に近い分割空間を第1の分割空間とし、選択決定空間に近い分割空間を第2の分割空間とする。
図31の例では、選択固定空間を半分に分割している例を示しているが、第1の分割空間と第2の分割空間とは異なる大きさであってもよい。選択固定空間を分割するときのZ軸方向の閾値を第4の閾値とする。
選択固定空間は、選択可能空間で選択されたオブジェクトを固定する。従って、指示体4が選択決定空間に移動することにより、選択を固定したオブジェクトの選択が確定する。または、指示体4の形状が選択形状から操作形状に変化することにより、選択を固定したオブジェクトに対して所定の操作が行われる。
このとき、ユーザが行おうとしている操作に割り当てられている指示体4の形状をユーザが認識できていないとき、ガイダンスを表示することが好ましい。図32(A)は表示面3にガイダンスGが表示されていない場合、図32(B)は表示面3にガイダンスGが表示されている場合を示している。
表示面3にガイダンスGが表示されることで、操作に慣れていないユーザに対して、操作に割り当てられた指示体4の形状を視覚的に提示することができる。これにより、操作に慣れていないユーザは、ガイダンスGに表示されている情報を視認して、指示体4を所望の操作に割り当てられている形状に変化させる。一方、操作に慣れているユーザにとっては、ガイダンスGは不要であることが多い。この場合、常に表示面3にガイダンスGが表示されると、視認性が低下する。
そこで、指示体4が、選択可能空間から第1の分割空間に移動したときから、所定時間、指示体4の形状が変化しない場合、または指示体4が第2の分割空間に移動しない場合には、表示面3にガイダンスGを表示する。
指示体認識部21は、選択可能空間から第1の分割空間に指示体4が移動したことを認識する。装置処理部22は、指示体4が第1の分割空間に指示体4が移動したときから時間の計測を開始する。装置処理部22には、予め所定時間が記憶されている。この所定時間は任意に設定することができる。
指示体認識部21は、指示体4の形状が変化したとき、または指示体4が第1の分割空間から第2の分割空間に移動したことを認識したときに、その旨を装置処理部22に通知する。装置処理部22は、所定時間が経過するまでに、指示体認識部21から通知を入力しないときに、ガイダンスGが表示面3に表示されるように表示制御部25を制御する。
操作に慣れているユーザは、所定時間が経過する前に、指示体4の形状を変化させて操作を行うことが多い。また、当該ユーザは、オブジェクトの選択を決定するときには、所定時間が経過する前に、指示体4を第1の分割空間から第2の分割空間に移動させる。従って、表示面3にガイダンスGが表示されることがなく、視認性が低下することはない。
一方、装置処理部22が、指示体認識部21から指示体4の形状が変化したこと、または指示体4が第1の分割空間から第2の分割空間に移動したことの通知を入力しないときは、表示制御部25は、ガイダンスGを表示面3に表示する制御を行う。これにより、操作に慣れていないユーザに対して、ガイダンスGによる情報提示を行うことができる。
<第7の応用例>
次に、図33乃至図36を参照して、第7の応用例について説明する。図33は、閾値の設定の一例を示している。図33は、操作可能空間を決定するための閾値を設定する一例を示している。
図33の一例では、操作可能空間は、操作段階1〜操作段階4の4つに分割されている。各操作段階の空間は、1つの操作についてのレベルを指定する空間である。例えば、音量を操作する場合、操作段階1では音量が最も低く、操作段階に応じて音量を段階的に高くするようにしてもよい。
1つの操作段階に必要な空間は、予め設定されている。例えば、操作の容易性等を基準として、1つの操作段階に必要な空間が設定されてもよい。1つの操作段階の空間のZ軸方向の距離に操作段階の数を乗じた値を第1の距離とする。
また、図33の一例に示すように、操作に割り当てた指示体4を認識するために必要な高さを第2の距離とする。この第2の距離は、指示体4の大きさに依存する。指示体4の大きさは、指示体認識部21が認識できるため、第2の距離L2を決定することができる。
また、操作決定または操作キャンセルにZ軸方向の空間を使用する場合、それぞれに使用するZ軸方向の距離を第3の距離とする。図33の例の場合、閾値1がZ軸方向の位置が表示面3と一致している。よって、操作決定および操作キャンセルの空間は設定されないため、第3の距離は必要としない。
第1の距離と第2の距離と第3の距離との合計が、操作可能空間のZ軸方向の距離よりも短い場合、閾値1は表示面3から第3の距離の位置に設定し、閾値1から閾値2までの距離は、第2の距離と第3の距離との合計に設定する。
図33の例の場合、第3の距離を必要としないため、Z軸方向における表示面3の位置に閾値1が設定される。閾値2は、Z軸方向における、閾値1から第1の距離と第2の距離との合計の距離の位置に設定される。
第1の距離は、各操作段階に必要な距離に4を乗じた距離になる。第2の距離は、指示体4の形状を認識するために必要な高さになる。図33の例では、第2の距離による空間は、上部空間と下部空間との2つに分割している。Z軸方向の上部空間の距離と下部空間の距離との合計が第2の距離になる。
従って、第1の距離と第2の距離との合計に基づく空間が操作可能空間として設定される。これにより、4段階の操作を行うための十分な操作可能空間を確保することができる。図33の例は、Z軸方向に操作を割り当てている場合の閾値の設定を示している。
次に、図34の例を参照して、Z軸方向に操作を割り当てない場合の閾値の設定を示す。図34の例に示すように、表示面3を基準として、操作決定区間が設定されている。従って、Z軸方向において、表示面3から第3の距離の位置に閾値1が設定される。
図34の例では、Z軸方向に操作が割り当てられない。従って、複数の操作段階は設定されない。従って、Z軸方向において、閾値1を基準として、第1の距離と第2の距離との合計の距離の位置に閾値2が設定される。従って、閾値1から閾値2までの空間が操作可能空間として設定される。
次に、図35を参照して、指示体4の形状を切り替えた時点の条件で閾値を設定する一例について説明する。図35は、Z軸方向に操作を割り当てており、且つ操作段階が2つの例を示している。
この場合、閾値1から閾値2までの操作可能空間は、第1の距離と第2の距離との合計の距離となるように設定される。従って、閾値1が決定すれば、閾値2も決定する。閾値1は、「第3の距離+(第1の距離+第2の距離−第4の距離)」として設定される。
第4の距離について説明する。第4の距離は、指示体4の形状が切り替えられた時点のZ軸方向の位置から操作対象のオブジェクトについて上方に操作可能な距離に設定される。例えば、図35の例において、指示体4が操作段階2の空間にあるときに、指示体4の形状が切り替わったとする。
この場合、指示体4を操作段階2から操作段階1に移動可能なように、第4の距離が設定される。図35の例の場合、指示体4は表示面3から比較的遠い位置で、その形状が切り替わっている。従って、閾値1は、表示面3からある程度の距離を確保できる。図35の例では、閾値1の空間は操作不能空間であるものとする。
一方、図36の例の場合、指示体4は、表示面3に比較的近い位置で、その形状が切り替わっている。従って、閾値1は、表示面3から近い位置に設定される。以上のように、指示体4の形状が切り替わった時点を基準として、閾値を設定することもできる。
<第8の応用例>
次に、図37を参照して、第8の応用例について説明する。図37の例に示すように、第8の応用例の表示面3は、非平面形状をしている。選択不能空間、選択可能空間および選択固定空間は、表示面3の形状に沿って設定される。一方、選択決定空間は、表示面3から選択固定空間の最下部までの空間に設定される。
図37の例では、選択決定空間も表示面3の形状に沿って設定される。このため、選択決定空間は、図37の例の選択決定空間よりも狭い空間になっている。従って、表示面3の形状が平面形状でない場合でも、各空間を設定することができる。
なお、非平面形状の表示面3の形状に沿って設定される各空間には操作可能空間も含まれる。また、表示面3の形状は、センサ5により認識されてもよいし、設計値により認識されてもよい。
<第9の応用例>
次に、第9の応用例について説明する。指示体4が選択形状をしている場合において、指示体4が位置している空間に応じて、表示制御部25は表示面3に表示する情報の態様を変化させている。
例えば、表示制御部25は、選択したオブジェクトについて、指示体4が選択可能空間に位置している場合と選択固定空間に位置している場合と選択決定空間に位置している場合とで、選択したオブジェクトの色を変化させてもよい。
また、表示制御部25は、指示体4が位置している空間によって、選択されていないオブジェクトの透過度を段階的に大きくしてもよい。また、表示制御部25は、選択したオブジェクトを、空間によって縁取りの太さを変化させてもよい。
また、表示制御部25は、動的な表現により、空間による表示態様を変化させてもよい。例えば、拡縮、オブジェクトの外側に回転する枠、フレア光等により、空間による表示態様を変化させてもよい。また、表示制御部25は、選択したオブジェクトの点滅の度合いを変化させることで、空間による表示態様を変化させてもよい。
また、表示制御部25は、指示体4の指示点を表示面に投影したカーソルの表示態様を空間によって変化させてもよい。例えば、表示制御部25は、空間によって、カーソルを回転させてもよいし、カーソルの周囲に波紋表示等を施してもよい。
<その他>
実施形態では、水平面に表示面3を設定していたが、例えば、XZ平面に表示面3を設定してもよい。この場合、各種の空間はY軸方向に設定される。つまり、各種の空間は、表示面3の法線方向に設定されるようにしてもよい。
開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識する認識部と、
前記認識部が認識した前記指示体の形状に割り当てられた操作を特定する特定部と、
前記特定部が特定した操作に応じて、前記操作を行う空間の大きさを変更する変更部と、
を備える入力制御装置。
(付記2)
前記操作は、前記指示体の形状または当該形状と前記指示体の動作との組み合わせに割り当てられている、
付記1記載の入力制御装置。
(付記3)
前記変更部は、前記表示部に表示されている前記操作対象を選択するときと、前記操作対象を操作するときとで前記操作を行う空間の大きさを変更する、
付記1記載の入力制御装置。
(付記4)
前記変更部は、前記操作対象の選択が可能な第1の空間から、選択された前記操作対象を固定する第2の空間に前記指示体が移動し、且つ前記指示体の形状が前記選択を行う形状から前記操作を行う形状に変化したことを前記認識部が認識したときに、前記操作に応じて前記第2の空間の大きさを変更する、
付記3記載の入力制御装置。
(付記5)
前記操作を行う空間の境界を表示する境界表示部、
を備える付記1記載の入力制御装置。
(付記6)
前記変更部は、前記操作を行う空間の大きさを、前記表示部から前記操作を行うことが可能な空間の境界までの空間に変更する、
付記1記載の入力制御装置。
(付記7)
前記操作対象に対する操作が可能な空間よりも狭く設定された空間を前記操作対象が越えた後に、前記指示体の移動量に対して前記操作対象の移動量を逐次的に減少させる移動量制御部、
付記1記載の入力制御装置。
(付記8)
前記指示体が前記操作を行う空間の境界に位置していることを認識したときに、音を発生させる音源制御部、
を備える付記1記載の入力制御装置。
(付記9)
前記操作を行う空間外に前記指示体が移動した後に、前記指示体が前記操作を行う空間に再び移動したときに、前記指示体の形状が移動前と同じときには、前記操作を有効にされ、前記移動前と異なるときには、前記操作はキャンセルされる、
付記1記載の入力制御装置。
(付記10)
前記操作を行う空間は、前記表示部から遠い側の第1の分割空間と前記表示部に近い側の第2分割空間とに分割され、前記第1の分割空間に前記指示体が所定時間位置しているときに、前記操作を行うためのガイダンスを表示する、
付記1記載の入力制御装置。
(付記11)
前記表示部には前記指示体の指示点を投影した位置を示すカーソルが表示され、前記指示点が前記第1の空間に位置しているときと前記第2の空間に位置しているときとで表示態様が変化する、
付記4記載の入力制御装置。
(付記12)
前記カーソルは、前記表示部を基準として、前記認識部が認識する前記指示体の位置によって、前記カーソルの形状が変化する、
付記11記載の入力制御装置。
(付記13)
前記操作を行うための空間は複数の段階に分割され、各段階の空間は前記操作のレベルを指定する空間である、
付記1記載の入力制御装置。
(付記14)
前記表示部は非平面形状であり、前記操作を行う空間は前記非平面形状に沿って設定される、
付記1記載の入力制御装置。
(付記15)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
制御方法。
(付記16)
表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を認識し、
認識した前記指示体の形状に割り当てられた操作を特定し、
特定した操作に応じて、前記操作を行う空間の大きさを変更する、
処理をコンピュータに実行させる制御プログラム。
1 処理装置
2 プロジェクタ
3 表示面
4 指示体
5 センサ
6 センサ
11 CPU
12 RAM
13 GPU
14 不揮発性メモリ
15 補助記憶装置
16 媒体接続装置
17 可搬型記録媒体
18 入出力インタフェース
19 スピーカ
21 指示体認識部
22 装置処理部
23 操作特定部
24 範囲変更部
25 表示制御部
26 移動量制御部
27 境界表示部
28 スピーカ制御部

Claims (9)

  1. 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識する認識部と、
    前記認識部が認識した前記指示体の形状に割り当てられた操作を特定する特定部と、
    前記特定部が特定した操作に応じて、前記操作を行う空間の大きさを変更する変更部と、
    を備える入力制御装置。
  2. 前記操作は、前記指示体の形状または当該形状と前記指示体の動作との組み合わせに割り当てられている、
    請求項1記載の入力制御装置。
  3. 前記変更部は、前記表示部に表示されている前記操作対象を選択するときと、前記操作対象を操作するときとで前記操作を行う空間の大きさを変更する、
    請求項1または2記載の入力制御装置。
  4. 前記変更部は、前記操作対象の選択が可能な第1の空間から、選択された前記操作対象を固定する第2の空間に前記指示体が移動し、且つ前記指示体の形状が前記選択を行う形状から前記操作を行う形状に変化したことを前記認識部が認識したときに、前記操作に応じて前記第2の空間の大きさを変更する、
    請求項3記載の入力制御装置。
  5. 前記操作を行う空間の境界を表示する境界表示部、
    を備える請求項1乃至4のうち何れか1項に記載の入力制御装置。
  6. 前記変更部は、前記操作を行う空間の大きさを、前記表示部から前記操作を行うことが可能な空間の境界までの空間に変更する、
    請求項1乃至5のうち何れか1項に記載の入力制御装置。
  7. 前記操作対象に対する操作が可能な空間よりも狭く設定された空間を前記操作対象が越えた後に、前記指示体の移動量に対して前記操作対象の移動量を逐次的に減少させる移動量制御部、
    を備える請求項1乃至6のうち何れか1項に記載の入力制御装置。
  8. 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識し、
    認識した前記指示体の形状に割り当てられた操作を特定し、
    特定した操作に応じて、前記操作を行う空間の大きさを変更する、
    制御方法。
  9. 表示部に表示された操作対象に対して、空間内で操作を行う指示体の形状を、前記指示体をセンシングするセンサと前記指示体との距離を含むセンシング結果に基づいて認識し、
    認識した前記指示体の形状に割り当てられた操作を特定し、
    特定した操作に応じて、前記操作を行う空間の大きさを変更する、
    処理をコンピュータに実行させる制御プログラム。
JP2014092079A 2014-04-25 2014-04-25 入力制御装置、制御方法および制御プログラム Active JP6303772B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014092079A JP6303772B2 (ja) 2014-04-25 2014-04-25 入力制御装置、制御方法および制御プログラム
US14/686,493 US20150309584A1 (en) 2014-04-25 2015-04-14 Input control device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014092079A JP6303772B2 (ja) 2014-04-25 2014-04-25 入力制御装置、制御方法および制御プログラム

Publications (2)

Publication Number Publication Date
JP2015210684A JP2015210684A (ja) 2015-11-24
JP6303772B2 true JP6303772B2 (ja) 2018-04-04

Family

ID=54334734

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014092079A Active JP6303772B2 (ja) 2014-04-25 2014-04-25 入力制御装置、制御方法および制御プログラム

Country Status (2)

Country Link
US (1) US20150309584A1 (ja)
JP (1) JP6303772B2 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6911834B2 (ja) * 2016-03-29 2021-07-28 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
EP3246808A1 (de) * 2016-05-19 2017-11-22 Siemens Aktiengesellschaft Bedien- und beobachtungsgerät und verfahren zum betrieb
US10996742B2 (en) * 2017-10-17 2021-05-04 Logitech Europe S.A. Input device for AR/VR applications
JP7286613B2 (ja) * 2018-02-19 2023-06-05 株式会社村上開明堂 操作検出装置及び操作検出方法
JP6822445B2 (ja) 2018-07-02 2021-01-27 カシオ計算機株式会社 投影装置、投影方法及びプログラム
JPWO2020166351A1 (ja) * 2019-02-13 2021-12-16 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体
JP7286857B2 (ja) * 2021-07-20 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7163526B1 (ja) 2021-07-20 2022-10-31 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
JP7052128B1 (ja) 2021-07-20 2022-04-11 株式会社あかつき 情報処理システム、プログラム及び情報処理方法
WO2023016352A1 (zh) * 2021-08-13 2023-02-16 安徽省东超科技有限公司 定位感测方法、定位感测装置及输入终端设备
JP7286856B2 (ja) * 2022-03-30 2023-06-05 株式会社あかつき 情報処理システム、プログラム及び情報処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101689244B (zh) * 2007-05-04 2015-07-22 高通股份有限公司 用于紧凑设备的基于相机的用户输入
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US8971565B2 (en) * 2008-05-29 2015-03-03 Hie-D Technologies, Llc Human interface electronic device
US8843857B2 (en) * 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
JP2011243031A (ja) * 2010-05-19 2011-12-01 Canon Inc ジェスチャ認識装置及びジェスチャ認識方法
CN104137043A (zh) * 2011-09-30 2014-11-05 瑞艾利缇盖特(Pty)有限公司 用于在图形用户界面(gui)上进行人机交互的方法
JP2013257686A (ja) * 2012-06-12 2013-12-26 Sony Corp 投影型画像表示装置及び画像投影方法、並びにコンピューター・プログラム
JP5935529B2 (ja) * 2012-06-13 2016-06-15 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP6019947B2 (ja) * 2012-08-31 2016-11-02 オムロン株式会社 ジェスチャ認識装置、その制御方法、表示機器、および制御プログラム

Also Published As

Publication number Publication date
US20150309584A1 (en) 2015-10-29
JP2015210684A (ja) 2015-11-24

Similar Documents

Publication Publication Date Title
JP6303772B2 (ja) 入力制御装置、制御方法および制御プログラム
US8239765B2 (en) Displaying stacked bar charts in a limited display area
JP5429060B2 (ja) 表示制御装置、表示制御方法、表示制御プログラム並びにこの表示制御プログラムが記録された記録媒体
JP5738495B2 (ja) 情報表示装置および表示情報操作方法
KR101998941B1 (ko) 사용자 인터페이스 및 타일의 의미 스케일을 조정하기 위한 방법
JP6016555B2 (ja) 情報処理装置及びその制御方法、並びにプログラムと記憶媒体
KR20080078739A (ko) 사용자 입력에 슬라이더를 사용하는 그래픽 사용자인터페이스, 전자 장치, 방법 및 컴퓨터 프로그램
KR20150109694A (ko) 디스플레이 디바이스 및 그 제어 방법
JP2012022632A (ja) 情報処理装置およびその制御方法
JP5217505B2 (ja) 画像表示処理装置、画像表示処理方法および画像表示処理プログラム
JP5921703B2 (ja) 情報表示装置および情報表示装置における操作制御方法
JP5496434B2 (ja) 地図表示装置および地図表示方法
JP6221523B2 (ja) 電子機器、電子機器の制御方法及びプログラム
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5774133B2 (ja) 地図表示装置および地図表示方法
JP2010055166A (ja) 情報選択装置
TWI537771B (zh) 穿戴式裝置及其操作方法
KR20150000278A (ko) 디스플레이 장치 및 제어 방법
KR101641063B1 (ko) 단말 제어 장치 및 방법
JP6315443B2 (ja) 入力装置、マルチタッチ操作の入力検出方法及び入力検出プログラム
JP2016114857A (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
JP2012173980A (ja) 表示装置、表示方法、及び表示プログラム
JP2015007844A (ja) ユーザインタフェース装置、ユーザインタフェース方法およびプログラム
JP2013143001A (ja) 情報処理装置、情報処理方法及びプログラム
JP2013164701A (ja) ユーザインタラクションを利用した電子機器とその制御方法、及び電子機器制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180219

R150 Certificate of patent or registration of utility model

Ref document number: 6303772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150