JP2017097716A - 入力装置、入力方法、及びプログラム - Google Patents
入力装置、入力方法、及びプログラム Download PDFInfo
- Publication number
- JP2017097716A JP2017097716A JP2015230878A JP2015230878A JP2017097716A JP 2017097716 A JP2017097716 A JP 2017097716A JP 2015230878 A JP2015230878 A JP 2015230878A JP 2015230878 A JP2015230878 A JP 2015230878A JP 2017097716 A JP2017097716 A JP 2017097716A
- Authority
- JP
- Japan
- Prior art keywords
- button
- input
- display
- video
- state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
- G06F3/0426—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
【解決手段】入力装置は、立体表示させたボタンの表示位置と、検出器で検出した物体の位置とに基づいてボタンに対する入力状態を判定する。また、入力装置は、ボタンに対する入力状態に基づいてボタンと対応した操作情報の入力を確定させるか否かを判定する。この入力装置は、確定枠指定部と、枠内映像指定部と、を含む。確定枠指定部は、ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定する。枠内映像指定部は、ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が入力確定枠に近づく態様でボタンの表示寸法を指定する。
【選択図】図11
Description
まず、本発明に係る入力装置の構成例について、図1から図4までを参照して説明する。
図1に示すように、第1の構成例の入力装置1は、表示装置2(2A)と、距離センサ3と、情報処理装置4と、スピーカ5と、を備える。
図2に示すように、第2の構成例の入力装置1は、表示装置2(2B)と、距離センサ3と、情報処理装置4と、スピーカ5と、スクリーン8と、立体視用メガネ10と、を備える。
図3に示すように、第3の構成例の入力装置1は、表示装置2(2C)と、距離センサ3と、情報処理装置4と、スピーカ5と、を備える。
図4に示すように、第4の構成例の入力装置1は、表示装置2(2D)と、距離センサ3と、情報処理装置4と、スピーカ5と、を備える。
図5は、第1の実施形態に係る入力装置で表示させる立体映像の例を示す図である。図6は、立体映像におけるボタンの像の例を示す図である。
図10に示すように、本実施形態に係る情報処理装置4は、手指検出部401と、入力状態判定部402と、生成映像指定部403と、映像生成部404と、音声生成部405と、制御部406と、記憶部407と、を備える。
生成映像指定部403は、上記のように、表示する立体映像6の生成に必要な情報を指定する。生成映像指定部403は、図11に示すように、初期映像指定部403aと、確定枠指定部403bと、枠内映像指定部403cと、隣接ボタン表示指定部403dと、入力確定映像指定部403eと、表示位置指定部403fと、を含む。
オペレータが立体映像6に表示されたボタンを押下する動作を行うと、図21に示したように、立体映像6には押下中のボタンの像622が表示される。この際、オペレータ7の視線は、表示面P1の法線方向と平行ではない場合が多い。また、オペレータ7は、実物体のない3次元空間内で指先701を奥行き方向に移動させる。そのため、指先701を奥行き方向に移動させる際に、指先701が押下領域の外側に出てしまう可能性がある。ここで、押下領域A3は、入力状態が非選択である場合に表示されるボタンの像620を奥行き方向に移動させたときのボタンの像620の外周の軌跡で囲まれる筒状の領域である。
図26は、入力確定中移動の例を示す図である。図26の(a)から(c)には、3枚の操作画面601,602,603が立体的に配置された立体映像6を示している。また、各操作画面601,602,603には、それぞれ、画面を3次元空間内で移動させる処理を行うための移動用ボタン651,652,653が表示されている。
図26及び図27に示した立体映像6では、各操作画面601,602,603のそれぞれに画面を移動させるための移動用ボタン651,652,653が表示されている。しかしながら、立体映像6の移動は、移動用ボタンに限らず、例えば、立体映像6における背景等のボタンとは別の領域を押下する操作と対応付けてもよい。この例において、情報処理装置4の入力状態判定部402は、立体映像6における背景630に対してもボタンと同様の入力状態の判定を行う。このとき、図28の(a)に示すように、オペレータ7の指先701が立体映像6(操作画面)における背景630に触れた場合に背景630に対する入力状態が非選択から仮選択に変更する。その後、例えば、背景630に対する入力状態が仮選択である状態が所定期間継続すると、入力状態判定部402は、背景630に対する入力状態を入力確定中移動に変更する。この入力状態の変更を受け、生成映像指定部403及び映像生成部404は、例えば、図28の(b)に示すように、背景630の表示を入力確定中移動であることを示す表示に変更した立体映像6を生成し、表示装置2に表示させる。これにより、オペレータ7は、立体映像6が3次元空間内で移動可能な状態であることを認識することが可能になる。そして、オペレータ7が指先701を移動させる動作を行うと、指先701の移動量に応じて立体映像6が移動する。また、オペレータ7が指先701を立体映像6(背景630)から離す動作、又は手指の形を変える動作を行うと、情報処理装置4は、背景630に対する入力状態を入力確定中移動から非選択に変更し、立体映像6の表示位置が固定される。
立体映像6を移動させる場合、例えば、図29の(a)に示すように、円柱状の空間領域における周面に沿って移動させてもよい。この場合、例えば、軸心方向を鉛直方向と一致させ、かつ軸心がオペレータ7の視点702を通る半径Rの円柱状の空間領域A5を設定し、立体映像の表示位置を指定する座標(x1,y1,z1)が円柱状の空間領域A5における周面上になるよう表示位置及び移動量を設定する。円柱状の空間領域における周面に沿って立体映像6を移動させる場合、例えば、世界座標系はオペレータ7の視点702を原点とする円柱座標系(r,θ,z)とし、表示装置基準及び距離センサ基準の空間座標を円柱座標変換して表示位置を指定する。
ここまでの説明で参照した図に示した立体映像6(操作画面)は平面状(平板状)であるが、立体映像6は、これに限らず、例えば、図30に示すような曲面状であってもよい。立体映像6(操作画面)を曲面状にすることにより、例えば、オペレータ7の視点から操作画面における各点間での距離を略一定にすることができる。そのため、オペレータ7の視点からの距離の違いにより操作画面内の一部の領域の像がぼやける等の表示品質の劣化を抑制することができる。また、図29に示したように立体映像6を円柱状の空間領域の周面や球状の空間領域の空間表面に沿って移動させる場合、操作画面のような立体映像6を曲面状にすることで、立体映像6の移動方向を視覚的に把握することができ、移動時の違和感が軽減される。
本実施形態の入力装置1において複数の操作画面を含む立体映像を表示させて入力操作を行う場合、個々の操作画面に独立した別個の入力操作を割り当てることはもちろん、複数の操作画面に階層的な入力操作を割り当てることも可能である。例えば、図31の(a)に示すように、3枚の操作画面601,602,603を含む立体映像6が表示された状態でオペレータ7が最前面に表示されている操作画面601のボタンを押下する操作を行ったとする。すると、図31の(b)に示すように、操作画面601が非表示となる。この状態で、オペレータ7が続けて、2枚目の操作画面602のボタンを押下する操作を行うと、図31の(c)に示すように、操作画面602も非表示となる。この状態から更に、オペレータ7が3枚目の操作画面603のボタンを押下する操作を行うと、例えば、図31の(d)に示すように、操作画面603も非表示となり、操作画面601,602,603とは別の第4の操作画面604が表示される。第4の操作画面604には、例えば、操作用のボタン(661,662,663,664,665)と、入力情報を表示する表示部670とが表示される。表示部670には、各操作画面601,602,603で押下したボタンと対応する入力情報が表示される。また、操作用のボタン(661,662,663,664,665)は、例えば、入力情報を確定するボタン、入力をやり直すボタン等である。オペレータ7は、表示部670に表示された入力情報を確認した後、操作用のボタン(661,662,663,664,665)のいずれかを押下する。例えば、入力情報に誤りがない場合、オペレータ7は、入力情報を確定するボタンを押下する。これにより、情報処理装置4は、オペレータ7が各操作画面601,602,603から押下したボタンと対応する入力情報に応じた処理を実行する。また、入力情報に誤りがない場合、オペレータ7は、入力やり直すボタンを押下する。これにより、情報処理装置4は、第4の操作画面604を非表示とし、図31の(a)から(c)までのいずれかの表示状態に戻る。
本実施形態に係る入力装置1は、例えば、デジタルサイネージと呼ばれる情報発信システムに適用することが可能である。デジタルサイネージでは、例えば、図35の(a)に示すように、距離センサ3、情報処理装置4、音声出力装置(スピーカ)5等を内蔵した表示装置2を街頭や公共施設等に設置し、近隣の地図、商店、施設等に関する情報を提供する。デジタルサイネージにおいては、表示装置2として、例えば、裸眼立体視が可能な立体映像表示装置を用いる。利用者(オペレータ7)が表示装置2の近傍で一定時間立ち止まると、情報処理装置4は、情報検索に用いる操作画面601,602,603を含む立体映像6を生成して表示装置2に表示させる。オペレータ7は、表示された立体映像6内のボタンを押下して入力を確定する動作を繰り返し、所望の情報を取得する。
図36は、第2の実施形態に係る入力装置における情報処理装置の機能的構成を示す図である。
生成映像指定部403は、上記のように、表示する立体映像6の生成に必要な情報を指定する。生成映像指定部403は、図37に示すように、初期映像指定部403aと、確定枠指定部403bと、枠内映像指定部403cと、隣接ボタン表示指定部403dと、入力確定映像指定部403eと、表示位置指定部403fと、を含む。また、本実施形態に係る生成映像指定部403は、表示サイズ指定部403gを更に含む。
本実施形態では、第2の実施形態に係る情報処理装置4が行う処理の別の手順を説明する。
図44は、第4の実施形態に係る入力装置の構成例を示す図である。
本実施形態に係る入力装置1において、圧縮空気噴射装置16の構成や設置数は適宜変更可能である。そのため、例えば、図46の(a)に示すように、表示装置2の上辺部及び下辺部にそれぞれ複数個の圧縮空気噴射装置16を設置することもできる。このように複数個の圧縮空気噴射装置16を設置することにより、ボタンを押下する指先701の移動方向とは反対の方向に近い方向から圧縮空気18を指先701に噴射することが可能となる。そのため、オペレータ7に実物体のボタンを押下したときにより近い感覚を与えることが可能となる。
(付記1)
映像を立体表示させる表示装置と、
所定形状の物体を検出する検出器と、
操作用のボタンを含む映像を生成するとともに、前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、当該入力状態に基づいて前記ボタンと対応した操作情報の入力を確定させるか否かを判定する情報処理装置と、を備え、
前記情報処理装置は、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定する確定枠指定部と、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する枠内映像指定部と、を含む、
ことを特徴とする入力装置。
(付記2)
前記情報処理装置は、
前記検出器の検出結果に基づいて前記物体の寸法を算出する寸法算出部と、
算出した前記物体の寸法と、立体表示させている前記映像内の前記ボタンの表示寸法とに基づいて、立体表示させる前記映像内の前記ボタンの表示寸法を指定する表示寸法指定部と、を更に含む、
ことを特徴とする付記1に記載の入力装置。
(付記3)
前記表示寸法指定部は、所定の視点から見た前記物体の寸法と前記ボタンの表示寸法とに基づいて、立体表示させる前記映像内の前記ボタンの表示寸法を指定する、
ことを特徴とする付記2に記載の入力装置。
(付記4)
前記表示寸法指定部は、前記ボタンの表示寸法が前記物体の寸法よりも大きくなるよう前記ボタンの表示寸法を拡大する、
ことを特徴とする付記2に記載の入力装置。
(付記5)
前記表示寸法指定部は、前記映像内の前記ボタンの表示寸法のみを拡大する、
ことを特徴とする付記4に記載の入力装置。
(付記6)
前記表示寸法指定部は、前記映像全体の表示寸法を拡大する、
ことを特徴とする付記4に記載の入力装置。
(付記7)
前記枠内映像指定部は、前記入力確定枠内に表示させる前記ボタンの色を、同心円状に変化する配色に指定する、
ことを特徴とする付記1に記載の入力装置。
(付記8)
前記情報処理装置は、
前記確定枠指定部において前記入力確定枠の表示を指定した場合に、当該入力確定枠に内包される前記ボタンと隣接する他のボタンの表示を変更する隣接ボタン表示指定部、を更に備える、
ことを特徴とする付記1に記載の入力装置。
(付記9)
前記隣接ボタン表示指定部は、前記入力確定枠に内包される前記ボタンと隣接する前記他のボタンを非表示にする、
ことを特徴とする付記8に記載の入力装置。
(付記10)
前記隣接ボタン表示指定部は、前記入力確定枠に内包される前記ボタンと隣接する前記他のボタンの透明度を高くする、
ことを特徴とする付記8に記載の入力装置。
(付記11)
前記映像は、当該映像を表示空間内で移動させる移動用のボタンを含み、
前記情報処理装置は、前記移動用のボタンに対する入力状態が前記映像の移動を確定する状態である場合に、前記物体の移動量に基づいて前記映像の表示位置を指定する表示位置指定部、を更に備える、
ことを特徴とする付記1に記載の入力装置。
(付記12)
前記映像は、複数の操作画面を奥行き方向に配した映像であり、
前記情報処理装置は、前記複数の操作画面のいずれかの操作画面に含まれる所定のボタンに対する入力状態が当該ボタンと対応した操作情報の入力を確定した状態になると、入力を確定した前記操作情報に基づいて、当該ボタンを含む前記操作画面とは別の操作画面の表示を変更する、
ことを特徴とする付記1に記載の入力装置。
(付記13)
前記情報処理装置は、前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、当該ボタンを押下している状態であると判定する前記物体の位置の範囲を、当該ボタンを押下方向に移動させたときの軌跡で表される空間領域よりも大きくする、
ことを特徴とする付記1に記載の入力装置。
(付記14)
当該入力装置は、圧縮空気を噴射する圧縮空気噴射装置、を更に備え、
前記情報処理装置は、前記操作用のボタンが前記物体により操作対象に選定された状態又は押下している状態であるとであると判定した場合に、前記圧縮空気噴射装置に前記物体に向けて圧縮空気を噴射させる、
ことを特徴とする付記1に記載の入力装置。
(付記15)
ボタンを表示させる表示装置と、
指の位置を検出する検出部と、
前記検出部が検出した前記指の位置の変化に応じて、前記ボタンの押下量の変化を示す表示を前記表示装置に表示させる際に、前記ボタンの押下量が前記ボタンの入力確定に達する押下量に対してどの程度かを示す情報を前記表示装置に表示させる制御部と、
を備えたことを特徴とする入力装置。
(付記16)
コンピュータが、
操作用のボタンを含む映像を生成して立体表示させ、
所定形状の物体を検出し、
前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定し、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する、
処理を実行することを特徴とする入力方法。
(付記17)
前記コンピュータが、更に、
前記検出器の検出結果に基づいて前記物体の寸法を算出し、
算出した前記物体の寸法と、立体表示させている前記映像内の前記ボタンの表示寸法とに基づいて、立体表示させる映像内の前記ボタンの表示寸法を指定する、
処理を実行することを特徴とする付記16に記載の入力方法。
(付記18)
前記ボタンの表示寸法を指定する処理において、前記コンピュータは、
所定の視点から見た前記物体の寸法と前記ボタンの表示寸法とに基づいて、立体表示させる映像内の前記ボタンの表示寸法を指定する、
ことを特徴とする付記17に記載の入力方法。
(付記19)
前記ボタンの表示寸法を指定する処理において、前記コンピュータは、
前記入力確定枠内に表示させる前記ボタンの色を、同心円状に変化する配色に指定する、
ことを特徴とする付記16に記載の入力方法。
(付記20)
前記コンピュータが、更に、
前記入力確定枠の表示を指定した場合に、当該入力確定枠に内包される前記ボタンと隣接する他のボタンの表示を変更する、
処理を実行することを特徴とする付記16に記載の入力方法。
(付記21)
前記映像を生成する処理において、前記コンピュータは、当該映像を表示空間内で移動させる移動用のボタンを含む映像を生成し、
当該コンピュータは、更に、
前記移動用のボタンに対する入力状態が前記映像の移動を確定する状態である場合に、前記物体の移動量に基づいて前記映像の表示位置を指定する、
処理を実行することを特徴とする付記16に記載の入力方法。
(付記22)
前記映像を生成する処理において、前記コンピュータは、複数の操作画面を奥行き方向に配した映像を生成し、
当該コンピュータは、更に、
前記複数の操作画面のいずれかの操作画面に含まれる所定のボタンに対する入力状態が当該ボタンと対応した操作情報の入力を確定した状態になると、入力を確定した前記操作情報に基づいて、当該ボタンを含む前記操作画面とは別の操作画面の表示を変更する、
処理を実行することを特徴とする付記16に記載の入力方法。
(付記23)
前記コンピュータは、前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、当該ボタンを押下している状態であると判定する前記物体の位置の範囲を、当該ボタンを押下方向に移動させたときの軌跡で表される空間領域よりも大きくする、
ことを特徴とする付記16に記載の入力方法。
(付記24)
操作用のボタンを含む映像を生成して立体表示させ、
所定形状の物体を検出し、
前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定し、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する、
処理をコンピュータに実行させるためのプログラム。
2,2A,2B,2C,2D 表示装置
3 距離センサ
4 情報処理装置
401 手指検出部
402 入力状態判定部
403 生成映像指定部
403a 初期映像指定部
403b 確定枠指定部
403c 枠内映像指定部
403d 隣接ボタン表示指定部
403e 入力確定映像指定部
403f 表示位置指定部
403g 表示サイズ指定部
404 映像生成部
405 音声出力部
406 制御部
407 記憶部
408 指先サイズ算出部
5 音声出力装置
6 立体映像
601,602,603 操作画面
611,612,613 (操作用の)ボタン
651,652,653 (移動用の)ボタン
620 非選択のボタンの像
621 仮選択のボタンの像
621b 入力確定枠
622 押下中のボタンの像
622b 入力確定枠
7 オペレータ
701 (オペレータの)指先
16 圧縮空気噴射装置
17 圧縮空気送出制御装置
Claims (11)
- 映像を立体表示させる表示装置と、
所定形状の物体を検出する検出器と、
操作用のボタンを含む映像を生成するとともに、前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、当該入力状態に基づいて前記ボタンと対応した操作情報の入力を確定させるか否かを判定する情報処理装置と、を備え、
前記情報処理装置は、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定する確定枠指定部と、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する枠内映像指定部と、を含む、
ことを特徴とする入力装置。 - 前記情報処理装置は、
前記検出器の検出結果に基づいて前記物体の寸法を算出する寸法算出部と、
算出した前記物体の寸法と、立体表示させている前記映像内の前記ボタンの表示寸法とに基づいて、立体表示させる前記映像内の前記ボタンの表示寸法を指定する表示寸法指定部と、を更に含む、
ことを特徴とする請求項1に記載の入力装置。 - 前記表示寸法指定部は、所定の視点から見た前記物体の寸法と前記ボタンの表示寸法とに基づいて、立体表示させる前記映像内の前記ボタンの表示寸法を指定する、
ことを特徴とする請求項2に記載の入力装置。 - 前記枠内映像指定部は、前記入力確定枠内に表示させる前記ボタンの色を、同心円状に変化する配色に指定する、
ことを特徴とする請求項1に記載の入力装置。 - 前記情報処理装置は、
前記確定枠指定部において前記入力確定枠の表示を指定した場合に、当該入力確定枠に内包される前記ボタンと隣接する他のボタンの表示を変更する隣接ボタン表示指定部、を更に備える、
ことを特徴とする請求項1に記載の入力装置。 - 前記映像は、当該映像を表示空間内で移動させる移動用のボタンを含み、
前記情報処理装置は、前記移動用のボタンに対する入力状態が前記映像の移動を確定する状態である場合に、前記物体の移動量に基づいて前記映像の表示位置を指定する表示位置指定部、を更に備える、
ことを特徴とする請求項1に記載の入力装置。 - 前記映像は、複数の操作画面を奥行き方向に配した映像であり、
前記情報処理装置は、前記複数の操作画面のいずれかの操作画面に含まれる前記操作用のボタンに対する入力状態が当該ボタンと対応した操作情報の入力を確定した状態になると、入力を確定した前記操作情報に基づいて、当該ボタンを含む前記操作画面とは別の操作画面の表示を変更する、
ことを特徴とする請求項1に記載の入力装置。 - 前記情報処理装置は、前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、当該ボタンを押下している状態であると判定する前記物体の位置の範囲を、当該ボタンを押下方向に移動させたときの軌跡で表される空間領域よりも大きくする、
ことを特徴とする請求項1に記載の入力装置。 - ボタンを表示させる表示装置と、
指の位置を検出する検出部と、
前記検出部が検出した前記指の位置の変化に応じて、前記ボタンの押下量の変化を示す表示を前記表示装置に表示させる際に、前記ボタンの押下量が前記ボタンの入力確定に達する押下量に対してどの程度かを示す情報を前記表示装置に表示させる制御部と、
を備えたことを特徴とする入力装置。 - コンピュータが、
操作用のボタンを含む映像を生成して立体表示させ、
所定形状の物体を検出し、
前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定し、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する、
処理を実行することを特徴とする入力方法。 - 操作用のボタンを含む映像を生成して立体表示させ、
所定形状の物体を検出し、
前記ボタンの表示位置と、前記検出器で検出した前記物体の位置とに基づいて前記ボタンに対する入力状態を判定し、
前記ボタンに対する入力状態が当該ボタンを操作対象に選定した状態であると判定した場合に、当該ボタンを囲む所定の寸法の入力確定枠の表示を指定し、
前記ボタンに対する入力状態が当該ボタンを押下している状態であると判定した場合に、押下量が入力を確定させるための押下量に近づくほど当該ボタンの外周が前記入力確定枠に近づく態様で前記ボタンの表示寸法を指定する、
処理をコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230878A JP6569496B2 (ja) | 2015-11-26 | 2015-11-26 | 入力装置、入力方法、及びプログラム |
US15/360,132 US20170153712A1 (en) | 2015-11-26 | 2016-11-23 | Input system and input method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015230878A JP6569496B2 (ja) | 2015-11-26 | 2015-11-26 | 入力装置、入力方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017097716A true JP2017097716A (ja) | 2017-06-01 |
JP6569496B2 JP6569496B2 (ja) | 2019-09-04 |
Family
ID=58778228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015230878A Active JP6569496B2 (ja) | 2015-11-26 | 2015-11-26 | 入力装置、入力方法、及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20170153712A1 (ja) |
JP (1) | JP6569496B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019128726A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019128722A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
WO2019159760A1 (ja) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | 操作検出装置及び操作検出方法 |
WO2019159762A1 (ja) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | 基準位置設定方法及び虚像表示装置 |
JP2019211811A (ja) * | 2018-05-31 | 2019-12-12 | 富士ゼロックス株式会社 | 画像処理装置およびプログラム |
WO2020050186A1 (ja) * | 2018-09-06 | 2020-03-12 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP2021064329A (ja) * | 2019-10-17 | 2021-04-22 | 株式会社東海理化電機製作所 | 表示制御装置、画像表示システムおよびプログラム |
WO2022113687A1 (ja) * | 2020-11-30 | 2022-06-02 | 株式会社村上開明堂 | 空中操作装置 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10983680B2 (en) * | 2016-06-28 | 2021-04-20 | Nikon Corporation | Display device, program, display method and control device |
KR102057566B1 (ko) * | 2016-11-24 | 2019-12-19 | 주식회사 하이딥 | 사용자 인터페이스 제공을 위한 터치 입력 방법 및 장치 |
CN108521545B (zh) * | 2018-03-26 | 2020-02-11 | Oppo广东移动通信有限公司 | 基于增强现实的图像调整方法、装置、存储介质和电子设备 |
WO2020018592A1 (en) | 2018-07-17 | 2020-01-23 | Methodical Mind, Llc. | Graphical user interface system |
CN111338527B (zh) * | 2020-02-25 | 2021-11-30 | 维沃移动通信有限公司 | 一种方向提示方法及电子设备 |
CN115309271B (zh) * | 2022-09-29 | 2023-03-21 | 南方科技大学 | 基于混合现实的信息展示方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011118857A (ja) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | 車両のマルチメディアシステム操作用ユーザーインターフェース装置 |
JP2011152334A (ja) * | 2010-01-28 | 2011-08-11 | Konami Digital Entertainment Co Ltd | ゲームシステム、それに用いる制御方法及び、コンピュータプログラム |
JP2012048279A (ja) * | 2010-08-24 | 2012-03-08 | Panasonic Corp | 入力装置 |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007079729A (ja) * | 2005-09-12 | 2007-03-29 | Denso Corp | タッチパネル入力装置 |
US20090102805A1 (en) * | 2007-10-18 | 2009-04-23 | Microsoft Corporation | Three-dimensional object simulation using audio, visual, and tactile feedback |
JP2011081480A (ja) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | 画像入力システム |
US20140201657A1 (en) * | 2013-01-15 | 2014-07-17 | Motorola Mobility Llc | Method and apparatus for receiving input of varying levels of complexity to perform actions having different sensitivities |
JP5711409B1 (ja) * | 2014-06-26 | 2015-04-30 | ガンホー・オンライン・エンターテイメント株式会社 | 端末装置 |
-
2015
- 2015-11-26 JP JP2015230878A patent/JP6569496B2/ja active Active
-
2016
- 2016-11-23 US US15/360,132 patent/US20170153712A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039844A (ja) * | 2009-08-12 | 2011-02-24 | Shimane Prefecture | 画像認識装置および操作判定方法並びにプログラム |
JP2011118857A (ja) * | 2009-12-02 | 2011-06-16 | Hyundai Motor Co Ltd | 車両のマルチメディアシステム操作用ユーザーインターフェース装置 |
JP2011152334A (ja) * | 2010-01-28 | 2011-08-11 | Konami Digital Entertainment Co Ltd | ゲームシステム、それに用いる制御方法及び、コンピュータプログラム |
JP2012048279A (ja) * | 2010-08-24 | 2012-03-08 | Panasonic Corp | 入力装置 |
JP2014501415A (ja) * | 2011-01-05 | 2014-01-20 | ソフトキネティック ソフトウェア | 自然なジェスチャに基づくユーザ・インターフェース方法及びシステム |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019128726A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP2019128722A (ja) * | 2018-01-23 | 2019-08-01 | 富士ゼロックス株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7119383B2 (ja) | 2018-01-23 | 2022-08-17 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JP7040041B2 (ja) | 2018-01-23 | 2022-03-23 | 富士フイルムビジネスイノベーション株式会社 | 情報処理装置、情報処理システム及びプログラム |
JPWO2019159762A1 (ja) * | 2018-02-19 | 2021-01-28 | 株式会社村上開明堂 | 基準位置設定方法及び虚像表示装置 |
JP7286614B2 (ja) | 2018-02-19 | 2023-06-05 | 株式会社村上開明堂 | 基準位置設定方法及び虚像表示装置 |
JPWO2019159760A1 (ja) * | 2018-02-19 | 2021-01-28 | 株式会社村上開明堂 | 操作検出装置及び操作検出方法 |
US11194403B2 (en) | 2018-02-19 | 2021-12-07 | Murakami Corporation | Reference position setting method and virtual image display device |
US11237673B2 (en) | 2018-02-19 | 2022-02-01 | Murakami Corporation | Operation detection device and operation detection method |
WO2019159762A1 (ja) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | 基準位置設定方法及び虚像表示装置 |
JP7286613B2 (ja) | 2018-02-19 | 2023-06-05 | 株式会社村上開明堂 | 操作検出装置及び操作検出方法 |
WO2019159760A1 (ja) * | 2018-02-19 | 2019-08-22 | 株式会社村上開明堂 | 操作検出装置及び操作検出方法 |
JP2019211811A (ja) * | 2018-05-31 | 2019-12-12 | 富士ゼロックス株式会社 | 画像処理装置およびプログラム |
WO2020050186A1 (ja) * | 2018-09-06 | 2020-03-12 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP2021064329A (ja) * | 2019-10-17 | 2021-04-22 | 株式会社東海理化電機製作所 | 表示制御装置、画像表示システムおよびプログラム |
JP7252113B2 (ja) | 2019-10-17 | 2023-04-04 | 株式会社東海理化電機製作所 | 表示制御装置、画像表示システムおよびプログラム |
WO2022113687A1 (ja) * | 2020-11-30 | 2022-06-02 | 株式会社村上開明堂 | 空中操作装置 |
Also Published As
Publication number | Publication date |
---|---|
US20170153712A1 (en) | 2017-06-01 |
JP6569496B2 (ja) | 2019-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6569496B2 (ja) | 入力装置、入力方法、及びプログラム | |
US10606442B2 (en) | Touch-free gesture recognition system and method | |
US9164621B2 (en) | Stereoscopic display apparatus and stereoscopic shooting apparatus, dominant eye judging method and dominant eye judging program for use therein, and recording medium | |
US8923686B2 (en) | Dynamically configurable 3D display | |
CN102238408B (zh) | 显示设置菜单的方法以及相应装置 | |
US9086742B2 (en) | Three-dimensional display device, three-dimensional image capturing device, and pointing determination method | |
US9766793B2 (en) | Information processing device, information processing method and program | |
US9753547B2 (en) | Interactive displaying method, control method and system for achieving displaying of a holographic image | |
CN106919294B (zh) | 一种3d触控交互装置、其触控交互方法及显示装置 | |
WO2012132201A1 (en) | Information processing apparatus, image display apparatus, and information processing method | |
RU2598989C2 (ru) | Устройство отображения трехмерного изображения и способ отображения для такового | |
CN103154858A (zh) | 操作输入装置与方法及程序 | |
JP2012248066A (ja) | 画像処理装置、その制御方法、および制御プログラム、並びに撮像装置 | |
CN105511620A (zh) | 中文三维输入装置、头戴式装置及中文三维输入方法 | |
JPH10222287A (ja) | 情報入力装置 | |
KR100845274B1 (ko) | 관람자의 시선 방향을 고려한 전시 시스템의 인터페이스방법 및 장치 | |
JP2006323492A (ja) | 制御装置およびプログラム | |
JP5915651B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2012048656A (ja) | 画像処理装置、画像処理方法 | |
US8421769B2 (en) | Electronic cosmetic case with 3D function | |
CN104378621A (zh) | 立体场景处理方法及装置 | |
JP2019032713A (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR20200099350A (ko) | 복수의 디스플레이를 포함하는 거치대형 가상현실 체험 장치 및 이를 이용한 가상현실 체험 방법 | |
Lubos et al. | The interactive spatial surface-blended interaction on a stereoscopic multi-touch surface | |
JP4777193B2 (ja) | 立体映像合成装置、形状データ生成方法およびそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180810 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190402 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190520 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20190520 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20190520 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6569496 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |