JP2022122637A - 表示装置、表示方法、及び表示プログラム - Google Patents

表示装置、表示方法、及び表示プログラム Download PDF

Info

Publication number
JP2022122637A
JP2022122637A JP2021019996A JP2021019996A JP2022122637A JP 2022122637 A JP2022122637 A JP 2022122637A JP 2021019996 A JP2021019996 A JP 2021019996A JP 2021019996 A JP2021019996 A JP 2021019996A JP 2022122637 A JP2022122637 A JP 2022122637A
Authority
JP
Japan
Prior art keywords
display
user
input operation
gesture
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021019996A
Other languages
English (en)
Inventor
靖弘 宮野
Yasuhiro Miyano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2021019996A priority Critical patent/JP2022122637A/ja
Priority to US17/586,279 priority patent/US11635822B2/en
Priority to CN202210115046.2A priority patent/CN114942721A/zh
Publication of JP2022122637A publication Critical patent/JP2022122637A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2022122637000001
【課題】表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置においてユーザーのジェスチャー操作による誤入力を防止することが可能な表示装置、表示方法、及び表示プログラムを提供する。
【解決手段】表示装置は、ジェスチャー操作を含む入力操作を検出する入力操作検出部と、第1ジェスチャー操作を検出した場合に入力操作用アイコンを第1表示形態で表示させ、第2ジェスチャー操作を検出した場合に前記入力操作用アイコンを第2表示形態で表示させる表示処理部と、前記第1ジェスチャー操作を検出した場合に移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に選択操作を受け付ける受付処理部と、第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更処理部と、を備える。
【選択図】図1

Description

本発明は、表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置、表示方法、及び表示プログラムに関する。
従来、表示パネルの表示画面に対して非接触で指示操作などの入力操作(画面操作)を行なうことが可能な表示装置が知られている。例えば、特許文献1には、ユーザーが機器に向かって手を一本指の形状にすると、ディスプレイ上に数字「1」のアイコンが表示されるとともに、1番目のメニューであるテレビの表示が強調表示され、手を二本指の形状にすると、ディスプレイ上に数字「2」のアイコンが表示されるとともに、2番目のメニューであるネットワークの表示が強調表示され、一定時間同じ手の形状を維持することで、1番目のメニュー又は2番目のメニューが選択されるインターフェース装置が開示されている。
特開平9-185456号公報
ここで、前記システムでは、ユーザーが表示画面に対して非接触で手により入力操作を行う場合、ユーザーが手で第1ジェスチャー操作(手を一本指の形状とする)を行った場合にディスプレイ上に数字「1」のアイコンが表示され、第2ジェスチャー操作(手を二本指の形状にする)を行った場合にディスプレイ上に数字「2」のアイコンが表示され、ユーザーがいずれのジェスチャー操作を行っているのかを認識することができる。
しかしながら、第1ジェスチャー操作と第2ジェスチャー操作の中間状態など、曖昧なジェスチャー状態においては、ユーザーが現在の自分のジェスチャー状態を認識することができなかった。例えば、ユーザーが第1ジェスチャー操作と第2ジェスチャー操作の中間のジェスチャー操作の状態から、手の形状を徐々に変化させて、第1ジェスチャー操作又は第2ジェスチャー操作の状態に変化させる操作を行う場合を想定する。このような場合に、中間のジェスチャー操作の状態において、ユーザーが現在のジェスチャー操作の状態が第1ジェスチャー操作又は第2ジェスチャー操作のいずれにどの程度近い状態であるかを認識することができず、またこのことにより、中間のジェスチャー操作の状態から第1ジェスチャー操作又は第2ジェスチャー操作の状態に変化するタイミングを把握することができなかった。このため、ユーザーの意図するタイミングよりも早い又は遅いタイミングで第1ジェスチャー操作又は第2ジェスチャー操作が行われてしまうなど、ユーザーの意図に反する誤入力が行われる問題があった。
本発明の目的は、表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置においてユーザーのジェスチャー操作による誤入力を防止することが可能な表示装置、表示方法、及び表示プログラムを提供することにある。
本発明の一の態様に係る表示装置は、表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置であって、前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出部と、前記入力操作検出部が前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記入力操作検出部が前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示処理部と、前記入力操作検出部が前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記入力操作検出部が前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付処理部と、前記入力操作検出部が前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更処理部と、を備える装置である。
本発明の他の態様に係る表示方法は、表示画面に対するユーザーの非接触による入力操作を受け付ける表示方法であって、一又は複数のプロセッサーが、前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出ステップと、前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示ステップと、前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付ステップと、前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更ステップと、を実行する方法である。
本発明の他の態様に係る表示プログラムは、表示画面に対するユーザーの非接触による入力操作を受け付ける表示プログラムであって、前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出ステップと、前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示ステップと、前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付ステップと、前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更ステップと、を一又は複数のプロセッサーに実行させるためのプログラムである。
本発明によれば、表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置においてユーザーのジェスチャー操作による誤入力を防止することが可能な表示装置、表示方法、及び表示プログラムを提供することができる。
図1は、本発明の実施形態に係る表示装置の構成を示すブロック図である。 図2は、本発明の実施形態に係る表示装置における仮想操作面の一例を示す模式図である。 図3は、従来の表示装置における入力操作の一例を示す図である。 図4は、従来の表示装置における入力操作の一例を示す図である。 図5は、本発明の実施形態に係る表示装置におけるジェスチャー操作及び入力操作用アイコンの表示形態の変化の様子を示す図である。 図6は、本発明の実施形態に係る表示装置における入力操作の一例を示す図である。 図7は、本発明の実施形態に係る表示装置における入力操作の一例を示す図である。 図8は、本発明の実施形態に係る表示装置で実行される表示制御処理の手順の一例を説明するためのフローチャートである。 図9は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図10は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図11は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図12は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図13は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図14は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図15は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図16は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。 図17は、本発明の実施形態に係る表示装置における仮想操作面の設定方法の一例を示す図である。
以下、添付図面を参照しながら、本発明の実施形態について説明する。なお、以下の実施形態は、本発明を具体化した一例であって、本発明の技術的範囲を限定する性格を有さない。
図1に示すように、本発明の実施形態に係る表示装置1は、制御部11と、記憶部12と、表示パネル13と、操作部14と、モーションセンサ15とを備えている。図2には、表示装置1の模式図を示している。モーションセンサ15は、表示パネル13の上部に設置され、ユーザーの入力操作を検出する。
表示装置1は、表示画面13Aに対するユーザーの非接触による入力操作を受け付ける。例えば、表示装置1は、仮想操作面R2においてユーザーの前記入力操作を検出すると、表示画面13Aに対するユーザーの前記入力操作に応じた入力処理を実行する。例えば、ユーザーが仮想操作面R2の所定の位置をタッチ操作した場合に、表示装置1は、仮想操作面R2におけるタッチ位置に対応する表示画面13A上の位置を検出してタッチ入力を受け付ける。以下、表示装置1の具体的構成について説明する。
モーションセンサ15は、例えば2個のカメラと3個の赤外線LEDとを備え、所定の検知範囲においてユーザーの前記入力操作を検知する。モーションセンサ15は、検知情報を制御部11に出力する。前記検知情報には、モーションセンサ15を基準とした検出対象物(例えばユーザーの手、指先、スタイラスペン、支持棒など)の位置座標(X座標、Y座標、Z座標)が含まれる。モーションセンサ15は、例えばユーザーの手(右手RH、左手LH)の甲(掌)、指の関節、手指の骨格、角度、位置などを検知することが可能である。モーションセンサ15は、周知の技術を適用することができる。
表示パネル13は、画像を表示するディスプレイであり、例えば液晶ディスプレイである。操作部14は、マウス、キーボードなどの操作機器である。なお、操作部14は、タッチパネルで構成されてもよい。
記憶部12は、各種の情報を記憶するHDD(Hard Disk Drive)又はSSD(Solid State Drive)などの不揮発性の記憶部である。具体的には、記憶部12には、操作領域情報D1、仮想操作面情報D2などのデータが記憶される。
操作領域情報D1は、表示パネル13の表示画面13Aにおける操作領域R1を示す情報である。操作領域R1は、表示画面13Aのうちユーザーが仮想操作面R2を介して入力操作を行うことが可能な領域、すなわちユーザーの入力操作を受け付け可能な領域である。操作領域R1は、表示画面13Aの全領域に設定されてもよいし、表示画面13Aの一部の領域に設定されてもよい。例えば表示画面13Aの全領域が操作領域R1に設定される場合、操作領域情報D1には、操作領域R1を規定する座標情報として、表示画面13Aの四隅の座標C11~C14(図2参照)の情報が含まれる。操作領域情報D1は、操作領域R1が設定又は更新されるごとに記憶部12に登録される。
仮想操作面情報D2は、表示画面13Aに対するユーザーの前記入力操作を受け付ける仮想操作面R2の領域を示す情報である。具体的には、仮想操作面R2は、操作領域R1に対応しており、仮想操作面R2を規定する四隅の座標C21~C24(図2参照)と操作領域R1を規定する座標C11~C14とが対応付けられる。仮想操作面情報D2には、仮想操作面R2を規定する四隅の座標C21~C24の情報が含まれる。仮想操作面情報D2は、仮想操作面R2が設定又は更新されるごとに記憶部12に登録される。仮想操作面R2の大きさ及び位置は、予め設定されてもよいし、ユーザーの操作により設定されてもよい。
また、記憶部12には、制御部11に後述の表示制御処理(図8参照)を実行させるための表示制御プログラムなどの制御プログラムが記憶されている。例えば、前記表示制御プログラムは、CD又はDVDなどのコンピュータ読取可能な記録媒体に非一時的に記録され、表示装置1が備えるCDドライブ又はDVDドライブなどの読取装置(不図示)で読み取られて記憶部12に記憶される。なお、前記表示制御プログラムは、クラウドサーバーから配信されて記憶部12に記憶されてもよい。
制御部11は、CPU、ROM、及びRAMなどの制御機器を有する。前記CPUは、各種の演算処理を実行するプロセッサーである。前記ROMは、前記CPUに各種の演算処理を実行させるためのBIOS及びOSなどの制御プログラムが予め記憶される不揮発性の記憶部である。前記RAMは、各種の情報を記憶する揮発性又は不揮発性の記憶部であり、前記CPUが実行する各種の処理の一時記憶メモリー(作業領域)として使用される。そして、制御部11は、前記ROM又は記憶部12に予め記憶された各種の制御プログラムを前記CPUで実行することにより表示装置1を制御する。
ところで、従来の技術では、ユーザーが表示画面13Aに対して非接触で手により入力操作を行う場合、ユーザーは手を動かすことにより、表示画面13Aに表示されるマウスポインタ(入力操作用アイコンP1)を所望の位置に移動させる。また従来の技術は、例えばユーザーが手で第1ジェスチャー操作を行った場合にマウスポインタの移動操作を受け付け、ユーザーが手で第2ジェスチャー操作を行った場合にマウスポインタの選択操作(クリック操作)を受け付ける。この場合において、例えばユーザーが第1ジェスチャー操作を意図しているにもかかわらず、第1ジェスチャー操作の状態が曖昧になるとユーザーの意図に反して第2ジェスチャー操作が受け付けられてしまう問題が生じる。以下、この問題の具体例を説明する。
図3及び図4は、従来の技術により生じる前記問題を説明するための図である。例えば図3に示す商品注文画面に、選択対象の画像として「注文」、「戻る」、「その他」の各選択ボタン画像が表示されている場合に、ユーザーが仮想操作面R2において右手RHの掌を表示画面13Aに翳す操作(第1ジェスチャー操作)をして上下左右方向(X方向及びY方向)に移動させると、表示画面13A上の入力操作用アイコンP1が、当該移動操作に応じて移動する。ユーザーは所望の商品を注文する場合、表示画面13Aに表示された「注文」の選択ボタン画像を押下するために、入力操作用アイコンP1が「注文」の選択ボタン画像に重なった状態で右手RHを握る操作(第2ジェスチャー操作)を行う。これにより、ユーザーは、所望の商品を選択(注文)する操作を行うことができる。
これに対して、図4に示すように、ユーザーが仮想操作面R2において右手RHの掌を開いたまま上下左右方向(X方向及びY方向)に移動させている途中に、ユーザーが無意識のうちに右手RHの疲労などにより右手RHの姿勢(第1ジェスチャー操作)が崩れ拳を握る姿勢に近づいてしまう場合がある。この場合に第2ジェスチャー操作が検出されてしまうと、ユーザーが意図しない操作、例えば「戻る」の選択ボタン画像を押下する操作が受け付けられてしまう。このように、従来の技術では、ユーザーのジェスチャー操作による誤入力が生じるおそれがある。これに対して、本実施形態に係る表示装置1では、以下に示すように、ユーザーのジェスチャー操作による誤入力を防止することが可能である。
具体的に、制御部11は、図1に示すように、操作面設定部111、入力操作検出部112、表示処理部113、受付処理部114、入力処理部115、算出処理部116、及び変更処理部117などの各種の処理部を含む。なお、制御部11は、前記CPUで前記表示制御プログラム及びに従った各種の処理を実行することによって、操作面設定部111、入力操作検出部112、表示処理部113、受付処理部114、入力処理部115、算出処理部116、及び変更処理部117として機能する。また、制御部11に含まれる一部又は全部の処理部が電子回路で構成されていてもよい。なお、前記表示制御プログラムは、複数のプロセッサーを前記各種の処理部として機能させるためのプログラムであってもよい。
操作面設定部111は、ユーザーの入力操作を受け付ける仮想操作面R2を設定する。例えば図2に示すように、操作面設定部111は、表示画面13AからZ方向に所定距離だけ離れた位置に仮想操作面R2を設定する。操作面設定部111は、予め設定された大きさの仮想操作面R2を予め設定された位置に設定してもよいし、ユーザーの操作に応じた大きさの仮想操作面R2をユーザーの指定した位置に設定してもよい。詳細は後述([仮想操作面設定方法]参照)するが、例えばユーザーは、所定のジェスチャー操作を行うことにより所望の大きさの仮想操作面R2を所望の位置に設定することができる。
入力操作検出部112は、ユーザーの所定のジェスチャー操作を含む入力操作を検出する。具体的には、入力操作検出部112は、操作面設定部111により設定された仮想操作面R2においてユーザーの前記入力操作を検出する。例えば、入力操作検出部112は、モーションセンサ15から取得する検知情報に基づいて、仮想操作面R2における検知座標を検出し、当該検知座標から操作領域R1における入力座標を算出する。前記入力操作には、所定の入力処理を実行させるジェスチャー操作、表示画面13Aに手書き画像を描画させる描画操作などが含まれる。入力操作検出部112は、本発明の入力操作検出部の一例である。
ここで、仮想操作面R2と操作領域R1の比率を、「W2:W1=H2:H1=a:b」とした場合(図2参照)、入力操作検出部112は、仮想操作面R2における検知座標[sx,sy]に基づいて、入力座標[dx、dy]をdx=sx×b/a、dy=sy×b/aの式で算出することができる。なお、表示解像度[rx,ry]は、Min[dx、dy]=[0,0]、Max[dx、dy]=[dx、dy]である。
ここでは、入力操作検出部112が前記ジェスチャー操作を検出する場合の具体例について説明する。
例えばユーザーは、表示画面13Aに表示される入力操作用アイコンP1(例えばマウスカーソル画像)を移動させたい場合に、第1ジェスチャー操作を行う。前記第1ジェスチャー操作は、例えば表示画面13Aの前でユーザーが右手RHを開く操作(例えば右手RHを「パー」の形にする操作)である。また例えばユーザーは、表示画面13Aに表示される入力操作用アイコンP1で選択対象を選択(クリック)したい場合に、第2ジェスチャー操作を行う。前記第2ジェスチャー操作は、例えば表示画面13Aの前でユーザーの右手RHを握る操作(例えば右手RHを「グー」の形にする操作)である。入力操作検出部112は、前記第1ジェスチャー操作及び前記第2ジェスチャー操作を検出する。
なお、第1ジェスチャー操作及び第2ジェスチャー操作の組み合わせ、上述の例に限定されない。例えば、前記第1ジェスチャー操作が、右手RHの人差し指を立てるポーズあり、かつ前記第2ジェスチャー操作が、右手RHを握るポーズであってもよい。また、前記第1ジェスチャー操作が、右手RHを開いて垂直に立てたポーズであり、かつ前記第2ジェスチャー操作が、右手RHを開いて90度に倒したポーズであってもよい。また、前記第1ジェスチャー操作が、右手RHを開くポーズであり、かつ前記第2ジェスチャー操作が、右手RHの親指を立てるポーズ又は右手RHのOKサインのポーズであってもよい。
また、入力操作検出部112は、前記第1ジェスチャー操作及び前記第2ジェスチャー操作に近似(類似)する第3ジェスチャー操作を検出する。前記第3ジェスチャー操作は、例えば前記第1ジェスチャー操作から前記第2ジェスチャー操作に変化する途中のジェスチャー操作であり、例えば右手RHの「パー」の形と「グー」の形の間の形のジェスチャーである。例えば、ユーザーが右手RHに力を入れて「パー」の形(第1ジェスチャー操作)にした後に、右手RHの力が弱まると「パー」の形が崩れて「グー」の形(第2ジェスチャー操作)に近づいていく。
入力操作検出部112は、ユーザーの手指の骨格、角度、及び位置の少なくともいずれかの手指情報に基づいて、前記第1ジェスチャー操作、前記第2ジェスチャー操作、及び前記第3ジェスチャー操作を検出する。また、入力操作検出部112は、前記手指情報に応じた手の握り度合いGn(後述)に基づいて、前記第1ジェスチャー操作、前記第2ジェスチャー操作、及び前記第3ジェスチャー操作を検出する。例えば、入力操作検出部112は、前記第1ジェスチャー操作に対応する握り度合いGnの第1閾値を予め設定しておき、検出した握り度合いGnが前記第1閾値未満である場合に前記第1ジェスチャー操作を検出する。また例えば、入力操作検出部112は、前記第2ジェスチャー操作に対応する握り度合いGnの第2閾値(但し、第1閾値<第2閾値とする。)を予め設定しておき、検出した握り度合いGnが前記第2閾値以上の場合に前記第2ジェスチャー操作を検出する。また、入力操作検出部112は、検出した握り度合いGnが前記第1閾値以上かつ第2閾値未満の場合に前記第3ジェスチャー操作を検出する。
なお、記憶部12には、所定のジェスチャー操作と当該ジェスチャー操作に対応する操作内容とを互いに関連付けた設定情報が予め記憶されている。例えば、前記第1ジェスチャー操作及び前記第3ジェスチャー操作には、入力操作用アイコンP1の移動操作が関連付けられ、前記第2ジェスチャー操作には、入力操作用アイコンP1による選択操作(クリック操作)が関連付けられている。前記所定のジェスチャー操作には、仮想操作面R2を設定するためのジェスチャー操作(後述の[仮想操作面設定方法]参照)が含まれてもよい。また、前記所定のジェスチャー操作は、表示装置1を使用するユーザーごとに個別に設定されてもよい。
表示処理部113は、各種情報を表示パネル13の表示画面13Aに表示させる。例えば、表示処理部113は、入力操作用アイコンP1の画像(マウスカーソル画像)、ユーザーが入力操作用アイコンP1を操作して選択可能な選択対象の画像(例えば図3の「注文」、「戻る」、「その他」の各選択ボタン画像)などを表示画面13Aに表示させる。
また、表示処理部113は、入力操作検出部112がユーザーの前記第1ジェスチャー操作を検出した場合に、入力操作用アイコンP1を第1表示形態で表示画面13Aに表示させる。また、表示処理部113は、入力操作検出部112がユーザーの前記第2ジェスチャー操作を検出した場合に、入力操作用アイコンP1を第2表示形態で表示画面13Aに表示させる。
例えば図5に示すように、表示処理部113は、入力操作検出部112がユーザーの前記第1ジェスチャー操作(「パー」のポーズ)を検出した場合に、入力操作用アイコンP1を第1のサイズ(大きさ)かつ第1の色(白色)で表示させる。一方、表示処理部113は、入力操作検出部112がユーザーの前記第2ジェスチャー操作(「グー」のポーズ)を検出した場合に、入力操作用アイコンP1を第1のサイズよりも小さい第2のサイズかつ第2の色(黒色)で表示させる。表示処理部113は、本発明の表示処理部の一例である。
受付処理部114は、表示画面13Aに対するユーザーの非接触による入力操作を受け付ける。具体的には、受付処理部114は、入力操作検出部112が前記第1ジェスチャー操作を検出した場合に、入力操作用アイコンP1を前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、入力操作検出部112が前記第2ジェスチャー操作を検出した場合に、入力操作用アイコンP1により選択対象を選択させる選択操作を受け付ける。また、受付処理部114は、入力操作検出部112が前記第3ジェスチャー操作を検出した場合に、入力操作用アイコンP1を前記第3ジェスチャー操作に応じて移動させる移動操作を受け付ける。例えば、受付処理部114は、記憶部12に記憶された前記設定情報を参照して、所定のジェスチャー操作に対応する入力操作を受け付ける。受付処理部114は、本発明の受付処理部の一例である。
入力処理部115は、受付処理部114が受け付けた入力操作に応じた入力処理を実行する。具体的には、入力処理部115は、前記移動操作及び前記選択操作を受け付けた場合に、表示画面13Aに対するユーザーの入力操作に応じた入力処理を実行する。例えば受付処理部114が前記移動操作を受け付けた場合に、入力処理部115は、表示画面13A上の入力操作用アイコンP1を移動させる。また、例えば受付処理部114が前記選択操作を受け付けた場合に、入力処理部115は、表示画面13A上の選択対象に応じた処理を実行する。例えば、受付処理部114が表示画面13A上の「注文」の選択ボタン画像を選択する操作を受け付けた場合に、入力処理部115は、「注文」の選択ボタン画像に割り当てられた注文処理を実行する。また、受付処理部114が前記描画操作を受け付けた場合に、入力処理部115は、表示画面13Aに手書き画像を描画する描画処理を実行する。入力処理部115は、本発明の入力処理部の一例である。
算出処理部116は、入力操作検出部112がユーザーの前記第3ジェスチャー操作を検出した場合に、前記第3ジェスチャー操作と前記第1ジェスチャー操作及び前記第2ジェスチャー操作との近似度を算出する。算出処理部116は、前記手指情報に基づいて前記近似度を算出する。前記近似度は、ユーザーの手の握り度合いGnを示す指標である。
例えば図5に示すように、前記第1ジェスチャー操作(手を開く操作)は握り度合いGnが「0」(又は0~0.1)に設定されており、前記第2ジェスチャー操作(手を握る操作)は握り度合いGnが「1」(又は0.9~1)に設定されている。前記第1ジェスチャー操作及び前記第2ジェスチャー操作のそれぞれに対応する握り度合いGnの情報は予め記憶部12に記憶される。ここで、入力操作検出部112がユーザーの前記第3ジェスチャー操作を検出すると、算出処理部116は、ユーザーの手指の骨格、角度、及び位置の少なくともいずれかの手指情報に基づいて、前記第3ジェスチャー操作に対応する握り度合いGnを算出する。握り度合いGnが「0」に近い程、前記第3ジェスチャー操作が前記第1ジェスチャー操作に近似することを示し、握り度合いGnが「1」に近い程、前記第3ジェスチャー操作が前記第2ジェスチャー操作に近似することを示している。算出処理部116は、前記第3ジェスチャー操作に対応する握り度合いGnに基づいて、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1、及び、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2を算出する。
変更処理部117は、算出処理部116により算出される近似度に基づいて入力操作用アイコンP1の表示形態を変更する。換言すると、変更処理部117は、算出処理部116により算出される握り度合いGnに基づいて入力操作用アイコンP1の表示形態を変更する。具体的には、変更処理部117は、算出処理部116により算出される近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の大きさを変更する。
例えば、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が大きい程、又は、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が小さい程、変更処理部117は、入力操作用アイコンP1の大きさを、前記第1ジェスチャー操作に対応する入力操作用アイコンP1の大きさ(第1表示形態)に近付ける。
また例えば、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が大きい程、又は、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が小さい程、変更処理部117は、入力操作用アイコンP1の大きさを、前記第2ジェスチャー操作に対応する入力操作用アイコンP1の大きさ(第2表示形態)に近付ける。すなわち、変更処理部117は、入力操作用アイコンP1の大きさを、ユーザーの手の握り度合いGnが小さい程、前記第1表示形態に近付け、ユーザーの手の握り度合いGnが大きい程、前記第2表示形態に近付ける。このように、変更処理部117は、入力操作用アイコンP1の大きさを近似度A1,A2又は握り度合いGnに応じた大きさに変更する。
他の実施形態として、変更処理部117は、算出処理部116により算出される近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の色を変更してもよい。
例えば、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が大きい程、又は、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が小さい程、変更処理部117は、入力操作用アイコンP1の色を、前記第1ジェスチャー操作に対応する入力操作用アイコンP1の色(第1表示形態)に近付ける。
また例えば、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が大きい程、又は、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が小さい程、変更処理部117は、入力操作用アイコンP1の色を、前記第2ジェスチャー操作に対応する入力操作用アイコンP1の色(第2表示形態)に近付ける。すなわち、変更処理部117は、入力操作用アイコンP1の色を、ユーザーの手の握り度合いGnが小さい程、前記第1表示形態に近付け、ユーザーの手の握り度合いGnが大きい程、前記第2表示形態に近付ける。このように、変更処理部117は、入力操作用アイコンP1の色を近似度A1,A2又は握り度合いGnに応じた色に変更する。例えば、変更処理部117は、入力操作用アイコンP1を近似度A2が大きくなる程、黒色から赤色に変化させてもよい。なお、この場合、変更処理部117は、入力操作用アイコンP1の大きさを前記第1ジェスチャー操作、前記第2ジェスチャー操作、及び前記第3ジェスチャー操作で共通にしてもよい。
他の実施形態として、変更処理部117は、算出処理部116により算出される近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の形状を変更してもよい。
例えば、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が大きい程、又は、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が小さい程、変更処理部117は、入力操作用アイコンP1の形状を、前記第1ジェスチャー操作に対応する入力操作用アイコンP1の形状(第1表示形態)に近付ける。
また例えば、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2が大きい程、又は、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1が小さい程、変更処理部117は、入力操作用アイコンP1の形状を、前記第2ジェスチャー操作に対応する入力操作用アイコンP1の形状(第2表示形態)に近付ける。すなわち、変更処理部117は、入力操作用アイコンP1の形状を、ユーザーの手の握り度合いGnが小さい程、前記第1表示形態に近付け、ユーザーの手の握り度合いGnが大きい程、前記第2表示形態に近付ける。このように、変更処理部117は、入力操作用アイコンP1の形状を近似度A1,A2又は握り度合いGnに応じた形状に変更する。例えば、変更処理部117は、入力操作用アイコンP1を近似度A2が大きくなる程、「〇」形状から「□」形状に変化させてもよい。
なお、変更処理部117は、算出処理部116により算出される近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の大きさ、色、及び形状のうち少なくとも2つの要素を同時に変更してもよい。
また、図5に示すように、変更処理部117は、算出処理部116により算出される近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる。これにより、入力操作用アイコンP1は、表示画面13Aにおいて見た目上、滑らかに変化する。
上述の構成によれば、例えば図6に示すように、ユーザーの右手RHに対応する前記第3ジェスチャー操作が検出された場合に、表示画面13Aに表示された入力操作用アイコンP1の大きさが前記第3ジェスチャー操作の近似度A1,A2に応じた大きさに変化する。このため、ユーザーは、自身の右手RHが前記第1ジェスチャー操作に対応する形(手を開いた形)から前記第2ジェスチャー操作(選択操作)に対応する形(手を握った形)に近付いていることを認識することができる。これにより、ユーザーは、右手RHを再度前記第1ジェスチャー操作に対応する形に戻すことができるため、ユーザーの意図しない操作(ここでは「戻る」の選択操作)による誤入力を防止することができる。そして、図7に示すように、ユーザーは、右手RHの形を前記第1ジェスチャー操作の状態に維持したまま目標の位置(「注文」)まで入力操作用アイコンP1を移動させ、入力操作用アイコンP1が「注文」と重なる位置で前記第2ジェスチャー操作を行うことにより、目的の操作(「注文」の選択操作)を行うことができる。
[表示制御処理]
以下、図8を参照しつつ、表示装置1の制御部11によって実行される表示制御処理について説明する。
なお、本発明は、前記表示制御処理に含まれる一又は複数のステップを実行する表示制御方法(本発明の表示方法の一例)の発明として捉えることができ、ここで説明する表示制御処理に含まれる一又は複数のステップが適宜省略されてもよい。なお、前記表示制御処理における各ステップは同様の作用効果を生じる範囲で実行順序が異なってもよい。さらに、ここでは制御部11が前記表示制御処理における各ステップを実行する場合を例に挙げて説明するが、複数のプロセッサーが当該表示制御処理における各ステップを分散して実行する表示制御方法も他の実施形態として考えられる。
先ずステップS11において、制御部11は、ユーザーの入力操作を検出したか否かを判定する。具体的には、制御部11は、仮想操作面R2においてユーザーの前記入力操作を検出する。例えば、制御部11は、モーションセンサ15から取得する検知情報に基づいて、仮想操作面R2における検知座標を検出し、当該検知座標から表示画面13Aの操作領域R1における入力座標を算出する。制御部11が前記入力操作を検出した場合(S11:Yes)、処理はステップS12に移行する。制御部11が前記入力操作を検出しない場合(S11:No)、処理はステップS16に移行する。
ステップS12において、制御部11は、ユーザーの前記第1ジェスチャー操作を検出したか否かを判定する。例えば、制御部11は、前記手指情報に基づいて、ユーザーの右手RHを開く操作(右手RHを「パー」の形にする操作)を検出したか否かを判定する。制御部11がユーザーの前記第1ジェスチャー操作を検出した場合(S12:Yes)、処理はステップS13に移行する。一方、制御部11がユーザーの前記第1ジェスチャー操作を検出しない場合(S12:No)、処理はステップS21に移行する。ステップS11,S12は、本発明の入力操作検出ステップの一例である。
次にステップS13において、制御部11は、入力操作用アイコンP1を前記第1表示形態で表示画面13Aに表示させる。例えば、制御部11は、入力操作用アイコンP1を第1のサイズかつ第1の色(白色)で表示画面13Aに表示させる(図5参照)。ステップS13は、本発明の表示ステップの一例である。
次にステップS14において、制御部11は、入力操作用アイコンP1の移動操作を受け付ける。例えば、ユーザーが仮想操作面R2において右手RHを開いた状態(前記第1ジェスチャー操作)で上下左右方向(X方向及びY方向)に移動させると、制御部11は、当該移動操作を受け付ける。ステップS14は、本発明の受付ステップの一例である。
次にステップS15において、制御部11は、表示画面13Aに対するユーザーの前記移動操作に応じた入力処理を実行する。例えば、制御部11は、表示画面13Aに表示された入力操作用アイコンP1をユーザーの右手RHの動きに追従するように移動させる。
次にステップS16において、制御部11は、前記入力操作が終了したか否かを判定する。前記入力操作が終了した場合(S16:Yes)、制御部11は前記表示制御処理を終了する。前記入力操作が終了しない場合(S16:No)、制御部11はステップS11に戻る。
ステップS11に戻ると、制御部11は、ステップS11,S12の処理を再度実行する。ステップS12において、制御部11が前記第1ジェスチャー操作を検出しない場合(S12:No)、処理はステップS21に移行する。ステップS21において、制御部11は、ユーザーの前記第2ジェスチャー操作(右手RHを閉じる操作)を検出したか否かを判定する。制御部11が前記第2ジェスチャー操作を検出しない場合(S21:No)、処理はステップS31に移行する。
ここでは、一例として、ユーザーが前記第1ジェスチャー操作を行った後に、意図せず前記第3ジェスチャー操作を行った場合について説明する。
ステップS31において、制御部11は、ユーザーの前記第3ジェスチャー操作(右手RHを「パー」と「グー」の間の形にする操作)を検出したか否かを判定する。例えばユーザーが右手RHを開いた状態で入力操作用アイコンP1を移動させている途中に右手RHが徐々に閉じてきた場合に、制御部11は、前記手指情報に基づいて、前記第3ジェスチャー操作を検出する(S31:Yes)。ステップS31は、本発明の入力操作検出ステップの一例である。
制御部11は、前記第3ジェスチャー操作を検出すると(S31:Yes)、ステップS32において、前記第3ジェスチャー操作と前記第1ジェスチャー操作及び前記第2ジェスチャー操作との近似度A1,A2を算出する。例えば、制御部11は、ユーザーの手の握り度合いGnに基づいて近似度A1,A2を算出する。
具体的には、制御部11は、前記第3ジェスチャー操作に対応する握り度合いGnに基づいて、前記第1ジェスチャー操作と前記第3ジェスチャー操作との近似度A1、及び、前記第2ジェスチャー操作と前記第3ジェスチャー操作との近似度A2を算出する(図5参照)。ステップS32は、本発明の算出ステップの一例である。
次にステップS33において、制御部11は、算出した近似度A1,A2に基づいて入力操作用アイコンP1の表示形態を変更する。換言すると、制御部11は、算出した握り度合いGnに基づいて入力操作用アイコンP1の表示形態を変更する。具体的には、制御部11は、算出した近似度A1,A2又は握り度合いGnに基づいて、入力操作用アイコンP1の大きさ、色、形状の少なくともいずれかを、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる。ステップS33は、本発明の変更ステップの一例である。
その後、処理はステップS14に移行し、制御部11は、入力操作用アイコンP1の移動操作を受け付ける。すなわち、仮想操作面R2において例えばユーザーが右手RHを半分閉じた状態(前記第3ジェスチャー操作)で上下左右方向(X方向及びY方向)に移動させると、制御部11は、当該移動操作を受け付ける。
このように、ユーザーが前記第1ジェスチャー操作と前記第2ジェスチャー操作との間の第3ジェスチャー操作をしているときは、制御部11は、表示画面13Aに表示された入力操作用アイコンP1を、ユーザーの右手RHの動きに追従するように移動させる(図6参照)。
その後、例えばユーザーが右手RHを閉じる操作(前記第2ジェスチャー操作)を行うと(S21:Yes)、制御部11は、入力操作用アイコンP1を前記第2表示形態で表示画面13Aに表示させる。例えば、制御部11は、入力操作用アイコンP1を第2のサイズかつ第1の色(黒色)で表示画面13Aに表示させる(図5参照)。ステップS21は本発明の入力操作検出ステップの一例であり、ステップS22は本発明の表示ステップの一例である。
次にステップS23において、制御部11は、入力操作用アイコンP1の選択操作を受け付ける。例えば、ユーザーが仮想操作面R2において右手RHを閉じると、制御部11は、当該選択操作を受け付ける。制御部11は、前記選択操作を受け付けると、ステップS15において、表示画面13A上の選択対象に応じた処理を実行する。例えば図7に示すように、制御部11は、表示画面13A上の「注文」の選択ボタン画像を選択する操作を受け付けると、「注文」の選択ボタン画像に割り当てられた注文処理を実行する。ステップS23は、本発明の受付ステップの一例である。
なお、ステップS31において、制御部11が前記第3ジェスチャー操作を受け付けない場合には(S31:No)、ステップS15において、制御部11は前記第1~前記第3ジェスチャー操作以外の入力操作に応じた入力処理を実行する。例えば、制御部11は、ユーザーから手書き画像を描画させる描画操作を受け付けた場合に、表示画面13Aに手書き画像を描画する描画処理を実行する。
以上のようにして、制御部11は、前記表示制御処理を実行する。
以上説明したように、本実施形態に係る表示装置1は、表示画面13Aに対するユーザーの非接触による入力操作を受け付ける。また表示装置1は、ユーザーの所定のジェスチャー操作を含む入力操作を検出する。また表示装置1は、ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンP1を第1表示形態で表示画面13Aに表示させ、ユーザーの第2ジェスチャー操作を検出した場合に、入力操作用アイコンP1を第2表示形態で表示画面13Aに表示させる。また表示装置1は、前記第1ジェスチャー操作を検出した場合に、入力操作用アイコンP1を前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に、入力操作用アイコンP1により選択対象を選択させる選択操作を受け付ける。また表示装置1は、ユーザーの第3ジェスチャー操作を検出した場合に、入力操作用アイコンP1の表示形態を変更する。例えば、入力操作用アイコンP1の表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる。また表示装置1は、前記第3ジェスチャー操作と前記第1ジェスチャー操作及び前記第2ジェスチャー操作との近似度を算出し、算出した前記近似度に基づいて入力操作用アイコンP1の表示形態を変更する。
具体的には、表示装置1は、ユーザーの手を開く操作(第1ジェスチャー操作)を検出すると、入力操作用アイコンP1を大きく表示するとともに入力操作用アイコンP1をユーザーの手の移動に追従させて移動させ、ユーザーの手を閉じる操作(第2ジェスチャー操作)を検出すると、入力操作用アイコンP1を小さく表示するとともに入力操作用アイコンP1による選択操作を行なう。また、表示装置1は、ユーザーの手を開いた状態から閉じた状態までの間の状態(第3ジェスチャー操作)を検出すると、入力操作用アイコンP1をユーザーの手の握り度合いGn(前記近似度)に応じた大きさで表示するとともに入力操作用アイコンP1をユーザーの手の移動に追従させて移動させる。
この構成によれば、ユーザーは自身のジェスチャー操作が前記第1ジェスチャー操作に対応する形(手を開いた形)から前記第2ジェスチャー操作(選択操作)に対応する形(手を握った形)に近付いていることを認識することができる。これにより、ユーザーは、再度前記第1ジェスチャー操作に対応する形に戻すことができるため、ユーザーの意図しない操作による誤入力を防止することができる。
[仮想操作面設定方法]
操作面設定部111は、ユーザーの所定の設定用ジェスチャー操作に基づいて所望の大きさの仮想操作面R2を所望の位置に設定してもよい。
具体的には、操作面設定部111は、ユーザーの設定用ジェスチャー操作を検出する。具体的には、操作面設定部111は、モーションセンサ15から取得する検知情報に基づいて、前記設定用ジェスチャー操作を検出する。例えば、操作面設定部111は、前記検知情報に含まれる座標情報に基づいてユーザーの手の形状を特定して、記憶部12に予め登録された複数のジェスチャー操作のうち該当するジェスチャー操作を特定する。
操作面設定部111は、ユーザーの所定の第1設定用ジェスチャー操作を検出した場合に、当該第1設定用ジェスチャー操作に応じた領域を表示画面13Aに対するユーザーの入力操作を受け付ける仮想操作面R2として設定する。なお、操作面設定部111は、前記第1設定用ジェスチャー操作が所定時間継続して行われた場合に仮想操作面R2を設定してもよい。前記第1設定用ジェスチャー操作は、例えば左手LH及び右手RHのそれぞれの掌を表示画面13Aに向けて翳す操作である。すなわち、前記第1設定用ジェスチャー操作は、ユーザーが仮想操作面R2を設定するための設定操作である。
例えば図9に示すように、ユーザーが左手LHの掌を左上の任意の位置で表示画面13Aに翳し、右手RHの掌を右下の任意の位置で表示画面13Aに翳すと、操作面設定部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標Ph1と、右手RHの座標Ph2と、左手LH及び右手RHを翳す第1設定用ジェスチャー操作とを検出する。操作面設定部111は、第1設定用ジェスチャー操作を検出すると、左手LHの座標Ph1と右手RHの座標Ph2とに基づいて仮想操作面R2を設定する。
例えば図9に示すように、操作面設定部111は、左手LHの位置(座標Ph1)と右手RHの位置(座標Ph2)とを結ぶ線を対角線とする矩形の仮想操作面R2を設定する。具体的には、操作面設定部111は、左手LHの座標Ph1及び右手RHの座標Ph2に基づいて矩形の角部の座標C21~C24(図2参照)を算出して仮想操作面R2を設定する。
また、例えば、操作面設定部111は、表示画面13Aから所定距離L1だけ離れた位置に仮想操作面R2を設定する。なお、所定距離L1は、左手LHの座標Ph1(Z座標)及び右手RHの座標Ph2(Z座標)に対応する距離である。
また、例えば、操作面設定部111は、縦横比が表示画面13Aの縦横比と同一比率の仮想操作面R2を設定してもよい。具体的には、図10に示すように、操作面設定部111は、表示画面13Aの縦横比(H1:W1)と仮想操作面R2の縦横比(H2:W2)とが同一(H1:W1=H2:W2)となる仮想操作面R2を設定する。
このように、表示画面13A(操作領域R1)の大きさと仮想操作面R2の大きさは、同一であってもよいし異なってもよい。ここで、仮想操作面R2が操作領域R1よりも小さい場合は、大型の表示パネル13をユーザーの手元で操作する用途に好適である。これに対して、仮想操作面R2が操作領域R1よりも大きい場合は、小型の表示パネル13を離れた位置で操作する用途に好適である。
また、図11に示すように、操作面設定部111は、表示画面13Aに対して平行でない所定角度d1を有する仮想操作面R2を設定してもよい。すなわち、仮想操作面R2は、表示画面13Aに対して斜め方向に設定されてもよい。例えば、操作面設定部111は、左手LHの座標Ph1(Z座標)と、右手RHの座標Ph2(Z座標)とに基づいて所定角度d1を設定する。これにより、ユーザーは表示画面13Aに対して斜め方向から入力操作を行うことが可能になる。なお、操作面設定部111は、所定角度d1の情報を表示画面13Aに表示させてもよい。これにより、ユーザーは表示画面13Aに対する仮想操作面R2の角度(傾き度合い)を把握することができる。
また、操作面設定部111は、表示画面13Aの一部の領域に対応する仮想操作面R2を設定してもよい。例えば図12に示すように、操作面設定部111は、表示画面13Aの一部(左側領域)の操作領域R1に対応する仮想操作面R2を設定する。操作領域R1の位置及び大きさは、ユーザーの設定操作により設定することが可能である。なお、仮想操作面R2を設定するユーザーが操作領域R1を把握し易いように、操作面設定部111は、仮想操作面R2を設定する際に、図13に示すように、操作領域R1を示すオブジェクト画像T1を表示画面13Aに表示させてもよい。
なお、操作面設定部111は、周知の座標変換(射影変換、アフィン変換など)を利用して、第1設定用ジェスチャー操作に対応する座標に基づいて表示画面13Aの操作領域R1に関連付けられた仮想操作面R2を設定することができる。
また、操作面設定部111は、設定した仮想操作面R2を調整する処理を実行してもよい。具体的には、操作面設定部111は、仮想操作面R2が設定された後にユーザーの所定の第2設定用ジェスチャー操作を検出した場合に、第2設定用ジェスチャー操作に基づいて仮想操作面R2の大きさ及び位置の少なくともいずれかを変更する。前記第2設定用ジェスチャー操作は、例えば右手RHによる指差し操作(図14参照)である。
例えば図14に示すように、仮想操作面R2が設定された後にユーザーが右手RHで表示画面13Aを指差し操作した場合に、操作面設定部111は、モーションセンサ15から取得する検知情報に基づいて、右手RHの座標Ph3と、右手RHによる指差し操作の第2設定用ジェスチャー操作とを検出する。操作面設定部111は、前記第2設定用ジェスチャー操作を検出すると、右手RHの座標Ph3に基づいて仮想操作面R2を移動可能に設定し、ユーザーによる仮想操作面R2の移動操作を受け付ける。例えばユーザーが右手RHを指差しの状態のまま左方向に動かすと、操作面設定部111は、仮想操作面R2を右手RHの移動量に応じた分だけ左方向に移動させる。すなわち、操作面設定部111は、移動後の右手RHの座標Ph3に仮想操作面R2を設定する。
また、例えば図15に示すように、仮想操作面R2が設定された後にユーザーが左手LHを翳したまま右手RHの拳を握る操作をした場合に、操作面設定部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標Ph1と、右手RHの座標Ph2と、左手LHを翳し右手RHを握る第2設定用ジェスチャー操作とを検出する。操作面設定部111は、前記第2設定用ジェスチャー操作を検出すると、右手RHの座標Ph2に基づいて仮想操作面R2の大きさを変更可能に設定し、ユーザーによる仮想操作面R2の大きさの変更操作を受け付ける。例えばユーザーが右手RHを拳を握ったまま右下方向に動かすと、操作面設定部111は、仮想操作面R2を右手RHの移動量に応じた分だけ大きさ(面積)を拡大する。すなわち、操作面設定部111は、左手LHの座標Ph1と移動後の右手RHの座標Ph2により規定される仮想操作面R2を設定する。
図16に示す例では、仮想操作面R2が設定された後にユーザーが右手RHを翳したまま左手LHの拳を握る操作をした場合の例を示している。この場合、操作面設定部111は、モーションセンサ15から取得する検知情報に基づいて、左手LHの座標Ph1と、右手RHの座標Ph2と、右手RHを翳し左手LHを握る第2設定用ジェスチャー操作とを検出する。操作面設定部111は、前記第2設定用ジェスチャー操作を検出すると、左手LHの座標Ph1に基づいて仮想操作面R2の大きさを変更可能に設定し、ユーザーによる仮想操作面R2の大きさの変更操作を受け付ける。例えばユーザーが左手LHを拳を握ったまま右下方向に動かすと、操作面設定部111は、仮想操作面R2を左手LHの移動量に応じた分だけ大きさ(面積)を縮小する。すなわち、操作面設定部111は、右手RHの座標Ph2と移動後の左手LHの座標Ph1により規定される仮想操作面R2を設定する。
なお、操作面設定部111は、仮想操作面R2が設定された後に前記第2設定用ジェスチャー操作を検出した場合に、仮想操作面R2を示すオブジェクト画像T2を前記第2設定用ジェスチャー操作に応じて表示画面13Aに表示させてもよい。図17には、大きさが変更された後の仮想操作面R2を示すオブジェクト画像T2の一例を示している。この構成によれば、ユーザーは、仮想操作面R2の変更後の大きさ、位置などを視覚的に把握することが可能になる。
なお、本発明の表示装置は、各請求項に記載された発明の範囲において、以上に示された各実施形態を自由に組み合わせること、或いは各実施形態を適宜、変形又は一部を省略することによって構成されることも可能である。
1 :表示装置
11 :制御部
12 :記憶部
13 :表示パネル
13A :表示画面
14 :操作部
15 :モーションセンサ
111 :操作面設定部
112 :入力操作検出部
113 :表示処理部
114 :受付処理部
115 :入力処理部
116 :算出処理部
117 :変更処理部
P1 :入力操作用アイコン
R1 :操作領域
R2 :仮想操作面

Claims (11)

  1. 表示画面に対するユーザーの非接触による入力操作を受け付ける表示装置であって、
    前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出部と、
    前記入力操作検出部が前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記入力操作検出部が前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示処理部と、
    前記入力操作検出部が前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記入力操作検出部が前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付処理部と、
    前記入力操作検出部が前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更処理部と、
    を備える表示装置。
  2. 前記変更処理部は、前記入力操作用アイコンの大きさを前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる、
    請求項1に記載の表示装置。
  3. 前記変更処理部は、前記入力操作用アイコンの色を前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる、
    請求項1又は請求項2に記載の表示装置。
  4. 前記変更処理部は、前記入力操作用アイコンの形状を前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる、
    請求項1から請求項3のいずれか1項に記載の表示装置。
  5. 前記受付処理部は、前記第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第3ジェスチャー操作に応じて移動させる移動操作を受け付ける、
    請求項1から請求項4のいずれか1項に記載の表示装置。
  6. 前記受付処理部が前記移動操作及び前記選択操作を受け付けた場合に、前記表示画面に対する前記ユーザーの前記入力操作に応じた入力処理を実行する入力処理部をさらに備える、
    請求項1から請求項5のいずれか1項に記載の表示装置。
  7. 前記入力操作検出部が前記ユーザーの前記第3ジェスチャー操作を検出した場合に、前記第3ジェスチャー操作と前記第1ジェスチャー操作及び前記第2ジェスチャー操作との近似度を算出する算出処理部をさらに備え、
    前記変更処理部は、前記算出処理部により算出される前記近似度に基づいて、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる、
    請求項1から請求項6のいずれか1項に記載の表示装置。
  8. 前記入力操作検出部は、前記ユーザーの手指の骨格、角度、及び位置の少なくともいずれかの手指情報に基づいて、前記第1ジェスチャー操作、前記第2ジェスチャー操作、及び前記第3ジェスチャー操作を検出し、
    前記算出処理部は、前記手指情報に基づいて前記近似度を算出する、
    請求項7に記載の表示装置。
  9. 前記第1ジェスチャー操作は、前記ユーザーの手を開く操作であり、
    前記第2ジェスチャー操作は、前記ユーザーの手を握る操作であり、
    前記近似度は、前記ユーザーの手の握り度合いを示す指標である、
    請求項7又は請求項8に記載の表示装置。
  10. 表示画面に対するユーザーの非接触による入力操作を受け付ける表示方法であって、
    一又は複数のプロセッサーが、
    前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出ステップと、
    前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示ステップと、
    前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付ステップと、
    前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更ステップと、
    を実行する表示方法。
  11. 表示画面に対するユーザーの非接触による入力操作を受け付ける表示プログラムであって、
    前記ユーザーの所定のジェスチャー操作を含む入力操作を検出する入力操作検出ステップと、
    前記ユーザーの第1ジェスチャー操作を検出した場合に、入力操作用アイコンを第1表示形態で前記表示画面に表示させ、前記ユーザーの第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンを第2表示形態で前記表示画面に表示させる表示ステップと、
    前記第1ジェスチャー操作を検出した場合に、前記入力操作用アイコンを前記第1ジェスチャー操作に応じて移動させる移動操作を受け付け、前記第2ジェスチャー操作を検出した場合に、前記入力操作用アイコンにより選択対象を選択させる選択操作を受け付ける受付ステップと、
    前記ユーザーの第3ジェスチャー操作を検出した場合に、前記入力操作用アイコンの表示形態を、前記第1表示形態及び前記第2表示形態の間で段階的又は連続的に変化させる変更ステップと、
    を一又は複数のプロセッサーに実行させるための表示プログラム。
JP2021019996A 2021-02-10 2021-02-10 表示装置、表示方法、及び表示プログラム Pending JP2022122637A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021019996A JP2022122637A (ja) 2021-02-10 2021-02-10 表示装置、表示方法、及び表示プログラム
US17/586,279 US11635822B2 (en) 2021-02-10 2022-01-27 Display device, display method, and recording medium having display program recorded therein
CN202210115046.2A CN114942721A (zh) 2021-02-10 2022-01-28 显示装置、显示方法及记录有显示程序的记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021019996A JP2022122637A (ja) 2021-02-10 2021-02-10 表示装置、表示方法、及び表示プログラム

Publications (1)

Publication Number Publication Date
JP2022122637A true JP2022122637A (ja) 2022-08-23

Family

ID=82704954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021019996A Pending JP2022122637A (ja) 2021-02-10 2021-02-10 表示装置、表示方法、及び表示プログラム

Country Status (3)

Country Link
US (1) US11635822B2 (ja)
JP (1) JP2022122637A (ja)
CN (1) CN114942721A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117111727A (zh) * 2023-02-22 2023-11-24 荣耀终端有限公司 手方向的检测方法、电子设备及可读介质

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6266057B1 (en) * 1995-07-05 2001-07-24 Hitachi, Ltd. Information processing system
JP3777650B2 (ja) 1995-04-28 2006-05-24 松下電器産業株式会社 インターフェイス装置
JP4569613B2 (ja) * 2007-09-19 2010-10-27 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
EP2201761B1 (en) * 2007-09-24 2013-11-20 Qualcomm Incorporated Enhanced interface for voice and video communications
US8555207B2 (en) * 2008-02-27 2013-10-08 Qualcomm Incorporated Enhanced input using recognized gestures
JP5738494B2 (ja) * 2012-10-16 2015-06-24 三菱電機株式会社 情報表示装置および表示情報操作方法
KR20130088104A (ko) * 2013-04-09 2013-08-07 삼성전자주식회사 비접촉 방식의 인터페이스를 제공하기 위한 휴대 장치 및 방법
CN105653146A (zh) * 2014-11-14 2016-06-08 阿里巴巴集团控股有限公司 一种触屏终端对象保护方法及装置
US10248308B2 (en) * 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10775998B2 (en) * 2017-01-04 2020-09-15 Kyocera Corporation Electronic device and control method
JP2024507749A (ja) * 2021-02-08 2024-02-21 サイトフル コンピューターズ リミテッド エクステンデッドリアリティにおけるコンテンツ共有

Also Published As

Publication number Publication date
US20220253147A1 (en) 2022-08-11
US11635822B2 (en) 2023-04-25
CN114942721A (zh) 2022-08-26

Similar Documents

Publication Publication Date Title
US9996176B2 (en) Multi-touch uses, gestures, and implementation
US20180059928A1 (en) Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US9348458B2 (en) Gestures for touch sensitive input devices
EP1774429B1 (en) Gestures for touch sensitive input devices
US20130069991A1 (en) Organizational tools on a multi-touch display device
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
CN103823550A (zh) 虚拟触控方法
US8462113B2 (en) Method for executing mouse function of electronic device and electronic device thereof
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
US10073612B1 (en) Fixed cursor input interface for a computer aided design application executing on a touch screen device
JP2022122637A (ja) 表示装置、表示方法、及び表示プログラム
US11543918B1 (en) Input apparatus, input method, and recording medium recording input program
US20220197396A1 (en) Display device, display method, and recording medium recording display program
US20220197498A1 (en) Display device, display method, and recording medium recording display program
TWI780663B (zh) 互動式觸控系統的操作判斷方法
JP2022096250A (ja) 表示装置、表示方法、及び表示プログラム
WO2014166044A1 (en) Method and device for user input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240626