JP2023118228A - 表示方法および表示装置 - Google Patents

表示方法および表示装置 Download PDF

Info

Publication number
JP2023118228A
JP2023118228A JP2022021067A JP2022021067A JP2023118228A JP 2023118228 A JP2023118228 A JP 2023118228A JP 2022021067 A JP2022021067 A JP 2022021067A JP 2022021067 A JP2022021067 A JP 2022021067A JP 2023118228 A JP2023118228 A JP 2023118228A
Authority
JP
Japan
Prior art keywords
image
item
operation image
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022021067A
Other languages
English (en)
Inventor
香澄 井上
Kasumi Inoue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2022021067A priority Critical patent/JP2023118228A/ja
Priority to US18/169,382 priority patent/US20230260079A1/en
Publication of JP2023118228A publication Critical patent/JP2023118228A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/20Linear translation of whole images or parts thereof, e.g. panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】操作画像に対する指示操作の操作性を改善する。【解決手段】指示体を検出することと、複数の項目画像を含む操作画像を表示することと、を含み、指示体が右手を含む場合、操作画像において、複数の項目画像は、第1の態様で配置され、指示体が左手を含む場合、操作画像において、複数の項目画像は、第2の態様で配置される、ことを特徴とする表示方法。【選択図】図12

Description

本発明は、表示方法および表示装置に関する。
電子ペンや指等の指示体を用いて、ユーザーが操作を行ったり、表示画面に文字や絵を書き込んだりすること等が可能な、所謂インタラクティブ機能を搭載した表示装置が開発されている。例えば、特許文献1には、指示体の先端位置を検出することで、ユーザーからの指示操作を受け付けるインタラクティブプロジェクターが開示されている。
特開2016-186678号公報
表示画面に表示されたGUI(Graphical User Interface)は、指示体に右手が含まれる場合と、指示体に左手が含まれる場合とで共通であった。このため、GUIの操作性に改善の余地があった。
本発明に係る表示方法の一態様は、指示体を検出することと、複数の項目画像を含む操作画像を表示することと、を含み、検出された前記指示体が右手を含む場合、前記操作画像において、前記複数の項目画像は、第1の態様で配置され、検出された前記指示体が左手を含む場合、前記操作画像において、前記複数の項目画像は、第2の態様で配置される、ことを特徴とする。
本発明に係る表示装置の一態様は、指示体を検出する検出部と、複数の項目画像を含む操作画像を表示させる表示制御部と、を備え、検出された前記指示体が右手を含む場合、前記操作画像において、前記複数の項目画像は、第1の態様で配置され、検出された前記指示体が左手を含む場合、前記操作画像において、前記複数の項目画像は、第2の態様で配置される、ことを特徴とする。
第1実施形態に係るプロジェクター1の概要について説明するための模式図である。 操作画像GUの有する複数の領域について説明するための模式図である。 ユーザーが右手H1を用いて操作画像GU1を表示させる様子を図示した説明図である。 操作画像GU1について説明するための模式図である。 ユーザーが左手H2を用いて操作画像GU2を表示させる様子を図示した説明図である。 操作画像GU2について説明するための模式図である。 ユーザーが指示体H9を用いて操作画像GU3を表示させる様子を図示した説明図である。 操作画像GU3について説明するための模式図である。 ユーザーが右手H1を用いて操作画像GU1に対する指示操作を行う際の様子を図示した説明図である。 第1実施形態に係るプロジェクター1の構成を示すブロック図である。 第1実施形態に係る記憶部11の構成を示すブロック図である。 第1実施形態に係るプロジェクター1の動作について説明するためのフローチャートである。 操作画像GU1Aについて説明するための模式図である。 操作画像GU2Aについて説明するための模式図である。 第2実施形態に係るプロジェクター1Aの構成を示すブロック図である。 第2実施形態に係る記憶部11Aの構成を示すブロック図である。 第2実施形態に係るプロジェクター1Aの動作について説明するためのフローチャートである。 操作画像GU2mについて説明するための模式図である。 操作画像GR1について説明するための模式図である。 操作画像GR2について説明するための模式図である。
以下、添付図面を参照しながら、本発明に係る好適な実施形態を説明する。なお、図面において各部の寸法および縮尺は実際と異なる場合があり、理解を容易にするために模式的に示す部分もある。また、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られない。また、本明細書および特許請求の範囲において、数値範囲を「Φ~Ψ」(Φ、Ψはともに数値)を用いて表現する場合、その範囲は上限(Ψ)および下限(Φ)の数値を含むものである。また、上限(Ψ)および下限(Φ)の単位は同じである。
1.第1実施形態
第1実施形態では、GUIに対する指示操作を行う際のユーザーの手が、右手なのか左手なのかに応じて表示するGUIを変更するプロジェクターを例示して、本発明に係る表示方法および表示装置について説明する。
1.1.プロジェクターの概要
図1は、第1実施形態に係るプロジェクター1の概要について説明するための模式図である。本実施形態において、プロジェクター1は、壁面W1に対して、投射画像GPを表示するための投射光を投射する場合を想定する。投射画像GPは、プロジェクター1が表示面に対して投射光を投射することで表示される画像の総称である。本実施形態において、投射画像GPは、ユーザーがプロジェクター1に対する入力操作を行うための操作画像GUを含むことがある。操作画像GUは、複数の項目画像GCを含むGUIである。また、本実施形態において、操作画像GUは、長方形の輪郭を有する画像である。項目画像GCは、プロジェクター1が実行する処理に関する画像である。プロジェクター1のユーザーは、例えば、指示体である右手H1の指先H10で複数の項目画像GCのうちの一の項目画像GCに対する指示操作を行うことで、当該一の項目画像GCに対応する処理をプロジェクター1に実行させる。
なお、本実施形態において、プロジェクター1のユーザーは、壁面W1、より具体的には、壁面W1に表示された投射画像GPに正対している場合を想定する。また、本実施形態において、壁面W1は、X軸およびY軸と平行に設けられる場合を想定する。ここで、Y軸は、鉛直方向と平行な軸である場合を想定する。なお、Y軸と平行な方向のうち、鉛直方向を-Y方向、-Y方向と反対の方向を+Y方向と設定する。また、X軸は、Y軸と垂直な軸であって、壁面W1と平行な軸である場合を想定する。なお、X軸と平行な方向のうち、ユーザーから見て右側に向かう方向を+X方向、+X方向と反対の方向を-X方向と設定する。また、X軸およびY軸と垂直な軸を、Z軸と称する。Z軸は、壁面W1に対して垂直な軸である。なお、Z軸と平行な方向のうち、壁面W1からユーザーのほうに向かう方向を+Z方向、+Z方向と反対の方向を-Z方向と設定する。すなわち、ユーザーは、-Z方向を向くことで、壁面W1に表示された投射画像GPに正対している。また、投射画像GPは、X軸に対して平行な2つの辺と、Y軸に対して平行な2つの辺とを有する長方形として表示される場合を想定する。また、本実施形態において、+Y方向を「ユーザーから見て上方向」、-Y方向を「ユーザーから見て下方向」、+X方向を「ユーザーから見て右方向」、-X方向を「ユーザーから見て左方向」ということがある。また、異なる2か所の位置関係を説明する際に、一方が他方よりも+Y方向に位置する場合、「一方は他方よりも、ユーザーから見て上側に位置する」ということがある。同様に、一方が他方よりも-X方向に位置する場合、「一方は他方よりも、ユーザーから見て左側に位置する」ということがある。
1.2.操作画像の特徴および表示方法
図2は、操作画像GUの有する複数の領域について説明するための模式図である。本実施形態において、操作画像GUは、領域R11、領域R12、領域R13、領域R21、領域R22、領域R23、領域R31、領域R32および領域R33を有する。なお、便宜上、領域R11、領域R12、領域R13、領域R21、領域R22、領域R23、領域R31、領域R32および領域R33は、いずれも同様の寸法および面積を有する領域である場合を想定する。
領域R21、領域R22および領域R23は、領域R11、領域R12および領域R13よりも+Y方向に設定される。換言すれば、領域R21、領域R22および領域R23は、領域R11、領域R12および領域R13よりも、ユーザーから見て上側に位置する。
また、領域R31、領域R32および領域R33は、領域R21、領域R22および領域R23よりも+Y方向に設定される。換言すれば、領域R31、領域R32および領域R33は、領域R21、領域R22および領域R23よりも、ユーザーから見て上側に位置する。また、領域R31、領域R32および領域R33は、領域R11、領域R12および領域R13よりも、ユーザーから見て上側に位置する。
領域R12、領域R22および領域R32は、領域R11、領域R21および領域R31よりも+X方向に設定される。換言すれば、領域R11、領域R21および領域R31は、領域R12、領域R22および領域R32よりも、ユーザーから見て左側に位置する。
また、領域R13、領域R23および領域R33は、領域R12、領域R22および領域R32よりも+X方向に設定される。換言すれば、領域R12、領域R22および領域R32は、領域R13、領域R23および領域R33よりも、ユーザーから見て左側に位置する。また、領域R11、領域R21および領域R31は、領域R13、領域R23および領域R33よりも、ユーザーから見て左側に位置する。
以下、図3および図4を参照しつつ、ユーザーが右手H1を用いてプロジェクター1に対する入力操作を行う際に表示される操作画像GU1について説明する。
図3は、ユーザーが右手H1を用いて操作画像GU1を表示させる様子を図示した説明図である。図3において、プロジェクター1は、壁面W1に投射画像GP0を表示している。投射画像GP0は、操作画像GUを含まない画像である。ユーザーは、投射画像GP0が表示される領域の近傍に、指示体である右手H1を近づけることで、プロジェクター1に右手H1を検出させる。
図4は、操作画像GU1について説明するための模式図である。プロジェクター1は、右手H1を検出した場合、壁面W1に投射画像GP1を表示する。投射画像GP1は、操作画像GU1を含む画像である。操作画像GU1は、項目画像GC1~GC9を含むGUIである。
項目画像GC1は、例えば、描画ツール呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC1は、領域R21に配置される。
項目画像GC2は、例えば、消しゴムツール呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC2は、領域R31に配置される。
項目画像GC3は、例えば、移動ツール呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC3は、領域R32に配置される。
項目画像GC4は、例えば、やり直し処理に関する項目画像である。操作画像GU1において、項目画像GC4は、領域R33に配置される。
項目画像GC5は、例えば、画面拡大ツール呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC5は、領域R22に配置される。
項目画像GC6は、例えば、保存処理に関する項目画像である。操作画像GU1において、項目画像GC6は、領域R11に配置される。
項目画像GC7は、例えば、画面キャプチャ処理に関する項目画像である。操作画像GU1において、項目画像GC7は、領域R23に配置される。
項目画像GC8は、例えば、設定画面呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC8は、領域R12に配置される。
項目画像GC9は、例えば、切り取りツール呼び出し処理に関する項目画像である。操作画像GU1において、項目画像GC9は、領域R13に配置される。
すなわち、操作画像GU1において、領域R31に配置される項目画像GC2は、領域R33に配置される項目画像GC4よりも、ユーザーから見て左側に配置される。
また、領域R21に配置される項目画像GC1は、領域R23に配置される項目画像GC7よりも、ユーザーから見て左側に配置される。
なお、本実施形態において、消しゴムツール呼び出し処理は、やり直し処理よりも、実行される頻度が高い処理である場合を想定する。
また、描画ツール呼び出し処理は、消しゴムツール呼び出し処理よりも、実行される頻度が高い処理である場合を想定する。
また、描画ツール呼び出し処理は、画面キャプチャ処理よりも、実行される頻度が高い処理である場合を想定する。
以下、図5および図6を参照しつつ、ユーザーが左手H2を用いてプロジェクター1に対する入力操作を行う際に表示される操作画像GU2について説明する。
図5は、ユーザーが左手H2を用いて操作画像GU2を表示させる様子を図示した説明図である。図5において、プロジェクター1は、壁面W1に投射画像GP0を表示している。投射画像GP0は、前述の通り、操作画像GUを含まない画像である。ユーザーは、投射画像GP0が表示される領域の近傍に、指示体である左手H2を近づけることで、プロジェクター1に左手H2を検出させる。
図6は、操作画像GU2について説明するための模式図である。プロジェクター1は、左手H2を検出した場合、壁面W1に投射画像GP2を表示する。投射画像GP2は、操作画像GU2を含む画像である。操作画像GU2は、操作画像GU1と同様、項目画像GC1~GC9を含むGUIである。
操作画像GU2において、項目画像GC1は、領域R23に配置される。
また、操作画像GU2において、項目画像GC2は、領域R33に配置される。
また、操作画像GU2において、項目画像GC3は、領域R32に配置される。
また、操作画像GU2において、項目画像GC4は、領域R31に配置される。
また、操作画像GU2において、項目画像GC5は、領域R22に配置される。
また、操作画像GU2において、項目画像GC6は、領域R13に配置される。
また、操作画像GU2において、項目画像GC7は、領域R21に配置される。
また、操作画像GU2において、項目画像GC8は、領域R12に配置される。
また、操作画像GU2において、項目画像GC9は、領域R11に配置される。
すなわち、操作画像GU2において、領域R33に配置される項目画像GC2は、領域R31に配置される項目画像GC4よりも、ユーザーから見て右側に配置される。
また、領域R23に配置される項目画像GC1は、領域R21に配置される項目画像GC7よりも、ユーザーから見て右側に配置される。
以下、図7および図8を参照しつつ、ユーザーが指示体H9を用いてプロジェクター1に対する入力操作を行う際に表示される操作画像GU3について説明する。
図7は、ユーザーが指示体H9を用いて操作画像GU3を表示させる様子を図示した説明図である。図7において、プロジェクター1は、壁面W1に投射画像GP0を表示している。投射画像GP0は、前述の通り、操作画像GUを含まない画像である。ユーザーは、投射画像GP0が表示される領域の近傍に、指示体H9を近づけることで、プロジェクター1に指示体H9を検出させる。
図8は、操作画像GU3について説明するための模式図である。プロジェクター1は、指示体H9を検出した場合、壁面W1に投射画像GP3を表示する。投射画像GP3は、操作画像GU3を含む画像である。操作画像GU3は、操作画像GU1および操作画像GU2と同様、項目画像GC1~GC9を含むGUIである。
指示体H9は、例えば、ユーザーの手が壁面W1に届かない位置から、操作画像GUに対する指示操作を行う際に用いられる指示棒である。ユーザーが、投射画像GP0が表示される領域の近傍に指示体H9を近づけた際、プロジェクター1は、指示体H9を、右手H1および左手H2のいずれも含まない指示体として検出する。換言すれば、ユーザーが指示体として右手H1または左手H2を用いる場合であっても、プロジェクター1が、右手H1および左手H2のいずれも含まないものとして指示体を検出した場合は、壁面W1に操作画像GU3が表示される。
操作画像GU3において、項目画像GC1は、領域R31に配置される。
また、操作画像GU3において、項目画像GC2は、領域R21に配置される。
また、操作画像GU3において、項目画像GC3は、領域R32に配置される。
また、操作画像GU3において、項目画像GC4は、領域R23に配置される。
また、操作画像GU3において、項目画像GC5は、領域R22に配置される。
また、操作画像GU3において、項目画像GC6は、領域R33に配置される。
また、操作画像GU3において、項目画像GC7は、領域R11に配置される。
また、操作画像GU3において、項目画像GC8は、領域R12に配置される。
また、操作画像GU3において、項目画像GC9は、領域R13に配置される。
すなわち、操作画像GU3において、領域R31に配置される項目画像GC1は、領域R21に配置される項目画像GC2よりも、ユーザーから見て上側に配置される。
また、領域R31に配置される項目画像GC1は、領域R11に配置される項目画像GC7よりも、ユーザーから見て上側に配置される。
図9は、ユーザーが右手H1を用いて操作画像GU1に対する指示操作を行う際の様子を図示した説明図である。ユーザーは、操作画像GU1に含まれる複数の項目画像GCのうちの一の項目画像GCを選択し、右手H1の指先H10を用いて、当該一の項目画像GCに対する指示操作を行うことで、当該一の項目画像GCに対応する処理をプロジェクター1に実行させる。この時、プロジェクター1は、指示体の指示位置として、右手H1の指先H10が指し示す指示位置を検出する。検出された指示位置は、複数の項目画像GCのうちの一の項目画像GCが表示される領域内であるため、プロジェクター1は、当該一の項目画像GCに対応する処理を実行する。例えば、ユーザーが右手H1の指先H10を用いて項目画像GC3を指示した場合、プロジェクター1は、右手H1の指先H10が指し示す指示位置のXY座標が領域R32内であることを検出する。そして、プロジェクター1は、領域R32に表示された項目画像GC3に対応する、移動ツール呼び出し処理を実行する。
ユーザーが操作画像GUに対する指示操作を行う際に、操作画像GUに含まれる複数の項目画像GCのうちの一部が、ユーザーから見て指示体の陰に隠れることがある。例えば、図9に示す操作画像GU1において、領域R23に配置された項目画像GC7は、右手H1の陰に隠れている様子が図示される。このため、ユーザーは、右手H1の陰に隠れている項目画像GC7を容易に視認することができず、項目画像GC7の位置を把握するのに時間を要する場合がある。
他方、図9より、領域R21に配置された項目画像GC1は、右手H1の陰に隠れていないことがわかる。一般的に、投射画像GPは、ユーザーの顔と同程度の高さ、または、顔よりも上側に表示される。投射画像GP1の表示位置がユーザーの顔と同程度の高さまたは顔よりも上側である場合、ユーザーが右手H1を用いて操作画像GU1に対する指示操作を行う際に、右手H1は、ユーザーから見て右下方向から左上方向に向かって伸びる。領域R21は領域R23よりも左側に位置することから、領域R21に配置された項目画像GC1は、領域R23に配置された項目画像GC7よりも、右手H1の陰に隠れにくくなる。すなわち、操作画像GU1において、画面キャプチャ処理よりも実行される頻度が高い描画ツール呼び出し処理に関する項目画像GC1は、画面キャプチャ処理に関する項目画像GC7よりも左側に表示されることから、ユーザーは、高頻度で指示する項目画像GC1の位置を容易に把握することができる。同様に、やり直し処理よりも実行される頻度が高い消しゴムツール呼び出し処理に関する項目画像GC2は、やり直し処理に関する項目画像GC4よりも左側に表示されることから、ユーザーは、高頻度で指示する項目画像GC2の位置を容易に把握することができる。
また、投射画像GP2の表示位置がユーザーの顔と同程度の高さまたは顔よりも上側である場合、ユーザーが左手H2を用いて操作画像GU2に対する指示操作を行う際に、左手H2は、ユーザーから見て左下方向から右上方向に向かって伸びる。領域R23は領域R21よりも右側に位置することから、領域R23に配置された項目画像GC1は、領域R21に配置された項目画像GC7よりも、左手H2の陰に隠れにくくなる。すなわち、操作画像GU2において、画面キャプチャ処理よりも実行される頻度が高い描画ツール呼び出し処理に関する項目画像GC1は、画面キャプチャ処理に関する項目画像GC7よりも右側に表示されることから、ユーザーは、高頻度で指示する項目画像GC1の位置を容易に把握することができる。同様に、やり直し処理よりも実行される頻度が高い消しゴムツール呼び出し処理に関する項目画像GC2は、やり直し処理に関する項目画像GC4よりも右側に表示されることから、ユーザーは、高頻度で指示する項目画像GC2の位置を容易に把握することができる。
また、投射画像GP3の表示位置がユーザーの顔と同程度の高さまたは顔よりも上側である場合、ユーザーが指示体H9を用いて操作画像GU3に対する指示操作を行う際に、指示体H9は、一般的に、ユーザーから見て下方向から上方向に向かって伸びると考えられる。領域R31は領域R11よりも上側に位置することから、領域R31に配置された項目画像GC1は、領域R11に配置された項目画像GC7よりも、指示体H9の陰に隠れにくくなる。すなわち、操作画像GU3において、画面キャプチャ処理よりも実行される頻度が高い描画ツール呼び出し処理に関する項目画像GC1は、画面キャプチャ処理に関する項目画像GC7よりも上側に表示されることから、ユーザーは、高頻度で指示する項目画像GC1の位置を容易に把握することができる。同様に、消しゴムツール呼び出し処理よりも実行される頻度が高い描画ツール呼び出し処理に関する項目画像GC1は、消しゴムツール呼び出し処理に関する項目画像GC2よりも上側に表示されることから、ユーザーは、高頻度で指示する項目画像GC1の位置を容易に把握することができる。
1.3.プロジェクターの構成および機能
以下、図10および図11を参照しつつ、第1実施形態に係るプロジェクター1の構成および機能について説明する。
図10は、第1実施形態に係るプロジェクター1の構成を示すブロック図である。プロジェクター1は、各種情報を記憶する記憶部11と、プロジェクター1の動作を制御する制御部12と、指示体を検出するための撮像を行う撮像部13と、プロジェクター1のユーザーからの入力操作を受け付ける操作部14と、投射光を投射することで表示面上に画像を表示する投射部15とを備える。制御部12は、検出部120、投射制御部124および処理部125としての機能を有する。また、検出部120は、指示体検出部121、指示位置検出部122および撮像制御部123としての機能を有する。
記憶部11は、例えば、RAM等の揮発性メモリーおよびROM等の不揮発性メモリーを含んで構成される。ここで、RAMとは、Random Access Memoryの略称である。また、ROMとは、Read Only Memoryの略称である。
図11は、第1実施形態に係る記憶部11の構成を示すブロック図である。記憶部11の有する不揮発性メモリーは、プロジェクター1の動作を規定するプログラム110と、操作画像GUを表す操作画像情報112と、指示体の検出に用いられる撮像情報116とを記憶する。本実施形態において、操作画像情報112は、第1操作画像情報113と、第2操作画像情報114と、第3操作画像情報115とを含む。第1操作画像情報113は、操作画像GU1を表す情報である。第2操作画像情報114は、操作画像GU2を表す情報である。第3操作画像情報115は、操作画像GU3を表す情報である。また、撮像情報116は、第1撮像情報117と、第2撮像情報118とを含む。
操作画像情報112は、例えば、操作部14がユーザーからの編集操作を受け付けることで、任意に変更され得る。すなわち、ユーザーは、操作画像情報112を編集することで、操作画像GUに含まれる項目画像GCの配置、色およびサイズ等を、任意に変更することができる。
また、記憶部11の有する揮発性メモリーは、プログラム110を実行する際のワークエリアとして制御部12によって利用される。
なお、記憶部11の一部または全部は、外部記憶装置または外部サーバー等に設けてもよい。また、記憶部11に記憶される各種情報の一部または全部は、予め記憶部11に記憶されるものであってもよいし、外部記憶装置または外部サーバー等から取得されるものであってもよい。
制御部12は、1または複数のCPUを含んで構成される。但し、制御部12は、CPUの代わりに、または、CPUに加えて、FPGA等のプログラマブルロジックデバイスを備えるものでもよい。ここで、CPUとはCentral Processing Unitの略称であり、FPGAとはField-Programmable Gate Arrayの略称である。
制御部12は、制御部12が有するCPU等がプログラム110を実行し、プログラム110に従って動作することで、図10に示す検出部120、投射制御部124および処理部125として機能する。検出部120は、具体的には、指示体検出部121、指示位置検出部122および撮像制御部123として機能する。
検出部120は、指示体を検出する。また、検出部120は、指示体の種類を検出する。加えて、検出部120は、指示体の指示位置を検出する。なお、「指示体の種類を検出する」とは、例えば、指示体が右手H1を含むか、左手H2を含むか、または、右手H1および左手H2のいずれも含まないかを特定することである。また、「指示体の指示位置を検出する」とは、例えば、指示体と壁面W1とが接触している箇所のXY座標を特定することである。
撮像制御部123は、撮像部13を制御することで、投射画像GPが表示された壁面W1上の領域と、当該壁面W1上の領域の近傍の空間とを含む範囲を撮像させる。そして、撮像制御部123は、撮像部13から、投射画像GPが表示された壁面W1上の領域および当該壁面W1上の領域の近傍の空間を含む範囲を撮像した撮像結果を表す撮像情報116を取得する。また、撮像制御部123は、取得した撮像情報116を記憶部11に記憶させる。本実施形態において、撮像制御部123は、撮像情報116として、第1撮像情報117と、第2撮像情報118とを取得する。そして、撮像制御部123は、取得した第1撮像情報117および第2撮像情報118を記憶部11に記憶させる。なお、第1撮像情報117および第2撮像情報118は、互いに異なるタイミングで取得される。また、投射画像GPが表示された壁面W1上の領域の近傍の空間とは、例えば、当該壁面W1上の領域から+Z方向に所定の距離だけ離れた範囲までを含む空間である。
指示体検出部121は、撮像情報116に基づいて、撮像情報116の示す撮像画像に指示体が含まれるか否かを判定する。また、指示体検出部121は、撮像情報116の示す撮像画像に指示体が含まれる場合、すなわち、指示体が検出された場合、撮像情報116に基づいて、当該指示体が右手H1を含むか、左手H2を含むか、または、右手H1および左手H2のいずれも含まないかを判定する。本実施形態において、指示体検出部121は、第1撮像情報117に基づいて、第1撮像情報117の示す撮像画像に指示体が含まれるか否かを判定する。また、指示体検出部121は、第1撮像情報117の示す撮像画像に指示体が含まれる場合、第1撮像情報117に基づいて、当該指示体が右手H1を含むか、左手H2を含むか、または、右手H1および左手H2のいずれも含まないかを判定する。
加えて、指示体検出部121は、撮像情報116の示す撮像画像に指示体が含まれる場合、撮像情報116に基づいて、当該指示体が壁面W1と接触しているか否かを判定する。本実施形態において、指示体検出部121は、第2撮像情報118の示す撮像画像に指示体が含まれる場合、第2撮像情報118に基づいて、当該指示体が壁面W1と接触しているか否かを判定する。
指示位置検出部122は、撮像情報116の示す撮像画像に含まれる指示体が壁面W1と接触している場合、撮像情報116に基づいて、当該指示体と壁面W1とが接触している箇所を特定する。本実施形態において、指示位置検出部122は、第2撮像情報118の示す撮像画像に含まれる指示体が壁面W1と接触している場合、第2撮像情報118に基づいて、当該指示体と壁面W1とが接触している箇所のXY座標を特定する。なお、「指示体が壁面W1と接触している箇所」とは、「指示体の指示位置」の一例であり、具体的には「右手H1の指先H10が壁面W1と接触している箇所」等が挙げられる。
検出部120の機能、すなわち、指示体の検出に係る機能において、例えば、複数のテンプレート画像を用いたテンプレートマッチングや、機械学習等の、公知の画像処理技術が用いられてもよい。本明細書において、指示体の検出に係る詳細な技術的説明は省略する。
投射制御部124は、投射部15を制御することで、表示面に対して、投射画像GPを表示するための投射光を投射させる。指示体検出部121が撮像情報116の示す撮像画像に右手H1が含まれると判定した場合、投射制御部124は、表示面に対して、投射画像GP1を表示するための投射光を投射させる。指示体検出部121が撮像情報116の示す撮像画像に左手H2が含まれると判定した場合、投射制御部124は、表示面に対して、投射画像GP2を表示するための投射光を投射させる。指示体検出部121が撮像情報116の示す撮像画像に右手H1および左手H2のいずれも含まれないと判定した場合、投射制御部124は、表示面に対して、投射画像GP3を表示するための投射光を投射させる。本実施形態において、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1を含む場合、投射制御部124は、壁面W1に対して、投射画像GP1を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第1操作画像情報113の示す操作画像GU1を表示させる。また、第1撮像情報117の示す撮像画像に含まれる指示体が左手H2を含む場合、投射制御部124は、壁面W1に対して、投射画像GP2を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第2操作画像情報114の示す操作画像GU2を表示させる。また、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1および左手H2のいずれも含まない場合、投射制御部124は、壁面W1に対して、投射画像GP3を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第3操作画像情報115の示す操作画像GU3を表示させる。
処理部125は、指示体と壁面W1とが接触している箇所のXY座標と、当該箇所に表示された項目画像GCに基づいて、各種処理を実行する。換言すれば、指示体の指示位置が、操作画像GUに含まれる複数の項目画像GCのうちの一の項目画像GCが表示される領域内である場合、処理部125は、当該一の項目画像GCに対応する処理を実行する。なお、指示体が壁面W1と接触している箇所に項目画像GCが表示されていない場合、処理部125は、例えば、操作画像GUの表示を終了する処理を実行してもよい。
撮像部13は、例えば、集光された光を電気信号に変換する撮像素子と、撮像レンズとを備えるカメラである。撮像素子は、例えば、CCDまたはCMOS等を一例とするイメージセンサーである。ここで、CCDとはCharge Coupled Deviceの略称であり、CMOSとはComplementary Metal Oxide Semiconductorの略称である。撮像レンズは、投射画像GPが表示された壁面W1上の領域と、当該壁面W1上の領域の近傍の空間とを含む範囲を撮像するように設けられる。撮像部13は、撮像制御部123の制御により、撮像画像を取得する。撮像画像は、撮像画像を表す撮像情報116として、制御部12へ出力される。
なお、本実施形態において、プロジェクター1は、撮像部13として、複数のカメラを備えることが好ましい。また、プロジェクター1の備える複数のカメラは、互いに異なる位置に設けられることが好ましい。また、撮像情報116は、異なる複数の位置から、投射画像GPが表示された壁面W1上の領域および当該壁面W1上の領域の近傍の空間を含むような範囲を撮像した撮像結果を表す情報であることが好ましい。これにより、三角測量によって3次元位置の算出の精度を向上させることが可能であり、指示体の指示位置をより正確に検出することができる。
操作部14は、プロジェクター1のユーザーから、プロジェクター1に対する入力操作を受け付ける。操作部14は、例えば、プロジェクター1の筐体に設けられた、タッチパネルまたは操作ボタン等である。操作部14がタッチパネルを含んで構成される場合、操作部14は、検出したタッチ位置を示すデータを制御部12へ出力する。また、操作部14が操作ボタンを含んで構成される場合、操作部14は、押下されたボタンを識別するデータを制御部12へ出力する。これにより、プロジェクター1に対する入力操作の内容が制御部12へ伝達される。
投射部15は、投射制御部124の制御により、表示面上に投射画像GPを表示するための投射光を投射する。本実施形態において、投射部15は、壁面W1上に投射画像GPを表示するための投射光を投射する。投射部15は、例えば、図示しない光源、光変調装置、投写レンズを備える。当該光変調装置は、例えば、液晶パネルやデジタルミラーデバイスを用いることができる。また、当該光源は、例えば、ハロゲンランプ、キセノンランプ、超高圧水銀ランプ、LEDまたはレーザー光源等を用いることができる。ここで、LEDとはLight Emitting Diodeの略称である。
1.4.プロジェクターの動作
図12は、第1実施形態に係るプロジェクター1の動作について説明するためのフローチャートである。当該フローチャートに示す一連の動作は、例えば、プロジェクター1の電源がONになり、操作部14がプロジェクター1のユーザーから動作開始に関する入力操作を受け付けた際に開始される。なお、本実施形態において、プロジェクター1は、電源がONになるのに合わせて、壁面W1に対して、投射画像GP0を表示するための投射光を投射する場合を想定する。
ステップS101において、撮像制御部123は、撮像部13を制御することで、投射画像GP0が表示された壁面W1上の領域と、当該壁面W1上の領域の近傍の空間とを含む範囲を撮像させる。そして、撮像制御部123は、撮像部13から、投射画像GP0が表示された壁面W1上の領域および当該壁面W1上の領域の近傍の空間を含む範囲を撮像した撮像結果を表す第1撮像情報117を取得する。また、撮像制御部123は、取得した第1撮像情報117を記憶部11に記憶させる。
ステップS102において、指示体検出部121は、第1撮像情報117に基づいて、第1撮像情報117の示す撮像画像に指示体が含まれるか否かを判定する。ステップS102における判定の結果が肯定の場合、すなわち、ステップS102でYESの場合、指示体検出部121は処理をステップS103へ進める。また、ステップS102における判定の結果が否定の場合、すなわち、ステップS102でNOの場合、指示体検出部121は処理をステップS101へ進める。
図12のフローチャートに示す一連の動作が開始されたら、ユーザーは、撮像部13の撮像範囲内に指示体を移動させることで、プロジェクター1に指示体を撮像させる。プロジェクター1は、指示体を撮像し、撮像画像を基に指示体を検出することで、処理をステップS103へ進めることができる。ユーザーがプロジェクター1に指示体を検出させるまで、プロジェクター1は、ステップS101およびステップS102における処理を繰り返し実行する。
ステップS103において、指示体検出部121は、第1撮像情報117に基づいて、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1を含むか否か判定する。ステップS103における判定の結果が肯定の場合、すなわち、ステップS103でYESの場合、指示体検出部121は処理をステップS105へ進める。また、ステップS103における判定の結果が否定の場合、すなわち、ステップS103でNOの場合、指示体検出部121は処理をステップS104へ進める。
ステップS104において、指示体検出部121は、第1撮像情報117に基づいて、第1撮像情報117の示す撮像画像に含まれる指示体が左手H2を含むか否か判定する。ステップS104における判定の結果が肯定の場合、すなわち、ステップS104でYESの場合、指示体検出部121は処理をステップS106へ進める。また、ステップS104における判定の結果が否定の場合、すなわち、ステップS104でNOの場合、指示体検出部121は処理をステップS107へ進める。
ステップS103における判定の結果が肯定の場合、第1撮像情報117の示す撮像画像には右手H1が含まれると見做される。また、ステップS104における判定の結果が肯定の場合、第1撮像情報117の示す撮像画像には左手H2が含まれると見做される。また、ステップS103およびステップS104における判定の結果がいずれも否定の場合、第1撮像情報117の示す撮像画像には右手H1および左手H2のいずれも含まれないと見做される。
ステップS105において、投射制御部124は、投射部15を制御することで、壁面W1に対して、投射画像GP1を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第1操作画像情報113の示す操作画像GU1を表示させる。
ステップS106において、投射制御部124は、投射部15を制御することで、壁面W1に対して、投射画像GP2を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第2操作画像情報114の示す操作画像GU2を表示させる。
ステップS107において、投射制御部124は、投射部15を制御することで、壁面W1に対して、投射画像GP3を表示するための投射光を投射させる。すなわち、投射制御部124は、投射部15を制御することで、壁面W1に第3操作画像情報115の示す操作画像GU3を表示させる。
指示体検出部121が第1撮像情報117の示す撮像画像に右手H1が含まれると判定した場合、投射制御部124は、操作画像GU1を表示させる。換言すれば、検出された指示体が右手H1を含む場合、項目画像GC1~GC9は、操作画像GU1の態様で配置される。また、指示体検出部121が第1撮像情報117の示す撮像画像に左手H2が含まれると判定した場合、投射制御部124は、操作画像GU2を表示させる。換言すれば、検出された指示体が左手H2を含む場合、項目画像GC1~GC9は、操作画像GU2の態様で配置される。また、指示体検出部121が第1撮像情報117の示す撮像画像に右手H1および左手H2のいずれも含まれないと判定した場合、投射制御部124は、操作画像GU3を表示させる。換言すれば、検出された指示体が右手H1および左手H2を含まない場合、項目画像GC1~GC9は、操作画像GU3の態様で配置される。
ステップS108において、撮像制御部123は、撮像部13を制御することで、投射画像GPが表示された壁面W1上の領域と、当該壁面W1上の領域の近傍の空間とを含む範囲を撮像させる。そして、撮像制御部123は、撮像部13から、投射画像GPが表示された壁面W1上の領域および当該壁面W1上の領域の近傍の空間を含む範囲を撮像した撮像結果を表す第2撮像情報118を取得する。また、撮像制御部123は、取得した第2撮像情報118を記憶部11に記憶させる。
ステップS109において、指示体検出部121は、第2撮像情報118に基づいて、第2撮像情報118の示す撮像画像に指示体が含まれるか否かを判定する。ステップS109における判定の結果が肯定の場合、すなわち、ステップS109でYESの場合、指示体検出部121は処理をステップS110へ進める。また、ステップS109における判定の結果が否定の場合、すなわち、ステップS109でNOの場合、指示体検出部121は処理をステップS108へ進める。
ステップS110において、指示体検出部121は、第2撮像情報118に基づいて、第2撮像情報118の示す撮像画像に含まれる指示体が壁面W1と接触しているか否かを判定する。ステップS110における判定の結果が肯定の場合、すなわち、ステップS110でYESの場合、指示体検出部121は処理をステップS111へ進める。また、ステップS110における判定の結果が否定の場合、すなわち、ステップS110でNOの場合、指示体検出部121は処理をステップS108へ進める。
ステップS105、S106またはS107において操作画像GUを表示した後、プロジェクター1は、再度、指示体を検出する。そして、ステップS110において、プロジェクター1は、撮像画像を基に、指示体が壁面W1と接触しているか否か、より具体的には、壁面W1に表示された投射画像GPと接触しているか否かを判定する。換言すれば、プロジェクター1は、ステップS110において、ユーザーが投射画像GPに対する指示操作を行ったか否かを判定する。ユーザーが投射画像GPに対する指示操作を行うまで、プロジェクター1は、ステップS108~S110における処理を繰り返し実行する。
ステップS111において、指示位置検出部122は、第2撮像情報118に基づいて、第2撮像情報118の示す撮像画像に含まれる指示体と壁面W1とが接触している箇所のXY座標を特定する。
ステップS112において、処理部125は、第2撮像情報118の示す撮像画像に含まれる指示体と壁面W1とが接触している箇所のXY座標と、当該箇所に表示された項目画像GCに基づいて、各種処理を実行する。換言すれば、第2撮像情報118の示す撮像画像に含まれる指示体の指示位置が、操作画像GUに含まれる複数の項目画像GCのうちの一の項目画像GCが表示される領域内である場合、処理部125は、当該一の項目画像GCに対応する処理を実行する。
例えば、壁面W1に操作画像GU1が表示される場合であって、右手H1の指示位置が領域R31内である場合、プロジェクター1は、領域R31に表示される項目画像GC2に対応する消しゴムツール呼び出し処理を実行する。また、壁面W1に操作画像GU1が表示される場合であって、右手H1の指示位置が領域R33内である場合、プロジェクター1は、領域R33に表示される項目画像GC4に対応するやり直し処理を実行する。また、壁面W1に操作画像GU1が表示される場合であって、右手H1の指示位置が領域R21内である場合、プロジェクター1は、領域R21に表示される項目画像GC1に対応する描画ツール呼び出し処理を実行する。また、壁面W1に操作画像GU1が表示される場合であって、右手H1の指示位置が領域R23内である場合、プロジェクター1は、領域R23に表示される項目画像GC7に対応する画面キャプチャ処理を実行する。
例えば、壁面W1に操作画像GU2が表示される場合であって、左手H2の指示位置が領域R33内である場合、プロジェクター1は、領域R33に表示される項目画像GC2に対応する消しゴムツール呼び出し処理を実行する。また、壁面W1に操作画像GU2が表示される場合であって、左手H2の指示位置が領域R31内である場合、プロジェクター1は、領域R31に表示される項目画像GC4に対応するやり直し処理を実行する。また、壁面W1に操作画像GU2が表示される場合であって、左手H2の指示位置が領域R23内である場合、プロジェクター1は、領域R23に表示される項目画像GC1に対応する描画ツール呼び出し処理を実行する。また、壁面W1に操作画像GU2が表示される場合であって、左手H2の指示位置が領域R21内である場合、プロジェクター1は、領域R21に表示される項目画像GC7に対応する画面キャプチャ処理を実行する。
例えば、壁面W1に操作画像GU3が表示される場合であって、指示体H9の指示位置が領域R21内である場合、プロジェクター1は、領域R21に表示される項目画像GC2に対応する消しゴムツール呼び出し処理を実行する。また、壁面W1に操作画像GU3が表示される場合であって、指示体H9の指示位置が領域R23内である場合、プロジェクター1は、領域R23に表示される項目画像GC4に対応するやり直し処理を実行する。また、壁面W1に操作画像GU3が表示される場合であって、指示体H9の指示位置が領域R31内である場合、プロジェクター1は、領域R31に表示される項目画像GC1に対応する描画ツール呼び出し処理を実行する。また、壁面W1に操作画像GU3が表示される場合であって、指示体H9の指示位置が領域R11内である場合、プロジェクター1は、領域R11に表示される項目画像GC7に対応する画面キャプチャ処理を実行する。
なお、第2撮像情報118の示す撮像画像に含まれる指示体と壁面W1とが接触している箇所に項目画像GCが表示されていない場合、ステップS112において、処理部125は、例えば、操作画像GUの表示を終了する処理を実行する。
ステップS112における動作が実行された後、制御部12は、図12のフローチャートに示す一連の動作を終了させる。
以上より、第1実施形態によれば、プロジェクター1は、ユーザーが指示操作を行う際の指示体を検出し、更に指示体の種類を特定することで、表示する操作画像GUを変更することができる。すなわち、プロジェクター1は、指示体の種類に合わせて最適な操作画像GUを表示することができる。
また、第1実施形態によれば、操作画像GUに含まれる複数の項目画像GCは、特定された指示体の種類に応じて、配置が変更される。すなわち、プロジェクター1は、高頻度で実行される処理に関する項目画像GCを、ユーザーが操作しやすい配置で表示することができる。
また、第1実施形態によれば、プロジェクター1は、指示体が右手H1および左手H2のいずれも含まないと判定した場合、指示体が右手H1を含む場合と、指示体が左手H2を含む場合とは異なる態様の操作画像GUを表示することができる。すなわち、プロジェクター1は、例えば、指示体の種類を正確に特定することができない場合であっても、汎用性のある態様で操作画像GUを表示することができる。
以上に説明したように、第1実施形態に係る表示方法は、指示体を検出することと、項目画像GC1~GC9を含む操作画像GUを表示することと、を含み、指示体が右手H1を含む場合、操作画像GUにおいて、項目画像GC1~GC9は、操作画像GU1の態様で配置され、指示体が左手H2を含む場合、操作画像GUにおいて、項目画像GC1~GC9は、操作画像GU2の態様で配置される。
また、第1実施形態に係るプロジェクター1は、1または複数のCPUを備え、当該CPUは、指示体を検出することと、項目画像GC1~GC9を含む操作画像GUを表示させることと、を実行し、指示体が右手H1を含む場合、操作画像GUにおいて、項目画像GC1~GC9は、操作画像GU1の態様で配置され、指示体が左手H2を含む場合、操作画像GUにおいて、項目画像GC1~GC9は、操作画像GU2の態様で配置される。
すなわち、本実施形態に係るプロジェクター1は、ユーザーが指示操作を行う際の指示体を検出し、当該指示体が右手H1を含む場合と、左手H2を含む場合とで、複数の項目画像GCの配置を変更することができる。これにより、プロジェクター1は、指示体の種類に合わせて、操作性の良い操作画像GUを表示することができる。
なお、第1実施形態において、プロジェクター1は「表示装置」の一例であり、項目画像GC1~GC9は「複数の項目画像」の一例であり、操作画像GUは「操作画像」の一例であり、右手H1は「右手」の一例であり、左手H2は「左手」の一例であり、CPUは「プロセッサー」の一例であり、検出部120は「検出部」の一例であり、投射制御部124は「表示制御部」の一例である。また、右手H1および左手H2は「指示体」の一例であり、操作画像GU1の態様は「第1の態様」の一例であり、操作画像GU2の態様は「第2の態様」の一例である。
また、第1実施形態に係る表示方法において、操作画像GUは、領域R31と、領域R33とを有し、項目画像GC1~GC9は、消しゴムツール呼び出し処理に関する項目画像GC2を含み、操作画像GU1において、項目画像GC2は、領域R31に配置され、操作画像GU2において、項目画像GC2は、領域R33に配置される。
これにより、本実施形態に係るプロジェクター1は、所定の処理に関する項目画像GCを、指示体の種類に合わせて、異なる配置で表示することができる。
なお、第1実施形態において、領域R31は「第1領域」の一例であり、領域R33は「第2領域」の一例であり、消しゴムツール呼び出し処理は「第1の処理」の一例であり、操作画像GU1は「第1の態様の操作画像」の一例であり、操作画像GU2は「第2の態様の操作画像」の一例である。また、項目画像GC2は「第1の処理に関する項目画像」の一例である。
また、第1実施形態に係る表示方法において、項目画像GC1~GC9は、やり直し処理に関する項目画像GC4を含み、操作画像GU1において、項目画像GC4は、領域R33に配置され、操作画像GU2において、項目画像GC4は、領域R31に配置される。
これにより、本実施形態に係るプロジェクター1は、異なる処理に関する2種類の項目画像GCを、指示体の種類に合わせて、配置を入れ替えて表示することができる。
なお、第1実施形態において、やり直し処理は「第2の処理」の一例である。また、項目画像GC4は「第2の処理に関する項目画像」の一例である。
また、第1実施形態に係る表示方法において、指示体の指示位置を検出することと、当該指示位置が、項目画像GC2が表示される領域内である場合に、消しゴムツール呼び出し処理を実行することと、当該指示位置が、項目画像GC4が表示される領域内である場合に、やり直し処理を実行することと、を更に含み、領域R31は、領域R33よりも、ユーザーから見て左側である。
すなわち、本実施形態に係るプロジェクター1は、ユーザーの指示操作に応じて、指示位置に表示される項目画像GCに対応する処理を実行することができる。また、プロジェクター1は、指示体の種類に合わせて、異なる処理に関する2種類の項目画像GCのうち、一方を右側に、他方を左側に配置されるように、各々の配置を入れ替えて表示させることができる。これにより、消しゴムツール呼び出し処理に関する項目画像GC2は、指示体が右手H1を含む場合、または、指示体が左手H2を含む場合のいずれの場合においても、指示体の陰に隠れにくくなる。従って、項目画像GC2に対する指示操作を行う際の操作性が向上する。
なお、第1実施形態において、「指示体の指示位置」の一例として、「右手H1の指先H10が壁面W1と接触している箇所」が挙げられる。
また、第1実施形態に係る表示方法において、消しゴムツール呼び出し処理は、やり直し処理よりも、実行される頻度が高い。
すなわち、本実施形態に係るプロジェクター1は、指示体が右手H1を含む場合、実行される頻度が高い処理に関する項目画像GC2を、実行される頻度が低い処理に関する項目画像GC4よりも左側に表示することができる。また、プロジェクター1は、指示体が左手H2を含む場合、実行される頻度が高い処理に関する項目画像GC2を、実行される頻度が低い処理に関する項目画像GC4よりも右側に表示することができる。これにより、プロジェクター1は、指示体の種類に合わせて、実行される頻度が高い処理に関する項目画像GCを、視認性の高い配置で表示することができる。
また、第1実施形態に係る表示方法において、指示体が右手H1および左手H2のいずれも含まない場合、操作画像GUにおいて、項目画像GC1~GC9は、操作画像GU3の態様で配置される。
すなわち、本実施形態に係るプロジェクター1は、指示体が右手H1および左手H2のいずれも含まないと判定した場合、指示体が右手H1を含む場合と、指示体が左手H2を含む場合とは異なる態様の操作画像GUを表示することができる。これにより、プロジェクター1は、例えば、指示体の種類を正確に特定することができない場合であっても、汎用性のある態様で操作画像GUを表示することができる。
なお、第1実施形態において、操作画像GU3の態様は「第3の態様」の一例である。
また、第1実施形態に係る表示方法において、操作画像GUは、領域R31と、領域R21とを有し、領域R31は、領域R21よりも、ユーザーから見て上側であり、項目画像GC1~GC9は、消しゴムツール呼び出し処理に関する項目画像GC2と、描画ツール呼び出し処理に関する項目画像GC1とを含み、指示体の指示位置を検出することと、当該指示位置が、項目画像GC2が表示される領域内である場合に、消しゴムツール呼び出し処理を実行することと、当該指示位置が、項目画像GC1が表示される領域内である場合に、描画ツール呼び出し処理を実行することと、を更に含み、操作画像GU1において、項目画像GC2は、領域R31に配置され、項目画像GC1は、領域R21に配置され、操作画像GU3において、項目画像GC2は、領域R21に配置され、項目画像GC1は、領域R31に配置される。
これにより、本実施形態に係るプロジェクター1は、ユーザーの指示操作に応じて、指示位置に表示される項目画像GCに対応する処理を実行することができる。また、プロジェクター1は、指示体の種類に合わせて、異なる処理に関する2種類の項目画像GCのうち、一方を上側に、他方を下側に配置されるように、各々の配置を入れ替えて表示させることができる。
なお、第1実施形態において、領域R21は「第3領域」の一例であり、描画ツール呼び出し処理は「第3の処理」の一例であり、操作画像GU3は「第3の態様の操作画像」の一例である。また、項目画像GC1は「第3の処理に関する項目画像」の一例である。
また、第1実施形態に係る表示方法において、描画ツール呼び出し処理は、消しゴムツール呼び出し処理よりも、実行される頻度が高い。
すなわち、本実施形態に係るプロジェクター1は、指示体が右手H1および左手H2のいずれも含まない場合、実行される頻度が高い処理に関する項目画像GC1を、実行される頻度が低い処理に関する項目画像GC2よりも上側に表示することができる。これにより、プロジェクター1は、例えば、指示体の種類を正確に特定することができない場合であっても、実行される頻度が高い処理に関する項目画像GCを、視認性の高い配置で表示することができる。
2.第2実施形態
以下において、本発明の第2実施形態を説明する。なお、以下に例示する各形態において、作用や機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜省略する。
第2実施形態に係るプロジェクター1Aは、項目画像GC1~GC9の各々に対応する処理が実行される頻度を特定し、特定した当該頻度に基づいて、項目画像GC1~GC9の配置を変更して表示する。以下では、便宜上、項目画像GC2に対応する消しゴムツール呼び出し処理が実行される頻度と、項目画像GC4に対応するやり直し処理が実行される頻度とを特定し、特定した2つの頻度に基づいて、項目画像GC2および項目画像GC4の配置を変更する場合を例示して、本実施形態に係るプロジェクター1Aについて説明する。
以下、図13および図14を参照しつつ、ユーザーが第2実施形態に係るプロジェクター1Aに対する入力操作を行う際に表示される操作画像GUについて説明する。
図13は、操作画像GU1Aについて説明するための模式図である。操作画像GU1Aは、やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合であって、検出された指示体が右手H1を含む場合に、壁面W1に表示される。操作画像GU1Aは、投射画像GP1Aに含まれる。操作画像GU1Aは、操作画像GU1、操作画像GU2および操作画像GU3と同様、項目画像GC1~GC9を含むGUIである。操作画像GU1Aは、項目画像GC2の代わりに項目画像GC4が領域R31に配置される点と、項目画像GC4の代わりに項目画像GC2が領域R33に配置される点とを除き、操作画像GU1と同様に構成される。
図14は、操作画像GU2Aについて説明するための模式図である。操作画像GU2Aは、やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合であって、検出された指示体が左手H2を含む場合に、壁面W1に表示される。操作画像GU2Aは、投射画像GP2Aに含まれる。操作画像GU2Aは、操作画像GU1、操作画像GU1A、操作画像GU2および操作画像GU3と同様、項目画像GC1~GC9を含むGUIである。操作画像GU2Aは、項目画像GC4の代わりに項目画像GC2が領域R31に配置される点と、項目画像GC2の代わりに項目画像GC4が領域R33に配置される点とを除き、操作画像GU2と同様に構成される。
なお、消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合であって、検出された指示体が右手H1を含む場合、プロジェクター1は、壁面W1に操作画像GU1を表示する。また、消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合であって、検出された指示体が左手H2を含む場合、プロジェクター1は、壁面W1に操作画像GU2を表示する。
以下、図15および図16を参照しつつ、第2実施形態に係るプロジェクター1Aの構成および機能について説明する。
図15は、第2実施形態に係るプロジェクター1Aの構成を示すブロック図である。図16は、第2実施形態に係る記憶部11Aの構成を示すブロック図である。プロジェクター1Aは、記憶部11の代わりに記憶部11Aを備える点と、制御部12の代わりに制御部12Aを備える点とを除き、第1実施形態に係るプロジェクター1と同様に構成される。記憶部11Aは、プログラム110の代わりにプログラム110Aを記憶する点と、操作画像情報112の代わりに操作画像情報112Aを記憶する点と、撮像情報116等に加えて頻度情報111を記憶する点とにおいて、第1実施形態に係る記憶部11と相違する。操作画像情報112Aは、第1操作画像情報113、第2操作画像情報114および第3操作画像情報115等に加えて、第1操作画像情報113Aおよび第2操作画像情報114Aを含む点において、操作画像情報112と相違する。第1操作画像情報113Aは、操作画像GU1Aを表す情報である。第2操作画像情報114Aは、操作画像GU2Aを表す情報である。制御部12Aは、投射制御部124の代わりに投射制御部124Aとしての機能を有する点と、検出部120および処理部125等に加えて頻度管理部126としての機能を有する点とを除き、第1実施形態に係る制御部12と同様に構成される。制御部12Aは、制御部12Aが有するCPU等がプログラム110Aを実行し、プログラム110Aに従って動作することで、図15に示す検出部120、投射制御部124A、処理部125および頻度管理部126として機能する。
頻度管理部126は、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を管理する。具体的には、頻度管理部126は、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を表す頻度情報111を管理する。より具体的には、頻度管理部126は、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理のいずれかが実行される度に、頻度情報111を更新する。例えば、操作画像GUに含まれる複数の項目画像GCのうちの一の項目画像GCに対応する処理が実行された場合、頻度管理部126は、当該一の項目画像GCに対応する処理が実行されたことを頻度情報111に反映させる。
また、頻度管理部126は、頻度情報111を参照し、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を特定する。本実施形態において、頻度管理部126は、頻度情報111を参照し、消しゴムツール呼び出し処理が実行される頻度と、やり直し処理が実行される頻度とを特定する。これにより、プロジェクター1Aは、消しゴムツール呼び出し処理とやり直し処理のどちらが実行される頻度が高いか特定することができる。
投射制御部124Aは、投射部15を制御することで、壁面W1に対して、投射画像GPを表示するための投射光を投射させる。
本実施形態において、消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合であって、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1を含む場合、投射制御部124Aは、壁面W1に対して、投射画像GP1を表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第1操作画像情報113の示す操作画像GU1を表示させる。
また、消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合であって、第1撮像情報117の示す撮像画像に含まれる指示体が左手H2を含む場合、投射制御部124Aは、壁面W1に対して、投射画像GP2を表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第2操作画像情報114の示す操作画像GU2を表示させる。
また、やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合であって、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1を含む場合、投射制御部124Aは、壁面W1に対して、投射画像GP1Aを表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第1操作画像情報113Aの示す操作画像GU1Aを表示させる。
また、やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合であって、第1撮像情報117の示す撮像画像に含まれる指示体が左手H2を含む場合、投射制御部124Aは、壁面W1に対して、投射画像GP2Aを表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第2操作画像情報114Aの示す操作画像GU2Aを表示させる。
また、第1撮像情報117の示す撮像画像に含まれる指示体が右手H1および左手H2のいずれも含まない場合、投射制御部124Aは、壁面W1に対して、投射画像GP3を表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第3操作画像情報115の示す操作画像GU3を表示させる。
図17は、第2実施形態に係るプロジェクター1Aの動作について説明するためのフローチャートである。図17に示すフローチャートは、制御部12Aが、ステップS105の代わりにステップS122の処理を実行する点と、ステップS106の代わりにステップS123の処理を実行する点と、ステップS101~S103およびステップS107~S112の処理に加え、ステップS121およびステップS124の処理を実行する点とを除き、図12に示すフローチャートと同様である。
ステップS121において、頻度管理部126は、頻度情報111を参照し、消しゴムツール呼び出し処理が実行される頻度と、やり直し処理が実行される頻度とを特定する。すなわち、頻度管理部126は、消しゴムツール呼び出し処理とやり直し処理のどちらが実行される頻度が高いかを特定する。
消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合、ステップS122において、投射制御部124Aは、投射部15を制御することで、壁面W1に対して、投射画像GP1を表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第1操作画像情報113の示す操作画像GU1を表示させる。
やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合、ステップS122において、投射制御部124Aは、投射部15を制御することで、壁面W1に対して、投射画像GP1Aを表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第1操作画像情報113Aの示す操作画像GU1Aを表示させる。
消しゴムツール呼び出し処理がやり直し処理よりも実行される頻度が高い場合、ステップS123において、投射制御部124Aは、投射部15を制御することで、壁面W1に対して、投射画像GP2を表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第2操作画像情報114の示す操作画像GU2を表示させる。
やり直し処理が消しゴムツール呼び出し処理よりも実行される頻度が高い場合、ステップS123において、投射制御部124Aは、投射部15を制御することで、壁面W1に対して、投射画像GP2Aを表示するための投射光を投射させる。すなわち、投射制御部124Aは、投射部15を制御することで、壁面W1に第2操作画像情報114Aの示す操作画像GU2Aを表示させる。
ステップS124において、頻度管理部126は、ステップS112において実行された処理に基づいて、頻度情報111を更新する。換言すれば、頻度管理部126は、ステップS112における処理が実行されたことを頻度情報111に反映させる。
以上では、消しゴムツール呼び出し処理が実行される頻度、および、やり直し処理が実行される頻度に基づいて、項目画像GC2および項目画像GC4の配置が変更される場合を例示したが、本発明はこのような態様に限定されるものではない。すなわち、消しゴムツール呼び出し処理およびやり直し処理に限らず、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を特定し、当該頻度に基づいて、項目画像GCの配置を変更することができる。例えば、項目画像GC1に対応する描画ツール呼び出し処理が実行される頻度と、項目画像GC7に対応する画面キャプチャ処理が実行される頻度とを測定し、特定した2つの頻度に基づいて、項目画像GC1および項目画像GC7の配置を変更してもよい。
以上より、第2実施形態によれば、プロジェクター1Aは、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を特定し、当該頻度に基づいて、項目画像GCの配置を変更することができる。すなわち、プロジェクター1Aは、実行される頻度が高い処理に関する項目画像GCを、操作性の良い位置に配置することができる。
以上に説明したように、第2実施形態に係る表示方法において、操作画像GUは、領域R31と、領域R33とを有し、領域R31は、領域R33よりも、ユーザーから見て左側であり、項目画像GC1~GC9は、消しゴムツール呼び出し処理に関する項目画像GC2と、やり直し処理に関する項目画像GC4とを含み、指示体の指示位置を検出することと、当該指示位置が、項目画像GC2が表示される領域内である場合に、消しゴムツール呼び出し処理を実行することと、当該指示位置が、項目画像GC4が表示される領域内である場合に、やり直し処理を実行することと、消しゴムツール呼び出し処理が実行される頻度と、やり直し処理が実行される頻度とを特定することと、を更に含み、消しゴムツール呼び出し処理が実行される頻度が、やり直し処理が実行される頻度よりも高い場合、操作画像GU1において、項目画像GC2は、領域R31に配置され、項目画像GC4は、領域R33に配置され、操作画像GU2において、項目画像GC2は、領域R33に配置され、項目画像GC4は、領域R31に配置され、やり直し処理が実行される頻度が、消しゴムツール呼び出し処理が実行される頻度よりも高い場合、操作画像GU1Aにおいて、項目画像GC2は、領域R33に配置され、項目画像GC4は、領域R31に配置され、操作画像GU2Aにおいて、項目画像GC2は、領域R31に配置され、項目画像GC4は、領域R33に配置される。
すなわち、本実施形態に係るプロジェクター1Aは、操作画像GUに含まれる複数の項目画像GCの各々に対応する処理が実行される頻度を特定し、当該頻度に基づいて、項目画像GCの配置を変更することができる。これにより、プロジェクター1Aは、処理が実行される頻度と、指示体の種類とに応じて、実行される頻度が高い処理に関する項目画像GCを、処理が実行される頻度を特定しない場合と比べて、操作性の良い配置で表示することができる。
なお、第2実施形態において、操作画像GUは「操作画像」の一例であり、領域R31は「第1領域」の一例であり、領域R33は「第2領域」の一例であり、項目画像GC1~GC9は「複数の項目画像」の一例であり、消しゴムツール呼び出し処理は「第1の処理」の一例であり、やり直し処理は「第2の処理」の一例である。また、項目画像GC2は「第1の処理に関する項目画像」の一例であり、項目画像GC4は「第2の処理に関する項目画像」の一例であり、操作画像GU1および操作画像GU1Aは「第1の態様の操作画像」の一例であり、操作画像GU2および操作画像GU2Aは「第2の態様の操作画像」の一例である。
3.変形例
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。また、以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜併合され得る。なお、以下に例示する変形例において作用や機能が前述の実施形態と同等である要素については、以上の説明で使用した符号を流用して各々の詳細な説明を適宜省略する。
3.1.変形例1
前述の実施形態において、検出された指示体が左手を含む場合に表示される操作画像GUと、検出された指示体が右手を含む場合に表示される操作画像GUとは、項目画像GCの配置のみが異なる態様で表示される場合を例示したが、本発明はこのような態様に限定されるものではない。例えば、検出された指示体が左手を含む場合に表示される操作画像GUに含まれる項目画像GCの絵柄と、検出された指示体が右手を含む場合に表示される操作画像GUに含まれる項目画像GCの絵柄とが、互いに異なってもよい。
図18は、操作画像GU2mについて説明するための模式図である。操作画像GU2mは、操作画像GU1を左右反転した画像である。操作画像GU2mは、投射画像GP2mに含まれる。操作画像GU2mは、検出された指示体が左手H2を含む場合に、壁面W1に表示される。操作画像GU2mは、項目画像GC1m~GC9mを含むGUIである。項目画像GC1m~GC9mは、各々、項目画像GC1~GC9を左右反転した画像である。
項目画像GC1mは、項目画像GC1と同様、描画ツール呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC1mは、領域R23に配置される。
項目画像GC2mは、項目画像GC2と同様、消しゴムツール呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC2mは、領域R33に配置される。
項目画像GC3mは、項目画像GC3と同様、移動ツール呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC3mは、領域R32に配置される。
項目画像GC4mは、項目画像GC4と同様、やり直し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC4mは、領域R31に配置される。
項目画像GC5mは、項目画像GC5と同様、画面拡大ツール呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC5mは、領域R22に配置される。
項目画像GC6mは、項目画像GC6と同様、保存処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC6mは、領域R13に配置される。
項目画像GC7mは、項目画像GC7と同様、画面キャプチャ処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC7mは、領域R21に配置される。
項目画像GC8mは、項目画像GC8と同様、設定画面呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC8mは、領域R12に配置される。
項目画像GC9mは、項目画像GC9と同様、切り取りツール呼び出し処理に関する項目画像である。操作画像GU2mにおいて、項目画像GC9mは、領域R11に配置される。
すなわち、操作画像GU2mにおいて、領域R33に配置される項目画像GC2mは、領域R31に配置される項目画像GC4mよりも、ユーザーから見て右側に配置される。
また、領域R23に配置される項目画像GC1mは、領域R21に配置される項目画像GC7mよりも、ユーザーから見て右側に配置される。
以上より、変形例1によれば、操作画像GU2mは、操作画像GU1を左右反転した態様で表示される。すなわち、予め操作画像GU2を作成することなく、操作画像GU1を左右反転表示するだけで、操作画像GU2mを表示することができる。
なお、操作画像GUに含まれる項目画像GCの絵柄は、左右反転に限らず、上下反転してもよい。また、操作画像GUに含まれる項目画像GCの絵柄は、例えば、時計回りに90度回転した態様で表示されてもよい。また、検出された指示体が左手を含む場合に表示される操作画像GUと、検出された指示体が右手を含む場合に表示される操作画像GUとは、互いに異なる色で表示されてもよい。
以上に説明したように、変形例1に係る表示方法において、操作画像GU2mは、操作画像GU1を左右反転した画像である。
すなわち、本変形例に係る操作画像GU2mは、操作画像GU1を左右反転した態様で表示される。これにより、プロジェクターが第2操作画像情報114を記憶していない場合であっても、検出された指示体が左手H2を含む場合に、操作画像GU1を左右反転することで、操作性の良い操作画像GU2mを壁面W1に表示することができる。
なお、変形例1において、操作画像GU2mは「第2の態様の操作画像」の一例であり、操作画像GU1は「第1の態様の操作画像」の一例である。
3.2.変形例2
前述の実施形態および変形例において、操作画像が長方形の画像である場合を例示したが、本発明はこのような態様に限定されるものではない。例えば、操作画像は、円形の輪郭を有する画像であってもよい。
以下、図19および図20を参照しつつ、変形例2に係る操作画像GRについて説明する。図19は、操作画像GR1について説明するための模式図である。操作画像GR1は、検出された指示体が右手H1を含む場合に表示される。図20は、操作画像GR2について説明するための模式図である。操作画像GR2は、検出された指示体が左手H2を含む場合に表示される。本変形例において、操作画像GRは、操作画像GR1および操作画像GR2の総称である。
操作画像GRは、領域R41、領域R42、領域R51、領域R52、領域R61、領域R71、領域R72、領域R81および領域R82を有する。また、操作画像GRは、項目画像GC1~GC9を含むGUIである。
本変形例において、領域R51および領域R52は、領域R41および領域R42よりも、ユーザーから見て上側に位置すると見做す。また、領域R61は、領域R51および領域R52よりも、ユーザーから見て上側に位置すると見做す。また、領域R71および領域R72は、領域R61よりも、ユーザーから見て上側に位置すると見做す。また、領域R81および領域R82は、領域R71および領域R72よりも、ユーザーから見て上側に位置すると見做す。
本変形例において、領域R42および領域R82は、領域R52および領域R72よりも、ユーザーから見て左側に位置すると見做す。また、領域R61は、領域R42および領域R82よりも、ユーザーから見て左側に位置すると見做す。また、領域R41および領域R81は、領域R61よりも、ユーザーから見て左側に位置すると見做す。また、領域R51および領域R71は、領域R41および領域R81よりも、ユーザーから見て左側に位置すると見做す。
操作画像GR1において、項目画像GC1は、領域R71に配置される。
また、操作画像GR1において、項目画像GC2は、領域R81に配置される。
また、操作画像GR1において、項目画像GC3は、領域R61に配置される。
また、操作画像GR1において、項目画像GC4は、領域R82に配置される。
また、操作画像GR1において、項目画像GC5は、領域R51に配置される。
また、操作画像GR1において、項目画像GC6は、領域R41に配置される。
また、操作画像GR1において、項目画像GC7は、領域R42に配置される。
また、操作画像GR1において、項目画像GC8は、領域R72に配置される。
また、操作画像GR1において、項目画像GC9は、領域R52に配置される。
すなわち、操作画像GR1において、領域R81に配置される項目画像GC2は、領域R82に配置される項目画像GC4よりも、ユーザーから見て左側に配置される。
また、領域R71に配置される項目画像GC1は、領域R42に配置される項目画像GC7よりも、ユーザーから見て左側に配置される。
操作画像GR2において、項目画像GC1は、領域R72に配置される。
また、操作画像GR2において、項目画像GC2は、領域R82に配置される。
また、操作画像GR2において、項目画像GC3は、領域R61に配置される。
また、操作画像GR2において、項目画像GC4は、領域R81に配置される。
また、操作画像GR2において、項目画像GC5は、領域R52に配置される。
また、操作画像GR2において、項目画像GC6は、領域R42に配置される。
また、操作画像GR2において、項目画像GC7は、領域R41に配置される。
また、操作画像GR2において、項目画像GC8は、領域R71に配置される。
また、操作画像GR2において、項目画像GC9は、領域R51に配置される。
すなわち、操作画像GR2において、領域R82に配置される項目画像GC2は、領域R81に配置される項目画像GC4よりも、ユーザーから見て右側に配置される。
また、領域R72に配置される項目画像GC1は、領域R41に配置される項目画像GC7よりも、ユーザーから見て右側に配置される。
なお、操作画像の形状は、長方形および円形に限らず、例えば、楕円形であってもよいし、正六角形等の多角形でもよい。操作画像の形状は、操作画像を表示する場面や、ユーザーの好み等に応じて変更されてもよい。すなわち、状況に応じて最適な形状の操作画像を表示することができる。
以上より、変形例2によれば、前述の実施形態および変形例と同様、指示体が右手H1を含む場合と、左手H2を含む場合とで、複数の項目画像GCの配置を変更することができる。すなわち、指示体の種類や使用状況に合わせて、操作性の良い操作画像GRを表示することができる。
3.3.変形例3
前述の実施形態および変形例において、指示体が右手H1、左手H2または指示体H9である場合を例示したが、本発明はこのような態様に限定されるものではない。例えば、ユーザーは、電子ペンを持った右手、または、電子ペンを持った左手を、指示体として使用してもよい。例えば、プロジェクターは、電子ペンを持った右手を、右手を含む指示体として検出する。また、プロジェクターは、電子ペンを持った左手を、左手を含む指示体として検出する。項目画像GCに対する指示操作は、例えば、電子ペンのペン先で項目画像GCが表示された領域に触れることで行ってもよい。または、電子ペンと連動して移動するカーソルが投射画像GP上に表示される場合であって、当該カーソルが項目画像GC上に位置する場合に、電子ペンの備えるボタンをユーザーが押下することで、項目画像GCに対する指示操作を行ってもよい。
3.4.変形例4
前述の実施形態および変形例において、画像を投射するプロジェクターを例示して、本発明に係る表示方法および表示装置を説明したが、本発明はこのような態様に限定されるものではない。例えば、本発明に係る表示装置はプロジェクターに限定されず、直視のディスプレイ装置を用いてもよい。具体的には、投射画像GPを投射する投射部15の代わりに、画像を表示するディスプレイパネルを備えるような構成であってもよい。より具体的には、指示体を撮像可能なカメラを備える、または、当該カメラと通信可能な、インタラクティブホワイトボードであってもよい。
1…プロジェクター、11…記憶部、12…制御部、13…撮像部、14…操作部、15…投射部、110…プログラム、111…頻度情報、112…操作画像情報、113…第1操作画像情報、114…第2操作画像情報、115…第3操作画像情報、116…撮像情報、117…第1撮像情報、118…第2撮像情報、120…検出部、121…指示体検出部、122…指示位置検出部、123…撮像制御部、124…投射制御部、125…処理部、126…頻度管理部、GP…投射画像、GU…操作画像、GR…操作画像、GC…項目画像、H1…右手、H2…左手、H9…指示体、H10…指先、R11…領域、W1…壁面。

Claims (11)

  1. 指示体を検出することと、
    複数の項目画像を含む操作画像を表示することと、
    を含み、
    前記指示体が右手を含む場合、前記操作画像において、前記複数の項目画像は、第1の態様で配置され、
    前記指示体が左手を含む場合、前記操作画像において、前記複数の項目画像は、第2の態様で配置される、
    ことを特徴とする、表示方法。
  2. 前記操作画像は、第1領域と、第2領域とを有し、
    前記複数の項目画像は、第1の処理に関する項目画像を含み、
    前記第1の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第1領域に配置され、
    前記第2の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第2領域に配置される、
    ことを特徴とする、請求項1に記載の表示方法。
  3. 前記複数の項目画像は、第2の処理に関する項目画像を含み、
    前記第1の態様の前記操作画像において、前記第2の処理に関する項目画像は、前記第2領域に配置され、
    前記第2の態様の前記操作画像において、前記第2の処理に関する項目画像は、前記第1領域に配置される、
    ことを特徴とする、請求項2に記載の表示方法。
  4. 前記第2の態様の前記操作画像は、前記第1の態様の前記操作画像を左右反転した画像である、
    ことを特徴とする、請求項3に記載の表示方法。
  5. 前記指示体の指示位置を検出することと、
    前記指示位置が、前記第1の処理に関する項目画像が表示される領域内である場合に、前記第1の処理を実行することと、
    前記指示位置が、前記第2の処理に関する項目画像が表示される領域内である場合に、前記第2の処理を実行することと、
    を更に含み、
    前記第1領域は、前記第2領域よりも、ユーザーから見て左側である、
    ことを特徴とする、請求項3または4に記載の表示方法。
  6. 前記第1の処理は、前記第2の処理よりも、実行される頻度が高い、
    ことを特徴とする、請求項5に記載の表示方法。
  7. 前記操作画像は、第1領域と、第2領域とを有し、
    前記第1領域は、前記第2領域よりも、ユーザーから見て左側であり、
    前記複数の項目画像は、第1の処理に関する項目画像と、第2の処理に関する項目画像とを含み、
    前記指示体の指示位置を検出することと、
    前記指示位置が、前記第1の処理に関する項目画像が表示される領域内である場合に、前記第1の処理を実行することと、
    前記指示位置が、前記第2の処理に関する項目画像が表示される領域内である場合に、前記第2の処理を実行することと、
    前記第1の処理が実行される頻度と、前記第2の処理が実行される頻度とを特定することと、
    を更に含み、
    前記第1の処理が実行される頻度が、前記第2の処理が実行される頻度よりも高い場合、
    前記第1の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第1領域に配置され、前記第2の処理に関する項目画像は、前記第2領域に配置され、
    前記第2の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第2領域に配置され、前記第2の処理に関する項目画像は、前記第1領域に配置され、
    前記第2の処理が実行される頻度が、前記第1の処理が実行される頻度よりも高い場合、
    前記第1の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第2領域に配置され、前記第2の処理に関する項目画像は、前記第1領域に配置され、
    前記第2の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第1領域に配置され、前記第2の処理に関する項目画像は、前記第2領域に配置される、
    ことを特徴とする、請求項1に記載の表示方法。
  8. 前記指示体が前記右手および前記左手のいずれも含まない場合、前記操作画像において、前記複数の項目画像は、第3の態様で配置される、
    ことを特徴とする、請求項1~7のうちのいずれか1項に記載の表示方法。
  9. 前記操作画像は、第1領域と、第3領域とを有し、
    前記第1領域は、前記第3領域よりも、ユーザーから見て上側であり、
    前記複数の項目画像は、第1の処理に関する項目画像と、第3の処理に関する項目画像とを含み、
    前記指示体の指示位置を検出することと、
    前記指示位置が、前記第1の処理に関する項目画像が表示される領域内である場合に、前記第1の処理を実行することと、
    前記指示位置が、前記第3の処理に関する項目画像が表示される領域内である場合に、前記第3の処理を実行することと、
    を更に含み、
    前記第1の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第1領域に配置され、前記第3の処理に関する項目画像は、前記第3領域に配置され、
    前記第3の態様の前記操作画像において、前記第1の処理に関する項目画像は、前記第3領域に配置され、前記第3の処理に関する項目画像は、前記第1領域に配置される、
    ことを特徴とする、請求項8に記載の表示方法。
  10. 前記第3の処理は、前記第1の処理よりも、実行される頻度が高い、
    ことを特徴とする、請求項9に記載の表示方法。
  11. 1または複数のプロセッサーを備え、
    前記プロセッサーは、
    指示体を検出することと、
    複数の項目画像を含む操作画像を表示させることと、
    を実行し、
    前記指示体が右手を含む場合、前記操作画像において、前記複数の項目画像は、第1の態様で配置され、
    前記指示体が左手を含む場合、前記操作画像において、前記複数の項目画像は、第2の態様で配置される、
    ことを特徴とする、表示装置。
JP2022021067A 2022-02-15 2022-02-15 表示方法および表示装置 Pending JP2023118228A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022021067A JP2023118228A (ja) 2022-02-15 2022-02-15 表示方法および表示装置
US18/169,382 US20230260079A1 (en) 2022-02-15 2023-02-15 Display method for and display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022021067A JP2023118228A (ja) 2022-02-15 2022-02-15 表示方法および表示装置

Publications (1)

Publication Number Publication Date
JP2023118228A true JP2023118228A (ja) 2023-08-25

Family

ID=87558805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022021067A Pending JP2023118228A (ja) 2022-02-15 2022-02-15 表示方法および表示装置

Country Status (2)

Country Link
US (1) US20230260079A1 (ja)
JP (1) JP2023118228A (ja)

Also Published As

Publication number Publication date
US20230260079A1 (en) 2023-08-17

Similar Documents

Publication Publication Date Title
TWI423096B (zh) 具可觸控投影畫面之投影系統
JP6105075B2 (ja) 投射型映像表示装置、操作検出装置及び投射型映像表示方法
JP5808712B2 (ja) 映像表示装置
US10234955B2 (en) Input recognition apparatus, input recognition method using maker location, and non-transitory computer-readable storage program
US20060158435A1 (en) Data input device
JP2012185630A (ja) 投影装置
JP5817149B2 (ja) 投影装置
CN106796484B (zh) 显示装置及其控制方法
JP2016173452A (ja) プロジェクターおよび表示制御方法
TW201636783A (zh) 互動式投影機及互動式投影系統
JP2005301668A (ja) 情報処理装置および情報処理プログラム
US11073949B2 (en) Display method, display device, and interactive projector configured to receive an operation to an operation surface by a hand of a user
US10274816B2 (en) Display device, projector, and display control method
WO2017110257A1 (ja) 情報処理装置および情報処理方法
JP2023118228A (ja) 表示方法および表示装置
US9582084B2 (en) Interactive projector and interactive projection system
JP2017062812A (ja) 制御装置、及び制御方法
JP6075193B2 (ja) 携帯端末装置
JP2006338328A (ja) 操作システム、処理装置、指示装置、操作方法およびプログラム
US20240069647A1 (en) Detecting method, detecting device, and recording medium
JP2017009664A (ja) 画像投写装置、及び対話型入出力システム
JP2015049837A (ja) 携帯端末装置
US20240070889A1 (en) Detecting method, detecting device, and recording medium
KR20190084562A (ko) 전자 장치 및 그 제어 방법
JP2023007696A (ja) 画像処理方法および画像処理装置