JP2012108723A - 指示受付装置 - Google Patents

指示受付装置 Download PDF

Info

Publication number
JP2012108723A
JP2012108723A JP2010256920A JP2010256920A JP2012108723A JP 2012108723 A JP2012108723 A JP 2012108723A JP 2010256920 A JP2010256920 A JP 2010256920A JP 2010256920 A JP2010256920 A JP 2010256920A JP 2012108723 A JP2012108723 A JP 2012108723A
Authority
JP
Japan
Prior art keywords
instruction
instruction receiving
user
image
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010256920A
Other languages
English (en)
Other versions
JP5300825B2 (ja
Inventor
Takashi Hirota
貴 廣田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010256920A priority Critical patent/JP5300825B2/ja
Priority to US13/296,608 priority patent/US20120120066A1/en
Priority to CN2011103649299A priority patent/CN102467236A/zh
Publication of JP2012108723A publication Critical patent/JP2012108723A/ja
Application granted granted Critical
Publication of JP5300825B2 publication Critical patent/JP5300825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】同時に数多いソフトキーを列挙し、利用者が一括して視認することができる指示受付装置、指示受付方法及びコンピュータブログラム、並びに該コンピュータプログラムを記録している記録媒体を提供する。
【解決手段】指示を受け付ける指示受付画像を介して利用者からの指示を受け付ける指示受付装置において、立体画像である複数のウィンドウレイヤを、透明又は半透明にして、重ねて表示する。このように表示された複数のウィンドウを介して利用者からの指示を受け付ける。
【選択図】図2

Description

本発明は、指示を受け付ける指示受付画像を介して指示を受け付ける指示受付装置、指示受付方法及びコンピュータプログラム、並びに該コンピュータプログラムを記録してある記録媒体に関する。
近年、科学技術の発展に伴い、利用者の電気機器の操作性を改善する様々なインターフェースが提案されていた。
例えば、特許文献1ではディスプレイに電卓、リモートコントローラ等の仮想画像を表示し、これらの操作ボタン画像の位置と、利用者の指先の位置とを検出して、検出結果に基づき、前記操作ボタンが操作されたか否かを判定する入力装置が開示されている。
また、特許文献2では、複数の電子機器のリモートコントロール装置を、1つのリモートコントロール装置に集約し、取扱説明書の内容をリモートコントロール装置に表示するようにし、利用者が容易に電子機器の機能を把握して、リモートコントロールできるリモートコントロール装置が開示されている。
特開平7−5978号公報 特開2000−184475号公報
一方、最近の電子機器は、多機能化の一方をたどり、各機能に係る操作ボタンも増え、その操作方法も複雑になりつつある。従って、利用者は、目的の機能に係る操作を行うために、複数のメニュー画面を何度も切り替えながら、斯かるボタンを探す苦労をしなければならないと言う問題があった。しかしながら、上述したような特許文献1の入力装置及び特許文献2のリモートコントロール装置ではこのような問題を解決することが出来ない。
本発明は、斯かる事情に鑑みてなされたものであり、その目的とするところは、指示を受け付ける指示受付画像を介して指示を受け付ける指示受付装置において、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示することにより、同時に数多いソフトキー(操作ボタン)を列挙し得る上に、該複数のソフトキーを利用者が一括して視認することができる指示受付装置、指示受付方法及びコンピュータブログラム、並びに該コンピュータプログラムを記録している記録媒体を提供するところにある。
本発明に係る指示受付装置は、指示を受け付ける指示受付画像を介して指示を受け付ける指示受付装置において、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示する表示手段を備えることを特徴とする。
本発明にあっては、前記表示手段が、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示し、このように表示された複数の指示受付画像を介して利用者からの指示を受け付ける。
本発明に係る指示受付装置は、利用者の所定の身体部位の位置を検出する検出手段と、該検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受け付ける指示受付手段とを備えることを特徴とする。
本発明にあっては、前記検出手段が利用者の所定の身体部位の位置を検出し、該検出手段の検出結果に基づき、前記指示受付手段が前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受け付ける。
本発明に係る指示受付装置は、前記所定の身体部位は頭部であり、検出された頭部の位置に基づき、前記表示手段が何れかの指示受付画像を削除するように構成されていることを特徴とする。
本発明にあっては、前記検出手段が利用者の頭部の位置を検出し、前記指示受付手段が、該検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像を削除する。
本発明に係る指示受付装置は、前記指示受付手段が指示を受け付ける際、受け付ける指示に係る指示受付画像以外の指示受付画像は不明瞭に表示するように構成されていることを特徴とする。
本発明にあっては、前記指示受付手段が指示を受け付けるにおいて、前記複数の指示受付画像の中、受け付ける指示に係る指示受付画像以外の指示受付画像は、前記表示手段によって不明瞭に表示される。
本発明に係る指示受付方法は、利用者の所定の身体部位の位置を検出する検出手段を備え、指示を受け付ける指示受付画像を介して指示を受け付ける指示受付方法において、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示する表示ステップと、前記検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受け付ける指示受付ステップとを含むことを特徴とする。
本発明に係るコンピュータプログラムは、利用者の所定の身体部位の位置を検出する検出手段を備える指示受付装置を構成するコンピュータに、指示を受け付ける指示受付画像を介して指示を受付させるコンピュータプログラムにおいて、コンピュータに、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示させる表示ステップと、コンピュータに、前記検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受付させる指示受付ステップとを実行させることを特徴とする。
本発明にあっては、立体画像である複数の指示受付画像のレイヤが透視可能な状態にて、重ねて表示される。このように表示された複数の指示受付画像を介して利用者からの指示が受け付けられる。
本発明に係る記録媒体は、前述の発明のコンピュータプログラムを記録してあることを特徴とする。
本発明にあっては、前記記録媒体に前述のコンピュータプログラムを記録する。コンピュータが前記記録媒体からコンピュータプログラムを読み出して、前述の指示受付装置及び指示受付方法がコンピュータにより実現される。
本発明によれば、利用者の前に数多いソフトキーを同時に列挙できる上に、これら多くのソフトキーを利用者が一括して視認することができるので、当該装置の操作性を高めることが出来る。
本発明の実施の形態1の指示受付装置の要部構成を示す機能ブロック図である。 深さ情報値の差による視覚的効果を説明する説明図である。 本発明の実施の形態1の指示受付装置の身体位置検出部による利用者の特定の身体部位の位置検出を説明する説明図である。 本発明の実施の形態1の指示受付装置における、利用者の指示の受付を説明する説明図である。 本発明の実施の形態1の指示受付装置において表示される複数のウィンドウ画像の利用者視点での映り方を説明する説明図である。 本発明の実施の形態1の指示受付装置における、利用者の指示受付の処理を説明するフローチャートである。 本発明の実施の形態1の指示受付装置において、利用者が接近した場合の対応を示すフローチャートである。 S203でのCPU1による判定結果の一例を概念的に表す概念図である。 本発明の実施の形態2の指示受付装置100の要部構成を示す機能ブロック図である。
以下に、本発明の実施の形態に係る、指示受付装置、指示受付方法及びコンピュータプログラムを図面に基づいて詳述する。
本発明に係る指示受付装置は、利用者から指示を受け付けるウィンドウ(指示受付画像)を立体画像にて表示し、利用者のゼスチャーから該ウィンドウに対する利用者の操作を検出し、利用者の指示を受け付けるように構成されている。
(実施の形態1)
図1は本発明の実施の形態1の指示受付装置100の要部構成を示す機能ブロック図である。指示受付装置100はCPU1、ROM2及びRAM3を備えている。
ROM2には各種の制御プログラムが予め格納されており、RAM3はデータを一時的に記憶し、記憶順、記憶位置等に関係なく読み出すことが可能である。また、RAM3は、例えば、ROM2から読み出されたプログラム、該プログラムを実行することにより発生する各種データ等を記憶する。
CPU1は、ROM2に予め格納されている制御プログラムをRAM3上にロードして実行することによって、バスNを介して下記の各種ハードウェアの制御を行い、装置全体を本発明の指示受付装置100として動作させる。
本発明の実施の形態1の指示受付装置100は、記憶部4と、画像バッファ5と、身体位置検出部6と、指示受付部7と、3D表示部8と、画像解析部9と、3D用画像生成部10と、表示制御部11とを更に備えている。
記憶部4は、2次元で作成されたウィンドウ画像データに深さ情報を付した深さ情報付ウィンドウ画像データが記憶されている。詳しくは、該深さ情報付ウィンドウ画像データには、ウィンドウ画像を構成する2次元座標(後述するウィンドウ構成座標)に加え、3D表示部8の表示画面に対する奥行方向の位置を定める深さ情報値が含まれている。すなわち、各ウィンドウには複数のソフトキーが含まれているので、夫々のソフトキーを描画して、ウィンドウを構成する2次元座標と、該2次元座標に係る深さ情報値が含まれている。
図2は深さ情報値の差による視覚的効果を説明する説明図である。複数のウィンドウ画像に付された該深さ情報値が異なることによって、3D表示部8に複数のウィンドウ画像を表示する際、奥行感が変更されるので、図2に示すように、z軸方向に段階的第1ウィンドウレイヤ、第2ウィンドウレイヤ及び第3ウィンドウレイヤが存在することとなり、相対的立体視を得ることができる。
また、記憶部4は、3D表示部8の表示画面からの距離を表す奥行情報と、夫々の深さ情報付ウィンドウ画像データの深さ情報値とを関連付けた深さ奥行テーブルを記憶している。詳しくは、該深さ奥行テーブルには、夫々のウィンドウ(ウィンドウレイヤ)の深さ情報値と、該深さ情報値に基づいて任意に設定された奥行情報とが関連付けられている。該深さ奥行テーブルと、後述するように、身体位置検出部6によって取得される利用者の特定の身体部位の2次元座標及び奥行情報とに基づき、指示受付部7が利用者から指示を受け付ける。
画像解析部9は、3D表示部8に表示すべき画像(ウィンドウ画像データ)が深さ情報を有しているか否かを解析する。画像解析部9は該画像が深さ情報を有していると解析した場合は、当該深さ情報値を検出して3D用画像生成部10に送る。
3D用画像生成部10は、画像解析部9によって検出された深さ情報に基づき、3D表示部8に表示すべきウィンドウの3D用画像を生成する。
人間の左目と右目とはある程度離れているため、左目と右目から見える絵がそれぞれ微妙に異なり、この左目及び右目の視差によって立体的に感じることができる。本発明に係る指示受付装置においては、この原理を用いている。すなわち、3D用画像生成部10は、画像解析部9によって検出された深さ情報に基づき、視差を有する左目用画像と右目用画像とを生成する。斯かる左目用画像及び右目用画像の生成方法は公知の技術であるので、ここでは詳しい説明を省略する。
画像バッファ5は、3D用画像生成部10によって生成されたウィンドウの左目用画像及び右目用画像を一時的に格納する。画像バッファ5は、左目用画像バッファ51及び右目用画像バッファ52を有しており、3D用画像生成部10によって生成された左目用画像は左目用画像バッファ51に、3D用画像生成部10によって生成された右目用画像は右目用画像バッファ52に夫々格納される。
表示制御部11は、3D用画像生成部10によって生成されたウィンドウの左目用画像及び右目用画像を3D表示部8に表示する際、立体視のための処理を行う。詳しくは、左目用画像バッファ51と右目用画像バッファ52とに各々格納される左目用画像と右目用画像とを各々読出し、横方向(x軸方向)に所定幅の列に分割する。そして、左目用画像と右目用画像との列を交互に3D表示部8に表示する。この処理は公知の技術を用いるものであるので、詳しい説明を省略する。
また、表示制御部11は、必要に応じて、所定のウィンドウ(ウィンドウレイヤ)を不明瞭に表示する。表示制御部11は、例えば、焦点がずれたように表示する、いわゆる、ぼかし効果を施して、当該ウィンドウを表示する。
3D表示部8は、例えば3D液晶で構成される。すなわち、3D表示部8に表示される各列は偏光グラスを介した表示のような効果を奏し、左目用画像から生成された列は左目だけに、右目用画像から生成された列は右目だけに入る。この結果、3D表示部8に表示されるわずかに異なる左目用画像と右目用画像とは、各々左目と右目とに入り、利用者にとっては、左目用画像と右目用画像とからなるウィンドウ画像が1つの立体画像として見える。
身体位置検出部6は利用者の特定の身体部位の位置を検出する。身体位置検出部6は、例えば、視覚用RGBカメラ、赤外線を用いる奥行き検出用被写界深度カメラなどを備えている。
図3は本発明の実施の形態1の指示受付装置100の身体位置検出部6による利用者の特定の身体部位の位置検出を説明する説明図である。身体位置検出部6においては、前記RGBカメラが利用者を撮影し、当該撮影画像上における、利用者の特定の身体部位(例えば、顔、指先等)が検出される。該検出の処理においては、既存の技術を用いる。例えば、身体位置検出部6のRGBカメラによる撮影画像の中から肌の色に近い領域を検出し、検出した領域内に、目、眉及び口等の人間の顔に含まれる特徴的な形状の図形が含まれるか否か、又は人間の手の特徴な形状の図形が含まれるか否かを判定し、該特徴的な形状の図形が含まれている場合、頭部又は手であると認識して頭部及び指先の位置(例えば、2次元座標)を検出する。
前記RGBカメラによって検出された、例えば、利用者の頭部及び指先に対して、被写界深度カメラは、利用者の指先の奥行情報(df)、頭部の奥行情報(dh)等を取得する。
身体位置検出部6は、このように、RGBカメラによって検出された、利用者の頭部及び手(指先)の当該撮影画像上の2次元座標と、前記被写界深度カメラによって取得された利用者の指先の奥行情報(df)及び頭部の奥行情報(dh)に基づき、利用者の指先及び頭部の位置を特定することが出来る。
指示受付部7は、身体位置検出部6による検出結果と、前記深さ奥行テーブルと、ウィンドウ画像を構成する2次元座標(以下、ウィンドウ構成座標と言う。)とに基づき、利用者の指示を受け付ける。
以下、指示受付部7による利用者の指示受付を詳しく説明する。図4は本発明の実施の形態1の指示受付装置100における、利用者の指示の受付を説明する説明図である。本発明の実施の形態1の指示受付装置100においては、図4に示すように、表示すべき複数のウィンドウの深さ情報値を異にすることによって、利用者に対して、複数のウィンドウレイヤが段階的に重なった立体表示される。この際、利用者は、例えば、指先を適宜移動させ、何れかのウィンドウレイヤのソフトキーを操作する動作を行い、身体位置検出部6が指先の2次元座標及び奥行情報を検出する。この場合、CPU1は、前記深さ奥行テーブルに基づき、検出された指先の奥行情報に対応する深さ情報値を取得し、取得した深さ情報に係るウィンドウレイヤを特定する。更に、CPU1は、前記ウィンドウ構成座標に基づき、当該ウィンドウレイヤのソフトキーの中、検出された指先の2次元座標に対応する2次元座標のソフトキーを特定する。指示受付部7は、CPU1による特定結果に基づき、所定のウィンドウレイヤのソフトキーに係る指示を受け付けたものと認識する。
また、本発明の実施の形態1の指示受付装置100においては、上述したように、複数のウィンドウレイヤを段階的に重って立体表示するにおいて、各ウィンドウレイヤ(ウィンドウ)を透明又は半透明にして表示する。詳しくは、各ソフトキーを描画する枠及び文字以外は透明又は半透明にして表示される。図5は本発明の実施の形態1の指示受付装置100において表示される複数のウィンドウ画像の利用者視点での映り方を説明する説明図である。
図5に示すように、本発明の実施の形態1の指示受付装置100においては、複数のウィンドウレイヤが透明又は半透明に重なって立体表示されるので、利用者はすべてのウィンドウレイヤのソフトキーを一括して視認できる。すなわち、各ウィンドウレイヤの面積(図中、x方向及びy方向)を広げることなく、数多いソフトキーを利用者の前に列挙することが出来る。
なお、以上の構成に限るものでなく、各ウィンドウレイヤの大きさ、明度等を変えることによって、ウィンドウレイヤの遠近感を高めるように構成しても良い。
図6は本発明の実施の形態1の指示受付装置100における、利用者の指示受付の処理を説明するフローチャートである。
まず、利用者が本発明の実施の形態1の指示受付装置100を適宜操作することによって、複数のウィンドウレイヤを表示するよう指示する。利用者の指示に応じて、表示制御部11は透明な複数のウィンドウレイヤを重ねて立体表示させる(S101)。表示制御部11によるウィンドウレイヤの立体表示ついては、上述したとおりであり、詳しい説明を省略する。
次いで、身体位置検出部6は利用者の指先の位置を検出する(S102)。身体位置検出部6によって、利用者の指先の2次元座標及び奥行情報が取得される。身体位置検出部6による利用者の指先の位置の検出については、上述したとおりであり、詳しい説明を省略する。
この後、CPU1は、身体位置検出部6を介して取得した利用者の指先の奥行情報と、記憶部4に記憶されている深さ奥行テーブルとに基づき、指先の奥行情報に対応する深さ情報値を取得し、該深さ情報に係るウィンドウレイヤを特定する。
更に、CPU1は、特定されたウィンドウレイヤ(以下、特定ウィンドウレイヤと言う)以外のウィンドウレイヤを不明瞭に表示するように、表示制御部11に表示する。表示制御部11は、CPU1の指示に応じて、特定ウィンドウレイヤ以外のウィンドウレイヤに前記ぼかし効果を施し、不明瞭に表示する(S103)。これによって、今現在、注目されているウィンドウレイヤを利用者に認識させ、いわゆるアクティブ化と同様の効果を得ることが出来る。
次いで、CPU1は、身体位置検出部6によって取得された利用者の指先の2次元座標に基づき、利用者の指先が所定のソフトキー内にあるか否かを判定する(S104)。詳しくは、前記ウィンドウ構成座標に基づいて、所定のソフトキーに係る2次元座標によって区画(描画)される範囲内に、利用者の指先の2次元座標が存在するか否かを判定する。
CPU1は、利用者の指先が所定のソフトキー内にないと判定した場合(S104:NO)、利用者の指先が所定のソフトキー内に入るまで待機する。
一方、CPU1が利用者の指先が所定のソフトキー内にあると判定した場合(S104:YES)、表示制御部11は当該ソフトキーをアクティブ化し(S105)、該ソフトキーが注目されている旨を利用者に通知する。例えば、表示制御部11は、当該ソフトキーに色を付して表示する。
次いで、CPU1は当該ソフトキーの操作があったか否かを判定する(S106)。例えば、利用者は当該ソフトキーを操作するために、指先にて当該ソフトキーを押厚する動作を行う。斯かる際、CPU1は身体位置検出部6を介して利用者の指先を監視する。例えば、利用者の指先の押厚動作によって、指先の2次元座標には大きな変化がないものの、指先の奥行情報に大きな変化が現れた場合、CPU1は当該ソフトキーの操作があったと判定する。
CPU1は、例えば、所定の時間、当該ソフトキーの操作がないと判定した場合(S106:NO)、処理をS102に戻す。
一方、CPU1が所定のソフトキーの操作があったと判定した場合(S106:YES)、指示受付部7は該ソフトキーに係る指示を受け付けたものと認識する(S107)。
斯かる際、CPU1は、指示受付部7を介して受け付けた所定のソフトキーに係る指示を実行する(S108)。
ところが、上述したように、複数のウィンドウレイヤが透明又は半透明に重なって立体表示されている場合、利用者が、遠く見えるウィンドウレイヤを近くで見ようと近づく場合が想定できる。このように利用者が指示受付装置100側に接近した場合における、本発明の実施の形態1の指示受付装置100の対応について以下に説明する。
図7は本発明の実施の形態1の指示受付装置100において、利用者が接近した場合の対応を示すフローチャートである。説明の便宜上、複数のウィンドウレイヤが表示された後(図4参照)、利用者が遠く見えるウィンドウレイヤ(例えば、図4中、第3ウィンドウレイヤ)を近くで見ようとして指示受付装置100側に近づく場合を例に説明する。
まず、利用者が本発明の実施の形態1の指示受付装置100を適宜操作することによって、複数のウィンドウレイヤを表示するよう指示する。利用者の指示に応じて、表示制御部11は透明な複数のウィンドウレイヤを重ねて立体表示させる(S201)。表示制御部11によるウィンドウレイヤの立体表示ついては、上述したとおりであり、詳しい説明を省略する。
次いで、身体位置検出部6は利用者の頭部の位置を検出する(S202)。身体位置検出部6によって、利用者の頭部の2次元座標及び奥行情報が取得される。身体位置検出部6による利用者の頭部の位置の検出については、上述したとおりであり、詳しい説明を省略する。
次いで、CPU1は、身体位置検出部6によって取得された利用者の頭部の奥行情報に基づき、利用者が指示受付装置100から所定距離内に居るか否かを判定する(S203)。すなわち、身体位置検出部6によって取得される奥行情報は、指示受付装置100からの距離によって変更される。換言すれば、該奥行情報は、指示受付装置100からの距離を表すものである。従って、前記所定距離に対応する奥行情報の閾値を予め設定しておけば、該閾値と、身体位置検出部6によって取得された奥行情報とを比較することによって、利用者が所定距離内に居るか否かを判定することができる。
より詳しくは、本発明の実施の形態1においては、前記奥行情報の閾値として、前記深さ奥行テーブルに書き込まれている、各ウィンドウレイヤに係る奥行情報を用いるように構成されている。すなわち、S203において、CPU1は、身体位置検出部6によって取得された利用者の頭部の奥行情報と、深さ奥行テーブルの各ウィンドウレイヤに係る奥行情報とを比較することによって、利用者が指示受付装置100から所定距離内に居るか否かを判定する。
一方、例えば、利用者が遠く見えるウィンドウレイヤ(例えば、図4中、第3ウィンドウレイヤ)を近くで見ようとして指示受付装置100側に近づいたことから、身体位置検出部6によって取得された利用者の頭部の奥行情報(距離)が第1ウィンドウレイヤに係る奥行情報(距離)内であると、CPU1によって判定される場合が生じる(S203:YES)。図8はこのような場合を、概念的に示す概念図である。斯かるCPU1の判定結果を仮想的に表すと、図8に示すように、利用者の頭部が第1ウィンドウレイヤより、指示受付装置100側に接近している状態に該当する。
このような場合、CPU1は、第1ウィンドウレイヤを削除するように、表示制御部11に指示する。CPU1の指示に応じて、表示制御部11は、第1ウィンドウレイヤを3D表示部8から削除する(S204)。
なお、CPU1によって、S203で、身体位置検出部6によって取得された利用者の頭部の奥行情報(距離)が、第2ウィンドウレイヤに係る奥行情報(距離)内であると判定された場合は、表示制御部11は、第1ウィンドウレイヤ及び第2ウィンドウレイヤを3D表示部8から削除する。
一方、CPU1は利用者が指示受付装置100から所定距離内に居ないと判定した場合(S203:NO)、すなわち、CPU1が、身体位置検出部6によって取得された利用者の頭部の奥行情報(距離)が、前記深さ奥行テーブルの何れのウィンドウレイヤに係る奥行情報(距離)内でないと判定した場合は、処理をS202に戻す。
本発明の実施の形態1の指示受付装置100の構成は上述した構成に限るものでない。例えば、利用者の頭部又は指先の所定のゼスチャーにより、2次元座標及び奥行情報に所定の変化が検知された場合、各ウィンドウレイヤの順番(z軸方向)を置き換えるように構成しても良い。
更に、以上の記載においては、身体位置検出部6が視覚用RGBカメラ、赤外線を用いる奥行き検出用被写界深度カメラを備え、利用者の特定の身体部位の位置を検出する構成である場合を例に説明したが、これに限るものでない。例えば、利用者の特定の身体部位に赤外線発光素子を着用させ、該赤外線発光素子からの赤外線を拾って利用者の特定の身体部位の位置を検出する構成であっても良い。
また、以上の記載においては、複数のウィンドウ(ウィンドウレイヤ)が3D表示部8によって重なって立体表示される場合を例として説明したが、これに限るものでない。例えば、いわゆる、HMD(Head Mount Display)を用いる構成であっても良い。
なお、3D表示部8を用いる構成でなく、いわゆる、プリミティブな方式、偏光フィルター又は液晶シャッターのメガネ方式を用いる構成であっても良い。
(実施の形態2)
図9は本発明の実施の形態2の指示受付装置100の要部構成を示す機能ブロック図である。実施の形態2の指示受付装置100は、動作を行うためのコンピュータプログラムが、I/F13を介してCD−ROM等の可搬型記録媒体Aで提供することも可能であるように構成されている。さらに、実施の形態2の指示受付装置100は、前記コンピュータプログラムを、図示しない外部装置から通信部12を介してダウンロードすることも可能であるように構成されている。以下に、その内容を説明する。
実施の形態2の指示受付装置100は外装(又は内装)の記録媒体読み取り装置(図示せず)を備えており、該記録媒体読み取り装置に、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示させ、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受付させるプログラム等が記録された可搬型記録媒体Aを挿入して、例えば、CPU1がROM2にこのプログラムをインストールする。かかるプログラムはRAM3にロードして実行される。これにより、実施の形態1の本発明の指示受付装置100として機能する。
前記記録媒体としては、いわゆるプログラムメディアであっても良く、磁気テープ及びカセットテープ等のテープ系、フレキシブルディスク及びハードディスク等の磁気ディスク並びにCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM、EEPROM、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であっても良い。
通信部12を介してネットワークからプログラムコードをダウンロードするように流動的にプログラムコードを担持する媒体であっても良い。なお、このように通信ネットワークからプログラムをダウンロードする場合には、そのダウンロード用のプログラムは予め本体装置に格納しておくか、あるいは別な記録媒体からインストールされるものであっても良い。なお、本発明は、前記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
実施の形態1と同様の部分については、同一の符号を付して詳細な説明を省略する。
1 CPU
6 身体位置検出部(検出手段)
7 指示受付部(指示受付手段)
8 3D表示部
11 表示制御部(表示手段)
100 指示受付装置

Claims (7)

  1. 指示を受け付ける指示受付画像を介して指示を受け付ける指示受付装置において、
    立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示する表示手段を備えることを特徴とする指示受付装置。
  2. 利用者の所定の身体部位の位置を検出する検出手段と、
    該検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受け付ける指示受付手段と
    を備えることを特徴とする請求項1に記載の指示受付装置。
  3. 前記所定の身体部位は頭部であり、
    検出された頭部の位置に基づき、前記表示手段が何れかの指示受付画像を削除するように構成されていることを特徴とする請求項2に記載の指示受付装置。
  4. 前記指示受付手段が指示を受け付ける際、受け付ける指示に係る指示受付画像以外の指示受付画像は不明瞭に表示するように構成されていることを特徴とする請求項2又は3に記載の指示受付装置。
  5. 利用者の所定の身体部位の位置を検出する検出手段を備え、指示を受け付ける指示受付画像を介して指示を受け付ける指示受付方法において、
    立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示する表示ステップと、
    前記検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受け付ける指示受付ステップと
    を含むことを特徴とする指示受付方法。
  6. 利用者の所定の身体部位の位置を検出する検出手段を備える指示受付装置を構成するコンピュータに、指示を受け付ける指示受付画像を介して指示を受付させるコンピュータプログラムにおいて、
    コンピュータに、立体画像である複数の指示受付画像のレイヤを、透視可能にして、重ねて表示させる表示ステップと、
    コンピュータに、前記検出手段の検出結果に基づき、前記複数の指示受付画像の中、何れかの指示受付画像に係る指示を受付させる指示受付ステップと
    を実行させることを特徴とするコンピュータプログラム。
  7. 請求項6に記載のコンピュータプログラムを記録してあることを特徴とするコンピュータでの読み取りが可能な記録媒体。
JP2010256920A 2010-11-17 2010-11-17 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体 Active JP5300825B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010256920A JP5300825B2 (ja) 2010-11-17 2010-11-17 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体
US13/296,608 US20120120066A1 (en) 2010-11-17 2011-11-15 Instruction accepting apparatus, instruction accepting method, and recording medium
CN2011103649299A CN102467236A (zh) 2010-11-17 2011-11-17 指示受理装置和指示受理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256920A JP5300825B2 (ja) 2010-11-17 2010-11-17 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体

Publications (2)

Publication Number Publication Date
JP2012108723A true JP2012108723A (ja) 2012-06-07
JP5300825B2 JP5300825B2 (ja) 2013-09-25

Family

ID=46047331

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256920A Active JP5300825B2 (ja) 2010-11-17 2010-11-17 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体

Country Status (3)

Country Link
US (1) US20120120066A1 (ja)
JP (1) JP5300825B2 (ja)
CN (1) CN102467236A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013140815A1 (ja) 2012-03-22 2013-09-26 東洋製罐グループホールディングス株式会社 熱可塑性樹脂製品の成形方法及びその成形装置
JP2014082605A (ja) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc 情報処理装置、その制御方法及びプログラム
JP2015522195A (ja) * 2012-07-13 2015-08-03 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
JP2016024752A (ja) * 2014-07-24 2016-02-08 セイコーエプソン株式会社 Gui装置
JP2016148965A (ja) * 2015-02-12 2016-08-18 三菱電機株式会社 表示制御装置および表示制御方法
JP2019128726A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP2020071641A (ja) * 2018-10-31 2020-05-07 株式会社デンソー 入力操作装置及びユーザインタフェースシステム
JP2021103493A (ja) * 2019-12-25 2021-07-15 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162624A1 (en) * 2011-12-22 2013-06-27 Research In Motion Limited Method and apparatus pertaining to modification of a three-dimensional presentation of a user-interaction opportunity
DE102015212920A1 (de) * 2015-07-10 2017-01-12 Bayerische Motoren Werke Aktiengesellschaft Bedienung von dreidimensionalen Benutzerschnittstellen
JP6620480B2 (ja) * 2015-09-15 2019-12-18 オムロン株式会社 文字入力方法および文字入力用のプログラムならびに情報処理装置
US10218793B2 (en) 2016-06-13 2019-02-26 Disney Enterprises, Inc. System and method for rendering views of a virtual space
DE102016216577A1 (de) 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
CN110462690B (zh) 2017-03-27 2024-04-02 Sun电子株式会社 图像显示系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168693A (ja) * 1989-11-29 1991-07-22 Canon Inc 複数ウインド表示装置
JPH10307936A (ja) * 1997-05-09 1998-11-17 Sharp Corp データの表示方法
JP2003271279A (ja) * 2002-03-12 2003-09-26 Nec Corp 三次元ウィンドウ表示装置、三次元ウィンドウ表示方法及び三次元ウィンドウ表示プログラム
JP2003308167A (ja) * 2002-04-17 2003-10-31 Nippon Telegr & Teleph Corp <Ntt> 情報入出力装置と方法
JP2004192306A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> 表示位置変更装置、表示位置変更方法、表示位置変更プログラム及びそのプログラムを記録した記録媒体
JP2008204145A (ja) * 2007-02-20 2008-09-04 Sega Corp 画像処理装置、プログラム及びコンピュータ読み取り可能な記録媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5835088A (en) * 1995-12-12 1998-11-10 International Business Machines Corporation Method and apparatus for providing programmable window-to-window focus change within a data processing system using a graphical user interface
US6118427A (en) * 1996-04-18 2000-09-12 Silicon Graphics, Inc. Graphical user interface with optimal transparency thresholds for maximizing user performance and system efficiency
JP4566596B2 (ja) * 2004-03-29 2010-10-20 アルパイン株式会社 操作指示装置
CN100480972C (zh) * 2004-06-29 2009-04-22 皇家飞利浦电子股份有限公司 图形用户界面的多层显示
US7178111B2 (en) * 2004-08-03 2007-02-13 Microsoft Corporation Multi-planar three-dimensional user interface
US9772689B2 (en) * 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
US9077986B2 (en) * 2008-08-27 2015-07-07 Pure Depth Limited Electronic visual displays
US9524700B2 (en) * 2009-05-14 2016-12-20 Pure Depth Limited Method and system for displaying images of various formats on a single display
US8547327B2 (en) * 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US10007393B2 (en) * 2010-01-19 2018-06-26 Apple Inc. 3D view of file structure

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168693A (ja) * 1989-11-29 1991-07-22 Canon Inc 複数ウインド表示装置
JPH10307936A (ja) * 1997-05-09 1998-11-17 Sharp Corp データの表示方法
JP2003271279A (ja) * 2002-03-12 2003-09-26 Nec Corp 三次元ウィンドウ表示装置、三次元ウィンドウ表示方法及び三次元ウィンドウ表示プログラム
JP2003308167A (ja) * 2002-04-17 2003-10-31 Nippon Telegr & Teleph Corp <Ntt> 情報入出力装置と方法
JP2004192306A (ja) * 2002-12-11 2004-07-08 Nippon Telegr & Teleph Corp <Ntt> 表示位置変更装置、表示位置変更方法、表示位置変更プログラム及びそのプログラムを記録した記録媒体
JP2008204145A (ja) * 2007-02-20 2008-09-04 Sega Corp 画像処理装置、プログラム及びコンピュータ読み取り可能な記録媒体

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013140815A1 (ja) 2012-03-22 2013-09-26 東洋製罐グループホールディングス株式会社 熱可塑性樹脂製品の成形方法及びその成形装置
JP2015522195A (ja) * 2012-07-13 2015-08-03 ソフトキネティック ソフトウェア 手の上の特異な注目すべき点を使用した人間−コンピュータ・ジェスチャ・ベース同時相互作用のための方法及びシステム
JP2014082605A (ja) * 2012-10-15 2014-05-08 Canon Marketing Japan Inc 情報処理装置、その制御方法及びプログラム
JP2016024752A (ja) * 2014-07-24 2016-02-08 セイコーエプソン株式会社 Gui装置
JP2016148965A (ja) * 2015-02-12 2016-08-18 三菱電機株式会社 表示制御装置および表示制御方法
JP2019128726A (ja) * 2018-01-23 2019-08-01 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP7040041B2 (ja) 2018-01-23 2022-03-23 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP2020071641A (ja) * 2018-10-31 2020-05-07 株式会社デンソー 入力操作装置及びユーザインタフェースシステム
JP2021103493A (ja) * 2019-12-25 2021-07-15 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
JP7424047B2 (ja) 2019-12-25 2024-01-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
JP5300825B2 (ja) 2013-09-25
CN102467236A (zh) 2012-05-23
US20120120066A1 (en) 2012-05-17

Similar Documents

Publication Publication Date Title
JP5300825B2 (ja) 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体
US20210405761A1 (en) Augmented reality experiences with object manipulation
US10591729B2 (en) Wearable device
KR20230025914A (ko) 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
CN103080887B (zh) 用于基于接近的输入的装置和方法
US11164546B2 (en) HMD device and method for controlling same
KR20230025909A (ko) 증강 현실 안경류 3d 페인팅
KR20230017849A (ko) 증강 현실 안내
US11675198B2 (en) Eyewear including virtual scene with 3D frames
CN112136096B (zh) 将物理输入设备显示为虚拟对象
US20210406542A1 (en) Augmented reality eyewear with mood sharing
CN117916777A (zh) 手工制作的增强现实努力证据
CN117897680A (zh) 基于物理动作的增强现实通信交换
CN116324579A (zh) 使用虚拟眼戴器光束的增强现实游戏
KR20230079156A (ko) 컨텍스트-기반 전송 기능을 갖는 이미지 캡처 아이웨어
JPWO2020031493A1 (ja) 端末装置および端末装置の制御方法
CN117940964A (zh) 手工制作的增强现实体验
CN117940877A (zh) 增强现实道具交互
KR20150097291A (ko) 영상표시장치 및 그것의 제어방법
KR20130053453A (ko) 이동 단말기

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120919

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R150 Certificate of patent or registration of utility model

Ref document number: 5300825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150