JPWO2017217375A1 - 画像表示装置、画像表示方法、及び画像表示プログラム - Google Patents

画像表示装置、画像表示方法、及び画像表示プログラム Download PDF

Info

Publication number
JPWO2017217375A1
JPWO2017217375A1 JP2018523901A JP2018523901A JPWO2017217375A1 JP WO2017217375 A1 JPWO2017217375 A1 JP WO2017217375A1 JP 2018523901 A JP2018523901 A JP 2018523901A JP 2018523901 A JP2018523901 A JP 2018523901A JP WO2017217375 A1 JPWO2017217375 A1 JP WO2017217375A1
Authority
JP
Japan
Prior art keywords
image
image display
display device
unit
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018523901A
Other languages
English (en)
Other versions
JP6514416B2 (ja
Inventor
玲志 相宅
玲志 相宅
英起 多田
英起 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NURVE, INC.
Original Assignee
NURVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NURVE, INC. filed Critical NURVE, INC.
Publication of JPWO2017217375A1 publication Critical patent/JPWO2017217375A1/ja
Application granted granted Critical
Publication of JP6514416B2 publication Critical patent/JP6514416B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers

Abstract

ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置等を提供する。画像表示装置は、複数の選択対象及び操作用オブジェクトを含むユーザインタフェースの画像を仮想空間内の特定の平面に配置する仮想空間構成部と、現実空間に関する情報を取得する外部情報取得部と、上記情報に基づいて現実空間に実在する特定の物体を認識する物体認識部と、特定の物体の像を仮想空間内の上記平面に配置する疑似3次元化処理部と、該平面において特定の物体の像が操作用オブジェクトと接触したか否かを判定する接触判定部と、両者が接触したと判定された場合に特定の物体の像の動きが操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、上記作用が及ぼされた操作用オブジェクトにより複数の選択対象のいずれが選択されたかを判定する選択判定部とを備える。

Description

本発明は、仮想空間におけるユーザインタフェースの表示技術に関する。
近年、仮想現実(バーチャルリアリティ、以下「VR」とも記す)をユーザに体験させる技術が、ゲームやエンターテインメント或いは職業訓練等の様々な分野で利用されている。VRにおいては、通常、ヘッドマウントディスプレイ(以下、「HMD」とも記す)と呼ばれるメガネ型又はゴーグル型の表示装置が用いられる。このHMDをユーザの頭部に装着し、HMDに内蔵された画面を両眼で見ることにより、ユーザは立体感のある画像を鑑賞することができる。HMDにはジャイロセンサや加速度センサが内蔵されており、これらのセンサによって検出したユーザの頭部の動きに応じて、画面に表示する画像が変化する。それにより、ユーザは、あたかも表示された画像の中に入り込んだような体験をすることができる。
このようなVRの技術分野においては、ユーザのジェスチャにより操作を行うユーザインタフェースが研究されている。一例として、ユーザの体表に専用のセンサを取り付け、或いは、ユーザの動きを検出するための外部装置をユーザの周囲に配置することにより、HMDに対してユーザの動きに応じた操作を行う技術が知られている。
また、別の例として、HMDに表示される画面内に操作用の特定のオブジェクトを配置し、このオブジェクトに対するユーザの視点の変化を、HMDに内蔵されたジャイロセンサや加速度センサによって検出することにより、ユーザの視点の変化に応じた操作を行う技術も知られている。
さらに、別の例として、特許文献1には、仮想空間にユーザインタフェースを配置し、ユーザがこのユーザインタフェースを操作するために用いる操作部が撮像部の視野内にあり、且つ、操作部とユーザインタフェースとの位置関係が規定の位置関係にある場合に、ユーザインタフェースに対する操作があったと判断する画像処理装置が開示されている。
特開2012−48656号公報
しかしながら、ユーザのジェスチャを検出するために専用のセンサや外部装置を設ける場合、システム全体が大掛かりになってしまう。また、専用のセンサや外部装置により検出された信号を処理するための演算量も膨大になるため、リアルタイムな操作を行うためには高スペックな演算装置が必要になってしまう。
また、HMDの画面内に操作用のオブジェクトを表示しておく場合、このオブジェクトが常にユーザの視野に入ってくるため、ユーザにとっては邪魔に感じ、VR体験特有の没入感が低減してしまうおそれがある。また、視点の動きによる操作はユーザにとっては直感的とは言えず、誤操作が発生してしまうおそれもある。
さらに、ユーザインタフェースとして複数のアイコンが仮想空間に表示されている場合、操作部を移動させることにより各アイコンとの位置関係がその都度変化する。そのため、単純に、操作部と各アイコンとの位置関係に基づいて操作の有無を判定すると、ユーザが意図しないアイコンに対して操作がなされたものと判断されてしまうおそれがある。この点に関し、特許文献1においては、アイコンと操作部との位置関係が所定の条件を満たしている状態で選択指示が入力された場合に、当該アイコンに対する操作がなされたものと判断している。つまり、アイコンの選択と決定という2段階の処理が行われている。そのため、ユーザにとっては直感的な操作とは言い難い。
本発明は上記に鑑みてなされたものであって、ユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを、簡素な構成で実現することができる画像表示装置、画像表示方法、及び画像表示プログラムを提供することを目的とする。
上記課題を解決するために、本発明の一態様である画像表示装置は、ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置する仮想空間構成部と、当該画像表示装置が実在している現実空間に関する情報を取得する外部情報取得部と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識する物体認識部と、前記特定の物体の像を前記仮想空間内の前記平面に配置する疑似3次元化処理部と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定する接触判定部と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定する選択判定部と、を備えるものである。
上記画像表示装置において、前記相互作用演算部は、前記特定の物体の像と前記操作用オブジェクトとの接触点における前記特定の物体の像の速度ベクトルに基づいて前記作用を算出しても良い。
上記画像表示装置において、前記相互作用演算部は、前記特定の物体の像の前記速度ベクトルを、前記操作用オブジェクトの速度ベクトルに加算することにより前記作用を算出しても良い。
上記画像表示装置において、前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトの速度ベクトルの絶対値が閾値以上であり、且つ、前記操作用オブジェクトの進行方向に前記複数の選択対象のいずれかが存在する場合、該進行方向に存在する選択対象が選択されたものと判定しても良い。
上記画像表示装置において、前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトが、前記複数の選択対象に対してそれぞれ設定された複数の判定領域のいずれかに位置している場合、当該位置している判定領域に対応する選択対象が選択されたものと判定しても良い。
上記画像表示装置において、前記仮想空間構成部は、前記複数の選択対象のいずれも選択されなかったと前記選択判定部が判定した場合、前記操作用オブジェクトを前記作用が及ぼされる前の位置に戻しても良い。
上記画像表示装置は、当該画像表示装置の動きを検出する動き検出部をさらに備え、前記仮想空間構成部は、当該画像表示装置の動きが所定の範囲内である場合、前記ユーザインタフェースの画像を前記仮想空間に配置しても良い。
上記画像表示装置において、前記仮想空間構成部は、当該画像表示装置の動きが前記所定の範囲を超えた場合に、前記ユーザインタフェースの画像を前記仮想空間から消去しても良い。
上記画像表示装置において、前記外部情報取得部は、当該画像表示装置に内蔵されたカメラであっても良い。
上記画像表示装置において、前記複数の選択対象の各々は、当該画像表示装置に対する操作の内容を表す項目であっても良い。
上記画像表示装置において、前記複数の選択対象の各々は、2次元的に表示される図面において特定される位置であっても良い。
本発明の別の態様である画像処理方法は、ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置が実行する画像表示方法であって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、を含むものである。
本発明のさらに別の態様である画像処理プログラムは、ユーザに仮想空間を認識させるための画面を画像表示装置に表示させるための画像表示プログラムであって、複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、をコンピュータに実行させるものである。
本発明によれば、仮想空間内の特定の平面にユーザインタフェースの画像を配置すると共に、現実空間に実在する特定の物体の像を上記平面に配置し、該物体の像により、ユーザインタフェースに含まれる操作用オブジェクトを介して複数の選択対象に対する選択を行うので、現実空間におけるユーザのジェスチャによる直感的且つ誤操作が少ないユーザインタフェースを簡素な構成で実現することが可能となる。
図1は、本発明の第1の実施形態に係る画像表示装置の概略構成を示すブロック図である。 図2は、画像表示装置をユーザに装着させた状態を示す模式図である。 図3は、図1に示す表示部に表示される画面の例を示す模式図である。 図4は、図3に示す画面に対応する仮想空間の例を示す模式図である。 図5は、操作メニューが表示された画面の例を示す模式図である。 図6は、図1に示す画像表示装置の動作を示すフローチャートである。 図7は、メニューの選択判定処理を示すフローチャートである。 図8は、メニューの選択判定処理を説明するための模式図である。 図9は、本発明の第1の実施形態の変形例におけるメニューの選択判定処理を示すフローチャートである。 図10は、本発明の第2の実施形態に係る画像表示装置の動作を示すフローチャートである。 図11は、操作用地図を例示する模式図である。 図12は、地図上の移動先の判定処理を示すフローチャートである。
以下、本発明の実施形態に係る表示装置について、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る画像表示装置の概略構成を示すブロック図である。本実施形態に係る画像表示装置1は、ユーザに両眼で画面を見させることにより、3次元的な仮想空間を認識させる装置である。図1に示すように、画像表示装置1は、画面が表示される表示部11と、記憶部12と、各種演算処理を行う演算部13と、当該画像表示装置1の外部に関する情報(以下、外部情報という)を取得する外部情報取得部14と、画像表示装置1の動きを検出する動き検出部15とを備える。
図2は、画像表示装置1をユーザ2に装着させた状態を示す模式図である。画像表示装置1は、例えば図2に示すように、スマートフォン、携帯情報端末(PDA)、携帯型ゲーム装置のようなディスプレイ及びカメラを備えた汎用の表示装置3をホルダー4に取り付けることにより構成することができる。この場合、表示装置3は、表面に設けられたディスプレイをホルダー4の内側に向け、背面に設けられたカメラ5をホルダー4の外側に向けた状態で取り付けられる。ホルダー4の内部には、ユーザの左右の眼に対応する位置にレンズがそれぞれ設けられており、ユーザ2は、これらのレンズを通して表示装置3のディスプレイを見る。また、ユーザ2は、ホルダー4を頭部に装着することにより、画像表示装置1に表示される画面をハンズフリーで見ることができる。
もっとも、表示装置3及びホルダー4の外観は、図2に示すものに限定されない。例えば、ホルダー4の代わりに、レンズが内蔵されたシンプルな箱型のホルダーを用いても良い。また、ディスプレイや演算装置やホルダーが一体化された専用の画像表示装置を用いても良い。このような専用の画像表示装置は、ヘッドマウントディスプレイとも呼ばれる。
再び図1を参照すると、表示部11は、例えば液晶又は有機EL(エレクトロルミネッセンス)によって形成された表示パネル及び駆動部を含むディスプレイである。
記憶部12は、例えばROMやRAMといった半導体メモリ等のコンピュータ読取可能な記憶媒体である。記憶部12は、オペレーティングシステムプログラム及びドライバプログラムに加えて、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶するプログラム記憶部121と、表示部11に表示させるコンテンツ(静止画や動画)の画像データを記憶する画像データ記憶部122と、コンテンツの表示中に入力操作を行う際に用いられるユーザインタフェースの画像のデータを記憶するオブジェクト記憶部123とを含む。この他、記憶部12は、各種アプリケーションの実行中に出力される音声や効果音の音声データを記憶しても良い。
演算部13は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部121に記憶された各種プログラムを読み込むことにより、画像表示装置1の各部を統括的に制御すると共に、種々の画像を表示するための各種演算処理を実行する。演算部13の詳細な構成については後述する。
外部情報取得部14は、画像表示装置1が実在している現実空間に関する情報を取得する。外部情報取得部14の構成は、現実空間に実在する物体の位置や動きを検出可能な構成であれば特に限定されず、例えば光学カメラ、赤外線カメラ、超音波発信機及び受信機等を外部情報取得部14として用いることができる。本実施形態においては、表示装置3に内蔵されたカメラ5を外部情報取得部14として用いる。
動き検出部15は、例えばジャイロセンサ及び加速度センサを含み、画像表示装置1の動きを検出する。この動き検出部15の検出結果に基づいて、画像表示装置1は、ユーザ2の頭部の状態(静止しているか否か)や、ユーザ2の視線方向(上方、下方)や、ユーザ2の視線方向の相対的な変化等を検知することができる。
次に、演算部13の詳細な構成について説明する。演算部13は、プログラム記憶部121に記憶された画像表示プログラムを読み込むことにより、3次元的に構成された仮想空間をユーザ2に認識させる画面を表示部11に表示させると共に、ユーザ2のジェスチャによる入力操作を受け付ける動作を実行する。
ここで、図3は、表示部11に表示される画面の例を示す模式図である。図4は、図3に示す画面に対応する仮想空間の例を示す模式図である。静止画又は動画のコンテンツを仮想空間としての表示する際には、図3に示すように、表示部11の表示パネルを2つの領域に分け、互いに視差を設けた2つの画面11a、11bをこれらの領域に表示する。ユーザ2は、画面11a、11bを左右の眼でそれぞれ見ることにより、図4に示すような3次元的な画像(即ち、仮想空間)を認識することができる。
図1に示すように、演算部13は、動き判定部131と、仮想空間構成部132と、物体認識部133と、疑似3次元化処理部134と、仮想空間表示制御部135と、接触判定部136と、相互作用演算部137と、選択判定部138、操作実行部139とを備える。
動き判定部131は、動き検出部15から出力された検出信号に基づいて、ユーザ2の頭部の動きを判定する。具体的には、動き判定部131は、ユーザの頭部が静止している否か、及び、頭部が動いている場合には頭部をどの方向に向けたか、といったことを判定する。
仮想空間構成部132は、ユーザに認識させる仮想空間におけるオブジェクトの配置等を行う。詳細には、仮想空間構成部132は、画像データ記憶部122から画像データを読み出し、ユーザの頭部の状態に応じて、画像データによって表される画像全体から、一部の領域(ユーザの視野の範囲内の領域)を切り出したり、画像内のオブジェクトの奥行き感を変化させたりする。
また、仮想空間構成部132は、ユーザがジェスチャによる操作を行う際に使用されるユーザインタフェースの画像データをオブジェクト記憶部123から読み出し、このユーザインタフェースの画像を仮想空間内の特定の平面に配置する。
図5は、ユーザインタフェースが表示された画面の例を示す模式図である。図5においては、ユーザインタフェースとして操作メニュー16が表示されている。操作メニュー16は、選択対象である複数のメニュー項目16a〜16dと、これらの選択対象のいずれかを選択する際に用いられる操作用オブジェクト17とを含む。各メニュー項目16a〜16dは、画像処理装置1に対する操作の内容(メニューA〜D)を表している。また、操作用オブジェクト17は、ユーザが仮想的に操作することにより所望のメニュー項目を選択するためのツールである。本実施形態においては、円形状のアイコンを操作用オブジェクト17として表示しているが、操作用オブジェクトの形状やサイズは特に限定されない。例えば、棒状や矢印状など、所望の形状及びサイズのアイコンを操作用オブジェクトとして用いても良い。
物体認識部133は、外部情報取得部14によって取得された外部情報に基づいて、現実空間に実在する特定の物体を認識する。上述したように、外部情報取得部14としてカメラ5(図2参照)を用いる場合、物体認識部133は、カメラ5が撮像することにより取得した現実空間の画像に対する画像処理により、予め設定された特徴を有する物体を認識する。認識対象とする特定の物体は、ユーザ2の手や指であっても良いし、スタイラスペンや棒などの物体であっても良い。
特定の物体を認識する際に用いられる特徴は、認識対象に応じて予め設定される。例えばユーザ2の手や指を認識する場合、物体認識部133は、例えば、肌色の範囲に含まれる色特徴量(R、G、Bの各画素値、色比、色差等)を有する画素を抽出し、これらの画素が所定数以上集まっている領域を、指や手が写った領域として抽出する。或いは、抽出した画素が集まっている領域の面積や周囲長に基づいて、指や手が写った領域を抽出しても良い。
疑似3次元化処理部134は、物体認識部133が認識した特定の物体の像を仮想空間内の特定の平面に配置する処理を実行する。具体的には、特定の物体の像をユーザインタフェースの画像と同じ平面に配置する。詳細には、疑似3次元化処理部134は、特定の物体の像を含む2次元画像を生成し、この2次元画像が仮想空間においてユーザインタフェースの画像が表示される平面と同じ奥行き感となるように視差を設定することにより、当該物体の像があたかも3次元的な仮想空間の中のある平面に存在しているようにユーザに認識させる処理を行う。
仮想空間表示制御部135は、仮想空間構成部132が構成した仮想空間に対し、疑似3次元化処理部134が生成した2次元画像を合成して表示部11に表示させる。それにより、例えば図5に示すように、操作メニュー16に対してユーザの指の像(以下、指画像という)18が重畳して表示される。
接触判定部136は、ユーザインタフェースの画像(例えば操作メニュー16)において、物体認識部133が認識した特定の物体の像(例えば指画像18)と操作用オブジェクトとが接触しているか否かを判定する。
相互作用演算部137は、操作用オブジェクトと特定の物体の像とが接触していると判定された場合に、特定の物体の像の動きが操作用オブジェクトに及ぼす作用を算出する。
選択判定部138は、相互作用演算部137が算出した作用に基づき、操作用オブジェクトにより複数の選択対象のいずれが選択されたかを判定する。例えば図5において指画像18を動かすことにより操作用オブジェクト17と接触させ、さらに指画像18を図の左上方向に動かした作用により操作用オブジェクト17を移動させ、その結果、操作用オブジェクト17がメニュー項目16aの象限内の所定領域に入った場合、メニュー項目16a(即ち、「メニューA」)が選択されたものと判定される。
操作実行部139は、複数の選択対象のいずれかが選択されたと判定された場合に、選択された選択対象に応じた操作を実行する。操作の内容は、画像表示装置1において実行可能な操作であれば特に限定されない。具体例として、画像表示のオン・オフを切り替える操作や、表示中の画像を別の画像に切り替える操作等が挙げられる。
次に、画像表示装置1の動作について説明する。図6は、画像表示装置1の動作を示すフローチャートであり、仮想空間の画像表示プログラムの実行中にユーザのジェスチャによる入力操作を受け付ける動作を示している。以下の説明においては、ユーザインタフェースの画像として、図5に示す操作メニュー16が表示されるものとする。
ステップS101において、演算部13は、操作メニュー16の表示を待機する。
続くステップS102において、演算部13は、ユーザの頭部が静止しているか否かを判定する。ここで、頭部が静止しているとは、ユーザの頭部が完全に動いていない状態の他、頭部が僅かに動いている場合を含む。詳細には、動き判定部131が、動き検出部15から出力された検出信号に基づいて、画像表示装置1(即ち頭部)の加速度及び角加速度が所定値以下であるか否かを判定する。加速度及び角加速度が所定値を超える場合、動き判定部131は、ユーザの頭部が静止していないと判定する(ステップS102:No)。この場合、演算部13の動作はステップS101に戻り、引き続き操作メニュー表示を待機する。
一方、演算部13は、ユーザの頭部が静止していると判定した場合(ステップS102:Yes)、続いて、ユーザがカメラ5(図2参照)の前に手をかざしているか否かを判定する(ステップS103)。詳細には、物体認識部133が、カメラ5によって取得された画像に対する画像処理により、手(肌色)の色特徴量を有する画素が所定数以上集まっている領域が存在するか否かを判定する。手の色特徴量を有する画素が所定数以上集まっている領域が存在しない場合、物体認識部133は、ユーザが手をかざしていないと判定する(ステップS103:No)。この場合、演算部13の動作はステップS101に戻る。
一方、演算部13は、ユーザが手をかざしていると判定した場合(ステップS103:Yes)、操作メニュー16を表示部11に表示する(ステップS104)。なお、この間にユーザの頭部が動いた場合、演算部13は、ユーザの頭部の動き(即ち、ユーザの視線方向)に追従するように、操作メニュー16を表示する。ユーザの視線方向が変化しているにもかかわらず、操作メニュー16が背景の仮想空間に対して固定されていると、ユーザの視野から操作メニュー16が外れてしまい、これから操作を行おうとするユーザにとって不自然な画面になってしまうからである。
なお、ステップS103、S104においては、カメラ5に対してユーザが手をかざすことを、操作メニュー16を表示させるトリガーとしているが、手の他にも、例えばスタイラスペンや棒などの予め設定された物体をカメラ5の前にかざすことをトリガーとしても良い。
続くステップS105において、演算部13は、ユーザの頭部が静止しているか否かを再度判定する。演算部13は、ユーザの頭部が静止していないと判定した場合(ステップS105:No)、操作メニュー16を消去する(ステップS106)。その後、演算部13の動作はステップS101に戻る。
ここで、ステップS101、S105において、ユーザの頭部が静止していることを操作メニュー表示の条件とするのは、一般に、ユーザは、頭部を大きく動かしている状態で画像表示装置1の操作を行うことはないからである。逆に言えば、ユーザが頭部を大きく動かしているということは、ユーザは鑑賞中の仮想空間に没入している最中であると考えられ、そのようなときに操作メニュー16を表示すると、ユーザは煩わしく感じてしまうからである。
演算部13は、ユーザの頭部が静止していると判定した場合(ステップS105:Yes)、現実空間における特定の物体の認識処理を実行する(ステップS107)。以下においては、特定の物体として、ユーザの指を認識するものとする。詳細には、外部情報取得部14が取得した現実空間の画像に対し、物体認識部133が画像処理を行うことにより、肌色の色特徴量を有する画素が所定数以上集まっている領域を、ユーザの指が写った領域として抽出する。また、疑似3次元化処理部134が、抽出された領域の2次元画像(即ち、指画像18)を生成し、仮想空間表示制御部135が、該2次元画像を操作メニュー16に重畳して表示部11に表示させる。
続くステップS108において、演算部13は、特定の物体の像が操作用オブジェクトに接触しているか否かを判定する。詳細には、接触判定部136が、操作用オブジェクト17の画素領域に対して指画像18の画素領域の一部が重なっているか否かを判定する。両者が重なっていない場合、接触判定部136は、指画像18は操作用オブジェクト17に接触していないと判定する(ステップS108:No)。この場合、演算部13の動作はステップS104に戻る。
一方、演算部13は、物体の像が操作用オブジェクトに接触していると判定した場合(ステップS108:Yes)、メニューの選択判定処理を実行する(ステップS109)。
図7は、メニューの選択判定処理を示すフローチャートである。また、図8は、メニューの選択判定処理を説明するための模式図である。
まず、ステップS121において、相互作用演算部137は、操作用オブジェクトの速度ベクトルを初期化する。
続くステップS122において、相互作用演算部137は、物体の像のうち、操作用オブジェクトに接触している部分から、物体の像の速度ベクトルを算出する。例えば図8の場合、ユーザが自身の指を動かすことにより、指画像18が破線の矢印の方向に移動し、点Pにおいて操作用オブジェクト17と接触すると、この点Pにおける指画像18の速度ベクトルv1が算出される。
続くステップS123において、相互作用演算部137は、ステップS122において算出された速度ベクトルを操作用オブジェクトの速度ベクトルとして与える。例えば図8の場合、指画像18の速度ベクトルv1と同じ方向及び量を有する速度ベクトルv2が操作用オブジェクト17に与えられる。
続くステップS124において、相互作用演算部137は、新たに速度ベクトルが与えられた操作用オブジェクトの位置を更新する。例えば図8の場合、速度ベクトルv2が与えられることにより、操作用オブジェクト17は破線で示す位置に移動する。
なお、図8においては、円形状の操作用オブジェクト17を表示しているため、速度ベクトルv2が与えられても、操作用オブジェクト17の向きは変化せずに位置のみが変化している。しかし、操作用オブジェクトとして例えば棒状のオブジェクトを用いる場合、速度ベクトルが与えられた位置に応じて操作用オブジェクトを回転させるなどして向きを変化させても良い。要は、指画像18との接触点に速度ベクトルが与えられた場合の操作用オブジェクトの位置や向きを、一般的な物理法則に従って算出すれば良い。また、この際に、操作用オブジェクト17の位置を慣性的に変化させることとしても良い。それにより、ユーザは、より自然な感覚で操作用オブジェクト17を操作することができる。
続くステップS125において、選択判定部138は、操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在し、且つ該速度ベクトルの絶対値が閾値以上であるか否かを判定する。ここで、判定領域とは、ユーザインタフェースの画像内の領域であって、特定のメニュー項目が選択されたか否かの判定を行うために予め設定された領域のことである。判定領域としては、メニュー項目がテキスト表示された領域や、メニュー項目を表すアイコンなど、所望の領域を設定することができる。図8においては、メニュー項目16a〜16dの表示領域の近傍に、判定領域19a〜19dをそれぞれ設けている。
操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在し、且つ該速度ベクトルの絶対値が閾値以上である場合(ステップS125:Yes)、選択判定部138は、当該判定領域に対応するメニュー項目が選択されたと判定する(ステップS126)。例えば、図8の場合、速度ベクトルv2の延長線上に判定領域19aが存在する。この場合、判定領域19aに対応するメニュー項目16aが選択されたと判定される。その後、処理はメインルーチンに戻る。
一方、操作用オブジェクトの速度ベクトルの方向に特定のメニュー項目の判定領域が存在しないか、又は、該速度ベクトルの絶対値が閾値未満である場合(ステップS125:No)、選択判定部138は、メニュー項目の選択に失敗したと判定する(ステップS127)。この場合、選択判定部138はさらに、操作用オブジェクトを初期位置に戻す(ステップS128)。例えば、図8において、指画像18に押された操作用オブジェクト17が速度ベクトルv2の方向に移動したものの、判定領域19aに届かなった場合、操作用オブジェクト17は元の位置に戻って表示される。その後、処理はメインルーチンに戻る。
ステップS109に続くステップS110において、演算部13は、メニュー項目の選択に成功したか否かを判定する。メニュー項目の選択に成功した場合(ステップS110:Yes)、ユーザのジェスチャによる入力操作の受け付けは終了する。この場合、演算部13は、選択されたメニュー項目に応じた動作を実行する。一方、メニュー項目の選択に失敗した場合(ステップS110:No)、演算部13の動作はステップS104に戻る。
以上説明したように、本発明の第1の実施形態によれば、ユーザが頭部をほぼ静止させた場合に操作メニューを仮想空間に表示させるので、入力操作を開始しようとするユーザの意図に沿った表示を行うことができる。つまり、ユーザが意図せずに画像表示装置1のカメラ5(図2参照)に手をかざしてしまったり、手に類似する物体が偶然カメラ5に写り込んでしまったりした場合であっても、操作メニューは表示されないので、ユーザは、操作メニューに妨げられることなく仮想空間の鑑賞を継続することができる。
また、上記実施形態によれば、現実空間に存在する物体の像によって選択対象を直接選択するのではなく、操作用オブジェクトを介して選択対象を選択するので、誤操作を低減することができる。例えば図8において、仮に、指画像18によって直接触った判定領域のメニュー項目が選択されることとすると、判定領域19aに触れようとして指画像18を動かした際に、別の判定領域19dに触れてしまうおそれがある。それに対し、上記実施形態においては、最終的に、操作用オブジェクト17の位置や動きによって選択対象(判定領域)が決定される。従って、ユーザは、指画像18と選択対象の判定領域との位置関係を考慮することなく、簡単に正確な操作を行うことができる。
また、上記実施形態によれば、指画像18の動きを操作用オブジェクト17に作用させる演算処理を行うので、ユーザは、あたかも自身の指で操作用オブジェクト17を操作したようなリアルな感覚を得ることができる。それにより、ユーザは、直感的な操作を行うことができ、意図しない操作を低減することが可能となる。
また、上記実施形態によれば、ユーザインタフェースの画像を仮想空間内の特定の平面に配置すると共に、ジェスチャによる操作を行うための特定の物体(例えばユーザの指)の像を同じ平面に配置するので、ユーザは、操作用オブジェクトを触るような感覚で、直感的な操作を行うことができる。例えば、上記実施形態において、ユーザは、円形状の操作用オブジェクト17を、あたかもおはじきを押したりはじいたりする感覚で操作することができる。
また、上記実施形態によれば、ユーザインタフェースの画像及び特定の物体の像を2次元的に表示するので、これらの表示に要する演算量や、いずれの選択対象が選択されたかの判定処理に要する演算量を抑制することも可能となる。従って、スマートフォン等の汎用の表示装置を利用する場合であっても高速な処理が可能となり、ユーザにとっても、リアルタイムな感覚での入力操作が可能となる。
また、上記実施形態によれば、ユーザのジェスチャによる入力操作に関する情報を、画像表示装置1に設けられた外部情報取得部14により取得する。つまり、従来のように、ユーザのジェスチャを検出するための専用のセンサや外部デバイスを設ける必要がなくなる。それにより、システム全体の構成を簡素化することができるので、コストを大幅に抑制することが可能になる。また、専用のセンサ等から入力された情報を解析するための演算も不要になる。従って、スマートフォン等の小型の表示装置を利用する場合であっても、ジェスチャによるリアルタイムな入力操作が可能な画像表示装置を実現することが可能となる。
また、上記実施形態によれば、外部情報取得部14により取得された外部情報のうち、予め設定された特定の物体に関する情報のみを仮想空間に表示するので、ユーザは、現実空間に存在する操作に関与しない物体に惑わされることなく、所望の操作を行うことができる。
なお、上記実施形態においては、ユーザが頭部を動かしたことを、操作メニューを消去するトリガーとしているが(図6のステップS105、S106参照)、操作メニューを消去するトリガーはこれに限定されない。例えば、「操作メニューを消去する」というメニュー項目を操作メニュー内に設けても良い。或いは、操作用オブジェクト17に対して特定の操作が行われた際に、操作メニューを消去することとしても良い。一例として、操作メニュー16から操作用オブジェクト17が飛び出すほど強くはじく操作が挙げられる。
(変形例)
次に、本発明の第1の実施形態の変形例について説明する。図9は、本変形例におけるメニューの選択判定処理を示すフローチャートである。なお、本変形例において用いられる画像表示装置の構成及び動作は、上記第1の実施形態と同様である(図1及び図6参照)。また、図9のステップS121〜S124における処理も、上記第1の実施形態と同様である(図7参照)。
ステップS124に続くステップS131において、選択判定部138は、操作用オブジェクトが特定のメニュー項目の判定領域に存在するか否かを判定する。例えば図8に示すように、操作用オブジェクト17が破線に示す位置に表示されている場合、操作用オブジェクト17はメニュー項目16aの判定領域19aに存在すると判定される。
操作用オブジェクトが特定のメニュー項目の判定領域に存在する場合(ステップS131:Yes)、選択判定部138は、操作用オブジェクトが存在する判定領域に対応するメニュー項目が選択されたと判定する(ステップS132)。その後、処理はメインルーチンに戻る。
一方、操作用オブジェクトがいずれのメニュー項目の判定領域にも存在しない場合(ステップS131:No)、選択判定部138はさらに、物体の像(図8においては指画像18)が操作用オブジェクトから離れたか否かを判定する(ステップS133)。
物体の像が操作用オブジェクトから離れていない場合(ステップS133:No)、処理はステップS122に戻る。この場合、物体の像の動きに合わせて操作用オブジェクトがさらに移動させられる(ステップS122〜S124参照)。
一方、物体の像が操作用オブジェクトから離れた場合(ステップS133:Yes)、選択判定部138は、メニュー項目の選択に失敗したと判定する(ステップS134)。この場合、選択判定部138はさらに、操作用オブジェクトの位置を初期位置に戻す(ステップS135)。その後、処理はメインルーチンに戻る。
以上説明したように、本変形例によれば、操作用オブジェクトが複数の判定領域のいずれかに入るまで、物体の像によって操作用オブジェクトを運ぶので、ユーザは、所望のメニュー項目をより確実に選択することが可能となる。
(第2の実施形態)
次に、本発明の第2の実施形態を説明する。図10は、本発明の第2の実施形態に係る画像表示装置の動作を示すフローチャートであり、仮想空間の画像表示プログラムの実行中にユーザのジェスチャによる入力操作を受け付ける動作を示している。また、図11は、本実施形態において表示されるユーザインタフェースの画像の例を示す模式図である。なお、本実施形態に係る画像表示装置の構成は、図1に示すものと同様である。
図11に示すように、本実施形態においては、ユーザインタフェースとして操作用地図20を例示している。この操作用地図20は、地図21及び操作用オブジェクト22を含む。操作用地図20においては、不動産物件が選択対象となっており、地図21に表示された各物件が占める領域が選択対象の判定領域となっている。また、操作用オブジェクト22としては、上記第1の実施形態と同様に円形状のアイコンを示しているが、当然ながら、棒状や矢印状など所望の形状及びサイズを有するアイコンを操作用オブジェクト22として用いても良い。
図10を参照しながら、本実施形態における画像表示装置の動作について説明する。
まず、ステップS201において、演算部13は、操作用地図20の表示を待機する。続くステップS202及びS203の動作は、図6に示すステップS102及びS103と同様である。
演算部13は、ステップS203においてユーザが手をかざしていると判定した場合(ステップS203:Yes)、図11に例示する操作用地図20を表示部11に表示する(ステップS204)。
続くステップS205〜ステップS208の動作は、図6に示すステップS105〜S108と同様である。なお、ステップS206においては、ステップS204において表示された操作用地図20を消去する。
演算部13は、ステップS208において物体の像(図11においては指画像18)が操作用オブジェクト22に接触していると判定した場合(ステップS208:Yes)、操作用オブジェクト22の地図21上における移動先の判定処理を実行する(ステップS209)。
図12は、地図21上の移動先の判定処理を示すフローチャートである。なお、ステップS221〜S224の処理は、図7に示すステップS121〜S124と同様である。
ステップS224に続くステップS225において、選択判定部138は、物体の像(指画像18)から操作用オブジェクト22が離れたか否かを判定する。物体の像が操作用オブジェクト22から離れていない場合(ステップS225:No)、処理はステップS222に戻る。
一方、物体の像が操作用オブジェクト22から離れた場合(ステップS225:Yes)、選択判定部138はさらに、操作用オブジェクト22が地図21上に存在するか否かを判定する(ステップS226)。
操作用オブジェクト22が地図21上に存在する場合(ステップS226:Yes)、選択判定部138は、操作用オブジェクト22が位置している地図21上の特定の地点が選択されたと判定する(ステップS227)。その後、処理はメインルーチンに戻る。
一方、操作用オブジェクト22が地図21上に存在しない場合(ステップS226:No)、例えば、操作用オブジェクト22が、地図21の周囲の余白領域23に位置している場合、選択判定部138は、移動先の選択に失敗したと判定する(ステップS228)。その後、処理はメインルーチンに戻る。
ステップS209に続くステップS210において、演算部13は、地図21上の移動先の選択に成功したか否かを判定する。移動先の選択に成功した場合(ステップS210:Yes)、ユーザのジェスチャによる入力操作の受け付けは終了する。この場合、演算部13は、選択された移動先を仮想空間に表示する処理を実行する。一方、移動先の選択に失敗した場合(ステップS210:No)、演算部13の動作はステップS204に戻る。
以上説明したように、本発明の第2の実施形態によれば、地図のように、判定領域がランダムに配置されている場合や、判定領域の広さが一定でない場合であっても、直感的な操作を行うことができ、誤操作を低減することが可能となる。
なお、第2の実施形態においては、地図上に示された物件を選択する場合を説明したが、2次元的に表示される図面上で特定可能な位置(領域や地点)であれば、本実施形態を適用することができる。具体的には、家屋の間取り図に表示された特定の部屋を選択する場合や、ビルの縦断面図において特定のフロアを選択する場合が挙げられる。
本発明は、上記第1及び第2の実施形態並びに変形例に限定されるものではなく、第1及び第2の実施形態並びに変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、第1及び第2の実施形態並びに変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、第1及び第2の実施形態並びに変形例に示した構成要素を適宜組み合わせて形成しても良い。
1 画像表示装置
2 ユーザ
3 表示装置
4 ホルダー
5 カメラ
11 表示部
11a、11b 画面
12 記憶部
13 演算部
14 外部情報取得部
15 動き検出部
16 操作メニュー
16a〜16d メニュー項目
17、22 操作用オブジェクト
18 指画像
19a〜19d 判定領域
20 操作用地図
21 地図
23 余白領域
121 プログラム記憶部
122 画像データ記憶部
123 オブジェクト記憶部
131 動き判定部
132 仮想空間構成部
133 物体認識部
134 疑似3次元化処理部
135 仮想空間表示制御部
136 接触判定部
137 相互作用演算部
138 選択判定部
139 操作実行部

Claims (13)

  1. ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置であって、
    複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置する仮想空間構成部と、
    当該画像表示装置が実在している現実空間に関する情報を取得する外部情報取得部と、
    前記情報に基づいて、前記現実空間に実在する特定の物体を認識する物体認識部と、
    前記特定の物体の像を前記仮想空間内の前記平面に配置する疑似3次元化処理部と、
    前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定する接触判定部と、
    前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出する相互作用演算部と、
    前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定する選択判定部と、
    を備える画像表示装置。
  2. 前記相互作用演算部は、前記特定の物体の像と前記操作用オブジェクトとの接触点における前記特定の物体の像の速度ベクトルに基づいて前記作用を算出する、請求項1に記載の画像表示装置。
  3. 前記相互作用演算部は、前記特定の物体の像の前記速度ベクトルを、前記操作用オブジェクトの速度ベクトルに加算することにより前記作用を算出する、請求項2に記載の画像表示装置。
  4. 前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトの速度ベクトルの絶対値が閾値以上であり、且つ、前記操作用オブジェクトの進行方向に前記複数の選択対象のいずれかが存在する場合、該進行方向に存在する選択対象が選択されたものと判定する、請求項2又は3に記載の画像表示装置。
  5. 前記選択判定部は、前記作用が及ぼされた後の前記操作用オブジェクトが、前記複数の選択対象に対してそれぞれ設定された複数の判定領域のいずれかに位置している場合、当該位置している判定領域に対応する選択対象が選択されたものと判定する、請求項2又は3に記載の画像表示装置。
  6. 前記仮想空間構成部は、前記複数の選択対象のいずれも選択されなかったと前記選択判定部が判定した場合、前記操作用オブジェクトを前記作用が及ぼされる前の位置に戻す、請求項2〜5のいずれか1項に記載の画像表示装置。
  7. 当該画像表示装置の動きを検出する動き検出部をさらに備え、
    前記仮想空間構成部は、当該画像表示装置の動きが所定の範囲内である場合、前記ユーザインタフェースの画像を前記仮想空間に配置する、請求項1〜6のいずれか1項に記載の画像表示装置。
  8. 前記仮想空間構成部は、当該画像表示装置の動きが前記所定の範囲を超えた場合に、前記ユーザインタフェースの画像を前記仮想空間から消去する、請求項7に記載の画像表示装置。
  9. 前記外部情報取得部は、当該画像表示装置に内蔵されたカメラである、請求項1〜8のいずれか1項に記載の画像表示装置。
  10. 前記複数の選択対象の各々は、当該画像表示装置に対する操作の内容を表す項目である、請求項1〜9のいずれか1項に記載の画像表示装置。
  11. 前記複数の選択対象の各々は、2次元的に表示される図面において特定される位置である、請求項1〜9のいずれか1項に記載の画像表示装置。
  12. ユーザに仮想空間を認識させるための画面を表示可能な画像表示装置が実行する画像表示方法であって、
    複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、
    前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、
    前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、
    前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、
    前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、
    前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、
    前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、
    を含む画像表示方法。
  13. ユーザに仮想空間を認識させるための画面を画像表示装置に表示させるための画像表示プログラムであって、
    複数の選択対象と、該複数の選択対象のいずれかを選択するための操作用オブジェクトとを含むユーザインタフェースの画像を前記仮想空間内の特定の平面に配置するステップ(a)と、
    前記画像表示装置が実在している現実空間に関する情報を取得するステップ(b)と、
    前記情報に基づいて、前記現実空間に実在する特定の物体を認識するステップ(c)と、
    前記特定の物体の像を前記仮想空間内の前記平面に配置するステップ(d)と、
    前記平面において前記特定の物体の像が前記操作用オブジェクトと接触したか否かを判定するステップ(e)と、
    前記特定の物体の像が前記操作用オブジェクトと接触したと判定された場合に、前記特定の物体の像の動きが前記操作用オブジェクトに及ぼす作用を算出するステップ(f)と、
    前記作用が及ぼされた前記操作用オブジェクトにより前記複数の選択対象のいずれが選択されたかを判定するステップ(g)と、
    をコンピュータに実行させる画像表示プログラム。

JP2018523901A 2016-06-15 2017-06-12 画像表示装置、画像表示方法、及び画像表示プログラム Active JP6514416B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016119252 2016-06-15
JP2016119252 2016-06-15
PCT/JP2017/021680 WO2017217375A1 (ja) 2016-06-15 2017-06-12 画像表示装置、画像表示方法、及び画像表示プログラム

Publications (2)

Publication Number Publication Date
JPWO2017217375A1 true JPWO2017217375A1 (ja) 2019-02-21
JP6514416B2 JP6514416B2 (ja) 2019-05-15

Family

ID=60664362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018523901A Active JP6514416B2 (ja) 2016-06-15 2017-06-12 画像表示装置、画像表示方法、及び画像表示プログラム

Country Status (2)

Country Link
JP (1) JP6514416B2 (ja)
WO (1) WO2017217375A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111353842A (zh) * 2018-12-24 2020-06-30 阿里巴巴集团控股有限公司 推送信息的处理方法和系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09234288A (ja) * 1996-02-29 1997-09-09 Infuoshitei:Kk 画像表示装置
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
JP2013032932A (ja) * 2011-08-01 2013-02-14 Sharp Corp 携帯端末
JP2013110499A (ja) * 2011-11-18 2013-06-06 Nikon Corp 操作入力判定装置および撮像装置
JP2013135835A (ja) * 2011-11-30 2013-07-11 Konami Digital Entertainment Co Ltd 選択装置、選択システム、選択装置の制御方法、ならびに、プログラム
JP2014068689A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御システムおよび制御プログラム
US20140235311A1 (en) * 2010-03-05 2014-08-21 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP2014192838A (ja) * 2013-03-28 2014-10-06 Saitama Univ 携帯端末向けarジェスチャユーザインタフェースシステム
WO2015182687A1 (ja) * 2014-05-28 2015-12-03 京セラ株式会社 電子機器及び記録媒体並びに電子機器の動作方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09234288A (ja) * 1996-02-29 1997-09-09 Infuoshitei:Kk 画像表示装置
JP2011175617A (ja) * 2010-01-29 2011-09-08 Shimane Prefecture 画像認識装置および操作判定方法並びにプログラム
US20140235311A1 (en) * 2010-03-05 2014-08-21 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP2013032932A (ja) * 2011-08-01 2013-02-14 Sharp Corp 携帯端末
JP2013110499A (ja) * 2011-11-18 2013-06-06 Nikon Corp 操作入力判定装置および撮像装置
JP2013135835A (ja) * 2011-11-30 2013-07-11 Konami Digital Entertainment Co Ltd 選択装置、選択システム、選択装置の制御方法、ならびに、プログラム
JP2014068689A (ja) * 2012-09-27 2014-04-21 Kyocera Corp 表示装置、制御システムおよび制御プログラム
JP2014192838A (ja) * 2013-03-28 2014-10-06 Saitama Univ 携帯端末向けarジェスチャユーザインタフェースシステム
WO2015182687A1 (ja) * 2014-05-28 2015-12-03 京セラ株式会社 電子機器及び記録媒体並びに電子機器の動作方法

Also Published As

Publication number Publication date
JP6514416B2 (ja) 2019-05-15
WO2017217375A1 (ja) 2017-12-21

Similar Documents

Publication Publication Date Title
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
CN108780360B (zh) 虚拟现实导航
EP3908906B1 (en) Near interaction mode for far virtual object
US20210011556A1 (en) Virtual user interface using a peripheral device in artificial reality environments
US10203764B2 (en) Systems and methods for triggering actions based on touch-free gesture detection
US10120454B2 (en) Gesture recognition control device
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
JP6356157B2 (ja) Hmdのための人体ジェスチャーベースの領域および体積の選択
JP2019087279A (ja) デジタルデバイスとの対話のための直接的なポインティング検出のためのシステムおよび方法
US20160098094A1 (en) User interface enabled by 3d reversals
EP2814000A1 (en) Image processing apparatus, image processing method, and program
EP2558924B1 (en) Apparatus, method and computer program for user input using a camera
WO2014140827A2 (en) Systems and methods for proximity sensor and image sensor based gesture detection
WO2013138489A1 (en) Approaches for highlighting active interface elements
JP6499384B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US20140028716A1 (en) Method and electronic device for generating an instruction in an augmented reality environment
US10976804B1 (en) Pointer-based interaction with a virtual surface using a peripheral device in artificial reality environments
US9665232B2 (en) Information-processing device, storage medium, information-processing method, and information-processing system for enlarging or reducing an image displayed on a display device
JP6514416B2 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
US9898183B1 (en) Motions for object rendering and selection
JP6169462B2 (ja) 情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181025

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20181025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181025

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181025

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190327

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R150 Certificate of patent or registration of utility model

Ref document number: 6514416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350