JPWO2012124250A1 - オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路 - Google Patents

オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路 Download PDF

Info

Publication number
JPWO2012124250A1
JPWO2012124250A1 JP2012543357A JP2012543357A JPWO2012124250A1 JP WO2012124250 A1 JPWO2012124250 A1 JP WO2012124250A1 JP 2012543357 A JP2012543357 A JP 2012543357A JP 2012543357 A JP2012543357 A JP 2012543357A JP WO2012124250 A1 JPWO2012124250 A1 JP WO2012124250A1
Authority
JP
Japan
Prior art keywords
user
state
unit
virtual object
real object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2012543357A
Other languages
English (en)
Inventor
孝夫 安達
孝夫 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Publication of JPWO2012124250A1 publication Critical patent/JPWO2012124250A1/ja
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)

Abstract

仮想オブジェクト表示判定部106は、状態通信部105から通知されたユーザ動作情報が示すユーザの動作に対応する優先度を現実オブジェクト表示判定情報107から特定し、かつ、状態通信部105から通知された状態変化情報が示す状態変化に対応する優先度を現実オブジェクト属性情報108から特定し、特定した2つの優先度を比較することで、仮想オブジェクトの表示態様を変更するか否かを判定する。UI生成部112は、仮想オブジェクト表示判定部106の判定結果に基づき、ユーザに提示するUIを生成し、UI表示部113に表示させる。

Description

本発明は、仮想現実空間において、仮想的に表示される仮想オブジェクトの表示を制御するものであり、特に、本発明は、仮想オブジェクトを現実空間の現実オブジェクトと重畳して表示する場合に、状態が変化した現実オブジェクトの視認性を向上させるものである。
従来、ヘッドマウントディスプレイ等を用いることにより実現される仮想現実空間において、仮想的に表示されるオブジェクト(以下、仮想オブジェクトと記述する。)を、現実空間に存在するオブジェクト(以下、現実オブジェクトと記述する。)と重畳して表示させることが行われている。このような状況において、現実オブジェクトに対してユーザが何らかのアクションを行おうとした場合、ユーザから見て現実オブジェクトの手前に表示される仮想オブジェクトによって現実オブジェクトの視界が遮られ、ユーザが現実オブジェクトを視認できなくなることがあった。
図18、図19は、仮想現実空間において、現実オブジェクトと仮想オブジェクトとが重畳されて表示されている例を示した図である。図18において、ユーザA201には、現実オブジェクトである携帯電話A203の手前に複数の仮想オブジェクトからなる仮想オブジェクト群A202が重畳した状態で表示されている。なお、仮想オブジェクト群A202は、透過または非透過の仮想オブジェクトが集まったものである。図19においても、ユーザB211から見て、図18と同様に携帯電話B213の手前に仮想オブジェクト群B212が重畳して表示されている。
図18は携帯電話A203に音声電話が着信したケース、図19は携帯電話にメールが着信したケースを示す。図18と図19との違いは、携帯電話に何が着信したかをユーザが判断した上でユーザの取るアクションが異なる点にある。図18では、ユーザA201は、携帯電話A203に音声電話が着信したため、携帯電話A203に手を伸ばすというアクションを取っている。つまり、携帯電話A203に音声通話が着信した場合、直ぐに携帯電話A203を取る必要があるたため、ユーザA201は手を伸ばすというアクションを取っている。
この場合、携帯電話A203の手前に仮想オブジェクト群A202が表示されていると、携帯電話A203が仮想オブジェクト群A202によって隠れてしまい、ユーザA201は携帯電話A203を容易に取ることができないという問題がある。したがって、この場合、仮想オブジェクト群A202を非表示にすると、ユーザは携帯電話A203を容易に取ることができる。
一方、図19では、ユーザB211は、携帯電話B213にメールが着信したため、携帯電話B213に振り向くというアクションを取っている。つまり、携帯電話B213にメールが着信した場合、直ぐに携帯電話B213を取る必要がないため、ユーザB211は携帯電話A203に振り向くだけのアクションを取り、音声電話が着信した場合のように携帯電話B213を取るアクションは行っていない。
この場合、ユーザB211は携帯電話B213を取る必要がないため、携帯電話B213の手前に仮想オブジェクト群B212が表示されていても、ユーザB211にとって問題はない。そして、仮想オブジェクト群B212を表示したままにさせておくと、ユーザB211に対して拡張現実空間ならではの臨場感を与えることができる。
このように、現実オブジェクトの状態とその状態に対してユーザの取るアクションとによって、仮想オブジェクト群A202、B212を非表示にした方がよいケースと仮想オブジェクト群A202、B212を表示した方がよいケースとが存在する。
仮想現実空間を利用した技術は医療等で利用されている。例えば、特許文献1には、手術の対象部位を仮想現実空間に表示する画像処理装置において、ユーザの視点と対象部位との間に存在する視界確保領域に含まれる部位を障害物として非表示にし、障害物を非表示にしたことをユーザに報知する画像処理装置が開示されている。この技術によれば、対象領域と障害物との位置関係を明確にすると同時に、ユーザは容易に対象部位を観察することができる。
しかしながら、特許文献1では、観察対象として常に表示しておきたい対象部位は予め決定されており、ユーザが対象部位に触るなどのアクションを行うか否かに関わらず全ての障害物が一律に非表示にされている。したがって、特許文献1では、現実オブジェクトの状態が変化し、ユーザの意思により生まれるアクションに応じて障害物を表示したり非表示したりといった切替えを行うことができないという問題がある。よって、特許文献1の技術を仮想オブジェクトが表示される拡張現実空間に適用したとしても、ユーザに対して拡張現実空間の臨場感を与えつつ、現実オブジェクトの視認性を向上させることはできない。
特開2008−029694号公報
本発明の目的は、拡張現実空間の臨場感をユーザに付与しつつ状態が変化した現実オブジェクトに対する動作をユーザが容易に行うことができるオブジェクト制御装置等を提供することである。
本発明の一局面によるオブジェクト制御装置は、仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置であって、ユーザの動作を検出するユーザ動作検出部と、前記ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報を通知するユーザ動作通知部と、前記仮想現実空間に存在する現実オブジェクトの状態の変化を検出する現実オブジェクト状態検出部と、前記現実オブジェクト状態検出部により検出された前記現実オブジェクトの状態の変化を示す状態変化情報を通知する現実オブジェクト状態通知部と、前記ユーザ動作通知部から通知されたユーザ動作情報と前記現実オブジェクト状態通知部から通知された状態変化情報とを通知する状態通信部と、前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを判定する仮想オブジェクト表示判定部と、前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)を生成するUI生成部と、前記UI生成部により生成されたUIを表示するUI表示部とを備える。
また、本発明の別の一局面によるオブジェクト制御方法、オブジェクト制御プログラム、及び集積回路は上記オブジェクト制御装置と同様の構成を備えている。
本発明の実施の形態によるオブジェクト制御装置の機能ブロック図である。 (A)、(B)は、本発明の実施の形態によるオブジェクト制御装置がユーザの動作に応じて仮想オブジェクトを非表示とする場合の処理の説明図である。 (A)、(B)は本発明の実施の形態によるオブジェクト制御装置がユーザの動作に応じて仮想オブジェクトの表示を維持する場合の説明図である。 (A)、(B)は、図2(A)、(B)を上側から見た図である。 (A)、(B)は、図3(A)、(B)を上側から見た図である。 現実オブジェクト表示判定情報の一例を示した図ある。 現実オブジェクト属性情報の一例を示した図である。 本発明の実施の形態によるオブジェクト制御装置の動作を示すフローチャートである。 近似動作情報の一例を示した図である。 視界領域を拡張する属性を保持している場合の現実オブジェクト属性情報の一例を示した図である。 (A)、(B)は本発明の実施の形態によるオブジェクト制御装置が拡張視界領域を設定した場合において、ユーザの動作に応じて仮想オブジェクトを非表示とする場合の処理の説明図である。 (A)、(B)は、図11(A)、(B)を上側から見た図である。 ユーザの手の動きを上側から見た図である。 ユーザの手の向きに応じて拡張視界領域を設定した場合の拡張視界領域を上側から見た図である。 本発明の実施の形態によるオブジェクト制御装置のハードウェア構成を示すブロック図である。 視界領域を側面側から見た図である。 拡張視界領域を側面側から見た図である。 仮想現実空間において、現実オブジェクトと仮想オブジェクトとが重畳されて表示されている例を示した図である。 仮想現実空間において、現実オブジェクトと仮想オブジェクトとが重畳されて表示されている例を示した図である。
以下、本発明の実施の形態によるオブジェクト制御装置について、図面を参照しながら説明する。
(概略)
まず、本発明の実施の形態によるオブジェクト制御装置の概略について説明する。本実施の形態では、オブジェクト制御装置はユーザにより装着されるヘッドマウントディスプレイに適用されているものとする。したがって、現実空間の映像に仮想オブジェクトが重畳された仮想現実空間の映像がディスプレイ上に表示されており、ユーザはこの仮想現実空間の映像を見ながら現実空間の物体を認識する。以下、図2〜図5を用いて本実施の形態によるオブジェクト制御装置の概要について説明する。
図2(A)、(B)は、本発明の実施の形態によるオブジェクト制御装置がユーザの動作に応じて仮想オブジェクトを非表示とする場合の処理の説明図である。図2(A)はユーザが手を伸ばす動作を行った時のユーザから見た仮想現実空間を示し、図2(B)はユーザが手を伸ばす動作を行った後のユーザから見た仮想現実空間を示している。
図2(A)の例において、ユーザ201は、“携帯電話203が音声通話を着信したので急いで取らないといけない”という意思から手を伸ばす動作(アクション)を行っている。この場合、仮想オブジェクト群202は、携帯電話203の手前に表示されているため、ユーザ201が携帯電話203を取る動作を行う際の邪魔になっている。
図3(A)、(B)は本発明の実施の形態によるオブジェクト制御装置がユーザの動作に応じて仮想オブジェクトの表示を維持する場合の説明図である。図3(A)はユーザ201が顔を振り向く動作を行った時のユーザから見た仮想現実空間を示し、図3(B)はユーザ201が顔を振り向く動作を行った後のユーザから見た仮想現実空間を示している。
図3(A)の例においては、ユーザ201は、携帯電話203にメールが届いたということを確認しようとする意思から携帯電話203に対して顔を振り向いている。携帯電話203がメールを受信した場合、ユーザ201は直ぐにメールの内容を確認する必要はない。そのため、携帯電話203の手前に表示されている仮想オブジェクト群202は、ユーザ201にとって邪魔な存在になっていない。
つまり、図2(A)の例では、携帯電話203に重畳されている仮想オブジェクト群204は非表示にした方がユーザ201にとって都合がよい。また、図3(A)の例では、携帯電話203と重畳されている仮想オブジェクト群204の表示を維持した方が仮想現実空間に存在している臨場感をユーザ201に与えることができるため好ましい。
そこで、本実施の形態では、図2(A)のようにユーザ201が携帯電話203に対して何らかの動作を行う必要がある場合、図2(B)に示すように携帯電話203に重畳されている仮想オブジェクト群204を非表示としている。
一方、図3(A)のようにユーザ201が携帯電話203に対して何らかの動作を行う必要がない場合、図3(B)に示すように携帯電話203に重畳される仮想オブジェクト群204の表示を維持させている。
図4(A)、(B)は、図2(A)、(B)を上側から見た図である。図4(A)、(B)において破線で囲まれた台形状の領域は、仮想オブジェクトが携帯電話203を遮るユーザ201の視界領域205である。上面視において視界領域205はユーザ201から携帯電話203に向けて拡がるような台形形状を有していることが分かる。図4(A)において、仮想オブジェクト群202のうち、仮想オブジェクト202_1、202_2は、一部が視界領域205内に存在しているため、ユーザ201が携帯電話203を見る際の視界を遮っている。そこで、本実施の形態では、図4(B)に示すように、仮想オブジェクト202_1、202_2を非表示にしている。なお、図4(A)、(B)において、視界領域205は平面的に表示されているが、側面から見ても、ユーザ201から携帯電話203に向けて拡がるように存在し、実際には立体的な領域である。
図16は、視界領域205を側面側(x方向側)から見た図である。図16に示すように、側面視において視界領域205はユーザ201から携帯電話203に向けて三角形状に拡がるような形状を有していることが分かる。つまり、視界領域205は、ユーザ201から携帯電話203に向けて断面積が徐々に大きくなるような形状を有している。そのため、視界領域205は、ユーザ201が携帯電話203を見る際のユーザ201の視界を模擬した領域となっている。
図5(A)、(B)は、図3(A)、(B)を上側から見た図である。図5(A)では、携帯電話203を遮る仮想オブジェクト202_1、202_2は一部が視界領域205に含まれているが、図5(B)に示すように非表示とはされない。本実施の形態によるオブジェクト制御装置は以上のような処理を実現するものである。
以上の処理を実現するために、本実施の形態によるオブジェクト制御装置は、現実オブジェクトの状態が変化した場合、状態が変化した現実オブジェクトの視界を遮る仮想オブジェクトを非表示にするか否かをユーザが行った動作と現実オブジェクトの状態の変化とに応じて判定する。具体的には、本オブジェクト制御装置は、ユーザの各種動作に対して予め優先度が対応付けられたオブジェクト表示判定情報からユーザが行った動作に対応する優先度を特定する。また、現実オブジェクトの各種状態に対して予め優先度が対応付けられたオブジェクト属性情報から状態が変化した現実オブジェクトの状態に対応する優先度を特定する。そして、特定した2つの優先度を比較することで、状態が変化した仮想オブジェクトに重畳して表示されている仮想オブジェクトを非表示にするか否かを判定する。
する。
(機能構成)
次に、本発明の実施の形態によるオブジェクト制御装置の機能構成について説明する。図1は、本発明の実施の形態によるオブジェクト制御装置100の機能ブロック図である。オブジェクト制御装置100は、ユーザ動作検出部101、ユーザ動作通知部102、現実オブジェクト状態検出部103、現実オブジェクト状態通知部104、状態通信部105、仮想オブジェクト表示判定部106、現実オブジェクト情報管理部109、仮想オブジェクト情報管理部110、ユーザ情報管理部111、UI(ユーザインターフェイス)生成部112、UI表示部113、及びユーザ位置検出部114を備えている。
ユーザ動作検出部101は、例えば、Kinect(登録商標)のような非接触のモーションセンサにより構成され、ユーザの動作を検出する。ここで、モーションセンサは、例えば、撮像部と処理部とを備え、ユーザの周囲に配置されている。撮像部は、例えば赤外線照射素子、赤外カメラ、及びRGBカメラを備え、ユーザに対して赤外光を照射して所定のフレームレートでユーザの距離画像を撮像する。ここで、距離画像は、R、G、Bのカラー画像成分に加えて、深度(奥行き)成分を含む画像である。
処理部は、予め記憶している学習データを用いて距離画像から人体を構成する特徴的な部位を抽出し、抽出した部位を繋ぎ合わせて人体の骨組み(スケルトン)を生成し、スケルトンの動作を検出する。そして、処理部は、スケルトンの動作が予め定められた動作パターンに一致した場合、ユーザの動作を検出したと判定する。ここで、予め定められた動作パターンとしては、“頭が傾く”、“体が向く”、“手を伸ばす”等が該当する。
本実施の形態では、ユーザ動作検出部101は、仮想オブジェクト表示判定部106から動作検出要求が発行された場合、スケルトンの動作が予め定められた動作パターンのいずれに該当するかを判定することでユーザの動作を検出する。
ユーザ動作通知部102は、ユーザ動作検出部101により検出されたユーザの動作を示すユーザ動作情報を状態通信部105に通知する。具体的には、ユーザ動作通知部102は、仮想オブジェクト表示判定部106により動作検出要求が発行された場合、その動作検出要求をユーザ動作検出部101に通知して、ユーザ動作検出部101にユーザの動作を検出させる。そして、ユーザ動作通知部102は、ユーザ動作検出部101から通知されるユーザ動作情報を状態通信部105に渡す。ここで、ユーザ動作情報には、ユーザ動作検出部101により検出されたユーザの動作(上記の“頭が傾く”等)が記述される。なお、ユーザ動作検出部101がユーザの動作を検出することができなかった場合、ユーザ動作情報には“何もしない”と記述される。
現実オブジェクト状態検出部103は、例えばユーザの周囲に存在する物体(現実オブジェクト)の状態の変化を検出することができる状態検出センサにより構成され、現実オブジェクトの状態の変化を検出する。ここで、状態検出センサは、例えばヘッドマウントディスプレイに取り付けられており、深度センサ、マイク、及び処理部を含む。深度センサは、赤外線発光素子、赤外線カメラ、及びRGBカメラを備え、例えばユーザの視界の前方に位置する現実オブジェクトを含む距離画像を所定のフレームレートで撮像する。
マイクは、ユーザの周囲の音を検出する。処理部は、例えば距離画像に含まれる各現実オブジェクトの形状パターンを抽出し、抽出した形状パターンが予め定められた現実オブジェクトの種別毎の形状パターンのうちいずれの形状パターンに該当するかを判定し、各現実オブジェクトを認識する。ここで、現実オブジェクトの種別としては、例えば携帯電話、パソコン、スマートフォン、タブレット端末、テレビ、及びDVDレコーダ等のデジタル家電機器や、コンロ、電灯、冷蔵庫、洗濯機、及び電子レンジ等の家電機器が該当する。
そして、処理部は、各フレームの距離画像及びマイクから出力される音声信号を用いて、認識した現実オブジェクトの状態が変化したか否かを監視する。例えば、処理部は現実オブジェクトとして携帯電話を認識した場合であって、マイクにより携帯電話の着信音を示音声が検出された場合、携帯電話の状態が変化したと判定し、状態変化情報を現実オブジェクト状態通知部104に通知する。
ここで、状態変化情報は、携帯電話であれば、例えば“音がなる”、“音が止まる”といった情報が記述される。また、現実オブジェクトとしてコンロが認識されている場合であって、マイクにより鍋のふきこぼれを示す音声が検出された場合、コンロの状態が変化したと判定される。この場合、状態変化情報には、例えば、“ふきこぼれ発生”と記述される。
上記の説明では、現実オブジェクト状態検出部103は、距離画像と音声信号とを監視して現実オブジェクトの状態の変化を検出したが、本発明はこれに限定されない。例えば、コンロの場合であれば、距離画像が鍋から液体がふきこぼれた状態になったとき、現実オブジェクト状態検出部103は、コンロの状態が変化したと判定すればよい。
また、距離画像において携帯電話のディスプレイの輝度が暗い状態から明るい状態に変化したとき、現実オブジェクト状態検出部103は、携帯電話の状態が変化したと判定してもよい。この場合、状態変化情報には、例えば“ディスプレイが明るくなった”と記述される。
また、デジタル家電機器においては、デジタル家電機器を管理するインターネット上のサーバがデジタル家電機器にソフトウェアを配信し、ソフトウェアのバージョンアップを行うことがある。この場合、サーバに、ソフトウェアのバージョンアップ通知を通知させ、現実オブジェクト状態検出部103にデジタル家電機器の状態の変化を検出させればよい。
このように現実オブジェクト状態検出部103は、認識した現実オブジェクトの種別に応じた監視手法を用いて現実オブジェクトの状態の変化を検出する。
なお、現実オブジェクト状態検出部103は、認識した各現実オブジェクトに対して識別IDを付与し、状態変化情報に該当する識別IDと該当する種別とを記述する。こうすることで、他のブロックは、状態変化情報がどの現実オブジェクトに関するものであるかを容易に認識することができる。更に、現実オブジェクト状態検出部103は、状態変化情報に現実オブジェクトの位置データ、及びサイズデータを記述する。こうすることで、他のブロックは、状態が変化した現実オブジェクトの位置及びサイズを容易に認識することができる。
ここで、位置データとしては、例えば、仮想現実空間における現実オブジェクトの重心の位置を採用することができる。本実施の形態では、現実オブジェクト状態検出部103を構成する深度センサはユーザが装着するヘッドマウントディスプレイに取り付けられている。したがって、仮想現実空間は、深度センサの位置を原点とし、深度センサの水平方向をx軸、深度センサの垂直方向をy軸、深度センサの受光面と直交する奥行き方向をz軸とする直交する3軸によって規定される。よって、現実オブジェクトの位置データは距離画像に含まれる現実オブジェクトの重心の位置におけるx軸、y軸、及びz軸の値が採用される。また、原点はユーザの現在位置を表している。以下、ユーザの現在位置を原点とした場合の仮想現実空間をローカル座標系と表し、仮想現実空間のある地点を基準としたときの仮想現実空間をグローバル座標系と表す。なお、グローバル座標系も、直行する3軸により規定される。ここで、グローバル座標系の直行する3軸はそれぞれ、例えば緯度、経度、高さを規定する。
また、現実オブジェクトのサイズとしては、例えば、距離画像において、現実オブジェクトに外接する直方体を当てはめ、当該直方体の6つの頂点の位置データが採用される。
現実オブジェクト状態通知部104は、現実オブジェクト状態検出部103から通知された状態変化情報を状態通信部105に通知する。
状態通信部105は、ユーザ動作通知部102から通知されたユーザ動作情報と現実オブジェクト状態通知部104から通知された状態変化情報とを仮想オブジェクト表示判定部106に通知する。
仮想オブジェクト表示判定部106は、状態通信部105から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように仮想オブジェクトの表示態様を変更するか否かを判定する。
ここで、表示態様の変更としては、例えば仮想オブジェクトを非表示にする態様が採用される。なお、これは一例であり、表示態様の変更としては、例えば、状態が変化した現実オブジェクトが露出されるように仮想オブジェクトの表示位置をずらす態様を採用してもよい。
具体的には、仮想オブジェクト表示判定部106は、状態通信部105から通知されたユーザ動作情報が示すユーザの動作に対応する優先度を現実オブジェクト表示判定情報107から特定し、かつ、状態通信部105から通知された状態変化情報が示す状態変化に対応する優先度を現実オブジェクト属性情報108から特定し、特定した2つの優先度を比較することで、仮想オブジェクトの表示態様を変更するか否かを判定する。
現実オブジェクト表示判定情報107及び現実オブジェクト属性情報108は記憶装置に格納され、現実オブジェクト情報管理部109によって管理される。
現実オブジェクト表示判定情報107は、ユーザの動作及び優先度が対応付けられた情報である。図6は、現実オブジェクト表示判定情報107の一例を示した図ある。現実オブジェクト表示判定情報107は、ユーザの動作の欄と優先度の欄とを備えている。ユーザの動作の欄には、予め定められたユーザの動作が格納されている。図6の例では、ユーザの動作として、“何もしない、”、“頭が向く”、“体が向く”、“手を伸ばす”、及び“近づく”が採用されている。但し、これは一例であり、他の動作を採用してもよい。図6に示されたユーザの動作は、全てユーザの動きに関するものであるが、本発明は、これに限定されず、ユーザが発する音声や、ユーザが物体を動かす動作をユーザの動作として採用してもよい。
優先度の欄には、各ユーザの動作に対して予め設定された優先度が格納されている。図6の例では、“何もしない”に対して“1”の優先度が設定され、“頭が向く”に対して“2”の優先度が設定されるというように、各ユーザの動作に対して優先度が設定されている。なお、優先度は値が増大するにつれて優先順位が高いことを示している。つまり、優先度の高い動作をユーザが行うほど、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が高くなるように優先度が規定されている。
現実オブジェクト属性情報108は、状態の変化及び優先度が対応付けられた情報である。図7は、現実オブジェクト属性情報108の一例を示した図である。図7の例では携帯電話の現実オブジェクト属性情報108が示されている。現実オブジェクト属性情報108は、現実オブジェクトの種別を示す情報を示す欄と、現実オブジェクトの状態の変化を示す“状態”の欄と、現実オブジェクトの現在位置を示す“位置”の欄と、現実オブジェクトの大きさを示す“大きさ”の欄とが含まれている。
図7の例では状態の欄には“音がなる”と記述され、優先度として“4”と記述され、“音がなる”の状態の変化に対して“4”の優先度が与えられている。優先度は現実オブジェクトの状態の変化別に予め与えられた数値が付与され、値が大きいほど優先順位が高いことを示す。なお、図7の例では、“音がなる”の1つの状態の変化に対する優先度のみが規定されているが、本発明はこれに限定されず、複数の状態の変化のそれぞれに対して優先度を予め設定してもよい。状態の変化の他の例としては、例えば、携帯電話であれば、“音がとまる”、“ディスプレイの輝度が明るくなる”、“ソフトウェアがバージョンアップされた”等が含まれる。
また、図7では、携帯電話の現実オブジェクト属性情報108を示したが、現実オブジェクト情報管理部109は、他の種別の現実オブジェクトに対する現実オブジェクト属性情報108を管理してもよい。
図7に示す位置の欄にはローカル座標系における現実オブジェクトの位置データが記載され、大きさの欄には現実オブジェクトのサイズデータが記載されている。この位置データ及びサイズデータは、現実オブジェクト状態検出部103から定期的に送信される状態監視情報に基づいて更新される。
ここで、状態監視情報には、例えば、現実オブジェクト状態検出部103が認識している各現実オブジェクトの識別IDと、各現実オブジェクトの種別と、各現実オブジェクトの位置データと、各現実オブジェクトのサイズデータとが含まれている。
現実オブジェクト情報管理部109は、始めに状態監視情報を受信すると現実オブジェクトの種別から同一種別の現実オブジェクト属性情報108を特定し、特定した現実オブジェクト属性情報108に識別IDを紐付け、識別ID毎の現実オブジェクト属性情報108を生成する。
そして、現実オブジェクト情報管理部109は、状態監視情報を受信する毎に識別IDをキーにして状態監視情報に含まれる位置データ及びサイズデータを対応する現実オブジェクト属性情報108の位置及び大きさの欄に書き込む。これにより、現実オブジェクト属性情報108の位置及び大きさの欄には最新の現実オブジェクトの位置データ及びサイズデータが書き込まれる。なお、現実オブジェクト情報管理部109は、状態監視情報に含まれる現実オブジェクトの種別と同一種別の現実オブジェクト属性情報108が存在しない場合は、識別ID、位置データ、及びサイズデータのみを含む現実オブジェクト属性情報108を生成すればよい。ここで、状態監視情報は、現実オブジェクト状態検出部103から現実オブジェクト状態通知部104及び状態通信部105を介して仮想オブジェクト表示判定部106に通知される。
本実施の形態では、仮想オブジェクト表示判定部106は、現実オブジェクト表示判定情報107から特定した優先度が現実オブジェクト属性情報108から特定した優先度以上である場合、仮想オブジェクトの表示態様を変更すると判定する。図6、図7の例において、例えば、携帯電話の音がなり、ユーザが手を伸ばす動作を行ったとすると、図6に示す現実オブジェクト表示判定情報107から“4”の優先度が特定され、図7に示す現実オブジェクト属性情報108から“4”の優先度が特定される。この場合、現実オブジェクト表示判定情報107から特定した優先度は、現実オブジェクト属性情報108から特定した優先度以上である。したがって、仮想オブジェクト表示判定部106は、仮想オブジェクトを非表示にすると判定する。
一方、携帯電話の音がなり、ユーザが頭を向ける動作を行ったとすると、図6に示す現実オブジェクト表示判定情報107から“2”の優先度が特定され、図7に示す現実オブジェクト属性情報108から“4”の優先度が特定される。この場合、現実オブジェクト表示判定情報107から特定された優先度は、現実オブジェクト属性情報108から特定された優先度未満である。したがって、仮想オブジェクト表示判定部106は、仮想オブジェクトを非表示にしないと判定する。
このように、現実オブジェクトの状態が変化した場合、一律に仮想オブジェクトを非表示にするのではなく、現実オブジェクトの状態とユーザの動作とを比較して、状態の変化した現実オブジェクトに対してユーザが何らかの動作(例えば取る動作)を行う可能性が高い場合のみ、仮想オブジェクトを非表示にしている。
これにより、可能な限り仮想オブジェクトの表示が維持される結果、ユーザに対して仮想現実空間に存在することへの臨場感を付与することができる。一方、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が低い場合、当該現実オブジェクトの手前に仮想オブジェクトが表示されていると、手前に表示されている仮想オブジェクトによってユーザの視界が妨げられ、状態が変化した現実オブジェクトに対してユーザは動作を行うことが困難となる。そこで、状態の変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が高い場合、仮想オブジェクトを非表示にする。これにより、ユーザは、状態が変化した現実オブジェクトに対して何らかの動作を容易に行うことができる。
ここで、仮想オブジェクト表示判定部106は、状態が変化した現実オブジェクトに対してユーザの視界を遮る位置に存在する仮想オブジェクトを抽出し、抽出した仮想オブジェクトを非表示にさせることが好ましい。
具体的には、図4(A)に示すように、仮想オブジェクト表示判定部106は、状態が変化した現実オブジェクト(携帯電話203)とユーザ201の現在位置206とによって囲まれる領域を視界領域205として設定し、少なくとも一部が視界領域205に含まれる仮想オブジェクト202_1、202_2を非表示にさせる。こうすることで、ユーザの視界を遮る仮想オブジェクト202_1、202_2のみが非表示にされ、残りの仮想オブジェクトは表示されるため、残存する仮想オブジェクトの存在によってユーザに対して仮想現実空間の臨場感を付与することができる。
ここで、仮想オブジェクト表示判定部106は、まず、状態変化情報から状態が変化した現実オブジェクトである携帯電話203の位置データ及びサイズデータを特定する。そして、仮想オブジェクト表示判定部106は、グローバル座標系におけるユーザ201の現在位置及び現在の方位をユーザ情報管理部111により管理されるユーザ位置情報から特定し、特定したユーザ201の現在位置及び現在の方位を用いて携帯電話203の位置データをグローバル座標系に変換する。
次に、仮想オブジェクト表示判定部106は、携帯電話203のサイズデータから携帯電話203に外接する直方体203aを設定する。次に、仮想オブジェクト表示判定部106は、ユーザ201の現在位置206を中心としてx方向の両側に一定距離延ばされた辺205_1を設定する。次に、仮想オブジェクト表示判定部106は、直方体203aのユーザ側の面203sと辺205_1とによって囲まれる領域を視界領域205として設定する。これにより視界領域205はy方向視が台形状、x方向視が三角形状の領域となる。
次に、仮想オブジェクト表示判定部106は、仮想オブジェクト情報管理部110により管理される仮想オブジェクトの中から表示対象の仮想オブジェクトを抽出し、抽出した仮想オブジェクトの位置データ及びサイズデータを仮想オブジェクト情報管理部110から読み出し、仮想オブジェクトに外接する直方体を設定する。ここで、仮想オブジェクト情報管理部110が管理する仮想オブジェクトの位置データは、例えばグローバル座標系の位置データである。そして、仮想オブジェクト表示判定部106は、ユーザ201の現在位置からユーザ201の前方の一定領域内に位置する仮想オブジェクトを表示対象の仮想オブジェクトとして抽出する。図4(A)の例では、仮想オブジェクト202_1〜202_4の4つの仮想オブジェクトが表示対象の仮想オブジェクトとして抽出されている。
そして、仮想オブジェクト表示判定部106は、仮想オブジェクト202_1〜202_4のそれぞれに外接する直方体を設定し、直方体の一部の領域が視界領域205に含まれている仮想オブジェクトを非表示にすると判定し、残りの仮想オブジェクトを表示すると判定する。
図4(A)の例では、仮想オブジェクト202_1、202_2が視界領域205内に存在しているため、仮想オブジェクト202_1、202_2が非表示にすると判定され、仮想オブジェクト202_3、202_4は表示すると判定される。そして、仮想オブジェクト表示判定部106は、仮想オブジェクト202_1、202_2を非表示にし、仮想オブジェクト202_3、202_4を表示するという判定結果をUI生成部112に通知する。
図1に戻り、現実オブジェクト情報管理部109は、現実オブジェクト表示判定情報107と現実オブジェクト属性情報108とを管理する。
仮想オブジェクト情報管理部110は、仮想オブジェクトの位置データ及びサイズデータ等を含む仮想オブジェクト管理情報を管理する。ここで、仮想オブジェクトの位置データは、例えば、グローバル座標系の位置データが採用され、予め定められているものとする。また、仮想オブジェクトのサイズデータとしては、仮想オブジェクトに外接する直方体の6つの頂点の座標が採用される。
ユーザ情報管理部111は、グローバル座標系におけるユーザの現在位置、現在の方位、及びサイズを含むユーザ位置情報を管理する。ここで、ユーザ情報管理部111は、ユーザ位置検出部114から定期的に通知されるユーザ位置情報にしたがって、ユーザ位置情報を管理する。また、ユーザ情報管理部111は、予めユーザに身長、体重等のサイズ情報を入力させることで、ユーザのサイズを管理する。
ユーザ位置検出部114は、例えば、ヘッドマウントディスプレイに装着されたGPSセンサ、加速度センサ、及び電子コンパス等を備え、ユーザの現在位置及び現在の方位を検出し、ユーザの現在位置及び現在の方位を示すユーザ位置情報を定期的に状態通信部105に通知する。
ここで、ユーザ位置検出部114は、例えば、ヘッドマウントディスプレイの装着時にGPSセンサによりグローバル座標系におけるユーザの位置データと電子コンパスによりグローバル座標系におけるユーザの現在の方位とを取得する。以後、ユーザ位置検出部114は、加速度センサから定期的に出力されるユーザの加速度を示す加速度データを積算することで、グローバル座標系におけるユーザの現在位置及び現在の方位とを検出する。なお、加速度データは3次元ベクトルで表されるため、ユーザの移動量及び方位の変化量を積算することで、ユーザの現在位置及び現在の方位を特定することができる。また、状態通信部105に通知されたユーザ位置情報は仮想オブジェクト表示判定部106を介してユーザ情報管理部111に通知される。なお、上記説明では、GPSセンサ及び電子コンパスによりグローバル座標系におけるユーザの現在の位置データ及び方位を取得したが、ユーザに入力装置を操作させて、グローバル座標系におけるユーザの現在の位置データと方位とを入力させてもよい。
UI生成部112は、仮想オブジェクト表示判定部106の判定結果に基づき、ユーザに提示するUI(ユーザインターフェース)を生成する。具体的には、UI生成部112は、仮想オブジェクト表示判定部106により表示すると判定された仮想オブジェクトの仮想オブジェクト管理情報を仮想オブジェクト情報管理部110から読み出し、当該仮想オブジェクトの2次元のグラフィックスデータを生成する。そして、UI生成部112は、生成したグラフィックスデータをUIとしてUI表示部113のフレームバッファに書き込む。このフレームバッファには、現実オブジェクト状態検出部103のRGBカメラにより撮像されたカラー画像成分、つまり、現実空間のカラー画像が書き込まれている。これにより、現実空間の画像に仮想オブジェクトが重畳された仮想現実空間の画像が生成される。
UI表示部113は、例えば、表示パネル及びフレームバッファにより構成され、現実空間の画像と仮想オブジェクトとを重畳し、仮想現実空間の画像を表示する。ここで、UI表示部113のフレームバッファには、現実オブジェクト状態検出部103のRGBカメラにより撮像されたカラー画像成分及びUI生成部112により生成されたUIが所定のフレームレートで書き込まれ、表示パネルはフレームバッファに書き込まれた画像を表示する。
図15は、本発明の実施の形態によるオブジェクト制御装置100のハードウェア構成を示すブロック図である。オブジェクト制御装置100は、表示装置11、入力装置12、CPU13、通信部14、RAM15、ROM16、ハードディスクドライブ(HDD)17、ユーザ位置検出センサ18、モーションセンサ19、及び状態検出センサ20を備えている。
表示装置11は、例えば液晶表示装置により構成され、仮想現実空間の画像を表示する。入力装置12は、例えばキーボードにより構成され、ユーザからの入力操作を受け付ける。CPU13は、オブジェクト制御装置100の全体制御を司る。通信部14は、有線又は無線の通信回路により構成され、モーションセンサ19により検出されたデータを受信したり、インターネットから送信されるデータを受信したりする。
RAM15、ROM16及びハードディスクドライブ17は記憶装置を構成し、オブジェクト制御プログラムを記憶する。ユーザ位置検出センサ18は、GPSセンサ、加速度センサ、及び電子コンパスを含み、図1に示すユーザ位置検出部114を構成する。モーションセンサ19は、処理部及び撮像部を含み、図1に示すユーザ動作検出部101を構成する。状態検出センサ20は、処理部、深度センサ、及びマイクを含み、図1に示す現実オブジェクト状態検出部103を構成する。
図1に示すユーザ動作通知部102、現実オブジェクト状態通知部104、仮想オブジェクト表示判定部106、及びUI生成部112は、記憶装置に記憶されたオブジェクト制御プログラムに含まれるプログラムであり、記憶装置から読み出されてCPU13により実行される構成である。
また、図1に示す状態通信部105は、通信部14及びオブジェクト制御プログラムに含まれた通信部14を制御するプログラムにより構成され、記憶装置から読み出されてCPU13により実行される構成である。また、図1に示す現実オブジェクト情報管理部109、仮想オブジェクト情報管理部110、及びユーザ情報管理部111は、オブジェクト制御プログラムに含まれるデータ及びそのデータを管理するプログラムであり、記憶装置から読み出されて実行される構成である。
なお、図15において、ユーザ位置検出センサ18、状態検出センサ20、及び表示装置11は、ヘッドマウントディスプレイに取り付けられている。また、入力装置12〜ハードディスクドライブ17は、ユーザにより携帯されるコンピュータにより構成されている。また、モーションセンサ19は、通信部14を介してコンピュータと通信可能に接続され、ユーザの周囲に設置されている。
(動作)
次に、オブジェクト制御装置100の動作について説明する。図8は、本発明の実施の形態によるオブジェクト制御装置100の動作を示すフローチャートである。なお、以下の説明では、図2及び図3で示した状況を例に挙げて説明する。
まず、現実オブジェクト状態検出部103は、現実オブジェクトの状態の変化を検出し(S801)、状態変化情報を生成して、ユーザ動作通知部102に通知する。図2の例では、携帯電話203に音声通話の着信時に発生させる音が鳴ったため、現実オブジェクト状態検出部103は、携帯電話203の状態が変化したことを検出する。
次に、現実オブジェクト状態通知部104は、現実オブジェクト状態検出部103から通知された状態変化情報を状態通信部105に通知する(S802)。図2の例では、携帯電話203の状態は音が鳴っていない状態から音が鳴った状態に変化したため、その状態の変化(=“音がなった”)を示す状態変化情報が状態通信部105に通知される。
次に、状態通信部105は、現実オブジェクト状態通知部104から通知された状態変化情報を仮想オブジェクト表示判定部106に通知する(S803)。
次に、仮想オブジェクト表示判定部106は、動作検出要求を発行し、状態通信部105に通知する(S804)。次に、状態通信部105は、動作検出要求をユーザ動作通知部102に通知する(S805)。
次に、ユーザ動作検出部101は、ユーザ動作通知部102から動作検出要求が通知され、ユーザの動作を検出する(S806)。ここで、ユーザ動作検出部101は、一定時間内にユーザの動作を検出することができなかった場合(S806がNO)、処理を終了する。
一定時間としては、例えば予め定められた時間を採用してもよいし、現実オブジェクト状態検出部103が別の状態の変化を検出して、状態変化情報を状態通信部105に通知するまでの時間を採用してもよい。
一方、ユーザ動作検出部101は、一定時間内にユーザの動作を検出することができた場合(S806でYES)、検出したユーザの動作を示すユーザ動作情報を生成し、ユーザ動作通知部102を介して状態通信部105に通知する(S807)。
次に、状態通信部105は、ユーザ動作情報を仮想オブジェクト表示判定部106に通知する(S808)。次に、仮想オブジェクト表示判定部106は、現実オブジェクト情報管理部109から現実オブジェクト表示判定情報107と現実オブジェクト属性情報108とを取得する(S809)。
次に、仮想オブジェクト表示判定部106は、ユーザ動作検出部101により検出されたユーザの動作が現実オブジェクト表示判定情報107に規定されているか否かを判定する(S810)。そして、仮想オブジェクト表示判定部106は、ユーザの動作が現実オブジェクト表示判定情報107に規定されていると判定した場合(S810でYES)、処理をS811に進める。一方、ユーザの動作が現実オブジェクト表示判定情報107に規定されていない場合(S810でNO)、処理が終了される。
次に、仮想オブジェクト表示判定部106は、現実オブジェクト表示判定情報107からユーザの動作に対応する優先度を特定し、かつ、現実オブジェクト属性情報108から状態の変化に対応する優先度を特定し、特定した2つの優先度を比較する(S811)。比較の結果、ユーザの動作の優先度が状態の変化の優先度以上の場合(S811でYES)、処理がS812へ進められる。一方、ユーザの動作の優先度が状態の変化の優先度未満の場合(S811でNO)、処理が終了される。
S807からS811までの動作について、図2および図3を例に説明する。図2では、携帯電話203が音声通話を着信して音が鳴り、これに伴いユーザは“手を伸ばす”という動作を行う。このとき、図6に示す現実オブジェクト表示判定情報107から、この動作の優先度は“4”となる。また、図7に示す携帯電話の現実オブジェクト属性情報108には、“音がなる”状態変化に対して優先度は“4”と設定されている。この場合、2つの優先度が等しいため、S811でYESと判定され、処理がS812に進められる。
一方、図3の場合、携帯電話203がメールを着信して音が鳴り、これに伴いユーザは“頭を向ける”という動作を行っている。このとき、図6に示す現実オブジェクト表示判定情報107から、この動作の優先度は“2”となる。また、図7に示す携帯電話の現実オブジェクト属性情報108には、携帯電話の状態変化の優先度は“4”と設定されている。この場合、ユーザの動作の優先度が携帯電話203の優先度よりも低いため、処理が終了される。
次に、仮想オブジェクト表示判定部106は、仮想オブジェクト情報管理部110から表示対象となる仮想オブジェクトの仮想オブジェクト管理情報を取得する(S812)。次に、仮想オブジェクト表示判定部106は、ユーザ情報管理部111からユーザ位置情報を取得する(S813)。
次に、仮想オブジェクト表示判定部106は、ユーザ位置情報に示されるユーザの現在位置及び方位、及び状態が変化した現実オブジェクトの現実オブジェクト属性情報108に規定された位置データ及びサイズデータから、図4(A)に示す視界領域205を仮想現実空間に設定する(S814)。
次に、仮想オブジェクト表示判定部106は、表示対象となる仮想オブジェクトを仮想現実空間に配置し、表示対象となる仮想オブジェクトのうち、視界領域205に含まれる仮想オブジェクトを抽出する(S815)。
次に、仮想オブジェクト表示判定部106は、表示する仮想オブジェクトと非表示の仮想オブジェクトとを通知するための判定結果をUI生成部112に通知する(S816)。次に、UI生成部112は、表示する仮想オブジェクトのグラフィックデータを生成し、UI表示部113は、現実空間の画像に仮想オブジェクトのグラフィックデータを重畳して仮想現実空間の画像を生成して表示する(S817)。
なお、オブジェクト制御装置100は、仮想オブジェクトを非表示とした後、ユーザが所定の動作を完了すると、非表示にした仮想オブジェクトを再度表示して非表示の状態を解除してもよい。
具体的には、仮想オブジェクト表示判定部106は、ユーザ動作検出部101において、仮想オブジェクトを非表示にする契機となったユーザの動作が検出されなくなった場合、非表示の状態を解除するようにしてもよい。より具体的には、仮想オブジェクト表示判定部106は、ユーザ動作検出部101から“何もしない”と記述されたユーザ動作情報が通知されたとき、非表示状態を解除すればよい。
また、仮想オブジェクト表示判定部106は、例えば、手を所定回数振るなどといった、非表示の状態を解除するための特定の動作を予め定義しておく。そして、仮想オブジェクト表示判定部106は、ユーザ動作検出部101によりこの特定の動作が検出され、この特定の動作を示すユーザ動作情報が通知された場合、非表示の状態を解除するようにしてもよい。
非表示の状態が解除されると、視界領域205に存在するために非表示にされていた仮想オブジェクトのグラフィックスデータが現実空間の画像に重畳され、UI表示部113に表示される。すなわち、図3(B)に示すような画像がUI表示部113に表示される。
(その他)
なお、本実施の形態では、視界領域205に含まれる仮想オブジェクトを非表示にしたが、本発明はこれに限定されず、全ての仮想オブジェクトを非表示にしてもよい。これにより、現実オブジェクトに対しユーザが何らかの動作を行うときに、仮想オブジェクトに遮られることなく、操作対象となる現実オブジェクトを見つけだすことが可能となる。
また、図8のS810において、ユーザの動作が現実オブジェクト表示判定情報107に規定されていなかった場合であっても、このユーザの動作を現実オブジェクト表示判定情報107に規定されたユーザの動作に近似して、優先度を特定してもよい。
この場合、仮想オブジェクト表示判定部106は、現実オブジェクト情報管理部109に図9に示す近似動作情報を管理させ、この近似動作情報を参照してユーザの動作を近似すればよい。図9は近似動作情報の一例を示した図である。近似動作情報は、ユーザの動作の欄と、近似動作の欄とを備えている。ユーザの動作の欄には、現実オブジェクト表示判定情報107に規定されたいずれかのユーザの動作が格納されている。近似動作の欄には、現実オブジェクト表示判定情報107に規定されていないユーザの動作であってユーザ動作検出部101により検出されるユーザの動作が格納されている。
図8のS810において、仮想オブジェクト表示判定部106は、ユーザ動作検出部101により検出されたユーザの動作が現実オブジェクト表示判定情報107に規定されていなかった場合(S810がNO)、図9に示す近似動作情報を参照する。そして、仮想オブジェクト表示判定部106は、検出されたユーザの動作が近似動作の欄に規定されていれば、その近似動作に対応するユーザの動作を特定し、特定したユーザの動作に対応する優先度を現実オブジェクト表示判定情報107から特定すればよい。
これにより、ユーザ動作検出部101により検出されたユーザの動作が現実オブジェクト表示判定情報107に規定されていなくても、そのユーザの動作を現実オブジェクト表示判定情報107に規定されたユーザの動作に近似して、優先度を特定することができ、種々のユーザの動作に対してより柔軟に優先度を特定することができる。
また、図8のS815において、視界領域205に含まれる仮想オブジェクトを非表示にする態様に代えて、仮想オブジェクト表示判定部106は、視界領域205に含まれている仮想オブジェクトが視界領域205に含まれない位置に移動されるようUI生成部112に指示してもよい。この場合、仮想オブジェクト表示判定部106は、例えば、仮想オブジェクトのz座標の位置はそのままにして、移動対象となる仮想オブジェクトに外接する直方体が視界領域205と重ならず、かつ、移動対象となる仮想オブジェクトの移動距離が最短距離となる位置に当該仮想オブジェクトを移動させればよい。こうすることで、仮想オブジェクトの表示位置の変動量が最小となり、ユーザに大きな違和感を与えることなく、仮想オブジェクトを表示することができる。
そして、仮想オブジェクト表示判定部106は、視界領域205に含まれている仮想オブジェクトの位置を変更するよう仮想オブジェクト情報管理部110に通知し、仮想オブジェクト情報管理部110が管理する該当する仮想オブジェクトの位置を更新させる。そして、仮想オブジェクト表示判定部106は、更新された仮想オブジェクトの位置に該当する仮想オブジェクトが表示されるようにUI生成部112に指示する。これにより、現実オブジェクトに対しユーザが何らかの動作を行うときに、仮想オブジェクトに遮られることなく、ユーザは操作対象となる現実オブジェクトを見つけだすことが可能となる。
なお、図8のS815において、仮想オブジェクト表示判定部106は、現実オブジェクト属性情報108が、視界領域205を拡張する属性を保持する場合、視界領域205のみならず、拡張視界領域に含まれる仮想オブジェクトも非表示にしてもよい。拡張視界領域は、状態変化が検出された現実オブジェクトの近傍に設定された領域である。これにより、現実オブジェクトに対しユーザが何らかの動作を行うときに、より広い領域にわたって仮想オブジェクトに遮られることなく、操作対象となる現実オブジェクトを見つけだすことが可能となる。
以下、拡張視界領域について、図10、図11、図12、図17を用いて説明する。
図10は、視界領域205を拡張する属性を保持している場合の現実オブジェクト属性情報108の一例を示した図である。図10に示すように、現実オブジェクト属性情報108は、“拡張領域距離:L”という視界領域205を拡張する属性を保持していることが分かる。
図11は、本発明の実施の形態によるオブジェクト制御装置100が拡張視界領域を設定した場合において、ユーザの動作に応じて仮想オブジェクトを非表示とする場合の処理の説明図である。図11(A)はユーザが手を伸ばす動作を行った時のユーザから見た仮想現実空間を示し、図11(B)はユーザが手を伸ばす動作を行った後のユーザから見た仮想現実空間を示している。図2(A)、(B)との違いは、携帯電話203の背後に仮想オブジェクト202_Xが存在することである。図12(A)、(B)は、図11(A)、(B)を上側から見た図である。図17は、拡張視界領域207を側面側(x方向側)から見た図である。図12(A)に示すように、携帯電話203の背後に位置する仮想オブジェクト202_Xは、視界領域205に含まれていない。そのため、視界領域205に含まれる仮想オブジェクトのみを非表示にしただけでは、仮想オブジェクト202_Xが携帯電話203の背後に表示されてしまい、携帯電話203を取るユーザ201の動作の妨げとなる虞がある。
そこで、仮想オブジェクト202_Xを非表示にするために、仮想オブジェクト表示判定部106は図12(B)に示すように拡張視界領域207を設定する。拡張視界領域207は、上面視において、ユーザ201が伸ばした方の手の側に弧207_2が設定され、携帯電話203の中心203_Oから一定の半径Lを持つ扇形の領域である。ここで、一定の半径Lとしては、拡張領域距離が採用されている。また、中心203_Oとしては、例えば、携帯電話203に外接する直方体203aの中心を採用してもよいし、直方体203aのユーザ側の面203sの中心を採用してもよい。また、一方の辺207_1はユーザ201の現在位置206及び中心203_Oとを繋ぐ直線と平行、すなわち、z軸と平行に設定されている。
また、図17に示すように、拡張視界領域207は、側面視において、中心203_Oを中心とする半径Lの円形状を有している。つまり、拡張視界領域207は、上面視が扇形であり、側面視が円形であり、扇形と円形とを球状に補間することで得られる立体である。
このように拡張視界領域207に設定することで、視界領域205に含まれる仮想オブジェクトのみならず、拡張視界領域207に含まれる仮想オブジェクト202_Xも非表示とされる(図11(B)参照)。そのため、携帯電話203の背後に位置する仮想オブジェクト202_Xが非表示となり、ユーザ201は携帯電話203に対する動作を容易に行うことができる。
また、拡張視界領域207を算出するにあたり、S808においてユーザの手201_1の向きを取得し、取得した手の向きを利用して、拡張視界領域207を設定してもよい。図13は、ユーザの手201_1の動きを上側から見た図である。
図13の例では、上面視において、ユーザ201は右側の手201_1を前方に伸ばしている。したがって、ユーザ動作検出部101は、上面視において、携帯電話203の中心203_O及びユーザ201の現在位置206を繋ぐ直線L13と、ユーザ201が伸ばした側の手201_1とのなす角度θを検出する。この場合、ユーザ動作検出部101は、ユーザ201の姿勢を表すスケルトンをx−z平面に投影することで、角度θを求めればよい。
そして、図8のS815において、仮想オブジェクト表示判定部106は、取得した現実オブジェクト属性情報108に“拡張領域距離:L”と記載されているため、視界領域205のみならず、拡張視界領域207にも存在する仮想オブジェクトも非表示にすると判定する。ここで、仮想オブジェクト表示判定部106は、仮想オブジェクト202_Xに外接する直方体を設定し、直方体の一部が拡張視界領域207に存在すれば仮想オブジェクト202_Xが拡張視界領域207に含まれると判定すればよい。
また、拡張視界領域207は、図14に示すように、上面視において、状態が変化した現実オブジェクトである携帯電話203の中心203_O及びユーザ201の現在位置206を繋ぐ直線L13上に一方の辺207_1が設定され、直線L13及び手201_1のなす角度θが増大するにつれて、中心角αが小さくなるように設定される。具体的には、拡張視界領域207は、上面視において、中心角αが辺207_1を基準として中心角αがα=(270−θ)°の扇形に設定する。この場合も図17に示すように、側面視において拡張視界領域207は、半径Lの球状にすればよい。
なお、拡張視界領域207を設定する態様を採用した場合であっても、視界領域205及び拡張視界領域207に含まれる仮想オブジェクトを非表示にする態様に代えて、仮想オブジェクトの位置を移動させる態様を採用してもよい。この場合、仮想オブジェクトのz座標の位置はそのままにして、移動対象となる仮想オブジェクトに外接する直方体が視界領域205及び拡張視界領域207と重ならず、かつ、移動対象となる仮想オブジェクトの移動距離が最短距離となる位置に当該仮想オブジェクトを移動させればよい。
なお、本実施の形態によるオブジェクト制御装置100は、典型的には半導体集積回路であるLSIとして実現される。具体的には、オブジェクト制御装置100のうち、ユーザ動作通知部102、現実オブジェクト状態通知部104、状態通信部105、仮想オブジェクト表示判定部106、現実オブジェクト情報管理部109、仮想オブジェクト情報管理部110、ユーザ情報管理部111、UI(ユーザインターフェイス)生成部112を集積回路により構成すればよい。
これらは個別に1チップ化されてもよいし、一部またはすべてを含むように1チップ化されても良い。ここではLSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現しても良い。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用しても良い。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行っても良い。バイオ技術の適応などが可能性として有り得る。
さらに加えて、本実施の形態のオブジェクト制御装置100を集積化した半導体チップと、画像を描画するためのディスプレイとを組み合せて、様々な用途に応じた描画機器を構成することができる。携帯電話やテレビ、デジタルビデオレコーダ、デジタルビデオカメラ、カーナビゲーション等における情報描画手段として、本発明を利用することが可能である。ディスプレイとしては、ブラウン管(CRT)の他、液晶やPDP(プラズマディスプレイパネル)、有機ELなどのフラットディスプレイ、プロジェクターを代表とする投射型ディスプレイなどと組み合わせることが可能である。
本発明のオブジェクト制御装置の技術的特徴は下記のようにまとめることができる。
(1)本発明によるオブジェクト制御装置は、仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置であって、ユーザの動作を検出するユーザ動作検出部と、前記ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報を通知するユーザ動作通知部と、前記仮想現実空間に存在する現実オブジェクトの状態の変化を検出する現実オブジェクト状態検出部と、前記現実オブジェクト状態検出部により検出された前記現実オブジェクトの状態の変化を示す状態変化情報を通知する現実オブジェクト状態通知部と、前記ユーザ動作通知部から通知されたユーザ動作情報と前記現実オブジェクト状態通知部から通知された状態変化情報とを通知する状態通信部と、前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを判定する仮想オブジェクト表示判定部と、前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)を生成するUI生成部と、前記UI生成部により生成されたUIを表示するUI表示部とを備える。
この構成によれば、現実オブジェクトの状態が変化すると、当該現実オブジェクトの状態の変化とユーザの動作とが比較され、当該現実オブジェクトが露出されるように、つまり、当該現実オブジェクトが手前に表示されるように、仮想オブジェクトの表示態様を変更するか否かが判定される。そして、判定結果に基づいて、ユーザに提示するUIが生成されて表示される。
このように、現実オブジェクトの状態が変化した場合、一律に仮想オブジェクトを非表示にするのではなく、現実オブジェクトの状態とユーザの動作とを比較して、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が高い場合のみ、仮想オブジェクトを非表示にしている。
これにより、可能な限り仮想オブジェクトの表示が維持される結果、ユーザに対して仮想現実空間に存在することへの臨場感を付与することができる。一方、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う場合、当該現実オブジェクトの手前に仮想オブジェクトが表示されていると、手前に表示されている仮想オブジェクトが当該現実オブジェクトへのユーザの視界を妨げとなり、ユーザは動作することが困難になる。そこで、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が高い場合、現実オブジェクトが手前に表示されるように仮想オブジェクトの表示態様を変更する。これにより、ユーザは、仮想オブジェクトによって視界が遮られることなく、状態が変化した現実オブジェクトに対して何らかの動作を行うことが容易になる。
(2)ユーザの動作及び優先度が対応付けられた現実オブジェクト表示判定情報と、前記現実オブジェクトの状態の変化及び優先度が対応付けられた現実オブジェクト属性情報とを管理する現実オブジェクト情報管理部を更に備え、前記仮想オブジェクト表示判定部は、前記状態通信部から通知されたユーザ動作情報が示すユーザの動作に対応する優先度を前記現実オブジェクト表示判定情報から特定し、かつ、前記状態通信部から通知された状態変化情報が示す状態の変化に対応する優先度を前記現実オブジェクト属性情報から特定し、特定した2つの優先度を比較することで、前記仮想オブジェクトの表示態様を変更するか否かを判定することが好ましい。
この構成によれば、ユーザ動作及び優先度が予め対応付けられた現実オブジェクト表示判定情報を用いて、ユーザ動作情報が示すユーザの動作に対応する優先度が特定される。また、現実オブジェクトの状態の変化及び優先度が予め対応付けられた現実オブジェクト属性情報を用いて、状態が変化した現実オブジェクトの状態の変化に対応する優先度が特定される。そして、特定された両優先度が比較されて仮想オブジェクトの表示態様の変更の有無が判定される。これにより、現実オブジェクト表示判定部は、予め定められたデータを用いて現実オブジェクトの表示態様の変更の有無を判定することができ、この判定を正確かつ高速に行うことができる。
(3)前記現実オブジェクト表示判定情報及び前記現実オブジェクト属性情報に含まれる優先度は、値が増大するにつれて優先順位が高いことを示し、前記仮想オブジェクト表示判定部は、前記現実オブジェクト表示判定情報から特定した優先度が前記現実オブジェクト属性情報から特定した優先度以上である場合、前記仮想オブジェクトの表示態様を変更すると判定することが好ましい。
現実オブジェクト表示判定情報はユーザの動作の優先度を規定し、現実オブジェクト属性情報は現実オブジェクトの状態の変化の優先度を規定している。そのため、現実オブジェクト表示判定情報から特定された優先度が現実オブジェクト属性情報から特定された優先度以上であるか否かによって、状態が変化した現実オブジェクトに対してユーザが何らかの動作を行う可能性が高いか否かを判定することができる。
(4)前記仮想オブジェクト表示判定部は、前記状態通信部から通知されたユーザ動作情報が前記現実オブジェクト表示判定情報に含まれていない場合、当該ユーザ動作情報が示すユーザの動作を、前記現実オブジェクト表示判定情報に含まれるユーザ動作情報に近似して、前記仮想オブジェクトの表示態様を変更するか否かを判定することが好ましい。
この構成によれば、ユーザ動作検出部により検出されたユーザの動作が現実オブジェクト表示判定情報に規定されていなくても、そのユーザの動作を現実オブジェクト表示判定情報に規定されたユーザの動作に近似して優先度を特定することができ、種々のユーザの動作に対してより柔軟に優先度を特定することができる。
(5)前記仮想オブジェクト表示判定部は、状態が変化した現実オブジェクトに対してユーザの視界を遮る位置に存在する仮想オブジェクトを抽出し、抽出した仮想オブジェクトの表示態様を変更させることが好ましい。
この構成によれば、ユーザの視界を遮る仮想オブジェクトのみ表示態様が変更され、残りの仮想オブジェクトは表示態様が変更されないため、表示態様が変更されない仮想オブジェクトの存在によってユーザに対して仮想現実空間の臨場感を付与することができる。
(6)前記仮想オブジェクト表示判定部は、状態が変化した現実オブジェクトとユーザの現在位置とによって囲まれる領域を視界領域として設定し、少なくとも一部が前記視界領域に含まれる前記仮想オブジェクトの表示態様を変更させることが好ましい。
この構成によれば、状態が変化した現実オブジェクトとユーザの現在位置とによって囲まれる領域が視界領域として設定され、その視界領域に仮想オブジェクトが一部でも含まれていれば当該仮想オブジェクトはユーザの視界を遮ると判定される。そのため、仮想オブジェクトがユーザの視界を遮るか否かを正確に判定することができる。
(7)前記仮想オブジェクト表示判定部は、上面視において、ユーザが伸ばした方の手の側に弧が設定され、状態が変化した現実オブジェクトから一定の半径を持つ扇形の領域を拡張視界領域として設定し、前記拡張視界領域及び前記視界領域の少なくとも一方に含まれる仮想オブジェクトの表示態様を変更させることが好ましい。
この構成によれば、視界領域には含まれていない仮想オブジェクトであっても、状態が変化した現実オブジェクトの周囲に位置していれば表示態様が変更されるため、状態が変化した現実オブジェクトに対するユーザの視界をより良好にすることができる。
(8)前記拡張視界領域は、上面視において、状態が変化した現実オブジェクトの中心からユーザに向けて前記扇形の一辺が設定され、前記ユーザ及び前記現実オブジェクトの中心を繋ぐ直線とユーザが伸ばした方の手の向きとがなす角度が増大するにつれて前記扇形の中心角が小さくなるように設定されていることが好ましい。
ユーザの視線の方向はユーザが手を伸ばした方向に向くことが一般的である。本構成では、上面視において、ユーザが手を伸ばした方向を基準として両側に拡がるように拡張視界領域を設定することができるため、ユーザの視界を妨げる仮想オブジェクトをより正確に特定することができる。
(9)前記仮想オブジェクトの位置を含む仮想オブジェクト管理情報を管理する仮想オブジェクト情報管理部を更に備え、前記仮想オブジェクト表示判定部は、前記仮想オブジェクト管理情報を用いて前記仮想オブジェクトの位置を特定することが好ましい。
この構成によれば、仮想オブジェクト情報管理部により仮想オブジェクトの位置が管理されているため、仮想オブジェクト表示判定部は、仮想オブジェクトの位置を容易に特定することができる。
(10)ユーザの現在位置を含むユーザ位置情報を管理するユーザ情報管理部を更に備え、前記仮想オブジェクト表示判定部は、前記ユーザ位置情報を用いてユーザの現在位置を特定することが好ましい。
この構成によれば、ユーザ情報管理部によりユーザの現在位置が管理されているため、仮想オブジェクト表示判定部は、ユーザの現在位置を容易に特定することができる。
(11)前記仮想オブジェクト表示判定部は、前記仮想オブジェクトの表示態様が変更された後、前記表示態様を元に戻す所定のジェスチャーがユーザにより行われた場合、前記表示態様を元に戻すことが好ましい。
この構成によれば、仮想オブジェクトの表示態様が変更された後、ユーザが仮想オブジェクトの表示態様を元に戻したいと考えた場合、所定のジェスチャーを行うことで、仮想オブジェクトの表示態様を元に戻すことができる。
(12)前記表示態様の変更は、前記仮想オブジェクトを非表示にすることであることが好ましい。
この構成によれば、仮想オブジェクトを非表示とすることで状態の変化した現実オブジェクトが手前に表示されるため、当該現実オブジェクトに対する動作をユーザは容易に行うことができる。
(13)前記表示態様の変更は、前記仮想オブジェクトの表示位置をずらすことであることが好ましい。
この構成によれば、仮想オブジェクトの表示位置をずらすことで状態が変化した現実オブジェクトが手前に表示されるため、当該現実オブジェクトに対する動作をユーザは容易に行うことができる。
本発明にかかるオブジェクト制御装置は、ヘッドマウントディスプレイ等を用いた仮想現実空間において、オブジェクト認識された物体に、物体の種別に合わせた機能を動的かつ選択的に設定、利用する手段として有用である。

Claims (16)

  1. 仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置であって、
    ユーザの動作を検出するユーザ動作検出部と、
    前記ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報を通知するユーザ動作通知部と、
    前記仮想現実空間に存在する現実オブジェクトの状態の変化を検出する現実オブジェクト状態検出部と、
    前記現実オブジェクト状態検出部により検出された前記現実オブジェクトの状態の変化を示す状態変化情報を通知する現実オブジェクト状態通知部と、
    前記ユーザ動作通知部から通知されたユーザ動作情報と前記現実オブジェクト状態通知部から通知された状態変化情報とを通知する状態通信部と、
    前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを判定する仮想オブジェクト表示判定部と、
    前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)を生成するUI生成部と、
    前記UI生成部により生成されたUIを表示するUI表示部とを備えるオブジェクト制御装置。
  2. ユーザの動作及び優先度が対応付けられた現実オブジェクト表示判定情報と、前記現実オブジェクトの状態の変化及び優先度が対応付けられた現実オブジェクト属性情報とを管理する現実オブジェクト情報管理部を更に備え、
    前記仮想オブジェクト表示判定部は、前記状態通信部から通知されたユーザ動作情報が示すユーザの動作に対応する優先度を前記現実オブジェクト表示判定情報から特定し、かつ、前記状態通信部から通知された状態変化情報が示す状態の変化に対応する優先度を前記現実オブジェクト属性情報から特定し、特定した2つの優先度を比較することで、前記仮想オブジェクトの表示態様を変更するか否かを判定する請求項1記載のオブジェクト制御装置。
  3. 前記現実オブジェクト表示判定情報及び前記現実オブジェクト属性情報に含まれる優先度は、値が増大するにつれて優先順位が高いことを示し、
    前記仮想オブジェクト表示判定部は、前記現実オブジェクト表示判定情報から特定した優先度が前記現実オブジェクト属性情報から特定した優先度以上である場合、前記仮想オブジェクトの表示態様を変更すると判定する請求項2記載のオブジェクト制御装置。
  4. 前記仮想オブジェクト表示判定部は、前記状態通信部から通知されたユーザ動作情報が前記現実オブジェクト表示判定情報に含まれていない場合、当該ユーザ動作情報が示すユーザの動作を、前記現実オブジェクト表示判定情報に含まれるユーザ動作情報に近似して、前記仮想オブジェクトの表示態様を変更するか否かを判定する請求項2又は3記載のオブジェクト制御装置。
  5. 前記仮想オブジェクト表示判定部は、状態が変化した現実オブジェクトに対してユーザの視界を遮る位置に存在する仮想オブジェクトを抽出し、抽出した仮想オブジェクトの表示態様を変更させる請求項1〜4のいずれかに記載のオブジェクト制御装置。
  6. 前記仮想オブジェクト表示判定部は、状態が変化した現実オブジェクトとユーザの現在位置とによって囲まれる領域を視界領域として設定し、少なくとも一部が前記視界領域に含まれる前記仮想オブジェクトの表示態様を変更させる請求項5記載のオブジェクト制御装置。
  7. 前記仮想オブジェクト表示判定部は、上面視において、ユーザが伸ばした方の手の側に弧が設定され、状態が変化した現実オブジェクトから一定の半径を持つ扇形の領域を拡張視界領域として設定し、前記拡張視界領域及び前記視界領域の少なくとも一方に含まれる仮想オブジェクトの表示態様を変更させる請求項5又は6記載のオブジェクト制御装置。
  8. 前記拡張視界領域は、上面視において、状態が変化した現実オブジェクトの中心からユーザに向けて前記扇形の一辺が設定され、前記ユーザ及び前記現実オブジェクトの中心を繋ぐ直線とユーザが伸ばした方の手の向きとがなす角度が増大するにつれて前記扇形の中心角が小さくなるように設定されている請求項8記載のオブジェクト制御装置。
  9. 前記仮想オブジェクトの位置を含む仮想オブジェクト管理情報を管理する仮想オブジェクト情報管理部を更に備え、
    前記仮想オブジェクト表示判定部は、前記仮想オブジェクト管理情報を用いて前記仮想オブジェクトの位置を特定する請求項1〜8のいずれかに記載のオブジェクト制御装置。
  10. ユーザの現在位置を含むユーザ位置情報を管理するユーザ情報管理部を更に備え、
    前記仮想オブジェクト表示判定部は、前記ユーザ位置情報を用いてユーザの現在位置を特定する請求項1〜9のいずれかに記載のオブジェクト制御装置。
  11. 前記仮想オブジェクト表示判定部は、前記仮想オブジェクトの表示態様が変更された後、前記表示態様を元に戻す所定のジェスチャーがユーザにより行われた場合、前記表示態様を元に戻す請求項1〜10のいずれかに記載のオブジェクト制御装置。
  12. 前記表示態様の変更は、前記仮想オブジェクトを非表示にすることである請求項1〜11のいずれかに記載のオブジェクト制御装置。
  13. 前記表示態様の変更は、前記仮想オブジェクトの表示位置をずらすことである請求項1〜11のいずれかに記載のオブジェクト制御装置。
  14. 仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置によるオブジェクト制御方法であって、
    ユーザ動作検出部がユーザの動作を検出するユーザ動作検出ステップと、
    前記ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報をユーザ動作通知部が通知するユーザ動作通知ステップと、
    現実オブジェクト状態検出部が前記仮想現実空間に存在する現実オブジェクトの状態の変化を検出する現実オブジェクト状態検出ステップと、
    前記現実オブジェクト状態検出部により検出された前記現実オブジェクトの状態の変化を示す状態変化情報を現実オブジェクト状態通知部が通知する現実オブジェクト状態通知ステップと、
    前記ユーザ動作通知部から通知されたユーザ動作情報と前記現実オブジェクト状態通知部から通知された状態変化情報とを状態通信部が通知する状態通信ステップと、
    前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを仮想オブジェクト表示判定部が判定する仮想オブジェクト表示判定ステップと、
    前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)をUI生成部が生成するUI生成ステップと、
    前記UI生成部により生成されたUIをUI表示部が表示するUI表示ステップとを備えるオブジェクト制御方法。
  15. コンピュータを、仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置として動作させるためのオブジェクト制御プログラムであって、
    ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報を通知するユーザ動作通知部と、
    現実オブジェクト状態検出部により検出された前記仮想現実空間に存在する現実オブジェクトの状態の変化を示す状態変化情報を通知する現実オブジェクト状態通知部と、
    前記ユーザ動作通知部から通知されたユーザ動作情報と前記現実オブジェクト状態通知部から通知された状態変化情報とを通知する状態通信部と、
    前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを判定する仮想オブジェクト表示判定部と、
    前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)を生成し、UI表示部に表示させるUI生成部としてコンピュータを機能させるオブジェクト制御プログラム。
  16. 仮想現実空間において仮想オブジェクトの表示制御を行うオブジェクト制御装置のための集積回路であって、
    ユーザ動作検出部により検出されたユーザの動作を示すユーザ動作情報を通知するユーザ動作通知部と、
    現実オブジェクト状態検出部により検出された前記仮想現実空間に存在する現実オブジェクトの状態の変化を示す状態変化情報を通知する現実オブジェクト状態通知部と、
    前記ユーザ動作通知部から通知されたユーザ動作情報と状態変化情報とを通知する状態通信部と、
    前記状態通信部から通知されたユーザ動作情報と状態変化情報とに基づいて、状態が変化した現実オブジェクトが露出されるように前記仮想オブジェクトの表示態様を変更するか否かを判定する仮想オブジェクト表示判定部と、
    前記仮想オブジェクト表示判定部による判定結果に基づいてユーザに提示するUI(ユーザインターフェイス)を生成し、UI表示部に表示するUI生成部とを備える集積回路。
JP2012543357A 2011-03-15 2012-02-09 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路 Ceased JPWO2012124250A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011056125 2011-03-15
JP2011056125 2011-03-15
PCT/JP2012/000869 WO2012124250A1 (ja) 2011-03-15 2012-02-09 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路

Publications (1)

Publication Number Publication Date
JPWO2012124250A1 true JPWO2012124250A1 (ja) 2014-07-17

Family

ID=46830345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012543357A Ceased JPWO2012124250A1 (ja) 2011-03-15 2012-02-09 オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路

Country Status (4)

Country Link
US (1) US8881059B2 (ja)
JP (1) JPWO2012124250A1 (ja)
CN (1) CN102859470B (ja)
WO (1) WO2012124250A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130318152A1 (en) * 2011-05-04 2013-11-28 Appsfreedom, Inc. Method and system for exchanging information between back-end and front-end systems
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US11372536B2 (en) 2012-11-20 2022-06-28 Samsung Electronics Company, Ltd. Transition and interaction model for wearable electronic device
US9030446B2 (en) * 2012-11-20 2015-05-12 Samsung Electronics Co., Ltd. Placement of optical sensor on wearable electronic device
KR102138511B1 (ko) * 2013-08-28 2020-07-28 엘지전자 주식회사 헤드 마운티드 디스플레이의 화상통화를 지원하는 포터블 디바이스 및 그 제어 방법
WO2015034535A1 (en) * 2013-09-09 2015-03-12 Empire Technology Development, Llc Augmented reality alteration detector
US10229523B2 (en) 2013-09-09 2019-03-12 Empire Technology Development Llc Augmented reality alteration detector
KR102355118B1 (ko) * 2014-01-06 2022-01-26 삼성전자주식회사 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법
JP6425891B2 (ja) * 2014-01-14 2018-11-21 株式会社Nttドコモ ユーザ端末および無線通信方法
US10248285B2 (en) * 2014-09-10 2019-04-02 Utherverse Digital Inc. Immersive displays
CN105787402B (zh) * 2014-12-16 2019-07-05 阿里巴巴集团控股有限公司 一种信息展示方法及装置
US9767606B2 (en) * 2016-01-12 2017-09-19 Lenovo (Singapore) Pte. Ltd. Automatic modification of augmented reality objects
CN105929959A (zh) * 2016-04-29 2016-09-07 四川数字工匠科技有限公司 虚拟现实头盔定位控制系统
CN106131539A (zh) * 2016-06-30 2016-11-16 乐视控股(北京)有限公司 一种虚拟现实vr设备及其视频播放方法
JP6696331B2 (ja) * 2016-07-06 2020-05-20 富士ゼロックス株式会社 情報処理装置、画像形成システムおよびプログラム
EP3496045A4 (en) * 2016-08-05 2019-07-31 Sony Corporation INFORMATION PROCESSING DEVICE, METHOD AND COMPUTER PROGRAM
EP3327544B1 (en) * 2016-11-25 2021-06-23 Nokia Technologies Oy Apparatus, associated method and associated computer readable medium
US10146300B2 (en) 2017-01-25 2018-12-04 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Emitting a visual indicator from the position of an object in a simulated reality emulation
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
CN109426419B (zh) * 2017-09-05 2022-06-03 菜鸟智能物流控股有限公司 界面显示方法及相关设备
WO2019051228A1 (en) 2017-09-08 2019-03-14 Apple, Inc. TRANSPARENT DISPLAY BASED ON A CAMERA
KR102552403B1 (ko) 2017-09-29 2023-07-07 애플 인크. 물리적 경계 검출
CN107703872B (zh) * 2017-10-31 2020-07-10 美的智慧家居科技有限公司 家电设备的终端控制方法、装置及终端
US10916066B2 (en) * 2018-04-20 2021-02-09 Edx Technologies, Inc. Methods of virtual model modification
US11644940B1 (en) * 2019-01-31 2023-05-09 Splunk Inc. Data visualization in an extended reality environment
US11853533B1 (en) 2019-01-31 2023-12-26 Splunk Inc. Data visualization workspace in an extended reality environment
WO2020188655A1 (ja) * 2019-03-15 2020-09-24 マクセル株式会社 複合現実表示装置および複合現実表示方法
US11842449B2 (en) * 2019-09-26 2023-12-12 Apple Inc. Presenting an environment based on user movement
US11314327B2 (en) * 2020-04-22 2022-04-26 Htc Corporation Head mounted display and control method thereof
JP2022118501A (ja) * 2021-02-02 2022-08-15 キヤノン株式会社 表示システム、表示装置とその制御方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2006276748A (ja) * 2005-03-30 2006-10-12 Olympus Corp 情報呈示装置、情報呈示方法、及びコンピュータプログラム
JP2006343953A (ja) * 2005-06-08 2006-12-21 Canon Inc 画像処理方法、画像処理装置
JP2008502992A (ja) * 2004-06-18 2008-01-31 トータルフェルスバレッツ フォルスクニングスインスティテュート イメージの情報を与える交信方法
JP2008029694A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 画像処理装置及び該画像処理装置を備える医用診断装置
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3363861B2 (ja) * 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
US7667687B2 (en) * 2003-12-30 2010-02-23 Immersion Corporation Resistive and hybrid control schemes for haptic feedback interface devices
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4795091B2 (ja) * 2006-04-21 2011-10-19 キヤノン株式会社 情報処理方法および装置
US20080211771A1 (en) * 2007-03-02 2008-09-04 Naturalpoint, Inc. Approach for Merging Scaled Input of Movable Objects to Control Presentation of Aspects of a Shared Virtual Environment
JP4725595B2 (ja) * 2008-04-24 2011-07-13 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体
US8160311B1 (en) * 2008-09-26 2012-04-17 Philip Raymond Schaefer System and method for detecting facial gestures for control of an electronic device
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
EP2350925A4 (en) * 2008-10-24 2012-03-21 Extreme Reality Ltd METHOD, SYSTEM AND ASSOCIATED MODULES AND SOFTWARE COMPONENTS FOR PRODUCING A MAN-MACHINE INTERFACE BASED ON IMAGE SENSOR
CA2777566C (en) * 2009-10-13 2014-12-16 Recon Instruments Inc. Control systems and methods for head-mounted information systems
JP5618569B2 (ja) * 2010-02-25 2014-11-05 キヤノン株式会社 位置姿勢推定装置及びその方法
US20120206485A1 (en) * 2010-02-28 2012-08-16 Osterhout Group, Inc. Ar glasses with event and sensor triggered user movement control of ar eyepiece facilities
US9529424B2 (en) * 2010-11-05 2016-12-27 Microsoft Technology Licensing, Llc Augmented reality with direct user interaction

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2004038470A (ja) * 2002-07-02 2004-02-05 Canon Inc 複合現実感装置および情報処理方法
JP2008502992A (ja) * 2004-06-18 2008-01-31 トータルフェルスバレッツ フォルスクニングスインスティテュート イメージの情報を与える交信方法
JP2006276748A (ja) * 2005-03-30 2006-10-12 Olympus Corp 情報呈示装置、情報呈示方法、及びコンピュータプログラム
JP2006343953A (ja) * 2005-06-08 2006-12-21 Canon Inc 画像処理方法、画像処理装置
JP2008029694A (ja) * 2006-07-31 2008-02-14 Toshiba Corp 画像処理装置及び該画像処理装置を備える医用診断装置
JP2009123018A (ja) * 2007-11-15 2009-06-04 Canon Inc 画像処理装置、画像処理方法
US20100053151A1 (en) * 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10185416B2 (en) 2012-11-20 2019-01-22 Samsung Electronics Co., Ltd. User gesture input to wearable electronic device involving movement of device
US10194060B2 (en) 2012-11-20 2019-01-29 Samsung Electronics Company, Ltd. Wearable electronic device
US10423214B2 (en) 2012-11-20 2019-09-24 Samsung Electronics Company, Ltd Delegating processing from wearable electronic device
US10551928B2 (en) 2012-11-20 2020-02-04 Samsung Electronics Company, Ltd. GUI transitions on wearable electronic device
US11157436B2 (en) 2012-11-20 2021-10-26 Samsung Electronics Company, Ltd. Services associated with wearable electronic device
US11237719B2 (en) 2012-11-20 2022-02-01 Samsung Electronics Company, Ltd. Controlling remote electronic device with wearable electronic device
US10691332B2 (en) 2014-02-28 2020-06-23 Samsung Electronics Company, Ltd. Text input on an interactive display

Also Published As

Publication number Publication date
CN102859470A (zh) 2013-01-02
CN102859470B (zh) 2015-12-02
WO2012124250A1 (ja) 2012-09-20
US20130031511A1 (en) 2013-01-31
US8881059B2 (en) 2014-11-04

Similar Documents

Publication Publication Date Title
WO2012124250A1 (ja) オブジェクト制御装置、オブジェクト制御方法、オブジェクト制御プログラム、及び集積回路
WO2019201047A1 (zh) 在虚拟环境中进行视角调整的方法、装置及可读存储介质
EP3396511B1 (en) Information processing device and operation reception method
CN107003738B (zh) 注视目标应用启动器
US10620791B2 (en) Information processing apparatus and operation reception method
KR102283747B1 (ko) 시선 추적을 갖는 타겟 위치결정
CN107810465B (zh) 用于产生绘制表面的系统和方法
CN108245893B (zh) 三维虚拟环境中虚拟对象的姿态确定方法、装置及介质
US9685005B2 (en) Virtual lasers for interacting with augmented reality environments
US10359863B2 (en) Dragging virtual elements of an augmented and/or virtual reality environment
KR102595150B1 (ko) 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
KR102021135B1 (ko) 가상 현실 환경에서의 내비게이션을 위한 제어 시스템
AU2020256776B2 (en) Method and device for observing virtual article in virtual environment, and readable storage medium
US10635259B2 (en) Location globe in virtual reality
CN105378625A (zh) 指示视野外的增强现实图像
US11494990B2 (en) Hybrid placement of objects in an augmented reality environment
US11430192B2 (en) Placement and manipulation of objects in augmented reality environment
US20220084303A1 (en) Augmented reality eyewear with 3d costumes
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
US20220291791A1 (en) Method and apparatus for determining selected target, device, and storage medium
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20200241633A1 (en) Display device and display device control method
JPWO2020031493A1 (ja) 端末装置および端末装置の制御方法
US20240019928A1 (en) Gaze and Head Pose Interaction
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150728

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150826

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20160531