JP2017059062A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2017059062A
JP2017059062A JP2015184523A JP2015184523A JP2017059062A JP 2017059062 A JP2017059062 A JP 2017059062A JP 2015184523 A JP2015184523 A JP 2015184523A JP 2015184523 A JP2015184523 A JP 2015184523A JP 2017059062 A JP2017059062 A JP 2017059062A
Authority
JP
Japan
Prior art keywords
user
input device
distance
task
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015184523A
Other languages
English (en)
Other versions
JP2017059062A5 (ja
JP6598617B2 (ja
Inventor
伸敏 難波
Nobutoshi Namba
伸敏 難波
武本 和樹
Kazuki Takemoto
和樹 武本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015184523A priority Critical patent/JP6598617B2/ja
Priority to US15/257,415 priority patent/US10001844B2/en
Publication of JP2017059062A publication Critical patent/JP2017059062A/ja
Publication of JP2017059062A5 publication Critical patent/JP2017059062A5/ja
Application granted granted Critical
Publication of JP6598617B2 publication Critical patent/JP6598617B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • G06F3/0219Special purpose keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Abstract

【課題】HMDを装着しているユーザが開始しようとしているタスクを、ユーザによる指示操作を必要とすることなく適切に判別する。【解決手段】情報処理装置は、頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出する第一の検出手段と、ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別する第一の識別手段と、ユーザの視野範囲内に存在する、ユーザが入力装置を操作するための操作媒体を識別する第二の識別手段と、ユーザの頭部の位置姿勢に基づいて、ユーザの視点位置から入力装置までの第一距離を検出する第二の検出手段と、ユーザの頭部の位置姿勢に基づいて、ユーザの視点位置から操作媒体までの第二距離を検出する第三の検出手段と、第一距離と第二距離とに基づいて、実行すべきタスクを判別する判別手段と、を備える。【選択図】 図1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
従来、頭部装着型表示装置であるHMD(Head Mounted Display)を利用した複合現実感(Mixed Reality:MR)技術や、仮想空間(Virtual Reality:VR)技術に関する研究が進められている。MR技術やVR技術を用いたシステムにおいては、一つのタスクを実行するだけでなく、複数のタスクを切り替えて実行するといった柔軟性が要求される。
タスクの切り替えには、対象アプリケーションの切り替えが必要である。ところが、キーボード等の入力装置を操作して対象アプリケーションを切り替える必要がある場合、体験者であるユーザは、HMDを装着したまま入力装置を正確に操作することが困難である。そのため、アプリケーションの切り替え時には、HMDの着脱を要する。しかしながら、MRシステムやVRシステムを体験中にHMDを着脱すると、没入感の阻害やタスク実行効率の低下が発生してしまう。
そこで、近年では、MRシステムやVRシステムを体験中、ユーザがHMDを装着したまま対象アプリケーションを切り替えるために、ユーザによる入力装置への指示操作を必要とすることなく対象アプリケーションを切り替える方法が検討されている。このような方法としては、ジェスチャー認識技術を用いたバーチャル入力方式による方法や、パターンマッチングなどの形状認識技術を用いた物体認識入力方式による方法がある。特許文献1には、2次元コードが撮像された画像から、2次元コードのパターンを認識し、認識したパターンに対応する処理を起動する技術が開示されている。
特開2009−217834号公報
特許文献1に記載の技術では、2次元コードが不用意に画像内に映り込んでしまった場合、ユーザがタスクの切り替えを希望していると誤認識して、自動的にアプリケーションが切り替わってしまう。つまり、ユーザの意図しないタイミングでアプリケーションが切り替わってしまったり、ユーザが希望するアプリケーションに適切に切り替わらなかったりする場合が発生し得る。
そこで、本発明は、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、適切にタスクの切り替えを判別することを目的とする。
上記課題を解決するために、本発明に係る情報処理装置の一態様は、頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出する第一の検出手段と、前記ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別する第一の識別手段と、前記ユーザの視野範囲内に存在する、前記ユーザが前記入力装置を操作するための操作媒体を識別する第二の識別手段と、前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第一の識別手段によって識別された入力装置までの第一距離を検出する第二の検出手段と、前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第二の識別手段によって識別された操作媒体までの第二距離を検出する第三の検出手段と、前記第二の検出手段によって検出された第一距離と、前記第三の検出手段によって検出された第二距離とに基づいて、実行すべきタスクを判別する判別手段と、を備える。
本発明によれば、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、適切にタスクの切り替えを判別することができる。
第一の実施形態の複合現実感システムの構成例を示す図である。 情報処理装置のハードウェア構成例を示す図である。 情報処理装置の制御部の機能ブロック図である。 条件設定テーブルの一例を示す図である。 情報処理装置の動作を説明するためのフローチャートである。 情報処理装置の動作を説明するための図である。 文字入力アプリケーションを起動した状態を示す図である。 CG調整アプリケーションを起動した状態を示す図である。 第二の実施形態の複合現実感システムの構成例を示す図である。 第三の実施形態の複合現実感システムの構成例を示す図である。 条件設定テーブルの一例を示す図である。 情報処理装置の画像加工部の機能ブロック図である。 条件設定テーブルの一例を示す図である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における情報処理装置30を備える複合現実感(MR)システム10の構成例を示す図である。
MRシステム10は、HMD20と、情報処理装置30と、を備える。MRシステム10は、現実空間と仮想空間とを融合させ、MR体験者であるユーザに提示する技術を用いたシステムである。MRシステム10は、CADモデルなどの現実にはない物体が、あたかもその場にあるかのようにユーザに提示することができる。このMRシステム10は、製造分野や医療分野等、様々な分野への適用が可能である。例えば、製造分野においては、MRシステム10は、設計時点でのデザイン確認や、組み立て時点での手順の表示といった組み立て支援に用いることができる。また、医療分野においては、MRシステム10は、患者の体表面に体内の様子を表示するといった手術支援に用いることができる。
HMD20は、ユーザが頭部に装着可能な頭部装着型表示装置である。本実施形態においては、HMD20は、ユーザの視点において現実空間を撮像可能な撮像機能を備え、現実画像とコンピュータグラフィックス(CG)等の仮想空間の画像とを合成した合成画像をユーザに提示可能なビデオシースルー型HMDとする。HMD20は、撮像部21Lおよび21Rと、表示部22Lおよび22Rとを備える。撮像部21L、21Rは、ユーザの左右の目にそれぞれ対応して配置されたカメラを備え、ユーザの左右の目に対応する複数の視点位置からユーザの視線方向の画像(視野画像)を撮像する。つまり、撮像部21L、21Rは、ユーザの視点から見える現実空間の物体(現実物体)の画像を撮像する。撮像部21L、21Rが備える2つのカメラによってステレオカメラを構成している。撮像部21L、21Rは、それぞれ撮像した画像を情報処理装置30に出力する。なお、上記ステレオカメラの焦点距離やレンズ歪み係数等のカメラ内部パラメータは、予め所定の方法で求められており、既知であるとする。
表示部22L、22Rは、ユーザの左右の目にそれぞれ対応して配置されたディスプレイを備え、情報処理装置30から出力された合成画像を表示する。具体的には、表示部22Lは、ユーザの左目の眼前に左目用の合成画像を提示し、表示部22Rは、ユーザの右目の眼前に右目用の合成画像を提示する。表示部22L、22Rは、それぞれディスプレイ上の画像を眼球に導くための光学系を備えていてもよい。なお、撮像部21L、21Rによってユーザの視野画像を撮像し、表示部22L、22Rによってユーザに画像を提示できる構成であれば、撮像部21L、21Rおよび表示部22L、22Rの配置位置は図1に示す位置に限定されない。
情報処理装置30は、HMD20の撮像部21L、21Rから出力される現実空間の画像を入力し、その入力した画像と仮想空間の画像との合成画像を生成する。そして、情報処理装置30は、生成した合成画像をHMD20の表示部22L、22Rに出力する。また、情報処理装置30は、撮像部21L、21Rから出力される画像に基づいて、ユーザが開始しようとしているタスク(ユーザが実行したい作業)を判別し、判別したタスクを実行するための適切なアプリケーション(以下、単に「アプリ」という。)を起動する。
具体的には、情報処理装置30は、撮像部21L、21Rから出力される画像に基づいて、ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置と、ユーザの視野範囲内に存在する、ユーザが入力装置を操作するための操作媒体とを認識する。また、情報処理装置30は、HMD20を装着したユーザの頭部の位置姿勢、つまり、HMD20の位置姿勢を検出する。そして、情報処理装置30は、ユーザの頭部の位置姿勢に基づいて、ユーザの視点位置から入力装置までの距離(第一距離)を検出する。さらに、情報処理装置30は、ユーザの頭部の位置姿勢に基づいて、ユーザの視点位置から操作媒体までの距離(第二距離)を検出する。そして、情報処理装置30は、検出した距離をそれぞれ判定パラメータと比較することにより、次に実行すべきタスクを判別し、判別したタスクを実行するためのアプリを起動する。
情報処理装置30は、図1に示すように、画像入力制御部31と、画像加工部32と、制御部33と、タスク実行部34と、画像出力制御部35と、を備える。
画像入力制御部31は、後述する図2に示す画像入力部308を制御して、撮像部21L、21Rによってユーザの視点位置から撮像されたユーザの視線方向の画像を取得する。なお、情報処理装置30は、画像入力制御部31によって取得された画像に対してレンズ歪み補正を行うことで、画像の歪みはないものとして扱う。画像加工部32は、現実空間に定義した標準座標系をもとに、HMD20の位置姿勢を検出し、画像入力制御部31によって取得された画像内におけるHMD20の位置姿勢との整合性を持たせた位置に仮想のコンテンツを重畳させることで、合成画像を生成する。
ここで、標準座標系上におけるHMD20の位置姿勢は、撮像部21L、22Rによって撮像されたステレオ画像によって検出することができる。なお、HMD20の位置姿勢は、不図示の位置姿勢センサの情報をもとに検出してもよい。また、コンテンツの位置は、HMD20の位置姿勢の検出結果から一義的に決めることができる。画像加工部32は、上記の生成した画像を制御部33および画像出力制御部35に出力する。
制御部33は、画像加工部32によって生成された画像の情報を入力し、入力した画像情報をもとにタスク判別処理を実行し、タスク判別処理結果をタスク実行部34に出力する。具体的には、制御部33は、入力装置として文字を入力するためのキーボードを認識し、実行すべきタスクが文章入力タスクであると判別した場合、タスク実行部34に対して文字を入力するための文字入力アプリの起動指示を出力する。ここで、文章入力タスクとは、ユーザがキーボードを操作して文章を作成するタスクである。また、制御部33は、入力装置として指示を入力するためのボタンを有するコントローラを認識し、実行すべきタスクがCG調整タスクであると判別した場合、タスク実行部34に対してCGを調整するためのCG調整アプリの起動指示を出力する。ここで、CG調整タスクとは、ユーザがコントローラを操作してHMD20の表示部22L、22Rに表示された仮想コンテンツを移動するタスクである。なお、仮想コンテンツの移動は、3次元方向の移動と3次元方向の回転とを含む。タスク判別処理の詳細については後述する。
タスク実行部34は、制御部33によるタスク判別処理結果に基づいて、実行すべきタスクに対応したアプリを起動する。つまり、タスク実行部34は、制御部33から起動指示を受けたアプリに関する画像を生成し、画像出力制御部35に出力する。画像出力制御部35は、後述する図2に示す画像出力部307を制御して、画像加工部32およびタスク実行部34によって生成された画像をHMD20の表示部22L、22Rに出力する。つまり、画像出力制御部35は、現実空間の画像と仮想空間の画像との合成画像をHMD20に表示させると共に、制御部33によって判別されたタスクに応じた情報をHMD20に表示させる。
図2は、情報処理装置30のハードウェア構成の一例である。情報処理装置30は、CPU301と、RAM302と、ROM303と、記憶装置304と、記憶媒体305と、I/F306と、画像出力部307と、画像入力部308と、システムバス309とを備える。
CPU301は、情報処理装置30における動作を統括的に制御するものであり、システムバス309を介して、各構成部(302〜308)を制御する。RAM302は、CPU301の主メモリ、ワークエリアとして機能する。ROM303は、CPU301が処理を実行するために必要なプログラムを記憶する不揮発性メモリである。なお、上記プログラムは、RAM302、記憶装置304、または記憶媒体305に記憶されていてもよい。すなわち、CPU301は、処理の実行に際して、例えばROM303から必要なプログラムをRAM302にロードし、上記プログラムを実行することで各種の機能動作を実現する。
記憶装置304や記憶媒体305は、例えば、CPU301がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、記憶装置304や記憶媒体305は、CPU21がプログラムを用いた処理を行うことにより得られた各種データや各種情報を記憶していてもよい。I/F306は、インターフェースカードにより構成され、外部機器と通信する。つまり、I/F306は、各種センサ情報や、入力装置(マウス、キーボード、ゲーム用のコントローラ等)からの特定の入力情報を受け取ったり、HMD20との間で画像の送受信を行ったりする。
画像出力部307は、HMD20に対して画像を出力するものであり、図1の画像出力制御部35によって制御される。画像出力部307は、例えばワークステーション用のグラフィックスカードにより構成され、HMD20の表示部22L、22Rに適切なフォーマットで画像を出力することができる。画像入力部308は、HMD20によって撮影された画像を取り込むものであり、図1の画像入力制御部31によって制御される。画像入力部308は、例えばビデオキャプチャーボードやビデオキャプチャーカードにより構成することができる。なお、画像入力部308は、カメラによって撮影された画像を取り込み可能な構成であればよい。システムバス309は、CPU301、RAM302、ROM303、記憶装置304、記憶媒体305、I/F306、画像出力部307および画像入力部308を通信可能に接続する。
図3は、制御部33の機能ブロック図である。制御部33は、条件設定部33aと、入力装置判定部33bと、入力装置距離計測部33cと、操作媒体判定部33dと、操作媒体距離計測部33eと、タスク判別部33fと、を備える。
条件設定部33aは、図2のROM303、RAM302、記憶装置304および記憶媒体305の少なくとも1つに予め記憶された条件設定テーブルを読み出す。図4は、条件設定テーブルの一例である。この図4に示すように、条件設定テーブルは、入力装置と操作媒体との組合せと、その組合せに対応付けられた、ユーザが実行し得るタスク(対象タスク)とを格納する。
また、条件設定テーブルは、入力装置を識別するための識別情報と、入力装置の種別毎に予め設定された規定距離(第一規定距離)とを格納する。ここで、第一規定距離は、ユーザが対象タスクを実行する意思がある、または実行していると判断可能なHMD20と入力装置との間の距離である。同様に、条件設定テーブルは、操作媒体を識別するための識別情報と、操作媒体の種別毎に予め設定された規定距離(第二規定距離)とを格納する。ここで、第二規定距離は、ユーザが対象タスクを実行する意思がある、または実行していると判断可能なHMD20と操作媒体との間の距離である。
本実施形態では、制御部33は、形状認識技術を用いて入力装置を識別し、色認識技術を用いて操作媒体を識別する。したがって、図4に示すように、入力装置の識別情報は、入力装置のパターン形状を示すテンプレート画像であり、操作媒体の識別情報は、操作媒体の色を示す色情報(R,G,B)である。なお、入力装置および操作媒体の識別方法は、形状認識技術や色認識技術を用いる方法に限定されない。
入力装置判定部33b(以下、「判定部33b」という。)は、条件設定部33aによって読み出された入力装置の識別情報をもとに、ユーザの視野範囲内に存在する入力装置を識別する。本実施形態では、判定部33bは、撮像部21L、21Rによる撮像画像内に存在する入力装置を、ユーザの視野範囲内に存在する入力装置として識別する。具体的には、入力装置がキーボードである場合、判定部33bは、条件設定部33aにより読み込まれたキーボードテンプレート画像に対して、撮像画像内に類似する画像(画素ブロック)が存在するか否かを判定する。判定部33bは、テンプレート画像における所定の水平ラインの輝度成分と撮像画像における所定の注目領域の水平ラインの輝度成分との相関値が所定の閾値よりも高いか否かに応じて、上記の類似する画像が存在するか否かを判定することができる。
入力装置距離計測部33c(以下、「距離計測部33c」という。)は、入力装置とHMD20との距離を計測(検出)する。例えば、距離計測部33cは、左目用の表示部22Lの中心点の座標を原点として、入力装置までの距離を計測することで、HMD20から入力装置までの距離を計測する。本実施形態では、HMD20はステレオカメラを備えるため、距離計測部33cは、ステレオ画像をもとに三角測量の原理を用いてHMD20から入力装置までの距離を計測することができる。
操作媒体判定部33d(以下、「判定部33d」という。)は、条件設定部33aによって読み出された操作媒体の識別情報をもとに、ユーザの視野範囲内に存在する操作媒体を識別する。本実施形態では、判定部33bは、撮像部21L、21Rによる撮像画像内に存在する操作媒体を、ユーザの視野範囲内に存在する操作媒体として識別する。具体的には、操作媒体がユーザの手である場合、まず、判定部33dは、条件設定部33aにより読み込まれた操作媒体の識別情報である色情報に基づいて、撮像画像から肌色領域を抽出する。つまり、判定部33dは、撮像画像の各ピクセルのRGB値が、図4の操作媒体の識別情報に記載されているようなRGB値の範囲内に入るかどうかをピクセル単位で判定し、肌色領域を決定する。次に、判定部33dは、決定した肌色領域を構成するピクセル量が所定の範囲内であるかどうかを判定する。以上により、判定部33dは、ユーザの視野範囲内に存在する操作媒体を識別することができる。
操作媒体距離計測部33e(以下、「距離計測部33e」という。)は、操作媒体とHMD20との距離を計測(検出)する。例えば、距離計測部33eは、左目用の表示部22Lの中心点の座標を原点として、操作媒体までの距離を計測することで、HMD20から操作媒体までの距離を計測する。例えば、操作媒体が手である場合、距離計測部33eは、まず、ステレオ画像において上述した肌色領域をそれぞれ検出し、各肌色領域の重心点をそれぞれ検出する。次に、距離計測部33eは、検出した重心点のうち、左右の画像上での縦軸値が所定の閾値内であるものを手の領域と判定する。そして、距離計算部33eは、左右画像の手の領域の重心点位置に基づいて、ステレオ画像をもとに三角測量の原理を用いてHMD20から操作媒体までの距離を計測することができる。
タスク判別部33fは、HMD20と入力装置との距離およびHMD20と操作媒体との距離が、それぞれ規定距離の範囲内であるか否かを判定することで、対象タスクを判別し、対象タスクを実行するための指示を図1のタスク実行部34に出力する。例えば、入力装置判定部33bにおいて入力装置としてキーボードが識別され、判定部33dにおいて操作媒体として手が識別された場合、タスク判別部33fは、図4に示す文章入力タスクの判定パラメータである規定距離[cm]を参照する。そして、タスク判別部33fは、HMD20と入力装置との距離およびHMD20と操作媒体との距離が、それぞれ規定距離である10cm〜50cmの範囲内であるか否かを判定する。タスク判別部33fは、HMD20と入力装置との距離およびHMD20と操作媒体との距離が、それぞれ規定距離の範囲内であると判定した場合、ユーザが開始しようとしているタスク(次に実行すべきタスク)が文章入力タスクであると判別する。このように、タスク判別部33fは、規定距離の範囲内にあると判定された入力装置と、規定距離の範囲内にあると判定された操作媒体との組合せに基づいて、実行すべきタスクを判別する。
なお、図1に示す情報処理装置30の各部の機能、および図3に示す制御部33の各部の機能は、図2に示すCPU301がRAM302、ROM303、記憶装置304もしくは記憶媒体305に記憶されたプログラムを実行することで実現され得る。
以下、制御部33が実行するタスク判別処理について、具体的に説明する。
図5は、制御部33が実行するタスク判別処理手順を示すフローチャートである。図5の処理は、情報処理装置30のCPU301が、所定のプログラムを読み出して実行することにより実現され得る。ただし、図5の処理の一部または全部が、専用のハードウェアにより実現されてもよい。
先ずS1において、制御部33は、予め登録しておいた条件設定テーブルを読み出し、入力装置の識別情報と、操作媒体の識別情報と、距離の判定パラメータ(規定距離)とを取得してS2に移行する。S2では、制御部33は、S1において取得した入力装置の識別情報を用いて、HMD20の撮像部21L、21Rによる撮像画像から入力装置を検索する。図6に示すように、HMD20の視線方向に複数の物体41〜44が存在する場合、撮像画像内には物体41〜44の画像が含まれる。したがって、この場合、制御部33は、これらの物体41〜44の中にS1において取得した入力装置の識別情報40と合致する物体が存在するか否かを判定する。
そして、S3では、制御部33は、S2において入力装置が検索された場合、ユーザの視野範囲内に存在する入力装置を識別できたと判定してS4に移行する。一方、制御部33は、撮像画像内に入力装置が存在しないと判定した場合には、タスク実行部34に対して起動中のアプリを終了する指示を出力してから図5の処理を終了する。これにより、ユーザの視線方向が移動し、ユーザの視野範囲内に入力装置が存在する状態から入力装置が存在しない状態に切り替わった場合には、自動的に操作終了と判断してアプリを非表示とすることができる。
S4では、制御部33は、S2において識別された入力装置とHMD20との距離を計測する。例えば、制御部33は、図6に示すキーボードである物体41を入力装置として識別した場合、入力装置41とHMD20との距離41aを計測する。
次にS5では、制御部33は、入力装置41とHMD20との距離41aが規定距離の範囲内であるか否か、つまり、入力装置41が、HMD20の左目用の表示部22Lの中心点の座標を原点として規定距離内に位置しているか否かを判定する。ここで、上記規定距離は、S1において条件設定テーブルを参照して取得された判定パラメータである。そして、制御部33は、距離41aが規定距離内であると判定した場合にはS6に移行する。一方、制御部33は、距離41aが規定距離外であると判定した場合には、入力装置41はユーザが操作可能な範囲内に位置しておらず、ユーザには入力装置41を操作する意思がないと判断して図5の処理を終了する。このとき、制御部33は、タスク実行部34に対して起動中のアプリを終了する指示を出力してから処理を終了する。これにより、ユーザが入力装置41の使用を終了したことを適切に判断し、自動的にアプリを非表示にすることができる。
S6において、制御部33は、S1において取得した操作媒体の識別情報を用いて、上述したS2における入力装置の検索と同様に、HMD20の撮像部21L、21Rによる撮像画像から操作媒体を検索する。そして、S7では、制御部33は、S6において操作媒体が検索された場合、ユーザの視野範囲内に存在する操作媒体を識別できたと判定してS8に移行する。一方、制御部33は、撮像画像内に操作媒体が存在しないと判定した場合には、タスク実行部34に対して起動中のアプリを終了する指示を出力してから図5の処理を終了する。S8では、制御部33は、S6において識別された操作媒体とHMD20との距離を計測する。例えば、制御部33は、図6に示すように、操作媒体の識別情報50と合致するユーザの手51を操作媒体として識別した場合、操作媒体51とHMD20との距離51aを計測する。
次にS9では、制御部33は、操作媒体51とHMD20との距離51aが規定距離の範囲内であるか否か、つまり、操作媒体51が、HMD20の左目用の表示部22Lの中心点の座標を原点として規定距離内に位置しているか否かを判定する。ここで、上記規定距離は、S1において条件設定テーブルを参照して取得された判定パラメータである。そして、制御部33は、距離51aが規定距離内であると判定した場合にはS10に移行する。一方、制御部33は、距離51aが規定距離外であると判定した場合には、操作媒体51は入力装置41を操作可能な範囲内に位置しておらず、ユーザには操作媒体51を介して入力装置41を操作する意思がないと判断して図5の処理を終了する。このとき、制御部33は、タスク実行部34に対して起動中のアプリを終了する指示を出力してから処理を終了する。これにより、ユーザが入力装置41の使用を終了したことを適切に判断し、自動的にアプリを非表示にすることができる。
S10では、制御部33は、S2からS9までの処理結果に基づいて、対象タスクを判定する。つまり、HMD20からの距離が規定距離内である入力装置と、HMD20からの距離が規定距離内である操作媒体との組合せに基づいて、条件設定テーブルを参照して対象タスクを判別する。そして、制御部33は、判別した対象タスクを実行するための指示を図1のタスク実行部34に出力する。これにより、対象タスクを実行するためのアプリが起動される。例えば、入力装置がキーボードであり、操作媒体がユーザの手である場合、制御部33は、対象タスクが文章入力タスクであると判別する。この場合、タスク実行部34は、文章入力タスクを実行するためのアプリとして、文字エディタアプリを起動する。
図7は、文字入力タスク実行時におけるHMD画面60の一例である。HMD20の表示部22L、22Rによって表示されるHMD画面60には、入力装置41やユーザの手51といった現実物体や、仮想のコンテンツ70を表示することができる。文字エディタアプリが起動された場合、図7に示すように、HMD画面60に文章入力欄61を重畳表示させることで、文字入力が可能な状態に切り替えることができる。このとき、文章入力欄61を入力装置(キーボード)41に重畳させずに表示することで、ユーザはキーボード41上のキー配列を確認しながら文字入力を行うことができる。
なお、文章入力欄61の表示方法は、図7に示す方法に限定されない。文章入力欄61をキーボード41に重畳させて表示する場合には、背景となるキーボードを確認可能なように文章入力欄61を透過表示するようにしてもよい。また、文字エディタアプリを起動したときに表示させる情報も文章入力欄61に限定されない。
一方、入力装置がコントローラであり、操作媒体がユーザの手である場合、制御部33は、対象タスクがCG調整タスクであると判別する。この場合、タスク実行部34は、CG調整タスクを実行するためのアプリとして、コンテンツ移動アプリを起動する。
図8は、CG調整タスク実行時におけるHMD画面60の一例である。HMD20の表示部22L、22Rによって表示されるHMD画面60には、コントローラである入力装置45やユーザの手51といった現実物体や、仮想のコンテンツ70が表示される。コンテンツ移動アプリが起動された場合、図8に示すように、HMD画面60に座標軸62を重畳表示させることで、コンテンツを移動可能な状態に切り替えることができる。なお、座標軸62の表示方法は、図8に示す方法に限定されない。また、コンテンツ移動アプリを起動したときに表示させる情報も座標軸62に限定されない。
以上のように、本実施形態では、情報処理装置30は、ユーザの視野範囲内に存在する入力装置および操作媒体を識別し、ユーザの視点位置(HMDの位置)から識別された入力装置および操作媒体までのそれぞれの距離を検出(計測)することでタスクを判別する。したがって、情報処理装置30は、HMDの着脱を要することなくユーザが開始しようとしているタスクを判別し、判別したタスクを実行するためのアプリに自動的に切り替えることができる。したがって、ユーザは、煩わしいアプリの切り替え操作を行うことなく、希望するタスクを実行することができる。
仮に、ユーザがタスクの切り替えのために対象アプリを切り替える操作を行う場合、ユーザは画面上の操作メニューやアイコンを見ながら、入力装置を操作する必要がある。しかしながら、ユーザがHMDを装着すると、ユーザの視覚情報が変化するため、HMDを装着したままでは対象アプリの切り替え操作が難しい場合がある。
例えば、ビデオシースルーHMD(現実画像と仮想CG画像との合成表示)では、カメラの解像度が原因で現実空間の解像度が低下したり、映像を表示するまでの遅延が原因で身体動作に対する視覚情報の遅延が発生したりする。そのため、キーボード等の入力装置の操作に時間を要する場合がある。また、光学シースルーHMD(現実空間にCGのみ表示)では、コンテンツ画像を実写背景に対して強調するために、シースルー領域に輝度調整フィルムを設けて実写映像を暗くすることが多い。そのため、光学シースルーHMDでは、この輝度調整フィルムによって現実空間が暗く見えてしまい、キーボード等のコントラストの低い入力装置を正確に操作するためには時間を要する場合がある。さらに、VR用HMD(全画面CG表示)では、現実空間の映像が遮られるため、現実空間に置いてあるマウスやキーボード等を操作することは非常に困難である。
上記の理由により、HMDを装着しているユーザが自ら対象アプリを切り替えるには、HMDの着脱が必要であった。つまり、ユーザがタスクを切り替える場合、ユーザは、一旦HMDを取り外し、入力装置を目視により確認してから操作媒体により入力装置を操作して、必要なアプリに切り替える。そして、アプリが切り替わると、ユーザは再びHMDを装着して所定のタスクを実行することになる。
しかしながら、MRシステムやVRシステムは、ユーザが、仮想のコンテンツが現実の空間に実在するかのような没入感を得ることができるシステムである。そのため、アプリ切り替えのためにHMDを着脱すると、上記の没入感が阻害されてしまう。また、HMDの着脱に時間を要すると、タスク集中力の低下にも繋がる。
そこで、HMDを装着しているユーザには、実物の入力装置を使用させずにアプリの切り替えを行うことも検討されている。例えば、ユーザがHMDを装着したままアプリを切り替える方法としては、バーチャル入力方式を用いた方法がある。バーチャル入力方式は、バーチャルキーボードやバーチャルメニューといったジェスチャー認識技術を用いた方式である。具体的には、ユーザの手などの操作媒体の動きをビデオカメラやセンサによって追跡し、ユーザによって該当する動作が実施されたときに対象のアプリを切り替える。ところが、この方式では、操作媒体が入力装置に接触したような感触が得られないため、誤操作を招く場合がある。
また、アプリの切り替え方法の別の例として、物体認識入力方式を用いた方法もある。物体認識入力方式は、パターンマッチングなどの形状認識技術を用いた方式である。具体的には、形状認識技術を用いて規定の物体やマーカー等が画像内に映り込んだことを認識したときに、対象のアプリに切り替える。ところが、この方式では、規定の物体やマーカーが不用意に画像内に映り込んだ場合には誤認識が発生し得る。
これに対して、本実施形態では、上述したように、ユーザがHMDを装着したままでもアプリの切り替えが可能である。そのため、時間を要するHMDの着脱が不要になり、没入感の阻害や着脱によるタスク集中力の低下を防ぐことができる。また、情報処理装置30は、入力装置と操作媒体について、現実画像中における形状認識技術や色認識技術を用いて識別情報と一致したかどうかで有無を判定するだけでなく、HMDと入力装置の距離、およびHMDと操作媒体の距離も同時に判定する。したがって、ユーザが開始しようとしているタスクを適切に判別し、自動的に適切なアプリに切り替えることができる。また、入力装置の認識だけでなく、入力装置を操作するための操作媒体(ユーザの手)まで認識することで、ユーザが開始しようとしているアプリを高精度に判別することができる。
さらに、情報処理装置30は、ユーザの頭部の位置姿勢を検出し、検出したユーザの頭部の位置姿勢に基づいて、HMDと入力装置との距離およびHMDと操作媒体との距離を検出する。このように、ユーザの頭部の位置姿勢計測を含んでHMDと入力装置との距離およびHMDと操作媒体との距離を検出することにより、精度良く上記距離を検出することができ、誤認識や誤操作を低減することができる。
また、情報処理装置30は、ユーザの視点位置から撮像されたユーザの視線方向の画像を取得し、取得した画像内に存在する入力装置および操作媒体を、ユーザの視野範囲内に存在する入力装置および操作媒体として識別する。このように、ユーザの視線方向の画像を用いることで、容易且つ適切にユーザの視野範囲内に存在する入力装置および操作媒体を識別することができる。つまり、入力装置や操作媒体の位置情報をもとに、ユーザの視点位置(HMD)に対する入力装置や操作媒体の位置する方向をそれぞれ求める必要がない。
さらに、頭部装着型表示装置としてのHMD20は、ビデオシースルー型HMDである。そのため、情報処理装置30は、HMD20が予め備えるカメラからユーザの視線方向の画像を取得することができる。また、このとき情報処理装置30は、ユーザの左右の目に対応する複数の視点位置からそれぞれ撮像されたユーザの視線方向の複数の画像を取得することができる。したがって、情報処理装置30は、取得された複数の画像をもとに、三角測量の原理を用いて、容易にHMDから入力装置までの距離や操作媒体までの距離を検出することができる。
また、情報処理装置30は、HMDから入力装置までの距離、およびHMDから操作媒体までの距離が、それぞれ入力装置や操作媒体の種別毎に予め設定された規定距離の範囲内であるか否かを判定する。そして、情報処理装置30は、規定距離の範囲内にあると判定された入力装置と、規定距離の範囲内にあると判定された操作媒体との組合せに基づいて、タスクを判別する。したがって、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、ユーザが切り替えようとするタスクを適切に判別し、自動的に適切なアプリに切り替えることができる。
(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、頭部装着型表示装置としてビデオシースルー型HMDを用いる場合について説明した。第二の実施形態では、頭部装着型表示装置として光学シースルー型HMDを用いる場合について説明する。
図9は、第二の実施形態における情報処理装置130を備えるMRシステム110の構成例を示す図である。なお、情報処理装置130のハードウェア構成は、図2に示す情報処理装置30のハードウェア構成と同様である。この図9において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
MRシステム110は、光学シースルー型のHMD120と、情報処理装置130とを備える。HMD120は、ユーザが頭部に装着可能な頭部装着型表示装置であり、単眼ビデオカメラを含んで構成される撮像部121と、表示部122L、122Rとを備える。撮像部121は、HMD120を装着したユーザの視野画像を撮像し、撮像画像を情報処理装置130に出力する。なお、上記単眼ビデオカメラの焦点距離やレンズ歪み係数等のカメラ内部パラメータは、予め所定の方法により求められており、既知であるとする。表示部122L、122Rは、例えばハーフミラーを含んで構成され、ユーザの視点方向から入射する光と、情報処理装置130が出力する画像の表示光とを融合してユーザに提示する。
情報処理装置130は、HMD120の撮像部121から出力される現実空間の画像を入力し、入力した画像と仮想空間の画像との合成画像を生成する。そして、情報処理装置130は、生成した合成画像をHMD120の表示部122L、122Rに出力する。また、情報処理装置130は、撮像部121から出力される画像に基づいて、タスク判別処理を実行する。
具体的には、情報処理装置130の画像入力制御部131は、図2に示す画像入力部308を制御して、撮像部121によってユーザの視点位置から撮像されたユーザの視線方向の画像を取得する。なお、情報処理装置130は、画像入力制御部131によって取得された画像に対してレンズ歪み補正を行うことで、画像の歪みはないものとして扱う。画像加工部132は、現実空間に定義した標準座標系をもとに、HMD120の位置姿勢を求め、その位置姿勢に応じた仮想のコンテンツを提示するための仮想空間の画像を生成する。ここで、標準座標系上におけるHMD120の位置姿勢は、撮像部121によって撮像された画像や位置姿勢センサ(不図示)の情報をもとに計測することができる。また、コンテンツの位置は、HMD120の位置姿勢の計測結果から一義的に決めることができる。
制御部133は、画像加工部132によって生成された画像の情報を入力し、入力した画像情報をもとにタスク判別処理を実行し、タスク判別処理結果をタスク実行部34に出力する。制御部133の構成は、図3に示す上述した第一の実施形態の制御部33の構成と同様である。ただし、図3の各部における処理のうち、入力装置および操作媒体の有無判定および距離計測を、図1の撮像部21L、21Rによる撮像画像に代えて、図9の撮像部121による撮像画像を用いて行う点が異なる。なお、上記距離計測においては、制御部133は、HMD120の左目用の表示部122Lの中心点の座標を原点として距離を計測する。
HMD120から対象物までの距離を計測する際には、制御部133は、撮像部121による撮像画像内の対象物の形状およびサイズを認識し、認識した形状およびサイズをもとに上記距離を計測する。HMD120から入力装置までの距離を計測する場合、制御部133は、図4の条件設定テーブルに格納される入力装置の識別情報であるテンプレート画像の撮像時におけるHMD120から入力装置までの距離を予め設定しておく。そして、制御部133は、撮像画像内の入力装置と対応するテンプレート画像とのスケール比に基づいて、HMD120から入力装置までの距離を計算する。
また、HMD120から操作媒体までの距離を計測する場合には、制御部133は、所定の距離で撮像された操作媒体の画面上での外接矩形の面積(基準面積)とピクセル数(基準ピクセル数)とを予め設定しておく。そして、制御部133は、撮像画像内における操作媒体の外接矩形の面積と予め設定しておいた面積との比率、および撮像画像内における操作媒体の外接矩形のピクセル数と予め設定しておいたピクセル数との比率を求める。次に、制御部133は、求めた面積比率とピクセル数比率との平均値に基づいて、HMD120から操作媒体までの距離を計算する。
以上のように、単眼カメラを備える光学シースルー型HMDを利用した場合であっても、情報処理装置130は、上述した第一の実施形態と同様に適切にタスクを判別し、自動的にアプリを切り替えることができる。
また、情報処理装置130は、HMD120の撮像部121により撮像された画像内における操作媒体に対応する領域を包含する外接図形(例えば、外接矩形)の面積と、所定の基準面積とを比較することにより、HMD120から操作媒体までの距離を検出する。したがって、単眼カメラを備える光学シースルー型HMDを利用した場合であっても、HMD120から対象物までの距離を正確に検出することができる。なお、上記外接図形は、外接矩形に限定されず、外接多角形や外接円であってもよい。
なお、本実施形態においては、ユーザが直接見ている現実世界の中に仮想空間の画像を映し込む場合について説明したが、撮像部121による撮像画像に仮想空間の画像を重畳して表示部122L、122Rに表示させることもできる。また、本実施形態においては、HMD120が単眼カメラを備える場合について説明したが、ステレオカメラを備えるようにしてもよい。この場合、上述した第一の実施形態と同様に、三角測量の原理を用いてHMD120から入力装置までの距離、およびHMD120から操作媒体までの距離を計測することが可能となる。
(第三の実施形態)
次に、本発明の第三の実施形態について説明する。
上述した第一および第二の実施形態では、ユーザが装着するHMDに搭載されたカメラによるユーザの視線方向の撮像画像をもとにタスクを判別する場合について説明した。第三の実施形態では、HMD、入力装置および操作媒体の位置姿勢を計測可能な位置姿勢センサを用いてタスクを判別する場合について説明する。
図10は、第三の実施形態における情報処理装置230を備えるMRシステム210の構成例を示す図である。なお、情報処理装置230のハードウェア構成は、図2に示す情報処理装置30のハードウェア構成と同様である。この図10において、上述した第一の実施形態と同様の構成を有する部分には、図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
MRシステム210は、撮像機能を備えていないHMD220と、情報処理装置230と、位置姿勢センサとしての光学センサ240とを備える。HMD220は、情報処理装置230が出力する画像を表示可能な表示部(不図示)を備える。HMD220は、撮像機能を有していない光学シースルー型HMDを用いることができる。なお、HMD220は、ビデオシースルー型HMDであってもよいし、撮像機能を有する光学シースルー型HMDであってもよい。また、本実施形態ではMRシステム210を例として説明するが、仮想コンテンツの配置シミュレーションや仮想のキャラクターを用いたゲーム等、全画面CG表示のVRシステムにも適用可能である。つまり、HMD220は、VR用のHMDであってもよい。
光学センサ240は、計測対象に設置された再帰性反射素材からなるボール状のマーカー群(以下、「リジッドボディ」と呼ぶ。)を複数台のカメラで捉えることで、空間中における計測対象の位置姿勢を計測する。本実施形態では、HMD220にHMD用のリジッドボディ241を設置することで、光学センサ240は、HMD220の位置姿勢を検出することができる。また、操作媒体(図10ではユーザの手)51に操作媒体用のリジッドボディ242を設置することで、光学センサ240は、操作媒体51の位置姿勢を検出することができる。さらに、入力装置(図10ではキーボード)41に入力装置用のリジッドボディ243を設置することで、光学センサ240は、入力装置41の位置姿勢を検出することができる。ここで、リジッドボディ241〜243は、それぞれ異なるレイアウトを有する。
このように、リジッドボディのレイアウトを計測対象ごとに区別して設定することで、光学センサ240は、レイアウトの異なるリジッドボディをそれぞれ個別のターゲットとして識別し、位置姿勢を計測することができる。本実施形態においては、光学センサ240は、レイアウトが異なるリジッドボディに対して、ターゲット1、ターゲット2、…のように識別番号を付けた位置姿勢情報を、情報処理装置230へ出力する。
情報処理装置230の情報入力制御部231は、光学センサ240から3次元空間におけるHMD220、入力装置41および操作媒体51の位置姿勢情報を取得し、画像加工部232に出力する。
画像加工部232は、情報入力制御部231から入力した、HMD220、入力装置41および操作媒体51の位置姿勢情報を保持する。また、画像加工部232は、保持した位置姿勢情報に基づいて、HMD220に対する入力装置の方向およびHMD220に対する操作媒体の方向を計測する。そして、画像加工部232は、上記の位置姿勢情報や入力装置および操作媒体の方向を示す情報に基づいて、入力装置のCGモデルの画像、操作媒体のCGモデルの画像、および仮想コンテンツの画像を生成し、これらの画像を合成する。このとき、画像加工部232は、入力した位置姿勢情報の識別番号をもとに、生成するCGモデルを決定する。例えば、画像加工部232は、取得された識別番号がキーボードを示す識別番号(ターゲット1)である場合、入力装置がキーボードであるとして、キーボードのCGモデルを生成する。一方、画像加工部232は、取得された識別番号がコントローラを示す識別番号(ターゲット2)である場合、入力装置がコントローラであるとして、コントローラのCGモデルを生成する。また、画像加工部232は、識別番号がユーザの手を示す識別番号(ターゲット7)である場合には、操作媒体がユーザの手であるとして、手のCGモデルを生成する。画像加工部232の詳細については後述する。
そして、画像加工部232は、生成した画像をユーザに提示するために画像出力制御部35に出力する。このとき、画像出力制御部35が、画像加工部232から入力した画像をHMD220の表示部に表示させることで、ユーザは、入力装置および操作媒体のCGモデルの画像、ならびにコンテンツの画像を観察することができる。これにより、ユーザは、各対象物の空間中における位置を把握することができる。
また、画像加工部232は、保持した各計測対象の位置姿勢情報や、HMD220を基準とした入力装置および操作媒体のそれぞれの方向を示す情報を制御部233に出力する。制御部233は、画像加工部232から入力した情報をもとに、タスク判別処理を実行する。このとき、制御部233は、図11に示す条件設定テーブルを参照し、HMD220から入力装置までの距離およびHMD220から操作媒体までの距離と、条件設定テーブルに設定されている規定距離とをそれぞれ比較してタスクを判別する。制御部233の詳細については後述する。
(画像加工部232の構成)
以下、画像加工部232の構成について具体的に説明する。図12は、画像加工部232の機能ブロック図である。画像加工部232は、入力装置位置姿勢保持部232aと、操作媒体位置姿勢保持部232bと、HMD位置姿勢保持部232cと、入力装置方向計測部232dと、操作媒体方向計測部232eと、画像合成部232fと、を備える。
入力装置位置姿勢保持部232aは、情報入力制御部231から出力される入力装置の位置姿勢情報を保持する。操作媒体位置姿勢保持部232bは、情報入力制御部231から出力される操作媒体の位置姿勢情報を保持する。HMD位置姿勢保持部232cは、情報入力制御部231から出力されるHMD220の位置姿勢情報を保持する。入力装置位置姿勢保持部232aは、新たに光学センサ240により計測された入力装置の位置姿勢情報を取得した場合、保持している位置姿勢情報を新たに取得した位置姿勢情報に書き換える。操作媒体位置姿勢保持部232bおよびHMD位置姿勢保持部232cについても同様である。
入力装置方向計測部232dは、HMD220に対する入力装置の方向を計測する。入力装置方向計測部232dは、まず、HMD220の位置姿勢情報をもとに、HMD220を介してユーザが観察する方向(視線方向)および範囲(視野範囲)を計測する。次に、入力装置方向計測部232dは、HMD220の位置姿勢と、入力装置の位置姿勢とに基づいて、HMD220に対する入力装置の方向を計測すると共に、HMD220から入力装置までの距離を計測する。操作媒体方向計測部232eは、HMD220に対する操作媒体の方向を計測する。操作媒体方向計測部232eは、HMD220の位置姿勢と、操作媒体の位置姿勢とに基づいて、HMD220に対する操作媒体の方向を計測すると共に、HMD220から操作媒体までの距離を計測する。
画像合成部232fは、入力装置方向計測部232dおよび操作媒体方向計測部232eによって計測された情報に基づいて、入力装置のCGモデルの画像、操作媒体のCGモデルの画像、および仮想コンテンツの画像を生成し、これらの画像を合成する。
(制御部233の構成)
次に、制御部233の構成について具体的に説明する。制御部233の機能ブロック図は、図3に示す制御部33と同様であるため、図3を参照しながら説明する。
条件設定部33aに対応する処理部は、タスクの判別に用いる条件設定テーブルとして、図11に示す条件設定テーブルを読み出す。本実施形態では、光学センサ240から出力される位置姿勢情報を用いて入力装置および操作媒体を識別する。したがって、図11に示すように、入力装置および操作媒体の識別情報としては、光学センサ240が出力する計測対象の識別番号が格納される。
判定部33bに対応する処理部は、画像加工部232において計測されたHMD220の視野範囲と、HMD220に対する入力装置の方向とに基づいて、入力装置がHMD220の視野範囲内に存在するか否かを判定する。距離計測部33cに対応する処理部は、ユーザの視野範囲内に存在すると判定された入力装置について、画像加工部232において計測されたHMD220から入力装置までの距離を取得する。
判定部33dに対応する処理部は、画像加工部232において計測されたHMD220の視野範囲と、HMD220に対する操作媒体の方向とに基づいて、操作媒体がHMD220の視野範囲内に存在するか否かを判定する。距離計測部33eに対応する処理部は、ユーザの視野範囲内に存在すると判定された操作媒体について、画像加工部232において計測されたHMD220から操作媒体までの距離を取得する。
タスク判別部33fに対応する処理部は、HMD20と入力装置との距離およびHMD20と操作媒体との距離が、それぞれ規定距離の範囲内であるか否かを判定することで対象タスクを判別し、対象タスクを実行するための指示をタスク実行部34に出力する。上記規定距離は、予め図11に示す条件設定テーブルに設定されている。
なお、図10に示す情報処理装置230の各部の機能、および制御部233の図3に示す各部に対応する機能は、図2に示すCPU301が所定のプログラムを実行することで実現され得る。
以上のように、本実施形態では、情報処理装置230は、位置姿勢センサを用いて入力装置の位置姿勢および操作媒体の位置姿勢を検出する。また、情報処理装置230は、位置姿勢センサを用いてユーザの頭部の位置姿勢、つまりHMD220の位置姿勢を検出する。そして、情報処理装置230は、ユーザの頭部の位置姿勢と入力装置の位置姿勢とに基づいて、ユーザの視野範囲内に存在する入力装置を識別する。同様に、情報処理装置230は、ユーザの頭部の位置姿勢と操作媒体の位置姿勢とに基づいて、ユーザの視野範囲内に存在する操作媒体を識別する。したがって、カメラを備えないHMD230を利用した場合であっても、上述した第一および第二の実施形態と同様に適切にタスクを判別し、自動的にアプリを切り替えることができる。
なお、上記実施形態においては、計測対象となる複数の物体の位置姿勢を計測するための位置姿勢センサとして、光学センサ240を用いる場合について説明した。しかしながら、位置姿勢センサは光学センサ240に限定されるものではなく、磁気センサや機械式センサを用いることもできる。磁気センサを用いた場合、HMDにHMD用の磁石を設置し、入力装置に入力装置用の磁石を設置し、操作媒体に操作媒体用の磁石を設置する。そして、これらと対になる磁気センサによって、HMD、入力装置および操作媒体の位置姿勢を検出すればよい。
また、上記実施形態においては、位置姿勢センサとしてカメラを用いることもできる。つまり、カメラによってユーザ、入力装置および操作媒体を撮像し、撮像画像をもとにユーザの頭部の位置姿勢や入力装置の位置姿勢、操作媒体の位置姿勢を検出するようにしてもよい。この場合にも、ユーザがHMDを装着したまま、且つユーザによる切替指示操作を必要とすることなく、ユーザが切り替えようとするタスクを適切に判別し、自動的に適切なアプリに切り替えることができる。
(変形例1)
上記各実施形態においては、入力装置が、文字入力を行うためのキーボードや、CGの移動や回転を行うためのゲーム用のコントローラである場合について説明したが、入力装置はこれらに限定されるものではない。入力装置は、位置姿勢を計測可能なセンサが内蔵されたボタン付きの3次元ポインティングデバイス(以下、「スタイラス」と呼ぶ。)であってもよい。
入力装置がスタイラスである場合、操作媒体はユーザの手である。この場合、ユーザが実行し得るタスクとしては、空間中に表示されているCGモデルの表面形状コントロールポイントを制御するといったタスクが考えられる。具体的には、ユーザが、車などの3次元CADモデルをHMD越しに3次元空間で観察しながら曲面形状を変更するシチュエーションが考えられる。この場合、情報処理装置は、ユーザがスタイラスを手に持ったとき、曲面形状を編集するタスクを実行するための曲面編集アプリを起動し、曲面変種機能の有効化への切り替えや、3次元形状の曲面コントロールポイントの表示を行えばよい。
これにより、ユーザがメニューを操作して曲面コントロールポイントを操作するまでもなく、手に持ったスタイラスを視点位置に移動させた時点で、曲面形状を編集可能なモードに切り替えることができる。そのため、ユーザが希望するタスクを効率良く実現することができる。また、同一環境において、ユーザがスタイラスから手を外すと、曲面コントロールポイントが消去され、外観をチェック可能な表示に切り替わるようにしてもよい。このように、キーボードやコントローラ以外の入力装置であっても、自動タスク判定を適切に実行することができる。なお、入力装置はタッチパネルやマウスであってもよい。
(変形例2)
また、上記各実施形態においては、操作媒体がユーザの手である場合について説明したが、操作媒体はユーザの手に限定されるものではない。操作媒体は、手袋(グローブ)を使用した手であってもよい。上記グローブは、布や樹脂で作られた光りの反射を抑えた単色のグローブとすることができる。HMDに内蔵されたカメラによって操作媒体を認識する場合、上記のようなグローブを手に装着して撮像することで、操作媒体である手の認識率を向上させることができる。
さらに、操作媒体は、遠隔で人間の指示に従って動く遠隔作業ロボットのアームであってもよい。この場合、遠隔地に配置されている入力装置とロボットアームとの、遠隔地を基準とした座標系における位置姿勢を、HMDを装着する空間の基準座標系に座標変換すればよい。そして、座標変換後の入力装置とロボットアームとの位置姿勢をもとに、入力装置およびロボットアームのそれぞれの存在有無の判定やHMDからの距離計測を行うことで、上記各実施形態と同様に自動タスク判定処理を実行することができる。なお、操作媒体はスタイラスであってもよい。この場合、入力装置はタッチパネルであってもよい。
(変形例3)
また、上記各実施形態においては、入力装置と操作媒体との組合せと、対象タスクとが一対一の関係である場合について説明したが、1つの上記組合せに複数の対象タスクが対応付けられていてもよい。すなわち、1つの入力装置によって、複数のタスクを実行可能に構成することもできる。この場合、1つの上記組合せに対応付けられた複数のタスクの中から、直前に実行されていたタスクに応じたタスクを判別するようにしてもよい。具体的には、第一のタスクを実行するための第一の入力装置から、速やかに第二の入力装置に切り替えられたことを検出した場合、第二の入力装置に対応付けられた第二のタスクと第三のタスクとのうち、第一のタスクに関連する第三のタスクに切り替えてもよい。
上述した第一の実施形態では、ユーザが、第一の入力装置であるコントローラを用いて第一のタスクであるCG調整を実施した後、第二の入力装置であるキーボードに持ち替えると、情報処理装置30は第二のタスクである文章入力が可能な状態に切り替える。ところが、例えば、CG調整タスクを終えた後、CGモデル上にコメントを挿入するコメント挿入タスクを実行したい場合がある。この場合、ユーザはコントローラを置いた後、速やかにキーボードに持ち替えることになる。
そこで、第一の入力装置であるコントローラから、速やかに第二の入力装置であるキーボードに持ち替えられた場合、第二のタスク(文章入力)ではなく、第三のタスク(コメント挿入)に切り替えるようにしてもよい。具体的には、図13に示す条件設定テーブルを参照し、タスク判別処理を行うことができる。図13に示す条件設定テーブルは、種別の異なる入力装置間の切り替え時間を規定した規定時間の情報を含む。
図13の条件設定テーブルを参照したタスク判別処理によると、ユーザが入力装置であるコントローラを置いた後、規定時間内(例えば3秒以内)にキーボードに持ち替えると、情報処理装置はユーザがCGモデル上へのコメント挿入を希望していると判定する。そして、情報処理装置は、3次元モデル上の編集箇所へコメント入力欄を表示する。一方、ユーザが入力装置であるコントローラを置いた後、規定時間(例えば3秒)が経過してからキーボードに持ち替えた場合には、情報処理装置は、ユーザはCGモデル上へのコメント挿入を希望していないと判定する。そして、情報処理装置は、所定の箇所にメモ作成欄を表示する。
このように、情報処理装置は、規定距離の範囲内にあると判定されていた入力装置が、規定距離の範囲外にあると判定されてから、種別の異なる入力装置が新たに規定距離の範囲内にあると判定されるまでの時間を測定する。そして、情報処理装置は、測定した時間が予め設定された規定時間の範囲内であるか否かを判定し、規定時間の範囲内であると判定された場合、複数のタスクの中から直前に実行されていたタスクに関連するタスクを次に実行すべきタスクとして判別する。
以上により、ユーザがメニューを操作するまでもなく、キーボードを入力しようとする動作を行った時点で、コメント挿入タスクを実行するモードに切り替えることができ、効率的にユーザが希望するタスクを実現することができる。なお、上記の環境において、ユーザがキーボードから手を離すと、規定時間経過後に、コメント入力欄等を消去し、外観をチェックするモードに切り替えてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10…複合現実感システム、20…HMD、30…情報処理装置、31…画像入力制御部、32…画像加工部、33…制御部、34…タスク実行部、35…画像出力制御部、33a…条件設定部、33b…入力装置判定部、33c…入力装置距離計測部、33d…操作媒体判定部、33e…操作媒体距離計測部、33f…タスク判別部

Claims (17)

  1. 頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出する第一の検出手段と、
    前記ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別する第一の識別手段と、
    前記ユーザの視野範囲内に存在する、前記ユーザが前記入力装置を操作するための操作媒体を識別する第二の識別手段と、
    前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第一の識別手段によって識別された入力装置までの第一距離を検出する第二の検出手段と、
    前記第一の検出手段によって検出された前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から、前記第二の識別手段によって識別された操作媒体までの第二距離を検出する第三の検出手段と、
    前記第二の検出手段によって検出された第一距離と、前記第三の検出手段によって検出された第二距離とに基づいて、実行すべきタスクを判別する判別手段と、を備えることを特徴とする情報処理装置。
  2. 前記ユーザの視点位置から撮像された前記ユーザの視線方向の画像を取得する取得手段をさらに備え、
    前記第一の識別手段は、前記画像内に存在する前記入力装置を、前記視野範囲内に存在する前記入力装置として識別し、
    前記第二の識別手段は、前記画像内に存在する前記操作媒体を、前記視野範囲内に存在する前記操作媒体として識別することを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、少なくとも前記ユーザの左右の目に対応する複数の視点位置からそれぞれ撮像された前記ユーザの視線方向の複数の画像を取得し、
    前記第二の検出手段は、前記取得手段によって取得された前記複数の画像をもとに、三角測量の原理を用いて前記第一距離を検出し、
    前記第三の検出手段は、前記取得手段によって取得された前記複数の画像をもとに、三角測量の原理を用いて前記第二距離を検出することを特徴とする請求項2に記載の情報処理装置。
  4. 前記第三の検出手段は、
    前記取得手段により取得された前記画像内における前記操作媒体に対応する領域を包含する外接図形の面積と、所定の基準面積とを比較することにより、前記第二距離を検出することを特徴とする請求項2または3に記載の情報処理装置。
  5. 前記入力装置の位置姿勢を検出する第四の検出手段と、
    前記操作媒体の位置姿勢を検出する第五の検出手段と、をさらに備え、
    前記第一の識別手段は、前記第一の検出手段によって検出された前記頭部の位置姿勢と、前記第四の検出手段によって検出された前記入力装置の位置姿勢とに基づいて、前記視野範囲内に存在する前記入力装置を識別し、
    前記第二の識別手段は、前記第一の検出手段によって検出された前記頭部の位置姿勢と、前記第五の検出手段によって検出された前記操作媒体の位置姿勢とに基づいて、前記視野範囲内に存在する前記操作媒体を識別する
    ことを特徴とする請求項1に記載の情報処理装置。
  6. 前記判別手段は、
    前記第二の検出手段によって検出された前記第一距離が、前記入力装置の種別毎に予め設定された第一規定距離の範囲内であるか否かを判定する第一の判定手段と、
    前記第三の検出手段によって検出された前記第二距離が、前記操作媒体の種別毎に予め設定された第二規定距離の範囲内であるか否かを判定する第二の判定手段と、を備え、
    前記第一の判定手段によって前記第一規定距離の範囲内にあると判定された前記入力装置と、前記第二の判定手段によって前記第二規定距離の範囲内にあると判定された前記操作媒体との組合せに基づいて、前記タスクを判別する
    ことを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。
  7. 前記判別手段は、1つの前記組合せに対応付けられた複数のタスクの中から、直前に実行されていたタスクに応じたタスクを判別することを特徴とする請求項6に記載の情報処理装置。
  8. 前記判別手段は、
    前記第一の判定手段によって前記第一規定距離の範囲内にあると判定されていた前記入力装置が前記第一規定距離の範囲外にあると判定されてから、種別の異なる前記入力装置が新たに前記第一規定距離の範囲内にあると判定されるまでの時間が、予め設定された規定時間の範囲内である場合、
    前記複数のタスクの中から、直前に実行されていたタスクに関連するタスクを判別することを特徴とする請求項7に記載の情報処理装置。
  9. 前記判別手段によって判別されたタスクに応じた情報を前記頭部装着型表示装置に表示させる表示制御手段をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。
  10. 前記操作媒体は、前記入力装置を操作する前記ユーザの手であることを特徴とする請求項1から9のいずれか1項に記載の情報処理装置。
  11. 前記頭部装着型表示装置は、ビデオシースルー型ヘッドマウントディスプレイ(HMD)であることを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  12. 前記頭部装着型表示装置は、光学シースルー型ヘッドマウントディスプレイ(HMD)であることを特徴とする請求項1から10のいずれか1項に記載の情報処理装置。
  13. 前記入力装置は、少なくともキーボードを含み、
    前記判別手段により判別されるタスクの少なくとも1つは、前記キーボードを操作して文字を入力するタスクであることを特徴とする請求項1から12のいずれか1項に記載の情報処理装置。
  14. 前記入力装置は、少なくとも指示を入力するためのボタンを有するコントローラを含み、
    前記判別手段により判別されるタスクの少なくとも1つは、前記コントローラを操作して前記頭部装着型表示装置に表示された仮想コンテンツを移動するタスクであることを特徴とする請求項1から13のいずれか1項に記載の情報処理装置。
  15. 頭部装着型表示装置を装着したユーザの頭部の位置姿勢を検出するステップと、
    前記ユーザの視野範囲内に存在する、タスクの実行に用いられる入力装置を識別するステップと、
    前記ユーザの視野範囲内に存在する、前記ユーザが前記入力装置を操作するための操作媒体を識別するステップと、
    前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から前記入力装置までの第一距離を検出するステップと、
    前記頭部の位置姿勢に基づいて、前記ユーザの視点位置から前記操作媒体までの第二距離を検出するステップと、
    前記第一距離と前記第二距離とに基づいて、実行すべきタスクを判別するステップと、を含むことを特徴とする情報処理方法。
  16. コンピュータを、請求項1から14のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
  17. 請求項16に記載のプログラムを記録した、コンピュータが読み取り可能な記録媒体。
JP2015184523A 2015-09-17 2015-09-17 情報処理装置、情報処理方法およびプログラム Active JP6598617B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015184523A JP6598617B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法およびプログラム
US15/257,415 US10001844B2 (en) 2015-09-17 2016-09-06 Information processing apparatus information processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015184523A JP6598617B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2017059062A true JP2017059062A (ja) 2017-03-23
JP2017059062A5 JP2017059062A5 (ja) 2018-11-01
JP6598617B2 JP6598617B2 (ja) 2019-10-30

Family

ID=58282601

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015184523A Active JP6598617B2 (ja) 2015-09-17 2015-09-17 情報処理装置、情報処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10001844B2 (ja)
JP (1) JP6598617B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035201A (ja) * 2018-08-30 2020-03-05 株式会社丸屋建設 施工支援システム
WO2021256520A1 (ja) * 2020-06-17 2021-12-23 株式会社Nttドコモ ヘッドマウントディスプレイ
WO2022003912A1 (ja) * 2020-07-02 2022-01-06 マクセル株式会社 情報処理システムおよび情報処理端末

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10317989B2 (en) * 2016-03-13 2019-06-11 Logitech Europe S.A. Transition between virtual and augmented reality
JP6162299B1 (ja) * 2016-07-28 2017-07-12 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、入力切替方法、及びプログラム
CN111010865B (zh) 2017-02-24 2023-07-25 梅西莫股份有限公司 用于显示医疗监测数据的系统
US11024064B2 (en) * 2017-02-24 2021-06-01 Masimo Corporation Augmented reality system for displaying patient data
CN110402578B (zh) * 2017-03-22 2022-05-03 索尼公司 图像处理装置、方法和记录介质
US10499042B2 (en) 2017-04-01 2019-12-03 Intel Corporation Barreling and compositing of images
CN117373636A (zh) 2017-05-08 2024-01-09 梅西莫股份有限公司 使用适配器将医疗系统与网络控制器配对的系统
US20190057180A1 (en) * 2017-08-18 2019-02-21 International Business Machines Corporation System and method for design optimization using augmented reality
CN107577344B (zh) * 2017-09-01 2020-04-28 广州励丰文化科技股份有限公司 一种mr头显设备的互动模式切换控制方法及系统
KR102389185B1 (ko) 2017-10-17 2022-04-21 삼성전자주식회사 컨텐츠의 적어도 일부를 통해 표시된 입력 인터페이스를 이용하여 기능을 실행하기 위한 전자 장치 및 방법
WO2019092685A1 (en) 2017-11-13 2019-05-16 Arkio Ehf. Virtual/augmented reality modeling application for architecture
US11275481B2 (en) * 2018-03-07 2022-03-15 California Institute Of Technology Collaborative augmented reality system
US11137908B2 (en) * 2019-04-15 2021-10-05 Apple Inc. Keyboard operation with head-mounted device
CN111258420B (zh) * 2020-01-13 2023-02-21 维沃移动通信有限公司 信息交互方法、头戴式设备及介质
US11847258B2 (en) 2020-11-17 2023-12-19 Samsung Electronics Co., Ltd. Method for wireless connection in augmented reality environment and electronic device therefor
KR20220067128A (ko) * 2020-11-17 2022-05-24 삼성전자주식회사 증강 현실 환경의 무선 연결 방법 및 이를 위한 전자 장치
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
EP4288856A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd Extended reality for productivity
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087161A (ja) * 2007-10-01 2009-04-23 Canon Inc 画像処理装置、画像処理方法
JP2010191827A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2015060579A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69939858D1 (de) 1998-08-31 2008-12-18 Sony Corp Bildverarbeitung
US9030425B2 (en) * 2011-04-19 2015-05-12 Sony Computer Entertainment Inc. Detection of interaction with virtual object from finger color change
US9024844B2 (en) * 2012-01-25 2015-05-05 Microsoft Technology Licensing, Llc Recognition of image on external display
US9335547B2 (en) * 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087161A (ja) * 2007-10-01 2009-04-23 Canon Inc 画像処理装置、画像処理方法
JP2010191827A (ja) * 2009-02-19 2010-09-02 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
JP2015060579A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 情報処理システム、情報処理方法および情報処理プログラム
JP5762600B1 (ja) * 2014-06-06 2015-08-12 キヤノン株式会社 情報処理装置及び情報処理方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020035201A (ja) * 2018-08-30 2020-03-05 株式会社丸屋建設 施工支援システム
WO2021256520A1 (ja) * 2020-06-17 2021-12-23 株式会社Nttドコモ ヘッドマウントディスプレイ
WO2022003912A1 (ja) * 2020-07-02 2022-01-06 マクセル株式会社 情報処理システムおよび情報処理端末

Also Published As

Publication number Publication date
JP6598617B2 (ja) 2019-10-30
US20170083104A1 (en) 2017-03-23
US10001844B2 (en) 2018-06-19

Similar Documents

Publication Publication Date Title
JP6598617B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP4701424B2 (ja) 画像認識装置および操作判定方法並びにプログラム
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
JP6288372B2 (ja) インタフェース制御システム、インタフェース制御装置、インタフェース制御方法、及びプログラム
JP6057396B2 (ja) 3次元ユーザインタフェース装置及び3次元操作処理方法
WO2013035758A1 (ja) 情報表示システム、情報表示方法、及び記憶媒体
US10453235B2 (en) Image processing apparatus displaying image of virtual object and method of displaying the same
JP6611501B2 (ja) 情報処理装置、仮想オブジェクトの操作方法、コンピュータプログラム、及び記憶媒体
US9342925B2 (en) Information processing apparatus, information processing method, and program
CN106020436A (zh) 图像分析装置及图像分析方法
US20170351327A1 (en) Information processing apparatus and method, and program
US10853966B2 (en) Virtual space moving apparatus and method
JPWO2017057106A1 (ja) 入力装置、入力方法、及びプログラム
US11508150B2 (en) Image processing apparatus and method of controlling the same
KR20160096392A (ko) 직관적인 상호작용 장치 및 방법
US20200341284A1 (en) Information processing apparatus, information processing method, and recording medium
CN110520822B (zh) 控制装置、信息处理系统、控制方法和程序
US20220254123A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
KR20130051319A (ko) 신호 입력 장치 및 신호 입력 방법
CN107884930B (zh) 头戴式装置及控制方法
JP6632298B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2019101476A (ja) 操作案内システム
US20200258193A1 (en) Information processing apparatus, information processing method, and storage medium
JP5951966B2 (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
KR101473234B1 (ko) 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191001

R151 Written notification of patent or utility model registration

Ref document number: 6598617

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151