JP7459798B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7459798B2
JP7459798B2 JP2020553037A JP2020553037A JP7459798B2 JP 7459798 B2 JP7459798 B2 JP 7459798B2 JP 2020553037 A JP2020553037 A JP 2020553037A JP 2020553037 A JP2020553037 A JP 2020553037A JP 7459798 B2 JP7459798 B2 JP 7459798B2
Authority
JP
Japan
Prior art keywords
real object
user
contact
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020553037A
Other languages
English (en)
Other versions
JPWO2020080107A1 (ja
Inventor
毅 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020080107A1 publication Critical patent/JPWO2020080107A1/ja
Application granted granted Critical
Publication of JP7459798B2 publication Critical patent/JP7459798B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本技術は、仮想体験を提供する情報処理装置、情報処理方法、及びプログラムに関する。
特許文献1には、実空間の画像を用いて仮想的な体験を提供するシステムが記載されている。このシステムでは、第1のユーザが装着したウェアラブルディスプレイ及び広角カメラを用いて、第1のユーザの視界を表現した画像が生成される。この画像は、第2のユーザに提示される。第2のユーザは、提示された画像にテキストやアイコン等の仮想オブジェクトを入力可能である。また、入力された仮想オブジェクトは、第1のユーザに提示される。これにより、ユーザ間で視覚を共有する仮想体験を実現することが可能となる(特許文献1の明細書段落[0015]-[0017][0051][0062]図1、3等)。
特開2015-95802号公報
このように、実空間の画像等を用いて各種の仮想体験を提供する技術が開発されており、実空間と仮想空間とをシームレスにつなぐことが可能な技術が求められている。
以上のような事情に鑑み、本技術の目的は、実空間と仮想空間とをシームレスにつなぐことが可能な情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、動作検出部と、領域検出部と、表示制御部とを具備する。
前記取得部は、実空間が撮影された1以上の撮影画像を取得する。
前記動作検出部は、前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する。
前記領域検出部は、前記検出された接触動作に応じて前記実物体を含む対象領域を検出する。
前記表示制御部は、前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する。
この情報処理装置では、実物体に触れるユーザの接触動作が検出され、接触動作に応じて実物体が含まれる対象領域が検出される。この対象領域に対応する部分画像が、実物体が存在する実空間を撮影した撮影画像から抽出され、実物体の仮想画像が生成される。そしてユーザの接触動作に応じて仮想画像の表示制御が実行される。これにより、実物体がキャプチャされた仮想画像を容易に表示させることが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記表示制御部は、遮蔽物により遮蔽されていない前記実物体を表す前記仮想画像を生成してもよい。
これにより、遮蔽物による遮蔽のない実物体のクリアな画像を仮想空間に持ち込むことが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記表示制御部は、前記1以上の撮影画像のうち前記対象領域に前記遮蔽物が含まれない前記撮影画像から前記部分画像を生成してもよい。
これにより、遮蔽のない実物体を表す仮想画像を容易に仮想空間に持ち込むことが可能となる。この結果、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記表示制御部は、前記仮想画像を前記実物体に重畳して表示してもよい。
これにより、実物体上に実物体が複製された仮想画像が表示されることになる。この結果、仮想画像を簡単に取り扱うことが可能となり優れたユーザビリティが発揮される。
前記取得部は、前記実空間を撮影する撮影装置、及び前記撮影装置の出力が記憶されたデータベースの少なくとも一方から、前記1以上の撮影画像を取得してもよい。
これにより、例えば遮蔽のない実物体を表す精度のよい仮想画像を容易に生成することが可能となる。
前記接触動作は、前記実物体に対して前記ユーザが手を接近させる動作を含んでもよい。この場合、前記動作検出部は、前記接触動作の状態が、前記実物体に対する前記ユーザの手の接触が予測される接触前状態であるか否かを判定してもよい。また、前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置を制御して前記1以上の撮影画像を取得してもよい。
これにより、例えばユーザが接触する直前の実物体を撮影することが可能となる。これにより、仮想画像の精度を十分に向上することが可能となる。
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置の撮影解像度を高くしてもよい。
これにより、例えば解像度の高い仮想画像を生成することが可能となる。
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出してもよい。この場合、前記領域検出部は、前記検出された接触位置に基づいて前記対象領域を検出してもよい。
これにより、例えば簡単な動作でキャプチャの対象や範囲等を指定することが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記領域検出部は、前記対象領域として、前記接触位置を含む前記実物体の境界を検出してもよい。
これにより、例えば実物体とそれ以外の領域とを精度よく切り分けることが可能となり、高精度な仮想画像を生成することが可能となる。
前記情報処理装置は、さらに、前記ユーザの視線方向を検出する視線検出部を具備してもよい。この場合、前記領域検出部は、前記ユーザの視線方向に基づいて、前記実物体の境界を検出してもよい。
これにより、キャプチャ対象となる実物体とそれ以外の領域との切り分け精度を向上することが可能となる。この結果、適正な仮想画像を生成することが可能となる。
前記視線検出部は、前記ユーザの視線方向に基づいて注視位置を検出してもよい。この場合、前記領域検出部は、前記対象領域として、前記接触位置及び前記注視位置を含む前記実物体の境界を検出してもよい。
これにより、キャプチャ対象となる実物体とそれ以外の領域との切り分け精度を大幅に向上することが可能となり、装置の信頼性を十分に向上することが可能となる。
前記領域検出部は、前記実物体の影、サイズ、及び形状の少なくとも1つに基づいて、前記実物体の境界を検出してもよい。
これにより、例えば実物体の状況等に係らず実物体の境界等を精度よく検出することが可能となる。この結果、装置のユーザビリティを十分に向上することが可能となる。
前記動作検出部は、前記ユーザの手の指先位置を検出してもよい。この場合、前記領域検出部は、前記指先位置の移動に伴う前記指先位置の軌跡に基づいて前記対象領域を検出してもよい。
これにより、例えばキャプチャの範囲を容易に設定することが可能となる。
前記表示制御部は、前記対象領域を表す領域画像を前記実物体に重畳して表示してもよい。
これにより、例えばキャプチャの範囲となる対象領域を確認することが可能となり、不要な仮想画像が生成されるといった事態を十分に回避することが可能となる。
前記領域画像は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示されてもよい。この場合、前記領域検出部は、前記編集された領域画像に基づいて前記対象領域を変更してもよい。
これにより、キャプチャの範囲を精度よく設定することが可能となり、例えば所望とする実物体の仮想画像等を容易に生成することが可能となる。
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出してもよい。この場合、前記表示制御部は、前記検出された接触位置に応じて、前記仮想画像の表示を制御してもよい。
これにより、例えば接触位置に合わせて、仮想画像を違和感なく表示させるといったことが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
前記動作検出部は、前記実物体に触れる前記ユーザの手のジェスチャーを検出してもよい。この場合、前記表示制御部は、前記検出された前記ユーザの手のジェスチャーに応じて、前記仮想画像の表示を制御してもよい。
これにより、例えば手のジェスチャーに合わせて仮想画像の表示の仕方を切り替えるといったことが可能となり、使いやすいインターフェースを提供することが可能となる。
前記仮想画像は、前記実物体の2次元画像及び3次元画像の少なくとも1方であってもよい。
これにより、実空間に存在する様々な実物体の仮想画像を生成することが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、実空間が撮影された1以上の撮影画像を取得することを含む。
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作が検出される。
前記検出された接触動作に応じて前記実物体を含む対象領域が検出される。
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示が制御される。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
実空間が撮影された1以上の撮影画像を取得するステップ。
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップ。
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップ。
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップ。
以上のように、本技術によれば、実空間と仮想空間とをシームレスにつなぐことが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の一実施形態に係るHMDの動作の概要を説明するための模式図である。 本技術の一実施形態に係るHMDの外観を模式的に示す斜視図である。 図2に示すHMDの構成例を示すブロック図である。 HMDの動作の一例を示すフローチャートである。 ユーザの実物体に対する接触動作の一例を示す模式図である。 領域自動検出モードにおけるキャプチャ領域の検出処理の一例を示す模式図である。 領域自動検出モードにおけるキャプチャ領域の検出処理の他の一例を示す模式図である。 キャプチャ領域の修正処理の一例を示す模式図である。 仮想画像の生成に用いられる撮影画像の一例を示す模式図である。 仮想画像の表示の一例を示す模式図である。 仮想画像の表示の一例を示す模式図である。 仮想画像の表示の一例を示す模式図である。 仮想画像の表示の一例を示す模式図である。 仮想画像の表示の他の一例を示す模式図である。 遮蔽物のあるキャプチャ領域の検出処理の一例を示す模式図である。 図15に示す検出処理により生成される仮想画像の一例を示す模式図である。 HMDの動作の他の一例を示すフローチャートである。 ユーザにより指定されるキャプチャ領域6の一例を示す模式図である。 他の実施形態に係るHMDの外観を模式的に示す斜視図である。 他の実施形態に係る携帯端末の外観を模式的に示す斜視図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[HMDの構成]
図1は、本技術の一実施形態に係るHMDの動作の概要を説明するための模式図である。HMD100(Head Mount Display)は、透過型のディスプレイを備えたメガネ型の装置であり、ユーザ1の頭部に装着されて使用される。
HMD100を装着するユーザ1は、現実の景色を視認すると同時に、透過型のディスプレイに表示される画像を視認することが可能となる。すなわち、HMD100を用いることで、ユーザ1の周囲の現実の空間(実空間)に仮想的な画像等を重畳して表示させることが可能となる。これにより、ユーザ1は拡張現実(AR:Augmented Reality)等を体験することが可能となる。
図1Aは、ユーザ1が視覚する仮想空間(AR空間)の一例を示す模式図である。図1Aの左側の椅子には、HMD100を装着したユーザ1aが座っている。HMD100のディスプレイには、例えば机を挟んで反対側に座っている他のユーザ1bの画像が表示される。この結果、HMD100を装着したユーザ1aは、あたかも他のユーザ1bと対面して座っているような拡張現実感を体験することが可能となる。
なお図中の実線で示された部分(ユーザ1aが座っている椅子、テーブル、及びテーブル上の書類2等)は、ユーザ1aが実際に存在する実空間に配置された実物体3(実オブジェクト)である。また、図中の点線で示された部分(他のユーザ1bとその椅子等)が、透過型のディスプレイに表示される画像であり、AR空間上の仮想画像4となる。本開示において、仮想画像4とは、例えば仮想空間内に表示される各種のオブジェクト(仮想オブジェクト)を表示するための画像である。
このように、HMD100を装着することで、例えば他のユーザ1bが遠隔地にいるような場合であっても、ジェスチャーを交えた会話等を自然に行うことが可能となり、良好なコミュニケーションを実現することが可能となる。もちろん、ユーザ1aと他のユーザ1bとが同じ空間にいるような場合であっても、本技術は適用可能である。
HMD100は、実空間内の実物体3の仮想画像4を生成して、AR空間に表示するキャプチャ機能を備える。例えば、HMD100を装着したユーザ1aが、テーブル上の書類2に手を伸ばし、書類2に手を触れたとする。この場合、HMD100では、ユーザ1aが手を触れた書類2の仮想画像4が生成される。本実施形態では、書類2は、実空間内の実物体3の一例である。
図1Bには、ユーザ1aが書類2に触れる接触動作の一例が模式的に図示されている。例えばユーザ1aが書類2に手を触れると、キャプチャ対象となる書類2の領域(書類2の境界)等が検出される。この検出結果に基づいて、ユーザ1aが触れた書類2を表す仮想画像4(図中の斜線の領域)が生成され、HMD100のディスプレイ(AR空間)に表示される。キャプチャ対象の領域を検出する方法や、仮想画像4を生成する方法等については、後に詳しく説明する。
例えば図1Bに示すように、ユーザ1aが手で机の上の書類2を剥がすようにこすると、キャプチャされた書類2(仮想画像4)が、実際の書類2の上にめくれたように表示される。すなわち、生成された仮想画像4が、あたかも実際の書類2がめくれたかのように、実際の書類2に重畳して表示される。なお、ユーザ1aは、実際に書類2をめくる必要はなく、例えば書類2めくるようなジェスチャーを行うだけで、仮想画像4を生成することが可能である。
このように、HMD100では、ユーザ1aの手でキャプチャ対象となる実物体3(書類2)が指定され、対象の仮想画像4が生成される。キャプチャされた仮想画像4は実物体対象上に重畳して表示される。AR空間に表示された書類2の仮想画像4は、例えば仮想画像4を掴む、変形させる、移動させるといったユーザ1aの各種のジェスチャー等に応じて、AR空間内で自在に表示させることが可能である。
また仮想画像4としてAR空間に持ち込まれた書類2は、仮想的なAR空間内を自由に移動させることが可能である。例えば図1Cには、ユーザ1aが仮想物となった書類2(仮想画像4)を掴んで、HMD100のディスプレイ上に表示されている遠隔地の他のユーザ1bに手渡す様子が示されている。仮想画像4を用いることで、例えばこのようなコミュニケーションを実現することが可能となる。
このように、HMD100では、実空間(実世界)に存在する実物体3が簡易的にキャプチャされて仮想空間(仮想世界)で提示される。すなわち、HMD100は、実空間を簡易的にキャプチャする機能を備えるとも言える。これにより、AR空間等の仮想空間に実空間の物体を容易に持ち込むことが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。以下、HMD100の構成について具体的に説明する。
図2は、本技術の一実施形態に係るHMD100の外観を模式的に示す斜視図である。図3は、図2に示すHMD100の構成例を示すブロック図である。
HMD100は、フレーム10、左眼用レンズ11a及び右眼用レンズ11b、左眼用ディスプレイ12a及び右眼用ディスプレイ12b、左眼用カメラ13a及び右眼用カメラ13b、及び外向きカメラ14を有する。
フレーム10は、メガネ型の形状でなり、リム部15及びテンプル部16を有する。リム部15は、ユーザ1の左右の眼の前方に配置される部分であり、左眼用レンズ11a及び右眼用レンズ11bをそれぞれ支持する。テンプル部16は、リム部15の両端からユーザ1の両耳に向けて後方に延在し、先端が両耳に装着される。リム部15及びテンプル部16は、例えば合成樹脂、金属等の材料で形成される。
左眼用レンズ11a及び右眼用レンズ11bは、ユーザの視野の少なくとも一部を覆うように、ユーザの左右の眼の前方にそれぞれ配置される。典型的には、各レンズは、ユーザの視力を矯正するように設計される。もちろんこれに限定されず、いわゆる度無しレンズが用いられてもよい。
左眼用ディスプレイ12a及び右眼用ディスプレイ12bは、透過型ディスプレイであり、左眼用及び右眼用レンズ11a及び11bの一部の領域を覆うように、それぞれ配置される。すなわち左眼用及び右眼用レンズ11a及び11bは、ユーザの左右の眼の前方にそれぞれ配置される。
左眼用及び右眼用ディスプレイ12a及び12bには、左眼用及び右眼用の画像等がそれぞれ表示される。各ディスプレイ12a及び12bには、例えば仮想画像4等の仮想的な表示物(仮想オブジェクト)が表示される。従って、HMD100を装着したユーザ1は、各ディスプレイ12a及び12bに表示された仮想画像4が重畳された実空間の景色(実物体3等)を視覚することになる。
左眼用及び右眼用ディスプレイ12a及び12bとしては、例えば透過型の有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイ等が用いられる。この他、左眼用及び右眼用ディスプレイ12a及び12b具体的な構成は限定されず、例えば透明なスクリーンに画像を投影して表示する方式や、プリズム等を用いて画像を表示する方式等の任意の方式の透過型ディスプレイが適宜用いられてよい。
左眼用カメラ13a及び右眼用カメラ13bは、ユーザ1の左眼及び右眼を撮像可能なように、フレーム10に適宜設置される。例えば、左眼用及び右眼用カメラ13a及び13bにより撮影された左眼及び右眼の画像に基づいて、ユーザ1の視線やユーザ1が注視している注視点等を検出することが可能である。
左眼用及び右眼用カメラ13a及び13bとしては、例えばCMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが用いられる。また、例えば赤外線LED等の赤外線照明を搭載した赤外線カメラが用いられてもよい。
以下では、左眼用レンズ11a及び右眼用レンズ11bをともにレンズ11と記載し、左眼用ディスプレイ12a及び右眼用ディスプレイ12bをともに透過型ディスプレイ12と記載する場合がある。また、左眼用カメラ13a及び右眼用カメラ13bをともに内向きカメラ13と記載する場合がある。
外向きカメラ14は、フレーム10(リム部15)の中央に、外側(ユーザ1とは反対側)に向けて配置される。外向きカメラ14は、ユーザ1の周辺の実空間を撮影し、実空間が撮影された撮影画像を出力する。外向きカメラ14の撮影範囲は、例えばユーザ1の視野と略同様か、ユーザ1の視野よりも広い範囲となるように設定される。すなわち、外向きカメラ14は、ユーザ1の視界を撮影しているとも言える。本実施形態では、外向きカメラ14は、撮影装置に相当する。
外向きカメラ14としては、例えばCMOSセンサやCCDセンサ等のイメージセンサを備えるデジタルカメラが用いられる。また例えば、実空間の奥行情報等を検出可能なステレオカメラやTOF(Time of Flight)センサ等を備えたカメラ等が、外向きカメラ14として用いられてもよい。外向きカメラ14の具体的な構成は限定されず、例えば所望の精度で実空間を撮影可能な任意のカメラが、外向きカメラ14として用いられてよい。
図3に示すように、HMD100はさらに、センサ部17と、通信部18と、記憶部20と、コントローラ30とを有する。
センサ部17は、周辺環境の状態、HMD100の状態、及びユーザ1の状態等を検出する各種のセンサ素子を備える。本実施形態では、センサ素子として、対象までの距離を測定する距離センサ(Depthセンサ)が搭載される。例えば上記したステレオカメラ等は、距離センサの一例である。この他、LiDARセンサや各種のレーダセンサ等が距離センサとして用いられてよい。
またセンサ素子として、例えば3軸加速度センサ、3軸ジャイロセンサ、及び3軸コンパスセンサを含む9軸センサや、HMD100の現在位置の情報を取得するGPSセンサ等が用いられてもよい。また、ユーザ1の生体情報を検出する脳波センサ、筋電センサ、脈拍センサ等の生体センサ(心拍)が用いられてもよい。
またセンサ部17は、ユーザの音声や周辺の音情報を検出するマイクを備える。例えばユーザが発話した音声等が適宜検出される。これにより、例えばユーザは、音声通話をしながらAR体験を行うことや、音声入力を用いたHMD100の操作入力を行うことが可能である。この他、センサ部17として設けられるセンサ素子等は限定されない。
通信部18は、他のデバイスとの間で、ネットワーク通信や近距離無線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。
記憶部20は、不揮発性の記憶デバイスであり、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等が用いられる。
記憶部20には、撮影画像データベース21が格納される。撮影画像データベース21は、例えば外向きカメラ14により撮影された実空間の画像を記憶するデータベースである。また外向きカメラ14とは異なる他のカメラ等により撮影された実空間の画像等が撮影画像データベース21に記憶されてもよい。
撮影画像データベース21には、例えば、実空間の撮影画像と、各撮影画像の撮影状況に関する撮影情報とが関連づけられて記憶される。撮影情報としては、例えば撮影画像を撮影した際の、撮影時刻、撮影時のHMD100の位置、撮影方向(HMD100の姿勢等)、撮影解像度、撮影倍率、露光時間等が記憶される。この他、撮影画像データベース21の具体的な構成は限定されない。本実施形態では、撮影画像データベースは、撮影装置の出力が記憶されたデータベースに相当する。
また記憶部20には、HMD100の全体の動作を制御するための制御プログラム22が記憶される。撮影画像データベース21及び制御プログラム22を、HMD100にインストールする方法は限定されない。
コントローラ30は、本実施形態に係る情報処理装置に相当し、HMD100が有する各ブロックの動作を制御する。コントローラ30は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部20に記憶されている制御プログラム22をRAMにロードして実行することにより、種々の処理が実行される。
コントローラ30として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
本実施形態では、コントローラ30のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして画像取得部31、接触検出部32、視線検出部33、領域検出部34、及びAR表示部35が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
画像取得部31は、実空間が撮影された1以上の撮影画像を取得する。例えば、画像取得部31は、外向きカメラ14を適宜制御して外向きカメラ14により撮影された撮影画像を読み込む。この場合、画像取得部31は、リアルタイムで撮影された画像を取得可能である。
例えば、後述する接触検出部32によりユーザ1と実物体3が接触しそうであると通知を受けると、画像取得部31は、外向きカメラ14を制御して実物体3をキャプチャするための撮影を開始させる。また外向きカメラ14が常時撮影を実行しているようなケースでは、外向きカメラ14の撮影パラメータが変更され、より高解像度な映像の撮影に切り替えられる。すなわち、画像取得部31は、実物体3をキャプチャするための撮影のモードに切り替わるように、外向きカメラ14を制御する。この点については、図5等を参照して後に詳しく説明する。
また例えば、画像取得部31は、記憶部20に適宜アクセスして撮影画像データベース21に記憶された撮影画像40を読み込む。すなわち、画像取得部31は、撮影画像データベース21を適宜参照して、過去に撮影された撮影画像を取得することが可能である。
このように、本実施形態では、画像取得部31は、実空間を撮影する外向きカメラ14、及び外向きカメラ14の出力が記憶された撮影画像データベース21の少なくとも一方から、1以上の撮影画像を取得する。取得された撮影画像は、例えば他の機能ブロックに適宜供給される。また、外向きカメラ14から取得された撮影画像は、撮影画像データベース21に適宜格納される。本実施形態では、画像取得部31は、取得部に相当する。
接触検出部32は、実空間内の実物体3に対してユーザ1が接触する際の一連の動作である接触動作を検出する。接触動作の検出には、例えばセンサ部17として搭載された距離センサ等により検出された奥行情報や、外向きカメラ14により撮影されたユーザ1の視界の画像(撮影画像)等が用いられる。
本開示において、接触動作とは、ユーザ1が実物体3に触れる際に行う一連の動作(ジェスチャー)であり、典型的には、ユーザ1の手(手指)が実物体3に触れるようにユーザ1が行う動作である。例えば、ユーザ1の手が実物体3に触れる際のユーザの手指の動作(ハンドジェスチャー)は接触動作である。例えば、書類2(実物体3)をつまむ、めくる、つかむ、タップする、ずらす等のハンドジェスチャーが、接触動作に含まれる。なおハンドジェスチャーは、実物体3に触れた状態で行われるジェスチャーに限定されない。例えばユーザ1が実物体3をつまむために指を広げる、あるいは狭めるといった、実物体3に触れていない状態で行われるハンドジェスチャー等も、接触動作となる。
また、接触動作は、実物体3に対してユーザ1が手を接近させる動作を含む。すなわち、実物体3に触れるために、対象となる実物体3にユーザ1が手を伸ばす動作も接触動作に含まれる。例えば、ユーザ1が手を移動して書類2(実物体3)に手を接近させる動作(接近動作)は、接触動作である。従って、接触検出部32は、ユーザ1の接触動作として、接近動作や接触時のハンドジェスチャー等の、ユーザが実物体3に接触する際に行う一連の動作を検出すると言える。
接触検出部32は、接触動作の状態を判定する。例えば、接触検出部は、接触動作の状態が、実物体3に対するユーザ1の手の接触が予測される接触前状態であるか否かを判定する。すなわち、ユーザ1の手が実物体3に接触しそうかどうかが判定される。例えば、ユーザ1の手指と、周辺の実物体3との距離が一定の閾値よりも小さい場合等には、ユーザ1の手が実物体3に接触しそうであるとして、ユーザ1の接触動作が接触前状態であると判定される(図4のステップ102参照)。この場合、手指と実物体3との距離が閾値よりも小さく、かつ手指が実物体3に接触していない状態が接触前状態となる。
また接触検出部32は、接触動作の状態が、ユーザ1の手と実物体3とが接触した接触状態であるか否かを判定する。すなわち、接触検出部32は、ユーザ1の手指の実物体3の表面(平面)への接触を検出する。
ユーザ1と実物体3との接触が検出されると、接触検出部32は、ユーザ1の手と実物体3との接触位置Pを検出する。接触位置Pとしては、例えばHMD100に設定された所定の座標系における、ユーザ1の手と実物体3とが接触する位置の座標等が検出される。
接触動作等を検出する方法は限定されない。例えば、接触検出部32は、HMD100に取り付けられた距離センサ等を用いて、ユーザ1の手の位置及び、周辺の実物体3の位置を適宜計測する。各位置の計測結果に基づいて、例えば、接触前状態であるか否かが判定され、ユーザ1の手が実物体3に接触しそうかどうかが検出される。また例えば、接触状態であるか否かが判定され、手が実物体3に接触したかどうかが検出される。
接触しそうであるか否かの検出には、例えば機械学習による予測処理や、ユーザ1の手と実物体3との距離が縮まったことを利用した予測処理等が用いられる。この他、ユーザ1の手の移動方向や移動速度等に基づいて、ユーザ1と実物体3との接触を予測するといった処理が実行されてもよい。
また接触検出部32は、外向きカメラ14により撮影された撮影画像等に基づいてユーザ1のハンドジェスチャーを検出する。例えば、撮影画像内の手指の領域を検出してジェスチャーを検出する方法や、各指の指先を検出してジェスチャーを検出する方法等が適宜用いられる。また機械学習等を用いたハンドジェスチャーの検出処理が実行されてもよい。この他、ハンドジェスチャーを検出する方法等は限定されない。
視線検出部33は、ユーザ1の視線方向を検出する。例えば内向きカメラ13により撮影されたユーザ1の左眼及び右眼の画像に基づいて、ユーザ1の視線方向が検出される。また視線検出部33は、ユーザ1の視線方向に基づいて注視位置Qを検出する。例えば、ユーザ1が実空間内のある実物体3を見ている場合、その実物体3と、ユーザ1の視線方向とが交わる位置が、ユーザ1の注視位置Qとして検出される。
ユーザ1の視線方向や注視位置Qを検出する方法は限定されない。例えば、赤外線カメラ(内向きカメラ13)及び赤外光源が搭載された構成では、赤外光源から出射された赤外線の反射(輝点)が映り込んだ眼球の画像が撮影される。この場合、赤外線の輝点と瞳孔位置とから視線方向が推定され、注視位置Qが検出される。
また、眼球の画像に基づいて、目じり等の特徴点を基準に視線方向及び注視位置Qを推定する方法等が用いられてもよい。また眼球が帯電することで生じる眼電位等の変化に基づいて、視線方向や注視位置Qが検出されてもよい。この他、ユーザ1の視線方向及び注視位置Q等を検出可能な任意のアルゴリズム等が用いられてよい。
領域検出部34は、接触検出部32により検出された接触動作に応じて実物体3を含むキャプチャ領域を検出する。キャプチャ領域とは、例えば実物体3が撮影(キャプチャ)された仮想画像4を生成するための領域である。すなわち、仮想画像4としてキャプチャされるべき実物体3が含まれる領域が、キャプチャ領域となるとも言える。本実施形態では、キャプチャ領域は、対象領域に相当する。
例えば、ユーザ1が実物体3に接触した状態が撮影された撮影画像(以下、接触画像と記載する)が取得される。領域検出部34は、接触画像を解析して仮想画像4としてキャプチャされるべき接触画像内の範囲(キャプチャ領域)を検出する。なお、接触画像からキャプチャ領域を検出する場合に限定されない。例えばユーザ1の接触位置等に基づいて、接触画像以外の撮影画像からキャプチャ領域が検出されてもよい。
本実施形態では、キャプチャ領域を自動的に検出する領域自動検出モードが実行される。領域自動検出モードでは、例えば、ユーザ1が接触した実物体3がキャプチャ対象として自動的に識別される。そしてキャプチャ対象となる実物体3の表面の広がり、すなわち、ユーザ1が触れている実物体3の境界(周縁)を表す領域がキャプチャ領域として検出される。また、ユーザ1が触れている実物体3と関連する実物体3の境界(周縁)を表す領域がキャプチャ領域として検出されてもよい。例えばユーザ1が触れた書類の上面や背面等にある書類の境界がキャプチャ領域として検出されてもよい。あるいは、バインダ等で綴じられた一方の書類に触れた際に、他方の書類を含むようなキャプチャ領域が検出されてもよい。
このように、領域自動検出モードでは、ユーザ1がどの面に触れようとしているのか、その面の広がりはどこまであるのかが検出される。これにより、ユーザ1が接触した面の範囲(書類2や、ホワイトボード等の範囲)を識別することが可能となる。キャプチャ領域を自動的に検出する方法等は限定されず、例えば物体検出や境界認識等が可能な任意の画像解析処理や、機械学習等による検出処理等が適宜用いられてよい。
また本実施形態では、ユーザ1により指定されたキャプチャ領域を検出する領域手動指定モードが実行される。領域手動指定モードでは、例えば、ユーザ1が実物体3をなぞる動作等が適宜検出され、ユーザ1により指定された範囲がキャプチャ領域として検出される。領域自動検出モード及び領域手動指定モードについては、後に詳しく説明する。
AR表示部35は、HMD100の透過型ディスプレイ12に表示されるAR画像(仮想画像4)を生成し、その表示を制御する。例えば、HMD100の状態やユーザ1の状態等に応じて、AR画像を表示するさいの位置・形状・姿勢等を算出する。
AR表示部35は、1以上の撮影画像からキャプチャ領域に対応する部分画像を抽出して実物体3の仮想画像4を生成する。部分画像は、例えばキャプチャ領域に対応する撮影画像の一部が切り出して生成された画像である。この切り出された部分画像に基づいて、AR空間に表示するための仮想画像4が生成される。従って、仮想画像4は、AR空間に合わせて加工された部分画像であるとも言える。
例えば、書類2やホワイトボード等の2次元的な広がりを持った実物体3がキャプチャされる場合、実物体3の表面に書かれた内容を表示する2次元的な広がりを持った仮想画像4が生成される。この場合、仮想画像4は、実物体3の2次元画像となる。
またHMD100では、立体的な形状の実物体3をキャプチャすることも可能である。例えば、AR空間において実物体3の立体的な形状を表すことが可能なように仮想画像4が生成される。この場合、仮想画像4は、実物体3の3次元画像となる。このように、AR表示部35は、実物体3の形状に応じて仮想画像4を生成する。
またAR表示部35は、遮蔽物により遮蔽されていない実物体3を表す仮想画像4を生成する。ここで遮蔽物により遮蔽された状態とは、実物体3の一部が遮蔽物(他の物体等)により隠されている状態である。例えば、実物体3にユーザ1の手が接触した状態で撮影された接触画像では、実物体3の一部がユーザ1の手で隠されることが考えられる。この場合、ユーザ1の手が実物体3を遮蔽する遮蔽物となる。
本実施形態では、AR表示部35により、実物体3が遮蔽されることなく、実物体3の全体が表示されるような仮想画像4が生成される。従って、仮想画像4は、キャプチャ対象となる実物体3全体を表すクリアな画像となる(図9等参照)。このような仮想画像4は、例えば遮蔽のない状態で実物体3が撮影された撮影画像から、部分画像が生成可能である。なお、実物体3の一部が遮蔽された仮想画像4が生成される場合もあり得る(図16A等参照)。
AR表示部35は、生成された仮想画像4を、実物体3と重なるように透過型ディスプレイ12に表示する。すなわち、クリアな実物体3の画像(仮想画像4)が実物体3上に重畳表示される。また仮想画像4は、実物体3に接触しているユーザ1の手の動作(ハンドジェスチャー)等に合わせて表示される。例えば実物体3に触れる動作の種類(実物体3をタップする、こする等)ごとに、仮想画像4の表示の種類が変更される。このように、AR表示部35は、ユーザ1の接触動作に応じて仮想画像4の表示を制御する。
実物体3の仮想画像4を生成する方法や、仮想画像4を表示する方法等については、後に詳しく説明する。本実施形態では、AR表示部35は、表示制御部に相当する。
[HMDの動作]
図4は、HMD100の動作の一例を示すフローチャートである。図4に示す処理は、領域自動検出モードで実行される処理であり、例えばHMD100の動作中に繰り返し実行されるループ処理である。
接触検出部32により、ユーザ1の手指位置と、ユーザ1の手指の周辺に存在する実物体3の表面位置とが計測される(ステップ101)。ここでは、例えば手指の周辺に存在する任意の実物体3の表面の位置が計測される。なおこのタイミングでは、ユーザ1が触れようとしている実物体3が識別される必要はない。
例えば、距離センサにより検出された奥行情報に基づいて、HMD100(距離センサ)に設定された座標系におけるユーザ1の手指の位置と実物体3の表面位置とが計測される。この場合、ユーザ1の手指とその周辺の実物体3との空間的な配置関係が計測されるとも言える。手指位置としては、例えば実物体3に向けられたユーザ1の指先が検出される。また表面位置としては、例えばユーザ1の手指の近くの実物体3の表面を表す形状等が検出される。
また外向きカメラ14によりユーザ1の視界が撮影されている場合等には、奥行情報と撮影画像とから、手指位置及び表面位置(手指と実物体との配置)が適宜検出されてもよい。外向きカメラ14を用いることで、各位置の検出精度を向上することが可能である。この他、手指位置及び表面位置を検出する方法は限定されない。
接触検出部32により、ユーザ1の手指が、実物体3の表面に接触しそうであるか否かが判定される(ステップ102)。すなわち、ユーザ1の接触動作の状態が、接触が予測される接触前状態であるか否かが判定される。
接触前状態の判定としては、例えば手指位置と表面位置との距離の閾値判定が実行される。すなわち、手指位置と表面位置との距離が、所定の閾値よりも大きいか否か等が判定される。所定の閾値は、例えば実物体3のキャプチャ処理が適正に実行可能となるように適宜設定される。
例えばユーザ1の手指位置と実物体3の表面位置との距離が、所定の閾値よりも大きい場合には、ユーザ1の手指は実物体3から十分に離れているとして、接触前状態ではないと判定される(ステップ102のNo)。この場合、ステップ101に戻り、次のタイミングでの手指位置及び表面位置が計測され、接触前状態であるか否かの判定が実行される。
手指位置と表面位置との距離が、所定の閾値以下である場合には、ユーザ1の手指は実物体3に接近した状態であるとして、接触が予測される接触前状態であると判定される(ステップ102のYes)。この場合、画像取得部31により、外向きカメラ14が制御され、キャプチャに適した設定で実空間の撮影が開始される(ステップ103)。すなわち、実物体3とユーザ1とのインタラクション発生が予測される際に、撮影モードを切り替えて詳細なキャプチャが開始される。
具体的には、画像取得部31により、外向きカメラ14の撮影解像度、露光時間、撮影間隔等の各撮影パラメータが、キャプチャ用の値に設定される。キャプチャ用の値は、例えば所望の仮想画像4が生成可能なように適宜設定される。
例えば、外向きカメラ14が、ユーザ1の視界を常時撮影しているような構成では、画像のデータ量を抑えるようなモニタリング用の撮影解像度が設定される。このモニタリング用の撮影解像度が、より詳細なキャプチャ用の撮影解像度に変更される。すなわち、画像取得部31は、接触動作の状態が、接触前状態であると判定された場合、外向きカメラ14の撮影解像度を高くする。これにより、例えば解像度の高い詳細なキャプチャ画像(仮想画像4)を生成することが可能となる。
また例えば、外向きカメラ14の露光時間が、所望の明るさやコントラストの画像が撮影されるように適宜設定される。あるいは、後述するように十分な数の撮影画像が撮影可能となるように、撮影間隔が適宜設定される。
外向きカメラ14の各撮影パラメータがキャプチャ用の値に設定され、撮影モードが切り替えられると、外向きカメラ14による実空間の撮影(ユーザ1の視界の撮影)が開始される。外向きカメラ14により撮影された撮影画像は、画像取得部31により適宜読み込まれる。なお、この撮影処理は、例えば仮想画像4を生成するための所定の条件が満たされるまで繰り返し実行される。
図5は、ユーザ1の実物体3に対する接触動作の一例を示す模式図である。図5Aには、接触前状態であると判定されたタイミングでのユーザ1の手指5及び実物体3(書類2)が模式的に図示されている。なお図5Aに示す書類2が接触動作の対象(キャプチャ対象)であるか否かは、図5Aに示す状態では識別されていない。
図5Aに示す状態では、外向きカメラ14の撮影範囲(図中の点線)には、ユーザ1の手指5と、書類2の一部が含まれる。例えばこのような撮影範囲で、高解像度な撮影画像が撮影される。この場合、撮影画像は、書類2の一部のみが撮影された画像となる。
図5Bには、図5Aに示す状態よりもユーザ1の手指5が実物体3に接近した接触前状態が示されている。図5Bに示す状態では、外向きカメラ14の撮影範囲に、書類2全体が含まれる。またユーザ1の手指5は、書類2に接触しておらず、書類2は遮蔽物による遮蔽のない状態で撮影される。すなわち、図5Bに示す状態で撮影された撮影画像は、遮蔽物により遮蔽されていない書類2(実物体3)が撮影された画像となる。
図5Cには、ユーザ1の手指5と実物体3とが接触した接触状態が示されている。外向きカメラ14による撮影処理は、接触状態においても継続される場合がある。この場合、外向きカメラ14の撮影範囲に、書類2全体が含まれるが、書類2の一部はユーザ1の手指に遮蔽された状態となる。この場合、撮影画像は、書類2の一部が遮蔽された画像となる。
外向きカメラ14による撮影処理では、例えば図5A~図5Cに示すような状態での撮影が実行され、各状態での撮影画像が適宜読み込まれる。このように、画像取得部31は、接触動作の状態が、接触前状態であると判定された場合、外向きカメラ14を制御して1以上の撮影画像を取得する。すなわち、画像取得部31は、キャプチャ用の設定で撮影された映像(キャプチャ映像)を取得するともいえる。
外向きカメラ14によるキャプチャ用の撮影処理が実行される期間等は限定されない。例えば仮想画像4が生成されるまで、撮影処理が継続されてもよい。あるいは、所定回数の撮影処理が実行された場合に、撮影処理が終了されてもよい。また例えば、所定回数の撮影処理の後、仮想画像4の生成に必要な撮影画像がなかった場合等に、撮影処理を再開するといった処理が実行されてもよい。この他、仮想画像4を適正に生成可能となるように、撮影処理の回数やタイミング等が適宜設定されてよい。
図4に戻り、キャプチャ用の撮影処理が開始されると、ユーザ1の手指5が実物体3の表面に接触したか否かが判定される(ステップ104)。すなわち、ユーザ1の接触動作の状態が、接触状態となっているか否かが判定される。
接触状態の判定としては、例えば手指位置と表面位置との距離の閾値判定が実行される。例えば手指位置と表面位置との距離が、接触検出用の閾値よりも大きい場合、接触状態ではないと判定され、接触検出用の閾値以下の場合、接触状態であると判定される。接触状態を判定する方法は限定されない。
例えば、図5A及び図5Bでは、ユーザ1の手指5と実物体3(書類2)とが、接触検出用の閾値より離れている。この場合、ユーザ1の手指5は実物体3の表面に接触していないと判定され(ステップ104のNo)、接触状態の判定が再度実行される。
また例えば図5Cでは、ユーザ1の手指5と実物体3(書類2)との距離が接触検出用の閾値以下となっている。この場合、ユーザ1の手指5は実物体3の表面に接触していると判定され(ステップ104のYes)、領域検出部34により、ユーザ1の手指5が接触した表面の範囲(キャプチャ領域)を検出する処理が実行される(ステップ105)。
図6は、領域自動検出モードにおけるキャプチャ領域の検出処理の一例を示す模式図である。図6には、ユーザ1の手指5が書類2(実物体3)に接触しているタイミングで撮影された撮影画像40(接触画像41)が模式的に図示されている。なお、ユーザ1の手指5は、点線を用いて模式的に図示されている。
図6に示す例では、重なって配置されている複数の書類2のうち、最上部に置かれた書類2にユーザ1の手指5が接触している。従って、最上部の書類2が、ユーザ1の接触動作の対象、すなわちキャプチャ対象となる。
本実施形態では、接触が検出された場合に、接触検出部32により、実物体3とユーザ1の手との接触位置Pが検出される。例えば図6では、最上部の書類2に接触しているユーザ1の人差し指の指先の位置が、接触位置Pとして検出される。なお、ユーザ1が複数の指で実物体3に触れる場合には、実物体3に触れた各指の指先の位置等が接触位置Pとして検出されてもよい。
図6に示す処理では、接触検出部32により検出された接触位置Pに基づいてキャプチャ領域6が検出される。具体的には、領域検出部34により、キャプチャ領域6として、接触位置Pを含む実物体3の境界7が検出される。ここで実物体3の境界7とは、例えば単一の実物体3の表面の外縁であり、実物体3の連続する表面の範囲を表す境目である。
例えば接触画像41において、接触位置Pは、最上部の書類2上で検出される。すなわち、最上部の書類2は、接触位置Pを含む実物体3となる。領域検出部34では、所定の画像処理を実行して、最上部の書類2の境界7が検出される。すなわち、ユーザ1の手指5が触れている面の接触点(接触位置P)をヒントに画像処理によって連続する面の領域(キャプチャ領域6)が自動的に検出される。図6に示す例では、最上部の書類2の境界7に対応する矩形状のキャプチャ領域6が検出される。
例えば、接触画像41において色が不連続に変化する部位が境界7として検出される。あるいは、接触画像41内の連続線(直線等や曲線等)を検出することで境界7が検出されてもよい。またキャプチャ対象が書類2等である場合には、書類表面の文字の並び等を検出することで、境界7が検出されてもよい。
また例えば厚みのある書類2や、めくれている書類2等では、その外縁に影が発生することが考えられる。このような実物体3の影に基づいて、実物体3の境界7が検出されてもよい。これにより、背景と同色であるような実物体3についてもそのキャプチャ領域6を適正に検出することが可能である。
またキャプチャ対象となる実物体3のサイズに基づいて、実物体3の境界7が検出されてもよい。実物体3のサイズは、例えば実空間におけるサイズであり、ユーザ1の手の大きさや、奥行情報等に基づいて適宜推定される。例えば、ユーザ1が手で持てるようなサイズの範囲が適宜設定され、その範囲に収まるように実物体3の境界7等が検出される。従って、例えば机に置かれた書類2(実物体3)に手を触れた場合には、机ではなく、書類2の境界7が検出される。これにより、不必要に大きいあるいは小さいサイズの境界等が検出されることが回避され、キャプチャ領域6を適正に検出することが可能となる。
また例えば、書類2等のように形状が定まっている実物体3については、その形状に基づいて、実物体3の境界7が検出されてもよい。実物体3の形状は、例えば実空間における形状である。例えば斜めに撮影された接触画像41に対して、台形補正等の補正処理を実行することで正面から見た場合の形状を推定することが可能である。例えば、アスペクト比等の形状に関する情報に基づいてA4形状やはがき形状等の書類2の境界7が検出される。なお、実物体3のサイズや形状に関する情報は、例えば外部のネットワーク等を介して取得されてもよいし、撮影画像データベース21等に記憶された過去の撮影画像40に基づいて取得されてもよい。この他、実物体3の境界7を検出可能な任意の方法が用いられてよい。
図7は、領域自動検出モードにおけるキャプチャ領域の検出処理の他の一例を示す模式図である。図7に示す処理では、接触位置Pとユーザ1の注視位置Qとに基づいてキャプチャ領域6が検出される。すなわち、ユーザ1の手指5が触れようとしている面の広がりの検出のためにユーザ1の視線が用いられる。
例えば、視線検出部33により、接触画像41が撮影されたタイミングで検出されたユーザ1の視線方向に基づいて、接触画像41におけるユーザ1の注視位置Qが検出される。例えば図7に示すように、ユーザ1は、選択された実物体3(最上部の書類2)を視線でも同時に見ている可能性が高いため、ユーザ1の注視位置Qは、実物体3上で検出される可能性が高い。
図7に示す処理では、領域検出部34により、キャプチャ領域6として、接触位置P及び注視位置Qを含む実物体3の境界7が検出される。すなわち、接触位置Pと注視位置Qとが存在する連続した表面の境界7が検出される。境界7を検出する方法としては、例えば図6を参照して説明した各種の方法が用いられる。これにより、キャプチャ領域6(対象となる実物体3の境界7)の検出精度を大幅に向上することが可能となる。
なお注視位置Qを用いる場合に限定されない。例えばユーザ1の視線方向に基づいてユーザの注視領域を算出し、接触画像41において、接触位置Pと注視領域とが含まれる実物体3の境界7を検出するといった処理が実行されてもよい。この他、ユーザ1の視線方向等を利用した任意の方法を用いて、実物体3の境界7が検出されてよい。
このように、領域検出部34は、ユーザ1の視線方向に基づいて、実物体3の境界7を検出する。これにより、ユーザ1が接触しようとした対象を高精度に判定し、その境界7を適正に検出することが可能となる。この結果、ユーザ1が所望とする実物体3を適正にキャプチャすることが可能となり、装置の信頼性を向上することが可能となる。
なお、ユーザ1が接触対象以外の場所を見ている場合等には、接触位置Pと注視位置Qとが同一の実物体3上で検出されないこともあり得る。このような場合、接触位置Pが含まれる実物体3の境界7がキャプチャ領域6として検出される。これにより、誤った領域が検出されるといった事態を十分に回避することが可能である。
図6又は図7等に示す処理により検出されたキャプチャ領域6(実物体3の境界7)に関する情報は、AR表示部35に出力される。
本実施形態では、AR表示部35は、キャプチャ領域6を表す領域画像42を実物体3に重畳して表示する。例えば図6及び図7に示す例では、最上部の書類2の境界7を表す領域画像42が生成され、最上部の書類2の境界7と重なるように、透過型ディスプレイ12に表示される。この結果、ユーザ1は、これからキャプチャされる実空間上の領域を視覚することが可能となる。
領域画像42の具体的な構成は限定されない。例えば所定の色で表示された線等を用いて、キャプチャ領域6が表されてもよい。あるいは、キャプチャ領域6を表す線等が点滅等のアニメーションにより表示されてもよい。また、キャプチャ領域6全体が、透明性のある所定のパターン等を用いて表示されてもよい。
なお、領域画像42の表示は、例えばユーザ1(HMD100)の視点が変化した場合であっても、実物体3に重畳されるように、形状や表示位置等が適宜調整されて表示される。このように、AR表示で可視化されたキャプチャ領域6(矩形領域枠等)は、以下で説明するように、手動操作で修正される。
図4に戻り、キャプチャ領域6が検出されると、キャプチャ領域6を修正するためのユーザ1の入力操作が受け付けられる(ステップ106)。すなわち、ステップ106では、ユーザ1は手動によりキャプチャ領域6を修正することが可能となる。
図8は、キャプチャ領域6の修正処理の一例を示す模式図である。図8には、図6及び図7を参照して説明した接触画像41と同様の画像が示されている。また最上部の書類2(実物体3)の境界7には、修正用の領域画像42が模式的に図示されている。
本実施形態では、領域画像42は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示される。HMD100では、例えばユーザ1の手指5の位置等を検出することで、表示画面(透過型ディスプレイ12)上でのユーザ1による入力操作が検出される。領域画像42は、このようなユーザ1の入力操作(修正操作)に応じて編集可能なように表示される。
図8に示す例では、ユーザ1の左手の指先がキャプチャ領域6の左側の辺と重なる位置に配置される。またユーザ1の右手の指先がキャプチャ領域6の右側の辺と重なる位置に配置される。この場合、AR表示部35では、キャプチャ領域6の左右の辺を選択するユーザ1の操作入力が受け付けられる。なお図8では、選択された左右の辺が点線を用いて図示されている。このように、各部が選択されたことを示すように、キャプチャ領域6の表示が適宜変更されてもよい。
例えばユーザ1が左手を左側に動かし、右手を右側に動かした場合、キャプチャ領域6の左側の辺は左側にドラッグされ、右側の辺は右側にドラッグされる。この結果、可視化されたキャプチャ領域6は、ユーザ1が手で広げることにより左右方向に拡大され、サイズ及び形状が修正される。もちろん、キャプチャ領域6を上下方向に拡大することも可能である。
またキャプチャ領域6の位置を修正可能であってもよい。例えばユーザ1がキャプチャ領域6の内側に手指5を配置してその手指5を動かした場合に、手指の移動方向や手指の移動量に応じてキャプチャ領域6を移動するといった修正操作が受け付けられてもよい。この他、領域画像42は、ユーザ1のハンド操作に応じた任意の修正操作を受け付け可能となるように表示される。
このように、キャプチャ領域6の検出処理によってキャプチャする実物体3の範囲が自動的に確定するが、この範囲を更に手動で修正することが可能である。これにより、キャプチャ領域6の微調整等を容易に実行することが可能となり、ユーザ1が所望とする範囲が適正に撮影された仮想画像4等を生成することが可能となる。ユーザ1による修正操作が終了すると、編集された領域画像42に基づいてキャプチャ領域6が変更される。
なお、キャプチャ領域6の修正(編集)が実行されている間にも、ステップ103で説明した、キャプチャ用の撮影画像40の撮影処理が継続されていてもよい。この場合、キャプチャ用の外向きカメラ14の設定を、編集後のキャプチャ領域6の撮影に最適な撮影パラメータに変更するといった処理が実行される。
例えば、外向きカメラ14が光学ズーム機能等を備えている場合には、編集後のキャプチャ領域6に合わせて、外向きカメラ14の光学ズーム率等が適宜調整される。これにより、例えばキャプチャ領域6のサイズが小さい場合であっても、高解像度の仮想画像4等を生成することが可能となる。もちろん、他の撮影パラメータが変更されてもよい。
なお、キャプチャ領域6を手動で修正する処理等が実行されなくてもよい。この場合、仮想画像4を表示するまでの時間を短縮することが可能となる。またキャプチャ領域6を修正するモード等が選択可能であってもよい。
図4に戻り、外向きカメラ14により撮影された撮影画像40をもとに、仮想画像4が生成される(ステップ107)。具体的には、ステップ103で撮影された撮影画像40(キャプチャ映像)から、キャプチャ領域6のクリアな部分画像が抽出される。そして、部分画像を用いて、キャプチャした実物体3の仮想画像4が生成される。
本実施形態では、AR表示部35により、外向きカメラ14により撮影された1以上の撮影画像40のうちキャプチャ領域6に遮蔽物が含まれない撮影画像40から部分画像が生成される。すなわち、キャプチャ映像のうち、遮蔽物(ユーザ1の手指等)で遮蔽されてないフレームを用いて、キャプチャ領域6に対応する部分画像が生成される。
例えば、接触前状態が検出されてから撮影された各撮影画像40から、キャプチャ対象となる実物体3が検出される。キャプチャ対象となる実物体3は、例えば特徴点マッチング等を用いたマッチング処理を用いて適宜検出される。各撮影画像40からキャプチャ対象を検出する方法等は限定されない。
各撮影画像40に含まれるキャプチャ対象となる実物体3が遮蔽されているか否かが判定される。すなわち、各撮影画像40におけるキャプチャ領域6に遮蔽物が含まれているか否かが判定される。例えばキャプチャ対象となる実物体3の境界7が不連続に切れている場合等には、実物体3が遮蔽されていると判定される。また例えば、各撮影画像40においてユーザ1の手指5を検出し、手指5がキャプチャ領域6に含まれている場合には実物体3が遮蔽されていると判定される。遮蔽の有無を判定する方法は限定されない。
各撮影画像40のうち、キャプチャ対象となる実物体3が遮蔽されていないと判定された撮影画像40が選択される。このように、キャプチャ対象となる実物体3が遮蔽されていない撮影画像40、すなわちキャプチャ対象となる実物体3がクリアに撮影されている撮影画像40が、仮想画像4を生成するための画像として用いられる。
図9は、仮想画像4の生成に用いられる撮影画像40の一例を示す模式図である。図9に示す撮影画像40は、図5Bに示す接触前状態で撮影された撮影画像40を示す模式図である。
図9に示す撮影画像40では、キャプチャ対象となる実物体3である書類2全体が撮影されている。また書類2にはユーザ1の手指5で隠された部分等はなく、遮蔽物による遮蔽のないクリアな書類2の画像が含まれている。AR表示部35により、このような撮影画像40から、キャプチャ領域6に対応する部分画像43が生成される。図9には、生成される部分画像43(書類2)が斜線の領域で表されている。
なお、各撮影画像40の中には、キャプチャ領域6(実物体3)の一部が切れた画像(図5A参照)や、キャプチャ領域6(実物体3)の一部が遮蔽された画像(図5C参照)等が含まれる場合がある。例えばこれらの画像のうち、キャプチャ領域6のクリアな部分を補完し合うことで、部分画像43が生成されてもよい。例えばこのような処理も可能である。
部分画像43が生成されると、台形補正等の補正処理が実行される。例えば撮影画像40が斜めの方向から撮影された場合には、矩形状の書類であっても台形状に変形して撮影されることがあり得る。このような変形が台形補正処理により補正され、例えば矩形状の部分画像43が生成される。この他、部分画像43のノイズ成分を除去するノイズ除去処理や、部分画像43の色や明るさ(輝度)等を補正する処理等が適宜実行されてもよい。
部分画像43に基づいて、部分画像43(キャプチャ対象となる実物体3)をAR空間に表示するための仮想画像4が生成される。すなわち、平面的な部分画像43を3次元的なAR空間に表示するための仮想画像4が適宜生成される。
このように、本実施形態では、実物体3とユーザ1の手指5との接触が予測される際に、外向きカメラ14の撮影モードを切り替えて詳細な撮影画像40が継続的に撮影される。そして、手指5の接触により、仮想世界に持ち込む実物体3(キャプチャ対象)が特定されたら、キャプチャ映像を遡り、ユーザ1の手指5が重なっていない映像(撮影画像40)を用いて実物体3のクリアな仮想画像4が生成される。これにより、ユーザ1は、実物体3の高品質なコピー(仮想画像4)を簡単な操作で容易に作り出すことが可能となる。
AR表示部35により、仮想画像4が実物体3に重畳して表示される(ステップ108)。すなわち、ユーザ1は、キャプチャした実際の実物体3上に、重畳して表示された仮想画像4を視覚することが可能となる。実物体3のキャプチャ画像(仮想画像4)を実物体3上に表示することにより、例えばユーザ1は実物体3がAR空間にコピーできたことを直感的に理解することが可能となる。
実空間からコピーされた実物体3の仮想画像4は、AR空間で自在に扱うことが可能である。これにより、例えばユーザ1は、コピーされた仮想画像4を掴んで遠隔の相手に渡す等の動作を行うことが可能となる(図1参照)。このように、本技術を用いることで、実空間の情報を容易に仮想空間に持ち込むことが可能となる。
図10~図13は、仮想画像4の表示の一例を示す模式図である。本実施形態では、接触検出部32により、実物体3に触れるユーザ1の手のジェスチャーが検出される。AR表示部35は、接触検出部32により検出されたユーザ1の手のジェスチャーに応じて、仮想画像4の表示を制御する。
すなわち、ユーザ1がキャプチャ対象を指定するさいの指定動作に合わせて、仮想画像4が実物体3に重畳される。以下では、図10~図13を参照して、ユーザ1の手のジェスチャー(ハンドジェスチャー)に応じたキャプチャ画像(仮想画像4)の重畳表示のバリエーションについて説明する。
図10に示す例では、ユーザ1が書類2(実物体3)をめくるハンドジェスチャーが行われる。例えば図10の上側の図に示すように、ユーザ1が親指と一指し指とを開いた状態で、書類2の角に触れたとする。この場合、図10の下側の図に示すように、ユーザ1の親指と人差し指との間で書類2の角がめくれているような表示となるように仮想画像4の表示が制御される。なお図10に示す表示例は、図1Bに示す表示例と同様の例である。
仮想画像4は、例えば接触位置Pの周辺がめくれた状態で、実際の書類2に重畳して表示される。これにより、仮想画像4が実際の紙と同様に表示され視覚効果が発揮される。この結果、AR空間においても、実際の書類2をめくっているような自然な仮想体験を提供することが可能となる。
また例えば、仮想画像4は、ユーザ1の手指が接触した位置(書類2の角)の周辺にだけ表示されてもよい。この場合、ユーザ1が仮想画像4を掴む動作をした場合に、仮想画像4の全体が表示されるといった処理が実行される。
このように、接触検出部32により検出された接触位置Pに応じて、仮想画像4の表示が制御されてもよい。これにより、ユーザ1が実物体3(書類2)に接触した直後は、接触位置Pの周辺にだけ仮想画像4を表示すればよいため、画像処理の処理量等を抑制することが可能である。これにより、仮想画像4を違和感なくスムーズに表示することが可能となる。また不要な処理が回避されることで、HMD100の消費電力を抑制することが可能である。
図11に示す例では、ユーザ1が書類2(実物体3)の中央部分をつまんで引き上げるハンドジェスチャーが行われる。例えば図11の上側の図に示すように、ユーザ1が親指と一指し指とで書類2をつまむ動作が行われると、仮想画像4の書類2(仮想物の紙)が、つまみあげられたような形状で、実際の書類2に重畳して表示される。
また図11の下側の図に示すように、ユーザ1が仮想画像4から手を離す動作をすると、その位置に仮想画像4はとどまる。この時、仮想画像4は、つまみあげられた形状から、平面形状に戻り、実際の書類2の上部に浮いた状態でとどまるように表示される。この場合、ユーザ1は、例えば宙に浮いて表示された仮想画像4を掴んで、移動させる等の動作が可能である。なお、ユーザ1が手を離した後に、仮想画像4が実際の書類2の直上まで、徐々に下降するといった表示が実行されてもよい。
またつまむハンドジェスチャーにおいて、AR空間に実物体3(書類2等)が持ち込まれた際に、実空間に存在するキャプチャされた側の実物体3をグレーアウトしてもよい。すなわち、コピー元の実物体3をグレーで塗りつぶすといった処理が実行されてもよい。このように、実物体3をグレーアウトすることで、実物体3のクローンがAR空間に生成されたことを、容易に提示することが可能となる。
なお、キャプチャ後の物体、すなわちコピーされた仮想画像4に、AR上の仮想物であることが分かるようなマークが付加されてもよい。これにより、仮想画像4と実物体3とを容易に区別することが可能となる。なお、これらグレーアウトする処理やARマークを付加する処理等は、他のハンドジェスチャーが実行される場合等にも適宜適用されてよい。
図12に示す例では、ユーザ1が書類2(実物体3)をタップするハンドジェスチャーが行われる。例えば図12の上側の図に示すように、ユーザ1が実際の書類2の表面を指先で軽くたたいたとする。この場合、図12の下側の図に示すように、仮想画像4は、実際の書類2が浮いたかのように、その上に重畳して表示される。この時、2次元的な仮想画像4が、実際の紙のように湾曲して浮き上がる等の効果が付加されてもよい。
また、ユーザ1がタップする位置から仮想画像4が徐々に浮き上がって表示されるといった処理が実行されてもよい。また例えば、ユーザ1が実際の書類2を一瞬こするといったハンドジェスチャーが行われた場合に、こすった方向に向けて仮想画像4が浮き出すといった処理が実行されてもよい。
図13に示す例では、ユーザ1が筒形の実物体3を握るハンドジェスチャーが実行される。このような立体的な実物体3をキャプチャすることも可能である。例えば図13の上側の図に示すように、ユーザ1が実物体3をつかむ、または強く握るとする。例えばユーザ1の手指5の配置等から実物体3に力が加わっている状態等が検出される。この場合、図13の下側の図に示すように、筒型の実物体3がコピーされた仮想画像4が適宜生成され、仮想画像4が絞り出されるように、実物体3の近傍に徐々に表示される。
この場合、仮想画像4は、立体的な実物体3を表す3次元画像となる。例えば立体的な実物体3(立体物)を3次元的にキャプチャする3Dキャプチャにより、3次元画像が生成される。3Dキャプチャでは、例えば外向きカメラ14以外の他カメラも併用して、実物体3が撮影される。そして各カメラにより撮影された撮影画像40や、距離センサにより検出された奥行情報等に基づいて、実物体3の3Dモデリングが実行される。なお、平面的な実物体3を撮影する場合でも、他のカメラを併用することは有り得る。
キャプチャ済みの画像(3Dモデルを表す仮想画像4)の提示する場合には、モデリング等を実行するために、表示するまでに時間がかかる可能性がある。このような場合、最初は粗い仮想画像4(3Dモデル)を提示して、徐々に高精度なデータに差し替えてもよい。これにより、立体的な実物体3等がキャプチャされる場合であっても、高速に仮想画像4を表示させることが可能となる。
図14は、仮想画像の表示の他の一例を示す模式図である。図14に示す例では、ユーザ1が書類2(実物体3)をタップするハンドジェスチャーに応じて、仮想画像4が表示される。図14に示す例では、書類2の形状(キャプチャ領域6の形状)がコピーされた枠内に、処理中を示すアイコン44が表示された仮想画像4が生成される。
例えば、実物体3の仮想画像4を生成する際には、上記したように部分画像43のノイズ除去や台形補正等の処理が実行される。これらの処理を実行することで、実物体3がキャプチャされた仮想画像4を生成するまでに、多少の時間が必要となる場合があり得る。このように、最終的な仮想画像4が生成されるまでの間、キャプチャ画像の代わりに、処理中を示すアイコン44等が表示される。
なお、最終的な仮想画像4が生成されると、処理中を示すアイコン44から、実物体3がコピーされた最終的な仮想画像4へと表示が切り替えられる。アイコン44の種類や、表示を切り替える方法等は限定されない。例えば最終的な仮想画像4が徐々に濃くなるようにフェードインさせるといった処理が実行されてもよい。
上記では、実物体3の一例として、最上部に配置され遮蔽されていない書類2についてのキャプチャ処理について説明した。例えば、他の実物体3等に遮蔽されている実物体3についても、本技術は適用可能である。
図15は、遮蔽物のあるキャプチャ領域6の検出処理の一例を示す模式図である。図16は、図15に示す検出処理により生成される仮想画像4の一例を示す模式図である。
図15には、部分的に重なって配置された第1~第3の書類2a~2cが模式的に図示されている。第1の書類2aは、最も背面側の書類であり、第2の書類2bにより部分的に遮蔽されている。第2の書類2aは、第1及び第3の書類2a及び2cとの間に配置され、第3の書類2cにより、部分的に遮蔽されている。第3の書類2cは、最上部の書類であり、遮蔽されていない。
例えば、ユーザ1の手指5が第2の書類2bの表面に接触したとする。この場合、領域検出部34は、第2の書類2bの境界7を検出する。なお図15に示すように、第2の書類2bの境界7の一部(図中の点線)は、第3の書類2cにより遮蔽されている。このように遮蔽された境界7は、例えば遮蔽されていない境界7(図中の太い実線)等に基づいて、適宜補完して検出される。
このように、キャプチャ領域6の自動検出により、切り出す範囲(キャプチャ領域6)が確定するが、切り出す対象となる実物体3(第2の書類2b)が部分的に隠れている場合がある。この場合、外向きカメラ14により撮影された撮影画像40では、目的とする実物体3の上に他の遮蔽物が乗っていて一部がキャプチャできないといったことが考えられる。
AR表示部35では、例えば図16A~図16Cに示す方法で、遮蔽物により遮蔽された実物体3(第2の書類2b)の仮想画像4が生成される。
図16Aに示す例では、遮蔽物により遮蔽された状態をそのまま表す仮想画像4が生成される。例えば外向きカメラ14により撮影された撮影画像40から、キャプチャ領域6を含む撮影画像40が適宜選択される。そして選択された撮影画像40からキャプチャ領域6に対応する部分画像43が生成されて、その部分画像43を使った仮想画像4が生成される。
従って、図16Aに示す仮想画像4は、第2の書類2bの一部が第3の書類2cにより遮蔽された状態を表す画像となる。このように、部分画像43をそのまま使用することで、仮想画像4の生成処理を短縮することが可能となり、ユーザ1のインタラクションに対する応答速度等を向上することが可能となる。
図16Bに示す例では、遮蔽物により遮蔽された部分がグレーアウトされた仮想画像4が生成される。例えば、図16Aと同様に生成された部分画像43から、実物体3の境界7が検出される。すなわち、部分画像43に含まれる遮蔽物(第3の書類2c)の境界7が検出される。そして、遮蔽物の境界7の内側がグレースケールで塗りつぶされた仮想画像4が生成される。このように不要な情報を塗りつぶすことで、明示的に欠損部位を提示することが可能となる。
図16Cに示す例では、遮蔽物により遮蔽された部分が他のデータにより補完された仮想画像4が生成される。例えば、第2の書類2bの表面の記載に基づいて、撮影画像データベース21が参照され、第2の書類2bと類似する書類2が撮影された撮影画像40等が検索される。類似する書類2の検索には、所定のマッチング処理等が用いられる。
類似する書類2を含む撮影画像40が検索された場合には、その撮影画像40から、第3の書類2cにより遮蔽された欠損部位の部分画像43bが生成される。そして、遮蔽されていない領域の部分画像43aと、欠損部位の部分画像43bとを使用して、第2の書類2bの仮想画像4が生成される。従って、仮想画像4は、2つの部分画像43a及び43bを組み合わせた画像となる。
このように、撮影画像データベース21等に問い合わせて、対象となる書類2との類似文書から欠損部分が補完される。これにより、遮蔽物により遮蔽された実物体3がキャプチャ対象となる場合であっても、遮蔽のない状態の実物体3を表す仮想画像4を生成することが可能となる。なお、検索された類似文書が対象の書類2とは異なっている可能性もあるため、補完した領域は枠線(図中の点線)等を用いて明示的に表示される。これにより、仮想画像4が補完して生成されたことを知らせることが可能となる。
図17は、HMD100の動作の他の一例を示すフローチャートである。図17に示す処理は、領域手動指定モードで実行される処理であり、例えばHMD100の動作中に繰り返し実行されるループ処理である。以下では、ユーザ1が手動によりキャプチャ領域6を指定する場合(領域手動指定モード)の処理について説明する。
図17に示す、ステップ201~ステップ203では、例えば図4に示す領域自動検出モードでのステップ101~ステップ103とそれぞれ同様の処理が実行される。また、ステップ206~ステップ208では、ユーザ1により手動で指定されたキャプチャ領域6を用いて、例えば、図4に示すステップ206~ステップ208とそれぞれ同様の処理が実行される。
ユーザ1の手指位置と実物体3の表面位置とが計測され(ステップ201)、ユーザ1の手指5が実物体3の表面に接触しそうか否かが判定される(ステップ202)。ユーザ1の手指5が表面に接触しそうではない(接触が予測される接触前状態ではない)と判定された場合(ステップ202のNo)、再度ステップ201が実行される。
ユーザ1の手指5が表面に接触しそうである(接触が予測される接触前状態である)と判定された場合(ステップ202のYes)、外向きカメラ14を用いてキャプチャに適した設定での撮影処理が開始される(ステップ203)。この撮影処理は、例えば仮想画像4が生成されるまで繰り返し実行される。
撮影処理が開始されると、ユーザ1により指定されるキャプチャ領域6を検出する処理が実行される(ステップ204)。具体的には、ユーザ1の指先位置Rをトラッキングして、範囲指定の情報が取得される。また指定された範囲は、AR空間上に適宜表示される。
図18は、ユーザ1により指定されるキャプチャ領域6の一例を示す模式図である。図18には、ユーザ1が実物体3である書類2の外周をなぞるように、一指し指(手指5)を移動している様子が模式的に図示されている。
領域手動指定モードが実行される場合、接触検出部32により、ユーザ1の手の指先位置Rが検出される。指先位置Rとしては、例えば、実物体3(書類2)に対して最も近い位置にあるユーザ1の手指5の先端位置が検出される。なお、ユーザ1の手指5は、実物体3の表面に接触していてもよいし、離れていてもよい。すなわち、ユーザ1の接触動作の状態が接触状態であるか、接触前状態であるかに係らず、ユーザ1の指先位置Rが適宜検出される。
ユーザ1の指先位置Rの情報は、ユーザ1による範囲指定の情報として逐次記録される。図17に示すように、ステップ204はループ処理となっており、例えばステップ204が実行される度に、ユーザ1の指先位置Rの情報が記録される。すなわち、ユーザ1の指先位置Rの軌跡8を記録する指先位置Rのトラッキング処理が実行されるとも言える。
図18には、ユーザ1の指先位置Rが黒丸を用いて模式的に図示されている。また指先位置Rをトラッキングして検出された指先位置Rの軌跡8が太い黒線を用いて模式的に図示されている。この、指先位置Rの軌跡8の情報が、ユーザ1による範囲指定の情報となる。
またAR表示部35により、ユーザ1が指先でなぞった位置にはARにより枠線等が表示される。すなわち、ユーザ1の指先位置Rの軌跡8がAR空間上に表示される。従って、例えば図18に示すように、ユーザ1は、自身の指先(手指5)がなぞった跡が実物体3に重畳して表示された状態を視覚することが可能となる。これにより、キャプチャ領域6の指定を容易に実行することが可能となり、ユーザビリティ―が向上する。
図17に戻り、ユーザ1による手動での範囲指定が完了したか否かが判定される(ステップ205)。例えば、ユーザ1により入力された範囲(指先位置Rの軌跡8)が閉じた範囲となったか否かが判定される。あるいは、ユーザ1の指先(手指5)が実物体3の表面から離れたか否かが判定される。この他、範囲指定の完了を判定する方法等は限定されない。例えば、ユーザ1のハンドジェスチャーやその他の入力操作に基づいて、範囲を指定する操作が終了されてもよい。
手動での範囲指定が完了していないと判定された場合(ステップ205のNo)、ステップ204が実行され、指先位置Rのトラッキング等が継続される。
手動での範囲指定が完了したと判定された場合(ステップ205のYes)、領域検出部34により、ユーザ1により指定された範囲が、キャプチャ領域6として検出される。すなわち、ユーザ1の指先位置Rの軌跡8が、キャプチャ領域6に設定されるとも言える。
このように、領域手動指定モードでは、領域検出部34により、指先位置Rの移動に伴う指先位置Rの軌跡8に基づいてキャプチャ領域6が検出される。これにより、キャプチャ領域6を手動で指定することが可能となり、実空間内の任意の領域をキャプチャすることが可能となる。この結果、例えば自由度の高い仮想体験を容易に提供することが可能となる。
範囲指定が完了してキャプチャ領域6が検出されると、手動によるキャプチャ領域6の修正を受け付ける処理が実行される(ステップ206)。キャプチャ領域6が修正されると、撮影画像40からキャプチャ領域6がクリアに撮影された部分画像43が適宜抽出され、部分画像43に基づいて実物体3の仮想画像4が生成される(ステップ207)。生成された仮想画像4は、ユーザ1のハンドジェスチャー等に応じて、実物体3に重畳して適宜表示される。
なお、手動により指定されたキャプチャ領域6に基づいて、仮想画像4を生成・表示する方法等は限定されず、例えば図10~図16等を参照して説明した方法が適用可能である。すなわち、上記した自動的に検出されたキャプチャ領域6についての説明は、手動で指定されたキャプチャ領域6についての説明として適宜読み替えることが可能である。
なお、領域自動検出モード及び領域手動指定モードの各モードは、個別に実行されてもよいし、適宜切り替えて実行されてもよい。例えば、ユーザ1のハンドジェスチャーが、領域を指定するジェスチャーである場合には領域手動指定モードが実行され、実物体3をタップする等の他のジェスチャーである場合には領域自動検出モードが実行される。例えばこのような構成が採用されてもよい。
以上、本実施形態に係るコントローラ30では、実物体3に対してユーザが接触する際の一連の動作である接触動作が検出され、接触動作に応じて実物体3が含まれるキャプチャ領域6が検出される。このキャプチャ領域6に対応する部分画像43が、実物体3が存在する実空間を撮影した撮影画像40から抽出され、実物体3の仮想画像4が生成される。そしてユーザ1の接触動作に応じて仮想画像4の表示制御が実行される。これにより、実物体3がキャプチャされた仮想画像4を容易に表示させることが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
現実世界をキャプチャする方法として、例えば所定の入力操作に応じて自動的に現実世界を撮影するといった方法が考えられる。この方法では、例えばキャプチャする範囲を指定する操作等が必要となり、キャプチャ処理が煩わしくなる可能性がある。また入力操作が行われたタイミング等に合わせて自動的に撮影が実行されるため、例えば、キャプチャする範囲に遮蔽物等が含まれてしまう場合があり得る。この場合、画像を再度取り直すこと等が必要となり、ユーザの体験等を阻害する恐れが生じる。
本実施形態では、実物体3に対するユーザ1の接触動作に応じて、キャプチャ領域6が検出される。これにより、例えばユーザ1が実物体3に触れることで、その実物体3をキャプチャするためのキャプチャ領域6が自動的に検出される。
すなわち、ユーザ1が明示的にキャプチャ領域6等を設定しない場合であっても、所望の実物体3がキャプチャされた仮想画像4等を容易に生成する事が可能となる。この結果、ユーザ1はキャプチャ領域6を入力することなく、適正なキャプチャ画像(仮想画像4)を簡単に仮想空間に持ち込むことが可能となる。この結果、実空間と仮想空間とをシームレスにつなぐことが可能となる。
また本実施形態では、実空間が撮影された1以上の撮影画像40から、キャプチャ領域6に対応する部分画像を抽出して、仮想画像4が生成される。これにより、例えば時間をさかのぼって、遮蔽の生じていない部分画像を取得し、遮蔽のない実物体3のクリアな仮想画像4等を生成することが可能となる。この結果、1回のキャプチャ処理で、所望の仮想画像4を適正に生成することが可能となり、撮り直し等が発生することを十分に回避することが可能となる。
また、生成された仮想画像4は、ユーザ1の接触動作に応じて実物体3に重畳して表示される。このようにHMD100では、接触動作(インタラクション)が発生した際に、直前キャプチャしておいた画像に基づいて生成された高精度な仮想画像4が提示される。また、仮想画像4の表示は接触動作の種類等に合わせて適宜制御される。これにより、AR空間等に実世界の実物体3を自然に持ち込むことが可能となる。この結果、実世界(実空間)から仮想世界(仮想空間)への物体の移動が容易となり、実世界と仮想世界のシームレスな連結を実現することが可能となる。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
図4及び図17を参照して説明した処理では、ユーザ1と実物体3との接触が予測される接触前状態が検出されてから、外向きカメラ14によりキャプチャ用の設定で撮影処理が開始された(ステップ103、ステップ203)。キャプチャ用の撮影処理を実行するタイミングは限定されない。
例えば接触前状態が検出されていない状態で、撮影処理が実行されてもよい。例えば、ユーザ1の周辺の接触の可能性がある物体を順次撮影(キャプチャ)して、接触に備えるといった撮影処理が実行されてもよい。
また、ユーザ1が接触しようとしている実物体3が特定しきれない場合、ユーザ1が接触する可能性のある実物体3を投機実行的にキャプチャしてもよい。例えばHMD100を装着したユーザ1が様々な方向に視線を向けることで、ユーザ1の周辺の様々な実物体3を撮影することが可能である。例えば、ユーザ1の周辺に存在する実物体3が外向きカメラ14の撮影範囲に含まれた場合等に、キャプチャ用の撮影処理が投機的に実行される。
これにより、ユーザ1の周辺の実物体3が撮影されたライブラリ等を撮影画像データベース21内に構成することが可能となる。この結果、例えばユーザ1の接触動作の対象を直前に撮影することが難しいといった状況であっても、ユーザ1が触れた実物体3の仮想画像4を適正に生成することが可能となる。この他、撮影処理は、仮想画像4を生成する前の任意のタイミングで実行されてよい。
また、キャプチャ失敗時には、例えばHMD100が通信部18等を介して接続可能なクラウド上のキャプチャ済みの物体データ等が検索されても良い。これにより、撮影画像データベース21等に適切な撮影画像40が含まれていなかった場合であっても、仮想画像4を生成することが可能となる。
図13では、ユーザ1が立体的な実物体3を掴むことで、実物体3の3次元的な形状を表す3次元画像(仮想画像4)が生成された。例えば、ジェスチャーの種類によってキャプチャの方法を、2Dキャプチャと3Dキャプチャとのどちらかに切り替えても良い。例えば、ユーザ1が実物体3をつまむジェスチャーをした場合は2Dキャプチャが実行され、ユーザ1が実物体3をつかむジェスチャーをした場合は3Dキャプチャが実行される。例えばこのような処理が実行されてもよい。
上記の実施形態では、透過型のディスプレイを搭載した透過型のHMD100が用いられた。これに限定されず、例えばユーザ1の視界を覆う没入型のHMDが用いられる場合にも、本技術は適用可能である。
図19は、他の実施形態に係るHMDの外観を模式的に示す斜視図である。HMD200は、ユーザ1の頭部に装着されるマウント部210と、ユーザ1の両眼の前方に配置される本体部220とを含む。HMD200は、ユーザ1の視野を覆うように構成された没入型のヘッドマウントディスプレイである。
本体部220には、ユーザ1左右の眼に対向して配置されたディスプレイ(図示省略)が設けられる。このディスプレイに左眼用画像及び右眼用画像等が表示されることで、ユーザ1は仮想空間を視覚することが可能となる。
また本体部220の外側には、外向きカメラ221が搭載される。この外向きカメラ221により撮影された画像を内部のディスプレイに表示することで、ユーザ1は実世界の映像を視認することが可能である。またディスプレイでは、外向きカメラにより撮影された画像に、各種の仮想画像4が重畳して表示される。これにより、拡張現実(AR)を用いた仮想体験を提供可能である。
例えば、図3を参照して説明したコントローラ30等を用いて、実物体3に対するユーザ1の接触動作や、キャプチャ領域6の検出、及びディスプレイでの仮想画像4等の表示制御等が実行される。これにより、ユーザ1が接触する実物体3をキャプチャした仮想画像4を容易に生成して、仮想空間に表示することが可能となり、実空間と仮想空間とをシームレスにつなぐことが可能となる。
図20は、他の実施形態に係る携帯端末300の外観を模式的に示す斜視図である。図20の左側及び右側には、表示面310が設けられる携帯端末300の表側、及び表側とは反対側の裏側がそれぞれ模式的に図示されている。携帯端末300の表側には、内向きカメラ320が搭載され、裏側には外向きカメラ330が搭載される。
例えば携帯端末300の表示面310に、外向きカメラ330により撮影された実空間の画像が表示される。また表示面310には、実空間の画像に対して、様々な仮想画像4等が重畳して表示される。これにより、ユーザ1は実空間が拡張されたAR空間を視覚することが可能となる。
例えば、図3を参照して説明したコントローラ20等を用いて、外向きカメラ330により撮影された画像から、ユーザ1の接触動作に応じて実物体3をキャプチャすることが可能である。これにより、実物体3を容易にAR空間に持ち込むことが可能となる。このように、携帯端末300等が用いられる場合にも、本技術は適用可能である。この他、タブレット端末やノート型PC等が用いられてもよい。
また本技術は、仮想現実(VR)空間においても適用可能である。例えば、VR空間を視覚するユーザ1が実際に活動する実空間において、ユーザ1が接触した実物体3がキャプチャされる。これにより、VR空間内に、実空間の物体を容易に持ち込むことが可能となる。この結果、VR空間を体験しているユーザ間で、実物体3のクローン(仮想画像4)をやり取りするといったことが可能となり、コミュニケーションを活性化することが可能となる。
上記ではHMD等に搭載されたコントローラにより、本技術に係る情報処理方法が実行される場合を説明した。しかしながらHMD等に搭載されたコントローラとネットワーク等を介して通信可能な他のコンピュータにより、本技術に係る情報処理方法、及びプログラムが実行されてもよい。またHMD等に搭載されたコントローラと、他のコンピュータとが連動して、本技術に係る仮想空間表示システムが構築されてもよい。
すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えばユーザの接触動作の検出や、実物体を含む対象領域の検出、仮想画像の生成、及び仮想画像の表示制御等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)実空間が撮影された1以上の撮影画像を取得する取得部と、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する動作検出部と、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出する領域検出部と、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する表示制御部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記表示制御部は、遮蔽物により遮蔽されていない前記実物体を表す前記仮想画像を生成する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記表示制御部は、前記1以上の撮影画像のうち前記対象領域に前記遮蔽物が含まれない前記撮影画像から前記部分画像を生成する
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記仮想画像を前記実物体に重畳して表示する
情報処理装置。
(5)(1)から(4)のうちいずれか1つに記載の情報処理装置であって、
前記取得部は、前記実空間を撮影する撮影装置、及び前記撮影装置の出力が記憶されたデータベースの少なくとも一方から、前記1以上の撮影画像を取得する
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記接触動作は、前記実物体に対して前記ユーザが手を接近させる動作を含み、
前記動作検出部は、前記接触動作の状態が、前記実物体に対する前記ユーザの手の接触が予測される接触前状態であるか否かを判定し、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置を制御して前記1以上の撮影画像を取得する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置の撮影解像度を高くする
情報処理装置。
(8)(1)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記領域検出部は、前記検出された接触位置に基づいて前記対象領域を検出する
情報処理装置。
(9)(8)に記載の情報処理装置であって、
前記領域検出部は、前記対象領域として、前記接触位置を含む前記実物体の境界を検出する
情報処理装置。
(10)(9)に記載の情報処理装置であって、さらに、
前記ユーザの視線方向を検出する視線検出部を具備し、
前記領域検出部は、前記ユーザの視線方向に基づいて、前記実物体の境界を検出する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記視線検出部は、前記ユーザの視線方向に基づいて注視位置を検出し、
前記領域検出部は、前記対象領域として、前記接触位置及び前記注視位置を含む前記実物体の境界を検出する
情報処理装置。
(12)(9)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記領域検出部は、前記実物体の影、サイズ、及び形状の少なくとも1つに基づいて、前記実物体の境界を検出する
情報処理装置。
(13)(1)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記ユーザの手の指先位置を検出し、
前記領域検出部は、前記指先位置の移動に伴う前記指先位置の軌跡に基づいて前記対象領域を検出する
情報処理装置。
(14)(1)から(13)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記対象領域を表す領域画像を前記実物体に重畳して表示する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記領域画像は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示され、
前記領域検出部は、前記編集された領域画像に基づいて前記対象領域を変更する
情報処理装置。
(16)(1)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
前記表示制御部は、前記検出された接触位置に応じて、前記仮想画像の表示を制御する
情報処理装置。
(17)(1)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記動作検出部は、前記実物体に触れる前記ユーザの手のジェスチャーを検出し、
前記表示制御部は、前記検出された前記ユーザの手のジェスチャーに応じて、前記仮想画像の表示を制御する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記仮想画像は、前記実物体の2次元画像及び3次元画像の少なくとも1方である
情報処理装置。
(19)実空間が撮影された1以上の撮影画像を取得し、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出し、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出し、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する
ことをコンピュータシステムが実行する情報処理方法。
(20)実空間が撮影された1以上の撮影画像を取得するステップと、
前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと、
前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと、
前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
をコンピュータシステムに実行させるプログラム。
1…ユーザ
3…実物体
4…仮想画像
5…手指
6…キャプチャ領域
7…境界
8…軌跡
12…透過型ディスプレイ
14…外向きカメラ
21…撮影画像データベース
30…コントローラ
31…画像取得部
32…接触検出部
33…視線検出部
34…領域検出部
35…AR表示部
40…撮影画像
42…領域画像
43、43a、43b…部分画像
100、200…HMD

Claims (18)

  1. 実空間が撮影された1以上の撮影画像を取得する取得部と、
    前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出する動作検出部と、
    前記検出された接触動作に応じて前記実物体を含む対象領域を検出する領域検出部と、
    前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御する表示制御部と
    を具備し、
    前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
    前記領域検出部は、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
    情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記表示制御部は、遮蔽物により遮蔽されていない前記実物体を表す前記仮想画像を生成する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記表示制御部は、前記1以上の撮影画像のうち前記対象領域に前記遮蔽物が含まれない前記撮影画像から前記部分画像を生成する
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記表示制御部は、前記仮想画像を前記実物体に重畳して表示する
    情報処理装置。
  5. 請求項1に記載の情報処理装置であって、
    前記取得部は、前記実空間を撮影する撮影装置、及び前記撮影装置の出力が記憶されたデータベースの少なくとも一方から、前記1以上の撮影画像を取得する
    情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    前記接触動作は、前記実物体に対して前記ユーザが手を接近させる動作を含み、
    前記動作検出部は、前記接触動作の状態が、前記実物体に対する前記ユーザの手の接触が予測される接触前状態であるか否かを判定し、
    前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置を制御して前記1以上の撮影画像を取得する
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記取得部は、前記接触動作の状態が、前記接触前状態であると判定された場合、前記撮影装置の撮影解像度を高くする
    情報処理装置。
  8. 請求項に記載の情報処理装置であって、さらに、
    前記ユーザの視線方向を検出する視線検出部を具備し、
    前記領域検出部は、前記ユーザの視線方向に基づいて、前記実物体の境界を検出する
    情報処理装置。
  9. 請求項に記載の情報処理装置であって、
    前記視線検出部は、前記ユーザの視線方向に基づいて注視位置を検出し、
    前記領域検出部は、前記対象領域として、前記接触位置及び前記注視位置を含む前記実物体の境界を検出する
    情報処理装置。
  10. 請求項に記載の情報処理装置であって、
    前記領域検出部は、前記実物体の影、サイズ、及び形状の少なくとも1つに基づいて、前記実物体の境界を検出する
    情報処理装置。
  11. 請求項1に記載の情報処理装置であって、
    前記動作検出部は、前記ユーザの手の指先位置を検出し、
    前記領域検出部は、前記指先位置の移動に伴う前記指先位置の軌跡に基づいて前記対象領域を検出する
    情報処理装置。
  12. 請求項1に記載の情報処理装置であって、
    前記表示制御部は、前記対象領域を表す領域画像を前記実物体に重畳して表示する
    情報処理装置。
  13. 請求項12に記載の情報処理装置であって、
    前記領域画像は、形状、サイズ、及び位置の少なくとも1つを編集可能に表示され、
    前記領域検出部は、前記編集された領域画像に基づいて前記対象領域を変更する
    情報処理装置。
  14. 請求項1に記載の情報処理装置であって、
    前記動作検出部は、前記実物体と前記ユーザの手との接触位置を検出し、
    前記表示制御部は、前記検出された接触位置に応じて、前記仮想画像の表示を制御する
    情報処理装置。
  15. 請求項1に記載の情報処理装置であって、
    前記動作検出部は、前記実物体に触れる前記ユーザの手のジェスチャーを検出し、
    前記表示制御部は、前記検出された前記ユーザの手のジェスチャーに応じて、前記仮想画像の表示を制御する
    情報処理装置。
  16. 請求項1に記載の情報処理装置であって、
    前記仮想画像は、前記実物体の2次元画像及び3次元画像の少なくとも1方である
    情報処理装置。
  17. 実空間が撮影された1以上の撮影画像を取得するステップと
    前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと
    前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと
    前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
    コンピュータシステムが実行する情報処理方法であって、
    前記接触動作を検出するステップは、前記実物体と前記ユーザの手との接触位置を検出し、
    前記対象領域を検出するステップは、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
    情報処理方法。
  18. 実空間が撮影された1以上の撮影画像を取得するステップと、
    前記実空間内の実物体に対してユーザが接触する際の一連の動作である接触動作を検出するステップと、
    前記検出された接触動作に応じて前記実物体を含む対象領域を検出するステップと、
    前記1以上の撮影画像から前記対象領域に対応する部分画像を抽出して前記実物体の仮想画像を生成し、前記接触動作に応じて前記仮想画像の表示を制御するステップと
    をコンピュータシステムに実行させるプログラムであって、
    前記接触動作を検出するステップは、前記実物体と前記ユーザの手との接触位置を検出し、
    前記対象領域を検出するステップは、前記検出された接触位置に基づいて、前記対象領域として前記接触位置を含む前記実物体の境界を検出する
    プログラム。
JP2020553037A 2018-10-15 2019-10-02 情報処理装置、情報処理方法、及びプログラム Active JP7459798B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018194262 2018-10-15
JP2018194262 2018-10-15
PCT/JP2019/038915 WO2020080107A1 (ja) 2018-10-15 2019-10-02 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2020080107A1 JPWO2020080107A1 (ja) 2021-09-09
JP7459798B2 true JP7459798B2 (ja) 2024-04-02

Family

ID=70283891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020553037A Active JP7459798B2 (ja) 2018-10-15 2019-10-02 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20220012922A1 (ja)
JP (1) JP7459798B2 (ja)
CN (1) CN112840379A (ja)
WO (1) WO2020080107A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022046498A1 (en) * 2020-08-28 2022-03-03 Sterling Labs Llc Detecting user-to-object contacts using physiological data
JP2023125554A (ja) * 2022-02-28 2023-09-07 株式会社Jvcケンウッド 仮想空間画像表示装置及び仮想空間画像表示方法並びに仮想空間画像表示プログラム
US20230319296A1 (en) * 2022-03-29 2023-10-05 Apple Inc. Energy efficient context relevant processing for content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140121015A1 (en) 2012-10-30 2014-05-01 Wms Gaming, Inc. Augmented reality gaming eyewear
JP2014157482A (ja) 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
US20170188081A1 (en) 2014-05-26 2017-06-29 Nongqiang Fan Method and apparatus for interacting with display screen
JP2018092313A (ja) 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
US7940963B2 (en) * 2006-12-27 2011-05-10 Fujifilm Corporation Monitoring system, monitoring method, and program
JP2009146333A (ja) * 2007-12-18 2009-07-02 Panasonic Corp 空間入力動作表示装置
JP2010215194A (ja) * 2009-03-19 2010-09-30 Hyundai Motor Co Ltd 車載機器の操作装置
CN101673161B (zh) * 2009-10-15 2011-12-07 复旦大学 一种可视可操作无实体的触摸屏系统
US20130100008A1 (en) * 2011-10-19 2013-04-25 Stefan J. Marti Haptic Response Module
US10013053B2 (en) * 2012-01-04 2018-07-03 Tobii Ab System for gaze interaction
KR102303115B1 (ko) * 2014-06-05 2021-09-16 삼성전자 주식회사 웨어러블 디바이스 및 웨어러블 디바이스 의 증강 현실 정보 제공 방법
US20170323480A1 (en) * 2016-05-05 2017-11-09 US Radar, Inc. Visualization Technique for Ground-Penetrating Radar
JP6499384B2 (ja) * 2016-08-24 2019-04-10 ナーブ株式会社 画像表示装置、画像表示方法、及び画像表示プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140121015A1 (en) 2012-10-30 2014-05-01 Wms Gaming, Inc. Augmented reality gaming eyewear
JP2014157482A (ja) 2013-02-15 2014-08-28 Konica Minolta Inc 操作表示システム
US20170188081A1 (en) 2014-05-26 2017-06-29 Nongqiang Fan Method and apparatus for interacting with display screen
JP2018092313A (ja) 2016-12-01 2018-06-14 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IWAI, Daisuke et al.,Limpid Desk: Transparentizing Documents on Real Desk in Projection-based Mixed Reality,Proceedings on the IEEE Virtual Reality Conference (VR 2006),2006年03月26日,DOI:10.1109/VR, 2006. 95,pp.30-31
岩井大輔,他1名,Limpid Desk:投影型複合現実感による机上書類の透過化,情報処理学会論文誌,日本,社団法人情報処理学会,2007年03月15日,Vol.48, No.3,pp.1294-1306

Also Published As

Publication number Publication date
CN112840379A (zh) 2021-05-25
WO2020080107A1 (ja) 2020-04-23
US20220012922A1 (en) 2022-01-13
JPWO2020080107A1 (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
US20220084279A1 (en) Methods for manipulating objects in an environment
JP6393367B2 (ja) 追従表示システム、追従表示プログラム、および追従表示方法、ならびにそれらを用いたウェアラブル機器、ウェアラブル機器用の追従表示プログラム、およびウェアラブル機器の操作方法
KR20220040493A (ko) 3차원 환경들과 상호작용하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
CN116719452A (zh) 用于与用于移动虚拟环境中的虚拟对象的虚拟控件和/或示能表示交互的方法
JP7459798B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11720171B2 (en) Methods for navigating user interfaces
KR20220137770A (ko) 시선 기반 내비게이션을 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
US11579693B2 (en) Systems, methods, and graphical user interfaces for updating display of a device relative to a user's body
US20230336865A1 (en) Device, methods, and graphical user interfaces for capturing and displaying media
US20240028177A1 (en) Devices, methods, and graphical user interfaces for interacting with media and three-dimensional environments
US20240103684A1 (en) Methods for displaying objects relative to virtual surfaces
US20240103680A1 (en) Devices, Methods, and Graphical User Interfaces For Interacting with Three-Dimensional Environments
US20240103681A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152245A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Window Controls in Three-Dimensional Environments
US20240152256A1 (en) Devices, Methods, and Graphical User Interfaces for Tabbed Browsing in Three-Dimensional Environments
US20240104819A1 (en) Representations of participants in real-time communication sessions
KR20240091221A (ko) 미디어를 캡처 및 디스플레이하기 위한 디바이스들, 방법들, 및 그래픽 사용자 인터페이스들
KR20240047458A (ko) 미디어 및 3차원 환경들과의 상호작용을 위한 디바이스들, 방법들 및 그래픽 사용자 인터페이스들
CN117940880A (zh) 用于与媒体和三维环境交互的设备、方法和图形用户界面

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20220808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459798

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150