JP2010092436A - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
JP2010092436A
JP2010092436A JP2008264629A JP2008264629A JP2010092436A JP 2010092436 A JP2010092436 A JP 2010092436A JP 2008264629 A JP2008264629 A JP 2008264629A JP 2008264629 A JP2008264629 A JP 2008264629A JP 2010092436 A JP2010092436 A JP 2010092436A
Authority
JP
Japan
Prior art keywords
image
index
unit
captured image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008264629A
Other languages
English (en)
Other versions
JP2010092436A5 (ja
JP5156571B2 (ja
Inventor
Makoto Oikawa
誠 及川
Takuya Tsujimoto
卓哉 辻本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008264629A priority Critical patent/JP5156571B2/ja
Priority to US12/570,129 priority patent/US9007445B2/en
Publication of JP2010092436A publication Critical patent/JP2010092436A/ja
Publication of JP2010092436A5 publication Critical patent/JP2010092436A5/ja
Application granted granted Critical
Publication of JP5156571B2 publication Critical patent/JP5156571B2/ja
Priority to US14/628,557 priority patent/US9558594B2/en
Priority to US15/378,221 priority patent/US10748338B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Abstract

【課題】 より少ない指標を用いてMR画像を生成し、生成したMR画像をユーザに提示する為のシステムの構成を、より簡易な構成で実現するための技術を提供すること。
【解決手段】 指標抽出部209は、複数の指標が配された現実空間を撮像する撮像ユニット204による撮像画像から指標を検出する。収束演算部211は、検出された指標に基づいて撮像ユニット204の位置姿勢情報を求める。CG描画部212は、位置姿勢情報に基づいて仮想空間画像を生成する。撮像画像切り出し部208は、撮像画像において表示対象領域内の画像を表示画像として抽出する。画像合成部214は、抽出された表示画像と、生成された仮想空間画像とを合成することで合成画像を生成する。表示ユニット216は、合成画像を表示する。
【選択図】 図2

Description

本発明は、撮像画像と仮想空間の画像との合成画像をユーザに提示するための技術に関するものである。
近年、現実世界と仮想世界をリアルタイムかつシームレスに融合させる技術として複合現実感、いわゆるMR(Mixed Reality)技術が知られている。MR技術の1つに、次のような技術が知られている。即ち、ビデオシースルー型HMD(Head Mounted Display)に備わっているビデオカメラなどによって、観察者の瞳位置から観察される被写体と略一致する被写体を撮像する。そして、その撮像画像にCG(Computer Graphics)を重畳表示した画像を観察者に提示する。
ビデオシースルー型HMDでは、CCD等の電荷結合素子により被写体を撮像して、この被写体のデジタル画像データを得、このデジタル画像データにCG画像を重畳したMR画像(複合現実画像)を生成する。そしてその後、液晶素子等の表示デバイスを介してこのMR画像を、装着者に表示する。
CG画像の描画および撮像画像への重畳は、HMDに備わっているビデオカメラなどの撮像装置の位置姿勢情報、すなわちHMD装着者の頭部の位置姿勢情報を基に行う。位置姿勢情報を生成するための代表的な手法として以下の二種類がある。
一つ目は、磁気センサやジャイロセンサ(加速度、角速度)などの三次元位置姿勢センサによって位置姿勢情報を取得・生成する方法である。磁気センサには周囲の電磁波の影響を受けやすい特徴が、またジャイロセンサには出力電圧が変動するドリフト現象が生じる特徴がある。このように三次元位置姿勢センサのみでは安定した位置姿勢情報を生成することは難しい。
二つ目は、現実空間中に配置された指標の情報を取得し、その情報を基に位置姿勢情報を生成する方法である。指標には特徴的な形状のマーカや赤外LEDを用いる場合などがあり、その指標の情報は、カメラや赤外カメラ等を用いて取得する。取得した指標の大きさや位置、マーカの場合はさらに形状によって位置姿勢情報を生成する。
指標情報を取得するためのカメラを設置する場所は大きく分けて以下の2種類ある。
一つ目は、指標情報を取得するための構成をHMDに配置する方法である。係る方法は、HMDに撮像装置を装着し、この撮像装置でもって指標の情報を取得する方法を含むものである。MR画像を生成するために用いる現実空間画像を撮像するための撮像装置の近傍に赤外カメラを設置し、その赤外カメラで現実空間中に配置した赤外マーカを撮像して位置姿勢情報を生成する手法が非特許文献1に開示されている。
二つ目は、指標情報を取得するための撮像装置を、HMD装着者の周囲を鳥瞰できる位置に配置する方法である。この方法では、撮像装置の数や配置によっては、HMDに撮像装置を設ける場合よりも広い領域の指標情報を取得することが可能である。
HMDが有する撮像装置によって取得されるマーカ情報の他に、周囲を鳥瞰できる赤外カメラで取得されるHMD付属の赤外マーカ情報を用いて位置姿勢情報を生成する手法が特許文献1に開示されている。
特開2005−351886号公報 Frank Sauer,Fabian Wenzel,Sebastian Vogt,Yiyang Tao,Yakup Genc,Ali Bani−Hashemi,Siemens Corporate Research,Augmented Workspace:designing an AR testbed,Proceedings of the IEEE and ACM International Symposium on Augmented Reality 2000 pp.47−53
広い空間からの情報を元に位置姿勢情報を安定的に取得しようとすると、現実空間中に設置する指標の数を多くする必要がある。また、HMDの光学系の画角は撮像系の画角よりも広くすることは技術的に困難であるため、同じ画角に一致させるビデオシースルー型HMDでは、撮像系の画角は表示系の画角に律束される。表示系と撮像系を同じ画角にすると、指標が撮像画像中に現れた途端CGが表示されることになり、CG表示の連続性が失われる場合もある。HMDの表示系が表示可能な範囲よりも広い範囲における領域内の指標情報を得ることができれば、設置する指標の数を少なくすることができる。しかし、上述した技術のように、HMDの撮像装置とは別の撮像装置を設けることは、システム構成の規模の増大や複雑化につながる。
本発明は以上の問題に鑑みて成されたものであり、より少ない指標を用いてMR画像を生成し、生成したMR画像をユーザに提示する為のシステムの構成を、より簡易な構成で実現するための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、複数の指標が配された現実空間を撮像する撮像手段と、
前記撮像手段による撮像画像から前記指標を検出する検出手段と、
前記検出手段により検出された指標に基づいて前記撮像手段の位置姿勢情報を求める計算手段と、
前記計算手段が求めた位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
前記撮像画像において表示対象領域内の画像を表示画像として抽出する抽出手段と、
前記抽出手段により抽出された表示画像と前記生成手段が生成した仮想空間画像とを合成することで合成画像を生成する合成手段と、
前記合成手段による合成画像を表示する表示手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。
即ち、複数の指標が配された現実空間を撮像手段によって撮像する撮像工程と、
前記撮像手段による撮像画像から前記指標を検出する検出工程と、
前記検出工程で検出された指標に基づいて前記撮像手段の位置姿勢情報を求める計算工程と、
前記計算工程で求めた位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
前記撮像画像において表示対象領域内の画像を表示画像として抽出する抽出工程と、
前記抽出工程で抽出された表示画像と前記生成工程で生成した仮想空間画像とを合成することで合成画像を生成する合成工程と、
前記合成工程による合成画像を表示する表示工程と
を備えることを特徴とする。
本発明の構成により、より少ない指標を用いてMR画像を生成し、生成したMR画像をユーザに提示する為のシステムの構成を、より簡易な構成で実現することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
図1は、本実施形態に係るシステムに適用可能なシステムの外観例を示す図である。図1に示したシステムは、HMD101、コントローラ102、画像処理装置103、により構成されている。
ここで、現実空間と仮想空間とをリアルタイムかつシームレスに融合させる技術である複合現実感技術、いわゆるMR技術では、撮像機能付表示装置を利用する。ここで、以下の説明では、撮像機能付表示装置をHMDと略す。ただし、双眼鏡のような手持ちタイプの装置でもよく、頭部装着型の装置に限らない。MR技術では、HMDが有する撮像装置により取得した装着者視点からの現実空間の背景画像に、装着者視点の位置、方向などの三次元位置姿勢情報に基づいて生成されたCG画像を重畳し、HMDの表示部に表示する。これにより、HMD装着者は、CGで描画されたオブジェクトが、観察している現実空間内にあたかも存在しているかのような複合現実感を体感することができる。
HMD101は、現実空間を撮像するための撮像部と、コントローラ102を介して画像処理装置103から受信した画像を表示するための表示部とを有する。HMD101はコントローラ102と通信可能であり、撮像部が撮像した現実空間の画像は、このコントローラ102に送出する。なお、HMD101は、コントローラ102からの電源供給を受けて駆動することも、バッテリーで駆動することも可能な構成となっている。
コントローラ102は、HMD101から受信した画像に対して各種の処理を施した後、この画像を画像処理装置103に送信する。
画像処理装置103は、コントローラ102と通信可能であり、コントローラ102から受信した現実空間の画像に基づいて仮想空間の画像を生成する生成部と、生成した仮想空間の画像を現実空間の画像と合成して合成画像を生成する合成部とを有する。そしてこの合成部は、生成した合成画像をコントローラ102に送信する。
コントローラ102は、画像処理装置103から受けた合成画像に対して各種の処理を施した後、この合成画像をHMD101に送出する。なお、コントローラ102は、HMD101や画像処理装置103から受けた画像に対して、解像度変換、色空間変換、光学系の歪み補正等の各種画像処理や、伝送フォーマット変換等を行うための機能を備えている。
HMD101の表示部には、コントローラ102から送出された合成画像が表示される。
なお、図1では、画像処理装置103とコントローラ102とは別個の装置としているが、画像処理装置103とコントローラ102とを一体化して1つの装置としても良い。また、コントローラ102の機能の一部または全部をHMD101側に備えさせるようにしても良い。また、それぞれの装置間は無線で通信しても良いし、有線で通信しても良い。
以下では、説明を簡単にするために、コントローラ102とHMD101とを一体化させたものを1つのHMDとして説明する。
図2は、本実施形態に係るシステムの機能構成例を示すブロック図である。図2に示す如く、本実施形態に係るシステムは、HMD201と画像処理装置202とで構成されている。
先ず、HMD201について説明する。HMD201は所謂ビデオシースルー型の頭部装着型表示装置の一例としての表示装置である。HMD201は、現実空間を撮像する撮像ユニット204、画像処理装置202から送出された画像を表示する表示ユニット216を有する。更には、HMD201は、撮像ユニット204から受けた画像に対して各種の処理を施す撮像画像処理部207、画像処理装置202から受けた画像に対して各種の処理を施す表示画像処理部215を有する。
撮像ユニット204は、HMD201を頭部に装着した装着者の目の位置姿勢と略一致する位置姿勢から見える現実空間の画像を撮像するためのもので、撮像光学系205、撮像素子206を有する。撮像光学系205は、外光の光束を撮像素子206へ結像させるためのものである。撮像素子206は、CCDやCMOSのエリアセンサであり、撮像光学系205による結像の結果として画像を構成する。この画像が撮像画像(現実空間画像)であり、この撮像画像は、撮像画像処理部207に送出される。
撮像画像処理部207は、撮像ユニット204から送出された撮像画像のうち、表示ユニット216において表示されない領域(表示対象領域外、非表示領域)のデータ量を削減することで、この撮像画像を更新する。もちろん、撮像画像において表示ユニット216で表示可能な領域を特定するための情報は既知であり、この情報は、HMD201と画像処理装置202の何れか若しくは両方で保持されているものとする。そして撮像画像処理部207は、この更新した撮像画像を、通信路203を介して画像処理装置202に送信する。
この通信路203は、有線であっても良いし、無線であっても良い。
表示画像処理部215は、この通信路203を介して画像処理装置202から送信された合成画像(MR画像)を受信する。そして、この合成画像の解像度やフレーム周波数を表示素子217に合せて変換したり、この合成画像に対して表示光学系218が有する歪みをキャンセルする歪補正を行い、その後、モアレ除去等を行うためにローパスフィルタをかける処理を行う。そして表示画像処理部215は、このような各種の画像処理済みの合成画像を、表示ユニット216に送出する。
表示ユニット216は、表示画像処理部215から受けた合成画像を表示するためのもので、HMD201を頭部に装着した装着者の眼前に位置するようにHMD201に取り付けられたものである。表示ユニット216は表示素子217、表示光学系218を有する。
表示素子217は、小型液晶ディスプレイやMEMSによる網膜スキャンタイプのデバイス等であり、表示画像処理部215から受けた合成画像を表示することで、この合成画像を構成する各画素に対応する光を照射する。
表示光学系218は、表示素子217から照射される光を拡大すると共に、ある程度の太さの光束として装着者の眼球に導く為のものである。これにより、装着者の眼前には、表示素子217が表示した合成画像が拡大されて投影されることになる。
次に、画像処理装置202について説明する。画像処理装置202は、指標抽出部209、指標優先度設定部210、収束演算部211、CG描画部212、CGコンテンツデータベース213、画像合成部214、撮像画像切り出し部208を有する。
指標抽出部209は、HMD201から送出された撮像画像を受信すると、この撮像画像中に映っているそれぞれの指標を検出する処理を行う。本実施形態では、現実空間中には複数の指標が配されているので、当然、撮像画像中には1以上の指標が映っていることになる。従って指標抽出部209は、このように撮像画像中に映っている指標を検出する処理を行う。なお、撮像画像から指標を検出するための技術については周知の技術であるので、これについての説明は省略する。
指標優先度設定部210は、指標抽出部209において検出されたそれぞれの指標に対して優先度を設定する。優先度が高い指標ほど後段の収束演算部211で優先的に使用される。
収束演算部211は、指標抽出部209において検出されたそれぞれの指標と、それぞれの指標について指標優先度設定部210で設定された優先度と、を用いて、撮像ユニット204の位置姿勢情報を求める(計算する)。
CGコンテンツデータベース213には、仮想空間を構成する各仮想物体のデータや、仮想空間の環境情報などが予め登録されている。例えば、仮想物体の形状情報や位置姿勢情報、動作則情報、仮想空間中に配される光源の位置姿勢情報や光源の種類情報などがCGコンテンツデータベース213に予め登録されている。
CG描画部212は先ず、CGコンテンツデータベース213に登録されているデータを用いて仮想空間を構築する。そして構築した仮想空間を、収束演算部211において求めた位置姿勢情報が示す位置姿勢を有する視点から見た場合の画像を、仮想空間画像として生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知ものであるので、これについての説明は省略する。
撮像画像切り出し部208は、HMD201から送出された撮像画像のうち、表示ユニット216において表示可能な範囲内(表示対象領域内)の画像を表示画像として切り出し、切り出した表示画像を画像合成部214に送出する。
画像合成部214は、CG描画部212が生成した仮想空間画像と、撮像画像切り出し部208から受けた表示画像とを合成することで上記MR画像としての合成画像を生成する。なお、MR画像を得るための仮想空間画像と表示画像との合成方法については従来から様々な技術が提案されており、本実施形態ではどの技術を用いてそれぞれの画像を合成しても良い。
そして画像合成部214は、生成した合成画像を、通信路203を介してHMD201に送出する。
次に、現実空間中に配される指標について説明する。図5は、現実空間中に配されている指標としてのマーカを示す図である。図5において501は撮像画像、502はマーカ、503はマーカを基準とする座標系(マーカ座標系)、504は、マーカ502を配したテーブルの輪郭線を示している。
指標抽出部209は、このような撮像画像501をHMD201から受信すると、撮像画像501からマーカ502を検出する。そして、マーカ502の大きさや形、塗りつぶしのパターンなどの情報から、マーカ502の設置位置に関する情報と、マーカ502を観察している視点の情報とが生成される。ここでは例として、マーカ502の中心部を原点とする座標系503を想定しているが、座標系の原点はマーカ502上に設定する必要はなく、座標系の原点とマーカ502との位置関係が既知であれば、任意の位置に座標系を設定することができる。また、ここでは1つのマーカのみを用いているが、複数のマーカを同時に用いることも可能である。複数のマーカを同時に用いる場合、各マーカの位置関係をあらかじめ定義しておくことによって、それらの位置関係から、マーカを見ている方向を算出することが可能となる。従って、図5に示したような内部の塗りつぶしパターンによって方向まで識別が可能なマーカではなく、例えば、カラーマーカや、LEDなどの発光素子のような方向性のないマーカを利用することも可能となる。
また、マーカではなく、テーブルの輪郭線504のような撮像画像中の特徴点や、撮像画像中の特定の色などを抽出し、それらを用いて位置姿勢情報を生成することもできる。同一種類のマーカを複数個用いたり、数種類のマーカを同時に用いたり、マーカ情報と撮像画像中の特徴点の情報を組み合わせて用いたりすることによって、より高い精度で広範囲の空間における位置姿勢情報を生成することができる。さらに、複数個のマーカや特徴点の位置関係が対応付けられているため、全てのマーカや特徴点が撮像画像内に表示されていなくても、それぞれのマーカや特徴点の位置を推定することも可能である。
もちろん、マーカを用いて視点の位置姿勢情報を求めるための構成についてはこれに限定するものではない。
次に、撮像画像と表示画像との関係について説明する。図6は、撮像画像と表示画像との対応関係を示す図である。図6において601は、撮像ユニット204において撮像可能な画像領域であり、撮像画像の全体領域に相当する。602は画像領域601のうち表示ユニット216において表示可能な領域、603は画像領域601のうち表示ユニット216において表示不可能な領域を示す。
画像領域601は、表示ユニット216で表示可能な領域602よりも大きくなるように設定されている。本実施形態では図6に示すように、領域602の中心位置が画像領域601の中心位置と重なるように、撮像光学系205、表示光学系218のそれぞれの軸が構成されているものとする。これは、撮像画像は撮像光学系205のレンズ歪みの影響によって外縁部に近い程歪んでいるため、歪みの少ない中央部を表示するためである。また、領域603内は指標の抽出に使用できれば良いので、撮像画像処理部207は、通信路203を介してHMD201から画像処理装置202に撮像画像を送信する際には、この領域603内のデータ量を削減するようにしても良い。データ量を削減するための処理には様々なものがあるが、例えば、領域603内の各画素については輝度情報のみを残すようにしても良いし、領域603内の画素を間引いて解像度を落としても良い。これにより、HMD201と画像処理装置202との間でやり取りするデータの量を減らすことができ、帯域を確保することが出来る。
次に、指標優先度設定部210が行う優先度設定処理について説明する。図7は、2種類の優先度設定方法について示す図である。
先ず、図7(a)に示した優先度設定方法について説明する。図7(a)において701aは撮像画像で、領域702aと領域703aとに分割されている。本実施形態では、画像の中心位置に近い指標ほど高い優先度を設定するので、図7(a)の場合、領域702a内に位置している指標に対する優先度を、領域703a内に位置している指標に対する優先度よりも高く設定する。具体的には、領域702a内には指標706aが位置しており、領域703a内には指標708aが位置しているので、指標706aに対する優先度を、指標708aに対する優先度よりも高く設定する。
次に、図7(b)に示した優先度設定方法について説明する。図7(b)において701bは撮像画像で、領域702b、領域703b、領域704b、領域705bに分割されている。本実施形態では、画像の中心位置に近い指標ほど高い優先度を設定する。従って図7(b)の場合、領域702b内に位置している指標に対する優先度が最も高く、次に領域703b内に位置している指標に対する優先度が高い。そして次に領域704b内に位置している指標に対する優先度が高く、領域705b内に位置している指標に対する優先度が最も低い。図7(b)の場合、指標706bに対する優先度が最も高く、次に指標707bに対する優先度が高く、次に指標708bに対する優先度が高く、指標709bに対する優先度が最も低い。
このようにして、撮像画像内のそれぞれの指標に対する優先度を決定する。なお、画像の中心位置に近い指標ほど高い優先度を設定することができるのであれば、優先度の設定方法は図7に示した方法に限定するものではない。
ここで、撮像画像701a、701bは、撮像光学系205のレンズ歪みの影響によって外縁部に近い程歪んでいる。そのため、画像の中央に近い指標を用いた方が精度の高い位置姿勢情報を生成することができる。画像の中央に近い指標を優先して用いるためには、指標優先度設定部210は撮像画像を図7(a)や図7(b)に示したように複数の領域に分割し、指標がどの領域内に含まれているのか判断して優先度を設定する。
このようにして各指標について優先度を設定すると、収束演算部211は、最も優先度の高い指標を用いて収束演算を行い、位置姿勢情報を生成する。あるいは、優先度に応じて各指標に重み付けを行い、それら複数の指標を用いて位置姿勢情報を生成しても良い。また、指標が複数の領域間で跨っている場合には次のような処理を行えばよい。
例えば指標Xが領域P、領域Q、領域Rに跨って位置しており、且つ各領域がこの順でより画像中心位置に近い場合、位置姿勢情報の精度を高くすることを考えるならば、指標Xは領域Rに属するものとして判断しても良い。もちろん、逆に領域Pに属するものとして判断しても良い。また、領域P、領域Q、領域Rのうち、指標Xの中心位置が属している領域を、この指標Xが属している領域として判断しても良い。
また、前述の通り、撮像画像には外縁部に近い程大きくなる歪みがある。この歪みは信号処理によって補正することができるが、画像の歪みが大きい程、補正時の誤差が大きくなる。表示画像の画質を考えた場合、領域602は撮像画像の中央に位置させるのが望ましい。これは位置姿勢情報生成についても同じであり、撮像画像の中央の指標を基にすることが高い精度の位置姿勢情報生成につながる。よって、領域602と優先度が高い領域を中央に近い同じ位置で一致させることが望ましい。また、領域603のデータ量を減らす場合、領域603の画質は損なわれ、位置姿勢情報生成の精度がある程度減少する。この場合においても領域602を優先させ、領域603の優先度を下げることに意味がある。そのため、領域602を優先度が最も高い領域(702a、702b)に設定したり、領域602を領域603よりも高い優先度に設定し、かつ領域602の中でさらに画像中心位置に近いほど高い優先度を設定したりすることが望ましい。また、指標が領域602と領域603とに跨っている場合は前述したように、領域602、領域603の何れかの優先度に設定する。
このように撮像画像の画像中央の指標に高い優先度を与えて優先的に用いることで、精度の高い位置姿勢情報の算出が可能となる。
図8は、撮像ユニット204、撮像画像処理部207による処理のフローチャートである。なお、図8に示したフローチャートに従った処理は、1フレーム分の撮像画像について行う処理であるので、実際には係るフローチャートに従った処理を各フレームの撮像画像について行うことになる。
先ず、ステップS801では、撮像ユニット204は1フレーム分の現実空間の画像を撮像し、撮像した画像を後段の撮像画像処理部207に送出する。
次に、ステップS802では、撮像画像処理部207は、撮像ユニット204から受けた撮像画像のうち、表示ユニット216において表示されない部分(非表示部分)に該当する領域内のデータ量を削減する処理を行うことで、この撮像画像を更新する。
次に、ステップS803では、撮像画像処理部207は、ステップS802において更新した撮像画像を、通信路203を介して画像処理装置202に送出する。
そして処理をステップS801に戻し、次のフレームについて以降の処理を行う。
図9は、表示画像処理部215、表示ユニット216による処理のフローチャートである。なお、図9に示したフローチャートに従った処理は、1フレーム分の合成画像について行う処理であるので、実際には係るフローチャートに従った処理を各フレームの合成画像について行うことになる。
先ず、ステップS901では、表示画像処理部215は、通信路203を介して画像処理装置202から送信された合成画像を取得する。
次に、ステップS902では、表示画像処理部215は、ステップS901において受信した合成画像に対して各種の処理を行う。例えば、合成画像の解像度やフレーム周波数を、表示素子217に合せて変換する処理や、合成画像について表示光学系218が有する歪みをキャンセルする処理を行い、その後モアレ除去等を行うためにローパスフィルタをかける処理を行う。
次に、ステップS904では、表示画像処理部215は、ステップS902による画像処理済みの合成画像を、表示ユニット216に送出する。これにより、表示ユニット216には、表示画像処理部215による画像処理済みの合成画像が表示される。
そして処理をステップS901に戻し、次のフレームについて以降の処理を行う。
図10は、画像処理装置202が行う処理のフローチャートである。なお、図10に示したフローチャートに従った処理は、1フレーム分の画像について行う処理であるので、実際には係るフローチャートに従った処理を各フレームの画像について行うことになる。
先ず、ステップS1001では、指標抽出部209、撮像画像切り出し部208は、通信路203を介してHMD201から送信された撮像画像を取得する。
次に、ステップS1002では、指標抽出部209は、ステップS1001において取得した撮像画像から指標を検出する。
次に、ステップS1003では、指標優先度設定部210は、ステップS1002において指標抽出部209が抽出したそれぞれの指標の検出位置に基づいて、それぞれの指標に対して優先度を設定する。ステップS1003における処理の詳細については図11を用いて後述する。
次にステップS1004では、収束演算部211は、ステップS1002において指標抽出部209が抽出したそれぞれの指標と、ステップS1003においてそれぞれの指標に対して設定した優先度と、を用いて、撮像ユニット204の位置姿勢情報を求める。
次に、ステップS1005では、CG描画部212は先ず、CGコンテンツデータベース213に登録されているデータを用いて仮想空間を構築する。次に、CG描画部212は、ステップS1004において求めた位置姿勢情報が示す位置姿勢を有する視点から見える仮想空間の画像を生成する。
次に、ステップS1006では、画像合成部214は、撮像画像切り出し部208が切り出した表示画像と、ステップS1005においてCG描画部212が生成した仮想空間の画像と、を合成することで合成画像を生成する。
次に、ステップS1007では、画像合成部214は、ステップS1006において生成した合成画像を、通信路203を介してHMD201に送出する。
図11は、上記ステップS1003における処理の詳細を示すフローチャートである。
先ず、ステップS1101では、指標優先度設定部210は、撮像画像を複数の領域に分割する。分割の方法については特に限定するものではなく、図7(a)に示したように2つに分割しても良いし、図7(b)に示したように4つに分割しても良い。そして次に、それぞれの分割領域に対して優先度を設定する。これは、画像の中心位置に近い領域ほど高い優先度を設定する。なお、ステップS1101における処理は、予め行い、それぞれの分割領域を特定する為の情報と、それぞれの分割領域に対する優先度情報とを指標優先度設定部210が管理しておくようにしても良い。
次に、ステップS1102では、指標優先度設定部210は、上記ステップS1002で検出されたそれぞれの指標の位置を参照し、それぞれの指標がどの分割領域内に属しているのかを判断する。
次に、ステップS1103では、指標優先度設定部210は、それぞれの指標について、属している分割領域に設定されている優先度を設定する。例えば指標Xが分割領域Pに属しているとステップS1102において判断された場合には、ステップS1103では、分割領域Pに対してステップS1101で設定された優先度を、この指標Xに対して設定する。
以上の説明により、本実施形態によれば、撮像画像の一部を表示用の画像とする(撮像画角を表示画角よりも広くする)ことで、表示用の画像には存在しない指標を用いて位置姿勢情報を求めることができる。
また、撮像画像においてより歪みの少ない中央に近い指標を優先的に用いるので、より精度の高い位置姿勢情報を求めることができる。
なお、本実施形態では、撮像画像切り出し部208、指標抽出部209、指標優先度設定部210、収束演算部211は何れも画像処理装置202が有するものとして説明した。しかし、これに限定するものではなく、HMD201がこれらの各部を有するように構成しても良い。
[第2の実施形態]
本実施形態の特徴は、撮像から表示までの時間遅れを低減してリアルタイム性を高めることを実現する点にある。第1の実施形態では画像合成部は画像処理装置側に備わっていたが、本実施形態ではこの画像合成部をHMD側に持たせる。これにより、画像処理装置側で撮像画像を取得するために要していた処理時間を短縮する。
また、本実施形態では、位置姿勢情報の生成に用いる指標の数を限定し、収束演算の処理負荷による遅延を低減する。
さらに本実施形態では、撮像画像の動きに基づいて次の撮像位置をHMD側で予測し、予測方向の画像を切り出して提示する構成を取ることで、撮像から表示までにかかる遅延時間を隠蔽する。また、頭部の動きに応じて指標の優先度を設定することで、位置姿勢情報の生成に用いる指標が頻繁に切り替わることによる仮想空間画像の描画位置のずれを軽減する点も併せて特徴とする。
図12は、本実施形態に係るシステムの機能構成例を示すブロック図である。なお、図12に示した各部のうち、図2に示したものと同じものについては同じ参照番号を付しており、その説明は省略する。即ち、以下の説明では、本実施形態が第1の実施形態と異なる点のみについて説明し、説明しない点については第1の実施形態で説明した技術を用いる。
図12に示す如く、本実施形態に係るシステムは、HMD1201と画像処理装置1202とで構成されている。
先ず、HMD1201について説明する。HMD1201は所謂ビデオシースルー型の頭部装着型表示装置の一例としての表示装置である。本実施形態に係るHMD1201は、複数の撮像画像に基づいて、現フレームにおける撮像画像内の動き量(例えば動きベクトル)を求め、求めた動き量に基づいて、この撮像画像から切り出す表示画像の領域を特定する。そして特定した領域内の画像を表示画像として切り出す。また、本実施形態に係るHMD1201は、求めた動き量に基づいてそれぞれの指標に対する優先度設定を制御すると共に、位置姿勢情報の生成処理を制御する。そしてあとは第1の実施形態と同様に、表示画像と仮想空間画像との合成処理を行い、その結果としての合成画像を表示する。
次に、HMD1201を構成する各部のうち、第1の実施形態と異なる部分について説明する。
撮像ユニット204による撮像画像は、フレームバッファ1210、動き検出部1207、指標抽出部209に送出される。
フレームバッファ1210には、撮像ユニット204から送出された各フレームの撮像画像が蓄積される。
動き検出部1207は、撮像ユニット204から撮像画像(現フレーム)を受けると、この現フレームの撮像画像と、フレームバッファ1210に蓄積されている過去のフレームの撮像画像とを用いて、現フレームの撮像画像内の動き量を求める。この動き量とは、撮像ユニット204の動き量に相当する。なお、複数フレームの画像を用いて、現フレーム内における動き量を求めるための技術については周知の技術であるので、これについての説明は省略する。
動き予測部1208は、現フレームの撮像画像から第1の実施形態で説明したように切り出される表示画像の領域を、上記動き量に基づいて移動させた領域を特定する。このように、現フレームの撮像画像内の任意の領域が、将来どこに移動するのかを特定するための処理については周知の技術であるので、これについての説明は省略する。
撮像画像切り出し部1209は、現フレームの撮像画像において動き予測部1208が特定した領域内の画像を表示画像として切り出す。
指標優先度設定部1212は、指標抽出部209が抽出したそれぞれの指標に対して優先度を設定する。優先度の設定は基本的には第1の実施形態と同様にして行うのであるが、本実施形態では、動き予測部1208による動き量を更に参酌する点が第1の実施形態に係る優先度設定処理と異なる。本実施形態に係る優先度設定処理については図14を用いて後述する。
収束演算部1213は、第1の実施形態と同様の処理を行うことで、撮像ユニット204の位置姿勢情報を求めるのであるが、本実施形態では、収束演算の処理負荷による遅延を低減するために、優先度の高い方から特定の指標だけを収束演算に用いる。
位置姿勢情報補正部1214は、収束演算部1213が求めた位置姿勢情報に基づいて、画像合成時の位置姿勢情報を予測して求める。これにより、仮想空間画像の生成に要する時間に起因して生じる、仮想空間画像と撮像画像との間の位置姿勢のギャップを隠蔽することができる。なお、画像合成時の位置姿勢情報を予測する代わりに、表示時の位置姿勢情報を予測しても良い。その場合、撮像画像に関しては、取得から表示まで若干のタイムラグが生じるが、仮想空間画像に関しては予測が大幅にずれない限りリアルタイム性を保証しているように見せることができる。
なお、現フレームにおける位置姿勢情報から、将来の任意のフレームにおける位置姿勢情報を予測するためには、例えば、次のような処理を行えばよい。即ち、現時点の位置姿勢情報と、過去の複数フレームの位置姿勢情報群とを用いて周知の線形/非線形予測技術を参酌すれば、任意のフレームにおける位置姿勢情報を求めることができる。
なお、本実施形態では、この位置姿勢情報補正部1214をHMD1201側に備えさせているが、画像処理装置1202側に備えさせても良い。また、仮想空間画像の遅れを厭わない場合は、位置姿勢情報補正部1214は省略しても良い。
CG描画部1215は、収束演算部1213が求めた位置姿勢情報を直接用いるのではなく、位置姿勢情報補正部1214が補正した位置姿勢情報を用いること以外については、第1の実施形態と同様の処理を行う。即ち、CG描画部1215は先ず、CGコンテンツデータベース213に登録されているデータを用いて仮想空間を構築する。そして、この構築した仮想空間を、位置姿勢情報補正部1214が補正した位置姿勢情報が示す位置姿勢を有する視点から見た画像を、仮想空間画像として生成する。そしてCG描画部1215は、この生成した仮想空間画像を、通信路203を介してHMD1201に送出する。
画像合成部214は、通信路203を介して画像処理装置1202から送信された仮想空間画像と、撮像画像切り出し部1209が切り出した表示画像との合成を行い、合成画像を生成する。係る合成画像は、表示画像処理部215によって画像処理され、画像処理済みの合成画像は表示ユニット216において表示される。
以上の処理によって、撮像から表示までの時間遅れを低減してリアルタイム性を高めることが可能となる。
次に、撮像画像から表示画像を切り出すための処理について説明する。
図13は、撮像画像から表示画像を切り出すための処理について説明する図である。
図13(a)において1301aは、撮像ユニット204が撮像した現フレームの撮像画像であり、1302aは、現フレームの撮像画像1301aにおける表示領域である。一方、図13(b)において1301bは、現フレーム以降のある時点におけるフレーム(後続フレーム)の撮像画像である。現フレームから後続フレームまでの間に撮像ユニット204の位置姿勢が変化すると、当然ながら撮像画像内のコンテンツも画像内で移動していることになる。係る点は、領域1302a内のコンテンツと同じものは、撮像画像1301bでは領域1302b内に移動していることで明らかである。ここで1303は、撮像画像1301bにおいて領域1302aと位置的に対応する領域である。
ここで、後続フレームに基づいて仮想空間画像を生成する処理には時間を要するので、後続フレームの撮像画像内で仮想空間画像と合成すべき領域は、後続フレームの撮像画像から第1の実施形態の如く切り出した領域(領域1303)からずれてしまっている。
本実施形態では係る点を鑑み、動き予測部1208は以下のような処理を行う。
先ず、動き検出部1207は、撮像画像1301b内の動き量ΔDを求めるのであるが、係る動き量ΔDは、領域1302aと領域1303との位置ずれ量(位置ずれ方向も含む)であるので、この位置ずれ量を動き量ΔDとして求める。そして、現フレームと後続フレームとの間の時間をΔT、後続フレームから合成時までの時間をΔtとすると、撮像画像1301bに基づいて生成される仮想空間画像と合成する、撮像画像1301b上の領域Rは次のようにして求める。即ち、領域Rは、ΔDの大きさにΔt/ΔTを掛け合わせた量だけ、ΔDが示す方向とは逆の方向に領域1303を移動させた場合に得られる領域となる。この領域Rが即ち、領域1304となる。
そして撮像画像切り出し部1209は撮像画像1301bにおいて領域1304内の画像を表示画像として切り出し、画像合成部214に送出する。
次に、指標優先度設定部1212が行う処理についてより詳細に説明する。
図14は、動き量に基づいて優先度設定を行う場合の処理を説明する図である。
1401aはあるフレーム(フレーム1)における撮像画像であり、1401bはフレーム1の後のフレーム(フレーム2)における撮像画像である。また、1401cはフレーム2の後のフレーム(フレーム3)における撮像画像であり、1401dはフレーム2の後のフレーム(フレーム4)における撮像画像である。
1402a、1402b、1402c、1402dは何れも表示領域、1403a、1403b、1403c、1403dは何れも非表示領域である。上述の通り、表示領域内の指標に対する優先度は、非表示領域内の指標に対する優先度よりも高い。
ここで、位置姿勢情報の算出に優先的に用いている指標を他の指標に変更すると、処理時間が一定ではなくなるという問題や、演算時差によって仮想空間画像の描画位置がずれてしまうという問題がある。例えば、HMD装着者が動いた場合、第1の実施形態(図7)において説明した優先度設定処理を行うと、指標の優先度が頻繁に変更される場合があり、結果として位置姿勢情報の算出に用いる指標が度々変更される状態になる。この状態を軽減するため、動きが一定値以上ある場合は、現在用いている指標の優先度の変更は行わないようにする。
例えば、撮像画像1401aにおいて指標1404aに対する優先度は、指標1405aに対する優先度よりも高いので、この場合には、収束演算部1213は、指標1404aのみを用いて位置姿勢情報の演算処理を行う。
次に、撮像画像1401aを撮像した後で装着者の頭部が動き、撮像画像1401bが撮像されたとする。この場合、撮像画像1401bでは、指標1404aが表示領域1402b内から非表示領域1403b内に移動したので、第1の実施形態に係る優先度設定処理によれば、指標1404aの優先度は低い値に更新される。本実施形態では、撮像画像1401b内の動き量が閾値以上であれば、この指標1404aの優先度の変更は行わない。また、撮像画像1401bでは、指標1405bは非表示領域1403bから表示領域1402b内に移動したので、本実施形態においても、指標1405bの優先度は高い値に更新される。なお、本実施形態では、位置姿勢情報の算出に用いている指標が指標1404aのみであるので、動き量が閾値以上であれば、この指標1404aの優先度の変更は行わないようにしている。しかし、位置姿勢情報の算出に指標1405aも用いている場合には、動き量が閾値以上であれば、この指標1405aの優先度の変更についても行わないようにする。
次に、撮像画像1401bが撮像された後で撮像画像1401cが撮像されたとする。そして更に、撮像画像1401bを撮像してから撮像画像1401cを撮像するまでに装着者の頭部が殆ど動かなかったとする。この場合には、第1の実施形態と同様の処理を行う。この場合、指標1404aについては非表示領域1403c内に位置しているので、この指標1404aの優先度を非表示領域1403cに応じた優先度に変更する。また、指標1405aについては表示領域1402c内に位置しているので、この指標1405aの優先度を表示領域1402cに応じた優先度に変更する。
また、撮像画像1401bが撮像された後で装着者の頭部が右側に向き、その後、撮像画像1401dが撮像されたとする。指標1404aが撮像画像1401dの端部に極めて近い位置に存在したり、あるいは撮像画像1401dから外れたりした場合は、指標1404aの優先度を変更対象から外す。この場合は動き方向に近く、動きが続いても画面から外れずに使用し続けることが可能な指標1406dの優先度を高くするように変更を行う。
図15は、HMD1201において、表示画像を確定すると共に、位置姿勢情報を生成して画像処理装置1202に送信する為の処理のフローチャートである。なお、図15に示したフローチャートに従った処理は、1フレーム分の合成画像を生成するために行う処理であるので、実際には係るフローチャートに従った処理を各フレームについて行うことになる。
先ず、ステップS1501では、撮像ユニット204は現実空間の画像を撮像し、撮像した画像をフレームバッファ1210、動き検出部1207、指標抽出部209に送出する。
次に、ステップS1502では、動き検出部1207、動き予測部1208により、ステップS1501において取得した撮像画像から切り出す表示画像を確定させる。ステップS1502における処理の詳細については図18を用いて後述する。
次に、ステップS1503では、指標抽出部209は、撮像ユニット204から取得した撮像画像から指標を検出する。なお、ステップS1502とステップS1503とは並行して行っても良い。
次に、ステップS1504では、指標優先度設定部1212は、指標抽出部209が抽出したそれぞれの指標に対して優先度を設定する。ステップS1504における処理の詳細については図19を用いて後述する。
次に、ステップS1505では、収束演算部1213は、第1の実施形態と同様の処理を行うことで、撮像ユニット204の位置姿勢情報を求めるのであるが、本実施形態では、優先度の高い方から特定の指標だけを収束演算に用いる。
次に、ステップS1506では、位置姿勢情報補正部1214は、ステップS1505において収束演算部1213が求めた位置姿勢情報を上述のようにして補正する。
次に、ステップS1507では、位置姿勢情報補正部1214は、ステップS1506において補正した位置姿勢情報を、通信路203を介して画像処理装置1202に送信する。
そして、処理をステップS1501に戻し、次のフレームについて以降の処理を行う。
図16は、HMD1201において、1フレーム分の合成画像を生成して表示する処理のフローチャートである。なお、図16に示したフローチャートに従った処理は、1フレーム分の合成画像について行う処理であるので、実際には係るフローチャートに従った処理を各フレームについて行うことになる。
先ず、ステップS1601では、画像合成部214は、通信路203を介して画像処理装置1202から送信された仮想空間画像を受信する。
次に、ステップS1602では、撮像画像切り出し部1209は、上記ステップS1501において取得した撮像画像から、上記ステップS1502において動き予測部1208によって特定された領域内の画像を表示画像として切り出す。
次に、ステップS1603では、画像合成部214は、ステップS1602において撮像画像切り出し部1209によって切り出された表示画像と、ステップS1601において画像処理装置1202から受信した仮想空間画像とを合成し、合成画像を生成する。
次に、ステップS1604では、表示画像処理部215は、ステップS1603において生成した合成画像に対して、第1の実施形態と同様の画像処理を行う。
次に、ステップS1605では、表示ユニット216は、ステップS1604において画像処理済みの合成画像を表示する。
図17は、画像処理装置1202が行う処理のフローチャートである。なお、図17に示したフローチャートに従った処理は、1フレーム分の仮想空間画像を生成するための処理であるので、実際には、図17のフローチャートに従った処理を、各フレームについて行うことになる。
先ず、ステップS1701では、CG描画部1215は、通信路203を介してHMD1201から受信した位置姿勢情報を受信する。
次に、ステップS1702では、CG描画部1215は、第1の実施形態と同様にして、CGコンテンツデータベース213に登録されているデータと、ステップS1701で受信した位置姿勢情報とを用いて、仮想空間画像を生成する。
次に、ステップS1703では、CG描画部1215は、ステップS1702で生成した仮想空間画像を、通信路203を介してHMD1201に送信する。
図18は、上記ステップS1502における処理の詳細を示すフローチャートである。 先ず、ステップS1801では、動き検出部1207は、ステップS1501で取得した現フレームの撮像画像と、フレームバッファ1210に蓄積されている、現フレームの直前の撮像画像と、を用いて、現フレームの撮像画像における動き量を求める。
次に、ステップS1803では、動き予測部1208は、上記処理を行うことで、現フレームの撮像画像において、表示画像を切り出すための領域を特定する。
図19は、上記ステップS1504における処理の詳細を示すフローチャートである。なお、上述の通り、ステップS1504における処理は、指標優先度設定部1212において行われるので、当然の如く、図19に示した各ステップにおける処理は全て指標優先度設定部1212が行う。
先ず、ステップS1901では、現在、位置姿勢情報の生成に用いられている(用いる)指標があるのか否か(トラッキングされている指標があるか否か)を判断する。この判断の結果、トラッキングされている指標がある場合には処理をステップS1902に進め、トラッキングされている指標が無い場合には処理をステップS1906に進める。
次に、ステップS1902では、撮像ユニット204の動きにより前段で確認したトラッキング対象となる指標が撮像画像外へ外れた場合を考慮し、撮像画像内にトラッキング対象の指標があるか否かを判断する。ある場合は処理をステップS1903に進め、ない場合は処理をステップS1906に進める。
次に、ステップS1903では、動き検出部1207で求めた動き量が閾値以上であるか否かを判断する。この判断の結果、動き量が閾値以上であれば、処理をステップS1904に進める。一方、動き量が閾値よりも小さい場合には、処理をステップS1906に進める。
ステップS1904では、トラッキング対象の指標が撮像画像の端部から一定以上離れているか否かを判断することで、さらに動きがあっても撮像画像から外れずに使用し続けることが可能か否かを判断する。可能と判断された場合は処理をステップS1905に進め、可能ではないと判断された場合は処理をステップS1907に進める。
次に、ステップS1905では、トラッキングされている指標の優先度については変更しないようにする。
一方、ステップS1906では、第1の実施形態と同様に、トラッキングされている各指標に対して優先度を設定する。
一方、ステップS1907では、動き検出部1207求めた動き量が示す撮像ユニット204の動き方向への画像の一端に近い指標をトラッキング対象に設定し、優先度を再設定する。
以上の説明により、本実施形態によれば、撮像から表示までの時間遅れを低減してリアルタイム性を高める構成において、位置姿勢情報の生成に用いる指標が頻繁に切り替わることによる仮想空間画像の描画位置のずれを軽減することができる。
なお、本実施形態では、動き検出を撮像画像を用いて行う手法で説明してきたが、ジャイロセンサや磁気センサなどの装置に取り付けられた三次元位置姿勢センサを用いたり、併用したりする手法を用いても良い。その場合は、三次元位置姿勢センサをHMDに装着し、このセンサによる動き情報を動き予測部1208に送って動き予測を行う。センサ単体で動き予測を行う場合は、動き検出部1207とフレームバッファ1210は不要となる。
[第3の実施形態]
本実施形態に係るシステムは、装着者の右目近傍から見える現実空間を撮像する為の撮像ユニットと、左目近傍から見える現実空間を撮像する為の撮像ユニットを有する。ここで、それぞれの撮像ユニットの視界は重なり合わないようにする。即ち、それぞれの撮像ユニットによる撮像画像には重なって同じ風景が写らないようにする。これにより、指標を検出する為の視界をさらに広げることができる。
図20は、本実施形態に係るシステムの機能構成例を示すブロック図である。なお、図20に示した各部において、図12に示したものと同じものについては同じ参照番号を付している。図20に示す如く、本実施形態に係るシステムは、画像処理装置1202とHMD2001とを有する。即ち、本実施形態に係るシステムは、HMD2001のみが第2の実施形態と異なる。従って、以下では、HMD2001について説明する。
HMD2001は、HMD1201の構成を下記のように修正したものとなっている。先ず、図12に示した撮像ユニット204、指標抽出部209、指標優先度設定部1212は、HMD2001では右目用と左目用とに分けられている。図20において、Rが付いた参照番号は、装着者の右目に対しての構成を指し示しており、Lが付いた参照番号は、装着者の左目に対しての構成を指し示している。
更に、HMD2001は、HMD1201に、撮像画像選択部2011、位置姿勢情報格納部2021が加わっている。また、収束演算部2012の動作については収束演算部1213と同じであるが、撮像画像選択部2011が選択した方の撮像画像からの指標の情報に基づいて位置姿勢情報を求める点が、第2の実施形態とは異なる。
なお、撮像画像切り出し部1209、CG描画部1215、画像合成部214、表示画像処理部215、表示ユニット216については右目、左目で共有しているが、それぞれの目について設けるようにしても良い。
以下に、HMD2001の特徴的な構成について説明する。なお、以下において特に説明していない点については第2の実施形態と同じであるものとする。
撮像ユニット204L、204Rのそれぞれは、撮像ユニット204と同様の処理を行うことで、それぞれの視界内の現実空間画像を撮像することになる。ここで、上述の通り、より広く現実空間を撮像し、少しでも多くの指標を視界内に納めるべく、撮像ユニット204L、204Rのそれぞれの視界が重複することがないようにそれぞれの撮像ユニット204L、204Rの光軸を予め調整しておく。
撮像ユニット204Lは、撮像した画像を、後段の指標抽出部209Lに送出する。撮像ユニット204Rは、撮像した画像を、後段の指標抽出部209R、動き検出部1207、フレームバッファ1210に送出する。
指標抽出部209R、209Lはそれぞれ、撮像ユニット204R,204Lから受けた撮像画像から、第1の実施形態と同様にして指標を検出する。
指標優先度設定部1212L、1212Rはそれぞれ、第2の実施形態と同様にして、それぞれの指標に対して優先度を設定する。
撮像画像選択部2011は、指標抽出部209R,209L及び指標優先度設定部1212R,1212Lがそれぞれ左右の撮像画像について求めた指標の数(検出結果)や優先度、動き検出部1207が求めた動き量に基づいて、次のような判断処理を行う。即ち、右目用の撮像画像(撮像ユニット204Rが撮像した画像)、左目用の撮像画像(撮像ユニット204Lが撮像した画像)のうち、収束演算部2012が位置姿勢情報を求めるために用いる撮像画像を選択する。なお、この撮像画像選択部2011を無くし、収束演算部2012が左右両方の撮像画像を用いて位置姿勢情報を算出する構成も考えられるが、遅延の原因となる演算処理のプロセスが増えるのと同時に回路規模も増える。そのため、本実施形態では撮像画像選択部2011は必要として考える。
位置姿勢情報格納部2021には、位置姿勢情報補正部1214が過去の各フレームにおいて求めたそれぞれの位置姿勢情報が蓄積される。
本実施形態が第2の実施形態と大きく異なる点は、左右の撮像ユニットでそれぞれ現実空間画像を撮像し、撮像画像選択部2011で位置姿勢情報の生成に左右の撮像画像のどちらを用いるかを選択する点である。
図21は、左右の撮像画像中における表示領域を説明するための図である。2101Lは左目用の撮像画像、2101Rは右目用の撮像画像である。2102Lは、左目用の撮像画像2101L中の表示領域、2102Rは、右目用の撮像画像2101R中の表示領域である。
2105Lは、撮像画像2101Lの上端から表示領域2102Lの上端までの距離を示し、2106Lは、撮像画像2101Lの下端から表示領域2102Lの下端までの距離を示す。2103Lは、撮像画像2101Lの左端から表示領域2102Lの左端までの距離を示し、2104Lは、撮像画像2101Lの右端から表示領域2102Lの右端までの距離を示す。
2105Rは、撮像画像2101Rの上端から表示領域2102Rの上端までの距離を示し、2106Rは、撮像画像2101Rの下端から表示領域2102Rの下端までの距離を示す。2103Rは、撮像画像2101Rの左端から表示領域2102Rの左端までの距離を示し、2104Rは、撮像画像2101Rの右端から表示領域2102Rの右端までの距離を示す。
表示画角と撮像画角が等しいビデオシースルー型HMDでは、装着者が融像できるように左右の撮像画像がある程度の視距離でオーバーラップするように光学系の軸が設計されるのが一般的である。一方、本実施形態では、撮像画像が表示画像よりも大きく、左右の撮像画像で非表示領域をオーバーラップさせる必要が無いため、左右で、撮像画像中の表示領域の位置を異ならせても良い。例えば、図21に示す如く、距離2103L>距離2103Rというように、撮像画像の中の表示領域の位置を左右の撮像画像で異ならせても良い。距離2103R<距離2103L、距離2104L<距離2104Rとすることで、指標を検出することが可能なエリアを左右方向に広くとることができる。また、距離2105L、距離2106Lについては、例えば、下方向に多くの指標を配置する環境下での使用が想定されるならば、距離2105L<距離2106Lとすれば良い。これは、距離2105R、2106Rについても同じである。
このように、撮像画像中の表示領域の位置については左右で予め適宜決めておく。
図22は、HMD2001において、表示画像を確定すると共に、位置姿勢情報を生成して画像処理装置1202に送信する為の処理のフローチャートである。なお、図22に示したフローチャートに従った処理は、1フレーム分の合成画像を生成するために行う処理であるので、実際には係るフローチャートに従った処理を各フレームについて行うことになる。
先ず、ステップS2201では、撮像ユニット204L、204Rはそれぞれ現実空間の画像を撮像し、撮像した画像をフレームバッファ1210、動き検出部1207、指標抽出部209L、209Rに送出する。
次に、上記ステップS1801における処理を行うことで、動き量を求める。
次に、ステップS2203では、指標抽出部209L,209Rはそれぞれ、撮像ユニット204L,204Rから取得した撮像画像から指標を検出する。なお、ステップS2202とステップS2203とは並行して行っても良い。
次に、ステップS2204では、指標優先度設定部1212L,1212Rはそれぞれ、指標抽出部209L,209Rが抽出したそれぞれの指標に対して優先度を設定する。本ステップにおける処理は、上記ステップS1504における処理を左右の撮像画像に対して行うものである。
次に、ステップS2205では、撮像画像選択部2011は、左右の何れか1つの撮像画像を選択する処理を行う。ステップS2205における処理の詳細については、図25を用いて後述する。
次に、ステップS1803では、動き検出部1207、動き予測部1208により、ステップS2205で選択した撮像画像について、切り出す表示画像を確定させる。
次にステップS2206では、収束演算部2012は、撮像画像選択部2011が右目用の撮像画像を選択した場合には、右目用の撮像画像から抽出された指標を用いて第2の実施形態と同様の処理を行うことで、撮像ユニット204Rの位置姿勢情報を求める。一方、収束演算部2012は、撮像画像選択部2011が左目用の撮像画像を選択した場合には、左目用の撮像画像から抽出された指標を用いて第2の実施形態と同様の処理を行うことで、撮像ユニット204Lの位置姿勢情報を求める。
次に、ステップS2207では、位置姿勢情報補正部1214は、ステップS2206において収束演算部2012が求めた位置姿勢情報を上述のようにして補正する。
次に、ステップS2208では、位置姿勢情報補正部1214は、ステップS2207において補正した位置姿勢情報を、通信路203を介して画像処理装置1202に送信する。
そして、処理をステップS2201に戻し、次のフレームについて以降の処理を行う。 図23は、HMD装着者に動きがある場合に、位置姿勢情報生成に用いる撮像画像の選択制御を説明する為の図である。
2301Lは左目用の撮像画像である。2302Lは撮像画像2301L内で優先度が高い(領域2303Lに比べて)領域であり、2303Lは撮像画像2301L内で優先度が低い(領域2302Lに比べて)領域である。2305Lは撮像画像2301L内の表示領域の枠部を示している。2304Lは撮像画像2301L内に写っている指標で、図23では、この指標2304Lは、優先度が高い領域2302L内で且つ表示領域2305L内に位置している。
一方、2301Rは右目用の撮像画像である。2302Rは撮像画像2301R内で優先度が高い(領域2303Rに比べて)領域であり、2303Rは撮像画像2301R内で優先度が低い(領域2302Rに比べて)領域である。2305Rは撮像画像2301R内の表示領域の枠部を示している。2304Rは撮像画像2301R内に写っている指標で、図23では、この指標2304Rは、優先度が低い領域2303R内で且つ表示領域2305R内に位置している。
位置姿勢情報の算出に用いる為の左右撮像画像の切り替えは、仮想空間画像の描画位置のずれの発生の原因となるため、なるべく切り替えが起こらないことが望ましい。HMD2001が動く場合、位置姿勢情報の算出に用いる左右どちらかの撮像画像中の指標が撮像画像から外に出やすい位置にあると、継続して同じ撮像画像を用いることができない。そのためHMD2001に一定以上の動きがある場合は、撮像画像選択部2011は、指標が動き方向に近い方の撮像画像を選択する。
動き方向が左方向の場合、優先度が高い領域内に指標が位置しているのは撮像画像2301Lの方であるが、撮像画像の左端(動き方向が左であるため。動き方向が右であれば右端)に指標が近いのは撮像画像2301Rである。従って、撮像画像選択部2011は、撮像画像2301Rを選択する。逆に動き方向が右方向の場合は、動き方向である右に指標2304が近い右側の撮像画像を選択する。
図24は、位置姿勢情報の生成に用いる撮像画像の選択制御として別の例を説明するための図である。
2401Lは左目用の撮像画像である。2402Lは撮像画像2401L内で優先度が高い(領域2403Lに比べて)領域であり、2403Lは撮像画像2401L内で優先度が低い(領域2402Lに比べて)領域である。2405Lは撮像画像2401L内の表示領域の枠部を示している。2404Lは撮像画像2401L内に写っている指標で、図24では、この指標2404Lは、優先度が高い領域2402L内で且つ表示領域2405L内に位置している。
一方、2401Rは右目用の撮像画像である。2402Rは撮像画像2401R内で優先度が高い(領域2403Rに比べて)領域であり、2403Rは撮像画像2401R内で優先度が低い(領域2402Rに比べて)領域である。2405Rは撮像画像2401R内の表示領域の枠部を示している。2404Rは撮像画像2401R内に写っている指標で、図24では、この指標2404Rは、優先度が低い領域2403R内で且つ表示領域2405R内に位置している。
前述したように、撮像領域の中央に近い指標を用いた方が精度の高い位置姿勢情報を生成することができるため、より中央に近い指標を有する撮像画像を位置姿勢情報の算出に用いるのが望ましい。そこで、左右の撮像画像の指標2404L、2404Rの優先度がそれぞれ異なる場合、優先度が高い指標が存在する方の撮像画像を用いる。図24では上述の通り、指標2404Lは優先度が高い領域2402L内に位置しており、指標2404Rは優先度が低い領域2403R内に位置しているので、指標2404Lを含む撮像画像2401Lを、位置姿勢情報生成に用いる画像として選択する。
また、存在する指標の数が多い撮像画像を用いた方が、位置姿勢情報の算出に用いる左右撮像画像の切り替えの頻度を抑えられるため、優先度が高い指標が数多く存在する方の撮像画像を用いても良い。優先度が高い指標が同数の場合は、次に優先度が高い指標の数の多い方の撮像画像を用いる。
図25は、上記ステップS2205における処理の詳細を示すフローチャートである。
ステップS2501では、撮像画像選択部2011は、指標抽出部209Rが検出した指標の数、指標抽出部209Lが検出した指標の数を参照し、何れかの数が1以上であるのか否かをチェックする。即ち、右目用の撮像画像、左目用の撮像画像の少なくとも一方に1以上の指標が映っているのか否かを判断する。係る判断の結果、右目用の撮像画像、左目用の撮像画像の少なくとも一方に1以上の指標が映っている場合には処理をステップS2503に進め、何れの撮像画像にも指標が映っていない場合には処理をステップS2502に進める。
ステップS2502では、位置姿勢情報格納部2021に格納されている位置姿勢情報と、動き予測部1208が求めた動き量と、を用いて、位置姿勢情報を生成するよう、収束演算部2012,位置姿勢情報補正部1214に指示する。
一方、ステップS2503では、右目用の撮像画像、左目用の撮像画像の一方のみに1以上の指標が映っているのか否かを判断する。係る判断処理は、指標抽出部209Rが検出した指標の数、指標抽出部209Lが検出した指標の数を参照し、一方の数が0、他方の数が1以上であるか否かを判断することで行うことができる。係る判断の結果、一方の撮像画像のみに1以上の指標が映っている場合には処理をステップS2504に進め、両方の撮像画像内に1以上の指標が映っている場合には、処理をステップS2507に進める。
ステップS2504では、左目用の撮像画像のみに1以上の指標が映っているのか否かを判断する。係る判断処理は、指標抽出部209Rが検出した指標の数が0、指標抽出部209Lが検出した指標の数が1以上であるか否かを判断することで行うことができる。係る判断の結果、左目用の撮像画像のみに1以上の指標が映っている場合には処理をステップS2505に進め、右目用の撮像画像のみに1以上の指標が映っている場合には、処理をステップS2506に進める。
ステップS2505では、位置姿勢情報の生成に用いる撮像画像として、左目用の撮像画像を選択する。
一方、ステップS2506では、位置姿勢情報の生成に用いる撮像画像として、右目用の撮像画像を選択する。
一方、ステップS2507では、動き予測部1208が求めた動き量が閾値以上であるか否かを判断する。係る判断の結果、動き量が閾値以上であれば、処理をステップS2508に進め、閾値よりも小さければ、処理をステップS2511に進める。
ステップS2508では、現在、位置姿勢情報の生成に用いている方の撮像画像内に、使用が続行できる指標があるか否かを判断する。係る判断処理は上述の通り、現在使用している撮像画像の指標が他方の撮像画像の指標よりも動き検出部1207で検出した動き方向の端部に近いか否かを判断することで行う。係る判断処理で、使用が続行できる指標があると判断した場合には、処理をステップS2509に進め、ないと判断した場合には、処理をステップS2510に進める。
ステップS2509では、現在、位置姿勢情報の生成に用いている撮像画像を選択する。
一方、ステップS2510では、現在、位置姿勢情報の生成に用いていない方の撮像画像を選択する。
一方、ステップS2511では、撮像画像選択部2011は、指標抽出部209Rが検出した指標のうち優先度が高い領域から検出した指標の数xと、指標抽出部209Lが検出した指標のうち優先度が高い領域から検出した指標の数yとを比較する。そして、y≧xであるのか否かを判断する。x=yの場合は次に優先度の高い領域の指標の数を比較する。これも同数の場合は指標の数に違いがあるまで比較を繰り返す。
係る判断の結果、y≧xである場合には処理をステップS2512に進め、y<xであれば処理をステップS2513に進める。
ステップS2512では、位置姿勢情報の生成に用いる撮像画像として、左目用の撮像画像を選択する。
一方、ステップS2513では、位置姿勢情報の生成に用いる撮像画像として、右目用の撮像画像を選択する。
以上の説明により、本実施形態によれば、指標を検出することが可能なエリアをさらに広くするので、現実空間に配置する指標の間隔を広くすることができる。
[第4の実施形態]
本実施形態に係るシステムは、撮像画像内の指標の位置に応じて仮想物体の描画処理を制御することで、仮想物体が表示画像内に出入りする際の違和感を軽減する。係る構成は特に、各指標にそれぞれ異なる仮想物体の座標空間が適用される場合に効果的である。
なお、本実施形態には、第1乃至3の実施形態の何れのシステムを用いても良い。
図26は、各指標(マーカ)にそれぞれ異なる仮想物体が対応づけられており、それぞれの指標の位置に、対応する仮想物体が配されている様子を示す図である。
2601a、2601b、2601cは2次元バーコードが記されているマーカである。2602a、2602b、2602cはそれぞれ、マーカ2601a、2601b、2601cを基準とする座標系(三次元座標軸)である。2603a、2603b、2603cはそれぞれ、座標系2602a、2602b、2602c内に配された仮想物体である。
それぞれの座標系2602a、2602b、2602cは独立しているため、それぞれの仮想物体2603a、2603b、2603cは、対応するマーカ以外のマーカの影響を受けない。本実施形態ではこのように、それぞれの仮想物体がそれぞれ異なる指標に対応することを前提として説明する。
図27は、撮像画像内の指標の位置に配置する仮想物体の描画処理を、係る位置に基づいて制御する処理を説明する為の図である。
2701は撮像画像である。2702は撮像画像2701内で優先度が高い(領域2703に比べて)領域であり、表示領域でもある。2703は撮像画像2701内で優先度が低い(領域2702に比べて)領域である。2706は、表示領域内の仮想空間画像を示している。2704,2705は撮像画像2701内に映っている指標で、この位置に仮想物体を配置するので、仮想空間画像2706に示す如く、指標2704の位置には仮想物体2707が配されており、指標2705の位置には仮想物体2708が配されている。
第1乃至第3の実施形態で説明してきたように、撮像領域を表示領域よりも広くしても、仮想物体のサイズが大きい場合、撮像領域に指標が出現したり消えたりした途端、これに合わせて仮想物体も急に表示されたり消えたりする現象が発生することがある。この現象は観察者の違和感につながる。本実施形態では、この違和感を軽減するために、撮像画像内の指標の位置に応じて、この指標の位置に配置する仮想物体の描画処理を制御する。以下に、係る処理を、図27を例として用いて説明する。
撮像画像2701の中で表示領域に近い方から優先度が高い領域2702、優先度が低い領域2703に分ける。ここでは領域を2つに分けているが、3つ以上の領域に分けても良い。優先度の低い領域2703内に位置している指標2705に対応する仮想物体2708は目立たなくなるような処理で描画をする。例えば、透明度を高くしたり、明るさを低くしたりすることが想定される。一方、優先度が高い領域2702内に位置している指標2704に対応する仮想物体2707は、目立たなくなるような処理を行わないか、目立たなくなる度合いを、仮想物体2708よりも低くする。
仮想物体が表示領域のどこに存在するかによって仮想物体の描画方法を変更するこの処理は、表示領域の外側部分には観察者の注意が向いていないことを想定して行うものである。表示領域に対する仮想物体の相対的なサイズが大きい場合は、指標が表示領域の外側にあっても、表示領域中央に描画される可能性があるため、サイズを考慮して処理の適用を加減する。すなわち、表示領域中央付近に描画される場合は目立たなくなる処理を適用しないか、同一の仮想物体であっても外側へいくに従って目立たなくなる処理を段階的に適用する。
図28は、本実施形態に係る仮想物体描画処理のフローチャートである。ここでは、第1の実施形態において、係る仮想物体描画処理を行う場合について説明する。従ってこの場合、図28に示したフローチャートに従った処理は、上記ステップS1005において実行されることになる。
ステップS2803では、それぞれの指標の位置に対応する仮想物体を配置する場合、指標の優先度を参照し、優先度がより低い指標の位置に配する仮想物体ほど、より目立たなくなるような描画方法でもって描画する。即ち、描画の際に優先度に応じて目立つ度合いを制御する以外は、第1の実施形態と同様にして仮想空間画像を生成する。もちろん、上述の通り、優先度が低い指標の位置に配置する仮想物体のサイズが表示領域に比べて大きい場合には、目立つ度合いをあまり下げないようにする。
以上の説明により、本実施形態によれば、仮想物体が表示領域に出入りする場合の違和感を軽減することが可能である。
なお、第1乃至第4の実施形態では、HMDをビデオシースルー型HMDとして説明してきたが、光学シースルー型HMDに置き換えても良い。この場合、表示する画像は仮想物体画像となるので、画像合成部は省いても良い。
[第5の実施形態]
第1乃至3の実施形態ではそれぞれ、図2,12,20に示した画像処理装置を構成する各部は全てハードウェアで構成されているものとして説明した。しかし、CGコンテンツデータベース213についてはメモリで構成し、それ以外の各部をソフトウェアでもって構成しても良い。この場合、画像処理装置には、係るソフトウェアを実行するためのCPUと、係るメモリとを有するコンピュータを適用することができる。
図3は、第1乃至3の実施形態に係る画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
CPU301は、RAM302やROM303に格納されているコンピュータプログラムやデータを用いて本コンピュータ全体の制御を行うと共に、第1乃至3の実施形態において画像処理装置が行うものとして上述した各処理を実行する。
RAM302は、外部記憶装置306からロードされたコンピュータプログラムやデータ、I/F(インターフェース)307を介してHMDから受信した様々なデータを一時的に記憶するためのエリアを有する。更には、RAM302は、CPU301が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM302は、各種のエリアを適宜提供することができる。
ROM303には、本コンピュータの設定データや、ブートプログラムなどが格納されている。
操作部304は、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU301に対して入力することができる。
表示部305は、CRTや液晶画面などにより構成されており、CPU301による処理結果を画像や文字などでもって表示することができる。
外部記憶装置306は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置306には、OS(オペレーティングシステム)や、第1乃至3の実施形態において画像処理装置が行うものとして説明した各処理をCPU301に実行させるためのコンピュータプログラムやデータが保存されている。係るコンピュータプログラムには、図2,12,20において、CGコンテンツデータベース213以外の各部の機能をCPU301に実現させるためのコンピュータプログラムが含まれている。また、外部記憶装置306には、CGコンテンツデータベース213も登録されている。外部記憶装置306に保存されているコンピュータプログラムやデータは、CPU301による制御に従って適宜RAM302にロードされ、CPU301による処理対象となる。
I/F307は、上記通信路203に本コンピュータを接続するためのもので、本コンピュータは、このI/F307を介して通信路203上のHMDとのデータ通信を行う。
308は、上述の各部を繋ぐバスである。
次に、第1乃至3の実施形態において説明したHMDには、例えば、図4に示したハードウェア構成例を示すHMDを適用することができる。図4は、第1乃至3の実施形態に係るHMDに適用可能なHMDのハードウェア構成例を示すブロック図である。
撮像ユニット401は、上記撮像ユニット204(204R,204L)に対応するものである。
表示ユニット402は、上記表示ユニット216に対応するものである。
RAM403は、I/F407を介して画像処理装置から取得したデータを一時的に記憶するためのエリアを有すると共に、上記フレームバッファ1210、位置姿勢情報格納部2021としても機能する。更にRAM403は、CPU406が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM403は各種のエリアを適宜提供することができる。
ROM404には、HMDの設定データや、図2,12,20において、撮像ユニット、表示ユニット、フレームバッファ1210、位置姿勢情報格納部2021を除く各部の機能をCPU406に実行させるためのコンピュータプログラムが格納されている。
CPU406は、ROM404やRAM403に格納されているコンピュータプログラムやデータを用いてHMD全体の制御を行うと共に、HMDが行うものとして第1乃至3の実施形態において説明した上述の各処理を実行する。
I/F407は、上記通信路203にHMDを接続するためのもので、HMDは、このI/F407を介して通信路203上の画像処理装置とのデータ通信を行う。
408は上述の各部を繋ぐ、バスである。
なお、上記各実施形態は適宜組み合わせて用いても良い。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムに適用可能なシステムの外観例を示す図である。 本発明の第1の実施形態に係るシステムの機能構成例を示すブロック図である。 第1乃至3の実施形態に係る画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。 第1乃至3の実施形態に係るHMDに適用可能なHMDのハードウェア構成例を示すブロック図である。 現実空間中に配されている指標としてのマーカを示す図である。 撮像画像と表示画像との対応関係を示す図である。 2種類の優先度設定方法について示す図である。 撮像ユニット204、撮像画像処理部207による処理のフローチャートである。 表示画像処理部215、表示ユニット216による処理のフローチャートである。 画像処理装置202が行う処理のフローチャートである。 ステップS1003における処理の詳細を示すフローチャートである。 本発明の第2の実施形態に係るシステムの機能構成例を示すブロック図である。 撮像画像から表示画像を切り出すための処理について説明する図である。 動き量に基づいて優先度設定を行う場合の処理を説明する図である。 HMD1201において、表示画像を確定すると共に、位置姿勢情報を生成して画像処理装置1202に送信する為の処理のフローチャートである。 HMD1201において、1フレーム分の合成画像を生成して表示する処理のフローチャートである。 画像処理装置1202が行う処理のフローチャートである。 ステップS1502における処理の詳細を示すフローチャートである。 ステップS1504における処理の詳細を示すフローチャートである。 本発明の第3の実施形態に係るシステムの機能構成例を示すブロック図である。 左右の撮像画像中における表示領域を説明するための図である。 HMD2001において、表示画像を確定すると共に、位置姿勢情報を生成して画像処理装置1202に送信する為の処理のフローチャートである。 HMD装着者に動きがある場合に、位置姿勢情報生成に用いる撮像画像の選択制御を説明する為の図である。 位置姿勢情報の生成に用いる撮像画像の選択制御として別の例を説明するための図である。 ステップS2205における処理の詳細を示すフローチャートである。 各指標(マーカ)にそれぞれ異なる仮想物体が対応づけられており、それぞれの指標の位置に、対応する仮想物体が配されている様子を示す図である。 撮像画像内の指標の位置に配置する仮想物体の描画処理を、係る位置に基づいて制御する処理を説明する為の図である。 本発明の第4の実施形態に係る仮想物体描画処理のフローチャートである。

Claims (16)

  1. 複数の指標が配された現実空間を撮像する撮像手段と、
    前記撮像手段による撮像画像から前記指標を検出する検出手段と、
    前記検出手段により検出された指標に基づいて前記撮像手段の位置姿勢情報を求める計算手段と、
    前記計算手段が求めた位置姿勢情報に基づいて仮想空間画像を生成する生成手段と、
    前記撮像画像において表示対象領域内の画像を表示画像として抽出する抽出手段と、
    前記抽出手段により抽出された表示画像と前記生成手段が生成した仮想空間画像とを合成することで合成画像を生成する合成手段と、
    前記合成手段による合成画像を表示する表示手段と
    を備えることを特徴とする画像処理装置。
  2. 前記画像処理装置は、前記撮像手段と前記表示手段とを有する装置と、前記検出手段と前記計算手段と前記生成手段と前記抽出手段と前記合成手段とを有する装置とで構成されているシステムであることを特徴とする請求項1に記載の画像処理装置。
  3. 前記計算手段は、
    前記検出手段により検出されたそれぞれの指標に優先度を設定する設定手段を有し、
    優先度の高い指標ほど優先的に用いて前記位置姿勢情報を求めることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記設定手段は、前記撮像画像の中心位置に近い指標ほど高い優先度を設定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記設定手段は、前記撮像画像において表示対象領域内の指標の優先度を、表示対象領域外の指標の優先度よりも高く設定することを特徴とする請求項3に記載の画像処理装置。
  6. 前記設定手段は、前記撮像画像内の動き量が閾値以上であれば、指標に対する優先度の設定は行わないことを特徴とする請求項3に記載の画像処理装置。
  7. 前記計算手段は、前記撮像画像内の動き量に基づいて前記位置姿勢情報を補正することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記抽出手段は、前記撮像画像のうち、前記表示手段で表示可能な範囲内の画像を前記表示画像として抽出することを特徴とする請求項1に記載の画像処理装置。
  9. 前記抽出手段は、前記撮像画像内の動き量に基づいて前記撮像画像から表示対象領域を特定し、特定した表示対象領域内の画像を表示画像として抽出することを特徴とする請求項1に記載の画像処理装置。
  10. 前記撮像手段は右目用の撮像手段と左目用の撮像手段とからなり、
    前記検出手段は前記右目用の撮像手段による撮像画像から前記指標を検出する右目用の検出手段と、前記左目用の撮像手段による撮像画像から前記指標を検出する左目用の検出手段とからなり、
    前記右目用の検出手段による検出結果、前記左目用の検出手段による検出結果、前記撮像画像内の動き量、に基づいて、前記右目用の撮像画像による撮像画像、前記左目用の撮像手段による撮像画像のうち何れか1つを選択する選択手段を更に有し、
    前記計算手段は、前記選択手段が選択した撮像画像から抽出された指標に基づいて前記位置姿勢情報を求め、
    前記抽出手段は、前記右目用の撮像画像による撮像画像、前記左目用の撮像手段による撮像画像のうち何れか1つから表示対象領域内の画像を抽出する
    ことを特徴とする請求項3乃至9の何れか1項に記載の画像処理装置。
  11. 前記選択手段は、前記動き量が閾値よりも小さい場合には、優先度が高い指標がより多く検出された方の撮像画像を選択することを特徴とする請求項10に記載の画像処理装置。
  12. 前記選択手段は、前記動き量が閾値以上である場合には、それぞれの撮像画像のうち、前記動き量が示す動きの方向の端部から最も近い指標を含む撮像画像を選択することを特徴とする請求項10に記載の画像処理装置。
  13. 前記生成手段は、指標の位置に仮想物体を配置した仮想空間の画像を生成する場合、当該指標の優先度に応じて当該仮想物体の透明度、若しくは明るさを制御することを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。
  14. 複数の指標が配された現実空間を撮像手段によって撮像する撮像工程と、
    前記撮像手段による撮像画像から前記指標を検出する検出工程と、
    前記検出工程で検出された指標に基づいて前記撮像手段の位置姿勢情報を求める計算工程と、
    前記計算工程で求めた位置姿勢情報に基づいて仮想空間画像を生成する生成工程と、
    前記撮像画像において表示対象領域内の画像を表示画像として抽出する抽出工程と、
    前記抽出工程で抽出された表示画像と前記生成工程で生成した仮想空間画像とを合成することで合成画像を生成する合成工程と、
    前記合成工程による合成画像を表示する表示工程と
    を備えることを特徴とする画像処理方法。
  15. コンピュータを、請求項1乃至13の何れか1項に記載の画像処理装置が有する各手段として機能させるためのコンピュータプログラム。
  16. 請求項15に記載のコンピュータプログラムを格納した、コンピュータ読み取り可能な記憶媒体。
JP2008264629A 2008-10-10 2008-10-10 画像処理装置、画像処理方法 Active JP5156571B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008264629A JP5156571B2 (ja) 2008-10-10 2008-10-10 画像処理装置、画像処理方法
US12/570,129 US9007445B2 (en) 2008-10-10 2009-09-30 Image processing apparatus and image processing method
US14/628,557 US9558594B2 (en) 2008-10-10 2015-02-23 Image processing apparatus and image processing method
US15/378,221 US10748338B2 (en) 2008-10-10 2016-12-14 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008264629A JP5156571B2 (ja) 2008-10-10 2008-10-10 画像処理装置、画像処理方法

Publications (3)

Publication Number Publication Date
JP2010092436A true JP2010092436A (ja) 2010-04-22
JP2010092436A5 JP2010092436A5 (ja) 2011-11-24
JP5156571B2 JP5156571B2 (ja) 2013-03-06

Family

ID=42098481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008264629A Active JP5156571B2 (ja) 2008-10-10 2008-10-10 画像処理装置、画像処理方法

Country Status (2)

Country Link
US (3) US9007445B2 (ja)
JP (1) JP5156571B2 (ja)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012018665A (ja) * 2010-06-11 2012-01-26 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法
JP2012129824A (ja) * 2010-12-15 2012-07-05 Canon Inc 特徴検出装置、特徴検出方法、およびそのプログラム
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
JP2012178069A (ja) * 2011-02-25 2012-09-13 Nintendo Co Ltd 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
WO2012147702A1 (ja) * 2011-04-28 2012-11-01 シャープ株式会社 ヘッドマウントディスプレイ
JP2014215755A (ja) * 2013-04-24 2014-11-17 キヤノン株式会社 画像処理システム、画像処理装置及び画像処理方法
KR20150025115A (ko) * 2013-08-28 2015-03-10 엘지전자 주식회사 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법
JP2015126352A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
JP2015537205A (ja) * 2012-10-31 2015-12-24 ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG 対象物の姿勢を決定するための方法と装置
JP2016024160A (ja) * 2014-07-24 2016-02-08 株式会社日本自動車部品総合研究所 立体物認識装置
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP2016033457A (ja) * 2014-07-30 2016-03-10 パナソニックIpマネジメント株式会社 位置推定システム及び受信端末
JP2016048239A (ja) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の3d座標を測定するための方法および装置
JP2017120441A (ja) * 2013-05-30 2017-07-06 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡
JP2017181605A (ja) * 2016-03-28 2017-10-05 キヤノン株式会社 情報処理装置、画像表示装置、画像表示システム、および情報処理方法
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2018073366A (ja) * 2016-11-04 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
JP2018201196A (ja) * 2017-05-26 2018-12-20 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、車両走行制御システム、及び画像処理装置
JP2018206054A (ja) * 2017-06-05 2018-12-27 株式会社Psychic VR Lab 記憶定着支援システムおよび記憶定着支援プログラム
WO2019017300A1 (ja) * 2017-07-20 2019-01-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
KR20190065396A (ko) * 2016-10-18 2019-06-11 버츄얼리 라이브 (스위츨랜드) 게엠베하 Hmd 전달 시스템 및 방법
JP2019519015A (ja) * 2016-03-31 2019-07-04 クアルコム,インコーポレイテッド 動的で確率的なワークの削減を伴う幾何学的なワークスケジューリング
CN110633009A (zh) * 2018-06-22 2019-12-31 索尼互动娱乐股份有限公司 用于显示虚拟对象的方法和系统
JP2020048185A (ja) * 2018-09-18 2020-03-26 キヤノン株式会社 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
US10963054B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
US10981053B2 (en) 2017-04-18 2021-04-20 Sony Interactive Entertainment Inc. Vibration control apparatus
US11013990B2 (en) 2017-04-19 2021-05-25 Sony Interactive Entertainment Inc. Vibration control apparatus
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
US11797259B2 (en) 2018-09-18 2023-10-24 Canon Kabushiki Kaisha Imaging display device, wearable device, and imaging display system
US11972045B2 (en) 2019-06-28 2024-04-30 Canon Kabushiki Kaisha Imaging display device and wearable device

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006065563A2 (en) * 2004-12-14 2006-06-22 Sky-Trax Incorporated Method and apparatus for determining position and rotational orientation of an object
JP5156571B2 (ja) * 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法
US9600067B2 (en) * 2008-10-27 2017-03-21 Sri International System and method for generating a mixed reality environment
JP2012023652A (ja) * 2010-07-16 2012-02-02 Sony Corp 画像処理装置と画像処理方法
JP2012048659A (ja) * 2010-08-30 2012-03-08 Canon Inc 画像処理装置、画像処理方法
US9122053B2 (en) 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US10242456B2 (en) * 2011-06-23 2019-03-26 Limitless Computing, Inc. Digitally encoded marker-based augmented reality (AR)
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US8929666B2 (en) * 2011-10-01 2015-01-06 Samsung Electronics Co., Ltd Method and apparatus of generating a multi-format template image from a single format template image
JP6021328B2 (ja) * 2011-12-22 2016-11-09 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5483761B2 (ja) 2012-06-29 2014-05-07 株式会社ソニー・コンピュータエンタテインメント 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
JP5538483B2 (ja) 2012-06-29 2014-07-02 株式会社ソニー・コンピュータエンタテインメント 映像処理装置、映像処理方法、および映像処理システム
KR101861380B1 (ko) * 2012-07-16 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 헤드 마운트 디스플레이를 이용한 컨텐츠 출력 방법 및 이를 위한 헤드 마운트 디스플레이
JP2014067287A (ja) * 2012-09-26 2014-04-17 Toshiba Corp 情報処理装置および表示制御方法
JP5841033B2 (ja) * 2012-09-27 2016-01-06 京セラ株式会社 表示装置、制御システムおよび制御プログラム
JP6233624B2 (ja) * 2013-02-13 2017-11-22 日本電気株式会社 情報処理システム、情報処理方法及びプログラム
JP5900393B2 (ja) * 2013-03-21 2016-04-06 ソニー株式会社 情報処理装置、操作制御方法及びプログラム
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
CN111986328A (zh) * 2013-12-17 2020-11-24 索尼公司 信息处理设备和方法以及非易失性计算机可读存储介质
DE102014202712A1 (de) * 2014-02-14 2015-08-20 Bayerische Motoren Werke Aktiengesellschaft Bildanpassung für kontaktanaloge Darstellungen auf Datenbrillen
JP6618260B2 (ja) * 2015-02-19 2019-12-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
GB2535727A (en) * 2015-02-25 2016-08-31 Bae Systems Plc Interactive information system
KR102317247B1 (ko) * 2015-06-15 2021-10-26 한국전자통신연구원 영상정보를 이용한 증강현실 기반 손 인터랙션 장치 및 방법
US10962780B2 (en) * 2015-10-26 2021-03-30 Microsoft Technology Licensing, Llc Remote rendering for virtual images
GB2548346B (en) * 2016-03-11 2020-11-18 Sony Interactive Entertainment Europe Ltd Image processing method and apparatus
US10203505B2 (en) * 2016-11-16 2019-02-12 Seiko Epson Corporation Feature balancing
EP3648837B1 (en) * 2017-07-05 2023-10-25 Cardiac Pacemakers, Inc. Priority-based medical data management system
US10762691B2 (en) * 2017-09-08 2020-09-01 Microsoft Technology Licensing, Llc Techniques for compensating variable display device latency in image display
JP6770208B2 (ja) * 2018-01-30 2020-10-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置
CN109271022B (zh) * 2018-08-28 2021-06-11 北京七鑫易维信息技术有限公司 一种vr设备的显示方法、装置、vr设备及存储介质
CN111050145B (zh) * 2018-10-11 2022-07-01 上海云绅智能科技有限公司 一种多屏融合成像的方法、智能设备及系统
CN111050144A (zh) * 2018-10-11 2020-04-21 上海云绅智能科技有限公司 基于六折幕场地的投影方法及系统、六折幕场地
US11195498B2 (en) * 2020-01-15 2021-12-07 Charter Communications Operating, Llc Compensating for latency in a streaming virtual reality environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285609A (ja) * 2005-03-31 2006-10-19 Canon Inc 画像処理方法、画像処理装置
JP2008064735A (ja) * 2006-08-11 2008-03-21 Canon Inc 画像処理方法、画像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4111926B2 (ja) * 2004-03-09 2008-07-02 株式会社リコー 画像処理装置、プログラム、記憶媒体及び画像送信方法
US7467061B2 (en) 2004-05-14 2008-12-16 Canon Kabushiki Kaisha Information processing method and apparatus for finding position and orientation of targeted object
JP4566786B2 (ja) 2004-05-14 2010-10-20 キヤノン株式会社 位置姿勢計測方法および情報処理装置
JP4717728B2 (ja) * 2005-08-29 2011-07-06 キヤノン株式会社 ステレオ表示装置及びその制御方法
JP5156571B2 (ja) * 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285609A (ja) * 2005-03-31 2006-10-19 Canon Inc 画像処理方法、画像処理装置
JP2008064735A (ja) * 2006-08-11 2008-03-21 Canon Inc 画像処理方法、画像処理装置

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9282319B2 (en) 2010-06-02 2016-03-08 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
JP2012018665A (ja) * 2010-06-11 2012-01-26 Nintendo Co Ltd 画像表示プログラム、装置、システムおよび方法
US10015473B2 (en) 2010-06-11 2018-07-03 Nintendo Co., Ltd. Computer-readable storage medium, image display apparatus, image display system, and image display method
US9278281B2 (en) 2010-09-27 2016-03-08 Nintendo Co., Ltd. Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP2012129824A (ja) * 2010-12-15 2012-07-05 Canon Inc 特徴検出装置、特徴検出方法、およびそのプログラム
JP2012141779A (ja) * 2010-12-28 2012-07-26 Ns Solutions Corp 拡張現実提供装置、拡張現実提供システム、拡張現実提供方法及びプログラム
JP2012178069A (ja) * 2011-02-25 2012-09-13 Nintendo Co Ltd 情報処理プログラム、情報処理方法、情報処理装置、及び情報処理システム
WO2012147702A1 (ja) * 2011-04-28 2012-11-01 シャープ株式会社 ヘッドマウントディスプレイ
JP2015537205A (ja) * 2012-10-31 2015-12-24 ライカ ジオシステムズ アクチエンゲゼルシャフトLeica Geosystems AG 対象物の姿勢を決定するための方法と装置
US9720087B2 (en) 2012-10-31 2017-08-01 Leica Geosystems Ag Method and device for determining an orientation of an object
JP2014215755A (ja) * 2013-04-24 2014-11-17 キヤノン株式会社 画像処理システム、画像処理装置及び画像処理方法
US9355497B2 (en) 2013-04-24 2016-05-31 Canon Kabushiki Kaisha Image processing system, image processing apparatus, and image processing method for combining CG image with captured image
US10732707B2 (en) 2013-05-30 2020-08-04 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
US10281978B2 (en) 2013-05-30 2019-05-07 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
US11181976B2 (en) 2013-05-30 2021-11-23 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
JP2017120441A (ja) * 2013-05-30 2017-07-06 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡
KR20150025115A (ko) * 2013-08-28 2015-03-10 엘지전자 주식회사 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법
KR102165444B1 (ko) * 2013-08-28 2020-10-14 엘지전자 주식회사 증강현실 이미지를 디스플레이하는 포터블 디바이스 및 그 제어 방법
US10445579B2 (en) 2013-12-26 2019-10-15 Seiko Epson Corporation Head mounted display device, image display system, and method of controlling head mounted display device
JP2015126352A (ja) * 2013-12-26 2015-07-06 セイコーエプソン株式会社 頭部装着型表示装置、画像表示システム、および、頭部装着型表示装置の制御方法
JP2016024160A (ja) * 2014-07-24 2016-02-08 株式会社日本自動車部品総合研究所 立体物認識装置
JP2016033457A (ja) * 2014-07-30 2016-03-10 パナソニックIpマネジメント株式会社 位置推定システム及び受信端末
JP2016048239A (ja) * 2014-08-27 2016-04-07 ステインビッヒラー オプトテヒニク ゲゼルシャフト ミット ベシュレンクテル ハフツング 物体の3d座標を測定するための方法および装置
US10502554B2 (en) 2014-08-27 2019-12-10 Carl Zeiss Optotechnik GmbH Process and device for determining the 3D coordinates of an object
JP2017181605A (ja) * 2016-03-28 2017-10-05 キヤノン株式会社 情報処理装置、画像表示装置、画像表示システム、および情報処理方法
US10616504B2 (en) 2016-03-28 2020-04-07 Canon Kabushiki Kaisha Information processing device, image display device, image display system, and information processing method
JP2019519015A (ja) * 2016-03-31 2019-07-04 クアルコム,インコーポレイテッド 動的で確率的なワークの削減を伴う幾何学的なワークスケジューリング
CN109074681A (zh) * 2016-04-18 2018-12-21 索尼公司 信息处理装置、信息处理方法和程序
WO2017183346A1 (ja) * 2016-04-18 2017-10-26 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US10943409B2 (en) 2016-04-18 2021-03-09 Sony Corporation Information processing apparatus, information processing method, and program for correcting display information drawn in a plurality of buffers
JPWO2017183346A1 (ja) * 2016-04-18 2019-02-21 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN109074681B (zh) * 2016-04-18 2023-03-21 索尼公司 信息处理装置、信息处理方法和程序
JP7362796B2 (ja) 2016-10-18 2023-10-17 ヴァーチャリー ライヴ (スウィッツァランド) ジーエムビーエイチ Hmd配信システム
KR102572528B1 (ko) 2016-10-18 2023-08-30 버츄얼리 라이브 (스위츨랜드) 게엠베하 Hmd 전달 시스템 및 방법
KR20190065396A (ko) * 2016-10-18 2019-06-11 버츄얼리 라이브 (스위츨랜드) 게엠베하 Hmd 전달 시스템 및 방법
JP2022062039A (ja) * 2016-10-18 2022-04-19 ヴァーチャリー ライヴ (スウィッツァランド) ジーエムビーエイチ Hmd配信システム
JP2018073366A (ja) * 2016-11-04 2018-05-10 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
US10963054B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
US10981053B2 (en) 2017-04-18 2021-04-20 Sony Interactive Entertainment Inc. Vibration control apparatus
US11013990B2 (en) 2017-04-19 2021-05-25 Sony Interactive Entertainment Inc. Vibration control apparatus
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
JP2018201196A (ja) * 2017-05-26 2018-12-20 パナソニックIpマネジメント株式会社 撮像装置、撮像システム、車両走行制御システム、及び画像処理装置
US11528424B2 (en) 2017-05-26 2022-12-13 Panasonic Intellectual Property Management Co., Ltd. Imaging device, imaging system, vehicle running control system, and image processing device
JP2018206054A (ja) * 2017-06-05 2018-12-27 株式会社Psychic VR Lab 記憶定着支援システムおよび記憶定着支援プログラム
US11195293B2 (en) 2017-07-20 2021-12-07 Sony Interactive Entertainment Inc. Information processing device and positional information obtaining method
WO2019017300A1 (ja) * 2017-07-20 2019-01-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP2019020333A (ja) * 2017-07-20 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP2020004407A (ja) * 2018-06-22 2020-01-09 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
CN110633009A (zh) * 2018-06-22 2019-12-31 索尼互动娱乐股份有限公司 用于显示虚拟对象的方法和系统
JP7465067B2 (ja) 2018-06-22 2024-04-10 株式会社ソニー・インタラクティブエンタテインメント 仮想オブジェクトを表示するための方法およびシステム
JP2020048185A (ja) * 2018-09-18 2020-03-26 キヤノン株式会社 撮像表示装置、ウェアラブルデバイスおよび撮像表示システム
US11797259B2 (en) 2018-09-18 2023-10-24 Canon Kabushiki Kaisha Imaging display device, wearable device, and imaging display system
US11972045B2 (en) 2019-06-28 2024-04-30 Canon Kabushiki Kaisha Imaging display device and wearable device

Also Published As

Publication number Publication date
US20150170423A1 (en) 2015-06-18
US9007445B2 (en) 2015-04-14
US10748338B2 (en) 2020-08-18
US20170092011A1 (en) 2017-03-30
JP5156571B2 (ja) 2013-03-06
US9558594B2 (en) 2017-01-31
US20100091096A1 (en) 2010-04-15

Similar Documents

Publication Publication Date Title
JP5156571B2 (ja) 画像処理装置、画像処理方法
US10507381B2 (en) Information processing device, position and/or attitude estimiating method, and computer program
US10629107B2 (en) Information processing apparatus and image generation method
JP5113426B2 (ja) 頭部装着型表示装置、及びその制御方法
JP4989417B2 (ja) 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
WO2017183346A1 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102125293B1 (ko) 생성 장치, 생성 방법, 및 기억 매체
KR20190000591A (ko) 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
CN103348682B (zh) 在多视图系统中提供单一视觉的方法和装置
JP7119425B2 (ja) 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
JP2008146109A (ja) 画像処理方法、画像処理装置
JP2011010126A (ja) 画像処理装置、画像処理方法
JP5769755B2 (ja) 画像処理システム、画像処理装置及び画像処理方法
TW201919393A (zh) 立體成像顯示系統及顯示立體影像的顯示方法
US20200279401A1 (en) Information processing system and target information acquisition method
JP4708590B2 (ja) 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム
JP2013093836A (ja) 撮像装置、画像処理装置およびその方法
JP2018133746A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
JP4889036B2 (ja) 画像処理装置、画像処理方法
JP2024013947A (ja) 撮像装置、撮像装置の撮像方法およびプログラム
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JP7091043B2 (ja) 画像処理装置、画像処理システム、および画像処理方法
JP2006340017A (ja) 立体映像表示装置及び立体映像表示方法
WO2020066699A1 (ja) 情報統合方法、情報統合装置、及び情報統合プログラム
JP2007221179A (ja) 画像表示装置および画像表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121210

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5156571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151214

Year of fee payment: 3