JP2010033367A - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP2010033367A
JP2010033367A JP2008195311A JP2008195311A JP2010033367A JP 2010033367 A JP2010033367 A JP 2010033367A JP 2008195311 A JP2008195311 A JP 2008195311A JP 2008195311 A JP2008195311 A JP 2008195311A JP 2010033367 A JP2010033367 A JP 2010033367A
Authority
JP
Japan
Prior art keywords
image
information processing
pattern image
information
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008195311A
Other languages
English (en)
Inventor
Yasuo Katano
康生 片野
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008195311A priority Critical patent/JP2010033367A/ja
Priority to US12/509,840 priority patent/US9014414B2/en
Priority to EP09166772A priority patent/EP2149862A2/en
Publication of JP2010033367A publication Critical patent/JP2010033367A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 現実空間もしくは仮想空間における任意視点の画像情報を処理する情報処理装置において、当該画像情報に対して生じる知覚の差異を、簡易な方法により解消する。
【解決手段】 表示装置に表示するMR画像を生成する情報処理装置であって、前記生成されたMR画像を複数の領域に分割する手段(402)と、前記分割された複数の領域のうちの1つに、または複数の領域それぞれに、重畳するパターン画像を生成する手段(403)と、前記生成されたパターン画像を、前記複数の領域のうちの1つに、または複数の領域それぞれに重畳する手段(404)と、前記パターン画像が重畳されたMR画像を前記表示装置に出力する手段とを備える。
【選択図】 図4

Description

現実空間もしくは仮想空間における任意視点の画像情報を処理する情報処理装置における情報処理技術に関する。
従来より、ヒトの視覚等に与える刺激を制御することで、本来の状態とは異なる知覚を生じさせることができることが知られている。
コンピュータグラフィック(以後CGとする)等の技術は、ヒトの空間知覚特性を考慮することで、2次元の平面上に描画された仮想の物体を、あたかも3次元的に存在しているかのように表示する技術である。CGの場合、仮想の物体の影や重なり、きめの勾配といった3次元的手がかり(奥行き手がかり)を制御することで、本来の状態(2次元)とは異なる知覚(3次元の物体という知覚)を生じさせている。
また、CG以外でも、ランダムドットステレオグラムや、両眼立体視を用いた立体感表示等の技術が、同様の技術として知られている。
これらの技術を応用したシステムとして、複合現実感システム(以下、MRシステム)が挙げられる。MRシステムとは、当該技術を用いて現実空間映像が示す視点の位置・方向等に対応した仮想空間映像を生成し、それらを合成することにより、現実空間映像と仮想空間映像の合成映像をユーザに表示するシステムである。
MRシステムによれば、ユーザは、現実空間中に仮想物体が実在しているかのように知覚することができる。MRシステムの場合、仮想空間映像を現実空間映像に合成する構成となっているため、従来の仮想現実感システム(VRシステム)に比べて、よりリアルに、実寸感覚を伴った観察できるという利点がある。
特開平09−269723号公報 特開2006−069522号公報
しかしながら、MRシステム等のように現実空間映像と仮想空間映像とを合成して表示するシステムの場合、現実空間映像が示す視点の位置・方向と同じ位置・方向から見ているように仮想空間映像を生成したとしても、奥行き知覚には差異が生じてしまう。
つまり、現実空間と仮想空間の視点の位置及び方向が同じになるように、整合性をとった仮想物体からなる仮想空間映像を生成したとしても、現実空間映像と合成すると、奥行き知覚に差異が生じることとなる。このような現象が生じる原因としては、大きくわけて以下の2つが考えられる。
(1)奥行き手がかりの違いによるもの
第1の原因として、同じ奥行きの物体(オブジェクト)に対して、異なる奥行き手がかりが表示されていることが挙げられる。
一般に、MRシステムの場合、現実空間映像が示す視点に基づいて仮想物体のレンダリングを行い仮想空間映像を生成するため、形状については仮想物体と現実物体との間で高い整合性を維持することができる。しかし、彩度や鮮明度については、仮想物体と現実物体との間で整合性を保つことができない。この結果、奥行き知覚に差異が生じることとなる。以下に更に詳説する。
(a)現実空間映像と仮想空間映像との彩度の不整合に起因する奥行き知覚の差異
通常、ビデオなどで撮影した現実空間映像とCGによって生成された仮想空間映像とでは画像生成手段が異なるため彩度が異なる。ヒトの奥行き知覚特性は、彩度が高いものほど近く、低いものほど遠くに知覚される傾向があるが、一般にCGよりもビデオなどによる現実空間映像の方が彩度が低い。このため、同一距離に存在する仮想物体と現実物体とでは仮想物体の方が近くに知覚されることとなる。
(b)現実空間映像と仮想空間映像との鮮明度の不整合に起因する奥行き知覚の差異
一般に、ヒトの奥行き知覚特性は、エッジが鮮明なものほど近く、ボケ量が多いものほど遠くに知覚される傾向がある。仮想空間映像と現実空間映像とでは、仮想空間映像の方がエッジが鮮明であるため、同一距離に存在する仮想物体と現実物体とでは、通常、仮想物体の方が近くに知覚されることとなる。
なお、ここでは、MRシステムを例に説明したが、このような奥行き知覚の差異は、MRシステムに限らず、通常の仮想空間映像生成システム(以下、CGシステム)やビデオカメラなどの現実空間映像生成システムの場合にも当てはまる。
(2)奥行き手がかりの欠落によるもの
第2の原因として、奥行き手がかりが欠落していることが挙げられる。具体例として、MRシステムやCGシステムにおいて、HMD(Head Mounted Display)や立体視用眼鏡などを用いて3次元画像をユーザに体験させるシステムについて説明する。このようなシステムでは、ヒトが奥行きを知覚するために必要な奥行き手がかり自体が欠落しているため、現実空間映像と仮想空間映像とで奥行き知覚に差異が生じることとなる。なお、ここでいう奥行き手がかりとは、輻輳情報や焦点調節情報等を指す。
(a)輻輳情報の欠落に起因する奥行き知覚の差異
ヒトが取得する奥行き手がかりとして眼球の輻輳情報がある。一般に、ヒトは近くを見るときには外眼筋を働かせて眼球を内側に向け、注視対象が両眼の網膜中心付近にくるように調節する。そして、その際の外眼筋の活動量を奥行き手がかりとして取得している。
しかし、ビデオカメラのように撮影者の注視情報をもとに撮像装置の位置・方向を変更することが困難な装置の場合、この輻輳情報を加味した画像情報を生成することができない。つまり、生成される画像情報には、輻輳情報という奥行き手がかりが欠落しており、このため、奥行き知覚に差異が生じることとなる。
(b)焦点調節情報の欠落に起因する奥行き知覚の差異
ヒトが取得する奥行き手がかりとして焦点調節情報がある。一般に、ヒトがある対象を観察するとき、その距離に応じて毛様体を活動させ水晶体の厚みをコントロールすることで、焦点を合わせる。そして、その際の毛様体の活動量を奥行き手がかりとして取得している。
しかし、観察者が表示装置の表示面を通して対象を観察する場合、焦点はその表示面となる。つまり、表示面に表示された対象には、焦点調節情報という奥行き手がかり自体が欠落しており、このため奥行き知覚に差異が生じることとなる。
ここで、上述のような奥行き知覚の差異を解消するための方法として、上述したような奥行き手がかりを考慮に入れて仮想空間映像と現実空間映像との間で整合性をとるように構成することが考えられる。
しかしながら、このような方法の場合、現実空間映像を画像解析し、現実空間上の照明条件やヒトの焦点調節情報等を取得して、形状や彩度、鮮明度を補正する必要がある。
また、表示装置の輻輳角を変更可能にし、ヒトの眼球状態を計測した値に基づいて表示装置の輻輳角を変更する構成にする必要がある。あるいは、ヒトの毛様体の活動量を計測する装置を配し、計測された情報に基づいてレンズの調節を行う構成とするか、表示装置の位置を変更可能にし、ヒトの毛様体の活動量に基づいて、表示装置の位置を制御する構成とする必要がある。
しかしながら、このような構成とした場合、システムの大型化が不可避であり、コストもかかるという問題がある。また、処理時間が増大するため、リアルタイムで処理を行う必要のあるシステムには適用できないという問題もある。更に、仮想空間映像と現実空間映像との間で整合性をとった場合、特定の位置・方向から見た場合の奥行き知覚の差異は解消するが、異なる位置・方向から見た場合の形状(形及び大きさ)の整合性が損なわれてしまうという問題もある。
このため、奥行き手がかりの違いや欠落等に起因して生じる奥行き知覚の差異等、現実空間もしくは仮想空間における任意視点の画像情報において生じる知覚の差異を、簡易な方法により解消できるようにすることが望まれている。
本発明は上記課題に鑑みてなされたものであり、現実空間もしくは仮想空間における任意視点の画像情報を処理する情報処理装置において、当該画像情報に対して生じる知覚の差異を、簡易な方法により解消することを目的とする。
上記の目的を達成するために本発明に係る情報処理装置は以下のような構成を備える。即ち、
表示装置に表示する表示画像を生成する情報処理装置であって、
前記生成された表示画像を複数の領域に分割する分割手段と、
前記分割手段により分割された複数の領域のうちの1つに、または複数の領域それぞれに、重畳するパターン画像を生成する生成手段と、
前記生成されたパターン画像を、前記複数の領域のうちの1つに、または複数の領域それぞれに重畳する重畳手段と、
前記パターン画像が重畳された表示画像を前記表示装置に出力する出力手段とを備える。
本発明によれば、現実空間もしくは仮想空間における任意視点の画像情報を処理する情報処理装置において、当該画像情報に対して生じる知覚の差異を、簡易な方法により解消することが可能となる。
以下、図面を参照しながら、本発明の好適な実施形態について説明する。なお、以下の実施形態における情報処理装置は、ユーザに提供する画像情報に対して、ユーザの錯覚を誘発する所定のパターン画像を重畳することにより、知覚の差異を解消することを特徴とする。
つまり、奥行き手がかりの違いや欠落に対して諸々の物理量を計測し、計測結果に基づいて表示される画像情報自体を直接補正することで、奥行き知覚の差異等を解消させるのではなく、ヒトの錯覚を利用して奥行き知覚の差異等を解消させる点に特徴がある。
かかる方法の場合、諸々の物理量を計測する必要がないため、システムの大型化やコストの上昇を回避することが可能である。また、表示される画像情報自体を補正するわけではないため、リアルタイム性が損なわれることもない。更に、表示される画像情報における、各物体間の形状の整合性も維持されることとなる。
なお、以下の各実施形態のうち、第1乃至第6の実施形態では、本発明にかかる情報処理装置を、HMD(Head Mounted Display(頭部装着型表示装置))と組み合わせて、MRシステムとして利用する場合について説明する。
また、第7乃至第9の実施形態では、CGシステムとして、第10の実施形態では、再生システムとして利用する場合について説明する。ただし、本発明にかかる情報処理装置は、これらのシステムとして利用する場合に限られないことは言うまでもない。
[第1の実施形態]
1.MRシステムの構成
図1は、本発明の第1の実施形態にかかる情報処理装置100をHMDと組み合わせることで構成されたMRシステムの全体構成を示す図である。
図1において、100は情報処理装置であり、現実空間120を撮影することにより得られた現実空間映像と、仮想空間130の仮想物体(オブジェクト)を所定の位置・方向から見た場合の仮想空間映像とを合成し、MR画像(表示画像)を生成する。また、生成されたMR画像に対して、ユーザの錯覚を誘発する所定のパターン画像を重畳することで、出力画像を生成する。更に、生成した出力画像を、HMD(Head Mounted Display)に表示する制御を行う。
110はHMDであり、現実空間120を撮影し、現実空間映像を生成する画像入力部111を備える。なお、画像入力部は、ユーザの右目に対応する右側画像入力部111Rと、ユーザの左目に対応する左側画像入力部111Lとを備える。右側画像入力部111Rと左側画像入力部111Lとにおいて生成された現実空間映像は、情報処理装置100に入力される。
また、HMD110は、HMD110の位置及び姿勢を計測するための位置・姿勢計測部113を備える。位置・姿勢計測部113により計測されたHMD110の位置及び姿勢情報は、情報処理装置100に入力される。
更に、HMD110は、情報処理装置100において生成された出力画像を表示するための映像表示部112を備える。なお、映像表示部112は、ユーザの右目により知覚されるように表示される右側映像表示部112Rと、ユーザの左目により知覚されるように表示される左側映像表示部112Lとを備える。
120は現実空間を示しており、また、130は仮想空間を示している。131〜133は、仮想空間における仮想物体を示している。
2.情報処理装置100の機能構成
次に情報処理装置100の機能構成について説明する。図2は、情報処理装置100の機能構成を説明するための図である。
図2において、201は画像キャプチャ部であり、HMD110の画像入力部111より入力された現実空間映像を情報処理装置100内に取り込む。なお、画像キャプチャ部201は、右側画像入力部111Rより入力された現実空間映像を情報処理装置100内に取り込む右側画像キャプチャ部201Rを備える。また、左側画像入力部111Lより入力された現実空間映像を情報処理装置100内に取り込む左側画像キャプチャ部201Lを備える。
202は位置・姿勢情報入力部であり、位置・姿勢計測部113より入力されるHMD110の位置・姿勢情報を情報処理装置100内に取り込む。
203はCGレンダリング部である。CGレンダリング部203は、位置・姿勢情報入力部202を介して取り込まれた位置・姿勢情報に基づいて、画像キャプチャ部201を介して取り込まれた現実空間映像に対して合成される仮想空間映像の位置、姿勢、大きさ、角度(パース)などを計算する。この結果、仮想空間映像を生成する。
204はモデリング情報記憶部であり、仮想空間映像により形成される仮想空間130に存在する仮想物体131乃至133の情報が格納されている。CGレンダリング部203では、位置・姿勢情報入力部202を介して入力された位置・姿勢情報に基づいて仮想空間映像212を取得する。
205は現実空間映像/仮想空間映像合成部であり、画像キャプチャ部201を介して入力された現実空間映像211に対して、CGレンダリング部203にて生成した仮想空間映像212を合成し、MR画像213を生成する。なお、現実空間映像/仮想空間映像合成部205は、右側画像キャプチャ部201Rより出力された現実空間映像に対して、仮想空間映像を合成する現実空間映像/仮想空間映像合成部205Rを備える。また、左側画像キャプチャ部201Lより出力された現実空間映像に対して、仮想空間映像を合成する現実空間映像/仮想空間映像合成部205Lを備える。
206はパターン画像合成部であり、現実空間映像/仮想空間映像合成部205において生成されたMR画像に対して、ユーザの錯覚を誘発する所定のパターン画像を重畳する。なお、パターン画像合成部206は、現実空間映像/仮想空間映像合成部205R、205Lそれぞれにおいて生成されたMR画像に対してパターン画像をそれぞれ重畳するパターン画像合成部206Rとパターン画像合成部206Lとを備える。
206は映像生成部であり、パターン画像合成部206においてパターン画像が重畳されたMR画像を、アナログもしくはデジタルデータに変換することで出力画像を生成し、HMD110の映像表示部112へ出力する。なお、映像生成部207は、パターン画像合成部206Rにおいてパターン画像が重畳されたMR画像に基づいて出力画像を生成する映像生成部207Rを備える。また、パターン画像合成部206Lにおいてパターン画像が重畳されたMR画像に基づいて出力画像を生成する映像生成部207Lを備える。
3.MR画像を生成するまでの処理
次に、情報処理装置100において、MR画像を生成するまでの処理の流れについて、図3を用いて説明する。
図3において、211は、HMD110の画像入力部111を用いて現実空間120を所定の位置・方向から撮影し、画像キャプチャ部201を介して情報処理装置100内に取り込まれた現実空間映像の一例である。
また、212は、HMD110の位置・姿勢計測部113が計測することにより得られた位置・姿勢情報に基づいて、CGレンダリング部203が生成した仮想空間映像の一例である。仮想空間映像212において301〜303は、仮想空間130における仮想物体131〜133を、所定の位置、方向から見た場合の仮想物体画像である。
現実空間映像/仮想空間映像合成部205では、画像キャプチャ部201より出力された現実空間映像211に対して、CGレンダリング部203において生成された仮想空間映像212を合成し、MR画像を生成する。
213は、現実空間映像/仮想空間映像合成部205において生成されたMR画像の一例である。ここで、現実空間映像/仮想空間映像合成部205において生成されるMR画像213には、現実空間を見ている視点で仮想物体画像301〜303がレンダリングされている。このため、形状(位置、大きさ)については仮想物体と現実物体との間の整合性が高い。一方、上述したように、彩度及び鮮明度については、整合性が低いため、奥行き知覚に差異が生じている。
4.パターン画像合成部の機能構成
そこで、本実施形態にかかる情報処理装置100では、パターン画像合成部206において、MR画像213に対して、ユーザの錯覚を誘発する所定のパターン画像を重畳する。
図4は、パターン画像合成部206の機能構成を示す図である。また、図5は、パターン画像合成部206においてパターン画像を生成するまでの処理の流れを説明するための図である。以下、図4及び図5を用いてパターン画像合成部206の機能について説明する。なお、パターン画像合成部206には、パターン画像合成部206Rと206Lとが含まれるが、それぞれの機能は同じであるため、ここでは両者を区別することなく説明する。
図4において、401はMR画像取得部であり、現実空間映像/仮想空間映像合成部205より出力されたMR画像213を取得する。
402はMR画像領域分割部であり、取得されたMR画像を複数の領域に分割することで、分割画像411を得る。なお、ここで分割される領域は、奥行き知覚に差異が生じており、ユーザの錯覚を誘発することで、これを是正しようとしている領域である。本実施形態では、仮想物体画像301〜303により規定される領域が、MR画像領域分割部402において分割されるべき領域である。
図5の411は、MR画像領域分割部402においてMR画像が分割されることで得られた分割画像の一例を示す図である。本実施形態の場合、分割画像411は仮想空間映像212と同じ画像となる。
403はパターン画像生成部であり、ユーザの錯覚を誘発する所定のパターン画像を生成する。パターン画像生成部403では、MR画像領域分割部402において生成された分割画像411に基づいて、分割された領域を認識する。そして、当該分割された領域と、それ以外の領域とで、それぞれ別個にパターン画像を重畳するように(あるいは分割された領域のみにパターン画像を重畳するように)、各領域の形状に則したパターン画像をそれぞれ生成する。
図5の412は、パターン画像生成部403で生成されたパターン画像の一例を示す図である。図5の412の例では、パターン画像として、チェッカー模様が用いられている。また、分割された領域として、領域501〜503が認識されている。なお、図5の412では、分割された領域501〜503と、それ以外の領域の両方に、パターン画像を重畳している。
このように、分割された領域に選択的にパターン画像を重畳することで、あるいは分割された領域とそれ以外の領域の両方にそれぞれ別個にパターン画像を重畳することで、ユーザの錯覚を誘発し、奥行き知覚の差異を低減させることが可能となる。
5.パターン画像の例
次に、パターン画像生成部403により生成されるパターン画像412の例について説明する。上記説明では、パターン画像として、チェッカー模様を用いた場合について説明したが、パターン画像はチェッカー模様に限られず、誘発させようとする錯覚の内容に応じて変更するものとする。
図6は、パターン画像生成部403により生成されるパターン画像412の一例を示す図である。図6において、600はオリジナルパターン画像であるチェッカー模様のパターン画像である。
601〜603は、各非線形変換マトリックスを用いてオリジナルパターン画像600を変換することで得られたパターン画像である。
611〜613は、アフィン変換マトリックスを用いてオリジナルパターン画像600を変換することで得られたパターン画像である。
621〜622は、マテリアル変換マトリックスを用いてオリジナルパターン画像600を変換することで得られたパターン画像である。
このうち、パターン画像601〜603は、MR画像中の特定の領域をユーザに注視させたい場合において利用されるパターン画像である。当該パターン画像601〜603は、MR画像上の特定の点を中心にしてオリジナルパターン画像600に対して集中変換処理、渦巻き変換処理、せん断変形変換処理などを施すことにより生成される。
また、パターン画像611は、オリジナルパターン画像600に回転変換を施すことにより生成されるパターン画像であり、特定領域とそれ以外の領域とで回転変換量を変えたパターン画像を適用することにより平衡感覚を強調または抑制することが可能となる。つまり、MR画像内の特定の領域の平衡感覚に錯覚を起こさせるのに有効である。
また、パターン画像612〜614は、MR画像中の特定の領域をユーザに注視させたい場合において利用されるパターン画像である。当該パターン画像612〜614は、オリジナルパターン画像600に対して画素単位での合成割合の変換処理や、特定領域のα値の変換処理、特定領域の色情報変換処理などを施すことにより生成される。
また、パターン画像613は、MR画像内の特定の領域の奥行き知覚に錯覚を起こさせるのに有効なパターン画像である。また、パターン画像621やパターン画像622は、MR画像内の特定の領域の明るさ(彩度)、色、透明度に錯覚を起こさせるのに有効なパターン画像である。
このように、誘発させようとする錯覚の内容に応じて、諸々の変換マトリックスを用いてオリジナルパターン画像600を変換することで、様々な種類のパターン画像を生成することができる。
なお、図6の例では、オリジナルパターン画像600として、チェッカー模様のパターン画像を用いる場合について説明したが、本発明はこれに限定されるものではなく、例えば、ランダムノイズのパターン画像をオリジナルパターン画像として用いてもよい。
以上の説明から明らかなように、本実施形態では、生成されたMR画像において、現実空間映像と仮想物体画像との間に生じる奥行き知覚の差異を低減するために、MR画像にパターン画像を重畳し、ユーザの錯覚を誘発させる構成とした。
そして、パターン画像を重畳するにあたっては、ユーザに錯覚を誘発させるのに有効な領域を分割し、当該分割した領域に対してパターン画像を個別に重畳する構成とした。あるいは、分割した領域とそれ以外の領域とに別個にパターン画像を重畳する構成とした。
この結果、MR画像における奥行き知覚の差異を低減させることが可能となった。
[第2の実施形態]
上記第1の実施形態では、奥行き知覚の差異を低減させるために、生成されたそれぞれのMR画像(1フレーム分のMR画像)において、分割された領域に対して個別にパターン画像を重畳する場合について説明した。
しかしながら、本発明はこれに限定されず、例えば、複数フレーム間にわたるMR画像内の各物体の動き(オプティカルフロー)を考慮に入れて、パターン画像を重畳するようにしてもよい。
図7は、本発明の第2の実施形態にかかる情報処理装置100のパターン画像生成部403において生成されるパターン画像の一例を示す図である。
図7において、(a)は時刻T1における分割画像411を示している。また、(b)は時刻T2における分割画像411を示している。時刻T1から時刻T2の間における、ユーザの視点変化に伴って、分割画像411内の仮想物体画像301〜303の見え方が、時刻T1と時刻T2とでは異なっている。
具体的には、時刻T1に比べて、時刻T2では、仮想物体がより重なって見える方向にユーザの視点が移動したため、時刻T2における仮想物体画像311〜313は、時刻T1における仮想物体画像301〜303と比べて、より重なって見える。
換言すると、時刻T1から時刻T2の間に、仮想物体画像301〜303がMR画像内を移動し、仮想物体画像311〜313となっている。この場合、ユーザからの距離が近い(手前にある)仮想物体画像ほど移動距離が大きく、ユーザからの距離が遠い仮想物体画像ほど移動距離が小さくなる。
図7の(c)、(d)は、それぞれT=T1及びT=T2のときに分割画像411に基づいて生成されたパターン画像を示している。
図7の(c)に示すように、ここでは、分割された領域(仮想物体画像301〜303により規定される領域)に対して、チェッカー模様のパターン画像を重畳するとともに、分割された領域以外の領域に対しても、同様にパターン画像を重畳している。
同様に、図7の(d)では、分割された領域(仮想物体画像311〜313)に対して、チェッカー模様のパターン画像を重畳するとともに、分割された領域以外の領域に対しても、別個に、チェッカー模様のパターン画像を重畳している。
このとき、分割された領域以外の領域に対しては、時刻T1と時刻T2とで、同じパターン画像を重畳する。
一方、分割された領域(仮想物体画像)に対しては、時刻T1から時刻T2の間に移動しているため、異なるパターン画像を重畳する。
ここで、図7の(d)の例では、仮想物体画像301の移動距離がより大きく見えるような錯覚を誘発させるためのパターン画像を重畳している。具体的には、時刻T1において仮想物体画像301に重畳されたパターン画像に対して、時刻T2において仮想物体画像311に重畳されたパターン画像の移動距離は、仮想物体画像自体の移動距離よりも大きくなっている。
601は、仮想物体画像301に重畳されたパターン画像の特定の位置を指している。仮に、時刻T2において仮想物体画像311に重畳されるパターン画像の、時刻T1における対応するパターン画像に対する移動距離を、仮想物体画像311の移動距離と等しくした場合には、時刻T1における位置701は、時刻T2では、位置711となる。
これに対して、本実施形態では、時刻T1における位置701は、時刻T2では、位置711’に表示されるようにパターン画像を重畳している。
一方、時刻T2において仮想物体画像312、313に重畳されるパターン画像の、時刻T1において仮想物体画像312に重畳されるパターン画像に対する移動距離は、時刻T1から時刻T2までの仮想物体画像311の移動距離と等しい。このため、時刻T1における位置702は、時刻T2では、位置712に表示されるようにパターン画像を重畳している。同様に、時刻T1における位置703は、時刻T3では、位置713に表示されるようにパターン画像を重畳している。
このように、仮想物体画像に重畳されるパターン画像の移動距離を、仮想物体画像の移動距離よりも大きくすることで、当該仮想物体画像の移動距離が、実際の移動距離よりも大きいかのようにユーザに錯覚させることができる。
以上の説明から明らかなように、本実施形態では、複数フレームのMR画像内の各物体の動きを錯覚させるために、重畳するパターン画像の移動距離を、対応する各物体画像の移動距離よりも大きくする構成とした。
この結果、当該物体画像の移動距離を、実際の画像空間内の移動距離よりも大きく見せることが可能となる。
[第3の実施形態]
上記第1及び第2の実施形態では、MR画像領域分割部402が、MR画像から仮想空間映像を分割する場合について説明した。しかしながら、本発明はこれに限定されない。
例えば、HMD110に距離センサを配し、当該距離センサより出力された距離情報に基づいて、現実空間映像内の各オブジェクトのうち所定の距離にあるオブジェクトにより規定される領域を分割するようにしても良い。
図8は、距離情報に基づいて領域を分割する場合の、パターン画像合成部の機能構成を示す図である。図4に示すパターン画像合成部206R、206Lの機能と同一の機能を有する部位には、同じ参照番号を付してある。
図8において、801は特徴検出部であり、HMD110より送信された距離情報(特徴情報)を取得する。802はMR画像領域分割部であり、MR画像取得部401において取得されたMR画像のうち、所定の距離にあるオブジェクトにより規定される領域を距離情報に基づいて識別し、当該領域を分割する。
803はパターン画像生成部であり、所定の距離にあるオブジェクトにより規定される領域を強調または抑制して見せるためのパターン画像を生成する。
これにより、MR画像のうち、現実空間映像内の所定の距離にあるオブジェクトにより規定される領域を、強調または抑制して見せることが可能となる。
なお、このときHMD110に配される距離センサとしては、例えば、レンジファインダが挙げられるが、これに限定されるものではない。現実物体に距離に応じたマーカを添付し、当該マーカを読み取ることで距離情報を取得するようにしてもよいし、複数のカメラを用いることにより距離情報を取得するようにしてもよい。
[第4の実施形態]
上記各実施形態では、パターン画像を生成するにあたり、MR画像領域分割部402により分割された領域を認識し、当該認識した領域に対応する領域を、予め生成されたパターン画像から抽出し、対応する領域に重畳する構成とした。
しかしながら、本発明はこれに限定されるものではない。例えば、前もってパターン画像を生成しておくのではなく、分割された領域を認識した後に、当該認識した領域ごとに新たにパターン画像を生成するように構成してもよい。
[第5の実施形態]
上記第3の実施形態では、特徴検出部において、特徴情報として距離情報を抽出することとしたが、本発明はこれに限定されない。例えば、MR画像内の各画素の明度情報を特徴情報として抽出し、MR画像領域分割部では、当該明度情報に基づいて、領域を分割するように構成してもよい。この場合、明るい領域と暗い領域とで異なるパターン画像が重畳されることとなる。
[第6の実施形態]
上記各実施形態では、MR画像内の奥行き知覚の差異を是正する場合について説明したが、本発明はこれに限定されず、MR画像内を移動する所定の物体の移動速度について、ユーザに錯覚を誘発させるように構成してもよい。
図9は、MR画像内を移動する所定の物体の移動速度について、ユーザの錯覚を誘発させる構成を説明するための図である。
図9において、901は時刻T1における仮想空間映像であり、仮想物体画像902が含まれる。911は時刻T2における仮想空間映像であり、仮想物体画像912が含まれる。
図9において、仮想物体画像902の移動速度を、実際の移動速度よりも速く知覚させる場合、仮想物体画像902に重畳するパターン画像の移動速度を仮想物体画像902の移動速度v1よりも速くする。ここで仮想物体画像902に対するパターン画像の相対速度をv2とすると、MR画像内のパターン画像の移動速度はv1+v2となり、より速いオプティカルフローを提示することができる。
反対に、仮想物体画像902の移動速度を実際の移動速度よりも遅く知覚させる場合には、仮想物体画像902に重畳するパターン画像の移動速度を、仮想物体画像902の移動速度v1よりも遅くする。仮想物体画像902に対するパターン画像の相対速度v2を負の値に設定すれば、仮想物体画像902の移動速度は、実際の移動速度よりも遅く知覚されることとなる。
なお、上記説明では、分割された領域(仮想物体画像)902、912に対応するパターン画像の移動速度を変更することとしたが、本発明はこれに限定されない。例えば、分割された領域以外の領域(現実空間映像)903、913のパターン画像を移動させる構成としてもよい。
この場合、分割された領域の移動方向と同じ方向に、分割された領域以外の領域のパターン画像を移動させる構成とすることで、分割された領域の移動速度を実際の移動速度よりも遅く知覚させることが可能となる。また、分割された領域の移動方向と反対方向に、分割された領域以外の領域のパターン画像を移動させる構成とすることで、分割された領域の移動速度を実際の移動速度よりも速く知覚させることが可能となる。
[第7の実施形態]
上記第1の実施形態では、HMD110の位置・姿勢計測部113において取得された位置・姿勢情報に基づいて、MR画像を遅滞なく生成した場合であっても生じえる奥行き知覚の差異について低減させる構成について説明した。しかしながら、本発明はこれに限定されない。
一般に、HMD110の位置・姿勢計測部113において取得された位置・姿勢情報に基づいてMR画像を生成する場合、CGレンダリング部203や現実空間映像/仮想空間映像合成部205に対しては、高い処理負荷がかかる。
このため、HMD110の動きに対して、そもそも映像生成部207より出力される出力画像には遅れが生じることが考えられる。
そこで、本実施形態では、パターン画像を重畳することによるユーザの錯覚の効果を利用して、映像生成部207より出力される出力画像の遅れを目立たなくさせるための構成について説明する。
なお、上記各実施形態では、MR画像を対象としてパターン画像を重畳する場合について説明したのに対して、本実施形態を含む以下の実施形態では、CG画像を対象としてパターン画像を重畳する場合について説明する。
1.情報処理装置の機能構成
図10は、本実施形態にかかる情報処理装置1000を適用したCGシステムの機能構成を示す図である。図10において、1002はCG画像生成部であり、HMD1020の位置・姿勢計測部1021より送信された位置・姿勢情報に基づいて、記憶装置1001より読み出された仮想データ1011を処理する。そして、ユーザの視点の位置・方向に対応したCG画像1013を生成する。
1004は幾何変換量計算部であり、HMD1020の位置・姿勢計測部1021より送信された位置・姿勢情報に基づいて、ユーザの視点の移動方向と移動距離とを計算する。1005は、パターン画像変換部であり、記憶装置1001より読み出したパターン画像1012を、幾何変換量計算部1004において計算された移動方向及び移動距離に基づいて、平行移動変換する。
1003はパターン画像合成部であり、CG画像生成部1002において生成されたCG画像1013に、パターン画像変換部1005において平行移動変換されたパターン画像1014を重畳する。これにより、CG画像の生成に遅延が生じた際のオプティカルフローを補う。
1006は映像生成部であり、パターン画像合成部1003においてパターン画像が重畳されたCG画像を、アナログもしくはデジタルデータに変換することで出力画像を生成し、HMD1020の映像表示部1022へ出力する。
2.情報処理装置における処理の流れ
次に、情報処理装置1000における処理の流れについて説明する。図11は、情報処理装置1000における処理の流れを示すフローチャートである。
ステップS1101において、初期化処理を行うと、ステップS1102では、位置・姿勢情報1010を取得する。
ステップS1103では、取得した位置・姿勢情報1010に基づいて、CG画像1013を生成する。また、ステップS1107では、並行して、幾何変換量の計算を行い、ステップS1108では、該幾何変換量に基づいて、パターン画像1012を平行移動変換する。
ステップS1104では、生成したCG画像1013に、平行移動変換したパターン画像1014を重畳する。更に、ステップS1105では、映像生成部1006が出力画像を生成し、生成した出力画像を出力する。
ステップS1106では、処理の終了指示があったか否かを判断し、終了指示がないと判断された場合には、ステップS1102に戻り、再び位置・姿勢情報1010を取得する。
以降、ステップS1106において、処理の終了指示があったと判断されるまで、ステップS1102からステップS1108の処理を、所定周期で繰り返す。
ステップS1106において、処理の終了指示があったと判断された場合には、処理を終了する。
3.情報処理装置における処理の具体例
次に、図12を用いて、情報処理装置1000における処理の具体例について説明する。
図12において、1201は、時刻T1において取得された位置・姿勢情報に基づいて生成されたCG画像の一例である。1202は、当該位置・姿勢情報に基づいて生成されたパターン画像である。
1203は、時刻T1+△Tにおいて取得された位置・姿勢情報に基づいて生成されるべきCG画像である。
1204は、△T経過する間のオプティカルフロー量と等価となるように、時刻T1+△Tにおいて取得された位置・姿勢情報に基づいて、パターン画像1202を平行移動変換することで生成されたパターン画像である。
ここで、CG画像生成部1002では、CG画像1201を生成してから、△T経過するまでに、CG画像1203を生成する必要があるが、処理に遅延が生じ、△T経過するまでに、CG画像1203を生成することができなかったとする。
この場合、△T経過時点では、CG画像1203が生成されていないため、パターン画像合成部1003では、1周期前のCG画像1201に、パターン画像1204を重畳する(1205参照)。つまり、HMD1020の動作に、CG画像のオプティカルフローが追いつかなかった場合には、CG画像のオプティカルフロー量に相当するパターン画像を1周期前のCG画像に重畳させることで、CG画像を生成する際の処理の遅延の影響を軽減する。
このように、本実施形態によれば、パターン画像を重畳することによるユーザの錯覚の効果を利用し、映像生成部1007より出力される出力画像に遅れがないように見せることが可能となる。
なお、本実施形態では、パターン画像としてチェッカー模様を用いることとしているが、本発明はこれに限定されず、例えば、ランダムドットノイズ等の他のパターン画像を用いてもよいことはいうまでもない。
また、本実施形態では、幾何変換として、平行移動変換を用いる場合について説明したが、本発明はこれに限定されず、所望のオプティカルフローに補正することを目的とする幾何変換であれば、他の幾何変換を用いてもよいことはいうまでもない。
例えば、ジャイロなどの地磁気を計測するセンサ情報を用いて重力方向を検出し、その情報を用いて現在の姿勢に対して重力方向へ傾く方向へ誘導するような回転変換を基準とした幾何変換が挙げられる。あるいは、加速度センサを用いて視点位置の加速度成分からそれを補正するような非線形な変換等が挙げられる。
[第8の実施形態]
上記第7の実施形態では、パターン画像合成部において、CG画像に対してパターン画像を重畳する構成としたが、本発明はこれに限定されない。CG画像を生成するタイミングとパターン画像を生成するタイミングとでは、ずれがあるため、それぞれ別個に映像表示部に出力するように構成してもよい。
図13は、本実施形態における情報処理装置1300を適用したCGシステムの機能構成を示す図である。図10と同じ機能については同じ参照番号を付してある。
図10との違いは、パターン画像合成部1003がない代わりに、CG画像用の映像生成部1301とパターン画像用の映像生成部1302を配し、それぞれの出力画像を映像表示部1022に出力している点である。
なお、図13の機能構成において、映像表示部1022は、異なる更新レートで2つの出力画像を表示することができるよう構成されているものとする。
[第9の実施形態]
上記第7の実施形態では、パターン画像を常時表示する構成としたが、本発明はこれに限定されない。例えば、物体の移動速度が変化した場合に、対応するパターン画像を表示し、静止時には表示しないように構成してもよい。
図14は、本実施形態における情報処理装置1400を適用したCGシステムの機能構成を示す図である。図10と同じ機能については同じ参照番号を付してある。
図10との違いは、パターン画像合成部1003の代わりに、パターン画像制御部1401が配されている点である。パターン画像制御部1401では、パターン画像変換部1005において生成されたパターン画像1014をCG画像1013に重畳するにあたり、位置・姿勢情報1010が変化した場合にのみ、パターン画像1014をCG画像1013に重畳する。
図15は、本実施形態における情報処理装置1400の処理の流れを示すフローチャートである。なお、図11と同じ処理については、同じ参照番号を付してある。
図11との違いは、ステップS1108において生成したパターン画像を、ステップS1104において、CG画像に重畳する前に、ステップS1501において、重畳するか否かを判定している点である。
ステップS1501では、ステップS1002において取得された位置・姿勢情報が、1周期前に取得された位置・姿勢情報から変化しているか否かを判断し、変化していると判断された場合には、重畳すると判定し、ステップS1004に進む。
一方、ステップS1501において、変化していないと判断された場合には、重畳しないと判定し、ステップS1005に進む。
以上の説明から明らかなように、本実施形態にかかる情報処理装置では、HMD1020が静止している状態では、パターン画像がCG画像に重畳されることはない。このように、HMD1020が静止している状態で、CG画像にパターン画像を重畳しないように制御することで、パターン画像を重畳することによる出力画像の画質の低下を、静止時においては回避することが可能となる。
なお、視点が変化している場合には、ユーザは、CG画像の詳細を認識することができないため、移動中にパターン画像を重畳させても、出力画像の画質の低下の影響は小さい。
[第10の実施形態]
上記第7乃至第9の実施形態では、本発明にかかる情報処理装置をCGシステムに適用する場合について説明したが、本発明はこれに限定されない。
例えば、手持ちで作成したハンディビデオ装置のビデオ画像において、手ぶれが大きいビデオ画像を再生する場合の再生システムに適用することも可能である。
具体的には、ハンディビデオ装置などに搭載されているジャイロ情報をビデオ画像とともに記録しておき、当該ビデオ画像を再生システムにおいて再生する際に、ジャイロ情報に基づいてパターン画像を生成し、再生画像に重畳するように構成してもよい。
このように構成することで、ユーザが意図していないビデオ画像のゆれを軽減させることが可能となる。
[他の実施形態]
なお、本発明は、複数の機器(例えばホストコンピュータ、インタフェース機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置など)に適用してもよい。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録したコンピュータ読取可能な記憶媒体を、システムあるいは装置に供給するよう構成することによっても達成されることはいうまでもない。この場合、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することにより、上記機能が実現されることとなる。なお、この場合、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フロッピ(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施形態の機能が実現される場合に限られない。例えば、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、前述した実施形態の機能が実現される場合も含まれる。つまり、プログラムコードがメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって実現される場合も含まれる。
本発明の第1の実施形態にかかる情報処理装置100をHMDと組み合わせることで構成されたMRシステムの全体構成を示す図である。 情報処理装置100の機能構成を説明するための図である。 MR画像を生成するまでの処理の流れを説明するための図である。 パターン画像合成部206の機能構成を示す図である。 パターン画像合成部206においてパターン画像を生成するまでの処理の流れを説明するための図である。 パターン画像生成部403により生成されるパターン画像412の一例を示す図である。 本発明の第2の実施形態にかかる情報処理装置100のパターン画像生成部403において生成されるパターン画像の一例を示す図である。 距離情報に基づいて領域を分割する場合の、パターン画像合成部の機能構成を示す図である。 MR画像内を移動する所定の物体の移動速度について、ユーザに錯覚を誘発させる構成を説明するための図である。 情報処理装置1000の機能構成を示す図である。 情報処理装置1000における処理の流れを示すフローチャートである。 情報処理装置1000における処理の具体例について説明するための図である。 情報処理装置1300の機能構成を示す図である。 情報処理装置1400の機能構成を示す図である。 情報処理装置1400の処理の流れを示すフローチャートである。

Claims (18)

  1. 表示装置に表示する表示画像を生成する情報処理装置であって、
    前記生成された表示画像を複数の領域に分割する分割手段と、
    前記分割手段により分割された複数の領域のうちの1つに、または複数の領域それぞれに、重畳するパターン画像を生成する生成手段と、
    前記生成されたパターン画像を、前記複数の領域のうちの1つに、または複数の領域それぞれに重畳する重畳手段と、
    前記パターン画像が重畳された表示画像を前記表示装置に出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記分割手段は、
    前記表示画像により形成される画像空間において、予め定められた特徴情報に対応するオブジェクトにより規定される領域を分割することを特徴とする請求項1に記載の情報処理装置。
  3. 前記分割手段は、
    前記表示画像により形成される画像空間において、予め定められた奥行き方向の距離に存在するオブジェクトにより規定される領域を分割することを特徴とする請求項2に記載の情報処理装置。
  4. 前記分割手段は、
    前記表示画像により形成される画像空間において、ユーザによって注視されるべきオブジェクトにより規定される領域を分割することを特徴とする請求項2に記載の情報処理装置。
  5. 前記分割手段は、
    前記表示画像により形成される画像空間において、画像情報が変化しているオブジェクトにより規定される領域を分割することを特徴とする請求項2に記載の情報処理装置。
  6. 前記生成手段は、
    予め定められたパターン画像に対して、幾何変換を施すことにより、前記パターン画像を生成することを特徴とする請求項1に記載の情報処理装置。
  7. 前記生成手段は、
    予め定められたパターン画像に対して、画素単位の変換を施すことにより、前記パターン画像を生成することを特徴とする請求項1に記載の情報処理装置。
  8. 前記生成手段により生成されたパターン画像を格納する格納手段を更に備え、
    前記重畳手段は、
    前記格納手段に格納された前記生成されたパターン画像を読み出し、前記複数の領域のうちの1つに、または複数の領域それぞれに重畳することを特徴とする請求項1に記載の情報処理装置。
  9. 前記生成手段は、
    前記複数の領域それぞれに、異なるパターン画像を生成することを特徴とする請求項1に記載の情報処理装置。
  10. 前記表示装置は、頭部装着型の表示装置であり、
    前記分割手段は、
    前記頭部装着型の表示装置より出力された位置・姿勢情報に対応したオブジェクトにより規定される領域を分割することを特徴とする請求項2に記載の情報処理装置。
  11. 前記表示装置は、頭部装着型の表示装置であり、
    前記生成手段は、
    前記頭部装着型の表示装置より出力された位置・姿勢情報に基づいて、前記重畳するパターン画像を生成することを特徴とする請求項1に記載の情報処理装置。
  12. 前記重畳手段は、前記予め定められた特徴情報に基づいて、前記分割手段により分割された複数の領域の中から選択された領域に対して、前記生成されたパターン画像を重畳することを特徴とする請求項2に記載の情報処理装置。
  13. 表示装置に表示する表示画像を生成する情報処理装置であって、
    画像情報を取得する取得手段と、
    前記画像情報に重畳するパターン画像を生成する生成手段と、
    前記表示装置に表示する表示画像に対するユーザの視点変化に応じて、前記生成されたパターン画像を制御する制御手段と、を備え、
    前記制御手段により制御されたパターン画像を前記画像情報に重畳することで、表示画像を生成することを特徴とする情報処理装置。
  14. 前記制御手段は、前記ユーザの視点変化に応じて、前記生成されたパターン画像の幾何変換を制御することを特徴とする請求項13に記載の情報処理装置。
  15. 表示装置に表示する表示画像を生成する情報処理装置における情報処理方法であって、
    前記生成された表示画像を複数の領域に分割する分割工程と、
    前記分割工程において分割された複数の領域のうちの1つに、または複数の領域それぞれに、重畳するパターン画像を生成する生成工程と、
    前記生成されたパターン画像を、前記複数の領域のうちの1つに、または複数の領域それぞれに重畳する重畳工程と、
    前記パターン画像が重畳された表示画像を前記表示装置に出力する出力工程と
    を備えることを特徴とする情報処理方法。
  16. 表示装置に表示する表示画像を生成する情報処理装置における情報処理方法であって、
    画像情報を取得する取得工程と、
    前記画像情報に重畳するパターン画像を生成する生成工程と、
    前記表示装置に表示する表示画像を見るユーザの視点変化に応じて、前記生成されたパターン画像を制御する制御工程と、を備え、
    前記制御工程において制御されたパターン画像を前記画像情報に重畳することで、表示画像を生成することを特徴とする情報処理方法。
  17. 請求項15または16に記載の情報処理方法をコンピュータによって実行させるためのプログラムを格納したコンピュータ読取可能な記憶媒体。
  18. 請求項15または16に記載の情報処理方法をコンピュータによって実行させるためのプログラム。
JP2008195311A 2008-07-29 2008-07-29 情報処理装置及び情報処理方法 Pending JP2010033367A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2008195311A JP2010033367A (ja) 2008-07-29 2008-07-29 情報処理装置及び情報処理方法
US12/509,840 US9014414B2 (en) 2008-07-29 2009-07-27 Information processing apparatus and information processing method for processing image information at an arbitrary viewpoint in a physical space or virtual space
EP09166772A EP2149862A2 (en) 2008-07-29 2009-07-29 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008195311A JP2010033367A (ja) 2008-07-29 2008-07-29 情報処理装置及び情報処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012274048A Division JP5539486B2 (ja) 2012-12-14 2012-12-14 情報処理装置及び情報処理方法

Publications (1)

Publication Number Publication Date
JP2010033367A true JP2010033367A (ja) 2010-02-12

Family

ID=41337090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008195311A Pending JP2010033367A (ja) 2008-07-29 2008-07-29 情報処理装置及び情報処理方法

Country Status (3)

Country Link
US (1) US9014414B2 (ja)
EP (1) EP2149862A2 (ja)
JP (1) JP2010033367A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069171A1 (ja) * 2011-11-08 2013-05-16 パナソニック株式会社 画像処理装置、及び画像処理方法
JP2018142164A (ja) * 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
JP2020035249A (ja) * 2018-08-31 2020-03-05 日本放送協会 視線誘導装置及びそのプログラム

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011023902A (ja) * 2009-07-14 2011-02-03 Sony Corp 画像処理装置および画像処理方法
JP5800484B2 (ja) 2010-09-22 2015-10-28 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
JP5687881B2 (ja) * 2010-11-12 2015-03-25 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御システム、および表示制御方法
DE112012000563B4 (de) * 2011-01-25 2021-06-24 Lg Electronics Inc. Verfahren und Vorrichtung zum Senden/Empfangen eines digitalen Übertragungssignals
US9600933B2 (en) 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system
US9025873B2 (en) * 2011-11-10 2015-05-05 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8957916B1 (en) * 2012-03-23 2015-02-17 Google Inc. Display method
JP6056178B2 (ja) * 2012-04-11 2017-01-11 ソニー株式会社 情報処理装置、表示制御方法及びプログラム
US9251578B2 (en) * 2012-07-02 2016-02-02 Sony Corporation System and method for match move quality control
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
US9702977B2 (en) 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
JP2017505933A (ja) * 2013-11-26 2017-02-23 シェフィ,ヨァヴ 実在の物体上に固定された仮想画像を生成する方法及びシステム
CN104836977B (zh) * 2014-02-10 2018-04-24 阿里巴巴集团控股有限公司 即时通讯过程中的视频通讯方法及系统
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
US10535193B2 (en) * 2015-09-08 2020-01-14 Canon Kabushiki Kaisha Image processing apparatus, image synthesizing apparatus, image processing system, image processing method, and storage medium
JP2018077644A (ja) * 2016-11-08 2018-05-17 富士ゼロックス株式会社 情報処理システム及びプログラム
WO2018155670A1 (ja) * 2017-02-27 2018-08-30 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 画像配信方法、画像表示方法、画像配信装置及び画像表示装置
CN107390875B (zh) * 2017-07-28 2020-01-31 腾讯科技(上海)有限公司 信息处理方法、装置、终端设备和计算机可读存储介质
JP2019185475A (ja) * 2018-04-12 2019-10-24 富士通株式会社 特定プログラム、特定方法及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322601A (ja) * 1999-05-12 2000-11-24 Namco Ltd 画像生成方式
JP2001319244A (ja) * 2000-05-10 2001-11-16 Namco Ltd ゲームシステム及び情報記憶媒体
JP2006252426A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069608A (en) * 1996-12-03 2000-05-30 Sony Corporation Display device having perception image for improving depth perception of a virtual image
US6157733A (en) * 1997-04-18 2000-12-05 At&T Corp. Integration of monocular cues to improve depth perception
EP1030515A4 (en) * 1998-07-30 2002-03-20 Matsushita Electric Ind Co Ltd SYNTHETIZER OF MOVING IMAGES
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
JP2001307126A (ja) * 2000-02-17 2001-11-02 Sony Computer Entertainment Inc 画像描画方法、画像描画装置、記録媒体及びプログラム
JP3367934B2 (ja) * 2000-03-24 2003-01-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP3428581B2 (ja) 2000-12-22 2003-07-22 株式会社スクウェア ビデオゲーム装置およびその制御方法、ならびにビデオゲームのプログラムを記録したコンピュータ読取り可能な記録媒体。
JP4878083B2 (ja) * 2001-03-13 2012-02-15 キヤノン株式会社 画像合成装置及び方法、プログラム
JP3527489B2 (ja) * 2001-08-03 2004-05-17 株式会社ソニー・コンピュータエンタテインメント 描画処理方法及び装置、描画処理プログラムを記録した記録媒体、描画処理プログラム
JP3626144B2 (ja) * 2002-03-01 2005-03-02 株式会社セルシス 立体オブジェクトデータからの漫画的表現の2次元画像の生成方法および生成プログラム
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4401727B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 画像表示装置及び方法
JP4401728B2 (ja) * 2003-09-30 2010-01-20 キヤノン株式会社 複合現実空間画像生成方法及び複合現実感システム
US7574070B2 (en) * 2003-09-30 2009-08-11 Canon Kabushiki Kaisha Correction of subject area detection information, and image combining apparatus and method using the correction
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
WO2006040200A1 (de) * 2004-10-13 2006-04-20 Siemens Aktiengesellschaft Vorrichtung und verfahren zur beleuchtungs- und schattensimulation in einem augmented-reality-system
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
GB0606680D0 (en) * 2006-04-03 2006-05-10 Univ Cardiff Method of and apparatus for detecting degradation of visual performance
JP5074777B2 (ja) * 2006-05-22 2012-11-14 キヤノン株式会社 撮像機能付表示装置、画像処理装置、画像処理方法、および、画像表示システム
US9229230B2 (en) * 2007-02-28 2016-01-05 Science Applications International Corporation System and method for video image registration and/or providing supplemental data in a heads up display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322601A (ja) * 1999-05-12 2000-11-24 Namco Ltd 画像生成方式
JP2001319244A (ja) * 2000-05-10 2001-11-16 Namco Ltd ゲームシステム及び情報記憶媒体
JP2006252426A (ja) * 2005-03-14 2006-09-21 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069171A1 (ja) * 2011-11-08 2013-05-16 パナソニック株式会社 画像処理装置、及び画像処理方法
JPWO2013069171A1 (ja) * 2011-11-08 2015-04-02 パナソニックIpマネジメント株式会社 画像処理装置、及び画像処理方法
US9576402B2 (en) 2011-11-08 2017-02-21 Panasonic Intellectual Property Management Co., Ltd. Image processing device and image processing method
JP2018142164A (ja) * 2017-02-28 2018-09-13 キヤノン株式会社 画像処理装置、画像生成方法及びプログラム
JP7086522B2 (ja) 2017-02-28 2022-06-20 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
JP2020035249A (ja) * 2018-08-31 2020-03-05 日本放送協会 視線誘導装置及びそのプログラム
JP7153508B2 (ja) 2018-08-31 2022-10-14 日本放送協会 視線誘導装置及びそのプログラム

Also Published As

Publication number Publication date
EP2149862A2 (en) 2010-02-03
US20100027888A1 (en) 2010-02-04
US9014414B2 (en) 2015-04-21

Similar Documents

Publication Publication Date Title
JP2010033367A (ja) 情報処理装置及び情報処理方法
JP7386825B2 (ja) 仮想現実および拡張現実ディスプレイシステムのための連続時間ワーピングおよび両眼時間ワーピングおよび方法
JP2019079552A (ja) イメージ形成における及びイメージ形成に関する改良
CN109952760A (zh) 多视图场景流拼接
JP4903888B2 (ja) 画像表示装置、画像表示方法、および画像補正方法
JP2005295004A (ja) 立体画像処理方法および立体画像処理装置
JP6963399B2 (ja) プログラム、記録媒体、画像生成装置、画像生成方法
JP2012079291A (ja) プログラム、情報記憶媒体及び画像生成システム
JP2006285609A (ja) 画像処理方法、画像処理装置
JP6687751B2 (ja) 画像表示システム、画像表示装置、その制御方法、及びプログラム
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
US20220300120A1 (en) Information processing apparatus, and control method
WO2019048819A1 (en) METHOD FOR MODIFYING AN IMAGE ON A COMPUTER DEVICE
WO2017085803A1 (ja) 映像表示装置及び映像表示方法
WO2013133057A1 (ja) 画像処理装置および方法、並びにプログラム
JP5539486B2 (ja) 情報処理装置及び情報処理方法
JP6017144B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
CN106412562A (zh) 三维场景中显示立体内容的方法及其系统
KR101784208B1 (ko) 다수의 깊이 카메라를 이용한 3차원 디스플레이 시스템 및 방법
NZ751028B2 (en) Continuous time warp and binocular time warp for virtual and augmented reality display systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120914