JP6996450B2 - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP6996450B2
JP6996450B2 JP2018153334A JP2018153334A JP6996450B2 JP 6996450 B2 JP6996450 B2 JP 6996450B2 JP 2018153334 A JP2018153334 A JP 2018153334A JP 2018153334 A JP2018153334 A JP 2018153334A JP 6996450 B2 JP6996450 B2 JP 6996450B2
Authority
JP
Japan
Prior art keywords
hand
virtual
distance
real
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018153334A
Other languages
English (en)
Other versions
JP2020027555A (ja
Inventor
隆寛 河邉
奈美 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Inc
NTT Inc USA
Original Assignee
Nippon Telegraph and Telephone Corp
NTT Inc USA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, NTT Inc USA filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018153334A priority Critical patent/JP6996450B2/ja
Priority to PCT/JP2019/031286 priority patent/WO2020036114A1/ja
Priority to US17/268,059 priority patent/US11403830B2/en
Publication of JP2020027555A publication Critical patent/JP2020027555A/ja
Application granted granted Critical
Publication of JP6996450B2 publication Critical patent/JP6996450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想現実技術に関し、特に、仮想現実空間における視対象の大きさを制御する技術に関する。
バーチャルリアリティ(VR: virtual reality、「仮想現実」と訳される)とは、対象が観察者の周囲に存在しない(現前していない)にもかかわらず、観察者にその対象が周囲に存在すると感じさせる(同一の知覚表象を生じさせる)技術である(例えば、非特許文献1等参照)。VRを実現するために、知覚表象が現実の3次元空間と実質的に変わらない3次元空間(VR空間、すなわち仮想現実空間)をコンピュータにより生成し、それをヘッドマウントディスプレイ(VRゴーグル)によって観察者に提示することがある。ヘッドマウントディスプレイは、観察者の顔面上部をすっぽりと覆うように装着される映像表示装置である。ヘッドマウントディスプレイは、それを装着した観察者の右眼および左眼の数センチ前にそれぞれ配置される独立の映像表示部を具備し、右眼用画像と左眼用画像とを右眼と左眼とに独立に提示できる。コンピュータが生成したVR空間からヘッドマウントディスプレイで表示される右眼用画像と左眼用画像とを得るために、VR空間内の2つの点を、2点間距離が実際の人間の眼間距離(6.5cm)またはそれに近い値となるように選択する。そして、これらの2つの点に2個のカメラ(VR空間のカメラ)を、それらの撮影方向が平行に同方向を向くようにそれぞれ設置する。実空間(現実空間)のカメラと同じように、VR空間のカメラにも光を受光できる空間範囲(画角)が存在し、そのVR空間のカメラの画角が右眼用画像と左眼用画像とにそれぞれ含まれるVR空間内の空間範囲を決定する。VR空間内に光源と光を反射する表面を持つ対象と対象を撮影するカメラとを配置し、当該対象で反射された光を当該カメラが受光して撮影するシミュレーションを行うことができる。これを撮影シミュレーションと呼ぶ。この撮影シミュレーションの結果として生成されるものが、ヘッドマウントディスプレイに表示される右眼用画像および左眼用画像である。撮影シミュレーションの結果の画像化は、一般的な3DモデリングソフトウェアやVRシミュレーターなどを用いて可能であり、例えばUnity(登録商標)やBlender(登録商標)といった3Dモデリング/レンダリングソフトウェアを用いることができる。撮影シミュレーションから画像化までの処理を自動化することも可能である。
VR空間内における物体の3次元形状はポリゴン(三角形)の集合体によって表現される。VR空間における単位体積当たりのポリゴンの数が少なければ表面形状は粗くなり、逆に、VR空間における単位体積当たりのポリゴンの数が多ければ表面形状はきめ細やかになる。ポリゴンに対し、テクスチャと呼ばれる画像情報を貼り付けることによって、ポリゴンの集合体に色や肌理が表示される。
VRでは、観察者のリアルな手(実空間における観察者自身の手)と同じ見かけの大きさを持つバーチャルな手(VR空間内に表示される手)の映像を、ヘッドマウントディスプレイによって提示することもできる。ここで「見かけの大きさ」とは、観察者が知覚する手の大きさのことを意味している。例えば、便宜的に実空間におけるリアルな手の中指から手首までの長さを「手の大きさ」として定義すると、通常、手の大きさは18~20cmであるが、バーチャルな手もリアルな手と同じ位の大きさに見えるように設定することができる。VR空間内において手の3次元形状を表現するポリゴン(三角形)の集合体のことを「バーチャルな手のモデル」と呼ぶ時、VR空間におけるバーチャルな手のモデルの大きさを18~20cmに設定すると、バーチャルな手の見かけの大きさはリアルな手の見かけの大きさと同じになる。
一方で、VR空間におけるバーチャルな手のモデルの大きさを、リアルな手が通常取りうる大きさの範囲の外に設定すると、バーチャルな手の見かけの大きさはリアルな手の見かけの大きさと一致しない。例えばバーチャルな手のモデルの大きさを10cmに設定すると、VR空間内のバーチャルな手の見かけの大きさはリアルな手の見かけの大きさよりも小さく見える。例えばバーチャルな手のモデルの大きさを40cmに設定すると、VR空間内のバーチャルな手の見かけの大きさはリアルな手の見かけの大きさよりも大きく見える(例えば、非特許文献2等参照)。
以降、VR空間におけるバーチャルな手がリアルな手と同じ見かけの大きさをもつ場合、そのバーチャルな手を「バーチャルな普通の手」と表現する。VR空間におけるバーチャルな手がリアルな手よりも見かけ上大きい場合、そのバーチャルな手を「バーチャルな巨人の手」と表現する。VR空間におけるバーチャルな手が、リアルな手よりも見かけ上小さい場合、そのバーチャルな手を「バーチャルな小人の手」と表現する。
舘▲すすむ▼・佐藤誠・廣瀬通孝 監修,"バーチャルリアリティ学",日本バーチャルリアリティ学会,2011年. Linkenauger, S. A., Leyrer, M., Bulthoff, H. H., Mohler, B. J. "Welcome to Wonderland: The Influence of the Size and Shape of a Virtual Hand On the Perceived Size and Shape of Virtual Objects," [online], 2013年7月11日,PLOS ONE, 8(7), e68594, [2018年6月1日検索], インターネット<https://doi.org/10.1371/journal.pone.0068594>
VR空間でバーチャルな巨人の手を表現する方法として、バーチャルな手のモデルの大きさを大きくする方法が考えられる。逆にVR空間でバーチャルな小人の手を表現する方法として、バーチャルな手のモデルの大きさを小さくする方法が考えられる。
しかし、バーチャルな手のモデルの大きさを変更した場合、バーチャルな手の見かけの質感に問題が生じる場合がある。例えば、VR空間内においてバーチャルな巨人の手を表現するために、バーチャルな手のモデルの大きさの大きくしたと仮定する。このバーチャルな巨人の手をカメラに近づけすぎると、バーチャルな手のモデルが大きすぎてその全貌がカメラの画角に収まらず、結果的にバーチャルな巨人の手がヘッドマウントディスプレイに表示される空間範囲からはみ出してしまう。また、バーチャルな手のモデルの大きさを大きくした場合にはバーチャルな手を構成する単位体積当たりのポリゴン数が減少するため、バーチャルな巨人の手の表面形状は粗くなる。また、ポリゴンに貼るテクスチャの解像度も粗くなる。そのため、例えば、陰影や色、しわ、テクスチャといったバーチャルな巨人の手の質感がリアルな手の質感と大きく異なってしまい、観察者が違和感を感じる。さらには、バーチャルな巨人の手とバーチャルな普通の手とを切り替える場面においてバーチャルな手の質感が大きく変わってしまい、観察者が違和感を感じる。逆に、VR空間でバーチャルな小人の手を表現するために、バーチャルな手のモデルの大きさを小さくしたと仮定する。この場合には、VR空間のカメラで撮影されるバーチャルな小人の手の画像領域が小さくなりすぎてしまい、バーチャルな小人の手の詳細なテクスチャを視認することができなくなってしまう場合がある。さらに、バーチャルな手のモデルの大きさを小さくした場合にはバーチャルな手を構成する単位体積当たりのポリゴン数が増加するため、バーチャルな小人の手の表面形状はきめ細やかになるが、ポリゴンに貼るテクスチャが表示する際の画面の解像度に限界があるため、テクスチャの画素値が隣接する画素間で平均化され、結果的に小人の手に貼られたテクスチャがボケて見える。そのため、バーチャルな小人の手の質感がリアルな手の質感と大きく異なってしまい、観察者が違和感を感じる場合がある。さらには、バーチャルな小人の手とバーチャルな普通の手とを切り替える場面においてバーチャルな手の質感が大きく変わってしまい、観察者が違和感を感じる。
このような問題は、観察者のリアルな手に基づいたバーチャルな手の大きさをリアルな手の大きさと異ならせて観察者に提示する場合やバーチャルな手の大きさを変更して観察者に提示する場合のみならず、ある対象がVR空間において拡大または縮小された視対象を観察者に提示する場合やある対象に対応するVR空間内の視対象を拡大または縮小して観察者に提示する場合にも共通するものである。
本発明はこのような点に鑑みてなされたものであり、観察者が知覚する見かけの質感を大きく異ならせることなく観察者に提示するための、ある対象を拡大または縮小したVR空間における視対象を生成することを目的とする。
本発明では、実空間または仮想現実空間における第1対象を拡大または縮小して仮想現実空間における視対象である第2対象を生成する。ただし、実空間における実観察位置または仮想現実空間における仮想観察位置で第1対象のなす視角または推定視角である第1視角は、当該仮想観察位置で第2対象のなす視角である第2視角と同一または略同一である。第2対象が第1対象を拡大したものである場合には、当該仮想観察位置から第2対象までの距離である第2距離は、当該実観察位置または仮想観察位置から第1対象までの距離または推定距離である第1距離よりも大きく、第2対象が第1対象を縮小したものである場合には、第2距離は第1距離よりも小さい。
これにより、観察者が知覚する見かけの質感を大きく異ならせることなく観察者に提示するための、ある対象を拡大または縮小したVR空間における視対象を生成できる。
図1は、実施形態の画像処理装置の機能構成を例示したブロック図である。 図2は、左右の目のうち、左眼で大きさが同じ対象である物体aおよび物体bを見ている状況を例示した模式図である。 図3は、左右の目のうち、左眼が大きさの異なる対象である物体cと物体fを見ている状況を例示した模式図である。 図4は、手の基準部を例示した模式図である。 図5Aは、リアルな手の視角変化および奥行き変化を例示した模式図であり、図5Bは、このリアルな手に基づいたバーチャルな巨人の手の視角変化および奥行き変化を例示した模式図である。 図6Aは、リアルな手の視角変化および奥行き変化を例示した模式図であり、図6Bは、このリアルな手に基づいたバーチャルな小人の手の視角変化および奥行き変化を例示した模式図である。 図7Aおよび図7Bは、実空間での対象に対する視角と仮想空間での対象に対する視角とを同一とし、仮想空間の対象を実空間の対象と異なる大きさとした様子を例示した模式図である。 図8は実施形態の画像処理装置の機能構成を例示したブロック図である。 図9は、仮想空間において対象の奥行きを変化させた様子を例示した模式図である。
以下、図面を参照して本発明の実施形態を説明する。
[原理]
まず、本実施形態で説明する技術の原理を説明する。ここでは、観察者のリアルな手に基づくバーチャルな手の大きさをリアルな手の大きさと異ならせて知覚させる場合について説明する。
本技術では、大きさ恒常性を利用することで、バーチャルな手の質感をリアルな手の質感と大きく異ならせずに、バーチャルな手をリアルな手よりも大きく見せたり小さく見せたりする。大きさ恒常性とは、対象の奥行きを考慮して対象の大きさを判断する脳(視覚)の特性を意味する。人間は世界から光を受容する。その受容器は目である。目の奥には網膜と呼ばれる部位があり、目を通過してきた光が網膜に当たる。網膜にある網膜細胞が光によって刺激され、刺激を受けた網膜細胞からの信号が神経繊維を通じて脳に伝わる。その信号が脳において更に情報処理されることにより、人間は世界を見ることができる。脳は、対象の大きさを直接測定することはできないので、網膜に当たった光のパタンの大きさに基づいて対象の大きさを判断する。このとき、網膜に当たった光のパタンの大きさは対象がなす視角に対応する。図2は、観察者の左右の目のうち、左眼が同じ大きさの対象である物体aおよび物体bを見ている状況を例示している。左眼で物体aがなす視角は、図2における角AOA’であり、左眼で物体bがなす視角は図2における角BOB’である。なお、点Oは左眼の水晶体内部に位置する原点を表す。図2では物体aと物体bとが同じ大きさであるが、物体bの方が物体aよりも左眼から遠い位置にある。この場合、物体bの視角は物体aの視角よりも小さい。つまり、角AOA’>角BOB’である。しかしながら、図2のような事態に遭遇したときであっても、観察者は物体aと物体bの大きさが等しいと判断できる。この観察者による大きさ判断を理解するためには、脳による奥行き推定と大きさ推定の関係性を理解することが必要である。
まず、脳は右眼と左眼に映る像のずれ(両眼視差)から奥行きを推定することができる。また、2つの対象が存在する場合、その2つの対象が生成する両眼視差の関係性(相対視差)から、2つの対象のどちらが遠くにあるかを推定することができる。例えば、図2において物体bを注視した場合、物体aは交差性視差を生成し、注視点である物体bは両眼視差を生成しない(すなわち、物体bが生成する両眼視差は零になる)。一般に脳は、交差性視差を生成する対象が両眼視差を生成しない対象よりも手前にあると推定するため、物体aは注視された物体bよりも手前にあると認識される。一方で、例えば、図2において物体aを注視した場合、物体bは非交差性視差を生成し、注視点である物体aは両眼視差を生成しない(すなわち、物体aが生成する両眼視差は零になる)。一般に脳は、非交差性視差を生成する対象が両眼視差を生成しない対象よりも奥まっていると推定するため、物体bは注視された物体aよりも奥まっていると認識される。このように脳は両眼視差を奥行き情報として用いることで、物体bが物体aよりも遠くにあることを認識することができる。
次に、この奥行き推定に基づいて、脳が物体aと物体bの大きさをどのように判断するかという点について説明する。脳は、網膜に当たった物体bの光のパタンが物体aの光のパタンよりも小さいことから、物体bが生成する視角(角BOB’)は、物体aが生成する視角(角AOA’)よりも小さいと認識する。脳はまた、前述の奥行き推定により、物体bが物体aよりも遠くにあることを認識する。さらに、一般に脳は、遠くにあるものはそれが近くにあるときよりも小さく見えるという事前知識を持っている。脳は、このような視角および奥行きについての認識と事前知識との関係性から、物体aと物体bとが同じ大きさであることが最も確からしいと判断する。これが大きさ恒常性の働きである。
図3は、観察者の左右の目のうち、左眼が大きさの異なる対象である物体cおよび物体fを見ている状況を例示している。左眼で物体cのなす視角は角COC’であり、左眼で物体fのなす視角は角FOF’である。角COC’は角FOF’と等しい。また、物体fは物体cよりも大きく、物体fの方が物体cよりも左眼から遠い位置にある。この時、脳は、網膜に当たった物体cの光のパタンが物体fの光のパタンと同じ大きさであることから、FOF’=COC’であると認識する。脳はまた、前述の奥行き推定により、物体fが物体cよりも遠くにあることを認識する。さらに脳は、上述の事前知識を持っている。これらより、脳は、物体cと物体fとで視角は同じだけれど、物体fの方が物体cよりも遠くにあるから、物体fの方が物体cよりも実際の大きさは大きいだろうと推測する。これも大きさ恒常性の働きである。
本技術では、実空間で移動するリアルな手を観察者が観察した際のリアルな手の視角とVR空間内のカメラで撮影したバーチャルな手の視角とを一致させつつ、脳が感じるバーチャルな手の奥行き位置を両眼視差に基づいて操作する。これにより、バーチャルな手の質感をリアルな手の質感と大きく異ならせずに、バーチャルな手を見かけ上、リアルな手よりも大きく見せたり小さく見せたりする。
まず、本技術において、バーチャルな手を見かけ上、リアルな手よりも大きく見せる場合、すなわちバーチャルな巨人の手を提示する場合について説明する。図4に例示するように、以降の説明では、便宜上、右手親指の先端から右手小指の付け根までの距離(LからL’までの線形寸法)を「手の大きさ」と定義して視角を計算する。視角を計算するために利用した手の部分を基準部と呼び、基準部の長さ(線形寸法)を基準距離と呼ぶ。基準距離のなす視角が手の視角である。また、基準部を水平線分によって表現する。図5Aに、本技術において、観察者の目からリアルな手までの奥行きが変化する場合における当該リアルな手の視角変化を例示し、図5Bに、このリアルな手に基づいたバーチャルな手のカメラからの奥行きが変化する場合における当該バーチャルな手の視角変化を例示する。観察者の目の原点Oからリアルな手の3次元形状までの距離(例えば、原点Oからリアルな手の3次元形状の中心点までの距離)を「リアルな手の奥行き距離」と表現し、VR空間を撮影するカメラの結像面Iに位置する原点O(例えば、焦点)からバーチャルな手までの距離(例えば、原点Oからバーチャルな手の3次元形状の中心点までの距離)を「バーチャルな手の奥行き距離」と表現する。kはリアルな手の奥行き距離を表し、kはバーチャルな手の奥行き距離を表す。本技術では、バーチャルな手を、リアルな手の実空間での移動に伴ってVR空間内を移動させる。すなわち、バーチャルな手をリアルな手と終始同時に移動させる。例えば、リアルな手が実空間の位置Pr1から位置Pr2へ移動すると、それに伴ってバーチャルな手をVR空間の位置Pv1から位置Pv2へ移動させる。リアルな手およびバーチャルな手の移動に伴い、リアルな手の奥行き距離k、およびバーチャルな手の奥行き距離kが変化する。ただし、リアルな手の奥行き距離kと当該リアルな手に基づいたバーチャルな手の奥行き距離kとの比は常に一定である。図5Aにおける水平線分Er1-E’r1は、リアルな手が実空間の位置Pr1に配置された際のリアルな手の基準部を例示し、水平線分Er2-E’r2は、リアルな手が実空間の位置Pr2に配置された際のリアルな手の基準部を例示している。また、図5Bにおける水平線分Ev1-E’v1は、リアルな手が位置Pr1に配置された際に位置Pv1に配置されるバーチャルな手の基準部を例示している。水平線分Ev2-E’v2は、リアルな手が位置Pr2に配置された際に位置Pv2に配置されるバーチャルな手の基準部を例示している。
リアルな手が実空間内を移動すると、リアルな手の奥行き距離が変化する。図5Aの例の場合、位置Pr1に配置されたリアルな手の奥行き距離は、位置Pr2に配置されたリアルな手の奥行き距離よりも小さい。リアルな手の基準距離が変化しないので、水平線分Er1-E’r1の線形寸法と水平線分Er2-E’r2の線形寸法は等しい。この場合、原点Oで位置Pr1のリアルな手のなす視角(破線がなす角)Er1OE’r1は、位置Pr2のリアルな手のなす視角(実線がなす角)Er2OE’r2よりも大きい。しかしながら、たとえ実空間でリアルな手が位置Pr1から位置Pr2へ移動したり、位置Pr2から位置Pr1へ移動したりしても、観察者はリアルな手が小さくなったり大きくなったりしたとは感じず、同じ大きさのリアルな手の奥行きが自然に変化したと感じる。
図5Bに例示するように、本技術では、バーチャルな手をリアルな手の移動に伴って移動させ、バーチャルな手の奥行き距離kをリアルな手の奥行き距離kに伴って変化させる。ここで、位置Pv1に配置されたバーチャルな手の奥行き距離は、位置Pv2に配置されたバーチャルな手の奥行き距離よりも小さい。図5Bに例示すように、本技術では、バーチャルな手の基準距離は常に一定とし、水平線分Ev1-E’v1の線形寸法と水平線分Ev2-E’v2の線形寸法を等しくする。この場合、原点Oで位置Pv1のバーチャルな手のなす視角(破線がなす角)Ev1E’v1は、位置Pv2のバーチャルな手のなす視角(実線がなす角)Ev2E’v2よりも大きい。しかしながら、本技術によってVR空間でバーチャルな手を位置Pv1から位置Pv2へ移動させたり、位置Pv2から位置Pv1へ移動させたりしても、観察者はバーチャルな手が小さくなったり大きくなったりしたとは感じず、同じ大きさのバーチャルな手の奥行きが自然に変化したと感じさせることができる。
また、本技術では、原点Oで位置Pv1のバーチャルな手のなす視角(図5Bの破線がなす角)Ev1E’v1を、原点Oで位置Pr1のリアルな手のなす視角(図5Aの破線がなす角)Er1OE’r1と一致させる。さらに、本技術では、リアルな手の位置Pr1から位置Pr2への移動に伴うリアルな手のなす視角の変化と、バーチャルな手の位置Pv1から位置Pv2への移動に伴うバーチャルな手のなす視角の変化が等しくなるようにする。よって、本技術では、リアルな手の位置Pr1から位置Pr2の方向への移動に伴ってバーチャルな手を位置Pv1から位置Pv2の方向へ移動させる場合に、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。同様に、本技術では、原点Oで位置Pv2のバーチャルな手のなす視角(図5Bの実線がなす角)Ev2E’v2を、原点Oで位置Pr2のリアルな手のなす視角(図5Aの実線がなす角)Er2OE’r2と一致させる。さらに、本技術では、リアルな手の位置Pr2から位置Pr1への移動に伴うリアルな手のなす視角の変化と、バーチャルな手の位置Pv2から位置Pv1への移動に伴うバーチャルな手のなす視角の変化が等しくなるようにする。よって、本技術では、リアルな手の位置Pr2から位置Pr1の方向への移動に伴ってバーチャルな手を位置Pv2から位置Pv1の方向へ移動させる場合にも、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。以上より、本技術では、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。このようにすることで、本技術では、バーチャルな手の見かけの質感を、常時、リアルな手の見かけの質感と同等になるようにしている。一方、図5Bに示すように、本技術では、バーチャルな手の奥行き距離kを、図5Aにおけるリアルな手の奥行き距離kよりも常に大きくなるようにしている(遠くなるようにしている)。それによって、図5Bに示すように、本技術では、バーチャルな手の基準距離が、図5Aにおけるリアルな手の基準距離よりも常に大きくなるようにしている。これによって、本技術では、大きさ恒常性の働きにより、図5Bのバーチャルな手が、図5Aのリアルな手よりも見かけの大きさが大きく、バーチャルな巨人の手として知覚されるようにしている。これらにより、本技術では、リアルな手の質感を大きく変えることなく、バーチャルな手を巨人の手として知覚させることができる。
次に、本技術において、バーチャルな手を見かけ上、リアルな手よりも小さく見せる場合、すなわちバーチャルな小人の手を提示する場合について説明する。図6Aに、本技術において、観察者の目からリアルな手までの奥行きがが変化する場合における当該リアルな手の視角変化を例示し、図6Bに、このリアルな手に基づいたバーチャルな手のカメラからの奥行きが変化する場合における当該バーチャルな手の視角変化を例示する。本技術では、バーチャルな手をリアルな手よりも小さく見せる場合も、バーチャルな手をリアルな手と終始同時に移動させる。例えば、リアルな手が実空間の位置Pr3から位置Pr4へ移動すると、それに伴ってバーチャルな手をVR空間の位置Pv3から位置Pv4へ移動させる。リアルな手およびバーチャルな手の移動に伴い、リアルな手の奥行き距離k、およびバーチャルな手の奥行き距離kが変化する。バーチャルな手をリアルな手よりも小さく見せる場合も、リアルな手の奥行き距離kと当該リアルな手に基づいたバーチャルな手の奥行き距離kとの比は常に一定である。図6Aにおける水平線分Er3-E’r3は、リアルな手が実空間の位置Pr3に配置された際のリアルな手の基準部を例示し、水平線分Er4-E’r4は、リアルな手が実空間の位置Pr4に配置された際のリアルな手の基準部を例示している。また、図6Bにおける水平線分Ev3-E’v3は、リアルな手が位置Pr3に配置された際に位置Pv3に配置されるバーチャルな手の基準部を例示している。水平線分Ev4-E’v4は、リアルな手が位置Pr4に配置された際に位置Pv4に配置されるバーチャルな手の基準部を例示している。
リアルな手が実空間内を移動すると、リアルな手の奥行き距離が変化する。図6Aの例の場合、位置Pr3に配置されたリアルな手の奥行き距離は、位置Pr4に配置されたリアルな手の奥行き距離よりも小さい。リアルな手の基準距離が変化しないので、水平線分Er3-E’r3の線形寸法と水平線分Er4-E’r4の線形寸法と等しい。この場合、原点Oで位置Pr3のリアルな手のなす視角(破線がなす角)Er3OE’r3は、位置Pr4のリアルな手のなす視角(実線がなす角)Er4OE’r4よりも大きい。しかしながら、たとえ実空間でリアルな手が位置Pr3から位置Pr4へ移動したり、位置Pr4から位置Pr3へ移動したりしても、観察者はリアルな手が小さくなったり大きくなったりしたとは感じず、同じ大きさのリアルな手の奥行きが自然に変化したと感じる。
図6Bに例示するように、本技術では、バーチャルな手をリアルな手の移動に伴って移動させ、バーチャルな手の奥行き距離kをリアルな手の奥行き距離kに伴って変化させる。ここで、位置Pv3に配置されたバーチャルな手の奥行き距離は、位置Pv4に配置されたバーチャルな手の奥行き距離よりも小さい。図6Bに例示すように、本技術では、バーチャルな手の基準距離は常に一定とし、水平線分Ev3-E’v3の線形寸法と水平線分Ev4-E’v4の線形寸法を等しくする。この場合、原点Oで位置Pv3のバーチャルな手のなす視角(破線がなす角)Ev3E’v3は、位置Pv4のバーチャルな手のなす視角(実線がなす角)Ev4E’v4よりも大きい。しかしながら、本技術によってVR空間でバーチャルな手を位置Pv3から位置Pv4へ移動させたり、位置Pv4から位置Pv3へ移動させたりしても、観察者はバーチャルな手が小さくなったり大きくなったりしたとは感じず、同じ大きさのバーチャルな手の奥行きが自然に変化したと感じさせることができる。
また、本技術では、原点Oで位置Pv3のバーチャルな手のなす視角(図6Bの破線がなす角)Ev3E’v3を、原点Oで位置Pr3のリアルな手のなす視角(図6Aの破線がなす角)Er3OE’r3と一致させる。さらに、本技術では、リアルな手の位置Pr3から位置Pr4への移動に伴うリアルな手のなす視角の変化と、バーチャルな手の位置Pv3から位置Pv4への移動に伴うバーチャルな手のなす視角の変化が等しくなるようにする。よって、本技術では、リアルな手の位置Pr3から位置Pr4の方向への移動に伴ってバーチャルな手を位置Pv3から位置Pv4の方向へ移動させる場合に、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。同様に、本技術では、原点Oで位置Pv4のバーチャルな手のなす視角(図6Bの実線がなす角)Ev4E’v4を、原点Oで位置Pr4のリアルな手のなす視角(図6Aの実線がなす角)Er4OE’r4と一致させる。さらに、本技術では、リアルな手の位置Pr4から位置Pr3への移動に伴うリアルな手のなす視角の変化と、バーチャルな手の位置Pv4から位置Pv3への移動に伴うバーチャルな手のなす視角の変化が等しくなるようにする。よって、本技術では、リアルな手の位置Pr4から位置Pr3の方向への移動に伴ってバーチャルな手を位置Pv4から位置Pv3の方向へ移動させる場合にも、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。以上より、図6Aおよび図6Bの例の場合も、本技術では、バーチャルな手のなす視角をリアルな手のなす視角と常に一致させている。このようにすることで、本技術では、バーチャルな手の見かけの質感を、常時、リアルな手の見かけの質感と同等になるようにしている。一方、図6Bに示すように、本技術では、バーチャルな手の奥行き距離kを、図6Aにおけるリアルな手の奥行き距離kよりも常に小さくなるようにしている(近くなるようにしている)。それによって、図6Bに示すように、本技術では、バーチャルな手の基準距離が、図6Aにおけるリアルな手の基準距離よりも常に小さくなるようにしている。これによって、本技術では、大きさ恒常性の働きにより、図6Bのバーチャルな手が、図6Aのリアルな手よりも見かけの大きさが小さく、バーチャルな小人の手として知覚されるようにしている。これらにより、本技術では、リアルな手の質感を大きく変えることなく、バーチャルな手を小人の手として知覚させることができる。
[第1実施形態]
次に、第1実施形態を説明する。第1実施形態では、上述した原理を画像処理システムで実現するために、リアルな手の位置および奥行き距離を取得し、バーチャルな手がバーチャルな巨人の手であると観察者に認知させたい場合には、リアルな手の奥行き距離より長い距離をバーチャルな手の奥行き距離として決定し、バーチャルな手がバーチャルな小人の手であると観察者に認知させたい場合には、リアルな手の奥行き距離より短い距離をバーチャルな手の奥行き距離として決定し、この距離の位置に配置されたバーチャルな手の視角がリアルな手の視角と同じになるように、バーチャルな手のモデルの大きさを決定し、決定した奥行き距離と決定した大きさのバーチャルな手を含むVR空間をヘッドマウントディスプレイの右眼用ディスプレイと左眼用ディスプレイで提示する例を示す。
<構成>
図1に例示するように、本実施形態の画像処理システム1は、実空間画像取得装置10、実空間位置取得装置11、画像処理装置12、および画像提示装置13を有する。実空間画像取得装置10は、実空間に存在する対象の画像を取得する装置である。実空間位置取得装置11は、実空間に存在する対象の位置の情報を取得する装置である。例えば、実空間画像取得装置10はカメラ(例えば、RGBカメラ)を備える装置であり、実空間位置取得装置11は位置センサ(例えば、深度センサ)を備える装置である。例えば、Leap Motion(登録商標)やKinect(登録商標)などの奥行カメラを実空間画像取得装置10および実空間位置取得装置11として用いることができる。本実施形態で例示する画像処理装置12は、実座標計算部121、実距離計算部122、仮想距離計算部123、仮想座標計算部124、仮想サイズ計算部126、画像処理部127、および提示用画像生成部128を有する装置である。実座標計算部121、実距離計算部122、仮想距離計算部123、仮想座標計算部124、仮想サイズ計算部126、および画像処理部127が、リアルな手を拡大または縮小したバーチャルな手を生成する処理部(視対象生成部)である。画像提示装置13は、観察者にVR空間を知覚させるための画像を提示する装置である。画像提示装置13の例は、右眼用画像と左眼用画像とを提示するヘッドマウントディスプレイである。
<処理>
本実施形態の処理を説明する。
≪リアルな手の位置の計測≫
実空間位置取得装置11は、観察者のリアルな手の位置を表す位置情報pを取得して出力する。画像処理装置12の実座標計算部121は、この位置情報pを入力とし、観察者のリアルな手の実空間における位置R[i,j,k]を表す座標値i,j,kを出力する。本実施形態で例示する座標値i,j,kは、観察者の目の位置を原点R[0,0,0]とした実空間の直交座標系R[x,y,z]におけるリアルな手の位置R[i,j,k]を表す。各実施形態では、便宜上、観察者の左眼または右眼の何れか一方の目(例えば、左眼)の原点Oを原点R[0,0,0]とする例を説明する。ここでi,j,kは、それぞれ実空間の直交座標系の水平軸、垂直軸、奥行軸上の座標値である。例えば、実空間位置取得装置11で得られたリアルな手の位置情報pが、実空間位置取得装置11が備える位置センサを原点とした座標系で表現される位置情報である場合、実座標計算部121は、入力された位置センサを原点とした座標系で表現されるリアルな手の位置情報を、座標系R[x,y,z]におけるリアルな手の座標値i,j,kに変換して出力する。位置R[i,j,k]は、例えば、リアルな手の3次元的な中心点である。また、仮想サイズ計算部126は、位置情報pを入力とし、リアルな手の大きさS(例えば、図4のLからL’までの線形寸法)を求めて出力する。
≪観察者の目の位置からリアルな手までの距離を取得する処理≫
実距離計算部122は、座標値i,j,kを入力とし、観察者の目の位置(原点R[0,0,0])から、座標値i,j,kが表すリアルな手の位置までの距離dを計算して出力する。本実施形態の座標値i,j,kは座標系R[x,y,z]におけるリアルな手の位置R[i,j,k]を表すため、実距離計算部122は、距離dを以下の式(1)で計算すればよい。
Figure 0006996450000001
≪バーチャルな手の位置を決定する処理≫
仮想距離計算部123は、パラメータαおよび上述した距離dを入力とし、以下の式(2)で表される、VR空間におけるカメラの位置からバーチャルな手までの距離Dを得て出力する。
D=α×d (2)
ただし、パラメータαは、バーチャルな手の見かけ上の大きさをリアルな手の大きさの何倍にするかを特定する正の実数である。バーチャルな手をリアルな手よりも大きく見せる場合、すなわちバーチャルな巨人の手を提示する場合にはα>1とし、バーチャルな手をリアルな手よりも小さく見せる場合、すなわちバーチャルな小人の手を提示する場合は0<α<1とする。バーチャルな手をリアルな手と同じ大きさに見せる場合にはα=1とする。パラメータαは、外部から画像処理装置12に入力されたものであってもよいし、画像処理装置12の記憶部(図示せず)から読み出されたものであってもよい。本実施形態では、大きさ恒常性を用い、バーチャルな手の質感をリアルな手の質感と大きく異ならせずに、バーチャルな手の見かけ上の大きさをリアルな手の大きさのα倍にするために、式(2)のように距離dのα倍を距離Dにする。
次に、仮想座標計算部124は、上述した位置R[i,j,k]の座標値i,j,k、距離d、および距離Dを入力とし、バーチャルな手のVR空間における位置V[i,j,k]の座標値i,j,kを決定して出力する。ここで、本実施形態で例示する位置V[i,j,k]は、VR空間のカメラの位置を原点V[0,0,0]としたVR空間の直交座標系V[x,y,z]における位置である。各実施形態では、便宜上、VR空間の特定の一つのカメラ(例えば、前述した2個のカメラのうち左側に配置されるカメラ)の結像面Iの原点Oを原点V[0,0,0]とする例を説明する。バーチャルな手の位置V[i,j,k]は、例えば、バーチャルな手の3次元的な中心点である。なお、i,j,kは、それぞれVR空間の直交座標系の水平軸、垂直軸、奥行軸上の座標値である。例えば、仮想座標計算部124は、以下の式(3)によって距離Dに対応するバーチャルな手の座標値i,j,kを決定する。
Figure 0006996450000002
≪バーチャルな手の大きさの決定処理≫
図7Aおよび図7Bを用いてバーチャルな手の大きさの決定処理を説明する。実空間の原点O(つまり原点R[0,0,0])から距離dにある(つまり図7Aにおいて位置Pr2にある)リアルな手の大きさをSとし、実空間の原点Oで当該原点Oから距離dにあるリアルな手のなす視角をθとし、視角θを二等分した視角をθhalf=θ/2とする。この場合、このリアルな手の大きさSは以下の関係式を満たす。
=2×d×tanθhalf (4)
ここで、VR空間において、原点O(つまり原点V[0,0,0])から距離Dにある(つまり図7Bにおいて位置Pv2にある)バーチャルな手の視角が、実空間の原点Oで当該原点Oから距離dにあるリアルな手のなす視角θと同じになるようにするためには、バーチャルな手の大きさSが以下の関係式を満たす必要がある。
=2×D×tanθhalf (5)
なお、図7BはD>dの場合を例示しているが、D≦dの場合であってもバーチャルな手の大きさSが式(5)を満たす必要がある。以上より、原点Oから距離Dの位置にバーチャルな手を配置し、その視角をリアルな手のなす視角θと同一にするためには、式(5)を満たすバーチャルな手の大きさSとすればよい。仮想サイズ計算部126は、上述した式(4)と式(5)を満たすバーチャルな手の大きさSを得て出力する。例えば、仮想サイズ計算部126は、実空間位置取得装置11で得られた位置情報p、実距離計算部122から出力された距離d、および仮想距離計算部123から出力された距離Dを入力とし、式(4)と式(5)を満たすバーチャルな手の大きさSを得て出力する。一例を示すと、仮想サイズ計算部126は、位置情報pに基づいてtanθhalfを求め(例えば、前述のように位置情報pに基づいてSを求め、Sとdとを用いて式(4)に従ってtanθhalfを求め)、tanθhalfとDと用いて式(5)に従ってSを求めて出力する。
実空間画像取得装置10は、観察者のリアルな手の画像を表す画像情報gを取得して出力する。画像処理部127には、実空間画像取得装置10で得られた画像情報g、仮想座標計算部124で得られた座標値i,j,k、および、仮想サイズ計算部126で得られたバーチャルな手の大きさSが入力される。画像処理部127は、VR空間において、画像情報gで特定されるリアルな手を模したバーチャルな手であって、座標値i,j,kの位置V[i,j,k]に配置され(例えば、位置V[i,j,k]を中心点として配置され)、大きさがSであるバーチャルな手を含む画像pを生成して出力する。リアルな手を模したバーチャルな手とは、例えば、リアルな手と相似または略相似なバーチャルな手を意味する。バーチャルな手の色彩は、例えば、リアルな手の色彩と同一である。
≪提示用画像の生成および提示≫
画像処理部127から出力された画像pは提示用画像生成部128に入力される。提示用画像生成部128は、画像pを用い、VR空間においてカメラの位置(例えば、原点Oや結像面I)から見えるバーチャルな手(リアルな手を拡大または縮小したものに対応するバーチャルな手であって、位置V[i,j,k]に配置され、大きさがSであるバーチャルな手)を観察者に提示するための提示用画像Pを生成して出力する。提示用画像Pは、静止画像であってもよいし、動画像(動画)であってもよい。提示用画像Pの一例は、規定のフレームレート(例えば30Hz)の動画像である。提示用画像Pは、例えば、観察者の右眼と左眼にそれぞれ提示する右眼用画像と左眼用画像とを有する。この例の場合、提示用画像生成部128は、右眼用画像と左眼用画像とを取得するために、画像pが表示されたVR空間に2つのカメラをそれらの撮影方向が平行に同方向を向くように設置し、これらのカメラでVR空間を撮影する撮影シミュレーションを行う。この撮影シミュレーションでは、例えば、これら2つのカメラの各結像面Iが同一直線上に配置され、カメラ間の水平距離を人間の眼間距離(約6.5cm)またはその近傍に合わせる。左側に配置されたカメラで撮影した画像を左眼用画像とし、右側に配置されたカメラで撮影した画像を右眼用画像とする。撮影シミュレーションには、上述した3Dモデリング/レンダリングソフトウェアなどの周知の技術を用いればよい。
画像提示装置13は、提示用画像Pを入力とし、提示用画像Pを観察者に提示する。例えば、画像提示装置13がヘッドマウントディスプレイであり、提示用画像Pが右眼用画像と左眼用画像とを有する場合、ヘッドマウントディスプレイの右眼用ディスプレイが右眼用画像を提示し、左眼用ディスプレイが左眼用画像を提示する。これにより、ヘッドマウントディスプレイを装着した観察者の右眼には右眼用画像が提示され、左眼には左眼用画像が提示される。提示用画像Pが提示された観察者はVR空間でバーチャルな手を認知する。
ヘッドマウントディスプレイが提示する右眼用画像と左眼用画像におけるバーチャルな手のなす視角は、前述したパラメータαの値にかかわらず、リアルな手のなす視角と同一である。しかしながら、前述したパラメータαがα>1であるとき、大きさ恒常性の働きにより、観察者はバーチャルな手がバーチャルな巨人の手であると認知する。0<α<1であるとき、大きさ恒常性の働きにより、観察者はバーチャルな手がバーチャルな小人の手であると認知する。α=1であるとき、大きさ恒常性の働きにより、観察者はバーチャルな手がバーチャルな普通の手であると認知する。ここで、再掲するが、ヘッドマウントディスプレイが提示する右眼用画像と左眼用画像におけるバーチャルな手のなす視角は、αの値にかかわらず、リアルな手のなす視角と同一である。そのため、ヘッドマウントディスプレイが提示する右眼用画像と左眼用画像におけるバーチャルな巨人の手、バーチャルな小人の手、およびバーチャルな普通の手の見かけの質感は、αの値にかかわらず、リアルな手の見かけの質感と大きく異ならない。すなわち、α>1のときにバーチャルな巨人の手の表面形状が粗くなり過ぎたり、0<α<1のときにバーチャルな小人の手の表面形状がきめ細かくなり過ぎたりしない。また、バーチャルな巨人の手がヘッドマウントディスプレイに表示される空間範囲からはみ出してしまうこともない。
[第1実施形態の変形例]
第1実施形態では、仮想サイズ計算部126が式(5)に従ってSを求めて出力した。上述した、式(4)と式(5)を満たすことは、下記の式(6A)や式(6B)を満たすことと等価である。
/S=D/d (6A)
=S×D/d (6B)
また、式(2)から分かる通りD/d=αであるので、式(6A)と式(6B)は下記の式(6C)と式(6D)と等価である。
/S=α (6C)
=S×α (6D)
したがって、第1実施形態では仮想サイズ計算部126が式(4)と式(5)に従ってSを求めて出力したが、仮想サイズ計算部126がSをD/d倍した値をSとして出力してもよいし、仮想サイズ計算部126がSをα倍した値をSとして出力してもよい。例えば、仮想サイズ計算部126が、入力された位置情報pに基づいてSを求め、求めたSと入力されたαと乗算したものをSとして出力してもよい。あるいは、仮想サイズ計算部126が、入力された位置情報pに基づいてSを求め、求めたSと入力されたDおよびdを用いて式(6B)によってSを計算して出力してもよい。
[第2実施形態]
バーチャルリアリティを実現するソフトウェアでは、VR空間内の対象のモデルの大きさを、基準となる対象の大きさに対する比率で設定することができる。このようなソフトウェアを用いてバーチャルな手の大きさをリアルな手の大きさのα倍にしてもよい。ただし、このような既存のソフトウェアは、対象の視角を保ちつつ、対象のモデルの大きさを変更するものではない。第2実施形態ではこのようなソフトウェア(「VRソフトウェア」と呼ぶことにする)の機能を用いる。以降、これまで説明した事項との相違点を中心に説明し、既に説明した事項については同じ参照番号を引用して説明を簡略化する。
<構成>
図8に例示するように、本実施形態の画像処理システム2は、実空間画像取得装置10、実空間位置取得装置11、画像処理装置22、および画像提示装置13を有する。画像処理装置22は、実座標計算部121、仮想座標計算部224、画像処理部227、および提示用画像生成部128を有する装置である。実座標計算部121、仮想座標計算部224、および画像処理部227が、リアルな手を拡大または縮小したバーチャルな手を生成する処理部(視対象生成部)である。
<処理>
本実施形態の処理を説明する。
≪リアルな手の位置の計測≫
第1実施形態と同じである。すなわち、実空間位置取得装置11は、実空間における観察者のリアルな手の位置を表す位置情報pを取得して出力する。実座標計算部121は、この位置情報pを入力とし、観察者のリアルな手の位置R[i,j,k]を表す座標値i,j,kを得て出力する。
≪バーチャルな手の位置を決定する処理≫
α=D/dであるため、式(3)は以下の式(7)に変形できる。
Figure 0006996450000003

仮想座標計算部224は、実座標計算部121で得られた位置R[i,j,k]の座標値i,j,kおよび入力されたパラメータαを入力とし、式(7)に従って、バーチャルな手の位置V[i,j,k]の座標値i,j,kを得て出力する。バーチャルな手の位置V[i,j,k]の例は、バーチャルな手の3次元的な中心点である。
≪バーチャルな手の大きさの決定処理≫
実空間画像取得装置10は、観察者のリアルな手の画像を表す画像情報gを取得して出力する。画像処理部227には、入力されたパラメータα、実空間画像取得装置10で得られた画像情報g、および仮想座標計算部224で得られた座標値i,j,kが入力される。画像処理部227は、VR空間において、画像情報gで特定されるリアルな手を模したバーチャルな普通の手を拡大または縮小したバーチャルな手であって、座標値i,j,kの位置V[i,j,k]に配置され(例えば、位置V[i,j,k]を中心点とし)、大きさがバーチャルな普通の手のα倍であるバーチャルな手を含む画像pを生成して出力する。ここで、大きさがバーチャルな普通の手のα倍であるバーチャルな手を生成するためには、前述したVRソフトウェアにおいてαを指定すればよい。リアルな手の大きさをDとすると、このように生成されるバーチャルな手の大きさSも式(6)の関係を満たす。
≪提示用画像の生成および提示≫
第1実施形態と同じである。
[第3実施形態]
第1実施形態、第1実施形態の変形例、および第2実施形態において、パラメータαの値を変化させてもよい。これにより、バーチャルな手の質感を大きく変化させることなく、バーチャルな手の見かけの大きさを変化させることができる。図9に、VR空間において、実空間の原点Oでリアルな手のなす視角がθである場合にパラメータαを変化させ、バーチャルな手の奥行き距離kを変化させた様子を例示する。ここで、α=1の場合のバーチャルな手の奥行き距離kをDα=1とし、α=δの場合のバーチャルな手の奥行き距離kをDα=δとし、α=λの場合のバーチャルな手の奥行き距離kをDα=λとする。ただし、0<λ<1<δである。原点Oから距離Dα=1にある(つまり図9において位置Pα=1にある)バーチャルな手の大きさをSDα=1とし、原点Oから距離Dα=δにある(つまり図9において位置Pα=δにある)バーチャルな手の大きさをSDα=δとし、原点Oから距離Dα=λにある(つまり図9において位置Pα=λにある)バーチャルな手の大きさをSDα=λとする。ここで、S=SDα=1とし、D=Dα=1とすると、前述の式(5)の関係を満たす。同様に、S=SDα=δとし、D=Dα=δとすると、前述の式(5)の関係を満たし、S=SDα=λとし、D=Dα=λとすると、前述の式(5)の関係を満たす。図9に例示するように、αの値を増加させることにより、視角θを保ったままバーチャルな手の奥行き距離および大きさが共に大きくなる。具体的には、αの値がδ倍になると、視角θを保ったままバーチャルな手の奥行き距離kおよび大きさも共にδ倍になる。逆に、αの値を減少させることにより、視角θを保ったままバーチャルな手の奥行き距離kおよび大きさが共に小さくなる。具体的には、αの値がλ倍になると、視角θを保ったままバーチャルな手の奥行き距離kおよび大きさも共にλ倍になる。これにより、バーチャルな手の質感を大きく変化させることなく、バーチャルな手の見かけの大きさを変化させることができる。例えば、α=1をα=δに変更することで、バーチャルな手の質感を大きく変化させることなく、バーチャルな普通の手をバーチャルな巨人の手に変更することができる。また、α=1をα=λに変更することで、バーチャルな手の質感を大きく変化させることなく、バーチャルな普通の手をバーチャルな小人の手に変更することができる。あるいは、α=δまたはα=λをα=1に変更することで、バーチャルな手の質感を大きく変化させることなく、バーチャルな巨人の手やバーチャルな小人の手をバーチャルな普通の手に変更することができる。
なお、画像処理装置に入力されるパラメータαの値を変化させてもよいし(変化態様1)、画像処理装置に入力または記憶されたパラメータαの値に何等かの演算を施してパラメータαの値を変化させてもよい(変化態様2)。変化態様1の一例は、パーソナルコンピュータ等のキーボードの左矢印キーと右矢印キーをインターフェースとし、左矢印キーを押すとαが小さくなり、右矢印キーを押すとαが大きくなるように設定するものである。例えば、α≧1を満たすパラメータαに対応するバーチャルな手をバーチャルな小人の手にしようとする場合には、観察者は左矢印キーを押してαを0<α<1を満たす値に設定する。例えば、0<α≦1を満たすパラメータαに対応するバーチャルな手をバーチャルな巨人の手にしようとする場合には、観察者が右矢印キーを押してαをα>1を満たす値に設定する。α≠1を満たすパラメータαに対応するバーチャルな手をバーチャルな普通の手にしようとする場合には、右矢印キーまたは左矢印キーを押してαをα=1に設定する。実際に用いるキーは左右矢印キーでなくとも任意の2つのキーでよい。その他、例えば、マウスを用いた入力、スマートフォン端末装置などのタッチパネルへの入力、ゲームコントローラーによる入力、音声入力、非接触入力デバイスによる入力などによってパラメータαの値を変更してもよい。変化態様2としては、例えば、αの大きさが、時間経過に伴って単調増加または単調減少したり、時間経過に伴って周期的に変動したり、ランダムに変化したり、不連続に変化したり、別の処理結果に応じて変化したりする態様を例示できる。
その他、パラメータαがリアルな手の奥行き距離kに応じた値であってもよい。例えば、画像処理装置は、リアルな手の奥行き距離kが所定の奥行き距離(所定距離)κ(ただし、κは正値)であるときにパラメータαの値をα(ただし、αは正値)とし、リアルな手の奥行き距離kがκ(ただし、κはκと異なる正値)あるときにパラメータαの値をα(ただし、αはαと異なる正値)としてもよい。例えば、リアルな手の奥行き距離kの関数値FNC(k)をαとしてもよい。すなわちα=FNC(k)としてもよい。この例において、FNC(k)は、リアルな手の奥行き距離kが所定距離κであるときにα=1となるものであってもよいし、0≦k≦κであるときにα=1となるものであってもよい。また例えば、FNC(k)は、k=κ21とk=κ22>κ21とに対し、FNC(κ22)>FNC(κ21)を満たすものであるとよい。この例では、κに対するk=κ22の上回り分がκ22-κであるときのFNC(κ22)が、κに対するk=κ21の上回り分がκ21-κであるときのFNC(κ21)よりも大きくなる。κ22>κ21であるため、上回り分κ22-κは上回り分κ21-κよりも大きい。例えば、FNC(k)は、κ<kの範囲において、kの増加に対して単調増加するものであってもよいし、kの増加に対して非減少(広義単調増加)するものであってもよい。また、FNC(k)は、連続関数とするとよく、kの増加に対して単調増加する連続関数であることが好ましい。例えば、リアルな手の奥行き距離kの最大値(例えばリアルな手が届く最大距離(例えば、1m))をκmax>κとし、k=κmaxのときの関数値をFNC(κmax)=α(ただし、α>1)とし、FNC(κ)=1とFNC(κmax)=αとの間をkについて線形補完した値をFNC(k)(ただし、κ<k≦κmax)としてもよい。このようなFNC(k)を式(8)に例示する。
FNC(k)=1+(α-1)×(k-κ)/(κmax-κ) (8)
例えば、0≦k≦κであるときにα=1とされ、κ<κ=kであるときにα=FNC(κ)とされ、かつ、FNC(κ)がκの増加に対して単調増加する例の場合、バーチャルな手は以下のように見える。すなわち、リアルな手の奥行き距離kがκ以下(例えば目から30cm以下)であるときには、バーチャルな手が、リアルな手と同じ奥行き(例えば目から30cm)に、リアルな手と同じ大きさで見える(α=1)。一方、リアルな手の奥行き距離kがκを超えるときには、リアルな手が目から遠ざかるにつれて、バーチャルな手はリアルな手より遠くに、リアルな手より大きく見える(kが大きくなるにつれてαがだんだん大きくなる)。
[その他の変形例]
なお、本発明は上述の実施形態およびその変形例に限定されるものではない。例えば、上述の実施形態およびその変形例では、実空間における原点Oからリアルな手の3次元形状の中心点までの距離をdとし、VR空間におけるカメラの原点Oからバーチャルな手の3次元形状の中心点までの距離をDとする例を示した。しかしながら、原点Oからリアルな手の3次元形状の他の任意の一点までの距離をdとしてもよいし、原点Oからバーチャルな手の3次元形状の他の任意の一点までの距離をDとしてもよい。その他、原点Oからリアルな手の3次元形状の各点までの距離に基づいて、原点Oからバーチャルな手の3次元形状の各点の距離を定めてよい。また、上述の実施形態およびその変形例では、目の水晶体内部に位置する点を原点Oとする例を示したが、目の他の位置または目の近傍の位置を原点Oとしてもよい。また、上述の実施形態およびその変形例では、目の原点Oを原点R[0,0,0]とする例を説明したが、目の原点Oの近傍を原点R[0,0,0]としてもよいし、目の原点Oに対する相対位置が固定されたその他の点を原点R[0,0,0]としてもよい。同様に、上述の実施形態およびその変形例では、VR空間のカメラの結像面Iの焦点を原点Oとする例を示したが、カメラの結像面Iの他の位置または結像面Iの近傍の位置を原点Oとしてもよい。また、上述の実施形態およびその変形例では、原点Oを原点V[0,0,0]とする例を示したが、原点Oの近傍を原点V[0,0,0]としてもよいし、原点Oに対する相対位置が固定されたその他の点を原点V[0,0,0]としてもよい。また、上述の実施形態およびその変形例では、画像処理部127が、位置V[i,j,k]を中心点とするバーチャルな手を含む画像pを生成する例を示した。しかし、位置V[i,j,k]をバーチャルな手の他の位置としてもよいし、位置V[i,j,k]をバーチャルな手に対する相対位置としてもよい。また、上述の実施形態およびその変形例では、便宜上、手右手親指の先端から右手小指の付け根までの距離を基準距離とした。しかし、手の他の部位の距離を基準距離としてもよい。
上述の実施形態およびその変形例ではパラメータαが正の実数変数であったが、パラメータαが正の実数定数であってもよい。すなわち、定数であるパラメータαが画像処理装置に予め設定され、画像処理装置がこのパラメータαを用いて前述の処理を行ってもよい。
上述の実施形態およびその変形例では、観察者(ヒト)のリアルな手を模したバーチャルな手のモデルをVR空間に配置した。しかし、このようなバーチャルな手のモデルに代えて任意の3D形状モデル(ポリゴンの集合体)をVR空間内に配置してもよい。すなわち、上述の実施形態およびその変形例において、「バーチャルな手」がVR空間における任意の3D形状物(「バーチャルな3D形状物」と呼ぶ)に置換され、「バーチャルな普通の手」が「バーチャルな普通の3D形状物」に置換され、「バーチャルな巨人の手」が「バーチャルな巨大3D形状物」に置換され、「バーチャルな小人の手」が「バーチャルな極小3D形状物」に置換され、前述の処理が実行されてもよい。ただし、「バーチャルな普通の3D形状物」とは、観察者がリアルな手と同じ見かけの大きさを持つと知覚するバーチャルな3D形状物を意味する。「バーチャルな巨大3D形状物」とは、観察者がリアルな手よりも大きいと知覚するバーチャルな3D形状物を意味する。「バーチャルな極小3D形状物」とは、観察者がリアルな手よりも小さいと知覚するバーチャルな3D形状物を意味する。「観察者がリアルな手と同じ見かけの大きさを持つと知覚する」とは、例えば、観察者がリアルな手の基準部の基準距離とバーチャルな3D形状物の線形寸法とが同じであると知覚することを意味する。「観察者がリアルな手よりも大きいと知覚する」とは、例えば、観察者がリアルな手の基準部の基準距離よりもバーチャルな3D形状物の線形寸法の方が大きいと知覚することを意味する。「観察者がリアルな手よりも小さいと知覚する」とは、例えば、観察者がリアルな手の基準部の基準距離よりもバーチャルな3D形状物の線形寸法の方が小さいと知覚することを意味する。「3D形状物の線形寸法」はどのように定義されてもよい。「3D形状物の線形寸法」の例は、3D形状物の特定の部位の外形寸法、3D形状物の外形寸法の最大値、3D形状物の外形寸法の最小値、3D形状物の外形寸法の平均値などである。バーチャルな手のモデルに代えて任意の3D形状モデルをVR空間内に配置する場合、実空間画像取得装置10が省略され、画像処理部127,227には画像情報gに代えて任意の3D形状モデルが入力される。この場合、画像処理部127,227は、画像情報gに代えて当該任意の3D形状モデルを用いて画像pを生成して出力する。任意の3D形状モデルは、画像処理装置の外部から入力されたものであってもよいし、画像処理装置の記憶部(図示せず)から読み出されたものであってもよい。これにより、観察者に対し、リアルな手の動きに応じてVR空間内を移動するバーチャルな3D形状物を提示することができ、このバーチャルな3D形状物の質感を大きく異ならせずに、パラメータαの値に応じてバーチャルな3D形状物を大きく見せたり、小さく見せたりすることもできる。例えば、パラメータαの値をα>1とすることで、リアルな手の動きに応じてVR空間内を移動するバーチャルな巨大3D形状物を提示できる。パラメータαの値を0<α≦1とすることで、リアルな手の動きに応じてVR空間内を移動するバーチャルな極小3D形状物を提示できる。また、パラメータαの値をα=1とすることで、リアルな手の動きに応じてVR空間内を移動するバーチャルな普通の3D形状物を提示できる。また、パラメータαを変更することで、観察者が知覚する見かけの質感を大きく異ならせることなく、リアルな手の動きに応じてVR空間内を移動するバーチャルな3D形状物を大きく見せたり小さく見せたりすることができる。また、「バーチャルな3D形状物」は、実空間における任意の視対象を模したものであってもなくてもよいし、実空間に存在する視対象を表したものであってもなくてもよい。「バーチャルな3D形状物」の例は、ロボットアームを表したポリゴンの集合体、ハンマーやトングといった手で操作される道具を表したポリゴンの集合体などである。また、通常はリアルな手の動きに連動しないものを表したポリゴンの集合体を「バーチャルな3D形状物」としてもよい。例えば、トラを表したポリゴンの集合体を「バーチャルな3D形状物」としてもよい。
上述の実施形態およびその変形例では、実空間のリアルな手の位置R[i,j,k]の座標値i,j,kおよびパラメータαに基づいて、VR空間のバーチャルな手の位置V[i,j,k]の座標値i,j,kおよびバーチャルな手の大きさSを求める例を示した。しかしながら、距離dと視角θとの典型的な関係が予め推定可能であるならば、リアルな手の位置に基づかずとも、パラメータαのみからバーチャルな3D形状物の位置およびバーチャルな3D形状物の大きさを求めることができる。例えば、観察者から特定の距離(特定距離)d(例えば、d=1)の位置にある視対象のなす視角θを推定可能なのであれば、VR空間において、この推定した視角(推定視角)θをなし、パラメータαに応じた大きさSを持つバーチャルな3D形状物を提示することが可能である。バーチャルな3D形状物の大きさSは、例えば、前述した「3D形状物の線形寸法」である。さらに、パラメータαの値を変化させることで、バーチャルな3D形状物の見かけの質感を大きく変えることなく、バーチャルな3D形状物を大きく見せたり、小さく見せたりすることができる。例えば、画像処理装置は、原点Oから特定距離dに存在する視対象のなす視角を推定できれば、推定した視角(推定視角)θを二等分した視角をθhalfとし、特定距離dとθhalfを用い、式(4)に基づいてSを求めることができる。さらに、画像処理装置は、パラメータαと特定距離dとを用い、式(2)に基づいて距離Dを求めることができる。さらに、画像処理装置は、上述の推定視角θを二等分した視角θhalfと距離Dとを用い、式(5)に従ってSを計算できる。画像処理装置は、このように得られた距離Dおよび大きさSを用い、VR空間においてカメラの原点Oからの距離がDであり、大きさがSである3D形状物を含む画像pを生成できる。前述のように、このように得られる3D形状物のなす視角は常に推定視角θと同一になる。例えば、消しゴムの大きさはそれほど個体差がないので、消しゴムの典型的な大きさから、観察者から任意の特定距離dだけ離れた位置に存在する消しゴムのなす推定視角θを推定できる。そのため、消しゴムを表したポリゴンの集合体を3D形状物とした場合、画像処理装置は、実空間での消しゴムの位置に基づかずとも、VR空間において、原点Oで推定視角θをなし、パラメータαに対応する大きさSを持つ消しゴムを表したポリゴンの集合体を含む画像pを生成できる。
同様に、特定の視角(特定視角)θ(例えば、θ=10°)をなす視対象の距離dが推定可能なのであれば、リアルな手の位置に基づかずとも、パラメータαのみからVR空間のバーチャルな3D形状物の位置およびバーチャルな3D形状物の大きさを求めることができる。すなわち、観察者で特定視角θをなす視対象の距離(推定距離)dが推定可能なのであれば、VR空間において、原点Oでこの特定視角θをなし、パラメータαに応じた大きさSを持つバーチャルな3D形状物を提示することが可能である。さらに、パラメータαの値を変化させることで、バーチャルな3D形状物の見かけの質感を大きく変えることなく、バーチャルな3D形状物を大きく見せたり、小さく見せたりすることができる。例えば、画像処理装置は、観察者で特定視角θをなす視対象の推定距離dを推定し、特定視角θを二等分した視角をθhalfとし、推定距離dとθhalfを用い、式(4)に基づいてSを求めることができる。さらに、画像処理装置は、パラメータαと推定距離dとを用い、式(2)に基づいて距離Dを求めることができる。さらに、画像処理装置は、上述の視角θを二等分した視角θhalfと距離Dとを用い、式(5)に従ってSを計算できる。画像処理装置は、このように得られた距離Dおよび大きさSを用い、VR空間においてカメラの原点Oからの距離がDであり、大きさがSである3D形状物を含む画像pを生成できる。
また、上述の実施形態およびその変形例において、リアルな手が実空間のその他の視対象に置換されてもよい。例えば、リアルな手が、実空間の観察者の頭や足などのその他の部位、実空間のボールや自動車などの観察者以外の物、実空間で表示された画像等に置換されてもよい。
また、バーチャルな手の色彩が、リアルな手の色彩に応じたその他の色彩であってもよいし、リアルな手の色彩と無相関な色彩であってもよい。
上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の範囲で適宜変更が可能であることはいうまでもない。
[まとめ]
上述した各実施形態およびその変形例をまとめる。
上述したように、画像処理装置は、実空間または仮想現実空間における「第1対象」を拡大または縮小して仮想現実空間(VR空間)における視対象である「第2対象」を生成する。「第1対象」の例は、リアルな手その他の「実空間」における視対象、「実空間」における視対象を模したバーチャルな3D形状物、「実空間」に存在しない視対象を表したバーチャルな3D形状物などである。「第2対象」の例は、バーチャルな手、バーチャルな3D形状物などである。
ただし、実空間における「実観察位置(例えば、原点O)」または「仮想現実空間」における「仮想観察位置(例えば、原点O)」で「第1対象」のなす「第1視角(例えば、視角θ)」は、「仮想観察位置」で「第2対象」のなす「第2視角(例えば、視角θ)」と同一である(図7A,図7B,図9)。ここで、「第2対象」が「第1対象」を拡大したものである場合には、「仮想観察位置」から「第2対象」までの距離である「第2距離(例えば、距離Dや距離Dα=δ)」は、「実観察位置」または「仮想観測位置」から「第1対象」までの「第1距離(例えば、距離dや距離Dα=1)」よりも大きい(図7A,図7B,図9)。一方、「第2対象」が「第1対象」を縮小したものである場合には、「第2距離(例えば、距離Dや距離Dα=λ)」は「第1距離(例えば、距離dや距離Dα=1)」よりも小さい(図9)。例えば、「第1距離」に対する「第2距離」の比率(例えば、D/d,Dα=δ/Dα=1,Dα=λ/Dα=1)は、「第1対象」の線形寸法(例えば、Sd,Dα=1)に対する「第2対象」の線形寸法(例えば、SD,Dα=δ,Dα=λ)の比率(例えば、S/Sd,Dα=δ/SDα=1,Dα=λ/SDα=1)と同一である(式(6))。さらに、画像処理装置は、「仮想現実空間」において「仮想観察位置(例えば、原点Oや結像面I)」から見える「第2対象」を観察者に提示するための提示用画像Pを生成してもよい。提示用画像Pは画像提示装置によって観察者に提示される。
例えば、「第1対象」が「実空間」における視対象または「実空間」における視対象を模したものであり、「第1対象」のなす「視角(例えば、視角θ)」が「実観察位置(例えば、原点O)」で「実空間」における視対象のなす「視角」であり、「第1距離(例えば、k)」が「実観察位置」から「実空間」における視対象までの距離である場合に、所定距離(例えばκ)に対する「第1距離(例えば、k=κ22)」の上回り分(例えば、κ22-κ)が「第1値」あるときの「第1距離」に対する「第2距離」の比率(例えば、α=FNC(κ22))が、「所定距離(例えばκ)」に対する「第1距離(k=κ21)」の上回り分(例えば、κ21-κ)が「第2値」であるときの「第1距離」に対する「第2距離」の比率(例えば、α=FNC(κ21))よりも大きくなるようにしてもよい。ただし、「第1値」は「第2値」よりも大きい。例えば、「所定距離」に対する「第1距離」の上回り分が大きいほど、「第1距離」に対する「第2距離」の比率が大きい。
前述のように、実空間の視対象の位置に基づかなくとも「実観察位置」で「第1対象」のなす視角を推定できるのであれば、その推定視角(例えば、θ)である「第1視角」が「仮想観察位置」で「第2対象」のなす「第2視角」と同一となるように「第2対象」が生成されてもよい。
また、実空間の視対象の位置に基づかなくとも「観察位置」から「第1対象」までの距離を推定可能なのであれば、「実観察位置」から「第1対象」までの距離に代え、その推定距離(例えば、d)を「第1距離」としてもよい。
なお、「第1視角」が「第2視角」に厳密に同一でなくてもよく、「第1視角」が「第2視角」に略同一であってもよい。例えば、「第1視角」と「第2視角」との相違が「第1視角」のε%(例えば、1%,3%,5%,7%など)以下であってもよい。
また、「第1距離」に対する「第2距離」の比率が、「第1対象」の線形寸法に対する「第2対象」の線形寸法の比率と厳密に同一でなくてもよく、これらが略同一であってもよい。例えば、これらの相違が、「第1距離」に対する「第2距離」の比率のμ%(例えば、1%,3%,5%,7%など)以下であってもよい。
[画像処理装置の構成例等]
上記の画像処理装置は、例えば、CPU(central processing unit)等のプロセッサ(ハードウェア・プロセッサ)およびRAM(random-access memory)・ROM(read-only memory)等のメモリ等を備える汎用または専用のコンピュータが所定のプログラムを実行することで構成される。このコンピュータは1個のプロセッサやメモリを備えていてもよいし、複数個のプロセッサやメモリを備えていてもよい。このプログラムはコンピュータにインストールされてもよいし、予めROM等に記録されていてもよい。また、CPUのようにプログラムが読み込まれることで機能構成を実現する電子回路(circuitry)ではなく、プログラムを用いることなく処理機能を実現する電子回路を用いて一部またはすべての処理部が構成されてもよい。1個の装置を構成する電子回路が複数のCPUを含んでいてもよい。
画像処理装置の構成をコンピュータによって実現する場合、画像処理装置が有すべき機能の処理内容はプログラムによって記述される。このプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体の例は、非一時的な(non-transitory)記録媒体である。このような記録媒体の例は、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等である。
このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。
コンピュータ上で所定のプログラムを実行させて本装置の処理機能が実現されるのではなく、これらの処理機能の少なくとも一部がハードウェアで実現されてもよい。
上述のように、本技術では、大きさ恒常性を用いて、観察者が知覚する見かけの質感を大きく異ならせることなく、ある対象を拡大または縮小したVR空間における視対象を観察者に提示することができる。これにより、例えば、見かけの質感をリアルな手と大きく異ならせることなく、バーチャルな巨人の手やバーチャルな小人の手によってVR空間を操作するアプリケーションを実現できる。また、例えば、バーチャルな手のモデルが既に存在する場合、その既存のバーチャルな手のモデルと大きさの異なるモデルを新たに作成することなく、既存のバーチャルな手のモデルを用いて、バーチャルな巨人の手やバーチャルな小人の手などを提示することもできる。このような技術は、バーチャルリアリティを用いる諸分野(例えば、ゲーム、映像作品、教育、医療など)で利用可能である。
1,2 画像処理システム
12,22 画像処理装置

Claims (8)

  1. 実空間または仮想現実空間における第1対象を拡大または縮小して、前記仮想現実空間における視対象である第2対象を生成する視対象生成部を有し、
    前記実空間における実観察位置または前記仮想現実空間における仮想観察位置で前記第1対象のなす視角または推定視角である第1視角は、前記仮想観察位置で前記第2対象のなす視角である第2視角と同一または略同一であり、
    前記第2対象が前記第1対象を拡大したものである場合には、前記仮想観察位置から前記第2対象までの距離である第2距離は、前記実観察位置または前記仮想観察位置から前記第1対象までの距離または推定距離である第1距離よりも大きく、
    前記第2対象が前記第1対象を縮小したものである場合には、前記第2距離は前記第1距離よりも小さい、画像処理装置。
  2. 請求項1の画像処理装置であって、
    前記第1距離に対する前記第2距離の比率は、前記第1対象の線形寸法に対する前記第2対象の線形寸法の比率と同一または略同一である、画像処理装置。
  3. 請求項1または2の画像処理装置であって、
    前記視対象生成部は、前記第2視角を同一または略同一に保ったまま、前記仮想現実空間における前記第2対象の大きさおよび前記第2距離を変化させる、画像処理装置。
  4. 請求項1または2の画像処理装置であって、
    前記第1対象は、前記実空間における視対象または前記実空間における視対象を模したものであり、
    前記第1対象のなす視角は、前記実観察位置で前記実空間における視対象のなす視角であり、
    前記第1距離は、前記実観察位置から前記実空間における視対象までの距離であり、
    所定距離に対する前記第1距離の上回り分が第1値であるときの前記第1距離に対する前記第2距離の比率は、前記所定距離に対する前記第1距離の上回り分が第2値であるときの前記第1距離に対する前記第2距離の比率よりも大きく、
    前記第1値は前記第2値よりも大きい、画像処理装置。
  5. 請求項1から4の何れかの画像処理装置であって、
    前記第1対象は、前記実空間における視対象または前記実空間における視対象を模したものであり、
    前記第1対象のなす視角は、前記実観察位置で前記実空間における視対象のなす視角であり、
    前記第1距離は、前記実観察位置から前記実空間における視対象までの距離である、画像処理装置。
  6. 請求項1から5の何れかの画像処理装置であって、
    前記仮想現実空間において前記仮想観察位置から見える前記第2対象を観察者に提示するための提示用画像を生成する提示用画像生成部をさらに有する、画像処理装置。
  7. 実空間または仮想現実空間における第1対象を拡大または縮小して前記仮想現実空間における視対象である第2対象を生成する視対象生成ステップを有し、
    前記実空間における実観察位置または前記仮想現実空間における仮想観察位置で前記第1対象のなす視角または推定視角である第1視角は、前記仮想観察位置で前記第2対象のなす視角である第2視角と同一または略同一であり、
    前記第2対象が前記第1対象を拡大したものである場合には、前記仮想観察位置から前記第2対象までの距離である第2距離は、前記実観察位置または前記仮想観察位置から前記第1対象までの距離または推定距離である第1距離よりも大きく、
    前記第2対象が前記第1対象を縮小したものである場合には、前記第2距離は前記第1距離よりも小さい、画像処理方法。
  8. 請求項1から6の何れかの画像処理装置としてコンピュータを機能させるためのプログラム。
JP2018153334A 2018-08-17 2018-08-17 画像処理装置、画像処理方法、およびプログラム Active JP6996450B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018153334A JP6996450B2 (ja) 2018-08-17 2018-08-17 画像処理装置、画像処理方法、およびプログラム
PCT/JP2019/031286 WO2020036114A1 (ja) 2018-08-17 2019-08-08 画像処理装置、画像処理方法、およびプログラム
US17/268,059 US11403830B2 (en) 2018-08-17 2019-08-08 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153334A JP6996450B2 (ja) 2018-08-17 2018-08-17 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020027555A JP2020027555A (ja) 2020-02-20
JP6996450B2 true JP6996450B2 (ja) 2022-01-17

Family

ID=69525479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153334A Active JP6996450B2 (ja) 2018-08-17 2018-08-17 画像処理装置、画像処理方法、およびプログラム

Country Status (3)

Country Link
US (1) US11403830B2 (ja)
JP (1) JP6996450B2 (ja)
WO (1) WO2020036114A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11687154B2 (en) * 2021-05-28 2023-06-27 International Institute Of Information Technology, Hyderabad System and method for generating a limitless path in virtual reality environment for continuous locomotion
CN113852838B (zh) * 2021-09-24 2023-08-11 北京字跳网络技术有限公司 视频数据生成方法、装置、电子设备及可读存储介质
CN118552704B (zh) * 2024-07-29 2024-10-01 江西格如灵科技股份有限公司 一种基于Unity场景下的图形处理方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084215A (ja) 2015-10-30 2017-05-18 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11195140A (ja) * 1997-12-27 1999-07-21 Canon Inc データ処理方法及び装置並びに記憶媒体
US9978202B2 (en) * 2014-02-14 2018-05-22 Igt Canada Solutions Ulc Wagering gaming apparatus for detecting user interaction with game components in a three-dimensional display
US10354446B2 (en) * 2016-04-13 2019-07-16 Google Llc Methods and apparatus to navigate within virtual-reality environments

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084215A (ja) 2015-10-30 2017-05-18 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム

Also Published As

Publication number Publication date
JP2020027555A (ja) 2020-02-20
WO2020036114A1 (ja) 2020-02-20
US11403830B2 (en) 2022-08-02
US20210319624A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
CN114730094B (zh) 具有人工现实内容的变焦显示的人工现实系统
AU2021290132B2 (en) Presenting avatars in three-dimensional environments
JP6632443B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
EP4248413A1 (en) Multiple device sensor input based avatar
US9607439B2 (en) Information processing apparatus and information processing method
JP2023513980A (ja) 画面上の話者のフューショット合成
US20190026935A1 (en) Method and system for providing virtual reality experience based on ultrasound data
US12141339B2 (en) Image generation apparatus and information presentation method
CN109598796A (zh) 将真实场景与虚拟物体进行3d融合显示的方法和装置
EP3128413A1 (en) Sharing mediated reality content
KR101892735B1 (ko) 직관적인 상호작용 장치 및 방법
CN116137801A (zh) 使用交替采样的眼睛跟踪
JP6996450B2 (ja) 画像処理装置、画像処理方法、およびプログラム
KR101950934B1 (ko) 가상현실영상 제공장치, 입체감 향상을 위한 가상공간 크기 조절방법 및 프로그램
JPWO2017191703A1 (ja) 画像処理装置
CN114371779B (zh) 一种视线深度引导的视觉增强方法
US20210327121A1 (en) Display based mixed-reality device
JP6726016B2 (ja) 情報処理装置、情報処理方法
KR101212223B1 (ko) 촬영장치 및 깊이정보를 포함하는 영상의 생성방법
JP2012085172A (ja) コミュニケーション装置、コミュニケーション方法、及びプログラム
JP7760355B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7467748B1 (ja) 表示制御装置、表示システム及びプログラム
US20250244827A1 (en) Information display system
US10964056B1 (en) Dense-based object tracking using multiple reference images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R150 Certificate of patent or registration of utility model

Ref document number: 6996450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350