WO2003063086A1 - Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage - Google Patents

Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage Download PDF

Info

Publication number
WO2003063086A1
WO2003063086A1 PCT/JP2003/000523 JP0300523W WO03063086A1 WO 2003063086 A1 WO2003063086 A1 WO 2003063086A1 JP 0300523 W JP0300523 W JP 0300523W WO 03063086 A1 WO03063086 A1 WO 03063086A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
real object
observer
halo
image processing
Prior art date
Application number
PCT/JP2003/000523
Other languages
English (en)
French (fr)
Inventor
Michihiko Shouji
Original Assignee
Michihiko Shouji
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Michihiko Shouji filed Critical Michihiko Shouji
Priority to US10/502,468 priority Critical patent/US7095422B2/en
Priority to JP2003562874A priority patent/JP4083684B2/ja
Priority to EP03731816A priority patent/EP1469424A4/en
Publication of WO2003063086A1 publication Critical patent/WO2003063086A1/ja
Priority to US11/476,472 priority patent/US7259771B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Description

明 細 書 画像処理システム、 画像処理装置およびディスプレイ装置 技術分野
本発明は、 ディスプレイを見る観察者に対して仮想現実 (バ一チャルリア リティ) を体験させるための画像処理システム、 画像処理装置およびディス プレイ装置に関する。 背景技術
従来から、 人が実物体である人間型ロボットあるいは人間以外の動物を模 した動物型口ポット (以下、 単に 「口ポット」 という) に対して親近感を持 つようにさせるために、 その口ポットに現実の人間または動物 (以下、 「人 間等」 という) と同じような外観を与える方法が試みられている。
具体的には、 軟性物質で形成された外皮で口ポットを覆う方法 (第 1の方 法)、 口ポットの頭部に人間等の顔を映し出す方法 (第 2の方法)、 または口 ポットの表面を再帰性反射物質で塗装し、 そのロポットの表面をスクリーン として、 映像投射装置から人間等の全身映像を投影する方法 (第 3の方法) などがある。 これらの方法によれば、 観察者に対して、 ロボットをあたかも 本当の人間等であるかのように感じさせ、 口ポットに対する違和感を低減す ることができる。 第 3の方法は、 「バ一チャルリアリティの基礎 4 人工現 実感の評価 (監修者:舘 障、 編者:伊福部 達、 発行所:株式会社培風館、 2 0 0 0年 2月 2 9日初版発行)」 に開示されている。
しかし、 第 1の方法では、 口ポットをより現実の人間等に近づけるべく、 口ポットに顔の表情を持たせる必要がある。 顔の表情を持たせるためには、 ロポッ卜の顔の表面が自由に動くように数多くのァクチユエ一夕をロポット に備える必要がある。 このため、 口ポットのコスト上昇およびァクチユエ一 夕の制御の煩雑化などを招いてしまう。加えて、外皮で外観を模倣するので、
1種類の人間等の外観しか与えることができないという制約もある。
また、 第 2の方法では、 口ポットの頭部に備えたディスプレイ上に人間等 の顔を映すため、 観察者がロボットを正面から見ない限り不自然となる。 す なわち、 観察者が口ポットを横や後から見ると、 口ポットにしか見えなくな つてしまう。
さらに、 第 3の方法では、 口ポットと映像投射装置との間に何らかの障害 物が存在する場合には、 ロポッ卜の表面にその障害物の影が映ってしまう。 したがって、 かかる場合も、 観察者が口ポットを現実の人間等と認識するの は困難である。 また、 観察者は、 口ポットに近づくと自分の影が映ってしま うので、 口ポットに触れることもできない。
そこで、 以上のような問題を解消すべく、 観察者に頭部搭載型ディスプレ ィ (以後、 「HMD」 という) を装着させ、 その HMDにおいて、 ロボット の動きに連動させた C G (Computer Graphi cs) を、 口ポットに重ねるよう に投影させる方法が考えられる。
この方法によれば、 人間等の C Gをロポットに合わせて自由に変化させる ことができる。 このため、 口ポットの表情や姿勢なども自由かつ容易に動か すことができる。 また、 人間等の C Gを 3 D C Gとすることにより、 観察者 が口ポットを横や後から見ても不自然さを感じさせない。 また、 HMDは観 察者の目を覆うゴ一ダル夕ィプのディスプレイであって、 C Gを観察者の目 の前で投影するものである。 このため、 HMDでは障害物の影が映ってしま うこともない。 さらに、 観察者が口ポットに触れることもできるため、 観察 者は視覚と触覚により、 仮想現実を体験することができる。 したがって、 観 察者は、 口ポットに対して一層親近感を抱くことができるようになる。
しかし、 上記のような HMDに C Gを投影させる方法にも問題が残されて いる。 口ポットの位置や姿勢などの動きに連動させて、 HMDに映し出す人 間等の C Gを変化させるためには、 ロポット側または HMD側のセンサで検 知した各種データに基づいて空間座標の計算を行い、 画像処理を行わなけれ ばならない。
検知したデ一夕に大きな測定誤差があったり、 あるいはデータの送信時間 や画像処理における空間座標の計算時間が所定以上必要となると、 ロポット の動きと C Gとの間にずれが生じてしまう。 また、 口ポットに何らかの外乱 が加わることによって、 突然、 口ポットが動くこともある。 この場合にも、 口ポットと C Gとの間にずれが生じてしまう。
このような理由で、 ずれが生じると、 観察者 (すなわち、 HMD装着者) の心情は白けてしまい、 その結果、 観察者がロボットに対して感情を移入す ることが妨げられてしまう。
一方、 上記のような口ポットと C Gとのずれは、 各種センサ、 口ポットお よび HMDを高性能にして、 画像処理の高精度化および画像処理の高速化を 図ることによって、 小さくできる。 しかし、 完全にずれを無くすことは不可 能である。 また、 ずれを極めて小さくするために、 口ポットに高性能のセン サおよび C P Uなどを搭載すると、 コストの上昇を招き、 経済面でも不利と なる。
本発明は、 上記のような課題を解決するためになされたものであり、 低コ ストにてロポットに対する親近感を高めることができる画像処理システム、 画像処理装置およびディスプレイ装置を提供することを目的とする。 発明の開示
上記目的を達成するため、 本願の発明者は、 実物体の形態および実物 体を見る観察者と実物体との位置関係に合う形態の C Gを選択する画像選択 用デバイスと、 C Gの周縁に後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合成画像を生成する合成画像生成用デバイスと、 合成画像を、 実物体に重なるように、 観察者が見るディスプレイに表示させ る画像表示処理用デバイスとを備える画像処理システムを構築した。 このよ うなシステムを構築すると、 実物体の形態に合致した C Gを選択し、 そして 後光を生成することができる。 この結果、 実物体の動きと C Gとの間にずれ が生じた場合でも、 そのずれを隠すことができる。 したがって、 観察者は、 違和感無く、 実物体に接することができ、 かつ低コストにて、 口ポットに対 する親近感を持つことができる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを選択する画像選択用デバイスと、 C Gの周縁に 後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合 成画像を生成する合成画像生成用デバイスと、 合成画像を観察者側に送信す る合成画像送信用デバイスとを有する画像処理装置と、 合成画像送信用デ バイスから送信された合成画像を、 実物体に重なるように、 観察者が見 るディスプレイに表示させる画像表示処理用デバイスを有するディスプ レイ装置とを備える画像処理システムである。 このようなシステムを構 築すると、 実物体の形態に合致した C Gを選択し、 そして後光を生成するこ とができる。この結果、実物体の動きと C Gとの間にずれが生じた場合でも、 画像処理装置においてそのずれを隠すための後光画像付きの合成画像を生成 させ、 その生成させた合成画像を HMDに送信して、 観察者の見るディスプ レイ装置において、 合成画像を投影させることができる。 したがって、 観察 者は、 違和感無く、 実物体に接することができ、 かつ低コストにて、 ロポッ トに対する親近感を持つことができる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを生成する画像生成用デバイスと、 C Gの周縁に 後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合 成画像を生成する合成画像生成用デバイスと、 合成画像を、 実物体に重なる ように、 観察者が見るディスプレイに表示させる画像表示処理用デバイスと を備える画像処理システムである。 このようなシステムを構築すると、 実物 体の形態に合致した C Gと後光とを生成することができる。 この結果、 実物 体の動きと C Gとの間にずれが生じた場合でも、 そのずれを隠すことができ る。 したがって、 観察者は、 違和感無く、 実物体に接することができ、 かつ 低コストにて、 ロポットに対する親近感を持つことができる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを生成する画像生成用デバイスと、 C Gの周縁に 後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合 成画像を生成する合成画像生成用デバイスと、 合成画像を観察者側に送信す る合成画像送信用デバイスとを有する画像処理装置と、 合成画像送信用デ バイスから送信された合成画像を、 実物体に重なるように、 観察者が見 るディスプレイに表示させる画像表示処理用デバイスを有するディスプ レイ装置とを備える画像処理システムである。 このようなシステムを構 築すると、 実物体の形態に合致した C Gと後光とを生成することができる。 この結果、 実物体の動きと C Gとの間にずれが生じた場合でも、 画像処理装 置においてそのずれを隠すための後光画像付きの合成画像を生成させ、 その 生成させた合成画像を HMDに送信して、 観察者の見るディスプレイ装置に おいて、 合成画像を投影させることができる。 したがって、 観察者は、 違和 感無く、 実物体に接することができ、 かつ低コストにて、 口ポットに対する 親近感を持つこ ができる。
また、 別の発明は、 さらに、 後光生成用デバイスによって、 観察者と 実物体との距離の測定における誤差を見積もり、 その誤差に基づいて、 実物体が C Gの周縁にはみ出して見えることを防止するのに十分な厚み の後光画像を生成する画像処理システムである。 このため、 観察者と実 体物との距離が正確に検知されない場合であっても、 C Gは、 十分に実 物体を隠すことができる。 したがって、 観察者は、 ごく自然に、 C Gを 楽しむことができる。
また、 別の発明は、 さらに、 後光生成用デバイスによって、 実物体ま たは観察者が動いた際に、 実物体と C Gとの間に生じたずれを観察者に 見せないのに十分な厚みの後光画像を生成する画像処理システムであ る。 このため、 C Gの生成が実体物または観察者の動きに追随できない 場合であっても、 C Gは、 十分にその実物体を隠すことができる。 した がって、 観察者は、 ごく自然に、 C Gを楽しむことができる。
また、 別の発明は、 さらに、 観察者が見るディスプレイと実物体との 間の距離、 角度および観察者から見た実物体の方向の内、 少なくともい ずれか 1っを検知する検知デバイスを備える画像処理システムである。 このため、 実物体と観察者との動作の変化に対して高精度で追随する C Gの生成が可能となる。
また、 別の発明は、 さらに、 実物体を、 自由に動くことが可能な人間 型または人間以外の動物型のロポットとする画像処理システムである。 このため、 観察者にとって、 口ポットが C Gのキャラクタに見える。 し たがって、 観察者は、 あたかも本物のキャラクタがいるかのような仮想 現実を味わうことが出来る。
また、 別の発明は、 さらに、 ネットワークを介して、 外部から C Gを 受信するための通信デバィスを備える画像処理システムである。 このた め、 観察者は、 自分の好みの C Gを外部から簡単に入手できる。 したが つて、 観察者は、 1つの実物体を持つことによって、 複数のキャラクタ を味わうことができる。
また、 別の発明は、 さらに、 観察者に、 実物体よりも観察者側にある 部分を持つ第 2実物体を見せるための欠落領域を、 C Gに有し、 後光生 成用デバイスによって、 欠落領域の周縁にも後光画像を生成する画像処 理システムである。 このため、 実物体に、 第 2実物体を接触させた状態 で、 実物体に C Gを重ねても、 観察者に、 第 2実物体の一部又は全部が 見える。 例えば、 人間型口ポット (実物体) にチョコレート (第 2実物 体) を持たせた場合、 観察者は、 人間型口ポットよりも観察者側にある チョコレートの一部を観察できる。 したがって、 チョコレートを持った 人間型ロポットを観察する観察者は、 アイドルタレントがチョコレート を持っている光景を認識できる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを選択する画像選択用デバイスと、 C Gの周縁に 後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合 成画像を生成する合成画像生成用デバイスとを備える画像処理装置である。 これにより、 その実物体の形態に合致した C Gを選択し、 そしてその後光を 生成することができる。 この結果、 実物体の動きと C Gとの間にずれが生じ た場合でも、 そのずれを隠すことができる。 したがって、 観察者は、 違和感 無く実物体に接することができ、 かつ低コストにて、 口ポットに対する親近 感を持つことができる。 さらに、 合成画像を表示するディスプレイ装置と画 像処理装置とを分けることにより、 ディスプレイ装置側の負荷を減らすこと ができる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを生成する画像生成用デバイスと、 C Gの周縁に 後光画像を生成する後光生成用デバイスと、 C Gと後光画像とを合成した合 成画像を生成する合成画像生成用デバイスとを備える画像処理装置である。 これにより、 その実物体の形態に合致した C Gと後光とを生成することがで きる。 この結果、 実物体の動きと C Gとの間にずれが生じた場合でも、 その ずれを隠すことができる。 したがって、 観察者は、 違和感無く実物体に接す ることができ、 かつ低コストにて、 口ポットに対する親近感を持つことがで きる。 さらに、 合成画像を表示するディスプレイ装置と画像処理装置とを分 けることにより、 ディスプレイ装置側の負荷を減らすことができる。
また、 別の発明は、 さらに、 後光生成用デバイスによって、 観察者と 実物体との距離の測定における誤差を見積もり、 その誤差に基づいて、 実物体が C Gの周縁にはみ出して見えることを防止するのに十分な厚み の後光画像を生成する画像処理装置である。 このため、 観察者と実体物 との距離が正確に検知されない場合であっても、 C Gは、 十分に実物体 を隠すことができる。 したがって、 観察者は、 ごく自然に、 C Gを楽し むことができる。
また、 別の発明は、 さらに、 後光生成用デバイスによって、 実物体ま たは観察者が動いた際に、 実物体と C Gとの間に生じたずれを観察者に 見せないのに十分な厚みの後光画像を生成する画像処理装置である。 こ のため、 C Gの生成が実体物または観察者の動きに追随できない場合で あっても、 C Gは、 十分に実物体を隠すことができる。 したがって、 観 察者は、 ごく自然に、 C Gを楽しむことができる。
また、 別の発明は、 さらに、 観察者が見るディスプレイと実物体との 間の距離、 角度および観察者から見た実物体の方向の内、 少なくともい ずれか 1っを検知する検知デバイスを備える画像処理装置である。 この ため、 実物体と観察者との動作の変化に対して高精度で追随する C Gの 生成が可能となる。
また、 別の発明は、 さらに、 ネットワークを介して、 外部から C Gを 受信するための通信デバイスを備える画像処理装置である。 このため、 観察者は、 自分の好みの C Gを外部から簡単に入手できる。 したがって、 観察者は、 1つの実物体を持つことによって、 複数のキャラクタを味わ うことができる。 また、 別の発明は、 さらに、 観察者に、 実物体よりも観察者側にある 部分を持つ第 2実物体を見せるための欠落領域を、 C Gに有し、 後光生 成用デバイスによって、 欠落領域の周縁にも後光画像を生成する画像処 理装置である。 このため、 実物体に、 第 2実物体を接触させた状態で、 実物体に C Gを重ねても、 観察者に、 第 2実物体の一部又は全部が見え る。 例えば、 人間型口ポット (実物体) にチョコレート (第 2実物体) を持たせた場合、 観察者は、 人間型口ポットよりも観察者側にあるチヨ コレートの一部を観察できる。 したがって、 チョコレートを持った人間 型ロポッ卜を観察する観察者は、 アイドル夕レントがチョコレートを持 つている光景を認識できる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを選択する手段と、 C Gの周縁に後光画像を生成 する手段と、 C Gと後光画像とを合成する手段とを備える画像処理装置で ある。 これにより、 その実物体の形態に合致した C Gを選択し、 そしてそ の後光を生成することができる。 この結果、 実物体の動きと C Gとの間にず れが生じた場合でも、そのずれを隠すことができる。 したがって、観察者は、 違和感無く実物体に接することができ、 かつ低コストにて、 口ポットに対す る親近感を持つことができる。 さらに、 合成画像を表示するディスプレイ装 置と画像処理装置とを分けることにより、 ディスプレイ装置側の負荷を減ら すことができる。 ここでいう各手段は、 電子回路基板に固定される C P U等 のデバイス、 そのデバィスとそのデバイスの処理によって動作するプロダラ ムを含む広義の意味を持つ。 したがって、 上記の各手段は、 デバイスという ハードウェアのみであっても、 そのハ一ドウエアとプログラムというソフト ウェアとの組み合わせであっても良い。 以下、 逐一言及しないが、 「手段」 と記載されるものは、 上記の広義の意味を持つものとする。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 位置関係に合う形態の C Gを生成する手段と、 C Gの周縁に後光画像を生成 する手段と、 C Gと後光画像とを合成する手段とを備える画像処理装置で ある。 これにより、 その実物体の形態に合致した C Gと後光とを生成する ことができる。 この結果、 実物体の動きと C Gとの間にずれが生じた場合で も、 そのずれを隠すことができる。 したがって、 観察者は、 違和感無く実物 体に接することができ、 かつ低コストにて、 口ポットに対する親近感を持つ ことができる。 さらに、 合成画像を表示するディスプレイ装置と画像処理装 置とを分けることにより、ディスプレイ装置側の負荷を減らすことができる。 また、 別の発明は、 さらに、 後光画像を生成する手段によって、 観察 者と実物体との距離の測定における誤差を見積もり、 その誤差に基づい て、 実物体が C Gの周縁にはみ出して見えることを防止するのに十分な 厚みの後光画像を生成する画像処理装置である。 このため、 観察者と実 体物との距離が正確に検知されない場合であっても、 C Gは、 十分に実 物体を隠すことができる。 したがって、 観察者は、 ごく自然に、 C Gを 楽しむことができる。
また、 別の発明は、 さらに、 後光画像を生成する手段によって、 実物 体または観察者が動いた際に、 実物体と C Gとの間に生じたずれを観察 者に見せないのに十分な厚みの後光画像を生成する画像処理装置であ る。 このため、 C Gの生成が実体物または観察者の動きに追随できない 場合であっても、 C Gは、 十分に実物体を隠すことができる。 したがつ て、 観察者は、 ごく自然に、 C Gを楽しむことができる。
また、 別の発明は、 さらに、 観察者が見るディスプレイと実物体との 間の距離、 角度および観察者から見た実物体の方向の内、 少なくともい ずれか 1っを検知する手段を備える画像処理装置である。 このため、 実 物体と観察者との動作の変化に対して高精度で追随する C Gの生成が可 能となる。 また、 別の発明は、 さらに、 ネットワークを介して、 外部から C Gを 受信する手段を備える画像処理装置である。 このため、 観察者は、 自分 の好みの C Gを外部から簡単に入手できる。 したがって、 観察者は、 1 つの実物体を持つことによって、 複数のキャラクタを味わうことができ る。
また、 別の発明は、 さらに、 観察者に、 実物体よりも観察者側にある 部分を持つ第 2実物体を見せるための欠落領域を、 C Gに有し、 後光画 像を生成する手段によって、 欠落領域の周縁にも後光画像を生成する画 像処理装置である。 このため、 実物体に、 第 2実物体を接触させた状態 で、 実物体に C Gを重ねても、 観察者に、 第 2実物体の一部又は全部が 見える。 例えば、 人間型ロボット (実物体) にチョコレート (第 2実物 体) を持たせた場合、 観察者は、 人間型口ポットよりも観察者側にある チョコレートの一部を観察できる。 したがって、 チョコレートを持った 人間型ロポットを観察する観察者は、 アイドルタレントがチョコレー卜 を持っている光景を認識できる。
また、 別の発明は、 実物体の形態および実物体を見る観察者と実物体との 間の位置関係に合う形態の C Gの周縁に生成させた後光画像と、 C Gとを合 成した合成画像とを、 実物体に重なるように、 観察者が見るディスプレイに 表示させる画像表示処理用デバイスを備えるディスプレイ装置である。 こ れによって、 その実物体の形態に合致した C Gを選択し、 そしてその後光を 生成することができる。 この結果、 実物体の動きと C Gとの間にずれが生じ た場合でも、 そのずれを隠すことができる。 したがって、 観察者は、 違和感 無く実物体に接することができ、 かつ低コストにて、 口ポットに対する親近 感を持つことができる。 さらに、 合成画像を表示するディスプレイ装置と、 合成画像を生成する画像処理装置とを分けることにより、 ディスプレイ装置 側の負荷を減らすことができる。 また、 別の発明は、 観察者に、 実物体よりも観察者側にある部分を持 つ第 2実物体を見せるための欠落領域を、 C Gに有し、 後光画像をその 欠落領域の周縁にも存在させるディスプレイ装置である。 このため、 実 物体に、 第 2実物体を接触させた状態で、 実物体に C Gを重ねても、 観 察者に、 第 2実物体の一部又は全部が見える。 例えば、 人間型口ポット
(実物体) にチョコレート (第 2実物体) を持たせた場合、 観察者は、 人間型口ポットよりも観察者側にあるチヨコレートの一部を観察でき る。 したがって、 チョコレートを持った人間型口ポットを観察する観察 者は、アイドル夕レントがチョコレートを持っている光景を認識できる。 図面の簡単な説明
図 1は、 本発明の画像処理システムの構成を示すブロック図である。
図 2は、 本発明の画像処理装置となる人間型ロポッ卜の外観を示す図であ る。
図 3は、 本発明のディスプレイ装置となるへッドマウントディスプレイの 外観を示す図である。
図 4は、 図 2の画像処理装置における画像処理の動作の流れを説明するた めのフロ一チヤ一トである。
図 5は、 図 2の画像処理装置により生成した C Gの一例を示す図である。 図 6は、 図 2の画像処理装置により抽出した C Gの輪郭を示す図である。 図 7は、図 2の画像処理装置において生成した後光の一例を示す図である。 図 8は、 図 2の画像処理装置において、 C Gと後光とを合成した合成画像 の一例を示す図である。
図 9は、 人間の視覚のピンホールカメラモデルである。
図 1 0は、 実物体の奥行方向の測定誤差がある場合の、 実物体と C G とのずれを示す図である。 図 1 1は、両眼から正面の実物体を見る状態を模式的に示す図である。 図 1 2は、図 1 1の状態において、左右方向の測定誤差がある塲合の、 実物体と C Gとのずれを示す図である。
図 1 3は、 時間 Tの間に人間型口ポットが次の状態 (時間 T後の人間 型口ポット) に移動した際に、 画像処理の遅れを補償する後光の厚さを 示す図である。
図 1 4は、 本発明の画像処理システムの第 2の実施の形態を示すブロック 図である。
図 1 5は、 図 1 4の画像処理システムにおいて、 ダウンロード装置から C Gをダウンロードし、 記憶する処理動作を説明するためのフローチャートで ある。
図 1 6は、 本発明の画像処理システムの第 3の実施の形態を示すブロック 図である。
図 1 7は、 人間型口ポットに、 チョコレートを持たせた状態を示す図 である。
図 1 8は、 図 1 7に示す人間型ロポットと観察者との間に配置される C Gを示す図である。
図 1 9は、 図 1 7に示す人間型口ポットを、 図 1 8に示す C G越しに 観察した光景を示す図である。 発明を実施するための最良の形態
以下、 本発明の最良の実施の形態につき、 図面に基づき説明する。 なお、 以後、 実物体を、 人間型口ポットに代表される口ポットとして説明するが、 マネキン等の動かないものとしても良い。 加えて、 以下説明する各デバイス に代えて、 同各デバイスとプログラムとの共同によって、 同各デバイスと同 様の処理を実行可能としても良い。 (第 1の実施の形態)
図 1は、 本発明の画像処理システムの構成を示すブロック図である。 図 1 に示すように、 本発明の画像処理システムは、 画像処理装置となる人間型口 ポット 1とディスプレイ装置となる HMD 2とから構成されている。図 2は、 人間型ロボット 1の外観を示す図である。 人間型口ポット 1は、 2足歩行で 動くことができ、 また、 手、 首、 足などの各関節が動くように構成されてい る。
図 1に示すように、 人間型口ポット 1は、 検知デバイスの一形態であ るセンサ 1 1 a, l i , 1 1 cと、 通信部 1 2と、 画像生成用デバイ スの一形態である相対位置姿勢計算部 1 3と、 関節ァクチユエ一夕 1 4 と、 画像生成用デバイス、 後光生成用デバイスおよび合成画像生成用デ バイスの一形態である画像処理部 1 5と、 記憶部 1 6と、 通信デバイス の一形態である通信部 1 7とを備えている。 また、 HM D 2は、 検知デ バイスの一形態であるセンサ 2 1 a、 2 l bと、 通信部 2 2 , 2 3と、 画像表示処理用デバイスの一形態である立体画像表示部 2 4と、 制御部 2 5とを備えている。
センサ 1 1 aは、 人間型ロポット 1の表面に加えられた接触圧を検知する センサである。センサ 1 1 bは、人間型ロポット 1の姿勢を測定するために、 各関節の角度を検知するセンサである。 センサ 1 1 cは、 HMD 2の位置、 すなわち、 HMD 2を装着している観察者と人間型ロボット 1との相対距離 を測定して検出するセンサである。 各センサ 1 1 a, l i b , 1 1 cのデ一 夕 (体表接触圧データ、 関節角度データおよび相対距離情報) は、 通信部 1 2に送られる。
通信部 1 2は、 各センサ 1 1 a , l i b , 1 1 cから送られた各データを 受信するとともに、 HMD 2からデ一夕を受信する。 HMD 2から送信され たデータは、 HMD 2にあるセンサ 2 1 bが測定した人の頭部の姿勢データ (頭部姿勢デ一夕) である。 通信部 1 2は、 これら全てのセンサ 1 1 a , 1 1 b , 1 1 cからのデ一夕を相対位置姿勢計算部 1 3に送る構成部である。 なお、 この実施の形態において、 人間型ロポット 1と HMD 2との間のデ一 夕通信は、 アンテナ (図示せず) を介して無線で行われることを想定してい るが、 これに限るものではなく、 ケーブルを介して有線で行われるものであ つても良い。
相対位置姿勢計算部 1 3は、 通信部 1 2から送られたデ一夕の内、 センサ 1 1 a , 1 1 bでそれぞれ検知されたデータに基づいて、 人間型ロポット 1 が所定の姿勢となるような各関節の目標角度のデータを計算する構成部であ る。 また、 相対位置姿勢計算部 1 3は、 通信部 1 2から送られた全てのデー 夕 (体表接触圧デ一夕、 関節角度データ、 相対距離情報および頭部姿勢デー 夕) に基づいて、 人間型ロポット 1の姿勢および人間型ロポット 1と HMD 2との相対位置関係を求め、 それらの情報から、 HMD 2を装着した観察者 がロポット 1を見た場合における視界に映る人間型ロポッ卜 1の形状である 相対位置姿勢データを計算する構成部であり、 C G生成のためのデータを画 像処理部 1 5に送る。
関節ァクチユエ一夕 1 4は、 相対位置姿勢計算部 1 3で計算された目標関 節角度デ一夕に基づいて、 各関節の角度を変化させる駆動機構である。 画像 処理部 1 5は、 画像生成用デバイスの一形態である画像生成部 1 5 aと、 後 光生成用デバイスの一形態である後光生成部 1 5 bと、 合成画像生成用デバ イスの一形態である合成画像生成部 1 5 cとからなる。 画像処理部 1 5は、 相対位置姿勢計算部 1 3で計算された相対位置姿勢データに基づいて、 記憶 部 1 6に保存されている人物 C Gのデ一夕を読み出し、 その人物 C Gのデ一 夕に対して画像生成、輪郭抽出、後光生成および画像合成の各処理を施して、 合成画像 (=処理済 C Gデータ) を生成する。 ここで、 輪郭抽出は、 画像生 成部 1 5 aで行われる。画像処理部 1 5は、中央演算処理ュニット(C P U)、 画像処理プロセッサ、 メモリとで構成されるのが一般的であるが、 これ以外 のハード構成でも良い。なお、画像処理部 1 5の詳細な処理動作については、 後述する。
記憶部 1 6は、 人物 C Gのデータを格納する記憶媒体である。 人物 C Gの データは、 例えば、 ドライブ (図示せず) によって C D— R OMなどのメデ ィァから読み込むことより記憶部 1 6に格納される。 ここで、 人物 C Gのデ —夕としては、 例えば、 芸能人など著名人の C Gデータなどが考えられる。 通信部 1 7は、 画像処理部 1 5で処理した処理済 C Gデータを受け取ると、 その処理済 C Gデータを HMD 2に対して送信する構成^である。
HMD 2は、図 3に示すように、ゴーグルタイプのディスプレイであって、 観察者の頭部に装着される装置である。 HMD 2は、 透過型のヘッドマウン トディスプレイであつて、 観察者の目前の映像投影部のうち映像が映されて いない部分は光を透過する。 したがって、 観察者は、 HMD 2の映像投影部 のうちの映像が映されていない部分から、 人間型ロボット 1を一例とする実 物体 (実存している物体であって、 C Gの立体映像とは反対の意である) を 見ることができる。
図 1に示すように、 HMD 2の内部にあるセンサ 2 1 aは、 人間型ロポッ ト 1の位置、 すなわち HMD 2を装着している観察者と人間型ロポット 1と の相対距離を測定して検出するセンサである。 また、 センサ 2 l bは、 HM D 2を装着している観察者の頭部の姿勢 (顔の向いている方向や傾きなど) を検知するセンサである。
通信部 2 2は、 センサ 2 1 bで検知された頭部姿勢デ一タを人間型ロポッ ト 1に対して送信する構成部である。 また、 通信部 2 3は、 人間型口ポット 1から送信された処理済 C Gデ一夕を受信する構成部である。
立体画像表示部 2 4は、 通信部 2 3で受信された処理済 C Gデータを表示 する構成部である。 制御部 2 5は、 HMD 2の各部の動作を制御する構成部 である。
次に、 人間型口ポット 1の画像処理について、 図 4から図 8に基づいて説 明する。
人間型ロポット 1は、 電源がオンの状態においては、 常に、 センサ 1 1 a およびセンサ 1 1 bがそれぞれ体表接触圧データおよび関節角度デ一夕を検 知している。 そして、 センサ 1 1 aおよびセンサ 1 1 bで検知された体表接 触圧データおよび関節角度データは、 通信部 1 2を介して相対位置姿勢計算 部 1 3に送られる。 相対位置姿勢計算部 1 3は、 体表接触圧データおよび関 節角度データに基づいて、 人間型ロポット 1が所定の姿勢になるように目標 関節角度デ一夕を計算する。 そして、 関節ァクチユエ一夕 1 4は、 目標関節 角度データを受け取って、 人間型ロポット 1の各関節を目標関節角度に調整 する。 これにより、 人間型口ポット 1は、 様々な姿勢に変化させて動き回る ことが可能となる。
センサ 1 1 cが、 HMD 2を検出すると、 人物 C Gのデ一夕に画像処理を 施して HMD 2に送信するモードに移行する。 センサ 1 1 cは、 HMD 2と の間の相対距離を測定し、 通信部 1 2を介して、 その相対距離の情報を相対 位置姿勢計算部 1 3に送る。 また、 通信部 1 2は、 HMD 2の通信部 2 2か ら送信された頭部姿勢データを受信し、 その頭部姿勢データを相対位置姿勢 計算部 1 3に送る。
相対位置姿勢計算部 1 3は、 全てのセンサデータ、 すなわち、 体表接触圧 データ、 関節角度データ、 相対位置情報、 頭部姿勢データに基づいて、 相対 位置姿勢データを計算し、その相対位置姿勢データを画像処理部 1 5に送る。 画像処理部 1 5は、 相対位置姿勢デ一夕に基づいて、 以下のように人物 C G のデータに画像処理を施す。
図 4は、 画像処理部 1 5の画像処理動作の流れを簡単に説明するためのフ ローチャートである。画像処理部 i 5は、相対位置姿勢データを受け取ると、 まず、 記憶部 16に格納されている人物 CGのデ一夕を読み出して、 その人 物 C Gデータと相対位置姿勢デー夕に合った C Gに変換する (ステップ S 1)。
ここで、 CGは、 コンピュータで描かれたあらゆるポーズの絵という意味 ではなく、 関節位置や表面形状の 3次元情報を備えた、 いわゆる 3D CGで あり、 コンピュータで描かれた 3次元のフィギュアである。 画像処理部 15 は、 この CGの関節を自由に動かしたり、 視点を変化させたりすることがで きる。 具体的には、 画像処理部 15は、 空間座標を設定し、 相対位置姿勢デ —夕に基づいて、 人間型ロポット 1の各関節位置に軌道を与えて動かすこと によって、 人間型口ポット 1の姿勢に合った CGを生成する。 このような画 像処理部 15により画像生成処理をした CG40の例を、 図 5に示す。
なお、 3DCGとは、 フォトグラフィのような左目と右目に見える像のず れによって脳の錯覚を利用して、 目の前にある像 (絵) が立体的に浮かんで いるように見える、 いわゆる立体視映像とは異なるものであるが、 さらに立 体視のための処理を 3D CGに対して行っても良い。
次に、 画像処理部 15は、 画像生成された CG 40の輪郭を抽出する (ス テツプ S 2)。 このような画像処理部 15による輪郭 41の抽出処理の結果 を、 図 6に示す。 次に、 画像処理部 15は、 抽出した CG40の輪郭 41の 周縁に後光 42を生成する (ステップ S 3)。 この後光 42は、 人間型ロボ ット 1と CG40とのずれを隠すための光である。 このような画像処理部 1 5による後光 42の生成処理の結果を、 図 7に示す。
ここで、 後光 42は、 その目的から、 人間型ロボット 1の動きと CG40 とのずれが十分隠れる程度の幅 tを持たせる必要がある。 したがって、 後光 の幅 tは、 人間型ロボット 1の各関節などが最大速度で動いているときに生 じるずれをカバ一できる厚みが必要である。
次に、 画像処理部 15は、 生成した CG40と後光 42の画像とを合成す る (ステップ S 4)。 このような画像処理部 1 5により合成された合成画像 の例を、 図 8に示す。 図 8に示すように、 CG40の周縁に後光 42を付け ることにより、 人間型ロポット 1と CG40との微妙なずれを隠すことがで きるとともに、 CG40の周縁に後光 42があっても、 観察者にとって違和 感を感じさせることもない。
画像処理部 15は、 図 1に示すように、 CG40に後光 42を合成した処 理済 CGデータを通信部 17を介して HMD 2に送信する。 HMD 2では、 通信部 23が人間型ロポッ卜 1の通信部 17から送信された処理済 CGデ一 夕を受信すると、 その処理済 CGデータを立体画像表示部 24に送る。 立体 画像表示部 24は、 処理済 CGデータを人間型口ポット 1の動きと重なるよ うに、 図示されない映像投影部に表示させる。 HMD 2を装着している観察 者は、 人間型口ポット 1に重ねて、 HMD 2で後光 42のある CG40を見 ることができる。 これにより、 観察者は、 人間型口ポット 1と CG40との ずれを感じなくなる。
なお、 HMD 2で人物 CGのデ一夕を人間型ロポット 1に重ね合わせて表 示しているときに、 HMD 2を装着している観察者 (利用者) が人間型ロボ ット 1に触った場合には、 人間型ロボット 1のセンサ 11 aがそれを感知す る。 この結果、 画像処理部 15は、 人物 CGのデータの画像処理を施して、 その人物画像の表情を変化させるように構成しても良い。 また、 観察者が触 つた場所や強さなどに応じて人物の表情をプログラムで予め定められた通り に、 怒ったり、 笑ったりするように構成しても良い。
以上のように、 この実施の形態によれば、 人間型口ポット 1の画像処理部 15によって、 CG40の周縁に後光 42を施すようにしているので、 ロボ ッ卜の動きと CG40との間にずれが生じた場合でも、 そのずれを隠すこと ができ、 観察者はそのずれを認識することがなくなり、 その結果、 人間型口 ポット 1に対して感情移入を容易に行うことが可能となる。 また、 実際に、 観察者が人間型口ポット 1に触れることができ、 より一層、 その C Gの人物 と触れ合っているような感覚を味わうことができることになる。
なお、 本発明における画像処理装置は、 玩具的な用途以外にも、 様々な用 途に利用することが期待できる。 具体的には、 まず、 利用者が好きな芸能人 の人物 C Gのデ一夕を再生することにより、 その芸能人と仮想的に触れ合う ことができる立体ポスタ一として楽しむことができる。 さらに、 人間型ロボ ッ卜 1に対話装置を搭載することにより、 非常に効果的な広告媒体ともなり 得る。
また、 利用者が人間型ロポット 1と一緒に散歩やスポーツなどを楽しむこ とも考えられる。 また、 生前に自分の人物 C Gのデータを遺しておくことに より、自分の死後に家族の悲しみを和らげることもできるものと考えられる。 さらに、病人や老人の介護や福祉目的などにも利用されることも期待できる。 また、 本実施の形態では、 人間型ロボット 1側に相対位置姿勢計算部 1 3 および画像処理部 1 5を設けていたが、 これに限るものではない。 HMD 2 側に相対位置姿勢計算部 1 3および画像処理部 1 5を設けるようにしても良 レ^ この場合、 人間型口ポット 1の通信部 1 2から体表接触圧デ一夕および 関節角度データが HMD 2に送信され、 HMD 2側でそれらのデータに基づ いて相対位置姿勢データを計算し、 その相対位置姿勢データに基づいて人物 C Gのデ一夕の画像処理を施すことになる。
次に、最適な後光 4 2の設定方法について、図面に基づいて説明する。 人間型ロポット 1と H M D 2との間の相対位置の測定には、誤差がある。 この測定誤差に起因して、 C G 4 0の周縁から人間型ロポット 1がはみ 出して見える可能性がある。 かかる事態を防止するため、 C G 4 0に施 す後光 4 2の厚みを、 最適化するようにしている。 すなわち、 後光 4 2 の厚さを大きくするほど、 人間型口ポット 1が見えるリスクは低くなる 一方で、 C G 4 0の見え方は、 より不自然になる。 したがって、 上記ず れを隠すに充分で、 かつ最低の厚みの後光 42を表示させるのが好まし レ 以下、 奥行き方向と上下左右方向に分けて、 最適な後光 42の厚さ を計算する方法を説明する。
まず、 奥行き方向の測定誤差に基づいて後光 42の厚さを計算する方 法について説明する。 .
図 9は、 人間の視覚のピンホ一ルカメラモデルである。 原点 0はレン ズ中心に相当し、 原点 0から目標点である物体 5 0までの真の距離が 1 (エル)のとき、 センサの測定値は誤差も含めて 1(1 ± )に収まるものと する。 距離 1に存在する、 幅 wの物体 5 0が視野に占める視野角 2 Θ r e a 1 とする。 この場合、 HMD 2の表示部には視野角 2 Θ r e a 1に 相当する幅の CG 5 1を映し出すことにより、 物体 5 0を CG 5 1で隠 すことが可能である。 なお、 人間の網膜には、 視野角 2 0 r e a 1に相 当する幅の CG 5 2が写っている。
これに対し、 図 1 0に示すように、 原点 0から目標点である物体 5 0 までの距離が 1(1+ひ)であると判定された場合、 HMD 2の表示部には、 距離 1(1+ a)に存在する幅 wの物体 5 3が占める視野角 2 em i sに相 当する幅で CG 54が表示される。 すると、 0 r e a 1 >0m i sであ るため、 HMD 2に表示された CG 5 1から物体 5 0がはみ出して見え る。 このときのはみ出し幅は、 以下の数式 1および数式 2を用いて計算 できる。
数式 1
1 1 + « ) tan Θ mis = w
数式 2 '
1 tan Θ real = w
よって、 数式 3を導く事ができる。
数式 3 tan 0 mis = (1Z1 +ひ) tan Θ real ' よって、 はみ出し幅 δは、 数式 4で示すように求めることが出来る。 数式 4
δ = 1 (tan Θ real - tan Θ mis)
= 1 {tan Θ real - ( 1 / 1 + ) tan Θ real}
= 1 tan 0 real { / 1 + )
この結果、 例えば、 観察者の l m前方に、 肩幅 5 O c mの口ポットが 存在するものとし、 センサ 1 1 cを赤外線距離センサ、 超音波距離セン サとし、 それらによる測定誤差を 1 c mとすると、 α = 0. 0 1となる。 また、 t a n 0 r e a l = O . 2 5となる。 よって、 はみ出し幅は、 1 • 0. 2 5 · ( 0. 0 1/ 1. 0 1)、 すなわち 0. 0 0 2 5mとなる。 したがって、 後光 4 2の厚みが 2. 5 mmであれば、 はみ出しを覆うこ とができる。
次に、 上下左右方向の誤差に基づいて後光 4 2の厚さを計算する方法 について説明する。 なお、 簡便化のため、 三辺測量方式に用いる 3点の うち、 2点を取り出して説明する。
図 1 1に示すように、 点 S 2から目標点までの距離をそれぞれ、 1 1 2で表す。 また、 点 S i S 2間の距離は 1 12である。 今、 目標点が S S 2間の中点を通る垂直線上にあって、 1 = 1 2とする。 それぞれの 測定誤差の割合を i3とすると、 物体の位置の左右誤差が最も大きくなる のは、 図 1 2に示すように、 目標点が点 S iから 1 1一 j6)、 点 S 2から 1 2(1+ )3)の距離にあるとされた場合である。この場合の左お誤差 Xは、 三平方の定理より、 数式 5のように計算できる。
数式 5
{ 1 ( 1— ;8)} 2— ( 1 2 - x) 2
= { 1 ( 1 + 0)} 2— ( 1 ^2 + x) 2 次に、 数式 5の両辺を展開して、 Xについて整理すると、 数式 6のよ うになる。 また、 今、 l i= l 2なので、 右辺を 12でまとめて整理する と、 数式 7のようになる。
数式 6
x= { 12 2 ( 1 + /3) 2- 1 I 2 ( 1 - /3) 2} / (2 11 2) 数式 7
x= 2 i3 12 2/ 1 is
この結果、 今、 観察者の lm前方に、 口ポットが存在するものとし、 点 S および点 S 2が HMD 2の左右に存在しているとして、 112= 0. 2mとする。 すると、 誤差無く測定できた場合に、 しと はゝ 三平方 の定理より 1. 005mである。 今、 センサによる 1 iと 12の測定誤差 ;8を 0. 0 1とすると、 左右方向のずれ Xは、 2 · 0. 0 1 · ( 1. 0 05) 0 - 2 = 0. 1 01となる。
つまり、 後光 42の厚みが約 1 0 cmあれば、 測定誤差によるはみ出 しを覆うことができる。 また、 この誤差は距離の二乗に比例しており、 口ポットが半分の距離にあれば、 後光の厚さは 1/4の 2. 5 cmで良 い。
以上の奥行方向の測定誤差を補償する後光 42の厚さと、 上下左右方 向の測定誤差を補償する後光 42の厚さの和が、 必要な後光 42の厚さ である。
次に、 人間型口ポット 1の動作に対して、 CG40の処理が遅れる場 合に、 その遅れを補償するのに必要な後光 42の厚さ tを計算する方法 について説明する。
今、 人間型口ポット 1が動いた瞬間から、 当該動いた人間型口ポット 1を基準として CG40を HMD 2に表示するまでの時間 (=遅れ) を T (s e c) とする。 また、 人間型口ポット 1の動作速度を V (mZs e c) とする。 すると、 図 1 3に示すように、 時間 Tの間に人間型ロボ ット 1が次の状態 (時間 T後の人間型ロポッ卜) 1 aに移動する距離 X (m) は、 VT (m) となる。
したがって、 後光 42の厚さ t (m) を VT (m) に設定すると、 人 間型口ポット 1の動作に CG40の表示処理が追いつかなくても、 後光 42の厚み tから外に、 時間 T後の人間型ロボット 1 aが見えることは ない。
例えば、 C G 40の処理の遅れ Tを 0. l s e c、 人が不安に感じな いロポッ卜の速度であって最も速い手先の動作速度 Vを 0. 6m/s e cとする。 すると、 遅れを補償する後光の厚さ tは、 0. 1 s e cで移 動した人間型口ポットの距離 X ( = TV) である 6 cmとなる。
(第 2の実施の形態)
第 1の実施の形態では、 メディアを通じて人物 CGのデータを記憶部 16 に保存していたが、 本実施の形態では、 ダウンロード装置 3から配信される 人物 CGのデータをインターネットなどのネットヮ一クを通じて受信し、 そ の受信した人物 C Gのデータを記憶部 16に保存する。
図 14は、 本発明の画像処理システムの構成を示すブロック図である。 図 14において、 ダウンロード装置 3は、 イン夕一ネットなどのネットワーク (図示せず) 上にホームページを提供し、 そのホームページにアクセスして きた画像処理装置の利用者に対して、 その利用者が希望する CG40のデー 夕をネットワークを通じて配信 (ダウンロード) するサーバである。
このダウンロード装置 3の内部には、 図 14に示すように、 通信デバイス の一形態である通信部 31、 記憶部 32および制御部 33を備えている。 通 信部 31は、 図示されないネッ卜ワークを介してデータ通信を行う構成部で ある。 記憶部 32は、 例えば、 複数の著名な人物とそっくりな CG40のデ —タを保存する構成部である。 制御部 33は、 ダウンロード装置 3の各部の 動作を制御するとともに、 CG40のデ一夕の配信や配信履歴の管理などを 行う構成部である。
人間型口ポット 1の通信部 17は、 ネットワークに接続可能である。 した がって、 利用者は、 人間型口ポット 1の通信部 17を介してネットワーク上 に提供されているホームページにアクセスできる。
なお、 その他の構成については、 図 1に示した構成と同様であるため、 同 一構成については同一符号を付すことにより、 重複する説明を省略する。 次に、 本発明の画像処理システムの動作について、 図 15に基づいて説明 する。
図 15は、 本発明の画像処理システムの動作の流れを説明するためのフロ —チャートである。 画像処理装置の利用者は、 CG40のデータの配信を希 望する場合には、 まず、 ダウンロード装置 3がネットワーク上に提供してい るホームページにアクセスする (ステップ S 11)。 次に、 利用者は、 その ホームページ上のアイコンをクリックするなどして、 希望する人物 CGのデ —夕を選択する (ステップ S 12)。
ダウン口一ド装置 3の制御部 33は、 ホームページにアクセスしてきた利 用者によって人物 CGのデータが選択されると、 その選択された人物 CGの データを通信部 31からネットワークを通じて人間型ロポット 1に対して配 信する (ステップ S 13)。
人間型口ポット 1では、 通信部 17がダウンロード装置 3から配信された 人物 CGデータを受信すると (ステップ S 14)、 その受信した人物 CGの データを記憶部 16に格納して保存する (ステップ S 15)。
以上のように、 本実施の形態によれば、 ダウンロード装置 3がネットヮー クを通じて人物 CGのデータを配信するように構成されているので、 利用者 が様々な人物 C Gのデータを簡易かつ確実に取得することができる。 その結 果、 画像処理装置の利用性を一層向上させることができる。 (第 3の実施の形態)
次に、 画像処理を HMD 2で行うようにした画像処理システムについ て説明する。
図 1 6に示すように、 人間型ロボット 1は、 センサ 1 1 a, l i b, 1 1 cと、 通信部 1 2と、 相対位置姿勢計算部 1 3と、 関節ァクチユエ —夕 14と、 通信部 1 7とを備えている。 また、 HMD 2は、 画像処理 部 1 5と、 記憶部 1 6と、 センサ 2 1 a、 2 1 bと、 通信部 22, 23 と、 立体画像表示部 24と、 制御部 25とを備えている。 人間型ロボッ ト 1および HMD 2の両構成部の機能は、 第 1の実施の形態で説明した 機能と同様の機能である。
人間型口ポット 1は、 各センサ 1 1 a, l i b, 1 1 c, 2 1 bから のデ一夕に基づいて、 人間型ロポット 1の体勢および観察者との位置関 係を計算し、 その計算結果を HMD 2に送信する。 HMD 2は、 人間型 口ポット 1から送信されてきた計算結果に基づいて、 記憶部 1 6から C G40を選出し、 その選出した CG 40を表示部に立体画像表示部 24 に表示する。
このように、 HMD 2に画像処理の機能を持たせることにより、 人間 型ロボット 1のコスト低減、 ロボット本来の機能の充実を図ることがで さる。
(第 4の実施の形態)
次に、 人間型ロポット 1に第 2実物体の一例としてのチョコレートを 持たせて、 CG越しにその人間型口ポット 1を観察する場合における画 像処理システムについて説明する。 画像処理システムの第 4の実施の形 態は、 第 1の実施の形態または第 3の実施の形態にて説明した人間型口 ポット 1と HMD 2とそれぞれ同じ装置、 あるいは第 2の実施の形態に て説明した人間型ロポット 1と HMD 2とダウンロード装置 3とそれぞ れ同じ装置を備えている。 ここでは、 画像処理システムが第 1の実施の 形態または第 3の実施の形態にて説明した人間型ロポッ卜 1と HMD 2 を有している例を説明する。
第 4の実施の形態とそれ以前の実施の形態との違いの一つは、 観察者 が人間型ロポット 1に重ねられる CG越しに第 2実物体を観察できるよ うに、 穴あるいは凹部に代表される欠落領域を有していることである。 また、第 4の実施の形態とそれ以前の実施の形態との違いのもう一つは、 上記 CGにおける上記欠落領域の周縁にも、 後光が生成されていること である。
図 1 7は、 人間型ロポット 1に、 チョコレート 60を持たせた状態を 示す図である。 また、 図 18は、 図 1 7に示す人間型口ポット 1と観察 者との間に配置される CG40を示す図である。 CG40は、 既に説明 した実施の形態と同様の後光 42を有すると共に、 チョコレー卜 60の 位置に合わせて設けられた欠落領域 (ここでは、 穴) 6 1の周囲にも後 光 42 aを有している。 したがって、 観察者が、 HMD 2に映る CG 4 0越しに人間型口ポット 1を見ると、 図 1 9に示すように、 一部にあけ られた穴 6 1からチョコレート 60が見える CG40を認識することが できる。
人間型ロポット 1がチョコレート 60を食べる動作を行うと、 人間型 口ポット 1から HMD 2に、 人間型口ポット 1と HMD 2との距離、 チ ョコレート 60を持つ手の位置等のデータが送られる。 HMD 2は、 そ のデータに基づいて、 口元にチョコレート用の穴 6 1があいた CG40 を選択して、 これを写す。 人間型口ポット 1の動作に合わせて、 各動作 に合致した C G 4 0は、 選択され、 そして映し出される。 このため、 観 察者は、 人間型口ポット 1ではなく、 アイドルの C G 4 0がチョコレー ト 6 0を食べている動画を見ることができる。 後光 4 2および後光 4 2 aは、 人間型口ポット 1およびチョコレート 6 0と、 C G 4 0とのずれ によって、人間型ロボット 1が観察者に見えてしまうことがないように、 C G 4 0の周縁および穴 6 1の周縁に、 それぞれ設けられている。
また、 この画像処理システムに、 第 2の実施の形態で説明したダウン ロード装置 3を設けることにより、 以下の処理を行うこともできる。 人 間型ロポット 1にバ一コ一ドが割り当てられていて、 パソコンに接続さ れるバ一コードリーダにて当該バーコードを読みとると、 当該バーコ一 ドのデ一夕は、 パソコンとィンタ一ネット等の通信回線を介して接続さ れるダウンロード装置 3に送られる。 ダウンロード装置 3は、 当該バ一 コードに基づいて C G 4 0を選択して、 これを H M D 2に送信する。 H M D 2を装着した観察者は、 C G 4 0を介して人間型ロポット 1を観察 するので、 チョコレート 6 0を持ったアイドル形態の C G 4 0を認識で きる。
また、 第 1の実施の形態から第 4の実施の形態では、 人物 C Gのデータを 適用した画像処理装置および画像処理システムについて説明したが、 これに 限られるものではない。 例えば、 人間以外の動物 (犬など) の C Gであって もよい。 この場合、 人間型口ポット 1の代わりに動物型口ポット (犬型ロボ ッ卜など) を用いると良い。
また、 第 2の実施の形態では、 ダウンロード装置 3から配信される人物 C Gデータを人間型ロポット 1で受信するように構成されていたが、 HMD 2 側に相対位置姿勢計算部 1 3および画像処理部 1 5を備え、 HMD 2側で受 信するようにしても良い。
また、 利用者が、 自身のパソコンでダウンロード装置 3のホームページに アクセスし、 そのパソコンで人物 C Gのデータをダウンロードし、 そのダウ ンロードした人物 C Gのデータをメディアに移して、 メディアを介して HM D 2の記憶部 1 6に保存するようにしても良い。
なお、 画像生成用デバイスに代えて、 あるいは画像生成用デバイスに 加えて、 画像選択用デバイスを採用しても良い。 すなわち、 人間型ロボ ット 1と H M D 2との間の距離等のデータに基づいて、 C Gを生成する のではなく、 予め多くの C Gをメモリ内に用意しておき、 上記データに 基づいて、 そのメモリ内から適切な C Gを選択するようにしても良い。 また、 後光生成用デバイスに代えて、 あるいは後光生成用デバイスに 加えて、 後光を選択するデバイスを採用しても良い。 これによつて、 本 発明の画像処理システム、 画像処理装置またはディスプレイ装置は、 上 記データに基づいて、 逐一、 後光を生成することなく、 単に、 適切な後 光を選択する処理を行うだけで良い。
また、 後光は、 不透明な層であっても、 わずかに後ろが透ける程度の 半透明な層であっても良い。 産業上の利用可能性
本発明は、 口ポットと C Gを組み合わせたコマーシャルの製作、 配信 に利用可能である。

Claims

請 求 の 範 囲
1 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関係 に合う形態の C Gを選択する画像選択用デバイスと、
上記 C Gの周縁に後光画像を生成する後光生成用デバイスと、
上記 C Gと上記後光画像とを合成した合成画像を生成する合成画像生成用 上記合成画像を、 上記実物体に重なるように上記観察者が見るディスプレ ィに表示させる画像表示処理用デバイスと、
を備えることを特徴とする画像処理システム。
2 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関係 に合う形態の C Gを選択する画像選択用デバイスと、 上記 C Gの周縁に後光 画像を生成する後光生成用デバイスと、 上記 C Gと上記後光画像とを合成し た合成画像を生成する合成画像生成用デバイスと、 上記合成画像を上記観察 者側に送信する合成画像送信用デバイスとを有する画像処理装置と、 上記合成画像送信用デバイスから送信された上記合成画像を、 上記実 物体に重なるように、 上記観察者が見るディスプレイに表示させる画像 表示処理用デバイスを有するディスプレイ装置と、
を備えることを特徴とする画像処理システム。
3 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関係 に合う形態の C Gを生成する画像生成用デバイスと、
上記 C Gの周縁に後光画像を生成する後光生成用デバイスと、
上記 C Gと上記後光画像とを合成した合成画像を生成する合成画像生成用 上記合成画像を、 上記実物体に重なるように上記観察者が見るディスプレ ィに表示させる画像表示処理用デバイスと、
を備えることを特徴とする画像処理システム。
4 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関係 に合う形態の C Gを生成する画像生成用デバイスと、 上記 C Gの周縁に後光 画像を生成する後光生成用デバイスと、 上記 C Gと上記後光画像とを合成し た合成画像を生成する合成画像生成用デバイスと、 上記合成画像を上記観察 者側に送信する合成画像送信用デバイスとを有する画像処理装置と、 上記合成画像送信用デバイスから送信された上記合成画像を、 上記実 物体に重なるように、 上記観察者が見るディスプレイに表示させる画像 表示処理用デバイスを有するディスプレイ装置と、
を備えることを特徴とする画像処理システム。
5 . 前記後光生成用デバイスは、 前記観察者と前記実物体との距離の測 定における誤差を見積もり、 その誤差に基づいて、 前記実物体が前記 C Gの周縁にはみ出して見えることを防止するのに十分な厚みの前記後光 画像を生成することを特徴とする請求項 1から 4のいずれか 1項記載の 画像処理システム。
6 . 前記後光生成用デバイスは、 前記実物体または前記観察者が動いた 際に、 前記実物体と前記 C Gとの間に生じたずれを前記観察者に見せな いのに十分な厚みの前記後光画像を生成することを特徴とする請求項 1 から 4のいずれか 1項記載の画像処理:
7 . 前記観察者が見るディスプレイと前記実物体との間の距離、 角度お よび前記観察者から見た前記実物体の方向の内、 少なくともいずれか 1 つを検知する検知デバイスを備えることを特徴とする請求項 1から 4の いずれか 1項記載の画像処理システム。
8 . 前記実物体は、 自由に動くことが可能な人間型または人間以外の動 物型のロポットであることを特徴とする請求項 1から 4のいずれか 1項 記載の画像処理システム。
9 . ネットワークを介して、 外部から前記 C Gを受信するための通信デ バイスを、 さらに備えることを特徴とする請求項 1から 4のいずれか 1 項記載の画像処理システム。
1 0 . 前記 C Gは、 前記観察者に、 前記実物体よりも前記観察者側にあ る部分を持つ第 2実物体を見せるための欠落領域を有し、
前記後光生成用デバイスは、 その欠落領域の周縁にも後光画像を生成 することを特徴とする請求項 1から 4のいずれか 1項記載の画像処理シ ステム。
1 1 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置 関係に合う形態の C Gを選択する画像選択用デバイスと、
上記 C Gの周縁に後光画像を生成する後光生成用デバイスと、
上記 C Gと上記後光画像とを合成した合成画像を生成する合成画像生成用 デバイスと、
を備えることを特徴とする画像処理装置。
1 2 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置 関係に合う形態の C Gを生成する画像生成用デバイスと、 上記 C Gの周縁に後光画像を生成する後光生成用デバイスと、
上記 C Gと上記後光画像とを合成した合成画像を生成する合成画像生成用 デバイスと、
を備えることを特徴とする画像処理装置。
1 3 . 前記後光生成用デバイスは、 前記観察者と前記実物体との距離の 測定における誤差を見積もり、 その誤差に基づいて、 前記実物体が前記
C Gの周縁にはみ出して見えることを防止するのに十分な厚みの前記後 光画像を生成することを特徴とする請求項 1 1または 1 2記載の画像処
1 4 . 前記後光生成用デバイスは、 前記実物体または前記観察者が動い た際に、 前記実物体と前記 C Gとの間に生じたずれを前記観察者に見せ ないのに十分な厚みの前記後光画像を生成することを特徴とする請求項 1 1または 1 2記載の画像処理装置。
1 5 . 前記観察者が見るディスプレイと前記実物体との間の距離、 角度 および前記観察者から見た前記実物体の方向の内、 少なくともいずれか 1っを検知する検知デバイスを備えることを特徴とする請求項 1 1また は 1 2記載の画像処理装置。
1 6 . ネットワークを介して、 外部から前記 C Gを受信するための通信 デバイスを、 さらに備えることを特徴とする請求項 1 1または 1 2記載 の画像処理装置。
1 7 . 前記 C Gは、 前記観察者に、 前記実物体よりも前記観察者側にあ る部分を持つ第 2実物体を見せるための欠落領域を有し、
前記後光生成用デバイスは、 その欠落領域の周縁にも後光画像を生成 することを特徴とする請求項 1 1または 1 2記載の画像処理装置。
1 8 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関 係に合う形態の C Gを選択する手段と、
上記 C Gの周縁に後光画像を生成する手段と、
上記 C Gと上記後光画像とを合成する手段と、
を備えることを特徴とする画像処理装置。
1 9 . 実物体の形態および上記実物体を見る観察者と上記実物体との位置関 係に合う形態の C Gを生成する手段と、
上記 C Gの周縁に後光画像を生成する手段と、
上記 C Gと上記後光画像とを合成する手段と、
を備えることを特徴とする画像処理装置。
2 0 . 前記後光画像を生成する手段は、 前記観察者と前記実物体との距 離の測定における誤差を見積もり、 その誤差に基づいて、 前記実物体が 前記 C Gの周縁にはみ出して見えることを防止するのに十分な厚みの前 記後光画像を生成することを特徴とする請求項 1 8または 1 9記載の画 像処理装置。
2 1 . 前記後光画像を生成する手段は、 前記実物体または前記観察者が 動いた際に、 前記実物体と前記 C Gとの間に生じたずれを前記観察者に 見せないのに十分な厚みの前記後光画像を生成することを特徴とする請 求項 1 8または 1 9記載の画像処理装置。
2 2 . 前記観察者が見るディスプレイと前記実物体との間の距離、 角度 および前記観察者から見た前記実物体の方向の内、 少なくともいずれか 1っを検知する手段を備えることを特徴とする請求項 1 8または 1 9記 載の画像処理装置。
2 3 . ネットワークを介して、 外部から前記 C Gを受信する手段を、 さ らに備えることを特徴とする請求項 1 8または 1 9記載の画像処理装
2 4 . 前記 C Gは、 前記観察者に、 前記実物体よりも前記観察者側にあ る部分を持つ第 2実物体を見せるための欠落領域を有し、
前記後光画像を生成する手段は、 その欠落領域の周縁にも後光画像を 生成することを特徴とする請求項 1 8または 1 9記載の画像処理装置。
2 5 . 実物体の形態および上記実物体を見る観察者と上記実物体との間の 位置関係に合う形態の C Gの周縁に生成させた後光画像と、 上記 C Gとを合 成した合成画像を、 上記実物体に重なるように上記観察者が見るディスプレ ィに表示させる画像表示処理用デバイスを備えることを特徴とするディス プレイ装置。
2 6 . 前記 C Gは、 前記観察者に、 前記実物体よりも前記観察者側にあ る部分を持つ第 2実物体を見せるための欠落領域を有し、
前記後光画像は、 その欠落領域の周縁にも存在することを特徴とする 請求項 2 5記載のディスプレイ装置。
PCT/JP2003/000523 2002-01-23 2003-01-22 Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage WO2003063086A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/502,468 US7095422B2 (en) 2002-01-23 2003-01-22 Image processing system, image processing apparatus, and display apparatus
JP2003562874A JP4083684B2 (ja) 2002-01-23 2003-01-22 画像処理システムおよび画像処理装置
EP03731816A EP1469424A4 (en) 2002-01-23 2003-01-22 IMAGE PROCESSING SYSTEM, IMAGE PROCESSING DEVICE AND DISPLAY DEVICE
US11/476,472 US7259771B2 (en) 2002-01-23 2006-06-28 Image processing system, image processing apparatus, and display apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002-13792 2002-01-23
JP2002013792 2002-01-23

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/476,472 Continuation-In-Part US7259771B2 (en) 2002-01-23 2006-06-28 Image processing system, image processing apparatus, and display apparatus

Publications (1)

Publication Number Publication Date
WO2003063086A1 true WO2003063086A1 (fr) 2003-07-31

Family

ID=27606079

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2003/000523 WO2003063086A1 (fr) 2002-01-23 2003-01-22 Systeme de traitement d'images, appareil de traitement d'images, et appareil d'affichage

Country Status (4)

Country Link
US (2) US7095422B2 (ja)
EP (1) EP1469424A4 (ja)
JP (1) JP4083684B2 (ja)
WO (1) WO2003063086A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302034A (ja) * 2005-04-21 2006-11-02 Canon Inc 画像処理方法、画像処理装置
JP2009104249A (ja) * 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
JP2013069332A (ja) * 2012-12-14 2013-04-18 Canon Inc 情報処理装置及び情報処理方法
WO2014021326A1 (ja) * 2012-07-30 2014-02-06 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
JP2014085879A (ja) * 2012-10-24 2014-05-12 Toppan Printing Co Ltd 画像処理装置及び画像処理プログラム
JP2018060212A (ja) * 2013-11-27 2018-04-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想現実および拡張現実のシステムおよび方法
JP2019045928A (ja) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
WO2019065303A1 (ja) * 2017-09-29 2019-04-04 本田技研工業株式会社 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050130108A1 (en) * 2003-12-12 2005-06-16 Kurzweil Raymond C. Virtual encounters
US9971398B2 (en) * 2003-12-12 2018-05-15 Beyond Imagination Inc. Virtual encounters
US9841809B2 (en) * 2003-12-12 2017-12-12 Kurzweil Technologies, Inc. Virtual encounters
US9948885B2 (en) 2003-12-12 2018-04-17 Kurzweil Technologies, Inc. Virtual encounters
JP5109098B2 (ja) * 2007-06-14 2012-12-26 本田技研工業株式会社 運動制御システム、運動制御方法および運動制御プログラム
US8094090B2 (en) * 2007-10-19 2012-01-10 Southwest Research Institute Real-time self-visualization system
US9538167B2 (en) * 2009-03-06 2017-01-03 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
JP5418061B2 (ja) * 2009-08-20 2014-02-19 沖電気工業株式会社 遠隔コミュニケーション装置、遠隔コミュニケーション方法、および遠隔コミュニケーションシステム
US11195213B2 (en) * 2010-09-01 2021-12-07 Apixio, Inc. Method of optimizing patient-related outcomes
US8655881B2 (en) 2010-09-16 2014-02-18 Alcatel Lucent Method and apparatus for automatically tagging content
US8533192B2 (en) 2010-09-16 2013-09-10 Alcatel Lucent Content capture device and methods for automatically tagging content
US8666978B2 (en) 2010-09-16 2014-03-04 Alcatel Lucent Method and apparatus for managing content tagging and tagged content
US20120067954A1 (en) * 2010-09-16 2012-03-22 Madhav Moganti Sensors, scanners, and methods for automatically tagging content
US9155964B2 (en) 2011-09-14 2015-10-13 Steelseries Aps Apparatus for adapting virtual gaming with real world information
US9792715B2 (en) 2012-05-17 2017-10-17 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for utilizing synthetic animatronics
US10321107B2 (en) 2013-11-11 2019-06-11 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for improved illumination of spatial augmented reality objects
US11269480B2 (en) 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
US10223821B2 (en) 2017-04-25 2019-03-05 Beyond Imagination Inc. Multi-user and multi-surrogate virtual encounters
US11054638B2 (en) 2018-06-13 2021-07-06 Reavire, Inc. Tracking pointing direction of device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208073A (ja) * 1997-01-16 1998-08-07 Hitachi Ltd 仮想現実作成装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5767648A (en) 1996-04-19 1998-06-16 Massachusetts Institute Of Technology Base force/torque sensor apparatus for the precise control of manipulators with joint friction and a method of use thereof
JPH11195132A (ja) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> テクスチャマッピング用バッファ、3次元グラフィクス処理装置、3次元グラフィクス処理システム、3次元グラフィクス処理方法および処理プログラムが記憶された記憶媒体
JP2002157606A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像表示制御装置、複合現実感提示システム、画像表示制御方法、及び処理プログラムを提供する媒体
JP4775989B2 (ja) * 2001-08-23 2011-09-21 株式会社バンダイナムコゲームス 画像生成システム、プログラム及び情報記憶媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10208073A (ja) * 1997-01-16 1998-08-07 Hitachi Ltd 仮想現実作成装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KUMIKO HOSAKA, KATSUO GUKUZAWA: "TBS drama 'Akimahende!' Opening.Title CG seisaku", DESIGN PLEX, no. 22, February 1999 (1999-02-01), pages 34 - 37, XP002967659 *
See also references of EP1469424A4 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
US8350897B2 (en) 2005-04-21 2013-01-08 Canon Kabushiki Kaisha Image processing method and image processing apparatus
JP2006302034A (ja) * 2005-04-21 2006-11-02 Canon Inc 画像処理方法、画像処理装置
US9013483B2 (en) 2007-10-19 2015-04-21 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009104249A (ja) * 2007-10-19 2009-05-14 Canon Inc 画像処理装置、画像処理方法
US9449394B2 (en) 2012-07-30 2016-09-20 National University Corporation Yokohama National University Image synthesis device, image synthesis system, image synthesis method and program
WO2014021326A1 (ja) * 2012-07-30 2014-02-06 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
JP2014085879A (ja) * 2012-10-24 2014-05-12 Toppan Printing Co Ltd 画像処理装置及び画像処理プログラム
JP2013069332A (ja) * 2012-12-14 2013-04-18 Canon Inc 情報処理装置及び情報処理方法
JP2018060212A (ja) * 2013-11-27 2018-04-12 マジック リープ, インコーポレイテッドMagic Leap,Inc. 仮想現実および拡張現実のシステムおよび方法
JP2019045928A (ja) * 2017-08-30 2019-03-22 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
JP7012953B2 (ja) 2017-08-30 2022-01-31 株式会社国際電気通信基礎技術研究所 感覚刺激提示システム、プログラムおよび方法
WO2019065303A1 (ja) * 2017-09-29 2019-04-04 本田技研工業株式会社 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置
JPWO2019065303A1 (ja) * 2017-09-29 2020-11-05 本田技研工業株式会社 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置
JP7023971B2 (ja) 2017-09-29 2022-02-22 本田技研工業株式会社 サービス提供システム、サービス提供方法およびサービス提供システム用管理装置

Also Published As

Publication number Publication date
US7259771B2 (en) 2007-08-21
JP4083684B2 (ja) 2008-04-30
EP1469424A4 (en) 2005-06-01
US20070008339A1 (en) 2007-01-11
JPWO2003063086A1 (ja) 2005-05-26
US20050093887A1 (en) 2005-05-05
US7095422B2 (en) 2006-08-22
EP1469424A1 (en) 2004-10-20

Similar Documents

Publication Publication Date Title
JP4083684B2 (ja) 画像処理システムおよび画像処理装置
US11157070B2 (en) Massive simultaneous remote digital presence world
CN114766038A (zh) 共享空间中的个体视图
CN109840947A (zh) 增强现实场景的实现方法、装置、设备及存储介质
US11544888B2 (en) Photoreal character configurations for spatial computing
JP7073481B2 (ja) 画像表示システム
JP2018526716A (ja) 媒介現実
JP2023501079A (ja) 共有人工現実環境における同じ場所での姿勢推定
US20220405996A1 (en) Program, information processing apparatus, and information processing method
JP7111848B2 (ja) プログラム、情報処理装置、および方法
WO2021153413A1 (ja) 情報処理装置、情報処理システム及び情報処理方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2003562874

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2003731816

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10502468

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003731816

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2003731816

Country of ref document: EP