JP2004062756A - 情報提示装置および情報処理方法 - Google Patents

情報提示装置および情報処理方法 Download PDF

Info

Publication number
JP2004062756A
JP2004062756A JP2002223279A JP2002223279A JP2004062756A JP 2004062756 A JP2004062756 A JP 2004062756A JP 2002223279 A JP2002223279 A JP 2002223279A JP 2002223279 A JP2002223279 A JP 2002223279A JP 2004062756 A JP2004062756 A JP 2004062756A
Authority
JP
Japan
Prior art keywords
user
information
virtual
annotation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002223279A
Other languages
English (en)
Other versions
JP4065507B2 (ja
Inventor
Toshihiro Kobayashi
小林 俊広
Masakazu Fujiki
藤木 真和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002223279A priority Critical patent/JP4065507B2/ja
Priority to US10/626,590 priority patent/US7053916B2/en
Publication of JP2004062756A publication Critical patent/JP2004062756A/ja
Priority to US11/210,784 priority patent/US20050280661A1/en
Application granted granted Critical
Publication of JP4065507B2 publication Critical patent/JP4065507B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Abstract

【課題】現実世界および仮想世界を合成した映像においてアノテーションを合成することにより、所定の情報を利用者に提供する。
【解決手段】操作入力部と、利用者の視点の位置姿勢を計測する検出部と、仮想世界モデルデータ、現実世界モデルデータ、仮想世界映像を生成するために必要なデータを蓄積するモデルデータ蓄積部と、現実世界および仮想世界に付加して表示するために必要なデータを蓄積するアノテーションデータ蓄積部と、前記ユーザ視点位置姿勢検出部、前記仮想世界データ蓄積部、前記アノテーションデータ蓄積部の情報を使用して仮想世界の映像を生成する仮想映像生成部と、利用者の視点から見た現実世界の映像を撮像するユーザ視点映像入力部と、前記仮想映像生成部、前記ユーザ視点映像入力部で得られた映像を合成した映像、あるいは前記ユーザ視点映像入力部で得られた映像を利用者の映像表示装置に表示する映像表示部とを具備する。
【選択図】   図1

Description

【0001】
【発明の属する技術分野】
本発明は、現実世界および仮想世界を合成した映像を提示するものに関する。
【0002】
【従来の技術】
現実世界と仮想世界とを違和感なく自然に結合する複合現実感(MR: Mixed Reality)の技術を応用した装置が盛んに提案されている。中でもヘッドマウントディスプレイ(HMD: Head Mounted Display)を装着したユーザが観測している現実世界や仮想世界に対して、仮想の情報を重畳してユーザに提示するような装置では、工事やメンテナンスなどの作業性を向上させることが期待できる。例えば、ユーザが装着したHMD上に、現実世界の映像に重畳して仮想の旗を表示することで、測量作業を支援する方法が提案されている。しかし、そのような装置の多くは、単一のユーザのみが使用することを前提としており、複数人が一つの複合現実空間(MR空間)を共有するような、会議や講演、協調を必要とする作業などには、必ずしも適したものであるとは言えなかった。
【0003】
【発明が解決しようとする課題】
複数人が一つのMR空間を共有するかたちで会議や講演を行ったり、協調を必要とする作業などを行う際には、複数人で同一の対象を観測し、その対象物に関する情報を共有することが必要である。
【0004】
本発明は、現実世界および仮想世界を合成した映像においてアノテーションを合成することにより、所定の情報を利用者に提供できるようにすることを目的とする。
【0005】
例えば、あるユーザが他のユーザに注目させたい対象を伝える手段、ユーザが注目すべき対象の場所やその方向を知る手段、あるいは、あるユーザが現在注目している対象が他のユーザから観測されているか否かを知る手段を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記目的を達成するために本発明は以下の構成を有する。
【0007】
本願請求項1の発明は、利用者の操作を入力するユーザ操作入力部と、利用者の視点の位置姿勢を計測するユーザ視点位置姿勢検出部と、仮想世界モデルデータ、現実世界モデルデータ、仮想世界映像を生成するために必要なデータを蓄積するモデルデータ蓄積部と、
現実世界および仮想世界に付加して表示するために必要なデータを蓄積するアノテーションデータ蓄積部と、前記ユーザ視点位置姿勢検出部、前記仮想世界データ蓄積部、前記アノテーションデータ蓄積部の情報を使用して仮想世界の映像を生成する仮想映像生成部と、
利用者の視点から見た現実世界の映像を撮像するユーザ視点映像入力部と、前記仮想映像生成部、前記ユーザ視点映像入力部で得られた映像を合成した映像、あるいは前記ユーザ視点映像入力部で得られた映像を利用者の映像表示装置に表示する映像表示部とを具備することを特徴とする。
【0008】
本願請求項23の発明は、利用者の視点情報を入力し、予め保持されている仮想世界データを用いて、前記視点情報に応じて仮想世界映像を生成し、注目対象に関するアノテーションを生成し、現実画像の映像、前記生成された仮想世界映像および前記生成されたアノテーションが合成された映像を生成することを特徴とする。
【0009】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態について説明する。
【0010】
図1には、本実施形態の情報提示装置、および情報提示方法が適用される一実施の形態の全体構成を示す。
【0011】
ユーザ操作入力部101は、例えば押しボタンスイッチ、マウス、ジョイスティックなどの入力装置からなり、情報提示装置100の使用者であるユーザが操作することによって、操作内容に応じた制御情報を仮想映像生成部105へ送る。
【0012】
ユーザ視点位置姿勢計測部102は、例えば磁気センサや光学式センサなどの位置姿勢計測装置からなり、ユーザの視点の位置姿勢を6自由度で計測し、仮想映像生成部105へ送る。位置姿勢計測装置をユーザの視点に設置することは一般的に困難であるため、ユーザ視点位置姿勢計測部102は、位置姿勢計測装置の出力結果をもとに、ユーザの視点の位置姿勢を算出する機能を持つ。例えば、位置姿勢計測装置をユーザの頭部に固定することによって、位置姿勢計測装置の出力とユーザの視点での位置姿勢との関係は、常に一定に保たれ、定式で表現される。この定式をあらかじめ求めておくことにより、位置姿勢計測装置の出力からユーザ視点での位置姿勢を算出する。また,ユーザ視点映像入力部106によって現実世界の映像を取り込み、位置姿勢計測装置の出力結果の誤差を補正するための画像処理を行ってもよい。この画像処理は、例えば、現実空間上で三次元座標が既知である複数の特徴点について、画像上での位置を検出し、位置姿勢計測装置の出力結果から計算される特徴点の画像上の位置との比較を行うことで、位置姿勢計測装置の誤差を算出し、その誤差を打ち消すように位置姿勢計測装置の出力結果を補正する処理である。また,この画像処理のみからユーザの視点の位置姿勢を算出してもよい。
【0013】
モデルデータ蓄積部103は、例えばハードディスクやCD−ROM等の補助記憶装置または媒体からなり、仮想世界をコンピュータグラフィックス(CG:Computer Graphics)で描画するために必要な仮想世界モデルデータと、現実世界と仮想世界とを正しく合成するために必要な現実世界モデルデータと、仮想世界映像を生成するために必要なデータを保持し、蓄積する。仮想世界モデルデータには、仮想世界上に配置される仮想のCG物体のポリゴンを構成する頂点の三次元座標、面の構成情報、CG物体の識別情報、色情報、テクスチャ情報、CG物体の大きさ、CG物体が仮想世界中に配置される位置姿勢情報等が含まれる。現実世界モデルデータには、仮想世界と融合する現実世界に存在する物体のポリゴンを構成する頂点の三次元座標、面の構成情報、識別情報、物体の大きさや配置される位置姿勢情報等が含まれる。仮想世界映像を生成するために必要なデータには、ユーザ視点映像取得部106が備える撮像装置の撮像素子の大きさや角度、レンズの画角や歪み係数等の内部パラメータ等が含まれる。撮像装置モデルデータ蓄積部103に蓄積されている情報は仮想映像生成部105に送られる。モデルデータ蓄積部103は情報提示装置100の内部に備えられるのに限定されず、情報提示装置100の外部に備え、伝送路200を通じて仮想映像生成部105にデータを伝送する構成でもよい。
【0014】
アノテーションデータ蓄積部104は、例えばハードディスクやCD−ROM等の補助記憶装置または媒体からなり、現実世界や仮想世界に表示する付加情報であるアノテーションデータを保持し、蓄積する。アノテーションデータには現実世界および仮想世界の物体が配置されている位置や姿勢の情報、物体の識別情報、物体の情報をユーザに示すためのテキストや記号、画像等のデータが含まれる。アノテーションデータ蓄積部104は情報提示装置100の内部に備えられるのに限定されず、情報提示装置100の外部に備え、伝送路200を通じて仮想映像生成部105にデータを伝送する構成でもよい。
【0015】
仮想映像生成部105は、コンピュータのCPUやMPU等で実現され、ユーザ視点位置姿勢獲得部102から得られるユーザの視点の位置姿勢情報に基づき、仮想世界でのユーザの視点を設定し、その視点からモデルデータ蓄積部103が保持するモデルデータをCGで描画して、ユーザ視点から見た仮想世界の映像を生成する。さらに、仮想映像生成部105は伝送路200にデータを送信する機能および伝送路200からデータを受信する機能を持ち、伝送路200を通じて、他の情報提示装置100の仮想映像生成部105と相互に接続し、必要な情報の交換を行う。複数のユーザがそれぞれ情報提示装置100を利用することにより、複数人が同一のMR空間を共有することが可能である。図2は複数のユーザが情報提示装置100を利用する場合の構成を示した図である。仮想映像生成部105は、ユーザ視点位置姿勢計測部102から得られたユーザの視点の位置姿勢や、伝送路200から得た他のユーザの視点の位置姿勢をもとに、アノテーションデータ蓄積部104で保持されているアノテーションデータに基づいて、ユーザに提示するべきアノテーションを生成し、仮想世界の画像上に重畳して表示する。生成されるアノテーションは二次元のものに限られない。三次元形状を有するアノテーションを生成し、モデルデータ蓄積部103が保持している仮想世界モデルと共にCGとして描画してもよい。また、仮想映像生成部105はユーザ操作入力部101から送られるユーザの操作情報に従って仮想世界を操作したり、生成されるアノテーションを制御する機能を持つ。
【0016】
ユーザ視点映像入力部106は、CCDカメラなどの1つまたは2つの撮像装置を持ち、画像取り込み装置を介してユーザの目に映る現実世界の映像を獲得し、映像表示部107へ送られる。映像表示部107に光学シースルー型のHMDを備える場合においては、ユーザは現実世界を直接観測することが可能であり、ユーザ視点映像入力部106は不要となる。
【0017】
映像表示部107は、HMDやディスプレイなどの映像表示装置を備え、ユーザ視点映像獲得部106によって獲得されたユーザが見る現実世界の映像と、仮想映像生成部105によって生成された仮想世界の映像とを合成して、その合成映像をユーザの目の前に表示する。画像表示装置に光学シースルー型のHMDを用いる場合においては、仮想映像生成部105によって生成された仮想世界の映像をユーザの目の前に表示する。
【0018】
伝送路200は、有線または無線のコンピュータネットワークを実現する媒体からなり、複数の情報提示装置100を接続し、情報提示装置100が相互に交換するデータが流される。
【0019】
以上の様な構成を備えた本実施形態の制御について、以下説明する。図3は本実施形態の情報提示装置における処理の手順を説明するフローチャートである。
【0020】
ステップS000において情報提示装置が起動され、初期化のために必要な処理が行われる。
【0021】
ステップS100では、ユーザがユーザ操作入力部101に対して行った操作が認識され、操作内容に応じた制御信号に変換された上で仮想画像描画部105へと送られる。
【0022】
ステップS200では、ユーザの視点での位置姿勢情報がユーザ視点位置姿勢計測部102において計測され、仮想画像描画部105へと送られる。
【0023】
ステップS300では、ユーザ視点映像入力部106において、ユーザの視点から見える現実世界の映像が取り込まれ、画像描画部107に送られる。画像描画部107の画像表示装置に光学シースルー型のHMDを備える場合には、ステップS200の処理は不要となる。
【0024】
ステップS400では、仮想映像生成部105において、伝送路200から通信データを受信する。この通信データには、例えば情報提示装置100を使用している各ユーザの識別番号、各ユーザを識別できる名前、各ユーザ視点の位置姿勢情報、各ユーザの操作情報、アノテーションデータなどが含まれる。
【0025】
ステップS500では、仮想映像生成部105において、ステップS100において得られたユーザの操作情報、ステップS200において獲得されたユーザ視点の位置姿勢情報、ステップS400において得られた他のユーザに関する情報をもとに、ユーザに提示するアノテーションを決定する。
【0026】
ステップS500において、ユーザが注目している現実世界あるいは仮想世界の対象物を他のユーザに伝え、その対象物を注目させるようにすると、複数のユーザがMR空間内で情報を共有し、会議や講演、協調を必要とする作業などを行う上で非常に有用である。以下にその手段を示す。
【0027】
まず、アノテーションデータ蓄積部104に蓄積されている現実世界および仮想世界の物体の情報から、現在ユーザが注目している対象物に関するデータを検索し、選択する。ユーザが注目している対象物を、情報提示装置100が自動的に認識して選択してもよいし、またはユーザが入力装置101を操作して選択してもよい。
【0028】
ユーザが注目している対象を自動で認識する方法として、ステップS200で取得されたユーザ視点の位置姿勢情報と、モデルデータ蓄積部103が保持している撮像装置の内部パラメータを用いることが考えられる。
【0029】
ステップS500において、撮像装置の内部パラメータと、ユーザの視点の位置姿勢情報をもとに、アノテーションデータ蓄積部104からユーザの視界の内側に存在する対象物の候補すべてを取り出す。これらの候補について、ユーザの視線と対象物を代表する点とのユークリッド距離を算出し、ユークリッド距離を最小とするような候補を注目対象と見なすことができる。
【0030】
ある対象がユーザの視界の内側にあるかどうかの判定には、例えば、ユーザ視点位置姿勢計測部102から得られたユーザの視点の位置姿勢情報と、ユーザ視点映像取得部106が備える撮像装置の内部パラメータから算出する方法が考えられる。ユーザの視点の位置姿勢から、撮像装置の内部パラメータを用いて、対象を画像面上に射影する。画像面上に射影した対象の座標が、画像の大きさで規定されるある範囲内に存在すれば、ユーザの視界の内側にあることがわかる。
【0031】
撮像装置の内部パラメータから作られる行列を
【外1】
Figure 2004062756
とする。ここでα,αは撮像装置の画素の大きさ、θは撮像素子の縦軸と横軸のなす角、u,vは画像中心の座標を表している。ユーザの視点の位置姿勢から作られる行列を
P=(Rt)
とする。Rはユーザの視点の姿勢を表す3行3列の回転行列、tはユーザの視点の位置を表す3次元のベクトルを表している。対象の3次元座標を同次座標による表現を用いてx=(X,Y,Z,1)、対象の画像面上に射影された点の座標を同次座標による表現を用いてu=(u,v,w)とする。
【0032】
u=KP−1
を計算することによってuを得ることができる。画像のu軸方向の範囲を[umin,umax]、v軸方向の範囲を[vmin,vmax]とすると、uに関して、
【0033】
【外2】
Figure 2004062756
【0034】
【外3】
Figure 2004062756
【0035】
を満たせば、対象がユーザの視界の内側にあることがわかる。
【0036】
ユーザの視点の位置姿勢から作られる直線と対象物を代表する点との距離を算出するためには、対象物を代表する点を通りユーザの視線と交わるベクトルを求め、そのベクトルの長さの最小値を計算する方法が考えられる。
【0037】
ユーザの視線を
v=t+kp
と表現する。tはユーザの視点の位置を表す3次元ベクトル、pはユーザの視点での姿勢を表す3次元ベクトル、kは0でない実数である。
【0038】
また、対象物を代表する点を3次元ベクトルで表現し、これをbとする。bを通り、視線と直交するベクトルが視線と交わる点をt+mpとすると、t+mpとbとの距離を最小にするようなmを求めればよく、このときの
【外4】
Figure 2004062756
【0039】
が視線と対象物を代表する点との距離となる。
【0040】
これを計算すると
【外5】
Figure 2004062756
となる。
【0041】
ユーザが注目している対象物を、ユーザ操作入力部101が備える入力装置を操作することによって選択する方法として、マウスやジョイスティックなどの入力装置を用い、注目ユーザが映像表示部107で表示される合成映像を見ながら入力装置を操作する方法が考えられる。例えばマウスを操作して、カーソルを注目対象物が表示されている箇所に動かし、ボタンを押すことによって、所望の対象物を選択する。ユーザが操作したカーソルが、アノテーションデータ蓄積部104に保持されている物体が表示されている箇所に達したときには、その物体に関するアノテーションを生成することによって、ユーザはその物体のデータがアノテーションデータ蓄積部104に保持されているかどうかを確認することが可能である。
【0042】
ユーザが注目している対象物について、対象物の識別番号は、ステップS600において伝送路200に伝送される。このとき同時に、ユーザの識別番号、位置姿勢情報についても送信される。また、ステップS400において、伝送路200から他のユーザが注目している対象物の識別番号と他のユーザの識別番号および位置姿勢情報が受信される。
【0043】
あるユーザ(被注目ユーザと呼ぶ)が利用している情報提示装置100の仮想映像生成部105において、他のユーザ(注目ユーザと呼ぶ)が注目している対象物が、被注目ユーザの視界の外側にある場合には、その対象物の方向を示すアノテーションを生成する。このアノテーションには、記号、文字列、画像などが含まれる。どの注目ユーザが注目している対象物なのかを容易に理解できるように、色、形状、字体などの属性を注目ユーザごとに変えたアノテーションや、注目ユーザを識別できる名前を示すアノテーションを生成するようにしてもよい。被注目ユーザはアノテーションで示される方向を向くことにより、注目ユーザが観測している対象物を見ることができるようになる。
【0044】
注目ユーザが注目している対象物が被注目ユーザの視界の内側にある場合には、その対象物の情報を示すアノテーションを生成する。この際、他のアノテーションと色、形状、字体などの属性を変えることにより、目立ちやすくなる。
【0045】
また、被注目ユーザがユーザ操作入力部101が備える入力装置を利用することで、生成するアノテーションの対象を制御することも可能である。例えば、ある特定の注目ユーザを選択し、その注目ユーザが注目している対象物に関するアノテーションだけを生成するようにしてもよいし、すべての注目ユーザが注目している対象物に関するアノテーションを生成するようにしてもよい。この選択は、被注目ユーザが入力装置を用いて行うのみに限られず、ステップS000の前に、あらかじめ入力しておくようにしてもよい。
【0046】
図4では、注目ユーザであるユーザ1がある建物を観測しており、その建物が被注目ユーザであるユーザ2の視界の外側にある場合において、ユーザ2に提示する画面には、その建物の方向を示す矢印と、ユーザ1の名前を示すアノテーションを生成して表示する様子を示している。
【0047】
図5では、注目ユーザであるユーザ1がある建物を注目しており、その建物が被注目ユーザであるユーザ2の視界の内側にある場合において、ユーザ2に提示する画面には、建物の名前を示す黒字に白のテキストのアノテーションを生成し、他のアノテーション(黒地に白のテキスト)と異なる属性を持たせることによって、対象を目立ちやすくしている様子を示している。
【0048】
注目ユーザが利用している情報提示装置100において、注目対象物に関する情報のアノテーションを生成する際に、他のアノテーションとは色、形状、字体などの属性を変えることにより、目立ちやすくする。また、注目している対象物を被注目ユーザが観測しているか否かを示す情報のアノテーションを生成して、注目ユーザに提示する。
【0049】
図6では、注目ユーザであるユーザ1がある建物を注目しており、ユーザ1に提示する画面には、建物の名前を示す黒地に白のテキストのアノテーションを生成し、他のアノテーションと異なる属性を持たせることによって、対象を目立ちやすくしている様子を示している。また、被注目ユーザが建物を観測しているか否かを示す情報のアノテーションを生成して表示している様子を示している。
【0050】
また、各ユーザの情報提示装置100において、現実世界においてユーザの視界の内側に他のユーザが存在する場合には、そのユーザを識別できる名前を示すアノテーションを生成する。存在しない場合には各ユーザが存在する方向を示す矢印と、そのユーザを識別できる名前を示すアノテーションを生成する。
【0051】
図7はユーザ1の視界の内側に存在するユーザ4についてはその位置を示すアノテーションを生成し、視界の外側に存在するユーザ2とユーザ3については、存在する方向を示す矢印およびユーザを識別できる名前を示すアノテーションを生成して、ユーザ1の画面に表示している様子を示している。
【0052】
ステップS600では、仮想映像生成部105において、伝送路200へ通信データを送信する。この通信データには、例えば情報提示装置100を使用している各ユーザの識別番号、各ユーザを識別できる名前、各ユーザ視点の位置姿勢情報、各ユーザの操作情報、アノテーションデータなどが含まれる。
【0053】
ステップS700では、モデルデータ蓄積部103に蓄積されているモデルデータを、ステップS200において獲得されたユーザ視点の位置姿勢情報に基づいてユーザの視点を設定し、その視点から見える仮想世界を描画する。さらにステップS600において決定されたアノテーションを、仮想世界の映像上に重畳して描画する。
【0054】
ステップS700において、まず、ステップS200において得られたユーザの視点位置からの現実世界の映像を背景として描画し、その上から仮想世界およびアノテーションを描画しても構わない。このとき、ステップS800では、描画結果の映像を映像表示装置に出力するだけの処理を行う。
【0055】
ステップS800では、ステップS200によって得られたユーザの視点位置からの現実世界の映像と、ステップS700において生成された仮想世界の映像とを合成した映像を描画し、画像表示装置に出力する。映像表示部107が備える映像表示装置に光学シースルー型のHMDを備えている場合には、仮想世界の映像を描画し、映像表示装置に出力する。
【0056】
ステップS900では、情報提示装置100はステップS100に戻る、もしくは終了する。
【0057】
本実施形態によれば、あるユーザが他のユーザに注目させたい対象を伝えること、ユーザが注目すべき対象の場所やその方向を知ること、あるユーザが現在注目している対象が、他のユーザから観測されているか否かを知ることが可能となり、複数人が一つの複合現実空間を共有するかたちで会議や講演を行ったり、協調を必要とする作業などを行うことが容易になる。
【0058】
(他の実施形態)
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0059】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0060】
【発明の効果】
本発明によれば、現実世界および仮想世界を合成した映像においてアノテーションを合成することにより、所定の情報を利用者に提供することができる。
【図面の簡単な説明】
【図1】実施形態による情報提示装置の概略構成を示すブロック図である。
【図2】実施形態において、複数の情報提示装置が伝送路を介して相互接続される場合の構成を示すブロック図である。
【図3】情報提示装置における処理の手順を説明するフローチャートである。
【図4】実施形態における、注目ユーザの注目している対象が被注目ユーザの視界の外にある場合において、被注目ユーザに対象の位置を知らしめる手段を説明する図である。
【図5】実施形態における、注目ユーザの注目している対象が被注目ユーザの視界の内にある場合において、被注目ユーザに対象とそれに関する情報を知らしめる手段を説明する図である。
【図6】実施形態における、注目ユーザの注目している対象が各被注目ユーザの視界の内にあるかどうかを注目ユーザに示す手段を説明する図である。
【図7】実施形態における、他のユーザが存在する場所をユーザに示す手段を説明する図である。

Claims (28)

  1. 利用者の操作を入力するユーザ操作入力部と、
    利用者の視点の位置姿勢を計測するユーザ視点位置姿勢検出部と、
    仮想世界モデルデータ、現実世界モデルデータ、仮想世界映像を生成するために必要なデータを蓄積するモデルデータ蓄積部と、
    現実世界および仮想世界に付加して表示するために必要なデータを蓄積するアノテーションデータ蓄積部と、
    前記ユーザ視点位置姿勢検出部、前記仮想世界データ蓄積部、前記アノテーションデータ蓄積部の情報を使用して仮想世界の映像を生成する仮想映像生成部と、
    利用者の視点から見た現実世界の映像を撮像するユーザ視点映像入力部と、
    前記仮想映像生成部、前記ユーザ視点映像入力部で得られた映像を合成した映像、あるいは前記ユーザ視点映像入力部で得られた映像を利用者の映像表示装置に表示する映像表示部とを具備することを特徴とする情報提示装置。
  2. 前記情報提示装置は複数台備えられ、前記情報提示装置は、他の前記情報提示装置と伝送路を通じて接続され、通信データの交換を行うことを特徴とする、請求項1に記載の情報提示装置。
  3. 前記通信データは、前記情報提示装置を利用している各利用者の識別番号、各利用者を識別する名前、各利用者の視点の位置姿勢情報、各利用者の操作情報、アノテーションデータを含むことを特徴とする、請求項2に記載の情報提示装置。
  4. 前記モデルデータ蓄積部は、仮想世界モデルデータ、現実世界モデルデータ、仮想世界映像をするために必要なデータを蓄積できることを特徴とする、請求項1に記載の情報提示装置。
  5. 前記仮想世界モデルデータには、仮想世界上に配置される仮想のCG物体のポリゴンを構成する頂点の三次元座標、面の構成情報、CG物体の識別情報、色情報、テクスチャ情報、CG物体の大きさ、CG物体が仮想世界中に配置される位置姿勢情報が含まれることを特徴とする、請求項4に記載の情報提示装置。
  6. 前記現実世界モデルデータには、仮想世界と融合する現実世界に存在する物体のポリゴンを構成する頂点の三次元座標、面の構成情報、識別情報、物体の大きさや配置される位置姿勢情報が含まれることを特徴とする、請求項4に記載の情報提示装置。
  7. 前記仮想世界映像を生成するために必要なデータには、前記視点映像取得部が備える撮像装置の撮像素子の大きさや角度、レンズの画角や歪み係数等の内部パラメータが含まれることを特徴とする、請求項4に記載の情報提示装置。
  8. 前記アノテーションデータ蓄積部は、現実世界や仮想世界に表示する付加情報であるアノテーションデータを蓄積できることを特徴とする、請求項1に記載の情報提示装置。
  9. 前記アノテーションデータには、現実世界および仮想世界の物体が配置されている位置姿勢の情報、物体の識別情報、物体の情報を利用者に示すためのテキスト・記号・画像情報が含まれることを特徴とする、請求項8に記載の情報提示装置。
  10. 前記仮想映像生成部は、前記ユーザ視点位置姿勢獲得部から得られる利用者の視点の位置姿勢情報を用いて、当該視点から前記モデルデータ蓄積部が保持する情報をコンピュータグラフィックスで描画することによって、利用者視点から見た仮想世界の映像を生成することを特徴とする、請求項1に記載の情報提示装置。
  11. 前記仮想映像生成部は、伝送路にデータを送信する機能および伝送路からデータを受信する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  12. 前記仮想映像生成部は、前記ユーザ視点位置姿勢計測部から得られた利用者の視点の位置姿勢や、伝送路から得た他の利用者の視点の位置姿勢をもとに、前記アノテーションデータ蓄積部が保持しているアノテーションデータの中から利用者に提示するべき情報を選択してアノテーションを生成し、当該アノテーションを仮想世界の映像に重畳する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  13. 前記アノテーションには、記号、文字列、画像情報が含まれることを特徴とする、請求項12に記載の情報提示装置。
  14. 前記仮想映像生成部は、利用者が注目している対象を自動的に認識する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  15. 前記仮想映像生成部は、前記ユーザ操作入力部に入力された利用者の操作によって、当該利用者が注目している対象を認識する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  16. 前記仮想映像生成部は、他の一名以上の利用者が注目している対象物が、利用者の視界の外側にある場合に、当該対象物の方向を示すアノテーションを生成する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  17. 前記仮想映像生成部は、他の一名以上の利用者が注目している対象物が、利用者の視界の内側にある場合に、当該対象物の情報を示すアノテーションを生成する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  18. 前記仮想映像生成部は、色、形状、字体の属性を利用者ごとに変えたアノテーションおよび利用者を識別する名前を示すアノテーションを生成する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  19. 前記仮想映像生成部は、前記ユーザ操作入力部に入力された利用者の操作によって、生成するアノテーションを制御できる機能を有することを特徴とする、請求項10に記載の情報提示装置。
  20. 前記仮想映像生成部は、利用者が注目している対象物の情報を示すアノテーションを、他のアノテーションと色、形状、字体の属性を変えて生成する機能を有することを特徴とする請求項10に記載の情報提示装置。
  21. 前記仮想映像生成部は、利用者の視界の外側に存在する、他の利用者の方向を示すアノテーションを生成する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  22. 前記仮想映像生成部は、利用者の視界の内側に存在する、他の利用者の位置を示すアノテーションを生成する機能を有することを特徴とする、請求項10に記載の情報提示装置。
  23. 利用者の視点情報を入力し、
    予め保持されている仮想世界データを用いて、前記視点情報に応じて仮想世界映像を生成し、
    注目対象に関するアノテーションを生成し、
    現実画像の映像、前記生成された仮想世界映像および前記生成されたアノテーションが合成された映像を生成することを特徴とする情報処理方法。
  24. 前記注目対象が前記合成された映像外に存在する場合は、該注目対象が存在する方向を示すアノテーションが生成され合成されることを特徴とする請求項23記載の情報処理方法。
  25. 前記注目対象が前記合成された映像内に存在する場合は、該注目対象に対する付加情報を示し、他のアノテーションとは属性が異なるアノテーションが生成され合成されることを特徴とする請求項23記載の情報処理方法。
  26. 前記注目対象を他の利用者が観測しているかどうかを示すアノテーションが生成され合成されることを特徴とする請求項23記載の情報処理方法。
  27. 他の利用者の位置を示すアノテーションが生成され合成されることを特徴とする請求項23記載の情報処理方法。
  28. 請求項23乃至27のいずれかに記載の情報処理方法を実現するためのプログラム。
JP2002223279A 2002-07-31 2002-07-31 情報提示装置および情報処理方法 Expired - Fee Related JP4065507B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002223279A JP4065507B2 (ja) 2002-07-31 2002-07-31 情報提示装置および情報処理方法
US10/626,590 US7053916B2 (en) 2002-07-31 2003-07-25 Information presentation apparatus and information processing method thereof
US11/210,784 US20050280661A1 (en) 2002-07-31 2005-08-25 Information presentation apparatus and information processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002223279A JP4065507B2 (ja) 2002-07-31 2002-07-31 情報提示装置および情報処理方法

Publications (2)

Publication Number Publication Date
JP2004062756A true JP2004062756A (ja) 2004-02-26
JP4065507B2 JP4065507B2 (ja) 2008-03-26

Family

ID=31943075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002223279A Expired - Fee Related JP4065507B2 (ja) 2002-07-31 2002-07-31 情報提示装置および情報処理方法

Country Status (2)

Country Link
US (2) US7053916B2 (ja)
JP (1) JP4065507B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460953B2 (en) 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7941269B2 (en) 2005-05-06 2011-05-10 Rialcardo Tice B.V. Llc Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
JP2014109802A (ja) * 2012-11-30 2014-06-12 Casio Comput Co Ltd 画像処理装置、画像処理方法およびプログラム
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
US8913136B2 (en) 2011-03-25 2014-12-16 Fuji Xerox Co., Ltd. Image display device, mobile terminal, non-transitory computer readable medium, and image display method
JP2015118558A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 物体追跡
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2017033299A (ja) * 2015-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2017208853A1 (ja) * 2016-06-02 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018061850A (ja) * 2017-12-20 2018-04-19 ソニー株式会社 内視鏡システム、表示制御システムおよび表示制御装置
US9979809B2 (en) 2012-08-07 2018-05-22 Microsoft Technology Licensing, Llc Object tracking
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
US10281293B2 (en) 2004-06-30 2019-05-07 Here Global B.V. Method of operating a navigation system using images
CN111324770A (zh) * 2019-12-19 2020-06-23 深圳市智微智能软件开发有限公司 Smt信息展示方法及系统
US10874284B2 (en) 2014-02-21 2020-12-29 Sony Corporation Display control device, display device, surgical endoscopic system and display control system
JP2021051519A (ja) * 2019-09-24 2021-04-01 サン・シールド株式会社 作業支援システム

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224078B2 (en) 2000-11-06 2012-07-17 Nant Holdings Ip, Llc Image capture and identification system and process
US7565008B2 (en) 2000-11-06 2009-07-21 Evryx Technologies, Inc. Data capture and identification system and process
US9310892B2 (en) 2000-11-06 2016-04-12 Nant Holdings Ip, Llc Object information derived from object images
US7680324B2 (en) 2000-11-06 2010-03-16 Evryx Technologies, Inc. Use of image-derived information as search criteria for internet and other search engines
US7899243B2 (en) 2000-11-06 2011-03-01 Evryx Technologies, Inc. Image capture and identification system and process
JP2004265193A (ja) * 2003-03-03 2004-09-24 Canon Inc 情報処理方法、情報処理装置、サーバ装置の制御方法、サーバ装置
JP4307222B2 (ja) * 2003-11-17 2009-08-05 キヤノン株式会社 複合現実感提示方法、複合現実感提示装置
JP4393169B2 (ja) 2003-12-04 2010-01-06 キヤノン株式会社 複合現実感提示方法および装置
JP2008506188A (ja) * 2004-07-09 2008-02-28 ジェスチャーラド インコーポレイテッド ジェスチャ・ベース報告方法およびシステム
US8335694B2 (en) * 2004-07-09 2012-12-18 Bruce Reiner Gesture-based communication and reporting system
JP2006039872A (ja) * 2004-07-26 2006-02-09 Canon Inc 情報処理方法及び情報処理装置
US7834876B2 (en) * 2004-12-28 2010-11-16 The Mathworks, Inc. Providing graphic generating capabilities for a model based development process
JP4594136B2 (ja) * 2005-03-09 2010-12-08 キヤノン株式会社 画像処理方法、画像処理装置
JP4739002B2 (ja) * 2005-06-30 2011-08-03 キヤノン株式会社 画像処理方法、画像処理装置
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US20070011617A1 (en) * 2005-07-06 2007-01-11 Mitsunori Akagawa Three-dimensional graphical user interface
US8026929B2 (en) 2006-06-26 2011-09-27 University Of Southern California Seamlessly overlaying 2D images in 3D model
US8135018B1 (en) 2007-03-29 2012-03-13 Qurio Holdings, Inc. Message propagation in a distributed virtual world
US8117137B2 (en) 2007-04-19 2012-02-14 Microsoft Corporation Field-programmable gate array based accelerator system
US8000328B1 (en) 2007-05-22 2011-08-16 Qurio Holdings, Inc. Filtering messages in a distributed virtual world based on virtual space properties
US8487957B1 (en) * 2007-05-29 2013-07-16 Google Inc. Displaying and navigating within photo placemarks in a geographic information system, and applications thereof
US20080310707A1 (en) * 2007-06-15 2008-12-18 Microsoft Corporation Virtual reality enhancement using real world data
US8375397B1 (en) 2007-11-06 2013-02-12 Google Inc. Snapshot view of multi-dimensional virtual environment
US8595299B1 (en) 2007-11-07 2013-11-26 Google Inc. Portals between multi-dimensional virtual environments
US8732591B1 (en) 2007-11-08 2014-05-20 Google Inc. Annotations of objects in multi-dimensional virtual environments
US8102334B2 (en) 2007-11-15 2012-01-24 International Businesss Machines Corporation Augmenting reality for a user
US8264505B2 (en) 2007-12-28 2012-09-11 Microsoft Corporation Augmented reality and filtering
US20090245691A1 (en) * 2008-03-31 2009-10-01 University Of Southern California Estimating pose of photographic images in 3d earth model using human assistance
US9058090B1 (en) * 2008-06-02 2015-06-16 Qurio Holdings, Inc. Collaborative information sharing in a virtual world
US8026913B2 (en) * 2008-07-29 2011-09-27 International Business Machines Corporation Image capture and buffering in a virtual world
US8301638B2 (en) 2008-09-25 2012-10-30 Microsoft Corporation Automated feature selection based on rankboost for ranking
US8131659B2 (en) 2008-09-25 2012-03-06 Microsoft Corporation Field-programmable gate array based accelerator system
US8379056B2 (en) * 2009-02-27 2013-02-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for providing a video signal of a virtual image
JP5343676B2 (ja) * 2009-04-08 2013-11-13 ソニー株式会社 画像処理装置、画像処理方法およびコンピュータプログラム
US8363051B2 (en) * 2009-05-07 2013-01-29 International Business Machines Corporation Non-real-time enhanced image snapshot in a virtual world system
JP5247590B2 (ja) * 2009-05-21 2013-07-24 キヤノン株式会社 情報処理装置及びキャリブレーション処理方法
JP5548482B2 (ja) * 2010-02-26 2014-07-16 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラム及び記憶媒体
EP2548179A4 (en) * 2010-03-17 2013-10-16 Sony Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
US8952983B2 (en) 2010-11-04 2015-02-10 Nokia Corporation Method and apparatus for annotating point of interest information
JPWO2012081194A1 (ja) * 2010-12-17 2014-05-22 パナソニック株式会社 医療支援装置、医療支援方法および医療支援システム
JP5799521B2 (ja) * 2011-02-15 2015-10-28 ソニー株式会社 情報処理装置、オーサリング方法及びプログラム
US8644673B2 (en) 2011-03-22 2014-02-04 Fmr Llc Augmented reality system for re-casting a seminar with private calculations
US10114451B2 (en) 2011-03-22 2018-10-30 Fmr Llc Augmented reality in a virtual tour through a financial portfolio
US9424579B2 (en) 2011-03-22 2016-08-23 Fmr Llc System for group supervision
US9275254B2 (en) 2011-03-22 2016-03-01 Fmr Llc Augmented reality system for public and private seminars
US9047688B2 (en) 2011-10-21 2015-06-02 Here Global B.V. Depth cursor and depth measurement in images
US9116011B2 (en) 2011-10-21 2015-08-25 Here Global B.V. Three dimensional routing
US8553942B2 (en) 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US9024970B2 (en) 2011-12-30 2015-05-05 Here Global B.V. Path side image on map overlay
US9404764B2 (en) 2011-12-30 2016-08-02 Here Global B.V. Path side imagery
US8922481B1 (en) * 2012-03-16 2014-12-30 Google Inc. Content annotation
US9020278B2 (en) * 2012-06-08 2015-04-28 Samsung Electronics Co., Ltd. Conversion of camera settings to reference picture
US9349218B2 (en) * 2012-07-26 2016-05-24 Qualcomm Incorporated Method and apparatus for controlling augmented reality
US9852381B2 (en) * 2012-12-20 2017-12-26 Nokia Technologies Oy Method and apparatus for providing behavioral pattern generation for mixed reality objects
US20140285519A1 (en) * 2013-03-22 2014-09-25 Nokia Corporation Method and apparatus for providing local synchronization of information for augmented reality objects
US20160049011A1 (en) * 2013-04-04 2016-02-18 Sony Corporation Display control device, display control method, and program
WO2014162823A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
GB201312441D0 (en) 2013-07-11 2013-08-28 Surface Generation Ltd Mould Tool
JP6253368B2 (ja) 2013-11-25 2017-12-27 キヤノン株式会社 三次元形状計測装置およびその制御方法
US9677840B2 (en) 2014-03-14 2017-06-13 Lineweight Llc Augmented reality simulator
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム
US10019824B2 (en) * 2016-08-16 2018-07-10 Lawrence Livermore National Security, Llc Annotation of images based on a 3D model of objects
CN115315940A (zh) * 2020-03-31 2022-11-08 索尼集团公司 传感器装置、配备传感器的设备和传感器装置处理方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242027A (ja) * 1991-12-31 1993-09-21 Internatl Business Mach Corp <Ibm> 協働的コンピュータ・ベース・システムにおいてユーザを識別するための方法及びシステム
JPH11136576A (ja) * 1997-10-31 1999-05-21 Atr Chino Eizo Tsushin Kenkyusho:Kk 画像合成装置
JPH11272882A (ja) * 1998-03-19 1999-10-08 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2000184345A (ja) * 1998-12-14 2000-06-30 Nec Corp マルチモーダルコミュニケーション支援装置
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2002042172A (ja) * 2000-07-25 2002-02-08 Matsushita Electric Works Ltd 仮想物体の選択方法、この方法が適用される記録媒体およびサービス
JP2002117415A (ja) * 2000-10-06 2002-04-19 Kgt Inc 仮想共同作業環境発生装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69622900T2 (de) 1995-03-17 2003-04-10 Canon Kk Verfahren und Gerät zur dreidimensionalen Bildverarbeitung
US6057856A (en) * 1996-09-30 2000-05-02 Sony Corporation 3D virtual reality multi-user interaction with superimposed positional information display for each user
US6259396B1 (en) * 1999-08-26 2001-07-10 Raytheon Company Target acquisition system and radon transform based method for target azimuth aspect estimation
US6507802B1 (en) * 2000-02-16 2003-01-14 Hrl Laboratories, Llc Mobile user collaborator discovery method and apparatus
JP2002164066A (ja) * 2000-11-22 2002-06-07 Mitsubishi Heavy Ind Ltd 積層型熱交換器
JP3406965B2 (ja) 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
EP1349114A3 (en) * 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05242027A (ja) * 1991-12-31 1993-09-21 Internatl Business Mach Corp <Ibm> 協働的コンピュータ・ベース・システムにおいてユーザを識別するための方法及びシステム
JPH11136576A (ja) * 1997-10-31 1999-05-21 Atr Chino Eizo Tsushin Kenkyusho:Kk 画像合成装置
JPH11272882A (ja) * 1998-03-19 1999-10-08 Konami Co Ltd 画像作成装置、画像作成方法、画像作成プログラムが記録された可読記録媒体およびビデオゲーム装置
JP2000184345A (ja) * 1998-12-14 2000-06-30 Nec Corp マルチモーダルコミュニケーション支援装置
JP2001195601A (ja) * 2000-01-13 2001-07-19 Mixed Reality Systems Laboratory Inc 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
JP2002042172A (ja) * 2000-07-25 2002-02-08 Matsushita Electric Works Ltd 仮想物体の選択方法、この方法が適用される記録媒体およびサービス
JP2002117415A (ja) * 2000-10-06 2002-04-19 Kgt Inc 仮想共同作業環境発生装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
熊谷吉将ほか: "双方向相補型外国語学習のための仮想空間システムの構成", 情報処理学会第64回(平成14年)全国大会講演論文集(4), CSNJ200200018001, 12 March 2002 (2002-03-12), JP, pages 841 - 842, ISSN: 0000891604 *
蔵田武志ほか: "VizWear:コンピュータビジョンとウェアラブルディスプレイによる人間中心インタラクション", 映像情報メディア学会技術報告, vol. 25, no. 76, CSNG200400261004, 20 November 2001 (2001-11-20), JP, pages 47 - 52, ISSN: 0000891602 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7460953B2 (en) 2004-06-30 2008-12-02 Navteq North America, Llc Method of operating a navigation system using images
US7818124B2 (en) 2004-06-30 2010-10-19 Navteq North America, Llc Method of operating a navigation system using images
US10281293B2 (en) 2004-06-30 2019-05-07 Here Global B.V. Method of operating a navigation system using images
US8301372B2 (en) 2004-06-30 2012-10-30 Navteq North America Llc Method of operating a navigation system using images
US8359158B2 (en) 2004-06-30 2013-01-22 Navteq B.V. Method of operating a navigation system using images
US7941269B2 (en) 2005-05-06 2011-05-10 Rialcardo Tice B.V. Llc Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US8406992B2 (en) 2005-05-06 2013-03-26 Rialcardo Tice B.V. Llc Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
WO2012042974A1 (ja) * 2010-09-30 2012-04-05 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JP5337915B2 (ja) * 2010-09-30 2013-11-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
JPWO2012042974A1 (ja) * 2010-09-30 2014-02-06 富士フイルム株式会社 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム
US9196093B2 (en) 2010-09-30 2015-11-24 Fujifilm Corporation Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium
JP2012078224A (ja) * 2010-10-01 2012-04-19 Olympus Corp 画像生成システム、プログラム及び情報記憶媒体
US8913136B2 (en) 2011-03-25 2014-12-16 Fuji Xerox Co., Ltd. Image display device, mobile terminal, non-transitory computer readable medium, and image display method
US9979809B2 (en) 2012-08-07 2018-05-22 Microsoft Technology Licensing, Llc Object tracking
JP2014109802A (ja) * 2012-11-30 2014-06-12 Casio Comput Co Ltd 画像処理装置、画像処理方法およびプログラム
WO2014162825A1 (ja) * 2013-04-04 2014-10-09 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JPWO2014162825A1 (ja) * 2013-04-04 2017-02-16 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
JP2015118558A (ja) * 2013-12-18 2015-06-25 マイクロソフト コーポレーション 物体追跡
US10874284B2 (en) 2014-02-21 2020-12-29 Sony Corporation Display control device, display device, surgical endoscopic system and display control system
JP2017033575A (ja) * 2014-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2016035742A (ja) * 2014-07-31 2016-03-17 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2020102232A (ja) * 2014-07-31 2020-07-02 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに、情報処理装置、その制御方法、及びプログラム
JP2017033299A (ja) * 2015-07-31 2017-02-09 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2017068851A (ja) * 2015-09-30 2017-04-06 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム
WO2017208853A1 (ja) * 2016-06-02 2017-12-07 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018128817A (ja) * 2017-02-08 2018-08-16 株式会社コロプラ 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報制御装置
JP2018061850A (ja) * 2017-12-20 2018-04-19 ソニー株式会社 内視鏡システム、表示制御システムおよび表示制御装置
JP2021051519A (ja) * 2019-09-24 2021-04-01 サン・シールド株式会社 作業支援システム
CN111324770A (zh) * 2019-12-19 2020-06-23 深圳市智微智能软件开发有限公司 Smt信息展示方法及系统

Also Published As

Publication number Publication date
JP4065507B2 (ja) 2008-03-26
US20040145594A1 (en) 2004-07-29
US20050280661A1 (en) 2005-12-22
US7053916B2 (en) 2006-05-30

Similar Documents

Publication Publication Date Title
JP4065507B2 (ja) 情報提示装置および情報処理方法
EP1404126B1 (en) Video combining apparatus and method
JP4137078B2 (ja) 複合現実感情報生成装置および方法
JP4434890B2 (ja) 画像合成方法及び装置
JP4401727B2 (ja) 画像表示装置及び方法
US7589747B2 (en) Mixed reality space image generation method and mixed reality system
JP4926817B2 (ja) 指標配置情報計測装置および方法
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP5093053B2 (ja) 電子カメラ
JP4757115B2 (ja) 画像処理装置、画像処理方法
US20080204453A1 (en) Method and apparatus for generating three-dimensional model information
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2005174021A (ja) 情報提示方法及び装置
JP4367926B2 (ja) 画像合成システムおよび画像合成方法、および画像合成装置
CN112667179B (zh) 一种基于混合现实的远程同步协作系统
JP4242529B2 (ja) 関連情報呈示装置及び関連情報呈示方法
JP2018106298A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2006012042A (ja) 画像生成方法及び装置
CN108932055B (zh) 一种增强现实内容的方法和设备
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2009015648A (ja) 画像処理装置、画像処理方法
JP2015121892A (ja) 画像処理装置、画像処理方法
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP5647813B2 (ja) 映像提示システム、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080105

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140111

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees