JP4298407B2 - 映像合成装置及び映像合成方法 - Google Patents

映像合成装置及び映像合成方法 Download PDF

Info

Publication number
JP4298407B2
JP4298407B2 JP2003204813A JP2003204813A JP4298407B2 JP 4298407 B2 JP4298407 B2 JP 4298407B2 JP 2003204813 A JP2003204813 A JP 2003204813A JP 2003204813 A JP2003204813 A JP 2003204813A JP 4298407 B2 JP4298407 B2 JP 4298407B2
Authority
JP
Japan
Prior art keywords
image
removal
unit
area
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003204813A
Other languages
English (en)
Other versions
JP2004178554A (ja
JP2004178554A5 (ja
Inventor
利果 田中
要 冨手
登志一 大島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003204813A priority Critical patent/JP4298407B2/ja
Priority to DE60313412T priority patent/DE60313412T2/de
Priority to CNB031347479A priority patent/CN1324534C/zh
Priority to US10/671,611 priority patent/US7487468B2/en
Priority to EP03256119A priority patent/EP1404126B1/en
Publication of JP2004178554A publication Critical patent/JP2004178554A/ja
Publication of JP2004178554A5 publication Critical patent/JP2004178554A5/ja
Application granted granted Critical
Publication of JP4298407B2 publication Critical patent/JP4298407B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/4104Peripherals receiving signals from specially adapted client devices
    • H04N21/4122Peripherals receiving signals from specially adapted client devices additional display device, e.g. video projector
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/4143Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a Personal Computer [PC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42653Internal components of the client ; Characteristics thereof for processing graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42204User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor
    • H04N21/42206User interfaces specially adapted for controlling a client device through a remote control device; Remote control devices therefor characterized by hardware details
    • H04N21/42222Additional components integrated in the remote control device, e.g. timer, speaker, sensors for detecting position, direction or movement of the remote control, microphone or battery charging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、現実世界の映像にコンピュータにより生成された映像や情報(CG: Computer Graphics)を重畳する映像合成装置及び映像合成方法に関し、特に体験者が注目したい現実空間の領域上へのCG表示制御に関する。
【0002】
【従来の技術】
現実世界の映像にCGを重畳した映像を用いて、様々な行動を支援する技術は拡張現実感(AR: Augmented Reality)や複合現実感(MR: Mixed Reality)に関する技術として、活発に研究されている。例えば、患者の体内の様子を透視しているように医師に提示する医療補助の用途や、工場において製品の組み立て手順を実物に重ねて表示する作業補助の用途、また、現実風景に地名や名称などを案内表示する用途などがある。
【0003】
【非特許文献1】
G. Reitmayr and D. Schmalstieg. "Mobile Collaborative Augmented Reality" In Proc. IEEE Virtual Reality 2001, pages 114-123
【特許文献1】
特開2000−276610号公報
【0004】
【発明が解決しようとする課題】
ところで、CGが重畳表示されることにより、CGで隠されて見えなくなってしまう現実空間領域が出てくる。隠されてしまう領域が体験者の興味のない領域であれば問題はないが、従来はそのような考慮は何らなされていないため、たとえ体験者が注目したい現実空間領域であっても、予め設定された内容に従い、CGが重畳されてしまっていた。
【0005】
非特許文献1では、ARシステムにおけるCG表示位置に関する分類(Head-stabilized:ユーザの視点に応じて情報を固定、Body-stabilized:ユーザの身体の位置に応じて情報を固定、World-stabilized:現実世界の位置にあわせて情報をあわせる)から、特にモバイルARシステムにおける、適切なCG表示位置の考察がなされている。また、特許文献1ではエージェント表示などに関して、ユーザに不快感を与えることなく使いやすいエージェントキャラを表示するシステムが考案されている。しかし両者とも、CG表示場所についてはなんらかのヒューリスティックス(経験則)を利用しており、注目現実空間がCGに覆い隠されてしまった場合については考慮していない。
【0006】
また、特定の現実物体(例えば体験者の手など)を常に見えるように表示する技術(マスク処理技術)も、例えばクロマキー技術などを用いて実現されている。しかし、現実世界は刻々と変化しており、体験者は常に同じ現実物体に注目しているわけではない。
【0007】
このような状況から、体験者が観察したい現実空間領域がCGで隠された場合、体験者は(1)HMDを取り外したり、可能であれば、(2)CGと実写とを切り替えて表示したり、さらに可能であれば、(3)(邪魔なCGを構成している)仮想物体を選択して、他の場所へ移動することが一般的である。(2)では全てのCGを一斉に表示/非表示するため、一部のCGのみを選択的に表示することができず、また(3)では、仮想物体を「選択して移動する」というわずらわしい操作が必要である。
【0008】
本発明はこのような従来技術の問題点に鑑みなされたものであり、その目的は、体験者の観察する現実世界に、コンピュータにより生成された画像を重畳する映像合成装置において、簡便な設定により、体験者が注目したい現実空間領域にCG表示を行わないように制御可能な映像合成装置を実現することにある。
【0009】
【課題を解決するための手段】
すなわち、本発明の要旨は、体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成方法であって、画像入力手段が、撮像画像を入力する画像入力工程と、位置姿勢情報入力手段が、体験者の視点の位置・姿勢情報を入力する位置姿勢情報入力工程と、仮想画像生成手段が、位置・姿勢情報に基づいて仮想画像を生成する仮想画像生成工程と、除去領域抽出手段が、体験者の除去領域指定指示を、撮像画像から検出し、当検出した指示に基づき、仮想画像の除去領域の位置設定する除去領域抽出工程と、合成手段が、撮像画像の領域のうち、除去領域を除く領域に対して仮想画像を重畳し、合成画像を生成する合成工程とを有することを特徴とする映像合成方法に存する。
【0010】
また、本発明の別の要旨は、体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、撮像画像を入力する画像入力手段と、体験者の視点の位置・姿勢情報を入力する位置姿勢情報入力手段と、位置・姿勢情報に基づいて仮想画像を生成する仮想画像生成手段と、体験者の除去領域指定指示を、撮像画像から検出し、当検出した指示に基づき、仮想画像の除去領域の位置設定する除去領域抽出手段と、撮像画像の領域のうち、除去領域を除く領域に対して仮想画像を重畳し、合成画像を生成する合成手段とを有することを特徴とする映像合成装置に存する。
【0012】
また、本発明の別の要旨は、コンピュータを、体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、撮像画像を入力する画像入力手段と、体験者の視点の位置および姿勢情報の少なくとも一方を入力する位置姿勢情報入力手段と、位置および姿勢情報の少なくとも一方に基づいて仮想画像を生成する仮想画像生成手段と、体験者の除去領域指定指示を、撮像画像から検出し、当検出した指示に基づき、仮想画像の除去領域の位置設定する除去領域抽出手段と、撮像画像の領域のうち、除去領域を除く領域に対して仮想画像を重畳し、合成画像を生成する合成手段とを有することを特徴とする映像合成装置として機能させるためのプログラムに存する。
【0013】
また、本発明の別の要旨は、コンピュータを、体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、撮像画像を入力する画像入力手段と、体験者の視点の位置および姿勢情報の少なくとも一方を入力する位置姿勢情報入力手段と、位置および姿勢情報の少なくとも一方に基づいて仮想画像を生成する仮想画像生成手段と、体験者の除去領域指定指示を、撮像画像から検出し、当検出した指示に基づき、仮想画像の除去領域の位置設定する除去領域抽出手段と、撮像画像の領域のうち、除去領域を除く領域に対して仮想画像を重畳し、合成画像を生成する合成手段とを有することを特徴とする映像合成装置として機能させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体に存する。
【0014】
【発明の実施の形態】
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。
(第1の実施形態)
本発明の第1の実施形態に係る映像合成装置の一例は、体験者が表示装置を装着して風景を眺めると、それに対応した位置情報や名称が補助表示されるMRシステムである。
【0015】
本実施形態において、表示装置には、位置・姿勢計測可能なビデオシースルーHMDを用いる。つまり、HMDには位置・姿勢計測センサおよびカメラが内蔵されており、体験者の略視点位置からの映像が体験者頭部の位置・姿勢情報(厳密にはカメラの位置・姿勢)とともに取得可能である。
【0016】
また、本実施形態において、体験者がCGを重畳表示させたくない領域(CG除去領域)を指定することを可能とするために、マーカーとCG除去領域とを対応付けたユーザインタフェース(以下CG除去フレームと呼ぶ。)を用いる。体験者の視点位置からの映像から、CG除去フレームに付加されたマーカーを抽出することにより、CG除去領域が抽出できる。
【0017】
図2に、CG除去フレーム(マーカーとCG除去領域との対応付け)の例を示す(ここでは簡単のため、CG除去フレームはHMDに設けられたカメラ(撮像部)の撮像面と平行となるように用いるという拘束を加える)。小さい円がマーカーであり、斜線部がCG除去領域である。斜線部は切り抜かれていても、存在していても良い。CG除去フレームは体験者が手に持つ柄の部分21と、フレーム部分22とから構成され、体験者は図1(a)に示す様な重畳画像を観察している際、例えば「教会」という吹き出し上の重畳画像を除去したい場合には、このフレームを眼前にかざし、カメラで撮影された現実空間画像を見ながらフレームを所望の位置(CGを表示させたくない領域)に合わせる。
【0018】
後述するように、フレームに設けられたマーカーからフレームで指定される領域が求まり、当該領域にはCGを重畳しないようにすることで、図1(b)に示すように、重畳画像で隠されていた現実世界の画像を見ることができる。後述する第2の実施形態では表示装置が光学シースルータイプであるが、現実世界が表示装置を透かして直接観察されるか、撮影された画像であるかを除けば、同様である。
【0019】
図2(a)では、四角形のフレームの4角それぞれに3つのマーカーが1セットとして付加されている。どれか1セットのマーカーが抽出されれば、CG除去領域が算出できる。また、(b)ではマーカーが円型フレームを囲むように付加されている。3点が決まれば1つの円が決まることから、任意の3つのマーカーが抽出できれば、その内部をCG除去領域として算出できる。(c)は(b)のマーカーを3点に絞ったものである。CG除去フレームにマーカーがたくさん付加するのがわずらわしいときに有効である。(d)では、方向性のあるマーカーの先の領域(例えば円)をCG除去領域として定義している。CG描画部とCG除去領域との境目にマーカーを置きたくない場合に有効である。
【0020】
フレームの色は任意であるが、マーカーは検出を容易にするため一般に現実物体で使われないような蛍光色等が使われることを考慮すると、マーカーと対照的な色であることが好ましい。また、フレームの大きさ(CG除去領域の大きさ)は任意であるが、あまり大きいとCG除去領域が大きくなりすぎ、視野に含まれるCGの大半が表示されなくなってしまい、逆に小さすぎると位置の調整が難しくなるため、一般的な手の長さを考慮(カメラからフレームまでの距離によって撮影画像中に占めるフレームの割合が変化するため、変化しうる範囲を考慮)して、適切な大きさを設定する。
【0021】
図3は本発明の第1の実施形態に係る映像合成装置の一例としてのMRシステムの概略構成例を示すブロック図である。
撮像部1は、ここではHMDに内蔵されたカメラである。撮像部1は体験者の右目及び左目が観察する現実空間の映像をそれぞれ撮影し、撮影映像を映像信号として撮影映像取込部2に出力する。なお、本明細書においては説明を簡単にするため、特に左目用画像と右目用画像の処理を分けて説明しないが、HMDに表示するための左目用合成画像と右目用合成画像を生成するため、実際には左目、右目用の2系統の処理が行われることは言うまでもない。
【0022】
撮影映像取込部2は、撮像部1より入力された映像信号を映像合成部6およびCG除去領域抽出部3に適した形式に変換して、映像合成部6およびCG除去領域抽出部3に送出する。
【0023】
CG除去領域抽出部3では、撮影映像取込部2より入力された映像から、上述したCG除去フレームに付加されたマーカーを抽出し、CG除去領域を抽出する。映像上の除去領域をそのままCG除去領域とすればよい。そして除去領域抽出部3は、抽出したCG除去領域を映像合成部6に出力する。
【0024】
撮影位置・姿勢計測部4は、ここではHMDに内蔵されており、撮像部1の位置・姿勢情報をCG生成部5からの要求に応じて、又はCG生成部5からの要求なしにCG生成部5に送出する。撮影位置・姿勢計測部4は、例えば地磁気センサやジャイロ、光学式のセンサを利用することが考えられる。
【0025】
CG生成部5は、撮影位置・姿勢計測部4から撮像部1の位置・姿勢情報を取り出して撮像部1の位置・撮影方向を推定する。撮像部1の位置・撮影方向が推定できれば撮像部1のレンズパラメータから視野が求まるため、CG生成部5はデータ部7から撮像部1の視野に入る部分のデータを取り出し、撮像部1で撮影した映像に表示すべきCGを生成し、映像合成部6に出力する。
【0026】
映像合成部6は、撮影映像取込部2から撮影映像を、CG生成部5からCGを、CG除去領域抽出部3からCG除去領域をそれぞれ読み込む。そして、撮影映像取込部2からの撮影映像にCG生成部5からのCGを合成する。この際、CG除去領域抽出部3から得たCG除去領域に重なる部分にはCGを描画しない。これにより、CG除去領域のみのCGが除去された合成映像が生成される。
【0027】
CG除去フレームの形状(デザイン)を、虫眼鏡等とすれば、見かけと機能が一致し、ユーザインタフェースとしてより好ましい。また、CG除去領域にCGは描画しないのではなく、例えばCG除去フレームの種類に応じて、透明度の高いCGを描画(透明度を示すα成分値を操作)したり、CGを点滅させて描画したりといったことも可能である。映像合成部6で生成されたCGは表示部8(本実施形態においてはHMD)に送出する。
【0028】
データ部7は、たとえばハードディスクから構成され、CG生成部5に引き渡すデータを所持する。データ部7に格納されるデータとしては、たとえばテキスト情報やパノラマ映像、三次元CG(コンピュータグラフィックス)データ等といったものが考えられる。データ部7はCG生成部5からの要求に応じて適切なデータをCG生成部5に送出する。たとえばCG生成部5が撮像部1の視野に合成する三次元CGデータを要求してきた時に、データ部7は格納されている三次元CGデータの中から撮像部1の視野に含まれる三次元CGデータを取り出して送出する。なお、データ部7はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。
【0029】
表示部8は本実施形態においてはHMDである。映像合成部6から送出された合成映像信号を表示する。なお、本実施形態に係るMRシステムにおいても、従来知られるMRシステムのように、HMDは右目用画像表示部と左目用画像表示部とを有し、映像合成部6においては右目用の表示画像と左目用の表示画像を生成してHMDへ供給することにより、体験者は3次元CG表示を体験することが可能である。
【0030】
以上の様な構成を備えた、本発明の第1の実施形態に係る映像合成装置の一例としてのMRシステムの動作について、図4に示すフローチャートを用いて以下説明する。なお、データ部7には予め必要なデータが格納されているものとする。
【0031】
まず、ステップS1でシステムが起動される。
ステップS2で撮像部1から映像が取得され、取得された撮影映像は撮影映像取込部2で適切なフォーマットに変換され、映像合成部6およびCG除去領域抽出部3に送られる。
ステップS3で、CG除去領域抽出部3に読み込まれた撮影映像からマーカーが抽出され、CG除去領域が算出される。そして算出されたCG除去領域が映像合成部6に送られる。
【0032】
ステップS4では撮影位置・姿勢計測部4が撮像部1の位置・姿勢を計測し、計測された位置・姿勢情報はCG生成部5に送られる。
ステップS5ではCG生成部5が、撮影位置・姿勢計測部4から送出された位置・姿勢情報から撮像部1の視野を推定し、データ部7から撮像部1の視野に含まれる範囲のデータを取得する。
【0033】
ステップS6ではデータ部7から取得したデータを用いてCG生成部5がCGを生成する。生成した映像は映像合成部6に送られる。
ステップS7では、映像合成部6において撮影映像取込部2から送出された撮影映像と、CG生成部5から送出されたコンピュータ映像が合成される。この際、CG除去領域抽出部3からの送出されたCG除去領域の部分にはCGを合成しない。これにより、CG除去領域のCGが除去された合成映像が生成される。合成された合成映像は表示部8に送られる。
【0034】
ステップS8では映像合成部6から送出されてきた映像情報を表示部8が表示する。
その後ステップS9でシステムを終了するかどうかがチェックされ、システムを終了させる場合はステップS10でシステムを終了させ、終了させない場合にはステップS2に戻り、上述の処理を繰り返す。
【0035】
以上のように、第1の実施形態によれば、たとえば体験者がHMDを装着して風景を眺めると、それに対応した位置情報や名称が補助表示されるMRシステムにおいて、注目現実物体がCGで隠されてしまった場合においても、CG除去フレームを対応する位置にかざすだけで、注目現実物体が観察可能となる。
【0036】
(第2の実施形態)
本発明の第2の実施形態に係る映像合成装置の一例は、患者の体内の様子を透視しているように医師に提示する医療補助システムである。ここでは表示装置として、光学シースルーHMDを用いる。ビデオシースルーHMDでは現実世界の表示解像度に限界があるためである。
【0037】
また、CG除去領域を指定するUIとして、本実施形態においては位置・姿勢の入力装置、ここではスタイラスを用いる。図5は、スタイラスの例を示す図である。スタイラス51は例えばペン形状を有し、内部に位置・姿勢センサが設けられている。位置・姿勢センサが検出する位置とスタイラス先端との距離dとから、スタイラス先端位置が推定され、この先端位置と、検出されるスタイラスの傾きθから、スタイラスの先端で指定される領域が求められる。本実施形態においては、スタイラスの先端に接する仮想円52に対応する領域をCG除去指定領域とする。実際には、スタイラスの傾きθに応じてこの仮想円52から求まる楕円領域がCG除去領域とする。なお、スタイラスの傾き(姿勢情報)が得られない場合は、仮想円52をそのまま用いてよい。スタイラスの位置、姿勢情報及び図示しないON−OFFスイッチの情報は、スタイラスに接続された信号線や、発信機を通じて外部から取得することが可能である。
【0038】
本実施形態において、位置・姿勢入力装置をUIとして用いた理由は、
(1)光学シースルーHMDには、ビデオシースルーHMDとは異なり、一般にカメラが内蔵されていないため、(第1の実施形態に挙げた)画像処理によるCG除去領域指定の実現には、新たにカメラが必要となってしまう。
(2)手術補助システムでは、医師が患部周囲の状態や患部と手術器具との位置関係等を常に把握できるよう、これらの位置関係をリアルタイムにセンサ等で計測して医師に提示することが重要である。よって位置・姿勢計測がある程度正確に行える環境が提供されていると想定される。
(3)手術支援システムを利用して手術する場合、患部周辺はCGの補助を必要とするとしても、
−手元のごく近くまでCGを表示したい場合と、
−手元のごく近くはCGを表示したくない場合
が混在すると考えられるからである。
【0039】
このような場合を考慮して、スタイラスのON−OFFボタンをCG除去領域定義のON−OFFに割り当てることができる。
また、手術器具に位置・姿勢センサを設ければ、ただ単に「センサ付きの手術道具」と「センサなしの手術道具」とを持ち換えることで、簡単にCG表示方法の切り替えを行うことができる。
【0040】
図6は本発明の第2の実施形態に係るMRシステムの概略構成例を示すブロック図である。
頭部位置・姿勢計測部14は、後述する表示部18としてのHMDに内蔵されており、体験者頭部の位置・姿勢情報をCG除去領域抽出部13およびCG生成部15からの要求に応じて、又はCG除去領域抽出部13およびCG生成部15からの要求なしに、頭部位置・姿勢情報をCG除去領域抽出部13およびCG生成部15に送出する。頭部位置・姿勢計測部14は、例えば地磁気センサやジャイロや光学式のセンサを利用することが考えられる。
【0041】
スタイラス状態検出部19は、スタイラス情報(位置・姿勢・ボタンのオンオフなど)をスタイラス20から取得し、CG除去領域抽出部13からの要求に応じて、又はCG除去領域抽出部13からの要求なしにCG除去領域抽出部13に送出する。
【0042】
CG除去領域抽出部13では、頭部位置・姿勢計測部14より入力された位置・姿勢データおよびスタイラス状態検出部19より入力されたスタイラス情報から、CG除去領域を算出する。上述のように、本実施形態においては、頭部の位置・姿勢とスタイラスの位置・姿勢から、画像面上でのスタイラス先端位置および、画像面に対するスタイラスの姿勢が算出できる。そこで、スタイラスの先端から画像面上に広がる楕円(画像面に対するスタイラスの姿勢情報から楕円率を決定)領域をCG除去領域と定義する。CG除去領域抽出部13は、抽出したCG除去領域を映像合成部16に出力する。
【0043】
CG生成部15は、頭部位置・姿勢計測部14から頭部位置・姿勢情報を取り出して頭部位置・方向を推定する。位置・姿勢が推定できれば体験者の視野が求まるため、CG生成部15はデータ部17から体験者の視野に入る部分のデータを取り出し、体験者の視野に重なるCGを生成し、映像合成部16に出力する。
【0044】
映像合成部16は、CG生成部15からCGを、CG除去領域抽出部13からはCG除去領域をそれぞれ読み込む。そしてCG生成部15からのCGからCG除去領域抽出部13からのCG除去領域データに基づいて、CGを合成する。映像合成部16で生成されたCGは表示部18に送出する。
【0045】
データ部17は、たとえばハードディスクから構成され、CG生成部15に引き渡すデータを所持する。データ部17に格納されるデータとしては、たとえばテキスト情報やパノラマ映像、三次元CGデータ等といったものが考えられる。データ部17はCG生成部15からの要求に応じて適切なデータをCG生成部15に送出する。たとえばCG生成部15が体験者視野に合成する三次元CGデータを要求してきた時に、データ部17は格納されている三次元CGデータの中から体験者の視野に含まれる三次元CGデータを取り出して送出する。なお、データ部17はハードディスクに限らず、データを保持することができる媒体であれば何でもよく、たとえばテープやメモリなどで構成してもよい。
【0046】
表示部18はここでは光学シースルーHMDである。映像合成部16から送出された合成映像信号を、例えばハーフミラー上に投影することにより、ハーフミラーを透かして見える現実世界に重畳して表示する。
【0047】
以上の様な構成を備えた、本発明の第2の実施形態に係る映像合成装置の一例としてのMRシステムの動作について、図7に示すフローチャートを用いて以下説明する。なお、データ部17には予め必要なデータが格納されているものとする。
【0048】
まず、ステップS11でシステムが起動される。
ステップS12ではスタイラス状態検出部19がスタイラスの状態を検知し、検知された情報はCG除去領域抽出部13に送られる。
ステップS13では頭部位置・姿勢計測部14が体験者の位置・姿勢を計測し、計測された位置・姿勢情報はCG除去領域抽出部13およびCG生成部15に送られる。
【0049】
ステップS14では、スタイラス状態検出部19より入力されたスタイラス位置・姿勢情報および、頭部位置・姿勢計測部14から入力された頭部位置・姿勢情報に基づいて、CG除去領域抽出部13がCG除去領域を算出する。このCG除去領域は映像合成部16に送られる。
ステップS15ではCG生成部15が、頭部位置・姿勢計測部14から送出された頭部位置・姿勢情報から体験者の視野を推定し、データ部17から体験者の視野に含まれる範囲のデータを取得する。
【0050】
ステップS16ではデータ部17から取得したデータを用いてCG生成部15がCGを生成する。生成した映像は映像合成部16に送られる。
ステップS17では、映像合成部16においてCG生成部17から送出されたコンピュータ映像が、CG除去領域抽出部13からのCG除去領域データに基づいて合成される(CG除去領域抽出部13から送出されたCG除去領域の部分にはCGを描画しない)。合成された合成映像は表示部18に送られる。
【0051】
ステップS18では映像合成部16から送出されてきた映像情報を光学シースルーHMDである表示部18に表示することにより、体験者には現実空間に重畳されたCGが視認される。
その後ステップS19でシステムを終了するかどうかがチェックされ、システムを終了させる場合はシステムを終了させ、終了させない場合にはステップS12に戻り、上述の処理を繰り返す。
【0052】
以上のように、第2の実施形態によれば、たとえば手術支援システムを利用して手術する場合、手元のごく近くまでCGを表示したい場合や、手元のごく近くにはCGを表示したくない場合の切り替えが容易におこなえる。
【0053】
(第3の実施形態)
本発明の第1の実施形態に係る映像合成装置では、図2に示すようなフレームを用いてCG除去領域を指定していた。
本実施形態に係る映像合成装置は、第1の実施形態に係る映像合成装置において、フレームではなく、体験者の手を用いてCG除去領域を指定可能としたことを特徴とするものである。
【0054】
具体的には、本実施形態においては、図9に示すように体験者の手で囲まれた領域(斜線で示す領域)をCG除去領域として認識する。つまり体験者は両手又は片手でのぞき穴をつくることで、所望の領域をCG除去領域に指定できる。図9(a)は両手で、(b)は片手でCG除去領域を指定している例である。このように、手でCG除去領域を指定可能となることで、フレームを用意する必要がない上、体験者は自然な動作でCG除去領域を指定できる。
【0055】
体験者は図1(a)に示す様な重畳画像を観察している際、例えば「教会」という吹き出し上の重畳画像を除去したい場合には、手でのぞき穴を作って所望の位置(CGを表示させたくない領域)にかざす(図8参照)。
【0056】
本実施形態に係る映像合成装置は、体験者が目の前にかざした手がCGに隠れてしまわないで常に見えるように、体験者の視点位置からの映像から体験者の手領域を抽出し、その領域にはCGを描画しないマスク処理(体験者の目の前の物体がCGに隠れずに見えるようにする処理)を行う構成を有している。このようなマスク処理を行う構成は、例えば特願2002−95535で提案されているように、例えばクロマキー技術を利用して実現可能である。
【0057】
一般に、手のマスク処理の工程には、体験者の視点からの映像における、体験者の手の領域を抽出する工程が含まれているため、観測者の視点からの映像における手の内部領域を抽出することでは容易である。
【0058】
つまり本実施形態に係る映像合成装置は、手のマスク処理が可能なMRシステムに、観測者の視点からの映像における手の内部領域(図9の斜線領域)を抽出する処理を加えるだけで実現可能である。
【0059】
後述するように、体験者の視点位置からの映像から、体験者の手領域を抽出し、さらにその内部領域(のぞき穴領域)を抽出することで指定される領域が求まる。
【0060】
観測者の視点からの映像における体験者の手領域、および手の内部領域にCGを重畳しないことで、目前にかざした手までもがCGで隠れてしまうといった問題が解決され、さらに現実空間の所定領域をCGで隠すことなく見ることが可能となる。このことから、本実施形態では、手領域と手の内部領域とをCG除去領域として同様に扱うことで処理を簡略化する。
【0061】
もちろん、手領域をCG除去領域(手の内部領域)と区別して扱うことも可能である。この場合、肌色部分を手領域として抽出し、その内部領域をCG除去領域として検出することになるが、その際、手領域を抽出しやすくために体験者にはブルーの手袋を装着させ、ブルー領域を手領域として抽出し、手領域には肌色のCGを合成し、CG除去領域にはCGを表示しないといった処理を行っても良い。
【0062】
図10は本発明の第3の実施形態に係る映像合成装置の一例としてのMRシステムの概略構成例を示すブロック図である。図10において、図3と同じ構成要素には同じ参照数字を付して重複する説明を省略する。図3と図10とを比較すると明らかなように、本実施形態におけるMRシステムはCG除去領域抽出部3’がデータ部7に記憶されたデータ及び撮影位置・姿勢計測部4からの情報を利用可能となっている点である。
【0063】
すなわち、CG除去領域抽出部3’は、撮影映像取込部2より入力された映像、必要であればデータ部7からの手領域抽出に関するデータ(例えば上述の特定色を規定するデータ)、さらに必要であれば撮影位置・姿勢計測部4’からの撮像部1の位置・姿勢情報とから、手領域および手領域で囲まれた領域(手の内部領域)を抽出し、少なくとも手の内部領域をCG除去領域とする。そして、除去領域抽出部3は、抽出したCG除去領域を映像合成部6に出力する。
【0064】
撮影位置・姿勢計測部4’は、ここではHMDに内蔵されており、撮像部1の位置・姿勢情報をCG生成部5からの要求に応じて、又はCG生成部5からの要求なしにCG生成部5に送出する。また、撮影位置・姿勢計測部4’は、撮像部1の位置・姿勢情報をCG除去領域抽出部3からの要求に応じて、又はCG除去領域抽出部3’からの要求なしにCG除去領域抽出部3’に送出する。撮影位置・姿勢計測部4’は、例えば地磁気センサやジャイロ、光学式のセンサを利用することが考えられる。
【0065】
CG生成部5は、撮影位置・姿勢計測部4’から撮像部1の位置・姿勢情報を取り出して撮像部1の位置・撮影方向を推定する。撮像部1の位置・撮影方向が推定できれば撮像部1のレンズパラメータから視野が求まるため、CG生成部5はデータ部7から撮像部1の視野に入る部分のデータを取り出し、撮像部1で撮影した映像に表示すべきCGを生成し、映像合成部6に出力する。
【0066】
映像合成部6は、撮影映像取込部2から撮影映像を、CG生成部5からCGを、CG除去領域抽出部3’からCG除去領域をそれぞれ読み込む。そして、撮影映像取込部2からの撮影映像にCG生成部5からのCGを合成する。この際、CG除去領域抽出部3’から得たCG除去領域に重なる部分にはCGを描画しない。これにより、CG除去領域のみのCGが除去された合成映像が生成される。
【0067】
また、CG除去領域にCGを描画しないのではなく、例えば透明度の高いCGを描画(透明度を示すα成分値を操作)したり、CGを点滅させて描画したりといったことも可能である。映像合成部6で生成されたCGは表示部8(本実施形態においてはHMD)に送出する。
【0068】
7はデータ部であり、たとえばハードディスクから構成され、CG生成部5やCG除去領域抽出部3’に引き渡すデータを所持する。データ部7に格納されるデータとしては、たとえばテキスト情報やパノラマ映像、三次元CG(コンピュータグラフィックス)データ等といったもの,さらに手領域や手の内部領域といった特定領域を抽出するのに必要なデータ(特定色を規定するデータ等)などが考えられる。
【0069】
データ部7はCG生成部5からの要求に応じて適切なデータをCG生成部5に送出する。たとえばCG生成部5が撮像部1の視野に合成する三次元CGデータを要求してきた時に、データ部7は格納されている三次元CGデータの中から撮像部1の視野に含まれる三次元CGデータを取り出して送出する。
【0070】
さらにデータ部7はCG除去領域抽出部3’からの要求に応じて適切なデータをCG除去領域抽出部3’に送出する。
【0071】
8は表示部であり、本実施形態においてはHMDである。映像合成部6から送出された合成映像信号を表示する。なお、本実施形態に係るMRシステムにおいても、従来知られるMRシステムのように、HMDは右目用画像表示部と左目用画像表示部とを有し、映像合成部6においては右目用の表示画像と左目用の表示画像を生成してHMDへ供給することにより、体験者は3次元CG表示を体験することが可能である。
【0072】
以上の様な構成を備えた、本発明の第3の実施形態に係る映像合成装置の一例としてのMRシステムの全体の動作を、図11のフローチャートを用いて説明する。図11と第1の実施形態における動作を示す図4のフローチャートとの比較からわかるように、本実施形態に係る映像合成装置の動作は、撮影位置・姿勢情報取得ステップ及びCG除去領域抽出ステップの順序が逆転している点、またCG除去領域抽出処理の内容が異なる点を除いて同様である。なお、データ部7には予め必要なデータが格納されているものとする。
【0073】
まず、ステップS1でシステムが起動される。
ステップS2で撮像部1から映像が取得され、取得された撮影映像は撮影映像取込部2で適切なフォーマットに変換され、映像合成部6およびCG除去領域抽出部3に送られる。
【0074】
ステップS3’では撮影位置・姿勢計測部4が撮像部1の位置・姿勢を計測し、計測された位置・姿勢情報はCG生成部5および必要であればCG除去領域抽出部3に送られる。
ステップS4’で、CG除去領域抽出部3に読み込まれた撮影映像からCG除去領域が算出される。
【0075】
このステップS4’は、本実施形態の特徴的なステップであるため、フローチャートを用いてさらに詳細に説明する。
まず図12のフローチャートを用いて、手領域を抽出するのに、特定色を抽出するという画像処理を用いて行う場合の、ステップS4’の処理の一例を説明する。
【0076】
ステップS4a−1で、CG除去領域抽出部3’は、必要であれば手領域に関するデータをデータ部7から読み込む。手領域に関するデータとしては、手の肌色に関する情報などである。一般には、これら手領域に関するデータは一度読み込めば十分であると考えられるが、例えばリアルタイムに変化する光源の位置を計測し、それに応じた肌色データがその都度必要となる場合は、このステップが必要となる。
【0077】
ステップS4a−2で、CG除去領域抽出部3’に読み込まれた撮影映像から、手領域に関するデータを基に、手領域を抽出する。
ステップS4a−3で、映像上の手領域の内部領域を抽出する。
ステップS4a−4で、映像上の手領域および手領域の内部領域をそのまま、CG除去領域として抽出する。
【0078】
もちろん、上記方法以外の、手のマスク処理における手領域抽出方法を用いて、ステップS4を実装しても良い。
そして算出されたCG除去領域が映像合成部6に送られる。
【0079】
ステップS5ではCG生成部5が、撮影位置・姿勢計測部4から送出された位置・姿勢情報から撮像部1の視野を推定し、データ部7から撮像部1の視野に含まれる範囲のデータを取得する。
ステップS6ではデータ部7から取得したデータを用いてCG生成部5がCGを生成する。生成した映像は映像合成部6に送られる。
【0080】
ステップS7では、映像合成部6において撮影映像取込部2から送出された撮影映像と、CG生成部5から送出されたコンピュータ映像が合成される。この際、CG除去領域抽出部3からの送出されたCG除去領域の部分にはCGを合成しない。これにより、CG除去領域のCGが除去された合成映像が生成される。合成された合成映像は表示部8に送られる。
【0081】
ステップS8では映像合成部6から送出されてきた映像情報を表示部8が表示する。
その後ステップS9でシステムを終了するかどうかがチェックされ、システムを終了させる場合はステップS10でシステムを終了させ、終了させない場合にはステップS2に戻り、上述の処理を繰り返す。
【0082】
以上のように、第3の実施形態によれば、たとえば体験者がHMDを装着して風景を眺めると、それに対応した位置情報や名称が補助表示されるMRシステムにおいて、注目現実物体がCGで隠されてしまった場合においても、手でのぞき穴をつくり、対応する位置にかざすだけで、注目現実物体が観察可能となる。
【0083】
(第4の実施形態)
上述の第1の実施形態および第2の実施形態では、表示部としてHMDを用いたが、HMDではなく、例えば特開平10−051711号公報に開示されるような、表示装置および視点の位置に合わせて重畳画像を生成するヘッドアップディスプレイ(HUD)光学シースルーARシステムなどに応用することも可能である。
【0084】
(他の実施形態)
また、第2の実施形態は光学シースルーHMDを対象として説明したが、第1の実施形態で説明したようなビデオシースルーHMDを用いる実施形態に適用することも可能である。
【0085】
また、第3の実施形態では、マスク処理を利用してフレーム等の道具を用いずにCG除去領域を指定する例を示したが、図2に示したようなフレーム等を用いてCG除去領域を指定する場合であっても、マスク処理を利用することが可能である。その場合には、図2(a)、(b)に示す様な枠を有するフレームにおいて、枠をある特定色とし、部分CG除去領域を「ある特定色の内部領域」と定義することで、第3の実施形態と同様の処理によってCG除去処理が可能になる。
【0086】
この場合、フレームの枠にはマーカーを設けなくても良くなる。また、フレーム枠に用いる特定色は肌色に限定されることはなく、例えばブルーや赤など何でも良いが、背景色に含まれない色に設定することが望ましい。
【0087】
また、第3の実施形態においては、手領域を抽出するのに、マスク処理を利用した場合を説明したが、マスク処理以外の方法によって手領域を抽出しても良い。例えば、複数の位置センサを設けたグローブを体験者の手に装着させ、グローブのセンサ出力から手領域を抽出することが可能である。
【0088】
図13に示すフローチャートを用いて、この方法で手領域を抽出する場合のCG除去領域抽出ステップS4’の処理を説明する。
ステップS4b−1で、手の位置情報を計測する。
ステップS4b−2で、計測した手の位置情報および、体験者の視点位置情報から、体験者の視点位置からの映像上における手領域を算出する。
ステップS4b−3で、体験者の視点位置からの映像上における手領域の内部領域を抽出する。
ステップS4b−4で、体験者の視点位置からの映像上における手領域および手領域の内部領域から、CG除去領域を算出する。
以後はステップS5以降の処理を同様に行えばよい。
【0089】
なお、上述した実施形態のみならず、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0090】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0091】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0092】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0093】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0094】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0095】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0096】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0097】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0098】
【発明の効果】
本発明によれば、現実空間にCGを重畳するMRシステムに関し、見たい現実空間がCGで隠れている場合に、CGを表示したくない領域を簡単に指定して、その領域のCGを部分的に表示しない(消去する)ことで、注目現実空間を見ることができる。
【図面の簡単な説明】
【図1】フレームを用いてCG除去領域を指定する本発明の概念を説明する図である。
【図2】CG除去フレームの構成例を示す図である。
【図3】本発明の第1の実施形態に係る映像合成装置の概略構成例を示すブロック図である。
【図4】本発明の第1の実施形態に係る映像合成装置の動作を説明するフローチャートである。
【図5】本発明の第2の実施形態に係る映像合成装置で用いるスタイラスの例を示す図である。
【図6】本発明の第1の実施形態に係る映像合成装置の概略構成例を示すブロック図である。
【図7】本発明の第1の実施形態に係る映像合成装置の動作を説明するフローチャートである。
【図8】本発明の第3の実施形態に係る映像合成装置におけるCG除去領域の指定方法を模式的に説明する図である。
【図9】本発明の第3の実施形態に係る映像合成装置において、体験者が手を使ってCG除去領域を指定する方法の例を示す図である。
【図10】本発明の第3の実施形態に係る映像合成装置の概略構成例を示すブロック図である。
【図11】本発明の第3の実施形態に係る映像合成装置の動作を説明するフローチャートである。
【図12】本発明の第3の実施形態に係るCG除去領域抽出の動作を説明するフローチャートである。
【図13】本発明の第3の実施形態に係るCG除去領域抽出の動作を説明するフローチャートである。

Claims (7)

  1. 体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成方法であって、
    画像入力手段が、前記撮像画像を入力する画像入力工程と、
    位置姿勢情報入力手段が、前記体験者の視点の位置・姿勢情報を入力する位置姿勢情報入力工程と、
    仮想画像生成手段が、前記位置・姿勢情報に基づいて前記仮想画像を生成する仮想画像生成工程と、
    除去領域抽出手段が、前記体験者の除去領域指定指示を、前記撮像画像から検出し、当該検出した指示に基づき、前記仮想画像の除去領域の位置設定する除去領域抽出工程と、
    合成手段が、前記撮像画像の領域のうち、前記除去領域を除く領域に対して前記仮想画像を重畳し、前記合成画像を生成する合成工程とを有することを特徴とする映像合成方法。
  2. 体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、
    前記撮像画像を入力する画像入力手段と、
    前記体験者の視点の位置・姿勢情報を入力する位置姿勢情報入力手段と、
    前記位置・姿勢情報に基づいて前記仮想画像を生成する仮想画像生成手段と、
    前記体験者の除去領域指定指示を、前記撮像画像から検出し、当該検出した指示に基づき、前記仮想画像の除去領域の位置設定する除去領域抽出手段と、
    前記撮像画像の領域のうち、前記除去領域を除く領域に対して前記仮想画像を重畳し、前記合成画像を生成する合成手段とを有することを特徴とする映像合成装置。
  3. 前記除去領域抽出工程では、前記除去領域抽出手段が、前記撮像画像内から前記体験者が操作する領域指定手段に設けられたマーカーを検出し、当該検出されたマーカーの位置に基づいて前記除去領域を設定することを特徴とする請求項1に記載の映像合成方法。
  4. 前記除去領域抽出工程では、前記除去領域抽出手段が、前記体験者が操作する領域指定手段の位置姿勢情報に基づいて前記除去領域を設定することを特徴とする請求項1に記載の映像合成方法。
  5. 前記除去領域抽出工程では、前記除去領域抽出手段が、前記撮像画像から前記体験者の手で形成される閉領域を検出し、当該検出された閉領域に基づいて前記除去領域を設定することを特徴とする請求項1に記載の映像合成方法。
  6. コンピュータを、
    体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、
    前記撮像画像を入力する画像入力手段と、
    前記体験者の視点の位置および姿勢情報の少なくとも一方を入力する位置姿勢情報入力手段と、
    前記位置および姿勢情報の少なくとも一方に基づいて仮想画像を生成する仮想画像生成手段と、
    前記体験者の除去領域指定指示を、前記撮像画像から検出し、当該検出した指示に基づき、前記仮想画像の除去領域の位置設定する除去領域抽出手段と、
    前記撮像画像の領域のうち、前記除去領域を除く領域に対して前記仮想画像を重畳し、前記合成画像を生成する合成手段とを有することを特徴とする映像合成装置として機能させるためのプログラム。
  7. コンピュータを、
    体験者の観察する現実世界の撮像画像に仮想画像を重畳した合成画像を生成する映像合成装置であって、
    前記撮像画像を入力する画像入力手段と、
    前記体験者の視点の位置および姿勢情報の少なくとも一方を入力する位置姿勢情報入力手段と、
    前記位置および姿勢情報の少なくとも一方に基づいて仮想画像を生成する仮想画像生成手段と、
    前記体験者の除去領域指定指示を、前記撮像画像から検出し、当該検出した指示に基づき、前記仮想画像の除去領域の位置設定する除去領域抽出手段と、
    前記撮像画像の領域のうち、前記除去領域を除く領域に対して前記仮想画像を重畳し、前記合成画像を生成する合成手段とを有することを特徴とする映像合成装置として機能させるためのプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2003204813A 2002-09-30 2003-07-31 映像合成装置及び映像合成方法 Expired - Fee Related JP4298407B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2003204813A JP4298407B2 (ja) 2002-09-30 2003-07-31 映像合成装置及び映像合成方法
DE60313412T DE60313412T2 (de) 2002-09-30 2003-09-29 Video-Überlagerungsvorrichtung und -verfahren
CNB031347479A CN1324534C (zh) 2002-09-30 2003-09-29 视频图像合成设备及视频图像合成方法
US10/671,611 US7487468B2 (en) 2002-09-30 2003-09-29 Video combining apparatus and method
EP03256119A EP1404126B1 (en) 2002-09-30 2003-09-29 Video combining apparatus and method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002287054 2002-09-30
JP2003204813A JP4298407B2 (ja) 2002-09-30 2003-07-31 映像合成装置及び映像合成方法

Publications (3)

Publication Number Publication Date
JP2004178554A JP2004178554A (ja) 2004-06-24
JP2004178554A5 JP2004178554A5 (ja) 2006-08-17
JP4298407B2 true JP4298407B2 (ja) 2009-07-22

Family

ID=31980657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003204813A Expired - Fee Related JP4298407B2 (ja) 2002-09-30 2003-07-31 映像合成装置及び映像合成方法

Country Status (5)

Country Link
US (1) US7487468B2 (ja)
EP (1) EP1404126B1 (ja)
JP (1) JP4298407B2 (ja)
CN (1) CN1324534C (ja)
DE (1) DE60313412T2 (ja)

Families Citing this family (98)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
KR100611182B1 (ko) * 2004-02-27 2006-08-10 삼성전자주식회사 회전상태에 따라 메뉴표시상태를 변경하는 휴대형전자기기 및 그 방법
JP4367926B2 (ja) * 2004-05-17 2009-11-18 キヤノン株式会社 画像合成システムおよび画像合成方法、および画像合成装置
US9155373B2 (en) * 2004-08-02 2015-10-13 Invention Science Fund I, Llc Medical overlay mirror
US7657125B2 (en) * 2004-08-02 2010-02-02 Searete Llc Time-lapsing data methods and systems
US20060044399A1 (en) * 2004-09-01 2006-03-02 Eastman Kodak Company Control system for an image capture device
US20060050070A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Information processing apparatus and method for presenting image combined with virtual image
JP4500632B2 (ja) * 2004-09-07 2010-07-14 キヤノン株式会社 仮想現実感提示装置および情報処理方法
DE102004046430A1 (de) * 2004-09-24 2006-04-06 Siemens Ag System zur visuellen Situations-bedingten Echtzeit-basierten Unterstützung eines Chirurgen und Echtzeit-basierter Dokumentation und Archivierung der vom Chirurgen während der Operation visuell wahrgenommenen Unterstützungs-basierten Eindrücke
KR100663515B1 (ko) * 2004-11-08 2007-01-02 삼성전자주식회사 휴대 단말 장치 및 이를 위한 데이터 입력 방법
JP4137078B2 (ja) 2005-04-01 2008-08-20 キヤノン株式会社 複合現実感情報生成装置および方法
EP1720131B1 (en) * 2005-05-03 2009-04-08 Seac02 S.r.l. An augmented reality system with real marker object identification
US20070065143A1 (en) * 2005-09-16 2007-03-22 Richard Didow Chroma-key event photography messaging
US20070064125A1 (en) * 2005-09-16 2007-03-22 Richard Didow Chroma-key event photography
US8086971B2 (en) * 2006-06-28 2011-12-27 Nokia Corporation Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
JP4804256B2 (ja) * 2006-07-27 2011-11-02 キヤノン株式会社 情報処理方法
JP4789745B2 (ja) * 2006-08-11 2011-10-12 キヤノン株式会社 画像処理装置および方法
EP1887526A1 (en) * 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
JP2008278103A (ja) * 2007-04-27 2008-11-13 Nippon Hoso Kyokai <Nhk> 映像合成装置及び映像合成プログラム
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
US7724322B2 (en) * 2007-09-20 2010-05-25 Sharp Laboratories Of America, Inc. Virtual solar liquid crystal window
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
US8189035B2 (en) * 2008-03-28 2012-05-29 Sharp Laboratories Of America, Inc. Method and apparatus for rendering virtual see-through scenes on single or tiled displays
JP4725595B2 (ja) * 2008-04-24 2011-07-13 ソニー株式会社 映像処理装置、映像処理方法、プログラム及び記録媒体
EP2327003B1 (en) 2008-09-17 2017-03-29 Nokia Technologies Oy User interface for augmented reality
JP5328810B2 (ja) 2008-12-25 2013-10-30 パナソニック株式会社 情報表示装置および情報表示方法
JP5168161B2 (ja) * 2009-01-16 2013-03-21 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5136442B2 (ja) * 2009-01-27 2013-02-06 ブラザー工業株式会社 ヘッドマウントディスプレイ
JP5201015B2 (ja) * 2009-03-09 2013-06-05 ブラザー工業株式会社 ヘッドマウントディスプレイ
KR20110006022A (ko) * 2009-07-13 2011-01-20 삼성전자주식회사 가상 오브젝트 기반의 이미지 처리 방법 및 장치
KR100957575B1 (ko) * 2009-10-01 2010-05-11 (주)올라웍스 단말기의 움직임 또는 자세에 기초하여 비주얼 서치를 수행하기 위한 방법, 단말기 및 컴퓨터 판독 가능한 기록 매체
JP2011118842A (ja) * 2009-12-07 2011-06-16 Canon Inc 情報処理装置、表示制御方法及びプログラム
US20110202603A1 (en) * 2010-02-12 2011-08-18 Nokia Corporation Method and apparatus for providing object based media mixing
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
WO2011106797A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
JP5564300B2 (ja) * 2010-03-19 2014-07-30 富士フイルム株式会社 ヘッドマウント型拡張現実映像提示装置及びその仮想表示物操作方法
US9158777B2 (en) * 2010-03-30 2015-10-13 Gravity Jack, Inc. Augmented reality methods and apparatus
US20110310227A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Mobile device based content mapping for augmented reality environment
JP5211120B2 (ja) * 2010-07-30 2013-06-12 株式会社東芝 情報表示装置及び情報表示方法
KR101357262B1 (ko) * 2010-08-13 2014-01-29 주식회사 팬택 필터 정보를 이용한 객체 인식 장치 및 방법
KR101690955B1 (ko) * 2010-10-04 2016-12-29 삼성전자주식회사 증강 현실을 이용한 영상 데이터 생성 방법 및 재생 방법, 그리고 이를 이용한 촬영 장치
US8861797B2 (en) 2010-11-12 2014-10-14 At&T Intellectual Property I, L.P. Calibrating vision systems
JP5691632B2 (ja) * 2011-02-24 2015-04-01 株式会社大林組 画像合成方法
JP5776218B2 (ja) * 2011-02-24 2015-09-09 株式会社大林組 画像合成方法
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
US8558759B1 (en) * 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
JP5683402B2 (ja) * 2011-07-29 2015-03-11 三菱電機株式会社 画像合成装置及び画像合成方法
US9497501B2 (en) * 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US9230171B2 (en) 2012-01-06 2016-01-05 Google Inc. Object outlining to initiate a visual search
US9052804B1 (en) 2012-01-06 2015-06-09 Google Inc. Object occlusion to initiate a visual search
US20130201178A1 (en) * 2012-02-06 2013-08-08 Honeywell International Inc. System and method providing a viewable three dimensional display cursor
JP5970872B2 (ja) 2012-03-07 2016-08-17 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2013235080A (ja) * 2012-05-08 2013-11-21 Sony Corp 画像表示装置、画像表示プログラム及び画像表示方法
JP5687670B2 (ja) * 2012-08-31 2015-03-18 株式会社コナミデジタルエンタテインメント 表示制御システム、ゲームシステム、表示制御装置、及びプログラム
JP6007079B2 (ja) * 2012-11-22 2016-10-12 株式会社日立システムズ 仮想のぞき穴画像生成システム
US20140179369A1 (en) * 2012-12-20 2014-06-26 Nokia Corporation Apparatus and method for providing proximity-based zooming
TWI649675B (zh) * 2013-03-28 2019-02-01 新力股份有限公司 Display device
WO2014185920A1 (en) * 2013-05-16 2014-11-20 Empire Technology Development, Llc Three dimensional user interface in augmented reality
KR20150096948A (ko) * 2014-02-17 2015-08-26 엘지전자 주식회사 증강 현실 사진 촬영 가이드를 디스플레이 하는 헤드 마운티드 디스플레이 디바이스 및 그 제어 방법
KR20150110032A (ko) * 2014-03-24 2015-10-02 삼성전자주식회사 영상데이터 처리 전자장치 및 방법
CN106463000A (zh) 2014-06-13 2017-02-22 三菱电机株式会社 信息处理装置、信息重叠图像显示装置、标记显示程序和信息重叠图像显示程序
JP6335696B2 (ja) * 2014-07-11 2018-05-30 三菱電機株式会社 入力装置
US9696551B2 (en) * 2014-08-13 2017-07-04 Beijing Lenovo Software Ltd. Information processing method and electronic device
JP6186457B2 (ja) * 2016-01-19 2017-08-23 ヤフー株式会社 情報表示プログラム、情報表示装置、情報表示方法および配信装置
JP6217772B2 (ja) * 2016-02-12 2017-10-25 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
CN110402420B (zh) * 2017-03-23 2022-05-17 东芝三菱电机产业系统株式会社 钢铁厂的分析支援装置
US9892564B1 (en) * 2017-03-30 2018-02-13 Novarad Corporation Augmenting real-time views of a patient with three-dimensional data
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
TWI692968B (zh) * 2018-04-26 2020-05-01 財團法人工業技術研究院 三維建模裝置及應用於其之校準方法
JP6559870B1 (ja) * 2018-11-30 2019-08-14 株式会社ドワンゴ 動画合成装置、動画合成方法及び動画合成プログラム
US20200296316A1 (en) 2019-03-11 2020-09-17 Quibi Holdings, LLC Media content presentation
US20200296462A1 (en) 2019-03-11 2020-09-17 Wci One, Llc Media content presentation
US11194438B2 (en) * 2019-05-09 2021-12-07 Microsoft Technology Licensing, Llc Capture indicator for a virtual world
JP7330507B2 (ja) * 2019-12-13 2023-08-22 株式会社Agama-X 情報処理装置、プログラム、及び、方法
CN115315937A (zh) * 2020-03-30 2022-11-08 索尼集团公司 成像装置、控制成像装置的方法及程序
CN114885090A (zh) * 2021-04-27 2022-08-09 青岛海尔电冰箱有限公司 冰箱内图像获取方法、冰箱及计算机存储介质
CN114979487B (zh) * 2022-05-27 2024-06-18 联想(北京)有限公司 图像处理方法、装置及电子设备和存储介质

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2332547A1 (fr) * 1975-11-21 1977-06-17 Angenieux Pierre Variateur optique de grandissement d'image
EP0450196B1 (en) * 1990-04-02 1998-09-09 Koninklijke Philips Electronics N.V. Data processing system using gesture-based input data
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
JPH086708A (ja) * 1994-04-22 1996-01-12 Canon Inc 表示装置
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
KR100365555B1 (ko) * 1994-10-19 2003-08-27 마츠시타 덴끼 산교 가부시키가이샤 화상부호화/복호화장치
JPH08265619A (ja) 1995-03-27 1996-10-11 Canon Inc ビデオカメラおよびレンズシステムのズーム方法
US6034740A (en) * 1995-10-30 2000-03-07 Kabushiki Kaisha Photron Keying system and composite image producing method
US6317128B1 (en) 1996-04-18 2001-11-13 Silicon Graphics, Inc. Graphical user interface with anti-interference outlines for enhanced variably-transparent applications
US6181302B1 (en) * 1996-04-24 2001-01-30 C. Macgill Lynde Marine navigation binoculars with virtual display superimposing real world image
US5790104A (en) * 1996-06-25 1998-08-04 International Business Machines Corporation Multiple, moveable, customizable virtual pointing devices
US6002808A (en) 1996-07-26 1999-12-14 Mitsubishi Electric Information Technology Center America, Inc. Hand gesture control system
JP3558104B2 (ja) 1996-08-05 2004-08-25 ソニー株式会社 3次元仮想物体表示装置および方法
JPH10327433A (ja) * 1997-05-23 1998-12-08 Minolta Co Ltd 合成画像の表示装置
JP4251673B2 (ja) * 1997-06-24 2009-04-08 富士通株式会社 画像呈示装置
US6064354A (en) * 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP4453936B2 (ja) 1998-07-15 2010-04-21 信越石英株式会社 エキシマレーザー用光学部材の製造方法
US6266100B1 (en) * 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
JP4013100B2 (ja) 1998-09-21 2007-11-28 富士フイルム株式会社 電子カメラ
US7073129B1 (en) * 1998-12-18 2006-07-04 Tangis Corporation Automated selection of appropriate information based on a computer user's context
US6791580B1 (en) * 1998-12-18 2004-09-14 Tangis Corporation Supplying notifications related to supply and consumption of user context data
US6801223B1 (en) * 1998-12-18 2004-10-05 Tangis Corporation Managing interactions between computer users' context models
US7046263B1 (en) * 1998-12-18 2006-05-16 Tangis Corporation Requesting computer user's context data
US7107539B2 (en) * 1998-12-18 2006-09-12 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
US7225229B1 (en) * 1998-12-18 2007-05-29 Tangis Corporation Automated pushing of computer user's context data to clients
US7137069B2 (en) * 1998-12-18 2006-11-14 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7055101B2 (en) * 1998-12-18 2006-05-30 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
US7076737B2 (en) * 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP3368226B2 (ja) 1999-03-26 2003-01-20 キヤノン株式会社 情報処理方法及び情報処理装置
WO2002015110A1 (en) * 1999-12-07 2002-02-21 Fraunhofer Crcg, Inc. Virtual showcases
US6771294B1 (en) * 1999-12-29 2004-08-03 Petri Pulli User interface
EP1373967A2 (en) * 2000-06-06 2004-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. The extended virtual table: an optical extension for table-like projection systems
US20020044152A1 (en) * 2000-10-16 2002-04-18 Abbott Kenneth H. Dynamic integration of computer generated and real world images
US6690960B2 (en) * 2000-12-21 2004-02-10 David T. Chen Video-based surgical targeting system
JP3848092B2 (ja) 2001-03-13 2006-11-22 キヤノン株式会社 画像処理装置及び方法、並びにプログラム
JP2002362184A (ja) * 2001-06-11 2002-12-18 Honda Motor Co Ltd 車両用表示装置
US7206434B2 (en) * 2001-07-10 2007-04-17 Vistas Unlimited, Inc. Method and system for measurement of the duration an area is included in an image stream
JP3884942B2 (ja) 2001-10-31 2007-02-21 キヤノン株式会社 撮像装置、撮像装置と記録装置とを有するシステム及びその制御方法
JP3848130B2 (ja) 2001-10-31 2006-11-22 キヤノン株式会社 撮像装置、撮像装置と記録装置とを有するシステム及びその制御方法
JP3840091B2 (ja) 2001-10-31 2006-11-01 キヤノン株式会社 撮像装置、撮像装置と記録装置とを有するシステム及びその制御方法
US20040139156A1 (en) * 2001-12-21 2004-07-15 Matthews W. Donald Methods of providing direct technical support over networks
JP4298407B2 (ja) * 2002-09-30 2009-07-22 キヤノン株式会社 映像合成装置及び映像合成方法
US20040068758A1 (en) * 2002-10-02 2004-04-08 Mike Daily Dynamic video annotation
JP4134785B2 (ja) * 2003-03-28 2008-08-20 株式会社デンソー 表示装置

Also Published As

Publication number Publication date
EP1404126A2 (en) 2004-03-31
US7487468B2 (en) 2009-02-03
EP1404126B1 (en) 2007-04-25
US20040070611A1 (en) 2004-04-15
DE60313412T2 (de) 2008-01-17
JP2004178554A (ja) 2004-06-24
EP1404126A3 (en) 2004-12-15
CN1324534C (zh) 2007-07-04
CN1497504A (zh) 2004-05-19
DE60313412D1 (de) 2007-06-06

Similar Documents

Publication Publication Date Title
JP4298407B2 (ja) 映像合成装置及び映像合成方法
JP4933164B2 (ja) 情報処理装置、情報処理方法、プログラムおよび記憶媒体
JP4883774B2 (ja) 情報処理装置及びその制御方法、プログラム
JP4810295B2 (ja) 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体
US7774044B2 (en) System and method for augmented reality navigation in a medical intervention procedure
JP6336929B2 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP4739002B2 (ja) 画像処理方法、画像処理装置
US20040254454A1 (en) Guide system and a probe therefor
WO2016132817A1 (ja) 仮想オブジェクト表示装置、方法、プログラムおよびシステム
JP2005107971A (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4834424B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006285609A (ja) 画像処理方法、画像処理装置
US11094283B2 (en) Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system
JP2007034628A (ja) 画像処理方法及び装置
JP2006012042A (ja) 画像生成方法及び装置
JP2023526716A (ja) 外科手術ナビゲーションシステムおよびそのアプリケーション
JP2005339377A (ja) 画像処理方法、画像処理装置
JP2023065528A (ja) ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
JP4366165B2 (ja) 画像表示装置及び方法並びに記憶媒体
JP4217661B2 (ja) 画像処理方法、画像処理装置
US11771506B2 (en) Method and system for controlling dental machines
JP7163498B2 (ja) 表示制御装置、表示制御方法、及びプログラム
KR102460821B1 (ko) 증강 현실 장치 및 증강 현실 장치의 동작 방법
JP2019040357A (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP2019040356A (ja) 画像処理装置、画像処理方法、コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090415

R150 Certificate of patent or registration of utility model

Ref document number: 4298407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140424

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees