JP2005107971A - 複合現実空間画像生成方法及び複合現実感システム - Google Patents

複合現実空間画像生成方法及び複合現実感システム Download PDF

Info

Publication number
JP2005107971A
JP2005107971A JP2003341629A JP2003341629A JP2005107971A JP 2005107971 A JP2005107971 A JP 2005107971A JP 2003341629 A JP2003341629 A JP 2003341629A JP 2003341629 A JP2003341629 A JP 2003341629A JP 2005107971 A JP2005107971 A JP 2005107971A
Authority
JP
Japan
Prior art keywords
image
space image
mixed reality
virtual space
real
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003341629A
Other languages
English (en)
Other versions
JP2005107971A5 (ja
JP4401728B2 (ja
Inventor
Taichi Matsui
太一 松井
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003341629A priority Critical patent/JP4401728B2/ja
Priority to EP04255974A priority patent/EP1521216B1/en
Priority to US10/951,684 priority patent/US7589747B2/en
Priority to CNB2004100810645A priority patent/CN100479530C/zh
Publication of JP2005107971A publication Critical patent/JP2005107971A/ja
Publication of JP2005107971A5 publication Critical patent/JP2005107971A5/ja
Application granted granted Critical
Publication of JP4401728B2 publication Critical patent/JP4401728B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】 違和感のない表示と使い勝手の良い表示とを両立した複合現実空間画像を生成すること。
【解決手段】 現実空間を撮像して得られる現実空間画像と、仮想空間画像とを重畳した複合現実空間画像を生成する複合現実空間画像生成装置において、仮想空間画像のうち、現実空間中の物体による隠れを考慮すべき仮想空間画像を現実空間画像に重畳する画像合成部109と、仮想空間画像のうち、隠れを考慮せずに表示すべきものをさらに重畳する注釈作成部108とを有する。
【選択図】 図1

Description

本発明は、現実空間画像と仮想空間画像を重畳し、複合現実空間画像を生成する複合現実感技術に関する。
近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。例えば特許文献1に記載されるように、複合現実感の提示を行う複合現実感システムは、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、仮想空間(たとえば3次元モデルをコンピュータ・グラフィックス(CG)により描画した仮想物体や文字情報など)の画像を重畳した複合現実空間画像を観察者に表示するシステムとして実現される。
従来、このような複合現実感システムとして、現実空間に位置する(存在する)現実物体である模型に、仮想空間の画像として、CGモデルを重畳するものが存在する。
この従来の複合現実感システムでは、模型上にCGモデルと模型の部品を説明する注釈を重畳表示している。
さらに、奥行き(隠れ)を考慮して、観察者の手がCGモデルの手前にある場合には、観察者の手がCGモデルで隠されないように(すなわち、観察者の手の領域にはCGモデルを表示しないように)して違和感のない表示を実現する技術を、出願人は特願2002−95535によって提案した。
特開平11−88913号公報
しかしながら、従来の複合現実感システムにおいては、観察者の手がCGモデルに隠されないように表示を行うと、CGモデルだけでなく注釈についても同様の表示制御が行われていた。そのため、観察者の手が注釈表示と重なると、重なった部分の注釈表示が観察できなくなってしまっていた。
注釈は観察者が複合現実感を体験する際に必要な情報を含むことがあり、それが隠されてしまうと、観察者にとって不便である。特に、観察者が操作すべきボタンの種類や操作方法の説明を注釈として表示している場合にはこの問題が顕著となる。
従って、例えばCGモデルは手で隠され、注釈は手で隠されないといった、違和感のない表示と使い勝手の良い表示とを両立することが望まれるが、従来そのような技術は存在しなかった。
本発明は、このような従来技術の問題点に鑑みなされたものであり、その主な目的は、仮想空間画像のうち、隠れを考慮して表示すべきものと、そうでないものを選択的に処理可能な複合現実空間画像生成方法及び装置を提供することにある。
すなわち、本発明の要旨は、現実空間を撮像して得られる現実空間画像と、仮想空間画像とを重畳した複合現実空間画像を生成する複合現実空間画像生成方法であって、仮想空間画像のうち、現実空間中の物体による隠れを考慮すべき第1の仮想空間画像を現実空間画像に重畳する第1の画像合成工程と、仮想空間画像のうち、隠れを考慮せずに表示すべき第2の仮想空間画像を第1の画像合成工程で生成した画像に重畳する第2の画像合成工程とを有することを特徴とする複合現実空間画像生成方法に存する。
また、本発明の別の要旨は、現実空間を撮像して得られる現実空間画像と、仮想空間画像とを重畳した複合現実空間画像を生成する複合現実空間画像生成装置であって、仮想空間画像のうち、現実空間中の物体による隠れを考慮すべき第1の仮想空間画像を現実空間画像に重畳する第1の画像合成手段と、仮想空間画像のうち、隠れを考慮せずに表示すべき第2の仮想空間画像を第1の画像合成手段で生成した画像に重畳する第2の画像合成手段とを有することを特徴とする複合現実空間画像生成装置に存する。
また、本発明の別の要旨は、本発明の複合現実空間画像生成装置を用いた複合現実感システムに存する。
また、本発明の別の要旨は、コンピュータに、本発明の複合現実空間画像生成方法の各工程を実現させるためのプログラム、又はそのプログラムを格納したコンピュータ読み取り可能な記録媒体に存する。
このような構成により、注釈表示方法を用いれば、仮想空間画像のうち、隠れを考慮して表示すべきものと、そうでないものを選択的に処理可能となり、違和感のない表示と使い勝手の良い表示とを両立することができる。
以下、添付図面を参照して、本発明をその好適な実施形態に基づき詳細に説明する。
本実施形態においては、本発明に係る複合現実空間画像生成装置を利用した複合現実感システムとして、MR技術を利用したデジタルモックアップシステムを説明する。
本実施形態に係るデジタルモックアップシステムは、ある工業製品の簡易なモックアップ(模型)の上にMR技術を用いてその製品の詳細な形状や外観を表す3次元コンピュータグラフィックス(3DCG)を重畳して提示するシステムである。システムの体験者は製品の3DCGが重畳されたモックアップを観察しながら実際にモックアップを手に取って触ることができ、また擬似的に動作させることが出来る。
モックアップには位置姿勢センサが内蔵されており、その測定値から検出したモックアップの位置姿勢に対応した3DCGを生成、重畳表示する。そのため体験者は簡易なモックアップを取り扱いながら、モックアップに重畳された詳細な3DCGが表す製品を持っているかのような感覚を体験できる。また、本実施形態におけるデジタルモックアップシステムは、体験させる工業製品に関する注釈(部品名や機能、使い方等)を表示する機能を有している。
図1は本実施形態のデジタルモックアップシステムのシステム構成を表した図である。PC101はシステム全体を制御するコントロールユニットであり、ビデオキャプチャ装置A102、ビデオキャプチャ装置B103、グラフィック装置104、位置姿勢計測部105、被写体領域抽出部106、3DCGモデル作成部107、注釈作成部108、画像合成部109および被写体色情報登録部110を備えている。
ビデオシースルー型HMD(ヘッドマウンテッドディスプレイ)32は、左目カメラ33、右目カメラ34及びLCD等の映像表示部35及び観察者の視点位置姿勢を検出する位置姿勢センサ36を備えている。左目カメラ33は観察者の左目の位置から見た映像を撮影するカメラである。撮影された映像はビデオキャプチャ装置A102でキャプチャされる。右目カメラ34は観察者の右目の位置から見た映像を撮影するカメラである。撮影された映像はビデオキャプチャ装置B103でキャプチャされる。映像表示部35は表示制御部104が出力する複合現実空間画像を観察者に提示する表示装置である。位置姿勢センサ36は、観察者の視点位置姿勢を検出し、位置姿勢計測部105へ送信する。
モックアップ11は本実施形態においては図2に示すようなカメラの実物大模型であり、観察者が自由に手にとることが出来る。このモックアップ11は工業製品としてのカメラの実物大模型であるが、色は単色で、外形だけを概略模した物である。観察者に実物を操作する際と同じ感覚を与えるよう、重量も実物とほぼ同じにしてある。
又、モックアップ11には位置姿勢センサ12が内蔵されている。位置姿勢センサ12はモックアップ11内の所定の位置に固定又は内蔵され、モックアップ11と位置姿勢センサ12の位置関係は一定になっている。そのため位置姿勢センサ12の位置姿勢情報からモックアップの位置姿勢を算出することが出来る。
位置姿勢センサ12によって計測された位置姿勢情報はPC101の位置姿勢計測部105に送信される。位置姿勢計測部105はHMDに設けられた位置姿勢センサ36と、モックアップに設けられた位置姿勢センサ12とから位置姿勢情報を受信する。位置姿勢計測部105は受信した位置姿勢情報に座標変換等の処理を行い、世界座標系における観察者の視点位置姿勢と、モックアップ11の位置姿勢を求め、それらを3DCGモデル作成部107に送信する。
3DCGモデル作成部107は受信した2つの位置姿勢情報から、観察者の左右の目それぞれの視点から観察されるべき3DCGモデル(例えば、図3に示すCGのカメラ21)を作成する。作成した左右それぞれの視点から見た3DCGモデルを画像合成部109に送信する。
図3はモックアップ11の上にMR技術を用いてCGのカメラ21を重畳した状態を模式的に示す図である。CGのカメラ21はカメラの3DCGモデルであり、実物大である。当然モックアップ11と同形で同じ大きさであるので、モックアップ11の位置姿勢に一致させてCGのカメラ21を重畳すれば両者はぴたりと重なり合うことになる。
ビデオキャプチャ装置A102とビデオキャプチャ装置B103でキャプチャされた、左目カメラ33及び右目カメラ34からの左右の映像は、それぞれ画像合成部109と被写体領域抽出部106に送信される。
図7を用いて、被写体領域抽出部106の動作について説明する。被写体領域抽出部106は、ビデオキャプチャ装置A102とビデオキャプチャ装置B103でキャプチャされた実写画像(図7(a))の各画素の色情報を、被写体色情報登録部110に予め登録してある被写体の色情報と比較し、登録されている色情報と一致もしくは近い色を有する画素は被写体領域であると判断する。各画素についてこのような判断を行い、判断の結果は例えば被写体に含まれる画素は1、含まれない画素は0の値として生成した二値化画像(図7(b))の形式で、左右の被写体領域画像を画像合成部109に送信される。
なお、本実施形態において、被写体は観察者の手であり、被写体色情報登録部110には予め採取した皮膚の色に関する情報が登録されている。
画像合成部109での画像合成処理を図8によって説明する。ステップ1101では、ビデオキャプチャ装置A102及びビデオキャプチャ装置B103からの実写画像を、画像表示のための画像メモリである左目用及び右目用のフレームバッファ(図示せず)に転送する。ステップ1102では、被写体領域抽出部106で生成された被写体領域画像を、マスク処理のための画像メモリである左目用及び右目用ステンシルバッファ(図示せず)に転送する。
ステップ1103では、左目用画像、右目用画像の各々について、各座標(i,j)の画素についてステンシルバッファの値 stencil(i,j) を参照し、stencil(i,j) = 1、すなわち実写画像中の画素 real(i,j)が被写体領域に含まれる場合には、対応するフレームバッファの画素 frame(i,j) を更新せず、stencil(i,j) = 0、すなわち実写画像中の画素 real(i,j)が被写体領域に含まれていないとき、かつCGのカメラ21を重畳すべき画素のみ、frame(i,j) の値を3DCGモデル作成部107が生成したCGのカメラ21の画素値 CGI(i,j)によって置き換える。これによって、実写画像と、CG画像(被写体領域を除いた部分のみ)が合成された画像(複合現実空間画像)が作成される。作成された画像は注釈作成部108に送信される。
注釈作成部108は例えば図4に示すような注釈41をCG画像として作成し、3DCG画像の所定位置(図4ではシャッターボタン及びレンズ)を指し示すように、受信した左目用及び右目用合成画像に上書きする。本実施形態において注釈41は三次元仮想空間に位置するテキストであり、CGのカメラ21と一定の位置関係を持ち、CGのカメラ21の一部品のように連動して位置姿勢が変わる。注釈を最後に上書きすることで、注釈が被写体領域と重なっても観察者は注釈を視認することが可能になる。
なお、注釈41を3DCGの正しい位置を示すように表示する方法としては、例えば注釈作成部108が位置姿勢計測部105からモックアップの位置姿勢情報を取得し、それに基づいて注釈表示位置を決定する方法や、例えば3DCGモデル生成部107から3DCG中のシャッターボタンやレンズの画像座標を取得し、その画像座標を指し示すように注釈を生成する方法など、任意の方法を採用することができる。注釈が上書きされた複合現実空間画像を注釈作成部108は表示制御部104に送信する。
図5は図4のような注釈表示を行う際、従来方法を用いた場合の表示状態を示す図である。観察者の手を被写体領域として抽出し、被写体領域をマスクとして使用することで、CGのカメラ21で観察者の手が隠されないように表示した例を示す。観察者の手51によってCGのカメラ21が隠された様に表示され、CGのカメラ21が手の位置より奥にあることが表現されているが、同時にレンズに対する注釈41も隠されてしまい読めなくなってしまう。
一方、本実施形態においては、注釈を最後に上書きするように構成したため、図5に示す位置に被写体領域(すなわち観察者の手)があったとしても、手の上に注釈が表示され、注釈を読むことが可能になる。すなわち、奥行きを考慮した違和感のない表示を行いながら、被写体領域の場所に依存せずに注釈を読むことが可能になる。
表示制御部104はビデオシースルー型HMD32の映像表示部35に左目用の複合現実空間画像と右目用の複合現実空間画像を送信し、映像表示部35はそれぞれの画像を受信して表示する。
又、本実施形態においては、図9のようにモックアップ11の姿勢が変わった時や、観察者の姿勢が変わった時でも、注釈は常に観察者の視点からモックアップへの直線に垂直な面(表示面)上に、観察者の姿勢と同じ向きに表示される。これによってモックアップや観察者の姿勢にかかわらず注釈は観察者に読みやすいようになる。
又、モックアップ11に設ける位置姿勢センサ12により、モックアップ11の向きを検出し、モックアップ11の向きに応じた注釈表示を行ってもよい。例えば本実施形態においてはカメラの正面(被写体が対向する面)が観察者に向いている時には正面から見える範囲に対する注釈を、裏面が観察者に向いている時には裏面から見える範囲に対する注釈を表示することができる。
図10は本実施形態におけるPC101として利用可能なコンピュータ装置の構成例を示すブロック図である。
図において、ディスプレイ201はアプリケーションプログラムによって処理中のデータの情報、各種メッセージメニューなどを表示し、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)等から構成される。ディスプレイコントローラとしてのCRTC202は、ディスプレイ201への画面表示制御を行う。キーボード203及びポインティングデバイス204は、文字などを入力したり、GUI(Graphical User Interface)におけるアイコンやボタンなどを指し示すためなどに用いられる。CPU205はコンピュータ装置全体の制御を司る。
ROM206(Read Only Memory)はCPU205が実行するプログラムやパラメータ等を記憶している。RAM(Random Access Memory)207は各種プログラムをCPU205が実行する時のワークエリア、エラー処理時の一時退避エリア等として用いられる。
ハードディスクドライプ(HDD)208、リムーバブルメディアドライプ(RMD)209は、外部記憶装置として機能する。リムーバブルメディアドライブは、着脱可能な記録媒体の読み書き又は読み出しを行う装置であり、フレキシブルディスクドライブ、光ディスクドライブ、光磁気ディスクドライブ、メモリカードリーダはもとより、着脱式HDDなどであってもよい。
なお、アプリケーションプログラムやエラー処理プログラムをはじめ、本実施形態において説明するPC101の各種機能を実現するプログラムを始め、OSや、ブラウザ等のアプリケーションプログラム、データ、ライプラリなどは、その用途に応じてROM206、HDD208、RMD209(の記録媒体)の1つ以上に記憶されている。
拡張スロット210は、例えばPCI(Peripheral Component Interconnect)バス規格に準拠した拡張カード装着用スロットであり、ビデオキャプチャボードや、サウンドボード、GPIBボードなど、様々な拡張ボードを装着することが可能である。
ネットワークインタフェース211はコンピュータ装置をコンピュータネットワークに接続するためのインタフェースである。バス212はアドレスバス、データバスおよび制御バスからなり、上述した各ユニット間を接続する。また、ネットワークインタフェース211の他に、RS−232C、RS−422、USB(Universal Serial Bus)、IEEE1394等のシリアルインタフェースや、IEEE1284等のパラレルインタフェースを有し、モデムやプリンタ等の外部機器との接続を可能にしている。
このような汎用コンピュータ装置は、OSや必要なドライバソフトウェア等を用いることによって、ネットワークインタフェース211を介して必要に応じて接続されるルータ(ダイアルアップルータを含む)や、シリアルインタフェースを介して接続されるモデムやTA等を用いて、コンピュータネットワークや公衆電話網上の他の機器と通信可能である。
図10に示す汎用コンピュータをPC101として用いた場合、ビデオキャプチャ装置A102、ビデオキャプチャ装置B103及び位置姿勢計測部105は例えば拡張スロットに装着されたビデオキャプチャボード及び位置姿勢センサ12、36とのインタフェースボードと、その制御プログラムとして実現される。また、被写体領域抽出部106,3DCGモデル作成部107、注釈作成部108及び画像合成部109は、CPU105がソフトウェアを実行することで実現可能である。また、表示制御部104はCRTC201により実現される。
以上説明したように、本実施形態によれば、視覚的な違和感をなくすための奥行き(隠れ)を考慮した表示と、観察者の使い勝手を考慮した表示とを両立することが可能となる。
[他の実施形態]
上述の実施形態においては、理解を容易にするため、HMDやモックアップを含む複合現実感システムについて説明したが、これらは必ずしも必要ない。現実空間画像の取得や複合現実空間画像の表示、モックアップ及び観察者視点の位置姿勢計測に関する構成は必須でなく、これら画像や情報の収集、表示を外部装置で行っても良い。
また、上述の実施形態においては、被写体色情報登録部に登録された色と、画像中の各画素とを比較して被写体領域を検出していた。しかしながら、例えば被写体を観察者の手とした場合には、モックアップの位置姿勢センサの出力値から、観察者がモックアップを持っていると判断されている場合には、実写画像中のモックアップ部分からモックアップの色とは異なる色領域を抽出し、その領域を被写体領域とするか、または被写体色情報としてその領域の色を用いて被写体領域を上述のように求めてもよい。このように動的に被写体色情報を設定したり、被写体領域を検出することにより、観察者が手袋をはめている場合など、多種多様な状況に対応することが可能になる。
また、上述の実施形態においては、複合現実感を利用したモックアップシステムに本発明を適用した例を示したが、現実物体の外観を表す仮想空間画像を表示する用途に限らず、表示すべき仮想空間画像のうち、奥行き(隠れ)を考慮して表示すべきものと、そうでないものが存在するような任意の用途及び複合現実感システムに適用可能である。従って、隠れを考慮しないで表示を行う仮想空間画像も注釈に限定されず、任意の仮想空間画像であってよい。
さらに、上述の実施形態においては、被写体が観察者の手である場合について説明したが、観察者が操作する器具であったり、身体の他の部位であったり、また観察者以外の現実物体であっても良い。
また、上述の実施形態においては、PC101を1つの機器から構成した場合についてのみ説明したが、同等の機能を複数の機器から構成されるシステムによって実現しても良い。
尚、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
本発明の実施形態に係るデジタルモックアップシステムの構成例を示すブロック図である。 図1のシステムで用いるモックアップを模式的に示す図である。 図2のモックアップに3DCGモデルを重畳した状態を模式的に示す図である。 図3の状態に注釈を追加表示した状態を模式的に示す図である。 観察者の手によって注釈が隠される従来の状態を説明する図である。 本発明の実施形態での表示状態を模式的に示す図である。 被写体領域抽出部106の処理を説明する図である。 画像合成部109の処理を説明するフローチャートである。 モックアップの姿勢変化時の注釈表示の状態を示す図である。 PC101として利用可能な汎用コンピュータ装置の構成例を示す図である。
符号の説明
11 モックアップ
12、36 位置姿勢センサ
21 CGのカメラ
31 観察者
32 ビデオシースルー型HMD(ヘッドマウントディスプレイ)
33 左目カメラ
34 右目カメラ
35 映像表示部
41 注釈
101 PC
102 ビデオキャプチャ装置A
103 ビデオキャプチャ装置B
104 表示制御部
105 位置姿勢計測部
106 被写体領域抽出部
107 3DCGモデル作成部
108 注釈作成部
109 画像合成部
110 被写体色情報登録部

Claims (8)

  1. 現実空間を撮像して得られる現実空間画像と、仮想空間画像とを重畳した複合現実空間画像を生成する複合現実空間画像生成方法であって、
    前記仮想空間画像のうち、前記現実空間中の物体による隠れを考慮すべき第1の仮想空間画像を前記現実空間画像に重畳する第1の画像合成工程と、
    前記仮想空間画像のうち、隠れを考慮せずに表示すべき第2の仮想空間画像を前記第1の画像合成工程で生成した画像に重畳する第2の画像合成工程とを有することを特徴とする複合現実空間画像生成方法。
  2. 前記第1の画像合成工程が、
    前記現実空間画像から、所定の被写体領域を抽出する被写体領域抽出工程と、
    前記第1の仮想空間画像の、前記被写体領域に含まれない領域のみを前記現実空間画像に重畳する重畳工程とを有することを特徴とする請求項1記載の複合現実空間画像生成方法。
  3. 前記第1の仮想空間画像が、現実空間中の物体の外観を表す画像であり、前記第2の仮想空間画像が、前記物体に関する注釈を表す画像であることを特徴とする請求項1又は請求項2に記載の複合現実空間画像生成方法。
  4. 前記物体の位置姿勢に応じて、前記第2の仮想空間画像の内容又は表示位置を変化させることを特徴とする請求項3記載の複合現実空間画像生成方法。
  5. 現実空間を撮像して得られる現実空間画像と、仮想空間画像とを重畳した複合現実空間画像を生成する複合現実空間画像生成装置であって、
    前記仮想空間画像のうち、前記現実空間中の物体による隠れを考慮すべき第1の仮想空間画像を前記現実空間画像に重畳する第1の画像合成手段と、
    前記仮想空間画像のうち、隠れを考慮せずに表示すべき第2の仮想空間画像を前記第1の画像合成手段で生成した画像に重畳する第2の画像合成手段とを有することを特徴とする複合現実空間画像生成装置。
  6. 請求項5記載の複合現実空間画像生成装置を用いた複合現実感システム。
  7. コンピュータに、請求項1乃至請求項4記載の複合現実空間画像生成方法の各工程を実現させるためのプログラム。
  8. 請求項7記載のプログラムを格納したコンピュータ読み取り可能な記録媒体。
JP2003341629A 2003-09-30 2003-09-30 複合現実空間画像生成方法及び複合現実感システム Expired - Fee Related JP4401728B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003341629A JP4401728B2 (ja) 2003-09-30 2003-09-30 複合現実空間画像生成方法及び複合現実感システム
EP04255974A EP1521216B1 (en) 2003-09-30 2004-09-29 Mixed reality space image generation method and mixed reality system
US10/951,684 US7589747B2 (en) 2003-09-30 2004-09-29 Mixed reality space image generation method and mixed reality system
CNB2004100810645A CN100479530C (zh) 2003-09-30 2004-09-30 复合现实空间图像生成方法和复合现实感系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003341629A JP4401728B2 (ja) 2003-09-30 2003-09-30 複合現実空間画像生成方法及び複合現実感システム

Publications (3)

Publication Number Publication Date
JP2005107971A true JP2005107971A (ja) 2005-04-21
JP2005107971A5 JP2005107971A5 (ja) 2006-10-12
JP4401728B2 JP4401728B2 (ja) 2010-01-20

Family

ID=34309073

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003341629A Expired - Fee Related JP4401728B2 (ja) 2003-09-30 2003-09-30 複合現実空間画像生成方法及び複合現実感システム

Country Status (4)

Country Link
US (1) US7589747B2 (ja)
EP (1) EP1521216B1 (ja)
JP (1) JP4401728B2 (ja)
CN (1) CN100479530C (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520729A (ja) * 2010-02-22 2013-06-06 ナイキ インターナショナル リミテッド 拡張現実設計システム
JP2019528654A (ja) * 2016-07-22 2019-10-10 ゼアリティ インコーポレイテッド 没入型メディアコンテンツをカスタマイズするための方法及びシステム

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7834890B2 (en) 2003-10-17 2010-11-16 Canon Kabushiki Kaisha Information processing method and image processing method
JP4522129B2 (ja) * 2004-03-31 2010-08-11 キヤノン株式会社 画像処理方法および画像処理装置
JP4227561B2 (ja) * 2004-06-03 2009-02-18 キヤノン株式会社 画像処理方法、画像処理装置
DE102005009437A1 (de) * 2005-03-02 2006-09-07 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Einblenden von AR-Objekten
JP4726194B2 (ja) * 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
ES2325374T3 (es) * 2005-05-03 2009-09-02 Seac02 S.R.L. Sistema de realidad aumentada con identificacion de objeto marcador real.
US9648907B2 (en) * 2005-05-31 2017-05-16 Philip Morris Usa Inc. Virtual reality smoking system
JP4914123B2 (ja) 2005-07-15 2012-04-11 キヤノン株式会社 画像処理装置及び方法
CN100590660C (zh) * 2005-07-15 2010-02-17 佳能株式会社 图像处理设备和设计方法
US8797352B2 (en) * 2005-08-09 2014-08-05 Total Immersion Method and devices for visualising a digital model in a real environment
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
JP4958497B2 (ja) * 2006-08-07 2012-06-20 キヤノン株式会社 位置姿勢測定装置及び位置姿勢測定方法、複合現実感提示システム、コンピュータプログラム及び記憶媒体
EP1887526A1 (en) * 2006-08-11 2008-02-13 Seac02 S.r.l. A digitally-augmented reality video system
JP4909176B2 (ja) * 2007-05-23 2012-04-04 キヤノン株式会社 複合現実感提示装置及びその制御方法、コンピュータプログラム
JP4989383B2 (ja) * 2007-09-10 2012-08-01 キヤノン株式会社 情報処理装置、情報処理方法
US8769437B2 (en) * 2007-12-12 2014-07-01 Nokia Corporation Method, apparatus and computer program product for displaying virtual media items in a visual media
US9354853B2 (en) * 2008-07-02 2016-05-31 Hewlett-Packard Development Company, L.P. Performing administrative tasks associated with a network-attached storage system at a client
US20100214243A1 (en) * 2008-07-15 2010-08-26 Immersion Corporation Systems and Methods For Interpreting Physical Interactions With A Graphical User Interface
KR102045165B1 (ko) 2008-07-15 2019-11-14 임머숀 코퍼레이션 햅틱 메시지들을 송신하기 위한 시스템 및 방법
JP2010033367A (ja) * 2008-07-29 2010-02-12 Canon Inc 情報処理装置及び情報処理方法
JP5332576B2 (ja) * 2008-12-11 2013-11-06 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム
JP5232619B2 (ja) * 2008-12-18 2013-07-10 株式会社ソニー・コンピュータエンタテインメント 検査装置および検査方法
JP4848001B2 (ja) * 2008-12-18 2011-12-28 株式会社ソニー・コンピュータエンタテインメント 画像処理装置および画像処理方法
KR101899506B1 (ko) * 2009-01-29 2018-09-20 임머숀 코퍼레이션 그래픽 사용자 인터페이스와의 물리적 상호작용을 해석하는 시스템 및 방법
US8405658B2 (en) * 2009-09-14 2013-03-26 Autodesk, Inc. Estimation of light color and direction for augmented reality applications
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법
US9122707B2 (en) 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US9710554B2 (en) 2010-09-23 2017-07-18 Nokia Technologies Oy Methods, apparatuses and computer program products for grouping content in augmented reality
US20120293546A1 (en) * 2011-05-18 2012-11-22 Tomi Lahcanski Augmented-reality mobile communicator with orientation
KR101773988B1 (ko) 2011-07-29 2017-09-01 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 시각적 계층화 시스템 및 시각적 계층화 방법
JP5941146B2 (ja) 2011-07-29 2016-06-29 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. 投影取込システム、プログラムおよび方法
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
US9606992B2 (en) * 2011-09-30 2017-03-28 Microsoft Technology Licensing, Llc Personal audio/visual apparatus providing resource management
US8493354B1 (en) * 2012-08-23 2013-07-23 Immersion Corporation Interactivity model for shared feedback on mobile devices
US8711118B2 (en) 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
JP6000579B2 (ja) 2012-03-09 2016-09-28 キヤノン株式会社 情報処理装置、情報処理方法
JP5977544B2 (ja) 2012-03-09 2016-08-24 キヤノン株式会社 情報処理装置、情報処理方法
JP5975685B2 (ja) 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
US8570296B2 (en) 2012-05-16 2013-10-29 Immersion Corporation System and method for display of multiple data channels on a single haptic display
US10387484B2 (en) 2012-07-24 2019-08-20 Symbol Technologies, Llc Mobile device for displaying a topographical area defined by a barcode
GB2499694B8 (en) * 2012-11-09 2017-06-07 Sony Computer Entertainment Europe Ltd System and method of image reconstruction
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US10127331B2 (en) * 2014-12-15 2018-11-13 The Boeing Company 3D models utilizing 3D markers to indicate engineering requirements
RU2597462C1 (ru) * 2015-07-17 2016-09-10 Виталий Витальевич Аверьянов Способ отображения объекта на пространственной модели
US10068380B2 (en) * 2016-11-17 2018-09-04 Adobe Systems Incorporated Methods and systems for generating virtual reality environments from electronic documents
US11054894B2 (en) 2017-05-05 2021-07-06 Microsoft Technology Licensing, Llc Integrated mixed-input system
US11023109B2 (en) 2017-06-30 2021-06-01 Microsoft Techniogy Licensing, LLC Annotation using a multi-device mixed interactivity system
US10895966B2 (en) 2017-06-30 2021-01-19 Microsoft Technology Licensing, Llc Selection using a multi-device mixed interactivity system
US11205402B2 (en) * 2017-09-25 2021-12-21 Mitsubishi Electric Corporation Information display apparatus and method, and recording medium
US11176747B2 (en) * 2017-10-30 2021-11-16 Sony Corporation Information processing apparatus and information processing method
CN110118870B (zh) * 2018-02-06 2023-04-07 深圳市帝迈生物技术有限公司 血细胞分析仪及运行方法
US11284646B2 (en) 2018-03-22 2022-03-29 Altria Client Services Llc Augmented reality and/or virtual reality based e-vaping device vapor simulation systems and methods
KR102581146B1 (ko) * 2018-11-23 2023-09-21 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
WO2020130708A1 (en) * 2018-12-20 2020-06-25 Samsung Electronics Co., Ltd. Method and apparatus for augmented reality
KR102447537B1 (ko) * 2019-10-10 2022-09-26 주식회사 케이티앤지 흡연 시스템
CN111833458B (zh) * 2020-06-30 2023-06-23 北京市商汤科技开发有限公司 图像显示方法及装置、设备、计算机可读存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5815411A (en) * 1993-09-10 1998-09-29 Criticom Corporation Electro-optic vision system which exploits position and attitude
JPH0816102A (ja) 1994-06-30 1996-01-19 Matsushita Electric Ind Co Ltd 車載用地図表示装置
US5892554A (en) 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
US6094625A (en) * 1997-07-03 2000-07-25 Trimble Navigation Limited Augmented vision for survey work and machine control
US6522312B2 (en) 1997-09-01 2003-02-18 Canon Kabushiki Kaisha Apparatus for presenting mixed reality shared among operators
JP3486536B2 (ja) 1997-09-01 2004-01-13 キヤノン株式会社 複合現実感提示装置および方法
EP1981268B1 (en) 1999-11-08 2017-01-25 Disney Enterprises, Inc. Method and apparatus for real time insertion of images into video
US6618425B1 (en) * 1999-11-17 2003-09-09 Cymer, Inc. Virtual laser operator
US20020191004A1 (en) * 2000-08-09 2002-12-19 Ebersole John Franklin Method for visualization of hazards utilizing computer-generated three-dimensional representations
EP1373967A2 (en) * 2000-06-06 2004-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. The extended virtual table: an optical extension for table-like projection systems
US6977630B1 (en) * 2000-07-18 2005-12-20 University Of Minnesota Mobility assist device
JP2002095535A (ja) 2000-09-25 2002-04-02 Toshio Takayama マグネット(磁石)飛散防止板
US6954498B1 (en) * 2000-10-24 2005-10-11 Objectvideo, Inc. Interactive video manipulation
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP3635051B2 (ja) 2001-02-01 2005-03-30 株式会社ソニー・コンピュータエンタテインメント 画像生成方法及び装置、画像処理プログラムを記録した記録媒体、画像処理プログラム
JP2003050132A (ja) 2001-08-06 2003-02-21 Alpine Electronics Inc ナビゲーション装置
JP4136420B2 (ja) 2002-03-29 2008-08-20 キヤノン株式会社 情報処理方法および装置
JP4445182B2 (ja) 2002-03-29 2010-04-07 パイオニア株式会社 スピーカ装置
DE10236221C1 (de) * 2002-08-07 2003-11-20 Siemens Ag Verfahren und Vorrichtung zur Anzeige von Navigationsinformationen für ein Fahrzeug
JP2003203245A (ja) 2002-10-03 2003-07-18 Ffc:Kk 図面表示処理装置
US6867753B2 (en) * 2002-10-28 2005-03-15 University Of Washington Virtual image registration in augmented display field
JP4356983B2 (ja) * 2004-02-10 2009-11-04 キヤノン株式会社 画像処理方法、画像処理装置
US20050285878A1 (en) * 2004-05-28 2005-12-29 Siddharth Singh Mobile platform
US7474318B2 (en) * 2004-05-28 2009-01-06 National University Of Singapore Interactive system and method
JP2008508621A (ja) * 2004-08-03 2008-03-21 シルバーブルック リサーチ ピーティワイ リミテッド ウォークアップ印刷
DE102005061211B4 (de) * 2004-12-22 2023-04-06 Abb Schweiz Ag Verfahren zum Erzeugen einer Mensch-Maschine-Benutzer-Oberfläche
US9648907B2 (en) * 2005-05-31 2017-05-16 Philip Morris Usa Inc. Virtual reality smoking system
US20070035563A1 (en) * 2005-08-12 2007-02-15 The Board Of Trustees Of Michigan State University Augmented reality spatial interaction and navigational system
JP4785662B2 (ja) * 2005-10-03 2011-10-05 キヤノン株式会社 情報処理装置、情報処理方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013520729A (ja) * 2010-02-22 2013-06-06 ナイキ インターナショナル リミテッド 拡張現実設計システム
JP2015179517A (ja) * 2010-02-22 2015-10-08 ナイキ イノヴェイト シーヴィー 拡張現実設計システム
US9384578B2 (en) 2010-02-22 2016-07-05 Nike, Inc. Augmented reality design system
JP2016189213A (ja) * 2010-02-22 2016-11-04 ナイキ イノヴェイト シーヴィー 拡張現実設計システム
JP2016192226A (ja) * 2010-02-22 2016-11-10 ナイキ イノヴェイト シーヴィー 拡張現実設計システム
US9858724B2 (en) 2010-02-22 2018-01-02 Nike, Inc. Augmented reality design system
JP2019528654A (ja) * 2016-07-22 2019-10-10 ゼアリティ インコーポレイテッド 没入型メディアコンテンツをカスタマイズするための方法及びシステム

Also Published As

Publication number Publication date
US20050179617A1 (en) 2005-08-18
EP1521216B1 (en) 2012-01-11
JP4401728B2 (ja) 2010-01-20
US7589747B2 (en) 2009-09-15
EP1521216A1 (en) 2005-04-06
CN100479530C (zh) 2009-04-15
CN1604659A (zh) 2005-04-06

Similar Documents

Publication Publication Date Title
JP4401728B2 (ja) 複合現実空間画像生成方法及び複合現実感システム
JP4227561B2 (ja) 画像処理方法、画像処理装置
EP1404126B1 (en) Video combining apparatus and method
JP4950834B2 (ja) 画像処理装置、画像処理方法
JP4933406B2 (ja) 画像処理装置、画像処理方法
US8055061B2 (en) Method and apparatus for generating three-dimensional model information
JP4909176B2 (ja) 複合現実感提示装置及びその制御方法、コンピュータプログラム
JP4137078B2 (ja) 複合現実感情報生成装置および方法
KR20230048457A (ko) 증강 현실 데이터를 레코딩하기 위한 기술
JP2009025918A (ja) 画像処理装置、画像処理方法
JP2004062756A (ja) 情報提示装置および情報処理方法
JP2006072903A (ja) 画像合成方法及び装置
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
JP4574323B2 (ja) 画像処理方法、画像処理装置
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2006012042A (ja) 画像生成方法及び装置
JP2005339377A (ja) 画像処理方法、画像処理装置
JP4208601B2 (ja) 表示制御方法、及び表示制御装置
JP7279113B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2005251118A (ja) 画像処理方法、画像処理装置
JP2005157611A (ja) 画像処理装置および方法
JP2009025919A (ja) 画像処理装置、画像処理方法
JP2005128877A (ja) 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム
JP2009015648A (ja) 画像処理装置、画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060817

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060817

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090907

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091028

R150 Certificate of patent or registration of utility model

Ref document number: 4401728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121106

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131106

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees