JP2004287902A - 複合現実感画像提示装置 - Google Patents
複合現実感画像提示装置 Download PDFInfo
- Publication number
- JP2004287902A JP2004287902A JP2003079759A JP2003079759A JP2004287902A JP 2004287902 A JP2004287902 A JP 2004287902A JP 2003079759 A JP2003079759 A JP 2003079759A JP 2003079759 A JP2003079759 A JP 2003079759A JP 2004287902 A JP2004287902 A JP 2004287902A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- layer
- mixed reality
- real
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】観察者に高臨場感を提供することができる複合現実感画像提示装置を提供すること。
【解決手段】現実画像と、仮想画像とを合成して観察者に複合現実感画像を提示する複合現実感画像提示装置であって、現実画像を取り込むための現実画像取込部11,13と、取り込んだ現実画像に基づいて複数のレイヤー画像を生成するレイヤー生成部14と、生成された複数のレイヤー画像から選択されたレイヤー画像と、仮想画像とを合成して合成画像を生成する画像合成部15と、生成された合成画像を複合現実感画像として観察者に表示する複合現実感画像表示部22−1,22−2とを具備する。
【選択図】 図1
【解決手段】現実画像と、仮想画像とを合成して観察者に複合現実感画像を提示する複合現実感画像提示装置であって、現実画像を取り込むための現実画像取込部11,13と、取り込んだ現実画像に基づいて複数のレイヤー画像を生成するレイヤー生成部14と、生成された複数のレイヤー画像から選択されたレイヤー画像と、仮想画像とを合成して合成画像を生成する画像合成部15と、生成された合成画像を複合現実感画像として観察者に表示する複合現実感画像表示部22−1,22−2とを具備する。
【選択図】 図1
Description
【0001】
【発明の属する技術分野】
本発明は、複合現実感画像提示装置に関するものである。
【0002】
【従来の技術】
近年、観察者が直接観察する現実画像あるいは観察者の直近で撮影された映像に、コンピュータによって生成された仮想画像とを重畳、合成した複合現実感画像を観察者に提供する、いわゆる複合現実感(MR:Mixed Reality)と呼ばれる技術が提案され、ゲームやアトラクション等に利用されつつある。また、飛行場や工場建設などの建設現場において、建設予定地での、より現実に近いシミュレーションやその工事の進行状況の確認等への応用も検討されている。
【0003】
複合現実感の概要については、映像情報メディア学会誌のVOL.52,No.3,pp.266−272(1998)に記載されている。
【0004】
また、特開2002−163670号公報には、上記した複合現実感画像提示装置の一例が示されており、色調や明るさの変化が大きい現実空間に仮想空間画像を重畳して複合現実感を提示する複合現実感提示装置及びその制御方法が開示されている。
【0005】
【特許文献1】
特開2002−163670号公報
【0006】
【非特許文献1】
映像情報メディア学会誌、VOL.52,No.3,pp.266−272(1998)
【0007】
【発明が解決しようとする課題】
上記した特開2002−163670号公報を含む従来の複合現実感画像提示装置では、現実画像取込部としてのCCDカメラ等で撮影した現実画像に対して何らかの処理は行われず、取り込んだ状態の現実画像と、色合い、明るさ等が調整された仮想画像としてのCG画像とが合成されて合成画像が生成されるものであり、観察者に対して高臨場感を感じさせることを目的としたものではなかった。
【0008】
本発明はこのような課題に着目してなされたものであり、その目的とするところは、観察者に高臨場感を感じさせることができる複合現実感画像提示装置を提供することにある。
【0009】
【課題を解決するための手段】
上記の目的を達成するために、第1の発明に係る複合現実感画像提示装置は、現実画像と、仮想画像とを合成して観察者に複合現実感画像を提示する複合現実感画像提示装置であって、現実画像を取り込むための現実画像取込部と、前記現実画像取込部により取り込んだ現実画像に基づいてレイヤー画像を生成するレイヤー画像生成部と、前記レイヤー画像生成部で生成されたレイヤー画像と、前記仮想画像とを合成して合成画像を生成する画像合成部と、前記画像合成部で生成された合成画像を複合現実感画像として観察者に提示する画像提示部とを具備する。
【0010】
また、第2の発明は、第1の発明に係る複合現実感画像提示装置において、前記現実画像取込部は複数であり、それぞれの現実画像取込部で取り込んだ現実画像に基づいて視差を検出する視差検出部を有する。
【0011】
また、第3の発明は、第2の発明に係る複合現実感画像提示装置において、前記レイヤー画像生成部は、前記視差検出部で検出した視差に基づいて新たな視差をもつレイヤー画像を生成し、前記画像合成部は、このレイヤー画像と前記仮想画像とを合成する。
【0012】
また、第4の発明は、第3の発明に係る複合現実感画像提示装置において、前記画像合成部は、前記現実画像の特定領域についてのみ前記新たな視差を持つレイヤー画像を用い、前記特定領域以外の領域については前記視差検出部で検出した視差を持つレイヤー画像を用いて前記仮想画像との合成を行う。
【0013】
また、第5の発明は、第3の発明に係る複合現実感画像提示装置において、前記新たな視差を持つレイヤー画像を生成するにあたって、当該視差の量を制限する視差制限手段をさらに具備する。
【0014】
また、第6の発明は、第1または第3の発明に係る複合現実感画像提示装置において、観察者の視点位置を検出する視点位置検出部と、観察者の視点姿勢を検出する視点姿勢検出部をさらに具備し、前記レイヤー画像生成部は、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢と、外部からの指示に基づいて、前記レイヤー画像を生成するタイミング、前記レイヤー画像の範囲、配置、コントラスト及び色調を含む条件を決定する。
【0015】
また、第7の発明は、第6の発明に係る複合現実感画像提示装置において、緊急事態が発生した場合、または、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢とが所定の制御範囲を超えた場合に、前記画像合成部は、前記レイヤー画像と前記現実画像との合成処理を中止し、前記現実画像のみを前記画像提示部に送る。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本発明の一実施形態に係る複合現実感画像提示装置の機能ブロック図である。図1において、現実画像取込部(R)11及び(L)13は、現実空間10における被写体を撮像して現実画像を取り込む部分であり、撮像素子としてのCCDカメラと、このCCDカメラにより撮像して得られた撮像画像データに所定の信号処理を施す信号処理部と、信号処理がなされた撮像画像データを記憶するメモリとを含む。現実画像取込部(R)11は、観察者の右目に提示するための撮像画像データを取得する部分である。現実画像取込部(L)13は、観察者の左目に提示するための撮像画像データを取得する部分である。
【0017】
視差検出部12は、現実画像取込部(R)11からの撮影画像データと、現実画像取込部(L)13からの撮影画像データとに基づいて撮影者の左右の目に関する視差を検出する部分である。また、本発明の特徴となるレイヤー生成部14は、現実画像取込部(R)11からの撮影画像データと、現実画像取込部(L)13からの撮影画像データとに基づいて複数のレイヤー画像(画像層)を生成する。レイヤー画像の具体例については後述する。
【0018】
視点位置検出部18は、観察者の視点位置を検出する部分である。視点姿勢検出部19は、観察者の視点姿勢を検出する部分である。ウェブ端末20は、インターネットから所望の仮想画像データを取得する部分である。仮想画像記憶部21は、仮想画像データを記憶する部分であり、例えばPC(パーソナルコンピュータ)のもつハードディスクにより実現される。仮想画像の具体例については後述する。
【0019】
仮想画像生成部17は、仮想画像記憶部21に記憶されている仮想画像かあるいはウェブ端末20からの仮想画像データと、視点位置検出部18からの視点位置データと、視点姿勢検出部19からの視点姿勢データとに基づいて仮想空間における仮想画像データを生成する部分である。画像合成部15は、レイヤ−生成部14からのレイヤー画像と、仮想画像生成部17からの仮想画像データとに基づいて合成画像を生成する。画像提示部としての複合現実感画像表示部(R)22−1、(L)22−2は、画像合成部15からの合成画像を複合現実感画像として、観察者25の左右の目に提示する。視差制限手段としての視差リミッター16は、現実画像のレイヤー画像から任意の新しい視差をもつレイヤー画像を生成するにあたって視差の量を制限する手段である。コントローラ24は、上記した各部に対してその動作についての種々の指示を与える部分である。
【0020】
なお、レイヤー生成部14は、視差検出部12で検出した視差に基づいて新たな視差をもつレイヤー画像を生成することができる。そして画像合成部15は、現実画像の特定領域についてのみ前記新たな視差をもつレイヤー画像を用い、前記特定領域以外の領域については視差検出部12で検出した視差を持つレイヤー画像を用いて仮想画像との合成を行うことが考えられる。
【0021】
また、レイヤー生成部14は、視点位置検出部18で検出された視点位置と、視点姿勢検出部19で検出された視点姿勢と、外部のコントローラ24からの指示に基づいて、レイヤー画像を生成するタイミング、レイヤー画像の範囲、配置、コントラスト及び色調を含む条件を決定することが考えられる。
【0022】
図2は、本実施形態の複合現実感画像提示装置を具体的なシステム構成に適用した一例を示す図である。ここでは、図1の現実画像取込部(R)11,(L)13はそれぞれCCDカメラ(R)111−1,(L)111−2として実現される。視点位置検出部18はGPS(Global Positioning System)118として実現される。視点姿勢検出部19はHMS(Head Motion Sensor)119として実現される。複合現実感画像表示部(R)22−1,(L)22−2は、例えばビデオシースルー方式のHMD(Head Mounted Display)122として実現される。コントローラ24は観察者により操作可能な操作手段であるコントローラ124により実現される。
【0023】
また、図1の仮想画像記憶部21は、コントローラ124に接続されたPC150内のハードディスクにより実現されるが、ウェブ端末20によりインターネットから無線回線等を介して入手することもできる。
【0024】
観察者は、コントローラ124を操作して、仮想画像データをウェブ端末20または仮想画像記憶部21から引き出したり、複数のレイヤー画像から特定のレイヤー画像を選択することができる。
【0025】
なお、上記したGPS118及びコントローラ124の機能をPC150により実現することも可能である。
【0026】
図3は、本実施形態に係る複合現実感画像提示装置の作用を説明するためのフローチャートである。まず仮想画像データを仮想画像記憶部21からかあるいはウェブ端末20から引き出すのかをコントローラ24からの指示に基づいて決定する(ステップS1)。次に、視点位置検出部18(GPS118)で検出された、観察者の視点位置データを仮想画像生成部17に転送する(ステップS2)。次に、視点姿勢検出部19(HMS119)で検出された観察者の視点姿勢データを仮想画像生成部17に転送する(ステップS3)。
【0027】
次に、仮想画像生成部17において、視点位置、姿勢位置及びコントローラ24からの指示に基づいて仮想画像を生成する(ステップS4)。コントローラ24からの指示の具体例については後述する。次に、現実画像データを現実画像取込部(R)11、(L)13から視差検出部12に転送して視差を検出する(ステップS5)。次に、レイヤー生成部14において、現実画像取込部(R)11、(L)13から送られてきた現実画像データと、視差検出部12からの視差情報に基づいて所定のレイヤー画像を生成する(ステップS6)。具体的には、予め記憶された現実画像データを読み出して既知の画像処理を施すことにより複数種類のレイヤー画像を生成する。レイヤー画像の具体例については後述する。
【0028】
次に、現実画像データから生成された複数のレイヤー画像から目的に応じて選択されたレイヤー画像と、仮想画像生成部17で生成された仮想画像データとを画像合成部15に転送して合成、重畳に係る処理を行い、合成画像を生成する(ステップS7)。
【0029】
次に、生成した合成画像を複合現実感画像表示部(R)22−1,(L)22−2に転送して表示し(ステップS8)、観察者25の左右の目に提示する。次に、画面表示を継続するかどうかをコントローラ124からの指示に従って判断し(ステップS9)、画面表示を継続する場合にはステップS1に戻って上記の処理を反復し、ステップS9で画面表示を終了すると判断されたときに処理を終了する。
【0030】
図4は、本実施形態に係る複合現実感画像提示装置の他の作用を説明するためのフローチャートである。ここでは画像表示を行っているときに何らかの緊急事態が発生した場合を想定して説明する。
【0031】
まず仮想画像データを仮想画像記憶部21からかあるいはウェブ端末20から引き出すのかをコントローラ24からの指示に基づいて決定する(ステップS20)。次に、コントローラ24からの緊急を知らせる指示があったかどうかを判断し(ステップS21)、緊急の指示であった場合には、緊急事態であることを観察者に認識させるために現実画像のみを表示(ステップS31)するとともに、所定の警告を重畳表示して(ステップS32)処理を終了する。
【0032】
また、ステップS21で緊急の指示ではないと判断された場合には、次に、視点位置検出部18(GPS118)で検出された、観察者の視点位置データを仮想画像生成部17に転送する(ステップS22)。次に、視点姿勢検出部19(HMS119)で検出された観察者の視点姿勢データを仮想画像生成部17に転送する(ステップS23)。
【0033】
次に、観察者の視点位置データと視点姿勢データとに基づいて、コントローラ24により制御可能な範囲を超えたかどうかを判断し(ステップS24)、超えた場合には上記したステップS31、S32を実行して処理を終了する。
【0034】
また、ステップS24において、制御可能な範囲を超えていないと判断された場合には、次に、仮想画像生成部17において、視点位置、姿勢位置及びコントローラ24からの指示に基づいて仮想画像を生成する(ステップS25)。次に、現実画像データを現実画像取込部(R)11、(L)13から視差検出部12に転送して視差を検出する(ステップS26)。次に、レイヤー生成部14において、現実画像取込部(R)11、(L)13から送られてきた現実画像データと、視差検出部12からの視差情報に基づいて所定のレイヤー画像を生成する(ステップS27)。具体的には、予め記憶された現実画像データを読み出して既知の画像処理を施すことにより複数種類のレイヤー画像を生成する。レイヤー画像の具体例については後述する。
【0035】
次に、現実画像データから生成された複数のレイヤー画像から目的に応じて選択されたレイヤー画像と、仮想画像生成部17で生成された仮想画像データとを画像合成部15に転送して合成、重畳に係る処理を行い、合成画像を生成する(ステップS28)。次に、生成した合成画像を複合現実感画像表示部(R)22−1,(L)22−2に転送して表示し(ステップS29)、観察者25の左右の目に提示する。次に、画面表示を継続するかどうかをコントローラ124からの指示に従って判断し(ステップS30)、画面表示を継続する場合にはステップS20に戻って上記の処理を反復し、ステップS30で画面表示を終了すると判断された場合には処理を終了する。
【0036】
図5は、レイヤー生成部14におけるレイヤー画像生成の具体例を説明するための図であり、ステージ300上で人物A,Bがショーを行っており、観客301がこれを見ている状況を示している。図5において、Cで示す部分以外の部分の画像を現実画像取込部(R)11、(L)13から取り込まれた現実画像302とする。従来は、この現実画像302に対して何ら処理を行うことなしに人物Cを表す仮想画像303と合成していたが、本発明に係るレイヤー生成部14は、検出した視点位置、姿勢位置及びコントローラ24からの指示に基づいて、例えば以下のレイヤー画像を生成することができる。コントローラ24からの指示の具体例としては、コントローラ24が特定の音声を検出したり、または現実画像に挿入された特定のランドマーク(目印)や画像を検出した場合にレイヤー画像生成の指示を出すことなどが挙げられる。生成されるレイヤー画像が以下のものに限定されないことは勿論である。
【0037】
1. 図5に示す現実画像302からBの部分を消去したレイヤー画像
2. 図5に示す現実画像302において、Bの部分にスポットライトを当てた効果を出したレイヤー画像
3. 図5に示す現実画像302において、Bの部分について立体感を強調したレイヤー画像
レイヤー生成部14は、これらのレイヤー画像から選択した任意のレイヤー画像と、仮想画像303とを合成した画像を生成して観察者の目に提示することにより、観察者に対して高臨場感を感じさせることができる。また、状況に応じたレイヤー画像を仮想画像と合成することにより、種々のアトラクション及びステージ300でのショー等の舞台照明、舞台装置等に関して省スペース、低価格、製作日数の短縮を実現することができ、より情報量の多い複合現実感画像を提供することができる。
【0038】
図6は、本発明をテーマパークでのアトラクションに適用した具体例を示している。ジェットコースター402に乗っている観察者401は本発明による複合現実感画像提示装置400を着用することにより種々のアトラクションを楽しむことができる。
【0039】
図7(A)、(B)は、本発明を都市計画シミュレーションに適用した具体例を示している。ここでは、現実画像取込部(R)11、(L)13から取り込まれた画像を現実画像500とする。この現実画像500はある都市の通りを示しているが、このような現実画像500のAで示す部分に、図7(B)に示すような建造物を建設することが予定されている場合を考える。この場合、従来は、予め生成された仮想画像501を図7(A)のAで示す部分に挿入することで建設後の状況を把握していたが、本発明では現実画像500をそのまま合成するのでなく、現実画像500に基づいて次のようなレイヤー画像を生成し、仮想画像501と合成して提示することにより、観察者に高臨場感を感じさせることを意図している。
【0040】
1.現実画像500のAで示す部分(仮想画像501が挿入される部分)のみ、色調やコントラストを変更したレイヤー画像または白黒にしたレイヤー画像を生成する。これを、建設が予定されている建造物である仮想画像501と合成、表示して観察者に提示すれば、観察者は現在の町並みと建設後の町並みとの相異を確認することができる。
【0041】
2.現実画像500から、昼間の明るさ、夜の情景のレイヤー画像を生成し、これと仮想画像501とを合成、表示して観察者に提示すれば、観察者は町並みの雰囲気が昼間と夜間とでどのように相異するかを確認することができる。
【0042】
【発明の効果】
本発明によれば、観察者に高臨場感を感じさせることができる複合現実感画像提示装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る複合現実感画像提示装置の機能ブロック図である。
【図2】本実施形態の複合現実感画像提示装置を具体的なシステム構成に適用した一例を示す図である。
【図3】本実施形態に係る複合現実感画像提示装置の作用を説明するためのフローチャートである。
【図4】本実施形態に係る複合現実感画像提示装置の他の作用を説明するためのフローチャートである。
【図5】レイヤー生成部14におけるレイヤー画像生成の具体例を説明するための図である。
【図6】本発明をテーマパークでのアトラクションに適用した具体例を示す図である。
【図7】本発明を都市計画シミュレーションに適用した具体例を示す図である。
【符号の説明】
10…現実空間、11…現実画像取込部(R)、12…視差検出部、13…現実画像取込部(L)、14…レイヤー生成部、15…画像合成部、16…視差リミッター、17…仮想画像生成部、18…視点位置検出部、19…視点姿勢検出部、20…ウェブ端末、21…仮想画像記憶部、22−1…複合現実感画像表示部(R)、22−2…複合現実感画像表示部(L)、24…コントローラ、25…観察者。
【発明の属する技術分野】
本発明は、複合現実感画像提示装置に関するものである。
【0002】
【従来の技術】
近年、観察者が直接観察する現実画像あるいは観察者の直近で撮影された映像に、コンピュータによって生成された仮想画像とを重畳、合成した複合現実感画像を観察者に提供する、いわゆる複合現実感(MR:Mixed Reality)と呼ばれる技術が提案され、ゲームやアトラクション等に利用されつつある。また、飛行場や工場建設などの建設現場において、建設予定地での、より現実に近いシミュレーションやその工事の進行状況の確認等への応用も検討されている。
【0003】
複合現実感の概要については、映像情報メディア学会誌のVOL.52,No.3,pp.266−272(1998)に記載されている。
【0004】
また、特開2002−163670号公報には、上記した複合現実感画像提示装置の一例が示されており、色調や明るさの変化が大きい現実空間に仮想空間画像を重畳して複合現実感を提示する複合現実感提示装置及びその制御方法が開示されている。
【0005】
【特許文献1】
特開2002−163670号公報
【0006】
【非特許文献1】
映像情報メディア学会誌、VOL.52,No.3,pp.266−272(1998)
【0007】
【発明が解決しようとする課題】
上記した特開2002−163670号公報を含む従来の複合現実感画像提示装置では、現実画像取込部としてのCCDカメラ等で撮影した現実画像に対して何らかの処理は行われず、取り込んだ状態の現実画像と、色合い、明るさ等が調整された仮想画像としてのCG画像とが合成されて合成画像が生成されるものであり、観察者に対して高臨場感を感じさせることを目的としたものではなかった。
【0008】
本発明はこのような課題に着目してなされたものであり、その目的とするところは、観察者に高臨場感を感じさせることができる複合現実感画像提示装置を提供することにある。
【0009】
【課題を解決するための手段】
上記の目的を達成するために、第1の発明に係る複合現実感画像提示装置は、現実画像と、仮想画像とを合成して観察者に複合現実感画像を提示する複合現実感画像提示装置であって、現実画像を取り込むための現実画像取込部と、前記現実画像取込部により取り込んだ現実画像に基づいてレイヤー画像を生成するレイヤー画像生成部と、前記レイヤー画像生成部で生成されたレイヤー画像と、前記仮想画像とを合成して合成画像を生成する画像合成部と、前記画像合成部で生成された合成画像を複合現実感画像として観察者に提示する画像提示部とを具備する。
【0010】
また、第2の発明は、第1の発明に係る複合現実感画像提示装置において、前記現実画像取込部は複数であり、それぞれの現実画像取込部で取り込んだ現実画像に基づいて視差を検出する視差検出部を有する。
【0011】
また、第3の発明は、第2の発明に係る複合現実感画像提示装置において、前記レイヤー画像生成部は、前記視差検出部で検出した視差に基づいて新たな視差をもつレイヤー画像を生成し、前記画像合成部は、このレイヤー画像と前記仮想画像とを合成する。
【0012】
また、第4の発明は、第3の発明に係る複合現実感画像提示装置において、前記画像合成部は、前記現実画像の特定領域についてのみ前記新たな視差を持つレイヤー画像を用い、前記特定領域以外の領域については前記視差検出部で検出した視差を持つレイヤー画像を用いて前記仮想画像との合成を行う。
【0013】
また、第5の発明は、第3の発明に係る複合現実感画像提示装置において、前記新たな視差を持つレイヤー画像を生成するにあたって、当該視差の量を制限する視差制限手段をさらに具備する。
【0014】
また、第6の発明は、第1または第3の発明に係る複合現実感画像提示装置において、観察者の視点位置を検出する視点位置検出部と、観察者の視点姿勢を検出する視点姿勢検出部をさらに具備し、前記レイヤー画像生成部は、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢と、外部からの指示に基づいて、前記レイヤー画像を生成するタイミング、前記レイヤー画像の範囲、配置、コントラスト及び色調を含む条件を決定する。
【0015】
また、第7の発明は、第6の発明に係る複合現実感画像提示装置において、緊急事態が発生した場合、または、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢とが所定の制御範囲を超えた場合に、前記画像合成部は、前記レイヤー画像と前記現実画像との合成処理を中止し、前記現実画像のみを前記画像提示部に送る。
【0016】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態を詳細に説明する。図1は、本発明の一実施形態に係る複合現実感画像提示装置の機能ブロック図である。図1において、現実画像取込部(R)11及び(L)13は、現実空間10における被写体を撮像して現実画像を取り込む部分であり、撮像素子としてのCCDカメラと、このCCDカメラにより撮像して得られた撮像画像データに所定の信号処理を施す信号処理部と、信号処理がなされた撮像画像データを記憶するメモリとを含む。現実画像取込部(R)11は、観察者の右目に提示するための撮像画像データを取得する部分である。現実画像取込部(L)13は、観察者の左目に提示するための撮像画像データを取得する部分である。
【0017】
視差検出部12は、現実画像取込部(R)11からの撮影画像データと、現実画像取込部(L)13からの撮影画像データとに基づいて撮影者の左右の目に関する視差を検出する部分である。また、本発明の特徴となるレイヤー生成部14は、現実画像取込部(R)11からの撮影画像データと、現実画像取込部(L)13からの撮影画像データとに基づいて複数のレイヤー画像(画像層)を生成する。レイヤー画像の具体例については後述する。
【0018】
視点位置検出部18は、観察者の視点位置を検出する部分である。視点姿勢検出部19は、観察者の視点姿勢を検出する部分である。ウェブ端末20は、インターネットから所望の仮想画像データを取得する部分である。仮想画像記憶部21は、仮想画像データを記憶する部分であり、例えばPC(パーソナルコンピュータ)のもつハードディスクにより実現される。仮想画像の具体例については後述する。
【0019】
仮想画像生成部17は、仮想画像記憶部21に記憶されている仮想画像かあるいはウェブ端末20からの仮想画像データと、視点位置検出部18からの視点位置データと、視点姿勢検出部19からの視点姿勢データとに基づいて仮想空間における仮想画像データを生成する部分である。画像合成部15は、レイヤ−生成部14からのレイヤー画像と、仮想画像生成部17からの仮想画像データとに基づいて合成画像を生成する。画像提示部としての複合現実感画像表示部(R)22−1、(L)22−2は、画像合成部15からの合成画像を複合現実感画像として、観察者25の左右の目に提示する。視差制限手段としての視差リミッター16は、現実画像のレイヤー画像から任意の新しい視差をもつレイヤー画像を生成するにあたって視差の量を制限する手段である。コントローラ24は、上記した各部に対してその動作についての種々の指示を与える部分である。
【0020】
なお、レイヤー生成部14は、視差検出部12で検出した視差に基づいて新たな視差をもつレイヤー画像を生成することができる。そして画像合成部15は、現実画像の特定領域についてのみ前記新たな視差をもつレイヤー画像を用い、前記特定領域以外の領域については視差検出部12で検出した視差を持つレイヤー画像を用いて仮想画像との合成を行うことが考えられる。
【0021】
また、レイヤー生成部14は、視点位置検出部18で検出された視点位置と、視点姿勢検出部19で検出された視点姿勢と、外部のコントローラ24からの指示に基づいて、レイヤー画像を生成するタイミング、レイヤー画像の範囲、配置、コントラスト及び色調を含む条件を決定することが考えられる。
【0022】
図2は、本実施形態の複合現実感画像提示装置を具体的なシステム構成に適用した一例を示す図である。ここでは、図1の現実画像取込部(R)11,(L)13はそれぞれCCDカメラ(R)111−1,(L)111−2として実現される。視点位置検出部18はGPS(Global Positioning System)118として実現される。視点姿勢検出部19はHMS(Head Motion Sensor)119として実現される。複合現実感画像表示部(R)22−1,(L)22−2は、例えばビデオシースルー方式のHMD(Head Mounted Display)122として実現される。コントローラ24は観察者により操作可能な操作手段であるコントローラ124により実現される。
【0023】
また、図1の仮想画像記憶部21は、コントローラ124に接続されたPC150内のハードディスクにより実現されるが、ウェブ端末20によりインターネットから無線回線等を介して入手することもできる。
【0024】
観察者は、コントローラ124を操作して、仮想画像データをウェブ端末20または仮想画像記憶部21から引き出したり、複数のレイヤー画像から特定のレイヤー画像を選択することができる。
【0025】
なお、上記したGPS118及びコントローラ124の機能をPC150により実現することも可能である。
【0026】
図3は、本実施形態に係る複合現実感画像提示装置の作用を説明するためのフローチャートである。まず仮想画像データを仮想画像記憶部21からかあるいはウェブ端末20から引き出すのかをコントローラ24からの指示に基づいて決定する(ステップS1)。次に、視点位置検出部18(GPS118)で検出された、観察者の視点位置データを仮想画像生成部17に転送する(ステップS2)。次に、視点姿勢検出部19(HMS119)で検出された観察者の視点姿勢データを仮想画像生成部17に転送する(ステップS3)。
【0027】
次に、仮想画像生成部17において、視点位置、姿勢位置及びコントローラ24からの指示に基づいて仮想画像を生成する(ステップS4)。コントローラ24からの指示の具体例については後述する。次に、現実画像データを現実画像取込部(R)11、(L)13から視差検出部12に転送して視差を検出する(ステップS5)。次に、レイヤー生成部14において、現実画像取込部(R)11、(L)13から送られてきた現実画像データと、視差検出部12からの視差情報に基づいて所定のレイヤー画像を生成する(ステップS6)。具体的には、予め記憶された現実画像データを読み出して既知の画像処理を施すことにより複数種類のレイヤー画像を生成する。レイヤー画像の具体例については後述する。
【0028】
次に、現実画像データから生成された複数のレイヤー画像から目的に応じて選択されたレイヤー画像と、仮想画像生成部17で生成された仮想画像データとを画像合成部15に転送して合成、重畳に係る処理を行い、合成画像を生成する(ステップS7)。
【0029】
次に、生成した合成画像を複合現実感画像表示部(R)22−1,(L)22−2に転送して表示し(ステップS8)、観察者25の左右の目に提示する。次に、画面表示を継続するかどうかをコントローラ124からの指示に従って判断し(ステップS9)、画面表示を継続する場合にはステップS1に戻って上記の処理を反復し、ステップS9で画面表示を終了すると判断されたときに処理を終了する。
【0030】
図4は、本実施形態に係る複合現実感画像提示装置の他の作用を説明するためのフローチャートである。ここでは画像表示を行っているときに何らかの緊急事態が発生した場合を想定して説明する。
【0031】
まず仮想画像データを仮想画像記憶部21からかあるいはウェブ端末20から引き出すのかをコントローラ24からの指示に基づいて決定する(ステップS20)。次に、コントローラ24からの緊急を知らせる指示があったかどうかを判断し(ステップS21)、緊急の指示であった場合には、緊急事態であることを観察者に認識させるために現実画像のみを表示(ステップS31)するとともに、所定の警告を重畳表示して(ステップS32)処理を終了する。
【0032】
また、ステップS21で緊急の指示ではないと判断された場合には、次に、視点位置検出部18(GPS118)で検出された、観察者の視点位置データを仮想画像生成部17に転送する(ステップS22)。次に、視点姿勢検出部19(HMS119)で検出された観察者の視点姿勢データを仮想画像生成部17に転送する(ステップS23)。
【0033】
次に、観察者の視点位置データと視点姿勢データとに基づいて、コントローラ24により制御可能な範囲を超えたかどうかを判断し(ステップS24)、超えた場合には上記したステップS31、S32を実行して処理を終了する。
【0034】
また、ステップS24において、制御可能な範囲を超えていないと判断された場合には、次に、仮想画像生成部17において、視点位置、姿勢位置及びコントローラ24からの指示に基づいて仮想画像を生成する(ステップS25)。次に、現実画像データを現実画像取込部(R)11、(L)13から視差検出部12に転送して視差を検出する(ステップS26)。次に、レイヤー生成部14において、現実画像取込部(R)11、(L)13から送られてきた現実画像データと、視差検出部12からの視差情報に基づいて所定のレイヤー画像を生成する(ステップS27)。具体的には、予め記憶された現実画像データを読み出して既知の画像処理を施すことにより複数種類のレイヤー画像を生成する。レイヤー画像の具体例については後述する。
【0035】
次に、現実画像データから生成された複数のレイヤー画像から目的に応じて選択されたレイヤー画像と、仮想画像生成部17で生成された仮想画像データとを画像合成部15に転送して合成、重畳に係る処理を行い、合成画像を生成する(ステップS28)。次に、生成した合成画像を複合現実感画像表示部(R)22−1,(L)22−2に転送して表示し(ステップS29)、観察者25の左右の目に提示する。次に、画面表示を継続するかどうかをコントローラ124からの指示に従って判断し(ステップS30)、画面表示を継続する場合にはステップS20に戻って上記の処理を反復し、ステップS30で画面表示を終了すると判断された場合には処理を終了する。
【0036】
図5は、レイヤー生成部14におけるレイヤー画像生成の具体例を説明するための図であり、ステージ300上で人物A,Bがショーを行っており、観客301がこれを見ている状況を示している。図5において、Cで示す部分以外の部分の画像を現実画像取込部(R)11、(L)13から取り込まれた現実画像302とする。従来は、この現実画像302に対して何ら処理を行うことなしに人物Cを表す仮想画像303と合成していたが、本発明に係るレイヤー生成部14は、検出した視点位置、姿勢位置及びコントローラ24からの指示に基づいて、例えば以下のレイヤー画像を生成することができる。コントローラ24からの指示の具体例としては、コントローラ24が特定の音声を検出したり、または現実画像に挿入された特定のランドマーク(目印)や画像を検出した場合にレイヤー画像生成の指示を出すことなどが挙げられる。生成されるレイヤー画像が以下のものに限定されないことは勿論である。
【0037】
1. 図5に示す現実画像302からBの部分を消去したレイヤー画像
2. 図5に示す現実画像302において、Bの部分にスポットライトを当てた効果を出したレイヤー画像
3. 図5に示す現実画像302において、Bの部分について立体感を強調したレイヤー画像
レイヤー生成部14は、これらのレイヤー画像から選択した任意のレイヤー画像と、仮想画像303とを合成した画像を生成して観察者の目に提示することにより、観察者に対して高臨場感を感じさせることができる。また、状況に応じたレイヤー画像を仮想画像と合成することにより、種々のアトラクション及びステージ300でのショー等の舞台照明、舞台装置等に関して省スペース、低価格、製作日数の短縮を実現することができ、より情報量の多い複合現実感画像を提供することができる。
【0038】
図6は、本発明をテーマパークでのアトラクションに適用した具体例を示している。ジェットコースター402に乗っている観察者401は本発明による複合現実感画像提示装置400を着用することにより種々のアトラクションを楽しむことができる。
【0039】
図7(A)、(B)は、本発明を都市計画シミュレーションに適用した具体例を示している。ここでは、現実画像取込部(R)11、(L)13から取り込まれた画像を現実画像500とする。この現実画像500はある都市の通りを示しているが、このような現実画像500のAで示す部分に、図7(B)に示すような建造物を建設することが予定されている場合を考える。この場合、従来は、予め生成された仮想画像501を図7(A)のAで示す部分に挿入することで建設後の状況を把握していたが、本発明では現実画像500をそのまま合成するのでなく、現実画像500に基づいて次のようなレイヤー画像を生成し、仮想画像501と合成して提示することにより、観察者に高臨場感を感じさせることを意図している。
【0040】
1.現実画像500のAで示す部分(仮想画像501が挿入される部分)のみ、色調やコントラストを変更したレイヤー画像または白黒にしたレイヤー画像を生成する。これを、建設が予定されている建造物である仮想画像501と合成、表示して観察者に提示すれば、観察者は現在の町並みと建設後の町並みとの相異を確認することができる。
【0041】
2.現実画像500から、昼間の明るさ、夜の情景のレイヤー画像を生成し、これと仮想画像501とを合成、表示して観察者に提示すれば、観察者は町並みの雰囲気が昼間と夜間とでどのように相異するかを確認することができる。
【0042】
【発明の効果】
本発明によれば、観察者に高臨場感を感じさせることができる複合現実感画像提示装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態に係る複合現実感画像提示装置の機能ブロック図である。
【図2】本実施形態の複合現実感画像提示装置を具体的なシステム構成に適用した一例を示す図である。
【図3】本実施形態に係る複合現実感画像提示装置の作用を説明するためのフローチャートである。
【図4】本実施形態に係る複合現実感画像提示装置の他の作用を説明するためのフローチャートである。
【図5】レイヤー生成部14におけるレイヤー画像生成の具体例を説明するための図である。
【図6】本発明をテーマパークでのアトラクションに適用した具体例を示す図である。
【図7】本発明を都市計画シミュレーションに適用した具体例を示す図である。
【符号の説明】
10…現実空間、11…現実画像取込部(R)、12…視差検出部、13…現実画像取込部(L)、14…レイヤー生成部、15…画像合成部、16…視差リミッター、17…仮想画像生成部、18…視点位置検出部、19…視点姿勢検出部、20…ウェブ端末、21…仮想画像記憶部、22−1…複合現実感画像表示部(R)、22−2…複合現実感画像表示部(L)、24…コントローラ、25…観察者。
Claims (7)
- 現実画像と、仮想画像とを合成して観察者に複合現実感画像を提示する複合現実感画像提示装置であって、
現実画像を取り込むための現実画像取込部と、
前記現実画像取込部により取り込んだ現実画像に基づいてレイヤー画像を生成するレイヤー画像生成部と、
前記レイヤー画像生成部で生成されたレイヤー画像と、前記仮想画像とを合成して合成画像を生成する画像合成部と、
前記画像合成部で生成された合成画像を複合現実感画像として観察者に提示する画像提示部と、を具備することを複合現実感画像提示装置。 - 前記現実画像取込部は複数であり、それぞれの現実画像取込部で取り込んだ現実画像に基づいて視差を検出する視差検出部を有することを特徴とする請求項1記載の複合現実感画像提示装置。
- 前記レイヤー画像生成部は、前記視差検出部で検出した視差に基づいて新たな視差をもつレイヤー画像を生成し、前記画像合成部は、このレイヤー画像と前記仮想画像とを合成することを特徴とする請求項2記載の複合現実感画像提示装置。
- 前記画像合成部は、前記現実画像の特定領域についてのみ前記新たな視差を持つレイヤー画像を用い、前記特定領域以外の領域については前記視差検出部で検出した視差を持つレイヤー画像を用いて前記仮想画像との合成を行うことを特徴とする請求項3記載の複合現実感画像提示装置。
- 前記新たな視差を持つレイヤー画像を生成するにあたって、当該視差の量を制限する視差制限手段をさらに具備することを特徴とする請求項3記載の複合現実感画像提示装置。
- 観察者の視点位置を検出する視点位置検出部と、観察者の視点姿勢を検出する視点姿勢検出部をさらに具備し、前記レイヤー画像生成部は、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢と、外部からの指示に基づいて、前記レイヤー画像を生成するタイミング、前記レイヤー画像の範囲、配置、コントラスト及び色調を含む条件を決定することを特徴とする請求項1または3記載の複合現実感画像提示装置。
- 緊急事態が発生した場合、または、前記視点位置検出部で検出された視点位置と、前記視点姿勢検出部で検出された視点姿勢とが所定の制御範囲を超えた場合に、前記画像合成部は、前記レイヤー画像と前記現実画像との合成処理を中止し、前記現実画像のみを前記画像提示部に送ることを特徴とする請求項6記載の複合現実感画像提示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003079759A JP2004287902A (ja) | 2003-03-24 | 2003-03-24 | 複合現実感画像提示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003079759A JP2004287902A (ja) | 2003-03-24 | 2003-03-24 | 複合現実感画像提示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004287902A true JP2004287902A (ja) | 2004-10-14 |
Family
ID=33293794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003079759A Withdrawn JP2004287902A (ja) | 2003-03-24 | 2003-03-24 | 複合現実感画像提示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004287902A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006301924A (ja) * | 2005-04-20 | 2006-11-02 | Canon Inc | 画像処理方法および画像処理装置 |
JP2007280046A (ja) * | 2006-04-06 | 2007-10-25 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
KR100914848B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 혼합현실 시스템 및 그 구현 방법 |
JP2012094154A (ja) * | 2011-11-07 | 2012-05-17 | Nintendo Co Ltd | 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法 |
KR101187843B1 (ko) | 2010-10-01 | 2012-10-05 | 한국철도기술연구원 | 증강현실을 이용한 열차유지보수 교육시스템 |
JP2014112887A (ja) * | 2014-01-07 | 2014-06-19 | Canon Inc | 頭部装着型表示装置、仮想画像生成装置およびそれらを有するシステム、並びに制御方法 |
US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
US8952956B2 (en) | 2010-12-16 | 2015-02-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
-
2003
- 2003-03-24 JP JP2003079759A patent/JP2004287902A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006301924A (ja) * | 2005-04-20 | 2006-11-02 | Canon Inc | 画像処理方法および画像処理装置 |
JP4642538B2 (ja) * | 2005-04-20 | 2011-03-02 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
JP2007280046A (ja) * | 2006-04-06 | 2007-10-25 | Canon Inc | 画像処理装置及びその制御方法、プログラム |
KR100914848B1 (ko) * | 2007-12-15 | 2009-09-02 | 한국전자통신연구원 | 혼합현실 시스템 및 그 구현 방법 |
US9128293B2 (en) | 2010-01-14 | 2015-09-08 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US8894486B2 (en) | 2010-01-14 | 2014-11-25 | Nintendo Co., Ltd. | Handheld information processing apparatus and handheld game apparatus |
US9696555B2 (en) | 2010-01-14 | 2017-07-04 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US10506218B2 (en) | 2010-03-12 | 2019-12-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US10764565B2 (en) | 2010-03-12 | 2020-09-01 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
US9282319B2 (en) | 2010-06-02 | 2016-03-08 | Nintendo Co., Ltd. | Image display system, image display apparatus, and image display method |
KR101187843B1 (ko) | 2010-10-01 | 2012-10-05 | 한국철도기술연구원 | 증강현실을 이용한 열차유지보수 교육시스템 |
US8952956B2 (en) | 2010-12-16 | 2015-02-10 | Nintendo Co., Ltd. | Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method |
JP2012094154A (ja) * | 2011-11-07 | 2012-05-17 | Nintendo Co Ltd | 表示制御プログラム、表示制御装置、表示制御システム、及び、表示制御方法 |
JP2014112887A (ja) * | 2014-01-07 | 2014-06-19 | Canon Inc | 頭部装着型表示装置、仮想画像生成装置およびそれらを有するシステム、並びに制御方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10686985B2 (en) | Moving picture reproducing device, moving picture reproducing method, moving picture reproducing program, moving picture reproducing system, and moving picture transmission device | |
JP6732716B2 (ja) | 画像生成装置、画像生成システム、画像生成方法、およびプログラム | |
WO2012029576A1 (ja) | 複合現実感表示システム、画像提供サーバ、表示装置及び表示プログラム | |
JP2003264740A (ja) | 展望鏡 | |
JP2020086983A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2004287902A (ja) | 複合現実感画像提示装置 | |
JP2013183249A (ja) | 動画提示装置 | |
JP2017208676A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
WO2020084951A1 (ja) | 画像処理装置および画像処理方法 | |
JP7476375B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2014096661A (ja) | 動画撮影中において動画中の動体オブジェクトをリアルタイムに隠消するための方法、並びに、その動画撮影機器及び当該動画撮影機器のためのプログラム | |
WO2018220856A1 (ja) | ストリートビューワーシステム | |
JP3724117B2 (ja) | 画像生成装置および画像生成方法 | |
JP2007004427A (ja) | 画像表示システムおよび画像表示装置ならびにプログラム | |
WO2020059327A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JPWO2020129115A1 (ja) | 情報処理システム、情報処理方法およびコンピュータプログラム | |
WO2013041152A1 (en) | Methods to command a haptic renderer from real motion data | |
JP2017208808A (ja) | 仮想空間を提供する方法、プログラム及び記録媒体 | |
JP2004355131A (ja) | 複合現実感映像生成方法及び複合現実感画像生成装置 | |
WO2019073925A1 (ja) | 画像生成装置および画像生成方法 | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
JP2000270261A (ja) | 撮像装置及び画像合成方法並びに記録媒体 | |
EP4007261A1 (en) | Image processing device, image processing method, and program | |
JP7296735B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR101315398B1 (ko) | 3차원 증강 현실 표시 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060606 |