JP2012053629A - 画像生成装置、画像生成方法、及びプログラム - Google Patents

画像生成装置、画像生成方法、及びプログラム Download PDF

Info

Publication number
JP2012053629A
JP2012053629A JP2010195071A JP2010195071A JP2012053629A JP 2012053629 A JP2012053629 A JP 2012053629A JP 2010195071 A JP2010195071 A JP 2010195071A JP 2010195071 A JP2010195071 A JP 2010195071A JP 2012053629 A JP2012053629 A JP 2012053629A
Authority
JP
Japan
Prior art keywords
image
display
unit
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010195071A
Other languages
English (en)
Other versions
JP2012053629A5 (ja
JP5676982B2 (ja
Inventor
Naohito Nakamura
直仁 中村
Takashi Aso
隆 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010195071A priority Critical patent/JP5676982B2/ja
Publication of JP2012053629A publication Critical patent/JP2012053629A/ja
Publication of JP2012053629A5 publication Critical patent/JP2012053629A5/ja
Application granted granted Critical
Publication of JP5676982B2 publication Critical patent/JP5676982B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】観察者の周囲に存在する情報に従って、表示装置への画像表示を制御する。
【解決手段】ユーザの認証結果と、撮像装置から得られる撮像画像中に存在する所定のパターンと、の組み合わせ毎に、対応する表示内容を規定する。ユーザから取得した情報に従ってユーザを認証する。撮像装置から出力される撮像画像を参照し、撮像画像から所定のパターンを検出する。ユーザの認証結果と、撮像画像から検出されたパターンと、の組み合わせに対応する表示内容に従って、表示画像を生成する。表示画像を、表示装置に対して出力する。
【選択図】図1

Description

本発明は、表示装置に対する画像表示を制御する技術に関する。
画像を表示する装置において、ユーザの属性に応じて異なる画像を表示する技術が従来から存在する。例えば特許文献1には、観察者とは異なる身長を持つ人の視界を再現する技術が提案されている。特許文献1に記載の技術を用いると、大人に対して子供の視界を提示することができる。また特許文献2には、観察者の生体情報を用いて認証を行い、認証が確立したときにのみ、機密データをディスプレイに表示する技術が提案されている。また特許文献3には、観察者の属性と表示デバイスの種類とに応じて、機密データの表示を制御する技術が提案されている。
特許3408263号公報 特開2003−167855号公報 特開2008−299760号公報 特登録03942759号公報 特開2008−079013号公報
R.M.Haralick,C.Lee,K.Ottenberg,and M.Nolle:Review and analysis of solutions of the three point perspective pose estimation problem, International Journal of Computer Vision,vol.13,no.3,pp.331−356,1994. D.G.Lowe:Fitting parameterized three−dimensional models to images, IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991.
上述の従来技術によれば、観察者の識別情報を用いて、表示が制御される。したがって、例えば観察者が認証された時にのみ機密情報を提示する場合、観察者がどのような状況にあっても、機密情報が提示され得る。例えば機密情報を閲覧可能な区域が限定されている場合に、その区域外であっても、表示装置には機密情報が表示され得た。
本発明は、観察者の周囲に存在する情報に従って、表示装置への画像表示を制御することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像生成装置は以下の構成を備える。すなわち、
現実空間を撮像して撮像画像を出力する撮像装置と、ユーザに対して画像を表示する表示装置と、に接続されている画像生成装置であって、
ユーザの認証結果と、前記撮像装置から得られる撮像画像中に存在する所定のパターンと、の組み合わせ毎に、対応する表示内容を規定する規定手段と、
前記ユーザから取得した情報に従って前記ユーザを認証する認証手段と、
前記撮像装置から出力される撮像画像を参照し、該撮像画像から前記所定のパターンを検出する検出手段と、
前記ユーザの認証結果と、前記撮像画像から検出されたパターンと、の組み合わせに対応する、前記規定手段が規定する表示内容に従って、表示画像を生成する生成手段と、
前記表示画像を、前記表示装置に対して出力する出力手段と
を備えることを特徴とする。
観察者の周囲に存在する情報に従って、表示装置への画像表示を制御することができる。
実施例1に係る画像生成装置100の一例を示すブロック図。 実施例12に係るコンピュータ2000の一例を示すブロック図。 実施例1に係る処理の一例を示すフローチャート。 実施例1に係る表示画像の例を示す図。 実施例2に係る表示画像の例を示す図。 実施例3に係る画像生成装置600の一例を示すブロック図。 実施例3に係る処理の一例を示すフローチャート。 実施例4に係る画像生成装置800の一例を示すブロック図。 実施例4に係る処理の一例を示すフローチャート。 実施例8に係る画像生成装置1300の一例を示すブロック図。 実施例6に係る処理の一例を示すフローチャート。 実施例6に係る表示画像の例を示す図。
以下、添付図面を参照し、本発明の好適な実施例について詳細に説明する。
図1は、実施例1に係る画像生成装置100の構成例を示すブロック図である。以下、画像生成装置100が備える各部について説明する。頭部装着型表示装置(ヘッド・マウント・ディスプレイ、HMD)1000は、ユーザの頭部に装着可能な表示装置である。HMD1000は、表示部1010、撮像部1020、及び識別情報取得部1030を備える。
表示部1010は、画像生成部1070から送出された画像を表示する。HMDを装着したユーザは、表示部1010を介して画像を見ることができる。例えば表示部1010は、液晶画面を備えてもよい。HMD1000は、右目用の表示部1010と、左目用の表示部1010とを有しうる。それぞれの表示部1010は、HMD1000を装着したユーザの右目又は左目の眼前に位置するように、HMD1000に取り付けられる。
撮像部1020は、現実空間の画像を撮像する。撮像部1020は、撮像した画像(現実空間画像)を画像入力部1090に対して送出する。撮像部1020は、動画像を撮影する構成を有することが望ましい。この場合撮像部1020は、動画像を構成する各フレームの画像を順次画像入力部1090に対して送出する。
以下の説明において、現実空間には、紙媒体1500が配置されているものとする。撮像部1020は、この紙媒体1500の画像を撮像することができる。この紙媒体1500には、所定のパターンが人工的に付与されている。本実施例においては、この所定のパターンは電子透かしである。すなわち、撮像部1020が撮像した紙媒体1500の画像からは、電子透かし情報が抽出されうる。紙媒体1500に電子透かし情報を人工的に付与することは、例えば特許文献4や特許文献5に示されているような、周知技術に従って行うことができる。したがって、電子透かし技術についての詳細な説明は、本明細書においては省略する。
以下の説明では、現実空間には電子透かし情報が付与された紙媒体1500が配置されているものとするが、電子透かし情報が付与された他の物体が配置されていてもよい。また、物体に対して、電子透かしとは別の技術を用いて情報を付与してもよい。例えば、撮像画像から情報を抽出しうるように、物体に対して情報を付与することができる。物体に対して情報を付与するためには、二次元バーコード技術が用いられてもよい。また、物体上に文字列が表示されていてもよい。
本実施例において画像生成装置100はHMD1000を備えるものとするが、画像生成装置100とHMD1000とは別の装置であってもよい。すなわちこの場合、画像生成装置100は、現実空間を撮像して撮像画像を順次出力する撮像部1020(撮像装置)と、ユーザに対して画像を表示する表示部1010(表示装置)とに接続される。この場合、画像生成装置100(特に画像生成部1070、データ管理部1080、及び画像入力部1090)と、HMD1000とは、通信チャネルを介してデータを交換することができる。
識別情報取得部1030は、HMDのユーザを識別する識別情報を取得する。本実施例において識別情報取得部1030は、識別情報として、ユーザの虹彩情報を取得する。例えば識別情報取得部1030は、虹彩情報として、ユーザの虹彩画像を取得する。識別情報取得部1030は、取得した虹彩情報を、データ管理部1080に対して送出する。
本実施例においては虹彩情報をユーザの識別情報として利用するが、識別情報は虹彩情報には限られない。例えば、虹彩情報以外の生体情報を、ユーザの識別情報として用いてもよい。例えば、ユーザの生体情報である、網膜パターン、静脈パターン、及び指紋パターンなどを用いることができる。また、識別情報は生体情報には限られない。例えば、ユーザID及びパスワードをユーザの識別情報としてもよい。また、IDカードなどによる認証技術を用いて、ユーザの識別情報を取得することもできる。例えば短距離無線通信技術を用いて、ICカードなどのユーザが有する鍵から、ユーザの識別情報を取得してもよい。
画像入力部1090は、撮像部1020から送出された現実空間画像を取得する。情報認識部1040は、撮像部1020で撮像された撮像画像から所定のパターンを検出する(検出手段)。この所定のパターンは、予め定められているものとする。本実施例においては情報認識部1040は、撮像画像中の電子透かし情報を検出し抽出する。情報認識部1040が抽出した透かし情報は、予め保持されている情報と照合される。抽出した電子透かし情報と予め保持されている情報とが一致する場合、情報認識部1040は所定のパターンを検出できたことになる。
本実施例においては撮像画像中の全領域に対して電子透かし情報の抽出処理が行われる。しかしながら、予め電子透かし情報が配置されている領域が特定されていれば、特定された領域に対して抽出処理を行うこともできる。例えば、周知の位置計測技術を用いて紙媒体1500と撮像部1020との位置を測定することができる。この場合、撮像画像中において紙媒体が占める領域を算出することができる。情報認識部1040は、パターンの検出結果を、データ管理部1080へと出力しうる。情報認識部1040が所定のパターンを検出できない場合には、情報認識部1040は、パターンが検出されなかったことを示す情報を、データ管理部1080へと出力しうる。
本実施例においては情報認識部1040は、抽出した電子透かし情報と予め保持されている情報とが一致するか否かを示す情報を、データ管理部1080に出力しうる。本実施例において情報認識部1040は、抽出した電子透かし情報と予め保持されている情報とが一致する場合に、表示部1010への画像表示が認証されたものと判定する。また、抽出した電子透かし情報と予め保持されている情報とが一致しない場合には、情報認識部1040は、表示部1010への画像表示が認証されていないものと判定する。この予め保持されている情報は、例えばデータ管理部1080に保持されていてもよい。電子透かしを抽出する技術は、電子透かしを付与する技術と同様、周知技術に従って行うことができる。
個人属性認識部1050は、識別情報取得部1030が取得した識別情報を用いて、画像生成装置100のユーザの属性を認識する(認証手段)。例えば個人属性認識部1050は、虹彩情報とユーザとが対応付けられたデータベースを参照することにより、虹彩情報に対応するユーザの属性を取得することができる。このユーザの属性は例えば、ユーザが認証されたユーザであるか、又は認証されていないユーザであるかを示すことができる。また個人属性認識部1050は、識別情報を用いて、ユーザが予め定められたグループのうちの1つに該当することを認証することができる。この場合、このユーザの属性は、ユーザがどのグループに含まれるかを示すことができる。
このデータベースは、例えばデータ管理部1080に存在してもよい。個人属性認識部1050は、認識されたユーザの属性を、データ管理部1080へと出力する。虹彩情報からユーザの属性を認識する技術は周知技術であるので、この技術についての詳細な説明は省略する。
表示制御部1060は、情報認識部1040が抽出した情報と、個人属性認識部1050が認識したユーザの属性とに従って、表示部1010への出力を制御する制御情報を生成する。本実施例においては、ユーザの認証結果、すなわち個人属性認識部1050が決定したユーザの属性と、情報認識部1040が検出するパターンと、の組み合わせ毎に、対応する表示内容が規定されている。この表示内容は予め定められており、例えばデータ管理部1080で管理されうる(規定手段)。そして表示制御部は、ユーザの認証結果と、情報認識部1040が検出したパターンとの組み合わせに対応する表示内容に従って、画像生成部1070を制御する制御情報を生成する。表示制御部1060の詳しい処理については後述する。表示制御部1060は、生成した制御情報をデータ管理部1080へと出力する。
画像生成部1070は、表示制御部1060が生成した制御情報に従って、表示部1010に表示する画像を生成する(生成手段)。画像生成部1070が生成する画像は、例えば予め保持しているテキスト情報、仮想物体画像、などを含みうる。また画像生成部1070は、紙媒体1500と関連するテキスト情報又は仮想物体画像を含みうる。そして、画像生成部1070は、生成した画像を表示部1010に対して送出する(出力手段)。
データ管理部1080は、上述したように、様々な情報を格納することができる。また、上述した各部の動作を制御することもできる。データ管理部1080は、データ管理部1080が保持するものとして本実施例で説明される情報に加えて、既知の情報として本実施例で説明される情報をも格納しているものとする。データ管理部1080はこれらの情報を、画像生成装置100から分離された外部装置、例えばサーバ、に格納してもよい。この場合データ管理部1080は、外部装置と通信することにより、上述の情報を取得することができる。
次に図3を参照して、本実施例に係る画像生成装置100が行う処理を説明する。ステップS3010で画像入力部1090は、撮像部1020から送出された現実空間画像(撮像画像)を取得(キャプチャ)する。ステップS3020で識別情報取得部1030は、ユーザの識別情報として虹彩情報を取得する。ステップS3030で情報認識部1040は、ステップS3010で取得された現実空間画像から情報を抽出する。本実施例においては、現実空間中に配置された紙媒体1500に付与されている、電子透かし情報が抽出される。そして情報認識部1040は、抽出された電子透かし情報と、予め保持されている情報とを照合する。照合結果は、データ管理部1080へと出力される。
ステップS3040で個人属性認識部1050は、ステップS3020で取得された虹彩情報を用いて、データベースから画像生成装置100のユーザの属性を取得する。ステップS3050で表示制御部1060は、ステップS3030で得られた照合結果と、ステップS3040で得られたユーザの属性とを用いて、表示部1010へと出力する表示内容を決定する。表示制御部1060が行う具体的な処理については後述する。そして表示制御部1060は、画像生成部1070に対して制御情報を送ることにより、決定された表示内容に従う画像を画像生成部1070に生成させる。
ステップS3060で画像生成部1070は、ステップS3050で表示制御部1060から受け取った制御情報に従い、表示部1010に表示させる画像を生成する。そして画像生成部1070は、生成された画像を表示部1010へと送信する。ステップS3070で表示部1010は、ステップS3060で生成された画像を表示する。
ステップS3080でデータ管理部1080は、画像表示処理を終了するか否かを判定する。画像表示処理を終了する場合、図3に示される処理は終了する。画像表示処理を終了しない場合、処理はステップS3060へと戻る。データ管理部1080は、画像表示処理を終了する指示が入力された場合に、画像表示処理を終了することができる。たとえば、画像表示を消すユーザ指示を、例えば非図示の入力装置を介して受け取った場合に、データ管理部1080は画像表示処理を終了させることができる。このように、一度ユーザが認証され、所定のパターンが検知されると、再び認証及び検知を行うことなく、画像生成及び画像表示が続けられうる。
一方で、データ管理部1080は、画像表示処理を終了する条件が満たされた場合に、画像表示処理を終了することができる。例えば、撮像部1020によって現実空間画像Aが撮像され、現実空間画像Aから透かし情報Aが抽出されて、この透かし情報BがステップS3050における表示内容決定処理で用いられたものと仮定する。この場合、現実空間画像Aが撮像された時より後の時点で撮像された現実空間画像Bからは、透かし情報Aは抽出されないかもしれない。
したがって、現実空間が撮像された時から所定時間が経過した後は、ステップS3010〜ステップS3050の処理を繰り返すことが望ましい。こうして、例えば上述の現実空間画像Bに対して透かし情報の抽出処理を行い、抽出された情報に従って表示部1010の表示を制御することが可能となる。そこで、ステップS3010で現実空間画像が撮像されてから所定の時間が経過した場合に、データ管理部1080は画像表示処理を終了してもよい。図3の処理が終了した後には、再びステップS3010からの処理が繰り返されてもよい。
また、既知の技術を用いてHMD1000の位置を測定できる場合もある。この場合、ステップS3010で現実空間画像が撮像された際のHMD1000の位置と、ステップS3080におけるHMD1000の位置とが所定の距離よりも離れている場合、データ管理部1080は画像表示処理を終了してもよい。
図4は、表示制御部1060の制御に従って、画像生成部1070が生成する画像を示す。図4を参照して、表示制御部1060がステップS3050で行う具体的な処理を説明する。本実施例において個人属性認識部1050は、上述のように、ユーザが認証されているか認証されていないかを示すユーザの属性を、表示制御部1060に知らせることができる。また情報認識部1040は、上述のように、電子透かし情報の認識結果に従って、表示部1010への画像表示が認証されているか否かを判定することができる。そして情報認識部1040は、表示部1010への画像表示が認証されているか否か(認証OKか認証NGか)を示す情報を、表示制御部1060に知らせることができる。
表示制御部1060は、上述の情報に従って、画像4010、画像4020、画像4030、画像4040の何れかを画像生成部1070に生成させる。画像4010〜4040は、予め決定されていてもよいし、動的に生成されてもよい。図4で示されるように、電子透かし情報の認識結果が「認証OK」であり、かつ、ユーザの属性が「認証されたユーザ」である場合には、表示制御部1060は画像生成部1070に画像4010を生成させる。画像4010は、仮想物体画像とテキスト情報との少なくとも一方を含みうる。画像4010は表示部1010に出力され、ユーザが観察することができる。
一方、電子透かし情報の認識結果が「認証OK」であり、ユーザの属性が「認証されていないユーザ」である場合には、表示制御部1060は画像生成部1070に画像4020を生成させる。画像4020は、HMD1000の使用がユーザには許可されていないことを示しうる。また、電子透かし情報の認識結果が「認証NG」であり、ユーザの属性が「認証されているユーザ」である場合には、表示制御部1060は画像生成部1070に画像4030を生成させる。画像4030は、撮像部1020が撮像している現実空間画像に表示を可能とする情報が含まれていないこと、すなわち情報表示が許可されていない事を示しうる。
さらに、電子透かし情報の認識結果が「認証NG」であり、ユーザの属性が「認証されていないユーザ」である場合には、表示制御部1060は画像生成部1070に画像4040を生成させる。画像4040は、HMD1000の使用がユーザには許可されていないこと、及び情報表示が許可されていないことを示しうる。
このように本実施例によれば、ユーザの識別情報と、現実空間に存在する情報と、の双方を用いて、HMDへの表示を制御することができる。例えば、画像表示を可能とする「鍵」となる、電子透かし情報が付与された物体を用いて表示制御を行うことができる。具体的には、その物体が撮像されているときにのみ、画像表示を行うことができる。
本実施例においては、ユーザの属性が「認証されていないユーザ」である場合には、HMD1000の使用がユーザには許可されていないことを示す画像が表示された。また、電子透かし情報の認識結果が「認証NG」である場合には、情報表示が許可されていないことを示す画像が表示された。しかしながら、表示される画像は様々な画像でありうる。例えば、画像4010は機密性の高い情報を含む画像でありうる。また、画像4020、画像4030、及び画像4040は、画像4010から機密性の高い情報を除いた画像でありうる。このように本実施例に係る画像生成装置100は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて画像を選択し、選択された画像を表示することができる。
また、本実施例を利用することにより、電子透かし情報が付与された物体を撮像部1020で撮像している場合にのみ、表示部1010に情報を表示することができる。例えばエンターテイメントの分野において、ユーザが特定の物体を発見した時にのみ情報を表示するような装置を実現することができる。
実施例1では、電子透かし情報の認識結果は「認証OK」と「認証NG」の2つのうちの何れかであった。しかしながら情報認識部1040が生成する認識結果は、より多くの種類から選ばれてもよい。実施例2では、情報認識部1040は、認識結果を「認証OK」、「認証一部OK」「認証NG」のうちから選択する。情報認識部1040は、何らかの理由により、電子透かし情報をその一部しか認証できないかもしれない。また、電子透かし情報が複数の要素から構成されている場合、情報認識部1040は一部の要素しか認証できないかもしれない。このような場合、情報認識部1040は「認証一部OK」という認識結果を選択することができる。
図5は、本実施例において、表示制御部1060の制御に従って、画像生成部1070が生成する画像を示す。図4に示される画像と同一の画像には、同一の参照符号が付されている。実施例1に関して既に説明した画像については、以下では説明を省略する。ユーザの属性が「認証されているユーザ」であり、かつ、電子透かし情報の認識結果が「一部認証OK」である場合、表示制御部1060は画像生成部1070に画像5010を生成させる。
画像5010は、画像4010〜4040とは異なる画像でありうる。本実施例において画像5010に含まれる情報は、画像4010に含まれる情報の一部である。すなわち、画像4010に含まれるテキスト情報「xxxxx」及び「zzzzz」を、画像5010は含んでいない。画像5010は、画像4010に含まれる仮想物体画像の一部を含んでいてもよい。また、画像4010に含まれる仮想物体画像が3次元モデルから生成されている場合、画像5010に含まれる仮想物体画像は、より簡略化された3次元モデルから生成されてもよい。
一方、ユーザの属性が「認証されていないユーザ」であり、電子透かし情報の認識結果が「一部認証OK」である場合、表示制御部1060は画像生成部1070に画像5020を生成させる。画像5020は、HMD1000の使用がユーザには許可されていないことを示しうる。このように本実施例に係る画像生成装置100は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて画像を選択し、選択された画像を表示することができる。
上述の実施例では、画像生成装置100は、ユーザに仮想物体画像及びテキスト情報を表示した。実施例3に係る画像生成装置600は、ユーザに仮想現実空間を提示することができる。具体的には実施例3に係る画像生成装置600は、仮想空間画像をHMD1000に表示させることができる。
具体的には画像生成装置600は、HMD1000の位置姿勢を計測する。さらに画像生成装置600は、計測された位置姿勢に対応する仮想空間画像を生成する。そして画像生成装置600は、生成された仮想空間画像をHMD1000に表示させる。図6には、本実施例に係る画像生成装置600を示す。図1を参照して既に説明された構成には、図1と同一の参照符号が付されている。これらの構成については、説明を省略する。
現実空間の複数の位置には、複数個の指標Q(k=1,…,K)が配置されている。これらの指標が、撮像部1020によって撮影される。それぞれの指標の世界座標系における位置x Qkは、画像生成装置600にとって既知である。この世界座標系は、現実空間の1点を原点とする。そしてこの世界座標系においては、互いに直交する3軸がそれぞれX軸、Y軸、Z軸とされる。
本実施例においては、撮像部1020によって撮像される撮像画像には、少なくとも3個以上の指標Qが含まれていることが望ましい。図6に示される例においては、4個の指標Q,Q,Q,Qが現実空間中に存在する。また、図6に示される例においては、3個の指標Q,Q,Qが、撮像部1020の撮像範囲内に含まれている。それぞれの指標には、指標を互いに識別可能な識別子が付されている。指標と識別子とは一対一の対応を有し、識別子が特定されれば指標を特定することができる。本実施例においては、Q,Q,Q,Qには、識別子として1,2,3,4がそれぞれ付されているものとする。
なお、指標Qとしては、様々なものを用いることができる。画像生成装置600が、撮像画像上における指標Qの座標を検出することができるように、指標Qは構成される。また、画像生成装置600が、撮像画像上において指標Qを他の指標Qから識別できるように、指標Qは構成される。
例えば指標Qは、それぞれが異なる色を有する円形のマーカでありうる。また指標Qは、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点でありうる。さらに指標Qは、四角形の指標でありうる。この四角形の指標は、ある程度の面積を有する四角形の単色領域によって構成されうる。指標Qは、人為的に形状を決められ、人為的に現実空間中に配置されたものでありうる。一方で指標Qは、現実空間中に元来存在する特徴的な要素であってもよい。指標Qとして、人為的に配置された要素と、現実空間中に元来存在する要素との双方を用いることもできる。指標検出部6010は、指標の特徴(上述の例では、色又はテクスチャ特徴)と、識別子とを対応付けるデータベースを用いて、それぞれの指標についての識別子を取得することができる。
指標検出部6010は、データ管理部1080から撮像画像を取得する。そして、取得した撮像画像に含まれる指標の、撮像画像における座標を検出する。以下では、撮像画像における座標を「画像座標」と呼ぶ。例えば、指標の各々が異なる色を有するマーカによって構成されている場合には、指標検出部6010は、各々のマーカ色を有する領域を撮像画像から検出する。そして、検出された領域の重心位置を、指標の座標とする。
また、指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、指標検出部6010は次のように指標の位置を検出する。すなわち指標検出部6010は、各々のテクスチャ特徴に対応するテンプレート画像を用いたテンプレートマッチング処理を撮像画像に対して行えばよい。このテンプレート画像は、データ管理部1080が既知の情報として予め保持している。
また、指標の各々が四角形指標によって構成されている場合には、指標検出部6010は、撮像画像に対して2値化処理を行う。指標検出部6010はその後ラベリング処理を行い、4つの直線によって構成される領域を指標候補として検出する。さらに指標検出部6010は、指標候補である領域中に、特定のパターンが存在するか否かを判定してもよい。指標検出部6010は、特定のパターンが存在する領域を、四角形指標として検出する。パターンを検出することにより指標検出部6010は、その四角形指標を他の四角形指標と区別することができる。また、パターンを検出することにより指標検出部6010は、四角形指標を誤検出することを防ぐことができる。1つの四角形指標は4つの頂点によって構成されるが、本実施例においては、それぞれの頂点が指標として認識される。
指標検出部6010はさらに、検出された指標の画像座標と、その指標の識別子と、をデータ管理部1080へと出力する。なお以下では、検出された指標のそれぞれを、番号n(n=1,…,N)を用いて、Qknと表す。本実施例においては、Qk1はQに、Qk2はQに、Qk3はQに、それぞれ対応するものとする。ここで、Nは撮像画像上で検出された指標の数を表している。例えば図6の場合には、N=3である。
また、指標Qknの画像座標をuQknと表す。さらに、検出された指標の識別子を、kと表す。この例では、識別子k=1,k=3,k=4である。すなわち指標検出部6010は、検出された指標の画像座標uQk1,uQk2,uQk3と、対応する識別子k,k,kと、を、データ管理部1080へ出力する。
位置姿勢計測部6020は、指標検出部6010が取得した、それぞれの指標Qknの画像座標uQknを取得する。また位置姿勢計測部6020は、それぞれの指標Qknの識別子kを取得する。位置姿勢計測部6020は、指標Qknの識別子kを用いて、指標Qknに対応する、現実空間に配置された指標Qを知ることができる。上述のように、指標Qの世界座標x Qknは、データ管理部1080にとって既知である。こうして位置姿勢計測部6020は、それぞれの指標Qknの世界座標x Qknを、データ管理部1080から取得することができる。
以上のように位置姿勢計測部6020は、それぞれの指標Qknについての、画像座標uQknと世界座標x Qknとの組を取得できる。次に位置姿勢計測部6020は、これらの座標に基づいて、HMD1000(より詳細には撮像部1020)の位置及び姿勢を算出する。算出された位置及び姿勢は、例えば、位置を表す3次元ベクトルx と、姿勢を表す3×3行列RWCと、の組を用いて表すことができる。
位置姿勢計測部6020は、これら算出された位置及び姿勢をデータ管理部1080へと出力する。現実空間に配置された指標の世界座標と、撮像画像における指標の画像座標との組から撮像部の位置及び姿勢を算出する技術は既知である。例えばこの技術は、写真測量等の分野において古くから提案されている(例えば、非特許文献1、非特許文献2を参照)。そこで、撮像部の位置及び姿勢を算出する技術についての詳細な説明は省略する。
画像生成部6070は、表示制御部1060から受け取った制御情報に従って、表示部1010に表示する表示画像を生成する。表示制御部1060から受け取った制御情報に、仮想空間画像を生成してもよいことが示されている場合、画像生成部6070は仮想空間画像を生成する。表示制御部1060は、例えば電子透かし情報の認識結果が「認証OK」であり、ユーザの属性が「認証されているユーザ」であると判断した場合に、表示制御部1060は画像生成部6070に仮想空間画像を生成させうる。
画像生成部6070は、データ管理部1080に格納されている仮想空間のデータと、位置姿勢計測部6020が算出したHMDの位置及び姿勢に基づいて、仮想空間画像を生成する。具体的には画像生成部6070は、データ管理部1080に格納されている仮想空間のデータを用いて、仮想空間を構築する。仮想空間のデータには、仮想空間を構成する各仮想物体のデータ、例えば構造情報及び色情報が含まれる。また仮想空間のデータには、仮想空間中で照射される光源のデータ、例えば位置、色、及び強度、が含まれる。
画像生成部6070は、位置姿勢計測部6020が算出したHMDの位置及び姿勢に対応する視点を、仮想空間中に設定する。そして、設定された視点から見える仮想空間の画像(仮想空間画像)を生成する。所定の位置姿勢を有する視点から見える仮想空間の画像を生成する技術は周知である。従って、この技術についての詳細な説明は省略する。
次に図7を参照して、本実施例の画像生成装置600が行う処理を説明する。図3に示される処理と同様の処理には、図3と同じ参照符号が付されている。これらの処理については、説明を省略する。ステップS7010で指標検出部6010は、データ管理部1080から撮像部1020が撮像した現実空間画像を取得する。そして指標検出部6010は現実空間画像に含まれる指標を検出し、検出された指標の画像座標及び識別子をデータ管理部1080に送出する。ステップS7020で位置姿勢計測部6020は、指標検出部6010が検出した指標の画像座標を用いて、上述のようにHMD1000の位置及び姿勢を算出する。そして、位置姿勢計測部6020は、算出された位置及び姿勢をデータ管理部1080に送出する。
ステップS7030で画像生成部6070は、ステップS3050で表示制御部1060から受け取った制御情報に従い、表示部1010に表示させる画像を生成する。上述のように画像生成部6070は、仮想空間画像を生成するように制御された場合には、ステップS7020で算出されたHMD1000の位置及び姿勢に従って、仮想空間の画像を生成する。画像生成部6070は、仮想空間画像を生成しないように制御された場合には、上述の実施例のように、例えば図4の画像4020〜4040のような予め決定された画像を生成してもよい。ステップS7040の処理はステップS3080と同様であるが、画像表示処理を継続する場合、処理はステップS7050へと進む。ステップS7050で、撮像部1020は現実空間の画像を撮像し、処理はステップS7010に戻る。
このように本実施例に係る画像生成装置600は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて仮想空間画像を生成し、生成された画像を表示することができる。実施例2と同様に、本実施例に係る画像生成装置600は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて異なる仮想空間画像を生成してもよい。
実施例3においては、HMDはユーザに仮想現実空間を提示する装置であった。実施例4においては、HMDはユーザに複合現実空間を提示する。すなわち本実施例に係る画像生成装置800は、ユーザに対して、合成された現実空間の画像と仮想空間の画像とを提示する。本実施例に係るHMDは、光学シースルータイプのHMDでありうる。光学シースルータイプのHMDを用いるユーザは、HMDを透過する現実空間の光学像と、表示部によって表示された仮想空間の光学像との組み合わせを提示される。また、本実施例に係るHMDは、ビデオシースルータイプのHMDであってもよい。ビデオシースルータイプのHMDにおいては、撮像された現実空間の画像と、仮想空間の画像とが合成され、合成画像が生成される。そして、合成画像が表示部を介してユーザに提示される。
本実施例においてはビデオシースルータイプのHMDが用いられるが、光学シースルータイプのHMDを用いることも同様に可能である。図8は、ビデオシースルータイプのHMD8000を用いる本実施例の画像生成装置800を示す。図6に示された要素と同様の要素には、図6と同一の参照符号が付されている。これらの要素については、説明を省略する。
撮像部8020は、上述の撮像部1020と同様の構成を有し、現実空間画像を撮像する。本実施例において撮像部8020は、撮像部8020aと、撮像部8020bとを含む。撮像部8020aは、ユーザの右目から見える現実空間の画像を撮像する。撮像部8020bは、ユーザの左目から見える現実空間の画像を撮像する。すなわち、撮像部8020aはHMD8000のユーザの右目の役割を果たし、撮像部8020bはHMD8000のユーザの左目の役割を果たす。本実施例においてはさらに、表示部1010は、右目に提示される画像と、左目に提示される画像との双方を表示することができる。すなわち表示部1010は、右目用の画像をユーザの右目に対して提示し、左目用の画像をユーザの左目に対して提示する。
画像入力部8090は、撮像部8020から送出された、右目用の現実空間画像、及び左目用の現実空間画像を取得する。そして画像入力部8090は、取得したそれぞれの現実空間画像をデータ管理部1080に格納する。画像合成部8030は、撮像部8020が撮像した現実空間画像と、画像生成部6070が生成した画像とを合成する。
画像合成部8030は、右目用の画像と左目用の画像とのそれぞれを生成することができる。すなわち画像合成部8030は、自身が管理するメモリ上に、データ管理部1080に格納されている右目用の現実空間画像を描画する。さらに画像合成部8030は、同じメモリ上に、画像生成部6070が生成した画像を重畳描画する。こうして、メモリ上に現実空間画像と、画像生成部6070が生成した画像との合成画像が生成される。画像合成部8030は、生成された合成画像を、表示部1010を介して、ユーザの右目に対して提示する。画像合成部8030は、左目用の画像についても同様に処理することができる。
本実施例においては、右目用の画像と左目用の画像とで、画像生成部6070によって生成された同じ画像が用いられる。画像生成部6070は、右目用の撮像部8020aについて算出された位置姿勢を用いて仮想空間画像を生成してもよいし、左目用の撮像部8020bについて算出された位置姿勢を用いて仮想空間画像を生成してもよい。また、撮像部8020aについて算出された位置姿勢と、撮像部8020bについて算出された位置姿勢との平均を用いて、仮想空間画像が生成されてもよい。
しかしながら、右目用の画像と左目用の画像とが、画像生成部6070によって生成されてもよい。すなわち画像生成部6070は、右目用の撮像部8020aについて算出された位置姿勢を用いて右目用の仮想空間画像を生成しうる。また、画像生成部6070は、左目用の撮像部8020bについて算出された位置姿勢を用いて左目用の仮想空間画像を生成しうる。そして画像合成部は、それぞれの目についての現実空間画像と仮想空間画像とを合成しうる。
次に図9を参照して、本実施例に係る画像生成装置800が行う処理を説明する。図7に示される処理と同様の処理には、同じ参照符号が付されている。これらの処理については、説明を省略する。ステップS9010で画像入力部8090は、撮像部8020a,8020bから送出された現実空間画像(撮像結果)を取得(キャプチャ)する。
ステップS9020で画像合成部8030は上述のように、撮像部8020aが取得した画像と画像生成部6070が生成した画像とを合成する。また画像合成部8030は上述のように、撮像部8020bが取得した画像と画像生成部6070が生成した画像とを合成する。ステップS9030では画像入力部8090は、撮像部8020aおよび8020bから送出された現実空間画像(撮像結果)を取得(キャプチャ)する。そして、処理はステップS7010に戻る。
このように本実施例に係る画像生成装置800は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて仮想空間画像を生成することができる。そして本実施例に係る画像生成装置800は、現実空間画像と仮想空間画像とが合成された複合現実空間画像をユーザに提示することができる。実施例3と同様に、本実施例に係る画像生成装置800は、ユーザの属性と、現実空間画像から抽出された情報と、に応じて異なる仮想空間画像を生成してもよい。
実施例1〜4では、一度表示制御部1060が制御情報を生成すると、画像生成部1070,6070はその制御情報に従って繰り返し画像を生成し、生成された画像をユーザに提示していた。しかしながら、表示制御部1060は、情報認識部1040からの認識結果と、個人属性認識部1050からの認識結果とを継続的に受け取り、繰り返し制御情報を生成してもよい。この場合画像生成部1070,6070は、最新の制御情報に従って画像を生成することができる。表示制御部1060による制御情報の生成は、画像生成部1070,6070が画像を生成する度に行われてもよい。また、表示制御部1060による制御情報の生成は一定の時間間隔で行われてもよいし、ユーザの指示によって行われてもよい。
上述の実施例では、現実空間画像から抽出された電子透かし情報と、ユーザの属性と、を用いてHMDへの表示内容が決定された。実施例6では、現実空間画像から抽出された電子透かし情報と、ユーザの属性と、HMDの位置姿勢情報と、を用いてHMDへの表示内容が決定される。本実施例に係る画像生成装置は、上述の実施例における表示制御部1060の動作を変更することにより実現できる。以下では、図8に示される実施例5の画像生成装置800の表示制御部1060の動作を変更することにより、本実施例に係る画像生成装置800を実現する場合について説明する。
本実施例において表示制御部1060は、HMD8000に出力する表示内容を制御する。このとき表示制御部1060は、情報認識部1040が認識した現実空間画像中の情報と、個人属性認識部1050が認識したユーザの属性と、位置姿勢計測部6020が計測したHMD8000の位置姿勢情報と、を用いる。本実施例においてデータ管理部1080は、ユーザの認証結果と、撮像画像から検出されたパターンと、HMD8000の位置姿勢と、の組み合わせ毎に、対応する表示内容を規定する情報を保持している。そして表示制御部1060は、ユーザの認証結果と、撮像画像から検出されたパターンと、撮像装置の位置姿勢と、の組み合わせに対応する、規定された表示内容に従う画像を、画像生成部6070に生成させる。
具体的には表示制御部1060は、HMD8000の位置姿勢情報を用いて、HMD8000が利用可能範囲内にあるか否かを判定する。HMD8000の利用可能範囲を示す情報は、例えばデータ管理部1080が保持しうる。HMD8000の利用可能範囲は、予め定められていてもよいし、管理者によって設定されてもよい。表示制御部1060は、HMD8000が利用可能範囲内にあるか否かに従って、画像生成部6070によって生成される画像を制御する。
本実施例に係る画像生成装置800が行う処理について、図11のフローチャートを参照して説明する。図11に示される処理のうち、図9に示される実施例5に係る処理と同様の処理については、同じ参照符号が付されている。これらの処理については説明を省略する。本実施例においては、表示内容が決定されるステップS11010は、HMD8000の位置姿勢が決定されるステップS7020の後に行われる。ステップS11010において表示制御部1060は、上述のようにHMD8000への表示内容を決定し、制御情報を画像生成部6070へと送る。ステップS11030における処理は図3のステップS3080における処理と同様であるが、画像表示処理を継続する場合、処理はステップS9010へと戻る。
図12は、表示制御部1060の制御に従って、画像生成部6070が生成する画像を示す。画像生成部6070は、表示制御部1060の制御結果に従って、画像12010〜12080の何れかを生成する。電子透かし情報の認識結果が「認証OK」であり、ユーザの属性が「認証されたユーザ」であり、かつHMD8000が利用範囲内である場合には、画像生成部6070は画像12010のような仮想空間画像を生成する。
一方、電子透かし情報の認識結果が「認証NG」であるか、ユーザの属性が「認証されていないユーザ」であるか、もしくはHMD8000が利用範囲外である場合には、画像生成部6070は画像12020〜12080のような画像を生成する。画像12020〜12080は、ユーザにHMDの使用が許可されていないこと、現実空間画像に表示を可能とする情報が含まれていないすなわち情報表示が許可されていないこと、HMDの使用範囲外であること、の少なくとも1つを示している。
このように本実施例によれば、ユーザの識別情報と、現実空間に存在する情報と、HMDの位置姿勢と、を用いて、HMDへの表示を制御することができる。
実施例6では、HMDの位置姿勢の判定結果は範囲内か範囲外であるかの2通りであった。しかしながら、HMDの位置姿勢の判定結果は、より多くの種類から選択されてもよい。例えば、HMDが予め設定された3つの領域のうちの何れに位置するのかが判定されてもよい。さらには、それぞれの領域に表示レベルが設定されてもよい。HMDが位置する領域の表示レベルに応じて、HMDへの表示は制御されうる。例えば、HMDが位置する領域の表示レベルが高いほど、HMDに表示される仮想空間画像はより高精細なものとなりうるし、テキスト情報の情報量は多くなりうる。さらには、ユーザに応じて、HMDの使用範囲が異なっていてもよい。すなわち、ユーザの識別情報(又は属性)に対応する使用範囲が、予め設定されていてもよい。
実施例6では、電子透かし情報とユーザの属性とHMDの位置姿勢とを用いてHMDに出力する表示内容を決定していた。実施例8に係る画像生成装置は、電子透かし情報とユーザの属性と電子透かし情報を持つオブジェクトの位置姿勢情報とを用いて、HMDに出力する表示内容を決定してもよい。図10は、本実施例に係る画像生成装置1300の構成の一例を示すブロック図である。本実施例に係る画像生成装置1300は、図8に示される画像生成装置800と同様の構成を有する。図10においては、図8に示される構成と同様の構成には、同一の参照符号が付されている。以下では、図8に示される構成と同様の構成については説明を省略する。
本実施例において、現実空間には、紙媒体13500が配置されている。撮像部8020a,8020bの撮像範囲内に、紙媒体13500は位置する。この紙媒体13500には電子透かし情報が付与されている。また紙媒体13500には、複数個の指標S(i=1,…,I)が配置されている。それぞれの指標Sは、独立座標系における位置が既知である。すなわち、指標Sのそれぞれの独立座標系における位置は、例えばデータ管理部1080に格納されている。この独立座標系において、原点は紙媒体13500上の1点であり、X軸、Y軸、及びZ軸はそれぞれ互いに直交する3軸である。
指標Sは、指標Qについて説明されたのと同様の特徴を有しうる。すなわち、画像生成装置1300が、撮像画像上における指標Sの座標を検出することができるように、指標Sは構成される。また、画像生成装置1300が、撮像画像上において指標Sを他の指標Sから識別できるように、指標Sは構成される。さらにそれぞれの指標Sには、互いに識別可能な識別子が付されている。本実施例においては、S,S,Sには、識別子として1,2,3がそれぞれ付されているものとする。表示内容を制御するために用いられる指標Sと、HMD8000の位置姿勢を計測するために用いられる指標Qとは、画像生成装置1300によって区別されうる。
指標検出部6010は、データ管理部1080より撮像画像を入力し、入力した画像中に撮影されている指標の画像座標を検出する。指標検出部6010はさらに、検出された指標の画像座標とその指標の識別子とをデータ管理部1080へと出力する。以下では、撮像画像上で検出された指標を、検出された指標のそれぞれに付けられた番号n(n=1,…,N)、m(m=1,…,M)を用いて、Qkn、Simと表す。ここで、Nは撮像画像上で検出された指標Qの数、Mは撮像画像上で検出された指標Sの数を表す。
また、検出された指標Simの画像座標をuSimと表す。さらに、検出された指標Simの識別子をiと表す。例えば図10の場合には、M=3であり、指標の識別子i=1,i=2,i=3である。これらの指標Simに対応する、識別子i,i,iと、画像座標uSi1,uSi2,uSi3とを、指標検出部6010は出力する。さらに指標検出部6010は、指標Qknについての識別子と画像座標とを、実施例3で説明したように出力する。
位置姿勢計測部6020は、指標検出部6010によって出力された指標の画像座標uQknと、既知である指標の世界座標x Qknとを取得する。そして位置姿勢計測部6020は、実施例3で説明したように、HMD8000の位置及び姿勢を算出する。また位置姿勢計測部6020は、指標検出部6010によって出力された指標の画像座標uSimを取得する。さらに位置姿勢計測部6020は、上述のように既知である、独立座標系における指標の座標をデータ管理部1080から取得する。そして位置姿勢計測部6020は、これらの情報に基づいて、紙媒体13500とHMD8000との間の相対的な位置及び姿勢を算出する。相対的な位置及び姿勢の算出は、実施例3で説明したような、周知の技術に従って行うことができる。
表示制御部1060は、HMD8000に出力する表示内容を制御する。この制御は、情報認識部1040が認識した現実空間の情報と、個人属性認識部1050が認識したユーザの属性と、位置姿勢計測部6020が算出した紙媒体13500の位置姿勢情報とに従って行われる。本実施例においてデータ管理部1080には、ユーザの認証結果と、撮像画像から検出されたパターンと、紙媒体13500の位置姿勢と、の組み合わせ毎に、対応する表示内容を規定する情報を保持している。そして表示制御部1060は、ユーザの認証結果と、撮像画像から検出されたパターンと、紙媒体13500の位置姿勢と、の組み合わせに対応する、規定された表示内容に従う画像を、画像生成部6070に生成させる。
ここで紙媒体13500の位置姿勢は、紙媒体13500上に付された透かし情報の位置姿勢に対応する。このように表示制御部1060は、透かし情報の位置姿勢に対応する、紙媒体13500の位置姿勢に従って、表示内容を制御することができる。透かし情報と、上述の指標Sとが紙媒体13500上にあることを、画像生成装置1300は予め知っていてもよい。この場合、指標Sに従って算出された紙媒体13500の位置姿勢が、透かし情報の位置姿勢に対応することは、表示制御部1060にとって既知となる。
具体的には表示制御部1060は、位置姿勢計測部6020が算出した、HMD8000に対する紙媒体13500の相対的な位置姿勢を取得する。また表示制御部は、HMD8000が利用可能とされる、相対的な位置姿勢の範囲を、データ管理部1080から取得する。データ管理部1080には、HMD8000に対して紙媒体13500がどのような位置姿勢を有している場合に、HMD8000が利用可能であるかを示す情報が格納されている。
そして表示制御部1060は、HMD8000に対する紙媒体13500の相対的な位置姿勢が、HMD8000が利用可能とされる相対的な位置姿勢の範囲に含まれるか否かを判定する。そして、この判定結果に従って、画像生成部6070に対して制御情報を送信する。HMD8000が利用可能とされる相対的な位置姿勢の範囲は、予め定められていてもよいし、管理者によって設定されてもよい。
次に、本実施例に係る画像生成装置1300が行う処理について説明する。本実施例に係る画像生成装置1300は、図11を参照して説明した実施例6に係る画像生成装置と、同様に動作することができる。以下では、図11に示される処理とは異なる処理について説明する。ステップS7020で位置姿勢計測部6020は、実施例6で説明したように、HMD1000の位置及び姿勢を算出する。また位置姿勢計測部6020は、上述のように、紙媒体13500とHMD8000との相対的な位置姿勢を算出する。そして位置姿勢計測部6020は、上述のように、HMD8000に対する紙媒体13500の相対的な位置姿勢が所定の範囲内にあるか否かを判定する。
ステップS11010で表示制御部1060は、ステップS3030における電子透かし情報の認識結果と、ステップS3040におけるユーザの属性の認識結果と、ステップS7020で算出された紙媒体13500の位置姿勢の計測結果と、を読み出す。そして表示制御部1060は、これらの情報を用いてHMD8000に出力される表示内容を決定する。
本実施例において、画像生成部6070が生成する画像は、実施例6に係る画像生成装置が生成する画像と同様でありうる。例えば画像生成部6070が生成する画像は、図12に示される画像でありうる。実施例6においては、HMDの位置姿勢の判定結果に従って表示内容が決定された。一方で本実施例においては、紙媒体13500の位置姿勢の判定結果が、表示内容を決定するために用いられる。したがって、本実施例によれば、指標が付された現実の物体の位置姿勢に従って、表示内容を制御することができる。
実施例8では、電子透かし情報が付された物体とHMDとの相対的な位置姿勢情報を用いて、HMDに出力される表示内容が決定された。実施例10においては、世界座標系における電子透かし情報が付された物体の位置姿勢情報を用いて、HMDに出力される表示内容が決定される。世界座標系における物体の位置姿勢情報は、世界座標系におけるHMDの位置姿勢情報と、HMDと物体との相対的な位置姿勢情報と、を用いて計算できる。この計算は公知の技術によって可能であるから、この計算についての詳細な説明は省略する。また、電子透かし情報が付された物体にセンサを取り付け、このセンサを用いて物体の位置姿勢を計測してもよい。
実施例6〜9においては、HMDの位置姿勢情報と、電子透かし情報が付された物体の位置姿勢情報とのうち、の一方が、HMDに出力される表示内容を決定するために用いられた。実施例10においては、これらの情報の双方に従って、HMDに出力される表示内容が決定される。表示内容の決定は実施例6〜9と同様に行うことができるから、説明は省略する。
また、実施例6〜9では、HMD又は物体の、位置情報と姿勢情報との双方が、HMDに出力される表示内容を決定するために用いられた。しかしながら、位置情報のみを用いてHMDに出力される表示内容を決定してもよい。また、姿勢情報のみを用いてHMDに出力される表示内容を決定してもよい。さらには、位置情報の一部と、姿勢情報の一部とを用いて、HMDに出力される表示内容を決定してもよい。
上述の実施例においては、HMD又は物体の位置姿勢は、撮像画像に対する画像処理によって算出された。しかしながら位置姿勢は、他の方法によって求められてもよい。例えば、磁気センサを用いて位置姿勢を計測してもよい。また、赤外光を用いて位置姿勢を計測してもよい。さらには、超音波を用いて位置姿勢を計測してもよい。また、機械的に位置姿勢を計測してもよい。
また、上述の実施例においては、指標の座標は画像処理によって求められた。しかしながら、指標の座標は他の技術を用いて求められても良い。例えば、磁気センサなどを用いることができる。また上述の実施例では、撮像画像からパターンを検出し、検出されたパターンに従って表示制御が行われた。しかしながら、より一般的に、現実空間に存在する物から得られる情報を用いて表示制御を行うことができる。すなわち、現実空間の画像に従って表示制御を行うことに、上述の各実施例が限定される必要はない。例えば、短距離無線通信技術などを用いて、現実空間に存在する物から発せられる信号に従って表示制御を行うこともできる。
上述の実施例においては、画像生成装置を構成する各部はハードウェアで構成されているものとした。しかし、画像生成装置の一部をソフトウェアで構成することもできる。この場合、ソフトウェアで構成されない部分をハードウェアとして有するコンピュータに、このソフトウェアを実行させることにより、このコンピュータを上述の実施例における画像生成装置として動作させることができる。
本実施例では、図2に示されるコンピュータと、ソフトウェアとを用いて、上述の各実施例に係る画像生成装置を実現する。図2は、画像生成装置として使用可能なコンピュータ2000のハードウェア構成例を示すブロック図である。CPU2001は、RAM2002やROM2003に格納されているプログラムやデータを用いて、コンピュータ2000が有する各部の制御を行う。さらにCPU2001は、各実施例において画像生成装置が行うものとして説明された各処理を実行する。
RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008から読み込まれたプログラムやデータを一時的に記憶することができる。更にRAM2002は、I/F(インターフェース)2009を介して外部から受信したデータを一時的に記憶することができる。例えばRAM2002は、撮像部及び識別情報取得部から受信したデータ、すなわち現実空間画像及びユーザの識別情報、を記憶することができる。さらにRAM2002は、CPU2001に対して、処理を行う際に用いるワークエリアを提供する。以上のようにRAM2002は、各種のデータ格納エリアを提供することができる。RAM2002は、図1に示したデータ管理部1080としても機能しうる。
ROM2003には、コンピュータ2000の設定データ、及び起動プログラムなどが格納されている。キーボード2004及びマウス2005は、操作入力装置の一例である。ユーザがキーボード2004及びマウス2005を操作することにより、各種の指示をCPU2001に対して入力することができる。キーボード2004及びマウス2005以外の他の入力装置を、コンピュータ2000は備えてもよい。
表示部2006は、コンピュータ2000による処理結果を表示することができる。表示部2006には、CRTや液晶画面などが含まれ、画像や文字などを表示することができる。例えば表示部2006は、HMD1000の位置姿勢計測のために表示すべきメッセージを表示することができる。表示部2006には、例えば図1に示される表示部1010でありうる。また表示部2006は、HMDに取り付けられた表示部1010とは別のものであってもよい。
外部記憶装置2007は、プログラム及びデータなどを持続的に格納することができる。例えば外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置でありうる。外部記憶装置2007は、OS(オペレーティングシステム)を格納することができる。また外部記憶装置2007は、画像生成装置が有する各部としてコンピュータ2000を動作させるためのプログラム及びデータなど格納することができる。外部記憶装置2007に保存されているプログラム及びデータは、CPU2001による制御に従ってRAM2002にロードされる。CPU2001は、このロードされたプログラム及びデータを用いて処理を実行することにより、上述の各実施例において画像生成装置が有する各部によって行われる処理を実行することができる。
例えば情報認識部1040、個人属性認識部1050、表示制御部1060、画像生成部1070,6070、のそれぞれに対応するプログラムを、外部記憶装置2007は有する。また、例えば画像入力部1090,8090、指標検出部6010、位置姿勢計測部6020、及び画像合成部8030のそれぞれに対応するプログラムを、外部記憶装置2007は有する。さらに、仮想空間のデータ、及び上述の説明において既知の情報として説明されたデータ、を外部記憶装置2007は有する。外部記憶装置2007を、上述のデータ管理部1080として用いることもできる。
記憶媒体ドライブ2008は、記憶媒体からプログラム及びデータを読み出すこと、並びに記憶媒体にプログラム及びデータを書き込むことができる。この記憶媒体には、例えばCD−ROM及びDVD−ROMが含まれる。外部記憶装置2007に保存されるものとして説明したプログラムやデータの一部若しくは全部が、この記憶媒体に保存されていてもよい。記憶媒体ドライブ2008が記憶媒体から読み出したプログラム及びデータは、外部記憶装置2007又はRAM2002へと出力されうる。
I/F2009は、コンピュータ2000を外部の装置と接続するためのインタフェースである。I/F2009には、撮像部1020,8020を接続するためのアナログビデオポート又はIEEE1394等のデジタル入出力ポートが含まれる。またI/F2009には、イーサネット(登録商標)ポートが含まれる。コンピュータ2000とHMDとが切り離されている場合、コンピュータ2000は合成画像を、イーサネット(登録商標)ポートを介して、HMDに対して出力しうる。
I/F2009を介してコンピュータ2000が受信したデータは、RAM2002又は外部記憶装置2007に格納されうる。図1に示した画像入力部1090の機能の一部は、I/F2009によって実現されうる。また、位置姿勢の取得にセンサを用いる場合、I/F2009を介してセンサは接続されうる。バス2010は、コンピュータ2000内の各部を接続する。
[その他の実施例]
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施例の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムコードを読み出して実行する。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。

Claims (8)

  1. 現実空間を撮像して撮像画像を出力する撮像装置と、ユーザに対して画像を表示する表示装置と、に接続されている画像生成装置であって、
    ユーザの認証結果と、前記撮像装置から得られる撮像画像中に存在する所定のパターンと、の組み合わせ毎に、対応する表示内容を規定する規定手段と、
    前記ユーザから取得した情報に従って前記ユーザを認証する認証手段と、
    前記撮像装置から出力される撮像画像を参照し、該撮像画像から前記所定のパターンを検出する検出手段と、
    前記ユーザの認証結果と、前記撮像画像から検出されたパターンと、の組み合わせに対応する、前記規定手段が規定する表示内容に従って、表示画像を生成する生成手段と、
    前記表示画像を、前記表示装置に対して出力する出力手段と
    を備えることを特徴とする、画像生成装置。
  2. 前記撮像装置の位置姿勢を計測する手段をさらに備え、
    前記規定手段は、ユーザの認証結果と、前記撮像装置から得られる撮像画像中に存在する所定のパターンと、前記撮像装置の位置姿勢と、の組み合わせ毎に、対応する表示内容を規定し、
    前記生成手段は、前記ユーザの認証結果と、前記撮像画像から検出されたパターンと、前記撮像装置の位置姿勢と、の組み合わせに対応する、前記規定手段が規定する表示内容に従って、表示画像を生成することを特徴とする、請求項1に記載の画像生成装置。
  3. 前記撮像画像から検出されたパターンの位置姿勢を計測する手段をさらに備え、
    前記規定手段は、ユーザの認証結果と、前記撮像装置から得られる撮像画像中に存在する所定のパターンと、当該所定のパターンの位置姿勢と、の組み合わせ毎に、対応する表示内容を規定し、
    前記生成手段は、前記ユーザの認証結果と、前記撮像画像から検出されたパターンと、当該パターンの位置姿勢と、の組み合わせに対応する、前記規定手段が規定する表示内容に従って、表示画像を生成することを特徴とする、請求項1に記載の画像生成装置。
  4. 前記所定のパターンは、電子透かしであることを特徴とする、請求項1乃至3の何れか1項に記載の画像生成装置。
  5. 前記表示画像は、現実空間の画像と合成されて、前記表示装置に表示されることを特徴とする、請求項1乃至4の何れか1項に記載の画像生成装置。
  6. 頭部装着型表示装置が、前記撮像装置及び前記表示装置を備えることを特徴とする、請求項1乃至5の何れか1項に記載の画像生成装置。
  7. 現実空間を撮像して撮像画像を出力する撮像装置と、ユーザに対して画像を表示する表示装置と、に接続されている画像生成装置が行う画像生成方法であって、
    前記画像生成装置の規定手段は、ユーザの認証結果と、前記撮像装置から得られる撮像画像中に存在する所定のパターンと、の組み合わせ毎に、対応する表示内容を規定しており、
    前記画像生成方法は、
    前記画像生成装置の認証手段が、前記ユーザから取得した情報に従って前記ユーザを認証する認証工程と、
    前記画像生成装置の検出手段が、前記撮像装置から出力される撮像画像を参照し、該撮像画像から前記所定のパターンを検出する検出工程と、
    前記画像生成装置の生成手段が、前記ユーザの認証結果と、前記撮像画像から検出されたパターンと、の組み合わせに対応する、前記規定手段が規定する表示内容に従って、表示画像を生成する生成工程と、
    前記画像生成装置の出力手段が、前記表示画像を、前記表示装置に対して出力する出力工程と
    を備えることを特徴とする、画像生成方法。
  8. コンピュータを、請求項1乃至6の何れか1項に記載の画像生成装置が有する各手段として機能させるためのプログラム。
JP2010195071A 2010-08-31 2010-08-31 画像生成装置、画像生成方法、及びプログラム Expired - Fee Related JP5676982B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010195071A JP5676982B2 (ja) 2010-08-31 2010-08-31 画像生成装置、画像生成方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010195071A JP5676982B2 (ja) 2010-08-31 2010-08-31 画像生成装置、画像生成方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2012053629A true JP2012053629A (ja) 2012-03-15
JP2012053629A5 JP2012053629A5 (ja) 2013-11-21
JP5676982B2 JP5676982B2 (ja) 2015-02-25

Family

ID=45906882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010195071A Expired - Fee Related JP5676982B2 (ja) 2010-08-31 2010-08-31 画像生成装置、画像生成方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP5676982B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052942A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム
CN104062759A (zh) * 2013-03-22 2014-09-24 精工爱普生株式会社 信息显示系统、信息显示方法、以及头戴式显示装置
WO2015194017A1 (ja) * 2014-06-19 2015-12-23 日立マクセル株式会社 ウェアラブル装置および認証方法
WO2016013269A1 (ja) * 2014-07-22 2016-01-28 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2016061829A (ja) * 2014-09-16 2016-04-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004257872A (ja) * 2003-02-26 2004-09-16 Seiko Epson Corp 位置情報取得システム、位置情報取得装置、位置情報取得方法、及びプログラム
JP2006126945A (ja) * 2004-10-26 2006-05-18 Seiko Instruments Inc 成分照合プログラム、及びサーバ装置
JP2007088801A (ja) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> コンテンツ送信装置、コンテンツ受信装置およびコンテンツ情報取得装置
JP2008299760A (ja) * 2007-06-01 2008-12-11 Canon Inc 画像提示装置及び方法
JP2010067154A (ja) * 2008-09-12 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004257872A (ja) * 2003-02-26 2004-09-16 Seiko Epson Corp 位置情報取得システム、位置情報取得装置、位置情報取得方法、及びプログラム
JP2006126945A (ja) * 2004-10-26 2006-05-18 Seiko Instruments Inc 成分照合プログラム、及びサーバ装置
JP2007088801A (ja) * 2005-09-22 2007-04-05 Nippon Hoso Kyokai <Nhk> コンテンツ送信装置、コンテンツ受信装置およびコンテンツ情報取得装置
JP2008299760A (ja) * 2007-06-01 2008-12-11 Canon Inc 画像提示装置及び方法
JP2010067154A (ja) * 2008-09-12 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ、情報閲覧システム及び管理サーバ

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052942A (ja) * 2012-09-10 2014-03-20 Seiko Epson Corp 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、認証システム
CN104062759A (zh) * 2013-03-22 2014-09-24 精工爱普生株式会社 信息显示系统、信息显示方法、以及头戴式显示装置
JP2014186434A (ja) * 2013-03-22 2014-10-02 Seiko Epson Corp 頭部装着型表示装置を利用した情報表示システム、頭部装着型表示装置を利用した情報表示方法、および、頭部装着型表示装置
US9824496B2 (en) 2013-03-22 2017-11-21 Seiko Epson Corporation Information display system using head mounted display device, information display method using head mounted display device, and head mounted display device
WO2015194017A1 (ja) * 2014-06-19 2015-12-23 日立マクセル株式会社 ウェアラブル装置および認証方法
WO2016013269A1 (ja) * 2014-07-22 2016-01-28 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JPWO2016013269A1 (ja) * 2014-07-22 2017-04-27 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
JP2016061829A (ja) * 2014-09-16 2016-04-25 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US10102600B2 (en) 2014-09-16 2018-10-16 Seiko Epson Corporation Head mounted display device, control method for head mounted display device, and computer program

Also Published As

Publication number Publication date
JP5676982B2 (ja) 2015-02-25

Similar Documents

Publication Publication Date Title
KR102036978B1 (ko) 라이브니스 검출 방법 및 디바이스, 및 아이덴티티 인증 방법 및 디바이스
CN104246793A (zh) 移动设备的三维脸部识别
US8139087B2 (en) Image presentation system, image presentation method, program for causing computer to execute the method, and storage medium storing the program
CN107590430A (zh) 活体检测方法、装置、设备及存储介质
CN105051650A (zh) 三维解锁设备、三维解锁方法和程序
JP5676982B2 (ja) 画像生成装置、画像生成方法、及びプログラム
WO2015130383A2 (en) Biometric identification system
JP2009245338A (ja) 顔画像照合装置
CN108369785A (zh) 活性检测
CN104615234A (zh) 信息处理设备以及信息处理方法
CN107077608A (zh) 图像生物特征识别中的面部活体检测
KR101181967B1 (ko) 고유식별 정보를 이용한 3차원 실시간 거리뷰시스템
CN107479801A (zh) 基于用户表情的终端显示方法、装置及终端
WO2020048535A1 (zh) 头戴式显示设备解锁方法及装置
JPWO2014033842A1 (ja) 認証装置、及び認証方法
CN106937532B (zh) 用于检测真正用户的系统和方法
JP2008198193A (ja) 顔認証システム、方法及びプログラム
CN104615233A (zh) 信息处理设备以及信息处理方法
CN108900700A (zh) 基于人脸识别和视线定位的双重验证的认证方法及系统
JP5812550B1 (ja) 画像表示装置、画像表示方法及びプログラム
CN109635021A (zh) 一种基于人体检测的数据信息录入方法、装置及设备
KR102506352B1 (ko) 전자상거래를 위한 3d 인체 측정 데이터 기반의 디지털 트윈 아바타 제공 시스템
CN104737179B (zh) 用于认证三维实体的图像捕捉的方法
US20140098991A1 (en) Game doll recognition system, recognition method and game system using the same
CN112818733A (zh) 信息处理方法、装置、存储介质及终端

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141226

LAPS Cancellation because of no payment of annual fees