WO2012042974A1 - 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム - Google Patents
情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム Download PDFInfo
- Publication number
- WO2012042974A1 WO2012042974A1 PCT/JP2011/062275 JP2011062275W WO2012042974A1 WO 2012042974 A1 WO2012042974 A1 WO 2012042974A1 JP 2011062275 W JP2011062275 W JP 2011062275W WO 2012042974 A1 WO2012042974 A1 WO 2012042974A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- sight
- line
- information presentation
- persons
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Abstract
利便性の高い情報提示装置を提供する。 情報提示装置としてのデジタルカメラは、撮像素子3で撮像された現実空間画像に仮想物体を重畳させて表示部23に表示させる制御を行うCG重畳部17と、撮像素子3で撮像された現実空間画像に含まれる人物の視線を検出する視線検出部12と、視線検出部12で検出された視線に基づいて、仮想物体の重畳位置を決定する重畳位置決定部11とを備える。
Description
本発明は、情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラムに関する。
カメラで撮影した現実空間の画像(撮像画像)に、仮想物体を重畳表示させる拡張現実技術が普及してきており、この技術を採用した携帯電話機やヘッドマウントディスプレイ(HMD)が登場してきている。
このような拡張現実感を提供する拡張現実感提供装置は、一般に、その拡張現実感提供装置を持っているユーザに合わせた映像を表示部に表示させている。例えば、特許文献1では、HMDを装着したユーザの視線に応じて、撮像画像に重畳させる仮想物体を決定している。
拡張現実感提供装置を持っているユーザに限らず、その拡張現実感提供装置のカメラに写っている人間のことも考慮した表示が可能になれば、拡張現実感提供装置の使い途を広げることができ、拡張現実技術の市場規模拡大を図ることができる。
例えば、特許文献2には、撮像画像に含まれる人物を検出し、その人物に衣装のCGを重畳させる方法が記載されている。この方法によれば、拡張現実感提供装置のカメラに写っている人間のことも考慮した表示が可能となる。しかし、特許文献2の方法は、動き回る人物にCGを重ね合わせ続ける必要があるため、システム構成が複雑になり、一般のユーザが気軽に利用することができない。
特許文献3は、仮想空間に人物のCGを表示させる技術であり、拡張現実感提供装置とは関係がない。
特許文献4は、人物の顔の位置と顔の向きを検出するシステムに関するものであり、拡張現実感提供装置とは関係がない。
特許文献5は、3次元空間上での顔位置と顔向きを用いて、人物間で互いに向き合っているか否かを決定し、その決定結果に応じて属性値を割り当て、それぞれの人物の固有のID及び属性値を紐付けるものであり、拡張現実感提供装置とは関係がない。
なお、拡張現実感提供装置に限らず、例えば、特定の位置に3次元映像を投影するプロジェクタにおいても、その映像を見る人物のことを考慮した投影が可能になれば、その使い途を広げることができる。特許文献1~5は、このようなプロジェクタを実現できるものではない。
本発明は、上記事情に鑑みてなされたものであり、利便性の高い情報提示装置、情報提示方法、及び情報提示プログラムを提供することを目的とする。
本発明の情報提示装置は、現実空間にいる人物に情報を提示する情報提示装置であって、撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御部と、前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出部と、前記視線検出部で検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定部とを備えるものである。
本発明のデジタルカメラ及びヘッドマウントディスプレイは、それぞれ、前記情報提示装置の各部と、前記撮像素子と、前記表示部とを備え、前記制御部が、前記撮像素子で撮像された現実空間画像に前記情報を重畳させて前記表示部に表示させる制御を行うものである。
本発明のプロジェクタは、前記情報提示装置の各部と、前記撮像素子とを備え、前記制御部が、前記現実空間の所定位置に前記情報を投影させる制御を行うものである。
本発明の情報提示方法は、現実空間にいる人物に情報を提示する情報提示方法であって、撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御ステップと、前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出ステップと、前記視線検出ステップで検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定ステップとを備えるものである。
本発明の情報提示プログラムは、前記情報提示方法の各ステップをコンピュータに実行させるためのプログラムである。
本発明によれば、利便性の高い情報提示装置、情報提示方法、及び情報提示プログラムを提供することができる。
以下、本発明の情報提示装置の一実施形態であるデジタルカメラについて図面を参照して説明する。
図1は、本発明の一実施形態を説明するためのデジタルカメラの概略構成を示す図である。このデジタルカメラは、現実空間を撮影して得た現実空間画像(撮像画像)に、仮想物体(コンピュータグラフィック;CG)等の情報を重畳させて表示することで、ユーザに拡張現実感を提供する拡張現実モードを搭載している。
図1に示すデジタルカメラの撮像系は、フォーカスレンズ、ズームレンズ等を含む撮影レンズ1と、撮影レンズ1後方に設けられた絞り2と、絞り2後方に設けられたCCD型、MOS型等の撮像素子3と、撮像素子3から出力される信号をアナログ信号処理するアナログフロントエンド(AFE)32と、AFE32の出力信号をデジタル変換して出力するAD変換部33と、撮影レンズ1のフォーカスレンズ、ズームレンズの移動制御を行うレンズ駆動部4と、撮像素子3の駆動制御を行う撮像素子駆動部5とを備える。AD変換部33から出力されたデジタルの撮像画像信号は、バスBに出力される。
レンズ駆動部4、撮像素子駆動部5、AFE32、及びAD変換部33は、デジタルカメラ全体を統括制御するシステム制御部(CPU)6によって制御される。CPU6には、デジタルカメラの各種操作を行うための操作部7と、CPU6が実行する各種プログラム等が格納されるROM8と、CPU6のワークメモリであるRAM9とが接続されている。また、CPU6はバスBに接続されている。
図1に示すデジタルカメラの電気制御系は、CPU6と、重畳位置決定部11と、視線検出部12と、座標変換部14と、顔パーツ検出部15と、顔検出部16と、CG重畳部17と、メモリ18と、信号処理部19と、メモリカード(記録媒体)21を制御するカードインターフェース20と、液晶パネルや有機ELパネル等の表示部23を制御する表示制御部22とを備え、これらがバスBを介して相互に接続され、CPU6によって制御される。
重畳位置決定部11、視線検出部12、座標変換部14、顔パーツ検出部15、顔検出部16、及びCG重畳部17は、ROM8に格納される情報提示プログラムをコンピュータであるCPU6が実行することで実現される機能ブロックである。
信号処理部19は、デジタルシグナルプロセッサ(DSP)で構成され、AD変換部33から出力されてメモリ18に一時記憶された撮像画像信号に対し、同時化処理、γ補正処理等の画像処理を施して撮像画像データを生成する。
顔検出部16は、信号処理部19で生成された撮像画像データを取得し、取得した撮像画像データに対し顔検出処理を施す。
顔パーツ検出部15は、顔検出部16で検出された顔のパーツ(以下では、一例として2つの目及び口とする)を検出する。
座標変換部14は、顔パーツ検出部15で検出された顔の2つの目の各々の中心と口の中心とを結ぶ二次元平面での三角形の各点の座標を、三次元空間の座標(世界座標)に変換する。
視線検出部12は、座標変換部14で変換後の三角形の世界座標に基づいて、人物の視線(三次元空間における大きさ及び方向を持ったベクトル)を検出する。
例えば、視線検出部12は、座標変換部14で変換された三角形の各点のうち、2つの目に対応する点同士の中点を始点とした三次元空間における当該三角形の法線ベクトルを算出し、この法線ベクトルを視線として検出する。図2に示すように、撮像画像データに3人の人物2A,2B,2Cが含まれていた場合、視線検出部12は、各人物の2つの目と口を結ぶ三角形の法線ベクトル(視線ベクトル)B1~B3を算出する。
重畳位置決定部11は、視線検出部12で検出された複数の視線に基づいて、当該複数の視線が注目している領域である三次元空間上の注目領域の重心を算出する。そして、重畳位置決定部11は、算出した重心位置を、仮想物体を重畳させるべき位置(注目点)として決定する。
図3は、図2に例示した3つの視線B1~B3が視線検出部12で検出されたときの仮想物体の重畳位置の決定方法を説明するための図である。
重畳位置決定部11は、世界座標で規定される三次元空間において、視線ベクトルB1と視線ベクトルB2を結ぶ線分であって、視線ベクトルB1と視線ベクトルB2の双方に垂直な線分のうち、最も短い線分3Aを算出する。
また、重畳位置決定部11は、視線ベクトルB1と視線ベクトルB3を結ぶ線分であって、視線ベクトルB1と視線ベクトルB3の双方に垂直な線分のうち、最も短い線分3Bを算出する。
また、重畳位置決定部11は、視線ベクトルB2と視線ベクトルB3を結ぶ線分であって、視線ベクトルB2と視線ベクトルB3の双方に垂直な線分のうち、最も短い線分3Cを算出する。
次に、重畳位置決定部11は、算出した線分3A~3Cのうち、長さが閾値以上のものを削除する。長さが閾値以上の線分が存在していた場合、その線分で結ばれる2つの視線ベクトル同士は大きく離れていると判断できる。このため、このような線分については、仮想物体を重畳させるべき位置の決定に用いないことで、仮想物体の重畳位置の算出精度の低下を防ぐ。
長さが閾値以上の線分を削除した結果、残った線分が3つ以上ある場合、重畳位置決定部11は、3つ以上の線分の各々の中点同士を結ぶ多角形を注目領域とし、この注目領域の重心を、仮想物体を重畳させる座標とする。
また、長さが閾値以上の線分を削除した結果、残った線分が2つである場合、重畳位置決定部11は、その2つの線分の各々の中点同士を結ぶ線分の中点を、仮想物体を重畳させる座標とする。また、長さが閾値以上の線分を削除した結果、残った線分が1つである場合、重畳位置決定部11は、その1つの線分の中点を、仮想物体を重畳させる座標とする。
図3に示すように、線分3A~3Cの長さが全て閾値未満の場合、線分3Aの中点と、線分3Bの中点と、線分3Cの中点とを結ぶ三角形の重心が、仮想物体を重畳させる座標(注目点座標)となる。
CG重畳部17は、重畳位置決定部11で決定された注目点座標を二次元座標に変換し、撮像画像データの当該変換後の座標に所定の仮想物体を合成した拡張現実画像データを生成し、この拡張現実画像データに基づく画像を表示部23に表示させる指示を、表示制御部22に対して行う。
表示制御部22は、CG重畳部17から指示された拡張現実画像データに基づく画像を、表示部23に表示させる。
以下では図1に示すデジタルカメラの拡張現実モード時の動作について説明する。図4は、図1に示したデジタルカメラの拡張現実モード時の動作を説明するためのフローチャートである。
拡張現実モードに設定されると、CPU6は、撮像素子駆動部5を制御して撮像素子3により動画撮影を開始させる。
撮像素子3により動画撮影が開始されると、撮像素子3から順次出力される撮像画像信号を信号処理部19が画像処理し、撮像画像データを生成する。生成された撮像画像データは、表示制御部22の制御により、表示部23に順次表示される。これにより、ユーザは、撮影中の現実空間画像をライブビュー画像として確認することができる。
一方、撮像画像データが生成されると、顔検出部16がこれを取得し(ステップS40)、当該撮像画像データに対して顔検出処理を実行する(ステップS41)。
顔検出処理の結果、1つ以上の顔が検出された場合(ステップS42:Y)は、顔パーツ検出部15が、検出された顔の中から目を2つと口を1つ検出する(ステップS43)。顔検出処理の結果、1つ以上の顔が検出されたかった場合(ステップS42:N)は、ステップS40に戻り、動画の次のフレームが取得され、このフレームに対して顔検出処理が行われる。
ステップS43の処理で、2つの目及び口からなるパーツ群を2人分以上検出できた場合(ステップS44:Y)は、ステップS45以降の処理が行われる。一方、パーツ群を2人分以上検出できなかった場合(ステップS44:N)は、ステップS40で動画の次のフレームが取得され、このフレームに対して顔検出処理が行われる。
ステップS45では、座標変換部14が、ステップS43で検出されたパーツ群毎に、2つの目の各々の中心と口の中心とを結ぶ三角形(パーツ三角形)の各頂点の座標を算出し、この座標を三次元空間の座標(世界座標)に変換する(ステップS45)。
次に、視線検出部12が、世界座標に変換後のパーツ三角形毎に、当該パーツ三角形を構成する2つの目を結ぶ線分の中点を始点とした当該パーツ三角形の法線ベクトル(視線ベクトル)を算出する(ステップS46)。この時点で、N本(Nは2以上の自然数)の視線ベクトルが算出される。
次に、重畳位置決定部11が、1本の視線ベクトルと、それ以外の(N-1)本の視線ベクトルの各々とを結ぶ線分であって、双方の視線ベクトルに垂直な線分のうち最短のものを算出する処理を、N本の視線ベクトルの各々について行う。これにより、[{N(N-1)}/2]本の線分が算出される(ステップS47)。
次に、重畳位置決定部11が、[{N(N-1)}/2]本の線分の中から、線分の長さが閾値TH以上の線分を削除する(ステップS48)。なお、ステップS48において全ての線分が削除された場合にはステップS40に処理が移行する。一方、ステップS48において線分が1つ以上残る場合にはステップS49に処理が移行する。
ステップS49では、重畳位置決定部11が、残った線分が3つ以上であれば、その3つの線分の各々の中点同士を結ぶ多角形の重心を、仮想物体を重畳する注目点座標とする。また、重畳位置決定部11は、残った線分が2つであれば、その2つの線分の各々の中点同士を結ぶ線分の中点を、仮想物体を重畳する注目点座標とする。また、重畳位置決定部11は、残った線分が1つであれば、その1つの線分の中点を、仮想物体を重畳する注目点座標とする。
次に、CG重畳部17が、ステップS49で算出された注目点座標を二次元座標に変換する。そして、CG重畳部17は、表示部23に表示中の撮像画像データの当該二次元座標に仮想物体を合成した拡張現実画像データを生成し、当該拡張現実画像データに基づく画像を、表示制御部22を介して表示部23に表示させる(ステップS50)。
ステップS50の後に操作部7を介して静止画撮影指示がなされた場合には、撮像素子3が静止画撮影を行い、これによって信号処理部19で撮像画像データが生成される。そして、ステップS40~ステップS49の処理が行われ、生成された拡張現実画像データが表示部23に表示されると共に、この拡張現実画像データがカードインターフェース20を介してメモリカード21に記録される。
以上のように、このデジタルカメラによれば、撮像素子3で撮影している人物の視線に応じて、表示部23に表示される現実空間画像に対する仮想物体の重畳位置を決定することができる。このため、撮影される側のことを考慮した拡張現実感を提供することができ、拡張現実感提供装置としての使い途を広げることができる。
また、このデジタルカメラは、撮影された人物の視線を検出し当該視線に応じて仮想物体の重畳位置を決めるだけの簡易な構成である。このため、特許文献2に記載のように、携帯型表示装置からデータを受信し、このデータを元に、重畳させる画像データを携帯型表示装置に返信するサーバーコンピュータを用いるような複雑なシステムが不要となる。したがって、デジタルカメラのように一般消費者にも手軽に購入できるような機器に本発明の技術を簡単に搭載することができる。
なお、以上の説明では、ステップS40からステップS50の処理を、静止画撮影指示が行われる前のライブビュー画像表示中に行っている。しかし、この処理を静止画撮影指示が行われたときだけ行ってもよい。
例えば、デジタルカメラは、撮影終了後、信号処理部19で生成した撮像画像データに対し、図4に示したステップS40~S49の処理を行って注目点の座標を算出する。その後、デジタルカメラは、この座標に仮想物体を合成した拡張現実画像データを生成し、これを表示部23に表示すると共に、これをメモリカード21に記録する。
この構成によれば、ライブビュー画像の表示中は図4に示すフローチャートの処理を行わずにすむため、デジタルカメラの消費電力の削減が可能となる。
また、デジタルカメラは、メモリカード21に記録されている撮影済みの撮像画像データや、別のカメラで撮影された撮像画像データに対し、図4に示した処理を行って、拡張現実画像データを生成してもよい。
このようにすることで、このデジタルカメラで撮影して得た撮像画像データに限らず、様々な撮像画像データを拡張現実画像データに変換することができ、デジタルカメラの付加価値を高めることができる。
なお、撮影される複数の人物が全く異なる方向を向いていては注目点を決定できなくなる。このため、このデジタルカメラでは、撮影者が、被写体となる人物にどのあたりを注目してもらいたいかを指等で指示してから撮影を開始するといった使い方を前提としている。
以下では、図1に示したデジタルカメラの変形例について説明する。
図5は、図1に示したデジタルカメラの第一の変形例を示す図である。図5に示したデジタルカメラは、仮想物体決定部10と個人認識部13とデータベース10aを追加した点を除いては、図1に示した構成と同じである。仮想物体決定部10と個人認識部13は、情報提示プログラムをCPU6が実行することで実現される機能ブロックである。
個人認識部13は、信号処理部19で生成された撮像画像データの中から人物を検出し、この人物の属性を判別する。
データベース10aには、人物の画像(顔又は全体像)とその人物の属性とを対応付けた人物属性テーブルが記録されている。個人認識部13は、撮像画像データの中から抽出した人物画像とこの人物属性テーブルとに基づいて、当該抽出した人物画像の属性を判別する。ここで、人物の属性とは、例えば性別、年齢、職業、名前、及び服装のうち少なくとも1つを示す情報である。
仮想物体決定部10は、個人認識部13による属性の判別結果とデータベース10aとに基づいて仮想物体の内容を決定する。
データベース10aには、人物の属性と仮想物体の内容とを対応付けた第一のテーブルが記録されている。この第一のテーブルは、人物の人数毎に設けられている。人物が複数の場合には、複数の人物の各々の属性の組み合わせに対して1つの仮想物体の内容を示すデータが記録されている。
図6は、データベース10aに記録される第一のテーブル(人物が3人の場合)の一例を示す図である。
図6に示すように、30-35歳の男、30-35歳の女、0-5歳の男の3人の組み合わせに対しては、仮想物体の内容としてクルマが対応付けられている。また、30-35歳の男、30-35歳の女、0-5歳の女の3人の組み合わせに対しては、仮想物体の内容として人形が対応付けられている。また、ユニフォームを着た20-25歳の男、ユニフォームを着た20-25歳の男、審判のユニフォームを着た20-25歳の男の3人の組み合わせに対しては、仮想物体の内容としてサッカーボールが対応付けられている。
例えば、個人認識部13で判別された3人の人物の属性が、ユニフォームを着た20-25歳の男、ユニフォームを着た20-25歳の男、審判のユニフォームを着た20-25歳の男であった場合、仮想物体決定部10は、この属性とデータベース10aにしたがって、サッカーボールを仮想物体として決定する。
この結果、CG重畳部17によって生成された拡張現実画像データに基づく画像は図7に示した画像Gのようになり、撮影されている人物に相関性の高い仮想物体が、撮影されている人物の注目している領域に重畳表示される。
図8は、図5に示したデジタルカメラの拡張現実モード時の動作を説明するためのフローチャートである。図5において図4と同じ処理には同一符号を付して説明を省略する。
ステップS44で二人以上の目と口の検出がなされた場合、個人認識部13が、ステップS41で顔検出がなされた撮像画像データに対して個人認識を行い、その撮像画像データに含まれる人物の属性を判別する(ステップS81)。
ステップS81の後は、ステップS45~ステップS49の処理が行われ、その後、仮想物体決定部10が、ステップS81で判別した属性とデータベース10aとに基づいて、仮想物体を決定する(ステップS82)。
ステップS82の後は、ステップS50にて、CG重畳部17が、ステップS82で決定された仮想物体を、ステップS49で決定した注目点に重畳させた拡張現実画像データを生成し、この拡張現実画像データに基づく画像を表示部23に表示させる。
以上のように、第一の変形例のデジタルカメラによれば、撮影された人物の属性に応じて、現実空間画像に重畳させる仮想物体の内容を決めることができる。このため、仮想物体を、撮影されている人物に相関性の高いものにすることができ、仮想物体を撮影者が指定しなくとも、違和感のない拡張現実画像を得ることができる。
図9は、図1に示したデジタルカメラの第二の変形例を示す図である。図9に示したデジタルカメラは、視線角度検出部24を追加した点を除いては、図5に示した構成と同じである。図9に示したデジタルカメラは、撮影対象となる人物が二人であることを前提とする二人拡張現実モードを有している。視線角度検出部24は、情報提示プログラムをCPU6が実行することで実現される機能ブロックである。
視線角度検出部24は、二人拡張現実モード時に、視線検出部12で検出された2つの視線ベクトルを二次元平面(撮像画像に対応する平面)に射影し、射影した2つの視線ベクトルのなす角度θを算出する。
重畳位置決定部11は、二人拡張現実モード時に、視線検出部12で検出された2つの視線ベクトルの交点の世界座標を二次元座標に変換し、当該二次元座標を、CGを重畳させるべき位置(注目点)として決定する。
二人拡張現実モード以外の拡張現実モードでは、重畳位置決定部11は、前述したように、視線検出部12で検出されたN本の視線ベクトルにしたがって注目点を決定する。
仮想物体決定部10は、二人拡張現実モード時に、視線角度検出部24で算出された角度θと、個人認識部13で判別された二人の人物の属性とに基づいて、仮想物体の内容(種類及び大きさ)を決定する。
図9に示すデジタルカメラにおけるデータベース10aには、二人の人物の属性の組み合わせと、当該二人の人物の視線のなす角度θと、仮想物体の内容(種類及び大きさ)とを対応付けた第二のテーブルが記録されている。
図10は、図9に示すデジタルカメラのデータベース10aに記録される第二のテーブルの一例を示す図である。
図10に示すように、タキシードを着た30-35歳の男とウエディングドレスを着た30-35歳の女の二人の組み合わせと、0≦θ≦π/8の情報と、仮想物体の内容として“大きなハート”とが対応付けて記録されている。
また、タキシードを着た30-35歳の男とウエディングドレスを着た30-35歳の女の二人の組み合わせと、π/8≦θ≦π/4の情報と、仮想物体の内容として“小さなハート”とが対応付けて記録されている。
また、ユニフォームを着た20-25歳の男とユニフォームを着た20-25歳の男の二人の組み合わせと、0≦θ≦π/8の情報と、仮想物体の内容として“炎”とが対応付けて記録されている。
例えば、個人認識部13で判別された属性が、タキシードを着た30-35歳の男とウエディングドレスを着た30-35歳の女の組み合わせであり、視線角度検出部24で算出された角度θが30度であった場合は、図11のFIG11Aに示すように、撮影された現実空間画像中の二人の視線の交点付近に、小さなハートが重畳表示される。
また、例えば、個人認識部13で判別された属性が、タキシードを着た30-35歳の男とウエディングドレスを着た30-35歳の女の組み合わせであり、視線角度検出部24で算出された角度θが5度であった場合は、図11のFIG11Bに示すように、撮影された現実空間画像中の二人の視線の交点付近に、大きなハートが重畳表示される。
また、例えば、個人認識部13で判別された属性が、ユニフォームを着た20-25歳の男とユニフォームを着た20-25歳の男の組み合わせであり、視線角度検出部24で算出された角度θが5度であった場合、図11のFIG11Cに示すように、撮影された現実空間画像中の二人の視線の交点付近に、炎が重畳表示される。
図12は、図9に示したデジタルカメラの二人拡張現実モード時の動作を説明するためのフローチャートである。図12において、図8と同じ処理には同一符号を付して説明を省略する。
ステップS43の処理で二人の目と口の検出が成功した場合(ステップS110:Y)は、ステップS81、ステップS45、ステップS46が順次行われる。
ステップS46の後、視線角度検出部24が、ステップS46で算出された2つの視線ベクトルを二次元平面に射影し(ステップS111)、射影した2つの視線ベクトルのなす角度θを算出する(ステップS112)。
次に、仮想物体決定部10が、ステップS81で判別された二人の人物の属性と、ステップS112で算出された角度θと、データベース10aに記録された第二のテーブルとに基づいて、仮想物体を決定する(ステップS113)。
次に、重畳位置決定部11が、ステップS46で算出された世界座標における2つの視線ベクトルの交点座標を算出し、この交点座標を注目点とする。
その後、CG重畳部17が、この注目点の交点座標を二次元座標に変換し、変換後の交点座標に、ステップS113で決定された仮想物体を合成した拡張現実画像データを生成し、この拡張現実画像データに基づく画像を表示部23に表示させる(ステップS114)。
なお、二人拡張現実モード以外の拡張現実モード時の動作は、図8で説明したとおりである。
以上のように、第二の変形例のデジタルカメラによれば、撮影された二人の人物の属性と視線のなす角度とに応じて、現実空間画像に重畳される仮想物体の種類及び大きさを決定することができる。このため、図11に示したように、二人の人物の気持ちに沿った仮想物体を重畳表示させることができ、撮影されている人物の意図を反映した、面白みのある拡張現実感を提供することができる。
なお、第二の変形例のデジタルカメラは、二人拡張現実モード時に個人認識を省略してもよい。この場合は、二人拡張現実モード時に重畳表示させる仮想物体をユーザが指定するものとし、仮想物体決定部10は、視線角度検出部24で算出された角度θに応じて、指定された仮想物体の大きさを決定すればよい。
例えば、ユーザは、仮想物体としてハートを指定して図11のFIG11Aに示すような二人を撮影すると、この二人の視線の角度が大きいときにはFIG11Aのようにハートが小さくなり、この二人の視線の角度が小さいときにはFIG11Bのようにハートが大きくなる。
このように、仮想物体が予め決まっている場合には、視線のなす角度θだけに応じて仮想物体の内容(大きさ)を決定することができる。
ここまでの説明では、撮像素子3で撮影された現実空間画像に人物が2人以上含まれているときに、人物の視線に応じた位置に仮想物体を重畳表示させるものとした。以下では、撮像素子3で撮影された現実空間画像に含まれる人物が1人のときでも、仮想物体を重畳表示する方法について説明する。
図13は、図1に示すデジタルカメラの拡張現実モード時の動作の変形例を説明するためのフローチャートである。図13において、図4と同じ処理には同一符号を付して説明を省略する。
ステップS43の処理の結果、撮像画像データに二人以上の目と口が検出されなかった場合、つまり、撮像画像データに人物が1人だけ含まれていた場合(ステップS44:N)、座標変換部14が、ステップS43で検出された2つの目の各々の中心と口の中心とを結ぶ三角形(パーツ三角形)の各頂点の座標を算出し、この座標を三次元空間の座標(世界座標)に変換する(ステップS131)。
次に、視線検出部12が、世界座標に変換後のパーツ三角形を構成する2つの目を結ぶ線分の中点を始点とした当該パーツ三角形の法線ベクトル(視線ベクトル)を算出する(ステップS132)。この時点で、1本の視線ベクトルが算出される。
次に、視線検出部12は、ステップS41で顔検出が行われた撮像画像データ、を得るための撮影時における撮像素子3の視線ベクトルの情報を取得する(ステップS133)。撮像素子3の視線ベクトルは、デジタルカメラの光軸と一致するため、視線検出部12は、撮像画像データの中心から当該撮像画像データに対して垂直に延びる直線を撮像素子3の視線ベクトルとして算出することで、撮像素子3の視線ベクトルの情報を取得する。
次に、重畳位置決定部11が、ステップS132で算出された1本の視線ベクトルと、ステップS133で取得された撮像素子3の視線ベクトルとに基づいて、仮想物体を重畳させるべき位置(注目点)を決定する(ステップS134)。
具体的には、重畳位置決定部11が、ステップS132で算出された1本の視線ベクトルとステップS133で取得された撮像素子3の視線ベクトルとを結ぶ線分であって、双方の視線ベクトルに対して垂直な線分のうち最短のものを算出し、この最短の線分の中点を、仮想物体を重畳させるべき注目点として決定する。
ステップS134の後は、ステップS50において、CG重畳部17が、撮像画像データのステップS134で決定された注目点に仮想物体を合成した拡張現実画像データを生成し、この拡張現実画像データに基づく画像を表示部23に表示させる。
以上のように、撮像素子3で撮影して得られた現実空間画像に人物が1人しか含まれない場合でも、その1人の人物の視線ベクトルと、撮像素子3の視線ベクトルとに基づいて、仮想物体を重畳させる位置を決定することができる。この場合、1人の人物の視線ベクトルと撮像素子3の視線ベクトルとのなす角度に応じて、仮想物体の大きさを変更してもよい。
このように、図1、図5、図9に示したデジタルカメラ、図13に示した動作を行うデジタルカメラによれば、撮影される人物のことを考慮した拡張現実画像データを生成して、これをユーザに提供することができ、拡張現実提供装置としてこれまでにない使い方を提案することができる。
なお、以上の説明ではデジタルカメラに拡張現実機能を設けるものとしたが、ヘッドマウントディスプレイ(HMD)に拡張現実機能を設けてもよい。
例えば、図1に示したブロック構成、又はその変形例の構成を持つHMDを、図14に示したように、3人の人物14A,14B,14Cが装着した場合を例にする。
この場合、人物14Aが装着するHMDの撮像素子3で撮影される画像には、人物14Bと人物14Cが含まれる。このため、人物14Aが装着するHMDの表示部23には、現実空間画像の人物14Bと人物14Cの視線に応じた位置に仮想物体が重畳された拡張現実画像G1が表示される。
人物14B,人物14Cが装着するHMDの撮像素子3で撮影される画像には、人物14Aのみが含まれる。このため、人物14Bが装着するHMDの表示部23には、人物14Aの視線と人物14Bが装着するHMDの視線とに応じた位置に仮想物体が重畳された拡張現実画像G2が表示される。また、人物14Cが装着するHMDの表示部23には、人物14Aの視線と人物14Cが装着するHMDの視線とに応じた位置に仮想物体が重畳された拡張現実画像G3が表示される。
このように、HMDに拡張現実機能を設けることで、撮影している側と、撮影されている側との双方で拡張現実感を共有することができる。
本実施形態で説明した拡張現実機能は、撮像装置付の三次元プロジェクタに設けることもできる。
図15は、本発明の一実施形態を説明するための三次元プロジェクタ150の概略構成を示す図である。図15に示すブロック構成は、CG重畳部17を削除し、表示制御部22及び表示部23の代わりに、投影部30を設けた点を除いては、図1に示したデジタルカメラのブロック構成と同じである。
三次元プロジェクタには、撮像画像データを世界座標に変換した仮想空間と、その仮想空間の位置に対応する現実空間の位置を記録するテーブルが登録されている。そして、重畳位置決定部11が、決定した注目点の世界座標に対応する現実空間の位置を当該テーブルから読み出し、当該現実空間の位置に仮想物体を投影するよう、投影部30に指示する。
投影部30は、この指示にしたがって、当該現実空間の位置に仮想物体を投影する。
図16に示したように、三人の人物を撮影する場合、三次元プロジェクタ150は、撮影した画像に含まれる三人の人物の視線を検出し、この視線に応じて注目点を決定し、決定した注目点に対応する現実空間位置に仮想物体(図16の例ではサッカーボール)を投影する。
このようにすることで、撮影されている人達は、HMDを用いることなく、仮想物体を共有することができる。
なお、三次元プロジェクタ150の撮影を行う部分(レンズ1、絞り2、撮像素子3、AFE32、AD変換部33、レンズ駆動部4、撮像素子駆動部5)は、本体とは別体としてもよい。撮影を行う部分を別体にすることで、人物の視線を検出しやすい位置に撮影を行う部分を配置することができ、視線検出が容易になる。
また、図5,9に示したブロック構成においても、CG重畳部17を削除し、表示制御部22及び表示部23を投影部30に変更した構成とし、重畳位置決定部11が決定した注目点に仮想物体を投影するよう投影部30に指示する構成にすることで、三次元プロジェクタとすることができる。また、三次元プロジェクタ150においても、図13で説明した変形例を適用することができる。
本実施形態で説明した拡張現実機能は、市販のコンピュータによって実現することもできる。
例えば、図4に示したフローチャートの各ステップを実行するためのプログラムを記憶したコンピュータ可読媒体(例えば、CD-ROM、CD-R、DVD-ROM,DVD-R、USBメモリ等)から当該プログラムをコンピュータにインストールしておく。このプログラムをコンピュータが実行する場合、コンピュータは、図4に示すステップS40では、ユーザから指定された撮像画像データを取得し、ステップS42の判定がNOのときと、ステップS44の判定がNOのときと、ステップS48の結果、線分が1つも残らないときには、拡張現実画像データの生成ができないことをユーザに通知して、処理を終了する。また、ステップS50では、コンピュータに接続された表示部に、拡張現実画像データに基づく画像を表示させる。
又は、コンピュータに、図8又は図12に示したフローチャートの各ステップを実行するためのプログラムを記憶したコンピュータ可読媒体から当該プログラムをコンピュータにインストールし、図5又は図9に示したデータベース10aを内蔵しておく。このプログラムをコンピュータが実行する場合、コンピュータは、図8、図12に示すステップS40では、ユーザから指定された撮像画像データを取得し、ステップS42の判定がNOのときと、ステップS44、ステップS110の判定がNOのときには、拡張現実画像データの生成ができないことをユーザに通知して、処理を終了する。また、ステップS50、ステップS114では、コンピュータに接続された表示部に、拡張現実画像データに基づく画像を表示させる。
或いは、図13に示したフローチャートの各ステップを実行するためのプログラムを記憶したコンピュータ可読媒体から当該プログラムをコンピュータにインストールしておく。このプログラムをコンピュータが実行する場合、コンピュータは、図13に示すステップ40では、ユーザから指定された撮像画像データを取得し、ステップS42の判定がNOのときと、ステップS48の結果、線分が1つも残らないときには、拡張現実画像データの生成ができないことをユーザに通知して、処理を終了する。また、ステップS50では、コンピュータに接続された表示部に、拡張現実画像データに基づく画像を表示させる。
このように、撮像機能を持たない市販のコンピュータ上でも拡張現実画像データを生成して、これを再生することができる。
以上説明してきたように、本明細書には以下の事項が開示されている。
開示された情報提示装置は、現実空間にいる人物に情報を提示する情報提示装置であって、撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御部と、前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出部と、前記視線検出部で検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定部とを備えるものである。
開示された情報提示装置は、前記視線が検出された全ての人物の属性を、前記人物の画像とその属性を対応付けて記録しているデータベースと前記全ての人物の画像とを用いて判別する属性判別部と、前記全ての人物の属性にしたがって、前記情報の内容を決定する情報内容決定部とを更に備えるものである。
開示された情報提示装置は、前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示すものである。
開示された情報提示装置は、前記撮像素子で撮像された現実空間画像に含まれる二人の人物の各々の視線のなす角度を求める角度算出部と、少なくとも前記視線のなす角度にしたがって、前記情報の内容を決定する情報内容決定部とを更に備えるものである。
開示された情報提示装置は、前記二人の人物の属性を、前記二人の人物の画像とその属性を対応付けて記録しているデータベースと前記二人の人物の画像とを用いて判別する属性判別部を更に備え、前記情報内容決定部は、前記視線のなす角度と前記二人の人物の属性にしたがって、前記情報の内容を決定するものである。
開示された情報提示装置は、前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示すものである。
開示された情報提示装置は、前記撮像素子で撮像された現実空間画像に含まれる人物が一人である場合に、前記撮像素子の視線の情報を取得する撮像素子視線情報取得部を更に備え、前記情報提示位置決定部は、前記一人の人物の視線と前記撮像素子の視線とに基づいて、前記情報の重畳位置又は前記所定位置を決定するものである。
開示されたデジタルカメラは、前記情報提示装置の各部と、前記撮像素子と、前記表示部とを備え、前記制御部が、前記撮像素子で撮像された現実空間画像に前記情報を重畳させて前記表示部に表示させる制御を行うものである。
開示されたヘッドマウントディスプレイは、前記情報提示装置の各部と、前記撮像素子と、前記表示部とを備え、前記制御部が、前記撮像素子で撮像された現実空間画像に前記情報を重畳させて前記表示部に表示させる制御を行うものである。
開示されたプロジェクタは、前記情報提示装置の各部と、前記撮像素子とを備え、前記制御部が、前記現実空間の所定位置に前記情報を投影させる制御を行うものである。
開示された情報提示方法は、現実空間にいる人物に情報を提示する情報提示方法であって、撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御ステップと、前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出ステップと、前記視線検出ステップで検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定ステップとを備えるものである。
開示された情報提示方法は、前記視線が検出された全ての人物の属性を、前記人物の画像とその属性を対応付けて記録しているデータベースと前記全ての人物の画像とを用いて判別する属性判別ステップと、前記全ての人物の属性にしたがって、前記情報の内容を決定する情報内容決定ステップとを更に備えるものである。
開示された情報提示方法は、前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示すものである。
開示された情報提示方法は、前記撮像素子で撮像された現実空間画像に含まれる二人の人物の各々の視線のなす角度を求める角度算出ステップと、少なくとも前記視線のなす角度にしたがって、前記情報の内容を決定する情報内容決定ステップとを更に備えるものである。
開示された情報提示方法は、前記二人の人物の属性を、前記二人の人物の画像とその属性を対応付けて記録しているデータベースと当該人物の画像とを用いて判別する属性判別ステップを更に備え、前記情報内容決定ステップでは、前記視線のなす角度と前記二人の人物の属性にしたがって、前記情報の内容を決定するものである。
開示された情報提示方法は、前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示すものである。
開示された情報提示方法は、前記撮像素子で撮像された現実空間画像に含まれる人物が一人である場合に、前記撮像素子の視線の情報を取得する撮像素子視線情報取得ステップを更に備え、前記情報提示位置決定ステップでは、前記一人の人物の視線の方向と前記撮像素子の視線の方向とに基づいて、前記情報の重畳位置又は前記所定位置を決定するものである。
開示された情報提示プログラムは、前記情報提示方法の各ステップをコンピュータに実行させるためのプログラムである。
本発明によれば、利便性の高い情報提示装置、情報提示方法、及び情報提示プログラムを提供することができる。
本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
本出願は、2010年9月30日出願の日本出願(特願2010-223278)に基づくものであり、その内容はここに参照として取り込まれる。
本出願は、2010年9月30日出願の日本出願(特願2010-223278)に基づくものであり、その内容はここに参照として取り込まれる。
3 撮像素子
11 重畳位置決定部
12 視線検出部
17 CG重畳部
23 表示部
11 重畳位置決定部
12 視線検出部
17 CG重畳部
23 表示部
Claims (18)
- 現実空間にいる人物に情報を提示する情報提示装置であって、
撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御部と、
前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出部と、
前記視線検出部で検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定部とを備える情報提示装置。 - 請求項1記載の情報提示装置であって、
前記視線が検出された全ての人物の属性を、前記人物の画像とその属性を対応付けて記録しているデータベースと、前記全ての人物の画像とを用いて判別する属性判別部と、
前記全ての人物の属性にしたがって、前記情報の内容を決定する情報内容決定部とを更に備える情報提示装置。 - 請求項2記載の情報提示装置であって、
前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示す情報提示装置。 - 請求項1記載の情報提示装置であって、
前記撮像素子で撮像された現実空間画像に含まれる二人の人物の各々の視線のなす角度を求める角度算出部と、
少なくとも前記視線のなす角度にしたがって、前記情報の内容を決定する情報内容決定部とを更に備える情報提示装置。 - 請求項4記載の情報提示装置であって、
前記二人の人物の属性を、前記二人の人物の画像とその属性を対応付けて記録しているデータベースと、前記二人の人物の画像とを用いて判別する属性判別部を更に備え、
前記情報内容決定部は、前記視線のなす角度と前記二人の人物の属性にしたがって、前記情報の内容を決定する情報提示装置。 - 請求項5記載の情報提示装置であって、
前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示す情報提示装置。 - 請求項1記載の情報提示装置であって、
前記撮像素子で撮像された現実空間画像に含まれる人物が一人である場合に、前記撮像素子の視線の情報を取得する撮像素子視線情報取得部を備え、
前記情報提示位置決定部は、前記一人の人物の視線と前記撮像素子の視線とに基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示装置。 - 請求項1~7のいずれか1項記載の情報提示装置の各部と、
前記撮像素子と、
前記表示部とを備え、
前記制御部が、前記撮像素子で撮像された現実空間画像に前記情報を重畳させて前記表示部に表示させる制御を行うデジタルカメラ。 - 請求項1~7のいずれか1項記載の情報提示装置の各部と、
前記撮像素子と、
前記表示部とを備え、
前記制御部が、前記撮像素子で撮像された現実空間画像に前記情報を重畳させて前記表示部に表示させる制御を行うヘッドマウントディスプレイ。 - 請求項1~7のいずれか1項記載の情報提示装置の各部と、
前記撮像素子とを備え、
前記制御部が、前記現実空間の所定位置に前記情報を投影させる制御を行うプロジェクタ。 - 現実空間にいる人物に情報を提示する情報提示方法であって、
撮像素子で撮像された現実空間画像に前記情報を重畳させて表示部に表示させる制御、又は、前記現実空間の所定位置に前記情報を投影させる制御を行う制御ステップと、
前記撮像素子で撮像された現実空間画像に含まれる人物の視線を検出する視線検出ステップと、
前記視線検出ステップで検出された視線に基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示位置決定ステップとを備える情報提示方法。 - 請求項11記載の情報提示方法であって、
前記視線が検出された全ての人物の属性を、前記人物の画像とその属性を対応付けて記録しているデータベースと、前記全ての人物の画像とを用いて判別する属性判別ステップと、
前記全ての人物の属性にしたがって、前記情報の内容を決定する情報内容決定ステップとを更に備える情報提示方法。 - 請求項12記載の情報提示方法であって、
前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示す情報提示方法。 - 請求項11記載の情報提示方法であって、
前記撮像素子で撮像された現実空間画像に含まれる二人の人物の各々の視線のなす角度を求める角度算出ステップと、
少なくとも前記視線のなす角度にしたがって、前記情報の内容を決定する情報内容決定ステップとを更に備える情報提示方法。 - 請求項14記載の情報提示方法であって、
前記二人の人物の属性を、前記二人の人物の画像とその属性を対応付けて記録しているデータベースと当該人物の画像とを用いて判別する属性判別ステップを更に備え、
前記情報内容決定ステップでは、前記視線のなす角度と前記二人の人物の属性にしたがって、前記情報の内容を決定する情報提示方法。 - 請求項15記載の情報提示方法であって、
前記人物の属性は、性別、年齢、職業、名前、及び服装のうち少なくとも1つを示す情報提示方法。 - 請求項11記載の情報提示方法であって、
前記撮像素子で撮像された現実空間画像に含まれる人物が一人である場合に、前記撮像素子の視線の情報を取得する撮像素子視線情報取得ステップを更に備え、
前記情報提示位置決定ステップでは、前記一人の人物の視線の方向と前記撮像素子の視線の方向とに基づいて、前記情報の重畳位置又は前記所定位置を決定する情報提示方法。 - 請求項11~17のいずれか1項記載の情報提示方法の各ステップをコンピュータに実行させるための情報提示プログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201180047398.9A CN103140879B (zh) | 2010-09-30 | 2011-05-27 | 信息呈现装置、数字照相机、头戴式显示器、投影仪、信息呈现方法和信息呈现程序 |
JP2012536250A JP5337915B2 (ja) | 2010-09-30 | 2011-05-27 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
EP11828536.0A EP2624217A4 (en) | 2010-09-30 | 2011-05-27 | Information presentation device, digital camera, head mount display, projector, information presentation method, and information presentation program |
US13/853,188 US9196093B2 (en) | 2010-09-30 | 2013-03-29 | Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010223278 | 2010-09-30 | ||
JP2010-223278 | 2010-09-30 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US13/853,188 Continuation US9196093B2 (en) | 2010-09-30 | 2013-03-29 | Information presentation device, digital camera, head mount display, projector, information presentation method and non-transitory computer readable medium |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2012042974A1 true WO2012042974A1 (ja) | 2012-04-05 |
Family
ID=45892455
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2011/062275 WO2012042974A1 (ja) | 2010-09-30 | 2011-05-27 | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US9196093B2 (ja) |
EP (1) | EP2624217A4 (ja) |
JP (1) | JP5337915B2 (ja) |
CN (1) | CN103140879B (ja) |
WO (1) | WO2012042974A1 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015197924A (ja) * | 2014-03-31 | 2015-11-09 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自動映像選択装置、自動映像選択方法、コンピュータ可読記録媒体及びコンピューティング装置 |
CN105391938A (zh) * | 2014-08-27 | 2016-03-09 | 株式会社理光 | 图像处理装置、图像处理方法和计算机程序产品 |
JP6040336B1 (ja) * | 2016-07-25 | 2016-12-07 | 株式会社オーエムアイ | 撮影対象位置特定装置、撮影対象位置特定方法、及びプログラム |
JP2019080252A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社リコー | プログラム、画像表示方法、画像表示システム、情報処理装置 |
WO2020157821A1 (ja) * | 2019-01-29 | 2020-08-06 | 三菱電機エンジニアリング株式会社 | 作業支援システム |
WO2020255758A1 (ja) * | 2019-06-19 | 2020-12-24 | ソニー株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
JP7395855B2 (ja) | 2018-07-10 | 2023-12-12 | 富士フイルムビジネスイノベーション株式会社 | 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9298007B2 (en) | 2014-01-21 | 2016-03-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9400390B2 (en) | 2014-01-24 | 2016-07-26 | Osterhout Group, Inc. | Peripheral lighting for head worn computing |
US9715112B2 (en) | 2014-01-21 | 2017-07-25 | Osterhout Group, Inc. | Suppression of stray light in head worn computing |
US20150205111A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Optical configurations for head worn computing |
US9229233B2 (en) | 2014-02-11 | 2016-01-05 | Osterhout Group, Inc. | Micro Doppler presentations in head worn computing |
US9952664B2 (en) | 2014-01-21 | 2018-04-24 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9965681B2 (en) | 2008-12-16 | 2018-05-08 | Osterhout Group, Inc. | Eye imaging in head worn computing |
JPWO2013077338A1 (ja) | 2011-11-21 | 2015-04-27 | 株式会社ニコン | 表示装置、表示制御プログラム |
US10955665B2 (en) * | 2013-06-18 | 2021-03-23 | Microsoft Technology Licensing, Llc | Concurrent optimal viewing of virtual objects |
US9658454B2 (en) | 2013-09-06 | 2017-05-23 | Omnivision Technologies, Inc. | Eyewear display system providing vision enhancement |
KR102138520B1 (ko) * | 2013-11-11 | 2020-08-11 | 엘지전자 주식회사 | 헤드 마운트 디스플레이 및 제어 방법 |
US20150277118A1 (en) | 2014-03-28 | 2015-10-01 | Osterhout Group, Inc. | Sensor dependent content position in head worn computing |
US9448409B2 (en) | 2014-11-26 | 2016-09-20 | Osterhout Group, Inc. | See-through computer display systems |
US9671613B2 (en) | 2014-09-26 | 2017-06-06 | Osterhout Group, Inc. | See-through computer display systems |
US10684687B2 (en) | 2014-12-03 | 2020-06-16 | Mentor Acquisition One, Llc | See-through computer display systems |
US10254856B2 (en) | 2014-01-17 | 2019-04-09 | Osterhout Group, Inc. | External user interface for head worn computing |
US20160019715A1 (en) | 2014-07-15 | 2016-01-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US9939934B2 (en) | 2014-01-17 | 2018-04-10 | Osterhout Group, Inc. | External user interface for head worn computing |
US9829707B2 (en) | 2014-08-12 | 2017-11-28 | Osterhout Group, Inc. | Measuring content brightness in head worn computing |
US9575321B2 (en) | 2014-06-09 | 2017-02-21 | Osterhout Group, Inc. | Content presentation in head worn computing |
US10649220B2 (en) | 2014-06-09 | 2020-05-12 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US11103122B2 (en) | 2014-07-15 | 2021-08-31 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US9746686B2 (en) | 2014-05-19 | 2017-08-29 | Osterhout Group, Inc. | Content position calibration in head worn computing |
US11227294B2 (en) | 2014-04-03 | 2022-01-18 | Mentor Acquisition One, Llc | Sight information collection in head worn computing |
US10191279B2 (en) | 2014-03-17 | 2019-01-29 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9299194B2 (en) | 2014-02-14 | 2016-03-29 | Osterhout Group, Inc. | Secure sharing in head worn computing |
US9529195B2 (en) | 2014-01-21 | 2016-12-27 | Osterhout Group, Inc. | See-through computer display systems |
US20150294156A1 (en) * | 2014-04-14 | 2015-10-15 | Osterhout Group, Inc. | Sight information collection in head worn computing |
US9841599B2 (en) | 2014-06-05 | 2017-12-12 | Osterhout Group, Inc. | Optical configurations for head-worn see-through displays |
US9810906B2 (en) | 2014-06-17 | 2017-11-07 | Osterhout Group, Inc. | External user interface for head worn computing |
US9594246B2 (en) | 2014-01-21 | 2017-03-14 | Osterhout Group, Inc. | See-through computer display systems |
US9836122B2 (en) | 2014-01-21 | 2017-12-05 | Osterhout Group, Inc. | Eye glint imaging in see-through computer display systems |
US20150205135A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | See-through computer display systems |
US11487110B2 (en) | 2014-01-21 | 2022-11-01 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US9532714B2 (en) | 2014-01-21 | 2017-01-03 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9753288B2 (en) | 2014-01-21 | 2017-09-05 | Osterhout Group, Inc. | See-through computer display systems |
US9651788B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11737666B2 (en) | 2014-01-21 | 2023-08-29 | Mentor Acquisition One, Llc | Eye imaging in head worn computing |
US11669163B2 (en) | 2014-01-21 | 2023-06-06 | Mentor Acquisition One, Llc | Eye glint imaging in see-through computer display systems |
US9651784B2 (en) | 2014-01-21 | 2017-05-16 | Osterhout Group, Inc. | See-through computer display systems |
US11892644B2 (en) | 2014-01-21 | 2024-02-06 | Mentor Acquisition One, Llc | See-through computer display systems |
US20150206173A1 (en) | 2014-01-21 | 2015-07-23 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9766463B2 (en) | 2014-01-21 | 2017-09-19 | Osterhout Group, Inc. | See-through computer display systems |
US9494800B2 (en) | 2014-01-21 | 2016-11-15 | Osterhout Group, Inc. | See-through computer display systems |
US9846308B2 (en) | 2014-01-24 | 2017-12-19 | Osterhout Group, Inc. | Haptic systems for head-worn computers |
US20150241964A1 (en) | 2014-02-11 | 2015-08-27 | Osterhout Group, Inc. | Eye imaging in head worn computing |
US9401540B2 (en) | 2014-02-11 | 2016-07-26 | Osterhout Group, Inc. | Spatial location presentation in head worn computing |
US20160187651A1 (en) | 2014-03-28 | 2016-06-30 | Osterhout Group, Inc. | Safety for a vehicle operator with an hmd |
US10853589B2 (en) | 2014-04-25 | 2020-12-01 | Mentor Acquisition One, Llc | Language translation with head-worn computing |
US9651787B2 (en) | 2014-04-25 | 2017-05-16 | Osterhout Group, Inc. | Speaker assembly for headworn computer |
US9672210B2 (en) | 2014-04-25 | 2017-06-06 | Osterhout Group, Inc. | Language translation with head-worn computing |
US9423842B2 (en) | 2014-09-18 | 2016-08-23 | Osterhout Group, Inc. | Thermal management for head-worn computer |
US10663740B2 (en) | 2014-06-09 | 2020-05-26 | Mentor Acquisition One, Llc | Content presentation in head worn computing |
US10297082B2 (en) * | 2014-10-07 | 2019-05-21 | Microsoft Technology Licensing, Llc | Driving a projector to generate a shared spatial augmented reality experience |
US9684172B2 (en) | 2014-12-03 | 2017-06-20 | Osterhout Group, Inc. | Head worn computer display systems |
JP6152888B2 (ja) * | 2014-12-25 | 2017-06-28 | キヤノンマーケティングジャパン株式会社 | 情報処理装置、その制御方法、及びプログラム、並びに、情報処理システム、その制御方法、及びプログラム |
USD751552S1 (en) | 2014-12-31 | 2016-03-15 | Osterhout Group, Inc. | Computer glasses |
USD753114S1 (en) | 2015-01-05 | 2016-04-05 | Osterhout Group, Inc. | Air mouse |
CN105812778B (zh) * | 2015-01-21 | 2018-02-02 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
US20160239985A1 (en) | 2015-02-17 | 2016-08-18 | Osterhout Group, Inc. | See-through computer display systems |
US10149958B1 (en) * | 2015-07-17 | 2018-12-11 | Bao Tran | Systems and methods for computer assisted operation |
KR101697286B1 (ko) * | 2015-11-09 | 2017-01-18 | 경북대학교 산학협력단 | 사용자 스타일링을 위한 증강현실 제공 장치 및 방법 |
AU2016201974A1 (en) * | 2016-03-30 | 2017-10-19 | Canon Kabushiki Kaisha | Displaying a document as mixed reality content |
CN105894584B (zh) * | 2016-04-15 | 2019-08-02 | 北京小鸟看看科技有限公司 | 一种三维沉浸式环境下与现实环境交互的方法和装置 |
JP6746775B2 (ja) * | 2017-03-31 | 2020-08-26 | シャープ株式会社 | 情報提供装置、端末装置、表示システム、プログラム及び情報提供方法 |
WO2019026052A1 (en) * | 2017-08-04 | 2019-02-07 | Zyetric Enterprise Limited | INTELLIGENT VIRTUAL OBJECT IN AN INCREASED REALITY ENVIRONMENT INTERACTIVELY RESPONDING TO AMBIENT ENVIRONMENTAL CHANGES |
EP3621086A1 (en) * | 2018-09-06 | 2020-03-11 | Koninklijke Philips N.V. | Augmented reality user guidance during examinations or interventional procedures |
CN113168007B (zh) * | 2018-09-25 | 2023-09-15 | 奇跃公司 | 用于增强现实的系统和方法 |
WO2020095639A1 (ja) * | 2018-11-09 | 2020-05-14 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
TWI704473B (zh) * | 2018-11-16 | 2020-09-11 | 財團法人工業技術研究院 | 視線向量偵測方向與裝置 |
WO2022031266A1 (en) * | 2020-08-04 | 2022-02-10 | Hewlett-Packard Development Company, L.P. | Collision avoidance of head mounted displays |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1055257A (ja) * | 1996-08-09 | 1998-02-24 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間表示方法 |
JP2000331190A (ja) | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
JP2004062756A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報提示装置および情報処理方法 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2005174021A (ja) | 2003-12-11 | 2005-06-30 | Canon Inc | 情報提示方法及び装置 |
JP2006227838A (ja) * | 2005-02-16 | 2006-08-31 | Nec Corp | 画像処理装置及び画像処理プログラム |
JP2006301924A (ja) * | 2005-04-20 | 2006-11-02 | Canon Inc | 画像処理方法および画像処理装置 |
JP2007026073A (ja) | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | 顔姿勢検出システム |
JP2009289035A (ja) | 2008-05-29 | 2009-12-10 | Jiro Makino | 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム |
JP2010044448A (ja) | 2008-08-08 | 2010-02-25 | Panasonic Corp | 画像処理装置および画像処理方法 |
JP2010223278A (ja) | 2009-03-20 | 2010-10-07 | Daihatsu Motor Co Ltd | 変速機の潤滑装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008108246A (ja) * | 2006-10-23 | 2008-05-08 | Internatl Business Mach Corp <Ibm> | 閲覧者の位置に従って仮想画像を生成するための方法、システム、およびコンピュータ・プログラム |
US8098881B2 (en) * | 2008-03-11 | 2012-01-17 | Sony Ericsson Mobile Communications Ab | Advertisement insertion systems and methods for digital cameras based on object recognition |
JP2009260630A (ja) * | 2008-04-16 | 2009-11-05 | Olympus Corp | 画像処理装置および画像処理プログラム |
-
2011
- 2011-05-27 JP JP2012536250A patent/JP5337915B2/ja active Active
- 2011-05-27 WO PCT/JP2011/062275 patent/WO2012042974A1/ja active Application Filing
- 2011-05-27 CN CN201180047398.9A patent/CN103140879B/zh active Active
- 2011-05-27 EP EP11828536.0A patent/EP2624217A4/en not_active Withdrawn
-
2013
- 2013-03-29 US US13/853,188 patent/US9196093B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1055257A (ja) * | 1996-08-09 | 1998-02-24 | Nippon Telegr & Teleph Corp <Ntt> | 3次元仮想空間表示方法 |
JP2000331190A (ja) | 1999-05-20 | 2000-11-30 | Atr Media Integration & Communications Res Lab | 仮想変身装置 |
JP2004062756A (ja) * | 2002-07-31 | 2004-02-26 | Canon Inc | 情報提示装置および情報処理方法 |
JP2005049996A (ja) * | 2003-07-30 | 2005-02-24 | Canon Inc | 画像表示方法及び装置 |
JP2005174021A (ja) | 2003-12-11 | 2005-06-30 | Canon Inc | 情報提示方法及び装置 |
JP2006227838A (ja) * | 2005-02-16 | 2006-08-31 | Nec Corp | 画像処理装置及び画像処理プログラム |
JP2006301924A (ja) * | 2005-04-20 | 2006-11-02 | Canon Inc | 画像処理方法および画像処理装置 |
JP2007026073A (ja) | 2005-07-15 | 2007-02-01 | National Univ Corp Shizuoka Univ | 顔姿勢検出システム |
JP2009289035A (ja) | 2008-05-29 | 2009-12-10 | Jiro Makino | 画像表示システム、携帯型表示装置、サーバコンピュータ、および遺跡観光システム |
JP2010044448A (ja) | 2008-08-08 | 2010-02-25 | Panasonic Corp | 画像処理装置および画像処理方法 |
JP2010223278A (ja) | 2009-03-20 | 2010-10-07 | Daihatsu Motor Co Ltd | 変速機の潤滑装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP2624217A4 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015197924A (ja) * | 2014-03-31 | 2015-11-09 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自動映像選択装置、自動映像選択方法、コンピュータ可読記録媒体及びコンピューティング装置 |
CN105391938A (zh) * | 2014-08-27 | 2016-03-09 | 株式会社理光 | 图像处理装置、图像处理方法和计算机程序产品 |
JP6040336B1 (ja) * | 2016-07-25 | 2016-12-07 | 株式会社オーエムアイ | 撮影対象位置特定装置、撮影対象位置特定方法、及びプログラム |
JP2019080252A (ja) * | 2017-10-26 | 2019-05-23 | 株式会社リコー | プログラム、画像表示方法、画像表示システム、情報処理装置 |
US11140324B2 (en) | 2017-10-26 | 2021-10-05 | Ricoh Company, Ltd. | Method of displaying wide-angle image, image display system, and information processing apparatus |
JP7031228B2 (ja) | 2017-10-26 | 2022-03-08 | 株式会社リコー | プログラム、画像表示方法、画像表示システム、情報処理装置 |
JP7395855B2 (ja) | 2018-07-10 | 2023-12-12 | 富士フイルムビジネスイノベーション株式会社 | 360度ビデオへのデジタルストリームの自動検出及び挿入のためのシステム、方法及びプログラム |
WO2020157821A1 (ja) * | 2019-01-29 | 2020-08-06 | 三菱電機エンジニアリング株式会社 | 作業支援システム |
JPWO2020157821A1 (ja) * | 2019-01-29 | 2021-09-30 | 三菱電機エンジニアリング株式会社 | 作業支援システム |
JP7034340B2 (ja) | 2019-01-29 | 2022-03-11 | 三菱電機エンジニアリング株式会社 | 作業支援システム |
WO2020255758A1 (ja) * | 2019-06-19 | 2020-12-24 | ソニー株式会社 | 情報処理装置および情報処理方法、並びにプログラム |
US11914760B2 (en) | 2019-06-19 | 2024-02-27 | Sony Group Corporation | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
EP2624217A1 (en) | 2013-08-07 |
US20130215149A1 (en) | 2013-08-22 |
JP5337915B2 (ja) | 2013-11-06 |
CN103140879B (zh) | 2017-06-16 |
CN103140879A (zh) | 2013-06-05 |
JPWO2012042974A1 (ja) | 2014-02-06 |
EP2624217A4 (en) | 2017-07-26 |
US9196093B2 (en) | 2015-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5337915B2 (ja) | 情報提示装置、デジタルカメラ、ヘッドマウントディスプレイ、プロジェクタ、情報提示方法、情報提示プログラム | |
US8860847B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for creating an image | |
JP3847753B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
JP5632100B2 (ja) | 表情出力装置及び表情出力方法 | |
JP4804256B2 (ja) | 情報処理方法 | |
US8648924B2 (en) | Computer-readable storage medium having stored thereon image generation program, capturing apparatus, capturing system, and image generation method for generating a combination image on a display of the capturing apparatus | |
US9607439B2 (en) | Information processing apparatus and information processing method | |
JP5672109B2 (ja) | 撮像装置及び撮像方法、並びにプログラム | |
JP5762600B1 (ja) | 情報処理装置及び情報処理方法 | |
JP6771435B2 (ja) | 情報処理装置および位置情報取得方法 | |
JP2019032599A (ja) | 情報処理装置および位置情報取得方法 | |
JP2022000697A (ja) | 表示装置、表示装置の制御方法 | |
JP4689548B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
JP4745724B2 (ja) | 画像処理方法、画像処理装置 | |
JP5092093B2 (ja) | 画像処理装置 | |
JP2019133276A (ja) | 画像処理システム、端末 | |
JP7065708B2 (ja) | 録画再生装置及びプログラム | |
KR20150073754A (ko) | 동작 훈련 장치 및 동작 훈련 방법 | |
JP2019040357A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム | |
JP2021004894A (ja) | 情報処理装置および位置情報取得方法 | |
JP4767331B2 (ja) | 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス | |
JP2019079299A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP5712734B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2019040356A (ja) | 画像処理装置、画像処理方法、コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 201180047398.9 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 11828536 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2012536250 Country of ref document: JP |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2011828536 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |