JP2012216077A - Augmented reality providing device and superimposition method of virtual object - Google Patents
Augmented reality providing device and superimposition method of virtual object Download PDFInfo
- Publication number
- JP2012216077A JP2012216077A JP2011080897A JP2011080897A JP2012216077A JP 2012216077 A JP2012216077 A JP 2012216077A JP 2011080897 A JP2011080897 A JP 2011080897A JP 2011080897 A JP2011080897 A JP 2011080897A JP 2012216077 A JP2012216077 A JP 2012216077A
- Authority
- JP
- Japan
- Prior art keywords
- captured image
- augmented reality
- image data
- face
- ground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、拡張現実感を提供する拡張現実感提供装置及び仮想物体の重畳方法に関する。 The present invention relates to an augmented reality providing apparatus that provides augmented reality and a virtual object superimposing method.
カメラで撮影した被写界の画像に、仮想物体を重畳表示させる拡張現実技術が普及してきており、この技術を採用した携帯電話機やヘッドマウントディスプレイ(HMD)が登場してきている。 Augmented reality technology that superimposes and displays a virtual object on an image of a scene taken by a camera has become widespread, and mobile phones and head mounted displays (HMD) that employ this technology have appeared.
例えば、特許文献1には、デジタルカメラで撮像して得られたマーカーを含む画像をモニタ上に表示すると共に、モニタに表示されているカードのマーカー上に、当該マーカーに対応したオブジェクトの三次元画像(仮想物体)を重畳して表示する拡張現実感提供装置が記載されている。 For example, in Patent Document 1, an image including a marker obtained by imaging with a digital camera is displayed on a monitor, and a three-dimensional object corresponding to the marker is displayed on a marker of a card displayed on the monitor. An augmented reality providing apparatus that superimposes and displays an image (virtual object) is described.
特許文献1に記載の装置では、仮想物体を重畳させるべき位置を、マーカーを検出することによって決めている。このため、マーカーを含む画像にしか仮想物体を重畳させることができず、汎用性が低い。 In the apparatus described in Patent Document 1, a position where a virtual object is to be superimposed is determined by detecting a marker. For this reason, a virtual object can be superimposed only on an image including a marker, and versatility is low.
特許文献2には、撮影者の視点位置や視線方向等によって被写体の位置関係を特定し、撮像画像上に仮想物体を重畳する技術が記載されている。この技術によれば、マーカーを用いなくとも、撮像画像に仮想物体を重畳させることができる。 Japanese Patent Application Laid-Open No. 2004-228561 describes a technique for specifying a positional relationship of a subject based on a photographer's viewpoint position, line-of-sight direction, and the like and superimposing a virtual object on a captured image. According to this technique, a virtual object can be superimposed on a captured image without using a marker.
しかしながら、特許文献2に記載の技術では、撮影画像における地面の位置までは把握することができないため、仮想物体を地面に対して適当な角度でしか重畳させることができず、ユーザに違和感を与えてしまうことがある。
However, since the technique described in
本発明は、上記事情に鑑みてなされたものであり、マーカーを用いることなく、違和感のない拡張現実感を提供することが可能な拡張現実感提供装置及び仮想物体の重畳方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an augmented reality providing apparatus and a virtual object superimposing method capable of providing an augmented reality without using a marker without using a marker. Objective.
本発明の拡張現実感提供装置は、使用者に対して拡張現実感を提供する拡張現実感提供装置であって、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備えるものである。 The augmented reality providing device of the present invention is an augmented reality providing device that provides augmented reality to a user, and is one of two captured image data generated from two captured image signals having parallax. A first image based on certain first imaged image data, and a display unit that compositely displays a second image based on the second imaged image data that is the other of the two imaged image data in a stereoscopic manner; A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data Extract A contour extraction process, a two-dimensional coordinate of the contour extracted by the contour extraction process, a coordinate conversion process for converting the coordinate of the face calculated by the face coordinate calculation process into a coordinate in the three-dimensional space, and the tertiary A ground estimation unit that performs a ground estimation process for estimating a plane perpendicular to the vertical line including an end of the outline in the original space in the augmented reality providing device in a direction in which the vertical line extends, and the display unit A display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic image displayed on the screen.
本発明の仮想物体の重畳方法は、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示し、当該立体視可能に表示される立体映像に仮想物体を重畳表示させて拡張現実感を提供する拡張現実感提供装置における仮想物体の重畳方法であって、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備えるものである。 The virtual object superimposing method of the present invention includes a first image based on first captured image data that is one of two captured image data generated from two captured image signals having a parallax, and the two captured images. A second image based on the second captured image data, which is the other of the image data, is combined and displayed in a stereoscopic view, and a virtual object is superimposed on the stereoscopic image displayed in the stereoscopic view to provide augmented reality. A method of superimposing a virtual object in an augmented reality providing apparatus, wherein a face detection step of detecting a face from the first captured image data and the second captured image data, the first captured image data, and the A face coordinate calculation step of calculating the coordinates of the face in a three-dimensional space using the augmented reality providing device as an origin using face data commonly detected from second captured image data; The contour extraction step for extracting the contour of the subject including the face from the image image data and the second captured image data, and the two-dimensional coordinates of the contour extracted by the contour extraction step are calculated by the face coordinate calculation step. A coordinate conversion step for converting into coordinates in the three-dimensional space based on the coordinates of the face; and an end of the contour in the three-dimensional space in the direction in which the vertical line of the augmented reality providing device extends and the vertical line A ground estimation step for estimating a vertical plane as a ground; and a display control step for performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic image.
本発明によれば、マーカーを用いることなく、違和感のない拡張現実感を提供することが可能な拡張現実感提供装置及び仮想物体の重畳方法を提供することができる。 According to the present invention, it is possible to provide an augmented reality providing apparatus and a virtual object superimposing method capable of providing an augmented reality without a sense of incongruity without using a marker.
以下、本発明の一実施形態を説明するための拡張現実感提供装置について図面を参照して説明する。この拡張現実感提供装置は、距離をあけて配置された左右2つの撮像部を有し、各撮像部で撮像して得られた右撮像画像データ及び左撮像画像データを表示部において立体視可能に合成表示するものとなっている。また、この拡張現実感提供装置は、表示部に表示される立体映像に、コンピュータグラフィックにより形成された仮想物体を重畳表示させるものである。この拡張現実感提供装置によれば、表示部には、撮影中の被写界像に仮想物体が重畳された映像が表示されるため、この表示部を観察する人に対して拡張現実感を与えることができる。 Hereinafter, an augmented reality providing device for explaining an embodiment of the present invention will be described with reference to the drawings. This augmented reality providing device has two left and right imaging units arranged at a distance, and the right and left captured image data obtained by imaging with each imaging unit can be stereoscopically viewed on the display unit Are combined and displayed. Further, this augmented reality providing device displays a virtual object formed by computer graphics superimposed on a stereoscopic image displayed on the display unit. According to this augmented reality providing device, the display unit displays an image in which a virtual object is superimposed on the object scene image being shot. Therefore, augmented reality is provided to a person observing the display unit. Can be given.
図1は、本発明の一実施形態を説明するための拡張現実感提供装置の一例としてのデジタルカメラの外観図である。図1に示されるデジタルカメラ100は、箱状のハウジングKと、ハウジングKの前面に水平方向(ハウジングKの長手方向)に距離を空けて設けられた右眼用の撮像部1及び左眼用の撮像部2と、ハウジングKの上面に設けられたレリーズボタン16aとを備える。撮像部1は撮影レンズ1Rを備え、撮像部2は撮影レンズ1Lを備える。撮影レンズ1Rの光軸Rと、撮影レンズ1Lの光軸Lとが交差する角度を輻輳角といい、輻輳角が所定値となるように、撮影レンズ1Rと撮影レンズ1Lの位置が設定されている。
FIG. 1 is an external view of a digital camera as an example of an augmented reality providing device for explaining an embodiment of the present invention. A
図2は、図1に示されるデジタルカメラ100の内部構成を示すブロック図である。
FIG. 2 is a block diagram showing an internal configuration of the
図2に示されるように、デジタルカメラ100は、撮像部1,2と、画像入力コントローラ3と、画像処理部4と、地面推定部5と、仮想物体データベース(DB)6と、デジタルカメラ100全体を統括制御するCPU(中央演算処理装置)8と、ワークメモリとして使用されるRAM(ランダムアクセスメモリ)9と、表示部11が接続された表示制御部10と、着脱可能な記録媒体13が接続された記録制御部12と、マイク及びスピーカ15が接続された音声制御部14と、CPU8に接続された操作部16(図1のレリーズボタン16aを含む)とを備え、撮像部1,2以外の各部はバス17で相互に接続されている。
As shown in FIG. 2, the
撮像部1,2は、それぞれ、撮影レンズ及び絞り等の光学系、CCDイメージセンサやCMOSイメージセンサ等の撮像素子、この撮像素子から出力された撮像画像信号にアナログ信号処理を施すアナログ信号処理部、アナログ信号処理部で処理後の信号をデジタル変換するAD変換部、及び撮像素子を駆動する駆動部等を含む。撮像部1と撮像部2は、視差のある2つの撮像画像信号を得るために、水平方向に距離を空けて配置されており、この水平方向が、デジタルカメラ100において視差の得られる方向となる。
The
画像入力コントローラ3は、撮像部1,2の各々から出力された撮像画像信号を取り込み、この撮像画像信号をRAM9に記憶する。
The
画像処理部4は、RAM9に記憶された撮像画像信号に、同時化処理(1画素に3つの色データを持たせる処理)、ホワイトバランス処理、RGB−YC変換処理等の周知のデジタル信号処理を施して、撮像画像データを生成する。ここで生成される撮像画像データのうち、撮像部1から出力された撮像画像信号から生成されたものを右撮像画像データといい、撮像部2から出力された撮像画像信号から生成されたものを左撮像画像データという。右撮像画像データ及び左撮像画像データはRAM9に記憶される。
The image processing unit 4 performs well-known digital signal processing such as synchronization processing (processing for giving three color data to one pixel), white balance processing, RGB-YC conversion processing, etc., on the captured image signal stored in the
表示制御部10は、画像処理部4にて生成された右撮像画像データに基づく右画像と、画像処理部4にて生成された左撮像画像データに基く左画像とを、表示部11にて立体視可能に合成表示させる。
The
表示部11は、時分割視差画像方式、レンチキュラ方式、及びパララックスバリア方式等に対応した液晶表示装置等で構成され、表示制御部10の制御により、右画像と左画像とを例えば交互に表示させることで立体視可能な映像(立体映像)を表示する。
The display unit 11 is configured by a liquid crystal display device or the like that supports a time-division parallax image method, a lenticular method, a parallax barrier method, and the like, and displays a right image and a left image alternately, for example, under control of the
仮想物体DB6は、表示部11に表示される立体映像に重畳すべき仮想物体のデータが予め登録されているものである。仮想物体のデータは、右画像に重畳するべき右画像用仮想データと、左画像に重畳するべき左画像用仮想データとが登録されている。 In the virtual object DB 6, virtual object data to be superimposed on the stereoscopic video displayed on the display unit 11 is registered in advance. As virtual object data, right image virtual data to be superimposed on the right image and left image virtual data to be superimposed on the left image are registered.
地面推定部5は、デジタルカメラ100の置かれている三次元空間における地面の位置を推定するものである。この三次元空間は、デジタルカメラ100の重心位置を原点とし、この原点を通りかつ筐体Kの長手方向(視差の得られる方向)に伸びる直線をY軸とし、この原点を通りかつ撮像部1,2が設けられる筐体K前面に垂直な方向(撮影方向)に伸びる直線をX軸とし、この原点を通りかつXY平面に垂直な直線(筐体Kの短手方向に伸びる直線)をZ軸とした座標によって定義される空間である。なお、撮像部1,2によって撮像して得られる各撮像画像データは、被写体を上記三次元空間のYZ平面に投影したものに相当し、各撮像画像データの各画素は、各撮像画像データの中心にある画素を原点とする座標(y,z)によってその位置が特定される。
The
表示制御部10は、表示部11に表示中の立体映像における、地面推定部5によって推定された地面に対応する位置に、仮想物体DB6から取得した仮想物体のデータに基づく仮想物体画像を重畳表示させる制御も行う。表示制御部10は、右画像用仮想データに基づく仮想物体画像を右画像に重畳表示させ、左画像用仮想データに基づく仮想物体画像を左画像に重畳表示させることで、立体映像の所定位置に、仮想物体画像を重畳表示させる。
The
デジタルカメラ100は、撮像部1と撮像部2によって撮像を行い、当該撮像によって生成された右撮像画像データと左撮像画像データを立体視可能な形式で対応付けて記録媒体13に記録する3D撮影モードの他に、撮像部1と撮像部2によって人物を含む被写体の撮像を行い、当該撮像によって生成された右撮像画像データに基づく右画像と左撮像画像データに基づく左画像とを立体映像として表示すると共に、当該立体映像に仮想物体画像を重畳させて、ユーザに拡張現実感を提供する拡張現実モードを設定可能であり、以下では、拡張現実モード時のデジタルカメラ100の動作を説明する。
The
図3は、図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するためのフローチャートである。図4〜図9は、図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図である。以下では、デジタルカメラ100のZ軸方向が地面に対して垂直の状態で撮影がなされることを前提として説明する。
FIG. 3 is a flowchart for explaining the operation of the
デジタルカメラ100が拡張現実モードに設定されると、撮像部1及び撮像部2により動画撮影が開始され、表示部11には、撮影中の被写界像が立体映像として表示される。
When the
動画撮影が開始されると、画像処理部4では、右撮像画像データ及び左撮像画像データがフレーム毎に生成され、RAM9に記憶される。RAM9に記憶された右撮像画像データ及び左撮像画像データは、表示制御部10によって表示部11に立体視可能に表示される。地面推定部5は、右撮像画像データ及び左撮像画像データが生成されるたびに、RAM9に記憶された右撮像画像データ及び左撮像画像データの各々に対して顔検出処理を行う(ステップS1)。
When moving image shooting starts, the image processing unit 4 generates right captured image data and left captured image data for each frame and stores them in the
地面推定部5は、顔検出処理の結果、顔が検出されない場合(ステップS2:NO)は、次フレームの右撮像画像データ及び左撮像画像データに対してステップS1の処理を再び行い、顔が検出された場合(ステップS2:YES)はステップS3の処理を行う。
If the face is not detected as a result of the face detection process (step S2: NO), the
例えば、デジタルカメラ100のユーザが、図4に示されるように、表示部11に表示される撮影中の立体映像に人物が含まれるように画角を決めると、当該人物を含む右撮像画像データ及び左撮像画像データから顔が検出されて、ステップS3の処理が行われる。
For example, as shown in FIG. 4, when the user of the
ステップS3では、地面推定部5が、右撮像画像データ及び左撮像画像データの各々から検出した顔から、目と口を抽出する処理を行う。
In step S3, the
ステップS3において2つの目と1つの口が抽出されると(ステップS4:YES)、地面推定部5はステップS5の処理を行う。ステップS3において2つの目と1つの口が抽出されない場合(ステップS4:NO)、地面推定部5は次フレームの右撮像画像データ及び左撮像画像データに対してステップS1の処理を行う。
When two eyes and one mouth are extracted in step S3 (step S4: YES), the
ステップS5では、地面推定部5が、図5に示されるように、右撮像画像データ及び左撮像画像データの各々から抽出した2つの目及び1つの口のそれぞれの中心を結ぶ三角形50を求め、右撮像画像データに対して求めた三角形50と、左撮像画像データに対して求めた三角形50との視差、双方の三角形50の撮像画像データ上における位置、デジタルカメラ100の撮像部1,2の設計値(輻輳角、基線長等)等を用いて、三角形50の三次元空間における座標を算出する。
In step S5, the
地面推定部5は、ステップS5において、図6に示されるように、三次元空間における三角形50の3つの頂点の各々の座標(a1,b1,c1),(a2,b2,c2),(a3,b3,c3)を算出する。
In step S5, as shown in FIG. 6, the
次に、地面推定部5は、右撮像画像データ又は左撮像画像データから検出した顔を含む被写体の輪郭を、右撮像画像データ又は左撮像画像データから周知の技術により抽出する(ステップS6)。
Next, the
例えば、地面推定部5は、図7に示されるように、右撮像画像データ70に含まれる人物の輪郭71(矩形領域)を抽出し、輪郭71の4つの頂点の座標データ((y1,z1),(y2,z2),(y3,z3),(y4,z4))を取得する。また、地面推定部5は、ステップS3にて抽出した右撮像画像データ70に含まれる人物の顔に含まれる目と口を結ぶ三角形50の3つの頂点の座標データ((y5,z5),(y6,z6),(y7,z7))を取得する。
For example, as illustrated in FIG. 7, the
座標データ((y5,z5),(y6,z6),(y7,z7))を三次元空間の座標に変換したものが、図6に示される三角形50の頂点の座標データ((a1,b1,c1),(a2,b2,c2),(a3,b3,c3))である。地面推定部5は、座標データ((y5,z5),(y6,z6),(y7,z7))から座標データ((a1,b1,c1),(a2,b2,c2),(a3,b3,c3))への座標変換式を求め、座標データ((y1,z1),(y2,z2),(y3,z3),(y4,z4))を、この座標変換式にしたがって三次元空間の座標に変換する(ステップS7)。
The coordinate data ((y5, z5), (y6, z6), (y7, z7)) converted into the coordinates of the three-dimensional space is the coordinate data ((a1, b1) of the
ステップS7の処理により、図8に示されるように、三次元空間における輪郭71の座標が求まる。
By the process of step S7, as shown in FIG. 8, the coordinates of the
次に、地面推定部5は、図8に示される三次元空間上の輪郭71における、Z軸方向下側の端部(図8における輪郭71の下辺)を含み、かつ、Z軸方向に垂直な平面Gを、三次元空間における地面として推定する(ステップS8)。
Next, the
ステップS8において地面が推定されると、表示制御部10は、仮想物体DB6から仮想物体のデータを読み込み、ステップS8にて推定された地面上に仮想物体を配置した立体映像を表示部11にて表示させる(ステップS9)。表示部11に表示される立体映像は、三次元空間を映像として再現したものであるため、三次元空間における地面が推定できれば、立体映像における地面の位置も推定することができる。ステップS9の処理により、表示部11を見ているユーザは、左画像と右画像による立体映像における推定地面上に仮想物体が重畳された立体映像を見ることができる。
When the ground is estimated in step S8, the
図9は、表示部11に表示される画面例を示す図であり、撮影中の立体映像に対し、その立体映像中の推定された地面90上に仮想物体画像91が重畳されている画面例を示している。ユーザは、このような画面を見ることで、違和感なく、拡張現実感を味わうことができる。なお、図9では地面90を図示しているが、これは説明のためであり、実際には、表示部11に地面90は表示されない。
FIG. 9 is a diagram illustrating an example of a screen displayed on the display unit 11, and an example of a screen in which a
なお、以上の説明では、図10(a)や図11(a)に示されるように、デジタルカメラ100のZ軸が地面に垂直になるようにして撮影を行うことを前提にしているが、実際には、図10(b)や図11(b)に示されるように、デジタルカメラ100のZ軸が地面と垂直にならない状態で撮影が行われることも有りえる。
In the above description, as shown in FIG. 10A and FIG. 11A, it is assumed that shooting is performed such that the Z axis of the
図10(b)や図11(b)に示される状態で撮影が行われた場合に、地面推定部5が、図3のステップS8において、デジタルカメラ100のZ軸に垂直な平面を地面として推定してしまうと、推定される地面が、実際の地面に対して傾いたものとなってしまい、仮想物体画像を重畳したときにユーザに違和感を生じさせてしまう。このような違和感を生じさせないためのデジタルカメラの構成を以下に説明する。
When shooting is performed in the state shown in FIG. 10B or FIG. 11B, the
図12は、図1に示されるデジタルカメラ100の変形例であるデジタルカメラ200の内部構成を示すブロック図である。図12に示されるデジタルカメラ200は、姿勢センサ20が追加された点を除いては、図2に示されるブロック図と同じである。
FIG. 12 is a block diagram showing an internal configuration of a
姿勢センサ20は、デジタルカメラ200の姿勢を検出するものであり、例えばジャイロセンサによって構成される。姿勢センサ20は、デジタルカメラ200の重心を通るZ軸の地面に対する傾き(図10(b)、図11(b)における角度θ)を検出し、検出した角度の情報を地面推定部5に通知する。以下、デジタルカメラ200の拡張現実モード時の動作について説明する。
The
図13は、図12に示されるデジタルカメラ200の拡張現実モード時の動作を説明するためのフローチャートである。図13において図3に示される処理と同じ処理には同一符号を付して説明を省略する。
FIG. 13 is a flowchart for explaining the operation of the
地面推定部5は、ステップS7までの処理を行った後、姿勢センサ20から、デジタルカメラ200の地面に対する傾きを示す角度情報を取得する(ステップS20)。
After performing the processing up to step S7, the
次に、地面推定部5は、ステップS20において取得した角度情報を用いて、三次元空間におけるデジタルカメラ200の鉛直線の伸びる方向(デジタルカメラ200の重心に錘をつけたときにその錘が垂れる方向)を判定する(ステップS21)。
Next, the
姿勢センサ20から取得した角度情報は、三次元空間におけるZ軸に対する角度の情報であるため、この角度情報を用いることで、三次元空間におけるデジタルカメラ200の鉛直線方向を判定することができる。
Since the angle information acquired from the
次に、地面推定部5は、ステップS21にて判定した鉛直線方向に垂直な平面であって、ステップS7にて変換した三次元空間の輪郭のうちの当該鉛直線方向の端部を含む平面を、三次元空間における地面として推定する(ステップS22)。
Next, the
例えば、図10(b),図11(b)に示されるように、三次元空間における輪郭が符号110のように存在していた場合、この輪郭110のデジタルカメラ200の鉛直線方向の端部110Tを含み、かつ、鉛直線方向に垂直な平面Gが地面として推定される。
For example, as shown in FIG. 10B and FIG. 11B, when the contour in the three-dimensional space exists as indicated by
なお、ユーザが、図10(a)及び図11(a)に示されるような状態で撮影を行っていた場合には、デジタルカメラ200の傾きθ=0度となるため、三次元空間におけるZ軸方向下側と、デジタルカメラ200の鉛直線方向とが一致する。このため、この場合には、地面推定部5は、ステップS22において図3のステップS8の処理と同じ処理によって地面を推定することになる。
Note that when the user is shooting in a state as shown in FIGS. 10A and 11A, the inclination θ of the
ステップS22の後はステップS9において、表示部11に表示中の立体映像における推定した地面上に仮想物体が重畳表示される。 After step S22, in step S9, a virtual object is superimposed and displayed on the estimated ground in the stereoscopic image being displayed on the display unit 11.
以上のように、デジタルカメラ200によれば、デジタルカメラ200を地面に対して傾けて撮影を行った場合でも、地面を精度良く推定することができるため、違和感のない拡張現実感を提供することが可能になる。
As described above, according to the
なお、ここまでは、撮像画像データから検出される顔の数が1つであることを前提にしてきたが、撮像画像データから顔が複数種類検出された場合(図13のステップS4において、2組以上の顔の目及び口の抽出が成功した場合)には、地面推定部5が、その複数種類の顔の中から1つを選択した後、選択した顔に対し、図13のステップS5〜S9の処理を行えばよい。複数種類の顔の中からどれを選択するかは、ユーザによって指定可能にしておいてもよいし、個人認識を行って予め登録されている顔との一致度が高いものを選択するようにしてもよい。
Up to this point, the number of faces detected from the captured image data is assumed to be one. However, when a plurality of types of faces are detected from the captured image data (in step S4 in FIG. 13, 2). When the extraction of the eyes and mouths of more than one set of faces is successful, the
また、撮像画像データから顔が複数種類検出された場合(図13のステップS4において2組以上の顔の目及び口の抽出が成功した場合)には、地面推定部5が、その複数種類の顔の中から2つを選択した後、選択した2つの顔の各々に対し、図13のステップS5〜S22の処理を行い、選択した2つの顔の各々に対して求められた2つの地面の座標を用いて、この2つの地面と最も相関性の高い地面を最終的な地面(表示制御部10が仮想物体を重畳させる地面)として推定することで、地面の推定精度を上げることができる。
In addition, when a plurality of types of faces are detected from the captured image data (when two or more sets of face eyes and mouths have been successfully extracted in step S4 in FIG. 13), the
なお、デジタルカメラ100,200は、撮像部1,2の2つの撮像部により視差のある2つの撮像画像信号を得ているが、視差のある2つの撮像画像信号を得ることができれば、撮像部は2つなくてもよい。
The
例えば、単一の光学系と2つの撮像素子によって視差のある2つの撮像画像信号を出力する撮像部を用いてもよい。または、単一の光学系と単一の撮像素子によって視差のある2つの撮像画像信号を出力可能な撮像部を用いてもよい。単一の光学系と単一の撮像素子によって視差のある2つの撮像画像信号を出力可能な撮像部では、撮像素子として、位相差を検出可能な画素ペア(例えば、遮光膜開口が互いに逆方向に偏心された2つの画素)を二次元状に配置したものを用いることで、視差のある2つの撮像画像信号を出力可能である。また、撮影範囲を連続的に変えながら複数回の撮像を行って視差のある2つの撮像画像信号を取得するような方式の撮像部を用いてもよい。 For example, an imaging unit that outputs two captured image signals with parallax using a single optical system and two imaging elements may be used. Alternatively, an imaging unit that can output two captured image signals with parallax using a single optical system and a single imaging device may be used. In an imaging unit capable of outputting two captured image signals with parallax using a single optical system and a single imaging device, a pixel pair capable of detecting a phase difference (for example, light-shielding film openings in opposite directions to each other) By using two-dimensionally arranged pixels), two captured image signals having parallax can be output. In addition, an image pickup unit of a type that acquires two picked-up image signals with parallax by performing image pickup a plurality of times while continuously changing the shooting range may be used.
また、以上の説明では、拡張現実感提供装置が、視差のある2つの撮像画像信号を出力可能な撮像部を有するものとしたが、拡張現実感提供装置に撮像部は搭載されていなくてもよい。例えば、拡張現実感提供装置内の記憶部(記録媒体13)に、別の撮像部によって撮像して得られた視差のある2つの撮像画像信号(静止画、動画)や、インターネット等からダウンロードした視差のある2つの撮像画像信号(静止画、動画)を予め記憶しておき、拡張現実感提供装置の地面推定部が、記録媒体13から上記2つの撮像画像信号を取得し、取得した2つの撮像画像信号に対し、図3や図13に示される処理を行うようにしてもよい。
In the above description, the augmented reality providing device has an imaging unit capable of outputting two captured image signals with parallax. However, the augmented reality providing device may not include an imaging unit. Good. For example, two captured image signals with a parallax (still images, moving images) obtained by imaging with another imaging unit, downloaded from the Internet, or the like to a storage unit (recording medium 13) in the augmented reality providing device Two captured image signals with a parallax (still image, moving image) are stored in advance, and the ground estimation unit of the augmented reality providing device acquires the two captured image signals from the
以上のように、本明細書には以下の事項が開示されている。 As described above, the following items are disclosed in this specification.
開示された拡張現実感提供装置は、使用者に対して拡張現実感を提供する拡張現実感提供装置であって、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備えるものである。 The disclosed augmented reality providing device is an augmented reality providing device that provides augmented reality to a user, and is one of two captured image data generated from two captured image signals having parallax. A first image based on certain first imaged image data, and a display unit that compositely displays a second image based on the second imaged image data that is the other of the two imaged image data in a stereoscopic manner; A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data The Contour extraction processing to be output, coordinate conversion processing for converting the two-dimensional coordinates of the contour extracted by the contour extraction processing into coordinates in the three-dimensional space based on the coordinates of the face calculated by the face coordinate calculation processing, and A ground estimation unit for performing ground estimation processing for estimating a plane perpendicular to the vertical line including an end of the outline in the augmented reality providing device of the contour in a three-dimensional space and perpendicular to the vertical line; and the display A display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic video displayed on the unit.
開示された拡張現実感提供装置は、前記拡張現実感提供装置の姿勢を検出する姿勢検出部を備え、前記地面推定部は、前記姿勢検出部によって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定するものである。 The disclosed augmented reality providing device includes a posture detecting unit that detects a posture of the augmented reality providing device, and the ground estimation unit is configured to detect an inclination of the augmented reality providing device detected by the posture detecting unit. Based on the information, the direction in which the vertical line extends is determined.
開示された拡張現実感提供装置は、前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って前記地面を推定するものである。 In the disclosed augmented reality providing device, when there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects one of the plurality of types of faces and includes the selected face The face is estimated by performing the face coordinate calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process on the subject.
開示された拡張現実感提供装置は、前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、前記表示制御部は、前記地面推定部によって推定された前記最終的な地面上に前記仮想物体を重畳させるものである。 In the disclosed augmented reality providing device, when there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects two of the plurality of types of faces and selects the selected two faces The ground coordinate is estimated for each of the two types of subjects by performing the face coordinate calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process for different types of subjects including A plane having the highest correlation with the two grounds obtained for each type of subject is estimated as a final ground on which the virtual object is superimposed, and the display control unit is configured to determine the final ground estimated by the ground estimation unit. The virtual object is superimposed on a smooth ground.
開示された拡張現実感提供装置は、前記視差のある2つの撮像画像信号を出力可能な撮像部を備えるものである。 The disclosed augmented reality providing apparatus includes an imaging unit capable of outputting two captured image signals having the parallax.
開示された仮想物体の重畳方法は、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示し、当該立体視可能に表示される立体映像に仮想物体を重畳表示させて拡張現実感を提供する拡張現実感提供装置における仮想物体の重畳方法であって、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備えるものである。 The disclosed method for superimposing a virtual object includes a first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and the two imaging A second image based on the second captured image data, which is the other of the image data, is combined and displayed in a stereoscopic view, and a virtual object is superimposed on the stereoscopic image displayed in the stereoscopic view to provide augmented reality. A method of superimposing a virtual object in an augmented reality providing apparatus, wherein a face detection step of detecting a face from the first captured image data and the second captured image data, the first captured image data, and the A face coordinate calculation step of calculating the coordinates of the face in a three-dimensional space using the augmented reality providing device as an origin using face data commonly detected from second captured image data; The contour extracting step for extracting the contour of the subject including the face from the captured image data and the second captured image data, and the two-dimensional coordinates of the contour extracted by the contour extracting step are calculated by the face coordinate calculating step. A coordinate conversion step for converting into coordinates in the three-dimensional space based on the coordinates of the face; and an end of the contour in the three-dimensional space in the direction in which the vertical line of the augmented reality providing device extends and the vertical line A ground estimation step for estimating a vertical plane as a ground; and a display control step for performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic image.
開示された仮想物体の重畳方法は、前記拡張現実感提供装置の姿勢を検出する姿勢検出ステップを備え、前記地面推定ステップでは、前記姿勢検出ステップによって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定するものである。 The disclosed method for superimposing a virtual object includes a posture detection step of detecting a posture of the augmented reality providing device, and in the ground estimation step, the inclination of the augmented reality providing device detected by the posture detection step is detected. Based on the information, the direction in which the vertical line extends is determined.
開示された仮想物体の重畳方法は、前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って前記地面を推定するものである。 In the disclosed method for superimposing a virtual object, when there are a plurality of types of faces detected by the face detection step, one of the plurality of types of faces is selected, and the subject including the selected face is The ground is estimated by performing a face coordinate calculation step, the contour extraction step, the coordinate conversion step, and the ground estimation step.
開示された仮想物体の重畳方法は、前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、当該最終的な地面上に前記仮想物体を重畳させるものである。 In the disclosed method for superimposing a virtual object, when there are a plurality of types of faces detected by the face detection step, two types are selected from the plurality of types of faces, and different types including each of the selected two faces For the subject, the face coordinate calculation step, the contour extraction step, the coordinate conversion step, and the ground estimation step are performed to estimate the ground for each of the two types of subjects and to obtain each of the two types of subjects. The plane having the highest correlation with the two grounds is estimated as the final ground on which the virtual object is superimposed, and the virtual object is superimposed on the final ground.
1,2 撮像部
5 地面推定部
200 デジタルカメラ
1, 2
Claims (9)
視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、
前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、
前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備える拡張現実感提供装置。 An augmented reality providing device that provides augmented reality to a user,
A first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and a second image that is the other of the two captured image data A display unit that synthesizes and displays a second image based on the image data in a stereoscopic manner;
A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data A contour extraction process for extracting the two-dimensional coordinates of the contour extracted by the contour extraction process, and a coordinate conversion process for converting the coordinates of the face calculated by the face coordinate calculation process into coordinates in the three-dimensional space; Performing ground estimation processing for estimating a plane perpendicular to the vertical line that includes an end of the outline in the augmented reality providing device in the three-dimensional space in a direction in which the vertical line extends. And the ground estimation unit,
An augmented reality providing apparatus comprising: a display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic image displayed on the display unit.
前記拡張現実感提供装置の姿勢を検出する姿勢検出部を備え、
前記地面推定部は、前記姿勢検出部によって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定する拡張現実感提供装置。 The augmented reality providing device according to claim 1,
An attitude detection unit for detecting the attitude of the augmented reality providing device;
The augmented reality providing device, wherein the ground estimation unit determines a direction in which the vertical line extends based on information on an inclination of the augmented reality providing device detected by the posture detecting unit.
前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って前記地面を推定する拡張現実感提供装置。 The augmented reality providing device according to claim 1 or 2,
When there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects one of the plurality of types of faces and performs the face coordinate calculation process for a subject including the selected face. An augmented reality providing apparatus that estimates the ground by performing the contour extraction process, the coordinate conversion process, and the ground estimation process.
前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、
前記表示制御部は、前記地面推定部によって推定された前記最終的な地面上に前記仮想物体を重畳させる拡張現実感提供装置。 The augmented reality providing device according to claim 1 or 2,
When there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects two of the plurality of types of faces and applies different types of subjects including each of the selected two faces. Then, the face coordinates calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process are performed to estimate the ground for each of the two types of subjects, and the two grounds obtained for each of the two types of subjects The plane most highly correlated with is estimated as the final ground on which the virtual object is superimposed,
The augmented reality providing apparatus in which the display control unit superimposes the virtual object on the final ground estimated by the ground estimation unit.
前記視差のある2つの撮像画像信号を出力可能な撮像部を備える拡張現実感提供装置。 The augmented reality providing device according to any one of claims 1 to 4,
An augmented reality providing apparatus including an imaging unit capable of outputting two captured image signals having parallax.
前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、
前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、
前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、
前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、
前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、
前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備える仮想物体の重畳方法。 A first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and a second image that is the other of the two captured image data The second image based on the image data is combined and displayed so as to be stereoscopically viewable, and the virtual object in the augmented reality providing device that provides the augmented reality by superimposing the virtual object on the stereoscopically displayed stereoscopic image is provided. A superposition method comprising:
A face detection step of detecting a face from the first captured image data and the second captured image data;
Face coordinates for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin using face data detected in common from the first captured image data and the second captured image data A calculation step;
A contour extracting step for extracting a contour of a subject including the face from the first captured image data and the second captured image data;
A coordinate conversion step of converting the two-dimensional coordinates of the contour extracted by the contour extraction step into coordinates in the three-dimensional space based on the coordinates of the face calculated by the face coordinate calculation step;
A ground estimation step for estimating a plane perpendicular to the vertical line including an end portion of the outline in the augmented reality providing device in the three-dimensional space in a direction in which the vertical line extends;
A virtual object superimposing method comprising: a display control step of performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic video.
前記拡張現実感提供装置の姿勢を検出する姿勢検出ステップを備え、
前記地面推定ステップでは、前記姿勢検出ステップによって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定する仮想物体の重畳方法。 The method of superimposing a virtual object according to claim 6,
A posture detecting step for detecting a posture of the augmented reality providing device;
In the ground estimation step, a virtual object superimposing method for determining a direction in which the vertical line extends based on information on an inclination of the augmented reality providing device detected in the posture detection step.
前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って前記地面を推定する仮想物体の重畳方法。 The method of superimposing a virtual object according to claim 6 or 7,
When there are a plurality of types of faces detected by the face detection step, one of the plurality of types of faces is selected, and for the subject including the selected face, the face coordinate calculation step, the contour extraction step, A virtual object superimposing method for estimating the ground by performing the coordinate conversion step and the ground estimation step.
前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、当該最終的な地面上に前記仮想物体を重畳させる仮想物体の重畳方法。 The method of superimposing a virtual object according to claim 6 or 7,
When there are a plurality of types of faces detected by the face detection step, two of the plurality of types of faces are selected, and the face coordinate calculation is performed for different types of subjects including each of the selected two faces. Steps, the contour extraction step, the coordinate conversion step, and the ground estimation step are performed to estimate the ground for each of the two types of subjects and have the highest correlation with the two grounds obtained for the two types of subjects. A method of superimposing a virtual object by estimating a plane as a final ground on which the virtual object is superimposed, and superimposing the virtual object on the final ground.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011080897A JP2012216077A (en) | 2011-03-31 | 2011-03-31 | Augmented reality providing device and superimposition method of virtual object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011080897A JP2012216077A (en) | 2011-03-31 | 2011-03-31 | Augmented reality providing device and superimposition method of virtual object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012216077A true JP2012216077A (en) | 2012-11-08 |
Family
ID=47268789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011080897A Withdrawn JP2012216077A (en) | 2011-03-31 | 2011-03-31 | Augmented reality providing device and superimposition method of virtual object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012216077A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2529037A (en) * | 2014-06-10 | 2016-02-10 | 2Mee Ltd | Augmented reality apparatus and method |
JP2017505933A (en) * | 2013-11-26 | 2017-02-23 | シェフィ,ヨァヴ | Method and system for generating a virtual image fixed on a real object |
CN109087237A (en) * | 2018-06-29 | 2018-12-25 | 邓文婕 | A kind of virtual helmet |
US10885333B2 (en) | 2012-09-12 | 2021-01-05 | 2Mee Ltd | Augmented reality apparatus and method |
JP6959682B1 (en) * | 2020-12-28 | 2021-11-05 | 株式会社計数技研 | Image synthesizer, image synthesizer, and program |
JP7044426B1 (en) | 2021-10-14 | 2022-03-30 | 株式会社計数技研 | Image compositing device, image compositing method, and program |
US11363325B2 (en) | 2014-03-20 | 2022-06-14 | 2Mee Ltd | Augmented reality apparatus and method |
WO2022145414A1 (en) * | 2020-12-28 | 2022-07-07 | 株式会社計数技研 | Image compositing device, image compositing method, and program |
-
2011
- 2011-03-31 JP JP2011080897A patent/JP2012216077A/en not_active Withdrawn
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10885333B2 (en) | 2012-09-12 | 2021-01-05 | 2Mee Ltd | Augmented reality apparatus and method |
US11361542B2 (en) | 2012-09-12 | 2022-06-14 | 2Mee Ltd | Augmented reality apparatus and method |
JP2017505933A (en) * | 2013-11-26 | 2017-02-23 | シェフィ,ヨァヴ | Method and system for generating a virtual image fixed on a real object |
US11363325B2 (en) | 2014-03-20 | 2022-06-14 | 2Mee Ltd | Augmented reality apparatus and method |
GB2529037B (en) * | 2014-06-10 | 2018-05-23 | 2Mee Ltd | Augmented reality apparatus and method |
US10679413B2 (en) | 2014-06-10 | 2020-06-09 | 2Mee Ltd | Augmented reality apparatus and method |
US11094131B2 (en) | 2014-06-10 | 2021-08-17 | 2Mee Ltd | Augmented reality apparatus and method |
GB2529037A (en) * | 2014-06-10 | 2016-02-10 | 2Mee Ltd | Augmented reality apparatus and method |
CN106664376A (en) * | 2014-06-10 | 2017-05-10 | 2Mee 有限公司 | Augmented reality apparatus and method |
CN109087237A (en) * | 2018-06-29 | 2018-12-25 | 邓文婕 | A kind of virtual helmet |
JP6959682B1 (en) * | 2020-12-28 | 2021-11-05 | 株式会社計数技研 | Image synthesizer, image synthesizer, and program |
WO2022145414A1 (en) * | 2020-12-28 | 2022-07-07 | 株式会社計数技研 | Image compositing device, image compositing method, and program |
JP2022103572A (en) * | 2020-12-28 | 2022-07-08 | 株式会社計数技研 | Image composition device, image composition method, and program |
JP7044426B1 (en) | 2021-10-14 | 2022-03-30 | 株式会社計数技研 | Image compositing device, image compositing method, and program |
JP2023059137A (en) * | 2021-10-14 | 2023-04-26 | 株式会社計数技研 | Image composite device, image composite method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012216077A (en) | Augmented reality providing device and superimposition method of virtual object | |
JP5659305B2 (en) | Image generating apparatus and image generating method | |
JP5865388B2 (en) | Image generating apparatus and image generating method | |
JP4775474B2 (en) | Imaging apparatus, imaging control method, and program | |
JP7349793B2 (en) | Image processing device, image processing method, and program | |
JP2005050035A (en) | Image photographing device and image processing method | |
JP4144492B2 (en) | Image display device | |
JP2010250452A (en) | Arbitrary viewpoint image synthesizing device | |
JP2010278878A (en) | Stereoscopic image device and display image switching method thereof | |
US20130162786A1 (en) | Image processing apparatus, imaging apparatus, image processing method, and program | |
JP4928476B2 (en) | Stereoscopic image generating apparatus, method thereof and program thereof | |
JP2020129823A (en) | Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program | |
EP3136724A1 (en) | Wearable display apparatus, information processing apparatus, and control method therefor | |
JP2011141381A (en) | Stereoscopic image display device and stereoscopic image display method | |
JP2000222116A (en) | Position recognition method for display image, position recognition device therefor and virtual image stereoscopic synthesis device | |
TWI502271B (en) | Controlling method and electronic apparatus | |
JP6257260B2 (en) | Imaging apparatus and control method thereof | |
JP2013074473A (en) | Panorama imaging apparatus | |
JP5759439B2 (en) | Video communication system and video communication method | |
US20140184747A1 (en) | Visually-Assisted Stereo Acquisition from a Single Camera | |
JP2011182003A (en) | Panorama camera and 360-degree panorama stereoscopic video system | |
JP5689693B2 (en) | Drawing processor | |
JP2013070153A (en) | Imaging apparatus | |
JP2005050033A (en) | Image processing method and image generating device | |
JP2019121074A (en) | Selfie device, method and program in vr space |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20121005 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140603 |