JP2012216077A - Augmented reality providing device and superimposition method of virtual object - Google Patents

Augmented reality providing device and superimposition method of virtual object Download PDF

Info

Publication number
JP2012216077A
JP2012216077A JP2011080897A JP2011080897A JP2012216077A JP 2012216077 A JP2012216077 A JP 2012216077A JP 2011080897 A JP2011080897 A JP 2011080897A JP 2011080897 A JP2011080897 A JP 2011080897A JP 2012216077 A JP2012216077 A JP 2012216077A
Authority
JP
Japan
Prior art keywords
captured image
augmented reality
image data
face
ground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011080897A
Other languages
Japanese (ja)
Inventor
Daisuke Hayashi
大輔 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2011080897A priority Critical patent/JP2012216077A/en
Publication of JP2012216077A publication Critical patent/JP2012216077A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an augmented reality providing device capable of providing augmented reality with no sense of incongruity, without using a marker.SOLUTION: A ground surface estimation part 5 detects a face from each of two imaged image data obtained by taking images by imaging parts 1, 2, and calculates a three-dimensional coordinate of a triangle connecting eyes and a mouth of the detected face. The ground surface estimation part 5 extracts a contour of a subject including the detected face from one of the two imaged image data, and performs back projection of the contour in three-dimensional space using the three-dimensional coordinate of the triangle. The ground surface estimation part 5 estimates a plane which includes an end of the contour in a direction to which a vertical line of a digital camera 100 extends in the three-dimensional space and which is perpendicular to the direction, to be a ground surface. The ground surface estimation part 5 superimposes a virtual object on the estimated ground surface and displays them, in a stereoscopic image displayed in a display part 11.

Description

本発明は、拡張現実感を提供する拡張現実感提供装置及び仮想物体の重畳方法に関する。   The present invention relates to an augmented reality providing apparatus that provides augmented reality and a virtual object superimposing method.

カメラで撮影した被写界の画像に、仮想物体を重畳表示させる拡張現実技術が普及してきており、この技術を採用した携帯電話機やヘッドマウントディスプレイ(HMD)が登場してきている。   Augmented reality technology that superimposes and displays a virtual object on an image of a scene taken by a camera has become widespread, and mobile phones and head mounted displays (HMD) that employ this technology have appeared.

例えば、特許文献1には、デジタルカメラで撮像して得られたマーカーを含む画像をモニタ上に表示すると共に、モニタに表示されているカードのマーカー上に、当該マーカーに対応したオブジェクトの三次元画像(仮想物体)を重畳して表示する拡張現実感提供装置が記載されている。   For example, in Patent Document 1, an image including a marker obtained by imaging with a digital camera is displayed on a monitor, and a three-dimensional object corresponding to the marker is displayed on a marker of a card displayed on the monitor. An augmented reality providing apparatus that superimposes and displays an image (virtual object) is described.

特許文献1に記載の装置では、仮想物体を重畳させるべき位置を、マーカーを検出することによって決めている。このため、マーカーを含む画像にしか仮想物体を重畳させることができず、汎用性が低い。   In the apparatus described in Patent Document 1, a position where a virtual object is to be superimposed is determined by detecting a marker. For this reason, a virtual object can be superimposed only on an image including a marker, and versatility is low.

特許文献2には、撮影者の視点位置や視線方向等によって被写体の位置関係を特定し、撮像画像上に仮想物体を重畳する技術が記載されている。この技術によれば、マーカーを用いなくとも、撮像画像に仮想物体を重畳させることができる。   Japanese Patent Application Laid-Open No. 2004-228561 describes a technique for specifying a positional relationship of a subject based on a photographer's viewpoint position, line-of-sight direction, and the like and superimposing a virtual object on a captured image. According to this technique, a virtual object can be superimposed on a captured image without using a marker.

特開2000−322602号公報JP 2000-322602 A 特開2008−78908号公報JP 2008-78908 A

しかしながら、特許文献2に記載の技術では、撮影画像における地面の位置までは把握することができないため、仮想物体を地面に対して適当な角度でしか重畳させることができず、ユーザに違和感を与えてしまうことがある。   However, since the technique described in Patent Document 2 cannot grasp the position of the ground in the captured image, the virtual object can be superimposed only at an appropriate angle with respect to the ground, giving the user a sense of incongruity. May end up.

本発明は、上記事情に鑑みてなされたものであり、マーカーを用いることなく、違和感のない拡張現実感を提供することが可能な拡張現実感提供装置及び仮想物体の重畳方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides an augmented reality providing apparatus and a virtual object superimposing method capable of providing an augmented reality without using a marker without using a marker. Objective.

本発明の拡張現実感提供装置は、使用者に対して拡張現実感を提供する拡張現実感提供装置であって、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備えるものである。   The augmented reality providing device of the present invention is an augmented reality providing device that provides augmented reality to a user, and is one of two captured image data generated from two captured image signals having parallax. A first image based on certain first imaged image data, and a display unit that compositely displays a second image based on the second imaged image data that is the other of the two imaged image data in a stereoscopic manner; A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data Extract A contour extraction process, a two-dimensional coordinate of the contour extracted by the contour extraction process, a coordinate conversion process for converting the coordinate of the face calculated by the face coordinate calculation process into a coordinate in the three-dimensional space, and the tertiary A ground estimation unit that performs a ground estimation process for estimating a plane perpendicular to the vertical line including an end of the outline in the original space in the augmented reality providing device in a direction in which the vertical line extends, and the display unit A display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic image displayed on the screen.

本発明の仮想物体の重畳方法は、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示し、当該立体視可能に表示される立体映像に仮想物体を重畳表示させて拡張現実感を提供する拡張現実感提供装置における仮想物体の重畳方法であって、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備えるものである。   The virtual object superimposing method of the present invention includes a first image based on first captured image data that is one of two captured image data generated from two captured image signals having a parallax, and the two captured images. A second image based on the second captured image data, which is the other of the image data, is combined and displayed in a stereoscopic view, and a virtual object is superimposed on the stereoscopic image displayed in the stereoscopic view to provide augmented reality. A method of superimposing a virtual object in an augmented reality providing apparatus, wherein a face detection step of detecting a face from the first captured image data and the second captured image data, the first captured image data, and the A face coordinate calculation step of calculating the coordinates of the face in a three-dimensional space using the augmented reality providing device as an origin using face data commonly detected from second captured image data; The contour extraction step for extracting the contour of the subject including the face from the image image data and the second captured image data, and the two-dimensional coordinates of the contour extracted by the contour extraction step are calculated by the face coordinate calculation step. A coordinate conversion step for converting into coordinates in the three-dimensional space based on the coordinates of the face; and an end of the contour in the three-dimensional space in the direction in which the vertical line of the augmented reality providing device extends and the vertical line A ground estimation step for estimating a vertical plane as a ground; and a display control step for performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic image.

本発明によれば、マーカーを用いることなく、違和感のない拡張現実感を提供することが可能な拡張現実感提供装置及び仮想物体の重畳方法を提供することができる。   According to the present invention, it is possible to provide an augmented reality providing apparatus and a virtual object superimposing method capable of providing an augmented reality without a sense of incongruity without using a marker.

本発明の一実施形態を説明するための拡張現実感提供装置の一例としてのデジタルカメラの外観図1 is an external view of a digital camera as an example of an augmented reality providing device for explaining an embodiment of the present invention. 図1に示されるデジタルカメラ100の内部構成を示すブロック図1 is a block diagram showing the internal configuration of the digital camera 100 shown in FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するためのフローチャートThe flowchart for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図The figure for demonstrating the operation | movement at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の撮影状態の例を示す図The figure which shows the example of the imaging | photography state at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の拡張現実モード時の撮影状態の例を示す図The figure which shows the example of the imaging | photography state at the time of the augmented reality mode of the digital camera 100 shown by FIG. 図1に示されるデジタルカメラ100の変形例であるデジタルカメラ200の内部構成を示すブロック図1 is a block diagram showing an internal configuration of a digital camera 200 that is a modification of the digital camera 100 shown in FIG. 図12に示されるデジタルカメラ200の拡張現実モード時の動作を説明するためのフローチャートFlowchart for explaining the operation of the digital camera 200 shown in FIG. 12 in the augmented reality mode.

以下、本発明の一実施形態を説明するための拡張現実感提供装置について図面を参照して説明する。この拡張現実感提供装置は、距離をあけて配置された左右2つの撮像部を有し、各撮像部で撮像して得られた右撮像画像データ及び左撮像画像データを表示部において立体視可能に合成表示するものとなっている。また、この拡張現実感提供装置は、表示部に表示される立体映像に、コンピュータグラフィックにより形成された仮想物体を重畳表示させるものである。この拡張現実感提供装置によれば、表示部には、撮影中の被写界像に仮想物体が重畳された映像が表示されるため、この表示部を観察する人に対して拡張現実感を与えることができる。   Hereinafter, an augmented reality providing device for explaining an embodiment of the present invention will be described with reference to the drawings. This augmented reality providing device has two left and right imaging units arranged at a distance, and the right and left captured image data obtained by imaging with each imaging unit can be stereoscopically viewed on the display unit Are combined and displayed. Further, this augmented reality providing device displays a virtual object formed by computer graphics superimposed on a stereoscopic image displayed on the display unit. According to this augmented reality providing device, the display unit displays an image in which a virtual object is superimposed on the object scene image being shot. Therefore, augmented reality is provided to a person observing the display unit. Can be given.

図1は、本発明の一実施形態を説明するための拡張現実感提供装置の一例としてのデジタルカメラの外観図である。図1に示されるデジタルカメラ100は、箱状のハウジングKと、ハウジングKの前面に水平方向(ハウジングKの長手方向)に距離を空けて設けられた右眼用の撮像部1及び左眼用の撮像部2と、ハウジングKの上面に設けられたレリーズボタン16aとを備える。撮像部1は撮影レンズ1Rを備え、撮像部2は撮影レンズ1Lを備える。撮影レンズ1Rの光軸Rと、撮影レンズ1Lの光軸Lとが交差する角度を輻輳角といい、輻輳角が所定値となるように、撮影レンズ1Rと撮影レンズ1Lの位置が設定されている。   FIG. 1 is an external view of a digital camera as an example of an augmented reality providing device for explaining an embodiment of the present invention. A digital camera 100 shown in FIG. 1 includes a box-shaped housing K, and a right-eye imaging unit 1 and a left-eye image provided on the front surface of the housing K at a distance in the horizontal direction (longitudinal direction of the housing K). And the release button 16a provided on the upper surface of the housing K. The imaging unit 1 includes a photographic lens 1R, and the imaging unit 2 includes a photographic lens 1L. The angle at which the optical axis R of the photographic lens 1R intersects the optical axis L of the photographic lens 1L is called the convergence angle, and the positions of the photographic lens 1R and the photographic lens 1L are set so that the convergence angle becomes a predetermined value. Yes.

図2は、図1に示されるデジタルカメラ100の内部構成を示すブロック図である。   FIG. 2 is a block diagram showing an internal configuration of the digital camera 100 shown in FIG.

図2に示されるように、デジタルカメラ100は、撮像部1,2と、画像入力コントローラ3と、画像処理部4と、地面推定部5と、仮想物体データベース(DB)6と、デジタルカメラ100全体を統括制御するCPU(中央演算処理装置)8と、ワークメモリとして使用されるRAM(ランダムアクセスメモリ)9と、表示部11が接続された表示制御部10と、着脱可能な記録媒体13が接続された記録制御部12と、マイク及びスピーカ15が接続された音声制御部14と、CPU8に接続された操作部16(図1のレリーズボタン16aを含む)とを備え、撮像部1,2以外の各部はバス17で相互に接続されている。   As shown in FIG. 2, the digital camera 100 includes an imaging unit 1, an image input controller 3, an image processing unit 4, a ground estimation unit 5, a virtual object database (DB) 6, and a digital camera 100. A central processing unit (CPU) 8 for overall control, a random access memory (RAM) 9 used as a work memory, a display control unit 10 to which a display unit 11 is connected, and a detachable recording medium 13 The recording control unit 12 connected, the audio control unit 14 connected to the microphone and the speaker 15, and the operation unit 16 (including the release button 16a in FIG. 1) connected to the CPU 8 are provided. The other parts are connected to each other by a bus 17.

撮像部1,2は、それぞれ、撮影レンズ及び絞り等の光学系、CCDイメージセンサやCMOSイメージセンサ等の撮像素子、この撮像素子から出力された撮像画像信号にアナログ信号処理を施すアナログ信号処理部、アナログ信号処理部で処理後の信号をデジタル変換するAD変換部、及び撮像素子を駆動する駆動部等を含む。撮像部1と撮像部2は、視差のある2つの撮像画像信号を得るために、水平方向に距離を空けて配置されており、この水平方向が、デジタルカメラ100において視差の得られる方向となる。   The imaging units 1 and 2 are an optical system such as a photographing lens and a diaphragm, an imaging device such as a CCD image sensor and a CMOS image sensor, and an analog signal processing unit that performs analog signal processing on a captured image signal output from the imaging device. In addition, an AD conversion unit that digitally converts the signal processed by the analog signal processing unit, a drive unit that drives the imaging device, and the like are included. The imaging unit 1 and the imaging unit 2 are arranged at a distance in the horizontal direction in order to obtain two captured image signals with parallax, and this horizontal direction is the direction in which the digital camera 100 obtains parallax. .

画像入力コントローラ3は、撮像部1,2の各々から出力された撮像画像信号を取り込み、この撮像画像信号をRAM9に記憶する。   The image input controller 3 takes captured image signals output from the imaging units 1 and 2 and stores the captured image signals in the RAM 9.

画像処理部4は、RAM9に記憶された撮像画像信号に、同時化処理(1画素に3つの色データを持たせる処理)、ホワイトバランス処理、RGB−YC変換処理等の周知のデジタル信号処理を施して、撮像画像データを生成する。ここで生成される撮像画像データのうち、撮像部1から出力された撮像画像信号から生成されたものを右撮像画像データといい、撮像部2から出力された撮像画像信号から生成されたものを左撮像画像データという。右撮像画像データ及び左撮像画像データはRAM9に記憶される。   The image processing unit 4 performs well-known digital signal processing such as synchronization processing (processing for giving three color data to one pixel), white balance processing, RGB-YC conversion processing, etc., on the captured image signal stored in the RAM 9. To generate captured image data. Of the captured image data generated here, data generated from the captured image signal output from the imaging unit 1 is referred to as right captured image data, and generated from the captured image signal output from the imaging unit 2. This is called left captured image data. The right captured image data and the left captured image data are stored in the RAM 9.

表示制御部10は、画像処理部4にて生成された右撮像画像データに基づく右画像と、画像処理部4にて生成された左撮像画像データに基く左画像とを、表示部11にて立体視可能に合成表示させる。   The display control unit 10 causes the display unit 11 to display a right image based on the right captured image data generated by the image processing unit 4 and a left image based on the left captured image data generated by the image processing unit 4. A composite display is made so as to enable stereoscopic viewing.

表示部11は、時分割視差画像方式、レンチキュラ方式、及びパララックスバリア方式等に対応した液晶表示装置等で構成され、表示制御部10の制御により、右画像と左画像とを例えば交互に表示させることで立体視可能な映像(立体映像)を表示する。   The display unit 11 is configured by a liquid crystal display device or the like that supports a time-division parallax image method, a lenticular method, a parallax barrier method, and the like, and displays a right image and a left image alternately, for example, under control of the display control unit 10 By doing so, a stereoscopically viewable video (stereoscopic video) is displayed.

仮想物体DB6は、表示部11に表示される立体映像に重畳すべき仮想物体のデータが予め登録されているものである。仮想物体のデータは、右画像に重畳するべき右画像用仮想データと、左画像に重畳するべき左画像用仮想データとが登録されている。   In the virtual object DB 6, virtual object data to be superimposed on the stereoscopic video displayed on the display unit 11 is registered in advance. As virtual object data, right image virtual data to be superimposed on the right image and left image virtual data to be superimposed on the left image are registered.

地面推定部5は、デジタルカメラ100の置かれている三次元空間における地面の位置を推定するものである。この三次元空間は、デジタルカメラ100の重心位置を原点とし、この原点を通りかつ筐体Kの長手方向(視差の得られる方向)に伸びる直線をY軸とし、この原点を通りかつ撮像部1,2が設けられる筐体K前面に垂直な方向(撮影方向)に伸びる直線をX軸とし、この原点を通りかつXY平面に垂直な直線(筐体Kの短手方向に伸びる直線)をZ軸とした座標によって定義される空間である。なお、撮像部1,2によって撮像して得られる各撮像画像データは、被写体を上記三次元空間のYZ平面に投影したものに相当し、各撮像画像データの各画素は、各撮像画像データの中心にある画素を原点とする座標(y,z)によってその位置が特定される。   The ground estimation unit 5 estimates the position of the ground in the three-dimensional space where the digital camera 100 is placed. In this three-dimensional space, the center of gravity of the digital camera 100 is set as the origin, and a straight line passing through the origin and extending in the longitudinal direction of the housing K (direction in which parallax is obtained) is defined as the Y axis. , 2 is defined as the X axis as a straight line extending in the direction perpendicular to the front surface of the housing K (photographing direction), and the straight line passing through the origin and perpendicular to the XY plane (straight line extending in the short direction of the housing K) is defined as Z. It is a space defined by the coordinates as axes. In addition, each captured image data obtained by imaging by the imaging units 1 and 2 corresponds to a subject projected on the YZ plane of the three-dimensional space, and each pixel of each captured image data corresponds to each captured image data. The position is specified by coordinates (y, z) with the pixel at the center as the origin.

表示制御部10は、表示部11に表示中の立体映像における、地面推定部5によって推定された地面に対応する位置に、仮想物体DB6から取得した仮想物体のデータに基づく仮想物体画像を重畳表示させる制御も行う。表示制御部10は、右画像用仮想データに基づく仮想物体画像を右画像に重畳表示させ、左画像用仮想データに基づく仮想物体画像を左画像に重畳表示させることで、立体映像の所定位置に、仮想物体画像を重畳表示させる。   The display control unit 10 superimposes and displays a virtual object image based on the virtual object data acquired from the virtual object DB 6 at a position corresponding to the ground estimated by the ground estimation unit 5 in the stereoscopic image being displayed on the display unit 11. Control is also performed. The display control unit 10 superimposes and displays a virtual object image based on the right image virtual data on the right image, and superimposes and displays a virtual object image based on the left image virtual data on the left image. The virtual object image is superimposed and displayed.

デジタルカメラ100は、撮像部1と撮像部2によって撮像を行い、当該撮像によって生成された右撮像画像データと左撮像画像データを立体視可能な形式で対応付けて記録媒体13に記録する3D撮影モードの他に、撮像部1と撮像部2によって人物を含む被写体の撮像を行い、当該撮像によって生成された右撮像画像データに基づく右画像と左撮像画像データに基づく左画像とを立体映像として表示すると共に、当該立体映像に仮想物体画像を重畳させて、ユーザに拡張現実感を提供する拡張現実モードを設定可能であり、以下では、拡張現実モード時のデジタルカメラ100の動作を説明する。   The digital camera 100 captures images with the image capturing unit 1 and the image capturing unit 2, and associates the right captured image data and the left captured image data generated by the image capturing in a stereoscopically viewable format and records them in the recording medium 13. In addition to the mode, the imaging unit 1 and the imaging unit 2 capture a subject including a person, and a right image based on the right captured image data generated by the imaging and a left image based on the left captured image data are used as a stereoscopic video. While displaying, it is possible to set the augmented reality mode that provides the user with augmented reality by superimposing the virtual object image on the stereoscopic video, and the operation of the digital camera 100 in the augmented reality mode will be described below.

図3は、図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するためのフローチャートである。図4〜図9は、図1に示されるデジタルカメラ100の拡張現実モード時の動作を説明するための図である。以下では、デジタルカメラ100のZ軸方向が地面に対して垂直の状態で撮影がなされることを前提として説明する。   FIG. 3 is a flowchart for explaining the operation of the digital camera 100 shown in FIG. 1 in the augmented reality mode. 4 to 9 are diagrams for explaining the operation of the digital camera 100 shown in FIG. 1 in the augmented reality mode. The following description is based on the premise that the digital camera 100 is photographed in a state where the Z-axis direction is perpendicular to the ground.

デジタルカメラ100が拡張現実モードに設定されると、撮像部1及び撮像部2により動画撮影が開始され、表示部11には、撮影中の被写界像が立体映像として表示される。   When the digital camera 100 is set to the augmented reality mode, moving image shooting is started by the imaging unit 1 and the imaging unit 2, and the object scene image being shot is displayed on the display unit 11 as a stereoscopic image.

動画撮影が開始されると、画像処理部4では、右撮像画像データ及び左撮像画像データがフレーム毎に生成され、RAM9に記憶される。RAM9に記憶された右撮像画像データ及び左撮像画像データは、表示制御部10によって表示部11に立体視可能に表示される。地面推定部5は、右撮像画像データ及び左撮像画像データが生成されるたびに、RAM9に記憶された右撮像画像データ及び左撮像画像データの各々に対して顔検出処理を行う(ステップS1)。   When moving image shooting starts, the image processing unit 4 generates right captured image data and left captured image data for each frame and stores them in the RAM 9. The right captured image data and the left captured image data stored in the RAM 9 are displayed on the display unit 11 by the display control unit 10 so as to be stereoscopically viewable. Each time the right captured image data and the left captured image data are generated, the ground estimation unit 5 performs face detection processing on each of the right captured image data and the left captured image data stored in the RAM 9 (step S1). .

地面推定部5は、顔検出処理の結果、顔が検出されない場合(ステップS2:NO)は、次フレームの右撮像画像データ及び左撮像画像データに対してステップS1の処理を再び行い、顔が検出された場合(ステップS2:YES)はステップS3の処理を行う。   If the face is not detected as a result of the face detection process (step S2: NO), the ground estimation unit 5 performs the process of step S1 again on the right captured image data and the left captured image data of the next frame, and the face is detected. If it is detected (step S2: YES), the process of step S3 is performed.

例えば、デジタルカメラ100のユーザが、図4に示されるように、表示部11に表示される撮影中の立体映像に人物が含まれるように画角を決めると、当該人物を含む右撮像画像データ及び左撮像画像データから顔が検出されて、ステップS3の処理が行われる。   For example, as shown in FIG. 4, when the user of the digital camera 100 determines the angle of view so that a person is included in the stereoscopic image being captured displayed on the display unit 11, right captured image data including the person is included. Then, a face is detected from the left captured image data, and the process of step S3 is performed.

ステップS3では、地面推定部5が、右撮像画像データ及び左撮像画像データの各々から検出した顔から、目と口を抽出する処理を行う。   In step S3, the ground estimation unit 5 performs a process of extracting eyes and mouth from faces detected from each of the right captured image data and the left captured image data.

ステップS3において2つの目と1つの口が抽出されると(ステップS4:YES)、地面推定部5はステップS5の処理を行う。ステップS3において2つの目と1つの口が抽出されない場合(ステップS4:NO)、地面推定部5は次フレームの右撮像画像データ及び左撮像画像データに対してステップS1の処理を行う。   When two eyes and one mouth are extracted in step S3 (step S4: YES), the ground estimation unit 5 performs the process of step S5. When two eyes and one mouth are not extracted in step S3 (step S4: NO), the ground estimation unit 5 performs the process of step S1 on the right captured image data and the left captured image data of the next frame.

ステップS5では、地面推定部5が、図5に示されるように、右撮像画像データ及び左撮像画像データの各々から抽出した2つの目及び1つの口のそれぞれの中心を結ぶ三角形50を求め、右撮像画像データに対して求めた三角形50と、左撮像画像データに対して求めた三角形50との視差、双方の三角形50の撮像画像データ上における位置、デジタルカメラ100の撮像部1,2の設計値(輻輳角、基線長等)等を用いて、三角形50の三次元空間における座標を算出する。   In step S5, the ground estimation unit 5 obtains a triangle 50 connecting the centers of the two eyes and one mouth extracted from each of the right captured image data and the left captured image data, as shown in FIG. The parallax between the triangle 50 obtained for the right captured image data and the triangle 50 obtained for the left captured image data, the position of both triangles 50 on the captured image data, the imaging units 1 and 2 of the digital camera 100 The coordinates of the triangle 50 in the three-dimensional space are calculated using design values (such as the convergence angle and the base line length).

地面推定部5は、ステップS5において、図6に示されるように、三次元空間における三角形50の3つの頂点の各々の座標(a1,b1,c1),(a2,b2,c2),(a3,b3,c3)を算出する。   In step S5, as shown in FIG. 6, the ground estimation unit 5 coordinates (a1, b1, c1), (a2, b2, c2), (a3) of the three vertices of the triangle 50 in the three-dimensional space. , B3, c3).

次に、地面推定部5は、右撮像画像データ又は左撮像画像データから検出した顔を含む被写体の輪郭を、右撮像画像データ又は左撮像画像データから周知の技術により抽出する(ステップS6)。   Next, the ground estimation unit 5 extracts the contour of the subject including the face detected from the right captured image data or the left captured image data from the right captured image data or the left captured image data by a known technique (step S6).

例えば、地面推定部5は、図7に示されるように、右撮像画像データ70に含まれる人物の輪郭71(矩形領域)を抽出し、輪郭71の4つの頂点の座標データ((y1,z1),(y2,z2),(y3,z3),(y4,z4))を取得する。また、地面推定部5は、ステップS3にて抽出した右撮像画像データ70に含まれる人物の顔に含まれる目と口を結ぶ三角形50の3つの頂点の座標データ((y5,z5),(y6,z6),(y7,z7))を取得する。   For example, as illustrated in FIG. 7, the ground estimation unit 5 extracts a person's outline 71 (rectangular area) included in the right captured image data 70, and coordinates data ((y 1, z 1) of the four vertices of the outline 71. ), (Y2, z2), (y3, z3), (y4, z4)). In addition, the ground estimation unit 5 coordinates data ((y5, z5), (3) of the triangle 50 connecting the eyes and mouth included in the face of the person included in the right captured image data 70 extracted in step S3. y6, z6), (y7, z7)) are acquired.

座標データ((y5,z5),(y6,z6),(y7,z7))を三次元空間の座標に変換したものが、図6に示される三角形50の頂点の座標データ((a1,b1,c1),(a2,b2,c2),(a3,b3,c3))である。地面推定部5は、座標データ((y5,z5),(y6,z6),(y7,z7))から座標データ((a1,b1,c1),(a2,b2,c2),(a3,b3,c3))への座標変換式を求め、座標データ((y1,z1),(y2,z2),(y3,z3),(y4,z4))を、この座標変換式にしたがって三次元空間の座標に変換する(ステップS7)。   The coordinate data ((y5, z5), (y6, z6), (y7, z7)) converted into the coordinates of the three-dimensional space is the coordinate data ((a1, b1) of the triangle 50 shown in FIG. , C1), (a2, b2, c2), (a3, b3, c3)). The ground estimation unit 5 calculates coordinate data ((a1, b1, c1), (a2, b2, c2), (a3,) from the coordinate data ((y5, z5), (y6, z6), (y7, z7)). b3, c3)) is obtained, and the coordinate data ((y1, z1), (y2, z2), (y3, z3), (y4, z4)) are three-dimensionally obtained according to this coordinate transformation formula. The coordinates are converted into space coordinates (step S7).

ステップS7の処理により、図8に示されるように、三次元空間における輪郭71の座標が求まる。   By the process of step S7, as shown in FIG. 8, the coordinates of the contour 71 in the three-dimensional space are obtained.

次に、地面推定部5は、図8に示される三次元空間上の輪郭71における、Z軸方向下側の端部(図8における輪郭71の下辺)を含み、かつ、Z軸方向に垂直な平面Gを、三次元空間における地面として推定する(ステップS8)。   Next, the ground estimation unit 5 includes the lower end of the contour 71 in the three-dimensional space shown in FIG. 8 (the lower side of the contour 71 in FIG. 8) and is perpendicular to the Z-axis direction. A simple plane G is estimated as the ground in the three-dimensional space (step S8).

ステップS8において地面が推定されると、表示制御部10は、仮想物体DB6から仮想物体のデータを読み込み、ステップS8にて推定された地面上に仮想物体を配置した立体映像を表示部11にて表示させる(ステップS9)。表示部11に表示される立体映像は、三次元空間を映像として再現したものであるため、三次元空間における地面が推定できれば、立体映像における地面の位置も推定することができる。ステップS9の処理により、表示部11を見ているユーザは、左画像と右画像による立体映像における推定地面上に仮想物体が重畳された立体映像を見ることができる。   When the ground is estimated in step S8, the display control unit 10 reads the data of the virtual object from the virtual object DB 6, and displays the stereoscopic image in which the virtual object is arranged on the ground estimated in step S8 on the display unit 11. It is displayed (step S9). Since the stereoscopic video displayed on the display unit 11 is a reproduction of the three-dimensional space as a video, if the ground in the three-dimensional space can be estimated, the position of the ground in the stereoscopic video can also be estimated. Through the process of step S9, the user looking at the display unit 11 can see a stereoscopic video in which a virtual object is superimposed on the estimated ground in the stereoscopic video of the left image and the right image.

図9は、表示部11に表示される画面例を示す図であり、撮影中の立体映像に対し、その立体映像中の推定された地面90上に仮想物体画像91が重畳されている画面例を示している。ユーザは、このような画面を見ることで、違和感なく、拡張現実感を味わうことができる。なお、図9では地面90を図示しているが、これは説明のためであり、実際には、表示部11に地面90は表示されない。   FIG. 9 is a diagram illustrating an example of a screen displayed on the display unit 11, and an example of a screen in which a virtual object image 91 is superimposed on the estimated ground 90 in the stereoscopic video for the stereoscopic video being captured. Is shown. By viewing such a screen, the user can enjoy an augmented reality without any sense of incongruity. In FIG. 9, the ground 90 is illustrated, but this is for explanation, and the ground 90 is not actually displayed on the display unit 11.

なお、以上の説明では、図10(a)や図11(a)に示されるように、デジタルカメラ100のZ軸が地面に垂直になるようにして撮影を行うことを前提にしているが、実際には、図10(b)や図11(b)に示されるように、デジタルカメラ100のZ軸が地面と垂直にならない状態で撮影が行われることも有りえる。   In the above description, as shown in FIG. 10A and FIG. 11A, it is assumed that shooting is performed such that the Z axis of the digital camera 100 is perpendicular to the ground. Actually, as shown in FIG. 10B and FIG. 11B, photographing may be performed in a state where the Z axis of the digital camera 100 is not perpendicular to the ground.

図10(b)や図11(b)に示される状態で撮影が行われた場合に、地面推定部5が、図3のステップS8において、デジタルカメラ100のZ軸に垂直な平面を地面として推定してしまうと、推定される地面が、実際の地面に対して傾いたものとなってしまい、仮想物体画像を重畳したときにユーザに違和感を生じさせてしまう。このような違和感を生じさせないためのデジタルカメラの構成を以下に説明する。   When shooting is performed in the state shown in FIG. 10B or FIG. 11B, the ground estimation unit 5 uses the plane perpendicular to the Z axis of the digital camera 100 as the ground in step S8 of FIG. If estimated, the estimated ground is inclined with respect to the actual ground, and the user feels uncomfortable when the virtual object image is superimposed. A configuration of the digital camera for preventing such a sense of incongruity will be described below.

図12は、図1に示されるデジタルカメラ100の変形例であるデジタルカメラ200の内部構成を示すブロック図である。図12に示されるデジタルカメラ200は、姿勢センサ20が追加された点を除いては、図2に示されるブロック図と同じである。   FIG. 12 is a block diagram showing an internal configuration of a digital camera 200 which is a modification of the digital camera 100 shown in FIG. The digital camera 200 shown in FIG. 12 is the same as the block diagram shown in FIG. 2 except that the attitude sensor 20 is added.

姿勢センサ20は、デジタルカメラ200の姿勢を検出するものであり、例えばジャイロセンサによって構成される。姿勢センサ20は、デジタルカメラ200の重心を通るZ軸の地面に対する傾き(図10(b)、図11(b)における角度θ)を検出し、検出した角度の情報を地面推定部5に通知する。以下、デジタルカメラ200の拡張現実モード時の動作について説明する。   The attitude sensor 20 detects the attitude of the digital camera 200, and is composed of, for example, a gyro sensor. The posture sensor 20 detects the inclination of the Z-axis with respect to the ground passing through the center of gravity of the digital camera 200 (angle θ in FIGS. 10B and 11B), and notifies the ground estimation unit 5 of the detected angle information. To do. Hereinafter, the operation of the digital camera 200 in the augmented reality mode will be described.

図13は、図12に示されるデジタルカメラ200の拡張現実モード時の動作を説明するためのフローチャートである。図13において図3に示される処理と同じ処理には同一符号を付して説明を省略する。   FIG. 13 is a flowchart for explaining the operation of the digital camera 200 shown in FIG. 12 in the augmented reality mode. In FIG. 13, the same processes as those shown in FIG.

地面推定部5は、ステップS7までの処理を行った後、姿勢センサ20から、デジタルカメラ200の地面に対する傾きを示す角度情報を取得する(ステップS20)。   After performing the processing up to step S7, the ground estimation unit 5 acquires angle information indicating the tilt of the digital camera 200 with respect to the ground from the posture sensor 20 (step S20).

次に、地面推定部5は、ステップS20において取得した角度情報を用いて、三次元空間におけるデジタルカメラ200の鉛直線の伸びる方向(デジタルカメラ200の重心に錘をつけたときにその錘が垂れる方向)を判定する(ステップS21)。   Next, the ground estimation unit 5 uses the angle information acquired in step S20 to drop the vertical line of the digital camera 200 in the three-dimensional space (when the weight is attached to the center of gravity of the digital camera 200, the weight hangs down). Direction) is determined (step S21).

姿勢センサ20から取得した角度情報は、三次元空間におけるZ軸に対する角度の情報であるため、この角度情報を用いることで、三次元空間におけるデジタルカメラ200の鉛直線方向を判定することができる。   Since the angle information acquired from the attitude sensor 20 is information on an angle with respect to the Z axis in the three-dimensional space, the vertical line direction of the digital camera 200 in the three-dimensional space can be determined by using this angle information.

次に、地面推定部5は、ステップS21にて判定した鉛直線方向に垂直な平面であって、ステップS7にて変換した三次元空間の輪郭のうちの当該鉛直線方向の端部を含む平面を、三次元空間における地面として推定する(ステップS22)。   Next, the ground estimation unit 5 is a plane perpendicular to the vertical line direction determined in step S21 and includes an end in the vertical line direction in the outline of the three-dimensional space converted in step S7. Is estimated as the ground in the three-dimensional space (step S22).

例えば、図10(b),図11(b)に示されるように、三次元空間における輪郭が符号110のように存在していた場合、この輪郭110のデジタルカメラ200の鉛直線方向の端部110Tを含み、かつ、鉛直線方向に垂直な平面Gが地面として推定される。   For example, as shown in FIG. 10B and FIG. 11B, when the contour in the three-dimensional space exists as indicated by reference numeral 110, the edge of the contour 110 in the vertical line direction of the digital camera 200 is shown. A plane G including 110T and perpendicular to the vertical direction is estimated as the ground.

なお、ユーザが、図10(a)及び図11(a)に示されるような状態で撮影を行っていた場合には、デジタルカメラ200の傾きθ=0度となるため、三次元空間におけるZ軸方向下側と、デジタルカメラ200の鉛直線方向とが一致する。このため、この場合には、地面推定部5は、ステップS22において図3のステップS8の処理と同じ処理によって地面を推定することになる。   Note that when the user is shooting in a state as shown in FIGS. 10A and 11A, the inclination θ of the digital camera 200 is 0 °, and therefore Z in the three-dimensional space is set. The lower side in the axial direction coincides with the vertical direction of the digital camera 200. Therefore, in this case, the ground estimation unit 5 estimates the ground by the same process as the process of step S8 of FIG. 3 in step S22.

ステップS22の後はステップS9において、表示部11に表示中の立体映像における推定した地面上に仮想物体が重畳表示される。   After step S22, in step S9, a virtual object is superimposed and displayed on the estimated ground in the stereoscopic image being displayed on the display unit 11.

以上のように、デジタルカメラ200によれば、デジタルカメラ200を地面に対して傾けて撮影を行った場合でも、地面を精度良く推定することができるため、違和感のない拡張現実感を提供することが可能になる。   As described above, according to the digital camera 200, since the ground can be accurately estimated even when the digital camera 200 is tilted with respect to the ground, it is possible to provide an augmented reality without any sense of incongruity. Is possible.

なお、ここまでは、撮像画像データから検出される顔の数が1つであることを前提にしてきたが、撮像画像データから顔が複数種類検出された場合(図13のステップS4において、2組以上の顔の目及び口の抽出が成功した場合)には、地面推定部5が、その複数種類の顔の中から1つを選択した後、選択した顔に対し、図13のステップS5〜S9の処理を行えばよい。複数種類の顔の中からどれを選択するかは、ユーザによって指定可能にしておいてもよいし、個人認識を行って予め登録されている顔との一致度が高いものを選択するようにしてもよい。   Up to this point, the number of faces detected from the captured image data is assumed to be one. However, when a plurality of types of faces are detected from the captured image data (in step S4 in FIG. 13, 2). When the extraction of the eyes and mouths of more than one set of faces is successful, the ground estimation unit 5 selects one of the plurality of types of faces, and then performs step S5 in FIG. 13 for the selected face. The process of ~ S9 may be performed. Which one of the types of faces to select may be specified by the user, or a person having a high degree of coincidence with a pre-registered face after personal recognition is selected. Also good.

また、撮像画像データから顔が複数種類検出された場合(図13のステップS4において2組以上の顔の目及び口の抽出が成功した場合)には、地面推定部5が、その複数種類の顔の中から2つを選択した後、選択した2つの顔の各々に対し、図13のステップS5〜S22の処理を行い、選択した2つの顔の各々に対して求められた2つの地面の座標を用いて、この2つの地面と最も相関性の高い地面を最終的な地面(表示制御部10が仮想物体を重畳させる地面)として推定することで、地面の推定精度を上げることができる。   In addition, when a plurality of types of faces are detected from the captured image data (when two or more sets of face eyes and mouths have been successfully extracted in step S4 in FIG. 13), the ground estimation unit 5 uses the plurality of types of faces. After selecting two of the faces, the processes of steps S5 to S22 in FIG. 13 are performed on each of the two selected faces, and the two ground planes obtained for each of the two selected faces are displayed. Using the coordinates, the ground having the highest correlation with the two grounds is estimated as the final ground (the ground on which the display control unit 10 superimposes the virtual object), so that the ground estimation accuracy can be increased.

なお、デジタルカメラ100,200は、撮像部1,2の2つの撮像部により視差のある2つの撮像画像信号を得ているが、視差のある2つの撮像画像信号を得ることができれば、撮像部は2つなくてもよい。   The digital cameras 100 and 200 obtain two captured image signals with parallax from the two imaging units of the imaging units 1 and 2, but if two captured image signals with parallax can be obtained, the imaging unit There may not be two.

例えば、単一の光学系と2つの撮像素子によって視差のある2つの撮像画像信号を出力する撮像部を用いてもよい。または、単一の光学系と単一の撮像素子によって視差のある2つの撮像画像信号を出力可能な撮像部を用いてもよい。単一の光学系と単一の撮像素子によって視差のある2つの撮像画像信号を出力可能な撮像部では、撮像素子として、位相差を検出可能な画素ペア(例えば、遮光膜開口が互いに逆方向に偏心された2つの画素)を二次元状に配置したものを用いることで、視差のある2つの撮像画像信号を出力可能である。また、撮影範囲を連続的に変えながら複数回の撮像を行って視差のある2つの撮像画像信号を取得するような方式の撮像部を用いてもよい。   For example, an imaging unit that outputs two captured image signals with parallax using a single optical system and two imaging elements may be used. Alternatively, an imaging unit that can output two captured image signals with parallax using a single optical system and a single imaging device may be used. In an imaging unit capable of outputting two captured image signals with parallax using a single optical system and a single imaging device, a pixel pair capable of detecting a phase difference (for example, light-shielding film openings in opposite directions to each other) By using two-dimensionally arranged pixels), two captured image signals having parallax can be output. In addition, an image pickup unit of a type that acquires two picked-up image signals with parallax by performing image pickup a plurality of times while continuously changing the shooting range may be used.

また、以上の説明では、拡張現実感提供装置が、視差のある2つの撮像画像信号を出力可能な撮像部を有するものとしたが、拡張現実感提供装置に撮像部は搭載されていなくてもよい。例えば、拡張現実感提供装置内の記憶部(記録媒体13)に、別の撮像部によって撮像して得られた視差のある2つの撮像画像信号(静止画、動画)や、インターネット等からダウンロードした視差のある2つの撮像画像信号(静止画、動画)を予め記憶しておき、拡張現実感提供装置の地面推定部が、記録媒体13から上記2つの撮像画像信号を取得し、取得した2つの撮像画像信号に対し、図3や図13に示される処理を行うようにしてもよい。   In the above description, the augmented reality providing device has an imaging unit capable of outputting two captured image signals with parallax. However, the augmented reality providing device may not include an imaging unit. Good. For example, two captured image signals with a parallax (still images, moving images) obtained by imaging with another imaging unit, downloaded from the Internet, or the like to a storage unit (recording medium 13) in the augmented reality providing device Two captured image signals with a parallax (still image, moving image) are stored in advance, and the ground estimation unit of the augmented reality providing device acquires the two captured image signals from the recording medium 13, and acquires the acquired two The processing shown in FIGS. 3 and 13 may be performed on the captured image signal.

以上のように、本明細書には以下の事項が開示されている。   As described above, the following items are disclosed in this specification.

開示された拡張現実感提供装置は、使用者に対して拡張現実感を提供する拡張現実感提供装置であって、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備えるものである。   The disclosed augmented reality providing device is an augmented reality providing device that provides augmented reality to a user, and is one of two captured image data generated from two captured image signals having parallax. A first image based on certain first imaged image data, and a display unit that compositely displays a second image based on the second imaged image data that is the other of the two imaged image data in a stereoscopic manner; A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data The Contour extraction processing to be output, coordinate conversion processing for converting the two-dimensional coordinates of the contour extracted by the contour extraction processing into coordinates in the three-dimensional space based on the coordinates of the face calculated by the face coordinate calculation processing, and A ground estimation unit for performing ground estimation processing for estimating a plane perpendicular to the vertical line including an end of the outline in the augmented reality providing device of the contour in a three-dimensional space and perpendicular to the vertical line; and the display A display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic video displayed on the unit.

開示された拡張現実感提供装置は、前記拡張現実感提供装置の姿勢を検出する姿勢検出部を備え、前記地面推定部は、前記姿勢検出部によって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定するものである。   The disclosed augmented reality providing device includes a posture detecting unit that detects a posture of the augmented reality providing device, and the ground estimation unit is configured to detect an inclination of the augmented reality providing device detected by the posture detecting unit. Based on the information, the direction in which the vertical line extends is determined.

開示された拡張現実感提供装置は、前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って前記地面を推定するものである。   In the disclosed augmented reality providing device, when there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects one of the plurality of types of faces and includes the selected face The face is estimated by performing the face coordinate calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process on the subject.

開示された拡張現実感提供装置は、前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、前記表示制御部は、前記地面推定部によって推定された前記最終的な地面上に前記仮想物体を重畳させるものである。   In the disclosed augmented reality providing device, when there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects two of the plurality of types of faces and selects the selected two faces The ground coordinate is estimated for each of the two types of subjects by performing the face coordinate calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process for different types of subjects including A plane having the highest correlation with the two grounds obtained for each type of subject is estimated as a final ground on which the virtual object is superimposed, and the display control unit is configured to determine the final ground estimated by the ground estimation unit. The virtual object is superimposed on a smooth ground.

開示された拡張現実感提供装置は、前記視差のある2つの撮像画像信号を出力可能な撮像部を備えるものである。   The disclosed augmented reality providing apparatus includes an imaging unit capable of outputting two captured image signals having the parallax.

開示された仮想物体の重畳方法は、視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示し、当該立体視可能に表示される立体映像に仮想物体を重畳表示させて拡張現実感を提供する拡張現実感提供装置における仮想物体の重畳方法であって、前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備えるものである。   The disclosed method for superimposing a virtual object includes a first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and the two imaging A second image based on the second captured image data, which is the other of the image data, is combined and displayed in a stereoscopic view, and a virtual object is superimposed on the stereoscopic image displayed in the stereoscopic view to provide augmented reality. A method of superimposing a virtual object in an augmented reality providing apparatus, wherein a face detection step of detecting a face from the first captured image data and the second captured image data, the first captured image data, and the A face coordinate calculation step of calculating the coordinates of the face in a three-dimensional space using the augmented reality providing device as an origin using face data commonly detected from second captured image data; The contour extracting step for extracting the contour of the subject including the face from the captured image data and the second captured image data, and the two-dimensional coordinates of the contour extracted by the contour extracting step are calculated by the face coordinate calculating step. A coordinate conversion step for converting into coordinates in the three-dimensional space based on the coordinates of the face; and an end of the contour in the three-dimensional space in the direction in which the vertical line of the augmented reality providing device extends and the vertical line A ground estimation step for estimating a vertical plane as a ground; and a display control step for performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic image.

開示された仮想物体の重畳方法は、前記拡張現実感提供装置の姿勢を検出する姿勢検出ステップを備え、前記地面推定ステップでは、前記姿勢検出ステップによって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定するものである。   The disclosed method for superimposing a virtual object includes a posture detection step of detecting a posture of the augmented reality providing device, and in the ground estimation step, the inclination of the augmented reality providing device detected by the posture detection step is detected. Based on the information, the direction in which the vertical line extends is determined.

開示された仮想物体の重畳方法は、前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って前記地面を推定するものである。   In the disclosed method for superimposing a virtual object, when there are a plurality of types of faces detected by the face detection step, one of the plurality of types of faces is selected, and the subject including the selected face is The ground is estimated by performing a face coordinate calculation step, the contour extraction step, the coordinate conversion step, and the ground estimation step.

開示された仮想物体の重畳方法は、前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、当該最終的な地面上に前記仮想物体を重畳させるものである。   In the disclosed method for superimposing a virtual object, when there are a plurality of types of faces detected by the face detection step, two types are selected from the plurality of types of faces, and different types including each of the selected two faces For the subject, the face coordinate calculation step, the contour extraction step, the coordinate conversion step, and the ground estimation step are performed to estimate the ground for each of the two types of subjects and to obtain each of the two types of subjects. The plane having the highest correlation with the two grounds is estimated as the final ground on which the virtual object is superimposed, and the virtual object is superimposed on the final ground.

1,2 撮像部
5 地面推定部
200 デジタルカメラ
1, 2 Imaging unit 5 Ground estimation unit 200 Digital camera

Claims (9)

使用者に対して拡張現実感を提供する拡張現実感提供装置であって、
視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示する表示部と、
前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出処理、前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出処理、前記第一の撮像画像データ又は前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出処理、前記輪郭抽出処理により抽出した輪郭の二次元座標を、前記顔座標算出処理により算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換処理、及び前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定処理、を行う地面推定部と、
前記表示部に表示される立体映像における前記地面推定部によって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御部とを備える拡張現実感提供装置。
An augmented reality providing device that provides augmented reality to a user,
A first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and a second image that is the other of the two captured image data A display unit that synthesizes and displays a second image based on the image data in a stereoscopic manner;
A face detection process for detecting a face from the first captured image data and the second captured image data, and face data detected in common from the first captured image data and the second captured image data are used. The face coordinate calculation process for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin, the contour of the subject including the face from the first captured image data or the second captured image data A contour extraction process for extracting the two-dimensional coordinates of the contour extracted by the contour extraction process, and a coordinate conversion process for converting the coordinates of the face calculated by the face coordinate calculation process into coordinates in the three-dimensional space; Performing ground estimation processing for estimating a plane perpendicular to the vertical line that includes an end of the outline in the augmented reality providing device in the three-dimensional space in a direction in which the vertical line extends. And the ground estimation unit,
An augmented reality providing apparatus comprising: a display control unit that performs control to superimpose and display a virtual object on the ground estimated by the ground estimation unit in the stereoscopic image displayed on the display unit.
請求項1記載の拡張現実感提供装置であって、
前記拡張現実感提供装置の姿勢を検出する姿勢検出部を備え、
前記地面推定部は、前記姿勢検出部によって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定する拡張現実感提供装置。
The augmented reality providing device according to claim 1,
An attitude detection unit for detecting the attitude of the augmented reality providing device;
The augmented reality providing device, wherein the ground estimation unit determines a direction in which the vertical line extends based on information on an inclination of the augmented reality providing device detected by the posture detecting unit.
請求項1又は2記載の拡張現実感提供装置であって、
前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って前記地面を推定する拡張現実感提供装置。
The augmented reality providing device according to claim 1 or 2,
When there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects one of the plurality of types of faces and performs the face coordinate calculation process for a subject including the selected face. An augmented reality providing apparatus that estimates the ground by performing the contour extraction process, the coordinate conversion process, and the ground estimation process.
請求項1又は2記載の拡張現実感提供装置であって、
前記顔検出処理によって検出された顔が複数種類ある場合、前記地面推定部は、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出処理、前記輪郭抽出処理、前記座標変換処理、及び前記地面推定処理を行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、
前記表示制御部は、前記地面推定部によって推定された前記最終的な地面上に前記仮想物体を重畳させる拡張現実感提供装置。
The augmented reality providing device according to claim 1 or 2,
When there are a plurality of types of faces detected by the face detection process, the ground estimation unit selects two of the plurality of types of faces and applies different types of subjects including each of the selected two faces. Then, the face coordinates calculation process, the contour extraction process, the coordinate conversion process, and the ground estimation process are performed to estimate the ground for each of the two types of subjects, and the two grounds obtained for each of the two types of subjects The plane most highly correlated with is estimated as the final ground on which the virtual object is superimposed,
The augmented reality providing apparatus in which the display control unit superimposes the virtual object on the final ground estimated by the ground estimation unit.
請求項1〜4のいずれか1項記載の拡張現実感提供装置であって、
前記視差のある2つの撮像画像信号を出力可能な撮像部を備える拡張現実感提供装置。
The augmented reality providing device according to any one of claims 1 to 4,
An augmented reality providing apparatus including an imaging unit capable of outputting two captured image signals having parallax.
視差のある2つの撮像画像信号から生成される2つの撮像画像データの一方である第一の撮像画像データに基づく第一の画像、及び、前記2つの撮像画像データの他方である第二の撮像画像データに基づく第二の画像を立体視可能に合成表示し、当該立体視可能に表示される立体映像に仮想物体を重畳表示させて拡張現実感を提供する拡張現実感提供装置における仮想物体の重畳方法であって、
前記第一の撮像画像データ及び前記第二の撮像画像データから顔を検出する顔検出ステップと、
前記第一の撮像画像データ及び前記第二の撮像画像データから共通に検出された顔のデータを用いて前記拡張現実感提供装置を原点とする三次元空間における当該顔の座標を算出する顔座標算出ステップと、
前記第一の撮像画像データ及び前記第二の撮像画像データから前記顔を含む被写体の輪郭を抽出する輪郭抽出ステップと、
前記輪郭抽出ステップにより抽出した輪郭の二次元座標を、前記顔座標算出ステップにより算出した前記顔の座標に基づいて前記三次元空間における座標に変換する座標変換ステップと、
前記三次元空間における前記輪郭の前記拡張現実感提供装置の鉛直線の伸びる方向の端部を含みかつ前記鉛直線に垂直な面を地面と推定する地面推定ステップと、
前記立体映像における前記地面推定ステップによって推定された地面上に、仮想物体を重畳表示させる制御を行う表示制御ステップとを備える仮想物体の重畳方法。
A first image based on first captured image data that is one of two captured image data generated from two captured image signals having parallax, and a second image that is the other of the two captured image data The second image based on the image data is combined and displayed so as to be stereoscopically viewable, and the virtual object in the augmented reality providing device that provides the augmented reality by superimposing the virtual object on the stereoscopically displayed stereoscopic image is provided. A superposition method comprising:
A face detection step of detecting a face from the first captured image data and the second captured image data;
Face coordinates for calculating the coordinates of the face in a three-dimensional space with the augmented reality providing device as the origin using face data detected in common from the first captured image data and the second captured image data A calculation step;
A contour extracting step for extracting a contour of a subject including the face from the first captured image data and the second captured image data;
A coordinate conversion step of converting the two-dimensional coordinates of the contour extracted by the contour extraction step into coordinates in the three-dimensional space based on the coordinates of the face calculated by the face coordinate calculation step;
A ground estimation step for estimating a plane perpendicular to the vertical line including an end portion of the outline in the augmented reality providing device in the three-dimensional space in a direction in which the vertical line extends;
A virtual object superimposing method comprising: a display control step of performing control to superimpose and display a virtual object on the ground estimated by the ground estimation step in the stereoscopic video.
請求項6記載の仮想物体の重畳方法であって、
前記拡張現実感提供装置の姿勢を検出する姿勢検出ステップを備え、
前記地面推定ステップでは、前記姿勢検出ステップによって検出された前記拡張現実感提供装置の傾きの情報により、前記鉛直線の伸びる方向を判定する仮想物体の重畳方法。
The method of superimposing a virtual object according to claim 6,
A posture detecting step for detecting a posture of the augmented reality providing device;
In the ground estimation step, a virtual object superimposing method for determining a direction in which the vertical line extends based on information on an inclination of the augmented reality providing device detected in the posture detection step.
請求項6又は7記載の仮想物体の重畳方法であって、
前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から1つを選択し、選択した顔を含む被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って前記地面を推定する仮想物体の重畳方法。
The method of superimposing a virtual object according to claim 6 or 7,
When there are a plurality of types of faces detected by the face detection step, one of the plurality of types of faces is selected, and for the subject including the selected face, the face coordinate calculation step, the contour extraction step, A virtual object superimposing method for estimating the ground by performing the coordinate conversion step and the ground estimation step.
請求項6又は7記載の仮想物体の重畳方法であって、
前記顔検出ステップによって検出された顔が複数種類ある場合、当該複数種類の顔の中から2つを選択し、選択した2つの顔の各々を含む異なる種類の被写体に対して、前記顔座標算出ステップ、前記輪郭抽出ステップ、前記座標変換ステップ、及び前記地面推定ステップを行って2種類の被写体毎に前記地面を推定し、前記2種類の被写体毎に求めた2つの地面と最も相関性の高い平面を、前記仮想物体を重畳させる最終的な地面として推定し、当該最終的な地面上に前記仮想物体を重畳させる仮想物体の重畳方法。
The method of superimposing a virtual object according to claim 6 or 7,
When there are a plurality of types of faces detected by the face detection step, two of the plurality of types of faces are selected, and the face coordinate calculation is performed for different types of subjects including each of the selected two faces. Steps, the contour extraction step, the coordinate conversion step, and the ground estimation step are performed to estimate the ground for each of the two types of subjects and have the highest correlation with the two grounds obtained for the two types of subjects. A method of superimposing a virtual object by estimating a plane as a final ground on which the virtual object is superimposed, and superimposing the virtual object on the final ground.
JP2011080897A 2011-03-31 2011-03-31 Augmented reality providing device and superimposition method of virtual object Withdrawn JP2012216077A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011080897A JP2012216077A (en) 2011-03-31 2011-03-31 Augmented reality providing device and superimposition method of virtual object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011080897A JP2012216077A (en) 2011-03-31 2011-03-31 Augmented reality providing device and superimposition method of virtual object

Publications (1)

Publication Number Publication Date
JP2012216077A true JP2012216077A (en) 2012-11-08

Family

ID=47268789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011080897A Withdrawn JP2012216077A (en) 2011-03-31 2011-03-31 Augmented reality providing device and superimposition method of virtual object

Country Status (1)

Country Link
JP (1) JP2012216077A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2529037A (en) * 2014-06-10 2016-02-10 2Mee Ltd Augmented reality apparatus and method
JP2017505933A (en) * 2013-11-26 2017-02-23 シェフィ,ヨァヴ Method and system for generating a virtual image fixed on a real object
CN109087237A (en) * 2018-06-29 2018-12-25 邓文婕 A kind of virtual helmet
US10885333B2 (en) 2012-09-12 2021-01-05 2Mee Ltd Augmented reality apparatus and method
JP6959682B1 (en) * 2020-12-28 2021-11-05 株式会社計数技研 Image synthesizer, image synthesizer, and program
JP7044426B1 (en) 2021-10-14 2022-03-30 株式会社計数技研 Image compositing device, image compositing method, and program
US11363325B2 (en) 2014-03-20 2022-06-14 2Mee Ltd Augmented reality apparatus and method
WO2022145414A1 (en) * 2020-12-28 2022-07-07 株式会社計数技研 Image compositing device, image compositing method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885333B2 (en) 2012-09-12 2021-01-05 2Mee Ltd Augmented reality apparatus and method
US11361542B2 (en) 2012-09-12 2022-06-14 2Mee Ltd Augmented reality apparatus and method
JP2017505933A (en) * 2013-11-26 2017-02-23 シェフィ,ヨァヴ Method and system for generating a virtual image fixed on a real object
US11363325B2 (en) 2014-03-20 2022-06-14 2Mee Ltd Augmented reality apparatus and method
GB2529037B (en) * 2014-06-10 2018-05-23 2Mee Ltd Augmented reality apparatus and method
US10679413B2 (en) 2014-06-10 2020-06-09 2Mee Ltd Augmented reality apparatus and method
US11094131B2 (en) 2014-06-10 2021-08-17 2Mee Ltd Augmented reality apparatus and method
GB2529037A (en) * 2014-06-10 2016-02-10 2Mee Ltd Augmented reality apparatus and method
CN106664376A (en) * 2014-06-10 2017-05-10 2Mee 有限公司 Augmented reality apparatus and method
CN109087237A (en) * 2018-06-29 2018-12-25 邓文婕 A kind of virtual helmet
JP6959682B1 (en) * 2020-12-28 2021-11-05 株式会社計数技研 Image synthesizer, image synthesizer, and program
WO2022145414A1 (en) * 2020-12-28 2022-07-07 株式会社計数技研 Image compositing device, image compositing method, and program
JP2022103572A (en) * 2020-12-28 2022-07-08 株式会社計数技研 Image composition device, image composition method, and program
JP7044426B1 (en) 2021-10-14 2022-03-30 株式会社計数技研 Image compositing device, image compositing method, and program
JP2023059137A (en) * 2021-10-14 2023-04-26 株式会社計数技研 Image composite device, image composite method, and program

Similar Documents

Publication Publication Date Title
JP2012216077A (en) Augmented reality providing device and superimposition method of virtual object
JP5659305B2 (en) Image generating apparatus and image generating method
JP5865388B2 (en) Image generating apparatus and image generating method
JP4775474B2 (en) Imaging apparatus, imaging control method, and program
JP7349793B2 (en) Image processing device, image processing method, and program
JP2005050035A (en) Image photographing device and image processing method
JP4144492B2 (en) Image display device
JP2010250452A (en) Arbitrary viewpoint image synthesizing device
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
US20130162786A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
JP2020129823A (en) Image capturing apparatus, image capturing system, image processing method, information processing apparatus, and program
EP3136724A1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
JP2011141381A (en) Stereoscopic image display device and stereoscopic image display method
JP2000222116A (en) Position recognition method for display image, position recognition device therefor and virtual image stereoscopic synthesis device
TWI502271B (en) Controlling method and electronic apparatus
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013074473A (en) Panorama imaging apparatus
JP5759439B2 (en) Video communication system and video communication method
US20140184747A1 (en) Visually-Assisted Stereo Acquisition from a Single Camera
JP2011182003A (en) Panorama camera and 360-degree panorama stereoscopic video system
JP5689693B2 (en) Drawing processor
JP2013070153A (en) Imaging apparatus
JP2005050033A (en) Image processing method and image generating device
JP2019121074A (en) Selfie device, method and program in vr space

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20121005

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140603