JP2013121150A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2013121150A JP2013121150A JP2011269523A JP2011269523A JP2013121150A JP 2013121150 A JP2013121150 A JP 2013121150A JP 2011269523 A JP2011269523 A JP 2011269523A JP 2011269523 A JP2011269523 A JP 2011269523A JP 2013121150 A JP2013121150 A JP 2013121150A
- Authority
- JP
- Japan
- Prior art keywords
- image
- superimposed
- eye image
- small
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
Abstract
Description
本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.
近年、実空間内のオブジェクトを撮影することで得られた撮像画像に、架空の画像(AR画像)を重畳させることで、合成画像を生成する拡張現実(AR「Augmented Reality」)という技術が用いられるようになってきている。このAR技術によれば、合成画像を視認したユーザは、あたかも実空間にAR画像が存在するかのように認識する。 In recent years, a technique called augmented reality (AR “Augmented Reality”) that generates a composite image by superimposing a fictitious image (AR image) on a captured image obtained by photographing an object in real space has been used. It is getting to be. According to this AR technology, a user who has visually recognized a composite image recognizes as if the AR image exists in real space.
従来のAR技術は、AR画像を単に撮像画像に重畳させるだけだったので、オブジェクト画像(オブジェクトが描かれた画像)とAR画像とが重なる場合、AR画像とオブジェクトとの実空間での位置関係に関わらず、オブジェクト画像がAR画像によって遮蔽されてしまう。このため、ユーザは、AR画像の遠近感に違和感を持ってしまう場合があった。 In the conventional AR technology, the AR image is simply superimposed on the captured image. Therefore, when the object image (image on which the object is drawn) and the AR image overlap, the positional relationship between the AR image and the object in the real space. Regardless, the object image is blocked by the AR image. For this reason, the user may have a sense of incongruity in the perspective of the AR image.
例えば、AR画像の一部が実空間でオブジェクトに遮蔽される場合であっても、合成画像ではオブジェクト画像がAR画像によって遮蔽されるので、合成画像を視認したユーザは、AR画像の遠近感に違和感を持ってしまう。具体的には、ユーザは、AR画像のうち、オブジェクト画像に重畳した部分については、オブジェクトよりも手前側に存在すると認識し、それ以外の部分については、オブジェクトよりも奥側に存在すると認識してしまう。 For example, even when a part of an AR image is occluded by an object in real space, the object image is occluded by the AR image in the synthesized image. I feel uncomfortable. Specifically, the user recognizes that the part of the AR image superimposed on the object image is present on the near side of the object, and recognizes that the other part is present on the back side of the object. End up.
特許文献1には、このような問題を解決することを目的とした技術が開示されている。この技術は、AR画像の一部が実空間でオブジェクトに遮蔽される場合、オブジェクト画像を撮像画像から消去し、その後、撮像画像にAR画像を重畳させる。 Patent Document 1 discloses a technique aimed at solving such a problem. In this technique, when a part of an AR image is shielded by an object in real space, the object image is erased from the captured image, and then the AR image is superimposed on the captured image.
しかし、特許文献1に開示された技術では、AR画像による消去の対象であることを示すマーカを撮影前にオブジェクトに貼り付ける必要があった。このため、撮影時の手間が増大してしまうという問題があった。また、オブジェクト画像を違和感なく消去するために、オブジェクトの特性が制限されるという問題もあった。 However, in the technique disclosed in Patent Document 1, it is necessary to paste a marker indicating that the image is to be erased by the AR image to the object before shooting. For this reason, there has been a problem that the time and effort at the time of shooting increases. In addition, there is a problem that the characteristics of the object are limited in order to erase the object image without a sense of incongruity.
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、撮影時の手間が低減し、かつ、オブジェクトの特性に関わらず遠近感の自然な合成画像を生成することが可能な、新規かつ改良された情報処理装置及び情報処理方法を提供することにある。 Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to reduce the time and effort at the time of shooting and to create a natural composite image with a sense of perspective regardless of the characteristics of the object. It is an object to provide a new and improved information processing apparatus and information processing method that can be generated.
上記課題を解決するために、本発明のある観点によれば、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得部と、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割部と、右目用画像及び左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得部と、姿勢情報に基づいて、複数の小領域のうち、重畳画像が重畳される重畳小領域を特定する小領域特定部と、右目用画像及び左目用画像に基づいて、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する奥行き算出部と、を備える、情報処理装置が提供される。 In order to solve the above problems, according to an aspect of the present invention, an image acquisition unit that acquires a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions, and a right-eye image and a left-eye image An area dividing unit that divides a reference image, which is at least one of the images, into a plurality of small areas, and a real image of a superimposed image to be superimposed on at least one of the right-eye image and the left-eye image. A posture information acquisition unit that acquires posture information indicating an existing position, a small region specifying unit that specifies a superimposed small region on which a superimposed image is superimposed among a plurality of small regions based on the posture information, a right-eye image, and An information processing apparatus is provided that includes a depth calculation unit that calculates an existence position in a real space of at least a superimposed small region among a plurality of small regions based on a left-eye image.
この観点によれば、情報処理装置は、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する。 According to this aspect, the information processing apparatus divides the reference image, which is at least one of the right-eye image and the left-eye image, into a plurality of small areas, and among the plurality of small areas, Calculate the location in real space.
したがって、情報処理装置は、基準画像に重畳画像を重畳させる場合には、重畳小領域の実空間での存在位置に基づいて、重畳小領域と重畳画像との実空間での位置関係を認識することができる。 Therefore, when superimposing the superimposed image on the reference image, the information processing apparatus recognizes the positional relationship between the superimposed small area and the superimposed image in the real space based on the position of the superimposed small area in the real space. be able to.
ここで、領域分割部は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割してもよい。 Here, the area dividing unit may divide the reference image into a plurality of small areas by dividing pixels having similar pixel values into the same small area.
この観点によれば、情報処理装置は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割するので、基準画像をより正確に分割することができる。 According to this aspect, the information processing apparatus divides the reference image into a plurality of small areas by dividing pixels having similar pixel values into the same small area, so that the reference image is more accurately divided. be able to.
また、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、対応点に基づいて、対応点の実空間での存在位置を算出する視差算出部を備え、奥行き算出部は、対応点が重畳小領域内に存在する場合には、対応点の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出してもよい。 In addition, the depth calculation unit includes a parallax calculation unit that extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and calculates the presence position of the corresponding point in real space based on the corresponding points. If the corresponding point exists in the superimposed small area, the position of the corresponding small area in the real space may be calculated based on the position of the corresponding point in the real space.
この観点によれば、情報処理装置は、対応点に基づいて、重畳小領域の実空間での存在位置を算出するので、重畳小領域の実空間での存在位置を正確に算出することができる。 According to this aspect, the information processing apparatus calculates the existence position of the superimposed small area in the real space based on the corresponding point, and thus can accurately calculate the existence position of the superimposed small area in the real space. .
また、奥行き算出部は、重畳小領域内に対応点が存在しない場合には、重畳小領域の周辺に存在する小領域の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出してもよい。 In addition, when there is no corresponding point in the overlapped small area, the depth calculation unit determines whether the overlapped small area in the real space is based on the position in the real space of the small area that exists around the overlapped small area. The existence position may be calculated.
この観点によれば、情報処理装置は、超小領域内に対応点が存在しない場合には、重畳小領域の周辺に存在する小領域の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出する。したがって、情報処理装置は、対応点の数が少ない場合であっても、重畳小領域の実空間での存在位置をより正確に算出することができる。 According to this aspect, when there is no corresponding point in the ultra-small area, the information processing apparatus determines whether the superimposed small area is based on the position in the real space of the small area that exists around the superimposed small area. Calculate the location in real space. Therefore, the information processing apparatus can more accurately calculate the existence position in the real space of the superimposed small region even when the number of corresponding points is small.
また、姿勢情報と、重畳小領域の実空間での存在位置を示す重畳小領域位置情報と、基準画像を撮像した撮像装置の位置情報と、に基づいて、重畳画像の各部分のうち、重畳小領域よりも撮像装置に近い重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する重畳画像生成部と、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する画像合成部と、を備えてもよい。 In addition, based on the posture information, the superimposed small region position information indicating the position of the superimposed small region in the real space, and the position information of the imaging device that captured the reference image, the superimposed image is included in each portion of the superimposed image. By identifying a superimposable part closer to the imaging device than the small area and synthesizing the superimposable part, a superimposing image generating unit that generates a superimposable image, and the superimposable image is at least one of the right eye image and the left eye image An image composition unit that superimposes the image on one image.
この観点によれば、情報処理装置は、重畳画像の各部分のうち、重畳小領域よりも撮像装置に近い位置(手前側)に存在する重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する。そして、情報処理装置は、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する。これにより、情報処理装置10は、AR画像及びオブジェクト画像の遠近感がより自然な合成画像を生成することができる。
According to this aspect, the information processing device identifies a superimposable portion existing in a position closer to the imaging device (on the near side) than the superimposing small region among the portions of the superimposed image, and synthesizes the superimposable portion. Thus, a superimposable image is generated. The information processing apparatus superimposes the superimposable image on at least one of the right-eye image and the left-eye image. Thereby, the
また、画像合成部は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させてもよい。 The image composition unit may superimpose the superimposable image on both the right-eye image and the left-eye image.
この観点によれば、情報処理装置は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させるので、重畳可能画像を立体視表示することができる。 According to this aspect, since the information processing apparatus superimposes the superimposable image on both the right eye image and the left eye image, the superimposable image can be stereoscopically displayed.
本発明の他の観点によれば、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得ステップと、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割ステップと、右目用画像及び左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得ステップと、姿勢情報に基づいて、複数の小領域のうち、重畳画像が重畳される重畳小領域を特定する小領域特定ステップと、右目用画像及び左目用画像に基づいて、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する奥行き算出ステップと、を含むことを特徴とする、情報処理方法が提供される。 According to another aspect of the present invention, at least one of an image acquisition step for acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions, and a right-eye image and a left-eye image. An area dividing step for dividing the reference image, which is an image, into a plurality of small areas, and posture information indicating a position in the real space of the superimposed image to be superimposed on at least one of the right-eye image and the left-eye image. Based on the posture information acquisition step to be acquired, and based on the posture information, a small region specifying step for specifying a superimposed small region on which the superimposed image is superimposed among a plurality of small regions, and on the right eye image and the left eye image, A depth calculation step of calculating an existence position of at least a superimposed small region in real space among a plurality of small regions is provided.
この観点による情報処理方法では、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する。 In the information processing method according to this aspect, the reference image, which is at least one of the right-eye image and the left-eye image, is divided into a plurality of small regions, and among the plurality of small regions, at least in the real space of the superimposed small region. Is calculated.
したがって、この情報処理方法では、基準画像に重畳画像を重畳させる場合には、重畳小領域の実空間での存在位置に基づいて、重畳小領域と重畳画像との実空間での位置関係を認識することができる。 Therefore, in this information processing method, when the superimposed image is superimposed on the reference image, the positional relationship in the real space between the superimposed small region and the superimposed image is recognized based on the position of the superimposed small region in the real space. can do.
以上説明したように本発明によれば、情報処理装置は、各オブジェクトにマーカを付さなくても、重畳画像のうち、どの部分が重畳小領域によって遮蔽されるのかを把握することができる。したがって、撮影時の手間が低減する。さらに、情報処理装置は、オブジェクトがどのようなものであっても、上述した処理を行うことができるので、オブジェクトの特性に関わらず、遠近感の自然な合成画像を生成することができる。さらに、情報処理装置は、手前側のオブジェクト画像によって重畳画像が遮蔽されるという表現を行うことができる。 As described above, according to the present invention, the information processing apparatus can grasp which part of the superimposed image is shielded by the superimposed small region without attaching a marker to each object. Therefore, labor during photographing is reduced. Furthermore, since the information processing apparatus can perform the above-described processing regardless of the object, it is possible to generate a natural composite image with a sense of perspective regardless of the characteristics of the object. Furthermore, the information processing apparatus can express that the superimposed image is shielded by the object image on the near side.
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.
本実施形態では、「奥側」及び「手前側」の各用語は、撮像装置の焦点を基準とした位置関係を示す。例えば、「一のオブジェクトは他のオブジェクトの奥側に存在する」場合、一のオブジェクトから撮像装置の焦点までの奥行き値は、他のオブジェクトから撮像装置の焦点までの奥行き値よりも長い。ここで、各オブジェクトの「奥行き値」は、各オブジェクトから焦点までの光軸方向の距離である。 In the present embodiment, the terms “back side” and “near side” indicate a positional relationship based on the focal point of the imaging apparatus. For example, when “one object exists behind another object”, the depth value from one object to the focus of the imaging device is longer than the depth value from the other object to the focus of the imaging device. Here, the “depth value” of each object is the distance in the optical axis direction from each object to the focal point.
<1.従来のAR技術の考察>
本発明者は、従来のAR技術を検討することによって、本実施形態に係る情報処理装置10(図1参照)に想到するに至った。そこで、まず、従来のAR技術及びその問題点について説明する。
<1. Consideration of conventional AR technology>
The present inventor has come up with the information processing apparatus 10 (see FIG. 1) according to the present embodiment by examining the conventional AR technology. First, the conventional AR technology and its problems will be described.
上述したように、従来のAR技術は、AR画像を単に撮像画像に重畳させるだけだったので、オブジェクト画像とAR画像とが重なる場合、AR画像とオブジェクトとの実空間での位置関係に関わらず、オブジェクト画像がAR画像によって遮蔽されてしまう。このため、ユーザは、AR画像の遠近感に違和感を持ってしまう場合があった。 As described above, the conventional AR technique merely superimposes the AR image on the captured image. Therefore, when the object image and the AR image overlap, regardless of the positional relationship between the AR image and the object in the real space. The object image is blocked by the AR image. For this reason, the user may have a sense of incongruity in the perspective of the AR image.
従来の合成画像の例を図13に示す。この例では、撮像画像100にAR画像200が重畳されている。撮像画像100は、タンス画像101、マーカ画像102、複数の床パネル画像103が描かれている。マーカ画像102は、床パネル画像103aに描かれており、AR画像200が重畳される位置を示すものである。マーカ画像102は、撮像画像100に合成されるか、または、床パネルに予めマーカを描いておき、それを撮影することで得られる。
An example of a conventional composite image is shown in FIG. In this example, the
したがって、AR画像200は、マーカ画像102上に重畳されるので、AR画像200の一部は実空間でタンスによって遮蔽される。しかし、AR画像200は、タンス及び床パネル(オブジェクト)との実空間での位置関係に関わらず、撮像画像100に重畳される。具体的には、AR画像200は、タンス画像101と、実空間でタンスよりも奥側に配置される床パネルの画像、即ち床パネル画像103aとの両方に重畳される。
Therefore, since the
したがって、合成画像を視認したユーザは、AR画像200の遠近感に違和感を持ってしまう。具体的には、ユーザは、AR画像200のうち、タンス画像101に重畳した部分については、タンスよりも手前側に存在すると認識し、床パネル画像103aに重畳した部分については、タンスよりも奥側に存在すると認識してしまう。
Therefore, the user who has visually recognized the composite image has a sense of incongruity in the perspective of the
特許文献1には、このような問題を解決することを目的とした技術が開示されている。この技術は、AR画像の一部がオブジェクトによって遮蔽される場合、オブジェクト画像を撮像画像から消去し、その後、撮像画像にAR画像を重畳させる。 Patent Document 1 discloses a technique aimed at solving such a problem. In this technique, when a part of an AR image is shielded by an object, the object image is erased from the captured image, and then the AR image is superimposed on the captured image.
特許文献1に開示された技術を図13に示す撮像画像100に適用した場合、以下の処理が行われる。まず、図14に示すように、AR画像による消去の対象であることを示すマーカをタンスに付しておき、それを撮影する。これにより、撮像画像100には、上述した各画像101、102、103の他、マーカ画像104が描かれる。そして、特許文献1に開示された技術は、マーカ画像104が付されたタンス画像101を撮像画像100から消去し、その後、図15に示すように、AR画像200を撮像画像100に重畳させる。即ち、特許文献1に開示された技術では、AR画像200が重畳される可能性のあるオブジェクト画像が識別可能となるように、オブジェクトにマーカが付される。
When the technique disclosed in Patent Literature 1 is applied to the captured
特許文献1に開示された技術によれば、ユーザは、AR画像200の遠近感を違和感なく認識することができる。しかし、特許文献1に開示された技術では、AR画像200による消去の対象であることを示すマーカを撮影前にオブジェクトに貼り付ける必要があった。このため、撮影時の手間が増大してしまうという問題があった。また、オブジェクト画像を違和感なく消去するために、オブジェクトの特性が制限されるという問題もあった。具体的には、オブジェクトは、小品かつ他のオブジェクトから孤立しており、平面的なテクスチャの底面上に載置されている必要がある。さらに、特許文献1に開示された技術は、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができない。
According to the technology disclosed in Patent Document 1, the user can recognize the perspective of the
なお、特開平10−112831号公報及び特開2008−532149号公報は、オブジェクトの実空間での存在位置を認識し、その結果に基づいて、オブジェクトとAR画像との実空間での位置関係を把握する技術を開示する。これらの技術によれば、AR画像のうち、オブジェクトよりも手前側に存在する部分のみを撮像画像に重畳させることができる。そして、これらの公報は、右目用画像及び左目用画像に基づいて、オブジェクトの実空間での存在位置を認識してもよいことを開示する。しかし、これらの文献は、右目用画像及び左目用画像に基づいた具体的な認識方法について何ら開示していないので、これらの技術を実際の装置に適用することは不可能である。 JP-A-10-112831 and JP-A-2008-532149 recognize the existence position of an object in the real space, and based on the result, determine the positional relationship between the object and the AR image in the real space. Disclose the technology to grasp. According to these techniques, it is possible to superimpose only a portion existing on the near side of the object in the AR image on the captured image. And these gazettes disclose that the presence position of the object in the real space may be recognized based on the image for the right eye and the image for the left eye. However, since these documents do not disclose any specific recognition method based on the right-eye image and the left-eye image, it is impossible to apply these techniques to an actual apparatus.
これに対し、本実施形態に係る情報処理装置10は、上記いずれの問題も解決している。即ち、本実施形態に係る10は、撮影時の手間が低減し、オブジェクトの特性に関わらず、AR画像を撮像画像に重畳させることができ、かつ、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができる。以下、本実施形態を詳細に説明する。
On the other hand, the
<2.情報処理装置の構成>
次に、図1及び図2に基づいて、情報処理装置10の構成について説明する。情報処理装置10は、歪曲収差補正部(画像取得部)20と、姿勢情報生成部30と、奥行き推定部40と、小領域特定部51と、重畳画像生成部52と、画像合成部60と、表示部70とを備える。なお、情報処理装置10は、CPU、ROM、RAM、メモリ、ディスプレイ等のハードウェアを有しており、CPUがROMに記憶されたプログラムを読みだして実行することによって、上記各機能ブロックによる処理が実現される。即ち、ROMには、撮像装置10に、歪曲収差補正部20、姿勢情報生成部30、奥行き推定部40、小領域特定部51、重畳画像生成部52、画像合成部60、及び表示部70を実現させるためのプログラムが記憶されている。
<2. Configuration of information processing apparatus>
Next, the configuration of the
歪曲収差補正部20は、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得し、これらの歪曲収差を補正する。歪曲収差補正部20は、補正後の右目用画像及び左目用画像を奥行き推定部40及び画像合成部60に出力する。ここで、歪曲収差補正部20は、右目用画像及び左目用画像を情報処理装置10の外部から取得してもよい。また、情報処理装置10のメモリに予め右目用画像及び左目用画像を記憶しておき、歪曲収差補正部20が当該メモリから右目用画像及び左目用画像を取得してもよい。また、情報処理装置10に撮像装置を2つ備えさせ、歪曲収差補正部20がこれらの撮像装置から右目用画像及び左目用画像を取得するようにしてもよい。
The
姿勢情報生成部30は、AR画像(重畳画像)の実空間での存在位置を示す姿勢情報を取得する。ここで、姿勢情報は、AR画像のうち、所定の基準点のグローバル座標(x、y、z)、AR画像の角度(κ、ω、φ)、及び拡張係数αを含む。なお、グローバル座標は、実空間に設定されたグローバル座標系での座標である。AR画像の角度は、AR画像を通る所定の軸とグローバル座標系のxyz軸とのなす角度である。拡張係数αは、AR画像をどの程度の大きさで表示するかを示す係数である。なお、AR画像は、各頂点のグローバル座標及び面情報(AR画像の面を特定する数式情報)により定義される。拡張係数αを各頂点のグローバル座標及び面情報に乗じることによって、AR画像の大きさが決定される。
The posture
したがって、これらのパラメータ、即ち基準点のグローバル座標(x、y、z)、AR画像の角度(κ、ω、φ)、及び拡張係数αにより、AR画像の実空間での存在位置(具体的には、AR画像の各部分の存在位置)が示される。なお、上記の従来技術では、マーカの位置、方向、及び大きさによりこれらのパラメータが設定されていた。本実施形態では、この従来技術と同様の方法によりAR画像の実空間での存在位置を設定してもよいし、ユーザが手動で入力しても構わない。姿勢情報生成部30は、姿勢情報を小領域特定部51に出力する。
Therefore, the position of the AR image in the real space (specifically, the global coordinates (x, y, z) of the reference point, the angles (κ, ω, φ) of the AR image, and the expansion coefficient α) Indicates the position of each part of the AR image). In the above prior art, these parameters are set according to the position, direction, and size of the marker. In the present embodiment, the presence position of the AR image in the real space may be set by the same method as in the conventional technique, or the user may input it manually. The posture
奥行き推定部40は、図2に示すように、視差算出部41と、領域分割部42と、奥行き算出部43とを備える。視差算出部41は、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、抽出した対応点と、以下の式(1)とに基づいて、各対応点の実空間での存在位置、具体的には奥行き値を算出する。
As illustrated in FIG. 2, the
ここで、式(1)内の各パラメータについて、図3及び図4に基づいて説明する。図3は、オブジェクトOb1を左右の撮像装置で撮影する様子をしめす平面図である。図4(a)は、左側撮像装置が撮影した左目用画像LG10を示し、(b)は、右側撮像装置が撮影した右目用画像RG10を示す。 Here, each parameter in Formula (1) is demonstrated based on FIG.3 and FIG.4. FIG. 3 is a plan view showing a state in which the object Ob1 is photographed by the left and right imaging devices. FIG. 4A shows a left-eye image LG10 taken by the left imaging device, and FIG. 4B shows a right-eye image RG10 taken by the right imaging device.
図3及び図4によれば、左目用画像LG10にはオブジェクトOb1の画像であるオブジェクト画像LG11が描かれており、右目用画像RG10にはオブジェクトOb1の画像であるオブジェクト画像RG11が描かれている。また、これらのオブジェクト画像LG11、RG11には、オブジェクトOb1上の同一部分P(注視点)に対応する対応点PL、PRが含まれる。 According to FIGS. 3 and 4, an object image LG11 that is an image of the object Ob1 is drawn on the left-eye image LG10, and an object image RG11 that is an image of the object Ob1 is drawn on the right-eye image RG10. . Further, these object images LG11, RG11 include corresponding points PL, PR corresponding to the same portion P (gazing point) on the object Ob1.
左側撮像装置の主面及び右側撮像装置の主面は共通しており、主面Sで示される。また、点LEPは左側撮像装置の焦点であり、点REPは右側撮像装置の焦点である。直線L1は左側撮像装置の光軸を示し、直線R1は右側撮像装置の光軸を示す。 The main surface of the left imaging device and the main surface of the right imaging device are common and are indicated by a main surface S. Point LEP is the focal point of the left imaging device, and point REP is the focal point of the right imaging device. A straight line L1 indicates the optical axis of the left imaging device, and a straight line R1 indicates the optical axis of the right imaging device.
奥行き値dは、注視点Pから左側撮像装置の焦点LEP(または右側撮像装置の焦点REP)までの光軸L1(または光軸R1)方向の距離である。焦点間距離Dは、焦点LEPから焦点REPまでの距離である。焦点距離fは、焦点LEP(または焦点REP)から主面Sまでの距離である。距離x1は、対応点PLから左目用画像の中心点までの水平方向の距離であり、距離x2は、対応点PRから右目用画像の中心点までの水平方向の距離である。 The depth value d is the distance in the optical axis L1 (or optical axis R1) direction from the gazing point P to the focus LEP of the left imaging device (or the focus REP of the right imaging device). The interfocal distance D is a distance from the focal point LEP to the focal point REP. The focal distance f is a distance from the focal point LEP (or focal point REP) to the main surface S. The distance x1 is a horizontal distance from the corresponding point PL to the center point of the left-eye image, and the distance x2 is a horizontal distance from the corresponding point PR to the center point of the right-eye image.
視差算出部41は、各対応点の左目用画像または右目用画像内での位置と奥行き値とが関連付けられた奥行き情報を生成し、奥行き算出部43に出力する。
The
領域分割部42は、右目用画像及び左目用画像のうち、いずれか一方の画像を基準画像とし、基準画像を複数の小領域に分割する。以下、左目用画像が基準画像となる例を説明するが、右目用画像を基準画像としても良いことは勿論である。なお、表示部70が立体視表示を行う場合、情報処理装置10は、右目用画像及び左目用画像の両方を基準画像として、以下の処理を行なう。まず、図5に基づいて、領域分割部42による処理の一例について説明する。この例では、図5(a)に示す画像G10が基準画像となる。基準画像G10は、一様な輝度を有する領域G11と、領域G11の輝度とは異なる一様な輝度を有する領域G12とに区分される。
The
領域分割部42は、図5(b)にしめすように、基準画像G10を1辺の長さが所定値WLの複数の正方形領域SQに分割する。そして、領域分割部42は、正方形領域SQ内の画素値(例えば輝度)のばらつき(例えば分散)が所定値以上である場合には、正方形領域SQをさらに4つの正方形領域SQに分割する。領域分割部42は、正方形領域SQ内の分散が所定値未満となるか、または、正方形領域SQの1辺の長さが所定値WS(<WL)となるまで、上記の処理を繰り返す。
As shown in FIG. 5B, the
領域分割部42は、各正方形領域SQ内の画素値の算術平均値を算出する。そして、領域分割部42は、各正方形領域SQと当該正方形領域SQの上下左右に隣接する正方形領域SQとの画素値の算術平均値を比較する。領域分割部42は、算術平均値の差が所定範囲内である場合には、これらの正方形領域SQが同一の小領域を構成すると判定し、これらの正方形領域SQを結合する。これにより、領域分割部42は、小領域を形成していく。図5(c)に示す折れ線L1は、このような結合過程において、小領域の境界とされた線を示す。
The
領域分割部42は、結合すべき正方形領域SQがなくなるか、または、小領域の水平方向の幅が所定値WLとなるまで、上記の処理を繰り返す。この結果、図5(d)に示すように、基準画像G10が複数の小領域SARに分割される。領域分割部42は、各小領域の基準画像上での位置及び大きさ等に関する小領域情報を奥行き算出部43に出力する。
The
奥行き算出部42は、各小領域の奥行き値を算出する。ここで、図6〜図7に基づいて、奥行き算出部42が行う処理について説明する。奥行き算出部42は、まず、図6(a)に示すように、各小領域SARに対応点PLを割り当てる。なお、この例では、基準画像が左目用画像となっている。次いで、奥行き算出部42は、対応点が割り当てられた小領域SARについては、対応点の奥行き値の算術平均値を当該小領域SARの奥行き値とする。そして、奥行き算出部42は、図6(b)に示すように、小領域SARを、奥行き値が算出された第1の小領域SAR10と、奥行き値が未算出の第2の小領域SAR20に区分する。
The
そして、奥行き算出部42は、第2の小領域SAR20の上下左右に隣接する第1の小領域SAR10を特定し、これらの奥行き値の算術平均値を第2の小領域SAR20の奥行き値とする。例えば、図7(a)に示すように、奥行き算出部42は、第2の小領域SAR20aの奥行き値を、第1の小領域SAR10a、SAR10bの奥行き値の算術平均値とする。そして、奥行き算出部42は、奥行き値が算出された第2の小領域SAR20を第1の小領域SAR10に変更する。なお、奥行き算出部42は、同一方向に隣接する第1の小領域SAR10が複数存在する場合、それらの奥行き値を全て使用して第2の小領域SAR20の奥行き値を算出してもよいし、いずれか一方を使用して奥行き値を算出してもよい。奥行き算出部42は、上記の処理を順次繰り返すことで、図7(b)〜(c)に示すように、全小領域SARの奥行き値を算出する。即ち、奥行き算出部42は、最終的には、図7(b)に示すように、第2の小領域SAR20bの奥行き値を、第1の小領域SAR10c、10d、10eの奥行き値に基づいて算出する。奥行き算出部42は、各小領域の基準画像上での位置、大きさ、及び奥行き値に関する小領域奥行き値情報を小領域特定部51に出力する。
Then, the
小領域特定部51は、AR画像を取得する。ここで、小領域特定部51は、AR画像を情報処理装置10の外部から取得してもよい。また、情報処理装置10のメモリに予めAR画像を記憶しておき、小領域特定部51が当該メモリからAR画像を取得してもよい。さらに、小領域特定部51は、左側撮像装置のグローバル座標情報も取得する。この情報についても、AR画像と同様の方法により取得される。
The small
小領域特定部51は、実空間に相当する仮想空間を定義し、AR画像及び姿勢情報に基づいて、AR画像を仮想空間内に配置する。そして、小領域特定部51は、左側撮像装置のグローバル座標情報に基づいて、このAR画像を基準画像に投影する(重畳させる)。
The small
そして、小領域特定部51は、小領域奥行き値情報と、基準画像上のAR画像とに基づいて、複数の小領域のうち、AR画像が重畳される小領域を重畳小領域として特定する。そして、小領域特定部51は、重畳小領域に関する重畳小領域情報、AR画像、及び姿勢情報を重畳画像生成部52に出力する。
And the small area specific |
重畳画像生成部52は、AR画像及び姿勢情報に基づいて、AR画像のうち、重畳小領域に対応する部分の奥行き値d1を算出する。さらに、小領域特定部51は、重畳小領域情報に基づいて、重畳小領域の奥行き値d2を取得する。そして、小領域特定部51は、AR画像の各部分のうち、d1<d2となる部分を重畳可能部分として認定する。
The superimposed
図8に、重畳可能部分となる例とそうでない例とを示す。この例では、左側撮像装置がオブジェクトOb2と、オブジェクトOb2の奥側に配置されるOb3とを撮影しており、オブジェクトOb2とオブジェクトOb3との間にAR画像AR10が配置される。 FIG. 8 shows an example of a portion that can be superimposed and an example that is not. In this example, the left imaging device is photographing the object Ob2 and Ob3 disposed on the back side of the object Ob2, and the AR image AR10 is disposed between the object Ob2 and the object Ob3.
図8によれば、例えば、視線AまたはBに相当する小領域が重畳小領域とされる。視線Aに相当する重畳小領域の奥行き値はdpAとなり、AR画像AR10のうち、視線Aに相当する部分の奥行き値はdcA(>dpA)となる。したがって、AR画像AR10のうち、視線Aに相当する部分は重畳可能部分とならない。 According to FIG. 8, for example, a small area corresponding to the line of sight A or B is set as a superimposed small area. The depth value of the overlapping small area corresponding to the line of sight A is dpA, and the depth value of the portion corresponding to the line of sight A in the AR image AR10 is dcA (> dpA). Therefore, the portion corresponding to the line of sight A in the AR image AR10 is not a superimposable portion.
一方、視線Bに相当する重畳小領域の奥行き値はdpBとなり、AR画像AR10のうち、視線Bに相当する部分の奥行き値はdcB(<dpB)となる。したがって、AR画像AR10のうち、視線Bに相当する部分は重畳可能部分となる。 On the other hand, the depth value of the overlapping small area corresponding to the line of sight B is dpB, and the depth value of the portion corresponding to the line of sight B in the AR image AR10 is dcB (<dpB). Therefore, a portion corresponding to the line of sight B in the AR image AR10 is a superimposable portion.
重畳画像生成部52は、重畳可能部分を合成することで、重畳可能AR画像を生成する。図9に、重畳可能AR画像の例として、重畳可能AR画像AR11を示す。重畳可能AR画像AR11は、AR画像10の一部が欠けたものである。
The superimposed
重畳画像生成部52は、重畳可能AR画像を画像合成部60に出力する。画像合成部60は、左目用画像に重畳可能AR画像を重畳することで、左目用合成画像を生成する。なお、重畳画像生成部52は、右目用画像に対しても重畳可能AR画像が生成された場合には、右目用画像に重畳可能AR画像を重畳することで、右目用合成画像を生成する。
The superimposed
合成の例を図10、図11に示す。この例では、上述した撮像画像100に重畳可能AR画像AR11が重畳されている。この例によれば、重畳可能AR画像11のうち、タンス画像101に重畳される部分が欠けているので、これらの画像の遠近感がより自然なものとなる。
Examples of synthesis are shown in FIGS. In this example, a superimposable AR image AR11 is superimposed on the captured
表示部70は、これらの合成画像を表示する。即ち、表示部70は、右目用合成画像及び左目用合成画像が生成された場合には、右目用合成画像をユーザの右目に視認させ、左目用合成画像をユーザの左目に視認させる。なお、画像合成部60は、左目用合成画像のみが生成された場合には、左目用合成画像を2D表示する。
The
<3.情報処理装置による処理の手順>
次に、情報処理装置による処理の手順を図16に示すフローチャートに沿って説明する。以下の説明では、左目用画像が基準画像となる例について説明するが、右目用画像が基準画像とされてもよい。ステップS10において、歪曲収差補正部20は、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得し、これらの歪曲収差を補正する。歪曲収差補正部20は、補正後の右目用画像及び左目用画像を奥行き推定部40及び画像合成部60に出力する。
<3. Processing procedure by information processing apparatus>
Next, a processing procedure by the information processing apparatus will be described with reference to a flowchart shown in FIG. In the following description, an example in which the left-eye image is the reference image will be described, but the right-eye image may be the reference image. In step S10, the
ステップS20において、姿勢情報生成部30は、AR画像(重畳画像)の実空間での存在位置を示す姿勢情報を取得する。姿勢情報生成部30は、姿勢情報を小領域特定部51に出力する。
In step S20, the posture
ステップS30において、視差算出部41は、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、抽出した対応点と、上述した式(1)とに基づいて、各対応点の実空間での存在位置、具体的には奥行き値を算出する。視差算出部41は、各対応点の左目用画像または右目用画像内での位置と奥行き値とが関連付けられた奥行き情報を生成し、奥行き算出部43に出力する。
In step S30, the
ステップS40において、領域分割部42は、左目用画像を基準画像とする。次いで、領域分割部42は、上述した処理により、基準画像を複数の小領域に分割する。領域分割部42は、各小領域の基準画像上での位置及び大きさに関する小領域情報を奥行き算出部43に出力する。なお、情報処理装置10は、右目用画像を基準画像としてもよい。情報処理装置10は、立体視表示を行う場合、右目用画像も基準画像とし、右目用画像についても、ステップS40以下の処理を行なう。
In step S40, the
ステップS50において、奥行き算出部42は、上述した処理により、各小領域の奥行き値を算出する。奥行き算出部42は、各小領域の基準画像上での位置、大きさ、及び奥行き値に関する小領域奥行き値情報を小領域特定部51に出力する。
In step S50, the
ステップS60において、小領域特定部51は、AR画像、及び左側撮像装置のグローバル座標情報を取得する。
In step S60, the small
小領域特定部51は、実空間に相当する仮想空間を定義し、AR画像及び姿勢情報に基づいて、AR画像を仮想空間内に配置する。そして、小領域特定部51は、左側撮像装置のグローバル座標情報に基づいて、このAR画像を基準画像に投影する(重畳させる)。
The small
次いで、小領域特定部51は、複数の小領域のうち、AR画像が重畳される小領域を重畳小領域として特定する。そして、小領域特定部51は、重畳小領域に関する重畳小領域情報、AR画像、及び姿勢情報を重畳画像生成部52に出力する。
Next, the small
ステップS70において、重畳画像生成部52は、AR画像及び姿勢情報に基づいて、AR画像のうち、重畳小領域に対応する部分の奥行き値d1を算出する。さらに、小領域特定部51は、重畳小領域情報に基づいて、重畳小領域の奥行き値d2を取得する。そして、小領域特定部51は、AR画像の各部分のうち、d1<d2となる部分を重畳可能部分として認定する。重畳画像生成部52は、重畳可能部分を合成することで、重畳可能AR画像を生成する。重畳画像生成部52は、重畳可能AR画像を画像合成部60に出力する。
In step S <b> 70, the superimposed
ステップS80において、画像合成部60は、左目用画像に重畳可能AR画像を重畳することで、左目用合成画像を生成する。なお、重畳画像生成部52は、右目用画像に対しても重畳可能AR画像が生成された場合には、右目用画像に重畳可能AR画像を重畳することで、右目用合成画像を生成する。
In step S80, the
次いで、表示部70は、これらの合成画像を表示する。即ち、表示部70は、右目用合成画像及び左目用合成画像が生成された場合には、右目用合成画像をユーザの右目に視認させ、左目用合成画像をユーザの左目に視認させる。なお、画像合成部60は、左目用合成画像のみが生成された場合には、左目用合成画像を2D表示する。
Next, the
以上により、本実施形態によれば、情報処理装置10は、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の奥行き値を算出する。
As described above, according to the present embodiment, the
したがって、情報処理装置10は、基準画像にAR画像を重畳させる場合には、この奥行き値に基づいて、重畳小領域とAR画像との実空間での位置関係を認識することができる(ステップS60〜S70参照)。
Therefore, when superimposing the AR image on the reference image, the
これにより、情報処理装置10は、各オブジェクトにマーカを付さなくても、AR画像のうち、どの部分が重畳小領域によって遮蔽されるのかを把握することができる。したがって、撮影時の手間が低減する。さらに、情報処理装置10は、オブジェクトがどのようなものであっても、上述した処理を行うことができるので、オブジェクトの特性に関わらず、遠近感の自然な合成画像を生成することができる(図11参照)。さらに、情報処理装置10は、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができる(図11参照)。
Thereby, the
なお、本実施形態では、全小領域の奥行き値を算出したが、少なくとも重畳小領域について奥行き値を算出すればよい。 In the present embodiment, the depth values of all the small regions are calculated, but the depth values may be calculated at least for the superimposed small regions.
さらに、情報処理装置10は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割するので、基準画像をより正確に分割することができる。
Furthermore, since the
さらに、情報処理装置10は、対応点に基づいて、各小領域の奥行き値を算出するので、各小領域の奥行き値を正確に算出することができる。
Furthermore, since the
さらに、情報処理装置10は、小領域内に対応点が存在しない場合には、小領域の周辺に存在する小領域の奥行き値に基づいて、小領域の奥行き値を算出する。したがって、情報処理装置10は、対応点の数が少ない場合であっても、各小領域の奥行き値をより正確に算出することができる。
Further, when there is no corresponding point in the small area, the
さらに、情報処理装置10は、AR画像の各部分のうち、重畳小領域よりも撮像装置に近い位置(手前側)に存在する重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する。そして、情報処理装置は、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する。これにより、情報処理装置10は、AR画像及びオブジェクト画像の遠近感がより自然な合成画像を生成することができる。
Furthermore, the
さらに、情報処理装置10は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させるので、重畳可能画像を立体視表示することができる。
Furthermore, since the
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。 The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.
10 情報処理装置
20 歪曲収差補正部
30 姿勢情報生成部
40 奥行き推定部
41 視差算出部
42 領域分割部
43 奥行き算出部
51 小領域特定部
52 重畳画像生成部
60 画像合成部
70 表示部
DESCRIPTION OF
Claims (7)
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割部と、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得部と、
前記姿勢情報に基づいて、前記複数の小領域のうち、前記重畳画像が重畳される重畳小領域を特定する小領域特定部と、
前記右目用画像及び前記左目用画像に基づいて、前記複数の小領域のうち、少なくとも前記重畳小領域の実空間での存在位置を算出する奥行き算出部と、を備えることを特徴とする、情報処理装置。 An image acquisition unit for acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions;
An area dividing unit that divides a reference image that is at least one of the right-eye image and the left-eye image into a plurality of small areas;
A posture information acquisition unit that acquires posture information indicating a presence position in a real space of a superimposed image that is superimposed on at least one of the right-eye image and the left-eye image;
Based on the posture information, among the plurality of small regions, a small region identifying unit that identifies a superimposed small region on which the superimposed image is superimposed,
A depth calculation unit that calculates a presence position of at least the superimposed small region in real space among the plurality of small regions based on the right-eye image and the left-eye image. Processing equipment.
前記奥行き算出部は、前記対応点が前記重畳小領域内に存在する場合には、前記対応点の実空間での存在位置に基づいて、前記重畳小領域の実空間での存在位置を算出することを特徴とする、請求項1または2記載の情報処理装置。 A parallax calculating unit that extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and calculates a position of the corresponding point in real space based on the corresponding points;
When the corresponding point is present in the superimposed small area, the depth calculation unit calculates the presence position of the corresponding small area in the real space based on the position of the corresponding point in the real space. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記重畳可能画像を前記右目用画像及び前記左目用画像のうち少なくとも一方の画像に重畳する画像合成部と、を備えることを特徴とする、請求項1〜4のいずれか1項に記載の情報処理装置。 Based on the posture information, the superimposed small region position information indicating the position of the superimposed small region in real space, and the position information of the imaging device that captured the reference image, Identifying a superimposable portion closer to the imaging device than the superimposing small region, and combining the superimposable portion to generate a superimposable image; and
The information according to any one of claims 1 to 4, further comprising: an image composition unit that superimposes the superimposable image on at least one of the right-eye image and the left-eye image. Processing equipment.
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割ステップと、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得ステップと、
前記姿勢情報に基づいて、前記複数の小領域のうち、前記重畳画像が重畳される重畳小領域を特定する小領域特定ステップと、
前記右目用画像及び前記左目用画像に基づいて、前記複数の小領域のうち、少なくとも前記重畳小領域の実空間での存在位置を算出する奥行き算出ステップと、を含むことを特徴とする、情報処理方法。
An image acquisition step of acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions;
An area dividing step of dividing a reference image, which is at least one of the right-eye image and the left-eye image, into a plurality of small areas;
A posture information acquisition step of acquiring posture information indicating a presence position in a real space of a superimposed image superimposed on at least one of the right-eye image and the left-eye image;
Based on the posture information, a small area specifying step for specifying a superimposed small area on which the superimposed image is superimposed among the plurality of small areas;
A depth calculation step of calculating a position of at least the superimposed small region in real space among the plurality of small regions based on the right-eye image and the left-eye image. Processing method.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011269523A JP2013121150A (en) | 2011-12-09 | 2011-12-09 | Information processing device and information processing method |
KR1020120106699A KR20130065580A (en) | 2011-12-09 | 2012-09-25 | Electronic apparatus, method for producting of augemented reality image and computer-readable recording medium |
US13/707,860 US20130147801A1 (en) | 2011-12-09 | 2012-12-07 | Electronic apparatus, method for producing augmented reality image, and computer-readable recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011269523A JP2013121150A (en) | 2011-12-09 | 2011-12-09 | Information processing device and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013121150A true JP2013121150A (en) | 2013-06-17 |
Family
ID=48773583
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011269523A Pending JP2013121150A (en) | 2011-12-09 | 2011-12-09 | Information processing device and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013121150A (en) |
KR (1) | KR20130065580A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102227260B1 (en) * | 2018-09-07 | 2021-03-12 | (주)위지윅스튜디오 | Real-time computer graphics video production system using rig combined virtual camera |
-
2011
- 2011-12-09 JP JP2011269523A patent/JP2013121150A/en active Pending
-
2012
- 2012-09-25 KR KR1020120106699A patent/KR20130065580A/en not_active Application Discontinuation
Also Published As
Publication number | Publication date |
---|---|
KR20130065580A (en) | 2013-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9807361B2 (en) | Three-dimensional display device, three-dimensional image processing device, and three-dimensional display method | |
JP4228646B2 (en) | Stereoscopic image generation method and stereoscopic image generation apparatus | |
JP4649219B2 (en) | Stereo image generator | |
JP5291755B2 (en) | Stereoscopic image generation method and stereoscopic image generation system | |
JP5464279B2 (en) | Image processing apparatus, program thereof, and image processing method | |
JP2016018213A (en) | Hmd calibration with direct geometric modeling | |
JP2010278878A (en) | Stereoscopic image device and display image switching method thereof | |
JP2011250059A (en) | Image processing device, image display device and image pickup device | |
EP3001681B1 (en) | Device, method and computer program for 3d rendering | |
EP3779892A1 (en) | Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method and image display method | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JP2012223446A (en) | Stereoscopic endoscope apparatus | |
WO2013156333A1 (en) | Method and device for correcting distortion errors due to accommodation effect in stereoscopic display | |
US11463676B2 (en) | Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm | |
JP2018500690A (en) | Method and system for generating magnified 3D images | |
TWI589150B (en) | Three-dimensional auto-focusing method and the system thereof | |
JP2016218729A (en) | Image processor, image processing method and program | |
JP6618260B2 (en) | Information processing apparatus, information processing method, and program | |
JP2013121150A (en) | Information processing device and information processing method | |
JP2012065851A (en) | Multi-view auto-stereoscopic endoscope system | |
JP5355616B2 (en) | Stereoscopic image generation method and stereoscopic image generation system | |
EP2762057A1 (en) | Stereo endoscope apparatus and image processing method | |
JP6042732B2 (en) | Image generation method, image generation apparatus, and image generation program | |
JP2013047875A (en) | Stereoscopic effect presentation device and method, defocused image generation device and method, and program | |
JP2015125493A (en) | Image generation method, image generation device, and image generation program |