JP2013121150A - Information processing device and information processing method - Google Patents

Information processing device and information processing method Download PDF

Info

Publication number
JP2013121150A
JP2013121150A JP2011269523A JP2011269523A JP2013121150A JP 2013121150 A JP2013121150 A JP 2013121150A JP 2011269523 A JP2011269523 A JP 2011269523A JP 2011269523 A JP2011269523 A JP 2011269523A JP 2013121150 A JP2013121150 A JP 2013121150A
Authority
JP
Japan
Prior art keywords
image
superimposed
eye image
small
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011269523A
Other languages
Japanese (ja)
Inventor
Takashi Kurino
嵩志 栗野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2011269523A priority Critical patent/JP2013121150A/en
Priority to KR1020120106699A priority patent/KR20130065580A/en
Priority to US13/707,860 priority patent/US20130147801A1/en
Publication of JP2013121150A publication Critical patent/JP2013121150A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals

Abstract

PROBLEM TO BE SOLVED: To provide a new and improved information processing device that reduces time and effort during imaging and can generate a composite image having natural perspective regardless of characteristics of an object.SOLUTION: According to a viewpoint of the present invention, an information processing device includes: an image acquisition part that acquires a right-eye image and a left-eye image in each of which the same object is drawn at a different horizontal position; a region dividing part that divides a reference image, which is at least one image of the right-eye image and left-eye image, into a plurality of small regions; an attitude information acquisition part that acquires attitude information indicating the existence position of an overlapped image in a real space that is overlapped with at least one image of the right-eye image and left-eye image; a small region specification part that specifies an overlapped small region on which an overlapped image is overlapped, among a plurality of small regions on the basis of the attitude information; and a depth calculation part that calculates an existence position in the real space of at least an overlapped small region among the plurality of small regions on the basis of the right-eye image and left-eye image.

Description

本発明は、情報処理装置及び情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method.

近年、実空間内のオブジェクトを撮影することで得られた撮像画像に、架空の画像(AR画像)を重畳させることで、合成画像を生成する拡張現実(AR「Augmented Reality」)という技術が用いられるようになってきている。このAR技術によれば、合成画像を視認したユーザは、あたかも実空間にAR画像が存在するかのように認識する。   In recent years, a technique called augmented reality (AR “Augmented Reality”) that generates a composite image by superimposing a fictitious image (AR image) on a captured image obtained by photographing an object in real space has been used. It is getting to be. According to this AR technology, a user who has visually recognized a composite image recognizes as if the AR image exists in real space.

従来のAR技術は、AR画像を単に撮像画像に重畳させるだけだったので、オブジェクト画像(オブジェクトが描かれた画像)とAR画像とが重なる場合、AR画像とオブジェクトとの実空間での位置関係に関わらず、オブジェクト画像がAR画像によって遮蔽されてしまう。このため、ユーザは、AR画像の遠近感に違和感を持ってしまう場合があった。   In the conventional AR technology, the AR image is simply superimposed on the captured image. Therefore, when the object image (image on which the object is drawn) and the AR image overlap, the positional relationship between the AR image and the object in the real space. Regardless, the object image is blocked by the AR image. For this reason, the user may have a sense of incongruity in the perspective of the AR image.

例えば、AR画像の一部が実空間でオブジェクトに遮蔽される場合であっても、合成画像ではオブジェクト画像がAR画像によって遮蔽されるので、合成画像を視認したユーザは、AR画像の遠近感に違和感を持ってしまう。具体的には、ユーザは、AR画像のうち、オブジェクト画像に重畳した部分については、オブジェクトよりも手前側に存在すると認識し、それ以外の部分については、オブジェクトよりも奥側に存在すると認識してしまう。   For example, even when a part of an AR image is occluded by an object in real space, the object image is occluded by the AR image in the synthesized image. I feel uncomfortable. Specifically, the user recognizes that the part of the AR image superimposed on the object image is present on the near side of the object, and recognizes that the other part is present on the back side of the object. End up.

特許文献1には、このような問題を解決することを目的とした技術が開示されている。この技術は、AR画像の一部が実空間でオブジェクトに遮蔽される場合、オブジェクト画像を撮像画像から消去し、その後、撮像画像にAR画像を重畳させる。   Patent Document 1 discloses a technique aimed at solving such a problem. In this technique, when a part of an AR image is shielded by an object in real space, the object image is erased from the captured image, and then the AR image is superimposed on the captured image.

特開2010−33397号公報JP 2010-33397 A

しかし、特許文献1に開示された技術では、AR画像による消去の対象であることを示すマーカを撮影前にオブジェクトに貼り付ける必要があった。このため、撮影時の手間が増大してしまうという問題があった。また、オブジェクト画像を違和感なく消去するために、オブジェクトの特性が制限されるという問題もあった。   However, in the technique disclosed in Patent Document 1, it is necessary to paste a marker indicating that the image is to be erased by the AR image to the object before shooting. For this reason, there has been a problem that the time and effort at the time of shooting increases. In addition, there is a problem that the characteristics of the object are limited in order to erase the object image without a sense of incongruity.

そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、撮影時の手間が低減し、かつ、オブジェクトの特性に関わらず遠近感の自然な合成画像を生成することが可能な、新規かつ改良された情報処理装置及び情報処理方法を提供することにある。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to reduce the time and effort at the time of shooting and to create a natural composite image with a sense of perspective regardless of the characteristics of the object. It is an object to provide a new and improved information processing apparatus and information processing method that can be generated.

上記課題を解決するために、本発明のある観点によれば、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得部と、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割部と、右目用画像及び左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得部と、姿勢情報に基づいて、複数の小領域のうち、重畳画像が重畳される重畳小領域を特定する小領域特定部と、右目用画像及び左目用画像に基づいて、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する奥行き算出部と、を備える、情報処理装置が提供される。   In order to solve the above problems, according to an aspect of the present invention, an image acquisition unit that acquires a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions, and a right-eye image and a left-eye image An area dividing unit that divides a reference image, which is at least one of the images, into a plurality of small areas, and a real image of a superimposed image to be superimposed on at least one of the right-eye image and the left-eye image. A posture information acquisition unit that acquires posture information indicating an existing position, a small region specifying unit that specifies a superimposed small region on which a superimposed image is superimposed among a plurality of small regions based on the posture information, a right-eye image, and An information processing apparatus is provided that includes a depth calculation unit that calculates an existence position in a real space of at least a superimposed small region among a plurality of small regions based on a left-eye image.

この観点によれば、情報処理装置は、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する。   According to this aspect, the information processing apparatus divides the reference image, which is at least one of the right-eye image and the left-eye image, into a plurality of small areas, and among the plurality of small areas, Calculate the location in real space.

したがって、情報処理装置は、基準画像に重畳画像を重畳させる場合には、重畳小領域の実空間での存在位置に基づいて、重畳小領域と重畳画像との実空間での位置関係を認識することができる。   Therefore, when superimposing the superimposed image on the reference image, the information processing apparatus recognizes the positional relationship between the superimposed small area and the superimposed image in the real space based on the position of the superimposed small area in the real space. be able to.

ここで、領域分割部は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割してもよい。   Here, the area dividing unit may divide the reference image into a plurality of small areas by dividing pixels having similar pixel values into the same small area.

この観点によれば、情報処理装置は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割するので、基準画像をより正確に分割することができる。   According to this aspect, the information processing apparatus divides the reference image into a plurality of small areas by dividing pixels having similar pixel values into the same small area, so that the reference image is more accurately divided. be able to.

また、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、対応点に基づいて、対応点の実空間での存在位置を算出する視差算出部を備え、奥行き算出部は、対応点が重畳小領域内に存在する場合には、対応点の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出してもよい。   In addition, the depth calculation unit includes a parallax calculation unit that extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and calculates the presence position of the corresponding point in real space based on the corresponding points. If the corresponding point exists in the superimposed small area, the position of the corresponding small area in the real space may be calculated based on the position of the corresponding point in the real space.

この観点によれば、情報処理装置は、対応点に基づいて、重畳小領域の実空間での存在位置を算出するので、重畳小領域の実空間での存在位置を正確に算出することができる。   According to this aspect, the information processing apparatus calculates the existence position of the superimposed small area in the real space based on the corresponding point, and thus can accurately calculate the existence position of the superimposed small area in the real space. .

また、奥行き算出部は、重畳小領域内に対応点が存在しない場合には、重畳小領域の周辺に存在する小領域の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出してもよい。   In addition, when there is no corresponding point in the overlapped small area, the depth calculation unit determines whether the overlapped small area in the real space is based on the position in the real space of the small area that exists around the overlapped small area. The existence position may be calculated.

この観点によれば、情報処理装置は、超小領域内に対応点が存在しない場合には、重畳小領域の周辺に存在する小領域の実空間での存在位置に基づいて、重畳小領域の実空間での存在位置を算出する。したがって、情報処理装置は、対応点の数が少ない場合であっても、重畳小領域の実空間での存在位置をより正確に算出することができる。   According to this aspect, when there is no corresponding point in the ultra-small area, the information processing apparatus determines whether the superimposed small area is based on the position in the real space of the small area that exists around the superimposed small area. Calculate the location in real space. Therefore, the information processing apparatus can more accurately calculate the existence position in the real space of the superimposed small region even when the number of corresponding points is small.

また、姿勢情報と、重畳小領域の実空間での存在位置を示す重畳小領域位置情報と、基準画像を撮像した撮像装置の位置情報と、に基づいて、重畳画像の各部分のうち、重畳小領域よりも撮像装置に近い重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する重畳画像生成部と、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する画像合成部と、を備えてもよい。   In addition, based on the posture information, the superimposed small region position information indicating the position of the superimposed small region in the real space, and the position information of the imaging device that captured the reference image, the superimposed image is included in each portion of the superimposed image. By identifying a superimposable part closer to the imaging device than the small area and synthesizing the superimposable part, a superimposing image generating unit that generates a superimposable image, and the superimposable image is at least one of the right eye image and the left eye image An image composition unit that superimposes the image on one image.

この観点によれば、情報処理装置は、重畳画像の各部分のうち、重畳小領域よりも撮像装置に近い位置(手前側)に存在する重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する。そして、情報処理装置は、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する。これにより、情報処理装置10は、AR画像及びオブジェクト画像の遠近感がより自然な合成画像を生成することができる。   According to this aspect, the information processing device identifies a superimposable portion existing in a position closer to the imaging device (on the near side) than the superimposing small region among the portions of the superimposed image, and synthesizes the superimposable portion. Thus, a superimposable image is generated. The information processing apparatus superimposes the superimposable image on at least one of the right-eye image and the left-eye image. Thereby, the information processing apparatus 10 can generate a composite image in which the perspective of the AR image and the object image is more natural.

また、画像合成部は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させてもよい。   The image composition unit may superimpose the superimposable image on both the right-eye image and the left-eye image.

この観点によれば、情報処理装置は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させるので、重畳可能画像を立体視表示することができる。   According to this aspect, since the information processing apparatus superimposes the superimposable image on both the right eye image and the left eye image, the superimposable image can be stereoscopically displayed.

本発明の他の観点によれば、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得ステップと、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割ステップと、右目用画像及び左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得ステップと、姿勢情報に基づいて、複数の小領域のうち、重畳画像が重畳される重畳小領域を特定する小領域特定ステップと、右目用画像及び左目用画像に基づいて、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する奥行き算出ステップと、を含むことを特徴とする、情報処理方法が提供される。   According to another aspect of the present invention, at least one of an image acquisition step for acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions, and a right-eye image and a left-eye image. An area dividing step for dividing the reference image, which is an image, into a plurality of small areas, and posture information indicating a position in the real space of the superimposed image to be superimposed on at least one of the right-eye image and the left-eye image. Based on the posture information acquisition step to be acquired, and based on the posture information, a small region specifying step for specifying a superimposed small region on which the superimposed image is superimposed among a plurality of small regions, and on the right eye image and the left eye image, A depth calculation step of calculating an existence position of at least a superimposed small region in real space among a plurality of small regions is provided.

この観点による情報処理方法では、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の実空間での存在位置を算出する。   In the information processing method according to this aspect, the reference image, which is at least one of the right-eye image and the left-eye image, is divided into a plurality of small regions, and among the plurality of small regions, at least in the real space of the superimposed small region. Is calculated.

したがって、この情報処理方法では、基準画像に重畳画像を重畳させる場合には、重畳小領域の実空間での存在位置に基づいて、重畳小領域と重畳画像との実空間での位置関係を認識することができる。   Therefore, in this information processing method, when the superimposed image is superimposed on the reference image, the positional relationship in the real space between the superimposed small region and the superimposed image is recognized based on the position of the superimposed small region in the real space. can do.

以上説明したように本発明によれば、情報処理装置は、各オブジェクトにマーカを付さなくても、重畳画像のうち、どの部分が重畳小領域によって遮蔽されるのかを把握することができる。したがって、撮影時の手間が低減する。さらに、情報処理装置は、オブジェクトがどのようなものであっても、上述した処理を行うことができるので、オブジェクトの特性に関わらず、遠近感の自然な合成画像を生成することができる。さらに、情報処理装置は、手前側のオブジェクト画像によって重畳画像が遮蔽されるという表現を行うことができる。   As described above, according to the present invention, the information processing apparatus can grasp which part of the superimposed image is shielded by the superimposed small region without attaching a marker to each object. Therefore, labor during photographing is reduced. Furthermore, since the information processing apparatus can perform the above-described processing regardless of the object, it is possible to generate a natural composite image with a sense of perspective regardless of the characteristics of the object. Furthermore, the information processing apparatus can express that the superimposed image is shielded by the object image on the near side.

本発明の実施形態に係る情報処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing apparatus which concerns on embodiment of this invention. 同実施形態にかかる奥行き推定部の構成を示すブロック図である。It is a block diagram which shows the structure of the depth estimation part concerning the embodiment. オブジェクトの位置を両眼視差に基づいて算出する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method to calculate the position of an object based on binocular parallax. 右目用画像及び左目用画像の例を示す説明図である。It is explanatory drawing which shows the example of the image for right eyes, and the image for left eyes. 画像を小領域に分割する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method to divide | segment an image into a small area | region. 各小領域の位置を算出する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method to calculate the position of each small area | region. 各小領域の位置を算出する方法を説明するための説明図である。It is explanatory drawing for demonstrating the method to calculate the position of each small area | region. 各オブジェクトとAR画像との位置関係を説明するための説明図である。It is explanatory drawing for demonstrating the positional relationship of each object and AR image. 情報処理装置によって生成されるAR画像の一例を示す説明図である。It is explanatory drawing which shows an example of AR image produced | generated by information processing apparatus. AR画像が重畳される撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of the captured image with which AR image is superimposed. 撮像画像にAR画像が重畳された合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of the synthesized image by which AR image was superimposed on the captured image. 撮像装置による処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process by an imaging device. 従来の合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of the conventional synthesized image. 従来のAR技術で使用される撮像画像の一例を示す説明図である。It is explanatory drawing which shows an example of the captured image used with the conventional AR technique. 従来の合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of the conventional synthesized image.

以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Exemplary embodiments of the present invention will be described below in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

本実施形態では、「奥側」及び「手前側」の各用語は、撮像装置の焦点を基準とした位置関係を示す。例えば、「一のオブジェクトは他のオブジェクトの奥側に存在する」場合、一のオブジェクトから撮像装置の焦点までの奥行き値は、他のオブジェクトから撮像装置の焦点までの奥行き値よりも長い。ここで、各オブジェクトの「奥行き値」は、各オブジェクトから焦点までの光軸方向の距離である。   In the present embodiment, the terms “back side” and “near side” indicate a positional relationship based on the focal point of the imaging apparatus. For example, when “one object exists behind another object”, the depth value from one object to the focus of the imaging device is longer than the depth value from the other object to the focus of the imaging device. Here, the “depth value” of each object is the distance in the optical axis direction from each object to the focal point.

<1.従来のAR技術の考察>
本発明者は、従来のAR技術を検討することによって、本実施形態に係る情報処理装置10(図1参照)に想到するに至った。そこで、まず、従来のAR技術及びその問題点について説明する。
<1. Consideration of conventional AR technology>
The present inventor has come up with the information processing apparatus 10 (see FIG. 1) according to the present embodiment by examining the conventional AR technology. First, the conventional AR technology and its problems will be described.

上述したように、従来のAR技術は、AR画像を単に撮像画像に重畳させるだけだったので、オブジェクト画像とAR画像とが重なる場合、AR画像とオブジェクトとの実空間での位置関係に関わらず、オブジェクト画像がAR画像によって遮蔽されてしまう。このため、ユーザは、AR画像の遠近感に違和感を持ってしまう場合があった。   As described above, the conventional AR technique merely superimposes the AR image on the captured image. Therefore, when the object image and the AR image overlap, regardless of the positional relationship between the AR image and the object in the real space. The object image is blocked by the AR image. For this reason, the user may have a sense of incongruity in the perspective of the AR image.

従来の合成画像の例を図13に示す。この例では、撮像画像100にAR画像200が重畳されている。撮像画像100は、タンス画像101、マーカ画像102、複数の床パネル画像103が描かれている。マーカ画像102は、床パネル画像103aに描かれており、AR画像200が重畳される位置を示すものである。マーカ画像102は、撮像画像100に合成されるか、または、床パネルに予めマーカを描いておき、それを撮影することで得られる。   An example of a conventional composite image is shown in FIG. In this example, the AR image 200 is superimposed on the captured image 100. In the captured image 100, a chest image 101, a marker image 102, and a plurality of floor panel images 103 are drawn. The marker image 102 is drawn on the floor panel image 103a and indicates the position where the AR image 200 is superimposed. The marker image 102 is synthesized with the captured image 100 or is obtained by drawing a marker in advance on the floor panel and photographing it.

したがって、AR画像200は、マーカ画像102上に重畳されるので、AR画像200の一部は実空間でタンスによって遮蔽される。しかし、AR画像200は、タンス及び床パネル(オブジェクト)との実空間での位置関係に関わらず、撮像画像100に重畳される。具体的には、AR画像200は、タンス画像101と、実空間でタンスよりも奥側に配置される床パネルの画像、即ち床パネル画像103aとの両方に重畳される。   Therefore, since the AR image 200 is superimposed on the marker image 102, a part of the AR image 200 is shielded by a chase in real space. However, the AR image 200 is superimposed on the captured image 100 regardless of the positional relationship between the chest and the floor panel (object) in the real space. Specifically, the AR image 200 is superimposed on both the chest image 101 and the floor panel image disposed behind the chest in real space, that is, the floor panel image 103a.

したがって、合成画像を視認したユーザは、AR画像200の遠近感に違和感を持ってしまう。具体的には、ユーザは、AR画像200のうち、タンス画像101に重畳した部分については、タンスよりも手前側に存在すると認識し、床パネル画像103aに重畳した部分については、タンスよりも奥側に存在すると認識してしまう。   Therefore, the user who has visually recognized the composite image has a sense of incongruity in the perspective of the AR image 200. Specifically, in the AR image 200, the user recognizes that the portion superimposed on the chest image 101 is present in front of the chest, and the portion superimposed on the floor panel image 103a is behind the chest. It is recognized that it exists on the side.

特許文献1には、このような問題を解決することを目的とした技術が開示されている。この技術は、AR画像の一部がオブジェクトによって遮蔽される場合、オブジェクト画像を撮像画像から消去し、その後、撮像画像にAR画像を重畳させる。   Patent Document 1 discloses a technique aimed at solving such a problem. In this technique, when a part of an AR image is shielded by an object, the object image is erased from the captured image, and then the AR image is superimposed on the captured image.

特許文献1に開示された技術を図13に示す撮像画像100に適用した場合、以下の処理が行われる。まず、図14に示すように、AR画像による消去の対象であることを示すマーカをタンスに付しておき、それを撮影する。これにより、撮像画像100には、上述した各画像101、102、103の他、マーカ画像104が描かれる。そして、特許文献1に開示された技術は、マーカ画像104が付されたタンス画像101を撮像画像100から消去し、その後、図15に示すように、AR画像200を撮像画像100に重畳させる。即ち、特許文献1に開示された技術では、AR画像200が重畳される可能性のあるオブジェクト画像が識別可能となるように、オブジェクトにマーカが付される。   When the technique disclosed in Patent Literature 1 is applied to the captured image 100 shown in FIG. 13, the following processing is performed. First, as shown in FIG. 14, a marker indicating that it is an object to be erased by an AR image is attached to the chest, and it is photographed. Thereby, the marker image 104 is drawn on the captured image 100 in addition to the above-described images 101, 102, and 103. Then, the technique disclosed in Patent Document 1 erases the chest image 101 to which the marker image 104 is attached from the captured image 100, and then superimposes the AR image 200 on the captured image 100 as shown in FIG. That is, in the technique disclosed in Patent Document 1, a marker is attached to an object so that an object image on which the AR image 200 may be superimposed can be identified.

特許文献1に開示された技術によれば、ユーザは、AR画像200の遠近感を違和感なく認識することができる。しかし、特許文献1に開示された技術では、AR画像200による消去の対象であることを示すマーカを撮影前にオブジェクトに貼り付ける必要があった。このため、撮影時の手間が増大してしまうという問題があった。また、オブジェクト画像を違和感なく消去するために、オブジェクトの特性が制限されるという問題もあった。具体的には、オブジェクトは、小品かつ他のオブジェクトから孤立しており、平面的なテクスチャの底面上に載置されている必要がある。さらに、特許文献1に開示された技術は、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができない。   According to the technology disclosed in Patent Document 1, the user can recognize the perspective of the AR image 200 without a sense of incongruity. However, in the technique disclosed in Patent Document 1, it is necessary to paste a marker indicating that the AR image 200 is an object to be erased onto an object before shooting. For this reason, there has been a problem that the time and effort at the time of shooting increases. In addition, there is a problem that the characteristics of the object are limited in order to erase the object image without a sense of incongruity. Specifically, the object needs to be placed on the bottom of the planar texture, and is isolated from the small object and the other object. Furthermore, the technique disclosed in Patent Document 1 cannot express that the AR image is shielded by the near-side object image.

なお、特開平10−112831号公報及び特開2008−532149号公報は、オブジェクトの実空間での存在位置を認識し、その結果に基づいて、オブジェクトとAR画像との実空間での位置関係を把握する技術を開示する。これらの技術によれば、AR画像のうち、オブジェクトよりも手前側に存在する部分のみを撮像画像に重畳させることができる。そして、これらの公報は、右目用画像及び左目用画像に基づいて、オブジェクトの実空間での存在位置を認識してもよいことを開示する。しかし、これらの文献は、右目用画像及び左目用画像に基づいた具体的な認識方法について何ら開示していないので、これらの技術を実際の装置に適用することは不可能である。   JP-A-10-112831 and JP-A-2008-532149 recognize the existence position of an object in the real space, and based on the result, determine the positional relationship between the object and the AR image in the real space. Disclose the technology to grasp. According to these techniques, it is possible to superimpose only a portion existing on the near side of the object in the AR image on the captured image. And these gazettes disclose that the presence position of the object in the real space may be recognized based on the image for the right eye and the image for the left eye. However, since these documents do not disclose any specific recognition method based on the right-eye image and the left-eye image, it is impossible to apply these techniques to an actual apparatus.

これに対し、本実施形態に係る情報処理装置10は、上記いずれの問題も解決している。即ち、本実施形態に係る10は、撮影時の手間が低減し、オブジェクトの特性に関わらず、AR画像を撮像画像に重畳させることができ、かつ、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができる。以下、本実施形態を詳細に説明する。   On the other hand, the information processing apparatus 10 according to the present embodiment solves any of the above problems. In other words, according to the present embodiment 10, labor during shooting is reduced, the AR image can be superimposed on the captured image regardless of the characteristics of the object, and the AR image is shielded by the object image on the front side. Can be expressed. Hereinafter, this embodiment will be described in detail.

<2.情報処理装置の構成>
次に、図1及び図2に基づいて、情報処理装置10の構成について説明する。情報処理装置10は、歪曲収差補正部(画像取得部)20と、姿勢情報生成部30と、奥行き推定部40と、小領域特定部51と、重畳画像生成部52と、画像合成部60と、表示部70とを備える。なお、情報処理装置10は、CPU、ROM、RAM、メモリ、ディスプレイ等のハードウェアを有しており、CPUがROMに記憶されたプログラムを読みだして実行することによって、上記各機能ブロックによる処理が実現される。即ち、ROMには、撮像装置10に、歪曲収差補正部20、姿勢情報生成部30、奥行き推定部40、小領域特定部51、重畳画像生成部52、画像合成部60、及び表示部70を実現させるためのプログラムが記憶されている。
<2. Configuration of information processing apparatus>
Next, the configuration of the information processing apparatus 10 will be described based on FIG. 1 and FIG. The information processing apparatus 10 includes a distortion aberration correction unit (image acquisition unit) 20, an attitude information generation unit 30, a depth estimation unit 40, a small region specification unit 51, a superimposed image generation unit 52, and an image synthesis unit 60. The display part 70 is provided. The information processing apparatus 10 has hardware such as a CPU, ROM, RAM, memory, display, etc., and the CPU reads and executes a program stored in the ROM, whereby processing by each functional block described above is performed. Is realized. That is, the ROM includes the imaging apparatus 10, the distortion correction unit 20, the posture information generation unit 30, the depth estimation unit 40, the small region specification unit 51, the superimposed image generation unit 52, the image composition unit 60, and the display unit 70. A program for realizing it is stored.

歪曲収差補正部20は、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得し、これらの歪曲収差を補正する。歪曲収差補正部20は、補正後の右目用画像及び左目用画像を奥行き推定部40及び画像合成部60に出力する。ここで、歪曲収差補正部20は、右目用画像及び左目用画像を情報処理装置10の外部から取得してもよい。また、情報処理装置10のメモリに予め右目用画像及び左目用画像を記憶しておき、歪曲収差補正部20が当該メモリから右目用画像及び左目用画像を取得してもよい。また、情報処理装置10に撮像装置を2つ備えさせ、歪曲収差補正部20がこれらの撮像装置から右目用画像及び左目用画像を取得するようにしてもよい。   The distortion correction unit 20 acquires a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions, and corrects these distortions. The distortion aberration correction unit 20 outputs the corrected right-eye image and left-eye image to the depth estimation unit 40 and the image synthesis unit 60. Here, the distortion correction unit 20 may acquire the right-eye image and the left-eye image from the outside of the information processing apparatus 10. Alternatively, the right eye image and the left eye image may be stored in advance in the memory of the information processing apparatus 10, and the distortion correction unit 20 may acquire the right eye image and the left eye image from the memory. Alternatively, the information processing apparatus 10 may include two imaging devices, and the distortion correction unit 20 may acquire a right-eye image and a left-eye image from these imaging devices.

姿勢情報生成部30は、AR画像(重畳画像)の実空間での存在位置を示す姿勢情報を取得する。ここで、姿勢情報は、AR画像のうち、所定の基準点のグローバル座標(x、y、z)、AR画像の角度(κ、ω、φ)、及び拡張係数αを含む。なお、グローバル座標は、実空間に設定されたグローバル座標系での座標である。AR画像の角度は、AR画像を通る所定の軸とグローバル座標系のxyz軸とのなす角度である。拡張係数αは、AR画像をどの程度の大きさで表示するかを示す係数である。なお、AR画像は、各頂点のグローバル座標及び面情報(AR画像の面を特定する数式情報)により定義される。拡張係数αを各頂点のグローバル座標及び面情報に乗じることによって、AR画像の大きさが決定される。   The posture information generation unit 30 acquires posture information indicating the position of the AR image (superimposed image) in real space. Here, the posture information includes global coordinates (x, y, z) of predetermined reference points in the AR image, angles (κ, ω, φ) of the AR image, and an expansion coefficient α. The global coordinates are coordinates in the global coordinate system set in the real space. The angle of the AR image is an angle formed by a predetermined axis passing through the AR image and the xyz axis of the global coordinate system. The expansion coefficient α is a coefficient indicating how large the AR image is displayed. The AR image is defined by the global coordinates and surface information of each vertex (mathematical information for specifying the surface of the AR image). The size of the AR image is determined by multiplying the global coefficient and surface information of each vertex by the expansion coefficient α.

したがって、これらのパラメータ、即ち基準点のグローバル座標(x、y、z)、AR画像の角度(κ、ω、φ)、及び拡張係数αにより、AR画像の実空間での存在位置(具体的には、AR画像の各部分の存在位置)が示される。なお、上記の従来技術では、マーカの位置、方向、及び大きさによりこれらのパラメータが設定されていた。本実施形態では、この従来技術と同様の方法によりAR画像の実空間での存在位置を設定してもよいし、ユーザが手動で入力しても構わない。姿勢情報生成部30は、姿勢情報を小領域特定部51に出力する。   Therefore, the position of the AR image in the real space (specifically, the global coordinates (x, y, z) of the reference point, the angles (κ, ω, φ) of the AR image, and the expansion coefficient α) Indicates the position of each part of the AR image). In the above prior art, these parameters are set according to the position, direction, and size of the marker. In the present embodiment, the presence position of the AR image in the real space may be set by the same method as in the conventional technique, or the user may input it manually. The posture information generation unit 30 outputs posture information to the small region specifying unit 51.

奥行き推定部40は、図2に示すように、視差算出部41と、領域分割部42と、奥行き算出部43とを備える。視差算出部41は、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、抽出した対応点と、以下の式(1)とに基づいて、各対応点の実空間での存在位置、具体的には奥行き値を算出する。   As illustrated in FIG. 2, the depth estimation unit 40 includes a parallax calculation unit 41, a region division unit 42, and a depth calculation unit 43. The parallax calculation unit 41 extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and based on the extracted corresponding points and the following equation (1), the real space of each corresponding point The existence position at, specifically, the depth value is calculated.

Figure 2013121150
Figure 2013121150

ここで、式(1)内の各パラメータについて、図3及び図4に基づいて説明する。図3は、オブジェクトOb1を左右の撮像装置で撮影する様子をしめす平面図である。図4(a)は、左側撮像装置が撮影した左目用画像LG10を示し、(b)は、右側撮像装置が撮影した右目用画像RG10を示す。   Here, each parameter in Formula (1) is demonstrated based on FIG.3 and FIG.4. FIG. 3 is a plan view showing a state in which the object Ob1 is photographed by the left and right imaging devices. FIG. 4A shows a left-eye image LG10 taken by the left imaging device, and FIG. 4B shows a right-eye image RG10 taken by the right imaging device.

図3及び図4によれば、左目用画像LG10にはオブジェクトOb1の画像であるオブジェクト画像LG11が描かれており、右目用画像RG10にはオブジェクトOb1の画像であるオブジェクト画像RG11が描かれている。また、これらのオブジェクト画像LG11、RG11には、オブジェクトOb1上の同一部分P(注視点)に対応する対応点PL、PRが含まれる。   According to FIGS. 3 and 4, an object image LG11 that is an image of the object Ob1 is drawn on the left-eye image LG10, and an object image RG11 that is an image of the object Ob1 is drawn on the right-eye image RG10. . Further, these object images LG11, RG11 include corresponding points PL, PR corresponding to the same portion P (gazing point) on the object Ob1.

左側撮像装置の主面及び右側撮像装置の主面は共通しており、主面Sで示される。また、点LEPは左側撮像装置の焦点であり、点REPは右側撮像装置の焦点である。直線L1は左側撮像装置の光軸を示し、直線R1は右側撮像装置の光軸を示す。   The main surface of the left imaging device and the main surface of the right imaging device are common and are indicated by a main surface S. Point LEP is the focal point of the left imaging device, and point REP is the focal point of the right imaging device. A straight line L1 indicates the optical axis of the left imaging device, and a straight line R1 indicates the optical axis of the right imaging device.

奥行き値dは、注視点Pから左側撮像装置の焦点LEP(または右側撮像装置の焦点REP)までの光軸L1(または光軸R1)方向の距離である。焦点間距離Dは、焦点LEPから焦点REPまでの距離である。焦点距離fは、焦点LEP(または焦点REP)から主面Sまでの距離である。距離x1は、対応点PLから左目用画像の中心点までの水平方向の距離であり、距離x2は、対応点PRから右目用画像の中心点までの水平方向の距離である。   The depth value d is the distance in the optical axis L1 (or optical axis R1) direction from the gazing point P to the focus LEP of the left imaging device (or the focus REP of the right imaging device). The interfocal distance D is a distance from the focal point LEP to the focal point REP. The focal distance f is a distance from the focal point LEP (or focal point REP) to the main surface S. The distance x1 is a horizontal distance from the corresponding point PL to the center point of the left-eye image, and the distance x2 is a horizontal distance from the corresponding point PR to the center point of the right-eye image.

視差算出部41は、各対応点の左目用画像または右目用画像内での位置と奥行き値とが関連付けられた奥行き情報を生成し、奥行き算出部43に出力する。   The parallax calculation unit 41 generates depth information in which the position of each corresponding point in the left-eye image or the right-eye image and the depth value are associated with each other, and outputs the depth information to the depth calculation unit 43.

領域分割部42は、右目用画像及び左目用画像のうち、いずれか一方の画像を基準画像とし、基準画像を複数の小領域に分割する。以下、左目用画像が基準画像となる例を説明するが、右目用画像を基準画像としても良いことは勿論である。なお、表示部70が立体視表示を行う場合、情報処理装置10は、右目用画像及び左目用画像の両方を基準画像として、以下の処理を行なう。まず、図5に基づいて、領域分割部42による処理の一例について説明する。この例では、図5(a)に示す画像G10が基準画像となる。基準画像G10は、一様な輝度を有する領域G11と、領域G11の輝度とは異なる一様な輝度を有する領域G12とに区分される。   The region dividing unit 42 divides the reference image into a plurality of small regions using either the right-eye image or the left-eye image as a reference image. Hereinafter, an example in which the left-eye image is a reference image will be described, but the right-eye image may be a reference image. When the display unit 70 performs stereoscopic display, the information processing apparatus 10 performs the following process using both the right-eye image and the left-eye image as reference images. First, an example of processing performed by the area dividing unit 42 will be described with reference to FIG. In this example, an image G10 shown in FIG. 5A is a reference image. The reference image G10 is divided into a region G11 having uniform luminance and a region G12 having uniform luminance different from the luminance of the region G11.

領域分割部42は、図5(b)にしめすように、基準画像G10を1辺の長さが所定値WLの複数の正方形領域SQに分割する。そして、領域分割部42は、正方形領域SQ内の画素値(例えば輝度)のばらつき(例えば分散)が所定値以上である場合には、正方形領域SQをさらに4つの正方形領域SQに分割する。領域分割部42は、正方形領域SQ内の分散が所定値未満となるか、または、正方形領域SQの1辺の長さが所定値WS(<WL)となるまで、上記の処理を繰り返す。   As shown in FIG. 5B, the region dividing unit 42 divides the reference image G10 into a plurality of square regions SQ each having a predetermined length WL. The area dividing unit 42 further divides the square area SQ into four square areas SQ when the variation (for example, dispersion) of pixel values (for example, luminance) in the square area SQ is equal to or greater than a predetermined value. The area dividing unit 42 repeats the above processing until the variance in the square area SQ becomes less than the predetermined value or the length of one side of the square area SQ becomes the predetermined value WS (<WL).

領域分割部42は、各正方形領域SQ内の画素値の算術平均値を算出する。そして、領域分割部42は、各正方形領域SQと当該正方形領域SQの上下左右に隣接する正方形領域SQとの画素値の算術平均値を比較する。領域分割部42は、算術平均値の差が所定範囲内である場合には、これらの正方形領域SQが同一の小領域を構成すると判定し、これらの正方形領域SQを結合する。これにより、領域分割部42は、小領域を形成していく。図5(c)に示す折れ線L1は、このような結合過程において、小領域の境界とされた線を示す。   The area dividing unit 42 calculates an arithmetic average value of the pixel values in each square area SQ. Then, the area dividing unit 42 compares the arithmetic average values of the pixel values of each square area SQ and the square areas SQ adjacent to the square area SQ in the vertical and horizontal directions. When the difference between the arithmetic average values is within a predetermined range, the area dividing unit 42 determines that these square areas SQ constitute the same small area, and combines these square areas SQ. Thereby, the area dividing unit 42 forms small areas. A broken line L1 shown in FIG. 5C indicates a line that is a boundary of a small region in such a coupling process.

領域分割部42は、結合すべき正方形領域SQがなくなるか、または、小領域の水平方向の幅が所定値WLとなるまで、上記の処理を繰り返す。この結果、図5(d)に示すように、基準画像G10が複数の小領域SARに分割される。領域分割部42は、各小領域の基準画像上での位置及び大きさ等に関する小領域情報を奥行き算出部43に出力する。   The area dividing unit 42 repeats the above processing until there is no square area SQ to be combined or the horizontal width of the small area reaches the predetermined value WL. As a result, as shown in FIG. 5D, the reference image G10 is divided into a plurality of small regions SAR. The area dividing unit 42 outputs small area information regarding the position and size of each small area on the reference image to the depth calculating unit 43.

奥行き算出部42は、各小領域の奥行き値を算出する。ここで、図6〜図7に基づいて、奥行き算出部42が行う処理について説明する。奥行き算出部42は、まず、図6(a)に示すように、各小領域SARに対応点PLを割り当てる。なお、この例では、基準画像が左目用画像となっている。次いで、奥行き算出部42は、対応点が割り当てられた小領域SARについては、対応点の奥行き値の算術平均値を当該小領域SARの奥行き値とする。そして、奥行き算出部42は、図6(b)に示すように、小領域SARを、奥行き値が算出された第1の小領域SAR10と、奥行き値が未算出の第2の小領域SAR20に区分する。   The depth calculation unit 42 calculates the depth value of each small region. Here, the processing performed by the depth calculation unit 42 will be described with reference to FIGS. First, as shown in FIG. 6A, the depth calculation unit 42 assigns a corresponding point PL to each small region SAR. In this example, the reference image is the left-eye image. Next, for the small area SAR to which the corresponding point is assigned, the depth calculation unit 42 sets the arithmetic average value of the depth values of the corresponding points as the depth value of the small area SAR. Then, as illustrated in FIG. 6B, the depth calculation unit 42 divides the small area SAR into the first small area SAR 10 in which the depth value has been calculated and the second small area SAR 20 in which the depth value has not been calculated. Break down.

そして、奥行き算出部42は、第2の小領域SAR20の上下左右に隣接する第1の小領域SAR10を特定し、これらの奥行き値の算術平均値を第2の小領域SAR20の奥行き値とする。例えば、図7(a)に示すように、奥行き算出部42は、第2の小領域SAR20aの奥行き値を、第1の小領域SAR10a、SAR10bの奥行き値の算術平均値とする。そして、奥行き算出部42は、奥行き値が算出された第2の小領域SAR20を第1の小領域SAR10に変更する。なお、奥行き算出部42は、同一方向に隣接する第1の小領域SAR10が複数存在する場合、それらの奥行き値を全て使用して第2の小領域SAR20の奥行き値を算出してもよいし、いずれか一方を使用して奥行き値を算出してもよい。奥行き算出部42は、上記の処理を順次繰り返すことで、図7(b)〜(c)に示すように、全小領域SARの奥行き値を算出する。即ち、奥行き算出部42は、最終的には、図7(b)に示すように、第2の小領域SAR20bの奥行き値を、第1の小領域SAR10c、10d、10eの奥行き値に基づいて算出する。奥行き算出部42は、各小領域の基準画像上での位置、大きさ、及び奥行き値に関する小領域奥行き値情報を小領域特定部51に出力する。   Then, the depth calculation unit 42 specifies the first small area SAR10 adjacent to the second small area SAR20 in the upper, lower, left, and right directions, and uses the arithmetic average value of these depth values as the depth value of the second small area SAR20. . For example, as illustrated in FIG. 7A, the depth calculation unit 42 sets the depth value of the second small area SAR20a as the arithmetic average value of the depth values of the first small areas SAR10a and SAR10b. Then, the depth calculation unit 42 changes the second small area SAR20 in which the depth value is calculated to the first small area SAR10. Note that when there are a plurality of first small areas SAR10 adjacent in the same direction, the depth calculation unit 42 may calculate the depth value of the second small area SAR20 by using all the depth values. The depth value may be calculated using either one of them. The depth calculation unit 42 calculates the depth values of all the small regions SAR as shown in FIGS. 7B to 7C by sequentially repeating the above processing. That is, the depth calculation unit 42 finally determines the depth value of the second small area SAR20b based on the depth values of the first small areas SAR10c, 10d, and 10e as shown in FIG. calculate. The depth calculation unit 42 outputs small region depth value information regarding the position, size, and depth value of each small region on the reference image to the small region specifying unit 51.

小領域特定部51は、AR画像を取得する。ここで、小領域特定部51は、AR画像を情報処理装置10の外部から取得してもよい。また、情報処理装置10のメモリに予めAR画像を記憶しておき、小領域特定部51が当該メモリからAR画像を取得してもよい。さらに、小領域特定部51は、左側撮像装置のグローバル座標情報も取得する。この情報についても、AR画像と同様の方法により取得される。   The small area specifying unit 51 acquires an AR image. Here, the small area specifying unit 51 may acquire the AR image from the outside of the information processing apparatus 10. Alternatively, the AR image may be stored in advance in the memory of the information processing apparatus 10, and the small area specifying unit 51 may acquire the AR image from the memory. Furthermore, the small area specifying unit 51 also acquires global coordinate information of the left imaging device. This information is also acquired by the same method as that for the AR image.

小領域特定部51は、実空間に相当する仮想空間を定義し、AR画像及び姿勢情報に基づいて、AR画像を仮想空間内に配置する。そして、小領域特定部51は、左側撮像装置のグローバル座標情報に基づいて、このAR画像を基準画像に投影する(重畳させる)。   The small region specifying unit 51 defines a virtual space corresponding to the real space, and arranges the AR image in the virtual space based on the AR image and the posture information. Then, the small area specifying unit 51 projects (superimposes) the AR image on the reference image based on the global coordinate information of the left imaging device.

そして、小領域特定部51は、小領域奥行き値情報と、基準画像上のAR画像とに基づいて、複数の小領域のうち、AR画像が重畳される小領域を重畳小領域として特定する。そして、小領域特定部51は、重畳小領域に関する重畳小領域情報、AR画像、及び姿勢情報を重畳画像生成部52に出力する。   And the small area specific | specification part 51 specifies the small area on which AR image is superimposed among several small areas as a superimposed small area based on small area depth value information and AR image on a reference | standard image. Then, the small region specifying unit 51 outputs the superimposed small region information, the AR image, and the posture information regarding the superimposed small region to the superimposed image generating unit 52.

重畳画像生成部52は、AR画像及び姿勢情報に基づいて、AR画像のうち、重畳小領域に対応する部分の奥行き値d1を算出する。さらに、小領域特定部51は、重畳小領域情報に基づいて、重畳小領域の奥行き値d2を取得する。そして、小領域特定部51は、AR画像の各部分のうち、d1<d2となる部分を重畳可能部分として認定する。   The superimposed image generation unit 52 calculates a depth value d1 of a portion corresponding to the superimposed small region in the AR image based on the AR image and the posture information. Further, the small area specifying unit 51 acquires the depth value d2 of the superimposed small area based on the superimposed small area information. And the small area specific | specification part 51 recognizes the part which becomes d1 <d2 among each part of AR image as a superimposable part.

図8に、重畳可能部分となる例とそうでない例とを示す。この例では、左側撮像装置がオブジェクトOb2と、オブジェクトOb2の奥側に配置されるOb3とを撮影しており、オブジェクトOb2とオブジェクトOb3との間にAR画像AR10が配置される。   FIG. 8 shows an example of a portion that can be superimposed and an example that is not. In this example, the left imaging device is photographing the object Ob2 and Ob3 disposed on the back side of the object Ob2, and the AR image AR10 is disposed between the object Ob2 and the object Ob3.

図8によれば、例えば、視線AまたはBに相当する小領域が重畳小領域とされる。視線Aに相当する重畳小領域の奥行き値はdpAとなり、AR画像AR10のうち、視線Aに相当する部分の奥行き値はdcA(>dpA)となる。したがって、AR画像AR10のうち、視線Aに相当する部分は重畳可能部分とならない。   According to FIG. 8, for example, a small area corresponding to the line of sight A or B is set as a superimposed small area. The depth value of the overlapping small area corresponding to the line of sight A is dpA, and the depth value of the portion corresponding to the line of sight A in the AR image AR10 is dcA (> dpA). Therefore, the portion corresponding to the line of sight A in the AR image AR10 is not a superimposable portion.

一方、視線Bに相当する重畳小領域の奥行き値はdpBとなり、AR画像AR10のうち、視線Bに相当する部分の奥行き値はdcB(<dpB)となる。したがって、AR画像AR10のうち、視線Bに相当する部分は重畳可能部分となる。   On the other hand, the depth value of the overlapping small area corresponding to the line of sight B is dpB, and the depth value of the portion corresponding to the line of sight B in the AR image AR10 is dcB (<dpB). Therefore, a portion corresponding to the line of sight B in the AR image AR10 is a superimposable portion.

重畳画像生成部52は、重畳可能部分を合成することで、重畳可能AR画像を生成する。図9に、重畳可能AR画像の例として、重畳可能AR画像AR11を示す。重畳可能AR画像AR11は、AR画像10の一部が欠けたものである。   The superimposed image generation unit 52 generates a superimposable AR image by combining the superimposable portions. FIG. 9 shows a superimposable AR image AR11 as an example of the superimposable AR image. The superimposable AR image AR11 is a part of the AR image 10 missing.

重畳画像生成部52は、重畳可能AR画像を画像合成部60に出力する。画像合成部60は、左目用画像に重畳可能AR画像を重畳することで、左目用合成画像を生成する。なお、重畳画像生成部52は、右目用画像に対しても重畳可能AR画像が生成された場合には、右目用画像に重畳可能AR画像を重畳することで、右目用合成画像を生成する。   The superimposed image generation unit 52 outputs the superimposable AR image to the image composition unit 60. The image composition unit 60 generates a left-eye composite image by superimposing a superimposable AR image on the left-eye image. In addition, when the superimposable AR image is generated also for the right-eye image, the superimposed image generation unit 52 generates a right-eye composite image by superimposing the superimposable AR image on the right-eye image.

合成の例を図10、図11に示す。この例では、上述した撮像画像100に重畳可能AR画像AR11が重畳されている。この例によれば、重畳可能AR画像11のうち、タンス画像101に重畳される部分が欠けているので、これらの画像の遠近感がより自然なものとなる。   Examples of synthesis are shown in FIGS. In this example, a superimposable AR image AR11 is superimposed on the captured image 100 described above. According to this example, since the portion that can be superimposed on the chest image 101 is missing in the superimposable AR image 11, the sense of perspective of these images becomes more natural.

表示部70は、これらの合成画像を表示する。即ち、表示部70は、右目用合成画像及び左目用合成画像が生成された場合には、右目用合成画像をユーザの右目に視認させ、左目用合成画像をユーザの左目に視認させる。なお、画像合成部60は、左目用合成画像のみが生成された場合には、左目用合成画像を2D表示する。   The display unit 70 displays these composite images. That is, when the right-eye synthesized image and the left-eye synthesized image are generated, the display unit 70 causes the right-eye synthesized image to be visually recognized by the user's right eye, and causes the left-eye synthesized image to be visually recognized by the user's left eye. Note that when only the left-eye composite image is generated, the image composition unit 60 displays the left-eye composite image in 2D.

<3.情報処理装置による処理の手順>
次に、情報処理装置による処理の手順を図16に示すフローチャートに沿って説明する。以下の説明では、左目用画像が基準画像となる例について説明するが、右目用画像が基準画像とされてもよい。ステップS10において、歪曲収差補正部20は、同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得し、これらの歪曲収差を補正する。歪曲収差補正部20は、補正後の右目用画像及び左目用画像を奥行き推定部40及び画像合成部60に出力する。
<3. Processing procedure by information processing apparatus>
Next, a processing procedure by the information processing apparatus will be described with reference to a flowchart shown in FIG. In the following description, an example in which the left-eye image is the reference image will be described, but the right-eye image may be the reference image. In step S10, the distortion correction unit 20 acquires right-eye images and left-eye images in which the same object is drawn at different horizontal positions, and corrects these distortion aberrations. The distortion aberration correction unit 20 outputs the corrected right-eye image and left-eye image to the depth estimation unit 40 and the image synthesis unit 60.

ステップS20において、姿勢情報生成部30は、AR画像(重畳画像)の実空間での存在位置を示す姿勢情報を取得する。姿勢情報生成部30は、姿勢情報を小領域特定部51に出力する。   In step S20, the posture information generation unit 30 acquires posture information indicating the position of the AR image (superimposed image) in real space. The posture information generation unit 30 outputs posture information to the small region specifying unit 51.

ステップS30において、視差算出部41は、右目用画像及び左目用画像から、オブジェクトの同一部分を示す対応点を抽出し、抽出した対応点と、上述した式(1)とに基づいて、各対応点の実空間での存在位置、具体的には奥行き値を算出する。視差算出部41は、各対応点の左目用画像または右目用画像内での位置と奥行き値とが関連付けられた奥行き情報を生成し、奥行き算出部43に出力する。   In step S30, the parallax calculation unit 41 extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and based on the extracted corresponding points and the above-described equation (1), The position of the point in the real space, specifically, the depth value is calculated. The parallax calculation unit 41 generates depth information in which the position of each corresponding point in the left-eye image or the right-eye image and the depth value are associated with each other, and outputs the depth information to the depth calculation unit 43.

ステップS40において、領域分割部42は、左目用画像を基準画像とする。次いで、領域分割部42は、上述した処理により、基準画像を複数の小領域に分割する。領域分割部42は、各小領域の基準画像上での位置及び大きさに関する小領域情報を奥行き算出部43に出力する。なお、情報処理装置10は、右目用画像を基準画像としてもよい。情報処理装置10は、立体視表示を行う場合、右目用画像も基準画像とし、右目用画像についても、ステップS40以下の処理を行なう。   In step S40, the area dividing unit 42 sets the left-eye image as a reference image. Next, the region dividing unit 42 divides the reference image into a plurality of small regions by the processing described above. The region dividing unit 42 outputs small region information regarding the position and size of each small region on the reference image to the depth calculating unit 43. Note that the information processing apparatus 10 may use the right-eye image as a reference image. When performing stereoscopic display, the information processing apparatus 10 also uses the right-eye image as a reference image, and performs the processing from step S40 onward for the right-eye image.

ステップS50において、奥行き算出部42は、上述した処理により、各小領域の奥行き値を算出する。奥行き算出部42は、各小領域の基準画像上での位置、大きさ、及び奥行き値に関する小領域奥行き値情報を小領域特定部51に出力する。   In step S50, the depth calculation unit 42 calculates the depth value of each small region by the above-described processing. The depth calculation unit 42 outputs small region depth value information regarding the position, size, and depth value of each small region on the reference image to the small region specifying unit 51.

ステップS60において、小領域特定部51は、AR画像、及び左側撮像装置のグローバル座標情報を取得する。   In step S60, the small region specifying unit 51 acquires an AR image and global coordinate information of the left imaging device.

小領域特定部51は、実空間に相当する仮想空間を定義し、AR画像及び姿勢情報に基づいて、AR画像を仮想空間内に配置する。そして、小領域特定部51は、左側撮像装置のグローバル座標情報に基づいて、このAR画像を基準画像に投影する(重畳させる)。   The small region specifying unit 51 defines a virtual space corresponding to the real space, and arranges the AR image in the virtual space based on the AR image and the posture information. Then, the small area specifying unit 51 projects (superimposes) the AR image on the reference image based on the global coordinate information of the left imaging device.

次いで、小領域特定部51は、複数の小領域のうち、AR画像が重畳される小領域を重畳小領域として特定する。そして、小領域特定部51は、重畳小領域に関する重畳小領域情報、AR画像、及び姿勢情報を重畳画像生成部52に出力する。   Next, the small region specifying unit 51 specifies a small region on which the AR image is superimposed as a superimposed small region among the plurality of small regions. Then, the small region specifying unit 51 outputs the superimposed small region information, the AR image, and the posture information regarding the superimposed small region to the superimposed image generating unit 52.

ステップS70において、重畳画像生成部52は、AR画像及び姿勢情報に基づいて、AR画像のうち、重畳小領域に対応する部分の奥行き値d1を算出する。さらに、小領域特定部51は、重畳小領域情報に基づいて、重畳小領域の奥行き値d2を取得する。そして、小領域特定部51は、AR画像の各部分のうち、d1<d2となる部分を重畳可能部分として認定する。重畳画像生成部52は、重畳可能部分を合成することで、重畳可能AR画像を生成する。重畳画像生成部52は、重畳可能AR画像を画像合成部60に出力する。   In step S <b> 70, the superimposed image generation unit 52 calculates a depth value d <b> 1 of a portion corresponding to the superimposed small region in the AR image based on the AR image and the posture information. Further, the small area specifying unit 51 acquires the depth value d2 of the superimposed small area based on the superimposed small area information. And the small area specific | specification part 51 recognizes the part which becomes d1 <d2 among each part of AR image as a superimposable part. The superimposed image generation unit 52 generates a superimposable AR image by combining the superimposable portions. The superimposed image generation unit 52 outputs the superimposable AR image to the image composition unit 60.

ステップS80において、画像合成部60は、左目用画像に重畳可能AR画像を重畳することで、左目用合成画像を生成する。なお、重畳画像生成部52は、右目用画像に対しても重畳可能AR画像が生成された場合には、右目用画像に重畳可能AR画像を重畳することで、右目用合成画像を生成する。   In step S80, the image synthesis unit 60 generates a left-eye synthesized image by superimposing a superimposable AR image on the left-eye image. In addition, when the superimposable AR image is generated also for the right-eye image, the superimposed image generation unit 52 generates a right-eye composite image by superimposing the superimposable AR image on the right-eye image.

次いで、表示部70は、これらの合成画像を表示する。即ち、表示部70は、右目用合成画像及び左目用合成画像が生成された場合には、右目用合成画像をユーザの右目に視認させ、左目用合成画像をユーザの左目に視認させる。なお、画像合成部60は、左目用合成画像のみが生成された場合には、左目用合成画像を2D表示する。   Next, the display unit 70 displays these composite images. That is, when the right-eye synthesized image and the left-eye synthesized image are generated, the display unit 70 causes the right-eye synthesized image to be visually recognized by the user's right eye, and causes the left-eye synthesized image to be visually recognized by the user's left eye. Note that when only the left-eye composite image is generated, the image composition unit 60 displays the left-eye composite image in 2D.

以上により、本実施形態によれば、情報処理装置10は、右目用画像及び左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割し、複数の小領域のうち、少なくとも重畳小領域の奥行き値を算出する。   As described above, according to the present embodiment, the information processing apparatus 10 divides the reference image, which is at least one of the right-eye image and the left-eye image, into a plurality of small regions, and among the plurality of small regions, At least the depth value of the superimposed small area is calculated.

したがって、情報処理装置10は、基準画像にAR画像を重畳させる場合には、この奥行き値に基づいて、重畳小領域とAR画像との実空間での位置関係を認識することができる(ステップS60〜S70参照)。   Therefore, when superimposing the AR image on the reference image, the information processing apparatus 10 can recognize the positional relationship in the real space between the superimposed small area and the AR image based on the depth value (step S60). To S70).

これにより、情報処理装置10は、各オブジェクトにマーカを付さなくても、AR画像のうち、どの部分が重畳小領域によって遮蔽されるのかを把握することができる。したがって、撮影時の手間が低減する。さらに、情報処理装置10は、オブジェクトがどのようなものであっても、上述した処理を行うことができるので、オブジェクトの特性に関わらず、遠近感の自然な合成画像を生成することができる(図11参照)。さらに、情報処理装置10は、手前側のオブジェクト画像によってAR画像が遮蔽されるという表現を行うことができる(図11参照)。   Thereby, the information processing apparatus 10 can grasp which part of the AR image is shielded by the superimposed small region without attaching a marker to each object. Therefore, labor during photographing is reduced. Furthermore, since the information processing apparatus 10 can perform the above-described processing regardless of the object, it is possible to generate a natural synthetic image with a sense of perspective regardless of the characteristics of the object ( FIG. 11). Furthermore, the information processing apparatus 10 can express that the AR image is shielded by the near-side object image (see FIG. 11).

なお、本実施形態では、全小領域の奥行き値を算出したが、少なくとも重畳小領域について奥行き値を算出すればよい。   In the present embodiment, the depth values of all the small regions are calculated, but the depth values may be calculated at least for the superimposed small regions.

さらに、情報処理装置10は、画素値が互いに類似する画素同士を同一の小領域に区分することで、基準画像を複数の小領域に分割するので、基準画像をより正確に分割することができる。   Furthermore, since the information processing apparatus 10 divides pixels having similar pixel values into the same small area, and divides the reference image into a plurality of small areas, the reference image can be more accurately divided. .

さらに、情報処理装置10は、対応点に基づいて、各小領域の奥行き値を算出するので、各小領域の奥行き値を正確に算出することができる。   Furthermore, since the information processing apparatus 10 calculates the depth value of each small region based on the corresponding points, the depth value of each small region can be accurately calculated.

さらに、情報処理装置10は、小領域内に対応点が存在しない場合には、小領域の周辺に存在する小領域の奥行き値に基づいて、小領域の奥行き値を算出する。したがって、情報処理装置10は、対応点の数が少ない場合であっても、各小領域の奥行き値をより正確に算出することができる。   Further, when there is no corresponding point in the small area, the information processing apparatus 10 calculates the depth value of the small area based on the depth value of the small area existing around the small area. Therefore, the information processing apparatus 10 can calculate the depth value of each small region more accurately even when the number of corresponding points is small.

さらに、情報処理装置10は、AR画像の各部分のうち、重畳小領域よりも撮像装置に近い位置(手前側)に存在する重畳可能部分を特定し、重畳可能部分を合成することで、重畳可能画像を生成する。そして、情報処理装置は、重畳可能画像を右目用画像及び左目用画像のうち少なくとも一方の画像に重畳する。これにより、情報処理装置10は、AR画像及びオブジェクト画像の遠近感がより自然な合成画像を生成することができる。   Furthermore, the information processing apparatus 10 identifies a superimposable part that exists in a position closer to the imaging device (front side) than the superimposing small area among the parts of the AR image, and combines the superimposable parts, thereby superimposing Generate possible images. The information processing apparatus superimposes the superimposable image on at least one of the right-eye image and the left-eye image. Thereby, the information processing apparatus 10 can generate a composite image in which the perspective of the AR image and the object image is more natural.

さらに、情報処理装置10は、重畳可能画像を右目用画像及び左目用画像の双方に重畳させるので、重畳可能画像を立体視表示することができる。   Furthermore, since the information processing apparatus 10 superimposes the superimposable image on both the right eye image and the left eye image, the superimposable image can be stereoscopically displayed.

以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the present invention have been described in detail above with reference to the accompanying drawings, but the present invention is not limited to such examples. It is obvious that a person having ordinary knowledge in the technical field to which the present invention pertains can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that these also belong to the technical scope of the present invention.

10 情報処理装置
20 歪曲収差補正部
30 姿勢情報生成部
40 奥行き推定部
41 視差算出部
42 領域分割部
43 奥行き算出部
51 小領域特定部
52 重畳画像生成部
60 画像合成部
70 表示部

DESCRIPTION OF SYMBOLS 10 Information processing apparatus 20 Distortion aberration correction part 30 Posture information generation part 40 Depth estimation part 41 Parallax calculation part 42 Area division part 43 Depth calculation part 51 Small area specific | specification part 52 Superimposed image generation part 60 Image composition part 70 Display part

Claims (7)

同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得部と、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割部と、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得部と、
前記姿勢情報に基づいて、前記複数の小領域のうち、前記重畳画像が重畳される重畳小領域を特定する小領域特定部と、
前記右目用画像及び前記左目用画像に基づいて、前記複数の小領域のうち、少なくとも前記重畳小領域の実空間での存在位置を算出する奥行き算出部と、を備えることを特徴とする、情報処理装置。
An image acquisition unit for acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions;
An area dividing unit that divides a reference image that is at least one of the right-eye image and the left-eye image into a plurality of small areas;
A posture information acquisition unit that acquires posture information indicating a presence position in a real space of a superimposed image that is superimposed on at least one of the right-eye image and the left-eye image;
Based on the posture information, among the plurality of small regions, a small region identifying unit that identifies a superimposed small region on which the superimposed image is superimposed,
A depth calculation unit that calculates a presence position of at least the superimposed small region in real space among the plurality of small regions based on the right-eye image and the left-eye image. Processing equipment.
前記領域分割部は、画素値が互いに類似する画素同士を同一の小領域に区分することで、前記基準画像を複数の小領域に分割することを特徴とする、請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the region dividing unit divides the reference image into a plurality of small regions by dividing pixels having similar pixel values into the same small region. . 前記右目用画像及び前記左目用画像から、前記オブジェクトの同一部分を示す対応点を抽出し、前記対応点に基づいて、前記対応点の実空間での存在位置を算出する視差算出部を備え、
前記奥行き算出部は、前記対応点が前記重畳小領域内に存在する場合には、前記対応点の実空間での存在位置に基づいて、前記重畳小領域の実空間での存在位置を算出することを特徴とする、請求項1または2記載の情報処理装置。
A parallax calculating unit that extracts corresponding points indicating the same part of the object from the right-eye image and the left-eye image, and calculates a position of the corresponding point in real space based on the corresponding points;
When the corresponding point is present in the superimposed small area, the depth calculation unit calculates the presence position of the corresponding small area in the real space based on the position of the corresponding point in the real space. The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記奥行き算出部は、前記重畳小領域内に前記対応点が存在しない場合には、前記重畳小領域の周辺に存在する小領域の実空間での存在位置に基づいて、前記重畳小領域の実空間での存在位置を算出することを特徴とする、請求項3記載の情報処理装置。   When the corresponding point does not exist in the superimposed small area, the depth calculation unit determines the actual size of the superimposed small area based on the position in the real space of the small area existing around the superimposed small area. The information processing apparatus according to claim 3, wherein an existence position in space is calculated. 前記姿勢情報と、前記重畳小領域の実空間での存在位置を示す重畳小領域位置情報と、前記基準画像を撮像した撮像装置の位置情報と、に基づいて、前記重畳画像の各部分のうち、前記重畳小領域よりも前記撮像装置に近い重畳可能部分を特定し、前記重畳可能部分を合成することで、重畳可能画像を生成する重畳画像生成部と、
前記重畳可能画像を前記右目用画像及び前記左目用画像のうち少なくとも一方の画像に重畳する画像合成部と、を備えることを特徴とする、請求項1〜4のいずれか1項に記載の情報処理装置。
Based on the posture information, the superimposed small region position information indicating the position of the superimposed small region in real space, and the position information of the imaging device that captured the reference image, Identifying a superimposable portion closer to the imaging device than the superimposing small region, and combining the superimposable portion to generate a superimposable image; and
The information according to any one of claims 1 to 4, further comprising: an image composition unit that superimposes the superimposable image on at least one of the right-eye image and the left-eye image. Processing equipment.
前記画像合成部は、前記重畳可能画像を前記右目用画像及び左目用画像の双方に重畳させることを特徴とする、請求項5記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the image composition unit superimposes the superimposable image on both the right-eye image and the left-eye image. 同一のオブジェクトがそれぞれ異なる水平位置に描かれた右目用画像及び左目用画像を取得する画像取得ステップと、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像である基準画像を複数の小領域に分割する領域分割ステップと、
前記右目用画像及び前記左目用画像のうち、少なくとも一方の画像に重畳される重畳画像の実空間での存在位置を示す姿勢情報を取得する姿勢情報取得ステップと、
前記姿勢情報に基づいて、前記複数の小領域のうち、前記重畳画像が重畳される重畳小領域を特定する小領域特定ステップと、
前記右目用画像及び前記左目用画像に基づいて、前記複数の小領域のうち、少なくとも前記重畳小領域の実空間での存在位置を算出する奥行き算出ステップと、を含むことを特徴とする、情報処理方法。
An image acquisition step of acquiring a right-eye image and a left-eye image in which the same object is drawn at different horizontal positions;
An area dividing step of dividing a reference image, which is at least one of the right-eye image and the left-eye image, into a plurality of small areas;
A posture information acquisition step of acquiring posture information indicating a presence position in a real space of a superimposed image superimposed on at least one of the right-eye image and the left-eye image;
Based on the posture information, a small area specifying step for specifying a superimposed small area on which the superimposed image is superimposed among the plurality of small areas;
A depth calculation step of calculating a position of at least the superimposed small region in real space among the plurality of small regions based on the right-eye image and the left-eye image. Processing method.
JP2011269523A 2011-12-09 2011-12-09 Information processing device and information processing method Pending JP2013121150A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2011269523A JP2013121150A (en) 2011-12-09 2011-12-09 Information processing device and information processing method
KR1020120106699A KR20130065580A (en) 2011-12-09 2012-09-25 Electronic apparatus, method for producting of augemented reality image and computer-readable recording medium
US13/707,860 US20130147801A1 (en) 2011-12-09 2012-12-07 Electronic apparatus, method for producing augmented reality image, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011269523A JP2013121150A (en) 2011-12-09 2011-12-09 Information processing device and information processing method

Publications (1)

Publication Number Publication Date
JP2013121150A true JP2013121150A (en) 2013-06-17

Family

ID=48773583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011269523A Pending JP2013121150A (en) 2011-12-09 2011-12-09 Information processing device and information processing method

Country Status (2)

Country Link
JP (1) JP2013121150A (en)
KR (1) KR20130065580A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102227260B1 (en) * 2018-09-07 2021-03-12 (주)위지윅스튜디오 Real-time computer graphics video production system using rig combined virtual camera

Also Published As

Publication number Publication date
KR20130065580A (en) 2013-06-19

Similar Documents

Publication Publication Date Title
US9807361B2 (en) Three-dimensional display device, three-dimensional image processing device, and three-dimensional display method
JP4228646B2 (en) Stereoscopic image generation method and stereoscopic image generation apparatus
JP4649219B2 (en) Stereo image generator
JP5291755B2 (en) Stereoscopic image generation method and stereoscopic image generation system
JP5464279B2 (en) Image processing apparatus, program thereof, and image processing method
JP2016018213A (en) Hmd calibration with direct geometric modeling
JP2010278878A (en) Stereoscopic image device and display image switching method thereof
JP2011250059A (en) Image processing device, image display device and image pickup device
EP3001681B1 (en) Device, method and computer program for 3d rendering
EP3779892A1 (en) Light-field image generation system, image display system, shape information acquisition server, image generation server, display device, light-field image generation method and image display method
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP2012223446A (en) Stereoscopic endoscope apparatus
WO2013156333A1 (en) Method and device for correcting distortion errors due to accommodation effect in stereoscopic display
US11463676B2 (en) Stereoscopic visualization system and method for endoscope using shape-from-shading algorithm
JP2018500690A (en) Method and system for generating magnified 3D images
TWI589150B (en) Three-dimensional auto-focusing method and the system thereof
JP2016218729A (en) Image processor, image processing method and program
JP6618260B2 (en) Information processing apparatus, information processing method, and program
JP2013121150A (en) Information processing device and information processing method
JP2012065851A (en) Multi-view auto-stereoscopic endoscope system
JP5355616B2 (en) Stereoscopic image generation method and stereoscopic image generation system
EP2762057A1 (en) Stereo endoscope apparatus and image processing method
JP6042732B2 (en) Image generation method, image generation apparatus, and image generation program
JP2013047875A (en) Stereoscopic effect presentation device and method, defocused image generation device and method, and program
JP2015125493A (en) Image generation method, image generation device, and image generation program