JP2014072809A - Image generation apparatus, image generation method, and program for the image generation apparatus - Google Patents

Image generation apparatus, image generation method, and program for the image generation apparatus Download PDF

Info

Publication number
JP2014072809A
JP2014072809A JP2012218708A JP2012218708A JP2014072809A JP 2014072809 A JP2014072809 A JP 2014072809A JP 2012218708 A JP2012218708 A JP 2012218708A JP 2012218708 A JP2012218708 A JP 2012218708A JP 2014072809 A JP2014072809 A JP 2014072809A
Authority
JP
Japan
Prior art keywords
image
depth information
scanning direction
depth
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012218708A
Other languages
Japanese (ja)
Inventor
Toshimitsu Osajima
敏光 筬島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2012218708A priority Critical patent/JP2014072809A/en
Publication of JP2014072809A publication Critical patent/JP2014072809A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image generation apparatus and the like for generating a more natural stereoscopic image.SOLUTION: A first image 30a and a second image 30b are scanned in a scanning direction relating to an installation direction in which a plurality of imaging means (20) are installed and corresponding feature points in a first image 30a and a second image 30b are determined (S6), depth information in the feature points is calculated from a distance between the corresponding feature points (S7), and occlusion noise is reduced from the depth information (S20). On the basis of the processed depth information, depth information in pixels between the feature points in the scanning direction is complemented (S22) and in a direction different from the scanning direction, relevancy of the complemented depth information is increased (S23). Averaging in the direction different from the scanning direction is performed (S24) on the depth information of which the relevancy is increased in the direction different from the scanning direction, and a multi-viewpoint image with different viewpoints is generated from the depth information averaged in the direction different from the scanning direction and at least one of the first image and the second image (S9).

Description

本発明は、立体画像用の画像を生成する画像生成装置、画像生成方法、画像生成装置用プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program for an image generation apparatus that generate an image for a stereoscopic image.

従来、臨場感のある裸眼式立体視を可能とするため、2つのカメラを用いて撮影された2つの画像(ステレオ画像)を用いて、2つのカメラの間の位置から撮像された場合の中間画像を生成して多眼化することが行われている。例えば、特許文献1には、被写体の映像を結像する第1結像レンズ部と、第1撮影素子と、を有する第1画像取得部と、第2結像レンズ部と、これによって結像された映像を受ける複数のレンズがアレイ状に配列された第1レンズアレイ部と、第2撮影素子と、を有する第2画像取得部とを備え、第2画像取得部は、第1画像取得部に対して被写体から見て水平方向に離れて配置される立体映像撮影装置が開示されている。   Conventionally, in order to enable a realistic autostereoscopic view, using two images (stereo images) taken with two cameras, an intermediate position when taken from a position between the two cameras An image is generated and multi-viewed. For example, Patent Document 1 discloses that a first image acquisition unit including a first imaging lens unit that forms an image of a subject and a first imaging element, a second imaging lens unit, and an image formed thereby. A second image acquisition unit having a first lens array unit in which a plurality of lenses that receive the captured image are arranged in an array and a second imaging element, and the second image acquisition unit includes a first image acquisition unit A stereoscopic video imaging device is disclosed that is disposed away from the subject in the horizontal direction when viewed from the subject.

特開2010−78768号公報JP 2010-78768 A

ところで、先行技術では、オプティカルフローをグルーピングする処理をしているが、オクルージョンが存在し、ステレオ画像から奥行に関する情報を単に求めようとする場合、単純にグルーピング化しただけでは、オクルージョンによるノイズを含んでしまい、自然な立体画像を生成することが難しかった。   By the way, in the prior art, processing for grouping optical flows is performed. However, when there is occlusion and it is intended to simply obtain information on the depth from a stereo image, noise simply due to occlusion is included only by grouping. Therefore, it was difficult to generate a natural stereoscopic image.

そこで、本発明は上記の問題点等に鑑みて為されたもので、その課題の一例は、より自然な立体画像を生成する画像生成装置等を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems and the like, and an example of the problem is to provide an image generation apparatus that generates a more natural stereoscopic image.

上記の課題を解決するために、請求項1に記載の発明は、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段と、前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段と、前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索手段と、前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出手段と、前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減手段と、前記オクルージョンノイズ軽減手段により処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完手段と、前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加手段と、前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化手段と、前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成手段と、を備えたことを特徴とする。   In order to solve the above-described problem, the invention according to claim 1 is an image that receives input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging means. An input means, a feature point extracting means for extracting feature points of the first image and the second image from the first image and the second image, and a scanning direction related to an installation direction in which the plurality of imaging means are installed And a distance between corresponding point search means for scanning the first image and the second image to obtain corresponding feature points in the scanning direction in the first image and the second image. Further, depth information calculation means for calculating depth information at the feature point, and occlusion noise caused by occlusion that exists in one of the first image and the second image but does not exist in the other image. Occlusion noise reducing means for reducing from the depth information, and scanning direction complementing means for complementing depth information in pixels between the feature points in the scanning direction based on the depth information processed by the occlusion noise reducing means, Relevance increasing means for increasing the relevance of the complemented depth information in a direction different from the scanning direction, and depth information whose relevance is increased in a direction different from the scanning direction. A first averaging means for averaging in a direction different from the first direction, depth information averaged in a direction different from the scanning direction, and at least one of the first image and the second image. And a multi-viewpoint image generation means for generating a viewpoint image.

また、請求項2に記載の発明は、請求項1に記載の画像生成装置において、前記オクルージョンノイズ軽減手段が、前記走査方向において、所定の前記特徴点の近辺にある特徴点における前記奥行情報に基づき、前記所定の特徴点の奥行情報を削除するか否かを判定して、当該削除すると判定した場合、前記所定の特徴点の奥行情報を削除することを特徴とする。   According to a second aspect of the present invention, in the image generating apparatus according to the first aspect, the occlusion noise reducing unit is configured to add the depth information at a feature point in the vicinity of the predetermined feature point in the scanning direction. Based on this, it is determined whether or not to delete the depth information of the predetermined feature point, and when it is determined to delete the depth information, the depth information of the predetermined feature point is deleted.

また、請求項3に記載の発明は、請求項2に記載の画像生成装置において、前記オクルージョンノイズ軽減手段が、前記走査方向において、前記所定の特徴点の奥行情報と、前記所定の特徴点の近辺にある特徴点における前記奥行情報との差が、所定値以上の場合、前記所定の特徴点の奥行情報を削除することを特徴とする。   According to a third aspect of the present invention, in the image generating apparatus according to the second aspect, the occlusion noise reducing unit includes depth information of the predetermined feature point and the predetermined feature point in the scanning direction. The depth information of the predetermined feature point is deleted when the difference from the depth information at the feature point in the vicinity is a predetermined value or more.

また、請求項4に記載の発明は、請求項1から3のいずれか1項に記載の画像生成装置において、前記関連性増加手段が、前記走査方向とは異なる方向において、所定の画素の近辺にある画素における前記奥行情報に基づき、前記所定の画素における奥行情報を変えることを特徴とする。   According to a fourth aspect of the present invention, in the image generating apparatus according to any one of the first to third aspects, the relevance increasing unit is arranged in the vicinity of a predetermined pixel in a direction different from the scanning direction. The depth information in the predetermined pixel is changed on the basis of the depth information in the pixel.

また、請求項5に記載の発明は、請求項4に記載の画像生成装置において、前記関連性増加手段が、前記走査方向とは異なる方向において、前記所定の画素の近辺にある2つの画素における前記奥行情報の平均と、前記所定の画素の奥行情報との差が、所定値以上の場合、前記所定の画素の奥行情報を前記平均の奥行情報とすることを特徴とする。   According to a fifth aspect of the present invention, in the image generating apparatus according to the fourth aspect, the relevance increasing means is provided for two pixels in the vicinity of the predetermined pixel in a direction different from the scanning direction. When the difference between the average of the depth information and the depth information of the predetermined pixel is equal to or greater than a predetermined value, the depth information of the predetermined pixel is used as the average depth information.

また、請求項6に記載の発明は、請求項1から5のいずれか1項に記載の画像生成装置において、前記補完された奥行情報に対して、前記走査方向における平均化を行う第2平均化手段を更に備えたことを特徴とする。   According to a sixth aspect of the present invention, in the image generating apparatus according to any one of the first to fifth aspects, a second average that performs averaging in the scanning direction with respect to the complemented depth information. It is characterized by further comprising a conversion means.

また、請求項7に記載の発明は、請求項1から6のいずれか1項に記載の画像生成装置において、前記第1画像および第2画像が動画であって、前記走査方向とは異なる方向に平均化された奥行情報を、前記動画のフレーム間で平均化するフレーム間平均手段を更に備えたことを特徴する。   The invention according to claim 7 is the image generating apparatus according to any one of claims 1 to 6, wherein the first image and the second image are moving images, and the direction is different from the scanning direction. Further, it is characterized by further comprising inter-frame averaging means for averaging the depth information averaged between the frames of the moving image.

また、請求項8に記載の発明は、請求項1から7のいずれか1項に記載の画像生成装置において、前記多視点画像生成手段が、前記第1位置および第2位置に対する前記第3位置の位置関係に従い、前記第1画像における前記走査方向とは異なる方向に平均化された奥行情報と、前記第2画像における前記走査方向とは異なる方向に平均化された奥行情報とから、前記第3画像における前記走査方向とは異なる方向に平均化された奥行情報を求め、当該第1画像、第2画像および第3画像における奥行情報と、前記第1画像と、第2画像とから、立体画像を生成することを特徴とする。   The invention according to claim 8 is the image generation apparatus according to any one of claims 1 to 7, wherein the multi-viewpoint image generation unit is configured to perform the third position with respect to the first position and the second position. The depth information averaged in a direction different from the scanning direction in the first image and the depth information averaged in a direction different from the scanning direction in the second image, according to the positional relationship. Depth information averaged in a direction different from the scanning direction in the three images is obtained, and depth information in the first image, the second image, and the third image, the first image, and the second image, An image is generated.

また、請求項9に記載の発明は、画像生成装置が、画像を生成する画像生成方法であって、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力ステップと、前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出ステップと、前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索ステップと、前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出ステップと、前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減ステップと、前記オクルージョンノイズ軽減ステップにおいて処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完ステップと、前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加ステップと、前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化ステップと、前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成ステップと、を有することを特徴とする。   The invention according to claim 9 is an image generation method in which the image generation apparatus generates an image, and the first image captured from the first position and the second position are captured by a plurality of imaging means. An image input step for receiving an input with the second image; a feature point extracting step for extracting feature points of the first image and the second image from the first image and the second image; and the plurality of imaging means. A corresponding point search step of scanning the first image and the second image in a scanning direction related to the set installation direction to obtain a corresponding feature point in the scanning direction in the first image and the second image; Depth information calculation step for calculating depth information at the feature point from the distance between the corresponding feature points, and one of the first image and the second image, but not in the other image The occlusion noise reduction step for reducing occlusion noise caused by the occlusion from the depth information and the depth information processed in the occlusion noise reduction step are used to complement the depth information in the pixels between the feature points in the scanning direction. A scanning direction complementing step, a relevance increasing step for increasing the relevance of the complemented depth information in a direction different from the scanning direction, and a depth information whose relevance is increased in a direction different from the scanning direction. On the other hand, a first averaging step for averaging in a direction different from the scanning direction, depth information averaged in a direction different from the scanning direction, and at least one of the first image and the second image And a multi-viewpoint image generation step for generating multi-viewpoint images having different viewpoints. Characterized in that it.

また、請求項10に記載の発明は、コンピュータを、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段、前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段、前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索手段、前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出手段、前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減手段、前記オクルージョンノイズ軽減手段により処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完手段、前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加手段、前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化手段、および、前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成手段として機能させる。   According to a tenth aspect of the present invention, there is provided an image input unit that receives input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging units. Feature point extraction means for extracting feature points of the first image and the second image from the first image and the second image, and the first image in a scanning direction related to an installation direction in which the plurality of imaging means are installed. And corresponding point search means for scanning the first image and the second image to obtain corresponding feature points in the scanning direction, and the depth at the feature points based on the distance between the corresponding feature points. Depth information calculating means for calculating information, occlusion noise caused by occlusion that exists in one of the first image and the second image but does not exist in the other image, Occlusion noise reducing means for reducing from information, scanning direction complementing means for complementing depth information in pixels between the feature points in the scanning direction based on depth information processed by the occlusion noise reducing means, and the scanning direction Relevance increasing means for increasing the relevance of the complemented depth information in different directions, and for depth information whose relevance is increased in a direction different from the scanning direction, an average in a direction different from the scanning direction A multi-viewpoint image having different viewpoints is generated from first averaging means for performing averaging, depth information averaged in a direction different from the scanning direction, and at least one of the first image and the second image. It functions as a multi-viewpoint image generation means.

本発明によれば、撮像した画像の特徴点における奥行情報から、オクルージョンによる生ずるオクルージョンノイズを軽減した上で、走査方向とは異なる方向において、奥行情報の関連性を増加させ、平均化しているので、人間にとって違和感の少ない正確な奥行情報が算出され、この奥行情報に基づき、より自然な立体画像を生成できる。   According to the present invention, since the occlusion noise caused by occlusion is reduced from the depth information at the feature points of the captured image, the relevance of the depth information is increased and averaged in a direction different from the scanning direction. Therefore, accurate depth information that is less uncomfortable for human beings is calculated, and a more natural stereoscopic image can be generated based on the depth information.

本発明の実施形態に係る画像生成システムの概要構成例を示すブロック図である。1 is a block diagram illustrating a schematic configuration example of an image generation system according to an embodiment of the present invention. 図1の画像生成の概要構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a schematic configuration of image generation in FIG. 1. 図1の撮像装置の位置と、仮想的な撮像装置の位置との位置関係の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a positional relationship between the position of the imaging device in FIG. 1 and the position of a virtual imaging device. 図1の画像生成装置の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the image generation apparatus in FIG. 1. 図1の撮像装置により撮像された画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image imaged with the imaging device of FIG. 撮像された画像に対するスキャン方向の一例を示す模式図である。It is a schematic diagram which shows an example of the scanning direction with respect to the imaged image. 特徴点の選択の一例を示す模式図である。It is a schematic diagram which shows an example of selection of a feature point. 対応する特徴点の一例を示す模式図である。It is a schematic diagram which shows an example of a corresponding feature point. 対応する特徴点を探索する際の類似度の一例を示すグラフである。It is a graph which shows an example of the similarity degree at the time of searching for the corresponding feature point. ノイズ処理をする前のデプスマップの一例を示す模式図である。It is a schematic diagram which shows an example of the depth map before performing a noise process. 生成されたデプスマップの一例を示す模式図である。It is a schematic diagram which shows an example of the produced | generated depth map. 多視点映像生成の一例を示す模式図である。It is a schematic diagram which shows an example of multiview video production | generation. 多視点映像生成の一例を示す模式図である。It is a schematic diagram which shows an example of multiview video production | generation. 立体視の一例を示す模式図である。It is a schematic diagram which shows an example of a stereoscopic view. デプスマップの構築のサブルーチンの一例を示すフローチャートである。It is a flowchart which shows an example of the subroutine of construction of a depth map. デプスマップのラインデータにおけるx方向ローパスフィルタ処理の一例を示す模式図である。It is a schematic diagram which shows an example of the x direction low pass filter process in the line data of a depth map. デプスマップのラインデータにおけるx方向平均処理の一例を示す模式図である。It is a schematic diagram which shows an example of the x direction average process in the line data of a depth map. デプスマップのラインデータにおけるx方向FILL処理の一例を示す模式図である。It is a schematic diagram which shows an example of the x direction FILL process in the line data of a depth map. 特徴点の選択の第1変形例を示す模式図である。It is a schematic diagram which shows the 1st modification of selection of a feature point. 特徴点の選択の第2変形例を示す模式図である。It is a schematic diagram which shows the 2nd modification of selection of a feature point.

以下、図面を参照して本発明の実施形態について説明する。なお、以下に説明する実施の形態は、画像生成システムに対して本発明を適用した場合の実施形態である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to an image generation system.

[1.画像生成システムの構成および機能の概要]
(1.1 画像生成システム1の構成および機能)
[1. Overview of image generation system configuration and functions]
(1.1 Configuration and Function of Image Generation System 1)

まず、本発明の一実施形態に係る画像生成システムの構成および概要機能について、図1を用いて説明する。   First, the configuration and outline function of an image generation system according to an embodiment of the present invention will be described with reference to FIG.

図1は、本実施形態に係る画像生成システム1の概要構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a schematic configuration example of an image generation system 1 according to the present embodiment.

図1に示すように、画像生成システム1は、所定の位置で撮像された被写体5の画像から仮想位置から撮像した場合の画像を生成する画像生成装置10と、所定の位置で被写体5を撮像する撮像装置(撮像手段の一例)20と、を備えている。   As shown in FIG. 1, the image generation system 1 captures an image of the subject 5 at a predetermined position and an image generation device 10 that generates an image when the image is captured from a virtual position from an image of the subject 5 captured at the predetermined position. Imaging device (an example of imaging means) 20.

画像生成装置10は、左右2つの撮像装置20(20a、20b)により撮像された複数の動画画像の画像データの入力を受け付ける画像入力手段10aと、受け付けた画像データを、左右の動画画像に分離するLR分離手段10bと、動画の1フレームにおいて、左右の画像を縮小し、ガウスフィルタをかける画像縮小・フィルタ手段10cと、RGB信号のカラーの画像データからグレースケールの画像を求めるグレースケール変換手段10dと、左右それぞれの画像の特徴点を求め、求めた特徴点内から、所定処理により特徴点を選択する特徴点選択手段10eと、グレースケールの左右の画像から対応する特徴点を求めるパターンマッチング手段10fと、対応する特徴点に基づき、奥行きに関する情報を画像データに対応させたデプスマップを構成するデプスマップ構築手段10gと、時間的に前のフレームにおけるデプスマップとの平均化を行うデプスマップ時間平均化手段10hと、時間的に前のフレームにおけるデプスマップを記憶するデプスマップ記憶手段10iと、時間平均化されたデプスマップと、1フレーム左右の画像から、3次元の表示の画像を合成する画像合成手段10jと、合成された画像を表示する表示部13と、を有する。   The image generation device 10 separates the received image data into left and right moving image images, and an image input unit 10a that receives input of image data of a plurality of moving image images captured by the two left and right imaging devices 20 (20a and 20b). LR separation means 10b, image reduction / filter means 10c for reducing the left and right images and applying a Gaussian filter in one frame of the moving image, and grayscale conversion means for obtaining a grayscale image from color image data of RGB signals 10d, the feature points of the left and right images are obtained, and feature point selection means 10e for selecting the feature points by predetermined processing from the obtained feature points, and pattern matching for obtaining the corresponding feature points from the left and right images of the gray scale Based on the means 10f and the corresponding feature points, the depth information is associated with the image data. Depth map construction means 10g constituting the map, depth map time averaging means 10h for averaging the depth map in the temporally previous frame, and a depth map storage for storing the depth map in the temporally previous frame Means 10i, a time-averaged depth map, an image composition means 10j that composes a three-dimensional display image from one frame left and right images, and a display unit 13 that displays the synthesized image.

ここで、デプスマップとは、画像の画素毎に奥行情報を示したマップである。   Here, the depth map is a map showing depth information for each pixel of the image.

撮像装置20は、撮像手段の一例である左目用の撮像装置20aと、右目用の撮像装置20bとを有し、ステレオカメラを構成する。被写体5に対して、例えば、水平方向に、撮像装置20aと、撮像装置20bとは、所定の距離を置いて設置される。撮像装置20aが設置される位置が、第1位置の一例であり、撮像装置20bが設置される位置が、第2位置の一例である。撮像装置20a、20bは、静止画を撮像するスチルカメラ、または、動画を撮像するビデオカメラであり、解像度や、色の階調等に関して同一の性能を有する。撮像装置20a、20bの出力は、デジタル出力であるが、アナログ出力の撮像装置の場合は、A/D変換器を有し、デジタル信号を出力する。   The imaging device 20 includes a left-eye imaging device 20a and a right-eye imaging device 20b, which are examples of imaging means, and constitutes a stereo camera. For example, the imaging device 20a and the imaging device 20b are installed at a predetermined distance from the subject 5 in the horizontal direction. The position where the imaging device 20a is installed is an example of the first position, and the position where the imaging device 20b is installed is an example of the second position. The imaging devices 20a and 20b are a still camera that captures still images or a video camera that captures moving images, and have the same performance with respect to resolution, color gradation, and the like. The outputs of the imaging devices 20a and 20b are digital outputs, but an analog output imaging device has an A / D converter and outputs a digital signal.

撮像装置20aは、被写体5を左寄りから撮影し、左目用の画像(第1位置で撮像された第1画像の一例)を出力する。撮像装置20bは、被写体5を右寄りから撮影し、右目用の画像(第2位置で撮像された第2画像の一例)を出力する。   The imaging device 20a captures the subject 5 from the left side and outputs an image for the left eye (an example of a first image captured at the first position). The imaging device 20b captures the subject 5 from the right side and outputs an image for the right eye (an example of a second image captured at the second position).

撮像装置20aおよび撮像装置20bは、画像生成装置10の画像入力手段10aに接続される。   The imaging device 20 a and the imaging device 20 b are connected to the image input unit 10 a of the image generation device 10.

(1.2 画像生成装置10の構成および機能)
次に、画像生成装置10の構成および機能について、図2を用いて説明する。
図2は、画像生成装置10の概要構成の一例を示すブロック図である。
(1.2 Configuration and Function of Image Generation Device 10)
Next, the configuration and function of the image generation apparatus 10 will be described with reference to FIG.
FIG. 2 is a block diagram illustrating an example of a schematic configuration of the image generation apparatus 10.

図2に示すように、画像生成装置10は、例えば、パーソナルコンピュータやサーバ装置等であり、通信部11と、記憶部12と、表示部13と、操作部14と、入出力インターフェース部15と、システム制御部16とを備えている。そして、システム制御部16と入出力インターフェース部15とは、システムバス17を介して接続されている。   As illustrated in FIG. 2, the image generation device 10 is, for example, a personal computer or a server device, and includes a communication unit 11, a storage unit 12, a display unit 13, an operation unit 14, and an input / output interface unit 15. The system control unit 16 is provided. The system control unit 16 and the input / output interface unit 15 are connected via a system bus 17.

通信部11は、画像生成装置10の外部等とのデータや信号の送受信を行う。例えば、ネットワーク接続に使用される。   The communication unit 11 transmits and receives data and signals to and from the outside of the image generation apparatus 10. For example, it is used for network connection.

記憶部12は、例えば、ハードディスクドライブ等からなり、オペレーティングシステム、制御用のプログラムや画像処理用のプログラム等を記憶する。動画の場合、1フレーム前のデプスマップを記憶する。   The storage unit 12 includes, for example, a hard disk drive and stores an operating system, a control program, an image processing program, and the like. In the case of a moving image, the depth map one frame before is stored.

表示部13は、例えば、液晶表示素子またはEL(Electro Luminescence)素子等によって構成されている。表示部13には、撮像装置20により撮像された被写体5の画像や、生成された画像が表示される。また、表示部13は、レンチキュラーレンズ、パララックスバリア等のスクリーンを有する。   The display unit 13 is configured by, for example, a liquid crystal display element or an EL (Electro Luminescence) element. The display unit 13 displays the image of the subject 5 captured by the imaging device 20 and the generated image. The display unit 13 includes a screen such as a lenticular lens or a parallax barrier.

操作部14は、例えば、キーボードおよびマウス等によって構成されている。   The operation unit 14 is configured by, for example, a keyboard and a mouse.

入出力インターフェース部15は、撮像装置20aおよび撮像装置20bの出力端に直接接続される部分で、画像入力手段10aの機能を実現するインターフェースである。撮像装置20(20a、20b)、通信部11および記憶部12とシステム制御部16とのインターフェースである。   The input / output interface unit 15 is a part directly connected to the output ends of the imaging device 20a and the imaging device 20b, and is an interface that realizes the function of the image input means 10a. This is an interface between the imaging device 20 (20a, 20b), the communication unit 11, the storage unit 12, and the system control unit 16.

システム制御部16は、例えば、CPU16aと、ROM16bと、RAM16cとを有する。システム制御部16は、CPU16aが、ROM16bや、RAM16cや、記憶部12に記憶された各種プログラムを読み出して実行する。例えば、システム制御部16は、画像処理のプログラムを実行し、特徴点選択手段10e、パターンマッチング手段10f、デプスマップ構築手段10g、デプスマップ時間平均化手段10h、画像合成手段10j等の機能を実現する。なお、システム制御部16は、記録媒体から各種プログラムを読み出し、実行してもよい。   The system control unit 16 includes, for example, a CPU 16a, a ROM 16b, and a RAM 16c. In the system control unit 16, the CPU 16 a reads out and executes various programs stored in the ROM 16 b, the RAM 16 c, and the storage unit 12. For example, the system control unit 16 executes an image processing program and realizes functions such as a feature point selection unit 10e, a pattern matching unit 10f, a depth map construction unit 10g, a depth map time averaging unit 10h, an image synthesis unit 10j, and the like. To do. The system control unit 16 may read and execute various programs from the recording medium.

(1.3 仮想的な撮像装置の位置)
次に、仮想的な撮像装置の位置(仮想位置)について図3を用いて説明する。
図3は、撮像装置20a、20bの位置と、仮想的な撮像装置の位置との位置関係の一例を示す模式図である。
(1.3 Position of virtual imaging device)
Next, the position (virtual position) of the virtual imaging device will be described with reference to FIG.
FIG. 3 is a schematic diagram illustrating an example of a positional relationship between the positions of the imaging devices 20a and 20b and the position of the virtual imaging device.

図3に示すように、撮像装置20aと撮像装置20bとは、x方向(例えば水平方向)に距離Lで設置されている。撮像装置20aと撮像装置20bとの間に、仮想的な撮像装置25が、例えば、3台設定される。撮像装置25a、撮像装置25b、および、撮像装置25cは等間隔に設定される。撮像装置20aの設置位置の第1位置0を基準として、撮像装置20bの設置位置の第2位置Lとすると、第3位置の一例として、撮像装置25aの場合、位置L/4、撮像装置25bの場合、位置L/2、撮像装置25cの場合、位置3L/4が設定される。ここで、仮想的な撮像装置25により撮像された場合の画像を第3画像の一例とする。なお、視点が8つの場合、仮想的な撮像装置25が6台設置される。   As shown in FIG. 3, the imaging device 20a and the imaging device 20b are installed at a distance L in the x direction (for example, the horizontal direction). For example, three virtual imaging devices 25 are set between the imaging device 20a and the imaging device 20b. The imaging device 25a, the imaging device 25b, and the imaging device 25c are set at equal intervals. Assuming that the first position 0 of the installation position of the imaging device 20a is the second position L of the installation position of the imaging device 20b, as an example of the third position, in the case of the imaging device 25a, the position L / 4, the imaging device 25b. In this case, the position L / 2 is set, and in the case of the imaging device 25c, the position 3L / 4 is set. Here, an image taken by the virtual imaging device 25 is taken as an example of the third image. If there are eight viewpoints, six virtual imaging devices 25 are installed.

[2.画像生成システムの動作]
(2.1 画像生成システムの動作)
次に、本発明の1実施形態に係る画像生成システムの動作について図4から図12を用いて説明する。
図4は、画像生成装置の動作例を示すフローチャートである。図5は、撮像装置により撮像された画像の一例を示す模式図である。図6は、撮像された画像に対するスキャン方向の一例を示す模式図である。図7は、特徴点の選択の一例を示す模式図である。図8は、対応する特徴点の一例を示す模式図である。図9は、対応する特徴点を探索する際の類似度の一例を示すグラフである。図10は、ノイズ処理をする前のデプスマップの一例を示す模式図である。図11は、生成されたデプスマップの一例を示す模式図である。図12は、多視点映像生成の一例を示す模式図である。図13は、多視点映像生成の一例を示す模式図である。
[2. Operation of image generation system]
(2.1 Operation of image generation system)
Next, the operation of the image generation system according to the embodiment of the present invention will be described with reference to FIGS.
FIG. 4 is a flowchart illustrating an operation example of the image generation apparatus. FIG. 5 is a schematic diagram illustrating an example of an image captured by the imaging device. FIG. 6 is a schematic diagram illustrating an example of a scan direction with respect to a captured image. FIG. 7 is a schematic diagram illustrating an example of selection of feature points. FIG. 8 is a schematic diagram illustrating an example of corresponding feature points. FIG. 9 is a graph showing an example of similarity when searching for a corresponding feature point. FIG. 10 is a schematic diagram illustrating an example of a depth map before performing noise processing. FIG. 11 is a schematic diagram illustrating an example of the generated depth map. FIG. 12 is a schematic diagram illustrating an example of multi-view video generation. FIG. 13 is a schematic diagram illustrating an example of multi-view video generation.

まず、画像生成システムの動作として、画像生成装置10のシステム制御部16は、図3に示すように、第3位置の一例として、仮想的な撮像装置25a、25b、25cの位置(例えば、L/4、L/2、3L/4)を予め設定しておく。   First, as an operation of the image generation system, the system control unit 16 of the image generation apparatus 10, as illustrated in FIG. 3, uses the positions of virtual imaging devices 25 a, 25 b, and 25 c (for example, L / 4, L / 2, 3L / 4) are set in advance.

次に、図4に示すように、画像生成装置10は、左右の画像の入力を受け付ける(ステップS1)。具体的には、画像生成装置10のシステム制御部16は、図5に示すように、被写体5を左側から撮像した画像30a(第1画像の一例)を、撮像装置20aから受け付け、右側から撮像した画像30b(第2画像の一例)を、撮像装置20bから受け付ける。画像30aは、撮像装置20aの位置(第1位置の一例)から撮像した画像であり、画像30bは、撮像装置20bの位置(第2位置の一例)から撮像した画像である。なお、画像のデータは、RGB信号のデータである。   Next, as illustrated in FIG. 4, the image generation apparatus 10 receives input of left and right images (step S <b> 1). Specifically, as illustrated in FIG. 5, the system control unit 16 of the image generation apparatus 10 receives an image 30a (an example of a first image) obtained by imaging the subject 5 from the left side, and captures the image from the right side. The received image 30b (an example of the second image) is received from the imaging device 20b. The image 30a is an image captured from the position of the imaging device 20a (an example of the first position), and the image 30b is an image captured from the position of the imaging device 20b (an example of the second position). The image data is RGB signal data.

このように、画像生成装置10は、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段の一例として機能する。   As described above, the image generation device 10 functions as an example of an image input unit that receives input of the first image captured from the first position and the second image captured from the second position by the plurality of imaging units.

なお、画像30aおよび画像30bは、HDMI(High-Definition Multimedia Interface)のサイドバイサイド映像で、画像30aおよび画像30bは、横方向(x方向)に0.50倍してある。また、左右の画像はコンピュータグラフィックスで作成された画像でもよい。   The image 30a and the image 30b are side-by-side images of HDMI (High-Definition Multimedia Interface), and the image 30a and the image 30b are multiplied by 0.50 in the horizontal direction (x direction). The left and right images may be images created by computer graphics.

次に、画像生成装置10は、画像を画像Lと画像Rとに分離する(ステップS2)。具体的には、システム制御部16は、LR分離手段10bの一例として、サイドバイサイド映像を、画像L(画像30a)と画像R(画像30b)とに分離する。なお、既に分離されている状態であれば、この処理を省略してもよい。   Next, the image generation device 10 separates the image into the image L and the image R (step S2). Specifically, the system control unit 16 separates a side-by-side image into an image L (image 30a) and an image R (image 30b) as an example of the LR separation unit 10b. Note that this process may be omitted if it is already separated.

次に、画像生成装置10は、画像を縮小する(ステップS3)。システム制御部16は、画像縮小・フィルタ手段10cの一例として、以下の処理の高速化を図るため、左右の高解像度の画像30a、30bを、例えば、縦1/3、横1/3に縮小する。そして、システム制御部16は、縮小した画像に対して、ガウスフィルタをかけ、ぼやけた画像を生成する。   Next, the image generation device 10 reduces the image (step S3). As an example of the image reduction / filter unit 10c, the system control unit 16 reduces the left and right high-resolution images 30a and 30b to, for example, 1/3 vertical and 1/3 horizontal in order to speed up the following processing. To do. Then, the system control unit 16 applies a Gaussian filter to the reduced image to generate a blurred image.

次に、画像生成装置10は、グレースケール変換する(ステップS4)。システム制御部16は、グレースケール変換手段10dの一例として、縮小しガウスフィルタをかけた各画像30a、30bを、輝度値(明度)に変換してグレースケールに変換する。   Next, the image generation device 10 performs gray scale conversion (step S4). As an example of the gray scale conversion unit 10d, the system control unit 16 converts each image 30a, 30b that has been reduced and applied a Gaussian filter into a luminance value (brightness) and converted into a gray scale.

次に、画像生成装置10は、特徴点を選択する(ステップS5)。具体的には、システム制御部16は、特徴点選択手段10eの一例として、図6に示すよう、グレースケールに変換された画像30a、30bを、x方向にスキャンして、1画素毎に、隣り合う画素との明るさの差分を求める。この明るさの差分を固有値とする。例えば、x方向にスキャンした1ライン分の画像データ(ラインデータ)における固有値は、図7に示すようになる。そして、システム制御部16は、図7に示すように、固有値が、設定した閾値を越えた値(例えば、固有値が10以上)を持つ画素の座標を特徴点の画素40a、41aとして選択して抽出する。なお、スキャン方向のx方向は、第1位置と第2位置とを結ぶ方向の一例である。なお、また、ヘッセ行列や、エッジ強度等から固有値を求めてもよい。   Next, the image generation device 10 selects feature points (step S5). Specifically, as an example of the feature point selection unit 10e, the system control unit 16 scans images 30a and 30b converted to gray scale in the x direction as shown in FIG. The brightness difference between adjacent pixels is obtained. This difference in brightness is set as an eigenvalue. For example, eigenvalues in image data (line data) for one line scanned in the x direction are as shown in FIG. Then, as shown in FIG. 7, the system control unit 16 selects, as the feature point pixels 40 a and 41 a, the coordinates of pixels whose eigenvalues exceed the set threshold (for example, the eigenvalue is 10 or more). Extract. The x direction in the scan direction is an example of a direction connecting the first position and the second position. In addition, the eigenvalue may be obtained from a Hessian matrix, edge strength, or the like.

このように、画像生成装置10は、第1画像および第2画像から、第1画像および第2画像の特徴点を抽出する特徴点抽出手段の一例として機能する。   As described above, the image generation device 10 functions as an example of a feature point extraction unit that extracts feature points of the first image and the second image from the first image and the second image.

次に、画像生成装置10は、対応する特徴点を探索する(ステップS6)。システム制御部16は、パターンマッチング手段10fの一例として、図8に示すように、例えば、左の縮小されたグレースケールの画像30aを用いて得られた特徴点の画素40a、41aの位置のパターンを、パターンマッチングにより、右の縮小されたグレースケールの画像30bから探し出し、対応点として採用する。なお、パターンマッチングは、既存のパターンマッチングでよく、例えば、システム制御部16は、画像30aの特徴点位置のパターンをテンプレートして、SAD(Sum of Absolute Difference)、SSD(Sum of Squared Difference)、正規化相互相関法により、パターンマッチングを行う。   Next, the image generation device 10 searches for a corresponding feature point (step S6). As an example of the pattern matching unit 10f, the system control unit 16 uses, as shown in FIG. 8, for example, the pattern of the positions of the feature point pixels 40a and 41a obtained using the reduced grayscale image 30a on the left. Are retrieved from the reduced grayscale image 30b on the right by pattern matching and used as corresponding points. The pattern matching may be an existing pattern matching. For example, the system control unit 16 uses the pattern of the feature point position of the image 30a as a template, SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), Pattern matching is performed by a normalized cross correlation method.

図9に示すように、システム制御部16は、パターンマッチングにより得られた最も類似しているパターン位置(対応点)と特徴点位置の距離(x座標のずれ)から、特徴点の奥行情報を算出する。システム制御部16は、算出された奥行情報をデプス値Sと定義し、この奥行情報を画素毎(特に、特徴点である画素毎)に記憶する。例えば、左の画像30aを基準画像、右の画像30bを比較画像とし、特徴点位置をPrefとし、比較画像(画像30b)でマッチした点(対応点)の位置をPcmpとしたとき、
デプス値Sは、
S=Pref−Pcmp
となる。このデプス値は、マイナスからプラスの値を取る。右画像30aの左側に対応点があったらプラス、右側にあったらマイナスとなる。
As shown in FIG. 9, the system control unit 16 obtains the depth information of the feature point from the distance between the most similar pattern position (corresponding point) obtained by pattern matching and the feature point position (deviation of the x coordinate). calculate. The system control unit 16 defines the calculated depth information as a depth value S, and stores this depth information for each pixel (particularly, for each pixel that is a feature point). For example, when the left image 30a is a reference image, the right image 30b is a comparison image, the feature point position is Pref, and the matching point (corresponding point) position in the comparison image (image 30b) is Pcmp,
Depth value S is
S = Pref−Pcmp
It becomes. This depth value ranges from minus to plus. Positive if there is a corresponding point on the left side of the right image 30a, negative if it is on the right side.

図10に示すように、各画素におけるデプス値を当てはめてデプスマップの原型(ノイズ処理する前のデプスマップ)が得られる。なお、このデプスマップの原型には、特徴点でない画素において、デプス値が決まっていない。さらに、このデプスマップの原型には、画像30aおよび画像30bのうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズが存在する。例えば、オクルージョンにより、画像30aに存在し、画像30bに存在しない特徴点があるので、特徴点の対応関係が不正確になり、正確でないデプス値になる。また、対応点がない特徴点にデプス値が割り当てられるノイズも存在する。   As shown in FIG. 10, a depth map prototype (a depth map before noise processing) is obtained by applying the depth value in each pixel. Note that, in the original depth map, depth values are not determined for pixels that are not feature points. Further, the original depth map includes occlusion noise caused by occlusion that exists in one of the images 30a and 30b but does not exist in the other image. For example, due to occlusion, there is a feature point that exists in the image 30a and does not exist in the image 30b. Therefore, the correspondence between the feature points becomes inaccurate, resulting in an incorrect depth value. There is also noise in which depth values are assigned to feature points that do not have corresponding points.

このように、画像生成装置10は、複数の撮像手段が設置された設置方向に関連する走査方向(例えば、x方向)に、第1画像および第2画像を走査して、第1画像と第2画像とにおいて走査方向における対応する特徴点を求める対応点探索手段の一例として機能する。また、画像生成装置10は、対応する特徴点の間の距離より、特徴点における奥行情報(例えば、デプス値)を算出する奥行情報算出手段の一例として機能する。   As described above, the image generation apparatus 10 scans the first image and the second image in the scanning direction (for example, the x direction) related to the installation direction in which the plurality of imaging units are installed, and the first image and the first image are scanned. It functions as an example of corresponding point search means for obtaining corresponding feature points in the scanning direction in two images. Further, the image generation device 10 functions as an example of a depth information calculation unit that calculates depth information (for example, depth value) at a feature point from a distance between corresponding feature points.

次に、画像生成装置10は、デプスマップを構築する(ステップS7)。デプスマップの原型には、オクルージョンノイズ等のノイズや、デプス値が求まっていない画素が存在するので、デプスマップの原型から、ノイズ等を取り除いた自然なデプスマップを構築する必要がある。そのため、画像生成装置10は、デプスマップ構築手段10gの一例として、デプスマップの原型に対して、横方向(x方向)にLPF(low-pass filter)を適用する処理(横方向ローパスフィルタ処理)、横方向平均を適用する処理(横方向平均化処理)、横方向FILLを適用する処理(横方向補完処理)、縦方向(y方向)にLPFを適用する処理(縦方向ローパスフィルタ処理)、縦方向に平均を適用する処理(縦方向平均化処理)を順に行う。デプスマップを構築する処理により、図11に示すように、動画における1フレーム分のデプスマップが生成される。なお、デプスマップを構築する処理に関して、デプスマップの構築のサブルーチンにおいて詳細に説明する。なお、画像生成装置10は、左の画像30aまたは右の画像30bに対するデプスマップのみでも、左の画像30aおよび右の画像30bに対するデプスマップを構築してもよい。   Next, the image generation device 10 constructs a depth map (step S7). Since there are noises such as occlusion noise and pixels whose depth values are not found in the original depth map, it is necessary to construct a natural depth map by removing noise and the like from the original depth map. Therefore, as an example of the depth map construction unit 10g, the image generation device 10 applies LPF (low-pass filter) in the horizontal direction (x direction) to the original depth map (horizontal low-pass filter processing). , Processing to apply horizontal average (horizontal averaging processing), processing to apply horizontal FILL (horizontal complement processing), processing to apply LPF in the vertical direction (y direction) (vertical low-pass filter processing), A process of applying an average in the vertical direction (vertical direction averaging process) is sequentially performed. By the process of constructing the depth map, a depth map for one frame in the moving image is generated as shown in FIG. The process for constructing the depth map will be described in detail in the subroutine for constructing the depth map. Note that the image generation apparatus 10 may construct a depth map for the left image 30a and the right image 30b, or a depth map for the left image 30a and the right image 30b.

次に、画像生成装置10は、デプスマップの時間平均を求める(ステップS8)。システム制御部16は、デプスマップ時間平均化手段10hの一例として、1フレーム前に時間平均化されたデプスマップ(PAST_DEPTH)を記憶部12から読み出し、1フレーム前のデプスマップと、構築されたデプスマップ(CURRENT_DEPTH)との時間平均化処理を行い、時間平均化されたデプスマップ(USE_DEPTH)を求める。
USE_DEPTH=α×PAST_DEPTH+(1−α)×CURRENT_DEPTH
ここで、1フレーム前のデプスマップと、構築されたデプスマップとのブレンド率αは、0.0〜1.0である。
Next, the image generation device 10 obtains a time average of the depth map (step S8). As an example of the depth map time averaging means 10h, the system control unit 16 reads the depth map (PAST_DEPTH) time-averaged one frame before from the storage unit 12, and the depth map one frame before and the constructed depth map Time averaging with the map (CURRENT_DEPTH) is performed to obtain a time averaged depth map (USE_DEPTH).
USE_DEPTH = α × PAST_DEPTH + (1-α) × CURRENT_DEPTH
Here, the blend rate α between the depth map one frame before and the constructed depth map is 0.0 to 1.0.

そして、システム制御部16は、デプスマップ記憶手段10iの一例として、記憶部12において、1フレーム前に時間平均化されたデプスマップ(PAST_DEPTH)を、求めた時間平均化されたデプスマップ(USE_DEPTH)に書き換え、次のフレームのデプスマップのブレンドに使用する。   Then, as an example of the depth map storage unit 10i, the system control unit 16 uses the storage unit 12 to calculate the time averaged depth map (PAST_DEPTH) one frame before, and obtain the time averaged depth map (USE_DEPTH). Used to blend the depth map of the next frame.

ステップ7において、構築されたデプスマップは、動画に適用したときに、前フレームと現フレームで大きく変化する場合がある。それが観測者(視聴者)にとって不自然な立体画像になる要因となる。それを回避するために、時間平均化処理により、デプスの変化量を緩衝させることで自然なデプスマップを表現している。なお、時間平均化処理により、量子化誤差、圧縮によるノイズ、蛍光灯の点滅による誤差が軽減される。   In step 7, the constructed depth map may change greatly between the previous frame and the current frame when applied to a moving image. This is a factor that results in an unnatural stereoscopic image for the observer (viewer). In order to avoid this, a natural depth map is expressed by buffering the amount of change in depth by time averaging processing. Note that the time averaging process reduces quantization errors, noise due to compression, and errors due to flickering of fluorescent lamps.

このように、画像生成装置10は、第1画像および第2画像が動画であって、走査方向とは異なる方向に平均化された奥行情報を、動画のフレーム間で平均化するフレーム間平均手段の一例として機能する。   In this way, the image generating apparatus 10 uses the inter-frame averaging means for averaging the depth information averaged in the direction different from the scanning direction when the first image and the second image are moving images. Functions as an example.

次に、画像生成装置10は、デプスマップと原画像を合成する(ステップS9)。システム制御部16は、画像合成手段10jの一例として、ステップS3において、画像が縮小され、縮小された画像に対して構築されたデプスマップであるので、デプスマップを表示画像の解像度まで単純に引き伸ばし拡大する。   Next, the image generation device 10 synthesizes the depth map and the original image (step S9). As an example of the image composition unit 10j, the system control unit 16 reduces the image in step S3 and is a depth map constructed for the reduced image. Therefore, the system control unit 16 simply stretches the depth map to the resolution of the display image. Expanding.

そして、図12に示すように、システム制御部16は、左の画像30aのデプスマップの場合、この拡大された拡大デプスマップと、画像30aとを合成して、多視点画像を生成する。   Then, as shown in FIG. 12, in the case of the depth map of the left image 30a, the system control unit 16 synthesizes the enlarged depth map and the image 30a to generate a multi-viewpoint image.

なお、多視点画像を生成する前に、画像生成装置10は、高解像度の画像30aが、表示画面のサイズと乖離があるようであれば、必要に応じて画像30aを拡大してから、多視点画像を生成する。例えば、サイドバイサイドの画像であれば、幅が半分しかないので、必要に応じて横方向に2倍する。   Before generating the multi-viewpoint image, the image generation apparatus 10 enlarges the image 30a as necessary if the high-resolution image 30a is different from the size of the display screen. Generate a viewpoint image. For example, in the case of a side-by-side image, the width is only half, so it is doubled in the horizontal direction as necessary.

画像生成装置10のシステム制御部16は、図12に示すように、画像30aのラインデータの画素を、デプスマップにおけるデプス値と視点の位置とに応じて、シフトすることより、各視点の画像を生成する。デプスマップにおけるデプス値が大きい値ほど、視点に応じて、左の画像30aの画素が左にシフトされる。このずれの度合いを変化させることで多視点画像が生成できる。なお、画像生成装置10は、右の画像30bのデプスマップと右の画像30bとから多視点画像を生成してもよいし、左右の画像30a、30bのデプスマップと、左右の画像30a、30bとから多視点画像を生成してもよい。   As shown in FIG. 12, the system control unit 16 of the image generation apparatus 10 shifts the pixels of the line data of the image 30 a according to the depth value and the position of the viewpoint in the depth map. Is generated. As the depth value in the depth map increases, the pixel of the left image 30a is shifted to the left according to the viewpoint. A multi-viewpoint image can be generated by changing the degree of deviation. The image generation apparatus 10 may generate a multi-viewpoint image from the depth map of the right image 30b and the right image 30b, or the depth map of the left and right images 30a and 30b and the left and right images 30a and 30b. A multi-viewpoint image may be generated from the above.

画素の走査方向におけるシフト量shiftは、下記計算式で求める。
shift = ((Sight-1)/8) × Coef ×Depth(x,y)
The shift amount shift in the scanning direction of the pixel is obtained by the following calculation formula.
shift = ((Sight-1) / 8) x Coef x Depth (x, y)

ここで、Sightは視点番号であって、1〜8と変動する。Coefは、係数であって、例えば、1.0とする。Depth(x,y)は、xy座標のデプス値であって、−10〜10の値が入るものとする。   Here, Sight is a viewpoint number and varies from 1 to 8. Coef is a coefficient, for example, 1.0. Depth (x, y) is a depth value of xy coordinates, and a value of −10 to 10 is entered.

画像生成装置10が、この計算を行うことによって、xy座標の画素の必要シフト量が視点毎に求まり、視点毎の画像が生成される。なお、シフトしただけでは、画素が存在しない空きがあるので、図13に示すように、画像生成装置10が、空きの両端のデプス値を比較し、デプス値が低い方の画素の値により空きを埋める。また、この多視点画像生成方法は、上記の計算式のようにシフト量が簡易に求まり、メモリが少なく、処理が早くなる。   By performing this calculation, the image generation apparatus 10 obtains the necessary shift amount of the pixel in the xy coordinates for each viewpoint, and generates an image for each viewpoint. In addition, since there is a vacant space where pixels do not exist just by shifting, the image generation apparatus 10 compares the depth values at both ends of the vacant space as shown in FIG. 13, and vacant according to the value of the pixel with the lower depth value. Fill. Further, in this multi-viewpoint image generation method, the shift amount can be easily obtained as in the above calculation formula, the memory is small, and the processing is accelerated.

このように、画像生成装置10は、走査方向とは異なる方向に平均化された奥行情報と、第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成手段の一例として機能する。   As described above, the image generation apparatus 10 generates a multi-viewpoint image having different viewpoints from the depth information averaged in a direction different from the scanning direction and at least one of the first image and the second image. It functions as an example of generating means.

次に、画像生成装置10は、合成された画像を表示する(ステップS10)。図14に示すように、システム制御部16は、合成された画像の一例である多視点画像を表示部13に表示する。例えば、裸眼式の3次元の画像へフォーマット変換するために、画像生成装置10は、多視点画像の画素のRGBデータのそれぞれを、各視点(第3位置の一例)に応じて割り当て、表示部13に表示する。多視点画像を画素単位で並べることにより、多重化して表示部13の画面に表示することで立体視を行う。   Next, the image generation device 10 displays the synthesized image (step S10). As illustrated in FIG. 14, the system control unit 16 displays a multi-viewpoint image, which is an example of a combined image, on the display unit 13. For example, in order to perform format conversion to a naked-eye type three-dimensional image, the image generation apparatus 10 assigns each of RGB data of pixels of the multi-viewpoint image according to each viewpoint (an example of the third position), and displays the display unit. 13 is displayed. By arranging the multi-viewpoint images in units of pixels, the images are multiplexed and displayed on the screen of the display unit 13 to perform stereoscopic viewing.

このように、画像生成装置10は、第1位置および第2位置に対する第3位置の位置関係に従い、第1画像における走査方向とは異なる方向に平均化された奥行情報と、第2画像における走査方向とは異なる方向に平均化された奥行情報とから、第3画像における走査方向とは異なる方向に平均化された奥行情報を求め、当該第1画像、第2画像および第3画像における奥行情報と、第1画像と、第2画像とから、立体画像を生成する多視点画像生成手段の一例として機能する。   As described above, the image generation apparatus 10 performs the depth information averaged in a direction different from the scanning direction in the first image and the scanning in the second image according to the positional relationship of the third position with respect to the first position and the second position. The depth information averaged in the direction different from the scanning direction in the third image is obtained from the depth information averaged in the direction different from the direction, and the depth information in the first image, the second image, and the third image is obtained. And, it functions as an example of a multi-viewpoint image generation unit that generates a stereoscopic image from the first image and the second image.

(2.2 デプスマップ構築のサブルーチン)
次に、デプスマップ構築のサブルーチンについて、図15から図18を用いて説明する。
図15は、デプスマップの構築のサブルーチンの一例を示すフローチャートである。図16は、デプスマップのラインデータにおけるx方向ローパスフィルタ処理の一例を示す模式図である。図17は、デプスマップのラインデータにおけるx方向平均処理の一例を示す模式図である。図18は、デプスマップのラインデータにおけるx方向FILL処理の一例を示す模式図である。
(2.2 Subroutine for depth map construction)
Next, a depth map construction subroutine will be described with reference to FIGS.
FIG. 15 is a flowchart illustrating an example of a depth map construction subroutine. FIG. 16 is a schematic diagram illustrating an example of an x-direction low-pass filter process on the depth map line data. FIG. 17 is a schematic diagram illustrating an example of an x-direction average process in the depth map line data. FIG. 18 is a schematic diagram illustrating an example of an x-direction FILL process for line data of a depth map.

図15に示すように、画像生成装置10は、デプスマップの原型に横方向(x方向)にLPFを適用する(ステップS20)。具体的には、画像生成装置10のシステム制御部16が、特徴点における奥行情報を有するデプスマップの原型に、横方向ローパスフィルタをかけることにより、パターンマッチングで得られた奥行情報からノイズを除去する。なお、この処理はライン毎に実施される。   As shown in FIG. 15, the image generating apparatus 10 applies LPF in the horizontal direction (x direction) to the original depth map (step S20). Specifically, the system control unit 16 of the image generation apparatus 10 removes noise from the depth information obtained by pattern matching by applying a horizontal low-pass filter to the original depth map having depth information at feature points. To do. This process is performed for each line.

図15に示すように、間欠的に特徴点の画素におけるデプス値が存在している。画像生成装置10は、走査方向xに先頭の特徴点の画素からデプス値を順次参照していく。例えば、画像生成装置10は、処理対象の特徴点(所定の特徴点の一例)の画素のデプス値depthとすると、走査方向xにおいて、1つ前の特徴点の画素のデプス値pre_depth(所定の特徴点の近辺にある特徴点における奥行情報の一例)と、さらに1つ前の特徴点の画素のデプス値pre_pre_depth(所定の特徴点の近辺にある特徴点における奥行情報の一例)とから、次式のように、差の絶対値を求める。
D1=abs(pre_pre_depth − depth)
D2=abs(pre_depth − depth)
As shown in FIG. 15, there are intermittent depth values at feature point pixels. The image generation apparatus 10 sequentially refers to the depth value from the pixel at the head feature point in the scanning direction x. For example, assuming that the depth value depth of the pixel of the feature point to be processed (an example of the predetermined feature point) is the depth value pre_depth (predetermined value of the pixel of the previous feature point in the scanning direction x. From the depth value pre_pre_depth (an example of depth information at the feature point near the predetermined feature point) of the pixel of the previous feature point from the following: The absolute value of the difference is obtained as in the equation.
D1 = abs (pre_pre_depth−depth)
D2 = abs (pre_depth−depth)

図16に示すように、画像生成装置10は、値D1、D2が、所定の閾値θ1以下の場合(D1<=θ and D2<=θ1)、その特徴点の画素のデプス値は残し、それ以外の場合は、その特徴点の画素を削除する。画像生成装置10は、この処理を各ラインデータに対応したデプスマップの原型に対して行う。なお、走査方向xにおいて、先頭の2点の特徴点の画素のデプス値は、処理対象としない。また、デプス値を残した場合でも、削除した場合でも、デプス値pre_pre_depthをデプス値pre_depthに入れ替え、デプス値pre_depthをデプス値depthに入れ替えて、次の処理対象の特徴点に移る。なお、閾値θ1は、D1とD2とに対して異なってもよい。   As shown in FIG. 16, when the values D1 and D2 are equal to or smaller than a predetermined threshold θ1 (D1 <= θ and D2 <= θ1), the image generating apparatus 10 leaves the depth value of the pixel at the feature point, Otherwise, the pixel at that feature point is deleted. The image generation apparatus 10 performs this process on the original depth map corresponding to each line data. Note that the depth values of the pixels of the first two feature points in the scanning direction x are not processed. Also, whether the depth value is left or deleted, the depth value pre_pre_depth is replaced with the depth value pre_depth, the depth value pre_depth is replaced with the depth value depth, and the process proceeds to the next feature point to be processed. The threshold value θ1 may be different for D1 and D2.

このように、画像生成装置10は、処理対象の特徴点の画素のデプス値と、1つ前の特徴点の画素のデプス値と、2つ前の特徴点の画素のデプス値とから、デジタルフィルタのローパスフィルタのような処理をすることによって、オクルージョンノイズ軽減処理(横方向ローパスフィルタ)を行う。特に、スパイクノイズ的な雑音が取り除かれる。また、アンダーシュート的な周りの特徴点のデプス値に比べ窪んだところが取り除かれる。なお、オクルージョンノイズ軽減処理は、処理対象の特徴点の画素のデプス値、1つ前または1つ後の特徴点の画素のデプス値により行ってもよい。また、オクルージョンノイズ軽減処理は、処理対象の特徴点の画素のデプス値と、1つ前の特徴点の画素のデプス値と、2つ前の特徴点の画素のデプス値と、2つ前の特徴点の画素のデプス値とにより行ってもよい。また、オクルージョンノイズ軽減処理は、特徴点の画素を削除せず、通常のデジタルフィルタのローパスフィルタのように、デプス値は下げる処理でもよい。   As described above, the image generation apparatus 10 calculates the digital value from the depth value of the pixel of the feature point to be processed, the depth value of the pixel of the previous feature point, and the depth value of the pixel of the previous feature point. Occlusion noise reduction processing (lateral low-pass filter) is performed by performing processing such as a low-pass filter. In particular, spike noise is removed. In addition, the recessed portion is removed as compared with the depth value of the surrounding feature point like an undershoot. Note that the occlusion noise reduction processing may be performed based on the depth value of the pixel at the feature point to be processed, or the depth value of the pixel at the previous or next feature point. In addition, the occlusion noise reduction processing is performed with the depth value of the pixel of the feature point to be processed, the depth value of the pixel of the previous feature point, the depth value of the pixel of the previous feature point, and the second previous value. You may carry out by the depth value of the pixel of a feature point. Further, the occlusion noise reduction process may be a process of reducing the depth value without deleting the feature point pixels as in a low pass filter of a normal digital filter.

このように、画像生成装置10は、第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、奥行情報から軽減するオクルージョンノイズ軽減手段の一例として機能する。また、画像生成装置10は、走査方向において、所定の特徴点の近辺にある特徴点における奥行情報に基づき、所定の特徴点の奥行情報を削除するか否かを判定して、当該削除すると判定した場合、所定の特徴点の奥行情報を削除するオクルージョンノイズ軽減手段の一例として機能する。また、画像生成装置10は、走査方向において、所定の特徴点の奥行情報と、所定の特徴点の近辺にある特徴点における奥行情報との差(例えば、D1、D2)が、所定値(例えば、θ1)以上の場合、所定の特徴点の奥行情報を削除するオクルージョンノイズ軽減手段の一例として機能する。   As described above, the image generation apparatus 10 is an example of an occlusion noise reduction unit that reduces occlusion noise caused by occlusion that exists in one of the first image and the second image but does not exist in the other image from the depth information. Function. Further, the image generation apparatus 10 determines whether or not to delete the depth information of the predetermined feature point based on the depth information of the feature point in the vicinity of the predetermined feature point in the scanning direction, and determines to delete the information. In this case, it functions as an example of an occlusion noise reduction unit that deletes the depth information of a predetermined feature point. In addition, in the scanning direction, the image generation apparatus 10 determines that a difference (for example, D1 and D2) between depth information of a predetermined feature point and depth information of a feature point near the predetermined feature point is a predetermined value (for example, , Θ1) or more, it functions as an example of an occlusion noise reduction unit that deletes depth information of a predetermined feature point.

次に、画像生成システム1は、横方向(x方向)平均を適用する(ステップS21)。システム制御部16が、横方向ローパスフィルタによるオクルージョンによるノイズが削除された状態から、走査方向における特徴点の画素におけるデプス値の平均化を行う。例えば、図17に示すように、システム制御部16が、平均における中心のデプス値を支配的にするために奇数個の特徴点の画素を用いて、次式により平均化を行う。
平均のデプス値=(d1+d2+d2+d3)/4
Next, the image generation system 1 applies the horizontal direction (x direction) average (step S21). The system control unit 16 averages the depth values of the feature point pixels in the scanning direction from the state in which the noise due to the occlusion by the horizontal low-pass filter is deleted. For example, as shown in FIG. 17, the system control unit 16 performs averaging according to the following equation using pixels of an odd number of feature points in order to make the central depth value in the average dominant.
Average depth value = (d1 + d2 + d2 + d3) / 4

ここで、デプス値d2は、処理対象の特徴点の画素のデプス値、デプス値d1は、走査方向xにおいて1つ前の特徴点の画素のデプス値、デプス値d3は、走査方向xにおいて1つ後の特徴点の画素のデプス値である。   Here, the depth value d2 is the depth value of the pixel of the feature point to be processed, the depth value d1 is the depth value of the pixel of the previous feature point in the scanning direction x, and the depth value d3 is 1 in the scanning direction x. This is the depth value of the pixel at the next feature point.

このように、画像生成装置10は、補完された奥行情報に対して、走査方向における平均化を行う第2平均化手段の一例として機能する。   As described above, the image generation apparatus 10 functions as an example of a second averaging unit that performs averaging in the scanning direction with respect to the complemented depth information.

なお、横方向平均処理は省略してもよいが、この処理によって、デプス値がより平滑化される効果と、ノイズがより除去される効果によって、より自然なデプスマップが生成される。なお、ハードウェアで演算を容易化するため2のべき乗個の画素で実行することが好ましい。   In addition, although the horizontal direction average process may be omitted, a more natural depth map is generated by the effect of smoothing the depth value and the effect of removing noise more by this process. It should be noted that it is preferable to execute with a power of 2 pixels in order to facilitate calculation by hardware.

次に、画像生成装置10は、x方向FILLを適用する(ステップS22)。図18に示すように、ステップS21において平均化されたデプスマップの原型を記憶する記憶部12には、特徴点の画素のデプス値が間欠的に存在している。特徴点に対応しない画素におけるデプス値を求める必要があるため、特徴点間の画素におけるデプス値を埋める必要がある。具体的には、システム制御部16が、図18に示すように、デプス値が設定されていない画素の両側または片側に、デプス値が存在するので、そのデプス値の高い値を用いて、デプス値が設定されていない箇所を埋めて、デプス値を補完する。   Next, the image generating apparatus 10 applies the x direction FILL (step S22). As shown in FIG. 18, the depth values of the feature point pixels intermittently exist in the storage unit 12 that stores the depth map prototypes averaged in step S <b> 21. Since it is necessary to obtain a depth value in pixels that do not correspond to feature points, it is necessary to fill in the depth values in pixels between feature points. Specifically, as shown in FIG. 18, the system control unit 16 has a depth value on both sides or one side of a pixel for which a depth value is not set. Fill in the part where the value is not set and complement the depth value.

このように、画像生成装置10は、オクルージョンノイズ軽減手段により処理された奥行情報に基づき、走査方向における特徴点の間の画素における奥行情報を補完する走査方向補完手段の一例として機能する。   As described above, the image generation device 10 functions as an example of a scanning direction complementing unit that complements depth information in pixels between feature points in the scanning direction based on the depth information processed by the occlusion noise reduction unit.

次に、画像生成装置10は、縦方向(y方向)LPFを適用する(ステップS23)。ステップS22において、デプス値が埋められた時点では、y方向に関連が薄いデプスマップが生成されている。縦方向(走査方向とは異なる方向の一例)の関連を増すために縦方向LPF処理を行う。具体的には、システム制御部16が、処理対象の画素(所定の画素の一例)のデプス値C_DEPTH、処理対象の画素から1つ上(y方向と逆)の画素のデプス値PRE_DEPTH(所定の画素の近辺にある画素における奥行情報の一例)、処理対象の画素から1つ下(y方向)のデプス値NXT_DEPTH(所定の画素の近辺にある画素における奥行情報の一例)とすると、
A_DEPTH=(PRE_DEPTH + NXT_DEPTH)/2
D=abs(C_DEPTH −A _DEPTH)
を算出する。
Next, the image generating apparatus 10 applies the vertical direction (y direction) LPF (step S23). In step S22, when the depth value is filled, a depth map having a low relation in the y direction is generated. In order to increase the relationship in the vertical direction (an example of a direction different from the scanning direction), vertical LPF processing is performed. Specifically, the system control unit 16 determines the depth value C_DEPTH of the pixel to be processed (an example of the predetermined pixel) and the depth value PRE_DEPTH (predetermined to the pixel one pixel above the processing target pixel (opposite to the y direction). An example of depth information in a pixel in the vicinity of a pixel), and a depth value NXT_DEPTH (an example of depth information in a pixel in the vicinity of a predetermined pixel) that is one pixel below the processing target pixel (y direction),
A_DEPTH = (PRE_DEPTH + NXT_DEPTH) / 2
D = abs (C_DEPTH-A_DEPTH)
Is calculated.

D>θ2の場合、システム制御部16が、処理対象の画素のデプス値に、デプス値A_DEPTHを代入する。システム制御部16が、この処理を全ての画素に対して行う。   When D> θ2, the system control unit 16 substitutes the depth value A_DEPTH for the depth value of the pixel to be processed. The system control unit 16 performs this process for all pixels.

このように、画像生成装置10は、処理対象の画素のデプス値と、y方向に隣接する画素のデプス値とから、デジタルフィルタのローパスフィルタのような処理をすることによって、y方向に関連性が高いデプス値に変換する関連性増加処理(縦方向ローパスフィルタ)を行う。なお、関連性増加処理は、処理対象の画素の近傍の画素のデプス値を用いればよく、y方向や隣接する画素に限らず、斜め方向の画素や隣接先の画素でもよい。   In this way, the image generation apparatus 10 performs processing like a low pass filter of a digital filter from the depth value of the pixel to be processed and the depth value of a pixel adjacent in the y direction, thereby relevance in the y direction. The relevance increasing process (vertical low-pass filter) for converting to a high depth value is performed. Note that the relevance increasing process may use the depth value of a pixel in the vicinity of the pixel to be processed, and is not limited to the y direction or adjacent pixels, and may be a pixel in an oblique direction or a neighboring pixel.

このように、画像生成装置10は、走査方向とは異なる方向(例えば、y方向)において、補完された奥行情報の関連性を増加させる関連性増加手段の一例として機能する。また、画像生成装置10は、走査方向とは異なる方向において、所定の画素の近辺にある画素における奥行情報に基づき、所定の画素における奥行情報を変える関連性増加手段の一例として機能する。また、画像生成装置10は、走査方向とは異なる方向において、所定の画素の近辺にある2つの画素における奥行情報の平均(例えば、A_DEPTH)と、所定の画素の奥行情報との差(例えば、D)が、所定値(例えば、θ2)以上の場合、所定の画素の奥行情報を平均の奥行情報とする関連性増加手段の一例として機能する。   As described above, the image generation device 10 functions as an example of a relevance increasing unit that increases the relevance of the complemented depth information in a direction (for example, the y direction) different from the scanning direction. Further, the image generation device 10 functions as an example of a relevance increasing unit that changes the depth information at a predetermined pixel based on the depth information at a pixel in the vicinity of the predetermined pixel in a direction different from the scanning direction. In addition, the image generation apparatus 10 may calculate the difference between the average depth information (for example, A_DEPTH) of two pixels in the vicinity of the predetermined pixel and the depth information of the predetermined pixel (for example, in a direction different from the scanning direction). When D) is equal to or greater than a predetermined value (for example, θ2), it functions as an example of a relevance increasing unit that uses the depth information of a predetermined pixel as average depth information.

次に、画像生成装置10は、縦方向(y方向)平均を適用する(ステップS24)。具体的には、システム制御部16が、縦方向ローパスフィルタを施したデプス情報に対して平均化を行う。すなわち、システム制御部16が、縦複数ラインを用いて、ラインの平均化を行い、デプスマップが構築される。例えば、ライン(y軸の値をyとする)の平均値を求めたいとき、システム制御部16が、ラインの各画素において、y方向に、y−3からy+3までのデプス値の7つの総和を算出する。そして、システム制御部16が、この総和に、更にyのデプス値を再度加え、8で割って、ラインyの平均値を求める。システム制御部16が、この縦方向平均化処理を全てのラインにおいて行い、デプスマップを構築する。   Next, the image generation device 10 applies the average in the vertical direction (y direction) (step S24). Specifically, the system control unit 16 averages the depth information subjected to the vertical low-pass filter. That is, the system control unit 16 averages lines using a plurality of vertical lines, and a depth map is constructed. For example, when it is desired to obtain an average value of a line (y axis value is y), the system control unit 16 sums seven depth values from y−3 to y + 3 in the y direction in each pixel of the line. Is calculated. Then, the system control unit 16 adds the depth value of y to this sum again and divides by 8 to obtain the average value of the line y. The system control unit 16 performs this vertical direction averaging process on all the lines, and constructs a depth map.

このように、画像生成装置10は、走査方向とは異なる方向に関連性が増加された奥行情報に対して、走査方向とは異なる方向における平均化を行う第1平均化手段の一例として機能する。   Thus, the image generation apparatus 10 functions as an example of a first averaging unit that performs averaging in a direction different from the scanning direction with respect to depth information whose relevance is increased in a direction different from the scanning direction. .

以上、本実施形態によれば、撮像した画像の特徴点における奥行情報から、オクルージョンによる生ずるオクルージョンノイズを軽減した上で、走査方向(x方向)とは異なる方向(y方向)において、奥行情報の関連性を増加させ、平均化しているので、人間にとって違和感の少ない正確な奥行情報が算出され、この奥行情報に基づき、より自然な立体画像を生成できる。   As described above, according to the present embodiment, the depth information in the feature point of the captured image is reduced in the depth information in the direction (y direction) different from the scanning direction (x direction) after reducing the occlusion noise caused by the occlusion. Since the relevance is increased and averaged, accurate depth information that is less uncomfortable for humans is calculated, and a more natural stereoscopic image can be generated based on this depth information.

また、リアルタイムでステレオ画像を多視点の立体映像に変換できる。また、高解像度映像で、リアルタイムで、高精度な、ステレオ多視点変換を可能にする。   In addition, a stereo image can be converted into a multi-view stereoscopic video in real time. It also enables high-resolution stereo multi-viewpoint conversion in real time and with high accuracy.

ステップS3において、画像を縮小した後でデプスマップを構築しているので、デプスマップの構築を簡素化できる。また、画像を縮小することにより、3D化に適したデプスマップを高速に生成できる。   In step S3, since the depth map is constructed after the image is reduced, the construction of the depth map can be simplified. Also, by reducing the image, a depth map suitable for 3D can be generated at high speed.

また、横方向ローパスフィルタとして、走査方向(ラインデータ上にある特徴点)において、所定の特徴点の近辺にある特徴点における奥行情報に基づき、所定の特徴点の奥行情報を削除するか否かを判定して、削除すると判定したときに、所定の特徴点の奥行情報を削除する場合、オクルージョンによって正確でない奥行情報が削除され、横方向平均化処理、横方向補完処理に、オクルージョンの影響が及ばなくなるので、より自然な立体画像を生成できる。   Whether or not to delete the depth information of the predetermined feature point based on the depth information of the feature point in the vicinity of the predetermined feature point in the scanning direction (the feature point on the line data) as the horizontal low-pass filter If the depth information of a predetermined feature point is deleted when it is determined to be deleted, the inaccurate depth information is deleted by occlusion, and the influence of occlusion on the horizontal direction averaging process and the horizontal direction complement process is deleted. Since it does not reach, a more natural stereoscopic image can be generated.

また、横方向ローパスフィルタとして、走査方向において、所定の特徴点の奥行情報と、所定の特徴点の近辺にある特徴点における奥行情報との差が、所定値以上の場合、所定の特徴点の奥行情報を削除する場合、奥行情報の差を求めて、差が大きい場合に削除しているので、精度よくオクルージョンを削除できる。なお、突出したデプス値(x方向において近辺の特徴点のデプス値に比べ、デプス値が極端に大きい場合、または、極端に小さい場合)は、オクルージョンである場合が多い。さらに、2段階に差D1、D2を求めて、差D1、D2に対して、判定を行う場合、さらに精度よくオクルージョンを削除できる。   As a horizontal low-pass filter, when the difference between the depth information of a predetermined feature point and the depth information of a feature point in the vicinity of the predetermined feature point is equal to or greater than a predetermined value in the scanning direction, When deleting the depth information, the difference in the depth information is obtained and deleted when the difference is large, so the occlusion can be deleted with high accuracy. Note that the protruding depth value (when the depth value is extremely large or extremely small compared to the depth value of the feature point in the vicinity in the x direction) is often occlusion. Further, when the differences D1 and D2 are obtained in two stages and the determination is performed on the differences D1 and D2, the occlusion can be deleted with higher accuracy.

走査方向とは異なる方向(例えば、y方向)において、所定の画素の近辺にある画素における奥行情報に基づき、所定の画素における奥行情報を変える場合、y方向に近辺にある画素とのデプス値の関連性が高まり、より自然なデプスマップを構築できる。   When changing depth information in a predetermined pixel based on depth information in a pixel near the predetermined pixel in a direction different from the scanning direction (for example, the y direction), the depth value of the pixel in the vicinity in the y direction is changed. Increased relevance and more natural depth maps.

また、走査方向とは異なる方向において、所定の画素の近辺にある2つの画素における前記奥行情報の平均と、所定の画素の奥行情報との差が、所定値以上の場合、所定の画素の奥行情報を前記平均の奥行情報とするときに、差が大きい場合、代わりに平均をデプス値と用いるので、滑らかな、より自然なデプスマップを構築できる。   In addition, when the difference between the average of the depth information of two pixels in the vicinity of the predetermined pixel and the depth information of the predetermined pixel is equal to or greater than a predetermined value in a direction different from the scanning direction, the depth of the predetermined pixel When the information is the average depth information, if the difference is large, the average is used instead as the depth value, so that a smoother and more natural depth map can be constructed.

また、補完された奥行情報に対して、走査方向(x方向)における平均化を行う場合、更にノイズを軽減でき、より自然なデプスマップを構築できる。   Further, when averaging in the scanning direction (x direction) is performed on the complemented depth information, noise can be further reduced and a more natural depth map can be constructed.

また、第1画像(画像30a)および第2画像(画像30b)が動画であって、走査方向とは異なる方向(例えばy方向)に平均化された奥行情報を、動画のフレーム間で平均化する場合、動画でも自然な立体画像を生成できる。   In addition, the first image (image 30a) and the second image (image 30b) are moving images, and depth information averaged in a direction different from the scanning direction (for example, the y direction) is averaged between frames of the moving images. In this case, a natural stereoscopic image can be generated even with a moving image.

また、第1位置および第2位置に対する第3位置の位置関係に従い、第1画像(画像30a)における走査方向とは異なる方向(例えば、y方向)に平均化された奥行情報と、第2画像(画像30b)における走査方向とは異なる方向に平均化された奥行情報とから、第3画像(間の視点の画像)における走査方向とは異なる方向に平均化された奥行情報を求め、第1画像、第2画像および第3画像における奥行情報と、第1画像と、第2画像とから、立体画像を生成する場合、視覚の角度に応じて、細かく、立体を再現できる。   The depth information averaged in a direction (for example, y direction) different from the scanning direction in the first image (image 30a) according to the positional relationship of the third position with respect to the first position and the second position, and the second image From the depth information averaged in a direction different from the scanning direction in (image 30b), depth information averaged in a direction different from the scanning direction in the third image (intermediate viewpoint image) is obtained, and the first information is obtained. When generating a stereoscopic image from the image, the depth information in the second image and the third image, the first image, and the second image, the stereoscopic image can be reproduced finely according to the visual angle.

次に、ステップS5の特徴点の選択の変形例について図19および図20を用いて説明する。   Next, a modified example of the feature point selection in step S5 will be described with reference to FIGS.

図19は、特徴点の選択の第1変形例を示す模式図である。図20は、特徴点の選択の第2変形例を示す模式図である。   FIG. 19 is a schematic diagram illustrating a first modification of feature point selection. FIG. 20 is a schematic diagram illustrating a second modification of feature point selection.

図19に示すように、画像生成装置10は、ステップS5において、特徴点を選択する際、各画素における固有値において、x方向に同士で勝ち抜き選を行い、勝ち抜き回数で条件を満たしたものを特徴点として選択してもよい。例えば、勝ち抜き選の一例として、x方向の隣と比較して固有値の値が高い画素を残すという勝ち抜き選が挙げられる。この場合、画像の絵の特性による依存が少なく、安定して特徴点が選択される。なお、図19では、勝ち抜き1回で選択された特徴点を示す。   As shown in FIG. 19, when selecting a feature point in step S5, the image generation device 10 performs selection by winning in the x direction among eigenvalues in each pixel, and satisfies the condition with the number of wins. It may be selected as a point. For example, as an example of the winning selection, there is a winning selection in which a pixel having a higher eigenvalue than that of the neighbor in the x direction is left. In this case, feature points are selected stably with little dependence on the picture characteristics of the image. FIG. 19 shows the feature points selected by winning once.

また、図20に示すように、ステップS5で選択された特徴点に対して、高い固有値をもつ特徴点の画素42a、43aに挟まれた領域にある箇所にある画素を、新たに特徴点の画素45a、46aとして追加してもよい。高い固有値を中央としてパターンマッチングすることが最適というわけではなく、固有値の周辺の強いパターンを用いてパターンマッチングするのが効果的である。よって、そのパターンの一部を含むように特徴点を選択すると、パターンマッチングにおける良い探索が可能となる。このように、特徴点を追加することにより、デプスマップの確度、精度を高めることができる。なお、追加する特徴点は、高い固有値をもつ特徴点の隣接する画素でもよいし、1点でも、3点でも構わない。また、特徴点の画素42a、43aの中央を追加する特徴点としてもよい。   In addition, as shown in FIG. 20, with respect to the feature point selected in step S5, a pixel located in a region between the feature point pixels 42a and 43a having a high eigenvalue is newly added to the feature point. You may add as pixels 45a and 46a. Pattern matching using a high eigenvalue as the center is not optimal, but it is effective to perform pattern matching using a strong pattern around the eigenvalue. Therefore, if a feature point is selected so as to include a part of the pattern, a good search in pattern matching can be performed. Thus, the accuracy and accuracy of the depth map can be increased by adding feature points. The feature point to be added may be a pixel adjacent to a feature point having a high eigenvalue, or may be one point or three points. Further, a feature point may be added at the center of the feature point pixels 42a and 43a.

なお、撮像装置20aおよび撮像装置20bが、水平方向(x方向)以外に設置されていてもよい。例えば、上下方向(y方向)に設置されている場合、スキャン方向はy方向が好ましい。   The imaging device 20a and the imaging device 20b may be installed in a direction other than the horizontal direction (x direction). For example, when installed in the vertical direction (y direction), the scan direction is preferably the y direction.

また、レンチキュラーレンズ方式の3次元ディスプレイに限らず、パララクスバリア方式の3次元ディスプレイに適用してもよい。または、複数視点を要する3次元ディスプレイにも適用してよい。   Further, the present invention is not limited to a lenticular lens type three-dimensional display, and may be applied to a parallax barrier type three-dimensional display. Alternatively, it may be applied to a three-dimensional display that requires a plurality of viewpoints.

さらに、本発明は、上記各実施形態に限定されるものではない。上記各実施形態は、例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。   Furthermore, the present invention is not limited to the above embodiments. Each of the embodiments described above is an exemplification, and any configuration that has substantially the same configuration as the technical idea described in the claims of the present invention and has the same operational effects can be used. It is included in the technical scope of the present invention.

1:画像生成システム
10:画像生成装置
20(20a、20b):撮像装置(撮像手段)
30(30a、30b):画像(第1画像、第2画像)
40a、40b、41a、41b、42a、43a、45a、46a:特徴点の画素(特徴点)
1: Image generation system 10: Image generation device 20 (20a, 20b): Imaging device (imaging means)
30 (30a, 30b): image (first image, second image)
40a, 40b, 41a, 41b, 42a, 43a, 45a, 46a: feature point pixels (feature points)

Claims (10)

複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段と、
前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段と、
前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索手段と、
前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出手段と、
前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減手段と、
前記オクルージョンノイズ軽減手段により処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完手段と、
前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加手段と、
前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化手段と、
前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成手段と、
を備えたことを特徴とする画像生成装置。
Image input means for receiving inputs of a first image picked up from a first position and a second image picked up from a second position by a plurality of image pickup means;
Feature point extraction means for extracting feature points of the first image and the second image from the first image and the second image;
The first image and the second image are scanned in a scanning direction related to an installation direction in which the plurality of imaging units are installed, and corresponding feature points in the scanning direction are detected in the first image and the second image. A corresponding point search means to be obtained;
Depth information calculating means for calculating depth information at the feature points from the distance between the corresponding feature points;
Occlusion noise reduction means for reducing occlusion noise caused by occlusion that is present in one of the first image and the second image but not in the other image, from the depth information;
Based on the depth information processed by the occlusion noise reducing means, scanning direction complementing means for complementing depth information in pixels between the feature points in the scanning direction;
Relevance increasing means for increasing relevance of the complemented depth information in a direction different from the scanning direction;
First averaging means for performing averaging in a direction different from the scanning direction with respect to depth information whose relevance is increased in a direction different from the scanning direction;
Multi-viewpoint image generation means for generating a multi-viewpoint image having a different viewpoint from depth information averaged in a direction different from the scanning direction and at least one of the first image and the second image;
An image generation apparatus comprising:
請求項1に記載の画像生成装置において、
前記オクルージョンノイズ軽減手段が、前記走査方向において、所定の前記特徴点の近辺にある特徴点における前記奥行情報に基づき、前記所定の特徴点の奥行情報を削除するか否かを判定して、当該削除すると判定した場合、前記所定の特徴点の奥行情報を削除することを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The occlusion noise reducing means determines whether or not to delete the depth information of the predetermined feature point based on the depth information at the feature point in the vicinity of the predetermined feature point in the scanning direction, An image generating apparatus characterized by deleting depth information of the predetermined feature point when it is determined to be deleted.
請求項2に記載の画像生成装置において、
前記オクルージョンノイズ軽減手段が、前記走査方向において、前記所定の特徴点の奥行情報と、前記所定の特徴点の近辺にある特徴点における前記奥行情報との差が、所定値以上の場合、前記所定の特徴点の奥行情報を削除することを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
The occlusion noise reducing means is configured to detect the predetermined information when a difference between the depth information of the predetermined feature point and the depth information at a feature point in the vicinity of the predetermined feature point is a predetermined value or more in the scanning direction. An image generation apparatus characterized by deleting depth information of feature points.
請求項1から3のいずれか1項に記載の画像生成装置において、
前記関連性増加手段が、前記走査方向とは異なる方向において、所定の画素の近辺にある画素における前記奥行情報に基づき、前記所定の画素における奥行情報を変えることを特徴とする画像生成装置。
The image generation apparatus according to any one of claims 1 to 3,
The image generating apparatus according to claim 1, wherein the relevance increasing unit changes the depth information in the predetermined pixel based on the depth information in a pixel in the vicinity of the predetermined pixel in a direction different from the scanning direction.
請求項4に記載の画像生成装置において、
前記関連性増加手段が、前記走査方向とは異なる方向において、前記所定の画素の近辺にある2つの画素における前記奥行情報の平均と、前記所定の画素の奥行情報との差が、所定値以上の場合、前記所定の画素の奥行情報を前記平均の奥行情報とすることを特徴とする画像生成装置。
The image generation apparatus according to claim 4,
In the direction different from the scanning direction, the relevance increasing unit is configured such that a difference between an average of the depth information in two pixels near the predetermined pixel and the depth information of the predetermined pixel is equal to or larger than a predetermined value. In this case, the depth information of the predetermined pixel is the average depth information.
請求項1から5のいずれか1項に記載の画像生成装置において、
前記補完された奥行情報に対して、前記走査方向における平均化を行う第2平均化手段を更に備えたことを特徴とする画像生成装置。
In the image generation device according to any one of claims 1 to 5,
An image generating apparatus, further comprising second averaging means for averaging the complemented depth information in the scanning direction.
請求項1から6のいずれか1項に記載の画像生成装置において、
前記第1画像および第2画像が動画であって、
前記走査方向とは異なる方向に平均化された奥行情報を、前記動画のフレーム間で平均化するフレーム間平均手段を更に備えたことを特徴する画像生成装置。
In the image generation device according to any one of claims 1 to 6,
The first image and the second image are moving images,
An image generating apparatus, further comprising an inter-frame averaging means for averaging depth information averaged in a direction different from the scanning direction between frames of the moving image.
請求項1から7のいずれか1項に記載の画像生成装置において、
前記多視点画像生成手段が、前記第1位置および第2位置に対する前記第3位置の位置関係に従い、前記第1画像における前記走査方向とは異なる方向に平均化された奥行情報と、前記第2画像における前記走査方向とは異なる方向に平均化された奥行情報とから、前記第3画像における前記走査方向とは異なる方向に平均化された奥行情報を求め、当該第1画像、第2画像および第3画像における奥行情報と、前記第1画像と、第2画像とから、立体画像を生成することを特徴とする画像生成装置。
In the image generation device according to any one of claims 1 to 7,
The multi-viewpoint image generation means, in accordance with a positional relationship of the third position with respect to the first position and the second position, depth information averaged in a direction different from the scanning direction in the first image; Depth information averaged in a direction different from the scanning direction in the third image is obtained from depth information averaged in a direction different from the scanning direction in the image, the first image, the second image, and An image generating apparatus that generates a stereoscopic image from depth information in a third image, the first image, and the second image.
画像生成装置が、画像を生成する画像生成方法であって、
複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力ステップと、
前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出ステップと、
前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索ステップと、
前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出ステップと、
前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減ステップと、
前記オクルージョンノイズ軽減ステップにおいて処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完ステップと、
前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加ステップと、
前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化ステップと、
前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成ステップと、
を有することを特徴とする画像生成方法。
An image generation method in which an image generation device generates an image,
An image input step for receiving input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging means;
A feature point extracting step of extracting feature points of the first image and the second image from the first image and the second image;
The first image and the second image are scanned in a scanning direction related to an installation direction in which the plurality of imaging units are installed, and corresponding feature points in the scanning direction are detected in the first image and the second image. A corresponding point search step to be obtained;
Depth information calculation step for calculating depth information at the feature points from the distance between the corresponding feature points;
An occlusion noise reduction step for reducing occlusion noise caused by occlusion that is present in one of the first image and the second image but not in the other image, from the depth information;
Based on the depth information processed in the occlusion noise reduction step, a scanning direction complementing step for complementing depth information in pixels between the feature points in the scanning direction;
A relevance increasing step for increasing relevance of the complemented depth information in a direction different from the scanning direction;
A first averaging step for performing averaging in a direction different from the scanning direction for depth information whose relevance is increased in a direction different from the scanning direction;
A multi-viewpoint image generation step of generating a multi-viewpoint image having a different viewpoint from depth information averaged in a direction different from the scanning direction and at least one of the first image and the second image;
An image generation method characterized by comprising:
コンピュータを、
複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段、
前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段、
前記複数の撮像手段が設置された設置方向に関連する走査方向に、前記第1画像および第2画像を走査して、前記第1画像と第2画像とにおいて前記走査方向における対応する特徴点を求める対応点探索手段、
前記対応する特徴点の間の距離より、前記特徴点における奥行情報を算出する奥行情報算出手段、
前記第1画像および第2画像のうち一方の画像では存在し他方の画像では存在しないオクルージョンによる生ずるオクルージョンノイズを、前記奥行情報から軽減するオクルージョンノイズ軽減手段、
前記オクルージョンノイズ軽減手段により処理された奥行情報に基づき、前記走査方向における前記特徴点の間の画素における奥行情報を補完する走査方向補完手段、
前記走査方向とは異なる方向において、前記補完された奥行情報の関連性を増加させる関連性増加手段、
前記走査方向とは異なる方向に関連性が増加された奥行情報に対して、前記走査方向とは異なる方向における平均化を行う第1平均化手段、および、
前記走査方向とは異なる方向に平均化された奥行情報と、前記第1画像および第2画像の少なくとも一方とから、視点が異なる多視点画像を生成する多視点画像生成手段として機能させる画像生成装置用プログラム。
Computer
Image input means for receiving inputs of a first image picked up from a first position and a second image picked up from a second position by a plurality of image pickup means;
Feature point extraction means for extracting feature points of the first image and the second image from the first image and the second image;
The first image and the second image are scanned in a scanning direction related to an installation direction in which the plurality of imaging units are installed, and corresponding feature points in the scanning direction are detected in the first image and the second image. Corresponding point search means to be obtained,
Depth information calculating means for calculating depth information at the feature points from the distance between the corresponding feature points;
Occlusion noise reducing means for reducing, from the depth information, occlusion noise caused by occlusion that is present in one of the first image and the second image but not in the other image;
Scanning direction complementing means for complementing depth information in pixels between the feature points in the scanning direction based on depth information processed by the occlusion noise reducing means;
Relevance increasing means for increasing relevance of the complemented depth information in a direction different from the scanning direction;
First averaging means for performing averaging in a direction different from the scanning direction with respect to depth information whose relevance is increased in a direction different from the scanning direction; and
An image generation apparatus that functions as a multi-viewpoint image generation unit that generates a multi-viewpoint image having a different viewpoint from depth information averaged in a direction different from the scanning direction and at least one of the first image and the second image. Program.
JP2012218708A 2012-09-28 2012-09-28 Image generation apparatus, image generation method, and program for the image generation apparatus Pending JP2014072809A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012218708A JP2014072809A (en) 2012-09-28 2012-09-28 Image generation apparatus, image generation method, and program for the image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012218708A JP2014072809A (en) 2012-09-28 2012-09-28 Image generation apparatus, image generation method, and program for the image generation apparatus

Publications (1)

Publication Number Publication Date
JP2014072809A true JP2014072809A (en) 2014-04-21

Family

ID=50747603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012218708A Pending JP2014072809A (en) 2012-09-28 2012-09-28 Image generation apparatus, image generation method, and program for the image generation apparatus

Country Status (1)

Country Link
JP (1) JP2014072809A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018078496A (en) * 2016-11-10 2018-05-17 株式会社金子製作所 Three-dimensional moving picture display processing device, moving picture information recording medium, moving picture information provision server, and program
WO2018221367A1 (en) * 2017-06-01 2018-12-06 マクセル株式会社 Stereo image-capture device
CN110326028A (en) * 2018-02-08 2019-10-11 深圳市大疆创新科技有限公司 Method, apparatus, computer system and the movable equipment of image procossing
CN113706472A (en) * 2021-07-30 2021-11-26 中国公路工程咨询集团有限公司 Method, device and equipment for detecting road surface diseases and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018078496A (en) * 2016-11-10 2018-05-17 株式会社金子製作所 Three-dimensional moving picture display processing device, moving picture information recording medium, moving picture information provision server, and program
WO2018221367A1 (en) * 2017-06-01 2018-12-06 マクセル株式会社 Stereo image-capture device
JP2018207259A (en) * 2017-06-01 2018-12-27 マクセル株式会社 Stereo imaging apparatus
CN110326028A (en) * 2018-02-08 2019-10-11 深圳市大疆创新科技有限公司 Method, apparatus, computer system and the movable equipment of image procossing
CN113706472A (en) * 2021-07-30 2021-11-26 中国公路工程咨询集团有限公司 Method, device and equipment for detecting road surface diseases and storage medium

Similar Documents

Publication Publication Date Title
US8488869B2 (en) Image processing method and apparatus
JP5750505B2 (en) 3D image error improving method and apparatus
US9525858B2 (en) Depth or disparity map upscaling
JP6094863B2 (en) Image processing apparatus, image processing method, program, integrated circuit
KR101385514B1 (en) Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
US20150269737A1 (en) Multi-View Synthesis in Real-Time With Fallback to 2D from 3D to Reduce Flicker in Low or Unstable Stereo-Matching Image Regions
JP2013527646A5 (en)
TWI496452B (en) Stereoscopic image system, stereoscopic image generating method, stereoscopic image adjusting apparatus and method thereof
KR20060133764A (en) Intermediate vector interpolation method and 3d display apparatus
JP5755571B2 (en) Virtual viewpoint image generation device, virtual viewpoint image generation method, control program, recording medium, and stereoscopic display device
JP2020005202A (en) Video processing device
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
US8976171B2 (en) Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program
JP2014506768A (en) Processing of 3D scene depth data
JP5931062B2 (en) Stereoscopic image processing apparatus, stereoscopic image processing method, and program
JP5627498B2 (en) Stereo image generating apparatus and method
US20120170841A1 (en) Image processing apparatus and method
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
Ramachandran et al. Multiview synthesis from stereo views
KR101754976B1 (en) Contents convert method for layered hologram and apparatu
Lü et al. Virtual view synthesis for multi-view 3D display
JP5459231B2 (en) Pseudo stereoscopic image generation apparatus, pseudo stereoscopic image generation program, and pseudo stereoscopic image display apparatus
JP5751117B2 (en) Image generation apparatus, image generation method, and program for image generation apparatus
JP5431393B2 (en) Stereo image generating apparatus and method
JP5834712B2 (en) Image generation apparatus, image generation method, and program for image generation apparatus