JP5834712B2 - Image generation apparatus, image generation method, and program for image generation apparatus - Google Patents

Image generation apparatus, image generation method, and program for image generation apparatus Download PDF

Info

Publication number
JP5834712B2
JP5834712B2 JP2011215079A JP2011215079A JP5834712B2 JP 5834712 B2 JP5834712 B2 JP 5834712B2 JP 2011215079 A JP2011215079 A JP 2011215079A JP 2011215079 A JP2011215079 A JP 2011215079A JP 5834712 B2 JP5834712 B2 JP 5834712B2
Authority
JP
Japan
Prior art keywords
image
hue
feature points
image generation
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011215079A
Other languages
Japanese (ja)
Other versions
JP2013077050A (en
Inventor
躍 包
躍 包
敏光 筬島
敏光 筬島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011215079A priority Critical patent/JP5834712B2/en
Publication of JP2013077050A publication Critical patent/JP2013077050A/en
Application granted granted Critical
Publication of JP5834712B2 publication Critical patent/JP5834712B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、立体画像用の画像を生成する画像生成装置、画像生成方法、画像生成装置用プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program for an image generation apparatus that generate an image for a stereoscopic image.

従来、臨場感のある裸眼式立体視を可能とするため、2つのカメラを用いて撮影された2つの画像(ステレオ画像)を用いて、2つのカメラの間の位置から撮像された場合の中間画像を生成して多眼化することが行われている。例えば、特許文献1には、被写体の映像を結像する第1結像レンズ部と、第1撮影素子と、を有する第1画像取得部と、第2結像レンズ部と、これによって結像された映像を受ける複数のレンズがアレイ状に配列された第1レンズアレイ部と、第2撮影素子と、を有する第2画像取得部とを備え、第2画像取得部は、第1画像取得部に対して被写体から見て水平方向に離れて配置される立体映像撮影装置が開示されている。   Conventionally, in order to enable a realistic autostereoscopic view, using two images (stereo images) taken with two cameras, an intermediate position when taken from a position between the two cameras An image is generated and multi-viewed. For example, Patent Document 1 discloses that a first image acquisition unit including a first imaging lens unit that forms an image of a subject and a first imaging element, a second imaging lens unit, and an image formed thereby. A second image acquisition unit having a first lens array unit in which a plurality of lenses that receive the captured image are arranged in an array and a second imaging element, and the second image acquisition unit includes a first image acquisition unit A stereoscopic video imaging device is disclosed that is disposed away from the subject in the horizontal direction when viewed from the subject.

特開2010−78768号公報JP 2010-78768 A

しかしながら、先行技術では、複数のレンズがアレイ状に配列された特殊なカメラを使用しており、当カメラは製造が難しいカメラで、設備のコストが高く実現が困難である。さらに、先行技術では、画素の相関が高い物体のクラスタリングを行う必要があったり、描画する際、奥から描画する必要があるため、奥行き方向でのソートの処理が必要であったりするため、演算量が増加していた。   However, in the prior art, a special camera in which a plurality of lenses are arranged in an array is used, and this camera is a camera that is difficult to manufacture, and the cost of equipment is high and difficult to realize. Furthermore, in the prior art, it is necessary to perform clustering of objects with high pixel correlation, and since drawing must be performed from the back when drawing, sorting processing in the depth direction is necessary. The amount was increasing.

そこで、本発明は上記の問題点等に鑑みて為されたもので、その課題の一例は、低コストで、より少ない演算量で画像を生成する画像生成装置等を提供することを目的とする。   Therefore, the present invention has been made in view of the above-described problems, and an example of the problem is to provide an image generation apparatus that generates an image with a smaller amount of calculation at a low cost. .

上記の課題を解決するために、請求項1に記載の発明は、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段と、前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換手段と、前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段と、前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索手段と、前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段と、前記第1位置と第2位置との間に第3位置を設定する位置設定手段と、前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成手段と、を備え、前記色相変換手段が、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し、前記特徴点抽出手段は、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、前記対応点探索手段は、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索することを特徴とする。 In order to solve the above-described problem, the invention according to claim 1 is an image that receives input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging means. From the input means, the hue conversion means for performing a hue conversion for obtaining the hue of each pixel of the first image and the second image, the first image and the second image from the first image and the second image that have been subjected to the hue conversion. Feature point extraction means for extracting feature points of the image, correspondence point search means for finding corresponding feature points in the first image and the second image, and calculating a disparity vector having a distance between the corresponding feature points Disparity vector calculating means, position setting means for setting a third position between the first position and the second position, a positional relationship of the third position with respect to the first position and the second position, and the disparity vector And according to the above From the first image and the second image, and an image generating means for generating a third image when it is captured from said third position, said hue conversion means, according to the hue in the range of values of the hue And converting the image into the hue image having a hue value as an index for the group, and the feature point extracting means determines the direction connecting the first position and the second position as the first image and The scan direction of each image of the second image is set as the feature point, and the corresponding point is extracted in order according to the scan direction. It is characterized in that corresponding feature points are sequentially searched by collating the original image before hue conversion at the position of the feature points .

また、請求項に記載の発明は、請求項1記載の画像生成装置において、前記画像生成手段が、前記第3画像における前記対応する特徴点の位置を、前記第3位置の位置関係に対応する比率と前記視差ベクトルとから決定することを特徴とする。 The invention according to claim 2, in the image generating apparatus according to claim 1, wherein the image generating means, the position of the corresponding feature point in the third image, the positional relationship of the third position It is determined from the corresponding ratio and the parallax vector.

また、請求項に記載の発明は、請求項1または請求項2に記載の画像生成装置において、前記画像生成手段が、前記視差ベクトルに従い、前記第1位置および第2位置のうち前記第3位置に近い方の位置の前記第1画像または第2画像の画素の情報を用いて第3画像を生成することを特徴とする。 According to a third aspect of the present invention, in the image generation device according to the first or second aspect , the image generation unit is configured to select the third position out of the first position and the second position according to the parallax vector. A third image is generated by using pixel information of the first image or the second image at a position closer to the position.

また、請求項に記載の発明は、請求項に記載の画像生成装置において、前記画像生成手段が、前記視差ベクトルに従った画素が無い場合、前記第1位置および第2位置のうち前記第3位置から遠い方の位置の前記第1画像または第2画像の画素の情報を用いて第3画像を生成することを特徴とする。 According to a fourth aspect of the present invention, in the image generating apparatus according to the third aspect , when the image generating means has no pixel according to the parallax vector, the first position and the second position are A third image is generated by using pixel information of the first image or the second image at a position farther from the third position.

また、請求項に記載の発明は、請求項1からのいずれか1項に記載の画像生成装置において、前記位置設定手段が、複数の第3位置を設定し、前記画像生成手段が、複数の第3画像を生成することを特徴とする。 According to a fifth aspect of the present invention, in the image generating apparatus according to any one of the first to fourth aspects, the position setting means sets a plurality of third positions, and the image generating means A plurality of third images are generated.

また、請求項に記載の発明は、画像生成装置が、画像を生成する画像生成方法であって、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力ステップと、前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換ステップと、前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出ステップと、前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索ステップと、前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出ステップと、前記第1位置と第2位置との間に第3位置を設定する位置設定ステップと、前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成ステップと、を有し、前記色相変換ステップにおいて、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し、前記特徴点抽出ステップにおいて、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、前記対応点探索ステップにおいて、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索することを特徴とする。 The invention according to claim 6 is an image generation method in which the image generation apparatus generates an image, and the first image captured from the first position and the second position are captured by a plurality of imaging means. An image input step for receiving an input with the second image, a hue conversion step for performing a hue conversion for obtaining a hue of each pixel of the first image and the second image, and the first and second images subjected to the hue conversion A feature point extracting step for extracting feature points of the first image and the second image, a corresponding point searching step for obtaining corresponding feature points in the first image and the second image, and A disparity vector calculating step of calculating a disparity vector having a distance between, a position setting step of setting a third position between the first position and the second position, and the first position and the second position Serial positional relationship between the third position and in accordance with the disparity vector from the first image and the second image, have a, an image generation step of generating a third image when it is captured from said third position, In the hue conversion step, the hue is classified into groups according to a range of the hue value, and converted into the hue image having an index for the group as a hue value. In the feature point extraction step, the hue conversion step The direction connecting the first position and the second position is set as the scan direction of each image of the first image and the second image, the portion where the hue change occurs is extracted as the feature point, and in the corresponding point search step The feature points that appear in order according to the scan direction are ordered, and the original image before hue conversion is collated at the position of the feature points to sequentially correspond. Wherein the searching for the characteristic point.

また、請求項に記載の発明は、コンピュータを、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段、前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換手段、前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段、前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索手段、前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段、前記第1位置と第2位置との間に第3位置を設定する位置設定手段、および、前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成手段として機能させ、前記色相変換手段は、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し、前記特徴点抽出手段は、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、前記対応点探索手段は、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索する。 According to a seventh aspect of the present invention, there is provided an image input means for receiving input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging means. Hue conversion means for performing hue conversion to obtain the hue of each pixel of the first image and the second image, and feature points of the first image and the second image are extracted from the hue-converted first image and second image Feature point extracting means, corresponding point search means for obtaining corresponding feature points in the first image and the second image, disparity vector calculating means for calculating a disparity vector having a distance between the corresponding feature points, Position setting means for setting a third position between the first position and the second position, and the first image according to the positional relationship of the third position with respect to the first position and the second position and the disparity vector, And a second image, to function as an image generating means for generating a third image when it is captured from said third position, said color conversion means are classified into groups according to the hue in the range of values of the hue The feature point extracting means converts the direction connecting the first position and the second position to each of the first image and the second image by converting the index for the group to a hue image having a hue value. The scan direction of the image is extracted, and the portion where the hue change occurs is extracted as the feature point, and the corresponding point search means orders the feature points that appear in order according to the scan direction, and at the position of the feature point , we search for a feature point successively corresponding by performing matching of the original image before color conversion.

本発明によれば、複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付け、第1画像および第2画像の各画素の色相を求める色相変換を行い、色相変換された第1画像および第2画像から、第1画像および第2画像の特徴点を抽出し、第1画像と第2画像とにおいて対応する特徴点を求め、対応する特徴点の間の距離を有する視差ベクトルを算出し、第1位置と第2位置との間に第3位置を設定し、第1位置および第2位置に対する第3位置の位置関係と視差ベクトルとに従い、第1画像と第2画像とから、第3位置から撮像された場合の第3画像を生成することにより、特殊なカメラは使用せず、奥行き情報無しに、第3位置の位置関係と視差ベクトルとに従い、特徴点間の画像データを描画するので、低コストで、より少ない演算量で画像を生成することができる。   According to the present invention, the input of the first image picked up from the first position by the plurality of image pickup means and the second image picked up from the second position is received, and the hue of each pixel of the first image and the second image is received. The feature points of the first image and the second image are extracted from the first image and the second image subjected to the hue conversion, the corresponding feature points in the first image and the second image are obtained, A disparity vector having a distance between corresponding feature points is calculated, a third position is set between the first position and the second position, and the positional relationship and disparity of the third position with respect to the first position and the second position According to the vector, a third image is generated from the first image and the second image when captured from the third position, so that a special camera is not used and the position of the third position is obtained without depth information. Image data between feature points according to the relationship and the disparity vector. Since draw, at low cost, it can produce images with less amount of calculation.

本発明の実施形態に係る画像生成システムの概要構成例を示すブロック図である。1 is a block diagram illustrating a schematic configuration example of an image generation system according to an embodiment of the present invention. 図1の画像生成の概要構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a schematic configuration of image generation in FIG. 1. 図1の撮像装置の位置と、仮想的な撮像装置の位置との位置関係の一例を示す模式図である。FIG. 2 is a schematic diagram illustrating an example of a positional relationship between the position of the imaging device in FIG. 1 and the position of a virtual imaging device. 図1の画像生成装置の動作例を示すフローチャートである。3 is a flowchart illustrating an operation example of the image generation apparatus in FIG. 1. 図1の撮像装置により撮像された画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image imaged with the imaging device of FIG. 撮像された画像に対するスキャン方向の一例を示す模式図である。It is a schematic diagram which shows an example of the scanning direction with respect to the imaged image. 色相で領域分類し、インデックス化されたラインデータの一例を示す模式図である。It is a schematic diagram which shows an example of the line data which carried out area | region classification by the hue and was indexed. 色相変換された画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image by which the hue conversion was carried out. 撮像された画像の特徴点(基準点)および視差ベクトルの一例を示す模式図である。It is a schematic diagram which shows an example of the feature point (reference | standard point) and parallax vector of the imaged image. 撮像された画像の基準点、および、仮想的な撮像装置から撮像された場合の画像の基準点の一例を示す模式図である。It is a schematic diagram which shows an example of the reference point of the imaged image, and the reference point of the image when imaged from a virtual imaging device. 基準点周りの画素値の関係性の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship of the pixel value around a reference point. 基準点周りの画素値の関係性の一例を示す模式図である。It is a schematic diagram which shows an example of the relationship of the pixel value around a reference point.

以下、図面を参照して本発明の実施形態について説明する。なお、以下に説明する実施の形態は、画像生成システムに対して本発明を適用した場合の実施形態である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiment described below is an embodiment when the present invention is applied to an image generation system.

[1.画像生成システムの構成および機能の概要]
(1.1 画像生成システム1の構成および機能)
[1. Overview of image generation system configuration and functions]
(1.1 Configuration and Function of Image Generation System 1)

まず、本発明の一実施形態に係る画像生成システムの構成および概要機能について、図1を用いて説明する。   First, the configuration and outline function of an image generation system according to an embodiment of the present invention will be described with reference to FIG.

図1は、本実施形態に係る画像生成システム1の概要構成例を示すブロック図である。   FIG. 1 is a block diagram illustrating a schematic configuration example of an image generation system 1 according to the present embodiment.

図1に示すように、画像生成システム1は、所定の位置で撮像された被写体5の画像から仮想位置から撮像した場合の画像を生成する画像生成装置10と、所定の位置で被写体5を撮像する撮像装置(撮像手段の一例)20と、を備えている。   As shown in FIG. 1, the image generation system 1 captures an image of the subject 5 at a predetermined position and an image generation device 10 that generates an image when the image is captured from a virtual position from an image of the subject 5 captured at the predetermined position. Imaging device (an example of imaging means) 20.

画像生成装置10は、撮像装置20により撮像された複数の画像の画像データの入力を受け付ける画像入力手段10aと、RGB信号の画像データから各画素の色相を求める変換を行う色相変換手段10bと、色相変換された画像データから、画像の特徴点を抽出する特徴点抽出手段10cと、画像間で対応する特徴点を求める対応点探索手段10dと、対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段10eと、仮想位置を設定する位置設定手段10fと、仮想位置で撮像された画像を生成する画像生成手段10gと、生成された画像を表示する表示部13と、を有する。   The image generation device 10 includes an image input unit 10a that receives input of image data of a plurality of images captured by the imaging device 20, a hue conversion unit 10b that performs conversion to obtain the hue of each pixel from image data of RGB signals, A feature point extracting unit 10c for extracting feature points of images from the image data subjected to hue conversion, a corresponding point searching unit 10d for obtaining corresponding feature points between images, and a disparity vector having a distance between the corresponding feature points A parallax vector calculating means 10e for calculating a position, a position setting means 10f for setting a virtual position, an image generating means 10g for generating an image captured at the virtual position, and a display unit 13 for displaying the generated image. Have.

撮像装置20は、撮像手段の一例である左目用の撮像装置20aと、右目用の撮像装置20bとを有し、ステレオカメラを構成する。被写体5に対して、例えば、水平方向に、撮像装置20aと、撮像装置20bとは、所定の距離を置いて設置される。撮像装置20aが設置される位置が、第1位置の一例であり、撮像装置20bが設置される位置が、第2位置の一例である。撮像装置20a、20bは、静止画を撮像するスチルカメラ、または、動画を撮像するビデオカメラであり、解像度や、色の階調等に関して同一の性能を有する。撮像装置20a、20bの出力は、デジタル出力であるが、アナログ出力の撮像装置の場合は、A/D変換器を有し、デジタル信号を出力する。   The imaging device 20 includes a left-eye imaging device 20a and a right-eye imaging device 20b, which are examples of imaging means, and constitutes a stereo camera. For example, the imaging device 20a and the imaging device 20b are installed at a predetermined distance from the subject 5 in the horizontal direction. The position where the imaging device 20a is installed is an example of the first position, and the position where the imaging device 20b is installed is an example of the second position. The imaging devices 20a and 20b are a still camera that captures still images or a video camera that captures moving images, and have the same performance with respect to resolution, color gradation, and the like. The outputs of the imaging devices 20a and 20b are digital outputs, but an analog output imaging device has an A / D converter and outputs a digital signal.

撮像装置20aは、被写体5を左寄りから撮影し、左目用の画像(第1位置で撮像された第1画像の一例)を出力する。撮像装置20bは、被写体5を右寄りから撮影し、右目用の画像(第2位置で撮像された第2画像の一例)を出力する。   The imaging device 20a captures the subject 5 from the left side and outputs an image for the left eye (an example of a first image captured at the first position). The imaging device 20b captures the subject 5 from the right side and outputs an image for the right eye (an example of a second image captured at the second position).

撮像装置20aおよび撮像装置20bは、画像生成装置10の画像入力手段10aに接続される。   The imaging device 20 a and the imaging device 20 b are connected to the image input unit 10 a of the image generation device 10.

(1.2 画像生成装置10の構成および機能)
次に、画像生成装置10の構成および機能について、図2を用いて説明する。
図2は、画像生成装置10の概要構成の一例を示すブロック図である。
(1.2 Configuration and Function of Image Generation Device 10)
Next, the configuration and function of the image generation apparatus 10 will be described with reference to FIG.
FIG. 2 is a block diagram illustrating an example of a schematic configuration of the image generation apparatus 10.

図2に示すように、画像生成装置10は、例えば、パーソナルコンピュータやサーバ装置等であり、通信部11と、記憶部12と、表示部13と、操作部14と、入出力インターフェース部15と、システム制御部16とを備えている。そして、システム制御部16と入出力インターフェース部15とは、システムバス17を介して接続されている。   As illustrated in FIG. 2, the image generation device 10 is, for example, a personal computer or a server device, and includes a communication unit 11, a storage unit 12, a display unit 13, an operation unit 14, and an input / output interface unit 15. The system control unit 16 is provided. The system control unit 16 and the input / output interface unit 15 are connected via a system bus 17.

通信部11は、画像生成装置10の外部等とのデータや信号の送受信を行う。例えば、ネットワーク接続に使用される。   The communication unit 11 transmits and receives data and signals to and from the outside of the image generation apparatus 10. For example, it is used for network connection.

記憶部12は、例えば、ハードディスクドライブ等からなり、オペレーティングシステム、制御用のプログラムや画像処理用のプログラム等を記憶する。   The storage unit 12 includes, for example, a hard disk drive and stores an operating system, a control program, an image processing program, and the like.

表示部13は、例えば、液晶表示素子またはEL(Electro Luminescence)素子等によって構成されている。表示部13には、撮像装置20により撮像された被写体5の画像や、生成された画像が表示される。   The display unit 13 is configured by, for example, a liquid crystal display element or an EL (Electro Luminescence) element. The display unit 13 displays the image of the subject 5 captured by the imaging device 20 and the generated image.

操作部14は、例えば、キーボードおよびマウス等によって構成されている。   The operation unit 14 is configured by, for example, a keyboard and a mouse.

入出力インターフェース部15は、撮像装置20aおよび撮像装置20bの出力端に直接接続される部分で、画像入力手段10aの機能を実現するインターフェースである。撮像装置20(20a、20b)、通信部11および記憶部12とシステム制御部16とのインターフェースである。   The input / output interface unit 15 is a part directly connected to the output ends of the imaging device 20a and the imaging device 20b, and is an interface that realizes the function of the image input means 10a. This is an interface between the imaging device 20 (20a, 20b), the communication unit 11, the storage unit 12, and the system control unit 16.

システム制御部16は、例えば、CPU16aと、ROM16bと、RAM16cとを有する。システム制御部16は、CPU16aが、ROM16bや、RAM16cや、記憶部12に記憶された各種プログラムを読み出して実行する。例えば、システム制御部16は、画像処理のプログラムを実行し、色相変換手段10b、特徴点抽出手段10c、対応点探索手段10d、視差ベクトル算出手段10e、位置設定手段10f、画像生成手段10g等の機能を実現する。   The system control unit 16 includes, for example, a CPU 16a, a ROM 16b, and a RAM 16c. In the system control unit 16, the CPU 16 a reads out and executes various programs stored in the ROM 16 b, the RAM 16 c, and the storage unit 12. For example, the system control unit 16 executes an image processing program, and includes a hue conversion unit 10b, a feature point extraction unit 10c, a corresponding point search unit 10d, a parallax vector calculation unit 10e, a position setting unit 10f, an image generation unit 10g, and the like. Realize the function.

(1.3 仮想的な撮像装置の位置)
次に、仮想的な撮像装置の位置(仮想位置)について図3を用いて説明する。
図3は、撮像装置20a、20bの位置と、仮想的な撮像装置の位置との位置関係の一例を示す模式図である。
(1.3 Position of virtual imaging device)
Next, the position (virtual position) of the virtual imaging device will be described with reference to FIG.
FIG. 3 is a schematic diagram illustrating an example of a positional relationship between the positions of the imaging devices 20a and 20b and the position of the virtual imaging device.

図3に示すように、撮像装置20aと撮像装置20bとは、x方向(例えば水平方向)に距離Lで設置されている。撮像装置20aと撮像装置20bと間に、仮想的な撮像装置25が3台設定される。撮像装置25a、撮像装置25b、および、撮像装置25cは等間隔に設定される。撮像装置20aの設置位置の第1位置0を基準として、撮像装置20bの設置位置の第2位置Lとすると、第3位置の一例として、撮像装置25aの場合、位置L/4、撮像装置25bの場合、位置L/2、撮像装置25cの場合、位置3L/4が設定される。ここで、仮想的な撮像装置25により撮像された場合の画像を中間視差画像(第3画像の一例)とする。   As shown in FIG. 3, the imaging device 20a and the imaging device 20b are installed at a distance L in the x direction (for example, the horizontal direction). Three virtual imaging devices 25 are set between the imaging device 20a and the imaging device 20b. The imaging device 25a, the imaging device 25b, and the imaging device 25c are set at equal intervals. Assuming that the first position 0 of the installation position of the imaging device 20a is the second position L of the installation position of the imaging device 20b, as an example of the third position, in the case of the imaging device 25a, the position L / 4, the imaging device 25b. In this case, the position L / 2 is set, and in the case of the imaging device 25c, the position 3L / 4 is set. Here, an image captured by the virtual imaging device 25 is an intermediate parallax image (an example of a third image).

[2.画像生成システムの動作]
次に、本発明の1実施形態に係る画像生成システムの動作について図4から図12を用いて説明する。
図4は、画像生成装置10の動作例を示すフローチャートである。図5は、撮像装置20により撮像された画像の一例を示す模式図である。図6は、撮像された画像に対するスキャン方向の一例を示す模式図である。図7は、クラスタリングされインデックス化されたラインデータの一例を示す模式図である。図8は、色相変換された画像の一例を示す模式図である。図9は、撮像された画像の特徴点(基準点)および視差ベクトルの一例を示す模式図である。図10は、撮像された画像の基準点、および、仮想的な撮像装置から撮像された場合の画像の基準点の一例を示す模式図である。図11および図12は、基準点周りの画素値の関係性の一例を示す模式図である。
[2. Operation of image generation system]
Next, the operation of the image generation system according to the embodiment of the present invention will be described with reference to FIGS.
FIG. 4 is a flowchart illustrating an operation example of the image generation apparatus 10. FIG. 5 is a schematic diagram illustrating an example of an image captured by the imaging device 20. FIG. 6 is a schematic diagram illustrating an example of a scan direction with respect to a captured image. FIG. 7 is a schematic diagram illustrating an example of line data that has been clustered and indexed. FIG. 8 is a schematic diagram illustrating an example of a hue-converted image. FIG. 9 is a schematic diagram illustrating an example of feature points (reference points) and parallax vectors of a captured image. FIG. 10 is a schematic diagram illustrating an example of a reference point of a captured image and a reference point of an image when captured from a virtual imaging device. 11 and 12 are schematic diagrams illustrating an example of the relationship between pixel values around the reference point.

ここで、中間視差画像を生成方法の原理について簡単に説明する。
本提案手法では中間視差画像を生成する上で、画素値を算出して補間をするのでは無く、視点の移動による物体の移動距離を用いることにより、画像間の動きの軌跡を逆にたどり、2枚の元画像30a、30bに存在する画素のみを用いて中間視差画像を生成する。
Here, the principle of the method for generating the intermediate parallax image will be briefly described.
In the proposed method, in generating an intermediate parallax image, instead of calculating and interpolating the pixel value, the movement distance of the object by the movement of the viewpoint is used, and the trajectory of the movement between the images is traced in reverse. An intermediate parallax image is generated using only the pixels present in the two original images 30a and 30b.

また、2枚の元画像30a、30bから互いに対応する特徴点を抽出し、特徴点から視差ベクトルを算出する。そして、生成される中間視差画像において、元画像の特徴点と近似した値の画素は、必ず特徴点間に存在すると考えられる。例えば、図3に示すように等間隔で仮想的な撮像装置25a、25b、25cが設置されているとすると、移動距離(視差ベクトルの長さ)を4で割ることにより位置関係が求まり、中間視差画像における特徴点と等しい値の画素がどのような間隔で配置されているかがわかる。そのため、中間視差画像において元画像30a、30bの特徴点に対応する基準点が、位置関係と視差ベクトルとに従い求まる。この基準点の周りに画素配置をしていくことにより、中間視差画像を生成することができる。なお、基準点は、第3画像における対応する特徴点の一例である。   Also, feature points corresponding to each other are extracted from the two original images 30a and 30b, and a disparity vector is calculated from the feature points. In the generated intermediate parallax image, it is considered that pixels having a value approximate to the feature point of the original image always exist between the feature points. For example, if virtual imaging devices 25a, 25b, and 25c are installed at equal intervals as shown in FIG. 3, the positional relationship is obtained by dividing the movement distance (the length of the parallax vector) by 4, and the intermediate It can be seen at what interval the pixels having the same value as the feature points in the parallax image are arranged. Therefore, a reference point corresponding to the feature point of the original images 30a and 30b in the intermediate parallax image is obtained according to the positional relationship and the parallax vector. By arranging pixels around the reference point, an intermediate parallax image can be generated. The reference point is an example of a corresponding feature point in the third image.

まず、画像生成システムの動作として、画像生成装置10のシステム制御部16は、図3に示すように、第3位置の一例として、仮想的な撮像装置25a、25b、25cの位置(例えば、L/4、L/2、3L/4)を予め設定しておく。このように画像生成装置10のシステム制御部16は、第1位置と第2位置との間に第3位置を設定する位置設定手段10fの一例として機能する。   First, as an operation of the image generation system, the system control unit 16 of the image generation apparatus 10, as illustrated in FIG. 3, uses the positions of virtual imaging devices 25 a, 25 b, and 25 c (for example, L / 4, L / 2, 3L / 4) are set in advance. Thus, the system control unit 16 of the image generation device 10 functions as an example of the position setting unit 10f that sets the third position between the first position and the second position.

そして、画像生成装置10のシステム制御部16は、仮想的な撮像装置25a、25b、25cの位置に応じた中間視差画像を生成するための記憶領域を、記憶部12に予め設定しておく。   Then, the system control unit 16 of the image generation apparatus 10 sets in advance in the storage unit 12 a storage area for generating an intermediate parallax image corresponding to the positions of the virtual imaging devices 25a, 25b, and 25c.

次に、図4に示すように、画像生成装置10は、左右の画像の入力を受け付ける(ステップS1)。具体的には、画像生成装置10のシステム制御部16は、図5に示すように、被写体5を左側から撮像した画像30a(第1画像の一例)を、撮像装置20aから受け付け、右側から撮像した画像30b(第2画像の一例)を、撮像装置20bから受け付ける。画像30aは、撮像装置20aの位置(第1位置の一例)から撮像した画像であり、画像30bは、撮像装置20bの位置(第2位置の一例)から撮像した画像である。なお、画像のデータは、RGB信号のデータである。このように、画像生成装置10のシステム制御部は、複数の撮像手段により第1位置から撮像された第1画像と、第2位置から撮像された第2画像との入力を受け付ける画像入力手段10aの一例として機能する。   Next, as illustrated in FIG. 4, the image generation apparatus 10 receives input of left and right images (step S <b> 1). Specifically, as illustrated in FIG. 5, the system control unit 16 of the image generation apparatus 10 receives an image 30a (an example of a first image) obtained by imaging the subject 5 from the left side, and captures the image from the right side. The received image 30b (an example of the second image) is received from the imaging device 20b. The image 30a is an image captured from the position of the imaging device 20a (an example of the first position), and the image 30b is an image captured from the position of the imaging device 20b (an example of the second position). The image data is RGB signal data. As described above, the system control unit of the image generation apparatus 10 receives the input of the first image captured from the first position by the plurality of imaging units and the second image captured from the second position. Functions as an example.

次に、画像生成装置10は、各画像の1ライン分の画像データを取得する(ステップS2)。具体的には、画像生成装置10のシステム制御部16は、図6に示すよう、撮像された各画像30a、30bをx方向にスキャンして1ライン分の画像データを取得する。なお、スキャン方向のx方向は、第1位置と第2位置とを結ぶ方向の一例である。   Next, the image generation device 10 acquires image data for one line of each image (step S2). Specifically, as illustrated in FIG. 6, the system control unit 16 of the image generation apparatus 10 scans the captured images 30 a and 30 b in the x direction and acquires image data for one line. The x direction in the scan direction is an example of a direction connecting the first position and the second position.

次に、画像生成装置10は、RGB信号に対してHSV変換を行う(ステップS3)。具体的には、画像生成装置10のシステム制御部16は、下記の式に従い、RGB信号の各画像のデータの1ライン分の各画素に対して、各画素の色相Mxyを求める。
Next, the image generation device 10 performs HSV conversion on the RGB signals (step S3). Specifically, the system control unit 16 of the image generation apparatus 10 obtains the hue Mxy of each pixel for each pixel of one line of the data of each image of the RGB signal according to the following formula.

ここで、RGB信号の画像のデータにおけるR、G、Bの各値は、0.0を最小量、1.0を最大値とする0.0から1.0の範囲とする。R、G、Bの三つの値の内、最大のものをMAX、最小のものをMINをとする。なお、R=G=B(黒、白、グレー)の時は、Mxyは計算せず、特定の値を割り当てる。このように画像生成装置10のシステム制御部16は、第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換手段10bの一例として機能する。   Here, the R, G, and B values in the image data of the RGB signal are in the range of 0.0 to 1.0, with 0.0 as the minimum amount and 1.0 as the maximum value. Among the three values of R, G, and B, the maximum value is MAX and the minimum value is MIN. When R = G = B (black, white, gray), Mxy is not calculated and a specific value is assigned. As described above, the system control unit 16 of the image generation apparatus 10 functions as an example of the hue conversion unit 10b that performs the hue conversion for obtaining the hue of each pixel of the first image and the second image.

次に、画像生成装置10は、色相のグルーピングを行う(ステップS4)。具体的には、画像生成装置10のシステム制御部16は、色相Mxyの値をグループ化することによりセグメント化して、各点におけるMxyを求め、色相のグルーピングを行う。MxyをグルーピングしたものをAxyと定義する。
Next, the image generation apparatus 10 performs hue grouping (step S4). Specifically, the system control unit 16 of the image generation apparatus 10 segments the hue Mxy values by grouping them, obtains Mxy at each point, and performs hue grouping. A grouping of Mxy is defined as Axy.

この例では、色相のグルーピングのグループ数は6としている。加えて、R=G=B(黒、白、グレー)のように、色以外のグループがあるので、合計で7グループとなる。そして、図7に示すように、各画像30a、30bにおいて、HSV変換されたラインデータには、クラスタのインデックス情報が入力される。インデックスは、0〜6までの数値とする。R=G=Bのように色以外に対して”0”を、グループHYに対して”1”を、グループHGに対して”2”を、グループHCに対して”3”を、グループHBに対して”4”を、グループHMに対して”5”を、グループHRに対して”6”を各画素に割り当てる。このように画像生成装置10のシステム制御部16は、色相を当該色相の値の範囲に応じてグループに分類し、グループに対するインデックスを色相の値とした色相の画像に変換する色相変換手段の一例として機能する。なお、グループ数は、更に細分化することも可能である。   In this example, the number of hue groupings is six. In addition, since there are groups other than colors such as R = G = B (black, white, gray), there are a total of 7 groups. Then, as shown in FIG. 7, in each of the images 30a and 30b, cluster index information is input to the line data subjected to HSV conversion. The index is a numerical value from 0 to 6. “0” for colors other than R = G = B, “1” for group HY, “2” for group HG, “3” for group HC, group HB “4” is assigned to each pixel, “5” is assigned to each group HM, and “6” is assigned to each pixel. As described above, the system control unit 16 of the image generation apparatus 10 classifies the hues into groups according to the range of the hue values, and an example of a hue conversion unit that converts the hues into an image of hues using the indices for the groups as hue values. Function as. Note that the number of groups can be further subdivided.

ここで、全ラインに対して色相を求め、色相のグルーピングした場合、図8に示すように、各画像30a、30bに対して色相の画像32a、32bが得られる。   Here, when hues are obtained for all lines and the hues are grouped, hue images 32a and 32b are obtained for the images 30a and 30b, as shown in FIG.

次に、画像生成装置10は、色相のグループの境界探索を行う(ステップS5)。具体的には、画像生成装置10のシステム制御部は、図7に示すように、各画像30a、30bにおいて、矢印の方向に、インデックスの値が変化する境界の位置の探索を行う。これにより各画像30a、30bのエッジ情報が得られる。   Next, the image generation apparatus 10 performs a boundary search of hue groups (step S5). Specifically, as shown in FIG. 7, the system control unit of the image generation apparatus 10 searches for the position of the boundary where the index value changes in the direction of the arrow in each of the images 30a and 30b. Thereby, the edge information of each image 30a, 30b is obtained.

次に、画像生成装置10は、特徴点の位置を特定する(ステップS6)。具体的には、画像生成装置10のシステム制御部16は、図7に示すように、各画像30aにおいて、色相のインデックスが”0”から”2”に変化した境界の位置の画素40a、”2”から”4”に変化した境界の位置の画素41a、”4”から”1”に変化した境界の位置の画素を、特徴点の画素として特定する。同様に、画像生成装置10のシステム制御部16は、各画像30bにおいて、色相のインデックスが”0”から”2”に変化した境界の位置の画素40b、”2”から”4”に変化した境界の位置の画素41bを、特徴点の画素として特定する。このように、色相の値にある一定の差がある箇所が特徴点として選択される。また、画像生成装置10のシステム制御部16は、色相変換された第1画像および第2画像から、第1画像および第2画像の特徴点を抽出する特徴点抽出手段10cの一例として機能する。また、画像生成装置10のシステム制御部16は、色相の変化が生じた箇所を特徴点として抽出する特徴点抽出手段の一例として機能する。   Next, the image generation device 10 specifies the position of the feature point (step S6). Specifically, as illustrated in FIG. 7, the system control unit 16 of the image generation apparatus 10 includes, in each image 30a, the pixel 40a at the boundary position where the hue index has changed from “0” to “2”. The pixel 41a at the boundary position changed from “2” to “4” and the pixel at the boundary position changed from “4” to “1” are specified as the feature point pixels. Similarly, the system control unit 16 of the image generation apparatus 10 changes the pixel 40b at the boundary position where the hue index changes from “0” to “2” in each image 30b, and changes from “2” to “4”. The pixel 41b at the boundary position is specified as the pixel of the feature point. In this way, a portion having a certain difference in hue value is selected as a feature point. Further, the system control unit 16 of the image generation apparatus 10 functions as an example of a feature point extraction unit 10c that extracts feature points of the first image and the second image from the first image and the second image that have been subjected to hue conversion. In addition, the system control unit 16 of the image generation apparatus 10 functions as an example of a feature point extraction unit that extracts a portion where a hue change has occurred as a feature point.

次に、画像生成装置10は、対応する特徴点の探索を行う(ステップS7)。具体的には、画像生成装置10のシステム制御部16は、画像30aのラインデータと、画像30bのラインデータとにおいて、スキャン方向に従って、順に出現する特徴点を各々順序付けし、特徴点位置の(色相変換前の)元画像のパターンマッチングを行うことで順次対応する特徴点を探索する。例えば、画素40aの特徴点と、画素40bの特徴点とは対応し、画素41aの特徴点と、画素41bの特徴点とは対応するとする。また、図9に示すように、画素42aの特徴点と、画素42bの特徴点とは対応するとする。このように画像生成装置10のシステム制御部16は、第1画像と第2画像とにおいて対応する特徴点を求める対応点探索手段10dの一例として機能する。なお、対応する点が存在しない場合は、その特徴点は、特徴点の扱いをしないようにする。   Next, the image generation device 10 searches for a corresponding feature point (step S7). Specifically, the system control unit 16 of the image generation apparatus 10 orders the feature points that appear in order according to the scan direction in the line data of the image 30a and the line data of the image 30b, and sets the feature point position ( The corresponding feature points are searched sequentially by performing pattern matching of the original image (before hue conversion). For example, the feature point of the pixel 40a and the feature point of the pixel 40b correspond to each other, and the feature point of the pixel 41a and the feature point of the pixel 41b correspond to each other. Further, as shown in FIG. 9, it is assumed that the feature point of the pixel 42a corresponds to the feature point of the pixel 42b. As described above, the system control unit 16 of the image generation apparatus 10 functions as an example of the corresponding point search unit 10d that obtains corresponding feature points in the first image and the second image. If there is no corresponding point, the feature point is not handled as a feature point.

次に、画像生成装置10は、視差ベクトルを算出する(ステップS8)。具体的には、画像生成装置10のシステム制御部16は、図9に示すように、スキャン方向(x方向)の視差ベクトル50を算出する。視差ベクトル50は、画像30aの特徴点の画素42aと、画像30bの対応する特徴点の画素42bとすると、(左目)画像30aを基準、例えば、画像30aの特徴点の画素42aのx方向の位置”4”を基準に、(右目)画像30bの特徴点の画素42bのx方向の位置”16”までの距離(12画素の分)(視差ベクトルの長さ)を有する。画像生成装置10のシステム制御部16は、視差ベクトル50を算出するする過程で、抽出した特徴点により対応する特徴点の間の距離(12画素の分の長さ)を算出している。このように画像生成装置10のシステム制御部16は、対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段10eの一例として機能する。   Next, the image generation device 10 calculates a parallax vector (step S8). Specifically, the system control unit 16 of the image generation apparatus 10 calculates a parallax vector 50 in the scan direction (x direction) as illustrated in FIG. 9. If the parallax vector 50 is a feature point pixel 42a of the image 30a and a corresponding feature point pixel 42b of the image 30b, the (left eye) image 30a is used as a reference, for example, the feature point pixel 42a of the image 30a in the x direction With reference to the position “4”, the distance (12 pixels) (the length of the parallax vector) to the position “16” in the x direction of the pixel 42b of the feature point of the (right eye) image 30b is provided. In the process of calculating the parallax vector 50, the system control unit 16 of the image generation apparatus 10 calculates the distance (length corresponding to 12 pixels) between the corresponding feature points based on the extracted feature points. As described above, the system control unit 16 of the image generation apparatus 10 functions as an example of the disparity vector calculation unit 10e that calculates the disparity vector having the distance between the corresponding feature points.

なお、図9において、便宜上、画像30aおよび画像30bの1〜4ラインのラインデータのみが示されていて、第2ラインがデータ処理されているとする。さらに、仮想的な撮像装置25aから撮像した場合の中間視差画像35a、仮想的な撮像装置25bから撮像した場合の中間視差画像35b、仮想的な撮像装置25cから撮像した場合の中間視差画像35cにおいても、1〜4ラインのラインデータのみが示されている。また、図9において、矢印は、視点が左側から右側、または、右側から左側に移動した場合の特徴点の移動方向を表す。   In FIG. 9, for convenience, it is assumed that only line data of 1 to 4 lines of the image 30a and the image 30b are shown, and the second line is subjected to data processing. Furthermore, in the intermediate parallax image 35a captured from the virtual imaging device 25a, the intermediate parallax image 35b captured from the virtual imaging device 25b, and the intermediate parallax image 35c captured from the virtual imaging device 25c. Also, only line data of 1 to 4 lines are shown. In FIG. 9, an arrow indicates the moving direction of the feature point when the viewpoint moves from the left side to the right side or from the right side to the left side.

次に、画像生成装置10は、視差ベクトルと視差との関係から、中間視差画像の基準点の位置を決定する(ステップS9)。画像生成装置10のシステム制御部16は、図10に示すように、仮想的な撮像装置25a、25b、25cの位置(例えば、L/4、L/2、3L/4)と、撮像装置20aと撮像装置20bとの距離Lとの比(第1位置および第2位置に対する第3位置の位置関係)と、視差ベクトル50の長さ(12画素)とに従い、第2ラインにおける基準点の画素45a、45b、45cを求める。このように画像生成装置10のシステム制御部16は、視差ベクトル50を用いて、左右の画像の特徴点の位置を線形計算することにより、中間視差画像の特徴点の位置、すなわち、基準点の位置を割り出す。   Next, the image generation device 10 determines the position of the reference point of the intermediate parallax image from the relationship between the parallax vector and the parallax (step S9). As shown in FIG. 10, the system control unit 16 of the image generation apparatus 10 includes the positions of the virtual imaging devices 25a, 25b, and 25c (for example, L / 4, L / 2, and 3L / 4) and the imaging device 20a. Of the reference point in the second line according to the ratio (the positional relationship of the third position with respect to the first position and the second position) between the distance L and the imaging device 20b and the length of the parallax vector 50 (12 pixels) 45a, 45b and 45c are obtained. As described above, the system control unit 16 of the image generation apparatus 10 linearly calculates the positions of the feature points of the left and right images using the disparity vector 50, so that the position of the feature point of the intermediate parallax image, that is, the reference point Determine the position.

例えば、画像生成装置10のシステム制御部16は、視差ベクトル50に、長さL/4と長さLとの比を掛けた視差ベクトル51(長さ3画素)と、特徴点の画素42aの位置とにより、中間視差画像35aの基準点の画素45aの位置を求める。また、画像生成装置10のシステム制御部16は、視差ベクトル50に、長さL/2と長さLとの比を掛けた視差ベクトル52(長さ6画素)と、特徴点の画素42aの位置とにより、中間視差画像35bの基準点の画素45bの位置を求める。また、画像生成装置10のシステム制御部16は、視差ベクトル50に、長さ3L/4と長さLとの比を掛けて向きを逆にした視差ベクトル53(長さ3画素)と、特徴点の画素42bの位置と、により、中間視差画像35cの基準点の画素45cの位置を求める。このように画像生成装置10のシステム制御部16は、第3画像における対応する特徴点の位置を、第3位置の位置関係に対応する比率と視差ベクトルとから決定する画像生成手段の一例として機能する。   For example, the system control unit 16 of the image generation apparatus 10 sets the disparity vector 51 (length 3 pixels) obtained by multiplying the disparity vector 50 by the ratio of the length L / 4 to the length L, and the feature point pixel 42a. Based on the position, the position of the pixel 45a of the reference point of the intermediate parallax image 35a is obtained. In addition, the system control unit 16 of the image generation apparatus 10 sets the disparity vector 52 (6 pixels in length) obtained by multiplying the disparity vector 50 by the ratio of the length L / 2 and the length L, and the feature point pixel 42a. Based on the position, the position of the pixel 45b of the reference point of the intermediate parallax image 35b is obtained. Further, the system control unit 16 of the image generation apparatus 10 has a parallax vector 53 (length 3 pixels) obtained by reversing the direction by multiplying the parallax vector 50 by the ratio of the length 3L / 4 and the length L, and the characteristics. Based on the position of the point pixel 42b, the position of the reference point pixel 45c of the intermediate parallax image 35c is obtained. As described above, the system control unit 16 of the image generation device 10 functions as an example of an image generation unit that determines the position of the corresponding feature point in the third image from the ratio and the disparity vector corresponding to the positional relationship of the third position. To do.

次に、画像生成装置10は、1ラインの中間視差画像を生成する(ステップS10)。画像生成装置10のシステム制御部16は、基本的に、視点の移動による特徴点のシフト量が少ない方の画像、すなわち、仮想的な撮像装置25、25b、25cが近い撮像装置20a、20bの画素値を利用して、中間視差画像35a、35b、35cを生成していく。例えば、画像生成装置10のシステム制御部16は、図10に示すように、左目の画像30aの画素値”p”を利用して、中間視差画像35aの第2ラインの画素45aの画素値、および、中間視差画像35bの第2ラインの画素45bの画素値を求め、レンダリングする。一方、画像生成装置10のシステム制御部16は、右目の画像30bの画素値”p’”を利用して、中間視差画像35cの第2ラインの画素45cの画素値を求め、レンダリングする。なお、画素45aは、左目の画像30aの画素42aからのシフト量が3画素分であり、右目の画像30bの画素42bからのシフト量が9画素分であり、左目の画像30aからの方が、シフト量が少ない。   Next, the image generation device 10 generates a one-line intermediate parallax image (step S10). The system control unit 16 of the image generation apparatus 10 basically has an image with a smaller shift amount of feature points due to movement of the viewpoint, that is, the image pickup apparatuses 20a and 20b closer to the virtual image pickup apparatuses 25, 25b, and 25c. The intermediate parallax images 35a, 35b, and 35c are generated using the pixel values. For example, as illustrated in FIG. 10, the system control unit 16 of the image generation apparatus 10 uses the pixel value “p” of the image 30a of the left eye, the pixel value of the pixel 45a of the second line of the intermediate parallax image 35a, Then, the pixel value of the pixel 45b of the second line of the intermediate parallax image 35b is obtained and rendered. On the other hand, the system control unit 16 of the image generation apparatus 10 obtains and renders the pixel value of the pixel 45c of the second line of the intermediate parallax image 35c using the pixel value “p ′” of the image 30b of the right eye. Note that the shift amount of the pixel 45a from the pixel 42a of the left-eye image 30a is three pixels, the shift amount of the right-eye image 30b from the pixel 42b is nine pixels, and the shift from the left-eye image 30a is greater. The shift amount is small.

そして、画像生成装置10のシステム制御部16は、基準点の画素45a、45b、45c以外の画素値を求める。画像生成装置10のシステム制御部16は、求めた画素値を、中間視差画像35a、35b、35cを生成するための記憶領域の対応する画素の箇所に記憶して行き、中間視差画像35a、35b、35cの画素を生成する。   Then, the system control unit 16 of the image generation apparatus 10 obtains pixel values other than the reference point pixels 45a, 45b, and 45c. The system control unit 16 of the image generation apparatus 10 stores the obtained pixel values in the corresponding pixel locations in the storage area for generating the intermediate parallax images 35a, 35b, and 35c, and the intermediate parallax images 35a and 35b. , 35c.

ここで、ステレオ画像の性質として、右画像と左画像はお互いに同じ画像が平行移動したものである。これは、基準点周りの画素において考えると、基準点は特徴点であるため、特徴点に隣り合う画素は左目の画像30a、右目の画像30bと共に近似的な関係であると考えられる。図11に示すように、左目の画像30aの基準点の画素42a(画素値”p”)に隣り合う画素43a(画素値”o”)について着目した時、右目の画像30bの基準点の画素42b(画素値”p’”)に隣り合う画素43b(画素値”o’”)は、画素43aに対して近似的な画素値となる。   Here, as a property of the stereo image, the right image and the left image are obtained by translating the same image. Considering the pixels around the reference point, since the reference point is a feature point, the pixels adjacent to the feature point are considered to have an approximate relationship with the left eye image 30a and the right eye image 30b. As shown in FIG. 11, when focusing on the pixel 43a (pixel value “o”) adjacent to the reference point pixel 42a (pixel value “p”) of the left-eye image 30a, the pixel of the reference point of the right-eye image 30b. The pixel 43b (pixel value “o ′”) adjacent to 42b (pixel value “p ′”) has an approximate pixel value with respect to the pixel 43a.

この関係を利用することにより、中間視差画像35a、35b、35cにおける基準点の画素の隣の画素については、画素値”o”、および、画素値”o’”のいずれか一方を利用することで、基準点周りの画素の画素値を補間することができる。画素値”o”、および、画素値”o’”のいずれか一方を利用するかは、左目の画像30a、右目の画像30bのどちらの特徴点のシフト量が少ないかにより決定する。   By using this relationship, one of the pixel value “o” and the pixel value “o ′” is used for the pixel adjacent to the reference point pixel in the intermediate parallax images 35a, 35b, and 35c. Thus, the pixel values of the pixels around the reference point can be interpolated. Whether to use one of the pixel value “o” and the pixel value “o ′” is determined depending on which of the feature points of the left-eye image 30a or the right-eye image 30b has a smaller shift amount.

従って、画像生成装置10のシステム制御部16は、図11に示すように、中間視差画像35aの画素46aの画素値を、視差ベクトル53に従い、左目の画像30aの画素43aの画素値”o”から求める。そして、画像生成装置10のシステム制御部16は、中間視差画像35bの画素46bの画素値を、左目の画像30aの画素43aの画素値”o”から求め、中間視差画像35cの画素46cの画素値を、右目の画像30bの画素43bの画素値”o’”から求める。さらに図12に示すように、画像生成装置10のシステム制御部16は、画素46a、46b、46cの隣の画素においても適用することにより、ラインの画素を補間する。   Accordingly, the system control unit 16 of the image generation apparatus 10 sets the pixel value of the pixel 46a of the intermediate parallax image 35a to the pixel value “o” of the pixel 43a of the left-eye image 30a according to the parallax vector 53, as shown in FIG. Ask from. Then, the system control unit 16 of the image generation device 10 obtains the pixel value of the pixel 46b of the intermediate parallax image 35b from the pixel value “o” of the pixel 43a of the left-eye image 30a, and the pixel 46c of the intermediate parallax image 35c. The value is obtained from the pixel value “o ′” of the pixel 43b of the image 30b of the right eye. Further, as shown in FIG. 12, the system control unit 16 of the image generation apparatus 10 interpolates the pixels of the line by applying to the pixels adjacent to the pixels 46 a, 46 b, and 46 c.

なお、図12に示すように、中間視差画像において、中間視差画像35aの画素47aの場合のように、画像端に注目すると、右目の画像30bには存在する画素でも、左目の画像30aには存在しない画素領域がある。この場合、画像生成装置10のシステム制御部16は、右目の画像30bの画素44bの画素値”l’”を利用して、右目の画像30b側を起点とした視差ベクトル54に従い、中間視差画像35aの画素47aの画素値”l’”を求める。画像生成装置10のシステム制御部16は、中間視差画像35bの画素47b、および、中間視差画像35cの画素47cの画素値も同様に求める。このように、視差ベクトルに従って、距離が近い方の画像30a、30bの画素が無い場合、画像生成装置10のシステム制御部16は、シフト量が多い方の画像30b、30aの画素の画素値を用いて、中間視差画像の画素の画素値を求める。   As shown in FIG. 12, in the intermediate parallax image, as in the case of the pixel 47a of the intermediate parallax image 35a, when attention is paid to the end of the image, even if the pixel exists in the right eye image 30b, There is a pixel area that does not exist. In this case, the system control unit 16 of the image generation apparatus 10 uses the pixel value “l ′” of the pixel 44b of the right-eye image 30b, and follows the disparity vector 54 starting from the right-eye image 30b side to generate an intermediate parallax image. The pixel value “l ′” of the pixel 47a of 35a is obtained. The system control unit 16 of the image generation apparatus 10 similarly obtains the pixel values of the pixel 47b of the intermediate parallax image 35b and the pixel 47c of the intermediate parallax image 35c. As described above, when there is no pixel of the images 30a and 30b that are closer to each other according to the parallax vector, the system control unit 16 of the image generation device 10 determines the pixel values of the pixels of the images 30b and 30a that have the larger shift amount. Using this, the pixel value of the pixel of the intermediate parallax image is obtained.

そして、画像生成装置10のシステム制御部16は、中間視差画像35a、35b、35cの所定のラインデータの全ての画素に対して、画素値を求め、記憶部12において、中間視差画像35a、35b、35cを生成するための記憶領域に記憶する。   Then, the system control unit 16 of the image generation device 10 obtains pixel values for all the pixels of the predetermined line data of the intermediate parallax images 35a, 35b, and 35c, and the intermediate parallax images 35a and 35b in the storage unit 12. , 35c are stored in the storage area.

次に、画像生成装置10は、次のラインに移動できるか否かを判定する(ステップS11)。具体的には、画像生成装置10のシステム制御部16は、画像30a、30bの最後のラインか否かを判定する。現在第2ラインの処理が終了した場合は、次の第3ラインに移動できるので(ステップS11;YES)、画像生成装置10のシステム制御部16は、処理対象を次のラインに移動させて、ステップS2に戻る。   Next, the image generating apparatus 10 determines whether or not it can move to the next line (step S11). Specifically, the system control unit 16 of the image generation apparatus 10 determines whether or not it is the last line of the images 30a and 30b. When the processing of the second line is completed, the system control unit 16 of the image generation apparatus 10 moves the processing target to the next line because it can move to the next third line (step S11; YES). Return to step S2.

このように画像生成装置10のシステム制御部16は、第1位置および第2位置に対する第3位置の位置関係と視差ベクトルとに従い、第1画像と第2画像とから、第3位置から撮像された場合の第3画像を生成する画像生成手段10gの一例として機能する。また画像生成装置10のシステム制御部16は、視差ベクトルに従い、第1位置および第2位置のうち第3位置に近い方の位置の第1画像または第2画像の画素の情報を用いて第3画像を生成する画像生成手段の一例として機能する。また画像生成装置10のシステム制御部16は、視差ベクトルに従った画素が無い場合、前記第1位置および第2位置のうち第3位置から遠い方の位置の第1画像または第2画像の画素の情報を用いて第3画像を生成する画像生成手段の一例として機能する。   As described above, the system control unit 16 of the image generation device 10 is captured from the first position and the second image according to the positional relationship of the third position with respect to the first position and the second position and the disparity vector, from the third position. Functions as an example of the image generation means 10g for generating the third image in the case of Further, the system control unit 16 of the image generation device 10 uses the information on the pixels of the first image or the second image at the position closer to the third position out of the first position and the second position according to the parallax vector. It functions as an example of image generation means for generating an image. Further, the system control unit 16 of the image generation device 10, when there is no pixel according to the parallax vector, the pixel of the first image or the second image at a position farther from the third position among the first position and the second position. It functions as an example of an image generation unit that generates the third image using the information.

また、最後のラインの処理が終わった場合(ステップS11;NO)、画像生成装置10は、中間視差画像を表示する(ステップS12)。具体的には、画像生成装置10のシステム制御部16は、記憶部12から中間視差画像を読み出し、表示部13に各中間視差画像35a、35b、35cを表示する。   When the processing of the last line is finished (step S11; NO), the image generation device 10 displays an intermediate parallax image (step S12). Specifically, the system control unit 16 of the image generation apparatus 10 reads the intermediate parallax images from the storage unit 12 and displays the intermediate parallax images 35a, 35b, and 35c on the display unit 13.

以上、本実施形態によれば、複数の撮像手段の一例である撮像装置20a、20bにより、第1位置(x=0)から撮像された第1画像30aと、第2位置(x=L)から撮像された第2画像30bとの入力を受け付け、第1画像および第2画像の各画素の色相を求める色相変換を行い、色相変換された第1画像および第2画像から、第1画像および第2画像の特徴点を抽出し、第1画像と第2画像とにおいて対応する特徴点を求め、対応する特徴点の間の距離を有する視差ベクトル50を算出し、第1位置と第2位置との間に第3位置(位置L/4、位置L/2、位置3L/4)を設定し、第1位置および第2位置に対する第3位置の位置関係と視差ベクトルとに従い、第1画像と第2画像とから、第3位置から撮像された場合の第3画像35a、35b、35cを生成することにより、特殊なカメラは使用せず、奥行き情報無しに、第3位置の位置関係と視差ベクトルとに従い、特徴点間の画像データを描画するので、低コストで、より少ない演算量で画像を生成することができる。   As described above, according to the present embodiment, the first image 30a captured from the first position (x = 0) and the second position (x = L) by the imaging devices 20a and 20b which are examples of the plurality of imaging units. From the first image and the second image obtained by receiving the input to the second image 30b captured from the first image and performing a hue conversion for obtaining the hue of each pixel of the first image and the second image. A feature point of the second image is extracted, a corresponding feature point is obtained in the first image and the second image, a disparity vector 50 having a distance between the corresponding feature points is calculated, and the first position and the second position Are set to the third position (position L / 4, position L / 2, position 3L / 4), and the first image is determined according to the positional relationship of the third position with respect to the first position and the second position and the disparity vector. And the second image, the third image taken from the third position By generating 5a, 35b, and 35c, a special camera is not used, and image data between feature points is drawn according to the positional relationship of the third position and the disparity vector without depth information. An image can be generated with a smaller amount of calculation.

また、本実施形態において使用する撮像装置20a、20bは、通常のスチルカメラまたビデオカメラであるので、本実施形態は実現しやすい手法である。本実施形態に置いて撮像装置20a、20bは、動画撮影をする場合には同期撮影であってもよい。   In addition, since the imaging devices 20a and 20b used in the present embodiment are ordinary still cameras or video cameras, the present embodiment is a technique that is easy to realize. In the present embodiment, the imaging devices 20a and 20b may perform synchronous shooting when shooting moving images.

また、色相の変化に応じて特徴点を抽出する場合、色相により特徴点を求めているので、輝度による影響が出ない。   Further, when extracting feature points according to the change in hue, the feature points are obtained from the hue, so that there is no influence of luminance.

また、色相を当該色相の値の範囲に応じてグループに分類し、当該グループに対するインデックスを色相の値とした色相の画像に変換する場合、HSV変換を用いての色相変換を施すことにより、色相によるグルーピング処理が行われ、色相のグループの境界が容易に抽出される。また、ラインごとに処理を行うため、画素マトリックスレベルでのクラスタリングが必要ないため、処理が容易である。画像生成装置10において、必要なメモリ、演算量といったシステム要件を下げることができ、またハード化しやすい。   In addition, when hues are classified into groups according to the range of hue values and converted into hue images with the index for the group as a hue value, hue conversion using HSV conversion is performed to perform hue conversion. By doing so, the boundary of the hue group is easily extracted. In addition, since processing is performed for each line, clustering at the pixel matrix level is not necessary, and processing is easy. In the image generation apparatus 10, system requirements such as necessary memory and calculation amount can be reduced, and hardware can be easily realized.

第1画像30aおよび第2画像30bの各画像のスキャン方向(x方向)は、第1位置(x=0)と第2位置(x=L)とを結ぶ方向である場合、スキャン方向と、視差ベクトル50の方向(撮像装置20aと、撮像装置20bとの設置方句)とが平行になり、視差ベクトル50が求めやすくなる。すなわち、画像生成装置10のシステム制御部16は、対応する特徴点の間の距離(視差ベクトルの長さ)を求めるだけで、視差ベクトル50を求めることができる。   When the scan direction (x direction) of each of the first image 30a and the second image 30b is a direction connecting the first position (x = 0) and the second position (x = L), the scan direction; The direction of the parallax vector 50 (installation phrase of the imaging device 20a and the imaging device 20b) is parallel, and the parallax vector 50 is easily obtained. That is, the system control unit 16 of the image generation apparatus 10 can obtain the disparity vector 50 only by obtaining the distance between the corresponding feature points (the length of the disparity vector).

画像生成装置10のシステム制御部16が、第3画像(各中間視差画像35a、35b、35c)における対応する特徴点の位置を、第3位置の位置関係に対応する比率と視差ベクトルとから決定する場合、中間視差画像35a、35b、35cを描画する基準となる基準点を容易に決めやすくなる。   The system control unit 16 of the image generation device 10 determines the position of the corresponding feature point in the third image (each intermediate parallax image 35a, 35b, 35c) from the ratio and the parallax vector corresponding to the positional relationship of the third position. In this case, it becomes easy to determine a reference point as a reference for drawing the intermediate parallax images 35a, 35b, and 35c.

画像生成装置10のシステム制御部16が、視差ベクトル50に従い、第1位置および第2位置のうち第3位置に近い方の位置の第1画像30aまたは第2画像30bの画素から第3画像を生成する場合、中間視差画像に位置的に近い方の画像の画素を利用して描画を行うため、より自然な画像を生成できる。   In accordance with the parallax vector 50, the system control unit 16 of the image generation device 10 obtains the third image from the pixels of the first image 30a or the second image 30b at a position closer to the third position among the first position and the second position. In the case of generation, since drawing is performed using pixels of an image that is positioned closer to the intermediate parallax image, a more natural image can be generated.

画像生成装置10のシステム制御部16が、視差ベクトル50に従った画素が無い場合、前記第1位置および第2位置のうち前記第3位置から遠い方の位置の第1画像または第2画像の画素の情報を用いて第3画像を生成する場合、一方の撮像装置では、画像の端となり、写らない所の画像も生成できる。   When there is no pixel according to the parallax vector 50, the system control unit 16 of the image generation device 10 has the first image or the second image at a position farther from the third position among the first position and the second position. When the third image is generated using the pixel information, one of the imaging devices can generate an image that is an edge of the image and is not captured.

画像生成装置10のシステム制御部16が、複数の第3位置を設定し、複数の第3画像(中間視差画像35a、35b、35c)を生成する場合、容易に多眼的に複数の中間視差画像35a、35b、35cを生成できる。   When the system control unit 16 of the image generation device 10 sets a plurality of third positions and generates a plurality of third images (intermediate parallax images 35a, 35b, and 35c), a plurality of intermediate parallaxes can be easily obtained from multiple eyes. Images 35a, 35b, and 35c can be generated.

なお、画像30aと画像30bが同一の解像度で無い場合、画像生成装置10のシステム制御部16は、画像30aと画像30bとの解像度を合わせてから、ステップS1からの処理を行ってもよい。   When the image 30a and the image 30b are not at the same resolution, the system control unit 16 of the image generation apparatus 10 may perform the processing from step S1 after matching the resolutions of the image 30a and the image 30b.

特徴点を求める際の方向は、スキャン方向のx方向に限らず、y方向でも構わない。   The direction for obtaining the feature points is not limited to the x direction of the scan direction, and may be the y direction.

また、撮像装置20aおよび撮像装置20bが、水平方向(x方向)以外に設置されていてもよい。例えば、上下方向(y方向)に設置されている場合、スキャン方向はy方向が好ましい。   Moreover, the imaging device 20a and the imaging device 20b may be installed in directions other than the horizontal direction (x direction). For example, when installed in the vertical direction (y direction), the scan direction is preferably the y direction.

また、画像生成装置10のシステム制御部16が、特徴点を求める際、色相変換された画像に対して、微分マスクを使い、エッジを求めてもよい。   In addition, when the system control unit 16 of the image generation apparatus 10 obtains feature points, an edge may be obtained using a differential mask with respect to an image subjected to hue conversion.

また、画像生成装置10のシステム制御部16は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)等のマッチング手法により、特徴点同士の一致の度合いを評価し、対応する特徴点を求めてもよい。例えば、画像生成装置10のシステム制御部16は、第1画像30aおよび第2画像30bのライン方向における画素の色のマッチングを行う。また、画像生成装置10のシステム制御部16が、第1画像30aの特徴点を含む画像領域とマッチングする第2画像30bの画像領域を求め、対応する特徴点を求めてもよい。色相変換前の元画像についてパターンマッチングを行ってもよい。   In addition, the system control unit 16 of the image generation apparatus 10 evaluates the degree of matching between feature points by using a matching method such as SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), and the like. You may ask for it. For example, the system control unit 16 of the image generation apparatus 10 performs pixel color matching in the line direction of the first image 30a and the second image 30b. In addition, the system control unit 16 of the image generation apparatus 10 may obtain an image region of the second image 30b that matches an image region including the feature point of the first image 30a, and obtain a corresponding feature point. Pattern matching may be performed on the original image before hue conversion.

さらに、本発明は、上記各実施形態に限定されるものではない。上記各実施形態は、例示であり、本発明の特許請求の範囲に記載された技術的思想と実質的に同一な構成を有し、同様な作用効果を奏するものは、いかなるものであっても本発明の技術的範囲に包含される。   Furthermore, the present invention is not limited to the above embodiments. Each of the embodiments described above is an exemplification, and any configuration that has substantially the same configuration as the technical idea described in the claims of the present invention and has the same operational effects can be used. It is included in the technical scope of the present invention.

1:画像生成システム
10:画像生成装置
20(20a、20b):撮像装置(撮像手段)
30(30a、30b):画像(第1画像、第2画像)
35(35a、35b、35c):中間視差画像(第3画像)
40a、40b、41a、41b、42a、42b、45a、45b、45c:特徴点の画素(特徴点)
50:視差ベクトル
1: Image generation system 10: Image generation device 20 (20a, 20b): Imaging device (imaging means)
30 (30a, 30b): image (first image, second image)
35 (35a, 35b, 35c): intermediate parallax image (third image)
40a, 40b, 41a, 41b, 42a, 42b, 45a, 45b, 45c: feature point pixels (feature points)
50: Disparity vector

Claims (7)

複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段と、
前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換手段と、
前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段と、
前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索手段と、
前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段と、
前記第1位置と第2位置との間に第3位置を設定する位置設定手段と、
前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成手段と、
を備え
前記色相変換手段が、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し
前記特徴点抽出手段は、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、
前記対応点探索手段は、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索することを特徴とする画像生成装置。
Image input means for receiving inputs of a first image picked up from a first position and a second image picked up from a second position by a plurality of image pickup means;
Hue conversion means for performing hue conversion to obtain the hue of each pixel of the first image and the second image;
Feature point extracting means for extracting feature points of the first image and the second image from the hue-converted first image and second image;
Corresponding point search means for obtaining corresponding feature points in the first image and the second image;
Disparity vector calculating means for calculating a disparity vector having a distance between the corresponding feature points;
Position setting means for setting a third position between the first position and the second position;
According to the positional relationship of the third position with respect to the first position and the second position and the parallax vector, a third image when captured from the third position is generated from the first image and the second image. Image generating means;
Equipped with a,
The hue conversion means classifies the hue into groups according to a range of the hue value, converts the hue into an image of the hue with the index for the group as a hue value ,
The feature point extracting means sets a direction connecting the first position and the second position as a scan direction of each image of the first image and the second image, and a portion where the hue change occurs as the feature point Extract and
The corresponding point search means sequentially orders the feature points that appear in order according to the scan direction, and sequentially searches for corresponding feature points by collating the original image before hue conversion at the position of the feature points . An image generation apparatus characterized by that.
請求項1記載の画像生成装置において、
前記画像生成手段が、前記第3画像における前記対応する特徴点の位置を、前記第3位置の位置関係に対応する比率と前記視差ベクトルとから決定することを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The image generation apparatus, wherein the image generation unit determines the position of the corresponding feature point in the third image from a ratio corresponding to the positional relationship of the third position and the parallax vector.
請求項1または請求項2に記載の画像生成装置において、
前記画像生成手段が、前記視差ベクトルに従い、前記第1位置および第2位置のうち前記第3位置に近い方の位置の前記第1画像または第2画像の画素の情報を用いて第3画像を生成することを特徴とする画像生成装置。
In the image generation device according to claim 1 or 2 ,
In accordance with the parallax vector, the image generation unit uses the pixel information of the first image or the second image at a position closer to the third position out of the first position and the second position to generate a third image. An image generation apparatus characterized by generating.
請求項に記載の画像生成装置において、
前記画像生成手段が、前記視差ベクトルに従った画素が無い場合、前記第1位置および第2位置のうち前記第3位置から遠い方の位置の前記第1画像または第2画像の画素の情報を用いて第3画像を生成することを特徴とする画像生成装置。
The image generation apparatus according to claim 3 .
When there is no pixel according to the parallax vector, the image generation unit obtains information on the pixel of the first image or the second image at a position farther from the third position among the first position and the second position. An image generation apparatus characterized in that a third image is generated using the third image.
請求項1からのいずれか1項に記載の画像生成装置において、
前記位置設定手段が、複数の第3位置を設定し、
前記画像生成手段が、複数の第3画像を生成することを特徴とする画像生成装置。
In the image generation device according to any one of claims 1 to 4 ,
The position setting means sets a plurality of third positions;
The image generation device, wherein the image generation means generates a plurality of third images.
画像生成装置が、画像を生成する画像生成方法であって、
複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力ステップと、
前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換ステップと、
前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出ステップと、
前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索ステップと、
前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出ステップと、
前記第1位置と第2位置との間に第3位置を設定する位置設定ステップと、
前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成ステップと、
を有し、
前記色相変換ステップにおいて、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し、
前記特徴点抽出ステップにおいて、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、
前記対応点探索ステップにおいて、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索することを特徴とする画像生成方法。
An image generation method in which an image generation device generates an image,
An image input step for receiving input of a first image captured from a first position and a second image captured from a second position by a plurality of imaging means;
A hue conversion step for performing a hue conversion to obtain a hue of each pixel of the first image and the second image;
A feature point extracting step of extracting feature points of the first image and the second image from the first image and the second image subjected to the hue conversion;
A corresponding point search step for obtaining corresponding feature points in the first image and the second image;
A disparity vector calculating step of calculating a disparity vector having a distance between the corresponding feature points;
A position setting step of setting a third position between the first position and the second position;
According to the positional relationship of the third position with respect to the first position and the second position and the parallax vector, a third image when captured from the third position is generated from the first image and the second image. An image generation step;
I have a,
In the hue conversion step, the hue is classified into a group according to a range of the hue value, and converted into an image of the hue with the index for the group as a hue value;
In the feature point extraction step, a direction connecting the first position and the second position is a scan direction of each image of the first image and the second image, and a portion where the hue change occurs is the feature point. Extract and
In the corresponding point search step, the feature points that appear in order according to the scanning direction are ordered, and corresponding feature points are sequentially searched by collating the original image before hue conversion at the position of the feature points . An image generation method characterized by the above.
コンピュータを、
複数の撮像手段により第1位置から撮像された第1画像と第2位置から撮像された第2画像との入力を受け付ける画像入力手段、
前記第1画像および第2画像の各画素の色相を求める色相変換を行う色相変換手段、
前記色相変換された前記第1画像および第2画像から、前記第1画像および第2画像の特徴点を抽出する特徴点抽出手段、
前記第1画像と第2画像とにおいて対応する特徴点を求める対応点探索手段、
前記対応する特徴点の間の距離を有する視差ベクトルを算出する視差ベクトル算出手段、
前記第1位置と第2位置との間に第3位置を設定する位置設定手段、および、前記第1位置および第2位置に対する前記第3位置の位置関係と前記視差ベクトルとに従い、前記第1画像と第2画像とから、前記第3位置から撮像された場合の第3画像を生成する画像生成手段として機能させ
前記色相変換手段は、前記色相を当該色相の値の範囲に応じてグループに分類し、前記グループに対するインデックスを色相の値とした前記色相の画像に変換し、
前記特徴点抽出手段は、前記第1位置と第2位置とを結ぶ方向を、前記第1画像および第2画像の各画像のスキャン方向とし、前記色相の変化が生じた箇所を前記特徴点として抽出し、
前記対応点探索手段は、前記スキャン方向に従って順に出現する前記特徴点を各々順序付けし、当該特徴点の位置において、色相変換前の元画像についての照合を行うことで順次対応する特徴点を探索する画像生成装置用プログラム。
Computer
Image input means for receiving inputs of a first image picked up from a first position and a second image picked up from a second position by a plurality of image pickup means;
Hue conversion means for performing hue conversion to obtain the hue of each pixel of the first image and the second image;
Feature point extraction means for extracting feature points of the first image and the second image from the hue-converted first image and second image;
Corresponding point search means for obtaining corresponding feature points in the first image and the second image;
Disparity vector calculating means for calculating a disparity vector having a distance between the corresponding feature points;
Position setting means for setting a third position between the first position and the second position, and the first position according to the positional relationship of the third position with respect to the first position and the second position and the parallax vector, From the image and the second image, function as image generation means for generating a third image when captured from the third position ,
The hue converting means classifies the hue into groups according to a range of the hue value, converts the hue into an image of the hue having an index for the group as a hue value,
The feature point extracting means sets a direction connecting the first position and the second position as a scan direction of each image of the first image and the second image, and a portion where the hue change occurs as the feature point Extract and
The corresponding point search means sequentially orders the feature points that appear in order according to the scan direction, and searches for the corresponding feature points sequentially by collating the original image before hue conversion at the position of the feature points. A program for an image generation apparatus.
JP2011215079A 2011-09-29 2011-09-29 Image generation apparatus, image generation method, and program for image generation apparatus Expired - Fee Related JP5834712B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011215079A JP5834712B2 (en) 2011-09-29 2011-09-29 Image generation apparatus, image generation method, and program for image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011215079A JP5834712B2 (en) 2011-09-29 2011-09-29 Image generation apparatus, image generation method, and program for image generation apparatus

Publications (2)

Publication Number Publication Date
JP2013077050A JP2013077050A (en) 2013-04-25
JP5834712B2 true JP5834712B2 (en) 2015-12-24

Family

ID=48480492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011215079A Expired - Fee Related JP5834712B2 (en) 2011-09-29 2011-09-29 Image generation apparatus, image generation method, and program for image generation apparatus

Country Status (1)

Country Link
JP (1) JP5834712B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06101024B2 (en) * 1988-07-28 1994-12-12 工業技術院長 Obstacle detection device
JPH0749944A (en) * 1993-08-04 1995-02-21 Canon Inc Method and device for image processing
JP5255522B2 (en) * 2009-06-01 2013-08-07 日本放送協会 Display / photographing device

Also Published As

Publication number Publication date
JP2013077050A (en) 2013-04-25

Similar Documents

Publication Publication Date Title
JP4958233B2 (en) Multi-view image creation system and multi-view image creation method
JP5308523B2 (en) Stereoscopic image display device
CN110381268B (en) Method, device, storage medium and electronic equipment for generating video
JP4737763B2 (en) Free viewpoint image generation method, apparatus and program using multi-viewpoint images
JP6020471B2 (en) Image processing method, image processing apparatus, and image processing program
JP5533529B2 (en) Image processing apparatus and image processing system
EP2757789A1 (en) Image processing system, image processing method, and image processing program
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
WO2018147059A1 (en) Image processing device, image processing method, and program
KR101125061B1 (en) A Method For Transforming 2D Video To 3D Video By Using LDI Method
EP2741503A1 (en) Method and apparatus for color transfer between images
JP6429483B2 (en) Information processing apparatus, imaging apparatus, information processing system, information processing method, and program
CN110580684A (en) image enhancement method based on black-white-color binocular camera
JP2014072809A (en) Image generation apparatus, image generation method, and program for the image generation apparatus
GB2585197A (en) Method and system for obtaining depth data
JP5751117B2 (en) Image generation apparatus, image generation method, and program for image generation apparatus
JP5834712B2 (en) Image generation apparatus, image generation method, and program for image generation apparatus
US9380285B2 (en) Stereo image processing method, stereo image processing device and display device
WO2014077024A1 (en) Image processing device, image processing method and image processing program
JP5088973B2 (en) Stereo imaging device and imaging method thereof
CN111630569B (en) Binocular matching method, visual imaging device and device with storage function
KR101804157B1 (en) Disparity map generating method based on enhanced semi global matching
CN105282534A (en) System and method for embedding stereo imagery
JP2008167267A (en) Stereo image encoding apparatus, stereo image encoding method and stereo image encoding program
JP2012253706A (en) Image processing device, program therefor, image processing system, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150414

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151019

R150 Certificate of patent or registration of utility model

Ref document number: 5834712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees