JP2012244583A - Imaging device, image processing method, and program - Google Patents

Imaging device, image processing method, and program Download PDF

Info

Publication number
JP2012244583A
JP2012244583A JP2011115984A JP2011115984A JP2012244583A JP 2012244583 A JP2012244583 A JP 2012244583A JP 2011115984 A JP2011115984 A JP 2011115984A JP 2011115984 A JP2011115984 A JP 2011115984A JP 2012244583 A JP2012244583 A JP 2012244583A
Authority
JP
Japan
Prior art keywords
image
imaging
color
monochrome
dimensional data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011115984A
Other languages
Japanese (ja)
Other versions
JP2012244583A5 (en
JP5863280B2 (en
Inventor
Shohei Tsutsumi
正平 堤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011115984A priority Critical patent/JP5863280B2/en
Publication of JP2012244583A publication Critical patent/JP2012244583A/en
Publication of JP2012244583A5 publication Critical patent/JP2012244583A5/ja
Application granted granted Critical
Publication of JP5863280B2 publication Critical patent/JP5863280B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To obtain highly accurate three-dimensional data with a simple configuration.SOLUTION: A multiple lens system image pickup device comprises: imaging units (101-117) which pick up a color image; a plurality of imaging units (118-125) which pick up a monochrome image; a three-dimensional data calculation unit which calculates three-dimensional data of a subject on the basis of the monochrome image obtained by the plurality of imaging units which pick up the monochrome image; and a synthesizing unit which generates color three-dimensional image data which associates the three-dimensional data with the color image obtained by the imaging units which pick up the color image.

Description

本発明は、異なる複数の視点位置から撮像可能な撮像部を有する多眼方式の撮像装置を使用して、被写体カラー三次元データを生成する画像取得方法およびそれを用いた撮像装置、プログラムに関するものである。   The present invention relates to an image acquisition method for generating subject color three-dimensional data by using a multi-lens imaging device having imaging units capable of imaging from a plurality of different viewpoint positions, an imaging device using the image acquisition method, and a program It is.

近年、被写体の三次元データを計測し、その被写体のカラー画像と計測値とを合成したカラー三次元画像を用いて、被写体を立体的に可視可能に表示する要求が高まっている。被写体の三次元データを計測する方法の1つには、モノクロ(白黒)のステレオカメラによって撮像された、視差のある複数の画像を用いて、画像間の相関に基づくステレオマッチング処理する方法がある。この方法において、被写体の三次元データの計測精度を向上させるために、視差の異なる3枚以上の画像を使用して、被写体の三次元データを計測する多眼方式が知られている。   In recent years, there has been an increasing demand to display a subject in a three-dimensionally visible manner by measuring three-dimensional data of a subject and using a color three-dimensional image obtained by combining the color image of the subject and a measurement value. One method of measuring three-dimensional data of a subject is a method of performing stereo matching processing based on correlation between images using a plurality of images with parallax captured by a monochrome (monochrome) stereo camera. . In this method, in order to improve the measurement accuracy of the three-dimensional data of the subject, a multi-view method for measuring the three-dimensional data of the subject using three or more images having different parallax is known.

また、被写体の三次元データの他に、カラーカメラによって撮像された被写体のカラー画像とステレオマッチングによって得られた被写体の三次元データとを合成して、被写体のカラー三次元画像データを生成する手法が提案されている(例えば、特許文献1参照。)。   In addition to the subject's three-dimensional data, a method for generating the subject's color three-dimensional image data by synthesizing the subject's color image captured by the color camera and the subject's three-dimensional data obtained by stereo matching. Has been proposed (see, for example, Patent Document 1).

特許文献1によると、視差画像を得る撮像装置は、モノクロカメラとカラーカメラを各1台備えるステレオカメラである。カラーカメラで取得されたカラー画像Cをモノクロ画像GAに変換した後、モノクロカメラで取得されたモノクロ画像GBとモノクロ画像GAを用いて、ステレオマッチング処理により被写体の三次元データを計測する。計測された被写体の三次元データとカラー画像Cとを対応付けることで、被写体のカラー三次元画像データを生成する。   According to Patent Document 1, an imaging device that obtains a parallax image is a stereo camera including one monochrome camera and one color camera. After the color image C acquired by the color camera is converted into a monochrome image GA, the three-dimensional data of the subject is measured by stereo matching processing using the monochrome image GB and the monochrome image GA acquired by the monochrome camera. By associating the measured three-dimensional data of the subject with the color image C, color three-dimensional image data of the subject is generated.

更に、1台の撮像装置の撮像素子上にカラー撮影領域とモノクロ撮像領域を合わせ持ち、被写体のカラー三次元画像データを生成する手法が提案されている(例えば、特許文献2参照。)。特許文献2によると、撮像装置の光軸上で撮像素子の手前にレンズアレイを配置し、1台の撮像装置で視差の異なる画像を生成する構成である。該撮像装置の撮像装置の撮像素子上に設定される複数のモノクロ撮像領域から得られる画像データから被写体の三次元データを算出する。同一の撮像素子上に設定されるカラー撮像領域から被写体のカラー画像を取得する。そして、これらの被写体の三次元データとカラー画像を合成することにより、被写体のカラー三次元画像データを生成する。   Furthermore, a technique has been proposed in which a color imaging area and a monochrome imaging area are combined on an imaging element of one imaging apparatus to generate color three-dimensional image data of a subject (for example, see Patent Document 2). According to Patent Document 2, a lens array is arranged in front of an image sensor on the optical axis of an image pickup apparatus, and an image with different parallax is generated by one image pickup apparatus. Three-dimensional data of a subject is calculated from image data obtained from a plurality of monochrome imaging regions set on an imaging element of the imaging device of the imaging device. A color image of a subject is acquired from a color imaging area set on the same imaging device. Then, the color three-dimensional image data of the subject is generated by combining the three-dimensional data of the subject and the color image.

特許第4193292号明細書Japanese Patent No. 4193292 特開2009−284188号公報JP 2009-284188 A

特許文献1で提案される手法では、カラーカメラで取得されたカラー画像からモノクロ画像を生成する際には、カラー画像の注目画素の近傍にある、異なる色情報を持つ複数の画素から補間処理によって、輝度値(モノクロ値)を計算によって求めている。したがって、モノクロカメラで得られたモノクロ画像と解像度を合わせようとすると、補間処理による誤差が必然的に発生するために、高精度な三次元データを得ることができない。更に、カラー画像を取得するめには、カラーフィルタを撮像素子上に配置する必要があるため、モノクロカメラで得られる画像と比較すると、画像中に発生するノイズが目立ちやすくなる。このノイズは、ステレオマッチングの精度を低下させるため、獲得したい三次元データの算出精度に影響を及ぼすといった問題が発生する。したがって、特許文献1に記載の手法には、高精度な視差画像を得ることができない課題が存在する。   In the method proposed in Patent Document 1, when a monochrome image is generated from a color image acquired by a color camera, interpolation is performed from a plurality of pixels having different color information in the vicinity of the target pixel of the color image. The luminance value (monochrome value) is obtained by calculation. Therefore, if an attempt is made to match the resolution with a monochrome image obtained by a monochrome camera, an error due to an interpolation process inevitably occurs, so that highly accurate three-dimensional data cannot be obtained. Furthermore, since it is necessary to dispose a color filter on the image sensor in order to acquire a color image, noise generated in the image is more conspicuous than an image obtained with a monochrome camera. Since this noise lowers the accuracy of stereo matching, there is a problem that it affects the calculation accuracy of the three-dimensional data desired to be acquired. Therefore, the technique described in Patent Document 1 has a problem that a highly accurate parallax image cannot be obtained.

また、特許文献2で提案される手法では、1台の撮像装置によって視差画像を得るため、視差の大きさが撮像装置の主レンズ、レンズアレイ、並びに撮像素子の大きさに依存するという課題がある。つまり、視差を大きく確保すれば三次元データの推定精度が向上するが、その一方で撮像装置のコストが高くなる問題が発生する。従来の撮像装置で対応すると、視差が十分に確保できずに、高精度な三次元データデータが得られなくなる。   Further, in the method proposed in Patent Document 2, in order to obtain a parallax image with one imaging device, there is a problem that the size of the parallax depends on the size of the main lens, the lens array, and the imaging element of the imaging device. is there. That is, if a large amount of parallax is ensured, the estimation accuracy of the three-dimensional data is improved, but there is a problem that the cost of the imaging device is increased. If the conventional imaging apparatus is used, a sufficient amount of parallax cannot be secured, and highly accurate three-dimensional data data cannot be obtained.

上記課題を解決するために、本発明は、カラー画像を撮像する撮像部と、モノクロ画像を撮像する複数の撮像部と、前記モノクロ画像を撮像する複数の撮像部で得られるモノクロ画像に基づいて、被写体の三次元データを算出する三次元データ算出部と、前記カラー画像を撮像する撮像部で得られるカラー画像と、前記三次元データとを対応付けたカラー3次元画像データを生成する合成部と、を具備する多眼方式の撮像装置。   In order to solve the above problems, the present invention is based on an imaging unit that captures a color image, a plurality of imaging units that capture a monochrome image, and a monochrome image obtained by the plurality of imaging units that capture the monochrome image. A three-dimensional data calculation unit that calculates three-dimensional data of a subject; a synthesis unit that generates color three-dimensional image data in which a color image obtained by an imaging unit that captures the color image and the three-dimensional data are associated with each other And a multi-eye imaging device.

本発明により、簡単な構成で高精度な三次元データを得ることができる。   According to the present invention, highly accurate three-dimensional data can be obtained with a simple configuration.

本発明の実施形態に係る複数の撮像部を備えた多眼方式の撮像装置の一例を表す図である。1 is a diagram illustrating an example of a multi-lens imaging device including a plurality of imaging units according to an embodiment of the present invention. 図1の多眼方式の撮像装置の構成を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration of the multi-lens imaging device of FIG. 撮像部の詳細を説明する図である。It is a figure explaining the detail of an imaging part. 本発明の実施形態に係る画像処理部212の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part 212 which concerns on embodiment of this invention. 画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of an image process. センサ上の画素位置における被写体の三次元データを算出する過程を模式的に示した図である。It is the figure which showed typically the process of calculating the three-dimensional data of the to-be-photographed object in the pixel position on a sensor. 被写体の三次元データを算出する過程を模式的に示した図である。It is the figure which showed typically the process of calculating the three-dimensional data of a to-be-photographed object. 三次元データ算出処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a three-dimensional data calculation process. 複数の撮像部を備えた多眼方式の撮像装置のその他の例を表す図である。It is a figure showing the other example of the imaging device of a multi-view system provided with the some imaging part. 撮像部の配置が異なる多眼方式の撮像装置の一例を表す図である。It is a figure showing an example of the imaging device of a multi-view system from which arrangement of an imaging part differs. モノクロ撮像部のセンサ画素数をカラー撮像部のセンサ画素数よりも相対的に少なくした場合の一例を表す図である。It is a figure showing an example at the time of making the number of sensor pixels of a monochrome image pick-up part relatively smaller than the number of sensor pixels of a color image pick-up part.

図1は、本発明における第一実施形態である25個の撮像部を備えた多眼方式による撮像装置である。図1中の101〜125は各撮像部を示す。そのうち101〜117はカラー画像を取得するカラー撮像部であり、118〜125はモノクロ画像を取得するモノクロ撮像部である。カラー撮像部とモノクロ撮像部の詳細については後述する。126は撮影ボタン、127は撮像装置の筺体を例示したものである。後述する3次元データの生成時にモノクロ画像が使用されるため、モノクロ撮像部間の間隔は、カラー撮像部間の間隔に比べて広く設定することが好ましい。更に、図1に示すように、撮像部の中心付近、すなわち各撮像部101〜125が図1のように所定の間隔で配置されているときに中心に配置される撮像部として、カラー撮像部が配置される。例えば、カラー撮像部104〜114。さらに、それらカラー撮像部104〜114を取り囲むようにモノクロ撮像部118〜125が外側に配置される構成がより好ましい。このような構成により、被写体を異なる複数の視点位置から撮像した画像を得ることができる。   FIG. 1 is a multi-eye imaging apparatus including 25 imaging units according to the first embodiment of the present invention. Reference numerals 101 to 125 in FIG. Among them, 101 to 117 are color imaging units that acquire color images, and 118 to 125 are monochrome imaging units that acquire monochrome images. Details of the color imaging unit and the monochrome imaging unit will be described later. Reference numeral 126 denotes a photographing button, and 127 denotes a housing of the imaging device. Since a monochrome image is used when generating three-dimensional data, which will be described later, it is preferable to set the interval between the monochrome imaging units wider than the interval between the color imaging units. Further, as shown in FIG. 1, a color imaging unit is used as an imaging unit that is arranged near the center of the imaging unit, that is, when the imaging units 101 to 125 are arranged at predetermined intervals as shown in FIG. Is placed. For example, the color imaging units 104 to 114. Furthermore, a configuration in which the monochrome imaging units 118 to 125 are arranged outside so as to surround the color imaging units 104 to 114 is more preferable. With such a configuration, it is possible to obtain images obtained by imaging the subject from a plurality of different viewpoint positions.

図2は、図1の多眼方式の撮像装置を構成する各処理部を示す。カラー撮像部101〜117及びモノクロ撮像部118〜125は、被写体の光情報をセンサ(撮像素子)で受光し、A/D変換を実施した後、データ転送経路であるバス213にデジタルデータを出力する。   FIG. 2 shows each processing unit constituting the multi-eye imaging apparatus of FIG. The color image pickup units 101 to 117 and the monochrome image pickup units 118 to 125 receive optical information of a subject by a sensor (image pickup device), perform A / D conversion, and then output digital data to a bus 213 that is a data transfer path. To do.

中央処理装置(CPU)203は、各構成の処理全てに関わり、ROM201やRAM202に格納された命令を順に読み込み、解釈し、その結果に従って処理を実行する。また、ROM201とRAM202は、その処理に必要なプログラム、データ、作業領域などをCPU203に提供する。   The central processing unit (CPU) 203 is involved in all the processes of each configuration, reads the instructions stored in the ROM 201 and the RAM 202 in order, interprets them, and executes the processes according to the results. The ROM 201 and the RAM 202 provide the CPU 203 with programs, data, work areas, and the like necessary for the processing.

操作部204は、ボタンやモードダイヤルなどから構成され、入力されたユーザ指示を受け取る。撮像部制御部207は、フォーカスを合わせる、シャッターを開く、絞りを調節するなどの、CPU203から指示された撮像系の制御を行う。   The operation unit 204 includes buttons, a mode dial, and the like, and receives input user instructions. The imaging unit control unit 207 controls the imaging system instructed by the CPU 203 such as focusing, opening a shutter, and adjusting an aperture.

デジタル信号処理部134は、バス213から供給されるデジタルデータにホワイトバランス処理、ガンマ処理、ノイズ低減処理などを行い、デジタル画像を生成する。エンコーダ部209は、上記デジタルデータをJpegやMpegなどのファイルフォーマットに変換する処理を行う。   The digital signal processing unit 134 performs white balance processing, gamma processing, noise reduction processing, and the like on the digital data supplied from the bus 213 to generate a digital image. The encoder unit 209 performs processing for converting the digital data into a file format such as Jpeg or Mpeg.

外部メモリ制御部210は、PCその他メディア211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続するためのインターフェースである。   The external memory control unit 210 is an interface for connecting to a PC and other media 211 (for example, hard disk, memory card, CF card, SD card, USB memory).

表示部206は、一般的には液晶ディスプレイが広く用いられており、後述の画像処理部212から受け取った撮影画像や文字の表示を行う。また、表示部206は、タッチスクリーン機能を有していても良く、その場合は、ユーザ指示を操作部204の入力として扱うことも可能である。表示制御部205は、表示部206に表示される撮影画像や文字の表示制御を行う。   Generally, a liquid crystal display is widely used as the display unit 206, and displays a captured image and characters received from an image processing unit 212 described later. In addition, the display unit 206 may have a touch screen function, and in that case, a user instruction can be handled as an input of the operation unit 204. A display control unit 205 performs display control of a captured image and characters displayed on the display unit 206.

画像処理部212は、撮像部101〜125から得られたデジタル画像或いは、デジタル信号処理部208から出力されるデジタル画像群を利用して画像処理を実施し、その結果をバス213へ出力する。なお、同等の機能を備えるように各構成要素を組み合わせることにより、装置の構成要素を上記以外の構成とすることも可能である。なお、本発明の撮像装置は、撮像部101〜125と画像処理部212に特徴を有する。   The image processing unit 212 performs image processing using a digital image obtained from the imaging units 101 to 125 or a digital image group output from the digital signal processing unit 208, and outputs the result to the bus 213. It should be noted that the constituent elements of the apparatus can be configured other than the above by combining the constituent elements so as to have equivalent functions. The imaging apparatus of the present invention is characterized by the imaging units 101 to 125 and the image processing unit 212.

次に、図3を用いて、撮像部101〜125の詳細を説明する。図3(a)に示すカラー撮像部311は、カラー撮像部101〜117の具体的な構成を示す。   Next, details of the imaging units 101 to 125 will be described with reference to FIG. A color imaging unit 311 illustrated in FIG. 3A illustrates a specific configuration of the color imaging units 101 to 117.

カラー撮像部311は、ズームレンズ301、フォーカスレンズ302、ぶれ補正レンズ303、絞り304、シャッター305、光学ローパスフィルタ306、iRカットフィルタ307、カラーフィルタ308、センサ309、A/D変換部310を備える。   The color imaging unit 311 includes a zoom lens 301, a focus lens 302, a shake correction lens 303, a diaphragm 304, a shutter 305, an optical low-pass filter 306, an iR cut filter 307, a color filter 308, a sensor 309, and an A / D conversion unit 310. .

カラー撮像部311は、301〜309に示す構成要素により被写体の光量を検知する。そして、A/D変換部310は、検知された被写体の光量をデジタル値に変換する。なお、図3(b)に示すモノクロ撮像部312は、カラー撮像部312に対して、カラーフィルタ308を取り除いた構成となっている。   The color imaging unit 311 detects the amount of light of the subject using the components indicated by 301 to 309. Then, the A / D conversion unit 310 converts the detected light amount of the subject into a digital value. Note that the monochrome imaging unit 312 illustrated in FIG. 3B has a configuration in which the color filter 308 is removed from the color imaging unit 312.

<画像処理部の構成図>
図4は、図2に示す画像処理部212の構成を示すブロック図である。画像処理部212は、カラー画像取得部401、モノクロ画像取得部402、三次元データ算出部403、カメラパラメータDB404、合成部405から構成される。
<Configuration of image processing unit>
FIG. 4 is a block diagram illustrating a configuration of the image processing unit 212 illustrated in FIG. The image processing unit 212 includes a color image acquisition unit 401, a monochrome image acquisition unit 402, a three-dimensional data calculation unit 403, a camera parameter DB 404, and a synthesis unit 405.

カラー画像取得部401は、カラー撮像部101〜117からバス213を経由して供給されるカラー画像群を取得する。本実施例1では、17台のカラー撮像部101〜117からそれぞれ1枚のカラー画像が供給される。すなわち、カラー画像取得部401は、17枚のカラー画像を取得する。   The color image acquisition unit 401 acquires a color image group supplied from the color imaging units 101 to 117 via the bus 213. In the first embodiment, one color image is supplied from each of the 17 color imaging units 101 to 117. That is, the color image acquisition unit 401 acquires 17 color images.

モノクロ画像取得部402は、バス213を経由してモノクロ撮像部118〜125から供給されるモノクロ画像を取得する。本実施形態では、8台のモノクロ撮像部を有しており、各モノクロ撮像部から1枚のモノクロ画像が供給される。すなわち、モノクロ画像取得部402は、8枚のモノクロ画像を取得する。   The monochrome image acquisition unit 402 acquires monochrome images supplied from the monochrome imaging units 118 to 125 via the bus 213. In the present embodiment, eight monochrome imaging units are provided, and one monochrome image is supplied from each monochrome imaging unit. That is, the monochrome image acquisition unit 402 acquires eight monochrome images.

三次元データ算出部403は、モノクロ画像取得部402から取得したモノクロ画像群と、図1に示す撮像装置に関わるカメラパラメータを用いて、被写体の三次元データを算出する。なお、該カメラパラメータは、三次元データの算出に先立ってカメラパラメータデータベース(DB)に格納されているものである。本実施例1で使用するカメラパラメータは、各撮像部の相対位置、センササイズ、センサ画素数、センサピッチ、画角などである。   The three-dimensional data calculation unit 403 calculates the three-dimensional data of the subject using the monochrome image group acquired from the monochrome image acquisition unit 402 and the camera parameters related to the imaging apparatus shown in FIG. The camera parameters are stored in the camera parameter database (DB) prior to the calculation of the three-dimensional data. The camera parameters used in the first embodiment are the relative position of each imaging unit, sensor size, number of sensor pixels, sensor pitch, angle of view, and the like.

合成部405は、三次元データ算出部403で算出された被写体の三次元データと、カラー画像取得部401から取得した被写体のカラー画像を対応付けた後、画像データとして合成し、出力する。なお、各処理部はCPU203により制御されている。   The synthesizing unit 405 associates the three-dimensional data of the subject calculated by the three-dimensional data calculating unit 403 with the color image of the subject acquired from the color image acquisition unit 401, and then combines and outputs the image data. Each processing unit is controlled by the CPU 203.

次に、画像処理部212で行なわれる画像処理方法を図5のフローチャートを用いて説明する。まず、モノクロ撮像部118〜125で撮影されたモノクロ画像群が入力される(ステップS501)。本実施例1では、各モノクロ撮像部で撮影されたモノクロ画像が各1枚、全体で8枚のモノクロ画像が入力される。   Next, an image processing method performed by the image processing unit 212 will be described with reference to the flowchart of FIG. First, the monochrome image group image | photographed with the monochrome imaging parts 118-125 is input (step S501). In the first embodiment, one monochrome image captured by each monochrome imaging unit is input, and a total of eight monochrome images are input.

次に、3次元データ算出時の基準となる基準カメラを設定する(ステップS502)。基準カメラは、カラー撮像部101〜117のうちの選択された1台のカラー撮像部である。本実施形態では、まず、カラー撮像部101を基準カメラに設定する。   Next, a reference camera serving as a reference when calculating the three-dimensional data is set (step S502). The reference camera is one color imaging unit selected from among the color imaging units 101 to 117. In this embodiment, first, the color imaging unit 101 is set as a reference camera.

次に、基準カメラで撮像されたカラー画像を入力する(ステップS503)。   Next, a color image captured by the reference camera is input (step S503).

次に、ステップS504において、ステップS501で入力された複数のモノクロ画像に基づいて基準カメラの画素位置に対応する三次元データを算出する。三次元データの算出方法の詳細については後述する。   In step S504, three-dimensional data corresponding to the pixel position of the reference camera is calculated based on the plurality of monochrome images input in step S501. Details of the calculation method of the three-dimensional data will be described later.

三次元データの算出が完了したら、ステップS503で入力された基準カメラのカラー画像と、ステップS505で算出された3次元データを合成し、カラー3次元画像データを生成する(ステップS505)。   When the calculation of the three-dimensional data is completed, the color image of the reference camera input in step S503 and the three-dimensional data calculated in step S505 are combined to generate color three-dimensional image data (step S505).

次に、全てのカラー撮像部で取得されたカラー画像に対して、三次元データの算出処理が完了したか否かを確認する(ステップS506)。   Next, it is confirmed whether or not the three-dimensional data calculation process has been completed for the color images acquired by all the color imaging units (step S506).

未処理のカラー画像がある場合(S506;NO)には、カラー撮像部101〜117のうち未選択のカラー撮像部を選択して基準カメラを変更する(ステップS507)。全ての全てのカラー撮像部で取得されたカラー画像に対して、三次元データの算出処理が完了するまで、ステップS504からステップS506までの処理が繰り返し行われる。なお、S507における基準カメラの変更は、例えば、カラー撮像部102に対する処理が完了すると、カラー撮像部103を基準カメラに設定する。   If there is an unprocessed color image (S506; NO), an unselected color imaging unit is selected from the color imaging units 101 to 117, and the reference camera is changed (step S507). The processes from step S504 to step S506 are repeatedly performed on the color images acquired by all the color imaging units until the calculation process of the three-dimensional data is completed. Note that the change of the reference camera in S507 is performed, for example, when the process for the color imaging unit 102 is completed, the color imaging unit 103 is set as the reference camera.

ステップS506で、全てのカラー画像に対して三次元データの算出処理が完了したと判断されると(S506;YES)、各カラー撮像部に対する合成データ(カラー三次元画像データ)を出力し(ステップS508)、全ての画像処理が完了する。   If it is determined in step S506 that the calculation process of three-dimensional data has been completed for all color images (S506; YES), the combined data (color three-dimensional image data) for each color imaging unit is output (step S506). (S508) All image processing is completed.

<三次元データの算出処理>
S504の三次元データの算出処理では、基準カメラとして選択されたカラー撮像部の各画素位置における三次元データを、モノクロ撮像部にて取得された画像群を用いて算出する。なお、本実施例1で使用する三次元データの算出処理は、Vincent Nozick, Francois de Sorbier and Hideo Saito, ”Plane-Sweep Algorithm: Various Tools for Computer Vision”, IEICE Technical Report, PRMU2007-259,2008年 3月に開示されるPlane Sweep 法に基づいて実施することができる。
<Calculation processing of 3D data>
In the three-dimensional data calculation process of S504, the three-dimensional data at each pixel position of the color imaging unit selected as the reference camera is calculated using the image group acquired by the monochrome imaging unit. The calculation process of the three-dimensional data used in the first embodiment is described in Vincent Nozick, Francois de Sorbier and Hideo Saito, “Plane-Sweep Algorithm: Various Tools for Computer Vision”, IEICE Technical Report, PRMU2007-259, 2008. It can be implemented based on the Plane Sweep method disclosed in March.

図6と図7は、Plane Sweep 法によって三次元データを算出する処理を模式的に示した図である。   6 and 7 are diagrams schematically showing a process of calculating three-dimensional data by the Plane Sweep method.

図6は、基準カメラの仮想センサ上における画素位置Poutに対応する被写体の三次元データを算出する様子を模式的に示した図である。図6において、Xoutは基準カメラの物理的な位置を表す。物理的な位置とは、ワールド座標系から観察したときの座標位置のことである。Xcはモノクロ撮像部の物理的な位置を表す。Xd,outは基準カメラの画面上方向を指すベクトルである。Yd,outは基準カメラの画面右方向を指すベクトルである。Zd,outは基準カメラの方向を指すベクトルである。Xd,out、Yd,out、Zd,outは方向を表すだけのベクトルであるため、長さは1とする。これらのベクトルを表す座標系には、演算時の基準となる面(基準面)をx-y平面として、高さ方向をz軸とする座標系を用いる。 FIG. 6 is a diagram schematically showing how the three-dimensional data of the subject corresponding to the pixel position Pout on the virtual sensor of the reference camera is calculated. In FIG. 6, X out represents the physical position of the reference camera. The physical position is a coordinate position when observed from the world coordinate system. Xc represents the physical position of the monochrome imaging unit. X d, out is a vector indicating the direction of the reference camera on the screen. Y d, out is a vector pointing in the right direction of the screen of the reference camera. Z d, out is a vector indicating the direction of the reference camera. Since X d, out , Y d, out and Z d, out are vectors that only represent directions, the length is set to 1. As a coordinate system representing these vectors, a coordinate system having a plane (reference plane) serving as a reference at the time of calculation as an xy plane and a height direction as az axis is used.

図7は、基準面の位置をz方向に変化させながら、モノクロ撮像部から得られるモノクロ画像を用いて、基準カメラから観察した被写体の三次元データを生成する過程を模式的に示している。z = 0の原点位置から基準面をz方向に変化させ、基準カメラのセンサの画素位置に対応するモノクロ画像の画素値を考慮することにより三次元データを算出するのが、上記Plane Sweep法である。   FIG. 7 schematically shows a process of generating three-dimensional data of a subject observed from the reference camera using a monochrome image obtained from the monochrome imaging unit while changing the position of the reference plane in the z direction. The Plane Sweep method calculates three-dimensional data by changing the reference plane from the origin position of z = 0 in the z direction and considering the pixel value of the monochrome image corresponding to the pixel position of the sensor of the reference camera. is there.

図8は、三次元データの算出手順を示すフローチャートである。   FIG. 8 is a flowchart showing a calculation procedure of the three-dimensional data.

まず、各撮像部の相対位置、センササイズ、センサ画素数、センサピッチ、画角などのカメラパラメータを入力する(ステップS801)。   First, camera parameters such as the relative position of each imaging unit, sensor size, number of sensor pixels, sensor pitch, and angle of view are input (step S801).

次に、基準カメラの仮想センサ上における画素位置Poutを設定する(ステップS802)。 Next, the pixel position Pout on the virtual sensor of the reference camera is set (step S802).

続いて、画素位置Poutに対応する三次元データを算出するに当たり、基準面の初期高さを設定する(ステップS803)。ここでは、z = 0となる位置に基準面を設定する。なお、図6では、z = Zbaseの位置に基準面がある場合を示している。 Then, in calculating the three-dimensional data corresponding to the pixel position P out, set the initial height of the reference plane (step S803). Here, the reference plane is set at a position where z = 0. FIG. 6 shows a case where the reference plane is at the position of z = Z base .

次に、ステップS804において、画素Poutの延長線上にあり、基準平面上に対応する点の物理的な位置Xpを算出する。位置Xpは、以下の式1〜式4で求められる。 Next, in step S804, the is an extension of the pixel P out, to calculate a physical position X p of a point corresponding to the reference plane. The position Xp is obtained by the following formulas 1 to 4.

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

式1において、Xpixelは画素位置Poutの物理的な位置である。式2において、θv,outは基準カメラの垂直半画角である。式3において、Poutは、画素値を決定しようとしている画素Poutの座標である。Pout,centerは、基準カメラの仮想センサの中心座標である。houtは、基準カメラに具備されるセンサの垂直方向の画素数である。式4において、Xp,zおよびXpixel,zは、それぞれXpおよびXpixelのz成分である。 In Formula 1, X pixel is the physical location of the pixel locations P out. In Equation 2, θ v, out is the vertical half field angle of the reference camera. In Expression 3, P out is the coordinates of the pixel P out for which the pixel value is to be determined. P out, center is the center coordinates of the virtual sensor of the reference camera. h out is the number of pixels in the vertical direction of the sensor provided in the reference camera. In Equation 4, X p, z and X pixel, z are z components of X p and X pixel , respectively.

次に、参照するc番目のモノクロ撮像部(以下、モノクロカメラc)を選択し(ステップS805)、選択されたモノクロ撮像部のセンサ上に対応する画素位置を算出する(ステップS806)。ステップS806は、モノクロカメラcにおいて、位置Xpが写っている仮想センサ上での画素位置Pp,cを求めるステップである。画素位置Pp,cは、以下の式5〜8によって求められる。 Next, the c-th monochrome imaging unit (hereinafter referred to as monochrome camera c) to be referred to is selected (step S805), and the corresponding pixel position on the sensor of the selected monochrome imaging unit is calculated (step S806). Step S806 is a step of obtaining the pixel position P p, c on the virtual sensor where the position X p is captured in the monochrome camera c. The pixel position P p, c is obtained by the following equations 5-8.

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

Figure 2012244583
Figure 2012244583

ここで、式5のXp,c,x、Xp,c,y、Xp,c,zは、それぞれXp,cのx、y、z成分である。θh,c、θv,cはモノクロカメラcの水平半画角と垂直半画角である。式7のXcはモノクロカメラcの位置である。また、式8のXd,c、Yd,c、Zd,cは、それぞれモノクロカメラcの上方向、右方向、および向きを表す方向ベクトルである。これらのベクトルの長さは1とする。これら一連の操作は、ビュー変換、射影変換、スクリーン変換と一般に呼ばれる、3つの変換操作をまとめた操作である。 Here, X p, c, x , X p, c, y and X p, c, z in Equation 5 are the x, y, and z components of X p, c , respectively. θ h, c and θ v, c are the horizontal and vertical half angles of view of the monochrome camera c. Xc in Expression 7 is the position of the monochrome camera c. X d, c , Y d, c , and Z d, c in Expression 8 are direction vectors representing the upward direction, the right direction, and the direction of the monochrome camera c, respectively. The length of these vectors is 1. These series of operations are operations in which three conversion operations generally called view conversion, projective conversion, and screen conversion are combined.

次に、画素位置Pp,cに対応する画素値Ip,cを算出する(ステップS807)。画素位置Pp,cは、非整数値を持つ可能性があるため、近傍画素の画素値を用いて補間処理などにより画素値Ip,cを求める。補間処理としては線形補間、キュービック補間などを用いることができる。 Next, a pixel value I p, c corresponding to the pixel position P p , c is calculated (step S807). Since the pixel position P p, c may have a non-integer value, the pixel value I p, c is obtained by interpolation processing or the like using the pixel values of neighboring pixels. As the interpolation processing, linear interpolation, cubic interpolation, or the like can be used.

そして、全てのモノクロカメラについて、位置Xpに対応する画素値の算出が完了したか否かを判定する(ステップS808)。未処理のモノクロカメラがある場合には、ステップS809に進み、モノクロカメラcを変更する。その後、ステップS806、S807の処理を繰り返し行う。全てのモノクロカメラに対して画素値Ip,cの算出が完了すると、ステップS810に進み、三次元データを定めるための評価値Ep,zを算出する。評価値Ep,zは式9によって求める。 Then, for all monochrome camera determines whether the calculation of the pixel values corresponding to the position X p has been completed (step S808). If there is an unprocessed monochrome camera, the process advances to step S809 to change the monochrome camera c. Thereafter, the processes in steps S806 and S807 are repeated. When the calculation of the pixel value I p, c is completed for all the monochrome cameras, the process proceeds to step S810, and the evaluation value E p, z for determining the three-dimensional data is calculated. The evaluation value E p, z is obtained by Equation 9.

Figure 2012244583
Figure 2012244583

ここで、std()は標準偏差値を求める関数である。式9では、撮像装置に具備される全てのモノクロカメラに対応する画素値Ip,cの標準偏差値を、高さzにおける基準面の評価値として算出する。 Here, std () is a function for obtaining a standard deviation value. In Expression 9, the standard deviation values of the pixel values I p, c corresponding to all the monochrome cameras included in the imaging device are calculated as the evaluation value of the reference plane at the height z.

次に、予め規定される全ての高さzについて評価値Ep,zを算出したか否かを判断し(ステップS811)、未処理の高さがある場合には、基準面の高さを更新し(ステップS812)、ステップS804からステップS811までの処理を繰り返し行う。 Next, it is determined whether or not the evaluation value E p, z has been calculated for all heights z defined in advance (step S811). If there is an unprocessed height, the height of the reference surface is set. Update (step S812) and repeat the processing from step S804 to step S811.

ステップ813は、評価値Ep,zを用いて画素Poutにおける高さを決定するステップである。各高さzにおける評価値Ep,zのうち、最小となる値を示す高さzを画素Poutにおける高さと規定する。つまり、各モノクロカメラのセンサ上に対応する画素値を算出し、それらの画素値の標準偏差の値が最小となる基準面の高さを、画素Poutにおける高さとする。 Step 813 is a step of determining the height at the pixel Pout using the evaluation value E p, z . Of the evaluation values E p, z at each height z, the height z indicating the minimum value is defined as the height at the pixel Pout . That is, the corresponding pixel value is calculated on the sensor of each monochrome camera, and the height of the reference plane that minimizes the standard deviation of these pixel values is defined as the height of the pixel Pout .

次に、基準カメラの仮想センサ上における全画素について高さが決定したか否かを判定し(ステップS814)、未処理の画素がある場合には画素位置を更新し(ステップS815)、ステップS803からステップS814までの処理を繰り返し行う。   Next, it is determined whether or not the height has been determined for all the pixels on the virtual sensor of the reference camera (step S814). If there is an unprocessed pixel, the pixel position is updated (step S815), and step S803 is performed. To step S814 are repeated.

基準カメラの全画素に対して高さが決定されると、画素位置と併せて三次元データとして出力する(ステップS816)。以上で、三次元データの算出処理が完了する。   When the height is determined for all the pixels of the reference camera, it is output as three-dimensional data together with the pixel position (step S816). This completes the calculation process of the three-dimensional data.

なお、図8に示す三次元データの算出処理の過程で導出した評価値Ep,zは、画素値Ip,cの標準偏差値であったが、その他の評価値でも差支えない。一例として、画素値Ip,cをヒストグラムにした場合の最大頻度としてもよい。また、三次元データの算出処理の過程では、撮像装置に具備される全てのモノクロ撮像部を参照したが、具備される一部のモノクロ撮像部を参照する構成でも差支えない。 Note that the evaluation value E p, z derived in the process of calculating the three-dimensional data shown in FIG. 8 is a standard deviation value of the pixel value I p, c , but other evaluation values may be used. As an example, the pixel frequency I p, c may be the maximum frequency when the histogram is used. In the process of calculating the three-dimensional data, all the monochrome imaging units included in the imaging apparatus are referred to, but a configuration that refers to a part of the monochrome imaging units included may also be used.

本実施例1では、図1に示すようなカラー撮像部とモノクロ撮像部の配置となる多眼方式の撮像装置について言及したが、カラー撮像部とモノクロ撮像部の配置、および台数はこの限りではない。   In the first embodiment, the multi-eye imaging device in which the color imaging unit and the monochrome imaging unit are arranged as shown in FIG. 1 is mentioned. However, the arrangement and the number of the color imaging unit and the monochrome imaging unit are not limited to this. Absent.

例えば、図9の符号901に示すように、3次元データの算出に用いるモノクロ撮像部の台数を図1の構成と比べてさらに増やし、カラー撮像部の台数を減らしても構わない。このようにモノクロ撮像部の台数を増やすと、より精度の高い3次元データの算出が可能となる。また、符号902に示すように、モノクロ撮像部の台数を削減しても構わない。更には、符号903に示すように、撮像部の左右端部の周辺部にのみモノクロ撮像部を配置する構成でも差支えない。   For example, as indicated by reference numeral 901 in FIG. 9, the number of monochrome imaging units used for calculating the three-dimensional data may be further increased as compared with the configuration in FIG. 1, and the number of color imaging units may be reduced. Thus, when the number of monochrome imaging units is increased, more accurate calculation of three-dimensional data becomes possible. Also, as indicated by reference numeral 902, the number of monochrome imaging units may be reduced. Furthermore, as indicated by reference numeral 903, there may be a configuration in which the monochrome imaging unit is disposed only in the peripheral part of the left and right end portions of the imaging unit.

図10には、撮像部の台数を減らした構成を備える撮像装置の一例を示す。カラー撮像部、モノクロ撮像部が混在する構成であれば、符号1001に示すように、撮像部の台数、配置は図1の構成に限定されない。例えば、符号1002及び符号1003に示すように、カラー撮像部を1台に削減しても差し支えない。前述のように、モノクロ画像は三次元データの生成時に使用されるため、モノクロ撮像部の間隔は、カラー撮像部の間隔に比べて広く設定することが好ましい。モノクロ撮像部の間隔を広く設定することにより、より高精度な三次元データを得ることが可能となる。   FIG. 10 shows an example of an imaging apparatus having a configuration in which the number of imaging units is reduced. As long as the color imaging unit and the monochrome imaging unit are mixed, the number and arrangement of the imaging units are not limited to the configuration shown in FIG. For example, as indicated by reference numerals 1002 and 1003, the number of color imaging units may be reduced to one. As described above, since the monochrome image is used when generating the three-dimensional data, it is preferable to set the interval between the monochrome imaging units wider than the interval between the color imaging units. By setting a wide interval between the monochrome imaging units, it is possible to obtain more accurate three-dimensional data.

なお、本実施形態では、図3に示すように、カラー撮像部に具備されるセンサ画素数(解像度)とモノクロ撮像部に具備されるセンサ画素数が同一となる構成であったが、カラー撮像部のセンサ画素数とモノクロ撮像部のセンサ画素数が一致しない場合でも構わない。本発明に係る三次元データの算出処理は、その様な場合にも、三次元データの算出処理が成立する構成となっている。モノクロ撮像部のセンサ画素数を相対的に減少させた構成でも差支えない。モノクロ撮像部のセンサ画素数を相対的に減少させることで、撮像装置の筺体サイズを小さくすることができる。   In the present embodiment, as shown in FIG. 3, the number of sensor pixels (resolution) provided in the color imaging unit is the same as the number of sensor pixels provided in the monochrome imaging unit. The number of sensor pixels in the part may not match the number of sensor pixels in the monochrome imaging part. The three-dimensional data calculation process according to the present invention is configured such that the three-dimensional data calculation process is established even in such a case. A configuration in which the number of sensor pixels of the monochrome imaging unit is relatively reduced may be used. By relatively reducing the number of sensor pixels of the monochrome imaging unit, the housing size of the imaging device can be reduced.

図11には、モノクロ撮像部のセンサ画素数を、カラー撮像部のセンサ画素数の1/4に設定した例を示している。符号1101は、カラー撮像部のセンサとセンサ面に配置されるカラーフィルタを示している。Rは赤色領域を透過するフィルタ、Gは緑領域を透過するフィルタ、Bは青色域を透過するフィルタを表している。符号1102は、モノクロ撮像部のセンサを示しており、Yが各画素を示している。図11では、カラー撮像部の4画素に対して、モノクロ撮像部の1画素が対応する形態となっている。それ以外にも、カラー撮像部の9画素に対して、モノクロ撮像部の1画素が対応する形態でも構わない。   FIG. 11 shows an example in which the number of sensor pixels of the monochrome imaging unit is set to ¼ of the number of sensor pixels of the color imaging unit. Reference numeral 1101 denotes a sensor of the color imaging unit and a color filter arranged on the sensor surface. R represents a filter that transmits the red region, G represents a filter that transmits the green region, and B represents a filter that transmits the blue region. Reference numeral 1102 denotes a sensor of the monochrome imaging unit, and Y denotes each pixel. In FIG. 11, one pixel of the monochrome imaging unit corresponds to four pixels of the color imaging unit. In addition, one pixel of the monochrome imaging unit may correspond to 9 pixels of the color imaging unit.

以上説明したように、本発明によれば、モノクロ撮像部で撮像されたモノクロ画像から生成した三次元データと、カラー撮像部で撮像されたカラー画像とを合成することにより、高解像度なカラー三次元データを得ることが可能となる。   As described above, according to the present invention, high-resolution color tertiary is obtained by combining three-dimensional data generated from a monochrome image captured by a monochrome imaging unit and a color image captured by a color imaging unit. Original data can be obtained.

(その他の実施形態)
上述した実施例の機能(例えば、図5、図8のフローチャートに示す手順を実行する機能)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した本発明の機能を実現することができる。
(Other embodiments)
This can also be realized by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments (for example, functions for executing the procedures shown in the flowcharts of FIGS. 5 and 8) to the system or apparatus. In this case, the above-described functions of the present invention can be realized by reading and executing the program code stored in the storage medium so that the computer of the system or apparatus can read it.

Claims (7)

カラー画像を撮像する撮像部と、
モノクロ画像を撮像する複数の撮像部と、
前記モノクロ画像を撮像する複数の撮像部で得られるモノクロ画像に基づいて、被写体の三次元データを算出する三次元データ算出部と、
前記カラー画像を撮像する撮像部で得られるカラー画像と、前記三次元データとを対応付けたカラー3次元画像データを生成する合成部と、
を具備する多眼方式の撮像装置。
An imaging unit for imaging a color image;
A plurality of imaging units that capture monochrome images;
A three-dimensional data calculation unit that calculates three-dimensional data of a subject based on monochrome images obtained by a plurality of imaging units that capture the monochrome images;
A synthesis unit that generates color three-dimensional image data in which a color image obtained by an imaging unit that captures the color image is associated with the three-dimensional data;
A multi-lens imaging device.
前記モノクロ画像を撮像する複数の撮像部は、前記カラー画像を撮像する撮像部よりも外側に配置されることを特徴とする請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the plurality of imaging units that capture the monochrome image are disposed outside an imaging unit that captures the color image. 前記モノクロ画像を撮像する複数の撮像部に具備される撮像素子の画素数は、前記カラー画像を撮像する撮像部に具備される撮像素子の画素数よりも少ないことを特徴とする請求項1または2に記載の撮像装置。   The number of pixels of an image sensor included in the plurality of image capturing units that capture the monochrome image is smaller than the number of pixels of the image sensor included in the image capturing unit that captures the color image. 2. The imaging device according to 2. カラー画像を撮像する撮像部とモノクロ画像を撮像する複数の撮像部を有する多眼方式の撮像装置によって得られた画像からカラー三次元画像データを生成する画像処理方法であって、
前記モノクロ画像を撮像する複数の撮像部で得られるモノクロ画像に基づいて、前記被写体の三次元データを算出する三次元データ算出ステップと、
前記カラー画像を撮像する撮像部で得られるカラー画像と、前記三次元データ算出ステップで得られた三次元データとを対応付けて、カラー三次元画像データを生成する合成ステップと、
を具備する画像処理方法。
An image processing method for generating color three-dimensional image data from an image obtained by a multi-view imaging device having an imaging unit that captures a color image and a plurality of imaging units that capture a monochrome image,
3D data calculation step for calculating 3D data of the subject based on monochrome images obtained by a plurality of imaging units that capture the monochrome images;
A color image obtained by an imaging unit that images the color image and the 3D data obtained in the 3D data calculation step are associated with each other to generate color 3D image data,
An image processing method comprising:
前記三次元データは、前記多眼方式の撮像装置のカメラパラメータに基づいて決定されることを特徴とする請求項4に記載の画像処理方法。   The image processing method according to claim 4, wherein the three-dimensional data is determined based on camera parameters of the multi-view imaging apparatus. 前記カメラパラメータは、前記多眼方式の撮像装置の各撮像部の相対位置、センササイズ、センサ画素数、センサピッチ、画角のいずれかひとつ以上であることを特徴とする請求項5に記載の画像処理方法。   6. The camera parameter according to claim 5, wherein the camera parameter is at least one of a relative position, a sensor size, a number of sensor pixels, a sensor pitch, and a field angle of each imaging unit of the multi-lens imaging device. Image processing method. 請求項4乃至6のいずれか1項に記載の画像処理方法を、コンピュータに実行させるためのプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 4 to 6.
JP2011115984A 2011-05-24 2011-05-24 Imaging apparatus, image processing method, and program Active JP5863280B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011115984A JP5863280B2 (en) 2011-05-24 2011-05-24 Imaging apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011115984A JP5863280B2 (en) 2011-05-24 2011-05-24 Imaging apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2012244583A true JP2012244583A (en) 2012-12-10
JP2012244583A5 JP2012244583A5 (en) 2014-03-20
JP5863280B2 JP5863280B2 (en) 2016-02-16

Family

ID=47465770

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011115984A Active JP5863280B2 (en) 2011-05-24 2011-05-24 Imaging apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5863280B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
JP2022146049A (en) * 2021-03-22 2022-10-05 戸田建設株式会社 Bar arrangement inspection device and bar arrangement inspection method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112019A (en) * 1998-10-08 2000-04-21 Olympus Optical Co Ltd Electronic triplet lens camera apparatus
JP2000244871A (en) * 1999-02-18 2000-09-08 Honda Motor Co Ltd Device and method for multi-image recording
JP2001016621A (en) * 1999-07-02 2001-01-19 Minolta Co Ltd Multi-eye data input device
JP2002058045A (en) * 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
WO2009131152A1 (en) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 Three-dimensional image processing camera and three-dimensional image processing system
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
WO2011052064A1 (en) * 2009-10-30 2011-05-05 キヤノン株式会社 Information processing device and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112019A (en) * 1998-10-08 2000-04-21 Olympus Optical Co Ltd Electronic triplet lens camera apparatus
JP2000244871A (en) * 1999-02-18 2000-09-08 Honda Motor Co Ltd Device and method for multi-image recording
JP2001016621A (en) * 1999-07-02 2001-01-19 Minolta Co Ltd Multi-eye data input device
JP2002058045A (en) * 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2004193962A (en) * 2002-12-11 2004-07-08 Sony Corp Image communication equipment, image communication method, and computer program
WO2009131152A1 (en) * 2008-04-23 2009-10-29 コニカミノルタホールディングス株式会社 Three-dimensional image processing camera and three-dimensional image processing system
JP2010130628A (en) * 2008-12-01 2010-06-10 Sharp Corp Imaging apparatus, image compositing device and image compositing method
WO2011052064A1 (en) * 2009-10-30 2011-05-05 キヤノン株式会社 Information processing device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500762A (en) * 2015-12-07 2019-01-10 グーグル エルエルシー System and method for multiscopic noise reduction and high dynamic range
JP2022146049A (en) * 2021-03-22 2022-10-05 戸田建設株式会社 Bar arrangement inspection device and bar arrangement inspection method

Also Published As

Publication number Publication date
JP5863280B2 (en) 2016-02-16

Similar Documents

Publication Publication Date Title
CN109544620B (en) Image processing method and apparatus, computer-readable storage medium, and electronic device
JP5035372B2 (en) 3D modeling apparatus, 3D modeling method, and program
JP5762211B2 (en) Image processing apparatus, image processing method, and program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP5725953B2 (en) Imaging apparatus, control method therefor, and information processing apparatus
JP2011232330A (en) Imaging apparatus, distance measuring method, and program
CN107517346B (en) Photographing method and device based on structured light and mobile device
EP2635019B1 (en) Image processing device, image processing method, and program
JP2009284188A (en) Color imaging apparatus
JP2012199805A (en) Imaging apparatus
JP2016085380A (en) Controller, control method, and program
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP2013044597A (en) Image processing device and method, and program
JP6012396B2 (en) Image processing apparatus, image processing method, and program.
KR101857977B1 (en) Image apparatus for combining plenoptic camera and depth camera, and image processing method
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP5743769B2 (en) Image processing apparatus and image processing method
JP2013175821A (en) Image processing device, image processing method, and program
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
KR101700360B1 (en) Digital photographing apparatus, method for controlling the apparatus, and medium for recording the method
JP6292785B2 (en) Image processing apparatus, image processing method, and program
JP2012202942A (en) Three-dimensional modeling device, three-dimensional modeling method, and program
JP2015197429A (en) Image processing apparatus, imaging apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151222

R151 Written notification of patent or utility model registration

Ref document number: 5863280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151