JP2018152632A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2018152632A
JP2018152632A JP2017045273A JP2017045273A JP2018152632A JP 2018152632 A JP2018152632 A JP 2018152632A JP 2017045273 A JP2017045273 A JP 2017045273A JP 2017045273 A JP2017045273 A JP 2017045273A JP 2018152632 A JP2018152632 A JP 2018152632A
Authority
JP
Japan
Prior art keywords
imaging
sensor
image
optical
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017045273A
Other languages
Japanese (ja)
Other versions
JP6822230B2 (en
Inventor
藤井 俊茂
Toshishige Fujii
俊茂 藤井
宏昌 田中
Hiromasa Tanaka
宏昌 田中
周 高橋
Shu Takahashi
周 高橋
二瓶 靖厚
Yasuhiro Nihei
靖厚 二瓶
伊藤 昌弘
Masahiro Ito
昌弘 伊藤
小川 武士
Takeshi Ogawa
武士 小川
陽一 市川
Yoichi Ichikawa
陽一 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2017045273A priority Critical patent/JP6822230B2/en
Publication of JP2018152632A publication Critical patent/JP2018152632A/en
Application granted granted Critical
Publication of JP6822230B2 publication Critical patent/JP6822230B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To record distance information to a subject in pixel information of an optical image taken by the imaging apparatus on a pixel-by-pixel basis.SOLUTION: An imaging apparatus 1 including an imaging optical system 5 for forming an image of a subject on a sensor and a light source 21 for irradiating the subject. The sensor includes an optical image sensor 10 for imaging at least visible light and a TOF image sensor 20 for measuring a distance to the subject. The optical image sensor 10 or the TOF image sensor 20 is used to image the image formed by the imaging optical system 5, and then the other sensor is displaced to the imaging position by the imaging optical system 5 and performs imaging.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置および撮像方法に関する。   The present invention relates to an imaging apparatus and an imaging method.

近年、撮像装置は、被写体をフィルムに写し込む銀塩カメラから、CCD(Charged-coupled devices)やCMOS(Complementary metal-oxide-semiconductor)などの光学センサ(光学イメージセンサ)に感光するデジタルカメラに置き換わり、その信号は光学イメージセンサ上の画素に光学画像(光学イメージ)として記録される。   In recent years, the imaging device has been replaced by a digital camera that is sensitive to an optical sensor (optical image sensor) such as a CCD (Charged-coupled devices) or CMOS (Complementary metal-oxide-semiconductor) instead of a silver salt camera that captures a subject on film. The signal is recorded as an optical image (optical image) on a pixel on the optical image sensor.

一方、被測定対象である物体までの距離を測定するための3次元センサによる測距技術の開発が盛んに行われている。その技術の一つとして3次元レーザ計測がある。レーザ機器から発するレーザ光が物体に反射して返ってくるまでの時間と反射強度をもとにレーザ機器から物体までの距離を計測するもので、レーザ光を一定間隔で放射状に発することで3次元の点群データを得ることができる。なお、以下の説明では、3次元センサの被測定対象である物体についても被写体と称する。   On the other hand, development of ranging technology using a three-dimensional sensor for measuring the distance to an object to be measured has been actively conducted. One of the techniques is three-dimensional laser measurement. The distance from the laser device to the object is measured based on the time until the laser beam emitted from the laser device is reflected back to the object and the reflected intensity. By emitting the laser beam radially at regular intervals, 3 Dimensional point cloud data can be obtained. In the following description, an object that is a measurement target of the three-dimensional sensor is also referred to as a subject.

3次元レーザ計測によれば、物体の3次元形状を調べることはできるが、写真のように画像として取得していないので、例えば金具が外れていないか、部材に割れや腐食がないか等の物体の状況を把握することには適さない。また、3次元レーザ計測用の機器は、一般に撮像装置に比べて格段に高価であり、かつ、写真撮影と比べて計測時間も長く、取得した点群データを図面に起こす際にも多くの手間がかかるため、全般的に高コストである。また、3次元レーザ計測機器は大きく重く取り扱いが容易ではないため、高所かつ不安的な箇所での計測には不適である。   According to the three-dimensional laser measurement, the three-dimensional shape of the object can be examined, but since it is not acquired as an image as in the photograph, for example, whether the metal fitting is removed or the member is not cracked or corroded. It is not suitable for grasping the situation of an object. In addition, 3D laser measurement devices are generally much more expensive than imaging devices, and the measurement time is longer than that of photography. Therefore, the overall cost is high. In addition, since the three-dimensional laser measuring instrument is large and heavy and is not easy to handle, it is unsuitable for measurement in high places and uneasy places.

3次元センサによる測距技術として、パルス光を投光してから、該パルス光が物体で反射して戻ってくるまでの時間に基づいて物体までの距離を求めるTOF(Time of Flight)演算方式を用いた測距技術が知られている(例えば、特許文献1,2)。   As a distance measurement technique using a three-dimensional sensor, a TOF (Time of Flight) calculation method for obtaining the distance to an object based on the time from when the pulsed light is projected until the pulsed light is reflected by the object and returned. Ranging technology using a sensor is known (for example, Patent Documents 1 and 2).

TOFによる測距技術では、画素がセンサ上に2次元配列されたエリアイメージセンサ(TOFイメージセンサ)が用いられ、それぞれの画素には距離情報が記録される。なお、TOFイメージセンサの各画素に画素情報が記録されたものをTOFイメージ(TOF画像)とも称する。   In the distance measurement technique using TOF, an area image sensor (TOF image sensor) in which pixels are two-dimensionally arranged on the sensor is used, and distance information is recorded in each pixel. A pixel in which pixel information is recorded in each pixel of the TOF image sensor is also referred to as a TOF image (TOF image).

このような測距に用いられるエリアイメージセンサの画素数は、撮像装置に一般に用いられている光学イメージセンサの画素数に比べると少ないため、測距に用いられるエリアイメージセンサを用いても、光学イメージセンサで記録できるほどの高精彩な光学画像を記録することはできない。   Since the number of pixels of the area image sensor used for such distance measurement is smaller than the number of pixels of the optical image sensor generally used for imaging devices, even if the area image sensor used for distance measurement is used, the optical It is not possible to record a high-definition optical image that can be recorded by an image sensor.

光学画像と距離情報とを併せて取得する技術として、1つの装置内に光学イメージセンサとその撮像光学系、エリアイメージセンサとその撮像光学系を並べて設けた技術が知られている、また、特許文献3には、被写体から反射された光に含まれる多重波長帯域の光を通過させる第1フィルタと、制御信号により、多重波長帯域の光に含まれる特定波長帯域の光を通過させる第2フィルタと、記多重波長帯域の光を光電変換した第1画像信号と、特定波長帯域の光を光電変換した第2画像信号と、を検出する検出部と、第1画像信号から第2画像信号を除去した差分画像信号と、第2画像信号とを利用して、カラー画像及び深さ画像を生成する画像処理装置が開示されている。   As a technique for acquiring both an optical image and distance information, a technique is known in which an optical image sensor and its imaging optical system, and an area image sensor and its imaging optical system are arranged in one apparatus. Document 3 discloses a first filter that passes light in multiple wavelength bands included in light reflected from a subject, and a second filter that passes light in specific wavelength bands included in light in multiple wavelength bands by a control signal. A detection unit that detects a first image signal obtained by photoelectrically converting light in the multiple wavelength band and a second image signal obtained by photoelectrically converting light in a specific wavelength band; and a second image signal from the first image signal. An image processing apparatus that generates a color image and a depth image using the removed difference image signal and the second image signal is disclosed.

しかしながら、1つの装置内に光学イメージセンサとその撮像光学系、エリアイメージセンサとその撮像光学系を並べて設けた場合、各撮像光学系での撮影位置はずれることとなるため、光学画像の画素レベルで一致した距離情報を取得することはできない。また、特許文献3の技術では、時分割切り替えによる同じ画素を光学画像と距離情報の取得に共用して、光学画像の複数の画素に対して1の距離情報を得ているため、光学画像の画素レベルで一致した距離情報を取得することはできない。   However, when the optical image sensor and its imaging optical system, and the area image sensor and its imaging optical system are provided side by side in one apparatus, the shooting position in each imaging optical system will shift, so at the pixel level of the optical image The matched distance information cannot be acquired. In the technique of Patent Document 3, since the same pixel by time-division switching is shared for acquisition of the optical image and distance information, one distance information is obtained for a plurality of pixels of the optical image. It is not possible to acquire distance information that matches at the pixel level.

このように、従来、撮像装置で撮影される高精細な光学画像の画素情報に、画素単位で被写体までの距離情報を記録することはできなかった。   As described above, conventionally, the distance information to the subject cannot be recorded in the pixel information of the high-definition optical image photographed by the imaging apparatus.

そこで本発明は、撮像装置で撮影される光学画像の画素情報に、画素単位で被写体までの距離情報を記録することができる撮像装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus capable of recording distance information to a subject in pixel units in pixel information of an optical image photographed by the imaging apparatus.

かかる目的を達成するため、本発明に係る撮像装置は、センサに被写体の像を結像させる撮像光学系と、前記被写体を照射する発光部と、を備えた撮像装置であって、前記センサは、少なくとも可視光を撮像する光学センサと、前記被写体までの距離を測定する3次元センサと、を有し、前記光学センサまたは前記3次元センサのいずれか一方を用いて前記撮像光学系により結像された像を撮像した後、該撮像光学系による結像位置に、他方のセンサを変位させて撮像する撮像制御手段を備えるものである。   In order to achieve such an object, an imaging apparatus according to the present invention is an imaging apparatus including an imaging optical system that forms an image of a subject on a sensor, and a light emitting unit that irradiates the subject. An optical sensor that captures at least visible light, and a three-dimensional sensor that measures a distance to the subject, and is imaged by the imaging optical system using either the optical sensor or the three-dimensional sensor. After the captured image is picked up, an image pickup control means for picking up an image by displacing the other sensor at the image forming position by the image pickup optical system is provided.

本発明によれば、撮像装置で撮影される光学画像の画素情報に、画素単位で被写体までの距離情報を記録することができる。   According to the present invention, distance information to a subject can be recorded in pixel units in pixel information of an optical image photographed by an imaging device.

撮像装置の一例を示す断面構成図である。It is a section lineblock diagram showing an example of an imaging device. 撮像装置による撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of the imaging | photography process by an imaging device. (a)光学イメージセンサの受光部、(b)TOFイメージセンサの受光部を示す模式図である。(A) The light-receiving part of an optical image sensor, (b) It is a schematic diagram which shows the light-receiving part of a TOF image sensor. ベイヤー配列の配列パターンの説明図である。It is explanatory drawing of the array pattern of a Bayer array. 距離情報が付与された光学画像のデータファイル構造の一例を示す図である。It is a figure which shows an example of the data file structure of the optical image to which distance information was provided. TOFイメージセンサの機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of a TOF image sensor. 投光系の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of a light projection system. パルス制御信号のタイミングチャートの一例である。It is an example of the timing chart of a pulse control signal. 光源駆動信号のタイミングチャートの一例である。It is an example of the timing chart of a light source drive signal. 受光系の機能構成の一例を示すブロック図である。It is a block diagram which shows an example of a function structure of a light reception type | system | group. 3次元情報取得部と受光部との間の信号の送受信の説明図である。It is explanatory drawing of transmission / reception of the signal between a three-dimensional information acquisition part and a light-receiving part. TOFイメージセンサにおける1フレームの概略図である。It is the schematic of 1 frame in a TOF image sensor. 全天球型撮像装置の要部構成図である。It is a principal part block diagram of an omnidirectional imaging device. 全天球型撮像装置の上視図である。It is a top view of an omnidirectional imaging device. 全天球型撮像装置による撮影処理の一例を示すフローチャートである。It is a flowchart which shows an example of the imaging | photography process by an omnidirectional imaging device. 全天球型撮像装置の概略横視図である。It is a schematic side view of an omnidirectional imaging device. 全天球型撮像装置の光源の一例を示す概略図である。It is the schematic which shows an example of the light source of an omnidirectional imaging device. 光源の照射角度の説明図である。It is explanatory drawing of the irradiation angle of a light source. 全天球型撮像装置による撮影処理の説明図である。It is explanatory drawing of the imaging | photography process by an omnidirectional imaging device.

以下、本発明に係る構成を図1から図19に示す実施の形態に基づいて詳細に説明する。   Hereinafter, the configuration according to the present invention will be described in detail based on the embodiment shown in FIGS.

[第1の実施形態]
本発明に係る撮像装置の一実施形態である撮像装置1について説明する。本実施形態に係る撮像装置は、センサに被写体の像を結像させる撮像光学系(撮像光学系5)と、被写体を照射する発光部(光源21)と、を備えた撮像装置(撮像装置1)であって、センサは、少なくとも可視光を撮像する光学センサ(光学イメージセンサ10)と、被写体までの距離を測定する3次元センサ(TOFイメージセンサ20)と、を有し、光学センサまたは3次元センサのいずれか一方を用いて撮像光学系により結像された像を撮像した後、該撮像光学系による結像位置に、他方のセンサを変位させて撮像する撮像制御手段を備えるものである。なお、括弧内は実施形態での符号、適用例を示す。
[First Embodiment]
An imaging apparatus 1 that is an embodiment of an imaging apparatus according to the present invention will be described. The imaging apparatus according to the present embodiment includes an imaging optical system (imaging optical system 5) that forms an image of a subject on a sensor, and a light emitting unit (light source 21) that irradiates the subject (imaging apparatus 1). The sensor includes at least an optical sensor (optical image sensor 10) that captures visible light and a three-dimensional sensor (TOF image sensor 20) that measures the distance to the subject. An image pickup control means for picking up an image formed by the image pickup optical system using any one of the dimension sensors and then displacing the other sensor at the image formation position by the image pickup optical system is provided. . In addition, the code | symbol in embodiment and the example of application are shown in a parenthesis.

(撮像装置構成)
図1は、本実施形態に係る撮像装置1の一例を示す断面構成図である。撮像装置1は、筐体3、基板4、光学イメージセンサ10、TOFイメージセンサ20、撮像光学系5(レンズ5として簡易的に示す)、および光源21を備えている。
(Imaging device configuration)
FIG. 1 is a cross-sectional configuration diagram illustrating an example of an imaging apparatus 1 according to the present embodiment. The imaging device 1 includes a housing 3, a substrate 4, an optical image sensor 10, a TOF image sensor 20, an imaging optical system 5 (shown simply as a lens 5), and a light source 21.

筐体3内に配置された基板4には、画像を撮影する撮像素子としての光学イメージセンサ10と、距離取得用の受光素子としてのTOFイメージセンサ20とが固設されているとともに、基板4は、該基板4を変位可能に支持する手段に支持されるとともに、撮像装置1の制御手段(撮像制御手段)によりその変位が制御され、図1(a)に示す位置と、図1(b)に示す位置との間で往復移動が可能となっている。なお、光学イメージセンサ10は、例えば、CMOSイメージセンサである。また、本実施形態では、3次元センサとして、TOFイメージセンサ20を用いる場合を説明するが、他の3次元センサを適用することもできる。各イメージセンサの詳細については後述する。   An optical image sensor 10 as an image pickup device for taking an image and a TOF image sensor 20 as a light receiving element for distance acquisition are fixedly provided on the substrate 4 disposed in the housing 3. Is supported by a means for supporting the substrate 4 so as to be displaceable, and its displacement is controlled by the control means (imaging control means) of the imaging apparatus 1, and the position shown in FIG. It is possible to reciprocate between the positions shown in (2). The optical image sensor 10 is, for example, a CMOS image sensor. In this embodiment, the case where the TOF image sensor 20 is used as the three-dimensional sensor will be described. However, other three-dimensional sensors can be applied. Details of each image sensor will be described later.

撮像装置1による撮影時には、先ず、図1(a)に示す状態(第一状態という)にて可視光での映像を光学イメージセンサ10にて撮影する。次いで、図1(b)に示すように、光学イメージセンサ10にて撮影された略同一位置にTOFイメージセンサ20が来るように基板4を変位させた状態(第二状態という)とする。そして、光源21からパルス光を発光させて再度撮影を行う。TOFイメージセンサ20を用いた撮影後は、基板4を変位させて、再び第一状態に戻すようにする。   When shooting with the imaging device 1, first, an image with visible light is shot with the optical image sensor 10 in the state shown in FIG. Next, as shown in FIG. 1B, the substrate 4 is displaced (referred to as a second state) so that the TOF image sensor 20 comes to substantially the same position taken by the optical image sensor 10. Then, the pulsed light is emitted from the light source 21 and imaging is performed again. After photographing using the TOF image sensor 20, the substrate 4 is displaced and returned to the first state again.

(撮影処理)
図2は、撮像装置1による撮影処理の一例を示すフローチャートである。なお、この撮影処理では、撮影処理中に基板4を変位させることで、2つのセンサを略同一位置として撮影するため、撮像装置1は、三脚などの固定手段により固定されているものである。また、この撮影処理での基板4は、第一状態(図1(a))を初期位置としている。
(Shooting process)
FIG. 2 is a flowchart illustrating an example of a shooting process performed by the imaging apparatus 1. In this imaging process, the imaging apparatus 1 is fixed by a fixing means such as a tripod in order to image the two sensors at substantially the same position by displacing the substrate 4 during the imaging process. Further, the substrate 4 in this photographing process has the first state (FIG. 1A) as the initial position.

撮像装置1は、操作者からレリーズボタンの押下などの撮影指示を受けると(S101)、第一状態での光学イメージセンサ10を用いた撮影を実施し(S102)、光学イメージセンサ10は光学イメージ(光学画像)を取得する(S103)。   When receiving an imaging instruction such as pressing the release button from the operator (S101), the imaging apparatus 1 performs imaging using the optical image sensor 10 in the first state (S102), and the optical image sensor 10 performs optical imaging. (Optical image) is acquired (S103).

次いで、基板4を変位させて第二状態(図1(b))とし(S104)、第二状態でのTOFイメージセンサ20を用いた撮影を実施する(S105)。このとき、光源21からパルス光を発光させて(S106)、TOFイメージセンサ20はTOFイメージ(TOF画像)を取得する(S107)。   Next, the substrate 4 is displaced into the second state (FIG. 1B) (S104), and photographing using the TOF image sensor 20 in the second state is performed (S105). At this time, pulsed light is emitted from the light source 21 (S106), and the TOF image sensor 20 acquires a TOF image (TOF image) (S107).

次いで、取得した光学イメージとTOFイメージの画素の位置を対応付ける制御を実行して(S108)、光学イメージの各画素について距離情報を付与する(S109)。なお、本実施形態では、先に光学イメージセンサ10を用いた撮影を行い、その後、TOFイメージセンサ20を用いた撮影を行う例を説明したが、先にTOFイメージセンサ20を用いた撮影を行い、その後、光学イメージセンサ10を用いた撮影を行うようにしてもよい。   Next, control for associating the acquired optical image with the position of the pixel of the TOF image is executed (S108), and distance information is given to each pixel of the optical image (S109). In the present embodiment, an example is described in which shooting using the optical image sensor 10 is performed first, and then shooting using the TOF image sensor 20 is performed. However, shooting using the TOF image sensor 20 is performed first. Thereafter, photographing using the optical image sensor 10 may be performed.

(センサ間画素位置対応)
本実施形態に係る撮像装置1による撮影では、光学イメージセンサ10とTOFイメージセンサ20とは、略同一位置にて撮影されているので、同じ場所(視野)を撮影している。よって、2つのセンサの画素は同じ場所として対応させることができる。これにより、光学イメージセンサ10で撮像した光学画像の画素のそれぞれにTOFイメージセンサ20により測距した距離情報を対応させ記録することが可能となる。
(Corresponding pixel position between sensors)
In the photographing by the imaging apparatus 1 according to the present embodiment, the optical image sensor 10 and the TOF image sensor 20 are photographed at substantially the same position, so the same place (field of view) is photographed. Therefore, the pixels of the two sensors can correspond to the same place. As a result, the distance information measured by the TOF image sensor 20 can be recorded in correspondence with each pixel of the optical image captured by the optical image sensor 10.

ここで、光学イメージセンサ10とTOFイメージセンサ20とのセンササイズや画素数を同じものとすることができれば、画素を1対1で対応させることができるが、既に述べたように、一般に、TOFイメージセンサ20の画素数は、光学イメージセンサ10の画素数に比べて少ない。このため、光学イメージセンサ10とTOFイメージセンサ20とのセンササイズや画素数が異なる場合は、光学イメージセンサ10とTOFイメージセンサ20の各画素を対応させる制御が必要となる。   Here, if the sensor size and the number of pixels of the optical image sensor 10 and the TOF image sensor 20 can be made the same, the pixels can be made to correspond one-to-one. The number of pixels of the image sensor 20 is smaller than the number of pixels of the optical image sensor 10. For this reason, when the sensor size and the number of pixels of the optical image sensor 10 and the TOF image sensor 20 are different, it is necessary to control the pixels of the optical image sensor 10 and the TOF image sensor 20 to correspond to each other.

光学イメージセンサ10の画素数がTOFイメージセンサ20の4倍の画素数である場合を例にして、2つのセンサの画素の位置を対応させる制御(S108)について説明する。   Control (S108) for associating the positions of the pixels of the two sensors will be described by taking as an example a case where the number of pixels of the optical image sensor 10 is four times that of the TOF image sensor 20.

図3(a)は、光学イメージセンサ10の受光部19の一部を示す模式図、図3(b)は、TOFイメージセンサ20の受光部29の一部を示す模式図である。図3に示すように、光学イメージセンサ10の受光部19、およびTOFイメージセンサ20の受光部29は、受光素子(例えば、フォトダイオードやフォトトランジスタ)が格子状に2次元配列されてなり、各受光素子から入った光情報に基づいて画像を作成する。図3に示す1つの格子部が1の受光素子(すなわち、画素)を示しており、ここでは、光学イメージセンサ10の画素数が2048(横)×1024(縦)の例、TOFイメージセンサ20の画素数が1024(横)×512(縦)であるものとする。   FIG. 3A is a schematic diagram illustrating a part of the light receiving unit 19 of the optical image sensor 10, and FIG. 3B is a schematic diagram illustrating a part of the light receiving unit 29 of the TOF image sensor 20. As shown in FIG. 3, the light receiving unit 19 of the optical image sensor 10 and the light receiving unit 29 of the TOF image sensor 20 are configured by two-dimensionally arraying light receiving elements (for example, photodiodes and phototransistors), An image is created based on the light information entered from the light receiving element. One grating portion shown in FIG. 3 represents one light receiving element (that is, a pixel). Here, the number of pixels of the optical image sensor 10 is 2048 (horizontal) × 1024 (vertical), for example, a TOF image sensor 20. It is assumed that the number of pixels is 1024 (horizontal) × 512 (vertical).

ここで、図3(a)に示す光学イメージセンサ10の斜線部の4つの画素は、図3(b)に示すTOFイメージセンサ20の斜線部の1つの画素に対応するため、光学イメージセンサ10の4つの画素に対して、TOFイメージセンサ20の1つの画素で測定した距離情報を割り当てることで、光学イメージセンサ10の各画素に距離情報を割り当てることが可能となる。   Here, the four pixels in the shaded portion of the optical image sensor 10 shown in FIG. 3A correspond to one pixel in the shaded portion of the TOF image sensor 20 shown in FIG. By assigning the distance information measured by one pixel of the TOF image sensor 20 to these four pixels, the distance information can be assigned to each pixel of the optical image sensor 10.

図4は、ベイヤー配列の配列パターンの説明図である。ベイヤー配列は、色の3原色である赤(R)、緑(G)、青(B)を、R,G,G,Bの単位で配列するものである。光学イメージセンサ10にベイヤー配列のカラーフィルターを用いる場合、4つの画素でカラー画像上の最小単位となるため、図3に示したように、光学イメージセンサ10の4つの画素に対して、TOFイメージセンサ20の1つの画素で測定した距離情報を割り当てることで、カラー画像を構成する各画素に距離情報を割り当てることができる。   FIG. 4 is an explanatory diagram of an array pattern of the Bayer array. In the Bayer arrangement, red (R), green (G), and blue (B), which are the three primary colors, are arranged in units of R, G, G, and B. When a Bayer color filter is used for the optical image sensor 10, four pixels are the smallest unit on the color image. Therefore, as shown in FIG. 3, the TOF image is applied to the four pixels of the optical image sensor 10. By assigning the distance information measured by one pixel of the sensor 20, the distance information can be assigned to each pixel constituting the color image.

(データ構造)
2つのセンサの画素の対応制御(S108)の後、光学画像の各画素のデータに距離情報が付与される。
(data structure)
After correspondence control of the pixels of the two sensors (S108), distance information is given to the data of each pixel of the optical image.

図5は、距離情報が付与された光学画像のデータファイル構造の一例を示す図である。データファイル30は、ヘッダーデータ31、画像データ32、および距離データ33からなり、画像データ32は、例えば、RAW画像をベイヤー配列で示すデータであり、距離データ33は、例えば、それぞれの画素における距離のバイナリデータである。   FIG. 5 is a diagram illustrating an example of a data file structure of an optical image to which distance information is added. The data file 30 includes header data 31, image data 32, and distance data 33. The image data 32 is, for example, data indicating a RAW image in a Bayer array, and the distance data 33 is, for example, a distance at each pixel. It is binary data.

(TOFイメージセンサ)
次に、3次元センサの好ましい一例であるTOFイメージセンサ20について説明する。TOFイメージセンサは、変調した参照光を照射し(光源21からのパルス光)、この参照光が被測定対象である物体(被写体)で反射されて、戻ってくるまでの時間を検出することで、被写体までの測距を行うものである。
(TOF image sensor)
Next, the TOF image sensor 20 which is a preferable example of a three-dimensional sensor will be described. The TOF image sensor emits modulated reference light (pulse light from the light source 21), and detects the time until the reference light is reflected by an object (subject) to be measured and returned. , To measure the distance to the subject.

なお、TOFは、種々ある3次元センシング方式の中でも、そのレスポンス性の原理的優位性から、さまざまな用途への開発が進められており、例えば、ジェスチャー認識やロボットや自動車などの移動体の位置制御などへの応用が期待されている。また、TOFには、参照光の発光タイミングと受光タイミングの時間差を直接検出する直接TOF法と、受光信号を使った演算から該時間差を検出する間接TOF法が知られいるが、近距離測定においては、間接TOF法の方が有利であると考えられている。   Note that TOF is being developed for various uses because of its responsive principle, among various 3D sensing methods. For example, gesture recognition and the position of mobile objects such as robots and automobiles are being developed. Application to control is expected. In addition, as the TOF, a direct TOF method that directly detects the time difference between the light emission timing and the light reception timing of the reference light and an indirect TOF method that detects the time difference from the calculation using the light reception signal are known. The indirect TOF method is considered to be more advantageous.

図6は、TOFイメージセンサ20の機能構成の一例を示すブロック図である。TOFイメージセンサ20は、投光系201、受光系202、および3次元情報取得部203を有しており、3次元情報取得部203は、撮像装置1の制御手段とバス204を介して接続されている。   FIG. 6 is a block diagram illustrating an example of a functional configuration of the TOF image sensor 20. The TOF image sensor 20 includes a light projecting system 201, a light receiving system 202, and a three-dimensional information acquisition unit 203. The three-dimensional information acquisition unit 203 is connected to the control unit of the imaging apparatus 1 via a bus 204. ing.

なお、投光系201、受光系202、および3次元情報取得部203の各部は、例えば、TOFイメージセンサ20の筐体内に収納されており、筐体には、投光系201から投光される光、および物体で反射され、受光系202に向かう光が通過するための窓が設けられるとともに、窓にはガラスが取り付けられている。   Each unit of the light projecting system 201, the light receiving system 202, and the three-dimensional information acquisition unit 203 is housed in, for example, the housing of the TOF image sensor 20, and light is projected from the light projecting system 201 to the housing. And a window through which light reflected by an object and light directed toward the light receiving system 202 pass, and glass is attached to the window.

図7は、投光系201の機能構成の一例を示すブロック図である。投光系201は、受光系202の−Z側に配置されており、光源21および光源駆動部25を有している。   FIG. 7 is a block diagram illustrating an example of a functional configuration of the light projecting system 201. The light projecting system 201 is disposed on the −Z side of the light receiving system 202 and includes the light source 21 and the light source driving unit 25.

光源21は、+X方向に光を射出するように配置されており、光源駆動部25によって点灯および消灯が制御される。なお、光源21としては、例えば、LEDを用いることができるが、これに限らず、端面発光レーザや面発光レーザ等の半導体レーザ等の他の光源を用いることもできる。   The light source 21 is arranged so as to emit light in the + X direction, and lighting on and off are controlled by the light source driving unit 25. As the light source 21, for example, an LED can be used. However, the light source 21 is not limited to this, and other light sources such as an edge emitting laser and a semiconductor laser such as a surface emitting laser can also be used.

図8は、パルス制御信号のタイミングチャートの一例である。また、図9は、光源駆動信号のタイミングチャートの一例である。光源駆動部25には、3次元情報取得部203から送出されるパルス制御信号(図8)が入力され、光源駆動部25は、パルス制御信号に基づいて、光源21を駆動するための光源駆動信号(図9)を生成する。光源駆動信号(駆動パルス)は、光源21および3次元情報取得部203に送出される。   FIG. 8 is an example of a timing chart of the pulse control signal. FIG. 9 is an example of a timing chart of the light source drive signal. A pulse control signal (FIG. 8) sent from the three-dimensional information acquisition unit 203 is input to the light source driving unit 25, and the light source driving unit 25 drives the light source for driving the light source 21 based on the pulse control signal. A signal (FIG. 9) is generated. The light source drive signal (drive pulse) is sent to the light source 21 and the three-dimensional information acquisition unit 203.

これにより、光源21からは、3次元情報取得部203から指示されたパルス幅のパルス光が射出される。複数の光源がある場合、各光源から同じパルス幅のパルス光として制御される。なお、光源21から射出されるパルス光は、デューティ(duty)が50%以下となるように、3次元情報取得部203において設定されている。   Thereby, the light source 21 emits pulsed light having a pulse width instructed from the three-dimensional information acquisition unit 203. When there are a plurality of light sources, each light source is controlled as pulsed light having the same pulse width. The pulsed light emitted from the light source 21 is set in the three-dimensional information acquisition unit 203 so that the duty is 50% or less.

投光系201の光源21から射出され、物体で反射された光の一部は、TOFイメージセンサ20に戻ってくる。そして、受光系202は、物体で反射されTOFイメージセンサ20に戻ってくる光(物体からの反射光)を検出する。   A part of the light emitted from the light source 21 of the light projecting system 201 and reflected by the object returns to the TOF image sensor 20. The light receiving system 202 detects light (reflected light from the object) that is reflected by the object and returns to the TOF image sensor 20.

図10は、受光系202の機能構成の一例を示すブロック図である。受光系202は、投光系201の+Z側に配置されており、結像光学系28および受光部29を有している。   FIG. 10 is a block diagram illustrating an example of a functional configuration of the light receiving system 202. The light receiving system 202 is disposed on the + Z side of the light projecting system 201 and includes the imaging optical system 28 and the light receiving unit 29.

結像光学系28は、物体からの反射光の光路上に配置され、物体からの反射光を集光する。なお、図10の例では、結像光学系28が1枚のレンズで構成される例を示しているが、複数のレンズで構成されても良いし、ミラー光学系を用いても良い。   The imaging optical system 28 is disposed on the optical path of the reflected light from the object, and collects the reflected light from the object. In the example of FIG. 10, the example in which the imaging optical system 28 is configured by a single lens is shown, but it may be configured by a plurality of lenses or a mirror optical system.

受光部29は、結像光学系28を介して物体からの反射光を受光して、電気信号に変換し、該電気信号を時間的に分割して複数の時間毎の信号に振り分ける。   The light receiving unit 29 receives the reflected light from the object via the imaging optical system 28, converts it into an electrical signal, divides the electrical signal in time, and distributes it to a plurality of signals for each time.

3次元情報取得部203は、受光部29から入力される信号を用いて光源21の発光タイミングと受光部29の受光タイミングとの時間差を算出するとともに、時間差に基づいて、物体までの距離を算出して物体の3次元情報を取得する。   The three-dimensional information acquisition unit 203 calculates a time difference between the light emission timing of the light source 21 and the light reception timing of the light receiving unit 29 using a signal input from the light receiving unit 29, and calculates a distance to the object based on the time difference. Thus, the three-dimensional information of the object is acquired.

図11は、3次元情報取得部203と受光部29との間の信号の送受信の説明図である。3次元情報取得部203は、光源21に印加される駆動パルスの周波数である変調周波数を制御する変調周波数制御部203aと、光源21の射出タイミングと受光部29の受光タイミングの時間差に基づいて物体までの距離を算出して物体の3次元情報である距離画像を生成する距離画像生成部203bと、を備えており、3次元情報取得部203は、TX1信号、TX2信号、TXD信号及びリセット信号を受光部29に出力する。   FIG. 11 is an explanatory diagram of signal transmission / reception between the three-dimensional information acquisition unit 203 and the light receiving unit 29. The three-dimensional information acquisition unit 203 includes a modulation frequency control unit 203a that controls a modulation frequency that is a frequency of a drive pulse applied to the light source 21, and an object based on a time difference between the emission timing of the light source 21 and the light reception timing of the light receiving unit 29. A distance image generation unit 203b that generates a distance image that is three-dimensional information of the object by calculating the distance to the object, and the three-dimensional information acquisition unit 203 includes a TX1 signal, a TX2 signal, a TXD signal, and a reset signal. Is output to the light receiving unit 29.

受光部29は、画素が2次元配列されたエリアイメージセンサ(図3(b))であって、結像光学系28を介した物体からの反射光を受光する。受光部29の出力信号(アナログ信号)は、アナログデジタルコンバータ(ADC)によりデジタル信号に変換され、3次元情報取得部203に送られる。   The light receiving unit 29 is an area image sensor (FIG. 3B) in which pixels are two-dimensionally arranged, and receives light reflected from an object via the imaging optical system 28. The output signal (analog signal) of the light receiving unit 29 is converted into a digital signal by an analog-digital converter (ADC) and sent to the three-dimensional information acquisition unit 203.

受光部29は、1の受光素子に対して、2つの電荷蓄積部を有しており、TX1信号がハイレベルのときは、受光系202で光電変換された電荷を一方の電荷蓄積部に蓄積し、TX2信号がハイレベルのときは、受光系202で光電変換された電荷を他方の電荷蓄積部に蓄積する。   The light receiving unit 29 has two charge storage units for one light receiving element. When the TX1 signal is at a high level, the charge photoelectrically converted by the light receiving system 202 is stored in one charge storage unit. When the TX2 signal is at the high level, the charge photoelectrically converted by the light receiving system 202 is accumulated in the other charge accumulation unit.

また、受光部29は、TXD信号がハイレベルのときは、電荷の蓄積を行わず、リセット信号がハイレベルになると、2つの電荷蓄積部に蓄積されている電荷量を0にする。このように、距離情報取得のためのイメージセンサは通常の光学的イメージセンサとは異なる構造を有するものであり、同じセンサ上に組み込むことは容易ではない。   The light receiving unit 29 does not accumulate charges when the TXD signal is at a high level, and sets the amount of charges accumulated in the two charge accumulation units to 0 when the reset signal is at a high level. As described above, the image sensor for obtaining distance information has a structure different from that of a normal optical image sensor, and it is not easy to incorporate the image sensor on the same sensor.

図12は、TOFイメージセンサ20における1フレームの概略図である。TOFイメージセンサ20は、基本的には、変調周波数が異なる2つ以上のTOF検出(TOF演算方式を用いる検出)を実行し、高周波数側のTOF検出で高い距離分解能の距離情報を取得するとともに、低周波数側のTOF検出で高周波数側のTOF検出情報に含まれるエイリアシング成分を判定してディエイリアシングを行う(参考文献:特許文献1)。   FIG. 12 is a schematic diagram of one frame in the TOF image sensor 20. The TOF image sensor 20 basically performs two or more TOF detections (detection using a TOF calculation method) having different modulation frequencies, and acquires distance information with high distance resolution by high-frequency TOF detection. In the low frequency side TOF detection, the aliasing component included in the high frequency side TOF detection information is determined to perform de-aliasing (reference document: Patent Document 1).

ここでは、異なる変調周波数を用いる2つのサブフレームで1フレームを構成する例について説明する。一方のサブフレームにおける変調周波数(一の駆動パルスの周波数)を第一の周波数f1とし、他方のサブフレームにおける変調周波数(他の駆動パルスの周波数)を第二の周波数f2とする。   Here, an example in which one frame is configured by two subframes using different modulation frequencies will be described. The modulation frequency (frequency of one drive pulse) in one subframe is a first frequency f1, and the modulation frequency (frequency of another drive pulse) in the other subframe is a second frequency f2.

3次元情報取得部203では、第一の周波数f1によるTOF検出を行い、距離画像生成部203b内のメモリにその位相情報を格納する。次に、変調周波数制御部203aで第一の周波数f1から第二の周波数f2に切り替えて、第二の周波数f2によるTOF検出を行う。ここで、第一の周波数f1>第二の周波数f2の関係とする。なお、第二の周波数f2によるTOF検出を行った後、第一の周波数f1によるTOF検出を行っても良いのは勿論である。   The three-dimensional information acquisition unit 203 performs TOF detection at the first frequency f1, and stores the phase information in the memory in the distance image generation unit 203b. Next, the modulation frequency control unit 203a switches from the first frequency f1 to the second frequency f2, and performs TOF detection using the second frequency f2. Here, a relationship of the first frequency f1> the second frequency f2 is assumed. Needless to say, TOF detection at the first frequency f1 may be performed after the TOF detection at the second frequency f2.

3次元情報取得部203は、第1の駆動パルスが光源21に供給されている第1の時間帯に求めた時間差から算出した物体までの距離と、第2の駆動パルスが光源21に供給されている第2の時間帯に求めた時間差から算出した物体までの距離を用いて3次元情報を算出する。   The three-dimensional information acquisition unit 203 supplies the light source 21 with the distance to the object calculated from the time difference obtained in the first time zone in which the first drive pulse is supplied to the light source 21 and the second drive pulse. The three-dimensional information is calculated using the distance to the object calculated from the time difference obtained in the second time zone.

このとき、パルス幅が異なる3つ以上の駆動パルスを異なる時間帯に光源21に供給しても良い。この場合、パルス幅が異なる3つ以上の駆動パルスをパルス幅が大きい側と小さい側に分け、パルス幅が小さい側の駆動パルスを正弦波状とし、パルス幅が大きい側の駆動パルスを矩形波状とすることが好ましい。   At this time, three or more drive pulses having different pulse widths may be supplied to the light source 21 in different time zones. In this case, three or more drive pulses having different pulse widths are divided into a side having a larger pulse width and a side having a smaller pulse width, the drive pulse having a smaller pulse width is formed into a sine wave, and the drive pulse having a larger pulse width is formed into a rectangular waveform. It is preferable to do.

以上説明した本実施形態に係る撮像装置1は、光学イメージセンサ10で撮影される光学画像の画素ごとに正確な距離情報を対応付けて記録することができる距離情報同時取得型の撮像装置1とすることができる。   The imaging apparatus 1 according to the present embodiment described above is a distance information simultaneous acquisition type imaging apparatus 1 capable of recording accurate distance information in association with each pixel of an optical image captured by the optical image sensor 10. can do.

これにより、例えば、同じ撮影範囲の画像イメージとTOFイメージとのそれぞれの画素を対応させることで、画像のカラーイメージを距離に対応したカラーイメージで表示させることが可能となる。このとき、画像イメージに対して画素単位で、距離に対応したカラーイメージを付加することができるため、距離イメージが写真画質と同様に高品位なものとすることができる。   Thereby, for example, by making each pixel of the image image and the TOF image in the same shooting range correspond to each other, the color image of the image can be displayed as a color image corresponding to the distance. At this time, since a color image corresponding to the distance can be added to the image image in units of pixels, the distance image can be of high quality like the picture quality.

また、撮影位置からの正確な距離情報はすなわち空間座標へと変換できるため、光学写真の空間を3D座標にて認識できるようになる。このため、例えば、3次元CAD(computer-aided design)などのソフトウェアへ空間データ入力を簡易に行うことが可能となる。   In addition, since accurate distance information from the shooting position can be converted into space coordinates, the space of the optical photograph can be recognized in 3D coordinates. For this reason, for example, spatial data can be easily input to software such as three-dimensional CAD (computer-aided design).

なお、本実施形態では、光源21は、単一の発光点(LDまたはLED)を有し、これをパルス発光させ、物体からの反射光をTOFイメージセンサ20で受光する場合について説明したが、例えば、光源21は、2次元配列された複数の発光点を有し、複数の発光点を順次パルス点灯させ、各発光パルスの物体からの反射光を単一の受光系202で順次受光して距離画像を生成してもよい。   In the present embodiment, the light source 21 has a single light emitting point (LD or LED), pulsed light is emitted from this, and the reflected light from the object is received by the TOF image sensor 20. For example, the light source 21 has a plurality of light emitting points arranged two-dimensionally, sequentially turns on the plurality of light emitting points, and receives light reflected from an object of each light emitting pulse sequentially by a single light receiving system 202. A distance image may be generated.

また、本実施形態では、非走査型の投光系201を例に説明したが、投光系201を、光偏向器(例えばポリゴンミラー、ガルバノミラー、MEMSミラー、等)を含む走査型の投光系201としても良い。この場合、例えば、一方向に配列されたライン光源からそれぞれ射出された複数の光を、ライン光源の配列方向に非平行な方向(例えば、垂直な方向)に走査して、ライン光源に対応して該配列方向に平行に配列された複数の受光系202で受光し、距離画像を生成することができる。また、単一の発光点からの光を光偏向手段で2次元走査して、物体からの反射光をTOFイメージセンサ20で受光し、距離画像を生成しても良い。   In the present embodiment, the non-scanning light projecting system 201 has been described as an example. However, the light projecting system 201 includes a scanning light projecting device (for example, a polygon mirror, a galvano mirror, a MEMS mirror, etc.). The optical system 201 may be used. In this case, for example, a plurality of lights respectively emitted from the line light sources arranged in one direction are scanned in a direction (for example, a vertical direction) that is non-parallel to the arrangement direction of the line light sources to correspond to the line light sources. Thus, a plurality of light receiving systems 202 arranged in parallel to the arrangement direction can receive light to generate a distance image. Alternatively, the distance image may be generated by two-dimensionally scanning the light from a single light emitting point with the light deflecting means and receiving the reflected light from the object with the TOF image sensor 20.

また、本実施形態では、撮像センサとして、光学イメージセンサ10と、TOFイメージセンサ20と、をそれぞれ1つずつ設けた撮像装置1を例に説明したが、撮像装置1は、光学イメージセンサ10およびTOFイメージセンサ20を少なくとも1つ有するものであればよく、3以上の撮像センサを有し、これらを1つの撮像光学系5の結像位置に変位させるものであってもよい。   In the present embodiment, the imaging apparatus 1 provided with one optical image sensor 10 and one TOF image sensor 20 as the imaging sensor has been described as an example. However, the imaging apparatus 1 includes the optical image sensor 10 and the optical image sensor 10. Any one having at least one TOF image sensor 20 may be used, and three or more imaging sensors may be provided and these may be displaced to the imaging position of one imaging optical system 5.

[第2の実施形態]
以下、本発明に係る撮像装置の他の実施形態について説明する。なお、上記実施形態と同様の点についての説明は適宜省略する。
[Second Embodiment]
Hereinafter, other embodiments of the imaging device according to the present invention will be described. In addition, the description about the same point as the said embodiment is abbreviate | omitted suitably.

第2の実施形態に係る撮像装置は、センサに被写体の像を結像させる2以上の撮像光学系(撮像光学系5A,5B)と、被写体を照射する発光部(光源21)と、センサにより撮像された像から4πラジアンの立体角内の像を得る撮像制御手段と、を備える全天球型の撮像装置(全天球型撮像装置2)であって、センサは、少なくとも可視光を撮像する光学センサ(光学イメージセンサ10)と、被写体までの距離を測定する3次元センサ(TOFイメージセンサ20)と、を有するものである。なお、括弧内は実施形態での符号、適用例を示す。   The imaging apparatus according to the second embodiment includes two or more imaging optical systems (imaging optical systems 5A and 5B) that form an image of a subject on a sensor, a light emitting unit (light source 21) that irradiates the subject, and a sensor. An omnidirectional image capturing device (omnidirectional image capturing device 2) including an image capturing control unit that obtains an image within a solid angle of 4π radians from the captured image, and the sensor captures at least visible light. An optical sensor (optical image sensor 10), and a three-dimensional sensor (TOF image sensor 20) that measures the distance to the subject. In addition, the code | symbol in embodiment and an application example are shown in a parenthesis.

近年、特殊な光学画像記録を行うカメラ技術として、180度より広い画角を持つ広角レンズと、この広角レンズによる像を撮影する光学イメージセンサとによる撮像光学系を2つ、物体側レンズが互いに逆向きになるように組み合わせ、各撮像光学系により撮影された像を合成して「4πラジアンの立体角内の像」を得る全天球型撮像装置が知られている(参考文献:特開2010−271675号公報)。このような全天球型撮像装置では、同時に全方位の画像情報を取得することができ、例えば、防犯用監視カメラや車載カメラ等へ有効に利用することができる。   In recent years, as a camera technology for performing special optical image recording, there are two imaging optical systems including a wide-angle lens having an angle of view wider than 180 degrees and an optical image sensor that captures an image by this wide-angle lens. There is known an omnidirectional image pickup device that is combined so as to be reversed and synthesizes images taken by the respective image pickup optical systems to obtain an “image within a solid angle of 4π radians” (reference: Japanese Patent Laid-Open 2010-271675). In such an omnidirectional imaging apparatus, image information in all directions can be acquired at the same time, and can be effectively used for, for example, a surveillance camera for security or a vehicle-mounted camera.

この全天球型撮像装置において、第1の実施形態で説明したように距離情報取得を可能とすれば、高精細な写真を得ながら全天球画像イメージの画素に距離情報を記録することが可能となる。以下、撮像装置が全天球型撮像装置である場合について説明する。   In this omnidirectional imaging apparatus, if distance information can be acquired as described in the first embodiment, distance information can be recorded in pixels of an omnidirectional image image while obtaining a high-definition photograph. It becomes possible. Hereinafter, a case where the imaging device is an omnidirectional imaging device will be described.

(全天球型撮像装置構成)
図13は、本発明に係る撮像装置の他の実施形態である全天球型撮像装置2の要部構成図である。全天球型撮像装置2は、2つの撮像光学系5A,5Bを備えている。撮像光学系5A,5Bは、撮像センサを除いて同一の構造を有している。以下、撮像光学系5Aを構成するものには符号の末尾にAを付し、撮像光学系5Bを構成するものには符号の末尾にBを付して区別する。
(Spherical imaging device configuration)
FIG. 13 is a configuration diagram of a main part of an omnidirectional imaging device 2 which is another embodiment of the imaging device according to the present invention. The omnidirectional imaging device 2 includes two imaging optical systems 5A and 5B. The imaging optical systems 5A and 5B have the same structure except for the imaging sensor. Hereinafter, the components constituting the imaging optical system 5A are distinguished by adding A at the end of the reference numerals, and those constituting the imaging optical system 5B by adding B at the end of the reference numerals.

全天球型撮像装置2は、撮像光学系5A,5Bのいずれか一方の撮像センサとしてTOFイメージセンサ20を設置し、他方の撮像センサとして光学イメージセンサ10を設置している。ここでは、撮像光学系5AにTOFイメージセンサ20、撮像光学系5Bに光学イメージセンサ10を設置した場合について説明する。   The omnidirectional imaging device 2 has the TOF image sensor 20 installed as one of the imaging optical systems 5A and 5B, and the optical image sensor 10 installed as the other imaging sensor. Here, a case where the TOF image sensor 20 is installed in the imaging optical system 5A and the optical image sensor 10 is installed in the imaging optical system 5B will be described.

撮像光学系5Aについて説明する。撮像光学系5Aは、180度より広い画角を持つ広角レンズ6Aと、この広角レンズによる像を撮像するTOFイメージセンサ20とを有する。   The imaging optical system 5A will be described. The imaging optical system 5A includes a wide-angle lens 6A having a field angle wider than 180 degrees, and a TOF image sensor 20 that captures an image by the wide-angle lens.

TOFイメージセンサ20は、基板4Aに設けられている。基板4Aは、固設されており、TOFイメージセンサ20を駆動する回路素子や、外部との電気的接続に必要な回路素子を有し、TOFイメージセンサ20よりもサイズが大きい。   The TOF image sensor 20 is provided on the substrate 4A. The substrate 4A is fixed and has circuit elements for driving the TOF image sensor 20 and circuit elements necessary for electrical connection with the outside, and is larger in size than the TOF image sensor 20.

広角レンズ6Aは、負のパワーの前群6A、反射面の実体をなすプリズム6A、正のパワーの後群6Aを配し、反射面により前群の光軸LAを後群6Aに向かって90度折り曲げるものである。なお、前群6A、後群6Aは、複数のレンズで構成されるものであるが、図13では、それぞれ1枚のレンズとして簡略化して示している。 Wide-angle lens 6A is front group 6A 1 of negative power, the prism 6A 2 forming the substance of the reflection surface, a positive arranged group 6A 3 after power, the rear group 6A of the optical axis LA 1 of the front group by the reflecting surface It is bent 90 degrees toward 3 . Note that the front group 6A 1 and the rear group 6A 3 are composed of a plurality of lenses, but in FIG. 13, they are simplified and shown as one lens.

物体側からの光は、前群6Aに入射し、プリズム6Aの反射面により反射され、後群6A3に向かって光軸を90度折り曲げられる。プリズム6Aの反射面で反射された光束は、後群光軸LAに沿って後群6Aに入射し、後群6Aを透過すると、TOFイメージセンサ20の受光面上に結像する。 Light from the object side is incident on the front unit 6A 1, it is reflected by the reflecting surface of the prism 6A 2, folded optical axis 90 degrees towards the rear unit 6A3. The light beam reflected by the reflecting surface of the prism 6A 2 is incident on the rear unit 6A 3 along the rear group optical axis LA 2, when transmitted through the rear group 6A 3, is formed on the light receiving surface of the TOF image sensor 20 .

撮像光学系5Bについて説明する。撮像光学系5Bは、180度より広い画角を持つ広角レンズと、この広角レンズ6Bによる像を撮像する光学イメージセンサ10とを有する。   The imaging optical system 5B will be described. The imaging optical system 5B includes a wide-angle lens having a field angle wider than 180 degrees and an optical image sensor 10 that captures an image by the wide-angle lens 6B.

光学イメージセンサ10は、基板4Bに設けられている。基板4Bは、固設されており、光学イメージセンサ10を駆動する回路素子や、外部との電気的接続に必要な回路素子を有し、光学イメージセンサ10よりもサイズが大きい。   The optical image sensor 10 is provided on the substrate 4B. The substrate 4B is fixed and has circuit elements for driving the optical image sensor 10 and circuit elements necessary for electrical connection with the outside, and is larger in size than the optical image sensor 10.

広角レンズ6Bは、負のパワーの前群6B、反射面の実体をなすプリズム6B、正のパワーの後群6Bを配し、反射面により前群の光軸LBを後群6Bに向かって90度折り曲げるものである。なお、前群6B、後群6Bは、複数のレンズで構成されるものであるが、図13では、それぞれ1枚のレンズとして簡略化して示している。 The wide-angle lens 6B includes a negative power front group 6B 1 , a prism 6B 2 that forms a reflective surface, and a positive power rear group 6B 3, and the front group optical axis LB 1 is reflected by the reflective surface to the rear group 6B. It is bent 90 degrees toward 3 . The front group 6B 1 and the rear group 6B 3 are composed of a plurality of lenses, but in FIG. 13, they are each shown as a single lens in a simplified manner.

物体側からの光は、前群6Bに入射し、プリズム6Bの反射面により反射され、後群6B3に向かって光軸を90度折り曲げられる。プリズム6Bの反射面で反射された光束は、後群光軸LBに沿って後群6Bに入射し、後群6Bを透過すると、光学イメージセンサ10の受光面上に物体像を結像する。 Light from the object side is incident on the front unit 6B 1, is reflected by the reflecting surface of the prism 6B 2, folded optical axis 90 degrees towards the rear unit 6B3. The light beam reflected by the reflecting surface of the prism 6B 2 is incident on the rear group 6B 3 along the rear group optical axis LB 2 and passes through the rear group 6B 3 , so that an object image is formed on the light receiving surface of the optical image sensor 10. Form an image.

ここまで説明した2つの撮像光学系5A,5Bは、図13に示すように組み合わせられている。即ち、前群6A,6Bの前群光軸LA,LBを合致させて前群の向きが逆になる(図13において、撮像光学系5Aの前群6Aは右向き、撮像光学系5Bの前群6Bは左向き)ように、且つ、後群6A,6Bの光軸LA,LBが互いに平行で、後群同士の向きが互いに逆になる(図13において、撮像光学系5Aの後群6Aは上向きであり、撮像光学系5Bの後群6Bは下向き)ように組み合わせられている。 The two imaging optical systems 5A and 5B described so far are combined as shown in FIG. That is, the front group optical axes LA 1 and LB 1 of the front groups 6A 1 and 6B 1 are made to coincide with each other so that the direction of the front group is reversed (in FIG. 13, the front group 6A 1 of the imaging optical system 5A is facing right, and the imaging optics front group 6B 1 is left.) as the system 5B, and the rear group 6A 3, 6B 3 of the optical axis LA 2, LB 2 are parallel to each other, the orientation between the rear group are opposite to each other (in FIG. 13, group 6A 3 after the imaging optical system 5A is upward, the group 6B 3 after the imaging optical system 5B are combined to downward) so.

この2つの撮像光学系5A,5Bを有する全天球型撮像装置2は、180°向きが異なる逆向きのTOFイメージと光学画像と、を同時に撮影することができる(第一の撮影という)。そして、この第一の撮影後、全天球型撮像装置2を180°回転させて撮影することで、最初の撮影とはそれぞれの向きが180°異なるTOFイメージと光学画像と、を同時に撮影することができる(第二の撮影)。   The omnidirectional imaging device 2 having the two imaging optical systems 5A and 5B can simultaneously photograph a reverse TOF image and an optical image having different 180 ° directions (referred to as first imaging). Then, after this first shooting, the omnidirectional imaging device 2 is rotated 180 ° to shoot, thereby simultaneously shooting a TOF image and an optical image that are 180 ° different from the first shooting. (Second shooting).

この第一の撮影と第二の撮影で取得した画像を合成することで光学画像の4πラジアンの立体角内の像(すなわち、全天球画像)を得ることができるとともに、TOFイメージについても4πラジアンの立体角内の像を得ることができる。そして、それぞれは略同じ場所での撮影を行っているため、同じ場所を写したそれぞれの画素を対応させることが可能となる。   By combining the images acquired in the first and second imaging, an image within a solid angle of 4π radians of the optical image (that is, an omnidirectional image) can be obtained, and the TOF image is also 4π. An image within a solid angle of radians can be obtained. And since each is image | photographing in the substantially same place, it becomes possible to make each pixel which image | photographed the same place respond | correspond.

図14は、全天球型撮像装置2の上視図である。TOFイメージセンサでの撮影側には、光源21からパルス光を投光する必要があるため、全天球型撮像装置2は、TOFイメージセンサ20での撮影側にパルス光を発する光源21を有している。なお、図14のように光源21を全天球型撮像装置2の両サイドに設け、180°回転させて撮影を行う場合、光源21が設けられた範囲(斜線部)は、死角となり全天球画像から蹴られる(光源21が映り込んでしまう)こととなる。この点については後述する。   FIG. 14 is a top view of the omnidirectional imaging device 2. Since it is necessary to project pulsed light from the light source 21 on the photographing side of the TOF image sensor, the omnidirectional imaging device 2 has a light source 21 that emits pulsed light on the photographing side of the TOF image sensor 20. doing. As shown in FIG. 14, when the light source 21 is provided on both sides of the omnidirectional image pickup device 2 and the photographing is performed by rotating 180 degrees, the range where the light source 21 is provided (shaded portion) becomes a blind spot and becomes a omnidirectional sky. The ball image is kicked (the light source 21 is reflected). This point will be described later.

(撮影処理)
図15は、全天球型撮像装置2による撮影処理の一例を示すフローチャートである。なお、この撮影処理では、撮影処理中に全天球型撮像装置2を180°回転させるものであるため、全天球型撮像装置2は、三脚などの固定手段に固定されているとともに、更に所望の角度を正確に回転させるための回転雲台などの回転制御手段に固定されている。
(Shooting process)
FIG. 15 is a flowchart illustrating an example of an imaging process performed by the omnidirectional imaging apparatus 2. In this photographing process, since the omnidirectional imaging device 2 is rotated by 180 ° during the photographing processing, the omnidirectional imaging device 2 is fixed to a fixing means such as a tripod, and further. It is fixed to a rotation control means such as a rotary head for accurately rotating a desired angle.

全天球型撮像装置2は、操作者からレリーズボタンの押下などの撮影指示を受けると(S201)、撮影(第一の撮影)を実施する(S202)。撮影では光源21からパルス光を発光させて(S203)、光学イメージセンサ10は光学画像を取得するとともに、TOFイメージセンサ20は光学画像とは180°異なる位置でのTOFイメージを取得する(S204)。   When the omnidirectional imaging device 2 receives a shooting instruction such as pressing the release button from the operator (S201), the omnidirectional imaging device 2 performs shooting (first shooting) (S202). In photographing, pulse light is emitted from the light source 21 (S203), the optical image sensor 10 acquires an optical image, and the TOF image sensor 20 acquires a TOF image at a position different from the optical image by 180 ° (S204). .

次いで、回転制御手段により回転雲台を180°回転させた後(S205)、撮影(第二の撮影)を実施する(S206)。   Next, after the rotary head is rotated 180 ° by the rotation control means (S205), photographing (second photographing) is performed (S206).

この回転雲台の回転動作は、回転雲台として任意の角度に回転制御可能な自動回転雲台を用いることが好ましいが、自動回転雲台を用いず、ユーザが手動で回転させるものであってもよい。手動の場合は、全天球型撮像装置2は、第一の撮影の完了時に、回転雲台を所定角度回転させる必要があることを通知する。このときの回転雲台としては、所望の角度に正確に回転させて固定できるための目盛りや固定機能を有する回転雲台を用いることが好ましい。   The rotary head is preferably rotated by an automatic rotary head that can be controlled to rotate at an arbitrary angle as the rotary head. However, the user does not use the automatic rotary head and the user manually rotates the head. Also good. In the case of manual operation, the omnidirectional imaging device 2 notifies that the rotary head needs to be rotated by a predetermined angle when the first imaging is completed. As the rotating pan head at this time, it is preferable to use a rotating pan head having a scale or a fixing function for being able to be rotated and fixed accurately at a desired angle.

第二の撮影では光源21からパルス光を発光させて(S207)、光学イメージセンサ10は光学画像を取得するとともに、TOFイメージセンサ20は光学画像とは180°異なる位置でのTOFイメージを取得する(S208)。   In the second imaging, pulse light is emitted from the light source 21 (S207), the optical image sensor 10 acquires an optical image, and the TOF image sensor 20 acquires a TOF image at a position 180 ° different from the optical image. (S208).

第一の撮影と第二の撮影で取得した光学画像とTOFイメージを合成して、全天球画像を作成する(S209)。   The optical image and the TOF image acquired in the first shooting and the second shooting are combined to create an omnidirectional image (S209).

次いで、取得した光学イメージとTOFイメージの画素の位置を対応付け制御を実行して(S210)、光学イメージの各画素について距離情報を付与する(S211)。   Next, the acquired optical image and the position of the pixel of the TOF image are associated with each other (S210), and distance information is given to each pixel of the optical image (S211).

なお、本実施形態では、三脚雲台などの回動可能な支持手段により支持されている全天球型撮像装置2を180°回転させる例を説明したが、全天球型撮像装置2の筐体3の内部で、撮像光学系5A,5Bを180°回転させる構成としてもよい。この場合、全天球型撮像装置2の光源21がTOFイメージセンサ20の撮影側(片側)のみを照射可能であれば、TOFイメージセンサ20の回転とともに、光源21についても回転させる必要があるが、双方のセンサの撮影側(両側)を照射可能な光源21を用いることで、光源21を固設することができる。   In this embodiment, the example has been described in which the omnidirectional imaging device 2 supported by a rotatable support means such as a tripod head is rotated by 180 °, but the housing of the omnidirectional imaging device 2 has been described. The imaging optical systems 5A and 5B may be rotated 180 ° inside the body 3. In this case, if the light source 21 of the omnidirectional imaging device 2 can irradiate only the photographing side (one side) of the TOF image sensor 20, it is necessary to rotate the light source 21 together with the rotation of the TOF image sensor 20. The light source 21 can be fixed by using the light source 21 that can irradiate the photographing side (both sides) of both sensors.

以上説明した第2の実施形態に係る全天球型撮像装置2によれば、光学イメージセンサで撮影される4πラジアンの立体角内の光学画像の画素ごとに正確な距離情報を対応付けて記録することができる距離情報同時取得型の全天球型撮像装置とすることができる。   According to the omnidirectional imaging device 2 according to the second embodiment described above, accurate distance information is recorded in association with each pixel of the optical image within the solid angle of 4π radians photographed by the optical image sensor. The distance information simultaneous acquisition type omnidirectional imaging device can be obtained.

また、上記のように、撮影位置からの正確な距離情報はすなわち空間座標へと変換できるため、簡易に全天球の空間座標データと高精細な光学画像を得ることができる。例えば、建築物の改修や補強をする際に、配管、配線、付帯設備、構造部材などの配置や寸法などの情報の取得が必要となる場合、全天球型撮像装置2による撮影により、全方位のパノラマ画像をもとに状況把握するだけでなく、寸法計測や図面作成までも可能とすることができる。   Further, as described above, since accurate distance information from the photographing position can be converted into spatial coordinates, the spatial coordinate data of the celestial sphere and a high-definition optical image can be easily obtained. For example, when it is necessary to acquire information such as the arrangement and dimensions of piping, wiring, ancillary facilities, structural members, etc. when renovating or reinforcing a building, In addition to grasping the situation based on the panoramic image of the azimuth, it is possible to perform dimension measurement and drawing creation.

なお、第2の実施形態では、撮像光学系は、それぞれ180度より広い画角を持つ広角レンズを有する同一構造の2の撮像光学系であって、光学イメージセンサ10およびTOFイメージセンサ20をそれぞれに設けた例について説明したが、各撮像系の画角が180度より狭い場合などは、3以上の撮像光学系を有するとともに、光学イメージセンサ10およびTOFイメージセンサ20の少なくとも一方を2以上有するものであってもよい。   In the second embodiment, the imaging optical system is two imaging optical systems having the same structure each having a wide-angle lens having a field angle wider than 180 degrees, and each of the optical image sensor 10 and the TOF image sensor 20 is provided. However, when the angle of view of each imaging system is narrower than 180 degrees, etc., it has three or more imaging optical systems and at least one of the optical image sensor 10 and the TOF image sensor 20. It may be a thing.

[第3の実施形態]
上述のように、TOFイメージを撮影するためには、光源21が必要となるが、全天球型撮像装置2において、全天球を全方位的に照射しようとすると、光源21の規模が大きくなり、全天球撮影の画角の多くが光源21で隠されてしまうことになる。
[Third Embodiment]
As described above, in order to take a TOF image, the light source 21 is required. However, in the omnidirectional imaging apparatus 2, if the omnidirectional sphere is omnidirectionally radiated, the size of the light source 21 is large. Thus, many of the omnidirectional shooting angles of view are hidden by the light source 21.

これに対し、第2の実施形態で説明したように、同一構造の撮像光学系を2つ組み合わせ、1つを光学イメージセンサ、他方の1つをTOFイメージセンサとすることで、TOFイメージセンサでの撮像側の半球面を照射すればよいこととなる(図14)。これにより、光源21の規模を小さくすることができるので、全天球撮影時に光源21で隠されてしまう部分が非常に小さくなり、全天球型撮像装置2を軽量化、スリム化することができる。   In contrast, as described in the second embodiment, two imaging optical systems having the same structure are combined, one is an optical image sensor, and the other is a TOF image sensor. It is only necessary to irradiate the hemispherical surface on the imaging side (FIG. 14). Thereby, since the scale of the light source 21 can be reduced, the portion hidden by the light source 21 at the time of omnidirectional photographing becomes very small, and the omnidirectional imaging device 2 can be reduced in weight and slim. it can.

しかしながら、図14に示したように、半球面を照射する場合であっても全天球撮影時には一部に光源21で隠されてしまう範囲が存在してしまう。そこで、本実施形態では、全天球型撮像装置2を2回以上回転させて撮影し、撮影画像を合成することで、光源21に蹴られた部分のない全天球撮影画像を得るものである。   However, as shown in FIG. 14, even when a hemispherical surface is irradiated, there is a range that is partially hidden by the light source 21 during omnidirectional shooting. Therefore, in the present embodiment, the omnidirectional imaging apparatus 2 is rotated twice or more to shoot, and the captured images are combined to obtain an omnidirectional captured image without a portion kicked by the light source 21. is there.

図16は、本実施形態に係る全天球型撮像装置2の概略横視図である。また、図17は、全天球型撮像装置2の光源21の一例を示す概略図であって、(a)横視図、(b)上視図、(c)正面図である。また、図18は、図17に示す光源21の照射角度の説明図である。   FIG. 16 is a schematic horizontal view of the omnidirectional imaging device 2 according to the present embodiment. FIG. 17 is a schematic diagram illustrating an example of the light source 21 of the omnidirectional imaging device 2, which is (a) a side view, (b) a top view, and (c) a front view. FIG. 18 is an explanatory diagram of the irradiation angle of the light source 21 shown in FIG.

光源21は、TOFイメージセンサ20側の撮影方向の両側に設けられるものであり、その発光部22は、全天球型撮像装置2の上側から下側まで均等にパルス光を照射できるように、複数の発光点23が縦方向に半円状に配置されてなる。ここでは、発光点23の設置角度は水平方向を基準に上下方向へそれぞれ36°ずらして設置した例を示している。また、発光点23の前面にパルス光を拡散させる拡散板24が設けられており、発光点23からのパルス光を拡散板24で均一化させることで、全天球型撮像装置2の上側から下側まで均等にパルス光を照射することが可能となる。   The light sources 21 are provided on both sides in the photographing direction on the TOF image sensor 20 side, and the light emitting units 22 are capable of emitting pulsed light evenly from the upper side to the lower side of the omnidirectional imaging device 2. A plurality of light emitting points 23 are arranged in a semicircular shape in the vertical direction. Here, an example is shown in which the installation angles of the light emitting points 23 are shifted by 36 ° in the vertical direction with respect to the horizontal direction. In addition, a diffusion plate 24 that diffuses the pulsed light is provided in front of the light emitting point 23, and the pulsed light from the light emitting point 23 is made uniform by the diffusion plate 24, so that the omnidirectional imaging device 2 can be viewed from above. It becomes possible to irradiate the pulsed light evenly to the lower side.

また、本実施形態では、発光点23が縦方向に並んだ発光部22が2列配置され、2列の発光部22は、上面からみて60度の角度で配置されており、1列の発光部22が左右に30°の角度で照射するようにしている。これにより、光源21は、上面からの撮影角度120°にパルス光を投光する。   Further, in this embodiment, two rows of light emitting units 22 each having light emitting points 23 arranged in the vertical direction are arranged, and the two rows of light emitting units 22 are arranged at an angle of 60 degrees when viewed from the top, and one row of light emission. The portion 22 irradiates left and right at an angle of 30 °. As a result, the light source 21 projects pulsed light at an imaging angle of 120 ° from the upper surface.

なお、発光部22の発光点23はできるだけ均等に全天球を照らすだけの充分な個数があれば望ましく、少なくとも左右両側で8個以上あることが好ましい。   Note that it is desirable that the light emitting points 23 of the light emitting unit 22 have a sufficient number to illuminate the entire celestial sphere as evenly as possible, and it is preferable that there are at least eight light emitting points on the left and right sides.

また、光源21は、TOFイメージセンサ20側の撮影方向の両側に設けられることが好ましいが、これに限られるものではなく、広い撮像画角を得るために任意の角度でそれぞれ外側方向に向けて設置し、照射させる構成としてもよい。   In addition, the light sources 21 are preferably provided on both sides of the shooting direction on the TOF image sensor 20 side, but the present invention is not limited to this. It is good also as a structure which installs and irradiates.

図19は、本実施形態に係る全天球型撮像装置2による撮影処理の説明図であって、(a)は第一の撮影時、(b)は第二の撮影時、(c)は第三の撮影時における全天球型撮像装置2の上視図である。なお、全天球型撮像装置2のTOFイメージセンサ側の撮影方向の両側に設けられている2つの光源21で蹴られる画角は、それぞれ60°未満であるものとする。   FIG. 19 is an explanatory diagram of the photographing process by the omnidirectional imaging device 2 according to the present embodiment, where (a) is the first photographing, (b) is the second photographing, and (c) is It is a top view of the omnidirectional imaging device 2 at the time of 3rd imaging | photography. It is assumed that the angle of view kicked by the two light sources 21 provided on both sides in the photographing direction on the TOF image sensor side of the omnidirectional imaging device 2 is less than 60 °.

先ず、図19(a)に示す向きで全天球型撮像装置2は、一回目の撮影を実行する。次いで、回転雲台を120°回転させて、図19(b)に示す位置として、2回目の撮影を実行する。さらに、その位置から回転雲台を120°回転させて、図19(c)に示す位置として、3回目の撮影を実行する。そして、120°の画角の画像を3枚合成して全天球画像を作成する。   First, the omnidirectional imaging device 2 executes the first imaging in the direction shown in FIG. Next, the rotating pan head is rotated by 120 °, and the second imaging is executed at the position shown in FIG. Further, the rotating pan head is rotated by 120 ° from the position, and the third photographing is executed as the position shown in FIG. Then, three images with an angle of view of 120 ° are combined to create an omnidirectional image.

180°回転させて2回の撮影を実行した場合、2つの光源21で蹴られる画角が存在してしまうが、本実施形態のように2回以上回転させて、3回以上の撮影を実行することで、全画角についての画像イメージとTOFイメージを取得することが可能となる。そして、これらを合成することにより、全画角についての全天球画像を作成することができる。光源21により蹴られる画角度に応じて、回転角度、撮影回数を設定することで、光源21で蹴られる画角によらず、全画角についての全天球画像を作成することが可能となる。   If the image is shot twice with a rotation of 180 °, there will be an angle of view kicked by the two light sources 21, but the image will be rotated three times or more and executed three times or more as in this embodiment. By doing so, it is possible to acquire an image image and a TOF image for all the angles of view. Then, by synthesizing these, an omnidirectional image for all angles of view can be created. By setting the rotation angle and the number of times of shooting according to the angle of view kicked by the light source 21, it becomes possible to create an omnidirectional image for all angles of view regardless of the angle of view kicked by the light source 21. .

なお、複数枚の画像を合成して全天球画像とする場合、原則として重複部分を有する必要がある。すなわち、上記の例では、1回の撮影の画角は、120°以上の画像を合成する必要があるが、本明細書では、説明を簡易にするために120°ずつの画角を得るものとして説明している。   In addition, when combining a plurality of images into an omnidirectional image, in principle, it is necessary to have overlapping portions. That is, in the above example, it is necessary to synthesize an image with a shooting angle of 120 ° or more in one shooting, but in this specification, in order to simplify the description, the angle of view of 120 ° is obtained. As described.

尚、上述の実施形態は本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変形実施可能である。   The above-described embodiment is a preferred embodiment of the present invention, but is not limited thereto, and various modifications can be made without departing from the gist of the present invention.

1 撮像装置
2 全天球型撮像装置
3 筐体
4,4A,4B 基板
5,5A,5B 撮像光学系(レンズ)
6A,6B 広角レンズ
6A,6B 前群
6A,6B プリズム
6A,6B 後群
LA,LB 前群の光軸
LA,LB 後群の光軸
10 光学イメージセンサ(光学センサ)
19 受光部
20 TOFイメージセンサ(3次元センサ)
21 光源
22 発光部
23 発光点
24 拡散板
25 光源駆動部
28 結像光学系
29 受光部
30 データファイル
31 ヘッダーデータ
32 画像データ
33 距離データ
201 投光系
202 受光系
203 3次元情報取得部
203a 変調周波数制御部
203b 距離画像生成部
204 バス
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Omnispherical imaging device 3 Case 4, 4A, 4B Substrate 5, 5A, 5B Imaging optical system (lens)
6A, 6B Wide-angle lens 6A 1 , 6B 1 Front group 6A 2 , 6B 2 Prism 6A 3 , 6B 3 Rear group LA 1 , LB 1 Front group optical axis LA 2 , LB 2 Rear group optical axis 10 Optical image sensor ( Optical sensor)
19 Light-receiving part 20 TOF image sensor (three-dimensional sensor)
21 light source 22 light emitting unit 23 light emitting point 24 diffuser plate 25 light source driving unit 28 imaging optical system 29 light receiving unit 30 data file 31 header data 32 image data 33 distance data 201 light projecting system 202 light receiving system 203 three-dimensional information obtaining unit 203a modulation Frequency control unit 203b Distance image generation unit 204 Bus

特表2015−501927号公報JP-T-2015-501927 特表2013−538342号公報Special table 2013-538342 gazette 特開2015− 70619号公報JP2015-70619A

Claims (10)

センサに被写体の像を結像させる撮像光学系と、
前記被写体を照射する発光部と、を備えた撮像装置であって、
前記センサは、少なくとも可視光を撮像する光学センサと、前記被写体までの距離を測定する3次元センサと、を有し、
前記光学センサまたは前記3次元センサのいずれか一方を用いて前記撮像光学系により結像された像を撮像した後、該撮像光学系による結像位置に、他方のセンサを変位させて撮像する撮像制御手段を備えることを特徴とする撮像装置。
An imaging optical system for forming an image of a subject on a sensor;
An imaging device comprising: a light emitting unit that irradiates the subject;
The sensor includes at least an optical sensor that captures visible light, and a three-dimensional sensor that measures a distance to the subject.
Imaging in which either the optical sensor or the three-dimensional sensor is used to capture an image formed by the imaging optical system, and then the other sensor is displaced to an imaging position by the imaging optical system. An imaging apparatus comprising a control means.
センサに被写体の像を結像させる2以上の撮像光学系と、
前記被写体を照射する発光部と、
前記センサにより撮像された像から4πラジアンの立体角内の像を得る撮像制御手段と、を備える全天球型の撮像装置であって、
前記センサは、少なくとも可視光を撮像する光学センサと、前記被写体までの距離を測定する3次元センサと、を有することを特徴とする撮像装置。
Two or more imaging optical systems for forming an image of a subject on a sensor;
A light emitting unit for illuminating the subject;
An omnidirectional imaging device comprising imaging control means for obtaining an image within a solid angle of 4π radians from an image captured by the sensor,
The image pickup apparatus includes: an optical sensor that picks up at least visible light; and a three-dimensional sensor that measures a distance to the subject.
前記2以上の撮像光学系は、それぞれ180度より広い画角を持つ広角レンズを有する同一構造の2の撮像光学系であって、
前記2の撮像光学系のいずれか一方による結像位置に前記光学センサが設けられ、
前記2の撮像光学系の他方による結像位置に前記3次元センサが設けられていることを特徴とする請求項2に記載の撮像装置。
The two or more imaging optical systems are two imaging optical systems having the same structure each having a wide-angle lens having a field angle wider than 180 degrees,
The optical sensor is provided at an imaging position by one of the two imaging optical systems,
The imaging apparatus according to claim 2, wherein the three-dimensional sensor is provided at an imaging position formed by the other of the two imaging optical systems.
該撮像装置を所定の角度分回転させる回転制御手段を備えるとともに、
前記撮像制御手段は、前記回転制御手段により前記撮像装置を所定の角度で回転させつつ、前記光学センサと前記3次元センサとを用いて同時に撮像させることを特徴とする請求項2または3に記載の撮像装置。
A rotation control means for rotating the imaging device by a predetermined angle;
The image pickup control unit causes the image pickup apparatus to pick up an image at the same time using the optical sensor and the three-dimensional sensor while rotating the image pickup device at a predetermined angle by the rotation control unit. Imaging device.
前記発光部は、前記3次元センサによる撮像範囲側を照射可能に設けられることを特徴とする請求項2から4までのいずれかに記載の撮像装置。   The imaging device according to claim 2, wherein the light emitting unit is provided so as to be able to irradiate an imaging range side by the three-dimensional sensor. 前記光学センサおよび前記3次元センサは、1の部材に設けられており、
前記撮像制御手段は、前記部材を変位させることで、前記光学センサおよび前記3次元センサを前記撮像光学系による結像位置に移動させることを特徴とする請求項1に記載の撮像装置。
The optical sensor and the three-dimensional sensor are provided on one member,
The imaging apparatus according to claim 1, wherein the imaging control unit moves the optical sensor and the three-dimensional sensor to an imaging position by the imaging optical system by displacing the member.
前記撮像制御手段は、略同一範囲を撮像した前記光学センサの各画素の画素情報に、前記3次元センサによる撮像で得られる距離情報を対応させて記憶することを特徴とする請求項1から6までのいずれかに記載の撮像装置。   The imaging control means stores distance information obtained by imaging by the three-dimensional sensor in association with pixel information of each pixel of the optical sensor that has imaged substantially the same range. The imaging device according to any one of the above. 前記3次元センサは、TOF(Time of Flight)イメージセンサであることを特徴とする請求項1から7までのいずれかに記載の撮像装置。   The imaging apparatus according to claim 1, wherein the three-dimensional sensor is a TOF (Time of Flight) image sensor. 被写体の像を結像させる撮像光学系と、
前記被写体を照射する発光部と、を備えた撮像装置を用いた撮像方法であって、
可視光を撮像する光学センサを前記撮像光学系による結像位置に位置するようにして撮像する工程と、
前記発光部による前記被写体の照射をするとともに、前記被写体までの距離を測定する3次元センサを前記撮像光学系による結像位置に位置するようにして撮像する工程と、有することを特徴とする撮像方法。
An imaging optical system for forming an image of a subject;
An imaging method using an imaging device including a light emitting unit that irradiates the subject,
Imaging an optical sensor for imaging visible light so as to be positioned at an imaging position by the imaging optical system;
Illuminating the subject with the light emitting unit, and imaging a three-dimensional sensor for measuring the distance to the subject so as to be positioned at an imaging position by the imaging optical system. Method.
センサに被写体の像を結像させる2以上の撮像光学系と、
前記被写体を照射する発光部と、を備える全天球型の撮像装置を用いた撮像方法であって、
前記センサは、少なくとも可視光を撮像する光学センサと、前記被写体までの距離を測定する3次元センサと、を有するとともに、前記発光部は前記3次元センサによる撮像範囲側を該3次元センサを用いた撮像時に照射可能に設けられており、
前記光学センサと前記3次元センサとを用いて同時に撮像させる工程と、
該工程後に該撮像装置を所定の角度で回転させつつ、前記光学センサと前記3次元センサとを用いて同時に撮像させることを繰りかえす工程と、を有することを特徴とする撮像方法。
Two or more imaging optical systems for forming an image of a subject on a sensor;
An imaging method using an omnidirectional imaging device including a light emitting unit that irradiates the subject,
The sensor includes at least an optical sensor that captures visible light and a three-dimensional sensor that measures a distance to the subject, and the light-emitting unit uses the three-dimensional sensor on the imaging range side of the three-dimensional sensor. Is provided at the time of imaging
Simultaneously imaging using the optical sensor and the three-dimensional sensor;
And a step of repeating the simultaneous imaging using the optical sensor and the three-dimensional sensor while rotating the imaging device at a predetermined angle after the step.
JP2017045273A 2017-03-09 2017-03-09 Imaging device and imaging method Active JP6822230B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017045273A JP6822230B2 (en) 2017-03-09 2017-03-09 Imaging device and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017045273A JP6822230B2 (en) 2017-03-09 2017-03-09 Imaging device and imaging method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020218711A Division JP7215472B2 (en) 2020-12-28 2020-12-28 Imaging device and imaging method

Publications (2)

Publication Number Publication Date
JP2018152632A true JP2018152632A (en) 2018-09-27
JP6822230B2 JP6822230B2 (en) 2021-01-27

Family

ID=63680644

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017045273A Active JP6822230B2 (en) 2017-03-09 2017-03-09 Imaging device and imaging method

Country Status (1)

Country Link
JP (1) JP6822230B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057924A (en) * 2018-10-01 2020-04-09 株式会社リコー Imaging device and image processing method
JP2020153865A (en) * 2019-03-20 2020-09-24 株式会社リコー Three-dimensional information acquisition device, information processor, and system
JP2020153715A (en) * 2019-03-18 2020-09-24 株式会社リコー Ranging device and ranging method
JP2020153798A (en) * 2019-03-19 2020-09-24 株式会社リコー Optical device, distance measuring optical unit, distance measuring device, and distance measuring system
JP2021012099A (en) * 2019-07-05 2021-02-04 株式会社リコー 360-degree spherical imaging apparatus, image processing apparatus, and image processing method
JP2021124369A (en) * 2020-02-05 2021-08-30 株式会社リコー Detection device and electronic apparatus
JP2022515993A (en) * 2018-12-26 2022-02-24 ウェイモ エルエルシー Proximity lighting module
JP2022533119A (en) * 2019-05-13 2022-07-21 アウスター インコーポレイテッド Synchronous image capture for electronic scanning LIDAR system
US11703592B2 (en) 2019-03-19 2023-07-18 Ricoh Company, Ltd. Distance measurement apparatus and distance measurement method
US11914039B2 (en) 2019-03-20 2024-02-27 Ricoh Company, Ltd. Range finding device and range finding method
US12118259B2 (en) 2020-03-23 2024-10-15 Ricoh Company, Ltd. Information processing apparatus and information processing method for adjusting display based on presence or absence of an object in a space

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331659A (en) * 1998-05-20 1999-11-30 Konica Corp Electronic camera
JP2003333393A (en) * 2002-05-09 2003-11-21 Fuji Photo Film Co Ltd Imaging apparatus
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11331659A (en) * 1998-05-20 1999-11-30 Konica Corp Electronic camera
JP2003333393A (en) * 2002-05-09 2003-11-21 Fuji Photo Film Co Ltd Imaging apparatus
JP2010071976A (en) * 2008-08-19 2010-04-02 Panasonic Corp Distance estimation device, distance estimation method, program, integrated circuit, and camera

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020057924A (en) * 2018-10-01 2020-04-09 株式会社リコー Imaging device and image processing method
JP7131268B2 (en) 2018-10-01 2022-09-06 株式会社リコー Imaging device and imaging processing method
US11780361B2 (en) 2018-12-26 2023-10-10 Waymo Llc Close-in illumination module
US12059994B2 (en) 2018-12-26 2024-08-13 Waymo Llc Close-in illumination module
JP2022515993A (en) * 2018-12-26 2022-02-24 ウェイモ エルエルシー Proximity lighting module
JP2020153715A (en) * 2019-03-18 2020-09-24 株式会社リコー Ranging device and ranging method
JP2020153798A (en) * 2019-03-19 2020-09-24 株式会社リコー Optical device, distance measuring optical unit, distance measuring device, and distance measuring system
US11215445B2 (en) 2019-03-19 2022-01-04 Ricoh Company, Ltd. Optical apparatus and distance measuring system
US11703592B2 (en) 2019-03-19 2023-07-18 Ricoh Company, Ltd. Distance measurement apparatus and distance measurement method
JP2020153865A (en) * 2019-03-20 2020-09-24 株式会社リコー Three-dimensional information acquisition device, information processor, and system
US11914039B2 (en) 2019-03-20 2024-02-27 Ricoh Company, Ltd. Range finding device and range finding method
JP7363068B2 (en) 2019-03-20 2023-10-18 株式会社リコー 3D information acquisition system
US11953600B2 (en) 2019-05-13 2024-04-09 Ouster, Inc. Synchronized image capturing for electronic scanning LIDAR systems comprising an emitter controller and plural sensor controllers
JP2022533119A (en) * 2019-05-13 2022-07-21 アウスター インコーポレイテッド Synchronous image capture for electronic scanning LIDAR system
JP7569334B2 (en) 2019-05-13 2024-10-17 アウスター インコーポレイテッド Synchronized image capture for electronically scanned LIDAR systems
JP7346947B2 (en) 2019-07-05 2023-09-20 株式会社リコー Omnidirectional imaging device, image processing device, and image processing method
JP2021012099A (en) * 2019-07-05 2021-02-04 株式会社リコー 360-degree spherical imaging apparatus, image processing apparatus, and image processing method
JP2021124369A (en) * 2020-02-05 2021-08-30 株式会社リコー Detection device and electronic apparatus
JP7505193B2 (en) 2020-02-05 2024-06-25 株式会社リコー Detection devices and electronic equipment
US12118259B2 (en) 2020-03-23 2024-10-15 Ricoh Company, Ltd. Information processing apparatus and information processing method for adjusting display based on presence or absence of an object in a space

Also Published As

Publication number Publication date
JP6822230B2 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP6822230B2 (en) Imaging device and imaging method
JP7146004B2 (en) Synchronous spinning LIDAR and rolling shutter camera system
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
CN108174180B (en) A kind of display device, display system and 3 D displaying method
US6987531B2 (en) Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
JP2021076603A (en) Photoelectric sensor and object detection method
JP7409443B2 (en) Imaging device
JP2013083510A (en) Laser radar device and imaging target selection device using the same
JP4315545B2 (en) 3D image detection system and 3D image detection apparatus
JP7215472B2 (en) Imaging device and imaging method
WO2020195755A1 (en) Distance measurement imaging system, distance measurement imaging method, and program
CN112859106A (en) Laser radar, laser detection method and vehicle comprising laser radar
JP2021067649A (en) Movement amount estimating device, movement amount estimating method, movement amount estimating program, and movement amount estimating system
JP2009014494A (en) Measuring device
JP2011033979A (en) Light emission quantity controller and light emission quantity control method
JPH09178436A (en) Three-dimensional measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R151 Written notification of patent or utility model registration

Ref document number: 6822230

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151