JP2015139031A - Imaging system - Google Patents
Imaging system Download PDFInfo
- Publication number
- JP2015139031A JP2015139031A JP2014008241A JP2014008241A JP2015139031A JP 2015139031 A JP2015139031 A JP 2015139031A JP 2014008241 A JP2014008241 A JP 2014008241A JP 2014008241 A JP2014008241 A JP 2014008241A JP 2015139031 A JP2015139031 A JP 2015139031A
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- electromagnetic wave
- radar
- acquired
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、撮像システムに関する。 The present invention relates to an imaging system.
例えば全方位を監視する用途などでは、複数のカメラのそれぞれによって撮像された複数の画像を合成して利用する場合がある。
この場合、各画像に共通に含まれる特徴部分に基づいて複数の画像を互いに位置合わせして合成することが行なわれる。
For example, in applications such as monitoring all directions, a plurality of images captured by a plurality of cameras may be combined and used.
In this case, a plurality of images are aligned with each other and synthesized based on a feature portion included in each image in common.
しかしながら、例えば夜間の高空や遠洋海上など目立った特徴のない景色を撮像した場合など、各画像に共通に含まれる特徴部分がない場合があり、この場合、各画像に共通に含まれる特徴部分に基づいて複数の画像を互いに位置合わせして合成するのが難しい。
そこで、各画像に共通に含まれる特徴部分がない場合であっても、複数の画像を互いに位置合わせして合成できるようにしたい。
However, there are cases where there is no feature part that is commonly included in each image, such as when shooting a scene with no outstanding features such as the night sky and the ocean, and in this case, the feature part that is commonly included in each image Based on this, it is difficult to align and synthesize a plurality of images.
Therefore, even when there is no feature part commonly included in each image, it is desired that a plurality of images can be aligned and combined with each other.
本撮像システムは、第1領域を撮像する第1カメラと、第2領域を撮像する第2カメラと、第1領域と第2領域とが重なっている領域に照射された電磁波の軌跡を含む画像を取得し、画像内に含まれる電磁波の軌跡の位置に基づいて、第1カメラから取得した第1画像と第2カメラから取得した第2画像とを合成して合成画像を生成するコンピュータとを備えることを要件とする。 The imaging system includes a first camera that captures an image of a first area, a second camera that captures an image of a second area, and an image including a locus of electromagnetic waves applied to an area where the first area and the second area overlap. And a computer that generates a composite image by combining the first image acquired from the first camera and the second image acquired from the second camera based on the position of the locus of the electromagnetic wave included in the image. It is a requirement to prepare.
したがって、本撮像システムによれば、各画像に共通に含まれる特徴部分がない場合であっても、複数の画像を互いに位置合わせして合成できるという利点がある。 Therefore, according to the present imaging system, there is an advantage that a plurality of images can be aligned with each other and combined even when there is no feature part commonly included in each image.
以下、図面により、本発明の実施の形態にかかる撮像システムについて説明する。
まず、本実施形態にかかる撮像システムについて、図1〜図6を参照しながら説明する。
本実施形態にかかる撮像システムは、例えば、複数のカメラを用いて全方位を監視する全方位監視システムに用いられる。
Hereinafter, an imaging system according to an embodiment of the present invention will be described with reference to the drawings.
First, an imaging system according to the present embodiment will be described with reference to FIGS.
The imaging system according to the present embodiment is used in, for example, an omnidirectional monitoring system that monitors omnidirectionality using a plurality of cameras.
本撮像システムでは、互いに隣接する領域を撮像する2つのカメラのそれぞれによって撮像された2つの画像を互いに位置合わせして合成することで、複数のカメラのそれぞれによって撮像された複数の画像を互いに位置合わせして合成するようになっている。例えば、単一のカメラを用いる場合には死角が発生することになるのに対し、複数のカメラのそれぞれによって撮像された複数の画像を互いに位置合わせして合成(結合)して高覆域の合成画像を得ることで、大きな視野を得て、全方位を継ぎ目なく監視できるようになっている。 In this imaging system, a plurality of images captured by each of a plurality of cameras are positioned relative to each other by combining and synthesizing two images captured by each of two cameras that capture areas adjacent to each other. They are designed to be combined. For example, when a single camera is used, a blind spot is generated. On the other hand, a plurality of images captured by each of a plurality of cameras are aligned and combined (combined) to form a high coverage area. By obtaining a composite image, it is possible to obtain a large field of view and monitor all directions seamlessly.
ここでは、互いに隣接する領域を撮像する2つのカメラ、即ち、第1カメラ及び第2カメラのそれぞれによって撮像された2つの画像を互いに位置合わせして合成する場合を例に挙げて説明する。
本撮像システムは、図1(A)〜図1(C)に示すように、第1領域を撮像する第1カメラ1と、第2領域を撮像する第2カメラ2と、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像を生成するコンピュータ3とを備える。
Here, an example will be described in which two cameras that capture areas adjacent to each other, that is, two images captured by each of the first camera and the second camera are aligned and combined.
As shown in FIGS. 1A to 1C, the imaging system includes a first camera 1 that images a first area, a
なお、図1(A)中、符号Xは第1カメラ1の視野を示しており、符号Yは第2カメラ2の視野を示している。そして、第1カメラ1の視野Xに入っているものが第1カメラ1によって撮像されるため、第1カメラ1の視野領域は第1カメラ1が撮像する第1領域である。同様に、第2カメラ2の視野Yに入っているものが第2カメラ2によって撮像されるため、第2カメラ2の視野領域は第2カメラ2が撮像する第2領域である。また、図1(A)中、符号T1、T2は遠方の被写体を示している。
In FIG. 1A, the symbol X indicates the field of view of the first camera 1, and the symbol Y indicates the field of view of the
特に、コンピュータ3は、第1領域Xと第2領域Yとが重なっている領域Z(共通領域)に照射された電磁波の軌跡を含む画像1B、2Bを取得する。なお、第1領域Xと第2領域Yとが重なっている領域Zは、2つのカメラ、即ち、第1カメラ1と第2カメラ2の視野の重なる領域(共通視野領域)である。
本実施形態では、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射することで、第1領域Xと第2領域Yとが重なっている領域Zに電磁波の軌跡を生じさせ、この電磁波の軌跡を含む画像1B、2Bを取得するようになっている。このため、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射する電磁波源4を備える。この電磁波源4は、第1領域Xと第2領域Yとが重なっている領域Zにレーザ光を照射するレーザ光源とすれば良い。そして、レーザ光源4によって第1領域Xと第2領域Yとが重なっている領域Zにレーザ光を照射すると、大気中のごみや塵などによる散乱(レーザ散乱)によってレーザ光の軌跡(光跡)が観察されるため、このレーザ光の軌跡を含む画像1B,2Bを取得することが可能となる。
In particular, the
In the present embodiment, by irradiating an electromagnetic wave to a region Z where the first region X and the second region Y overlap, the locus of the electromagnetic wave is transferred to the region Z where the first region X and the second region Y overlap. The
なお、このように第1領域Xと第2領域Yとが重なっている領域Zに照射される電磁波又はこの電磁波の軌跡は、画像を合成する際に位置合わせに用いるものである、位置合わせ用マーカ又はマーカともいう。また、電磁波源4は、位置合わせ用マーカを発生するものであるため、位置合わせ用マーカの発生手段ともいう。
そして、コンピュータ3は、上記の画像1B、2B内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像20を生成するようになっている。なお、コンピュータ3は、画像を合成する機能を有するため、画像合成装置ともいう。
In addition, the electromagnetic wave irradiated to the area | region Z where the 1st area | region X and the 2nd area | region Y have overlapped in this way, or the locus | trajectory of this electromagnetic wave is used for alignment when combining images. Also called a marker or marker. Further, since the electromagnetic wave source 4 generates a positioning marker, it is also referred to as a positioning marker generating means.
Then, the
これにより、例えば夜間の高空や遠洋海上など目立った特徴のない景色を撮像した場合など、各画像に共通に含まれる特徴部分(各画像の重ね合わせ部分の画像の共通点)がない場合であっても、正確かつ確実に2つの画像を互いに位置合わせして合成することができる。
つまり、第1領域Xと第2領域Yとが重なっている領域Zに特徴がない場合、第1カメラ1によって第1領域Xを撮像した第1画像と第2カメラ2によって第2領域Yを撮像した第2画像との重なり部分は映像上の特徴がないものとなる。この場合、正確かつ確実に第1画像と第2画像を合成することが困難である。そこで、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射することで電磁波の軌跡を生じさせ、この電磁波の軌跡を利用することで、正確かつ確実に第1画像1Aと第2画像2Aを合成することができるようにしている。つまり、第1カメラ1によって第1領域Xを撮像した第1画像1Aと第2カメラ2によって第2領域Yを撮像した第2画像2Aとの重なり部分に映像上の特徴がない場合であっても、電磁波の軌跡を利用することで、正確かつ確実に第1画像1Aと第2画像2Aを合成することができるようにしている。
As a result, when there is no feature part that is commonly included in each image (common point of the overlapping part of each image), such as when shooting a scene with no outstanding features such as the high sky at night or in the ocean. However, the two images can be accurately and reliably aligned with each other and synthesized.
That is, if there is no feature in the area Z where the first area X and the second area Y overlap, the first image obtained by capturing the first area X by the first camera 1 and the second area Y by the
例えば、固定点監視や小型の自動車などの用途では、各カメラの物理的配置を正確に把握できるため、一旦各カメラの位置関係を確定すると、容易に複数の画像を合成することが可能となる。これに対し、大型の船舶や航空機などにおいては船体や機体に物理的歪みが発生し、各カメラ間の位置関係(位置及び向き)がずれる場合があるため、各カメラの位置関係の情報を逐次取得することが必要になる。このような場合であっても、上述のようにして複数の画像を互いに位置合わせして合成することで、容易かつ正確に複数の画像を合成することが可能となる。なお、各カメラに加速度センサーなどを設置して位置関係の変化を把握することも考えられるが、例えば高加速度で機動する航空機などにおいては利用できない。 For example, in applications such as fixed-point monitoring and small automobiles, the physical arrangement of each camera can be accurately grasped, so that once the positional relationship between the cameras is determined, a plurality of images can be easily combined. . On the other hand, in large ships and aircraft, physical distortion occurs in the hull and aircraft, and the positional relationship (position and orientation) between the cameras may shift. It will be necessary to obtain. Even in such a case, it is possible to synthesize a plurality of images easily and accurately by aligning and synthesizing the plurality of images as described above. Although it is conceivable to install an acceleration sensor or the like in each camera to grasp the change in the positional relationship, it cannot be used in, for example, an aircraft that operates at high acceleration.
ここで、第1領域Xと第2領域Yとが重なっている領域Zに照射される電磁波は、大気中で吸収される波長の電磁波(例えばレーザ光;光束)であることが好ましい。この大気中で吸収される波長の電磁波は、大気を透過しにくい波長(即ち、大気中の透過率が低い波長)の電磁波であり、大気中で減衰率の大きい電磁波である。例えば、この電磁波は、水又は一酸化炭素の吸収波長に相当する波長の電磁波であることが好ましい。このうち、水の吸収波長に相当する波長の電磁波、即ち、H2Oの吸収が大きい電磁波は、約6μm付近の波長の電磁波(赤外線)である。この場合、電磁波源4としては、約6μm付近の波長のレーザ光を出射するレーザ光源を用いれば良い。例えば、レーザ光源4として、約6μm付近に発光波長を持つSbSnSeTe系DH半導体レーザなどを用いれば良い。また、一酸化炭素の吸収波長に相当する波長の電磁波、即ち、COの吸収が大きい電磁波は、約4.5μm付近の波長の電磁波(赤外線)である。この場合、電磁波源4としては、約4.5μm付近の波長のレーザ光を出射するレーザ光源を用いれば良い。例えば、レーザ光源4として、約4.5μm付近の波長で発振しうる中赤外線チューナブルレーザ発振器などを用いれば良い。 Here, it is preferable that the electromagnetic wave irradiated to the area | region Z where the 1st area | region X and the 2nd area | region Y have overlapped is an electromagnetic wave (for example, laser beam; light beam) of the wavelength absorbed in air | atmosphere. The electromagnetic wave having a wavelength absorbed in the atmosphere is an electromagnetic wave having a wavelength that is difficult to transmit through the atmosphere (that is, a wavelength having a low transmittance in the atmosphere), and is an electromagnetic wave having a large attenuation rate in the atmosphere. For example, the electromagnetic wave is preferably an electromagnetic wave having a wavelength corresponding to the absorption wavelength of water or carbon monoxide. Among these, an electromagnetic wave having a wavelength corresponding to the absorption wavelength of water, that is, an electromagnetic wave having a large absorption of H 2 O is an electromagnetic wave (infrared ray) having a wavelength of about 6 μm. In this case, the electromagnetic wave source 4 may be a laser light source that emits laser light having a wavelength of about 6 μm. For example, an SbSnSeTe DH semiconductor laser having an emission wavelength in the vicinity of about 6 μm may be used as the laser light source 4. An electromagnetic wave having a wavelength corresponding to the absorption wavelength of carbon monoxide, that is, an electromagnetic wave having a large absorption of CO is an electromagnetic wave (infrared ray) having a wavelength of about 4.5 μm. In this case, the electromagnetic wave source 4 may be a laser light source that emits laser light having a wavelength of about 4.5 μm. For example, a mid-infrared tunable laser oscillator that can oscillate at a wavelength of about 4.5 μm may be used as the laser light source 4.
このような大気中で吸収される波長の電磁波を位置合わせ用マーカとして用いることで、複数の画像を合成した後の合成画像に影響を与えず、遠方からも探知(検知)不能となり、例えば監視の秘匿性を確保することが可能となる。例えば、約6μm付近の波長のレーザ光を位置合わせ用マーカとして用いる場合、このレーザ光はH2Oなどの吸収によって大気中を長距離伝搬しない。また、例えば、約4.5μm付近の波長のレーザ光を位置合わせ用マーカとして用いる場合、このレーザ光はCOなどの吸収によって大気中を長距離伝搬しない。このため、レーザ光の照射によって発生させたレーザ光の軌跡(レーザ散乱軌跡)は遠距離からは観測されず、遠方から探知不能であり、例えば監視の秘匿性を確保することができる。 By using an electromagnetic wave having a wavelength absorbed in the atmosphere as a positioning marker, the combined image after combining a plurality of images is not affected, and detection (detection) is impossible even from a distance. Can be secured. For example, when laser light having a wavelength of about 6 μm is used as an alignment marker, the laser light does not propagate in the atmosphere for a long distance due to absorption of H 2 O or the like. For example, when laser light having a wavelength of about 4.5 μm is used as an alignment marker, this laser light does not propagate in the atmosphere for a long distance due to absorption of CO or the like. For this reason, the locus (laser scattering locus) of the laser beam generated by the irradiation of the laser beam is not observed from a long distance and cannot be detected from a long distance. For example, confidentiality of monitoring can be ensured.
このため、本撮像システムは、図1(A)に示すように、第1カメラ1と、第2カメラ2と、レーザ光源(電磁波源)4と、コンピュータ3とを備えることになる。
ここでは、第1カメラ1及び第2カメラ2は、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサを備える。このため、これらの第1及び第2カメラ1、2を赤外線カメラともいう。また、本撮像システムは、赤外線イメージセンサを備えるため、イメージセンサシステム又は赤外線イメージセンサシステムともいう。
For this reason, this imaging system is provided with the 1st camera 1, the
Here, the 1st camera 1 and the
例えば、第1及び第2カメラ1、2は、室温付近の物体が放射する赤外線のうち、大気を透過しやすい約3〜約5μm付近(約4.5μm付近を除く)又は約8〜約12μm付近の波長に感度を持つ赤外線カメラである(図2参照)。ここで、約3〜約5μm付近の波長に感度を持つ赤外線カメラ、即ち、約3〜約5μm付近の波長の赤外線画像を撮像することができる赤外線カメラとしては、例えばInSbやMCTを用いたものがある。また、約8〜約12μm付近の波長に感度を持つ赤外線カメラ、即ち、約8〜約12μm付近の波長の赤外線画像を撮像することができる赤外線カメラとしては、例えばHg1−xCdxTe(x=0.2)を用いたものがある。なお、ここでは、Hg1−xCdxTe(x=0.2)を用いたものを例に挙げているが、例えば、V.Gueriaux et.al., “Design of broadband QWIPs”, Proc. Of SPIE Vol.8012 (2011))などに記載されている多波長に感度を持つQWIP(Quantum Wells Infrared Photodetector)などを用いたものとしても良い。また、約3〜約5μm付近(約4.5μm付近を除く)又は約8〜約12μm付近の波長は、大気を透過しやすいため(大気の透過率がいいため)、大気の窓ともいう。このため、約3〜約5μm付近(約4.5μm付近を除く)又は約8〜約12μm付近の波長に感度を持つ赤外線カメラは、大気の窓を利用した赤外線カメラである。このような赤外線カメラは、照明光源を必要とせずに昼夜を問わず良好な視界が得られ、良好な撮像が行なえるため、監視用途での需要が高い。
For example, the first and
本実施形態では、第1カメラ1及び第2カメラ2は、物体(被写体)が放射する赤外線の波長と位置合わせ用マーカとしてのレーザ光(電磁波)の波長との両方に感度を持つ赤外線イメージセンサを備えるものとしている。これにより、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサを備える第1カメラ1及び第2カメラ2によって、レーザ光源4によって第1領域Xと第2領域Yとが重なっている領域Zに照射されたレーザ光の軌跡(レーザ光の散乱軌跡)を含む画像1B、2Bを撮像することが可能となる。また、このように、撮像用のカメラに通常の観察波長のほかに位置合わせ用マーカとしてのレーザ光の波長にも感度を持つイメージセンサを用いることで、位置合わせ用マーカとしてのレーザ光の波長に感度を持つイメージセンサを別体として設ける場合と比較して、これらの位置関係の調整が容易になる。
In the present embodiment, the first camera 1 and the
例えば、第1カメラ1及び第2カメラ2は、物体が放射して大気を透過してきた(即ち、大気中を伝搬してきた)赤外線の波長、即ち、約3〜約5μm付近(約4.5μm付近を除く)又は約8〜約12μm付近の波長に感度を持ち、かつ、位置合わせ用マーカとしてのレーザ光の波長、即ち、約4.5μm付近又は約6μm付近の波長に感度を持つ赤外線イメージセンサを備えるものとすれば良い。例えば、Hg1−xCdxTe(x=0.2)を用いた赤外線イメージセンサは、図2中、符号Aで示すように、約6〜約12μm付近の波長に感度を持つ赤外線イメージセンサであるため、物体が放射して大気を透過してきた赤外線の波長、即ち、約8〜約12μm付近の波長に感度を持ち、かつ、位置合わせ用マーカとしてのレーザ光の波長、即ち、約6μm付近の波長(図2中、符号B参照)に感度を持つ赤外線イメージセンサとして用いることができる。また、例えば、InSbやMCTを用いた赤外線イメージセンサは、約3〜約5μm付近の波長に感度を持つ赤外線イメージセンサであるため、物体が放射して大気を透過してきた赤外線の波長、即ち、約3〜約5μm付近(約4.5μm付近を除く)の波長に感度を持ち、かつ、位置合わせ用マーカとしてのレーザ光の波長、即ち、約4.5μm付近の波長に感度を持つ赤外線イメージセンサとして用いることができる。
For example, in the first camera 1 and the
なお、第1カメラ1及び第2カメラ2は、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサと、位置合わせ用マーカとしてのレーザ光(電磁波)の波長に感度を持つイメージセンサとを一体化したものを備えるものとしても良い。また、第1カメラ1及び第2カメラ2は、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサを備えるものとし、これらの第1カメラ1及び第2カメラ2に、それぞれ、位置合わせ用マーカとしてのレーザ光(電磁波)の波長に感度を持つイメージセンサを備える別の2つのカメラを固定して一体化するようにしても良い。これにより、別体として設ける場合と比較して、これらの位置関係の調整が容易になる。
The first camera 1 and the
そして、図1(A)に示すように、第1カメラ1と第2カメラ2とは、それぞれの視野X、Yが一部重なるように配置している。つまり、第1カメラ1によって撮像される第1領域Xと第2カメラ2によって撮像される第2領域Yとが一部重なるように、第1カメラ1と第2カメラ2とを配置している。
また、本実施形態では、第2カメラ2とレーザ光源4のお互いの位置がずれないように、第2カメラ2にレーザ光源4を固定している。このようにして、レーザ光源4によるレーザ光の照射位置と第1カメラ1及び第2カメラ2の一方(ここでは第2カメラ2)が撮像する領域の位置との位置関係が固定されるようにするのが好ましい。これにより、コンピュータ3が第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aを合成して合成画像20を生成する際の計算を容易にすることができる。そして、レーザ光源4から照射されたレーザ光が第1カメラ1と第2カメラ2の共通の視野、即ち、第1領域Xと第2領域Yとが重なっている領域Zへ照射されるようにしている。
As shown in FIG. 1A, the first camera 1 and the
In the present embodiment, the laser light source 4 is fixed to the
また、本実施形態では、コンピュータ3は、レーザ光源4によるレーザ光の照射/非照射を制御するとともに、第1カメラ1から取得した第1レーザ光照射時画像1B(第1電磁波照射時画像)内に含まれるレーザ光の軌跡(光跡)と第2カメラ2から取得した第2レーザ光照射時画像2B(第2電磁波照射時画像)内に含まれるレーザ光の軌跡との位置関係に基づいて、第1カメラ1から取得した第1レーザ光非照射時画像1A(第1電磁波非照射時画像)と第2カメラ2から取得した第2レーザ光非照射時画像2A(第2電磁波非照射時画像)とを合成して合成画像20を生成するようになっている。
In the present embodiment, the
これにより、第1画像1Aと第2画像2Aを合成した後の合成画像20に位置合わせ用マーカとしてのレーザ光の軌跡が含まれないようにすることができる。これに対し、合成画像20に位置合わせ用マーカが残っていると、その位置合わせ用マーカの部分が死角となってしまうため、例えば全方位を監視するという点では好ましくない。
ここでは、位置合わせ用マーカとして用いるレーザ光を点滅させ、第1カメラ1及び第2カメラ2のそれぞれの撮像フレームを、レーザ光の点滅と同期させ、レーザ光の点灯時、即ち、レーザ光を照射してレーザ光の軌跡を形成した時の撮像フレームを用いてレーザ光の軌跡を目印にして位置関係情報を取得し、取得された位置関係情報に基づいて、レーザ光の消灯時の撮像フレームを用いてレーザ光の軌跡を含まない合成画像を生成するようになっている。
Thereby, the locus | trajectory of the laser beam as a positioning marker can be prevented from being included in the
Here, the laser beam used as the alignment marker is blinked, and the respective imaging frames of the first camera 1 and the
具体的には、コンピュータ3は、そのハードウェア構成として、例えば図3に示すように、CPU(Central Processing Unit)5、メモリ6、記憶装置7、入力装置8、表示装置9を備え、さらに、第1カメラ1及び第2カメラ2を制御し、これらから画像を取得し、取得した画像を処理するための画像処理回路10、11、レーザ光源4を駆動するためのレーザ駆動回路12(電磁波源駆動回路)などを備えた構成になっている。なお、コンピュータ3のハードウェア構成はこれに限られるものではない。
Specifically, the
このようなハードウェア構成を備えるコンピュータ3において、CPU5が、例えば記憶装置7に格納されているプログラムをメモリ6に読み出して実行することで、後述の各機能が実現される。
つまり、図4に示すように、コンピュータ3は、フレームタイミング発生部13と、第1レーザ軌跡抽出部14と、第2レーザ軌跡抽出部15と、画像位置関係計算部16と、合成画像生成部17とを備える。
In the
That is, as shown in FIG. 4, the
ここで、フレームタイミング発生部13は、フレームタイミング信号を出力する。そして、フレームタイミング発生部13が出力したフレームタイミング信号に基づいて、画像処理回路10、11やレーザ駆動回路12(図3参照)を介して、第1カメラ1、第2カメラ2、レーザ光源4が制御される。また、後述のように、第1レーザ軌跡抽出部14、第2レーザ軌跡抽出部15、合成画像生成部17において、フレームタイミング発生部13が出力したフレームタイミング信号に基づいた処理が行なわれるようになっている。
Here, the
ここでは、図5に示すように、フレームタイミング発生部13からのフレームタイミング信号に基づいて、第1カメラ1及び第2カメラ2の各フレームとレーザ光源4によるレーザ光の照射/非照射を同期させるようにしている。つまり、フレームタイミング発生部13からのフレームタイミング信号に基づいて、第1カメラ1及び第2カメラ2からフレームタイミングの同期した第1画像1A、1B及び第2画像2A、2B[図1(B)、図1(C)参照]が出力されるようになっている。また、フレームタイミング発生部13からのフレームタイミング信号に基づいて、レーザ光源4によるレーザ光の照射/非照射が繰り返されるようになっている。なお、レーザ光源4によるレーザ光の照射/非照射を、レーザ光源4によるレーザ光の発光/非発光、レーザ光源4によるレーザ光の点滅、レーザ光源4によるレーザ光の点灯/消灯、又は、レーザ光源4(レーザ出力)のオン/オフともいう。
Here, as shown in FIG. 5, the irradiation / non-irradiation of the laser light by the laser light source 4 and the frames of the first camera 1 and the
具体的には、フレームタイミング発生部13からのフレームタイミング信号に同期してレーザ光源4によるレーザ光の照射を開始し、フレームタイミング信号の時間間隔の半分のタイミングでレーザ光源4によるレーザ光の照射を終了するように、レーザ光源4が制御されるようになっている。この場合、フレームタイミング信号の時間間隔の前半は、レーザ光源4によるレーザ光が照射状態となり、フレームタイミング信号の時間間隔の後半は、レーザ光源4によるレーザ光が非照射状態となるように、レーザ光源4が制御されることになる。このため、フレームタイミング信号の時間間隔の前半は、第1領域Xと第2領域Yとが重なっている領域Zにレーザ光の軌跡が存在する状態となり、フレームタイミング信号の時間間隔の後半は、第1領域Xと第2領域Yとが重なっている領域Zにレーザ光の軌跡が存在しない状態となる。
Specifically, laser light irradiation by the laser light source 4 is started in synchronization with the frame timing signal from the
この場合、第1カメラ1が第1領域Xを撮像した第1画像は、フレームタイミング発生部13からのフレームタイミング信号の時間間隔の前半は、レーザ光の軌跡が含まれている第1レーザ光照射時画像1Bとなり、フレームタイミング信号の時間間隔の後半は、レーザ光の軌跡が含まれていない第1レーザ光非照射時画像1Aとなる。
また、第2カメラ2が第2領域Yを撮像した第2画像は、フレームタイミング発生部13からのフレームタイミング信号の時間間隔の前半は、レーザ光の軌跡が含まれている第2レーザ光照射時画像2Bとなり、フレームタイミング信号の時間間隔の後半は、レーザ光の軌跡が含まれていない第2レーザ光非照射時画像2Aとなる。
In this case, the first image of the first region X captured by the first camera 1 is the first laser beam in which the first half of the time interval of the frame timing signal from the
Further, the second image obtained by the
そして、フレームタイミング発生部13からのフレームタイミング信号の時間間隔の前半は、第1カメラ1及び第2カメラ2から、フレームタイミングの同期した、レーザ光の軌跡が含まれている第1レーザ光照射時画像1B及び第2レーザ光照射時画像2Bが出力されるようになっている。また、フレームタイミング発生部13からのフレームタイミング信号の時間間隔の後半は、第1カメラ1及び第2カメラ2から、フレームタイミングの同期した、レーザ光の軌跡が含まれていない第1レーザ光非照射時画像1A及び第2レーザ光非照射時画像2Aが出力されるようになっている。
The first half of the time interval of the frame timing signal from the
第1レーザ軌跡抽出部14は、第1カメラ1から画像情報を取得し、レーザ光の軌跡を抽出する。ここでは、第1レーザ軌跡抽出部14は、フレームタイミング発生部13からのフレームタイミング信号に基づいて、第1カメラ1から、隣接するフレームにおける、レーザ光の軌跡が含まれていない第1レーザ光非照射時画像1A、及び、レーザ光の軌跡が含まれている第1レーザ光照射時画像1Bを取得し、これらの差分を演算することなどによって、レーザ光の軌跡のみの画像(画像データ)を抽出する。ここでは、位置合わせ用マーカとして用いるレーザ光を第1カメラ1のフレームレートに同期させながら点滅させることで、レーザ光の軌跡が含まれていない第1レーザ光非照射時画像1Aとレーザ光の軌跡が含まれている第1レーザ光照射時画像1Bとの差分でレーザ光の軌跡のみの画像を抽出することができる。このため、レーザ光の軌跡を検出する際のS/Nを向上させることができる。したがって、位置合わせ用マーカとして用いるレーザ光は弱い光でも良い。このように、ロックイン効果による感度向上を実現することができる。
The first laser
第2レーザ軌跡抽出部15は、第2カメラ2から画像情報を取得し、レーザ光の軌跡を抽出する。ここでは、第2レーザ軌跡抽出部15は、フレームタイミング発生部13からのフレームタイミング信号に基づいて、第2カメラ2から、隣接するフレームにおける、レーザ光の軌跡が含まれていない第2レーザ光非照射時画像2A、及び、レーザ光の軌跡が含まれている第2レーザ光照射時画像2Bを取得し、これらの差分を演算することなどによって、レーザ光の軌跡のみの画像(画像データ)を抽出する。ここでは、位置合わせ用マーカとして用いるレーザ光を第2カメラ2のフレームレートに同期させながら点滅させることで、レーザ光の軌跡が含まれていない第2レーザ光非照射時画像2Aとレーザ光の軌跡が含まれている第2レーザ光照射時画像2Bとの差分でレーザ光の軌跡のみの画像を抽出することができる。このため、レーザ光の軌跡を検出する際のS/Nを向上させることができる。したがって、位置合わせ用マーカとして用いるレーザ光は弱い光でも良い。このように、ロックイン効果による感度向上を実現することができる。
The second laser
画像位置関係計算部16は、第1レーザ軌跡抽出部14で抽出したレーザ光の軌跡のみの画像と第2レーザ軌跡抽出部15で抽出したレーザ光の軌跡のみの画像とに基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成するための位置関係情報を計算する。
ここでは、画像位置関係計算部16は、第1レーザ軌跡抽出部14で抽出したレーザ光の軌跡のみの画像におけるレーザ光の軌跡の位置と第2レーザ軌跡抽出部15で抽出したレーザ光の軌跡のみの画像におけるレーザ光の軌跡の位置とを求め、これらの位置関係に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成するための位置ずれ情報を生成する。
The image positional
Here, the image positional
具体的には、運用前に、特徴的被写体に対する第1カメラ1及び第2カメラ2の相対関係の位置情報を蓄積しておくのが好ましい。
例えば、運用前に、第2カメラ2に固定されているレーザ光源4からレーザ光を照射し、第2カメラ2の位置(向きを含む)に対して第1カメラ1の位置(向きを含む)を変化させながら、第1カメラ1及び第2カメラ2による撮像を行なう。そして、位置を変化させた第1カメラ1の各位置における画像1Bを取得し[図6(A)参照]、レーザ光の軌跡の位置を求め、図6(A)に示すように、第1カメラ1の位置及びレーザ光の軌跡の位置を対応づけて表を作成して記憶する。また、第2カメラ2から画像2Bを取得し[図6(B)参照]、レーザ光の軌跡の位置を求める。そして、位置を変化させた第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置と、第2カメラ2から取得した画像2B内のレーザ光の軌跡の位置とが一致するように、図6(C)に示すように、第1カメラ1の各位置における画像1Bと第2カメラ2から取得した画像2Bとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量;図6(C)中、符号Xで示す)を求め、これも上記表に記憶する。この場合、第1カメラ1の各位置における画像1Bと第2カメラ2から取得した画像2Bとを重ね合わせたときの位置ずれ情報と第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置とは一対一に対応づけられる。なお、ここでは、レーザ光源4は第2カメラ2に固定されており、第2カメラ2から取得した画像2B内のレーザ光の軌跡の位置は常に同じ位置となり、この位置を基準として、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置がどの程度ずれているかが位置ずれ情報として求められる。このため、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置、及び、位置ずれ情報を対応づけて記憶しておけば良い。また、この位置ずれ情報は、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置と第2カメラ2から取得した画像2B内のレーザ光の軌跡の位置との位置ずれ情報(位置関係情報)でもあり、また、第1カメラ1と第2カメラ2との位置ずれ情報(位置関係情報)でもある。
Specifically, it is preferable to store positional information of the relative relationship between the first camera 1 and the
For example, before operation, the laser light source 4 fixed to the
この場合、レーザ光の軌跡を含む2つの画像1B、2Bを取得し、これらの2つの画像1B、2B内に含まれるレーザ光の軌跡の位置関係に基づいて、図1(C)に示すように、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。ここでは、第1カメラ1から取得した画像1B内に含まれるレーザ光の軌跡と第2カメラ2から取得した画像2B内に含まれるレーザ光の軌跡との位置関係に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。このように、レーザ光の軌跡を含む画像を取得し、その画像内に含まれるレーザ光の軌跡の位置に基づいて、第1カメラ1から取得した画像と第2カメラ2から取得した画像とを合成して合成画像を生成することになる。つまり、コンピュータ3は、第1カメラ1から取得した画像1B内に含まれるレーザ光の軌跡の位置及び第2カメラ2から取得した画像2B内に含まれるレーザ光の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。ここでは、レーザ光源4によるレーザ光の照射位置と第1カメラ1及び第2カメラ2の一方(ここでは第2カメラ2)が撮像する領域の位置との位置関係が固定されており、コンピュータ3は、第1カメラ1及び第2カメラ2の他方(ここでは第1カメラ1)から取得した画像1B内に含まれるレーザ光の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。
In this case, two
なお、このほか、例えば、次のようにすることもできる。つまり、運用前に、第1カメラ1と第2カメラ2の共通視野領域に特徴的被写体がある状態とする。例えば、第1カメラ1と第2カメラ2の共通視野領域に特徴的被写体として光源(赤外線光源)を置く。次に、第2カメラ2に固定されているレーザ光源4からレーザ光を照射し、第2カメラ2の位置(向きを含む)に対して第1カメラ1の位置(向きを含む)を変化させながら、第1カメラ1及び第2カメラ2による撮像を行なう。そして、位置を変化させた第1カメラ1の各位置における画像1Bを取得し、特徴的被写体としての光源の位置及びレーザ光の軌跡の位置を求め、第1カメラ1の位置、特徴的被写体としての光源の位置及びレーザ光の軌跡の位置を対応づけて表を作成して記憶する。また、第2カメラ2から画像を取得し、特徴的被写体としての光源の位置を求める。そして、位置を変化させた第1カメラ1の各位置における画像1B内の特徴的被写体としての光源の位置と、第2カメラ2から取得した画像2B内の特徴的被写体としての光源の位置とが一致するように、第1カメラ1の各位置における画像1Bと第2カメラ2から取得した画像2Bとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量)を求め、これも上記表に記憶する。この場合、第1カメラ1の各位置における画像1Bと第2カメラ2から取得した画像2Bとを重ね合わせたときの位置ずれ情報と第1カメラ1の各位置における画像2B内のレーザ光の軌跡の位置とは一対一に対応づけられる。なお、ここでは、レーザ光源4は第2カメラ2に固定されており、第2カメラ2から取得した画像2B内のレーザ光の軌跡の位置は常に同じ位置となり、この位置を基準として、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置がどの程度ずれているかが位置ずれ情報として求められる。このため、少なくとも、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置、及び、位置ずれ情報を対応づけて記憶しておけば良い。また、この位置ずれ情報は、第1カメラ1の各位置における画像1B内のレーザ光の軌跡の位置と第2カメラ2から取得した画像2B内のレーザ光の軌跡の位置との位置ずれ情報(位置関係情報)でもあり、また、第1カメラ1と第2カメラ2との位置ずれ情報(位置関係情報)でもある。
In addition, for example, the following can also be performed. That is, it is assumed that a characteristic subject exists in the common visual field region of the first camera 1 and the
この場合、レーザ光の軌跡を含む画像1B、2Bを取得し、その画像1B、2B内に含まれるレーザ光の軌跡の位置に基づいて、図1(C)に示すように、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。つまり、コンピュータ3は、第1カメラ1から取得した画像1B内に含まれるレーザ光の軌跡の位置及び第2カメラ2から取得した画像2B内に含まれるレーザ光の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。ここでは、レーザ光源4によるレーザ光の照射位置と第1カメラ1及び第2カメラ2の一方(ここでは第2カメラ2)が撮像する領域の位置との位置関係が固定されており、コンピュータ3は、第1カメラ1及び第2カメラ2の他方(ここでは第1カメラ1)から取得した画像1B内に含まれるレーザ光の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。
In this case, the
そして、運用時には、第1カメラ1から取得した画像1B内のレーザ光の軌跡の位置から、上記表[図6(A)参照]を用いて、位置ずれ情報を取得するようにすれば良い。つまり、画像位置関係計算部16は、第1レーザ軌跡抽出部14で抽出したレーザ光の軌跡のみの画像におけるレーザ光の軌跡の位置を求め、この位置から、上記表を用いて、位置ずれ情報を取得するようにすれば良い。
At the time of operation, the positional deviation information may be acquired from the position of the locus of the laser light in the
合成画像生成部17は、画像位置関係計算部16からの位置関係情報、第1カメラ1からの画像情報、第2カメラ2からの画像情報、及び、フレームタイミング発生部13からのフレームタイミング信号に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成する[図1(C)参照]。そして、合成画像生成部17は、生成した合成画像20を、表示装置9(図3参照)へ出力するようになっている。これにより、合成画像20が表示装置9の表示画面上に表示されることになる。
The composite
ここでは、合成画像生成部17は、フレームタイミング発生部13からのフレームタイミング信号に基づいて第1カメラ1から取得した第1レーザ光非照射時画像1A(レーザ光の軌跡が含まれていない第1画像)と第2カメラ2から取得した第2レーザ光非照射時画像2A(レーザ光の軌跡が含まれていない第2画像)とを、画像位置関係計算部16からの位置関係情報に基づいて合成して合成画像20を生成する。
Here, the composite
具体的には、合成画像生成部17は、画像位置関係計算部16で取得した位置ずれ情報を用いて、第1カメラ1から取得した第1レーザ光非照射時画像1A(レーザ光の軌跡が含まれていない第1画像)と第2カメラ2から取得した第2レーザ光非照射時画像2A(レーザ光の軌跡が含まれていない第2画像)とを合成して合成画像20を生成する[図1(C)参照]。
Specifically, the composite
このように、レーザ光の軌跡が含まれていない第1画像1Aとレーザ光の軌跡が含まれていない第2画像2Aとを合成して合成画像20を生成することで、位置合わせ用マーカとして用いているレーザ光の軌跡が含まれていない合成画像20を得ることができる。つまり、上述のように、位置合わせ用マーカとして用いるレーザ光を、第1カメラ1及び第2カメラ2のフレームレートに同期させながら点滅させ、第1カメラ1及び第2カメラ2からレーザ光の消灯時のフレームの画像1A、2Aを取得し、これらを合成することで、位置合わせ用マーカとして用いているレーザ光の軌跡が含まれていない合成画像20を得ることができる。
As described above, the
また、図1(C)に示すように、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを正確に合成して合成画像20を生成できるため、第1カメラ1で撮像した遠方の被写体T1と第2カメラ2で撮像した遠方の被写体T2の正確な位置関係を把握することが可能となる。
なお、ここでは、1フレームをレーザ光の照射期間と非照射期間とに分けて、これらを繰り返すようにしているが、これに限られるものではない。例えば、フレーム毎にレーザ光の照射/非照射としても良い。つまり、レーザ光を照射するフレームとレーザ光を照射しないフレームとを繰り返すようにしても良い。また、例えば、ある数のフレーム毎にレーザ光の照射/非照射としても良い。つまり、ある数のフレームでレーザ光を照射し、ある数のフレームでレーザ光を照射しないようにして、これを繰り返すようにしても良い。
Further, as shown in FIG. 1C, the
Here, one frame is divided into a laser light irradiation period and a non-irradiation period, and these are repeated. However, the present invention is not limited to this. For example, laser light irradiation / non-irradiation may be performed for each frame. That is, you may make it repeat the flame | frame which irradiates a laser beam, and the flame | frame which does not irradiate a laser beam. Further, for example, laser light irradiation / non-irradiation may be performed every certain number of frames. That is, the laser beam may be irradiated with a certain number of frames and the laser beam may not be irradiated with a certain number of frames, and this may be repeated.
したがって、本実施形態にかかる撮像システムによれば、各画像に共通に含まれる特徴部分がない場合であっても、複数の画像を互いに位置合わせして合成できるという利点がある。
なお、本発明は、上述した実施形態に記載した構成に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々変形することが可能である。
Therefore, according to the imaging system according to the present embodiment, there is an advantage that a plurality of images can be aligned with each other and combined even when there is no feature part commonly included in each image.
In addition, this invention is not limited to the structure described in embodiment mentioned above, A various deformation | transformation is possible in the range which does not deviate from the meaning of this invention.
例えば、上述の実施形態では、電磁波源4を備えるものとし、コンピュータ3が、電磁波源4による電磁波の照射/非照射を制御するとともに、第1カメラ1から取得した第1電磁波照射時画像1B内に含まれる電磁波の軌跡の位置及び第2カメラ2から取得した第2電磁波照射時画像2B内に含まれる電磁波の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した第1電磁波非照射時画像1Aと第2カメラ2から取得した第2電磁波非照射時画像2Aとを合成して合成画像20を生成するようにしているが、これに限られるものではない。
For example, in the above-described embodiment, the electromagnetic wave source 4 is provided, and the
例えば、図7(A)〜図7(C)に示すように、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第1レーダ画像31Aを取得する第1レーダ31と、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第2レーダ画像32Aを取得する第2レーダ32とを備えるものとする。また、第1レーダ31による電磁波の照射位置と第1カメラ1が撮像する第1領域Xの位置との位置関係を固定し、第2レーダ32による電磁波の照射位置と第2カメラ2が撮像する第2領域Yの位置との位置関係を固定する。つまり、第1カメラ1と第1レーダ31のお互いの位置がずれないように、第1カメラ1と第1レーダ31を固定しており、また、第2カメラ2と第2レーダ32のお互いの位置がずれないように、第2カメラ2と第2レーダ32を固定している。そして、コンピュータ3が、第1レーダ31及び第2レーダ32を制御するとともに、第1レーダ31から取得した第1レーダ画像31A内に含まれる電磁波の軌跡の位置及び第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像20を生成するようにしても良い。例えば、第1レーダ31から取得した第1レーダ画像31A内に含まれる電磁波の軌跡と第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡との位置関係に基づいて、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像20を生成するようにすれば良い。また、例えば、第1レーダ31が、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射し、電磁波の軌跡を含む第1レーダ画像31Aを取得するようにし、第2レーダ32が、第1領域Xと第2領域Yとが重なっている領域Zに第1レーダ31によって照射された電磁波の軌跡を含む第2レーダ画像32Aを取得するようにする。そして、コンピュータ3が、第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像20を生成するようにすれば良い。なお、レーダをレーダ素子ともいう。
For example, as shown in FIGS. 7A to 7C, the
この場合、電磁波は、大気中で吸収される波長の電磁波であることが好ましい。つまり、第1レーダ31及び第2レーダ32は、大気中で吸収される波長の電磁波を照射し、この電磁波の軌跡を含むレーダ画像31A、32Aを取得するものであることが好ましい。例えば、電磁波は、190〜200GHz、120〜130GHz又は60GHzの電磁波(ミリ波の電磁波)であることが好ましい。つまり、第1レーダ31及び第2レーダ32は、190〜200GHz、120〜130GHz又は60GHzの電磁波を照射し、この電磁波の軌跡を含むレーダ画像31A、32Aを取得するものであることが好ましい。このような電磁波は、大気中での減衰が激しく、例えば数百m以上は伝搬しないため、これを位置合わせ用マーカとして用いることで、遠方から探知不能となり、例えば監視の秘匿性を確保することが可能となる。
In this case, the electromagnetic wave is preferably an electromagnetic wave having a wavelength that is absorbed in the atmosphere. That is, it is preferable that the
また、第1カメラ1及び第2カメラ2は、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサを備えるものであれば良い。例えば、室温付近の物体が放射する赤外線のうち、大気を透過しやすい約3〜約5μm付近(約4.5μm付近を除く)又は約8〜約12μm付近の波長に感度を持つ赤外線カメラを用いれば良い。
そして、第1カメラ1と第2カメラ2とは、それぞれの視野X、Yが一部重なるように配置している。つまり、第1カメラ1によって撮像される第1領域Xと第2カメラ2によって撮像される第2領域Yとが一部重なるように、第1カメラ1と第2カメラ2とを配置している。
Moreover, the 1st camera 1 and the
And the 1st camera 1 and the
具体的には、図8に示すように、コンピュータ3をその機能として画像位置関係計算部16X及び合成画像生成部17を備えるものとし、画像位置関係計算部16Xが、第1レーダ31から取得した第1レーダ画像31Aと第2レーダ32から取得した第2レーダ画像32Aとに基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成するための位置関係情報を計算するようにすれば良い[図7(B)、図7(C)参照]。つまり、画像位置関係計算部16Xが、第1レーダ31から取得した第1レーダ画像31A内に含まれる電磁波の軌跡の位置と第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置とを求め、これらの位置関係に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成するための位置ずれ情報を生成するようにすれば良い。
Specifically, as shown in FIG. 8, the
例えば、運用前に、第1レーダ31から電磁波を照射し、第1レーダ31の位置(向きを含む)に対して第2レーダ32の位置(向きを含む)を変化させながら、第1レーダ31及び第2レーダ32でレーダ画像31A、32Aを得る。そして、位置を変化させた第2レーダ32の各位置におけるレーダ画像32Aを取得し、電磁波の軌跡の位置を求め、第2レーダ32の位置及び電磁波の軌跡の位置を対応づけて表を作成して記憶する。また、第1レーダ31からレーダ画像を取得し、電磁波の軌跡の位置を求める。そして、位置を変化させた第2レーダ32の各位置におけるレーダ画像32A内の電磁波の軌跡の位置と、第1レーダ31から取得したレーダ画像31A内の電磁波の軌跡の位置とが一致するように、第2レーダ32の各位置におけるレーダ画像32Aと第1レーダ31から取得したレーダ画像31Aとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量)を求め、これも上記表に記憶する。この場合、第2レーダ32の各位置におけるレーダ画像32Aと第1レーダ31から取得したレーダ画像31Aとを重ね合わせたときの位置ずれ情報と第2レーダ32の各位置におけるレーダ画像32A内の電磁波の軌跡の位置とは一対一に対応づけられる。なお、位置ずれ情報は、第2レーダ32の各位置におけるレーダ画像32A内の電磁波の軌跡の位置と第1レーダ31から取得したレーダ画像31A内の電磁波の軌跡の位置との位置ずれ情報(位置関係情報)でもあり、また、第1レーダ31と第2レーダ32との位置ずれ情報(位置関係情報)でもあり、また、第1カメラ1と第2カメラ2との位置ずれ情報(位置関係情報)でもある。
For example, before operation, the
この場合、電磁波の軌跡を含む2つの画像31A、32Aを取得し、これらの2つの画像31A、32A内に含まれる電磁波の軌跡の位置関係に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる[図7(B)、図7(C)参照]。ここでは、第1レーダ31から取得した画像31A内に含まれる電磁波の軌跡と第2レーダ32から取得した画像32A内に含まれる電磁波の軌跡との位置関係に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。このように、電磁波の軌跡を含む画像を取得し、その画像内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。つまり、コンピュータ3は、第1レーダ31から取得した第1レーダ画像31A内に含まれる電磁波の軌跡の位置及び第2レーダ32から取得した第2レーダ画像32内に含まれる電磁波の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した第1画像1Aと第2カメラ2から取得した第2画像2Aとを合成して合成画像20を生成することになる。ここでは、第1レーダ31が、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射し、この電磁波の軌跡を含む第1レーダ画像31Aを取得し、第2レーダ32が、第1レーダ31によって照射された電磁波の軌跡を含む第2レーダ画像32Aを取得し、コンピュータ3が、第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。
In this case, two
なお、これに限られるものではなく、電磁波を照射するレーダと、位置を変化させるレーダとは反対にしても良い。つまり、運用前に、第2レーダ32から電磁波を照射し、第2レーダ32の位置(向きを含む)に対して第1レーダ31の位置(向きを含む)を変化させながら、第1レーダ31及び第2レーダ32でレーダ画像31A、32Aを得る。そして、位置を変化させた第1レーダ31の各位置におけるレーダ画像31Aを取得し、電磁波の軌跡の位置を求め、第1レーダ31の位置及び電磁波の軌跡の位置を対応づけて表を作成して記憶する。また、第2レーダ32からレーダ画像32Aを取得し、電磁波の軌跡の位置を求める。そして、位置を変化させた第1レーダ31の各位置におけるレーダ画像31A内の電磁波の軌跡の位置と、第2レーダ32から取得したレーダ画像32A内の電磁波の軌跡の位置とが一致するように、第1レーダ31の各位置におけるレーダ画像31Aと第2レーダ32から取得したレーダ画像32Aとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量)を求め、これも上記表に記憶する。要するに、第1レーダ31は、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第1レーダ画像31Aを取得するものであり、第2レーダ32は、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第2レーダ画像32Aを取得するものであれば良い。
However, the present invention is not limited to this, and the radar that radiates electromagnetic waves and the radar that changes the position may be reversed. That is, before operation, the
なお、このほか、例えば、次のようにすることもできる。つまり、運用前に、第1カメラ1と第2カメラ2の共通視野領域に特徴的被写体(例えば近距離の地形、地面や界面の凹凸など)がある状態とする。次に、第1レーダ31から電磁波を照射し、第1レーダ31の位置(向きを含む)に対して第2レーダ32の位置(向きを含む)を変化させながら、第1レーダ31及び第2レーダ32でレーダ画像31A、32Aを得る。そして、位置を変化させた第2レーダ32の各位置におけるレーダ画像32Aを取得し、特徴的被写体の位置及び電磁波の軌跡の位置を求め、第2レーダ32の位置、特徴的被写体の位置及び電磁波の軌跡の位置を対応づけて表を作成して記憶する。また、第1レーダ31からレーダ画像31Aを取得し、特徴的被写体の位置を求める。そして、位置を変化させた第2レーダ32の各位置におけるレーダ画像32A内の特徴的被写体の位置と、第1レーダ31から取得したレーダ画像31A内の特徴的被写体の位置とが一致するように、第2レーダ32の各位置におけるレーダ画像32Aと第1レーダ31から取得したレーダ画像31Aとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量)を求め、これも上記表に記憶する。この場合、第2レーダ32の各位置におけるレーダ画像32Aと第1レーダ31から取得したレーダ画像31Aとを重ね合わせたときの位置ずれ情報と第2レーダ32の各位置におけるレーダ画像32A内の電磁波の軌跡の位置とは一対一に対応づけられる。なお、位置ずれ情報は、第2レーダ32の各位置におけるレーダ画像32A内の電磁波の軌跡の位置と第1レーダ31から取得したレーダ画像31A内の電磁波の軌跡の位置との位置ずれ情報(位置関係情報)でもあり、また、第1レーダ31と第2レーダ32との位置ずれ情報(位置関係情報)でもあり、また、第1カメラ1と第2カメラ2との位置ずれ情報(位置関係情報)でもある。
In addition, for example, the following can also be performed. That is, before the operation, a characteristic subject (for example, a short-distance terrain, unevenness of the ground or an interface, etc.) exists in the common visual field region of the first camera 1 and the
この場合、電磁波の軌跡を含む画像を取得し、その画像内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。つまり、コンピュータ3は、第1レーダ31から取得した第1レーダ画像31A内に含まれる電磁波の軌跡の位置及び第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置の少なくとも一方に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。ここでは、第1レーダ31が、第1領域Xと第2領域Yとが重なっている領域Zに電磁波を照射し、この電磁波の軌跡を含む第1レーダ画像31Aを取得し、第2レーダ32が、第1レーダ31によって照射された電磁波の軌跡を含む第2レーダ画像32Aを取得し、コンピュータ3が、第2レーダ32から取得した第2レーダ画像32A内に含まれる電磁波の軌跡の位置に基づいて、第1カメラ1から取得した画像1Aと第2カメラ2から取得した画像2Aとを合成して合成画像20を生成することになる。
In this case, an image including an electromagnetic wave trajectory is acquired, and the
なお、これに限られるものではなく、電磁波を照射するレーダと、位置を変化させるレーダとは反対にしても良い。つまり、第2レーダ32から電磁波を照射し、第2レーダ32の位置(向きを含む)に対して第1レーダ31の位置(向きを含む)を変化させながら、第1レーダ31及び第2レーダ32でレーダ画像31A、32Aを得る。そして、位置を変化させた第1レーダ31の各位置におけるレーダ画像31Aを取得し、特徴的被写体の位置及び電磁波の軌跡の位置を求め、第1レーダ31の位置、特徴的被写体の位置及び電磁波の軌跡の位置を対応づけて表を作成して記憶する。また、第2レーダ32からレーダ画像32Aを取得し、特徴的被写体の位置を求める。そして、位置を変化させた第1レーダ31の各位置におけるレーダ画像31A内の特徴的被写体の位置と、第2レーダ32から取得したレーダ画像32A内の特徴的被写体の位置とが一致するように、第1レーダ31の各位置におけるレーダ画像31Aと第2レーダ32から取得したレーダ画像32Aとを重ね合わせたときの位置ずれ情報(例えば重ね合わせるために位置をずらした量)を求め、これも上記表に記憶する。要するに、第1レーダ31は、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第1レーダ画像31Aを取得するものであり、第2レーダ32は、第1領域Xと第2領域Yとが重なっている領域Zに照射された電磁波の軌跡を含む第2レーダ画像32Aを取得するものであれば良い。
However, the present invention is not limited to this, and the radar that radiates electromagnetic waves and the radar that changes the position may be reversed. That is, the
そして、運用時には、第2レーダ32から取得したレーダ画像32A内の電磁波の軌跡の位置から、上記表を用いて、位置ずれ情報を取得するようにすれば良い。つまり、画像位置関係計算部16Xは、第2レーダ32から取得したレーダ画像32Aにおける電磁波の軌跡の位置を求め、この位置から、上記表を用いて、位置ずれ情報を取得するようにすれば良い。
At the time of operation, the positional deviation information may be acquired from the position of the locus of the electromagnetic wave in the
なお、合成画像生成部17は、上述の実施形態の場合と同様に構成すれば良い。
以下、上述の実施形態及び変形例に関し、更に、付記を開示する。
(付記1)
第1領域を撮像する第1カメラと、
第2領域を撮像する第2カメラと、
前記第1領域と前記第2領域とが重なっている領域に照射された電磁波の軌跡を含む画像を取得し、前記画像内に含まれる前記電磁波の軌跡の位置に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成するコンピュータとを備えることを特徴とする撮像システム。
The composite
Hereinafter, additional notes will be disclosed regarding the above-described embodiment and modifications.
(Appendix 1)
A first camera that images the first region;
A second camera that images the second region;
An image including a trajectory of the electromagnetic wave irradiated to an area where the first region and the second region overlap is acquired, and based on the position of the trajectory of the electromagnetic wave included in the image, from the first camera An imaging system comprising: a computer that generates a composite image by combining the acquired first image and the second image acquired from the second camera.
(付記2)
前記電磁波は、大気中で吸収される波長の電磁波であることを特徴とする、付記1に記載の撮像システム。
(付記3)
前記電磁波は、水又は一酸化炭素の吸収波長に相当する波長の電磁波であることを特徴とする、付記1又は2に記載の撮像システム。
(Appendix 2)
The imaging system according to appendix 1, wherein the electromagnetic wave is an electromagnetic wave having a wavelength that is absorbed in the atmosphere.
(Appendix 3)
The imaging system according to
(付記4)
前記電磁波は、190〜200GHz、120〜130GHz又は60GHzの電磁波であることを特徴とする、付記1又は2に記載の撮像システム。
(付記5)
前記第1領域と前記第2領域とが重なっている領域に前記電磁波を照射する電磁波源を備え、
前記コンピュータは、前記電磁波源による前記電磁波の照射/非照射を制御するとともに、前記第1カメラから取得した第1電磁波照射時画像内に含まれる前記電磁波の軌跡の位置及び前記第2カメラから取得した第2電磁波照射時画像内に含まれる前記電磁波の軌跡の位置の少なくとも一方に基づいて、前記第1カメラから取得した第1電磁波非照射時画像と前記第2カメラから取得した第2電磁波非照射時画像とを合成して合成画像を生成することを特徴とする、付記1〜3のいずれか1項に記載の撮像システム。
(Appendix 4)
The imaging system according to
(Appendix 5)
An electromagnetic wave source for irradiating the electromagnetic wave on a region where the first region and the second region overlap;
The computer controls the irradiation / non-irradiation of the electromagnetic wave by the electromagnetic wave source, and obtains the position of the locus of the electromagnetic wave included in the first electromagnetic wave irradiation image acquired from the first camera and the second camera. Based on at least one of the positions of the locus of the electromagnetic wave included in the second electromagnetic wave irradiation image, the first electromagnetic wave non-irradiation image acquired from the first camera and the second electromagnetic wave non-acquisition acquired from the second camera are obtained. The imaging system according to any one of appendices 1 to 3, wherein a combined image is generated by combining the image during irradiation.
(付記6)
前記コンピュータは、前記第1カメラから取得した第1電磁波照射時画像内に含まれる前記電磁波の軌跡と前記第2カメラから取得した第2電磁波照射時画像内に含まれる前記電磁波の軌跡との位置関係に基づいて、前記第1カメラから取得した第1電磁波非照射時画像と前記第2カメラから取得した第2電磁波非照射時画像とを合成して合成画像を生成することを特徴とする、付記5に記載の撮像システム。
(Appendix 6)
The computer is configured to detect a position of the electromagnetic wave trajectory included in the first electromagnetic wave irradiation image acquired from the first camera and the electromagnetic wave trajectory included in the second electromagnetic wave irradiation image acquired from the second camera. Based on the relationship, the first electromagnetic wave non-irradiation image acquired from the first camera and the second electromagnetic wave non-irradiation image acquired from the second camera are combined to generate a composite image, The imaging system according to
(付記7)
前記電磁波源による前記電磁波の照射位置と前記第1カメラ及び前記第2カメラの一方が撮像する領域の位置との位置関係が固定されており、
前記コンピュータは、前記第1カメラ及び前記第2カメラの他方から取得した電磁波照射時画像内に含まれる前記電磁波の軌跡の位置に基づいて、前記第1カメラから取得した第1電磁波非照射時画像と前記第2カメラから取得した第2電磁波非照射時画像とを合成して合成画像を生成することを特徴とする、付記5又は6に記載の撮像システム。
(Appendix 7)
The positional relationship between the irradiation position of the electromagnetic wave by the electromagnetic wave source and the position of the region imaged by one of the first camera and the second camera is fixed,
The computer uses the first electromagnetic wave non-irradiation image acquired from the first camera based on the position of the electromagnetic wave locus included in the electromagnetic wave irradiation image acquired from the other of the first camera and the second camera. The imaging system according to
(付記8)
前記第1カメラ及び前記第2カメラは、物体が放射する赤外線の波長と前記電磁波の波長との両方に感度を持つ赤外線イメージセンサを備えることを特徴とする、付記1〜3、5〜7のいずれか1項に記載の撮像システム。
(付記9)
前記第1領域と前記第2領域とが重なっている領域に照射された前記電磁波の軌跡を含む第1レーダ画像を取得する第1レーダと、
前記第1領域と前記第2領域とが重なっている領域に照射された前記電磁波の軌跡を含む第2レーダ画像を取得する第2レーダとを備え、
前記第1レーダによる前記電磁波の照射位置と前記第1カメラが撮像する第1領域の位置との位置関係が固定されており、
前記第2レーダによる前記電磁波の照射位置と前記第2カメラが撮像する第2領域の位置との位置関係が固定されており、
前記コンピュータは、前記第1レーダ及び前記第2レーダを制御するとともに、前記第1レーダから取得した第1レーダ画像内に含まれる前記電磁波の軌跡の位置及び前記第2レーダから取得した第2レーダ画像内に含まれる前記電磁波の軌跡の位置の少なくとも一方に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成することを特徴とする、付記1、2、4のいずれか1項に記載の撮像システム。
(Appendix 8)
Each of the first camera and the second camera includes an infrared image sensor having sensitivity to both an infrared wavelength emitted from an object and a wavelength of the electromagnetic wave. The imaging system according to any one of claims.
(Appendix 9)
A first radar that obtains a first radar image including a locus of the electromagnetic wave applied to a region where the first region and the second region overlap;
A second radar that obtains a second radar image including a locus of the electromagnetic wave applied to an area where the first area and the second area overlap;
The positional relationship between the irradiation position of the electromagnetic wave by the first radar and the position of the first region imaged by the first camera is fixed,
The positional relationship between the irradiation position of the electromagnetic wave by the second radar and the position of the second region imaged by the second camera is fixed,
The computer controls the first radar and the second radar, and the locus of the electromagnetic wave included in the first radar image acquired from the first radar and the second radar acquired from the second radar. Generating a composite image by combining the first image acquired from the first camera and the second image acquired from the second camera based on at least one of the positions of the locus of the electromagnetic wave included in the image; The imaging system according to any one of
(付記10)
前記コンピュータは、前記第1レーダから取得した第1レーダ画像内に含まれる前記電磁波の軌跡と前記第2レーダから取得した第2レーダ画像内に含まれる前記電磁波の軌跡との位置関係に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成することを特徴とする、付記9に記載の撮像システム。
(Appendix 10)
The computer is based on a positional relationship between the locus of the electromagnetic wave included in the first radar image acquired from the first radar and the locus of the electromagnetic wave included in the second radar image acquired from the second radar. The imaging system according to appendix 9, wherein a composite image is generated by combining the first image acquired from the first camera and the second image acquired from the second camera.
(付記11)
前記第1レーダは、前記第1領域と前記第2領域とが重なっている領域に前記電磁波を照射し、前記電磁波の軌跡を含む前記第1レーダ画像を取得し、
前記第2レーダは、前記第1領域と前記第2領域とが重なっている領域に前記第1レーダによって照射された前記電磁波の軌跡を含む前記第2レーダ画像を取得し、
前記コンピュータは、前記第2レーダから取得した第2レーダ画像内に含まれる前記電磁波の軌跡の位置に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成することを特徴とする、付記9又は10に記載の撮像システム。
(Appendix 11)
The first radar irradiates the electromagnetic wave to a region where the first region and the second region overlap, and acquires the first radar image including the locus of the electromagnetic wave,
The second radar acquires the second radar image including a locus of the electromagnetic wave irradiated by the first radar in a region where the first region and the second region overlap with each other,
The computer uses a first image acquired from the first camera and a second image acquired from the second camera based on a position of a locus of the electromagnetic wave included in a second radar image acquired from the second radar. The imaging system according to
(付記12)
前記第1カメラ及び前記第2カメラは、物体が放射する赤外線の波長に感度を持つ赤外線イメージセンサを備えることを特徴とする、1、2、4、9〜11のいずれか1項に記載の撮像システム。
(Appendix 12)
The said 1st camera and the said 2nd camera are equipped with the infrared image sensor sensitive to the wavelength of the infrared rays which an object radiates | emits, It is any one of 1, 2, 4, 9-11 characterized by the above-mentioned. Imaging system.
1 第1カメラ
1A 電磁波の軌跡を含まない画像(第1レーザ光非照射時画像;第1電磁波非照射時画像;第1画像)
1B 電磁波の軌跡を含む画像(第1レーザ光照射時画像;第1電磁波照射時画像;第1画像)
2 第2カメラ
2A 電磁波の軌跡を含まない画像(第2レーザ光非照射時画像;第2電磁波非照射時画像;第2画像)
2B 電磁波の軌跡を含む画像(第2レーザ光照射時画像;第2電磁波照射時画像;第2画像)
3 コンピュータ
4 レーザ光源(電磁波源)
5 CPU
6 メモリ
7 記憶装置
8 入力装置
9 表示装置
10、11 画像処理回路
12 レーザ駆動回路(電磁波源駆動回路)
13 フレームタイミング発生部
14 第1レーザ軌跡抽出部
15 第2レーザ軌跡抽出部
16、16X 画像位置関係計算部
17 合成画像生成部
20 合成画像
31 第1レーダ
31A 第1レーダ画像
32 第2レーダ
32A 第2レーダ画像
T1、T2 遠方の被写体
X 第1領域
Y 第2領域
Z 第1領域と第2領域とが重なっている領域
DESCRIPTION OF SYMBOLS 1
1B Image including locus of electromagnetic wave (first laser light irradiation image; first electromagnetic wave irradiation image; first image)
2
2B Image including electromagnetic wave locus (second laser light irradiation image; second electromagnetic wave irradiation image; second image)
3 Computer 4 Laser light source (electromagnetic wave source)
5 CPU
6 Memory 7
13 Frame
Claims (7)
第2領域を撮像する第2カメラと、
前記第1領域と前記第2領域とが重なっている領域に照射された電磁波の軌跡を含む画像を取得し、前記画像内に含まれる前記電磁波の軌跡の位置に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成するコンピュータとを備えることを特徴とする撮像システム。 A first camera that images the first region;
A second camera that images the second region;
An image including a trajectory of the electromagnetic wave irradiated to an area where the first region and the second region overlap is acquired, and based on the position of the trajectory of the electromagnetic wave included in the image, from the first camera An imaging system comprising: a computer that generates a composite image by combining the acquired first image and the second image acquired from the second camera.
前記コンピュータは、前記電磁波源による前記電磁波の照射/非照射を制御するとともに、前記第1カメラから取得した第1電磁波照射時画像内に含まれる前記電磁波の軌跡の位置及び前記第2カメラから取得した第2電磁波照射時画像内に含まれる前記電磁波の軌跡の位置の少なくとも一方に基づいて、前記第1カメラから取得した第1電磁波非照射時画像と前記第2カメラから取得した第2電磁波非照射時画像とを合成して合成画像を生成することを特徴とする、請求項1〜3のいずれか1項に記載の撮像システム。 An electromagnetic wave source for irradiating the electromagnetic wave on a region where the first region and the second region overlap;
The computer controls the irradiation / non-irradiation of the electromagnetic wave by the electromagnetic wave source, and obtains the position of the locus of the electromagnetic wave included in the first electromagnetic wave irradiation image acquired from the first camera and the second camera. Based on at least one of the positions of the locus of the electromagnetic wave included in the second electromagnetic wave irradiation image, the first electromagnetic wave non-irradiation image acquired from the first camera and the second electromagnetic wave non-acquisition acquired from the second camera are obtained. The imaging system according to any one of claims 1 to 3, wherein a combined image is generated by combining the image during irradiation.
前記第1領域と前記第2領域とが重なっている領域に照射された前記電磁波の軌跡を含む第2レーダ画像を取得する第2レーダとを備え、
前記第1レーダによる前記電磁波の照射位置と前記第1カメラが撮像する第1領域の位置との位置関係が固定されており、
前記第2レーダによる前記電磁波の照射位置と前記第2カメラが撮像する第2領域の位置との位置関係が固定されており、
前記コンピュータは、前記第1レーダ及び前記第2レーダを制御するとともに、前記第1レーダから取得した第1レーダ画像内に含まれる前記電磁波の軌跡の位置及び前記第2レーダから取得した第2レーダ画像内に含まれる前記電磁波の軌跡の位置の少なくとも一方に基づいて、前記第1カメラから取得した第1画像と前記第2カメラから取得した第2画像とを合成して合成画像を生成することを特徴とする、請求項1、2、4のいずれか1項に記載の撮像システム。 A first radar that obtains a first radar image including a locus of the electromagnetic wave applied to a region where the first region and the second region overlap;
A second radar that obtains a second radar image including a locus of the electromagnetic wave applied to an area where the first area and the second area overlap;
The positional relationship between the irradiation position of the electromagnetic wave by the first radar and the position of the first region imaged by the first camera is fixed,
The positional relationship between the irradiation position of the electromagnetic wave by the second radar and the position of the second region imaged by the second camera is fixed,
The computer controls the first radar and the second radar, and the locus of the electromagnetic wave included in the first radar image acquired from the first radar and the second radar acquired from the second radar. Generating a composite image by combining the first image acquired from the first camera and the second image acquired from the second camera based on at least one of the positions of the locus of the electromagnetic wave included in the image; The imaging system according to claim 1, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008241A JP6191473B2 (en) | 2014-01-21 | 2014-01-21 | Imaging system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014008241A JP6191473B2 (en) | 2014-01-21 | 2014-01-21 | Imaging system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015139031A true JP2015139031A (en) | 2015-07-30 |
JP6191473B2 JP6191473B2 (en) | 2017-09-06 |
Family
ID=53769789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014008241A Expired - Fee Related JP6191473B2 (en) | 2014-01-21 | 2014-01-21 | Imaging system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6191473B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018155198A1 (en) * | 2017-02-22 | 2018-08-30 | ソニー株式会社 | Information processing device and method |
JP2020057967A (en) * | 2018-10-03 | 2020-04-09 | キヤノン株式会社 | Image processing device, imaging device, control method of image processing device, and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09161068A (en) * | 1995-12-12 | 1997-06-20 | Furukawa Electric Co Ltd:The | Picture photographing method and picture edition device using the method |
JP2014164363A (en) * | 2013-02-22 | 2014-09-08 | Hitachi Ltd | Multiple camera photographing device and multiple camera photographing method |
-
2014
- 2014-01-21 JP JP2014008241A patent/JP6191473B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09161068A (en) * | 1995-12-12 | 1997-06-20 | Furukawa Electric Co Ltd:The | Picture photographing method and picture edition device using the method |
JP2014164363A (en) * | 2013-02-22 | 2014-09-08 | Hitachi Ltd | Multiple camera photographing device and multiple camera photographing method |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018155198A1 (en) * | 2017-02-22 | 2018-08-30 | ソニー株式会社 | Information processing device and method |
JPWO2018155198A1 (en) * | 2017-02-22 | 2019-12-12 | ソニー株式会社 | Information processing apparatus and method |
US11062466B2 (en) | 2017-02-22 | 2021-07-13 | Sony Corporation | Information processing apparatus and method |
JP7040511B2 (en) | 2017-02-22 | 2022-03-23 | ソニーグループ株式会社 | Information processing equipment and methods |
JP2020057967A (en) * | 2018-10-03 | 2020-04-09 | キヤノン株式会社 | Image processing device, imaging device, control method of image processing device, and program |
CN110995982A (en) * | 2018-10-03 | 2020-04-10 | 佳能株式会社 | Image processing apparatus, control method thereof, imaging apparatus, and recording medium |
US11301955B2 (en) | 2018-10-03 | 2022-04-12 | Canon Kabushiki Kaisha | Image processing apparatus, imaging apparatus, method for controlling image processing apparatus and recording medium |
CN110995982B (en) * | 2018-10-03 | 2022-06-07 | 佳能株式会社 | Image processing apparatus, control method therefor, imaging apparatus, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP6191473B2 (en) | 2017-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI684748B (en) | Pulsed repetition frequency detector, tracker, and decoder systems and imaging devices | |
JP6219017B2 (en) | OLED display device with light detection function | |
US20070247517A1 (en) | Method and apparatus for producing a fused image | |
CN109425305A (en) | Use the depth measurement of multiple pulsed structured light projection instrument | |
WO2015098288A1 (en) | Image processing device and image processing method | |
US20160170486A1 (en) | Eye gaze imaging | |
JP2016008875A (en) | Distance measurement device | |
JP6191473B2 (en) | Imaging system | |
JP2017208595A (en) | Monitoring system | |
CN104799874B (en) | Projecting method, device and system and the Medical Devices of medical image | |
JP2011028042A (en) | Detection system and detection method | |
JP5605565B2 (en) | Object identification device and object identification method | |
KR20140046623A (en) | Safety system using transparent display | |
JP2012198802A (en) | Intrusion object detection system | |
JP2007218806A (en) | Laser monitoring method | |
JP5624267B2 (en) | Infrared imaging apparatus and infrared imaging method | |
JP2007240309A (en) | Target position aligning device and target position aligning method | |
US8994943B2 (en) | Selectivity by polarization | |
US20180056852A1 (en) | Method for capturing objects in the environment of a vehicle | |
JP6774603B2 (en) | Laser light irradiation detection device, laser light irradiation detection method, laser light irradiation detection system | |
JP2015069572A (en) | Optical imaging device | |
JP4969900B2 (en) | Hazardous area protection device | |
WO2016142976A1 (en) | Image pickup system | |
JP2015152316A (en) | Sound visualizing apparatus | |
JPWO2015166524A1 (en) | Extreme ultraviolet light generator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161004 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170627 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170724 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6191473 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |