JP4731953B2 - Imaging apparatus, imaging method, and imaging program - Google Patents

Imaging apparatus, imaging method, and imaging program Download PDF

Info

Publication number
JP4731953B2
JP4731953B2 JP2005057544A JP2005057544A JP4731953B2 JP 4731953 B2 JP4731953 B2 JP 4731953B2 JP 2005057544 A JP2005057544 A JP 2005057544A JP 2005057544 A JP2005057544 A JP 2005057544A JP 4731953 B2 JP4731953 B2 JP 4731953B2
Authority
JP
Japan
Prior art keywords
image
images
imaging
area
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005057544A
Other languages
Japanese (ja)
Other versions
JP2006245909A (en
Inventor
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005057544A priority Critical patent/JP4731953B2/en
Publication of JP2006245909A publication Critical patent/JP2006245909A/en
Application granted granted Critical
Publication of JP4731953B2 publication Critical patent/JP4731953B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮像装置、撮像方法、及び撮像プログラムに関する。   The present invention relates to an imaging apparatus, an imaging method, and an imaging program.

近年、自動車等の車両に設けられた撮像装置によって撮像された画像から、車両の周囲の環境を認識して、その結果に基づいて車両の運転を補助する技術に関する研究が行われている(例えば、特許文献1参照。)。
特開平8−161698
In recent years, research on technology for recognizing an environment around a vehicle from an image captured by an imaging device provided in a vehicle such as an automobile and assisting driving of the vehicle based on the result has been performed (for example, , See Patent Document 1).
JP-A-8-161698

移動している車両から周囲の画像を撮像した場合、車両から見た被写体の相対位置が露光時間中に変化することにより、画像にブレが生じる。こういったブレは露光時間を短くすることにより低減されるが、露光時間を短くすることにより光量が減少するので、撮像された画像の品質が低下するという問題があった。   When a surrounding image is captured from a moving vehicle, the relative position of the subject as viewed from the vehicle changes during the exposure time, resulting in blurring of the image. Such blurring is reduced by shortening the exposure time, but the amount of light is reduced by shortening the exposure time, so that there is a problem that the quality of the captured image is lowered.

そこで本発明は、上記の課題を解決することができる撮像装置、撮像方法、及び撮像プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus, an imaging method, and an imaging program that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の形態においては、撮像装置であって、互いに異なる露光時間で複数の画像を撮像する撮像部と、撮像部により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出部と、複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択部と、複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、複数の領域のそれぞれについて抽出した画像を合成する画像合成部とを備える。   In order to solve the above-described problem, in the first embodiment of the present invention, an imaging apparatus includes an imaging unit that captures a plurality of images with different exposure times, and a subject in the image captured by the imaging unit. For each of the plurality of areas, an area detection unit that detects a plurality of areas with different magnitudes of motion, and selects an image with a shorter exposure time among the plurality of images as the movement of the subject in the area increases. An image selection unit that associates with the region, and an image composition unit that extracts the image of the region from the image associated with each of the plurality of regions and combines the extracted images for each of the plurality of regions. Prepare.

撮像部は、複数の画像のうち、露光時間がより短い画像を撮像する場合に、絞りをより大きくしてもよい。撮像部は、複数の画像のうち、露光時間がより短い画像を撮像する場合に、感度をより高くしてもよい。当該撮像装置は、移動体の前方または後方の画像を撮像するべく、移動体に設けられ、領域検出部は、画像の中央近傍の領域を、被写体の動きがより小さい領域として検出すると共に、画像の周辺の領域を、被写体の動きがより大きい領域として検出してもよい。移動体は、車両であってもよい。当該撮像装置は、合成された画像を表示する表示部を更に備えてもよい。撮像部は、複数の画像を撮像する前、及び複数の画像を撮像した後のそれぞれにおいて、更に画像を撮像し、領域検出部は、複数の画像が撮像される前、及び複数の画像が撮像された後のそれぞれにおいて更に撮像された画像を比較することにより、被写体の動きの大きさを検出してもよい。   The imaging unit may enlarge the aperture when capturing an image having a shorter exposure time among the plurality of images. The imaging unit may increase the sensitivity when imaging an image having a shorter exposure time among a plurality of images. The imaging device is provided in the moving body to capture an image of the front or rear of the moving body, and the area detection unit detects an area near the center of the image as an area where the movement of the subject is smaller, and the image May be detected as an area where the movement of the subject is larger. The moving body may be a vehicle. The imaging apparatus may further include a display unit that displays the synthesized image. The imaging unit captures more images before and after capturing the plurality of images, and the area detection unit captures the images before and after capturing the plurality of images. The magnitude of the movement of the subject may be detected by comparing the further captured images in each of the images.

また、本発明の第2の形態においては、撮像方法であって、互いに異なる露光時間で複数の画像を撮像する撮像段階と、撮像段階において撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出段階と、複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択段階と、複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、複数の領域のそれぞれについて抽出した画像を合成する画像合成段階とを備える。   Further, in the second embodiment of the present invention, there is provided an imaging method in which the magnitude of the movement of the subject is different between the imaging stage in which a plurality of images are captured with different exposure times and the image captured in the imaging stage. For each of the plurality of areas, an area detection step for detecting a plurality of areas, and the larger the movement of the subject in the area, the shorter the exposure time is selected from the plurality of images, and the corresponding area is selected. The image selecting step includes an image combining step of extracting an image of the region from the image associated with each of the plurality of regions and combining the extracted images for each of the plurality of regions.

また、本発明の第3の形態においては、撮像装置を機能させる撮像プログラムであって、撮像装置を、互いに異なる露光時間で複数の画像を撮像する撮像部と、撮像部により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出部と、複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択部と、複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、複数の領域のそれぞれについて抽出した画像を合成する画像合成部とを備える撮像装置として機能させる。   According to the third aspect of the present invention, there is provided an imaging program for causing an imaging device to function. The imaging device includes an imaging unit that captures a plurality of images with different exposure times, and an image captured by the imaging unit. An area detection unit for detecting a plurality of areas having different magnitudes of movement of the subject, and an image having a shorter exposure time among the plurality of images, as the movement of the subject in the area increases. Image selection unit that associates with the region, and extracts the image of the region from the image associated with each of the plurality of regions, and combines the images extracted for each of the plurality of regions Functioning as an imaging device.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではなく、これらの特徴群のサブコンビネーションもまた、発明となりうる。   The above summary of the invention does not enumerate all the necessary features of the present invention, and sub-combinations of these feature groups can also be the invention.

本発明によれば、移動している車両から撮像した場合であっても、品質の高い画像を得ることができる。   According to the present invention, a high-quality image can be obtained even when captured from a moving vehicle.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は、本実施形態に係る撮像装置10の構成の一例を示すブロック図である。本実施形態に係る撮像装置10は、所謂車載カメラであり、車両の周囲、例えば車両の前方または後方等の画像を撮像するべく、車両に設けられる。そして、撮像装置10は、互いに異なる露光時間で撮像した複数の画像を合成することにより、ブレの無い品質の高い画像を、運転者等の利用者に提供することを目的とする。   FIG. 1 is a block diagram illustrating an example of a configuration of an imaging apparatus 10 according to the present embodiment. The imaging device 10 according to the present embodiment is a so-called in-vehicle camera, and is provided in the vehicle so as to capture an image around the vehicle, for example, the front or rear of the vehicle. And the imaging device 10 aims at providing a user, such as a driver | operator, a high quality image without a blurring by combining the several image imaged with mutually different exposure time.

本実施形態に係る撮像装置10は、撮像部100、バッファ110、画像処理部120、及び表示部130を備える。撮像部100は、光学系102、CCD104、及び信号処理部106を有し、画像を撮像する。光学系102は、被写体の光学像をCCD104の受光面上に結像する。CCD104は、複数の受光素子を含み、光学系102により結像された被写体の光学像によってそれぞれの受光素子に蓄積された電荷を、アナログの電気信号として信号処理部106に出力する。信号処理部106は、CCD104から受け取った、被写体像を示すアナログの電気信号を、R、G、Bの各成分に分解する。そして、信号処理部106は、R、G、Bの各成分に分解されたアナログの電気信号をA/D変換し、その結果として得られた被写体像を示すデジタルの画像データをバッファ110に出力する。   The imaging apparatus 10 according to the present embodiment includes an imaging unit 100, a buffer 110, an image processing unit 120, and a display unit 130. The imaging unit 100 includes an optical system 102, a CCD 104, and a signal processing unit 106, and captures an image. The optical system 102 forms an optical image of the subject on the light receiving surface of the CCD 104. The CCD 104 includes a plurality of light receiving elements, and outputs the charges accumulated in each light receiving element by the optical image of the subject formed by the optical system 102 to the signal processing unit 106 as an analog electric signal. The signal processing unit 106 decomposes the analog electric signal indicating the subject image received from the CCD 104 into R, G, and B components. Then, the signal processing unit 106 performs A / D conversion on the analog electrical signal decomposed into R, G, and B components, and outputs digital image data indicating the subject image obtained as a result to the buffer 110. To do.

撮像部100は、以上の動作を複数回繰り返すことにより、複数の画像を撮像する。ここで、撮像部100は、当該複数の画像を、互いに異なる露光時間で撮像する。例えば、撮像部100は、CCD104に含まれる受光素子のそれぞれに電荷が蓄積され始めてから、蓄積された電荷が信号処理部106に出力されるまでの時間を制御することにより、露光時間を制御してよい。また、例えば、撮像部100は、光学系102に含まれる機械式シャッタの動作を制御して、光学系102がCCD104の受光面上に被写体像を結像する時間を制御することにより、露光時間を制御してよい。   The imaging unit 100 captures a plurality of images by repeating the above operation a plurality of times. Here, the imaging unit 100 captures the plurality of images with different exposure times. For example, the imaging unit 100 controls the exposure time by controlling the time from when the charge starts to be accumulated in each of the light receiving elements included in the CCD 104 until the accumulated charge is output to the signal processing unit 106. It's okay. Further, for example, the imaging unit 100 controls the operation of a mechanical shutter included in the optical system 102, and controls the time during which the optical system 102 forms a subject image on the light receiving surface of the CCD 104, thereby exposing the exposure time. May be controlled.

バッファ110は、撮像部100によって撮像された複数の画像を一時的に保持する。画像処理部120は、バッファ110が保持する複数の画像に対して画像処理を行い、その結果得られた画像を表示部130に出力する。画像処理部120は、領域検出部122、画像選択部124、及び画像合成部126を有する。領域検出部122は、撮像部100により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する。そして、領域検出部122は、検出した複数の領域を示す情報を、画像選択部124に出力する。   The buffer 110 temporarily holds a plurality of images captured by the imaging unit 100. The image processing unit 120 performs image processing on a plurality of images held in the buffer 110 and outputs the resulting image to the display unit 130. The image processing unit 120 includes an area detection unit 122, an image selection unit 124, and an image composition unit 126. The region detection unit 122 detects a plurality of regions in the image captured by the imaging unit 100 having different subject movement magnitudes. Then, the region detection unit 122 outputs information indicating the detected plurality of regions to the image selection unit 124.

画像選択部124は、領域検出部122により検出された、被写体の動きの大きさが異なる複数の領域のそれぞれに、撮像部100により撮像され、バッファ110により保持されている、互いに露光時間の異なる複数の画像から選択した何れかの画像を対応付ける。具体的には、画像選択部124は、複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、バッファ110により保持されている複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける。そして、画像選択部124は、複数の領域のそれぞれについて、当該領域を示す情報、及び当該領域に対応付けた画像を、画像合成部126に出力する。画像合成部126は、画像選択部124によって複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出する。そして、画像合成部126は、複数の領域のそれぞれについて抽出した画像を、一枚の画像に合成する。そして、画像合成部126は、合成した画像を表示部130に出力する。表示部130は、画像合成部126によって合成された画像を表示して、利用者に提供する。   The image selection unit 124 captures images of the plurality of regions detected by the region detection unit 122 with different magnitudes of movements of the subject and is captured by the imaging unit 100 and held in the buffer 110 and has different exposure times. Any image selected from a plurality of images is associated. Specifically, for each of the plurality of regions, the image selection unit 124 selects an image having a shorter exposure time from among the plurality of images held by the buffer 110 as the movement of the subject in the region increases. Then, it is associated with the area. Then, the image selection unit 124 outputs information indicating the region and an image associated with the region to the image composition unit 126 for each of the plurality of regions. The image composition unit 126 extracts the image of the region from the image associated with each of the plurality of regions by the image selection unit 124. Then, the image synthesis unit 126 synthesizes the images extracted for each of the plurality of regions into a single image. Then, the image synthesis unit 126 outputs the synthesized image to the display unit 130. The display unit 130 displays the image synthesized by the image synthesis unit 126 and provides it to the user.

本実施形態に係る撮像装置10によれば、画像内の、被写体の動きがより大きい領域に、露光時間のより短い画像を対応付けて、それぞれの領域に対応付けた画像を合成することにより、画像全体でブレのない、品質の高い画像を得ることができる。また、被写体の動きがより小さい領域には、露光時間のより長い画像を対応付けることにより、露光時間が短いことによる画像の品質の低下を低減することができるので、品質のより高い画像を得ることができる。そして、この様にして得られた品質の高い画像を用いることにより、車両の自動操縦等の運転補助を、より高い精度で実行することができる。また、画像全体でブレのない画像を表示して利用者に提供することにより、車両の周囲の状況を、より正確に、且つ、より迅速に利用者に伝えることができる。   According to the imaging device 10 according to the present embodiment, by associating an image with a shorter exposure time with an area in the image where the movement of the subject is larger, and synthesizing the images associated with the respective areas, It is possible to obtain a high-quality image with no blur throughout the image. In addition, by associating an image with a longer exposure time to an area where the movement of the subject is smaller, it is possible to reduce the deterioration of the image quality due to the short exposure time, thereby obtaining a higher quality image. Can do. Then, by using the high-quality image obtained in this way, driving assistance such as automatic steering of the vehicle can be executed with higher accuracy. In addition, by displaying a blur-free image on the entire image and providing it to the user, the situation around the vehicle can be conveyed to the user more accurately and more quickly.

図2は、本実施形態に係る撮像部100により撮像された画像、及び画像合成部126により合成された画像の一例を示す。図2(a)は、撮像部100により撮像された画像200を示す。図2(b)は、撮像部100により撮像された画像210を示す。図2(c)は、画像合成部126により合成された画像220を示す。本例において、撮像装置10は、画像200及び画像210という2枚の画像を撮像して、当該2枚の画像を合成する。なお、撮像装置10は、これに代えて、3枚以上の画像を撮像して合成してもよい。   FIG. 2 shows an example of an image captured by the image capturing unit 100 according to the present embodiment and an image combined by the image combining unit 126. FIG. 2A shows an image 200 captured by the imaging unit 100. FIG. 2B shows an image 210 picked up by the image pickup unit 100. FIG. 2C shows an image 220 synthesized by the image synthesis unit 126. In this example, the imaging device 10 captures two images, an image 200 and an image 210, and synthesizes the two images. Note that, instead of this, the imaging device 10 may capture and combine three or more images.

撮像部100は、画像200及び画像210を、互いに異なる露光時間で撮像する。本例においては、撮像部100は、画像200の露光時間が、画像210の露光時間より短くなるべく、それぞれの画像を撮像する。そして、領域検出部122は、撮像された画像の中央近傍の領域を、被写体の動きがより小さい領域として検出すると共に、画像の周辺の領域を、被写体の動きがより大きい領域として検出する。例えば、領域検出部122は、画像200においては、枠202の内側の領域Bを、被写体の動きがより小さい領域として検出し、枠202の外側の領域Aを、被写体の動きがより大きい領域として検出する。また、領域検出部122は、画像210においては、枠212の内側の領域Dを、被写体の動きがより小さい領域として検出し、枠212の外側の領域Cを、被写体の動きがより大きい領域として検出する。   The imaging unit 100 captures the image 200 and the image 210 with different exposure times. In this example, the imaging unit 100 captures each image so that the exposure time of the image 200 is shorter than the exposure time of the image 210. Then, the region detection unit 122 detects a region near the center of the captured image as a region with a smaller subject motion, and detects a region around the image as a region with a larger subject motion. For example, in the image 200, the area detection unit 122 detects the area B inside the frame 202 as an area where the subject's movement is smaller, and sets the area A outside the frame 202 as an area where the subject's movement is larger. To detect. In addition, in the image 210, the area detection unit 122 detects the area D inside the frame 212 as an area where the movement of the subject is smaller, and sets the area C outside the frame 212 as an area where the movement of the subject is larger. To detect.

そして、画像選択部124は、被写体の動きがより小さい領域として検出された、画像の中央近傍の領域に、露光時間のより長い画像210を対応付ける。また、画像選択部124は、被写体の動きがより大きい領域として検出された、画像の周辺の領域に、露光時間のより短い画像200を対応付ける。そして、画像合成部126は、画像210から、中央近傍の領域の画像、つまり領域Dの画像を抽出する。また、画像合成部126は、画像200から、周辺の領域の画像、つまり領域Aの画像を抽出する。そして、画像合成部126は、抽出した領域Dの画像と領域Aの画像とを合成して、画像220を得る。   Then, the image selection unit 124 associates the image 210 having a longer exposure time with the region near the center of the image detected as a region where the movement of the subject is smaller. Further, the image selection unit 124 associates the image 200 with the shorter exposure time with the peripheral area of the image detected as the area where the movement of the subject is larger. Then, the image composition unit 126 extracts an image of the area near the center, that is, an image of the area D from the image 210. Further, the image composition unit 126 extracts an image of a peripheral area, that is, an image of the area A from the image 200. Then, the image composition unit 126 synthesizes the extracted image of the region D and the image of the region A to obtain an image 220.

撮像装置10が、車両の前方または後方を撮像するべく、車両に設けられている場合、撮像される画像は、消失点から周辺に向かう方向、または周辺から消失点に向かう方向に流れる。そして、撮像される画像の流れは、消失点からより遠い程、より大きくなる。多くの場合、撮像装置10は、車両が直進している間、画像の中心と消失点とが略一致するべく設けられているので、画像の中央近傍の領域では、画像の流れ、つまり露光時間中における被写体の動きはより小さく、また、画像の周辺の領域では、画像の流れはより大きい。従って、本実施形態に係る撮像装置10によれば、画像の中央近傍の領域には露光時間の長い画像を対応付けると共に、画像の周辺の領域には露光時間の短い画像を対応付けて、画像を合成することにより、被写体の動きを画像認識等により検出するといった複雑な処理を行わずに、簡易な構成で、品質の高い画像を得ることができる。   When the imaging device 10 is provided in a vehicle so as to capture the front or rear of the vehicle, the captured image flows in a direction from the vanishing point toward the periphery or from the periphery toward the vanishing point. And the flow of the imaged image becomes larger as it is farther from the vanishing point. In many cases, the imaging device 10 is provided so that the center of the image and the vanishing point substantially coincide with each other while the vehicle is traveling straight, so that in the region near the center of the image, the flow of the image, that is, the exposure time. The movement of the subject inside is smaller, and the flow of the image is larger in the area around the image. Therefore, according to the imaging device 10 according to the present embodiment, an image with a long exposure time is associated with an area near the center of the image, and an image with a short exposure time is associated with an area near the image. By synthesizing, a high-quality image can be obtained with a simple configuration without performing a complicated process of detecting the movement of the subject by image recognition or the like.

なお、以上の説明において、領域検出部122は、画像の中央近傍の領域を、被写体の動きがより小さい領域として検出すると共に、画像の周辺の領域を、被写体の動きがより大きい領域として検出していた。しかし、これに代えて、領域検出部122は、撮像装置10が設けられた車両の進行方向、撮像部100の位置、光学系102における光軸の向き、及び光学系102とCCD104との位置関係等に基づいて、撮像部100により撮像された画像における消失点の位置を算出すると共に、消失点の近傍の領域を、被写体の動きがより小さい領域として検出してもよい。なお、この場合、領域検出部122は、車両の進行方向を、例えば、車両に設けられたステアリングにおける舵角に基づいて算出してよい。   In the above description, the region detection unit 122 detects a region near the center of the image as a region with a smaller subject motion, and detects a region around the image as a region with a larger subject motion. It was. However, instead of this, the area detection unit 122 is configured such that the traveling direction of the vehicle in which the imaging device 10 is provided, the position of the imaging unit 100, the direction of the optical axis in the optical system 102, and the positional relationship between the optical system 102 and the CCD 104. Based on the above, the position of the vanishing point in the image captured by the imaging unit 100 may be calculated, and the area near the vanishing point may be detected as an area where the movement of the subject is smaller. In this case, the region detection unit 122 may calculate the traveling direction of the vehicle based on, for example, a steering angle in steering provided in the vehicle.

図3は、本実施形態に係る撮像部100により撮像された画像の他の例を示す。本例において、撮像装置10は、画像310及び画像320という2枚の画像を撮像して、当該2枚の画像を合成する。なお、撮像装置10は、これに代えて、3枚以上の画像を撮像して合成してもよい。本例における撮像部100は、画像310及び画像320を、互いに異なる露光時間で撮像する。例えば、撮像部100は、画像310の露光時間が、画像320の露光時間より短くなるべく、それぞれの画像を撮像する。また、撮像部100は、更に、画像310及び画像320を撮像する前に画像300を撮像すると共に、画像310及び画像320を撮像した後に画像330を撮像する。   FIG. 3 shows another example of an image captured by the imaging unit 100 according to the present embodiment. In this example, the imaging device 10 captures two images, an image 310 and an image 320, and synthesizes the two images. Note that, instead of this, the imaging device 10 may capture and combine three or more images. The imaging unit 100 in this example captures the image 310 and the image 320 with different exposure times. For example, the imaging unit 100 captures each image so that the exposure time of the image 310 is shorter than the exposure time of the image 320. Further, the imaging unit 100 captures the image 300 before capturing the image 310 and the image 320, and captures the image 330 after capturing the image 310 and the image 320.

そして、領域検出部122は、画像300及び画像330を比較することにより、被写体の動きの大きさを検出する。例えば、領域検出部122は、画像300及び画像330に対して、公知の相互相関法等を用いて、画像300及び画像330の双方に含まれる複数の被写体のそれぞれにおける、画像300から画像330までの位置の変化を検出する。そして、領域検出部122は、画像を複数の領域に分割して、当該複数の領域のそれぞれにおける被写体の動きの大きさを、当該領域に含まれる被写体について検出した位置の変化の大きさとする。ここで、複数の領域とは、例えば、画像を縦方向にm分割すると共に、横方向にn分割することにより得られる領域であってよい。また、領域検出部122は、位置の変化を検出した複数の被写体のそれぞれにおける画像内の位置を、画像300及び画像330のそれぞれにおける当該被写体の位置の中間位置として定めることにより、複数の領域のそれぞれに、何れの被写体が含まれるかを判定してよい。   Then, the area detection unit 122 detects the magnitude of the movement of the subject by comparing the image 300 and the image 330. For example, the region detection unit 122 uses the well-known cross-correlation method or the like for the image 300 and the image 330, and from the image 300 to the image 330 in each of a plurality of subjects included in both the image 300 and the image 330. Change of position is detected. Then, the area detection unit 122 divides the image into a plurality of areas, and sets the magnitude of the movement of the subject in each of the plurality of areas as the magnitude of the change in position detected for the subject included in the area. Here, the plurality of regions may be, for example, regions obtained by dividing an image into m in the vertical direction and n in the horizontal direction. In addition, the area detection unit 122 determines the position in the image of each of the plurality of subjects from which the change in position is detected as an intermediate position of the position of the subject in each of the images 300 and 330. It may be determined which subject is included in each.

そして、画像選択部124は、複数の領域のそれぞれについて、当該領域における被写体の動きの大きさが、予め定められた基準値以上である場合には、露光時間のより短い画像310を選択して当該領域に対応付けると共に、当該領域における被写体の動きの大きさが、予め定められた基準値以下である場合には、露光時間のより長い画像320を選択して当該領域に対応付ける。ここで、予め定められた基準値とは、例えば、画像310及び画像320の露光時間等に基づいて、撮像装置10の製造者や利用者によって定められた値であってよい。そして、画像合成部126は、複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出し、抽出した画像を一枚の画像に合成する。   Then, for each of the plurality of areas, the image selection unit 124 selects an image 310 having a shorter exposure time when the magnitude of the movement of the subject in the area is equal to or greater than a predetermined reference value. In addition to associating with the area, if the magnitude of movement of the subject in the area is equal to or less than a predetermined reference value, an image 320 having a longer exposure time is selected and associated with the area. Here, the predetermined reference value may be a value determined by the manufacturer or user of the imaging device 10 based on the exposure time of the image 310 and the image 320, for example. Then, the image composition unit 126 extracts the image of the region from the images associated with each of the plurality of regions, and composites the extracted images into one image.

本実施形態に係る撮像装置10によれば、撮像した画像から被写体の動きを検出することにより、撮像装置10が車両の進行方向の前方または後方を撮像していない場合、或いは、静止している撮像装置10が、任意の方向に移動している被写体を撮像する場合であっても、画像の領域毎に被写体の動きの大きさを検出することができる。そして、検出した被写体の動きの大きさに基づいて、画像の領域毎に、ブレの無い画像を選択して合成することにより、品質の高い画像を得ることができる。また、合成する画像の前後に撮像した少なくとも2枚の画像を用いて、被写体の動きを検出することにより、当該少なくとも2枚の画像を、共に、合成する画像の前に撮像する場合、または、共に、合成する画像の後に撮像する場合に比べて、合成する画像における被写体の動きを、より高い精度で検出することができる。更に、合成する画像の前後に撮像した少なくとも2枚の画像は、合成する少なくとも2枚の画像に比べて、撮像間隔がより長いので、被写体の動きを、より高い精度で検出することができる。   According to the imaging device 10 according to the present embodiment, by detecting the movement of the subject from the captured image, the imaging device 10 is not imaging the front or rear in the traveling direction of the vehicle, or is stationary. Even when the imaging device 10 captures a subject moving in an arbitrary direction, the magnitude of the subject's movement can be detected for each region of the image. A high-quality image can be obtained by selecting and synthesizing a non-blurred image for each region of the image based on the detected movement of the subject. In addition, by detecting the movement of the subject using at least two images captured before and after the image to be combined, the at least two images are imaged together before the image to be combined, or In both cases, it is possible to detect the movement of the subject in the image to be combined with higher accuracy than in the case of imaging after the image to be combined. Furthermore, since at least two images captured before and after the image to be combined have a longer imaging interval than at least two images to be combined, the movement of the subject can be detected with higher accuracy.

なお、被写体の動きを検出するべく撮像する画像は、例えば、双方の画像に含まれる被写体を認識可能な範囲の中で、可能な限り短い露光時間で撮像されることが好ましい。これにより、1枚の合成画像を生成するために必要な画像を撮像する時間を、より短縮することができる。   In addition, it is preferable that the image picked up to detect the movement of the subject is picked up with the shortest possible exposure time, for example, within the range where the subject included in both images can be recognized. Thereby, it is possible to further reduce the time required to capture an image necessary for generating one composite image.

また、以上の説明において、撮像装置10は、合成する画像の前後に撮像された画像を用いて、被写体の動きを検出するとした。しかし、これに代えて、撮像装置10は、他の画像を用いて、被写体の動きを検出してもよい。例えば、撮像装置10は、合成する少なくとも2枚の画像を用いて、被写体の動きを検出してもよい。また、撮像装置10が、表示する画像を、毎秒30フレーム等の頻度で更新し続ける場合において、撮像装置10は、それぞれのフレーム画像について、当該フレーム画像として合成する少なくとも2枚の画像のみを撮像すると共に、一のフレーム画像を合成する場合に、直前に表示されるフレーム画像として合成する画像の何れかと、直後に表示されるフレーム画像として合成する画像の何れかとを比較することにより、当該一のフレーム画像として合成する画像における被写体の動きの大きさを検出してもよい。これにより、撮像すべき画像の枚数を低減させることができるので、より高いフレームレートで画像を表示することができる。   In the above description, the imaging apparatus 10 detects the movement of the subject using images taken before and after the image to be combined. However, instead of this, the imaging apparatus 10 may detect the movement of the subject using another image. For example, the imaging device 10 may detect the movement of the subject using at least two images to be combined. Further, when the imaging device 10 continues to update the image to be displayed at a frequency of 30 frames per second or the like, the imaging device 10 captures only at least two images to be combined as the frame image for each frame image. At the same time, when one frame image is synthesized, one of the images to be synthesized as the frame image displayed immediately before is compared with one of the images to be synthesized as the frame image displayed immediately after that. The magnitude of the movement of the subject in the image to be synthesized as the frame image may be detected. Thereby, since the number of images to be captured can be reduced, images can be displayed at a higher frame rate.

図4は、本実施形態に係る撮像装置10を用いる撮像方法における処理の流れの一例を示すフローチャートである。まず、撮像部100は、複数の画像を、互いに異なる露光時間で撮像する(S1000)。ここで、撮像部100は、複数の画像のうち、露光時間がより短い画像を撮像する場合に、絞りをより大きくしてよい。また、撮像部100は、複数の画像のうち、露光時間がより短い画像を撮像する場合に、感度をより高くしてよい。これにより、露光時間が短い場合であっても、光量の低下の影響を低減して、より高い品質の画像を撮像することができる。   FIG. 4 is a flowchart illustrating an example of a process flow in an imaging method using the imaging apparatus 10 according to the present embodiment. First, the imaging unit 100 captures a plurality of images with different exposure times (S1000). Here, the imaging unit 100 may enlarge the aperture when capturing an image having a shorter exposure time among a plurality of images. Further, the imaging unit 100 may increase the sensitivity when capturing an image having a shorter exposure time among a plurality of images. Thereby, even when the exposure time is short, it is possible to reduce the influence of a decrease in the amount of light and capture a higher quality image.

また、撮像部100は、当該複数の画像を順次撮像してよく、これに代えて、当該複数の画像を略同時に撮像してもよい。例えば、撮像部100は、CCD104において、受光素子に電荷が蓄積され始めてから、蓄積された電荷が読み出されるまでの時間を、全ての画素について一定の時間とするのではなく、画素毎に異なる時間とすることにより、複数の画像を略同時に撮像してもよい。   In addition, the imaging unit 100 may sequentially capture the plurality of images, and instead may capture the plurality of images substantially simultaneously. For example, the imaging unit 100 does not set the time from when charges are accumulated in the light receiving element until the accumulated charges are read out in the CCD 104 as a constant time for all pixels, but different times for each pixel. By doing so, a plurality of images may be taken substantially simultaneously.

続いて、領域検出部122は、撮像部100により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する(S1010)。続いて、画像選択部124は、複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、撮像された複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける(S1020)。続いて、画像合成部126は、画像選択部124によって複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、複数の領域のそれぞれについて抽出した画像を合成する(S1030)。ここで、画像合成部126は、抽出したそれぞれの画像の境界を滑らかに接続するべく、それぞれの画像に対して、拡大、縮小、トリミング、色調整等の画像処理を行ってもよい。続いて、表示部130は、画像合成部126によって合成された画像を表示して、利用者に提供する(S1040)。   Subsequently, the region detection unit 122 detects a plurality of regions in the image captured by the image capturing unit 100 that have different subject motion magnitudes (S1010). Subsequently, for each of the plurality of regions, the image selection unit 124 selects an image having a shorter exposure time from the plurality of captured images as the subject movement in the region increases, Correlate (S1020). Subsequently, the image composition unit 126 extracts the image of the region from the image associated with each of the plurality of regions by the image selection unit 124, and combines the images extracted for each of the plurality of regions (S1030). ). Here, the image composition unit 126 may perform image processing such as enlargement, reduction, trimming, and color adjustment on each image in order to smoothly connect the boundaries of the extracted images. Subsequently, the display unit 130 displays the image synthesized by the image synthesis unit 126 and provides it to the user (S1040).

なお、以上の説明において、撮像装置10は車両に設けられていたが、これに代えて、撮像装置10は、他の移動体に設けられ、当該他の移動体の周囲を撮像してよい。例えば、撮像装置10は、内視鏡に設けられてもよい。これにより、内視鏡を用いて体内の器官や組織を検査する場合に、内視鏡を動かしている場合であっても、ブレのない、品質の高い画像を得ることができる。更に、撮像部100は、移動体に設けられる代わりに、静止している物体に設けられていてもよい。   In the above description, the imaging device 10 is provided in the vehicle. However, instead of this, the imaging device 10 may be provided in another moving body and image the surroundings of the other moving body. For example, the imaging device 10 may be provided in an endoscope. Thereby, when inspecting an internal organ or tissue using an endoscope, even if the endoscope is moved, a high-quality image without blurring can be obtained. Furthermore, the imaging unit 100 may be provided on a stationary object instead of being provided on the moving body.

図5は、本実施形態に係るコンピュータ1500のハードウェア構成の一例を示すブロック図である。本発明の実施形態に係るコンピュータ1500は、ホストコントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィックコントローラ1575、及び表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホストコントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスクドライブ1550、及び入出力チップ1570を有するレガシー入出力部とを備える。   FIG. 5 is a block diagram illustrating an example of a hardware configuration of a computer 1500 according to the present embodiment. A computer 1500 according to the embodiment of the present invention is connected to a CPU peripheral unit including a CPU 1505, a RAM 1520, a graphic controller 1575, and a display device 1580 connected to each other by a host controller 1582, and to the host controller 1582 by an input / output controller 1584. An input / output unit having a communication interface 1530, a hard disk drive 1540, and a CD-ROM drive 1560, and a legacy input / output unit having a ROM 1510, a flexible disk drive 1550, and an input / output chip 1570 connected to the input / output controller 1584. Prepare.

ホストコントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505及びグラフィックコントローラ1575とを接続する。CPU1505は、ROM1510及びRAM1520に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィックコントローラ1575は、CPU1505等がRAM1520内に設けたフレームバッファ上に生成する画像データを取得し、表示装置1580上に表示させる。これに代えて、グラフィックコントローラ1575は、CPU1505等が生成する画像データを格納するフレームバッファを、内部に含んでもよい。   The host controller 1582 connects the RAM 1520 to the CPU 1505 and the graphic controller 1575 that access the RAM 1520 at a high transfer rate. The CPU 1505 operates based on programs stored in the ROM 1510 and the RAM 1520 and controls each unit. The graphic controller 1575 acquires image data generated by the CPU 1505 or the like on a frame buffer provided in the RAM 1520 and displays the image data on the display device 1580. Alternatively, the graphic controller 1575 may include a frame buffer that stores image data generated by the CPU 1505 or the like.

入出力コントローラ1584は、ホストコントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、コンピュータ1500内のCPU1505が使用するプログラム及びデータを格納する。通信インターフェイス1530は、ネットワークを介して撮像装置10と通信し、撮像装置10にプログラム及びデータを提供する。CD−ROMドライブ1560は、CD−ROM1595からプログラム又はデータを読み取り、RAM1520を介してハードディスクドライブ1540及び通信インターフェイス1530に提供する。   The input / output controller 1584 connects the host controller 1582 to the hard disk drive 1540, the communication interface 1530, and the CD-ROM drive 1560, which are relatively high-speed input / output devices. The hard disk drive 1540 stores programs and data used by the CPU 1505 in the computer 1500. The communication interface 1530 communicates with the imaging device 10 via a network, and provides programs and data to the imaging device 10. The CD-ROM drive 1560 reads a program or data from the CD-ROM 1595 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520.

また、入出力コントローラ1584には、ROM1510と、フレキシブルディスクドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、コンピュータ1500が起動時に実行するブートプログラムや、コンピュータ1500のハードウェアに依存するプログラム等を格納する。フレキシブルディスクドライブ1550は、フレキシブルディスク1590からプログラム又はデータを読み取り、RAM1520を介してハードディスクドライブ1540及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスクドライブ1550や、例えばパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して各種の入出力装置を接続する。   The input / output controller 1584 is connected to the ROM 1510, the flexible disk drive 1550, and the relatively low-speed input / output device of the input / output chip 1570. The ROM 1510 stores a boot program executed when the computer 1500 is started up, a program depending on the hardware of the computer 1500, and the like. The flexible disk drive 1550 reads a program or data from the flexible disk 1590 and provides it to the hard disk drive 1540 and the communication interface 1530 via the RAM 1520. The input / output chip 1570 connects various input / output devices via the flexible disk drive 1550 and, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

RAM1520を介して通信インターフェイス1530に提供される撮像プログラムは、フレキシブルディスク1590、CD−ROM1595、又はICカード等の記録媒体に格納されて利用者によって提供される。撮像プログラムは、記録媒体から読み出され、RAM1520を介して通信インターフェイス1530に提供され、ネットワークを介して撮像装置10に送信される。撮像装置10に送信された撮像プログラムは、撮像装置10においてインストールされて実行される。撮像装置10にインストールされて実行される撮像プログラムは、撮像装置10を、図1から図4にかけて説明した撮像装置10として機能させる。   The imaging program provided to the communication interface 1530 via the RAM 1520 is stored in a recording medium such as the flexible disk 1590, the CD-ROM 1595, or an IC card and provided by the user. The imaging program is read from the recording medium, provided to the communication interface 1530 via the RAM 1520, and transmitted to the imaging device 10 via the network. The imaging program transmitted to the imaging device 10 is installed and executed in the imaging device 10. An imaging program that is installed and executed in the imaging apparatus 10 causes the imaging apparatus 10 to function as the imaging apparatus 10 described with reference to FIGS. 1 to 4.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1500に提供してもよい。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1590 and the CD-ROM 1595, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the computer 1500 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

本発明の実施形態に係る撮像装置10の構成の一例を示すブロック図である。It is a block diagram showing an example of composition of imaging device 10 concerning an embodiment of the present invention. 本発明の実施形態に係る撮像部100により撮像された画像、及び画像合成部126により合成された画像の一例を示す図である。It is a figure which shows an example of the image imaged by the imaging part 100 which concerns on embodiment of this invention, and the image synthesize | combined by the image synthetic | combination part 126. FIG. 本発明の実施形態に係る撮像部100により撮像された画像の他の例を示す図である。It is a figure which shows the other example of the image imaged by the imaging part 100 which concerns on embodiment of this invention. 本発明の実施形態に係る撮像装置10を用いる撮像方法における処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a process in the imaging method using the imaging device 10 which concerns on embodiment of this invention. 本発明の実施形態に係るコンピュータ1500のハードウェア構成の一例を示すブロック図である。It is a block diagram which shows an example of the hardware constitutions of the computer 1500 concerning embodiment of this invention.

符号の説明Explanation of symbols

10 撮像装置、100 撮像部、102 光学系、104 CCD、106 信号処理部、110 バッファ、120 画像処理部、122 領域検出部、124 画像選択部、126 画像合成部、130 表示部 DESCRIPTION OF SYMBOLS 10 Imaging device, 100 Imaging part, 102 Optical system, 104 CCD, 106 Signal processing part, 110 Buffer, 120 Image processing part, 122 Area | region detection part, 124 Image selection part, 126 Image composition part, 130 Display part

Claims (13)

移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像装置であって、
互いに異なる露光時間で複数の画像を撮像する撮像部と、
前記撮像部により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出部と、
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択部と、
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成部と
を備え
前記領域検出部は、画像の中央近傍の領域を、被写体の動きがより小さい領域として検出すると共に、画像の周辺の領域を、被写体の動きがより大きい領域として検出する
撮像装置。
An imaging device provided in the moving body to capture an image of the front or rear of the moving body,
An imaging unit that captures a plurality of images with different exposure times;
An area detection unit for detecting a plurality of areas in which the magnitude of movement of the subject in the image captured by the imaging unit is different;
For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection unit that selects an image having a shorter exposure time from the plurality of images and associates the image with the region.
An image combining unit that extracts an image of the region from an image associated with each of the plurality of regions and combines the extracted images for each of the plurality of regions ;
The imaging device detects an area near the center of the image as an area where the movement of the subject is smaller, and detects an area around the image as an area where the movement of the subject is larger .
移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像装置であって、An imaging device provided in the moving body to capture an image of the front or rear of the moving body,
互いに異なる露光時間で複数の画像を撮像する撮像部と、An imaging unit that captures a plurality of images with different exposure times;
前記撮像部により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出部と、An area detection unit for detecting a plurality of areas in which the magnitude of movement of the subject in the image captured by the imaging unit is different;
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択部と、For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection unit that selects an image having a shorter exposure time from the plurality of images and associates the image with the region.
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成部とAn image synthesizing unit that extracts an image of the area from an image associated with each of the plurality of areas and combines the extracted images for each of the plurality of areas;
を備え、With
前記撮像部は、前記複数の画像を撮像する前、及び前記複数の画像を撮像した後のそれぞれにおいて、更に画像を撮像し、The imaging unit further captures images before capturing the plurality of images and after capturing the plurality of images,
前記領域検出部は、前記複数の画像が撮像される前、及び前記複数の画像が撮像された後のそれぞれにおいて更に撮像された画像を比較することにより、被写体の動きの大きさを検出するThe area detection unit detects the magnitude of the movement of the subject by comparing the images further captured before the plurality of images are captured and after the plurality of images are captured.
撮像装置。Imaging device.
移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像装置であって、An imaging device provided in the moving body to capture an image of the front or rear of the moving body,
互いに異なる露光時間で複数の画像を撮像する撮像部と、An imaging unit that captures a plurality of images with different exposure times;
前記撮像部により撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出部と、An area detection unit for detecting a plurality of areas in which the magnitude of movement of the subject in the image captured by the imaging unit is different;
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択部と、For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection unit that selects an image having a shorter exposure time from the plurality of images and associates the image with the region.
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成部とAn image synthesizing unit that extracts an image of the area from an image associated with each of the plurality of areas and combines the extracted images for each of the plurality of areas;
を備え、With
前記領域検出部は、前記撮像部により撮像される画像における消失点の位置を算出し、前記消失点の位置を含む前記画像の領域を、被写体の動きがより小さい領域として検出すると共に、検出された前記領域以外の前記画像の領域を被写体の動きがより大きい領域として検出するThe area detection unit calculates the position of the vanishing point in the image captured by the imaging unit, detects the area of the image including the position of the vanishing point as an area where the movement of the subject is smaller, and is detected. The area of the image other than the area is detected as an area where the movement of the subject is larger.
撮像装置。Imaging device.
前記領域検出部は、前記移動体に設けられたステアリングにおける舵角に基づく前記移動体の進行方向に基づいて前記消失点の位置を算出するThe region detecting unit calculates the position of the vanishing point based on a traveling direction of the moving body based on a steering angle in a steering provided on the moving body.
請求項3に記載の撮像装置。The imaging device according to claim 3.
前記撮像部は、前記複数の画像のうち、露光時間がより短い画像を撮像する場合に、絞りをより大きくする請求項1から請求項4のいずれか1つに記載の撮像装置。 The imaging device according to any one of claims 1 to 4, wherein the imaging unit further increases a diaphragm when capturing an image having a shorter exposure time among the plurality of images. 前記撮像部は、前記複数の画像のうち、露光時間がより短い画像を撮像する場合に、感度をより高くする請求項1から請求項5のいずれか1つに記載の撮像装置。 The imaging device according to any one of claims 1 to 5, wherein the imaging unit increases sensitivity when capturing an image having a shorter exposure time among the plurality of images. 前記移動体は、車両である請求項1から請求項6のいずれか1つに記載の撮像装置。 The imaging apparatus according to claim 1 , wherein the moving body is a vehicle. 合成された画像を表示する表示部を更に備える請求項1から請求項7のいずれか1つに記載の撮像装置。 The imaging apparatus according to claim 1 , further comprising a display unit that displays the synthesized image. 移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像部が、互いに異なる露光時間で複数の画像を撮像する撮像段階と、
前記撮像段階において撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出段階と、
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択段階と、
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成段階と
を備え
前記領域検出段階では、画像の中央近傍の領域を、被写体の動きがより小さい領域として検出すると共に、画像の周辺の領域を、被写体の動きがより大きい領域として検出する
撮像方法。
An imaging stage in which an imaging unit provided in the moving body to capture an image of the front or rear of the moving body captures a plurality of images with different exposure times; and
A region detection step of detecting a plurality of regions having different magnitudes of movement of the subject in the image captured in the imaging step;
For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection step of selecting an image having a shorter exposure time from the plurality of images and associating the image with the region.
An image combining step of extracting an image of the region from an image associated with each of the plurality of regions and combining the extracted images for each of the plurality of regions ;
The imaging method of detecting an area near the center of the image as an area where the movement of the subject is smaller and detecting an area around the image as an area where the movement of the subject is larger in the area detection step .
移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像部が、互いに異なる露光時間で複数の画像を撮像する撮像段階と、An imaging stage in which an imaging unit provided in the moving body to capture an image of the front or rear of the moving body captures a plurality of images with different exposure times; and
前記撮像段階において撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出段階と、A region detection step of detecting a plurality of regions having different magnitudes of movement of the subject in the image captured in the imaging step;
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択段階と、For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection step of selecting an image having a shorter exposure time from the plurality of images and associating the image with the region.
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成段階とAn image combining step of extracting an image of the area from an image associated with each of the plurality of areas and combining the extracted images for each of the plurality of areas;
を備え、With
前記撮像段階では、前記複数の画像を撮像する前、及び前記複数の画像を撮像した後のそれぞれにおいて、更に画像を撮像し、In the imaging step, before capturing the plurality of images and after capturing the plurality of images, further images are captured,
前記領域検出段階では、前記複数の画像が撮像される前、及び前記複数の画像が撮像された後のそれぞれにおいて更に撮像された画像を比較することにより、被写体の動きの大きさを検出するIn the region detection step, the magnitude of the movement of the subject is detected by comparing the further captured images before the plurality of images are captured and after the plurality of images are captured.
撮像方法。Imaging method.
移動体の前方または後方の画像を撮像するべく前記移動体に設けられる撮像部が、互いに異なる露光時間で複数の画像を撮像する撮像段階と、An imaging stage in which an imaging unit provided in the moving body to capture an image of the front or rear of the moving body captures a plurality of images with different exposure times; and
前記撮像段階において撮像される画像における、被写体の動きの大きさが異なる複数の領域を検出する領域検出段階と、A region detection step of detecting a plurality of regions having different magnitudes of movement of the subject in the image captured in the imaging step;
前記複数の領域のそれぞれについて、当該領域における被写体の動きがより大きい程、前記複数の画像のうち、露光時間のより短い画像を選択して、当該領域に対応付ける画像選択段階と、For each of the plurality of regions, the larger the movement of the subject in the region, the more the image selection step of selecting an image having a shorter exposure time from the plurality of images and associating the image with the region.
前記複数の領域のそれぞれに対応付けられた画像から、当該領域の画像を抽出すると共に、前記複数の領域のそれぞれについて抽出した画像を合成する画像合成段階とAn image combining step of extracting an image of the area from an image associated with each of the plurality of areas and combining the extracted images for each of the plurality of areas;
を備え、With
前記領域検出段階では、前記撮像部により撮像される画像における消失点の位置を算出し、前記消失点の位置を含む前記画像の領域を、被写体の動きがより小さい領域として検出すると共に、検出された前記領域以外の前記画像の領域を被写体の動きがより大きい領域として検出するIn the area detection step, the position of the vanishing point in the image captured by the imaging unit is calculated, and the area of the image including the position of the vanishing point is detected and detected as an area where the movement of the subject is smaller. The area of the image other than the area is detected as an area where the movement of the subject is larger.
撮像方法。Imaging method.
前記領域検出段階では、前記移動体に設けられたステアリングにおける舵角に基づく前記移動体の進行方向に基づいて前記消失点の位置を算出するIn the region detection stage, the position of the vanishing point is calculated based on a traveling direction of the moving body based on a steering angle in a steering provided on the moving body.
請求項11に記載の撮像方法。The imaging method according to claim 11.
コンピュータに請求項9から請求項12のいずれか1つに記載の撮像方法が備える各段階を実行させるための撮像プログラム。An imaging program for causing a computer to execute each stage included in the imaging method according to any one of claims 9 to 12.
JP2005057544A 2005-03-02 2005-03-02 Imaging apparatus, imaging method, and imaging program Expired - Fee Related JP4731953B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005057544A JP4731953B2 (en) 2005-03-02 2005-03-02 Imaging apparatus, imaging method, and imaging program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005057544A JP4731953B2 (en) 2005-03-02 2005-03-02 Imaging apparatus, imaging method, and imaging program

Publications (2)

Publication Number Publication Date
JP2006245909A JP2006245909A (en) 2006-09-14
JP4731953B2 true JP4731953B2 (en) 2011-07-27

Family

ID=37051853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005057544A Expired - Fee Related JP4731953B2 (en) 2005-03-02 2005-03-02 Imaging apparatus, imaging method, and imaging program

Country Status (1)

Country Link
JP (1) JP4731953B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104363380A (en) * 2014-10-15 2015-02-18 北京智谷睿拓技术服务有限公司 Image acquisition control method and image acquisition control device

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4513871B2 (en) 2008-02-15 2010-07-28 ソニー株式会社 Image processing method, image processing program, and image processing apparatus
JP5231284B2 (en) 2008-03-31 2013-07-10 富士フイルム株式会社 Imaging apparatus, imaging method, and program
JP5181294B2 (en) * 2008-03-31 2013-04-10 富士フイルム株式会社 Imaging system, imaging method, and program
JP4525812B2 (en) 2008-08-08 2010-08-18 株式会社デンソー Exposure setting device, exposure setting program, and image processing device
KR101926490B1 (en) * 2013-03-12 2018-12-07 한화테크윈 주식회사 Apparatus and method for processing image
US10868981B2 (en) 2016-04-27 2020-12-15 Sony Corporation Shooting control apparatus, shooting control method, and shooting apparatus

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02213319A (en) * 1989-02-13 1990-08-24 Olympus Optical Co Ltd Imaging apparatus of endoscope
JP3082971B2 (en) * 1991-08-30 2000-09-04 富士写真フイルム株式会社 Video camera, imaging method using the same, operation method thereof, and image processing apparatus and method
JP4282113B2 (en) * 1998-07-24 2009-06-17 オリンパス株式会社 IMAGING DEVICE, IMAGING METHOD, AND RECORDING MEDIUM CONTAINING IMAGING PROGRAM
JP4245699B2 (en) * 1998-09-16 2009-03-25 オリンパス株式会社 Imaging device
JP2002084453A (en) * 2000-09-07 2002-03-22 Minolta Co Ltd Image pickup device
JP3731729B2 (en) * 2000-12-20 2006-01-05 松下電器産業株式会社 Image composition circuit
JP4742453B2 (en) * 2001-06-20 2011-08-10 ソニー株式会社 Imaging method and apparatus
JP3974798B2 (en) * 2002-03-06 2007-09-12 オリンパス株式会社 Imaging device
JP2004221992A (en) * 2003-01-15 2004-08-05 Canon Inc Imaging device and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104363380A (en) * 2014-10-15 2015-02-18 北京智谷睿拓技术服务有限公司 Image acquisition control method and image acquisition control device
CN104363380B (en) * 2014-10-15 2017-10-27 北京智谷睿拓技术服务有限公司 IMAQ control method and device

Also Published As

Publication number Publication date
JP2006245909A (en) 2006-09-14

Similar Documents

Publication Publication Date Title
JP5111088B2 (en) Imaging apparatus and image reproduction apparatus
JP6157242B2 (en) Image processing apparatus and image processing method
EP2424226B1 (en) Image-processing apparatus and method, and program
JP5414405B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4731953B2 (en) Imaging apparatus, imaging method, and imaging program
US8208017B2 (en) Imaging device, product package, and semiconductor integrated circuit
US20120092529A1 (en) Method for processing an image and an image photographing apparatus applying the same
WO2008032442A1 (en) Image processing device, electronic camera and image processing program
CN107040713B (en) Motion vector detection apparatus, control method therefor, and image pickup apparatus
US8767096B2 (en) Image processing method and apparatus
JP4821642B2 (en) Image processing method, image processing apparatus, digital camera, and image processing program
US9258492B2 (en) Image processing apparatus, image pickup apparatus including image processing apparatus, image processing method, and storage medium in which program is stored for acquiring and processing images taken at different focus positions
JP2015053741A (en) Image reproduction device
JP2010187348A (en) Apparatus, method and program for image processing
JP5143172B2 (en) Imaging apparatus and image reproduction apparatus
JP2008099260A (en) Image processing device, electronic camera and image processing program
US7406182B2 (en) Image capturing apparatus, image capturing method, and machine readable medium storing thereon image capturing program
JP2008160620A (en) Image processing apparatus and imaging apparatus
US9066010B2 (en) Photographing apparatus, photographing method and medium recording photographing control program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP4531609B2 (en) Imaging apparatus, imaging method, and imaging program
JP5055571B2 (en) Image processing apparatus, electronic camera, and image processing program
JP2012109899A (en) Image processing device
JP2009027437A (en) Image processor, image processing method and imaging device
JP2009089083A (en) Age estimation photographing device and age estimation photographing method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061211

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110420

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees