JP5537870B2 - Vehicle monitoring device - Google Patents

Vehicle monitoring device Download PDF

Info

Publication number
JP5537870B2
JP5537870B2 JP2009200706A JP2009200706A JP5537870B2 JP 5537870 B2 JP5537870 B2 JP 5537870B2 JP 2009200706 A JP2009200706 A JP 2009200706A JP 2009200706 A JP2009200706 A JP 2009200706A JP 5537870 B2 JP5537870 B2 JP 5537870B2
Authority
JP
Japan
Prior art keywords
image
infrared light
light
infrared
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009200706A
Other languages
Japanese (ja)
Other versions
JP2011055135A (en
JP2011055135A5 (en
Inventor
雅英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rohm Co Ltd
Original Assignee
Rohm Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rohm Co Ltd filed Critical Rohm Co Ltd
Priority to JP2009200706A priority Critical patent/JP5537870B2/en
Publication of JP2011055135A publication Critical patent/JP2011055135A/en
Publication of JP2011055135A5 publication Critical patent/JP2011055135A5/ja
Application granted granted Critical
Publication of JP5537870B2 publication Critical patent/JP5537870B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像センサとその活用に関する。 The present invention relates to an image sensor and its utilization.

光電変換手段としては、日々、種々の特性のものが提案されている。また、従来から、カラー画像のための撮像センサや赤外画像のための撮像センサも種々提案されている。さらにこれらの撮像センサを活用した交通事故防止のための車両用の監視装置について種々の提案がなされている。例えば特開2001−18738号公報(特許文献1)には、ヘッドライトの照射範囲外にある対象物を赤外線カメラにより撮像して表示することが提案されている。また特開2005−202815号公報(特許文献2)には、太陽光が分光照射度を有しない特定波長帯域の近赤外光を照射し、当該特定波長帯域のみを透過するバンドパスフィルタを光軸上に配設した赤外線カメラで撮像することにより、昼間であっても太陽光の影響を受けずに交差点における情報を運転者に提供することが提案されている。 As photoelectric conversion means, those having various characteristics are proposed every day. Conventionally, various image sensors for color images and image sensors for infrared images have been proposed. Furthermore, various proposals have been made on a vehicle monitoring apparatus for preventing traffic accidents using these image sensors. For example, Japanese Patent Laid-Open No. 2001-18738 (Patent Document 1) proposes to capture and display an object outside the irradiation range of the headlight with an infrared camera. Japanese Patent Application Laid-Open No. 2005-202815 (Patent Document 2) irradiates a band-pass filter that irradiates near-infrared light in a specific wavelength band where sunlight does not have a spectral irradiation degree and transmits only the specific wavelength band. It has been proposed to provide a driver with information at an intersection without being affected by sunlight even by daylight by taking an image with an infrared camera arranged on the axis.

特開2001−18738号公報JP 2001-18738 A 特開2005−202815号公報JP 2005-202815 A

しかしながら、光電変換手段において提案されている種々の特性はまだ充分活用されているとは言えず、さらに検討すべき課題が多い。 However, the various characteristics proposed in the photoelectric conversion means are not yet fully utilized, and there are many problems to be further examined.

本発明の課題は、上記に鑑み、光電変換手段において提案されている特性の車両用監視装置への好適な活用を提案することにある。 In view of the above, an object of the present invention is to propose a suitable use for a vehicle monitoring device having characteristics proposed in photoelectric conversion means.

上記課題を達成するため、本発明は、可視光域において60%以上の量子効率を有するとともに太陽光が大気の吸収によって地表において微弱となる赤外光域においても有効な量子効率を有している複数の受光部が規則的に配列された光電変換部と、光電変換部に被写体像を結像させる撮像レンズと、太陽光が地表において微弱となる赤外光域の赤外光を投射する赤外光投射部と、光電変換部から可視光域の画像および赤外投射部から投射された赤外光の反射画像を取得する画像処理部とを有する車両用監視装置を提供する。これによって、光電変換部からの情報に基づき、可視光域の画像および太陽光が地表において微弱となる赤外光域の反射画像を互いに関連付けて取得することができる。 In order to achieve the above object, the present invention has a quantum efficiency of 60% or more in the visible light region and also has an effective quantum efficiency in the infrared light region where sunlight becomes weak on the ground surface due to atmospheric absorption. A photoelectric conversion unit in which a plurality of light receiving units are regularly arranged, an imaging lens that forms a subject image on the photoelectric conversion unit, and infrared light in an infrared region where sunlight is weak on the ground surface There is provided a vehicle monitoring apparatus having an infrared light projection unit and an image processing unit that acquires an image in a visible light range from a photoelectric conversion unit and a reflection image of infrared light projected from the infrared projection unit. Thereby, based on information from the photoelectric conversion unit, an image in the visible light region and a reflected image in the infrared light region where sunlight is weak on the ground surface can be acquired in association with each other.

本発明の具体的な特徴によれば、複数の受光部に互いに分光透過率が異なるフィルタがそれぞれ配されるので、複数の受光部により担当波長域を分担させることができる。また、他の具体的な特徴によれば、画像処理部は、可視光域の画像と所定位置関係にある赤外光の反射画像を取得するので、取得すべき赤外光の反射画像の位置を特定することができる。より具体的特徴によれば、画像処理部は、可視光域の画像から車両の画像を抽出するので、車両からの赤外光の反射画像の位置を特定することができる。さらに具体的な特徴によれば、画像処理部は、抽出された車両の画像の重心からの赤外光の反射画像を取得するので、車両からの赤外光の反射画像の位置をより明確に特定することができる。よりさらに具体的な特徴によれば、画像処理部は、車両の画像が複数重なっている時、最も近い単独車両の画像を抽出するので、複数の車両が重なっている場合において最も近い車両からの赤外光の反射画像の位置を明確に特定することができる。 According to the specific feature of the present invention, the filters having different spectral transmittances are arranged in the plurality of light receiving units, respectively, so that the assigned wavelength region can be shared by the plurality of light receiving units. According to another specific feature, the image processing unit acquires a reflected image of infrared light that has a predetermined positional relationship with an image in the visible light range, so the position of the reflected image of infrared light to be acquired Can be specified. According to a more specific feature, the image processing unit extracts the image of the vehicle from the image in the visible light range, so that the position of the reflected image of the infrared light from the vehicle can be specified. According to a more specific feature, the image processing unit acquires the reflected image of the infrared light from the center of gravity of the extracted vehicle image, so the position of the reflected image of the infrared light from the vehicle is more clearly defined. Can be identified. According to an even more specific feature, the image processing unit extracts the image of the closest single vehicle when a plurality of vehicle images overlap, so that the image from the closest vehicle in the case where the plurality of vehicles overlap each other is extracted. The position of the reflected image of infrared light can be clearly specified.

本発明の他の具体的な特徴によれば赤外光投射部はビーム状の赤外光を投射するので、反射画像の位置を明確に特定することができる。本発明の他の具体的な特徴によれば、画像処理部が取得する赤外光の反射光画像位置と赤外光投射部からの赤外光投射方向により反射対象までの距離を算出する。本発明の他の具体的な特徴によれば、赤外光投射部による赤外光投射方向が可変であり、これによって広い領域の反射対象をスキャンできる。 According to another specific feature of the present invention, the infrared light projection unit projects beam-shaped infrared light, so that the position of the reflected image can be clearly identified. According to another specific feature of the present invention, the distance to the reflection target is calculated from the reflected light image position of the infrared light acquired by the image processing unit and the infrared light projection direction from the infrared light projection unit. According to another specific feature of the present invention, the direction of infrared light projection by the infrared light projection unit is variable, which allows a wide range of reflection targets to be scanned.

本発明の他の特徴によれば、対象領域の画像を取得する画像取得部と、画像取得部から車両の画像を抽出する抽出部と、対象領域に太陽光が大気の吸収によって地表において微弱となる帯域の赤外光を投射する赤外光投射部と、抽出部が抽出した車両の画像の重心部から反射される赤外光を検知する検知部と、抽出部が抽出した車両の画像の重心部の位置と赤外光投射部からの赤外光投射方向により抽出車両までの距離を算出する制御部とを有する車両用監視装置が提供される。これによって、対象車両を特定した車間距離を測定することができる車両用監視装置が提供される。 According to another aspect of the present invention, an image acquisition unit that acquires an image of a target region, an extraction unit that extracts a vehicle image from the image acquisition unit, and sunlight on the target region is weak on the ground due to absorption of air. An infrared light projection unit for projecting infrared light in a band, a detection unit for detecting infrared light reflected from the center of gravity of the vehicle image extracted by the extraction unit, and a vehicle image extracted by the extraction unit A vehicle monitoring device is provided that includes a control unit that calculates a distance to an extracted vehicle based on the position of the center of gravity and the direction of infrared light projection from the infrared light projection unit. This provides a vehicle monitoring apparatus that can measure the inter-vehicle distance that identifies the target vehicle.

本発明の他の特徴によれば、可視領域および太陽光が大気の吸収によって地表において微弱となる帯域の赤外光に感度を有する光電変換部と、太陽光が地表において微弱となる赤外光域の赤外光を所定のタイミングで投射する赤外光投射部と、光電変換部より可視光域の受光情報を取得する可視光情報取得部と、赤外投射部による赤外光投射タイミングにおいて太陽光が地表において微弱となる赤外光域の赤外光の反射光情報を光電変換部から取得する赤外光情報取得部とを有する車両用監視装置が提供される。可視領域および太陽光が大気の吸収によって地表において微弱となる帯域の赤外光に感度を有する光電変換部の特性を有効に活用して可視光域の撮像および赤外光の取得ができる。 According to another aspect of the present invention, a photoelectric conversion unit that is sensitive to infrared light in a visible region and a band in which sunlight is weakened on the ground surface due to atmospheric absorption, and infrared light in which sunlight is weakened on the ground surface. Infrared light projection unit that projects infrared light in a region at a predetermined timing, visible light information acquisition unit that obtains light reception information in a visible light region from a photoelectric conversion unit, and infrared light projection timing by the infrared projection unit There is provided a vehicle monitoring apparatus including an infrared light information acquisition unit that acquires reflected light information of infrared light in an infrared light region where sunlight is weak on the ground surface from a photoelectric conversion unit. Imaging of the visible light region and acquisition of infrared light can be performed by effectively utilizing the characteristics of the photoelectric conversion unit that is sensitive to infrared light in the visible region and in the band where the sunlight becomes weak due to atmospheric absorption.

本発明の他の特徴によれば、青領域に感度を有する複数の受光部と、緑領域に感度を有する複数の受光部と、赤領域および太陽光が大気の吸収によって地表において微弱となる赤外光域に感度を有する複数の受光部が規則的に配列された光電変換部と、光電変換部に被写体像を結像させる撮像レンズと、太陽光が地表において微弱となる赤外光域の赤外光を投射する赤外光投射部と、光電変換部における複数の受光部より可視光域の画像情報を取得する可視光情報取得部と、光電変換部における赤領域および太陽光が大気の吸収によって地表において微弱となる赤外光域に感度を有する複数の受光部から太陽光が地表において微弱となる赤外光域の赤外光の反射光情報を取得する赤外光情報取得部とを有する車両用監視装置が提供される。これによって、赤領域および太陽光が大気の吸収によって地表において微弱となる赤外光域の両者に同じ受光部を兼用することができる。上記本発明の具体的な特徴によれば、赤領域より長波長側でかつ太陽光が大気の吸収によって地表において微弱となる赤外光域よりも短波長側をカットする帯域カットフィルタが光電変換部への光路に配され、赤領域および太陽光が大気の吸収によって地表において微弱となる赤外光域の選択的な受光を可能とする。より具体的な特徴によれば、帯域カットフィルタと代替的に、少なくとも可視光領域をカットするローパスフィルタを光電変換部への光路に配するフィルタ駆動部が設けられ、ローパスフィルタへの切換えにより太陽光が地表に到達できる赤外領域および太陽光が大気の吸収によって地表において微弱となる赤外光域の選択的な受光を可能とする。 According to another aspect of the present invention, a plurality of light receiving units having sensitivity in a blue region, a plurality of light receiving units having sensitivity in a green region, and a red region and red in which sunlight is weakened on the ground surface due to atmospheric absorption. A photoelectric conversion unit in which a plurality of light receiving units having sensitivity in the outside light region are regularly arranged, an imaging lens that forms a subject image on the photoelectric conversion unit, and an infrared light region in which sunlight is weak on the ground surface An infrared light projection unit that projects infrared light, a visible light information acquisition unit that acquires image information in the visible light region from a plurality of light receiving units in the photoelectric conversion unit, a red region and sunlight in the photoelectric conversion unit in the atmosphere An infrared light information acquisition unit for acquiring reflected light information of infrared light in the infrared light region where sunlight is weak on the ground surface from a plurality of light receiving units having sensitivity in the infrared light region that is weak on the ground surface due to absorption; There is provided a monitoring device for vehicles. Thus, the same light receiving unit can be used for both the red region and the infrared light region where sunlight is weak on the ground surface due to atmospheric absorption. According to the above-mentioned specific feature of the present invention, the band cut filter that cuts the shorter wavelength side than the infrared light region that is longer wavelength side than the red region and the sunlight becomes weak on the ground surface due to atmospheric absorption is photoelectric conversion. The red region and the sunlight are selectively received in the infrared light region that is weak on the ground surface due to atmospheric absorption. According to a more specific feature, in place of the band cut filter, there is provided a filter driving unit that arranges a low-pass filter that cuts at least the visible light region in the optical path to the photoelectric conversion unit. It is possible to selectively receive an infrared region in which light can reach the ground surface and an infrared light region in which sunlight becomes weak on the ground surface due to atmospheric absorption.

上記のように、本発明によれば、光電変換手段において提案されている種々の特性を生かした車両用の監視装置を提供することができる。   As described above, according to the present invention, it is possible to provide a vehicle monitoring apparatus that makes use of various characteristics proposed in the photoelectric conversion means.

本発明の第1実施例を示すブロック図である。(実施例1)It is a block diagram which shows 1st Example of this invention. Example 1 図1の測光兼用AFセンサおよびライブビューセンサの構成を関連する部分とともに詳細に示したブロック図であるFIG. 2 is a block diagram showing in detail the configuration of the photometry / AF sensor and the live view sensor of FIG. 1 together with related portions. 図2のCIGS撮像センサおよびCIGSAFセンサに用いられるCIGSセンサの分光感度をシリコンのCMOSセンサと比較したグラフである。It is the graph which compared the spectral sensitivity of the CIGS sensor used for the CIGS imaging sensor and CIGSAF sensor of FIG. 2 with the silicon CMOS sensor. 第1実施例におけるカメラ制御部の動作のフローチャートである。It is a flowchart of operation | movement of the camera control part in 1st Example. 本発明の第2実施例を示すブロック図である。(実施例2)It is a block diagram which shows 2nd Example of this invention. (Example 2) 第2実施例におけるカメラ制御部の動作のフローチャートである。It is a flowchart of operation | movement of the camera control part in 2nd Example. 図2または図5のライブビューセンサに用いられるCIGS撮像センサのカラーフィルタ配列の第1例である。It is a 1st example of the color filter arrangement | sequence of the CIGS imaging sensor used for the live view sensor of FIG. 2 or FIG. CIGS撮像センサのフィルタ配列の第2例である。It is a 2nd example of the filter arrangement | sequence of a CIGS image sensor. 図8のフィルタ配列を採用したCIGSセンサの模式断面図である。It is a schematic cross section of the CIGS sensor which employ | adopted the filter arrangement | sequence of FIG. CIGS撮像センサのフィルタ配列の第3例である。It is a 3rd example of the filter arrangement | sequence of a CIGS image sensor. 図5の第2実施例においてライブビューセンサの画像を記録する際のカメラ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the camera control part at the time of recording the image of a live view sensor in 2nd Example of FIG. 図11のステップS108およびステップS114に共通して利用できる処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the process which can be utilized in common with step S108 of FIG. 11, and step S114. 本発明の第3実施例を示すブロック図である。(実施例3)It is a block diagram which shows 3rd Example of this invention. (Example 3) 第3実施例に採用可能なLEDの配置の第1の例を示す正面図である。It is a front view which shows the 1st example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第2の例を示す正面図である。It is a front view which shows the 2nd example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第3の例を示す正面図である。It is a front view which shows the 3rd example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例に採用可能なLEDの配置の第4の例を示す正面図である。It is a front view which shows the 4th example of arrangement | positioning of LED employable as a 3rd Example. 第3実施例のカラー・赤外モードでの動作タイミングチャートである。It is an operation | movement timing chart in the color and infrared mode of 3rd Example. 図18の動作とカラー画像作成の関係を示すタイミングチャートである。19 is a timing chart showing the relationship between the operation of FIG. 18 and color image creation. 第3実施例の精細カラーモードでの動作タイミングチャートである。It is an operation | movement timing chart in the fine color mode of 3rd Example. 図20の動作とカラー画像作成の関係を示すタイミングチャートである。21 is a timing chart showing the relationship between the operation of FIG. 20 and color image creation. 第3実施例の赤外モードでの動作タイミングチャートである。It is an operation | movement timing chart in the infrared mode of 3rd Example. 第3実施例における内視鏡制御部の動作のフローチャートである。It is a flowchart of operation | movement of the endoscope control part in 3rd Example. 図23のステップS170の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S170 of FIG. 図24のステップS208の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S208 of FIG. 図23のステップS172の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S172 of FIG. 第3実施例におけるモニタ制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the monitor control part in 3rd Example. 本発明の第4実施例のカラー・赤外モードでの動作タイミングチャートである。(実施例4)It is an operation | movement timing chart in the color and infrared mode of 4th Example of this invention. Example 4 第4実施例の精細カラーモードでの動作タイミングチャートである。It is an operation | movement timing chart in the fine color mode of 4th Example. 本発明の第5実施例を示すブロック図である。(実施例5)It is a block diagram which shows 5th Example of this invention. (Example 5) 第5実施例の車両用監視装置の詳細を距離検知原理とともに示したブロック図である。It is the block diagram which showed the detail of the monitoring apparatus for vehicles of 5th Example with the distance detection principle. 第5実施例のCIGS撮像センサによって撮像された画像の概念図である。It is a conceptual diagram of the image imaged by the CIGS image sensor of 5th Example. 第5実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 5th Example. 第5実施例における監視記録制御部の動作のフローチャートである。It is a flowchart of operation | movement of the monitoring recording control part in 5th Example. 図34のステップS336の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S336 of FIG. 図34のステップS308および図35のステップS346の詳細を示すフローチャートである。It is a flowchart which shows the detail of step S308 of FIG. 34, and step S346 of FIG. 本発明の第6実施例の車両用監視装置の詳細を距離検知原理とともに示したブロック図である。(実施例6)It is the block diagram which showed the detail of the monitoring apparatus for vehicles of 6th Example of this invention with the distance detection principle. (Example 6) 第6実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS imaging sensor in 6th Example. 図37の第6実施例における監視記録制御部の動作のフローチャートである。It is a flowchart of operation | movement of the monitoring recording control part in 6th Example of FIG. CIGS撮像センサのフィルタ配列の第4例であり、本発明の第7実施例に用いられる。(実施例7)It is a 4th example of the filter arrangement | sequence of a CIGS image sensor, and is used for the 7th Example of this invention. (Example 7) 第7実施例におけるCIGS撮像センサのフィルタの分光透過特性のグラフである。It is a graph of the spectral transmission characteristic of the filter of the CIGS image sensor in 7th Example. 本発明の第8実施例の前方および車両用監視装置に用いられるCIGS撮像センサのカラーフィルタの分光透過特性のグラフである。(実施例8)It is a graph of the spectral transmission characteristic of the color filter of the CIGS imaging sensor used for the front of the 8th Example of this invention, and the monitoring apparatus for vehicles. (Example 8)

図1は、本発明の実施の形態に係るオートフォーカスデジタル一眼レフカメラの第1実施例を示すブロック図である。オートフォーカスデジタル一眼レフカメラはカメラボディ2およびこれに交換可能に着脱される交換レンズ4を有している。交換レンズ4のレンズ光学系6から入射した被写体光は、観察位置にあるミラー8で上方に反射され、焦点板10の位置に結像する。この像はペンタリズム12で反射された後、アイピース14で観察され、撮像ための構図決めなどが行われる。 FIG. 1 is a block diagram showing a first example of an autofocus digital single-lens reflex camera according to an embodiment of the present invention. The autofocus digital single-lens reflex camera has a camera body 2 and an interchangeable lens 4 that is detachably attached to the camera body 2. The subject light incident from the lens optical system 6 of the interchangeable lens 4 is reflected upward by the mirror 8 at the observation position and forms an image at the position of the focusing screen 10. After this image is reflected by the pentarhythm 12, it is observed by the eyepiece 14, and a composition for imaging is determined.

撮影の際には、操作部15のシャッタレリーズボタンを操作することによって、ミラー8がオートフォーカス用サブミラー16とともに撮影位置に退避するとともにフォーカルプレーンシャッタ18が開き、交換レンズ4のレンズ光学系6から入射した被写体光が撮像部20に結像して撮像される。撮像部20によって撮像された画像情報は、画像処理部22で画像処理された後、カメラ制御部24の制御により画像記憶部26に記憶される。画像記憶部26に記憶された画像情報は、適宜媒体スロット28に挿入されたメモリーカードなどの記憶媒体に転送される。また、画像記憶部26に記憶された画像情報は、カメラ制御部24の制御により、適宜入出力部30から外部に転送することができる。なお、撮影直後の画像情報は、カメラ制御部24から表示部32に送られて自動的に表示されるので、操作者は撮像した画像を確認することができる。   At the time of shooting, by operating the shutter release button of the operation unit 15, the mirror 8 is retracted to the shooting position together with the auto-focusing sub mirror 16 and the focal plane shutter 18 is opened, and the lens optical system 6 of the interchangeable lens 4 is opened. The incident subject light is imaged and imaged on the imaging unit 20. Image information captured by the image capturing unit 20 is subjected to image processing by the image processing unit 22 and then stored in the image storage unit 26 under the control of the camera control unit 24. The image information stored in the image storage unit 26 is transferred to a storage medium such as a memory card inserted into the medium slot 28 as appropriate. The image information stored in the image storage unit 26 can be appropriately transferred from the input / output unit 30 to the outside under the control of the camera control unit 24. In addition, since the image information immediately after photographing is sent from the camera control unit 24 to the display unit 32 and automatically displayed, the operator can check the captured image.

画像再生の際には、操作部15の操作により、画像記憶部26または媒体スロット28に記憶された画像情報がカメラ制御部24によって読み出され、カメラボディ2の背面に設けられた液晶等からなる表示部32に表示される。以上が、図1のオートフォーカスデジタル一眼レフカメラにおける撮像および再生に関する基本構成および基本機能である。なお、上記から明らかなように、ミラー8が観察位置にあるときは、撮像部20による被写体像の撮像は行われないので、以上の構成だけではアイピース14で観察できるリアルタイムの被写体像は表示部32に表示されることはなく、撮影後に確認ができるだけである。この点が、デジタル一眼レフカメラの特殊性であり、表示部32の画像を観察しながら構図決めができる通常のコンパクトデジタルカメラと異なるところである。   When the image is reproduced, the image information stored in the image storage unit 26 or the medium slot 28 is read by the camera control unit 24 by the operation of the operation unit 15, and is read from the liquid crystal provided on the back surface of the camera body 2. Is displayed on the display unit 32. The above is the basic configuration and basic functions related to imaging and playback in the autofocus digital single-lens reflex camera of FIG. As apparent from the above, when the mirror 8 is at the observation position, the imaging unit 20 does not capture the subject image, so the real-time subject image that can be observed with the eyepiece 14 with the above configuration is not displayed on the display unit. 32 is not displayed and can only be confirmed after shooting. This is the special characteristic of a digital single lens reflex camera, which is different from a normal compact digital camera that can determine the composition while observing the image on the display unit 32.

次に、図1のオートフォーカスデジタル一眼レフカメラにおけるオートフォーカスに関する構成と機能について説明する。交換レンズ4のレンズ光学系6から入射した被写体光の一部は、観察位置にあるミラー8中央にある半透過部を透過し、サブミラー16で下方に反射されて測光兼用オートフォーカス(以下「AF」)センサに導かれる。測光兼用AFセンサ34はサブミラー16から入射する光をAFセンサ上に再結像して分析し結果をカメラ制御部24に送る。この分析は、例えば、よく知られている瞳分割による位相差検出方式などによって撮像部20の撮像面とレンズ光学系6による結像位置のずれ方向およびその程度を分析することによって行われる。カメラ制御部24は、測光兼用AFセンサ34から得られたレンズ光学系6による結像位置のずれ方向およびその程度の情報に基づき、結像位置のずれを解消するためのレンズ光学系6の駆動量および駆動方向の情報を、AF制御部36に送る。AF駆動部38は、カメラボディ2と交換レンズ4との機械的または電気的インターフェースによってAF制御部36から伝えられる駆動量および駆動方向の情報に基づいてレンズ光学系6を駆動し、自動焦点合わせを行う。なお、測光兼用AFセンサ34の構成の詳細については後述する。   Next, the configuration and functions related to autofocus in the autofocus digital single lens reflex camera of FIG. 1 will be described. Part of the subject light incident from the lens optical system 6 of the interchangeable lens 4 is transmitted through the semi-transmissive portion at the center of the mirror 8 at the observation position, and reflected downward by the sub mirror 16 to be used for photometry / autofocus (hereinafter referred to as “AF”). ]) Guided to the sensor. The photometry / use AF sensor 34 re-images the light incident from the sub-mirror 16 on the AF sensor, analyzes it, and sends the result to the camera control unit 24. This analysis is performed, for example, by analyzing the shift direction and the degree of the image formation position between the imaging surface of the imaging unit 20 and the lens optical system 6 by a well-known phase difference detection method using pupil division. The camera control unit 24 drives the lens optical system 6 to eliminate the deviation of the imaging position based on the information on the direction and degree of deviation of the imaging position by the lens optical system 6 obtained from the AF sensor 34 for photometry. Information on the amount and the driving direction is sent to the AF control unit 36. The AF driving unit 38 drives the lens optical system 6 on the basis of information on the driving amount and driving direction transmitted from the AF control unit 36 through a mechanical or electrical interface between the camera body 2 and the interchangeable lens 4 and performs automatic focusing. I do. The details of the configuration of the photometry / AF sensor 34 will be described later.

ライブビューセンサ40は、デジタル一眼レフカメラにおいて、通常のコンパクトデジタルカメラと同様にして、表示部32の画像を観察しながら構図決めができるようにするための「ライブビュー」機能のための構成である。ペンタプリズム12の反射面12a全体が半透過性になっており、ライブビューセンサ40は、焦点板10の画像をCIGS撮像センサ上に再結像させることにより、焦点版10の画像全体を撮像できるようになっている。CIGS撮像センサは、銅(Cu)、インジウム(In)、ガリウム(Ga)およびセレン(Se)を材料とする光センサであり、その詳細は後述する。   The live view sensor 40 is configured for a “live view” function in a digital single-lens reflex camera so that the composition can be determined while observing the image on the display unit 32 in the same manner as an ordinary compact digital camera. is there. The entire reflecting surface 12a of the pentaprism 12 is semi-transmissive, and the live view sensor 40 can capture the entire image of the focal plane 10 by re-imaging the image of the focusing screen 10 on the CIGS imaging sensor. It is like that. The CIGS imaging sensor is an optical sensor made of copper (Cu), indium (In), gallium (Ga), and selenium (Se), and details thereof will be described later.

ペンタプリズム12の反射面12aは、可視光領域以外はほぼ全面的に光を透過させるとともに、可視光領域では、わずかに光を透過させるだけで大半が反射する分光透過特性になっており、アイピース14で焦点版10の像を観察する際に実質的に像が暗くなることはない。また、ライブビューセンサ40に採用されているCIGS撮像センサは、後述するように可視光領域において高い感度を有しているので、可視光領域での反射面12aの光透過率がわずかであっても、可視光領域における焦点版10の像を充分撮像することが可能である。このライブビューセンサ40への可視光の配分は、アイピース14により光学的に被写体を観察し難い暗さになったとき、CIGS撮像センサによるライブビュー用の撮像についても光量不足となるレベルとする。CIGS撮像センサを用いたライブビューセンサ40の詳細については後述する。ライブビューセンサ40で撮像された画像はカメラ制御部24に送られ、これが表示部32で表示されるので、図1のオートフォーカスデジタル一眼レフカメラは、被写体が通常の明るさである限り、通常のコンパクトデジタルカメラと同様にして、表示部32の画像を観察しながら構図決めが可能である。 The reflection surface 12a of the pentaprism 12 transmits light almost entirely except in the visible light region, and has a spectral transmission characteristic in which most of the visible light region is reflected by only slightly transmitting light. When the image of the focal plate 10 is observed at 14, the image is not substantially darkened. Further, since the CIGS imaging sensor employed in the live view sensor 40 has high sensitivity in the visible light region as described later, the light transmittance of the reflecting surface 12a in the visible light region is slight. In addition, it is possible to sufficiently capture an image of the focal plate 10 in the visible light region. The distribution of the visible light to the live view sensor 40 is set to a level at which the light quantity is insufficient for the live view imaging by the CIGS imaging sensor when it becomes dark that it is difficult to optically observe the subject by the eyepiece 14. Details of the live view sensor 40 using the CIGS imaging sensor will be described later. Since the image captured by the live view sensor 40 is sent to the camera control unit 24 and displayed on the display unit 32, the autofocus digital single-lens reflex camera shown in FIG. 1 is normal as long as the subject has normal brightness. The composition can be determined while observing the image on the display unit 32 in the same manner as the compact digital camera.

図2は、図1のオートフォーカスデジタル一眼レフカメラの第1実施例における測光兼用AFセンサ34およびライブビューセンサ40の構成を関連する部分とともに詳細に示したブロック図である。ペンタプリズム12の反射面12aは、すでに述べたように可視光領域以外はほぼ全面的に光を透過させるとともに、可視光領域では、わずかに光を透過させるだけで大半が反射する分光透過特性を有するが、多層膜52はこのような分光透過特性を実現するために反射面12aにコーティングされたものである。 FIG. 2 is a block diagram showing in detail the configuration of the photometry / use AF sensor 34 and the live view sensor 40 in the first embodiment of the autofocus digital single-lens reflex camera of FIG. As described above, the reflecting surface 12a of the pentaprism 12 transmits light almost entirely except in the visible light region, and in the visible light region, has a spectral transmission characteristic in which most of the light is reflected by only slightly transmitting light. However, the multilayer film 52 is coated on the reflecting surface 12a in order to realize such spectral transmission characteristics.

ライブビューセンサ40は、このような多層膜52を透過した焦点面10からの光束をCIGS撮像センサ54の撮像面に再結像させるための再結像レンズ56を備えている。赤外光カットフィルタ58は、多層膜52を透過してきた可視光領域以外の光を実質的にカットしてCIGS撮像センサ54の波長感度特性を撮像部20の波長感度特性に近似させるものであり、視感度に一致した被写体像を撮像してカメラ制御部24に送り、図1の表示部32でのライブビューを可能にする。なお、本発明にいう「赤外光」とは主に「近赤外光」と称される比較的可視光に近い領域の赤外光線を指すが、学会により定義が必ずしも一定でないので、以下「赤外光」と略称する。 The live view sensor 40 includes a re-imaging lens 56 for re-imaging the light beam from the focal plane 10 that has passed through the multilayer film 52 on the imaging surface of the CIGS imaging sensor 54. The infrared light cut filter 58 substantially cuts light outside the visible light region that has been transmitted through the multilayer film 52 to approximate the wavelength sensitivity characteristic of the CIGS imaging sensor 54 to the wavelength sensitivity characteristic of the imaging unit 20. Then, a subject image that matches the visibility is picked up and sent to the camera control unit 24 to enable live view on the display unit 32 of FIG. The “infrared light” in the present invention mainly refers to infrared light in a region that is relatively close to visible light, which is called “near infrared light”. Abbreviated as “infrared light”.

ライブビューセンサ40は、さらに焦点板10における明るさを測定する全画面測光を可能にしている。つまり、CIGS撮像センサ54から出力される画像情報は、全画面にわたる測光情報としてもカメラ制御部24で処理され、必要に応じAF対応部分測光センサ72の出力と組合せ慮利される。そして、これら処理結果に基づいて交換レンズ4の絞り径、フォーカルプレーンシャッタ18によるシャッタ速度、および撮像部20の感度などをコントロールする自動露出制御が行われる。 The live view sensor 40 further enables full-screen photometry for measuring the brightness on the focusing screen 10. That is, the image information output from the CIGS imaging sensor 54 is processed by the camera control unit 24 as photometric information over the entire screen, and is combined with the output of the AF-compatible partial photometric sensor 72 as necessary. Based on these processing results, automatic exposure control is performed to control the aperture diameter of the interchangeable lens 4, the shutter speed by the focal plane shutter 18, the sensitivity of the imaging unit 20, and the like.

可視光カットフィルタ60は赤外光カットフィルタ58と差し替えてCIGS撮像センサ54への光路中に挿入されるもので、「長波長モード」にて使用されるものである。多層膜52からは可視光領域以外がほぼ全面的に透過してくるので、長波長モードの設定で赤外光カットフィルタ58に替えて可視光カットフィルタ60が光路に挿入された場合は、可視光よりも長波長側域の光がCIGS撮像センサ54に入射するようになる。CIGS撮像センサ54は、後述するように、長波長側が1300nmにおよぶ分光感度を持っている。従って、可視光カットフィルタ60の挿入によってライブビューセンサ40はこれら長波長域の光での撮影に好適な撮像センサとなる。そして、このような長波長域の画像出力を表示部32でリアルタイムに観察したり、画像記憶部26に記録したりすることが可能となる。 The visible light cut filter 60 is inserted in the optical path to the CIGS imaging sensor 54 in place of the infrared light cut filter 58, and is used in the “long wavelength mode”. Since the multilayer film 52 transmits almost the entire region other than the visible light region, when the visible light cut filter 60 is inserted in the optical path instead of the infrared light cut filter 58 in the long wavelength mode setting, it is visible. Light having a wavelength longer than that of the light enters the CIGS imaging sensor 54. As will be described later, the CIGS imaging sensor 54 has a spectral sensitivity of 1300 nm on the long wavelength side. Therefore, by inserting the visible light cut filter 60, the live view sensor 40 becomes an image sensor suitable for photographing with light in these long wavelength regions. Then, such an image output in the long wavelength region can be observed in real time on the display unit 32 or recorded in the image storage unit 26.

ミラー/フィルタ駆動部62は、操作部15によるモード切換に応じたカメラ制御部24の制御により、上記の可視光カットフィルタ60と赤外光カットフィルタ58の差し替えを駆動する。なお、図2では、撮影位置に退避したミラー8aおよびサブミラー16aが二点鎖線で図示されているが、このようなミラー8とサブミラー16における観察位置と撮影位置の間の駆動も、カメラ制御部24の制御によりラー/フィルタ駆動部62が行う。 The mirror / filter drive unit 62 drives replacement of the visible light cut filter 60 and the infrared light cut filter 58 under the control of the camera control unit 24 according to mode switching by the operation unit 15. In FIG. 2, the mirror 8a and the sub mirror 16a retracted to the photographing position are shown by two-dot chain lines. However, the driving between the observation position and the photographing position in the mirror 8 and the sub mirror 16 is also performed by the camera control unit. The L / filter driving unit 62 performs the control of 24.

測光兼用AFセンサ34の再結像レンズ64は、交換レンズ4から入射して観察位置にあるミラー8中央にある半透過部を透過し、サブミラー16で下方に反射される被写体光を再結像させるためのものである。再結像レンズ64からの光束は、波長選択性のない可動半透ミラー66および赤外光カットフィルタ68を透過してCIGSAFセンサ70上に結像する。CIGSAFセンサも、後述するように可視光領域において高い感度を有しており、暗い被写体であっても補助光なしに自動焦点検出が可能である。なお、赤外光カットフィルタ68は、CIGSAFセンサ70をAFセンサとして働かせるために有害な赤外光領域の波長をカットするものであり、CIGS撮像センサ54のための赤外光カットフィルタ58とは必ずしも特性が同じものではない。例えば、赤外光カットフィルタ8は赤外光カットフィルタ58よりも狭い透過分光特性に設定される。 The re-imaging lens 64 of the AF metering sensor 34 re-images the subject light incident from the interchangeable lens 4 and transmitted through the semi-transmissive portion at the center of the mirror 8 at the observation position and reflected downward by the sub-mirror 16. It is for making it happen. The light beam from the re-imaging lens 64 passes through the movable semi-transmissive mirror 66 and the infrared light cut filter 68 having no wavelength selectivity and forms an image on the CIGSAF sensor 70. The CIGSAF sensor also has high sensitivity in the visible light region, as will be described later, and can perform automatic focus detection without auxiliary light even for a dark subject. The infrared light cut filter 68 cuts the wavelength of the harmful infrared light region in order to make the CIGSAF sensor 70 work as an AF sensor. What is the infrared light cut filter 58 for the CIGS imaging sensor 54? The characteristics are not necessarily the same. For example, the infrared light cut filter 8 is set to have a transmission spectral characteristic narrower than that of the infrared light cut filter 58.

このため、被写体が通常の明るさのときに減光のために可動半透ミラー66を図示の位置に挿入し、CIGSAFセンサへの入射光量をCIGSAFセンサの感度ダイナミックレンジに合わせこむ。一方、被写体が通常のAFセンサでは補助光を必要とするような暗さになったときには可動半透ミラーを64aの位置に退避させ、減光なしに被写体像をCIGSセンサに結像させる。なお、このとき可動半透ミラー66の有無による光路長の補償が必要である。例えば、可動半透ミラー66を退避させたときには、これと光路長が等しい全透過性の並行平板を代わりに光路中に挿入する。また、当然ながら、可動半透ミラーが64aの位置に退避した状態では、AF対応部分測光センサ72による測光はできなくなる。 For this reason, when the subject has normal brightness, the movable semi-transparent mirror 66 is inserted at the position shown in the figure for dimming, and the amount of light incident on the CIGSAF sensor is adjusted to the sensitivity dynamic range of the CIGSAF sensor. On the other hand, when the subject becomes dark enough to require auxiliary light in a normal AF sensor, the movable semi-transparent mirror is retracted to the position 64a, and the subject image is formed on the CIGS sensor without dimming. At this time, it is necessary to compensate for the optical path length depending on the presence or absence of the movable semi-transmissive mirror 66. For example, when the movable translucent mirror 66 is retracted, a totally transmissive parallel plate having the same optical path length is inserted into the optical path instead. Of course, when the movable semi-transmissive mirror is retracted to the position 64a, photometry by the AF-compatible partial photometry sensor 72 cannot be performed.

CIGSAFセンサ70への減光のために再結像光路中に可動半透ミラー66が挿入されている時、これを反射した光は、AF対応部分測光センサ72に入射する。AF対応部分測光センサ72は、CIGSAFセンサによって焦点検出が行われている部分の明るさを測光するものであり、全画面のうちで焦点検出の対象となっている部分の明るさを選択的に測光することにより、撮影において関心の高い部分が適正露出になるよう自動露出制御するための情報として用いられる。このように、被写体が明るい時に過剰となるCIGSAFセンサ70への減光部分は、捨てられるのではなく、測光情報として有効に利用される。 When the movable semi-transmissive mirror 66 is inserted in the re-imaging optical path for dimming the light to the CIGSAF sensor 70, the light reflected therefrom enters the AF corresponding partial photometric sensor 72. The AF-corresponding partial photometric sensor 72 measures the brightness of the portion of the focus detected by the CIGSAF sensor, and selectively selects the brightness of the portion of the entire screen that is the focus detection target. By measuring the light, it is used as information for automatic exposure control so that a portion of high interest in photographing is appropriately exposed. As described above, the dimming portion to the CIGSAF sensor 70 that becomes excessive when the subject is bright is not discarded but is effectively used as photometric information.

AF対応部分測光センサ72からの部分測光情報は、ライブビューセンサ40のCIGS撮像センサ54からの全画面に関する測光情報と組合せてカメラ制御部24で処理され、最終的に、交換レンズ4の絞り径、フォーカルプレーンシャッタ18によるシャッタ速度、および撮像部20の感度などがコントロールされる。 The partial photometric information from the AF corresponding partial photometric sensor 72 is processed by the camera control unit 24 in combination with the photometric information on the entire screen from the CIGS imaging sensor 54 of the live view sensor 40, and finally the aperture diameter of the interchangeable lens 4. The shutter speed by the focal plane shutter 18 and the sensitivity of the imaging unit 20 are controlled.

センサ制御部74は、可動半透ミラー66が挿入されている時および退避しているときのいずれの場合においても、CIGSAFセンサ70の受光積分時間やゲインコントロールなどを行って、自動焦点調節を制御する。この受光積分時間やゲインコントロールを混乱なく行うためには、可動半透ミラー66が挿入されているのか退避しているのかの情報も用いられる。センサ制御部74は、また、CIGSAFセンサ70およびAF対応部分測光センサ72に指示を出し、全画面のうちで焦点検出の対象とすべき部分と選択的に測光する部分を一致させる制御を行い、それぞれ対応する焦点検出情報と測光情報をカメラ制御部24に出力させる。 The sensor control unit 74 controls the automatic focus adjustment by performing the light reception integration time and gain control of the CIGSAF sensor 70 regardless of whether the movable semi-transparent mirror 66 is inserted or retracted. To do. In order to perform the light receiving integration time and gain control without confusion, information on whether the movable semi-transparent mirror 66 is inserted or retracted is also used. The sensor control unit 74 also issues an instruction to the CIGSAF sensor 70 and the AF-corresponding partial photometric sensor 72, and performs control to match the portion to be subjected to focus detection with the portion to be subject to focus detection in the entire screen, The camera control unit 24 outputs corresponding focus detection information and photometry information.

一方、ライブビューセンサ40が「長波長モード」に設定され、多層膜52からCIGS撮像センサ54への光路に赤外光カットフィルタ58に替えて可視光カットフィルタ60が光路に挿入された場合は、測光兼用AFセンサ34でも、これに対応したフィルタの差し替え等が行われる。具体的には、「長波長モード」の場合、半透ミラー66の退避を前提として赤外光カットフィルタ68が可視光カットフィルタ76に差し替えられる。これによって、CIGS撮像センサ54による長波長域での撮像のための焦点検出が、減光なしに、CIGSAFセンサ70によって行われるようになる。なお、このとき、波長感度域あわせだけでなく、波長の違いによる光路長の変化および焦点検出の際の色収差の違い等の補償を行う。 On the other hand, when the live view sensor 40 is set to the “long wavelength mode” and the visible light cut filter 60 is inserted in the optical path instead of the infrared light cut filter 58 in the optical path from the multilayer film 52 to the CIGS imaging sensor 54. The photometric AF sensor 34 also performs filter replacement corresponding to this. Specifically, in the “long wavelength mode”, the infrared light cut filter 68 is replaced with the visible light cut filter 76 on the premise that the semi-transmissive mirror 66 is retracted. Thereby, the focus detection for imaging in the long wavelength range by the CIGS imaging sensor 54 is performed by the CIGSAF sensor 70 without dimming. At this time, not only adjustment of the wavelength sensitivity range but also compensation for a change in optical path length due to a difference in wavelength and a difference in chromatic aberration during focus detection, etc.

以上のような可動半透ミラー66の移動および赤外光カットフィルタ68と可視光カットフィルタ76との差し替えは、操作部15によるモード切換操作に基づくカメラ制御部24の制御により、ミラー/フィルタ駆動部78が司る。 The movement of the movable semi-transmissive mirror 66 and the replacement of the infrared light cut filter 68 and the visible light cut filter 76 as described above are driven by the mirror / filter by the control of the camera control unit 24 based on the mode switching operation by the operation unit 15. Department 78 governs.

図1および図2の第1実施例は、上記のような基本機能に加え、「複合AF機能」が可能である。操作部15の操作により、「複合AF機能」が選択されると、ライブビュー機能が停止され、「複合AF機能」の開始が指示される。具体的には、操作部15の操作により、「複合AF機能」が選択されると、カメラ制御部24は、赤外光カットフィルタ58に替えて可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行うとともにCIGS撮像センサ54の出力に基づく表示部32でのライブビュー表示を停止する。 The first embodiment shown in FIGS. 1 and 2 can provide a “composite AF function” in addition to the basic functions as described above. When the “composite AF function” is selected by the operation of the operation unit 15, the live view function is stopped and the start of the “composite AF function” is instructed. Specifically, when the “composite AF function” is selected by operating the operation unit 15, the camera control unit 24 replaces the infrared light cut filter 58 with the visible light cut filter 60 to the CIGS imaging sensor 54. An instruction to set the optical path is given to the mirror / filter driving unit 62 and the live view display on the display unit 32 based on the output of the CIGS imaging sensor 54 is stopped.

これに替わり、可視光カットフィルタ60により長波長側の感度域となったCIGS撮像センサ54の画像信号は、赤外光カットフィルタ68により可視光の感度域にあるCIGSAFセンサの出力と組み合わされ、「複合AF機能」が実行される。具体的には、CIGS撮像センサ54の画像信号に基づく画像処理により被写体の画像分析が行われ、その結果に基づいて、CIGSAFセンサによる焦点検出領域が決定される。 Instead, the image signal of the CIGS imaging sensor 54 that has become a sensitivity region on the long wavelength side by the visible light cut filter 60 is combined with the output of the CIGSAF sensor in the visible light sensitivity region by the infrared light cut filter 68, The “composite AF function” is executed. Specifically, image analysis of the subject is performed by image processing based on the image signal of the CIGS imaging sensor 54, and a focus detection area by the CIGSAF sensor is determined based on the result.

図3は、図2のCIGS撮像センサ54およびCIGSAFセンサに用いられるCIGSセンサの分光感度(量子効率)をシリコンのCMOSセンサと比較したものである。図3(A)は、各波長におけるCIGSセンサの量子効率(%)を示すものであり、図3(B)におけるシリコンのCMOSセンサについての同様の量子効率(%)と比較して、明らかな高感度および広帯域の特性を示している。具体的には、図3(A)のCIGSセンサは、波長1300nm近くにわたる広い感度域を持つ。さらに、400nm付近から1200nm付近の広い波長域に渡り量子効率50%を超える分光感度を有しており、可視光およびこれに隣接する赤外光領域では特に顕著な高量子効率を示している。このような可視光域および赤外光域において60%以上の量子効率を有する高感度および広帯域の分光感度特性は、図3(B)におけるようなシリコンのCMOSセンサでは期待できないものである。 FIG. 3 compares the spectral sensitivity (quantum efficiency) of the CIGS sensor used in the CIGS imaging sensor 54 and the CIGSAF sensor of FIG. 2 with a silicon CMOS sensor. FIG. 3A shows the quantum efficiency (%) of the CIGS sensor at each wavelength, which is clear compared to the similar quantum efficiency (%) for the silicon CMOS sensor in FIG. 3B. It shows high sensitivity and broadband characteristics. Specifically, the CIGS sensor shown in FIG. 3A has a wide sensitivity range over a wavelength of about 1300 nm. Furthermore, it has a spectral sensitivity exceeding 50% quantum efficiency over a wide wavelength range from about 400 nm to about 1200 nm, and shows particularly remarkable high quantum efficiency in the visible light and the infrared light region adjacent thereto. Such a high-sensitivity and broadband spectral sensitivity characteristic having a quantum efficiency of 60% or more in the visible light region and the infrared light region cannot be expected with a silicon CMOS sensor as shown in FIG.

図4は、図1および図2の第1実施例におけるカメラ制御部24の動作のフローチャートである。操作部15によってカメラのメインスイッチがオンになるとフローがスタートし、ステップS2においてオートフォーカスデジタル一眼レフカメラが操作部15によって再生モードに設定されているかどうかチェックする。再生モード設定が検出されなければ撮影モードなのでステップS4に進み、可動半透ミラー66をCIGSAFセンサ70への光路内に設定して入射光量を減光する指示をミラー/フィルタ駆動部78に行う。 FIG. 4 is a flowchart of the operation of the camera control unit 24 in the first embodiment of FIGS. 1 and 2. When the main switch of the camera is turned on by the operation unit 15, the flow starts. In step S2, it is checked whether the autofocus digital single-lens reflex camera is set to the reproduction mode by the operation unit 15. If the reproduction mode setting is not detected, the mode is the shooting mode, and the process proceeds to step S4, where the movable semi-transparent mirror 66 is set in the optical path to the CIGSAF sensor 70 to instruct the mirror / filter driving unit 78 to reduce the amount of incident light.

なお、ステップS4の指示に応答するミラー/フィルタ駆動部78による可動半透ミラー66設定の機械的実行には遅延期間が設けられており、例えば可動半透ミラー66がCIGSAFセンサ70への光路にセットされている状態で可動半透ミラー66を光路から退避させる減光解除の指示が行われ、その後遅延時間内に、これを取り消す関係にある可動半透ミラー66を光路内にセットする指示が続いて行われたような場合には、ミラー/フィルタ駆動部78は実際には可動半透ミラー66の駆動を実行せず、可動半透ミラー66が光路内に設定されている状態が継続する。換言すれば、ミラー/フィルタ駆動部78は遅延時間内に可動半透ミラー66を異なる状態に駆動する指示が繰返し行われて初めて可動半透ミラー66の駆動を実行することになる。なお、既に可動半透ミラー66がCIGSAFセンサ70の光路に設定されている状態でステップS4の指示が行われた時は、当然ながら、ミラー/フィルタ駆動部78は可動半透ミラー66に対する何の駆動も行わない。これらのことは、以下の各ステップにおける種々の「指示」に共通である。 It should be noted that a delay period is provided in the mechanical execution of the setting of the movable semi-transmissive mirror 66 by the mirror / filter driving unit 78 in response to the instruction in step S4. For example, the movable semi-transmissive mirror 66 is provided in the optical path to the CIGSAF sensor 70. Instructed to cancel the dimming to retract the movable semi-transparent mirror 66 from the optical path in the set state, and then instructed to set the movable semi-transparent mirror 66 in the optical path within the delay time. In the case where it is performed subsequently, the mirror / filter driving unit 78 does not actually drive the movable semi-transmissive mirror 66, and the state where the movable semi-transmissive mirror 66 is set in the optical path continues. . In other words, the mirror / filter driving unit 78 executes the driving of the movable semi-transmissive mirror 66 only after the instruction to drive the movable semi-transmissive mirror 66 to a different state is repeatedly performed within the delay time. In addition, when the instruction in step S4 is performed in a state where the movable semi-transmissive mirror 66 is already set in the optical path of the CIGSAF sensor 70, the mirror / filter driving unit 78 naturally has no effect on the movable semi-transmissive mirror 66. Also does not drive. These are common to various “instructions” in the following steps.

次いでステップS6に進み、ライブビュー用の赤外光フィルタ58をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に行う。なお、ミラー/フィルタ駆動部62のミラー差し替え動作についても、上記でミラー/フィルタ駆動部78において説明したのど同様の指示に対する駆動実行への遅延時間が設けられている。 Next, in step S6, the mirror / filter driving unit 62 is instructed to set the live view infrared light filter 58 in the optical path to the CIGS image sensor 54. Note that the mirror replacement operation of the mirror / filter drive unit 62 is also provided with a delay time for drive execution in response to the same instruction as described in the mirror / filter drive unit 78 above.

次いで、ステップS8でAF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に行う。そして、ステップS10に進み、CIGSAFセンサ70の出力に基づき、減光を解除すべきレベルまで被写体が暗いかどうかのチェックを行う。該当すればステップS12に進んで、可動半透ミラー66を光路から退避させる減光解除の指示を行ってステップS14に移行する。一方、被写体が充分明るい場合は直接ステップS14に移行する。 In step S8, the mirror / filter driving unit 78 is instructed to set the infrared cut filter 68 for AF in the optical path to the CIGSAF sensor 70. In step S10, based on the output of the CIGSAF sensor 70, it is checked whether or not the subject is dark enough to cancel the dimming. If applicable, the process proceeds to step S12, where an instruction to cancel the light reduction for retracting the movable semi-transmissive mirror 66 from the optical path is given, and the process proceeds to step S14. On the other hand, if the subject is sufficiently bright, the process proceeds directly to step S14.

ステップS14では、操作部15によって「複合AFモード」が選択されたかどうかのチェックを行う。そして選択があればステップS16に進み、複合AFを行うために赤外光フィルタ58に替えて可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行う。さらに、ステップS18でCIGS撮像センサ54の出力に基づく表示部32でのライブビュー表示を停止するとともに、長波長側の感度域のCIGS撮像センサ54の画像信号と可視光の感度域にあるCIGSAFセンサの出力とを組み合わせる「複合AF機能」の開始が指示してステップS20に移行する。一方、ステップS14で「AFモード」の選択が検出されない場合は、直接ステップS20に移行する。 In step S14, it is checked whether or not the “composite AF mode” has been selected by the operation unit 15. If there is a selection, the process proceeds to step S16, and an instruction to set the visible light cut filter 60 in the optical path to the CIGS imaging sensor 54 in place of the infrared light filter 58 in order to perform the composite AF is given to the mirror / filter drive unit 62. Do it. Further, in step S18, the live view display on the display unit 32 based on the output of the CIGS imaging sensor 54 is stopped, and the CIGSAF sensor in the sensitivity range of the visible light and the image signal of the CIGS imaging sensor 54 in the sensitivity region on the long wavelength side is stopped. The start of the “composite AF function” to be combined with the output is instructed, and the process proceeds to step S20. On the other hand, if the selection of “AF mode” is not detected in step S14, the process directly proceeds to step S20.

ステップS20では、撮像部20による撮像が光量不足となるほど暗いかどうかのチェックを行う。通常、このレベルまで被写体が暗くなるとフラッシュなどの補助光を用いた撮影が必要となる。ステップS20で光量不足が検知されるとステップS22に進み、操作部15の操作によって「長波長モード」が選択されているかどうかチェックする。そして該当すればステップS24に進み、赤外光フィルタ58に替えてライブビュー用の可視光カットフィルタ60をCIGS撮像センサ54への光路に設定する指示をミラー/フィルタ駆動部62に対して行う。さらに、ステップS26で、赤外光カットフィルタ68に替えてAF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行ってステップS28に移行する。 In step S <b> 20, it is checked whether the image picked up by the image pickup unit 20 is so dark that the light quantity becomes insufficient. Usually, when the subject becomes dark to this level, photographing using auxiliary light such as a flash is required. When the light quantity shortage is detected in step S20, the process proceeds to step S22, and it is checked whether or not the “long wavelength mode” is selected by the operation of the operation unit 15. Then, if applicable, the process proceeds to step S 24, and an instruction to set the live view visible light cut filter 60 in the optical path to the CIGS imaging sensor 54 instead of the infrared light filter 58 is given to the mirror / filter drive unit 62. Further, in step S26, the mirror / filter drive unit 78 is instructed to set the visible light cut filter 76 for AF in the optical path to the CIGSAF sensor 70 instead of the infrared light cut filter 68, and the process proceeds to step S28. To do.

一方、ステップS20で撮像部の光量不足が検出されない場合は、直接ステップS28に移行する。このように、撮像部の光量不足となるような暗さでない場合、通常はステップS22に進むことができず、「長波長モード」は禁止される。これは設定の混乱を防止するためである。なお、被写体が明るい場合でも特に「長波長モード」を選択したい場合は、操作部15で特別の操作を行うことによってステップS22に進むことも可能である。また、ステップS22で「長波長モード」設定が検出されない場合も、直接ステップS28に移行する。 On the other hand, if it is not detected in step S20 that the amount of light in the imaging unit is insufficient, the process directly proceeds to step S28. As described above, when the image is not dark enough to cause the light amount of the image capturing unit to be insufficient, the process cannot normally proceed to step S22, and the “long wavelength mode” is prohibited. This is to prevent confusion of settings. Even when the subject is bright, it is possible to proceed to step S22 by performing a special operation with the operation unit 15 in particular when it is desired to select the “long wavelength mode”. Further, when the “long wavelength mode” setting is not detected in step S22, the process directly proceeds to step S28.

ステップS28では、操作部15のシャッタレリーズボタンによるレリーズ操作が行われたかどうかチェックする。レリーズ操作が検知できなければステップS30に進み、操作部15によってカメラのメインスイッチをオフする操作が行われたかどうかチェックする。そしてカメラオフ操作が検出されなければフローはステップS2に戻り、以下、ステップS2で再生モード操作が検出されるかステップS28でレリーズ操作が検出されない限り、ステップS2からステップS30を繰り返す。 In step S28, it is checked whether or not a release operation using the shutter release button of the operation unit 15 has been performed. If the release operation cannot be detected, the process proceeds to step S30, and it is checked whether an operation to turn off the main switch of the camera is performed by the operation unit 15. If no camera-off operation is detected, the flow returns to step S2, and thereafter, step S2 to step S30 are repeated unless a playback mode operation is detected in step S2 or a release operation is not detected in step S28.

上記の繰返しは充分高速で行われ、上記したミラー/フィルタ駆動部62、78に設けられる遅延時間内に何度も繰り返される。従って、ステップS10、ステップS14、ステップS20およびステップS22に基づく検知結果が変化するとミラー/フィルタ駆動部62、78の遅延時間内にこの変化基づく同一の指示が繰返し行われ、ミラー/フィルタ駆動部62、78による適切な指示の実行が行われる。これによって、被写体の明るさの変化に基づく減光の設定/解除と波長域カットフィルタの切り替え、およびモード切り替えに基づく波長域カットフィルタの切り替えがスムーズに実行される。 The above repetition is performed at a sufficiently high speed and is repeated many times within the delay time provided in the mirror / filter driving units 62 and 78 described above. Accordingly, when the detection result based on step S10, step S14, step S20 and step S22 changes, the same instruction based on this change is repeatedly performed within the delay time of the mirror / filter driving units 62 and 78, and the mirror / filter driving unit 62 78, an appropriate instruction is executed. Accordingly, the setting / cancellation of the light reduction based on the change in the brightness of the subject, the switching of the wavelength band cut filter, and the switching of the wavelength band cut filter based on the mode switching are executed smoothly.

なお、ステップS2で操作部15による再生モード設定操作が検出された時はステップS32の再生モード処理に移行する。そして、再生モード処理内部の機能によって撮影モードが選択されたときには、フローはステップS4に戻る。また、再生モード処理内部の機能によってカメラオフ操作が検出されたときにはフローを終了する。 When a playback mode setting operation by the operation unit 15 is detected in step S2, the process proceeds to the playback mode process in step S32. When the shooting mode is selected by the function in the playback mode process, the flow returns to step S4. Also, when a camera-off operation is detected by a function within the playback mode process, the flow ends.

一方、ステップS28で操作部15のシャッタレリーズボタンによるレリーズ定操作が検出された時はステップS34の撮像記録処理に移行する。そして、撮像記録および表示部での撮像結果表示が終わると、フローは自動的にステップS2に戻る。なお、ステップS30でカメラオフ操作が検出されたときは、図4のフローが終了となる。 On the other hand, when the release fixed operation by the shutter release button of the operation unit 15 is detected in step S28, the process proceeds to the imaging recording process in step S34. When the imaging record and the imaging result display on the display unit are finished, the flow automatically returns to step S2. Note that when the camera-off operation is detected in step S30, the flow of FIG. 4 ends.

図5は、本発明の実施の形態に係るオートフォーカスデジタル一眼レフカメラの第2実施例を示すブロック図である。その構成の大部分は図1の第1実施例と同様なので、共通する部分には同一の番号を付し、特に必要がない限り説明を省略する。図5の第2実施例が図1の第1実施例と異なるのは、カメラボディ100であり、特にそのライブビューセンサ102およびこれに関連する構成および機能が第1実施例と異なる。 FIG. 5 is a block diagram showing a second example of the autofocus digital single-lens reflex camera according to the embodiment of the present invention. Since most of the configuration is the same as that of the first embodiment of FIG. 1, the same reference numerals are given to common portions, and the description is omitted unless particularly required. The second embodiment shown in FIG. 5 differs from the first embodiment shown in FIG. 1 in the camera body 100. In particular, the live view sensor 102 and the configuration and functions related thereto are different from those in the first embodiment.

第1実施例のライブビューセンサ40では、半透過性の反射面12aを介して光を受けるよう構成され、反射面12aを透過する可視光領域の光が抑えられている。これは、アイピース14で光学的に被写体像を支障なく観察することができるようにするとともに、同時にライブビューも常に可能とするためである。ライブビューセンサ40にはCIGS撮像センサが用いられているので、反射面12aを透過する可視光領域の光が抑えられていても、通常の明るさの被写体をライブビューするには充分である。しかしながら、アイピース14で充分観察できないような暗い被写体の場合は、ライブビューセンサ40でも光量が不足する。これに対し、図5の第2実施例は、アイピース14で充分観察できないような暗い被写体の場合でも、ライブビューセンサ102に採用したcIGS撮像センサによってライブビューが可能となるよう構成している。なお、図5のライブビューセンサ102の詳細構造は、図2におけるライブビューセンサ40と基本的には同様であって、再結像光学系およびCIGS撮像センサを有する。但し、ペンタプリズム104に対するライブビューセンサ102の配置場所が異なるので、その再結像光学系は図2の再結像レンズ56とは異なったものとなる。 The live view sensor 40 according to the first embodiment is configured to receive light through the semi-transmissive reflective surface 12a, and suppresses light in the visible light region that is transmitted through the reflective surface 12a. This is because the object image can be optically observed with the eyepiece 14 without hindrance, and at the same time, a live view is always possible. Since the CIGS imaging sensor is used for the live view sensor 40, even if the light in the visible light region that is transmitted through the reflecting surface 12a is suppressed, it is sufficient for live view of a subject with normal brightness. However, in the case of a dark subject that cannot be sufficiently observed with the eyepiece 14, the live view sensor 40 has insufficient light quantity. On the other hand, the second embodiment of FIG. 5 is configured so that the live view can be performed by the cIGS imaging sensor employed in the live view sensor 102 even in the case of a dark subject that cannot be sufficiently observed by the eyepiece 14. The detailed structure of the live view sensor 102 in FIG. 5 is basically the same as the live view sensor 40 in FIG. 2, and includes a re-imaging optical system and a CIGS imaging sensor. However, since the arrangement position of the live view sensor 102 with respect to the pentaprism 104 is different, the re-imaging optical system is different from the re-imaging lens 56 of FIG.

上記の考え方に基づき、第2実施例では、通常のペンタプリズム104が採用されており、ライブビューモードに設定しない場合は、ペンタプリズム104からの光はすべてアイピースに向かう。このとき可動全反射ミラー106は図5のようにアイピース14への光路から退避している。従ってこの状態ではライブビューができない。 Based on the above concept, in the second embodiment, the normal pentaprism 104 is employed, and when the live view mode is not set, all the light from the pentaprism 104 goes to the eyepiece. At this time, the movable total reflection mirror 106 is retracted from the optical path to the eyepiece 14 as shown in FIG. Therefore, live view is not possible in this state.

操作部15の操作によってライブピューモードを選択すると、可動全反射ミラーが106aの位置に下がり、ペンタプリズム104からの光を全てライブビューセンサ102の方向に反射する。従って、アイピース14による光学的なファインダー像の観察はできなくなる。可動減光フィルタ108は、被写体が通常の明るさのときに図5のようにライブビューセンサへの光路中に挿入され、ライブピューセンサ102への入射光量をCIGS撮像センサの感度ダイナミックレンジに合わせこむ。一方、被写体がアイピースでは観察し難い程度の暗さになったときには可動減光フィルタ108がライブビューセンサ102への光路から退避し、減光なしに被写体像をライブビューセンサに導く。なお、このとき可動減光フィルタ108の有無による光路長の補償が必要であり、例えば、可動減光フィルタを退避させたときには、これと光路長が等しい全透過性の並行平板を代わりに光路中に挿入する。このようにして、光学的には観察し難い暗い被写体の場合でも、図5の第2実施例の場合にはCIGS撮像センサによりライブビューが可能となる。このライブビューセンサ102からの可視光域の画像は表示部32でのライブビューだけでなく、画像記憶部26に記録することも可能である。したりすることが可能となる。 When the live pure mode is selected by operating the operation unit 15, the movable total reflection mirror is lowered to a position 106 a and all the light from the pentaprism 104 is reflected in the direction of the live view sensor 102. Therefore, the optical viewfinder image cannot be observed by the eyepiece 14. The movable neutral density filter 108 is inserted in the optical path to the live view sensor as shown in FIG. 5 when the subject has normal brightness, and matches the amount of light incident on the live pure sensor 102 to the sensitivity dynamic range of the CIGS imaging sensor. Come on. On the other hand, when the subject becomes so dark that it is difficult to observe with the eyepiece, the movable neutral density filter 108 retracts from the optical path to the live view sensor 102 and guides the subject image to the live view sensor without dimming. At this time, it is necessary to compensate the optical path length depending on the presence / absence of the movable neutral density filter 108. For example, when the movable neutral density filter is retracted, a parallel plate having the same optical path length as that of the movable neutral density filter is used instead. Insert into. In this way, even in the case of a dark subject that is difficult to observe optically, in the case of the second embodiment of FIG. 5, a live view is possible by the CIGS imaging sensor. The image in the visible light range from the live view sensor 102 can be recorded not only in the live view on the display unit 32 but also in the image storage unit 26. It becomes possible to do.

赤外光カットフィルタ110は、ライブビューモードにおいて可動全反射ミラー106aから反射される可視光領域以外の光をカットし、CIGS撮像センサの波長感度特性を撮像部20の波長感度特性に近似させるものであり、視感度に一致した被写体像を撮像してカメラ制御部116に送り、自然なライブビューを可能にする。 The infrared light cut filter 110 cuts light outside the visible light region reflected from the movable total reflection mirror 106a in the live view mode, and approximates the wavelength sensitivity characteristic of the CIGS imaging sensor to the wavelength sensitivity characteristic of the imaging unit 20. A subject image that matches the visibility is captured and sent to the camera control unit 116 to enable a natural live view.

可視光カットフィルタ112は、赤外光カットフィルタ110と差し替えてライブビューセンサ102への光路中に挿入されるもので、「長波長モード」にて使用されるものである。可動全反射ミラー106aからは可視光領域以外もほぼ全面的に反射されてくるので、長波長モードの設定で赤外光カットフィルタ110に替えて可視光カットフィルタ112がライブビューセンサ102への光路に挿入された場合は、可視光よりも長波長側域の光がライブビューセンサ102のCIGS撮像センサに入射するようになる。従って、第1実施例と同様、長波長域の画像についてその画像出力を表示部32でリアルタイムに観察したり、画像記憶部26に記録したりすることが可能となる。なお、可視光カットフィルタ112を用いる長波長モードにおいては、可動減光フィルタ108をライブビューセンサへの光路から退避させる。以上のような可動全反射ミラーが106、可動減光フィルタ108、赤外光カットフィルタ110および可視光カットフィルタ112の駆動は、カメラ制御部116によって制御されるミラー/フィルタ駆動部114によって行われる。 The visible light cut filter 112 is inserted in the optical path to the live view sensor 102 in place of the infrared light cut filter 110 and is used in the “long wavelength mode”. Since the movable total reflection mirror 106a reflects almost the entire area other than the visible light region, the visible light cut filter 112 replaces the infrared light cut filter 110 in the long wavelength mode setting, and the optical path to the live view sensor 102 is changed. Is inserted into the CIGS imaging sensor of the live view sensor 102, light having a wavelength longer than visible light is incident on the CIGS imaging sensor. Accordingly, as in the first embodiment, the image output of the image in the long wavelength region can be observed in real time on the display unit 32 or recorded in the image storage unit 26. In the long wavelength mode using the visible light cut filter 112, the movable neutral density filter 108 is retracted from the optical path to the live view sensor. The movable total reflection mirror 106, the movable neutral density filter 108, the infrared light cut filter 110, and the visible light cut filter 112 are driven by the mirror / filter drive unit 114 controlled by the camera control unit 116. .

図6は、図5の第2実施例におけるカメラ制御部116の動作のフローチャートである。第1実施例と同様にして操作部15によってカメラのメインスイッチがオンになるとフローがスタートし、ステップS42においてオートフォーカスデジタル一眼レフカメラが操作部15によって再生モードに設定されているかどうかチェックする。再生モード設定が検出されなければ撮影モードなのでステップS44に進み、光学ファインダ光路に設定する指示を行う。具体的には、可動全反射ミラー106がアイピース14への光路中から退避するようミラー/フィルタ駆動部114に指示する。ステップS44ではさらに、可動減光フィルタ108をライブビューセンサ102への光路中に挿入して入射光量を減光する指示をミラー/フィルタ駆動部114に行とともに、図2における可動半透ミラー66をCIGSAFセンサ70への光路内に設定して入射光量を減光する指示をミラー/フィルタ駆動部78に行う。 FIG. 6 is a flowchart of the operation of the camera control unit 116 in the second embodiment of FIG. As in the first embodiment, when the main switch of the camera is turned on by the operation unit 15, the flow starts. In step S42, it is checked whether or not the autofocus digital single-lens reflex camera is set to the reproduction mode by the operation unit 15. If the reproduction mode setting is not detected, the shooting mode is set, and the process proceeds to step S44 to instruct to set the optical viewfinder optical path. Specifically, the mirror / filter driving unit 114 is instructed so that the movable total reflection mirror 106 is retracted from the optical path to the eyepiece 14. In step S44, an instruction to reduce the amount of incident light by inserting the movable neutral density filter 108 into the optical path to the live view sensor 102 is sent to the mirror / filter driving unit 114, and the movable semi-transmissive mirror 66 in FIG. The mirror / filter driving unit 78 is instructed to reduce the amount of incident light by setting in the optical path to the CIGSAF sensor 70.

次いでステップS46に進み、操作部15によって「ライブピューモード」が設定されているかどうかチェックする。該当すればステップS48に進み、ライブビューへの光路切り替えの指示が行われる。具体的には、可動全反射ミラー106をアイピース14への光路中に進出させるようミラー/フィルタ駆動部114に指示してステップS50に移行する。この指示が実行されると、ファインダ像をアイピース14から光学的に観察することはできなくなり、代わりにライブビューセンサ102の出力に基づく表示部32でのライブビューが可能となる。ステップS48ではさらに、ライブビュー用の赤外光カットフィルタ110をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に行う。なお、ミラー/フィルタ駆動部114についても、第1実施例で説明したのと同様の、指示に対する駆動実行への遅延時間が設けられている。一方、ステップS46で「ライブビューモード」への設定が検知されない場合は、直接ステップS50に移行する。 In step S46, it is checked whether the “live pew mode” is set by the operation unit 15. If applicable, the process proceeds to step S48, and an instruction to switch the optical path to the live view is issued. Specifically, the mirror / filter driving unit 114 is instructed to advance the movable total reflection mirror 106 in the optical path to the eyepiece 14, and the process proceeds to step S50. When this instruction is executed, the finder image cannot be optically observed from the eyepiece 14, and a live view on the display unit 32 based on the output of the live view sensor 102 is enabled instead. In step S48, the mirror / filter driving unit 114 is further instructed to set the infrared light cut filter 110 for live view in the optical path to the live view sensor 102. Note that the mirror / filter driving unit 114 is also provided with a delay time for executing the driving in response to the instruction as described in the first embodiment. On the other hand, when the setting to “live view mode” is not detected in step S46, the process directly proceeds to step S50.

ステップS50では、AF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に行う。そして、ステップS52に進み、CIGSAFセンサ70の出力に基づき、減光を解除すべきレベルまで被写体が暗いかどうかのチェックを行う。該当すればステップS54に進み、操作部15によって「ライブピューモード」が設定されているかどうかチェックする。該当すればステップS56に進み、可動減光フィルタ108をライブビューセンサ102への光路から退避させる減光解除の指示を行ってステップS58に移行する。一方、ステップS54で「ライブビューモード」の設定が検知されなければ直接ステップS58に移行する。そして、ステップS58では、可動半透ミラー66をCIGSAFセンサ70への光路から退避させてAF用の減光を解除する指示を行う。このように、ステップS52で被写体が暗いことが検知された場合は、「ライブビューモード」の設定如何にかかわらずAF用の減光を解除する。 In step S50, the mirror / filter driving unit 78 is instructed to set the infrared cut filter 68 for AF in the optical path to the CIGSAF sensor 70. In step S52, based on the output of the CIGSAF sensor 70, it is checked whether or not the subject is dark enough to cancel the dimming. If applicable, the process proceeds to step S54, and it is checked whether the “live pew mode” is set by the operation unit 15. If applicable, the process proceeds to step S56, where an instruction to cancel the dimming is performed to retract the movable neutral density filter 108 from the optical path to the live view sensor 102, and the process proceeds to step S58. On the other hand, if the setting of “live view mode” is not detected in step S54, the process directly proceeds to step S58. In step S58, the movable semi-transparent mirror 66 is retracted from the optical path to the CIGSAF sensor 70 to instruct to cancel the AF dimming. Thus, if it is detected in step S52 that the subject is dark, the AF dimming is canceled regardless of the “live view mode” setting.

次いで、ステップS60では、撮像部20による撮像が光量不足となるほど暗いかどうかのチェックを行う。そして該当すればステップS62に進み、操作部15の操作によって長波長モードが選択されているかどうかチェックする。そして該当すればステップS64に進み、赤外光フィルタ110に替えてライブビュー用の可視光カットフィルタ112をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行う。さらに、ステップS66で、赤外光カットフィルタ68に替えてAF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。 Next, in step S60, it is checked whether the image picked up by the image pickup unit 20 is so dark that the light quantity becomes insufficient. If applicable, the process proceeds to step S62, and it is checked whether or not the long wavelength mode is selected by operating the operation unit 15. Then, if applicable, the process proceeds to step S 64, and an instruction to set the live view visible light cut filter 112 in the optical path to the live view sensor 102 instead of the infrared light filter 110 is given to the mirror / filter driving unit 114. In step S 66, the mirror / filter driving unit 78 is instructed to set the visible light cut filter 76 for AF in the optical path to the CIGSAF sensor 70 instead of the infrared light cut filter 68.

以上のステップを経て、フローはステップS68に進む。一方、ステップS52で減光を解除すべきレベルまで被写体が暗いことが検知されなかった場合、ステップS60で撮像部20による撮像が光量不足となるほど被写体が暗いことが検知されなかった場合、およびステップS62で長波長モードへの選択が検知されなかった場合は、いずれも直接ステップS68に移行する。 Through the above steps, the flow proceeds to step S68. On the other hand, if it is not detected in step S52 that the subject is dark enough to cancel the dimming, if it is not detected in step S60 that the subject is dark enough that the imaging by the imaging unit 20 is insufficient, and step If no selection for the long wavelength mode is detected in S62, the process directly proceeds to step S68.

ステップS68では、操作部15のシャッタレリーズボタンによるレリーズ操作が行われたかどうかチェックする。レリーズ操作が検知できなければステップS70に進み、操作部15によってカメラのメインスイッチをオフする操作が行われたかどうかチェックする。そしてカメラオフ操作が検出されなければフローはステップS42に戻り、以下、ステップS42で再生モード操作が検出されるかステップS68でレリーズ操作が検出されない限り、ステップS42からステップS70を繰り返す。 In step S68, it is checked whether or not a release operation using the shutter release button of the operation unit 15 has been performed. If the release operation cannot be detected, the process proceeds to step S70 to check whether the operation unit 15 has performed an operation to turn off the main switch of the camera. If no camera-off operation is detected, the flow returns to step S42, and thereafter, step S42 to step S70 are repeated unless a playback mode operation is detected in step S42 or a release operation is not detected in step S68.

第1実施例と同様にして、上記の繰返しは充分高速で行われ、上記したミラー/フィルタ駆動部78、114に設けられる遅延時間内に何度も繰り返される。従って、ステップS46、ステップS52、ステップS54、ステップS60およびステップS62に基づく検知結果が変化するとミラー/フィルタ駆動部78、114の遅延時間内にこの変化基づく同一の指示が繰返し行われ、ミラー/フィルタ駆動部78、114による適切な指示の実行が行われる。これによって、被写体の明るさの変化に基づく減光の設定/解除と波長域カットフィルタの切り替え、およびモード切り替えに基づく波長域カットフィルタの切り替えがスムーズに実行される。 Similar to the first embodiment, the above repetition is performed at a sufficiently high speed, and is repeated many times within the delay time provided in the mirror / filter driving units 78 and 114 described above. Accordingly, when the detection result based on step S46, step S52, step S54, step S60 and step S62 changes, the same instruction based on this change is repeatedly performed within the delay time of the mirror / filter drive units 78 and 114, and the mirror / filter Appropriate instructions are executed by the drive units 78 and 114. Accordingly, the setting / cancellation of the light reduction based on the change in the brightness of the subject, the switching of the wavelength band cut filter, and the switching of the wavelength band cut filter based on the mode switching are executed smoothly.

なお、第1実施例と同様にして、ステップS42で操作部15による再生モード設定操作が検出された時はステップS72の再生モード処理に移行する。そして、再生モード処理内部の機能によって撮影モードが選択されたときには、フローはステップS44に戻る。また、再生モード処理内部の機能によってカメラオフ操作が検出されたときにはフローを終了する。 As in the first embodiment, when a reproduction mode setting operation by the operation unit 15 is detected in step S42, the process proceeds to a reproduction mode process in step S72. When the shooting mode is selected by the function within the playback mode process, the flow returns to step S44. Also, when a camera-off operation is detected by a function within the playback mode process, the flow ends.

また、ステップS68で操作部15のシャッタレリーズボタンによるレリーズ定操作が検出された時はステップS74の撮像記録処理に移行する。そして、撮像記録および表示部での撮像結果表示が終わると、フローは自動的にステップS42に戻る。なお、ステップS70でカメラオフ操作が検出されたとき、図6のフローは終了となる。 Further, when the release fixed operation by the shutter release button of the operation unit 15 is detected in step S68, the process proceeds to the imaging recording process in step S74. When the imaging record and the imaging result display on the display unit are finished, the flow automatically returns to step S42. Note that when the camera-off operation is detected in step S70, the flow of FIG. 6 ends.

上記における本発明の種々の特徴は、実施例に限らず、広く活用できるものである。例えば、第1実施例においては、可視光カットフィルタ60により長波長域に感度を有するCIGS撮像センサ54と赤外光カットフィルタ68により可視光に感度域を有するCIGSAFセンサの出力とを組合せて「複合AF機能」は実施するものとして説明した。しかしながら、「複合AF機能」の実施はこのようなものに限るものではない。例えば、図2における波長選択性のない可動半透ミラー66をダイクロイックミラーで構成し、可視光透過させてCIGSAFセンサ70上に導くとともに、長波長域を反射させてAF対応部分測光センサ72に導くようにする。そして、AF対応部分測光センサ72にも、CIGSセンサを用いるようにする。なお、この場合、赤外光カットフィルタ68は不要となる。 The various features of the present invention described above are not limited to the embodiments and can be widely used. For example, in the first embodiment, the visible light cut filter 60 combines the CIGS imaging sensor 54 having sensitivity in the long wavelength region and the infrared light cut filter 68 with the output of the CIGSAF sensor having sensitivity to visible light. The “composite AF function” has been described as being implemented. However, the implementation of the “composite AF function” is not limited to this. For example, the movable semi-transparent mirror 66 having no wavelength selectivity in FIG. 2 is formed of a dichroic mirror, transmits visible light and guides it onto the CIGSAF sensor 70, and reflects the long wavelength region to guide to the AF-compatible partial photometric sensor 72. Like that. A CIGS sensor is also used for the AF-compatible partial photometric sensor 72. In this case, the infrared light cut filter 68 is not necessary.

以上のように構成すれば、長波長域に感度を有するAF対応部分測光センサ72によりAF対応部分のうちのどこに人物が存在するかの推定が可能となり、その部分に対してCIGSAFセンサ70による焦点検出を行うことが可能となる。 If comprised as mentioned above, it becomes possible to estimate where a person exists in the AF corresponding part by the AF corresponding partial photometric sensor 72 having sensitivity in the long wavelength region, and the focus by the CIGSAF sensor 70 is applied to that part. Detection can be performed.

さらに「複合AF機能」の実施は以上のように二つのCIGSセンサを用いるものに限るものではない。例えば図2において、可視光カットフィルタ76がCIGSAFセンサの光路中に挿入された状態においてCIGSAFセンサ自体でAF対応部分のうちのどこに人物が存在するかの推定を行うとともに、赤外光カットフィルタ18が光路中に挿入された状態においてその部分に対してCIGSAFセンサ70による焦点検出を行うことも可能である。このように広い感度領域を有する一つのCIGSを時分割で異なる感度領域にて使い分け、それらの出力を組合せることによって「複合AF機能」を実現することも可能である。 Furthermore, the implementation of the “composite AF function” is not limited to the one using two CIGS sensors as described above. For example, in FIG. 2, in the state where the visible light cut filter 76 is inserted in the optical path of the CIGSAF sensor, the CIGSAF sensor itself estimates where a person exists in the AF-corresponding portion, and the infrared light cut filter 18. It is also possible to perform focus detection by the CIGSAF sensor 70 on the portion in a state where the is inserted in the optical path. It is also possible to realize the “composite AF function” by using one CIGS having a wide sensitivity region in different sensitivity regions in a time division manner and combining their outputs.

また、以上の実施例では、減光のために可動半透ミラーまたはフィルタを光路中に出し入れするものとして説明したが、入射光量の調節はこのような二段階のものに限るものではない。例えば、透過率が段階的に異なる複数の減光フィルタを用意し、これらの一つを光路に挿入することにより、減光の度合いをきめ細かく段階的に変化させるよう構成してもよい、また、透過率が連続的に変化する減光手段を用い、減光の度合いを連続的に変化させるよう構成してもよい。 In the above embodiment, the description has been made on the assumption that the movable semi-transmissive mirror or the filter is put in and out of the optical path for dimming. However, the adjustment of the incident light quantity is not limited to such two steps. For example, a plurality of neutral density filters with different transmittances may be prepared, and one of these may be inserted into the optical path to change the degree of attenuation finely in a stepwise manner. You may comprise so that the degree of light attenuation may be changed continuously using the light reduction means from which the transmittance | permeability changes continuously.

上記の実施例においては、可視光域および赤外光域において60%以上の量子効率を有する高感度および広帯域の分光感度特性をもつセンサとしてCIGSセンサを用いている。CIGSセンサは銅、インジウム、ガリウムおよびセレンよりなる多結晶のCIGS系薄膜を用いた光電センサであるが、その組成制御によりバンドギャップを変化させることで吸収波長域を制御することができる。このうちガリウムの含有率をゼロとしたものは「CIS系薄膜」とも称されるが、本明細書で「CIGSセンサ」という場合は、このようなガリウムを含まない「CIS系薄膜」を用いた光電センサをも意味するものとする。 In the above embodiment, the CIGS sensor is used as a sensor having a high sensitivity and a broadband spectral sensitivity characteristic having a quantum efficiency of 60% or more in the visible light region and the infrared light region. The CIGS sensor is a photoelectric sensor using a polycrystalline CIGS thin film made of copper, indium, gallium, and selenium, and the absorption wavelength region can be controlled by changing the band gap by controlling the composition thereof. Among them, the gallium content is zero, which is also referred to as “CIS thin film”. However, in the present specification, the “CIGS sensor” refers to such a “CIS thin film” that does not contain gallium. It shall also mean a photoelectric sensor.

図7は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのカラーフィルタ配列の第1例である。この第1例においては、赤外光透過フィルタR11、青透過フィルタB12、緑透過フィルタG22および赤透過フィルタR21が図示のように配列され、これを一つの単位として繰り返す配列となっている。本発明のCIGS撮像センサは、図3のように可視光域から赤外光にわたる広い分光感度域をもつため、このように一つのセンサに可視光および赤外光のカラーフィルタを設けることができる。なお、図7の配列は、原色カラーフィルタに赤外光透過フィルタを加えたものであり、原色カラーフィルタにおいて代表的なベイヤー配列と異なり緑の受光面積が青および青と同じになっているが、この点については後の回路処理で補正することができる。 FIG. 7 is a first example of the color filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In this first example, an infrared light transmission filter R11, a blue transmission filter B12, a green transmission filter G22, and a red transmission filter R21 are arranged as shown in the figure, and this is repeated as a unit. Since the CIGS imaging sensor of the present invention has a wide spectral sensitivity range from the visible light range to the infrared light as shown in FIG. 3, the color filter for visible light and infrared light can be provided in one sensor in this way. . The arrangement in FIG. 7 is obtained by adding an infrared light transmission filter to the primary color filter. Unlike the typical Bayer arrangement in the primary color filter, the green light receiving area is the same as that of blue and blue. This point can be corrected by later circuit processing.

ここで、赤外光透過フィルタが配置されていない画素に関する赤外光画像の補間について説明する。まず、青透過フィルタB12に対応する画素については、基本的にはその両側にある赤外光透過フィルタIR11に対応する画素のデータと赤外光透過フィルタIR13に対応する画素のデータの平均値によって補間が行われる。他の青透過フィルに対応する画素における赤外光画像の補間も同様である。一方、赤透過フィルタR21に対応する画素については、同様にその上下にある赤外光透過フィルタIR11に対応する画素のデータと赤外光透過フィルタIR31に対応する画素のデータの平均値によって補間される。他の赤透過フィルタに対応する画素における赤外光画像の補間も同様である。また、緑透過フィルタG22に対応する画素については、その周囲にある赤外光透過フィルタIR11に対応する画素のデータ、赤外光透過フィルタIR13に対応する画素のデータ、赤外光透過フィルタIR33に対応する画素のデータおよび赤外光透過フィルタIR31に対応する画素のデータの平均値によって補間される。他の緑透過フィルタに対応する画素における赤外光画像の補間も同様である。 Here, the interpolation of the infrared light image regarding the pixel in which the infrared light transmission filter is not disposed will be described. First, for the pixel corresponding to the blue transmission filter B12, basically, the average value of the pixel data corresponding to the infrared light transmission filter IR11 and the pixel data corresponding to the infrared light transmission filter IR13 on both sides thereof is determined. Interpolation is performed. The same applies to the interpolation of the infrared light image in the pixels corresponding to the other blue transmission fills. On the other hand, the pixel corresponding to the red transmission filter R21 is similarly interpolated by the average value of the pixel data corresponding to the infrared light transmission filter IR11 above and below the pixel data corresponding to the infrared light transmission filter IR31. The The same applies to the interpolation of the infrared light image in the pixels corresponding to the other red transmission filters. For the pixel corresponding to the green transmission filter G22, the pixel data corresponding to the infrared light transmission filter IR11, the pixel data corresponding to the infrared light transmission filter IR13, and the infrared light transmission filter IR33 around it. Interpolation is performed based on the average value of the corresponding pixel data and the pixel data corresponding to the infrared light transmission filter IR31. The same applies to the interpolation of the infrared light image in the pixels corresponding to the other green transmission filters.

なお、上記のような単純な補間では、実際の被写体とは異なる赤外光画像が得られる可能性がある。これを防止するには、単に近傍の赤外光透過フィルタに対応するデータのみに基づいて赤外光画像の補間を行うのではなく、補間しようとしている画素に影響している可視光のデータも加味して補間を行うのが有効である。例えば、赤透過フィルタR21に対応する画素の赤外光画像の補間において、赤透過フィルタR21に対応する画素が実際に受けている赤色光のデータも加味する。このような可視光データの加味の有無および加味する場合の度合いについては、可視光データと赤外光データとの相互関係または周囲の画素の他の可視光データとの相互関係に基づいて決定する。 Note that with simple interpolation as described above, an infrared light image different from the actual subject may be obtained. To prevent this, instead of simply interpolating an infrared light image based only on the data corresponding to the nearby infrared light transmission filter, the visible light data affecting the pixel being interpolated is also included. It is effective to perform interpolation with consideration. For example, in the interpolation of the infrared light image of the pixel corresponding to the red transmission filter R21, the red light data actually received by the pixel corresponding to the red transmission filter R21 is also taken into consideration. The presence or absence of such visible light data and the degree of addition are determined based on the correlation between visible light data and infrared light data or the correlation between other visible light data of surrounding pixels. .

図8は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのフィルタ配列の第2例である。この第2例にでは、カラーフィルタ配列自体は図7の第1例と共通であるが、各カラーフィルタの受光面積が異なっている。つまり、赤外光透過フィルタIR11および緑透過フィルタG22については、画素に許される最大の受光面積を確保しているが、青透過フィルタB12は遮光部202を設けることにより、受光面積が緑透過フィルタG22の約半分になっている。同様に赤透過フィルタR21についても、遮光部204を設けることにより、受光面積が緑透過フィルタG22の約半分になっている。これは、人間の目の赤および青に対する視感度が緑に対する視感度の約半分であることに対応している。 FIG. 8 is a second example of the filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In the second example, the color filter array itself is common to the first example of FIG. 7, but the light receiving area of each color filter is different. In other words, the infrared light transmission filter IR11 and the green transmission filter G22 secure the maximum light receiving area allowed for the pixel, but the blue transmission filter B12 is provided with the light shielding portion 202 so that the light reception area is the green transmission filter. It is about half of G22. Similarly, with respect to the red transmission filter R21, the light receiving area is about half that of the green transmission filter G22 by providing the light shielding portion 204. This corresponds to the visibility of human eyes with respect to red and blue being about half that of green.

本発明のCIGS撮像センサは、図3のように可視光域において高感度を有するため、上記のように青透過フィルタB12と赤透過フィルタR21の受光面積を減らしても充分対応できる。また、遮光部によって画素毎の受光面積自体を変えるので、ベイヤー配列のように画素数の割合によって人間の視感度への近似を行うのに比べてよりきめ細かな調節を行うことができ、必要に応じ、青透過フィルタB12と赤透過フィルタR21の受光面積比を変えることも可能である。 Since the CIGS imaging sensor of the present invention has high sensitivity in the visible light region as shown in FIG. 3, it can sufficiently cope with reducing the light receiving areas of the blue transmission filter B12 and the red transmission filter R21 as described above. In addition, since the light receiving area of each pixel is changed by the light shielding portion, finer adjustments can be made as compared with approximation to human visual sensitivity by the ratio of the number of pixels as in the Bayer array. Accordingly, the light receiving area ratio of the blue transmission filter B12 and the red transmission filter R21 can be changed.

図9は、図8のフィルタ配列の第2例を採用したCIGSセンサの模式断面図である。図9(A)に示すように、本発明のCIGS撮像センサはLSI400の上にCIGS系薄膜402を積層した構造となっており、1画素分の開口率が非常に大きい。そしてこの上にカラーフィルタ404が乗せられている。この図9(A)の模式断面図における基本構造自体は、フィルタ配列の第2例に限られるものでなく、本発明のCIGSセンサに共通である。 FIG. 9 is a schematic cross-sectional view of a CIGS sensor that employs a second example of the filter arrangement of FIG. As shown in FIG. 9A, the CIGS imaging sensor of the present invention has a structure in which a CIGS thin film 402 is laminated on an LSI 400, and the aperture ratio for one pixel is very large. A color filter 404 is placed thereon. The basic structure itself in the schematic cross-sectional view of FIG. 9A is not limited to the second example of the filter array, and is common to the CIGS sensor of the present invention.

図9(B)は、図9(A)の部分406を拡大した模式断面図であり、図8のフィルタ配列の第2例の断面を概念的に示している。なお、図8および図9(A)では対応する部分には同じ番号を付す。図9(B)に明らかなように、CIGS系薄膜402はそれぞれ画素をなすフォトダイオード408、410等に区分されており、フォトダイオード408の上には、赤外光透過フィルタIR11が載せられている。そして、フォトダイオード410の上には、受光面積を減らすための遮光部202および青透過フィルタB12が載せられている。 FIG. 9B is an enlarged schematic cross-sectional view of the portion 406 of FIG. 9A, and conceptually shows a cross section of the second example of the filter array of FIG. In FIG. 8 and FIG. 9 (A), the same numbers are assigned to corresponding parts. As is clear from FIG. 9B, the CIGS thin film 402 is divided into photodiodes 408, 410, etc. that form pixels, and an infrared light transmission filter IR11 is placed on the photodiode 408. Yes. On the photodiode 410, a light shielding portion 202 and a blue transmission filter B12 for reducing the light receiving area are placed.

図10は、図2の第1実施例におけるライブビューセンサ40または図5の第2実施例におけるライブビューセンサ102に用いられるCIGS撮像センサのフィルタ配列の第3例である。この例は、ベイヤー配列における緑透過フィルタの全数の4分の1を規則的に赤外光透過フィルタIR11、IR33、IR51等に置き換えたものである。残りの4分の3は、ベイヤー配列と同様に緑透過フィルタG13、G22,G31、G42、G44、G35、G24等となっている。 FIG. 10 is a third example of the filter array of the CIGS imaging sensor used in the live view sensor 40 in the first embodiment of FIG. 2 or the live view sensor 102 in the second embodiment of FIG. In this example, a quarter of the total number of green transmission filters in the Bayer array is regularly replaced with infrared light transmission filters IR11, IR33, IR51, and the like. The remaining three quarters are green transmission filters G13, G22, G31, G42, G44, G35, G24, etc., as in the Bayer array.

この結果、緑透過フィルタG13等の全数の割合は、赤透過フィルタR23や、青透過フィルタB32の全数の割合の1.5倍となっている。これによって、ベイヤー配列と同様にして緑透過フィルタに対応する画素の数を増やすことにより、緑透過フィルタの受光面積を増やして人間の目の視感度への近似を図っている。なお、図10のフィルタ配列においても、図8のフィルタ配列の考え方を加味し、赤透過フィルタR23等と青透過フィルタB32等に遮光部を設けてこれらの受光面積を減じることにより視感度への近似のための受光面積の調整を行うことも可能である。 As a result, the ratio of the total number of green transmission filters G13 and the like is 1.5 times the ratio of the total number of red transmission filters R23 and blue transmission filters B32. As a result, the number of pixels corresponding to the green transmission filter is increased in the same manner as the Bayer array, so that the light receiving area of the green transmission filter is increased to approximate the visual sensitivity of the human eye. Also in the filter arrangement of FIG. 10, taking into consideration the concept of the filter arrangement of FIG. 8, a light-shielding portion is provided in the red transmission filter R23 and the blue transmission filter B32 to reduce the light receiving area, thereby improving the visibility. It is also possible to adjust the light receiving area for approximation.

一方、赤外光透過フィルタIR11等は上記のように配列したので、配置は疎らであるとともにその全数の割合も、赤透過フィルタR23や、青透過フィルタB32の全数の割合の半分となっている。本発明のCIGS撮像センサは、図3のように赤外光域において高感度を有するため、画素全数の割合が少なくても充分対応できるとともに、赤外光は波長が長いので画素配置を可視光に比べて疎らにしても対応可能である。 On the other hand, since the infrared light transmission filters IR11 and the like are arranged as described above, the arrangement is sparse and the ratio of the total number is half of the ratio of the total number of the red transmission filter R23 and the blue transmission filter B32. . Since the CIGS imaging sensor of the present invention has high sensitivity in the infrared light region as shown in FIG. 3, it can sufficiently cope with a small proportion of the total number of pixels, and the infrared light has a long wavelength, so the pixel arrangement is visible light. Even if it is sparse compared to, it is possible to cope.

次に、図10のフィルタ配列における赤外光透過フィルタが配置されていない画素に関する赤外光画像の補間について説明する。まず、緑透過フィルタG35に対応する画素については、その二つ上方にある赤外光透過フィルタIR15に対応する画素のデータ、二つ左方にある赤外光透過フィルタIR33に対応する画素のデータ、二つ下方にある赤外光透過フィルタIR55に対応する画素のデータおよび二つ右方にある赤外光透過フィルタIR37に対応する画素のデータの平均値によって補間が行われる。また、緑透過フィルタG24に対応する画素については、その右上方にある赤外光透過フィルタIR15に対応する画素のデータと左下方にある赤外光透過フィルタIR33に対応する画素のデータの平均値によって補間が行われる。さらに緑透過フィルタG26に対応する画素については、その左上方にある赤外光透過フィルタIR15に対応する画素のデータと右下方にある赤外光透過フィルタIR37に対応する画素のデータの平均値によって補間が行われる。 Next, interpolation of an infrared light image relating to a pixel in which an infrared light transmission filter is not arranged in the filter array of FIG. 10 will be described. First, with respect to the pixel corresponding to the green transmission filter G35, the pixel data corresponding to the infrared light transmission filter IR15 which is two above and the pixel data corresponding to the infrared light transmission filter IR33 which are two to the left. The interpolation is performed by the average value of the pixel data corresponding to the two infrared light transmission filters IR55 below and the pixel data corresponding to the two infrared light transmission filters IR37 on the right. For the pixel corresponding to the green transmission filter G24, the average value of the pixel data corresponding to the infrared light transmission filter IR15 at the upper right and the pixel data corresponding to the infrared light transmission filter IR33 at the lower left. Is interpolated. Further, for the pixel corresponding to the green transmission filter G26, the average value of the pixel data corresponding to the infrared light transmission filter IR15 in the upper left and the pixel data corresponding to the infrared light transmission filter IR37 in the lower right is determined. Interpolation is performed.

そして、赤透過フィルタR25に対応する画素について、上記のように補間して求めた緑透過フィルタG35、G24、G26にそれぞれ対応する画像の赤外光画像データと赤外光透過フィルタIR15に対応する画素のデータの平均値によって補間する。これを整理すると、次のようにIR15、IR33、IR55およびIR37に対応する赤外光画像データの重み付け平均となる。
{(IR15+IR33+IR55+IR37)/4+(IR15+IR33)/2
+(IR15+IR37)/2+IR15}/4
=(9IR15+3IR33+IR55+3IR37)/16
以下同様にして各可視光フィルタに対応する画素の赤外光画像データを補完していく。
The pixels corresponding to the red transmission filter R25 correspond to the infrared light image data and the infrared light transmission filter IR15 corresponding to the green transmission filters G35, G24, and G26 obtained by interpolation as described above. Interpolation is based on the average value of pixel data. When this is arranged, the weighted average of infrared light image data corresponding to IR15, IR33, IR55, and IR37 is obtained as follows.
{(IR15 + IR33 + IR55 + IR37) / 4 + (IR15 + IR33) / 2
+ (IR15 + IR37) / 2 + IR15} / 4
= (9IR15 + 3IR33 + IR55 + 3IR37) / 16
In the same manner, the infrared light image data of the pixels corresponding to each visible light filter is complemented.

緑透過フィルタが配置されていない画素に関する緑画像の補間については、まず、赤外光透過フィルタIR33に対応する画像をその周囲の緑透過フィルタG22、G42、G44、G24に対応する画素の平均をとって補間する。そして、上記のように補間して求めた赤外光透過フィルタIR33に対応する画像の緑画像データと、緑透過フィルタG22、G31およびG42の緑画像データの平均をとって、これらの中心にある赤透過フィルタB32に対応する画像も緑画像データを補間する。これを整理すると、次のようにG22、G31、G42、G44およびG24の重み付け平均となる。
{(G22+G42+G44+G24)/4+G22+G31+G42}/4
=(5G22+4G31+5G42+G44+G24)/16
以下同様にして赤外光透過フィルタ、赤透過フィルタおおび青透過フィルタに対応する画素の緑画像データを補完していく。なお、赤画像および青画像の補間については、図7と同様である。
For the interpolation of the green image for the pixels where the green transmission filter is not arranged, first, the average of the pixels corresponding to the green transmission filters G22, G42, G44, and G24 around the image corresponding to the infrared light transmission filter IR33 is calculated. Interpolate. Then, the average of the green image data of the image corresponding to the infrared light transmission filter IR33 obtained by interpolation as described above and the green image data of the green transmission filters G22, G31, and G42 is taken and is at the center thereof. The image corresponding to the red transmission filter B32 also interpolates the green image data. When this is arranged, the weighted average of G22, G31, G42, G44 and G24 is obtained as follows.
{(G22 + G42 + G44 + G24) / 4 + G22 + G31 + G42} / 4
= (5G22 + 4G31 + 5G42 + G44 + G24) / 16
In the same manner, the green image data of the pixels corresponding to the infrared light transmission filter, the red transmission filter, and the blue transmission filter are complemented. Note that the interpolation of the red image and the blue image is the same as in FIG.

なお、上記の赤透過フィルタのように配置が疎らな場合に補間を繰り返す場合、または、上記の緑透過フィルタのように配置が非対称なデータを用いて補間を行う場合には、上記のように補間で作ったデータを用いてさらに補間を行うことになり、実際とは異なる画像が得られてしまう可能性もある。このような場合においても、上記のような赤外光透過フィルタに対応する画素のデータのみによる補間、または、緑透過フィルタに対応する画像のデータのみによる補間に加え、図7で述べたように、補間しようとしている画素に影響している他の色のデータも加味して補間を行うのが有効である。 When interpolation is repeated when the arrangement is sparse like the above red transmission filter, or when interpolation is performed using asymmetric arrangement data such as the above green transmission filter, as described above Interpolation is further performed using data created by interpolation, and an image different from the actual one may be obtained. Even in such a case, in addition to the interpolation using only the pixel data corresponding to the infrared light transmission filter as described above, or the interpolation using only the image data corresponding to the green transmission filter, as described in FIG. It is effective to perform interpolation in consideration of data of other colors affecting the pixel to be interpolated.

図11は、第2実施例においてライブビューセンサ102の画像を画像記憶部26に記録する際のカメラ制御部116の動作を示すフローチャートである。操作部15によってこの機能を選択する操作を行うとことによってフローがスタートすると、まずステップS82で可動全反射ミラーを106aの位置に下げ、ペンタプリズム104からの光を全てライブビューセンサ102の方向に反射するよう光路切り替えを指示する。そしてステップS84においてミラー8を観察位置に固定し、レリーズを行っても撮影位置にアップしないようにする。さらにステップS86で表示部32による表示を行わせる。 FIG. 11 is a flowchart showing the operation of the camera control unit 116 when the image of the live view sensor 102 is recorded in the image storage unit 26 in the second embodiment. When the flow starts by performing an operation of selecting this function by the operation unit 15, first, the movable total reflection mirror is lowered to the position 106a in step S82, and all the light from the pentaprism 104 is directed to the live view sensor 102. The optical path switching is instructed to reflect. In step S84, the mirror 8 is fixed at the observation position so that it does not move up to the photographing position even when the release is performed. In step S86, display on the display unit 32 is performed.

次いでステップS88で赤外光モードが選択されているかどうかチェックし、該当すればステップS90に進み、AF用の可視光カットフィルタ76をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。さらに、ステップS92で、ライブビュー用の可視光カットフィルタ112をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行い、ステップS94に移行する。 Next, in step S88, it is checked whether or not the infrared light mode is selected, and if it is applicable, the process proceeds to step S90, and an instruction to set the visible light cut filter 76 for AF in the optical path to the CIGSAF sensor 70 is given. 78. In step S92, the mirror / filter driving unit 114 is instructed to set the live view visible light cut filter 112 as the optical path to the live view sensor 102, and the process proceeds to step S94.

一方、ステップS88で、赤外光モードが選択されていないことが検知されるとステップS96に進み、AF用の赤外光カットフィルタ68をCIGSAFセンサ70への光路に設定する指示をミラー/フィルタ駆動部78に対して行う。そしてステップS98に進み、「画像融合モード」が選択されているかどうかチェックする。同一の被写体についての赤外光画像と可視光画像を融合処理することによって植物の埴生分析や病害虫被害の検出を行うことは知られているが、「画像融合モード」は、ほぼ同時に同一被写体に対して赤外光画像と可視光画像を取得することを可能にするもので、動きのある被写体についても互いにずれのない赤外光画像と可視光画像を得ることができる。 On the other hand, if it is detected in step S88 that the infrared light mode is not selected, the process proceeds to step S96, and an instruction to set the infrared light cut filter 68 for AF to the optical path to the CIGSAF sensor 70 is given by the mirror / filter. This is performed for the drive unit 78. In step S98, it is checked whether the “image fusion mode” is selected. Although it is known to analyze plant vegetation and detect pest damage by fusing infrared and visible light images of the same subject, the “image fusion mode” is applied to the same subject almost simultaneously. On the other hand, it is possible to obtain an infrared light image and a visible light image, and an infrared light image and a visible light image that are not shifted from each other can be obtained even for a moving subject.

ステップS98で画像融合モードへの設定が検出ない場合は、可視光モードが選択されていることを意味するからステップS100に進み、ライブビュー用の赤外光カットフィルタ110をライブビューセンサ102への光路に設定する指示をミラー/フィルタ駆動部114に対して行い、ステップS94に移行する。 If the setting to the image fusion mode is not detected in step S98, it means that the visible light mode is selected, so the process proceeds to step S100, and the live view infrared light cut filter 110 is connected to the live view sensor 102. An instruction to set the optical path is given to the mirror / filter driving unit 114, and the process proceeds to step S94.

これに対し、ステップS98で画像融合モードへの設定が検出されると、ステップS102に進み、ライブビューセンサ102への光路から赤外光カットフィルタ110および可視光カットフィルタ112を両者とも除去する指示をミラー/フィルタ駆動部114に対して行う。これは、ライブビューセンサ102によって赤外光画像と可視光画像の両者をほぼ同時に取得するためである。 On the other hand, when the setting to the image fusion mode is detected in step S98, the process proceeds to step S102, and an instruction to remove both the infrared light cut filter 110 and the visible light cut filter 112 from the optical path to the live view sensor 102 is given. Is performed on the mirror / filter driving unit 114. This is because the live view sensor 102 acquires both the infrared light image and the visible light image almost simultaneously.

次いでステップS104で表示部32によるライブビュー表示を禁止する指示を出してステップS94に移行する。これは交換レンズ4による可視光と赤外光の結像位置が異なるので赤外光画像と可視光画像をそのまま表示部32に表示するとピントがあった像と合わない像が重なり、見づらい表示になるからである。なお、ステップS104においては、表示部32による表示を全面的に禁止する代わりに、赤外光画像と可視光画像のうちピントの合っている方(通常は可視光像)の画素情報のみを抽出して表示する指示を行ってもよい。この場合、フィルタを外しているので、これらの画素にもピントの合っていない画像情報の光が入射入しているが、ピントの合っている画像情報の光の強度が優勢なので表示は可能である。また上記のような表示の全面禁止かまたはピントの合っていない画像用の画素情報のみの表示禁止かを予め選択可能としておき、ステップS104で選択された方の指示を出すようにしてもよい。 Next, in step S104, an instruction to prohibit live view display by the display unit 32 is issued, and the process proceeds to step S94. This is because the imaging positions of visible light and infrared light by the interchangeable lens 4 are different, so that when the infrared light image and the visible light image are displayed as they are on the display unit 32, the image that does not match the focused image overlaps, making it difficult to see. Because it becomes. In step S104, instead of completely prohibiting display by the display unit 32, only the pixel information of the infrared light image and the visible light image that are in focus (usually the visible light image) is extracted. May be displayed. In this case, because the filter is removed, light of image information that is not in focus is incident on these pixels, but display is possible because the light intensity of the image information that is in focus is dominant. is there. Further, it may be possible to select in advance whether to prohibit the entire display as described above or display only pixel information for an image that is not in focus, and to issue an instruction of the one selected in step S104.

ステップS94では、レリーズ操作が行われたかどうかをチェックする。そしてレリーズ操作がなければステップS86に戻り、以下、レリーズ操作が検出されるまでステップS86からステップS104を繰り返す。これによって、操作部15によるモード切り替えに対応する。なお、図4で述べたように、「指示」の機械的実行には遅延期間が設けられているので、図11においても、実際にモード切り替えが行われない限り、ステップS86からステップS104の繰返しの中でフィルタの駆動が生じるわけではない。これは、ステップS86およびステップS104による表示部32の表示と禁止の切り替えについても同様である。 In step S94, it is checked whether or not a release operation has been performed. If there is no release operation, the process returns to step S86, and thereafter, steps S86 to S104 are repeated until a release operation is detected. This corresponds to mode switching by the operation unit 15. As described with reference to FIG. 4, a delay period is provided for the mechanical execution of “instruction”. Therefore, in FIG. 11 as well, steps S86 to S104 are repeated unless the mode is actually switched. In this case, driving of the filter does not occur. The same applies to the display and prohibition switching of the display unit 32 in step S86 and step S104.

ステップS94では、レリーズ操作が検出されるとステップS106に進み、レンズ光学系6のAF駆動が行われ、これによってピンとが合うとステップS108のライブビュー記録処理を行う。このAF駆動は赤外光画像に対するものである場合と可視光画像に対するものである場合がある。次いでステップS110で画像融合モードが設定されているかどうかを検出し、該当しなければ直ちにフローを終了する。 In step S94, when a release operation is detected, the process proceeds to step S106, where AF driving of the lens optical system 6 is performed, and when the pin is aligned, a live view recording process of step S108 is performed. This AF drive may be for an infrared light image or a visible light image. Next, in step S110, it is detected whether the image fusion mode is set. If not, the flow is immediately terminated.

一方、ステップS110で画像融合モードの設定が検出されるとステップS112に進み、AF制御部36によってレンズ光学系6を赤外光補正駆動する。換言すると、画像融合モードが設定されている場合、ステップS106におけるAF駆動およびステップS108におけるライブビュー記録処理は可視光像に対するものであるが、ステップS112では、可視光についてのピント位置から赤外光についてのピント位置までの所定の補正駆動をAF駆動部38によってレンズ光学系6に行わせるものである。この赤外光補正駆動は極めて短時間に行われ、直ちにステップS114のライブビュー赤外光記録処理に入る。そして処理が完了するとフローを終了する。以上のような機能の詳細は後述するが、基本的には画像融合モードにおいては、ステップS108にて可視光画像の記録を行い、引き続いてほぼ同時にステップS114において赤外光画像の記録を行うものである。 On the other hand, when the setting of the image fusion mode is detected in step S110, the process proceeds to step S112, and the AF control unit 36 drives the lens optical system 6 for infrared light correction. In other words, when the image fusion mode is set, the AF driving in step S106 and the live view recording process in step S108 are for the visible light image, but in step S112, the infrared light is shifted from the focus position for visible light. The lens optical system 6 is caused to perform predetermined correction driving up to the focus position for the AF driving unit 38. This infrared light correction drive is performed in a very short time, and immediately enters the live view infrared light recording process of step S114. Then, when the process is completed, the flow ends. Although details of the above functions will be described later, basically, in the image fusion mode, a visible light image is recorded in step S108, and subsequently, an infrared light image is recorded almost simultaneously in step S114. It is.

図12は、図11のステップS108におけるライブビュー記録処理およびステップS114におけるライブビュー赤外光記録処理の詳細を示すフローチャートであり、いずれにも共通して利用できるものである。フローがスタートするとステップS122で赤外光撮影モードに設定されているかどうかのチェックが行われる。そして該当しなければステップS124に進み、RGBの画素のデータを読み出すことにより可視光画像の画素情報を得る。そしてステップS126でRGBの補間処理を行う。次いで、ステップS128では、画像融合モードに設定されているかどうかのチェックを行い、該当しなければステップS130に進んでRGBの可視光カラー画像について画像処理を行う。そしてステップS132に進み、その画像を画像記録部26に記録してフローを終了する。 FIG. 12 is a flowchart showing details of the live view recording process in step S108 in FIG. 11 and the live view infrared light recording process in step S114, which can be used in common for both. When the flow starts, it is checked in step S122 whether or not the infrared light photographing mode is set. If not, the process proceeds to step S124, and pixel information of the visible light image is obtained by reading out RGB pixel data. In step S126, RGB interpolation processing is performed. Next, in step S128, it is checked whether or not the image fusion mode is set. If not, the process proceeds to step S130 to perform image processing on the RGB visible light color image. In step S132, the image is recorded in the image recording unit 26, and the flow ends.

一方、ステップS122で赤外光モードへの設定が検出されるとステップS134に進み、IRの画素のデータを読み出すことにより赤外光画像の画素情報を得る。そしてステップS136でIRの補間処理を行う。次いで、ステップS138では、画像融合モードに設定されているかどうかのチェックを行うが、この場合は赤外光モードであって該当しないのでステップS140に進み、赤外光画像について画像処理を行う。そしてステップS132に進み、その画像を画像記録部26に記録してフローを終了する。 On the other hand, when the setting to the infrared light mode is detected in step S122, the process proceeds to step S134, and the pixel information of the infrared light image is obtained by reading the IR pixel data. In step S136, IR interpolation processing is performed. Next, in step S138, it is checked whether or not the image fusion mode is set. In this case, since the infrared light mode is not applicable, the process proceeds to step S140, and image processing is performed on the infrared light image. In step S132, the image is recorded in the image recording unit 26, and the flow ends.

さらにステップS128で画像融合モードへの設定が検出された場合、ステップS134に進んでIRの画素のデータを読み出すことにより赤外光画像の画素情報を得る。そしてステップS136でIRの補間処理を行う。これらによって、ステップS124、126による可視光画像情報に加えて赤外光画像情報も得ることができる。次いで、ステップS138で、画像融合モードに設定されているかどうかのチェックを行うが、この場合は画像融合モードなのでステップS142に進み、ステップS134およびステップS136の処理によって得られた赤外光画像が赤外光補正駆動後のものであるかどうかのチェックを行う。 Further, when the setting to the image fusion mode is detected in step S128, the process proceeds to step S134 to read out IR pixel data to obtain pixel information of the infrared light image. In step S136, IR interpolation processing is performed. By these, in addition to visible light image information in steps S124 and 126, infrared light image information can also be obtained. Next, in step S138, it is checked whether or not the image fusion mode is set. In this case, since it is the image fusion mode, the process proceeds to step S142, and the infrared light image obtained by the processing in steps S134 and S136 is red. It is checked whether it is after external light correction driving.

ここで、ステップS142に該当するか否かがどのような意味を持つかについて補足する。まず、ステップS142に該当しない場合は、図12のフローが図11のステップS108で実行されている場合に相当する。そしてステップS124およびステップS126で得られる可視光画像は図11のステップS106における可視光に対するAF駆動によりピントが合ったものであり、ステップS134およびステップS136で得られる赤外光画像はピントがずれたものとなっている。一方、ステップS142に該当する場合は、図12のフローが図11のステップS114で実行されている場合に相当する。そしてステップS134およびステップS136で得られる赤外光画像は図11のステップS112における赤外光補正駆動によりピントが合ったものであり、ステップS124およびステップS126で得られる可視光画像はピントがずれたものとなっている。 Here, the meaning of whether or not the step corresponds to step S142 will be supplemented. First, when it does not correspond to step S142, it corresponds to the case where the flow of FIG. 12 is performed by step S108 of FIG. The visible light image obtained in step S124 and step S126 is in focus by AF driving for visible light in step S106 in FIG. 11, and the infrared light image obtained in step S134 and step S136 is out of focus. It has become a thing. On the other hand, the case corresponding to step S142 corresponds to the case where the flow of FIG. 12 is executed in step S114 of FIG. The infrared light images obtained in steps S134 and S136 are in focus by the infrared light correction drive in step S112 in FIG. 11, and the visible light images obtained in steps S124 and S126 are out of focus. It has become a thing.

そこで、得られた画像が赤外光補正駆動後の画像に該当しないとステップS142で判断された場合はステップS144に進み、ピントの合っているRGBの可視光画像について画像処理をおこなう。次いでステップS146においてピントの合っていない赤外光画像について補助的に画像処理を行う。そしてステップS148において、可視光画像を赤外光画像情報で補正した画像を作成する。この画像は基本的には可視光画像であるが、ピントがずれてデフォーカス状態にある赤外光画像の情報を加味することにより、ローパスフィルタ効果等で可視光画像の画質を改善するものである。以上の処理を経てステップS132に進み、ステップS144、ステップS146およびステップS148で得られたそれぞれの画像を記録してフローを終了する。 Therefore, if it is determined in step S142 that the obtained image does not correspond to the image after infrared light correction driving, the process proceeds to step S144, and image processing is performed on the focused RGB visible light image. Next, in step S146, auxiliary infrared image processing is performed on the in-focus infrared light image. In step S148, an image obtained by correcting the visible light image with the infrared light image information is created. This image is basically a visible light image, but it improves the image quality of the visible light image by the low-pass filter effect, etc., by adding the information of the infrared light image that is out of focus and defocused. is there. Through the above processing, the process proceeds to step S132, the images obtained in step S144, step S146, and step S148 are recorded, and the flow ends.

一方、得られた画像が赤外光補正駆動後の画像に該当するとステップS142で判断された場合はステップS150に進み、ピントの合っている赤外光画像について画像処理をおこなう。次いでステップS152においてピントの合っていないRGBの可視光画像について補助的に画像処理を行う。そしてステップS156において、赤外光画像を可視光画像情報で補正した画像を作成する。この画像は基本的には赤外光画像であるが、ピントがずれてデフォーカス状態にある可視光画像の情報を加味することにより、ローパスフィルタ効果等で赤外光画像の画質を改善するものである。 On the other hand, if it is determined in step S142 that the obtained image corresponds to an image after infrared light correction driving, the process proceeds to step S150, and image processing is performed on the focused infrared light image. Next, in step S152, image processing is performed supplementarily for the visible RGB light image that is not in focus. In step S156, an image obtained by correcting the infrared light image with the visible light image information is created. This image is basically an infrared light image, but it improves the image quality of the infrared light image by the low-pass filter effect, etc. by adding the information of the visible light image that is out of focus and defocused. It is.

さらに、ステップS156では、図11のステップS108で記録された赤外光補正駆動前画像を読み出す。これによって、ピントの合った赤外光画像、ピントの合った可視光画像、ピントの外れた赤外光画像、ピントの外れた可視光画像、補正赤外光画像および補正可視光画像が揃うことになり、次のステップS158でこれらの画像に基づく画像融合処理が行われる。 Further, in step S156, the pre-infrared light correction driving image recorded in step S108 of FIG. 11 is read. As a result, a focused infrared light image, a focused visible light image, an out-of-focus infrared light image, an out-of-focus visible light image, a corrected infrared light image, and a corrected visible light image are aligned. In the next step S158, image fusion processing based on these images is performed.

ステップS158の画像融合処理の内容は基本的にはピントの合った赤外光画像とピントの合った可視光画像の融合であり、これによって一方のみでは判断できない画像診断が可能となる。また、これに代えて、補正赤外光画像および補正可視光画像の融合による画像診断も可能である。さらに、ピントの合った可視光画像と、ピントの外れた可視光画像の融合により、核の締まったソフトフォーカス可視光画像を得ることもできる。同様に、ピントの合った赤外光画像と、ピントの外れた赤外光画像によりソフトフォーカス赤外光画像を得ることもできる。さらに、ピントの合った可視光画像を、ピントの合った赤外光画像で補正することにより、赤外光カットフィルタをかけて得た可視光画像に準じた画像を得ることもできる。その逆に、ピントの合った赤外光画像をピントの合った可視光画像で補正することにより、可視光カットフィルタをかけて得た赤外光画像に準じた画像を得ることもできる。これらの処理のどれを選ぶかは操作部15により設定できるが、被写体に応じ自動的に選択することも可能である。 The content of the image fusion processing in step S158 is basically the fusion of the focused infrared light image and the focused visible light image, thereby enabling image diagnosis that cannot be determined by one alone. In place of this, image diagnosis by fusing a corrected infrared light image and a corrected visible light image is also possible. Furthermore, a soft-focused visible light image with a tight core can be obtained by fusing a focused visible light image and an out-of-focus visible light image. Similarly, a soft focus infrared light image can be obtained from an in-focus infrared light image and an out-of-focus infrared light image. Furthermore, by correcting the focused visible light image with the focused infrared light image, an image according to the visible light image obtained by applying the infrared light cut filter can be obtained. Conversely, by correcting the focused infrared light image with the focused visible light image, it is also possible to obtain an image according to the infrared light image obtained by applying the visible light cut filter. Which of these processes is selected can be set by the operation unit 15, but can be automatically selected according to the subject.

以上のようなステップS158の処理が終了すると、ステップS132に至り、処理により得られた画像が記録されてフローを終了する。なお、ステップS132において記録する画像は、ステップS158で処理した全ての画像であってもよく、またはステップS158の処理の中で選択されて最終的に必要と判断された画像であってもよい。この選択についても、操作部15により設定できるが、処理結果に応じてステップS158の中で自動的に選択するよう構成することも可能である。 When the process of step S158 as described above is completed, the process proceeds to step S132, the image obtained by the process is recorded, and the flow ends. Note that the image to be recorded in step S132 may be all the images processed in step S158, or may be an image selected in the process of step S158 and finally determined to be necessary. This selection can also be set by the operation unit 15, but it can be configured to automatically select in step S158 according to the processing result.

上記の図11および図12の画像記録機能に関するフローチャートの適用対象は、第2実施例におけるような一眼レフカメラのライブビューセンサ102の画像記録に限るものではなく、例えば、CIGSセンサへの画像記録専用に構成した可視光/赤外光画像記録カメラにも適用可能である。このような可視光/赤外光画像記録カメラは、例えば図5において焦点板10、ペンタプリズム104およびアイピース14などの光学ファインダ系を除去するとともに、撮像部20に代えてその位置にCIGS撮像センサを配置することによって構成可能である。その際、レンズ光学系6からCIGS撮像センサに向かって直進する光路中に出し入れできるよう赤外光カットフィルタ110および可視光カットフィルタ112を設ける。また、可動ミラー8に代え、入射光の大半が透過成分として直進するとともに反射光が下方の測光兼用AFセンサ34に向かう固定のハーフミラーを設ける。 The application target of the flowchart relating to the image recording function of FIG. 11 and FIG. 12 is not limited to the image recording of the live view sensor 102 of the single-lens reflex camera as in the second embodiment. For example, the image recording to the CIGS sensor The present invention can also be applied to a dedicated visible / infrared light image recording camera. Such a visible light / infrared light image recording camera removes the optical finder system such as the focusing screen 10, the pentaprism 104, and the eyepiece 14 in FIG. 5 and replaces the imaging unit 20 with a CIGS imaging sensor. Can be configured. At that time, an infrared light cut filter 110 and a visible light cut filter 112 are provided so that they can be taken in and out of an optical path that goes straight from the lens optical system 6 toward the CIGS image sensor. Further, instead of the movable mirror 8, a fixed half mirror is provided in which most of the incident light travels straight as a transmission component and the reflected light travels to the lower photometry / AF sensor 34.

図13は、本発明の第3実施例のブロック図であり、内視鏡システムを構成している。内視鏡システムは体内に飲み込まれて消化器内部を撮影し画像データを体外に送信するカプセル内視鏡502と、送信されて画像データを体外で受信してモニタする体外モニタ504を有する。カプセル内視鏡502は、透明な保護窓506を有する密閉構造になっており、保護窓506を通り撮像レンズ508によって結像される消化器内部の画像がCIGS撮像センサ510で撮像される。CIGS画像センサ510は、図3で説明したとおりの分光感度を持ち、高感度で可視光域の撮像が可能であるともに赤外光においても高感度での撮像が可能なものである。撮像レンズ508は、レンズ駆動部512によってその画角およびピント位置が調節可能である。 FIG. 13 is a block diagram of a third embodiment of the present invention, which constitutes an endoscope system. The endoscope system includes a capsule endoscope 502 that is swallowed into the body, images the inside of the digestive organs, and transmits image data to the outside of the body, and an extracorporeal monitor 504 that receives and monitors the image data transmitted outside the body. The capsule endoscope 502 has a sealed structure having a transparent protective window 506, and an image inside the digestive organ formed by the imaging lens 508 through the protective window 506 is captured by the CIGS imaging sensor 510. The CIGS image sensor 510 has the spectral sensitivity as described with reference to FIG. 3 and can capture an image in the visible light range with high sensitivity and can also perform image capture with high sensitivity even in infrared light. The angle of view and the focus position of the imaging lens 508 can be adjusted by the lens driving unit 512.

第3実施例のCIGSセンサ510は、図7から図10に示したようなカラーフィルタを持っておらず、全ての画素に可視光域から赤外光域にわたる広範囲の光が入射しうる。つまり、第3実施例での撮像における光の分解は、受光側でのカラーフィルタによるのではなく、光源側での光の切換えによって行うようにしている。具体的には、光源として赤、緑、青および赤外の発光ダイオード(以下適宜「LED」と称する)が用いられ、これらが時分割で順次発光することにより各発光タイミングにおけるCIGSセンサ510撮像出力が、各色での画像データとなる。 The CIGS sensor 510 of the third embodiment does not have a color filter as shown in FIGS. 7 to 10, and a wide range of light ranging from the visible light region to the infrared light region can be incident on all pixels. That is, the light decomposition in the imaging in the third embodiment is not performed by the color filter on the light receiving side, but is performed by switching the light on the light source side. Specifically, red, green, blue, and infrared light emitting diodes (hereinafter referred to as “LEDs” as appropriate) are used as light sources, and these emit light sequentially in a time-sharing manner, whereby CIGS sensor 510 imaging output at each light emission timing Is the image data for each color.

LEDは撮像レンズ508の光軸まわりに同心的に多数設けられているが、図13では、簡単のため、例として緑LED514および赤外LED516をそれぞれ一つ図示している。例えば緑LED514が発光しているときのCIGS撮像センサ510の撮像出力が緑画像データとなるとともに、赤外LED516が発光しているときのCIGS撮像センサ510の撮像出力が赤外画像データとなる。なお、可視光と赤外光では結像位置にズレがあるので必要に応じレンズ駆動部512が結像位置を調節する。第3実施例は内視鏡であり、撮影対象である体内は充分暗いのでこのように光源光の時分割による光の分解が可能となる。光源、撮像、および撮像レンズ等の関係については後に詳述する。 A large number of LEDs are concentrically provided around the optical axis of the imaging lens 508. In FIG. 13, for the sake of simplicity, one green LED 514 and one infrared LED 516 are shown as an example. For example, the imaging output of the CIGS imaging sensor 510 when the green LED 514 emits light becomes green image data, and the imaging output of the CIGS imaging sensor 510 when the infrared LED 516 emits light becomes infrared image data. In addition, since there is a deviation in the imaging position between visible light and infrared light, the lens driving unit 512 adjusts the imaging position as necessary. The third embodiment is an endoscope, and the inside of the body to be photographed is sufficiently dark, so that the light can be decomposed by time division of the light source light in this way. The relationship between the light source, imaging, imaging lens, etc. will be described in detail later.

LEDドライバ518は、内視鏡制御部520の指示に基づいてLED514、516の点灯タイミングを制御する。内視鏡制御部520はカプセル内視鏡502全体を制御するもので、その機能は記憶部522に記憶されたプログラムに従う。記憶部522は、さらに内視鏡制御部520の機能に必要なデータ等を必要に応じ一時的に記憶する。 The LED driver 518 controls the lighting timing of the LEDs 514 and 516 based on an instruction from the endoscope control unit 520. The endoscope control unit 520 controls the entire capsule endoscope 502, and its function follows a program stored in the storage unit 522. The storage unit 522 further temporarily stores data necessary for the function of the endoscope control unit 520 as needed.

センサドライバ524は内視鏡制御部520の指示に基づいてCIGS撮像センサ510を制御するとともにCIGS撮像センサからの各色別画像RAWデータを画像バッファ526に格納する。画像バッファ526は所定撮像回数分の各色別画像RAWデータを格納可能であり、無線通信部528は画像バッファ526の各色別画像RAWデータをFIFOで取り出してアンテナ530から体外に送信する。電池532はボタン電池などで構成され、カプセル内視鏡502全体に電力を供給する。 The sensor driver 524 controls the CIGS imaging sensor 510 based on an instruction from the endoscope control unit 520 and stores each color-specific image RAW data from the CIGS imaging sensor in the image buffer 526. The image buffer 526 can store the image RAW data for each color for a predetermined number of times, and the wireless communication unit 528 extracts the image RAW data for each color in the image buffer 526 using a FIFO and transmits it from the antenna 530 to the outside of the body. The battery 532 is configured by a button battery or the like, and supplies power to the entire capsule endoscope 502.

体外モニタ504は、無線通信部534を有し、カプセル内視鏡502から送信された各色別画像RAWデータをアンテナ536で受信して画像バッファ538に格納する。これらの機能はモニタ制御部540によって制御される。モニタ制御部540は記憶部542に記憶されたプログラムに従って体外モニタ504全体を制御する。記憶部542は、さらにモニタ制御部540の機能に必要なデータ等を必要に応じ一時的に記憶する。 The extracorporeal monitor 504 includes a wireless communication unit 534, receives each color image RAW data transmitted from the capsule endoscope 502 by the antenna 536, and stores the received image RAW data in the image buffer 538. These functions are controlled by the monitor control unit 540. The monitor control unit 540 controls the entire external monitor 504 according to the program stored in the storage unit 542. The storage unit 542 further temporarily stores data and the like necessary for the function of the monitor control unit 540 as necessary.

画像処理部544は、モニタ制御部540の指示に基づき画像バッファ548に格納されている各色別RAWデータを画像信号に画像処理するとともに、赤画像信号、緑画像信号および青画像信号からカラー画像信号を作成しレコーダ546に記憶する。また、赤外画像信号についてもこれをレコーダ546に記録する。記録されたデータは適宜表示部548でモニタすることができる。また、画像処理部からのカラー画像信号または赤外画像信号はリアルタイムで表示部548により直接モニタすることもできる。 The image processing unit 544 performs image processing on each color-specific RAW data stored in the image buffer 548 based on an instruction from the monitor control unit 540 into an image signal, and outputs a color image signal from the red image signal, the green image signal, and the blue image signal. Is stored in the recorder 546. The infrared image signal is also recorded in the recorder 546. The recorded data can be monitored by the display unit 548 as appropriate. Further, the color image signal or infrared image signal from the image processing unit can be directly monitored by the display unit 548 in real time.

図14は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第1の例を示す正面図である。図13と対応する部分には同一番号を付す。図14から明らかなように、透明の保護窓506の内側の撮像レンズ508の周囲には緑LED514が互いに90度ずつ隔てた回転対象に4個設けられている。これらを結んだ線550は正方形である。また、緑LED514から45度回転した正方形552の頂点部分には、赤外LED516が互いに90度ずつ隔てた回転対象に4個設けられている。さらに、縦長長方形554の頂点部分には赤LED556が4個設けられているとともに、横長長方形558の頂点部分には青LED560が4個設けられている。この結果、赤、緑および青の各LEDは図14図で見て垂直方向および水平方向のいずれにも線対称の配置となり、各色について垂直方向と水平方向のいずれにも照明の対称性が保たれる。 FIG. 14 is a front view showing a first example of an LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Parts corresponding to those in FIG. As is apparent from FIG. 14, four green LEDs 514 are provided around the imaging lens 508 inside the transparent protective window 506 and are to be rotated 90 degrees apart from each other. A line 550 connecting them is a square. In addition, four infrared LEDs 516 are provided at the apex portion of the square 552 rotated by 45 degrees from the green LED 514 to be rotated objects that are separated from each other by 90 degrees. Further, four red LEDs 556 are provided at the apex portion of the vertically long rectangle 554, and four blue LEDs 560 are provided at the apex portion of the horizontally long rectangle 558. As a result, the red, green, and blue LEDs are arranged in line symmetry in both the vertical and horizontal directions as shown in FIG. 14, and the symmetry of illumination is maintained in both the vertical and horizontal directions for each color. Be drunk.

図15は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第2の例を示す正面図である。図15においても、図13と対応する部分には同一番号を付す。図15における緑LED514および赤外LED516の配置は、図14と共通である。これに対し、赤LED562は、緑LED514から左に22.5度回転した正方形564の頂点部分に互いに90度ずつ隔てた回転対象に4個設けられている。また、青ダイオード566は、緑LED514から右に22.5度回転した正方形568の頂点部分に互いに90度ずつ隔てた回転対象に4個設けられている。この結果、赤、緑および青の各LEDは図14図で見てそれぞれ上下左右の四方向にそれぞれ密集して配置されることになり、各色のLEDがずれて配置されていることによる照明影色ムラが軽減される。さらに、各色とも正方形の頂点部分に配されているので撮像レンズ508の光軸まわりに互いに回転対象の配置となる。 FIG. 15 is a front view showing a second example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Also in FIG. 15, the same reference numerals are given to the portions corresponding to those in FIG. The arrangement of the green LED 514 and the infrared LED 516 in FIG. 15 is the same as that in FIG. On the other hand, four red LEDs 562 are provided on the object to be rotated 90 degrees apart from each other at the apex of a square 564 rotated 22.5 degrees to the left from the green LED 514. In addition, four blue diodes 566 are provided on the top of a square 568 that is rotated 22.5 degrees to the right from the green LED 514 on a rotation target that is 90 degrees apart from each other. As a result, the red, green, and blue LEDs are densely arranged in the four directions, up, down, left, and right, respectively, as seen in FIG. Color unevenness is reduced. Further, since each color is arranged at the apex of the square, the rotation targets are arranged around the optical axis of the imaging lens 508.

図16は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第3の例を示す正面図である。図16においても、図13と対応する部分には同一番号を付す。図16における緑LED514および赤外LED516の配置は、図14と共通である。これに対し、左に45度傾いた縦長長方形570の頂点部分には赤LED572が4個設けられているとともに、右に45度傾いた縦長長方形574の頂点部分には青LED576が4個設けられている。この結果、赤、緑および青の各LEDは図16図で見て対抗する赤外LEDを結ぶ左45度傾いた線および右45度傾いた線のいずれについても線対称の配置となり、各色についてこれらのいずれの方向についても照明の対称性が保たれる。さらに、赤、緑および青の各LEDは図16図で見てそれぞれ上下左右の四方向にそれぞれ密集して配置されることになり、各色のLEDがずれて配置されていることによる照明影色ムラが軽減される。 FIG. 16 is a front view showing a third example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. Also in FIG. 16, the same reference numerals are given to the portions corresponding to FIG. The arrangement of the green LED 514 and the infrared LED 516 in FIG. 16 is the same as that in FIG. In contrast, four red LEDs 572 are provided at the apex portion of the vertical rectangle 570 inclined 45 degrees to the left, and four blue LEDs 576 are provided at the apex portion of the vertical rectangle 574 inclined 45 degrees to the right. ing. As a result, the red, green, and blue LEDs are arranged in line symmetry with respect to both the 45 ° left line and the right 45 ° line connecting the opposing infrared LEDs as seen in FIG. The illumination symmetry is maintained in any of these directions. Further, the red, green, and blue LEDs are densely arranged in the four directions of top, bottom, left, and right as seen in FIG. Unevenness is reduced.

以上、図14から図16に示したLEDの配置例は、各図において緑LEDが上下左右に配置され、赤外LEDがこれから45度回転した位置に配されているが、全体の配置はこれに限るものではなく、CIGS撮像センサの画素配置の升目方向との関係で適宜全体を回転させて配置してもよい。例えば、図14から図16に示したLEDの配置例は、CIGS撮像センサの画素配置の升目の上下左右方向を基準として緑LEDが上下左右に配置したものであるが、これを全体に45度回転させ、赤外LEDが画素配置の升目方向に合わせて上下左右に配置されるようにしてもよい。この場合、緑LEDがこれから45度回転した位置に配置されることになる。 As described above, in the LED arrangement examples shown in FIGS. 14 to 16, the green LEDs are arranged vertically and horizontally and the infrared LEDs are arranged at a position rotated 45 degrees from now on. The arrangement is not limited to this, and the entire arrangement may be appropriately rotated in relation to the grid direction of the pixel arrangement of the CIGS image sensor. For example, in the LED arrangement examples shown in FIGS. 14 to 16, the green LEDs are arranged vertically and horizontally with reference to the vertical and horizontal directions of the pixel arrangement of the CIGS imaging sensor. The infrared LED may be arranged vertically and horizontally according to the grid direction of the pixel arrangement by rotating. In this case, the green LED is arranged at a position rotated 45 degrees from now.

図17は、第3実施例のカプセル内視鏡502に採用可能なLEDの配置の第4の例を示す正面図である。赤、緑、青および赤外のLEDを撮像レンズ508の光軸まわりに配置する場合、全ての色のLEDを互いに同数とすることに限るものではない。図17はこのようなものの例として、4個の緑LED514、2個の赤LED578および2個の青LED580を採用している。緑LED514の数が赤LED578および青LED580の倍あるのは、緑の発光量を相対的に多くして視感度に合わせるためである。また、図17では8個の赤外LED582を配置して赤外光量を増加させ、赤外光による体内観察能力を充実している。 FIG. 17 is a front view showing a fourth example of the LED arrangement that can be employed in the capsule endoscope 502 of the third embodiment. When red, green, blue, and infrared LEDs are arranged around the optical axis of the imaging lens 508, the number of LEDs of all colors is not limited to the same number. FIG. 17 employs four green LEDs 514, two red LEDs 578, and two blue LEDs 580 as examples of such. The reason why the number of green LEDs 514 is twice that of red LEDs 578 and blue LEDs 580 is to relatively increase the amount of emitted green light to match the visibility. In FIG. 17, eight infrared LEDs 582 are arranged to increase the amount of infrared light, and the in-vivo observation ability with infrared light is enhanced.

なお、図14から図17ではすべて合計16個のLEDを採用しているが、これに限られるものではない。配置が可能な場合、LEDの合計数をさらに増加して照明ムラを軽減することができる。また、最低限の照明の対称性を維持するため、各色各一対のLEDを採用し合計8個のLEDを採用して構成を簡単にすることも可能である。この場合、緑LEDの対を結ぶ線と赤外LEDの対を結ぶ線を90度で交差させるとともに、赤LEDの対と青LEDの対については、それらを結ぶ線が緑LEDの対を結ぶ線の左右にそれぞれ45度回転した状態の配置として、赤と青のLEDが緑LEDの両側に隣接するようにするのが望ましい。なお、配置スペースの事情が許せば、このように8個のLEDを等間隔に配置するのに代えて、赤と青のLEDを緑LEDの両側に密接させ、赤、緑、青LED相互の位置ズレができるだけ少なくなるようにした配置も可能である。 In addition, in FIG. 14 to FIG. 17, a total of 16 LEDs are employed, but the present invention is not limited to this. If arrangement is possible, the total number of LEDs can be further increased to reduce illumination unevenness. Moreover, in order to maintain the minimum symmetry of illumination, it is also possible to adopt a pair of LEDs for each color and to employ a total of 8 LEDs to simplify the configuration. In this case, the line connecting the pair of green LEDs and the line connecting the pair of infrared LEDs are crossed at 90 degrees, and for the pair of red LEDs and the pair of blue LEDs, the line connecting them connects the pair of green LEDs. It is desirable that the red and blue LEDs be adjacent to both sides of the green LED as an arrangement in a state rotated 45 degrees to the left and right of the line. If the arrangement space permits, instead of arranging the eight LEDs at regular intervals in this way, the red and blue LEDs are brought into close contact with both sides of the green LED, and the red, green and blue LEDs are mutually connected. An arrangement in which the positional deviation is minimized is also possible.

図18は、第3実施例のカプセル内視鏡502におけるカラー・赤外モードでの動作の各色LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。カラー・赤外モードでは、可視光のカラー画像および赤外画像が並行して取得される。図18から明らかなように、すべての赤LEDはt1からちt2、全ての緑LEDはt3からt4、すべての青LEDはt5からt6、すべての赤外LEDはt7からt8のタイミングで互いに重なることなく時分割でそれぞれ点灯する。そして、4色のLEDの点灯が一巡すると、再び全ての赤LEDがt9からt10のタイミングで点灯し、以下同様にして緑、青、赤外のLEDが点灯して同様の循環で時分割点灯を繰り返す。t1からt8までの時間は通常のカラー動画の1フレーム時間程度であり、各色の発光量は時分割しない場合の4分の1以下となるが、図3に示すようにCIGSセンサは通常のCMOSセンサに比べて高感度および広帯域の特性なので、短時間の発光量でも充分な光源光となる。 FIG. 18 shows the light emission timing of each color LED, the operation timing of the photoelectric conversion unit, the operation timing of the AD trunk, and the operation timing of the wireless communication unit in the color / infrared mode of operation in the capsule endoscope 502 of the third embodiment. It is a timing chart which shows the relationship. In the color / infrared mode, a visible color image and an infrared image are acquired in parallel. As is clear from FIG. 18, all red LEDs overlap each other at the timing from t1 to t2, all green LEDs from t3 to t4, all blue LEDs from t5 to t6, and all infrared LEDs from t7 to t8. It lights up in time division without any. When the four color LEDs are turned on, all red LEDs are turned on again at the timing from t9 to t10, and the green, blue, and infrared LEDs are turned on in the same manner, and time-division lighting is performed in the same manner. repeat. The time from t1 to t8 is about one frame time of a normal color moving image, and the light emission amount of each color is less than a quarter of the time without time division, but the CIGS sensor is a normal CMOS as shown in FIG. Compared with the sensor, it has high sensitivity and broadband characteristics, so that even a short amount of light emission provides sufficient light source light.

図18のように、カラー・赤外モードにおいて可視光と赤外光を時分割でほぼ同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により広角に設定され、焦点深度が深くなるように設定されるとともに、そのピント位置もレンズ駆動部512の制御により可視光から赤外光をカバーするパンフォーカス状態となるよう設定される。このようにカラー・赤外モードは体内の状態を全体的に粗く観察するのに適している。 As shown in FIG. 18, in the color / infrared mode, when visible light and infrared light are emitted almost simultaneously in a time division manner, the angle of view of the imaging lens 508 in FIG. The depth of focus is set to be deep, and the focus position is also set to be in a pan-focus state that covers visible light to infrared light under the control of the lens driving unit 512. As described above, the color / infrared mode is suitable for observing the overall state of the body roughly.

図18の光電変換部のタイミングチャートから明らかなように、光電変換部は赤LEDの発光開始直後から赤の露光を開始して電荷蓄積を行う。電荷蓄積時間は赤LEDの発光終了直前に設定されているのでここで露光を終了し、電荷の読出しを行う。さらに電荷の読出しが終了すると残留電荷の掃捨を行う。そして電荷の掃捨が終了すると次の緑の露光を開始する。なお図18から明らかなように緑の露光直前に緑ダイオードの発光が開始している。緑の露光についても電荷蓄積時間が終了の後、電荷の読出および残留電化の掃捨が後続している。以下同様にして、青LEDの発光および赤外LEDの発光にそれぞれ同期して、青および赤外の電荷蓄積、電荷読出、および残留電荷掃捨が行われる。そしてこれらの動作が循環する。なお、上記では、光電変換部の機能を各色について説明したが、光電変換部自体に各色を分離して光電変換する機能があるわけではなく、光電変換部自体は単に電荷蓄積、電荷読出、および残留電荷掃捨の同じ動作を繰り返しているだけである。読み出された電荷量が各色の情報を持つのは専ら電荷蓄積の際の光源色に依存する。 As is clear from the timing chart of the photoelectric conversion unit in FIG. 18, the photoelectric conversion unit starts red exposure immediately after the start of light emission of the red LED and accumulates charges. Since the charge accumulation time is set immediately before the end of light emission of the red LED, the exposure ends here and the charge is read out. Further, when the charge reading is completed, the residual charge is swept away. When the charge sweeping is completed, the next green exposure is started. As is apparent from FIG. 18, light emission of the green diode starts immediately before the green exposure. Also for the green exposure, after the charge accumulation time is over, the charge read-out and the residual charge sweep out follow. Similarly, blue and infrared charge accumulation, charge readout, and residual charge sweeping are performed in synchronization with the light emission of the blue LED and the light emission of the infrared LED, respectively. These operations circulate. In the above description, the function of the photoelectric conversion unit has been described for each color. However, the photoelectric conversion unit itself does not have a function of performing photoelectric conversion by separating each color, and the photoelectric conversion unit itself simply performs charge accumulation, charge read, and It only repeats the same operation of residual charge sweeping. The read charge amount has information on each color depending solely on the light source color at the time of charge accumulation.

図18のAD変換部のタイミングチャートから明らかなように、光電変換部は各色の電荷読出直後からAD変換を開始する。例えば、赤のAD変換は赤の電荷読出完了直後に開始される。そして次の緑の露光中の時間帯も利用し、これと並行して赤のAD変換を継続する。図18の無線通信部のタイミングチャート(A)から明らかなように、無線通信部は、各色の光電変換完了直後からその結果の色のデジタル信号の通信を開始可能である。例えば、赤のデジタル信号の通信は赤のAD変換終了直後に開始される。そして次の緑のAD変換の時間帯も利用し、これと並行して赤の通信を継続する。以下同様にして緑、青、赤外についてAD変換および通信が行われる。 As is clear from the timing chart of the AD conversion unit in FIG. 18, the photoelectric conversion unit starts AD conversion immediately after the charge reading of each color. For example, red AD conversion is started immediately after completion of red charge reading. Then, using the time zone during the next green exposure, the red AD conversion is continued in parallel with this. As is clear from the timing chart (A) of the wireless communication unit in FIG. 18, the wireless communication unit can start communication of digital signals of the resulting color immediately after the completion of photoelectric conversion of each color. For example, communication of a red digital signal is started immediately after the end of red AD conversion. The next green AD conversion time zone is also used, and in parallel with this, red communication is continued. Similarly, AD conversion and communication are performed for green, blue, and infrared.

なお、通信に関しては、カプセル内視鏡502と体外モニタ504との関係によっては、AD変換直後に成功裏に実施することができない場合も考えられる。このような場合は、図18の無線通信部のタイミングチャート(B)のように通信環境が充分となったタイミングで通信を実行する。例えば、IRデータの送信592はタイミングチャート(A)に比べて遅く実行されており、次のRデータの直前で実行されている。また、Gデータの送信594およびBデータの送信596も遅れて実行されているが、これらの通信時間の調整は、図13の画像バッファ526の容量が満杯となってFIFOに破綻を来たさない限り可能である。 Regarding communication, depending on the relationship between the capsule endoscope 502 and the extracorporeal monitor 504, there may be a case where the communication cannot be performed successfully immediately after AD conversion. In such a case, communication is executed at the timing when the communication environment becomes sufficient as shown in the timing chart (B) of the wireless communication unit in FIG. For example, IR data transmission 592 is executed later than the timing chart (A), and is executed immediately before the next R data. The G data transmission 594 and the B data transmission 596 are also executed with a delay. However, the adjustment of the communication time may cause the FIFO to fail because the capacity of the image buffer 526 in FIG. 13 is full. It is possible as long as there is not.

図19は、図18で示したカラー・赤外モードにおける第3実施例のカプセル内視鏡502の動作での各色LEDの発光タイミングとカラー画像作成の関係を示すタイミングチャートである。図19に示すように、t1で開始される赤LEDの発光に基づく赤画像、t3で開始される緑LEDの発光に基づく緑画像、およびt5で開始される青LEDの発光に基づく青画像によって、F1で示す1フレームのカラー画像が作成される。厳密に言えば各色の発光に時間差があるので各色の画像は同一時間のものではないが、時間差は僅少なので高速で動く被写体でない限りこのような時分割による各色画像の取得でも問題はない。同様にして、t9で開始される赤LEDの発光に基づく赤画像、t11で開始される緑LEDの発光に基づく緑画像、およびt13で開始される青LEDの発光に基づく青画像によって、F2で示す1フレームのカラー画像が作成される。以下同様にして1フレームのカラー画像が作成され、個々のカラー動画は静止画としても記録できるとともに、これらを繋げてカラー動画としても記録できる。なお、これらのカラー処理は、図13に示した体外モニタ504の画像処理部544で行われる。また、図18の無線通信部のタイミングチャート(B)で示したように体外モニタ504による各色データの受信は必ずしも等間隔ではないが、画像取得タイミングは各色LEDの発光タイミングによって決まるので図19の関係が成り立つ。 FIG. 19 is a timing chart showing the relationship between the light emission timing of each color LED and the color image creation in the operation of the capsule endoscope 502 of the third embodiment in the color / infrared mode shown in FIG. As shown in FIG. 19, a red image based on red LED emission starting at t1, a green image based on green LED emission starting at t3, and a blue image based on blue LED emission starting at t5. , F1 is displayed as a color image. Strictly speaking, since there is a time difference in light emission of each color, the images of each color are not the same time, but since the time difference is small, there is no problem in acquiring each color image by such time division unless the subject moves at high speed. Similarly, a red image based on red LED emission starting at t9, a green image based on green LED emission starting at t11, and a blue image based on blue LED emission starting at t13, at F2. A one-frame color image shown is created. In the same manner, a color image of one frame is created, and each color moving image can be recorded as a still image, and can also be recorded as a color moving image by connecting them. Note that these color processes are performed by the image processing unit 544 of the extracorporeal monitor 504 shown in FIG. In addition, as shown in the timing chart (B) of the wireless communication unit in FIG. 18, the reception of each color data by the extracorporeal monitor 504 is not necessarily at regular intervals, but the image acquisition timing is determined by the light emission timing of each color LED. A relationship is established.

また、図19に示すように、t3で開始される緑LEDの発光に基づく緑画像、t5で開始される青LEDの発光に基づく青画像、およびにt9で開始される赤LEDの発光に基づく赤画像によってもRGB三色のデータが揃うので、これらによってI1で示す1フレームのカラー補間画像が作成される。同様にして、t5で開始される青LEDの発光に基づく青画像、t9で開始される赤LEDの発光に基づく赤画像、およびt11で開始される緑LEDの発光に基づく緑画像によって、I2で示す1フレームのカラー補間画像が作成される。これらの補間画像はRGBの各色が揃うまでに赤外LEDの発光が介在しており、RGBが揃うまでの時間が若干長くなるとともにRGBの発光も等間隔でないのでカラー画像としては画質が悪くなる。従って、あくまでスムーズな動画を得るための補間画像として採用される。 In addition, as shown in FIG. 19, based on the green image based on the green LED emission starting at t3, the blue image based on the blue LED emission starting at t5, and the red LED emission starting at t9. Since the red image also contains RGB three-color data, a one-frame color interpolated image indicated by I1 is created. Similarly, with a blue image based on blue LED emission starting at t5, a red image based on red LED emission starting at t9, and a green image based on green LED emission starting at t11, I2 A one-frame color interpolated image shown is created. In these interpolated images, the emission of infrared LEDs is intervened until the RGB colors are aligned, and the time until RGB is aligned becomes slightly longer, and the RGB emissions are not equally spaced, so the image quality of the color image is poor. . Therefore, it is adopted as an interpolation image for obtaining a smooth moving image.

一方、赤外画像については、図19に示すように、t7で開始される赤外LEDの発光に基づく画像IR1、t15で開始される赤外LEDの発光に基づく画像IR2等がそれぞれ静止画として記録できるとともに、これらを繋げてカラー動画としても記録できる。カラー・赤外モードでは上記のようにカラー画像と赤外画像が並行して取得できるので、両画像を並行して内視鏡診断にもといることができるとともに、両画像を合成することも可能となる。また、静止画として量画像を合成する際、赤外画像の取得時間がカラー補間画像の取得時間帯の中に含まれているので、カラー補間画像を赤外画像とを合成のために採用することも可能である。具体的には、カラー補間画像I2およびI2の取得時間帯が共に赤外画像IR1の取得時間を含んでいるので、カラー補間画像I1およびI2またなその平均を赤外画像IR1と合成することが可能である。 On the other hand, as shown in FIG. 19, for the infrared image, an image IR1 based on the emission of the infrared LED starting at t7, an image IR2 based on the emission of the infrared LED starting at t15, and the like are still images. It can be recorded, and can also be recorded as a color video by connecting them. In color / infrared mode, color images and infrared images can be acquired in parallel as described above, so both images can be taken in parallel for endoscopic diagnosis, and both images can be combined. It becomes possible. Also, when a quantity image is synthesized as a still image, the acquisition time of the infrared image is included in the acquisition time zone of the color interpolation image, so the color interpolation image is used for the synthesis with the infrared image. It is also possible. Specifically, since the acquisition time zones of the color interpolation images I2 and I2 both include the acquisition time of the infrared image IR1, it is possible to synthesize the color interpolation images I1 and I2 or their average with the infrared image IR1. Is possible.

図20は、第3実施例のカプセル内視鏡502における精細カラーモードでの動作の各色LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。精細カラーモードでは、可視光のカラー画像のみの取得が行われ、赤外LEDは発光しない。図20から明らかなように、すべての赤LEDはt1からちt2、全ての緑LEDはt3からt4、すべての青LEDはt5からt6のタイミングで互いに重なることなく時分割でそれぞれ点灯する。そして、RGB3色のLEDの点灯が一巡すると、再び全ての赤LEDがt7からt8のタイミングで点灯し、以下同様にして緑、青、LEDが点灯して同様の循環で時分割点灯を繰り返す。この場合一回の循環に必要なt1からt6までの時間は図18のt1からt8よりも短くなり。動画が精細になる。図20の無線通信部(B)のタイミングチャートには、しばらく通信環境が整わなかった後、連続して通信が行われている様子を示す。 FIG. 20 shows the relationship between the light emission timing of each color LED, the operation timing of the photoelectric conversion unit, the operation timing of the AD trunk and the operation timing of the wireless communication unit in the fine color mode in the capsule endoscope 502 of the third embodiment. It is a timing chart which shows. In the fine color mode, only a visible color image is acquired, and the infrared LED does not emit light. As is clear from FIG. 20, all red LEDs are lit in a time-division manner without overlapping each other at the timings t1 to t2, all green LEDs are t3 to t4, and all blue LEDs are t5 to t6. Then, when the lighting of the RGB three-color LEDs is completed, all the red LEDs are turned on again at the timing from t7 to t8. Thereafter, the green, blue, and LEDs are turned on in the same manner, and time-division lighting is repeated in the same manner. In this case, the time from t1 to t6 required for one cycle is shorter than t1 to t8 in FIG. The video becomes fine. The timing chart of the wireless communication unit (B) in FIG. 20 shows a state in which communication is continuously performed after the communication environment has not been prepared for a while.

図20のように、精細カラーモードにおいて可視光のみを時分割でほぼ同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により可視光の焦点が撮像面に結像するよう設定される。これは赤、緑、青の焦点位置のずれは小さくまた撮像レンズの設計における収差補正でも対応できるので最適の焦点位置あわせが可能となるからである。このように精細カラーモードは体内の状態を詳細に高精細で観察するのに適している。 As shown in FIG. 20, in the fine color mode, when only visible light is emitted almost simultaneously in a time division manner, the angle of view of the imaging lens 508 in FIG. The focus position is also set so that the focus of visible light is imaged on the imaging surface under the control of the lens driving unit 512. This is because red, green, and blue focus position shifts are small and can be handled by aberration correction in the design of the imaging lens, so that optimum focus position adjustment is possible. Thus, the fine color mode is suitable for observing the state of the body in detail with high definition.

図21は、図20で示した精細カラーモードにおける第3実施例のカプセル内視鏡502の動作での各色LEDの発光タイミングとカラー画像作成の関係を示すタイミングチャートである。図21に示すように、t1で開始される赤LEDの発光に基づく赤画像、t3で開始される緑LEDの発光に基づく緑画像、およびt5で開始される青LEDの発光に基づく青画像によって、F1で示す1フレームのカラー画像が作成される。次に、t3で開始される緑LEDの発光に基づく緑画像、t5で開始される青LEDの発光に基づく青画像、およびにt7で開始される赤LEDの発光に基づく赤画像によってF2で示す1フレームのカラー画像が作成される。同様にt5で開始される青LEDの発光に基づく青画像、t7で開始される赤LEDの発光に基づく赤画像、およびt9で開始される緑LEDの発光に基づく緑画像によってF3で示す1フレームのカラー画像が作成される。以下同様にしてF4で示す1フレームのカラー画像以下が作成されていく。このように、精細カラーモードでは各色のLEDが新たに発光する毎に輪番で新たに1フレームのカラー画像が作成されるのでスムーズな精細動画の記録が可能となる。 FIG. 21 is a timing chart showing the relationship between the light emission timing of each color LED and the color image creation in the operation of the capsule endoscope 502 of the third embodiment in the fine color mode shown in FIG. As shown in FIG. 21, a red image based on red LED emission starting at t1, a green image based on green LED emission starting at t3, and a blue image based on blue LED emission starting at t5. , F1 is displayed as a color image. Next, indicated by F2 by a green image based on the green LED emission starting at t3, a blue image based on the blue LED emission starting at t5, and a red image based on the red LED emission starting at t7. A color image of one frame is created. Similarly, one frame indicated by F3 by a blue image based on blue LED emission starting at t5, a red image based on red LED emission starting at t7, and a green image based on green LED emission starting at t9. A color image is created. In the same manner, a color image of one frame or less indicated by F4 is created. In this manner, in the fine color mode, a new one-frame color image is created every time the LED of each color emits light, so that smooth fine moving images can be recorded.

図22は、第3実施例のカプセル内視鏡502における赤外モードでの動作の赤外LEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。赤外カラーモードでは、赤外画像のみの取得が行われ、赤外LED以外のLEDは発光しない。図22から明らかなように、すべての赤外LEDはt1からちt2、t3からt4のごとく光電変換部における毎回の露光の都度に発光する。そしてこれに対応して毎回1フレームの赤外画像が作成される。これによって、スムーズな赤外動画の記録が可能となる。 FIG. 22 shows the infrared LED emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation timing in the infrared mode of the capsule endoscope 502 of the third embodiment. It is a timing chart which shows a relationship. In the infrared color mode, only an infrared image is acquired, and LEDs other than the infrared LED do not emit light. As is clear from FIG. 22, all the infrared LEDs emit light at every exposure in the photoelectric conversion unit from t1 to t2 and from t3 to t4. In response to this, an infrared image of one frame is created every time. This makes it possible to record a smooth infrared moving image.

図22のように、赤外モードにおいて赤外光のみを発光させる場合も、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により赤外光の焦点が撮像面に結像するよう設定される。このように赤外モードも体内の状態を詳細に高精細で観察するのに適している。 As shown in FIG. 22, when only infrared light is emitted in the infrared mode, the angle of view of the imaging lens 508 in FIG. 13 is set to a narrow angle (telephoto) by the control of the lens driving unit 512, and the focus position is also set. The focus of the infrared light is set to form an image on the imaging surface by the control of the lens driving unit 512. Thus, the infrared mode is also suitable for observing the state of the body in detail with high definition.

図23は、図13の第3実施例における内視鏡制御部520の動作のフローチャートである。カプセル内視鏡502に電池532がセットされるとフローがスタートし、ステップS162で、カラー・赤外モードが初期設定される。そしてこれに対応し、ステップS154で撮像レンズ508が広角およびパンフォーカス状態に設定される。次いでステップS166では、赤、緑、青および赤外の全てのLEDが所定の順所で順次輪番で発光するよう設定される。そしてステップS168でこれらの設定が行われている状態であることを外部送信し、体外モニタ504に報告する。 FIG. 23 is a flowchart of the operation of the endoscope control unit 520 in the third embodiment of FIG. When the battery 532 is set in the capsule endoscope 502, the flow starts. In step S162, the color / infrared mode is initialized. In response to this, in step S154, the imaging lens 508 is set to the wide-angle and pan-focus state. Next, in step S166, all red, green, blue and infrared LEDs are set to emit light sequentially in a predetermined order. In step S168, the fact that these settings have been made is externally transmitted and reported to the external monitor 504.

次にステップS170で撮像処理、ステップS172で送信処理をそれぞれ実行する。その詳細は後述する。送信処理が終わるとステップS174に進み、動作停止信号を体外モニタ504から受信しているかどうかチェックする。受信があれば直ちにフローを終了する。一方、停止信号の受信がなければステップS176に進み、モード変更信号を受信しているかどうかチェックする。そして受信があればステップS178に進み、変更されたモードがカラー・赤外モードかどうかチェックする。カラー・赤外モードであれば、ステップS164に戻り、レンズを広角およびパンフォーカス状態に設定して、以下既に説明したステップS166以下の動作に進む。 Next, an imaging process is performed in step S170, and a transmission process is performed in step S172. Details thereof will be described later. When the transmission process ends, the process proceeds to step S174, and it is checked whether an operation stop signal is received from the extracorporeal monitor 504. If there is reception, the flow is immediately terminated. On the other hand, if no stop signal has been received, the process proceeds to step S176 to check whether a mode change signal has been received. If there is reception, the process advances to step S178 to check whether the changed mode is the color / infrared mode. If it is in the color / infrared mode, the process returns to step S164, the lens is set to the wide angle and pan focus state, and the operation proceeds to the operation after step S166 already described.

一方、ステップS178で変更されたモードがカラー・赤外モードでなかったときはステップS180に進み、精細カラーモードかどうかチェックする。そして精細カラーモードであればステップS182でレンズの画角を狭角(望遠)にするとともに可視光フォーカス状態に設定するとともに、ステップS184で可視光のLEDのみが順次輪番で発光するよう設定する。そして、ステップS186でこれらの設定状態を外部に送信した後、ステップS170に戻る。 On the other hand, if the mode changed in step S178 is not the color / infrared mode, the process proceeds to step S180 to check whether the mode is the fine color mode. In the fine color mode, in step S182, the angle of view of the lens is set to a narrow angle (telephoto) and set to the visible light focus state, and in step S184, only visible light LEDs are set to sequentially emit light with a rotation number. Then, after these setting states are transmitted to the outside in step S186, the process returns to step S170.

また、ステップS180で変更されたモードが精細カラーモードでなかったときは、変更されたモードが赤外モードであることを意味するからステップS188に移行し、レンズの画角を狭角(望遠)にするとともに赤外光フォーカス状態に設定する。さらにステップS190で赤外LEDのみが発光するよう設定する。そして、ステップS186に移行し、これらの設定状態を外部に送信した後、ステップS170に戻る。 If the mode changed in step S180 is not the fine color mode, it means that the changed mode is the infrared mode, so that the process proceeds to step S188, and the field angle of the lens is narrowed (telephoto). And set to the infrared light focus state. Furthermore, it sets so that only infrared LED may light-emit in step S190. Then, the process proceeds to step S186, and after these setting states are transmitted to the outside, the process returns to step S170.

図24は、図23のステップS170における撮像処理の詳細を示すフローチャートである。フローがスタートすると、ステップS192でモードの選択または変更があったかどうかチェックする。モード選択または変更がなかったときは、ステップS194に進み、露光時間が完了しているかどうかチェックする。そして完了を検出すればステップS196に進み、蓄積電荷の読出し開始処理を行う。さらにステップS198でLEDの発光停止を指示する。さらにステップS200で蓄積電荷読出しが完了したかどうかをチェックし、未完ならステップS200を繰り返しながら完了を待つ。 FIG. 24 is a flowchart showing details of the imaging process in step S170 of FIG. When the flow starts, it is checked in step S192 whether a mode has been selected or changed. If no mode has been selected or changed, the process proceeds to step S194 to check whether the exposure time has been completed. If the completion is detected, the process proceeds to step S196, where the stored charge readout start process is performed. Further, in step S198, an instruction to stop LED emission is given. Further, in step S200, it is checked whether or not the accumulated charge reading is completed. If it is not completed, the completion is waited while repeating step S200.

ステップS200で読出し完了が検知されるとステップS206に進み残留電荷の掃捨て開始処理を行ってステップS208のLED選択処理に移行する。これは次に発光すべきLEDを選択する処理であるがその詳細は後述する。さらにステップS210ではステップS208で選択されたLEDの発光開始を指示する。次にステップS212では蓄積電荷の掃捨てが完了したかどうかをチェックし、未完ならステップS212を繰り返しながら完了を待つ。 When the completion of reading is detected in step S200, the process proceeds to step S206, a residual charge sweeping start process is performed, and the process proceeds to the LED selection process in step S208. This is a process of selecting the next LED to emit light, the details of which will be described later. Further, in step S210, the start of light emission of the LED selected in step S208 is instructed. Next, in step S212, it is checked whether or not the stored charge has been completely purged.

ステップS212で蓄積電荷の掃捨て完了が検知されるとステップS214に移行し、露光を開始するとともにステップS216で露光時間のカウントを開始し、フローを終了する。一方、ステップS194で露光時間が完了していなければ直ちにフローを終了する。また、ステップS192でモードの選択または変更が検出されるとステップS218に移行し、撮像処理のイニシャライズを行ってステップS208のLED選択処理に進む。 When it is detected in step S212 that the accumulated charge has been completely removed, the process proceeds to step S214 to start exposure, and in step S216, the exposure time starts to be counted, and the flow ends. On the other hand, if the exposure time is not completed in step S194, the flow is immediately terminated. If selection or change of the mode is detected in step S192, the process proceeds to step S218, the imaging process is initialized, and the process proceeds to the LED selection process in step S208.

図25は、図24のステップS208におけるLED選択処理の詳細を示すフローチャートである。フローがスタートすると、ステップS222で赤外モードであるかどうかチェックする。該当しなければカラー・赤外モードまたは精細カラーモードであることを意味する。この場合はステップS224に進み、図24のステップS218によって撮像処理のイニシャライズが行われたかどうかチェックする。これも該当しなければステップS226に進み、前回に選択されたLED記憶を読み出す。そしてステップS228で読み出された記憶に基づき前回発光したのが赤LEDであったかどうかチェックする。該当しなければ、さらにステップS230で前回したのが緑LEDであったかどうかチェックする。 FIG. 25 is a flowchart showing details of the LED selection processing in step S208 of FIG. When the flow starts, it is checked whether or not the infrared mode is set in step S222. If not applicable, it means color / infrared mode or fine color mode. In this case, the process proceeds to step S224, and it is checked whether or not the imaging process has been initialized in step S218 of FIG. If this is not the case, the process advances to step S226 to read the previously selected LED memory. Then, based on the memory read in step S228, it is checked whether or not the last light emission was a red LED. If not, it is further checked in step S230 whether the last time it was a green LED.

ステップS230で前回発光が緑LEDでなかったときはステップS232に進み、精細カラーモードであるかどうかチェックする。該当する場合は、赤、緑および青のLEDが輪番で発光していることになる。そしてこの場合、前回発発光が赤でも緑でもなければ青であったことを意味するからステップS232からステップS234に進み、次の順番に当たる赤LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。 If it is determined in step S230 that the previous light emission was not a green LED, the process proceeds to step S232 to check whether the color mode is the fine color mode. If this is the case, the red, green, and blue LEDs are emitting light on the wheel. In this case, if the previous light emission is neither red nor green, it means that the light is blue, so the process proceeds from step S232 to step S234, and the red LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends.

一方、ステップS232で精細カラーモードであることが検知されない場合はカラー・赤外モードであることを意味する。この場合は、赤、緑、青および赤外のLEDが輪番で発光していることになる。そしてこの場合、前回発発光が赤でも緑でもなければ青であったことを意味するからステップS232からステップS238に進み、次の順番に当たる赤外LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。 On the other hand, if the fine color mode is not detected in step S232, it means the color / infrared mode. In this case, red, green, blue, and infrared LEDs emit light in a ring. In this case, it means that if the previous light emission is neither red nor green, it means that the light was blue, so the process proceeds from step S232 to step S238, and the infrared LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends.

また、ステップS228で前回発光したのが赤LEDであったときはステップS242に進み、次の順番にあたる緑LEDを選択する。そしてこの選択結果をステップS236で記憶してフローを終了する。さらに、ステップS222で赤外モードであったときはステップS244に進み、赤外LEDを選択する。そして赤外モードの場合は選択されるのは常に赤外LEDであるから選択結果の記憶は特に行う必要がなく直ちにフローを終了する。なお、ステップS224で撮像処理のイニシャライズが行われていたときはステップS242に進み最初の発光LEDとして緑LEDを選択する。 If it is the red LED that previously emitted light in step S228, the process proceeds to step S242, and the green LED corresponding to the next order is selected. Then, the selection result is stored in step S236, and the flow ends. Furthermore, when it is in the infrared mode in step S222, the process proceeds to step S244, and an infrared LED is selected. In the infrared mode, it is always the infrared LED that is selected, so that the selection result need not be stored and the flow is immediately terminated. If the imaging process has been initialized in step S224, the process proceeds to step S242 to select the green LED as the first light emitting LED.

図26は、図23のステップS172における送信処理の詳細を示すフローチャートである。フローがスタートすると、ステップS252でデータの送信中かどうかのチェックを行う。送信中でなければステップS254に進み、送信に成功したデータがあるかどうかチェックする。そして該当するものがあればステップS256でこれを画像バッファより消去してステップS258に移行する。一方、ステップS254で送信成功データがなければ直接ステップS258に移行する。 FIG. 26 is a flowchart showing details of the transmission processing in step S172 of FIG. When the flow starts, it is checked in step S252 whether data is being transmitted. If transmission is not in progress, the process advances to step S254 to check whether there is data that has been successfully transmitted. If there is a corresponding item, it is erased from the image buffer in step S256, and the process proceeds to step S258. On the other hand, if there is no successful transmission data in step S254, the process directly proceeds to step S258.

ステップS258では、AD変換が完了したかどうかチェックし、該当すればAD変換したデータを画像バッファに格納してステップS262に移行する。一方、AD変換が終了していなければ直接ステップS262に移行する。ステップS262では画像バッファに格納されているデータがあるかどうかチェックし、データがあればステップS264で通信状態がOKかどうかチェックする。そしてOKであればステップS266で画像バッファからFIFO(先入れ先出し)でデータを読出し、ステップS268で読み出したデータの送信開始を指示してフローを終了する。なお、ステップS252でデータ送信中であったとき、ステップS262で画像バッファにデータの格納がなかったとき、またはステップS264で通信状態がOKでなかったときはそれぞれ直ちにフローを終了する。 In step S258, it is checked whether or not AD conversion has been completed. If applicable, the AD converted data is stored in the image buffer, and the process proceeds to step S262. On the other hand, if AD conversion is not completed, the process directly proceeds to step S262. In step S262, it is checked whether there is data stored in the image buffer. If there is data, it is checked in step S264 whether the communication state is OK. If it is OK, data is read from the image buffer by FIFO (first-in first-out) in step S266, the transmission of the read data is instructed in step S268, and the flow is terminated. It should be noted that when the data is being transmitted at step S252, when no data is stored in the image buffer at step S262, or when the communication state is not OK at step S264, the flow is immediately terminated.

図27は、図13の第3実施例における体外モニタ504のモニタ制御部540の動作を示すフローチャートであり、カプセル内視鏡502との通信開始でフローがスタートする。フローがスタートするとステップS272で画像データの新着の有無をチェックする。新着データがあればステップS274に進み、新着データが完全かどうかチェックする。そして完全であればステップS276に進んでこれを画像バッファ538に格納するよう支持してステップS278に移行する。なお、ステップS272でデータの新着がないか、またはステップS274で新着データが完全でなかったときはいずれもステップS272に戻る。 FIG. 27 is a flowchart showing the operation of the monitor control unit 540 of the extracorporeal monitor 504 in the third embodiment of FIG. 13, and the flow starts when communication with the capsule endoscope 502 is started. When the flow starts, it is checked in step S272 whether there is a new arrival of image data. If there is new arrival data, the process proceeds to step S274 to check whether the new arrival data is complete. If it is complete, the process proceeds to step S276, where it is stored in the image buffer 538, and the process proceeds to step S278. If there is no new arrival of data in step S272 or new arrival data is not complete in step S274, the process returns to step S272.

ステップS278では、赤外モードであるかどうかチェックし、該当しなければステップS280でカラー・赤外モードであるかどうかチェックする。そしてカラー・赤外モードであればステップS282に進み、新着データが赤外画像データであるかどうかチェックする。該当しなければ赤、緑、青のいずれかの画像データであることを意味するからステップS284に進み、これらのデータから赤外画像の補間補助画像を作成するよう指示してステップS286に移行する。ステップS284の指示は、赤外のスムーズな動画を得るために赤外画像データに基づいて補間を行う際、赤外画像の間のタイミングで得られる可視光画像データの情報を補助的に利用するための指示である。 In step S278, it is checked whether the infrared mode is selected. If not, the color / infrared mode is checked in step S280. If it is the color / infrared mode, the process advances to step S282 to check whether the newly arrived data is infrared image data. If not, it means that the image data is one of red, green, and blue, so the process proceeds to step S284, and an instruction to create an interpolation auxiliary image of an infrared image is given from these data, and the process proceeds to step S286. . The instruction in step S284 uses information of visible light image data obtained at a timing between infrared images as an auxiliary when performing interpolation based on infrared image data in order to obtain a smooth infrared moving image. It is an instruction for.

ステップS286では、新逆データが青画像データであるかどうかチェックする。そして該当しなければ赤画像データまたは緑画像データであることを意味するからステップS290に進み、新着データ直前の可視2色のデータが格納されているかどうかチェックする。そして格納されていれば、新着データとともに赤、緑、青の3色が揃うからステップS292に進み、保管カラー画像を作成する指示をしてステップS272に戻る。ステップS292の指示によって作成される画像は、図19のカラー補間画像I1またはI2に相当する。 In step S286, it is checked whether the new inverse data is blue image data. If it does not correspond, it means red image data or green image data, so the process proceeds to step S290, and it is checked whether or not the visible two-color data immediately before the new arrival data is stored. If it is stored, red, green, and blue are available together with newly arrived data, so the process proceeds to step S292, and an instruction to create a storage color image is issued, and the process returns to step S272. The image created by the instruction in step S292 corresponds to the color interpolation image I1 or I2 in FIG.

ステップS278で赤外モードであったときは新着データは赤外画像データであるからステップS294に移行し、赤外画像の作成を指示してステップS272に戻る。また、ステップS282で新着データが赤外画像データであったときもステップS294に移行する。一方、ステップS286で新着データが青画像データであったときはステップS296に進み、直前の2色(この場合は赤および緑)の画像データが画像バッファに格納されているかどうかチェックする。そしてこれらの格納があれば連続する3色が揃うのでステップS298に進み、カラー画像作成の指示を行ってステップS272に戻る。この指示によって作成される画像は、図19のカラー画像F1またはF2に該当する。 When it is the infrared mode in step S278, the newly arrived data is infrared image data, so the process proceeds to step S294, the creation of the infrared image is instructed, and the process returns to step S272. Also, when the newly arrived data is infrared image data in step S282, the process proceeds to step S294. On the other hand, if the newly arrived data is blue image data in step S286, the process proceeds to step S296, and it is checked whether the image data of the immediately preceding two colors (in this case, red and green) are stored in the image buffer. If these are stored, three consecutive colors are prepared, so the process proceeds to step S298, where an instruction to create a color image is issued, and the process returns to step S272. The image created by this instruction corresponds to the color image F1 or F2 in FIG.

また、ステップS280でカラー・赤外モードでなかったときは精細カラーモードであることを意味するのでやはりステップS296に移行し、直前の可視2色データが格納されているかどうかのチェックに入り、直前2色があればステップS298のカラー画像作成を指示する。この指示によって作成される画像は、図21のカラー画像F1、F2、F3等に該当する。なお、ステップS290またはステップS296で直前の可視2色データの格納がなかったときは直ちにステップS272に戻る。 If the color / infrared mode is not set in step S280, it means that the mode is the fine color mode. Therefore, the process proceeds to step S296, where it is checked whether the previous visible two-color data is stored. If there are two colors, an instruction to create a color image in step S298 is given. Images created by this instruction correspond to the color images F1, F2, F3, etc. in FIG. If no previous visible two-color data is stored in step S290 or step S296, the process immediately returns to step S272.

図28は、本発明の第4実施例の動作タイミングの関係を示すタイミングチャートである。第4実施例は基本的には図13から図17に示す内視鏡システムと共通の構成なので、以下の説明では、図13のブロック図の符号を適宜用いて説明する。第4実施例が第3実施例と異なるのは、CIGS撮像センサの構成およびLEDの発光タイミングである。すなわち、第3実施例のCIGSセンサ510はカラーフィルタを有さず、色の分解はLEDの時分割発光によっていたが、第4実施例のCIGS撮像センサ510は、図7から図10に示すようなカラーフィルタを有し、第1実施例および第2実施例と同様にしてCIGS撮像センサ自体で色分解を行う。そして、LEDの発光は時分割ではなく全色同時に行われる。 FIG. 28 is a timing chart showing the relationship of the operation timing of the fourth embodiment of the present invention. Since the fourth embodiment is basically configured in common with the endoscope system shown in FIGS. 13 to 17, the following description will be made using the reference numerals in the block diagram of FIG. 13 as appropriate. The fourth embodiment differs from the third embodiment in the configuration of the CIGS imaging sensor and the light emission timing of the LEDs. That is, the CIGS sensor 510 of the third embodiment does not have a color filter, and the color separation is based on the time-division light emission of the LED, but the CIGS imaging sensor 510 of the fourth embodiment is as shown in FIGS. The CIGS imaging sensor itself performs color separation in the same manner as in the first and second embodiments. The light emission of the LEDs is not performed in a time division manner, but is performed simultaneously for all colors.

図28は、このような第4実施例のカプセル内視鏡502におけるカラー・赤外モードでの動作のLEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。先に述べたように、すべての赤LED、全ての緑LED、すべての青LEDおよびすべての赤外LEDは、光電変換部の露光タイミングにおいてすべて同時に発光する。なお、各LEDは、図28のように点滅発光するかわりに連続発光しても差し支えない。なお、図28のカラー・赤外モードにおいては、撮像レンズ508の画角はレンズ駆動部512の制御により広角に設定され、焦点深度が深くなるように設定されるとともに、そのピント位置もレンズ駆動部512の制御により可視光から赤外光をカバーするパンフォーカス状態となるよう設定される。このような撮像レンズ制御は、図18のカラー・赤外モードの場合と共通である。 FIG. 28 shows the LED light emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation in the color / infrared mode in the capsule endoscope 502 of the fourth embodiment. It is a timing chart which shows the relationship of an operation timing. As described above, all red LEDs, all green LEDs, all blue LEDs, and all infrared LEDs all emit light simultaneously at the exposure timing of the photoelectric conversion unit. Each LED may emit light continuously instead of blinking as shown in FIG. In the color / infrared mode of FIG. 28, the angle of view of the imaging lens 508 is set to a wide angle by the control of the lens driving unit 512, and the focal depth is set to be deep, and the focus position is also lens driven. Under the control of the unit 512, the pan focus state is set so as to cover visible light to infrared light. Such imaging lens control is common to the color / infrared mode of FIG.

図29は、第4実施例のカプセル内視鏡502における精細カラーモードでの動作のLEDの発光タイミング、光電変換部の動作タイミング、AD編幹部の動作タイミングおよび無線通信部の動作タイミングの関係を示すタイミングチャートである。図29に明らかなように、すべての赤LED、全ての緑LEDおよびすべての青LEDが、光電変換部の露光タイミングにおいてすべて同時に発光する。なお、赤外LEDは発光しない。図29のように、精細カラーモードにおいて可視光のみを同時に発光させる場合、図13の撮像レンズ508の画角はレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により可視光の焦点が撮像面に結像するよう設定される。このような撮像レンズ制御は、図20の精細カラーモードの場合と共通である。 FIG. 29 shows the relationship among the LED light emission timing, the photoelectric conversion unit operation timing, the AD trunk unit operation timing, and the wireless communication unit operation timing in the fine color mode operation in the capsule endoscope 502 of the fourth embodiment. It is a timing chart which shows. As is clear from FIG. 29, all red LEDs, all green LEDs, and all blue LEDs all emit light simultaneously at the exposure timing of the photoelectric conversion unit. The infrared LED does not emit light. As shown in FIG. 29, when only visible light is emitted simultaneously in the fine color mode, the field angle of the imaging lens 508 in FIG. 13 is set to a narrow angle (telephoto) under the control of the lens driving unit 512, and the focus position is also the lens. The focus of visible light is set to form an image on the imaging surface under the control of the driving unit 512. Such imaging lens control is common to the fine color mode in FIG.

第4実施例における赤外モードのタイミングチャートは、第3実施例における図22と共通である。また、赤外モードにおける撮像レンズ508の画角がレンズ駆動部512の制御により狭角(望遠)に設定され、そのピント位置もレンズ駆動部512の制御により赤外光の焦点が撮像面に結像するよう設定される点についても、図22の赤外モードと共通である。第4実施例におけるカラー・赤外モードが体内の状態を全体的に粗く観察するのに適し、一方、精細カラーモードおよび赤外モードが体内の状態を詳細に高精細で観察するのに適している点についても第3実施例と共通である。 The infrared mode timing chart in the fourth embodiment is the same as that in FIG. 22 in the third embodiment. In addition, the angle of view of the imaging lens 508 in the infrared mode is set to a narrow angle (telephoto) by the control of the lens driving unit 512, and the focus position of the imaging lens 508 is also controlled by the lens driving unit 512 to focus the infrared light on the imaging surface. The point set to image is also common to the infrared mode in FIG. The color / infrared mode in the fourth embodiment is suitable for observing the overall state of the body roughly, while the fine color mode and infrared mode are suitable for observing the state of the body in detail with high definition. This is also the same as the third embodiment.

なお、上記第3実施例および第4実施例における内視鏡システムはカプセル内視鏡と体外モニタを有するものとして構成したが、本発明の実施はこれに限るものではない。例えば、体内と体外をチューブで結んだ通常の内視鏡として構成することも可能である。この場合、図13のアンテナ530および546による無線通信をチューブ内のケーブルによる有線通信とするとともにこのチューブ内に公知の通気管や導水管およびチューブ屈曲メカなどを設ける。また、体内と体外の間の画像情報伝達を電気信号で行うのに代え、ファイバーなどによる光学手段により体内で取得した画像を体外に取り出すようにしてもよい。この場合、CIGS画像センサは体外に設けられることになる。また、光源についても発光部を体外に設け、ライトガイドでこれを体内に導くことも可能である。このような構成では、図14から図17の光源配置は、発光部分の配置ではなく、光源光射出部の配置として理解するものとする。さらに、ライトガイドを用いる場合には、必ずしも光源光射出部を各色別にする必要はなく、各色発光部からの光を共通のライトガイドを用いて体内に導き共通の射出口から照射するようにしてもよい。また、上記第3実施例および第4実施例において示した本発明の種々の特徴の実施は、内視鏡に限らず、種々の撮像センサを活用した撮像・観察・記録機器に適宜活用することも可能である。 In addition, although the endoscope system in the said 3rd Example and 4th Example was comprised as what has a capsule endoscope and an external monitor, implementation of this invention is not restricted to this. For example, it can be configured as a normal endoscope in which the inside and outside of the body are connected by a tube. In this case, wireless communication by the antennas 530 and 546 in FIG. 13 is wired communication using a cable in the tube, and a known vent pipe, water conduit, tube bending mechanism, and the like are provided in the tube. Further, instead of performing image information transmission between the inside and outside of the body using an electrical signal, an image acquired inside the body may be taken out of the body by optical means such as a fiber. In this case, the CIGS image sensor is provided outside the body. Further, the light source can also be provided outside the body and guided to the inside by a light guide. In such a configuration, the light source arrangement in FIGS. 14 to 17 is understood not as the arrangement of the light emitting portion but as the arrangement of the light source light emitting portions. Furthermore, when using a light guide, it is not always necessary to provide a light source light emitting portion for each color, and light from each color light emitting portion is guided into the body using a common light guide and is emitted from a common outlet. Also good. In addition, the implementation of the various features of the present invention shown in the third and fourth embodiments is not limited to an endoscope, but may be used as appropriate for imaging / observation / recording equipment using various imaging sensors. Is also possible.

図30は、本発明の第5実施例のブロック図であり、車両用監視装置を構成している。その車両監視機能は、衝突防止のための車両前後の車間距離の検知機能およびドライブレコーダとしての車両前後の画像撮影記録機能である。また検知された車間距離はドライブレコーダに記録されるとともに、画像撮影のためのフォーカス調整にも利用される。図30において、車両602は、ガソリンエンジン車または電気自動車またはガソリンエンジンとモータを併用するいわゆるハイブリッドタ車のいずれかとして構成される。 FIG. 30 is a block diagram of a fifth embodiment of the present invention, which constitutes a vehicle monitoring device. The vehicle monitoring function is a function for detecting the distance between vehicles before and after the vehicle for preventing a collision and a function for capturing and recording images before and after the vehicle as a drive recorder. The detected inter-vehicle distance is recorded in a drive recorder and also used for focus adjustment for image shooting. In FIG. 30, a vehicle 602 is configured as either a gasoline engine vehicle, an electric vehicle, or a so-called hybrid vehicle that uses a gasoline engine and a motor together.

車両602は、車両全体を制御するコンピュータからなる車両制御部604を有し、車両の運転者による操作に応じて、動力606およびブレーキ608などを有する車両機能部610を制御し車両602を走行させる。動力606はガソリンエンジンまたはモータまたはその両者を含むよう構成される。車両制御部604は、車両602の制御に必要なソフトウエアおよびデータを格納する記憶部を有する。また、車両制御部604は、車内出力部612を制御し、その画像出力部614によって車両の操作に必要によるGUI表示を行わせるとともに制御結果の表示を行わせる。また、音声出力部616によって運転者へのアナウンスなども行わせる。 The vehicle 602 includes a vehicle control unit 604 including a computer that controls the entire vehicle, and controls the vehicle function unit 610 having a power 606 and a brake 608 in accordance with an operation by a driver of the vehicle to cause the vehicle 602 to travel. . The power 606 is configured to include a gasoline engine and / or motor. The vehicle control unit 604 includes a storage unit that stores software and data necessary for controlling the vehicle 602. In addition, the vehicle control unit 604 controls the in-vehicle output unit 612 and causes the image output unit 614 to display a GUI display necessary for operation of the vehicle and display the control result. The voice output unit 616 also makes an announcement to the driver.

GPS部618は、GPSシステムに基づいて衛星および最寄の放送局より車両602の絶対位置情報である緯度、経度、および高度の情報を得て車両制御部604に送る。カーナビゲーション機能部620は、車両制御部604経由で得られるGPS部618からの絶対位置情報を処理し、地図上での車両602の位置を画像出力部614に表示させる。 The GPS unit 618 obtains latitude, longitude, and altitude information, which are absolute position information of the vehicle 602, from the satellite and the nearest broadcasting station based on the GPS system and sends the information to the vehicle control unit 604. The car navigation function unit 620 processes absolute position information from the GPS unit 618 obtained via the vehicle control unit 604 and causes the image output unit 614 to display the position of the vehicle 602 on the map.

次に車両用監視装置に関する構成を必要に応じ上記の構成とも関連づけて説明する。第5実施例は、車両の前方および後方の監視のためにほぼ同様の監視装置を備えている。そこで、まず、車両後方の監視装置について説明する。後方カメラ/センサ622は、撮像レンズ624およびCIGS撮像センサ626よりなるカメラおよびマイク628を備えており、車両602が走行状態にあるとき常時車両前方等の画像および周囲の音が入力される。 Next, the configuration relating to the vehicle monitoring device will be described in association with the above configuration as necessary. The fifth embodiment includes substantially the same monitoring device for monitoring the front and rear of the vehicle. First, a monitoring device behind the vehicle will be described. The rear camera / sensor 622 includes a camera and a microphone 628 including an imaging lens 624 and a CIGS imaging sensor 626. When the vehicle 602 is in a traveling state, an image such as the front of the vehicle and surrounding sounds are always input.

CIGS撮像センサ626は、基本的には、これまでの実施例において説明した図3のような特性を有し、図7から図10で説明したようなカラーフィルタ配列を有するものである。但し、そのカラーフィルタの分光透過率については実施例5特有の特徴を有し、赤透過フィルタ、青透過フィルタおよび緑透過フィルタおよびはそれぞれの狭い可視光領域の光を透過させるバンドパスフィルタとなっているとともに赤外光透過フィルタについては、ソーラーブラインドの狭い領域の赤外光を透過させるバンドパスフィルタとなっている。ソーラーブラインドとは地球に到達した太陽光のうち大気の吸収によって地表には到達しえないか到達しても微弱となる波長領域であり、例えば、1100nm近辺にこのような領域があることが知られている。実施例5では、図3のようなCIGSセンサの受光感度と上記のようなフィルタの組合せにより、赤、青、緑画素によって可視光画像を撮影するとともに、赤外画素によって太陽光の有無にかかわらない距離検知を行うものである。その詳細については後述する。 The CIGS imaging sensor 626 basically has the characteristics as shown in FIG. 3 described in the embodiments so far, and has the color filter array as described with reference to FIGS. However, the spectral transmittance of the color filter has the characteristics peculiar to the fifth embodiment, and the red transmission filter, the blue transmission filter, and the green transmission filter are band-pass filters that transmit light in each narrow visible light region. In addition, the infrared light transmission filter is a band-pass filter that transmits infrared light in a narrow area of the solar blind. A solar blind is a wavelength region of sunlight that reaches the earth that cannot reach the ground surface due to atmospheric absorption or is weak even if it reaches the surface. For example, it is known that such a region exists in the vicinity of 1100 nm. It has been. In the fifth embodiment, a visible light image is captured by red, blue, and green pixels and the presence or absence of sunlight by infrared pixels by combining the light receiving sensitivity of the CIGS sensor as shown in FIG. 3 and the filter as described above. There is no distance detection. Details thereof will be described later.

赤外ビームスキャナ630は、監視記録制御部632の制御下でソーラーブラインド領域の赤外光ビームを投射し、車両後方をスキャンする。投射された赤外光ビームが後続車両によって反射されると、これがCIGS撮像センサ626の赤外画素によって受光される。CIGSセンサ626の画像信号は、後方センサドライバ634を介して後方画像処理部636によって処理され、赤外ビームの反射位置が検知される。監視記録制御部632は、後方画像処理部636が検知した反射位置情報およびその時の赤外光ビーム投射角度から、この赤外光ビームを反射した後続車両までの車間距離を算出する。監視記録制御部632は算出した車間距離に応じて後方AF(オートフォーカス)制御部638を制御し、AF駆動部640により撮像レンズ624を駆動させて赤外光ビームを反射した後続車両に対し、可視光でのピントを合わせる。 The infrared beam scanner 630 projects an infrared light beam in the solar blind area under the control of the monitoring recording control unit 632 and scans the rear of the vehicle. When the projected infrared light beam is reflected by the following vehicle, it is received by the infrared pixels of the CIGS imaging sensor 626. The image signal of the CIGS sensor 626 is processed by the rear image processing unit 636 via the rear sensor driver 634, and the reflection position of the infrared beam is detected. The monitoring and recording control unit 632 calculates the inter-vehicle distance to the following vehicle that reflects the infrared light beam from the reflection position information detected by the rear image processing unit 636 and the infrared light beam projection angle at that time. The monitoring recording control unit 632 controls the rear AF (autofocus) control unit 638 according to the calculated inter-vehicle distance, and drives the imaging lens 624 by the AF driving unit 640 to reflect the infrared light beam with respect to the following vehicle. Focus on visible light.

一方、上記のようなピント合わせに基づきCIGS撮像センサ626の可視光画素により検知された可視光画像情報は、後方センサドライバ634を介して後方画像処理部636によって可視画像に処理され、監視記録制御部632を介してマイク628からの音声情報とともにFIFO(先入れ先出し記録部)642に入力される。FIFO(先入れ先出し記録部)642は、20秒程度の容量の不揮発性バッファメモリを備えており、後方画像処理部636およびマイク628から入力された画像および音の情報を先入れ先出しで記憶する。つまり最新20秒の情報が常時上書き記憶され続ける。 On the other hand, the visible light image information detected by the visible light pixel of the CIGS imaging sensor 626 based on the focus adjustment as described above is processed into a visible image by the rear image processing unit 636 via the rear sensor driver 634, and is monitored and recorded. The sound information from the microphone 628 is input to the FIFO (first-in first-out recording unit) 642 via the unit 632. The FIFO (first-in first-out recording unit) 642 includes a nonvolatile buffer memory having a capacity of about 20 seconds, and stores image and sound information input from the rear image processing unit 636 and the microphone 628 in a first-in first-out manner. That is, the latest 20-second information is always overwritten and stored.

そして、異常加速度検知部644が衝突などによる大きな加速度変化を検知したとき、または特に記録を指示する手動操作があったとき、FIFO642の記録が証拠として保全されることになる。具体的には、監視記録制御部632は、車両制御部604と連記しており、異常加速度検知部644による異常加速度検知または手動操作が車両制御部604を介して監視記録制御部632に伝えられると、後方画像処理部636およびマイク628が破壊されずに情報入力が継続していれば、その時点からさらに10秒程度のFIF0642への記憶を続ける。これによってFIFO642には、加速度変化の検知または手動操作の時点の前後それぞれ10秒程度の画像および音情報が最終的に保持される。そして、この前後10秒程度の画像および音情報は、不揮発性の記録部646に自動転送され証拠として保存される。これによってドライブレコーダ機能が達成される。なお、衝突等でドライブレコーダ機能の大半が破壊された場合でも、不揮発性のFIFO642さえ無事ならば、事故前20秒程度の記録が保全されることになる。 Then, when the abnormal acceleration detection unit 644 detects a large acceleration change due to a collision or the like, or particularly when a manual operation for instructing recording is performed, the recording of the FIFO 642 is maintained as evidence. Specifically, the monitoring record control unit 632 is connected to the vehicle control unit 604, and abnormal acceleration detection or manual operation by the abnormal acceleration detection unit 644 is transmitted to the monitoring record control unit 632 via the vehicle control unit 604. If the rear image processing unit 636 and the microphone 628 are continuously input without being destroyed, the storage in the FIFO 0642 is continued for about 10 seconds from that point. Thereby, the FIFO 642 finally holds image and sound information of about 10 seconds before and after the time of detection of acceleration change or manual operation. Then, the image and sound information of about 10 seconds before and after this is automatically transferred to the nonvolatile recording unit 646 and stored as evidence. This achieves the drive recorder function. Even if most of the drive recorder function is destroyed due to a collision or the like, if even the non-volatile FIFO 642 is safe, the recording of about 20 seconds before the accident is maintained.

なお、後続車両の画像を記録する場合、車間距離が短くなると後続車両のナンバーはもちろんのことフロントガラスを介して前部座席の運転者等の顔も鮮明に記録されることになる。これらの画像は、異常がない限り、FIFOで20秒後には捨てられることにはなるが、プライバシー問題への配慮のため、後続車両が所定以上に車間距離を詰めてきたことを監視記録制御部632が検出するとこれを車両制御部604に送る。車両制御部604はこれに応答して、後方車ドラレコ(ドライブレコーダ)告知表示部648により、車両602の後部窓に「後方撮影中です」などの告知表示を行わせる。これは、万一のトラブルを軽減するための事前告知となるとともに、撮影を嫌う後続車両に自発的に適切な車間距離をとらせることが期待できる。さらに、 When recording the image of the following vehicle, when the inter-vehicle distance is shortened, not only the number of the following vehicle but also the face of the driver of the front seat is clearly recorded through the windshield. These images will be discarded after 20 seconds in the FIFO unless there is an abnormality. However, in order to protect privacy, the monitoring and recording control unit confirms that the following vehicle has narrowed the inter-vehicle distance more than a predetermined distance. If 632 detects, this will be sent to the vehicle control part 604. In response to this, the vehicle control unit 604 causes the rear vehicle drive recorder (drive recorder) notification display unit 648 to display a notification such as “being rear-photographed” on the rear window of the vehicle 602. This is an advance notice for alleviating troubles, and it can be expected that a subsequent vehicle that dislikes photographing will voluntarily take an appropriate inter-vehicle distance. further,

第5実施例は、以上説明した後方監視装置と同様の監視装置を車両前方にも備えている。その構成は後方監視装置と共通なので、対応する構成については700番台で10の位および1の位が同じ番号を付し、特に必要ない限り説明は省略する。なお、前方監視装置の前方画像処理部736からの前方可視光画像情報は、後方可視光画像と同様にしてFIFO642および記録部646に記録される。このためFIFO642および記録部646はそれぞれ後方用および前方用の記録領域を有する。 In the fifth embodiment, a monitoring device similar to the rear monitoring device described above is provided in front of the vehicle. Since the configuration is the same as that of the rear monitoring device, the corresponding configuration is numbered in the 700s with the same number at the 10's and 1's, and the description is omitted unless particularly necessary. Note that the front visible light image information from the front image processing unit 736 of the front monitoring device is recorded in the FIFO 642 and the recording unit 646 in the same manner as the rear visible light image. For this reason, the FIFO 642 and the recording unit 646 have recording areas for the rear side and the front side, respectively.

なお、前方監視装置の場合、自車両602が所定以上に前方車両への車間距離を詰めてしまったことを監視記録制御部632が検出し、これが車両制御部604に送られたときは、車内出力部612の音声出力部616に「車間距離をとってください」などの警告アナウンスを行わせるとともに、居眠り等により車間距離が危険領域にまで縮まったときは、ブレーキ608を自動的に作動させ、衝突を防止する。 In the case of the front monitoring device, when the monitoring record control unit 632 detects that the own vehicle 602 has narrowed the inter-vehicle distance to the front vehicle more than a predetermined value and this is sent to the vehicle control unit 604, When the voice output unit 616 of the output unit 612 makes a warning announcement such as “take a distance between vehicles”, and when the distance between the vehicles is reduced to a dangerous area due to falling asleep, the brake 608 is automatically activated, Prevent collisions.

図31は、後方カメラ/センサ622の詳細を距離検知原理とともに示したブロック図であり、上面から見た配置概念図となっている。なお、図30と同一部分には同一番号を付している。図31において、赤外ビームスキャナ630は、レーザまたは発光ダイオードからなりビームを投射するソーラーブラインドビーム光源802と、投射ビームを反射して道路面と平行にスキャンさせるためのポリゴンミラー、共振型ガルバノミラーまたは音響光学偏向素子などからなる二次元走査系804を有する。なお、ソーラーブラインドビーム光源802からのビームは、道路のアップダウンに対応して後続車両をカバーするため、後述のように断面が縦長になっている。なお、同様の目的で道路のアップダウンに対応して水平垂直方向に位置する可能性のある後続車両をカバーするためには、二次元走査系804を縦方向のスキャンも含む空間走査系として構成してもよい。 FIG. 31 is a block diagram showing the details of the rear camera / sensor 622 together with the distance detection principle, and is an arrangement conceptual diagram viewed from the top. The same parts as those in FIG. 30 are denoted by the same reference numerals. In FIG. 31, an infrared beam scanner 630 includes a solar blind beam light source 802 made of a laser or a light emitting diode and projecting a beam, a polygon mirror for reflecting the projected beam to scan parallel to the road surface, and a resonant galvanometer mirror. Alternatively, a two-dimensional scanning system 804 including an acousto-optic deflection element is included. The beam from the solar blind beam light source 802 has a vertically long cross section as will be described later in order to cover the following vehicle corresponding to the up and down of the road. For the same purpose, the two-dimensional scanning system 804 is configured as a spatial scanning system including a vertical scanning in order to cover a succeeding vehicle that may be positioned in the horizontal and vertical directions corresponding to the up and down of the road. May be.

CIGS撮像センサ626の光軸806はほぼ車両602の中心に配置されるが、二次元走査系804による走査ビームの回転中心は、この光軸806から離れた位置設けられる。投射ビームの回転中心と光軸806の距離はいわゆる三角測距の基線長となるので、原理的には両者間はできるだけ離れているのが望ましい。従って、配置が可能であれば、例えば赤外ビームスキャナ630は尾灯の一部に設けるのが好適である。しかしながら、一方で、後方カメラ/センサ622を出来るだけユニットとしてコンパクトにまとめることを優先する場合には、精度が保証できる限り、赤外ビームスキャナ630とCIGS撮像センサを近接して配置するのが好適である。 The optical axis 806 of the CIGS imaging sensor 626 is disposed substantially at the center of the vehicle 602, but the rotation center of the scanning beam by the two-dimensional scanning system 804 is provided at a position away from the optical axis 806. Since the distance between the rotation center of the projection beam and the optical axis 806 is a so-called triangulation baseline length, in principle, it is desirable that the two be separated as much as possible. Therefore, if the arrangement is possible, for example, the infrared beam scanner 630 is preferably provided in a part of the taillight. However, on the other hand, when priority is given to assembling the rear camera / sensor 622 as compact as possible, it is preferable to arrange the infrared beam scanner 630 and the CIGS imaging sensor close to each other as long as accuracy can be guaranteed. It is.

後方カメラ/センサ622は以上のような構成であるので、例えば後続車両が車両622の真後ろの位置810に存在した時、角度812にある投射ビームの反射光814がCIGS撮像センサ626に向かう。つまり、反射ビーム814の像はCIGS撮像センサ626の光軸806上、すなわち画面の左右方向中央に撮像される。この反射ビーム814の像の位置と投射ビームの角度の組合せは後続車両の位置810によって一義的に決まり、その時の投射ビームの角度812は監視記録制御部で把握されているので、投射ビームの角度と反射ビーム814の撮像位置の組合せから位置810にいる後続車両までの距離が求まることになる。 Since the rear camera / sensor 622 is configured as described above, for example, when the following vehicle exists at a position 810 immediately behind the vehicle 622, the reflected light 814 of the projection beam at the angle 812 is directed to the CIGS imaging sensor 626. That is, the image of the reflected beam 814 is imaged on the optical axis 806 of the CIGS imaging sensor 626, that is, at the center in the left-right direction of the screen. The combination of the image position of the reflected beam 814 and the angle of the projection beam is uniquely determined by the position 810 of the following vehicle, and the angle 812 of the projection beam at that time is grasped by the monitoring recording control unit. The distance from the combination of the imaging position of the reflected beam 814 to the following vehicle at the position 810 is obtained.

同様にして、後続車両が車両622の真後ろの位置816に存在したときは、角度818にある投射ビームによる反射ビーム820がCIGS撮像センサ626に向かう。このときも反射ビーム820の像はCIGS撮像センサ626の画面の左右方向中央に撮像されるが、投射ビームが異なる角度818にあるので、後続車がより遠い位置816にあることがわかる。なお、後続車が位置822にいたときには、位置816にいるときと同様、投射ビームが角度818にあるときの反射光ビーム824の像がCIGS撮像センサ626に撮像される。しかしこのときの反射光ビーム824の撮像位置は、画面の左右中央ではなく、主光線826の延長線上の、図31で画面中央より右側の位置に撮像されるので、位置822が位置816と混同されることはない。 Similarly, when the following vehicle is present at a position 816 immediately behind the vehicle 622, the reflected beam 820 by the projection beam at the angle 818 is directed to the CIGS imaging sensor 626. At this time as well, the image of the reflected beam 820 is captured at the center of the screen of the CIGS imaging sensor 626 in the left-right direction. However, since the projection beam is at a different angle 818, it can be seen that the following vehicle is at a farther position 816. When the succeeding vehicle is at position 822, the reflected light beam 824 image when the projection beam is at an angle 818 is picked up by the CIGS image sensor 626 as in the case of the position 816. However, the imaging position of the reflected light beam 824 at this time is not the center of the left and right sides of the screen, but is imaged on the right side of the center of the screen in FIG. It will never be done.

図32は、CIGS撮像センサ624によって撮像された画像を車内出力部612の画像出力部614で見たときの概念図である。図32(A)は、図31のような位置に後続車両があるときに対応したものであり、最も近い真後ろの位置810にある後続車両とこれによる反射ビーム814が観察される。なお、上記のように投射ビームの断面が縦長なので後続車両による反射ビーム814の像も縦長形状をしている。また、反射ビーム814は、簡単のため位置810にいる後続車両の中央にのみ図示しているが、実際には後続車両前面の左端から右端まで投射ビームがスキャンされる間、反射ビームが帯状に検知される。なお、スキャン速度は車両速度よりも充分高速なのでスキャン中の車両位置の動きは無視できる。そこで、このように帯状に車両前面全体に渡っている反射ビームの像から、図32(A)に示すような反射ビーム814の像を求めこれに対応する投射ビームの角度を確定するためには、車両前面に渡っている帯状の反射ビーム像の重心を求める処理が必要である。このような重心を求めて処理することについては後述する。 FIG. 32 is a conceptual diagram when an image captured by the CIGS imaging sensor 624 is viewed by the image output unit 614 of the in-vehicle output unit 612. FIG. 32A corresponds to the case where the following vehicle is present at the position as shown in FIG. 31, and the succeeding vehicle at the nearest rearmost position 810 and the reflected beam 814 thereby are observed. Since the cross section of the projection beam is vertically long as described above, the image of the reflected beam 814 from the succeeding vehicle has a vertically long shape. The reflected beam 814 is shown only in the center of the following vehicle at the position 810 for the sake of simplicity, but the reflected beam is actually banded while the projection beam is scanned from the left end to the right end of the front surface of the following vehicle. Detected. Since the scan speed is sufficiently higher than the vehicle speed, the movement of the vehicle position during the scan can be ignored. Therefore, in order to determine the angle of the projection beam corresponding to the image of the reflected beam 814 as shown in FIG. 32 (A) from the image of the reflected beam extending over the entire front surface of the vehicle in this manner. A process for obtaining the center of gravity of the belt-like reflected beam image extending over the front of the vehicle is necessary. Finding and processing such a center of gravity will be described later.

図32(A)では、上記のような位置810にいる後続車両と同様にして、より遠い真後ろの位置816にある後続車両とこれによる反射ビーム820の重心、および右側にずれた位置822を走行している後続車両とこれによる反射ビーム824の重心が、画像出力部614内に図示されている。なお、図32は概念図であって、説明の都合上、複数の後続車両を同時に鳥瞰的に図示しているが、実際の画像はこれと異なる。つまり、車両602および各後続車両が平地を走行している場合、CIGS撮像センサの光軸806が道路面に平行に設定されているため、位置816にいる後続車両は、その真ん前の位置810に後続車両がいる場合、その陰に隠れて全く見えない。また、斜め後方の位置822を走行している後続車両は、前方の位置810の後続車両と重なって撮像される。なお、このように複数の後続車両が重なっている場合の処理については後述する。 In FIG. 32 (A), in the same manner as the following vehicle at the position 810 as described above, the vehicle follows the following vehicle at the far rear position 816, the center of gravity of the reflected beam 820, and the position 822 shifted to the right side. The following vehicle and the center of gravity of the reflected beam 824 are shown in the image output unit 614. Note that FIG. 32 is a conceptual diagram, and for convenience of explanation, a plurality of succeeding vehicles are shown simultaneously in a bird's eye view, but an actual image is different from this. That is, when the vehicle 602 and each subsequent vehicle are traveling on a flat ground, the optical axis 806 of the CIGS imaging sensor is set in parallel to the road surface, so that the subsequent vehicle at the position 816 is at the position 810 just before it. If there is a following vehicle, it is hidden behind and cannot be seen at all. In addition, the following vehicle that is traveling at an obliquely rear position 822 is imaged so as to overlap the following vehicle at the forward position 810. Note that processing in the case where a plurality of succeeding vehicles overlap in this way will be described later.

図32(B)は後続車両が位置826に示すように異常接近した場合を図示しており、上記のように、このような後続車両に対しては、後方車ドラレコ告知表示部648から「後方撮影中です」などの告知表示が行われる。またプライバシーへの配慮のため、異常状態がない限りは、画像に対し、フロントガラス部モザイク処理828およびナンバープレートモザイク処理830が施される。なお、このモザイク処理は、事故等により異常加速度検知部644による異常加速度検知が行われたときには解除される。従って、証拠保全のためには、運転者の顔やナンバープレート等が写った画像が記録されることになる。 FIG. 32B illustrates a case where the following vehicle has abnormally approached as indicated by a position 826. As described above, for such a succeeding vehicle, a “rear vehicle driving information display” 648 indicates “rearward”. An indication such as “Shooting is in progress” is displayed. For privacy reasons, unless there is an abnormal state, the image is subjected to a windshield mosaic process 828 and a license plate mosaic process 830. This mosaic processing is canceled when the abnormal acceleration is detected by the abnormal acceleration detector 644 due to an accident or the like. Therefore, in order to preserve evidence, an image showing the driver's face, license plate, etc. is recorded.

図33は、第5実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフである。CIGSセンサの分光感度(量子効率)832は図3(A)と同じものを概念的に示したものである。これに対し、地表における太陽光の分光放射照度834は、大気の吸収を受けて櫛歯上に太陽光の分光放射照度が低くなるソーラーブラインド領域を有する。1100nm近辺や1400nm近辺がこれに相当する。両者を比較すると、CIGSセンサは1100nm近辺における太陽光のソーラーブラインド領域において高い分光感度を有することがわかる。そこで、第5実施例では、図7から図10で説明したようなカラーフィルタ配列における赤外光透過フィルタとして、1100nm近辺における太陽光のソーラーブラインド領域にピークを持つ分光透過率836のバンドパスフィルタを採用する。図31のソーラーブラインドビーム光源は、このバンドパスフィルタの透過領域に強い分光強度を有するものである。このようにして、CIGS撮像センサ626の赤外画素数は、太陽光の存在にかかわらず、赤外ビームスキャナから投射されるビームの反射光を検知できる。 FIG. 33 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS imaging sensor 626 in the fifth embodiment. The spectral sensitivity (quantum efficiency) 832 of the CIGS sensor is conceptually the same as that shown in FIG. On the other hand, the spectral irradiance 834 of sunlight on the ground surface has a solar blind region where the spectral irradiance of sunlight is reduced on the comb teeth upon absorption of the atmosphere. This corresponds to around 1100 nm and around 1400 nm. Comparing the two, it can be seen that the CIGS sensor has high spectral sensitivity in the solar blind region of sunlight around 1100 nm. Therefore, in the fifth embodiment, a bandpass filter having a spectral transmittance 836 having a peak in the solar blind region of sunlight near 1100 nm as an infrared light transmitting filter in the color filter array as described with reference to FIGS. Is adopted. The solar blind beam light source of FIG. 31 has a strong spectral intensity in the transmission region of this bandpass filter. In this way, the number of infrared pixels of the CIGS image sensor 626 can detect the reflected light of the beam projected from the infrared beam scanner regardless of the presence of sunlight.

図33には、さらに赤透過フィルタ、緑透過フィルタおよび青透過フィルタにそれぞれ採用される狭い可視光領域のバンドパスフィルタの分光透過率838、840および842をそれぞれ図示している。これらの波長域では、地表における太陽光の分光放射照度834は充分であり、かつ、CIGSセンサの分光感度(量子効率)832も極めて高いので、可視光の撮像が可能となる。このように、第5実施例では、赤透過フィルタの分光透過率838を含め、すべてのフィルタが狭い領域の波長域を透過させるバンドパスフィルタとなっているので、可視光の撮像およびソーラーブラインド領域の投射ビームによる距離検知を同時に行うことが可能である。なお、撮像レンズ604のピント位置は可視光を基準にして行う。この場合、赤外画素についてはピントが合わないが、反射ビームの重心を求める目的からは問題はない。 FIG. 33 further shows spectral transmittances 838, 840, and 842 of bandpass filters of a narrow visible light region that are respectively employed for a red transmission filter, a green transmission filter, and a blue transmission filter. In these wavelength ranges, the spectral irradiance 834 of sunlight on the ground surface is sufficient, and the spectral sensitivity (quantum efficiency) 832 of the CIGS sensor is extremely high, so that visible light can be imaged. As described above, in the fifth embodiment, since all the filters including the spectral transmittance 838 of the red transmission filter are band pass filters that transmit a narrow wavelength region, imaging of visible light and solar blind region are possible. It is possible to simultaneously detect the distance by the projection beam. Note that the focus position of the imaging lens 604 is determined based on visible light. In this case, the infrared pixel is not in focus, but there is no problem for the purpose of obtaining the center of gravity of the reflected beam.

図34は、図30の第5実施例における監視記録制御部632の動作のフローチャートである。フローは、車両602が走行を開始するとスタートし、ステップS302でドライブレコーダ記録の開始を指示するとともに、ステップS304でソーラーブラインド赤外ビームによるスキャン開始を指示してステップS306に至る。ステップS306では、上記の指示に基づいて前方および後方画像処理部から送られる可視画像、前方および後方マイクからの音声、前方および前方の検知距離のFIFO記録を指示する。 FIG. 34 is a flowchart of the operation of the monitoring record control unit 632 in the fifth embodiment of FIG. The flow starts when the vehicle 602 starts to travel. In step S302, the start of drive recorder recording is instructed. In step S304, the start of scanning with a solar blind infrared beam is instructed, and the process proceeds to step S306. In step S306, based on the above-described instructions, the visual images sent from the front and rear image processing units, the sound from the front and rear microphones, and the FIFO recording of the front and front detection distances are instructed.

次いでステップS308では、赤外ビームスキャナ630からのビーム角度およびCIGS撮像センサのソーラーブラインド領域撮像画像に基づく車間距離検知処理を行う。この車間距離検知は前方車両および後方車両の両者について行われるものであるが、その詳細は後述する。ステップS308で前方および後方の車間距離が検知されると、ステップS310ではこれに基づいて、前方カメラ/センサ722および後方カメラ/センサ622についてそれぞれ可視光撮影のためのカメラの自動ピント合わせが行われる。 Next, in step S308, an inter-vehicle distance detection process based on the beam angle from the infrared beam scanner 630 and the solar blind area captured image of the CIGS imaging sensor is performed. This inter-vehicle distance detection is performed for both the front vehicle and the rear vehicle, details of which will be described later. When the front and rear inter-vehicle distances are detected in step S308, based on this, in step S310, the front camera / sensor 722 and the rear camera / sensor 622 are automatically focused on the camera for visible light shooting, respectively. .

次のステップS312では、ステップS308で検知した前方車間距離に基づいて、前方車への異常接近の有無がチェックされる。そして前方車間異常接近が検知されるとステップS314に進み、ブレーキを安全な強度で自動作動させて減速する指示を行うとともにステップS316で異常車間距離のアナウンスを指示してステップS318に移行する。一方、ステップS312で前方車間異常接近が検知されなければ直接ステップS318に移行する。ここで、車間距離に応じたよりきめ細かい処理を望む場合は、ステップS312の車間距離判断を二段階にし、車間距離が比較的大きい時はステップS316の警告アナウンス指示のみに留めるとともに、車間距離がより短くなったときのみステップS314のブレーキ自動作動を加えるよう構成する。また、このようなきめ細かい処置にするか図34通りの一段階の処理にするかを予め選択しておくよう構成することもできる。 In the next step S312, the presence or absence of an abnormal approach to the preceding vehicle is checked based on the front inter-vehicle distance detected in step S308. When an abnormal approach between the front vehicles is detected, the process proceeds to step S314, where an instruction to decelerate by automatically operating the brake with a safe strength is given, and an announcement of an abnormal inter-vehicle distance is given at step S316, and the process proceeds to step S318. On the other hand, if no forward inter-vehicle abnormal approach is detected in step S312, the process proceeds directly to step S318. Here, when more detailed processing according to the inter-vehicle distance is desired, the inter-vehicle distance determination in step S312 is made in two stages, and when the inter-vehicle distance is relatively large, only the warning announcement instruction in step S316 is kept, and the inter-vehicle distance is shorter. Only when this occurs, the brake automatic operation of step S314 is applied. Further, it can be configured to select in advance whether such a fine treatment or one-step processing as shown in FIG.

ステップS318では、ステップS308で検知した後方車間距離に基づいて、後方車が異常接近しているか否かのチェックが行われる。そして後方車間異常接近が検知されるとステップS3320に進み、異常車間距離のアナウンスを指示する。さらに、ステップS322では、後方車両運転者に見えるよう車両602の後部窓に「後方撮影中です」などの告知表示を行わせる。また、ステップS324では、後方カメラ/センサ622が撮像する後方車の画像に対し、フロントガラス部モザイク処理828およびナンバープレートモザイク処理830を施す指示を出してステップS326に移行する。一方、ステップS318で後方車間異常接近が検知されなければステップS328に進み、ステップS320からステップS324に該当する後方車対策を解除してステップS326に移行する。これは、異常接近状態の検知に対応して後方車との車間距離が広がり、正常状態に復帰したときに必要な処理である。 In step S318, based on the distance between the rear vehicles detected in step S308, it is checked whether the rear vehicle is abnormally approaching. When an abnormal approach between the rear vehicles is detected, the process proceeds to step S3320, and an announcement of the abnormal inter-vehicle distance is instructed. Further, in step S322, a notice display such as “being photographed in the rear” is displayed on the rear window of the vehicle 602 so that it can be seen by the driver of the rear vehicle. In step S324, an instruction is given to perform windshield mosaic processing 828 and license plate mosaic processing 830 on the rear vehicle image captured by the rear camera / sensor 622, and the process proceeds to step S326. On the other hand, if an abnormal approach between the rear vehicles is not detected in step S318, the process proceeds to step S328, the countermeasure for the rear vehicle corresponding to step S324 is canceled from step S320, and the process proceeds to step S326. This is a process that is necessary when the inter-vehicle distance from the rear vehicle increases corresponding to the detection of the abnormal approach state and the vehicle returns to the normal state.

ステップS326では、異常加速度が検知されたかどうかがチェックされ、検知があればステップS330で後方車フロント/ナンバープレートモザイク処理を解除する。さらにステップS332では、異常加速度検知後10秒の画像/音声/距離がFIFO642に入力されるのを待つとともにこのようにして確保されたFIFO642における異常加速度検知前後10秒分の画像/音声/距離を記録部646に記録してステップS334に移行する。一方、ステップS326で異常加速度が検知されなければ直接ステップS334に移行する。 In step S326, it is checked whether or not an abnormal acceleration is detected. If there is a detection, the rear vehicle front / number plate mosaic process is canceled in step S330. In step S332, the image / sound / distance for 10 seconds after the detection of the abnormal acceleration is waited to be input to the FIFO 642, and the image / sound / distance for 10 seconds before and after the detection of the abnormal acceleration in the FIFO 642 thus secured is obtained. Recording is performed in the recording unit 646, and the process proceeds to step S334. On the other hand, if no abnormal acceleration is detected in step S326, the process directly proceeds to step S334.

ステップS334では、車両が停止したかどうかチェックし、停止していなければステップS306に戻って、以下ステップS306からステップS334を繰り返し、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。一方、ステップS334で車両の停止が検知されるとステップS336の停車中処理に移行する。車両の事故は、車両の走行中だけでなく、例えば信号で停車中に後方から追突される等のケースもある。停車中処理はこのような車両停止中の事故にたいしても証拠保全するためのものである。 In step S334, it is checked whether or not the vehicle has stopped. If not stopped, the process returns to step S306, and thereafter steps S306 to S334 are repeated to continue recording and detection by the front camera / sensor 722 and the rear camera / sensor 622. While dealing with various conditions. On the other hand, when the stop of the vehicle is detected in step S334, the process proceeds to the stoppage process in step S336. There are cases in which a vehicle accident occurs not only when the vehicle is running, but also when the vehicle crashes from behind while the vehicle is stopped by a signal, for example. The stop processing is for preserving evidence even for such an accident while the vehicle is stopped.

図35は、図34の停車中処理の詳細を示すフローチャートである。図34のステップS334から図35の停車中処理に移行すると、まず、ステップS342で車両が走行しているかどうかチェックする。ここで走行していることが検知されると図34のステップS306に戻る。一方、停車が継続されていることが確認されるとステップS344に進み、継続して前方および後方画像処理部から送られてきている可視画像、前方および後方マイクからの音声、前方および前方の検知距離のFIFO記録を指示する。 FIG. 35 is a flowchart showing details of the stopping process of FIG. When the process proceeds from the step S334 in FIG. 34 to the stoppage process in FIG. If it is detected that the vehicle is traveling, the process returns to step S306 in FIG. On the other hand, if it is confirmed that the stop is continued, the process proceeds to step S344, and the visible image continuously transmitted from the front and rear image processing units, the sound from the front and rear microphones, the detection of the front and front are detected. Instructs FIFO recording of distance.

次いでステップS336では、赤外ビームスキャナ630からのビーム角度およびCIGS撮像センサのソーラーブラインド領域撮像画像に基づく車間距離検知処理を行う。これは、図34のステップS308と同じ処理である。ステップS346で前方および後方の車間距離が検知されると、ステップS348ではこれに基づいて、前方カメラ/センサ722および後方カメラ/センサ622についてそれぞれ可視光撮影のためのカメラの自動ピント合わせが行われる。これも図34のステップS310と同じものである。 Next, in step S336, an inter-vehicle distance detection process based on the beam angle from the infrared beam scanner 630 and the solar blind area captured image of the CIGS imaging sensor is performed. This is the same process as step S308 in FIG. When the front and rear inter-vehicle distances are detected in step S346, in step S348, the front camera / sensor 722 and the rear camera / sensor 622 are automatically focused on the camera for visible light shooting based on the distance. . This is also the same as step S310 in FIG.

次のステップS350では、ステップS308で検知した前方車間距離に基づいて、前方車に対し、停車を前提とした異常接近の有無がチェックされる。この異常接近の判断基準は図34のステップS312よりも近接した距離である。既に車両602は停車しているので、このような場合は、前方車が気付かずバックしてきた場合などに相当する。従って、停車前提前方車間異常接近が検知されるとステップS352に進み、自動的にクラクションを作動させて前方車に注意を促し、ステップS354に移行する。一方、ステップS3520で停車前提前方車間異常接近が検知されなければ直接ステップS354に移行する。 In the next step S350, based on the front inter-vehicle distance detected in step S308, the presence or absence of abnormal approach on the premise of stopping is checked for the preceding vehicle. The criterion for determining the abnormal approach is a distance closer than that in step S312 of FIG. Since the vehicle 602 has already stopped, such a case corresponds to a case in which the vehicle ahead is not aware of it and is back. Accordingly, when an abnormal approach between the vehicles on the premise of stopping is detected, the process proceeds to step S352, the horn is automatically actuated to call attention to the preceding vehicle, and the process proceeds to step S354. On the other hand, if it is determined in step S3520 that an abnormal approach between the vehicles on the premise of stopping is not detected, the process directly proceeds to step S354.

ステップS354では、ステップS308で検知した後方車間距離に基づいて、後方車が異常接近しているか否かのチェックが行われる。このチェック基準は図34のステップS318と同じものである。但しここで後方車異常接近が検地されたときは、図34のような警告アナウンス指示や後方車ドラレコ告知表示指示は行わず、ステップS356の後方車フロント/ナンバーモザイク処理のみを行ってステップS358に移行する。これは、信号待ち停車等においては後方車との車間距離が短くなるのが当然であり、このような状態での警告アナウンス指示は無用であるとともに、後方車ドラレコ告知表示指示はかえって後方車とのトラブルの原因になるからである。そこで、後方車フロント/ナンバーモザイク処理によるプライバシー配慮のみに留めている。一方、ステップS356で後方車間異常接近が検知されなければステップS360に進み、後方車対策を解除してステップS358に移行する。これは、自車両停車時に後方車が遠くにいる状態において後方車フロント/ナンバーモザイク処理を解除するためである。 In step S354, based on the distance between the rear vehicles detected in step S308, it is checked whether the rear vehicle is abnormally approaching. This check criterion is the same as that in step S318 in FIG. However, when the rear vehicle abnormal approach is detected here, the warning announcement instruction and the rear car dorareko notification display instruction as shown in FIG. 34 are not performed, and only the rear car front / number mosaic process of step S356 is performed and the process proceeds to step S358. Transition. This is because it is natural that the distance between the vehicle and the rear vehicle is shortened when waiting for a signal, etc., and the warning announcement instruction in such a state is unnecessary, and the rear vehicle dorareko notification display instruction is This is a cause of trouble. Therefore, it is limited to privacy considerations by the rear car front / number mosaic processing. On the other hand, if an abnormal approach between the rear vehicles is not detected in step S356, the process proceeds to step S360, the rear vehicle countermeasure is canceled, and the process proceeds to step S358. This is to cancel the rear vehicle front / number mosaic process in a state where the rear vehicle is far away when the host vehicle is stopped.

ステップS358では、ステップS308で検知した前方車間距離に基づいて、後方車に対し、停車を前提とした異常接近の有無がチェックされる。この異常接近の判断基準はステップS354におけるよりも近接した距離である。そしてこのような異常接近が検知されるとステップS362に進み、フットブレーキを自動作動させてステップS364に移行する。これは、サイドブレーキのみで停車している場合において、万一追突された場合に車両の停止能力を高めてショックを少しでも軽減するためである。一方、ステップS358で停車前提後方車間異常接近が検知されなければ直接ステップS364に移行する。 In step S358, on the basis of the front inter-vehicle distance detected in step S308, it is checked whether or not there is an abnormal approach on the assumption that the rear vehicle is stopped. The criterion for determining the abnormal approach is a closer distance than in step S354. When such an abnormal approach is detected, the process proceeds to step S362, the foot brake is automatically operated, and the process proceeds to step S364. This is because, when the vehicle is stopped only by the side brake, in the unlikely event of a rear-end collision, the stopping ability of the vehicle is enhanced to reduce the shock as much as possible. On the other hand, if it is not detected in step S358 that an abnormal approach between the vehicles behind the stop is detected, the process directly proceeds to step S364.

ステップS362では、異常加速度が検知されたかどうかがチェックされ、検知があればステップS366で後方車フロント/ナンバープレートモザイク処理を解除する。さらにステップS368では、異常加速度検知後10秒の画像/音声/距離がFIFO642に入力されるのを待つとともにこのようにして確保されたFIFO642における異常加速度検知前後10秒分の画像/音声/距離を記録部646に記録してステップS334に移行する。これらは図34のステップS330およびステップS332と同じである。一方、ステップS364で異常加速度が検知されなければ直接ステップS370に移行する。 In step S362, it is checked whether or not an abnormal acceleration is detected. If there is a detection, the rear vehicle front / number plate mosaic process is canceled in step S366. In step S368, the image / sound / distance for 10 seconds after the abnormal acceleration is detected is input to the FIFO 642, and the image / sound / distance for 10 seconds before and after the abnormal acceleration detection in the FIFO 642 thus secured is determined. Recording is performed in the recording unit 646, and the process proceeds to step S334. These are the same as step S330 and step S332 of FIG. On the other hand, if no abnormal acceleration is detected in step S364, the process directly proceeds to step S370.

ステップS370では、動力が停止したかどうかチェックし、停止していればステップS372に進んで、前方カメラ/センサ722および後方カメラ/センサ622からの信号に基づく前方画像処理部736および後方画像処理部636の画像処理により、画像中に動体が写っていない状態が所定時間以上続いているかどうかチェックする。そして動体が検知されればステップS342に戻り、以下ステップS342からステップS372を繰り返し、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。ステップS372で動体が検知されたときステップS342に戻るのは、車両602が停車しかつ動力が停止させられていても周囲に走行中の車両があれば事故に巻き込まれるおそれがあるのでその場合の証拠保全を行うためである。一方、ステップS372で所定時間以上動体検知がなければ車両602が車庫など安全な位置に格納されたことを意味するのでフローを終了する。なお、ステップS370で動力が停止していないことが検知された時もステップS342に戻り、前方カメラ/センサ722および後方カメラ/センサ622による記録と検知を継続しながら種々の状態に対処する。 In step S370, it is checked whether the power is stopped. If it is stopped, the process proceeds to step S372, and the front image processing unit 736 and the rear image processing unit based on the signals from the front camera / sensor 722 and the rear camera / sensor 622 are checked. By the image processing at 636, it is checked whether or not a moving object is not captured in the image for a predetermined time or more. If a moving object is detected, the process returns to step S342, and thereafter, steps S342 to S372 are repeated to cope with various states while continuing recording and detection by the front camera / sensor 722 and the rear camera / sensor 622. When a moving object is detected in step S372, the process returns to step S342 because there is a possibility that the vehicle 602 may be involved in an accident if there is a running vehicle even if the vehicle 602 is stopped and the power is stopped. This is to maintain evidence. On the other hand, if no moving object is detected for a predetermined time or more in step S372, it means that the vehicle 602 has been stored in a safe position such as a garage, and thus the flow ends. When it is detected in step S370 that the power is not stopped, the process returns to step S342, and various states are dealt with while recording and detection by the front camera / sensor 722 and the rear camera / sensor 622 are continued.

図36は、図34のステップS308および図35のステップS346における車間距離検知処理の詳細を示すフローチャートである。このフローは前方カメラ/センサ722の画像および後方カメラ/センサ622のそれぞれについて実施されるものであるが、以下の説明では簡単のため、後方カメラ/センサ622からの画像についての処理として説明する。フローがスタートすると、ステップS382で可視光画像の処理が行われる。そしてこの処理に基づき、ステップS384で車両602と同一車線内後方に車両画像があるかどうかチェックする。そして画像があればステップS386に進み、その画像の対象性をチェックする。これは複数の車両が重なって写っていないかどうかチェックすることを意味する。対象性がなければ、ステップS388に進み、予め用意された何パターンかの車両重なり画像とそれぞれマッチングを行う。 FIG. 36 is a flowchart showing details of the inter-vehicle distance detection process in step S308 of FIG. 34 and step S346 of FIG. This flow is performed for each of the image of the front camera / sensor 722 and the rear camera / sensor 622. For the sake of simplicity, the flow will be described as processing for the image from the rear camera / sensor 622. When the flow starts, a visible light image is processed in step S382. Based on this processing, it is checked in step S384 whether there is a vehicle image behind the vehicle 602 in the same lane. If there is an image, the process proceeds to step S386, and the objectivity of the image is checked. This means checking whether a plurality of vehicles overlap each other. If there is no target, the process proceeds to step S388, and matching is performed with several patterns of vehicle overlap images prepared in advance.

次いで、ステップS386では一致するパターンが見つかりそのパターンに基づいて重なっている複数の車両のうちの最も近いもののみの画像が分離できたかどうかチェックし、分離が出来ればステップS392に移行する。一方、ステップS386で車両画像に対称性があれば重なりはないものとして直接ステップS392に移行する。そして、ステップS392で分離した単独車両の画像の大きさからその車両の距離を判断する。しかしながら、この距離判断は車両自体に軽自動車から大型バス等にわたる大きさのばらつきがあるためあくまで大まかなものである。さらにステップS394では、分離した単独車両の可視光画像における重心を検知してステップS396に移行する。 Next, in step S386, a matching pattern is found, and it is checked whether images of only the closest one of a plurality of overlapping vehicles can be separated based on the pattern. If separation is possible, the process proceeds to step S392. On the other hand, if there is symmetry in the vehicle image in step S386, it is determined that there is no overlap, and the process directly proceeds to step S392. Then, the distance of the vehicle is determined from the size of the image of the single vehicle separated in step S392. However, this distance determination is only rough because the vehicle itself has variations in size ranging from light cars to large buses. Further, in step S394, the center of gravity in the visible light image of the separated single vehicle is detected, and the process proceeds to step S396.

ステップS396では、ソーラーブラインド画素の画像処理が行われる。そして、ステップS398において、出力が所定以上の画像群があるかどうかのチェックが行われる。これは、後方をスキャンしているソーラーブラインド領域の投射ビームが後方車両により反射されこれが後方カメラ/センサ622のソーラーブラインド画素で検知されているかどうかをチェックしていることに相当する。車両等の近接物体がない限り、投射ビームの反射光が所定以上の強度をもつことはないからである。 In step S396, solar blind pixel image processing is performed. In step S398, it is checked whether or not there is an image group whose output is greater than or equal to a predetermined value. This corresponds to checking whether the projected beam of the solar blind area scanning backward is reflected by the vehicle behind and is detected by the solar blind pixel of the rear camera / sensor 622. This is because the reflected light of the projection beam does not have a predetermined intensity or more unless there is a close object such as a vehicle.

ステップS398で出力所定以上の画素群があればステップS400に進み、画素群の中にステップS494で検知した可視光画像重心に一致する部分があるかどうかチェックする。そして該当する部分があれば、これを反射ビームの重心と看做し、ステップS402においてこの反射ビーム重心の元になった投射ビームの角度情報を取得する。これによって、ステップS404では、ステップS402で得た投射ビーム角度およびステップS394で得た画像重心位置より投射ビームを反射した車両までの距離を仮決定する。このようにして仮決定された距離は、次のステップS406においてステップS392で求めた画像大きさに基づく距離に矛盾しないかどうかチェックする。そして矛盾がなければステップS404で仮決定した距離を正式に検知車両までの距離として本決定しフローを終了する。 If there is a pixel group having a predetermined output or more in step S398, the process proceeds to step S400, and it is checked whether or not there is a portion in the pixel group that matches the center of the visible light image detected in step S494. If there is a corresponding portion, this is regarded as the center of gravity of the reflected beam, and in step S402, the angle information of the projection beam that is the origin of the center of the reflected beam is acquired. Thus, in step S404, the distance to the vehicle that reflected the projection beam is provisionally determined from the projection beam angle obtained in step S402 and the image centroid position obtained in step S394. It is checked whether the distance temporarily determined in this way is consistent with the distance based on the image size obtained in step S392 in the next step S406. If there is no contradiction, the distance temporarily determined in step S404 is officially determined as the distance to the detected vehicle, and the flow ends.

一方、ステップS406で距離に矛盾があればステップS410に進み、画像処理が所定回数以上行われたかどうかチェックして、まだ所定回数の達していなければステップS382に戻り、可視光画像処理から処理をやり直す。このようにして、ステップS406で画像大きさ距離に矛盾しないソーラーブラインド検知距離が求まったことが確認されるか又はステップS410で画像処理が所定回数以上行われたことが検知されない限りステップS382からステップS410が繰り返される。なお、ステップS384で同一車線内車両画像が検知されなかったとき、またはステップS390で重なり画像から単独車両が分離できなかったとき、またはステップS398で出力が所定以上のソーラーブラインド画素がなかったとき、またはステップS400でソーラーブラインド画素群に可視光画像重心と一致する部分がなかったときは、いずれも直ちにステップS410に移行し、画像処理の繰り返しに入る。 On the other hand, if there is a discrepancy in the distance in step S406, the process proceeds to step S410, where it is checked whether the image processing has been performed a predetermined number of times or more. Try again. In this way, unless it is confirmed in step S406 that the solar blind detection distance that is consistent with the image size distance has been obtained or it is not detected in step S410 that the image processing has been performed a predetermined number of times or more, steps S382 to S382 are performed. S410 is repeated. In addition, when a vehicle image in the same lane is not detected in step S384, or when a single vehicle cannot be separated from the overlapping image in step S390, or when there is no solar blind pixel whose output is greater than or equal to a predetermined value in step S398, Alternatively, in step S400, if there is no portion in the solar blind pixel group that coincides with the visible light image centroid, the process immediately proceeds to step S410, and the image processing is repeated.

これに対し、ステップS410で距離の本決定ができないまま画像処理が所定回数以上くりかえされたことが検知されたときはステップS412に進み、ステップS392により画像大きさ距離の有無をチェックする。そして、画像大きさ距離があればステップS414に進んでそのうちの最新の画像大きさ距離を採用してフローを終了する。一方、ステップS412で画像大きさ距離がなかった時はステップS416に進み、無限遠から中近距離までの車両後方の大半にピントが合うパンフォーカス距離を採用してフローを終了する。これによって、少なくとも図34のステップS310または図35のステップS348のカメラAFのための何らかの距離を決定してフローが終了される。 On the other hand, when it is detected in step S410 that the image processing has been repeated a predetermined number of times or more without being able to determine the distance, the process proceeds to step S412 and whether or not there is an image size distance is checked in step S392. If there is an image size distance, the process proceeds to step S414, the latest image size distance among them is adopted, and the flow ends. On the other hand, if there is no image size distance in step S412, the process proceeds to step S416, and a pan focus distance that focuses on most of the rear of the vehicle from infinity to the middle distance is adopted, and the flow ends. Accordingly, at least some distance for the camera AF in step S310 of FIG. 34 or step S348 of FIG. 35 is determined, and the flow is ended.

図37は、本発明の第6実施例の車両用監視装置の後方カメラ/センサの詳細を距離検知原理とともに示したブロック図である。第6実施例は、図30の全体構成ブロックを含め基本的には第5実施例と共通の構成を有しているが、前方カメラセンサおよび後方カメラ/センサにおけるCIGSセンサ周辺の構成が若干異なるなるものである。図37には、図31の第5実施例と同様にして代表として後方カメラ/センサ922を図示しているが、第5実施例と共通する部分には図31と共通の番号を付し、特に必要ない限り、説明は省略する。 FIG. 37 is a block diagram showing details of the rear camera / sensor of the vehicle monitoring apparatus according to the sixth embodiment of the present invention together with the distance detection principle. Although the sixth embodiment basically has the same configuration as that of the fifth embodiment including the entire configuration block of FIG. 30, the configuration around the CIGS sensor in the front camera sensor and the rear camera / sensor is slightly different. It will be. FIG. 37 shows the rear camera / sensor 922 as a representative in the same manner as the fifth embodiment of FIG. 31, but parts common to the fifth embodiment are numbered the same as in FIG. 31. Description is omitted unless particularly necessary.

第6実施例のCIGS撮像センサ926はカラーフィルタの構成が異なり、赤透過フィルタは狭い領域を透過させるバンドパスフィルタではなく、赤より長波長側を透過させるローパスフィルタが採用されている。また、赤外光透過フィルタについても、ソーラーブラインドの狭い領域の赤外光を透過させるバンドパスフィルタではなく、ソーラーブラインド領域およびそれ以外の近赤外領域の光を透過させるローパスフィルタとなっている。これらのローパスフィルタは、バンドパスフィルタよりも構成が簡単である。このため、まずソーラーブラインド領域より長波長側をカットするための、固定ハイパスフィルタ901がCIGSセンサ926への光路中に設けられる。さらに、赤領域より長波長側であってかつソーラーブラインド領域よりも短波長側の光をカットする可動帯域カットフィルタ903がCIGSセンサ926への光路中に設けられる。これらの組合せにより、結果的に図33と同様にして赤画素、緑画素、青画素およびソーラーブラインド画素のそれぞれに狭い領域の光がそれぞれ入射することになる。 The CIGS imaging sensor 926 of the sixth embodiment has a different color filter configuration, and the red transmission filter is not a band-pass filter that transmits a narrow region but a low-pass filter that transmits longer wavelengths than red. Also, the infrared light transmission filter is not a bandpass filter that transmits infrared light in a narrow area of the solar blind, but a low-pass filter that transmits light in the solar blind area and other near infrared areas. . These low-pass filters are simpler in construction than band-pass filters. For this reason, first, a fixed high-pass filter 901 for cutting the longer wavelength side than the solar blind region is provided in the optical path to the CIGS sensor 926. Further, a movable band cut filter 903 that cuts light that is longer than the red region and shorter than the solar blind region is provided in the optical path to the CIGS sensor 926. As a result of these combinations, light in a narrow area is incident on each of the red pixel, the green pixel, the blue pixel, and the solar blind pixel, as in FIG.

第6実施例はさらに、赤外撮影が可能となっている。このためには、可動帯域カットフィルタ903がCIGS撮像センサ926への光路から退避させられ、代わりに、可視光領域をカットして赤外領域を透過させる可動ローパスフィルタ905がCIGSセンサ926への光路中に設けられる。可動帯域カットフィルタ903および可動ローパスフィルタ905の差し換えはフィルタ駆動部907が行う。平均照度検知部909は、CIGSセンサの可視光出力に基づき、平均照度が小さくなったとき、すなわち夕暮から夜間に相当する状況になったものと判断し、フィルタ駆動部907に指示して、可動帯域カットフィルタ903を可動ローパスフィルタ905に自動切換えさせる。さらに、コントラスト検知部909は、CIGSセンサの可視光出力に基づき、コントラストが小さくなったとき、雨や霧で視界が悪くなったものと判断し、フィルタ駆動部907に指示して、可動帯域カットフィルタ903を可動ローパスフィルタ905に自動切換えさせる。 In the sixth embodiment, infrared imaging is further possible. For this purpose, the movable band cut filter 903 is retracted from the optical path to the CIGS imaging sensor 926, and instead the movable low-pass filter 905 that cuts the visible light region and transmits the infrared region is the optical path to the CIGS sensor 926. Provided inside. The filter drive unit 907 replaces the movable band cut filter 903 and the movable low-pass filter 905. Based on the visible light output of the CIGS sensor, the average illuminance detection unit 909 determines that the average illuminance has decreased, that is, the situation corresponding to the evening to the night, and instructs the filter driving unit 907 to move. The band cut filter 903 is automatically switched to the movable low pass filter 905. Further, based on the visible light output of the CIGS sensor, the contrast detector 909 determines that the field of view has deteriorated due to rain or fog when the contrast decreases, and instructs the filter driver 907 to cut the movable band. The filter 903 is automatically switched to the movable low-pass filter 905.

以上のようにして、第6実施例はでは、暗いときまたは視界が悪い時において、可視光撮影を赤外光撮影に自動切換えすることができる。なお、平均照度検知部909およびコントラスト検知部909は、CIGSセンサの赤外光出力に基づき、平均照度またはコントラストが大きくなったとき可動ローパスフィルタ905を可動帯域カットフィルタ903に自動切換えさせて赤外光撮影から可視光撮影へ切換えさせる。なお、AF駆動部940は上記のようなフィルタの差し換えに連動し、赤外撮影が行われるときはピント合わせに赤外補正を加える。 As described above, according to the sixth embodiment, visible light photographing can be automatically switched to infrared light photographing when it is dark or when visibility is poor. The average illuminance detection unit 909 and the contrast detection unit 909 automatically switch the movable low-pass filter 905 to the movable band cut filter 903 when the average illuminance or contrast increases based on the infrared light output of the CIGS sensor. Switch from light photography to visible light photography. The AF driving unit 940 works in conjunction with the above-described filter replacement, and adds infrared correction to focus when infrared imaging is performed.

図38は、第6実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフであり、図38(A)は可視光撮影の状態、図38(B)は赤外光撮影の状態をそれぞれ示している。CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840のおよび青透過フィルタの分光透過率842はそれぞれ図33と同じである。これに対し、赤透過フィルタの分光透過率932は、赤より長波長側を透過させるローパスフィルタとなっている。また、赤外光透過フィルタの分光透過率936は、ソーラーブラインド領域およびそれ以外の近赤外領域の光を透過させるローパスフィルタとなっており、図38(B)からわかるようにソーラーブラインド領域よりも短波長側の近赤外領域を比較的広く透過させている。さらに、固定ハイパスフィルタ901の分光感度は、ソーラーブラインド領域より長波長側をカットするハイパスフィルタとなっている。 38A and 38B are graphs for explaining the spectral transmission characteristics of the filter of the CIGS image sensor 626 in the sixth embodiment. FIG. 38A is a visible light imaging state, and FIG. 38B is an infrared light imaging. Each state is shown. The spectral sensitivity 832 of the CIGS sensor, the spectral irradiance 834 of sunlight, the spectral transmission factor 840 of the green transmission filter, and the spectral transmission factor 842 of the blue transmission filter are the same as in FIG. On the other hand, the spectral transmittance 932 of the red transmission filter is a low-pass filter that transmits longer wavelengths than red. In addition, the spectral transmittance 936 of the infrared light transmission filter is a low-pass filter that transmits light in the solar blind region and other near infrared regions. As can be seen from FIG. Also, the near-infrared region on the short wavelength side is transmitted relatively widely. Furthermore, the spectral sensitivity of the fixed high-pass filter 901 is a high-pass filter that cuts the longer wavelength side than the solar blind region.

以上のような構成において、図38(A)では、斜線部に示すように、可動帯域カットフィルタ903が赤領域より長波長側であってかつソーラーブラインド領域よりも短波長側の光をカットしている。この結果、図33と同様にして赤画素、緑画素、青画素およびソーラーブラインド画素のそれぞれに狭い領域の光がそれぞれ入射することになる合成分光透過率が達成されている。なお、図38(A)の状態では、赤画素においても赤画像に重畳してソーラーブラインド投射ビームの反射光が感知される。この反射光は予めわかっているビーム投射タイミングでしか感知されないので、このタイミングにおける出力変化から投射ビーム反射光を検知して距離検知情報に利用することもできる。なお、赤画素がソーラーブラインド領域に感度をもっていても、太陽光による影響はないので、投射ビームが関与しないかぎり、赤の可視光撮像には問題はない。 In the above configuration, in FIG. 38A, the movable band cut filter 903 cuts light on the longer wavelength side than the red region and on the shorter wavelength side than the solar blind region, as indicated by the hatched portion. ing. As a result, similar to FIG. 33, a combined spectral transmittance is achieved in which light in a narrow area is incident on each of the red pixel, the green pixel, the blue pixel, and the solar blind pixel. In the state of FIG. 38A, the reflected light of the solar blind projection beam is sensed by superimposing it on the red image even in the red pixel. Since this reflected light is detected only at a previously known beam projection timing, the projected beam reflected light can be detected from the output change at this timing and used for distance detection information. Even if the red pixel has sensitivity in the solar blind region, there is no influence of sunlight, so that there is no problem with red visible light imaging unless the projection beam is involved.

これに対し、図38(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域をカットしている。この結果、近赤外のかなり広い帯域の光が赤外画素に入射することになる。これによって太陽光を光源とするものも含めた赤外光による撮像が可能となる。また、ソーラーブラインド領域の光も入射可能なので、投射ビームによる距離測定も可能である。ここで図38(B)の状態では赤画素は赤外画素とほぼ同じ分光透過率を持つことになるので、赤外撮影においては、赤画素を赤外画素と看做して撮像情報に活用することができる。 On the other hand, in FIG. 38B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region as indicated by the hatched portion. As a result, light in a fairly wide band in the near infrared is incident on the infrared pixel. As a result, imaging using infrared light including that using sunlight as a light source becomes possible. In addition, since light in the solar blind region can be incident, distance measurement using a projection beam is also possible. Here, in the state of FIG. 38B, the red pixel has almost the same spectral transmittance as that of the infrared pixel. Therefore, in infrared imaging, the red pixel is regarded as the infrared pixel and used for imaging information. can do.

なお、第6実施例において広い帯域の近赤外光を入射させることによる収差およびピント位置のずれが問題になるときは、赤外光透過フィルタの分光透過率936のカットオフ波長を例えば1000nm程度としてソーラーブラインド領域に近づけるとともに、可動ローパスフィルタ905のカットオフ波長もこれに対応して1000nm程度にシフトさせ、短波長側の近赤外光をカットするようにする。これによって赤外光撮影の帯域を狭くし、収差およびピント位置のずれを軽減す売ることができる。但し、これによって赤外光撮影の光量が低下するので両者の兼ね合いから赤外光撮影の透過帯域幅を決定する。また、目的に応じ、そのピークをどこにするかの選択も可能である。 In the sixth embodiment, when aberration due to incidence of near-infrared light in a wide band and shift in focus position become problems, the cutoff wavelength of the spectral transmittance 936 of the infrared light transmission filter is set to about 1000 nm, for example. As a result, the cut-off wavelength of the movable low-pass filter 905 is shifted to about 1000 nm correspondingly to cut near-infrared light on the short wavelength side. As a result, the infrared imaging band can be narrowed to reduce aberrations and focus position shifts. However, since this reduces the amount of light for infrared light photography, the transmission bandwidth for infrared light photography is determined based on the balance between the two. Also, it is possible to select where the peak is depending on the purpose.

図39は、図37の第6実施例における監視記録制御部632の動作のフローチャートである。その内容は、図34の第5実施例におけるフローチャートと共通するところが多いので、共通するところには同一のステップ番号を付すとともに、図34と関係付けて説明する。まず、図39におけるステップS302からステップS308、ステップS334は図34の同一番号ステップと同じである。また、図39のステップS422における車両異常接近処理は、図34のステップS312からステップS324およびステップS328をまとめたものであって、その内容は同一である。同様に、図39のステップS424における異常加速度検知処理は、図34のステップS326、ステップS330およびステップS332をまとめたものであって、その内容は同一である。そして、図34のステップS310の部分が、図39のステップS426からステップS442に置き換わっている。なお、図39のステップS444における停車中処理の内容は、図35のステップS348の部分を図39のステップS426からステップS442に置き換えたものである。 FIG. 39 is a flowchart of the operation of the monitoring record controller 632 in the sixth embodiment of FIG. Since the contents are often in common with the flowchart in the fifth embodiment of FIG. 34, the common steps are given the same step numbers and will be described in relation to FIG. First, step S302 to step S308 and step S334 in FIG. 39 are the same as the step with the same number in FIG. Further, the vehicle abnormal approach process in step S422 in FIG. 39 is a combination of steps S312 to S324 and S328 in FIG. 34, and the contents thereof are the same. Similarly, the abnormal acceleration detection process in step S424 in FIG. 39 is a combination of step S326, step S330, and step S332 in FIG. 34, and the contents thereof are the same. 34 is replaced by step S442 from step S426 in FIG. The contents of the stopping process in step S444 in FIG. 39 are obtained by replacing step S348 in FIG. 35 from step S426 in FIG. 39 to step S442.

以上の前提のもとで、図39のステップS426からステップS442について説明する。これらの部分は、図37で説明した可動ローパスフィルタ905と可動帯域カットフィルタ903の自動切換えおよび、これに連動するAF駆動部940の赤外補正に関するものである。図39において、ステップS308で前方および後方の車間距離が検知されると、ステップS426では手動で赤外撮影が選択されたかどうかチェックする。選択がなければステップS428に移行し、平均照度検知部909により検知される照度が所定以下かどうかチェックする。照度が所定以下でなければさらにステップS430でコントラスト検知部911により検知されるコントラストが所定以下であるかどうかチェックする。 Based on the above assumptions, steps S426 to S442 in FIG. 39 will be described. These portions relate to automatic switching between the movable low-pass filter 905 and the movable band cut filter 903 described with reference to FIG. 37, and infrared correction of the AF driving unit 940 in conjunction therewith. In FIG. 39, when the front and rear inter-vehicle distances are detected in step S308, it is checked in step S426 whether infrared imaging has been manually selected. If there is no selection, the process proceeds to step S428, and it is checked whether the illuminance detected by the average illuminance detection unit 909 is equal to or less than a predetermined value. If the illuminance is not less than the predetermined value, it is further checked in step S430 if the contrast detected by the contrast detection unit 911 is less than the predetermined value.

ステップS430でコントラストが所定以下であると判断されたときはステップS432に進み、可視光帯域をカットする可動ローパスフィルタ905を挿入する指示をフィルタ制御部907に行う。なお、ステップS426で手動赤外撮影選択が検知されたとき、またはステップS428で照度が所定以下であることが検知されたときは直ちにステップS432に移行する。次いで、ステップS434では、AF駆動部940に赤外補正つきのカメラAFによるピント合わせを行うよう指示する。さらにステップS436では赤外光画像出力を選択するよう画像処理部に指示してステップS422に移行する。 When it is determined in step S430 that the contrast is equal to or lower than the predetermined value, the process proceeds to step S432, and an instruction to insert a movable low-pass filter 905 that cuts the visible light band is given to the filter control unit 907. When manual infrared imaging selection is detected in step S426, or when it is detected in step S428 that the illuminance is not more than a predetermined value, the process immediately proceeds to step S432. Next, in step S434, the AF driving unit 940 is instructed to perform focusing by camera AF with infrared correction. In step S436, the image processing unit is instructed to select infrared image output, and the process proceeds to step S422.

一方、ステップS430でコントラストについても所定以下でなかったときはステップS438に移行し、ソーラーブラインド以外の赤外帯域をカットする可動帯域カットフィルタ903を挿入する指示をフィルタ制御部907に行う。次いで、ステップS440では、AF駆動部940に赤外補正なしのカメラAFによるピント合わせを行うよう指示する。さらにステップS436では可視光画像出力を選択するよう画像処理部に指示してステップS422に移行する。 On the other hand, if the contrast is not less than or equal to the predetermined value in step S430, the process proceeds to step S438, and the filter controller 907 is instructed to insert a movable band cut filter 903 that cuts the infrared band other than the solar blind. Next, in step S440, the AF drive unit 940 is instructed to perform focusing by camera AF without infrared correction. In step S436, the image processing unit is instructed to select visible light image output, and the process proceeds to step S422.

図40は、本発明の第7実施例の車両用監視装置の前方および後方カメラ/センサに用いられるCIGS撮像センサのカラーフィルタ配列である。このフィルタ配列は、基本的には原色カラーフィルタにおいて代表的なベイヤー配列と全く同様であって、赤透過フィルタR21(IR21)、緑透過フィルタG11、G22、および青透過フィルタB12を有する。但し、第7実施例では、後述のようにフィルタ切換えによって赤透過フィルタR21(IR21)に該当する画素の出力が赤外光出力としても兼用される。本発明の第7実施例の車両用監視装置の前方および後方カメラ/センサの構成は、図37に示した第6実施例と共通であり、上記のようにCIGS撮像センサ926のフィルタ配列のみが異なる。 FIG. 40 is a color filter array of a CIGS imaging sensor used for the front and rear cameras / sensors of the vehicle monitoring apparatus according to the seventh embodiment of the present invention. This filter arrangement is basically the same as a typical Bayer arrangement in primary color filters, and includes a red transmission filter R21 (IR21), green transmission filters G11 and G22, and a blue transmission filter B12. However, in the seventh embodiment, the output of the pixel corresponding to the red transmission filter R21 (IR21) is also used as the infrared light output by switching the filter as described later. The configuration of the front and rear cameras / sensors of the vehicle monitoring apparatus of the seventh embodiment of the present invention is the same as that of the sixth embodiment shown in FIG. 37, and only the filter array of the CIGS image sensor 926 is as described above. Different.

図41は、第7実施例におけるCIGS撮像センサ626のフィルタの分光透過特性を説明するためのグラフであり、図38の場合と同様にして、図41(A)は可視光撮影の状態、図41(B)は赤外光撮影の状態をそれぞれ示している。CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840、青透過フィルタの分光透過率842、赤透過フィルタの分光透過率932、固定ハイパスフィルタ901の分光感度および可動帯域カットフィルタ903の分光感度は、それぞれ図38(A)と同じである。つまり、第7実施例では、上記のCIGS撮像センサのカラーフィルタ配列により、赤外専用の画素が除かれたことだけが第6実施例と異なる。 FIG. 41 is a graph for explaining the spectral transmission characteristics of the filter of the CIGS imaging sensor 626 in the seventh embodiment. FIG. 41A shows the state of visible light imaging, as in FIG. 41 (B) shows the state of infrared light photography. CIGS sensor spectral sensitivity 832, solar spectral irradiance 834, green transmission filter spectral transmission factor 840, blue transmission filter spectral transmission factor 842, red transmission filter spectral transmission factor 932, fixed high-pass filter 901 spectral sensitivity and The spectral sensitivity of the movable band cut filter 903 is the same as that in FIG. That is, the seventh embodiment differs from the sixth embodiment only in that the infrared-only pixels are removed by the color filter array of the CIGS imaging sensor.

この結果、図41(A)の状態では、図40のR21(IR21)とうに該当する分光透過率932の赤画素に赤画像に重畳してソーラーブラインド投射ビームの反射光が感知されることになる。第7実施例ではソーラーブラインド反射光検出のための専用画像を持たないので、赤画素の赤画像出力からソーラーブラインド反射光成分を分離するため、投射ビームを高速で断続させる。この断続タイミングは予めわかっているので、投射タイミングに同期して増加する赤画素出力があれば、これをソーラーブラインド反射光として分離する。なお、赤画素がソーラーブラインド領域に感度をもっていても、太陽光による影響はないので、投射ビームが関与しないかぎり、赤の可視光撮像には問題はないことは第6実施例と同様である。 As a result, in the state of FIG. 41A, the reflected light of the solar blind projection beam is detected by superimposing the red image on the red pixel of the spectral transmittance 932 corresponding to R21 (IR21) of FIG. . In the seventh embodiment, since there is no dedicated image for detecting the solar blind reflected light, the projection beam is intermittently interrupted in order to separate the solar blind reflected light component from the red image output of the red pixel. Since this intermittent timing is known in advance, if there is a red pixel output that increases in synchronization with the projection timing, it is separated as solar blind reflected light. Note that even if the red pixel has sensitivity in the solar blind area, it is not affected by sunlight. Therefore, as long as the projection beam is not involved, there is no problem with red visible light imaging as in the sixth embodiment.

これに対し、図41(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている。この結果、分光透過率932の赤画素には1000nmから1100nm近辺までの太陽光に基づく赤外光およびソーラーブラインド投射ビームの反射光が検知される。ここでも、赤画素の赤外光出力からソーラーブラインド反射光成分を分離するため、投射ビームを高速で断続させる。この断続タイミングは予めわかっているので、図41(A)の場合と同様、投射タイミングに同期して増加する赤画素出力があれば、これをソーラーブラインド反射光として分離することができる。 On the other hand, in FIG. 41B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm as shown by the hatched portion. As a result, red light having a spectral transmittance of 932 detects infrared light based on sunlight from 1000 nm to around 1100 nm and reflected light of the solar blind projection beam. Again, in order to separate the solar blind reflected light component from the red pixel infrared light output, the projection beam is intermittently interrupted. Since the intermittent timing is known in advance, as in the case of FIG. 41A, if there is a red pixel output that increases in synchronization with the projection timing, it can be separated as solar blind reflected light.

なお、図41(B)において、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている例を示したが、これは第7実施例に特有のことではない。既に第6実施例において、収差およびピント位置の問題への対処のため可動ローパスフィルタ905のカットオフ波長を1000nm程度にシフトさせることについて説明したが、図41(B)はこのような構成を採用した例を具体的に示したものである。第7実施例においても、ソーラーブラインド反射光成分の分離、および収差およびピント位置のずれの観点で問題がない場合は、第6実施例と同様にして、赤外撮影状態における可動ローパスフィルタ905のカットオフ波長を短波長側にシフトしてもよい。 FIG. 41B shows an example in which the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm, but this is not unique to the seventh embodiment. In the sixth embodiment, it has already been described that the cut-off wavelength of the movable low-pass filter 905 is shifted to about 1000 nm in order to cope with the problem of aberration and focus position. FIG. 41B adopts such a configuration. This example is specifically shown. Also in the seventh embodiment, when there is no problem in terms of separation of reflected light components of the solar blind, aberration, and focus position shift, the movable low-pass filter 905 in the infrared imaging state is the same as in the sixth embodiment. The cutoff wavelength may be shifted to the short wavelength side.

図42は、本発明の第8実施例の車両用監視装置の前方および後方カメラ/センサに用いられるCIGS撮像センサのカラーフィルタの分光透過特性を説明するためのグラフである。第8実施例は、基本的には第7実施例と同様の構成を持つ。すなわちCIGS撮像センサのフィルタ配列は、図40に示すようなベイヤー配列であり、第7実施例と同様にしてフィルタ切換えにより赤透過フィルタR21に該当する画素の出力が赤外光出力としても兼用される。また、第7実施例と同様にして、車両用監視装置の前方および後方カメラ/センサの構成は、図37に示した第6実施例と共通のものである。図42の第8実施例が第7実施例と異なるのは、ソーラーブラインドビーム反射光検知による距離検知機能を省略し、専ら可視光による通常昼間の可視光ドライブレコーダおよび夜間または霧中などにおける赤外光ドライブレコーダの自動切換えに機能を絞った点にある。 FIG. 42 is a graph for explaining the spectral transmission characteristics of the color filter of the CIGS image sensor used in the front and rear cameras / sensors of the vehicle monitoring apparatus according to the eighth embodiment of the present invention. The eighth embodiment has basically the same configuration as the seventh embodiment. That is, the filter arrangement of the CIGS imaging sensor is a Bayer arrangement as shown in FIG. 40, and the output of the pixel corresponding to the red transmission filter R21 is also used as the infrared light output by switching the filter as in the seventh embodiment. The Similarly to the seventh embodiment, the configuration of the front and rear cameras / sensors of the vehicle monitoring apparatus is the same as that of the sixth embodiment shown in FIG. The eighth embodiment of FIG. 42 differs from the seventh embodiment in that the distance detection function by solar blind beam reflected light detection is omitted, and the visible light drive recorder in the normal daytime with only visible light and the infrared light in the nighttime or in fog. The function is limited to automatic switching of the optical drive recorder.

第8実施例においても、図38および図41と同様にして、図42(A)は可視光撮影の状態、図42(B)は赤外光撮影の状態をそれぞれ示している。また、図42において、CIGSセンサの分光感度832、太陽光の分光放射照度834、緑透過フィルタの分光透過率840、青透過フィルタの分光透過率842、赤透過フィルタの分光透過率932、および可動帯域カットフィルタ903の分光感度は、それぞれ図41(A)と同じである。図42が図41と異なるのは、固定ハイパスフィルタ901が1100nm近辺のソーラーブラインド領域を含めこれより長い波長域をカットする分光透過率となっており、CIGSセンサのソーラーブラインド領域の感度を利用していない点である。 Also in the eighth embodiment, similarly to FIGS. 38 and 41, FIG. 42 (A) shows the state of visible light photographing, and FIG. 42 (B) shows the state of infrared light photographing, respectively. 42, the spectral sensitivity 832 of the CIGS sensor, the spectral irradiance 834 of sunlight, the spectral transmission factor 840 of the green transmission filter, the spectral transmission factor 842 of the blue transmission filter, the spectral transmission factor 932 of the red transmission filter, and the movable The spectral sensitivity of the band cut filter 903 is the same as that in FIG. FIG. 42 differs from FIG. 41 in that the fixed high-pass filter 901 has a spectral transmittance that cuts a longer wavelength range including the solar blind region near 1100 nm, and uses the sensitivity of the CIGS sensor in the solar blind region. That is not the point.

これによって、可動帯域カットフィルタ903が挿入されている図42(A)の状態では分光透過率932の赤画素に赤画像のみが感知されることになる。これに対し、図42(B)では、可動帯域カットフィルタ903が除去され、斜線部に示すように、可動ローパスフィルタ905が可視光領域および1000nm近辺までの近赤外領域をカットしている。この結果、分光透過率932の赤画素には1000nmから1100nm近辺までの太陽光に基づく赤外光が検知される。このようにして、CIGSセンサの広い分光感度を利用し、ベイヤー配列における赤画素が可視光撮影における赤画像検知および赤外光撮影における赤外画像検知に切換えて利用される。なお、このような第8実施例のCIGSセンサはドライブレコーダに限らず、第1実施例、第2実施例におけるカメラ、また第4実施例におけるような内視鏡においても採用が可能なものである。 Thus, in the state of FIG. 42A in which the movable band cut filter 903 is inserted, only the red image is sensed by the red pixel having the spectral transmittance 932. On the other hand, in FIG. 42B, the movable band cut filter 903 is removed, and the movable low-pass filter 905 cuts the visible light region and the near-infrared region up to about 1000 nm as shown by the hatched portion. As a result, infrared light based on sunlight from 1000 nm to around 1100 nm is detected by the red pixel having the spectral transmittance of 932. In this way, the wide spectral sensitivity of the CIGS sensor is used, and the red pixels in the Bayer array are switched to red image detection in visible light photography and infrared image detection in infrared light photography. The CIGS sensor of the eighth embodiment is not limited to the drive recorder, but can be used in the cameras in the first and second embodiments, and in the endoscope in the fourth embodiment. is there.

本発明は、車両用の監視装置を提供するものである。 The present invention provides a monitoring device for a vehicle.

626 光電変換部
624 撮像レンズ
630 赤外光投射部
636、736 画像処理部
IR11、G11、B12、R21、R21(IR21) フィルタ
632 制御部
622、722 画像取得部
636 抽出部
636 検知部
636 可視情報取得部
636 赤外光情報取得部
903 帯域カットフィルタ
905 ローパスフィルタ
626 Photoelectric conversion unit 624 Imaging lens 630 Infrared light projection unit 636, 736 Image processing unit IR11, G11, B12, R21, R21 (IR21) Filter 632 Control unit 622, 722 Image acquisition unit 636 Extraction unit 636 Detection unit 636 Visible information Acquisition Unit 636 Infrared Light Information Acquisition Unit 903 Band Cut Filter 905 Low Pass Filter

Claims (5)

可視光域において60%以上の量子効率を有するとともに太陽光が大気の吸収によって地表において微弱となる赤外光域においても有効な量子効率を有している複数の受光部が規則的に配列された光電変換部と、前記光電変換部に被写体像を結像させる撮像レンズと、前記太陽光が地表において微弱となる赤外光域の赤外光を投射する赤外光投射部と、前記光電変換部から可視光域の画像を取得する可視光情報取得部および前記光電変換部から前記赤外投射部から投射された前記赤外光の反射画像を取得する赤外光情報取得部を持つ画像処理部とを有することを特徴とする車両用監視装置であって、前記画像処理部は、前記可視光域の画像から車両の画像を抽出するとともに抽出された車両の画像の重心からの赤外光の反射画像を取得することを特徴とする車両用監視装置A plurality of light-receiving portions having a quantum efficiency of 60% or more in the visible light region and having an effective quantum efficiency in the infrared light region where sunlight is weak on the ground surface due to atmospheric absorption are regularly arranged. A photoelectric conversion unit, an imaging lens that forms a subject image on the photoelectric conversion unit, an infrared light projection unit that projects infrared light in an infrared region where the sunlight is weak on the ground surface, and the photoelectric conversion unit A visible light information acquisition unit that acquires an image in the visible light range from the conversion unit, and an infrared light information acquisition unit that acquires a reflected image of the infrared light projected from the infrared light projection unit from the photoelectric conversion unit. An image processing unit , wherein the image processing unit extracts a vehicle image from the image in the visible light range and extracts red from the center of gravity of the extracted vehicle image. Obtaining external light reflection images The vehicle monitoring system according to claim and. 前記画像処理部は、車両の画像が複数重なっている時、最も近い単独車両の画像を抽出することを特徴とする請求項記載の車両用監視装置。 Wherein the image processing unit, when the image of the vehicle is overlapped plural, the vehicle monitoring system according to claim 1, wherein extracting the image of the closest single vehicle. 前記画像処理部が取得する赤外光の反射光画像位置と前記赤外光投射部からの赤外光投射方向により反射対象までの距離を算出する制御部を有することを特徴とする請求項1または2記載の車両用監視装置。 2. A control unit that calculates a distance to a reflection target based on a reflected light image position of infrared light acquired by the image processing unit and an infrared light projection direction from the infrared light projection unit. Or the monitoring apparatus for vehicles of 2 . 可視領域および太陽光が大気の吸収によって地表において微弱となる帯域の赤外光に感度を有する光電変換部と、前記太陽光が地表において微弱となる赤外光域の赤外光を所定のタイミングで投射する赤外光投射部と、前記光電変換部より可視光域の画像を取得する可視光情報取得部と、前記赤外投射部による赤外光投射タイミングにおいて前記太陽光が地表において微弱となる赤外光域の赤外光の反射光情報を前記光電変換部から取得する赤外光情報取得部と、前記可視光域の画像から車両の画像を抽出するとともに抽出された車両の画像の重心からの赤外光の反射画像を取得する画像処理部とを有することを特徴とする車両用監視装置。 A photoelectric conversion unit having sensitivity to infrared light in a band in which the visible region and sunlight are weak on the ground surface due to atmospheric absorption, and infrared light in the infrared light region in which the sunlight is weak on the ground surface at a predetermined timing Infrared light projection unit for projecting, visible light information acquisition unit for acquiring an image in the visible light region from the photoelectric conversion unit, and the sunlight on the ground surface at the infrared light projection timing by the infrared light projection unit An infrared light information acquisition unit that acquires reflected light information of infrared light in the infrared light region from the photoelectric conversion unit, and extracts a vehicle image from the visible light region image and the extracted vehicle image And an image processing unit that acquires an infrared reflected image from the center of gravity of the vehicle. 前記可視光情報取得部が取得する可視光情報および前記赤外光情報取得部が取得する赤外光情報の少なくともいずれか一方を記録する記録部を有することを特徴とする請求項1からのいずれかに記載の車両用監視装置。 From claim 1 characterized by having a recording unit for recording at least one of infrared light information visible information and the infrared light information acquiring section the visible light information acquisition unit acquires acquires the 4 The monitoring apparatus for vehicles in any one.
JP2009200706A 2009-08-31 2009-08-31 Vehicle monitoring device Expired - Fee Related JP5537870B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009200706A JP5537870B2 (en) 2009-08-31 2009-08-31 Vehicle monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009200706A JP5537870B2 (en) 2009-08-31 2009-08-31 Vehicle monitoring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014092427A Division JP5815072B2 (en) 2014-04-28 2014-04-28 Vehicle monitoring device

Publications (3)

Publication Number Publication Date
JP2011055135A JP2011055135A (en) 2011-03-17
JP2011055135A5 JP2011055135A5 (en) 2012-10-11
JP5537870B2 true JP5537870B2 (en) 2014-07-02

Family

ID=43943721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009200706A Expired - Fee Related JP5537870B2 (en) 2009-08-31 2009-08-31 Vehicle monitoring device

Country Status (1)

Country Link
JP (1) JP5537870B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5909975B2 (en) * 2011-10-06 2016-04-27 ソニー株式会社 Imaging apparatus and electronic apparatus
CN105466437A (en) * 2014-09-12 2016-04-06 江苏南大五维电子科技有限公司 Path detection system based on solar blind ultraviolet light signal
CN107407855B (en) * 2015-04-08 2019-12-13 麦克赛尔株式会社 Vehicle-mounted camera

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5920115B2 (en) * 1979-11-26 1984-05-10 日産自動車株式会社 Obstacle detection device
JP2002260167A (en) * 2001-03-05 2002-09-13 Natl Inst For Land & Infrastructure Management Mlit Infrared-complementary visible vehicle detection system
JP2005092448A (en) * 2003-09-16 2005-04-07 Nissan Motor Co Ltd Device and method for image recognition
JP2005311329A (en) * 2004-03-22 2005-11-04 Fuji Photo Film Co Ltd Photoelectric conversion element and imaging device
JP2007311647A (en) * 2006-05-19 2007-11-29 Fujifilm Corp Solid state imaging element
JP5058632B2 (en) * 2007-03-02 2012-10-24 キヤノン株式会社 Imaging device
JP5031617B2 (en) * 2008-02-25 2012-09-19 パイオニア株式会社 Related area specifying apparatus and method, and image recognition apparatus and method

Also Published As

Publication number Publication date
JP2011055135A (en) 2011-03-17

Similar Documents

Publication Publication Date Title
JP5452137B2 (en) Travel information recording device for vehicle
JP2011147469A (en) Biological information acquisition device
WO2010021342A2 (en) Camera
JP2011151596A (en) Biometrics authentication device and mobile device
US10564267B2 (en) High dynamic range imaging of environment with a high intensity reflecting/transmitting source
CN104512411B (en) Vehicle control system and imaging sensor
JP2011149901A (en) Light receiving device and mobile apparatus
JP4992481B2 (en) Focus detection apparatus and imaging apparatus
JP5815072B2 (en) Vehicle monitoring device
WO2020149207A1 (en) Imaging device and electronic equipment
JP2020056839A (en) Imaging apparatus
WO2016162983A1 (en) Vehicle-mounted camera
WO2021241019A1 (en) Imaging element and imaging device
JP2010227200A (en) Endoscope
WO2021085091A1 (en) Solid-state imaging device and electronic apparatus
JP2020057869A (en) Imaging apparatus
JP5537870B2 (en) Vehicle monitoring device
JP2010245846A (en) Vehicle periphery monitoring device
JP7468885B2 (en) Camera equipment
JP2010233857A (en) Endoscope
JP4795813B2 (en) Vehicle perimeter monitoring device
JP2010062742A (en) Camera
JP2015194388A (en) Imaging device and imaging system
WO2023013156A1 (en) Imaging element and electronic device
JP7316340B2 (en) Solid-state imaging device and electronic equipment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120827

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120830

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5537870

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140428

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees